text
stringlengths
0
25.1k
Antoine Meillet
Paul Jules Antoine Meillet, né le à Moulins (Allier) et mort le à Châteaumeillant (Cher), est un philologue français, le principal linguiste français des premières décennies du .
Biographie.
Enfance et formation.
D'origine bourbonnaise, fils d'un notaire de Châteaumeillant (Cher), Antoine Meillet fait ses études secondaires au lycée de Moulins.
Étudiant à partir de 1885 à la faculté des lettres de Paris où il suit notamment les cours de Louis Havet, il assiste également à ceux de Michel Bréal au Collège de France et de Ferdinand de Saussure à l'École pratique des hautes études.
En 1889, il est major de l'agrégation de grammaire.
Il assure à la suite de Saussure le cours de grammaire comparée, qu'il complète à partir de 1894 par une conférence sur les langues persanes.
En 1897, il soutient sa thèse pour le doctorat ès lettres "(Recherches sur l'emploi du génitif-accusatif en vieux-slave)".
Carrière.
En 1905, il occupe la chaire de grammaire comparée au Collège de France, où il consacre ses cours à l'histoire et à la structure des langues indo-européennes. Il succéda au linguiste Auguste Carrière à la tête de la chaire d'arménien à l'École des langues orientales.
Secrétaire de la Société de linguistique de Paris, il est élu à l'Académie des inscriptions et belles-lettres en 1924. Il préside également l'Institut d'Études Slaves de 1921 à sa mort.
Il a formé toute une génération de linguistes français, parmi lesquels Émile Benveniste, Marcel Cohen, Georges Dumézil, Lilias Homburger, André Martinet, Aurélien Sauvageot, Lucien Tesnière, Joseph Vendryes, ainsi que le japonisant Charles Haguenauer. Antoine Meillet devait diriger la thèse de Jean Paulhan sur la sémantique du proverbe et c'est lui qui découvrit Gustave Guillaume.
Il a influencé aussi un certain nombre de linguistes étrangers. Il a également été le premier à identifier le phénomène de la grammaticalisation.
Selon le linguiste allemand Walter Porzig, Meillet est un « grand précurseur ». Il montre, par exemple, que, dans les dialectes indo-européens, les groupes indo-européens sont le résultat historique d'une variation diatopique.
L’acte de naissance de la sociolinguistique est signé par Antoine Meillet fondateur de la sociolinguistique qui s’est opposé au Cours de linguistique générale de Ferdinand de Saussure dès son apparition en 1916 en le critiquant sur plusieurs plans.
Études homériques.
À la Sorbonne, Meillet supervise le travail de Milman Parry. Meillet offre à son étudiant l'opinion, nouvelle à cette époque, que la structure formulaïque de "l'Iliade" serait une conséquence directe de sa transmission orale. Ainsi, il le dirige vers l'étude de l'oralité dans son cadre natif et lui suggère d'observer les mécanismes d'une tradition orale vivante à côté du texte classique ("l'Iliade") qui est censé résulter d'une telle tradition. En conséquence, Meillet présente Parry à Matija Murko, savant originaire de Slovénie qui avait longuement écrit sur la tradition héroïque épique dans les Balkans, surtout en Bosnie-Herzégovine. Par leurs recherches, dont les résultats sont à présent hébergés par l'université de Harvard, Parry et son élève, Albert Lord, ont profondément renouvelé les études homériques.
Algèbre linéaire
L’algèbre linéaire est la branche des mathématiques qui s'intéresse aux espaces vectoriels et aux transformations linéaires, formalisation générale des théories des systèmes d'équations linéaires.
Histoire.
L'algèbre linéaire est initiée dans son principe par le mathématicien perse Al-Khwârizmî qui s'est inspiré des textes de mathématiques indiens et qui a complété les travaux de l'école grecque, laquelle continuera de se développer des siècles durant. Elle a été reprise par René Descartes qui pose des problèmes de géométrie, comme la détermination de l'intersection de deux droites, en termes d'équation linéaire, établissant dès lors un pont entre deux branches mathématiques jusqu'alors séparées : l'algèbre et la géométrie. S'il ne définit pas la notion de base de l'algèbre linéaire qu'est celle d'espace vectoriel, il l'utilise déjà avec succès, et cette utilisation naturelle des aspects linéaires des équations manipulées demeurera utilisée de manière "ad hoc", fondée essentiellement sur les idées géométriques sous-jacentes. Après cette découverte, les progrès en algèbre linéaire vont se limiter à des études ponctuelles comme la définition et l'analyse des premières propriétés des déterminants par Jean d'Alembert.
Ce n'est qu'au que l'algèbre linéaire devient une branche des mathématiques à part entière. Carl Friedrich Gauss trouve une méthode générique pour la résolution des systèmes d'équations linéaires et Camille Jordan résout définitivement le problème de la réduction d'endomorphisme. En 1843, William Rowan Hamilton (inventeur du terme "vector") découvre les quaternions (extension de degré 4 du corps des nombres réels). En 1844, Hermann Grassmann publie son traité "Die lineale Ausdehnungslehre", "La théorie de l'extension linéaire", qui est la première tentative de formalisation générale de la notion d'espace vectoriel. Si son œuvre reste grandement inaperçue, elle contient l'essentiel des idées modernes de l'algèbre linéaire, et cette étape fondamentale dans le développement de l'algèbre linéaire est reconnue comme telle tant par Hamilton que par Giuseppe Peano, qui axiomatise entièrement la théorie en 1888. Les espaces vectoriels deviennent alors une structure générale omniprésente dans presque tous les domaines mathématiques, notamment en analyse (espaces de fonctions).
Intérêt.
Sous leur forme la plus simple, les applications linéaires dans les espaces vectoriels représentent intuitivement les déplacements dans les espaces géométriques élémentaires comme la droite, le plan ou notre espace physique. Les bases de cette théorie remplacent maintenant la représentation construite par Euclide au La construction moderne permet de généraliser la notion d'espace à des dimensions quelconques.
L'algèbre linéaire permet de résoudre tout un ensemble d'équations dites linéaires utilisées non seulement en mathématiques ou en mécanique, mais aussi dans de nombreuses autres branches comme les sciences naturelles ou les sciences sociales.
Les espaces vectoriels forment aussi un outil fondamental pour les sciences de l'ingénieur et servent de base à de nombreux domaines dans la recherche opérationnelle.
Enfin, c'est un outil utilisé en mathématiques dans des domaines aussi divers que la théorie des groupes, des anneaux ou des corps, l'analyse fonctionnelle, la géométrie différentielle ou la théorie des nombres.
Présentation élémentaire.
L'algèbre linéaire commence par l'étude de vecteurs dans les espaces cartésiens de dimension 2 et 3. Un vecteur, ici, est une classe d'équivalence de bipoints qui unifie les segments de droite caractérisés à la fois par leur longueur (ou "norme"), leur direction et leur sens : deux bipoints représentent un même vecteur si le quadrilatère formé sur les quatre points est un parallélogramme. Les vecteurs peuvent alors être utilisés pour représenter certaines entités physiques comme des déplacements, additionnés entre eux ou encore multipliés par des scalaires ("nombres"), formant ainsi le premier exemple concret d'espace vectoriel.
L'algèbre linéaire moderne s'intéresse beaucoup aux espaces de dimension arbitraire, éventuellement infinie. La plupart des résultats obtenus en dimension 2 ou 3 peuvent être étendus aux dimensions finies supérieures, ce qui permet une interprétation géométrique de listes de nombres (une liste de "n" nombres s'interprétant comme un vecteur d'un espace à "n" dimensions).
Quelques théorèmes.
D'autres théorèmes concernent les conditions d'inversion de matrices de divers types :
Un théorème intéressant à l'époque des mémoires d'ordinateurs de petite taille était qu'on pouvait travailler séparément sur des sous-ensembles (« blocs ») d'une matrice en les combinant ensuite par les mêmes règles qu'on utilise pour combiner des scalaires dans les matrices ("cf". l’article Matrice par blocs). Avec les mémoires actuelles de plusieurs gigaoctets, cette question a perdu un peu de son intérêt pratique, mais reste très prisée en théorie des nombres, pour la décomposition en produit de facteurs premiers avec le crible général de corps de nombres ("algorithme de Lanczos").
Utilisations.
Les espaces vectoriels forment le support et le fondement de l'algèbre linéaire. Ils sont aussi présents dans de nombreux domaines distincts. S'il n'est pas possible d'indiquer ici tous les cas d'utilisation, on peut tout de même citer pour les principales structures objet de théories, des exemples significatifs. Leurs rôles dans de vastes théories ne traitant pas d'une structure particulière, comme celles des nombres algébriques ou de Galois peuvent aussi être évoqués.
Les espaces vectoriels utilisés sont d'une grande diversité. On y trouve les classiques espaces vectoriels de dimension 2 ou 3 sur les nombres réels, cependant la dimension peut être quelconque, même infinie. Les nombres complexes sont aussi très utilisés, ainsi que les rationnels. Il n'est pas rare qu'une partie des nombres réels ou complexes soit considéré comme un espace vectoriel rationnel. Le corps de base peut aussi contenir un nombre fini d'éléments, définissant parfois un espace vectoriel fini.
Les propriétés géométriques de la structure permettent la démonstration de nombreux théorèmes. Elles ne se limitent pas aux cas où l'espace est réel, même dans le cas de corps plus insolites comme les corps finis ou les extensions finies des rationnels, les propriétés géométriques s'avèrent parfois essentielles.
Groupe fini.
La classification des groupes finis est une vaste question, encore objet de recherche. Si le groupe contient un petit nombre d'éléments, les théorèmes de Sylow peuvent suffire pour en déterminer la structure. Une méthode beaucoup plus puissante est nécessaire dans le cas général.
Georg Frobenius, à la suite de travaux de Richard Dedekind, développe une nouvelle théorie en 1896. Elle se fonde sur l'idée que l'ensemble des « symétries » (au sens : automorphismes) d'un espace vectoriel possède une structure de groupe. Il est toujours possible de "représenter" un groupe fini par des « symétries » bien choisies sur un espace vectoriel de dimension suffisante. Un groupe est ainsi incarné par des transformations géométriques simples. Une telle incarnation prend le nom de "représentation d'un groupe".
Les espaces vectoriels choisis sont de dimension finie, en général sur le corps des complexes, cependant pour disposer de bonnes propriétés arithmétiques le corps peut être celui des rationnels ou encore utiliser des entiers algébriques comme pour la démonstration du théorème de Burnside sur les groupes résolubles. Richard Brauer étudie un cas très abstrait, celui des représentations sur un espace vectoriel construit à l'aide d'un corps fini.
Un exemple relativement simple d'utilisation de cette théorie est donné par Burnside, avec son théorème sur les sous-groupes d'exposant fini du groupe linéaire GL("n", ℂ).
Anneau.
Un exemple célèbre d'anneau disposant aussi d'une structure d'espace vectoriel est celui des polynômes à coefficients dans un corps. Cet espace vectoriel, de dimension infinie, est largement utilisé en algèbre linéaire, à travers par exemple le polynôme minimal ou caractéristique. Le morphisme canonique entre les polynômes et les applications linéaires d'un espace vectoriel est à l'origine d'une structure d'algèbre qui est un anneau, si la multiplication externe est "oubliée".
Cette méthode permet d'élucider la structure de certains anneaux. Tout anneau est un espace vectoriel sur ceux de ses sous-anneaux qui sont des corps. L'espace vectoriel ressemble à la structure développée par Grassman. Cette remarque est utilisée au début du , en particulier par Emil Artin et Emmy Noether, pour élucider cette structure dans le cas des anneaux artiniens et noethériens, qui sont des copies de sous-algèbres sur un espace vectoriel construit sur sous-anneau qui s'avère être un corps.
Un exemple est la généralisation d'un théorème de Wedderburn par Artin et portant maintenant le nom de théorème d'Artin-Wedderburn. Il est important en algèbre non commutative.
Un lemme élémentaire permet par ailleurs d'interpréter le corps des quaternions comme l'algèbre des endomorphismes d'une représentation réelle de degré 4 du groupe associé.
Théorie de Galois.
La théorie de Galois contient de nombreux exemples d'espaces vectoriels. Elle consiste à étudier un corps comme un espace vectoriel sur un sous-corps. Ainsi chaque sous-corps permet de considérer la structure initiale comme un espace vectoriel particulier.
Un exemple d'application est celui des figures constructible à la règle et au compas. Ces points forment un corps disposant d'une structure d'espace vectoriel sur les nombres rationnels. Il est de dimension infinie et, pour chaque point, le plus petit sous-corps le contenant est de dimension finie égale à une puissance de 2. Un tel sous-corps est appelé une tour d'extensions quadratiques. Cette propriété de ces espaces vectoriels permet de résoudre d'antiques conjectures comme la duplication du cube, la trisection de l'angle ou la construction d'un polygone régulier.
L'exemple historique de la théorie est celui de la résolution d'une équation polynomiale. Le théorème d'Abel donne une condition nécessaire et suffisante de résolution par radicaux. Les espaces vectoriels utilisés ont pour éléments ceux du plus petit corps "L" contenant tous les coefficients du polynôme ainsi que ses racines et le corps sous-jacent est un sous-corps "K" du premier contenant tous les coefficients. Le groupe de Galois est composé des automorphismes du corps "L" qui laissent invariant le corps "K". Ces automorphismes sont en nombre fini et sont des automorphismes du "K"-espace vectoriel "L". L'élément clé de la démonstration montre que l'équation est résoluble seulement si ces automorphismes sont diagonalisables.
Algèbre générale
L'algèbre générale, ou algèbre abstraite, est la branche des mathématiques qui porte principalement sur l'étude des structures algébriques et de leurs relations. L'appellation "algèbre générale" s'oppose à celle d"'algèbre élémentaire" ; cette dernière enseigne le calcul algébrique, c'est-à-dire les règles de manipulation des formules et des expressions algébriques.
Historiquement, les structures algébriques sont apparues dans différents domaines des mathématiques, et n'y ont pas été étudiées séparément. C'est pourquoi l'algèbre générale possède beaucoup de connexions avec toutes les branches des mathématiques.
L'étude des structures algébriques peut être faite de manière abstraite, mais unifiée dans le cadre de l'algèbre universelle.
Histoire.
Comme dans d'autres parties des mathématiques, des problèmes et des exemples concrets ont joué un rôle important dans le développement de l'algèbre abstraite. Jusqu'à la fin du , beaucoup - ou plus - de ces problèmes étaient en quelque sorte liés à la théorie des équations algébriques. Les principaux thèmes sont les suivants:
Algèbre moderne.
La fin du et le début du a connu un énorme changement dans la méthodologie des mathématiques. L'algèbre abstraite a émergé autour du début du , sous le nom d"'algèbre moderne". Son étude faisait partie de l'entraînement pour plus de rigueur intellectuelle en mathématiques. Les définitions officielles de certaines structures algébriques ont émergé au .
Applications.
En raison de sa généralité, l'algèbre abstraite est utilisée dans de nombreux domaines des mathématiques et de la science. Par exemple, la topologie algébrique utilise des objets algébriques pour son étude. La théorie algébrique des nombres étudie divers anneaux numériques qui généralisent l'ensemble des entiers. En utilisant la théorie des nombres algébriques, Andrew Wiles a prouvé le dernier théorème de Fermat.
Algorithmique
Lalgorithmique est l'étude et la production de règles et techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est-à-dire de processus systématiques de résolution d'un problème permettant de décrire précisément des étapes pour résoudre un problème algorithmique.
Étymologie.
Le mot « algorithme » vient du nom du mathématicien Al-Khwârizmî (latinisé au Moyen Âge en ), qui, au écrivit le premier ouvrage systématique donnant des solutions aux équations linéaires et quadratiques. Le h muet, non justifié par l'étymologie, vient d’une déformation par rapprochement avec le grec (arithmós). « Algorithme » a donné « algorithmique ». Le synonyme « algorithmie », vieux mot utilisé par exemple par Wronski en 1811, est encore parfois utilisé.
Histoire.
Antiquité.
Les premiers algorithmes dont on a retrouvé des descriptions datent des Babyloniens, au . Ils décrivent des méthodes de calcul et des résolutions d'équations à l'aide d'exemples.
Un algorithme célèbre est celui qui se trouve dans le des "Éléments d'Euclide", et appelé algorithme d'Euclide. Il permet de trouver le plus grand diviseur commun, ou PGCD, de deux nombres. Un point particulièrement remarquable est qu’il contient explicitement une itération et que les et 2 démontrent sa correction.
C'est Archimède qui proposa le premier un algorithme pour le calcul de .
Étude systématique.
Le premier à avoir systématisé des algorithmes est le mathématicien perse Al-Khwârizmî, actif entre 813 et 833. Dans son ouvrage "Abrégé du calcul par la restauration et la comparaison", il étudie toutes les équations du second degré et en donne la résolution par des algorithmes généraux. Il utilise des méthodes semblables à celles des Babyloniens, mais se différencie par ses explications systématiques là où les Babyloniens donnaient seulement des exemples.
Le savant andalou Averroès (1126-1198) évoque une méthode de raisonnement où la thèse s’affine étape par étape, itérativement, jusqu’à une certaine convergence et ceci conformément au déroulement d’un algorithme. À la même époque, au , le moine Adelard de Bath introduit le terme latin de , par référence au nom de Al Khuwarizmi. Ce mot donne "algorithme" en français en 1554.
Au , on pourrait entrevoir une certaine allusion à la méthode algorithmique chez René Descartes dans la méthode générale proposée par le Discours de la méthode (1637), notamment quand, en sa deuxième partie, le mathématicien français propose de . Sans évoquer explicitement les concepts de boucle, d’itération ou de dichotomie, l’approche de Descartes prédispose la logique à accueillir le concept de programme, mot qui naît en français en 1677.
En 1843 , la mathématicienne et pionnière des sciences informatique Ada Lovelace, fille de Lord Byron et assistante de Charles Babbage réalise la première implémentation d'un algorithme sous forme de programme (calcul des nombres de Bernoulli).
Le dixième problème de Hilbert qui fait partie de la liste des posés par David Hilbert en 1900 à Paris est clairement un problème algorithmique. En l'occurrence, la réponse est qu'il n'y a pas d'algorithme répondant au problème posé.
L'époque contemporaine.
L’algorithmique des a pour fondement mathématique des formalismes, par exemple celui des machines de Turing, qui permettent de définir précisément ce qu'on entend par « étapes », par « précis » et par « non ambigu » et qui donnent un cadre scientifique pour étudier les propriétés des algorithmes. Cependant, suivant le formalisme choisi on obtient des approches algorithmiques différentes pour résoudre un même problème. Par exemple l'algorithmique récursive, l'algorithmique parallèle ou l’informatique quantique donnent lieu à des présentations d'algorithmes différentes de celles de l'algorithmique itérative.
L'algorithmique s'est surtout développée dans la deuxième moitié du , comme support conceptuel de la programmation des ordinateurs, dans le cadre du développement de l'informatique pendant cette période. Donald Knuth, auteur du traité "The Art of Computer Programming" qui décrit de très nombreux algorithmes, a contribué, avec d'autres, à poser les fondements mathématiques de leur analyse.
Vocabulaire.
Le substantif "algorithmique" désigne l'ensemble des méthodes permettant de créer des algorithmes. Le terme est également employé comme adjectif.
Un "algorithme" énonce une solution à un problème sous la forme d’un enchaînement d’"opérations à effectuer".
Les informaticiens utilisent fréquemment l’anglicisme "implémentation" pour désigner la mise en œuvre de l'algorithme dans un langage de programmation. Cette implémentation réalise la transcription des opérations constitutives de l’algorithme et précise la façon dont ces opérations sont invoquées. Cette écriture en langage informatique, est aussi fréquemment désignée par le terme de « "codage" ». On parle de "« code source »" pour désigner le texte, constituant le programme, réalisant l’algorithme. Le "code" est plus ou moins détaillé selon le niveau d’abstraction du langage utilisé, de même qu'une recette de cuisine doit être plus ou moins détaillée selon l’expérience du cuisinier.
Étude formelle.
De nombreux outils formels ou théoriques ont été développés pour décrire les algorithmes, les étudier, exprimer leurs qualités, pouvoir les comparer :