id
stringlengths
1
7
revid
stringlengths
1
9
url
stringlengths
37
43
title
stringlengths
1
247
text
stringlengths
0
465k
1
73374
https://de.wikipedia.org/wiki?curid=1
Alan Smithee
Alan Smithee steht als Pseudonym für einen fiktiven Regisseur, der Filme verantwortet, bei denen der eigentliche Regisseur seinen Namen nicht mit dem Werk in Verbindung gebracht haben möchte. Von 1968 bis 2000 wurde es von der Directors Guild of America (DGA) für solche Situationen empfohlen. Alternative Schreibweisen sind unter anderem die Ursprungsvariante "Allen Smithee" sowie "Alan Smythee" und "Adam Smithee". Auch zwei teilweise asiatisch anmutende Schreibweisen "Alan Smi Thee" und "Sumishii Aran" gehören – so die Internet Movie Database – dazu. Geschichte. Entstehung. Das Pseudonym entstand 1968 infolge der Arbeiten am Western-Film "Death of a Gunfighter" (deutscher Titel "Frank Patch – Deine Stunden sind gezählt"). Regisseur Robert Totten und Hauptdarsteller Richard Widmark gerieten in einen Streit, woraufhin Don Siegel als neuer Regisseur eingesetzt wurde. Der Film trug nach Abschluss der Arbeiten noch deutlich Tottens Handschrift, der auch mehr Drehtage als Siegel daran gearbeitet hatte, weshalb dieser die Nennung seines Namens als Regisseur ablehnte. Totten selbst lehnte aber ebenfalls ab. Als Lösung wurde "Allen Smithee" als ein möglichst einzigartiger Name gewählt. In den zeitgenössischen Kritiken wurde der Regisseur u. a. von Roger Ebert mit den Worten gelobt: Aufdeckung und Abkehr. 1997 kam die Parodie "An Alan Smithee Film: Burn Hollywood Burn" (deutscher Titel "Fahr zur Hölle Hollywood") in die Kinos, was das Pseudonym einem größeren Publikum bekannt machte, nicht zuletzt weil Arthur Hiller, der eigentliche Regisseur des Films, selbst seinen Namen zurückzog und analog zum Filmtitel das Pseudonym "Alan Smithee" benutzte. Der Film gilt als einer der schlechtesten Filme der 1990er Jahre und gewann fünf Goldene Himbeeren. Der Film "Supernova" ist der erste Post-Smithee-Film, dort führte ein gewisser "Thomas Lee" alias Walter Hill die Regie. Verwendung. Die Verwendung dieses oder eines anderen Pseudonyms ist für Mitglieder der DGA streng reglementiert. Ein Regisseur, der für einen von ihm gedrehten Film seinen Namen nicht hergeben möchte, hat nach Sichtung des fertigen Films drei Tage Zeit, anzuzeigen, dass er ein Pseudonym verwenden möchte. Der Rat der DGA entscheidet binnen zwei Tagen über das Anliegen. Erhebt die Produktionsfirma Einspruch, entscheidet ein Komitee aus Mitgliedern der DGA und der Vereinigung der Film- und Fernsehproduzenten, ob der Regisseur ein Pseudonym angeben darf. Über die Beantragung muss der Regisseur Stillschweigen halten, ebenso darf er den fertigen Film nicht öffentlich kritisieren, wenn die DGA ihm die Verwendung eines Pseudonyms zugesteht. Ein Antrag des Regisseurs auf Pseudonymisierung kann abgelehnt werden, so durfte Tony Kaye den Namen Smithee bei dem Film "American History X" nicht einsetzen, obwohl er den Antrag stellte. Auch bei nicht-US-amerikanischen Produktionen wird der Name verwendet, wie etwa beim Pilotfilm der Fernsehserie "Schulmädchen". 2007 sendete die ARD am 8. und 9. August den zweiteiligen TV-Film "Paparazzo". Auch in diesem Werk erscheint anstatt des eigentlichen Regisseurs Stephan Wagner Alan Smithee im Abspann. Regisseure, die das Pseudonym benutzt haben: Der Pilotfilm der Serie "MacGyver" und die fünfte Folge der ersten Staffel führen einen Alan Smithee als Regisseur. Auf der TV-Serien-Seite "TV Rage" wird Jerrold Freedman als Regisseur des Pilotfilms angegeben. Der Regisseur der fünften Folge ist unbekannt. Zu den Drehbuchautoren, die das Pseudonym benutzt haben, gehören Sam Raimi und Ivan Raimi, die das Drehbuch zu "Die total beknackte Nuß" als "Alan Smithee, Jr." und "Alan Smithee, Sr." schrieben. Auch in Computerspielen wird dieses Pseudonym angegeben: Im Abspann des Ego-Shooters "Marine Sharpshooter IV" aus dem Jahr 2008 wird als Art Director des Spiels "Alan Smithee" genannt. 2014 produzierte die New Yorker Performance-Kompanie Big Dance Theater "Alan Smithee Directed this Play", das im August des Jahres auch in Berlin bei Tanz im August aufgeführt wurde.
3
530688
https://de.wikipedia.org/wiki?curid=3
Actinium
Actinium ist ein radioaktives chemisches Element mit dem Elementsymbol Ac und der Ordnungszahl 89. Im Periodensystem der Elemente steht es in der 3. IUPAC-Gruppe, der Scandiumgruppe. Das Element ist ein Metall und gehört zur 7. Periode, d-Block. Es ist der Namensgeber der Gruppe der Actinoide, der ihm folgenden 14 Elemente. Geschichte. Das Actinium wurde im Jahr 1899 von dem französischen Chemiker André-Louis Debierne entdeckt, der es aus Pechblende isolierte und ihm zunächst Ähnlichkeiten mit dem Titan oder dem Thorium zuschrieb; seine Bezeichnung leitete er wegen der Radioaktivität von griechisch ἀκτίς "aktís" ‚Strahl‘ ab. Friedrich Giesel entdeckte das Element unabhängig davon im Jahr 1902 und beschrieb eine Ähnlichkeit zum Lanthan; er gab ihm den Namen Emanium, eine Bildung zu lateinisch "emano" ‚ausfließen‘, ebenfalls mit Bezug zur abgegebenen Strahlung. Nachdem Actinium und Emanium im Jahre 1904 als identisch erkannt worden waren, wurde Debiernes Namensgebung der Vorzug gegeben, da er es zuerst entdeckt hatte. Die Geschichte der Entdeckung wurde in Publikationen von 1971 und später im Jahr 2000 immer noch als fraglich beschrieben. Sie zeigen, dass die Publikationen von 1904 einerseits und die von 1899 und 1900 andererseits Widersprüche aufweisen. Gewinnung und Darstellung. Da in Uranerzen nur wenig Actinium vorhanden ist, spielt diese Quelle keine Rolle für die Gewinnung. Technisch wird das Isotop 227Ac durch Bestrahlung von 226Ra mit Neutronen in Kernreaktoren hergestellt. Durch den schnellen Zerfall des Actiniums waren stets nur geringe Mengen verfügbar. Die erste künstliche Herstellung von Actinium wurde im Argonne National Laboratory in Chicago durchgeführt. Eigenschaften. Physikalische Eigenschaften. Das Metall ist silberweiß glänzend und relativ weich. Aufgrund seiner starken Radioaktivität leuchtet Actinium im Dunkeln in einem hellblauen Licht. Actinium ist das namensgebende Element der Actinoiden, ähnlich wie Lanthan für die Lanthanoiden. Die Gruppe der Elemente zeigt deutlichere Unterschiede als die Lanthanoide; daher dauerte es bis 1945, bis Glenn T. Seaborg die wichtigsten Änderungen zum Periodensystem von Mendelejew vorschlagen konnte: die Einführung der Actinoide. Chemische Eigenschaften. Es ist sehr reaktionsfähig und wird von Luft und Wasser angegriffen, überzieht sich aber mit einer Schicht von Actiniumoxid, wodurch es vor weiterer Oxidation geschützt ist. Das Ac3+-Ion ist farblos. Das chemische Verhalten von Actinium ähnelt sehr dem Lanthan. Actinium ist in allen zehn bekannten Verbindungen dreiwertig. Isotope. Bekannt sind 26 Isotope, wovon nur zwei natürlich vorkommen. Das langlebigste Isotop 227Ac (Halbwertszeit 21,8 Jahre) hat zwei Zerfallskanäle: es ist ein Alpha- und Betastrahler. 227Ac ist ein Zerfallsprodukt des Uranisotops 235U und kommt zu einem kleinen Teil in Uranerzen vor. Daraus lassen sich wägbare Mengen 227Ac gewinnen, die somit ein verhältnismäßig einfaches Studium dieses Elementes ermöglichen. Da sich unter den radioaktiven Zerfallsprodukten einige Gammastrahler befinden, sind aber aufwändige Strahlenschutzvorkehrungen nötig. Verwendung. Actinium wird zur Erzeugung von Neutronen eingesetzt, die bei Aktivierungsanalysen eine Rolle spielen. Außerdem wird es für die thermoionische Energieumwandlung genutzt. Beim dualen Zerfall des 227Ac geht der größte Teil unter Emission von Beta-Teilchen in das Thoriumisotop 227Th, aber ca. 1 % zerfällt durch Alpha-Emission zu Francium 223Fr. Eine Lösung von 227Ac ist daher als Quelle für das kurzlebige 223Fr verwendbar. Letzteres kann dann regelmäßig abgetrennt und untersucht werden. Sicherheitshinweise. Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Verbindungen. Nur eine geringe Anzahl von Actiniumverbindungen ist bekannt. Mit Ausnahme von AcPO4 sind sie alle den entsprechenden Lanthanverbindungen ähnlich und enthalten Actinium in der Oxidationsstufe +3. Insbesondere unterscheiden sich die Gitterkonstanten der jeweiligen Lanthan- und Actinium-Verbindungen nur in wenigen Prozent. Oxide. Actinium(III)-oxid (Ac2O3) kann durch Erhitzen des Hydroxids bei 500 °C oder des Oxalats bei 1100 °C im Vakuum erhalten werden. Das Kristallgitter ist isotyp mit den Oxiden der meisten dreiwertigen Seltenerdmetalle. Halogenide. Actinium(III)-fluorid (AcF3) kann entweder in Lösung oder durch Feststoffreaktion dargestellt werden. Im ersten Fall gibt man bei Raumtemperatur Flusssäure zu einer Ac3+-Lösung und fällt das Produkt aus. im anderen Fall wird Actinium-Metall mit Fluorwasserstoff bei 700 °C in einer Platinapparatur behandelt. Actinium(III)-chlorid (AcCl3) wird durch Umsetzung von Actiniumhydroxid oder -oxalat mit Tetrachlormethan bei Temperaturen oberhalb von 960 °C erhalten. Die Reaktion von Aluminiumbromid und Actinium(III)-oxid führt zum Actinium(III)-bromid (AcBr3) und Behandlung mit feuchtem Ammoniak bei 500 °C führt zum Oxibromid AcOBr. Weitere Verbindungen. Gibt man Natriumdihydrogenphosphat (NaH2PO4) zu einer Lösung von Actinium in Salzsäure, erhält man weiß gefärbtes Actiniumphosphat (AcPO4 · 0,5 H2O); ein Erhitzen von Actinium(III)-oxalat mit Schwefelwasserstoff bei 1400 °C für ein paar Minuten führt zu schwarzem Actinium(III)-sulfid (Ac2S3).
5
3784544
https://de.wikipedia.org/wiki?curid=5
Ang Lee
Ang Lee (; * 23. Oktober 1954 in Chaozhou, Landkreis Pingtung, Taiwan) ist ein taiwanischer Filmregisseur, Drehbuchautor und Produzent. Er ist als vielfach ausgezeichneter Regisseur bekannt für so unterschiedliche Filme wie "Eat Drink Man Woman", die Jane-Austen-Adaption "Sinn und Sinnlichkeit" und den Martial Arts-Film "Tiger and Dragon". Für seine Filme "Brokeback Mountain" (2005) und "" (2012) wurde er jeweils mit dem Oscar in der Kategorie "Beste Regie" ausgezeichnet. Leben. Ang Lee wurde 1954 in Taiwan geboren. Seine Eltern, Emigranten aus China, lernten sich in Taiwan kennen, Lee ist ihr ältester Sohn. Die Großeltern väterlicher- und mütterlicherseits sind im Zuge der kommunistischen Revolution in China ums Leben gekommen. Da sein Vater als Lehrer häufiger die Arbeitsstelle wechselte, wuchs Ang Lee in verschiedenen Städten Taiwans auf. Entgegen den Wünschen seiner Eltern, wie sein Vater eine klassische akademische Laufbahn einzuschlagen, interessierte sich Lee für das Schauspiel und absolvierte mit ihrem Einverständnis zunächst ein Theater- und Filmstudium in Taipeh. Im Anschluss daran ging er 1978 in die USA, um an der Universität von Illinois in Urbana-Champaign Theaterwissenschaft und -regie zu studieren. Nach dem Erwerb seines B.A. in Illinois verlegte er sich ganz auf das Studium der Film- und Theaterproduktion an der Universität von New York, das er 1985 mit einem Master abschloss. Danach entschloss er sich, mit seiner ebenfalls aus Taiwan stammenden Ehefrau zusammen in den USA zu bleiben. Sein Interesse verschob sich trotz erster Erfahrungen mit dem Super-8-Film in Taiwan erst spät ganz auf Filmregie und -produktion – auch weil Lee seinen Berufswunsch seiner Familie und insbesondere seinem Vater gegenüber lange Zeit nicht eingestehen wollte. Nach dem Studium konnte er zunächst keine eigenen Projekte umsetzen. Erst ab 1992, als er seinen ersten Langfilm fertigstellte, zeichnete sich eine kontinuierliche Karriere als Regisseur ab. Als seine bisher größte Erfolge – sowohl beim Publikum als auch bei der Kritik – gelten das Martial Arts-Drama "Tiger and Dragon" mit einer pan-asiatischen Starbesetzung und der Post-Western-Liebesfilm "Brokeback Mountain" mit Heath Ledger und Jake Gyllenhaal. Für Letzteren bekam Lee 2006 als erster asiatisch-stämmiger und nicht-weißer Regisseur den Oscar für die beste Regie. Außerdem wurden Lees Filme, neben vielen weiteren Preisen, mit mittlerweile zwei Goldenen Bären der Berlinale und zwei Goldenen Löwen der Filmfestspiele von Venedig ausgezeichnet. Lee ist seit 1983 mit der Mikrobiologin Jane Lin verheiratet. Sie leben in White Plains, Westchester County, im Bundesstaat New York. Aus der Ehe stammen die Söhne Haan (* 1984) und Mason (* 1990). Ang Lee besitzt eine United States Permanent Resident Card. Filmisches Werk. Nach seinen ersten Filmerfahrungen in Taiwan setzte sich Lee erst wieder während seines Studiums in den USA ernsthaft mit dem Filmemachen auseinander. Im Rahmen seines Studiums in New York drehte er einige Kurzfilme und wirkte unter anderem beim Abschlussdreh seines Studienkollegen Spike Lee als Regieassistent mit. Sein eigener Abschlussfilm "Fine Line" gewann 1985 zwei Preise beim renommierten Filmfest seiner Universität. Erst 1992 gelang es ihm, nach dem Gewinn eines hochdotierten Drehbuchwettbewerbs in Taiwan, den ersten einer Reihe von drei Filmen zu drehen, die west-östliche Konflikte taiwanischer Familien zum Thema haben. 1992–1994: Die „Father-Knows-Best“-Trilogie. Diese ersten drei Langfilme, die Lee realisieren konnte, werden im Allgemeinen unter dem Begriff "Father Knows Best" gefasst. Diese Bezeichnung geht auf die wiederkehrende Figur des chinesischen Familienoberhaupts, gespielt jeweils vom taiwanischen Schauspieler Sihung Lung, zurück. Die drei Filme thematisieren, wie später noch öfter bei Ang Lee, familiäre Probleme, die aus dem Konflikt zwischen Selbstbestimmung und Tradition, zwischen Innen und Außen, zwischen Ost und West sowie zwischen den Generationen herrühren. Die Filme sind allesamt US-amerikanisch-taiwanische Koproduktionen. Anders als bei allen bislang folgenden Projekten handelt es sich bei den ersten Filmen Lees nicht um Adaptionen, sondern um Filme nach von ihm selbst geschriebenen Originaldrehbüchern. Der erste Film, "Schiebende Hände" (1992), handelt vom Einzug eines chinesischen Vaters bei seinem erwachsenen Sohn und der US-amerikanischen Schwiegertochter in New York und den interkulturellen Problemen, die in der neuen Wohngemeinschaft entstehen. Dies war die erste Zusammenarbeit zwischen Lee und dem Drehbuchautor und Produzenten James Schamus – seitdem bildeten die beiden bei jedem Film Lees eine enge Arbeitsgemeinschaft. Wie in den beiden folgenden Filmen schrieben sie auch gemeinsam das Drehbuch. In allen weiteren Filmen Lees (mit Ausnahme des Kurzfilms "The Hire: Chosen") hat Schamus seither entscheidende Funktionen ausgeübt. Auch die regelmäßige Zusammenarbeit mit dem Filmeditor Tim Squyres nahm in Lees Erstling ihren Anfang. Mit Ausnahme des Erfolgsfilms "Brokeback Mountain" von 2005 hat Squires jeden Film, den Ang Lee gedreht hat, geschnitten. Nach dem Erfolg seines Erstlings konnte Lee als Nächstes "Das Hochzeitsbankett" (1993) drehen, eine Komödie über die fingierte Eheschließung eines homosexuellen Exil-Taiwaners in den USA. Erneut taucht hier die Figur des strengen, aber weisen Familienoberhaupts auf. Hatte "Schiebende Hände" zunächst vor allem in Taiwan für Aufmerksamkeit (und Preise) gesorgt, wurde mit dem zweiten Langfilm Lees auch Europa auf den aufstrebenden Regisseur aufmerksam: Der Film erhielt bei der Berlinale 1993 den "Goldenen Bären" als "Bester fremdsprachiger Film" und war zudem für einen Oscar nominiert. Er gilt darüber hinaus als einer der profitabelsten Low-Budget-Filme des Jahres 1993. Mit nur einer Million US-Dollar Produktionskosten erzielte er ein Einspielergebnis von über 23 Millionen US-Dollar. Sihung Lung ist auch im letzten Teil der Trilogie, "Eat Drink Man Woman" (1994), die „kongeniale Verkörperung des chinesischen Familienoberhaupts“, das „Zentrum dieser Maskeraden, in denen es darum geht, ein altes Gesicht zu wahren und dann zu lernen, es zu verlieren, um ein neues, lebenstauglicheres zu gewinnen.“ Dieses Mal ist er der verwitwete Vater dreier Töchter, die ihr Leben und ihre Lieben auf unterschiedliche Art angehen und dabei ebenfalls innerfamiliäre Konflikte klären müssen. "Eat Drink Man Woman" wurde, anders als seine Vorgänger, in Taipeh gedreht. Im Mittelpunkt des Films stehen (der Titel deutet es an) die Liebe und das Essen. Ang Lee, privat ein passionierter Koch, legte hierbei besonders großen Wert auf die kulinarische Komponente als Stilmittel und konzipierte die Hauptfigur des älteren Witwers als berühmten Koch. 1995–1999: Dreimal anglo-amerikanische Geschichte. Mit dem Angebot der Produzentin Lindsay Doran, die von der britischen Schauspielerin Emma Thompson verfasste Adaption des Romans "Verstand und Gefühl" von Jane Austen in Großbritannien zu drehen, eröffnete sich Lee eine lange ersehnte neue Perspektive jenseits asiatisch geprägter Stoffe. In einer neuen Trilogie setzt er sich mit unterschiedlichen Kulturen auseinander: 2000–heute: Pendeln zwischen West und Ost. "Tiger and Dragon" sowie "Hulk" sind sehr unterschiedliche Action-Filme. Mit "Tiger and Dragon" gewann Lee zwei Golden Globes. Das Werk wurde außerdem mit vier Academy Awards (Oscars) prämiert, darunter der Trophäe für den besten fremdsprachigen Film. Für diesen Film wurde er 2001 auch mit einem Chlotrudis Award ausgezeichnet, seinen zweiten Chlotrudis erhielt er 2006 für "Brokeback Mountain". Für "Brokeback Mountain" wurde Lee mit einer Vielzahl von Filmpreisen geehrt, darunter mit dem Oscar für die beste Regie, dem Goldene Löwen der Filmfestspiele von Venedig sowie der Auszeichnung der Hollywood Foreign Press Association als bester Regisseur des Jahres. 2007 verfilmte er mit "Gefahr und Begierde" eine Kurzgeschichte von Eileen Chang. Der Thriller spielt zur Zeit des Zweiten Weltkriegs in Shanghai und handelt von einer jungen chinesischen Agentin (gespielt von Tang Wei), die beauftragt wird, einen hochrangigen Verräter (Tony Leung Chiu Wai) zu liquidieren. Lees erste chinesischsprachige Spielfilmproduktion seit "Tiger and Dragon" war 2007 im offiziellen Wettbewerb der 64. Filmfestspiele von Venedig vertreten und brachte ihm erneut den Goldenen Löwen ein. Im selben Jahr wurde "Gefahr und Begierde" als offizieller taiwanischer Beitrag für die Nominierung um den besten fremdsprachigen Film bei der Oscar-Verleihung 2008 ausgewählt, später aber auf Empfehlung der Academy of Motion Picture Arts and Sciences wieder zurückgezogen und durch Chen Huai-Ens "Lian xi qu" () ersetzt. Ende Februar 2009 wurde bekannt gegeben, dass Lee die Jury der 66. Filmfestspiele von Venedig leiten werde. Zwei Monate später erhielt er für seine Komödie "Taking Woodstock" eine Einladung in den Wettbewerb der 62. Internationalen Filmfestspiele von Cannes. 2013 wurde er in die Wettbewerbsjury des 66. Filmfestivals von Cannes berufen. Stil. Ang Lee ist ein international anerkannter und erfolgreicher Regisseur und gilt als einer der vielseitigsten Filmemacher der letzten Jahre. Häufig behandelt Lee in seinen Filmen das Thema Familie auf eine Art und Weise, die autobiographische Züge seines eigenen Lebens trägt. Er lässt seine Umgebung ganz bewusst auf sich einwirken und bringt diese in seine Filme ein. Kennzeichnend für die meisten seiner Filme ist eine wenig geradlinige Erzählstruktur, die die Charaktere und die Geschichte aus verschiedenen Blickwinkeln darstellt. Er verknüpft die Konflikte des menschlichen Lebens mit traditionellen und innovativen Stilelementen. Für Ang Lee sind die klassisch-soliden Erzählstrukturen zu langweilig, daher kombiniert er verschiedene Genres und Epochen. Er selbst sagte einmal:
7
2194253
https://de.wikipedia.org/wiki?curid=7
Anschluss (Luhmann)
Anschluss ist in der Soziologie ein Fachbegriff aus der Systemtheorie von Niklas Luhmann und bezeichnet die in einer sozialen Begegnung auf eine Selektion der anderen Seite folgende, selbst gewählte Selektion. Diese Selektionen beziehen sich aufeinander. Die Anschlussfähigkeit ist die Kapazität von Systemen zu gewährleisten, dass sich an die Selektionen eines Systems weitere anschließen können. Alle sozialen Systeme reproduzieren sich über Kommunikation (z. B. Wirtschaftssystem oder Politik) oder Handlungen (Medizin und Erziehungssystem). Dies gelingt nur, wenn die einzelnen Einheiten aneinander anschlussfähig sind, was durch einen systemspezifischen Code geleistet wird, der als zentrale Logik (Leitunterscheidung) aller Kommunikation zugrunde liegt und sie als systemzugehörig erkennbar macht. Im Wirtschaftssystem beispielsweise sorgt der Code "zahlen/nicht zahlen" dafür, dass die Kommunikationen sich auf sich selbst beziehen und sich selbst reproduzieren können, also dass auf jede Zahlung eine neue erfolgt. Dies funktioniert über das generalisierte Kommunikationsmedium Geld, das die letzte Zahlung mit der jetzigen verknüpft. Würde das Geld nicht mehr akzeptiert, folgt der Zahlung keine weitere Zahlung mehr und das System hätte seine Anschlussfähigkeit verloren. Die Anschlussfähigkeit innerhalb eines Systems wird als Selbstreferenz bezeichnet, im Gegensatz zum fremdreferentiellen Bezug auf die Umwelt (Welt, andere Systeme). Den Begriff hat Luhmann auf eine Anregung eines Bielefelder Kollegen, des Philosophen Jürgen Frese entwickelt. Frese zeigte in einem Sektionsreferat des Achten Deutschen Kongresses für Philosophie in Heidelberg (1966, gedruckt 1967) mit dem Titel „Sprechen als Metapher für Handeln“, dass es fruchtbar ist, von den dominanten Handlungsmodellen Arbeit und Konsum abzurücken und ergänzend Sprechen als Modell für Handeln zu nutzen. Frese schreibt: „Die wichtigste Errungenschaft, die die Sprachmetapher für die Aufhellung des nicht-sprachlichen Handelns einbringt, ist ihre Leistung, Reihenbildung erklärbar zu machen. Fassen wir Satz und Handlung zum neutralen und an andere Philosopheme anschließbaren Begriff des Aktes zusammen, so können wir ... sagen: Der Sinn eines Aktes ist das als eine bestimmte Situation gegebene Ensemble der Möglichkeiten, an diesen Akt weitere Akte anzuschließen; d. h. der Sinn eines Aktes ist die Mannigfaltigkeit der Anschließbarkeiten, die er eröffnet.“ Diese Idee wurde von Luhmann aufgegriffen und im Rahmen seiner Systemtheorie weiterentwickelt. Frese selbst baute sie im Rahmen seiner Lehre von den Formularen weiter aus.
8
901616
https://de.wikipedia.org/wiki?curid=8
Anschlussfähigkeit
10
1619642
https://de.wikipedia.org/wiki?curid=10
Aussagenlogik
Die Aussagenlogik ist ein Teilgebiet der Logik, das sich mit Aussagen und deren Verknüpfung durch Junktoren befasst, ausgehend von strukturlosen Elementaraussagen (Atomen), denen ein Wahrheitswert zugeordnet wird. In der "klassischen Aussagenlogik" wird jeder Aussage ein Element einer Booleschen Algebra als Wahrheitswert zugeordnet. Der Wahrheitswert einer zusammengesetzten Aussage lässt sich ohne zusätzliche Informationen mittels der Operationen der Booleschen Algebra aus den Wahrheitswerten ihrer Teilaussagen bestimmen. Geschichte. Historisch geht die Aussagenlogik zurück bis zu Aristoteles, der erstmals aussagenlogische Grundsätze diskutierte, nämlich in seiner Metaphysik den Satz vom Widerspruch und den Satz vom ausgeschlossenen Dritten, und der in seiner ersten Analytik den indirekten Beweis thematisierte. Die zweiwertige aussagenlogische Semantik entwickelten etwas später die megarischen Philosophen Diodoros Kronos und Philon. Die Aussagensemantik und -axiomatik kombinierte der Stoiker Chrysippos von Soli, der den ersten aussagenlogischen Kalkül formulierte. Die Weiterentwicklung der Aussagenlogik der Stoa durch das Mittelalter wird oft übersehen. Eine erste vollständige und entscheidbare Formalisierung für aussagenlogische Tautologien – allerdings noch nicht für das aussagenlogische Schließen – schuf George Boole 1847 mit seinem algebraischen Logikkalkül. Den ersten aussagenlogischen Kalkül mit Schlussregeln formulierte Gottlob Frege im Rahmen seiner Begriffsschrift 1879. Er war die Vorlage für den Aussagenkalkül von Bertrand Russell 1908, der sich später durchsetzte (s. u.). Abgrenzung zu anderen Logiken. Da in der heutigen Mathematik die klassische Aussagenlogik maßgeblich wurde, wird in diesem Artikel dieser moderne Haupttypus der Aussagenlogik behandelt. Allgemein ist die klassische Logik durch zwei Eigenschaften charakterisiert: Das Prinzip der Zweiwertigkeit wird oft mit dem Satz vom ausgeschlossenen Dritten verwechselt. Die "klassische Aussagenlogik" ist jenes Gebiet der klassischen Logik, das die innere Struktur von Sätzen (Aussagen) daraufhin untersucht, aus welchen anderen Sätzen (Teilsätzen) sie zusammengesetzt sind und wie diese Teilsätze miteinander verknüpft sind. Die innere Struktur von Sätzen, die ihrerseits nicht in weitere Teilsätze zerlegt werden können, wird von der Aussagenlogik nicht betrachtet. Ein Beispiel: Die Aussage „Alle Katzen sind Hunde, und die Erde ist eine Scheibe“ ist mit dem Bindewort „und“ aus den beiden kürzeren Aussagen „Alle Katzen sind Hunde“ und „Die Erde ist eine Scheibe“ zusammengesetzt. Diese beiden Aussagen lassen sich ihrerseits nicht mehr in weitere Aussagen zerlegen, sind aus aussagenlogischer Sicht also elementar oder atomar. Andere, auf die Aussagenlogik aufbauende logische Systeme betrachten die innere Struktur solcher atomaren Aussagen; ein wichtiges Beispiel ist die Prädikatenlogik. In Abgrenzung zur klassischen Logik entstehen "nichtklassische Logiksysteme", wenn man das Prinzip der Zweiwertigkeit, das Prinzip der Extensionalität oder sogar beide Prinzipien aufhebt. Nichtklassische Logiken, die durch die Aufhebung des Prinzips der Zweiwertigkeit entstehen, heißen mehrwertige Logik. Die Zahl der Wahrheitswerte (in diesem Falle üblicher: Pseudowahrheitswerte) kann dabei endlich sein (z. B. dreiwertige Logik), ist aber oft auch unendlich (z. B. Fuzzy-Logik). Hingegen verwenden Logiken, die durch die Aufhebung der Extensionalität entstehen, Junktoren (Konnektive), bei denen sich der Wahrheitswert des zusammengesetzten Satzes nicht mehr eindeutig aus dem Wahrheitswert seiner Teile bestimmen lässt. Ein Beispiel für nichtextensionale Logik ist die Modallogik, die die einstelligen nichtextensionalen Operatoren „es ist notwendig, dass“ und „es ist möglich, dass“ einführt. Logische Systeme stehen innerhalb der Logik nicht in einem Konkurrenzverhältnis um Wahrheit oder Richtigkeit. Die Frage, welches logische System für einen bestimmten Zweck genutzt werden soll, ist eher eine pragmatische. Oft werden logische Systeme und logische Fragestellungen mit außerlogischen Fragen verwechselt oder vermischt, z. B. mit der metaphysischen Frage, welches logische System „richtig“ sei, d. h. die Wirklichkeit beschreibe. Zu dieser Frage gibt es unterschiedliche Standpunkte einschließlich des positivistischen Standpunkts, dass diese Frage sinnlos sei. Diese Fragen fallen aber in andere Gebiete, z. B. Philosophie, Wissenschaftstheorie und Sprachwissenschaft. Wenn in diesem Artikel die klassische Aussagenlogik behandelt wird, so ist das also nicht als metaphysische Festlegung zu verstehen oder gar als Behauptung, dass „alle Aussagen wahr oder falsch sind“. Es ist lediglich so, dass die klassische Aussagenlogik einfach nur solche Aussagen behandelt, die wahr oder falsch sind. Das ist eine große formale Vereinfachung, die dieses System relativ leicht erlernbar sein lässt. Braucht man aus metaphysischen oder pragmatischen Gründen mehr als zwei Wahrheitswerte, kann die klassische Aussagenlogik als Ausgangspunkt dienen, um ein geeignetes logisches System aufzustellen. Umgangssprachliche Einleitung. Einfache Aussage (Elementaraussage). Eine Aussage A ist ein Satz, der entweder wahr (w, wahr, true, 1) oder nicht wahr (f, falsch, false, 0) ist. Das gilt sowohl für einfache als auch für verknüpfte Aussagen. „Halbwahrheiten“ gibt es nicht. Eine Aussage kann sowohl der gewöhnlichen Sprache entstammen als auch der Sprache der Mathematik. Eine Elementaraussage ist eine Aussage, die keine aussagenlogischen Verknüpfungen ("nicht, und, oder, wenn … dann, genau dann wenn") enthält. Beispiele für Elementaraussagen: formula_2 ist offensichtlich wahr (triviale mathematische Aussage), formula_4 dagegen ist falsch (es gibt einfache Gegenbeispiele). formula_1 stellt im mathematischen Sinne keine Aussage dar (ungenau genug in vielerlei Hinsicht, hat Interpretationsspielraum), gleiches gilt für formula_3. In der klassischen Aussagenlogik ist eine Aussage entweder wahr oder nicht wahr, auch wenn man den Wahrheitsgehalt nicht kennt. Das ist zum Beispiel bei den ungelösten mathematischen Problemen der Fall. "Anmerkung:" formula_4 ist eine All-Aussage; die Struktur solcher Aussagen ist Gegenstand der Prädikatenlogik. Im Sinne der Aussagenlogik ist es eine Elementaraussage. Verneinte Aussage – Negation. Die "Verneinung" bzw. "Negation" (auch: "Satzverneinung", "äußere Verneinung", "kontradiktorisches Gegenteil") einer Aussage A ist diejenige Aussage ¬A, die genau dann wahr ist, wenn A falsch ist, und die genau dann falsch ist, wenn A wahr ist. Einfacher: Die Verneinung einer Aussage A dreht den Wahrheitswert von A in sein Gegenteil um. Man erhält die Verneinung einer Aussage A immer dadurch, dass man ihr die Formulierung „Es ist nicht der Fall, dass“ voranstellt. Zwar lässt sich ein natürlichsprachlicher Satz auch verneinen, indem man das Wort „nicht“ oder eine andere negative Formulierung an geeigneter Stelle einfügt – es ist aber nicht immer ganz einfach, zu erkennen, welche Formulierung zu verwenden und an welcher Stelle einzufügen ist. Formal schreibt man für „nicht A“ in der gebräuchlichsten Notation (Schreibweise) ¬A, auf Englisch und in der Schaltalgebra auch „NOT A“, gelegentlich auch „~A“. Wir verneinen die obigen Beispiele: Allgemein gilt für die Verneinung: Und-verknüpfte Aussagen – Konjunktion. Eine "Konjunktion" ist eine aus zwei Aussagen zusammengesetzte Aussage, die die Wahrheit all ihrer Teilaussagen behauptet. Umgangssprachlich verbindet man zwei Aussagen A und B durch das Bindewort „und“ zu einer Konjunktion „A und B“, in der logischen Sprache verwendet man meist das Zeichen formula_21 (Schreibweise: formula_22), gelegentlich auch das kaufmännische Und, den Ampersand (&). Die Aussage formula_22 ist immer dann wahr, wenn sowohl A als auch B jeweils wahr sind. Andernfalls ist formula_22 falsch, nämlich dann, wenn entweder A oder B oder beide Aussagen falsch sind. Beispiele für eine "Und"-Verknüpfung: Diese Teilaussagen und ihre Negationen werden nun durch formula_21 miteinander verknüpft: Nur formula_31 ist wahr, weil formula_14 wahr ist und auch formula_33 wahr ist. formula_34 ist falsch, weil formula_15 falsch ist. formula_36 ist falsch, weil formula_37 falsch ist. formula_38 ist falsch, weil sowohl formula_15 als auch formula_37 falsch ist. Nichtausschließendes Oder – Disjunktion. Eine "Disjunktion" ist eine zusammengesetzte Aussage, die behauptet, dass mindestens eine ihrer Teilaussagen wahr ist. Die Disjunktion in diesem Sinn wird auch "nichtausschließendes Oder" genannt. (Aber Achtung: Die Bezeichnung „Disjunktion“ wurde und wird oft auch für das ausschließende Oder, „entweder … oder“, verwendet – man denke an das Konzept der disjunkten Mengen. Einige Autoren verwenden daher für das Nichtausschließende Oder den Begriff "Adjunktion".) Das Formelzeichen „formula_41“ stammt von dem lateinischen Wort „vel“; für ausschließendes Oder wurde im Lateinischen „aut ... aut“ verwandt. Die Aussage formula_42 ist immer dann wahr, wenn mindestens eine der Teilaussagen A oder B wahr ist, bzw. wenn beide Teilaussagen wahr sind. Andernfalls ist formula_42 falsch, nämlich dann, wenn sowohl A als auch B falsch sind. Beispiel für eine "Oder"-Verknüpfung: Diese Teilaussagen und ihre Negationen werden nun durch formula_41 miteinander verknüpft: formula_50 ist wahr, weil sowohl formula_14 als auch formula_33 wahr sind. formula_53 ist wahr, weil formula_33 wahr ist. formula_55 ist wahr, weil formula_14 wahr ist. Nur formula_57 ist falsch, weil sowohl formula_15 als auch formula_37 falsch sind. Materiale Implikation. Die "materiale Implikation", auch "Konditional" oder "Subjunktion" genannt, drückt die "hinreichende Bedingung" aus: Sie sagt, dass die Wahrheit des einen Satzes eine hinreichende Bedingung für die Wahrheit des anderen Satzes ist. Man schreibt oder auch und liest oder auch nur In einem Konditional nennt man A das "Antezedens", B das "Konsequens" oder "Sukzedens". Beispiele: Die Lesart „wenn … dann“ ist insofern problematisch, als mit dem natürlichsprachlichen „wenn … dann“ vor allem inhaltliche Zusammenhänge wie Kausalität oder zeitliche Nähe ausgedrückt werden. All das macht die materiale Implikation nicht, sie nennt nur den formalen Zusammenhang: „Dass es regnet, ist eine hinreichende Bedingung dafür, dass die Straße nass ist“. Zur Frage, "warum" das eine hinreichende Bedingung ist – ob auf Grund eines kausalen Zusammenhangs oder auch nur rein zufällig –, nimmt die materiale Implikation nicht Stellung. Als "Umkehrschluss" bezeichnet man den Schluss von formula_60 auf formula_63. Für die Beispiele bedeutet das: Umgangssprachlich lässt man sich gelegentlich zu weiteren – "falschen" – Aussagen verleiten: Das bedeutet: Wenn die Folgerung formula_60 wahr ist, dann erhält man aus der Aussage ¬A keine Aussage über B; B kann wahr oder falsch sein. („Ex falso sequitur quodlibet“ – „Aus Falschem folgt Beliebiges“) Die Implikation ist ein wichtiges Mittel in der Mathematik. Die meisten mathematischen Beweise verwenden das Konzept der Implikation. Bikonditional. Das "Bikonditional", oft auch "objektsprachliche Äquivalenz" oder "materiale Äquivalenz" genannt, drückt die "hinreichende und notwendige Bedingung" aus, sagt also, dass eine Aussage A genau dann zutrifft, wenn eine Aussage B zutrifft. Man schreibt: und liest Auch beim Bikonditional wird eine rein formale Aussage getroffen, die nichts über einen allfälligen inhaltlichen Zusammenhang von A und B aussagt. Statt formula_65 zu sagen, kann man auch sagen, dass A eine hinreichende Bedingung für B und dass B eine hinreichende Bedingung für A ist, also formula_67. Tatsächlich sind diese beiden Aussagen logisch äquivalent. Beispiel: Das Bikonditional als zusammengesetzte Aussage innerhalb der logischen Sprache (siehe Objektsprache) wird oft mit dem Konzept der logischen Äquivalenz verwechselt oder vermischt. Die logische Äquivalenz ist eine metasprachliche, meist natürlichsprachlich formulierte Eigenschaft zweier Aussagen der logischen Sprache. Ein Zusammenhang zwischen logischer Äquivalenz und Bikonditional besteht nur insofern, als das Metatheorem gilt, dass ein Bikonditional formula_65 genau dann eine Tautologie ist, wenn die beiden Aussagen A und B logisch äquivalent sind. Ausschließendes Oder. Das ausschließende Oder (Kontravalenz oder Antivalenz), „entweder A oder B“, besagt, dass genau eine der beiden von ihm verknüpften Aussagen wahr ist. Entsprechend ist ein ausschließendes Oder nicht nur dann falsch, wenn sowohl A als auch B falsch sind, sondern auch, wenn "beide" wahr sind. (Einige Autoren verwenden für das Ausschließende Oder den Begriff "Alternative".) Obwohl das ausschließende Oder ein Konzept ist, mit dem man in der natürlichen Sprache immer wieder zu tun hat, wird es in den meisten logischen Sprachen nicht als eigenständiger Junktor eingeführt. Stattdessen wird das ausschließende Oder zum Beispiel als verneintes Bikonditional ausgedrückt, also als formula_69. Große Bedeutung genießt das ausschließende Oder hingegen in der Schaltalgebra, wo es meist als XOR "(eXclusive OR)" aufgeschrieben wird. Verneinung einer verknüpften Aussage (De Morgansche Gesetze). Verneinung einer Konjunktion. Die Verneinung der Konjunktion „A und B“ (in der logischen Schreibweise: formula_22) lautet „Es ist nicht der Fall, dass A und B zutreffen“ (in der logischen Schreibweise: formula_71). Diese ist logisch äquivalent mit der Aussage „A ist nicht der Fall, oder B ist nicht der Fall (oder beides)“ (in logischer Schreibweise: formula_72). Ein Beispiel: Wenn man die Aussage verneinen möchte, dann kann man entweder sagen oder man sagt In der Schaltalgebra wird sehr oft der Junktor NAND verwendet, wobei „A NAND B“ denselben Wahrheitswertverlauf hat wie der Ausdruck formula_71. Verneinung einer Disjunktion. Die Verneinung der Disjunktion „A oder B (oder beides)“ (in der logischen Schreibweise: formula_74) lautet „Es ist nicht der Fall, dass A oder B zutrifft“ (in logischer Schreibweise: formula_75). Diese ist logisch äquivalent mit der Aussage „A ist nicht der Fall, und B ist nicht der Fall“ (in logischer Schreibweise: formula_76). Ein Beispiel: Wenn man die Aussage verneinen möchte, so sagt man Nach dem Gesetz von De Morgan kann man nun aber auch sagen: oder in schönerem Deutsch In der Schaltalgebra wird das Konnektiv NOR verwendet, das denselben Wahrheitswertverlauf hat wie die Aussage formula_75. Hinreichende und notwendige Bedingung. Dieser Abschnitt soll den zunächst oft als kontraintuitiv empfundenen Zusammenhang zwischen hinreichender und notwendiger Bedingung, wie er im Abschnitt über die materiale Implikation angesprochen wurde, wiederaufgreifen und näher ausführen. Betrachten wir noch einmal die materiale Implikation formula_78. Man sagt: A ist "hinreichend" für B: Schon wenn A der Fall ist, ist auch B der Fall. Umgekehrt kann man aber auch sagen: B ist "notwendig" für A. Ohne B kann A nicht erfüllt sein. Wie kommt dieser Zusammenhang zustande? Wir wissen, dass die Wahrheit von A die Wahrheit von B nach sich zieht, denn A ist ja hinreichende Bedingung für B. Somit ist es einfach nicht möglich, dass A eintritt, ohne dass B damit ebenfalls eintreten würde: B ist also gezwungenermaßen der Fall, wenn A der Fall ist. B ist „notwendig“ für A. Dieser Zusammenhang ist in Wahrheit also ziemlich einfach; Hauptgrund dafür, dass er anfangs oft als kontraintuitiv empfunden wird, ist wahrscheinlich die Schwierigkeit, zwischen den vielen Bedeutungen des umgangssprachlichen „wenn … dann“ einerseits und der rein formalen hinreichenden und notwendigen Bedingung andererseits strikt zu trennen. Mit dem umgangssprachlichen „wenn … dann“ möchte man fast immer einen inhaltlichen (kausalen oder auch temporalen) Zusammenhang zwischen Antecedens und Konsequens ausdrücken: „Regen verursacht Straßennässe“, „Zuerst fällt der Regen, erst nachher wird die Straße nass“. Wenn man die hinreichende Bedingung in diesem Sinn missversteht, dann ist es klar, dass die in umgekehrter Reihenfolge formulierte notwendige Bedingung „Nur wenn die Straße nass ist, regnet es“ seltsam aussieht: „Regen verursacht doch Straßennässe. Wie kann daraus je gefolgert werden, dass Straßennässe Regen verursacht?“ All dies sagt die materiale Implikation aber nicht aus. „A ist eine hinreichende Bedingung für B“ meint schlicht, dass wenn die Aussage A wahr ist, auch die Aussage B wahr ist – zeitlos und zusammenhanglos, nicht etwa „später“ oder „weil“. Analog sagt die notwendige Bedingung, „B ist eine notwendige Bedingung für A“, lediglich das aus, dass B wahr ist, sofern A es ist. Genau das ist aber die Definition des Konditionals A → B. Formaler Zugang. Einleitung. Spätestens beim "lauten" Lesen von Sätzen wie wird der selbstbewusste Laie verlangen, dass ihm erklärt wird, was das soll. Die Antwort des Logikers: Es soll versucht werden, Sicherheit in die Regeln des logischen Schließens zu bringen. Seit den Sophisten ist dem Abendland klar, dass scheinbar zwingende Schlüsse zu offensichtlich absurden Ergebnissen führen können. Immer wieder wurden Paradoxien formuliert und von großen Denkern als Herausforderung empfunden. Logiker versuchen deshalb, die Regeln des Argumentierens so streng wie möglich zu fassen. Das einleitende Beispiel macht klar, dass dazu eine "Trennung der Sprachebenen" unerlässlich ist: Die formale Aussage A∧B soll dadurch erklärt werden, dass auf einer metasprachlichen Ebene sowohl über die Aussage A als auch über die Aussage B geredet wird. "Ein" Versuch, dies durchzuführen, besteht darin, die Aussagenlogik als formales System, konkret als Kalkül (eine bestimmte Art eines formalen Systems) zu definieren. Die Begriffe „wahr“ und „falsch“ kommen in diesem System zunächst überhaupt nicht vor. Stattdessen werden Axiome gesetzt, die einfach als Zeichenketten angesehen werden, aus denen weitere ableitbare Zeichenketten aufgrund von bestimmten Schlussregeln hergeleitet werden. Das Ziel dabei ist einerseits, dass in einem formalen System nur Zeichenketten (Sätze) hergeleitet werden können, die bei einer plausiblen Interpretation auch wahr sind. Andererseits sollen alle Sätze, die als „wahr“ interpretierbar sind, auch hergeleitet werden können. Das erste ist die Forderung nach "Korrektheit", das zweite die nach "Vollständigkeit" des formalen Systems; beide Eigenschaften sind unter Kalkül: Der Begriff Kalkül in der Logik beschrieben. Für die klassische Aussagenlogik, mit der wir es hier zu tun haben, gibt es Kalküle (formale Systeme), die sowohl korrekt als auch vollständig sind. Für gewisse komplexere logische Systeme (z. B. Mengenlehre) ist es aber "unmöglich", einen vollständigen Kalkül aufzustellen, der auch korrekt ist; diese Erkenntnis wurde 1931 von Kurt Gödel bewiesen (Gödelscher Unvollständigkeitssatz). Syntax. Es gibt viele verschiedene Möglichkeiten, die Syntax („Grammatik“) einer logischen Sprache formal zu definieren; meist geschieht das im Rahmen eines Kalküls. Die folgende Definition ist daher nur als Beispiel dafür zu verstehen, wie ein Kalkül für die klassische Aussagenlogik aussehen kann. Weitere Beispiele für konkrete Kalküle finden sich unter Baumkalkül, Begriffsschrift, Systeme natürlichen Schließens, Sequenzenkalkül oder Resolutionskalkül. Ein weiterer axiomatischer Kalkül ist als Beispiel im Artikel Hilbert-Kalkül angegeben, ein graphischer Kalkül im Artikel Existential Graphs. Bausteine der aussagenlogischen Sprache. Als "Bausteine" der aussagenlogischen Sprache sollen "Satzbuchstaben" („atomare Formeln“, Satzkonstanten), "Junktoren" und "Gliederungszeichen" verwendet werden. Satzbuchstaben sollen die Zeichen P0, P1, P2, … sein. Junktoren sollen die Zeichen ¬, ∧, ∨, → und ↔ sein. Als Gliederungszeichen sollen die runden Klammern dienen. Formal lässt sich das z. B. auf folgende Weise ausdrücken: Sei V die (abzählbar unendliche) Menge der "atomaren Formeln" (Satzbuchstaben): Sei J die Menge der Junktoren und Gliederungszeichen: Das "Alphabet" der logischen Sprache sei die Menge V ∪ J, also die Vereinigungsmenge von atomaren Formeln, Junktoren und Gliederungszeichen. Formationsregeln. Die "Formationsregeln" legen fest, wie man aus den Bausteinen der aussagenlogischen Sprache Sätze (Formeln) bilden kann. Hier sollen "aussagenlogische Formeln" als Worte über dem Alphabet der logischen Sprache, also über V ∪ J wie folgt induktiv definiert werden: Schlussregeln. "Schlussregeln" sind allgemein Transformationsregeln (Umformungsregeln), die auf bestehende Formeln angewandt werden und aus ihnen neue Formeln erzeugen. Wenn man einen Kalkül für ein logisches System aufstellt, dann wählt man die Transformationsregeln so, dass sie aus bestehenden Formeln solche Formeln erzeugen, die aus den Ausgangsformeln semantisch "folgen" – deshalb die Bezeichnung „Schlussregel“ ("eine Schlussfolgerung ziehen"). Innerhalb der Syntax sind die Schlussregeln allerdings rein formale Transformationsregeln, denen für sich keinerlei inhaltliche Bedeutung zukommt. An konkreten Schlussregeln sollen hier nur zwei angegeben werden: der Modus ponendo ponens und die Substitutionsregel. Axiome. "Axiome" sind ausgezeichnete (im Sinn von: hervorgehobene) Formeln der aussagenlogischen Sprache. Die Auszeichnung besteht darin, dass sie innerhalb eines Beweises oder einer Herleitung (siehe unten) ohne weitere Rechtfertigung verwendet werden. Pragmatisch wählt man solche Formeln als Axiome, die semantisch gesehen Tautologien sind, also immer zutreffen, und die dabei helfen, Beweise zu verkürzen. Innerhalb der Syntax sind die Axiome allerdings rein formale Objekte, denen keinerlei inhaltliche Bedeutung oder Rechtfertigung zukommt. Axiome sind im Allgemeinen optional, d. h., ein Kalkül kann auch ganz ohne Axiome auskommen, wenn er ausreichend viele bzw. mächtige Schlussregeln hat. Axiomfreie Kalküle sind zum Beispiel die Systeme natürlichen Schließens oder Baumkalküle. Hier soll exemplarisch ein axiomatischer Kalkül gezeigt werden, und zwar Russells Aussagenkalkül aus seiner Typentheorie 1908, den er 1910 in die Principia Mathematica übernahm. Dieser Kalkül umfasst die folgenden Axiome (von denen das vierte redundant, d. h. nicht unbedingt erforderlich ist, weil aus den anderen Axiomen herleitbar): Um aus diesen Axiomen auch solche gültigen Sätze herleiten zu können, die andere als die in den Axiomen vorkommende Junktoren enthalten, werden diese durch folgende Festlegung auf die vorhandenen Junktoren zurückgeführt: Alternativ zu – wie hier – konkreten Axiomen kann man auch "Axiomenschemata" angeben, in welchem Fall man auch ohne Substitutionsregel auskommt. Interpretiert man die obigen Axiome als Axiomenschemata, dann stünde z. B. das erste Axiomenschema, formula_90, für unendlich viele Axiome, nämlich alle Ersetzungsinstanzen dieses Schemas. Herleitung und Beweis. Eine Herleitung ist eine Liste von aufsteigend nummerierten Sätzen, die mit einer oder mehreren Annahmen (den Prämissen der Herleitung) oder Axiomen beginnt. Alle auf diese folgenden Sätze sind entweder ebenfalls Axiome (bei manchen Kalkülen sind auch weitere Annahmen zulässig) oder sind aus einer oder mehreren der vorangehenden Zeilen durch Anwendung von Schlussregeln entstanden. Der letzte Satz in der Liste ist die Konklusion der Herleitung. Eine Herleitung ohne Prämissen heißt "Beweis". Oft werden aber die Wörter „Herleitung“ und „Beweis“ synonym gebraucht. Wenn es gelingt, aus einer Menge von Annahmen (Prämissen) Δ eine Konklusion P herzuleiten, dann schreibt man auch formula_98. Gelingt es, einen Satz P ohne die Verwendung von Annahmen herzuleiten (zu beweisen), dann schreibt man auch: formula_99. In diesem Fall wird P "Theorem" genannt. Das Zeichen formula_100 geht auf die Begriffsschrift zurück, jenes Werk, in dem Gottlob Frege 1879 die erste Formalisierung der Prädikatenlogik angegeben hat. In der klassischen Aussagenlogik wählt man die Schlussregeln so, dass sich mit ihrer Hilfe "alle" gültigen Argumente (und "nur" gültige Argumente) herleiten lassen; die Frage der Gültigkeit wird im folgenden Abschnitt, „Semantik“, behandelt. Semantik. Außerhalb der Logik bezeichnet Semantik ein Forschungsgebiet, das sich mit der Bedeutung von Sprache und deren Teilen befasst. Oft wird auch das Wort "Semantik" gleichbedeutend mit dem Wort "Bedeutung" verwendet. Auch innerhalb der Logik geht es bei Semantik um Bedeutung: Darum nämlich, den Ausdrücken einer formalen Sprache – zum Beispiel der hier behandelten Sprache der Aussagenlogik – eine Bedeutung zuzuordnen. In der Logik wird auch das meist sehr formal unternommen. Im Zentrum der (formalen) Semantik steht eine Auswertungsfunktion (andere Bezeichnungen lauten Bewertungsfunktion, Denotationsfunktion, Wahrheitswertefunktion), die den Formeln der logischen Sprache eine Bedeutung zuordnet. Formal gesprochen ist die Auswertungsfunktion eine Abbildung von der Menge der Formeln der Sprache in die Menge der Wahrheitswerte. Oft wird die Auswertungsfunktion mit dem Großbuchstaben V bezeichnet. In der klassischen Aussagenlogik ist die Auswertungsfunktion sehr einfach: Das Prinzip der Zweiwertigkeit fordert, dass sie für jede zu bewertende Formel genau einen von genau zwei Wahrheitswerten liefern muss; und das Prinzip der Extensionalität fordert, dass die Bewertungsfunktion beim Bewerten eines komplexen Satzes nur die Bewertung von dessen Teilsätzen berücksichtigen muss. Jedem Atom, also jedem Satzbuchstaben (Atom) wird durch Festsetzung ein Wahrheitswert zugeordnet. Man sagt: Die Atome werden interpretiert. Es wird also z. B. festgelegt, dass P0 wahr ist, dass P1 falsch ist und dass P2 ebenfalls falsch ist. Damit ist der Bewertung der Bausteine der logischen Sprache Genüge getan. Formal ist eine solche Bewertung – "Interpretation" genannt und oft mit dem Kleinbuchstaben v bezeichnet – eine Funktion im mathematischen Sinn, d. h. eine Abbildung von der Menge der Atome in die Menge der Wahrheitswerte. Wenn die Auswertungsfunktion V auf ein Atom angewandt wird, d. h. wenn sie ein Atom bewerten soll, liefert sie die Interpretation dieses Atoms im Sinn des obigen Absatzes. Mit anderen Worten, sie liefert den Wert, den die Bewertung v dem Atom zuordnet. Um die zusammengesetzten Formeln bewerten zu können, muss für jeden Junktor definiert werden, welchen Wahrheitswert die Bewertungsfunktion für die unterschiedlichen Wahrheitswertkombinationen liefert, den seine Argumente annehmen können. In der klassischen Aussagenlogik geschieht das meist mittels Wahrheitstabellen, weil es nur überschaubar wenige Möglichkeiten gibt. Der einstellige Junktor ¬, die Negation, ist in der klassischen Aussagenlogik so definiert, dass er den Wahrheitswert seines Arguments ins Gegenteil umkehrt, also „verneint“: Ist die Bewertung einer Formel X wahr, dann liefert die Bewertungsfunktion für ¬X falsch; wird aber X falsch bewertet, dann liefert die Bewertungsfunktion für ¬X wahr. Die Wahrheitstabelle sieht folgendermaßen aus: Die Wahrheitswertverläufe der verwendeten zweistelligen Konnektive sind in der klassischen Aussagenlogik wie folgt definiert: Allgemein gibt es für die klassische Aussagenlogik vier einstellige und sechzehn zweistellige Junktoren. Die hier behandelte logische Sprache beschränkt sich nur deshalb auf die Junktoren ¬, ∧, ∨, → und ↔, weil diese am gebräuchlichsten sind und weil sie auch inhaltlich noch am ehesten aus der Alltagssprache bekannt sind. Aus formaler Sicht ist die einzige Bedingung, die man bei der Wahl von Junktoren erfüllen möchte, die, dass sich mit den gewählten Junktoren auch alle anderen theoretisch möglichen Junktoren ausdrücken lassen; man sagt: Dass die Menge der gewählten Junktoren funktional vollständig ist. Diese Anforderung ist bei der hier getroffenen Wahl erfüllt. Näheres zur Frage, wie viele und welche Junktoren es gibt und wie viele Junktoren man benötigt, um funktionale Vollständigkeit zu erreichen, ist im Kapitel Junktor beschrieben. Semantische Gültigkeit, Tautologien. "Semantische Gültigkeit" ist eine Eigenschaft von Formeln oder von Argumenten. (Ein Argument ist die Behauptung, dass aus einigen Aussagen – den Prämissen – eine bestimmte Aussage – die Konklusion – folgt.) Eine "Formel" der aussagenlogischen Sprache heißt genau dann semantisch gültig, wenn die Formel unter allen Interpretationen – d. h. unter allen Zuordnungen von Wahrheitswerten zu den in ihr vorkommenden Atomen – wahr ist; wenn sie sozusagen allgemeingültig ist; mit anderen Worten: Wenn die Wahrheitstabelle für diese Aussage in jeder Zeile das Ergebnis "wahr" zeigt. Man nennt semantisch gültige Formeln auch Tautologien und schreibt, wenn formula_101 eine Tautologie ist, formal wie folgt: Ein "Argument" heißt genau dann semantisch gültig, wenn unter der Voraussetzung, dass alle Prämissen wahr sind, auch die Konklusion wahr ist. In der Formulierung von Gottfried Wilhelm Leibniz: "Aus Wahrem folgt nur Wahres." Diese Definition muss natürlich ebenfalls formal gefasst werden, und das geschieht wie folgt: Ein Argument ist genau dann semantisch gültig, wenn alle Zuordnungen von Wahrheitswerten zu den in Prämissen und Konklusion vorkommenden Atomen, unter denen die Bewertungsfunktion für alle Prämissen den Wert "wahr" liefert, auch für die Konklusion den Wert "wahr" liefert. Um auszudrücken, dass aus einer Menge formula_103 von Formeln (der Prämissenmenge) eine Formel formula_101 (die Konklusion) semantisch folgt, schreibt man formal wie folgt: Beachte die graphische Ähnlichkeit und die inhaltliche Verschiedenheit zwischen formula_98 (Kapitel „Herleitung und Beweis“) und formula_105 ("Siehe:" Semantische Folgerung): Die erste Formulierung – formula_98 – drückt die "syntaktische" Gültigkeit des Arguments aus, sagt also, dass aus den Formeln in formula_103 mit den Schlussregeln des gewählten Kalküls die Formel formula_101 "hergeleitet" werden kann. formula_105 hingegen behauptet die "semantische" Gültigkeit, die in der klassischen Aussagenlogik wie in den vorangegangenen Absätzen als das Leibniz’sche "Aus Wahrem folgt nur Wahres" definiert ist. Wichtige semantische Eigenschaften: Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit. Neben der Eigenschaft der Gültigkeit (Allgemeingültigkeit) gibt es einige andere wichtige Eigenschaften: Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit. Im Gegensatz zur Gültigkeit, die Eigenschaft von Formeln oder von Argumenten sein kann, sind Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit Eigenschaften von Sätzen oder von Satzmengen. Die Frage, ob eine Formel (oder eine Formelmenge) eine der genannten Eigenschaften hat, ist ebenso wie die Frage, ob eine Formel allgemeingültig, d. h. eine Tautologie ist, für allgemeine Formeln nicht effizient lösbar: Zwar ist die Wahrheitstafel ein Entscheidungsverfahren für jede dieser Fragen, doch umfasst eine Wahrheitstafel für eine Aussage bzw. eine Aussagemenge in n Atomen formula_112 Zeilen; das Wahrheitstafelverfahren ist nichts anderes als ein Brute-Force-Verfahren. Jede dieser Fragestellungen kann auf die Frage zurückgeführt werden, ob eine bestimmte Formel erfüllbar ist: Die Frage, ob eine Aussage erfüllbar ist, wird Erfüllbarkeitsproblem oder "SAT-Problem" (nach dem englischen Wort für Erfüllbarkeit, "satisfiability") genannt. Das SAT-Problem spielt eine wichtige Rolle in der theoretischen Informatik und Komplexitätstheorie. Das Erfüllbarkeitsproblem für allgemeine (beliebige) Formeln ist NP-vollständig, d. h. (unter der Voraussetzung, dass P ungleich NP) nicht in polynomialer Laufzeit lösbar. Für bestimmte echte Teilmengen der Formeln der aussagenlogischen Sprache ist das SAT-Problem dennoch schneller, d. h. in polynomial beschränkter Rechenzeit lösbar. Eine solche Teilmenge sind die Horn-Formeln, das sind Konjunktionen von Disjunktionen, deren Disjunkte verneinte oder unverneinte Atome sind, wobei innerhalb einer solchen Disjunktion allerdings höchstens ein Atom unverneint sein darf. Algebraische Sicht. Wenn man die Semantik betrachtet, die hier für die klassische Aussagenlogik aufgestellt wurde, dann erkennt man gewisse Gesetzmäßigkeiten. Wird z. B. die Auswertungsfunktion auf eine Aussage der Form X ∧ W angewendet, wobei W eine beliebige wahre Aussage sein soll, dann stellt man fest, dass die Auswertungsfunktion für X ∧ W immer den Wahrheitswert "wahr" liefert, wenn V(X)=wahr ist (das heißt V(X∧W)=V(X)). Von der Struktur her gleichwertige Gesetzmäßigkeiten gelten auch in anderen Semantiken, auch in solchen, die für ganz andere, nichtlogische Systeme aufgestellt werden. Für die Arithmetik gilt z. B., dass die dortige Bewertungsfunktion (hier VArithmetik genannt) für einen Ausdruck der Form X + Y immer den Wert von X liefert, sofern der Wert von Y null ist: VArithmetik(X+Y)=VArithmetik(X), wenn VArithmetik(Y) = null ist. Eine formale Wissenschaft, die solche strukturellen Gesetzmäßigkeiten untersucht, ist die abstrakte Algebra (meist Teilgebiet der Mathematik, aber auch der Informatik). In der abstrakten Algebra wird zum Beispiel untersucht, für welche Verknüpfungen es ein neutrales Element gibt, d. h. ein Element "N", das für eine Verknüpfung "op" dazu führt, dass (für beliebiges X) gilt: X "op" "N" = X. So würde man aus algebraischer Sicht sagen, dass es für die klassische aussagenlogische Konjunktion genau ein neutrales Element gibt, nämlich "wahr", und dass es für die Addition in der Arithmetik ebenfalls genau ein neutrales Element gibt, nämlich die Zahl Null. Nur am Rande sei erwähnt, dass es auch für andere Junktoren neutrale Elemente gibt; das neutrale Element für die Disjunktion ist "falsch": V(X ∨ F) = V(X), wenn V(F)=falsch ist. Die formale Algebra betrachtet formale Semantiken rein nach ihren strukturellen Eigenschaften. Sind diese identisch, dann besteht zwischen ihnen aus algebraischer Sicht kein Unterschied. Aus algebraischer Sicht, genauer: Aus Sicht der formalen Algebra ist die Semantik für die klassische Aussagenlogik eine zweiwertige Boolesche Algebra. Andere formale Systeme, deren Semantiken jeweils eine Boolesche Algebra bilden, sind die Schaltalgebra und die elementare Mengenlehre. Aus algebraischer Sicht besteht daher zwischen diesen Disziplinen kein Unterschied. Normalformen. Jede aussagenlogische Formel lässt sich in eine äquivalente Formel in konjunktiver Normalform und eine äquivalente Formel in disjunktiver Normalform umformen. Metatheorie. In der Metatheorie werden die Eigenschaften von logischen Systemen untersucht: Das logische System ist in der Metatheorie der Untersuchungsgegenstand. Eine metatheoretische Fragestellung ist zum Beispiel die, ob in einem Kalkül ein Widerspruch hergeleitet werden kann. Der vorliegende Abschnitt soll einige wichtige metatheoretische Fragestellungen aus dem Blickwinkel der Aussagenlogik betrachten. Ein metatheoretisches Resultat ist zum Beispiel die Feststellung, dass alle korrekten Kalküle auch konsistent sind. Ein anderes metatheoretisches Resultat ist die Feststellung, dass ein konsistenter Kalkül nicht automatisch korrekt sein muss: Es ist ohne weiteres möglich, einen Kalkül aufzustellen, in dem zwar kein Widerspruch hergeleitet werden kann, in dem aber z. B. die nicht allgemeingültige Aussage der Form „A ∨ B“ hergeleitet werden kann. Ein solcher Kalkül wäre aus ersterem Grund konsistent, aus letzterem Grund aber nicht korrekt. Ein weiteres, sehr einfaches Resultat ist die Feststellung, dass ein vollständiger Kalkül nicht automatisch auch korrekt oder nur konsistent sein muss. Das einfachste Beispiel wäre ein Kalkül, in dem "jede" Formel der aussagenlogischen Sprache herleitbar ist. Da jede Formel herleitbar ist, sind alle Tautologien herleitbar, die ja Formeln sind: Das macht den Kalkül vollständig. Da aber jede Formel herleitbar ist, ist insbesondere auch die Formel P0 ∧ ¬ P0 und die Formel A ∨ B herleitbar: Ersteres macht den Kalkül inkonsistent, letzteres inkorrekt. Das Ideal, das ein Kalkül erfüllen sollte, ist Korrektheit und Vollständigkeit: Wenn das der Fall ist, dann ist er der ideale Kalkül für ein logisches System, weil er alle semantisch gültigen Sätze (und nur diese) herleiten kann. So sind die beiden Fragen, ob ein konkreter Kalkül korrekt und/oder vollständig ist und ob es für ein bestimmtes logisches System überhaupt möglich ist, einen korrekten und vollständigen Kalkül anzugeben, zwei besonders wichtige metatheoretische Fragestellungen. Abgrenzung und Philosophie. Die klassische Aussagenlogik, wie sie hier ausgeführt wurde, ist ein formales logisches System. Als solches ist sie eines unter vielen, die aus formaler Sicht gleichwertig nebeneinander stehen und die ganz bestimmte Eigenschaften haben: Die meisten sind konsistent, die meisten sind korrekt, etliche sind vollständig, und einige sind sogar entscheidbar. Aus formaler Sicht stehen die logischen Systeme in keinem Konkurrenzverhalten hinsichtlich Wahrheit oder Richtigkeit. Von formalen, innerlogischen Fragen klar unterschieden sind außerlogische Fragen: Solche nach der Nützlichkeit (Anwendbarkeit) einzelner Systeme für einen bestimmten Zweck und solche nach dem philosophischen, speziell metaphysischen Status einzelner Systeme. Die Nützlichkeitserwägung ist die einfachere, bezüglich deren Meinungsunterschiede weniger tiefgehend bzw. weniger schwerwiegend sind. Klassische Aussagenlogik zum Beispiel bewährt sich in der Beschreibung elektronischer Schaltungen (Schaltalgebra) oder zur Formulierung und Vereinfachung logischer Ausdrücke in Programmiersprachen. Prädikatenlogik wird gerne angewandt, wenn es darum geht, Faktenwissen zu formalisieren und automatisiert Schlüsse daraus zu ziehen, wie das unter anderem im Rahmen der Programmiersprache Prolog geschieht. Fuzzy-Logiken, nonmonotone, mehrwertige und auch parakonsistente Logiken sind hochwillkommen, wenn es darum geht, mit Wissensbeständen umzugehen, in denen Aussagen mit unterschiedlich starkem Gewissheitsgrad oder gar einander widersprechende Aussagen abgelegt werden sollen und dennoch sinnvolle Schlüsse aus dem Gesamtbestand gezogen werden sollen. Auch wenn es je nach Anwendungsfall sehr große Meinungsunterschiede geben kann, welches logisches System besser geeignet ist, ist die Natur des Problems für alle Beteiligten unmittelbar und in gleicher Weise greifbar. Einzelwissenschaftliche Überlegungen und Fragestellungen spielen sich überwiegend in diesem Bereich ab. (Noch) kontroverser als solche pragmatischen Überlegungen sind Fragestellungen philosophischer und metaphysischer Natur. Geradezu paradigmatisch ist die Frage, „welches logische System richtig ist“, wobei „richtig“ hier gemeint ist als: Welches logische System nicht nur einen Teilaspekt der Wirklichkeit modellhaft vereinfacht, sondern die Wirklichkeit, das Sein als Ganzes adäquat beschreibt. Zu dieser Fragestellung gibt es viele unterschiedliche Meinungen einschließlich der vom philosophischen Positivismus eingeführten Meinung, dass die Fragestellung als Ganzes sinnlos ist. In den Bereich metaphysischer Fragestellungen fällt auch die Frage, ob es so etwas wie ein "metaphysisches" Prinzip der Zweiwertigkeit gebe, ob also Aussagen über die Wirklichkeit durchgehend ins Schema wahr/falsch passen oder nicht. Diese Frage ist unabhängig von der Frage, ob die Beschäftigung mit zwei- oder mehrwertigen Logiken praktisch sinnvoll ist: Selbst wenn ein metaphysisches Prinzip der Zweiwertigkeit herrscht, könnte man anwendungspraktisch mehrwertige Logiken nützen, etwa dazu, epistemische Sachverhalte zu fassen, zum Beispiel aus Aussagen zu schließen, die zwar metaphysisch wahr oder falsch sind, von denen aber nicht oder noch nicht bekannt ist, welches von beidem der Fall ist. Umgekehrt kann man auch dann, wenn ein solches metaphysisches Prinzip nicht gilt, zweiwertige Logik wegen ihrer Einfachheit für solche Anwendungen bevorzugen, bei denen nur mit solchen Sätzen umgegangen werden muss, die tatsächlich wahr oder falsch sind. Die Frage nach einem metaphysischen Prinzip der Zweiwertigkeit ist wie die meisten metaphysischen Fragen nicht endgültig zufriedenstellend beantwortet. Ein früher Einwand gegen ein solches Prinzip, den Aristoteles zur Diskussion stellte, war das Thema der Aussagen über zukünftige Sachverhalte („Morgen wird es regnen“). Wenn Aussagen über Zukünftiges schon heute wahr oder falsch wären, so wird argumentiert, dann müsse die Zukunft bis ins letzte Detail vorbestimmt sein. Ein anderer Einwand, der vorgebracht wird, ist, dass es Aussagen gibt, deren Wahrheit praktisch oder theoretisch nicht festgestellt werden kann – zum Beispiel lässt sich die Wahrheit von „Der Rasen vor dem Weißen Haus bestand am 1. Februar 1870 aus genau 6.120.375,4 Grashalmen“ einfach nicht feststellen. Befürworter eines metaphysischen Zweiwertigkeitsprinzips berufen sich oft auf das Verhalten von Metatheoretikern, also von Mathematikern oder Logikern, die Aussagen "über" formale Systeme treffen: Egal wie mehrwertig oder nichtklassisch das untersuchte System ist, die dabei getroffenen Metavermutungen, Metabehauptungen und Metafeststellungen sind immer zweiwertig: Ein Kalkül, auch ein parakonsistenter oder nonmonotoner, wird immer als "entweder" konsistent "oder" inkonsistent betrachtet, und ein logisches System ist immer "entweder" korrekt oder inkorrekt, vollständig oder nicht vollständig, entscheidbar oder unentscheidbar, niemals „ein bisschen“ von beidem. Befürworter deuten das als Hinweis darauf, dass es in der Wirklichkeit tatsächlich eine strenge Unterscheidung nach wahr und falsch gebe oder dass es zumindest sinnvoll ist, eine solche anzunehmen. Eine andere philosophische Fragestellung ist die nach dem metaphysischen Status des Untersuchungsgegenstands der Logik, also danach, was logische Systeme, Kalküle, Wahrheitswerte eigentlich „sind“. Der platonische Standpunkt besteht darin, dass die in der Logik verwendeten Zeichen und Konstrukte eine außerlogische Bedeutung haben, dass sie Namen für real existierende (wenn auch natürlich nicht-physikalische) Gegenstände sind. In diesem Sinn gäbe es so etwas wie "das Wahre" und "das Falsche", abstrakte Gegenstände, die von den Zeichen „wahr“ und „falsch“ benannt werden. Der Gegenpol zum Platonismus wäre der Nominalismus, der Existenz nur den Zeichen zuspricht, die in der Logik manipuliert werden. Gegenstand der Logik sind Zeichen, und die Tätigkeit der Logiker ist die Manipulation von Zeichen. Die Zeichen bezeichnen aber nichts, so etwas wie das Wahre oder das Falsche gibt es also nicht. Im Grundlagenstreit der Mathematik entspräche der nominalistischen Position die formalistische Richtung. Eine Mittelstellung nähme der philosophische Konstruktivismus ein, demzufolge die Zeichen zwar keine unabhängig existierenden Gegenstände bezeichnen, durch den Umgang mit den Zeichen aber Gegenstände konstruiert werden.
11
11860
https://de.wikipedia.org/wiki?curid=11
Autopoiese
12
218394
https://de.wikipedia.org/wiki?curid=12
A.A.
13
3217690
https://de.wikipedia.org/wiki?curid=13
Liste von Autoren/A
14
568
https://de.wikipedia.org/wiki?curid=14
Liste von Autoren/H
15
326561
https://de.wikipedia.org/wiki?curid=15
Liste von Autoren/C
16
149831
https://de.wikipedia.org/wiki?curid=16
Liste von Autoren/I
17
1472680
https://de.wikipedia.org/wiki?curid=17
Liste von Autoren/K
18
665456
https://de.wikipedia.org/wiki?curid=18
Liste von Autoren/J
19
665456
https://de.wikipedia.org/wiki?curid=19
Liste von Autoren/V
20
568
https://de.wikipedia.org/wiki?curid=20
Liste von Autoren/G
21
568
https://de.wikipedia.org/wiki?curid=21
Liste von Autoren/W
22
568
https://de.wikipedia.org/wiki?curid=22
Liste von Autoren/B
23
665456
https://de.wikipedia.org/wiki?curid=23
Liste von Autoren/D
24
1472680
https://de.wikipedia.org/wiki?curid=24
Liste von Autoren/S
25
1472680
https://de.wikipedia.org/wiki?curid=25
Liste von Autoren/T
26
2030914
https://de.wikipedia.org/wiki?curid=26
Liste von Autoren/M
27
2030914
https://de.wikipedia.org/wiki?curid=27
Liste von Autoren/O
28
1472680
https://de.wikipedia.org/wiki?curid=28
Liste von Autoren/F
29
568
https://de.wikipedia.org/wiki?curid=29
Liste von Autoren/E
30
3217690
https://de.wikipedia.org/wiki?curid=30
Liste von Autoren/L
31
2030914
https://de.wikipedia.org/wiki?curid=31
Liste von Autoren/N
32
1662837
https://de.wikipedia.org/wiki?curid=32
Liste von Autoren/P
33
211650463
https://de.wikipedia.org/wiki?curid=33
Liste von Autoren/Q
34
3217690
https://de.wikipedia.org/wiki?curid=34
Liste von Autoren/R
35
665456
https://de.wikipedia.org/wiki?curid=35
Liste von Autoren/U
36
245233
https://de.wikipedia.org/wiki?curid=36
Liste von Autoren/Y
37
665456
https://de.wikipedia.org/wiki?curid=37
Liste von Autoren/Z
38
3749701
https://de.wikipedia.org/wiki?curid=38
Anthony Minghella
Anthony Minghella, CBE (* 6. Januar 1954 in Ryde auf der Isle of Wight; † 18. März 2008 in London) war ein britischer Filmregisseur, Filmproduzent, Drehbuchautor, Dramatiker, Hörspielautor, Theater- und Opernregisseur. Leben. Anthony Minghella war der Sohn italienisch-schottischer Eltern, die auf der Isle of Wight eine Fabrik für Eiscreme betrieben. Nach seinem Schulabschluss studierte er an der Universität Hull, wo er eine Zeit lang als Dozent tätig war. Im Jahr 1978 drehte er einen ersten Kurzfilm und seit 1981 war er als Autor und Story Editor tätig. Er wurde mit Theaterstücken, Rundfunkhörspielen, der Fernsehserie "Inspector Morse" und vielen Drehbüchern für Film und Fernsehen bekannt. Er entwickelte die Drehbücher für die im Jahr 1988 erfolgreich ausgestrahlte Fernsehserie The Storyteller von Muppets-Erfinder Jim Henson. Auch als Produzent war er erfolgreich, darunter für die Filme "Der stille Amerikaner", "Die Dolmetscherin" und "Der Vorleser", für den er 2008 posthum für den Oscar (Kategorie „Bester Film“) nominiert wurde. Gemeinsam mit seinem Freund und Kollegen Sydney Pollack gründete er die Produktionsfirma Mirage Enterprises. Der Regisseur Minghella galt als ein guter Schauspielerführer: Unter seiner Regie brachten es zahlreiche Darsteller zu Oscar-Nominierungen, zwei Schauspielerinnen erhielten die Auszeichnung als „Beste Nebendarstellerin“: Juliette Binoche ("Der englische Patient") und Renée Zellweger ("Unterwegs nach Cold Mountain"). Gegen Ende seines Lebens kehrte Minghella zu seinen Anfängen im Radio und auf der Bühne zurück: Im Jahr 2006 wurde sein Hörspiel "Eyes Down Looking" mit Jude Law zu Ehren von Samuel Beckett auf BBC Radio 3 ausgestrahlt, ein Jahr zuvor hatte seine Inszenierung der Puccini-Oper Madame Butterfly in der "English National Opera" in London Premiere und wurde auch in der Nationaloper von Vilnius, in der "Metropolitan Opera" in New York und in der Wiener Staatsoper gezeigt. Am Ende des Films "Abbitte" von Joe Wright (2007) hat er einen Kurzauftritt als Talkshow-Moderator neben Vanessa Redgrave. Seine letzte Arbeit als Drehbuchautor war das Skript für den Musical-Film "Nine" (gemeinsam mit Michael Tolkin). Zu seinen letzten Regiearbeiten zählt der Pilotfilm zur Krimiserie "Eine Detektivin für Botswana" (Originaltitel: ), den die BBC fünf Tage nach seinem Tod erstmals ausstrahlte. Minghella war mit der aus Hongkong stammenden Choreographin, Produzentin und Schauspielerin Carolyn Choa ("Wie verrückt und aus tiefstem Herzen") verheiratet. Der Ehe entstammen zwei Kinder, die in der Filmbranche tätig sind: Tochter Hannah Minghella in der Produktion und Sohn Max Minghella als Schauspieler ("Agora – Die Säulen des Himmels"). Seine Schwester Edana Minghella (1959–2022) und sein jüngerer Bruder Dominic Minghella (* 1966; u. a. für die britische Fernsehserie "Doc Martin") sind Drehbuchautoren. Minghella starb am 18. März 2008 im Alter von 54 Jahren in einem Londoner Krankenhaus an inneren Blutungen infolge der Operation eines Tonsillenkarzinoms sowie eines Karzinoms im Nacken. Auszeichnungen. Im Jahr 1984 erhielt Minghella den Londoner Kritikerpreis als meistversprechender junger Dramatiker, 1986 den Kritikerpreis für sein Stück "Made in Bangkok" als bestes Stück der Saison. 1997 erhielt er für "Der englische Patient" den Oscar in der Rubrik "Beste Regie", 1999 eine Oscar-Nominierung in der Kategorie "Bestes adaptiertes Drehbuch" für "Der talentierte Mr. Ripley", bei dem er auch Regie führte. Im Jahr 2001 wurde Minghella zum "Commander of the British Empire" (CBE) ernannt. Von 2003 bis 2007 war er Präsident des British Film Institute. Seit 1997 trägt das Anthony Minghella Theatre auf der Isle of Wight seinen Namen.
39
474920
https://de.wikipedia.org/wiki?curid=39
US-amerikanischer Film
Die Geschichte des US-amerikanischen Films ist ein Kapitel der Filmgeschichte, das gerade wegen der hervorgehobenen Stellung der Vereinigten Staaten als Filmnation sowohl für die Filmkunst als auch für die Ökonomie des Films relevant ist. Weltruhm erlangte Hollywood, ein Stadtteil von Los Angeles, als Zentrum der US-amerikanischen Filmindustrie, weshalb der Name oft auch als Synonym für die gesamte amerikanische Film-Branche steht. Synonym für Hollywoods Filmindustrie wird wiederum der Begriff "Traumfabrik" ( "Dreamfactory") verwendet. Der Aufbau des Filmmarktes (1910 bis 1918). Internationale Entwicklung. Bis 1912 konzentrierten sich die US-amerikanischen Filmunternehmen auf den inneramerikanischen Filmwettbewerb. Erst danach stieg ihr Einfluss auf dem Weltmarkt. Und zwar so rapide, dass sie bereits 1914, zu Beginn des Ersten Weltkriegs, die Hälfte der Welt-Filmproduktion stellten. Der harte Wettkampf zwischen dem Edison Trust und den von Carl Laemmle angeführten „Independents“ hatte wirksame Instrumente geschaffen, die, am nationalen Konkurrenten erprobt und verfeinert, nun mit zunehmender Härte die internationalen Mitbewerber trafen. Dennoch war die Vormachtstellung Hollywoods längst nicht unangreifbar, erst eine politische Entwicklung verschaffte ihr die nötige Ruhe zur Restrukturierung: Der Krieg in Europa. Die französische Filmproduktion, Hauptkonkurrent der US-Amerikaner, kam mit dem Ausbruch des Krieges sofort und vollständig zum Erliegen, denn Pathé wandelte seine Rohfilm-Fabrik in eine Munitionsfabrik um und seine Studios in Kasernen. Ähnlich, und doch weniger extrem, brach die italienische Produktion beim Kriegseintritt des Landes 1916 ein. Nachdem absehbar war, dass der Krieg sehr lange dauern konnte, bemühten sich die Franzosen, wieder ins Geschäft zu kommen. Die Position, die sie vor Ausbruch des Krieges innehatten, erreichten sie nicht mehr. Zudem beschloss das Deutsche Reich 1916 das generelle Filmeinfuhrverbot, was die europäischen Filmnationen ihres wichtigsten Absatzmarktes beraubte. Auch der Export nach Übersee gestaltete sich zunehmend schwierig, denn die Militärs beanspruchten viele Transportkapazitäten für sich. Außerdem führten deutsche U-Boote und kleinere Kreuzer einen Handelskrieg gegen die Entente-Mächte, wobei auch zivile Frachter versenkt wurden, da man die Entente verdächtigte, sie für Waffenlieferungen zu missbrauchen (z. B. die Versenkung der "Lusitania"). Nationale Entwicklung. Die Macht der Motion Picture Patents Company (MPPC) war 1914 bereits weitgehend gebrochen, die später folgenden Gerichtsurteile waren nur noch Formalitäten. Sowohl die nationale als auch die internationale Konkurrenz der Independents waren also ausgeschaltet. Die US-Filmwirtschaft verlor zwar einen Teil des europäischen Absatzmarktes, doch der Bedarf an frischen Filmen innerhalb der Vereinigten Staaten war höher als in ganz Europa zusammen, so gab es beispielsweise 1916 bereits ca. 28.000 Kinos in ganz Amerika. Auch in der übrigen Welt nahmen die Hollywood-Unternehmen eine dominierende Stellung ein, sie stellten zum Beispiel einen Großteil der in Australien und Südamerika gezeigten Filme, die ab ca. 1916 direkt vertrieben wurden (früher war es üblich, an lokale Zwischenhändler zu verkaufen). Oligopolisierung. Nach Robert C. Allen und Douglas Gomery basiert der freie Wettbewerb zwischen Unternehmen auf vier Punkten: Das Oligopol der MPPC. Der erste Versuch, den freien Wettbewerb zu zerstören und ein Oligopol zu bilden, wurde mittels der Patente betrieben. MPPC versuchte, den Zugang fremder Unternehmen zu behindern, indem sie diesen durch Lizenzgebühren den Wettbewerb erschwerte. Um das System durchzusetzen, sollte zudem eine hohe Marktdurchdringung erfolgen. Auf ihrem Höhepunkt kontrollierte die MPPC via Lizenz den Großteil der Kinos. Auch der Zugang zu Filmmaterial war nicht ohne Lizenz möglich, da Eastman Kodak einen Exklusivvertrag mit der MPPC geschlossen hatte. Der Edison-Trust attackierte also vor allem die Punkte 2–4. Das System scheiterte endgültig mit der Annullierung der Edison-Patente durch den Obersten Gerichtshof der Vereinigten Staaten, sein Niedergang jedoch hatte schon wesentlich früher begonnen. Reaktionen der „Independents“. Den freien Zugang zum Filmmaterial erlangten die Independents durch den Bau eigener Kameras und durch die Aufhebung des Patents auf Rohfilme 1912. Und um mit dem Trust konkurrieren zu können, begannen sie, ihre Filme von denen der MPPC unterscheidbar zu machen. Hierbei entstanden der Feature Film und das „Starsystem“. Die MPPC war zwar nicht blind gegenüber diesen Neuerungen, auch sie drehte Feature Films, durch ihre Struktur und vor allem durch ihre Kundenstruktur, war sie dennoch nicht in der Lage, mit diesen neuen Instrumenten zu experimentieren. Der Trust wollte Massenware verkaufen um eine bestimmte Marge zu erwirtschaften. Teure Stars hätten nur die Kosten hochgetrieben, und Feature Films bargen ein nicht zu unterschätzendes Risiko, für das die Kunden des Trusts nicht aufkommen wollten. So konnten die „Independents“ den ersten Punkt des freien Wettbewerbs unterhöhlen und einzigartige Filmerlebnisse statt austauschbarer Produkte bieten, was dem Publikumsinteresse deutlich entgegenkam und vor allem finanzkräftigere Mittelschichten erschloss. Der Feature Film kommt ca. 1909 auf und wird nur von den Independents ernsthaft weiterentwickelt, beispielsweise von Famous Players, die später nur noch Features produzieren. Famous Players sind auch die erste Gesellschaft, die das Starsystem konsequent nutzt, nach früheren Versuchen, z. B. von I.M.P. Distribution. Durch die oben genannten Schritte schaffen es die Independents, sich eine Position im Markt zu sichern und immer weiter auszubauen. Für nationales und internationales Wachstum fehlen ihnen effiziente Strukturen, zum Beispiel in der Distribution. Noch bis in die Mitte der 1910er Jahre hält sich das alte States-Rights-System, in dem der Produzent lokale Franchise-Rechte seines Films an einen Distributor verkauft, der diese dann innerhalb seines festgelegten Gebiets an Kinos weiter verleiht. Diese Situation ändert sich erstmals 1914 mit der Fusion von elf regionalen Distributoren zu Paramount, die als erste landesweite Rechte handelt. Durch ihre schiere Größe kann das Unternehmen wesentlich kosteneffizienter arbeiten als die Mitbewerber, ganz abgesehen davon, dass dieses System auch für die Produktionsgesellschaft erhebliche Vorteile mit sich bringt. Das alte System kommt bis 1918 zum Erliegen. Vertikale Integration. Kurz nach ihrer Gründung schließt Paramount Fünfjahresverträge mit Famous Players, Lasky und Bosworth ab, die später auf 25 Jahre verlängert werden. Hier zeichnet sich ein Trend ab, der 1914 zunehmend an Bedeutung gewinnt: Die Verflechtung der bisher getrennten Bereiche Distribution, Produktion und Vorführung, ein Phänomen, das in der Fachliteratur als Vertikale Integration bezeichnet wird. Die Bindung durch die Fünfjahresverträge ist vorteilhaft für alle Beteiligten: Jeder profitiert vom Erfolg des anderen. Wenn das Lasky-Programm sehr gut ist, wird das Paramount-Sortiment von mehr Kinos gekauft, wovon auch Famous Players und Bosworth profitieren, da ihr Programm so auch eine größere Verbreitung findet. Die Kooperation führt dann auch, zwei Jahre später, zur Fusion der genannten und noch einiger weiterer Unternehmen. Doch es lassen sich durchaus auch frühere Beispiele für vertikale Integration finden. So sind 1912 unter dem Namen Universal erstmals alle drei Bereiche des Filmbusiness vereint. Es fehlte allerdings eine große First-Run-Kinokette. Dennoch schien der Branche die Fusion so bedrohlich, dass die Gründung von Mutual eine direkte Gegenmaßnahme darstellen sollte. Auch hier fanden sich viele Unternehmen unter einem Dach zusammen, denen es explizit nur um Distribution und Produktion ging. Auch William Fox besitzt 1913 ein Distributions- und ein Produktionsunternehmen, die allerdings erst später zusammengeführt werden. Von Seiten der Kinokettenbesitzer ist zunächst wenig zu hören, erst 1915 schließen sich drei große Ketten, Rowland, Clarke und Mayer, zur Metro Pictures Corporation zusammen, einer Produktionsgesellschaft. Komplette Vertikale Integration. Die wirklich große Reaktion der Kinobesitzer kam erst 1917. Zu diesem Zeitpunkt war die fusionierte Paramount zur dominanten Gesellschaft geworden, die ihre Filme mittels Block-Booking vertrieb. Das hieß, um einen Film mit einem Star vom Kaliber einer Mary Pickford zu bekommen, musste man ein komplettes Paket erwerben, dessen große Mehrheit bestenfalls als durchschnittlich zu bezeichnen war. Andererseits konnte man dem Kauf der Pakete schlecht entgehen, wenn man nicht sein Publikum an ein anderes Kino verlieren wollte, das ebendiesen Mary-Pickford-Film zeigte. Um dieses System zu durchbrechen, schlossen sich 26 der größten nationalen First-Run-Kinokettenbesitzer zum First National Exhibitors Circuit zusammen. Mit ihrer erheblichen Kaufkraft wollten sie gemeinsame Einkäufe tätigen und auch distribuieren. Zuerst war es das Ziel, Stars zu kaufen, ihre Filme zu finanzieren und im Gegenzug das Aufführungsrecht zu erwerben sowie das Recht, die entstandenen Filme regional weiter zu verleihen. Sehr bald kam auch eine eigene Produktion dazu. Zwischen 1917 und 1918 nahm First National Charlie Chaplin und Mary Pickford für jeweils eine Million Dollars unter Vertrag. Beide erhielten vollständige künstlerische Freiheit. First National kontrollierte zu diesem Zeitpunkt bereits ca. 600 Kinos, 200 davon Erstaufführungshäuser. Aus den First-Run-Kinos stammten bis zu 50 Prozent der Einnahmen der Produzenten, außerdem waren Kinos die verlässlichsten Geldverdiener im recht unsteten Filmgeschäft, da das Betreiberrisiko viel geringer war als beispielsweise in der Produktion. Darüber hinaus entschied der Erfolg in den First-Runs über eine lukrative Distribution. Wenn Paramount also seine Abnehmer und sein Publikum nicht verlieren wollte, musste ein Gegenschlag erfolgen. Also stieg die Gesellschaft, mit finanzieller Unterstützung des Bankhauses Kuhn, Loeb & Co., ins Geschäft mit den Kinos ein, anfangs mit einer Summe von 10 Millionen Dollar. Somit wurde Paramount der erste vollintegrierte, oder komplett vertikal integrierte Filmkonzern. Das zweite Oligopol. So wurden aus den alten Independents die Inhaber des zweiten Oligopols. Am Ende der 1910er Jahre war der erste Punkt des freien Wettbewerbs durch das Starsystem und Feature-Filme außer Kraft gesetzt, der zweite Punkt durch die schiere Größe der Unternehmen: Weniger als zehn Unternehmen kontrollierten über 50 Prozent des Marktes. Durch die Vereinigung der Distribution und durch den beginnenden Kampf um die Kinos waren auch die letzten beiden Bedingungen für einen funktionierenden Wettbewerb ausgehebelt. Ein neues Unternehmen konnte weder einen genügenden Zugang zu den Kinos noch Zugriff auf die Stars, also auf die essentiellen Ressourcen der Filmproduktion erhalten. Auch waren die Produktionskosten stark gestiegen. Zwischen 50.000 und 100.000 US-Dollar pro Film waren normal, nach oben gab es keine Beschränkungen. Ein Großteil dieses Geldes floss in die Taschen der Stars, der Rest wurde in bessere Ausstattung investiert, eine weitere Hürde für Neueinsteiger. Um dem Trend zu höheren Gagen entgegenzuwirken, und um, wie später in einer Anhörung des Obersten Gerichtshofs bekannt wurde, ein Monopol zu errichten, planten First National und Paramount eine Fusion im Wert von 40 Millionen US-Dollar. Es war geplant, mit jedem bedeutenden Kinobesitzer in den Vereinigten Staaten einen Fünf-Jahres-Vertrag abzuschließen. Die Stars hätten dann keine Grundlage mehr für irgendwelche Forderungen gehabt. United Artists. Die Pläne zu diesem Merger wurden von einem Privatdetektiv aufgedeckt, der im Auftrag von Charlie Chaplin, Mary Pickford, Douglas Fairbanks und D. W. Griffith herausfinden sollte, warum weder First National noch Paramount ihre Verträge verlängerte. Natürlich waren sie entsetzt über solche Aussichten und beschlossen, dem entgegenzuwirken, indem sie ihr eigenes Unternehmen gründeten. 1919 entstand United Artists als Gesellschaft für den Filmvertrieb. Finanziert wurde das Unternehmen durch die Morgan-Gruppe sowie durch eine Einlage von 100.000 US-Dollar für Vorzugs-Anteilscheine durch die Eigentümer. Daneben existierten auch normale Anteilscheine, bei deren Weiterverkauf United Artists ein Vorkaufsrecht hatte. Die Gesellschaft hatte keine eigenen Studios, sondern nutzte die Studios seiner Mitglieder. Sie war errichtet worden als reine Dienstleistungsgesellschaft, die nicht auf Rendite arbeiten sollte, sondern den Besitzern größtmögliche Autonomie und Profite aus dem Geschäft mit ihren Filmen einräumte. Es gab kein Block-Booking, jeder Film wurde individuell vertrieben und musste allein durch seine künstlerischen Qualitäten überzeugen. Die Verleihgebühren der United Artists lagen deutlich unter denen von First National und Paramount, stellten also eine erhebliche Bedrohung für die marktbeherrschende Stellung der beiden dar. Der Kampf um die Kinos. Die Fusion der beiden Giganten war auch gescheitert, weil ihr wichtigstes Kapital, die Stars, sich auf und davon gemacht hatte. First National war also immer noch Konkurrent Paramounts, und die United Artists mit ihren qualitativ sehr hochwertigen Filmen und ihrer enormen Beliebtheit brachten das Unternehmen weiter in Bedrängnis. Also versuchte Paramount das, was man heute eine feindliche Übernahme nennen würde: Stück für Stück wurden die in der First National zusammengeschlossenen Kinoketten aufgekauft. Auch andere Unternehmen versuchten nun, Kontrolle über die Erstaufführungshäuser zu erlangen, sogar United Artists sah sich später, 1924, mangels Abnehmern gezwungen, eine eigene Kette zu gründen. Wie auch schon in der Vergangenheit, wurden die Kämpfe um die Kinos mit harten Bandagen ausgetragen, vor allem Paramounts „dynamite gang“, auch „wrecking crew“ genannt, wurde ihrem Ruf gerecht. Eine weit verbreitete Methode, Kinos an sich zu binden, war das Blocksystem. Zwischen Erstem Weltkrieg und dem Ende der Stummfilmzeit (1918 bis etwa 1930). Dominanz des Weltmarktes. Seit 1917 begannen US-amerikanische Unternehmen, ihre Gewinne auf der Basis von in- und ausländischen Verkäufen zu schätzen. Aus dieser Gewinnschätzung ergab sich das Budget der Produktion, das dadurch erhöht wurde, was für die ausländische Konkurrenz doppelt schlecht war. Die Produktionskosten eines Filmes wurden in den Vereinigten Staaten amortisiert, und später wurden die Filme billig im Ausland angeboten, wodurch die internationale Konkurrenz nicht mehr mithalten konnte. US-amerikanische Filme galten als qualitativ besser und waren im Erwerb trotzdem günstiger als z. B. deutsche Produktionen. Auch waren die Infrastruktur und die Rationalisierung der Produktionsabläufe nirgends so weit gediehen wie in Hollywood, ein Resultat auch des wachsenden Einflusses der Banken. Als der Erste Weltkrieg vorbei war, und die Menschen in den bislang abgeschnittenen Ländern wie Deutschland oder Österreich erstmals wieder Hollywood-Produktionen zu sehen bekamen, erlebten sie einen wahren Quantensprung in der Qualität. Die führenden europäischen Filmproduktionsländer, deren isolierte Filmindustrien fünf Jahre lang unter dem Ersten Weltkrieg gelitten hatten, und zudem mit viel geringeren Budgets zu kämpfen hatten, konnten der Konkurrenz aus den Vereinigten Staaten nur noch wenig entgegensetzen. Bis 1927 erhöhte sich der Anteil der amerikanischen Filmproduktion an der Weltfilmproduktion auf nahezu 90 %, was zu Beginn der 1920er Jahre die Filmwirtschaft in England, Frankreich, Italien, Deutschland und Österreich schwer in Bedrängnis brachte und die dortige Filmproduktion stark zurückgehen ließ. Zahlreiche europäische Filmproduktionsgesellschaften mussten schließen. 1925 wurden alleine nach Österreich 1200 US-Produktionen exportiert, obwohl der Bedarf der dortigen Kinos auf lediglich rund 350 geschätzt wurde. In vielen Ländern wurden Filmkontingente eingeführt, die die erlaubte Anzahl an Filmimporten aus den Vereinigten Staaten regelten. Da rund 45 % der Gewinne zu dieser Zeit aus Europa kamen, wurden die Restriktionen in Europa von den amerikanischen Filmmagnaten mit Argwohn betrachtet. Zumeist erfolglos wurde gegen Einfuhrbeschränkungen Lobbying betrieben. In Ungarn jedoch wurden die geplanten Einfuhrbeschränkungen nicht eingeführt, nachdem die US-amerikanische Filmindustrie den ungarischen Behörden damit gedroht hatte, keine Filme mehr in Ungarn zu zeigen. Filmwirtschaftliche Situation. 1927 waren nach Zahlen des US-Handelsdepartements beim amerikanischen Film 350.000 Personen beschäftigt. Zur Filmproduktion wurden rund 500.000 Kilometer Filmband verbraucht, wofür mehr Silber benötigt wurde, als der Umlauf an Silbermünzen in den Vereinigten Staaten ausmachte. Es wurden Filme im Ausmaß von 75.000 Kilometer Filmband und einem damaligen Wert von rund 320 Millionen Mark exportiert. Ende des Jahres 1927 zählten die Vereinigten Staaten 21.642 Kinos, die in jenem Jahr insgesamt 3 Milliarden Mal besucht wurden, was wiederum einen Erlös aus dem Eintrittsgeld von rund 2,5 Milliarden Dollar ergab. Während Amerika den weltweiten Filmmarkt fast ohne nennenswerte Konkurrenz dominierte, hatten ausländische Produktionen am US-Markt kaum eine Chance. Spielten in manchen Ländern jährlich bis zu 1000 oder mehr US-Filmproduktionen in den Kinos, liefen in den gesamten Vereinigten Staaten im Jahr 1927 nur 65 ausländische Filme, davon 38 aus Deutschland, neun aus England, sechs aus Frankreich, vier aus Russland, je zwei aus Österreich und Italien und je einer aus China und Polen. Selbst diese Filme waren zumeist nur wenig verbreitet und liefen fast ausschließlich auf so genannten Filmkunstbühnen. Frühe Tonfilmära bis Ende des Zweiten Weltkriegs. Ab 1933, verstärkt jedoch ab Beginn des Zweiten Weltkriegs und der Ausbreitung des Deutschen Reichs auf immer weitere Teile Europas, setzte eine Emigrationswelle von zumeist jüdischen Filmschaffenden aus Europa ein. Waren deren Auswanderungsziele zu Beginn noch häufig europäische Städte mit Filmindustrie wie Wien, Paris oder London, kristallisierte sich bald die aufstrebende Filmindustrie Hollywoods als begehrtestes und vielversprechendstes Ziel der Emigranten heraus – verstärkt durch gezieltes Anwerben europäischer Filmgrößen durch Hollywood-Studiobosse. Von den etwa 2000 jüdischen Filmschaffenden, die im Deutschen Reich keine Arbeit mehr fanden und auswandern mussten, fanden sich letztendlich rund 800 in Hollywood wieder – darunter fast die gesamte Elite des deutschsprachigen Filmschaffens dieser Zeit. Vielen gelang dort eine ruhmvolle Karriere, viele, vor allem jene, die 1938 und noch später ohne Arbeitsangebot in Hollywood ankamen, konnten nicht mehr an ihre bisherige Karriere anschließen und kamen nur in schlecht bezahlten und unbedeutenden Positionen unter oder mussten nach einer Weile gar das Filmgeschäft aufgeben. Statt der bisher aus Berlin und Wien gewohnten Kaffeehäuser, wo man sich einst regelmäßig traf, wurden nun große Appartements und Villen von in Hollywood erfolgreichen Emigranten neue Treffpunkte. Beliebte Treffpunkte der Film- und Theaterschaffenden waren die Adressen von Henry Koster, Paul Henreid, Ernst Deutsch-Dryden, Paul Kohner und später auch von Sam Spiegel. Die literarische Emigration, inklusive Drehbuchautoren, traf sich häufig bei Salka Viertel und bei Brecht. Literatur. Englisch. Hollywood Experimentalfilm Dokumentarfilm Independent film
51
1765216
https://de.wikipedia.org/wiki?curid=51
Vorsätze für Maßeinheiten
Vorsätze für Maßeinheiten, Einheitenvorsätze, "Einheitenpräfixe" oder kurz "Präfixe" oder "Vorsätze" dienen dazu, Vielfache oder Teile von Maßeinheiten zu bilden, um Zahlen mit vielen Stellen zu vermeiden. SI-Präfixe. SI-Präfixe (Einheitenvorsatzzeichen) sind für die Verwendung im Internationalen Einheitensystem (SI) definierte Dezimalpräfixe. Sie basieren auf Zehnerpotenzen mit ganzzahligen Exponenten. Man unterscheidet zwischen dem Namen des Präfixes und seinem Symbol. Die Symbole sind international einheitlich. Die Namen unterscheiden sich je nach Sprache. Die Zeichen für Teile einer Einheit werden als Kleinbuchstaben geschrieben, während die meisten Zeichen für Vielfache einer Einheit als Großbuchstaben geschrieben werden. Ausnahmen von dieser Systematik sind aus historischen Gründen die Zeichen für Deka (da), Hekto (h) und Kilo (k). Das Beratende Komitee für Einheiten (CCU) des Internationalen Büros für Maß und Gewicht diskutierte die Möglichkeiten, diese Symbole durch D, H und K zu ersetzen, legte diese Idee jedoch auf Eis (), weil Änderungen am System nur „aus sehr wichtigen Gründen“ erfolgen sollten. Typografie. Die Einheitenvorsatzzeichen werden wie die Einheitenzeichen in aufrechter, nicht kursiver Schrift geschrieben, unabhängig von der Schriftart (Schriftauszeichnung) des umgebenden Textes. Zwischen Einheitenvorsatzzeichen und Einheitenzeichen wird kein Zwischenraum geschrieben. Das Präfix-Symbol für „Mikro“ ist der griechische Buchstabe μ (My). Aus historischen Gründen ist es in Unicode zweimal vorhanden: als Buchstabe des griechischen Alphabets (U+03BC) und als Sonderzeichen (U+00B5), siehe My → Mikro-Zeichen. Wo dieses Zeichen nicht verfügbar ist, wird vor allem in der elektrotechnischen Literatur ersatzweise häufig u verwendet. Das wurde in der Internationalen Norm ISO 2955 von 1983, die 2001 zurückgezogen wurde, auch so empfohlen. Für Deutschland gelten weiterhin die Empfehlungen der DIN-Norm DIN 66030 "Informationstechnik – Darstellung von Einheitennamen in Systemen mit beschränktem Schriftzeichenvorrat" vom Mai 2002. In Österreich sieht das Maß- und Eichgesetz µ vor. Beim Austausch medizinischer Daten gemäß dem HL7-Standard ist u anstelle von µ zugelassen. Im englischen Sprachraum wird µ manchmal durch mc ersetzt. Internationale und deutsche Benennung. Die Namen der Vorsätze werden von der Generalkonferenz für Maß und Gewicht für die englische und französische Sprache vorgegeben. Die Bezeichnungen sind für diese beiden Sprachen gleich, außer dass im Französischen die Vorsätze ", , " und mit Akut geschrieben werden. Im amerikanischen Englisch ist "deka" anstelle von "deca" üblich. Die deutschen Bezeichnungen werden nach DIN 1301-1 festgelegt. Sie unterscheiden sich von den englischen insofern, als bei "Deka, Hekto, Mikro, Piko, Yokto" und "Quekto" jeweils ein C durch ein K ersetzt ist und bei "Dezi" und "Zenti" ein C durch ein Z. Sprachliches. Der Name eines Einheitenvorsatzes bildet mit dem zugehörigen Einheitennamen ein zusammengesetztes Wort. Beispiele sind "Nanometer" oder "Milligramm." Wenn aus dem Zusammenhang klar ist, welche Einheit gemeint ist, wird dieses zusammengesetzte Wort in der Umgangssprache häufig auf den Vorsatz verkürzt. So ist von "Kilo" die Rede, wenn "Kilogramm" (kg) gemeint ist. Im technischen Bereich wird der Mikrometer (μm) kurz als "My" [] bezeichnet; im Englischen ist noch die Bezeichnung "micron" für Mikrometer üblich, die 1967 aus dem SI entfernt wurde. Im Österreichischen und Tschechischen wird das Kurzwort "Deka" für die Masseeinheit "Dekagramm" (dag) verwendet. Im Flächenmaß Hektar (Hekto-Ar, 100 a) verschwindet ausnahmsweise an der Wortfügestelle das O von "hekto," was den Doppelselbstlaut vermeidet. In angelsächsischen Sprachraum wird aus gleichem Grund für Megaohm (MΩ) gelegentlich "megohm" geschrieben. Geschichte. Bereits bei der Einführung metrischer Einheiten in Frankreich 1793 wurden Maßeinheiten für Länge, Fläche, Volumen und Gewicht (Masse) definiert, deren Bezeichnungen die Vorsätze "déci, centi, milli, hecto, kilo," sowie auch "demi" (½), "double" (2) und "myria" (10000) hatten. Als 1874 die British Association for the Advancement of Science das CGS-System einführte, wurden systematisch die Vorsätze "micro" bis "mega" verwendet. Das Internationale Komitee für Maß und Gewicht beschloss 1879 einheitliche Symbole für die Präfixe von Milli bis Kilo. Allerdings wurden nicht alle Kombinationen von Grundeinheit und Vorsatz freigegeben, sondern eine limitierte Liste von Kombinationen. So war der Hektoliter gelistet, nicht aber Hektometer oder Hektogramm. Bis 1960 waren in Frankreich die Vorsätze "myria" (gr. = zehntausend) mit dem Zeichen ma für das 10+4‑fache und "dimi" mit Zeichen dm für das 10−4‑fache genormt. Statt "myria" wurde Anfang des 19. Jahrhunderts auf einen Vorschlag von Thomas Young hin z. T. auch "myrio" geschrieben. Früher waren in Deutschland auch das Symbol D und in Großbritannien dk für "Deka" üblich, in Österreich war das Zeichen dk bis Mitte der 1950er Jahre gesetzlich vorgeschrieben. Bei der Schaffung des SI im Jahr 1960 wurden die bis zu diesem Zeitpunkt definierten heute gültigen Präfixe von 10−12 bis 10+12 und deren Symbole übernommen. 1964 folgten Femto und Atto, 1975 Peta und Exa, 1991 die Präfixe bis 10−24 und 10+24 und 2022 schließlich die Präfixe bis 10−30 und 10+30. Einheitenvorsätze für binäre Vielfache. In der Datenverarbeitung kommen oft Zweierpotenzen vor – insbesondere bei der Größe von Arbeitsspeichern und anderen Datenspeichern. Ähnlich wie bei Zehnerpotenzen ist auch hier die Verwendung von Präfixen hilfreich. Da 210 = 1024 sehr nahe bei 1000 liegt, bürgerte es sich ein, bei Größenangaben von Datenmengen in Bit und Byte den Vorsatz "Kilo" für 1024 zu verwenden. Analog verwendete man "Mega" für 220 = 1048576 etc… Da dies aber zu Zweideutigkeiten führte, definierte die für die Normung in der Elektrotechnik zuständige International Electrotechnical Commission spezielle Binärpräfixe. Das binäre Präfixsymbol entsteht durch Anhängen von ‑i an das entsprechende dezimale Präfixsymbol (Ki wird dabei im Gegensatz zu k groß geschrieben). Der Name eines binären Präfixes wird durch Anhängen von ‑bi an die ersten beiden Buchstaben des entsprechenden dezimalen Präfixnamens gebildet (siehe Tabelle). Zu den 2022 neu eingeführten SI-Präfixen Ronna und Quetta gibt es offiziell noch keine binären Entsprechungen. Diese Binärpräfixe wurden von den wichtigsten Normungsinstitutionen übernommen. Die Dezimalpräfixe sollen nur noch für Zehnerpotenzen verwendet werden, z. B. 100 GB = 1011 B ≈ 93,1 GiB. Manche Hersteller haben diese Empfehlung aber noch nicht umgesetzt und verwenden dezimale Präfixe im binären Sinn "(→ siehe: Byte)".
53
235001567
https://de.wikipedia.org/wiki?curid=53
Abkürzungen/Gesetze und Recht
Viele, aber nicht alle, Fachautoren kürzen ohne Punkt und Leerzeichen ab: So wird die Abbreviatur für "in der Regel", normalerweise "i. d. R.", mit "idR" abbreviert. Ungeachtet dessen werden Akronyme, wie sonst auch, ohne Punkte gebildet. Folgende Liste von Abkürzungen aus der Rechtssprache versucht nur sprachlich korrekte Abbreviaturen, also mit Punkt und Leerzeichen, aufzuführen, sofern nicht die geraffte Schreibweise in den Alltag Einzug gefunden hat und dort dominiert (z. B. "eG", "GbR" oder "MdB") oder die Abbreviatur nur in juristischen Schriften und dort auch nur zusammengeschrieben auftaucht. S. Ostsee-Kanal (Sperr- und Warngebietverordnung)
54
56134
https://de.wikipedia.org/wiki?curid=54
Liste von Abkürzungen (Computer)
Dies ist eine Liste technischer Abkürzungen, die im IT-Bereich verwendet werden.
56
387658
https://de.wikipedia.org/wiki?curid=56
Liste von Unternehmen mit Namensherkunftserklärungen
Dies ist eine Liste von Firmen (Namen der Unternehmen) sowie ihrer Herkunft (Etymologie). Häufig sind die Firmen Abkürzungen oder Akronyme der Namen der Gründer, voriger Gesellschaften oder des Unternehmensziels.
61
2649500
https://de.wikipedia.org/wiki?curid=61
ISO 4217
ISO 4217 ist die von der Internationalen Organisation für Normung publizierte Norm für Währungs-Kurzzeichen, die im internationalen Zahlungsverkehr zur eindeutigen Identifizierung benutzt werden sollen. Am 1. August 2015 wurde die neue Version ISO 4217:2015 veröffentlicht. Diese 8. Version ersetzt den Vorgänger aus dem Jahr 2008. Systematik. Alphabetische Codes. Die Abkürzungen umfassen jeweils drei Buchstaben. Die ersten beiden sind üblicherweise die Landeskennung nach ISO 3166-1 ALPHA-2 (beispielsweise "AU" für Australien), der letzte Buchstabe ist in der Regel der Anfangsbuchstabe des Währungsnamens, so beispielsweise "D" für "Dollar". Gemeinsam ergibt dies "AUD" als genormte Abkürzung für den Australischen Dollar. Währungen, die nicht von einem Einzelstaat herausgegeben werden, haben als ersten Buchstaben ein "X"; die beiden folgenden Buchstaben geben den Namen der Währung an. Dies ist sowohl bei den meisten Währungsunionen der Fall (z. B. der Ostkaribische Dollar ("XCD")), als auch bei den IWF-Sonderziehungsrechten ("XDR"). Von diesen Regeln wird in den folgenden Fällen abgewichen: Auch für nicht-geldliche Wertaufbewahrungs- und Transaktionsmittel gibt es Kodierungen. So wird eine Feinunze Gold (= 31,1034768 Gramm) beispielsweise mit "XAU" abgekürzt (zusammengesetzt aus codice_1 und dem chemischen Symbol für Gold: "Au"), Silber entsprechend mit "XAG". Transaktionen, in denen keine Währung verwendet wird, werden mit "XXX" gekennzeichnet. Numerische Codes. Neben der Buchstabenkodierung werden auch dreistellige Zifferncodes verwendet. Dabei bedeuten die Zahlenbereiche Teilweise wird bei Änderung der Währung und des Buchstaben-Codes die bisherige numerische Kodierung beibehalten, insbesondere wenn sich lediglich der Name des Zahlungsmittels geändert hat. Auch wenn eine direkte Währungsumstellung erfolgt, bleibt meist der numerische Code unverändert. Diese Codes sind deshalb ohne Kenntnis des Zeitpunkts nicht immer so eindeutig einer bestimmten Währung des betreffenden Landes zuzuordnen, wie das mit den Buchstaben-Codes möglich ist. Allerdings sind sie für konkrete finanzielle Transaktionen vorgesehen, so dass die Angabe bei mehreren Möglichkeiten nur bedeutet: „In der am Tag der Wertstellung gültigen Landeswährung“. Listen der Währungscodes. Der Standard definiert drei Listen, die selbst im Standardtext nicht enthalten sind, sondern auf der ISO-Website in ihrer jeweils aktuellen Fassung zur Verfügung gestellt werden:
76
1787452
https://de.wikipedia.org/wiki?curid=76
Achsensprung (Film)
Ein Achsensprung ist ein Filmschnitt, mit dem die Beziehungsachse der Figuren oder Gruppen übersprungen wird. Blickachsen oder Beziehungsachsen zwischen den Akteuren untereinander oder dem Point of Interest des Protagonisten bilden eine gedachte Linie. Auf die Leinwand projiziert, stellt diese Linie eine „links-rechts-“ und „oben-unten-Beziehung“ zwischen den Akteuren dar. Mit Achsensprung bezeichnet man einen Schnitt, bei dem sich dieses Verhältnis umkehrt. Es wird zwischen Seitenachsensprung und dem Höhenachsensprung unterschieden. Letzterer wird als weniger desorientierend vom Zuschauer empfunden, da die Leinwand weniger hoch als breit ist. Ein Achsensprung kann beim Zuschauer Desorientierung verursachen, da die Anordnung und Blickrichtung der Akteure im Frame sich relativ zum Zuschauer zu verändern scheint. Aktionsachse (Handlungsachse) ist die gedachte Linie, in deren Richtung sich die Handlung oder das Inertialsystem der Filmwelt bewegt. Bei einer Autofahrt zum Beispiel ist die Aktionsachse so stark, dass die Beziehungsachsen an Bedeutung verlieren. Die Orientierung bleibt trotz eventuellem Achsensprung bewahrt. Wenn man aus der Fahrerseite filmt, bewegt sich die Landschaft scheinbar von rechts nach links; filmt man aus der Beifahrerseite, bewegt sie sich scheinbar von links nach rechts. Diese Änderung der Bewegungsrichtung ist aber nicht irritierend. Analog werden zwei Autos, die bei einer Parallelmontage in die gleiche Richtung fahren (oft von links nach rechts, weil das unserer Leserichtung entspricht), als einander verfolgend wahrgenommen; wenn eines jedoch von links nach rechts und das andere von rechts nach links fährt, erwartet der Zuschauer einen Zusammenstoß. Im Continuity Editing des klassischen Hollywoodkinos wird der Achsensprung als Fehler betrachtet und dementsprechend vermieden. Der Grundsatz, Achsensprünge zu vermeiden, wird "180-Grad-Regel" genannt. Bewusster Achsensprung. In manchen Fällen kann ein bewusster Achsensprung auch Stilmittel sein, um beispielsweise Verwirrung oder einen Kippmoment zu symbolisieren; Stanley Kubrick wird in diesem Zusammenhang häufig genannt. In Werbespots werden Achsensprünge oft verwendet, um einen rasanten Effekt zu bewirken. Bekannt ist auch eine Szene aus "Herr der Ringe", in welcher Sméagol mit sich selbst spricht. Da er mit den Schnitten wechselnd von der einen zur anderen Seite spricht (Achsensprung), entsteht der Eindruck zweier gleich aussehender Personen, womit der gespaltene Charakter der Figur unterstrichen wird. Achsenwechsel. Im Gegensatz zum Achsensprung handelt es sich hierbei um eine Bewegung der Kamera (Steadicam oder einer Dollyfahrt) über die Achse oder um eine Änderung der Bewegungsachse bzw. der Blickrichtung der Figuren, wodurch eine neue Achse definiert wird. Der Achsenwechsel wird vom Zuschauer nicht als störend wahrgenommen, weil sich die Bewegung fließend vollzieht. Diese Bewegung wird mitunter auch als Crab bezeichnet. Außerdem kann ein Zwischenschnitt in eine Totale eine Achsenüberschreitung möglich machen, da so die räumliche Anordnung der Akteure für den Zuschauer deutlich wird, oder der Zwischenschnitt auf einen Closeup, da sich der Betrachter danach wieder neu räumlich orientiert.
77
2324908
https://de.wikipedia.org/wiki?curid=77
Alfred Hitchcock
Sir Alfred Joseph Hitchcock KBE (* 13. August 1899 in Leytonstone, England; † 29. April 1980 in Los Angeles) war ein britischer Filmregisseur, Drehbuchautor, Filmproduzent und Filmeditor. Er siedelte 1939 in die USA über und nahm am 20. April 1955 zusätzlich die US-amerikanische Staatsbürgerschaft an. Hitchcock gilt hinsichtlich seines Stils bis heute als einer der einflussreichsten Filmregisseure. Er etablierte die Begriffe Suspense und MacGuffin. Sein Genre war der Thriller, dessen Spannung er mit Humor verband. Die wiederkehrenden Motive seiner Filme waren Angst, Schuld und Identitätsverlust. Mehrfach variierte er das Thema des unschuldig Verfolgten. Hitchcock legte großen Wert auf die künstlerische Kontrolle über das Werk des Autors. Sein Gesamtwerk umfasst 53 Spielfilme und gehört – gemessen am Publikumserfolg sowie der Rezeption durch Kritik und Wissenschaft – zu den bedeutendsten der Filmgeschichte. Auch dank seiner bewussten Selbstvermarktung zählt Hitchcock heute zu den bekanntesten zeitgeschichtlichen Persönlichkeiten. Er ist dem Autorenfilm zuzurechnen. Am 3. Januar 1980 wurde er von Königin Elisabeth II. zum Knight Commander des Order of the British Empire ernannt. Leben und Werk. Kindheit, Jugend und Ausbildung. Alfred Hitchcock war der jüngste Sohn des Gemüsehändlers William Hitchcock (1862–1914) und dessen Ehefrau Emma Jane Whelan (1863–1942). Durch den Altersunterschied von sieben beziehungsweise neun Jahren zu seinen Geschwistern, durch seine römisch-katholische Erziehung in einem von der anglikanischen Kirche geprägten Land und nicht zuletzt durch sein Äußeres – er war klein und schon als Kind korpulent – hatte er eine einsame Kindheit. Zwischen 1910 und 1913 war er Schüler des St.-Ignatius-College, einer Londoner Jesuitenschule. Er verließ das College mit knapp 14 Jahren und besuchte stattdessen Abendkurse auf der Londoner Universität, diverse Handwerkskurse und später wenige Monate lang die "School of Engineering and Navigation". Zudem belegte er Kurse in technischem Zeichnen sowie in Kunstgeschichte an der Londoner Kunstakademie. Seine Freizeit verbrachte er oft mit dem Lesen von Fahrplänen und dem Studium von Stadtplänen und Landkarten. Mit fortschreitendem Alter flüchtete er sich in Romane, besuchte Theatervorstellungen und ging oft ins Kino. Außerdem verfolgte er Mordprozesse im Gerichtshof Old Bailey und besuchte gerne das Black Museum von Scotland Yard. Der Tod des Vaters Ende 1914, zu dem er kein enges Verhältnis hatte, band Hitchcock noch enger an seine Mutter. 1915 nahm er eine Stelle als technischer Angestellter bei der "W.T. Henley Telegraph Company" an, die elektrische Leitungen herstellte. Wegen seines zeichnerischen Talents wurde er bald in die Werbeabteilung versetzt. Unter seinem bis zuletzt gebrauchten Spitznamen „Hitch“ veröffentlichte er in der Betriebszeitschrift seine ersten gruseligen Kurzgeschichten. Anstellung beim Film. Im Frühjahr 1920 hörte Hitchcock von der Neugründung eines Studios der amerikanischen Produktionsgesellschaft Paramount Famous Players-Lasky im Londoner Stadtbezirk Islington. Er bewarb sich mit einer Mappe mit Illustrationen und wurde als Zeichner von Zwischentiteln angestellt. In den Jahren 1921 und 1922 zeichnete er die Titel für mindestens zwölf Filme. Nebenbei entwarf er Kostüme, Dekorationen und Szenenbilder. Auch durch Überarbeitungen von Drehbüchern machte er auf sich aufmerksam. Bei zwei Filmen arbeitete er mit George Fitzmaurice zusammen, dessen genaue Produktionsplanung ihn sehr beeinflusste. 1922 bekam Hitchcock Gelegenheit, sich als Regisseur zu versuchen. Mit dem Autor Seymour Hicks stellte er die letzten Filmszenen von "Always Tell Your Wife" fertig, nachdem der ursprüngliche Regisseur gefeuert worden war. Bald darauf konnte er einen eigenen Film drehen, "Number 13" (in einigen Quellen "Mrs. Peabody"), der jedoch unvollendet blieb, da "Famous Players-Lasky" im Laufe der Dreharbeiten das Studio wegen finanzieller Schwierigkeiten schließen musste. Das leerstehende Gelände wurde an unabhängige Produzenten vermietet, darunter auch an Michael Balcon, der das Studio 1924 schließlich erwarb. Er stellte Hitchcock als Regieassistent ein, sowie (auf dessen Empfehlung) die Filmeditorin Alma Reville. Die beiden kannten sich seit 1921, seitdem sie gelegentlich an denselben Filmen gearbeitet hatten. Bis 1925 entstanden fünf Filme, bei denen Hitchcock dem Regisseur Graham Cutts assistierte und zu Cutts’ wachsendem Unmut mehr und mehr künstlerischen Einfluss gewann. Neben dem Drehbuch kümmerte er sich auch um die Bauten, das Szenenbild, die Besetzung, die Kostüme sowie die Ausstattung und nahm so mit der Zeit die Aufgaben eines Produktionsleiters wahr. Hitchcocks letzte Zusammenarbeit mit Graham Cutts führte ihn 1924/25 nach Deutschland. Der unter der Beteiligung der deutschen UFA produzierte Film "Die Prinzessin und der Geiger" entstand in den Babelsberger Filmstudios – damals die modernsten der Welt. Dabei hatte Hitchcock die Möglichkeit, Friedrich Wilhelm Murnau bei den Arbeiten an "Der letzte Mann" zu beobachten; von diesem beeindruckt übernahm er einige Techniken Murnaus für die Szenenbilder seiner aktuellen Produktion. Durch diesen und weitere Besuche konnte Hitchcock fließend Deutsch sprechen; später sprach er zum Beispiel einige Trailer seiner Filme selbst. Zurück in England übertrug ihm Michael Balcon 1925 die Regie für einen eigenen Film. Das Projekt führte den jungen Hitchcock wieder nach Deutschland. Nur die Münchner Lichtspielkunst (Emelka) fand sich bereit, den Film des unbekannten Regie-Debütanten mitzuproduzieren. Für das Melodram "Irrgarten der Leidenschaft" (1925) verpflichtete Balcon kostspielige Stars aus Hollywood. Alma Reville, mittlerweile Hitchcocks Verlobte, war als Regieassistentin und Editorin Mitglied des sehr kleinen Filmteams. Balcon war mit Hitchcocks ambitionierter Arbeit zufrieden und vertraute ihm eine weitere deutsch-englische Koproduktion an: "Der Bergadler" wurde noch im selben Jahr, diesmal in Tirol, gedreht. Doch beide Filme, die 1925 beziehungsweise 1926 in Deutschland in den Kinos anliefen, wurden in England zunächst nicht veröffentlicht. Der englische Verleiher und Geldgeber C. M. Woolf war, im Gegensatz zu Balcon, nicht von Hitchcocks betont expressionistischem Stil überzeugt. "Der Bergadler" ist der einzige von Hitchcocks Filmen, der nicht mehr erhalten ist. Karriere in England. Leben und Arbeit in England. Mit dem 1926 gedrehten Film "Der Mieter" um einen einzelgängerischen Pensionsgast, der verdächtigt wird, ein Serienmörder zu sein, hatte Hitchcock sein Thema gefunden. Doch nicht zuletzt wegen dessen expressionistischer Bildgestaltung lehnte es Woolf abermals ab, den Film zu veröffentlichen. Balcon zog daraufhin den jungen Ivor Montagu hinzu, der Erfahrung mit Filmüberarbeitungen hatte; mit Hitchcock zusammen wurden einige Änderungen vorgenommen. Der überragende Erfolg bei einer Pressevorführung ebnete dann den Weg zur Veröffentlichung seiner ersten beiden Filme. "Der Mieter" kam 1927 in kurzer Abfolge mit "Irrgarten der Leidenschaft" und "Der Bergadler" in die Kinos und bedeutete für Hitchcock den Durchbruch als Regisseur. Für Balcons Gainsborough Pictures drehte Hitchcock 1927 noch die zwei Melodramen "Abwärts" und "Leichtlebig". Beiden Filmen war kein Erfolg beschieden. Bereits zuvor hatte er beschlossen, zu der neu gegründeten Firma British International Pictures (BIP) des Produzenten John Maxwell zu wechseln. Mit einem Jahresgehalt von 13.000 Pfund Sterling stieg er zum bestbezahlten Regisseur Großbritanniens auf. Dort entstand mit dem Boxerdrama "Der Weltmeister" sein erster Film nach einem Originaldrehbuch. Die Presse reagierte äußerst positiv. Obwohl die drei folgenden Stummfilme "Die Frau des Farmers," "Champagne" und "Der Mann von der Insel Man" abgesehen von einzelnen Szenen als Fingerübungen gelten, hatte sich Hitchcock in Großbritannien innerhalb kurzer Zeit einen Namen gemacht: Die junge britische Filmindustrie, sehr darauf bedacht, sich von der amerikanischen abzuheben, war nur allzu gerne bereit, ihn als kommenden Regiestar zu feiern. Im Dezember 1926 heirateten Alfred Hitchcock und Alma Reville, die für die Hochzeit zum katholischen Glauben konvertierte. 1928 wurde ihre gemeinsame Tochter Patricia geboren. Beruflich blieb Alma bis zum Schluss seine engste Mitarbeiterin und Beraterin. Das Aufkommen des Tonfilms hielten viele Regisseure für das Ende ihrer Kunstform. Hitchcock hingegen nutzte das Potential der neuen Technik. "Erpressung" (1929) wurde ursprünglich als Stummfilm produziert. Die Produzenten erlaubten Hitchcock jedoch, eine Filmrolle mit Tonmaterial nachzudrehen. Er versah daraufhin einzelne Schlüsselszenen mit wirkungsvollen Toneffekten und gesprochenem Dialog, wobei die tschechische Schauspielerin Anny Ondra, die ihre Rolle stumm spielen musste, von der englischen Schauspielerin Joan Barry simultan synchronisiert wurde. "Erpressung" war der erste britische Tonfilm und wurde ein großer Erfolg. Hitchcock nutzte seine gewonnene Popularität und gründete mit der "Hitchcock Baker Productions Ltd." eine Gesellschaft zur Vermarktung seiner Person. Auf Geheiß seines Studios drehte er "Juno and the Paycock" (1930) sowie einige Szenen für die Musikrevue "Elstree Calling". Mit "Mord – Sir John greift ein!" fand er wieder zu seinem Thema und auch nach Deutschland zurück: In Berlin stellte er die deutsche Sprachversion des Films unter dem Titel "Mary" her. Es folgten drei Filme, von denen Hitchcock nur die Komödie "Endlich sind wir reich" wirklich interessierte: In dem zusammen mit seiner Frau und Val Valentine verfassten Drehbuch verarbeitete er unter anderem die Erfahrungen seiner noch jungen Ehe. Den ihm aufgezwungenen Thriller "Nummer siebzehn" beschloss Hitchcock aus Protest zu sabotieren und zu einer wirren, albernen Parodie zu machen. Die turbulente Verbindung zwischen Humor und Spannung lässt "Nummer siebzehn" aus heutiger Sicht als einen Vorläufer späterer Klassiker des Genres erscheinen. Hitchcocks Vertrag mit der "British International Pictures" endete nach sechs Jahren mit einem Einsatz als Produzent "(Lord Camber’s Ladies)". Die Zusammenarbeit hatte zunehmend unter dem Konflikt zwischen Hitchcocks Streben nach künstlerischer Kontrolle und den Vorschriften des Studios gelitten. Doch auch den folgenden Film "Waltzes from Vienna", ein „Musical ohne Musik“ (Hitchcock) für den unabhängigen Produzenten Tom Arnold, drehte er betont lustlos: „Ich hasse dieses Zeug. Melodrama ist das einzige, was ich wirklich kann.“ Englische Produktionen. Unmittelbar nach "Waltzes from Vienna" nahm er die fruchtbare Zusammenarbeit mit dem Produzenten Michael Balcon wieder auf. Als erster Film für die "Gaumont British" entstand der Thriller "Der Mann, der zuviel wußte" (1934). Das Drehbuch erarbeitete Hitchcock im Wesentlichen mit seiner Frau Alma und dem Drehbuchautor Charles Bennett. Der Film wurde sowohl von der Kritik als auch vom Publikum enthusiastisch aufgenommen. Der humorvolle Spionagethriller "Die 39 Stufen" (1935, Drehbuch: Charles Bennett) gilt als Blaupause späterer Verfolgungsthriller. Eine turbulente Szene folgt auf die nächste, es gibt keine Übergänge und kaum Zeit für den Zuschauer, über die manchmal fehlende Logik nachzudenken. Hitchcock ordnete nach eigenem Bekunden alles dem Tempo unter. Der große Erfolg des Films sollte ihm recht geben. Es folgten "Geheimagent" (1936) und "Sabotage" (1936), die insbesondere in Hitchcocks eigener späterer Bewertung gegenüber den beiden Vorgängerfilmen abfielen. Doch die psychologisch vielschichtige Behandlung des Themas „Schuld“ weist bereits auf spätere Werke hin. Nach "Sabotage" endete abrupt die zweite erfolgreiche Phase der Zusammenarbeit mit Michael Balcon, als die Produktionsfirma Gaumont British von deren Besitzern geschlossen und Balcon entlassen wurde. Die beiden folgenden Filme drehte Hitchcock daher wieder für die Gainsborough Pictures – diesmal allerdings ohne seinen ehemaligen Förderer. "Jung und unschuldig" (1937) war eine weitere, unbeschwerte Variation der Geschichte vom unschuldig Verfolgten. Eine der bekanntesten Szenen ist die im Grand Hotel, als die Kamera über das gesamte Foyer schwenkt. Solche Plansequenzen nutzte Hitchcock auch später noch in vielen weiteren Filmen. Der erfolgreiche Thriller "Eine Dame verschwindet" (1938) spielt überwiegend in einem fahrenden Zug. Die Dreharbeiten fanden jedoch ausschließlich in einem kleinen Londoner Studio statt, was dank technisch anspruchsvoller Rückprojektionen möglich wurde. Hitchcock festigte mit diesen sechs Filmen seine Stellung innerhalb des britischen Kinos. Ende der 1930er Jahre beauftragte er die Selznick-Joyce-Agentur, deren Mitinhaber Myron Selznick, der ältere Bruder des Hollywood-Moguls David O. Selznick war, seine Interessen wahrzunehmen. Hitchcock, dessen Ruf mittlerweile bis nach Hollywood gelangt war, unterzeichnete 1938 einen Vertrag für die Produktionsgesellschaft von David O. Selznick, der damals gerade mit der Vorproduktion zu "Vom Winde verweht" beschäftigt war. In Gedanken bereits in Hollywood, drehte Hitchcock in England noch einen letzten Film für die Produktionsfirma des nach England emigrierten deutschen Produzenten Erich Pommer. Doch der Kostümfilm "Riff-Piraten" wurde von der Presse verrissen. Hollywood und der Zweite Weltkrieg. In seinen ersten Jahren in Hollywood stieß Hitchcock auf unerwartete Schwierigkeiten. David O. Selznick übte starke Kontrolle über die Filme seines Studios aus und achtete darauf, dass sich der freiheitsliebende Hitchcock möglichst eng an die literarische Vorlage seines ersten Hollywoodfilmes hielt. Trotz dieser Spannungen wurde "Rebecca" für den britischen Regisseur ein erfolgreicher Einstand in Hollywood: Das psychologisch dichte und düster-romantische Melodram war 1940 elfmal für den Oscar nominiert und gewann schließlich zwei der Trophäen (Kamera und Produktion). In den nächsten Jahren machte Selznick sein Geld mit Hitchcock, indem er ihn für beträchtliche Summen an andere Studios auslieh. Der Krieg in Europa weitete sich aus, als der unabhängige Produzent Walter Wanger Hitchcock für ein aktuelles Kriegsdrama engagierte. "Der Auslandskorrespondent" blieb Hitchcocks Naturell entsprechend jedoch ein weitgehend unpolitischer Spionagethriller. Nur der nachgedrehte Schlussmonolog, gerichtet an die noch neutralen USA, wirkte aufrüttelnd. Kurz nach Fertigstellung des Films wurde England von Deutschland bombardiert. Der rechtzeitig ausgewanderte Hitchcock musste sich daraufhin scharfe Kritik von ehemaligen britischen Kollegen, allen voran Michael Balcon, gefallen lassen. Mit "Verdacht" (1941, RKO), der ersten Zusammenarbeit mit Cary Grant, und "Saboteure" (1942, Universal) blieb Hitchcock bei seinen klassischen Themen. Zwischen diesen Produktionen drehte er, für ihn und andere ungewohnt, seine einzige Screwball-Komödie. Obwohl damals durchaus positiv aufgenommen, zeigte er sich mit "Mr. und Mrs. Smith" (1941, RKO) nicht zufrieden. Weit mehr am Herzen lag ihm die Arbeit an dem Thriller "Im Schatten des Zweifels" (1943, Universal). Hitchcocks Filme gelten allgemein als stark von seinem Charakter geprägt. Dieses Familienmelodram wird als einer seiner persönlichsten Filme bezeichnet: In allen Hauptfiguren spiegeln sich demnach Eigenschaften und Ängste Hitchcocks. Als während der Dreharbeiten Hitchcocks Mutter in London starb, verstärkte dies die autobiografischen Tendenzen. Wie viele britische Regisseure leistete Hitchcock seine Beiträge für die Kriegspropaganda und drehte unter anderem Kurzfilme zur Unterstützung der französischen Résistance. Auch in seine nächste Hollywood-Produktion arbeitete er stark propagandistische Töne ein, doch sein stets bewusst irritierender Umgang mit Klischees sorgte diesmal für Kontroversen: In einem kleinen Rettungsboot sehen sich englische und amerikanische Schiffbrüchige einem intellektuell überlegenen Nazi gegenüber. Dennoch wurde der formalistisch strenge Psychothriller "Das Rettungsboot" (1944, 20th Century Fox) dreimal für den Oscar nominiert (Drehbuch, Kamera und Regie). Psychologie, wichtige Komponente seines Werks, stand im Mittelpunkt von "Ich kämpfe um dich" (1945), der nach langer Zeit wieder für Selznick entstand. Dieser war vom Thema Psychoanalyse schnell begeistert und ließ Hitchcock ungewohnt viel freie Hand, doch kürzte er den Film nach der ersten Probevorführung um rund zwanzig Minuten. Die erfolgreiche Zusammenarbeit mit Ingrid Bergman in der Hauptrolle wurde in der folgenden Produktion "Berüchtigt" (1946) fortgesetzt, die Selznick allerdings wieder an RKO verkaufte. Die Geschichte um eine Spionin (Bergman), die aus Pflichtgefühl von ihrem Liebhaber (Cary Grant) gedrängt wird, mit dem Feind zu schlafen, bot für Hitchcocks Obsessionen eine breite Projektionsfläche. Mit dem Gerichtsdrama "Der Fall Paradin" (1947) lief der Vertrag Hitchcocks mit Selznick aus. Selznick behielt, bei der Stoffauswahl angefangen, bei dieser relativ chaotisch verlaufenden Produktion die Oberhand. Dass Hitchcock währenddessen Vorbereitungen für seine eigene Produktionsfirma traf, verstärkte die Spannungen zwischen den machtbewussten Männern. Dennoch bot Selznick Hitchcock – erfolglos – eine Vertragsverlängerung an. Unabhängigkeit. Bereits im April 1946, rund zwei Jahre, bevor der Vertrag mit Selznick auslaufen sollte, gründete Hitchcock mit dem befreundeten Kinokettenbesitzer Sidney Bernstein die Produktionsfirma Transatlantic Pictures, für die er seinen ersten Farbfilm inszenierte, "Cocktail für eine Leiche" (1948) mit James Stewart in einer der Hauptrollen. Der Film blieb jedoch vor allem wegen eines anderen Hitchcock-Experiments in Erinnerung; jede Einstellung des kammerspielartigen Films dauert so lange, wie es das Filmmaterial in der Kamera erlaubte, also rund zehn Minuten. Durch geschickte Übergänge sollte so der Eindruck entstehen, dass sich die Geschichte in Echtzeit und von nur einer Kamera gefilmt ereignete. "Sklavin des Herzens" (1949), ein für Hitchcock untypischer, melodramatischer Kostümfilm, war vor allem ein Vehikel für Ingrid Bergman. Trotz der Starbesetzung und der technischen Raffinessen wurde er kommerziell ein ähnlicher Misserfolg wie "Cocktail für eine Leiche" – Transatlantic ging daraufhin in die Insolvenz. Nachdem sein Berater und Agent Myron Selznick 1944 gestorben war, wurden Hitchcocks Interessen von mehreren Personen wahrgenommen, bevor er 1948 mit Lew Wasserman zusammentraf. Wasserman war seit 1946 Präsident der weltgrößten Künstleragentur Music Corporation of America (MCA), der sich Hitchcock 1948 anschloss. Es begann eine enge wie äußerst lohnende Zusammenarbeit. Warner Brothers. Hitchcock schloss mit Warner Bros. einen lukrativen Vertrag über vier Filme ab, bei denen er als Regisseur und Produzent, angefangen bei der Stoffauswahl, völlig freie Hand hatte. Der erste dieser Filme war der Thriller "Die rote Lola" (1950) mit Marlene Dietrich, der im Londoner Theatermilieu spielte. Eines seiner Lieblingsmotive stellte er auf den Kopf; am Ende entpuppt sich der „unschuldig Verfolgte“ als der wahre Mörder. Hitchcock drehte in seiner Heimat, spürte allerdings wieder die alten Ressentiments, die nach seiner Auswanderung entstanden waren. Der Film selbst war nicht sonderlich erfolgreich. Im April 1950 begann Hitchcock, regelmäßige Kolloquien an den Universitäten von Kalifornien und Südkalifornien abzuhalten, in denen unter anderem Previews seiner aktuellen Filme gezeigt wurden. Diese Tradition sollte er die kommenden 20 Jahre beibehalten. "Der Fremde im Zug" (1951, nach einem Roman von Patricia Highsmith) brachte schließlich nach fünf Jahren Flaute wieder einen überragenden Erfolg. Mit diesem Film begann die dreizehnjährige Zusammenarbeit mit dem Kameramann Robert Burks. Wie schon in "Die rote Lola" spielte Hitchcocks Tochter Patricia eine Nebenrolle. 1953 folgte mit "Ich beichte" der eindeutigste filmische Bezug auf Hitchcocks starke katholische Prägung. Obwohl von der Kritik geschätzt, floppte der Film an den Kinokassen, was Hitchcock vor allem der Humorlosigkeit des Publikums anlastete. Als Anfang der 1950er Jahre das Fernsehen Einzug in die Wohnzimmer hielt, versuchte die Kinoindustrie, mit neuen technischen Verfahren wie dem Breitbildformat Cinemascope oder dem 3D-Verfahren den Zuschauerschwund aufzuhalten. So drängte Warner Bros. Hitchcock, seinen nächsten Film in 3D zu drehen. Über diese Entscheidung, die zur Einschränkung der Bewegungsfreiheit der Kamera führte, war Hitchcock nicht glücklich; er setzte auch nur wenige explizite 3-D-Effekte ein. "Bei Anruf Mord" (1954) ist die Verfilmung eines damals sehr populären Theaterstücks von Frederick Knott, der auch das Drehbuch schrieb. Mit Hauptdarstellerin Grace Kelly drehte Hitchcock im Anschluss noch zwei weitere Filme, ehe sie sich aus dem Filmgeschäft zurückzog. Paramount. Die Erfahrung mit dem aufgezwungenen 3D-Verfahren zeigte Hitchcock die Grenzen bei Warner Brothers. Er schloss daher 1953 einen Vertrag mit Paramount ab, der ihm völlige künstlerische Freiheit garantierte. 1954 begann die für Hitchcock erfolgreichste Zeit mit "Das Fenster zum Hof". Neben Grace Kelly ist ein weiteres Mal James Stewart zu sehen. Die Hauptfigur sitzt während des gesamten Films im Rollstuhl und beobachtet durch ein Teleobjektiv das Geschehen in den gegenüberliegenden Wohnungen – sozusagen stellvertretend für den Zuschauer, aber auch stellvertretend für Hitchcock selbst, der in diesem Film den voyeuristischen Aspekt des Filmemachens aufzeigt. "Über den Dächern von Nizza" (1955) ist ein leichter, romantischer Thriller, in dem neben Grace Kelly – nach zwei Jahren Filmpause – wieder Cary Grant spielte. Wohl um dem Glamour dieses an der Côte d’Azur angesiedelten Films etwas entgegenzusetzen, drehte Hitchcock noch im selben Jahr die kostengünstig produzierte schwarze Komödie "Immer Ärger mit Harry," in der Shirley MacLaine neben John Forsythe ihren ersten Filmauftritt hatte. Edmund Gwenn, der bereits in früheren Hitchcock-Filmen mitgewirkt hatte, spielte fast achtzigjährig eine seiner wenigen Hauptrollen. Obwohl Hitchcock in vielen seiner Filme schwarzen Humor untergebracht hat, ist es eine der wenigen echten Komödien von ihm. 1955 nahm Hitchcock – rund fünf Jahre nach seiner Frau – die amerikanische Staatsbürgerschaft an. Im selben Jahr begann er mit Doris Day und James Stewart die Dreharbeiten zu "Der Mann, der zuviel wußte" (1956), der einzigen Neuverfilmung eines seiner Filme in seiner Karriere. Ebenfalls 1955 startete die wöchentliche Fernsehserie "Alfred Hitchcock Presents" (ab 1962 "The Alfred Hitchcock Hour"). Hitchcock war Produzent, trat in vielen Folgen als Moderator auf und inszenierte insgesamt 18 Folgen. Auch für die Fernsehserien "Suspicion" und "Startime" nahm er für je eine Folge im Regiestuhl Platz. Nach zehn Jahren beendete er seine Fernseharbeit, an der er zunehmend das Interesse verloren hatte. Hinzu kam, dass die Produktion den Auftraggebern zu teuer wurde und die Zeit von Serien mit jeweils abgeschlossenen Folgen, sogenannten „Anthologies“, zu Ende ging. Mit "Der falsche Mann" wurde er 1956 einem seiner Grundprinzipien, der strikten Trennung von Leben und Fiktion, untreu. In dem Schwarzweißfilm mit Henry Fonda und Vera Miles wird an authentischen Schauplätzen die auf Tatsachen beruhende Geschichte eines zu unrecht Verurteilten erzählt. Der Film entstand noch einmal für Warner Bros., da Hitchcock dem Studio bei seinem Ausscheiden noch einen Film ohne Regiegage zugesagt hatte. Allerdings war "Der falsche Mann", der viele Stilelemente des Film noir und ein trostloses Ende aufweist, kommerziell ein Flop. Höhepunkt und Wende. 1957 drehte Hitchcock seinen letzten Film für Paramount: "Vertigo – Aus dem Reich der Toten" (1958 veröffentlicht). Das Drehbuch entstand in gemeinsamer intensiver Arbeit von Hitchcock und Samuel A. Taylor. In wenige seiner Filmfiguren projizierte Hitchcock wohl so viel von seiner eigenen Persönlichkeit wie in den von James Stewart verkörperten Scottie Ferguson, der versucht, eine Frau nach seinen Vorstellungen umzuformen. Zu seiner Entstehungszeit nicht besonders erfolgreich, zählt der Film inzwischen – ähnlich wie der folgende "Der unsichtbare Dritte" – zu den bedeutendsten Werken Hitchcocks. Hitchcock und sein Drehbuchautor Ernest Lehman konzipierten "Der unsichtbare Dritte" (1959, MGM) als eine Abfolge von Abenteuern, in denen ein Unschuldiger (Cary Grant in seinem letzten Hitchcock-Film) um seine Reputation und sein Leben kämpft. Die elegante Leichtigkeit der Erzählung beeinflusste viele nachfolgende Abenteuer- und Agentenfilme, was sich u. a. in den James-Bond-Filmen der darauf folgenden Jahre zeigt. Für Hitchcock selbst blieb es für lange Zeit der letzte vorwiegend heitere Film. Das im Anschluss vorbereitete Projekt mit Audrey Hepburn in der Hauptrolle wurde durch Hitchcock gestoppt, als Hepburn wegen einer geplanten Vergewaltigungsszene absagte. Mit seiner bewusst kostengünstigen Produktion "Psycho" (1960) folgte Hitchcocks wohl bekanntester Film: Die in einer Woche Dreharbeit entstandene „Duschszene“ zählt heute zu seinen meistanalysierten Filmszenen. Ungewöhnlich war auch der Tod einer Hauptfigur nach nur einem Drittel des Films. Die zeitgenössischen Kritiken fielen unerwartet barsch aus, doch das Publikum machte "Psycho" zu Hitchcocks größtem kommerziellen Erfolg. Nachdem zwei angedachte Projekte scheiterten – unter anderem, weil Walt Disney dem "Psycho"-Regisseur die Dreherlaubnis in Disneyland verweigerte – nahm Hitchcock seinen nächsten Film erst Mitte 1961 in Angriff: "Die Vögel" (1963), ein weiterer Horrorfilm, der nicht zuletzt durch seine Dramaturgie und die eingesetzte Tricktechnik – etwa den Sodium Vapor Process – stilbildend wirkte. Der deutsche Komponist Oskar Sala setzte statt Filmmusik elektronisch erzeugte Geräusche ein. Seine Hauptdarstellerin Tippi Hedren hatte Hitchcock im Werbefernsehen entdeckt. Obwohl sie keine Filmerfahrung besaß, nahm er sie für die nächsten sieben Jahre unter Vertrag. "Die Vögel" entstand für Universal, die kurz zuvor teilweise von MCA übernommen worden waren und für die Hitchcock von nun an alle seine Filme drehen sollte. Lew Wasserman, bis zu diesem Zeitpunkt Agent Hitchcocks, wurde Präsident von Universal und gab seine Agententätigkeit auf. Hitchcock selbst trat seine Rechte an "Psycho" und seiner Fernsehserie ab und wurde im Gegenzug der drittgrößte Aktionär von MCA. Nach "Die Vögel" gibt es in Hitchcocks Werk einen Bruch. Die folgenden drei Filme der 1960er Jahre blieben kommerziell hinter den vorangegangenen Erfolgen zurück. Konflikte mit seiner Hauptdarstellerin Tippi Hedren prägten die Dreharbeiten so weit, dass er das Gelingen seines nächsten Films "Marnie" (1964) bewusst zu sabotieren schien. Der Film fiel bei der professionellen Filmkritik durch. Bemängelt wurde, dass das Psychogramm einer verstörten, traumatisierten Frau sich psychologischer Erklärungsmodelle bediene, die überholt und undifferenziert wirkten, und der Film enthalte, untypisch für Hitchcock, viele handwerkliche Fehler. Die Qualität und der Rang des Films in Hitchcocks Werk wurde erst im Nachhinein nach François Truffauts ausführlicher Analyse des Films erkannt. Dieser erste kommerzielle Misserfolg seit rund fünfzehn Jahren war in mehrfacher Hinsicht ein Wendepunkt in Hitchcocks Karriere. Tippi Hedren war die letzte typische „Hitchcock-Blondine“ und "Marnie" der letzte Film, den Hitchcocks langjähriger Kameramann Robert Burks drehte. Kurz nach Abschluss der Dreharbeiten starb zudem Hitchcocks Filmeditor George Tomasini, mit dem er zehn Jahre lang zusammengearbeitet hatte, und für Bernard Herrmann, der seit 1955 Hitchcocks bevorzugter Filmkomponist war, war "Marnie" die letzte Zusammenarbeit mit Hitchcock. Das Spätwerk. Erfolge und eine Rückkehr in die Heimat. Filmproduktionen wurden immer aufwendiger, der Erfolg an der Kinokasse immer wichtiger. Diverse Projekte, die Hitchcock reizten und die er mehr oder weniger intensiv plante, kamen so aus Angst der Produzenten nicht zustande – etwa "Mary Rose", die geplante Verfilmung eines skurrilen Theaterstücks. Mit "R.R.R.R.", einem Drehbuch mit zahlreichen Verwicklungen über eine italienische Ganoven-Familie in New York, wollte er Jahre nach "Der unsichtbare Dritte" wieder einen komischen Thriller drehen und damit alle Nachahmer ("Charade", "Topkapi" und andere) übertreffen. Das weit fortgeschrittene Projekt scheiterte schließlich an unüberbrückbaren sprachlichen und kulturellen Problemen mit den italienischen Mitarbeitern. Am 7. März 1965 erhielt Hitchcock für seinen „historischen Beitrag zum amerikanischen Kino“ den "Milestone Award" der "Producers Guild of America" – die erste von vielen Ehrungen für sein Lebenswerk. Mit "Der zerrissene Vorhang" (1966) kehrte Hitchcock schließlich zum Genre des Spionagefilms zurück, in dem er bereits in den 1930er Jahren in England große Erfolge gefeiert hatte. Die Premiere dieses 50. Hitchcock-Filmes sollte von einer groß angelegten Marketingkampagne begleitet werden. Nicht nur aus diesem Grund setzte Universal die aktuellen Stars Paul Newman und Julie Andrews gegen Hitchcocks Widerstand als Hauptdarsteller durch. Überdies kam es zum Bruch mit dem Komponisten Bernard Herrmann, als dieser nicht die von Universal gewünschte, auch für den Schallplattenverkauf geeignete Unterhaltungsmusik vorlegte. Auch an anderen wichtigen Positionen seines Stabes musste Hitchcock auf vertraute Mitarbeiter verzichten. "Der zerrissene Vorhang" fällt handwerklich und dramaturgisch gegenüber Hitchcocks letzten Filmen deutlich ab und wurde von der Kritik durchweg verrissen. Universal forderte von ihm zeitgemäßere Themen ein. Als das von ihm und Howard Fast detailliert ausgearbeitete Drehbuch über einen homosexuellen Frauenmörder abgelehnt wurde, zog er sich für ein Jahr ins Privatleben zurück. Anfang 1968 entschloss er sich unter dem Druck der langen Pause seit dem letzten Film und der noch längeren Zeitspanne seit dem letzten Erfolg, den Spionageroman "Topas" von Leon Uris zu verfilmen, dessen Rechte Universal kurz zuvor erworben hatte. "Topas" wurde dann fast ausschließlich mit europäischen Schauspielern besetzt und völlig ohne Hollywood-Stars. In Europa waren die Französinnen Dany Robin und Claude Jade wie ihre Landsmänner Michel Piccoli und Philippe Noiret und die deutsche Aktrice Karin Dor Stars; die für amerikanische Zuschauer bekanntesten Gesichter waren der Fernsehschauspieler John Forsythe und der aus Kanada stammende John Vernon. Das endgültige Drehbuch wurde erst während der laufenden Dreharbeiten geschrieben, der Schluss nach einer katastrophalen Preview improvisiert. Publikum und Kritik reagierten mit Ablehnung auf Hitchcocks bis dahin teuersten Film, doch er zeigte sich zuversichtlich: „Ich habe meinen letzten Film noch nicht gedreht. "Topas" ist mein 51. Film, aber wann ich meinen letzten Film drehen werde, ist von mir, meinen Finanziers und Gott noch nicht entschieden worden.“ Im Spätsommer 1970 nahm Hitchcock sein nächstes Projekt in Angriff und reiste dafür wieder in seine Heimat, wo er diesmal begeistert empfangen wurde. "Frenzy" (1972) spielt in London, dem Hitchcock eine liebevolle Hommage erweist, und ist in seinen Worten „die Geschichte eines Mannes, der impotent ist, und sich deshalb durch Mord ausdrückt“. Zunächst verliefen die Drehbucharbeit und auch die Dreharbeiten, die Hitchcock so ernst nahm wie lange nicht mehr, weitgehend reibungsfrei. Doch als seine Frau Alma einen Herzinfarkt erlitten hatte, wurde Hitchcock müde und untätig; die Crew war, ähnlich wie bei den drei vorangegangenen Filmen, wieder weitgehend auf sich alleine gestellt. Dennoch wurde "Frenzy", ein brutaler, zum Teil bitterer, von tiefschwarzem britischen Humor durchzogener Film, ein großer Erfolg. Nur in England war man enttäuscht und bemängelte vor allem die anachronistisch wirkende Darstellung Londons und des britischen Lebens. Der letzte Film. Im Frühjahr 1973 entschloss sich Hitchcock, den Roman "The Rainbird Pattern" von Victor Canning zu verfilmen. Doch die Arbeit am Drehbuch mit Ernest Lehman "(Der unsichtbare Dritte)" ging diesmal nicht mehr so reibungslos vonstatten: Hitchcock war merklich müde geworden, seine körperlichen Schmerzen betäubte er zunehmend mit Alkohol. Zwei Jahre benötigte die Fertigstellung des Drehbuchs, so lange wie nie zuvor in seiner Karriere. Mit "Familiengrab," wie der Film schließlich hieß, kehrte Hitchcock zum scheinbar heiteren, diesmal jedoch morbid akzentuierten Unterhaltungsthriller zurück. Wie stets legte er Wert auf eine ausgeklügelte Bildsprache, die erneut mit Hilfe von Storyboards erarbeitet wurde. Die Dreharbeiten gestalteten sich reibungslos und in einer entspannten Atmosphäre. Hitchcock, der sich im Rahmen seiner gesundheitlichen Möglichkeiten mit einem lange nicht gezeigten Elan in die Dreharbeiten einbrachte, zeigte sich zu Neuerungen bereit: Er war offen für Improvisationen seiner Schauspieler und nahm noch während der Dreharbeiten Änderungen am Ablauf vor. Die Überwachung der Schnittarbeiten musste er weitgehend seinen Mitarbeiterinnen Peggy Robertson und Suzanne Gauthier überlassen, da sich sein Gesundheitszustand deutlich verschlechterte. Zudem erlitt Alma einen zweiten Schlaganfall. "Familiengrab" wurde nach seiner Premiere im Frühjahr 1976 überwiegend freundlich aufgenommen, und Hitchcock schöpfte aus der Sympathie, die ihm entgegenschlug, für kurze Zeit Kraft, neue Filmideen aufzugreifen. Sein erst Anfang 1978 in Angriff genommenes Projekt, die Verfilmung des Romans "The Short Night" von Ronald Kirkbride, wurde aufgrund seines sich weiter verschlechternden Gesundheitszustands jedoch etwa ein Jahr später von Universal gestoppt. Im März 1979 wurde er vom American Film Institute für sein Lebenswerk geehrt. Zwei Monate später schloss er sein Büro auf dem Gelände der "Universal"-Studios. Am 3. Januar 1980 wurde Hitchcock in den britischen Adelsstand erhoben. Am Morgen des 29. April 1980 starb Alfred Hitchcock im Alter von 80 Jahren in seinem Haus in Los Angeles an Nierenversagen. Seine Leiche wurde eingeäschert, die Asche an einem unbekannten Ort verstreut. Inhalte und Formen. In rund fünfzig Jahren hat Alfred Hitchcock dreiundfünfzig Spielfilme als Regisseur begonnen und beendet. Die weitaus größte Zahl dieser Filme gehört dem Genre des Thrillers an und weist ähnliche Erzählmuster und Motive auf, wiederkehrende Elemente, visuelle Stilmittel und Effekte, die sich wie ein roter Faden durch sein Gesamtwerk ziehen. Inhalt. Motive. Das Grundmotiv in Hitchcocks Filmen bildet meist die Angst der Protagonisten vor der Vernichtung ihrer (bürgerlichen) Existenz. Dabei bezieht sich diese Angst nicht nur auf Mörder, Gangster oder Spione, welche die bürgerliche Ordnung angreifen; die Hauptfiguren finden sich häufig in der Lage wieder, sogar von Vertretern des Gesetzes bedroht zu werden. Zu diesem Motiv der Angst kommt – Hitchcocks katholischer Prägung entsprechend – jenes von Schuld und Sühne hinzu. Der unschuldig Verfolgte in seinen Filmen ist „unschuldig, aber nur in Bezug auf das, was man ihm vorwirft.“ Das heißt, die Figur wird durch das, was ihr im Laufe des Filmes widerfährt, im übertragenen Sinne für andere Defizite oder Vergehen bestraft: In "Bei Anruf Mord" etwa wird die Hauptfigur des Mordes verdächtigt; tatsächlich musste sie aus Notwehr töten. Das folgende Unheil kann jedoch als Strafe für den von ihr begangenen Ehebruch angesehen werden. Eine Variation dieses Themas ist die Übertragung der Schuld auf eine andere Person. Unschuldige werden zu Schuldigen (oder Mitschuldigen) an Verbrechen anderer, da sie aus persönlichen Gründen nicht zur Aufklärung beitragen können. Zentral sind hierbei die beiden Filme "Ich beichte" und "Der Fremde im Zug", in denen die jeweiligen Protagonisten von Morden, die andere begangen haben, profitieren und, nachdem sie selbst unter Verdacht geraten, keine Möglichkeit haben, sich zu entlasten. In "Vertigo" macht der wahre Mörder die Hauptfigur durch ein Komplott zunächst scheinbar zum Schuldigen am Tod der ihr anvertrauten Person. Später macht sich das Opfer der Intrige tatsächlich am Tod der Frau schuldig, die er liebt. Falsche Verdächtigungen, aber auch ausgeprägte Schuldkomplexe, gehen bei Hitchcocks Filmen mit der Bedrohung der Identität einher. Seine traumatisierten oder verfolgten Figuren nehmen selbst falsche Namen an oder werden – aus unbekannten Gründen – für jemand anderen gehalten. Das Motiv des Identitätsverlusts spielt Hitchcock, angefangen von seinem ersten bis zu seinem letzten Film, in unterschiedlichsten Varianten durch, besonders einprägsam in "Vertigo": Die weibliche Hauptfigur wird zunächst im Rahmen eines Mordkomplotts in eine andere Person (die anschließend ermordet wird) verwandelt und nimmt daraufhin wieder ihre eigentliche Identität an, nur um anschließend wieder in die andere Person zurückverwandelt zu werden. Oft stehen Schuld und Bedrohung in Zusammenhang mit sexuellen Aspekten. In "Der Fall Paradin" genügt bereits der Gedanke an Ehebruch, um das Leben des Protagonisten zu gefährden. In "Berüchtigt" ist der Zusammenhang zwischen Sex, Schuld und Bedrohung zentrales Thema. Hitchcocks Verbindung von Sex und Gewalt wird in Mordszenen deutlich, die er oft wie Vergewaltigungen inszeniert, etwa der Schlusskampf zwischen Onkel und Nichte Charlie in "Im Schatten des Zweifels", die Scherenszene in "Bei Anruf Mord" und die Duschszene in "Psycho". Darüber hinaus spielt Sexualität gerade in abnorm empfundenen Erscheinungsformen eine große Rolle in seinem Werk. Aufgrund der Auflagen der Zensur werden jedoch Homosexualität, die in Verbindung mit Schuld und Verderben regelmäßig vorkommt, oder Nekrophilie (in "Vertigo") nur in einzelnen Gesten oder Schlüsselszenen angedeutet. Auch Fetischismus ("Erpressung", "Vertigo", "Psycho") und Voyeurismus ("Das Fenster zum Hof", "Psycho") spielen in seinen Filmen eine gewisse Rolle. In mehreren Filmen wird zudem ein erotischer Bezug der männlichen Hauptfiguren zu ihren Müttern angedeutet, etwa in "Psycho" und "Die Vögel". Zentral in diesem Zusammenhang ist "Berüchtigt". Hier verhalten sich Claude Rains und Leopoldine Konstantin in manchen Schlüsselszenen wie ein Ehepaar. Dieser Eindruck wird durch den geringen Altersunterschied der Schauspieler von nur vier Jahren verstärkt. Unter den in Hitchcocks Bildsprache verwendeten Symbolen finden sich Vögel als Vorboten des Unglücks (etwa in "Erpressung", später als vorherrschendes Thema in "Die Vögel"), Treppen, die Verlust oder Freiheit bedeuten können ("Berüchtigt", "Psycho", "Vertigo" und andere), sowie Handschellen und andere Fesseln, um Abhängigkeit und Ausgeliefertsein auszudrücken, meist im sexuellen Kontext (zum Beispiel in "Der Mieter"). Auch Spiegel tauchen bei Hitchcock regelmäßig auf – in Zusammenhang mit dem Verlust oder der Erkenntnis der eigenen Persönlichkeit oder als allgemeines Symbol für Täuschungen (einprägende Beispiele: "Vertigo" und "Psycho"). Figuren. Die meisten Protagonisten in Hitchcocks Thrillern sind Normalbürger, die zu Beginn der Geschichte in der Regel nichts mit kriminellen Machenschaften zu tun haben. Meist werden sie durch Zufall oder unbekannte Umstände in geheimnisvolle und bedrohliche Vorgänge gezogen. Dem Zuschauer wird so das beunruhigende Gefühl vermittelt, dass auch er jederzeit in derartige Situationen geraten könnte. Professionelle Agenten oder Spione findet man dagegen nur selten unter den Hauptfiguren, obwohl Hitchcock viele Filme drehte, die im Agentenmilieu spielen. Hitchcock drehte bis auf eine Ausnahme ("Erpressung", 1929) auch nie einen Film, in dem die Arbeit der Polizei im Mittelpunkt steht; aktive Polizisten tauchen ansonsten nur als Nebenfiguren und üblicherweise als Hindernis auf. Männliche Antihelden. Der Prototyp des Antihelden bei Hitchcock sind die von James Stewart gespielten Figuren: In "Cocktail für eine Leiche" muss der von Stewart dargestellte Lehrer erkennen, dass zwei seiner Studenten eine seiner Theorien zum Anlass nahmen, einen Mord zu verüben und diesen mit seinen Thesen zu rechtfertigen; am Ende steht er hilflos vor diesem menschlichen Abgrund, in den er nicht nur hineingezogen wurde, sondern den er sogar mit heraufbeschworen hat. In "Das Fenster zum Hof" stellt Stewart eine Figur dar, die bindungsscheu sowie körperlich beeinträchtigt und voyeuristisch veranlagt ist und dadurch in Schwierigkeiten kommt. Es gibt nur wenige positive, ungebrochene Helden bei Hitchcock. Ein Schauspieler, der diesen seltenen Rollentypus verkörperte, war Cary Grant in "Über den Dächern von Nizza" und in "Der unsichtbare Dritte". Diese Figuren meistern die Herausforderungen zwar mit Charme und Leichtigkeit, doch stehen sie in Verdacht, kriminell zu sein beziehungsweise verlieren sie zeitweise die Kontrolle, womit selbst sie keine gänzlich unantastbaren Helden sein können. Aber sogar Cary Grant spielte in zwei seiner Hitchcock-Filme Figuren, deren Schattenseiten sich zeitweise vor deren positive Merkmale schieben. Im Laufe der Karriere Hitchcocks gewinnen ambivalente oder gar negativ gezeichnete Hauptfiguren immer stärker an Gewicht. Diese "Antihelden" weisen physische oder psychische Probleme auf, sind Verlierertypen oder unsympathisch. Durch ihr obsessives Fehlverhalten wirken sie schwach und können Schaden anrichten. Diese Figuren dienen zwar kaum als Vorbild, doch soll deren ambivalente Persönlichkeit dazu beitragen, dass sich der Zuschauer in ihnen wiederfinden kann. Starke Frauen. In vielen Filmen bedient Hitchcock auf den ersten Blick das klassische Motiv der schwachen, zu beschützenden Frau. Doch während das Klischee verlangt, dass der strahlende Held sie rettet, ist sie bei Hitchcock oft auf sich alleine gestellt. In einigen Fällen ist der vermeintliche Beschützer schwach oder zu sehr mit sich selbst beschäftigt, als dass er der bedrohten Frau helfen könnte, wie zum Beispiel Ingrid Bergman und Cary Grant in "Berüchtigt". In anderen Fällen geht von der männlichen Hauptfigur (in der Regel dem Ehemann) sogar ein tatsächliches oder vermeintliches Bedrohungspotential aus. Klassische Beispiele: Joan Fontaine und Cary Grant in "Verdacht" sowie Grace Kelly und Ray Milland in "Bei Anruf Mord". Die Rollenverteilung zwischen Mann und Frau kehrt Hitchcock in einigen Filmen gänzlich um: Die Frau ist dem Mann, der zunehmend passiver wird, überlegen und wendet das Geschehen zum Guten. Beispiele sind "Jung und unschuldig" (die Tochter des Polizeichefs verhilft einem Verdächtigen zur Flucht und löst letztendlich den Fall), "Ich kämpfe um dich" (eine Psychologin dringt in das Unterbewusste des Mordverdächtigen ein und rettet ihn vor der sicheren Verurteilung) sowie "Der Mann, der zuviel wußte" (die Ehefrau verhindert zuerst einen geplanten Mord und rettet dann das eigene Kind vor den Verbrechern). Der Typ, der sich dabei im Laufe der Zeit herauskristallisierte, ist jener der jungen, schönen, kühlen, hintergründigen und undurchsichtigen Blondine. Die oberflächliche Kühle der Hitchcock-Blondine verbirgt jedoch eine stark entwickelte Sexualität. Besonders deutlich wird dies in "Der unsichtbare Dritte", wenn Eva Marie Saint zunächst gegenüber Cary Grant zweideutige Bemerkungen macht, dann plötzlich den völlig überraschten Fremden küsst und ihn ohne Zögern in ihrem Schlafwagenabteil unterbringt. Nicht der Mann, sondern die (blonde) Frau spielt hier den aktiven Part. Sympathische Schurken. Hitchcock legt durch seine Gestaltung von Figuren und Dramaturgie dem Zuschauer eine Identifikation mit dem Schurken nahe. Seine Antagonisten wirken zuweilen auffällig sympathisch und übertreffen mitunter die Ausstrahlung der Hauptfiguren. Oft konkurrieren Held und Bösewicht um dieselbe Frau; die Liebe des Gegenspielers erscheint dabei tiefer und aufrichtiger als die des Helden. Besonders auffällig ist dies in "Berüchtigt" (Claude Rains gegenüber Cary Grant) und in "Der unsichtbare Dritte" (James Mason wiederum gegenüber Cary Grant). Selbst ein ausgesprochen heimtückischer Schurke wie Ray Milland in "Bei Anruf Mord" wirkt in einzelnen Momenten gegenüber dem unbeholfenen Robert Cummings sympathischer, in jedem Fall jedoch gegenüber der Polizei vertrauenserweckender. Oft sind sie die eigentlichen Hauptfiguren, wie Joseph Cotten als charmanter Witwenmörder in "Im Schatten des Zweifels" oder Anthony Perkins als linkischer, von seiner Mutter gepeinigter Mörder in "Psycho". Dominante Mütter. In vielen seiner Filme – ab Mitte der 1940er Jahre regelmäßig – tauchen dominante Mütter auf, die einen beunruhigenden Einfluss auf ihre meist erwachsenen Kinder ausüben und zum Teil Auslöser oder Ursache dramatischer Ereignisse sind. Erstmals uneingeschränkt bösartig erscheint die Mutter in "Berüchtigt" (1946), die ihren Sohn zum Mord an der Frau, die er liebt, antreibt. Der extremste Fall tritt in "Psycho" (1960) zutage, wo die tote Mutter noch von ihrem Sohn Besitz ergreift und ihn zu ihrem mordenden Werkzeug werden lässt. Daneben gibt es eine Vielzahl weniger dämonischer Variationen, wobei Besitzergreifung allen Mutter-Typen gemein ist: In "Die Vögel" (1963) erträgt es die Mutter von Mitch (Jessica Tandy) nicht, dass ihr erwachsener Sohn (Rod Taylor) sich für eine andere Frau interessiert. In "Marnie" (1964) wird das Leben der Tochter durch einen von der Mutter übertragenen Schuldkomplex beinahe zerstört. In zwei Filmen variiert Hitchcock dieses Rollenmuster: In "Rebecca" und "Sklavin des Herzens" übernehmen Haushälterinnen die Funktion der dämonischen Mutter. Zwielichtige oder leichtgläubige Beamte. Üblicherweise positiv besetzte Figuren wie Polizisten, Richter oder andere Vertreter des Staates erscheinen oft zwiespältig: Sie sind nicht in der Lage, die Helden zu beschützen, oder stellen sogar eine Bedrohung für diese dar. Polizisten verdrehen das Recht, sie handeln aus persönlichen Motiven, sie glauben dem ersten Anschein und schützen den tatsächlich Schuldigen aufgrund von dessen vordergründig tadellosem Erscheinen, sie sind tollpatschig oder arbeiten schlampig. Dieses Rollenmuster durchzieht Hitchcocks gesamtes Werk, von "Der Mieter" (1927) bis "Frenzy" (1972). Darüber hinaus finden sich vereinzelt Geheimdienstmitarbeiter unter den Nebenfiguren, die sich als Gegner (das Ehepaar Drayton in "Der Mann, der zuviel wußte", 1956) oder als Helfer offenbaren, wobei auch letztere Schwierigkeiten bringen können – beispielsweise der „General“ (Peter Lorre) in "Geheimagent" oder Leo G. Carroll als CIA-Mitarbeiter in "Der unsichtbare Dritte". Indem die feste Trennlinie zwischen Gut und Böse verschwimmt, wird das Gefühl der Verunsicherung beim Zuschauer gesteigert. Formale Elemente. Dramaturgie. Hitchcocks Credo lautete: „For me, the cinema is not a slice of life, but a piece of cake.“ (etwa: „Für mich ist das Kino nicht ein Stück Leben, sondern ein Stück Kuchen.“) Film war für ihn eine artifizielle Kunstform. Nur einmal – in "Der falsche Mann" – wich er von diesem Grundsatz ab. Aber auch hier liegt der Akzent auf jenen Elementen, die nicht dokumentarisch sind – etwa der subjektiven Perspektive des unschuldig Verdächtigten und seiner hilflosen Frau. Einigen seiner weiteren Filme liegen zwar auch reale Ereignisse zugrunde ("Der zerrissene Vorhang", "Das Fenster zum Hof", "Der Auslandskorrespondent" oder "Cocktail für eine Leiche"), doch werden diese so weit fiktionalisiert, dass außer dem Grundmotiv kein Bezug zu der ursprünglichen Geschichte übrig bleibt. Eine nicht verwirklichte Idee für "Der unsichtbare Dritte", die der Regisseur im Interview mit Truffaut erwähnt, verdeutlicht Hitchcocks Vorstellungen davon, die Realität zu transzendieren: Er wollte zeigen, wie unter den Augen Cary Grants auf einem Fließband ein Auto zusammengebaut wird und anschließend aus dem fertiggestellten Auto eine Leiche fällt – nach realistischen Maßstäben unmöglich. Doch Hitchcocks Begründung für das Verwerfen der Idee zeigt, dass er sich in solchen Fragen nicht an der Wahrscheinlichkeit orientierte: „Wir haben die Idee in der Geschichte nicht richtig unterbringen können, und selbst eine willkürliche Szene kann man nicht ohne Motiv ausführen.“ Den Vorwurf, Gesetze der Plausibilität zu missachten, nahm er bewusst in Kauf: „Wenn man alles analysieren wollte und alles nach Erwägungen der Glaubwürdigkeit und Wahrscheinlichkeit konstruieren, dann würde keine Spielfilmhandlung dieser Analyse standhalten, und es bliebe einem nur noch eines übrig: Dokumentarfilme zu drehen.“ Hitchcock vertraute darauf, dass die Zuschauer unwahrscheinliche Details akzeptieren würden, da er diese nur verwendete, um die Handlung zu dramatisieren, voranzutreiben oder zu straffen. Für bewusste Irritation sorgte auch Hitchcocks Spiel mit filmtypischen Klischees. So vermied er es insbesondere bei den Nebenrollen, Schauspieler nach festgelegtem Typ zu besetzen. Auch bei der Wahl seiner Spielorte entzog sich Hitchcock den Genre-Gesetzen. So ließ er Verbrechen und bedrohliche Szenen häufig nicht in unheimlichen, dunklen Räumen stattfinden, sondern bei hellem Tageslicht und an scheinbar harmlosen Orten wie einem mit Menschen übersäten Marktplatz ("Der Mann, der zuviel wußte" [1956] und "Der Auslandskorrespondent"), in einer menschenleeren Landschaft, auf einer öffentlichen Versteigerung und in einer Hotelhalle "(Der unsichtbare Dritte)", auf einer idyllischen Bergstraße "(Über den Dächern von Nizza)", auf einer Party ("Berüchtigt" und "Jung und unschuldig") in einer voll besetzten Konzerthalle (beide "Der Mann, der zuviel wußte") oder in einem mit lauter freundlichen Menschen besetzten Eisenbahnzug "(Eine Dame verschwindet)". Suspense. Die klassische, auf das Überraschungsmoment aufbauende Form des Kriminalfilms ist der Whodunit. Bis auf wenige Ausnahmen bediente sich Hitchcock jedoch einer anderen Form des Spannungsaufbaus, des sogenannten Suspense: Dem Zuschauer sind ab einem gewissen Zeitpunkt bestimmte Informationen oder Umstände bekannt, von denen die handelnden Personen nichts wissen. Er fiebert in besonderer Weise mit den Helden, er sieht Ereignisse kommen, möchte den Figuren helfen, kann es aber nicht. In einigen Filmen wird das klassische Suspense dahingehend variiert, dass handelnde Personen die Rolle des Zuschauers übernehmen. Ein Beispiel von vielen: In "Das Fenster zum Hof" dringt Lisa in die Wohnung des verdächtigen Nachbarn ein, um nach Beweisen für einen möglichen Mord zu suchen. Ihr Partner Jeff beobachtet das Geschehen von der gegenüber liegenden Wohnung aus und sieht dabei den Nachbarn vorzeitig zurückkommen. Er vermutet sie in Lebensgefahr, kann ihr aber nicht helfen. Für einige markante Szenen baute Hitchcock zudem bewusst eine Suspense-Situation auf, um den Zuschauer mit einem umso gewaltigeren Überraschungseffekt schockieren zu können. Ein berühmtes Beispiel findet sich in "Psycho": Zum einen ist Marion Crane mit verschiedenen Insignien einer typischen Hauptfigur eines Hitchcockfilms ausgestattet, so dass kaum jemand erwartet, dass sie bereits in der ersten Hälfte des Films stirbt. Zum anderen schaltet Hitchcock der Duschszene selbst einen Suspense-Moment vor. Norman Bates beobachtet Marion Crane durch ein Loch in der Wand beim Entkleiden. Sie geht unter die Dusche. Der Zuschauer wird nun eben keinen Mord, sondern schlimmstenfalls eine Vergewaltigung durch Norman befürchten. Der bestialische Mord ist somit völlig überraschend und damit ein Grund für die Berühmtheit der Szene. MacGuffin. Ein von Hitchcock in seinen Thrillern sehr häufig verwendetes Mittel war der sogenannte MacGuffin: ein Element, das die Handlung vorantreibt oder sogar initiiert, obwohl es für die Entwicklung der Figuren und für den Zuschauer inhaltlich völlig bedeutungslos, geradezu austauschbar ist. Der MacGuffin in "Der unsichtbare Dritte" sind schlicht „Regierungsgeheimnisse“, über die der Held oder der Zuschauer während der gesamten Handlung nichts Weiteres erfährt. In "Psycho" benutzt Hitchcock unterschlagenes Geld, das die Sekretärin zur Flucht treibt und so in „Bates Motel“ führt, um das Publikum anfangs gezielt in die Irre zu führen und für einen Kriminalfall zu interessieren, der mit der eigentlichen Handlung nur am Rande zu tun hat. Die mysteriösen „39 Stufen“ im gleichnamigen Film sind eine Geheimorganisation, über die bis kurz vor Ende des Films überhaupt nichts bekannt ist, außer dass sie gefährlich ist. Ein besonders außergewöhnlicher MacGuffin ist die als Volksliedmelodie getarnte Geheimdienstinformation aus "Eine Dame verschwindet". Filmische Mittel. Beeinflusst vom Stummfilm beruhte Hitchcocks Filmverständnis auf dem Anspruch, alles Wichtige in seinen Filmen visuell und so wenig wie möglich durch Dialoge auszudrücken. Seine typischen Kameraeinstellungen geben im Bild genau das wieder, was für das Verständnis der Szene wesentlich ist – auch um dem Zuschauer nicht die Möglichkeit zu geben, sich durch unwesentliche Details ablenken zu lassen. So wirken beispielsweise Kuss-Szenen bei Hitchcock immer sehr intim, da er gewöhnlich mit der Kamera sehr nahe an die beiden sich Küssenden heranfuhr und den Zuschauer sozusagen zum dritten Umarmenden machte. Zu den berühmtesten Beispielen dieser visuellen Erzählweise zählen die Duschszene aus "Psycho", der Flugzeugangriff auf Cary Grant und die Jagd auf Mount Rushmore in "Der unsichtbare Dritte", die Versammlung der Vögel auf dem Klettergerüst in "Die Vögel" oder die zehnminütige Konzertszene in der Royal Albert Hall in "Der Mann, der zuviel wußte" von 1956. Hitchcocks visueller Arbeitsstil drückt sich unter anderem in den Expositionen vieler seiner Filme aus. Er bringt den Zuschauern die handelnden Figuren und die Umstände der folgenden Handlung ohne die Verwendung von Dialogen nahe. Die Länge dieser Einführungen variiert zwischen wenigen Sekunden und mehreren Minuten. Erstmals verfolgte Hitchcock diese Technik 1929 in seinem ersten Tonfilm "Erpressung". Zudem tauchen in Hitchcocks Filmen immer wieder ungewöhnliche filmische Operationen auf, um die Stimmung und Spannung bewusst zu verstärken, beispielsweise eine gegenläufige Zoom-Fahrtbewegung in "Vertigo" (später auch als „Vertigo-Effekt“ bezeichnet), lange Kamerafahrten wie die aus einer Totale eines großen Raums bis in die Naheinstellung eines Schlüssels in einer Hand (in "Berüchtigt") oder auf ein zuckendes Auge (in "Jung und unschuldig") sowie die aus ungefähr siebzig Einstellungen bestehende fünfundvierzig Sekunden lange Mordszene unter der Dusche in "Psycho", unmittelbar gefolgt von einer etwa einminütigen Kamerafahrt ohne einen einzigen Schnitt. Der Production Designer Robert Boyle, mit dem Hitchcock bei fünf Filmen zusammenarbeitete, meinte: „Keiner der Regisseure, mit denen ich je zusammengearbeitet habe, wusste so viel über Film wie er. Viele der Regisseure, mit denen ich gearbeitet habe, wussten eine ganze Menge, aber sie besaßen nicht die technischen Fähigkeiten, die er hatte. Er suchte immer nur den visuellen Ausdruck, und so etwas wie eine zufällige Einstellung gab es bei ihm nicht.“ Nur einmal griff Hitchcock aus Experimentierfreude auf einen filmtechnischen Kniff zurück, der sich nicht unmittelbar aus der Dramaturgie ergab. In "Cocktail für eine Leiche" (1948) drehte er bis zu zehn Minuten lange Einstellungen, die er zum großen Teil sogar über unsichtbare Schnitte ineinander übergehen ließ. Er wollte damit bei dieser Theaterverfilmung die Einheit von Zeit und Raum dokumentieren. Später gab er zu, dass es ein Fehler war, damit gleichzeitig den Schnitt als wesentliches gestaltendes Instrument der Dramaturgie aus der Hand gegeben zu haben. Licht und Farben. Inspiriert von amerikanischen und deutschen Filmemachern, setzte Hitchcock schon bei seinen ersten Filmen Licht- beziehungsweise Schatteneffekte ein. Typisch für Hitchcock sind Linien und Streifen in Form von Schatten (durch Gitter, Jalousien oder Ähnliches verursacht), die vor allem auf Gesichter fallen und eine unheilvolle Atmosphäre verstärken sollen. Darüber hinaus verwendet er in einzelnen Szenen sehr starke, zum Teil unnatürlich wirkende Kontraste, um einen äußeren oder inneren Gut-Böse-Gegensatz zu visualisieren. Dieses Hell-Dunkel-Spiel unterstützte Hitchcock durch die Kostüme der Figuren. So ließ er Ingrid Bergman am Anfang von "Berüchtigt" gestreifte Kleidung tragen, um ihre Zerrissenheit zu unterstreichen. In "Der Mieter" trug Ivor Novello zu Beginn Schwarz, später, um seine Unschuld auch nach außen hin deutlich zu machen, Weiß. Die Methode, durch die Farbgebung der Kostüme den emotionalen Zustand der Figuren zu unterstreichen, behielt Hitchcock auch für die Farbfilme bei. In "Bei Anruf Mord" wurden die Kostüme von Grace Kelly mit der Dauer des Films immer trister und grauer, entsprechend ihrer inneren Gemütsverfassung. Zu Hitchcocks Farbwahl von Grace Kellys Kleidern in "Das Fenster zum Hof" sagte die Kostümbildnerin Edith Head: „Für jede Farbe und jeden Stil gab es einen Grund; er war sich seiner ganzen Entscheidung absolut sicher. In einer Szene sah er sie in blassem Grün, in einer anderen in weißem Chiffon, in einer weiteren in Gold. Er stellte im Studio tatsächlich einen Traum zusammen.“ In seinen späteren Filmen, allen voran "Marnie" und "Vertigo", gab es eine ausgefeilte, die Kostüme, die Dekors und die Beleuchtung umfassende Farbdramaturgie. Tricktechnik. Nach Hitchcocks Filmverständnis schafft sich der Film seine eigene Realität und soll oder darf kein Abbild des wahren Lebens sein. Die Nutzung sämtlicher Möglichkeiten, genau das wiederzugeben, was der Regisseur sich vorstellt, ist nach diesem Verständnis nicht nur legitim, sondern erforderlich. Hitchcock hat die Entwicklung der Tricktechnik aufmerksam beobachtet und schon sehr früh – gelegentlich zum Missfallen seiner Produzenten – neue Trickverfahren eingesetzt, zum Beispiel das Schüfftan-Verfahren (in "Erpressung") oder das Matte Painting. In seinen englischen Thrillern, vor allem in "Nummer siebzehn" und "Jung und unschuldig", arbeitete Hitchcock bei Verfolgungsjagden oft und erkennbar mit Modellen. In "Eine Dame verschwindet" sind die Rückprojektionen während der Zugfahrt aber bereits so ausgereift, dass sie noch Jahrzehnte später überzeugen. Ähnliches gilt für die Schlussszene von "Der Fremde im Zug", in der zwei Männer auf einem sich immer schneller drehenden Karussell kämpfen – in einer virtuosen Kombination von Realeinstellungen, Modellen und Rückprojektionen. "Die Vögel" (1963) beinhaltet rund vierhundert Trickeinstellungen, für die Hitchcock auf sämtliche damals verfügbaren Tricktechniken zurückgriff, unter anderem auch auf das ansonsten für Animationsfilme verwendete Rotoskopieverfahren. Ton und Musik. Hitchcock hat seit dem Aufkommen des Tonfilms Musik und Toneffekte eingesetzt, um die Dramaturgie bewusst zu unterstützen. Den Umgang Hitchcocks mit dem Medium Ton beschrieb die Schauspielerin Teresa Wright "(Im Schatten des Zweifels)" folgendermaßen: „Wenn ein Schauspieler mit den Fingern trommelte, war das nicht ein zweckloses Trommeln, es hatte einen Rhythmus, ein musikalisches Muster – es war wie ein Geräusch-Refrain. Ob jemand nun ging oder mit Papier raschelte oder einen Umschlag zerriss oder vor sich hin pfiff, ob das Flattern von Vögeln oder ein Geräusch von draußen war, alles wurde sorgfältig von ihm orchestriert. Er komponierte die Toneffekte wie ein Musiker Instrumentenstimmen.“ Gegenüber Truffaut erwähnte Hitchcock, dass er nach dem Endschnitt eines Films seiner Sekretärin ein „Tondrehbuch“ diktiert, das alle von ihm gewünschten Geräusche enthält. In "Mord – Sir John greift ein!" (1930) versteckte Hitchcock, da ein nachträgliches Bearbeiten der Tonspur zu diesem Zeitpunkt technisch noch nicht möglich war, gar ein komplettes Orchester hinter den Kulissen, um die entsprechenden Stellen musikalisch zu untermalen. Weitere klassische Beispiele für Hitchcocks dramaturgischen Musikeinsatz sind "Geheimagent" (1936, der Dauerakkord des toten Organisten in der Kirche), "Eine Dame verschwindet" (1938, die Melodie mit dem Geheimcode und der „Volkstanz“), "Im Schatten des Zweifels" (1943, der „Merry-Widow“-Walzer), "Der Fremde im Zug" (1951, die Szenen auf dem Rummelplatz) und "Das Fenster zum Hof" (1954, die im Laufe des Films entstehende Komposition des Klavierspielers). In "Der Mann, der zuviel wußte" (1956) schließlich wird Musik, sowohl orchestral wie auch gesungen, aktiv inszeniert und dramaturgisch eingebunden: Sie spielt eine wesentliche Rolle in der Gesamtdramaturgie des Films. Die Musik der Filme aus den späten 1950er und frühen 1960er Jahren, der Zeit als Hitchcock mit dem Komponisten Bernard Herrmann zusammenarbeitete, ist tragendes Element der jeweiligen Filme. Kritiker bescheinigen der Musik der Filme "Vertigo", "Der unsichtbare Dritte" und "Psycho" sowie den Toneffekten von Oskar Sala zu "Die Vögel", wesentlich zum jeweiligen Gesamteindruck des Films beizutragen. Prägende Einflüsse. Vorbilder. Hitchcock war beeindruckt von den Filmen, die er in seiner Jugend und in seinen frühen Jahren im Filmgeschäft sah, etwa jenen von D. W. Griffith, Charlie Chaplin, Buster Keaton und Douglas Fairbanks senior. Als Stummfilmregisseur in England übernahm er vom US-Film unter anderem die Technik, mit Hilfe von Beleuchtungseffekten Tiefe zu schaffen und den Vorder- vom Hintergrund abzusetzen, was bis in die 1930er Jahre im britischen Film unüblich war. Angetan war er auch von den deutschen Stummfilmregisseuren wie Fritz Lang und Ernst Lubitsch. F. W. Murnaus "Der letzte Mann", dessen Dreharbeiten Hitchcock 1922 in München beobachtete, bezeichnete er später als den fast perfekten Film: „Er erzählte seine Geschichte ohne Titel; von Anfang bis Ende vertraute er ganz auf seine Bilder. Das hatte damals einen ungeheueren Einfluss auf meine Arbeit.“ Einfluss auf Hitchcocks Arbeit hatte auch "Das Cabinet des Dr. Caligari", den Robert Wiene 1919 drehte. Die Betonung des Visuellen im deutschen Expressionismus prägte seinen eigenen Umgang mit filmischen Mitteln. Abgesehen von diesen stilistischen Einflüssen vermied es Hitchcock jedoch, Szenen oder Einstellungen bekannter Filme zu zitieren. Als Ausnahme kann "Panzerkreuzer Potemkin" (1925) des sowjetischen Regisseurs Eisenstein angesehen werden. In "Die 39 Stufen", "Über den Dächern von Nizza" und einigen weiteren Filmen erinnern die vor Entsetzen schreienden Frauen an Einstellungen aus der berühmten und oft zitierten Szene an der Hafentreppe in Odessa. Es gibt außerdem in Hitchcocks Werk aus den 1940er und 1950er Jahren einige motivische und visuelle Überschneidungen mit der Gattung des Film noir, die den amerikanischen Kriminalfilm in jener Zeit bestimmte, etwa in "Im Schatten des Zweifels" und "Berüchtigt", und besonders in "Der falsche Mann", wo das Motiv der allgegenwärtigen Bedrohung der Hauptfiguren eine Rolle spielt. Darüber hinaus bediente er sich gerne einer ähnlich kontrastreichen Bildgestaltung, die er sich in den Grundzügen allerdings bereits in den 1920er Jahren angeeignet hatte. Auch "Vertigo" erinnert in der Grundkonstellation und der alptraumhaften Zwanghaftigkeit der Geschehnisse an einige Filme des Genres, wie zum Beispiel "Frau ohne Gewissen", hebt sich jedoch formal und stilistisch deutlich vom Film noir ab. Als typischer Vertreter des Genres kann Hitchcock jedenfalls nicht angesehen werden. Obsessionen und Vorwürfe wegen sexueller Belästigung. Seine Vorliebe für Blondinen erklärte Hitchcock gegenüber Truffaut wie folgt: „Ich finde, die englischen Frauen, die Schwedinnen, die Norddeutschen und die Skandinavierinnen sind interessanter als die romanischen, die Italienerinnen und die Französinnen. Der Sex darf nicht gleich ins Auge stechen. Eine junge Engländerin mag daherkommen wie eine Lehrerin, aber wenn Sie mit ihr in ein Taxi steigen, überrascht sie Sie damit, dass sie Ihnen in den Hosenschlitz greift.“ Ähnlich äußerte er sich 1969 gegenüber "Look" über die Truffaut-Schauspielerin Claude Jade, die bei ihm in "Topaz" gespielt hatte: „Claude Jade ist eine eher ruhige junge Dame, doch für ihr Benehmen auf dem Rücksitz eines Taxis würde ich keine Garantie übernehmen“. Dass Hitchcock zu seinen jungen blonden Schauspielerinnen ein besonderes Verhältnis hatte und ihnen mehr Aufmerksamkeit widmete als allen anderen, war schon früh bekannt. Die Sorgfalt, mit der Hitchcock bereits in den 1930er und 1940er Jahren Madeleine Carroll, Carole Lombard und insbesondere Ingrid Bergman in Szene setzte, entwickelte sich mit der Zeit zu einer sich steigernden Verquickung privater und beruflicher Interessen, die sich zu einer Obsession ausweitete. Mit Vera Miles probte er die Nervenzusammenbrüche, welche sie in "Der falsche Mann" darstellen sollte, wochenlang jeweils mehrere Stunden täglich. Für sie wie für Kim Novak ließ er von der Kostümbildnerin eine komplette Garderobe schneidern, die für ihr privates Leben gedacht war. Tippi Hedren "(Die Vögel)" behauptete, er habe sie sogar von zwei Crew-Mitgliedern beschatten lassen und begonnen, ihr Vorschriften für ihr Verhalten im Privatleben zu machen. Hedren warf in ihrer Biografie 2016 Hitchcock vor, sie mehrfach sexuell belästigt zu haben, und bezeichnete ihn als pervers. Er habe sie für sich völlig vereinnahmen wollen, sich auf sie geworfen und begrapscht. Weiter drohte er ihr ihre Karriere zu ruinieren, wenn sie nicht kooperieren würde. Diese Vereinnahmung hatte ihren Höhepunkt in sich über Tage hinziehenden Aufnahmen von auf sie einstürzenden, echten Vögeln. Nach einem eindeutigen, erfolglosen Annäherungsversuch während der Arbeiten zu "Marnie" kam es schließlich zum Bruch. Die zuvor offen bekundete Zuneigung schlug ins Gegenteil um, und Hitchcock ließ keine Gelegenheit aus, Tippi Hedren bei anderen herabzusetzen. Sie blieb die letzte typische „Hitchcock-Blondine“. Zwar hielt sich Hitchcock darüber stets äußerst bedeckt, doch es gilt als gesichert, dass der Regisseur sich von diesen Schwierigkeiten lange nicht erholen konnte und in seiner kreativen Schaffenskraft beeinträchtigt war. Ebenso gelten Filme wie "Vertigo" und "Berüchtigt", aber auch "Marnie" oder "Im Schatten des Zweifels", die von neurotischen Männern handeln, die Frauen manipulieren, als stark autobiographisch. Auch die Verbindung zwischen Sex und Gewalt faszinierte Hitchcock, was vor allem in seinen späteren Werken immer deutlicher zutage tritt. Mehrfach inszenierte er vollendete oder versuchte Vergewaltigungen (schon früh in "Erpressung", später dann in "Marnie" und "Frenzy"). In drei nicht realisierten Projekten sollten Vergewaltiger oder Vergewaltigungen eine zentrale Rolle spielen. Morde inszenierte er einige Male als Vergewaltigungen, mit dem Messer als Phallus-Symbol. Doch auch der Tod durch Erwürgen oder Strangulieren übte eine gewisse Faszination auf ihn aus. Einige Würgeszenen gehören zu den bemerkenswertesten Mordszenen seiner Karriere, etwa in "Cocktail für eine Leiche", "Bei Anruf Mord", "Der zerrissene Vorhang" und "Frenzy". Sich selbst ließ er oft in „Würgerposen“ ablichten. Ähnlich offen kokettierte Hitchcock zeit seines Lebens mit seiner panischen Angst vor der Polizei. Hitchcock erzählte gerne, dass er mit fünf Jahren, nachdem er etwas angestellt hatte, von seinem Vater mit einem Zettel auf das nahegelegene Polizeirevier geschickt worden sei. Der Polizist las den Zettel und sperrte Alfred für fünf oder zehn Minuten in eine Zelle mit dem Kommentar, dies würde die Polizei mit ungezogenen Jungen so machen. In seinen Filmen geht von Polizisten stets eine latente Gefahr aus. Zu der Frage, inwieweit das von Hitchcock in seinen Filmen transportierte Bild der besitzergreifenden Mutter von der eigenen Mutter geprägt ist, gab es von ihm selbst keinerlei Aussagen. Das wenige, was man aus seiner Kindheit weiß, legt jedoch autobiographische Ursprünge nahe. Hitchcocks Mutter starb nach langer Krankheit im August 1942 während der Dreharbeiten zu "Im Schatten des Zweifels". Dieser bereits von vornherein stark autobiographisch geprägte Film nimmt eindeutig Bezug auf Hitchcocks Verhältnis zu ihr: Der Name Emma scheint nicht die einzige Gemeinsamkeit zwischen ihr und der dominanten Mutterfigur im Film zu sein. Zudem ist im Film noch von einer anderen gebieterischen, jedoch kranken Mutter die Rede – jener des Krimi-Besessenen Herb Hawkins, der wiederum als Selbstprojektion Hitchcocks gilt. Auffallend oft sind Toiletten in Hitchcocks Filmen zu sehen oder zu hören, in denen konspirative Dinge irgendwelcher Art stattfinden. Laut seinem Biographen Donald Spoto hatte er eine „pubertäre Fixierung“, die in seiner viktorianischen Erziehung begründet lag. Hitchcock äußerte sich zwar oft und gerne über menschliche Körperfunktionen, wollte aber den Eindruck erwecken, er selbst habe mit solchen Dingen nichts zu tun. Bezugnehmend auf seine Körperfülle, deutete Hitchcock hingegen mehrfach an, dass für ihn Essen eine Art Ersatzbefriedigung sei. So gibt es in einigen Hitchcockfilmen eine symbolische Verbindung von Essen, Sex und Tod. Zensur. In den USA galt zwischen 1934 und 1967 der "Hays Code", auch "Production Code" genannt, eine Sammlung von Richtlinien über die Einhaltung der gängigen Moralvorstellungen und über die Zulässigkeit der Darstellung von Kriminalität, Gewalt und Sexualität im Film. So musste Hitchcock zum Beispiel das geplante Ende für "Verdacht" fallen lassen, weil es Anfang der 1940er Jahre nicht möglich war, den Selbstmord einer schwangeren Frau zu zeigen. Noch bis kurz vor Schluss der Dreharbeiten hatte er kein passendes Ende für den Film gefunden. In "Berüchtigt" musste Hitchcock einen Dialog streichen, in dem sich ein Vertreter der US-Regierung positiv über die Möglichkeit einer Ehescheidung äußerte. Bei "Saboteure" drehte er politisch heikle Textstellen zur Sicherheit alternativ in entschärften Versionen. Doch in vielen Fällen gelang es ihm, die Beschränkungen durch die Zensur kreativ zu umgehen. So war es damals unter anderem nicht erlaubt, eine Toilette zu zeigen. Daher verzerrte Hitchcock in "Mr. und Mrs. Smith" die eindeutigen Geräusche einer Toilette so, dass man sie für eine Dampfheizung halten konnte. In "Psycho" zeigte er eine Toilette, in der ein Papierzettel hinuntergespült wurde. Indem er das Bild der Toilette mit einer dramaturgischen Funktion versah – das Verschwinden eines Beweisstücks musste erklärt werden – verhinderte er, dass die Szene geschnitten wurde. Niemals wurde eine Toilette zu Zeiten des Hays Code expliziter gezeigt. Da auch die Länge von Küssen im Film damals auf drei Sekunden begrenzt war, inszenierte Hitchcock den Kuss zwischen Ingrid Bergman und Cary Grant in "Berüchtigt" als Folge von einzelnen, durch kurze Dialogsätze unterbrochenen Küssen. Hitchcocks größter Sieg gegen die Zensur war die Schlussszene von "Der unsichtbare Dritte": Cary Grant und Eva Marie Saint befinden sich in einem Schlafwagen. Er zieht sie zu sich nach oben in das obere Bett, und sie küssen sich. Es erfolgt ein Umschnitt, und man sieht einen Zug in einen Tunnel rasen – eine der explizitesten Andeutungen des Sexualakts in einem US-Film zu Zeiten des "Production Code". Arbeitsweise. Einer der wichtigsten Aspekte der Arbeitsweise Alfred Hitchcocks war, dass er im Idealfall von der Stoffauswahl bis zum Endschnitt nichts dem Zufall überließ, sondern die völlige Kontrolle über die Herstellung des Films beanspruchte. Wenn Hitchcock existierende Vorlagen benutzte, etwa Romane oder Bühnenstücke, übernahm er nur einzelne Grundmotive der Handlung und entwickelte daraus zusammen mit dem jeweiligen Drehbuchautor oft eine völlig neue Geschichte. Hochwertige, komplexe Literatur sperrte sich gegen diesen Umgang und Hitchcock scheute daher deren Verfilmung – auch aus Respekt vor dem Werk. Hitchcock war meist an der Drehbucherstellung beteiligt, wurde aber nach 1932 bei keinem seiner Filme offiziell als Autor in Vor- oder Abspann erwähnt: „Ich will nie einen Titel als Produzent oder Autor. Ich habe das Design des Films geschrieben. Mit anderen Worten, ich setze mich mit dem Autor zusammen und entwerfe den ganzen Film vom Anfang bis zum Ende.“ Der Autor Samuel A. Taylor: „Mit ihm zu arbeiten, bedeutete auch mit ihm zu schreiben, was auf die wenigsten Regisseure zutrifft. Hitchcock behauptete nie, selbst ein Schriftsteller zu sein, aber in Wahrheit schrieb er doch seine eigenen Drehbücher, denn er sah bereits jede Szene deutlich in seinem Kopf vor sich und hatte eine sehr genaue Vorstellung davon, wie sie ablaufen sollte. Ich merkte, dass ich nur noch die Figuren persönlicher und menschlicher zu gestalten brauchte und sie weiter entwickeln musste.“ Gelegentlich veränderte Hitchcock im Nachhinein noch die Dialoge ganzer Szenen, etwa um die Spannungs-Dramaturgie zu verbessern (Beispiel: "Das Rettungsboot") oder um autobiographische Bezüge einzubauen (Beispiel: "Ich beichte"). Auch wenn ihm geschliffene Dialoge wichtig waren, legte Hitchcock sein Hauptaugenmerk stets auf die Ausdruckskraft der Bilder. So wurde im Idealfall jede einzelne Einstellung des Films vor Drehbeginn in Storyboards festgelegt. Seit Beginn seiner Regisseurtätigkeit verfolgte er das Ziel, jegliche Improvisation so weit es geht zu vermeiden. Gegenüber Truffaut erklärte er: „Ich habe Angst davor gehabt, im Atelier zu improvisieren, weil, selbst wenn man im Augenblick Ideen hat, bestimmt keine Zeit bleibt nachzuprüfen, was sie taugen. [… Andere Regisseure] lassen ein ganzes Team warten und setzen sich hin, um zu überlegen. Nein, das könnte ich nicht.“ Nach eigenen Aussagen bereitete Hitchcock die Planung eines Projekts mehr Freude als die eigentlichen Dreharbeiten: Durch zu viele Einflüsse – Produzenten, Technik, Schauspieler, Zeitdruck – sah er die angestrebte Kontrolle über sein Werk bedroht. Außerdem sah er im Idealfall die kreative Arbeit am Film mit Beginn der Dreharbeiten als abgeschlossen an: „Ich drehe einen vorgeschnittenen Film. Mit anderen Worten, jedes Stück Film ist entworfen, um eine Funktion zu erfüllen.“ Diese Grundsätze waren jedoch eher eine Idealvorstellung Hitchcocks. Tatsächlich wurde es ihm spätestens ab 1948 zur Gewohnheit, beim Drehen Alternativen auszuprobieren. Doch auch hier bemühte er sich um möglichst exakte Vorausplanung: Ein Beispiel hierfür ist die Belagerung des Hauses durch die Vögel in "Die Vögel". Gegenüber Truffaut beschrieb Hitchcock, wie er die ursprünglich geplante Szene noch unmittelbar am Drehort umschrieb und bis ins kleinste Detail skizzierte, so dass sie kurz darauf entsprechend diesen neuen Entwürfen gedreht werden konnte. Darüber hinaus wurde Hitchcock im Laufe seiner Karriere immer freier, auch kurzfristig vom festgelegten Drehbuch abzuweichen. Entgegen seinen Gewohnheiten ließ er sogar Improvisationen der Schauspieler zu, wenn auch nur bei eher unwichtigen Szenen. Bill Krohn ging 1999 in "Hitchcock at Work" ausführlich auf Hitchcocks Arbeitsweise ein. Er rekonstruierte auf Basis von Originalunterlagen wie Drehbuchversionen, Skripte, Storyboards, Memos, Produktionsnotizen etc. und mit Hilfe von Beteiligten die Produktionsgeschichte diverser Filme (darunter Hitchcocks berühmteste) und widerlegt Hitchcocks Bekenntnis zum „vorgeschnittenen Films“: So kam es bei vielen Filmen vor, dass Hitchcock entscheidende Schlüsselszenen in verschiedenen Varianten drehte und meist erst im Schneideraum über die endgültige Form einzelner Szenen entschied. Mitarbeiter. Im Laufe der Jahre entwickelte sich mit verschiedenen Autoren eine besonders kreative Zusammenarbeit. Hervorzuheben sind Eliot Stannard, Angus MacPhail, Charles Bennett, Ben Hecht und John Michael Hayes. Obwohl Samuel A. Taylor "(Vertigo)" und auch Ernest Lehman "(Der unsichtbare Dritte)" nur je zwei Drehbücher zu tatsächlich realisierten Filmen schrieben, gehörten sie zu den wenigen Mitarbeitern, die mit ihm in den letzten Jahren seiner Karriere regelmäßig zusammenarbeiteten und bis kurz vor seinem Tod Kontakt hatten. Doch auch mit namhaften Theater- oder Romanautoren arbeitete Hitchcock mehrfach bei der Drehbucherstellung zusammen, reibungslos mit Thornton Wilder und George Tabori, konfliktbeladen mit John Steinbeck, Raymond Chandler und Leon Uris. Der Kult, den Hitchcock gern um seine Person betrieb, und sein manchmal diktatorischer Stil, führte auch zu Konflikten mit befreundeten Autoren. John Michael Hayes, der im Streit von Hitchcock schied: „Ich tat für ihn, was jeder andere Autor für ihn tat – ich schrieb! Wenn man aber Hitchcocks Interviews liest, kann man den Eindruck bekommen, er habe das Drehbuch geschrieben, die Charaktere entwickelt, die Motivation beigesteuert.“ Wenn Hitchcock mit der Arbeit eines Autors nicht zufrieden war, oder wenn er seine Autorität angegriffen fühlte, dann ersetzte er Autoren kurzerhand durch andere. Cary Grant und James Stewart wurden innerhalb der jeweils vier Filme, die sie für Hitchcock drehten, zu Hitchcocks Alter Ego. Grant wurde zu dem, „was Hitchcock gerne gewesen wäre“, wie es Hitchcocks Biograph Donald Spoto formulierte, während Stewart vieles wäre, „von dem Hitchcock dachte, er sei es selbst“. Mit einigen seiner Schauspieler verband Hitchcock zudem eine langjährige persönliche Freundschaft, allen voran mit Grace Kelly. Darüber hinaus sind die als neurotisch zu bezeichnenden Beziehungen zu seinen blonden Hauptdarstellerinnen – insbesondere mit Tippi Hedren – bekannt. Am Anfang von Hitchcocks Karriere galt Film in England als Unterhaltung für die Unterschicht. Aus dieser Zeit stammt Hitchcocks oft zitierter Ausspruch „Alle Schauspieler sind Vieh“, der sich auf diejenigen Theaterschauspieler bezog, die nur mit Widerwillen und des Geldes wegen nebenher als Filmschauspieler arbeiteten. Die Aussage verselbständigte sich später und wurde oft als genereller Ausdruck der Geringschätzung Hitchcocks Schauspielern gegenüber angesehen. Tatsächlich hatte er auch später oft Probleme mit Schauspielern, die eigene Vorstellungen durchsetzen wollten, anstatt sich in die vorgefertigte Planung des Regisseurs einzufügen. Anhänger des Method Actings wie Montgomery Clift und Paul Newman waren Hitchcock daher genauso lästig wie Exzentriker oder Egomanen. Große Achtung hatte Hitchcock hingegen vor Schauspielern, die sein Filmverständnis teilten oder sich zumindest seiner Arbeitsweise anpassten, und gewährte etwa Joseph Cotten und Marlene Dietrich große künstlerische Freiheiten. Oft waren es jedoch die Produzenten, die über die Besetzung der Hauptrollen entschieden. Umso mehr nutzte Hitchcock seine größere Freiheit bei den zu besetzenden Nebenrollen, wobei er gerne auf Theaterschauspieler zurückgriff, die er noch aus seiner Zeit in London in bester Erinnerung hatte, zum Beispiel Leo G. Carroll in insgesamt sechs Filmen oder Cedric Hardwicke in "Verdacht" und "Cocktail für eine Leiche". Die bekannte Kostümbildnerin Edith Head, mit der er ab "Das Fenster zum Hof" bei fast allen Filmen zusammenarbeitete, meinte: „Loyalität war Hitchcock besonders wichtig. Er war Mitarbeitern gegenüber so loyal, wie er es von ihnen erwartete.“ Bei fünf Filmen war Robert F. Boyle für das "Production Design" verantwortlich; er gehörte bis zu Hitchcocks Tod zu dessen engsten Mitarbeitern. Außerdem griff er im Laufe seiner Karriere gern auf Albert Whitlock als Szenenbildner zurück. Äußerst zufrieden war Hitchcock, dem die Ausdruckskraft der Bilder stets wichtig war, auch mit dem Art Director Henry Bumstead. Der Titeldesigner Saul Bass entwarf nicht nur einige Filmtitel für die Vorspanne sowie Plakate, sondern war bereits bei den Arbeiten an vielen Storyboards maßgeblich beteiligt. Wichtigster Kameramann in seinen frühen Jahren bei den British International Pictures war John J. Cox. Über Hitchcock sagte Kameramann Robert Burks, der mit Ausnahme von "Psycho" an allen Filmen zwischen 1951 und 1964 beteiligt war: „Man hatte nie Ärger mit ihm, solange man etwas von seiner Arbeit verstand und sie ausführte. Hitchcock bestand auf Perfektion.“ Mit Leonard J. South, ehemaliger Assistent Burks’, arbeitete Hitchcock über einen Zeitraum von insgesamt 35 Jahren zusammen. Von den Komponisten der Filmmusiken ist Louis Levy hervorzuheben, der die Soundtracks für die frühen englischen Filme von "Der Mann, der zuviel wußte" bis "Eine Dame verschwindet" beisteuerte. Als der Hitchcock-Komponist schlechthin gilt Bernard Herrmann, der ab "Immer Ärger mit Harry" bis einschließlich "Marnie" (1964) alle Filmmusiken für Hitchcock komponierte. Der Filmeditor George Tomasini war bis zu seinem Tod 1964 ein Jahrzehnt lang enger Mitarbeiter Hitchcocks. Zu Beginn seiner Karriere wirkte seine Frau Alma als Editorin bei seinen Filmen mit; sie blieb bis zuletzt eine der einflussreichsten Mitarbeiterinnen. Selbstvermarktung. Schon zu Beginn seiner Karriere war Hitchcock die Bedeutung der Vermarktung der eigenen Person bewusst: Viele seiner späteren Tätigkeiten sind Teil einer Strategie, sich und seinen Namen als Marke zu etablieren. Bereits 1927 führte Hitchcock ein stilisiertes Selbstporträt als Logo, das bis heute bekannt ist. Anfang der 1930er Jahre, als er mit dem Erfolg seiner Filme in England populär wurde, gründete er mit der Hitchcock Baker Productions Ltd. eine Gesellschaft, die bis zu seiner Übersiedlung nach Amerika ausschließlich dafür zuständig war, für ihn und mit seiner Person Öffentlichkeitsarbeit zu betreiben. Anschließend wurden diese Aufgaben von der Künstleragentur Selznick-Joyce, danach von der Music Corporation of America (MCA) wahrgenommen, wobei der Präsident der MCA, Lew Wasserman, zu seinem persönlichen Agenten wurde. 1962 wurde unter Herman Citron eine neue Gesellschaft gegründet, die Hitchcocks Interessen vertrat und seinen Namen vermarktete. Diese Selbstvermarktung diente auch dazu, eine Machtposition im Produktionsprozess seiner Filme zu erlangen, und war somit Teil seines Kampfes um künstlerische Unabhängigkeit. Cameos. Aus Mangel an Statisten in seinen ersten britischen Filmen sah man Hitchcock immer wieder im Hintergrund auftauchen. Daraus entwickelte er eines seiner bekanntesten Markenzeichen: Hitchcocks obligatorischer Cameo. Da das Publikum mit der Zeit immer weniger auf die Handlung achtete, als vielmehr auf Hitchcock lauerte, legte er in späteren Filmen diesen Running Gag möglichst weit an den Filmanfang. In drei Filmen hatte Hitchcock keinen eigentlichen Cameo. In zwei von diesen Filmen trat er auf Fotos in Erscheinung: "Das Rettungsboot" spielt ausschließlich in einem kleinen Rettungsboot auf dem Meer. Er ist daher in einer zufällig im Boot liegenden Zeitung in einer Werbeanzeige für eine Diät auf einem „Vorher-Nachher-Foto“ zu sehen. Auch in "Bei Anruf Mord" war kein Auftritt möglich. Stattdessen taucht Hitchcock auf einem an der Wand hängenden Foto einer Wiedersehensfeier von College-Absolventen auf. In "Der falsche Mann" schließlich tritt er am Anfang des Films persönlich auf und spricht den Prolog. Dies ist gleichzeitig seine einzige Sprechrolle in einem seiner Kinofilme. Alle bekannten Hitchcock-Cameos (chronologisch) Trailer. Während von den Filmgesellschaften üblicherweise für die Vermarktung eigene Abteilungen oder externe Agenturen beauftragt werden, trugen bei Hitchcocks Filmen die Werbekampagnen deutlich die Handschrift des Regisseurs. Seine Kino-Trailer waren häufig nicht nur Zusammenschnitte des angekündigten Films: Mit steigendem Wiedererkennungswert seiner Person stellte Hitchcock in der Rolle eines „Master of Ceremony“ seine eigenen Filme vor und führte den Zuschauer humorvoll durch die Kulissen. Oftmals sprach er auch die deutschsprachigen Trailer selbst ein. Fernsehen. Auf den Rat seines Agenten Lew Wasserman hin stieg Hitchcock 1955 in das Fernsehgeschäft ein. Hitchcock gründete die Fernsehproduktionsfirma "Shamley Productions" und produzierte bis 1965 seine eigene wöchentliche Fernsehserie. Am Anfang vieler Folgen begrüßte Hitchcock das Publikum, indem er mit ungerührter Miene makabre Ansagetexte sprach. Die Moderationen, die ihn zu einer nationalen Berühmtheit machten, wurden von dem Bühnenautor James D. Allardice verfasst, der fortan bis zu seinem Tod 1966 für Hitchcock auch als Redenschreiber arbeitete. Als Titelmusik für die Serie "Alfred Hitchcock Presents" verwendete Hitchcock das Hauptthema von Charles Gounods "Marche funèbre d’une marionette" (Trauermarsch einer Marionette), das sich im Weiteren zu einer Erkennungsmelodie für Hitchcocks Öffentlichkeitsarbeit entwickelte. Bücher und Zeitschriften. 1956 schloss Hitchcock einen Lizenzvertrag mit HSD Publications ab, der die Überlassung seines Namens für das Krimi-Magazin "Alfred Hitchcock’s Mystery Magazine" zum Inhalt hatte. Die Zeitschrift enthält Mystery- und Kriminalgeschichten, Buchrezensionen und Rätsel und erscheint noch heute. Einführungen und Vorworte, die mit seinem Namen unterschrieben waren, wurden stets von Ghostwritern verfasst. Von 1964 bis 1987 erschien in den USA die Jugend-Krimi-Reihe „The Three Investigators“, auf Deutsch seit 1968 "Die drei ???". Der Journalist und Autor Robert Arthur kannte Alfred Hitchcock persönlich und bat ihn, seinen Namen zur Vermarktung dieser geplanten Buchreihe verwenden zu dürfen. Schließlich baute er die Figur „Alfred Hitchcock“ in die Handlung ein. Anders als in Europa hielt sich der Erfolg der Bücher in den USA in Grenzen. In Deutschland, wo die Bücher besonders populär waren, entstand die gleichnamige Hörspielreihe. Durch diese bis heute erfolgreichste Hörspielproduktion der Welt wurde der Name Hitchcock auch bei vielen bekannt, die mit seinem filmischen Schaffen nicht vertraut waren. Wirkung. Viele Elemente aus seinem Werk sind inzwischen in das Standardrepertoire des Kinos eingegangen, ohne dass sie noch bewusst oder direkt mit Hitchcock in Verbindung gebracht werden, insbesondere der Einsatz von Suspense als spannungserzeugendem Mittel oder die Verwendung von MacGuffins als handlungsvorantreibendes Element. Darüber hinaus gibt es seit den 1940er Jahren unzählige Beispiele für Thriller oder Dramen, teils von sehr namhaften Regisseuren, in denen typische Motive Hitchcocks oder seine Stilelemente bewusst kopiert oder variiert werden. Manche dieser Filme sind als Hommage des jeweiligen Regisseurs an Hitchcock zu verstehen, in anderen Fällen wurde Hitchcocks Stil übernommen, da er sich als erfolgreich und wirksam erwiesen hat. USA. Insbesondere Hitchcocks Erfolgsfilme aus den 1950er bis Anfang der 1960er Jahre inspirierten in den Folgejahren Hollywood-Produktionen, die inhaltlich oder stilistisch oft mit Hitchcock in Verbindung gebracht werden. Zu den vielen Hollywood-Regisseuren, die Alfred Hitchcock mehr oder weniger direkt beeinflusste, zählt Brian De Palma, der mit vielen Verweisen und Zitaten auf Hitchcocks Werk arbeitet. Überdies übernahm er in einigen Filmen Grundstrukturen aus dessen Filmen. So entwickelt er in "Dressed to Kill" (1980) das Grundmotiv aus "Psycho" weiter und zitiert aus weiteren Hitchcock-Filmen. 1976 lehnte sich "Schwarzer Engel" stark an "Vertigo" an. 1984 spielt de Palma in "Der Tod kommt zweimal" mit eindeutigen Bezügen auf "Das Fenster zum Hof" und "Vertigo". Auch wenn Steven Spielberg selten direkt stilistische Motive kopiert oder adaptiert und nur wenige seiner Filme thematische Parallelen aufzeigen, erinnert "Der weiße Hai" (1975) in Spannungsaufbau und Dramaturgie an "Die Vögel" und ist die "Indiana-Jones-"Filmreihe (1981–1989) stark von "Der unsichtbare Dritte" (1959) beeinflusst. Auch ein Film wie "Schindlers Liste" (1993) wäre in dieser Form ohne den Einfluss Hitchcocks nicht möglich gewesen. Der von Hitchcocks Kameramann Irmin Roberts entwickelte Vertigo-Effekt wird bisweilen auch als „Jaws Effect“ bezeichnet, da Spielberg diese relativ schwierig umzusetzende Kameraeinstellung im "Weißen Hai" (Originaltitel: "Jaws") als einer der ersten prominenten Regisseure 16 Jahre nach "Vertigo" einsetzte. Inzwischen gehört dieser emotional sehr wirkungsvolle Kameratrick zum Standardrepertoire des Hollywood-Kinos. Weitere amerikanische Regisseure, die erkennbar von Hitchcock beeinflusst wurden oder sich auf dessen Werk berufen, sind John Carpenter, David Fincher, David Mamet, Quentin Tarantino, Martin Scorsese, David Lynch und M. Night Shyamalan. Frankreich. Bereits seit Mitte der 1950er Jahre war Hitchcock insbesondere in Frankreich bei den Vertretern der Nouvelle Vague hoch angesehen. 1957 veröffentlichten die damaligen Filmkritiker und späteren Regisseure Éric Rohmer und Claude Chabrol das erste Buch über ihn. 1956 erschien ein Sonderheft der "Cahiers du cinéma," das maßgeblich zu Hitchcocks Popularität in Frankreich beitrug. Als er im Mai 1960 zu einem Filmfestival reiste, das die Cinémathèque française ihm zu Ehren in Paris abhielt, wurde er von Dutzenden jungen Filmemachern frenetisch gefeiert. Die internationale Ausgabe der "Herald Tribune" schrieb, dass Hitchcock in dieser Woche „das Idol der französischen Avantgarde geworden“ sei. Im August 1962 gab Hitchcock dem damals dreißigjährigen französischen Filmkritiker und Regisseur François Truffaut ein fünfzigstündiges Interview. Truffaut befragte Hitchcock chronologisch zu dessen bisherigen achtundvierzig Filmen. Das Interview erschien 1966 als "Mr. Hitchcock, wie haben Sie das gemacht?" in Buchform und gilt als Standardwerk der Filmliteratur. Einzelne Filme Truffauts zeigen den Einfluss Hitchcocks deutlich, etwa "Die Braut trug schwarz" (1968) oder "Das Geheimnis der falschen Braut" (1969), die Geschichte eines Mannes, der einer Betrügerin und Mörderin verfällt und auch nicht von ihr lassen kann, als sie ihn zu töten versucht. Der Film ist stark von verschiedenen inhaltlichen und stilistischen Motiven aus "Vertigo", "Marnie" und "Verdacht" beeinflusst. Sein letzter Film "Auf Liebe und Tod" (1983), in dem ein unschuldiger Mann eines Mordes beschuldigt wird, ist voll von hitchcockschen Motiven und Anspielungen auf dessen Werk. Weitere Filme, die Truffaut selbst in der Tradition Hitchcocks sah, waren "Die süße Haut" und "Fahrenheit 451". 1968/69 besetzte Hitchcock die bevorzugte Schauspielerin Truffauts, Claude Jade, für seinen Film "Topas". In vielen Filmen von Claude Chabrol wird eine scheinbar heile bürgerliche Welt angegriffen und durcheinandergebracht. Die hitchcockschen Hauptmotive der Schuldübertragung sowie der doppelten oder der gespaltenen Persönlichkeit tauchen bei Chabrol immer wieder auf. Einige Beispiele sind "Schrei, wenn du kannst" (1959), "Das Auge des Bösen" (1962), "Der Schlachter" (1970) und "Masken" (1987). Neben Chabrol und Truffaut haben sich in Frankreich unter anderen auch Henri-Georges Clouzot und René Clément des hitchcockschen Repertoires bedient. Übriges Europa. Außerhalb Frankreichs war in Europa der unmittelbare Einfluss Hitchcocks auf andere Filmemacher deutlich geringer. Einige europäische oder europäischstämmige Regisseure haben jedoch einzelne Filme gedreht, denen eine Stilverwandtschaft anzuerkennen ist oder die unmittelbar als Hommage an Hitchcock gedacht sind, zum Beispiel "Ministerium der Angst" von Fritz Lang (1943), "Der dritte Mann" von Carol Reed (1949), "Zeugin der Anklage" von Billy Wilder (1957), "Frantic" von Roman Polański (1988) und "Schatten der Vergangenheit" von Kenneth Branagh (1991). Filmografie. Alle Filme, an denen Hitchcock beteiligt war, in der Reihenfolge ihrer Produktion: 1940–1947. In diese Phase fällt auch Hitchcocks einzige Mitarbeit an einem längeren Dokumentarfilm "(German Concentration Camps Factual Survey)" von Mai bis Juli 1945 in London. Er hat dies später im Interview als seinen Beitrag zum Krieg bezeichnet. Der Film wurde nicht fertiggestellt. 1948–1957. Zwischen 1955 und 1965 trat der Regisseur in insgesamt 360 Folgen der Fernsehserien "Alfred Hitchcock Presents" (267 Folgen) und "The Alfred Hitchcock Hour" (93 Folgen) in der Rolle des Gastgebers auf. Auszeichnungen. Hitchcock wurde sechsmal für den Oscar nominiert: fünfmal für die Beste Regie, einmal für den Besten Film (als Produzent). Alle sechs Mal ging er leer aus, was ihn zu dem Kommentar veranlasste: „Immer nur Brautjungfer, nie die Braut“. Bei der Oscarverleihung 1968 gewann er den Irving G. Thalberg Memorial Award, einen Sonderpreis für besonders kreative Filmschaffende. Zudem wurde Rebecca 1941 mit dem Oscar für den besten Film ausgezeichnet. Alfred Hitchcock zählt, gemeinsam mit Stanley Kubrick, Federico Fellini und Ingmar Bergman, zu den aus Sicht von Filmkritikern wohl bedeutendsten Regisseuren. Diese vier sind die einzigen Filmregisseure, die mindestens vier Mal auf der Liste der 100 Filme mit den besten Kritikerbewertungen auf der Website "They Shoot Pictures" vertreten sind, für die über 9000 Filmkritiken und Kritikerumfragen der letzten Jahrzehnte ausgewertet wurden. Zu den vier Hitchcock-Filmen, die vertreten sind, zählen "Vertigo – Aus dem Reich der Toten" (Platz 2), "Psycho" (Platz 23), "Das Fenster zum Hof" (Platz 41) und "Der unsichtbare Dritte" (Platz 59). Er wurde mit zwei Sternen auf dem Hollywood Walk of Fame geehrt. Den einen in der Kategorie Film findet man bei der Adresse 6506 Hollywood Blvd, den anderen in der Kategorie Fernsehen am 7013 Hollywood Blvd. Biografische Spielfilme über Hitchcock. Regie: Julian Jarrold; Besetzung: Toby Jones (Alfred Hitchcock), Sienna Miller (Tippi Hedren), Imelda Staunton (Alma Reville Hitchcock), Conrad Kemp (Evan Hunter), Penelope Wilton (Peggy Robertson) Regie: Sacha Gervasi; Besetzung: Anthony Hopkins (Alfred Hitchcock), Helen Mirren (Alma Reville Hitchcock), Scarlett Johansson (Janet Leigh), Danny Huston (Whitfield Cook), Toni Collette (Peggy Robertson), Michael Stuhlbarg (Lew Wasserman), Michael Wincott (Ed Gein), Jessica Biel (Vera Miles), James D’Arcy (Anthony Perkins) Literatur. Werkschauen. Sortiert in der chronologischen Reihenfolge der jeweiligen Originalausgabe. Anmerkungen. Hauptquellen sind die beiden Biografien von Taylor und Spoto sowie die Bücher von Truffaut und Krohn.
78
234542790
https://de.wikipedia.org/wiki?curid=78
Auteur-Theorie
Die Auteur-Theorie (von ) ist eine Filmtheorie und die theoretische Grundlage für den Autorenfilm – insbesondere den französischen – in den 1950er Jahren, der sich vom „Produzenten-Kino“ abgrenzte. Auch heute noch wird die Definition des "Auteur"-Begriffs ständig weiterentwickelt. Im Zentrum des Films steht für die Auteur-Theorie der Regisseur oder Filmemacher als geistiger Urheber und zentraler Gestalter des Kunstwerks. Geschichte der Auteur-Theorie. Ende der 1940er Jahre wurde eine erste Auteur-Theorie von dem französischen Filmkritiker Alexandre Astruc formuliert, indem er die Frage nach dem geistigen Besitz eines Films aufwarf. Im traditionellen Schaffensprozess lassen sich die Anteile von Drehbuchautor, Kameramann und Filmregisseur am Gesamtwerk nur schwer zuordnen. Durch die Zuteilung der Teilaufgaben als Honorartätigkeit durch die Filmgesellschaften leide die Kreativität, so die These. Im Umkehrschluss fordert diese Theorie die Zusammenführung der Tätigkeiten zu einer kreativen Einheit. Er formulierte seinen Entwurf in dem Aufsatz „La caméra-stylo“. Die Kamera sollte wie ein Stift verwendet werden. Er war sich sicher, dass bedeutende Schriften in Zukunft nicht mehr als Text, sondern mit der „Kamera geschrieben“ würden. Doch durchgesetzt haben sich solche und ähnliche Ideen der Auteur-Theorie erst in den 1950er Jahren. Deren gängiger Begriff als Wegbereiter für die heutige Auteur-Theorie lautete zunächst "politique des auteurs" (Autoren-Politik), was erst im Laufe der Zeit zur "Theorie" umgeformt wurde. Das Wort "politique" bzw. Politik stand hier also eher für Parteilichkeit, welche für filmwissenschaftliche Diskussionen eher hinderlich ist (siehe unten). Die "politique des auteurs" wurde zu dieser Zeit von einer Gruppe von jungen Filmkritikern um André Bazin entwickelt, die für die Filmzeitschrift "Cahiers du cinéma" schrieben. Eine wesentliche Rolle spielte dabei François Truffaut: Im Januar 1954 veröffentlichte er seinen Aufsehen erregenden Aufsatz "Eine gewisse Tendenz im französischen Film" ("Une certaine tendance du cinéma français"), in dem er sich mit scharfer Polemik gegen den etablierten französischen „Qualitätsfilm“ wandte. Bei diesem trat der Regisseur gegenüber dem Drehbuchautor und dem Autor der literarischen Vorlage oft in den Hintergrund. Truffaut plädierte dagegen für einen Film, bei dem Form und Inhalt vollständig vom Regisseur selbst als dem eigentlichen „auteur“ des Films bestimmt werden. Er fand das bei traditionell als Autoren ihrer Filme betrachteten europäischen Regisseuren wie Luis Buñuel, Jean Renoir und Roberto Rossellini, außerdem aber auch und vor allem bei Regisseuren wie Alfred Hitchcock, Howard Hawks, Fritz Lang und Vincente Minnelli, die (zum großen Teil als Vertragsregisseure) im Studiosystem Hollywoods arbeiteten, deren Filme aber trotzdem einen persönlichen Stil aufweisen. Das Konzept des Regisseurs als "auteur" seiner Filme wurde für die Filmkritik der "Cahiers du cinéma" bestimmend, und damit für die Regisseure der Nouvelle Vague, die daraus hervorgingen, neben Truffaut etwa Jean-Luc Godard, Jacques Rivette oder Claude Chabrol – Filmemacher, die sich zur Umsetzung ihrer künstlerischen Ziele einer jeweils ganz eigenen filmischen Form bedienten. Roland Barthes hingegen misst in seinem Essay "La mort de l'auteur" (1968, "Der Tod des Autors") dem Autor für die Literatur eine weitaus geringere Bedeutung bei, als es bisher der Fall war. Der „Auteur-Dieu“ („Autoren-Gott“) wird von Barthes durch den „écrivain“ (den Schriftsteller) ersetzt und folgt damit einer Kritik, die Julia Kristeva bereits 1967 in ihrem Aufsatz "Bakhtine, le mot, le dialogue et le roman" ("Bachtin, das Wort, der Dialog und der Roman", 1972) aufbrachte. Für den europäischen Film blieb die Auteur-Theorie aber noch bis in die 1970er prägend. Danach setzte auch hier eine Abkehr von der „verhängnisvollen Macht der Regisseure“ (Günter Rohrbach) ein. Wirtschaftlicher Druck zwang zur Rückkehr zu einer arbeitsteiligen Produktionsweise, wie sie für den Produzenten-Film charakteristisch ist. Damit einher ging notwendigerweise auch wieder die Einigung aller Beteiligten auf einen kleinsten gemeinsamen Nenner und somit auch häufig eine gewisse Banalisierung der Filminhalte, die umso stärker zu Tage tritt, je weniger der Produzent als Projektverantwortlicher in den eigentlichen schöpferischen Prozess eingebunden ist. In der Filmwissenschaft wurden auch immer neue Autorschaften von Teammitgliedern entdeckt. In der Realität ist Film Teamarbeit und es ist dem Film nicht anzusehen, ob zum Beispiel die Idee für eine Einstellung nun vom Regisseur oder vom Kameramann stammt. Im Dogma-Film ist der Kameramann nicht weisungsgebunden. Die „Polnische Schule“ bindet den Kameramann bereits in den Prozess des Drehbuchschreibens ein. Unerfahrene Regisseure sind meist sehr auf die Kreativität des Kameramanns oder der Kamerafrau und anderer Teammitglieder angewiesen. Durch das Aufkommen digitaler Aufnahmetechniken wie Digital Video seit Ende der 1990er Jahre sehen viele Filmemacher, wie etwa Wim Wenders, wieder günstigere Bedingungen für individuelle, subjektive Produktionen gegeben. Kritik und Diskussion. Die von François Truffaut und Jean-Luc Godard proklamierte „politique des auteurs“ (Autorenpolitik) der fünfziger Jahre war ursprünglich ein Versuch, bestimmte Regisseure wie Alfred Hitchcock als Künstler anzuerkennen, die ihre völlig eigene Bildsprache entwickelten oder, wie Truffaut selber, sämtliche Aspekte ihrer Filme selbst bestimmten. Ein Autorenfilmer ist demnach ein Regisseur, der einen Film – möglichst ohne Kompromisse – so gestaltet, wie er ihn selbst haben möchte. Die „politique des auteurs“ geriet schnell in die Kritik. Kritiker wie Andrew Sarris und Peter Wollen wiesen auf ein empirisches Problem hin: Niemand kann beweisen, wie viel Einfluss der Regisseur wirklich auf seine Filme hatte bzw. welchen Einfluss Form und Inhalt wirklich auf das haben, was wir als Autorschaft wahrnehmen. Als Beispiel hierfür gilt der Vorspann von "Vertigo – Aus dem Reich der Toten" (1958), den Alfred Hitchcock nicht selbst angefertigt hat, oder die Tatsache, dass viele seiner Filme auf einer Buchvorlage fremder Autoren basieren und selbst die Drehbücher selten von ihm selbst stammten. Gerade Hitchcock aber ist eine zentrale Figur in der „politique des auteurs“. Wie der Name „politique des auteurs“ sagt, handelte es sich um eine Politik, einen gezielten polemischen Eingriff. Der Village-Voice-Kritiker Andrew Sarris übersetzte „politique des auteurs“ jedoch 1962 mit „auteur theory“, wobei unklar blieb, in welchem Sinne es sich hier tatsächlich um eine "Theorie" handelt. Sarris popularisierte diese „Theorie“ im englischen Sprachraum und benutzte sie vor allem, um die absolute Überlegenheit des Hollywood-Kinos darzulegen, war er doch davon überzeugt, es sei „the only cinema in the world worth exploring in depth beneath the frosting of a few great directors at the top“. Nun war die Frage: Wo ist die Grenze? "Wen" oder vielmehr "was" nehmen wir als Autor wahr? Sarris unterteilte die Regisseure in verschiedene Kategorien, in die Spitze setzte er ein Pantheon der seiner Ansicht nach 14 besten Regisseure, die bisher in den USA gearbeitet hatten. Als Gegenspielerin von Sarris etablierte sich in den USA mit ihrem Essay "Circles and Squares" vor allem Pauline Kael. Sie kritisierte an der Auteur-Theorie, dass sie vor allem retrospektiv funktioniere und verschiedene Regisseure auf dogmatische Weise gegeneinander aufwäge. Kael wollte Filme eher als Einzelwerk und weniger im Gesamtwerk eines Regisseurs sehen. Soziologisch gesehen war die Autorentheorie eine Distinktionsstrategie junger Kritiker, die auf sich aufmerksam machen wollten. Godard hat dies später offen zugegeben: „Wir sagten von Preminger und den anderen Regisseuren, die für Studios arbeiteten, wie man heute fürs Fernsehen arbeitet: ‚Sie sind Lohnempfänger, aber gleichzeitig mehr als das, denn sie haben Talent, einige sogar Genie …‘, aber das war total falsch. Wir haben das gesagt, weil wir es glaubten, aber in Wirklichkeit steckt dahinter, dass wir auf uns aufmerksam machen wollten, weil niemand auf uns hörte. Die Türen waren zu. Deshalb mussten wir sagen: Hitchcock ist ein größeres Genie als Chateaubriand.“ In den siebziger Jahren folgte dann die stärkste Kritik an der „politique des auteurs“. Roland Barthes proklamierte bereits 1968 vor einem poststrukturalistischen Hintergrund den „Tod des Autors“. Der Autor wurde nun aufgrund des empirischen Dilemmas der Beweisbarkeit von Autorschaften als Image-Figur erkannt, die sich aus ihrer Umwelt formt und in die Werke einschreibt. Auch von feministischer Seite wurde die „politique des auteurs“ scharf angegriffen, diene sie doch dazu, den kollektiven Charakter des Filmemachens zu verdecken und in der Tradition patriarchaler Heldenverehrung Männer zu Superstars zu stilisieren. Claire Johnston verteidigte den Ansatz insofern, als dieser einer zu monolithischen Sicht des Hollywood-Kinos entgegenwirke. In den neunziger Jahren schließlich ging die Tendenz zu der Annahme, dass Autorschaften zum Großteil (z. T. kommerziell) konstruiert sind. Timothy Corrigan nennt dies den „commercial auteur“. Es wird damit gerechnet, dass das Publikum den Film eines als Autor bekannten Regisseurs als z. B. „Der neue Woody Allen!“ wahrnimmt, ohne wirklich zu wissen, wie viel Einfluss Woody Allen tatsächlich auf den Film hatte. Dana Polan verfolgte einen weiteren interessanten Ansatz: Er sieht den „auteurist“ als Hauptverantwortlichen für konstruierte Autorenbilder. Das sind Kritiker, die den Autor als höchste Instanz suchen und damit – wie François Truffaut – auf einen Filmemacher als Künstler hinweisen wollen und nebenbei ihre eigene Erkenntniskraft zelebrieren. Der Begriff dafür lautet „Auteur Desire“. Dieser Ansatz zeigt noch einmal den größten Vorwurf gegenüber der „politique des auteurs“ auf. Trotzdem ist die Nennung eines Regisseurs parallel zu – beispielsweise – einem Buchautor als Schöpfergeist auch unter reflektierenden Filmkritikern und -wissenschaftlern weiterhin außerordentlich beliebt. Steckt also doch mehr dahinter? Ein neuerer Ansatz, die kontextorientierte Werkanalyse von Jan Distelmeyer, versucht diese Frage zu klären. Als Grundlage dienen Publikums- und Kritikerrezeption auf der einen Seite und die Konstruktion des Autors aus Biografie, Filmindustrie und kulturellem Umfeld auf der anderen Seite. Diese zweiseitige Annäherung erkennt das empirische Dilemma der Definition von „auteur“ an und maßt sich auch keine Bestimmung dessen an, was jetzt eigentlich das Werk von Autor XYZ ist. Viele andere Filmtheoretiker verfolgen heutzutage ähnliche Konzepte. Doch auch eine solch freie Handhabung kann das Problem nicht vollständig lösen, da die wichtigsten Elemente variabel sind und sich so einer eindeutigen Aussage verschließen. Der Schwerpunkt kritischer Tendenzen liegt also zum Großteil in der Empirie. Einen Filmemacher als „auteur“ anzuerkennen fordert uneingeschränktes Vertrauen in seine Aussagen, wie viel Einfluss er auf seine eigenen Filme hatte. Da dies in Zeiten einer sehr starken Vermarktung aller möglichen mehr oder weniger (un)abhängigen Regisseure seitens von Filmindustrie und Verleih ein fast aussichtsloses Unterfangen ist, ist ein Restzweifel und das stete Hinterfragen der „auteur“-Definition angebracht (weitere Quellenangaben zu diesem Abschnitt "Kritik und Diskussion" im Literaturverzeichnis).
79
234724139
https://de.wikipedia.org/wiki?curid=79
Aki Kaurismäki
Aki Olavi Kaurismäki (* 4. April 1957 in Orimattila) ist ein vielfach preisgekrönter finnischer Filmregisseur. Leben und Werk. Aki Kaurismäki studierte an der Universität Tampere Literatur- und Kommunikationswissenschaften. Neben diversen Aushilfsjobs, etwa als Briefträger oder in der Gastronomie, war er Herausgeber eines universitären Filmmagazins. Darüber hinaus schrieb er von 1979 bis 1984 Filmkritiken für das Magazin "Filmihullu". Das erste Drehbuch folgte 1980 für den mittellangen Film "Der Lügner (Valehtelija)", bei dem sein Bruder Mika Regie führte. Kaurismäkis Filme thematisieren häufig Schicksale von gesellschaftlichen Außenseitern in städtischen Zentren wie Helsinki. Sie sind nicht nur für ihre sparsamen Dialoge, sondern auch für einen skurril-lakonischen Humor bekannt. Kaurismäki arbeitet regelmäßig mit einem festen Stamm befreundeter Schauspieler und Musiker, die seine Filme auch stilistisch geprägt haben: Matti Pellonpää, Kati Outinen, Kari Väänänen und Sakke Järvenpää. Als Reminiszenz an Alfred Hitchcock hat er in seinen Filmen gelegentlich Cameo-Auftritte, was auch Hitchcock zu tun pflegte. In Deutschland wurden seine Filme zum ersten Mal 1986 auf dem Filmfestival "Grenzland-Filmtage" in Selb gezeigt. Aki Kaurismäki führte dabei die Filme "Der Lügner, Calamari Union" und "Crime and Punishment" persönlich vor. Während des Festivals schrieb er das Drehbuch für seinen Film "Schatten im Paradies," den er 1988 erneut persönlich bei den Grenzland-Filmtagen in Selb präsentierte. Dieser Film brachte ihm den internationalen Durchbruch. Ein Großteil der Filmmusik kam von der Band "Nardis" aus Erlangen, die Kaurismäki 1986 auf den Grenzland-Filmtagen kennengelernt hatte. Dem breiten deutschen Publikum bekannt wurde der finnische Regisseur durch seine Teilnahme an der Berlinale 1988. Im Jahre 2006 wurde sein Film "Lichter der Vorstadt" als offizieller finnischer Beitrag für eine Oscar-Nominierung gewählt, Kaurismäki lehnte die Entsendung jedoch ab (siehe auch Politische Stellungnahmen und Proteste). Zusammen mit seinem Bruder Mika Kaurismäki gründete er das Midnight Sun Film Festival im lappischen Sodankylä sowie die Verleihfirma Villealfa. Der Name geht zurück auf die Figur Ville Alfa, den Protagonisten im Film "Der Lügner". Gleichzeitig handelt es sich um ein Anagramm von "Alphaville," einem Film von Jean-Luc Godard. 1989 emigrierte Kaurismäki mit seiner Frau nach Portugal, weil „es in ganz Helsinki keinen Platz mehr gebe, wo er seine Kamera noch postieren könne“. Rainer Gansera, der für die Zeitschrift epd Film mit dem „Chef-Melancholiker des europäischen Autorenkinos“ 2006 in Hof gesprochen hat, zeigte sich auch von seinem Auftreten persönlich beeindruckt und beschrieb atmosphärisch: Als persönliche Leitbilder will Kaurismäki Bresson, Ozu und Godard gesehen haben, der Ausbildung an den Filmhochschulen seines Landes dagegen habe er nicht viel Positives abgewinnen können. Bei "Pandora" sind Ende 2006 als „Aki Kaurismäki DVD-Collection“ 14 Spielfilme und fünf Kurzfilme (mit digital restaurierten Bildern) in vier Boxen erschienen. 2011 stellte Kaurismäki nach fünf Jahren mit "Le Havre" einen Spielfilm fertig, der ihm wieder einmal eine Einladung in den Wettbewerb der Filmfestspiele von Cannes einbrachte. Der in Frankreich gedrehte Film handelt von einem Schuhputzer aus der gleichnamigen Hafenstadt, der sich eines illegalen Flüchtlingskindes aus Afrika annimmt. "Le Havre" gewann in Cannes den FIPRESCI-Preis. Für den Spielfilm "Die andere Seite der Hoffnung" erhielt Kaurismäki 2017 eine Einladung in den Wettbewerb der 67. Internationalen Filmfestspiele Berlin. Der Film spielt in Helsinki und erzählt von der Begegnung eines älteren finnischen Handelsvertreters (dargestellt von Sakari Kuosmanen) mit einem jungen syrischen Flüchtling (Sherwan Haji). Der Film kam am 3. Februar 2017 in die finnischen Kinos. Im Jahr 2023 erhielt er für seinen Spielfilm "Fallende Blätter" erneut eine Einladung in den Wettbewerb um die Goldene Palme des Filmfestivals von Cannes. Das Werk erhielt dort den Preis der Jury zuerkannt. Politische Stellungnahmen und Proteste. Neben den politischen Botschaften, die mehr oder wenig deutlich in seinen Filmen enthalten sind, hat Kaurismäki auch wiederholt demonstrativ bis provokativ kritisch zum offiziellen Kulturleben, den damit verbundenen Auszeichnungen und zur jeweils aktuellen Politik geäußert. Im Jahr 1984 äußerte sich in der finnischen Illustrierten Seura: „An dem Tag, an dem ich eine Einladung zum jährlichen Ball des Präsidenten anlässlich der finnischen Selbstständigkeit erhalte, begehe ich unverzüglich Selbstmord.“ Der genannte Ball gilt als der absolute Höhepunkt des gesellschaftlichen und politischen Lebens in Finnland mit Rekordpublikum bei der Fernsehübertragung und zahlreichen Sonderseiten in der Tagespresse. Kaurismäki selbst erklärte die Äußerung als einen Vertrag mit der Gesellschaft, dass es nie zu einer solchen Ehrung kommen würde. Im Jahr 2001 lehnte er die Ehrendoktorwürde der Kunsthochschule Helsinki ab, da diese auch an die landesweit bekannte Modeunternehmerin Kirsti Paakkanen verliehen wurde. Dies begründete er mit Unterstützung der Pelztierzucht durch Paakkanens Unternehmen Marimekko. Für großes Aufsehen sorgte Kaurismäki im Herbst 2006, als er sich weigerte, seinen Film "Lichter der Vorstadt" als offiziellen finnischen Beitrag für eine Oscar-Nominierung in der Kategorie Bester fremdsprachiger Film zuzulassen, obwohl das Drama von der finnischen Filmkammer einstimmig ausgewählt worden war. Kaurismäki begründete seine Ablehnung mit seiner seit Jahren vertretenen kritischen Haltung gegen den Irak-Krieg der USA. Im Jahr 2019 gab er seinen staatlichen Ehrentitel „Akademiker der Künste“ (taiteen akateemikko) zurück. Als Begründung führte er die aktuelle finnische Regierungspolitik, die eine Steigerung der Abholzung der Wälder zulasse und ausländische Bergbaukonzerne fördere, um die Sanierung der zerstörten Umwelt dann durch den Steuerzahler bezahlen zu lassen. Dass er den Titel im Jahre 2008 überhaupt angenommen hatte, ist als Abweichung zu seiner früheren regierungs- und gesellschaftskritischen Haltung zu sehen. Offensichtlich wurde dies dadurch erleichtert, dass die Verleihung durch die politisch links eingeordnete Präsidentin Tarja Halonen erfolgt war.
80
31609
https://de.wikipedia.org/wiki?curid=80
Muhammad ibn Musa al-Chwarizmi
81
530688
https://de.wikipedia.org/wiki?curid=81
Anime
Anime (japanisch , [], deutsch häufig [], Plural: "Animes" und "Anime") bezeichnet in Japan produzierte Zeichentrickfilme und Zeichentrickserien. In Japan selbst steht "Anime" für alle Arten von Animationsfilmen und -serien, für die im eigenen Land produzierten ebenso wie für importierte. Er bildet das Pendant zum Manga, dem japanischen Comic. Japan besitzt die umfangreichste Trickfilmkultur weltweit. Definition und Begriffsgeschichte. Im Japanischen kann „Anime“ jegliche Animationsfilme bezeichnen, sowohl die aus dem eigenen Land als auch aus dem Ausland. Außerhalb Japans wird der Begriff ausschließlich für Animationsfilm japanischer Herkunft verwendet. Historisch wurden Animationsfilme in Japan lange Zeit nicht "Anime" genannt. Zu Beginn des 20. Jahrhunderts gab es zunächst die Worte "senga" („Linienkunst“) und "kuga" („Klapp-Bilder“, vgl. Daumenkino), "dekobō shin gachō" („schelmische neue Bilder“) oder "chamebō-zu" („verspielte Bilder“). Später kamen "manga eiga" (, „Manga-Filme“) und "dōga" (, „bewegte Bilder“) auf. Erst in den 1970er Jahren tritt das Wort "Anime" in Japan zusammen mit der Wortschöpfung "Japanimation" auf. Letztere wird ausschließlich für die damals erstmals stark wachsende eigene Animationsbranche verwendet. "Anime" entstand als eine Verkürzung des japanischen Lehnwortes "animēshon" (, von ). Während "animēshon" eher als Bezeichnung für höher geachtete Animationskunst und Kinofilme verwendet wurde, wurde dessen Kurzform vor allem für die ab den 1960er entstehenden, günstiger produzierten Fernsehserien verwendet. Letztlich setzte sich "Anime" als Bezeichnung aller Animationsproduktionen durch. Die anderen Begriffe blieben nur in Nischen erhalten. Als Bezeichnung nur für japanische Animationsfilme und -serien hat sich der Begriff seit den 1980er Jahren in den USA und Europa durchgesetzt. Im englischen Sprachraum wurde seit Ende der 1970er Jahre in der kleinen Fanszene und von ersten kommerziellen Vertrieben zunächst häufiger "Japanimation" verwendet, was jedoch zu Verballhornungen und Missverständnissen führte. So wurde dieses Wort um 1990 von dem aus Japan übernommenen, kürzeren "Anime" abgelöst. Im wissenschaftlichen oder journalistischen Diskurs ist die genaue Abgrenzung zwischen Anime und Animation allgemein jedoch umstritten, auch wenn Anime und japanischer Animationsfilm meist synonym verwendet werden. So nennt Thomas Lamarre eine Abgrenzung von Full Animation und Limited Animation im japanischen Diskurs. Anime, besonders Fernseh-Anime in der einfachen, kostengünstig produzierten Form der 1960er Jahre wird dann als eine Form der Limited Animation aufgefasst. Produzenten von Full Animation wollen sich davon abgrenzen. Beispielsweise lehnt das Studio Ghibli den Begriff "Anime" für ihre Filme ab und verwendet stattdessen "manga eiga". Aufwändige Filme und Fernsehproduktionen haben jedoch gemeinsam, dass die Ästhetik traditioneller Animationstechniken fast immer erhalten wird, auch wenn vielfach Computeranimationen zum Einsatz kommen. Reine Computeranimationsfilme, denen diese Technik auch anzusehen ist und die nach Realismus streben, kommen zwar vor, sind aber eine Ausnahme. Stevie Suan und José Andrés Santiago Iglesias nennen eine Reihe von Stil-Merkmalen, die japanischen Fernsehproduktionen und solchen mit japanischem Einfluss zu eigen sind: Eine durchgehende Erzählung über alle Folgen, der Gebrauch von Cliffhangern und deren Auflösung durch Eukatastrophen, reduziertes und ikonisches Charakterdesign, größere Vielfalt in der Farbpalette, Gebrauch von Limited Animation und die Erzeugung eines Raumeindrucks durch Bewegung sowie der Einsatz vieler Schnitte, Kameraeinstellungen und Montagen zur Darstellung vieler Perspektiven und Details einer Szene. Die Gesamtheit dieser Merkmale fassen Suan und Iglesias unter dem Begriff "animesque" zusammen. Ein "animesque"s Werk wird von Fans als Anime erkannt, da es die erzählerischen und formalen Erwartungen erfüllt, die mit dem japanischen Animationsfilm verbunden werden. Brian Ruh verweist neben den von Iglesias genannten Stilmerkmalen auf die Transnationalität des Mediums Anime, die sich in dessen Geschichte als auch in international verständlichen Designs äußert. Ähnlich beschreiben auch andere Autoren ein Verständnis von Anime als in einen Medienmix eingebundene (Fernseh-)Serienproduktionen mit auch in ihren Filmadaptionen wiedererkennbaren, im Fernsehen entstandenen Stil- und Erzählmerkmalen. Daneben gibt es Produkte des japanischen Animationsfilms, die von einigen Rezipienten nicht als Anime angesehen werden, sondern einem unbestimmten Alternativen japanischen Animationsfilm oder nur allgemein Animationsfilm zugerechnet werden. Jonathan Clements weist ebenfalls auf mehrere Abgrenzungsunschärfen des Begriffs hin: Neben der technischen zwischen Full und Limited Animation gibt es Autoren, die Anime historisch abgrenzen als japanischen Animationsfilm ab den Fernsehserien der 1960er Jahre. Japanischer Animationsfilm aus der Zeit davor wird dann nicht als Anime bezeichnet, obwohl die frühen Filme von großer Bedeutung für die späteren Produktionen waren. Weitere Unschärfen ergeben sich aus dem umfangreichen Prozess von Produktion, Vertrieb und Konsum. So sind einige ausländische – insbesondere US-amerikanische – Trickfilmproduktionen unter japanischer Mitwirkung oder sogar großteils in Japan entstanden, andererseits waren japanische Unternehmen Auftraggeber für Animationsarbeit in anderen Staaten, und schließlich sind bei der Lokalisierung, Vertrieb und Vermarktung ausländischer Produktionen japanische Firmen beteiligt. All die damit in Verbindung stehenden Werke können daher auch als Teil der japanischen Animationsfilmindustrie beziehungsweise von dessen Geschichte begriffen werden. Und schließlich gehören zu Anime nicht nur die Objekte, die hergestellten und verkauften Werke, sondern auch die Ereignisse der Vorführung und des Konsums. So kann der Begriff je nach Kontext und Zeit unterschiedliche Erwartungen wecken und Bedeutungen haben. Steven T. Brown geht so weit, die Bedeutung des Begriffs Anime in der Präsentation und Anordnung der Informationen bei der Vorführung und in der Interaktion des Rezipienten mit dem Werk zu suchen. In der Beschreibung von Anime als Medium wird auch oft darauf hingewiesen, wie stark sich der japanische Animationsfilm von dem unterscheidet, was westliche Zuschauer von Animationsfilmen – insbesondere amerikanischen Cartoons oder Filmen von Walt Disney – erwarten. Viele Animes sind nicht für Kinder gemacht, manche sogar pornografischer Natur, erzählen dramatische oder actionreiche Geschichten und bedienen eine große Vielfalt an Genres. Im Vergleich zu vielen im Westen erfolgreichen Trickfilmen kommen Musicaleinlagen, Tierfiguren und Slapstick-Humor deutlich seltener vor. Trotz dieser häufig genannten Merkmale beziehungsweise auffälligen Unterschiede werden diese nicht zur Definition herangezogen. Als Anime um 2000 herum in den USA immer größeren Zuspruch fanden, zugleich aber Vorurteile gegenüber einem als für Kinder gefährlichen Kulturimports herrschten, wurde "Anime" auch abwertend verwendet – vor allem von solchen Vertrieben, die selbst japanische Animationsfilme importierten und ihre Produkte vor den Vorurteilen schützen wollten. Historische Entwicklung. Die Einteilung sowie überhaupt der Beginn der Geschichte des Animes ist – wie auch beim Manga – in Forschung und Fachjournalismus umstritten. Je nach Definition von Anime als Medium oder nur eine bestimmte Erscheinungsform von japanischem Animationsfilm oder als Genre, wird der Beginn von dessen Geschichte am Anfang des 20. Jahrhunderts, erst in dessen Mitte oder erst in den 1970er Jahren gesehen. So ist die genaue Rolle und Wirkung Osamu Tezukas als Pionier des Fernsehanimes strittig, da einige Autoren viele wichtigen Entwicklungen bereits zuvor bei den Kinofilmen Tōei Animation angelegt sehen. Animationstechniken und optische Spielzeuge waren in Japan bereits lange vor 1900 bekannt und wurde wie in westlichen Ländern vor allem von Schaustellern vorgeführt oder waren für wohlhabende Bürger als Spielzeug zu kaufen. Der manchmal als erster Anime bezeichnete Filmstreifen "Katsudō Shashin", der auf 1907 bis 1912 datiert wird, gehörte zu einem solchen Spielzeug und wurde nie öffentlich vorgeführt. Ab etwa 1910 kamen westliche Trickfilme nach Japan, wurden zunächst bei Bühnenshows und dann zunehmend in Kinos gezeigt. Erste Japanische Nachahmer sind aus dem Jahr 1917 bekannt, in dem die Pioniere Ōten Shimokawa, Jun'ichi Kōuchi und Seitarō Kitayama ihre ersten Filme aufführten. Kitayama gründete 1921 mit Kitayama Eiga Seisaku-sho das erste nur dem Animationsfilm gewidmete Studio. Die verwendeten, noch experimentellen Animationstechniken umfassten unter anderem Kreidezeichnungen, Tuschezeichnungen und Scherenschnitt. Die Aufführung von Filmen wurde damals noch begleitet von einem "Benshi", der die Kurzfilme erzählerisch verband und erläuterte. Der Beruf kam aus der Tradition der Schausteller und lebte beim Straßen-Papiertheater Kamishibai noch bis in die 1950er Jahre weiter. Wie auch der Manga wurde der japanische Animationsfilm durch die Benshi und das Papiertheater erzählerisch und ästhetisch beeinflusst. Die in den 1910er Jahren aufgekommene Filmzensur traf auch den Animationsfilm. Infolgedessen waren die entstandenen Kurzfilme meist Komödien oder zeigten japanische und chinesische Mythen, Märchen und Fabeln, die von der Zensur weniger scharf beurteilt wurden. Außerdem entstanden Lehrfilme, die durch ihre Entstehung im öffentlichen Auftrag vor Zensur sicher waren. Nachdem zu Beginn die Produktion an Trickfilmen zunahmen, wurden beim Großen Kantō-Erdbeben 1923 die Studios und die meisten bis dahin produzierten Filme zerstört. Die Branche verlagerte sich in die Kansai-Region, wo ihr Schwerpunkt bis nach dem Zweiten Weltkrieg blieb. Sie konnte sich dort von den Einflüssen der traditionellen Theater- und Schaustellerszene in Tokio lösen. Dazu kam der Einfluss amerikanischer Trickfilme, die nun zunehmen in Japan aufgeführt wurden. Die Produktion wurde rationalisiert und entfernte sich von der noch kunsthandwerklichen Herstellung der ersten Jahre. Dabei wurden einfache Kamera- und Bild-Gestelle für die Belichtung genutzt. Das verwendete Material blieb zunächst meist Papier mit Schwarz-Weiß-Zeichnungen, die Inszenierung einfach gehalten und die Studios hatten nicht mehr als eine Handvoll Mitarbeiter. Von diesen blieb Kitayamas das über lange Zeit erfolgreichste, wobei mehrere Mitarbeiter sich abwandten und eigene Studios gründeten. Der Großteil der Produktion waren nun Lehr- und Werbefilme und fiktionale Inhalte wurden die Ausnahme. Um 1930 kam der Tonfilm auch nach Japan und bereitete damit dem Beruf der Benshi ein Ende. Einige von ihnen wurden die ersten Synchronsprecher. Der aufwändige Tonfilm erhöhte auch wieder den Bedarf nach kurzen Filmen und damit nach Trickfilmen. Der von diesen wohl am häufigsten gesehene war das 1931 entstandene "Kokka Kimiyao" von Ōfuji Noburō – die japanische Nationalhymne zum Mitsingen, die zu Beginn der meisten Filmvorführungen gezeigt wurde. Während ab 1934 mit der Einrichtung einer Celluloid-Produktion von Fujifilm die Produktion von Papier auf modernere Cels umgestellt werden konnte, blieben Farbfilme bis nach dem Krieg die Ausnahme. In den 1930er Jahren wurden zunehmend Propagandafilme produziert, die vor amerikanischem Einfluss warnten und Japans Kriege in China und die Expansion im Pazifik vorbereiteten und begleiteten. Die Mehrheit der produzierten Filme waren weiterhin keine Unterhaltungsfilme, wobei der Schwerpunkt sich zu animierten Anleitungen für militärisches Personal sowie (Propaganda-)Nachrichtenfilmen verlagerte. Das Verbot ausländischer Filme, die Regierungsaufträge und der staatliche Druck insbesondere auf Schulkinder, die Filme anzuschauen, brachten den Animatoren bis dahin ungekannte Nachfrage und Ressourcen und Studios konnten über die Zahl weniger Mitarbeiter hinaus wachsen. Die japanische Regierung war außerdem gewillt, ihre Überlegenheit auch in der Filmproduktion unter Beweis zu stellen und mit den Filmen Disneys und dem chinesischen Film "Tiě shàn gōngzhǔ" von 1941 gleichzuziehen. So konnte auch der erste abendfüllende Animefilm entstehen: "". Die in schwarz-weiß erzählte Geschichte von Tieren, die Pazifikinseln von der britischen Kolonialmacht befreien und ihnen die japanische Kultur bringen, kam 1945 nicht lange vor der Kapitulation in die Kinos. Nach Ende des Krieges scheiterten Versuche, die japanischen Animatoren bei wenigen Studios zu bündeln an der schlechten Wirtschaftslage, Arbeitskämpfen und politischer Konflikte um Mitwirkung an Kriegspropaganda. Dazu kam die Konkurrenz durch die jetzt ins Land kommenden ausländischen Filme. So kamen nur noch selten japanische Animationsfilme heraus. Die nun vor allem kleinen Studios der Branche verlegten sich großteils auf Werbefilme, denen im Laufe der 1950er Jahre mit dem Privatfernsehen ein wachsender Markt entstand. Künstlerische Qualität und die Produktionsprozesse blieben hinter den Entwicklungen der vorherigen beiden Jahrzehnte zurück. In der gleichen Zeit kam es zu ersten Auftragsarbeiten für amerikanische Filmproduzenten. Diese, insbesondere Jules Bass und Arthur Rankin Jr., wurden ab den 1960er Jahren zu einem regelmäßigen Auftraggeber mehrerer japanischer Studios. Diese nur wenig sichtbare und wahrgenommene Zusammenarbeit hielt bis in die 1980er Jahre an. Von den Studiogründungen nach Kriegsende blieb nur Nichidō, das schließlich von Tōei aufgekauft wurde. Aus diesem Zusammengehen unter dem Namen Tōei Animation ging 1958 mit "Hakujaden" wieder ein abendfüllender, nun farbiger Anime-Kinofilm hervor. Er war der Beginn einer Reihe von Filmen des Studios, die als Klassiker vor der Zeit des Fernseh-Animes gelten und erheblichen Einfluss auf die späteren Produktionen hatten. Ihre Ästhetik war bereits vom zeitgenössischen Manga beeinflusst und an den Produktionen waren viele beteiligt, die später eigene Studios gründeten und dabei ihre ersten Erfahrungen von Tōei mitnahmen. Unter ihnen war der Manga-Zeichner Osamu Tezuka, der zunächst an drei Verfilmungen seiner Serien mit dem Studio zusammen arbeitete und dann mit Mushi Production sein eigenes Studio gründete. 1963 veröffentlichte dieses "Astro Boy", die erste Anime-Fernsehserie mit halbstündigen Folgen. Noch im gleichen Jahr folgten Serien anderer Studios. Tezukas Studio produzierte weitere Serien, die auf seinen Geschichten basierten, darunter den ersten farbigen Fernsehanime "Kimba, der weiße Löwe". Die Finanzierung seiner Produktionen sicherte Tezuka oftmals mit Lizenzverkäufen, insbesondere in die USA, und Merchandising ab und etablierte damit neue Finanzierungswege. Ab Ende der 1960er Jahre schuf Tezuka anspruchsvollere und experimentellere Filme sowie einige der ersten erotischen Animefilme. Tezuka war – wie auch bei seinen Mangas – noch stark von den Filmen Walt Disneys und deren Ästhetik beeinflusst. Seine eigenen Werke hatten wiederum großen Einfluss auf die ihm nachfolgenden Filmschaffenden, entweder in Anlehnung oder Abgrenzung seiner Stile und Arbeitsweisen. Neben und durch Tezuka hatten vor allem die Hollywood-Filme, die nach dem Krieg in großer Zahl in Japan in die Kinos kamen, starken Einfluss auf die aufwachsende Generation späterer Animatoren und Regisseure. In ihren eigenen Werken orientierten sie ihre Inszenierungen an den westlichen Vorbildern und beherrschten und verwendeten cineastische Techniken bald umfangreicher als ihre Kollegen in amerikanischen Fernsehproduktionen. In effizienter Arbeits- und Produktionsweise für Fernsehserien wiederum waren amerikanische Studios wie Hanna-Barbera Vorbilder. Mit Tezukas und den in Folge entstandenen Studios expandierte die Branche von nach Schätzungen etwa 500 Mitarbeitern um 1960 auf die doppelte Zahl 1967 und schließlich etwa 2.000 um 1970. 1966 wurden erstmals Animationsarbeiten nach Südkorea ausgelagert. Doch war Tezukas von vielen nachgeahmtes Geschäftsmodell nicht dauerhaft erfolgreich und durch die so entstehenden Spekulationsblase, den sich ansammelnden Schulden und Überproduktion an Trickserien kam die Branche zu Beginn der 1970er in eine Krise, als auch Japan als ganzes in eine Wirtschaftskrise geriet. Die auch durch Tezukas bereits zum Start zu gering ausgehandelten Preise verursachte andauernde Finanznot der Branche prägte noch über Jahrzehnte und führte zu andauerndem finanziellem Druck auf die Studios. Ab Ende der 1960er Jahre begann sich das Medium in seiner Zuschauerschaft, Zielgruppen und inhaltlichen Angebot zu verbreitern und aufzusplitten. Es wurde in einigen Serien erwachsener und ernsthafter, anderer konnten Kinder wie Erwachsene begeistern und das Segment für Kinder – insbesondere Filme für Kino und Festivals – blieb ein beständiger Markt. Diese größere Bandbreite förderte zusammen mit Innovationen aus den USA auch die weitere technische Entwicklung und Gründung neuer Studios, die teils Personal aus zuvor geschlossenen Unternehmungen oder aus Konflikten wie bei Toei übernahmen. In den späten 1960er und den 1970er Jahren entstanden vor allem Science-Fiction-Serien und mit ihnen wuchs die erste Generation an Fans auf, die ab den 1980er Jahren selbst als Produzenten in der Anime-Industrie aktiv wurde. Mit dieser Generation nahm in den 1970ern auch die Quervermarktung von Spielzeugen und Merchandise zusammen mit Animeserien zu und veränderte die Produktions- und Eigentumsstrukturen, sodass Teile der Branche stärker von Sponsoren und Produktionskomitees geprägt wurden. Neben den von Mecha dominierten Science Fiction entstanden für das Kinderprogramm vor allem Märchenadaptionen bei großen Studios wie Toei Animation und Nippon Animation, die auch international ausgestrahlt wurden und auch ein weibliches Publikum erreichten. Seit Ende der 1960er wurden Comedy- und Drama wichtige Genres, dabei vor allem Sportdramen. Dabei entstanden im bisher männlich dominierten Medium die ersten Serien, die sich an Mädchen richteten. "Ribon no Kishi" (1967) von Tezuka und "Mila Superstar" (1969) zählten zu den ersten, mit denen der Entstehung des Shōjo-Mangas auch dessen Adaptionen als Anime folgten. Diese Serien brachten neuen Themen in das Medium, insbesondere Emanzipation, Selbstfindung und Liebesgeschichten. In diesem Umfeld entstanden neue Genres: In den 1980ern die von sich magisch verwandelnden Mädchen erzählenden Magical-Girl-Serien, in den 1990ern kamen Geschichten über homoerotische Beziehungen zunehmend aus dem Manga auch in den Anime und generell fanden ästhetische Prinzipien aus Serien für Mädchen stärkere Verbreitung, darunter die Darstellung schöner Jungen als Bishōnen. Auch das Aufkommen von Videokassetten und Videotheken in den 1980er Jahren veränderte das Medium: Studios konnten nun direkt über Kaufmedien veröffentlichen und mussten nicht mehr an Fernsehsender verkaufen. Die erste Original Video Animation war 1983 "Dallos", weitere vor allem aus dem Bereich Science-Fiction folgten. Dieser neue Vertriebsweg öffnete den Markt für kleine Studios, die sich direkt über kleine Aufträge von Videovertrieben finanzieren konnten. Entsprechend wuchs in den 1980ern die jährlich produzierte Zahl von Animes durch dieses neue Segment erneut deutlich und es entstanden erstmals überhaupt Absetzwege für Nischenproduktionen wie Science-Fiction-Produktionen für ältere Zuschauer, aber auch Erotik und Pornografie. Während zugleich in den Kinos weiterhin Ableger oder Zusammenschnitte von Fernsehserien dominierten, wurden neue Studios mit realistischen und fantastischen Stoffen auch im Kino erfolgreich, insbesondere Studio Ghibli. Die OVAs und Kinofilme beförderten die Weiterentwicklung und Erhaltung der seit den 1970er Jahren gewachsenen Fanszene. In den 1990er Jahren wurden dann im Fernsehanime realistischere Stoffe, vor allem Komödien und Dramen an Oberschulen, beziehungsweise Coming-of-Age-Geschichten beliebter, teilweise auch in Verbindung mit Magical Girls und Fantasy. Seit den 1970er Jahren kamen Animes ins europäische und amerikanische Kino und Fernsehen, zunächst vor allem Kinderserien, die auch in Koproduktion mit westlichen Sendern und Studios entstanden. Gegenüber erwachseneren, actionhaltigen Stoffen bestanden große Vorbehalte. In den Videotheken wurden zunächst vor allem pornografische und erotische Titel vertrieben, was Anime generell einen entsprechenden Ruf gab. Vereinzelt kamen Science-Fiction-Serien in die Kabelprogramme in den USA und Süd- und Westeuropa. Das änderte sich ab Ende der 1980er mit dem Erfolg des Science-Fiction-Films "Akira" im Kino, in den 1990ern dann mit den Filmen des Studio Ghibli und mit international erfolgreichen Fernsehserien wie "Sailor Moon", "Pokémon" und "Dragon Ball", sodass das Medium um das Jahr 2000 herum international seinen Durchbruch erlebte und eine große Fangemeinde gewinnen konnte. Die nun seit den 1990ern aus dem Ausland zusätzlich zur Verfügung stehenden Finanzierungsquellen beförderten eine weitere Expansion des Mediums, insbesondere die Produktion von mehr Titeln, aber kürzeren, leichter verkaufbaren Serien. Nach 2000 entstand durch viele interessierte Investoren eine Spekulationsblase mit immer höheren Lizenzgebühren, die schließlich Mitte des Jahrzehnts platzte und sowohl die internationale – vor allem amerikanische – aber auch die japanische Euphorie für das Medium dämpfte. Die Nachfrage durch die international gewachsene Fanszene blieb aber erhalten und in Japan selbst haben sich die institutionalisierten Kinderfilme und -Franchises, die Produktionen für die große Fangemeinschaft sowie einige allgemein beliebte Serien und Studios erfolgreich etabliert. Zugleich kam es durch das Aufkommen von Computeranimation und der Digitalisierung darüber hinaus zu einer Umwälzung der Produktionsprozesse und Vermarktungswege. Diese halfen, Kosten in Produktion und Vertrieb zu senken, die Verknüpfungen mit anderen Medien zu stärken und neue, insbesondere Nischen-Zielgruppen und solche im Ausland zu erschließen. Neue Studios entstanden, die sich auf die Nutzung von Computern und auf 3D-Animationen spezialisierten. Im Wesentlichen blieb trotz Digitalisierung die bis dahin kultivierte 2D-Bildsprache jedoch erhalten. Auch die Entwicklung hin zu erwachseneren und realistischeren Inhalten wurde auf diesem Weg gestärkt. Andererseits wurden durch Kopierbarkeit und die damit erleichterte illegale Verbreitung bis dahin genutzte Vertriebsarten in Frage gestellt. In den 2010er Jahren kam mit Streamingangeboten schließlich ein neuer Vertriebsweg hinzu, der den neuen technischen Möglichkeiten entsprach. Während der bis in die 2000er gewachsene heimische Markt für auf Fans zielende Produktionen sowie die Gewinnerzielung mit Merchandising gesättigt sind oder gar rückläufig, wird durch diese neuen Ausspielwege sowie die gezieltere Ansprache von Zuschauern weltweit dem Anime ein weiterer Markt erschlossen. Inhalte, Genres und Zielgruppen. Animes decken ein breitgefächertes Themenspektrum für alle Altersstufen ab. Geschichten sind oft komplexer und vielschichtiger als bei vielen westlichen Trickfilmproduktionen üblich. Es findet mehr Charakterentwicklung statt und auch der Tod wichtiger, vom Zuschauer lieb gewonnener Charaktere kann vorkommen. Bei Heldenfiguren ist ihre Motivation, Loyalität und Durchsetzungswille wichtiger als dass sie gewinnen und Antihelden treten häufiger auf. Auch historische Heldenideale wie der Ninja oder Samurai (Bushidō) spiegeln sich in vielen Animes wider. Ein klassischer Konflikt aus dieser Tradition ist "giri-ninjō", der Konflikt zwischen der gesellschaftlichen Verpflichtung und den eigenen Bedürfnissen. Antagonisten sind häufig differenziert und verfügen über eine Hintergrundgeschichte, die ihre Handlungen erklärt. Auch der häufiger vorkommende Seitenwechsel einer Figur trägt dazu bei. Klischees über typische Bösewichte werden gebrochen und beispielsweise gerade die Gegenspieler als besonders schön dargestellt. Frauen haben öfter wichtigere Rollen, sind starke Heldinnen gleichberechtigt mit Männern und werden dennoch meist attraktiv dargestellt. Obwohl oder gerade weil dies oft noch immer nicht der Stellung von Frauen in der japanischen Gesellschaft entspricht, trägt es zu einer breiteren Zuschauerschaft bei. Dennoch lassen sich oft klassische Frauenrollen feststellen. Dazu gehört die Rolle der Mutter und (im Hintergrund) sorgenden Hausfrau oder der ruhigen, niedlichen, empathischen Schülerin. Diese Rollen lassen sich mit dem japanischen Begriff „yasashii“ (rein, warm, empathisch) beschreiben. Dazu gehören auch Kriegerinnen, die "yasashii" mit den Idealen des Bushidō verbinden, und Mädchen und Frauen mit magischer Begabung. Fragen von Sexualität und Geschlecht werden in Animes oft ungezwungen und mit für westliche Zuschauer ungewöhnlichen Perspektiven behandelt, sind Gegenstand von Comedy, Klischees und erotischen Geschichten. Homosexualität kommt explizit und noch häufiger in Form von Andeutungen vor, ebenso unscharfe Geschlechterrollen und androgyne Figuren, die sich auch in Idealbildern wie Männern als Bishōnen oder immer wieder vorkommenden Frauen in Männerrollen zeigen. Dabei ist homosexuelles Verhalten oft nicht Identifikationsmerkmal der Charaktere, diese begreifen sich gar nicht als homosexuell oder werden durch viele weitere Merkmale charakterisiert und können in den unterschiedlichsten Rollen auftreten. Geschichten über gleichgeschlechtliche Liebe sind ganze Genres gewidmet. Nichtsdestotrotz werden auch in Geschichten über gleichgeschlechtliche Liebe bisweilen konservative Werte vermittelt, insbesondere in älteren Werken finden die Beziehungen ein tragisches Ende und die Protagonisten werden für Verstöße gegen die gesellschaftlichen Normen bestraft. Da das Medium lange Zeit nur in Japan konsumiert wurde, sind die meisten Produktionen nur mit Blick auf den heimischen Markt entstanden, haben starke, von außen schwer verständliche Bezüge zur japanischen Kultur und berücksichtigen Gepflogenheiten oder Tabus anderer Kulturen nicht, wie es bei auslandsorientierten Produktionen wie aus den USA üblich ist. Während sich Kino- und Fernsehproduktionen häufiger an Kinder und deren Familien richten, ist die Zielgruppe des Videomarktes sowie der nachts ausgestrahlten Fernsehserien ältere Jugendliche und Erwachsene. In seiner Gesamtheit kann Anime alle Altersgruppen und Gesellschaftsschichten ansprechen. In Anlehnung an die übliche Einteilung von Manga in Zielgruppen nach Alter und Geschlecht, erfolgt dies oft auch bei Anime. Bei vielen Animes, vor allem solchen ohne Manga-Vorlage, ist die Einteilung in diese Gattungen jedoch schwer oder gar nicht möglich: Auch wenn grundsätzlich alle möglichen Themen auftreten können, so sind doch besonders solche mit Bezug zum japanischen Alltag oder der japanischen Kultur verbreitet. Die kann zum einen Sport und Kunst, Probleme des Alltags und dessen Regeln oder des Lebens im modernen, technisierten und in den Metropolen dicht besiedelten Landes sein, zum anderen traditionelle Künste, Themen des Buddhismus und Shinto und der japanischen Geschichte und Mythologie. Traditionelle Geschichten, wozu neben Mythologie auch japanische Klassiker wie "Hakkenden" und "Genji Monogatari" zählen, werden dabei oft aufgegriffen, modernisiert und in einer zeitgenössischen Deutung oder Moral präsentiert. Auch nicht-japanische, insbesondere jüdisch-christliche Symbolik und chinesische Mythologie wird immer wieder eingewoben. Dazu kommen typisch japanische Sujets wie "mono no aware", die sich nicht nur in Ästhetik, sondern auch in den Geschichten selbst ausdrücken können. Diese Themen werden nicht selten gemischt mit Science-Fiction- und Fantasy-Elementen und die meisten Werke lassen sich nicht klar einem einzigen Genre zuordnen. Daneben gibt es typisch japanische und in Animes weit verbreitete Themen wie Vorteile und Konflikte in einer dicht gewobenen Gesellschaft sowie als Gegenstück dazu das verlockende, freie aber auch gefährliche Leben von Außenseitern und Einzelgängern. Dazu kommen politische Themen wie Wertschätzung der Natur, Umweltschutz, Krieg und Frieden. Neben den international bekannteren, pazifistischen Werken in fantastischen, realistischen oder dystopischen Setting gibt es auch Geschichten, die an Kriegspropaganda des Zweiten Weltkriegs anknüpfen oder den japanischen Imperialismus herunterspielen und eine japanische Opferrolle im Krieg betonen. Aus anderen Bereichen der japanischen Populärkultur finden sich Japanische Idols, berühmte Persönlichkeiten, die singen, schauspielern und werben, auch in Animes immer wieder: als zentrale Figur einer Geschichte über das Showgeschäft oder in abgewandelter Form in einer fantastischen Erzählung. Auch gibt es seit den 1990er Jahren immer wieder Werke, die die Fanszene selbst in den Fokus nehmen und sich wiederum vor allem an diese als Zielgruppe wenden. Von Literaturverfilmungen (z. B. "Das Tagebuch der Anne Frank" oder "Heidi") über Horror bis zu Comedy und Romanzen werden nahezu alle Bereiche und Altersklassen abgedeckt. Die Werke können Wissen über Geschichte, einen Sport oder einen anderen thematischen Fokus eines Animes vermitteln, sowie moralische Werte lehren wie Teamwork oder Respekt. Auch gibt es Genres, die ausschließlich in Anime und Mangas vorkommen oder in diesen Medien entstanden sind: Pornographische Animes, sogenannte Hentai, machen nur einen kleinen Teil des japanischen Kaufvideo-Marktes aus; im Fernsehen und im Kino werden diese in Japan überhaupt nicht gezeigt. Viele Animes beinhalten jedoch erotische Elemente, ohne dem Hentai-Genre zugeordnet werden zu können, insbesondere die des Genres Etchi. Solche sowie Serien mit hohem Anteil von Gewalt oder anspruchsvollen Inhalten laufen im japanischen Fernsehen im Nachtprogramm und finanzieren sich in der Regel nicht durch die Ausstrahlung, sondern durch die mit Fernsehausstrahlung beworbenen DVD-Verkäufe. Erotische Geschichten und der relativ freizügige Umgang mit Sexualität in der Populärkultur haben in Japan eine lange Tradition, so gab es in der Edo-Zeit viele solche Ukiyo-e, Shunga genannt. In Hentai als auch in Etchi-Manga sind, wie in der japanischen Erotik allgemein üblich, Sexszenen oft in eine humoristische oder parodistische Erzählung eingebettet. Sexuelle Gewalt und Fetische werden vergleichsweise häufig thematisiert. Neben Komödien wird entsprechend auch Horror oft für Erotik und Pornografie verwendet. Kritiker stellen dazu fest, dass solche Geschichten zwar eine Vielfalt sexueller Praktiken zeigen, aber zugleich konservative Gesellschaftsbilder vermitteln, indem zu überschwängliches oder den Normen widersprechendes Verhalten bestraft wird. Neben Humor und Horror gibt es außerdem eine Reihe romantischer, sentimentaler Pornografie, die frei von Gewalt und Übertreibung über Sex als Ausdruck menschlicher Gefühle und Charakterentwicklung erzählt. Benannt wird dieses Untergenre oft nach "Cream Lemon", einem der ersten Vertreter. Erotik ist in Japan stark geprägt von der unter der amerikanischen Besatzung entstandenen Gesetzgebung, die die Darstellung des erwachsenen Genitalbereichs und andere „anstößige“ Inhalte unter Strafe stellte (§ 175 des jap. Strafgesetzbuchs). Dies wurde von vielen Künstlern umgangen, indem die Figuren und ihre Genitalien kindlich gezeigt wurden. Zusammen mit der Kawaii-Ästhetik beförderte das die Entstehung vieler erotischer und pornografischer Geschichten mit kindlichen Figuren und die Etablierung der Genres Lolicon und Shotacon. Auch wenn die Auslegung der Gesetze gelockert wurde, blieb diese Strömung erhalten. Andere Wege, die Zensurgesetzgebung zu umgehen, sind die Verwendung von Balken oder Verpixelung, Auslassungen oder stark reduzierte, symbolhafte Darstellung von Geschlechtsorganen. International waren erotische Anime zeitweise kommerziell deutlich erfolgreicher und verbreiteter als andere Genres, was zur Legende führte, alle Anime seien pornografisch. Dieser Eindruck ist jedoch auch Ergebnis der Stereotype des westlichen Publikums und wirkte vermutlich auch auf die japanischen Produktionen zurück, die wiederum an amerikanischen Filmen orientierend den Frauen größere Brüste und den Männern mehr Muskeln gaben. Nacktheit kann darüber hinaus auch jenseits sexueller Szenen vorkommen, in Alltags- oder Kinderserien, da es in solchen Situationen in Japan nicht als anstößig gilt. Dazu zählen Baden, auch öffentlich und gemeinsam im Badehaus, und Stillen. Außerdem werden Nacktheit, sexuelle Anspielungen wie auch Fäkalhumor in einigen Comedy-Animes gern eingesetzt. Bildsprache und Erzählmittel. Die häufig anzutreffenden Stile, Bildsprache und Symbolik von Animes sind zum einen geprägt durch die lange Zeit übliche Produktion als Cel-Animation, zum anderen durch Einflüsse von Mangas und insbesondere in der frühen Zeit aus dem amerikanischen und französischen Film. Ähnlich wie im Manga sind die handelnden Figuren einfach und stilisiert gehalten, während die Hintergründe detaillierter und realistischer gezeichnet sind. Auf diese Weise wird sowohl die Identifikation mit den Charakteren erleichtert als auch das Eintauchen in die Welt der Geschichte. Der Detailreichtum der Hintergrundbilder kann insbesondere in Kinoproduktionen ein großes Ausmaß erreichen und bildet einen entsprechenden Kontrast zu den Charakteren im Vordergrund. In Aktionszenen dagegen verschwindet der Hintergrund meist ganz, die gezeigte Bewegung tritt gänzlich in den Fokus. Charakteristisch ist, vor allem im Vergleich zu früheren westlichen Produktionen, eine große Vielfalt in der Farbpalette und deren individuell unterschiedlicher Einsatz in jedem Werk. Das Charakterdesign ist stark vom Manga beeinflusst und entspricht beispielsweise oft dem Niedlichkeitskonzept Kawaii. Bei älteren Charakteren oder Werken für erwachseneres Publikum kommt auch das reifere, nicht niedliche Designprinzip „kirei“ vor. Darüber hinaus finden japanische Idealvorstellungen von schönen Frauen und Männern, Bishōjo und Bishōnen, Anwendung und in der Charakterentwicklung werden Archetypen, Stereotype und Klischees verwendet, von denen sich manche von denen anderer Kulturkreise unterscheiden. Das oft eher „europäisch“ wirkende Äußere und Frisuren in allen Farben auch bei japanischen Charakteren sind für westliche Zuschauer besonders auffällig und irritierend. Tatsächlich sind die europäisch wirkenden großen Augen und andere Merkmale des Charakterdesigns im Shōjo-Manga entstanden und dienen vor allem der Vermittlung von Emotionen, haben symbolische Bedeutung oder dienen der Unterscheidung von Figuren. Daher haben auch weibliche Figuren generell sowie die Figuren in romantischen Geschichten – vor allem für Frauen – tendenziell größere Augen. Waren die so dargestellten Figuren früher meist tatsächlich europäisch, werden diese Merkmale in Japan heute nicht mehr als Kennzeichen einer bestimmten Herkunft wahrgenommen. Wenn tatsächlich die Herkunft verdeutlicht werden soll, geschieht das durch andere Merkmale, wie für Europäer mit einer markanteren Nase. Bisweilen sind die Darstellungen dann deutlich stereotyp. Eine andere Art häufig anzutreffenden Charakterdesigns ist Chibi oder Super Deformed. Diese in der Regel für Comedyserien oder eingestreute komische Szenen verwendete Variante zeigt Charakteren in extrem verkleinerter, verniedlichter Form. Daneben ist – im Unterschied zum westlichen Animationsfilm – nicht die realistische Bewegung Ziel der Animation, sondern der Übergang zwischen ausdrucksstarken Posen. Dies lässt sich sowohl auf Kostenzwänge in der Produktion, in der stehende Bilder günstiger sind, als auch auf eine japanische ästhetische Tradition zurückführen, die sich beispielsweise auch im Kabuki-Theater zeigt, in dem Posen ebenfalls eine wichtige Rolle einnehmen. Auch über den Einsatz von Posen hinaus verweisen viele Stilmittel und Symbole im Anime auf ältere japanische Kunstformen wie Drucke, Kamishibai und Theater sowie generell japanische Ästhetik. Details werden nur spärlich, aber sehr gezielt eingesetzt, um den Eindruck größerer Detailfülle zu verleihen als tatsächlich vorhanden. Wichtige Momente können ungezeigt bleiben oder nur angedeutet und der Zuschauer muss die bleibenden Lücken selbst füllen. Auch Erzähl- und Sprechformen des Animes stammen vom Theater und Kamishibai ab. Im Gesamteindruck bleibt dabei oft eine ästhetische Distanz zwischen Werk und Rezipient (vgl. Verfremdungseffekt) und ein größerer Fokus auf Künstlichkeit und Symbolismus, wie er in vielen japanischen Künsten üblich und dem japanischen Publikum vertraut ist. Völliger Realismus und die Illusion einer echten Begebenheit sind im Gegensatz zu manchen westlichen Medien dagegen nicht das Ziel. Trotz dessen werden auch bei Animes emotionale Reaktion und Empathie des Zuschauers ausgelöst und gefordert. Nicht nur die Bildsprache, auch Motive und andere Gestaltungsmittel sind von der japanischen Kultur geprägt. So die Jahreszeit markierende Geräusche wie die Zikaden im Sommer oder die oft ähnliche Inszenierung von Kämpfen, die ebenfalls von typischer Tongestaltung und Musik unterstützt wird. Darüber hinaus gibt es ein weites Feld an Körpersprache und Symbolen, die in Anime eingesetzt werden und außerhalb Japans nicht immer verständlich sind und auch japanische Höflichkeitsformen bilden sich, schwer zu übersetzen, in den Geschichten und deren Inszenierung ab. Die einfach gehaltene, günstigere Animationstechniken der sogenannten Limited Animation prägten den Anime. Dazu zählt auch die häufiger nicht zum Ton passenden Lippenbewegungen, da nur wenige Mundstellungen verwendet werden und die Sprecher nach der Animation aufnehmen. Erzählerisch können durch die zurückhaltende Animation der Geschichte und den Charakteren größeres Gewicht gegeben werden als Bewegung, Action und visuellem Humor. Limited Animation geht mit einer sich von Full Animation unterscheidenden Ästhetik einher: Neben der Betonung von Posen der Figuren auch eine große Bedeutung von Rhythmus bei Einsatz und Wiederverwendung der Einzelbilder und Schnitten. Durch die Posen fällt dem vor der Animation stattfindende Charakterdesign ein größeres Gewicht zu als bei der auf Bewegung fokussierten Full Animation. Diese Hinwendung zu den beziehungsweise Betonung von einzelnen Charakteren dient zugleich dem multimedialen Einsatz der Figuren, die sich leichter aus ihrer Serie herauslösen und in anderen Kontexten verwenden und vermarkten lassen. Während die Techniken der Limited Animation für manche nicht als richtige Animation gelten, sind sie für andere eine modernere, weiterentwickelte Animation, die sich von der Nachempfindung des Realfilms gelöst hat und in der sich sowohl kommerzielle Massenwerke als auch experimentelle Kunst realisieren und manchmal kaum noch unterscheiden lassen. Thomas Lamarre nennt einige Einsätze dieser Techniken, wie sie beispielsweise bei Gainax geschehen, wegen ihrer besonderen Ästhetik und dem ausgefeilten Einsatz von Schnitt und Rhythmus sogar „Full Limited Animation“. Hiroki Azuma macht die Folienbibliotheken der Studios als eine frühe Form von Datenbanken zu einem wichtigen Element seiner Analyse der Anime-Fankultur und deren Verhältnis zu Technik und Information. Die im Anime übliche, flächenhafte Ästhetik, die durch stilisierte Figuren und die Techniken der Cel-Animation mit ihrer Arbeit in Schichten entsteht, wird mit dem Begriff Superflat in Verbindung mit einem größeren Trend in der japanischen Kunst und Populärkultur gebracht, der von Holzschnitt bis zu Computerspielen und Manga reicht. Über die international bekannte Ästhetik von Anime hinaus gibt es auch viele Werke, die diesen Vorstellungen nicht entsprechen. Dazu können schon ältere Anime-Klassiker zählen, die nicht mehr heutigen Stilen ähneln, aber auch Puppentrickfilme von Kihashiro Kawamoto oder Animation mit Silhouetten und Schattenrissen. Besonders im Animationsfilm bis zum Zweiten Weltkrieg sind die Einflüsse des japanischen Theaters und Kunst in der Vorliebe zu flächiger Bildgestaltung und für Choreografie deutlich zu erkennen. Aspekte der Produktion. Beteiligte und Arbeitsbedingungen. Am Entstehungsprozess von Anime sind neben den Animatoren, denen die eigentliche Arbeit des Erstellens der Animation zufällt, viele weitere Berufsgruppen beteiligt. Diese sind die in der Filmbranche üblichen Beteiligten wie Regisseur, Drehbuchautoren, Filmproduzenten, Filmeditor und Filmkomponist sowie speziell für den Animationsfilm benötigte wie Synchronsprecher. Darüber sind in der Branche beispielsweise Mitarbeiter für Übersetzung importierter Filme tätig. In die Produktionen oder Vermarktung von Anime und des umgebenden Medienmixes involviert sind auch Verleger, Mangaka, Beschäftigte bei Aufsichtsbehörden, bei Fernsehsendern, Spielzeugherstellern, Videospielherstellern und -verlegern, sowie aller Unternehmen, die sich an der Produktion eines Animes beteiligen beziehungsweise diesen sponsern. Auch einfachen Mitarbeitern in Organisation und Vertrieb können entscheidende Rollen zufallen. So ist in der oft von Termindruck geprägten Branche die Arbeit und Zuverlässigkeit von Boten, die Rohmaterial oder eine fertige Produktion ausliefern, von großer Bedeutung und bisweilen Gegenstand von Auseinandersetzungen und Anekdoten. Neben all diesen offiziellen Beschäftigten kann man, vor allem international, auch Fansubber und illegale Verbreiter dazuzählen, da auch diese einen Einfluss auf das von einem Zuschauer konsumierte Werk haben. Branchenverband ist die Association of Japanese Animations (AJA). Autorschaft und kreativer Einfluss auf das Endprodukt sind bei Animes meist nicht klar zu erkennen und wie bei vielen anderen Film- und Fernsehproduktionen auf eine große Zahl an Beteiligten verteilt. Am deutlichsten erkennbar sind sie noch bei Kinofilmen, insbesondere solchen bekannter Regisseure und Autoren, denen der Großteil der kreativen Entscheidungen und Ideen zugeschrieben werden. Autorenfilme und entsprechend bekannte Autoren sind im Anime selten. Die Regel sind seit den 1970er Jahren Produktionskomitees, die von den Sponsoren, beteiligten Produktionsunternehmen und Rechteinhabern besetzt werden und neben der groben inhaltlichen Linie des Animes auch über das begleitende Merchandise und Adaptionen entscheiden beziehungsweise über alle Teile eines Multimedia-Franchises, dessen Teil Animes nicht selten sind. Bei lang laufenden Serien, die eine Vorlage adaptieren, ist die Autorschaft besonders unklar. Trotz der Vorlage werden dabei in der Regel Teile der Geschichte weggelassen oder neue ergänzt, insbesondere zusätzliche kurze Geschichten, falls ein „Strecken“ der Serie notwendig ist. Auch kann bei der Adaption eine Anpassung an ein anderes, beispielsweise jüngeres Publikum stattfinden. An diesen Entscheidungen sind eine Reihe von Personen beteiligt: Eine Serienregie entscheidet über Handlungsbögen. Regisseure einzelner Folgen entscheiden über die Nähe der Inszenierung zur Vorlage, über deren konkrete Umsetzung die leitenden Animatoren. Beim Charakterdesign werden die Figuren der Vorlage an die Bedürfnisse der Adaption in Bezug auf technische und cineastische Umsetzung, inhaltliche Veränderungen und Zielgruppe angepasst. Laut einer im Jahr 2013 durchgeführten Studie arbeiten japanische Anime-Zeichner im Durchschnitt 10 bis 11 Stunden pro Arbeitstag bzw. 263 Stunden pro Monat bzw. 4,6 freie Tage/Monat. Animatoren verdienen pro Jahr durchschnittlich (Mittelwert) 3,3 Millionen Yen (ca. 23.000 €) bzw. am häufigsten (Modalwert) 4,0 Mio. Yen (28.000 €), angefangen bei Einstiegspositionen wie Zwischenzeichnern mit 1,1 Mio. Yen (8000 €) über Schlüsselzeichner mit 2,8 Mio. Yen (20.000 €) und Storyboarder/3D-Animatoren mit 3,8 Mio. Yen (26.000 €) bis zu Regisseuren mit 6,5 Mio. Yen (45.000 €). Zeichner werden häufig nach einem Schema bezahlt, bei dem sie zusätzlich zu einem festen Lohn noch nach fertiggestellten Einzelbildern bzw. -szenen bezahlt werden. Dieses entstand in den 1960er Jahren nach mehreren Arbeitskämpfen vor allem bei Tōei Animation, in denen um gerechte und überhaupt zum Leben ausreichende Bezahlung gerungen wurde. Zur damaligen Zeit wurden bis zu 13.500 Yen pro Monat gezahlt. Am schlechtesten verdienten freiberufliche Frauen nur mit Oberschulabschluss, die meist kolorierten, mit etwa 5.000 Yen im Monat. Generell wurden Frauen grundsätzlich schlechter bezahlt und wurden für höhere Positionen nicht in Betracht gezogen, was sich teilweise bis heute erhalten hat. Für die Koloration von Zeichnungen oder Hilfsarbeiten waren dagegen oft Frauen tätig, auch weil es heißt, sie hätten ein besseres Gefühl für die Farbe. Auch war Tracing, das Übertragen von Zeichnungen auf Cels, oft Arbeit von Frauen, was mit Aufkommen der Xerographie deutlich entwertet wurde. Bereits von Filmproduktionen von vor dem Zweiten Weltkrieg ist bekannt, dass die Ehefrauen von Animatoren sich an deren Projekten beteiligten. Die Benachteiligung von Frauen ist mit deren Erwartung an Familiengründung verbunden. Von Reiko Okuyama heißt es, sie war um 1960 die erste Frau, die nach Heirat und Schwangerschaft in die Arbeit zurückkehrte. Auch verheiratete Männer mit Familie wurden lange benachteiligt, da Studios flexible Junggesellen, die beliebig lang Überstunden machen und sogar im Studio übernachten, bevorzugen und demnach auch schneller befördern. Als mit den 1960er Jahren die Produktion von Fernsehfilmen aufkam, wurden die Wochen vor Produktionsabschluss zu „Killer-Wochen“ "(satsujin shūkan)" und immer wieder kam es zu Krankenhausaufenthalten von Mitarbeitern wegen Überarbeitung. In einigen Fällen wird jedoch an deren medizinischer Notwendigkeit gezweifelt, sie seien womöglich als Zeichen der Hingabe des Mitarbeiters, zur Flucht aus der Überarbeitung oder als Marketing-Signal nach außen geschehen. Die Arbeitsbedingungen in der Branche verbesserten sind ab den 1990er Jahren in einigen Bereichen, da mit der aufkommenden Videospiele-Industrie den Animatoren erstmals eine Alternative offen stand, die oft bessere Bezahlung und Bedingungen versprach. Zugleich führte die Digitalisierung dazu, dass ganze Berufsgruppen entfielen oder deutlich andere Fähigkeiten für Tätigkeiten wie Kolorierung benötigt wurden. Produktionsprozess. Traditionell entstanden Animes, wie auch Trickfilme aus anderen Ländern, als Cel-Animation. Dabei werden bemalte Folien („Cels“) vor einen ebenfalls gemalten Hintergrund gelegt und abgelichtet. Die Zahl der produzierten Folien und Einzelbilder pro Sekunde hängt dabei von Budget und der beabsichtigten Qualität beziehungsweise Flüssigkeit der Bewegung ab. Tendenziell wurden Kinofilme aufwändiger und höherwertiger, mit mehr Cels für die gleiche Zeit, produziert als Fernsehserien. Auch Produktionen direkt für den Videomarkt haben in der Regel eine höhere Qualität als für das Fernsehen. Die Cel-Animation wird seit den 1990er Jahren zunehmend von der Computeranimationen verdrängt. Bis in die 1930er Jahre wurde noch vorrangig Papier verwendet, da Kunststofffolien kaum zu bekommen waren, ehe Fujifilm 1934 eine eigene Celluloid-Produktion einrichtete. Von da an blieb die materielle Grundlage der Animation in Japan bis in die 1990er Jahre Cels und die damit verbundenen Produktionsverfahren. Seit den Fernsehserien ab Beginn der 1960er Jahre – für manche aus diesem Grund die eigentliche Geburt von Anime – herrscht Limited Animation als Animationsprinzip vor. Bei den Produktionen von Kinofilmen in den Jahren zuvor wurde noch nach dem Vorbild Disneys Full Animation angestrebt, das heißt möglichst realistische Darstellung und bestmögliche Illusion der Bewegung, wobei eine größere Zahl von Bildern pro Sekunde und entsprechender Aufwand eingesetzt wird. 18 unterschiedliche Bilder pro Sekunde sind dafür üblich, 24 in der Spitze. Dieser Ansatz ist unüblich geworden, nur Kinoproduktionen insbesondere von Studio Ghibli verfolgen diesen noch, und wurde weitgehend durch Limited Animation abgelöst. Diese kommt mit durchschnittlich acht Bildern pro Sekunde oder weniger aus. Der Eindruck von Bewegung wird nicht nur durch unterschiedliche Bilder, sondern auch Arrangement der Bilder und Schnitte erzeugt. So kann der Eindruck von Bewegung, anstatt durch verschiedene Bilder, durch das Verschieben von Vorder- und Hintergrund gegeneinander erzeugt werden. In Actionszenen wechseln eher Standbilder in ausdrucksstarken Posen in schnellen Schnitten als dass Bewegungen tatsächlich gezeigt werden. Raumtiefe kann durch das Übereinanderlegen der Ebenen und deren Überschneidung zumindest angedeutet werden. Bildelemente werden häufig wiederverwertet und wiederkehrende Bewegungen mit immer gleichen Bildern hintereinander. Zu diesem Zweck verwenden Studios Bibliotheken der einzelnen Figuren in unterschiedlichen Positionen und Bewegungen, die erneut eingesetzt werden können. Auch das Zerlegen der Figuren und die Animation nur des sich bewegenden Körperteils zählt zu diesen Methoden. Ein Fokus auf Erzählen statt Zeigen, die Verwendung von Symbolen sowie ein gezielter Einsatz von Ton und Musik können diese Methoden unterstützen und die Lücken füllen, die die mangelnde Bewegung lässt. Die deutliche Kostenersparnis dabei war zunächst einer der wichtigsten Gründe dafür. Doch auch als ab den 1970er Jahren die Studios langsam mehr Geld zur Verfügung hatten, wurde von diesem Prinzip nicht abgewichen. Stattdessen wurden, wie schon von Beginn an von Tezuka, dessen künstlerische Möglichkeiten erkundet oder zusätzlicher Aufwand in Hintergründe und Designs investiert. Mit Aufkommen der Xerographie in den 1960ern kam ein Werkzeug hinzu, das einfache Übertragung von Zeichnungen auf die Cels sowie deren Vervielfältigung und Skalierung ermöglichte. Die kostensparenden Methoden der Limited Animation wurden bereits ab den 1920er Jahren eingesetzt, jedoch nicht systematisch. Die Vertonung einschließlich Aufnahmen der Sprecher finden nach Herstellung der Animation statt, weswegen Lippenbewegungen gerade in günstigeren Produktionen nicht zum Ton passen. Außerdem werden meist nur drei Bilder von Mundstellungen verwendet, an Stelle von acht bei aufwändigen amerikanischen Produktionen. Die umgekehrte Verfahrensweise mit Tonaufnahmen vor Herstellung der Animation war in den 1930er Jahren mit Aufkommen des Tonfilms entwickelt worden und seitdem mehrere Jahrzehnte üblich. Als in den 1980er Jahren erstmals Computeranimationen eingesetzt wurden, gehörte die japanische Filmwirtschaft zu den ersten Anwendern. Seitdem wird immer wieder mit 3D-Animation experimentiert. Anders als in den USA konnte die Computeranimation aber nicht die traditionelle 2D-Ästhetik ablösen, reine 3D-Animationsfilme bleiben eine Seltenheit. Sie hatten wenig Publikumserfolg, was insbesondere auf den schwer zu beherrschenden uncanny-valley-Effekt zurückgeführt wird, und sind aufwändig in der Herstellung. Stattdessen werden 3D-Animationen als Effekte in Szenen klassischer Animation eingesetzt, beispielsweise Lichteffekte und am Computer animierte Bildelemente werden in einer Weise gerendert, die sie wie handgezeichnet erscheinen lässt. Besonders letzteres ist seit Ende der 1990er Jahre durch neue Software einfacher umsetzbar geworden und wurde daher zunehmend in Bildelementen eingesetzt, die mit der Hand gezeichnet zu aufwändig oder nur schwer zufriedenstellend umzusetzen sind. Insbesondere die Charaktere aber bleiben handgezeichnet und die Ästhetik der traditionellen Cel-Animation wird beibehalten; wobei Zeichnungen digitalisiert und anschließend als Computergrafik koloriert und animiert werden. Zugleich bringt der Einsatz von Computern neue Möglichkeiten für die Einbindung von Fotografie und Rotoskopie. Seit den 2010er Jahren ist der Produktionsprozess in nahezu allen Studios vollständig digitalisiert: Von Skripten über Skizzen, Zeichnungen, Kolorierung und Schnitt findet alles an Computern statt. Das von Tōei entwickelte Software-Paket RETAS verbindet Anwendungen für alle Stadien der Produktion und hat weite Verbreitung erfahren. Insbesondere da an der 2D-Optik der Cel-Animation festgehalten wurde, finden Prinzipien der Limited Animation weiterhin breite Anwendung oder sind wie die Datenbanknutzung in digitalisierten Produktionsprozessen noch effektiver. Bisweilen führen die von der Technik gebotenen neuen Möglichkeiten aber auch zu größerem Aufwand, als er sich mit den älteren, beschränkten Animationsmethoden ergeben hätte. Die Produktionen sind in der Regel auf viele Unternehmen verteilt, wobei eines als Hauptproduzent fungiert und weitere Nachunternehmer sind. Manches Studio hat sich auf Zuarbeiten spezialisiert, einige heute bedeutende Studios wie Madhouse haben lange fast nur Zuarbeiten für andere geliefert, ehe sie in Eigenregie produzierten. Diese Aufteilung der Arbeiten geht bis zu den Anfängen der Fernseh-Animes in den 1960ern zurück, als die für Fernsehserien im Vergleich zu Kinofilmen plötzlich stark gestiegene Nachfrage von einzelnen Studios nicht gedeckt werden konnte. Die Herstellung findet nicht nur in Japan statt, sondern aus Kostengründen auch in anderen asiatischen Ländern, Amerika und Europa. Die wichtigsten Nachunternehmer sitzen in Korea, China und Thailand. Ausgelagert werden vor allem die Herstellung von Zwischenphasenbildern und die Koloration. Die Entwicklung von Drehbüchern und Storyboards, Designs und Schlüsselbildern bleibt in der Regel in Japan. Diese Auslagerung begann bereits 1966, blieb jedoch eine Seltenheit bis in die 1990er Jahre, als Kommunikation und Austausch mit den Nachunternehmern einfacher wurde. Für die Zeit um 2010 wurde geschätzt, dass etwa 60 bis 70 Prozent der an Animes beteiligten Arbeitskräfte außerhalb Japans arbeiten. Auch gleichberechtigte Koproduktionen gab es in der Geschichte des Mediums immer wieder. So beispielsweise mit europäischen Sendern in den 1970er Jahren. Seit in den 1990er Jahren das Interesse an Anime in westlichen Ländern zugenommen hat, kommen auch solche Koproduktionen wieder häufiger vor, vor allem mit amerikanischen Firmen. Auf der anderen Seite arbeiten japanische Studios, insbesondere solche auf Zuarbeiten spezialisierte, auch Produktionen in anderen Ländern zu, vor allem amerikanischen. Dies begann bereits mit einzelnen Filmen in den 1950er Jahren und ab 1960 wurden durch die Produzenten Jules Bass und Arthur Rankin Jr. mehrere Studios regelmäßig beauftragt: Zunächst Mochinaga Tadahito für Puppentrickfilme, dann mit dem Studio MOM Productions auch Zeichentrickfilme und später gehörten Tōei Animation, Mushi Production und Top Craft zu den Auftragnehmern, die damit Lücken zwischen ihren Aufträgen füllen konnten. Bekannte Anime-Studios. Eines der international bekanntesten Anime-Studios ist Studio Ghibli, das seit 1985 unter der Leitung von Hayao Miyazaki Filme produziert, z. B. "Prinzessin Mononoke" 1997, "Chihiros Reise ins Zauberland" 2001 oder "Das wandelnde Schloss" 2004. Seinen bisher größten weltweiten Erfolg hatte Studio Ghibli mit "Chihiros Reise ins Zauberland". Der Film erhielt neben zahlreichen internationalen Zuschauer- und Kritikerpreisen im Jahr 2002 den Goldenen Bären auf der Berlinale und im Jahr 2003 den Oscar als bester Animationsfilm, was ihn zum meistausgezeichneten Zeichentrickfilm aller Zeiten macht. Mit seinem Fokus auf Kinoproduktionen und als starke, international bekannte Marke ist Studio Ghibli jedoch eine Ausnahme unter den Anime-Studios. Bei Animeserien ist Tōei Animation bedeutend, das bei frühen Science-Fiction-Klassikern wie "Uchū Senkan Yamato" (auch "Space Battleship Yamato") und "Captain Future" und später bei "Sailor Moon", "Dragon Ball" und weiteren Serien beteiligt war, die große internationale Verbreitung gefunden haben. Darüber hinaus produzierte Tōei die bedeutendsten Anime-Filme der 1960er Jahre. Weitere bekannte Anime-Studios: Finanzierung, Vermarktung und Einbindung in einen Medienmix. Die Produktion und Veröffentlichung von Animes ist oft eng mit anderen Medien verknüpft. In der Vergangenheit basierten fast alles Animes auf erfolgreichen Mangas. Ab den 2000er Jahren hat die Zahl der Adaptionen von Computerspielen und Light Novels deutlich zugenommen. Es wird aber auch umgekehrt nach dem Erfolg eines Animes ein entsprechender Manga gezeichnet. Vergleichsweise selten sind „Anime-Comics“ bei denen der Manga nicht neu gezeichnet, sondern aus Einzelbildern des Animes und eingefügten Sprechblasen zusammengesetzt wird. Zu den diversen üblichen Merchandising-Artikel von Franchises, unter anderem Artbooks, Soundtrack-CDs und Klingeltöne, nehmen Model-Kits und fertige Figuren eine wichtige Rolle ein. Diese werden in Japan in großer Zahl für viele Serien verkauft, sind außerhalb des Landes jedoch nur schwer erhältlich. Neben der bereits von den Anfangen des Mediums bestehenden Zielgruppe von Kindern und Familien, die über Tickets für Kinofilme, Werbeschalten in Fernsehserien sowie Verknüpfung mit Spielzeugen Einnahmen generieren, ist die seit den 1980er Jahren entstandene Zielgruppe jugendlicher und junger erwachsener Fans eine finanziell ebenso wichtige Gruppe für die Branche geworden. Sie ist zahlenmäßig deutlich kleiner als die erste Gruppe, jedoch zu deutlich größeren Ausgaben für den Kauf von Merchandising und Kaufmedien bereit und lässt sich direkter ansprechen. Wichtigste Einnahmequelle der Studios waren in den 2000er Jahren an erster Stelle das Merchandising, danach Senderechte und in deutlich geringerem Umfang Kinoeinnahmen und Werbefilme. Hauptabnehmer ist das Fernsehen, gefolgt vom Kino und dem Videomarkt an letzter Stelle. Für eine einzelne Folge werden etwa 5 Millionen Yen, in früheren Zeiten eher 7 Millionen, und anderthalb Monaten Produktionszeit aufgewendet. In den 2000er Jahren wurden jedes Jahr 30 bis 50 Fernsehserien und 10 bis 20 Kinofilme produziert. Neben den eigentlichen Filmproduktionen gehören auch Auftragswerke für andere Branchen zu den Einnahmequellen der Studios. Waren das bereits in den Frühzeiten des Mediums Aufträge für Werbung und Lehrfilme, kamen ab den 1980ern vor allem Zuarbeiten zu Computerspielen als lukrative Aufträge hinzu. Für Fernsehserien waren die Senderechte in Japan allein nie ausreichend, um die Kosten zu decken. "Astro Boy" als erste halbstündige Fernsehserie wurde deutlich unter ihren Kosten verkauft, um überhaupt ins Fernsehen zu kommen und Konkurrenz abzuschrecken, was den Preis für die nachfolgenden Produktionen auf ein zu niedriges Niveau festlegte. Daher sind zusätzliche Einnahmen über Merchandising, Lizenzverkauf ins Ausland und später die Vermarktung von Kaufmedien für das Überleben der Studios notwendig. Als Lehre aus dem Niedergang von Mushi Production wurde diese Wertschöpfung daher im Laufe der 1970er Jahre in Produktionskomitees institutionalisiert, in denen Sponsoren Einfluss auf die Produktion und weitere Teile eines Franchise nehmen. Teile der Branche sind daher von einem großen Einfluss der Geldgeber aus anderen Branchen geprägt, die ihre Investitionen über den Einfluss im Produktionskomitee zurückerhalten wollen. Insbesondere für einige, auf Neuartigkeiten setzende Branchen wie Spielehersteller ist ein Anime, in den sie investieren, daher nur eine regelmäßig laufende Werbesendung, die abgesetzt und eine neue, ähnliche ersetzt werden kann und soll, sobald das Produkt ausreichend bekannt gemacht und verkauft wurde. Die Finanzierung über ausländische Beteiligungen oder Beauftragung bestand zwar seit den 1950er Jahren, trat nach dem Misserfolg von Mushi Production, wo mit 30 % Einnahmen aus dem Lizenzverkauf gerechnet wurde, aber für die Branche in den Hintergrund. Ausnahmen waren einige wenige Studios, die fast nur im amerikanischen Auftrag arbeiteten, und Kinderserien. Erst ab dem internationalen Erfolg von Anime ab den 1990ern wurde die Finanzierung aus dem Ausland wieder bedeutender, was zu einem Anteil der Lizenzeinnahmen von 50 % für einige Studios führte, aber auch zu einer Spekulationsblase. Der Anteil hat sich auf einem niedrigeren Niveau stabilisiert. Die Anime-Produktionen werden in der Regel von Produktionskomitees geleitet, denen oft Unternehmen unterschiedlicher Branchen angehören, so neben Buch-, Spieleverlagen, Studios, auch Lebensmittelfirmen, die Kapital einbringen und sich die Rechte am Werk aufteilen. Durch diese frühe Verknüpfung erscheinen parallel zum Anime auch Manga, Romane und weitere Artikel. Teilweise werden diese Franchises dann gezielt zur Werbung für ein Produkt oder eine Produktgruppe eingesetzt. Die Zusammenarbeit in Produktionskomitees soll auch gewährleisten, dass inhaltliche und Designelemente über die einzelnen Werke hinaus im Franchise genutzt werden, beispielsweise der Einsatz von Charakteren in einem Videospiel bei der Entwicklung für eine Fernsehserie schon mitgedacht wird. Dabei können jedoch Entwicklung der Geschichte, der Figuren und die Darstellung von Konflikten und menschlichen Beziehungen in den Hintergrund treten. So werden Charaktere für die Verwendung in Computerspielen stark vereinfacht, Spielmechaniken angepasst und dabei unter Umständen austauschbar gemacht und die Handlung und Charakterentwicklung der Vorlage aufgebrochen oder außer Acht gelassen. Solche Charakterzeichnung kann sich auch im Anime zeigen, wird es bei dessen Produktion bereits mitgedacht. Die Adaption anderer Werke bietet außerdem die Möglichkeit, Details von Geschichten oder Nebenerzählungen wegzulassen, da die mit der Vorlage bereits vertrauten Zuschauer in der Lage sind,d die Lücken zu füllen. Enge Zusammenarbeit über Komitees hat ab den 1990er Jahren deutlich zugenommen, in denen auch der Medienmix an Bedeutung gewonnen hat. Praktiziert wurde diese Zusammenarbeit aber bereits seit langem, so war schon "Astro Boy" 1963 von Süßwaren- und Spielzeugherstellern mitfinanziert, die passendes Merchandising auf den Markt brachten. Oft ist die Computerspiel-Industrie an der Anime-Produktion beteiligt, die auf Grundlage der Animes Computer- und Konsolenspiele produziert. Ebenfalls gab es Animes, die wie "Pokémon" und "Digimon" auf erfolgreichen Spielen basieren. Auch eine parallele Entwicklung oder der Beginn der Animeproduktion noch vor Start eines Spiels kommen vor. Dabei ist jedoch oft eines der Werke das Zugpferd, an dessen Popularität sich die Adaption hängt. Die Zweitverwertungen werden dann vor allem von Fans und Sammlern gekauft wird, die weitere Einsätze ihrer Lieblingscharaktere oder -welt erleben wollen. Unabhängig solcher Franchise- und Lizenzprodukte beeinflussten Anime und Computerspiele sich in ihren Darstellungsformen und Erzähltechniken gegenseitig. Insbesondere die Ästhetik von Manga und Anime hat den Stil von japanischen Computerspielen geprägt, vor allem was das Charakterdesign betrifft. Bereits frühe japanische Computerspiele orientierten sich in der Darstellung ihrer Figuren an Manga und Anime, und Techniken wie Cel Shading, das Computeranimationen den Anschein klassischer Animationen gibt, oder Prinzipien der Limited Animation werden auch in Spielen eingesetzt. Wie in Kinofilmen wird im Anime die Musik als wichtiges künstlerisches Mittel benutzt. Am häufigsten wird die Musik als Thema für einen Charakter genutzt, oder um als Hintergrundmusik die Stimmung einer Szene wiederzugeben. Serien haben ein Vorspannlied als Einleitung und einen mit Musik unterlegten Abspann.Lieder werden häufig von bekannten Musikern oder japanischen Idolen gesungen, aber auch von den Synchronsprechern (Seiyū). Bis in die 1970er Jahre waren nur einfache musikalische Untermalungen und die Veröffentlichung von einzelnen Liedern als Single üblich, mit Kindern als Zielpublikum. 1977 wurde dann nach dem Vorbild des Soundtracks zu "Star Wars" zum in Japan ähnlich erfolgreichen "Uchū Senkan Yamato" ein Album herausgebracht. Dessen Erfolg führte rasch zu vielen Nachahmern und die Veröffentlichung von Soundtrack-Alben wurde zu einem üblichen Teil der Verwertungskette. Die Musik wurde aufwändiger komponiert und zu den bis dahin nur mit Orchester oder in Form klassischer Lieder aufgenommenen Stücken traten in den 1980er Jahren Pop- und Elektroklänger, etwas später auch Rockmusik. Die Verwertungskette wurde bald noch um Tonträger ergänzt, auf denen die Synchronsprecher Lieder und Texte in ihrer Rolle im Anime aufgenommen haben. Das förderte die Bekanntheit der bis dahin wenig berühmten Sprecher, die seitdem selbst zu Idolen werden können. Eine weitere Variante von Anime-CD-Veröffentlichungen sind "Drama-CDs": Hörspiele, in denen die Sprecher eine Geschichte erzählen, die häufig im Anime nicht vorkommt. Durch die enge Verzahnung verschiedener Medien und der Übertragung von Inhalten von Manga zu Anime und darüber hinaus haben sich seit den 1990er Jahren zunehmend Charaktere von ihren Erzählungen gelöst, wie es Kulturwissenschaftler Gō Itō 2005 erstmals beschrieb. Der von ihm so genannte "kyara" ("Chara", kurz für engl. "Character") ist eine vereinfachte, auf Äußerlichkeiten und wenige prägnante Merkmale reduzierte Form eines Charakters, der als vollwertige literarische Figur nur innerhalb einer Erzählung existiert. Es sind dann nicht die Figuren, sondern oft nur deren Kyara, die in vereinfachten Formen in Adaptionen wie Computerspielen und Musik auftreten, die in Fanwerken verarbeitet werden oder die die Werke eines Franchise verbinden, nicht Geschichten oder detailreiche Charaktere. Kyara sind demnach seit der Jahrtausendwende zunehmend Objekt der Zuneigung der Fans ("moe") und zum Angelpunkt von Franchises geworden, während die Bedeutung von und das Interesse an übergreifenden, großen Erzählungen abgenommen habe. Mediale Formen. Kinofilme. Neben Filmen mit originären Stoffen, für die insbesondere das Studio Ghibli weltweit bekannt ist, kommen viele Animes ins japanische Kinos, die vor allem romantische und dramatische Stoffe aus bekannten Romanen und Mangas umsetzen. Außerdem ist es für mehrere, über lange Zeit erfolgreich laufende Manga- und Animeserien meist für Kinder üblich, jedes Jahr einen Kinofilm zum Franchise in die Kinos zu bringen. Auf diese Weise kann das Publikum die ihm bereits vertrauten Figuren, manchmal in nur wenig abgewandelten oder die Serie zusammenfassenden Geschichten, in höherer Animationsqualität im Kino erleben. Auch finden seit etwa 1970 mehrere jährliche Festivals statt, auf denen Studios Filme und Serienzusammenschnitte zu bekannten Franchises oder Fernsehserien präsentieren, was insbesondere im Segment der Kinderunterhaltung zu einer dauerhaften Institution geworden ist. Die in bereits bestehende Franchises eingebundenen Filme sind oft auch als Werbemaßnahme für die weiteren Produkte ihrer Marke gedacht, sodass auch auf den ersten Blick an der Kinokasse gefloppte Filme oder solche, die ihre Produktionskosten nicht wieder einspielen, auf Grund ihres Wertes als Werbung für die Produzenten eine gelungene Investition sein können. Gänzlich originäre Stoffe dagegen stellen für die Geldgeber ein großes Risiko dar und sind daher selten. Direktvermarktung. Neben Fernsehserien und Kinofilmen werden Animes seit den frühen 1980er Jahren als Original Video Animation, kurz "OVA", für den Kaufvideo- und DVD-Markt produziert. OVAs oft sehr kurze Serien oder Kurzfilme, mit Geschichten die für eine Fernsehserie nicht ausreichen oder für die kein großes Publikum zu erwarten ist. Die Qualität ist sehr unterschiedlich, bei manchen Produktionen nur sehr gering, aber oft deutlich über Fernsehniveau. Die Zielgruppe sind zum einen Jugendliche und junge Erwachsene, darunter besonders Anime-Fans. Angebote für diese enthalten in der Regel mit viel Fanservice und Action sowie teils pornografische Inhalte, außerdem Zusatzinhalte zu bekannten Serien. Daneben sind die Käufer von Heimvideos zu großem Teil Familien und Kinder. Letztere Zielgruppen machten in den 1990er Jahren noch den überwiegenden Anteil am Direktverkaufsmarkt aus, wobei dieses Angebot auch viele Animationsfilme aus den USA, vor allem von Disney und Warner Brothers enthielt. In Verbindung mit diesem Videomarkt gab es in Japan in der Vergangenheit auch einen umsatzstarken Leihvideomarkt. Beide profitieren davon, dass in Japan bereits seit langem weniger Vorbehalte gegenüber Animationsfilm bestehen und daher Animes aller Genres und für alle Altersgruppen produziert werden, sodass eine breite Käuferschaft besteht. Die Etablierung dieses Vertriebsweges erlaubte es seit den 1980er Jahren mehr und kleineren Studios den Eintritt in den Animemarkt, da OVAs die Gelegenheit kleinerer, direkt finanzierter Aufträge für die Videovertriebe oder sogar direkt für Fans bieten. Im Gegensatz dazu sind für Fernseh- und Kinoproduktionen größere finanzielle Anstrengungen oder entsprechend größere Produktions-Beteiligungen nötig. Mit Aufkommen der DVD wurde die Attraktivität des Vertriebswegs für Käufer weiter erhöht, da nun Zusatzinhalte und Interaktivität geboten werden konnte. Seit 2000 gibt es auch Serien direkt für das Internet, Original Net Animation (ONA) genannt. Seit in Japan Heimvideo ab Ende der 1970er Jahre für größere Kauferschichten erschwinglich wurde, sind auch Animes aus Fernsehen und Kinos später regelmäßig für den Heimkinomarkt erschienen und haben so ein zweites Publikum erhalten. Auch ältere Werke, die ohne Wiederholungen oder weitere Vorführungen bis dahin immer mehr in Vergessenheit gerieten, wurden auf Kaufmedien ausgewertet und konnten so wieder in die Erinnerung der Öffentlichkeit und von Fans zurückkehren. Zu den Anime mit den höchsten Heimvideoverkäufen zählen daher solche, die zuvor bereits durch Kino und Fernsehen Zuschauer gewinnen konnten: Fernsehen. Anime-Fernsehserien haben für gewöhnlich 12–13, 24–26, sowie seltener 52 oder mehr Folgen, so dass bei wöchentlicher Ausstrahlung eine Laufzeit von einem viertel, halben oder ganzen Jahr erreicht wird. Ein solches Vierteljahresintervall wird als "cours" (, "kūru") bezeichnet. Die "cours" sind dabei saisonal, d. h., es gibt Winter-, Frühlings-, Sommer- und Herbst-Cours, die im Januar, April, Juli bzw. Oktober beginnen. Im Jahr 1963 wurden sieben Serien gesendet, dies wird generell als der Beginn von Anime-TV-Serien angesehen. 1978 wurde die 50er-Grenze mit 52 Serien gebrochen. 1998 wurde die 100er-Grenze mit 132 Serien erreicht. Mit 233 Serien wurde die 200er-Grenze im Jahr 2004 erreicht. Seitdem hat sich die Anzahl der Serien mehr oder weniger etabliert, jedoch gab es Jahre wie 2006 und 2014, in denen die 300er-Grenze erreicht wurde. Die meisten Anime-Serien sind insbesondere seit der großen Zunahme der Zahl ab den 1990ern nicht als Endlosserien ausgelegt, obwohl insbesondere Verfilmungen langer Manga-Serien auf weit mehr als 100 Folgen kommen können. Viele Serien laufen dagegen nur über einen Cours, also etwa 13 Folgen. Anders sieht dies bei am Tage ausgestrahlten Animes aus, die meist lang laufen (über zwei "cours") und sich zudem auch entweder an ein junges oder ein Familienpublikum richten. Der Anstieg der Anime-Anzahl in den 1990ern ist darauf zurückzuführen, dass seit 1996 die Mitternachtsprogrammplätze für Anime verwendet werden, aber auch darauf, dass durch den großen Erfolg (und die Kontroverse) von "Neon Genesis Evangelion" immer mehr Studios, Videounternehmen und Verlage Werke produzieren ließen. Diese schließen sich dann oft mit Merchandising-Partnern zu Produktionskomitees (, "seisaku iinkai") zusammen und kaufen einen Mitternachtsprogrammplatz – daher auch als Mitternachtsanimes (, "shin’ya anime") bezeichnet – bei mehreren Sendern, üblicherweise für ein bis zwei "cours". Der größte Teil dieser Programmierungen geschieht auf Regionalsendern, die keinem der großen Networks angeschlossen sind. Da diese auf UHF-Band ausstrahlen, werden derartige Anime auch UHF-Anime (UHF) genannt. Mitternachtsanimes erreichen durchschnittliche Einschaltquoten von etwa 2 %, während 4 bis 5 % schon außergewöhnlich hoch sind. Einschaltquoten spielen bei Mitternachtsanimes kaum eine Rolle. Zum einen wurde bereits früh dafür geworben, die Serien aufzunehmen, womit die Ausstrahlung zu einem Videovertrieb über Umwege wurde, bei der der Kunde den Anime umsonst erhält, aber Werbung hinnehmen und den Datenträger mitbringen muss. Zudem dient die Ausstrahlung zunehmend der Werbung für Veröffentlichungen auf Kaufmedien – die höhere Qualität oder Zusatzinhalte im Vergleich zur Fernsehfassung bieten – und Merchandise-Artikeln, mit denen der Gewinn gemacht wird. Abhängig von deren Verkaufszahlen entscheidet sich dann, ob weitere Staffeln produziert werden. Viele der Anime, die Teil eines Medienmix-Franchises sind, dienen aber auch der Bewerbung des gesamten Franchises, so dass für das auftraggebende Produktionsunternehmen auch die Animeverkäufe zweitrangig sein können, sofern Verkäufe für andere Produkte unter der Marke anziehen. Seit der Einführung der Mitternachtsanime hat sich die Anzahl der Serien mit hohen Einschaltquoten verringert, und auch die Art der Serien im Tagesprogramm hat sich verändert. Anime mit den höchsten Einschaltquoten: Online-Streaming. Japanische Fernsehsender gehen auch dazu über, den ausländischen Markt direkt zu beliefern. Im Januar 2009 begann TV Tokyo als erster größerer Fernsehsender, seine Animes nur Stunden nach deren Ausstrahlung im japanischen Fernsehen englisch untertitelt auf einer abopflichtigen Website zu veröffentlichen. Heute wird ein großer Teil der Neuerscheinungen gleichzeitig zur japanischen Ausstrahlung (Simulcast) auf Websites mit englischen (Funimation und Crunchyroll), aber auch deutschen Untertiteln gestreamt. Verhältnis zur japanischen Gesellschaft und Politik. Anime sind ein fester Bestandteil des japanischen Kulturgutes. Zu den erfolgreichsten Kinofilmen in Japan zählen viele Animes, so "Prinzessin Mononoke", "Pokémon: Der Film" und "Chihiros Reise ins Zauberland". Nach einer Umfrage sind die 100 beliebtesten Zeichentrickserien in Japan alle Anime, mit Ausnahme von "Tom und Jerry". Im Vergleich zum Animationsfilm in anderen Ländern war Anime in Japan bereits vergleichsweise früh gesellschaftlich anerkannter. So wurden einige Animatoren und Regisseure seit den 1980er Jahren prominent und ähnlich geachtet wie ihre Kollegen aus dem Realfilm. Während Anime, genauso wie andere japanische Populärkultur, noch bis in die 1990er Jahre von der Politik wenig beachtet und wenn überhaupt nur als Problem wahrgenommen wurde, änderte sich dies nach 2000. Insbesondere durch den Außenminister und späteren Premierminister Tarō Asō, selbst Fan von Anime und Manga, wurde die japanische Populärkultur als wichtiger Teil der japanischen Wirtschaft und Kultur begriffen und dessen Export beworben und gefördert. Mehrere Gesetzesvorhaben stärkten den Urheberschutz und Vertreter der Anime-Industrie wurden in politische Beratungsgremien aufgenommen. Anime und Manga sollten als Soft Power beziehungsweise im Kontext der Idee von Cool Japan ein positives Bild Japans in der Welt vermitteln und wichtiger Teil der Exportwirtschaft sein. Diesen Initiativen entgegen steht, dass Anime wie auch Manga nicht so neu und modern, nicht so stilistisch und inhaltlich einheitlich sind wie die politischen Strategien sie bewerben. Stilmerkmale und Marketingstrategien haben eine weit vor 2000 zurückreichende Geschichte und sind oft im Zusammenspiel mit westlichen Einflüssen entstanden, sind also weniger originär japanisch als politisch suggeriert wird. Manche Animeserien werden dafür krititiert, nationalistische oder revanchistische Ideen zu transportieren. Japanischen Animefans wird ein stärkeres Nationalbewusstsein zugeschrieben als anderen Teilen der Gesellschaft. Zugleich findet im Medium auch Kritik an Politik, Gesellschaft und Nationalismus statt, viele Werke zielen auf einheimisches Publikum und sind international nicht verständlich und die Szene und deren Vertreter versuchen sich politischer Einvernahme zu entziehen. Des Weiteren ist fraglich, ob die auch in Japan recht kleine Branche die von der Politik in sie gesetzten wirtschaftlichen Hoffnungen erfüllen kann. Anime international. Anime-Produktionen werden weltweit vermarktet und konsumiert. So gab es 2011 dauerhafte Lizenzvereinbarungen japanischer Anime-Rechteinhaber mit Lizenznehmern in 138 Ländern. Nur einige Staaten Zentralasiens und Afrikas sind ausgenommen. Dazu kommt die nicht unerhebliche illegale Verbreitung. Außerhalb Asiens sind hauptsächlich die USA, Frankreich und Italien für die Verbreitung von Anime in Nachbarländern wie Spanien, Portugal, Arabien, Lateinamerika und auch Deutschland verantwortlich. Der Erfolg von Anime in westlichen Ländern öffnete diese Märkte in den 1990er Jahren auch dem verwandten Medium Manga, dem japanischen Comic, der hier zuvor nur wenig Zuspruch finden konnte. In einigen Nachbarländern Japans – Südkorea und Taiwan – war der Manga dagegen schon früh präsent, ehe auch Animes gezeigt wurden. In der Volksrepublik China dagegen erfuhren beide Medien wie außerhalb Japans erst in den 1990er Jahren größere Verbreitung, auch hier gingen Fernsehserien den Comics voraus. Die, gerade in westlichen Ländern unerwartete, Popularität von Anime – und in Verbindung damit auch Manga – in der Jugendkultur wird von Antonia Levi schon Mitte der 1990er Jahre als „Sieg des Multikulturalismus“ bezeichnet. Einer, der zugleich die Comic- und Animationsszene in Amerika und Europa mit neuen Ideen befruchtete. Die Veröffentlichung findet sowohl synchronisiert als auch untertitelt statt, wobei insbesondere Fans untertitelte Fassungen oft bevorzugen, um nicht originalgetreue Übersetzungen zu meiden. Da viele Animes Bezüge zur japanischen Kultur haben und daher für Zuschauer in anderen Ländern nicht immer leicht zugänglich sind, waren außerhalb Asiens zunächst vor allem neutrale Stoffe oder solche basierend auf europäischen oder internationalen Märchen erfolgreich, ehe auch stärker japanische Serien ein Publikum finden konnten. Diese hatten und haben es teilweise noch immer schwer, ihr Publikum zu finden, da speziell japanische Stilelemente, Bildsprache und Symbole außerhalb Japans für viele nicht verständlich sind. Außerdem wurden bei vielen Lokalisationen die Dialoge und teilweise auch die Handlung angepasst, um sie kindgerechter zu gestalten, da Zeichentrick im Westen ausschließlich als Medium für Kinderunterhaltung verstanden wurde. So wurden sexuelle Anspielungen oder Gewaltdarstellungen durch Dialogänderungen oder Schnitte entfernt oder „entschärft“, bis hin zu sinnentstellenden Änderungen. Auch die Komplexität einiger Animes wurde durch Kürzungen reduziert oder die Musik durch neue ersetzt, um die Werke dem Publikum gefälliger zu machen. Bei anderen Serien, die sich eher an Anime-Fans richten, wurden stattdessen zusätzliche Erläuterungen beigelegt, um die japanischen Eigenheiten zu erklären. Der Erfolg des Mediums seit den 1990er Jahren wird teils mit dessen Andersartigkeit beziehungsweise des „Japanischseins“ erklärt, das gerade für Jugendliche einen besonderen Reiz ausmache. Andere Autoren verweisen darauf, dass Serien mit weniger explizitem Japanbezug wie "Pokémon" und "Sailor Moon" die erfolgreichsten sind und daher einer im Medium verbreiteten Mischung aus Fantasy und dem Publikum bekannten Alltagsthemen, die zur Identifikation einladen, eine wichtigere Rolle zukommt. Die früh im Westen erfolgreichen Serien wie "Astro Boy" ließen keinen japanischen Bezug erkennen, beziehungsweise diesen leicht herausbearbeiten, und wurden daher gern als kulturell neutral wirkende Produkte eingekauft. Durch diese frühen Importe wurde das Publikum bereits an japanische Ästhetik und Erzählmuster gewöhnt. Jonathan Clements spricht von drei Typen von Konsumenten: vor allem Kindern und Jugendlichen, die eher kulturell neutrale Produkte konsumieren; erwachsene Fans, die Anime gerade wegen seiner besonderen Merkmale wählen; und zufällige Publikumsgruppen, die insbesondere bei familien- oder breit anschlussfähigen Filmen in Erscheinung treten. Besondern in den 1970er und 1980er Jahren, aber auch noch danach, findet ein erheblicher Teil von Animes sein Publikum über illegale Kopien. Vor allem dort, wo noch keine Unternehmen Animes lizenziert hatten oder keine Verkaufsinfrastruktur vorhanden war, wurden das Medium nur durch illegale Verbreitung überhaupt erst bekannt und gewann eine Anhängerschaft. Waren das früher Kopien von Videokassetten, die privat und auf Conventions weitergereicht und von Fans untertiteln wurden, wurden daraus später über Websites zum Herunterladen angebotene Fansubs. Als sich international ein kommerzieller Markt für Animes entwickelte, begannen deren Unternehmen den damit entstehenden Einnahmeeinbußen entgegenzutreten. In den USA taten sich 1995 zusammen, um gegen illegale Kopien und Verleihe der lizenzierten Werke vorzugehen. Dies sollte sich gegen kommerziell orientierte Rechtsverletzungen richten, geriet jedoch schnell in die Kritik der Fanszene, dass es auch gegen Fangruppen vorgehe. Die Arbeit wurde ohne Öffentlichkeitsarbeit fortgesetzt, um keine Reaktionen der Fans mehr zu provozieren. Nichtkommerzielle Kopien werden von den Unternehmen oft toleriert, nicht wenige von ihnen begannen selbst als Fangruppen. Viele Fansubgruppen wiederum stellen die Verbreitung ein, wenn ein Anime in der jeweiligen Sprache lizenziert wurde und offiziell veröffentlicht wird. Durch die Etablierung von Streaming sowie von Tauschplattformen nahm die Online-Verbreitung von illegalen Kopien ab den 2000er Jahren zu und geht nun nicht mehr nur direkt von Fansubbern aus oder findet nicht nur über persönliche Treffen statt. Während die Anime-Vertriebe dahinter wachsende Verluste befürchten, wird diese Form der Verbreitung von anderen Beobachtern auch als Werbung in Zielgruppen gesehen, die kommerzielle Vertriebe nicht erreichen können. Es ist jedoch unklar, ob sich solche Werbung je in Einnahmen für die Produzenten auszahlt. USA. Anime-Serien sind im Westen erstmals in den Vereinigten Staaten im Fernsehen aufgetaucht. Dort sind in den 1960er Jahren unter anderem "Astro Boy", "Kimba, der weiße Löwe", "Gigantor" und "Speed Racer" gelaufen. Letztere wurde als einzige schon als japanisch erkannt und prägte lange das Bild von Anime in den USA. Danach waren Anime-Serien weniger präsent, als es in Europa der Fall war. Die populärsten Serien kamen aus dem Science-Fiction-Bereich, wie "Star Blazer", "Voltron" und "Robotech". Auch gab es Koproduktionen zwischen den USA und Japan, deren japanische Ursprünge oft nicht wahrgenommen wurden, dazu zählen "Das Letzte Einhorn" und "Transformers". In den 1990ern begannen sich nach ersten erfolgreichen Animes im Kinos auch amerikanische Filmproduzenten für die japanische Filmindustrie zu interessieren und finanzierten unter anderem "Ghost in the Shell" mit und eine Vereinbarung zwischen Disney und Tokuma Shoten brachte die Filme des Studio Ghibli nach Nordamerika. Kurz darauf war wie in Deutschland die internationale Vermarktung der Serien "Sailor Moon", "Pokémon" und "Dragon Ball Z" für die Wahrnehmung von Anime im Speziellen verantwortlich gewesen. Der Film "Pokémon the Movie: Mewtwo Strikes Back" von 1999 wurde zum erfolgreichsten Anime-Film in den japanischen Kinos. Erfolgreiche Ausstrahlungen von Anime-Serien hatten Einfluss auf die Cartoon-Industrie in den USA selbst. Zunächst betraf das vor allem die Comicszene, die sich in Ästhetik und Themen von Anime und Manga inspirieren ließ. Es folgten Animationsproduktionen, die zunächst noch zurückhaltend auf düsterere Atmosphäre und erwachsenere Themen setzten. Serien wie "Galaxy Rangers" in den 1980ern sowie "Avatar – Der Herr der Elemente", "Monsuno" und "Teen Titans" in den 2000ern waren von der Anime-Ästhetik beeinflusst. Seit Ende der 2000er wurden auch mehrfach Manga- beziehungsweise Anime-Titel von amerikanischen Studios als Realfilm adaptiert. Nach dem Boom Anfang der 2000er Jahre gingen zum Ende des Jahrzehnts die Verkäufe von Anime-DVDs zurück, was zum einen auf die Konkurrenz durch legale und illegale Online-Angebote zurückgeführt wurde, aber auch den massiven Zustrom neuer Wettbewerber in den wachsenden Markt um 2000. Diese kauften oft Lizenzen, ohne deren Chancen im US-Markt einschätzen zu können oder gar nur mit Projektskizzen, was erst die Lizenzpreise in die Höhe trieb und bei ausbleibenden Erfolg viele Unternehmungen in den Ruin. Auch einige japanische Studios, die zu sehr auf Geld aus den USA setzten, waren dann in finanziellen Nöten. Eine ähnliche, noch deutlichere Entwicklung nahm der nordamerikanische Manga-Markt. Im US-Fernsehen werden für Anime, die im Kinderprogramm laufen, die umfangreichsten Bearbeitungsmaßnahmen unternommen. Diese Fassungen werden dann oft international vermarktet. Der amerikanische Jugendschutz ist im Vergleich zum europäischen Standard in Deutschland, Frankreich etc. weitaus strenger. In den USA stehen den Unternehmen umfangreiche Mittel zur Verfügung, um Bilder zu retuschieren, Namen zu ändern, Folgen auszulassen, zusammenzuschneiden und somit die Handlung zu verändern. Auch die Musik wurde teilweise verändert. Freizügige, gewalttätige, religiöse oder japanisch-kulturelle Inhalte und auch Bezüge zu Alkohol, Waffen und Drogen werden entfernt. Ernsthafte Themen wie der Tod werden umschrieben oder ausgelassen. Diese Maßnahmen unterscheiden sich von Serie zu Serie und auch von Firma zu Firma. Die konsequentesten und umfangreichsten Bearbeitungen finden bei 4Kids ("One Piece", "Yu-Gi-Oh"), Harmony Gold ("Robotech"), Saban Brands ("Digimon", "Glitter Force") und DiC (Sailor Moon) statt. Weitgehend unbearbeitete Serien haben Popularität durch Videokassetten oder durch Nachtprogramme von Sendern wie Cartoon Network oder SyFy gewonnen. Speziell im Nachtprogrammblock von Cartoon Network sind "Cowboy Bebop" und "Big O" sehr populär geworden. "Space Dandy", "" und eine zweite Staffel von "Big O" wurde von amerikanischen Geldern mitfinanziert. Netflix plant, mehrere Serien mitzufinanzieren, die dann als Netflix Original beworben werden. Seit den 2000ern sind Anime, zuvor nur wenigen bekannt, stärker Teil des amerikanischen Mainstreams geworden, was auch zu zunehmender gesellschaftlicher und politischer Kritik am Medium führte. Während zunächst vor allem die Fans kritisiert wurden – als seltsam und unreif – geraten mittlerweile auch die Werke selbst in die Kritik, meist weil sie nicht kinderfreundlich genug seien. Anime in Deutschland. Als erster Anime in Deutschland wurde ab dem 16. März 1961 der Film "Der Zauberer und die Banditen" von Toei Animation aus dem Jahr 1959 in den Kinos gezeigt. Die erste Anime-Serie im deutschen Fernsehen war "Speed Racer", von der 1971 aber nur einige Folgen gezeigt wurden, ehe sie wegen Protesten abgesetzt wurde. Für die Ausstrahlung von "Captain Future" in den 1980er Jahren wurde Gewaltszenen entfernt, sodass sie von 52 auf 40 Folgen gekürzt wurde. Entsprechend wurden in den 1970er und 1980er Jahren nur kinderfreundliche Serien, zum Beispiel des "Masterpiece Theater" gezeigt, bei denen keine Proteste zu befürchten waren. Einige davon waren deutsche Koproduktionen wie "Wickie und die starken Männer," "Die Biene Maja" und "Nils Holgersson". Die ersten deutschen Kauf-Animes gab es im Jahr 1975 auf sogenannten TED-Bildplatten. In den 1980er Jahren erschienen zahlreiche Animes auf VHS-Kassetten. Dieser Markt war neben der Zweitverwertung von Kinderserien aus dem Fernsehen geprägt von erotischen Werken, die von Trimax herausgebracht wurden. Diese Importe führten dazu, dass „Anime“ noch bis nach 2000 von vielen eng mit pornografischen oder stark gewalthaltigen Werken verknüpft wurden. Mit Beginn der 1990er Jahre sind im deutschen Kino häufiger Anime-Filme gezeigt worden, darunter "Akira" (1991), "Ghost in the Shell" (1997) sowie einige Produktionen von Studio Ghibli wie "Prinzessin Mononoke" (2001) und "Chihiros Reise ins Zauberland" (2003). Mit dem Aufkommen des Privatfernsehens kam auch eine Vielzahl von Anime-Serien ins Fernsehen, zunächst über Einkäufe von europäischen Programmpaketen, in denen neben westlichen Zeichentrickserien auch vereinzelt Anime enthalten waren. Mit der Zeit wurden auch Serien für Jugendliche ins Programm genommen, und im August 1999 erhielten Animes den Programmblock "Moon Toon Zone" bei RTL 2. Dieser Block bestand aus "Sailor Moon, Dragon Ball" und "Pokémon" und wurde mit "Anime@RTL2" ab 2001 und "PokitoTV" im Jahr 2004 ausgebaut. Durch den Erfolg der RTL-2-Ausstrahlungen begann das bewusste Lizenzieren von Anime durch RTL2 und andere Fernsehsender. K-Toon, MTV, VIVA und VOX sendeten Animes für ein älteres Publikum. Ab 2007 ging dieses Angebot von Animes im Fernsehen wieder deutlich zurück. 2013 wurde das Programm bei RTL II vollständig abgesetzt. Von 2007 bis Juni 2016 gab es mit Animax Deutschland ein eigener Pay-TV-Sender für den deutschsprachigen Raum. Heute senden nur noch ProSieben MAXX (seit 2013) und Nickelodeon regelmäßig Animes. Die Nachbearbeitung von Animes geschah im deutschen Fernsehen und Kino lange Zeit in großem Maße und war oft Gegenstand großer Kritik von Fans. Dabei wurden zahlreiche Schnitte und inhaltliche Änderungen meist mit dem Jugendschutz begründet, da Trickserien als Kinderprogramm gelten und für dieses Publikum eingekauft und gezeigt werden. Das erste deutsche Anime-Label war OVA Films, gegründet 1995. Um 2000 kamen immer mehr Label auf den Markt, von denen sich jedoch viele nicht halten konnten. Erst ab 2010 traten neue Unternehmen dazu, von denen einige seit 2015 auch regelmäßige Anime-Festivals veranstalten. AV Visionen startete im September 2007 das erste deutsche Anime-Video-on-Demand-Portal "Anime on Demand". Mit der Zeit folgten weitere deutsche wie internationale Angebote, die jedoch nicht alle von Dauer waren. So stellte das zu ProSiebenSat.1 Media gehörende MyVideo sein 2011 gestartete Angebot 2016 wieder ein. Seit 2013 bedient das amerikanische Portal Crunchyroll auch den deutschen Markt. Eine Fanszene entwickelte sich ab den 1980er Jahren in kleinerem Maße. Mit zunehmender Verbreitung und Popularität von Animes wie auch Mangas nach der Veröffentlichung von "Akira" im Westen und umso mehr nach dem Erfolg von Fernsehserien, darunter "Sailor Moon" und "Dragon Ball", entwickelte sich eine größere Fangemeinde. Diese stützte sich stark auf kommunikation über Chats und Foren, es entstanden Fanzines und Veranstaltungen der Szene sowie Treffen auf Buchmessen. Darüber hinaus gehört Cosplay, das Verkleiden als Figur aus einem Manga oder Anime, und Fan-Art zu wichtigen Hobbys in der Szene. Außerdem findet nicht selten eine Auseinandersetzung mit japanischer Kultur und Gesellschaft jenseits von Populärkultur statt. Bedeutende Veranstaltungen, auf denen sich Fans vorrangig treffen, sind Anime- und Manga-Conventions sowie der Japantag, die Buchmessen oder Veranstaltungen zum japanischen Film. Das einzige derzeitige professionelle deutschsprachige Anime-Fachmagazin ist die "AnimaniA", die seit September 1994 erscheint. Dazu kommen Jugendmagazine mit eigenen Anime-Bereichen, wie "Mega Hiro", "Koneko" und "Kids Zone". Mittlerweile eingestellt sind die vom Verein Anime no Tomodachi herausgegebene "Funime" sowie die "MangasZene". Frankreich. In Frankreich sind Anime zum ersten Mal mit den Serien "Kimba, der weiße Löwe" und "Choppy und die Prinzessin" (Erstausstrahlung folgte in Deutschland in 1996) im Jahr 1972 und 1974 aufgetaucht. Ähnlich wie "bei Wickie und die starken Männer" und "Die Biene Maja" gab es französisch-japanische Koproduktionen ("Barbapapa", "Odysseus 31" und "Die geheimnisvollen Städte des Goldes") und viele Serien des "World Masterpiece Theater" wurden gezeigt. Mit der Toei-Produktion "Grendizer", in Frankreich "Goldorak" genannt, wurde 1978 eine Serie ausgestrahlt, die maßgeblich dafür verantwortlich war, dass im Kinderprogramm vermehrt auf Anime gesetzt wurde. Die Serie erreichte hohe Einschaltquoten, löste aber auch große Anfeindungen und Proteste gegenüber gewalthaltigen japanischen Produktionen aus. TF1 ist der größte Privatsender Frankreichs und setzte im Kinderprogramm stark auf Anime, viele Serien waren verantwortlich für die große Fanszene in Frankreich. Es folgten mehrere Science-Fiction-Serien von Leiji Matsumoto. Das als "Albator" gezeigte "Captain Harlock" wurde von einem französischen Studio auch als Comic umgesetzt. Für weibliches Publikum wurde 1978 die Serie "Candy Candy" aus Japan importiert. Während RTL2 insgesamt etwa 60 Serien zeigte, waren es auf TF1 weit über 100. AB Productions hat die Serien jedoch als billiges Kinderprogramm angesehen und diese Massen an Serien dann so im Schnitt und Dialog zusammengestutzt. 1997 wurde das Programm auf TF1 nach Protesten und einen Konflikt über Anime, der über 15 Jahre anhielt, vollständig abgesetzt. Danach haben sich verschiedene Spartensender gefunden, die ein Animeprogramm sendeten, während im Kinderprogramm der großen Sender ausschließlich auf sehr kindgerechte Anime gesetzt wurde. Space Adventure Cobra gilt als der Anime mit dem höchsten Kultstatus in Frankreich, Realverfilmungen und Fortsetzungen als Koproduktion sind geplant. 2004 wurde "Ghost in the Shell 2: Innocence" bei den Internationalen Filmfestspielen von Cannes 2004 nominiert. Wie in den USA hatten Anime Einfluss auf die heimische Zeichentrickindustrie in Frankreich. "Totally Spies!" und "Wakfu" sind ästhetisch an Anime angelehnt. Italien. In Italien war die Resonanz auf Anime durchwegs positiv. Seit "Goldorak" wurde beinahe jedes Genre und Format von Japan übernommen. In Italien wurden die meisten Anime außerhalb Japans im Fernsehen und Kino gezeigt. Während in Deutschland in den 70ern und 80ern nur knapp 20 Serien gezeigt wurden, waren es in Italien bereits über 200. Der Grund für diese Massenimporte war, dass Italien bereits 1976 das Fernsehen privatisierte und daraus eine Vielfalt an Sendern hervorging. Auch waren Anime die preiswertesten Zeichentrickproduktionen. Wie auch in Frankreich war "Goldrake (Grendizer)" sehr erfolgreich und erhielt mehrere italienische Comic-Adaptionen – wurde aber auch Ziel scharfer Kritik von politischer Seite, es sei faschistisch, militaristisch und anti-kommunistisch. Für weibliches Publikum wurde 1978 die Serie "Candy Candy" aus Japan importiert. Koproduktionen mit Japan wie "Calimero", "Z wie Zorro" und "Die Abenteuer des Sherlock Holmes" sind entstanden. Eine Vielzahl der Sendungen, die in Kinderprogrammen der großen Sender liefen (Rai und Mediaset), wurden konsequent bearbeitet. So hat man Gewalt und freizügige Szenen geschnitten – aber auch Zensur und Veränderungen im Dialog wurden vorgenommen. Thematiken wie der Tod, sexuelle Anspielungen, japanische kulturelle Inhalte, sowie drastische Bilder und Zustände wurden sehr kindgerecht und abgeflacht aufbereitet. Durch die Thematik der Serie "Detektiv Conan" haben sich aber solche Dialogumschreibungen wieder gelegt, und diese werden inzwischen auch in anderen Serien nicht mehr verwendet. In den 70ern, 80ern und 90ern sind verschiedene Serien unverändert auf verschiedenen Lokalsendern gelaufen, jedoch geriet "Fist of the North Star" in starke Kritik, weshalb fortan auf diesen kleineren Sendern auf Anime verzichtet wurde. 1999 begann mit MTV Italy die erste Ausstrahlung von Anime explizit für ein älteres Publikum zu einer passenden Sendezeit. Spanien. Verschiedene Animeserien sind in Spanien zunächst auf dem öffentlich-rechtlichen Sender "Televisión Español" gelaufen. Der erste war wie in anderen Ländern "Kimba, der weiße Löwe", 1969. jedoch geriet "Saint Seiya" in die Kritik und wurde abgesetzt. Auch Koproduktionen wie "Um die Welt mit Willy Fog", "D’Artagnan und die drei MuskeTiere" und "Roy, the Little Cid" sind entstanden. Auch viele Serien des "World Masterpiece Theater" wurden gezeigt und einige von lokalen Künstlern adaptiert. So erschien ein spanischer Comic zu "Heidi". Ebenso wurde "Mazinger Z" adaptiert. Mit dem Aufkommen des Privatfernsehens im Jahre 1990 startete der Sender Telecinco. Er setzte "Saint Seiya" fort und importierte fast 100 weitere Animeserien. Genau wie in Frankreich und Italien hat sich die Wahrnehmung für Anime weit vor Deutschland und den USA entwickelt. Jedoch kamen viele dieser Serien in die Kritik aufgrund von Gewaltdarstellungen oder auch wegen freizügigeren Szenen (kurze Röcke bei "Sailor Moon" oder Nacktheit bei "Ranma 1/2") und wurden 1999 zeitweilig mit Disneycartoons ersetzt. Rezeption des Mediums. Wissenschaftliche Auseinandersetzung. Der Medienhistoriker Jonathan Clements weist darauf hin, dass Anime auf unterschiedliche Weisen rezipiert werden und wurden: lange Zeit nur als Ereignis, das im Kino oder im Fernsehen stattfand. Seit den 1980ern auch als Produkt, als Kaufmedium zum erwerben und besitzen. Die Art, wie Anime erlebt wurde, verändert die Wirkung des Mediums auf den Zuschauer. Anime als Ereignis ist insbesondere in Japan noch heute von Bedeutung, teils auch in abgewandelter Form wie bei Konzert-„Auftritten “der in 3D animierten Figur Miku Hatsune. Auch die Sicht von Journalisten und Wissenschaft auf das Medium wird davon beeinflusst, welche Arten der Rezeption dabei beachtet werden. In der Auseinandersetzung mit dem Medium spielt eine Reihe von Quellen eine Rolle. Dazu zählen die selbstgeschriebenen Chroniken von Unternehmen und von Einzelpersonen, Jahrbücher, digitale und analoge Datenbanken, Magazinsammlungen und Kataloge (vor allem der "Animage" und "Newtype"), sowie schließlich Originalmaterial an Werken und aus deren Produktion. Letztere sind jedoch nur noch unvollständig erhalten, da aus der Frühzeit bis in die Nachkriegszeit viele Materialien verloren gegangen und nur Berichte, Aufträge, Katalogeinträge oder Werbung dazu erhalten sind. Die Einblicke, die man in das Medium gewinnen kann, können sich dabei besonders bei den Quellen von Studios und Künstler, stark unterscheiden, da viele ihre persönliche Sicht auf die Entwicklung von Anime und ihren Beitrag darin pflegten und verbreiteten. Auch gehen manche Berichte auf mündliche Überlieferung oder Aussagen zurück, die Jahre oder Jahrzehnte nach den Ereignissen niedergeschrieben wurden. Akademische Geschichtsschreibung zu Anime und solche in Unternehmens- und Fankreisen ist oft teleologisch und von persönlichen Erfahrungen geprägt. Entsprechend wird sie oft so erzählt, dass die Geschichte auf bestimmte, für den Erzähler besonders bedeutende, Werke als Kulminationspunkt zuläuft, die aber je nach Erzähler unterschiedliche sind, bestimmt von ästhetischem Geschmack und Erfahrungen. So werden auf Fans fokussierte Studios in der Forschung intensiver betrachtet als solche mit Zuspruch bei einem breiten Publikum, das aber weniger Anteil an Forschung und dem Gedächtnis der Szene hat. Fanszene. Japanische Animationsfilme haben weltweit eine Fangemeinde, die sich in großen Teilen mit der von Mangas überschneidet. Der Markt der Fans, die viel konsumieren und bereit sind, größere Mengen Geld regelmäßig auszugeben, wird auf 100.000 bis 400.000 Menschen geschätzt. Viele Veranstaltungen widmen sich daher beiden Medien. Eine Fanszene entwickelte sich zunächst in Japan und ab den 1980er Jahren in kleinerem Maße in den USA und Frankreich. Die japanische Fanszene entstand ab den 1970er Jahren, vor allem im Zusammenhang mit Science-Fiction-Serien und dem SF-Fandom, aus der ersten mit Animes im Fernsehen aufgewachsenen Generation. 1978 startete mit "Animage" das erste Anime-Magazin in Japan, das sich an ein breites Publikum richtete. Ihm folgten viele weitere, darunter 1985 das für die Szene ebenso bedeutsame "Newtype". Im folgenden Jahrzehnt wurden mit dem Aufkommen von Original Video Animations mehr Produktionen für ein Nischenpublikum möglich und Fans konnten über Video das Erleben von Animes untereinander teilen und nach Belieben oft und genau betrachten, was die Szene stärkte. Bald wurden diese Fans auch in der Anime-Industrie selbst aktiv. Die Szene emanzipierte sich von der Science-Fiction-Szene und wurde durch Veranstaltungen und massenweise Kinobesuche erstmals als eigene Gruppe öffentlich wahrgenommen. Es kam der Begriff Otaku für Anime-Fans auf, der bis heute sowohl als Selbstbezeichnung als auch spöttische, herabwürdigende Fremdbezeichnung verwendet wird. Ein wichtiges Porträt dieser Fans war die Kurzserie "Otaku no Video" des von Fans gegründeten Studios Gainax. Mit zunehmender Verbreitung und Popularität von Animes wie auch Mangas nach der Veröffentlichung von "Akira" im Westen und umso mehr nach dem Erfolg von Fernsehserien, darunter "Sailor Moon" und "Dragon Ball", entwickelte sich auch in Nordamerika und Europa eine größere Fangemeinde. Die Entwicklung dieser Fangemeinde wurde auch befördert durch die mit dem Internet aufkommenden, neuen Kommunikationsformen wie Chats und Foren. Als die deutsche Fanszene um das Jahr 2000 herum wuchs, war sie noch sehr jung. Einer Umfrage von Sozioland aus dem Jahr 2005 sowie einer Untersuchung des französischen "Centre d'Études et de Recherches Internationales" zufolge waren die meisten zwischen 14 und 25 Jahren alt. Nur wenige waren über 25, spielten jedoch in der Fanszene eine wichtige Rolle, gründeten die ersten Magazine und Veranstaltungen. 70 bis 85 Prozent der Befragten waren weiblich. Während gelegentliche Zuschauer meist synchronisierte Animes konsumieren, werden in der Kern-Fanszene vor allem im Westen eher die untertitelten Fassungen vorgezogen, da diese näher am Original liegen und meist leichter und für eine deutlich größere Zahl an Werken verfügbar sind. Vor allem in den 1990er Jahren waren die synchronisierten Fassungen auch deutlich stärker nachbearbeitet und kulturell dem Zielland angepasst. Insbesondere das Bedürfnis, Werke in möglichst originaler Form zu sehen, spielt daher eine große Rolle beim Bevorzugen von Untertiteln. Damit verbunden entsteht oft auch ein Interesse an japanischer Sprache sowie das Verwenden japanischer (Slang-)Begriffe in der Konversation unter Fans. Das Medium lädt, wie auch Manga, in großem Maße zu eigener Kreativität ein. In der Fanszene ist die Auseinandersetzung mit den Werken und deren Fortsetzung in Form von Dōjinshi (Fan-Manga), Fanfiction, Fanart oder das Verkleiden als Figur aus einem Anime (Cosplay) weit verbreitet. Dieses große Maß an Interaktion zwischen Medium und Fans kann als ein weiteres wichtiges Merkmal von Anime gesehen werden. Gegenstand nicht weniger Fan-Werke sind von den Fans erdachte Liebesgeschichten zwischen den Charakteren, die im Original nicht vorkommen – häufig auch gleichgeschlechtliche Liebe. Für Geschichten über Liebe zwischen Männern etablierte sich die Genrebezeichnung Yaoi. Manche unter den Fans haben auch besonders starke Zuneigung oder Liebe zu einzelnen Charakteren oder Charakter-Merkmalen, was unter dem Begriff Moe zusammengefasst wird, der auch an dieses Phänomen angelehnte Genremerkmale und Darstellungsmittel bezeichnen kann. Die Anime- und Manga-Fanszene kann als in eine breitere Kultur moderner Japan-Mode eingebettet gesehen werden, bestehend aus J-Pop und Visual Kei, japanischem Essen, Mode, Karaoke und Computerspielen. Bedeutende Veranstaltungen, auf denen sich Fans vorrangig treffen, sind Anime- und Manga-Conventions. Diese Conventions bieten Verkaufsstände, Workshops, Autogrammstunden, Konzerte oder Videoabende und Cosplay-Wettbewerbe. Eine der weltweit größten Conventions ist die Japan Expo in Frankreich mit über 230.000 Besuchern. Darüber hinaus finden viele weitere Veranstaltungen in Europa und Nordamerika statt. Daneben ist Anime auch bei Veranstaltungen zu Japan, Animationsfilm, Comic oder Literatur ein Thema, so finden sich in Deutschland beim Japantag oder der Frankfurter Buchmesse Veranstaltungen zum japanischen Animationsfilm. Da bis in die 1990er Jahre hinein alle Animes nur mit Blick auf den heimischen Markt entstanden – und viele auch heute noch – ist für ihr Verständnis oft Wissen über die japanische Kultur notwendig. Der Erfolg der Serien außerhalb Japans war für deren Produzenten daher oft unerwartet. Laut Antonia Levi macht gerade diese zusätzliche Ebene, der damit verbundene Aufwand und die Möglichkeit etwas über eine andere Kultur zu lernen bei der Rezeption auch den Reiz des Mediums für seine westlichen Fans aus, die das „Japanischsein“ von Anime wertschätzen. Die Attraktivität des Medium für die Fans, so Ralf Vollbrecht, liege im deutlichen Unterschied zum „westlichen“ Zeichentrick. Statt „kindlich-kindisch“ zu sein, würde das Körperliche und sexuelle Attraktivität stärker betont und die Geschichten seien auch bei fantastischen Stoffen in ihren Themen nah an den Lebenswelten – insbesondere Entwicklungsthemen werden oft angesprochen – und es gibt ein hohes Identifikationspotenzial für die vor allem junge Zielgruppe und Fangemeinde. Auch Alexander Zahlten betont, der Reiz vieler Serien gerade für jugendliches Publikum läge in der Thematisierung von Transformation des Selbst und der Begegnung mit Anderen, und bringt dies in Zusammenhang mit dem Ende der bipolaren Weltordnung nach dem Ende des Kalten Krieges, das eine Verunsicherung und Sorge um das Selbst gebracht habe. Gerade für Mädchen biete Anime Geschichten mit besonderen Identifikationsmöglichkeiten, so Dinah Zank. Vor allem einige Genres von Animes sprechen in Themenwahl und Design ein weibliches Publikum an und bietet diesem auch Charaktere wie weibliche Kriegerinnen, die Stereotype aufbrechen. Dabei sprechen solche Werke auch männliche Zuschauer an, auch weil sie die Flucht in eine andersartige, „sichere, fantasievolle und idealisierte“ Mädchenwelt bieten.
82
3428404
https://de.wikipedia.org/wiki?curid=82
Actionfilm
Der Actionfilm (von engl. "action": Tat, Handlung, Bewegung) ist ein Filmgenre des Unterhaltungskinos, in welchem der Fortgang der äußeren Handlung von zumeist spektakulär inszenierten Kampf- und Gewaltszenen vorangetrieben und illustriert wird. Es geht eher um stimulierende Aktionen als um inhaltliche Zusammenhänge, empathisches Miterleben der Gefühlswelt der Protagonisten oder künstlerisch-ästhetische Bildwelten. Hauptbestandteile von Actionfilmen sind daher meist aufwendig gedrehte Stunts, Nahkampf-Szenen, Schießereien, Explosionen und Verfolgungsjagden. Geschichte. Ursprung. Der Actionfilm ist seit den 1960er-Jahren ein eigenständiges Filmgenre, doch seine Konventionen sind bereits seit dem Beginn der Filmgeschichte bekannt. Künstler aus dem Vaudeville wie Buster Keaton ließen ihr Können in artistischer Bewegung in Verbindung mit Tricktechnik in ihr Filmschaffen einfließen. Harry Piel drehte damals in Deutschland eine Reihe von „Sensationsfilmen“ mit spektakulären Stunts. Der Actionfilm als eigenes Genre hat seinen Ursprung im Kriminalfilm, in dem in den 1950er-Jahren Aktion und explizite Darstellung von physischer Gewalt zunehmend an Bedeutung gewann, etwa in Stanley Kubricks "Die Rechnung ging nicht auf" (1956). Alfred Hitchcock präsentierte in "Der unsichtbare Dritte" (1959) erstmals eine geschlossene filmische Welt, die ausschließlich als Herausforderung für die physische Aktion der Hauptfigur dient. Dieses Konzept der geschlossenen Actionwelt, die rein zum Ausleben von Körperakrobatik und zur Demonstration spektakulärer Gewaltanwendungstechniken existiert, fand seine Fortsetzung in den Filmen der James-Bond-Reihe und in Fernsehserien wie "Kobra, übernehmen Sie". Dieser von realistischer Darstellung und moralischer Wertung weit entfernten Illusionstendenz stehen die Regisseure der Bewegung des New Hollywood gegenüber, die in offener Form Aktion und Gewaltanwendung inszenierten. Sie reagierten auf gesellschaftliche und politische Entwicklungen wie die Protestbewegung und den Vietnamkrieg und suchten den Kontext der Darstellung zu Fragen der Moral, etwa zu den Folgen von Gewaltanwendung auf den menschlichen Körper. Beispiele für diese realistischere und ernüchternde Herangehensweise sind Arthur Penns "Bonnie und Clyde" (1967) und Sam Peckinpahs "The Wild Bunch – Sie kannten kein Gesetz" (1969). Hochphase 1970er–1990er. Mit den Bruce-Lee-Filmen fand eine Ära der Überbetonung physischer Kräfte und des Körperkultes im Actionfilm ihren Anfang. Stilmittel wie Zeitlupe und Tonverfremdungen führten zur Entwicklung und Definition des Subgenres des Martial-Arts-Films. In den 1980er Jahren beherrschte der Actionfilm das Mainstreamkino mit Stars wie Arnold Schwarzenegger und Sylvester Stallone, die durch Bodybuilding den Körperkult auf einen Höhepunkt führten. Neben wenigen humorvollen Verfilmungen wie Indiana Jones beherrschten überwiegend reaktionäre Themen wie Rachephantasien und das stereotype Aufbauen von Feindbildern das Actionkino. In den 1990er Jahren wurde das Genre zunehmend ironisiert und spiegelte sich selbst, etwa in Filmen wie "Last Action Hero" (John McTiernan, 1993) und "True Lies" (James Cameron, 1994). McTiernans "Stirb-langsam"-Reihe (1988 bis 2013) brach ebenfalls ironisch mit dem Heldenbild des Actionfilms und ließ ihren Protagonisten, dargestellt von Bruce Willis, entmystifiziert als leidensfähigen Jedermann gegen das Böse siegen. Stars wie Jackie Chan vereinnahmten den Stunt als Teil der künstlerischen Darstellung und zogen einen Teil ihrer Popularität aus der Tatsache, auch gefährliche Action grundsätzlich selbst zu bewerkstelligen. Mit The Rock – Fels der Entscheidung oder Con Air wurden für das Action-Genre relativ anspruchsvolle Werke geschaffen, die sich vom aufkommenden Direct-to-Video-Billigtrend abhoben. Weiterentwicklung. Zudem gewannen ab den mittleren 1990ern aufwendige digitale Spezialeffekte und Stunts gegenüber einfachen Kämpfen und Schusswechseln an Bedeutung, z. B. in der -Reihe mit Tom Cruise oder xXx - Triple X mit Vin Diesel. Viele Elemente des Actionfilms wurden bereits Ende der 1970er in der mit Krieg der Sterne beginnenden ersten Trilogie von Star Wars und in etwas geringerem Maße auch Star Trek in die Science-Fiction übernommen. Ab 2000 wurde der Superheldenfilm erneut populär, welcher durch das Batman-Reboot oder Marvels Avengers, die mit enormen tricktechnischen und finanziellen Mitteln produziert wurden. Spätestens in den 2010ern verschwanden klassische Actionfilme als Blockbuster weitgehend aus dem Kino, und Fortsetzungen wie Stirb Langsam 5 oder dem nachempfundene Filme wie White House Down waren nur durchschnittlich erfolgreich. Eine Ausnahme stellt aber z. B. die The-Expendables-Trilogie dar, die als Ensemble-Filme um die populären Schauspieler Schwarzenegger, Stallone, Willis, Jason Statham, Dolph Lundgren und andere als eine Art Hommage inszeniert wurde. Weibliche Protagonisten. Weibliche Hauptfiguren waren bis Ende der 1990er Jahre selten, eine Ausnahme stellten aber die von Sigourney Weaver verkörperte "Ellen Ripley" der Alien-Reihe und die von Linda Hamilton verkörperte "Sarah Connor" in Terminator dar. Später folgten Brigitte Nielsen (Red Sonja), Kate Beckinsale (Underworld), Uma Thurman (Kill Bill), Michelle Rodriguez (SWAT - Die Spezialeinheit) oder Halle Berry (Catwoman), welche meist Seite an Seite mit einem männlichen Filmpartner agierten. Mit Wonder Woman (Gal Gadot) oder Rogue One (Felicity Jones) wurden weitere Heldinnen geschaffen. Actionfilme außerhalb Hollywoods. Neben den in Hollywood produzierten Actionfilmen konnten sich international nur wenige Produktionen behaupten. In den 1970er Jahren waren Martial-Arts-Filme, welche überwiegend in Hongkong entstanden, populär. Zeitgleich entstanden mit dem Hongkong-Film relativ actiongeladene Spielarten des Polizeifilms. Ein bekannter Regisseur des Hongkong-Films ist John Woo (City Wolf, Bullet in the Head), welcher Elemente des Hongkong-Filmes nach Hollywood brachte und dort durch Filme wie und Im Körper des Feindes (jeweils mit John Travolta) weltweite Erfolge erzielte. In Europa zählt neben Großbritannien Frankreich zu einem der Zentren des Actionfilms. Der Regisseur Luc Besson erreichte mit Nikita, Léon – Der Profi (jeweils mit Jean Reno) und Das fünfte Element internationale Erfolge. Ebenfalls in Frankreich entstand die Transporter-Reihe mit Jason Statham. Zu den wenigen erfolgreichen deutschen Actionfilmen zählt Lola rennt (2001). In der Stadt Kampala in Uganda werden in den Filmstudios von Wakaliwood unter einfachsten Bedingungen Filme wie Who Killed Captain Alex? gedreht, deren Mittel in der Regel nur wenige hundert Euro betragen, die sich aber im Lande einer hohen Beliebtheit erfreuen. Der Besitzer von Wakaliwood, Isaac G. Nabwana, wird dort als "Ugandas Tarantino" bezeichnet. Motive und Darstellungsformen. Die Bewegung, Grundmotiv des Films, dient im Actionfilm in erster Linie Schauzwecken und hat weniger erzählerische Funktionen. Oft werden im Actionfilm in der Art einer Nummernrevue geschlossene Sequenzeinheiten aneinandergereiht, die der Zurschaustellung unterschiedlichster bewegungsgetriebener Konflikt- oder Duellsituationen dienen, etwa Shootouts, Verfolgungsjagden, Körperkämpfe oder Explosionen. Subjekte der Aktion sind speziell im US-amerikanischen Actionfilm häufig sich verfolgende Fahrzeuge, etwa in "Brennpunkt Brooklyn" (William Friedkin, 1971), "Bullitt" (Peter Yates, 1968) oder "Dirty Harry" (Don Siegel, 1971). Der dargestellten Gewalt wird häufig in wirklichkeitsfremder Weise der Realitätsbezug genommen. Filmische Mittel wie Konvergenzmontage und Parallelmontage strukturieren diese Nummern, etwa um einen Spannungsbogen in einer Last-Minute-Rescue aufzulösen. In den Plots geht es meist um den Kampf zwischen Gut und Böse, die Identifikationsfigur ist häufig ein physisch starker männlicher Held (oder eine weibliche Heldin, siehe beispielsweise ""), der/die in der Regel eindeutige moralische Prinzipien vertritt, die den ethischen und weltanschaulichen Grundlagen der westlichen Kultur entsprechen (Gut gegen Böse, Beschützen der Schwachen, Gerechtigkeit, Sühne für erlittenes Unrecht, Verteidigung und Bewahrung der vertrauten Lebensweise usw.). Häufig fließen erzählerische Elemente aus verwandten Genres in den Actionfilm ein, unter anderem aus dem Abenteuerfilm, dem Kriegsfilm, dem Kriminalfilm, dem Psychothriller, dem Horrorfilm und dem Science-Fiction-Film.
83
234668565
https://de.wikipedia.org/wiki?curid=83
Al Pacino
Alfredo James „Al“ Pacino (* 25. April 1940 in East Harlem, New York City) ist ein US-amerikanischer Schauspieler, Filmregisseur und Filmproduzent. Seit den 1970er-Jahren ist er in zahlreichen Filmklassikern zu sehen; er gilt für viele Kritiker und Zuschauer als herausragender Charakterdarsteller des zeitgenössischen amerikanischen Films und Theaters. Im Laufe seiner Karriere wurde er unter anderem mit dem Oscar, dem Golden Globe Award, dem Tony Award und der National Medal of Arts ausgezeichnet. Seine bekanntesten Rollen sind die des Michael Corleone in der von Francis Ford Coppola inszenierten "Der-Pate"-Trilogie, als Gangster Tony Montana in "Scarface", als blinder Oberstleutnant a. D. Frank Slade in "Der Duft der Frauen" und als Lt. Vincent Hanna in "Heat". Leben. Kindheit und Jugend. Al Pacino, geboren in Manhattan, ist der Sohn von Salvatore Pacino, geboren in der sizilianischen Stadt Corleone, und von Rose Gerard, der Tochter eines italienischen Einwanderers und einer italienisch-amerikanischen Mutter, die in New York geboren wurde. Seine Eltern ließen sich scheiden, als er zwei Jahre alt war. Nach der Scheidung zogen Al und seine Mutter in die Bronx, und Pacino wuchs bei seinen sizilianischen Großeltern, die aus der Heimatstadt seines Vaters eingewandert waren, in der South Bronx auf. Sein Vater Salvatore, der nach Covina zog, arbeitete als Versicherungsagent und war Eigentümer des Restaurants "Pacino’s Lounge", das in den wirtschaftlich schweren Zeiten der frühen 1990er Jahre geschlossen wurde; heute trägt es den Namen "Citrus Grill." Salvatore Pacino starb am 1. Januar 2005 im Alter von 82 Jahren. Al Pacino ist der Stiefsohn der Schauspielerin und Maskenbildnerin Katherin Kovin-Pacino und hat vier Schwestern: Josette, eine Lehrerin, die Zwillinge Roberta und Paula sowie Desiree, die sein Vater in seiner vierten Ehe adoptierte. Ausbildung. Pacino interessierte sich schon früh für die Schauspielerei. Mit 17 Jahren verließ er die Schule und ging auf die "Manhattan School of Performing Arts". Nebenher arbeitete er in kleineren Theatern als Platzanweiser und Kartenabreißer. Er verfeinerte sein Talent an zwei renommierten New Yorker Schauspielschulen, in Herbert Berghofs HB Studio und später bei Lee Strasberg im Actors Studio. Dort hatte er mehrere Auftritte in erfolgreichen Theaterstücken, wie z. B. in seinem Debüt "The Connection". Für seine Rolle in dem Stück "The Indian Wants the Bronx" wurde er mit einem Obie-Award ausgezeichnet. Filmschauspieler. Pacino wurde bei einem Off-Broadway-Auftritt vom späteren Filmproduzenten Martin Bregman entdeckt. Im Jahr 1969 wirkte er in seiner ersten Hollywood-Produktion "Ich, Natalie" mit. Er erhielt 1971 neben Kitty Winn eine Rolle in dem Film "Panik im Needle Park". Regisseur Francis Ford Coppola erkannte sein Talent und besetzte ihn gegen den Willen des Produzenten Robert Evans für die Rolle des Michael Corleone in "Der Pate" (1972). Evans, der Pacino am liebsten sofort wieder loswerden wollte, weigerte sich sogar, dessen Namen auszusprechen. Doch der Film wurde zum Erfolg, Pacino wurde zum Weltstar und sein Stil von vielen Nachwuchsdarstellern intensiv studiert. Außerdem brachte die Rolle ihm 1973 seine erste Oscar-Nominierung. Nach "Hundstage" wurde es stiller um Pacino. Erst in den 1980er Jahren brachte er sich durch Filme wie Brian De Palmas "Scarface" (1983) und "Sea of Love – Melodie des Todes" (1989) wieder ins Gespräch. Nach einer erneuten Zusammenarbeit mit Coppola in "Der Pate III" (1990) und Brian De Palmas Gangsterfilm "Carlito’s Way" folgte der Thriller "Heat" (1995) mit Schauspielkollege Robert De Niro. Die männliche Hauptrolle in "Pretty Woman" lehnte er ab. Seine Darstellung des AIDS-kranken Schwulenhassers Roy Cohn in der Miniserie "Engel in Amerika" (2003) brachte ihm zahlreiche Preise ein und wurde von der Kritik hoch gelobt. Pacino ist dafür bekannt, seine Rollen bis zum Äußersten auszufüllen. Während sein Spiel in den 1970er Jahren – insbesondere in "Der Pate" – dabei zumeist minimalistisch und zurückhaltend war, änderte sich dies mit seinem Comeback in den 1980er Jahren radikal: Pacinos exaltierte Darstellungen in Filmen wie "Scarface", "Im Auftrag des Teufels", "An jedem verdammten Sonntag" oder auch "Der Duft der Frauen" wurden von der Kritik gern als Overacting bezeichnet. Für einen Großteil des Publikums etablierte er sich aber gerade dadurch als einer der größten Charakterdarsteller der Gegenwart und wurde für "Der Duft der Frauen" unter anderem mit einem Oscar als bester Hauptdarsteller geehrt (bislang insgesamt neun Nominierungen, womit er hinter Laurence Olivier und Jack Nicholson auf Platz 3 der meistnominierten Oscarkandidaten steht). Eine Vielzahl seiner Filme, darunter selbst solche wie "Glengarry Glen Ross", der zunächst im Kino floppte, zählen heute zu den besten ihrer Genres. Theaterarbeit. Neben seiner Karriere als Filmschauspieler arbeitet er weiterhin regelmäßig an verschiedenen Theatern – sowohl als Darsteller wie auch als Regisseur und Produzent. Für seine Rollen in den Bühneninszenierungen von "The Basic Training Of Pavlo Hummel" von David Rabe und "Does A Tiger Wear A Necktie?" von Don Petersen erhielt er jeweils einen Tony Award. Als langjähriges Mitglied von David Wheelers "Experimental Theatre Company" in Boston stand er unter anderem in "Richard III." und Bertolt Brechts "Der aufhaltsame Aufstieg des Arturo Ui" auf der Bühne. In New York und London spielte Pacino in David Mamets "American Buffalo," in New York war er der Titelheld in "Richard III." und spielte den Mark Anton in "Julius Cäsar". Außerdem stand er im "Square Theatre" in New York in Oscar Wildes "Salome" auf der Bühne und wirkte in der Uraufführung von Ira Levins Theaterstück "Chinese Coffee" mit. 1996 inszenierte er in New York Eugene O’Neills Zwei-Personen-Stück "Hughie", in dem er auch die Titelrolle spielte. In der Theatersaison 2010/2011 spielte Pacino in der "Shakespeare in the Park"-Produktion "Der Kaufmann von Venedig" den "Shylock". Mit der Inszenierung gewann Heather Lind, die als Shylocks Tochter "Jessica" auftrat, einen Theatre World Award für ein herausragendes Broadway-Debüt. 2012 sah man ihn am Broadway in einer Inszenierung von David Mamets "Glengarry Glen Ross", wobei er anders als in der Verfilmung nicht den erfolgreichen Makler Ricky Roma verkörperte, sondern den alternden Verlierertyp Shelly (im Film gespielt von Jack Lemmon). Drei Jahre später stand Pacino am Broadway erneut in einem Mamet-Stück auf der Bühne: in dem Ein-Mann-Stück "China Doll" spielte er einen reichen Unternehmer, dem seine junge Frau davon gelaufen ist. Eigene Projekte. Pacinos erstes eigenständiges Projekt war 1996 "Looking for Richard", eine dokumentarische und künstlerische Filmstudie über den Charakter von Shakespeares "Richard III.", bei dem er Regie führte, die Produktion übernahm, das Drehbuch schrieb und die Hauptrolle spielte. Pacino war auch Produzent, Hauptdarsteller und Koautor des Independent-Kurzfilms "The Local Stigmatic", einer Verfilmung des gleichnamigen Theaterstücks von Heathcote Williams, das sowohl im New Yorker Museum of Modern Art als auch im "Public Theatre" aufgeführt wurde. Privatleben. Bis in die 1980er Jahre war Pacino mit Marthe Keller liiert, mit der er sieben Jahre zusammenlebte. Er hat vier Kinder. Seine älteste Tochter Julie Marie (geboren 1989) hat er mit der Tänzerin Jan Tarrant, mit der Schauspielerin Beverly D’Angelo hat er außerdem die Zwillinge Olivia Rose und Anton James (geboren 2001). Mit seiner Partnerin, Noor Alfallah, mit der er seit April 2022 zusammen ist, hat er einen gemeinsamen Sohn (geboren 2023). Al Pacino war nie verheiratet. Deutsche Synchronstimmen. Al Pacino wurde im Lauf der Jahrzehnte von verschiedenen deutschen Sprechern synchronisiert. Im ersten Jahrzehnt seiner Karriere wurde er, in der Regel, von Lutz Mackensy gesprochen (u. a. "Der Pate I und II, Serpico, Hundstage"). Mit "Scarface" (1983) übernahm Frank Glaubrecht die Synchronisation des Schauspielers. Seit 1999 ist Glaubrecht alleiniger Sprecher ("Heat, City Hall, Insomnia" etc.) und er kann mittlerweile als Pacinos Standardstimme bezeichnet werden. In den 1990er Jahren wurde Pacino auch mehrmals von Klaus Kindler gesprochen ("Frankie & Johnny", "Der Duft der Frauen", "Glengarry Glen Ross", "Carlito’s Way", "Donnie Brasco"), weitere Synchronsprecher waren Jürgen Clausen "(Asphalt-Blüten)", Arne Elsholtz "(Cruising)", Gottfried Kramer "(Der Pate III)" und Joachim Kemmer "(Dick Tracy)". Auszeichnungen. Oscar Golden Globe Award British Academy Film Award National Board of Review Emmy Screen Actors Guild Award National Society of Film Critics American Film Institute Goldene Himbeere Goldene Kamera
88
3101192
https://de.wikipedia.org/wiki?curid=88
Alkohole
Alkohole () sind organische chemische Verbindungen, die eine oder mehrere an unterschiedliche aliphatische Kohlenstoffatome gebundene Hydroxygruppen (–O–H) besitzen. Der Unterschied zwischen Alkoholen und anderen Verbindungen mit OH-Gruppen (z. B. Enole, Halbacetale oder Carbonsäuren) als Teil der funktionellen Gruppe ist, dass in Alkoholen jedes Kohlenstoffatom, das eine OH-Gruppe trägt, sp3-hybridisiert sein muss und außer der Hydroxygruppe nur noch an Kohlenstoff- oder Wasserstoffatomen gebunden sein darf. Nur dieser Bindungszustand entspricht dem Oxidationszustand eines normalen Alkanols. Wenn die Hydroxygruppe an ein nicht-sp3-hybridisiertes Kohlenstoffatom gebunden ist, das Teil eines aromatischen Ringes ist, so werden diese Verbindungen als Phenole bezeichnet und zählen nicht zu den Alkoholen. Während Alkohole schwächer sauer sind als Wasser und mit einem p"K"S-Wert von ca. 16 zu den „sehr schwachen Säuren“ zählen, gehören normale Phenole mit einem p"K"S-Wert von 10 bereits zu den „schwachen Säuren“. Etymologie. Das Wort „Alkohol“ stammt vom arabischen „kuhl“ (), einem Puder, das als Eyeliner verwendet wird. „Al-“ ist der arabische bestimmte Artikel, vergleichbar zu „the“ im Englischen (ohne Genus-Zuordnung). Alkohol wurde ursprünglich für das sehr feine Pulver verwendet, das durch die Sublimation des natürlichen Minerals Stibnit zu Antimontrisulfid Sb2S3 entsteht. Es wurde als Essenz oder „Geist“ dieses Minerals betrachtet und als Antiseptikum, Eyeliner und Kosmetikum verwendet. Die Bedeutung von Alkohol wurde im Laufe der Zeit auf destillierte Substanzen im Allgemeinen ausgedehnt und dann wieder auf Ethanol eingeengt, als „Spiritus“ ein Synonym für harter Schnaps war. Bartholomäus Traheron führt in seiner Übersetzung von Giovanni da Vigo aus dem Jahr 1543 das Wort als erster als einen von „barbarischen“ Autoren verwendeten Begriff für „feines Pulver“ ein. Vigo schrieb: „the barbarous auctours use alcohol, or (as I fynde it sometymes wryten) alcofoll, for moost fine poudre.“ Arabische Chemiker verwendeten den Begriff "al-kuhl" auch für andere Substanzen wie Essenzen, die durch Destillation gewonnen wurden – eine Bedeutung, die erstmals im 17. Jahrhundert im englischen für Alkohol verwendet wurde. Das "Lexicon Chymicum" von William Johnson aus dem Jahr 1652 glossiert das Wort als "antimonium sive stibium" und bezog sich damit auf jede Flüssigkeit, die durch Destillation gewonnen wurde, einschließlich „Weinalkohol“, der destillierten Essenz von Wein. Libavius in "Alchymia" (1594) bezieht sich auf "vini alcohol vel vinum alcalisatum". Johnson glossiert "alcohol vini" als "quando omnis superfluitas vini a vino separatur, ita ut accensum ardeat donec totum consumatur, nihilque fæcum aut phlegmatis in fundo remaneat." Die Bedeutung des Wortes wurde im 18. Jahrhundert auf „Weingeist“ (heute als Branntwein bezeichnet bzw. die als Ethanol bekannte Chemikalie) beschränkt. Doch noch im 18. Jahrhundert wurde Alkohol oft zuerst als Pulver feinster Form und erst in zweiter Linie als Weingeist definiert. In der organischen Chemie wurde das Wort bis 1808 auf die Klasse der gleichartigen Verbindungen ausgedehnt (in einer Übersetzung von Lavoisiers „Elemente der Chemie“ von 1790 steht alkoholisches Gas für „die Verbindung von Alkohol mit Kalorik“). Nomenklatur und Einteilung. Der Name einfacher Alkohole ergibt sich als Zusammensetzung aus dem Namen des ursprünglichen Alkans und der Endung . Zusätzlich wird die Position der OH-Gruppe durch eine vorangestellte Zahl verdeutlicht, zum Beispiel . Eine veraltete, bis 1957 gültige Bezeichnung für Alkohole ist – nach einem Vorschlag von Hermann Kolbe – "Carbinole". Die Stoffgruppe der Alkohole wird nach verschiedenen Kriterien (Zahl der Nichtwasserstoffnachbarn, Wertigkeit, Vorhandensein von Doppel-/Dreifachbindungen und Kettenlänge) eingeteilt. Zahl der Nichtwasserstoffnachbarn. Man unterscheidet Alkohole nach der Zahl der C- und H-Atome an dem C-Atom der funktionellen Gruppe, an das auch die Hydroxygruppe gebunden ist. Bei primären Alkoholen sind an dieses C-Atom neben einem C-Atom zwei H-Atome, bei sekundären Alkoholen neben zwei C-Atomen ein H-Atom und bei tertiären Alkoholen neben drei C-Atomen kein Wasserstoffatom gebunden. Ein Sonderfall ist der Alkohol mit nur einem C-Atom, das Methanol, das neben der Hydroxygruppe nur drei Wasserstoffatome am C-Atom der funktionellen Gruppe trägt. Wertigkeit der Alkohole. Ist mehr als eine Hydroxygruppe an verschiedenen C-Atomen in einem Alkoholmolekül vorhanden, wird deren Anzahl durch Einfügen einer der Anzahl der Hydroxygruppen entsprechenden griechischen Silbe (-di-, -tri- usw.) vor der Endung angegeben und man spricht von mehrwertigen Alkoholen. Ein ist das (Trivialname Ethylenglycol), ein das (Trivialname Glycerin). Die Zahl vor der Endung gibt die Position der funktionellen Gruppe(n) an. Dies gilt auch für einwertige Alkohole, zum Beispiel (Trivialname Isopropanol). Doppel- bzw. Dreifachbindungen. In Bezug auf das Vorhandensein von Doppel- bzw. Dreifachbindungen in der Kette der C-Atome unterscheidet man Alkanole (abgeleitet von Alkanen), Alkenole (abgeleitet von Alkenen) und Alkinole (abgeleitet von Alkinen). Für den Fall, dass die OH-Gruppe an ein sp2-hybridisiertes Kohlenstoffatom gebunden ist, hat man es mit einem anderen Oxidationszustand und damit mit einer anderen Stoffgruppe zu tun, nämlich mit den meist instabilen Enolen. Kettenlänge. Über die Kettenlänge werden Alkohole ebenfalls unterschieden. Die Bezeichnung "Fettalkohole" verwendet man für Alkohole mit endständiger primärer mit gerader Kette und einer Länge von sechs (Hexanol) bis hin zu 22 (Behenylalkohol) Kohlenstoffatomen. Sie werden meist durch Reduktion der aus Fettsäuren gewonnen. Die höheren primären Alkohole mit 24 bis 36 Kohlenstoffatome bezeichnet man als Wachsalkohole. Physikalische Eigenschaften. Niedrigmolekulare Alkohole sind Flüssigkeiten, die einen charakteristischen Geruch und einen brennenden Geschmack besitzen. Höhere Alkohole sind meist feste Verbindungen mit nur schwach ausgeprägtem Geruch. Aufgrund von intermolekularen Wasserstoffbrückenbindungen besitzen die Alkohole im Vergleich zu Kohlenwasserstoffen gleicher Molekülmasse relativ hohe Schmelz- und Siedepunkte. Wichtigstes gemeinsames Merkmal der Alkohole ist die Hydrophilie. Diese Eigenschaft nimmt mit zunehmender Länge des Alkylrestes ab und mit der Anzahl der Hydroxygruppen zu. Besonders die kurzkettigen Alkohole werden aufgrund ihres amphiphilen Charakters oft als Lösungsmittel verwendet. Hohe Siedepunkte. Sauerstoff ist elektronegativer als Wasserstoff und Kohlenstoff, d. h., er zieht Elektronen stärker an als diese. Das führt zu einer unsymmetrischen Verteilung der Elektronen entlang der , man spricht von einer polaren Bindung, es bildet sich ein molekularer Dipol aus. Diese Dipole können untereinander Wasserstoffbrückenbindungen ausbilden, die die Anziehung der einzelnen Moleküle untereinander drastisch verstärken. Dies führt für Alkohole zu relativ hohen Siedepunkten gegenüber den um eine Methyleneinheit verlängerten Homologen ihrer Stammverbindung, die eine annähernd gleiche molarer Masse besitzen. So hat beispielsweise das unpolare Ethan (C2H6) (M = 30) einen Siedepunkt von −89 °C, während Methanol (CH3OH) (M = 32) diesen erst bei 65 °C erreicht. Zusammenfassend: Hydrophilie. Die OH-Gruppe ist ebenfalls in der Lage, Wasserstoffbrückenbindungen mit Wasser einzugehen. Sie erhöht damit die Hydrophilie, die Wasserlöslichkeit, der Verbindung. Organische Alkylreste selbst sind nicht wasserlöslich, also hydrophob. Die Wasserlöslichkeit sinkt daher mit der Größe des organischen Anteils und steigt mit der Zahl der Hydroxygruppen. Die Propanole und "tert"-Butanol sind bei Raumtemperatur noch in jedem Verhältnis mit Wasser mischbar, alle langkettigeren Alkohole lösen sich nur noch in zunehmend kleinen Mengen. Größere Mengen gelöster anorganischer Salze können auch bei den kurzkettigen Alkoholen eine Phasentrennung bewirken („Salzfracht“). Zusammenfassend: Acidität und Deprotonierung. Mit einem p"K"S-Wert (Säurestärke) von etwa 16 sind Alkohole schwächer sauer als Wasser und reagieren somit in wässriger Lösung näherungsweise neutral. Die Acidität von Alkoholen nimmt in der Reihe von Methanol über primäre, sekundäre und tertiäre Alkohole ab. Es ist möglich, Alkohole mit starken Basen wie z. B. Hydridanionen oder durch Reaktion mit Natrium unter Entwicklung von Wasserstoff zu deprotonieren. Die dabei entstehenden "Alkoholate" können dann als stark nucleophile Anionen für weitere Reaktionen eingesetzt werden. Es ist auch möglich, Alkohole in gewissem Umfang mit starken Säuren zu protonieren: Spektroskopie. Im IR-Spektrum von Alkoholen ist deutlich die breite Bande der O–H-Valenzschwingung im Bereich von 3200–3650 cm−1 zu erkennen. Die Breite des Peaks wird durch Wasserstoffbrückenbindungen mit Wassermolekülen verursacht und ist in Spektren von wasserfreien Alkoholen in einem engeren Bereich von 3620–3650 cm−1 zu finden. Chemische Eigenschaften. Reaktion mit konzentrierter Schwefelsäure. Unterhalb von 140 °C bildet sich der Ester der Schwefelsäure. Bei etwa 140 °C findet die Kondensationsreaktion zu einem Ether statt. Oberhalb von 170 °C werden primäre Alkohole zu Alkenen dehydratisiert. (Eliminierung) Selenoxid-Eliminierung. Die Selenoxid-Eliminierung ist eine milde Variante der Eliminierung. Veresterung. Mit Carbonsäuren reagieren Alkohole unter Wasserabgabe zu Estern, diese Reaktion wird auch Veresterung genannt. Diese Reaktion wird durch Säuren katalysiert. Oxidation. Primäre Alkohole lassen sich zu Aldehyden und Carbonsäuren, sekundäre Alkohole zu Ketonen oxidieren. Tertiäre Alkohole lassen sich nicht weiter oxidieren, es sei denn unter Zerstörung des Kohlenstoffgerüsts. Zur Oxidation von primären Alkoholen zur Carbonsäure können Chrom(VI)-haltige Oxidationsmittel eingesetzt werden, wie sie z. B. bei der Jones-Oxidation Anwendung finden. Als chromfreies, weniger giftiges Reagenz steht wässriges Rutheniumtetroxid zur Verfügung. Die Oxidation eines primären Alkohols kann unter Verwendung bestimmter Chrom(VI)-Verbindungen wie dem Collins-Reagenz auch nur bis zur Stufe des Aldehyds erfolgen. Entscheidend ist, dass wasserfreie Lösungsmittel eingesetzt werden. Ist kein Wasser anwesend, kann keine Hydratisierung zum geminalen Diol des Aldehyds (Aldehydhydrate) stattfinden. Da lösliche Chromate sehr giftig sind, sowie karzinogene und mutagene Eigenschaften besitzen, wurden alternative Methoden zur Oxidation von Alkoholen entwickelt. Eine häufig zur Anwendung kommende Methode ist die Swern-Oxidation mit aktiviertem Dimethylsulfoxid. Fast alle Methoden eignen sich ebenfalls für die Oxidation sekundärer Alkohole zu Ketonen. Die folgende Aufzählung liefert eine Übersicht der wichtigsten Methoden. Oxidation zur Carbonsäure/zum Keton: Oxidation zum Aldehyd/zum Keton: Acetalbildung. Mit Aldehyden reagieren Alkohole in Gegenwart saurer Katalysatoren zu Halbacetalen bzw. Acetalen. Verwendung. Viele Alkohole sind wichtige Lösungsmittel, die sowohl in der Industrie, als auch im Haushalt eingesetzt werden; die mengenmäßig wichtigsten sind Methanol, Ethanol, 2-Propanol und "n"-Butanol. Im Jahr 2011 wurden weltweit etwa 6,4 Mio. Tonnen dieser alkoholischen Lösungsmittel nachgefragt. Ethanol (und Methanol) finden zudem Verwendung als Rauschmittel. Nachweis. Alcotest. Der Umsatz von Alkoholen mit Dichromaten in schwefelsaurer Lösung ist geeignet, um Alkohole quantitativ nachzuweisen und wurde früher in den Alcotest-Röhrchen eingesetzt: Das Nachweisprinzip beruht auf dem Farbumschlag von gelb-orange (saure Dichromatlösung) nach grün (Chrom(III)-Ionen) und kann spektralphotometrisch gemessen werden. Certest. Eine weitere Möglichkeit besteht in der Umsetzung mit Ammoniumcer(IV)-nitrat. Hierbei wird eine konzentrierte Lösung von Ammoniumcer(IV)-nitrat mit einer verdünnten Lösung der unbekannten Substanz versetzt. Enthält die unbekannte Substanz Alkohol-Gruppen, färbt sich das Gemisch rot (manchmal auch grün). Enthält die Substanz Phenole, fällt ein brauner Niederschlag aus. Der Grund für diese Farbreaktion ist eine Komplexbildung, genauer gesagt eine Ligandensubstitution, bei der ein Alkohol/Phenol mit dem Sauerstoffatom am Cer(IV) koordiniert. Durch die Veränderung der Ligandensphäre verändert sich die Farbe des Cer(IV) von hellgelb zu rot/grün/braun. Leicht oxidierbare Alkohole/Phenole können einen negativen Nachweis ergeben, indem sie das Cer(IV) zu Cer(III) reduzieren. Lucas-Probe. Der Nachweis des Substitutionsgrades eines Alkohols, also ob es sich dabei um einen primären, sekundären oder tertiären Alkohol handelt, erfolgt über nucleophile Substitution der OH-Gruppe gegen Chlorid durch die Lucas-Probe. Die Substitution hat zur Folge, dass sich die entstehende Substanz nicht mehr in Wasser löst und damit eine eigene Phase ausbildet. Dabei ist die Geschwindigkeit dieser Phasenbildung entscheidend: Voraussetzung für diesen Test ist, dass sich der ursprüngliche Alkohol in Wasser löst. Auch darf keine andere unter den Reaktionsbedingungen substituierbare Gruppe vorliegen. Spektroskopie und Derivatisierung. Die eindeutige Identifizierung eines unbekannten Alkohols erfolgt entweder spektroskopisch oder durch Synthese eines charakteristischen Derivates, das einen Schmelzpunkt hat, der von den Schmelzpunkten gleicher Derivate ähnlicher Alkohole gut zu unterscheiden ist. Oftmals werden sie über Ester der oder der identifiziert. Hierzu wird die zu analysierende Substanz in Gegenwart geringer Mengen Schwefelsäure umgesetzt. Die Schmelzpunkte dieser Derivate sind in der Regel scharf. Die Derivate der besitzen in der Regel höhere Schmelzpunkte als die der . Sie werden dann bevorzugt gewählt, wenn der Schmelzpunkt mit der zu niedrig ist und keine genaue Bestimmung mehr möglich wird. Liste wichtiger Alkohole mit Schmelz- und Siedepunkten. Liste wichtiger Alkohole mit Schmelz- und Siedepunkten Anmerkung: Bei einzelnen Werten kann es in der Literatur zu Abweichungen kommen.
89
830607
https://de.wikipedia.org/wiki?curid=89
The Visitors
The Visitors ist das achte Studioalbum der schwedischen Popgruppe ABBA. Es wurde erstmals am 30. November 1981 in Schweden veröffentlicht. Die Aufnahmen im Studio dauerten von März bis November 1981. Etwa gleichzeitig mit der LP wurde "One of Us" als Single herausgegeben und, bis zum Comeback 2021 zum letzten internationalen Charterfolg der Gruppe, während die nachfolgende Singleauskopplung "Head over Heels" floppte. "The Visitors" war zudem die erste veröffentlichte Audio-CD der Musikgeschichte und wurde am 17. August 1982 vorgestellt. Im Vergleich zu den Vorgängeralben von ABBA weist dieses einige musikalische Eigenheiten auf, die zuvor in den Produktionen der Gruppe kaum Anwendung fanden. So wird kein einziges Stück auf der gesamten LP von den beiden ABBA-Sängerinnen Agnetha Fältskog und Anni-Frid Lyngstad durchgehend gemeinsam gesungen. Die Lead Vocals wurden in jedem der neun Lieder auf eine der beiden aufgeteilt. Zudem wurden viele Elemente, die bis dato charakteristisch für die Musik der Gruppe gewesen waren, durch neue ersetzt. So handeln die Texte von Trennung, Abschiedsschmerz und Kriegsangst. Entstehung. Benny Andersson und Björn Ulvaeus begannen im Februar 1981 mit dem Komponieren für ein neues Studioalbum. Die am 12. Februar 1981 öffentlich bekannt gegebene Scheidung der beiden ABBA-Mitglieder Andersson und Lyngstad überschattete dabei die Arbeit innerhalb der Band. Die Aufnahmen für drei neue Stücke begannen am 16. März 1981 in den Polar Music Studios in Stockholm. Darunter befand sich mit "When All Is Said and Done" eine Pop-Ballade, deren Text von einer zerbrochenen Beziehung handelt und sich auf die Trennung von Lyngstad und Andersson beziehen sollte. Dementsprechend übernahm Lyngstad die Lead Vocals und ließ in ihre stimmliche Darbietung auch die emotionalen Aspekte mit einfließen, die angesichts ihrer damaligen Privatsituation gegeben waren. Auch "Slipping Through My Fingers" gehörte zu den ersten drei eingespielten Songs. Ulvaeus hatte die Idee für den Text, nachdem er seine Tochter Linda dabei beobachtet hatte, wie sie zur Schule ging. Er handelt von den gemischten Gefühlen der Eltern beim Heranwachsen ihrer Kinder und der damit verbundenen Einsamkeit und Nostalgie. Hier übernahm Agnetha Fältskog den Leadgesang und erzählte später, der Song habe sich „sehr echt angefühlt“. Eine symbolische Kulisse der Küche und des Frühstückstisches, die im Text des Songs vorkommen, befindet sich heute im ABBA-Museum auf Djurgården in Stockholm. Ein weiterer Song, dessen Grundspuren im März 1981 eingespielt wurde, war "Two for the Price of One", bei dem zur Abwechslung Ulvaeus den Hauptgesang übernahm. Dieser meinte später, der Song hätte trotz des trivialen Textes ein Hit werden können, hätten Fältskog und Lyngstad die Lead Vocals gesungen. Etwa zur selben Zeit wurde das bisherige analoge Aufnahmegerät im Tonstudio durch ein digitales mit 32 Spuren ersetzt. Zwischen 27. und 29. April 1981 wurden "Slipping Through My Fingers" und "Two for the Price of One" für das Fernsehspecial "Dick Cavett Meets ABBA" live aufgezeichnet, neben Darbietungen einiger älterer ABBA-Songs. Am 26. Mai wurde ein erster Versuch unternommen, "Like an Angel Passing Through My Room" aufzunehmen. Diese erste Demoversion trug den Arbeitstitel "Twinkle Twinkle Little Star" und wurde von Ulvaeus gesungen. Eine weitere Alternative zur selben Melodie entstand mit "Another Morning Without You", bei der Lyngstad solo sang. Bis zum Ende der Aufnahmesessions wurden weitere Varianten mit verschiedenen Instrumentierungen und Lead Vocals ausprobiert. Eine Version, die beide ABBA-Sängerinnen beinhaltete, wurde später verworfen und durch eine Variante ersetzt, in der Lyngstad vollständig alleine singt. Für die Deluxe Edition des Albums wurde 2012 ein neun-minütiges Medley zusammengestellt, das die Entstehung von "Like an Angel Passing Through My Room" über mehrere Alternativversionen dokumentiert. Am 2. September 1981 war Aufnahmebeginn für "I Let the Music Speak" und "Head over Heels". Besonders bei letzterem hatten die Musiker Probleme. Da die neue digitale Studiotechnik sehr präzise arbeitete, konnte Toningenieur Michael B. Tretow nur noch mäßig mit Verzögerung und Verschiebung der Spuren experimentieren, was die Aufnahmen „trockener“ und „kälter“ wirken ließ. So wirkte "Head over Heels" trotz eingängiger Melodie und ausgefeiltem Arrangement „wie eingefroren“, zählt aber dennoch zu den schwungvolleren und fröhlicheren Songs des Albums. Währenddessen zeugte "I Let the Music Speak" wieder einmal von den Ambitionen der beiden Komponisten, ein Musical zu schreiben. Parallel wurde "Should I Laugh or Cry" produziert, das später nicht auf der Titelliste des Albums erschien, weil es als „nicht stimmig genug“ angesehen wurde. Stattdessen wurde es im Dezember 1981 als B-Seite veröffentlicht. Am 15. Oktober 1981 gingen die Aufnahmen mit "Soldiers, One of Us" und das für das Album namensgebende Lied "The Visitors" zu Ende. Der Text des ersteren handelte in Zusammenhang mit dem Kalten Krieg von Kriegsangst und der Furcht vor einer möglichen neuen faschistischen Bewegung. "One of Us" handelte wiederum von den Folgen einer zerbrochenen Beziehung und wurde am 21. Oktober begonnen. Das Stück wurde später als erste Single aus dem Album ausgekoppelt und avancierte zum vorerst letzten internationalen Hit der Gruppe. Der Titelsong wurde ab 22. Oktober 1981 aufgenommen. Der Text von "The Visitors" handelt von Überwachung und Besuchen der Sicherheitspolizei bei Dissidenten in der Sowjetunion. Mitte November waren die Aufnahmen und Nachbearbeitungen von allen Songs abgeschlossen. Album-Cover. Das Album-Cover wurde von Rune Söderqvist zusammen mit dem Fotografen Lars Larsson entworfen. Söderqvist stellte die Gruppe im kalten, ungeheizten Atelier des Malers Julius Kronberg im Freilichtmuseum Skansen, Stockholm, in einer düsteren Stimmung dar. Im Hintergrund hing ein großes Gemälde von Julius Kronberg, das den griechischen Gott Eros darstellt. Das Cover zeigte die Gruppe zum ersten Mal nicht mehr als Gemeinschaft, sondern jedes Mitglied für sich allein. Diese düstere Stimmung innerhalb der Gruppe spiegelte sich sowohl in den Melodien als auch in den Texten vieler Songs wider. Das Cover ist laut "The Making of The Visitors" auch das Resultat einer gewissen Erschöpfung aufgrund des jahrelangen Zusammenseins als Gruppe. Titelliste. Original-LP. Seite 1: Seite 2:
93
3010771
https://de.wikipedia.org/wiki?curid=93
Aluminium
Aluminium ist ein chemisches Element mit dem Elementsymbol Al und der Ordnungszahl 13. Im Periodensystem gehört Aluminium zur dritten Hauptgruppe und zur 13. IUPAC-Gruppe, der Borgruppe, die früher als "Gruppe der Erdmetalle" bezeichnet wurde. Es gibt zahlreiche Aluminiumverbindungen. Aluminium ist ein silbrig-weißes Leichtmetall. In der Erdhülle ist es, nach Sauerstoff und Silicium, das dritthäufigste Element und in der Erdkruste das häufigste Metall. In der Werkstofftechnik werden mit „Aluminium“ alle Werkstoffe auf Basis des Elementes Aluminium verstanden. Dazu zählt Reinaluminium (mindestens 99,0 % Al), Reinstaluminium (min 99,7 % Al) und insbesondere die Aluminiumlegierungen, die bis zu mit Stahl vergleichbare Festigkeiten besitzen – bei nur einem Drittel seiner Dichte. Entdeckt wurde Aluminium, das in der Natur fast ausschließlich in Form von chemischen Verbindungen vorkommt, im frühen 19. Jahrhundert. Im frühen 20. Jahrhundert setzte die industrielle Massenproduktion ein. Die Gewinnung erfolgt in Aluminiumhütten ausgehend von dem Mineral Bauxit zunächst im Bayer-Verfahren, mit dem Aluminiumoxid gewonnen wird, und anschließend im Hall-Héroult-Prozess einer Schmelzflusselektrolyse, bei der Aluminium gewonnen wird. 2016 wurden weltweit 115 Mio. Tonnen Aluminiumoxid (Al2O3) produziert. Daraus hat man 54,6 Mio. Tonnen Primäraluminium gewonnen. Das Metall ist sehr unedel und reagiert an frisch angeschnittenen Stellen bei Raumtemperatur mit Luft und Wasser zu Aluminiumoxid. Dies bildet aber sofort eine dünne, für Luft und Wasser undurchlässige Schicht (Passivierung) und schützt so das Aluminium vor Korrosion. Reines Aluminium weist eine geringe Festigkeit auf; bei Legierungen ist sie deutlich höher. Die elektrische und thermische Leitfähigkeit ist hoch, weshalb Aluminium für leichte Kabel und Wärmetauscher verwendet wird. Eines der bekanntesten Produkte ist Alufolie. Weitere sind Bauteile in Fahrzeugen und Maschinen, elektrische Leitungen, Rohre, Dosen und Haushaltsgegenstände. Das Aluminiumrecycling erreicht weltweit Raten von etwa 40 %. Geschichte. 1782 vermutete Lavoisier als erster, dass es sich bei der 1754 von Marggraf aus einer Alaunlösung gewonnenen Alaunerde ("alumina", abgeleitet von lateinisch ‚Alaun‘) um das Oxid eines bislang unbekannten Elements handle. Dessen Darstellung glückte schließlich 1825 dem Dänen Hans Christian Ørsted durch Reaktion von Aluminiumchlorid (AlCl3) mit Kaliumamalgam, wobei Kalium als Reduktionsmittel diente: Davy, der sich lange Zeit ebenfalls an der Darstellung des neuen Elements versucht hatte, führte ab 1807 die Namensvarianten "alumium", "aluminum" und "aluminium" ein, von welchen die letzten beiden im Englischen nebeneinander fortbestehen. 1827 gelang es Friedrich Wöhler mit der gleichen Methode wie Ørsted, jedoch unter Verwendung metallischen Kaliums als Reduktionsmittel, reineres Aluminium zu gewinnen. Henri Étienne Sainte-Claire Deville verfeinerte den Wöhler-Prozess im Jahr 1846 und publizierte ihn 1859 in einem Buch. Durch diesen verbesserten Prozess stieg die Ausbeute bei der Aluminiumgewinnung, und in der Folge fiel der Preis des Aluminiums, der zuvor höher als jener von Gold gewesen war, innerhalb von zehn Jahren auf ein Zehntel. 1886 wurde unabhängig voneinander durch Charles Martin Hall und Paul Héroult das nach ihnen benannte Elektrolyseverfahren zur Herstellung von Aluminium entwickelt: der Hall-Héroult-Prozess. 1889 entwickelte Carl Josef Bayer das nach ihm benannte Bayer-Verfahren zur Isolierung von reinem Aluminiumoxid aus Bauxiten. Aluminium wird noch nach diesem Prinzip großtechnisch hergestellt. Am Ende des 19. Jahrhunderts stand das Metall in solchem Ansehen, dass man daraus gefertigte Metallschiffe auf den Namen Aluminia taufte. Vorkommen. Aluminium ist mit einem Anteil von 7,57 Gewichtsprozent nach Sauerstoff und Silicium das dritthäufigste Element der Erdkruste und damit das häufigste Metall. Allerdings kommt es aufgrund seines unedlen Charakters praktisch ausschließlich in gebundener Form vor. Die größte Menge befindet sich chemisch gebunden in Form von Alumosilicaten, in denen es in der Kristallstruktur die Position von Silicium in Sauerstoff-Tetraedern einnimmt. Diese Silicate sind zum Beispiel Bestandteil von Ton, Gneis und Granit. Seltener wird Aluminiumoxid in Form des Minerals Korund und seiner Varietäten Rubin (rot) und Saphir (farblos, verschiedenfarbig) gefunden. Die Farben dieser Kristalle beruhen auf Beimengungen anderer Metalloxide. Korund hat mit fast 53 Prozent den höchsten Aluminiumanteil einer Verbindung. Einen ähnlich hohen Aluminiumanteil haben die noch selteneren Minerale Akdalait (etwa 51 Prozent) und Diaoyudaoit (etwa 50 Prozent). Insgesamt sind bisher (Stand: 2017) 1156 aluminiumhaltige Minerale bekannt. Das einzige wirtschaftlich wichtige Ausgangsmaterial für die Aluminiumproduktion ist Bauxit. Vorkommen befinden sich in Südfrankreich (Les Baux), Guinea, Bosnien und Herzegowina, Ungarn, Russland, Indien, Jamaika, Australien, Brasilien und den Vereinigten Staaten. Bauxit enthält ungefähr 60 Prozent Aluminiumhydroxid (Al(OH)3 und AlO(OH)), etwa 30 Prozent Eisenoxid (Fe2O3) und Siliciumdioxid (SiO2). Bei der Herstellung unterscheidet man "Primäraluminium", auch "Hüttenaluminium" genannt, das aus Bauxit gewonnen wird, und "Sekundäraluminium" aus Aluminiumschrott. Die Wiederverwertung benötigt nur etwa 5 Prozent der Energie der Primärgewinnung. Aluminium als Mineral. Infolge der Passivierung kommt Aluminium in der Natur sehr selten auch elementar (gediegen) vor. Erstmals entdeckt wurde Aluminium 1978 durch B. V. Oleinikov, A. V. Okrugin, N. V. Leskova in Mineralproben aus der Billeekh Intrusion und dem Dyke "OB-255" in der Republik Sacha "(Jakutien)" im russischen Föderationskreis Ferner Osten. Insgesamt sind weltweit bisher rund 20 Fundorte (Stand 2019) für gediegen Aluminium bekannt, so unter anderem in Aserbaidschan, Bulgarien, der Volksrepublik China (Guangdong, Guizhou, Jiangsu und Tibet) und in Venezuela. Zudem konnte gediegen Aluminium in Gesteinsproben vom Mond, das die Sonde der Luna-20-Mission vom Krater Apollonius mitbrachte, nachgewiesen werden. Aufgrund der extremen Seltenheit hat gediegen Aluminium zwar keine Bedeutung als Rohstoffquelle, als gediegen vorkommendes Element ist Aluminium dennoch von der International Mineralogical Association (IMA) als eigenständiges Mineral anerkannt (Interne Eingangs-Nr. der IMA: "1980-085a"). Gemäß der Systematik der Minerale nach Strunz (9. Auflage) wird Aluminium unter der System-Nummer "1.AA.05" (Elemente – Metalle und intermetallische Verbindungen – Kupfer-Cupalit-Familie – Kupfergruppe) eingeordnet. In der veralteten 8. Auflage der Strunz’schen Mineralsystematik ist Aluminium dagegen noch nicht aufgeführt. Nur im zuletzt 2018 aktualisierten „Lapis-Mineralienverzeichnis“, das sich aus Rücksicht auf private Sammler und institutionelle Sammlungen noch an dieser Form der System-Nummerierung orientiert, erhielt das Mineral die System- und Mineral-Nr. "I/A.3-05". Die vorwiegend im englischsprachigen Raum verwendete Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. 01.01.01.05. In der Natur kommt gediegen Aluminium meist in Form körniger Mineral-Aggregate und Mikronuggets vor, kann in seltenen Fällen aber auch tafelige Kristalle bis etwa einen Millimeter Größe entwickeln. Frische Mineralproben sind von metallisch glänzender, silberweißer Farbe. An der Luft dunkeln die Oberflächen durch Oxidierung nach und wirken grau. Auf der Strichtafel hinterlässt Aluminium einen dunkelgrauen Strich. Je nach Fundort enthält Aluminium oft Fremdbeimengungen von anderen Metallen (Cu, Zn, Sn, Pb, Cd, Fe, Sb) oder tritt eingewachsen in beziehungsweise mikrokristallin verwachsen mit Hämatit, Ilmenit, Magnetit, Moissanit und Pyrit beziehungsweise Jarosit auf. Typmaterial, das heißt Mineralproben aus der Typlokalität des Minerals, wird im Geologischen Museum der Akademie der Wissenschaften in Jakutsk in der russischen Teilrepublik Sacha (Jakutien) aufbewahrt. Gewinnung. Primäraluminium (Herstellung aus Mineralien). Ca. zwei Drittel des europäischen Aluminiumbedarfs wird durch Primäraluminium gedeckt. Primäraluminium wird elektrolytisch aus einer Aluminiumoxidschmelze hergestellt. Da diese aus den auf der Erde allgegenwärtigen Alumosilicaten nur schwer isoliert werden kann, erfolgt die großtechnische Gewinnung aus dem relativ seltenen, silikatärmeren Bauxit. Zur Gewinnung von reinem Aluminiumoxid aus Silikaten gibt es seit langem Vorschläge, deren Anwendung allerdings nicht wirtschaftlich möglich ist. Das im Erz enthaltene Aluminiumoxid/-hydroxid-Gemisch wird zunächst mit Natronlauge aufgeschlossen (Bayer-Verfahren, Rohrreaktor- oder Autoklaven-Aufschluss), um es von Fremdbestandteilen wie Eisen- und Siliciumoxid zu befreien, und wird dann überwiegend in Wirbelschichtanlagen (aber auch in Drehrohröfen) zu Aluminiumoxid (Al2O3) gebrannt. Der trockene Aufschluss (Deville-Verfahren) hat dagegen keine Bedeutung mehr. Dabei wurde feinstgemahlenes, ungereinigtes Bauxit zusammen mit Soda und Koks in Drehrohröfen bei rund 1200 °C kalziniert und das entstehende Natriumaluminat anschließend mit Natronlauge gelöst. Die Herstellung des Metalls erfolgt in Aluminiumhütten durch Schmelzflusselektrolyse von Aluminiumoxid nach dem Kryolith-Tonerde-Verfahren (Hall-Héroult-Prozess). Zur Herabsetzung des Schmelzpunktes wird das Aluminiumoxid zusammen mit Kryolith geschmolzen (Eutektikum bei 963 °C). Bei der Elektrolyse entsteht an der den Boden des Gefäßes bildenden Kathode Aluminium und an der Anode Sauerstoff, der mit dem Graphit (Kohlenstoff) der Anode zu Kohlenstoffdioxid und Kohlenstoffmonoxid reagiert. Die Graphitblöcke, welche die Anode bilden, brennen so langsam ab und werden von Zeit zu Zeit ersetzt. Die Graphitkathode (Gefäßboden) ist gegenüber Aluminium inert. Das sich am Boden sammelnde flüssige Aluminium wird mit einem Saugrohr abgesaugt. Aufgrund der hohen Bindungsenergie durch die Dreiwertigkeit des Aluminiums und der geringen Atommasse ist der Prozess recht energieaufwendig. Pro produziertem Kilogramm Rohaluminium müssen 12,9 bis 17,7 Kilowattstunden an elektrischer Energie eingesetzt werden. Eine Reduzierung des Strombedarfs ist nur noch in geringem Ausmaß möglich, weil die Potentiale für energetische Optimierungen weitgehend erschlossen sind. Aluminiumherstellung ist daher nur wirtschaftlich, wenn billige Elektroenergie zur Verfügung steht. Die nachfolgende Tabelle zeigt die Aluminiumproduktion 2019 und 2020 und die maximal mögliche Produktionsleistung der Hüttenwerke nach Ländern. Sekundäraluminium (Herstellung durch Aluminium-Recycling). Um Aluminium zu recyceln, werden Aluminiumschrotte und „Krätzen“ in Trommelöfen eingeschmolzen. „Krätze“ ist ein Abfallprodukt bei der Verarbeitung von Aluminium und bei der Herstellung von Sekundäraluminium. Krätze ist ein Gemisch aus Aluminiummetall und feinkörnigen Oxidpartikeln und wird beim Schmelzen von Aluminium bei 800 °C aus dem Aluminiumoxid der normalen Aluminiumkorrosion und als Oxidationsprodukt (Oxidhaut) beim Kontakt von flüssigem Aluminium mit Luftsauerstoff gebildet. Damit beim Aluminiumgießen keine Aluminiumoxidpartikel in das Gussteil gelangen, wird die Krätze durch "Kratz"vorrichtungen von der Oberfläche des Metallbads abgezogen. Um die Bildung von Krätze zu verhindern, wird die Oberfläche der Schmelze mit Halogenidsalzen (rund zwei Drittel NaCl, ein Drittel KCl und geringe Mengen Calciumfluorid CaF2) abgedeckt (siehe dazu Aluminiumrecycling). Dabei entsteht als Nebenprodukt Salzschlacke, die noch ca. 10 Prozent Aluminium enthält, die, entsprechend aufbereitet, als Rohstoff für mineralische Glasfasern dient. Allerdings wird an der Herstellung von Sekundäraluminium kritisiert, dass beim Recycling pro Tonne jeweils 300 bis 500 Kilogramm Salzschlacke, verunreinigt mit Dioxinen und Metallen, entstehen; deren mögliche Wiederverwertung ist aber Stand der Technik. Eigenschaften. Physikalische Eigenschaften. Mikrostruktur. Aluminium erstarrt ausschließlich in einem kubisch flächenzentrierten Raumgitter in der . Der Gitterparameter beträgt bei Reinaluminium 0,4049 nm (entspricht 4,05 Å) bei 4 Formeleinheiten pro Elementarzelle. Leerstellen kommen mit einer Dichte von 1,3 × 10−4 bei 500 °C vor, bei Raumtemperatur sind es nur noch 10−12. Durch Abschrecken können größere Leerstellendichten bei Raumtemperatur vorkommen, was für einige Eigenschaften von Aluminiumwerkstoffen von Bedeutung ist, da die Leerstellen die Diffusion begünstigen. Durch Umformen bei Raumtemperatur kann die Leerstellendichte auf 10−4 erhöht werden. Die Versetzungs­dichte liegt bei 10−7, einem für Metalle typischen Bereich, und führt zur guten Umformbarkeit von Aluminium. Stapelfehler konnten bei Aluminium nicht nachgewiesen werden, was mit der hohen Stapelfehlerenergie von 103 bis 200 (10−7 J/cm²) erklärt wird. Dies führt dazu, dass die Festigkeitssteigerung beim Kaltwalzen und -schmieden nur gering ausfällt und manche Aluminiumwerkstoffe sogar anschließend zur Entfestigung neigen. Dichte. Mit einer Dichte von 2,6989 g/cm³ (etwa ein Drittel von Stahl) ist Aluminium ein typisches Leichtmetall, was es als Werkstoff für den Leichtbau interessant macht. Die Dichte der Legierungen weicht meist nur um etwa +3 % bis −2 % ab. Spezielle Legierungen mit Lithium haben eine 15 % geringere Dichte. Aluminium zählt somit zu den leichtesten Werkstoffen, übertroffen nur noch von Magnesium. Mechanische Eigenschaften. Aluminium ist ein relativ weiches und zähes Metall. Die Zugfestigkeit von absolut reinem Aluminium liegt bei 45 N/mm², die Streckgrenze bei 17 N/mm² und die Bruchdehnung bei 60 %, während bei handelsüblich reinem Aluminium die Zugfestigkeit bei 90 N/mm² liegt, die Streckgrenze bei 34 N/mm² und die Bruchdehnung bei 45 %. Die Zugfestigkeit seiner Legierungen liegt dagegen bei bis zu 710 N/mm² (Legierung 7068). Sein Elastizitätsmodul liegt bei etwa 70 GPa, einem häufig angegebenen Wert. Für Reinaluminium wird ein Wert von 66,6 GPa angegeben, die Werte schwanken jedoch von 60 bis 78 GPa. Der G-Modul liegt bei 25,0 kN/mm², die Querkontraktionszahl (Poissonzahl) bei 0,35. Thermische Eigenschaften. Die Schmelztemperatur liegt bei 660,2 °C und die Siedetemperatur bei 2470 °C. Die Schmelztemperatur ist deutlich niedriger als die von Kupfer (1084,6 °C), Gusseisen (1147 °C) und Eisen (1538 °C), was Aluminium zu einem guten Gusswerkstoff macht. Bei einer Sprungtemperatur von 1,2 K wird reines Aluminium supraleitend. Die Wärmeleitfähigkeit liegt mit 235 W/(K m) relativ hoch. Die Wärmeleitfähigkeit von Kupfer liegt zwar etwa doppelt so hoch, dafür ist die Dichte etwa viermal größer, weshalb Aluminium für Wärmetauscher in Fahrzeugen genutzt wird. Der Wärmeausdehnungskoeffizient ist durch den recht niedrigen Schmelzpunkt mit 23,1 µm·m−1·K−1 recht hoch. Die Schwindung, also die Volumenabnahme beim Erstarren liegt bei 7,1 %. Elektrische Eigenschaften. Da thermische und elektrische Leitfähigkeit bei Metallen von denselben Mechanismen dominiert werden, ist Aluminium mit formula_2 auch ein sehr guter elektrischer Leiter. In der Rangfolge der Elemente mit der größten spezifischen Leitfähigkeit steht Aluminium wie auch bei der Wärmeleitfähigkeit hinter Silber, Kupfer und Gold an vierter Stelle. Durch die Kombination von hohem spezifischem Leitwert, geringer Dichte, hoher Verfügbarkeit und (im Vergleich zu anderen Materialien) geringen Kosten ist Aluminium in der Elektrotechnik – speziell in der Energietechnik, wo große Leiterquerschnitte benötigt werden – neben Kupfer zum wichtigsten Leitermaterial geworden. Magnetische Eigenschaften. Aluminium ist paramagnetisch, wird also von Magneten angezogen, der Effekt ist jedoch sehr schwach ausgeprägt. Die Magnetische Suszeptibilität liegt bei Raumtemperatur bei 0,62 × 10−9 m³/kg, womit Aluminium praktisch gesehen unmagnetisch ist. Chemische Eigenschaften. Das reine Leichtmetall Aluminium hat aufgrund einer sich sehr schnell an der Luft bildenden dünnen Oxidschicht ein stumpfes, silbergraues Aussehen. Diese passivierende Oxidschicht macht reines Aluminium bei pH-Werten von 4 bis 9 sehr korrosionsbeständig. Die Oxidschicht ist etwa 0,05 µm dick. Sie schützt vor weiterer Oxidation, ist aber bei der elektrischen Kontaktierung und beim Löten hinderlich. Durch elektrische Oxidation (Eloxieren) oder auf chemischem Weg kann eine 5 bis 25 µm dicke Schicht erzeugt werden. Die Oxidschicht kann mittels Komplexbildungsreaktionen aufgelöst werden. Aluminium geht in neutraler chloridischer Lösung einen sehr stabilen und wasserlöslichen Neutralkomplex ein. Die folgende Reaktionsgleichung veranschaulicht dies: Dies geschieht vorzugsweise an Stellen, wo die Oxidschicht des Aluminiums bereits geschädigt ist. Es kommt dort zu Lochfraßkorrosion: Löcher entstehen. Kann die chloridische Lösung dann an die freie Metalloberfläche treten, so laufen andere Reaktionen ab. Aluminium-Atome können unter Komplexierung oxidiert werden: Liegen in der Lösung Ionen eines edleren Metalls (→elektrochemische Spannungsreihe) vor, so werden sie reduziert und am Aluminium abgeschieden. Auf diesem Prinzip basiert die Reduktion von Silberionen, die auf der Oberfläche von angelaufenem Silber als Silbersulfid vorliegen, hin zu Silber. Aluminium reagiert heftig mit wässriger Natriumhydroxidlösung (NaOH) (und etwas weniger heftig mit wässriger Natriumcarbonatlösung) unter Bildung von Wasserstoff. Diese Reaktion wird in chemischen Rohrreinigungsmitteln genutzt. Die Reaktion von Aluminium mit NaOH läuft in zwei Schritten ab: der Reaktion mit Wasser und die Komplexierung des Hydroxids zu Natriumaluminat. Bei der Reaktion mit Wasser entsteht zunächst Aluminiumhydroxid. In der Regel wird anschließend die Oberfläche getrocknet; dabei wird das Hydroxid in das Oxid umgewandelt: Dies passiert aber nicht bei der Reaktion von Aluminium in wässriger Natronlauge. Nun folgt der 2. Schritt, die Komplexierung des Hydroxids zu Natriumaluminat: Durch die Komplexierung wird das gallertartige Hydroxid wasserlöslich und kann von der Metalloberfläche abtransportiert werden. Dadurch ist die Aluminiumoberfläche nicht mehr vor dem weiteren Angriff des Wassers geschützt und Schritt 1 läuft wieder ab. Mit dieser Methode lassen sich – ebenso wie bei der Reaktion von Aluminium mit Säuren – pro zwei Mol Aluminium drei Mol Wasserstoffgas herstellen. Aluminium reagiert bei Zimmertemperatur mit Brom; hierbei entstehen Flammen. Das entstehende Aluminiumbromid reagiert mit Wasser unter Bildung von Aluminiumhydroxid und Bromwasserstoffsäure. Quecksilber und Aluminium bilden Aluminiumamalgam. Wenn Quecksilber direkt mit Aluminium zusammenkommt, d. h., wenn die Aluminiumoxidschicht an dieser Stelle mechanisch zerstört wird, frisst Quecksilber Löcher in das Aluminium; unter Wasser wächst dann darüber Aluminiumoxid in Gestalt eines kleinen Blumenkohls. Quecksilber wird in der Luftfahrt deshalb als Gefahrgut und „ätzende Flüssigkeit“ gegenüber Aluminiumwerkstoffen eingestuft. Mit Salzsäure reagiert Aluminium sehr heftig unter Wasserstoffentwicklung. Von Schwefelsäure wird es langsam aufgelöst. In Salpetersäure wird es passiviert. In Pulverform (Partikelgröße kleiner 500 µm) ist Aluminium vor allem dann, wenn es nicht phlegmatisiert ist, wegen seiner großen Oberfläche sehr reaktiv. Aluminium reagiert dann mit Wasser unter Abgabe von Wasserstoff zu Aluminiumhydroxid. Feinstes, nicht phlegmatisiertes Aluminiumpulver wird auch als Pyroschliff bezeichnet. Nicht phlegmatisierter Aluminiumstaub ist explosionsgefährdet und größere Mengen können sich bei Luftkontakt selbst entzünden. Die Verbrennungsenthalpie beträgt dabei 823,95 kJ·mol−1. Zum Löschen von brennendem Aluminiumstaub darf kein Wasser (Knallgasbildung), Kohlendioxid, Stickstoff und keine Löschpulver der Brandklassen A, B oder C eingesetzt werden. Geeignete Feuerlöschmittel sind Löschpulver der Brandklasse D, trockener Sand und Zement, trockene Abdecksalze, trockene rostfreie Graugussspäne und poröses Hohlglasgranulat wie Pyrobubbles. Isotope. In der Natur kommt ausschließlich das Isotop 27Al vor; Aluminium gehört damit zu den Reinelementen. Dieses Isotop, das stabil ist und im Kern 14 Neutronen und 13 Protonen enthält, absorbiert keine Neutronen, weshalb Aluminium in Kernreaktoren genutzt wird. Alle anderen Isotope werden künstlich erzeugt und sind radioaktiv. Das stabilste dieser Isotope ist 26Al mit einer Halbwertszeit von einer Million Jahren. Durch Elektroneneinfang oder Beta-Zerfall entsteht daraus 26Mg, durch Einfangen eines Neutrons und anschließenden Gamma-Zerfall 27Al. Die Isotope 24Al bis 29Al (Außer 26Al und 27Al) haben Halbwertszeiten zwischen wenigen Sekunden und einigen hundert Sekunden. 23Al zerfällt mit einer Halbwertszeit von nur 0,13 Sekunden. Aluminiumlegierungen. Aluminiumlegierungen sind Legierungen, die überwiegend aus Aluminium bestehen. Für andere Legierungen, die Aluminium enthalten, siehe Abschnitt #Weitere Anwendungen. Aluminium kann mit zahlreichen Metallen legiert werden, um bestimmte Eigenschaften zu fördern oder andere, ungewünschte Eigenschaften zu unterdrücken. Bei einigen Legierungen ist die Bildung der schützenden Oxidschicht (Passivierung) stark gestört, wodurch die daraus gefertigten Bauteile teils korrosionsgefährdet sind. Nahezu alle hochfesten Aluminiumlegierungen sind von dem Problem betroffen. Es gibt Aluminiumknetlegierungen, die zur Weiterverarbeitung durch Walzen, Schmieden und Strangpressen gedacht sind und Gusswerkstoffe. Diese werden in Gießereien verwendet. Im Allgemeinen werden Aluminiumlegierungen in die zwei große Gruppen der Knet- und Gusslegierungen eingeteilt: Außerdem wird unterschieden zwischen naturharten Legierungen – welche sich durch eine Wärmebehandlung nicht härten lassen – und aushärtbaren: Wirtschaftliche Bedeutung. Aluminium ist nach Stahl der zweitwichtigste metallische Werkstoff. 2016 wurden weltweit 115 Mio. Tonnen produziert. Der Aluminiumpreis bewegte sich am Weltmarkt seit 1980 um den Wert von 2000 Dollar pro Tonne (Reinheit von 99,7 %). Er ist jedoch relativ volatil, 2016 fiel er auf um die 1500 Dollar pro Tonne, während er 2017 wieder bei annähernd 2000 Dollar lag. Im August 2020 verhängte die USA (Regierung Trump) 10 % Einfuhrzoll auf Aluminium aus Kanada, um die inländische Produktion zu schützen. Infolge von Sanktionen im Ukraine-Krieg übersprang die Notierung [Ende März 2022] „zum zweiten Mal seit Ausbruch des Kriegs die Marke von 3.500 Dollar pro Tonne.“ Verwendung. Konstruktionswerkstoff allgemein. Aluminium weist eine hohe spezifische Festigkeit auf. Verglichen mit Stahl sind Bauteile aus Aluminium bei gleicher Festigkeit etwa halb so schwer, weisen jedoch ein größeres Volumen auf. Deshalb wird es gern im Leichtbau verwendet, also dort, wo es auf geringe Masse ankommt, die zum Beispiel bei Transportmitteln zum geringeren Treibstoffverbrauch beiträgt, vor allem in der Luft- und Raumfahrt. Im Kraftfahrzeugbau gewann es aus diesem Grund an Bedeutung; hier standen früher der hohe Materialpreis, die schlechtere Schweißbarkeit sowie die problematische Dauerbruchfestigkeit und die Verformungseigenschaften bei Unfällen (geringes Energieaufnahmevermögen in der sogenannten Knautschzone) im Wege. Die Haube des Washington-Denkmals, ein 3 kg schweres Gussstück, galt bis 1884 als eines der größten Aluminiumwerkstücke. Beim Bau von kleinen und mittleren Schiffen und Booten wird die Korrosionsbeständigkeit von Aluminium gegenüber Salzwasser geschätzt. Der Fahrzeugbau (inklusive Schiffen, Flugzeugen und Schienenfahrzeugen) machte 2010 mit ca. 35 Prozent den größten Anteil an der weltweiten Verwendung von Aluminium aus. In Aluminiumlegierungen werden Festigkeiten erreicht, die denen von Stahl nur wenig nachstehen. Daher ist die Verwendung von Aluminium zur Gewichtsreduzierung überall dort angebracht, wo Materialkosten eine untergeordnete Rolle spielen. Insbesondere im Flugzeugbau und in der Weltraumtechnik sind Aluminium und Duraluminium weit verbreitet. Der größte Teil der Struktur heutiger Verkehrsflugzeuge wird aus Aluminiumblechen verschiedener Stärken und Legierungen genietet. Fahrzeugbau. Bei Fahrzeugen spielt deren Masse eine Rolle: Je leichter ein Fahrzeug ist, desto geringer ist der Treibstoffverbrauch. In Deutschland werden knapp 50 % des Aluminiums im Fahrzeugbau verwendet (Stand: 2015). Bei Autos werden Aluminiumwerkstoffe verwendet für verschiedene Motor­komponenten – darunter der Motorblock, die Zylinderkolben für die spezielle Kolbenlegierungen existieren, die Zylinderköpfe – wo vor allem die geringe Wärmeausdehnung und Korrosionsanfäligkeit sowie die hohe Warmfestigkeit ausschlaggebend sind; zusammen mit der guten Gießbarkeit, da diese Komponenten üblicherweise gegossen werden. Weitere Anwendungen bei Fahrzeugen sind für Gehäuse von Getrieben, als Wärmeabschirmung und als Wärmetauscher – bei den letzten beiden in Form von Reinaluminium. Im Fahrwerk wird Aluminium genutzt als Schmiedeteile für Hinterachsen, Achsträger, Querlenker und Räder. In der Karosserie wird Aluminium verwendet für Türen, Motorhauben, Stoßfänger und Kotflügel, sowie in der Rohwagenstruktur. Bei Nutzfahrzeugen wird Aluminium angewandt für Bordwände, Ladebordwände, Aufbauten, zur Ladungssicherung, Druckluftbehälter, Treibstofftanks und als Unterbauschutz. Der Leichtbau mit Aluminium wird bei Nutzfahrzeugen stark durch die gesetzliche Maximallast pro Achse beeinflusst: Bei geringerem Fahrzeuggewicht ist eine höhere Nutzlast möglich. Bei Schienenfahrzeugen wird ebenfalls Aluminium verwendet. Voraussetzung waren dafür zwei wichtige andere Entwicklungen: Bestimmte Schweißverfahren die für Aluminiumwerkstoffe geeignet sind (WIG-Schweißen / MIG-Schweißen) in den 1950ern und das Strangpressen von Großprofilen. Die Verwendung von Aluminium hat die gesamte Bauweise von Schienenfahrzeugen verändert. Bis etwa 1970 waren Konstruktionen aus Stahlrohren üblich, danach vermehrt verschweißte Profile aus Aluminium. Bereits in der Anfangsphase der Luftfahrt wurden Aluminiumwerkstoffe genutzt, 1903 beispielsweise Magnalium für die Beschläge eines Flugzeuges, das noch größtenteils aus Holz, Draht und Tuch bestand. Das erste flugfähige Ganzmetallflugzeug stammt aus dem Jahre 1915, bestand allerdings aus Stahlblechen in Schalenbauweise. Die entscheidende Entwicklung zur Verwendung von Aluminium im Flugzeugbau stammt von 1906 von Alfred Wilm, der mit dem Duraluminium eine aushärtbare Aluminium-Kupfer-Legierung fand, die sehr hohe Festigkeiten aufweist und sich daher ausgezeichnet für den Leichtbau eignet. Genutzt werden für Flugzeuge AlCu und AlZnMg. Die Gesamtmasse von Flugzeugen geht zu 60 % auf Aluminium zurück. Die Verbindung der aus Blechen gestanzten, geschnittenen oder getriebenen, aus dem Vollen gefrästen oder aus Profilen bestehenden Werkstücke erfolgt meist durch Nieten, da die meistverwendeten Werkstoffe schlecht schweißbar sind. Bei Sport- und Alltagsrädern, hat Aluminium bei vielen Bauteilen Stahl abgelöst. Bei Felgen gab es im Rennsport auch Holzfelgen, bevor sich Alufelgen durchsetzten – diese sind griffiger für Bremsbacken, verschleißen jedoch dabei. Alurahmenrohre wurden zuerst – um 1970 – mit Epoxidkleber gefügt, später geschweißt. Bei Gepäcksträgern und Seitenständern kommt Alu als Draht, Guss und Rohr vor. Lenker, Vorbau, Bremsgriffe, Kurbeln und Ketten-Schaltwerk sind seit langem typisch aus Alu. Kotschützer sind häufig aus kunststoffumhülltem Alu. Elektrotechnik. Elektrische Leitungen. Aluminium ist ein guter elektrischer Leiter. Es weist nach Silber, Kupfer und Gold die vierthöchste elektrische Leitfähigkeit aller Metalle auf. Ein Leiter aus Aluminium hat bei gegebenem elektrischen Widerstand eine kleinere Masse, aber ein größeres Volumen als ein Leiter aus Kupfer. Daher wird meistens dann Kupfer als elektrischer Leiter verwendet, wenn das Volumen eine dominante Rolle spielt, wie bei den Wicklungen in Transformatoren. Aluminium hat dann als elektrischer Leiter Vorteile, wenn das Gewicht eine wesentliche Rolle spielt, beispielsweise bei den Leiterseilen von Freileitungen. Aus dem Grund der Gewichtsreduktion werden in Flugzeugen wie dem Airbus A380 Aluminiumkabel verwendet. Aluminium wird unter anderem zu Stromschienen in Umspannwerken und zu stromführenden Gussteilen verarbeitet. Für Elektroinstallationen gibt es kupferkaschierte Aluminiumkabel, der Kupferüberzug ist zur Verbesserung der Kontaktgabe. In diesen Anwendungsbereichen sind primär Rohstoffpreise entscheidend, da Aluminium preisgünstiger als Kupfer ist. Für Oberleitungen bei elektrischen Bahnen ist es dagegen aufgrund seiner schlechten Kontakt- und Gleiteigenschaften ungeeignet, in diesem Bereich wird trotz des höheren Gewichts primär Kupfer eingesetzt. Beim Kontaktieren unter Druck ist Aluminium problematisch, da es zum Kriechen neigt. Außerdem überzieht es sich an Luft mit einer Oxidschicht. Nach längerer Lagerung oder Kontakt mit Wasser ist diese isolierende Schicht so dick, dass sie vor der Kontaktierung beseitigt werden muss. Vor allem im Kontakt mit Kupfer kommt es zu Bimetallkorrosion. Bei ungeeigneten Kontaktierungen in Klemmen kann es bei Aluminiumleitern in Folge zu Ausfällen und Kabelbränden aufgrund sich lösender Kontakte kommen. Crimpverbindungen mit passenden Hülsen und Werkzeugen sind jedoch sicher. Als Zwischenlage zwischen Kupfer und Aluminium können Verbindungsstücke aus Cupal die Kontaktprobleme vermeiden. Hervorzuheben ist das geringe Absinken der spezifischen elektrischen Leitfähigkeit von Aluminium bei Zusatz von Legierungsbestandteilen, wohingegen Kupfer bei Verunreinigungen eine deutliche Verringerung der Leitfähigkeit zeigt. Elektronik. Die Elektronikindustrie setzt Aluminium aufgrund der guten Verarbeitbarkeit und der guten elektrischen und Wärme-Leitfähigkeit ein. In integrierten Schaltkreisen wurde bis in die 2000er Jahre ausschließlich Aluminium als Leiterbahnmaterial eingesetzt. Bis in die 1980er Jahre wurde es als Material für die Steuerelektrode (Gate) von Feldeffekttransistoren mit Metall-Isolator-Halbleiter-Struktur (MOSFET beziehungsweise MOS-FET) verwendet. Neben dem geringen spezifischen Widerstand sind für die Verwendung die gute Haftung auf und geringe Diffusion in Siliciumoxiden (Isolationsmaterial zwischen den Leiterbahnen) sowie die einfache Strukturierbarkeit mithilfe von Trockenätzen ausschlaggebend. Seit Anfang der 2000er Jahre wird Aluminium jedoch zunehmend durch Kupfer als Leiterbahnmaterial ersetzt, auch wenn dafür aufwendigere Strukturierungsverfahren (vgl. Damascene- und Dual-Damascene-Prozess) und Diffusionsbarrieren notwendig sind. Der höheren Fertigungsaufwand wird durch den geringeren spezifischen Widerstand, der im Fall von kleinen Strukturen bei Aluminium viel früher signifikant ansteigt und anderen Eigenschaften (Elektromigrationverhalten) überwogen und die Aluminium-Prozesse konnte die gestiegenen Anforderungen (Taktfrequenz, Verlustleistung) in mit hohen Frequenzen arbeitenden Schaltkreisen nicht mehr genügen. Aluminium wird jedoch weiterhin in mikroelektronischen Produkten verwendet, so wird es wegen seiner guten Kontaktierbarkeit durch andere Metalle in den letzten Leiterbahnebenen eingesetzt, um den elektrischen Kontakt zu den bei der Flip-Chip-Montage eingesetzten Lotkügelchen herzustellen. Ähnlich verhält es sich bei Leistungshalbleitern, bei denen in der Regel alle Leiterbahnebenen aus Aluminium bestehen. Allgemein und insbesondere bei Leistungshalbleitern wird das Material für Bonddrähte (Verbindungsdrähte zwischen Chip und Gehäuseanschluss) verwendet. Mit der Einführung der High-k+Metal-Gate-Technik hat Aluminium nach gut 25 Jahren Abwesenheit im Bereich des Gates an Bedeutung gewonnen und wird neben anderen als Material zur Einstellung der Austrittsarbeit eingesetzt. Verpackung und Behälter. In der Verpackungsindustrie wird Aluminium zu Getränke- und Konservendosen sowie zu Aluminiumfolie verarbeitet. Dabei macht man sich die Eigenschaft der absoluten Barrierewirkung gegenüber Sauerstoff, Licht und anderen Umwelteinflüssen zunutze. Ausschlaggebend für die Verwendung von Aluminium als Verpackung ist nicht die geringe Dichte, sondern die gute Verarbeitbarkeit durch Walzen und die Ungiftigkeit. Dünne Folien werden in Stärken von sechs Mikrometern hergestellt und dann zumeist in Verbundsystemen eingesetzt, beispielsweise in Tetra Paks. Kunststofffolien können durch Bedampfen mit Aluminium mit einer dünnen Schicht versehen werden, welche dann eine hohe (aber nicht vollständige) Barrierefunktion aufweist. Grund dieser Barrierewirkung ist nicht das reine Aluminium, sondern die Passivschicht aus Böhmit. Wird diese verletzt, so kann Gas ungehindert durch den Werkstoff Aluminium strömen. Genutzt werden meist Reinaluminium, AlMn (Legierungen mit Mangan) und AlMg (Legierungen mit Magnesium). Aus Aluminium werden Kochtöpfe und andere Küchengeräte, wie die klassische italienische Espressokanne, sowie Reise- und Militär-Geschirr hergestellt. Aluminium wird für eine Vielzahl von Behältern und Gehäusen verarbeitet, da es sich gut durch Umformen bearbeiten lässt. Gegenstände aus Aluminium werden häufig durch eine Eloxalschicht vor Oxidation und Abrieb geschützt. Druckgasflaschen aus Aluminium sind eher selten, denn Taucher brauchen Ballast und im Bereich Feuerwehr wurden Leichtstahlflaschen durch solche aus Faserverbund ersetzt, zunehmend ohne Alu-Liner. 2017 entfielen 17 % der europäischen Aluminiumverwendung auf Verpackungen. Optik und Lichttechnik. Aluminium wird aufgrund seines hohen Reflexionsgrades als Spiegelbeschichtung von Oberflächenspiegeln, unter anderem in Scannern, Kraftfahrzeug-Scheinwerfern und Spiegelreflexkameras aber auch in der Infrarotmesstechnik eingesetzt. Es reflektiert im Gegensatz zu Silber Ultraviolettstrahlung. Aluminium-Spiegelschichten werden meist durch eine Schutzschicht vor Korrosion und Kratzern geschützt. Architektur und Bauwesen. Betonherstellung. Aluminiumpulver und Aluminiumpasten werden zur Herstellung von Porenbeton eingesetzt. Man verwendet Verbindungen wie Aluminiumhydroxysulfat, Aluminiumdihydroxyformiat oder amorphes Aluminiumhydroxid als alkalifreie Spritzbetonbeschleuniger. Konstruktions- und Funktionswerkstoff. Aluminium wird als Konstruktionswerkstoff insbesondere für Leichtbaukonstruktionen und als Funktionswerkstoff zur Fertigung von dekorativen und korrosionsbeständigen Bauteilen verwendet. Neben der Witterungsbeständigkeit ist vor allem die einfache Verarbeitbarkeit von Vorteil, insbesondere bei handwerklicher Fertigung. Das Baugewerbe ist der Hauptabnehmer für Aluminiumprofile. Genutzt wird Aluminium hauptsächlich für Fensterrahmen, Türen und Tragstruktur sowie Verkleidung von Vorhangfassaden. Bekannt ist die Fassade des Imperial War Museums in Manchester. Für Aussenanwendungen werden oft korrosionsbeständige Aluminium-Mangan-Legierungen eingesetzt. Aluminiumheizkörper werden auch zur Gebäudebeheizung verwendet, da Aluminium ein geringes Gewicht hat und in Feucht-Räumen nicht rostet. Zu beachten ist, dass Heizungswasser laut VDI 2035 bereits einen pH-Wert von mindestens 8,2 haben soll. Wenn eine zusätzliche Eigen-Alkalisierung auftritt Einsatz von Aluminium-Heizkörpern nicht unkritisch, da pH-Werte über 8,5 zur Korrosion von Aluminium führen können. Im konstruktiven Ingenieurbau werden Legierungen mit höherer Festigkeit genutzt, darunter AlMg und AlSi. Selten wird Aluminium auch im Brückenbau eingesetzt, wo sonst der Stahlbau vorherrscht. Bleche und Verbundplatten aus Aluminiumlegierungen werden im Brandschutz als 'nicht brennbar' (Brandschutzklassen A1/ A2 nach EN13501) bis 'normal entflammbar' (Brandschutzklasse B2 nach DIN4102; D, E, F nach EN13501) eingestuft. Ein Wohnungsbrand entwickelt im Zustand des Vollbrands 1000 °C. Bereits zwischen 600 °C und 660 °C schmelzen Aluminiumlegierungen. Weitere Anwendungen. In der Raketentechnik enthält der Treibstoff von Feststoffraketen bis zu 30 Prozent Aluminiumpulver, das bei der Verbrennung viel Energie freisetzt. Aluminium wird in Feuerwerken (s. a. Pyrotechnik) verwendet, wo es je nach Körnung und Mischung für farbige Effekte sorgt. Auch in Knallsätzen findet es oft Verwendung. Bei der Aluminothermie wird Aluminium zur Gewinnung anderer Metalle und Halbmetalle verwendet, indem das Aluminium zur Reduktion der Oxide genutzt wird. Ein wichtiges Verfahren der Aluminothermie ist die Thermitreaktion, bei der Aluminium mit Eisen(III)-oxid umgesetzt wird. Bei dieser stark exothermen Reaktion bildet sich bei Temperaturen von bis zu 2500 °C flüssiges Eisen, das zum aluminothermischen Schweißen genutzt wird, beispielsweise zum Fügen von Bahngleisen. Für Laborzwecke wird auch die Reduktionswirkung von Aluminiumamalgam eingesetzt. Aluminium dient als Pigment für Silber- und Goldbronze. Farbig eloxiert ist es Bestandteil vieler Dekorationsmaterialien wie Flitter, Geschenkbänder und Lametta. Zur Beschichtung von Oberflächen wird es beim Aluminieren verwendet. Heizelemente von Bügeleisen und Kaffeemaschinen werden aus Aluminium geformt. Bevor es gelang, Zinkblech durch Titanzusatz als so genanntes Titanzink verarbeitbar zu machen, wurde vielfach Aluminiumblech für Dachelemente wie Dachrinnen eingesetzt. Auch Fassadenpaneele, Dachschindeln und Wellblech werden aus Aluminium gefertigt. Siehe Leichtdach Wegen seiner hohen Wärmeleitfähigkeit wird Aluminium als Werkstoff für stranggepresste Kühlkörper und wärmeableitende Grundplatten verwendet. Aluminium-Elektrolytkondensatoren verbauen Aluminium als Elektrodenmaterial und Gehäusewerkstoff, weiters wird es zur Herstellung von Antennen und Hohlleitern verwendet. Aluminium kommt in einigen Legierungen vor. Neben den Aluminiumlegierungen die überwiegend aus Aluminium bestehen, kommt es noch vor in den Kupferlegierungen Aluminiumbronze, Aluminiummessing, Isabellin, zu etwa gleichen Teilen Al und Kupfer in der Devardaschen Legierung, als Hauptlegierungselement für Magnesiumlegierungen sowie in Alnico und Sendust, zwei Eisenlegierungen mit besonderen magnetischen Eigenschaften. In vielen Titanlegierungen kommt ebenfalls Aluminium vor, insbesondere in Ti-6Al-4V, der Sorte die etwa 50 % aller Titanlegierungen ausmacht. Dort ist Aluminium mit sechs Massenprozent enthalten. Verarbeitung. Bei der Verarbeitung wird unterschieden, ob es sich um Gusslegierungen handelt oder um Knetlegierungen: Danach werden die Einzelteile durch Schweißen, Nieten, Löten und ähnliche Verfahren verbunden. Gießen. Das Gießen von Aluminium wird als Aluminiumguss bezeichnet. Es gehört aufgrund seines vergleichsweise geringen Schmelzpunktes von 660 °C (Gusseisen etwa 1150 °C, Stahl 1400 °C bis 1500 °C) und seiner guten Gießbarkeit zu den häufig in der Gießerei verwendeten Werkstoffen. AlSi, spezielle Gusslegierungen mit Silicium, haben sogar Schmelzpunkte um 577 °C. Der Massenanteil von Aluminium aller in Gießereien erzeugten Produkte beträgt etwa 11 % (Gusseisen 76 %, Stahlguss 9 %) und ist damit in der Gießerei das mit Abstand wichtigste Nichteisenmetall (NE-Metalle) noch vor Kupfer mit 1,5 %. Der Anteil am NE-Metallguss von Aluminium beträgt etwa 87 %. In Deutschland wurden 2011 etwa 840.000 Tonnen Aluminium in Gießereien verarbeitet; Etwa 76 % des Nichteisenmetall-Gusses wird von der Automobilbranche abgenommen. Aus dem niedrigen Schmelzpunkt folgt ein geringer Energieeinsatz beim Schmelzvorgang sowie eine geringere Temperaturbelastung der Formen. Aluminium eignet sich grundsätzlich für alle Gussverfahren, insbesondere für Druckguss beziehungsweise Aluminiumdruckguss, mit denen kompliziert geformte Teile gefertigt werden können. In der Gießerei werden besondere Aluminiumgusslegierungen verarbeitet, größtenteils die Aluminium-Silicium-Legierungen. In den Hüttenwerken werden dagegen meist Knetlegierungen erzeugt, die zur Weiterbearbeitung durch Walzen, Schmieden und Fließpressen gedacht sind. Diese werden in den Hüttenwerken vergossen zu Barren (Blockguss) oder zu Rundbarren, die theoretisch endlos sein können (Strangguss). Seit den 1930er Jahren kommt der Strangguss vermehrt zum Einsatz. Dafür gibt es spezielle Anlagen die bis zu 96 Rundbarren gleichzeitig herstellen können mit Gießlängen zwischen 3 und 7 Metern teils bis zu 10 Metern. Die Durchmesser liegen bei 75 bis 700 mm. Bleche werden manchmal hergestellt durch Gießen direkt auf eine Walze, die die Schmelze kühlt. Das Rohblech wird danach direkt kaltgewalzt ohne Warmwalzen, was Kosten von bis zu 60 % spart. Umformende Verfahren. Etwa 74 Prozent des Aluminiums wird durch Umformen bearbeitet. Hierzu zählt unter anderem das Walzen, Schmieden, Strangpressen und Biegen. Rein- und Reinstaluminium lässt sich wegen der niedrigen Festigkeit gut umformen und verfestigt sich bei Kaltumformung, wobei große Formänderungen möglich sind. Die Verfestigung lässt sich durch Rekristallisationsglühen beseitigen. Knetlegierungen mit AlMg und AlMn erreichen ihre höhere Festigkeit durch die Legierungselemente und durch Kaltverformung. Die aushärtbaren Legierungen AlMgSi, AlZnMg, AlCuMg und AlZnMgCu scheiden bei Umformung festigkeitssteigernde Phasen aus; sie lassen sich relativ schwierig umformen. Gegossene Barren werden häufig durch Walzen weiterverarbeitet, entweder zu dicken Platten die anschließend durch Fräsen zu Endprodukten werden, zu Blechen die durch Stanzen und Biegen weiterverarbeitet werden oder zu Folien. Beim Walzen ändert sich die Mikrostruktur der Werkstoffe: Kleine kugelförmige Bestandteile die häufig nach dem Gießen vorliegen, werden plattgedrückt und in die Länge gezogen. Das Gefüge wird dadurch einerseits feiner und gleichmäßiger, andererseits aber auch Richtungsabhängig. Die Kapazität einer Aluminium-Warmwalzanlage liegt bei etwa 800.000 Tonnen pro Jahr. Verarbeitet werden Barren mit bis zu 30 Tonnen Masse. Sie haben Abmessungen von bis zu 8,7 Metern Länge, 2,2 Metern Breite und 60 cm Dicke. Noch größere Barren können technisch verarbeitet werden, die Gefügequalität nimmt dann aber ab. Nach dem Warmwalzen liegt der Werkstoff meist mit Dicken von etwa 20 bis 30 mm vor. Anschließend folgt das Kaltwalzen auf Enddicke. Kaltwalzwerke haben Kapazitäten von 300.000 bis 400.000 Jahrestonnen. Verbundwerkstoffe können durch Walzplattieren hergestellt werden. Dabei wird ein- oder zweiseitig eine Schicht aus einem anderen Werkstoff aufgebracht. Häufig wird auf korrosionsanfälliges Kernmaterial eine Schicht aus korrosionsbeständigem Reinaluminium aufgebracht. Aluminium lässt sich durch Strangpressen in komplizierte Konstruktionsprofile formen; hierin liegt ein großer Vorteil bei der Fertigung von Hohlprofilen (für Fensterrahmen, Stäbe, Balken), Kühlkörper­profilen oder in der Antennentechnik. Die Herstellung von Halbzeug oder Bauteilen geschieht aus Vormaterial wie Walzbarren, Blech oder Zylindern. Aluminiumlegierungen lassen sich deutlich besser strangpressen als andere Werkstoffe, weshalb ein großer Teil des Aluminiums mit diesem Verfahren verarbeitet wird. Dabei wird das Ausgangsmaterial durch ein hohles Werkzeug gepresst. Es entsteht Endlosmaterial das in der gewünschten Länge abgesägt wird. Es können auch komplizierte Querschnitte hergestellt werden, beispielsweise Hohlprofile oder welche mit Hinterschneidungen. Der Querschnitt ist allerdings über die Länge konstant. Mit hochfesten Legierungen sind große Mindestwanddicken erforderlich und das Pressen dauert lange, weshalb eher die mittelfesten, aushärtbaren Legierungen bevorzugt werden. Die Aushärtung wird meist direkt im Anschluss durchgeführt. Beim Strangpressen wird der Werkstoff auf Temperaturen von etwa 450 bis 500 °C erwärmt um die Umformbarkeit zu erhöhen, was gleichzeitig zum Lösungsglühen genutzt wird. Direkt nach dem Strangpressen wird das Werkstück durch Luft oder Wasser stark abgekühlt und so abgeschreckt, was zu höheren Festigkeiten führt. Ein Mischverfahren aus Gießen und Schmieden ist Cobapress, welches speziell für Aluminium ausgelegt ist und häufig in der Automobilbranche genutzt wird. Spanende Verfahren. Zum Zerspanen zählt das Drehen, Bohren und Fräsen. Aluminiumwerkstoffe sind gut spanbar. Ihre genauen Eigenschaften hängen jedoch von der Legierung und Gefügezustand ab. Zu beachten ist, dass die bei der Bearbeitung auftretenden Temperaturen schnell im Bereich des Schmelzpunktes liegen können. Bei gleichen Schnittparametern wie bei Stahl resultiert bei Aluminium allerdings eine geringere mechanische und thermische Belastung. Als Schneidstoff wird oft Hartmetall für untereutektische oder Diamant für die stark verschleißenden übereutektischen Legierungen verwendet. Auch Eloxalschichten erhöhen den Werkzeug-Verschleiß durch ihre Härte. Die beim Schleifen und Polieren von Aluminium entstehenden Stäube sind brennbar und stellen unter Umständen ein Explosionsrisiko dar. Wenn Aluminiumstaub mit Wasser in Berührung kommt, bildet sich Wasserstoff, der in schlecht belüfteten Räumen ebenfalls explosionsfähige Gemische mit Luft bilden kann. Schweißen und Löten. Grundsätzlich sind alle Aluminium-Werkstoffe zum Schweißen geeignet, wobei jedoch reines Aluminium zu Poren in der Schweißnaht neigt. Außerdem neigt die Aluminiumschmelze zu Reaktionen mit der Atmosphäre, weshalb fast immer unter Schutzgas geschweißt wird. Gut geeignet sind das MIG- und Plasmaschweißen sowie das WIG-Schweißen. Bei Letzterem wird bei Nutzung von Wechselstrom das Edelgas Argon als Schutzgas verwendet, und bei Gleichstrom Helium. Für das Laserschweißen eignen sich sowohl Kohlendioxid- als auch Festkörperlaser, allerdings nicht für alle Legierungen. Wegen der hohen Wärmeleitfähigkeit erstarrt die Schmelze sehr schnell, sodass die Schweißnaht zu Poren und Rissen neigt. Das Widerstandspunktschweißen erfordert, verglichen mit Stahl, höhere elektrische Ströme und kürzere Schweißzeiten sowie teilweise spezielle Geräte, da die handelsüblichen Schweißgeräte für Stahl nicht dafür geeignet sind. Für das Elektronenstrahlschweißen eignen sich alle Legierungen, jedoch neigen Magnesium und Zinn zum Verdampfen während des Schweißvorgangs. Lichtbogenhandschweißen wird nur noch selten verwendet, meist zur Gussnachbesserung. Löten gestaltet sich wegen der sich bildenden Oxidschicht an Luft schwierig. Genutzt werden sowohl Hart- als auch Weichlöten mit speziellen Flussmitteln. Alternativ kann Aluminium ohne Flussmittel mit Ultraschall gelötet werden, dabei wird die Oxidschicht mechanisch während des Lötvorganges aufgebrochen. Aluminium in Natur und Organismen. Aluminium im menschlichen Körper. Aluminium gelangt durch die Nahrung und durch das Atmen in den menschlichen Körper, aber auch entsprechende kosmetische Produkte und Arzneimittel wie Antazida tragen zur Aufnahme bei. In der Luft sind etwa 0,005–0,18 µg Al pro Kubikmeter (µg/m3) enthalten, in Städten und Industriegebieten ist die Konzentration erhöht (0,4–8,0 µg/m3). In Trinkwasser kommen etwa 0,1 mg Al pro Liter (mg/l) vor, dieser Wert wird vereinzelt in manchen Städten auch überschritten (bis zu 1 mg/l). Aluminium ist kein essentielles Spurenelement und gilt für die menschliche Ernährung als entbehrlich. Im menschlichen Körper befinden sich durchschnittlich etwa 50 bis 150 Milligramm Aluminium. Diese verteilen sich zu ungefähr 50 Prozent auf das Lungengewebe, zu 25 Prozent auf die Weichteile und zu weiteren 25 Prozent auf die Knochen. Infolgedessen ist Aluminium ist normaler Bestandteil des menschlichen Körpers. 99 bis 99,9 Prozent der üblicherweise in Lebensmitteln aufgenommenen Menge von Aluminium (10 bis 40 mg pro Tag) werden unresorbiert über den Kot wieder ausgeschieden. Chelatbildner "(Komplexbildner)" wie Citronensäure können die Resorption auf 2 bis 3 Prozent steigern. Die Aufnahme von Aluminiumsalzen über den Magen-Darm-Trakt ist gering; sie variiert aber in Abhängigkeit von der chemischen Verbindung und ihrer Löslichkeit, dem pH-Wert und der Anwesenheit von Komplexbildnern. Man schätzt, dass 1 ‰ beziehungsweise 3 ‰ des in der Nahrung beziehungsweise im Trinkwasser erhaltenen Aluminiums im Magen-Darm-Trakt absorbiert werden. Von dort gelangt es in zahlreiche Gewebe und ins Blut. Im Blut ist Al3+ überwiegend (zu etwa 80 %) an Transferrin gebunden. 16 Prozent liegen als [Al(PO4)(OH)]−, 1,9 Prozent als Citrat-Komplex, 0,8 Prozent als Al(OH)3 und 0,6 Prozent als [Al(OH)4]− vor. Das Blut Neugeborener enthält bereits Aluminiumionen, die aus dem maternalen Kreislauf stammen. Die Serumkonzentrationen von etwa 6–10 μg/l entspricht in etwa der von Erwachsenen. Durch das Blut gelangen wasserlösliche Aluminiumsalze auch in das Gehirn: Die Passage an der Blut-Hirn-Schranke geschieht durch Endozytose mittels Transferrin-Rezeptor und durch aktiven, ATP-abhängigen Transport des Citrates. Dies wurde tierexperimentell mittels radioaktiv markierten Aluminiums des Isotops 26Al, das in der Natur nicht vorkommt, nachgewiesen. Die Eliminierung von in den Organismus gelangten wasserlöslichen Aluminiumsalzen erfolgt innerhalb weniger Tage vorwiegend durch die Nieren über den Urin, weniger über den Kot. Die Halbwertszeit im Blut beträgt hierbei 8 Stunden. Bei Dialysepatienten mit einer eingeschränkten Nierenfunktion besteht daher ein erhöhtes Risiko einer Akkumulation im Körper (Gehirn, Knochen) mit toxischen Effekten, etwa Knochenerweichungen und Schäden des Zentralnervensystems; zusätzlich sind Dialysepatienten aufgrund für sie notwendiger pharmazeutischer Produkte (Phosphatbinder) einer höheren Aluminiumzufuhr ausgesetzt. Aluminium, das nicht über die Nieren ausgeschieden wird, gelangt in die Knochen. Dort wird es vergleichsweise sehr langsam eliminiert (Halbwertszeit mehrere Jahre), so dass man durch Modellschätzungen annimmt, dass etwa 1–2 % der resorbierten Dosis sich im Körper anhäufen. In einem Leben häufen sich etwa 35 bis 50 mg Aluminium im Körper an. Pflanzen. Aluminium in Form verschiedener Salze (Phosphate, Silikate) ist Bestandteil vieler Pflanzen und Früchte, denn gelöste Al-Verbindungen werden durch Regen aus den Böden von den Pflanzen aufgenommen, bei Säurebelastung der Böden infolge sauren Regens ist dies vermehrt der Fall (siehe dazu Waldschäden). Ein großer Teil des Bodens auf der Welt ist chemisch sauer. Liegt der pH-Wert unter 5,0, werden Al3+-Ionen von den Wurzeln der Pflanzen aufgenommen. Dies ist bei der Hälfte des bebaubaren Lands auf der Welt der Fall. Die Ionen schädigen insbesondere das Wurzelwachstum der Feinwurzeln. Wenn die Pflanze nicht Aluminium-tolerant ist, steht sie dann unter Stress. Zahlreiche Enzyme und signalübertragende Proteine sind betroffen; die Folgen der Vergiftung sind noch nicht vollständig bekannt. In sauren metallhaltigen Böden ist Al3+ das Ion mit dem größten Potenzial zur Schädigung. Von der Modellpflanze "Arabidopsis" sind Transgene bekannt, die deren Aluminium-Toleranz heraufsetzen und auch bei Kulturpflanzen sind tolerante Sorten bekannt. Der saure Regen hat beispielsweise in Schweden in den 1960er Jahren die Seen übersäuert, wodurch mehr Al3+-Ionen in Lösung gingen und empfindliche Fische verendeten. In Norwegen wurde dieser Zusammenhang bei einem Forschungsprojekt in den 1970er Jahren festgestellt. Bei pH-Werten über 5,0 ist Aluminium als polymeres Hydroxykation an der Oberfläche von Silicaten gebunden. Bei pH-Werten von 4,2 bis 5 steigt Anteil von mobilen Kationen. Bei Erhöhung der Schwefelsäurekonzentration durch sauren Regen bildet sich Aluminiumhydroxysulfat: In Lebensmitteln. Die meisten Lebensmittel enthalten Aluminium in Spurenmengen. Unverarbeitete pflanzliche Lebensmittel enthalten durchschnittlich weniger als 5 mg/kg in der Frischmasse. Dabei streuen die Werte aufgrund unterschiedlicher Sorten, Anbaubedingungen und Herkunft in erheblichem Maße. So weisen beispielsweise Salat und Kakao deutlich höhere Durchschnittswerte auf. Zwischen 5 und 10 mg/kg finden sich in Brot, Kuchen, Backwaren, einer Vielzahl von mehlhaltigen Speisen, einigen Gemüsearten oder Würsten. Schwarzer Tee kann Gehalte von bis zu 1042 mg/kg in der Trockenmasse aufweisen. Jedoch ist dort das Aluminium an schlecht absorbierbaren Polyphenolen gebunden, so dass eine Aufnahme im Magen-Darm-Trakt erschwert wird. Einen hohen Aluminiumgehalt weisen Kräuter und Gewürze auf, beispielsweise Thymianblätter. Im europäischen Vergleich zeigen sich Schwankungen, was vermutlich auf eine unterschiedlich hohe Aluminiumgrundbelastung und Verwendung von aluminiumhaltigen Zusatzstoffen zurückzuführen ist. Beim Kochen oder Aufbewahren in Aluminiumgeschirr oder in Alufolie kann es (außer bei sauren Lebensmitteln) nach einer Schätzung zu einer maximalen zusätzlichen Aufnahme von 3,5 mg/Tag/Person kommen. Bei sauren Lebensmitteln wie Sauerkraut oder Tomaten können aufgrund der Säurelöslichkeit wesentlich höhere Werte erreicht werden. Das Bundesinstitut für Risikobewertung (BfR) rät von der Zubereitung und Lagerung von insbesondere sauren und salzigen Lebensmitteln in unbeschichteten Aluminiumgefäßen oder Alufolie ab. Hohe Belastungen fallen beispielsweise dann an, wenn Fisch oder Fleischgerichten mit Zitrone oder anderen sauren Zutaten in Aluminiumschalen oder -folien angerichtet und über längere Zeit hoch erhitzt werden. Trink- und Mineralwässer weisen mit durchschnittlich 0,2–0,4 mg/l im Gegensatz zur Nahrung geringe Gehalte auf und leisten somit einen kleinen Beitrag zur täglichen Aluminium-Aufnahme. Ein Liter Trinkwasser darf in Deutschland, Österreich und der Schweiz nicht mehr als 0,2 mg Aluminium enthalten. Nach einer Schätzung nimmt der erwachsene Europäer im Durchschnitt zwischen 1,6 und 13 mg Aluminium pro Tag über die Nahrung auf. Dies entspricht einer wöchentlichen Aufnahme von 0,2 bis 1,5 mg Aluminium pro kg Körpergewicht bei einem 60 kg schweren Erwachsenen. Die großen Unsicherheiten beruhen auf den unterschiedlichen Ernährungsgewohnheiten und der variablen Gehalte an Aluminium in den Lebensmitteln, auch innerhalb eines Landes aufgrund verschiedener Erhebungen. Falls Säuglinge mit Fertignahrung ernährt werden, kann die Aluminiumkonzentration im Blut bei 15 μg/l liegen. Eine mögliche gesundheitliche Schädigung ist nicht bekannt. Die Europäische Behörde für Lebensmittelsicherheit (Efsa) nennt eine tolerierbare wöchentliche Aufnahme (TWI) von 1 mg Aluminium pro kg Körpergewicht. Vor 2008 nannte sie einen TWI von 7 mg Al je kg Körpergewicht. Wegen der möglichen Akkumulation im Körper zieht die Efsa als Maß den TWI der tolerierbaren täglichen Aufnahme (TDI) vor. Aluminium ist als Lebensmittelzusatzstoff unter der Bezeichnung ausschließlich als Farbmittel für Überzüge von Zuckerwaren und als Dekoration von Kuchen und Keksen erlaubt. Weiterhin ist Aluminium zum Färben von Arzneimitteln und Kosmetika zugelassen. Bei der Untersuchung von Laugengebäck (Brezeln, Stangen, Brötchen) aus Bäckereien wurde Aluminium nachgewiesen, das in das Lebensmittel gelangt, wenn bei der Herstellung von Laugengebäck Aluminiumbleche verwendet werden. Während Bier in Aluminiumfässern transportiert wird, hat sich für den Weintransport der Werkstoff Aluminium nicht durchgesetzt. Ein kurzfristiger Kontakt schadet nicht, doch können nach längerem Kontakt Weinfehler in Geruch und Geschmack oder als Trübung auftreten, vor allem beim offenen Stehen an der Luft. Toxizität. Aluminium gehört nicht zu den essentiellen Spurenelementen, bei der Toxizität kommt es im Wesentlichen auf die Menge an: 10 µg/l Aluminium im Blut gilt als Normalwert, Werte über 60 µg/l sprechen für übermäßige Belastung und Werte über 200 µg/l im Blut gelten als toxisch. Tierexperimentelle Studien mittels 26Al zeigen, dass sich die Serumkonzentration von Aluminium durch eine adjuvierte Impfung nur um wenige Promille erhöht (von etwa 5,00 µg/l auf 5,04 µg/l). Bei eingeschränkter Nierenfunktion und bei Dialyse-Patienten führt die Aufnahme von Aluminium zu progressiver Enzephalopathie (Gedächtnis- und Sprachstörungen, Antriebslosigkeit und Aggressivität) durch Untergang von Hirnzellen und zu fortschreitender Demenz, zu Osteoporose (Arthritis) mit Knochenbrüchen und zu Anämie (weil Aluminium dieselben Speichereiweiße wie Eisen besetzt). Dies wurde in den 1970er Jahren bei langjährigen Hämodialysepatienten durch starke Aluminiumzufuhr beobachtet "(„Dialysis Encephalopathy Syndrome“)". Speziell im Hinblick auf die Verwendung in Deodorants bzw. Antitranspirantien und Lebensmittel-Zusatzstoffen werden die gesundheitlichen Auswirkungen von Aluminium untersucht. Alzheimer-Krankheit. Aluminium wurde kontrovers als Faktor im Zusammenhang mit der Alzheimer-Krankheit in Verbindung gebracht. Es ist jedoch unklar, ob die Aluminium-Akkumulation eine der Folgen der Alzheimer-Krankheit ist, oder ob Aluminium in ursächlichem Zusammenhang mit der Alzheimer-Krankheit zu sehen ist. So wäre es auch möglich, dass sich Aluminium erst nach der Entstehung von Alzheimer in den erkrankten Gehirnregionen ansammelt. Das Bundesinstituts für Risikobewertung (BfR) hat mehrmals, zuletzt 2020, die Einschätzung abgegeben, dass eine kausale Verbindung zwischen Aluminium und der Alzheimer-Krankheit nicht belegt ist. Bei der Risikobewertung von Aluminium ist es jedoch grundsätzlich wichtig, die Gesamtaufnahme über die verschiedenen Eintragspfade wie Lebensmittel oder aluminiumhaltige Produkte für den Lebensmittelkontakt zu betrachten. Mittlerweile sieht man bei Aluminium keine oder nur eine zu vernachlässigende Rolle bei der Entstehung der Alzheimer-Krankheit. Brustkrebs. Ebenfalls kontrovers wurde die Rolle aluminumhaltiger Deodorants bzw. Antitranspirantien auf Basis von Aluminiumchlorohydrat bei der Entstehung von Brustkrebs diskutiert., dieser Verdacht wurde aber nicht bestätigt. Wie viel Aluminiumsalz tatsächlich in den Körper gelangen kann, hängt von mehreren Faktoren wie den Aluminiumsalzgehalt in Deos (Menge variiert von 0,2 bis 5,8 Prozent) oder die Häufigkeit der Verwendung ab. Der Wissenschaftliche Ausschuss Verbrauchersicherheit der Europäischen Kommission schloss 2020 aufgrund neuer Daten, dass die Verwendung von nicht zu sprühenden Deodorants und Transpirantien mit bis zu 6,25 % Aluminiumanteil sowie Sprüh-Deodorants und -Transpirentien mit bis zu 10,60 % sicher sind. Das BfR teilte diese Einschätzung, basierend auf drei Studien aus 2016 und 2019: Gesundheitliche Beeinträchtigungen durch den regelmäßigen Gebrauch von Aluminiumchlorohydrat-haltigen Antitranspirantien sind nach gegenwärtigem wissenschaftlichen Kenntnisstand unwahrscheinlich. So liegt die Bioverfügbarkeit des aufgetragenen Aluminiums bei 0,00192 %, deutlich geringer als bei den bisher angenommenen 0,014 %. Aspekte der Ökobilanz. Abbau. Durch den Abbau des Erzes Bauxit werden große Flächen in Anspruch genommen, die erst nach einer Rekultivierung wieder nutzbar werden. Um eine Tonne Aluminium herzustellen, werden vier Tonnen Bauxit benötigt. Dies erzeugt zehn Tonnen Abraum. Zudem entstehen bei der Herstellung des Aluminiumoxids nach dem Bayer-Verfahren ca. drei Tonnen von eisenreichem alkalischen Rotschlamm, der kaum wiederverwertet wird und dessen Deponierung oder sonstige „Entsorgung“ große Umweltprobleme aufwirft (siehe entsprechende Abschnitte unter "Rotschlamm" und "Bauxitbergbau in Australien"). Herstellung. Die Herstellung von Aluminium ist sehr energieaufwendig. Allein für die Schmelzflusselektrolyse zur Gewinnung eines Kilogramms Aluminium werden je nach Errichtungsdatum und Modernität der Anlage zwischen 12,9 und 17,7 kWh elektrische Energie benötigt. Es ist daher ein Bestreben der Hersteller, möglichst preiswert an elektrische Energie zu kommen. Mit der zunehmenden Kritik an der Atomenergie wurde auch Kritik am damit erzeugten Aluminium lauter. So in Frankreich, wo der Strom aus dem nationalen Energiepool und damit überwiegend aus Atomkraftwerken stammt. Ähnliches gilt für das Betreiben mit fossiler Energie, besonders in Australien, wo 90 % des Stroms aus Kohle und Gas gewonnen werden. Das hat zur Folge, dass die Verwendung von Kohle- oder Atomstrom zu Gunsten von ökologisch wertvollerer Elektrizität aus Wasserkraft teilweise zurückgedrängt wird. Bei der Stromerzeugung für die Produktion von einem Kilogramm Aluminium werden im deutschen Kraftwerkspark 8,4 kg CO2 freigesetzt, im weltweiten Durchschnitt etwa 10 kg. Wenn auf CO2-emissionsarme Wasserkraft zurückgegriffen werden kann, ist die Bilanz wesentlich günstiger. Hierzu zählen Länder wie Brasilien, Kanada, Venezuela oder Island. Auf Island besteht zudem die Möglichkeit, neben der Wasserkraft auch auf Erdwärme als Energiequelle zuzugreifen. Allerdings ist auch bei Verwendung von Elektrizität aus vollständig regenerativen Energien die Produktion von Aluminium nicht CO2-frei, da der bei der Schmelzflusselektrolyse entstehende Sauerstoff mit dem Kohlenstoff der Elektroden zu CO2 reagiert. Die Verbrauchswerte für Roh-Aluminium erhöhen sich durch Transport- und Verarbeitungsanteile für das Wiederaufschmelzen, Gießen, Schleifen, Bohren sowie Polieren auf 16,5 kg CO2 pro kg Aluminium-Konsumgut. Recycling. Die europaweite Recyclingrate von Aluminium liegt bei 67 Prozent. In Österreich gelangen (laut einer Studie aus dem Jahr 2000) 16.000 Tonnen Aluminium pro Jahr "über Verpackungen" in den Konsum. Ebenso enden 16.000 Tonnen Aluminium im Hausmüll ohne wiederverwendet zu werden. Dabei sind u. a. auch Aluminiumhaushaltsfolien enthalten, die ansonsten nicht als „Verpackung“ gelten. Aluminium liegt nach der Müllverbrennung in der Asche noch metallisch vor und macht in Europa durchschnittlich 2,3 Prozent der Asche aus. In der EU werden durchschnittlich 70 Prozent des in der Bodenasche enthaltenen Aluminiums zurückgewonnen. Aluminium ist gut wiederzuverwenden, wenn die Reststoffe streng getrennt erfasst und gereinigt werden (Aluminiumrecycling, Recycling-Code-41 (ALU)). Aluminium ist besser rezyklierbar als Kunststoffe, aufgrund des Downcycling-Effekts bei nicht sortenreiner Erfassung jedoch etwas schlechter wiederverwertbar als Stahl. Beim Aluminiumrecycling wird nur 5 Prozent der Energiemenge der Primärproduktion benötigt. Energieeinsparung gegenüber anderen Werkstoffen. Durch Leichtbau mit Aluminiumwerkstoffen (beispielsweise Aluminiumschaum, Strangpressprofile) wird Masse von beweglichen Teilen und Fahrzeugen und infolgedessen auch Treibstoff eingespart. Aluminium ist durch seine Selbstpassivierung korrosionsbeständiger als Eisen und erfordert weniger Korrosionsschutzmaßnahmen. Nachweis. Aluminiumsalze weist man durch Glühen mit verdünnter Kobaltnitratlösung (Co(NO3)2) auf der Magnesia-Rinne nach. Dabei entsteht das Pigment Thénards Blau, ein Cobaltaluminiumspinell mit der Formel CoAl2O4. Es wird auch Kobaltblau oder Cobaltblau, Dumonts Blau, Coelestinblau, Cobaltaluminat oder – nach dem Entdecker des Pigments, Josef Leithner – Leithners Blau genannt. Nachweis mittels Kryolithprobe. Die Probelösung wird alkalisch gemacht, um Aluminium als Aluminiumhydroxid Al(OH)3 zu fällen. Der Niederschlag wird abfiltriert und mit einigen Tropfen Phenolphthalein versetzt, dann gewaschen, bis keine Rotfärbung durch Phenolphthalein mehr vorhanden ist. Wenn anschließend festes Natriumfluorid (NaF) auf den Niederschlag gestreut wird, verursachen Hydroxidionen, die bei der Bildung von Kryolith Na3[AlF6] freigesetzt werden, eine erneute Rotfärbung des Phenolphthaleins. Nachweis als fluoreszierender Morinfarblack. Die Probe wird mit Salzsäure (HCl) versetzt und eventuell vorhandenes Aluminium somit gelöst. Anschließend wird die Probelösung mit Kaliumhydroxid (KOH) stark alkalisch gemacht. Gibt man nun einige Tropfen der Probelösung zusammen mit der gleichen Menge Morin-Lösung auf eine Tüpfelplatte und säuert anschließend mit konzentrierter Essigsäure ("Eisessig", CH3COOH) an, so ist unter UV-Strahlung (λ = 366 nm) eine grüne Fluoreszenz beobachtbar. Der Nachweis ist dann sicher, wenn diese Fluoreszenz bei Zugabe von Salzsäure wieder verschwindet. Grund hierfür ist, dass Al(III) in neutralen sowie essigsauren Lösungen in Verbindung mit Morin eine fluoreszierende kolloidale Suspension bildet. Literatur. Zur Geschichte Deutsche Fachliteratur Englische Fachliteratur
95
105716
https://de.wikipedia.org/wiki?curid=95
Antimon
Antimon [] (von lateinisch "Antimonium", vermutlich von arabisch „al-ithmîd(un)“ (, Antimonsulfid bzw. Stibnit)) ist ein chemisches Element mit dem Elementsymbol Sb (von ‚(Grau-)Spießglanz‘) und der Ordnungszahl 51. Im Periodensystem steht es in der 5. Periode und der 5. Hauptgruppe, bzw. 15. IUPAC-Gruppe oder Stickstoffgruppe. In der stabilen Modifikation ist es ein silberglänzendes und sprödes Halbmetall. Name, Geschichte. Das Wort Antimon leitet sich von mittellateinisch "antimonium" ab und geht auf arabisch "iṯmid", das wie griechisch στίμμι, verwandt mit lateinisch "stibium", auf ägyptisch-koptisch "stim" von altägyptisch "sdm" zurückgeht. Es wurde auch vermutet, dass der Name als griechisch "anthémonion" auf das spätgriechische "anthemon" („Blüte“) zurückgeht. Damit sollten die stängelartigen Kristalle von Stibnit (Antimonsulfid, Sb2S3) beschrieben werden, die büschelförmig erschienen und wie eine Blüte aussähen. Im 11. Jahrhundert findet sich der lateinische Begriff für die mineralische Arzneidroge "antimonium" (auch "anthimonium" und "anthimonum") zur innerlichen Therapie von Krankheiten dann bei Constantinus Africanus. Im 17. Jahrhundert ging der Name Antimon als Bezeichnung für das natürlich vorkommende schwarze Schwefelantimon (Antimontrisulfid, genannt auch "antimonium crudum") auf das Halbmetall (Antimon) über. Die koptische Bezeichnung für das Schminkpuder Antimonsulfid ging über das Griechische in das Lateinische "stibium" über. Die vom schwedischen Mediziner und Chemiker Jöns Jakob Berzelius („Vater der modernen Chemie“) benutzte Abkürzung Sb wird noch heute als Elementsymbol genutzt. Eine späte legendäre bzw. spaßhafte Volksetymologie, die von Samuel Johnson in seinem Wörterbuch verewigt wurde, besagt, dass der deutsche Mönch Basilius Valentinus die Beobachtung machte, dass Schweine durch die Aufnahme von „Antimon“ schnell fett wurden. Er probierte dies auch an seinen Ordensbrüdern aus, woraufhin diese allerdings starben, sodass der Begriff „antimoine“ ("antimönchisch") geprägt wurde, aus dem später „Antimon“ entstanden sei. Als Typlokalität für gediegenes Antimon gilt die Silbergrube in der schwedischen Gemeinde Sala im Västmanland. Allerdings war metallisches Antimon schon den Chinesen und Babyloniern bekannt. Einige seiner Verbindungen wurden schon in der Bronzezeit als Zuschlag zu Kupfer verwendet, um Bronze herzustellen (Funde von Velem-St. Vid in Ungarn). Vorkommen. Antimon ist ein selten vorkommendes Element. Da es in der Natur auch gediegen (das heißt in elementarer Form) gefunden werden kann, wird es von der International Mineralogical Association (IMA) unter der System-Nr. 1.CA.05 als Mineral anerkannt. Weltweit konnte gediegenes Antimon bisher (Stand: 2011) an rund 300 Fundorten nachgewiesen werden. So unter anderem in mehreren Regionen von Australien; in den bolivianischen Departements La Paz und Potosí; Minas Gerais in Brasilien; Schwarzwald, Fichtelgebirge, Oberpfälzer Wald, Odenwald und im Harz in Deutschland; Seinäjoki in Finnland; mehreren Regionen von Frankreich; Lombardei, Piemont, Sardinien und Trentino-Südtirol in Italien; einigen Regionen von Kanada; einigen Regionen von Österreich; Ost- und Westsibirien und Ural in Russland; neben Västmanland noch Dalarna, Gästrikland, Närke, Södermanland, Värmland und Västerbotten in Schweden; in einigen Regionen der Slowakei; Böhmen und Mähren in Tschechien sowie in vielen Regionen der USA. Eine der weltweit bedeutendsten Lagerstätten für gediegen Antimon und Antimonerze ist der "Murchison greenstone belt" in der Murchison Range von Südafrika. Bisher sind 264 Antimon-Minerale bekannt (Stand: 2010). Industriell genutzt wird überwiegend das Sulfid-Mineral Stibnit Sb2S3 (Grauspießglanz) mit einem Gehalt von maximal 71,7 % Sb. Das Mineral mit dem höchsten Sb-Gehalt in einer chemischen Verbindung ist die natürliche Antimon-Arsen-Legierung Paradocrasit (max. 92 %). Allerdings kommt sie mit nur drei Fundorten, im Gegensatz zum Stibnit (rund 2500 Fundorte), sehr viel seltener vor. Weitere Quellen für Antimon sind die Minerale Valentinit Sb2O3 (Weißspießglanz), Breithauptit NiSb (Antimonnickel, Nickelantimonid), Kermesit Sb2S2O (Rotspießglanz) und Sb2S5 (Goldschwefel). Förderung weltweit. 2020 betrug die Antimonförderung weltweit 78.400 Tonnen. Der mit Abstand größte Produzent für Antimon ist China. So wurden 2020 55 % des auf der Welt geförderten Antimons dort gewonnen. Die Staaten mit der größten Förderung von Antimon sind: Gewinnung und Darstellung. Technisch wird Antimon aus dem Antimonglanz gewonnen. Ein Verfahren beruht auf dem Abrösten und der Reduktion mit Kohlenstoff (Röstreduktionsverfahren): Eine andere Möglichkeit besteht darin, die Reduktion mit Eisen durchzuführen (Niederschlagsverfahren): Weltweit wurden zu Beginn des 21. Jahrhunderts zwischen 110.000 und 160.000 Tonnen pro Jahr an Antimon gefördert. Seit 1900 hat sich damit die Fördermenge mehr als verzehnfacht. 87 % der Antimonproduktion findet in China statt (Stand: 2015). Eigenschaften. Modifikationen. Antimon kann in drei verschiedenen Modifikationen auftreten, wobei metallisches bzw. "graues" Antimon die beständigste Modifikation ist. Unter Normalbedingungen kristallisiert Antimon trigonal in rhomboedrischer Aufstellung in der nach der Hermann-Mauguin-Symbolik beschriebenen Raumgruppe  mit den Gitterparametern "a" = 431 pm und "c" = 1127 pm sowie sechs Formeleinheiten pro Elementarzelle. Durch Abschrecken von Antimondampf an kalten Flächen entsteht amorphes, "schwarzes" und sehr reaktives Antimon, welches sich durch Erhitzen wieder in metallisches Antimon umwandelt. Durch elektrolytische Herstellung entsteht "explosives" Antimon, das beim Ritzen explosionsartig aufglühend und funkensprühend in metallisches Antimon übergeht. Diese Form enthält jedoch immer etwas Chlor und kann nicht als Modifikation betrachtet werden. "Gelbes" Antimon ist ebenfalls keine eigenständige Modifikation, sondern eine hochpolymere chemische Verbindung mit Wasserstoff. Physikalische Eigenschaften. Metallisches Antimon ist silberweiß, stark glänzend, blättrig-grobkristallin. Es lässt sich aufgrund seiner Sprödigkeit leicht zerkleinern. Elektrische und thermische Leitfähigkeit sind gering. Chemische Eigenschaften. Mit naszierendem Wasserstoff reagiert Antimon zum instabilen Antimonhydrid SbH3. Von Luft und Wasser wird Antimon bei Raumtemperatur nicht angegriffen. Oberhalb des Schmelzpunkts verbrennt es in Luft mit bläulich-weißer Flamme zu Antimon(III)-oxid. In heißen konzentrierten Mineralsäuren löst es sich auf. Mit den Halogenen reagiert es schon bei Raumtemperatur heftig zu den entsprechenden Halogeniden. In Verbindungen liegt Antimon überwiegend in den Oxidationsstufen +3 und +5 vor. In Metallantimoniden wie Kaliumantimonid K3Sb bildet es Sb3−-Ionen. Isotope. Es existieren zwei stabile Antimon-Isotope: 121Sb und 123Sb. Verwendung. Legierungen. Der überwiegende Teil des hergestellten Antimons wird zu Legierungen verarbeitet und zeigt dabei folgende Eigenschaften: Wichtige Legierungen: Medizin. „Antimon“ (bzw. ein aus Antimonerz gewonnenes Präparat) war bereits im Alten Ägypten (im Papyrus Ebers gegen Augengeschwüre und Augenpusteln), im Alten Rom (zum selben Zweck bei Celsus) und in Rezeptsammlungen des 15. Jahrhunderts (als Bestandteil von Heilpflastern und Salben) bekannt. Es wurde auch von Paracelsus als Bestandteil dermatologischer Präparate abgehandelt, so in "de antimonio", dem ersten Traktat seines erstmals 1569 in Straßburg gedruckten Buches "liber praeparationum", worin „Antimon“, etwa in Form des Minerallkermes, als wirksam gegen "lepra" bzw. "scabies squamosa", "elephantia" bzw. "inflatio cruris et pedum", "alopetia", "morphea", "vulnera" und "ulcera" beschrieben wird. Im 16. und 17. Jahrhundert wurde es zu einem (iatrochemischen) „Leitarzneimittel“, war aber – wie auch andere paracelsische Medikamente – umstritten und in Frankreich, wo sich ein hundertjähriger „Antimonstreit“ zwischen Befürwortern und Gegnern der medizinischen Verwendung von Antimon und verschiedenen seiner Verbindungen entwickelt hat, zwischen 1615 und 1688 auch verboten. Das von Paracelsus stets mit "Antimon" bezeichnete Mineral war der natürlich vorkommende Grauspießglanz (Sb2S2), welcher Blei, Kupfer und Arsen enthalten kann. Das heutige metallische Antimon nannte Paracelsus hingegen „Spießglanzkönig, regulus antimonii“. Im "Triumphwagen Antimonii" von Basilius Valentinus, hrsg. von Johann Thölde und Joachim Tancke, erstmals im Druck erschienen 1604, steht: „Nimb das Glaß, so auß der minera oder auß dem Ertz des Antimonii gemacht worden, gantz klein zerrieben, und extrahiers mit dem Essig, so da distillirt worden, und hernachmals, wenn der Essig wiederumb davon abgezogen und abgesueßt mit einem reinem Spiritu vini zum andern mahl außgezogen worden worden, so sol man dieselbe Extraction wol verschlossen pelicaniren und circuliren einen gantzen Monat, darnach mit einem sondern Handgriff ueber distilliren per se ohne einigen Zusatz, so wirst du eine lieblich suesse, wunderbare Artzeney, in der Form eines schoenen rothen Oels, ueberkommen, auß welchem weiter der Stein Ignis gemacht wird“. Brechweinstein wurde lange als brechreizerregendes Mittel verwendet (Antimonpille), heute wird es noch manchmal verwendet, um den Mageninhalt von Vögeln zu untersuchen. Sowohl Schistosomiasis als auch Trypanosomen wurden beginnend Anfang des 19. Jahrhunderts mit Brechweinstein (Kaliumantimonyltartrat) bekämpft. Brechweinstein wurde hergestellt, indem man für einen Tag Wein in einem Antimonbecher lagerte, und diesen dann austrank. Inzwischen kommen effektivere und verträglichere Medikamente zur Anwendung. Antimonpräparate (dazu gehören die schon länger bekannten Chemotherapeutika wie Fuadin, Neostibosan und Solustibosan) werden meist als weniger toxische pentavalente Formen zur medikamentösen Therapie der Leishmaniose und Schistosomiasis eingesetzt, allerdings in entwickelten Ländern nicht mehr als Mittel der ersten Wahl. Hierbei hemmt Antimon das Enzym Phosphofructokinase, das den geschwindigkeitsbestimmenden Schritt der Glykolyse darstellt. Toxizität. Antimon kann bereits bei Ingestion von 200 bis 1200 mg tödlich sein. In der Toxikologie sind drei Antimon-Formen bekannt, von denen das gasförmige Antimonhydrid (Stiban, SbH3) die gefährlichste Form ist, die eine massive Hämolyse, welche ein Nierenversagen bewirken kann, induziert. Nach der Toxizität folgt Brechweinstein mit dreiwertigem („trivalentem“) Antimon, während fünfwertiges Antimon am wenigsten toxisch ist. Das trivalente Antimon wird innerhalb der ersten zwei Stunden nach der Einnahme zu 95 % in rote Blutkörperchen aufgenommen und damit vorwiegend in stark durchbluteten Organen angereichert. Die Exkretion erfolgt vorwiegend durch Bindung an Glutathion über die Galle mit entsprechend hohem enterohepatischen Kreislauf, und nur ein geringer Teil wird über die Nieren ausgeschieden. Kaliumantimonyltartrat wird zu 90 % innerhalb des ersten Tages nach Aufnahme ausgeschieden, die übrigen 10 % aufgrund einer langsameren Eliminationskinetik über 16 Tage. Es wird vermutet, dass Antimon ähnlich wie Arsen die Funktion des Pyruvatdehydrogenase-Komplexes hemmt und somit zu einem Mangel des intrazellulären Energieträgers Adenosintriphosphat (ATP) führt. Dabei kommt es zur Bildung von Chelatkomplexen zwischen dem Antimon und Thiol-Gruppen der entsprechenden Enzyme. Im Körper wirkt es in zahlreichen Organen toxisch, so im Verdauungstrakt, in der Leber, in den Nieren, im Herz und im Zentralnervensystem. Die höchste Konzentration erreicht Antimon in der Leber, wo es zu einer Hepatitis bis hin zum Leberversagen kommen kann. Am Herzen kommt es zu EKG-Veränderungen mit Inversion und Verminderung der T-Welle und verlängertem QT-Intervall. Therapeutisch erfolgt bei einer Antimon-Vergiftung neben unterstützenden Maßnahmen wie Infusionstherapie (sowohl zum Ausgleich des Flüssigkeitsverlustes durch das Erbrechen als auch zum Schutz der Nieren), und engmaschiger Überwachung der Vitalfunktionen und des EKGs die Gabe von Aktivkohle, "N"-Acetylcystein als Vorläufer des Glutathions zur vermehrten Sekretion und eines Chelatbildners, z. B. Dimercaprol. Ergebnisse aus Untersuchungen deuten darauf hin, dass Antimonverbindungen Haut und Schleimhäute reizen. Diese Verbindungen lösen sich vermutlich aus Kunststoff und Textilien. Sicherheitshinweise und Grenzwerte. Von den Antimonverbindungen sind seitens der EU Antimonfluorid als giftig (T) und die Chloride als ätzend (C) eingestuft, außerdem als umweltgefährlich (N); alle anderen Antimonverbindungen als gesundheitsschädlich (Xn) und umweltgefährlich (N). Antimon selbst ist dort nicht aufgeführt, laut Sicherheitsdatenblatt ist es als "reizend" gekennzeichnet. Die Internationale Agentur für Krebsforschung (IARC) stuft Antimon(III)-oxid als "möglicherweise krebserzeugende Substanz" ein. In der EU gilt für Trinkwasser ein Grenzwert von 5 µg/l. Untersuchungen von in PET-Flaschen abgefüllten Fruchtsäften (für die keine Richtlinien existieren) ergaben Antimonkonzentrationen bis zu 44,7 µg/l in unverdünnten Saftkonzentraten. Antimon wurde 2016 von der EU gemäß der Verordnung (EG) Nr. 1907/2006 (REACH) im Rahmen der Stoffbewertung in den fortlaufenden Aktionsplan der Gemeinschaft (CoRAP) aufgenommen. Hierbei werden die Auswirkungen des Stoffs auf die menschliche Gesundheit bzw. die Umwelt neu bewertet und ggf. Folgemaßnahmen eingeleitet. Ursächlich für die Aufnahme von Antimon waren die Besorgnisse bezüglich Exposition von Arbeitnehmern, hoher (aggregierter) Tonnage, hohes Risikoverhältnis (Risk Characterisation Ratio, RCR) und weit verbreiteter Verwendung sowie der möglichen Gefahr durch krebsauslösende Eigenschaften. Die Neubewertung läuft seit 2018 und wird von Deutschland durchgeführt. Nachweis. Vorproben: Flammenfärbung: Flamme fahlblau, wenig charakteristische Phosphorsalzperle: Farblos (gestört durch alle Elemente, die eine farbige Perle erzeugen) Nachweisreaktion: Reduktion durch unedle Metalle, zum Beispiel Eisen, Zink oder Zinn. In nicht zu sauren Lösungen reduzieren unedle Metalle Antimon-Kationen Sb(III), Sb(V) und Sb(III)/(V) zu metallischem Antimon: Die auf Antimon zu prüfende Substanz wird in salzsaure Lösung gegeben und mit Eisenpulver versetzt. Es entsteht ein schwarzer, flockiger Niederschlag aus metallischem Antimon in der Lösung oder direkt am Eisen. Auch der Nachweis an einem Eisennagel ist möglich. Dabei ist eine schwarze Ablagerung am Nagel ein Nachweis für Antimon, welches sich hier elementar niedergeschlagen hat. Die Marshsche Probe gestattet einen eindeutigen Nachweis von Antimon. Wenn die pyrolytisch abgeschiedene Substanz (dunkel glänzender Spiegel) sich nicht in ammoniakalischem Wasserstoffperoxid löst, sind Arsen und Germanium als mögliche Alternativen ausgeschlossen. Die hochempfindliche Bestimmung winziger Antimonspuren erfolgt durch die Hydridtechnik der Atomspektrometrie. Hierbei wird im Prinzip die Marshsche Probe mit der Atomabsorptionsspektrometrie gekoppelt. Die Matrixeffekte der Probelösung lassen sich dadurch sehr wirksam unterdrücken. Eine weitere Methode besteht darin, eine wässrige Lösung, in der Antimonionen enthalten sind, mit Rhodamin-B-Lösung zu versetzen. Es bildet sich ein farbiger Komplex, der mit Isopropylether extrahierbar ist. Dieser Nachweis ist allerdings recht unspezifisch, da auch Gold-, Cadmium-, Gallium, Thallium-, Uran- und Wolfram-ionen farbige Komplexe bilden.
96
343610
https://de.wikipedia.org/wiki?curid=96
Argon
Argon ( „untätig, träge“) ist ein chemisches Element mit dem Symbol Ar (bis 1957 nur A) und der Ordnungszahl 18. Im Periodensystem steht es in der 8. Hauptgruppe bzw. der 18. IUPAC-Gruppe und zählt daher zu den Edelgasen. Wie die anderen Edelgase ist es ein farbloses, äußerst reaktionsträges, einatomiges Gas. In vielen Eigenschaften wie Schmelz- und Siedepunkt oder Dichte steht es zwischen dem leichteren Neon und dem schwereren Krypton. Argon ist das häufigste auf der Erde vorkommende Edelgas, der Anteil an der Atmosphäre beträgt etwa 0,934 %. Damit ist Argon der dritthäufigste Bestandteil der Erdatmosphäre, nach Stickstoff und Sauerstoff. Dies ist großteils auf den Zerfall des Kaliumisotops 40K zurückzuführen, bei dem 40Ar entsteht. Argon war das erste Edelgas, das als Stoff entdeckt und gewonnen wurde, daher der Name, der im Grunde zu jedem Edelgas passt. Helium (von griechisch "helios" für „Sonne“) wurde vorher lediglich spektroskopisch im Sonnenlicht sowie in irdischen Proben nachgewiesen und Neon erst später entdeckt. Argon wurde 1894 von Lord Rayleigh und William Ramsay durch fraktionierte Destillation von flüssiger Luft gefunden. Als preiswertestes Edelgas wird Argon in großen Mengen als Schutzgas etwa beim Schweißen und in der Produktion von manchen Metallen, aber auch als Füllgas von Glühlampen verwendet. Geschichte. Einen ersten Hinweis auf das später entdeckte Argon fand Henry Cavendish, der 1783 die Reaktivität der Luft erforschte. Er erzeugte elektrische Entladungen in einer bestimmten Menge Luft, die mit Sauerstoff im Verhältnis von 5:3 angereichert war. Stickstoff und Sauerstoff reagierten miteinander und die entstandenen Stickoxide konnten ausgewaschen werden. Dabei blieb stets ein kleiner Rest nicht-reagierten Gases zurück. Cavendish erkannte jedoch nicht, dass es sich dabei um ein anderes Element handelte und setzte seine Experimente nicht fort. Nachdem John William Strutt, 3. Baron Rayleigh 1892 die Dichte von aus Luft isoliertem Stickstoff bestimmt hatte, fiel ihm auf, dass aus Ammoniak gewonnener Stickstoff eine niedrigere Dichte aufwies. Es gab verschiedene Spekulationen zu diesem Befund; so meinte James Dewar, es müsse sich um ein N3, also ein Stickstoff-Analogon zu Ozon handeln. Rayleigh wiederholte Cavendishs Experimente, indem er in einer luftgefüllten Glaskugel elektrische Funken erzeugte und so Stickstoff und Sauerstoff zur Reaktion brachte. Nach Bestätigung von Cavendishs Ergebnis eines unreaktiven Rückstandes untersuchte William Ramsay diesen ab 1894 durch Überleitung über heißes Magnesium genauer. Da Magnesium mit Stickstoff zum Nitrid reagiert, konnte er dem Gemisch weiteren Stickstoff entziehen. Dabei stellte er eine Erhöhung der Dichte fest und fand schließlich ein bislang unbekanntes, reaktionsträges Gas. Am 31. Januar 1895 gaben Ramsay und Rayleigh schließlich die Entdeckung des neuen Elements bekannt, das sie nach dem altgriechischen "argos", „träge“, "Argon" nannten. Als William Ramsay ab 1898 das aus der Luft isolierte Argon weiter untersuchte, entdeckte er darin drei weitere Elemente, die Edelgase Neon, Krypton und Xenon. Erste technische Anwendungen fand das Gas in der Elektroindustrie: Es wurden unter anderem Gleichrichter auf der Basis der Glimmentladung in Argon hergestellt, die sogenannten "Tungar-Röhren." Vorkommen. Argon zählt im Universum zu den häufigeren Elementen, in seiner Häufigkeit ist es vergleichbar mit Schwefel und Aluminium. Es ist im Universum nach Helium und Neon das dritthäufigste Edelgas. Dabei besteht das primordiale Argon, das etwa in der Sonne oder Gasplaneten wie Jupiter gefunden wird, hauptsächlich aus den Isotopen 36Ar und 38Ar, während das dritte stabile Isotop, 40Ar, dort nur in geringer Menge vorkommt. Das Verhältnis von 36Ar zu 38Ar beträgt etwa 5,7. Auf der Erde ist Argon dagegen das häufigste Edelgas. Es macht 0,934 % des Volumens der Atmosphäre (ohne Wasserdampf) aus und ist damit nach Stickstoff und Sauerstoff der dritthäufigste Atmosphärenbestandteil. Die Zusammensetzung des terrestrischen Argons unterscheidet sich erheblich von derjenigen des primordialen Argons im Weltall. Es besteht zu über 99 % aus dem Isotop 40Ar, das durch Zerfall des Kaliumisotops 40K entstanden ist. Die primordialen Isotope sind dagegen nur in geringen Mengen vorhanden. Da das Argon durch den Kaliumzerfall in der Erdkruste entsteht, findet man es auch in Gesteinen. Beim Schmelzen von Gesteinen im Erdmantel gast das Argon, aber auch das bei anderen Zerfällen entstehende Helium aus. Es reichert sich daher vorwiegend in den Basalten der ozeanischen Erdkruste an. Aus den Gesteinen wird das Argon an das Grundwasser abgegeben. Daher ist in Quellwasser, vor allem wenn es aus größerer Tiefe kommt, Argon gelöst. Gewinnung und Darstellung. Die Gewinnung des reinen Argons erfolgt ausschließlich aus der Luft, in der Regel im Rahmen der Luftverflüssigung im Linde-Verfahren. Das Argon wird dabei nicht in der Haupt-Rektifikationskolonne des Verfahrens von den Hauptluftbestandteilen getrennt, sondern in einer eigenen Argon-Kolonne. In dieser wird durch Rektifikation zunächst Rohargon hergestellt, das noch etwa 3–5 % Sauerstoff und 1 % Stickstoff enthält. Anschließend wird das Rohargon in weiteren Stufen gereinigt. Das Gasgemisch wird zunächst auf Raumtemperatur erwärmt und auf 4–6 bar verdichtet. Um den restlichen Sauerstoff zu entfernen, wird danach Wasserstoff eingespritzt, der an Edelmetall-Katalysatoren mit dem Sauerstoff zu Wasser reagiert. Nachdem dieses entfernt wurde, wird in einer weiteren Kolonne das Argon, das sich am unteren Ende der Kolonne anreichert, vom restlichen Stickstoff getrennt, so dass Argon mit einer Reinheit von 99,9999 % (Argon 6.0) produziert werden kann. Weitere Quellen für die Gewinnung von Argon sind die Produktion von Ammoniak im Haber-Bosch-Verfahren sowie die Synthesegasherstellung, etwa zur Methanolproduktion. Bei diesen Verfahren, die Luft als Ausgangsstoff nutzen, reichern sich Argon und andere Edelgase im Produktionsprozess an und können aus dem Gasgemisch isoliert werden. Wie beim Linde-Verfahren werden auch hier die verschiedenen Gase durch Adsorption oder Rektifikation voneinander getrennt und so reines Argon gewonnen. Eigenschaften. Physikalische Eigenschaften. Argon ist bei Normalbedingungen ein einatomiges, farbloses und geruchloses Gas, das bei 87,15 K (−186 °C) kondensiert und bei 83,8 K (−189,3 °C) erstarrt. Wie die anderen Edelgase außer dem Helium kristallisiert Argon in einer kubisch dichtesten Kugelpackung mit dem Gitterparameter "a" = 526 pm bei 4 K. Wie alle Edelgase besitzt Argon nur abgeschlossene Schalen (Edelgaskonfiguration). Dadurch lässt sich erklären, dass das Gas stets einatomig vorliegt und die Reaktivität gering ist. Mit einer Dichte von 1,784 kg/m3 bei 0 °C und 1013 hPa ist Argon schwerer als Luft, es sinkt also ab. Im Phasendiagramm liegt der Tripelpunkt bei 83,8 K und 689 hPa, der kritische Punkt bei 150,86 K, 48.960 hPa sowie einer kritischen Dichte von 0,536 g/cm3. In Wasser ist Argon etwas löslich. In einem Liter Wasser können sich bei 0 °C und Normaldruck maximal 53,6 ml Argon lösen. Chemische Eigenschaften. Als Edelgas reagiert Argon fast nicht mit anderen Elementen oder Verbindungen. Bislang ist nur das experimentell dargestellte Argonfluorohydrid HArF bekannt, das durch Photolyse von Fluorwasserstoff in einer Argonmatrix bei 7,5 K gewonnen wird und anhand neuer Linien im Infrarotspektrum identifiziert wurde. Oberhalb von 27 K zersetzt es sich. Nach Berechnungen sollten weitere Verbindungen des Argons metastabil sein und sich verhältnismäßig schwer zersetzen; diese konnten jedoch experimentell bislang nicht dargestellt werden. Beispiele hierfür sind das Chloranalogon des Argonfluorohydrides HArCl, aber auch Verbindungen, bei denen das Proton durch andere Gruppen ersetzt ist, etwa FArCCH als organische Argonverbindung und FArSiF3 mit einer Argon-Silicium-Bindung. Argon bildet einige Clathrate, in denen es physikalisch in Hohlräume eines umgebenden Kristalls eingeschlossen ist. Bei −183 °C ist ein Argon-Hydrat stabil, jedoch ist die Geschwindigkeit der Bildung sehr langsam, da eine Umkristallisierung stattfinden muss. Ist das Eis mit Chloroform gemischt, bildet sich das Clathrat schon bei −78 °C. Stabil ist auch ein Clathrat von Argon in Hydrochinon. Isotope. Insgesamt sind 23 Isotope sowie ein weiteres Kernisomer von Argon bekannt. Von diesen sind drei, nämlich die Isotope 36Ar, 38Ar und 40Ar, stabil und kommen in der Natur vor. Dabei überwiegt bei weitem 40Ar mit einem Anteil von 99,6 % am natürlichen irdischen Isotopengemisch. 36Ar und 38Ar sind mit einem Anteil von 0,34 % beziehungsweise 0,06 % selten. Von den instabilen Isotopen besitzen 39Ar mit 269 Jahren und 42Ar mit 32,9 Jahren die längsten Halbwertszeiten. Alle anderen Isotope besitzen kurze Halbwertszeiten im Bereich von unter 10 ps bei 30Ar bis 35,04 Tagen bei 37Ar. 40Ar wird für die Altersbestimmung von Gesteinen genutzt (Kalium-Argon-Datierung). Dabei wird ausgenutzt, dass instabiles 40K, das in diesen enthalten ist, langsam zu 40Ar zerfällt. Je mehr Kalium zu Argon zerfallen ist, desto älter ist das Gestein. Das kurzlebige Isotop 41Ar kann zur Überprüfung von Gasleitungen verwendet werden. Durch das Durchleiten von 41Ar kann die Leistungsfähigkeit einer Belüftung oder Dichtigkeit einer Leitung festgestellt werden. 39Ar wird hingegen für die Altersbestimmung von Grund-, See- und Ozeanwasser sowie von Gletschereis verwendet. So lange das Wasser Kontakt zur Atmosphäre hat, löst sich Argon zu gleichen Teilen wie es in dieser vorkommt. Sobald das Wasser von der Atmosphäre abgeschlossen ist, verringert sich der Anteil des gelösten 39Ar aufgrund seines Zerfalls mit einer Halbwertszeit von 269 Jahren. Mittels Low Level Counting (LLC) oder Atom Trap Trace Analysis (ATTA) kann der verbliebene Anteil an 39Ar bestimmt und darüber das Alter berechnet werden. "→ Liste der Argon-Isotope" Biologische Bedeutung. Wie die anderen Edelgase hat Argon auf Grund der Reaktionsträgheit keine biologische Bedeutung und ist auch nicht toxisch. In höheren Konzentrationen wirkt es durch Verdrängung des Sauerstoffs erstickend. Bei Drücken von mehr als 24 bar wirkt es narkotisierend. Verwendung. Als günstigstes und in großen Mengen verfügbares Edelgas wird Argon in vielen Bereichen verwendet. Die Produktion betrug 1998 weltweit etwa zwei Milliarden m³ bzw. zwei km³. Der größte Teil des Argons wird als Schutzgas verwendet. Es wird immer dann genutzt, wenn der billigere Stickstoff nicht anwendbar ist. Dazu zählen vor allem Schweißverfahren für Metalle, die mit Stickstoff bei hohen Temperaturen reagieren, etwa Titan, Tantal und Wolfram. Auch beim Metallinertgasschweißen und Wolfram-Inertgasschweißen, die etwa beim Schweißen von Aluminiumlegierungen oder hoch legierten Stählen angewendet werden, dient Argon als Inertgas. Weiterhin wird es in der Metallurgie als Schutzgas, etwa für die Produktion von Titan, hochreinem Silicium oder der Schmelzraffination sowie zum Entgasen von Metallschmelzen genutzt. Argon ist ein Lebensmittelzusatzstoff (E 938) und dient als Treib- und Schutzgas bei der Verpackung von Lebensmitteln und der Weinherstellung. Argon wird als gasförmiges Löschmittel vorwiegend für den Objektschutz, vor allem bei elektrischen und EDV-Anlagen eingesetzt und wirkt dabei durch Sauerstoffverdrängung. Für diesen Zweck wird reines Argon oder ein Gasgemisch zusammen mit Stickstoff verwendet. In der Analytik wird Argon als Träger- und Schutzgas für die Gaschromatographie und das induktiv gekoppelte Plasma (ICP-MS, ICP-OES) verwendet. Glühlampen werden häufig mit Argon-Stickstoff-Gemischen gefüllt, weil eine Gasfüllung die Sublimation des Glühfadens vermindert. Argon hat dabei eine geringere Wärmeleitfähigkeit als leichtere Gase, ist aber preiswerter als andere schwerere und damit noch geringer wärmeleitende Gase wie Krypton oder Xenon. Ein Vorteil der geringeren Wärmeleitfähigkeit ist eine höhere mögliche Glühtemperatur und damit höhere Lichtausbeute. Ebenfalls wegen der geringen Wärmeleitfähigkeit wird es als Füllgas für Isolierglasscheiben verwendet. Auch in Gasentladungslampen dient Argon als Leuchtgas mit einer typischen violetten Farbe. Wird etwas Quecksilber dazugegeben, ändert sich die Farbe ins Blaue. Weiterhin ist Argon das Lasermedium in Argon-Ionen-Lasern. Im Bereich der Stahlerzeugung kommt Argon eine besonders wichtige Rolle im Bereich der Sekundärmetallurgie zu. Mit der Argon-Spülung kann die Stahllegierung entgast und gleichzeitig homogenisiert werden, speziell wird dabei der unerwünschte, gelöste Stickstoff aus der Schmelze entfernt. Beim Tauchen wird Argon – insbesondere bei der Nutzung des heliumhaltigen Trimix als Atemgas – dazu verwendet, um Trockentauchanzüge zu füllen bzw. damit zu tarieren. Hierbei wird ebenfalls die geringe Wärmeleitfähigkeit des Gases genutzt, um das Auskühlen des Anzugträgers zu verzögern. Seit Mai 2014 ist Argon auf der Dopingliste der Welt-Anti-Doping-Agentur (WADA). Durch den bei der Inhalation von Argon entstehenden Sauerstoffmangel wird offensichtlich die Bildung von körpereigenem Erythropoetin (EPO) aktiviert. Aus demselben Grund ist auch Xenon auf der Dopingliste.
97
2055335
https://de.wikipedia.org/wiki?curid=97
Arsen
Arsen [] ist ein chemisches Element mit dem Elementsymbol As und der Ordnungszahl 33. Im Periodensystem der Elemente steht es in der 4. Periode und der 5. Hauptgruppe, bzw. 15. IUPAC-Gruppe oder Stickstoffgruppe. Arsen kommt selten gediegen vor, meistens in Form von Sulfiden. Es gehört zu den Halbmetallen, da es je nach Modifikation metallische oder nichtmetallische Eigenschaften zeigt. Umgangssprachlich wird auch das als Mordgift bekannte Arsenik meist einfach „Arsen“ genannt. Arsenverbindungen kennt man schon seit dem Altertum. Als mutagenes Klastogen können Arsenverbindungen als Gift wirken, welches Chromosomenaberrationen hervorrufen und somit karzinogene Wirkung besitzen kann. Arsen wird zur Dotierung von Halbleitern und als Bestandteil von III-V-Halbleitern wie Galliumarsenid genutzt. Die organische Arsenverbindung Arsphenamin ("Salvarsan") galt trotz schwerer und schwerster Nebenwirkungen Anfang des 20. Jahrhunderts als Durchbruch in der Behandlung der Syphilis. Heute wird Arsentrioxid als letzte Behandlungsoption in der Therapie der Promyelozytenleukämie angewendet. Geschichte. Der Name Arsen geht auf zurück, der antiken Bezeichnung des Arsenminerals Auripigment. Sie findet sich schon bei Dioskurides im 1. Jahrhundert. Die griechische Bezeichnung scheint ihrerseits ihren Ursprung im Altpersischen "(al-)zarnik" (goldfarben, Auripigment, „Arsen“) zu haben und gelangte wohl durch semitische Vermittlung ins Griechische. Volksetymologisch wurde der Name fälschlicherweise vom gleichlautenden (alt- und neu-)griechischen Wort abgeleitet, das sich etwa mit männlich/stark übersetzen lässt. Erst seit dem 19. Jahrhundert ist die Bezeichnung Arsen gebräuchlich. Das Elementsymbol wurde 1814 von Jöns Jakob Berzelius vorgeschlagen. Der erste Kontakt von Menschen mit Arsen lässt sich aus dem 3. Jahrtausend v. Chr. nachweisen: In den Haaren der im Gletschereis erhaltenen Mumie des volkstümlich Ötzi genannten Alpenbewohners ließen sich größere Mengen Arsen nachweisen, was archäologisch als Hinweis darauf gedeutet wird, dass der betroffene Mann in der Kupferverarbeitung tätig war – Kupfererze sind oft mit Arsen verunreinigt. Im klassischen Altertum war Arsen in Form der Arsen-Sulfide Auripigment (As2S3) und Realgar (As4S4) bekannt, die etwa von dem Griechen Theophrastos, dem Nachfolger Aristoteles, beschrieben wurden. Auch der griechische Philosoph Demokrit hatte im 5. Jahrhundert v. Chr. nachweislich Kenntnisse über Arsenverbindungen. Der Leidener Papyrus X aus dem 3. Jahrhundert nach Chr. lässt darauf schließen, dass sie benutzt wurden, um Silber goldartig und Kupfer weiß zu färben. Der römische Kaiser Caligula hatte angeblich bereits im 1. Jahrhundert nach Chr. ein Projekt zur Herstellung von Gold aus dem (goldgelben) Auripigment in Auftrag gegeben. Die Alchimisten, die Arsen-Verbindungen nachweislich der Erwähnung im antiken Standardwerk "Physica et Mystica" kannten, vermuteten eine Verwandtschaft mit Schwefel und Quecksilber. Arsen(III)-sulfid kam als Malerfarbe und Enthaarungsmittel zum Einsatz sowie zur äußerlichen als auch inneren Behandlung von Lungenkrankheiten. Im Mittelalter wurde Arsenik (Arsen(III)-oxid) im Hüttenrauch (staubbeladenes Abgas metallurgischer Öfen) gefunden. Albertus Magnus beschrieb um 1250 erstmals die Herstellung von Arsen durch Reduktion von Arsenik mit Kohle. Er gilt daher als Entdecker des Elements, auch wenn es Hinweise darauf gibt, dass das elementare Metall schon früher hergestellt wurde. Paracelsus führte es im 16. Jahrhundert in die Heilkunde ein. Etwa zur gleichen Zeit wurden Arsenpräparate in der chinesischen Enzyklopädie "Bencao Gangmu" des Apothekers Li Shizhen beschrieben. Dieser Autor hebt insbesondere die Anwendung als Pestizid in Reisfeldern hervor. Im 17. Jahrhundert wurde das gelbe Auripigment bei niederländischen Malern als "Königsgelb" populär. Da sich das Pigment über längere Zeiträume hinweg in Arsen(III)-oxid umwandelt und von der Leinwand bröckelt, entstehen Schwierigkeiten bei der Restaurierung. Von 1740 bis 1808 wurden Arsenpräparate in Europa mit Erfolg als Beizmittel im Pflanzenschutz eingesetzt. Wegen ihrer hohen Giftigkeit wurde diese Nutzung schließlich verboten. Der Einsatz von Arsenzusätzen für den Bleiguss beruht auf der größeren Härte solcher Bleilegierungen, typische Anwendung sind Schrotkugeln. Obwohl die Giftigkeit und die Verwendung als Mordgift bekannt war, ist Arsen im beginnenden 19. Jahrhundert eines der bedeutendsten Asthmamittel. Grundlage sind anscheinend Berichte, in denen den Chinesen nachgesagt wurde, sie würden Arsen in Kombination mit Tabak rauchen, um Lungen zu bekommen, die stark wie Blasebälge seien. Ebenfalls bis ins 19. Jahrhundert fanden Arsenverbindungen äußerlich und innerliche Anwendungen bei bösartigen Geschwülsten, Hauterkrankungen und (etwa in Form der Fowlerschen Tropfen) bei Fieber. Arsen wurde in Form von Kupferarsenaten in Farbmitteln wie dem Pariser Grün eingesetzt, um Tapeten zu bedrucken. Bei hoher Feuchtigkeit wurden diese Pigmente durch Schimmelpilzbefall in giftige flüchtige Arsenverbindungen umgewandelt, die nicht selten zu chronischen Arsenvergiftungen führten. Im Ersten Weltkrieg wurden Arsenverbindungen in chemischen Kampfstoffen (Blaukreuz) oder Lewisit eingesetzt. Bei den Opfern bewirkten sie durch Angriff auf Haut und Lungen grausame Schmerzen und schwerste körperliche Schädigungen. Vorkommen. Arsen kommt in geringen Konzentrationen von bis zu 10 ppm praktisch überall im Boden vor. Es ist in der Erdkruste ungefähr so häufig wie Uran oder Germanium. In der kontinentalen Erdkruste kommt Arsen mit durchschnittlich 1,7 ppm vor, wobei es durch seinen lithophilen Charakter (= Silikat liebend) in der oberen Kruste angereichert ist (2 ppm gegenüber 1,3 ppm in der unteren Kruste); damit liegt Arsen in der Tabelle der häufigsten Elemente an 53. Stelle. Arsen ("Scherbenkobalt") kommt in der Natur gediegen, das heißt in elementarer Form, vor und ist daher von der International Mineralogical Association (IMA) als eigenständiges Mineral anerkannt. Gemäß der Systematik der Minerale nach Strunz (9. Auflage) wird Arsen unter der System-Nr. 1.CA.05 (Elemente – Halbmetalle (Metalloide) und Nichtmetalle – Arsengruppen-Elemente) (8. Auflage: "I/B.01-10") eingeordnet. Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. 01.03.01.01. Weltweit sind zurzeit (Stand: 2011) rund 330 Fundorte für gediegenes Arsen bekannt. In Deutschland wurde es an mehreren Fundstätten im Schwarzwald (Baden-Württemberg), im bayerischen Spessart und Oberpfälzer Wald, im hessischen Odenwald, in den Silberlagerstätten des Westerzgebirges (Sachsen), am Hunsrück (Rheinland-Pfalz), im Thüringer Wald sowie in Reichenstein/ Niederschlesien gefunden. In Österreich trat Arsen an mehreren Fundstätten in Kärnten, Salzburg und der Steiermark zutage. In der Schweiz fand sich gediegen Arsen in den Kantonen Aargau und Wallis. Weitere Fundorte sind in Australien, Belgien, Bolivien, Bulgarien, Chile, China, Finnland, Frankreich, Griechenland, Irland, Italien, Japan, Kanada, Kasachstan, Kirgisistan, Madagaskar, Malaysia, Marokko, Mexiko, Mongolei, Neuseeland, Norwegen, Österreich, Peru, Polen, Rumänien, Russland, Schweden, Slowakei, Spanien, Tschechien, Ukraine, Ungarn, im Vereinigten Königreich (Großbritannien) und in den Vereinigten Staaten (USA) bekannt. Weit häufiger kommt das Element in verschiedenen intermetallischen Verbindungen mit Antimon (Allemontit) und Kupfer (Whitneyit) sowie in verschiedenen Mineralen vor, die überwiegend der Klasse der Sulfide und Sulfosalze angehören. Insgesamt sind bisher (Stand: 2011) 565 Arsenminerale bekannt. Die höchsten Konzentrationen an Arsen enthalten dabei unter anderem die Minerale Duranusit (ca. 90 %), Skutterudit und Arsenolith (jeweils ca. 76 %), die allerdings selten zu finden sind. Weit verbreitet sind dagegen Arsenopyrit ("Arsenkies"), Löllingit, Realgar ("Rauschrot") und Auripigment ("Orpiment", "Rauschgelb"). Weitere bekannte Minerale sind Cobaltit ("Kobaltglanz"), Domeykit ("Arsenkupfer"), Enargit, Gersdorffit ("Nickelarsenkies"), Proustit ("Lichtes Rotgültigerz", "Rubinblende"), Rammelsbergit sowie Safflorit und Sperrylith. Arsenate finden sich häufig in phosphathaltigen Gesteinen, da sie eine vergleichbare Löslichkeit aufweisen und das häufigste Sulfidmineral Pyrit kann bis zu einigen Massenprozent Arsen einbauen. Arsen wird heutzutage als Nebenprodukt der Verhüttung von Gold-, Silber-, Zinn-, Kupfer-, Cobalt- und weiteren Buntmetallerzen sowie bei der Verarbeitung von Phosphatrohstoffen gewonnen. Die größten Produzenten im Jahr 2009 waren China, Chile, Marokko und Peru. Arsen ist nur schwer wasserlöslich und findet sich daher nur in geringen Spuren, etwa 1,6 ppb (Milliardstel Massenanteilen) in Meeren und Ozeanen. In der Luft findet man Arsen in Form von partikulärem Arsen(III)-oxid. Als natürliche Ursache dafür hat man Vulkanausbrüche identifiziert, die insgesamt jährlich geschätzte 3000 Tonnen in die Erdatmosphäre eintragen. Bakterien setzen weitere 20.000 Tonnen in Form organischer Arsenverbindungen wie Trimethylarsin frei. Ein großer Teil am freigesetzten Arsen entstammt der Verbrennung fossiler Brennstoffe wie Kohle oder Erdöl. Die geschätzten Emissionen, verursacht durch den Straßenverkehr und stationäre Quellen, betrugen 1990 in der Bundesrepublik Deutschland 120 Tonnen (20 Tonnen in den alten, 100 Tonnen in den neuen Bundesländern). Die Außenluftkonzentration von Arsen liegt zwischen 0,5 und 15 Nanogramm pro Kubikmeter. Gewinnung und Darstellung. Arsen fällt in größeren Mengen als Nebenprodukt bei der Gewinnung von Kupfer, Blei, Cobalt und Gold an. Dies ist die Hauptquelle für die kommerzielle Nutzung des Elements. Es kann durch thermische Reduktion von Arsen(III)-oxid mit Koks oder Eisen und durch Erhitzen von Arsenkies (FeAsS) oder Arsenikalkies (FeAs2) unter Luftabschluss in liegenden Tonröhren gewonnen werden. Dabei sublimiert elementares Arsen, das an kalten Oberflächen wieder in den festen Aggregatzustand zurückkehrt. Für die Halbleitertechnik wird Arsen, dessen Reinheit über 99,99999 Prozent betragen muss, durch Reduktion von mehrfach destilliertem Arsen(III)-chlorid im Wasserstoffstrom hergestellt: Früher wurde es auch durch Sublimation aus Lösungen in flüssigem Blei erzeugt. Dabei wird der Schwefel der Arsen-Erze durch das Blei in Form von Blei(II)-sulfid gebunden. Die hierbei erzielten Reinheiten von über 99,999 Prozent waren für Halbleiteranwendungen nicht ausreichend. Eine andere Möglichkeit besteht im Auskristallisieren bei hohen Temperaturen aus geschmolzenem Arsen oder in der Umwandlung in Monoarsan, einer anschließenden Reinigung sowie der Zersetzung bei 600 °C in Arsen und Wasserstoff. Eigenschaften. Arsen bildet mit Stickstoff, Phosphor, Antimon und Bismut die 5. Hauptgruppe des Periodensystems und nimmt wegen seiner physikalischen und chemischen Eigenschaften den Mittelplatz in dieser Elementgruppe ein. Arsen hat eine relative Atommasse von 74,92159. Der Radius des Arsen-Atoms beträgt 124,5 Pikometer. In kovalent gebundenem Zustand ist er etwas kleiner (121 Pikometer). Aufgrund der Abgabe der äußeren Elektronen (Valenzelektronen) bei der Ionisierung reduziert sich der Radius beträchtlich auf 34 Pikometer (As5+; das äußerste p- und das äußerste s-Atomorbital bleiben unbesetzt) beziehungsweise 58 Pikometer (As3+; nur das p-Orbital ist unbesetzt). In chemischen Komplexverbindungen ist das As5+-Kation von vier Bindungspartnern (Liganden), As3+ von sechs umgeben. Arsen tritt allerdings nur sehr selten in eindeutig ionischer Form auf. Der Wert für die Elektronegativität liegt nach Pauling auf der von 0 (Metalle) bis 4 (Nichtmetall) reichenden Skala bei 2,18 und ist damit mit dem Wert des Gruppennachbarn Phosphor vergleichbar. Der Halbmetall-Charakter des Arsens zeigt sich zudem darin, dass die benötigte Dissoziationsenergie von 302,7 kJ/mol, also die Energie, die aufgebracht werden muss, um ein einzelnes Arsen-Atom aus einem Arsen-Festkörper herauszulösen, zwischen der des Nichtmetalls Stickstoff (473,02 kJ/mol; kovalente Bindung) und des Metalls Bismut (207,2 kJ/mol; metallische Bindung) liegt. Unter Normaldruck sublimiert Arsen bei einer Temperatur von 613 °C, geht also aus dem festen Aggregatzustand direkt in die Gasphase über. Arsendampf ist zitronengelb und setzt sich bis ungefähr 800 °C aus As4-Molekülen zusammen. Oberhalb von 1700 °C liegen As2-Moleküle vor. Arsen zeigt je nach Verbindungspartner Oxidationsstufen zwischen −3 und +5. Mit elektropositiven Elementen wie Wasserstoff oder Metallen bildet es Verbindungen, in denen es eine Oxidationsstufe von −3 einnimmt. Beispiele dafür sind Monoarsan (AsH3) und Arsenkupfer (Cu3As). In Verbindungen mit elektronegativen Elementen wie den Nichtmetallen Sauerstoff, Schwefel und Chlor besitzt es die Oxidationsstufe +3 oder +5; erstere ist dabei gegenüber den in derselben Hauptgruppe stehenden Elementen Stickstoff und Phosphor tendenziell bevorzugt. Modifikationen. Arsen kommt wie andere Elemente der Stickstoffgruppe in verschiedenen allotropen Modifikationen vor. Anders als beim Stickstoff, der in Form zweiatomiger Moleküle mit kovalenter Dreifachbindung vorkommt, sind die entsprechenden As2-Moleküle instabil und Arsen bildet stattdessen kovalente Netzwerke aus. Graues Arsen. Graues oder metallisches Arsen ist die stabilste Form. Es hat eine Dichte von 5,73 g/cm3. Seine Kristalle sind stahlgrau, metallisch glänzend und leiten den elektrischen Strom. Betrachtet man den strukturellen Aufbau des grauen Arsens, dann erkennt man Schichten aus gewellten Arsen-Sechsringen, welche die Sesselkonformation einnehmen. Darin bilden die Arsen-Atome eine Doppelschicht, wenn man sich den Aufbau der Schicht im Querschnitt ansieht. Die Übereinanderlagerung dieser Doppelschichten ist sehr kompakt. Bestimmte Atome der nächsten darüberliegenden oder darunterliegenden Schicht sind von einem Bezugsatom fast ähnlich weit entfernt wie innerhalb der betrachteten Doppelschicht. Dieser Aufbau bewirkt, dass die graue Arsen-Modifikation wie die homologen Elemente Antimon und Bismut sehr spröde ist. Deswegen werden diese drei Elemente häufig auch als Sprödmetalle bezeichnet. Gelbes Arsen. Wird Arsen-Dampf, in dem Arsen gewöhnlich als As4-Tetraeder vorliegt, schnell abgekühlt, so bildet sich das metastabile gelbe Arsen mit einer Dichte von 1,97 g/cm3. Es besteht ebenfalls aus tetraedrischen As4-Molekülen. Gelbes Arsen ist ein Nichtmetall und leitet infolgedessen den elektrischen Strom nicht. Es kristallisiert aus Schwefelkohlenstoff und bildet kubische, stark lichtbrechende Kristalle, die nach Knoblauch riechen. Bei Raumtemperatur und besonders schnell unter Lichteinwirkung wandelt sich gelbes Arsen in graues Arsen um. Schwarzes Arsen. Schwarzes Arsen selbst kann seinerseits in zwei verschiedenen Formen vorkommen. "Amorphes schwarzes Arsen" entsteht durch Abkühlung von Arsen-Dampf an 100 bis 200 °C warmen Oberflächen. Es besitzt keine geordnete Struktur, sondern liegt in einer amorphen, glasartigen Form vor, analog zum roten Phosphor. Die Dichte beträgt 4,7 bis 5,1 g/cm3. Oberhalb 270 °C wandelt sich das schwarze Arsen in die graue Modifikation um. Wird glasartiges, amorphes schwarzes Arsen bei Anwesenheit von metallischem Quecksilber auf 100 bis 175 °C erhitzt, so entsteht das metastabile "orthorhombische schwarze Arsen", das mit dem schwarzen Phosphor vergleichbar ist. Natürlich gebildetes orthorhombisches schwarzes Arsen ist in der Natur als seltenes Mineral Arsenolamprit bekannt. Braunes Arsen. Bei der Reduktion von Arsenverbindungen in wässriger Lösung entstehen ähnlich wie beim Phosphor Mischpolymerisate. Bei diesen bindet ein Teil der freien Valenzen des Arsens Hydroxygruppen (–OH). Man nennt diese Form des Arsens "braunes Arsen". Reaktionen. Arsen reagiert heftig mit Oxidationsmitteln und Halogenen. So verbrennt Arsen an der Luft mit bläulicher Flamme zu einem weißen Rauch von giftigem Arsen(III)-oxid. Ohne äußere Wärmezufuhr findet die Reaktion mit Chlor unter Feuererscheinung zu Arsen(III)-chlorid statt. Eine weitere Oxidation ist möglich. Analoge Reaktionsgleichungen gelten für die entsprechenden Reaktionen mit Fluor. Stark oxidierende Säuren, wie konzentrierte Salpetersäure oder Königswasser, wandeln Arsen in Arsensäure um. Ist die Oxidationsstärke weniger groß – etwa bei Verwendung von verdünnter Salpetersäure oder Schwefelsäure – entsteht Arsenige Säure. Unter sauren Bedingungen und bei Anwesenheit von nichtpassivierten unedlen Metallen, insbesondere Zink, reagiert Arsen mit dem gebildeten Wasserstoff zu Monoarsan. Mit basischem Natriumhydroxid bildet sich das entsprechende Arsenitsalz. Isotope. Vom Arsen sind künstlich hergestellte, radioaktive Isotope mit Massenzahlen zwischen 65 und 87 bekannt. Die Halbwertszeiten liegen zwischen 96 Millisekunden (66As) und 80,3 Tagen (73As). Natürlich vorkommendes Arsen besteht zu 100 Prozent aus dem Isotop 75As, es ist daher ein anisotopes Element. Der entsprechende Arsen-Kern besteht also aus genau 33 Protonen und 42 Neutronen. Physikalisch zählt man ihn daher zu den ug-Kernen (u steht hier für ungerade, g für gerade). Sein Kernspin beträgt 3/2. Generell sind Kerne mit einer ungeraden Anzahl Kernbausteinen tendenziell instabiler, wobei Kerne mit ungerader Protonen- "und" Neutronenzahl zumeist zu einem Element benachbarter Ordnungszahl und "gerader" Anzahl Protonen und Neutronen betazerfallen. Daraus und aus der Stabilität vieler Isotope der benachbarten Elemente Selen und Germanium ergibt sich die Tatsache, dass Arsen nur ein stabiles Isotop besitzt. Verwendung. Arsen wird Bleilegierungen zugesetzt, um ihre Festigkeit zu verbessern und das Blei gießbarer zu machen. Vor allem die fein strukturierten Platten von Akkumulatoren könnten ohne Arsen nicht gegossen werden. Historisch war Arsen eine wichtige Zutat von Kupferlegierungen, die dadurch besser verarbeitbar wurden. Metallisches Arsen wurde früher gelegentlich zur Erzeugung mattgrauer Oberflächen auf Metallteilen verwendet, um eine Alterung vorzutäuschen. In der Elektronik spielt es als mindestens 99,9999 Prozent reines Element für Gallium-Arsenid-Halbleiter, sogenannte III-V-Halbleiter (aufgrund der Kombination von Elementen aus der 3. und 5. Hauptgruppe des Periodensystems), sowie für Epitaxieschichten auf Wafern in Form von Indiumarsenidphosphid und Galliumarsenidphosphid eine wesentliche Rolle in der Herstellung von Hochfrequenzbauelementen wie Integrierten Schaltkreisen (ICs), Leuchtdioden (LEDs) beziehungsweise Laserdioden (LDs). Es gab Anfang 2004 weltweit nur drei Hersteller von hochreinem Arsen, zwei in Deutschland und einen in Japan. Arsen wird in Form seiner Verbindungen in einigen Ländern als Schädlingsbekämpfungsmittel im Weinbau, als Fungizid (Antipilzmittel) in der Holzwirtschaft, als Holzschutzmittel, als Rattengift und als Entfärbungsmittel in der Glasherstellung verwendet. Der Einsatz ist umstritten, da die eingesetzten Arsenverbindungen (hauptsächlich Arsen(III)-oxid) giftig sind. Arsen in Arzneimitteln. Die Verwendung arsenhaltiger Mineralien als Heilmittel ist bereits in der Antike durch Hippokrates und Plinius bezeugt. Sie wurden als Fiebermittel, als Stärkungsmittel und zur Therapie von Migräne, Rheumatismus, Malaria, Tuberkulose und Diabetes eingesetzt. Im 18. Jahrhundert wurde eine Mischung aus Kaliumarsenit und Lavendelwasser als Fowler’sche Lösung bekannt, die lange als medizinisches Wundermittel galt und als Fiebersenker, Heilwasser und sogar als Aphrodisiakum Anwendung fand. Kaliumarsenit war als Bestandteil der Fowler’schen Lösung bis in die 1960er Jahre in Deutschland als Mittel zur Behandlung der Psoriasis im Einsatz. Constantinus Africanus (1017–1087) empfahl eine Arsenapplikation zur Bekämpfung von Zahnschmerzen. Bereits um 2700 vor Christus soll die Anwendung von Arsen zur Behandlung eines schmerzenden Zahnes in der chinesischen Heilkunst beschrieben worden sein. In dem Mitte des 10. Jahrhunderts erschienenen Werk „Liber Regius“ empfahl der arabische Arzt Haly Abbas (ʿAli ibn al-ʿAbbās; † 944) ebenfalls den Einsatz von Arsenik zur Devitalisation der Pulpa. Arsen(III)-oxid wurde bis in die Neuzeit zur Devitalisation der Zahnpulpa verwendet und verschwand in den 1970er Jahren wegen der krebserregenden Wirkung, Entzündungen des Zahnhalteapparates, des Verlustes eines oder mehrerer Zähne einschließlich Nekrosen des umliegenden Alveolarknochens, Allergien und Vergiftungserscheinungen aus dem Therapiespektrum. Einen Aufschwung erlebten arsenhaltige bzw. Arsenverbindungen enthaltende Arzneimittel zu Beginn des 20. Jahrhunderts. Harold Wolferstan Thomas und Anton Breinl konnten 1905 beobachten, dass das arsenhaltige Präparat Atoxyl Trypanosomen, zu denen die Erreger der Schlafkrankheit gehören, abtötet. 1907 behandelte Paul Uhlenhuth die Hühnerspirochaetose und die Syphilis mit organischen Arsenverbindungen. 1920 wurde eine Weiterentwicklung, das Tryparsamid, in der Zeit von 1922 bis 1970 im tropischen Afrika zur Therapie der Schlafkrankheit eingesetzt. Es war bedeutsam für die Eingrenzung dieser Epidemie in der ersten Hälfte des vorigen Jahrhunderts, konnte jedoch zur Erblindung führen. Das in den 1950er Jahren entwickelte Melarsoprol war über mehrere Jahrzehnte das Mittel der Wahl zur Behandlung der Schlafkrankheit und wird heute noch eingesetzt, da keine effektiven Nachfolgepräparate zur Verfügung stehen. Ebenfalls angeregt durch die Trypanosomen-toxische Wirkung von Atoxyl entwickelte Paul Ehrlich das arsenhaltige Arsphenamin (Salvarsan). Das 1910 in die Therapie der Syphilis eingeführte Mittel stellte das erste auf theoretischen Vorüberlegungen beruhende, systematisch entwickelte, spezifisch wirkende Chemotherapeutikum dar und war Vorbild für die Entwicklung der bis heute verwendeten Sulfonamide. Es wurde lange Zeit auch bei der Behandlung von Dysenterie eingesetzt. Im Jahr 2000 wurde ein arsenikhaltiges Präparat unter dem Namen "Trisenox" in den USA zur Behandlung der akuten Promyelozytenleukämie (APL) zugelassen. Seit 2002 besteht für "Trisenox" in Europa eine Zulassung zur Behandlung der APL, (Vertrieb in EU und USA: Cephalon). Seine Wirksamkeit bei der Krebstherapie wird auch auf die antiangioneogenetische Wirkung zurückgeführt. Die verschiedenen Arsensulfide sind Bestandteil von Arzneimitteln der Chinesischen Medizin. Arsenik als Insektizid bei der Taxidermie. Aufgrund der toxischen Eigenschaften von Arsenverbindungen wurde früher überwiegend Arsenik zur Haltbarmachung von Wirbeltieren ("Taxidermie") als Insektizid verwendet. Viele andere Stoffe, wie auch Lindan, wurden zum selben Zweck verwendet, wie es die Fachliteratur der Präparatoren aus der Zeit von 1868 bis 1996 beschreibt. Solche Stoffe sind jedoch auch für Menschen giftig und stellen heute an Präparatoren besondere Anforderungen, da diese auch in Kontakt mit derart kontaminierten Präparaten kommen. Biologische Bedeutung. Die biologische Bedeutung des Arsens für den Menschen ist nicht vollständig geklärt. Es gilt als Spurenelement im Menschen, Mangelerscheinungen wurden bisher aber nur an Tieren nachgewiesen. Der notwendige Bedarf liegt, falls er bestehen sollte, zwischen 5 und 50 µg pro Tag. Eine tägliche Arsenaufnahme von – je nach Wahl der Nahrungsmittel – bis zu einem Milligramm gilt als harmlos. In einer neuen Studie konnte eine erhöhte Arsenbelastung durch hohe Arsengehalte im Grundwasser von Reisanbaugebieten mit der Entstehung von Krebserkrankungen in Verbindung gebracht werden. Die Förderung der Krebsentwicklung ist jedoch dosisabhängig und nur bei Verzehr von belastetem Reis als täglichem Grundnahrungsmittel gegeben. Es gibt bei regelmäßigem Verzehr von Arsenverbindungen, speziell Arsentrioxid eine Gewöhnung, die beim Absetzen der Dosis sogar von Entzugserscheinungen begleitet wird. Menschen, die wegen der stimulierenden Allgemeinwirkung früher häufig Arsenik konsumierten (vor allem in der Steiermark), wobei häufig Gewöhnung und Sucht eintrat, werden Arsenikesser genannt. Meerestiere wie Muscheln oder Garnelen enthalten besonders viel Arsen, letztere bis zu 175 ppm. Vermutlich agiert es durch die Bindung an freie Thiolgruppen in Enzymen als Inhibitor, verhindert also deren Wirkung. Für viele Tiere ist Arsen ein essentielles Spurenelement. So zeigen Hühner oder Ratten bei arsenfreier Ernährung deutliche Wachstumsstörungen; dies hängt wahrscheinlich mit dem Einfluss des Elements auf die Verstoffwechslung der Aminosäure Arginin zusammen. Zahlreiche Algen und Krebstiere enthalten organische Arsen-Verbindungen wie das schon erwähnte Arsenobetain. Arsen führt zur verstärkten Bildung der sauerstofftransportierenden roten Blutkörperchen. Aus diesem Grund wurde es früher dem Futter von Geflügel und Schweinen zugesetzt, um eine schnellere Mästung zu ermöglichen. Trainer von Rennpferden benutzten es zum illegalen Doping ihrer Tiere – heute kann der Zusatz von Arsen zur Nahrung allerdings leicht im Urin nachgewiesen werden. Lösliche Arsenverbindungen werden leicht über den Magen-Darm-Trakt aufgenommen und rasch innerhalb von 24 Stunden im Körper verteilt. Man findet den größten Teil des aufgenommenen Arsens in den Muskeln, Knochen, Nieren und Lungen. Im Menschen wurde es zusammen mit Thallium in fast jedem Organ nachgewiesen. Blut enthält bis zu 8 ppb Arsen, in den anderen Organen des Körpers wie etwa den Knochen hat es einen Anteil von zwischen 0,1 und 1,5 ppm, in Haaren liegt der Anteil bei etwa 1 ppm. Der Gesamtgehalt von Arsen im Körper eines Erwachsenen liegt im Durchschnitt bei etwa 7 Milligramm. Organische Arsenverbindungen wie die aus Fischen und Meeresfrüchten stammende Dimethylarsinsäure, Trimethylarsenoxid, Trimethylarsin sowie Arsenobetain verlassen den menschlichen Körper fast unverändert innerhalb von zwei bis drei Tagen über die Nieren. Anorganische Arsenverbindungen werden in der Leber zu Monomethylarsonsäure (MMAA) und Dimethylarsinsäure (DMAA) umgewandelt und anschließend ebenso über die Nieren ausgeschieden. Bei Pflanzen erhöht das Element den Kohlenhydrat-Umsatz. Der Gebänderte Saumfarn "(Pteris vittata)" nimmt das Halbmetall bevorzugt aus dem Boden auf und kann bis zu fünf Prozent seines Trockengewichts an Arsen aufnehmen. Aus diesem Grund wird die schnellwachsende Pflanze zur biologischen Säuberung arsenkontaminierter Böden eingesetzt. Die stimulierende Wirkung des Arsens ist vermutlich auch Ursache des früher in einigen Alpengegenden verbreiteten Arsenikessens. Im 17. Jahrhundert verzehrten manche der dortigen Bewohner lebenslang zweimal wöchentlich bis zu 250 Milligramm Arsen – bei Männern, weil es bei der Arbeit in den Höhenlagen half, bei Frauen, da es angeblich zu einer kräftigen Gesichtsfarbe beitrug. In der Wissenschaft lange als Märchen abgetan, nahm ein Bauer aus den Steirischen Alpen 1875 vor der in Graz versammelten deutschen Fachwelt eine Dosis von 400 Milligramm Arsentrioxid zu sich, die sich später auch in seinem Urin nachweisen ließ. Die Dosis lag weit über dem Doppelten der für normale Menschen tödlichen Arsenmenge, zeigte aber keinerlei negative Auswirkungen auf den Bauern. Ähnliches wird von Bewohnern einer Siedlung in der hochgelegenen chilenischen Atacamawüste berichtet, deren Trinkwasser hochgradig mit Arsen belastet ist, die jedoch keinerlei Vergiftungssymptome zeigen. Heute geht man davon aus, dass eine langsame Gewöhnung an das Gift mit sukzessive steigenden Dosen physiologisch möglich ist. Über den Bakterienstamm GFAJ-1 wurde 2010 berichtet, dass er unter bestimmten Bedingungen in arsenathaltigen Nährmedien in der Lage sei, Arsenat anstatt Phosphat in Biomoleküle wie die DNA einzubauen, ohne dabei abzusterben, was bisher eher als unmöglich galt. Der Befund scheint jedoch auf unsauberen Arbeitsmethoden zu basieren, die Befunde konnten nicht repliziert werden. Sicherheitshinweise. Arsen-Stäube sind leicht entzündlich. Toxizität. Dreiwertige lösliche Verbindungen des Arsens sind hoch toxisch, weil sie biochemische Prozesse wie die DNA-Reparatur, den zellulären Energiestoffwechsel, rezeptorvermittelte Transportvorgänge und die Signaltransduktion stören. Dabei kommt es mutmaßlich nicht zu einer direkten Einwirkung auf die DNA, sondern zu einer Verdrängung des Zink-Ions aus seiner Bindung zu Metallothioneinen und damit zur Inaktivierung von Tumorsupressorproteinen (siehe auch Zinkfingerprotein). Arsen(III)- und Zink(II)-Ionen haben vergleichbare Ionenradien und damit ähnliche Affinität zu diesen Zinkfingerproteinen, allerdings führt Arsen dann nicht zur Aktivierung der Tumorsupressorproteine. Eine akute Arsenvergiftung führt zu Krämpfen, Übelkeit, Erbrechen, inneren Blutungen, Durchfall und Koliken, bis hin zu Nieren- und Kreislaufversagen. Bei schweren Vergiftungen fühlt sich die Haut feucht und kalt an und der Betroffene kann in ein Koma fallen. Die Einnahme von 60 bis 170 Milligramm Arsenik gilt für Menschen als tödliche Dosis (LD50 = 1,4 mg/kg Körpergewicht); meist tritt der Tod innerhalb von mehreren Stunden bis wenigen Tagen durch Nieren- und Herz-Kreislauf-Versagen ein. Eine chronische Arsenbelastung kann Krankheiten der Haut und Schäden an den Blutgefäßen hervorrufen, was zum Absterben der betroffenen Regionen (Black Foot Disease) sowie zu bösartigen Tumoren der Haut, Lunge, Leber und Harnblase führt. Diese Symptome wurden auch als Reichensteiner Krankheit bezeichnet, nach einem Ort in Schlesien, dessen Trinkwasser durch den Arsenik-Abbau bis zu 0,6 mg Arsen pro Liter enthielt. Die chronische Arsen-Vergiftung führt über die Bindung an Sulfhydryl-Gruppen von Enzymen der Blutbildung (zum Beispiel Delta-Amino-Laevulin-Säure-Synthetase) zu einem initialen Abfall des Hämoglobins im Blut, was zu einer reaktiven Polyglobulie führt. Des Weiteren kommt es bei chronischer Einnahme von Arsen zur Substitution der Phosphor-Atome im Adenosin-Triphosphat (ATP) und damit zu einer Entkopplung der Atmungskette, was zu einer weiteren reaktiven Polyglobulie führt. Klinisch finden sich hier nach Jahren der As-Exposition Trommelschlägelfinger, Uhrglasnägel, Mees-Nagelbänder und Akrozyanose (Raynaud-Syndrom), mit Folge der "Black Foot Disease". Metallisches Arsen dagegen zeigt wegen seiner Unlöslichkeit nur eine geringe Giftigkeit, da es vom Körper kaum aufgenommen wird (LD50 = 763 mg/kg Ratte, oral). Es sollte aber, da es sich an der Luft leicht mit seinen sehr giftigen Oxiden wie dem Arsenik überzieht, stets mit größter Vorsicht behandelt werden. Anders verhält es sich mit Arsenik, das in früheren Zeiten als Stimulans von Arsenikessern benutzt wurde, um einer Arsenvergiftung vorzubeugen. Der Mechanismus dieser Immunisierung gegen Arsen ist nicht bekannt. Grenzwerte. Anionisches Arsen tritt als Arsenit ([AsO3]3−) und Arsenat ([AsO4]3−) in vielen Ländern im Grundwasser in hohen Konzentrationen auf. Durch Auswaschungen aus arsenhaltigen Erzen in Form von drei- und fünfwertigen Ionen trinken weltweit über 100 Millionen Menschen belastetes Wasser. Besonders in Indien, Bangladesh und Thailand, wo im 20. Jahrhundert mit internationaler Unterstützung zahlreiche Brunnen gegraben wurden, um von mit Krankheitserregern kontaminiertem Oberflächenwasser auf Grundwasser ausweichen zu können, führte diese unerkannte Belastung des Trinkwassers zu chronischer Arsenvergiftung bei weiten Teilen der betroffenen Bevölkerung. Das Problem kann, wo es bekannt wird, chemisch durch Oxidation der Arsenverbindungen und nachfolgende Ausfällung mit Eisenionen behoben werden. Von der Rice University wurde eine kostengünstige Filtermöglichkeit mit Nano-Magnetit entwickelt. Die Weltgesundheitsorganisation (WHO) empfiehlt seit 1992 einen Grenzwert für Arsen im Trinkwasser von 10 Mikrogramm pro Liter. Der Wert wird in einigen Staaten Osteuropas und in den USA immer noch überschritten. In Deutschland wird er dagegen seit 1996 eingehalten. In der EU ist der Gehalt an Arsen im Trinkwasser seit 1998, aktuell durch die Richtlinie (EU) 2020/2184, auf einen Höchstwert von 10 Mikrogramm pro Liter begrenzt. Auch in Mineralwässern ist der Höchstwert an Arsen in der EU durch die Richtlinie 2003/40/EG auf 10 μg/l festgelegt. Die USA verpflichteten sich im Jahre 2001, diesen Grenzwert ab 2006 einzuhalten. Anreicherung in Nahrungsmitteln. Das im Grundwasser vorkommende Arsen reichert sich in Reis zehnmal so stark an wie in anderen Getreidearten. Auf dem Weltmarkt angebotene Sorten enthalten zwischen 20 und 900 Mikrogramm Arsen pro Kilogramm. Im Jahr 2005 senkte die chinesische Regierung den zulässigen Gehalt anorganischer Arsenverbindungen von 700 auf 150 Mikrogramm pro Kilogramm Lebensmittel, im Juli 2014 beschloss die Codex-Alimentarius-Kommission erstmals einen Höchstwert von 200 Mikrogramm für polierten Reis. In der EU werden die Höchstmengen an Arsen in Lebensmitteln durch die Verordnung (EG) Nr. 1881/2006 geregelt. Der Gehalt an anorganischem Arsen darf in Reis dabei folgende Grenzwerte nicht überschreiten: geschliffener Reis 0,20 mg/kg, geschälter oder Parboiled Reis 0,25 mg/kg, Reiskekse, Reiswaffeln, Reiskräcker und Reiskuchen 0,30 mg/kg und Reis für die Herstellung von Lebensmitteln für Säuglinge und Kleinkinder 0,10 mg/kg. Für andere belastete Lebensmittel wie Bier oder Fruchtsäfte gibt es noch keine Grenzwerte, obwohl sie mehr Arsen enthalten können, als für Trinkwasser zulässig ist. Verbraucherorganisationen fordern für Apfelsaft einen Grenzwert von 3, höchstens aber 4,4 ppb (entspricht Mikrogramm pro kg). Fische und Meeresfrüchte weisen zwar hohe Gehalte an Arsen auf, jedoch nahezu ausschließlich in der als unbedenklich geltenden organisch gebundenen Form. Grenzwerte wie für Quecksilber oder Cadmium gibt es nicht. Das neue Chemikaliengesetz der EU, umgesetzt in der Gefahrstoffverordnung Deutschlands von 2005, verbietet im Anhang 4 die „gewerbliche“ (nicht private) Verarbeitung von arsenhaltigen Mitteln und Zubereitungen, die mehr als 0,3 Gewichtsprozent an Arsen aufweisen. Derartige Grenzwertregelungen sind gegeben, da Arsen in den Verzinkereien der Galvanikindustrie weltweit der Zinkschmelze zugesetzt wird, um die Haftungseigenschaften des Zinks an der Eisenoberfläche des zu verzinkenden Metallstückes zu verbessern. Auf Grund der Temperatur im Zink-Schmelzbad von 460 °C bis 480 °C kommt es zum Verdampfen von Arsen, Cadmium und anderen leicht flüchtigen Metallen und deren Anreicherung in der Luft des Arbeitsplatzes. So können zulässige Grenzwerte kurzfristig um das Tausendfache überschritten werden, mit der Folge der aerogen-alveolaren Aufnahme in den Körper. Messungen ergaben, dass Arsen (und Cadmium) im hochreinen Zink (99,995 Reinheitsgrad, DIN-1179-Reinheitsgrad) mit weniger als 0,0004 Gewichts-% ausgewiesen waren und nach Zugabe von 450 Gramm dieses hochreinen Zinks in die Zinkschmelze zu einem Anstieg der Cd-/As-Konzentration von 3 bis 7 µg/m3 Luft auf über 3000 µg/m3 Luft führten. Für Arsen wurde diese Tatsache überraschend in einer Verzinkerei durch Messung der Arsen-Konzentration in Zinkschmelze, Blut und Urin festgestellt (unveröffentlicht). Bei Galvanik-Arbeitern wird die Urin-Arsen-Konzentration mit 25 bis 68 µg/l Urin gemessen, im Vergleich zu unbelasteter Bevölkerung mit 0,1 µg Arsen/l Urin. Abreicherung. Für die Entfernung von ionischem Arsen aus dem Trinkwasser gibt es Verfahren, die auf Adsorption an Aktivkohle, aktiviertem Aluminiumoxid oder Eisenhydroxid-Granulat beruhen. Letzteres wird standardmäßig in Festbettreaktoren in der Trinkwasseraufbereitung in Deutschland und international eingesetzt. Daneben werden Ionenaustauscher verwendet. Es ist möglich, Arsen mittels gentechnisch veränderten Pflanzen aus dem Boden zu entfernen, die es in Blättern speichern. Zur Phytosanierung von Trinkwasser bietet sich die Dickstielige Wasserhyazinthe an, die Arsen insbesondere in ihr Wurzelgewebe einlagert und so eine Abreicherung des kontaminierten Wassers bewirkt. Organische Arsenverbindungen in belasteten Böden können enzymatisch mit Hilfe von Pilzen abgebaut werden. In Bangladesh wird nach einem Verfahren der schweizerischen Forschungseinrichtung EAWAG versucht, Arsen mit Hilfe von transparenten PET-Flaschen und Zitronensaft abzureichern. Bei dieser SORAS "(Solar Oxidation and Removal of Arsenic)" genannten Methode oxidiert Sonnenlicht das Arsen; die Inhaltsstoffe des Zitronensafts helfen bei der Ausfällung. Mit dieser kostengünstigen Methode lässt sich der Arsengehalt um 75 bis 90 Prozent senken. In Gewässern des Yellowstone-Nationalparks, die sich aus Geysiren und anderen Thermalquellen vulkanischen Ursprungs speisen, wurden eukaryontische Algen der Gattung "Cyanidioschyzon" gefunden, die die hohen Arsenkonzentrationen der Gewässer tolerieren und sie zu biologisch weniger verfügbaren organischen Verbindungen oxidieren können. An einer Nutzung zur Abreicherung in Trinkwasser wurde 2009 gearbeitet. Antidote. Als Antidote bei akuten Arsenvergiftungen stehen die schwefelhaltigen Komplexbildner Dimercaptopropansulfonsäure (DMPS), Dimercaptobernsteinsäure und das ältere, schlechter verträgliche Dimercaprol zur Verfügung. Sie sind noch bei starken Arsendosen effektiv, wenn die Vergiftung rechtzeitig diagnostiziert wird. Ihr Stellenwert bei der Behandlung chronischer Arsenvergiftungen ist hingegen umstritten. Aktivkohle ein bis mehrere Stunden nach der Einnahme kann das Metall ebenfalls binden und zur Ausscheidung bringen. Prophylaxe. Indische Forscher haben im Tierversuch herausgefunden, dass die Einnahme von Knoblauch zur Senkung der Arsengehalte im Blut und der Erhöhung der Arsengehalte im Urin führen kann. Erklärt wird dies über eine Ausfällung des Arsens bei Reaktion mit schwefelhaltigen Substanzen wie etwa Allicin, das Bestandteil des Knoblauchs ist. Zur Prophylaxe werden zwei bis drei Knoblauchzehen täglich empfohlen. Nachweis. Anorganische Nachweisreaktionen. Arsenverbindungen zeigen beim Verbrennen eine wenig charakteristische fahlblaue Flammenfärbung. Bei der Glühröhrchenprobe erhitzt man Arsenverbindungen, welche teilweise sublimieren und sich an kalten Oberflächen in Form von schwarzem Arsen, weißem Arsen(III)-oxid oder gelbem Arsentrisulfid wieder niederschlagen. Instrumentelle Bestimmungsverfahren für Arsen. Atomabsorptionsspektrometrie (AAS). Bei der Flammen-AAS werden die Arsenverbindungen in einer reduzierenden Luft-Acetylen-Flamme ionisiert. Anschließend wird eine Atomabsorptionsmessung bei 189,0 nm beziehungsweise 193,8 nm durchgeführt. Nachweisgrenzen bis zu 1 µg/ml wurden beschrieben. Häufig wird das Arsen auch mit Hilfe von NaBH4 in das gasförmige Arsin (AsH3) überführt (Hydridtechnik). In der Quarzrohrtechnik wird AsH3 zuerst bei rund 1000 °C in einem elektrisch beheizten Quarzröhrchen thermisch in seine atomaren Bestandteile zersetzt, um anschließend die Absorption bei o. g. Wellenlängen zu bestimmen. Die Nachweisgrenze bei dieser Technik liegt bei 0,01 µg/l. Eine weitere Methode ist die sog. Graphitrohrtechnik, bei der das Arsen einer festen Probe bei 1700 °C und höher verflüchtigt und anschließend die Extinktion bei 193,8 nm gemessen wird. Atomemissionsspektrometrie. Die Kopplung von Hydridtechnik mit dem induktiv gekoppelten Plasma/ laserinduzierter Fluoreszenzmessung ist eine sehr nachweisstarke Methode zur Bestimmung von Arsen. Mittels Hydriderzeugung freigesetztes AsH3 wird dabei im Plasma atomisiert und mit einem Laser zur Emission angeregt. Mit dieser Methode wurden Nachweisgrenzen von 0,04 ng/mL erreicht. Massenspektrometrie (MS). Bei der Massenspektrometrie wird die Arsenspezies zunächst durch ein induktiv gekoppeltes Argonplasma (ICP-MS) thermisch ionisiert. Anschließend wird das Plasma in das Massenspektrometer geleitet. Eine Nachweisgrenze von 0,2 µg/l wurde für Arsenit beschrieben. Photometrie. Weitverbreitet ist die photometrische Erfassung von As als Arsenomolybdänblau. As(V) reagiert zunächst mit (NH4)2MoO4. Danach folgt eine Reduktion mit SnCl2 oder Hydrazin zu einem blauen Komplex. Die Photometrie erfolgt bei 730 nm und ist somit nahezu störungsfrei. Die Nachweisgrenzen können durch Verwendung von basischen Farbstoffen als Komplexbildner verbessert werden. Neutronenaktivierungsanalyse. Eine sehr empfindliche Arsenbestimmung im ppt-Bereich ist mittels Neutronenaktivierungsanalyse möglich. Sie kommt insbesondere dann zur Anwendung, wenn die Probe eine komplexe Zusammensetzung aufweist oder schwierig aufzuschließen ist. Allerdings gibt diese Methode keinen Hinweis auf die chemische Verbindung, in der das Arsen vorliegt. Bei der Wechselwirkung von Neutronen mit der Probe, die das natürliche Isotop Arsen-75 enthält, wird das schwerere Isotop Arsen-76 gebildet, das jedoch instabil ist und sich unter einem β-Zerfall in Selen-76 umwandelt. Gemessen werden dabei die β-Strahlen, über die ein Rückschluss auf die Menge des Arsens möglich ist. Biosensoren. Bei Biosensoren wird die Biolumineszenz bei Kontakt von in Wasser gelöstem Arsen mit genetisch modifizierten Bakterien (z. B. "Escherichia coli" K12) und eines Lichtmessgeräts (Luminometer) detektiert. Die vorhandene Arsenkonzentration korreliert dabei direkt mit der emittierten Lichtmenge. Verbindungen. Arsenwasserstoffe. Chemische Verbindungen von Arsen und Wasserstoff (→ Arsane) sind im Vergleich zu den entsprechenden Verbindungen der Hauptgruppennachbarn Stickstoff und Phosphor nicht sehr zahlreich und sehr instabil. Es sind zurzeit drei Arsane bekannt. Halogenverbindungen. Arsen bildet mit Halogenen binäre Verbindungen vom Typ AsX3, AsX5 und As2X4 (X bezeichnet das entsprechende Halogen). Sauerstoffverbindungen. Wichtige Sauerstoffsäuren sind: Das wichtigste Arsenoxid ist Arsen(III)-oxid (Arsentrioxid auch Arsenik oder Weißarsenik, As2O3, das Anhydrid der Arsenigen Säure), das in der Gasphase in Form von Doppelmolekülen mit der Formel As4O6 vorliegt. Es ist amphoter und weist damit auf den Halbmetallcharakter des Arsens hin. Neben As2O3 kennt man As2O5 (Arsenpentaoxid, das Anhydrid der Arsensäure) und das gemischte Anhydrid der Arsenigen Säure und Arsensäure As2O4 (Arsentetraoxid) Ein historisch wichtiges Färbe- und Pflanzenschutzmittel ist ein Kupfer-Arsen-Oxid mit dem Trivialnamen Schweinfurter Grün (Cu(AsO2)2·Cu(CH3COO)2). Schwefelverbindungen. Es bestehen zwei wichtige Arsensulfide, die beide als Minerale in der Natur vorkommen. Arsen-Metall-Verbindungen. Wichtige Verbindungen von Arsen mit Metallen sind Organische Verbindungen. In Analogie zu den Aminen und Phosphinen findet man entsprechende Verbindungen mit Arsen anstelle von Stickstoff oder Phosphor. Sie werden als Arsine bezeichnet. Zu den Arsoranen, Verbindungen vom Typ R5As, wobei R5 für fünf – möglicherweise unterschiedliche – organische Gruppen steht, zählt man etwa Pentaphenylarsen oder Pentamethylarsen. Fehlt eine der fünf Gruppen, bleibt ein einfach positiv geladenes Ion zurück (R steht wiederum für – möglicherweise verschiedene – organische Gruppen), das man als Arsoniumion (AsR4)+ bezeichnet. Analog zu den Carbonsäuren lassen sich zwei Klassen arseno-organischer Säuren bilden: Zudem sind Heteroaromaten mit Arsen als Heteroatom bekannt, wie Arsabenzol, das aus einem Benzolring besteht, in dem ein Kohlenstoffatom durch Arsen ersetzt ist und das somit analog zu Pyridin aufgebaut ist. Auch homocyclische Arsenverbindungen existieren. Beispiele sind deren Moleküle einen Fünf- beziehungsweise Sechsring aus Arsenatomen als Rückgrat aufweisen, an den nach außen hin je eine Methylgruppe pro Arsenatom gebunden ist. Eine polycyclische Variante bildet das nebenstehende Molekül, dessen Rückgrat sich aus einem Sechs- und zwei angehefteten Fünfringen zusammensetzt (R steht für jeweils eine "tert"-Butylgruppe). Schließlich lassen sich Arsenpolymere darstellen, lange Kettenmoleküle, die als Polyarsine bezeichnet werden. Sie bestehen aus einer zentralen „Strickleiter“ der Arsenatome, an die außen auf jeder Seite je „Sprosse“ eine Methylgruppe angeheftet ist, so dass sich die chemische Formel (AsCH3)2n ergibt, wobei die natürliche Zahl "n" weit über 100 liegen kann. Polyarsine zeigen deutliche Halbleitereigenschaften. Bioorganische Verbindungen. In der Bioorganik spielen Arsenolipide, Arsenosaccharide und arsenhaltige Glycolipide eine bedeutende Rolle. Wichtige Vertreter dieser Stoffklassen sind zum Beispiel Arsenobetain, Arsenocholin und unterschiedlich substituierte Arsenoribosen. Sie treten vor allem kumuliert in maritimen Lebewesen auf und können auf diesem Weg in die menschliche Nahrungskette gelangen. Arsenhaltige Biomoleküle konnten in Algen, Meeresschwämmen und in Fischgewebe nach erfolgter Extraktion mittels HPLC-ICP-MS nachgewiesen werden. Die Analytik von Organo-Arsenverbindungen (einschließlich ihrer Speziation) ist sehr aufwändig. Arsen in Kriminalgeschichte, Literatur und Film. Das Element Arsen erreichte zweifelhafte Berühmtheit als Mordgift, belegt durch geschichtliche Aufzeichnungen sowie die Instrumentalisierung in Literatur und Film. Es handelte sich bei dem Mordgift allerdings nie um elementares Arsen, sondern um dessen Verbindungen. In Italien und Frankreich starben Herzöge, Könige und Päpste an vorsätzlich herbeigeführten Arsenvergiftungen. Im Frankreich des 17. Jahrhunderts steht die Marquise de Brinvilliers, die ihren Vater und zwei Brüder mit einer Arsenikmischung vergiftete, im Mittelpunkt eines Giftskandals. In Deutschland brachte die Serienmörderin Gesche Gottfried aus Bremen 15 Menschen zu Tode. Aufsehen erregte auch der Fall der Serienmörderin Anna Margaretha Zwanziger zu Beginn des 19. Jahrhunderts. Die Urheber der Morde blieben jedoch meist unerkannt, da Arsen bis 1836 in kleinen Mengen nicht nachgewiesen werden konnte. Erst die durch James Marsh entwickelte und nach ihm benannte Marshsche Probe machte es möglich, Spuren des Elementes zu identifizieren und somit eine unnatürliche Todesursache nachzuweisen. Im 19. und 20. Jahrhundert fanden weiter vorsätzliche Vergiftungen mit arsenhaltigen Mitteln statt – zum einen, weil sie leicht als Herbizide verfügbar waren, zum anderen ließ sich bei chronischer Gabe kleiner Dosen ein krankheitsbedingter Tod vortäuschen. Im September 1840 fiel im Prozess gegen Marie Lafarge das erste Urteil, das alleine auf den Ergebnissen der Marshschen Probe beruhte. Im Fall der Marie Besnard, die angeblich zwischen 1927 und 1949 für mehrere Todesfälle in ihrem Umfeld in Loudun verantwortlich sein sollte, konnte ein eindeutiger Beweis nicht erbracht werden, weil Untersuchungsergebnisse widersprüchlich waren, und sie musste 1954 letztendlich freigesprochen werden. Jahrelang glaubte die Fachwelt, dass der Tod des ehemaligen französischen Kaisers Napoleon Bonaparte mit 51 Jahren auf der Insel St. Helena einem Giftanschlag mit Arsen zugeschrieben werden muss. Zumindest hatte man in seinen Haaren hochkonzentrierte Spuren des Giftes entdeckt. Heute existieren verschiedene andere Thesen zur Erklärung des Faktenbefunds. Eine Möglichkeit besteht darin, dass das Arsen "nach" seinem Tod den Haaren beigegeben wurde, um diese zu konservieren, eine damals durchaus übliche Methode. Möglich ist ein Übermaß der Benutzung der arsenhaltigen Fowlerschen Lösung, die zu seiner Zeit bei vielen seiner Zeitgenossen als medizinisches Wundermittel galt. Die dritte und heute als wahrscheinlichste angesehene Möglichkeit ist, dass sich Napoleon durch organische Arsenverbindungen vergiftete, die Schimmelpilze beständig aus seinen mit grünen Arsenpigmenten gefertigten Tapeten freisetzten. Deren hoher Arsengehalt ist durch eine 1980 in einem Notizbuch aufgefundene Materialprobe schlüssig belegt. Der berühmte Philosoph René Descartes starb 1650 wenige Monate nach seiner Ankunft am Hofe der schwedischen Königin Christine. Der Verdacht, er sei von einem der Jesuiten, die sich am Hofe der protestantischen Königin aufhielten, aus religionspolitischen Gründen mit Arsen vergiftet worden, verstärkte sich, als Christine später tatsächlich zum Katholizismus konvertierte, konnte aber nicht erhärtet werden, so dass die offizielle Todesursache, Lungenentzündung, sich in den Biographien etablierte. Erst kürzlich wurde anhand von neu aufgefundenen und neu interpretierten Dokumenten der alte Verdacht erhärtet und behauptet, dass der „Giftmord an Descartes in sehr hohem Maße wahrscheinlich, um nicht zu sagen, fast sicher“ erscheint. Im Jahre 1900 kam es im britischen Manchester zu einer Massenvergiftung, von der mehrere Tausend Menschen betroffen waren. Wie sich herausstellte, hatten alle Bier derselben Brauerei getrunken. In Vorstufen der Bierproduktion wurde anscheinend Schwefelsäure eingesetzt, die ihrerseits aus Schwefel hergestellt wurde, der aus mit Arsenopyrit kontaminierten Sulfidmineralen stammte. Etwa 70 Menschen erlagen ihren Vergiftungen. In den Jahren 2010 und 2011 starben in Österreich zwei Männer an einer Arsenvergiftung. Am 11. April 2013 wurde am Landesgericht Krems eine 52-jährige Polin des Mordes an den beiden für schuldig befunden und von dem Geschworenengericht nicht rechtskräftig zu lebenslanger Haft verurteilt. Noch in den 1950er Jahren auf dem Höhepunkt des Kalten Krieges erkrankte die US-amerikanische Botschafterin, Clare Booth Luce, in Rom durch eine Vergiftung mit dem aus Tapeten freigesetzten Arsen. Die Tatsache, dass die Krankheit auf die schimmelpilzbefallenen Tapeten und nicht auf gegnerische Geheimagenten zurückgeführt werden konnte, trug in diesem Fall nicht nur zur Genesung der Botschafterin, sondern auch zum Erhalt des Friedens bei. In Friedrich Schillers bürgerlichem Trauerspiel "Kabale und Liebe" vergiftet der junge Major Ferdinand von Walter erst seine Geliebte Luise Millerin und dann sich selbst. Allerdings tritt in "Kabale und Liebe" der Tod unrealistischerweise binnen Minuten ein. Die Protagonistin des berühmten Romans "Madame Bovary" von Gustave Flaubert, die unglücklich verheiratete Landarztgattin Emma Bovary, stirbt am Ende des Romans durch Suizid mit Arsen in Form eines weißen Pulvers. Der Spross einer Arztfamilie Flaubert beschreibt die Vergiftungssymptome und den äußerst qualvollen Tod der Bovary sehr detailliert. Im Roman "Starkes Gift" "(Strong Poison)" von Dorothy L. Sayers ist das Opfer mit Arsen vergiftet worden. Die Verdächtige, Krimi-Schriftstellerin Harriet Vane, hat sich zur fraglichen Zeit intensiv mit Arsenmorden beschäftigt und sich dazu sogar vom Apotheker beraten lassen. Der berühmte Detektiv „Kalle Blomquist“ aus dem gleichnamigen Kinderbuch von Astrid Lindgren wendete die Marshsche Probe an, um ein mit Arsen vergiftetes Stück Schokolade zu überprüfen. In dem Theaterstück von Joseph Kesselring "Arsen und Spitzenhäubchen" (englisch: "Arsenic and Old Lace") vergiften zwei alte Damen in gutmeinender Absicht ältere einsame Herren mit einer Arsen-, Strychnin- und Zyankali-Mischung. Bekannt wurde das Stück durch die gleichnamige Verfilmung von Frank Capra mit Cary Grant, Peter Lorre und Priscilla Lane in den Hauptrollen.
98
234766069
https://de.wikipedia.org/wiki?curid=98
Astat
Astat [] (von : „unbeständig, unstet“) ist ein radioaktives chemisches Element mit dem Elementsymbol At und der Ordnungszahl 85. Im Periodensystem steht es in der 7. Hauptgruppe bzw. der 17. IUPAC-Gruppe und zählt damit zu den Halogenen. Astat entsteht beim natürlichen Zerfall von Uran. Astat ist das seltenste natürlich vorkommende Element der Erde und muss bei Bedarf künstlich erzeugt werden. Geschichte. Als Dmitri Mendelejew 1869 sein Periodensystem festlegte, sagte er die Existenz einiger zu dieser Zeit noch nicht entdeckter Elemente voraus, darunter eines, das den Platz unter Iod einnehmen würde. In der Folge versuchten einige Wissenschaftler dieses Element, das als „Eka-Iod“ bezeichnet wurde, zu finden. Im Jahre 1931 behauptete Fred Allison, er und seine Mitarbeiter am Alabama Polytechnic Institute (heute Auburn University) hätten das fehlende Element entdeckt, und gaben ihm die Bezeichnung "Alabamine" (Ab). Ihre Entdeckung konnte jedoch nicht bestätigt werden und wurde später als falsch erkannt. Ebenfalls auf der Suche nach einem Mitglied der Familie des radioaktiven Thoriums fand der Chemiker De Rajendralal Mitra im Jahre 1937 in Dhaka, Bangladesch (damals Britisch-Indien), zwei neue Elemente. Das erste nannte er "Dakin" (Eka-Iod), wohl nach der englischen Bezeichnung für Dhaka (Dacca), das andere "Gourium". Beide Entdeckungen konnten jedoch nicht bestätigt werden. Der Name "Helvetium" wurde wiederum von dem Schweizer Chemiker Walter Minder vorgeschlagen, als er die Entdeckung des Elements 85 im Jahr 1940 ankündigte. Er änderte im Jahr 1942 jedoch seinen Vorschlag in "Anglohelvetium". Bestätigt werden konnte die Entdeckung des Astats (altgriechisch ἀστατέω = „unbeständig sein“, aufgrund des radioaktiven Zerfalls) erstmals im Jahre 1940 durch die Wissenschaftler Dale R. Corson, Kenneth Ross MacKenzie und Emilio Gino Segrè, die es in der University of California künstlich durch Beschuss von Bismut mit Alphateilchen herstellten. Drei Jahre später konnte das kurzlebige Element von Berta Karlik und Traude Bernert auch als Produkt des natürlichen Zerfallsprozesses von Uran gefunden werden. Ihr Namensvorschlag "Viennium" wurde jedoch nicht bestätigt. Gewinnung und Darstellung. Astat wird durch Beschuss von Bismut mit Alphateilchen im Energiebereich von 26 bis 29 MeV hergestellt. Man erhält dabei die relativ langlebigen Isotope 209At bis 211At, die dann im Stickstoffstrom bei 450 bis 600 °C sublimiert und an einer gekühlten Platinscheibe abgetrennt werden. Eigenschaften. Bei diesem radioaktiven Element wurde mit Hilfe von Massenspektrometrie nachgewiesen, dass es sich chemisch wie die anderen Halogene, besonders wie Iod verhält (es sammelt sich wie dieses in der Schilddrüse an). Astat ist stärker metallisch als Iod. Forscher am Brookhaven National Laboratory haben Experimente zur Identifikation und Messung von elementaren chemischen Reaktionen durchgeführt, die Astat beinhalten. Mit dem On-Line-Isotopen-Massenseparator (ISOLDE) am CERN wurde 2013 das Ionisationspotenzial von Astat mit 9,31751(8) Elektronenvolt bestimmt. Isotope. Astat hat etwa 20 bekannte Isotope, die alle radioaktiv sind; das langlebigste ist 210At mit einer Halbwertszeit von 8,3 Stunden. Verwendung. Organische Astatverbindungen dienen in der Nuklearmedizin zur Bestrahlung bösartiger Tumoren. Astat-Isotope eignen sich aufgrund der kurzen Halbwertszeiten innerlich eingenommen als radioaktive Präparate zum Markieren der Schilddrüse. Das Element wird in der Schilddrüse angereichert und in der Leber gespeichert. Verbindungen. Die chemischen Eigenschaften von Astat konnten aufgrund der geringen Mengen bisher nur mit Tracerexperimenten festgestellt werden. Sie ähneln stark denjenigen des Iods, wobei es aber ein schwächeres Oxidationsmittel ist. Bisher konnten diverse Astatide, Interhalogenverbindungen und organische Verbindungen nachgewiesen werden. Auch die Anionen der entsprechenden Sauerstoffsäuren sind bekannt. Wegen des im Vergleich zu anderen Halogenen elektropositiveren Charakters wird es von Silber nur unvollständig ausgefällt. Dafür existiert das komplexstabilisierte Kation At(Py)2 (Py=Pyridin), wodurch Astat auch kathodisch abgeschieden werden kann. Nachgewiesen wurde auch das Hydrid, Astatwasserstoff HAt. Sicherheitshinweise. Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt.
99
493891
https://de.wikipedia.org/wiki?curid=99
Alkalimetalle
Als Alkalimetalle werden die chemischen Elemente Lithium, Natrium, Kalium, Rubidium, Caesium und Francium aus der 1. Hauptgruppe des Periodensystems bezeichnet. Sie sind silbrig glänzende, reaktive Metalle, die in ihrer Valenzschale ein einzelnes Elektron besitzen, das sie als starke Reduktionsmittel leicht abgeben können. Obwohl Wasserstoff in vielen Darstellungen des Periodensystems auch in der ersten Hauptgruppe steht – ganz oben und meist mit einer Lücke abgetrennt, oder in anderer Farbe dargestellt – kann Wasserstoff keinesfalls zu den Alkalimetallen gezählt werden. Als typisches Nichtmetall ist Wasserstoff unter Standardbedingungen gasförmig und nicht fest, hat eine viel größere Ionisierungsenergie und zeigt keine typischen metallische Eigenschaften. Etymologie. Der Name der Alkalimetalle leitet sich von dem arabischen Wort für „Pottasche“ ab, die alte Bezeichnung für aus Pflanzenaschen gewonnenes Kaliumcarbonat. Humphry Davy stellte im Jahre 1807 erstmals das Element Kalium durch eine Schmelzflusselektrolyse aus Kaliumhydroxid dar. Letzteres gewann er aus Kaliumcarbonat. In einigen Sprachen spiegelt sich dies im Namen wider. So heißt Kalium beispielsweise im Englischen und Französischen "potassium" und im Italienischen "potassio". Eigenschaften. Alkalimetalle sind metallisch glänzende, silbrig-weiße weiche Leichtmetalle. Caesium hat bei geringster Verunreinigung einen Goldton. Sie sind mit dem Messer schneidbar. Alkalimetalle haben eine geringe Dichte. Sie reagieren mit vielen Stoffen, so beispielsweise mit Wasser, Luft oder Halogenen teilweise äußerst heftig unter starker Wärmeentwicklung. Insbesondere die schwereren Alkalimetalle können sich an der Luft selbst entzünden. Daher werden sie unter Schutzflüssigkeiten, wie Paraffin oder Petroleum (Lithium, Natrium und Kalium), bzw. unter Luftabschluss in Ampullen (Rubidium und Caesium) aufbewahrt. Als Elemente der ersten Gruppe des Periodensystems besitzen sie nur ein schwach gebundenes s-Elektron, das sie leicht abgeben. Ihre ersten Ionisierungsenergien und ihre Elektronegativitäten sind entsprechend klein. In Verbindungen kommen sie alle fast ausschließlich als einwertige Kationen vor, wenngleich sogar Verbindungen bekannt sind, in denen diese Metalle anionisch vorliegen (z. B. Natride, komplexiert mit sogenannten Kryptanden). Alkalimetalle und ihre Salze besitzen eine spezifische Flammenfärbung: Aufgrund dieser Flammenfärbung werden Alkalimetallverbindungen für Feuerwerke benutzt. In der Atomphysik werden Alkalimetalle eingesetzt, da sie sich aufgrund ihrer besonders einfachen elektronischen Struktur besonders leicht mit Lasern kühlen lassen. Physikalische Eigenschaften. Alle Alkalimetalle kristallisieren in der kubisch-raumzentrierten Struktur. Lediglich Lithium und Natrium kristallisieren in der hexagonal-dichtesten Packung, wenn tiefe Temperaturen vorherrschen. Der Radius der Elementatome sowie der Kationen nimmt mit steigender Massenzahl zu. Viele andere Eigenschaften der Alkalimetalle zeigen einen Trend innerhalb der Gruppe von oben nach unten: Reaktionen und Verbindungen. Die Alkalimetalle reagieren mit Wasserstoff unter Bildung salzartiger "Alkalimetallhydride": Die thermische Beständigkeit der Hydride nimmt vom Lithiumhydrid zum Caesiumhydrid ab. Alkalihydride werden als Reduktions- oder Trocknungsmittel eingesetzt. Mit Sauerstoff reagieren die Metalle unter Bildung fester, weißer "Alkalimetalloxide" (Lithiumoxid, Natriumoxid), "Alkalimetallperoxide" (Natriumperoxid, Kaliumperoxid) und "Alkalimetallhyperoxide" (Kaliumhyperoxid, Rubidiumhyperoxid, Caesiumhyperoxid): Die Reaktion mit Wasser zu "Alkalimetallhydroxiden" erfolgt unter Freisetzung von Wasserstoff: Vom Lithium zum Caesium steigt die Reaktivität stark an. Während eine annähernd kubische Probe von Lithium relativ träge reagiert, entzündet sich schon bei Natrium aufgrund der Hitzeentwicklung der entstehende Wasserstoff unter Anwesenheit von Luftsauerstoff. Ab dem Kalium erfolgt bei fortschreitender Reaktion auch Verdampfung und Entflammung des Metalls, nicht zuletzt auch wegen des mit der Ordnungszahl abnehmenden Siedepunkts (siehe oben). Aber auch unter Luftabschluss können schon weniger als 0,5 g Natrium explosiv mit Wasser reagieren, was eigentlich durch die an der Kontaktfläche der Edukte entstehenden Reaktionsprodukte, Wasserstoff und Alkalimetalhydroxid, gehemmt werden sollte. Hoch­geschwindigkeits­aufnahmen eines Experiments, bei dem Tropfen einer unter Standardbedingungen flüssigen Legierung aus Kalium und Natrium unter einer Inertgas-Atmosphäre mit Wasser in Kontakt gebracht wurden, legen eine initial erfolgende Coulomb-Explosion („negative Oberflächenspannung“) bzw. die damit einhergehende starke Oberflächenvergrößerung der mit Ausnahme von Lithium nach kurzer Zeit schmelzflüssigen unlegierten Alkalimetallproben als Ursache für den ungehemmten Ablauf, die hohe Geschwindigkeit und damit die Heftigkeit dieser Reaktionen nahe. Die Alkalimetallhydroxide sind farblose Feststoffe, die sich in Wasser unter starker Erwärmung leicht lösen und dabei stark basisch reagieren. Die Hydroxide und ihre Lösungen wirken stark ätzend. Die Reaktivität der Alkalimetalle nimmt mit steigender Ordnungszahl zu, weil mit steigender Zahl von Elektronenschalen das Außenelektron immer mehr von der Anziehungskraft des positiv geladenen Atomkerns abgeschirmt wird und daher leichter abgespalten werden kann. Die Zunahme der Reaktivität lässt sich an der Reaktion der verschiedenen Metalle mit Wasser gut erkennen: Lithium und Natrium reagieren mit Wasser zwar heftig unter Wasserstoffentwicklung, aber ohne dass es zur Entzündung des Wasserstoffs kommt. Kalium und Rubidium reagieren unter spontaner Entzündung des Wasserstoffs, Caesium reagiert explosionsartig. Besonders gut reagieren die Alkalimetalle mit Nichtmetallen, denen nur wenige Elektronen fehlen, um Edelgaskonfiguration zu erreichen. Mit Halogenen reagieren die Alkalimetalle zu den salzartigen "Alkalimetallhalogeniden": Die Reaktivität steigt vom Lithium zum Caesium und sinkt vom Fluor zum Iod. So reagiert Natrium mit Iod kaum und mit Brom sehr langsam, während die Reaktion von Kalium mit Brom und Iod explosionsartig erfolgt. Alkalimetalle können Halogenkohlenwasserstoffen unter Explosionserscheinungen das Halogen unter Bildung von Kohlenstoff und dem entsprechenden Alkalimetallhalogenid entziehen: Alkalimetalle lösen sich in flüssigem Ammoniak unter Bildung von intensiv blau gefärbten Lösungen. Diese Lösungen, die positiv geladene Alkalimetall-Kationen und solvatisierte Elektronen enthalten, wirken als sehr starke Reduktionsmittel und werden z. B für die Birch-Reduktion eingesetzt. Wird diesen Lösungen ein geeigneter Komplexbildner ( e Kryptand oder Kronenether) zugesetzt, können sich entsprechende Salze mit Alkalimetall-Anionen, die sogenannten Alkalide, bilden. Wasserstoff. Wasserstoff, das erste Element der 1. Hauptgruppe, ist unter Normalbedingungen ein Nichtmetall und wird deshalb nicht zu den Alkalimetallen gezählt. Wasserstoff hat z. B wie andere typische Nichtmetalle eine deutlich höhere erste Ionisierungsenergie als die Alkalimetalle, die ihr Elektron leicht abgeben, und zeigt dementsprechend andere chemische Eigenschaften. Anders als die Alkalimetalle teilt Wasserstoff sein Elektron mit Nichtmetallen wie Chlor oder Sauerstoff und bildet mit ihnen über kovalente Bindungen Molekularverbindungen. Im Gegensatz zu den Alkalimetallen kann Wasserstoff ein Elektron von Metallen aufnehmen und bildet mit ihnen salzartige Hydride. Die wichtigste charakteristische Eigenschaft des Wasserstoffatoms ist die Fähigkeit, das einzige Elektron an das Molekül Wasser unter Bildung des Hydroniumkations zu verlieren. Dieses Kation spielt bei allen chemischen Reaktionen in wässrigen Lösungen eine wichtige Rolle. Die genannten Besonderheiten des Elements Wasserstoff, haben dazu geführt, dass man in Lehrbüchern auch die Auffassung findet „Wasserstoff gehört im Periodensystem zu keiner bestimmten Gruppe“ Jedoch gibt es auch chemische Eigenschaften und chemisches Verhalten, in denen Wasserstoff den Alkalimetallen ähnlich ist. Wasserstoff ist wie die Alkalimetalle ein starkes Reduktionsmittel und tritt wie die Alkalimetalle stets einwertig auf. Wasserstoff wandelt sich unter extrem hohem Druck in eine metallische Hochdruckmodifikation um, den metallischen Wasserstoff. Umgekehrt haben auch einige Alkalimetalle unter bestimmten Bedingungen Eigenschaften wie Wasserstoff, z. B. besteht Lithium als Gas zu 1 % aus zweiatomigen Molekülen.
100
23437
https://de.wikipedia.org/wiki?curid=100
Actinoide
Actinoide („Actiniumähnliche“; griech.: Endung "-οειδής" "(-oeides)" „ähnlich“) ist eine Gruppenbezeichnung bestimmter ähnlicher Elemente. Zugerechnet werden ihr das Actinium und die 14 im Periodensystem folgenden Elemente: Thorium, Protactinium, Uran und die Transurane Neptunium, Plutonium, Americium, Curium, Berkelium, Californium, Einsteinium, Fermium, Mendelevium, Nobelium und Lawrencium. Im Sinne des Begriffs gehört Actinium nicht zu den Actiniumähnlichen, jedoch folgt die Nomenklatur der IUPAC hier dem praktischen Gebrauch. Die frühere Bezeichnung Actinide entspricht nicht dem Vorschlag der Nomenklaturkommission, da nach diesem die Endung „-id“ für binäre Verbindungen wie z. B. Chloride reserviert ist; die Bezeichnung ist aber weiterhin erlaubt. Alle Actinoide sind Metalle und werden auch als "Elemente der Actiniumreihe" bezeichnet. Entdeckung und Gewinnung. Im Jahr 1934 publizierte die deutsche Chemikerin Ida Noddack eine Arbeit über drei Lücken im Periodischen System der Elemente, die später mit den Elementen Francium, Astat und Promethium gefüllt wurden. Gleichsam nebenbei merkte sie an, dass es denkbar sei, dass "bei der Beschießung schwerer Kerne mit Neutronen diese Kerne in mehrere größere Bruchstücke zerfallen". Aber nicht nur das. Denkbar sei auch, dass Elemente mit Ordnungszahlen Z > 92, also Transurane, gebildet werden könnten. Tatsächlich synthetisierten Edwin M. McMillan und Philip H. Abelson erstmals im Jahr 1940 die ersten nicht in der Natur vorkommenden Actinoid-Nuklide 239U, 239Np und 239Pu durch Beschuss von Uran mit Neutronen. Da im Jahr 1940 noch kein Kernreaktor in Betrieb war, konnten die Neutronen nur aus einer Neutronenquelle stammen. Obwohl bei dieser Kernreaktion letztlich auch ein Plutonium-Isotop entsteht, konnte Plutonium wahrscheinlich wegen der geringen Ausbeute noch nicht nachgewiesen werden. Als Entdeckungsjahr von Plutonium gilt das Jahr 1941, wie die Tabelle "Entdeckung der Transurane" zeigt. Plutonium wurde von den US-Amerikanern Glenn T. Seaborg, J. W. Kennedy, E. M. McMillan, Michael Cefola und Arthur Wahl entdeckt. Ende 1940 stellten sie das Plutonium-Isotop 238Pu durch Beschuss des Uran-Isotops 238U mit Deuteronen her, die in einem Zyklotron beschleunigt worden waren. Nachdem der eindeutige Nachweis für das Element 94 erbracht worden war, erhielt es 1941 den Namen "Plutonium". Der Name lag nahe, da die beiden Vorgängerelemente nach den Planeten Uranus und Neptun benannt worden waren. Details über die Kernreaktionen sind im Artikel "Plutonium" nachzulesen. Damit eine Transmutation mit elektrisch geladenen Teilchen wie Deuteronen stattfinden kann, müssen diese Teilchen auf eine Energie beschleunigt werden, die ausreicht, um die Coulombbarriere von Urankernen zu überwinden oder diese zumindest zu durchtunneln. Das war erstmals mit einem Zyklotron möglich. Die erste wägbare Menge Plutonium von etwa 4 µg wurde 1942 isoliert. Ende 1942 wurde der erste Kernreaktor Chicago Pile in Betrieb genommen. Mit Kernreaktoren konnten vergleichsweise größere Mengen der Elemente Plutonium und Americium gewonnen werden, die als Targetmaterial dienten. In Verbindung mit geladenen Teilchen, mit beschleunigten α-Teilchen, wurden dann die Nuklide der Elemente Curium, Berkelium und Californium entdeckt. Der Vorteil des Verfahrens, der Beschuss beschleunigter geladener Teilchen auf leichtere Actinoide, ist, dass auch massereiche, neutronenarme Nuklide erhalten werden können, die durch eine Neutronenbestrahlung nicht gebildet werden. Das effektivste Verfahren, um synthetische Actinoide zu erzeugen, ist die Transmutation von Uran- oder Thorium-Nukliden im Kernbrennstoff eines Kernreaktors durch Neutroneneinfang oder (n,2n)-Reaktionen. Dieses Verfahren ist auf nicht allzu massereiche Actinoid-Nuklide beschränkt, etwa bis zu Massenzahlen von A = 252. Rechnerisch (s. u) werden meist nur Nuklide bis A < 248 einbezogen. Americium zum Beispiel wurde in einem Zweistufenprozess entdeckt. In der ersten Stufe werden synthetische Actinoide in einem Kernreaktor gebildet, zum Beispiel 239Pu. Plutonium wird nach Entnahme des Kernbrennstoffs durch Wiederaufarbeitung chemisch extrahiert. Dann wird das Plutonium erneut im Reaktor oder mittels einer Quelle mit Neutronen bestrahlt. Der seit Mitte der 1960er Jahre betriebene 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA ist auf die Herstellung von Transcuriumelementen (Z > 96) speziell ausgelegt. Die massereichen Elemente Einsteinium und Fermium wurden durch den Test der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll auf unsere Erde gebracht. Nur wenige Wochen später wurden sie im Lawrence Berkeley National Laboratory, das an der geheimen Waffentwicklung nicht beteiligt war, auf Filterpapieren und in Ablagerungen an Korallen völlig unerwartet entdeckt. Bei der Wasserstoffbombenexplosion waren bis zu 16 Neutronen von einem Kern von 238U eingefangen worden. Dieser Zwischenkern zerfiel sehr schnell über eine Kette von Betazerfällen in Nuklide der bis dahin unbekannten Elemente. Das Uran stammte aus der Ummantelung der Wasserstoffbombe, die aus fünf Tonnen Natururan bestand. Aus Gründen der militärischen Geheimhaltung durften die Ergebnisse zunächst nicht publiziert werden. Um sich dennoch die Priorität der Entdeckungen der beiden neuen Elemente zu sichern, wurden parallel erfolgreich Schwerionenreaktionen durchgeführt. 238U wurde mit 14N-Ionen, die an einem Zyklotron erzeugt wurden, bombardiert. Auf diesem Wege wurde zunächst Einsteinium synthetisiert und in der Publikation auf die Entdeckung von 1952 verwiesen. Ähnlich verfuhr man mit Fermium, das durch Beschuss mit 239Pu mit 14N-Ionen erzeugt wurde. Wie die Tabelle zeigt, führten Schwerionenreaktionen auch zu den Elementen Mendelevium, Nobelium und Lawrencium mit den Ordnungszahlen 101 bis 103. Mit Schwerionenreaktionen wurden auch die Elemente mit höheren Ordnungszahlen synthetisiert. Bildung und Gewinnung im Kernreaktor. Der Kernreaktor nimmt, was die Actinoide betrifft, nicht nur deshalb eine herausragende Stellung ein, weil er ohne Actinoide nicht betrieben werden könnte, sondern weil es nur innerhalb eines Kernreaktors möglich ist, größere wägbare Mengen von „höheren“ Actinoid-Nukliden zu bilden. Dieser Abschnitt beschreibt, welche Actinoid-Nuklide das sind und in welchem Massenanteil (relativ zur ursprünglichen Schwermetallmasse) sie gebildet werden. In einem Kernreaktor werden zu Beginn des Betriebs große Mengen von Actinoiden in Form von Kernbrennstoff eingebracht, zum Beispiel mit 235U angereichertes Uran. In einem Leistungsreaktor sind Actinoidmassen in der Größenordnung von 100 t enthalten. Aus diesem Kernbrennstoff werden neben der gewünschten Energiefreisetzung durch Kernspaltung synthetische „höhere“ Actinoide durch Transmutation erzeugt. Gelingt es bei der Wiederaufarbeitung nicht, diese zu entfernen, so haben Actinoide auf den meisten Zeitskalen den höchsten Anteil an der Radioaktivität des Atommülls. Dies liegt an der Tatsache, dass bei den Spaltprodukten eine „Lücke“ der Halbwertszeiten zwischen Caesium-135 und Strontium-90 im Bereich um dreißig Jahre und Technetium-99 im Bereich um hunderttausende Jahre besteht. Diese „Lücke“ wird aber (sofern sie vorhanden sind) von den Actinoiden „aufgefüllt“. Actinoid-Nuklide in einem Kernreaktor. Die Abbildung "Nuklidkarte: Bildung und Zerfall von Actinoiden in einem Kernreaktor" ist eine Nuklidkarte in der Anordnung nach Segrè. Das heißt, die Anzahl der Neutronen wird nach rechts zunehmend, die Anzahl der Protonen nach oben zunehmend aufgetragen. Um die Zeichnungsfläche sinnvoll zu nutzen, ist der Nuklidpfad am roten Punkt unterteilt. Jedes Quadrat der Abbildung stellt ein Actinoid-Nuklid dar, das in einem Kernreaktor auftreten kann. Die Abbildung zeigt auch das Netzwerk von Bildung und Zerfall von Actinoid-Nukliden, ausgelöst durch den Neutroneneinfang freier Neutronen und durch andere Kernreaktionen. Ein ähnliches Schema findet man in einer Arbeit aus dem Jahr 2014. Dort sind die Isotope von Thorium und Protactinium, die zum Beispiel in Salzschmelzenreaktoren eine große Rolle spielen, und die Isotope der Elemente Berkelium und Californium nicht enthalten. Die Bildung von Actinoid-Nukliden wird in erster Linie geprägt durch: Außer diesen neutronen- oder gammainduzierten Kernreaktionen wirkt sich auch die radioaktive Umwandlung der Actinoid-Nuklide auf den Nuklid-Bestand in einem Reaktor zu einem gegebenen Zeitpunkt (Abbrandzustand) aus. Diese Zerfallsarten sind in der Abbildung durch Diagonalpfeile markiert. Eine große Rolle für die Bilanz der Teilchendichten der Nuklide spielt der Beta-Minus-Zerfall, markiert mit aufwärts zeigenden Diagonalpfeilen. Die Quadrate der Nuklide dieses Zerfallstyps haben in der Nuklidkarte eine hellblaue Füllfarbe. Zwei Nuklide sind nur zum Teil betaaktiv. Das rosafarben hinterlegte Nuklid 236Np wandelt sich zu 86 % durch Elektroneneinfang und zu 14 % durch Beta-Minus-Zerfall (hellblaue Ecke) um. Ebenfalls zwei Zerfallsarten, aber in nahezu umgekehrtem Verhältnis (83 % Beta-Minus-Zerfall, 17 % Elektroneneinfang) zeigt auch der Grundzustand von 242Am (rosa Ecke). Dieses Nuklid besitzt außerdem einen langlebigen metastabilen Zustand (weiß hinterlegt), der in der Regel durch 242m1Am symbolisiert wird. Nuklide mit Positronen-Emissionen (Beta-Plus-Zerfälle) kommen in einem Kernreaktor nicht vor, da quasi ausschließlich Kerne mit Neutronenüberschuss bzw. „gerade genug“ Neutronen gebildet werden. Die Actinoid-Nuklide, die sich unter Aussendung von α-Teilchen spontan umwandeln, sind in der Nuklidkarte der Abbildung mit einer gelben Füllfarbe versehen worden. Der α-Zerfall spielt wegen der langen Halbwertszeiten (T1/2) bei Bildung und Zerfall der Actinoide während der Aufenthaltsdauer des Brennstoffs in einem Leistungsreaktor (max. ca. 3 Jahre) so gut wie keine Rolle. Ausnahmen sind die beiden relativ kurzlebigen Nuklide 242Cm (T1/2 = 163 d) und 236Pu (T1/2 = 2.9 a). Nur für diese beiden Fälle ist der α-Zerfall durch lange, abwärts zeigende Pfeile auf der Nuklidkarte markiert. Alle in der Abbildung angegebenen Halbwertszeiten sind die aktuellen evaluierten Nukleardaten NUBASE2012, abgerufen über den Nukleardaten-Viewer JANIS 4. Manche Halbwertszeiten sind gerundet. Zur Bedeutung von Abbrandprogrammen. Nur bei der ersten Inbetriebnahme des Reaktors kennt man die Zusammensetzung an Nukliden des Kernbrennstoffs genau. Es ist aber für jeden Zeitpunkt (Abbrandzustand) erforderlich, grundlegende physikalische Größen wie den Neutronenfluss zu kennen. Zu den grundlegenden physikalischen Größen gehören auch die Teilchendichten und "Massendichten" aller im Reaktor gebildeten Actinoid-Nuklide. Das betrifft sowohl die der anfangs eingebrachten (oder was davon noch vorhanden ist) als auch die der im Reaktorbetrieb gebildeten Nuklide. Die tatsächlichen Teilchendichten (und Massendichten) der Actinoid-Nuklide in Abhängigkeit vom Abbrand im laufenden Betrieb zu messen, ist nicht möglich. Erst nach der Entladung von Kernbrennstoff können diese Größen im Prinzip chemisch oder massenspektrometrisch untersucht werden. Die allermeisten Leistungs-Kernreaktoren erfordern zum Entfernen oder Hinzufügen von Brennstoff die komplette Abschaltung und anschließendes „wieder hoch fahren“. Bei Druckwasserreaktoren kommt hinzu, dass der Innendruck erst ab- und dann wieder aufgebaut werden muss. Das ist sehr aufwendig. Deshalb kommt einer Berechnung, die den Betriebsablauf eines Kernreaktors begleitet, ein hoher Stellenwert zu. Die Entwicklung der Teilchendichten (und Massendichten) von Nukliden in einem Kernreaktor wird in Abhängigkeit vom mittleren Abbrand (engl. Burnup, Depletion) vereinfacht in sog. Abbrandprogrammen berechnet, zum Beispiel: Für eine detaillierte Analyse werden hochkomplexe Reaktorprogrammsysteme "()" eingesetzt, deren Leistungsumfang weit über den der zuvor genannten Programme hinausgeht und deren Anwendung eine lange Einarbeitungszeit erfordert, zum Beispiel: In letzteren Programmsystemen sind neben der anfänglichen Materialzusammensetzung auch geometrische Details von Reaktorbauteilen (Zellen) vorzugeben. Von Zeit zu Zeit werden solche Rechnungen mit den Ergebnissen von chemischer und massenspektrometrischer Analyse von entladenem Kernbrennstoff verglichen und gegebenenfalls genauere Messungen noch unsicherer Nukleardaten oder genauere Berechnungsmethoden angestoßen. Entwicklung der Massen der Actinoide im Kernreaktor. Die Abbildung "Entwicklung der Massen der Actinoide ..." zeigt die Zu- oder Abnahme der Massen der 14 häufigsten Actinoid-Nuklide in einem Druckwasserreaktor, der mit angereichertem Uran betrieben wird. Die Zahlenwerte wurden für eine größere Brennstoff-Zelle in Abhängigkeit vom Abbrand (der spezifischen Energiefreisetzung) berechnet. Die Berechnungen wurden im Jahr 2005 mit dem Programmsystem HELIOS 1.8 ausgeführt. Als Anfangsanreicherung des Nuklids 235U wurde für dieses Beispiel 4 % gewählt. Die Punkte auf den Kurven der Abbildung markieren die Schrittweiten in der Abbrandrechnung. Die Schrittweite ist anfangs kleiner, um auch diejenigen Spaltprodukte genauer zu erfassen, die ihre Sättigung sehr schnell erreichen. Das trifft vor allem auf die starken Neutronenabsorber 135Xe (Näheres hierzu unter Xenonvergiftung) und 149Sm zu. Eine ähnliche Abbildung, eingeschränkt auf Uran- und Plutonium-Isotope, findet man im Lehrbuch "Neutron Physics" von Paul Reuss. Die Masse jedes Nuklids wird durch die anfangs eingesetzte Masse an Schwermetall, der Masse des Urans, geteilt. Dargestellt sind die Massenanteile aller Nuklide, die anfangs vorhanden waren (drei Uran-Nuklide) oder die mit einer Masse von mindestens 10 g pro eingesetzter Tonne Schwermetall nach einem Abbrand von maximal 80 MWd/kg gebildet werden. Wie die Abbildung zeigt, nehmen die Massen der drei anfangs vorhandenen Uranisotope 238U, 235U und 234U mit steigendem Abbrand monoton ab. Gleichzeitig nehmen die Massen der höheren Actinoide fast linear zu (man beachte die logarithmische Skalierung der Ordinate). Von allen synthetischen Actinoiden nimmt die Masse des Nuklids 239Pu am stärksten zu. Damit wächst auch die Anzahl der Spaltungen der Kerne des Nuklids 239Pu. Ab einem Abbrand von ca. 45 MWd/kg nimmt dessen Masse wieder geringfügig ab. Würde man die Ordinate nach unten auf einen Massenanteil von mindestens 1 g pro eingesetzter Tonne Schwermetall herabsetzen, kämen auf der Abbildung ab einem Abrand von ca. 45 MWd/kg das Nuklid 242m1Am und ab einem Abrand von ca. 60 MWd/kg das Nuklid 243Cm hinzu. Zusammengefasst: In einem Druckwasserreaktor mit Uran-Brennelementen (ohne MOX-Brennelemente) werden aus den ursprünglich vorhandenen Actinoid-Nukliden 235U und 238U (und einem geringen Anteil 234U) maximal 13 synthetische Actinoid-Nuklide innerhalb der üblichen Betriebszeiten gebildet, deren Anteil größer als 1 g je Tonne Startmasse Schwermetall (SM) ist, also 1 ppm. Das sind die Nuklide 236U, 237Np, 238Pu, 239Pu, 240Pu, 241Pu, 242Pu, 241Am, 242m1Am, 243Am, 242Cm, 243Cm und 244Cm. Nuklide der Elemente Berkelium und Californium werden in einem Kernreaktor ebenfalls, aber nur in sehr geringen Mengen gebildet. Die Actinoide können, wie erwähnt, durch chemische Aufarbeitung von entladenem Brennstoff extrahiert werden. Der Massenanteil von Curium zum Beispiel beträgt ca. 0,00024 bei einem Abbrand von 60 MWd/kg: wobei formula_3 die Masse des Curiums und formula_4 die Startmasse des Schwermetalls bedeuten. In einem Leistungsreaktor beträgt die anfängliche Schwermetallmasse ca. formula_5, verteilt auf 193 Brennelemente. Angenommen, alle Brennelemente seien entladen worden, die diesen Abbrandzustand erreicht haben. Folglich ist die Masse des Curiums Im gesamten Reaktor sind bei diesem mittleren Abbrand im Brennstoff ca. 24 kg Curium entstanden. Anzumerken ist, dass Leistungsreaktoren nicht betrieben werden, um Actinoide zu gewinnen, sondern um möglichst viele Actinoide zu spalten und Energie freizusetzen. Die Gesamtmasse aller Actinoide verringert sich durch Kernspaltung, und zwar bei einem mittleren Abbrand von 60 MWd/kg um insgesamt nur ca. 6 %. Diese findet sich im Wesentlichen in der Masse der Spaltprodukte wieder. Obwohl sämtliche freigesetzte Energie auf dem Massendefekt basiert, ist dessen Effekt auf die Gesamtmasse vernachlässigbar. Eigenschaften. Nukleare Eigenschaften. Die hervorgehobene Stellung der Actinoide, man denke an ihre Bedeutung zur nuklearen Energiefreisetzung und an Kernwaffen, werden durch die Eigenschaften ihrer Atomkerne determiniert. Klassische physikalische Eigenschaften. Einige physikalische Eigenschaften der Actinoid-Elemente findet man unter dem Stichwort der Namen der Elemente. Die Voraussetzung dafür, dass klassische physikalische Eigenschaften, zum Beispiel Kristallstruktur, Massendichte, Schmelzpunkt, Siedepunkt oder elektrische Leitfähigkeit gemessen werden können, ist es, dass das Element in wägbaren Mengen gewonnen werden kann. Die Anzahl der tatsächlich gemessenen physikalischen Eigenschaften nimmt mit wachsender Ordnungszahl des Elements schnell ab. Zum Beispiel ist Californium das letzte Actinoid-Element, von dem die Massendichte gemessen werden konnte. Zur Atomphysik der Actinoide ist anzumerken: Chemische Eigenschaften. Alle Actinoide bilden dreifach geladene Ionen, sie werden wie das Actinium als Untergruppe der 3. Nebengruppe aufgefasst. Die „leichteren“ Actinoide (Thorium bis Americium) kommen in einer größeren Anzahl von Oxidationszahlen vor als die entsprechenden Lanthanoide. Verbindungen. Die Eigenschaften beziehen sich auf das häufigste bzw. stabilste Isotop. Oxide. Die vierwertigen Oxide der Actinoide kristallisieren im kubischen Kristallsystem; der Strukturtyp ist der CaF2-Typ (Fluorit) mit der und den Koordinationszahlen "An"[8], O[4]. Halogenide. Die dreiwertigen Chloride der Actinoide kristallisieren im hexagonalen Kristallsystem. Die Struktur des Uran(III)-chlorids ist die Leitstruktur für eine Reihe weiterer Verbindungen. In dieser werden die Metallatome von je neun Chloratomen umgeben. Als Koordinationspolyeder ergibt sich dabei ein dreifach überkapptes, trigonales Prisma, wie es auch bei den späteren Actinoiden und den Lanthanoiden häufig anzutreffen ist. Es kristallisiert im hexagonalen Kristallsystem in der und zwei Formeleinheiten pro Elementarzelle.
101
100912
https://de.wikipedia.org/wiki?curid=101
Americium
Americium (; Elementsymbol Am) ist ein chemisches Element mit der Ordnungszahl 95. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Americium ist neben Europium das einzige nach einem Erdteil benannte Element. Es ist ein leicht verformbares radioaktives Metall silbrig-weißen Aussehens. Von Americium gibt es kein stabiles Isotop. Auf der Erde kommt es ausschließlich in künstlich erzeugter Form vor. Das Element wurde erstmals im Spätherbst 1944 erzeugt, die Entdeckung jedoch zunächst nicht veröffentlicht. Kurioserweise wurde seine Existenz in einer amerikanischen Radiosendung für Kinder durch den Entdecker Glenn T. Seaborg, den Gast der Sendung, der Öffentlichkeit preisgegeben. Americium wird in Kernreaktoren gebildet, eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 100 g des Elements. Es wird als Quelle ionisierender Strahlung eingesetzt, z. B. in der Fluoreszenzspektroskopie und in Ionisationsrauchmeldern. Das Americiumisotop 241Am wurde wegen seiner gegenüber Plutonium (238Pu) wesentlich längeren Halbwertszeit von 432,2 Jahren zur Befüllung von Radionuklidbatterien (RTG) für Raumsonden vorgeschlagen, welche dann hunderte Jahre lang elektrische Energie zum Betrieb bereitstellen würden. Geschichte. Americium wurde im Spätherbst 1944 von Glenn T. Seaborg, Ralph A. James, Leon O. Morgan und Albert Ghiorso im 60-Zoll-Cyclotron an der Universität von Kalifornien in Berkeley sowie am metallurgischen Laboratorium der Universität von Chicago (heute: Argonne National Laboratory) erzeugt. Nach Neptunium und Plutonium war Americium das vierte Transuran, das seit dem Jahr 1940 entdeckt wurde; das um eine Ordnungszahl höhere Curium wurde als drittes schon im Sommer 1944 erzeugt. Der Name für das Element wurde in Anlehnung zum Erdteil Amerika gewählt – in Analogie zu Europium, dem Seltene-Erden-Metall, das im Periodensystem genau über Americium steht: "The name americium (after the Americas) and the symbol Am are suggested for the element on the basis of its position as the sixth member of the actinide rare-earth series, analogous to europium, Eu, of the lanthanide series." Zur Erzeugung des neuen Elements wurden in der Regel die Oxide der Ausgangselemente verwendet. Dazu wurde zunächst Plutoniumnitratlösung (mit dem Isotop 239Pu) auf eine Platinfolie von etwa 0,5 cm2 aufgetragen; die Lösung danach eingedampft und der Rückstand dann zum Oxid (PuO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst, anschließend wieder mit einer konzentrierten wässrigen Ammoniaklösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst. Die weitere Trennung erfolgte mit Ionenaustauschern. In ihren Versuchsreihen wurden der Reihe nach vier verschiedene Isotope erzeugt: 241Am, 242Am, 239Am und 238Am. Als erstes Isotop isolierten sie 241Am aus einer Plutonium-Probe, die mit Neutronen bestrahlt wurde. Es zerfällt durch Aussendung eines α-Teilchens in 237Np. Die Halbwertszeit dieses α-Zerfalls wurde zunächst auf 510 ± 20 Jahre bestimmt; der heute allgemein akzeptierte Wert ist 432,2 a. Als zweites Isotop wurde 242Am durch erneuten Neutronenbeschuss des zuvor erzeugten 241Am gefunden. Durch nachfolgenden raschen β-Zerfall entsteht dabei 242Cm, das zuvor schon entdeckte Curium. Die Halbwertszeit dieses β-Zerfalls wurde zunächst auf 17 Stunden bestimmt, der heute als gültig ermittelte Wert beträgt 16,02 h. Erstmals öffentlich bekannt gemacht wurde die Entdeckung des Elements in der amerikanischen Radiosendung "Quiz Kids" am 11. November 1945 durch Glenn T. Seaborg, noch vor der eigentlichen Bekanntmachung bei einem Symposium der American Chemical Society: Einer der jungen Zuhörer fragte den Gast der Sendung, Seaborg, ob während des Zweiten Weltkrieges im Zuge der Erforschung von Nuklearwaffen neue Elemente entdeckt wurden. Seaborg bejahte die Frage und enthüllte dabei auch gleichzeitig die Entdeckung des nächsthöheren Elements, Curium. Americium (241Am und 242Am) und seine Produktion wurde später unter dem Namen "Element 95 and method of producing said element" patentiert, wobei als Erfinder nur Glenn T. Seaborg angegeben wurde. In elementarer Form wurde es erstmals im Jahr 1951 durch Reduktion von Americium(III)-fluorid mit Barium dargestellt. Vorkommen. Americiumisotope entstehen im r-Prozess in Supernovae und kommen auf der Erde wegen ihrer im Vergleich zum Alter der Erde zu geringen Halbwertszeit nicht natürlich vor. Heutzutage wird jedoch Americium als Nebenprodukt in Kernkraftwerken erbrütet; das Americiumisotop 241Am entsteht als Zerfallsprodukt (u. a. in abgebrannten Brennstäben) aus dem Plutoniumisotop 241Pu. Eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 100 g verschiedener Americiumisotope. Es handelt sich dabei hauptsächlich um die α-Strahler 241Am und 243Am, die aufgrund ihrer relativ langen Halbwertszeiten in der Endlagerung unerwünscht sind und deshalb zum Transuranabfall zählen. Eine Verminderung der Langzeitradiotoxizität in nuklearen Endlagern wäre durch Abtrennung langlebiger Isotope aus abgebrannten Kernbrennstoffen möglich. Zur Beseitigung des Americiums wird derzeit die Partitioning & Transmutation-Strategie untersucht. Gewinnung und Darstellung. Gewinnung von Americiumisotopen. Americium fällt in geringen Mengen in Kernreaktoren an. Es steht heute in Mengen von wenigen Kilogramm zur Verfügung. Durch die aufwändige Gewinnung aus abgebrannten Brennstäben hat es einen sehr hohen Preis. Seit der Markteinführung 1962 soll der Preis für Americium(IV)-oxid mit dem Isotop 241Am bei etwa 1500 US-Dollar pro Gramm liegen. Das Americiumisotop 243Am entsteht in geringeren Mengen im Reaktor aus 241Am und ist deshalb mit 160 US-Dollar pro Milligramm 243Am noch wesentlich teurer. Americium wird über das Plutoniumisotop 239Pu in Kernreaktoren mit hohem 238U-Anteil zwangsläufig erbrütet, da es aus diesem durch Neutroneneinfang und zwei anschließende β-Zerfälle (über 239U und 239Np) entsteht. Danach wird, wenn es nicht zur Kernspaltung kommt, aus dem 239Pu, neben anderen Nukliden, durch stufenweisen Neutroneneinfang (n,γ) und anschließenden β-Zerfall 241Am oder 243Am erbrütet. Das Plutonium, welches aus abgebrannten Brennstäben von Leistungsreaktoren gewonnen werden kann, besteht zu etwa 12 % aus dem Isotop 241Pu. Deshalb erreichen erst 70 Jahre, nachdem der Brutprozess beendet wurde, die abgebrannten Brennstäbe ihren Maximalgehalt von 241Am; danach nimmt der Gehalt wieder (langsamer als der Anstieg) ab. Aus dem so entstandenen 241Am kann durch weiteren Neutroneneinfang im Reaktor 242Am entstehen. Bei Leichtwasserreaktoren soll aus dem 241Am zu 79 % 242Am und zu 10 % 242"m"Am entstehen: zu 79 %: formula_5 zu 10 %: formula_6 Für die Erbrütung von 243Am ist ein vierfacher Neutroneneinfang des 239Pu erforderlich: Darstellung elementaren Americiums. Metallisches Americium kann durch Reduktion aus seinen Verbindungen erhalten werden. Zuerst wurde Americium(III)-fluorid zur Reduktion verwendet. Dieses wird hierzu in wasser- und sauerstofffreier Umgebung in Reaktionsapparaturen aus Tantal und Wolfram mit elementarem Barium zur Reaktion gebracht. Auch die Reduktion von Americium(IV)-oxid mittels Lanthan oder Thorium ergibt metallisches Americium. Eigenschaften. Im Periodensystem steht das Americium mit der Ordnungszahl 95 in der Reihe der Actinoide, sein Vorgänger ist das Plutonium, das nachfolgende Element ist das Curium. Sein Analogon in der Reihe der Lanthanoiden ist das Europium. Physikalische Eigenschaften. Americium ist ein radioaktives Metall. Frisch hergestelltes Americium ist ein silberweißes Metall, welches jedoch bei Raumtemperatur langsam matt wird. Es ist leicht verformbar. Sein Schmelzpunkt beträgt 1176 °C, der Siedepunkt liegt bei 2607 °C. Die Dichte beträgt 13,67 g·cm−3. Es tritt in zwei Modifikationen auf. Die bei Standardbedingungen stabile Modifikation α-Am kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 346,8 pm und "c" = 1124 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d. h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Bei hohem Druck geht α-Am in β-Am über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter "a" = 489 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Die Lösungsenthalpie von Americium-Metall in Salzsäure bei Standardbedingungen beträgt −620,6 ± 1,3 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (Δf"H"0) von Am3+(aq) auf −621,2 ± 2,0 kJ·mol−1 und des Standardpotentials Am3+ / Am0 auf −2,08 ± 0,01 V. Chemische Eigenschaften. Americium ist ein sehr reaktionsfähiges Element, das schon mit Luftsauerstoff reagiert und sich gut in Säuren löst. Gegenüber Alkalien ist es stabil. Die stabilste Oxidationsstufe für Americium ist +3, die Am(III)-Verbindungen sind gegen Oxidation und Reduktion sehr stabil. Mit dem Americium liegt der erste Vertreter der Actinoiden vor, der in seinem Verhalten eher den Lanthanoiden ähnelt als den d-Block-Elementen. Es ist auch in den Oxidationsstufen +2 sowie +4, +5, +6 und +7 zu finden. Je nach Oxidationszahl variiert die Farbe von Americium in wässriger Lösung ebenso wie in festen Verbindungen:Am3+ (gelbrosa), Am4+ (gelbrot), AmVO2+ (gelb), AmVIO22+ (zitronengelb), AmVIIO65− (dunkelgrün). Im Gegensatz zum homologen Europium – Americium hat eine zu Europium analoge Elektronenkonfiguration – kann Am3+ in wässriger Lösung nicht zu Am2+ reduziert werden. Verbindungen mit Americium ab Oxidationszahl +4 aufwärts sind starke Oxidationsmittel, vergleichbar dem Permanganat-Ion (MnO4−) in saurer Lösung. Die in wässriger Lösung nicht beständigen Am4+-Ionen lassen sich nur noch mit starken Oxidationsmitteln aus Am(III) darstellen. In fester Form sind zwei Verbindungen des Americiums in der Oxidationsstufe +4 bekannt: Americium(IV)-oxid (AmO2) und Americium(IV)-fluorid (AmF4). Der fünfwertige Oxidationszustand wurde beim Americium erstmals 1951 beobachtet. In wässriger Lösung liegen primär AmO2+-Ionen (sauer) oder AmO3−-Ionen (alkalisch) vor, die jedoch instabil sind und einer raschen Disproportionierung unterliegen: Zunächst ist von einer Disproportionierung zur Oxidationsstufe +6 und +4 auszugehen: Etwas beständiger als Am(IV) und Am(V) sind die Americium(VI)-Verbindungen. Sie lassen sich aus Am(III) durch Oxidation mit Ammoniumperoxodisulfat in verdünnter Salpetersäure herstellen. Der typische rosafarbene Ton verschwindet in Richtung zu einer starken Gelbfärbung. Zudem kann die Oxidation mit Silber(I)-oxid in Perchlorsäure quantitativ erreicht werden. In Natriumcarbonat- oder Natriumhydrogencarbonat-Lösungen ist eine Oxidation mit Ozon oder Natriumperoxodisulfat gleichfalls möglich. Biologische Aspekte. Eine biologische Funktion des Americiums ist nicht bekannt. Vorgeschlagen wurde der Einsatz immobilisierter Bakterienzellen zur Entfernung von Americium und anderen Schwermetallen aus Fließgewässern. So können Enterobakterien der Gattung "Citrobacter" durch die Phosphataseaktivität in ihrer Zellwand bestimmte Americiumnuklide aus wässriger Lösung ausfällen und als Metall-Phosphat-Komplex binden. Ferner wurden die Faktoren untersucht, die die Biosorption und Bioakkumulation des Americiums durch Bakterien und Pilze beeinflussen. Spaltbarkeit. Das Isotop 242"m"1Am hat mit rund 5700 barn den höchsten bisher (10/2008) gemessenen thermischen Spaltquerschnitt. Damit geht eine kleine kritische Masse einher, weswegen 242"m"1Am als Spaltmaterial vorgeschlagen wurde, um beispielsweise Raumschiffe mit Kernenergieantrieb anzutreiben. Dieses Isotop eignet sich prinzipiell auch zum Bau von Kernwaffen. Die kritische Masse einer reinen 242"m"1Am-Kugel beträgt etwa 9–14 kg. Die Unsicherheiten der verfügbaren Wirkungsquerschnitte lassen derzeit keine genauere Aussage zu. Mit Reflektor beträgt die kritische Masse noch etwa 3–5 kg. In wässriger Lösung wird sie nochmals stark herabgesetzt. Auf diese Weise ließen sich sehr kompakte Sprengköpfe bauen. Nach öffentlichem Kenntnisstand wurden bisher keine Kernwaffen aus 242"m"1Am gebaut, was mit der geringen Verfügbarkeit und dem hohen Preis begründet werden kann. Aus denselben Gründen wird 242"m"1Am auch nicht als Kernbrennstoff in Kernreaktoren eingesetzt, obwohl es dazu prinzipiell sowohl in thermischen als auch in schnellen Reaktoren geeignet wäre. Auch die beiden anderen häufiger verfügbaren Isotope, 241Am und 243Am können in einem schnellen Reaktor eine Kettenreaktion aufrechterhalten. Die kritischen Massen sind hier jedoch sehr hoch. Sie betragen unreflektiert 57,6–75,6 kg bei 241Am und 209 kg bei 243Am, so dass sich durch die Verwendung keine Vorteile gegenüber herkömmlichen Spaltstoffen ergeben. Entsprechend ist Americium rechtlich nach Abs. 1 des Atomgesetzes nicht den Kernbrennstoffen zugeordnet. Es existieren jedoch Vorschläge, sehr kompakte Reaktoren mit einem Americium-Inventar von lediglich knapp 20 g zu konstruieren, die in Krankenhäusern als Neutronenquelle für die Neutroneneinfangtherapie verwendet werden können. Isotope. Von Americium sind 16 Isotope und 11 Kernisomere mit Halbwertszeiten zwischen Bruchteilen von Mikrosekunden und 7370 Jahren bekannt. Es gibt zwei langlebige α-strahlende Isotope 241Am mit 432,2 und 243Am mit 7370 Jahren Halbwertszeit. Außerdem hat das Kernisomer 242"m"1Am mit 141 Jahren eine lange Halbwertszeit. Die restlichen Kernisomere und Isotope haben mit 0,64 µs bei 245"m"1Am bis 50,8 Stunden bei 240Am kurze Halbwertszeiten. 241Am ist das am häufigsten erbrütete Americiumisotop und liegt auf der Neptunium-Reihe. Es zerfällt mit einer Halbwertszeit von 432,2 Jahren mit einem α-Zerfall zu 237Np. 241Am gibt nur mit einer Wahrscheinlichkeit von 0,35 % die gesamte Zerfallsenergie mit dem α-Teilchen ab, sondern emittiert meistens noch ein oder mehrere Gammaquanten. 242Am ist kurzlebig und zerfällt mit einer Halbwertszeit von 16,02 h zu 82,7 % durch β-Zerfall zu 242Cm und zu 17,3 % durch Elektroneneinfang zu 242Pu. Das 242Cm zerfällt zu 238Pu und dieses weiter zu 234U, das auf der Uran-Radium-Reihe liegt. Das 242Pu zerfällt über die gleiche Zerfallskette wie 238Pu. Während jedoch 238Pu als Seitenarm beim 234U auf die Zerfallskette kommt, steht 242Pu noch vor dem 238U. 242Pu zerfällt durch α-Zerfall in 238U, den Beginn der natürlichen Uran-Radium-Reihe. 242"m"1Am zerfällt mit einer Halbwertszeit von 141 Jahren zu 99,541 % durch Innere Konversion zu 242Am und zu 0,459 % durch α-Zerfall zu 238Np. Dieses zerfällt zu 238Pu und dann weiter zu 234U, das auf der Uran-Radium-Reihe liegt. 243Am ist mit einer Halbwertszeit von 7370 Jahren das langlebigste Americiumisotop. Es geht zunächst durch α-Strahlung in 239Np über, das durch β-Zerfall weiter zu 239Pu zerfällt. Das 239Pu zerfällt durch α-Strahlung zu Uran 235U, dem offiziellen Anfang der Uran-Actinium-Reihe. Die Americiumisotope mit ungerader Neutronenzahl, also gerader Massenzahl, sind gut durch thermische Neutronen spaltbar. "→ Liste der Americiumisotope" Verwendung. Für die Verwendung von Americium sind vor allem die beiden langlebigsten Isotope 241Am und 243Am von Interesse. In der Regel wird es in Form des Oxids (AmO2) verwendet. Ionisationsrauchmelder. Die α-Strahlung des 241Am wird in Ionisationsrauchmeldern genutzt. Es wird gegenüber 226Ra bevorzugt, da es vergleichsweise wenig γ-Strahlung emittiert. Dafür muss aber die Aktivität gegenüber Radium ca. das Fünffache betragen. Die Zerfallsreihe von 241Am „endet“ für den Verwendungszeitraum quasi direkt nach dessen α-Zerfall bei 237Np, das eine Halbwertszeit von rund 2,144 Millionen Jahren besitzt. Radionuklidbatterien. 241Am wird wegen besserer Verfügbarkeit von der ESA zur Befüllung von Radionuklidbatterien (RTG) von Raumsonden untersucht. Der Leistungsabfall über eine Missionsdauer von 15 bis 20 Jahren ist mit 3,2 % deutlich geringer als bei Einheiten auf Basis von 238Pu mit 15 %. Die ESA plant, ab Mitte der 2020er Radionuklidbatterien in Missionsstudien zu berücksichtigen. Neutronenquellen. 241Am als Oxid mit Beryllium verpresst stellt eine Neutronenquelle dar, die beispielsweise für radiochemische Untersuchungen eingesetzt wird. Hierzu wird der hohe Wirkungsquerschnitt des Berylliums für (α,n)-Kernreaktionen ausgenutzt, wobei das Americium als Produzent der α-Teilchen dient. Die entsprechenden Reaktionsgleichungen lauten: Derartige Neutronenquellen kommen beispielsweise in der Neutronenradiographie und -tomographie zum Einsatz. Ionisator. Neben dem häufig verwendeten 210Po als Ionisator zur Beseitigung von unerwünschter elektrostatischer Aufladung kam auch 241Am zum Einsatz. Dazu wurde z. B. die Quelle am Kopf einer Bürste montiert mit der man langsam über die zu behandelnden Oberflächen strich und dadurch eine Wiederverschmutzung durch elektrostatisch angezogene Staubpartikel vermeiden konnte. Herstellung anderer Elemente. Americium ist Ausgangsmaterial zur Erzeugung höherer Transurane und auch der Transactinoide. Aus 242Am entsteht zu 82,7 % Curium (242Cm) und zu 17,3 % Plutonium (242Pu). Im Kernreaktor wird zwangsläufig in geringen Mengen durch Neutroneneinfang aus 243Am das 244Am erbrütet, das durch β-Zerfall zum Curiumisotop 244Cm zerfällt. In Teilchenbeschleunigern führt zum Beispiel der Beschuss von 241Am mit Kohlenstoffkernen (12C) beziehungsweise Neonkernen (22Ne) zu den Elementen Einsteinium 247Es beziehungsweise Dubnium 260Db. Spektrometer. Mit seiner intensiven Gammastrahlungs-Spektrallinie bei 60 keV eignet sich 241Am gut als Strahlenquelle für die Röntgen-Fluoreszenzspektroskopie. Dies wird auch zur Kalibrierung von Gammaspektrometern im niederenergetischen Bereich verwendet, da die benachbarten Linien vergleichsweise schwach sind und so ein einzeln stehender Peak entsteht. Zudem wird der Peak nur vernachlässigbar durch das Compton-Kontinuum höherenergetischer Linien gestört, da diese ebenfalls höchstens mit einer um mindestens drei Größenordnungen geringeren Intensität auftreten. Sicherheitshinweise und Gefahren. Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen, welche eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielt. Eine chemische Gefahr liegt überhaupt nur dann vor, wenn es sich um eine dafür relevante Stoffmenge handelt. Da von Americium nur radioaktive Isotope existieren, darf es selbst sowie seine Verbindungen nur in geeigneten Laboratorien unter speziellen Vorkehrungen gehandhabt werden. Die meisten gängigen Americiumisotope sind α-Strahler, weshalb eine Inkorporation unbedingt vermieden werden muss. Das breite Spektrum der hieraus resultierenden meist ebenfalls radioaktiven Tochternuklide stellt ein weiteres Risiko dar, das bei der Wahl der Sicherheitsvorkehrungen berücksichtigt werden muss. 241Am gibt beim radioaktiven Zerfall große Mengen relativ weicher Gammastrahlung ab, die sich gut abschirmen lässt. Nach Untersuchungen des Forschers Arnulf Seidel vom Institut für Strahlenbiologie des Kernforschungszentrums Karlsruhe erzeugt Americium (wie Plutonium), bei Aufnahme in den Körper, mehr Knochentumore als dieselbe Dosis Radium. Die biologische Halbwertszeit von 241Am beträgt in den Knochen 50 Jahre und in der Leber 20 Jahre. In den Gonaden verbleibt es dagegen offensichtlich dauerhaft. Verbindungen. "→ Kategorie: " Oxide. Von Americium existieren Oxide der Oxidationsstufen +3 (Am2O3) und +4 (AmO2). Americium(III)-oxid (Am2O3) ist ein rotbrauner Feststoff und hat einen Schmelzpunkt von 2205 °C. Americium(IV)-oxid (AmO2) ist die wichtigste Verbindung dieses Elements. Nahezu alle Anwendungen dieses Elements basieren auf dieser Verbindung. Sie entsteht unter anderem implizit in Kernreaktoren beim Bestrahlen von Urandioxid (UO2) bzw. Plutoniumdioxid (PuO2) mit Neutronen. Es ist ein schwarzer Feststoff und kristallisiert – wie die anderen Actinoiden(IV)-oxide – im kubischen Kristallsystem in der Fluorit-Struktur. Halogenide. Halogenide sind für die Oxidationsstufen +2, +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und in wässriger Lösung stabil. Americium(III)-fluorid (AmF3) ist schwerlöslich und kann durch die Umsetzung einer wässrigen Americiumlösung mit Fluoridsalzen im schwach Sauren durch Fällung hergestellt werden: Das tetravalente Americium(IV)-fluorid (AmF4) ist durch die Umsetzung von Americium(III)-fluorid mit molekularem Fluor zugänglich: In der wässrigen Phase wurde das vierwertige Americium auch beobachtet. Americium(III)-chlorid (AmCl3) bildet rosafarbene hexagonale Kristalle. Seine Kristallstruktur ist isotyp mit Uran(III)-chlorid. Der Schmelzpunkt der Verbindung liegt bei 715 °C. Das Hexahydrat (AmCl3·6 H2O) weist eine monokline Kristallstruktur auf. Durch Reduktion mit Na-Amalgam aus Am(III)-Verbindungen sind Am(II)-Salze zugänglich: die schwarzen Halogenide AmCl2, AmBr2 und AmI2. Sie sind sehr sauerstoffempfindlich, und oxidieren in Wasser unter Freisetzung von Wasserstoff zu Am(III)-Verbindungen. Chalkogenide und Pentelide. Von den Chalkogeniden sind bekannt: das Sulfid (AmS2), zwei Selenide (AmSe2 und Am3Se4) und zwei Telluride (Am2Te3 und AmTe2). Die Pentelide des Americiums (243Am) des Typs AmX sind für die Elemente Phosphor, Arsen, Antimon und Bismut dargestellt worden. Sie kristallisieren im NaCl-Gitter. Silicide und Boride. Americiummonosilicid (AmSi) und Americium„disilicid“ (AmSix mit: 1,87 < x < 2,0) wurden durch Reduktion von Americium(III)-fluorid mit elementaren Silicium im Vakuum bei 1050 °C (AmSi) und 1150–1200 °C (AmSix) dargestellt. AmSi ist eine schwarze Masse, isomorph mit LaSi. AmSix ist eine hellsilbrige Verbindung mit einem tetragonalen Kristallgitter. Boride der Zusammensetzungen AmB4 und AmB6 sind gleichfalls bekannt. Metallorganische Verbindungen. Analog zu Uranocen, einer Organometallverbindung in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Neptunium, Plutonium und auch des Americiums, (η8-C8H8)2Am, dargestellt.
102
1765216
https://de.wikipedia.org/wiki?curid=102
Atom
Atome (von „unteilbar“) sind die Bausteine, aus denen alle festen, flüssigen und gasförmigen Stoffe bestehen. Alle Materialeigenschaften dieser Stoffe sowie ihr Verhalten in chemischen Reaktionen werden durch die Eigenschaften und die räumliche Anordnung ihrer Atome festgelegt. Jedes Atom gehört zu einem bestimmten chemischen Element und bildet dessen kleinste Einheit. Zurzeit sind 118 Elemente bekannt, von denen etwa 90 auf der Erde natürlich vorkommen. Atome verschiedener Elemente unterscheiden sich in ihrer Größe und Masse und vor allem in ihrer Fähigkeit, mit anderen Atomen chemisch zu reagieren und sich zu Molekülen oder festen Körpern zu verbinden. Die Durchmesser von Atomen liegen im Bereich von 6 · 10−11 m (Helium) bis 5 · 10−10 m (Cäsium), ihre Massen in einem Bereich von 1,7 · 10−27 kg (Wasserstoff) bis knapp 5 ·10−25 kg (die derzeit schwersten synthetisch hergestellten Kerne). Atome sind nicht unteilbar, wie zum Zeitpunkt der Namensgebung angenommen, sondern zeigen einen wohlbestimmten Aufbau aus noch kleineren Teilchen. Sie bestehen aus einem Atomkern und einer Atomhülle. Der Atomkern hat einen Durchmesser von etwa einem Zehn- bis Hunderttausendstel des gesamten Atomdurchmessers, enthält jedoch über 99,9 Prozent der Atommasse. Er besteht aus positiv geladenen Protonen und einer Anzahl von etwa gleich schweren, elektrisch neutralen Neutronen. Diese Nukleonen sind durch die starke Wechselwirkung aneinander gebunden. Die Hülle besteht aus negativ geladenen Elektronen. Sie trägt mit weniger als 0,06 Prozent zur Masse bei, bestimmt jedoch die Größe des Atoms. Der positive Kern und die negative Hülle sind durch elektrostatische Anziehung aneinander gebunden. In der elektrisch neutralen Grundform des Atoms ist die Anzahl der Elektronen in der Hülle gleich der Anzahl der Protonen im Kern. Diese Zahl legt den genauen Aufbau der Hülle und damit auch das chemische Verhalten des Atoms fest und wird deshalb als "chemische Ordnungszahl" bezeichnet. Alle Atome desselben Elements haben die gleiche chemische Ordnungszahl. Sind zusätzliche Elektronen vorhanden oder fehlen welche, ist das Atom negativ bzw. positiv geladen und wird als Ion bezeichnet. Die Vorstellung vom atomaren Aufbau der Materie existierte bereits in der Antike, war jedoch bis in die Neuzeit umstritten. Der endgültige Nachweis konnte erst Anfang des 20. Jahrhunderts erbracht werden und gilt als eine der bedeutendsten Entdeckungen in Physik und Chemie. Einzelne Atome sind selbst mit den stärksten Lichtmikroskopen nicht zu erkennen. Eine direkte Beobachtung einzelner Atome ist erst seit Mitte des 20. Jahrhunderts mit Feldionenmikroskopen möglich, seit einigen Jahren auch mit Rastertunnelmikroskopen und hochauflösenden Elektronenmikroskopen. Die Atomphysik, die neben dem Aufbau der Atome auch die Vorgänge in ihrem Inneren und ihre Wechselwirkungen mit anderen Atomen erforscht, hat entscheidend zur Entwicklung der modernen Physik und insbesondere der Quantenmechanik beigetragen. Erforschungsgeschichte. Die Vorstellung vom atomaren Aufbau der Materie existierte bereits in der Antike, allerdings nur in Form von spekulativen philosophischen Überlegungen. Aufgrund ihrer extrem geringen Größe sind einzelne Atome selbst mit den stärksten Lichtmikroskopen nicht zu erkennen. Dennoch konnte Johann Loschmidt schon Mitte des 19. Jahrhunderts aufgrund makroskopischer Eigenschaften der Gase ungefähr abschätzen, wie groß und schwer ein solches hypothetisches Atom sein müsste. Noch Anfang des 20. Jahrhunderts war umstritten, ob es Atome wirklich gibt. Der endgültige Nachweis ihrer Existenz gilt als eine der bedeutendsten Entdeckungen in Physik und Chemie. Einen entscheidenden Beitrag lieferte Albert Einstein 1905, indem er die bereits seit langem bekannte, im Mikroskop direkt sichtbare Brownsche Bewegung kleiner Körnchen quantitativ dadurch erklärte, dass sie von zufällig gehäuften Stößen von Atomen oder Molekülen aus der Umgebung herrührte. Erst seit wenigen Jahrzehnten erlauben Feldionenmikroskope und Rastertunnelmikroskope, seit einigen Jahren zudem auch Elektronenmikroskope, einzelne Atome direkt zu beobachten. Philosophische Überlegungen. Das Konzept des Atomismus, nämlich dass Materie aus Grundeinheiten aufgebaut ist – „kleinsten Teilchen“, die nicht immer weiter in kleinere Stücke zerteilt werden können – existiert seit Jahrtausenden, genauso wie das Gegenkonzept, Materie sei ein beliebig teilbares Kontinuum. Doch diese Ideen beruhten zunächst ausschließlich auf philosophischen Überlegungen und nicht auf empirischer experimenteller Untersuchung. Dabei wurden den Atomen verschiedene Eigenschaften zugeschrieben, und zwar je nach Zeitalter, Kultur und philosophischer Schule sehr unterschiedliche. Eine frühe Erwähnung des Atomkonzepts in der Philosophie ist aus Indien bekannt. Die Nyaya- und Vaisheshika-Schulen entwickelten ausgearbeitete Theorien, wie sich Atome zu komplexeren Gebilden zusammenschlössen (erst in Paaren, dann je drei Paare). In der griechischen Philosophie ist die Atomvorstellung erstmals im 5. Jahrhundert v. Chr. bei Leukipp überliefert. Sein Schüler Demokrit systematisierte sie und führte den Begriff () ein, was etwa „das Unzerschneidbare“ bedeutet, also ein nicht weiter zerteilbares Objekt. Diese Bezeichnung wurde Ende des 18. Jahrhunderts für die damals hypothetischen kleinsten Einheiten der chemischen Elemente der beginnenden modernen Chemie übernommen, denn mit chemischen Methoden lassen sich Atome in der Tat nicht „zerschneiden“. Experimentell arbeitende Naturwissenschaftler machten sich Ende des 18. Jahrhunderts die Hypothese vom Atom zu eigen, weil diese Hypothese im Rahmen eines Teilchenmodells der Materie eine elegante Erklärung für neue Entdeckungen in der Chemie bot. Doch wurde gleichzeitig die gegenteilige Vorstellung, Materie sei ein Kontinuum, von Philosophen und auch unter Naturwissenschaftlern noch bis ins 20. Jahrhundert hinein aufrechterhalten. Naturwissenschaftliche Erforschung. Im Rahmen der wissenschaftlichen Erforschung konnte die Existenz von Atomen bestätigt werden. Es wurden viele verschiedene Atommodelle entwickelt, um ihren Aufbau zu beschreiben. Insbesondere das Wasserstoffatom als das einfachste aller Atome war dabei wichtig. Einige der Modelle werden heute nicht mehr verwendet und sind nur von wissenschaftsgeschichtlichem Interesse. Andere gelten je nach Anwendungsbereich als noch heute brauchbare Näherung. In der Regel wird das einfachste Modell genommen, welches im gegebenen Zusammenhang noch ausreicht, um die auftretenden Fragen zu klären. Viele der im Folgenden genannten Entdeckungen (sofern nach 1900) wurden mit dem Nobelpreis für Physik oder Chemie ausgezeichnet. Bestätigung der Atomhypothese. Robert Boyle vertrat 1661 in seinem Werk "The Sceptical Chymist" die Meinung, die Materie sei aus diversen Kombinationen verschiedener "corpuscules" aufgebaut und nicht aus den vier Elementen der Alchemie: Wasser, Erde, Feuer, Luft. Damit bereitete er die Überwindung der Alchemie durch den Element- und Atombegriff der modernen Chemie vor. Daniel Bernoulli zeigte 1740, dass der gleichmäßige Druck von Gasen auf die Behälterwände, insbesondere das Gesetz von Boyle und Mariotte, sich durch zahllose Stöße kleinster Teilchen erklären lässt. Damit wurde seine Forschung zum Vorläufer der kinetischen Gastheorie und statistischen Mechanik. Ab Ende des 18. Jahrhunderts wurde die Vorstellung von Atomen genutzt, um die wohlbestimmten Winkel an den Kanten und Ecken der Edelsteine auf die verschiedenen möglichen Schichtungen von harten Kugeln zurückzuführen. Nachdem Antoine Lavoisier 1789 den heutigen Begriff des chemischen Elements geprägt und die ersten Elemente richtig identifiziert hatte, benutzte 1803 John Dalton das Atomkonzept, um zu erklären, wieso Elemente immer in Mengenverhältnissen kleiner ganzer Zahlen miteinander reagieren (Gesetz der multiplen Proportionen). Er nahm an, dass jedes Element aus gleichartigen Atomen besteht, die sich nach festen Regeln miteinander verbinden können und so Stoffe mit anderen Materialeigenschaften bilden. Außerdem ging er davon aus, dass alle Atome eines Elements die gleiche Masse hätten, und begründete damit den Begriff Atomgewicht. Die Beobachtungen zum chemischen und physikalischen Verhalten von Gasen konnte Amedeo Avogadro 1811 dahingehend zusammenfassen, dass zwei ideale Gase bei gleichen Werten von Volumen, Druck und Temperatur des Gases immer aus gleich vielen identischen Teilchen („Molekülen“) bestehen. Die Moleküle bestehen bei elementaren Gasen wie Wasserstoff, Sauerstoff oder Stickstoff immer aus zwei Atomen des Elements (Avogadrosches Gesetz). 1866 konnte Johann Loschmidt die Größe des einzelnen Luftmoleküls bestimmen, indem er mit einer von James C. Maxwell aus der kinetischen Gastheorie gewonnenen Formel die von George Stokes gemessenen Werte für die innere Reibung in Luft auswertete. Damit konnte er auch das Gewicht bzw. die Masse eines Luftmoleküls bestimmen. Außerdem erhielt er die nach ihm benannte Loschmidtsche Zahl als Anzahl der Luftmoleküle pro Kubikzentimeter (unter Normalbedingungen). Infolge der Arbeiten von Avogadro und Stanislao Cannizzaro wurde angenommen, dass Atome nicht als einzelne Teilchen auftreten, sondern nur als Bestandteile von Molekülen aus mindestens zwei Atomen. Doch 1876 gelang August Kundt und Emil Warburg der erste Nachweis eines einatomigen Gases. Sie bestimmten den Adiabatenexponenten von Quecksilber-Dampf bei hoher Temperatur und erhielten einen Wert, wie er nach der kinetischen Gastheorie nur für Teilchen in Gestalt echter Massepunkte auftreten kann. Ab 1895 kamen entsprechende Beobachtungen an den neu entdeckten Edelgasen hinzu. Nach Erscheinen seiner Dissertation über die Bestimmung von Moleküldimensionen schlug Albert Einstein im selben Jahr 1905 ein Experiment vor, um die Hypothese von der Existenz der Atome anhand der Zitterbewegung kleiner Partikel in Wasser quantitativ zu prüfen. Nach seiner Theorie müssten die Partikel aufgrund der Unregelmäßigkeit der Stöße durch die Wassermoleküle kleine, aber immerhin unter dem Mikroskop sichtbare Bewegungen ausführen. Es war Einstein dabei zunächst nicht bekannt, dass er damit die seit 1827 bekannte Brownsche Bewegung von Pollen quantitativ erklärt hatte, für deren Ursache schon 1863 Christian Wiener erstmals Molekularstöße angenommen hatte. Nach Einsteins Formeln hängt die Stärke der Zitterbewegung von der Masse der stoßenden Moleküle ab, und auf dieser Grundlage bestimmte der französische Physiker Jean Perrin die Molekülmasse experimentell und fand ähnliche Ergebnisse wie Loschmidt. Diese Arbeiten trugen entscheidend zur allgemeinen Anerkennung der bis dahin so genannten „Atomhypothese“ bei. Teilbarkeit und Aufbau der Atome. Joseph John Thomson entdeckte 1897, dass die Kathodenstrahlen aus Teilchen bestimmter Ladung und Masse bestehen und dass deren Masse kleiner als ein Tausendstel der Atommasse ist. Diese Teilchen wurden als "Elektronen" bezeichnet und erwiesen sich als ein Bestandteil aller Materie, was dem Konzept des Atoms als unzerteilbarer Einheit widersprach. Thomson glaubte, dass die Elektronen dem Atom seine Masse verliehen und dass sie im Atom in einem masselosen, positiv geladenen Medium verteilt seien wie „Rosinen in einem Kuchen“ (Thomsonsches Atommodell). Die kurz zuvor von Henri Becquerel entdeckte Radioaktivität wurde von Marie Curie als eine Strahlung direkt aus den einzelnen Atomen angesehen und 1903 von Ernest Rutherford und Frederick Soddy mit Umwandlungen verschiedener Atomsorten ineinander in Verbindung gebracht. Ein solcher Prozess widersprach aber der in der Chemie erfolgreichen Grundannahme, die Atome seien unveränderlich. Rutherford und Soddy konnten 1908 nachweisen, dass aus den α-Teilchen, die die Alphastrahlung bilden, Helium-Atome werden. Zusammen mit seiner Forschergruppe beschoss Ernest Rutherford 1909 eine Goldfolie mit α-Teilchen. Er stellte fest, dass die meisten der Teilchen die Folie fast ungehindert durchdrangen, einige wenige aber um sehr viel größere Winkel abgelenkt wurden als nach Thomsons Modell möglich wäre. Rutherford schloss daraus, dass fast die ganze Masse des Atoms in einem sehr viel kleineren, elektrisch geladenen Volumen in der Mitte des Atoms konzentriert sei und schuf damit die grundlegende Vorstellung vom Aufbau des Atoms aus Atomkern und Atomhülle. Dies Rutherfordsche Atommodell ist seither gültig. Die stark abgelenkten α-Teilchen waren diejenigen, die einem Kern zufällig näher als etwa ein Hundertstel des Atomradius gekommen waren. Die Ladungszahl des Atomkerns entpuppte sich als die chemische Ordnungszahl des betreffenden Elements, und α-Teilchen erwiesen sich als die Atomkerne des Heliums. Der Chemiker Frederick Soddy stellte 1911 fest, dass manche der natürlichen radioaktiven Elemente aus Atomen mit unterschiedlichen Massen und unterschiedlicher Radioaktivität bestehen mussten. Der Begriff Isotop für physikalisch verschiedene Atome desselben chemischen Elements wurde 1913 von Margaret Todd vorgeschlagen. Da die Isotope desselben Elements an ihrem chemischen Verhalten nicht zu unterscheiden waren, entwickelte der Physiker J.J. Thomson ein erstes Massenspektrometer zu ihrer physikalischen Trennung. Damit konnte er 1913 am Beispiel von Neon nachweisen, dass es auch stabile Elemente mit mehreren Isotopen gibt. 1918 fand Francis William Aston mit einem Massenspektrometer von erheblich größerer Genauigkeit heraus, dass fast alle Elemente Gemische aus mehreren Isotopen sind, wobei die Massen der einzelnen Isotope immer (nahezu) ganzzahlige Vielfache der Masse des Wasserstoffatoms sind. Rutherford wies 1919 in der ersten beobachteten Kernreaktion nach, dass durch Beschuss mit α-Teilchen aus den Kernen von Stickstoffatomen die Kerne von Wasserstoffatomen herausgeschossen werden können. Diesen gab er den Namen Proton und entwickelte ein Atommodell, in dem die Atome nur aus Protonen und Elektronen bestehen, wobei die Protonen und ein Teil der Elektronen den kleinen, schweren Atomkern bilden, die übrigen Elektronen die große, leichte Atomhülle. Die Vorstellung von Elektronen im Atomkern stellte sich jedoch als problematisch heraus und wurde 1932 endgültig fallengelassen, nachdem von James Chadwick das Neutron als ein neutraler Kernbaustein mit etwa gleicher Masse wie das Proton nachgewiesen wurde. Damit entstand das heutige Atommodell: Der Atomkern ist zusammengesetzt aus so vielen Protonen, wie die Ordnungszahl angibt, und zusätzlich so vielen Neutronen, dass die betreffende Isotopenmasse erreicht wird; die Atomhülle besteht aus so vielen Elektronen, dass das ganze Atom neutral wird. Aufbau der Atomhülle. Die beobachteten Eigenschaften (wie Größe, Stabilität, Reaktionsweisen, Absorption und Emission von Licht) der Atomhülle konnten im Rahmen der klassischen Physik keine Erklärung finden. Erst unter Einbeziehung von neuartigen Quantisierungsregeln mithilfe der Planck-Konstante konnte Niels Bohr 1913 erklären, wie es in den optischen Spektren reiner Elemente zu den Spektrallinien kommt, die für das jeweilige Element absolut charakteristisch sind (Spektralanalyse nach Robert Wilhelm Bunsen und Gustav Robert Kirchhoff 1859). Im Franck-Hertz-Versuch konnte die quantisierte Energieaufnahme und -abgabe an Quecksilberatomen experimentell bestätigt werden. Das Bohrsche Atommodell war zwar nur für Systeme mit lediglich einem Elektron (damals nur Wasserstoff und ionisiertes Helium) gültig, bildete jedoch im Laufe des folgenden Jahrzehnts das Fundament für eine Reihe von Verfeinerungen. Sie führten im Schalenmodell zu einem ersten Verständnis des Aufbaus der Elektronenhüllen aller Elemente und damit auch zum physikalischen Verständnis des chemischen Periodensystems. Damit wurde das Bohrsche Atommodell zur Grundlage des populären Bildes vom Atom als einem kleinen Planetensystem. 1925 entwickelte Werner Heisenberg zusammen mit Max Born, Pascual Jordan, Wolfgang Pauli u. a. die Matrizenmechanik. 1926 ersetzte Erwin Schrödinger die Quantisierungsregeln durch seine Wellenmechanik. Sie beschreibt die Elektronen nicht als Massenpunkte auf bestimmten ebenen Bahnen, sondern als in drei Dimensionen ausgedehnte stehende Materiewelle. Beide Formen einer neuen „Quantenmechanik“ konnten das Spektrum des Wasserstoffatoms richtig erklären. Als Folge dieser Beschreibungen ist es unter anderem unzulässig, einem Elektron gleichzeitig genaue Werte für Ort und Impuls zuzuschreiben. Dieser Sachverhalt wurde 1927 von Heisenberg in der Unschärferelation formuliert. Demnach können statt der Bewegung auf bestimmten Bahnen nur "Wahrscheinlichkeitsverteilungen" für Wertebereiche von Ort und Impuls angegeben werden, eine Vorstellung, die nur schwer zu veranschaulichen ist. Den quantisierten Umlaufbahnen des Bohrschen Modells entsprechen hier „Atomorbitale“. Sie geben unter anderem an, wie sich in der Nähe des Atomkerns die Aufenthaltswahrscheinlichkeit der Elektronen konzentriert, und bestimmen damit die wirkliche Größe des Atoms. Die Beschreibung der Eigenschaften der Atome gelang mit diesen ersten vollständig quantenmechanischen Atommodellen sehr viel besser als mit den Vorläufermodellen. Insbesondere ließen sich auch bei Atomen mit mehreren Elektronen die Spektrallinien und die Struktur der Atomhülle in räumlicher und energetischer Hinsicht darstellen, einschließlich der genauen Möglichkeiten, mit den Atomhüllen anderer Atome gebundene Zustände zu bilden, also die aus der Chemie bekannten stabilen Moleküle. Daher wurde das Bohrsche Atommodell zugunsten des quantenmechanischen Orbitalmodells des Atoms verworfen. Das Orbitalmodell ist bis heute Grundlage und Ausgangspunkt genauer quantenmechanischer Berechnungen fast aller Eigenschaften der Atome. Das Orbitalmodell bei einem Atom mit mehr als einem Elektron ist physikalisch als eine Näherung zu bezeichnen, nämlich als eine Ein-Teilchen-Näherung, die jedem einzelnen Elektron ein bestimmtes Orbital zuschreibt. Ein so gebildeter Zustand des Atoms wird als Konfiguration bezeichnet und gehört in der Quantenmechanik zu der einfachsten Art von Mehrteilchenzuständen. Genauere Modelle berücksichtigen, dass nach den Regeln der Quantenmechanik die Hülle auch in einem Zustand sein kann, der durch Superposition verschiedener Konfigurationen entsteht, wo also mit verschiedenen Wahrscheinlichkeitsamplituden gleichzeitig verschiedene Elektronenkonfigurationen vorliegen (Konfigurationsmischung). Hiermit werden die genauesten Berechnungen von Energieniveaus und Wechselwirkungen der Atome möglich. Wegen des dazu nötigen mathematischen Aufwands werden jedoch, wo es möglich ist, auch weiterhin einfachere Atommodelle genutzt. Zu nennen ist hier neben dem Schalenmodell unter anderen das Thomas-Fermi-Modell, in dem die Elektronenhülle pauschal wie ein im Potentialtopf gebundenes ideales Elektronengas („Fermigas“) behandelt wird, dessen Dichte wiederum zusammen mit der Kernladung die Form des elektrostatischen Potentialtopfs bestimmt. Aufbau des Atomkerns. Zur Entdeckung des Atomkerns und seiner Zusammensetzung aus Protonen und Neutronen siehe den Abschnitt „Teilbarkeit und Aufbau der Atome“ oben. Hier folgen Stichworte zur Erforschung weiterer Eigenschaften der Kerne. Bindungsenergie. Die Bindungsenergie der Nukleonen ist Ursache der hohen Energie der Quanten der radioaktiven Strahlung. Sie übersteigt die chemische Bindungsenergie von Molekülen um fünf bis sechs Größenordnungen. Ab 1935 war hierbei erstmals eine grobe Modellvorstellung erfolgreich, das Tröpfchenmodell von C.F. von Weizsäcker und Hans Bethe. Damit wurde für Kerne ab etwa 10 Nukleonen die anfängliche Zunahme der mittleren Bindungsenergie bis etwa formula_1 durch die wachsende Anzahl erklärt, in der die Nukleonen sich aufgrund der eigentlichen Kernkräfte mit ihren jeweiligen Nachbarn binden, und danach die Abnahme der mittleren Bindungsenergie aufgrund der zunehmenden elektrostatischen Abstoßung, die alle Protonen untereinander betrifft. Kernfusion und Kernspaltung. Da das Maximum der mittleren Bindungsenergie bei mittelschweren Kernen liegt, bedeutet es Energiefreisetzung sowohl, wenn sehr leichte Kerne fusionieren, als auch wenn sehr schwere Kerne spalten. Die Fusion von Wasserstoff zu Helium wurde 1938 als Energiequelle der Sterne identifiziert. Die Spaltung nach Neutroneneinfang wurde erstmals 1938 an Urankernen (des Isotops U-235) durch Otto Hahn und Fritz Strassmann nachgewiesen. Danach wurde die Kernforschung erheblich intensiviert und führte 1945 zu den ersten Atombomben, 1952 den Wasserstoffbomben und ab Mitte der 1950er Jahre zur Nutzung der Atomenergie zur Energieversorgung. Schalenmodell und vereinheitlichtes Modell. Sehr viel detaillierter als das Tröpfchenmodell ist das 1949 von J.H.D. Jensen und Maria Goeppert-Mayer aufgestellte Schalenmodell der Kerne. Ähnlich wie das Schalenmodell der Atome nimmt es für je ein Nukleon ein bestimmtes Orbital in einem gemeinsamen kugelsymmetrischen Potentialtopf an. Damit kann eine Fülle von Daten über die Grundzustände und angeregten Zustände der Kerne erklärt werden, zum Beispiel ihr Kernspin, ihr magnetisches Dipol- und elektrisches Quadrupolmoment, sowie über ihre Zerfalls- und Reaktionsweisen. Aage Bohr, Ben Mottelson und James Rainwater gelang es Anfang der 1960er Jahre, dies Einzelteilchenmodell mit den Aspekten kollektiver Bewegung zu verbinden, womit auch die Abweichungen von der Kugelgestalt in bestimmten Bereichen der Nukleonenzahlen verständlich wurden. Ursprung der Kernkräfte. Die kurzreichweitigen Kernkräfte konnten in den 1970er Jahren auf die Starke Wechselwirkung zwischen Quarks zurückgeführt werden. Aufbau von Proton und Neutron. Ab den 1950er Jahren konnten Atome und vor allem die Atomkerne durch die Entwicklung verbesserter Teilchenbeschleuniger und Teilchendetektoren beim Beschuss mit Teilchen sehr hoher Energie untersucht werden. Ende der 1960er Jahre zeigte sich in der „tiefinelastischen Streuung“ von Elektronen an Atomkernen, dass auch Neutronen und Protonen keine unteilbaren Einheiten sind, sondern aus Quarks zusammengesetzt sind. Einige fortgeschrittene Experimente mit Atomen. 1951 entwickelte Erwin Müller das Feldionenmikroskop und konnte damit von einer Nadelspitze erstmals ein Abbild erzeugen, das auf direkte Weise so stark vergrößert war, dass einzelne Atome darin sichtbar wurden (wenn auch nur als verschwommene Flecken). 1953 entwickelte Wolfgang Paul die magnetische Ionenfalle (Paulfalle), in der einzelne Ionen gespeichert und mit immer höherer Genauigkeit untersucht werden können. Hier kann ein einzelnes Atom auch durch sein Fluoreszenzlicht direkt visuell sichtbar gemacht und fotografiert werden. 1985 entwickelte eine Arbeitsgruppe um Steven Chu die Laserkühlung, ein Verfahren, die Temperatur einer Ansammlung von Atomen mittels Laser­strahlung stark zu verringern. Im selben Jahr gelang es einer Gruppe um William D. Phillips, neutrale Natriumatome in einer magneto-optischen Falle einzuschließen. Durch Kombination dieser Verfahren mit einer Methode, die den Dopplereffekt nutzt, gelang es einer Arbeitsgruppe um Claude Cohen-Tannoudji, geringe Mengen von Atomen auf Temperaturen von einigen Mikrokelvin zu kühlen. Mit diesem Verfahren können Atome mit höchster Genauigkeit untersucht werden; außerdem ermöglichte es auch die experimentelle Realisierung der Bose-Einstein-Kondensation. Anfang der 1980er Jahre wurde von Gerd Binnig und Heinrich Rohrer das Rastertunnelmikroskop entwickelt, in dem eine Nadelspitze eine Oberfläche mittels des Tunneleffekts so fein abtastet, dass einzelne Atome sichtbar werden. Damit wurde es auch möglich, Atome einzeln an bestimmte Plätze zu setzen. In den 1990er Jahren konnten Serge Haroche und David Wineland in Experimenten die Wechselwirkung eines einzelnen Atoms mit einem einzelnen Photon erfolgreich untersuchen. In den 2000er Jahren wurde die Handhabbarkeit einzelner Atome unter anderem genutzt, um einen Transistor aus nur einem Metallatom mit organischen Liganden herzustellen. Seit Ende der 1980er Jahre werden durch Vielfachanregung mit einem Laserimpuls Rydberg-Atome erzeugt. In einem Rydberg-Atom ist ein Elektron in einem so hohen Energiezustand angeregt, dass es den Atomkern, teilweise auch den gesamten Atomrumpf, bestehend aus dem Atomkern und den restlichen Elektronen, in weitem Abstand umkreist und sein Verhalten sich damit dem eines klassischen Teilchens nähert. Rydberg-Atome können über 100.000-mal größer sein als nicht angeregte Atome. Da sie extrem empfindlich auf äußere Felder reagieren, kann man mit ihnen z. B. die Wechselwirkung eines einzelnen Atoms mit einem einzelnen Photon im Detail untersuchen. Sind zwei oder mehr Elektronen in solchen Zuständen angeregt, spricht man von planetarischen Atomen. Klassifizierung. Elemente, Isotope, Nuklide. Die Unterscheidung und Bezeichnung verschiedener Atomsorten geht zunächst vom Aufbau des Atomkerns aus, während der Zustand der Hülle gegebenenfalls durch zusätzliche Symbole angegeben wird. Kennzahlen sind die Protonenzahl (Ordnungszahl, Kernladungszahl) "Z", die Neutronenzahl "N" des Kerns, und die daraus gebildete Massenzahl "A=Z+N". Je nach ihrer Protonenzahl gehören die Atome zu einem der 118 bekannten chemischen Elemente, von Wasserstoff mit "Z"=1 bis Oganesson mit "Z"=118. Davon sind 91 in natürlichen Vorkommen entdeckt worden, 27 nur nach künstlicher Herstellung durch Kernreaktionen. Die Ordnung der Elemente wird im Periodensystem – wichtig für die Chemie – graphisch veranschaulicht. Darin werden die Elemente mit aufsteigender Ordnungszahl in Form einer Tabelle angeordnet. Jede Zeile wird als Periode des Periodensystems bezeichnet und endet, wenn das jeweilige Orbital mit Elektronen voll besetzt ist (Edelgas). In den nächsten Zeilen wiederholt sich aufgrund der schrittweisen Elektronenbesetzung der nächsten Orbitale der chemische Charakter der Elemente. So stehen Elemente mit ähnlichen chemischen Eigenschaften in einer Spalte untereinander; sie bilden eine Gruppe des Periodensystems. Atome eines Elements, die sich in der Neutronenzahl unterscheiden, gehören zu verschiedenen Isotopen des Elements. Insgesamt bestehen die 118 Elemente aus etwa 2800 Isotopen, wovon 2500 künstlich erzeugt wurden. Isotope werden nach dem chemischen Element und der Massenzahl bezeichnet. Für die schwereren Wasserstoffisotope gibt es die speziellen Namen „Deuterium“ und „Tritium“. Das Symbol für ein bestimmtes Isotop des Elements formula_2 hat die Form formula_3, formula_4 oder X-"A" (Beispiele: formula_5, formula_6, Pb-208). Die Angabe der Protonenzahl "Z" ist redundant, da sie schon durch die Ordnungszahl des Elements formula_2 gegeben ist. Nuklid ist die ganz allgemeine Bezeichnung für Atomarten, unabhängig davon, ob sie zum gleichen Element gehören oder nicht. Die Nuklidkarte oder Isotopenkarte – wichtig für die Kernphysik und ihre Anwendungen – ist eine Tabelle, in der jede Atomart einen eigenen Platz erhält. Dazu wird auf einer Achse die Anzahl der Protonen, auf der anderen die der Neutronen aufgetragen. Häufig wird die Stabilität und bei instabilen Nukliden auch die Art der Umwandlung oder die Größenordnung der Halbwertszeit durch bestimmte Farben und gegebenenfalls auch Teilung des dem Isotop zugewiesenen Platzes dargestellt. Stabile und instabile (radioaktive) Atome. Der Atomkern eines Nuklids formula_8 kann entweder im energetischen Grundzustand oder in einem der verschiedenen Anregungszustände vorliegen. Wenn darunter relativ langlebige, sogenannte metastabile Zustände sind, werden diese als Isomere bezeichnet und als eigene Nuklide gezählt (Symbol formula_9, formula_10 o. ä.). Nach dieser Definition sind mit dem Stand von 2003 insgesamt etwa 3200 Nuklide bekannt. In der Kernphysik werden Nuklide mit unterschiedlichen Protonenzahlen, aber gleicher Massenzahl formula_11 als Isobare bezeichnet. Seltener werden unter dem Namen Isotone Nuklide mit verschiedenen Protonenzahlen, aber gleicher Neutronenzahl zusammengefasst. Nur etwa 250 Isotope von 80 Elementen haben einen stabilen Kern. Alle anderen Atome sind instabil und wandeln sich über kurz oder lang in Atome eines stabilen Isotops um. Da sie dabei im Allgemeinen ionisierende Strahlung erzeugen, heißen sie auch Radioisotope oder Radionuklide. Auf der Erde wurden in den natürlichen Vorkommen neben allen 250 stabilen Isotopen 30 Radioisotope gefunden, die sich auf 10 radioaktive Elemente verteilen und die natürliche Radioaktivität verursachen. Viele weitere kurzlebige Isotope existieren im Inneren von Sternen, insbesondere während der Supernova-Phase. Seltene und theoretische Formen. Als Rydberg-Atom wird ein Atom bezeichnet, in dem ein Elektron in einem so hohen Energiezustand angeregt ist, dass es den Atomkern, teilweise auch den gesamten Atomrumpf, bestehend aus dem Atomkern und den restlichen Elektronen, in weitem Abstand umkreist und sein Verhalten damit dem eines klassischen Teilchens ähnelt. Rydberg-Atome können über 100.000-mal größer sein als nicht angeregte Atome. Da sie extrem empfindlich auf äußere Felder reagieren, kann man mit ihnen z. B. die Wechselwirkung mit einem einzelnen Photon im Detail untersuchen. Sind zwei oder mehr Elektronen in solchen Zuständen angeregt, spricht man von planetarischen Atomen. Im teils übertragenen Sinn werden als exotische Atome auch solche Systeme bezeichnet, die in physikalischer Hinsicht gewisse Ähnlichkeiten zu den gewöhnlichen Atomen aufweisen. In ihnen kann z. B. eines der Protonen, Neutronen oder Elektronen durch ein anderes Teilchen derselben Ladung ersetzt worden sein. Wird etwa ein Elektron durch ein schwereres Myon ersetzt, bildet sich ein myonisches Atom. Als Positronium wird ein exotisches Atom bezeichnet, in dem ein Elektron statt an ein Proton an ein Positron, das ist das positiv geladene Antiteilchen des Elektrons, gebunden ist. Auch Atome, die gänzlich aus Antiteilchen zur normalen Materie aufgebaut sind, sind möglich und für sich allein sogar ebenso stabil wie die entsprechenden „normalen“ Atome. So wurden erstmals 1995 am Genfer CERN Antiwasserstoffatome künstlich hergestellt und nachgewiesen. An solchen exotischen Atomen lassen sich unter anderem fundamentale physikalische Theorien über die Symmetrie zwischen Teilchen und Antiteilchen überprüfen. Des Weiteren wird der Name Atom manchmal auch für Zwei-Teilchen-Systeme verwendet, die nicht durch elektromagnetische Wechselwirkung zusammengehalten werden, sondern durch die starke Wechselwirkung. Bei einem solchen Quarkonium handelt es sich um ein kurzlebiges Elementarteilchen vom Typ Meson, das aus einem Quark und einem Antiquark aufgebaut ist. Ein Quarkonium-Atom lässt sich in seinen verschiedenen metastabilen Zuständen so durch Quantenzahlen klassifizieren wie das Wasserstoffatom. Entstehung. Etwa eine Sekunde nach dem Urknall kamen wegen sinkender Temperatur die ständigen Umwandlungen zwischen den Elementarteilchen zur Ruhe, übrig blieben Elektronen, Protonen und Neutronen. In den darauf folgenden drei Minuten verbanden sich in der primordialen Nukleosynthese die vorhandenen Neutronen mit Protonen zu den einfachsten Kernen: Deuterium, Helium, in geringerem Umfang auch Lithium und möglicherweise in noch kleineren Mengen Beryllium und Bor. Die übrigen Protonen (86 Prozent) blieben erhalten. Die ersten neutralen Atome mit dauerhaft gebundenen Elektronen wurden erst 380.000 Jahre nach dem Urknall in der Rekombinationsphase gebildet, als das Universum durch Expansion so weit abgekühlt war, dass die Atome nicht sogleich wieder ionisiert wurden. Die Kerne aller schwereren Atome wurden und werden durch verschiedene Prozesse der Kernfusion erzeugt. Am wichtigsten ist die stellare Nukleosynthese, durch die in Sternen zunächst Helium, anschließend auch die schwereren Elemente bis zum Eisen gebildet werden. Elemente mit höheren Kernladungszahlen als Eisen entstehen in explosionsartigen Vorgängen wie im r-Prozess in Supernovae und im s-Prozess in AGB-Sternen, die kurz vor dem Ende ihrer Lebensdauer sind. Kleine Mengen verschiedener Elemente und Isotope werden auch dadurch gebildet, dass schwere Kerne wieder geteilt werden. Das geschieht durch radioaktive Zerfälle (siehe Zerfallsreihe), die u. a. für einen Teil des Vorkommens von Helium und Blei verantwortlich sind, und Spallationen, die für die Entstehung von Lithium, Beryllium und Bor wichtig sind. Vorkommen und Verteilung. Im beobachtbaren Universum liegen die Atome mit einer mittleren Dichte von 0,25 Atome/m³ vor. Nach dem Urknallmodell (Lambda-CDM-Modell) bilden sie etwa 4,9 Prozent der gesamten Energiedichte. Die übrigen 95,1 Prozent, deren Natur noch weitgehend unklar ist, setzen sich aus etwa 27 Prozent dunkler Materie und 68 Prozent dunkler Energie zusammen, sowie kleinen Beiträgen von Neutrinos und elektromagnetischer Strahlung. Im Inneren einer Galaxie wie etwa der Milchstraße ist im interstellaren Medium (ISM) die Dichte der Atome wesentlich höher und liegt zwischen 104 und 1011 Atome/m3. Die Sonne befindet sich in der weitgehend staubfreien lokalen Blase, daher ist die Dichte in der Umgebung des Sonnensystems nur etwa 103 Atome/m3. In festen Himmelskörpern wie der Erde beträgt die Atomdichte etwa 1029 Atome/m3. In der Verteilung der Elemente dominiert im Universum Wasserstoff mit rund drei Viertel der Masse, danach folgt Helium mit etwa einem Viertel. Alle schwereren Elemente sind viel seltener und machen nur einen kleinen Teil der im Universum vorhandenen Atome aus. Ihre Häufigkeiten werden von den verschiedenen Mechanismen der Nukleosynthese bestimmt. Im Sonnensystem sind Wasserstoff und Helium vorwiegend in der Sonne und den Gasplaneten enthalten. Dagegen überwiegen auf der Erde die schweren Elemente. Die häufigsten Elemente sind hier Sauerstoff, Eisen, Silicium und Magnesium. Der Erdkern besteht vorwiegend aus Eisen, während in der Erdkruste Sauerstoff und Silicium vorherrschen. Bestandteile des Atoms. Die beiden Hauptbestandteile eines Atoms sind der Atomkern und die Atomhülle. Die Hülle besteht aus Elektronen. Sie trägt mit weniger als 0,06 Prozent zur Masse des Atoms bei, bestimmt aber dessen Größe und dessen Verhalten gegenüber anderen Atomen, wenn sie einander nahekommen. Der Kern besteht aus Protonen und Neutronen, ist im Durchmesser zehn- bis hunderttausendmal kleiner als die Hülle, enthält aber mehr als 99,9 Prozent der Masse des Atoms. Atomkern. Aufbau. Die in einem Atom vorhandenen Protonen und Neutronen, zusammen auch als Nukleonen bezeichnet, sind aneinander gebundenen und bilden den Atomkern. Die Nukleonen zählen zu den Hadronen. Das Proton ist positiv geladen, das Neutron ist elektrisch neutral. Proton und Neutron haben einen Durchmesser von etwa 1,6 fm (Femtometer) und sind selber keine Elementarteilchen, sondern nach dem Standardmodell der Elementarteilchenphysik aus den punktförmigen Quarks aufgebaut. Jeweils drei Quarks binden sich durch die starke Wechselwirkung, die durch Gluonen vermittelt wird, zu einem Nukleon. Die starke Wechselwirkung ist darüber hinaus für den Zusammenhalt der Nukleonen im Atomkern verantwortlich, insbesondere ist die Anziehung bis zu etwa 2,5 fm Abstand deutlich stärker als die gegenseitige elektrische Abstoßung der Protonen. Unterhalb von etwa 1,6 fm wird die starke Wechselwirkung der Hadronen jedoch stark abstoßend. Anschaulich gesprochen verhalten sich die Nukleonen im Kern also etwa wie harte Kugeln, die aneinander haften. Daher steigt das Volumen des Kerns proportional zur Nukleonenzahl (Massenzahl) formula_11. Sein Radius beträgt etwa formula_13 fm. Der leichteste Atomkern besteht aus nur einem Proton. Mehrere Protonen stoßen sich zwar gemäß der Elektrostatik ab, können zusammen mit einer geeigneten Anzahl von Neutronen aber ein stabiles System bilden. Doch schon bei kleinen Abweichungen von dem energetisch günstigsten Zahlenverhältnis ist der Kern instabil und wandelt sich spontan um, indem aus einem Neutron ein Proton wird oder umgekehrt und die frei werdende Energie und Ladung als Betastrahlung abgegeben wird. Kerne mit bis zu etwa 20 Protonen sind nur bei einem Verhältnis von nahezu 1:1 von Neutronenzahl und Protonenzahl stabil. Darüber steigt in den stabilen Atomkernen das Verhältnis von 1:1 bis auf etwa 1,5:1, weil bei größeren Protonenzahlen wegen ihrer elektrostatischen Abstoßung die Anzahl der Neutronen schneller anwachsen muss als die der Protonen (Details siehe Tröpfchenmodell). Die Bindungsenergie liegt in stabilen Kernen (abgesehen von den leichtesten) oberhalb von 7 MeV pro Nukleon (siehe Abbildung) und übertrifft damit die Bindungsenergie der äußeren Elektronen der Atomhülle oder die chemische Bindungsenergie in stabilen Molekülen um das ca. 106-fache. Kerne mit bestimmten Nukleonenzahlen, die als Magische Zahl bezeichnet werden, beispielsweise Helium-4, Sauerstoff-16 oder Blei-208, sind besonders stabil, was mit dem Schalenmodell des Atomkerns erklärt werden kann. Oberhalb einer Zahl von 82 Protonen (also jenseits von Blei) sind alle Kerne instabil. Sie wandeln sich durch Ausstoßen eines Kerns He-4 in leichtere Kerne um (Alphastrahlung). Dies wiederholt sich, zusammen mit Betastrahlung, so lange, bis ein stabiler Kern erreicht ist; mehrere Zerfallsstufen bilden eine Zerfallsreihe. Auch zu den Protonenzahlen 43 (Technetium) und 61 (Promethium) existiert kein stabiler Kern. Daher kann es insgesamt nur 80 verschiedene stabile chemische Elemente geben, alle weiteren sind radioaktiv. Sie kommen auf der Erde nur dann natürlich vor, wenn sie selber oder eine ihrer Muttersubstanzen eine genügend lange Halbwertzeit haben. Masse. Da der Großteil der Atommasse von den Neutronen und Protonen stammt und diese etwa gleich schwer sind, wird die Gesamtzahl dieser Teilchen in einem Atom als Massenzahl bezeichnet. Die genaue Masse eines Atoms wird oft in der atomaren Masseneinheit u angegeben; ihr Zahlenwert ist dann etwa gleich der Massenzahl. Kleinere Abweichungen entstehen durch den Massendefekt der Atomkerne. Die atomare Masseneinheit ergibt sich aus der Definition der SI-Einheit des Mols in der Art und Weise, dass ein Atom des Kohlenstoffisotops 12C (im Grundzustand inklusive seiner Hüllenelektronen) eine Masse von exakt 12 u besitzt. Damit beträgt 1 u gleich 1,66053904 · 10−27 kg. Ein Atom des leichtesten Wasserstoffisotops hat eine Masse von 1,007825 u. Das schwerste stabile Nuklid ist das Bleiisotop 208Pb mit einer Masse von 207,9766521 u. Da makroskopische Stoffmengen so viele Atome enthalten, dass die Angabe ihrer Anzahl als natürliche Zahl unhandlich wäre, erhielt die Stoffmenge eine eigene Einheit, das Mol. Ein Mol sind etwa 6,022 · 1023 Atome (oder auch Moleküle oder andere Teilchen; die betrachtete Teilchenart muss immer mitgenannt werden). Die Masse von 1 Mol Atomen der Atommasse "X" u ist daher exakt "X" g. Daher ist es in der Chemie üblich, Atommassen statt in u auch indirekt in g/mol anzugeben. Bildung und Zerfall. In welcher Art ein instabiler Atomkern zerfällt, ist für das jeweilige Radionuklid typisch. Bei manchen Nukliden können die (untereinander völlig gleichen) Kerne auch auf verschiedene Arten zerfallen, so dass mehrere Zerfallskanäle mit bestimmten Anteilen beteiligt sind. Die wichtigsten radioaktiven Zerfälle sind Die Energien der Strahlungen sind für das jeweilige Nuklid charakteristisch, ebenso wie die Halbwertszeit, die angibt, wie lange es dauert, bis die Hälfte einer Probe des Nuklids zerfallen ist. Durch Anlagerung eines Neutrons kann sich ein Kern in das nächstschwerere Isotop desselben Elements verwandeln. Durch den Beschuss mit Neutronen oder anderen Atomkernen kann ein großer Atomkern in mehrere kleinere Kerne gespalten werden. Einige schwere Nuklide können sich auch ohne äußere Einwirkung spontan spalten. Größere Atomkerne können aus kleineren Kernen gebildet werden. Dieser Vorgang wird Kernfusion genannt. Für eine Fusion müssen sich Atomkerne sehr nahekommen. Diesem Annähern steht die elektrostatische Abstoßung beider Kerne, der sogenannte Coulombwall, entgegen. Aus diesem Grund ist eine Kernfusion (außer in bestimmten Experimenten) nur unter sehr hohen Temperaturen von mehreren Millionen Grad und hohen Drücken, wie sie im Inneren von Sternen herrschen, möglich. Die Kernfusion ist bei Nukliden bis zum Nickel-62 eine exotherme Reaktion, so dass sie im Großen selbsterhaltend ablaufen kann. Sie ist die Energiequelle der Sterne. Bei Atomkernen jenseits des Nickels nimmt die Bindungsenergie pro Nukleon ab; die Fusion schwererer Atomkerne ist daher endotherm und damit kein selbsterhaltender Prozess. Die Kernfusion in Sternen kommt daher zum Erliegen, wenn die leichten Atomkerne aufgebraucht sind. Atomhülle. Aufbau und Bindungsenergie. Die Atomhülle besteht aus Elektronen, die aufgrund ihrer negativen Ladung an den positiven Atomkern gebunden sind. Sie wird oft auch als Elektronenhülle bezeichnet. Bei einem neutralen Atom mit formula_14 Elektronen beträgt die durchschnittliche Bindungsenergie je Elektron etwa formula_15. Sie nimmt daher mit steigender Teilchenzahl erheblich zu, im Gegensatz zur durchschnittlichen Bindungsenergie pro Nukleon im Kern, die ab der Massenzahl formula_16 sogar abnimmt. Zur Erklärung wird angeführt, dass zwischen Nukleonen nur Bindungskräfte kurzer Reichweite wirken, die kaum über die benachbarten Teilchen hinausreichen, während die Hülle durch die elektrostatische Anziehungskraft gebunden ist, die vom formula_14-fach geladenen Kern aus alle Elektronen erfasst. Abgesehen von der Masse, die zu über 99,95 Prozent im Atomkern konzentriert ist, ist die Atomhülle für praktisch alle äußeren Eigenschaften des Atoms verantwortlich. Der Begriff Atommodell bezieht sich daher im engeren Sinn meist nur auf die Hülle (siehe Liste der Atommodelle). Ein einfaches Atommodell ist das Schalenmodell, nach dem die Elektronen sich in bestimmten Schalen um den Kern anordnen, in denen jeweils für eine bestimmte Anzahl Elektronen Platz ist. Allerdings haben diese Schalen weder einen bestimmten Radius noch eine bestimmte Dicke, sondern überlappen und durchdringen einander teilweise. Besser getrennt sind sie auf der Skala der Bindungsenergie der Elektronen. Interpretation grundlegender Atomeigenschaften im Rahmen des Schalenmodells. Die Atomhülle bestimmt die Stärke und Abstandsabhängigkeit der Kräfte zwischen zwei Atomen. Im Abstandsbereich mehrerer Atomdurchmesser polarisieren sich die gesamten Atomhüllen wechselseitig, sodass durch elektrostatische Anziehung anziehende Kräfte, die Van-der-Waals-Kräfte, entstehen. Sie bewirken vor allem die Kondensation der Gase zu Flüssigkeiten, also einen Wechsel der Aggregatzustände. Die (näherungsweise) Inkompressibilität der Flüssigkeiten und Festkörper hingegen beruht darauf, dass alle Atome bei starker Annäherung einander stark abstoßen, sobald sich ihre Hüllen im Raum merklich überschneiden und daher verformen müssen. Außer im Fall zweier Wasserstoff­atome, die jeweils nur ein Elektron in der Hülle haben, spielt die elektrostatische Abstoßung der beiden Atomkerne dabei nur eine geringe Rolle. In einem mittleren Abstandsbereich zwischen dem Vorherrschen der schwach anziehenden Van-der-Waals-Kräfte und der starken Abstoßung kommt es zwischen zwei oder mehr zueinander passenden Atomhüllen zu einer besonders starken Anziehung, der chemischen Bindung. Bei Atomen bestimmter Elemente kann diese Anziehung zu einem stabilen Molekül führen, das aus Atomen in zahlenmäßig genau festgelegter Beteiligung und räumlicher Anordnung aufgebaut ist. Die Moleküle sind die kleinsten Stoffeinheiten der chemischen Verbindungen, also der homogenen Materialien in all ihrer Vielfalt. Vermittelt über die Hüllen ihrer Atome ziehen auch Moleküle einander an. Ein fester Körper entsteht, wenn viele Moleküle sich aneinander binden und dabei, weil es energetisch günstig ist, eine feste Anordnung einhalten. Ist diese Anordnung regelmäßig, bildet sich ein Kristallgitter. Infolge dieser Bindung ist der feste Körper nicht nur weitgehend inkompressibel wie eine Flüssigkeit, sondern im Unterschied zu dieser auch auf Zug belastbar und deutlich weniger leicht verformbar. Verbinden sich Atome metallischer Elemente miteinander, ist ihre Anzahl nicht festgelegt und es können sich nach Größe und Gestalt beliebige Körper bilden. Vor allem chemisch reine Metalle zeigen dann meist auch eine große Verformbarkeit. Verbindungen verschiedener Metalle werden Legierung genannt. Die Art der Bindung von Metallatomen erklärt, warum Elektronen sich fast frei durch das Kristallgitter bewegen können, was die große elektrische Leitfähigkeit und Wärmeleitfähigkeit der Metalle verursacht. Zusammengefasst ergeben sich aus der Wechselwirkung der Atomhüllen miteinander die mechanische Stabilität und viele weitere Eigenschaften der makroskopischen Materialien. Aufgrund des unscharfen Randes der Atomhülle liegt die Größe der Atome nicht eindeutig fest. Die als Atomradien tabellierten Werte sind aus der Bindungslänge gewonnen, das ist der energetisch günstigste Abstand zwischen den Atomkernen in einer chemischen Bindung. Insgesamt zeigt sich mit steigender Ordnungszahl eine in etwa periodische Variation der Atomgröße, die mit der periodischen Variation des chemischen Verhaltens gut übereinstimmt. Im Periodensystem der Elemente gilt allgemein, dass innerhalb einer Periode, also einer Zeile des Systems, eine bestimmte Schale aufgefüllt wird. Von links nach rechts nimmt die Größe der Atome dabei ab, weil die Kernladung anwächst und daher alle Schalen stärker angezogen werden. Wenn eine bestimmte Schale mit den stark gebundenen Elektronen gefüllt ist, gehört das Atom zu den Edelgasen. Mit dem nächsten Elektron beginnt die Besetzung der Schale mit nächstkleinerer Bindungsenergie, was mit einem größeren Radius verbunden ist. Innerhalb einer Gruppe, also einer Spalte des Periodensystems, nimmt die Größe daher von oben nach unten zu. Dementsprechend ist das kleinste Atom das Heliumatom am Ende der ersten Periode mit einem Radius von 32 pm, während eines der größten Atome das Caesium­atom ist, das erste Atom der 5. Periode. Es hat einen Radius von 225 pm. Erklärung der Atomeigenschaften im Rahmen des Orbitalmodells. Die dem Schalenmodell zugrundeliegenden Elektronenschalen ergeben sich durch die Quantisierung der Elektronenenergien im Kraftfeld des Atomkerns nach den Regeln der Quantenmechanik. Um den Kern herum bilden sich verschiedene Atomorbitale, das sind unscharf begrenzte Wahrscheinlichkeitsverteilungen für "mögliche" räumliche Zustände der Elektronen. Jedes Orbital kann aufgrund des Pauli-Prinzips mit maximal zwei Elektronen besetzt werden, dem Elektronenpaar. Die Orbitale, die unter Vernachlässigung der gegenseitigen Abstoßung der Elektronen und der Feinstruktur theoretisch die gleiche Energie hätten, bilden eine Schale. Die Schalen werden mit der Hauptquantenzahl durchnummeriert oder fortlaufend mit den Buchstaben "K, L, M,"… bezeichnet. Genauere Messungen zeigen, dass ab der zweiten Schale nicht alle Elektronen einer Schale die gleiche Energie besitzen. Falls erforderlich, wird durch die Nebenquantenzahl oder Drehimpulsquantenzahl eine bestimmte Unterschale identifiziert. Sind die Orbitale, angefangen vom energetisch niedrigsten, so weit mit Elektronen besetzt, dass die gesamte Elektronenzahl gleich der Protonenzahl des Kerns ist, ist das Atom neutral und befindet sich im Grundzustand. Werden in einem Atom ein oder mehrere Elektronen in energetisch höherliegende Orbitale versetzt, ist das Atom in einem angeregten Zustand. Die Energien der angeregten Zustände haben für jedes Atom wohlbestimmte Werte, die sein Termschema bilden. Ein angeregtes Atom kann seine Überschussenergie abgeben durch Stöße mit anderen Atomen, durch Emission eines der Elektronen (Auger-Effekt) oder durch Emission eines Photons, also durch Erzeugung von Licht oder Röntgenstrahlung. Bei sehr hoher Temperatur oder in Gasentladungen können die Atome durch Stöße Elektronen verlieren (siehe Ionisationsenergie), es entsteht ein Plasma, so z. B. in einer heißen Flamme oder in einem Stern. Da die Energien der Quanten der emittierten Strahlung je nach Atom bzw. Molekül und den beteiligten Zuständen verschieden sind, lässt sich durch Spektroskopie dieser Strahlung die Quelle im Allgemeinen eindeutig identifizieren. Beispielsweise zeigen die einzelnen Atome ihr elementspezifisches optisches Linienspektrum. Bekannt ist etwa die Natrium-D-Linie, eine Doppellinie im gelben Spektralbereich bei 588,99 nm und 589,59 nm, die auch in nebenstehender Abbildung mit D-1 bezeichnet wird. Ihr Aufleuchten zeigt die Anwesenheit von angeregten Natrium-Atomen an, sei es auf der Sonne oder über der Herdflamme bei Anwesenheit von Natrium oder seinen Salzen. Da diese Strahlung einem Atom auch durch Absorption dieselbe Energie zuführen kann, lassen sich die Spektrallinien der Elemente sowohl in Absorptions- als auch in Emissionsspektren beobachten. Diese Spektrallinien lassen sich auch verwenden, um Frequenzen sehr präzise zu vermessen, beispielsweise für Atomuhren. Obwohl Elektronen sich untereinander elektrostatisch abstoßen, können in einem neutralen Atom zusätzlich bis zu zwei weitere Elektronen gebunden werden, wenn es bei der höchsten vorkommenden Elektronenenergie noch Orbitale mit weiteren freien Plätzen gibt (siehe Elektronenaffinität). Chemische Reaktionen, d. h. die Verbindung mehrerer Atome zu einem Molekül oder sehr vieler Atome zu einem Festkörper, werden dadurch erklärt, dass ein oder zwei Elektronen aus einem der äußeren Orbitale eines Atoms (Valenzelektronen) unter Energiegewinn auf einen freien Platz in einem Orbital eines benachbarten Atoms ganz hinüberwechseln (Ionenbindung) oder sich mit einer gewissen Wahrscheinlichkeit dort aufhalten (kovalente Bindung durch ein bindendes Elektronenpaar). Dabei bestimmt die Elektronegativität der Elemente, bei welchem Atom sich die Elektronen wahrscheinlicher aufhalten. In der Regel werden chemische Bindungen so gebildet, dass die Atome die Elektronenkonfiguration eines Edelgases erhalten (Edelgasregel). Für das chemische Verhalten des Atoms sind also Form und Besetzung seiner Orbitale entscheidend. Da diese allein von der Protonenzahl bestimmt werden, zeigen alle Atome mit gleicher Protonenzahl, also die Isotope eines Elements, nahezu das gleiche chemische Verhalten. Nähern sich zwei Atome über die chemische Bindung hinaus noch stärker an, müssen die Elektronen eines Atoms wegen des Pauli-Prinzips auf freie, aber energetisch ungünstige Orbitale des anderen Atoms ausweichen, was einen erhöhten Energiebedarf und damit eine abstoßende Kraft nach sich zieht. Wechselwirkung zwischen Kern und Hülle. Mit großer Genauigkeit wird die Wechselwirkung zwischen Kern und Hülle schon durch den einfachen Ansatz beschrieben, in dem der Kern eine punktförmige Quelle eines elektrostatischen Felds nach dem Coulomb-Gesetz darstellt. Alle genannten Atommodelle beruhen hierauf. Aufgrund zusätzlicher Effekte, die in erweiterten Modellen behandelt werden, sind nur extrem kleine Korrekturen nötig, die unter dem Namen Hyperfeinstruktur zusammengefasst werden. Zu berücksichtigen sind hier drei Effekte: erstens die endliche Ausdehnung, die jeder Kern besitzt, zweitens eine magnetische Dipolwechselwirkung, wenn sowohl Kern als auch Hülle eine Drehimpulsquantenzahl von mindestens ½ haben, und drittens eine elektrische Quadrupolwechselwirkung, wenn beide Drehimpulsquantenzahlen mindestens 1 sind. Die endliche Ausdehnung des Kerns – verglichen mit einer theoretischen Punktladung – bewirkt eine schwächere Anziehung derjenigen Elektronen, deren Aufenthaltswahrscheinlichkeit bis in den Kern hineinreicht. Betroffen sind nur "s"-Orbitale (Bahndrehimpuls Null). Bei Atomen mittlerer Ordnungszahl liegt die Korrektur der Bindungsenergie in der Größenordnung von 1 Prozent. Die magnetischen Dipol- bzw. elektrischen Quadrupol-Momente von Hülle und Kern bewirken eine Kopplung mit der Folge, dass die Gesamtenergie eines freien Atoms je nach Quantenzahl seines Gesamtdrehimpulses äußerst geringfügig aufgespalten ist. Im H-Atom beträgt die Aufspaltung etwa ein Millionstel der Bindungsenergie des Elektrons (siehe 21-cm-Linie). Anschaulich gesprochen hängt die Energie davon ab, in welchem Winkel die Achsen der beiden magnetischen Dipolmomente bzw. elektrischen Quadrupolmomente von Kern und Hülle zueinander stehen. Auch bei Atomen in Flüssigkeiten und Festkörpern machen sich diese Wechselwirkungen in entsprechend modifizierter Form bemerkbar. Trotz der Kleinheit der dadurch verursachten Effekte haben sie eine große Rolle in der Atom- und Kernforschung gespielt und sind in besonderen Fällen auch bei modernen Anwendungen wichtig. Beobachtung. Indirekte Beobachtung. Indirekte Möglichkeiten, Atome zu erkennen, beruhen auf der Beobachtung der von ihnen ausgehenden Strahlung. So kann aus Atomspektren beispielsweise die Elementzusammensetzung entfernter Sterne bestimmt werden. Die verschiedenen Elemente lassen sich durch charakteristische Spektrallinien identifizieren, die auf Emission oder Absorption durch Atome des entsprechenden Elements in der Sternatmosphäre zurückgehen. Gasentladungslampen, die dasselbe Element enthalten, zeigen diese Linien als Emissionslinien. Auf diese Weise wurde z. B. 1868 Helium im Spektrum der Sonne nachgewiesen – über 10 Jahre, bevor es auf der Erde entdeckt wurde. Ein Atom kann ionisiert werden, indem eines seiner Elektronen entfernt wird. Die elektrische Ladung sorgt dafür, dass die Flugbahn eines Ions von einem Magnetfeld abgelenkt wird. Dabei werden leichte Ionen stärker abgelenkt als schwere. Das Massenspektrometer nutzt dieses Prinzip, um das Masse-zu-Ladung-Verhältnis von Ionen und damit die Atommassen zu bestimmen. Die Elektronenenergieverlustspektroskopie misst den Energieverlust eines Elektronenstrahls bei der Wechselwirkung mit einer Probe in einem Transmissionselektronenmikroskop. Beobachtung einzelner Atome. Eine direkte Abbildung, die einzelne Atome erkennen lässt, wurde erstmals 1951 mit dem Feldionenmikroskop (oder Feldemissionsmikroskop) erzielt. Auf einem kugelförmigen Bildschirm, in dessen Mittelpunkt sich eine extrem feine Nadelspitze befindet, erscheint ein etwa millionenfach vergrößertes Bild. Darin sind die obersten Atome, die die Spitze bilden, nebeneinander als einzelne Lichtpunkte zu erkennen. Dies kann heute auch im Physikunterricht an der Schule vorgeführt werden. Das Bild entsteht in Echtzeit und erlaubt z. B. die Betrachtung der Wärmebewegung einzelner Fremdatome auf der Spitze. Auch das Rastertunnelmikroskop ist ein Gerät, das einzelne Atome an der Oberfläche eines Körpers sichtbar macht. Es verwendet den Tunneleffekt, der es Teilchen erlaubt, eine Energiebarriere zu passieren, die sie nach klassischer Physik nicht überwinden könnten. Bei diesem Gerät tunneln Elektronen durch einen nur Nanometer breiten Spalt zwischen einer elektrisch leitenden Spitze und der elektrisch leitenden Probe. Bei Seitwärtsbewegungen zur Abrasterung der Probe wird die Höhe der Spitze so nachgeregelt, dass immer derselbe Strom fließt. Die Bewegung der Spitze bildet die Topographie und Elektronenstruktur der Probenoberfläche ab. Da der Tunnelstrom sehr stark vom Abstand abhängt, ist die laterale Auflösung viel feiner als der Radius der Spitze, manchmal atomar. Eine tomographische Atomsonde erstellt ein dreidimensionales Bild mit einer Auflösung unterhalb eines Nanometers und kann einzelne Atome ihrem chemischen Element zuordnen. Aufbauend auf einer um 2010 entwickelten Atom-Licht-Schnittstelle ist es 2020 gelungen, Fotos einzelner Atome zu machen, die weniger als einen Tausendstel Millimeter über einer lichtleitenden Glasfaser schweben. Dadurch ist es unter Laborbedingungen nun möglich, Effekte wie die Absorption und Aussendung von Licht kontrollierter als bisher zu untersuchen. Dies kann bei der Entwicklung neuartiger optischer Glasfaser-Netzwerke helfen.
104
2234691
https://de.wikipedia.org/wiki?curid=104
Arzt
Ein Arzt (Mehrzahl: "Ärzte"; weiblich: "Ärztin, Ärztinnen") ist ein medizinisch ausgebildeter und zur Ausübung der Heilkunde zugelassener Heilkundiger. Der Arztberuf ist eine auf Vorbeugung (Prävention), Erkennung (Diagnose), Behandlung (Therapie) und Nachsorge von Krankheiten, Leiden oder gesundheitlichen Beeinträchtigungen gerichtete Beschäftigung und umfasst auch ausbildende Tätigkeiten. Ärzte stellen sich in den Dienst der Gesundheit und sind bei ihrem Handeln moralischen und ethischen Grundsätzen verpflichtet (siehe etwa die Genfer Deklaration des Weltärztebundes). Die Vielfalt an Krankheiten und Behandlungsmöglichkeiten hat in der Humanmedizin und der Tiermedizin zu einer großen Anzahl von Fachgebieten und weiteren Differenzierungen geführt (siehe die Liste medizinischer Fachgebiete). Bezeichnungen. Die Bezeichnung "Arzt" (, ; verwandt mit „Arznei“) zog während des Mittelalters aus der lateinischen Gelehrtensprache ins Deutsche ein, und zwar über die latinisierte Variante (spätlateinisch auch ') des griechischen , klassische Aussprache [], ‚Oberarzt‘, ‚Leibarzt‘ (seit dem 2. Jahrhundert die Amtsbezeichnung von Leibärzten bei Hofe, genannt "archiatri palatini" und von öffentlich bestallten, "archiatri populares" genannten Gemeindeärzten), einer Zusammensetzung aus , ‚Kommando‘ und . Mit dem davon abgeleiteten griechischen Wort ἰατρῖναι ("iatrinai"; entsprechend lateinisch "feminae medicae", „Ärztinnen“) wurden in der griechisch-römischen Medizin gelegentlich angesehene Hebammen bezeichnet. In vielen fachsprachlichen Komposita tritt das ursprüngliche griechische Wort bzw. die latinisierte Form ' als Wortbestandteil auf: "iatrogen" „durch ärztliches Handeln verursacht“; "Psychiater" „Seelenarzt“; "Pädiater" „Kinderarzt“ usw. Über mittelhochdeutsche Vermittlung gelangte das Wort in andere Sprachen, so , . Die germanische Bezeichnung für den Heilberuf () ist beispielsweise im dänischen ', im schwedischen ', im englischen (vgl. Bald’s Leechbook), oder im deutschen Familiennamen "Lachmann" erhalten und hat sich in andere Sprachen verbreitet, z. B. , . Im polnischen und tschechischen "" ist die germanische Wurzel mit einem slawischen Suffix ("-arz", "-ař") verbunden. Die lateinische Bezeichnung (ursprünglich als allgemeine, vom Ausbildungsstand unabhängige, Berufszeichnung; seit dem 10. Jahrhundert dann vom bzw. , dem Wundarzt, unterschieden), oder eine davon abgeleitete Form findet sich vor allem in den romanischen Sprachen, etwa , , , , , aber unter romanischem Einfluss auch in anderen Sprachen: , . Zur Unterscheidung vom (im 18. Jahrhundert noch nicht „vollpromovierten“) "chirurgicus" wurde auch der Begriff "medicus purus" („reiner Arzt“) gebraucht (Bestrebungen, die Chirurgie mit der „Medizin“ zu vereinen, setzten etwa in der Mitte des 18. Jahrhunderts ein). Die Bezeichnung "" meinte meist einen akademisch ausgebildeten Arzt (vgl. englisch "physician"). In vielen Sprachen wird der Arzt umgangssprachlich nach seinem zumeist geführten akademischen Grad "Doktor" genannt. Gelegentlich ebenfalls als Arzt wurden vor allem ab dem 13. Jahrhundert volksmedizinisch arbeitende Laienärzte bezeichnet. Zum Berufsbild. Geschichte. Die Funktion des Arztes ist eine der ältesten der Menschheit. Medizingeschichtlich gesehen entstand der Arztberuf (veraltet auch das Arzttum) aus dem Stand der Heilkundigen, die schon unter den Priestern des Altertums zu finden waren. Erste schriftliche Belege des Arztberufs stammen aus Mesopotamien und wurden im 3. Jahrtausend v. Chr. verfasst. Die Ausbildung von Ärzten der Antike fand in sogenannten "Ärzteschulen" (z. B. Schule von Kos, Schule von Knidos, Alexandrinische Schule) statt, die sich hinsichtlich ihrer Wissensvermittlung an unterschiedlichen ärztlichen Theorien (z. B. Methodiker, Pneumatiker, Hippokratiker) und philosophischen Strömungen (z. B. Epikureer, Stoiker) ausrichteten. Über den Arzt schreibt Hippokrates bzw. der Verfasser des wohl im 3. Jahrhundert v. Chr. entstandenen Textes "Der Arzt" ausführlich: „Er soll von gesundem Aussehen und im Verhältnis zu der ihm eigenen Konstitution wohlgenährt sein […]. Ferner soll sein Äußeres sauber sein, was in einer angemessenen Kleidung und in wohlriechenden Salben zum Ausdruck kommt, deren Geruch unverdächtig ist […]. Was die seelischen Eigenschaften betrifft, so sei er besonnen, was sich nicht nur darin äußert, daß er schweigen kann […]. Man soll saubere und weiche Läppchen benutzten, für die Augen Scharpie, für die Wunden Schwämme. […].“ Auch Heilkundige des Mittelalters wirkten und gelten, auch ohne universitäre Ausbildung, als Ärzte. Die moderne Ausbildung von Ärzten begann im 18. Jahrhundert mit der Erweiterung des naturwissenschaftlichen Wissens und der Einführung von systematischem praktischem Unterricht am Krankenbett. Die Revolutionszeit in der Mitte des 19. Jahrhunderts brachte in vielen Länder Europas auch eine ärztliche Reformbewegung. Diese erstrebte unter anderem Einheitlichkeit und Niederlassungsfreiheit sowie freie Arztwahl und Selbstverwaltung. Im Jahr 1869 wurde der ärztliche Beruf in Deutschland zum freien Gewerbe erklärt. Es wurde die Kurierfreiheit beschlossen, das Staatsexamen an die Universitäten gebunden, die Approbation erlangte Gültigkeit für alle deutschen Bundesstaaten und der Doktortitel wurde unabhängig von den Prüfungen für die Approbation. Eine einheitliche Prüfungsordnung (siehe auch Approbationsordnung) für Ärzte gab es in Deutschland erstmals 1883. Im Jahr 1901 wurde eine neue Prüfungsordnung und das Medizinalpraktikantenjahr vor der ärztlichen Approbation eingeführt. In den "Bremer Leitlinien" legte der Deutsche Ärztetag 1924 die Grundzüge einer einheitlichen Facharztordnung fest. Eine deutsche ärztliche Berufsordnung mit Facharztordnung wurde 1937 erlassen. Weibliche Ärzte kamen bereits im Mittelalter auf, zum Teil vorbereitet auch durch die Tätigkeit der Hebammen. Die erste medizinische Promotion einer Frau in einem modernen Staat erfolgte 1869 in Zürich. 1899 wurden in Deutschland durch Beschluss des Bundesrates Frauen zu ärztlichen, zahnärztlichen und pharmazeutischen Prüfungen zugelassen. 2014 war der Anteil der Ärztinnen an der Gesamtzahl der berufstätigen Ärzte bereits auf 45,5 Prozent gestiegen, wenngleich der Anteil der Frauen 2015 zu Beginn des Studiums bei fast zwei Dritteln lag. Bis ins 21. Jahrhundert galt für Ärzte "Salus aegroti suprema lex" („Das Wohl des Kranken sei oberstes Gebot“). Hinzugekommen ist in der Rechtsprechung das Selbstbestimmungsrecht des Patienten. Gesundheit und Krankheitsverhalten. Während die körperliche Gesundheit von männlichen Ärzten mit derjenigen der allgemeinen männlichen Bevölkerung vergleichbar zu sein scheint, scheint die körperliche Gesundheit von Ärztinnen besser zu sein als die der allgemeinen weiblichen Bevölkerung. Hinsichtlich der psychischen Gesundheit fällt auf, dass Depressionen und Suchterkrankungen bei Ärzten häufiger vorkommen als in der restlichen Bevölkerung. Ein weiteres bei Medizinern häufig auftretendes Krankheitsbild ist das Burnout-Syndrom, das bereits bei Medizinstudenten in erhöhtem Maß nachgewiesen werden kann. Mehrere Studien zeigten eine gegenüber der allgemeinen Bevölkerung erhöhte Suizidrate unter Ärzten. Das gegenüber der Normalbevölkerung erhöhte relative Risiko, einen Suizid zu begehen, lag für männliche Ärzte bei 1,1–3,4 und für Ärztinnen bei 2,5–3,7. Da in den Studien meist nur eine kleine Zahl von Suiziden untersucht wurde, waren die Vertrauensbereiche des wahren Wertes der Risikoerhöhung weit. Es wird vermutet, dass eine beträchtliche Anzahl von Selbstmorden nicht erfasst wird, da diese fälschlicherweise als Vergiftungen oder Unfälle deklariert werden. Von den verschiedenen beruflichen Spezialisierungen sind insbesondere Psychiater, Anästhesisten und Allgemeinmediziner von einer erhöhten Suizidrate betroffen. Als Ursachen des erhöhten Suizidrisikos werden verschiedene Faktoren diskutiert. Ein Persönlichkeitsprofil mit zwanghaften Zügen kann infolge der beruflichen Anforderungen zu einer depressiven Störung führen. Die Schwierigkeiten, Familie und Karrierewunsch zu vereinbaren, können insbesondere bei Ärztinnen zu Erschöpfung und Depression führen. Suchterkrankungen (wie beispielsweise Alkohol-, Drogen- und Medikamentenabhängigkeit), die bei Ärzten häufiger auftreten, gehen ihrerseits meistens mit Depressionen und einer erhöhten Suizidrate einher. Dieses für Ärzte jeden Geschlechts festgestellte Risikoprofil ist berufsunabhängig und trifft für die meisten Suizidenten zu. Psychische Probleme korrelieren häufig mit Zeitdruck und mangelnder Autonomie am Arbeitsplatz sowie belastenden Patient-Arzt-Beziehungen. Ärzte werden seltener krankgeschrieben und zeigen eine mangelhafte Inanspruchnahme medizinischer Versorgungsleistungen. Häufig behandeln sich Ärzte selbst. Die eigenständige Behandlung eigener psychischer Störungen ist jedoch häufig ineffektiv. Schutzpatron. Die heiligen Zwillingsbrüder Cosmas und Damian gelten wegen ihres Arztberufs unter anderem auch als Schutzpatrone der Ärzte. Ein weiterer Schutzpatron ist der heilige Pantaleon, einer der Vierzehn Nothelfer. Nationales. Deutschland. Rechtliche Einordnung des Berufes. Der Arzt gehört in Deutschland (seit 1935) zu den Freien Berufen und ist (seit 1887) ein klassischer Kammerberuf. Ärzte unterliegen einer staatlichen Überwachung der Zulassung (Approbation in Deutschland, s. u. in anderen EU-Ländern) und unter anderem dem Arztwerberecht, welches weitgehende Einschränkungen in der Publikation und Veröffentlichungen bedeutet. Ärzte haften ihren Patienten zwar in der Regel nicht auf Erfolg ihres Handelns, können ihnen aber unter dem Gesichtspunkt der Arzthaftung zum Schadenersatz verpflichtet sein. Die freie Ausübung der Heilkunde ist in Deutschland nur approbierten Ärzten erlaubt. Mit festgelegten Einschränkungen dürfen auch Heilpraktiker Kranke behandeln, wobei die klar festgelegten Grenzen einzuhalten sind. Ausnahmsweise werden spezielle Bereiche der Diagnostik und Therapie auch (meist auf Veranlassung von Ärzten) von Angehörigen der Gesundheitsfachberufe durchgeführt. Ab dem Zeitpunkt der ärztlichen Approbation darf der Arzt die gesetzlich geschützte Bezeichnung „Arzt“ führen und erhält mit ihr die staatliche Erlaubnis zur eigenverantwortlichen und selbstständigen ärztlichen Tätigkeit. Die bundesweit einheitliche Approbationsordnung regelt das zuvor erfolgreich abzuleistende mindestens sechsjährige Medizinstudium bezüglich der Dauer und der Inhalte der Ausbildung in den einzelnen Fächern sowie der Prüfungen. Das Studium der Medizin umfasst u. a. drei Examina, sowie ein Jahr praktische Tätigkeit (sogenanntes „Praktisches Jahr“). Von Oktober 1988 bis Oktober 2004 war zur Erlangung der Vollapprobation zusätzlich eine 18-monatige, gering bezahlte Tätigkeit als Arzt im Praktikum unter Aufsicht eines approbierten Arztes gesetzlich vorgeschrieben. Meist arbeitet ein approbierter Arzt für mehrere Jahre als Assistenzarzt an von der Landesärztekammer anerkannten Weiterbildungsstätten (wie 1956 Krankenhäuser, 35,6 % waren 2015 in privater Trägerschaft; seltener einzelne Großpraxen), um sich auf einem oder mehreren Spezialgebieten der Medizin anrechenbar weiterzubilden und eventuell nach zusätzlich mindestens vierjähriger Weiterbildungszeit eine Facharztprüfung abzulegen. Die Anforderungen dazu sind in den Weiterbildungsordnungen der Landesärztekammern geregelt. Niedergelassene Ärzte arbeiten in freier Praxis, gegebenenfalls auch mit mehreren Ärzten in einer Berufsausübungsgemeinschaft (früher: Gemeinschaftspraxis) oder Praxisgemeinschaft (s. a. Vertragsarztrechtsänderungsgesetz). Honorarärzte arbeiten auf Honorarbasis für verschiedene Kliniken oder niedergelassene Ärzte. Jeder Arzt ist meldepflichtiges Pflichtmitglied der Ärztekammer (des Bundeslandes), in deren Gebiet er wohnt bzw. seine ärztliche Tätigkeit ausübt. Im Jahr 2020 waren in Deutschland bei den Landesärztekammern 536.940 Ärzte gemeldet, von denen 127.819 zu diesem Zeitpunkt im Ruhestand oder ohne ärztliche Tätigkeit waren. Zur Behandlung von Versicherten der gesetzlichen Krankenversicherungen benötigt der Arzt eine Zulassung (Facharzt in eigener Praxis) oder Ermächtigung (als Arzt in einem Krankenhaus oder ähnlicher Institution) und ist dann auch Pflichtmitglied der Kassenärztlichen Vereinigung seines Niederlassungsbezirks. Die kassenärztliche Zulassung besitzen 135.388 Ärzte (Ende 2008): selbstständige 58.095 Hausärzte und 77.293 Fachärzte. In den Kliniken sind 146.300 Ärzte angestellt. Ende 2013 arbeiteten 35.893 ausländische Ärzte in Deutschland, öfter im Osten. 2013 betrug die Zahl der berufstätigen Ärzte in Deutschland 357.252. Strafrechtlich sind ärztliche Eingriffe der Körperverletzung gleichgesetzt. Diese ist nicht strafbar, wenn die Einwilligung der behandelten Person nach einer Aufklärung vorliegt und die Handlung auf dem Stand des aktuellen medizinischen Wissens vorgenommen wird (§§ 223 ff. StGB). Ausnahmen bestehen, wenn der Patient aufgrund seines Zustandes (z. B. Bewusstlosigkeit) nicht in der Lage ist, seine Entscheidung mitzuteilen, und durch die Unterlassung des Eingriffs die Gefahr von negativen gesundheitlichen Folgen oder sogar dem Tod des Patienten besteht. Zudem können eingeschränkt- oder nichteinwilligungsfähige Personen, wie z. B. Kinder oder in bestimmten Fällen seelisch Erkrankte, auch gegen ihren Willen behandelt werden. Hierfür existieren strenge rechtliche Regelungen und Verfahrenswege, bei welchen neben dem Arzt auch andere Institutionen, z. B. Amtsgericht oder gesetzlicher Betreuer, an der Entscheidung mitwirken. Vor Inkrafttreten des Gesetzes zur Bekämpfung von Korruption im Gesundheitswesen haben niedergelassene, für die vertragsärztliche Versorgung zugelassene Ärzte die Tatbestandsmerkmale des StGB nicht erfüllt, da diese laut Beschluss des Bundesgerichtshofs (BGH) vom 29. März 2012 weder als Amtsträger i. S. d. § 11 I Nr. 2c StGB noch als Beauftragte der gesetzlichen Krankenkassen i. S. d. § 299 StGB handelten. Die Gesetzeslücke wurde ab 4. Juni 2016 geschlossen, indem StGB (Bestechlichkeit im Gesundheitswesen) und StGB (Bestechung im Gesundheitswesen) hinzugefügt, sowie § 300 und § 302 StGB geändert wurden. Die Erteilung der Approbation hängt seit dem 1. April 2012 nicht mehr von der Staatsangehörigkeit ab (Änderung des §3 BAÖ durch § 29 des Gesetzes zur Verbesserung der Feststellung und Anerkennung im Ausland erworbener Berufsqualifikationen). Kompetenzen und Pflichten. Die Verordnung von rezeptpflichtigen Arzneimitteln und die meisten invasiven Maßnahmen sind in Deutschland ausnahmslos dem approbierten Arzt vorbehalten. Hierbei ist er persönlich zur Einhaltung des anerkannten wissenschaftlichen Standes und medizinethischer Vorgaben verpflichtet. Die Genfer Deklaration orientierte sich 1948 am Eid des Hippokrates. Weiter unterliegen Ärzte speziellen Regelungen, wie dem Berufs- und Standesrecht, welches auch an die Genfer Konvention anknüpft. Insbesondere ist auch im Strafrecht die Einhaltung der ärztlichen Schweigepflicht nach § 203 StGB festgehalten. Akademische Grade. In Deutschland gibt es aus historischen Gründen unterschiedliche medizinische akademische Grade. Diese weisen im Gegensatz zum Facharzttitel nicht auf eine besondere Fachkompetenz hin, sondern dienen als Beleg einer wissenschaftlichen Leistung in einem medizinischen Bereich: Behandlungszeit. Laut einer Studie des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen haben deutsche Ärzte trotz längerer persönlicher Arbeitszeit die kürzeste Sprechzeit je Patient in Europa. Sie liegt 30 % niedriger als der europäische Durchschnitt. Klinikärzte verbringen rund 44 % ihrer Zeit für Schreibtätigkeiten und Protokolle (Stand: 2014/2015). Laut einem Projektbericht des Statistischen Bundesamts vom August 2015 wenden Arzt-, Psychotherapeuten- und Zahnarztpraxen jährlich durchschnittlich 96 Tage Zeit für die Erfüllung von Informationspflichten auf, wobei dieser Wert den gesamten Zeitaufwand aller Praxismitarbeiter darstellt und sämtliche Informationspflichten, auch die der gemeinsamen Selbstverwaltung, umfasst. Laut der deutschlandweiten Online-Befragung des Marburger Bunds „MB-Monitor“ von 2017 sind 66 % der Krankenhausärzte der Auffassung, dass ihnen nicht ausreichend Zeit für die Behandlung ihrer Patienten zur Verfügung steht. Einkommen. Die Einkommen von Ärzten in Deutschland variieren, da das Spektrum medizinischer Tätigkeiten breit gefächert ist. Auch finden sich unter Ärzten Unterschiede bei der Arbeitszeit, insbesondere zwischen klinisch tätigen (beispielsweise 24 Stunden-Schichten sowie eine hohe Anzahl an Überstunden) und niedergelassenen (hoher Anteil „nicht-medizinischer“-Tätigkeit aufgrund der Selbständigkeit). Niedergelassene Ärzte. Nach dem "Zi-Praxis-Panel" des Zentralinstituts für die kassenärztliche Versorgung in Deutschland (Jahresbericht 2019) über die wirtschaftliche Situation und die Rahmenbedingungen in der vertragsärztlichen Versorgung der Jahre 2016 bis 2019, lag der Mittelwert des Jahresüberschusses je Praxisinhaber im Jahr 2019 bei circa 174.000 Euro. Um einem Mangel an Landärzten entgegenzuwirken, wollte die Bundesregierung 2011 in einem neuen „Versorgungsgesetz“ das Einkommen von Landärzten erhöhen. Unter einer Vielzahl von Gesetzen war das GKV-Versorgungsstrukturgesetz 2012 und Juni 2015 das Gesetz zur Stärkung der Versorgung in der gesetzlichen Krankenversicherung. Klinisch tätige Ärzte. Die durchschnittlichen Gehälter klinisch tätiger Ärzte unterscheiden sich stark nach den jeweiligen Positionen: Außendarstellung und Werbung. Neben den strengen rechtlichen Vorgaben zur Ausübung seines Berufs ist der Arzt auch bei der Außendarstellung bzw. Werbung zu seinen Leistungen und seiner Praxis umfangreichen Verordnungen und Gesetzen unterworfen. Im Unterschied zu anderen Branchen ist Ärzten anpreisende oder vergleichende Werbung absolut verboten. Seit dem 105. Deutschen Ärztetag 2002 sind sachliche, berufsbezogene Informationen über ihre Tätigkeit gestattet. Hauptkriterium ist dabei das schützenswerte Interesse des mündigen Patienten. Umstritten war ab 1998 die Individuelle Gesundheitsleistung eingeführt worden. Statistiken. Ende 2006 waren in Deutschland ca. 407.000 Ärzte gemeldet, davon 95.700 ohne ärztliche Tätigkeit (siehe Abb.). Die Kassenzulassung besaßen 59.000 Hausärzte und 60.600 Fachärzte. In den Krankenhäusern waren 148.300 Ärzte angestellt. Im Jahr 2011 wurden in Deutschland rund 342.100 berufstätige Ärzte und rund 107.300 Ärzte ohne ärztliche Tätigkeit gezählt. Auf durchschnittlich 239 Einwohner kam ein berufstätiger Arzt. Zum 31. Dezember 2021 waren in Deutschland laut Bundesärztekammer 416.420 Ärzte berufstätig. Davon kamen 57.164 (rund 14 Prozent) aus dem Ausland. Die chronologische Entwicklung kann aus der folgenden Tabelle und der Abbildung abgelesen werden. In der Gesamtzahl approbierter Ärzte sind auch die nicht (mehr) berufstätigen und die nicht ärztlich tätigen Ärzte enthalten. Die Bundesärztekammer und die Kassenärztliche Bundesvereinigung haben für Deutschland 385.149 Ärztinnen und Ärzte gezählt, die 2017 ärztlich tätig waren, und damit 6.542 Ärzte mehr als im Vorjahr. Der Anteil von Frauen stieg weiter an und erreichte 2017 46,8 %, nach 46,5 % im Vorjahr. Auch der Anteil älterer Ärzte stieg weiterhin an. 2017 waren 18,4 % der Ärzte 60 Jahre oder älter (2016: 17,9 %). Insgesamt waren 2017 172.647 Ärztinnen und Ärzte in der vertragsärztlichen Versorgung, also als Niedergelassene tätig, selbständig oder bei einem Vertragsarzt angestellt. Arztbesuche: Deutsche Erwachsene (zwischen 18 und 79 Jahren) gingen Mitte der 2000er Jahre im Durchschnitt 9,2-mal pro Jahr zum Arzt. Ärztinnen und Ärzte. Früher gab es deutlich mehr männliche als weibliche Ärzte. Je höher die Hierarchie, desto geringer ist der Anteil der Ärztinnen. Ärztinnen kämpfen zunehmend um Gleichstellung. Der Springer Medizin Verlag hat 2022 alle auf Berufsbezeichnungen basierenden Titel von Fachzeitschriften umbenannt, beispielsweise von männlich "Der Chirurg" zu weiblich "Die Chirurgie". Österreich. In Österreich ist man mit der Sponsion zunächst "Doktor der gesamten Heilkunde" (Doctor medicinae universae/Dr. med. univ.). Mittlerweile handelt es sich entgegen der Bezeichnung nicht um einen Doktorgrad, sondern um einen Diplomgrad ähnlich dem Magister oder dem Diplomingenieur. Vor dem Wintersemester 2002/03 war das Medizinstudium in Österreich ein Doktoratsstudium, welches auch Übergangsregelungen kannte. Der eigentliche Doktorgrad der Medizin ("Doctor scientae medicinae" bzw. "Dr. scient. med.") kann seitdem im Anschluss an das Diplomstudium in einem dreijährigen Doktoratsstudium erworben werden. Selbständig als Arzt tätig werden darf man nur, wenn für drei Jahre im Rahmen des „Turnus“ verschiedene (definierte) Disziplinen durchlaufen wurden und die Arbeit vom jeweiligen Abteilungsvorstand positiv bewertet wurde. Danach ist eine weiter abschließende Prüfung abzulegen. Damit hat man das „jus practicandi“ erworben, also die Berechtigung zur selbständigen Berufsausübung als Arzt für Allgemeinmedizin. Alternativ kann sofort nach der Sponsion die (meist sechsjährige) Ausbildung zu einem Facharzt erfolgen, nach der wiederum eine Prüfung abzulegen ist. Viele Fachärzte absolvieren den Turnus vor Beginn der Ausbildung ganz oder teilweise. Es hat sich in Österreich eingebürgert, die Ausbildung zum Allgemeinmediziner zuvor abzuleisten. Viele Krankenhäuser nehmen nur Assistenzärzte mit abgeschlossener Turnusausbildung in Dienst, da diese einen Nacht- oder Wochenenddienst alleine ableisten dürfen. Ärzte aus anderen EU-Staaten können um Anerkennung als "approbierte Ärzte" ansuchen. Am 14. Dezember 2010 hat die EU-Kommission in ihrem Amtsblatt C377/10 eine Änderungsmitteilung für die , Anhang 5.1.1. veröffentlicht, wonach ab diesem Zeitpunkt sämtliche Absolventen des österreichischen Medizinstudiums bereits mit der Promotion ihr Grunddiplom abgeschlossen haben und somit innerhalb des gesamten EU- und EWR-Raumes sowie der Schweiz und Liechtenstein eine selbständige Tätigkeit bzw. Ausbildung zum Facharzt unter denselben Voraussetzungen wie einheimische Mediziner aufnehmen dürfen. Bis dahin hatten Mediziner aus Österreich erst mit dem Abschließen der Ausbildung zum Allgemeinmediziner bzw. Facharzt ein Anrecht auf automatische Anrechnung ihres Diploms in den übrigen Mitgliedsstaaten. Der (niedergelassene) Arzt gehört in Österreich zu den Freien Berufen (Berufe von öffentlicher Bedeutung). Weiterbildung. Ärzte müssen in Österreich pro Jahr 50 Stunden Weiterbildung absolvieren, was alle 5 Jahre von der Ärztekammer kontrolliert wird. Schweiz. 2017 arbeiteten in der Schweiz rund 36.700 (36.900, je nach Quelle) Ärzte, davon rund 15.200 (42 %) Frauen und 21.400 (58 %) Männer, 51 % im ambulanten und 47 % im stationären Sektor, rund 12.600 (34 %) waren Ausländer (d. h. ohne Schweizer Bürgerrecht). Qualifikation, Fortbildung. In der Schweiz ist man nach dem mit dem Staatsexamen abgeschlossenen sechsjährigen Studium zunächst eidgenössisch diplomierter Arzt und als solcher zur Arbeit als Assistenzarzt in Spitälern (Krankenhäusern) und Arztpraxen befugt. Die Weiterbildung zum zur selbständigen Berufsausübung befugten Facharzt (Spezialarzt) dauert je nach Fach zwischen 3 („praktischer Arzt“) und 8 Jahren nach dem Studienabschluss. Für einen Facharzttitel muss zudem eine Facharztprüfung abgelegt werden. Danach darf sich der Arzt „Facharzt für ⟨Fachgebiet⟩ FMH“ nennen. Die jeweilige Fachgesellschaft prüft, ob jeder Facharzt seiner Fortbildungspflicht (je nach Fachgebiet 60–100 Stunden pro Jahr) nachkommt."[ref. ergänzen]" Zulassung, Arztpraxen. Die Zulassung zur Berufsausübung zulasten der Krankenkassen wird vom Krankenkassenzentralverband Santésuisse erteilt, ist aber bei entsprechender Qualifikation nur eine Formalität. Die Erlaubnis zur Praxiseröffnung ist kantonal geregelt. Aktuell besteht aber ein Praxiseröffnungs-Stopp,"[ref. ergänzen]" welcher die Berufsausübung zulasten der Krankenkassen einschränkt. Lediglich bei Bedarfsnachweis, z. B. bei einer Praxisübernahme, ist eine Zulassung möglich."[ref. ergänzen]" Arbeitszeitgesetz für Assistenz- und Oberärzte. Seit dem 1. Januar 2005 gilt, nach längeren Kämpfen, für die Assistenzärzte und Oberärzte an Schweizer Spitälern das landesweit gültige Arbeitszeitgesetz und damit die darin festgelegte maximale Wochenarbeitszeit von 50 Stunden (Art. 9 ArG, Wöchentliche Höchstarbeitszeit). Sie ist zwar bedeutend höher als die allgemein übliche Arbeitszeit in der Schweiz (38,5–42,5 Stunden), doch ein gewisser Fortschritt – bis dahin waren Arbeitsverträge mit der Formulierung «Die Arbeitszeit richtet sich nach den Bedürfnissen des Spitals.» üblich, wodurch Arbeitszeiten von oft über 60 oder 70 Stunden pro Woche ohne finanziellen Ausgleich zu leisten waren. Die Entgelte der Assistenzärzte lagen deswegen auf dem Niveau der Pflegenden im oberen Kader (Pflegedienstleistungen). Hierarchie der Spitäler, Berufskammern. Die Leitenden Ärzte und Chefärzte sind diesem Arbeitszeitgesetz nicht unterstellt. Auch sind sie finanziell in der Gesamtvergütung deutlich höher gestellt. Diese, vor allem auch historisch bedingte, hierarchische Trennung zeigen auch die getrennten Berufskammern der Spitalärzte VLSS und VSAO. Hingegen ist die ältere Ärztekammer FMH allen qualifizierten Ärzten offen, wie auch die fachlichen Ärzteverbände. Die Mitgliedschaft ist freiwillig, im Gegensatz zu anderen Ländern, wie Deutschland oder Österreich. Löhne, Einkommen. Referenzen: FMH / NZZ / VSAO Zwar herrscht in der Schweiz (immer noch, 2017/18) kaum Transparenz bezüglich der Einkommensverhältnisse – im Allgemeinen und auch im ärztlichen Bereich. Wobei gilt – je höher gestellt, desto weniger Transparenz. Jedoch „sickern“ zuverlässige Angaben durch. So bemühen sich die Spitalleitungen neuerdings um mehr Transparenz. Wie das Zürcher Universitätsspital welches zurzeit «prüft», ob und in welcher Form es die Ärztelöhne künftig offenlegen soll. Die Hälfte der Ärzte in der Schweiz arbeiten in den Spitälern. Besonders gut bezahl sind dort Radiologen, Kardiologen, Gastroenterologen, Intensivmediziner und Urologen. Am unteren Ende der Lohnskala stehen Psychiater, Kinderärzte und Ärzte aus dem Bereich Physikalische Medizin und Rehabilitation. Die Normallöhne betragen (p. a.): Diese Angaben eines Beratungsunternehmens decken sich mit denjenigen des Vereins der Leitenden Spitalärzte der Schweiz (VLSS) – in einer seiner Umfragen deklarierten die Kaderärzte folgende durchschnittlichen Löhne: Zu den Grundlöhnen und Boni kommen, besonders bei Kaderärzten, Zusatzhonorare aus Behandlungen von zusatzversicherten Patienten im stationären Bereich sowie bei Grund- und Zusatzversicherten im spitalambulanten Bereich. Die können bei Chefärzten bis zum 9-fachen des Grundlohns betragen. «Einzelne Chefärzte kommen so auf Jahreslöhne von 2 Millionen Franken oder mehr», sagt ein Berater, der auch bemängelt, dass die Chefärzte oft selbst darüber bestimmen können, wie die Honorare verteilt werden. Ärzte in der Literatur. Ärzte sind ein häufiges Thema in der Weltliteratur. Allein Henrik Ibsen hat drei Dramen geschrieben, in denen Ärzte in wichtigen Rollen erscheinen (Ein Volksfeind, 1882; Die Wildente, 1884; Die Frau vom Meer, 1888). Ein älteres Beispiel ist Georg Büchners 1836–1837 geschriebenes Dramenfragment "Woyzeck". Noch häufiger als im Schauspiel kommen Ärzte in Romanen vor (siehe Arztroman). Weblinks. Nationales:
105
2178729
https://de.wikipedia.org/wiki?curid=105
Anthropologie
Anthropologie (im 16. Jahrhundert als "anthropologia" gebildet aus , und "-logie:" Menschenkunde, Lehre vom Menschen) ist die Wissenschaft vom Menschen. Sie wird im deutschen Sprachraum und in vielen europäischen Ländern vor allem als Naturwissenschaft verstanden. Die "naturwissenschaftliche" oder "Physische Anthropologie" betrachtet den Menschen im Anschluss an die Evolutionstheorie von Charles Darwin als biologisches Wesen. Dieser naturalistischen Betrachtung des Menschen, die sich beispielsweise mit der Konstitution (früher auch mit der Rassenlehre und Humangenetik) und der Abstammung des Menschen befasst, stehen verschiedene andere Ansätze gegenüber, beispielsweise die philosophische Anthropologie. Hier wird der Mensch nicht nur als Objekt, sondern auch als Subjekt wissenschaftlich untersucht. Dabei geht es unter anderem um qualitative Eigenschaften wie die Personalität, die Entscheidungsfreiheit und die Möglichkeit zur Selbstbestimmung. Im englischen Sprachraum wird auch die Ethnologie als Kultur- beziehungsweise Sozialanthropologie als Teil der Anthropologie verstanden und ist mit der physischen Anthropologie häufig auch in gemeinsamen Fakultäten oder Instituten vereinigt. In der deutschen Wissenschaftspolitik ist die Anthropologie als Kleines Fach eingestuft. Geschichte der Anthropologie. Die Bezeichnung "Anthropologie" geht zurück auf den deutschen Philosophen, Arzt und Theologen Magnus Hundt (1449–1519), der das 1501 erschienene Werk „Antropologium de hominis dignitate, natura, et proprietatibus, de elementis, partibus et membris humani corporis“ ("Anthropologie über Würde, Wesen und Eigenschaften des Menschen, über die Elemente, Teile und Glieder des menschlichen Körpers") schrieb. Zu den ersten Dozenten für das Fach gehörte der Anatom und Physiologe Heinrich Palmatius Leveling, der die Anthropologie 1799 an der Ingolstädter Universität als Vorlesung anbot. Ein Lehrstuhl für „Allgemeine Naturgeschichte und Anthropologie“ wurde 1826 in München eingerichtet. Friedrich Nasse gab von 1823 bis 1826 in Leipzig die aus der "Zeitschrift für psychische Ärzte" hervorgegangene "Zeitschrift für die Anthropologie" heraus. Auf den ersten eigenständigen Lehrstuhl Deutschlands für (physische) Anthropologie wurde am 1. August 1886 Johannes Ranke berufen, dem 1917 der Schweizer Rudolf Martin (1864–1925) folgte, der 1918 Direktor des Anthropologischen Instituts und der Anthropologisch-Prähistorischen Staatssammlung wurde. Martin war 1900 zum Extraordinarius und 1905 zum Ordinarius für Anthropologie an der Universität Zürich ernannt worden. Naturwissenschaftlicher Ansatz. Biologische Anthropologie. Die biologische Anthropologie ist mit ihren Teilgebieten Primatologie, Evolutionstheorie, Paläoanthropologie, Bevölkerungsbiologie, Industrieanthropologie, Genetik, Sportanthropologie, Wachstum (Auxologie), Konstitution und Forensik ein Fachbereich der Humanbiologie. Ihr Ziel ist die Beschreibung, Ursachenanalyse und evolutionsbiologische Interpretation der Verschiedenheit biologischer Merkmale der Hominiden (Familie der Primaten, die fossile und rezente Menschen einschließt). Ihre Methoden sind sowohl beschreibend als auch analytisch. Institutionen im deutschsprachigen Raum gibt es an Universitäten und an Museen in Tübingen, Kiel, Hamburg, Berlin, Göttingen, Jena, Gießen, Mainz, Ulm, Freiburg im Breisgau, München, Zürich und Wien. Meist ist dort die Bezeichnung nur „Anthropologie“, Zusätze wie „biologisch“ wurden in jüngerer Zeit notwendig, weil der konkurrierende US-amerikanische Begriff der auch hier bekannt ist. Forensische Anthropologie. Die forensische Anthropologie ist eine der drei gerichtlichen Wissenschaften vom Menschen, neben der Rechtsmedizin und der forensischen Zahnmedizin. Gebiete der forensischen Anthropologie: Die forensische Anthropologie dient mit den Mitteln der Anthropologie bei der Aufklärung von Verbrechen. Forensische Anthropologen haben vor allem mit der Identifikation von Bankräubern, Schnellfahrern etc. zu tun, aber auch häufig mit stark verwesten oder vollständig skelettierten Leichen. Nicht selten sind sie die letzte Hoffnung zur Aufklärung eines Verbrechens. In Deutschland gibt es eine starke institutionelle Dominanz der Rechtsmedizin, aber gerade das verhindert manchmal den Zugang zu der eigenständigen Kompetenz der Anthropologie. Geisteswissenschaftlicher Ansatz. Sozialanthropologie. Die Sozialanthropologie gilt als Wissenschaft der kulturellen und sozialen Vielfalt – oder allgemeiner als „Wissenschaft vom Menschen in der Gesellschaft“. Sie analysiert die soziale Organisation des Menschen. Im deutschen Sprachraum war der Begriff „Sozialanthropologie“ eine seit den 1960er Jahren gebrauchte Bezeichnung für die britische oder die französische , wurde dann aber zugunsten der Fachbezeichnung „Ethnosoziologie“ aufgegeben (Fachbereich der Ethnologie). In den letzten Jahren ist jedoch eine Renaissance des Anthropologie-Begriffs zu beobachten, die einer durch Transnationalisierungs- und Globalisierungs­prozesse veränderten Forschungslandschaft Rechnung tragen möchte. Kulturanthropologie. Die Kulturanthropologie ist eine empirisch gestützte Wissenschaft von der Kultur (im Sinne von „menschliche Kultur“). Sie entwickelte sich im 20. Jahrhundert aus der Volkskunde, hat ihren Schwerpunkt im Gegensatz zu dieser aber in interkulturellen, ethnologischen und soziologischen Themen und Modellen. Unter den anthropologischen Fachrichtungen nimmt die Kulturanthropologie eine Mittelposition zwischen den biologisch und den philosophisch orientierten Richtungen ein; sie ist in ihrem Themenspektrum am weitesten gefasst. Im deutschen Sprachraum hat sich bisher keine genauere Definition des Forschungsgegenstandes durchgesetzt. In den USA dagegen bezeichnet "cultural anthropology" die Ethnologie (Völkerkunde). Im Deutschen wird die ungenaue englische Bezeichnung "anthropology" teils falsch mit „Anthropologie“ übersetzt, während eigentlich die Ethnologie gemeint ist. Rechtsanthropologie. Die Rechtsanthropologie bildet eine eigenständige Unterform der Kulturanthropologie. Sie untersucht Inhalt und Funktionsweisen rechtlicher Strukturen des Menschen unterschiedlicher kultureller Traditionen von Stämmen und Völkern (siehe auch Rechtsethnologie). Zudem bezeichnet dieser Begriff eine rechtswissenschaftliche Forschungsrichtung, die sich den naturalen Grundkonstanten von Gesetzgebung und Rechtsprechung verschrieben hat. Dabei beschäftigt sich die Rechtsanthropologie vorwiegend mit dem (westlich-demokratischen) „Menschenbild der Verfassung“, das demgegenüber vom im Willen freien und eigenverantwortlich handelnden Menschen ausgeht. Dafür wählt sie zumeist einen pragmatisch-dualen Ansatz. Der Begriff Kultur, gelegentlich auch der politischere Begriff der Zivilisation, beschreibt dann die sozial-reale Welt, in der der Mensch beide Sichtweisen vereint. Philosophische Anthropologie. Die philosophische Anthropologie ist die Disziplin der Philosophie, die sich mit dem Wesen des Menschen befasst. Die moderne philosophische Anthropologie ist eine sehr junge philosophische Fachrichtung, die erst im frühen 20. Jahrhundert als Reaktion auf den Verlust von Weltorientierung entstand. Mit Ausnahme von René Descartes, der bereits Mitte des 17. Jahrhunderts in seinen "Meditationen über die erste Philosophie" (1641) gewisse Zweifel am mittelalterlich-christlichen Weltbild hegt und Position zu Verhältnis von Körper und Seele bezieht. Er vermittelt ein neues philosophisches Gedankengut wie: „Das Denken (=Bewusstsein ) ist es; es allein kann von mir nicht abgetrennt werden; ich bin; ich existiere - das ist gewiss […] Demnach bin ich genau genommen ein denkendes Ding, d. h. Geist bzw. Seele bzw. Verstand […]“ Historische Anthropologie. Historische Anthropologie bezeichnet einerseits die anthropologische Forschung in der Geschichtswissenschaft, andererseits eine transdisziplinäre Forschungsrichtung, die die historische Veränderlichkeit von Grundphänomenen des menschlichen Daseins untersucht. Dabei bezieht sie die Geschichtlichkeit ihrer Blickrichtungen und methodischen Herangehensweisen sowie die Geschichtlichkeit ihres Gegenstandes, also das Erscheinungsbild des Menschen in den unterschiedenen Epochen, aufeinander. Theologische Anthropologie. Die theologische Anthropologie als Teilbereich der Systematischen Theologie deutet den Menschen aus christlich-theologischer Sicht. Dabei beschäftigt sie sich besonders mit dem Wesen des Menschen und der Bestimmung des Menschen vor Gott. Im Unterschied dazu untersucht die Religionsethnologie als Fachgebiet der Ethnologie (Völkerkunde) die Religionen bei den weltweit rund 1300 ethnischen Gruppen und indigenen Völkern, in Abgrenzung zur Religionssoziologie vor allem bei (ehemals) schriftlosen Kulturen. Industrieanthropologie. Die Industrieanthropologie ist ein Fachbereich der Anthropologie und untersucht die Gebrauchstauglichkeit und Benutzerfreundlichkeit von Industrieprodukten, Bedienelementen, Software, Arbeitsplätzen, Arbeitsprozessen oder Fahrständen. Medienanthropologie. Die Medienanthropologie (auch Anthropologie der Medien oder Anthropologie des Medialen) ist ein junges, interdisziplinäres Forschungsgebiet zwischen Medienwissenschaft und Anthropologie. In der Medienanthropologie werden die Produktion und Nutzung von Medien sowie deren Effekte zumeist mit kulturwissenschaftlichen und ethnografischen Methoden erforscht. Medienanthropologische Forschung wird zudem oft im Zusammenhang mit Medienpädagogik diskutiert. „Medienanthropologisch verstanden sind Menschen Wesen, die sich in Medienpraktiken und -techniken artikulieren, wahrnehmen und wahrnehmbar machen, weil sie etwas darstellen und sich ihnen etwas darstellt.“ Andere Ansätze und Mischformen. Anthropologie in den Sozialwissenschaften. In den Sozialwissenschaften ist die Vorstellung weit verbreitet, dass der Mensch seinem Wesen nach in seinen Antrieben und Bedürfnissen unbestimmt ist, weshalb erst in Vergesellschaftungsprozessen eine Orientierung und Stabilisierung des Verhaltens und Antriebslebens entstehen kann. Dieses Menschenbild bildet die allgemeine anthropologische Voraussetzung für die Analyse von sozialen Prozessen, so etwa bei Karl Marx, Max Weber, George Herbert Mead oder Talcott Parsons. Darüber hinaus gibt es in den Sozialwissenschaften zwei klassische Menschenbilder, die als analytische und idealtypische Modelle fungieren: der "homo oeconomicus" der Wirtschaftswissenschaften und der "homo sociologicus" der Soziologie. Eine „realistische“ Variante des individualistischen "homo oeconomicus" ist das RREEMM-Modell des Menschen, allerdings wird in der sozialwissenschaftlichen Theoriebildung wegen Operationalisierungsproblemen auch weiterhin überwiegend auf die einfacheren Modelle zurückgegriffen. Ausgehend von der Einbeziehung amerikanischer Sozialforscher in den Vietnamkrieg ("Project Camelot") wurde im Rahmen der "Critical Anthropology" ab 1970 eine „reflexive Anthropologie“ entwickelt (Bob Scholte 1970). Die Grundannahme der reflexiven Anthropologie besteht darin, dass sozialwissenschaftliche Aussagen nur dann einer Kritik standhalten, wenn sie die soziale und kulturelle Einbettung des Forschers und der Forschung mit bedenken (reflektieren). Gemäß dem Erkenntnisinteresse jeder Anthropologie („erkenne dich selbst“: "gnothi seauton") ist auf diesem Weg eine Unterscheidung möglich zwischen einer Sozialforschung als Informationsgewinnung über andere Menschen („Ausspähen“, vergleiche Informationelle Selbstbestimmung) oder als Beitrag zur Selbsterkenntnis des Forschers und seiner Auftraggeber. Bedeutende Ansätze zu einer reflexiven Anthropologie wurden von Michel Foucault und Pierre Bourdieu vorgelegt. Das Konzept der reflexiven Anthropologie von Gesa Lindemann schließt sich im Gegensatz dazu an die historisch-reflexive Richtung innerhalb der deutschsprachigen „philosophischen Anthropologie“ (Helmuth Plessner) an. Allgemeine Aussagen der philosophischen Anthropologie werden nicht als sozialtheoretisches Fundament begriffen, sondern zum Gegenstand der Beobachtung gemacht. Bei diesem Ansatz geht es um die Bearbeitung der Frage, wie in Gesellschaften der Kreis sozialer Personen begrenzt wird und welche Funktion der Anthropologie in der Moderne zukommt. Psychologische Anthropologie. In dem verwendeten Schema kann die Psychologie des Menschen nicht gut untergebracht werden, denn die Psychologie vereint geisteswissenschaftliche, biologische, verhaltens- und sozialwissenschaftliche Konzepte und Methoden. Als Wissenschaft vom Erleben und Verhalten des Menschen einschließlich der biologischen bzw. neurowissenschaftlichen Grundlagen ist die Psychologie von vornherein interdisziplinär ausgerichtet. Wegen dieses umfassenden Blicks auf den Menschen kann die empirische Psychologie in ein besonderes Spannungsverhältnis zur Philosophischen Anthropologie geraten, die ebenfalls einen umfassenden theoretischen Ansatz hat, jedoch die empirischen Humanwissenschaften kaum noch zu integrieren vermag. Wichtige Themen der Psychologischen Anthropologie sind u. a. das Menschenbild, die Persönlichkeitstheorien, die Grundlagen von Motiven, Emotionen in der Neurobiologie und Psychophysiologie, die Beiträge der Kognitionswissenschaft, Sozialpsychologie und Kulturpsychologie, alle Bereiche der Angewandten Psychologie und so weiter. Auch Psychoanalyse und Psychosomatik galten als anthropologische Disziplinen. Evolutionäre Anthropologie. Evolutionäre Anthropologie wird vor allem vom gleichnamigen Institut betrieben. "Das Max-Planck-Institut für evolutionäre Anthropologie erforscht die Geschichte der Menschheit mittels vergleichender Analysen von Genen, Kulturen, kognitiven Fähigkeiten, Sprachen und sozialen Systemen vergangener und gegenwärtiger menschlicher Populationen sowie Gruppen dem Menschen nahe verwandter Primaten. Die Zusammenführung dieser Forschungsgebiete führt zu neuen Einsichten in die Geschichte, die Vielfalt und die Fähigkeiten der menschlichen Spezies. Das Institut vereint Wissenschaftler verschiedenster Disziplinen, die sich von einem interdisziplinären Ansatz her mit der Evolution des Menschen beschäftigen.". Michael Tomasello hat unter anderem "Eine Naturgeschichte der menschlichen Moral" und das Werk "Mensch werden. Eine Theorie der Ontogenese" verfasst. Pädagogische Anthropologie. Die pädagogische Anthropologie ist der Teilbereich der Pädagogik, der sich mit dem Ertrag anthropologischer Fragen, den Zugangsweisen und den Ergebnissen innerhalb der Pädagogik befasst. Grob lassen sich hier zwei Richtungen unterscheiden: Die "Realanthropologie" widmet sich der empirischen Betrachtung der Wirklichkeit des Menschen unter dem Fokus, der sich aus der Pädagogik ergibt. Die "Sinnanthropologie" fragt nach dem Sinn und den Zielen menschlichen Handelns, die in den pädagogischen Kontext eingearbeitet werden. Die Sinnanthropologie weist so besondere Bezüge zur Bildungstheorie auf, indem sie aus einem je spezifischen Menschenbild Bildungsansprüche ableitet. Sie weist innerhalb der verschiedenen Anthropologien eine besondere Nähe zur philosophischen und theologischen Anthropologie auf. Die Realanthropologie steht besonders der biologischen, daneben auch der philosophischen Anthropologie nahe. Die Einteilung setzte sich in den 1960er Jahren fort in der Unterscheidung zwischen integrativen und philosophischen Ansätzen. Die „integrativen“ Ansätze versuchen vor allem, anthropologische Erkenntnisse verschiedener Teildisziplinen (insbesondere der Biologie, der Soziobiologie und so weiter) für pädagogische Fragen nutzbar zu machen. Vertreter dieses Ansatzes sind unter anderem Heinrich Roth und Annette Scheunpflug. Der „philosophische“ Ansatz hat sich in verschiedenen Richtungen ausdifferenziert. So besteht Otto Friedrich Bollnows Ansatz darin, anthropologische Fragen (beispielsweise nach dem Wesen des Menschen und seiner Bestimmung) für pädagogische Zusammenhänge nutzbar zu machen. Ähnlich wie andere Autoren orientierte er sich in seinen Arbeiten aber auch an der Phänomenologie. Er versuchte also nicht, aus der Philosophie (oder etwa der Biologie) ein Menschenbild zu gewinnen und es pädagogisch auszuwerten, sondern widmete sich dem pädagogischen Handeln und darin auftretenden Phänomenen wie Krise oder Begegnung unmittelbar, um sie als Bestimmungsgrößen des Menschen zu reflektieren. Der Mensch kommt bei diesen Untersuchungen im Hinblick auf Erziehung in drei Rollen vor: als Erziehender, als Zögling und als Erzieher. In der neueren pädagogischen Anthropologie wird zum einen der integrative Ansatz fortgeführt (beispielsweise auch in der Betrachtung neuerer humanmedizinischer Ergebnisse für Pädagogik). Die philosophische Anthropologie wird heute verstärkt als historische pädagogische Anthropologie fortgesetzt, indem reflektiert wird, dass anthropologische Kenntnisse sowohl auf bestimmte Menschen in bestimmten Epochen bezogen als auch aus einer je spezifischen historischen Position heraus gewonnen werden und deshalb keine überzeitlich allgemeine Gültigkeit beanspruchen können. Kybernetische Anthropologie. Kybernetische Anthropologie bezeichnet den Versuch der begrifflichen Kopplung von Anthropologie und Kybernetik mit dem Vorhaben, den Gegensatz zwischen Natur- und Geisteswissenschaften zu überwinden. Die Cyberanthropologie ist ein neueres Fachgebiet der Ethnologie (Völkerkunde) oder Sozialanthropologie und untersucht transnational zusammengesetzte Online-Gemeinschaften unter Berücksichtigung kybernetischer Perspektiven. Medizinische Anthropologie. Die im 16. Jahrhundert aufgekommene medizinische Anthropologie beschäftigt sich mit der Wechselwirkung von Kultur und Medizin. Anthropologie als Oberbegriff und Dachwissenschaft. Manchmal wird „Anthropologie“ als Oberbegriff für mehrere der oben genannten Einzel- und Humanwissenschaften aufgefasst. Insbesondere in den USA gibt es dementsprechende Bestrebungen, biologische Anthropologie, Kulturanthropologie, Ethnolinguistik und Archäologie unter einem Dach zu vereinen (sog. „Vier-Felder-Anthropologie“). Diese weit verbreitete Auffassung leitet sich von dem Tatbestand her, dass Anthropologie – im Gegensatz und oft in Konkurrenz zur Theologie – Selbsterkenntnis des Menschen als Mensch ist, gemäß der delphischen Maxime "Gnothi seauton", „erkenne dich selbst“. In diesem Sinne geben Detlev Ganten, Volker Gerhardt, Jan-Christoph Heilinger und Julian Nida-Rümelin die umfangreiche Buchreihe "Interdisziplinäre Anthropologie" mit derzeit 19 Bänden heraus. Die "Systematische Anthropologie", ein 1977 veröffentlichtes Werk der deutschen Ethnologen Wolfgang Rudolph und Peter Tschohl, bringt anthropologisch grundlegende Erkenntnisse in einen integrierten Zusammenhang. Mit Hilfe eines eigenen Begriffssystems wird ein gesamtanthropologisches Modell entwickelt, das die Grenzen und Überschneidungen von Disziplinen wie Ethnologie, Biologie, Humangenetik, Psychologie, Soziologie, Philosophie, Geschichte theoretisch auflöst (vergl. zu diesem Ansatz: Interdisziplinarität). „Ziel der Untersuchung ist eine wissenschaftliche Theorie, die dasjenige abdeckt, was systematisch sinnvoll zu einem „Mensch“ genannten Untersuchungsgegenstand gerechnet werden kann, und die damit nicht von einer einzelnen Fachrichtung beherrscht wird.“ Die Untersuchung erschließt ausgehend von allgemeinen Bedingungen der Gesamtwirklichkeit die besonderen Bedingungen des biotischen und humanen Bereichs. Dafür wurde eine global orientierte Auswahl an Studien ausgewertet und die daraus entwickelte interdisziplinäre Systematik theoretisch konsequent ausformuliert. So lautet ein zentrales Untersuchungsergebnis in Kurzform: „Anthropologie ist zu explizieren als Theorie der Klassenexistenz ‚Menschliche Existenz‘ ME. Sie hat damit den vorverständlichen Gegenstandsbereich Mensch als Existenzklasse M aufzufassen und systematisch darzulegen.“ Gegenstand ist die menschliche Existenz als empirisch beschreibbare Tatsache. Die Theorie transportierte einen damals fortschrittlichen, humanen und weit gefassten Kulturbegriff. Wegen technokratisch anmutender Formulierung wurde sie aber nur in der ethnologisch und soziologisch orientierten Fachwelt rezipiert. Gerüst und Inhalt der Theorie müssten heute aktualisiert werden, bieten jedoch „eine Basis für Einzeluntersuchungen von beliebigen Ausschnitten des Gegenstandsbereichs Mensch“. Die praktische Relevanz und damit die Rezeption der "systematischen Anthropologie" von Rudolph und Tschohl waren bereits bei Erscheinen des Werks 1977 äußerst begrenzt. Kritiker wiesen darauf hin, dass die positivistische Begriffssystematik völlig abgehoben von den aktuellen Diskussionen in den Sozialwissenschaften entwickelt worden war. Ihr theoretischer Wert lag in der Einübung einer hierarchisch vernetzten Nomenklatur, die zwar als Ausgangspunkt für empirische Untersuchungen hätte dienen können, wenn sie allgemeine Akzeptanz gefunden hätte, aber über die Wirklichkeit menschlicher Lebensverhältnisse nicht viel mehr aussagte als ein systematisch geordneter Katalog der europäischen wissenschaftlichen Terminologie in den Humanwissenschaften. Ungeklärt blieb auch die Frage, wie die Begriffssystematik von Rudolph und Tschohl in andere Sprach- und Kultursysteme hätte übertragen werden können. Fruchtbarere Ansätze wie das Konzept der reflexiven Anthropologie (vergl. dazu Pierre Bourdieu) und Ethnomethodologie wurden dagegen aus dem anthropologischen Lehrbetrieb verdrängt. Die "Basis-Theorie der Anthropologie" ist ebenfalls Orientierungswissen, das Zusammenhänge zwischen den Disziplinen und Schulen der Humanwissenschaften aufzeigt. Ein Bezugsrahmen ergibt aus den vier Grundfragen der biologischen Forschung (nach Nikolaas Tinbergen): Verursachungen (= Ursache-Wirkungs-Beziehungen bei den Funktionsabläufen), Ontogenese, Anpassungswert, Phylogenese. Diese vier Aspekte sind jeweils auf verschiedenen Bezugsebenen zu berücksichtigen (vergleiche Nicolai Hartmann), beispielsweise Zelle, Organ, Individuum, Gruppe: Dem tabellarischen Orientierungsrahmen aus Grundfragen und Bezugsebenen lassen sich alle anthropologischen Fragestellungen (siehe PDF-Übersichtstabelle, Absatz A), ihre Ergebnisse (siehe Tabelle, Absatz B) und Spezialgebiete zuordnen (siehe Tabelle, Absatz C); er ist Grundlage für eine Strukturierung der Ergebnisse. Mit Hilfe der Basistheorie kann die anthropologische Forschung in Theorie und Empirie vorangetrieben und fundiertes sowie spekulatives Wissen besser auseinandergehalten werden (betrifft z. B. den Schulenstreit in der Psychotherapie). Literatur. Allgemein: Geschichte: Medizinische Anthropologie: Vergleichende Anthropologie: Pädagogische Anthropologie: Spezielle Themen:
107
3073404
https://de.wikipedia.org/wiki?curid=107
Alexander der Große
Alexander der Große (; * 20. Juli 356 v. Chr. in Pella; † 10. Juni 323 v. Chr. in Babylon) war von 336 v. Chr. bis zu seinem Tod als Alexander III. König von Makedonien und Hegemon des Korinthischen Bundes. Alexander dehnte ab 334 v. Chr. die Grenzen des Reiches, das sein Vater Philipp II. aus dem vormals eher unbedeutenden Kleinstaat Makedonien sowie mehreren griechischen Poleis errichtet hatte, durch den sogenannten Alexanderzug und die Eroberung des Achämenidenreichs bis an den indischen Subkontinent aus. Nach seinem Einmarsch in Ägypten wurde er dort als Pharao begrüßt. Auch aufgrund seiner großen militärischen Erfolge wurde das Leben Alexanders ein beliebtes Motiv in Literatur und Kunst, während Alexanders Beurteilung in der modernen Forschung, wie auch schon in der Antike, zwiespältig ausfällt. Mit seinem Regierungsantritt begann das Zeitalter des Hellenismus, in dem sich die griechische Kultur über weite Teile der damals bekannten Welt ausbreitete. Die kulturellen Prägungen durch die Hellenisierung überstanden den politischen Zusammenbruch des Alexanderreichs und seiner Nachfolgestaaten und wirkten noch jahrhundertelang in Rom und Byzanz fort. Leben. Frühe Jahre (356–336 v. Chr.). Alexander wurde im Jahr 356 v. Chr. als Sohn König Philipps II. von Makedonien und der Königin Olympias, einer Tochter des Königs Neoptolemos I. von Epeiros, geboren. Viele Einzelheiten seiner Biografie, vor allem aus der Kindheit, wurden bald legendenhaft ausgeschmückt oder frei erfunden. So berichtet Plutarch gut 400 Jahre später, dass Alexander ohne Zweifel seinen Stammbaum väterlicherseits auf Herakles und Karanos, den ersten König der Makedonen, zurückverfolgen konnte, wodurch Plutarch zugleich die Abstammung Alexanders vom Göttervater Zeus implizit hervorhebt. Ebenso berichtet er, dass Olympias und Philipp Träume gehabt hätten, die ihnen der Seher Aristander so deutete, dass ihnen die Geburt eines Löwen bevorstehe. Olympias nahm für sich in Anspruch, in direkter Linie von dem griechischen Heros Achilleus und Aiakos, einem weiteren Sohn des Zeus, abzustammen. Gemäß einer (wohl ebenfalls legendären) Erzählung Plutarchs soll Alexander in jungen Jahren sein Pferd Bukephalos, das ihn später bis nach Indien begleitete, gezähmt haben, nachdem es zuvor niemandem gelungen war, es zu bändigen. Alexander erkannte, was den Fehlschlägen der anderen zugrunde lag: Das Pferd schien den eigenen Schatten zu scheuen. Daraufhin habe Philipp zu ihm gesagt: Abgesehen von derlei Legenden ist wenig über Alexanders Kindheit bekannt. Makedonien war ein Land, das im Norden des Kulturraums des antiken Griechenlands lag. Es wurde von vielen Griechen als „barbarisch“ angesehen, und nur das Königsgeschlecht der Argeaden, zu dem auch Alexander gehörte, wurde aufgrund der behaupteten Abstammung von Herakles als griechisch anerkannt: Im frühen 5. Jahrhundert v. Chr. wurden erstmals Makedonen als Vertreter der Könige zu den Olympischen Spielen zugelassen, nachdem König Alexander I. eine Abstammung aus dem griechischen Argos und von Herakles in Anspruch genommen hatte. Noch heute birgt die Diskussion um die ethnische Zugehörigkeit der antiken Makedonen politischen Konfliktstoff. Aus den verfügbaren Quellen ist ersichtlich, dass das Makedonische, von dem nur wenige Wörter überliefert sind, für die Griechen wie eine fremde Sprache klang. Ob das Makedonische ein nordgriechischer Dialekt oder eine mit dem Griechischen verwandte eigenständige Sprache war, ist immer noch umstritten. Kulturell und gesellschaftlich unterschieden sich die Makedonen jedenfalls recht deutlich von den Griechen: keine städtische Kultur (siehe Polis), als Binnenreich kaum Kontakte zum mediterranen Kulturraum, und eine monarchische Staatsform, was in Griechenland zu dieser Zeit nicht die Regel war. Gerade das Königtum galt den Hellenen zu dieser Zeit als eine grundsätzlich ungriechische, barbarische Regierungsform. Auf viele Griechen wird die makedonische Gesellschaft zumindest archaisch gewirkt haben. Erst ab dem späten 6. Jahrhundert v. Chr. verstärkte sich der griechische kulturelle Einfluss in der makedonischen Oberschicht. Alexanders Vater Philipp II. hatte das bisher eher unbedeutende Makedonien, das vor ihm Streitobjekt der Adelsfamilien und Kleinkönige des Hoch- und des Tieflands gewesen war, geeint, seine Grenzen gesichert und es nicht zuletzt dank der Erschließung reicher Edelmetallvorkommen zur stärksten Militärmacht der damaligen Zeit gemacht. Er hatte Thessalien und Thrakien erobert und zuletzt alle griechischen Stadtstaaten mit Ausnahme Spartas in ein Bündnis unter seiner Führung gezwungen (Korinthischer Bund). Philipp begann anschließend mit den Vorbereitungen für einen Feldzug gegen die Perser. Schon an den Kriegszügen gegen die Griechen war Alexander zuletzt beteiligt, vor allem in der Schlacht von Chaironeia (338 v. Chr.), in der ein Bündnis griechischer Poleis unter Führung Athens und Thebens unterworfen wurden. Die makedonische Phalanx erwies sich dabei als ein wichtiges Element für den militärischen Erfolg, zentral war jedoch die Rolle der Hetairenreiterei, die Alexander bei Chaironeia kommandierte. Seine späteren Erfolge gehen zweifellos zu einem bedeutenden Teil auf die Militärreformen seines Vaters zurück. Philipp umgab sich außerdem mit sehr fähigen Offizieren, wie etwa Parmenion, die auch einen großen Anteil an Alexanders späteren Siegen hatten. Philipp holte den griechischen Philosophen Aristoteles in die makedonische Hauptstadt Pella und beauftragte ihn, Alexander in Philosophie, Kunst und Mathematik zu unterrichten. Alexander war gebildet; seine Abschrift der "Ilias" hütete er laut Plutarch wie einen Schatz, und er brachte der griechischen Kultur große Bewunderung entgegen. Das Verhältnis zwischen Vater und Sohn war keineswegs frei von Konflikten, gerade in Hinsicht auf die Liebschaften des Vaters, durch die sich Alexander in seiner Position als Thronfolger bedroht sah. Philipp hatte 337 v. Chr. Kleopatra, die Nichte seines Generals Attalos, als Nebenfrau geheiratet. Während eines Banketts soll Attalos Öl ins Feuer gegossen und gesagt haben, er hoffe, dass Philipp nun endlich einen legitimen Erben erhalten würde. Alexander, dessen Mutter keine Makedonin war, sei daraufhin wutentbrannt aufgefahren und habe Attalos angeschrien: Alexander warf einen Becher nach Attalos und wollte auf ihn losgehen. Auch Philipp erhob sich und zog sein Schwert, jedoch nicht um Alexander in Schutz zu nehmen, sondern um Attalos zu helfen. Da aber Philipp bereits betrunken war, stolperte er und fiel hin. Alexander soll ihn, so Plutarch, höhnisch angeblickt und sich den versammelten Makedonen zugewandt haben: Alexander befürchtete nun offenbar, von der Thronfolge ausgeschlossen zu werden. Schließlich floh er mit seiner Mutter über Epeiros nach Illyrien. Nach einem halben Jahr kehrte er nach Pella zurück, doch seine Thronfolge blieb weiterhin unsicher. Philipp wurde im Sommer 336 v. Chr. in der alten Hauptstadt Aigai (auch bekannt als Vergina) während der Hochzeit seiner Tochter Kleopatra mit dem König Alexander von Epeiros von dem Leibgardisten Pausanias ermordet. Das Motiv des Täters scheint offensichtlich: Pausanias, den Freunde Alexanders sofort nach der Tat erschlugen, war ein Vertrauter Philipps gewesen und war von Attalos beleidigt worden; dabei fühlte er sich von Philipp ungerecht behandelt. Es gab aber bald Gerüchte, wonach Alexander als Drahtzieher an der Tat beteiligt gewesen war. Die Mutmaßungen über die Hintergründe des Mordes und über eine Verwicklung von Olympias und Alexander sind weitgehend spekulativ, auch wenn eine Mitwisserschaft nicht ausgeschlossen werden kann. Regierungsübernahme und Sicherung der Macht (336–335 v. Chr.). Im Jahre 336 v. Chr. folgte der zwanzigjährige Alexander seinem Vater auf den Thron. Dass es keinen nennenswerten Widerstand gab, ist offenbar Antipater zu verdanken, der das Heer dazu bewog, Alexander als König anzuerkennen. Schon in den ersten Tagen ließ er Mitglieder des Hofstaats exekutieren, die das Gerücht gestreut hatten, Alexander habe etwas mit der Ermordung seines Vaters zu tun gehabt. Als nächstes wandte er sich seinem Erzfeind Attalos zu, der sich auf der Flucht befand, jedoch von seinem Schwiegervater Parmenion getötet wurde. Sowohl Antipater als auch Parmenion standen deswegen lange in Alexanders besonderer Gunst und profitierten nicht unerheblich davon: Antipater blieb während des Asienfeldzugs als Reichsverweser in Makedonien, während Parmenion sich seine Unterstützung mit großem Einfluss im Heer vergelten ließ. Noch 336 ließ sich Alexander in Korinth die Gefolgschaft der griechischen Städte versichern. Die Völker in Thrakien und Illyrien versuchten jedoch, die Situation zu nutzen und die makedonische Herrschaft abzuwerfen. Alexander zog im Frühjahr 335 v. Chr. mit 15.000 Mann nach Norden ins heutige Bulgarien und Rumänien, überquerte die Donau und warf die thrakische Revolte nieder. Anschließend verfuhr er ebenso mit den Illyrern (siehe auch: Balkanfeldzug Alexanders des Großen). Während Alexander im Norden kämpfte, beschlossen die Griechen im Süden, dass dies der Zeitpunkt sei, sich von Makedonien zu befreien. Ihr Wortführer war Demosthenes, der die Griechen davon zu überzeugen versuchte, dass Alexander in Illyrien gefallen und Makedonien herrscherlos sei. Als erste erhoben sich die Einwohner Thebens und vertrieben die makedonischen Besatzungssoldaten aus der Stadt. Alexander reagierte augenblicklich und marschierte direkt von seinem Illyrienfeldzug südwärts nach Theben. Die Phalanx seines Generals Perdikkas eroberte die Stadt, wo Alexander zur Bestrafung sämtliche Gebäude mit Ausnahme der Tempel und des Wohnhauses des Dichters Pindar zerstören ließ. Sechstausend Einwohner wurden getötet, die übrigen 30.000 wurden in die Sklaverei verkauft. Die Stadt Theben existierte nicht mehr und sollte erst zwanzig Jahre später wieder aufgebaut werden, aber nie mehr zur alten Bedeutung zurückfinden. Abgeschreckt von Alexanders Strafgericht brachen die anderen Städte Griechenlands ihre Revolte ab und ergaben sich. Von den Korinthern ließ sich Alexander von neuem die Gefolgschaft versichern und verschonte sie daraufhin, da er sie als Verbündete in seinem Persienfeldzug brauchte. Beginn des Persienfeldzugs (334–333 v. Chr.). Das Perserreich war zu Alexanders Zeit die größte Territorialmacht der Erde. Die Perserkönige hatten in den zurückliegenden Jahrhunderten die Levante, Mesopotamien, Ägypten und Kleinasien erobert und zwischen 492 und 479 v. Chr. mehrere Versuche unternommen, auch Griechenland zu unterwerfen (siehe Perserkriege). Aus Sicht von Griechen wie Isokrates ebenso wie der älteren Forschung war das Reich aber um 340 v. Chr. geschwächt und hatte seinen Zenit überschritten. In der neueren Forschung wird dies allerdings bestritten; so war den Persern wenige Jahre vor dem Alexanderzug die Rückeroberung des zwischenzeitlich abgefallenen Ägypten gelungen. Ob Persien für die Makedonen eine leichte Beute war, ist daher umstritten. Als sich Alexander 334 v. Chr. dem Perserreich zuwandte, wurde dies von Dareios III. aus dem Haus der Achämeniden beherrscht. Schon Alexanders Vater Philipp hatte Pläne für einen Angriff auf die Perser geschmiedet, angeblich, um Rache für die Invasion Griechenlands rund 150 Jahre zuvor zu nehmen, wobei es sich dabei eher um Propaganda handelte und machtpolitische Gründe den Ausschlag gegeben haben dürften. Eine Armee unter Parmenion, einem der fähigsten makedonischen Generäle, war bereits über den Hellespont nach Asien gegangen, wurde von den Persern aber zurückgeschlagen. Alexander überschritt den Hellespont im Mai 334 v. Chr. mit einer Armee aus etwa 35.000 Makedonen und Griechen, um in die Kämpfe einzugreifen, während rund 12.000 Makedonen unter Antipatros Makedonien und Griechenland sichern sollten. In der Schlacht am Granikos (Mai 334 v. Chr.) kam es zur ersten Begegnung mit den persischen Streitkräften unter der Führung eines Kriegsrates der Satrapen. Der persische General Memnon von Rhodos, ein Grieche, führte 20.000 in persischen Diensten stehende griechische Söldner, doch konnte er sich im Kriegsrat der Satrapen mit einer defensiven Taktik nicht durchsetzen. Alexander errang auch aufgrund einer ungünstigen Aufstellung der Perser einen deutlichen Sieg. Memnon konnte mit einem Teil der Söldner entkommen. Dadurch war die Befreiung der Städte Ioniens möglich geworden, die Alexander als Motiv für seinen Feldzug genannt hatte. Nach dem Sieg übernahm Alexander die politischen und wirtschaftlichen Strukturen der persischen Verwaltung Kleinasiens. In Lydien zog Alexander kampflos in Sardes ein. Er weihte den örtlichen Tempel dem Zeus und nutzte die Reichtümer der Stadt, um seine Männer zu bezahlen. Dann zog er weiter nach Ephesos. Dort war kurz zuvor Memnon mit den Resten der Söldner vom Granikos hindurchgezogen und hatte Unruhen unter den städtischen Parteien entfacht. Alexander ließ die alten Institutionen wiederherstellen und regelte die Befugnisse des Tempels der Artemis. Nach einer Ruhe- und Planungspause brach der König mit dem Gros des Heeres nach Milet auf, der größten Stadt an der Westküste Kleinasiens. Der dortige Satrap kapitulierte als Einziger nicht, da ihm die Ankunft einer persischen Hilfsflotte von 400 Schiffen versprochen worden war. Da auch Alexander von dieser Flotte gehört hatte, wies er Nikanor an, mit 160 Schiffen die Einfahrt zur Bucht von Milet zu versperren. Anschließend gelang ihm die Einnahme der Stadt (Belagerung von Milet). Die Perser, die immer noch unter dem Befehl Memnons standen (allerdings hatten Unstimmigkeiten im persischen Oberkommando einen effektiven Widerstand erschwert), sammelten sich nun in Halikarnassos, der Hauptstadt Kariens, und bereiteten die Stadt auf eine Belagerung vor (→ Belagerung von Halikarnassos). Die Kämpfe waren für Alexander sehr verlustreich. Zwischenzeitlich handelte er einen Waffenstillstand aus, um die makedonischen Gefallenen zu bergen – etwas, was er nie zuvor getan hatte und nie wieder tun sollte. Als er letztlich die Mauern durchbrach, entkam Memnon mit dem Großteil seiner Soldaten auf Schiffen aus der fallenden Stadt. Indem Alexander der karischen Satrapentochter Ada die Herrschaft über Halikarnassos versprach, sicherte er sich das Bündnis mit dem Volk Kariens. Manche Quellen sprechen davon, dass Ada Alexander adoptierte. Hier zeigte Alexander erstmals seine Taktik, Großzügigkeit gegenüber besiegten Völkern walten zu lassen, um sie nicht gegen die Makedonen aufzubringen. Das ursprüngliche Ziel des Persienfeldzugs, die Eroberung der Westküste Kleinasiens, war hiermit erreicht. Dennoch beschloss Alexander, die Expedition fortzusetzen. Entlang der Küsten Lykiens und Pamphyliens traf die makedonisch-griechische Streitmacht auf keinerlei nennenswerten Widerstand. Eine Stadt nach der anderen ergab sich kampflos. Alexander ernannte seinen Freund Nearchos zum Statthalter von Lykien und Pamphylien. Im Winter 334/333 v. Chr. eroberte Alexander das anatolische Binnenland. Er stieß vom Süden vor, sein General Parmenion von Sardes im Westen. Die beiden Armeen trafen sich in Gordion. Hier soll Alexander der Große der Legende nach den Gordischen Knoten mit seinem Schwert durchschlagen haben, über den ein Orakel prophezeit hatte, nur derjenige, der diesen Knoten löse, könne die Herrschaft über Asien erringen. Es gibt aber auch die Version, dass Alexander mit der Breitseite des Schwertes auf die Wagendeichsel schlug, so dass der Druck den Knoten auseinanderriss. Die Makedonen blieben einige Zeit in Gordion, um Nachschub an Männern und die Einfuhr der Ernte abzuwarten. Während dieser Zeit starb Memnon, der Befehlshaber der persischen Armee, im August 333 v. Chr. an einer Krankheit. Zu seinem Nachfolger wurde Pharnabazos ernannt, und da sich die Perser bereits wieder formierten, brach Alexander erneut auf. In Gordion ließ er seinen General Antigonos als Statthalter Phrygiens zurück und übertrug ihm die Aufgabe, den Norden Anatoliens zu unterwerfen und die Nachschubwege zu sichern. Durch Kappadokien marschierte Alexanders Heer nach Kilikien. Dort nahm er nach einem kurzen Gefecht die Hauptstadt Tarsos ein, wo er bis zum Oktober blieb. Schlacht bei Issos (333 v. Chr.). In Tarsos erfuhr Alexander, dass Dareios III. die Bedrohung endlich ernst genug nahm, um selbst ein Heer aus dem persischen Kernland nach Westen zu führen. Plutarch zufolge war dieses persische Heer 600.000 Mann stark – eine Angabe, die sicherlich maßlos übertrieben ist: Der berühmte Althistoriker Karl Julius Beloch, der den Quellen immer sehr skeptisch gegenüberstand, schätzte die tatsächliche Zahl der Perser auf höchstens 100.000, die Stärke des makedonischen Heeres dagegen auf ca. 25.000 bis 30.000 Mann. Dareios gelang es, Alexanders Armee im Norden zu umgehen und Issos zu besetzen, wodurch er die Nachschubwege blockierte. Auch ließ Dareios die in Issos zurückgebliebenen Verwundeten töten. In der Schlacht bei Issos trafen die Armeen im Kampf aufeinander, bis Dareios aufgrund der großen Verluste der Perser vom Schlachtfeld floh. Die Makedonen beklagten 450 Tote und 4000 Verwundete. Unbekannt sind die persischen Verluste, sie dürften aber weit höher gewesen sein. Insgesamt hatte die persische Führung während der Schlacht mehrere Fehler begangen, angefangen bei der Aufstellung – man hatte auf die Umgruppierungen Alexanders nicht reagiert. Auch als Symbol kam der Schlacht große Bedeutung zu: Dareios hatte sich als seinem Gegner nicht gewachsen gezeigt. Zur Sicherung des Lagers der Perser sandte Alexander seinen General Parmenion nach Damaskus. Neben dem reichen Kriegsschatz befanden sich hier auch mehrere Mitglieder der königlichen Familie. Zu den Gefangenen, die in die Hände der Makedonen fielen, gehörten die Mutter des Dareios, seine Frau Stateira, ein fünfjähriger Sohn und zwei Töchter. Alexander behandelte sie mit Respekt. Außerdem wurde Barsine gefangen genommen, die Witwe des Memnon. Es kam zu einer Liebesaffäre zwischen Alexander und Barsine, aus der später ein Sohn hervorgehen sollte, der Herakles genannt wurde. Schon bald bat Dareios Alexander um den Abschluss eines Freundschaftsvertrags und die Freilassung seiner Familie. Alexander antwortete, Dareios solle zu ihm kommen und Alexander als „König von Asien“ anerkennen, dann würde seine Bitte erfüllt; andernfalls solle er sich auf den Kampf vorbereiten. Nach der Schlacht gründete Alexander die erste Stadt in Asien, die er nach sich benannte: Alexandretta, das heutige İskenderun. Hier siedelte er die 4000 Verwundeten der Schlacht an. Lage nach der Schlacht von Issos. Der Ausgang der Schlacht überraschte die antike Welt. Die Erwartungen der Herrscher von Karthago, in Italien, Sizilien, von Sparta bis Zypern, die Kalkulationen der Handelsherren im westlichen Mittelmeerraum, in Athen, auf Delos und in Phönizien erfüllten sich nicht: „… statt der erwarteten Siegesnachricht aus Kilikien kam die von der gänzlichen Niederlage des Großkönigs, von der völligen Vernichtung des Perserheeres.“ Auch die Delegationen aus Athen, Sparta und Theben, die im Hauptquartier des Großkönigs in Damaskus den Verlauf der Feldzüge verfolgten, wurden von Alexanders Feldherrn Parmenion gefangen gesetzt. Alexander selbst widerstand der Versuchung, den Krieg durch einen Marsch nach Babylon rasch zu entscheiden, doch hatte er es nicht einfach, seine Befehlshaber und Gefährten von einer Defensivstrategie zu überzeugen. Nach wie vor beherrschte die persische Flotte das östliche Mittelmeer – sie verfügte zwar über keine Häfen mehr in Kleinasien, jedoch nach wie vor in Phönizien. Durch die Münzgeldtribute hier waren die finanziellen Mittel der Perser noch wenig eingeschränkt, und auch Ägypten stand ihnen noch als logistische und militärische Basis zur Verfügung. Die kommenden Winterstürme ließen zwar keine Flottenunternehmungen mehr erwarten und damit auch keine Gefahr einer raschen Erhebung der Griechen gegen Makedonien – insbesondere des Spartanerkönigs Agis IV. Allerdings kam es nun auch auf das Verhalten der phönizischen Geschwader an, die einen Großteil der persischen Flotte stellten. Zwar verblieben sie in dieser Jahreszeit noch in der Fremde, doch nahm Alexander an, dass er diese Kontingente durch eine sofortige Besetzung ihrer Heimatstädte zumindest neutralisieren könne. Johann Gustav Droysen kommentiert: „Auch die kyprischen Könige glaubten, für ihre Insel fürchten zu müssen, sobald die phönikische Küste in Alexanders Gewalt war.“ Nach einer Besetzung Phöniziens und Ägyptens könne dann ein Feldzug nach Asien von einer gesicherten Basis aus geführt werden, obwohl die Perser natürlich auch Zeit für neue Rüstungen gewannen. Die Versammlung stimmte Alexanders Plan zu. Die Schlacht von Issos hatte noch keine grundsätzliche Entscheidung gebracht: Entgegen den Erwartungen wurde das makedonische Heer nicht vernichtet, und Alexander besaß mit der persischen Kriegskasse in Damaskus die Mittel zur Fortführung des Feldzuges. Eingezogen wurden in Damaskus „2600 Talente in Münzgeld und 500 Pfund Silber“, die „(ausreichten), alle Soldschulden der Armee und Sold für etwa sechs weitere Monate zu bezahlen …“ Belagerung von Tyros und das zweite Angebot des Dareios (332 v. Chr.). Während die Städte in der nördlichen Hälfte Phöniziens – Marathos, Byblos, Arados, Tripolis und Sidon – sich dem Makedonen bereitwillig ergaben, war die dominierende Handelsmetropole Tyros allenfalls zu einem Vergleich bereit. Sie baute dabei auf ihre Insellage knapp vor der Küste, auf ihre vor Ort verfügbare eigene Flotte und die Unterstützung ihrer mächtigen Tochterstadt Karthago. Nachdem Alexander der Zutritt zur Stadt verwehrt worden war – sein Prüfstein war das Verlangen nach einem Opfer im Tempel des Stadtgottes Melkart, des tyrischen Herakles –, brach der König die Verhandlungen ab. Er beschloss, Tyros um jeden Preis einzunehmen, denn er plante schon den Vorstoß nach Ägypten und wollte eine feindliche Stadt, die sowohl mit den Persern als auch mit rebellischen Kräften in Griechenland kooperieren würde, nicht unbezwungen in seinem Rücken lassen. Eine von Arrian überlieferte angebliche Rede Alexanders vor seinen Offizieren, in der die strategischen Überlegungen erläutert werden, ist allerdings eine literarische Fiktion, die auf der Kenntnis des späteren Verlaufs des Feldzugs beruht. Vor dem Beginn der Belagerung bot Alexander den Tyrern Schonung an, falls sie kapitulierten. Sie töteten jedoch seine Unterhändler und warfen die Leichen von den Stadtmauern. Damit war der Weg zu einer Einigung endgültig versperrt. Ohne Flotte blieb nur die Möglichkeit eines Dammbaues durch das zumeist seichte Gewässer, das die vorgelagerte Inselstadt von der Küste trennte, und der Versuch, mit Belagerungsmaschinen Teile der Mauern zu zerstören. Die Finanzierung dieser aufwendigen Methode, die eine entwickelte Technik und die dafür entsprechenden Materialien und Fachkräfte erforderte, konnte Alexander durch die Beute aus dem persischen Hauptquartier in Damaskus bewerkstelligen. Ein erster Dammbau wurde von den Tyrern erfolgreich bekämpft: Es gelang ihnen bei stürmischem Wetter mit einem Brander die zwei Belagerungstürme an der Spitze des Dammes zu entzünden und durch Begleitschiffe mit Geschützen jeden Löschversuch zu vereiteln. Der Sturm riss zudem den vorderen Teil des Dammes weg. Der Vorfall löste im makedonischen Heer vorübergehende Entmutigung aus. Dazu trafen Gesandte des Dareios ein und überbrachten ein neues Friedensangebot des Großkönigs, das Alexander „den Besitz des Landes diesseits des Euphrat“, 10.000 Talente Lösegeld für seine bei Issos gefangene Mutter Sisygambis und seine Gemahlin Stateira sowie die Hand seiner ebenfalls gefangenen Tochter Stateira anbot. Im Anschluss spielte sich ein vermutlich von Kallisthenes von Olynth, den Alexander als Hofhistoriker mit auf den Feldzug genommen hatte, verbreitetes Gespräch ab: Der Befehlshaber Parmenion meinte, wäre er Alexander, so würde er akzeptieren. Alexander entgegnete, das würde er auch tun, wenn er Parmenion wäre. Alexander ließ Dareios mitteilen, er, Alexander, werde sich nehmen, was er wolle; wenn Dareios etwas von ihm erbitten wolle, solle er zu ihm kommen. Der Damm wurde in größerer Breite wiederhergestellt und mit neuen Türmen versehen. In der Zwischenzeit – nach den Winterstürmen – trafen auch die phönizischen Flottenkontingente und die Geschwader der Könige von Zypern in ihren Heimathäfen ein und standen nun Alexander zur Verfügung; insgesamt 250 Schiffe, darunter auch Vier- und Fünfruderer. Diese Bundesgenossenschaft lag auch in der Feindschaft der kleineren Städte Phöniziens gegen Tyros begründet: Die Metropole hatte zwanzig Jahre zuvor zwar einen Aufstand unter Führung von Sidon gegen die Perser befürwortet und Hilfe zugesagt, dann jedoch den Verlauf der Auseinandersetzungen abgewartet und war von den Persern für diese Haltung belohnt worden. Nach der Niederschlagung der Erhebung und der Zerstörung von Sidon errang Tyros die Vorherrschaft unter den phönizischen Handelsstädten. Während die neu gewonnene Flotte ausgerüstet wurde, unternahm Alexander eine Expedition durch das küstennahe Gebirge des Antilibanon, um die Festungen von Gebirgsstämmen zu bezwingen, den Nachschub (Holz für den Maschinenbau) und die Verbindung nach Damaskus zu sichern. Die Karthager konnten den Tyrern nicht helfen, da sie sich im Krieg mit Syrakus befanden. Nach weiteren wechselvollen Kämpfen um die Stadtmauern und zur See, die die Tyrer immer mehr Schiffe kosteten, war die Zeit zum Sturmangriff reif. Alexander beschloss einen kombinierten Land- und Seeangriff. Auf der durch den Damm erreichbaren Seite gelang es, Breschen in die Mauern zu schlagen und ein Landeunternehmen durchzuführen. Die phönizischen Schiffe sprengten die Sperrketten im Südhafen und bohrten die dort liegenden Schiffe in den Grund, die zyprische Flotte verfuhr ebenso im Nordhafen – dort gelang es den Truppen, zusätzlich in die Stadt einzudringen. Die überlieferte Zahl von 8000 Gefallenen der Stadt soll sich auf die gesamte Belagerungszeit beziehen. Ob die anschließende angebliche Kreuzigung von 2000 Kämpfern den Tatsachen entspricht, ist umstritten. Im Vorfeld des letzten Angriffes ließ Alexander Schiffe der Karthager und seiner verbündeten Phönizier zur Evakuierung der Bevölkerung passieren. In Heiligtümer oder Tempel Geflüchtete wurden verschont. Zahlreiche Einwohner – die überlieferte Zahl von 30.000 gilt allerdings als stark übertrieben – wurden in die Sklaverei verkauft. Das war in der Antike eine gängige Praxis, um die Kriegskassen aufzufüllen. Alexander soll allerdings sehr selten zu diesem Mittel gegriffen haben, da er die Bevölkerung für sich gewinnen wollte, denn er konnte sich eine ständige Bedrohung durch Aufständische in seinem kaum durchgängig besetzbaren Hinterland nicht leisten. Tyros wurde wieder aufgebaut und neu besiedelt, um unter makedonischer Hoheit die beherrschende Position in Phönizien zu sichern. Die Nachricht von diesem mit modernster Kriegstechnik errungenen Sieg – die Belagerungstürme sollen eine Höhe von 45 Metern erreicht haben – machte in der antiken Welt weit über die betroffene Region hinaus einen starken Eindruck. Eroberung von Gaza. Alexander, der während der Belagerung auch die Verwaltung und Logistik in den neu gewonnenen Gebieten ordnete, „brach etwa Anfang September 332 von Tyros auf.“ Die Städte und Stämme im südlichen Syrien ergaben sich bis auf die Hafenstadt Gaza. Die Stadt war seit Jahrhunderten der Hauptumschlagplatz des Gewürzhandels. Mit einer Eroberung Gazas konnte Alexander einen der lukrativsten Handelsbereiche zwischen Ost und West unter seine Kontrolle bringen, doch standen den Makedonen dort nicht nur eine recht starke persische Garnison, deren Kommandeur, ein Eunuch namens Batis, als gegenüber Dareios besonders loyal galt, sondern auch arabische (nabatäische) Söldnertruppen gegenüber. Gaza konnte sich rund zwei Monate halten und wurde erst nach harten Kämpfen erobert, bei denen Alexander selbst verwundet wurde. Wie zuvor im Fall von Tyros verhielt sich Alexander nach seinem Sieg gnadenlos gegenüber den Verteidigern. Möglicherweise ist der erbitterte persische Widerstand auch auf die Strategie des Dareios zurückzuführen, sich im Westen so viel Zeit wie möglich zu erkaufen, um im Osten weitere Truppen für den Kampf gegen Alexander zu sammeln. Dass der Kommandant Batis nach der Eroberung wie Hektor durch Achilles vor Troja um die Stadt geschleift worden sein soll, wird angezweifelt. Einen unmittelbaren Gewinn konnte sich Alexander von einer Eroberung nicht versprechen, denn die Gewürzhandelsgeschäfte des Jahres waren abgeschlossen, da „die Route nur einmal im Jahr befahren wurde.“ Wetterverhältnisse und „Orientierungsschwächen beschränkten die Aktivitäten mediterraner Seefahrt auf das halbe Jahr zwischen Mai und Oktober, in dem das Wetter in der Regel verläßlich gut war. […] Faktisch lag der Zeitpunkt Mitte August (Hesiod, 700 v. Chr.), denn es stand auch noch die Rückreise an.“ Organisiert war diese Fahrt bis in die Spätantike als riesiges „Kauffahrtgeschwader“ zuerst entlang der östlichen Küsten – vor allem Kornfrachter, Sklaven- und Baumaterial-Transporten sowie Postschiffen und anderen, die dann übers Meer von Kriegsschiffen begleitet wurden. Durch die Belagerung von Tyros waren die Handelsunternehmen 332 v. Chr. schon stark beeinträchtigt worden. Alexander nahm sofort den Hafen von Gaza zum Antransport der zerlegten Belagerungsmaschinen in Beschlag. Die Stadt selbst lag nahe dem Meer auf einem flachen Hügel. Gaza war auch der letzte freie Ankerplatz für die persische Flotte in Syrien und somit auch an der kompletten östlichen Mittelmeerküste. Die Flotte war mittlerweile in Auflösung begriffen, da die griechischen Kontingente nun ebenfalls – klimabedingt – im Herbst in ihre Heimathäfen zurück segelten. Es wird davon ausgegangen, dass der Gewürztransport nach Gaza danach in der „Felsenstadt“ Petra – der davor liegenden Station der Weihrauchstraße – angehalten wurde. Petra war „zentrales Weihrauchlager“, da die Stadt in einem Talkessel gewaltige Lagerhallen (Höhlen) besaß. „In Petra saßen die Ökonomen, die kontrollierten, was sie zu welchem Preis an die mediterranen Küsten bringen wollten.“ Für 332 war das Geschäft allerdings schon gelaufen. Den jahreszeitlichen Bedingungen zufolge kehrten im Herbst auch die Kauffahrtsflotten zurück und trafen in Phönizien überall in Häfen ein, die von den Makedonen kontrolliert wurden. Die Auflösung der persischen Kriegsflotte im Herbst war ebenfalls eine Routineangelegenheit, doch war es allen Beteiligten klar, dass die Kontingente auf Grund der makedonischen Besetzung sämtlicher Festlandshäfen im östlichen Mittelmeer im nächsten Frühjahr nicht wieder unter persischem Kommando zusammengeführt werden würden. Seekrieg (332 v. Chr.). Während Alexander mit dem Heer 332 v. Chr. den größten Teil des Jahres mit Belagerungen zur Vervollständigung seiner Blockade der persischen Seemacht verbrachte – und dabei die phönizischen Hafenstädte und ihren Handel unter seine Kontrolle nahm –, war die Flotte der Perser durch den bereits im Frühjahr erfolgten Abzug der phönikischen und kyprischen Kontingente geschwächt und verhielt sich defensiv. Die persischen Admirale Pharnabazos und Autophradates versuchten – meist mit Hilfe begünstigter oder eingesetzter Machthaber – die wichtigsten Inseln unter ihrer Kontrolle zu behalten. In Griechenland, das Alexanders Statthalter Antipater bis auf die Peloponnes fest im Griff hatte, rührte sich kein Widerstand. Lediglich der Spartanerkönig Agis III. setzte noch auf die persische Karte und hatte Kreta durch seinen Bruder und Mitregenten Agesilaos besetzen lassen. Doch schon im Vorjahr, noch während des Aufenthalts in Gordion 333 v. Chr., hatte Alexander „Amphoteros, den Bruder des Orestiden Krateros“ beauftragt, „‚in Übereinstimmung mit den Abmachungen des Bündnisses‘ eine neue griechische Flotte auszurüsten.“ Dank „der erbeuteten Schätze aus Sardis“ gelangen die Anfänge dazu und nach dem Sieg bei Issos und dem darauf folgenden Winter, der keine Flottenunternehmungen zuließ, stand Alexanders neue Flotte im Frühjahr 332 v. Chr. bereit. Nun konnten die makedonischen Nauarchen Hegelochos und Amphoteros ihrerseits systematisch die Inseln besetzen – von Tenedos und Chios (wo der persische Admiral Pharnabazos mit der Besatzung von 15 Trieren in Gefangenschaft geriet) – bis nach Kos und schließlich Lesbos. Dort handelte der athenische Söldnerführer Chares mit zweitausend Mann freien Abzug aus und begab sich nach Tainaron, dem Hafen und Söldnermarkt südlich von Sparta. Amphoteros unterwarf zuletzt noch die kretischen Stützpunkte, während Hegelochos bereits nach Ägypten steuerte, „um selbst die Meldung vom Ausgang des Kampfes gegen die persische Seemacht zu überbringen, zugleich die Gefangenen abzuliefern […] So war mit dem Ausgang des Jahres 332 der letzte Rest einer persischen Seemacht, die das makedonische Heer im Rücken zu gefährden und dessen Bewegungen zu hindern vermocht hätte, vernichtet.“ Besetzung Ägyptens (332–331 v. Chr.). Nach der Eroberung von Gaza machte sich Alexander mit einem Teil seines Heeres auf den Weg nach Ägypten. Ägypten war in den vorangegangenen sieben Jahrzehnten mehrfach von den Persern angegriffen und besetzt worden und ging ihnen regelmäßig durch Aufstände wieder verloren. Erst seit drei Jahren war es wieder in der Hand des Großkönigs, doch „Ägypten war von Truppen entblößt, weil der Satrap Sabakes mit einem großen Aufgebot nach Issos gekommen und selbst dort gefallen war. […] Mazakes, vom Großkönig [..] zum (neuen) Satrapen ernannt, konnte nicht an Widerstand denken.“ Er übergab unter Auslieferung von 800 Talenten für freies Geleit die Grenzfestung Pelusion. Ein Teil der makedonischen Flotte segelte nun den Nil aufwärts zur Hauptstadt Memphis, während sich Alexander mit den Truppen auf dem Landmarsch über Heliopolis dorthin begab. In Memphis opferte Alexander dem ägyptischen Gott Apis, wie er auch den Göttern anderer eroberter Länder Opfer darbrachte, anstatt ihn zu verachten wie der persische Großkönig Artaxerxes III., der den heiligen Stier des Gottes hatte töten lassen. „Als Gegengabe scheint Alexander als Pharao des Oberen und Unteren Ägyptens gekrönt worden zu sein, wenngleich diese Ehrung nur in dem „frei erfundenen“ "Alexander-Roman" erwähnt wird.“ „Die Krönung kann nicht auf einen Monat genau datiert werden, bestätigt wird sie aber durch die Pharaonentitel, die ihm in ägyptischen Tempelinschriften [etwa auf dem Amun-Tempel von Luxor] zugeschrieben sind.“ Alexander zog danach am westlichen Nil entlang nordwärts und gründete im Januar 331 v. Chr. an der Mittelmeerküste Alexandria, die bedeutendste all seiner Stadtgründungen. Im März zog Alexander von Paraetonium aus 400 Kilometer südwestwärts durch die Wüste zum Orakel von Siwa, einem dem Gott Amun geweihten Tempel. Was er dort an Botschaften empfing, ist unbekannt. Antike Quellen berichten, Alexander habe dort erfahren, dass er der Sohn des Zeus sei; so soll ihn der oberste Priester als „Sohn des Zeus“ begrüßt haben. Jedoch hatte Alexander sich schon vorher als Sohn des Zeus bezeichnet. Womöglich sollte man den religiös-kulturellen Aspekt dieser Reise aber nicht zu sehr gewichten, denn ebenso können ökonomische Gründe eine Rolle gespielt haben, so die Unterwerfung der Kyrenaika und die Kontrolle über die wirtschaftlich wichtigen Karawanenwege in dieser Region. Von Siwa kehrte Alexander nach Memphis zurück, verweilte dort einige Wochen und führte seine Truppen dann zurück nach Palästina. Eroberung des persischen Kernlands (331–330 v. Chr.). Im Mai 331 v. Chr. kehrte Alexander nach Tyros zurück. Er befahl hier den Wiederaufbau der Stadt, die er mit befreundeten Phöniziern wieder besiedeln ließ. 15.000 zusätzliche Soldaten waren im Frühling aus Makedonien entsandt worden, und bei Tyros trafen sie im Juli mit Alexander zusammen. Seine Armee bestand nun aus 40.000 Fußsoldaten und 7000 Reitern. Alexander zog ostwärts durch Syrien und überquerte den Euphrat. Sein Plan mag gewesen sein, von hier aus südwärts nach Babylon zu ziehen, doch eine Armee unter dem persischen Satrapen Mazaios verstellte den Weg. Alexander vermied die Schlacht, die ihn viele Männer gekostet hätte, und zog stattdessen nordwärts. Derweil zog Dareios selbst eine neue große Streitmacht in Assyrien zusammen, und dieses Heer war es, das Alexander treffen wollte. Im September 331 v. Chr. überquerte das Heer den Tigris. Am 20. September, unmittelbar vor der Schlacht, kam es zu einer Mondfinsternis, die die Perser verunsicherte, weil sie sie als schlechtes Omen deuteten. Das Heer Alexanders lagerte 11 Kilometer von der persischen Armee entfernt bei einem Dorf namens Gaugamela, weshalb die folgende Schlacht als Schlacht von Gaugamela bekannt wurde. Am 1. Oktober kam es zum Kampf. Wenngleich das Heer des Dareios auch diesmal den Truppen Alexanders zahlenmäßig weit überlegen war, siegte abermals Alexander. Er vermochte aber nicht, Dareios selbst zu töten oder gefangen zu nehmen. Obwohl dieser damit erneut entkommen war, war seine Armee praktisch vernichtet. Alexander dagegen hatte nun die Herrschaft über Babylonien gewonnen und konnte ungehindert ins reiche Babylon einziehen. Mazaios, der sich nach der Schlacht von Gaugamela nach Babylon zurückgezogen hatte, übergab die Stadt an Alexander, der sie durch das Ischtar-Tor betrat und sich zum „König von Asien“ ausrufen ließ. Während die Griechen die Völker Asiens zuvor als Barbaren verachtet hatten, sah Alexander sie mit anderen Augen. Fasziniert von der Pracht Babylons befahl er die Schonung aller Bauwerke. Alexander verzieh dem persischen Satrapen Mazaios und ernannte ihn zu seinem Statthalter in Babylon. Nach fünfwöchigem Aufenthalt zog Alexander weiter ostwärts, um die großen persischen Städte im Kernland anzugreifen. Susa ergab sich kampflos. Im Januar 330 v. Chr. erreichten die Makedonen die persische Hauptstadt Persepolis. Zahlreiche Einwohner begingen vor seinem Einzug Selbstmord oder flohen. Die ältere Meinung, Alexander habe die Stadt plündern und den Königspalast niederbrennen lassen, ist inzwischen von der jüngeren Quellenkritik relativiert worden. Archäologische Funde bestätigen, dass lediglich die Gebäude, die Xerxes I. errichtet hatte, brannten, was die Darstellung Arrians wahrscheinlicher macht. Verfolgung und Tod des Dareios (330 v. Chr.). Zwar war Persien nun in Alexanders Hand, doch König Dareios III. war noch immer am Leben und auf der Flucht. Da Alexander mitgeteilt worden war, dass Dareios sich in Medien aufhalte, folgte er seiner Spur im Juni nach Nordwesten nach Ekbatana. Doch auch Dareios’ Anhängerschaft hatte jetzt keine Hoffnung mehr, Persien zurückzugewinnen. Die Vollkommenheit der Niederlage ließ nur die Möglichkeit zu, sich zu ergeben oder zeitlebens zusammen mit Dareios zu fliehen. Bisthanes, ein Mitglied der Königsfamilie, entschied sich, in Ekbatana zu bleiben, wo er Alexander empfing und ihm die Stadt übergab. Alexander zeigte sich wiederum großzügig und ernannte einen Perser zu seinem Statthalter in Medien. In Ekbatana entließ Alexander auch die griechischen Verbündeten und die thessalischen Reiter, was als Zeichen zu verstehen war, dass der vom Korinthischen Bund beschlossene „Rachefeldzug“ damit beendet war. Teile des Bundesheeres wurden jedoch von Alexander als Söldner angeworben. Dareios setzte inzwischen seine Flucht fort. Er hoffte, Zuflucht in Baktrien zu erhalten, wo ein Verwandter namens Bessos Satrap war. Bessos aber setzte Dareios gefangen und schickte einen Unterhändler zu Alexander. Er bot ihm an, Dareios an die Makedonen zu übergeben, wenn im Gegenzug Baktrien frei bliebe. Alexander ging nicht auf die Verhandlungen ein und setzte die Verfolgung fort. Bessos tötete seine Geisel im Juli und floh seinerseits. Die Leiche des Dareios wurde von Alexander nach Persepolis gebracht und dort feierlich beigesetzt. Verfolgung des Bessos (330–329 v. Chr.). In der Zwischenzeit hatte Alexander erkannt, dass er zur Sicherung der Herrschaft über das Perserreich die Unterstützung der persischen Adligen brauchte. Er nutzte Dareios’ Ermordung daher, die Perser zu einem Rachezug gegen Bessos aufzurufen, der sich nun den Namen Artaxerxes gegeben hatte und sich Großkönig von Persien nannte. Die Soldaten waren wenig begeistert davon, dass sie den Tod ihres Erzfeindes vergelten und zudem gemeinsam mit Persern kämpfen sollten. Außerdem war ihnen das Land im Nordosten vollkommen unbekannt. Die dortigen Provinzen Baktrien und Sogdien lagen in etwa auf den Territorien der heutigen Staaten Afghanistan, Usbekistan und Turkmenistan. Im August 330 v. Chr. brach Alexander zu einem neuen Feldzug auf und eroberte zunächst Hyrkanien an der Südküste des Kaspischen Meeres. Unter jenen, die mit Alexander kämpften, war Oxyartes, ein Bruder des Dareios. Statt von Hyrkanien den direkten Weg nach Baktrien zu wählen, zog Alexander über Aria, dessen Satrap Satibarzanes an Dareios’ Gefangennahme beteiligt gewesen war. Alexander eroberte die Hauptstadt Artacoana, verkaufte die Einwohner in die Sklaverei und benannte die Stadt in Alexandreia um; der heutige Name der Stadt ist Herat. Auf seinem weiteren Weg kam es zu einem Zwischenfall, als Philotas, der Sohn des Parmenion, beschuldigt wurde, einen Anschlag auf Alexanders Leben unternommen zu haben. Ob dieser Versuch wirklich unternommen worden war, ist unklar. Vielleicht diente die Affäre Alexander bloß als Vorwand, sich Parmenions zu entledigen, der zum Wortführer seiner Kritiker avanciert war. Sie missbilligten Alexanders Neigung, die Perser zu ehren und ihre Gewänder zu tragen, und sahen dies als Anbiederung an ein barbarisches Volk an. Philotas wurde an Ort und Stelle mit einem Speer getötet. Ein Kurier wurde dann zu den Adjutanten des in Ekbatana gebliebenen Parmenion gesandt. Sie töteten Parmenion auf Alexanders Befehl. Nach beschwerlicher Reise entlang des Flusses Tarnak erreichte Alexander im April 329 das Zentrum des heutigen Afghanistan und gründete Alexandria am Hindukusch (heute Chârikâr). Von hier aus wollte Alexander das Gebirge überschreiten und auf diesem Wege in Baktrien einfallen. Einer Legende zufolge fand man hier den Berg, an den der Titan Prometheus gekettet worden war. Als die Nachricht nach Baktrien gelangte, dass Alexander dabei war, den Hindukusch zu übersteigen, fürchteten die Einwohner von Baktra (heute Balch) die Bestrafung ihrer Stadt und vertrieben Bessos. Die beschwerliche Überquerung des Gebirges hatte die Soldaten indessen gezwungen, manche ihrer Lasttiere zu schlachten. Als sie erschöpft in Baktrien ankamen, wurde das Land ihnen kampflos übergeben. Alexander ernannte seinen persischen Vertrauten Artabazos, den Vater der Barsine, zum Satrapen. Alexander hielt sich nicht lange in Baktra auf und folgte weiterhin Bessos, der nordwärts zum Oxus (Amudarja) geflohen war. Der 75 Kilometer lange Marsch durch wasserlose Wüste wurde vielen zum Verhängnis. Bessos hatte inzwischen alle Schiffe zerstören lassen, mit denen man den Amudarja hätte überqueren können. Die Makedonen brauchten fünf Tage, um genügend Flöße für die Überquerung des Flusses anzufertigen. Dann setzten sie in Sogdien im heutigen Turkmenistan über. Die Begleiter des Bessos wollten nun nicht länger fliehen. Sie meuterten gegen ihn, nahmen ihn gefangen und händigten ihn an Alexander aus. Dieser zeigte sich gnadenlos und ließ Bessos die Nase und die Ohren abschneiden. Anschließend übergab Alexander den Verstümmelten an Dareios’ Bruder Oxyartes, damit er ihn nach Medien an den Ort brächte, wo Dareios ermordet worden war. Dort wurde Bessos gekreuzigt. Alexander ging indessen weiter nach Norden und erreichte die sogdische Hauptstadt Marakanda (heute Samarkand). Das Perserreich unterstand nun Alexander, und niemand außer ihm selbst erhob mehr Anspruch auf den Königstitel über Persien. Alexander in Sogdien (329–327 v. Chr.). Nach der Einnahme von Marakanda zog Alexander noch weiter bis zum Syrdarja und gründete dort im Mai 329 v. Chr. die Stadt Alexandria Eschatê („das entfernteste Alexandria“), das heutige Chudschand in Tadschikistan. Etwa gleichzeitig erhob sich die Bevölkerung Sogdiens gegen ihn. Anführer der Rebellion, die Alexander erhebliche Schwierigkeiten bereitete, war ein Mann namens Spitamenes, der zuvor Bessos verraten und an Alexander übergeben hatte. Die Sogdier, die Alexander zunächst begrüßt hatten, nun jedoch sahen, dass eine Fremdherrschaft durch eine andere ersetzt wurde, machten die makedonischen Besatzungen nieder. Alexander zog Truppen zusammen und marschierte von einer rebellischen Stadt zur anderen, belagerte sieben von ihnen und tötete anschließend sämtliche männlichen Einwohner, wohl um ein abschreckendes Exempel zu statuieren. In der Zwischenzeit eroberte Spitamenes Marakanda zurück, doch Alexander gewann die Stadt erneut, wobei Spitamenes allerdings entkam. Da das Heer geschwächt und stark reduziert war, musste Alexander von der Verfolgung ablassen. Im Zorn brannte er Dörfer und Felder jener Bauern nieder, die die sogdische Revolte unterstützt hatten. Für den Winter 329/328 v. Chr. zog er sich nach Baktra zurück und erwartete neue Truppen, die bald darauf aus dem Westen eintrafen und bitter benötigt wurden. Im Frühling 328 v. Chr. kehrte Alexander nach Sogdien zurück. Den Quellen zufolge gründete er am Amudarja ein weiteres Alexandria, das vielleicht mit der heutigen Siedlung Ai Khanoum identisch ist. Der Kampf gegen die sogdischen Rebellen dauerte das ganze Jahr. Erst Monate später zeigte sich, dass die Anhänger des Spitamenes ihren Befehlshaber zu verlassen begannen. Das Haupt des Rebellenführers wurde Alexander schließlich im Dezember 328 v. Chr. überbracht. Während der Sieg gefeiert wurde, kam es zu einem Streit zwischen Alexander und seinem General Kleitos. Kleitos, der altmakedonisch gesinnt war, sollte demnächst nach Baktrien aufbrechen. Grund war vermutlich sein Alter, aber Kleitos sah dies als Herabsetzung an. Es ist auch möglich, dass Kleitos bei dieser Gelegenheit die Proskynese kritisierte, ein von Alexander übernommenes persisches Hofritual der Unterwerfung unter den Herrscher. Die Streitenden waren zu diesem Zeitpunkt betrunken, und Kleitos hatte Alexanders Vater Philipp zu loben begonnen. Hierdurch fühlte sich Alexander so beleidigt, dass es zum Streit kam, in dessen Verlauf Alexander vergeblich nach seinen Waffen suchte, da sie vorsichtshalber von einem Leibwächter beiseitegelegt worden waren. Alexander, der möglicherweise Verrat befürchtete, rief in höchster Erregung auf Makedonisch nach einer Lanze, entriss einer Wache eine und tötete mit ihr Kleitos, der ihm am Granikos das Leben gerettet hatte. Als Alexander wieder bei Besinnung war, bereute er diese Tat zutiefst: Es heißt, er solle geklagt und geweint und versucht haben, sich das Leben zu nehmen. Er sah diese Tat jedenfalls als einen seiner schwersten Fehler an. Alexanders Neigung zu übermäßigem Alkoholgenuss, zumeist in allgegenwärtiger Gesellschaft, blieb eine Schwäche, bei der er häufig die Selbstkontrolle verlor. Das gemeinsame Trinken der Männer (Symposion) gehörte fest zum gesellschaftlichen Leben in der griechischen Welt. Im folgenden Jahr 327 v. Chr. eroberte Alexander noch zwei sogdische Bergfestungen. Dann war niemand mehr übrig, der ihm Widerstand hätte leisten können. Zwei Jahre hatten die Sogdier sich gegen Alexander erhoben und ihn in immer neue Scharmützel verwickelt. Nach dieser Zeit waren die meisten von ihnen tot oder versklavt. Bevor Alexander nach Baktrien zurückkehrte, ließ er 11.000 Mann Besatzung in den eroberten Gebieten Sogdiens zurück. Alexander in Baktrien (327 v. Chr.). Zurück in Baktra gab Alexander eine Reihe von Befehlen, die seine makedonische Generalität weiter von ihm entfremdete. Da sich baktrische Reiter bei den Feldzügen in Sogdien als hilfreich erwiesen hatten, befahl Alexander seinen Generälen, 30.000 junge Perser und Baktrier zu Phalanx-Soldaten auszubilden. Auch in die Kavallerie wurden Einheimische integriert. Die Soldaten akzeptierten die Auflagen widerstrebend, denn noch immer trauten sie den Persern nicht. Alexander heiratete in Baktra die sogdische Prinzessin Roxane, Tochter eines Mannes namens Oxyartes (nicht identisch mit dem gleichnamigen Bruder des Dareios). Durch diese politische Heirat gedachte er zur Befriedung Sogdiens beizutragen. Dafür schickte Alexander seine langjährige Geliebte Barsine und den gemeinsamen unehelichen Sohn Herakles fort. Die Heirat war auch eine Beleidigung für Alexanders Verbündeten Artabazos, den Vater der Barsine, seinen Statthalter in Baktrien. Außerdem versuchte Alexander, das persische Hofritual der Proskynese einzuführen: Jeder, der vor den König treten wollte, musste sich vor ihm verbeugen und das Gesicht auf den Boden pressen. Freie Makedonen und Griechen unterzogen sich einer solchen Unterwerfungsgeste allerdings nur vor den Göttern. Es heißt, dass mehrere von Alexanders Generälen sich weigerten, sich derart vor ihm zu erniedrigen. Fortan galt sie nur noch für Perser. Alexanders Anordnungen wurden als so befremdlich empfunden, dass es diesmal zur offenen Revolte unter den griechischen Soldaten zu kommen drohte. Im Rahmen der sogenannten Pagenverschwörung ließ Alexander auch eine Reihe von einstigen Gefolgsleuten hinrichten, darunter seinen Hofbiografen Kallisthenes. Indienfeldzug (326 v. Chr.). Nach der Eroberung des gesamten Perserreichs fasste Alexander den Beschluss, sein Imperium weiter nach Osten auszudehnen. Indien war für die Griechen ein halblegendäres Land, über das sie kaum etwas wussten. Das Land, das damals Indien genannt wurde, ist nicht identisch mit dem heutigen Staat Indien. Es begann dort, wo Persien endete, im Osten Afghanistans, und umfasste Pakistan und das heutige Indien. Eine definierte Ostgrenze gab es nicht, da kein Reisender jemals weit nach Indien vorgedrungen war. Die westlichsten Teile jenes Indiens hatten zu Zeiten Dareios’ I. zu Persien gehört. Indien war kein geeinter Staat, sondern bestand aus einer Vielzahl von Kleinstaaten. Für den Indienfeldzug gab es keinerlei militärische Notwendigkeit. Die Gründe werden auch heute noch in der Forschung diskutiert, ohne dass bisher eine Einigung erzielt worden wäre. Möglicherweise waren es Alexanders Kriegslust, eine Art irrationales Streben und Sehnsucht nach Erfolgen "(pothos)" – Arrian spricht davon, Alexander sei „Sklave seines unstillbaren Ehrgeizes“ gewesen. Auch Thesen wie die von dem Bestreben, seine Autorität durch immer neue militärische Siege zu festigen, werden angeführt. Auch seine Neugier und sein Forscherdrang, auf die es in den Quellen zahlreiche Hinweise gibt, spielten eine Rolle. Anfang des Jahres 326 v. Chr. stieß Alexander mit zwei Heeren ins Tal des Flusses Kabul vor, das damals ein Teil Indiens war. Der Vorstoß war von besonderer Grausamkeit gekennzeichnet. Immer seltener ließ Alexander gegenüber eroberten Regionen Großmut walten. Städte und Dörfer wurden zerstört und ihre Bevölkerung ermordet. Die zwei Armeen trafen einander am Indus. Alexander machte das Land zwischen Kabul und Indus zur Provinz Gandhara und ernannte seinen Gefolgsmann Nikanor zu deren Statthalter. Am anderen Ufer des Indus wurden Alexanders Truppen von Omphis empfangen, dem König von Taxila, das etwa 30 Kilometer vom heutigen Islamabad entfernt lag. Hier traf Alexanders Zug eine Gruppe nackter indischer Weiser, die die Makedonen Gymnosophisten nannten. Darunter war Kalanos, den Alexander aufforderte, ihn auf seinen weiteren Feldzügen zu begleiten. Kalanos stimmte zu und wurde Alexanders Ratgeber; offensichtlich war er bei den kommenden Verhandlungen mit indischen Führern sehr von Nutzen. Vom Hof des Omphis aus rief Alexander die anderen Staaten des Punjab auf, sich ihm zu unterwerfen und ihn als Gott anzuerkennen. Dies verweigerte Poros, der König von Pauravas, das von Taxila durch den Fluss Hydaspes (heute Jhelam) getrennt war. Im Mai überquerte Alexander während eines Platzregens den Hydaspes und besiegte eine berittene Einheit unter dem Sohn des Poros. Die Griechen und Perser zogen weiter ostwärts. Zahlenmäßig waren sie dem kleinen Heer des Poros, das sie erwartete, überlegen, doch kamen sie in dem üppig bewaldeten Land mit seinen ständigen Regenfällen schwer zurecht. Außerdem waren Berichte zu ihnen gedrungen, dass Poros eine Einheit von 85 bis 200 Kriegselefanten unterhielt. Diese kannten die Makedonen nur aus der Schlacht von Gaugamela, wo Dareios III. etwa 15 dieser Tiere eingesetzt hatte. In der Schlacht am Hydaspes wurden die Inder besiegt. In dieser Schlacht soll Alexanders Pferd Bukephalos im Hydaspes zu Tode gekommen sein, obwohl andere Quellen sagen, es sei schon vor der Schlacht an Altersschwäche eingegangen. Seinem langjährigen Reittier zu Ehren gründete Alexander die Stadt Bukephala (heute wahrscheinlich Jhelam in Pakistan). Poros wurde begnadigt und zu Alexanders Statthalter in Pauravas ernannt. Weiter im Osten am Ganges lag das Königreich Magadha, das selbst den Menschen des Punjab kaum bekannt war. Alexander wollte auch dieses Land erobern. Bei heftigem Monsunregen quälte sich die weitgehend demoralisierte Armee ostwärts und hatte einen Hochwasser führenden Fluss nach dem anderen zu überqueren. Ende Juli stand die Überquerung des Hyphasis (heute Beas) an, und von Magadha waren die Soldaten noch weit entfernt. Hier meuterten die Männer und weigerten sich weiterzugehen; ihr einziges Bestreben war die Heimkehr. Alexander war außer sich, wurde aber letztlich zur Umkehr gezwungen. Am Ufer des Hyphasis gründete er ein weiteres Alexandreia und siedelte hier viele Veteranen an, die damit wenig Hoffnung hegen durften, jemals wieder nach Griechenland zurückzukehren. Rückkehr nach Persien (326–325 v. Chr.). Der beschwerliche Rückweg zum Hydaspes dauerte bis zum September. In Bukephala war mit dem Bau von 800 Schiffen begonnen worden, die den Fluss abwärts zum Indischen Ozean segeln sollten. Dies waren jedoch nicht genug, um Alexanders gesamte Armee zu transportieren, so dass Fußsoldaten die Schiffe am Ufer begleiten mussten. Im November brachen sie von Bukephala auf, doch nach zehn Tagen trafen sie am Zusammenfluss des Hydaspes mit dem Acesines (heute Chanab) auf Stromschnellen, in denen mehrere Schiffe kenterten und viele Griechen ihr Leben verloren. Der weitere Weg führte durch indische Staaten, die Alexander nicht unterworfen hatte. Immer wieder wurde das Heer angegriffen, und die Perser und Griechen zerstörten Städte und Dörfer, wo sie ihnen in den Weg kamen. Im Kampf gegen die Maller wurde Alexander bei der Erstürmung einer Stadt (vielleicht Multan) durch einen Pfeil schwer verletzt. Das Geschoss drang in seine Lunge; obwohl Alexander überlebte, sollte er den Rest seines Lebens unter den Folgen dieser Verwundung leiden. Vom Krankenlager aus befahl er, dass am Zusammenfluss von Acesines und Indus ein weiteres Alexandreia (nahe dem heutigen Uch) gegründet und Roxanes Vater Oxyartes zum Statthalter der neuen Provinz ernannt werden solle. Als Nächstes griff Alexander die Staaten von Sindh an, um seiner Armee den Weg nach Süden freizukämpfen. Die Könige Musicanos, Oxicanos und Sambos wurden unterworfen. Musicanos, der später eine Rebellion anzettelte, wurde letztlich gekreuzigt. Erst als der Monsun wieder einsetzte, erreichte das Heer 325 v. Chr. die Indusmündung und den Indischen Ozean. Alexander gründete hier die Stadt Xylinepolis (heute Bahmanabad) und machte die Flotte gefechtsbereit. Während etwa ein Viertel der Armee so auf dem Seeweg die Rückkehr antreten sollte, musste der Großteil über den Landweg nach Persien zurückkehren. Im August 325 v. Chr. machte sich das Landheer unter Alexanders Führung auf den Weg. Die Flotte unter dem Befehl des Nearchos brach einen Monat später überstürzt auf, da sich die Einheimischen zu erheben begonnen hatten. Praktisch unmittelbar nach dem Abzug des Heeres fielen die gerade eroberten Kleinstaaten Indiens ab und erhoben sich gegen die in den neuen Städten zurückgebliebenen Veteranen, über deren weiteres Schicksal in den wenigsten Fällen etwas bekannt ist. Das heutige Belutschistan war damals als Gedrosien bekannt. Obwohl die Perser vor der Durchquerung der gedrosischen Wüste warnten, ging Alexander dieses Risiko ein, wahrscheinlich weil dieser Weg der kürzeste war. Die Hintergründe sind in der Forschung jedoch umstritten. Ob er wirklich die sagenhafte Königin Semiramis übertreffen wollte, ist wenigstens fraglich; wenn, dann ging es Alexander wohl darum, die Rückschläge des Indienfeldzugs durch dieses Unternehmen zu relativieren. Auch die Stärke seines Heeres zu diesem Zeitpunkt ist ungewiss, von wohl sicher übertriebenen 100.000 Mann bis zu wahrscheinlich realistischeren 30.000. Die sechzigtägigen Strapazen ließen zahllose Soldaten durch Erschöpfung, Hitzschlag oder Verdursten ums Leben kommen; dabei spielte auch der Umstand eine Rolle, dass Alexanders Führer offenbar recht unfähig waren. Im Dezember erreichten die Soldaten Pura (heute Bampur), einen der östlichsten Vorposten Persiens, und waren damit in Sicherheit. Massenhochzeit von Susa, Revolte in Opis und Tod Hephaistions (324 v. Chr.). Alexander gründete im Januar 324 v. Chr. ein weiteres Alexandreia; heute Golashkerd. Auf dem Weg westwärts stieß er in Susa auf Nearchos und seine Männer, die den Seeweg weitgehend unversehrt überstanden hatten. Neue Feiern wurden genutzt, um 10.000 persische Frauen mit Soldaten zu verheiraten – die Massenhochzeit von Susa. Alexander sah die Ehen als Notwendigkeit an, um das Zusammenwachsen von Persern und Makedonen/Griechen weiter voranzutreiben. Er selbst heiratete zwei Frauen, nämlich Stateira, eine Tochter des Dareios, und Parysatis. Er war somit nun mit drei Frauen verheiratet. Die Hochzeiten wurden nach persischem Ritual begangen. Schon Alexanders Vater hatte die Ehe mit mehreren Frauen als diplomatisches Mittel zur Stabilisierung und Ausweitung seines Machtbereiches eingesetzt. In der Forschung wurde dies als Versuch interpretiert, eine Art „Verschmelzungspolitik“ zu betreiben (Johann Gustav Droysen). Der britische Historiker Tarn sah darin gar den Versuch einer „Vereinigung der Menschheit“; viele andere moderne Historiker wie Badian oder Bosworth lehnen dies jedoch ab. Um weitere Attribute eines persischen Staates zu übernehmen, ernannte Alexander seinen langjährigen Freund Hephaistion (und nach dessen Tod Perdikkas) zum "Chiliarchen" (Wesir) und seinen General Ptolemaios zum Vorkoster. Beide Titel waren im Westen unbekannt. Außerdem wurden gegen mehrere Statthalter, die sich bereichert hatten oder ihren Aufgaben nicht sachgerecht nachgekommen waren, Prozesse eröffnet. Harpalos, ein Jugendfreund Alexanders und sein Schatzmeister, befürchtete aufgrund seines Verhaltens einen solchen Prozess. Er setzte sich mit 6000 Söldnern und 5000 Talenten Silber nach Griechenland ab, wurde jedoch bald darauf auf Kreta ermordet. Die Neuerungen Alexanders vergrößerten die Kluft zwischen ihm und seiner makedonischen Generalität. Da die Zahl der Soldaten iranischer Herkunft im Heer die der Makedonen zu übertreffen begann, fürchteten sie, bald gänzlich bedeutungslos zu sein. Perser durften nun auch höhere Ränge in der Armee bekleiden, was die Makedonen als unerhört ansahen. Als die Armee die Stadt Opis am Tigris erreichte, erlaubte Alexander vielen Makedonen die Rückkehr nach Hause. Was sie vorher ersehnt hatten, sahen sie nun als Affront, da dies das erste Zeichen ihrer Ersetzung durch Orientalen zu sein schien. Quellen berichten, dass manche der Soldaten Alexander wüste Beleidigungen entgegen geschrien hätten. Alexander reagierte, indem er sie ihrer Stellungen enthob und drohte, die persischen Soldaten gegen sie zu schicken. Die Soldaten entschuldigten sich, und ihnen wurde verziehen. 11.500 griechische Soldaten wurden in den Folgetagen nach Hause geschickt. Im Herbst des Jahres 324 v. Chr. ging Alexander nach Ekbatana, wo Hephaistion nach einem von vielen Trinkgelagen erkrankte und starb. Alexander, der wohl lange Jahre Hephaistions Geliebter gewesen war (zumindest bis zum Feldzug im Iran), war außer sich vor Trauer. Er ließ laut Plutarch den Arzt seines Freundes kreuzigen, die Haare von Pferden und Maultieren abrasieren und opfern, fastete mehrere Tage und richtete dann ein monumentales Begräbnis aus. Danach ließ er sämtliche Kossaier umbringen. Die Beziehung zwischen Alexander und Hephaistion wird oft mit der zwischen Achilles und Patroklos gleichgesetzt. Auch Alexander selbst nutzte diesen Vergleich, da sich das Geschlecht von Alexanders Mutter Olympias auf den Helden aus dem Trojanischen Krieg zurückführte. Alexander hatte, so wie auch sein Vater Philipp und viele andere Makedonen bzw. Griechen seiner Zeit, Liebes- und sexuelle Beziehungen sowohl zu Frauen – er hatte mehrere, deren bekannteste und wohl ernsthafteste die zu Roxane war – als auch zu Männern. Gleichgeschlechtliche Beziehungen wurden zu jener Zeit nicht geächtet, es kam aber sehr wohl auf den sozialen Status der Partner an. Alexanders letztes Jahr und sein Tod in Babylon (323 v. Chr.). Alexander ließ den persischen königlichen Schatz ausmünzen und warf damit das Vermögen der Achämeniden in das Austauschsystem des Nahen Ostens, womit ein steiler Anstieg im Volumen der Markttransaktionen im Mittelmeergebiet finanziert wurde. Dass der attische Münzfuß nunmehr – außer im ptolemäischen Ägypten – allgemein in der hellenistischen Welt galt, erleichterte den internationalen Handel und die Schifffahrt. Bei den Olympischen Spielen des Jahres 324 v. Chr. ließ Alexander das sogenannte Verbanntendekret verkünden, mit dem er den griechischen Poleis befahl, die jeweils aus politischen Gründen ins Exil getriebenen Bürger wieder aufzunehmen. Dies stellte einen massiven Eingriff in die Autonomie der Städte dar, führte zu heftigen Konflikten in den Gemeinwesen und war letztlich der Anlass dafür, dass sich Athen und mehrere andere Städte nach dem Tod des Königs im Lamischen Krieg gegen die makedonische Herrschaft erhoben. Im Februar 323 v. Chr. kehrte Alexander nach Babylon zurück. Hier bereitete er neue Feldzüge vor, die zur Einnahme der Arabischen Halbinsel führen sollten. Ob er überdies, wie Diodor berichtet, auch plante, anschließend den westlichen Mittelmeerraum mit Karthago zu erobern, ist seit langer Zeit umstritten, wird aber in der neueren Forschung zumeist angenommen, da den Makedonen im Jahre 322 v. Chr. während des Lamischen Krieges eine sehr große Flotte zur Verfügung stand, die mutmaßlich ursprünglich für das Unternehmen gegen Karthago gebaut worden war. Im Mai, kurz vor dem geplanten Aufbruch des Heeres gen Arabien, verkündete Alexander, dass sein toter Freund Hephaistion fortan als Halbgott zu verehren sei, nachdem ein Bote aus der Oase Siwa eingetroffen war, wo Alexander wegen einer Vergöttlichung Hephaistions angefragt hatte. Aus diesem Anlass veranstaltete er Feiern, bei denen er sich wieder dem unmäßigen Trunk hingab. Am nächsten Tag erkrankte er an einem Fieber, und am 10. Juni starb er schließlich. Hinsichtlich der Todesursache wurden seither mehrere Thesen diskutiert, darunter eine, nach der Alexander am West-Nil-Fieber erkrankte. Auch eine Alkoholvergiftung wird immer wieder in Erwägung gezogen. Nach einer in der Antike verbreiteten Überlieferung ist er hingegen vergiftet worden (angeblich mit dem giftigen Wasser des Styx). Wahrscheinlicher ist, dass seine körperliche Schwächung durch zahlreiche Kampfverletzungen und übermäßigen Weinkonsum zu einer Krankheit geführt hat. Da die Ärzte damals auf die reinigende Wirkung von herbeigeführtem Erbrechen und Durchfall vertrauten, war es üblich, Weißen Germer in geringen Dosen zu verabreichen. Die überlieferten Symptome Alexanders sind typisch für eine Vergiftung durch Weißen Germer. Möglicherweise verschlechterten die Ärzte seinen Zustand daher durch wiederholte Gaben des Mittels. Der Leichnam Alexanders soll zur Konservierung in Honig gelegt worden sein. Entgegen dem Wunsch des Verstorbenen, im Ammonium von Siwa begraben zu werden, wurde er in Alexandria beigesetzt. Alexanders letzte Worte auf die Frage, wem er sein Reich hinterlassen werde, sollen gelautet haben: "Dem Besten." Des Weiteren äußerte Alexander eine dunkle Prophezeiung: Er glaube, "dass seine Freunde große Begräbnisspiele für ihn veranstalten werden". Seinen Siegelring übergab er Perdikkas, der nach Hephaistions Tod sein engster Vertrauter gewesen war. Alexandergrab. Alexander hatte eine Beisetzung im Ammonheiligtum der Oase Siwa gewünscht. Erst nach zweijährigen Vorbereitungen setzte sich der Leichenzug in Babylon in Bewegung. Er wurde in Syrien von Ptolemaios, dem künftigen König Ptolemaios I., in Empfang genommen und nach Ägypten geleitet. Dort wurde der Leichnam aber nicht in die Oase gebracht, sondern zunächst in Memphis bestattet. Später (wohl noch in der Regierungszeit Ptolemaios’ I., spätestens einige Jahre nach seinem Tod) wurde er nach Alexandria verlegt, nachdem dort eine prächtige Grabstätte für ihn errichtet worden war. Sie wurde unter König Ptolemaios IV. durch ein neues Mausoleum ersetzt, das dann auch als Grabstätte der Ptolemäer diente, die sich wie alle Diadochen auf Alexanders Vorbild beriefen. Hier wurde er in einem eines Königs würdigen Bezirk (Temenos) beigesetzt und durch Opfer geehrt. Zenobius berichtet im zweiten nachchristlichen Jahrhundert, dass Ptolemaios IV. ein Grabmonument errichtete, in dem Alexander, aber auch die anderen ptolemäischen Könige und Königinnen bestattet wurden. Die Leiche Alexanders soll sich in einem goldenen Sarkophag in einem Gewölbe befunden haben und die Grabstätte wurde "Sema" genannt, während der Teil, in dem die Ptolemäer bestattet waren, als "Ptolemaeum" bezeichnet wurde. Der Sarkophag mit der mumifizierten Leiche Alexanders wurde im 1. Jahrhundert v. Chr. von König Ptolemaios X. durch einen gläsernen ersetzt, der den Blick auf den einbalsamierten Leichnam freigab. Dieser Schritt Ptolemaios' X., der später irrtümlich als Grabschändung gedeutet wurde, sollte den Alexanderkult fördern. Für Caesar, Augustus, Septimius Severus und Caracalla sind Besuche am Grab bezeugt. Möglicherweise wurde es während der Stadtunruhen in der Spätantike oder bei einer Naturkatastrophe zerstört. In den Wirren der Spätantike ging die Kenntnis über den Ort der Grabstätte verloren (zumindest die Leiche soll laut Libanios noch Ende des 4. Jahrhunderts zu sehen gewesen sein). Der Kirchenvater Johannes Chrysostomos († 407) stellte in einer Predigt die rhetorische Frage nach dem Ort des Alexandergrabs, um die Vergänglichkeit des Irdischen zu illustrieren; er konnte also mit Sicherheit davon ausgehen, dass keiner seiner Hörer wusste, wo sich das berühmte Bauwerk befunden hatte. Die Erinnerung daran blieb aber noch in islamischer Zeit erhalten; im 10. Jahrhundert wurde eine angebliche Grabstätte gezeigt. Im 15. und 16. Jahrhundert berichteten europäische Reisende von einem kleinen Gebäude in Alexandria, das als Alexandergrab ausgegeben wurde. Seit dem 18. Jahrhundert sind viele Lokalisierungsversuche unternommen worden, die bisher alle fehlgeschlagen sind. Geschichtlicher Ausblick. Nach Alexanders Tod erwies sich die Loyalität zu seiner Familie, die keinen herrschaftsfähigen Nachfolger stellen konnte, als sehr begrenzt. Zwar wurde zunächst der Erbanspruch seines geistesschwachen Halbbruders und auch der seines postum geborenen Sohnes anerkannt, doch hatte diese Regelung keinen Bestand. Seine Mutter Olympias von Epirus, seine Frau Roxane, sein Sohn Alexander IV., sein illegitimer Sohn Herakles, seine Schwester Kleopatra, seine Halbschwester Kynane, deren Tochter Eurydike und sein Halbbruder Philipp III. Arrhidaios fanden einen gewaltsamen Tod. Statt der Angehörigen des bisherigen makedonischen Königsgeschlechts übernahmen Alexanders Feldherren als seine Nachfolger (Diadochen) die Macht. Da keiner von ihnen stark genug war, sich als Alleinherrscher durchzusetzen, kam es zu einer langen Reihe von Bürgerkriegen, in denen man in wechselnden Koalitionen um die Macht rang. Im Verlauf der Diadochenkriege wurde das riesige Reich in Diadochenreiche aufgeteilt. Drei dieser Reiche erwiesen sich als dauerhaft: das der Antigoniden in Makedonien (bis 148 v. Chr.), das der Seleukiden in Vorderasien (bis 64 v. Chr.) und das der Ptolemäer in Ägypten (bis 30 v. Chr.). Alexander hinterließ zahlreiche neu gegründete Städte, von denen viele seinen Namen trugen; die bedeutendste war Alexandreia in Ägypten. Das kulturelle Vermächtnis Alexanders bestand aus der verstärkten bzw. nun erst einsetzenden Hellenisierung im Alexanderreich bzw. dessen Nachfolgereichen. Der sogenannte Hellenismus prägte die antike Welt vor allem im östlichen Mittelmeerraum und im Vorderen Orient nachhaltig über die nächsten Jahrhunderte. Rezeption. Antike. Quellen. Alexander wurde schon zu Lebzeiten eine mythische Gestalt, wozu sein Anspruch auf Gottessohnschaft beitrug. Die zeitgenössischen erzählenden Quellen sind nicht oder nur in Fragmenten erhalten. Dabei handelte es sich, neben den Fragmenten der angeblichen Kanzleidokumente Alexanders "(Ephemeriden)", größtenteils um Berichte von Teilnehmern des Alexanderzugs. Der Hofhistoriker Kallisthenes begleitete Alexander, um die Taten des Königs aufzuzeichnen und zu verherrlichen. Sein Werk „Die Taten Alexanders“ reichte vielleicht nur bis 331 v. Chr., hatte jedoch einen enormen Einfluss auf die späteren Alexanderhistoriker. Weitere Verfasser von Alexandergeschichten waren König Ptolemaios I. von Ägypten, der als Offizier und Hofbeamter in der Nähe Alexanders gelebt hatte, Aristobulos, der für Alexander Unvorteilhaftes leugnete oder abschwächte, sowie Alexanders Flottenbefehlshaber Nearchos und dessen Steuermann Onesikritos. Die stärkste Nachwirkung unter diesen frühen Alexanderhistorikern erzielte Kleitarchos, der zwar ein Zeitgenosse, aber selbst kein Feldzugsteilnehmer war, sondern in Babylon Informationen von Offizieren und Soldaten Alexanders zusammentrug und zu einer rhetorisch ausgeschmückten Darstellung verband, wobei er auch sagenhafte Elemente einbezog. Zu diesen frühen Legenden gehörte beispielsweise die falsche Behauptung, Alexander und Dareios seien einander wiederholt im Nahkampf begegnet. Im 2. Jahrhundert n. Chr. schrieb der römische Senator Arrian auf der Grundlage der älteren Quellen, unter denen er Ptolemaios und Aristobulos bevorzugte, seine "Anabasis", die verlässlichste antike Alexanderquelle. Wahrscheinlich behandelte auch Strabon in seinen nicht erhaltenen "Historika Hypomnemata" („Historische Denkwürdigkeiten“) das Leben Alexanders; seine erhaltene "Geographie" enthält Informationen aus verlorenen Werken der frühen Alexanderhistoriker. Weitere Nachrichten finden sich im 17. Buch der Universalgeschichte Diodors, der sich auf Kleitarchos stützte. Plutarch verfasste eine Lebensbeschreibung Alexanders, wobei es ihm mehr auf das Verständnis des Charakters unter moralischem Gesichtspunkt als auf den historischen Ablauf ankam. Quintus Curtius Rufus schrieb eine in der Antike wenig beachtete Alexandergeschichte. Justin wählte für seine Darstellung aus seiner (verlorenen) Vorlage, der Universalgeschichte des Pompeius Trogus, vor allem Begebenheiten aus, die geeignet waren, seine Leserschaft zu unterhalten. Die Berichte von Curtius, Diodor und Pompeius Trogus hängen von einer gemeinsamen Quelle ab; das Nachrichtenmaterial, das sie übereinstimmend überliefern, stammt wohl von Kleitarchos. Diese Tradition "(Vulgata)" bietet teils wertvolle Informationen; Curtius wird in der französischen Forschung leicht gegenüber Arrian favorisiert. Zusätzliches Material ist bei Athenaios sowie in der Metzer Epitome und dem Itinerarium Alexandri überliefert. Nur wenige Fragmente sind von den Werken des Chares von Mytilene und des Ephippos von Olynth erhalten. Legende. Als Quelle für den historischen Alexander von relativ geringem Wert, aber literarisch von außerordentlicher Bedeutung ist der „Alexanderroman“. Mit diesem Begriff bezeichnet man eine Vielzahl von antiken und mittelalterlichen Biografien Alexanders, welche seine sagenhaften Taten schildern und verherrlichen. Im Lauf der Jahrhunderte wurde der Stoff fortlaufend literarisch bearbeitet und ausgeschmückt. Die griechische Urfassung in drei Büchern, die den Ausgangspunkt für alle späteren Versionen und Übersetzungen in viele Sprachen bildet, ist wahrscheinlich im späten 3. Jahrhundert in Ägypten entstanden. Ihr unbekannter Autor, der wohl ein Bürger von Alexandria war, wird als Pseudo-Kallisthenes bezeichnet, weil ein Teil der handschriftlichen Überlieferung das Werk irrtümlich dem Alexanderhistoriker Kallisthenes von Olynth zuschreibt. Diesem Werk lagen ältere, nicht erhaltene romanhafte Quellen, fiktive Briefe Alexanders und kleinere Erzählungen zugrunde. Der bekannteste unter den Briefen ist ein angeblich von Alexander an Aristoteles gerichtetes Schreiben über die Wunder Indiens, das in verkürzter Fassung in den Roman eingebaut wurde und auch separat überliefert ist. Die gängige Bezeichnung „Roman“ bezieht sich auf die literarische Gattung des Antiken Romans. Im Gegensatz zum modernen Roman hielten der Verfasser und seine antike und mittelalterliche Leserschaft an dem Anspruch fest, der Inhalt sei Geschichtsschreibung und nicht literarische Erfindung. Die Idee des historischen Alexander, er sei ein Sohn des ägyptischen Gottes Ammon (Amun), verfremdet der Romanautor, indem er aus Alexander ein uneheliches Kind macht. Alexanders Vater ist im Roman der aus Ägypten nach Makedonien geflohene König und Zauberer Nektanebos, der als Ammon auftritt (gemeint ist der Pharao Nektanebos II.). Nektanebos verführt die Königin Olympias während der Abwesenheit ihres Gemahls Philipp. Später tötet Alexander, der als Sohn Philipps aufwächst, seinen leiblichen Vater; erst dann erfährt er seine wahre Abstammung. So macht der ägyptische Autor Alexander zum Ägypter. Eine weitere wesentliche Neuerung des Pseudo-Kallisthenes ist die Einführung eines nicht historischen Italienzugs Alexanders, auf dem der Makedone nach Rom kommt. Rom unterstellt sich ihm ebenso wie alle anderen Reiche des Westens kampflos. Dann unterwirft er in schweren Kämpfen die Völker des Nordens, bevor er gegen das Perserreich zieht. Hier zeigt sich das literarische Bedürfnis, den Helden auch den Westen und Norden erobern zu lassen, damit seine Weltherrschaft vollendet wird. Roxane ist im Roman eine Tochter des Perserkönigs Dareios, die dieser sterbend Alexander zur Frau gibt. Das letzte der drei Bücher, das den Indienfeldzug und den Tod des Helden behandelt, ist besonders stark von Wundern und phantastischen Elementen geprägt. Es schildert auch Alexanders angeblichen Besuch bei der Königin Kandake von Meroe, wobei der König in Verkleidung auftritt, aber enttarnt wird (eine Episode, der spätere Bearbeiter des Stoffs eine ursprünglich völlig fehlende erotische Komponente verleihen). Schließlich wird Alexander vergiftet. Im frühen 4. Jahrhundert fertigte Iulius Valerius eine freie lateinische Übersetzung des Alexanderromans an "(Res gestae Alexandri Magni)". Dabei nahm er Hunderte von Erweiterungen, Änderungen und Auslassungen vor. Er beseitigte Ungereimtheiten und Formulierungen, die den Makedonenkönig in ein ungünstiges Licht rücken konnten, und fügte für Alexander vorteilhafte Details ein. Sein Alexander ist eine mit allen Herrschertugenden ausgestattete Idealgestalt; er begeht zwar Fehler, lernt aber daraus. Ein weiterer Bestandteil der antiken Alexandersage sind fiktive Dialoge des Königs mit den indischen Brahmanen sowie Briefe, die angeblich zwischen ihnen ausgetauscht wurden. Dabei versuchen die Inder, die Überlegenheit östlicher Weisheit und einer einfachen, naturnahen Lebensweise gegenüber der griechischen Zivilisation und dem Machtstreben Alexanders aufzuzeigen. Auch dieses Schrifttum war sowohl griechisch als auch lateinisch verbreitet. Da es um grundsätzliche Fragen der Lebensführung und um Askese ging, war die Wirkung in christlicher Zeit beträchtlich. Kult und Vorbildfunktion. Die Herrscher, die nach Alexanders Tod in den verschiedenen Teilen seines Reichs an die Macht kamen, waren nicht mit ihm blutsverwandt, und soweit in Makedonien Loyalität zur herkömmlichen Ordnung vorhanden war, galt sie dem Herrscherhaus insgesamt, wobei es nicht speziell auf die verwandtschaftliche Nähe zu Alexander ankam. Daher gab es in den Diadochenreichen wenig Anlass für einen offiziellen staatlichen Alexanderkult; dieser blieb den einzelnen Städten überlassen. Erst in hoch- und späthellenistischer Zeit wurde der politische Rückgriff auf Alexander zu einem wichtigen propagandistischen Mittel. Einen Sonderfall bildete jedoch Ägypten, dessen neue Hauptstadt Alexandria eine Gründung Alexanders und der Ort seines Grabes war. Die dort regierenden Ptolemäer förderten von Anfang an den Alexanderkult im Rahmen ihrer Propaganda. Er bildete aber zunächst keinen zentralen Bestandteil ihrer Herrschaftslegitimation und wurde erst von Ptolemaios X., der den Doppelnamen „Ptolemaios Alexandros“ führte, intensiv politisch instrumentalisiert. Ein prominenter Gegner der Römer, König Mithridates VI. von Pontos († 63 v. Chr.), fiel durch seine mit Nachdruck betriebene Alexander-Imitation auf. Er bekleidete sich mit dem Mantel Alexanders, den er von den Ptolemäern erbeutet hatte, und illustrierte so seinen Anspruch, Vorkämpfer des Griechentums und Retter der hellenistischen Monarchie vor den Römern zu sein. Später erbeutete der römische Feldherr Gnaeus Pompeius Magnus, der Mithridates besiegte, diesen Mantel und trug ihn bei seinem Triumphzug. Mit Pompeius, dessen Beiname „der Große“ an Alexander erinnerte, begann die offenkundige römische Alexander-Imitation, zunächst als Reaktion auf die Propaganda des Mithridates. Mehrere römische Feldherren und Kaiser stellten sich propagandistisch in Alexanders Nachfolge; sie verglichen sich mit ihm und versuchten, seine Erfolge im Osten zu wiederholen. Dabei steigerte sich die Verehrung Alexanders in manchen Fällen zu einer demonstrativen Nachahmung von Äußerlichkeiten. Zu den Verehrern und Nachahmern Alexanders zählten unter den Kaisern insbesondere Trajan, Caracalla und (mit Vorbehalten) Julian. Augustus trug zeitweilig auf seinem Siegelring ein Bildnis Alexanders, Caligula legte sich den aus Alexandria geholten angeblichen Panzer Alexanders an, Nero stellte für einen geplanten Kaukasusfeldzug eine neue Legion auf, die er „Phalanx Alexanders des Großen“ nannte, Trajan setzte sich einen Helm auf, den Alexander getragen haben soll. Kaiser Severus Alexander, der ursprünglich Alexianus hieß, änderte seinen Namen in Anknüpfung an den Makedonen. Urteile. Einen sehr tiefen und dauerhaften Eindruck hinterließ in Griechenland die Zerstörung Thebens. Sie wurde nicht nur von den Zeitgenossen, sondern jahrhundertelang (noch in der römischen Kaiserzeit) als unerhörte Grausamkeit empfunden, die man Alexander zur Last legte, und als historisches Musterbeispiel einer entsetzlichen Katastrophe zitiert. Besonders die antiken Redner kamen mit Vorliebe darauf zu sprechen und nutzten diese Gelegenheit, bei ihrem Publikum starke Emotionen zu wecken. Es hieß, Alexander habe wie ein wildes Tier und als Unmensch "(apánthrōpos)" gehandelt. Noch in byzantinischer Zeit wurde diese Deutungstradition rezipiert. Aus philosophischer Sicht wurde Alexander meist negativ beurteilt, da seine Lebensweise einen Kontrast zu den philosophischen Idealen der Mäßigung, Selbstbeherrschung und Seelenruhe bildete. Insbesondere die Stoiker kritisierten ihn heftig und warfen ihm Hochmut vor; ihre Kritik richtete sich auch gegen Aristoteles (den Gründer einer rivalisierenden Philosophenschule), der als Erzieher Alexanders versagt habe. Auch die Kyniker pflegten Alexander abschätzig zu beurteilen, wobei die Anekdote von der Begegnung des Königs mit dem berühmten kynischen Philosophen Diogenes von Sinope den Ansatzpunkt bildete. Ihr zufolge hatte Diogenes Alexander, der ihm einen Wunsch freistellte, nur gebeten: „Geh mir aus der Sonne“, und Alexander soll gesagt haben: „Wenn ich nicht Alexander wäre, wollte ich Diogenes sein.“ In der von Aristoteles gegründeten Philosophenschule der Peripatetiker war die Ablehnung Alexanders ebenfalls ausgeprägt, wenn auch nicht durchgängig. Ihr Anlass waren anscheinend ursprünglich Spannungen zwischen Aristoteles und Alexander, die noch in der römischen Kaiserzeit ein spätes Echo in einem haltlosen Gerücht fanden, wonach Aristoteles ein Gift zubereitet hatte, mit dem Alexander ermordet wurde. Das negative Alexander-Bild der Philosophen teilte auch Cicero. Er überliefert die berühmte Anekdote von dem gefangenen Seeräuber, der von Alexander wegen seiner Übeltaten zur Rede gestellt wurde, worauf der Pirat erwiderte, er handle in kleinem Maßstab aus demselben Antrieb, aus dem der König weltweit dasselbe tue. Besonders drastisch drückte Seneca die stoische Sichtweise aus. Er bezeichnete Alexander als wahnsinnigen Burschen, zum Bersten aufgeblasenes Tier, Räuber und Plage der Völker. Ähnlich äußerte sich Senecas Neffe, der Dichter Lucan. Der philosophisch orientierte Kaiser Julian, der Alexander als Feldherrn bewunderte, kritisierte ihn zugleich scharf wegen Maßlosigkeit und unphilosophischer Lebensführung. Unter den philosophisch orientierten Autoren gab es auch eine kleine Minderheit, die Alexander Lob spendete. Dazu gehörte Plutarch, der in seinen zwei Deklamationen „Über das Glück oder die Tugend Alexanders des Großen“ aus dem König einen Philosophenherrscher machte, dessen Eroberungen barbarischen Völkern Recht und Frieden brachten und die Unterworfenen so humanisierten. Bei diesen Jugendwerken Plutarchs handelte es sich allerdings um rhetorische Stilübungen, die nicht notwendigerweise seine wirkliche Auffassung spiegeln. In seiner Lebensbeschreibung Alexanders äußerte sich Plutarch weit kritischer, bemühte sich aber auch um eine Rechtfertigung Alexanders. Dion von Prusa, der den an Alexander anknüpfenden Kaiser Trajan bewunderte, würdigte die heldenhafte Gesinnung des Makedonenkönigs. Bei den Römern war ein beliebtes Thema die hypothetische Frage, wie ein militärischer Konflikt zwischen dem Römischen Reich und Alexander verlaufen wäre. Der Historiker Livius befasste sich eingehend damit und kam zum Ergebnis, dass die römischen Heerführer dem Makedonenkönig überlegen waren. Alexander habe seine Siege der militärischen Untüchtigkeit seiner Gegner verdankt. Diese Einschätzung verband Livius mit einem vernichtenden Urteil über Alexanders Charakter, der durch die Erfolge des Königs verdorben worden sei. Ähnlich urteilte Curtius Rufus, der die Siege des Makedonen mehr auf Glück als auf Tüchtigkeit zurückführte und meinte, die Herausbildung tyrannischer Züge in Alexanders Charakter sei ein Ergebnis übermäßigen Erfolgs gewesen. Der jüdische Geschichtsschreiber Flavius Josephus beschreibt Gunstbezeugungen des Makedonen für die Juden und behauptet, Alexander habe sich, als er nach Jerusalem kam, vor dem Gott, den die Juden verehrten, niedergeworfen. Dabei handelt es sich um eine jüdische Abwandlung einer griechischen Erzählung. Im 4. Jahrhundert wurden im Osten des Reichs Bronzemünzen Alexanders wie Amulette getragen. Unter den Kirchenvätern hebt sich Orosius als radikalster Kritiker Alexanders ab. In seiner auf Justin fußenden "Historia adversus paganos" („Geschichte gegen die Heiden“) schildert er ihn als blutdürstigen, grausamen Unmenschen und großen Zerstörer. Mittelalter. Die mittelalterliche Alexander-Rezeption war außerordentlich intensiv und vielfältig. Dabei stand das Sagengut im Vordergrund. Die antike Gestalt wurde mittelalterlichen Vorstellungen angepasst; beispielsweise erhält der König eine Ritterpromotion (Schwertleite). Besonders Dichter regte der Stoff im Westen ebenso wie im Orient zur Bearbeitung an; es entstanden über 80 Dichtungen in 35 Sprachen. Quellen. Die grundlegenden antiken Quellen, die im Mittelalter in West- und Mitteleuropa zur Verfügung standen, waren neben Pseudo-Kallisthenes der eifrig rezipierte Curtius Rufus, der nur als Nebenquelle dienende Justin und der viel beachtete Orosius, dessen negative Bewertung Alexanders allerdings wenig Beachtung fand. Besonders die märchenhaften Elemente des Alexanderromans machten Eindruck und regten die Phantasie der Bearbeiter zu weiteren Ausformungen an. Der Roman wurde in zahlreiche europäische Sprachen übersetzt, wobei lateinische Fassungen die Grundlage bildeten; hinzu kamen die teils stark abweichenden Versionen in orientalischen Sprachen (Armenisch, Altsyrisch, Hebräisch, Arabisch, Persisch, Türkisch, Äthiopisch, Koptisch). Eine wesentliche Rolle spielte ferner die Prophetie im biblischen Buch Daniel über den Untergang der aufeinanderfolgenden Weltreiche; in diesem Licht erschien Alexander, der nach mittelalterlicher Deutung das zweite der vier Weltreiche vernichtete und das dritte gründete, als Werkzeug Gottes. Auch dem ersten Kapitel des ersten Makkabäerbuchs war eine knappe Zusammenfassung von Alexanders Lebensgeschichte zu entnehmen; dort las man, dass er bis ans Ende der Welt gelangte und „die Welt vor ihm verstummte“. Dieser biblische Hintergrund verlieh ihm zusätzliche Bedeutung. Heldenkatalog. Im Spätmittelalter zählte man Alexander zum Kreis der Neun Guten Helden, einem in der volkssprachlichen Literatur beliebten Heldenkatalog, der für die Zeit des Alten Testaments, die griechisch-römische Antike und die christliche Zeit jeweils die drei größten Helden benannte; für die Antike waren es Hektor, Alexander und Caesar. Noch breiter als in der Literatur wurde diese Heldenreihe in der Bildenden Kunst (Skulptur, Malerei, Textilkunst) rezipiert. Mittellateinische Literatur. Das Alexanderbild in der lateinischsprachigen Welt des Mittelalters war großenteils vom lateinischen Alexanderroman geprägt. Im Frühmittelalter ging die Hauptwirkung nicht von der ursprünglichen Fassung der von Iulius Valerius stammenden Übersetzung aus, von der nur drei vollständige Handschriften überliefert waren; weit bekannter war ein in mehr als 60 Handschriften erhaltener, spätestens im 9. Jahrhundert entstandener Auszug "(Epitome)" aus diesem Werk. Um 968/969 fertigte der Archipresbyter Leo von Neapel eine neue lateinische Übersetzung des Pseudo-Kallisthenes aus dem Griechischen an, die "Nativitas et victoria Alexandri Magni" („Geburt und Sieg Alexanders des Großen“), die mehrfach – zuletzt noch im 13. Jahrhundert – überarbeitet und erweitert wurde; die überarbeiteten Fassungen sind unter dem Titel "Historia de preliis Alexandri Magni" („Geschichte von den Schlachten Alexanders des Großen“) bekannt. Der Dichter Quilichinus von Spoleto schrieb 1237/1238 eine Versfassung der "Historia de preliis" in elegischen Distichen, die im Spätmittelalter populär wurde. Noch weit einflussreicher war aber die schon zwischen 1178 und 1182 verfasste "Alexandreis" Walters von Châtillon, ein Epos in zehn Büchern auf der Grundlage der Darstellung des Curtius Rufus, das zur Schullektüre wurde und im 13. Jahrhundert als Schulbuch Vergils Aeneis an Beliebtheit übertraf. Walter verzichtete fast gänzlich auf die Auswertung des im Alexanderroman vorliegenden Materials. Für ihn war Alexander der stets siegreiche Held, der sich selbst ebenso wie alle Feinde überwand und so unsterblichen Ruhm erlangte. Das Verhältnis dieser Autoren und ihres Publikums zu Alexander war vor allem von Bewunderung für außerordentliche Heldentaten und von Staunen über das Märchenhafte und Exotische geprägt. Besondere Beachtung fand Alexanders Tod; er bot Anlass zu unzähligen religiös-erbaulichen Betrachtungen, die auf die Endlichkeit und Nichtigkeit aller menschlichen Größe angesichts des Todes abzielten. Auf diesen Aspekt wiesen unter anderem viele Kleindichtungen hin, darunter insbesondere fingierte Grabschriften Alexanders. Besonders fasziniert waren mittelalterliche Leser von einer Erzählung von Alexanders Himmelsflug und Tauchexpedition, die Leo von Neapel nach dem griechischen Roman wiedergab. Dieser Sage zufolge wollte der König nicht nur auf der Erdoberfläche die äußersten Grenzen erreichen, sondern auch den Himmel und die Tiefe des Ozeans erkunden. Zu diesem Zweck ersann und baute er mit seinen Freunden ein von Greifen gezogenes Luftfahrzeug und ein von Ketten gehaltenes gläsernes Tauchfahrzeug. Der Himmelsflug wurde von mittelalterlichen Künstlern häufig abgebildet. Hans Christian Andersen hat die Geschichte noch im 19. Jahrhundert in seinem Kunstmärchen "Der böse Fürst" verarbeitet, ohne jedoch Alexander namentlich zu nennen. Aus dem 12. Jahrhundert stammt das "Iter ad Paradisum" („Paradiesfahrt“), die lateinische Version einer jüdischen Sage über Alexanders Versuch, das irdische Paradies zu finden, den in der Genesis beschriebenen Garten Eden. Neben der Heldenverehrung kamen vereinzelt auch extrem negative Deutungen der Persönlichkeit Alexanders vor. So setzten ihn im 12. Jahrhundert die prominenten Theologen Hugo von St. Viktor und Gottfried von Admont mit dem Teufel gleich. Erzählungen aus dem Alexanderroman wurden in Weltchroniken und Enzyklopädien aufgenommen, was ihre Rezeption zusätzlich erweiterte. Die lateinische Überlieferung bildete die Grundlage für die volkssprachliche Rezeption. In den volkssprachlichen Literaturen entstanden zahlreiche Prosawerke und Dichtungen über Stoffe der Alexandersage, wobei vor allem die verschiedenen lateinischen Fassungen des Pseudo-Kallisthenes, die "Historia Alexandri" des Curtius Rufus und die "Alexandreis" Walters von Châtillon verarbeitet wurden. Romanische Literaturen. Alberich von Bisinzo (Albéric de Pisançon), der im frühen 12. Jahrhundert die älteste volkssprachliche Alexander-Biografie verfasste, ein nur teilweise erhaltenes Gedicht in frankoprovenzalischem Dialekt, verwarf nachdrücklich die Legende von Alexanders unehelicher Geburt und hob seine hochadlige Abstammung von väterlicher und mütterlicher Seite hervor. Er betonte auch die hervorragende Bildung des Herrschers, die – einem mittelalterlichen Bildungsideal entsprechend – neben dem Griechischen (das der Makedone wie eine Fremdsprache lernen musste) auch Latein- und Hebräischkenntnisse umfasst habe. Nach der Mitte des 12. Jahrhunderts entstanden weitere französische Gedichte, die einzelne Episoden aus Alexanders Leben (Belagerung von Tyros, Indienfeldzug, Lebensende) behandelten. Sie wurden im späten 12. Jahrhundert zur „Standardversion“ des altfranzösischen "Roman d’Alexandre" (auch: "Roman d’Alixandre") zusammengefügt, die von allen im romanischen Sprachraum verbreiteten volkssprachlichen Bearbeitungen des Stoffs die stärkste Wirkung erzielte. Dieses Epos besteht aus über 20 000 Versen, Zwölf- und Dreizehnsilbern; vom "Roman d’Alexandre" erhielt dieses Versmaß später die Bezeichnung Alexandriner. Der Roman schildert Alexanders Leben durch Verknüpfung von vier Gedichten unterschiedlichen Ursprungs. Dabei kommt zum Altbestand der Alexanderlegende noch eine Reihe von frei erfundenen Personen und Begebenheiten hinzu. Der Autor stellt Alexander im Stil der Chanson de geste wie einen sehr standesbewussten, ritterlichen Lehnsherrn des Mittelalters dar. Er hebt dabei besonders die Großzügigkeit seines Helden hervor und präsentiert das Ideal eines harmonischen Verhältnisses zwischen König und Vasallen. Neben epischen Partien, besonders in den Kampfschilderungen, finden sich auch stärker romanhafte und vom Phantastischen geprägte. Mehrere Dichter fügten später Ergänzungen hinzu, insbesondere die einem Publikumsbedürfnis entsprechende Darstellung der Rache für den Giftmord an Alexander. In England schrieb Thomas von Kent im späten 12. Jahrhundert einen Alexanderroman in Alexandrinern in anglonormannischer Sprache mit dem Titel "Le roman de toute chevalerie". Er akzeptierte im Gegensatz zu allen älteren romanhaften Bearbeitungen des Stoffs problemlos die Vorstellung, dass Alexander aus einem Ehebruch seiner Mutter hervorging, was für die früheren Autoren ein nicht akzeptabler Makel gewesen war. Im 15. Jahrhundert entstanden Prosafassungen des "Roman d’Alexandre". Der altfranzösische Prosa-Alexanderroman fand weite Verbreitung. Einen Höhepunkt erreichte die Alexander-Bewunderung im Herzogtum Burgund am Hof Herzog Philipps des Guten († 1467) und seines Nachfolgers, Karls des Kühnen. Die bedeutendste spanische Bearbeitung des Stoffs ist "El libro de Alexandre". Dieses Epos umfasst über 10 000 Verse (Alexandriner) und ist damit die umfangreichste epische Dichtung Spaniens aus dem 13. Jahrhundert. Der unbekannte Verfasser, ein vorzüglich gebildeter Geistlicher, verfolgt ein moralisches Ziel; er will dem Leser anhand der erzählten Begebenheiten die vorbildliche Tugendhaftigkeit des Helden vor Augen stellen. In Italien entstand eine Reihe von volkssprachlichen Werken über Alexanders Lebens in Prosa und in Versen, deren Grundlage meist die lateinische "Historia de preliis" war. Die älteste vollständig erhaltene italienische Alexanderdichtung ist die "Istoria Alexandri regis" von Domenico Scolari aus der ersten Hälfte des 14. Jahrhunderts. Scolari christianisiert seinen Helden weitgehend; Alexander ist ein frommer, geradezu heiliger Wundertäter. Als Universalmonarch beglückt er die Welt durch Recht und Frieden. Im 15. Jahrhundert erreichte das Interesse an der Alexandersage in Italien seinen Höhepunkt. Deutsche Literatur. Die deutschsprachige Alexandersage und Alexanderdichtung setzte um die Mitte des 12. Jahrhunderts mit dem Alexanderlied des Pfaffen Lamprecht ein, der sich eng an Alberichs Versroman hielt. Die drei erhaltenen, später bearbeiteten Fassungen von Lamprechts Gedicht, der „Vorauer Alexander“, der „Straßburger Alexander“ und der „Basler Alexander“, setzten jedoch in der Bewertung Alexanders unterschiedliche Akzente. Im „Vorauer Alexander“ wird deutliche Kritik am König geübt. Alexander handelt zwar nach dem Willen Gottes, wird aber als hochmütig und herrschsüchtig dargestellt; die Zerstörung von Tyros wird als schweres Unrecht verurteilt, da die Tyrer als treue Untertanen des Perserkönigs nur ihre Pflicht erfüllten. Überdies erscheint er als mitleidlos, da er nicht über den Tod der vielen Gefallenen trauert. Andererseits verfügt er aber über Umsicht, die ihn seine Neigung zu jähzorniger Unbeherrschtheit überwinden lässt, womit er ein Beispiel gibt und sich von dem sehr negativ gezeichneten Dareios abhebt. Alexander wird bewusst als zwiespältige Persönlichkeit gezeichnet. Ein einfacheres Alexanderbild entwirft ein aus ritterlich-aristokratischer Sicht wertender Autor im „Straßburger Alexander“; hier wird der König als vorbildlicher Kämpfer, Feldherr und Herrscher idealisiert. Als solcher handelt er nicht eigenmächtig, sondern sucht den Rat seiner Vasallen. Er ist klug, gerecht und gütig, und seine schon in der Antike negativ bewertete Neigung zum Jähzorn wird als einigermaßen berechtigt dargestellt. Allerdings ist er nicht frei von Hochmut; zum vollkommenen Herrscher fehlt ihm die Mäßigung, die er aber in seiner letzten Lebensphase doch noch erlangt, womit er das Ideal restlos verwirklicht. Im „Basler Alexander“ dominiert ein anderes, in der mittelalterlichen Alexander-Rezeption ebenfalls zentrales Element, die Freude am Wunderbaren, Seltsamen und Exotischen. Diese Behandlung des Stoffs zielt auf das Unterhaltungsbedürfnis eines breiten, nicht mehr primär an ritterlichen Idealen orientierten spätmittelalterlichen Publikums. Im 13. Jahrhundert verfasst der Dichter Rudolf von Ems das (allerdings unfertig gebliebene) Epos "Alexander". Er schildert den König als vorbildlich tugendhaften Helden und ritterlichen Fürsten, der sich durch seine moralischen Qualitäten als Herrscher legitimiert. Alexander vollzieht als Werkzeug Gottes dessen Willen. Durch ihn werden die Perser, die mit ihrem Verhalten den Zorn des Allmächtigen hervorgerufen haben, gezüchtigt. Sein Handeln ist Teil der Heilsgeschichte, er kann christlichen Herrschern als Vorbild dienen. Ulrich von Etzenbach beschreibt in seinem zwischen 1271 und 1282 entstandenen Gedicht "Alexander" (28.000 Verse) den König nicht nur als edlen Ritter, sondern auch als überaus frommen Mann Gottes, der seine Siege seinem gottgefälligen Verhalten und Gottvertrauen verdankt; die ihm zugeschriebenen Tugenden stammen aus der Heiligendarstellung. Ulrich missbilligt allerdings einzelne Taten wie die Ermordung Parmenions; darin unterscheidet er sich von Rudolf, bei dem Alexander makellos ist und Parmenion sein Schicksal selbst verschuldet. 1352 vollendet der nur aus seinem einzigen Werk bekannte Dichter Seifrit seine Alexanderdichtung, in der er besonders die Rolle Alexanders als Weltherrscher betont und sich bemüht, von seinem Helden den gängigen Vorwurf des Hochmuts fernzuhalten. Im 14. und im 15. Jahrhundert war der Alexanderstoff in neuen Prosabearbeitungen weit verbreitet; die eine befindet sich im "Großen Seelentrost" (Mitte des 14. Jahrhunderts), die andere ist Johann Hartliebs "Histori von dem grossen Alexander", die nach der Mitte des 15. Jahrhunderts entstand. Beide dienten einem moralischen Zweck, doch ihre Verfasser gingen dabei auf völlig entgegengesetzte Weise bewertend vor. Im Großen Seelentrost bietet Alexander das abschreckende Lehrbeispiel eines durch und durch gierigen Menschen, den seine Neugier, Besitzgier und Machtgier letztlich ins Verderben führt, denn er versucht die dem Menschen gesetzten Grenzen zu überschreiten. Bei Hartlieb hingegen ist er ein Vorbild an Mannes- und Fürstentugend und überdies von einem wissenschaftlichen Erkenntnisstreben beseelt. Für mittelalterliche Verhältnisse auffallend ist die positive Wertung der Wissbegierde, eines auf die Natur gerichteten Forscherdrangs, der Alexander zugeschrieben wird. Im 15. Jahrhundert wurden auch Alexanderdramen geschaffen und aufgeführt, doch sind ihre Texte nicht erhalten. Während die mit literarischem Anspruch gestalteten Werke Alexander in der Regel verherrlichen oder zumindest in überwiegend positivem Licht erscheinen lassen, werden im religiös-erbaulichen und moralisch belehrenden Prosaschrifttum oft negative Züge des Makedonenkönigs betont; dort wird er als abschreckendes Beispiel für Maßlosigkeit und Grausamkeit angeführt. Sein Himmelsflug dient Geistlichen wie Berthold von Regensburg als Symbol für frevelhaften Übermut. Andererseits heben bedeutende Dichter wie Walther von der Vogelweide und Hartmann von Aue Alexanders vorbildliche "milte" (Freigebigkeit) hervor. Englische Literatur. Trotz des traditionell großen Interesses am Alexanderstoff in England gab es erst im Spätmittelalter einen Alexanderroman in englischer Sprache, die mittelenglische Dichtung "Kyng Alisaunder", die wohl aus dem frühen 14. Jahrhundert stammt. Sie schildert den König als Helden und hebt seine Großmut hervor, verschweigt aber auch nicht seine Maßlosigkeit und Unbesonnenheit. Eine Reihe von weiteren Schilderungen von Alexanders Leben fußte auf der "Historia de preliis Alexandri Magni", die im mittelalterlichen England beliebt war. Byzanz und slawische Länder. Auch für die volkstümliche byzantinische Alexander-Rezeption bildete der Roman des Pseudo-Kallisthenes den Ausgangspunkt. Er lag zunächst in einer mittelgriechischen Prosabearbeitung aus dem 7. Jahrhundert vor. In spätbyzantinischer Zeit entstanden mehrere Neufassungen. Hier hat Alexander die Gestalt eines byzantinischen Kaisers angenommen; er ist von Gott gesandt und mit allen Ritter- und Herrschertugenden ausgestattet, wird aber nicht zum Christen gemacht, sondern dem Bereich des Alten Testaments zugeordnet. Er ist mit dem Propheten Jeremia befreundet und wird von ihm beschützt. 1388 entstand das byzantinische Alexandergedicht. Die beliebteste Szene aus der Alexandersage war in Byzanz der Himmelsflug, der in der Bildenden Kunst oft dargestellt wurde. In den süd- und ostslawischen Literaturen wurde der Alexanderstoff stark rezipiert, wobei der Weg des Überlieferungsguts vom griechischen Alexanderroman über kirchenslawische Bearbeitungen in die Volkssprachen führte. Eine altbulgarische Fassung des Romans "(Aleksandria)" wurde zum Ausgangspunkt der Rezeption in russischen Chroniken. In Russland war der Alexanderroman im Hochmittelalter in mehreren Versionen verbreitet. Im 14. Jahrhundert begann eine neue Version zu dominieren, die vom byzantinischen Volksroman ausging und sich durch stark ausgeprägte Merkmale des mittelalterlichen Ritterromans auszeichnete. Besonders beliebt war die serbische Fassung („serbischer Alexander“ oder „serbische Alexandreis“), die auch in Russland Verbreitung fand und Vorlage für die spätmittelalterliche georgische Prosaübersetzung war. In Russland, der Ukraine, Bulgarien und Rumänien setzte sich dieser Typus der Alexanderlegende durch. Arabische Literatur. In der mittelalterlichen arabischsprachigen Literatur war Alexander unter dem Namen „al-Iskandar“ bekannt, da der Anfang seines Namens mit dem arabischen Artikel "al" verwechselt wurde. Er wurde schon in der vorislamischen Dichtung erwähnt. Folgenreich war seine Identifizierung mit der koranischen Figur des Dhū l-Qarnain („der Zweihörnige“), von dem in Sure 18 erwähnt wird, dass er einen Damm gegen Gog und Magog errichtete (Verse 83–98). Diese Identifizierung wurde von den muslimischen Gelehrten mehrheitlich, aber nicht einhellig akzeptiert. Nach heutigem Forschungsstand ist die Ableitung der Figur Dhū l-Qarnains von Alexander sowie die Herkunft des Motivs aus der altsyrischen christlichen Alexanderlegende eine gesicherte Tatsache. Die im Orient verbreitete Bezeichnung Alexanders als „zweihörnig“ taucht schon in einer spätantiken Alexanderlegende in altsyrischer Sprache auf, wo Alexander ein christlicher Herrscher ist, dem Gott zwei Hörner auf dem Kopf wachsen ließ, womit er ihm die Macht verlieh, die Königreiche der Welt zu erobern. Den ursprünglichen Anlass zur Bezeichnung „der Zweihörnige“ bot die antike bildliche Darstellung Alexanders mit Widderhörnern, die auf seine Vergöttlichung deutete. Der Gott Zeus Ammon (Amun), als dessen Sohn Alexander sich betrachtete, wurde als Widder oder widderköpfig dargestellt. Im Koran wird die Geschichte des Zweihörnigen dem Propheten geoffenbart, denn er soll sie mitteilen, wenn er danach gefragt wird. Alexander erscheint darin als frommer Diener Gottes, dem die Macht auf der Erde gegeben war und „ein Weg zu allem“. Er gelangte bis zum äußersten Westen der Welt, wo die Sonne „in einer verschlammten Quelle untergeht“, und erlangte die Herrschaft über das dort lebende Volk (hier ist ein Nachhall von Pseudo-Kallisthenes zu erkennen, der Alexander nach Italien kommen und den gesamten Westen einnehmen ließ). Dann schlug der Zweihörnige den Weg zum äußersten Osten ein und gelangte an den Ort, wo die Sonne aufgeht (daher deuteten die mittelalterlichen Koranausleger die Zweihörnigkeit meist als Zeichen für die Herrschaft über Westen und Osten). Schließlich begab er sich in eine andere Richtung und kam in eine Gegend, wo Menschen lebten, die von Angriffen zweier Völker, der Yāǧūǧ und Māǧūǧ (biblisch Gog und Magog), bedroht waren und ihn um Hilfe baten. Zum Schutz der Bedrohten baute er, ohne einen Lohn zu verlangen, zwischen zwei Berghängen einen gigantischen Wall aus Eisen, den die Angreifer nicht übersteigen oder durchbrechen konnten. Dieser Schutzwall wird bis zum Ende der Welt bestehen. – Eine altsyrische Version der Sage von Alexanders Aussperrung von Gog und Magog (in den "Revelationes" des Pseudo-Methodius) wurde ins Griechische und ins Lateinische übersetzt und fand in Europa viel Beachtung. Auch die voranstehende Passage der 18. Sure (Verse 59–81) scheint von der Alexanderlegende beeinflusst zu sein, obwohl in der Version des Korans Mose statt Alexander der Protagonist ist. Ein dort erzähltes Wunder (Wiederbelebung eines getrockneten Fisches) stammt anscheinend aus dem Alexanderroman; es kommt auch in einer spätantiken altsyrischen Version der Legende vor. Es ist davon auszugehen, dass der Stoff des Alexanderromans zur Entstehungszeit des Korans bereits in arabischer Übersetzung verbreitet war. Die islamische Wertschätzung für Alexander, die sich aus seiner Schilderung im Koran ergab, führte dazu, dass einige Autoren ihn zu den Propheten zählten. Die mittelalterlichen arabischsprachigen Historiker behandelten die Regierung Alexanders eher knapp. Im Gegensatz zu den europäischen christlichen Chronisten gingen bedeutende muslimische Geschichtsschreiber wie Ṭabarī, Masʿūdī, Ibn al-Aṯīr und Ibn Chaldūn auf die Alexandersage nicht oder nur nebenbei ein; sie hielten sich primär an die Überlieferung über den historischen Alexander. Ṭabarī betrachtete seine Quellen kritisch; er stützte sich insbesondere auf die Darstellung des bedeutenden Gelehrten Ibn al-Kalbī († 819/821) und stellte die Vernichtung des Perserreichs als notwendig und berechtigt dar, da Dareios tyrannisch regiert habe. Die Auseinandersetzung mit dem Legendenstoff war kein Thema der Geschichtsschreiber, sondern ein Anliegen der Theologen, die sich mit der Koranauslegung befassten. Reichhaltiges Legendenmaterial über Alexander war im muslimischen Spanien (Al-Andalus) verbreitet; dort hieß es, er habe die Iberische Halbinsel als König beherrscht und in Mérida residiert. Außerdem kommt Alexander auch in der arabischen Weisheitsliteratur vor, wo er als Gelehrter und Musikliebhaber beschrieben wird. Sehr oft taucht sein Name in Spruchsammlungen auf, wobei die Sprüche teils ihm zugeschrieben werden, teils von ihm handeln. Persische und türkische Literatur. Im Persischen wurde Alexander "Iskandar", "Sikandar" oder "Eskandar" genannt. In der Spätantike war im persischen Sassanidenreich eine Legende verbreitet, wonach er der persischen Religion, dem Zoroastrismus, einen schweren Schlag versetzte, indem er religiöse Schriften vernichten ließ. Daher war Alexander bei den Anhängern dieser Religion verhasst und wurde als teuflisches Wesen betrachtet. Nach der Islamisierung wirkte sich diese Sage aber im gegenteiligen Sinne aus, denn nun machte man aus Alexander einen Vorkämpfer des Monotheismus gegen heidnische Götzendiener. Der berühmte persische Dichter Firdausi († 1020) baute eine Version der Alexanderlegende in das iranische Nationalepos "Schāhnāme" ein, wobei er in manchen Einzelheiten von Pseudo-Kallisthenes abwich. Für ihn war Alexander ein „römischer Kaiser“ und Christ, der unter dem Kreuzeszeichen kämpfte; offenbar dachte er dabei an die byzantinischen Kaiser. Außerdem machte er – wie schon Ṭabarī, der persischer Abstammung war – Alexander zu einem Halbbruder des Dareios, womit er ihn für das Persertum vereinnahmte; aus der Vernichtung des Perserreichs wurde ein Bruderzwist innerhalb der iranischen Herrscherfamilie. 1191 schuf der persische Dichter Nezāmi das "Eskandar-Nāme" („Alexander-Buch“). Sein Alexander ist völlig islamisiert; er ist ein monotheistischer Held, der den Zoroastrismus der Perser mit Feuer und Schwert ausrottet und dafür den Beifall des Dichters erhält. Er unterwirft nicht nur Indien, sondern auch China und gelangt im Westen bis nach Spanien. Wie schon bei Firdausī sucht Alexander auch Mekka auf und reinigt dort die Kaaba. Außerdem ist er auch Philosoph und ein großer Förderer der Wissenschaft; er befiehlt den Gelehrten, das Wissen aller Völker zusammenzutragen. Das "Eskandar-Nāme" wurde zum Vorbild für einige spätere Dichtungen ähnlicher Art. Die Handschriften der persischen Alexander-Bücher wurden trotz islamischer Bilderverbote ab dem 14. Jahrhundert mit Buchmalerei geschmückt. In Nordindien sorgten die Mogul-Kaiser des 16. Jahrhunderts für die Bebilderung solcher Bücher. Im Jahr 1390 verfasste der türkische Dichter Tāǧ ed-Dīn Ibrāhīm Aḥmedī das türkische Alexanderepos "Iskendernāme", die erste türkische Bearbeitung des Alexanderstoffs. Dafür bildete Nezāmis „Alexanderbuch“ die Grundlage, doch verfügte Aḥmedī auch über andere Quellen, aus denen er zusätzliches Sagenmaterial bezog. Sein Werk war im Osmanischen Reich lange berühmt und gelangte auch nach Iran und Afghanistan. Hebräische Literatur. Die jüdische Alexanderrezeption war von dem Umstand geprägt, dass der Makedone schon in der Antike als Freund des jüdischen Volkes und Diener Gottes betrachtet wurde. In der mittelalterlichen hebräischen Alexanderliteratur floss Material aus unterschiedlichen Traditionen zusammen. Einerseits handelte es sich um Stoff aus dem griechischen Alexanderroman bzw. der "Historia de preliis", andererseits um einzelne Sagen jüdischer Herkunft (Verhalten Alexanders in Jerusalem, seine Schutzmaßnahme gegen Gog und Magog, sein Aufenthalt im irdischen Paradies und weitere Geschichten). Die hebräische Überlieferung wurde nicht nur von der griechischen und lateinischen beeinflusst, sondern wirkte auch ihrerseits auf die westeuropäische Alexandersage ein. Weit verbreitet war in der lateinischsprachigen Welt eine von Petrus Comestor eingeführte Variante der Erzählung von Gog und Magog, wonach Alexander nicht die wilden Völker Gog und Magog, sondern die zehn jüdischen Stämme aussperrte, um sie für ihre Abwendung vom wahren Gott zu bestrafen. Äthiopische Alexanderlegende. Ins christliche Äthiopien gelangte der Alexanderroman auf dem Umweg über eine arabische Fassung. Der Stoff wurde für die Bedürfnisse eines geistlich orientierten Publikums stark umgestaltet. Alexander wird zu einem christlichen König, der den christlichen Glauben predigt. Er lebt keusch und ist ein Vorbild der Tugendhaftigkeit. Er stirbt wie ein Einsiedler, nachdem er sein Vermögen an die Armen verteilt hat. Durch diese besonders weitreichende Umarbeitung des Romans wird er zu einem Erbauungsbuch. Humanismus und Frühe Neuzeit. Petrarca behandelte in seinem Werk „Über berühmte Männer“ auch Alexander, wobei er sich an Curtius Rufus hielt, dessen negative Äußerungen er herausgriff; Positives verschwieg er. Die außerordentliche Bekanntheit der Legendengestalt Alexander hielt auch in der Frühen Neuzeit an. So schrieb der Chronist Johannes Aventinus († 1534), es sei „kein Herr, kein Fürst unseren Leuten, auch dem gemeinen ungelehrten Mann, so bekannt“ wie Alexander. Andererseits drangen aber in der Renaissance die Humanisten zum historischen Alexander vor und taten die Alexandersage als Märchen ab. Die Wiederentdeckung griechischer Quellen (insbesondere Arrians), die im Mittelalter unbekannt waren, ermöglichte einen neuen Zugang zur Epoche Alexanders. Schon der Portugiese Vasco da Lucena, der 1468 am Hof Karls des Kühnen von Burgund die erste französische Übersetzung der Alexanderbiografie des Curtius Rufus anfertigte, übte scharfe Kritik an der Legende, in deren Übertreibungen und Wunderglauben er eine Verdunkelung der wahren historischen Leistung Alexanders sah. 1528/29 schuf der Maler Albrecht Altdorfer sein berühmtes Gemälde Die Alexanderschlacht. Charles Le Brun malte ab den frühen sechziger Jahren des 17. Jahrhunderts eine Reihe von Szenen aus Alexanders Leben für König Ludwig XIV. Auf Dichter und Romanautoren übte die Gestalt Alexanders weiterhin eine starke Faszination aus. Ab dem 17. Jahrhundert handelt es sich allerdings großenteils um Werke, deren Handlung sich – ganz im Gegensatz zur traditionellen Alexandersage – um frei erfundene erotische Verwicklungen dreht und nur noch geringe Ähnlichkeit mit dem ursprünglichen Legendenstoff aufweist. Hans Sachs schrieb 1558 eine "Tragedia von Alexandro Magno", die in sieben Akten die ganze Geschichte Alexanders darstellt. In Frankreich verfasste Jacques de la Taille 1562 die Tragödien "La Mort de Daire" und "La Mort d'Alexandre", und Alexandre Hardy wählte dieselben Titel für zwei seiner Tragödien ("La Mort d'Alexandre", 1621, und "La Mort de Daire", 1626). Im weiteren Verlauf des 17. Jahrhunderts folgten zahlreiche Tragödien und Tragikomödien, darunter Racines "Alexandre le Grand" (Uraufführung 1665). Noch intensiver war die Rezeption in italienischer Sprache. Antonio Cesti komponierte die Oper "Alessandro vincitor di se stesso" (Uraufführung Venedig 1651), Francesco Lucio ein „dramma musicale“ "Gl'amori di Alessandro Magno e di Rossane" (Libretto von Giacinto Andrea Cicognini, 1651); zahlreiche Dramen, Melodramen, Opern und Ballette folgten. Unter den Opern waren besonders erfolgreich "Alessandro Magno in Sidone" von Marc’Antonio Ziani (1679, Libretto von Aurelio Aureli), die „tragicommedia per musica“ "Alessandro in Sidone" von Francesco Bartolomeo Conti (1721, Libretto: Apostolo Zeno) und das vielfach vertonte Libretto "Alessandro nell’Indie" von Pietro Metastasio (1729, Erstvertonung: Leonardo Vinci) sowie vor allem "Alessandro" von Händel (Uraufführung in London 1726, Libretto von Paolo Antonio Rolli). Gluck verwertete Elemente des Alexanderstoffs sowohl in seiner Oper "Poro (Alessandro nell’India)" (Uraufführung: Turin 1744, Libretto von Metastasio) als auch in dem Ballett "Alessandro". Zu Beginn des 17. Jahrhunderts schrieb in Spanien der Dichter Lope de Vega die Tragikomödie "Las grandezas de Alejandro". Der englische Schriftsteller John Lyly schrieb die Komödie "Campaspe" (Uraufführung 1584), die auch unter dem Titel "Alexander and Campaspe" bekannt ist und von einem Aufenthalt Alexanders in Athen handelt. John Dryden dichtete 1692 die Ode "Alexander’s Feast", welche die Basis für das Libretto des 1736 vollendeten und uraufgeführten gleichnamigen Oratoriums von Georg Friedrich Händel (HWV 75) bildete. In Griechenland wurde von 1529 bis ins frühe 20. Jahrhundert die Alexanderlegende in gedruckten Volksbüchern verbreitet, zunächst vorwiegend in Versform ("Rimada", 14 Drucke von 1529 bis 1805), ab dem 18. Jahrhundert meist in Prosa "(Phyllada)". Von insgesamt 43 Drucken der "Phyllada" aus dem Zeitraum von ca. 1680 bis 1926 erschienen 20 in der zweiten Hälfte des 19. Jahrhunderts. Rezeption in Nordmazedonien. Seit der Unabhängigkeitserklärung der früheren jugoslawischen Teilrepublik Mazedonien, der heutigen Republik Nordmazedonien, im Jahr 1991 knüpfte der neue souveräne Staat demonstrativ an die Tradition des antiken Reichs Makedonien an und betrachtete diese als einen wesentlichen Aspekt seiner nationalen Identität. Von offizieller nordmazedonischer Seite wurde behauptet, es gebe eine ethnische und kulturelle Kontinuität vom antiken Makedonien zum heutigen Nordmazedonien. Im Rahmen solcher Traditionspflege förderten mazedonische Behörden auch auf kommunaler Ebene die Verehrung Alexanders des Großen, was sich unter anderem in der Errichtung von Alexander-Denkmälern und in der Benennung von Straßen äußert. Im Dezember 2006 wurde der Flughafen der nordmazedonischen Hauptstadt Skopje nach Alexander benannt "(Aerodrom Skopje „Aleksandar Veliki“);" dort wurde eine große Alexander-Büste aufgestellt. 2009 wurde die Errichtung einer zwölf Meter hohen Reiterstatue auf einem zehn Meter hohen Sockel im Zentrum von Skopje beschlossen, die Alexander nachempfunden war. Im Juni 2011 wurde dieser Beschluss, der in Griechenland Irritation auslöste, umgesetzt. Von griechischer Seite wird die Behauptung einer kulturellen Kontinuität zwischen den antiken Makedonen und den heutigen Staatsbürgern der Republik Nordmazedonien nachdrücklich zurückgewiesen. Daher erscheint auch die mazedonische Alexander-Rezeption aus griechischer Sicht als Provokation, da die gesamte Alexander-Tradition ausschließlich ein Teil des griechischen kulturellen Erbes sei. Im Februar 2018 beschloss die neue nordmazedonische Regierung angesichts von Fortschritten bei den Verhandlungen mit Griechenland zum mazedonischen Namensstreit, den Flughafen von Skopje und eine Autobahn, die den Namen „Alexander von Mazedonien“ trug, wieder umzubenennen. Zusätzlich unterzeichnete Nordmazedonien im Presseabkommen, dass das Land und seine Einwohner keine Verbindung zum Hellenismus, der hellenistischen Kultur, Geschichte und Herkunft haben. Moderne Belletristik. In der Moderne hat sich die Belletristik stärker als früher um Nähe zum historischen Alexander bemüht. Zu den bekannteren historischen Romanen aus der ersten Hälfte des 20. Jahrhunderts gehören "Alexander in Babylon" von Jakob Wassermann (1905), "Alexander. Roman der Utopie" von Klaus Mann (1929), der Alexander als gescheiterten Utopisten darstellt, und "Iskander" von Paul Gurk (1944). Weitere belletristische Darstellungen von Alexanders Leben stammen von Mary Renault, Roger Peyrefitte, Gisbert Haefs und Valerio Massimo Manfredi. Arno Schmidt lässt in seiner Erzählung "Alexander oder Was ist Wahrheit." (1953) den Ich-Erzähler Lampon eine Wandlung vom Verehrer zum Gegner Alexanders durchmachen. Iron Maiden widmete ihm den in der Metal-Szene sehr populär gewordenen Titel "Alexander the Great," der 1986 im Album Somewhere in Time erstmals veröffentlicht wurde. Beurteilung in der modernen Forschung. Den Ausgangspunkt der modernen wissenschaftlichen Auseinandersetzung mit Alexander bildete die 1833 erschienene „Geschichte Alexanders des Großen“ von Johann Gustav Droysen. Droysen betonte die aus seiner Sicht positiven kulturellen Folgen von Alexanders Politik einer „Völkervermischung“ statt einer bloßen makedonischen Herrschaft über unterworfene Barbaren. Er lobte die Wirtschaftspolitik, die Städtegründungen und die Förderung der Infrastruktur und meinte, auf religiösem Gebiet habe Alexanders Politik die Entstehung einer Weltreligion vorbereitet. Dieser Sichtweise war eine starke Nachwirkung beschieden. Im englischen Sprachraum war ihr Hauptvertreter im 20. Jahrhundert William W. Tarn, dessen 1948 erschienene Alexander-Biografie den Eroberer als Idealisten beschreibt, der eine zivilisatorische Mission erfüllen wollte. Dieser Einschätzung, deren Grundidee schon bei Plutarch auftaucht, steht eine dezidiert negative Wertung gegenüber, welche Kernpunkte der antiken Alexanderkritik aufgreift. Die Vertreter dieser Richtung (siehe bereits die negative Charakterisierung durch Karl Julius Beloch sowie später Ernst Badian und ähnlich Fritz Schachermeyr, daran anschließend Albert B. Bosworth, Ian Worthington, Wolfgang Will) unterscheiden sich hinsichtlich der Gewichtung verschiedener Einzelaspekte. Grundsätzlich aber sehen sie in dem Eroberer Alexander primär einen Zerstörer, dessen Fähigkeiten sich auf Militärisches beschränkten. Politisch sei er an seinen Fehlern gescheitert. Er habe impulsive, irrationale Entscheidungen getroffen und sich mit den Säuberungen unter seinen Vertrauten und Offizieren schließlich in die Isolation manövriert, da er niemandem mehr vertrauen konnte. Die militärischen Leistungen Alexanders, die früher einhellige Anerkennung fanden, werden von den modernen Kritikern relativiert; so charakterisiert Badian den Rückmarsch aus Indien als eine von Alexander verschuldete militärische Katastrophe. Waldemar Heckel hingegen hob Alexanders strategische Fähigkeiten hervor und wandte sich zugleich gegen ein romantisierendes Alexanderbild. Vor einer überzogenen Kritik, wodurch sozusagen das Pendel von der Heldenverehrung Alexanders in das andere Extrem umzuschlagen droht, warnte Frank L. Holt, der diesen Trend als „new orthodoxy“ bezeichnete. Eine geteilte Wirkungsbilanz des Makedoniers zieht Werner Dahlheim, der einerseits die Versuche Alexanders, eine neue Ordnung zu schaffen, angesichts der angerichteten Zerstörungen und des raschen Zerfalls der eroberten Ländermasse als gescheitert ansieht – speziell im Vergleich zur Grundlegung des römischen Kaisertums durch Augustus. Andererseits nehme Alexander infolge seiner Kriegszüge eine nahezu einzigartige Stellung ein: „Der gesamte vordere Orient und Ägypten wurden hellenisiert. Damit erhielt die griechische Kultur Weltgeltung und das Mittelmeer wuchs mit allen seinen Randgebieten für tausend Jahre zu einem einheitlichen Kulturraum zusammen.“ Neben diesen stark wertenden Darstellungen stehen Untersuchungen vor allem aus neuerer und neuester Zeit, deren Autoren von vornherein darauf verzichten, die Persönlichkeit Alexanders zu erfassen, ein Werturteil über sie abzugeben und seine verborgenen Motive zu erkunden (was aufgrund der Quellenlage sehr schwierig ist, worauf u. a. Gerhard Wirth hingewiesen hat). Diese Forscher untersuchen vielmehr Alexanders Selbstdarstellung, deren Wandel und die sich daraus ergebenden politischen Folgen.
108
64825
https://de.wikipedia.org/wiki?curid=108
Antike
Die Antike (von ) war eine Epoche im Mittelmeerraum, die etwa von 800 v. Chr. bis 600 n. Chr. reichte, wobei ihr Beginn teilweise noch deutlich früher angesetzt wird. Die klassische Antike unterscheidet sich von vorhergehenden und nachfolgenden Epochen durch gemeinsame und durchgängige kulturelle Traditionen, deren Einfluss in vielen Themenbereichen bis in die Moderne prägend ist. Sie umfasst die Geschichte des antiken Griechenlands, des Hellenismus und des Römischen Reichs. Das Römische Reich vereinte den Mittelmeerraum vom 1. Jahrhundert n. Chr. an politisch. Der kulturelle Einfluss Roms wirkte vor allem im westlichen Teil des Reiches, während im Osten die griechisch-hellenistische Tradition (Byzanz) neben orientalischen Traditionen weitergeführt wurde, bis sie im Zuge der islamischen Expansion zurückgedrängt wurde (ab 632 n. Chr.). In einem erweiterten Sinne umfasst die Antike auch die Geschichte der altorientalischen nahöstlichen Hochkulturen Ägyptens, Mesopotamiens (Sumer, Akkad, Babylonien, Assyrien), des iranischen Raums (Elam, Medien, Persien) und Kleinasiens (Phönizien, Israel, Aram-Damaskus), die etwa mit dem Beginn der Schriftlichkeit um 3500 v. Chr. einsetzte. Dieser größere Zeitraum von etwa 3500 v. Chr. bis zum Ende der Antike wird zur Unterscheidung von dem engeren, auf die griechisch-römische Welt begrenzten Antikebegriff bevorzugt als Altertum bezeichnet oder es wird in Bezug auf den Nahen Osten bis zu dessen Eingliederung in den makedonisch-griechischen Machtbereich unter Alexander dem Großen (ca. 330 v. Chr.) vom Alten Orient gesprochen. Die auf Antike bzw. Altertum folgende Epoche ist das Mittelalter, das nach einem breiten, regional unterschiedlichen Übergangszeitraum einsetzt (siehe Spätantike und Frühmittelalter). Zeitliche und begriffliche Abgrenzungen. Im Sinne der klassischen Altertumswissenschaften bezeichnet der historische Begriff "Antike" meist die Zeit von der allmählichen Herausbildung der griechischen Staatenwelt im achten vorchristlichen Jahrhundert bis zum Ende des weströmischen Reichs im Jahr 476 bzw. bis zum Tod des oströmischen Kaisers Justinian 565. Seit den Arbeiten des belgischen Historikers Henri Pirenne wird immer öfter auch das Jahr 632, also der Tod Mohammeds und die darauf folgende islamische Expansion, als Datum für das Ende der Antike vorgeschlagen. Der Anfang der antiken griechisch-römischen Kultur im klassischen Sinne wird im Allgemeinen mit der Entstehungszeit der homerischen Epen und dem Beginn der griechischen Kolonisation des Mittelmeerraums im 8. Jahrhundert v. Chr. angesetzt. Die Griechen verbreiteten ihre Kultur in den folgenden Jahrhunderten im gesamten Mittelmeerraum und an den Küsten seiner Nebenmeere und seit Alexander dem Großen auch im Orient und nach Zentralasien hinein. Die Römer brachten die antike Zivilisation bis nach Mittel- und Nordwesteuropa, wo sie sich seit dem Frühmittelalter zur christlich-abendländischen Kultur wandelte. Je nach Forschungsrichtung werden auch die minoische und mykenische Kultur von etwa 1900 bis 1100 v. Chr. sowie die so genannten „Dunklen Jahrhunderte“ 1200 bis 750 v. Chr. zur Antike gerechnet. Auch zwischen Antike, Völkerwanderung und Mittelalter lässt sich – wie bei allen Periodisierungen in der Geschichtswissenschaft – keine für alle Regionen, staatlichen und kulturellen Traditionen gültige Trennlinie ziehen. Je nach Betrachtungsweise sind unter anderem folgende Jahre als Epochengrenzen zwischen der Spätantike und dem Frühmittelalter vorgeschlagen worden: In der neueren Forschung wird inzwischen ein später Zeitpunkt favorisiert (565 bzw. die Zeit um 600 n. Chr. oder allgemein das 7. Jahrhundert). Generell erscheint es ohnehin sinnvoll, von einem Übergangszeitraum ab ca. 500 bis in das 7. Jahrhundert n. Chr. auszugehen, anstatt feste Daten zu wählen. Der Begriff Antike wurde lange Zeit räumlich mit der griechischen, hellenistischen und später römischen Welt gleichgesetzt. In diesem Sinne wurde der griechisch-römische Kulturraum von den umgebenden Räumen so abgegrenzt, wie schon antike griechische und später römische Gelehrte sich von den Regionen der „Barbaren“ abgrenzten (siehe auch Barbaricum). Griechen wie Römer betrachteten etwa die Kelten, Germanen oder Reitervölker nicht als Teil der zivilisierten Welt. Eine Sonderrolle spielte das Perserreich (siehe Achämenidenreich, Partherreich und Sassanidenreich), das kulturell hoch entwickelt war. Über die recht enge Definition der römisch-griechischen Welt, die durch die Klassische Altertumswissenschaft geprägt wurde, geht der universalhistorische Antike-Begriff hinaus, der unter anderem von dem Historiker Eduard Meyer im 19. Jahrhundert gefordert wurde. In jüngerer Zeit wurde er unter anderem von dem deutschen Althistoriker Josef Wiesehöfer wieder aufgegriffen. Die Mehrheit der heutigen Forscher ordnet jedoch den Alten Orient und das alte Ägypten dem „Altertum“, nicht aber der „Antike“ zu. Ursprünge der antiken Kultur. Die Ursprünge der europäischen Antike liegen im Dunkeln. Ihre Vorgeschichte ist etwa in der Zeit von ca. 2000 bis ca. 1600 v. Chr. im Mittelhelladikum anzusiedeln. Zu Beginn dieses Zeitabschnitts – teils auch schon im letzten Abschnitt des Frühhelladikums FH III ca. 2200–2000 v. Chr. – wanderten Indogermanen, wahrscheinlich von Norden kommend, in Griechenland ein. Offenbar unter dem Einfluss der minoischen Kultur auf Kreta, der ersten Hochkultur Europas, die ihre Blüte von ca. 1900 bis 1450 v. Chr. hatte, entwickelte sich auf dem Festland aus der Kultur des Mittelhelladikums die mykenische Kultur (ca. 1600 bis 1050/00 v. Chr.). Sie hatte ihren Ausgangspunkt vermutlich in der Argolis und erscheint unvermittelt mit reichen Schachtgräbern ab ca. 1600 v. Chr. Unter anderem übernahm die mykenische Kultur von der minoischen die Schrift. Die auf Kreta (unter anderem) verwendete Linear A-Schrift des 17. bis 15. Jahrhunderts v. Chr. wurde zur Linear B-Schrift (15. bis 12. Jahrhundert v. Chr.) weiterentwickelt. Dieser begegnet man auf zahlreichen Tontäfelchen unter anderem der Paläste in Pylos, Theben, Mykene auf dem griechischen Festland und in den zu jener Zeit mittlerweile mykenisch beherrschten Zentren Kydonia und Knossos auf Kreta. Bekannt sind die prächtigen Zentren der mykenischen Kultur. Zu den bedeutenden Fundorten gehören Mykene, Pylos und Tiryns auf der Halbinsel Peloponnes, Orchomenos und Gla (letzteres kein Palastzentrum) in Boiotien sowie das stark mykenisch geprägte Milet in Westkleinasien. Die Zentren hatten Oberstädte (Akropolen), Burgen genannt, die im 13. Jahrhundert v. Chr. in einigen Fällen stark befestigt bzw. deren Befestigungen stark ausgebaut wurden (Mykene, Tiryns, Athen). Reiche Kuppelgräber, feine, teils reich bemalte Keramik, kunstvolle Gold-, Silber- und Fayence-Arbeiten zeugen vom Reichtum und von der Spezialisierung des Wirtschaftssystems, das in Teilen Griechenlands ab ca. 1400 v. Chr. von mächtigen Palastzentren, die größere Regionen beherrschten, zentral gesteuert wurde (so in Böotien, Attika, Messenien und in der Argolis; siehe auch Mykenische Palastzeit). Intensive Handelskontakte wurden mit dem Nahen Osten, Assyrien und Ägypten gepflegt. Mykenische Keramik war in weiten Teilen des Mittelmeergebiets beliebt; möglicherweise ließen sich in manchen Siedlungen Süditaliens (Roca Vecchia, Punta Meliso, Scoglio del Tonno) sogar Handwerker nieder. Etwa für den Zeitraum 1200 bis 750 v. Chr. setzt man traditionell das "Dunkle Zeitalter" an, aus dem vergleichsweise wenig überliefert ist. Zu Beginn dieser Phase wurden viele der Zentren des griechischen Festlands zerstört, womit die Grundlage der Palastkultur unterging. Die mykenische Kultur bestand jedoch noch etwa 150 Jahre weiter, erlebte in einigen Regionen ab Mitte des 12. Jahrhunderts sogar eine gewisse Nachblüte, bevor der Übergang in die sogenannte Protogeometrische Periode (ca. 1050/00–900 v. Chr.) erfolgte. Ungefähr zur gleichen Zeit, als sich um 1200 v. Chr. in Griechenland – und auch an anderen Regionen des östlichen Mittelmeerraums (s. auch Ende des Hethiterreichs, Seevölker) – Zerstörungen und Umwälzungen ereigneten, entstanden auf Zypern und einigen Orten Südkleinasiens (zum Beispiel Tarsus und Mersin) mykenisch geprägte Siedlungen. Westhandel, speziell mit Italien und Sardinien, wurde auch im 12. Jahrhundert v. Chr. weiterhin betrieben, teilweise noch im 11. Jahrhundert v. Chr. Der Überlieferung nach setzte ca. 1050 v. Chr. die sehr umstrittene "Ionische Wanderung" ein, in deren Verlauf die Einwohner des griechischen Festlandes die Inseln der Ägäis und die Westküste Kleinasiens kolonisierten. Auf dem griechischen Festland bietet sich ein diffuses Bild: Wenige Siedlungen wurden bisher entdeckt und die meisten machen einen – im Vergleich zur mykenischen Zeit – ärmlichen Eindruck. Ganz anders hingegen Lefkandi auf Euböa: dort wurden neben einer Siedlung mit einem großen Gebäude des Fürsten von Lefkandi Gräber gefunden, die sehr reich ausgestattet waren. Das Dunkle Zeitalter hellt sich in den letzten Jahrzehnten – dank vieler neuer Funde, vor allem, aber nicht nur, aus der mykenischen Spätphase des 12./11. Jahrhunderts v. Chr. – immer mehr auf. Nach Annahme der Homer-Forschung spiegeln unterschiedliche Passagen der Ilias die Verhältnisse dieser Zeit wider. Sie war offenbar auch für die Entwicklung der griechischen Gesellschaft zur Polis hin wichtig. Ab dem 8. Jahrhundert waren die Kontakte zum Vorderen Orient wieder sehr intensiv, und es entstanden Handelsstationen auf Zypern (Kition) und in Syrien (Al Mina). Vermutlich bereits im späten 9. Jahrhundert v. Chr. hat man von den Phöniziern das Alphabet vermittelt bekommen. Griechenland und die hellenische Welt. Anfänge des klassischen Griechenlands. Mit dem so genannten archaischen Zeitalter begann im frühen 8. Jahrhundert v. Chr. die eigentliche Antike. Seit dem Jahr 776 v. Chr. ist die Siegerliste der Olympischen Spiele überliefert. Von etwa 770 bis 540 v. Chr. breiteten sich die Griechen während der Großen Kolonisation im westlichen Mittelmeer (vor allem Sizilien und Unteritalien, siehe auch Magna Graecia, und bis Marseille), an der nördlichen Ägäis und am Schwarzen Meer aus. In Kleinasien waren Griechen bereits vorher ansässig. In dieser Zeit (etwa zwischen 750 und 650 v. Chr.) wurden vermutlich auch die Homerischen Epen ("Ilias" und "Odyssee") schriftlich fixiert, die ältesten Literaturdenkmäler des Abendlands. Die ältesten tatsächlich erhaltenen Papyrusfragmente dieser Texte stammen aus dem 3. Jahrhundert v. Chr., die ältesten Codices mit längeren Textpassagen tauchen im Mittelalter (etwa 10. Jahrhundert n. Chr.) auf, wie generell der Großteil der erhaltenen antiken Literatur vor allem in mittelalterlichen Handschriften überliefert ist. Hesiod wirkte ebenfalls etwa in der Zeit um 700 v. Chr. Entstehung der Polis. Die klassische Periode war eine Zeit großer kultureller und wissenschaftlicher Entfaltung. Zugleich bildete sich das System der griechischen Stadtstaaten, der Poleis, heraus, wobei diese in der Mehrzahl nur eine sehr kleine Bevölkerung umfassten. Der werdende Militärstaat Sparta im Süden der Peloponnes unterwarf zwischen 720 und 600 v. Chr. Messenien und kontrollierte damit den gesamten südwestlichen Teil der Halbinsel. Die Stadt mit ihrer oligarchischen Verfassung kann als das erste Beispiel für die fortan herrschende Polis-Struktur gelten. Auch in vielen anderen griechischen Stadtstaaten regelten Verfassungen das Zusammenleben der Bürger, aber auch die Tyrannis, wie sie um 650 v. Chr. beispielsweise in Korinth und Megara bestand, war keine Seltenheit. In Athen bildete sich unter wechselnden Voraussetzungen schließlich ein demokratisches System heraus. Nach den Gesetzgebungen Drakons (621 v. Chr.) und Solons (594/593 v. Chr.) gelang es Peisistratos und seinen Söhnen etwa zwischen 561 und 510 v. Chr. zwar noch einmal, eine Tyrannis zu errichten. Bis 501 v. Chr. brachten die Reformen des Kleisthenes von Athen aber den Durchbruch für die Attische Demokratie. Blütezeit Athens. Mit Athens Unterstützung der kleinasiatischen Griechenstädte im Ionischen Aufstand um 500 v. Chr. begann ein annähernd zweihundertjähriger Konflikt mit dem Perserreich, zunächst in Gestalt der drei Perserkriege, die der Historiker Herodot, der „Vater der Geschichtsschreibung“ (mit ihm lässt man traditionell die griechische Geschichtsschreibung beginnen, vgl. "Liste der griechischsprachigen Geschichtsschreiber der Antike"), in seinen "Historien" geschildert hat, wenngleich nicht immer zuverlässig. Als die Perser zu einer Strafexpedition in Griechenland einfielen, wurden sie 490 v. Chr. von den Athenern in der Schlacht bei Marathon besiegt. Zehn Jahre später unterlag der persische Großkönig Xerxes I. der athenischen Flotte unter Themistokles in der Schlacht von Salamis und 479 v. Chr. den vereinigten Heeren der griechischen Poleis in der Schlacht von Plataiai. Die Perser waren vorerst zurückgedrängt, die griechischen Stadtstaaten in Kleinasien aus der Abhängigkeit befreit. Nach der erfolgreichen Verteidigung und mit der Gründung des Attischen Seebunds 477 v. Chr. unter der auf die eigene Seemacht gestützte Vorherrschaft Athens setzte eine etwa 50-jährige Blütezeit der Stadt (die Pentekontaetie) ein, die bis zum Ausbruch des Peloponnesischen Krieges 431 v. Chr. (bzw. bis zum Tod des leitenden Staatsmannes Perikles im Jahr 429 v. Chr.) reichte. Die Akropolis mit dem Parthenontempel wurde damals unter der Regie des Phidias zum glanzvoll-repräsentativen Zentrum der Seemacht Athen ausgebaut. Die klassischen Tragödien von Aischylos, Sophokles und Euripides kamen – meist im Rahmen festlicher Dichterwettbewerbe – im Theater zur Aufführung. Kaufleute und Gewerbetreibende, Künstler und Gelehrte zog die Metropole an. Auf der Agora wirkte neben den Sophisten der Philosoph Sokrates auf seine Mitbürger ein, dessen Lehren Platon später zu einem Werk von herausragender philosophiegeschichtlicher Bedeutung verarbeitete. Athen mit seinen zu gleichberechtigter politischer Mitwirkung gelangten (männlichen) Vollbürgern beanspruchte nunmehr, die „Schule von Hellas“, zu sein. Seine durchaus auch aggressive äußere Machtentfaltung in und mit dem Attischen Seebund führte allerdings schon während der Pentekontaetie zu Spannungen, vor allem gegenüber der konkurrierenden griechischen Großmacht Sparta. Kampf um die Hegemonie. Die zunehmende Rivalität zwischen der Seemacht Athen und der Landmacht Sparta mündete 431 v. Chr. in den fast 30 Jahre währenden Peloponnesischen Krieg, den die zeitgenössischen Historiker Thukydides und (im Anschluss an Thukydides) Xenophon eindringlich beschrieben haben. Der sehr wechselhaft verlaufende und mit einer als beispiellos empfundenen Brutalität geführte Konflikt endete, auch aufgrund der Unterstützung Spartas durch das Perserreich, 404 v. Chr. mit der vollständigen Niederlage Athens und mit der Errichtung einer zeitweiligen spartanischen Hegemonie über Griechenland. In der ersten Hälfte des 4. Jahrhunderts v. Chr. führten die griechischen Städte einen fast permanenten Krieg gegeneinander und in wechselnden Koalitionen, unter fortwährender Einmischung der Perserkönige. Die Sehnsucht nach einem Allgemeinen Frieden wurde auch zu propagandistischen Zwecken eingesetzt (Königsfrieden von 386 v. Chr.). 371 v. Chr. löst Theben unter Epaminondas nach der Schlacht bei Leuktra Sparta als Hegemon ab. Doch auch Thebens Vorherrschaft bestand nur bis rund 362 v. Chr. und endete mit dem Tod Epaminondas. Insgesamt schwächte der Peloponnesische Krieg die griechischen Poleis so stark, dass Philipp II. von Makedonien dem andauernden Machtkampf ein Ende setzen konnte, indem er Griechenland gewaltsam mit seinem hervorragend geschulten Heer einigte. Der von Athenern wie Demosthenes als nicht-griechischer Barbar betrachtete König errang in der Schlacht von Chaironeia 338 v. Chr. die Hegemonie über Hellas, die im Jahr darauf im Korinthischen Bund bekräftigt wurde. Auf Sizilien behauptete sich derweil das mächtige Syrakus gegenüber der Handelsrepublik Karthago, welche mit den dortigen griechischen Poleis "(Westgriechen)" seit dem frühen 5. Jahrhundert v. Chr. im Konflikt lag. Auf Sizilien hielt sich zudem, im Gegensatz zum Mutterland, in vielen Städten die Tyrannis als Regierungsform (Dionysios I. von Syrakus, Agathokles von Syrakus und andere). Hellenistische Zeit (336 bis 30 v. Chr.). Nach der Ermordung Philipps 336 v. Chr. führte sein Sohn Alexander der Große ein griechisch-makedonisches Heer nach Asien und eroberte in wenigen Jahren mit dem Perserreich ein Weltreich. Der Alexanderzug bahnte der griechischen Kultur im ganzen damals bekannten Orient den Weg, von Ägypten über Mesopotamien und Persien bis zu den Grenzen Indiens und Turkestans. Nach Alexanders Tod 323 v. Chr. in Babylon teilten seine Nachfolger, die Diadochen, in lange währenden Kriegen das Reich unter sich auf. In allen Teilreichen war die Kultur in den folgenden Jahrhunderten von einer gegenseitigen Durchdringung von griechischen und indigenen Elementen geprägt. Das Zeitalter des Hellenismus kennzeichnet ein nahezu ständiger Kampf der drei Großmächte (Ptolemäer, Seleukiden und Antigoniden) um die Vorherrschaft. Dennoch wuchs die Bevölkerung im gesamten Mittelmeerraum stetig und ermöglichte so das Wachstum größerer Städte und Metropolen mit Einwohnern über 100.000 Menschen. Auch breitete sich in dieser Zeit der Fernhandel (siehe Indienhandel) und die Güterproduktion für große städtische Märkte aus. Verschiedene Wissenschaften blühten auf, bspw. in Alexandria. Zu Beginn des 2. Jahrhunderts v. Chr. tauchte erstmals Rom als bedeutende Macht in Griechenland auf und dehnte nach und nach seinen Einfluss aus. 146 v. Chr. unterstellte das Römische Reich die Mitglieder des unterlegenen Achaiischen Bundes faktisch der neuen Provinz "Macedonia"; Korinth als führende Polis wurde zerstört. Doch blieben viele Poleis wie Athen und Sparta zumindest vorerst formell unabhängig. Bald darauf folgte der Erwerb Pergamons durch Rom und 64/63 v. Chr. die Beseitigung der Überreste des Seleukidenreiches. Als letzter Nachfolgestaat des Alexanderreichs wurde im Jahre 30 v. Chr. das ptolemäische Ägypten, dessen letzte Herrscherin Kleopatra VII. war, ins Römische Reich eingegliedert. Damit war die hellenistische Staatenwelt als machtpolitischer Faktor ausgelöscht. 27 v. Chr. wurde Griechenland zur Provinz "Achaea". Die griechische Kultur lebte jedoch im Römischen Reich sowie später im Byzantinischen Reich noch lange fort, und die griechische Sprache blieb die "lingua franca" im Osten des Mittelmeerraumes. Römisches Reich. Nach den Griechen wurden die Römer zu den zweiten Trägern und Vermittlern der antiken Kultur und prägten diese für mehrere hundert Jahre. Je weiter sie als Eroberer in außeritalische Länder vordrangen, desto stärker ließen sie sich von deren Kultur inspirieren und beeinflussen. Sie adaptierten teilweise lokale Gebräuche. Literatur, Philosophie, Kunst, Architektur und Alltagskultur der Griechen und der Länder der Levante, Waffentechniken der Gallier oder Germanen und religiöse Einflüsse aus Ägypten wurden von den Römern aufgenommen. Nicht zuletzt durch die kulturelle Ausstrahlung und Heterogenität der Stadt Rom, die sich in der römischen Kaiserzeit zur Millionenstadt entwickelte, wurden solche Einflüsse im Imperium verbreitet. Ursprünge Roms. Rom, der Legende nach 753 v. Chr. gegründet, entstand neueren Forschungen zufolge erst gegen Ende des 7. Jahrhunderts v. Chr. aus dem Zusammenschluss mehrerer dörflicher Siedlungen an einer Furt am Unterlauf des Tibers. Politisch und kulturell stand Rom lange unter etruskischem Einfluss. Die Etrusker wiederum unterhielten schon früh Kontakt mit griechischen Kolonisten. Römische Republik (ca. 500 bis 27 v. Chr.). Um 500 v. Chr. befreiten sich die Römer vom etruskischen Stadtkönigtum und bildeten im Verlauf der folgenden Jahrzehnte eine republikanische Regierungsform aus. In den Zwölftafelgesetzen, die wohl um 450 v. Chr. entstanden, wurden die ersten zivil-, straf- und prozessrechtlichen Normen des römischen Rechts festgehalten. Die Verfassung sah von da an ein Zusammenwirken der drei Institutionen Senat, Magistratur und Volksversammlung vor, die sich in ihrer Macht theoretisch gegenseitig beschränkten. Die offizielle Bezeichnung der Republik lautete "S.P.Q.R." für "Senatus Populusque Romanus" (dt.: Senat und Volk von Rom). Machtpolitisch dominierte der Senat, der sich anfangs aus Angehörigen der adligen Familien, der Patrizier zusammensetzte, bevor sich im 4. Jahrhundert eine neue, meritokratisch legitimierte Führungsschicht entwickelte, die Nobilität. Aus ihr gingen auch die Konsuln hervor, die beiden auf ein Jahr gewählten obersten Magistrate der Republik. Das wichtigste nur den Plebejern zugängliche Amt war das des Volkstribunen, der ein Vetorecht gegen Senatsbeschlüsse besaß. Seit 287 v. Chr. besaßen die Beschlüsse der von den Tribunen geleiteten plebejischen Volksversammlung Gesetzeskraft. Mit der Legion entwickelten die Römer eine effektive Streitmacht. Bis zum Jahr 272 v. Chr. unterwarfen sie ganz Italien südlich der Poebene. Mit den Punischen Kriegen gegen die Seemacht Karthago im 3. und 2. Jahrhundert v. Chr., wobei die Kämpfe wechselhaft verliefen, begann der Aufstieg Roms zur antiken Weltmacht, die für die folgenden Jahrhunderte die gesamte Mittelmeerwelt beherrschen sollte. Nach 200 v. Chr. nahm Rom zunehmend Einfluss auf die Politik der hellenistischen Großmächte und wurde zur Protektoratsmacht im östlichen Mittelmeerraum. 148 v. Chr. wurde das Makedonien der Antigoniden, 63 v. Chr. das Reich der Seleukiden, und schließlich 30 v. Chr. das Ägypten der Ptolemäer römische Provinz. Die Römische Republik ermöglichte durch die Herstellung von innerem Frieden ein weiteres, kontinuierliches Bevölkerungswachstum, auch durch die ständige Neugründung von Kolonien in eroberten Ländern. Durch die Ansiedlung von Veteranen aus den Legionen vorheriger Kriege konnte die Republik zudem einen verlässlichen Einfluss in diesen Ländern gewinnen und gleichzeitig mit einem stetigen Bevölkerungszuwachs neue Gebiete kultivieren. Handel und Verkehr konnten dank der Römerstraßen zunehmen, welche zunächst häufig aus militärischen Gründen angelegt wurden und die wachsenden Reichsstädte und Kolonien miteinander verbanden. Entlang der Straßen entwickelten sich Streckenposten und Marktflecken zu Städten. Mit diesen infrastrukturellen Neuerungen ging im Reich ein Wachstum der wirtschaftlichen Produktion und somit auch der verfügbaren Steuermittel einher. Mit dem Wachstum der Republik an Größe, Macht und Wohlstand kam es jedoch im Inneren zu einer Reihe von Krisen, da die Ungleichheit innerhalb der Oberschicht wuchs. Die Nobilität begann an Integrationskraft zu verlieren, während die Rivalität innerhalb der Führungsschicht eskalierte. Den Optimaten, die an der Vorherrschaft des Senats festhielten, standen die Popularen gegenüber, die versuchten, sich mit Hilfe der Volksversammlung gegen ihre Rivalen durchzusetzen. In der Epoche der Bürgerkriege ab dem späten 2. Jahrhundert v. Chr. erreichte diese Krise der Römischen Republik ihren Höhepunkt, und es zeichnete sich ab, dass die Republik als Staatsform die Erfolge nicht mehr meistern konnte, die sie gezeitigt hatte: So wurde der Prinzipat möglich, also die Umwandlung der Republik in eine Alleinherrschaft mit republikanischer Fassade. Bereits der populare Politiker Gaius Iulius Caesar hatte als Diktator auf Lebenszeit "(dictator perpetuus)" eine quasi-monarchische Stellung erlangt. Als erster römischer Kaiser gilt jedoch sein Großneffe und Erbe Augustus, dem es nach dem Tod Caesars 44 v. Chr. und den darauffolgenden blutigen Machtkämpfe gelang, mit dem Prinzipat eine dauerhafte monarchische Staatsordnung an die Stelle der zerstörten Republik zu setzen, wobei jedoch die entmachteten Staatsorgane der Republik, zum Beispiel der Senat, noch sehr lange fortbestanden. Prinzipat (27 v. Chr. bis 284 n. Chr.). Das von Augustus errichtete Kaisertum (Prinzipat) wurde von ihm und seinem Nachfolger Tiberius für rund 60 Jahre sicher geführt. Augustus bewahrte noch bewusst eine republikanische Fassade, während unter Tiberius das Kaisertum zur Normalität wurde. Unter Caligula, Claudius und Nero traten jedoch zeitweilig Zerfallserscheinungen auf. Nach dem Krisenjahr 68/69 (Vierkaiserjahr) traten die Flavier (Vespasian, Titus, Domitian) die Regierung an, die sowohl außen- als auch innenpolitisch insgesamt recht erfolgreich herrschten. Nach der Ermordung Domitians, der 96 einer Verschwörung zum Opfer fiel, folgte eine weitere kurze Krise des Herrschaftssystems, die jedoch unter den Adoptivkaisern weitgehend behoben werden konnte. Das Imperium erlebte seine größte Blüte und Ausdehnung dann auch unter ebendiesen „Adoptivkaisern“ (das Kaisertum war auch weiterhin formal nicht erblich) in der ersten Hälfte des 2. Jahrhunderts: Einer Expansion unter Trajan (vor allem im Balkanraum und im Osten gegen das Partherreich) folgte eine Rücknahme und Sicherung der Grenzen unter Hadrian. Bald nach der Mitte des 2. Jahrhunderts n. Chr. wuchs jedoch der Druck auf die ausgedehnten Reichsgrenzen. Im Norden und Nordosten bedrängten die Germanen, im Osten die Parther (die sich trotz mancher Niederlage behaupten konnten) das Reich. Mark Aurel, der „Philosophenkaiser“ im Geiste der Stoa, sah sich bald nach Übernahme der Herrschaft nahezu ständig zur kriegerischen Verteidigung der Reichsgrenzen genötigt. Mit seinem Tod endete 180 n. Chr. ein als Blütezeit betrachtetes Zeitalter des Imperiums. Nach dem schwachen Commodus, der 192 ermordet wurde, stabilisierten die Kaiser aus dem Hause der Severer, hervorzuheben ist besonders Septimius Severus, die Grenzen wenigstens teilweise. Kaiser Caracalla gewährte 212 mit der Constitutio Antoniniana allen freien Reichsbürgern das Bürgerrecht. Nach der Ermordung des Severus Alexander 235 kam es jedoch unter den Soldatenkaisern zur Reichskrise des 3. Jahrhunderts, die aber erst um 260 ihren Höhepunkt erreichte. Dieser Zeitraum war geprägt von raschen Regierungswechseln, zeitweiligen und regional unterschiedlichen ökonomischen Problemen, zentrifugalen Tendenzen im Inneren (zeitweilige Abspaltung des "Imperium Galliarum"; Verlust mehrerer Provinzen an Palmyra) und dem stetig wachsenden Druck auf die Grenzen. Neben den verschiedenen Germanenstämmen (wie den Alamannen und Goten), übte nun vor allem das Sassanidenreich im Osten einen enormen Druck aus: Nach dem Sturz des letzten Partherkönigs im Jahr 224 (bzw. 226), erneuerten die Sassaniden das Perserreich und erwiesen sich in der Regel als den Römern gleichwertige Gegner, wenngleich auch sie mit einer gefährdeten Grenze konfrontiert waren (im , siehe Iranische Hunnen). Die Zeit der Soldatenkaiser wird allerdings in der neueren Forschung keineswegs mehr als eine reine Krisenzeit begriffen, sondern vielmehr als eine (wenngleich teils von Krisensymptomen begleiteten) Transformationsphase. Spätantike (284 bis 565/632 n. Chr.). Mit der Einführung der Tetrarchie (293) und zahlreichen inneren Reformen gelang es Kaiser Diokletian (seit 284 Kaiser) gegen Ende des 3. Jahrhunderts noch einmal, das Reich zu stabilisieren. Diese Zeit der beginnenden Spätantike ist gekennzeichnet von Umbrüchen, die zum Teil eine Abkehr von bis dahin wesentlichen Bestandteilen der antiken Kultur darstellten. Dazu gehört vor allem die von Kaiser Konstantin dem Großen initiierte Anerkennung und Privilegierung des Christentums, das unter Diokletian noch verfolgt worden war. Die Hinwendung zu dem neuen Glauben ging schließlich mit der Ablehnung des religiösen Pluralismus der Antike einher. Ein letzter Versuch, die alten Kulte durch die Verbindung mit neuplatonischem Gedankengut wieder zu beleben, scheiterte mit dem Tod Kaiser Julians im Jahr 363; alle nachfolgenden Kaiser waren Christen. Teilweise stießen auch bestimmte Formen der Philosophie auf Ablehnung, wenngleich das Christentum nun selbst stark von der griechischen Philosophie geprägt wurde und zwischen 300 und 600 eine massive Transformation durchlief, bspw. mit dem Ersten Konzil von Nicäa. Die Platonische Akademie in Athen, oft als „Hort des Heidentums“ bezeichnet, wurde 529 geschlossen, während die bereits christianisierte Schule von Alexandria noch bis zum Beginn des 7. Jahrhunderts bestehen blieb. Kaiser Valentinian I. festigte den Westen des Reiches, doch kam es 378 unter seinem Bruder Valens zur Niederlage von Adrianopel und zu einer neuen Krise. In diesem Zusammenhang gehört das Auftauchen der Hunnen (nur eines von zahlreichen Reitervölkern aus der eurasischen Steppenzone, die teils eine wichtige Rolle spielten) und der Beginn der sogenannten Völkerwanderung. Kaiser Theodosius I. wiederum konnte den Osten des Reiches stabilisieren und war zugleich der letzte Kaiser, der "de facto" über das gesamte "Imperium Romanum" herrschte. Er erklärte das Christentum schließlich 392 zur Staatsreligion und verbot alle heidnischen Kulte wie die Olympischen Spiele. Allerdings lassen sich noch bis mindestens in das 6. Jahrhundert hinein bedeutende heidnische Minderheiten auf dem Boden des Imperiums nachweisen. Nach der faktisch endgültigen Teilung des Reiches unter den beiden Söhnen des Theodosius 395 erwies sich letztlich nur das von Konstantinopel, dem früheren Byzantion, aus regierte Oströmische Reich auf die Dauer eines weiteren Jahrtausends als lebensfähig. Es bewahrte viele antike Traditionen; unter anderem blieb das Lateinische in dem überwiegend griechischsprachigen Reich noch bis ins 7. Jahrhundert Amtssprache. Das Weströmische Reich hingegen zerbrach aufgrund endloser innerer Kriege, gepaart mit äußerem Druck. Germanische Kriegerverbände traten an die Stelle der kollabierenden Reichsregierung und ergriffen, zunächst als "foederati", seit dem 5. Jahrhundert direkt Besitz von weströmischen Provinzen. Ihre Anführer traten hier oft an die Stelle der römischen Autoritäten. Rom selbst wurde 410 von den Westgoten und 455 von den Vandalen geplündert, von der Millionenstadt der hohen Kaiserzeit schrumpfte sie auf schätzungsweise 200.000 Einwohner zum Ende des 5. Jahrhunderts. Die Spätantike sah auch das langsame Verschwinden der klassisch-antiken Stadt ("polis" bzw. "civitas"). In der Forschung ist umstritten, ob es sich hierbei um einen Niedergang oder eher um einen Wandel handelt – diese Frage stellt sich für viele andere Aspekte der Epoche (zum Beispiel im wirtschaftlichen Bereich, wobei viele Provinzen weiterhin aufblühten). Im Westen (das Ostreich war davon nicht betroffen und durchlief erst im 7. Jahrhundert eine Krisenzeit, siehe unten) lösten sich im 5. Jahrhundert zunehmend die politischen Strukturen auf, während das reguläre Heer (zumindest nach Ansicht der älteren Forschung) immer stärker „barbarisiert“ wurde und die Bedeutung der nichtrömischen "foederati" besonders im Westen immer mehr zunahm. Die geringer werdenden Steuereinnahmen durch den Verlust von Provinzen und Steuermitteln führten dazu, dass die Regierung in Ravenna immer hilfloser wurde; die kaiserliche Autorität schwand dahin, während die eigentliche Macht nun meist bei hohen Militärs wie Aetius oder Ricimer lag, die gegeneinander oft blutige Bürgerkriege führten und das Westreich so weiter schwächten. 476 setzte der General Odoaker, der Kommandeur der föderierten Truppen in Italien, dann den letzten Westkaiser Romulus Augustulus ab, da dieser überflüssig geworden sei, und unterstellte sich der nominellen Oberherrschaft des oströmischen Kaisers. Die Geschichtswissenschaft sah in diesem von den Zeitgenossen nur wenig beachteten Akt früher oft das Ende der Antike. Heute wird dagegen auch das 6. Jahrhundert noch zur Antike gezählt, da vor allem im Osten römisch-antike Strukturen fortbestanden und dem oströmischen Kaiser Justinian (527–565) für kurze Zeit noch einmal eine Rückeroberung großer Teile des Westreiches gelang. Dass diese letztlich dennoch scheiterte, hatte auch mit dem Druck zu tun, den das Sassanidenreich seit 540 erneut auf die Ostgrenze des Reiches ausübte (siehe auch Römisch-Persische Kriege und Herakleios). Im Oströmischen Reich lebten antike Kultur und Geisteswelt zwar noch bis weit ins Mittelalter fort. Die islamische Expansion des 7. Jahrhunderts führte allerdings auch hier zu erheblichen Veränderungen und gilt als der entscheidende Einschnitt, der das Ostrom der Spätantike vom Byzantinischen Reich des Mittelalters trennt. Bedeutung und Nachwirken der Antike. Antike Traditionen hatten starke und prägende Auswirkungen auf den weiteren Verlauf der Weltgeschichte, insbesondere auf die Entwicklung der westlichen Welt, die in der Antike ihre Wurzeln hat. Neuzeitliche Aufklärer, Philosophen, Staatstheoretiker, Wissenschaftler, Künstler und andere knüpften immer wieder an die Ionische Naturphilosophie, die attische Demokratie, das römische Recht, den religiösen Pluralismus, das antike Schönheitsideal und andere Hinterlassenschaften der Antike an. Antike Traditionen gerieten auch im Mittelalter nie völlig in Vergessenheit. In den Klöstern des Abendlandes wurden antike Schriften in größerer Zahl bewahrt. Auch die Romidee blieb im Heiligen Römischen Reich lebendig. Im 8. Jahrhundert kam es zur ersten sogenannten Karolingischen Renaissance. Auch byzantinische und arabische Gelehrte stützten sich auf antikes Wissen und gaben es indirekt an das mittelalterliche Europa weiter. Als man im Italien des 15. Jahrhunderts die – meist römischen – Überreste der Antike neu zu schätzen lernte und in der Kunst nachahmte, bezeichnete man dies als "Renaissance". Die "Wiedergeburt" der Antike und des antiken Geistes setzte der jahrhundertelangen Dominanz religiösen Denkens in Europa ein Ende und mündete schließlich in das Zeitalter der europäischen Aufklärung und in die Moderne. Die meisten Schriftsteller und Philosophen der Aufklärungszeit beriefen sich auf die Antike und vereinnahmten diese für ihre Ideen. Ohne griechische Wissenschaft und Philosophie, ohne die damals entstandenen politischen Ideen, ohne das römische Recht, ohne Architektur und Kunst der Griechen und Römer wäre die westliche Kultur der Neuzeit undenkbar. So trat infolge der Arbeiten von Johann Joachim Winckelmann seit dem 18. Jahrhundert die „klassische“ griechische Kunst – oder vielmehr das, was man idealisierend für diese hielt – zunehmend ins Zentrum des Interesses. Im 19. Jahrhundert sprach man im Zusammenhang mit den Arbeiten von Architekten und Künstlern wie Karl Friedrich Schinkel, Leo von Klenze und Bertel Thorvaldsen von einer Renaissance der griechischen Antike und vom Neuhumanismus. Erst nach dem Zweiten Weltkrieg verlor die griechisch-römische Zivilisation zunehmend die Vorbildfunktion, die man ihr in Europa und Nordamerika jahrhundertelang zugesprochen hatte. Ein entscheidender Einschnitt war hier das Verschwinden des griechischen und stark auch des lateinischen Unterrichtsfaches von den Sekundarschulen. Ein weiterer Aspekt war, dass in der ersten Hälfte des 20. Jahrhunderts Elemente der antiken Tradition von Anhängern totalitärer Ideologien willkürlich aufgegriffen und so zweckentfremdet wurden. Der Führerkult des faschistischen Regimes in Italien griff direkt auf das antike Rom zurück und knüpfte (nach dem Verständnis des Regimes) an den Caesarenkult an, wobei bereits der Terminus "fascismo" vom lateinischen Begriff "fasces" abgeleitet ist. Benito Mussolini wurde als Nachfolger des Augustus in eine Reihe mit den römischen Caesaren gestellt, und es wurde eine „Wiedererrichtung“ des antiken Römischen Reiches angestrebt. Auch das NS-Regime in Deutschland orientierte sich teils an antiken Vorbildern, so etwa im Zusammenhang mit der ideologisch begründeten Lobpreisung Spartas. Der Bedeutungsverlust nach dem Ende des Zweiten Weltkrieges hat für die Altertumswissenschaften allerdings immerhin den Vorteil, dass nun ein unverstellterer, neutraler Blick auf die Antike leichter möglich ist. Die erhaltene Zeugnisse der Antike sind – neben überlieferten Texten philosophischer, literarischer oder historischer Natur – zahlreiche Objekte der griechischen und römischen Kunst: von großen Skulpturen bis zur Kleinkunst, Töpferei, Münzen etc. Wichtige Antikensammlungen befinden sich in Rom, Athen, Neapel, Paris, London, München, Sankt Petersburg, Wien und Berlin. Für die Kenntnis des antiken Alltags sind vor allem archäologische Ausgrabungen wie die in Pompeji, Olympia, Delphi oder Pergamon von Bedeutung. Quellenlage. Der Großteil der antiken Literatur (und damit auch der Geschichtsschreibung) ist nicht erhalten, sodass unser Wissen über die Antike durch die Überlieferungslage beeinflusst wird (siehe auch antike Geschichtsschreibung und hinsichtlich der griechischen Geschichtsschreibung die Liste der griechischsprachigen Geschichtsschreiber der Antike). Es wurde geschätzt, dass uns kaum 10 % der griechischen Literatur überliefert sind. Andere Forscher sind noch weit pessimistischer und gehen eher von einer Verlustrate um 99 % aus. In Teilen sieht es besonders trostlos aus (Archaik, Hellenismus), in anderen Bereichen etwas besser (klassische Zeit Griechenlands sowie Spätantike). Insgesamt ist die Quellenlage jedoch problematisch; man muss in allen Bereichen davon ausgehen, dass vieles spurlos verloren ist und sich auch viele Ereignisse und Zusammenhänge unserer Kenntnis entziehen. Neben den erzählenden Quellen sowie beispielsweise erhaltenen Reden, Briefe und Gedichte müssen daher natürlich auch Inschriften, Papyri sowie (oft von besonderer Bedeutung) archäologische und numismatische Quellen herangezogen werden. Eine Zusammenfassung mit ausführlichen Angaben bieten die jeweiligen Artikel (Geschichtsschreibung und Ähnliches) in den entsprechenden Lexika (siehe unten). Im Folgenden seien einige der wichtigsten antiken Geschichtsschreiber und ihre (oft nur teilweise) erhaltenen Texte genannt: Siehe auch die online verfügbaren Quellensammlungen wie LacusCurtius oder das Perseus Project. Siehe auch. Verschiedenes: Rom: Listen: Quellenausgaben. Quellenausgaben mit Übersetzungen bieten neben anderen Reihen die Sammlung Tusculum und die Loeb Classical Library. Eine äußerst wichtige Sammlung der erhaltenen Reste ansonsten verlorener griechischer Geschichtsschreiber stellt der "Jacoby" dar: Literatur. Allgemein: Aufgrund der Masse an Fachpublikationen kann an dieser Stelle nur eine sehr beschränkte Auswahl genannt werden. Das zentrale bibliographische Nachschlagewerk der Altertumswissenschaft stellt immer noch die L’Année philologique dar ("L’Année Philologique. Bibliographie critique et analytique de l’Antiquité greco-latine", hrsg. von J. Marouzeau und J. Ernst, Paris 1923ff.). Kostenlos nutzbar ist zudem die umfangreiche Gnomon-Datenbank. Ausführliche Angaben sind außerdem entweder den Bibliographien der unten genannten Werke (besonders sei dabei auf The Cambridge Ancient History und Oldenbourg Grundriss der Geschichte hingewiesen) zu entnehmen oder den Bibliographien, die in der ausführlichen HU-Linkliste aufgeführt sind. Es sei außerdem auf die hier verlinkten Artikel verwiesen, wo sich zahlreiche weiterführende Literaturangaben finden. Spezielle Literatur. Nur in Auswahl. Es sei auch auf die oben genannten Fachlexika verwiesen. Allgemein Griechenland – Hellas Rom Persien/Iran Germanen und Völkerwanderung Kelten Etrusker Phönizier/Punier Skythen, Hunnen und andere Steppenvölker Indien und China Alter Orient Literaturgeschichte Geschichtsschreibung Militärgeschichte Religionsgeschichte Wirtschafts- und Sozialgeschichte Nachwirkungen
109
230642284
https://de.wikipedia.org/wiki?curid=109
Anthony Hope
Anthony Hope war das Pseudonym von Sir Anthony Hope Hawkins (* 9. Februar 1863 in London; † 8. Juli 1933 in Walton-on-the-Hill, Surrey), einem britischen Rechtsanwalt und Schriftsteller. Anthony Hope war ein Sohn von Reverend Edward Connerford Hawkins, einem anglikanischen Geistlichen, und Jane Isabella Grahame. Er verließ die Universität Oxford 1885 mit einem first-class degree und wurde Anwalt in London. Er heiratete 1903, hatte zwei Söhne und eine Tochter. Während des Ersten Weltkrieges arbeitete er im Ministry of Information. 1918 wurde er für seine Verdienste während des Krieges zum Ritter geschlagen. Sein erstes Buch war "A Man of Mark" (1890), später schrieb er "The Dolly Dialogues" (1894). Den größten Erfolg hatte er mit "The Prisoner of Zenda" (dt. „Der Gefangene von Zenda“). Anschließend verfasste er "Rupert of Hentzau" (1898) und viele weitere Bücher.
110
481711
https://de.wikipedia.org/wiki?curid=110
Ångström (Einheit)
Das Ångström [] (nach dem schwedischen Physiker Anders Jonas Ångström) ist eine Maßeinheit der Länge. Das Einheitenzeichen ist Å (A mit Ring). Ein Ångström entspricht dem zehnmillionsten Teil eines Millimeters. Das Ångström ist keine SI-Einheit. Das Ångström wird insbesondere in der Kristallographie und der Chemie benutzt, um mit „einfachen“ Zahlenwerten arbeiten zu können. So ist 1 Å die typische Größenordnung für Atomradien sowie Abstände von Atomen in Kristallstrukturen und Bindungslängen in Molekülen. Der Radius isolierter neutraler Atome beträgt zwischen 0,3 und 3 Å. Daher wird das Ångström oft als Einheit für Abstände in atomaren Größenordnungen verwendet, z. B. für die Dicke sehr dünner Schichten, für die Angabe der verwendeten Wellenlänge der Röntgenstrahlung bei ihrer Ermittlung in Röntgenbeugungsexperimenten wie der Kristallstrukturanalyse, sowie für die Porengröße von stationären Phasen in flüssigchromatographischen Säulen für die Hochleistungsflüssigkeitschromatographie (HPLC). In der Thermodynamik wird die mittlere freie Weglänge der sich bewegenden Moleküle häufig in Ångström angegeben. Auch in der Optik und der Astronomie wird es zur Angabe einer Wellenlänge genutzt (allerdings weniger in deutschsprachigen, sondern eher in englischsprachigen Fachpublikationen). Einen ähnlichen Versuch, zu einfach handhabbaren Zahlenwerten zu kommen, unternahm 1925 Manne Siegbahn mit der Definition der X-Einheit, die etwa 10−13 Meter entsprach. Das Ångström setzte sich aber durch. Da das Ångström nicht in der Einheitenrichtlinie aufgeführt wird, ist es in der EU keine gesetzliche Einheit, nach der schweizerischen Einheitenverordnung auch nicht in der Schweiz. In DIN 1301-3 ist sie ausdrücklich als nicht mehr zugelassene Einheit aufgelistet. Darstellung in Computersystemen. Laut Unicode-Standard soll die Längeneinheit Ångström durch den Großbuchstaben Å (codice_1) dargestellt werden. Unicode enthält zwar auch ein Zeichen namens ANGSTROM SIGN (Ångströmzeichen, codice_2: Å), dieses wurde jedoch lediglich zur Kompatibilität mit älteren Zeichenkodierungsstandards aufgenommen und soll in neu erstellten Texten "nicht" verwendet werden.
111
1102790
https://de.wikipedia.org/wiki?curid=111
Ampere
Das Ampere [] mit Einheitenzeichen A, benannt nach dem französischen Mathematiker und Physiker André-Marie Ampère, ist die SI-Basiseinheit der elektrischen Stromstärke und zugleich SI-Einheit der abgeleiteten Größe "magnetische Durchflutung". Obwohl man den Nachnamen des Namensgebers Ampère mit Gravis schreibt, wird die SI-Einheit im deutschen und englischen Sprachraum ohne Akzent geschrieben, also „Ampere“. Definition. Ein Ampere entspricht einem Strom von 1 Coulomb (C) pro Sekunde durch den Leiterquerschnitt: Das Coulomb ist im Internationalen Einheitensystem über die festgelegte Elementarladung formula_2 definiert. Ein Ampere entspricht daher genau einem Strom von formula_3 Elementarladungen pro Sekunde, bei einem Fluss von Elektronen sind dies ca. 6,2 · 1018 (6,2 Trillionen) Elektronen pro Sekunde. Ein Fluss von 1 A über eine Spannung von 1 Volt (V) bedeutet eine Leistung von 1 Watt (W). Historisches. Definition 1881. Auf dem ersten internationalen Elektrizitätskongress 1881 wurde die Definition von „praktischen“ Einheiten beschlossen: "Ohm" für den elektrischen Widerstand, "Volt" für die Elektrische Spannung und "Ampere" für den elektrischen Strom. Das Ampere wurde als 0,1 elektromagnetische CGS-Einheiten festgelegt. Zuvor hatte es eine Reihe von unterschiedlichen Einheiten und Definitionen gegeben. In Deutschland und einigen anderen Ländern war die „Webersche Einheit“ der Stromstärke in Gebrauch, die 0,1 Ampere entsprach. In Großbritannien schlug man zunächst vor, die Einheit der Stromstärke mit „Galvat“, nach dem italienischen Biophysiker Luigi Galvani, zu benennen, die in etwa dem heutigen Ampere entsprochen hätte. Später wurde ebenfalls eine „Weber-Einheit“ für die Stromstärke eingeführt, die aber einen zehnmal so hohen Wert hatte wie die in Deutschland gebräuchliche (also dem heutigen Ampere entsprach). Noch verwickelter wurde es dadurch, dass der Name Weber auch für die Einheit der elektrischen Ladung benutzt wurde, so dass dann die Stromstärke gleich „Weber-Einheit/Sekunde“ war. Zeitweise gab man der Weber-Einheit auch den Namen „Farad“, womit später die Einheit der elektrischen Kapazität benannt wurde. Für die Realisierung von Ohm, Volt und Ampere wurden in der Folge unterschiedliche Normale entwickelt. Definition 1898. 1898 wurde 1 Ampere im „Gesetz, betreffend die elektrischen Maßeinheiten“ des Deutschen Kaiserreichs als die Stärke desjenigen Stromes definiert, der aus einer wässrigen Silbernitrat-Lösung mittels Elektrolyse in einer Sekunde 1,118 mg Silber abscheidet. Das so definierte Ampere – das auch in den meisten anderen Industriestaaten galt – ist später als internationales Ampere bezeichnet worden; das mit den restlichen Basiseinheiten kompatible (Definition von 1881) dagegen als absolutes Ampere. Definition 1948. 1933 beschloss die 8. Generalkonferenz für Maß und Gewicht (CGPM), dass langfristig nur die „absoluten“ elektromagnetischen Einheiten verwendet werden sollten. Die folgenden Jahre sollten dazu genutzt werden, die die Umrechnung von „internationalen“ und „absoluten“ Einheiten möglichst genau zu ermitteln. Die endgültige Abkehr von den „internationalen“ Einheiten und alleinige Akzeptanz der „absoluten“ Einheiten erfolgte, kriegsbedingt verzögert, 1948 durch die 9. CGPM. Damit war das Ampere eindeutig wie folgt über die Lorentzkraft zweier Leiter aufeinander definiert: Mit dieser Definition wurde zugleich der Wert der magnetischen Feldkonstante μ0 festgelegt. Stromstärke als vierte Basiseinheit. Im 19. Jahrhundert waren die elektromagnischen Größen in einem System mit drei Basisgrößen „Länge“, „Masse“ und „Zeit“ definiert worden. In solch einem System treten aber zwangsläufig Dimensionen mit halbzahligen Exponenten auf, wie es etwa in den verschiedenen Varianten des CGS-Einheitensystems geschieht. Dies lässt sich durch Hinzunahme einer vierten Basisgröße und damit einer vierten Basiseinheit vermeiden. 1956 wurde beschlossen, dass dies die Einheit der Stromstärke sein sollte (MKSA-System). Definition seit 2019. Die 26. Generalkonferenz für Maß und Gewicht beschloss mit Wirkung zum 20. Mai 2019 eine Revision des Internationalen Einheitensystems. Seitdem basiert das Ampere auf der Elementarladung, der ein fester Zahlenwert zugewiesen wurde, und hängt zusätzlich von der Definition der Sekunde ab, nicht mehr jedoch vom Meter und vom Kilogramm. Die Neudefinition wurde vorgenommen, da sie leichter zu realisieren ist. Die magnetische Feldkonstante μ0 ist seitdem eine mit einer Messunsicherheit behaftete Messgröße, die experimentell bestimmt werden muss. Gebräuchliche dezimale Vielfache. Die Einheit Ampere ist mit verschiedenen Vorsätzen für Maßeinheiten (SI-Präfixe) in Verwendung, beispielsweise:
112
2458679
https://de.wikipedia.org/wiki?curid=112
Acre
Acre (Plural deutsch "Acre" oder "Acres;" , Plural "acres") ist eine von den Britischen Inseln stammende angloamerikanische Maßeinheit zur Flächenbestimmung von Grundstücken und entspricht im metrischen System exakt 4046,8564224 m² oder grob 4047 m² beziehungsweise 0,4 ha. Abgekürzt wird diese Einheit mit "ac". Typologisch vergleichbare Maßeinheiten sind der Morgen, das Tagewerk, das Joch und die Juchart. In den Vereinigten Staaten wird die Größe von Grundstücken bei Land- und Grundvermessungen allein mit den beiden Flächeneinheiten Acre und Square Foot angegeben. Weit verbreitet sind diese Einheiten auch in Großbritannien, Kanada, Indien, Australien und anderen Commonwealth-Staaten, obwohl dort heute ein metrisches Hauptmaßsystem besteht. Ein größeres Grundstück wird dort auch als "Acreage" bezeichnet. Begriff. Definition. Heutzutage wird der Acre direkt mit 43.560 Square Feet definiert, weil die zur ursprünglichen Definition verwendeten Längenmaße Furlong und Rod mittlerweile ungebräuchlich sind. Unter Einbezug der Meile sowie den heutzutage nicht mehr gebräuchlichen Flächenmaßen Rood und Square Rod (auch als Square Perch, Perch, Square Pole, Pole bezeichnet) ergibt sich die folgende Umrechnung: Praktische Verwendung. Der Acre ist das Hauptmaß für Grundstücksflächen. In der Regel werden nicht mehr als zwei Nachkommastellen angegeben, womit eine Genauigkeit von ±20 m² vorliegt. Sobald genauere Angaben erforderlich sind, beispielsweise bei Bauland, wird die Flächeneinheit Square Foot verwendet. Bei landwirtschaftlich genutzten Grundstücken werden die Flächen in "Workable Acre" und "Non Workable Acre" unterteilt. Damit gemeint sind die tatsächlich nutzbare Fläche und die für landwirtschaftliche Zwecke nicht nutzbare Fläche, wie beispielsweise Ödland. Auch sehr große Grundflächen werden in Acre angegeben, beispielsweise 87.000 ac (≈ 350 km²). Eine Umrechnung in Quadratmeilen erfolgt in der Regel nicht. Geschichte. Ursprüngliche Definition. Die Einheit "acre," von altenglisch "æcer" ‚Acker, Feld‘, bezeichnete ursprünglich den Landstreifen, der mit einem Ochsengespann in einem Tag gepflügt werden konnte. Unter König Eduard I. sowie erneut unter Eduard III. und Heinrich VIII. wurde der Acre gesetzlich als ein Stück Land mit der Länge von 40 Rods (oder Perches; = 1 Furlong oder 660 Feet) und der Breite von 4 Rods (oder Perches; = 66 Feet oder [seit 1620] 1 Chain) beziehungsweise 160 Square Rods (Quadratruten) bei welcher Grundstücksform auch immer definiert. U.S. Survey Foot. In den USA basierten die Landflächeneinheiten noch bis Ende 2022 auf dem dann ersatzlos abgeschafften "U.S. survey foot". Der aus dem Survey Foot abgeleitete Acre ist mit einer Fläche von ca. 4046,8726099 m² um etwa 162 cm² geringfügig größer als der auf dem Standard-Foot basierende Acre. Historische Einheiten. Obgleich auf den Britischen Inseln die Größe des Acres seit dem Hochmittelalter mit 160 Square Rods definiert war, war dessen Fläche je nach Ort und Zeit uneinheitlich, da die Längeneinheit Rod oder Perch verschiedenen Fuß-Äquivalenten entsprach. Erst mit der Neudefinition der "Imperial Units" durch den "Weights and Measures Act" von 1824 wurde ein für das gesamte Britische Weltreich einheitlicher Acre geschaffen. Vor der Einführung des Imperial Standard Acre (Statute Acre) gab es unter anderem den alten schottischen Acre, den neuen schottischen Acre, auch als Cunningham Acre bezeichnet, oder den irischen bzw. Plantation Acre. Beispielsweise hat der Cunningham Acre etwa die 1,3-fache Größe, der Plantation Acre grob die 1,6-fache Größe des heutigen Acres. Einige dieser veralteten Maße waren teilweise bis ins 20. Jahrhundert gebräuchlich, so in abgelegenen Gebieten Irlands. In der Normandie, Frankreich, war auch die Acre [akr] je nach Ort und Zeit uneinheitlich und sogar manchmal im gleichen Bezirk, wie zum Beispiel im pays de Caux wo es "grande acre" (68 Are und 66 Zentiare) und "petite acre" (56 bis 75 Zentiare) gab.
113
1765216
https://de.wikipedia.org/wiki?curid=113
Apostilb
Apostilb (Einheitenzeichen asb) ist eine veraltete Einheit der Leuchtdichte selbstleuchtender Körper. 1942 wurde Blondel (Einheitenzeichen: blondel) als weiterer Name vorgeschlagen, der Name wurde zum Andenken an den französischen Physiker André-Eugène Blondel gewählt. Eine Benutzung oder offizielle Festlegung dieses Namens ist derzeit nicht nachweisbar. Seit 1978 ist das Apostilb keine offizielle Einheit mehr. Es ist eine Untereinheit des Stilb (Einheitenzeichen: formula_1) und darüber verknüpft mit dem Lambert (Einheitenzeichen: formula_2): Die entsprechende SI-Einheit ist cd/m² (nicht SI-konforme Alternativbezeichnung: Nit (nt)):
114
233330964
https://de.wikipedia.org/wiki?curid=114
Ar (Einheit)
Das oder der Ar, in der Schweiz die Are, ist eine Flächenmaßeinheit im metrischen System von 100 m2 mit dem Einheitenzeichen a (oft jedoch nicht oder falsch abgekürzt: Ar bzw. ar). 100 a ergeben 1 ha. Ein Quadrat mit dem Flächeninhalt von 1 a hat eine Kantenlänge von zehn Metern, man spricht daher auch von einem Quadratdekameter (dam2). Das Ar ist keine SI-Einheit; im Gegensatz zum Hektar ist es nicht einmal zum Gebrauch mit dem SI zugelassen. In der EU und der Schweiz ist der Ar bzw. die Are gesetzliche Einheit für die Angabe der Fläche von Grund- und Flurstücken. Geschichte. Im Jahr 1793 wurde in Frankreich der Meter als der 10-millionste Teil des Erdquadranten auf dem Meridian von Paris festgelegt. Zugleich wurde die Einheit "are" in Anlehnung an das lateinische Wort "ārea" (Fläche, freier Platz) für die Fläche von 100 m2 neu geschaffen. Sie war anfangs die einzige gebräuchliche metrische Flächeneinheit, samt ihrer Teile und Vielfache Zentiar (1 ca = 1 m2) und Hektar (1 ha = 100 a). Im Jahr 1868 wurde die Maßeinheit unter der Bezeichnung Ar auch in Deutschland amtlich eingeführt: Die entsprechende Norddeutsche Maß- und Gewichtsordnung trat 1872 für das gesamte Deutsche Reich in Kraft. Vielfache und Teile. Außer Ar und Hektar sind diese Vielfachen und Teile im deutschen Sprachraum ungebräuchlich und nur noch von historischem Interesse. Das Dekar wird als Flächenmaß in der bulgarischen Landwirtschaft, in Griechenland (Stremma), in der Türkei und einigen Staaten des Nahen Ostens (metrisches Dunam) verwendet.
115
2849628
https://de.wikipedia.org/wiki?curid=115
Arbeit (Sozialwissenschaften)
Arbeit ist eine zielbewusste und sozial durch Institutionen (Bräuche) abgestützte besondere Form der Tätigkeit, mit der Menschen seit ihrer Menschwerdung in ihrer Umwelt zu überleben versuchen. Zur Anthropologie der „Arbeit“. Es ist bereits strittig, ob man zielgerichtete körperliche Anstrengung von Tieren (zum Beispiel den instinktiven Nestbau oder das andressierte Ziehen eines Pfluges) als „Arbeit“ bezeichnen kann. Die philosophische Anthropologie geht zumeist davon aus, dass „Arbeit“ erst im Tier-Mensch-Übergangsfeld erscheint (vgl. zum Beispiel Friedrich Engels’ "Anteil der Arbeit an der Menschwerdung des Affen", MEW 20). Dabei wird meist angenommen, dass die Resultate menschlicher Arbeit (als „Gegenstände“) wie in einem Spiegel dem Menschen sich selbst zeigen, so dass er angesichts ihrer des Selbstbewusstseins mächtig wird. Das könnten aber auch andere menschliche Tätigkeiten bewirken, so dass „Arbeit“ gerade in ihren ursprünglichen Formen schwer von anderen menschlichen Überlebensstrategien wie Spiel oder Kunst zu trennen ist. Seit der Urgeschichte ist (so Karl Bücher) ein Basiszusammenhang von Arbeit und Rhythmus anzunehmen (vgl. das Arbeitslied). Im Vergleich zu modernen Erwerbstätigen hatten Jäger und Sammler laut zahlreichen Studien mehr Zeit zur freien Verfügung. "Siehe hierzu": Abschnitt „Alltag und Lebenserwartung“ im Artikel „Jäger und Sammler“. Einstellung zur Arbeit: Kulturelle Unterschiede. Die Auffassung, welche Tätigkeiten als Arbeit betrachtet werden und welche Einstellung die Menschen dazu haben, sind kulturell sehr unterschiedlich und unterliegen einem ständigen sozialen Wandel. In den industrialisierten Kulturen haben Arbeit und Beruf einen hohen Stellenwert, da das marktwirtschaftlich organisierte Wirtschaftssystem und der erwünschte Fortschritt auf leistungswillige Arbeitnehmer angewiesen ist. Das war nicht immer so: Vor der industriellen Revolution lebte ein Großteil der Menschen von autonomer Subsistenzwirtschaft. Dies wandelte sich dann in kurzer Zeit zu einer stark reglementierten und hierarchisch organisierten Arbeitswelt, der von den Arbeitern einen erheblich höheren Zeitaufwand erforderte als die Selbstversorgung. In dieser Zeit entstand die Bewertung der Arbeit als »Leid und Mühsal«. Seitdem haben sich die zeitliche und körperliche Belastung, die Entlohnung sowie die rechtliche Stellung der Arbeitnehmer kontinuierlich verbessert. Andererseits wird heute jedoch viel mehr Flexibilität bezüglich der Fortbildung (bis hin zur Umschulung), der Arbeitsplätze und -zeiten erwartet. Im Westen wird Arbeit heute vielfach als »notwendiges Übel« gesehen, welches allerdings Rang und Ansehen garantiert und unter Umständen ein Weg zur Selbstverwirklichung werden kann. Der fortschreitende Wandel führt dabei zu einer stetig neuen Auseinandersetzung mit dem Stellenwert der Arbeit. Demgegenüber gibt es Gesellschaften, in denen Menschen, die von unselbstständiger Lohnarbeit leben (ähnlich wie während der Industriellen Revolution im Westen), nur geringes Ansehen genießen und ihre Leistung nur widerwillig erbringen, weil der Lohn gering ist und die Arbeitszeit einen Großteil des Tagesablaufes bestimmt. In Ländern, wo die Bevölkerung noch vorwiegend autonom von traditionellen Subsistenzformen lebt, wird Lohnarbeit nur geschätzt, da ihre Bedingungen dem Einzelnen weitaus weniger Möglichkeiten (bisweilen auch mehr Freizeit) eröffnen als dem eigenständigen Bauern oder Jäger. Dies gilt auch dort, wo die Reziprozität (gegenseitige, unentgeltliche Hilfe innerhalb einer lokalen Gemeinschaft) noch eine größere Rolle spielt als die Geldwirtschaft. Die selbstbestimmte Arbeit wird hier ungleich höher geschätzt: sie wird oftmals begrifflich nicht von der Freizeit unterschieden und gilt nicht als mühevoller Überlebenskampf, sondern als »sinngebende Lebensaufgabe«. Bei einigen naturverbundenen Ethnien ist die traditionelle Arbeit eine religiöse Handlung, die das Bündnis zwischen Menschen, Ahnen und Umwelt aufrechterhält. Da diese tiefe Bedeutung bei der Lohnarbeit fehlt, mangelt es häufig auch an ausreichender Motivation zur Arbeit. Westliche Arbeitgeber empfinden das als Faulheit oder mangelnde Bereitschaft zur Entwicklung bis hin zur Rückständigkeit. Dies gilt besonders für streng egalitäre Gesellschaften, bei denen jegliche Arbeit negativ gesehen wird, weil sie etwa mit Habgier, egoistischem Streben oder Reichtum auf Kosten Anderer gleichgesetzt wird. Wortgeschichte. Das Wort "Arbeit" ist gemeingermanischen Ursprungs ("*arbējiðiz", got. "arbaiþs"); die Etymologie ist unsicher; evtl. verwandt mit indoeurop. "*orbh-" „verwaist“, „Waise“, „ein zu schwerer körperlicher Tätigkeit verdungenes Kind“ (vgl. Erbe); evtl. auch verwandt mit aslaw. "robota" („Knechtschaft“, „Sklaverei“, vgl. Roboter). Im Alt- und Mittelhochdeutschen überwiegt die Wortbedeutung „Mühsal“, „Strapaze“, „Not“; redensartlich noch heute "Mühe und Arbeit" (vgl. Psalm 90, lateinisch "labor et dolor"). Das französische Wort "travail" hat eine ähnliche, sogar noch extremere Wortgeschichte hinter sich: es steht im Zusammenhang mit einem frühmittelalterlichen Folterinstrument. Das italienische "lavoro" und englische "labour" (amerikanisch "labor") gehen auf das lateinische "labor" zurück, das ebenfalls primär „Mühe“ bedeutet. Viele Redensarten sind mit ihr verbunden. So wurde harte körperliche Arbeit früher als "Kärrnerarbeit" bezeichnet, und eine "Schweinearbeit" bedeutet unangenehm viel Arbeit: „Wer die Arbeit kennt und sich nicht drückt, | der ist verrückt.“ Geschichtsschreibung. Die Geschichtsschreibung der Arbeit begann erst im 20. Jahrhundert (zuerst in Frankreich, England und den USA) zu entstehen. Eine frühe Ausnahme innerhalb der deutschen Historiker war Karl Lamprecht (1856–1915). In der DDR war die historische Arbeitsforschung eines der zentralen Forschungsbereiche. Ein neueres Buch stammt von Arne Eggebrecht und anderen. Theoriegeschichte. Antike. Aristokratische Autoren wie Xenophon, Platon, Aristoteles und Cicero würdigten den Großteil der täglichen Arbeit (Handwerker, Bauern, Kaufleute) herab. Sie galt ihnen (insbesondere körperliche Arbeit) als Zeichen der Unfreiheit. Sklaven ("dúloi") und Handwerker ("bánausoi") waren „der Notwendigkeit untertan“ und konnten nur durch diese als „unfrei“ verstandene Arbeit ihre Lebensbedürfnisse befriedigen. Geistige Arbeit blieb der "scholé" (gespr. "s|cholé") vorbehalten, was etwa „schöpferische Muße“ beschrieb, wovon das deutsche Wort Schule herrührt. Mittelalter. In Europa blieben – vor allem in der Landwirtschaft – Formen unfreier Arbeit von Männern und Frauen, auch Kindern und Alten, lange erhalten (Fron, Lasswirtschaft), am längsten im Russischen Reich; im Deutschen Reich wurden deren letztes Überbleibsel (die Schollengebundenheit in den beiden Mecklenburgs) erst durch die Novemberrevolution 1918 beseitigt. Noch heute existieren in großen Teilen der Welt unterschiedliche Erscheinungsformen unfreier Arbeit, von der Arbeitspflicht bis hin zur Arbeitsversklavung und Zwangsarbeit. Eine positive Bewertung von Arbeit als „produktiver Betätigung zur Befriedigung eigener oder fremder Bedürfnisse“ war im Rittertum und in der Mystik angelegt. Durch Reformation und Aufklärung rückte sie in den Vordergrund: Eine neue Sicht der Arbeit als sittlicher Wert und Beruf (als Berufung verstanden) des Menschen in der Welt wurde von Martin Luther mit seiner Lehre vom allgemeinen Priestertum ausgeprägt. Schärfer noch wurde im Calvinismus die Nicht-Arbeit überhaupt verworfen "(siehe auch: Protestantische Ethik)". Neuzeit. In der Frühphase der Aufklärung wurde Arbeit zum Naturrecht des Menschen erklärt (Jean-Jacques Rousseau). Damit wurde das feudalistische Prinzip der Legitimation kritisiert. Eigentum entsteht "einzig" durch Arbeit, niemand hat ein von Gott gegebenes Anrecht auf Eigentum. Güter, die nicht durch menschliche Arbeit entstanden sind, sind Gemeinbesitz. Adam Smith unterscheidet produktive und unproduktive Arbeit. "Produktive" Arbeit nennt er die Arbeit, deren Resultat ein verkäufliches Produkt ist. Dazu wird nicht nur der eigentliche Wertschöpfungsprozess (beim Schmied: der Vorgang des Schmiedens selbst) gerechnet, sondern auch alle Arbeiten, die indirekt zur Vervollkommnung des Gutes beitragen (beim Schmied: das Erhalten der Glut, das Pflegen von Hammer und Amboss). "Unproduktiv" ist hingegen die Arbeit, die nicht in einem verkäuflichen Produkt resultiert (zum Beispiel die mütterliche Hausarbeit). Andere Arbeiten sind von diesem Standpunkt aus nicht unnütz, da sie notwendig sind, um produktive Arbeit leisten zu können, und werden heute zum Beispiel als "reproduktiv" bezeichnet (beispielsweise Beamte, Verwalter, Soldaten). Der Frühsozialist Charles Fourier proklamierte 1808 ein "Recht auf Arbeit." In der deutschen Philosophie (Immanuel Kant, Johann Gottfried Herder, Georg Wilhelm Friedrich Hegel, Johann Gottlieb Fichte) wird die Arbeit zur Existenzbedingung und sittlichen Pflicht erklärt. Kant räumte in seiner "Anthropologie in pragmatischer Hinsicht" (1798, §87) jedoch ein, dass Faulheit eine Schutzfunktion habe: „Denn die Natur hat auch den Abscheu für anhaltende Arbeit manchem Subjekt weislich in seinen für ihn sowohl als andere heilsamen Instinkt gelegt: weil dieses etwa keinen langen oder oft wiederholenden Kräfteaufwand ohne Erschöpfung vertrug, sondern gewisser Pausen der Erholung bedurfte.“ Nach Karl Marx’ Werttheorie ist die „menschliche Arbeitskraft“ als alleinige Kraft fähig, das Kapital (als eine Ansammlung geronnener Arbeit) zu vergrößern (Mehrwert zu akkumulieren). Sie tut dies im Kapitalismus unausweichlich. Praktisch spiegelt dies wider, dass in der Phase der Industrialisierung freie Arbeit augenfällig zur Ware wurde und vorwiegend die düsteren Züge der damaligen Lohnarbeit annahm. So zum Beispiel in Gestalt der Kinderarbeit, des Arbeiterelends (der „Verelendung“), der Arbeitsunfälle und -krankheiten, der drückenden Akkordarbeit – alles dies sind Merkmale der allgemein so empfundenen „Sozialen Frage“ Deren Folgen wurden schon seit Hegel als „Entfremdung“ charakterisiert: Der Arbeiter hat zu seinem eigenen Arbeitsprodukt, aber auch zu dem Unternehmen, für das er arbeitet, nur noch das bare Lohnverhältnis und kann dem gemäß nicht mehr stolz auf sie sein – in diesem 'Spiegel' erkennt er sich selbst jedenfalls nicht mehr wieder. Für Ernst Jünger war Arbeit nicht Tätigkeit schlechthin, sondern der Ausdruck eines „besonderen Seins, das seinen Raum, seine Zeit, seine Gesetzmäßigkeit zu erfüllen sucht“ ("Der Arbeiter"). Daher kenne Arbeit auch keinen Gegensatz außer sich selbst. Das Gegenteil von Arbeit sei nicht Ruhe oder Muße, da es keinen Zustand gebe, der nicht als Arbeit begriffen werden könne. Neben der „produktiven“ Eigenschaft der Arbeit wird neuerdings (Lars Clausen) ihre „destruktive“ Seite hervorgehoben: am auffälligsten als (harte, lebensgefährliche) Arbeit der Soldaten, aber auch bei selbst-, mitmenschen- oder umweltzerstörerischer Arbeit ist Destruktives seit je Wesensbestandteil aller Arbeit (Anders die „vernichtende Tätigkeit“, die alltags als Vandalismus auftreten kann und einen organisatorischen Höhepunkt im Konzentrationslager hatte). Arbeit und Fortschritt der Technik. Der Soziologe Rudi Dutschke und der Politologe Bernd Rabehl meinten 1967 in einem Gespräch mit Hans Magnus Enzensberger, der technische Fortschritt könne die Erwerbsarbeit in Zukunft erheblich reduzieren: „Dabei muß man bedenken, dass wir fähig sein werden, den Arbeitstag auf fünf Stunden zu reduzieren durch moderne Produktionsanlagen, dadurch dass die überflüssige Bürokratie wegfällt. Der Betrieb wird zum Zentrum der politischen Selbstbestimmung, der Selbstbestimmung über das eigene Leben. Man wird also im Betrieb täglich debattieren, es wird langsam ein Kollektiv entstehen, ein Kollektiv ohne Anonymität, begrenzt auf zwei- bis dreitausend Leute, die also immer noch eine direkte Beziehung zueinander haben.“ In der Zeit der 1950er und 1960er Jahre gab der technische Fortschritt sogar in der calvinistisch geprägten nordamerikanischen Gesellschaft tatsächlich wieder dem Gedanken Raum, dass Fortschritt zu mehr Freizeit führen könne. Zeugnisse für die Hoffnungen gaben die Schöpfungen einer bunten Pop-Kultur mit ihren Science-Fiction-Träumen wie beispielsweise der Zeichentrickserie „Die Jetsons“, in der technikgestütztes Faulenzen ohne moralische Bedenken als Ideal dargestellt werden konnte. Angesichts global unterschiedlicher Entwicklungen zeigte sich jedoch, dass ein Ausruhen auf erreichtem Wohlstand in einer Region als Gelegenheit zum wirtschaftlichen Aufholen in anderen Regionen verstanden wurde. In jenem Zeitraum wurde besonders in Japan technischer Fortschritt in erster Linie als Weg begriffen, große wirtschaftliche Fortschritte zu erzielen. Bis heute begrenzt somit ein Wettbewerb, in dem der verliert, der zuerst bremst, die Möglichkeit, aus technischem und technologischem Fortschritt mehr selbstbestimmte freie Zeit zu gewinnen. Zudem prägte Robert Solow in der Wirtschaft bereits 1956 mit seinem Wachstumsmodell die Auffassung, dass technologische Innovation in erster Linie als ein Multiplikator des Faktors Arbeit aufträte, womit er in der Dogmengeschichte der Wirtschaft einen Ankerpunkt schuf, der bis heute den Raum des Denkbaren gegenüber möglichen Alternativen wirkungsvoll abgrenzt. So schafft in der heutigen Arbeitswelt technischer Fortschritt dort, wo er Freiräume erweitert, vorwiegend und sogar mit zunehmender Geschwindigkeit immer neue Arbeit. Dort, wo Technik schon vor Beginn des Industriezeitalters die Menschen von Arbeit befreite, wurden sie oft nicht freier, sondern arbeitslose Geächtete. In Deutschland nahm zwischen 1960 und 2010 das Arbeitsvolumen pro Kopf kontinuierlich um 30 Prozent ab. Arbeit heute. Nach wie vor wird "Erwerbsarbeit" nicht mit "Arbeit" überhaupt gleichgesetzt. Wo Arbeit auch heute noch nicht "Ware" ist, sind zwei wesentliche Aspekte hervorzuheben: In den wohlhabenden Staaten der Welt (zu denen auch Deutschland zählt), wird die Erwerbsarbeit knapp. Es findet eine zunehmende Flexibilisierung, Virtualisierung, Automatisierung und Subjektivierung der Arbeit statt, prekäre Arbeitsverhältnisse nehmen zu. Inhaltlich verschiebt sich die Arbeit immer mehr in den tertiären Sektor (Dienstleistungen) und in Niedriglohnländer (Offshoring), zumal da die Jugend- und Langzeit-Arbeitslosigkeit die Arbeit trotz ihres zentral wichtigen Charakters als Überlebenstätigkeit aus dem Feld der Erfahrung Vieler rücken. In ärmeren Ländern herrschen zugleich – zum Teil – Verhältnisse, die mit denen in der Industrialisierungsphase Europas vergleichbar sind: Kinderarbeit, Billiglohnarbeit und fehlende soziale Absicherung sind dort häufig anzutreffende Bestandteile der Arbeitswelt. Systematik der Arbeitsverhältnisse. Dort, wo Arbeit für andere verrichtet wird, ist nach wie vor der Unterschied bedeutsam Ein Wandel einer Tätigkeit von der unentgeltlichen zur entgeltlichen Form wird auch als Kommerzialisierung bezeichnet. Unentgeltliche Arbeit. Die "unentgeltliche Arbeit" umfasst also historisch sehr viele Formen, die auch heute vorkommen, aber nicht immer als "Arbeit" betrachtet werden. Beispiele sind: Erwerbsarbeit. Unter Erwerbsarbeit versteht man eine Arbeitsleistung gegen Entgelt (Arbeitslohn) im Gegensatz zu unentgeltlicher Arbeit (wie Subsistenzarbeit, Sklavenarbeit, Hausarbeit oder ehrenamtlicher Arbeit). Erwerbsarbeit wird in einem Beschäftigungsverhältnis (Lohnarbeit) oder in selbständiger und neuerdings auch in scheinselbständiger Form geleistet. Beispiele sind: Das deutsche Privatrecht unterscheidet hier analog zwischen Werkvertrag (der Erfolg wird geschuldet) und Dienstvertrag (der Dienst wird geschuldet). Mischformen. Zu den Mischformen (auch als "Atypische Arbeit" bzw. "Atypische Beschäftigung" bezeichnet) gehören zahlreiche freiwillige oder gesetzlich vorgesehene Arbeiten, die gering entgolten werden. Teils sind die Arbeitenden zur Verrichtung der betreffenden Tätigkeiten rechtlich verpflichtet, teils fühlen sie sich ethisch hierzu verpflichtet. Zu den Mischformen gehören auch solche ehrenamtlichen Tätigkeiten, für die eine Aufwandsentschädigung gezahlt wird, die über den tatsächlichen Aufwand hinausgeht. Kritik der Arbeit. Was die zentrale Stellung der Arbeit in kollektiven Wertsystemen angeht, sagen Kritiker der Arbeit, unterscheiden sich Staatsformen und Herrschaftsmodelle erstaunlich wenig. Als Kritiker der Arbeit war Paul Lafargue, Autor des Pamphlets "Le droit à la paresse" (‚Das Recht auf Faulheit‘; 1883), in der alten Arbeiterbewegung ein Außenseiter. Lafargue verstand sich als revolutionärer Sozialist und dementsprechend schätzte er die kapitalistische Arbeitsethik ein. „Die kapitalistische Moral, eine jämmerliche Kopie der christlichen Moral, belegt das Fleisch des Arbeiters mit einem Bannfluch: Ihr Ideal besteht darin, die Bedürfnisse des Produzenten auf das geringste Minimum zu reduzieren, seine Genüsse und Leidenschaften zu ersticken und ihn zur Rolle einer Maschine zu verurteilen, aus der man ohne Rast und ohne Dank Arbeit nach Belieben herausschindet.“ Lafargues Manifest erschien 1887 auf Deutsch. Lafargue zitierte Lessing: Die radikalen Kritiker der Arbeit lehnen den Arbeitszwang ab – für Reiche wie für Arme. Damit unterscheiden sie sich von Sozialisten, die sich über den Müßiggang der Reichen empören und fordern, dass alle arbeiten müssen. Hintergrund der Ablehnung des Arbeitszwangs ist die reale Möglichkeit der Aufhebung der Arbeit. Schon Lafargue meinte, dass 3 Stunden Arbeit ausreichen müssten. "Aufhebung der Arbeit" bedeutet jedoch nicht nur Verringerung der Arbeitszeit durch Automation und Abschaffung der Produktion von Gütern, die nur um des Profits willen hergestellt werden. Unter kapitalistischen Bedingungen sind Arbeitslose wie abhängig Beschäftigte und auch diejenigen, die auf das sogenannte Berufsleben vorbereitet werden, gleichermaßen dem System der Lohnarbeit unterworfen. Auch wer freie Zeit hat, kann diese nicht frei nutzen, sei es weil andere, mit denen man etwas zusammen tun möchte, arbeiten müssen, sei es weil die gesamte Umwelt von kommerziellen Zwängen geprägt ist. Aufhebung der Arbeit bedeutet, dass auch weiterhin notwendige Tätigkeiten wie zum Beispiel die Pflege gebrechlicher Menschen, einen anderen Charakter annehmen, wenn sie in einem anderen nicht-hierarchischen Kontext ausgeübt werden. Dass die Menschen ohne den Zwang zu Arbeit einfach nichts tun und verhungern würden, ist nach Ansicht der Kritiker der Arbeit nicht zu erwarten, da sie ja bereits unter kapitalistischen Bedingungen freiwillig konstruktiv zusammenarbeiten. Die Tradition der Ablehnung der Arbeit wurde nach dem Zweiten Weltkrieg von einer Gruppe junger Menschen in Paris wiederbelebt. Unter ihnen war Guy Debord. Der Slogan „Ne travaillez jamais“ (‚Arbeitet niemals‘) kehrte dann im Pariser Mai 1968 wieder. Die Ablehnung der Arbeit spielte auch in Italien in den Kämpfen der 1960er und 1970er Jahre eine zentrale Rolle. Der Postanarchist Bob Black rief 1985 die Proletarier dieser Welt auf, sich zu entspannen, da niemand jemals arbeiten solle. Bob Black versteht sich als Antimarxist und postleftistischer (Individual-)Anarchist. Er ruft dazu auf, alle Arbeitsplätze so umzugestalten, dass sie wie ein Spiel sind. Er findet es merkwürdig, dass die einen sich auf dem Feld abrackern, während andere in ihrer Freizeit, welche nur das ebenfalls fremdbestimmte und durchorganisierte Gegenstück zur Arbeit sei, bei der Gärtnerei entspannen. Zentral in seiner Kritik ist neben diesem Punkt(en) auch der Charakter der Fremdbestimmtheit der Arbeit, ob nun im Staatssozialismus oder im Kapitalismus. Im Anschluss an Michel Foucault kritisiert er Disziplinierung und die Disziplinargesellschaft und betont die zentrale Rolle der Arbeit bei der Disziplinierung: Gefängnisse und Fabriken seien zur selben Zeit entstanden, die Schulen seien dafür da, Leistungsgedanken und -bereitschaft und Gehorsam einzuüben und es gebe „mehr Freiheit in jeder einigermaßen entstalinisierten Diktatur als an einem gewöhnlichen amerikanischen Arbeitsplatz“. Eine ähnliche Kritik hatte allerdings auch schon Gustav Landauer vorgetragen. Auch er wollte den Arbeitstag ähnlich neu gestalten. Von einer deutschen Tradition der Arbeitskritik kann man dennoch kaum reden. Seit den 1990er Jahren bemüht sich allerdings die wertkritische Gruppe "Krisis" um eine Erneuerung der Kritik der Arbeit. Sie veröffentlichte ein "Manifest gegen die Arbeit". Die Krisis versteht sich als postmarxistisch, bzw. grenzt sie sich ab vom traditionellen Marxismus. Aktuell in der Kritik der Arbeit ist die Kritik der Identifikation mit der Arbeit als zentralem Element männlicher Identität. Reportagen, Feldforschung und Darstellung der Arbeit in der Literatur. Im Bereich der Feldforschung wurde eine Studie der Österreichischen Wirtschaftspsychologischen Forschungsstelle berühmt. Sie hieß "Die Arbeitslosen von Marienthal" (1933) und beschäftigt sich mit den Folgen plötzlich eintretender Arbeitslosigkeit für eine Dorfgemeinschaft. Darstellungen und Schilderungen der täglichen Arbeit am unteren Rand der Gesellschaft finden sich innerhalb der Belletristik etwa bei den österreichischen Autoren Franz Innerhofer und Gernot Wolfgruber, dem Deutschen Hans Dieter Baroth und bei George Orwell ("Erledigt in Paris und London").
116
1765216
https://de.wikipedia.org/wiki?curid=116
Atomare Masseneinheit
Die atomare Masseneinheit (Einheitenzeichen: u für "unified atomic mass unit") ist eine Maßeinheit der Masse. Ein alternativer Name ist Dalton (Einheitenzeichen: Da), benannt nach dem englischen Naturforscher John Dalton. Sie wird vor allem in der Physik und (Bio-)Chemie für die Angabe von Atom- und Molekülmassen verwendet. Ihr Wert ist auf der Masse eines Atoms des Kohlenstoff-Isotops 12C festgelegt. Die so gewählte Einheit entspricht etwa dem Mittelwert der Massen von Proton und Neutron, zuzüglich der halben Masse des Elektrons. Sie hat die praktische Eigenschaft, dass alle bekannten Kern- bzw. Atommassen nahezu ganzzahlige Vielfache von u sind. Die betreffende ganze Zahl heißt Massenzahl des Kerns oder Atoms und ist gleich der Anzahl der Nukleonen im Kern. Außerdem hat die relative Atom- oder Molekülmasse in der Einheit u (bzw. Da) den gleichen Zahlenwert wie die molare Masse dieses Stoffs in g/mol. Die relative Molekülmasse großer Moleküle wie der Proteine, der DNA und anderer Biomoleküle wird oft in Kilodalton charakterisiert, da es zahlenmäßig keine Unterschiede zur Angabe in kg/mol gibt. Die atomare Masseneinheit bzw. das Dalton ist zum Gebrauch mit dem Internationalen Einheitensystem (SI) zugelassen. In der EU und der Schweiz ist sie eine gesetzliche Maßeinheit, allerdings nur unter dem Namen „Atomare Masseneinheit“. Der Name „Dalton“ ist vor allem in der Biochemie und generell in den USA gebräuchlich. Definition. Heutige Definition. Die atomare Masseneinheit ist definiert als ein Zwölftel der Atommasse eines isolierten Atoms des Kohlenstoff-Isotops 12C im Grundzustand. Der aktuell empfohlene Wert ist Die Umrechnung in die SI-Einheit Kilogramm ergibt Da der Kern des Kohlenstoff-12-Atoms gerade 12 Nukleonen enthält, zudem Proton und Neutron annähernd die gleiche Masse haben und die Masse der Elektronen mit einem Viertausendstel der Masse der Nukleonen vernachlässigbar ist, ist in Näherung die Einheit u gleich der Masse eines einzelnen Nukleons. Deshalb entspricht der gerundete Zahlenwert der Atommasse in u annähernd der Massenzahl (Nukleonenzahl), d. h. der Zahl der schweren Kernbausteine des Atoms. Beziehung zur molaren Masse. Bis zur Neudefinition der SI-Einheiten im Jahr 2019 war das Mol als die Stoffmenge definiert, die aus ebenso vielen Einzelteilchen besteht, wie Atome in 12 g Kohlenstoff 12C enthalten sind. Die atomare Masseneinheit und das Mol waren also über dasselbe Atom 12C definiert. Dadurch ergab sich für die Masse eines Teilchens in u und dessen molare Masse in g/mol exakt der gleiche Zahlenwert. Oder anders ausgedrückt: 1 u · "N"A = 1 g/mol. Die Avogadro-Konstante NA, also die Anzahl Teilchen pro Mol, musste nach dieser Definition experimentell bestimmt werden und war mit einer Messunsicherheit behaftet. Seit 2019 ist NA nicht mehr über die Masse des 12C-Atoms bestimmt, sondern per Definition exakt festgelegt. Daher haben die Masse eines Teilchens in u und die molare Masse in g nicht mehr exakt denselben Zahlenwert. Die Abweichung muss experimentell bestimmt werden, ist aber extrem klein und in der Praxis irrelevant: Frühere Definitionen. John Dalton veröffentlichte 1803 eine erste Liste von Atommassen (bzw. Massen von Molekülen – das Konzept der Moleküle war noch nicht entwickelt). Dass Materie überhaupt aus kleinsten Teilchen (Atomen) besteht, wurde freilich erst Jahrzehnte später allgemein akzeptiert. Dalton gab die Massen relativ zum an, denn er hatte keine Möglichkeit, die absoluten Massen zu bestimmen, und schuf damit eine Massenskala auf atomarer Ebene. Aus technischen Gründen wurde später das Sauerstoff-Atom als Referenz gewählt. Zunächst war der Umrechnungsfaktor zu makroskopischen Masseneinheiten (z. B. Gramm) unbekannt. Erst 1865 konnte Josef Loschmidt erstmals die Teilchenzahl in Gasen größenordnungsmäßig ermitteln (auf einen Faktor ≈2 genau), woraus sich eine Umrechnung gab. Bis 1960 war die atomare Masseneinheit als ein Sechzehntel der Masse eines Sauerstoff-Atoms definiert. Dabei bezogen sich die Chemiker auf die durchschnittliche Masse eines Atoms in der natürlich vorkommenden Isotopenzusammensetzung aus 16O, 17O und 18O, die Physiker aber auf die Masse des Atoms 16O, das mit 99,76 % das bei weitem häufigste Isotop ist. Die Einheit wurde in beiden Fällen amu ("Atomic Mass Unit") genannt. Die Differenz zwischen der „chemischen“ Definition und der „physikalischen“ Definition (+2,8 ⸱ 10−4) war Anlass, eine vereinheitlichte Definition einzuführen. Über die Verhandlungen in den zuständigen Gremien wird anekdotisch berichtet, dass die Chemiker zunächst nicht bereit gewesen seien, auf die Definition der Physiker mit 16O einzuschwenken, da dies „erhebliche Verluste“ beim Verkauf von chemischen Substanzen zur Folge gehabt hätte. Schließlich überzeugten die Physiker die Chemiker mit dem Vorschlag, 12C als Basis zu nehmen, wodurch der Unterschied zur „chemischen“ Definition nicht nur viel geringer war (−3,7 ⸱ 10−5), sondern auch in die „richtige Richtung“ ging und sich positiv auf die Verkaufserlöse auswirken würde. Zwischen dem neuen und den beiden veralteten Werten der Einheit gilt die Beziehung Die Neudefinition war zunächst eine Vereinbarung zwischen der IUPAP und der IUPAC und wurde 1970 in die erste Auflage der SI-Broschüre als „Einheit zum Gebrauch mit dem SI“ übernommen. Im Jahr 1971 wurde das Mol, das ebenfalls auf dem 12C-Atom beruhte, ins SI übernommen. Verwendung. Fachgebiete. Die Maßeinheit wird vor allem in der Atomphysik und (Bio-)Chemie verwendet – generell überall dort, wo es um Massen von Atomen und Molekülen geht. Der Vorteil ist, dass dabei „handliche“ Zahlen auftreten, die zudem mit der molaren Masse in Gramm übereinstimmen. In Darstellungen des Periodensystems der Elemente ist die atomare Masse meistens in dieser Einheit angegeben. Bei sehr präzisen Angaben kommt hinzu, dass Massen im mikroskopischen Bereich in der atomaren Masseneinheit oft präziser als in der SI-Masseneinheit Kilogramm angegeben werden können, da die Referenzmasse (12C-Atom) ebenfalls mikroskopisch ist. So ist die Masse des Protons und des Elektrons in u um etwa eine Größenordnung genauer bekannt als in Kilogramm (bzw. MeV/c2). Wahl der Bezeichnung. In der Broschüre des Internationalen Büros für Maß und Gewicht („SI-Broschüre“) ist die atomare Masseneinheit in der Liste der „zur Verwendung mit dem SI zugelassene Nicht-SI-Einheiten“ aufgeführt. In der 8. Auflage (2006) wurde der Einheitenname „Dalton“ erstmals hinzugefügt, gleichrangig als Synonym zum u. Die 9. Auflage (2019) nennt nur das Dalton und weist in einer Fußnote darauf hin, dass die „Atomare Masseneinheit (u)“ eine alternative Bezeichnung für dieselbe Einheit ist. In den gesetzlichen Regelungen der EU-Richtlinie 80/181/EWG für die Staaten der EU und im Bundesgesetz über das Messwesen in der Schweiz ist der Ausdruck „Dalton“ nicht genannt. In physikalischen Publikationen wird meist u verwendet, in Publikationen der Chemie und Biochemie Da. Präfixe. Sowohl für die atomare Masseneinheit als auch für das Dalton ist die Verwendung von Vorsätzen für dezimale Vielfache und Teile zulässig. Gebräuchlich sind das Kilodalton, 1 kDa = 1000 Da sowie das Megadalton, 1 MDa = 1.000.000 Da.
118
3729235
https://de.wikipedia.org/wiki?curid=118
Anglizismus
Als Anglizismus bezeichnet man einen sprachlichen Ausdruck, der durch Kopie aus dem Englischen in eine andere Sprache eingeflossen ist. Dies kann in allen Bereichen eines Sprachsystems vorkommen, von der Lautung über die Formenlehre, Syntax, Semantik bis zum Wortschatz, sowie die Bereiche Sprachgebrauch und Sprachebene (Fachsprache, Alltagssprache, Slang und anderes). Sind sie durch regelmäßigen Gebrauch fester Bestandteil der entlehnenden Sprache geworden bzw. als neue Bedeutung eines Wortes oder als neue Satzkonstruktion üblich geworden, bezeichnet man die Ausdrücke als Fremdwort, Lehnwort oder Lehnprägung. Im Laufe des Generationenwechsels kann sich der Gebrauch von Anglizismen verändern. Insbesondere die Jugendsprache zeigt eine schnelle Fluktuation ihrer Ausdrücke, da sie ja davon lebt, eine Sprechweise zu pflegen, die als frisch und der Jugend vorbehalten empfunden wird. Der Begriff Anglizismus umfasst alle englischen Sprachvarietäten; Einflüsse speziell aus dem britischen Englisch werden auch "Britizismen" und solche aus dem amerikanischen Englisch "Amerikanismen" genannt. Da im Entlehnungsvorgang bisweilen kein volles Verständnis über den Gebrauch des entlehnten Wortes oder Redewendung im Englischen vorliegt, kommt es mitunter zu Scheinanglizismen, deren Bedeutung nicht direkt mit der der Ursprungssprache in Deckung zu bringen ist. Deutsche Anglizismen sind somit keine englischen Wörter im Deutschen, sondern führen nach dem Kopiervorgang in die Zielsprache ein neues Eigenleben als deutsche Wörter englischer Herkunft. Anglizismen in der deutschen Sprache. Erscheinungsformen. Im Deutschen treten Anglizismen am häufigsten auf der lexikalischen Ebene in Erscheinung. Man kann folgende Phänomene unterscheiden: Weitere Übernahmeerscheinungen sind auf anderen Sprachebenen zu verzeichnen: Anzahl und Häufigkeit. Sprachwissenschaftliche Untersuchungen der Universität Bamberg stellen anhand von Material aus der Zeitung Die Welt eine Zunahme von Anglizismen in der deutschen Sprache fest. So hat sich von 1994 bis 2004 die Verwendung von Anglizismen Entgegen der allgemeinen Annahme, dass es beim Sprachkontakt vorwiegend zur Übernahme von Substantiven komme, wurden im untersuchten Zeitraum insgesamt etwa gleich viele Wörter aus jeder dieser drei Wortarten vom Englischen ins Deutsche entlehnt, allerdings bleiben die Substantive durchschnittlich länger im Gebrauch erhalten. Die Anzahl der Anglizismen hat zugenommen; ebenso die Häufigkeit, mit der diese verwendet werden. Klassifiziert man die Anglizismen nach Bereichen, lässt sich feststellen, dass der Bereich „Wirtschaft“ am stärksten gewachsen ist, vor allem im Marketing und Vertrieb (siehe Geml/Lauer, 2008). Einzige Ausnahme bildet der Bereich „Wissenschaft und Technik“, in welchem eine Abnahme um den Faktor 1,6 zu verzeichnen ist. Insgesamt lässt sich festhalten, dass der Gebrauch von Anglizismen in zehn Jahren um den Faktor 1,7 zugenommen hat. Hingegen hat die Entlehnungshäufigkeit im Vergleich zum Zeitraum 1954–1964 abgenommen. Das heißt, es werden mehr Anglizismen verwendet, die Geschwindigkeit der Übernahme hat aber abgenommen. Der Grund hierfür könnte ein Sättigungsprozess sein. In einer weiteren Untersuchung wurde ein großes Textkorpus der Gegenwart (1995–2004) mit insgesamt 381191 Lemmata ausgewertet; darunter wurden 13301 = 3,5 % Anglizismen festgestellt. Das Textkorpus hat einen Umfang von rund 10,3 Millionen Token (= einzelne Wortformen), darunter 52647 = 0,5 % Anglizismen. Von den 13301 Anglizismen sind 12726 (95,68 %) (48190 Token = 91,53 %) Substantive, 307 (2,30 %) (1654 Token = 3,14 %) Adjektive, 255 (1,92 %) (2371 Token = 4,50 %) Verben und 13 (0,10 %) (432 Token = 0,82 %) Adverbien. Entwicklung der Anglizismen im Deutschen. Angaben dazu, wann welcher Anglizismus ins Deutsche gelangt ist, kann man vor allem aus Herkunftswörterbüchern (= etymologischen Wörterbüchern) gewinnen. Sie haben den Nachteil, dass sie nur einen Kernbestand des Wortschatzes enthalten, und zwar vor allem den Teil, der etymologisch besonders interessant ist. Es stellt sich also die Frage, ob der Trend der Entlehnungen, der in einem solchen Wörterbuch nachweisbar ist, auch für die Gesamtsprache repräsentativ ist. Dies muss man sich bewusst machen; mangels anderer Möglichkeiten bleibt aber nichts anderes übrig, wenn man sich eine Vorstellung von dem Verlauf der Entlehnungen machen will. Eine solche Untersuchung hat Körner am Beispiel von "Duden. Das Herkunftswörterbuch 2001" durchgeführt, indem sie alle Entlehnungen erfasste, für die nach Auskunft dieses Wörterbuchs festgestellt werden kann, in welchem Jahrhundert sie aus welcher Sprache ins Deutsche gelangt sind. Speziell für die aus dem Englischen stammenden Entlehnungen kam Körner zu folgendem Ergebnis: Das Wörterbuch enthält 16781 datierbare Stichwörter, darunter 5244 Entlehnungen (Lehnwörter und Fremdwörter). Unter den Entlehnungen sind 519 datierbare Anglizismen. Man sieht, dass diese Entlehnungen aus dem Englischen erst recht spät einsetzen und dann aber eine erhebliche Dynamik entwickeln. Im 20. Jahrhundert erreichen die Anglizismen 3,1 % des gesamten erhobenen Wortschatzes beziehungsweise 9,9 % der Entlehnungen. Statt die Übernahme von Anglizismen im Deutschen generell zu untersuchen, kann man sich auch auf ihre Ausbreitung in speziellen Bereichen, etwa in bestimmten Presseorganen, konzentrieren. So hat Müller-Hasemann die Zunahme der Anglizismen in der Zeitschrift DER SPIEGEL für die Zeit 1947–1979 und in den Quelle-Katalogen vom Sommer 1966 – Winter 1980/1981 erhoben. Eine ähnliche Untersuchung hat Gnatchuk am Beispiel der österreichischen "KLEINE ZEITUNG" durchgeführt und konnte wie schon Müller-Hasemann zeigen, dass auch in diesem Fall der Übernahmeprozess dem Piotrowski-Gesetz entspricht. Anpassung an deutsche Sprachgewohnheiten. Besonders schon vor längerer Zeit entlehnte Wörter haben eine Anpassung der Schreibweise erfahren, etwa "Keks" gegenüber älterem "Cakes". Bei vor allem über den schriftlichen Verkehr übernommenen Anglizismen kann sich die Aussprache bei gleichbleibendem Schriftbild nach deutschen Aussprachegewohnheiten richten; so wird "Jute" heute im Deutschen gewöhnlich [] ausgesprochen, während ältere Wörterbücher noch die Aussprache [] verzeichnen. Kritik und Kontroversen. Werden die englischen Einflüsse nicht allgemein akzeptiert, etwa weil sie auf einen Jargon oder die Jugendsprache beschränkt sind, spricht man von Neudeutsch oder abwertend von Denglisch. Eine repräsentative Umfrage über die Verständlichkeit von zwölf gebräuchlichen englischen Werbeslogans für deutsche Kunden ergab im Jahr 2003, dass einige der Slogans von weniger als 10 % der Befragten verstanden wurden. Acht der zwölf untersuchten Unternehmen hätten ihre Werbeslogans seitdem geändert. 2008 störten sich in einer Umfrage der Gesellschaft für deutsche Sprache 39 % der Befragten an Lehnwörtern aus dem Englischen. Die Ablehnung war in den Bevölkerungsgruppen am größten, die Englisch weder sprechen noch verstehen konnten (58 % Ablehnung bei der Gruppe der über 59-Jährigen, 46 % Ablehnung bei ostdeutschen Umfrageteilnehmern). Mitunter wird auch eine unzureichende Kenntnis der englischen Sprache für die Vermischung und den Ersatz bestehender Worte durch Scheinanglizismen verantwortlich gemacht. So sprechen einer Studie der GfK zufolge nur 2,1 Prozent der deutschen Arbeitnehmer verhandlungssicher Englisch. In der Gruppe der unter 30-Jährigen bewerten jedoch über 54 Prozent ihre Englischkenntnisse als gut bis exzellent. Für bessere Sprachkenntnisse könne demzufolge effizienterer Englischunterricht beitragen, und statt der Ton-Synchronisation von Filmen und Serien solle eine Untertitelung der englischsprachigen Originale mit deutschem Text erfolgen. Dies würde zugleich zu einer besseren Abgrenzung zwischen den Sprachen und einer Wahrung deutscher Sprachqualität beitragen. Im Dezember 2014 forderte der Europapolitiker Alexander Graf Lambsdorff, neben Deutsch die englische Sprache als Verwaltungs- und später als Amtssprache in Deutschland zuzulassen, um die Bedingungen für qualifizierte Zuwanderer zu verbessern, den Fachkräftemangel abzuwenden und Investitionen zu erleichtern. Einer repräsentativen YouGov-Umfrage zufolge würden es 59 Prozent der Deutschen begrüßen, wenn die englische Sprache in der gesamten Europäischen Union den Status einer Amtssprache erlangen würde. Ähnliche Kritik wie gegenüber den Anglizismen traf bereits ab Ende des 19. Jahrhunderts die aus dem Französischen, Lateinischen oder Griechischen stammenden Begriffe. Vereine wie der Allgemeine Deutsche Sprachverein versuchten im Rahmen des deutschen Sprachpurismus, diese Begriffe durch deutsche zu ersetzen. So sind französische, lateinische oder griechische Fremdwörter durch deutsche Wortschöpfungen ersetzt worden, z. B. "Fahrkarte" für "Billet", "Abteil" für "Coupé" und "Bahnsteig" für "Perron". Im Postwesen wurden auf Geheiß Bismarcks vom Generalpostmeister Heinrich von Stephan über 700 französischsprachige Begriffe durch deutsche Neuschöpfungen ersetzt. Zwar war die damalige Öffentlichkeit empört und man verhöhnte ihn als »Generalsprachmeister«, trotzdem sind Begriffe wie "eingeschrieben", "postlagernd" und "Empfangsschein" heute in den allgemeinen Sprachgebrauch übergegangen und ersetzen die Fremdwörter "rekommandiert", "poste restante" und "Rezepisse". Viele Unternehmen setzen Anglizismen in Stellenangeboten bzw. -beschreibungen ein. Kritiker vermuten, dass weniger attraktive Stellen dadurch aufgewertet werden sollen. Häufig verwendete Begriffe sind "Area-Manager" (weniger als der klassische Abteilungsleiter), Facility-Manager (Hausmeister), "Key Account Manager" (Betreuer wichtiger Kunden) oder "Case Manager" (ein Fallbearbeiter, siehe Fallmanagement). Um diese Entwicklung zu karikieren, wird gelegentlich der Euphemismus "WC-Manager" (Klomann/-frau) genannt. In Frankreich stoßen Lehnwörter und Anglizismen noch stärker auf Kritik und sollen auch durch gesetzgeberische Maßnahmen wie die Loi Toubon eingedämmt werden. Eine aktive Sprachpolitik, wie sie unter anderem in Frankreich und Island betrieben wird, um eine Anreicherung der Sprache mit Anglizismen zu unterbinden, findet in Deutschland seit Mitte des 20. Jahrhunderts nicht mehr statt. Der Sprachwissenschaftler Rudolf Hoberg sah 2013 keine Bedrohung durch Anglizismen. Die deutsche Sprache habe schon immer englische Ausdrücke aufgenommen: „Nach der letzten Duden-Ausgabe haben wir etwa 3,5 Prozent Anglizismen, aber 20 Prozent andere Fremdwörter, über die sich die Leute meistens gar nicht aufregen“. Ebenso lehnt er gesetzliche Regelungen wie Sprachquoten in Frankreich oder Verfassungsänderungen wie in Österreich ab, die keine Erfolge zeigten. Der Germanist Karl-Heinz Göttert nannte die Aufregung über Anglizismen „komisch“: „Sie machen weniger als zwei Prozent des deutschen Wörterschatzes aus. Da gab und gibt es ganz andere Fremdwortschwemmen. Das Englische selbst hat im Mittelalter ein Drittel aus dem Französischen entlehnt. Und die japanische Sprache hat aus dem Chinesischen 50 Prozent übernommen.“ Sie seien „ein Beweis dafür, dass Nehmersprachen kreativ und nicht knechtisch mit dem Einfluss der Gebersprachen umgehen.“ Er wandte sich gegen eine „Leitkultur“ und kritisierte den Sprachpurismus mit den Worten: „Schon Jakob Grimm hat sich deshalb gegen den ärgerlichen Purismus gewendet. Es wäre besser, der Verein Deutsche Sprache würde sich auf die Grimm'sche Tradition besinnen, statt einen Grimm-Preis für Verdienste beim Anglizismen-Kampf zu vergeben.“ Auch rechtsextreme Organisationen wie die NPD stören sich oft an Anglizismen und versuchen beispielsweise das nicht allgemein anerkannte Wort „Weltnetz“ statt „Internet“ zu etablieren. Anglizismen in anderen Sprachen. Auch ins Russische wurden viele Anglizismen übernommen, wie man der Untersuchung von Stuhlpfarrer entnehmen kann, in der er die Daten, die aus zwei Wörterbüchern für die Zeit von 1980 bis 2004 gewonnen wurden, präsentiert: Es wurden also für die Jahre 1980–2004 insgesamt 549 datierbare Übernahmen von Anglizismen ins Russische (Erstvorkommen) beobachtet. Wie schon im Falle der Entlehnungen ins Deutsche folgt auch dieser Prozess dem Piotrowski-Gesetz (Stuhlpfarrer, 104.). Kulturpolitische Diskussion. Die Entwicklung des Englischen zur lingua franca im 20. Jahrhundert beeinflusst die meisten Sprachen der Welt. Mitunter werden einzelne Wörter ersetzt oder bei Neuerscheinungen ohne eigene Übersetzung übernommen. Diese Entwicklung wird vor allem dann skeptisch betrachtet, wenn es genügend Synonyme in der Landessprache gibt. Kritiker merken auch an, es handle sich häufig (beispielsweise bei "Handy" im Deutschen) um Scheinanglizismen. In Frankreich gab es eine kulturpolitische Diskussion, die 1994 in ein „Gesetz betreffend den Gebrauch der französischen Sprache“ (Loi Toubon) führte.
120
23437
https://de.wikipedia.org/wiki?curid=120
Astronom
Ein Astronom (von "ástron" ‚Stern, Gestirn‘ und "nómos" ‚Gesetz‘) ist eine (meist akademisch gebildete) Person, die sich wissenschaftlich mit der Astronomie beschäftigt. Haupttätigkeit der Astronomen. Beschränkt man den Begriff Astronom auf jene Wissenschaftler, die sich hauptberuflich der Astronomie widmen, dann sind meist zwei der folgenden Tätigkeiten Gegenstand des Berufs: Der Beruf des Fachastronomen setzt im Regelfall ein Hochschulstudium der Astronomie oder verwandter Naturwissenschaften voraus, etwa ein Diplom der Physik oder Astronomie (nur in Österreich), manchmal auch Studienabschlüsse aus Mathematik, Geodäsie, Aeronautik und anderen. Das Verfassen einer Dissertation schließt sich in den meisten Fällen an, denn die abgeschlossene Promotion gilt oft als Einstellungsvoraussetzung. Gewandeltes Berufsbild. Das Berufsbild des Astronomen hat sich immer wieder gewandelt. In der Vergangenheit beobachteten modernere Astronomen überwiegend den Himmel mittels optischer Teleskope an Sternwarten. Heute arbeiten die meisten Astronomen an sehr spezialisierten Fragestellungen und überwiegend am Computer. Sie verwenden elektromagnetische Signale aus allen Wellenlängenbereichen, von der kurzwelligen Gammastrahlung bis zu den längsten Radiowellen. Viele Messdaten werden auch über das Internet verbreitet – insbesondere bei regelmäßigen internationalen Messkampagnen wie im IVS – beziehungsweise vom Netz übernommen. Daher arbeiten Astronomen heute kaum mehr am Fernrohr selbst, sondern nur einen vergleichsweise kurzen Teil ihrer Arbeitszeit in den Kontrollräumen der Sternwarten. Die dort gewonnenen Daten werden meist außerhalb der Nachtdienste ausgewertet und aufbereitet. Immer mehr gewinnt das so genannte „service mode observing“ (Beobachtung auf Abruf) an Bedeutung: es werden nur Beobachtungsziel und -art angegeben werden, während die Beobachtungen unabhängig oder automatisiert an den Teleskopen beziehungsweise von Erdsatelliten durchgeführt werden. Fach- und Amateurastronomen. Da viele Studenten des Faches später auf anderen Gebieten arbeiten, hängt es von ihrem Selbstverständnis ab, ob sie sich auch weiterhin als Astronom bezeichnen. Inwieweit wissenschaftlich tätige Amateurastronomen als Astronomen im eigentlichen Sinn zu nennen sind, ist ebenfalls offen. Besonders in früheren Jahrhunderten ist eine Trennung zwischen Fachastronom und Amateur wenig zweckmäßig, wie etwa das Beispiel von Wilhelm Olbers zeigt. Da die Astronomie nach wie vor eine Wissenschaft ist, die auch im professionellen Bereich von einzelnen und kleinen Forschungsgruppen geprägt ist, haben auch Amateure mit der entsprechenden Begabung und Ausrüstung die Möglichkeit, mitzuwirken. Amateure sind oft dort erfolgreich, wo eine kontinuierliche Beobachtung notwendig ist, aber wegen der Kosten durch Großteleskope kaum professionell machbar ist, etwa die Asteroiden- und Kometenüberwachung oder auf dem Gebiet veränderlicher Sterne sowie der Astrometrie. Dienstzeit. Die Zeiten des „astronomischen Schlafmangels“, über die auch berühmte Astronomen manchmal in ihren Briefen oder Berichten geklagt haben, sind größtenteils vorüber. Moderne Sternwarten sind meistens mit Technologien ausgerüstet, die ein gewisses Maß an Fernbedienung erlauben oder sogar international anbieten, wie z. B. einige Observatorien auf Hawaii oder ESO-Sternwarten wie in Chile. Da visuelle Messungen oder Kontrollen nun selten erforderlich sind und elektro-optische Sensoren grundsätzlich auch eine Funktionskontrolle über EDV oder über das Internet erlauben, werden durchgehend nächtliche Arbeitszeiten zunehmend seltener.
121
4130873
https://de.wikipedia.org/wiki?curid=121
Alan Turing
Alan Mathison Turing OBE, FRS [] (* 23. Juni 1912 in London; † 7. Juni 1954 in Wilmslow, Cheshire) war ein britischer Logiker, Mathematiker, Kryptoanalytiker und Informatiker. Er gilt heute als einer der einflussreichsten Theoretiker der frühen Computerentwicklung und Informatik. Turing schuf einen großen Teil der theoretischen Grundlagen für die moderne Informations- und Computertechnologie. Als richtungsweisend erwiesen sich auch seine Beiträge zur theoretischen Biologie. Das von ihm entwickelte Berechenbarkeitsmodell der Turingmaschine bildet eines der Fundamente der Theoretischen Informatik. Während des Zweiten Weltkrieges war er maßgeblich an der Entzifferung der mit der deutschen Rotor-Chiffriermaschine Enigma verschlüsselten deutschen Funksprüche beteiligt. Der Großteil seiner Arbeiten blieb auch nach Kriegsende unter Verschluss. Turing entwickelte 1953 eines der ersten Schachprogramme, dessen Berechnungen er mangels Hardware selbst vornahm. Nach ihm benannt sind der Turing Award, die bedeutendste Auszeichnung in der Informatik, sowie der Turing-Test zum Überprüfen des Vorhandenseins von künstlicher Intelligenz. Im März 1952 wurde Turing wegen seiner Homosexualität, die damals noch als Straftat verfolgt wurde, zur chemischen Kastration verurteilt. Turing erkrankte in Folge der Hormonbehandlung an einer Depression und starb etwa zwei Jahre später durch Suizid. Im Jahr 2009 sprach der britische Premierminister Gordon Brown eine offizielle Entschuldigung im Namen der Regierung für die „entsetzliche Behandlung“ Turings aus und würdigte dessen „außerordentliche Verdienste“ während des Krieges. Noch 2011 wurde eine Begnadigung trotz einer Petition abgelehnt. 2013, am Weihnachtsabend, sprach Königin Elisabeth II. postum ein „Royal Pardon“ (Königliche Begnadigung) aus. Leben und Wirken. Kindheit und Jugend. Alan Turings Vater, Julius Mathison Turing, war britischer Beamter beim Indian Civil Service. Er und seine Frau Ethel Sara Turing (geborene Stoney) wünschten, dass ihre Kinder in Großbritannien aufwüchsen. Deshalb kehrte die Familie vor Alans Geburt aus Chhatrapur, damals Britisch-Indien, nach London-Paddington zurück, wo Alan Turing am 23. Juni 1912 zur Welt kam. Da der Staatsdienst seines Vaters noch nicht beendet war, reiste dieser im Frühjahr 1913 erneut nach Indien, wohin ihm seine Frau im Herbst folgte. Turing und sein älterer Bruder John wurden nach St. Leonards-on-the-Sea, Hastings, in die Familie eines pensionierten Obersts und dessen Frau in Pflege gegeben. In der Folgezeit pendelten die Eltern zwischen England und Indien, bis sich Turings Mutter 1916 entschied, längere Zeit in England zu bleiben, und die Söhne wieder zu sich nahm. Schon in früher Kindheit zeigte sich die hohe Begabung und Intelligenz Turings. Es wird berichtet, dass er sich innerhalb von drei Wochen selbst das Lesen beibrachte und sich schon früh zu Zahlen und Rätseln hingezogen fühlte. Im Alter von sechs Jahren wurde Turing auf die private Tagesschule St. Michael’s in St. Leonards-on-the-Sea geschickt, wo die Schulleiterin frühzeitig seine Begabung bemerkte. 1926, im Alter von 14 Jahren, wechselte er auf die Sherborne School in Dorset. Sein erster Schultag dort fiel auf einen Generalstreik in England. Turing war jedoch so motiviert, dass er die 100 Kilometer von Southampton zur Schule allein auf dem Fahrrad zurücklegte und dabei nur einmal in der Nacht an einer Gaststätte Halt machte; so berichtete jedenfalls die Lokalpresse. Turings Drang zur Naturwissenschaft traf bei seinen Lehrern in Sherborne auf wenig Gegenliebe; sie setzten eher auf Geistes- als auf Naturwissenschaften. Trotzdem zeigte Turing auch weiterhin bemerkenswerte Fähigkeiten in den von ihm geliebten Bereichen. So löste er für sein Alter fortgeschrittene Aufgabenstellungen, ohne zuvor irgendwelche Kenntnisse der elementaren Infinitesimalrechnung erworben zu haben. Im Jahr 1928 stieß Turing auf die Arbeiten Albert Einsteins. Er verstand sie nicht nur, sondern entnahm einem Text selbständig Einsteins Bewegungsgesetz, obwohl dieses nicht explizit erwähnt wurde. Collegezeit und theoretische Arbeiten. Turings Widerstreben, für Geisteswissenschaften genauso hart wie für Naturwissenschaften zu arbeiten, hatte zur Folge, dass er einige Male durch die Prüfungen fiel. Weil dies seinen Notendurchschnitt verschlechterte, musste er 1931 auf ein College zweiter Wahl gehen, das King’s College, Cambridge, entgegen seinem Wunsch, am Trinity College zu studieren. Er studierte von 1931 bis 1934 unter Godfrey Harold Hardy (1877–1947), einem renommierten Mathematiker, der den Sadleirian Chair in Cambridge innehatte, das zu der Zeit ein Zentrum der mathematischen Forschung war. In seiner für diesen Zweig der Mathematik grundlegenden Arbeit "On Computable Numbers, with an Application to the „Entscheidungsproblem“" (28. Mai 1936) formulierte Turing die Ergebnisse Kurt Gödels von 1931 neu. Er ersetzte dabei Gödels universelle, arithmetisch-basierte formale Sprache durch einen einfachen gedanklichen Mechanismus, eine abstrakt-formale Zeichenketten verarbeitende mathematische Maschine, die heute unter dem Namen Turingmaschine bekannt ist. („Entscheidungsproblem“ verweist auf eines der 23 wichtigsten offenen Probleme der Mathematik des 20. Jahrhunderts, vorgestellt von David Hilbert 1900 auf dem 2. Internationalen Mathematiker-Kongress in Paris [„Hilbertsche Probleme“].) Turing bewies, dass solch ein Gerät in der Lage ist, „jedes vorstellbare mathematische Problem zu lösen, sofern dieses auch durch einen Algorithmus gelöst werden kann“. Turingmaschinen sind bis zum heutigen Tag einer der Schwerpunkte der Theoretischen Informatik, nämlich der Berechenbarkeitstheorie. Mit Hilfe der Turingmaschine gelang Turing der Beweis, dass es keine Lösung für das „Entscheidungsproblem“ gibt. Er zeigte, dass die Mathematik in gewissem Sinne unvollständig ist, weil es allgemein keine Möglichkeit gibt, festzustellen, ob eine beliebige, syntaktisch korrekt gebildete mathematische Aussage beweisbar oder widerlegbar ist. Dazu bewies er, dass das Halteproblem für Turingmaschinen nicht lösbar ist, d. h., dass es nicht möglich ist, algorithmisch zu entscheiden, ob eine Turingmaschine, angesetzt auf eine Eingabe (initiale Bandbelegung), jemals zum Stillstand kommen wird, das heißt die Berechnung terminiert. Turings Beweis wurde erst nach dem von Alonzo Church (1903–1995) mit Hilfe des Lambda-Kalküls geführten Beweis veröffentlicht; unabhängig davon ist Turings Arbeit beträchtlich einfacher und intuitiv zugänglich. Auch war der Begriff der „Universellen (Turing-) Maschine“ neu, einer Maschine, welche jede beliebige andere Turing-Maschine simulieren kann. Die Eingabe für diese Maschine ist also ein kodiertes Programm, das von der universellen Maschine interpretiert wird, und der Startwert, auf den es angewendet werden soll. Alle bis heute definierten Berechenbarkeitsbegriffe haben sich (bis auf die Abbildung von Worten auf Zahlen und umgekehrt) als äquivalent erwiesen. 1938 und 1939 verbrachte Turing zumeist an der Princeton University und studierte dort unter Alonzo Church. 1938 erwarb er den Doktorgrad in Princeton. Seine Doktorarbeit führte den Begriff der „Hypercomputation“ ein, bei der Turingmaschinen zu sogenannten Orakel-Maschinen erweitert werden. So wurde das Studium von nicht-deterministisch lösbaren Problemen ermöglicht. Karriere und Forschung. Nach seiner Rückkehr nach Cambridge im Jahr 1939 besuchte Turing Vorlesungen des österreichisch-britischen Philosophen Ludwig Wittgenstein (1889–1951) über die Grundlagen der Mathematik. Die Vorlesungen wurden Wort für Wort aus den Notizen der Studenten rekonstruiert, einschließlich Zwischenrufe von Turing und anderen Studenten. Die beiden diskutierten und stritten vehement: Turing verteidigte den mathematischen Formalismus, während Wittgenstein der Meinung war, dass Mathematik überbewertet sei und keine absolute Wahrheit zutage bringen könne. Kryptoanalyse. Während des Zweiten Weltkriegs war Turing einer der herausragenden Wissenschaftler bei den erfolgreichen Versuchen in Bletchley Park ("B.P."), verschlüsselte deutsche Funksprüche zu entziffern. Er steuerte einige mathematische Modelle bei, um sowohl die Enigma (siehe auch: Letchworth-Enigma) als auch die Lorenz-Schlüsselmaschine (siehe auch: "Turingery") zu brechen. Die Einblicke, die Turing bei der Kryptoanalyse der "Fish"-Verschlüsselungen gewann, halfen später bei der Entwicklung des ersten digitalen, programmierbaren elektronischen Röhrencomputers ENIAC. Konstruiert von Max Newman und seinem Team und gebaut in der "Post Office Research Station" in Dollis Hill von einem von Tommy Flowers angeführten Team im Jahr 1943, entzifferte Colossus die Lorenz-Maschine. Auch konzipierte Turing die nach ihm benannten "Bombes". Sie waren Nachfolgerinnen der von dem Polen Marian Rejewski entwickelten "Bomba" und dienten zur Ermittlung der Schlüssel von Enigma-Nachrichten. Dabei handelte es sich um ein elektromechanisches Gerät, das im Prinzip mehrere Enigma-Maschinen beinhaltete und so in der Lage war, viele mögliche Schlüsseleinstellungen der Enigma-Nachrichten durchzutesten und zu eliminieren, bis eine mögliche Lösung gefunden war ("Reductio ad absurdum"; ). Turings Mitwirkung als einer der wichtigsten Codeknacker bei der Entzifferung der Enigma war bis in die 1970er Jahre geheim; nicht einmal seine engsten Freunde wussten davon. Die Entzifferung geheimer deutscher Funksprüche war eine kriegsentscheidende Komponente für den Sieg der Alliierten im U-Boot-Krieg und im Afrikafeldzug. Arbeit an frühen Computern – Der Turing-Test. Von 1945 bis 1948 war Turing im "National Physical Laboratory" in Teddington tätig, wo er am Design der ACE ("Automatic Computing Engine") arbeitete. Der Name der Maschine ist abgeleitet von der Analytical Engine des Mathematikers Charles Babbage, dessen Werk Turing zeitlebens bewunderte. Ab 1948 lehrte Turing an der Universität Manchester und wurde im Jahr 1949 stellvertretender Direktor der Computerabteilung. Hier arbeitete er an der Software für einen der ersten echten Computer, den Manchester Mark I und gleichzeitig weiterhin verschiedenen theoretischen Arbeiten. In "Computing machinery and intelligence" ("Mind", Oktober 1950) griff Turing die Problematik der künstlichen Intelligenz auf und schlug den Turing-Test als Kriterium vor, ob eine Maschine dem Menschen vergleichbar denkfähig ist. Da der Denkvorgang nicht formalisierbar ist, betrachtet der Test nur die Antworten einer Maschine im Dialog mit einem Menschen, d. h. das kommunikative Verhalten der Maschine. Wenn dieses von einem menschlichen Verhalten nicht unterscheidbar erscheint, soll von maschineller Intelligenz gesprochen werden. Er beeinflusste durch die Veröffentlichung die Entwicklung der Künstlichen Intelligenz maßgeblich. 1952 schrieb er das Schachprogramm Turochamp. Da es keine Computer mit ausreichender Leistung gab, um es auszuführen, übernahm Turing dessen Funktion und berechnete jeden Zug selbst. Dies dauerte bis zu 30 Minuten pro Zug. Das einzige schriftlich dokumentierte Spiel verlor er gegen einen Kollegen. Arbeit an mathematischen Problemen der theoretischen Biologie. Von 1952 bis zu seinem Tod 1954 arbeitete Turing an mathematischen Problemen der theoretischen Biologie. Er veröffentlichte 1952 eine Arbeit zum Thema "The Chemical Basis of Morphogenesis". In diesem Artikel wurde erstmals ein Mechanismus beschrieben, wie Reaktions-Diffusions-Systeme spontan Strukturen entwickeln können. Dieser als Turing-Mechanismus bekannte Prozess steht noch heute im Mittelpunkt vieler chemisch-biologischer Strukturbildungstheorien. Turings weiteres Interesse galt dem Vorkommen der Fibonacci-Zahlen in der Struktur von Pflanzen. Spätere Arbeiten blieben bis zur Veröffentlichung seiner gesammelten Werke 1992 unveröffentlicht. Verfolgung wegen Homosexualität und Turings Tod. 1952 half der 19-jährige Arnold Murray, zu dem Turing eine gleichgeschlechtliche Beziehung hatte, einem Komplizen dabei, in Turings Haus einzubrechen. Turing meldete daraufhin einen Diebstahl bei der Polizei, die ihm als Folge der Ermittlungen eine sexuelle Beziehung zu Murray vorwarf. Da homosexuelle Handlungen zu dieser Zeit in England – wie in den meisten anderen Ländern – strafbar waren, wurde Turing wegen „grober Unzucht und sexueller Perversion“ angeklagt. Turing sah keinen Anlass, sich wegen dieser Vorwürfe zu rechtfertigen. Nach seiner Verurteilung zu einer Gefängnisstrafe wurde er vor die Wahl gestellt, die Haftstrafe anzutreten oder – da zu seiner Zeit Homosexualität von weiten Teilen der Psychiatrie als Krankheit angesehen wurde – sich behandeln zu lassen. Er entschied sich für die ärztliche Behandlung, zu der auch eine medikamentöse Behandlung mit dem Hormon Östrogen gehörte. Diesem wurde eine triebhemmende Wirkung zugeschrieben. Die Behandlung dauerte ein Jahr und führte zu Nebenwirkungen wie der Vergrößerung der Brustdrüse. Auch wenn er seine körperlichen Veränderungen mit Humor kommentierte, muss die Verweiblichung seiner Konturen den sportlichen Läufer und Tennisspieler schwer getroffen haben. Turing erkrankte an einer Depression. Im Herbst 1952 begann Turing seine Therapie bei dem aus Berlin stammenden und seit 1939 in Manchester lebenden Psychoanalytiker Franz Greenbaum. Dieser war ein Anhänger C.G. Jungs und war ihm von Freunden als für seinen Fall verständnisvoll empfohlen worden. Turing entwickelte auch ein freundschaftliches Verhältnis zur Familie Greenbaum, die er auch privat besuchte. 1954 starb Turing, wahrscheinlich entsprechend der offiziellen Feststellung durch Suizid, an einer Cyanidvergiftung, dem Anschein nach von einem vergifteten Apfel herrührend, den man halb aufgegessen neben ihm auffand. Die Ermittler versäumten es jedoch, den Apfel auf Gift untersuchen zu lassen. Es wird berichtet, dass Turing seit 1938, nachdem er den Film „Schneewittchen und die sieben Zwerge“ gesehen hatte, immer wieder die Verse "Dip the apple in the brew / Let the sleeping death seep through" (In der deutschen Version des Films: „Tauch den Apfel tief hinein / bis das Gift wird in ihm sein.“) sang. Der These, dass Turings Tod ein Unfall im Zusammenhang mit einem chemischen Versuch war, wird von Andrew Hodges, einem seiner Biographen, entschieden widersprochen. Unter seinen Biographen ist die Annahme verbreitet, die Auswirkungen der Hormonbehandlung seien die Hauptursache für den Suizid gewesen. Offizielle Entschuldigung, Danksagung und Rehabilitierung. Ab etwa den späten 2000er Jahren unternahmen britische Bürger eine Reihe von öffentlichkeitswirksamen Aktivitäten, um das von Turing erlittene Unrecht bekannt zu machen und seine formale Rehabilitierung zu erreichen, also einen Widerruf oder eine Aufhebung des damaligen Urteils. Dies führte im Jahr 2013 zum Erfolg. Im Jahr 2009 unterzeichneten rund 30.000 Briten eine bei der Regierung eingereichte Online-Petition, in der eine postume Entschuldigung von der britischen Regierung gefordert wurde. Der Initiator der Kampagne, der britische Programmierer John Graham-Cumming, regte an, Alan Turing eine Ritterwürde zu verleihen. Am 10. September 2009 veröffentlichte der damalige britische Premierminister Gordon Brown eine Erklärung, in der er im Namen der britischen Regierung die Verfolgung Turings bedauerte und seinen außerordentlichen Beitrag während des Zweiten Weltkriegs würdigte. Dabei spielte er auch auf den strategischen Vorteil der Alliierten durch die Entschlüsselung der „Enigma“ an und unterstrich deren Bedeutung: Da die Strafverfolgung seiner sexuellen Ausrichtung damals gesetzeskonform war, wurde eine nachträgliche Aufhebung der Verurteilung Turings zunächst von offizieller Seite als unmöglich dargestellt. Noch 2012 weigerte sich die Regierung von Browns Nachfolger David Cameron, 49.000 Homosexuelle, die nach dem "Criminal Law Amendment Act" von 1885 verurteilt worden waren, postum zu rehabilitieren. Im Jahr 2013 wurde bekannt, dass die britische Regierung nun doch die Absicht habe, Turing zu rehabilitieren. Das Oberhausmitglied John Sharkey, Baron Sharkey beantragte dies. Das konservative Mitglied des Oberhauses Tariq Ahmad, Baron Ahmad of Wimbledon kündigte die Zustimmung der Regierung an. Der Liberaldemokrat Sharkey hatte in den 1960er Jahren in Manchester Mathematik bei Turings einzigem Doktoranden Robin Gandy studiert. Eine dritte Lesung des Antrags beraumte die Regierung für Ende Oktober an. Am 24. Dezember 2013 wurde Alan Turing durch ein allein dem Monarchen zustehendes besonderes Gnadenrecht begnadigt, dem sogenannten "Royal Pardon". Justizminister Chris Grayling hatte diese Begnadigung bei Elisabeth II. beantragt. Turing gilt damit auch als offiziell rehabilitiert. Im April 2016 entschuldigte sich Robert Hannigan, der damalige Leiter des britischen Geheimdienstes GCHQ, für die Behandlung von Homosexuellen durch seine Institution und bezog dies ausdrücklich auf Alan Turing. Nachwirkungen der Rehabilitierung. Anfang 2015 verlangten Mitglieder der Familie Alan Turings unter weiterer, teils prominenter Unterstützung (Stephen Fry, Turing-Darsteller Benedict Cumberbatch) in einer Petition an das britische Parlament die Rehabilitierung auch aller anderen der in England unter den Homosexuellen-Gesetzen Verurteilten. Die Petition wurde von ca. 500.000 Personen unterschrieben und sollte von Turings Großneffen Nevil Hunt und der Großnichte Rachel Barns überreicht werden. Am 21. Oktober 2016 lehnte das britische Parlament einen Gesetzesentwurf ab, der eine Rehabilitierung in Form einer generellen Rehabilitierung aller lebenden, früher für Homosexualität verurteilten Personen vorsah. Dieser Gesetzesentwurf ging einigen zu weit, anderen nicht weit genug. Am 31. Januar 2017 wurde von Königin Elisabeth II. ein Gesetz in Kraft gesetzt, das aufbauend auf der Begnadigung von Turing allen Männern die Strafe aufhebt, falls zu dem Zeitpunkt beide über 16 Jahre alt waren, als sie den geahndeten Akt in gegenseitigem Einvernehmen vollzogen. Ausgenommen sind weiterhin Verurteilungen wegen homosexueller Handlungen in öffentlichen Toiletten. Das Gesetz schließt auch bereits verstorbene Personen ein. Ein noch lebender Betroffener kann beantragen, dass die Strafe aus seiner polizeilichen Führungsakte gestrichen wird, und Historiker können darauf hinweisen, dass eine Verurteilung verstorbener Personen nach geltendem Recht ungültig ist. Das Gesetz, das von Justizminister Sam Gyimah als „Turings Gesetz“ bezeichnet wurde, ist eine Ergänzung zum "Policing and Crime Act" und nimmt keinen Bezug auf andere Gesetze, unter denen homosexuelle Handlungen verfolgt werden konnten. Von Michael Cashman, einem der Initiatoren des Gesetzes, wurden jedoch weitere Vereinbarungen abgesichert, die einen entsprechend umfassenden Straferlass für alle homosexuellen Handlungen ermöglichen. Postume Ehrungen. Am 23. Juni 1998, der Turings 86. Geburtstag gewesen wäre, wurde eine Blaue Plakette ("English Heritage Blue Plaque") an seinem Geburtshaus in Warrington Crescent, London, enthüllt. Am 2. März 1999 wurde der Asteroid (10204) Turing nach ihm benannt. Eine Turing-Statue wurde am 23. Juni 2001 in Manchester enthüllt. Sie steht im Sackville Park, zwischen den wissenschaftlichen Gebäuden der Universität Manchester und dem bei Homosexuellen beliebten Viertel der Canal Street. An seinem 50. Todestag, dem 7. Juni 2004, wurde zum Gedenken an Turings frühzeitigen Tod eine Tafel an seinem früheren Haus „Hollymeade“ in Wilmslow enthüllt. Der Turing Award wird jährlich von der "Association for Computing Machinery" an Personen verliehen, die bedeutende Beiträge zur Informatik geleistet haben. Er wird weithin als „Nobelpreis“ der Informatik angesehen. Der "Bletchley Park Trust" hat am 19. Juni 2007 eine Statue Turings in Bletchley Park enthüllt. Die Skulptur wurde von Stephen Kettle gestaltet, der als Material für sein Kunstwerk walisischen Schiefer verwendete. Im „Turing-Jahr 2012“ fanden zu Alan Turings hundertstem Geburtstag weltweit Veranstaltungen zur Würdigung seiner Leistungen und zum Gedenken daran statt. Im Jahr 2014 wurde er in die "Hall of Honor" (Ehrenhalle) des US-Geheimdienstes NSA ("National Security Agency") aufgenommen. Am 15. Juli 2019 kündigte der Gouverneur der Bank of England, Mark Carney, eine 50-Pfund-Note mit Turings Bildnis für 2021 an. Am 25. März 2021 wurde sie erstmals herausgegeben. An diesem Tag hisste die Bank of England die Regenbogenfahne statt wie üblich die britische Nationalflagge. Die Banknote ist neben Turings Bild mit einem Zitat von ihm versehen: „This is only a foretaste of what is to come, and only the shadow of what is going to be.“ Das 2021 etablierte Programm der britischen Regierung zur Förderung des Auslandsstudiums, das nach dem Austritt des Vereinigten Königreichs aus der EU die Beteiligung am Erasmus-Programm ersetzen soll, ist nach Alan Turing benannt. Werke. Veröffentlichungen. Wichtige Veröffentlichungen Englische Ausgaben Deutsche Ausgabe und Übersetzungen Weblinks. Artikel
123
327859
https://de.wikipedia.org/wiki?curid=123
Archäologie
Die Archäologie ( und λόγος "lógos" ‚Lehre‘; wörtlich also „Lehre von den Altertümern“) ist eine Wissenschaft, die mit naturwissenschaftlichen und geisteswissenschaftlichen Methoden die kulturelle Entwicklung der Menschheit erforscht. Sie hat sich weltweit zu einem Verbund unterschiedlichster theoretischer und praktischer Fachrichtungen entwickelt. Die Archäologie befasst sich mit materiellen Hinterlassenschaften des Menschen, wie etwa Gebäuden, Werkzeugen und Kunstwerken. Sie umfasst einen Zeitraum von den ersten Steinwerkzeugen vor etwa 2,5 Millionen Jahren bis in die nähere Gegenwart. Aufgrund neuer Funde in Afrika, die etwa 3,3 Millionen Jahre alt sind, wird auch ein deutlich früherer Beginn der Werkzeugherstellung in Betracht gezogen. Materielle Hinterlassenschaften der jüngsten Geschichte (beispielsweise Konzentrationslager und Bunkerlinien aus dem Zweiten Weltkrieg) werden heute ebenfalls mit archäologischen Methoden ausgewertet, auch wenn dieser Ansatz einer „zeitgeschichtlichen“ Archäologie fachintern umstritten ist. Obwohl die Archäologie eine verhältnismäßig junge Wissenschaft ist, ist es kaum mehr möglich, alle Zeiträume zu überblicken, so dass sich verschiedene Fachrichtungen herausbildeten. Dabei können die Epochen regional unterschiedlich datiert sein, teilweise sind sie nicht überall dokumentierbar. Neben der Orientierung an Epochen (z. B. Mittelalterarchäologie) oder Regionen (z. B. Vorderasiatische Archäologie) gibt es auch die Spezialisierung auf bestimmte Themengebiete (z. B. Christliche Archäologie, Rechtsarchäologie, Industriearchäologie). Die Archäologie untersucht Quellen unterschiedlicher Art. In der Vor- und Frühgeschichte hat man es hauptsächlich mit materieller Kultur zu tun, in der Frühgeschichte wird auch auf Schriftquellen zurückgegriffen. Diese stehen für Archäologen im Gegensatz zu Wissenschaftlern anderer Teildisziplinen der Geschichtswissenschaft aber nicht im Mittelpunkt. Auch Erkenntnisse zur Klima- und Umweltgeschichte, zur Ernährung oder zur Datierung von Funden tragen zur Rekonstruktion vergangener Kulturen bei. Forschungsgeschichte. Anfänge der Altertumsforschung in Europa. In Europa entwickelte sich die Archäologie um 1450, weil man Zeugnisse für die in den Quellen der Antike geschilderten Ereignisse finden wollte. Cyriacus von Ancona (* um 1391; † um 1455), ein italienischer Kaufmann und Humanist, gilt als einer der Gründungsväter der modernen Klassischen Archäologie. Die in der Renaissance einsetzende Wiedergeburt klassisch-antiker Gelehrsamkeit führte im 15. und 16. Jahrhundert zu einem gesteigerten Interesse an griechischen und römischen Altertümern und zu einer Welle der Sammelleidenschaft bezüglich antiker Kunstgegenstände. Doch auch weniger reisefreudige Gelehrte begannen, sich für die vorhandenen Zeugnisse vergangener Zeiten zu interessieren. Ab Mitte des 16. Jahrhunderts trat an die Stelle der Sammelleidenschaft die akribische Erfassung der Denkmäler. In dieser Zeit wurden zahlreiche Enzyklopädien und Kataloge veröffentlicht, im späten 16. Jahrhundert vielfach mit Kupferstichen und Holzschnitten illustriert. In England veröffentlichte William Camden (1551–1632) im Jahre 1586 seine "Britannia", einen Katalog der sichtbaren Altertümer. Bemerkenswert ist, dass er bereits Bewuchsmerkmale in Kornfeldern bemerkte und als solche interpretierte. Michele Mercati (1541–1593) gilt als der erste europäische Gelehrte, der Steinwerkzeuge als solche einstufte; sein Werk wurde jedoch erst 1717 veröffentlicht. Trotz großer Popularität hatte die Archäologie als Wissenschaft noch keinen Stellenwert, denn es herrschte die Ansicht vor, dass ausschließlich historische Quellen und die Bibel zur Interpretation der Vergangenheit geeignet seien. So galt es noch lange als ein Faktum, dass – wie James Ussher aus der Bibel ableitete – die Menschheit im Oktober 4004 v. Chr. entstand. 1655 wagte es Isaac de La Peyrère, die sogenannten Donnerkeile (Steinzeitartefakte) Menschen zuzuordnen, die vor Adam lebten (Präadamiten-Hypothese). Nach einer Intervention der Inquisition widerrief er seine Theorie. In Skandinavien wurden Bodendenkmäler schon früh beachtet. Bereits 1588 grub man einen Dolmen bei Roskilde aus. Im Jahre 1662 erhielt Uppsala einen Lehrstuhl für Altertumskunde. 1685 wurde in Houlbec-Cocherel in Nordfrankreich eine neolithische Grabkammer ausgegraben. Sie gilt als die älteste archäologische Grabung, weil hier 1722 der erste erhaltene Grabungsbericht erstellt wurde. Der Kieler Professor Johann Daniel Major führte um 1690 umfangreiche Ausgrabungen in Jütland durch und ließ zahlreiche Hügelgräber öffnen. Sein Ziel war es, die Herkunft der Einwohner der Halbinsel mit archäologischen Methoden zu klären. Bernard de Montfaucons "L’Antiquité expliquée" erschien ab 1719. In zehn Bänden stellte er Kunstgegenstände aus dem Mittelmeerraum dar. Montfaucons Werk blieb für lange Zeit das Standardwerk. Mitte des 18. bis Mitte des 19. Jahrhunderts. Archäologische Forschungsmethoden setzten sich nun sukzessiv durch. Oftmals trafen einzelne Gelehrte schon früh bahnbrechende Schlussfolgerungen, die aber oft – da noch nicht zeitgemäß – unbeachtet blieben. Einer der Bahnbrecher war der französische Amateurarchäologe Jacques Boucher de Perthes, der als Erster prähistorische Artefakte richtig zuordnete, wofür ihm aber erst mehr als 20 Jahre später, durch die Bestätigung Charles Lyells (1797–1875), Anerkennung zuteilwurde. Eine wichtige Erkenntnis war die Entdeckung des stratigraphischen Prinzips. Bereits lange vorher war die Zusammengehörigkeit und somit Gleichaltrigkeit von Funden, die sich in einer Schicht befanden (beispielsweise ein Steinartefakt im Fundzusammenhang mit einer ausgestorbenen Tierart), immer wieder diskutiert, aber nicht allgemein akzeptiert worden. Ein Modell, das in seinen Grundzügen noch heute gilt, wurde 1836 von Christian Jürgensen Thomsen veröffentlicht. Er war Kurator in Kopenhagen und erfand das „Dreiperiodensystem“, das die Vorgeschichte der Menschheit in drei Phasen einteilt: die Steinzeit, die Bronzezeit und die Eisenzeit. Etwa 30 Jahre später, um 1865, unterschied J. Lubbock die Steinzeit noch in die des geschlagenen und die des geschliffenen Steins. Die Begriffe „Paläolithikum“ (Altsteinzeit) und „Neolithikum“ („Neusteinzeit“ / Jungsteinzeit) waren geboren. Die Epochen sind in sich vielfach untergliedert, aber die damals gefundene Unterteilung gilt – mit Einschränkungen – bis heute. Die ersten großen Ausgrabungen fanden in den antiken Städten Pompeji und Herculaneum statt. Beide waren laut einem Bericht des römischen Schriftstellers Plinius des Jüngeren am 24. August 79 nach Christus durch den Ausbruch des Vesuvs ausgelöscht worden. Pompeji wurde Ende des 16. Jahrhunderts beim Bau einer Wasserleitung wiederentdeckt. 1748 begannen die Grabungen. In Herculaneum wurde erstmals 1709 gegraben, 1738 ließ Karl III. von Neapel die Stadt gezielt ausgraben. 1768 konnte das Theater, die Basilika und die Villa dei Papiri freigelegt werden. Mit seinem "Sendschreiben von den Herculanischen Entdeckungen", der ersten archäologischen Publikation, begründete Johann Joachim Winckelmann 1762 die neue Wissenschaft der Archäologie und gilt seither als "Vater der (Klassischen) Archäologie". Winckelmann war auch der Erste, der eine Periodisierung und geschichtliche Einordnung der griechischen Kunst versuchte. Seine Entwicklungsstufen (alter Stil – hoher Stil – schöner Stil – Stil der Nachahmer – Verfall der Kunst) sind durch die enthaltene Wertung jedoch überholt. Für die Verbreitung seiner Forschung und deren Rezeption in der zeitgenössischen Literatur und Kunst war der Göttinger Professor Christian Gottlob Heyne entscheidend, der mit Winckelmann korrespondierte, seine Schriften rezensierte und bekanntmachte und in seinen Vorlesungen verwendete. 1802 wurde an der Christian-Albrechts-Universität zu Kiel der erste Lehrstuhl für klassische Archäologie eingerichtet. Die ägyptischen Baudenkmäler, allen voran die Pyramiden, waren bereits im Altertum beliebte Reiseziele (siehe Weltwunder). Im 17. Jahrhundert hatte sich die Erkenntnis durchgesetzt, dass es sich hierbei um Königsgräber handelt. Die Ägyptologie nahm mit Napoléon Bonapartes Ägypten-Feldzug 1798 ihren Anfang. In Begleitung des Heeres befanden sich auch Wissenschaftler. Von besonderer Bedeutung war der Fund des Steins von Rosetta, der 1822 Jean-François Champollion die Entzifferung der Hieroglyphen ermöglichte. Von besonderer Bedeutung für die ägyptische Archäologie ist Auguste Mariette (1821–1881), der ab 1858 als Direktor des ägyptischen Altertümerdienstes mehr als dreißig Fundstätten ausgrub. Seine Methoden waren brachial (beispielsweise Sprengladungen). Die Feststellung der Fundumstände und wissenschaftliche Auswertungen waren damals noch nicht festgelegt, aber er beendete die Ära der reinen Schatzsucher (so Giovanni Battista Belzoni, 1778–1823), die zuvor zahllose Funde nach Europa geschafft hatten. Mariette selbst hat seit 1850 rund 7000 Objekte nach Paris (Louvre) gebracht. Nun setzte er sich jedoch vehement dafür ein, dass Ägyptens Altertümer nicht mehr außer Landes verschleppt wurden. Zur Aufbewahrung der Funde gründete Mariette den Vorläufer des Ägyptischen Nationalmuseums in Kairo. Karl Richard Lepsius (1810–1884) erstellte zwischen 1842 und 1845 eine umfassende Aufnahme ägyptischer und nubischer Denkmäler. 1859 wurde das Ergebnis in den zwölf Bänden der "Denkmaeler aus Aegypten und Aethiopien" veröffentlicht, welche allein 894 Farbtafeln enthalten. Um die archäologische Erforschung Griechenlands machte sich um 1840 besonders Ludwig Ross verdient, der als erster systematische Ausgrabungen auf der Akropolis von Athen durchführte. Ab Mitte des 19. Jahrhunderts. Mitte des 19. Jahrhunderts entwickelte sich die Archäologie zunehmend zur Wissenschaft. Unterschieden sich die Ausgräber bisher nur unwesentlich von Schatzsuchern und Grabräubern, wurden nun die Grabungstechniken verfeinert, eine gute Dokumentation und exakte Einordnung der Funde wurden immer wichtiger. Erst ab 1859 wurde das hohe Alter der Menschheit allgemein anerkannt. Im selben Jahr erschien Darwins "Über die Entstehung der Arten". Der bereits 1856 entdeckte Fund des Neandertalers, der von Johann Carl Fuhlrott und Hermann Schaaffhausen vergeblich als eiszeitlich eingestuft wurde, konnte sich als solcher in Deutschland erst ab 1902 durchsetzen, als Rudolf Virchow starb, der als pathologische Autorität jede weiterführende Diskussion unterbunden hatte. In Schweden entwickelte Oscar Montelius (1843–1921) ein System der differenzierten Typologie zur Einordnung (Periodisierung) von Fundstücken und schafft die Grundlage einer relativen Chronologie. 1853/54 wurden aufgrund eines ungewöhnlich niedrigen Wasserstandes bei Obermeilen am Zürichsee hölzerne Pfeiler, Steinbeile und Keramik entdeckt. Die Siedlung wurde von Ferdinand Keller untersucht. Lange Zeit glaubt man, bei diesen Feuchtbodensiedlungen habe es sich um Pfahlbauten im Wasser gehandelt. Ab den 1920er Jahren entspann sich eine heftige Diskussion um die Lage der Pfahlbauten. Es konkurrierten Ufer- und Wasserpfahlbauten. Heute weiß man, dass es Land- und Wasserpfahlbauten gab. Die neuen Untersuchungen in Hornstaad am Bodensee belegen Pfahlbauten im Wasser, bis zu 5 Meter vom Seeboden abgehoben. Rekonstruktionen (beispielsweise in Unteruhldingen am Bodensee) zeigen nicht nur die verschiedenen Lösungsvorschläge der Archäologie, sondern auch den aktuellen Forschungsstand nach den Befunden der Unterwasserarchäologie (Pfahlbaumuseum Unteruhldingen). 1846 beginnen die Ausgrabungen in Hallstatt. Die archäologische Erforschung der Kelten begann 1858, als Oberst Schwab die ersten Ausgrabungen in La Tène am Neuenburgersee (Schweiz) durchführte. 1872 wurde die Eisenzeit Europas erstmals in eine ältere Phase (Hallstattzeit) und eine jüngere Phase (Latènezeit) unterteilt. Édouard Lartet (1801–1871) untersuchte 1860 eine Fundstätte in den Pyrenäen (Massat) und fand dabei auch eine Geweihspitze mit eingraviertem Bärenkopf, der erste Fund jungpaläolithischer Kunst. Später grub er mehrere französische Höhlenfundplätze (Gorge d’Enfer, Laugerie-Haute, La Madeleine und Le Moustier) aus. Besondere Aufmerksamkeit erlangten die großartigen Höhlenmalereien, die 1879 in der Höhle von Altamira entdeckt wurden. Die Entwicklung der Klassischen Archäologie in der zweiten Hälfte des 19. Jahrhunderts wurde von Heinrich Schliemann (1822–1890) dominiert. Der Geschäftsmann und „Hobbyarchäologe“ Schliemann gilt als Begründer der Vorgeschichtsarchäologie Griechenlands und des ägäischen Raumes. 1869 grub er auf Ithaka und 1871 begann er in Hissarlik zu graben. Dort vermutet er das Troja Homers und wird recht behalten, obwohl er sich in der Bauperiode selbst täuschte. Seine Ausgrabungsmethoden waren sehr umstritten, so mancher Fachmann hielt von Schliemanns Fähigkeiten nichts. Sein Ruhm stützt sich vor allem auf die wertvollen Funde (beispielsweise „Schatz des Priamos“). Seine Entdeckung prähistorischer (vorhomerischer) Kulturen und Siedlungen löste zahlreiche weitere Grabungen im ägäischen Raum aus. Lange unterschätzt wurden die durch ihn bewirkten methodischen Fortschritte, wie die Betonung der Stratigraphie oder der Einsatz der Fotografie als Mittel der archäologischen Dokumentation. 1892 erhielt der Gründer des Instituts für Ur- und Frühgeschichte an der Universität Wien, Moritz Hoernes, die erste das Gesamtgebiet der Prähistorischen Archäologie umfassende Lehrbefugnis Europas. 20. Jahrhundert. In Ägypten leistete ab 1880 Sir William Matthew Flinders Petrie (1853–1942) als Forscher und Ausgräber Pionierarbeit. Ein Meilenstein der archäologischen Forschung sind seine "Methoden und Ziele der Archäologie", die er 1904 veröffentlichte. Darin legte Flinders Petrie vier Prinzipien dar: 1913 erschien der erste Band des "Handbuchs der Archäologie", Herausgeber war Heinrich Bulle (1867–1945). Als vorbildliche Grabung dieser Zeit galt die 1922 begonnene Ausgrabung des Gräberfeldes von Assini (Argolis), die von schwedischen Archäologen vorgenommen wurde. Der gesamte Aushub wurde gesiebt und eine erstklassige Grabungsdokumentation erstellt. Der berühmteste archäologische Fund des 20. Jahrhunderts gelang Howard Carter (1873–1939) im selben Jahr. Er fand nach sechsjähriger Suche das Grab des Tut-anch-Amun. Pionier der Luftbildarchäologie war nach dem Ersten Weltkrieg der britische Pilot Osbert G. S. Crawford, er fotografierte vom Flugzeug aus archäologische Fundstätten in England. Gustaf Kossinna (1858–1931) stellte 1920 seine siedlungsarchäologischen Methoden vor. Seine Interpretationen, die den Germanen eine überragende kulturelle Bedeutung zuschrieben, dienten dem Nationalsozialismus als Beweis für die Überlegenheit der Germanen und der arischen Rasse. Die Diskreditierung in der Nachkriegszeit führte dazu, dass auf Jahrzehnte eine Anbindung archäologischer Funde an ethnische Gruppen obsolet war. Die erste ordentliche Professur wurde 1927 in Marburg geschaffen und im folgenden Jahr mit Gero Merhart von Bernegg aus Bregenz besetzt. Er hatte sich 1924 mit "Die Bronzezeit am Jenissei" habilitiert. Bei ihm promovierten bis zu seiner Zwangspensionierung durch die Nationalsozialisten im Jahr 1942 29 Studenten, nach dem Krieg kamen fünf weitere hinzu. Ab 1950 dominierte in Deutschland die "Marburger Schule", die diese Akademiker bildeten. Gero von Merhart, wie er meist genannt wird, legte das Fach auf strenge Erfassung, Systematisierung und Katalogisierung fest und mied weitgehend die kulturgeschichtliche Deutung. Thor Heyerdahl fuhr 1947 mit einem Floß von Südamerika nach Polynesien und wird als einer der Begründer der Experimentellen Archäologie betrachtet. Seit dem 20. Jahrhundert greift die Archäologie vermehrt auf naturwissenschaftliche Methoden zurück. Dazu gehören die 1949 entwickelte 14C-Datierung zur Datierung von organischen Stoffen und die Strontiumisotopenanalyse zur Erforschung der Wanderbewegungen der ur- und frühzeitlichen Menschen. Auch Methoden der Fernerkundung wurden immer stärker bei archäologischen Forschungen angewandt. Die Archäologie hat sich zur Verbundwissenschaft entwickelt. Die Erforschung der 1991 in den Ötztaler Alpen gefundenen vorgeschichtlichen Leiche (Similaun-Mann/Ötzi) ist hierfür beispielhaft. Mit Hilfe der DNA-Analyse konnten weltweit erstmals die Verwandtschaftsbeziehungen von 40 Individuen aus einer bronzezeitlichen Begräbnisstätte in der Lichtensteinhöhle rekonstruiert werden. Die New Archaeology der 1960er Jahre brachte die Forderung, Erkenntnisse aus Lebenswissenschaften in die Archäologie einzuführen. Das Konzept der Tragfähigkeit stammt aus der Ökologie und wurde angewandt, um Fragen von Bevölkerungsdichte und Siedlungsentwicklung zu untersuchen. Optimal Foraging konnte Reaktionen auf Klimaveränderungen gleichermaßen erklären, wie jahreszeitliche Wanderungen und Landnutzungsformen. Zudem wurden mathematische Simulationen und Modellbildungen und computergestützte Geoinformationssysteme als Methoden in die Archäologie eingebracht. Die New Archaeology war besonders im angelsächsischen Kulturraum stark entwickelt und konnte sich im deutschen Sprachraum nie durchsetzen. Als Grund gilt, dass in der angelsächsischen Tradition die Archäologie traditionell zur Anthropologie gehört, nicht zu den Geschichts- oder Kulturwissenschaften. Als Antwort auf die New Archaeology entstand in den 1980er Jahren die Postprozessuale Archäologie, die Methoden aus den Kultur- und Sozialwissenschaften stärker in den Vordergrund rückte. Ein Kernbegriff ist die aus der Soziologie stammende Agency, die Handlungsmotive und -optionen betrachtet. Berücksichtigt man zusätzlich die inhärente Subjektivität jeglicher Interpretation einer Kultur, von der nur die materiellen Artefakte erhalten sind, setzen postprozessuale Archäologen auf hermeneutische einerseits und selbstreflektierende Praktiken andererseits. Heutige Nachfahren der zu untersuchenden Kulturen werden gleichermaßen in die Arbeit der Archäologen einbezogen, wie bislang vernachlässigte soziale Perspektiven. 21. Jahrhundert. Zusammen mit anderen Gedächtnisinstitutionen sind archäologische Funde und Ausgrabungsstätten das besonders sensible kulturelle Gedächtnis und oft wirtschaftliche Grundlage (z. B. Tourismus) eines Staates, einer Kommune oder einer Region. Gerade archäologische Funde und Ausgrabungsstätten haben auch politische Brisanz und sind in vielen bewaffneten modernen Konflikten des 21. Jahrhunderts als Teil des kulturellen Erbes eines der Primärziele und damit von Zerstörung und Plünderung bedroht. Oft soll dabei das kulturelle Erbe des Gegners nachhaltig beschädigt oder gar vernichtet werden beziehungsweise werden dabei archäologische Funde gestohlen und verbracht. Internationale und nationale Koordinationen hinsichtlich militärischer und ziviler Strukturen zum Schutz von archäologische Funde und Ausgrabungsstätten betreibt das Internationale Komitee vom Blauen Schild (Association of the National Committees of the Blue Shield, ANCBS) mit Sitz in Den Haag. Umfangreiche Missionen dazu gab es zum Beispiel 2011 in Ägypten und in Libyen, 2013 in Syrien, 2014 in Mali bzw. im Irak und seit 2015 im Jemen. Fachgebiete. Archäologie ist ein Sammelbegriff vieler archäologischer Disziplinen, welche meist bestimmte Zeitabschnitte oder Regionen bezeichnen. Die einzelnen Disziplinen unterscheiden sich nicht nur im behandelten Forschungsgegenstand, sondern auch in den verwendeten Methoden, z. B. bei der Unterwasserarchäologie. Daneben bilden archäologische Methoden einen Teilaspekt einer eigenständigen Wissenschaft, beispielsweise in der Forensik. In Fächern wie der Altamerikanistik oder auch der Klassischen Archäologie können die inhaltlichen Schwerpunkte nicht-archäologischer Natur sein. Nach Epochen und Regionen. Die Disziplinen der Archäologie unterscheiden sich thematisch, zeitlich und räumlich. Dementsprechend unterschiedlich sind die Quellen derer sie sich bedienen. Während in der Prähistorischen Archäologie keine oder sehr spärlich schriftliche Quellen vorliegen und man sich vorwiegend auf die materiellen Hinterlassenschaften dieses Zeitabschnitts beruft, können andere archäologische Fachrichtungen zusätzlich Schriftquellen auswerten. Die nachfolgenden Disziplinen stellen geografische Schwerpunkte dar: Forschungsmethoden. Archäologische Forschungsmethoden gliedern sich in solche der Quellenerschließung und solche der Interpretation. In der Öffentlichkeit wird meist nur die Erschließung der Quellen zur Kenntnis genommen. Zur Quellenerschließung zählt auch die typologische und chronologische Auswertung. Erst nach der Quellenerschließung und Aufbereitung folgt die historische Interpretation. Quellenerschließung. Die Ausgrabung ist zwar die bekannteste Forschungsmethode, jedoch nur ein kleiner Teilbereich der archäologischen Arbeit. Die Dokumentation, Auswertung, Konservierung und Archivierung der Funde stellt den weitaus größten Teil der archäologischen Tätigkeit dar. Außerdem muss die Grabung sorgfältig vorbereitet werden. Prospektion und Voruntersuchungen. Die Prospektion umfasst zerstörungsfreie Methoden, mit deren Hilfe eine Untersuchung potenzieller oder bekannter Fundplätze ermöglicht wird. Dazu gehören die Geländebegehung (Survey), die Luftbildarchäologie und geophysikalische Methoden (Geoelektrik, elektromagnetische Induktion, geomagnetische Kartierung sowie Bodenradar und LIDAR). Ebenfalls prospektiv einsetzen lässt sich die Phosphatanalyse. Eingeleitet wird eine Ausgrabung durch archäologische Voruntersuchungen. Zum Einsatz kommen hier Suchgräben, magnetische Sondierung, Bodenwiderstandsmessung, Luftbilder und andere Methoden der Bodenforschung. Die Voruntersuchungen dienen dazu, sich ein Bild der potenziellen Grabungsstelle zu machen, um die eigentliche Grabung besser planen zu können. Ausgrabung. Die meisten Fundplätze werden heute durch Baumaßnahmen entdeckt. Über Notgrabungen, auch Rettungsgrabungen genannt, versucht die archäologische Denkmalpflege diese Befunde vor ihrer endgültigen Zerstörung auszuwerten. Seltener sind Forschungsgrabungen, bei denen unter primär wissenschaftlichen Interessen Fundplätze zur Grabung ausgewählt und ohne äußeren Zeitdruck untersucht werden können. Bei der Grabung werden verschiedene Grabungstechniken angewandt. Eine moderne Grabung ist befundorientiert, d. h. die Funde werden in ihrer räumlichen und zeitlichen Einbettung auf Befunde bezogen. Da jede Ausgrabung zur Zerstörung eines Befundes führt, soll eine exakte Dokumentation den Fundplatz, zumindest auf dem Papier, auch später bis ins Detail rekonstruierbar machen. Die wichtigsten Arbeitsmittel der Ausgrabung sind deshalb, neben der Kelle, „Papier und Buntstift“. Bauforschung. Die Bauforschung ist ein wesentlicher Teil sowohl der klassischen Archäologie als auch der Archäologie des Mittelalters; wohingegen sie in der Ur- und Frühgeschichte mangels aufgehend erhaltener Bauwerke nur eine untergeordnete Rolle spielt. Eine der Dokumentationsmethoden ist die Photogrammetrie. Auswertung. Gerade am sehr populären Beispiel der Gletschermumie Ötzi ist zu erkennen, dass die Ausgrabung nur einen Bruchteil der archäologischen Arbeit darstellt. Der 1991 entdeckte Fund wird bis heute wissenschaftlich untersucht. Typologie. Die Typologie ist die Klassifikation von Objekten nach Kriterien von Form und Material. Sie ist grundlegend für die Einordnung des Fundmaterials, da sie Vergleiche mit Fundsituationen an anderen Fundplätzen ermöglicht und zur Grundlage von Kombinationsanalysen (zur relativchronologischen Datierung wie zur sozioökonomischen Einordnung) und Verbreitungsanalysen wird. Materialbestimmungen. Wie bei der Prospektion und der Altersbestimmung werden auch für Materialbestimmungen moderne naturwissenschaftliche Techniken eingesetzt (siehe Archäometrie). Zur Identifikation und Detailuntersuchung von Artefakten dienen u. a. die Mikroskopie, Infrarot- und Ultraschallaufnahmen, Röntgen, chemische Analysen, Spektralanalysen und Laserscans. Altersbestimmung. Ein Schwerpunkt der Fundanalyse ist die Datierung der Befunde (z. B. Grab) anhand der Funde (z. B. Grabbeigabe). Bei der Altersbestimmung wird zwischen absoluter Chronologie und relativer Chronologie unterschieden. Die relative Chronologie setzt einen Fund dabei in Bezug zu einem anderen. Ist er jünger, älter oder gar gleichzeitig? J.J. Winckelmanns „vergleichendes Sehen“ ist eine der ersten Methoden zur relativen Chronologie. Bei der absoluten Chronologie wird einem Fund ein absolutes Datum (Jahr, Jahrhundert) zugeordnet Interpretation. Die Methoden der Interpretation sind in der Regel eher geisteswissenschaftlich. Für die "prähistorische" Archäologie ist der Analogieschluss die wesentliche Möglichkeit der Interpretation. In der "historischen" Archäologie (z. B. Klassische Archäologie oder Archäologie des Mittelalters) ist es der Vergleich mit Informationen aus anderen Quellen, wie schriftlicher oder bildlicher Überlieferung. Archäologie in Deutschland. In Deutschland gehört die archäologische Denkmalpflege (Bodendenkmalpflege) zu den Aufgaben der Bundesländer (Landesarchäologe), meist als eigener Fachbereich innerhalb des Denkmalamtes organisiert. Größere Städte haben oft eine eigene Stadtarchäologie. Die Mehrzahl der Grabungen wird heute im Rahmen denkmalpflegerischer Notgrabungen entweder von den betreffenden Ämtern selbst oder im Rahmen der Firmenarchäologie von beauftragten Spezialfirmen durchgeführt. Gezielte Forschungsgrabungen sind die Ausnahme, da unnötige Bodeneingriffe auch hier vermieden werden und eine Finanzierung nur über Drittmittel möglich ist. Mehrere Institutionen fördern Forscher und Projekte durch Archäologiepreise. Ein wichtiger Geldgeber für Forschungsgrabungen ist die Deutsche Forschungsgemeinschaft. Deutsche Grabungen im Ausland werden hingegen im Rahmen von Forschungsprojekten der Universitäten, des Deutschen Archäologischen Instituts oder des Römisch-Germanischen Zentralmuseums durchgeführt. Archäologie außerhalb Europas. Archäologie in Amerika. Die Archäologie gehört in Amerika zur Anthropologie (Völkerkunde) und hat aus diesem Grund eine völlig andere Ausrichtung als die europäische Forschung. Dies folgt vor allem aus dem Umstand, dass zum Zeitpunkt der Besiedlung der neuen Welt zuerst ethnographische Untersuchungen an noch existierenden Ureinwohnern stattfanden. Die eher spärlichen präkolumbischen Funde sind ein weiterer Grund für den in der Erforschung kultureller Prozesse liegenden Schwerpunkt amerikanischer Archäologie. Als Pionier der amerikanischen Archäologie gilt Thomas Jefferson (1743–1826), welcher ab 1784 einige Grabhügel untersuchte, um ihr Alter zu bestimmen. Jefferson setzte dabei erstmals eine Methode ein, die als Vorläufer der Dendrochronologie angesehen werden kann: er zählte die Jahresringe der auf den Grabhügeln stehenden Bäume. Die ersten großen Ausgrabungen in Mittelamerika wurden Ende des 19. Jahrhunderts im Mayazentrum Copán durchgeführt. 1911 entdeckte Hiram Bingham die Inkastadt Machu Picchu. Im Jahre 1990 fanden Archäologen in der Nähe von Mexiko-Stadt über 10.000 Artefakte aus der Zeit der spanischen Eroberung des Landes. Man fand nicht nur menschliche Knochen, sondern auch Waffen, Kleidung, Haushaltsgeräte und Gegenstände aus dem persönlichen Besitz von Hernán Cortés. Die Fundstelle Tecoaque (vorspanischer Name: Zultepec) wurde als UNESCO-Welterbe vorgeschlagen. Archäologie in Indien und China. 1863 wurde in Indien die Archaeological Survey of India gegründet. 1921/1922 entdeckte man eine der ältesten Hochkulturen der Menschheit, die Indus-Kultur. Ausgegraben wurden u. a. die Städte Harappa und Mohenjo-Daro. Archäologie in China begann mit dem schwedischen Geologen Johan Gunnar Andersson (1874–1960), der 1921 bei Yang Shao Tsun in Honan eine neolithische Wohnhöhle entdeckte (Yangshao-Kultur) und damit bewies, dass China in vorgeschichtlicher Zeit bewohnt war. 1928 wurde Anyang ausgegraben, die Hauptstadt der Shang-Dynastie des 2. Jahrtausends v. Chr. 1974 wurde die Terrakottaarmee rund um das Grab des chinesischen Kaisers Qin Shihuangdi bei Xi’an entdeckt. Archäologie in Afrika. Afrika ist nicht nur in paläoanthropologischer Hinsicht die Wiege der Menschheit, sondern auch die unserer Kultur. Nur in Afrika kommen Steingeräte vor, die 2,5 Millionen Jahre alt sind und deren Herstellung mit den ersten Homo-Arten unserer Spezies in Verbindung gebracht wird. Die betreffenden Werkzeuge – einfache Geröllgeräte vom Oldowan-Typ, später die Faustkeile, um die Leitformen zu nennen – kommen auch in anderen Teilen der Welt vor, nur sind sie dort deutlich jünger. In Europa datieren die ältesten Stellen auf eine Million Jahre. Neue, etwa 3,3 Millionen Jahre alte Funde in Lomekwi 3, Kenia, werden als Beleg für eine eigenständige archäologische Kultur interpretiert, vorschlagsweise "Lomekwian" genannt. Bereits seit dem 17. Jahrhundert ist der Nordosten Afrikas Gegenstand intensiver Forschungen durch die Ägyptologie und Koptologie. Diese Region des Kontinents ist auch im internationalen Vergleich hervorragend dokumentiert. Da jedoch die ältesten Schriftquellen im subsaharischen Afrika nicht weiter als 600 Jahre zurückreichen, kommt der Archäologie gerade hier eine besondere Bedeutung zu. Aufgrund der kurzen Forschungstradition im Vergleich zu Mitteleuropa steht man hier allerdings noch vielfach am Anfang. Aufbereitung für die Öffentlichkeit und Schutz. Die Vermittlung archäologischer Forschungsergebnisse erfolgt auf verschiedene Weise: Zunehmend wird international auch der Schutz der archäologischen Funde für die Öffentlichkeit im Hinblick auf Katastrophen, Kriege und bewaffnete Auseinandersetzungen durchgesetzt. Das geschieht einerseits durch internationale Abkommen und andererseits durch Organisationen die den Schutz überwachen beziehungsweise durchsetzen. Als weltweites Beispiel gilt Blue Shield International mit seinen Archäologen und lokalen Partnerorganisationen. Die Wichtigkeit der archäologischen Funde im Bezug auf Identität, Tourismus und nachhaltiges Wirtschaftswachstum werden immer wieder betont. So wurde auch vom Präsident von Blue Shield International, Karl von Habsburg, bei einem Kulturgutschutz-Einsatz im April 2019 im Libanon mit der United Nations Interim Force in Lebanon erläuterte: „Kulturgüter sind ein Teil der Identität der Menschen, die an einem bestimmten Ort leben. Zerstört man ihre Kultur, so zerstört man damit auch ihre Identität. Viele Menschen werden entwurzelt, haben oft keine Perspektiven mehr und flüchten in der Folge aus ihrer Heimat.“ Weblinks. Vereine und Organisationen
124
234005739
https://de.wikipedia.org/wiki?curid=124
American Standard Code for Information Interchange
Der (ASCII, alternativ US-ASCII, ausgesprochen [], ) ist eine 7-Bit-Zeichenkodierung; sie entspricht der US-Variante von ISO 646 und dient als Grundlage für spätere, auf mehr Bits basierende Kodierungen für Zeichensätze. Der ASCII-Code wurde zuerst am 17. Juni 1963 von der American Standards Association (ASA) als Standard ASA X3.4-1963 gebilligt und 1967/1968 wesentlich sowie zuletzt im Jahr 1986 (ANSI X3.4-1986) von ihren Nachfolgeinstitutionen aktualisiert und wird noch benutzt. Die Zeichenkodierung definiert 128 Zeichen, bestehend aus 33 nicht druckbaren sowie den folgenden 95 druckbaren Zeichen, beginnend mit dem Leerzeichen: codice_1codice_2codice_3codice_4codice_5codice_6codice_7codice_8codice_9codice_10codice_11codice_12codice_13codice_14codice_15codice_16 codice_17codice_18codice_19codice_20codice_21codice_22codice_23codice_24codice_25codice_26codice_27codice_28codice_29codice_30codice_31codice_32 codice_33codice_34codice_35codice_36codice_37codice_38codice_39codice_40codice_41codice_42codice_43codice_44codice_45codice_46codice_47codice_48 codice_49codice_50codice_51codice_52codice_53codice_54codice_55codice_56codice_57codice_58codice_59codice_60codice_61codice_62codice_63codice_64 codice_65codice_66codice_67codice_68codice_69codice_70codice_71codice_72codice_73codice_74codice_75codice_76codice_77codice_78codice_79codice_80 codice_81codice_82codice_83codice_84codice_85codice_86codice_87codice_88codice_89codice_90codice_91codice_92codice_93codice_94codice_95 Die druckbaren Zeichen umfassen das lateinische Alphabet in Groß- und Kleinschreibung, die zehn indisch-arabischen Ziffern sowie einige Interpunktionszeichen (Satzzeichen, Wortzeichen) und andere Sonderzeichen. Der Zeichenvorrat entspricht weitgehend dem einer Tastatur oder Schreibmaschine für die englische Sprache. In Computern und anderen elektronischen Geräten, die Text darstellen, wird dieser Code in der Regel gemäß ASCII oder abwärtskompatibel (ISO 8859, Unicode) dazu gespeichert. Die nicht druckbaren Steuerzeichen enthalten Ausgabezeichen wie Zeilenvorschub oder Tabulatorzeichen, Protokollzeichen wie Übertragungsende oder Bestätigung und Trennzeichen wie Datensatztrennzeichen. Kodierung. Jedem Zeichen wird ein Bitmuster aus 7 Bit zugeordnet. Da jedes Bit zwei Werte annehmen kann, gibt es 27 = 128 verschiedene Bitmuster, die auch als die ganzen Zahlen 0–127 (hexadezimal 00hex–7Fhex) interpretiert werden können. Das für ASCII nicht benutzte achte Bit kann für Fehlerkorrekturzwecke (Paritätsbit) auf den Kommunikationsleitungen oder für andere Steuerungsaufgaben verwendet werden. Es wird aber fast immer zur Erweiterung von ASCII auf einen 8-Bit-Code verwendet. Diese Erweiterungen sind mit dem ursprünglichen ASCII weitgehend kompatibel, so dass alle im ASCII definierten Zeichen auch in den verschiedenen Erweiterungen durch die gleichen Bitmuster kodiert werden. Die einfachsten Erweiterungen sind Kodierungen mit sprachspezifischen Zeichen, die nicht im lateinischen Grundalphabet enthalten sind, vgl. unten. Zusammensetzung. Die ersten 32 ASCII-Zeichencodes (von 00hex bis 1Fhex) sind für Steuerzeichen "(control character)" reserviert; siehe dort für die Erklärung der Abkürzungen in der rechts (oder oben) stehenden Tabelle. Diese Zeichen stellen keine Schriftzeichen dar, sondern dienen (oder dienten) zur Steuerung von solchen Geräten, die den ASCII verwenden (etwa Drucker). Steuerzeichen sind beispielsweise der Wagenrücklauf für den Zeilenumbruch oder "Bell" (die Glocke); ihre Definition ist historisch begründet. Code 20hex "(SP)" ist das Leerzeichen (engl. "space" oder "blank"), das in einem Text als Leer- und Trennzeichen zwischen Wörtern verwendet und auf der Tastatur durch die Leertaste erzeugt wird. Die Codes 21hex bis 7Ehex stehen für druckbare Zeichen, die Buchstaben, Ziffern und Interpunktionszeichen (Satzzeichen, Wortzeichen) umfassen. Die Buchstaben sind lediglich Klein- und Großbuchstaben des lateinischen Alphabets. In nicht-englischen Sprachen verwendete Buchstabenvarianten – beispielsweise die deutschen Umlaute – sind im ASCII-Zeichensatz nicht enthalten. Ebenso fehlen typografisch korrekte Gedankenstriche und Anführungszeichen, die Typografie beschränkt sich auf den Schreibmaschinensatz. Der Zweck war "Informationsaustausch", nicht Drucksatz. Code 7Fhex (alle sieben Bits auf eins gesetzt) ist ein Sonderzeichen, das auch als "Löschzeichen" bezeichnet wird "(DEL)". Dieser Code wurde früher wie ein Steuerzeichen verwendet, um auf Lochstreifen oder Lochkarten ein bereits gelochtes Zeichen nachträglich durch das Setzen aller Bits, das heißt durch Auslochen aller sieben Markierungen, löschen zu können. Dies war die einzige Möglichkeit zum Löschen, da einmal vorhandene Löcher nicht mehr rückgängig gemacht werden können. Bereiche ohne Löcher (also mit dem Code 00hex) fanden sich vor allem am Anfang und Ende eines Lochstreifens "(NUL)". Aus diesem Grund gehörten zum eigentlichen ASCII nur 126 Zeichen, denn den Bitmustern 0 (0000000) und 127 (1111111) entsprachen keine Zeichencodes. Der Code 0 wurde später in der Programmiersprache C als „Ende der Zeichenkette“ interpretiert; dem Zeichen 127 wurden verschiedene grafische Symbole zugeordnet. Geschichte. Fernschreiber. Eine frühe Form der Zeichenkodierung war der Morsecode. Er wurde mit der Einführung von Fernschreibern aus den Telegrafennetzen verdrängt und durch den Baudot-Code und Murray-Code ersetzt. Vom 5-Bit-Murray-Code zum 7-Bit-ASCII war es dann nur noch ein kleiner Schritt – auch ASCII wurde zuerst für bestimmte amerikanische Fernschreibermodelle, wie den Teletype ASR33, eingesetzt. Die erste Version, noch ohne Kleinbuchstaben und mit kleinen Abweichungen vom heutigen ASCII bei den Steuer- und Sonderzeichen, entstand im Jahr 1963. Im Jahr 1965 folgt die zweite Form des ASCII-Standards. Obwohl die Norm genehmigt wurde, wurde sie nie veröffentlicht und fand daher auch nie Anwendung. Der Grund dafür war, dass der ASA gemeldet wurde, dass die ISO (die International Standards Organization) einen Zeichensatz standardisieren würde, der ähnlich wie diese Norm war, aber leicht im Widerspruch zu dieser stünde. 1968 wurde dann die gültige Fassung des ASCII-Standards festgelegt. Computer. In den Anfängen des Computerzeitalters entwickelte sich ASCII zum Standard-Code für Schriftzeichen. Zum Beispiel wurden viele Terminals (VT100) und Drucker nur mit ASCII angesteuert. Für die Kodierung lateinischer Zeichen wird fast nur bei Großrechnern die zu ASCII inkompatible 8-Bit-Kodierung EBCDIC verwendet, die IBM parallel zu ASCII für sein System/360 entwickelte, damals ein ernsthafter Konkurrent. Die Handhabung des Alphabets ist in EBCDIC schwieriger, denn es ist dort auf zwei auseinander liegende Codebereiche verteilt. IBM selbst verwendete ASCII für interne Dokumente. ASCII wurde durch Präsident Lyndon B. Johnsons Anordnung 1968 gestützt, es in den Regierungsbüros zu verwenden. Verwendung für andere Sprachen. Mit dem Internationalen Alphabet 5 (IA5) wurde 1963 eine 7-Bit-Codierung auf Basis des ASCII als ISO 646 normiert. Die Referenzversion (ISO 646-IRV) entspricht dabei bis auf eine Position dem ASCII. Um Buchstaben und Sonderzeichen verschiedener Sprachen darstellen zu können (beispielsweise die deutschen Umlaute), wurden 12 Zeichenpositionen zur Umdefinition vorgesehen (<code>#$@[\]^` Eponyme. Der 1936 entdeckte Asteroid (3568) ASCII wurde 1988 nach der Zeichenkodierung benannt.
127
154724
https://de.wikipedia.org/wiki?curid=127
Albigenser
130
2458679
https://de.wikipedia.org/wiki?curid=130
Außenbandruptur des oberen Sprunggelenkes
Das Außenband des oberen Sprunggelenkes setzt sich zusammen aus drei Bändern (der „laterale Bandapparat“): "Ligamentum fibulotalare anterius" und "posterius" sowie "Ligamentum fibulocalcaneare". Beim Umknicken nach außen (Supinationstrauma) kommt es meist zur Zerrung oder zu einem Riss (Ruptur) des "Lig. fibulotalare anterius" oder/und des "Lig. calcaneofibulare", seltener ist die komplette Ruptur aller drei Bänder. Eine Ruptur von mindestens einem dieser drei Bänder nennt man auch eine fibulare Bandruptur. Das "Ligamentum fibulotalare anterius" reißt am ehesten dann, wenn der Fuß zugleich gestreckt (Plantarflexion) und verdreht (Inversion) ist. Ist der Fuß bei einer Verdrehung angewinkelt (Dorsalextension), bleibt dieses Band zumeist intakt. Bei Bänderrissen können die enormen Kräfte, die zugleich auf umliegende Weichteile und Knochen einwirken, zu Malleolarfrakturen oder zu knöchernen Bandausrissen (Abrissfrakturen) führen. Erste Hilfe. Als Erste-Hilfe-Maßnahme bei einem vermuteten Bänderriss wird das Gelenk ruhiggestellt, gekühlt, vorsichtig bandagiert und hochgelagert (PECH-Regel: „Pause, Eis, Compression, Hochlagerung“). Die PECH-Regel ist generell als geeignete Behandlungsmaßnahme akzeptiert, wenn auch die empirischen Belege für ihre Wirksamkeit unzureichend sind. Vermeintlich „leichte“ Verletzungen werden von dem Betroffenen ebenso wie vom behandelnden Arzt oft unterschätzt. Wenn sie nicht angemessen diagnostiziert und behandelt werden, kann es zu wiederholten Verletzungen oder auch zu chronischer Gelenkinstabilität kommen, woraus sich weitere Schäden ergeben können. Laut der Leitlinien der DGU, ÖGU und DGOOC wird geschätzt, dass nur etwa die Hälfte der Patienten mit akuter Außenbandverletzung ärztliche Hilfe in Anspruch nimmt und somit adäquat behandelt wird. Diagnostik. Bei der Diagnostik wird der Patient im Rahmen der Anamnese nach dem Hergang der Verletzung (Unfallmechanismus, Sturz, Höhe, mechanische Kraft und Bewegungsrichtung des Fußes), nach der bisherigen Behandlung und nach früheren Verletzungen befragt, das Fußgelenk nach Schwellungen und Hämatomen untersucht, das Gangbild beurteilt und eine Untersuchung durch Palpation sowie spezifische Funktions- und Schmerztests durchgeführt. Hinzu kommen Röntgenaufnahmen und gegebenenfalls der Einsatz weiterer bildgebender Verfahren. Schubladentest. Bei einer Verletzung der Außenbänder des oberen Sprunggelenks ist wegen der Wahl der richtigen Therapie vor allem die Frage wichtig, ob es sich um eine Bänderdehnung oder einen Bänderriss handelt. Geübten Untersuchern gelingt die Unterscheidung zwischen Bänderdehnung und Bänderriss in der Regel alleine mit dem Schubladentest, also ohne die Anfertigung von Röntgen-Bildern oder den Einsatz anderer gerätemedizinischer Untersuchungsmethoden: Für den vorderen Schubladentest liegt der Patient in Rückenlage. Der Untersucher umgreift mit einer Hand von unten die Ferse, mit der anderen Hand wird gefühlvoll von oben gegen das Schienbein gedrückt. Liegt lediglich eine Zerrung des vorderen Außenbandes vor, ist keine Schubladenbewegung möglich. Dagegen kann der Fuß bei einem Riss deutlich gegenüber dem Schien- und Wadenbein nach vorne (bei liegendem Patienten nach oben) aus dem Gelenk geschoben werden („Talus­vorschub“). Da sich die normale Schubladenbewegung im oberen Sprunggelenk im gesunden Zustand von Mensch zu Mensch stark unterscheidet, ist es wichtig, die Untersuchung zuvor am gesunden Sprunggelenk des anderen Beins durchzuführen. Auf diese Weise lässt sich herausfinden, welches Ausmaß der Schubladenbewegung beim betroffenen Menschen noch als nicht gerissen anzusehen ist. Die Stabilität der fibularen Seitenbänder wird auch durch die vertikalen Aufklappbarkeit getestet. Hierbei wird der Rückfuß gegen den fixierten Unterschenkel maximal nach innen gedrückt. Manche empfehlen, den Schubladentest beim Verdacht auf einen Außenbandriss nur innerhalb der ersten 48 Stunden nach der Verletzung durchzuführen, um nicht zu riskieren, dass sich im Falle eines Bänderrisses die frühen Verklebungen der Bänder wieder lösen. Sind mehr als 48 Stunden vergangen, solle man stattdessen von einem Riss ausgehen. Bildgebende Verfahren. Zusätzlich können bildgebende Verfahren wie Röntgen sinnvoll sein, um einen Bruch (Fraktur) der angrenzenden Knochen auszuschließen. In seltenen Fällen kann zudem eine Magnetresonanztomographie (MRT) sinnvoll sein; diese macht zugleich etwaige weitere Verletzungen (etwa Kapselrisse, Gelenkergüsse oder Knochenprellungen) sichtbar. Wie die Deutsche Gesellschaft für Ultraschall in der Medizin hervorhebt, kann ergänzend oder alternativ zur MRT die Sonografie eingesetzt werden, die es dem entsprechend qualifizierten Arzt erlaubt, Instabilitäten und Bänderrisse durch eine dynamische Untersuchung aufzuzeigen. Sehr in die Kritik geraten sind bei der Diagnosestellung die bis vor einiger Zeit üblichen sogenannten „gehaltenen Röntgen-Aufnahmen“. Dabei wird auf einem Röntgenbild festgehalten, wie weit sich das Gelenk mit einer fest definierten Kraft aufklappen lässt. Aus dem Aufklappwinkel, der im Röntgenbild eingezeichnet werden kann, wurde dann auf den Verletzungsgrad geschlossen. Der Grund für die Kritik ist, dass sich mit solchen gehaltenen Aufnahmen vor allem das mittlere Außenband überprüfen lässt, das allerdings nur sehr selten isoliert reißt, sondern fast immer nur in Kombination mit dem vorderen Außenband. Da für die Auswahl der Therapie vor allem die Frage wichtig ist, ob es sich um einen Riss oder eine Zerrung handelt, nicht aber ob ein oder zwei Bänder gerissen sind, reicht der Schubladentest, der das vordere Außenband überprüft, in den meisten Fällen als alleinige Untersuchung aus. Begleiterscheinungen. Durch die enormen Kräfte, die beim Bänderriss auf umliegende Weichteile und Knochen einwirken, kann es zugleich zu Malleolarfrakturen oder zu knöchernen Bandausrissen (Abrissfrakturen) kommen, was zu einem freien Gelenkkörper und mitunter zu einem knöchernen Impingement des Gelenks führen kann. Außerdem können Außenbandrupturen ein Weichteil-Impingement am oberen Sprunggelenk verursachen, mit einer Einklemmung weichteiliger Strukturen (entzündliche Gelenkinnenhaut, Kapselbandgewebe, Narbengewebe) im Gelenk. Diese befinden sich zumeist in den vorderen und seitlichen Abschnitten des oberen Sprunggelenkes. Stören solche weichteiligen oder knöchernen Einklemmungen, werden sie eventuell arthroskopisch oder minimalinvasiv entfernt. Zudem ist ein Inversionstrauma die häufigste Ursache für das Sinus-tarsi-Syndrom. Behandlung. Während noch vor einigen Jahren die Außenbandruptur regelhaft genäht wurde, ist heute bei gleich guten Behandlungsergebnissen die konservative Behandlung Standard. Denn da das Außenband in eine Gelenkkapsel eingebettet ist, kann es nach einer Ruptur auch ohne Operation zusammenwachsen. Nur bei kompletter Zerreißung aller drei Bänder und Operationswunsch (z. B. Profisportler) wird noch eine operative Behandlung empfohlen. Sowohl bei konservativer als auch bei operativer Therapie einer fibularen Bänderruptur fällt typischerweise eine mehrwöchige Arbeitsunfähigkeit an. Konservative Behandlung. Entzündliche, proliferative und remodellierende Phasen. Bei der Behandlung in konservativer Therapie unterscheidet man mehrere Phasen der Heilung, deren Dauer von Fall zu Fall verschieden sein kann und die sich außerdem überlappen können: eine erste, mehrere Tage währende entzündliche Phase (Phase I), eine etwa 5–28-tägige reparative oder proliferative Phase der Primärheilung (Phase II), die durch Angiogenese, proliferierende Fibroblasten und Kollagenproduktion gekennzeichnet ist, und eine vier- bis sechswöchige Umbau- bzw. remodellierende Phase (Phase III) in der die Kollagenfibrillen und Zellen der Bänder reifen. In Phasen I und II ist ein Schutz vor zu viel Belastung wichtig, um eine überschießende Produktion des Kollagens Typ III, und somit der Bildung eines elongierten weichen Bandes vorzubeugen; in der Phase III hingegen ist eine allmähliche Zunahme der Belastung nötig, um die Bänder „auszuhärten“. Physiologische Belastungsreize während der Heilung eines Bänderrisses führen zu einer besseren Organisation des heilenden Gewebes und geringerer Narbenbildung. Bei der konservativen Therapie ist das Anlegen einer Orthese über mindestens fünf Wochen Standard. Ist die Schwellung zu stark, um eine Orthese anlegen zu können, wird der Fuß zunächst kurzzeitig (zum Beispiel zwei bis vier Tage) ruhiggestellt bis die Schwellung etwas abgeklungen ist, beispielsweise mittels gespaltenem Unterschenkelgips, Entlastung an Unterarmgehstützen und medikamentöser Thromboembolieprophylaxe. Während der ersten circa sechs Wochen finden Umbauvorgänge statt, die sich den ersten mechanischen Belastungen anpassen. Es ist auch erprobt worden, Bänderverletzungen ergänzend innerhalb der ersten 48 Stunden nach der Verletzung mit Hyaluronsäure-Spritzen zu behandeln; allerdings ist die empirische Datenlage zu dieser Methode noch gering (Stand: 2011). Liegt am Gelenk keine Schwellung (mehr) vor, wird normalerweise eine Orthese (z. B. Aircast-Schiene) eingesetzt. Sie stellt sicher, dass die gerissenen Bänder nicht belastet werden können und dass das Gelenk dennoch bewegt werden kann. Eine geeignete Orthese stabilisiert sowohl die Auswärtsdrehung (Supination) des Rückfußes als auch den Talusvorschub. Manche Orthesen verhindern nicht nur die Supination, sondern auch die Plantarflexion, was für die Anfangsphase als wichtig für die Heilung angesehen wird. Bei anderen wird die Beweglichkeit des Gelenks in horizontaler Richtung („rauf/runter“ = Flexion/Extension) kaum eingeschränkt, sodass zum Beispiel Spazieren oder Radfahren möglich sind. Sportmediziner raten dazu, spätestens 1–2 Tage nach dem Trauma (oder nach einer Operation) eine konsequente Schienung einzusetzen. Die Orthese wird zum Zweck der Stabilisierung Tag und Nacht getragen, da nachts der Muskeltonus nachlässt und der Fuß daher in eine ungünstige Haltung sacken könnte. Durch die nachlassende Spannung in der Nacht entstünde vor allem ein Zug auf das "Ligamentum fibulotalare anterius" und das "Ligamentum fibulocalcaneare". Die Bänder wachsen durch das Tragen der Orthese eher belastungsgerecht zusammen, Probleme mit einem versteiften Gelenk, die bei kompletter Fixierung zu erwarten wären, werden vermieden. Als besonders günstig haben sich hierbei sogenannte modulare Orthesen erwiesen, die eine Anpassung der Bewegungsfähigkeit mit Orthese an den Heilungsverlauf ermöglichen. Ab der remodellierenden Phase kann der weitere Umbau von Bändern Monate bis Jahre dauern. Medikamente und Physiotherapie. In der Therapie des akuten Gelenktraumas können nicht-steroidale Entzündungshemmer (NSAR) eingesetzt und eine frühe Mobilisation des Gelenkes durchgeführt werden. Wie ein systematischer Review von 2008 zeigte, hat der Einsatz von NSAR, Beinwell-Salbe und manueller Therapie in einer frühen Phase nach der Verletzung zumindest kurzzeitig signifikant positive Auswirkungen auf die Funktionalität des Gelenkes. In Kombination mit anderen Therapien wie Krankengymnastik hat die manuelle Therapie auch längerfristig positive Auswirkungen auf die Heilung. Andererseits ist bekannt, dass NSAR auch Enzyme blockieren, die zur Heilung notwendig sind, und dass Patienten, deren Schmerzen unterdrückt werden, ihr Gelenk möglicherweise zu früh belasten. Krankengymnastik und manuelle Therapie sollen Schmerzen und Schwellungen verringern und die Funktion des Gelenkes wiederherstellen. Um einer chronischen Instabilität vorzubeugen, wird das Gelenk in der Akutphase mit Hilfe einer Schiene ruhiggestellt und später, in der Rehabilitationsphase, physiotherapeutisch beübt (Mobilisation des Gelenks, Balanceübungen). Ergänzend kann die Kryotherapie eingesetzt werden. Bei der Außenbandruptur ist die physikalische Therapie ein Teil der konservativen Therapie. Wie bei anderen Bänderrissen auch geht es dabei u. a. um die Resorption eventueller Ödeme, die Verbesserung der Durchblutung, die Lösung von Verklebungen und den Erhalt der Beweglichkeit unter Beachtung ärztlicher Vorgaben. Hinzu kommen angepasste Übungen der Muskulatur und ggf. die Anleitung zur Verwendung von Gehstützen oder anderer Hilfsmittel. Die Leitlinien der DGU, ÖGU und DGOOC sehen für die Behandlung der Außenbandruptur nach einer initialen Phase mit Hochlagerung, Kryotherapie und elastischer Wickelung isometrische Übungen in der Orthese vor. Im Verlauf der Behandlung wird häufig die manuelle Therapie eingesetzt, um die Beweglichkeit des Gelenkes zu verbessern. Die Leitlinien sprechen von limitierten, kurzzeitigen positiven Effekten der manuellen Therapie; andere Studien zeigen auf, dass eine Lymphdrainage und manuelle Therapie zu einer verringerten Schwellung und größeren Beweglichkeit des Gelenkes führen kann, die die Propriozeption verbessern und das Risiko einer Versteifung des Gelenkes verringern. Dehnungsübungen der Achillessehne werden eingesetzt, da diese sich andernfalls infolge der Verletzung verkürzen kann. Nach Abnahme der Orthese sind laut der Leitlinien Koordinationsschulung, Muskelkräftigung (Peroneusgruppe) und Eigenreflexschulung vorgesehen. Mit sensomotorischem Balancetraining, das der Patient unter Anleitung oder selbständig durchführen kann, sollen erneute Verletzungen und dadurch wiederkehrende Bänderinstabilitäten vermieden werden. Allerdings liegen zum propriozeptiven Training widersprüchliche Ergebnisse vor. Die Wirksamkeit zusätzlicher Ultraschall-, Laser- und Kurzwellentherapie ist für die Behandlung der Außenbandruptur nicht nachgewiesen. Ein Review von 2014 kam zum Schluss, dass die manuelle Therapie und Gelenkmobilisierung sowohl bei akuten als auch bei subakuten oder chronischen Symptomen den Schmerz verringert und die Beweglichkeit verbessert. Operative Therapie. Die operative Therapie der Außenbandruptur, so die Leitlinien der DGU, ÖGU und DGOOC, „liefert bei gleicher frühfunktioneller Nachbehandlung eine der nichtoperativen Behandlung vergleichbare bis höhere Kapselbandstabilität bei einer nichtsignifikanten Tendenz zu höherer Steifigkeit und längerer Arbeitsunfähigkeit […] sowie einem leicht erhöhten Risiko für die Entwicklung einer posttraumatischen Arthrose“. Bis in die späten 1980er wurde fast jeder akute Bänderriss am oberen Sprunggelenk operiert. Heute werden Bandrupturen am oberen Sprunggelenk meistens zunächst konservativ behandelt und eine Operation wird erst erwogen, wenn die konservative Therapie nach sechs oder mehr Monaten nicht wirksam ist. Eine verbleibende chronische Instabilität kann mit Hilfe einer Außenbandplastik behoben werden. Bei Personen, bei denen im Alltag eine hohe Last auf das verletzte Gelenk einwirkt, vor allem bei Spitzensportlern, werden Bänderrisse auch direkt operiert. Auch im Falle eines knöchernen Bandausrisses kann eine Operation indiziert sein. Wird direkt operiert, können innerhalb der ersten 14 Tage nach der Verletzung die Teile des gerissenen Bandes aneinandergelegt und operativ vernäht werden. Später ist dies nicht mehr möglich, da diese schon teilweise abgebaut worden sind. Eine allzu frühe Operation kann allerdings eine arthrofibrotische Reaktion in der Gelenkkapsel auslösen. Nach einer operativen Bandrekonstruktion ist eine Prophylaxe der Schwellung in den ersten Tagen nach der Operation, u. a. durch intermittierende Kühlung und den Einsatz von NSAR sowie durch konsequente Hochlagerung des Fußes, entscheidend. Im Folgenden können Warm-Kalt-Wechselduschen des Fußes und manuelle Therapie eingesetzt werden. Es kommt eine funktionelle Stufentherapie zum Einsatz, mit einer anfänglichen sechswöchigen Schienung, welche die Flexo-Extension des oberen Sprunggelenks begrenzt, sowie mit vorsichtigen frühfunktionellen, sensomotorischen Übungen ab dem Ende der zweiten Woche. Eingeschränkte Fahrtauglichkeit während der Heilung. Ist der Fuß noch nicht dauerhaft belastbar oder ist eine Orthese nötig, kann die Fahrtauglichkeit eingeschränkt sein (Fahruntüchtigkeit). Komplikationen. Bei adäquater Behandlung, sei es konservativ oder durch Operation, heilt die Außenbandruptur in den meisten Fällen vollständig aus. Bei einem kleineren Teil der Behandelten bleiben jedoch chronische Symptome zurück. Laut einem Review von 1997 bleiben bei 10–30 % der Behandelten eine chronische Synovitis oder Tendinitis, Gelenksteife, Schwellung (bzw. Schwellneigung), Schmerz, Muskelschwäche oder Gelenkinstabilität zurück. Laut einem Review von 2018 hatten nach 1–4 Jahren 5 %–46 % der Behandelten noch Schmerzen, 3 %–34 % rezidivierende Umknickverletzungen und 33 %–55 % eine Gelenkinstabilität; 25 % berichteten über ein vorderes Impingement. Wird ein Bänderriss in der Frühphase der Heilung nicht angemessen behandelt, etwa indem neu gebildetes Wundgewebe durch Retraumatisierung zerstört wird, verlängert sich die Entzündungsphase. Auch andere Faktoren wie ein hohes Alter, Durchblutungsstörungen oder Diabetes können die Heilung verzögern. Werden Verletzungen nicht ausreichend ausgeheilt, kann es zu wiederholten Verletzungen oder auch zu chronischer Gelenkinstabilität kommen, woraus sich weitere Schäden ergeben können. Des Weiteren deuten Studien darauf hin, dass Gelenkinstabilität mit einer verringerten Lebensqualität und einer verringerten körperlichen Aktivität der Betroffenen einhergehen kann. Wachsen die Bänder unzureichend zusammen, kann es zur Abnutzung des Knorpels und somit zu einer Arthrose kommen. (Siehe auch: Posttraumatische Arthrose.) Durch Umknickverletzungen und Bänderrisse kann es durch posttraumatische Synovitis und durch Einklemmung von Narbengewebe zu einem Weichteil-Impingement am oberen Sprunggelenk und dadurch zu einer mit Schmerzen verbundenen Beschränkung des Bewegungsmaßes dieses Gelenks (Sprunggelenk-Impingement) kommen. Dies kann eine Indikation für einen operativen Eingriff darstellen, etwa durch eine Abtragung des einklemmenden Gewebes mittels Arthroskopie.
132
2234691
https://de.wikipedia.org/wiki?curid=132
Alphabet
Ein Alphabet (frühneuhochdeutsch von kirchenlateinisch "", von "alphábētos") ist die Gesamtheit der kleinsten Schriftzeichen bzw. Buchstaben einer Sprache oder mehrerer Sprachen in einer festgelegten Reihenfolge. Die Buchstaben können über orthographische Regeln zu Wörtern verknüpft werden und damit die Sprache schriftlich darstellen. Die im Alphabet festgelegte Reihenfolge der Buchstaben erlaubt die alphabetische Sortierung von Wörtern und Namen beispielsweise in Wörterbüchern. Nach einigen Definitionen ist mit "Alphabet" nicht der Buchstabenbestand in seiner festgelegten Reihenfolge gemeint, sondern die Reihenfolge selbst. Die Bezeichnung "Alphabet" geht auf die ersten beiden Buchstaben des griechischen Alphabets zurück (Alpha – α, Beta – β). Ausgehend von den ersten drei Buchstaben des deutschen Alphabets (bzw. des lateinischen Alphabets) sagt man auch Abc. Alphabetschriften gehören wie Silbenschriften zu den phonographischen Schriften und stehen damit im Gegensatz zu piktografischen oder logografischen Systemen, bei denen die Zeichen für Begriffe stehen (z. B. "Rind, Sonnenaufgang, Freundschaft"). Im Unterschied zu Silbenschriften bezeichnen alphabetische Buchstaben in der Regel jeweils nur "einen" Laut (Phonem). Damit wird die fürs Sprechenlernen schon erbrachte und unerlässliche Abstraktionsleistung hochgradig ins Schreiben hinübergerettet und das Erlernen völlig neuer Symbole für die Objekte des Alltags eingespart. Eine Zwischenform aus Alphabetschrift und Silbenschrift stellen die sogenannten Abugidas dar, zu denen die indischen Schriften gehören. Das Alphabet dient auch dem Erlernen des Lesens und des Schreibens; eine Merkhilfe dazu waren die Buchstabentafeln. Jemand, der lesen kann, wird fachsprachlich ebenfalls als "Alphabet" bezeichnet, das Gegenteil ist der Analphabet. Ein wichtiges Ziel von Kulturpolitik ist die Alphabetisierung der jeweiligen Bevölkerung – also die Beherrschung des Lesens und des Schreibens durch alle. Deutsches Alphabet. Das deutsche Alphabet ist eine Variante des lateinischen Alphabets. Von diesem stammen die 26 Buchstaben A bis Z; hinzu kommen noch die Umlaute (Ä/ä, Ö/ö, Ü/ü) sowie das Eszett (ẞ/ß). Funktionsweise. Die Buchstaben eines Alphabetes sind schriftliche Symbole für die kleinsten "bedeutungsunterscheidenden" lautlichen Einheiten der Sprache, die Phoneme; zum Beispiel unterscheiden und in und die Bedeutung der Wörter (siehe auch Minimalpaar und Allophon). In einem "idealen Alphabet" entspricht jeder Buchstabe einem Phonem und umgekehrt. In der Praxis finden sich aber immer Abweichungen: Darüber hinaus geht die einmal festgelegte Korrespondenz von Phonem und Graphem auch durch den Sprachwandel verloren (vergleiche englisch und gegenüber lateinisch ). Fehlen in einem Schriftsystem Zeichen für Phoneme, können sprachliche (inhaltliche) Unterschiede eventuell nicht schriftlich wiedergegeben werden. So bestanden einige Alphabete ursprünglich nur aus Konsonanten (Konsonantenschrift). Später wurden sie mit Zeichen für Vokale ergänzt, die als kleine Zusätze (z. B. Punkte, Striche) zu den Konsonanten gesetzt werden konnten (z. B. arabisches und hebräisches Alphabet). Sind hingegen in einem Schriftsystem Zeichen für Phoneme im Übermaß vorhanden, können semantische (inhaltliche) Unterschiede selbst bei gleicher Lautung schriftlich ausgedrückt werden. Zum Beispiel im Deutschen und . Die Schriftsysteme für die meisten europäischen Sprachen nutzen Varianten des lateinischen Alphabets. Dabei wurden den Zeichen für lateinische Laute ähnliche Laute der jeweiligen Sprache zugeordnet. Dieselben Zeichen standen in den verschiedenen Sprachen für teilweise unterschiedliche Laute. Zudem ist es im Zuge der Sprachentwicklung zu weiteren Veränderungen der Aussprache gekommen (vgl. im Deutschen und Englischen). Da die Zahl und Art der Phoneme in den verschiedenen Sprachen unterschiedlich ist, genügte der Zeichenvorrat des lateinischen Alphabetes oft nicht. Deshalb wurden zur Darstellung der betreffenden Phoneme Buchstabenkombinationen (z. B. , , ) und diakritische Zeichen eingeführt (z. B. auf , ). Daneben wurden Varianten der ursprünglichen lateinischen Zeichen ( → , → ) und Ligaturen ( → , / → , / → ) zu eigenständigen Zeichen weiterentwickelt und gelegentlich auch Buchstaben aus anderen Alphabeten übernommen (). Lautschrift. Ein absolut "phonetisches" Alphabet wäre in der Praxis unbrauchbar, weil es aufgrund der mannigfaltigen Nuancen einer Sprache sehr viele Zeichen hätte. Ein in Bezug auf die phonetische Wiedergabe optimiertes Alphabet ist das IPA, welches möglichst vielen Lautnuancen ein grafisches Zeichen zuordnet. Eine "phonemische" Schreibweise behandelt unterschiedliche Aussprachen desselben Phonems gleich. So wird beispielsweise in der deutschen Orthografie die regional unterschiedliche (phonetische) Aussprache des Phonems in als norddeutsch und hochdeutsch nicht berücksichtigt. Daneben sorgen morphemische Schreibungen für ein konstanteres Schriftbild bei der Flexion, z. B. schreibt man wegen des Plurals nicht *, sondern , und bei der Derivation, z. B. statt . Buchstabieren. Wenn Menschen einander mündlich die korrekte Schreibweise eines Wortes mitteilen, indem sie nacheinander alle Buchstaben jenes Wortes nennen, so bezeichnet man diesen Vorgang als Buchstabieren (Verb: "buchstabieren"). Dabei werden Konsonantenbuchstaben meist mit Hilfe von zusätzlichen Vokalen ausgesprochen, im Deutschen zum Beispiel [beː] für B oder [kaː] für K (siehe Benennung der Buchstaben). Um Missverständnisse auszuschließen, können auch in einer Buchstabiertafel festgelegte Ansagewörter (beispielsweise Namen) ausgesprochen werden, die mit dem betreffenden Buchstaben beginnen, zum Beispiel „Aachen“ für A oder „Berlin“ für B. Für Deutschland sind Buchstabiertafeln und Buchstabierregeln in der DIN 5009 enthalten. Entstehung und Entwicklung. Aus den in Vorderasien gebräuchlichen Keilschriften entwickelten Händler in Ugarit um 1400 v. Chr. die erste alphabetische Schrift, die sogenannte ugaritische Schrift. Aus dieser Schrift hat sich um 1000 v. Chr. unter anderem das phönizische Alphabet entwickelt, das wiederum Ausgangspunkt für die heute gebräuchlichen Alphabete war. Die Phönizier verwendeten dabei Elemente vorhandener Bilderschriften. Sie lösten die Zeichen vollständig von ihrer bildlichen Bedeutung und wiesen ihnen Lautwerte zu. Die phönizische Schrift verlief von rechts nach links. Trotz der großen Unterschiede in der Gestalt der Zeichen lassen sich die Buchstaben der Phönizier mit den Keilschrift-Zeichen der ugaritischen Schrift in Verbindung bringen. Die phönizische Schrift war eine reine Konsonantenschrift. Dies entsprach der Struktur der semitischen Sprachen. Die hebräische und die arabische Schrift, die daraus entstanden, verzichten bis heute (weitgehend) auf Vokale. Als die Griechen etwa im 10. oder 9. Jahrhundert v. Chr. die phönizische Schrift übernahmen, benutzten sie Zeichen für bestimmte semitische Konsonanten, die in ihrer Sprache nicht vorkamen, zur Bezeichnung von Vokalen, z. B. wurde aus dem Zeichen H für einen rauen Hauchlaut im griechischen Alphabet ein Zeichen für einen Vokal (siehe Buchstabe Eta). Einige Zeichen für Konsonanten, die die phönizische Sprache nicht kannte, wurden neu geschaffen, z. B. das Psi. Im Jahre 403 v. Chr. wurde in Athen das Alphabet normiert. Es wurde so zum Schriftsystem für ganz Griechenland. Anfang des 4. Jahrhunderts v. Chr. brachten griechische Siedler das Alphabet nach Italien, wo die Etrusker (in der heutigen Toskana) es im Laufe des 4. Jahrhunderts übernahmen. Im 3. Jahrhundert v. Chr. orientierten sich die Römer an der griechisch-etruskischen Schrift und überlieferten sie im 1. Jahrhundert v. Chr. nach Mitteleuropa. Historische Bedeutung. Durch das Alphabet entstand ein System mit vergleichsweise wenigen Zeichen. Um die Aufzeichnungen der alten Ägypter verstehen zu können, musste man Hunderte, später sogar Tausende Hieroglyphen lernen. Nun genügten zwei Dutzend Zeichen, um sämtliche Gedanken, die überhaupt formulierbar sind, zu notieren. Die Einfachheit dieses Systems begünstigte dessen Verbreitung über die halbe Welt. „Die menschlichen Sprechwerkzeuge können zwar eine riesige Zahl von Lauten erzeugen, doch beruhen fast alle Sprachen auf dem formalen Wiedererkennen von nur ungefähr vierzig dieser Laute durch die Mitglieder einer Gesellschaft.“ (Jack Goody). Die Reihenfolge des griechischen und lateinischen Alphabets folgt global (mit wenigen Ausnahmen) der Reihenfolge des phönizischen Alphabets, da die Zeichen auch mit einem Zahlwert gekoppelt waren. Alphabete im weiteren Sinn. Die Buchstaben (Schriftzeichen eines Alphabets) bestehen meist aus Linien und können beispielsweise auf Papier geschrieben werden. Das bestimmende Merkmal eines Buchstabens ist jedoch nicht die Form, sondern seine Funktion, einen Sprachlaut oder eine Lautverbindung zu repräsentieren. Deshalb spricht man im weiteren Sinn auch bei den folgenden Zeichensystemen von Alphabeten: Diese Zeichensysteme kodieren eigentlich Buchstaben – und nur indirekt Laute. Zudem enthalten sie auch Zeichen für Ziffern und teilweise weitere Zeichen (Satzzeichen, Steuerzeichen, Zeichen für Wörter). In der Informatik werden die Begriffe "Alphabet" und "Buchstabe" in einem verallgemeinerten Sinn verwendet. Ein „Buchstabe“ kann hier auch eine Ziffer oder ein sonstiges Symbol sein – „Alphabete“ und „Wörter“ können solche beliebigen Symbole enthalten. Siehe hierzu Alphabet (Informatik) und formale Sprache.
133
411728
https://de.wikipedia.org/wiki?curid=133
Arthur Harris
Sir Arthur Travers Harris, 1. Baronet GCB OBE AFC, genannt "Bomber-Harris", (* 13. April 1892 in Cheltenham; † 5. April 1984 in Goring-on-Thames) war ein hochrangiger Offizier der Royal Air Force, zuletzt im Rang eines Marshal of the Royal Air Force. Während des Zweiten Weltkrieges war er ab Februar 1942 Oberbefehlshaber des RAF Bomber Command und gehört wegen der von ihm angeordneten Flächenbombardements deutscher Städte zu den umstrittensten Personen des Luftkrieges im Zweiten Weltkrieg. Leben. Arthur Travers Harris wurde in Cheltenham während eines Urlaubs seiner Eltern geboren. Sein Vater war Angehöriger der britischen Beamtenschaft in Indien (Indian Civil Service (ICS)). Nach der Schulzeit in Dorset stand laut Biographie von Norman Longmate für Harris im Alter von 16 Jahren eine Entscheidung zwischen der Armee und den Kolonien an. Harris entschied sich 1908 für letztere. In Rhodesien war er nach eigener Auskunft mit Goldwaschen, Kutschfahrten und Landwirtschaft beschäftigt. Erster Weltkrieg. 1914 trat er als Trompeter in das 1st Rhodesian Regiment der Britischen Armee ein. Er diente für die Südafrikanische Union im Krieg in Deutsch-Südwestafrika (heute Namibia), bevor er 1915 nach England zurückkehrte und in das neu aufgestellte Royal Flying Corps eintrat. Harris war in Frankreich und England im Einsatz und errang auf den Doppeldeckern Sopwith 1½ Strutter und Sopwith Camel fünf Luftsiege, worauf ihm das Air Force Cross (AFC) verliehen wurde. Bei Kriegsende hatte er den Rang eines Majors. Zwischenkriegszeit. 1919 verblieb er bei der neu gegründeten Royal Air Force und wurde im April 1920 Staffelführer und Kommandant des Fliegerhorstes Digby und der No. 3 Flying Training School. Später diente er unter anderem in Britisch-Indien, in Mesopotamien und in Persien. In Mesopotamien kommandierte er ein Transportgeschwader Vickers Vernon. 1922 war Harris Führer einer Lufttransportstaffel im Irak, wo die Briten versuchten, den Widerstand der Einheimischen durch Terrorangriffe auf Städte und Dörfer zu brechen, bevor der Einsatz von Infanterie notwendig wurde. Harris hatte die Idee, alle Transportflugzeuge zusätzlich mit Bombenträgern auszustatten, „kam es doch nicht auf Präzisionsangriffe an, sondern auf eine möglichst flächendeckende Terrorisierung der Bevölkerung.“ Von 1930 an war Harris im Luftstab für den Nahen Osten tätig, wo er an der Niederschlagung verschiedener Aufstände der dortigen Bevölkerung gegen die britische Kolonialherrschaft beteiligt war. Er begründete dies damit, dass seiner Ansicht nach "die Araber" nur eine „Politik der harten Hand“ verstünden („The only thing the Arab understands is the heavy hand“). Zweiter Weltkrieg. Am 14. Februar 1942 erfolgte die Anweisung „Area Bombing Directive“ des britischen Luftfahrtministeriums. Harris wurde im Februar 1942 zum Oberkommandierenden des Bomber Command der RAF ernannt. Basierend auf Vorlagen von Frederick Lindemann, einem engen Berater Churchills, von dem die Wortschöpfung "Flächenbombardements" (Carpet Bombing) stammt, war Harris der Ansicht, allein durch Flächenbombardierungen der Städte das Deutsche Reich zur Kapitulation zwingen zu können. Harris unterstützte maßgeblich die Entwicklung eines geplanten Feuersturms (Zitat A. Harris bei den Planungen des Luftangriffs auf Lübeck am 29. März 1942: „Historischer Stadtkern brennt gut“). In der ersten Welle wurden neben Spreng- und Brandbomben vor allem große Luftminen (Blockbuster – „Wohnblockknacker“) abgeworfen, die die Dächer abdeckten und Fenster zerstörten, um den Kamineffekt zu verstärken. In einer zweiten Welle wurden Brandbomben abgeworfen, die in kürzester Zeit einen Flächenbrand entstehen ließen. Dies gelang jedoch aufgrund meteorologischer und städtebaulicher Faktoren nicht immer. Die Großbrände verursachten am Boden einen derartigen Sauerstoffentzug, dass viele Opfer durch Ersticken zu Tode kamen. Um die deutsche Flugabwehr und die nach dem sogenannten „Himmelbett-Verfahren“ arbeitende Nachtjagd, zum Beispiel entlang der Kammhuber-Linie durch lokale Überlastung zu überrumpeln, entwickelte er die Methode der Bomberströme, bei der möglichst viele Bomber auf demselben Kurs einfliegend in kurzer Zeit ein Ziel angriffen, statt einzeln und in breiter Front einzufliegen. Zur Demonstration der Wirksamkeit seines Konzeptes zog Harris im Frühjahr 1942 für die Operation Millennium alle verfügbaren Bomber zusammen, um Ende Mai mit 1047 Maschinen auf Köln den ersten „Tausend-Bomber-Angriff“ durchzuführen. Dieser Angriff war entscheidend, um die zahllosen britischen Skeptiker von der Wirksamkeit von Luftangriffen zu überzeugen und die betriebene Auflösung des Bomber Command zu verhindern. Die technischen Voraussetzungen für präzise Schläge gegen strategische Punkte wie Fabriken für Flugzeuge, Panzer und anderes Rüstungsmaterial befanden sich in der Mitte des Krieges noch in der Entwicklung. Die schweren Verluste der Eighth Air Force bei ihren Angriffen 1943 und Anfang 1944 bestätigten sein Festhalten am Nachtangriff vorerst bis zum Einsatz von neuen amerikanischen Langstreckenbegleitjägern, wobei die Nachtangriffe der RAF durch die Schaffung der 24-Stunden-Bedrohung auch für den Erfolg der amerikanischen Tagesangriffe auf strategische Punktziele weiterhin bedeutend blieben. Unter seiner Führung wurden von der RAF zahlreiche deutsche Städte schwer zerstört, so bei der Operation Gomorrha gegen Hamburg im Juli/August 1943, Kassel (22. Oktober 1943), Leipzig (4. Dezember 1943), Frankfurt am Main (22. März 1944), Darmstadt (11. September 1944), Braunschweig (15. Oktober 1944), Nürnberg (2. Januar 1945), Magdeburg (16. Januar 1945), Dresden am 13./14. Februar 1945 sowie Pforzheim (23. Februar 1945), Mainz (27. Februar 1945), Würzburg (16. März 1945), Hanau (19. März 1945), Hildesheim (22. März 1945) und Nordhausen (3./4. April 1945). Bei den Flächenbombardements wurden – neben den im Stadtgebiet befindlichen Industrieanlagen – die Zivilbevölkerung und die Infrastruktur der Stadt primäres Ziel der Angriffe. Seiner Meinung nach sollten ganz bewusst zivile Ziele angegriffen werden, um die Moral und den Widerstandswillen der deutschen Bevölkerung zu brechen (sogenanntes "morale bombing"). Zu Beginn der Bombardierungen äußerte sich Harris zu seiner Motivation: „Die Nazis starteten (‚entered‘) den Krieg mit der ziemlich kindischen Vorstellung, dass sie jeden anderen nach Belieben bombardieren könnten und niemand würde zurückbomben. In Rotterdam, London, Warschau und an beinahe einem halben Hundert anderer Stätten führten sie ihre ziemlich naive Theorie aus. Sie säten Wind und jetzt ernten sie Sturm.“ In seinen Memoiren schrieb er später: „Trotz all dem, was in Hamburg geschehen ist, bleibt das Bomben eine relativ humane Methode.“ Neben den Bombenangriffen auf Deutschland wurden insbesondere in Italien mehrere Großstädte bombardiert, was etwa in Mailand, Neapel und Palermo beträchtliche Schäden auch in Wohngebieten verursachte. Nach dem Krieg. Am 15. September 1945 schied Harris im Streit mit dem neuen Premierminister Clement Attlee aus der Royal Air Force aus und zog sich verbittert nach Südafrika zurück. Seine Ehrungen durch die Ernennung zum erblichen Baronet, of Chipping Wycombe in the County of Buckingham, am 24. Januar 1953 (eine Erhebung zum Peer hatte er abgelehnt) sowie die Enthüllung eines von Veteranen finanzierten Denkmals 1992 vor der Kirche St Clement Danes in London durch die Königinmutter Elizabeth waren in der britischen Bevölkerung stark umstritten. Innerhalb von 24 Stunden wurde das Denkmal mit roter Farbe überschüttet und später noch mehrfach beschädigt, woraufhin es für mehrere Monate unter Bewachung stand. In diesem Zusammenhang ist auch von Bedeutung, dass seine Luftkriegsstrategie für die Besatzungen der Flugzeuge verlustreich war. Nahezu 45 % kehrten nicht heim, insgesamt kamen 55.573 Flieger bei den Angriffen auf Deutschland um. Auch deswegen wurde Harris oft „Butcher“ (englisch für Metzger oder Schlächter) genannt. Militärhistorische Wertung. Die historische wie rechtliche Qualifizierung der alliierten Luftkriegsstrategie und damit der Position Harris’ wird unterschiedlich bewertet. Nach sachlichen oder militärischen Kriterien war die gezielte Zerstörung von Wohngebieten und Innenstädten umstritten. Zwar waren militärisch gesehen die strategischen Folgen des Luftkriegs allgemein erheblich, da angesichts der Angriffe die deutsche Rüstungsproduktion zu umfangreichen produktionsbehindernden Verlagerungen gezwungen wurde – laut Albert Speer führten die alliierten Luftangriffe bei den Luftfahrzeugen zu einer Halbierung der möglichen Produktion. Über eine Million Soldaten wurden bei der Flakartillerie eingesetzt und fehlten dadurch an den Fronten, zusätzlich wurde eine halbe Million Behelfspersonal herangezogen, darunter viele Jugendliche als Flakhelfer. All dies war aber in erster Linie auf die gegen die Rüstungsindustrie geführten Tagangriffe der USAAF und nicht auf die gegen die Zivilbevölkerung gerichteten und von Arthur Harris verantworteten Nachtangriffe der Royal Air Force zurückzuführen. Die bekanntesten Einsätze des Bomber Command außerhalb von Harris’ Strategie waren: Die Angriffe auf die Talsperren (Operation Chastise), die Versenkung des Schlachtschiffs "Tirpitz" (November 1944), die Bombardierung von U-Boot-Bunkern der Kriegsmarine an der französischen Atlantikküste und die Zerstörung von Anlagen des deutschen V-Waffen-Programms (Operation Hydra, Éperlecques, Mimoyecques) sowie die direkte taktische Unterstützung während der Landung alliierter Truppen in der Normandie (Operation Overlord). Harris hat seinen Standpunkt insbesondere in seinem Buch "Bomber Offensive" dargestellt, das seinen Lebensweg beschreibt. Er argumentiert, das nationalsozialistische Deutschland habe damit begonnen, die Zivilbevölkerung zum Objekt von Terrorangriffen zu machen (Guernica, Coventry, Rotterdam, Warschau, London). Aufgabe der britischen Verantwortlichen sei es gewesen, für ein schnelleres Ende des Krieges zu sorgen und eigene Opfer zu vermeiden, die etwa ein Landkrieg oder Stellungskrieg wie im Ersten Weltkrieg mit sich gebracht hätte. Vor dem Eintritt der Vereinigten Staaten in den Krieg (Dezember 1941) beziehungsweise vor dem D-Day, der alliierten Landung in der Normandie am 6. Juni 1944, hätte angesichts der Insellage Großbritanniens einzig die Offensivstrategie des Bomber Commands der Royal Air Force die Sicherheit des Vereinigten Königreichs garantieren können. Des Weiteren unterstreicht Harris die Bedeutung der Luftunterstützung für einen erfolgreichen Einsatz von Landtruppen. Er verweist zum Vergleich auf die deutsche Blitzkriegstrategie zu Beginn des Krieges, bei der das schnelle Vordringen des Heeres, insbesondere der Panzer, nur aufgrund massiver und rasch abrufbarer Luftunterstützung (Bomber und Jagdflieger) möglich gewesen sei. Die Tatsache, dass die deutsche Luftwaffe gegen Ende des Krieges zum großen Teil zerstört oder durch die Verteidigung des eigenen Territoriums gegen die alliierten Bomber gebunden waren, habe dazu geführt, dass dem deutschen Heer die notwendige Unterstützung durch die Luftwaffe fehlte. Die alliierte Luftüberlegenheit habe den britischen und US-amerikanischen Truppen sowie der Roten Armee entscheidend geholfen, die Deutschen zurückzudrängen. Sonstiges. In dem 1954 gedrehten britischen Spielfilm "Mai 1943 – Die Zerstörung der Talsperren" "(The Dam Busters)" von Michael Anderson wird Arthur T. Harris von Basil Sydney dargestellt. Häufig skandieren Antideutsche den Ausruf "Bomber Harris do it again!".
134
3905219
https://de.wikipedia.org/wiki?curid=134
Arthur Wellesley, 1. Duke of Wellington
Arthur Wellesley, 1. Duke of Wellington (* vermutlich 1. Mai 1769 in Dublin, Irland; † 14. September 1852 in Walmer Castle bei Deal, Kent, England), war Feldmarschall und der herausragendste britische Militärführer der napoleonischen Zeit sowie britischer Außen- und zweimal Premierminister. Die von ihm und dem preußischen Feldmarschall Blücher befehligten Truppen siegten über Napoleon in der Schlacht bei Waterloo. Leben. Herkunft und Kindheit. Wellesley stammte aus englisch-irischem Adel und war der dritte überlebende Sohn von Garret Wesley, 1. Earl of Mornington und Anne, der Tochter von Arthur Hill-Trevor, 1. Viscount Dungannon. Der Tag seiner Geburt ist nicht sicher bekannt. Vermutlich wurde er in "Mornington House", "24 Upper Merrion Street" in Dublin geboren. Sein älterer Bruder Richard Colley Wellesley (1760–1842) folgte dem Vater als Earl of Mornington und wurde 1799 zum Marquess Wellesley erhoben. Als Kind kränklich und wenig ehrgeizig, aber musikalisch begabt (er spielte gerne und oft Violine), stand er ganz im Schatten seiner beiden älteren Brüder. Nach dem Besuch des Eton College von 1781 bis 1785, wo er sich wenig hervortat, sandten ihn seine Eltern zunächst zum "73rd Regiment of Foot" der British Army, in das er am 7. März 1787 im Rang eines Ensign eintrat. Danach besuchte er die Militärakademie in Angers, Frankreich. Militärische Karriere. Im Jahre 1788 wurde Wellesley zum Lieutenant des "76th Regiment of Foot" befördert. 1789 wechselte er als Lieutenant des "12th (The Prince of Wales's) Regiment of (Light) Dragoons" zur Kavallerie, stieg 1791 zum Captain des "58th Regiment of Foot" auf und wechselte 1792 als Captain zum "18th Regiment of (Light) Dragoons". Im Juni 1793 wurde er Major des "33rd Regiment of Foot" und wurde im September 1793 als Lieutenant-Colonel zum Kommandeur dieses Regiments befördert. Sein schneller Aufstieg wurde durch das damals übliche Kaufsystem ermöglicht. Während der ganzen Zeit war er Adjutant des Vizekönigs von Irland. Seine aktive militärische Karriere begann 1794, als er im Ersten Koalitionskrieg mit dem Duke of York and Albany nach Flandern ging und dort am erfolglosen Feldzug gegen die Franzosen teilnahm. Er kommandierte beim Rückzug die Nachhut. 1796 wurde Wellesley zum Colonel befördert und ging mit seinem Regiment nach Britisch-Indien, wo im Jahr darauf sein älterer Bruder Richard Generalgouverneur werden sollte. Als 1799 der Vierte Mysore-Krieg gegen den Sultan von Mysore, Tipu Sultan, ausbrach, kommandierte er seine erste Division. 1802 wurde er zum Major-General befördert. Er führte 1803 einen sehr erfolgreichen Feldzug im Zweiten Marathenkrieg und konnte dabei seine militärischen Fähigkeiten erheblich ausbauen. Er wurde Oberbefehlshaber der britischen Streitkräfte in Indien und zwang ganz Südindien unter britische Herrschaft. Am 11. August 1803 nahm er die Festung Ahmednagar und besiegte eine überlegene Streitmacht der Marathen in der Schlacht von Assaye. In den nächsten Wochen gelang es seinen Truppen, Burhanpur und die Festung Asirgarh einzunehmen. Er stieß auf Hyderabad vor, siegte am 29. November in der Schlacht von Argaon und stürmte die Festung Gawilgarh. In Anerkennung seiner Leistungen wurde er 1804 als Knight Companion des Order of the Bath zum Ritter geschlagen und kehrte 1805 nach Großbritannien zurück, gemeinsam mit Richard, dessen Amtszeit als Generalgouverneur ebenfalls abgelaufen war. 1807 nahm Wellesley an der Expedition nach Dänemark teil und wurde 1808 zum Lieutenant-General befördert. Anfang August 1808 landete er mit 13.000 Mann in Portugal und besiegte zwei Wochen darauf die französischen Truppen in der Schlacht bei Vimeiro. Wellesleys Vorgesetzte Burrard und Dalrymple, die erst nach dem Ende der Schlacht in Portugal eingetroffen waren, schlossen Ende August die Konvention von Cintra ab, die den Franzosen nicht nur den freien Abzug gewährte, sondern ihnen auch den Erhalt der Kriegsbeute und den Rücktransport auf britischen Schiffen garantierte. Diese Bedingungen wurden von der britischen Öffentlichkeit als Sieg für Frankreich empfunden; Wellesley, Burrard und Dalrymple wurden nach Großbritannien zurückbefohlen und vor einem Militärgericht angehört. Wellesley wurde entlastet und im Gegensatz zu den beiden anderen Beteiligten rehabilitiert. Am 27. Oktober 1807 vereinbarten Frankreich und Spanien im Geheimen im Vertrag von Fontainebleau (1807) die Eroberung und Teilung Portugals. Spanien gewährte den französischen Truppen den Durchmarsch durch spanisches Hoheitsgebiet. Im Frühjahr 1809 versuchten die Franzosen ein zweites Mal, Portugal zu erobern. Wellesley kehrte nach Portugal zurück und übernahm den Oberbefehl der dortigen britisch-portugiesischen Truppen. Am 12. Mai 1809 schlug er Marschall Nicolas Soult in der Zweiten Schlacht bei Oporto. Durch den Sieg in der Schlacht bei Talavera de la Reina am 28. Juli beendete Wellesley die französischen Ambitionen. In Anerkennung seiner Leistungen wurde er am 26. August 1809 mit den erblichen Titeln Viscount Wellington und Baron Douro zum Peer erhoben. Wellesley gab zum Schutze Portugals am 20. Oktober 1809 beim britischen Ingenieur Richard Fletcher die Befestigung der Linien von Torres Vedras in Auftrag, unter dessen Leitung sie von portugiesischen Arbeitern und Soldaten errichtet wurden. Der Vormarsch der Franzosen unter Marschall Masséna erhielt am 27. September 1810 in der Schlacht von Buçaco einen empfindlichen Rückschlag, gleichwohl blieb die Hauptstadt Lissabon weiterhin bedroht. Am 3. April 1811 scheiterte mit der Schlacht von Sabugal der letzte Versuch Frankreichs, Portugal zu erobern. Danach schwenkte die Stimmung in Spanien auf die britische Seite um; Wellesley wurde zum General befördert und auch Oberkommandierender der spanischen Streitkräfte. Lord Beresford erhielt den Oberbefehl über die reorganisierten portugiesischen Streitkräfte. Nachdem bekannt geworden war, dass die französischen Truppen im Westen Spaniens reduziert wurden, marschierte Wellington nach Ciudad Rodrigo und nahm diese Stadt nach kurzer Belagerung am 19. Januar 1812 ein, wofür er durch den Prinzregenten Georg am 28. Februar 1812 zum Earl of Wellington erhoben wurde. Ab 27. März 1812 begannen die Verbündeten die dritte Belagerung von Badajoz, Wellington nahm die Stadt nach drei Wochen unter Verlust von etwa 4.000 Mann auf britischer Seite am 7. April ein. Die Eroberung erlaubte es den Briten, eigene Operationen im zentralen Spanien einzuleiten. Während ein britisches Korps unter General Hill zwischen den französischen Armeen Marmont und Soult Richtung Tajo vorrückte, wandte sich die britische Hauptmacht nach León. Am 21. Juli erwarteten die Franzosen den Gegner am Tormes und in Stellungen auf den Arapilen, und am 22. Juli schlug Wellington sie in der Schlacht von Salamanca. Wellington konnte infolge dieser Kämpfe am 12. August Madrid besetzen, wurde aber kurz darauf wieder aus der Stadt vertrieben und musste die geplante Belagerung von Burgos aufgeben. Am 4. Oktober 1812 wurde ihm der erbliche Titel Marquess of Wellington verliehen. Nach der Niederlage Napoleons in Russland und dem Beginn der Kämpfe in Deutschland erhielten die französischen Truppen in Spanien keine Verstärkung mehr. Wellington verbrachte den Winter damit, seine Armee zu reorganisieren, und plante, die iberische Halbinsel im Frühjahr 1813 gänzlich freizukämpfen. Im Mai 1813 begann Wellingtons abschließende Offensive von Portugal aus zwischen Duero und Tajo, in der er zunächst die nördlichen Provinzen Spaniens eroberte und sein Hauptquartier von Lissabon nach Santander verlegte. Wellingtons Truppen marschierten durch das kastilische Hochland in Richtung Kantabrien, um die französische Hauptmacht durch Abschneidung der Verbindungswege zum Rückzug aus Zentralspanien zu zwingen. Er griff die französische Hauptmacht unter Joseph Bonaparte am 21. Juni 1813 in der entscheidenden Schlacht von Vitoria mit drei Kolonnen an. Die Schlacht beendete Napoleons Herrschaft in Spanien. Am 7. Juli begann Wellington die Belagerung von San Sebastian. Im Herbst 1813 rang er, inzwischen zum Feldmarschall befördert, mit den Truppen des neuen französischen Oberbefehlshabers Soult auf breiter Front um die Übergänge in den Pyrenäen. In Südfrankreich eindringend, lieferte er sich mit Soult noch am 10. April 1814 die blutige Schlacht bei Toulouse, dann folgte mit der Abdankung Napoleons das Kriegsende. Am 11. Mai 1814 verlieh der Prinzregent stellvertretend für seinen Vater Georg III. ihm die erblichen Adelstitel Duke of Wellington und Marquess Douro. Der Duke nahm im Frühjahr 1815 unter Lord Castlereagh auch an mehreren Sitzungen des Wiener Kongress teil. Im Februar wurde Wellington nach dessen Abberufung nach England, Hauptbevollmächtigter in Wien, bevor er März 1815 nach der Rückkehr Napoleons aus Elba den Oberbefehl im neuen Krieg gegen Frankreich erhielt. Im Raum Brüssel sammelte Wellington das verbündete Heer gegen Napoleon, darunter nur etwa 35.000 Briten, und wartete die geplante Vereinigung mit den Preußen ab. Am 18. Juni in der Schlacht von Waterloo (auch „Schlacht von Belle-Alliance“) von Napoleon angegriffen, hielten Wellingtons Truppen den französischen Angriffen solange erfolgreich stand, bis die Ankunft der Preußen den Sieg der Alliierten entschied. Das bekannte Zitat „Ich wollte, es wäre Nacht, oder die Preußen kämen“ wird Wellesley beim Warten auf die Ankunft Blüchers zugeschrieben, ist aber nicht verbürgt. Die Schlacht ging mit der Hilfe Blüchers zu Wellesleys Gunsten aus, Napoleon zog sich geschlagen zurück, für ihn bedeutete diese Schlacht das Ende seiner militärischen Karriere. Wellington hingegen wurde von den Briten als Held gefeiert, unter den Militärstrategen galt er fortan als Meister der Defensive. 1827/28 und noch einmal von 1842 bis zu seinem Tod war Wellesley Oberbefehlshaber der britischen Armee. Ab 1829 hatte er auch das Amt des Lord Warden of the Cinque Ports inne. Nach seinem Tod wurde er am 18. November 1852 in einem Staatsbegräbnis in der Krypta der St Paul’s Cathedral beigesetzt. Im Hauptschiff der Kathedrale wurde ihm ein monumentales Grabdenkmal gesetzt. Politisches Leben. Parallel zu seiner Militärlaufbahn war er von 1790 bis 1797 Abgeordneter für den Wahlbezirk Trim im County Meath (seinem Familiensitz) im House of Commons des irischen Parlaments. Im Jahr 1806 zog er als Abgeordneter für den Wahlbezirk Rye in Sussex ins britische House of Commons ein. Im Parlament gehörte er den Torys an. 1807 wurde er Chief Secretary for Ireland, dieses Amt gab er jedoch noch im gleichen Jahr zugunsten seiner militärischen Karriere wieder auf. 1807 war er jeweils kurzzeitig Abgeordneter für die Wahlbezirke Tralee im irischen County Kerry und Mitchell in Cornwall und war anschließend 1807 bis 1809 Abgeordneter für den Wahlbezirk Newport auf der Isle of Wight. Als er 1809 zum Peer erhoben wurde, wurde er damit auch auf Lebenszeit Mitglied des britischen House of Lords und schied dafür aus dem House of Commons aus. Nach dem Wiener Kongress wandte er sich wieder einer politischen Laufbahn zu und erhielt 1818 ein Amt in der Tory-Regierung unter Lord Liverpool. Am 17. August 1827 wurde er Oberkommandierender der britischen Armee, doch übernahm er 1828 nach dem Tod von Canning und dem Sturz von Lord Goderich widerstrebend das Amt des Premierministers. Er führte eine erzkonservative Regierung und eine isolationistische Politik. So beendete er trotz des Siegs in der Schlacht von Navarino die Unterstützung des griechischen Freiheitskampfes. Infolge dieser Politik lehnte Prinz Leopold die ihm angebotene griechische Krone ab. Innenpolitisch setzte Wellington gegen große innerparteiliche Widerstände 1829 das Wahlrecht für Katholiken durch. Aufgrund dessen beschuldigte der Earl of Winchilsea Wellington, Großbritannien in die Abhängigkeit der römischen Kirche führen zu wollen, worauf dieser ihn auf Pistole forderte. Wellington verfehlte seinen Kontrahenten jedoch, woraufhin Winchilsea aus Angst, „den Sieger von Waterloo zu töten“ nur in die Luft schoss. Gleichzeitig versuchte er eine weitere Wahlrechtsreform zu verhindern, weswegen er bei weiten Teilen der Bevölkerung höchst unpopulär wurde. Die Verzögerung der Wahlrechtsreform und seine Unbeliebtheit weiteten sich zu Unruhen aus. Dennoch erklärte er in völliger Verkennung der Lage bei der Parlamentseröffnung nach dem Tod Georgs IV., dass er eine Wahlrechtsreform weiter ablehne. Diese Erklärung führte zum Sturz seiner Regierung am 22. November 1830. Sein Nachfolger als Premierminister Earl Grey nahm sofort eine Wahlrechtsreform in Angriff und brachte am 1. März 1831 gegen den Widerstand Wellingtons den Reform Act ins Unterhaus ein. Nachdem das Gesetz das House of Commons passiert hatte, verweigerte das House of Lords am 8. Oktober 1831 seine Zustimmung. Trotz der Gefahr eines drohenden revolutionären Umsturzes blockierte das Oberhaus das Gesetz weiter. Am 9. Mai 1832 wurde Wellington erneut zum Regierungschef ernannt. Wilhelm IV. bewog ihn, ein gemäßigtes Kabinett zu bilden. Da zahlreiche Sparer aus Protest ihre Einlagen aus der Bank of England abzogen, drohte eine Finanzkrise, so dass Wellington schon am 15. Mai wieder aufgab. Sein Nachfolger wurde wieder Earl Grey, unter dem am 4. Juni 1832 die Wahlrechtsreform vom Oberhaus verabschiedet wurde. Die nächsten beiden Jahre verbrachte Wellington in der Opposition. Bei der Trauerfeier für Lord Althorp im Oberhaus entließ Wilhelm IV. unerwartet das Whig-Kabinett und beauftragte Wellington am 17. November 1834 mit der Bildung einer Minderheitsregierung. Dieser schlug schließlich Robert Peel, seinen langjährigen politischen Weggefährten, als Premierminister vor, während er das Amt des Außenministers übernahm. Dies war die letzte britische Regierung, die ein Monarch ohne Mehrheit im Unterhaus ernannte und sie scheiterte schon im April 1835. Peel wurde im September 1841 erneut zum Premierminister ernannt, und Wellington wurde in dieser Regierung als Oberkommandierender der Armee Minister ohne Geschäftsbereich sowie Leader des House of Lords. Als Peel 1846 zurücktrat, legte auch Wellington am 27. Juni sein Amt als Führer der Mehrheitsfraktion nieder und zog sich aus der Öffentlichkeit zurück. Das Amt des Oberbefehlshabers der Armee behielt er allerdings bis zu seinem Tod. Privatleben. Am 10. April 1806 heiratete er Kitty Pakenham, die Tochter des 2. Baron Longford. Aus der Ehe gingen folgende Kinder hervor: Kittys Bruder Ned war in Spanien einer von Wellingtons wichtigsten Generälen. Wellington war seit dem 7. Dezember 1790 ein Mitglied im Bund der Freimaurer ("Trim No. 494") und gehörte dem renommierten Londoner Travellers Club an. Ehrungen und Auszeichnungen. Er war seit 1804 Knight Companion des Order of the Bath und wurde bei der Reform der Ordensstatuten 1815 zum Knight Grand Cross dieses Ordens erhoben. 1813 wurde er als Knight Companion in den Hosenbandorden aufgenommen und 1816 zum Großkreuzritter des Guelphen-Ordens geschlagen. 1807 wurde er ins Privy Council aufgenommen und 1847 zum Fellow der Royal Society ernannt. Für seine Verdienste wurden ihm auch von verbündeten ausländischen Monarchen Adelstitel verliehen, so wurde er in Portugal 1811 zum "Conde do Vimeiro" und 1812 zum "Duque de Vitória" und "Marquês de Torres Vedras", in Spanien 1812 zum "Duque de Ciudad Rodrigo" und in den Niederlanden 1815 zum "Prins van Waterloo" erhoben. Die HMS Duke of Wellington, ein 131-Kanonen-Schiff der britischen Royal Navy, wurde 1852 nach ihm benannt. Sie war das Flaggschiff von Sir Charles Napier, damals Rear-Admiral of the Blue. Auch die HMS Iron Duke, das Flaggschiff der Grand Fleet im Ersten Weltkrieg war nach ihm benannt.
135
530688
https://de.wikipedia.org/wiki?curid=135
Astronomie
Die Astronomie (; von ‚Stern‘ und ‚Gesetz‘) oder Sternkunde ist die Wissenschaft der Gestirne. Sie erforscht mit naturwissenschaftlichen Mitteln die Positionen, Bewegungen und Eigenschaften der Objekte im Universum, also der Himmelskörper (Planeten, Monde, Asteroiden, Sterne einschließlich der Sonne, Sternhaufen, Galaxien und Galaxienhaufen), der interstellaren Materie und der im Weltall auftretenden Strahlung. Darüber hinaus strebt sie nach einem Verständnis des Universums als Ganzes, seiner Entstehung und seines Aufbaus. Obwohl die Astronomie nur an wenigen Schulen ein Unterrichtsfach ist, finden ihre Forschungsergebnisse in der Öffentlichkeit viel Interesse; als Amateurastronomie ist sie ein weit verbreitetes Hobby. Dies hängt einerseits mit dem „erhebenden“ Eindruck zusammen, den der Sternhimmel auch bei freisichtiger Beobachtung macht, andererseits mit ihrer thematischen Vielfalt, der Berührung philosophischer Fragen und der Verbindung zur Raumfahrt. Im Gegensatz zu früheren Zeiten wird die Astronomie als Naturwissenschaft heute streng abgegrenzt von der Astrologie, die aus Stellung und Lauf der Gestirne auf irdische Geschehnisse schließen will. Die Abgrenzung erfolgt auch, da die Astrologie eine Pseudowissenschaft ist – während die Astronomie auf empirischer Basis die Beschaffenheit, Bewegungen und Beziehungen von Himmelskörpern untersucht. Dennoch werden, wohl wegen der Ähnlichkeit beider Bezeichnungen, Astrologie und Astronomie von Laien nicht selten verwechselt. An den Universitäten wurde die Astronomie um etwa 1800 zu einer eigenen Studienrichtung, wird heute aber oft dem Physikstudium zugeordnet. In der deutschen Hochschulpolitik wird sie seit 2018 gemeinsam mit der Astrophysik nicht mehr als Kleines Fach, sondern als mittelgroßes Fach eingestuft. Geschichte. Die Astronomie gilt als eine der ältesten Wissenschaften. Ihre Anfänge liegen im Nachdenken über die Himmelserscheinungen, in der kultischen Verehrung der Gestirne und im Erarbeiten von Kalender bzw. Zeitbestimmung. In einem jahrtausendelangen Prozess – besonders gut erkennbar in der Himmelskunde Mesopotamiens und Griechenlands – trennten sich zunächst Astronomie und („Natur“)-Religion, später Astronomie und Meteorologie, in der Frühmoderne dann Astronomie und Astrologie. Wesentliche Meilensteine für unser Wissen über das Weltall waren die Erfindung des Fernrohrs vor etwa 400 Jahren, das die kopernikanische Wende vollendete, sowie später im 19. Jahrhundert die Einführung der Fotografie und Spektroskopie. Seit den 1960er-Jahren haben Astronomen mit der unbemannten und bemannten Raumfahrt die Möglichkeit, die Erdatmosphäre zu überwinden und ohne ihre Einschränkungen zu beobachten – also ohne Luftunruhe und in allen Bereichen des elektromagnetischen Spektrums. Dazu kommt erstmals die Möglichkeit, die untersuchten Objekte direkt zu besuchen und dort andere als nur rein beobachtende Messungen durchzuführen. Parallel dazu werden immer größere Teleskope für bodengebundene Beobachtungen gebaut. Fachgebiete. Die astronomische Wissenschaft unterteilt sich allgemein nach den untersuchten Objekten, sowie danach, ob die Forschung theoretischer oder beobachtender Natur ist. Wichtige grundlegende Fachgebiete sind die "beobachtende Astronomie", die "Astrophysik", die "Astrometrie" und die "Himmelsmechanik", während die "theoretische Astronomie" analytische und numerisch-physikalische Modelle der Himmelskörper und Phänomene entwickelt. Die wichtigsten Untersuchungsgebiete der Himmelskunde sind Die Integration vieler Messmethoden bringt es mit sich, dass man die "Beobachtende Astronomie" immer weniger nach benutzten Wellenlängenbereichen ("Radioastronomie", "Infrarotastronomie", "Visuelle Astronomie", "Ultraviolettastronomie", "Röntgenastronomie" und "Gammaastronomie") einteilt, weil die Forschergruppen und (im Idealfall) auch der einzelne Wissenschaftler Informationen aus allen diesen Quellen heranziehen kann. Die bis etwa 1900 vorherrschenden Methoden der "klassischen Astronomie" sind weiterhin als Basis für andere Teilgebiete unentbehrlich. Sie erforschen als "Positionsastronomie" mittels astrometrischer Verfahren, der Himmelsmechanik und "Stellarstatistik" den Aufbau des Weltalls und katalogisieren die Himmelskörper (v. a. durch Sternkataloge, Bahnbestimmungen und Ephemeriden). Im Gegensatz zu diesen überwiegend geometrischen Verfahren erforscht die "Astrophysik" mit ihren heute sehr vielfältigen Beobachtungstechniken die Physik der astronomischen Objekte und des ferneren Weltalls. Daneben kann die "Raumfahrt" als "experimentelle Astronomie" angesehen werden, und die Kosmologie als theoretische Disziplin. Astronomie und andere Wissenschaften. Mit der Astronomie sehr eng verbunden sind die Physik und die Mathematik; die Fachgebiete haben sich vielfach befruchtet und sind auch im Astronomie-Studium als Einheit zu sehen. Das Universum erweist sich in vielen Fällen als Laboratorium der Physik, viele ihrer Theorien können nur in seinen Weiten und an heißen, energiereichen Objekten getestet werden. Nicht zuletzt waren die aufwändigen Berechnungen der Astronomie Triebfeder der modernen numerischen Mathematik und der Datenverarbeitung. Traditionell ist die Zusammenarbeit der Astronomie mit der Geodäsie ("Astrogeodäsie", Orts- und Zeitbestimmung, Bezugsysteme, Navigation), mit der Zeit- und Kalenderrechnung ("Astronomische Chronologie") sowie mit der Optik (Entwicklung "astronomischer Instrumente und Sensoren"). Instrumentell und methodisch sind auch starke Bezüge zur Technik, Raumfahrt und Mathematik gegeben (Messgeräte, Satellitentechnik, Modellierung von Bahnen und Himmelskörpern). Geodätische Methoden werden auch zur Bestimmung des Gravitationsfeldes sowie der Figur anderer Himmelskörper angewandt. In den letzten Jahrzehnten ist auch die Zusammenarbeit der Astronomie mit der modernen Geologie und der Geophysik immer wichtiger geworden, da sich das Arbeitsgebiet der Geowissenschaften mit Teilen der "Planetologie" deckt. Die Mineralogie analysiert die Gesteine der Erde mit ähnlichen Methoden wie jene anderer Himmelskörper. Die "Kosmochemie" als Teil der Chemie untersucht die Entstehung und Verteilung der chemischen Elemente und Verbindungen im Universum und die chemische Evolution, die "Astrobiologie" die Umstände von Entstehung, Ursprung und Existenz von Leben im Universum. Des Weiteren kommt es zunehmend zu interdisziplinärer Forschung mit ursprünglich eher geisteswissenschaftlich ausgerichteten Disziplinen der Wissenschaft: Literatur. Einzelwerke Periodika
137
172343
https://de.wikipedia.org/wiki?curid=137
Angelina Jolie
Angelina Jolie [], DCMG (* 4. Juni 1975 als "Angelina Jolie Voight" in Los Angeles, Kalifornien) ist eine US-amerikanische Schauspielerin, Filmregisseurin, Filmproduzentin und Drehbuchautorin. Während ihrer Ehe mit Brad Pitt trug sie den Namen "Angelina Jolie Pitt". Sie wurde mit der Darstellung der Videospielheldin Lara Croft in "" (2001) international bekannt. Weitere kommerzielle Erfolge hatte sie mit den Filmen "Mr. & Mrs. Smith" (2005), "Wanted" (2008), "Salt" (2010) und "Maleficent – Die dunkle Fee" (2014). Für ihre schauspielerischen Leistungen erhielt Jolie drei Golden Globes, zwei Screen Actors Guild Awards und für ihre Rolle einer psychisch Kranken in dem Film "Durchgeknallt" (1999) einen Oscar als beste Nebendarstellerin. Mit dem Kriegsdrama "In the Land of Blood and Honey" gab Jolie 2011 ihr Debüt als Spielfilmregisseurin und Drehbuchautorin. Von 2012 bis 2022 war sie Sondergesandte des UN-Flüchtlingshochkommissars Filippo Grandi. Frühe Jahre. Herkunft. Angelina Jolie ist die Tochter der Schauspieler Jon Voight und Marcheline Bertrand. Sie ist die jüngere Schwester des Schauspielers James Haven und die Nichte des Songwriters Chip Taylor. Ihre Taufpaten sind die Schauspieler Jacqueline Bisset und Maximilian Schell. Jolie hat deutsche und slowakische Vorfahren väterlicherseits sowie frankokanadische, niederländische, deutsche und angeblich irokesische Vorfahren mütterlicherseits. Letzteres wurde von Jon Voight in einem Interview allerdings bestritten. Die irokesische Abstammung Bertrands sei erfunden worden, um ihr aus Karrieregründen ein exotisches Image zu verleihen. Ein Urgroßelternpaar Jolies stammt aus Büren in Westfalen, ein anderes aus dem slowakischen Košice. Durch ihre Großmutter ist sie eine Verwandte des ehemaligen niederländischen Premierministers Wim Kok und des Gründers des Internationalen Museums für Familiengeschichte in Eijsden, Niederlande, wo mehr über ihre Vorfahren zu sehen ist. Kindheit. Jolie wurde am 4. Juni 1975 in Los Angeles geboren. Ihre Eltern, die am 12. Dezember 1971 geheiratet hatten, trennten sich 1976. Bertrand reichte 1978 die Scheidung ein, die am 14. April 1980 rechtskräftig wurde. Nach der Trennung ihrer Eltern wuchs Jolie zusammen mit ihrem Bruder bei ihrer Mutter auf, die ihre eigenen Schauspielambitionen aufgab und mit den Kindern und ihrem neuen Lebensgefährten Bill Day nach Palisades in den US-Bundesstaat New York zog, wo Jolie im Nachbarort Tappan die William O. Schaefer Elementary School besuchte. Zeit mit ihrem Vater verbrachte Jolie daraufhin meist nur während der Schulferien oder wenn er sie und ihren Bruder zu Dreharbeiten mitnahm. Jolie erklärte später, dass nicht ihr berühmter Vater, der 1979 für seine Rolle in dem Film "Coming Home – Sie kehren heim" (1978) den Oscar als bester Hauptdarsteller gewann, ihr Interesse an der Schauspielerei geweckt habe, sondern die regelmäßigen Kino- und Theaterbesuche mit ihrer Mutter und ihrem Bruder während ihrer Kindheit. Schulzeit. Als Jolie elf Jahre alt war, zog die Familie zurück nach Los Angeles. Dort besuchte sie bis 1989 die El Rodeo Elementary School im Stadtteil Beverly Hills. In ihrer Zeit an der Beverly Hills High School fühlte sie sich oftmals isoliert unter ihren Mitschülern, die größtenteils aus wohlhabenden Familien stammten, während ihre Mutter mit einem bescheidenen Einkommen auskommen musste. Jolie trug Kleidung aus Secondhand-Läden und wurde von anderen Schülern auf Grund ihrer ausgeprägten Gesichtszüge und äußerst schlanken Erscheinung geneckt. Mit wachsender Unzufriedenheit durchlebte sie in ihrer Jugend eine Phase autoaggressiven Verhaltens; sie beschrieb dies später mit den Worten: „Ich sammelte Messer und hatte immer bestimmte Dinge um mich. Aus irgendeinem Grund war das Ritual, mich selbst zu schneiden und die Schmerzen zu spüren, vielleicht sich lebendig zu fühlen und ein Gefühl der Befreiung zu verspüren, irgendwie therapeutisch für mich.“ Später blickte Jolie auf diese Phase ihres Lebens mit der Bemerkung zurück: „Im Herzen bin ich noch immer nur ein Punk-Kid mit Tattoos.“ Erster Schauspielunterricht. Neben der Schule nahm Jolie Schauspielunterricht am Lee Strasberg Theatre and Film Institute, an dem sie zwei Jahre lang das Method Acting erlernte und in mehreren Bühnenproduktionen auftrat. Mit 14 Jahren erhielt sie einen Vertrag als Fotomodell bei der Agentur Finesse Model Management; ihre Versuche, in diesem Geschäft Fuß zu fassen, blieben jedoch ohne nennenswerten Erfolg. Mit 16 Jahren machte Jolie im Rahmen eines eigenverantwortlichen Lernprogramms vorzeitig ihren Schulabschluss und mietete sich ein eigenes Apartment in der Nähe der Wohnung ihrer Mutter. Sie dachte einige Zeit darüber nach, Bestattungsunternehmerin zu werden, nachdem ihr Großvater gestorben war, entschied sich aber letztlich doch für die Schauspielerei. Karriere. Karrierebeginn (1980 bis 1997). In "Zwei in der Tinte" stand Jolie gemeinsam mit ihren Eltern zum ersten Mal für einen Film vor der Kamera. Während ihr Vater in der Komödie an der Seite von Ann-Margret die männliche Hauptrolle spielte, waren Jolie und ihre Mutter in kleineren Nebenrollen zu sehen. Voight beschrieb das Verhalten seiner damals fünfjährigen Tochter während der Dreharbeiten im Jahr 1980 als „gelangweilt“. „Sie war nicht gerade begeistert, mitzuwirken. Aber sie hat uns die Schau gestohlen, weil sie so ehrlich und echt war.“ Ihre ersten professionellen Engagements als Schauspielerin erhielt Jolie in den Musikvideos zu Lenny Kravitz’ "Stand by My Woman", Antonello Vendittis "Alta Marea" (beide 1991), The Lemonheads’ "It’s About Time" und Meat Loafs "Rock and Roll Dreams Come Through" (beide 1993). Außerdem stand sie für fünf Studentenfilme ihres Bruders vor der Kamera, als dieser die USC School of Cinematic Arts in Los Angeles besuchte. Sie spielte auch in den Kurzfilmen "Angela & Viril" sowie "Alice & Viril" (beide 1993) von Regisseur Steven Shainberg mit. In dem darauf folgenden Low-Budget-Film "Cyborg 2" (1993) verkörperte sie einen menschenähnlichen Roboter, der darauf programmiert ist, sich mit Verführungskünsten den Weg ins Hauptquartier des Feindes zu bahnen und dort zu explodieren. Jolie über den Film: „Nachdem ich ihn gesehen hatte, ging ich nach Hause und musste mich übergeben.“ Die New York Times schrieb jedoch über ihre Darstellung: „Auch wenn sich ihr Schauspiel in "Cyborg 2" noch in seiner Versuch-und-Irrtum-Phase befand, enthielt es bereits die Saat ihrer heutigen Darstellungsweise. Bereits als Teenager […] wusste Jolie, die Leinwand mit ihrer Präsenz auszufüllen.“ Nach einer Rolle in dem Thriller "Without Evidence" (1995) spielte Jolie an der Seite von Jonny Lee Miller und Matthew Lillard die Hackerin Kate „Acid Burn“ Libby in dem Spielfilm "Hackers – Im Netz des FBI" (1995). Die New York Times schrieb: „Kate (Angelina Jolie) fällt auf. Sie zieht ein noch mürrischeres Gesicht als die übrigen Darsteller und sie ist diese seltene Hackerin, die bewusst in einem durchsichtigen Top an ihrer Tastatur sitzt. Trotz ihres verdrießlichen Auftretens, und das ist alles, was die Rolle erfordert, hat Frau Jolie das süße engelhafte Aussehen ihres Vaters Jon Voight geerbt.“ Der Film spielte keinen Gewinn ein, entwickelte sich aber zu einem Kulthit, nachdem er auf Video erschienen war. In der Komödie "Liebe und andere …" (1996), einer modernen Adaption von Romeo und Julia unter zwei rivalisierenden italienischen Restauranteigentümern in der New Yorker Bronx, trat sie in der Rolle der Gina Malacici vor die Kamera. Im Roadmovie "Nichts als Trouble mit den Frauen" (1996) spielte sie den Teenager Eleanor Rigby, der sich in Danny Aiellos Filmfigur verliebt, während dieser versucht, ihre Mutter (Anne Archer) zu erobern. Im Jahr 1996 erschien sie außerdem in dem Film "Foxfire" als Margret „Legs“ Sadovsky, eines von fünf Mädchen, die einen ungewöhnlichen Bund eingehen, nachdem sie einen Lehrer zusammengeschlagen haben, der sie sexuell belästigt hatte. Die Los Angeles Times schrieb über Jolies Leistung: „Es bedurfte einer Menge, diese Figur zu entwickeln, aber Jolie, Jon Voights umwerfende Tochter, hat die Präsenz, das Stereotyp zu überwinden. Obwohl die Geschichte von Maddy erzählt wird, ist Legs das Thema und der Katalysator.“ 1997 spielte Jolie zusammen mit David Duchovny in dem Thriller "Playing God". Der Film erzählt die Geschichte eines Chirurgen, der seine Approbation verliert und tief in die kriminelle Unterwelt hineingezogen wird, wo er Jolies Figur Claire trifft. Der Film fand bei den Kritikern wenig Beifall, sodass Roger Ebert zu erklären versuchte: „Angelina Jolie findet eine gewisse Wärme in einer Rolle, die normalerweise hart und aggressiv ist; sie erscheint zu nett, um die Freundin eines Verbrechers zu sein, und vielleicht ist sie es auch.“ Danach wirkte sie in dem Fernsehfilm "True Women" (1997) mit, einem historisch-romantischen Drama im Wilden Westen, basierend auf dem gleichnamigen Roman von Janice Woods Windle. Im selben Jahr spielte sie außerdem eine Stripperin in dem Musikvideo der Rolling Stones zu "Anybody Seen My Baby?" Schauspielerischer Durchbruch (1998–2000). Jolies Karriere erhielt Auftrieb, als sie 1998 für ihre Rolle in der Filmbiografie "Wallace" mit dem Golden Globe als Beste Nebendarstellerin in einem Fernsehfilm ausgezeichnet wurde und eine Nominierung für den Emmy erhielt. Unter der Regie von John Frankenheimer sowie an der Seite von Gary Sinise und Mare Winningham verkörperte Jolie in dem Film Cornelia Wallace, die zweite Ehefrau von George Wallace, seinerzeit Gouverneur von Alabama und Anhänger der Rassentrennung, der angeschossen und querschnittsgelähmt wurde, als er für die US-amerikanische Präsidentschaft kandidierte. 1998 spielte Jolie im HBO-Projekt "Gia – Preis der Schönheit", einem Fernsehfilm über das Leben des lesbischen Supermodels Gia Carangi mit. Der Film beschreibt eine Welt von Sex und Drogen sowie Carangis emotionalen Niedergang und ihren Tod durch AIDS. Vanessa Vance von Reel.com schrieb: „Angelina Jolie erntete große Anerkennung für ihre Rolle als Gia, und es ist leicht zu verstehen warum. Jolie ist ergreifend in ihrer Darstellung, die den Film mit Nerv, Charme und Verzweiflung füllt, und ihre Rolle ist möglicherweise das schönste Wrack, das jemals gefilmt wurde.“ Jolie gewann ihren zweiten Golden Globe und erhielt erneut eine Nominierung für den Emmy, außerdem ihren ersten Screen Actors Guild Award. Jolie zog es in ihren Anfangsjahren häufig vor, entsprechend Lee Strasbergs Method Acting auch in Drehpausen vollkommen in ihrer Rolle zu bleiben. Während der Dreharbeiten zu "Gia" erklärte sie ihrem damaligen Ehemann Jonny Lee Miller, sie sei nicht in der Lage, ihn anzurufen. „Ich sagte ihm: ‚Ich bin allein; ich sterbe; ich bin lesbisch; ich werde dich in den nächsten Wochen nicht sehen.‘“ Nach "Gia" zog Jolie kurzzeitig nach New York, da sie das Gefühl hatte, sie habe „nichts mehr zu geben.“ Sie schrieb sich an der New York University ein, um Film zu studieren, und besuchte Kurse für Drehbuchautoren. Später beschrieb sie diese Zeit als „einfach gut, um mich selbst zu finden.“ 1998 kehrte sie als Gloria McNeary in dem Gangsterfilm "Hell’s Kitchen – Vorhof zur Hölle" auf die Leinwand zurück und trat im selben Jahr auch als junge Partygängerin Joan in dem Episodenfilm "Leben und lieben in L.A." auf. Das Ensemble umfasste unter anderem Sean Connery, Gillian Anderson, Ryan Phillippe und Jon Stewart. Der Film erhielt überwiegend positive Kritiken und Jolie erntete besonderes Lob. Der San Francisco Chronicle schrieb: „Jolie, die sich durch ein überzogenes Skript kämpft, ist eine Sensation als die verzweifelte Klubgängerin, die lernen muss, was sie bereit ist, aufs Spiel zu setzen.“ Das amerikanische National Board of Review zeichnete sie als beste Nachwuchsdarstellerin aus. 1999 erschien sie neben John Cusack, Billy Bob Thornton und Cate Blanchett in Mike Newells Komödiendrama "Turbulenzen – und andere Katastrophen", ein Film über die Rivalität zweier Fluglotsen. Sie spielte Thorntons verführerische Ehefrau Mary Bell, und im darauffolgenden Jahr heiratete sie Thornton auch im echten Leben. Der Film hinterließ gemischte Reaktionen, Jolies Figur wurde besonders kritisiert. Die Washington Post schrieb: „Mary (Angelina Jolie) ist eine völlig lächerliche Autorenkreation; eine Frau, die über sterbende Hibiskuspflanzen weint, eine Menge türkiser Ringe trägt und furchtbar einsam wird, wenn ihr Mann nachts nicht nach Hause kommt.“ Dann arbeitete sie mit Denzel Washington zusammen in "Der Knochenjäger" (1999), einer Adaption des gleichnamigen Romans von Jeffery Deaver. Sie spielte Amelia Donaghy, eine Polizeibeamtin, die vom Suizid ihres Vaters gequält wird und nur widerwillig zustimmt, dem ehemaligen Detective Rhyme zu helfen, einen Serienmörder zu jagen. Der Film spielte weltweit 151 Mio. US-Dollar ein, wurde jedoch überwiegend negativ besprochen. Die Detroit Free Press schrieb: „Jolie, auch wenn sie immer köstlich anzusehen ist, ist schlicht und einfach fehlbesetzt.“ Danach nahm Jolie die Nebenrolle Lisa Rowe in "Durchgeknallt" (1999) an. Der Film erzählt die Geschichte der Psychiatriepatientin Susanna Kaysen und basiert auf Kaysens Memoiren "Girl, Interrupted". Das Psychodrama war ursprünglich als Comeback für die Hauptdarstellerin Winona Ryder konzipiert, wurde stattdessen aber zu Jolies endgültiger Etablierung in Hollywood. Sie gewann ihren dritten Golden Globe, ihren zweiten Screen Actors Guild Award und den Oscar als beste Nebendarstellerin. Variety schrieb, „Jolie ist ausgezeichnet als das extravagante, unverantwortliche Mädchen, das sich letztendlich als viel entscheidender für Susannas Rehabilitation erweist als die Ärzte“ und Roger Ebert urteilte über ihre Leistung: „Jolie entwickelt sich zu einem der großen Freigeister gegenwärtiger Filme, eine lose Kanone, die dennoch tödlich ins Ziel trifft.“ Im Sommer 2000 spielte Jolie in ihrem ersten Blockbuster, "Nur noch 60 Sekunden" die Rolle der Sarah „Sway“ Wayland, die Ex-Freundin eines Autodiebs, der von Nicolas Cage verkörpert wird. Die Rolle war verhältnismäßig klein und die Washington Post kritisierte: „Alles was sie in diesem Film tut, ist herumstehen, sich abkühlen und ihre fleischigen, pulsierenden Muskelröhren zur Schau stellen, die so provozierend um ihre Zähne herum nisten.“ Sie erklärte später, der Film sei für sie nach der anstrengenden Rolle in "Durchgeknallt" eine willkommene Abwechslung gewesen – und es wurde zunächst ihr kommerziell erfolgreichster Film mit einem internationalen Einspielergebnis von 237 Mio. US-Dollar. Internationaler Erfolg (seit 2001). Obwohl Jolie nach dem Oscargewinn für ihre schauspielerischen Fähigkeiten bekannt war, hatten ihre Filme bis dahin selten ein breites Publikum erreicht, doch "" (2001) machte sie zu einem internationalen Superstar. Die Titelrolle des bekannten Videospiels verlangte von ihr einen britischen Akzent und ein umfassendes Martial-Arts-Training. Sie erhielt große Anerkennung für ihre Darbietung, der Film wurde jedoch allgemein negativ aufgenommen. Das Slant Magazine schrieb: „Angelina Jolie wurde geboren, um Lara Croft zu spielen, aber Regisseur Simon West erlaubt ihr nur einen Ausflug in ein billiges Computerspiel.“ Der Film wurde trotzdem zu einem großen internationalen Erfolg, er spielte weltweit 275 Millionen US-Dollar ein und begründete Jolies Reputation als weiblicher Action-Star. Anschließend erschien Jolie als Katalogbraut Julia Russell neben Antonio Banderas in "Original Sin" (2001), einem auf Cornell Woolrichs Roman "Waltz into Darkness" basierenden Thriller. Der Film fiel bei der Kritik weitgehend durch und die "New York Times" bemerkte: „Die Geschichte sinkt steiler in sich zusammen als Frau Jolies gewagtes Dekolleté.“ 2002 spielte sie Lanie Kerrigan in "Leben oder so ähnlich", einem Film über eine ehrgeizige Fernsehreporterin, der prophezeit wird, binnen einer Woche zu sterben. Der Film erhielt negative Kritiken, auch wenn Jolies Spiel häufig positiv hervorgehoben wurde. Paul Clinton von CNN urteilte: „Jolie ist ausgezeichnet in ihrer Rolle. Trotz eines teilweise lächerlichen Plots in der Mitte des Films ist die Oscar-gekrönte Schauspielerin äußerst glaubhaft in ihrer Selbstfindung um die wahre Bedeutung vom erfüllten Leben.“ Jolie kehrte 2003 in ihrer Rolle als Lara Croft in "" zurück. Die Fortsetzung erwies sich als weniger erfolgreich als der erste Teil, spielte aber dennoch 157 Millionen US-Dollar an den internationalen Kinokassen ein. Im selben Jahr trat sie außerdem in "Jenseits aller Grenzen" auf, einem Film über humanitäre Hilfe in Afrika. Der Film fiel bei Kritikern und Publikum durch und Jolie wurde für die Goldene Himbeere als schlechteste Schauspielerin nominiert. Die Los Angeles Times schrieb: „Jolie kann Lebhaftigkeit und Glaubwürdigkeit in Figuren bringen, die eine für sie nachvollziehbare Realität haben, wie sie es in ihrer Oscar-Rolle in ‚Durchgeknallt‘ bewies. Sie kann auch bekannte Cartoons spielen, was sie in den Lara-Croft-Filmen zeigte. Aber der Limbo eines gespaltenen Charakters, einer schlecht geschriebenen Figur in einer von Fliegen befallenen und mit Blut und Eingeweiden übersäten Welt, besiegt sie völlig.“ Weiterhin war sie im Musikvideo zu "Did My Time" der Band Korn zu sehen. 2004 war Jolie zusammen mit Ethan Hawke und Kiefer Sutherland in dem Thriller "Taking Lives" auf der Leinwand zu sehen. Sie spielte Illeana Scott, eine FBI-Profilerin, die die Polizei in Montreal dabei unterstützen soll, einen Serienmörder zu überführen. Der Film stieß auf gemischte Reaktionen und brachte ihr eine zweite Himbeeren-Nominierung ein. Der Hollywood Reporter schrieb: „Angelina Jolie spielt eine Rolle, die sich wie etwas anfühlt, das sie schon einmal getan hat, aber sie fügt einen unverkennbaren Schuss von Aufregung und Glamour hinzu.“ Jolie lieferte die Stimme für Lola, einem Fisch im DreamWorks SKG Animationsfilm "Große Haie – Kleine Fische" (2004); weitere Rollen wurden von Will Smith, Martin Scorsese, Renée Zellweger, Jack Black und Robert De Niro gesprochen. Jolie übernahm 2004 auch einen kurzen Gastauftritt als "Franky" in "Sky Captain and the World of Tomorrow" neben Jude Law, einem Science-Fiction-Film, der komplett vor einem Bluescreen gedreht wurde und bei dem fast alle Sets und Requisiten in der Nachbearbeitung computergeneriert eingefügt wurden. Jolie spielte außerdem Olympias in "Alexander" (2004), Oliver Stones Filmbiographie über das Leben von Alexander dem Großen. Der Film fiel in den Vereinigten Staaten durch, was Stone mit der Darstellung von Alexander als homosexuell in Verbindung brachte, außerhalb Nordamerikas spielte er jedoch 133 Mio. US-Dollar ein. Newsday schrieb über Jolies Leistung: „Jolie ist die Einzige im gesamten Film, die Spaß mit ihrer Rolle zu haben scheint, und man vermisst sie jedes Mal, wenn sie nicht auf der Leinwand zu sehen ist.“ Jolies einziger Film aus dem Jahr 2005, Doug Limans Actionkomödie "Mr. & Mrs. Smith", wurde ihr größter kommerzieller Erfolg. Der Film erzählt eine Geschichte von gelangweilten Eheleuten, die herausfinden, dass sie beide ein Doppelleben als Profikiller führen. Jolie spielte die Agentin Jane Smith neben Brad Pitt. Der Film wurde überwiegend positiv aufgenommen und besonders die gute Chemie zwischen den beiden Hauptdarstellern hervorgehoben. Die "Star Tribune" erklärte: „Während die Geschichte willkürlich erscheint, lebt der Film von seinem geselligen Charme, der galoppierenden Energie und der thermonuklearen Chemie zwischen den beiden Stars.“ Der Film spielte weltweit über 478 Mio. US-Dollar ein und wurde zu einem der größten Erfolge des Kinojahres. In dem folgenden Jahr übernahm Jolie neben Matt Damon eine Nebenrolle in Robert De Niros "Der gute Hirte", einem Film über die frühe Geschichte der CIA, erzählt aus der Sicht von Edward Wilson. Jolie trat als Margaret Russell auf, Wilsons vernachlässigte Ehefrau, die zunehmend unter den Auswirkungen der Arbeit ihres Ehemanns leidet. Die "Chicago Tribune" kommentierte: „Jolie altert überzeugend im Laufe des Films und ist erfreulich unbesorgt, wie ihre spröde Figur beim Publikum ankommen könnte.“ Jolie spielte außerdem Mariane Pearl in Michael Winterbottoms Dokumentardrama "Ein mutiger Weg" (2007) über die Entführung und Ermordung des Wall-Street-Journal-Reporters Daniel Pearl in Pakistan. Der Film basiert auf Mariane Pearls Memoiren "Ein mutiges Herz: Leben und Tod des Journalisten Daniel Pearl" und hatte seine Uraufführung bei den Filmfestspielen in Cannes. Der Hollywood Reporter beschrieb Jolies Darstellung als „akkurat und bewegend, respektvoll gespielt und den schwierigen Akzent dabei fest im Griff.“ Sie erhielt für die Rolle ihre vierte Golden-Globe- und die dritte Screen-Actors-Guild-Award-Nominierung. Daneben trat sie als Grendels Mutter in einer Nebenrolle in Robert Zemeckis’ animiertem Epos "Die Legende von Beowulf" (2007) auf, der mit Hilfe der Motion-Capture-Technik gefilmt wurde. Im Sommer 2008 war sie in dem Actionfilm "Wanted", einer Adaption der gleichnamigen Graphic Novel von Mark Millar zu sehen sowie in dem Animationsfilm "Kung Fu Panda" (DreamWorks SKG) als Stimme der Tigerin zu hören. "Wanted", der in Deutschland keine Jugendfreigabe erhielt, löste eine Diskussion um die Darstellung von Gewalt im Kino aus, war jedoch mit einem Einspielergebnis von 343 Mio. US-Dollar weltweit erfolgreich. Clint Eastwood wählte sie als Hauptdarstellerin für seinen Thriller "Der fremde Sohn". Dieser Film erhielt sehr gute Kritiken und wurde 2008 bei den Filmfestspielen von Cannes gezeigt. Jolie wurde für ihre Darstellung der um ihren Sohn kämpfenden Christine Collins erstmals für den Oscar als Beste Hauptdarstellerin nominiert. 2009 begann sie mit den Dreharbeiten zu dem Action-Thriller "Salt", in dem sie die Agentin Evelyn Salt spielt, die der Spionage bezichtigt wird und daraufhin eine neue Identität annehmen muss. "Salt" kam im Sommer 2010 in die deutschen Kinos. Im Februar 2010 begannen die Dreharbeiten zu dem Film "The Tourist", bei dem Florian Henckel von Donnersmarck Regie führte und Jolie an der Seite von Johnny Depp die Hauptrolle spielte. Der Film feierte seine Weltpremiere am 6. Dezember 2010 in New York und spielte weltweit über 278 Millionen US-Dollar an den Kinokassen ein. Sowohl Depp als auch Jolie wurden für ihre schauspielerischen Leistungen in dem Thriller für den Golden Globe Award nominiert, gingen aber bei der Verleihung am 16. Januar 2011 leer aus. Bei den Teen Choice Awards 2011 wurde Jolie für ihre Darbietung in "The Tourist" als beste Action-Schauspielerin ausgezeichnet. Am 18. Juni 2012 begannen die Dreharbeiten zu "Maleficent – Die dunkle Fee", in dem Jolie die titelgebende Hauptrolle spielt. "Maleficent" ist eine auf dem Disney-Zeichentrickklassiker "Dornröschen" (1959) basierende Realverfilmung, deren Weltpremiere am 7. Mai 2014 in London stattfand. In mehreren Interviews betonte Jolie, dass sie selbst Maleficent schon als Kind bewundert habe. Regie. Mit dem Dokumentarfilm "A Place in Time" gab Jolie 2007 ihr Regiedebüt. Der Film beschreibt das Geschehen an 27 verschiedenen Orten der Welt innerhalb einer Woche. An dem Projekt, das vor allem zur Vorführung an Schulen gedacht ist, wirkten unter anderen ihre Schauspielkollegen Jude Law, Hilary Swank, Colin Farrell und ihr Ex-Mann Jonny Lee Miller mit. Im Herbst 2010 fanden die Dreharbeiten zu "In the Land of Blood and Honey" statt. Das Kriegsdrama, bei dem Jolie Regie führte und für das sie das Drehbuch schrieb, erzählt eine Liebesgeschichte während des Bosnienkrieges von 1992 bis 1995. Jolie besetzte die Rollen ausschließlich mit bosnischen, serbischen und kroatischen Schauspielern wie Zana Marjanović, Nikola Djuricko und Rade Šerbedžija, die den Krieg selbst miterlebt hatten. „[Sie] waren außergewöhnlich. Ich fühlte mich privilegiert und geehrt, mit ihnen arbeiten zu dürfen und freue mich sehr darauf, dass alle bald deren unglaubliches Talent sehen können“, sagte Jolie der Branchenzeitschrift "The Hollywood Reporter". Nachdem Gerüchte über die Filmhandlung in Umlauf gebracht worden waren, wonach der Film die Liebe einer bosnischen Frau zu ihrem serbischen Vergewaltiger thematisieren würde, rief dies scharfe Kritik und Proteste unter anderem von der bosnischen Vereinigung "Women Victims of War" hervor. Bosniens Kulturminister Gavrilo Grahovac entzog Jolie daraufhin vorübergehend die Drehgenehmigung für die Hauptstadt Sarajevo, weshalb große Teile des Films in Budapest gedreht wurden. Die Gerüchte sollten sich später als falsch erweisen. Der Film lief am 23. Dezember 2011 in den amerikanischen Kinos an. Er wurde als bester fremdsprachiger Film bei den Golden Globe Awards 2012 nominiert. Im Oktober 2013 begann Jolie in Australien unter dem Titel "Unbroken" mit der Verfilmung der Lebensgeschichte von Louis Zamperini. Der Film, für den Ethan und Joel Coen das Drehbuch schrieben, basiert auf Laura Hillenbrands Buch "" aus dem Jahr 2010. Von August bis November 2014 fanden auf Malta die Dreharbeiten des Filmdramas "By the Sea" statt, für das sie das Drehbuch geschrieben hatte und bei dem sie die Regie und die Hauptrolle an der Seite von Brad Pitt übernahm. Es war das erste Mal seit Mr. & Ms. Smith, dass Jolie und Pitt wieder Seite an Seite vor der Kamera standen. Die Kritiken für den Film waren weitestgehend negativ. Humanitäres Engagement. Bei den Dreharbeiten zu "Lara Croft: Tomb Raider" im zu großen Teilen verminten Kambodscha kam Jolie zum ersten Mal persönlich mit konkreten humanitären Problemen in Kontakt. Sie wandte sich an das UN-Flüchtlingshilfswerk UNHCR, um weitere Informationen über internationale Krisenherde zu erhalten und stimmte in den darauf folgenden Monaten zu, verschiedene Flüchtlingslager zu besuchen. Im Februar 2001 brach sie zu ihrer ersten Reise auf, einer achtzehntägigen Mission durch Sierra Leone und Tansania; sie berichtete später, wie schockiert sie von den Bedingungen war, die sie dort vorfand. Sie kehrte für zwei Wochen nach Kambodscha zurück und besuchte danach afghanische Flüchtlinge in Pakistan, für die sie im Rahmen eines internationalen UNHCR-Dringlichkeitsappells eine Million US-Dollar spendete. Sie bestand darauf, alle im Zusammenhang ihrer Reisen entstandenen Kosten selbst zu übernehmen, und teilte bei ihren Besuchen die spärlichen Arbeitsbedingungen und Unterbringungen mit den Helfern vor Ort. UNHCR zeigte sich von Jolies Interesse für Flüchtlinge beeindruckt und ernannte sie am 27. August 2001 im Genfer Hauptquartier Palais des Nations zur UNHCR-Sonderbotschafterin. In einer Pressekonferenz erklärte sie ihre Beweggründe, der Flüchtlingsorganisation beizutreten: „Wir können uns nicht vor Informationen verschließen und die Tatsache ignorieren, dass es Millionen von Menschen auf der Welt gibt, die leiden. Ich möchte helfen. Ich glaube nicht, dass ich mich dabei von anderen Menschen unterscheide. Ich denke, wir wünschen uns alle Gerechtigkeit und Gleichheit, eine Chance für ein Leben mit Bedeutung. Wir alle würden gerne daran glauben, dass uns jemand beistünde, sollten wir einmal in eine schlechte Situation geraten.“ Während ihrer ersten drei Jahre als Sonderbotschafterin konzentrierte Jolie ihre Bemühungen auf Reisen und besuchte Flüchtlinge in verschiedenen Teilen der Welt. Auf die Frage, was sie zu erreichen erhoffe, antwortete sie: „Mehr Bewusstsein über die Lage dieser Menschen zu schaffen. Ich denke, sie sollten dafür gelobt werden, was sie überlebt haben und nicht auf sie herab gesehen werden.“ 2002 besuchte Jolie das "Tham Hin"-Flüchtlingslager in Thailand und kolumbianische Flüchtlinge in Ecuador. Sie reiste außerdem zu UNHCR-Einrichtungen im Kosovo und stattete dem Kakuma-Flüchtlingslager in Kenia, das Vertriebene aus dem Sudan aufnahm, einen Besuch ab. Während der Dreharbeiten zu "Jenseits aller Grenzen" besuchte sie außerdem angolanische Flüchtlinge in Namibia. Im Film wurde das humanitäre Engagement Jolies für das UN-Flüchtlingshilfswerk UNHCR eingebunden. 2003 unternahm Jolie eine sechstägige Mission nach Tansania, wo sie Lager für kongolesische Flüchtlinge in der westlichen Grenzregion besuchte, und sie reiste für eine Woche nach Sri Lanka. Sie begab sich außerdem auf eine viertägige Mission in den Nordkaukasus in Russland und veröffentlichte zum Kinostart von "Jenseits aller Grenzen" im Oktober 2003 das Buch "Tagebuch einer Reise – Begegnungen mit Flüchtlingen in Afrika, Kambodscha, Pakistan und Ecuador", eine Zusammenstellung von Notizen ihrer frühen Reisen (2001–2002). Bei einem privaten Aufenthalt in Jordanien im Dezember 2003 besuchte sie irakische Flüchtlinge in der jordanischen Wüste und sudanesische Flüchtlinge in Ägypten. Angelina Jolie und Brad Pitt unterstützen die SOS-Kinderdörfer bereits seit Längerem mit größeren finanziellen Beiträgen. Dabei sorgen sie insbesondere für Darfur und Haiti. Angelina Jolie hat sich schon im Jahr 2003 ein persönliches Bild von der Situation vor Ort verschafft und die Kinder im Katastrophengebiet in Haiti, genauer gesagt im SOS-Kinderdorf Santo bei Port-au-Prince, besucht. Auf ihrer ersten UN-Reise innerhalb der USA begab sich Jolie 2004 nach Arizona, wo sie Asylbewerber in drei Einrichtungen besuchte, und sie besichtigte in Phoenix Unterbringungen für Kinder und Jugendliche ohne Begleitung oder rechtlichen Beistand. Als Reaktion auf die sich durch den Darfur-Konflikt verschlechternde humanitäre Situation im Westen Sudans flog sie im Juni 2004 nach Tschad und inspizierte Flüchtlingslager im Grenzgebiet zu Darfur. Vier Monate später kehrte sie in die Region zurück und begab sich direkt nach West-Darfur. Jolie besuchte 2004 auch afghanische Flüchtlinge in Thailand und stattete während eines privaten Aufenthalts im Libanon zur Weihnachtszeit dem regionalen UNHCR-Büro in Beirut einen Besuch ab und traf sich dort mit jungen Flüchtlingen und Krebspatienten. Jolie besuchte im Mai 2005 afghanische Flüchtlinge in Pakistan und traf sich mit Pakistans Präsidenten Pervez Musharraf und Premierminister Shaukat Aziz. Sie kehrte im November zusammen mit Brad Pitt nach Pakistan zurück, um die Folgen des Erdbebens in Kaschmir zu sehen. 2006 besuchten Jolie und Pitt eine vom Hip-Hop-Musiker Wyclef Jean und seiner Wohltätigkeitsorganisation Yéle Haïti unterstützte Schule in Haiti und statteten im November während der Dreharbeiten zu "Ein mutiger Weg" in Indien afghanischen und birmanischen Flüchtlingen in Neu-Delhi einen Besuch ab. Jolie verbrachte den ersten Weihnachtstag 2006 mit kolumbianischen Flüchtlingen in San José, Costa Rica, wo sie Geschenke verteilte und sich mit Regierungsbeamten traf. Im Februar 2007 kehrte Jolie für eine zweitägige Mission nach Tschad zurück, um sich ein Bild von der sich verschlechternden Sicherheitslage für Flüchtlinge aus Darfur zu machen; Jolie und Pitt spendeten daraufhin eine Million US-Dollar an drei Hilfsorganisationen in Tschad und Darfur. Im August 2007 unternahm Jolie ihre erste Reise nach Syrien und in den Irak, wo sie neben irakischen Flüchtlingen auch US-Truppen traf. Sechs Monate später kehrte sie in den Irak zurück. Dabei reiste sie in die Grüne Zone nach Bagdad und traf sich unter anderem mit dem irakischen Ministerpräsidenten Dschawad al-Maliki und dem US-Oberbefehlshaber in der Region, General David Petraeus. Mit zunehmender Erfahrung begann Jolie humanitäre Probleme auch auf einer politischen Ebene zu thematisieren. Sie nimmt regelmäßig an den Feierlichkeiten zum Weltflüchtlingstag in Washington, D.C. teil und war 2005 und 2006 Gastrednerin auf dem Weltwirtschaftsforum in Davos. Daneben versucht sie, Einfluss auf die Gesetzgebung in Washington zu nehmen. Sie traf sich seit 2003 mindestens zwanzig Mal mit Kongressabgeordneten und Senatoren. Sie erklärte: „Auch wenn ich es vorziehen würde, nie nach Washington kommen zu müssen, ist das der Ort, um etwas zu bewegen.“ Jolie unterstützte unter anderem ein Gesetz zum Schutz von minderjährigen Asylbewerbern und sie war im März 2005 an der Gründung einer nationalen Organisation beteiligt, die minderjährige Asylbewerber, die ohne Eltern oder Verwandte in die USA einreisen, kostenlos vor Gericht vertritt; Jolie finanzierte die Einrichtung mit einer Spende von 500.000 US-Dollar für die ersten zwei Jahre. Daneben unterstützte sie verschiedene Gesetzesvorhaben des US-Kongresses, die Entwicklungshilfe für Kinder in der Dritten Welt zu verbessern. Neben ihren politischen Aktivitäten begann Jolie, das öffentliche Interesse an ihrer Person darauf zu verwenden, humanitäre Probleme in den Massenmedien zu platzieren. Im Mai 2005 filmte sie die MTV-Sendung, "The Diary Of Angelina Jolie & Dr. Jeffrey Sachs in Africa", eine Dokumentation, die sie und den bekannten Wirtschaftswissenschaftler Jeffrey Sachs auf einer Reise nach Sauri, einer entlegenen Gruppe von Dörfern im westlichen Kenia, begleitete. Dort arbeitet Sachs’ Team des UN-Millennium-Projekts mit Einheimischen zusammen, um Armut, Hunger und Krankheiten zu beenden. Im September 2006 verkündete Jolie die Schaffung der Jolie/Pitt Foundation; die Stiftung tätigte zur Gründung zwei Spenden von jeweils einer Million US-Dollar an Global Action for Children und Ärzte ohne Grenzen. Jolie erntete breite Anerkennung für ihre humanitäre Arbeit. 2003 war sie die erste Preisträgerin des neu geschaffenen "Citizen of the World Award" des Verbandes der UNO-Korrespondenten und 2005 erhielt Jolie den "Global Humanitarian Award" von der UNA-USA, einer amerikanischen Einrichtung zur Unterstützung der UNO. Kambodschas König Norodom Sihamoni verlieh Jolie am 12. August 2005 die kambodschanische Staatsbürgerschaft als Dank für ihre Arbeit zur Erhaltung der Umwelt in seinem Land; sie sicherte 5 Millionen US-Dollar zu, um die Tierwelt innerhalb eines Nationalparks in der nordwestlichen Provinz Battambang zu erhalten, in der sie ein Haus besitzt. 2007 wurde Jolie Mitglied des Council on Foreign Relations und mit dem "Freedom Award" des International Rescue Committee ausgezeichnet. 2010 unterstützte Jolie die Initiative Ein Logo für Menschenrechte. Im April 2012 wurde Jolie zur Ehrenbürgerin Sarajevos ernannt. In der Begründung hieß es, sie habe mit ihrem Regiedebüt "In the Land of Blood and Honey" dazu beigetragen, ein Stück Geschichte zu wahren und „die Prinzipien der Menschlichkeit, Demokratie, ebenso wie die Toleranz und die Solidarität von Menschen unterschiedlicher ethnischer Herkunft, Religion und kulturellem Hintergrund zu schützen.“ Am 16. November 2013 wurde Angelina Jolie bei den Governors Awards in Los Angeles mit dem Jean Hersholt Humanitarian Award („Ehrenoscar“) für ihr humanitäres Engagement unter anderem als Sondergesandte des UN-Flüchtlingshochkommissariats ausgezeichnet. Nach dem Erscheinen ihres Films "In the Land of Blood and Honey" führte Jolie zusammen mit dem britischen Außenminister William Hague eine zweijährige Kampagne gegen Vergewaltigung als Kriegstaktik, die im Juni 2014 mit einer Gipfelkonferenz in London abgeschlossen wurde. Ziel der Kampagne war es, die Verdrängung und Banalisierung des Themas zu beenden und die Weltgemeinschaft zum Engagement gegen sexuelle Gewalt in Konflikten aufzurufen. Aufgrund ihres Engagements wurde Angelina Jolie 2014 von Königin Elizabeth II. mit dem Ordenszeichen Honorary Dame Commander des Most Distinguished Order of St. Michael and St. George geehrt. Seit 2012 lässt sich Jolie von der britischen Politikerin und Menschenrechtlerin Arminka Helic und der britischen Außenpolitik-Spezialistin Chloe Dalton beraten. Nachdem Angelina Jolie 2001–2012 Sonderbotschafterin des UNHCR war, wurde sie im April 2012 zur Sondergesandten ("special envoy") des Hohen Flüchtlingskommissars der Vereinten Nationen (UNHCR) ernannt. Am 16. Dezember 2022 gab sie ihren Rücktritt vom Amt der Sondergesandten bekannt. Sie wolle aber weiter der Flüchtlingsarbeit verbunden bleiben. Sonstige Aktivitäten. Seit 2007 ist Jolie Mitglied des Council on Foreign Relations. Privatleben. Am 28. März 1996 heiratete Jolie den britischen Schauspielkollegen Jonny Lee Miller, den sie während der Dreharbeiten zu "Hackers – Im Netz des FBI" kennengelernt hatte. Jolie und Miller trennten sich ein Jahr später, wurden im Februar 1999 geschieden, blieben aber befreundet. Während der Dreharbeiten zu "Foxfire" (1996) ging Jolie eine sexuelle Beziehung mit ihrer Filmpartnerin Jenny Shimizu ein. Als sie 2003 in einem Interview mit Barbara Walters gefragt wurde, ob sie bisexuell sei, bestätigte Jolie dies. Am 5. Mai 2000 heiratete Jolie den 20 Jahre älteren Schauspielkollegen Billy Bob Thornton, ihren Filmpartner aus "Turbulenzen – und andere Katastrophen". Am 10. März 2002 adoptierten sie einen kambodschanischen Jungen (* 5. August 2001) aus einem Waisenhaus in Phnom Penh. Nach der Scheidung von Thornton am 27. Mai 2003 erhielt sie das alleinige Sorgerecht. Im Juli 2002 reichte Jolie einen Antrag auf Namensänderung ein, um Voight als Familiennamen zu streichen und ihren bürgerlichen Namen in Angelina Jolie zu ändern; die Änderung wurde am 12. September 2002 offiziell bestätigt. Im August desselben Jahres sagte Jon Voight im US-Fernsehen, seine Tochter habe „ernste emotionale Schwierigkeiten“. Jolie erklärte 2004, sie sei nicht länger an einer Beziehung zu ihrem Vater interessiert. Sie gab an, dass sie die genauen Gründe für die Entfremdung von ihrem Vater nicht öffentlich machen wolle, aber sie glaube, es sei schädlich für sie, sich weiterhin mit ihrem Vater einzulassen, da sie gerade ein Kind adoptiert habe. Im Frühjahr 2005 geriet Jolie ins Visier der Boulevardpresse. Sie sei der Trennungsgrund des Schauspielerehepaares Brad Pitt und Jennifer Aniston. Die Boulevardmedien spekulierten, ob sie und Pitt während der Dreharbeiten von "Mr. & Mrs. Smith" eine Affäre begonnen hätten. Jolie bestritt dies in verschiedenen Interviews. Am 6. Juli 2005 adoptierte Jolie einen verwaisten weiblichen äthiopischen Säugling aus einem Waisenhaus in Addis Abeba (* 8. Januar 2005). Nach einem Jahr intensiver Berichterstattung der Boulevardmedien, in dem sich beide – auch nach der Scheidung Pitts von Aniston im Oktober 2005 – nie zum Wesen ihrer Beziehung geäußert hatten, offenbarte Jolie am 11. Januar 2006 gegenüber der Zeitschrift "People", dass sie ein Kind von Pitt erwarte. Kurz darauf wurde die von Pitt beantragte Adoption von Jolies Adoptivkindern rechtsgültig. Die erste leibliche Tochter des Paares wurde am 27. Mai 2006 in Namibia geboren. Für die Erlaubnis zur Veröffentlichung der ersten Fotos zahlte die Zeitschrift "People" dem Paar 4,1 Millionen US-Dollar – den bis dahin höchsten Preis für sogenannte „Celebrity-Fotos“. Am 15. März 2007 adoptierte Jolie – wegen des vietnamesischen Adoptionsrechts zunächst allein – einen Jungen (* 29. November 2003) aus einem Waisenhaus in Ho-Chi-Minh-Stadt. Ein Jahr später wurde auch Pitts Adoption des Jungen rechtskräftig. Beim Filmfestival von Cannes im Mai 2008 bestätigte Jolie ihre Schwangerschaft mit Zwillingen. Diese wurden am 12. Juli 2008 in Nizza geboren. Die Rechte an den ersten öffentlichen Fotos der Zwillinge gingen für 14 Millionen US-Dollar erneut an die Zeitschrift "People". Am 14. Mai 2013 veröffentlichte Jolie im Op-Ed der "New York Times" einen Debattenbeitrag mit dem Titel "My Medical Choice", in dem sie davon berichtete, dass sie sich einer beidseitigen prophylaktischen Mastektomie unterzogen habe, um ihr hohes individuelles Brustkrebsrisiko zu minimieren. Ohne Operation habe ihr Risiko, an Brustkrebs zu erkranken, aufgrund einer Mutation im BRCA1-Gen 87 % betragen. Ihr Risiko eines Eierstockkrebses sei auf 50 % geschätzt worden. Die Berichterstattung bewirkte, dass sich Frauen weltweit vermehrt für Brust-Diagnostik und genetische Beratung interessierten ("Jolie-Effekt"). Am 24. März 2015 veröffentlichte Jolie unter dem Titel "Diary of a Surgery" einen weiteren Gastbeitrag in der "New York Times", in dem sie mitteilte, dass sie sich inzwischen auch einer prophylaktischen Entfernung beider Eierstöcke und der Eileiter unterzogen habe. Nachdem Pitts Managerin im April 2012 bereits die Verlobung des Paares bekanntgegeben hatte, heirateten Jolie und Pitt am 23. August 2014 auf ihrem Weingut "Château Miraval" an der Côte d’Azur im Beisein von Familie und Freunden. Ihr bürgerlicher Name lautet seit der Eheschließung Jolie Pitt. Zur Hochzeit schenkte sie Pitt die Schreibmaschine von Ernest Hemingway im Wert von 250.000 US-Dollar. Nach zweijähriger Ehe reichte Jolie im September 2016 die Scheidung von Pitt ein. Jolie hat mindestens 20 Tätowierungen (Stand: Februar 2016). Darunter befindet sich ein traditionelles Khmer-Tattoo, das Unglück und Unfälle abwenden soll, ein Ausspruch von Tennessee Williams „A prayer for the wild at heart, kept in cages“, ein zwölf Zoll (30,5 cm) großer Tiger und die geographischen Koordinaten der Geburtsorte von Brad Pitt und ihren Kindern. Sie ließ verschiedene Tätowierungen entfernen, darunter auch den Schriftzug "Billy Bob", den Vornamen ihres zweiten Ehemanns. Medienpräsenz. Jolie ist heute eine der bekanntesten Persönlichkeiten weltweit. Laut Q-Score-Index von Marketing Evaluations Inc. kannten Jolie nach ihrem Oscargewinn 31 % der Befragten in den Vereinigten Staaten im Jahr 2000, 2006 war sie bereits für 81 % aller US-Amerikaner ein Begriff. In einer globalen Studie auf 42 internationalen Märkten von ACNielsen aus dem Jahr 2006 wurde Jolie zusammen mit Brad Pitt zur weltweit bevorzugten Werbeträgerin für Marken und Produkte ermittelt. Daneben wurde Jolie 2006 und 2008 von Time in deren jährliche Liste der 100 einflussreichsten Personen der Welt aufgenommen. Vom US-Wirtschaftsmagazin Forbes wurde Jolie auf der sogenannten „Celebrity 100“, einer Rangliste der einflussreichsten Prominenten, 2006 auf Position 35 und 2007 auf Rang 14 geführt. Im Februar 2007 wurde sie im Rahmen der britischen Fernsehshow "The 100 Greatest Sex Symbols" vor Elvis Presley und Marilyn Monroe zum größten Sexsymbol aller Zeiten gewählt. 2008 wählten die Leser der deutschen FHM Jolie auf einer Liste der 100 schönsten Frauen auf Platz 12. 2008 zählte Jolie laut Forbes Magazine zu den am besten verdienenden Schauspielerinnen in Hollywood. Zwischen Juni 2007 und Juni 2008 erhielt sie Gagen in Höhe von 14 Millionen US-Dollar. 2011 hatte sie in einem neuerlichen Forbes-Ranking die Spitzenposition durch ihr Mitwirken in "Salt" und "The Tourist" (30 Millionen US-Dollar) gemeinsam mit Sarah Jessica Parker inne. Das Ausmaß der Berichterstattung über Jolie wird auch daran deutlich, dass sie zwischen Mai 2011 und Mai 2012 auf den Titelblättern von mindestens 78 Zeitschriften zu sehen war. Filmografie (Auswahl). Schauspielerin Die deutsche Synchronstimme von Jolie ist seit dem Jahr 2000 bis auf wenige Ausnahmen Claudia Urbschat-Mingues. Regisseurin Drehbuchautorin Produzentin Synchronsprecherin Musikvideos Auszeichnungen (Auswahl). Auszeichnungen für ihre Leistungen als Schauspielerin. Academy Award of Merit („Oscar“) British Academy Film Award Emmy Award Golden Globe Award Nickelodeon Kids’ Choice Awards National Board of Review Award Screen Actors Guild Award Negativpreise Auszeichnungen als Regisseurin und Drehbuchautorin. Hollywood Film Award Literatur. Englischsprachige Literatur und Quellen
139
1376067
https://de.wikipedia.org/wiki?curid=139
Archimedes
Archimedes von Syrakus (griechisch Ἀρχιμήδης ὁ Συρακούσιος "Archimḗdēs ho Syrakoúsios"; * um 287 v. Chr. vermutlich in Syrakus; † 212 v. Chr. ebenda) war ein griechischer Mathematiker, Physiker und Ingenieur. Er gilt als einer der bedeutendsten Mathematiker der Antike. Seine Werke waren auch noch im 16. und 17. Jahrhundert bei der Entwicklung der höheren Analysis von Bedeutung. Leben. Über das Leben des Archimedes ist wenig bekannt und vieles gilt als Legende. Archimedes, geboren ca. 287 v. Chr. wahrscheinlich in der Hafenstadt Syrakus auf Sizilien, war der Sohn des Pheidias, eines Astronomen am Hof Hierons II. von Syrakus. Mit diesem und dessen Sohn und Mitregenten Gelon II. war er befreundet und möglicherweise verwandt. Bei einem längeren Aufenthalt in Alexandria, wo die Alexandrinische Schule entstanden war, lernte Archimedes die dortigen Mathematiker Konon, Dositheos und Eratosthenes kennen, mit denen er später weiter korrespondierte. Als er nach Syrakus zurückgekehrt war, betrieb er Mathematik und praktische Physik (Mechanik). Seine Wurfmaschinen wurden bei der Verteidigung von Syrakus gegen die römische Belagerung im Zweiten Punischen Krieg eingesetzt. Bei der Eroberung von Syrakus 212 v. Chr. nach dreijähriger Belagerung durch den römischen Feldherrn M. Claudius Marcellus wurde er sehr zum Bedauern von Marcellus, der ihn lebend gefangensetzen wollte, von einem römischen Soldaten getötet. Über die Umstände referiert Plutarch in seiner Biographie des Marcellus mehrere überlieferte Versionen, nach einer war er mit einem mathematischen Beweis beschäftigt und forderte einen beim Plündern der Stadt eindringenden Soldaten auf, ihn nicht zu stören, worauf der ihn erschlug. Sprichwörtlich wurden die Worte "Noli turbare circulos meos" (lateinisch für: „Störe meine Kreise nicht“), die Archimedes dabei gesprochen haben soll. Nach Plutarch hatte Archimedes sich testamentarisch ein Grab mit der Darstellung von Kugel und Zylinder gewünscht, da er offensichtlich auf seine Abhandlung "perì sphaíras kaì kylíndrou" („Über Kugel und Zylinder“) besonders stolz war. In dieser beschrieb Archimedes 225 v. Chr. das Verhältnis von Volumen und Oberfläche einer Kugel zu einem umschreibenden Zylinder gleichen Durchmessers, er bewies, dass dieses Verhältnis ⅔ beträgt. Cicero berichtet in den Tuskulanischen Gesprächen, dass er in seiner Zeit als Quästor in Sizilien (75 v. Chr.) nach dem Grab suchte und es nahe dem Tor nach Agrigent von Gestrüpp zugewuchert fand. Eine von seinem Freund Heracleides geschriebene Biographie ist nicht erhalten. Schriften. Die erhaltenen Hauptschriften sind: Hinzu kommen: Die hier angegebene Reihenfolge der Hauptschriften bis zur "Sandrechnung" entspricht der chronologischen Reihenfolge, wie sie von Thomas Heath angegeben wurde, wobei die "Quadratur der Parabel" zwischen den Büchern 1 und 2 von "Gleichgewicht ebener Flächen" eingeordnet wurde und "Über die Methode" zwischen "Gleichgewicht ebener Flächen", Buch 2, und "Über Kugel und Zylinder". An der Chronologie gab es aber auch Kritik. In der Quadratur der Parabel wird der kürzliche Tod seines Freundes Konon erwähnt, so dass sich diese Schrift um 240 v. Chr. datieren lässt. Nach der erwähnten relativen Datierung sind die meisten Werke des Archimedes erst danach entstanden. Das Buch über Spiralen wurde nach Archimedes Angaben viele Jahre nach dem Tod des Konon geschrieben, so dass es nach Ivo Schneider etwa 230 v. Chr. zu datieren ist. Schneider ordnet die Methodenlehre Ende der 220er Jahre ein und die "Schwimmenden Körper" als letztes Werk in die letzten acht Lebensjahre, aber wohl vor 216 v. Chr. wegen der nachfolgenden Kriegsereignisse. Es gibt Hinweise auf einige heute verloren gegangene Schriften, zum Beispiel über Polyeder und über Hebel (von Pappos erwähnt), über die Darstellung von Zahlen (von Archimedes in seinem "Sandrechner" erwähnt) und über Spiegel ("Catoptrica", von Theon von Alexandria erwähnt). Aus der Unvollständigkeit der "mechanischen Schriften" des Archimedes ("Gleichgewicht ebener Flächen", "Quadratur der Parabel") und mehrerer Hinweise bei Archimedes (und zum Beispiel bei Heron von Alexandria) wurde auf die Existenz verloren gegangener Teile seiner Mechanik geschlossen, die A. G. Drachmann zu rekonstruieren versuchte. Diese teilweise rekonstruierten mechanischen Schriften stehen chronologisch am Anfang der Werke des Archimedes. Es gibt einige Hinweise auf verloren gegangene Schriften des Archimedes in arabischer Übersetzung, so ein Buch über das Parallelenpostulat, das im Bücherkatalog von Ibn al-Nadim aufgeführt ist und möglicherweise die Behandlung des Themas bei Thabit Ibn Qurra beeinflusste. Werk. Archimedes war sowohl in der Mathematik als auch im Bereich der heutigen Physik gleichermaßen schöpferisch tätig. Physik. Archimedes werden die Erfindung und Kombination verschiedener Maschinenelemente zugeschrieben, wie Schrauben, Seilzüge mit Wellrädern, Flaschenzüge und Zahnräder, deren Funktionen er auch in der Praxis demonstriert haben soll. Obwohl er sich im Auftrag König Hierons der Entwicklung technischer Anwendungen widmete, bevorzugte er nach Überlieferungen Plutarchs das abstrakte Denken und sah auf die praxisbezogene Arbeit des Ingenieurs mit Verachtung herab. Aus diesem Grund hinterließ er auch keine Abhandlung über praktische Erfindungen. Seine Schriften zur Mechanik und Hydrostatik sind nach dem Vorbild der Geometrie streng axiomatisch aufgebaut. Hebelgesetz. Archimedes formulierte die Hebelgesetze (in seiner Schrift "Über das Gleichgewicht ebener Flächen") und schuf dadurch die theoretische Grundlage für die spätere Entwicklung der Mechanik. Er selbst entwickelte aus dem Hebelgesetz bereits die wissenschaftlichen Grundlagen der Statik für statisch bestimmte Systeme. Die Beschreibung des Hebels selbst findet sich schon in älteren griechischen Schriften aus der Schule des Aristoteles. Er soll (wie Pappos und andere überlieferten) gesagt haben: „“ („Gebt mir einen festen Punkt, und ich hebe die Welt aus den Angeln“). Darauf gründet sich der Begriff des archimedischen Punktes. Als er sich einmal gegenüber Hieron so äußerte, verlangte dieser nach Plutarch einen praktischen Beweis, und Archimedes bewerkstelligte unter anderem mit Flaschenzügen (Plutarch) und Seilwinden die Bewegung eines großen voll beladenen Schiffs durch einen einzigen Mann. Archimedisches Prinzip. Nach Vitruv sollte Archimedes den Goldgehalt einer vom Herrscher Hieron II. den Göttern geweihten Krone prüfen, ohne sie jedoch zu beschädigen. Der König verdächtigte den Goldschmied, ihn betrogen zu haben. Um die gestellte Aufgabe zu lösen, tauchte er einmal die Krone und dann einen Goldbarren (sowie einen Silberbarren), der genauso viel wog wie die Krone, in einen vollen Wasserbehälter und maß die Menge des überlaufenden Wassers. Die Krone verdrängte mehr Wasser als der Goldbarren. Dadurch war bewiesen, dass die Krone ein kleineres spezifisches Gewicht hatte und daher nicht ganz aus Gold gefertigt war. Archimedes soll der Legende nach das Archimedische Prinzip beim Baden entdeckt haben. Aus dem randvollen Wasserbehälter sei jene Wassermenge ausgelaufen, die er beim Hineinsteigen ins Bad mit seinem Körpervolumen verdrängte. Glücklich über seine Entdeckung soll er mit dem Ausruf „Heureka!“ (altgriechisch: , „Ich hab’s gefunden!“) nackt auf die Straße gelaufen sein. Die Anekdote von der Überprüfung des Goldgehalts der Krone Hierons durch Wasserverdrängung ist aber kritisiert worden – diese wäre mit den Mitteln der damaligen Zeit nur schwer durchzuführen gewesen und ist wahrscheinlich eine Legende. Schon Galileo Galilei vermutete deshalb 1586, Archimedes hätte stattdessen eine Waage benutzt zur Messung der Gewichte unter Auftrieb. Das Archimedische Prinzip kann bei jedem schwimmenden Körper Anwendung finden. Es stellt beim Schiffbau eine zwingend zu berücksichtigende Tatsache dar. Bei seinen hydrostatischen Experimenten entdeckte er zudem das Prinzip der kommunizierenden Gefäße. Mathematik. Flächenberechnungen. Archimedes bewies, dass sich der Umfang eines Kreises zu seinem Durchmesser genauso verhält wie die Fläche des Kreises zum Quadrat des Radius. Er nannte dieses (heute als Pi oder Kreiszahl bezeichnete) Verhältnis noch nicht π (Pi), gab aber eine Anleitung, wie man sich dem Verhältnis bis zu einer beliebig hohen Genauigkeit nähern kann, vermutlich das älteste numerische Verfahren der Geschichte. Mit seinen Überlegungen zur Flächen- und Volumenberechnung (u. a. mit einer exakten Quadratur der Parabel) nahm Archimedes Ideen der Integralrechnung viel später folgender Denker vorweg. Er ging dabei über die Eudoxos von Knidos zugeschriebene Exhaustionsmethode (Ausschöpfungsmethode) hinaus; beispielsweise wandte er bereits eine Form des Prinzips von Cavalieri an. 1906 fand Johan Ludvig Heiberg (1854–1928), ein dänischer Philologe und Professor an der Universität Kopenhagen, in Istanbul ein auf das 10. Jahrhundert datiertes Manuskript, das unter anderem eine Abschrift von Archimedes’ Schrift "Die Methode" enthielt. Darin gibt er eine mechanische Methode preis, mit der er viele seiner Resultate erzielt hatte, bevor er sie in geometrisch strenger Weise bewies. Die Methode entspricht einem "Wiegen" der zu vergleichenden Volumina bzw. Flächenstücke, allerdings in geometrischer Form. Bei seiner Beschreibung erwähnt Archimedes auch ein älteres Verfahren von Demokrit, bei dem es sich möglicherweise um das Wiegen von Modellen handelt. Siebeneck nach Archimedes. Von Thabit Ibn Qurra stammt die Übersetzung einer Abhandlung von Archimedes über die Konstruktion eines regulären Heptagons, bekannt als das "Siebeneck nach Archimedes". Diese Konstruktion des "Siebenecks nach Archimedes" ist, der Überlieferung nach, eine Neusis-Konstruktion auch Einschiebung (Neusis) genannt. Die Art und Weise, wie Archimedes selbst die Länge der Strecke gefunden hat – z. B. wie er das markierte Lineal angelegt hat – ist nicht überliefert. Stellenwertbasiertes Zahlensystem. Außerdem entwickelte Archimedes ein stellenwertbasiertes Zahlensystem mit der Basis 108. Er benutzte es, um astronomisch große Zahlen (bis zur Größe von 1064) mathematisch fassen zu können – dies in einer Zeit, in der seine Mitwelt eine Myriade (lit. 10.000) bereits mit „unendlich“ gleichsetzte. Anlass dafür war die Abhandlung "Über schwimmende Körper und die Sandzahl", auch kurz "Sandrechner" genannt, die er dem Sohn von Hieron II., Gelon, widmete. Darin heißt es: „Es gibt Leute, König Gelon, die der Meinung sind, die Zahl des Sandes sei unendlich groß […] Andere glauben zwar nicht, dass die Zahl unendlich sei, aber doch, dass noch keine Zahl genannt worden sei, die seine Menge übertreffen könnte.“ Da Gelon als König angesprochen wird, entstand die Schrift nach 240 v. Chr., als er Mitregent wurde (und vor Gelons Tod 216 v. Chr.). Er widerlegte diese Vorstellungen, indem er in der Abhandlung die Anzahl der Sandkörner, die alle Strände der Erde bedeckten, abschätzte und "benannte". Er ging sogar noch weiter und berechnete die Anzahl der Sandkörner, die man benötigte, um das ganze Universum mit Sand anzufüllen. Damals stellte man sich das Universum allerdings noch wesentlich kleiner vor – nämlich als Kugel von etwa der Größe unseres Sonnensystems. Archimedes’ Rechnung besagt demnach, dass in eine gedachte Kugel von der Größe unseres Sonnensystems etwa 1064 Sandkörner hineinpassen würden. Archimedisches Axiom. Obwohl nach ihm benannt, stammt das archimedische Axiom nicht von Archimedes, sondern geht auf Eudoxos von Knidos zurück, der dieses Prinzip im Rahmen seiner Größenlehre einführte. Archimedische Körper. Die Originalarbeit des Archimedes ist nicht erhalten geblieben. Allerdings existiert noch eine Schrift des Mathematikers Pappos (ca. 290–350 n. Chr.), in der erwähnt wird, dass Archimedes die 13 archimedischen Körper beschrieb. Technik. Archimedes hat die Technik seiner Zeit und die spätere Entwicklung der Technik, insbesondere der Mechanik, maßgeblich beeinflusst. Er selbst konstruierte allerlei mechanische Geräte, nicht zuletzt auch Kriegsmaschinen. Archimedische Schraube. Archimedes wird die Erfindung der sogenannten "archimedischen Schraube" zugeschrieben, zu der er angeregt wurde, nachdem er bei seinem Studienaufenthalt in Ägypten die dortigen einfachen Vorrichtungen zur Feldbewässerung gesehen hatte. Das Prinzip der archimedischen Schraube kommt heutzutage in modernen Förderanlagen, sogenannten Schneckenförderern, zum Einsatz. Möglicherweise wurde sie von Archimedes als Lenzpumpe für Schiffe entwickelt, denn nach Athenäus von Naukratis beauftragte König Hieron Archimedes mit dem Bau des größten Schiffs der damaligen Zeit, der Syracusia. Kriegsmaschinen bei der Belagerung von Syrakus. Archimedes soll nach Plutarch die Römer bei ihrer langwierigen Belagerung mit den von ihm entwickelten Kriegsmaschinen aufgehalten haben: So entwickelte er beispielsweise Wurfmaschinen und Katapulte oder auch Seilwinden, welche ein komplettes Schiff, voll beladen und mit gesamter Besatzung, durch Ziehen an einem einzigen Seil bewegten. Auch mächtige Greifarme, die feindliche Boote packten und angeblich in Stücke rissen, gehörten dazu. Die "Kralle von Archimedes" soll eine Waffe gegen angreifende Flotten gewesen sein, die in der Stadtmauer von Syrakus eingebaut war und bei dessen Belagerung gegen die Römische Flotte eingesetzt wurde. Die genaue Funktion dieser Waffe ist allerdings unklar. In alten Schriften wird die Waffe als ein Hebel mit einem großen Eisenhaken dargestellt. Bereits im Jahre 425 v. Chr. verfügte die Stadt Syrakus über eine als „Eisenhand“ beschriebene Seekriegswaffe, mit der man Schiffe entern konnte (Thukydides, Pel. Kr. IV, 25), möglicherweise ein Enterhaken. Brennspiegel. Außerdem soll Archimedes die Schiffe der Römer sogar über große Entfernung mit Hilfe von Spiegeln, die das Sonnenlicht umlenkten und fokussierten, in Brand gesteckt haben. Das wird von Lukian von Samosata und später von Anthemios von Tralleis berichtet. Dazu gibt es eine über 300 Jahre währende, heftige Kontroverse. Historisch sprechen die Quellenlage, Übersetzungsfragen ("pyreia" wurde oft mit Brennspiegel übersetzt, obwohl es nur „Entzündung“ heißt und auch Brandpfeile umfasst) und das erst Jahrhunderte spätere Auftauchen der Legende dagegen. Physikalische Gegenargumente sind die notwendige Mindestgröße und Brennweite eines solchen Spiegels, die zu erreichende Mindesttemperatur zur Entzündung von Holz (etwa 300 Grad Celsius) und die Zeit, die das zu entzündende Holzstück konstant beleuchtet bleiben muss. Technische Gegenargumente diskutieren die Herstellbarkeit solcher Spiegel zur damaligen Zeit, die Montage eines Spiegels oder Spiegelsystems und die Bedienbarkeit. Ein moderner Kritiker der Legende war der Pyrotechniker Dennis L. Simms. Zur Machbarkeit wurden mehrfach Experimente durchgeführt. Studenten des Massachusetts Institute of Technology und der University of Arizona haben 2005 erfolgreich mit 127 kleinen Spiegeln ein 30 Meter entferntes Modell einer Schiffswand entzündet, nachdem der Versuch zuvor mit zwei Spiegeln misslungen war. Allerdings musste der Himmel wolkenlos sein und das Schiff für rund 10 Minuten konstant bestrahlt werden. Ein unter Beteiligung der MIT-Studenten im Hafen von San Francisco an einem Fischerboot wiederholter Versuch in der Fernsehsendung MythBusters mit 500 Freiwilligen (gesendet im Januar 2006), der zu ähnlichen Ergebnissen kam, wurde deshalb als Fehlschlag eingestuft. Zusätzlich wurde angemerkt, dass das Meer in Syrakus im Osten liegt, die römische Flotte also am Morgen hätte angreifen müssen, und dass Wurfgeschosse und Brandpfeile effektiver gewesen wären. Möglicherweise entstand die Geschichte als Rückschluss aus der verlorenen Schrift von Archimedes "Katóptrika" ("Optik"). Weitere Erfindungen. Nach Cicero ("De re publica") brachte Marcellus zwei von Archimedes entwickelte mechanische Planetarien zurück nach Rom. Ähnliche Geräte wurden nach Cicero schon von Eudoxos von Knidos und Thales von Milet gebaut – archäologische Beweise für solche Instrumente fanden sich später im Antikythera-Mechanismus. Möglicherweise handelt die verlorengegangene, von Pappos erwähnte Schrift des Archimedes "Über die Herstellung von Sphären" vom Bau von Planetarien. Ihm wird auch die Erfindung eines Odometers zugeschrieben. Ein entsprechendes Odometer mit einem Zählmechanismus mit Bällen wurde von Vitruv beschrieben. Vitruv verrät den Erfinder nicht (nur, dass er von den "Alten" überliefert wurde), doch wurde auch hier Archimedes als Erfinder vermutet. Auch ein Wasseruhr-Mechanismus, der Bälle als Zähl-Hilfsmittel freigibt, beschrieben in einem arabischen Manuskript, wurde ihm zugeschrieben. Leonardo da Vinci und Petrarca (der sich auf eine Cicero-Handschrift berief) schrieben Archimedes die Erfindung einer Dampfkanone zu. Leonardo fertigte auch Rekonstruktionsskizzen für die von ihm Architronito genannte Maschine an. Es gab später Versuche von Nachbauten, wie von dem Griechen Ioannis Sakas 1981 und dem italienischen Ingenieur Cesare Rossi von der Universität Neapel 2010. Rossi gab dort auch den Brennspiegeln eine neue Interpretation – sie hätten demnach die Hitze für die Dampferzeugung geliefert. In den überlieferten antiken Schriften von und über Archimedes finden sich dafür aber keine Hinweise und Experten wie Serafina Cuomo sehen darin nur einen weiteren Beweis für den legendären Ruf von Archimedes, dem man alle möglichen Erfindungen zuschrieb. Prinzipiell war den Griechen die Dampfkraft bekannt (Heronsball, 1. Jahrhundert n. Chr.). Überlieferung. Die Kenntnis der Werke des Archimedes war trotz seiner von Legenden gespeisten Bekanntheit in der Antike nicht sehr verbreitet, im Gegensatz etwa zu Euklid, der sein Buch im damaligen wissenschaftlichen Zentrum Alexandria zusammenstellte. Allerdings wird er von den Mathematikern Heron, Pappos und Theon in Alexandria häufig erwähnt. Die Schriften wurden zwischen dem 6. und 10. Jahrhundert in Byzanz systematisch gesammelt und kommentiert. Bekannt ist der Kommentar des Eutokios (der von Ende des 5. Jahrhunderts bis Anfang des 6. Jahrhunderts lebte) zu den wichtigsten Archimedes-Schriften (Über Kugel und Zylinder, Kreismessung, Gleichgewicht ebener Flächen), der auch im Mittelalter in Westeuropa viel zur Kenntnis der Werke beitrug und anregend wirkte. Bei der ersten Zusammenstellung der Schriften in Byzanz spielten die Architekten der Hagia Sophia Isidor von Milet und Anthemios von Tralleis eine wichtige Rolle. Weitere Schriften kamen hinzu, bis im 9. Jahrhundert Leon von Thessaloniki die als Kodex A (Heiberg) bekannte Sammlung fast aller überlieferten Archimedischen Schriften (außer "Stomachion", "Rinderproblem", "Über die Methode" und "Über schwimmende Körper") herausbrachte. Das war eine der beiden Quellen für die lateinischen Übersetzungen von Wilhelm von Moerbeke (abgeschlossen 1269). Das andere ihm zur Verfügung stehende griechische Manuskript des Archimedes enthielt "Gleichgewicht ebener Flächen", "Quadratur der Parabel", "Über schwimmende Körper", vielleicht auch "Über Spiralen" und wurde von Heiberg Kodex B genannt. Das 1906 von Heiberg entdeckte Archimedes-Palimpsest (Kodex C, der vorher in Jerusalem war, es enthielt "Über die Methode", "Stomachion" und "Über Schwimmende Körper") war den Übersetzern in Mittelalter und Renaissance unbekannt. Die Kodizes A und B kamen aus dem Besitz der normannischen Könige in Sizilien in den Vatikan, wo Moerbeke sie für seine Übersetzung benutzte. Während Moerbekes Übersetzungs-Manuskript im Vatikan erhalten ist, ist Kodex B verloren. Von Kodex A sind dagegen mehrere Abschriften erhalten (neun sind bekannt), die zum Beispiel im Besitz von Kardinal Bessarion (heute in der Biblioteca Marciana) und Giorgio Valla waren. Das Original von Kodex A ist ebenfalls verschwunden. Die Übersetzungen Wilhelms von Moerbeke regten insbesondere die Gelehrten der Pariser Schule an (Nicole Oresme, Johannes de Muris). Es gibt auch eine arabische Textüberlieferung. Archimedes' wichtigste Werke "Über Kugel und Zylinder" und "Über Kreismessung" wurden schon im 9. Jahrhundert ins Arabische übersetzt und mindestens bis ins 13. Jahrhundert immer wieder neu herausgegeben. Sie wirkten auch ab dem 12. Jahrhundert im Westen. Insbesondere eine Übersetzung der Kreismessung aus dem Arabischen ins Lateinische, die wahrscheinlich von Gerhard von Cremona (12. Jahrhundert) stammt, war im Mittelalter einflussreich. Von ihm stammt auch eine lateinische Übersetzung eines Traktats der Banū Mūsā Brüder, das weitere Ergebnisse von Archimedes enthielt: neben Kreismessung und Satz des Heron (den die Araber häufig Archimedes zuschrieben) Teile aus "Über Kugel und Zylinder". Dieses als "Verba filiorum" bekannte Manuskript regte zum Beispiel auch Leonardo Fibonacci und Jordanus Nemorarius an. Beide wirkten als Mathematiker vor der Zeit, in der Moerbekes Übersetzung entstand. Um 1460 ließ Papst Nikolaus V. von Jakob von Cremona eine neue Übersetzung ins Lateinische anfertigen, basierend auf Kodex A. Sie enthielt auch die von Moerbeke noch nicht übersetzten Teile des Werks (Sandrechner und Kommentar des Eutokios zur Kreismessung). Da ihm Kodex B nicht zur Verfügung stand, enthält die Ausgabe nicht "Über schwimmende Körper". Diese Übersetzung wurde unter anderem von Nikolaus von Kues benutzt. Die erste gedruckte Ausgabe (von Auszügen abgesehen, die Giorgio Valla 1501 druckte) waren die lateinischen Übersetzungen von Kreismessung und Quadratur der Parabel von Luca Gaurico in Venedig 1503 (nach einem Manuskript aus Madrid). Sie wurden 1543 von Nicolo Tartaglia wieder veröffentlicht zusammen mit Moerbekes Übersetzungen von "Gleichgewicht ebener Flächen" und "Über schwimmende Körper". Die erste Ausgabe des griechischen Textes erschien 1544 in Basel (herausgegeben von Thomas Venatorius, deutsch Gechauff) zusammen mit einer lateinischen Übersetzung von Jakob von Cremona (korrigiert von Regiomontanus). Die Ausgabe enthielt auch die Kommentare von Eutokios. Für den lateinischen Text benutzte er eine von Regiomontanus um 1468 nach Deutschland gebrachte Abschrift der Übersetzung von Jakob von Cremona (bearbeitet von Regiomontanus) sowie für den griechischen Text eine von Willibald Pirckheimer aus Rom nach Nürnberg gebrachte Handschrift. Sie war eine Abschrift von Kodex A, weshalb in dieser "Editio Princeps"-Ausgabe auch "Über Schwimmende Körper" fehlt. 1558 erschien eine lateinische Übersetzung einiger Hauptschriften von Federicus Commandinus in Venedig. Wichtige weitere Ausgaben vor der Heiberg-Ausgabe waren von D´Rivault (Paris 1615), der nur die Propositionen auf Griechisch bringt und die Beweise in Latein, und von Giuseppe Torelli (Oxford 1794). Sonstiges. Ein Bildnis von Archimedes ist auf der höchsten Mathematikerauszeichnung, der Fields-Medaille, geprägt. Ihm zu Ehren wurde auf dem Mare Imbrium ein Mondkrater "Archimedes" genannt; siehe Archimedes (Mondkrater). Auch der Asteroid (3600) Archimedes trägt seinen Namen. István Száva schrieb den Roman "Der Gigant von Syrakus" (Prisma, Leipzig 1960, Corvina, Budapest 1960, 1968, 1978). Literatur. Übersichtsdarstellungen Gesamtdarstellungen und Untersuchungen Rezeption Weblinks. Digitalisate: Über Archimedes
140
2363550
https://de.wikipedia.org/wiki?curid=140
Aristoteles
Aristoteles (, Betonung lateinisch und deutsch: Aristóteles; * 384 v. Chr. in Stageira; † 322 v. Chr. in Chalkis auf Euböa) war ein griechischer Universalgelehrter. Er gehört zu den bekanntesten und einflussreichsten Philosophen und Naturforschern der Geschichte. Sein Lehrer war Platon, doch hat Aristoteles zahlreiche Disziplinen entweder selbst begründet oder maßgeblich beeinflusst, darunter Wissenschaftstheorie, Naturphilosophie, Logik, Biologie, Medizin, Physik, Ethik, Staatstheorie und Dichtungstheorie. Aus seinem Gedankengut entwickelte sich der Aristotelismus. Überblick. Leben. Der aus einer Arztfamilie stammende Aristoteles kam mit siebzehn Jahren nach Athen. Im Jahr 367 v. Chr. trat er in Platons Akademie ein. Dort beteiligte er sich an Forschung und Lehre. Nach Platons Tod verließ er 347 Athen. 343/342 wurde er Lehrer Alexanders des Großen, des Thronfolgers im Königreich Makedonien. 335/334 kehrte er nach Athen zurück. Er gehörte nun nicht mehr der Akademie an, sondern lehrte und forschte selbständig mit seinen Schülern im Lykeion. 323/322 musste er wegen politischer Spannungen Athen erneut verlassen und begab sich nach Chalkis, wo er bald darauf verstarb. Werk. Die an eine breite Öffentlichkeit gerichteten Schriften des Aristoteles in Dialogform sind verloren. Die erhalten gebliebenen Lehrschriften waren größtenteils nur für den internen Gebrauch im Unterricht bestimmt und wurden fortlaufend redigiert. Themenbereiche sind: Logik, Wissenschaftstheorie, Rhetorik: In den logischen Schriften arbeitet Aristoteles auf der Grundlage von Diskussionspraktiken in der Akademie eine Argumentationstheorie (Dialektik) aus und begründet mit der Syllogistik die formale Logik. Auf der Basis seiner Syllogistik erarbeitet er eine Wissenschaftstheorie und liefert unter anderem bedeutende Beiträge zur Definitionstheorie und Bedeutungstheorie. Die Rhetorik beschreibt er als die Kunst, Aussagen als plausibel zu erweisen, und rückt sie damit in die Nähe der Logik. Naturlehre: Aristoteles’ Naturphilosophie thematisiert die Grundlagen jeder Naturbetrachtung: die Arten und Prinzipien der Veränderung. Der damals aktuellen Frage, wie Entstehen und Vergehen möglich ist, begegnet er mit Hilfe seiner bekannten Unterscheidung von Form und Materie: Dieselbe Materie kann unterschiedliche Formen annehmen. In seinen naturwissenschaftlichen Werken untersucht er auch die Teile und die Verhaltensweisen der Tiere sowie des Menschen und ihre Funktionen. In seiner Seelenlehre – in der „beseelt sein“ „lebendig sein“ bedeutet – argumentiert er, dass die Seele, die die verschiedenen vitalen Funktionen von Lebewesen ausmache, dem Körper als seine Form zukomme. Er forscht aber auch empirisch und liefert bedeutende Beiträge zur zoologischen Biologie. Metaphysik: In seiner Metaphysik argumentiert Aristoteles (gegen Platons Annahme von abstrakten Entitäten) zunächst dafür, dass die konkreten Einzeldinge (wie Sokrates) die Substanzen, d. h. das Grundlegende aller Wirklichkeit sind. Dies ergänzt er um seine spätere Lehre, wonach die Substanz konkreter Einzeldinge ihre Form ist. Ethik und Staatslehre: Das Ziel des menschlichen Lebens, so Aristoteles in seiner Ethik, ist das gute Leben, das Glück. Für ein glückliches Leben muss man Verstandestugenden und (durch Erziehung und Gewöhnung) Charaktertugenden ausbilden, wozu ein entsprechender Umgang mit Begierden und Emotionen gehört. Seine politische Philosophie schließt an die Ethik an. Demnach ist der Staat als Gemeinschaftsform eine Voraussetzung für das menschliche Glück. Aristoteles fragt nach den Bedingungen des Glücks und vergleicht zu diesem Zweck unterschiedliche Verfassungen. Die Staatsformenlehre, die er entwickelt hat, genoss über viele Jahrhunderte unangefochtene Autorität. Dichtungstheorie: In seiner Theorie der Dichtung behandelt Aristoteles insbesondere die Tragödie, deren Funktion aus seiner Sicht darin besteht, Furcht und Mitleid zu erregen, um beim Zuschauer eine Reinigung von diesen Emotionen zu bewirken "(katharsis)." Nachwirkung. Das naturwissenschaftliche Forschungsprogramm des Aristoteles wurde nach seinem Tod von seinem Mitarbeiter Theophrastos von Eresos fortgesetzt, der auch die aristotelische Schule, den Peripatos, im juristischen Sinne gründete. Die Aristoteles-Kommentierung setzte erst im 1. Jahrhundert v. Chr. ein und wurde insbesondere von Platonikern betrieben. Durch die Vermittlung von Porphyrios und Boethius wurde die aristotelische Logik für das lateinischsprachige Mittelalter wegweisend. Seit dem 12./13. Jahrhundert lagen alle grundlegenden Werke des Aristoteles in lateinischer Übersetzung vor. Sie waren für den Wissenschaftsbetrieb der Scholastik bis in die Frühe Neuzeit maßgeblich. Die Auseinandersetzung mit der aristotelischen Naturlehre prägte die Naturwissenschaft des Spätmittelalters und der Renaissance. Im arabischsprachigen Raum war Aristoteles im Mittelalter der am intensivsten rezipierte antike Autor. Sein Werk hat auf vielfältige Weise die Geistesgeschichte geprägt; wichtige Unterscheidungen und Begriffe wie „Substanz“, „Akzidenz“, „Materie“, „Form“, „Energie“, „Potenz“, „Kategorie“, „Theorie“ und „Praxis“ gehen auf Aristoteles zurück. Leben. Aristoteles wurde 384 v. Chr. in Stageira, einer damals selbständigen ionischen Kleinstadt an der Ostküste der Chalkidike, geboren. Daher wird er mitunter „der Stagirit“ genannt. Sein Vater Nikomachos war Leibarzt des Königs Amyntas III. von Makedonien, seine Mutter Phaestis stammte aus einer Arztfamilie von Chalkis auf Euboia. Nikomachos starb, bevor Aristoteles volljährig wurde. Proxenos aus Atarneus wurde zum Vormund bestimmt. Erster Athenaufenthalt. 367 v. Chr. kam Aristoteles als Siebzehnjähriger nach Athen und trat in Platons Akademie ein. Dort beschäftigte er sich zunächst mit den mathematischen und dialektischen Themen, die den Anfang der Studien in der Akademie bildeten. Schon früh begann er Werke zu verfassen, darunter Dialoge nach dem Vorbild derjenigen Platons. Er setzte sich auch mit der zeitgenössischen Rhetorik auseinander, insbesondere mit dem Unterricht des Redners Isokrates. Gegen das auf unmittelbaren Nutzen abzielende pädagogische Konzept des Isokrates verteidigte er das platonische Erziehungsideal der philosophischen Schulung des Denkens. Er nahm eine Lehrtätigkeit an der Akademie auf. In diesem Zusammenhang entstanden als Vorlesungsmanuskripte die ältesten seiner überlieferten Lehrschriften, darunter die logischen Schriften, die später unter der Bezeichnung "Organon" („Werkzeug“) zusammengefasst wurden. Einige Textstellen lassen erkennen, dass der Hörsaal mit Gemälden geschmückt war, die Szenen aus dem Leben von Platons Lehrer Sokrates zeigten. Reisejahre. Nach Platons Tod verließ Aristoteles 347 v. Chr. Athen. Möglicherweise war er nicht damit einverstanden, dass Platons Neffe Speusippos die Leitung der Akademie übernahm; außerdem war er in politische Schwierigkeiten geraten. Im Jahr 348 v. Chr. hatte König Philipp II. von Makedonien die Chalkidike erobert, Olynth zerstört und auch Aristoteles’ Heimatstadt Stageira eingenommen. Dieser Feldzug wurde von der antimakedonischen Partei in Athen als schwere Bedrohung der Unabhängigkeit Athens erkannt. Wegen der traditionellen Verbundenheit der Familie des Aristoteles mit dem makedonischen Hof richtete sich die antimakedonische Stimmung auch gegen ihn. Da er kein Athener Bürger war, sondern nur ein Metöke von zweifelhafter Loyalität, war seine Stellung in der Stadt relativ schwach. Er folgte einer Einladung des Hermias, der die Städte Assos und Atarneus an der kleinasiatischen Küste gegenüber der Insel Lesbos beherrschte. Zur Sicherung seines Machtbereichs gegen die Perser war Hermias mit Makedonien verbündet. In Assos fanden auch andere Philosophen Zuflucht. Der sehr umstrittene Hermias wird von der ihm freundlichen Überlieferung als weiser und heldenhafter Philosoph, von der gegnerischen aber als Tyrann beschrieben. Aristoteles, der mit Hermias befreundet war, blieb zunächst in Assos; 345/344 v. Chr. übersiedelte er nach Mytilene auf Lesbos. Dort arbeitete er mit seinem aus Lesbos stammenden Schüler Theophrast von Eresos zusammen, der sein Interesse für Biologie teilte. Später begaben sich beide nach Stageira. 343/342 v. Chr. ging Aristoteles auf Einladung von Philipp II. nach Mieza, um dessen damals dreizehnjährigen Sohn Alexander (später „der Große“ genannt) zu unterrichten. Die Unterweisung endete spätestens 340/339 v. Chr., als Alexander für seinen abwesenden Vater die Regentschaft übernahm. Aristoteles ließ für Alexander eine Abschrift der Ilias anfertigen, die der König als Verehrer des Achilleus später auf seinen Eroberungszügen mit sich führte. Das Verhältnis zwischen Lehrer und Schüler ist nicht näher überliefert; es hat zur Legendenbildung und vielerlei Spekulationen Anlass gegeben. Sicher ist, dass ihre politischen Überzeugungen grundverschieden waren; ein Einfluss des Aristoteles auf Alexander ist jedenfalls nicht erkennbar. Aristoteles soll allerdings am makedonischen Hof den Wiederaufbau seiner zerstörten Heimatstadt Stageira erreicht haben; die Glaubwürdigkeit dieser Nachricht ist aber zweifelhaft. Die Hinrichtung des Hermias durch die Perser 341/340 berührte Aristoteles tief, wie ein dem Andenken des Freundes gewidmetes Gedicht zeigt. Als nach dem Tode des Speusippos 339/338 v. Chr. in der Akademie das Amt des Scholarchen (Schulleiters) frei wurde, konnte Aristoteles nur wegen seiner Abwesenheit an der Wahl des Nachfolgers nicht teilnehmen; er galt aber weiterhin als Akademiemitglied. Später ging er mit seinem Großneffen, dem Geschichtsschreiber Kallisthenes von Olynth, nach Delphi, um im Auftrag der dortigen Amphiktyonen eine Siegerliste der Pythischen Spiele anzufertigen. Zweiter Athenaufenthalt. Mit der Zerstörung der rebellischen Stadt Theben 335 v. Chr. brach der offene Widerstand gegen die Makedonen in Griechenland zusammen, und auch in Athen arrangierte man sich mit den Machtverhältnissen. Daher konnte Aristoteles 335/334 v. Chr. nach Athen zurückkehren und begann dort wieder zu forschen und zu lehren, war aber nun nicht mehr an der Akademie tätig, sondern in einem anderen öffentlichen Gymnasium, dem Lykeion. Hier schuf er eine eigene Schule, deren Leitung nach seinem Tod Theophrastos übernahm. Neue Grabungen haben möglicherweise die Identifizierung des Gebäudekomplexes ermöglicht. Im juristischen Sinne hat aber erst Theophrastos die Schule gegründet und das Grundstück erworben – die später üblichen Bezeichnungen Peripatos und Peripatetiker speziell für diese Schule sind für die Zeit des Theophrastos noch nicht bezeugt. Die Fülle des Materials, das Aristoteles sammelte (etwa zu den 158 Verfassungen der griechischen Stadtstaaten), lässt darauf schließen, dass er über zahlreiche Mitarbeiter verfügte, die auch außerhalb von Athen recherchierten. Er war wohlhabend und besaß eine große Bibliothek. Sein Verhältnis zum makedonischen Statthalter Antipatros war freundschaftlich. Rückzug aus Athen, Tod und Nachkommen. Nach dem Tod Alexanders des Großen 323 v. Chr. setzten sich in Athen und anderen griechischen Städten zunächst antimakedonische Kräfte durch. Delphi widerrief ein Aristoteles verliehenes Ehrendekret. In Athen kam es zu Anfeindungen, die ihm ein ruhiges Weiterarbeiten unmöglich machten. Daher verließ er 323/322 v. Chr. Athen. Angeblich äußerte er bei diesem Anlass, dass er nicht wollte, dass die Athener sich ein zweites Mal gegen die Philosophie vergingen (nachdem sie bereits Sokrates zum Tode verurteilt hatten). Er zog sich nach Chalkis auf Euboia in das Haus seiner Mutter zurück. Dort starb er im Oktober 322 v. Chr. Aristoteles war mit Pythias, einer Verwandten seines Freundes Hermias, verheiratet. Von ihr hatte er eine Tochter, die ebenfalls Pythias hieß. Nach dem Tod seiner Gattin wurde Herpyllis, die niedriger Herkunft war, seine Lebensgefährtin; sie war möglicherweise die Mutter seines Sohnes Nikomachos. In seinem Testament, dessen Vollstreckung er Antipatros anvertraute, regelte Aristoteles unter anderem die künftige Verheiratung seiner noch minderjährigen Tochter und traf Vorkehrungen zur materiellen Absicherung von Herpyllis. Werk. "Hinweis: Belege aus Werken des Aristoteles sind folgendermaßen angegeben: Titelangabe (Abkürzungen werden an der ersten Stelle im Kapitel per Link aufgelöst) und gegebenenfalls Buch- und Kapitelangabe sowie Bekker-Zahl. Die Bekker-Zahl gibt eine genaue Stelle im Corpus an. Sie ist in guten modernen Ausgaben vermerkt." Aufgrund von Brüchen und Inkonsequenzen im Werk des Aristoteles ist die Forschung von der früher verbreiteten Vorstellung abgekommen, das überlieferte Werk bilde ein abgeschlossenes, durchkomponiertes System. Diese Brüche gehen vermutlich auf Entwicklungen, Perspektivwechsel und unterschiedliche Akzentuierungen in verschiedenen Kontexten zurück. Da eine sichere chronologische Reihenfolge seiner Schriften nicht bestimmt werden kann, bleiben Aussagen über Aristoteles’ tatsächliche Entwicklung Vermutungen. Zwar bildet sein Werk "de facto" kein fertiges System, doch besitzt seine Philosophie Eigenschaften eines "potentiellen" Systems. Überlieferung und Charakter der Schriften. Verschiedene antike Verzeichnisse schreiben Aristoteles fast 200 Titel zu. Sofern die Angabe des Diogenes Laertios stimmt, hat Aristoteles ein Lebenswerk von über 445.270 Zeilen hinterlassen (wobei in dieser Zahl zwei der umfangreichsten Schriften – die "Metaphysik" und die "Nikomachische Ethik" – vermutlich noch nicht berücksichtigt sind). Nur etwa ein Viertel davon ist überliefert. In der Forschung werden zwei Gruppen unterschieden: "exoterische" Schriften (die für ein breiteres Publikum veröffentlicht worden sind) und "esoterische" (die zum internen Gebrauch der Schule dienten). Alle exoterischen Schriften sind nicht oder nur in Fragmenten vorhanden, die meisten esoterischen sind hingegen überliefert. Die Schrift "Die Verfassung der Athener" galt als verloren und wurde erst Ende des 19. Jahrhunderts in Papyrusform gefunden. Exoterische und esoterische Schriften. Die exoterischen Schriften bestanden vor allem aus Dialogen in der Tradition Platons, z. B. der "Protreptikos" – eine Werbeschrift für die Philosophie –, Untersuchungen wie "Über die Ideen," aber auch propädeutische Sammlungen. Cicero lobt ihren „goldenen Fluss der Rede“. Die auch Pragmatien genannten esoterischen Schriften sind vielfach als Vorlesungsmanuskripte bezeichnet worden; gesichert ist dies nicht und für einige Schriften oder Abschnitte auch unwahrscheinlich. Weitgehend herrscht die Auffassung, dass sie aus der Lehrtätigkeit erwachsen sind. Weite Teile der Pragmatien weisen einen eigentümlichen Stil voller Auslassungen, Andeutungen, Gedankensprünge und Dubletten auf. Daneben finden sich jedoch auch stilistisch ausgefeilte Passagen, die (neben den Dubletten) deutlich machen, dass Aristoteles wiederholt an seinen Texten gearbeitet hat, und die Möglichkeit nahelegen, dass er an die Veröffentlichung mindestens einiger der Pragmatien gedacht hat. Aristoteles setzt bei seinen Adressaten große Vorkenntnisse fremder Texte und Theorien voraus. Verweise auf die exoterischen Schriften zeigen, dass deren Kenntnis ebenfalls vorausgesetzt wird. Die Manuskripte des Aristoteles. Nach dem Tod des Aristoteles blieben seine Manuskripte zunächst im Besitz seiner Schüler. Als sein Schüler und Nachfolger Theophrast starb, soll dessen Schüler Neleus die Bibliothek des Aristoteles erhalten und mit dieser – aus Ärger darüber, nicht zum Nachfolger gewählt worden zu sein – mit einigen Anhängern Athen Richtung Skepsis in der Nähe Trojas in Kleinasien verlassen haben. Die antiken Berichte erwähnen eine abenteuerliche und zweifelhafte Geschichte, nach der die Erben des Neleus die Manuskripte zur Sicherung vor fremdem Zugriff im Keller vergruben, wo sie dann aber verschollen blieben. Weitgehend gesichert ist, dass im ersten Jahrhundert v. Chr. Apellikon von Teos die beschädigten Manuskripte erworben und nach Athen gebracht hat und dass sie nach der Eroberung von Athen durch Sulla im Jahr 86 v. Chr. nach Rom gelangten. Dessen Sohn beauftragte Mitte des Jahrhunderts Tyrannion, die Manuskripte zu sichten und durch weiteres Material zu ergänzen. Weitere Überlieferungswege. Auch wenn mit der Bibliothek des Aristoteles seine Manuskripte jahrhundertelang verschollen waren, ist es unbestritten, dass seine Lehre im Hellenismus mindestens teilweise bekannt war, vor allem durch die exoterischen Schriften und indirekt wohl auch durch Theophrasts Wirken. Daneben müssen einige Pragmatien bekannt gewesen sein, von denen es möglicherweise Abschriften in der Bibliothek des Peripatos gab. Andronikos von Rhodos. Die erste Ausgabe. Auf der Grundlage der Arbeit Tyrannions besorgte dessen Schüler Andronikos von Rhodos in der zweiten Hälfte des ersten Jahrhunderts v. Chr. die erste Ausgabe der aristotelischen Pragmatien, die wohl nur zum Teil auf den Manuskripten des Aristoteles beruhte. Die Schriften dieser Edition bilden das Corpus Aristotelicum. Vermutlich gehen einige Zusammenstellungen von zuvor ungeordneten Büchern sowie einige Titel auf diese Ausgabe zurück. Möglicherweise hat Andronikos auch darüber hinaus Eingriffe in den Text – wie etwa Querverweise – vorgenommen. Im Fall der zahlreichen Dubletten hat er möglicherweise verschiedene Texte zum selben Thema hintereinander angeordnet. Die heutige Anordnung der Schriften entspricht weitgehend dieser Ausgabe. Die zu seiner Zeit noch vorliegenden exoterischen Schriften berücksichtigte Andronikos nicht. Sie gingen in der Folgezeit verloren. Handschriften und Druckausgaben. Heutige Ausgaben beruhen auf Abschriften, die auf die Andronikos-Ausgabe zurückgehen. Mit über 1000 Handschriften ist Aristoteles unter den nichtchristlichen griechischsprachigen Autoren derjenige mit der weitesten Verbreitung. Die ältesten Handschriften stammen aus dem 9. Jahrhundert. Das Corpus Aristotelicum ist wegen seines Umfangs nie vollständig in einem einzigen Kodex enthalten. Nach der Erfindung des Buchdrucks erschien 1495–1498 die erste Druckausgabe aus der Hand von Aldus Manutius. Die von Immanuel Bekker 1831 besorgte Gesamtausgabe der Berliner Akademie ist die Grundlage der modernen Aristotelesforschung. Sie beruht auf Kollationen der besten damals zugänglichen Handschriften. Nach ihrer Seiten-, Spalten- und Zeilenzählung (Bekker-Zählung) wird Aristoteles heute noch überall zitiert. Für einige wenige Werke bietet sie noch immer den maßgeblichen Text; die meisten liegen jedoch heute in neuen Einzelausgaben vor. Einteilung der Wissenschaften und Grundlegendes. Aristoteles’ Werk deckt weite Teile des zu seiner Zeit vorhandenen Wissens ab. Er teilt es in drei Bereiche: Das theoretische Wissen wird um seiner selbst willen gesucht. Praktisches und poietisches Wissen hat einen weiteren Zweck, die (gute) Handlung oder ein (schönes oder nützliches) Werk. Nach der Art der Gegenstände untergliedert er das theoretische Wissen weiter: (i) Die Erste Philosophie („Metaphysik“) behandelt (mit der Substanztheorie, der Prinzipientheorie und der Theologie) Selbstständiges und Unveränderliches, (ii) die Naturwissenschaft Selbstständiges und Veränderliches und (iii) die Mathematik behandelt Unselbständiges und Unveränderliches (Met. VI 1). Eine Sonderstellung scheinen die in dieser Einteilung nicht vorkommenden Schriften zu haben, die erst nach dem Tod des Aristoteles im sogenannten "Organon" zusammengestellt worden sind. Die wichtigsten Schriften lassen sich grob folgendermaßen gliedern: Mit dieser Einteilung der Wissenschaften geht für Aristoteles die Einsicht einher, dass jede Wissenschaft aufgrund ihrer eigentümlichen Objekte auch eigene Prinzipien besitzt. So kann es in der praktischen Wissenschaft – dem Bereich der Handlungen – nicht dieselbe Genauigkeit geben wie im Bereich der theoretischen Wissenschaften. Es ist zwar eine Wissenschaft der Ethik möglich, aber ihre Sätze gelten nur in der Regel. Auch kann diese Wissenschaft nicht für alle möglichen Situationen die richtige Handlungsweise vorgeben. Vielmehr vermag die Ethik nur ein nicht-exaktes Wissen im Grundriss zu liefern, das zudem allein noch nicht zu einer erfolgreichen Lebensführung befähigt, sondern hierfür an Erfahrungen und bestehende Haltungen anschließen muss (EN I 1 1094b12–23). Aristoteles war davon überzeugt, dass die „Menschen für das Wahre von Natur aus hinlänglich begabt sind“ (Rhet. I 1, 1355a15–17). Daher geht er typischerweise zunächst (allgemein oder bei Vorgängern) anerkannte Meinungen "(endoxa)" durch und diskutiert deren wichtigsten Probleme "(aporiai)," um einen möglichen wahren Kern dieser Meinungen zu analysieren (EN VII 2). Auffällig ist seine Vorliebe, in einer Allaussage zu Beginn einer Schrift die Grundlage für die Argumentation zu legen und den spezifischen Gegenstand abzustecken. Sprache, Logik und Wissen. Das "Organon". Der Themenbereich Sprache, Logik und Wissen ist vor allem in den Schriften behandelt, die traditionell unter dem Titel "Organon" (griech. Werkzeug, Methode) zusammengestellt sind. Diese Zusammenstellung und ihr Titel stammen nicht von Aristoteles, und die Reihenfolge ist nicht chronologisch. Die Schrift "Rhetorik" gehört dem "Organon" nicht an, steht ihm aber inhaltlich wegen ihrer Art der Behandlung des Gegenstands sehr nahe. Eine Berechtigung für die Zusammenstellung besteht in dem gemeinsamen methodologisch-propädeutischen Charakter. Bedeutungstheorie. Im folgenden Abschnitt – der als der einflussreichste Text in der Geschichte der Semantik gilt – unterscheidet Aristoteles vier Elemente, die in zwei verschiedenen Beziehungen zueinander stehen, einer Abbildungsbeziehung und einer Symbolbeziehung: Gesprochene und geschriebene Worte sind demnach bei den Menschen verschieden; geschriebene Worte symbolisieren gesprochene Worte. Seelische Widerfahrnisse und die Dinge sind bei allen Menschen gleich; seelische Widerfahrnisse bilden die Dinge ab. Demnach ist die Beziehung von Rede und Schrift zu den Dingen durch Übereinkunft festgelegt, die Beziehung der mentalen Eindrücke zu den Dingen hingegen naturgegeben. Wahrheit und Falschheit kommt erst der Verbindung und Trennung von "mehreren" Vorstellungen zu. Auch die einzelnen Wörter stellen noch keine Verbindung her und können daher je allein nicht wahr oder falsch sein. Wahr oder falsch kann daher erst der ganze Aussage"satz" "(logos apophantikos)" sein. Prädikate und Eigenschaften. Einige sprachlich-logische Feststellungen sind für Aristoteles’ Philosophie fundamental und spielen auch außerhalb der (im weiteren Sinne) logischen Schriften eine bedeutende Rolle. Hierbei geht es insbesondere um das Verhältnis von Prädikaten und (wesentlichen) Eigenschaften. Definitionen. Unter einer Definition versteht Aristoteles primär keine Nominaldefinition (die er auch kennt; siehe An. Post. II, 8–10), sondern eine Realdefinition. Eine Nominaldefinition gibt nur Meinungen an, welche sich mit einem Namen verbinden. Was diesen Meinungen in der Welt zugrunde liegt, gibt die Realdefinition an: eine Definition von X gibt notwendige Eigenschaften von X an und was es heißt, ein X zu sein: das Wesen. Möglicher Gegenstand einer Definition ist damit (nur) das, was ein (universales) Wesen aufweist, insbesondere Arten wie "Mensch." Eine Art wird definiert durch die Angabe einer (logischen) Gattung und der artbildenden Differenz. So lässt sich "Mensch" definieren als "vernunftbegabtes" (Differenz) "Lebewesen" (Gattung). Individuen lassen sich mithin nicht durch Definition erfassen, sondern nur ihrer jeweiligen Art zuweisen. Kategorien als Aussageklassen. Aristoteles lehrt, dass es zehn nicht aufeinander zurückführbare Aussageweisen gibt, die auf die Fragen "Was ist X?," "Wie beschaffen ist X?," "Wo ist X?" etc. antworten (→ die vollständige Liste). Die Kategorien haben sowohl eine sprachlich-logische als auch eine ontologische Funktion, denn von einem zugrunde liegenden Subjekt "(hypokeimenon)" (z. B. Sokrates) werden einerseits Prädikate ausgesagt, und ihm kommen andererseits Eigenschaften zu (z. B.: weiß, Mensch). Entsprechend stellen die Kategorien die allgemeinsten Klassen sowohl von Prädikaten als auch des Seienden dar. Dabei hebt Aristoteles die Kategorie der Substanz, die notwendig zukommende, wesentliche Prädikate enthält, von den anderen ab, die akzidentelle Prädikate enthalten. Wenn man von Sokrates "Mensch" prädiziert (aussagt), so handelt es sich um eine wesentliche Aussage, die vom Subjekt (Sokrates) angibt, "was" er ist, also die Substanz benennt. Dies unterscheidet sich offensichtlich von einer Aussage wie "Sokrates ist auf dem Marktplatz," mit der man etwas Akzidentelles angibt, nämlich "wo" Sokrates ist (also den Ort benennt). Deduktion und Induktion: Argumenttypen und Erkenntnismittel. Aristoteles unterscheidet zwei Typen von Argumenten oder Erkenntnismitteln: Deduktion "(syllogismos)" und Induktion "(epagôgê)." Die Übereinstimmung mit den modernen Begriffen Deduktion und Induktion ist dabei weitgehend, aber nicht vollständig. Deduktionen und Induktionen spielen in den verschiedenen Bereichen der aristotelischen Argumentationstheorie und Logik zentrale Rollen. Beide stammen ursprünglich aus der Dialektik. Deduktion. Nach Aristoteles besteht eine Deduktion aus Prämissen (Annahmen) und einer von diesen verschiedenen Konklusion. Die Konklusion folgt mit Notwendigkeit aus den Prämissen. Sie kann nicht falsch sein, wenn die Prämissen wahr sind. Die Definition der Deduktion "(syllogismos)" ist also weiter als die der (unten behandelten) – traditionell Syllogismus genannten – Deduktion, die aus zwei Prämissen und drei Termen besteht. Aristoteles unterscheidet dialektische, eristische, rhetorische und demonstrative Deduktionen. Diese Formen unterscheiden sich vor allem nach der Art ihrer Prämissen. Induktion. Der Deduktion stellt Aristoteles explizit die Induktion gegenüber; deren Bestimmung und Funktion ist allerdings nicht so klar wie die der Deduktion. Er nennt sie Aristoteles ist klar, dass ein derartiges Übergehen von singulären zu allgemeinen Sätzen ohne weitere Bedingungen nicht logisch gültig ist (An. Post. II 5, 91b34 f.). Entsprechende Bedingungen werden beispielsweise in dem ursprünglichen, argumentationslogischen Kontext der Dialektik erfüllt, da der Kontrahent einen durch Induktion eingeführten Allgemeinsatz akzeptieren muss, wenn er kein Gegenbeispiel nennen kann. Vor allem aber hat die Induktion die Funktion, in anderen, nicht folgernden Kontexten durch das Anführen von Einzelfällen das Allgemeine "deutlich" zu machen – sei es als didaktisches, sei es als heuristisches Verfahren. Eine derartige Induktion stellt plausible Gründe dafür bereit, einen allgemeinen Satz für wahr zu halten. Aristoteles rechtfertigt aber nirgends ohne weitere Bedingungen induktiv die Wahrheit eines solchen Satzes. Dialektik: Theorie der Argumentation. Die in der "Topik" behandelte Dialektik ist eine Form der Argumentation, die (ihrer genuinen Grundform nach) in einer dialogischen Disputation stattfindet. Sie geht vermutlich auf Praktiken in Platons Akademie zurück. Die Zielsetzung der Dialektik lautet: Die Dialektik hat demnach keinen bestimmten Gegenstandsbereich, sondern kann universal angewendet werden. Aristoteles bestimmt die Dialektik durch die Art der Prämissen dieser Deduktion. Ihre Prämissen sind anerkannte Meinungen "(endoxa)," das heißt Für dialektische Prämissen ist es unerheblich, ob sie wahr sind oder nicht. Weshalb aber "anerkannte" Meinungen? In ihrer Grundform findet Dialektik in einem argumentativen Wettstreit zwischen zwei Gegnern statt mit genau zugewiesenen Rollen. Auf ein vorgelegtes Problem der Form ‚Ist S P oder nicht?‘ muss der Antwortende sich auf eine der beiden Möglichkeiten als These festlegen. Das dialektische Gespräch besteht nun darin, dass ein Fragender dem Antwortenden Aussagen vorlegt, die dieser entweder bejahen oder verneinen muss. Die beantworteten Fragen gelten als Prämissen. Das Ziel des Fragenden besteht nun darin, mithilfe der bejahten oder verneinten Aussagen eine Deduktion zu bilden, so dass die Konklusion die Ausgangsthese widerlegt oder aus den Prämissen etwas Absurdes oder ein Widerspruch folgt. Die Methode der Dialektik weist zwei Bestandteile auf: Für 2. bieten die verschiedenen Typen (a)–(ciii) "anerkannter" Meinungen dem Fragenden Anhaltspunkte dafür, welche Fragen der jeweilige Antwortende bejahen wird, das heißt, welche Prämissen er verwenden kann. Aristoteles fordert dazu auf, Listen solcher anerkannter Meinungen anzulegen (Top. I 14). Vermutlich meint er nach den Gruppen (a)–(ciii) getrennte Listen; diese werden wiederum nach Gesichtspunkten geordnet. Für 1. hilft dem Dialektiker in seinem Argumentationsaufbau das Instrument der Topen. Ein Topos ist eine Konstruktionsanleitung für dialektische Argumente, das heißt zur Auffindung geeigneter Prämissen für eine gegebene Konklusion. Aristoteles listet in der "Topik" etwa 300 dieser Topen auf. Der Dialektiker kennt diese Topen auswendig, die sich aufgrund ihrer Eigenschaften ordnen lassen. Die Basis dieser Ordnung stellt das System der Prädikabilien dar. Nach Aristoteles ist die Dialektik für dreierlei nützlich: (1) als Übung, (2) für die Begegnung mit der Menge und (3) für die Philosophie. Neben (1) der Grundform des argumentativen Wettstreits (bei der es eine Jury und Regeln gibt und die wahrscheinlich auf Praktiken in der Akademie zurückgeht) gibt es mit (2) auch Anwendungsweisen, die zwar dialogisch, aber nicht als regelbasierter Wettstreit angelegt sind, sowie mit (3) solche, die nicht dialogisch sind, sondern in denen der Dialektiker im Gedankenexperiment (a) Schwierigkeiten nach beiden Seiten hin durchgeht "(diaporêsai)" oder auch (b) Prinzipien untersucht (Top. I 4). Für ihn ist die Dialektik aber nicht wie bei Platon "die" Methode der Philosophie oder eine Fundamentalwissenschaft. Rhetorik: Theorie der Überzeugung. Aristoteles definiert Rhetorik als „Fähigkeit, bei jeder Sache das möglicherweise Überzeugende "(pithanon)" zu betrachten“ (Rhetorik I 2, 1355b26 f.). Er nennt sie ein Gegenstück "(antistrophos)" zur Dialektik. Denn ebenso wie die Dialektik ist die Rhetorik ohne abgegrenzten Gegenstandsbereich, und sie verwendet dieselben Elemente (wie Topen, anerkannte Meinungen und insbesondere Deduktionen), und dem dialektischen Schließen entspricht das auf rhetorischen Deduktionen basierende Überzeugen. Der Rhetorik kam im demokratischen Athen des vierten Jahrhunderts eine herausragende Bedeutung zu, insbesondere in der Volksversammlung und den Gerichten, die mit durch Los bestimmten Laienrichtern besetzt waren. Es gab zahlreiche Rhetoriklehrer, und Rhetorikhandbücher kamen auf. Aristoteles’ dialektische Rhetorik ist eine Reaktion auf die Rhetoriktheorie seiner Zeit, die – wie er kritisiert – bloße Versatzstücke für Redesituationen bereitstellt und Anweisungen, wie man durch Verleumdung und die Erregung von Emotionen das Urteil der Richter trüben kann. Im Gegensatz dazu beruht seine dialektische Rhetorik auf der Auffassung, dass wir dann am meisten überzeugt sind, wenn wir meinen, dass etwas bewiesen worden ist (Rhet. I 1, 1355a5 f.). Dass die Rhetorik sachorientiert sei und das jeweils in der Sache liegende Überzeugungspotential entdecken und ausschöpfen müsse, drückt er ebenfalls in der Gewichtung der drei Überzeugungsmittel aus. Diese sind: Das Argument hält er für das wichtigste Mittel. Unter den Argumenten unterscheidet Aristoteles das Beispiel – eine Form der Induktion – und das Enthymem – eine rhetorische Deduktion (wobei wiederum das Enthymem wichtiger als das Beispiel ist). Das Entyhmem ist eine Art der dialektischen Deduktion. Sein besonderes Merkmal aufgrund der rhetorischen Situation ist, dass seine Prämissen nur "die" anerkannten Meinungen sind, die von "allen" oder den "meisten" für wahr gehalten werden. (Die verbreitete, kuriose Ansicht, das Enthymem sei ein Syllogismus, in dem eine der zwei Prämissen fehle, vertritt Aristoteles "nicht;" sie basiert auf einem schon in der antiken Kommentierung belegten Missverständnis von 1357a7 ff.) Der Redner überzeugt demnach die Zuhörer, indem er eine Behauptung (als Konklusion) aus den Überzeugungen (als Prämissen) der Zuhörer herleitet. Die Konstruktionsanleitungen dieser Enthymeme liefern rhetorische Topen, z. B.: An den zeitgenössischen Rhetoriklehrern kritisiert Aristoteles, dass sie die Argumentation vernachlässigten und ausschließlich auf Emotionserregung abzielten, etwa durch Verhaltensweisen wie Jammern oder Mitbringen der Familie zur Gerichtsverhandlung, wodurch ein sachbezogenes Urteil der Richter verhindert werde. Aristoteles’ Theorie zufolge können alle Emotionen definiert werden, indem drei Faktoren berücksichtigt werden. Man fragt: (1) Worüber, (2) wem gegenüber und (3) in welchem Zustand empfindet jemand die jeweilige Emotion? So lautet die Definition von Zorn: Wenn der Redner mit diesem Definitionswissen den Zuhörern deutlich machen kann, dass der entsprechende Sachverhalt vorliegt und sie sich im entsprechenden Zustand befinden, empfinden sie die entsprechende Emotion. Sofern der Redner mit dieser Methode bestehende Sachverhalte eines Falles hervorhebt, lenkt er damit nicht – wie bei den kritisierten Vorgängern – von der Sache ab, sondern fördert nur dem Fall angemessene Emotionen und verhindert somit unangemessene. Schließlich soll der Charakter des Redners "aufgrund seiner Rede" für die Zuhörer glaubwürdig, das heißt tugendhaft, klug und wohlwollend erscheinen (Rhet. I 2, 1356a5–11; II 1, 1378a6–16). Die sprachliche Form dient ebenfalls einer argumentativ-sachorientierten Rhetorik. Aristoteles definiert nämlich die optimale Form "(aretê)" dadurch, dass sie primär klar, dabei aber weder banal noch zu erhaben ist (Rhet. III 2, 1404b1–4). Durch solche Ausgewogenheit fördert sie das Interesse, die Aufmerksamkeit und das Verständnis und wirkt angenehm. Unter den Stilmitteln erfüllt insbesondere die Metapher diese Bedingungen. Syllogistische Logik. Besteht in einer Methode des konsistenten Argumentierens, so besteht seine syllogistische in einer Theorie des Beweisens selbst. In der von ihm begründeten Syllogistik zeigt Aristoteles, welche Schlüsse gültig sind. Hierfür verwendet er eine Form, die in der Tradition wegen der Bedeutung dieser Logik schlicht "Syllogismus" (die lateinische Übersetzung von "syllogismos") genannt wird. Jeder Syllogismus ist eine (besondere Form der) Deduktion "(syllogismos)", aber nicht jede Deduktion ist ein Syllogismus (und zwar weil Aristoteles’ sehr allgemeine Definition der Deduktion viele mögliche Argumenttypen beschreibt). Aristoteles verwendet selbst auch keinen eigenen Begriff, um den Syllogismus von anderen Deduktionen abzugrenzen. Ein Syllogismus ist eine spezielle Deduktion, die aus genau zwei Prämissen und einer Konklusion besteht. Prämissen und Konklusion weisen zusammen genau drei verschiedene Begriffe, Terme (in der Tabelle dargestellt durch A, B, C) auf. Die Prämissen haben genau einen Term gemeinsam (in der Tabelle B), der in der Konklusion nicht vorkommt. Durch die Stellung des gemeinsamen Terms, des Mittelterms (hier immer B) unterscheidet Aristoteles folgende syllogistische Figuren: Ein Prädikat (P) (z. B. 'sterblich') kann einem Subjekt (S) (z. B. 'Grieche') entweder zu- oder abgesprochen werden. Dies kann in partikulärer oder in allgemeiner Form geschehen. Somit gibt es vier Formen, in denen S und P miteinander verbunden werden können, wie die folgende Tabelle zeigt (nach "De interpretatione" 7; die Vokale werden seit dem Mittelalter für den jeweiligen Aussagetypus und auch in der Syllogistik verwendet). Der Syllogismus verwendet genau diese vier Aussagetypen in folgender Form: Aristoteles untersucht folgende Frage: Welche der 192 möglichen Kombinationen sind logisch gültige Deduktionen? Bei welchen Syllogismen ist es nicht möglich, dass, wenn die Prämissen wahr sind, die Konklusion falsch ist? Er unterscheidet vollkommene Syllogismen, die unmittelbar einsichtig sind, von unvollkommenen. Die unvollkommenen Syllogismen führt er mittels Konversionsregeln auf die vollkommenen zurück (dieses Verfahren nennt er "analysis") oder beweist sie indirekt. Ein vollkommener Syllogismus ist der – seit dem Mittelalter so genannte – "Barbara:" "Weitere gültige Syllogismen und deren Beweise finden sich im Artikel Syllogismus." Die in den "Analytica Priora" ausgearbeitete Syllogistik wendet Aristoteles in seiner Wissenschaftstheorie, den "Analytica Posteriora" an. Aristoteles entwickelt zudem eine modale Syllogistik, die die Begriffe "möglich" und "notwendig" einschließt. Diese Modalsyllogistik ist sehr viel schwieriger zu interpretieren als die einfache Syllogistik. Ob eine konsistente Interpretation dieser modalen Syllogistik überhaupt möglich ist, ist noch heute umstritten. Interpretatorisch problematisch, aber auch bedeutend ist Aristoteles’ Definition von "möglich." Er unterscheidet hierbei die sogenannte einseitige und die zweiseitige Möglichkeit: Damit lässt sich der Indeterminismus, den Aristoteles vertritt, als der Zustand charakterisieren, der kontingent ist. Kanonische Sätze. In der aristotelischen Logik wird zwischen folgenden konträren und kontradiktorischen Satzarten unterschieden – F und G stehen dabei für Subjekt und Prädikat: Diese „kanonischen Sätze“ gehören zum Fundament der traditionellen Logik und werden unter anderem bei einfacher bzw. eingeschränkter Konversion angewandt. Wissen und Wissenschaft. Stufen des Wissens. Aristoteles unterscheidet verschiedene Stufen des Wissens, die sich folgendermaßen darstellen lassen (Met. I 1; An. post. II 19): Mit dieser Stufung beschreibt Aristoteles auch, wie Wissen entsteht: Aus Wahrnehmung entsteht Erinnerung und aus Erinnerung durch Bündelung von Erinnerungsinhalten Erfahrung. Erfahrung besteht in einer Kenntnis einer Mehrzahl konkreter Einzelfälle und gibt nur das "Dass" an, ist bloße Faktenkenntnis. Wissen hingegen (oder Wissenschaft; "epistêmê" umfasst beides) unterscheidet sich von Erfahrung dadurch, dass es In diesem Erkenntnisprozess schreiten wir nach Aristoteles von dem, was "für uns" bekannter und näher an der sinnlichen Wahrnehmung ist, zu dem vor, was "an sich" oder "von Natur aus" bekannter ist, zu den Prinzipien und Ursachen der Dinge. Dass Wissen an oberster Stelle steht und überlegen ist, bedeutet aber nicht, dass es im konkreten Fall die anderen Stufen in dem Sinne enthält, dass es sie ersetzte. Im Handeln ist zudem die Erfahrung als Wissen vom Einzelnen den Wissensformen, die aufs Allgemeine gehen, mitunter überlegen (Met. 981a12–25). Ursachen und Demonstrationen. Unter einer Ursache "(aitia)" versteht Aristoteles in der Regel nicht ein von einem verursachten Ereignis B verschiedenes Ereignis A. Die Untersuchung von Ursachen dient nicht dazu, Wirkungen vorherzusagen, sondern Sachverhalte zu erklären. Eine aristotelische Ursache gibt einen Grund als Antwort auf bestimmte Warum-Fragen an. (Aristoteles unterscheidet vier Ursachentypen, die genauer hier im Abschnitt Naturphilosophie behandelt werden.) Nach Aristoteles hat Ursachenwissen die Form einer bestimmten Deduktion: der Demonstration "(apodeixis)" eines Syllogismus mit wahren Prämissen, die Ursachen für den in der Konklusion ausgedrückten Sachverhalt angeben. Ein Beispiel: Aristoteles spricht davon, dass die Prämissen einiger Demonstrationen Prinzipien ("archē;" wörtl. Anfang, Ursprung) sind, erste wahre Sätze, die selbst nicht demonstrativ bewiesen werden können. Nicht-Beweisbare Sätze. Neben den Prinzipien können auch die Existenz und die Eigenschaften der behandelten Gegenstände einer Wissenschaft sowie bestimmte, allen Wissenschaften gemeinsame Axiome nach Aristoteles nicht durch Demonstrationen bewiesen werden, wie beispielsweise der Satz vom Widerspruch. Vom Satz des Widerspruchs zeigt Aristoteles, dass er nicht geleugnet werden kann. Er lautet: X kann Y nicht zugleich in derselben Hinsicht zukommen und nicht zukommen (Met. IV 3, 1005b19 f.). Aristoteles argumentiert, dass, wer dies leugnet, etwas und somit etwas Bestimmtes sagen muss. Wenn er z. B. ‚Mensch‘ sagt, bezeichnet er damit Menschen und nicht Nicht-Menschen. Mit dieser Festlegung auf etwas Bestimmtes setze er aber den Satz vom Widerspruch voraus. Dies gelte sogar für Handlungen, insofern eine Person etwa um einen Brunnen herumgeht und nicht in ihn hinein fällt. Dass diese Sätze und auch Prinzipien nicht demonstriert werden können, liegt an Aristoteles’ Lösung eines Begründungsproblems: Wenn Wissen Rechtfertigung enthält, dann führt dies in einem konkreten Fall von Wissen entweder (a) zu einem Regress, (b) einem Zirkel oder (c) zu fundamentalen Sätzen, die nicht begründet werden können. Prinzipien in einer aristotelischen demonstrativen Wissenschaft sind solche Sätze, die nicht demonstriert, sondern auf andere Weise gewusst werden (An. Post. I 3). Das Verhältnis von Definition, Ursache und Demonstration. Aristoteles spricht zudem davon, dass, sofern die Prämissen Prinzipien sind, sie auch Definitionen darstellen können. Wie sich Demonstration, Ursache und Definition zueinander verhalten, illustriert folgendes Beispiel: Der Mond weist zum Zeitpunkt t eine Finsternis auf, weil (i) immer, wenn etwas im Sonnenschatten der Erde ist, es eine Finsternis aufweist und (ii) der Mond zum Zeitpunkt t im Sonnenschatten der Erde liegt. "Demonstration:" "Mittelterm:" Verdecken der Sonne durch die Erde. "Ursache:" Verdecken der Sonne durch die Erde kommt dem Mond zum Zeitpunkt t zu. Die Definition wäre hier etwa: "Mondfinsternis ist der Fall, in dem die Erde die Sonne verdeckt." Sie erklärt nicht das Wort ‚Mondfinsternis‘. Vielmehr gibt sie an, "was" eine Mondfinsternis ist. Indem man die Ursache angibt, schreitet man von einem Faktum zu seinem Grund fort. Das Verfahren der Analyse besteht darin, bottom-up zu einem bekannten Sachverhalt die nächste Ursache zu suchen, bis eine letzte Ursache erreicht ist. Status der Prinzipien und Funktion der Demonstration. Das aristotelische Wissenschaftsmodell wurde in der Neuzeit und bis ins 20. Jahrhundert als ein Top-down-Beweisverfahren verstanden. Die unbeweisbaren Prinzipien seien notwendig wahr und würden durch Induktion und Intuition "(nous)" erlangt. Alle Sätze einer Wissenschaft würden – in einer axiomatischen Struktur – aus ihren Prinzipien folgen. Wissenschaft beruht demnach auf zwei Schritten: Zunächst würden die Prinzipien intuitiv erfasst, dann würde top-down aus ihnen Wissen demonstriert. Gegner dieser Top-down-Interpretation stellen vor allem infrage, dass für Aristoteles Eine Interpretationsrichtung behauptet, die Demonstration habe didaktische Funktion. Da Aristoteles in den naturwissenschaftlichen Schriften seine Wissenschaftstheorie nicht befolge, lege diese nicht dar, wie Forschung "durchgeführt," sondern wie sie didaktisch "präsentiert" werden soll. Eine andere Auslegung weist auch die didaktische Interpretation zurück, da sich sehr wohl Anwendungen des wissenschaftstheoretischen Modells in den naturwissenschaftlichen Schriften finden ließen. Vor allem aber kritisiert sie die erste Lesart dahingehend, dass sie nicht zwischen Wissens"ideal" und Wissens"kultur" unterscheide; denn Aristoteles halte Prinzipien für fallibel und die Funktion der Demonstration für heuristisch. Sie liest die Demonstration bottom-up: Zu bekannten Sachverhalten würden mithilfe der Demonstration deren Ursachen gesucht. Die wissenschaftliche Forschung gehe von den für uns bekannteren empirischen (meist universalen) Sätzen aus. Zu einer solchen Konklusion werden Prämissen gesucht, die für den entsprechenden Sachverhalt Ursachen angeben. Der wissenschaftliche Forschungsprozess besteht nun darin, beispielsweise die Verknüpfung von Schwere und Statue oder Mond und Finsternis in der Weise genauer zu analysieren, dass man Mittelterme sucht, die sie als Ursachen miteinander verknüpfen. Im einfachsten Fall gibt es dabei nur einen Mittelterm, in anderen mehrere. Top-down wird dann das Wissen von den erklärenden Prämissen zu den erklärten universalen empirischen Sätzen präsentiert. Dabei geben die Prämissen den Grund für den in der Konklusion beschriebenen Sachverhalt an. Das Ziel jeder Disziplin besteht in einer derartigen demonstrativen Darstellung des Wissens, in der die nicht demonstrierbaren Prinzipien dieser Wissenschaft Prämissen sind. Erfassen der Prinzipien. Wie die Prinzipien nach Aristoteles erfasst werden, bleibt undeutlich und ist umstritten. Vermutlich werden sie durch Allgemeinbegriffe gebildet, die durch einen induktiven Vorgang entstehen, einen Aufstieg innerhalb der oben beschriebenen Wissensstufen: Wahrnehmung wird Erinnerung, wiederholte Wahrnehmung verdichtet sich zu Erfahrung, und aus Erfahrung bilden wir Allgemeinbegriffe. Mit dieser auf der Wahrnehmung basierenden Konzeption der Bildung von Allgemeinbegriffen weist Aristoteles sowohl Konzeptionen zurück, die die Allgemeinbegriffe aus einem höheren Wissen ableiten, als auch diejenigen, die behaupten, Allgemeinbegriffe seien angeboren. Vermutlich auf Grundlage dieser Allgemeinbegriffe werden die Prinzipien, Definitionen gebildet. Die Dialektik, die Fragen in der Form ‚Trifft P auf S zu oder nicht?‘ behandelt, ist vermutlich ein Mittel, Prinzipien zu prüfen. Das Vermögen, das diese grundlegenden Allgemeinbegriffe und Definitionen erfasst, ist der Geist, die Einsicht "(nous)." Naturphilosophie. Natur. In Aristoteles’ Naturphilosophie bedeutet Natur "(physis)" zweierlei: Zum einen besteht der primäre Gegenstandsbereich aus den von Natur aus bestehenden Dingen (Menschen, Tiere, Pflanzen, die Elemente), die sich von Artefakten unterscheiden. Zum anderen bilden die Bewegung "(kínēsis)" und Ruhe "(stasis)" den Ursprung, beziehungsweise das Grundprinzip "(archē)" aller Natur (Phys. II 1, 192b14). Bewegung bedeutet wiederum Veränderung "(metabolē)" (Phys. II 1,193a30). So ist beispielsweise die Ortsbewegung eine Form der Veränderung. Ebenso stellen die „Eigenbewegungen“ des Körpers, wenn dieser (zum Beispiel durch Nahrungsaufnahme) wächst oder abnimmt, eine Veränderung dar. Beide Begriffe, kínēsis und metabolē, sind für Aristoteles folglich nicht trennbar. Gemeinsam bilden sie das Grundprinzip und den Anfang aller Naturdinge. Bei Artefakten kommt das Prinzip jeder Veränderung von außen (Phys. II 1, 192b8–22). Die Wissenschaft der Natur hängt in der Folge von den Arten der Veränderung ab. Definition, Prinzipien und Arten der Veränderung. Ein Veränderungsprozess von X ist gegeben, wenn X, das (i) der Wirklichkeit nach die Eigenschaft F und (ii) der Möglichkeit nach G aufweist, die Eigenschaft G verwirklicht. Bei Bronze (X), die der Wirklichkeit nach ein Klumpen ist (F) und der Möglichkeit nach eine Statue (G), liegt Veränderung dann vor, wenn die Bronze "der Wirklichkeit" nach die Form einer Statue (G) "wird;" der Prozess ist abgeschlossen, wenn die Bronze diese Form "besitzt." Oder wenn der ungebildete Sokrates gebildet wird, so verwirklicht sich ein Zustand, welcher der Möglichkeit nach schon vorlag. Der Veränderungsprozess ist also durch seinen Übergangsstatus gekennzeichnet und setzt voraus, dass etwas, das der Möglichkeit nach vorliegt, verwirklicht werden kann (Phys. III 1, 201a10–201b5). Für alle Veränderungsprozesse hält Aristoteles (in Übereinstimmung mit seinen naturphilosophischen Vorgängern) Gegensätze für grundlegend. Er vertritt darüber hinaus die These, dass in einem Veränderungsprozess diese Gegensätze (wie "gebildet-ungebildet") immer "an" einem Substrat oder Zugrundeliegenden "(hypokeimenon)" auftreten, so dass sein Modell folgende drei Prinzipien aufweist: Wird der ungebildete Sokrates gebildet, so ist er dabei an jedem Punkt der Veränderung Sokrates. Entsprechend bleibt die Bronze Bronze. Das Substrat der Veränderung, an dem diese sich vollzieht, bleibt dabei mit sich selbst identisch. Den Ausgangszustand der Veränderung fasst Aristoteles dabei als einen Zustand, dem die entsprechende Eigenschaft des Zielzustands ermangelt (Privation; Phys. I 7). Aristoteles unterscheidet vier Arten der Veränderung: Bei jeder Veränderung – so Aristoteles – gibt es ein zugrunde liegendes, numerisch identisches Substrat (Physik I 7, 191a13–15). Im Falle qualitativer, quantitativer und örtlicher Veränderung ist dies ein konkretes Einzelding, das seine Eigenschaften, seine Größe oder seine Position verändert. Wie verhält sich dies aber beim Entstehen/Vergehen konkreter Einzeldinge? Die Eleaten hatten die einflussreiche These vertreten, Entstehen sei nicht möglich, da sie es für widersprüchlich hielten, wenn Seiendes aus Nicht-Seiendem hervorginge (bei Entstehen aus Seiendem sahen sie ein ähnliches Problem). Die Lösung der Atomisten, Entstehen sei ein Prozess, in dem durch Mischung und Trennung unvergänglicher und unveränderlicher Atome aus alten neue Einzeldinge hervorgehen, führt nach Aristoteles’ Ansicht Entstehen illegitimerweise auf qualitative Veränderung zurück (Gen. Corr. 317a20 ff.). Form und Materie bei Entstehen/Vergehen. Aristoteles’ Analyse von Entstehen/Vergehen basiert auf der innovativen Unterscheidung von Form und Materie (Hylemorphismus). Er akzeptiert, dass kein konkretes Einzelding aus Nichtseiendem entstehe, analysiert den Fall "Entstehen" jedoch folgendermaßen. Ein konkretes Einzelding des Typs F entsteht nicht aus einem nicht-seienden F, sondern aus einem zugrunde liegenden Substrat, das nicht die Form F aufweist: der Materie. Ein Ding entsteht, indem Materie eine neu hinzukommende Form annimmt. So entsteht eine Bronzestatue, indem eine Bronzemasse eine entsprechende Form annimmt. Die fertige Statue besteht "aus" Bronze, die Bronze liegt der Statue als Materie zugrunde. Die Antwort auf die Eleaten lautet, dass einer nicht-seienden Statue die Bronze als Materie entspricht, die durch Hinzukommen einer Form zur Statue wird. Der Entstehungsprozess ist dabei von verschiedenen Seinsgraden gekennzeichnet. Die tatsächliche, aktuale, geformte Statue entsteht aus etwas, das potentiell eine Statue ist, nämlich Bronze als Materie (Phys. I 8, 191b10–34). Materie und Form sind Aspekte eines konkreten Einzeldings und treten nicht selbständig auf. Materie ist immer Stoff eines bestimmten Dings, das schon eine Form aufweist. Sie ist ein relativer Abstraktionsbegriff zu Form. Indem eine derartige Materie in einer neuen Weise strukturiert wird, entsteht ein neues Einzelding. Ein Haus setzt sich aus Form (dem Bauplan) und Materie (Holz und Ziegel) zusammen. Die Ziegel als Materie des Hauses sind durch einen bestimmten Prozess auf eine bestimmte Weise geformter, konfigurierter Lehm. Unter Form versteht Aristoteles seltener die äußere Gestalt (dies nur bei Artefakten), in der Regel die innere Struktur oder Natur, dasjenige, was durch eine Definition erfasst wird. Die Form eines Gegenstandes eines bestimmten Typs beschreibt dabei Voraussetzungen, welche Materie für diesen geeignet ist und welche nicht. Ortsbewegung. Bewegungen erfolgen nach Aristoteles entweder naturgemäß oder naturwidrig (gewaltsam). Nur Lebewesen bewegen sich aus eigenem Antrieb, alles andere wird entweder von etwas bewegt oder es strebt möglichst geradlinig seinem natürlichen Ort entgegen und kommt dort zum Stillstand. Der natürliche Ort eines Körpers hängt von der in ihm vorherrschenden Materieart ab. Wenn Wasser oder Erde vorherrscht, bewegt sich der Körper zum Mittelpunkt der Erde, dem Zentrum der Welt, wenn Feuer oder Luft dominiert, strebt er nach oben. Erde ist ausschließlich schwer, Feuer absolut leicht, Wasser relativ schwer, Luft relativ leicht. Der natürliche Ort des Feuers ist oberhalb der Luft und unterhalb der Mondsphäre. Leichtigkeit und Schwere sind Eigenschaften von Körpern, die mit deren Dichte nichts zu tun haben. Mit der Einführung der Vorstellung einer absoluten Schwere und absoluten Leichtigkeit (Schwerelosigkeit des Feuers) verwirft Aristoteles die Auffassung Platons und der Atomisten, die alle Objekte für schwer hielten und das Gewicht als relative Größe auffassten. Das fünfte Element, der Äther des Himmels, ist masselos und bewegt sich ewig in gleichförmiger Kreisbewegung um das Zentrum der Welt. Der Äther füllt den Raum oberhalb der Mondsphäre; er ist keinerlei Veränderung außer der Ortsbewegung unterworfen. Die Annahme, auf der Erde und am Himmel gälten verschiedene Gesetze, ist für Aristoteles nötig, weil die Bewegung der Planeten und Fixsterne nicht zur Ruhe kommt. Aristoteles nimmt an, dass für jede Ortsbewegung ein Medium, das entweder als bewegende Kraft wirkt oder der Bewegung Widerstand leistet, erforderlich ist; eine kontinuierliche Bewegung im Vakuum ist prinzipiell unmöglich. Aristoteles schließt sogar die Existenz eines Vakuums aus. Die Bewegungslehre des Aristoteles war bis zur Entwicklung eines neuen Trägheitsbegriffs durch Galilei und Newton einflussreich. Ursachen. Um Wissen von Veränderungsprozessen und somit von der Natur zu besitzen, muss man – so Aristoteles – die entsprechenden Ursachen "(aitiai)" kennen (Phys. I 1, 184a10–14). Aristoteles behauptet, es gebe genau vier Ursachentypen, die jeweils auf verschiedene Weise auf die Frage "Warum" antworten und die in der Regel bei einer vollständigen Erklärung alle angegeben werden müssen (Phys. II 3, 194b23–35): Der aristotelische Ursachenbegriff unterscheidet sich weitgehend vom modernen. In der Regel treffen zur Erklärung desselben Sachverhaltes oder Gegenstandes verschiedene Ursachen zugleich zu. Die Formursache fällt oft mit der Bewegungsursache und der Finalursache zusammen. Die Ursache eines Hauses sind so Ziegel und Holz, der Bauplan, der Architekt und der Schutz vor Unwetter. Letztere drei fallen oft zusammen, insofern beispielsweise der Zweck "Schutz vor Unwetter" den Bauplan (im Geist) des Architekten bestimmt. Die Finalursache ist vom Standpunkt der neuzeitlichen mechanistischen Physik aus kritisiert worden. Von einer insgesamt teleologisch ausgerichteten Natur wie bei Platon setzt sich Aristoteles jedoch weitgehend ab. Finale Ursachen treten für ihn in der Natur vor allem in der Biologie auf, und zwar beim funktionellen Aufbau von Lebewesen und der Artenreproduktion. Metaphysik. Metaphysik als Erste Philosophie Aristoteles gebraucht den Ausdruck „Metaphysik“ nicht. Gleichwohl trägt eines seiner wichtigsten Werke traditionell diesen Titel. Die "Metaphysik" ist eine von einem späteren Herausgeber zusammengestellte Sammlung von Einzeluntersuchungen, die ein mehr oder weniger zusammenhängendes Themenspektrum abdecken, indem sie nach den Prinzipien und Ursachen des Seienden und nach der dafür zuständigen Wissenschaft fragen. Ob der Titel ("ta meta ta physika:" die <Schriften, Dinge> nach der Physik) einen bloß bibliografischen oder einen sachbezogenen Hintergrund hat, ist unklar. Aristoteles spricht in der "Metaphysik" von einer allen anderen Wissenschaften vorgeordneten Wissenschaft, die er Erste Philosophie, Weisheit "(sophia)" oder auch Theologie nennt. Diese Erste Philosophie wird in dieser Sammlung aus Einzeluntersuchungen auf drei Weisen charakterisiert: Ob oder inwieweit diese drei Projekte zusammenhängende Aspekte derselben Wissenschaft oder voneinander unabhängige Einzelprojekte sind, ist kontrovers. Aristoteles behandelt später metaphysisch genannte Themen auch in anderen Schriften. Ontologie. Im Corpus Aristotelicum finden sich in zwei Werken, den frühen "Kategorien" und der späten "Metaphysik," unterschiedliche Theorien des Seienden. Substanzen in den "Kategorien". Die "Kategorien," die die erste Schrift im "Organon" bilden, sind vermutlich das einflussreichste Werk des Aristoteles und der Philosophiegeschichte überhaupt. Die frühe Ontologie der "Kategorien" befasst sich mit den Fragen ‚Was ist das eigentlich Seiende?‘ und ‚Wie ist das Seiende geordnet?‘ und ist als Kritik an der Position Platons zu verstehen. Der mutmaßliche Gedankengang lässt sich folgendermaßen skizzieren. Unterschieden werden Eigenschaften, die Einzeldingen zukommen (P kommt S zu). Dafür liegen zwei Deutungsmöglichkeiten nahe: Das eigentlich Seiende, die Substanz "(ousia)" sind Aristoteles selbst berichtet (Met. I 6), Platon habe gelehrt, man müsse von den wahrnehmbaren Einzeldingen getrennte, nicht sinnlich wahrnehmbare, unveränderliche, ewige Urbilder unterscheiden. Platon nahm an, dass es Definitionen (und damit aus seiner Sicht auch Wissen) von den Einzeldingen, die sich beständig ändern, nicht geben kann. Gegenstand der Definition und des Wissens sind für ihn die Urbilder (Ideen) als das für die Ordnungsstruktur des Seienden Ursächliche. Verdeutlichen lässt sich dies an einer von allen Menschen getrennten, einzelnen und numerisch identischen Idee des Menschen, die für das jeweilige Menschsein ursächlich ist und die Erkenntnisgegenstand ist für die Frage ‚Was ist ein Mensch?‘. Aristoteles’ Einteilung des Seienden in den "Kategorien" scheint sich von der skizzierten Position Platons abzugrenzen. Er orientiert sich dabei an der sprachlichen Struktur einfacher Sätze der Form ‚S ist P‘ und der sprachlichen Praxis, wobei er die sprachliche und die ontologische Ebene nicht explizit voneinander scheidet. Einige Ausdrücke – wie ‚Sokrates‘ – können nur die Subjektposition S in dieser sprachlichen Struktur einnehmen, alles andere wird von ihnen prädiziert. Die Dinge, die in diese Kategorie der Substanz fallen und die er "Erste Substanz" nennt, sind ontologisch selbständig; sie bedürfen keines anderen Dinges, um zu existieren. Daher sind sie ontologisch primär, denn alles andere ist von ihnen abhängig und nichts würde ohne sie existieren. Diese abhängigen Eigenschaften bedürfen eines Einzeldings, einer ersten Substanz als eines Trägers, "an" der sie vorkommen. Derartige Eigenschaften (z. B. weiß, sitzend) können einem Einzelding (etwa Sokrates) jeweils zukommen oder auch nicht zukommen und sind daher akzidentelle Eigenschaften. Dies betrifft alles außerhalb der Kategorie der Substanz. Für einige Eigenschaften (z. B. ‚Mensch‘) gilt nun, dass sie in der Weise von einem Einzelding (z. B. Sokrates) ausgesagt werden können, dass ihre Definition (vernünftiges Lebewesen) auch von diesem Einzelding gilt. Sie kommen ihm daher "notwendig" zu. Dies sind die Art und die Gattung. Aufgrund dieses engen Bezugs, in dem die Art und die Gattung angeben, "was" eine erste Substanz jeweils ist (etwa in der Antwort auf die Frage ‚Was ist Sokrates?‘: ‚ein Mensch‘), nennt Aristoteles sie zweite Substanz. Dabei hängt auch eine zweite Substanz von einer ersten Substanz ontologisch ab. Aristoteles vertritt also folgende Thesen: Die Substanztheorie der "Metaphysik". Für Platon ergibt sich als Konsequenz aus seiner Auffassung von den Ideen die Annahme, dass im eigentlichen, unabhängigen Sinne allein die unveränderlichen Ideen existieren; die Einzeldinge existieren nur in Abhängigkeit von den Ideen. Diese ontologische Konsequenz kritisiert Aristoteles eingehend in der "Metaphysik." Er hält es für widersprüchlich, dass die Anhänger der Ideenlehre einerseits die Ideen dadurch von den Sinnesobjekten abgrenzen, dass sie ihnen das Merkmal der Allgemeinheit und damit Undifferenziertheit zuweisen, und andererseits zugleich für jede einzelne Idee eine separate Existenz annehmen; dadurch würden die Ideen selbst Einzeldinge, was mit ihrem Definitionsmerkmal Allgemeinheit unvereinbar sei (Met. XIII 9, 1086a32–34). In der "Metaphysik" vertritt Aristoteles im Rahmen seines Vorhabens, das Seiende als Seiendes zu untersuchen, die Auffassung, dass alles Seiende entweder eine Substanz ist oder auf eine bezogen ist ("Metaphysik" IV 2). In den "Kategorien" hatte er ein Kriterium für Substanzen formuliert und Beispiele (Sokrates) für diese gegeben. In der "Metaphysik" thematisiert er nun abermals die Substanz, um nach den Prinzipien und Ursachen einer Substanz, eines konkreten Einzeldings zu suchen. Hier fragt er nun: Was macht etwa Sokrates zu einer Substanz? Substanz ist hier also ein zweistelliges Prädikat "(Substanz von X)," so dass man die Frage so formulieren kann: "Was ist die Substanz-X einer Substanz?" Dabei spielt die Form-Materie-Unterscheidung, die in den "Kategorien" nicht präsent ist, eine entscheidende Rolle. Aristoteles scheint die Substanz-X vor allem mit Hilfe zweier Kriterien zu suchen, die in der Theorie der "Kategorien" auf die erste und die zweite Substanz verteilt sind: Das Kriterium (ii) wird genauer erfüllt, indem Aristoteles das "Wesen" als Substanz-X bestimmt. Mit Wesen meint er dabei, was ontologisch einer Definition entspricht (Met. VII 4; 5, 1031a12; VIII 1, 1042a17). Das Wesen beschreibt die notwendigen Eigenschaften, ohne die ein Einzelding aufhören würde, ein und dieselbe Sache zu sein. Fragt man: "Was ist die Ursache dafür, dass diese Materieportion Sokrates ist?," so ist Aristoteles’ Antwort: "Das Wesen von Sokrates, welches weder ein weiterer Bestandteil "neben" den materiellen Bestandteilen" ist (dann bedürfte es eines weiteren Strukturprinzips, um zu erklären, wie es mit den materiellen Bestandteilen vereint ist) "noch etwas "aus" materiellen Bestandteilen" (dann müsste man erklären, wie das Wesen selbst zusammengesetzt ist). Aristoteles ermittelt die Form "(eidos)" eines Einzeldings als sein Wesen und somit als Substanz-X. Mit Form meint er weniger die äußere Gestalt als vielmehr die Struktur: Die Form Dass die Form als Substanz-X auch das genannte Kriterium (ii), selbständig zu sein, erfüllen muss, und dies teilweise als Kriterium für etwas Individuelles aufgefasst wird, ist einer von vielen Aspekten in folgender zentralen interpretatorischen Kontroverse: Fasst Aristoteles die Form (A) als etwas Allgemeines oder (B) als etwas (dem jeweiligen Einzelding) Individuelles auf? Als Problem formuliert: Wie kann die Form, das "eidos," zugleich Form eines Einzeldings und Gegenstand des Wissens sein? Für (A) spricht insbesondere, dass Aristoteles an mehreren Stellen davon ausgeht, dass die Substanz-X und somit die Form definierbar ist (Met. VII 13) und dies für ihn (wie für Platon) nur auf Allgemeines zutrifft (VII 11, 1036a; VII 15, 1039b31–1040a2). Für (B) hingegen spricht vor allem, dass Aristoteles kategorisch die unplatonische Position zu vertreten scheint: Kein Allgemeines kann Substanz-X sein (Met. VII 13). Nach (B) besitzen Sokrates und Kallias zwei auch qualitativ verschiedene Formen. Definierbar müssten dann zu separierende, überindividuelle Aspekte dieser beiden Formen sein. Die Interpretation (A) hingegen löst das Dilemma etwa, indem sie die Aussage "Kein Allgemeines ist Substanz-X" als "Nichts allgemein Prädizierbares ist Substanz-X" interpretiert und so entschärft. Die Form werde nicht auf herkömmliche Weise (wie die Art ‚Mensch‘ von ‚Sokrates‘ in den "Kategorien") prädiziert und sei daher nicht im problematischen Sinne allgemein. Vielmehr werde die Form von der unbestimmten Materie in einer Weise ‚prädiziert‘, die einen Einzelgegenstand erst konstituiere. Akt und Potenz. Die für die Ontologie wichtige Beziehung zwischen Form und Materie wird durch ein weiteres Begriffspaar genauer erläutert: Akt "(energeia, entelecheia)" und Potenz "(dynamis)." Für die Form-Materie-Unterscheidung ist die später ontologisch genannte Bedeutung von Potenz oder Vermögen wichtig. Potentialität ist hier ein Zustand, dem ein anderer Zustand – Aktualität – gegenübersteht, indem ein Gegenstand der Wirklichkeit nach F oder dem Vermögen, der Möglichkeit nach F ist. So ist ein Junge der Möglichkeit nach ein Mann, ein ungebildeter Mensch der Möglichkeit nach ein gebildeter (Met. IX 6). Dieses (hier diachron beschriebene) Verhältnis von Aktualität und Potentialität bildet die Grundlage für das (auch synchron zu verstehende) Verhältnis von Form und Materie, denn Form und Materie sind Aspekte eines Einzeldings, nicht dessen Teile. Sie sind im Verhältnis von Aktualität und Potentialität miteinander verbunden und konstituieren so (erst) das Einzelding. Die Materie eines Einzeldings ist demnach genau das "potentiell," was die Form des Einzeldings und das Einzelding selbst "aktual" sind (Met. VIII 1, 1042a27 f.; VIII 6, 1045a23–33; b17–19). Zum einen ist zwar (diachron betrachtet) eine bestimmte Portion Bronze potentiell eine Kugel wie auch eine Statue. Zum anderen aber ist (synchron als konstituierender Aspekt) die Bronze an einer Statue potentiell genau das, was die Statue und deren Form aktual sind. Die Bronze der Statue ist ein Konstituens der Statue, ist aber nicht mit ihr identisch. Und so sind auch Fleisch und Knochen potentiell das, was Sokrates oder seine Form (die für einen Menschen typische Konfiguration und Fähigkeiten seiner materiellen Bestandteile,→ ) aktual sind. So wie die Form gegenüber der Materie ist für Aristoteles auch die Aktualität gegenüber der Potentialität primär (Met. IX 8, 1049b4–5). Unter anderem ist sie der Erkenntnis nach primär. Man kann nur dann ein Vermögen angeben, wenn man Bezug auf die Wirklichkeit nimmt, zu der es ein Vermögen ist. Das Sehvermögen etwa lässt sich nur bestimmen, indem man auf die Tätigkeit ‚Sehen‘ Bezug nimmt (Met. IX 8, 1049b12–17). Des Weiteren ist die Aktualität im entscheidenden Sinne auch zeitlich früher als die Potentialität, denn ein Mensch entsteht durch einen Menschen, der aktual Mensch ist (Met. IX 8, 1049b17–27). Theologie. Aristoteles unterscheidet im Vorfeld seiner Theologie drei mögliche Substanzen: (i) sinnlich wahrnehmbare vergängliche, (ii) sinnlich wahrnehmbare ewige und (iii) nicht sinnlich wahrnehmbare ewige und unveränderliche (Met. XII 1, 1069a30–1069b2). (i) sind die konkreten Einzeldinge (der sublunaren Sphäre), (ii) die ewigen, bewegten Himmelskörper, (iii) erweist sich als der selbst unbewegte Ursprung aller Bewegung. Aristoteles argumentiert für einen göttlichen Beweger, indem er feststellt, dass, wenn alle Substanzen vergänglich wären, alles vergänglich sein müsste, die Zeit und die Veränderung selbst jedoch notwendig unvergänglich sind (Phys. VIII 1, 251a8–252b6; Met. XII 6, 1071b6–10). Aristoteles zufolge ist die einzige Veränderung, die ewig existieren kann, die Kreisbewegung (Phys. VIII 8–10; Met. XII 6,1071b11). Die entsprechende beobachtbare kreisförmige Bewegung der Fixsterne muss daher als Ursache eine ewige und immaterielle Substanz haben (Met. XII 8, 1073b17–32). Enthielte das Wesen dieser Substanz Potentialität, könnte die Bewegung unterbrochen werden. Daher muss sie reine Aktualität, Tätigkeit sein (Met. XII, 1071b12–22). Als letztes Prinzip muss dieser Beweger selbst unbewegt sein. Nach Aristoteles bewegt der unbewegte Beweger „wie ein Geliebtes“, nämlich als Ziel (Met. XII 7, 1072b3), denn das Begehrte, das Gedachte und insbesondere das Geliebte kann bewegen, ohne bewegt zu sein (Met. XII 7, 1072a26). Seine Tätigkeit ist die lustvollste und schönste. Da er immaterielle Vernunft "(nous)" ist und seine Tätigkeit im Denken des besten Gegenstandes besteht, denkt er sich selbst: das „Denken des Denkens“ "(noêsis noêseôs)" (Met. XII 9, 1074b34 f.). Da nur Lebendiges denken kann, muss er zudem lebendig sein. Den unbewegten Beweger identifiziert Aristoteles mit Gott (Met. XII 7, 1072b23 ff.). Der unbewegte Beweger bewegt die gesamte Natur. Die Fixsternsphäre bewegt sich, da sie mit der Kreisbewegung die Vollkommenheit nachahmt. Die anderen Himmelskörper werden vermittelt über die Fixsternsphäre bewegt. Die Lebewesen haben Anteil an der Ewigkeit, indem sie mittels der Fortpflanzung ewig bestehen (GA II 1, 731b31–732a1). Biologie. Stellung der Biologie Nicht nur in der Philosophiegeschichte, sondern auch in der Geschichte der Naturwissenschaften nimmt Aristoteles einen bedeutenden Platz ein. Ein großer Teil seiner überlieferten Schriften ist naturwissenschaftlich, von denen die bei weitem bedeutendsten und umfangreichsten die biologischen Schriften sind, die fast ein Drittel des überlieferten Gesamtwerks umfassen. Vermutlich in Arbeitsteilung wurde die Botanik von seinem engsten Mitarbeiter Theophrast, die Medizin bzw. Geschichte der Medizin von seinem Schüler Menon bearbeitet. Aristoteles vergleicht das Studium unvergänglicher Substanzen (Gott und Himmelskörper) und vergänglicher Substanzen (der Lebewesen). Beide Forschungsgebiete haben ihren Reiz. Die unvergänglichen Substanzen, die höchsten Erkenntnisgegenstände zu untersuchen, bereiten zwar die größte Freude, aber das Wissen über Lebewesen ist leichter zu erlangen, da sie uns näher stehen. Er betont den Wert der Erforschung auch niederer Tiere und weist darauf hin, dass auch diese etwas Natürliches und Schönes zeigen, das sich nicht in ihren zerlegten Bestandteilen erschöpft, sondern erst durch die Tätigkeiten und das Zusammenwirken der Teile hervortritt (PA I 5, 645a21–645b1). Aristoteles als empirischer Forscher Aristoteles hat selbst empirische Forschung betrieben, jedoch vermutlich nicht Experimente im – erst in der neuzeitlichen Naturwissenschaft eingeführten – Sinne einer methodischen Versuchsanordnung angestellt. Sicher ist, dass er selbst Sezierungen vornahm. Einem Experiment am nächsten kommt die in festgelegten zeitlichen Abständen wiederholte Untersuchung von befruchteten Hühnereiern, mit dem Ziel zu beobachten, in welcher Reihenfolge die Organe entstehen (GA VI 3, 561a6–562a20). Experimente sind jedoch in seiner eigentlichen Domäne – der deskriptiven Zoologie – auch nicht das wesentliche Instrument der Forschung. Neben eigenen Beobachtungen und einigen wenigen Textquellen stützte er sich hier auch auf Informationen von einschlägig Berufstätigen wie Fischern, Bienenzüchtern, Jägern und Hirten. Er ließ die Inhalte seiner Textquellen teilweise empirisch überprüfen, übernahm aber auch unkritisch fremde Irrtümer. Ein verlorenes Werk bestand vermutlich großenteils aus Zeichnungen und Diagrammen von Tieren. Methodologie der Biologie: Trennung von Fakten und Ursachen. Aufgrund des lange vorherrschenden Interpretationsmodells der Wissenschaftstheorie des Aristoteles und der Vernachlässigung der biologischen Schriften, ging man früher davon aus, dass er diese Theorie nicht auf die Biologie angewendet hat. Demgegenüber wird heute durchaus angenommen, dass seine Vorgehensweise in der Biologie von seiner Wissenschaftstheorie beeinflusst war, wenngleich Umfang und Grad umstritten sind. Faktensammlungen Von Aristoteles ist keine Beschreibung seines naturwissenschaftlichen Vorgehens überliefert. Erhalten sind neben der allgemeinen Wissenschaftstheorie nur Texte, die ein Endprodukt der wissenschaftlichen Forschung darstellen. Die biologischen Schriften sind in einer bestimmten Reihenfolge angeordnet, die der Vorgehensweise entspricht. Die erste Schrift "(Historia animalium)" beschreibt die verschiedenen Tierarten und ihre spezifischen Differenzen. Sie bietet die Sammlung des Faktenmaterials wie z. B., dass alle Lebewesen mit Lungen Luftröhren aufweisen. Dabei wird nicht erörtert, ob etwas notwendig oder unmöglich so sei. In der Faktensammlung ordnet Aristoteles die Lebewesen nach verschiedenen Einteilungsmerkmalen wie blutführend, lebendgebärend usw. Nach Merkmalen geordnet stellt er allgemeine Relationen zwischen verschiedenen Aspekten der Beschaffenheit fest. So bemerkt er beispielsweise: Alle Vierfüßler, die lebendgebärend sind, weisen Lungen und Luftröhren auf (HA II 15, 505b32 f.). Erst die an dieses Werk anschließenden und darauf aufbauenden Schriften "De generatione animalium" (Über die Entstehung der Tiere) und "De partibus animalium" (Über die Teile der Tiere) befassen sich mit den Ursachen, welche die Fakten erklären. Ursachenwissen Die Faktensammlung ist die Voraussetzung dafür, Wissen auf der Grundlage von Ursachenkenntnis zu erreichen. Zentral für die Biologie sind dabei finale Ursachen, die den Zweck der Bestandteile des Körpers angeben. Die Ursache für die Existenz einer Luftröhre bei allen Lebewesen, die eine Lunge besitzen, besteht für Aristoteles in der Funktionsweise der Lunge. Die Lunge kann – anders als der Magen – nicht unmittelbar an den Mund anschließen, da sie eines zweigeteilten Kanals bedarf, so dass Einatmen und Ausatmen auf optimale Weise möglich ist. Da dieser Kanal eine gewisse Länge aufweisen muss, haben alle Lebewesen mit Lunge einen Hals. Fische haben daher keinen Hals, weil sie keine Luftröhre benötigen, da sie mit Kiemen atmen (PA III 3, 664a14–34). Finale Ursachen in der Biologie Die Verwendung finaler Erklärungen in der Biologie (und auch anderen Forschungsgebieten des Aristoteles) ist insbesondere in der Frühen Neuzeit und bis ins 20. Jahrhundert vielfach kritisiert worden. Unter finalen Erklärungen oder Ursachen versteht Aristoteles hier allerdings in der Regel keine übergreifenden Zwecke, die etwa eine bestimmte Spezies hätte. Ihm geht es vielmehr um eine interne Funktionsbestimmung der Organismen und ihrer Teile. Inhalte der Zoologie. Aristoteles hat über 500 Spezies untersucht. Seine Schriften behandeln systematisch die inneren und äußeren Teile der einzelnen Tiere, Bestandteile wie Blut und Knochen, Arten der Fortpflanzung, die Nahrung, den Lebensraum und das Verhalten. Er beschreibt das Verhalten von Haustieren, exotischen Raubtieren wie dem Krokodil, Vögeln, Insekten und Meerestieren. Zu diesem Zweck ordnet er die Lebewesen. Einteilung der Arten Aristoteles unterscheidet zwei Hauptgruppen von Lebewesen: blutführende und blutlose Tiere. Dies entspricht der Einteilung in Wirbeltiere und Wirbellose. Diese ordnet er nach größten Gattungen: Vermutlich war es nicht Aristoteles’ Absicht, eine vollständige Taxonomie zu schaffen. Das System einer Taxonomie ist für ihn auch kein Hauptgegenstand. Ziel seiner Untersuchungen war eher eine Morphologie, eine Klassifikation der Lebewesen anhand charakteristischer Merkmale. So hat er die Gattungen zwischen den genannten sowie Untergattungen nicht terminologisch fixiert. Beispiel einer Beschreibung. Der Krake Aristoteles und die Erkenntnisse der modernen Biologie In vielen Fällen hat sich Aristoteles als Biologe geirrt. Einige seiner Irrtümer erscheinen reichlich kurios, wie die Beschreibung des Bisons, das sich „durch Ausschlagen und Ausstoßen seines Kots, welchen es bis siebeneinhalb Meter weit von sich schleudern kann, verteidigt“ (HA IX 45, 630b8 f.). Offenbar war seine Informationsquelle über dieses exotische Tier nicht sehr verlässlich. Weitere bekannte Irrtümer sind unter anderem die Behauptung, der Mann habe mehr Zähne als die Frau (HA II 3, 501b19), das Gehirn sei ein Kühlorgan und das Denken geschehe in der Herzgegend (PA II 7, 652b21–25; III 3, 514a16–22) sowie das Konzept der Telegonie, wonach eine vorangegangene Trächtigkeit den Phänotyp von Nachkommen aus späteren Trächtigkeiten beeinflussen könne. Aristoteles hat aber auch auf der Grundlage seiner Beobachtungen Einsichten gewonnen, die nicht nur zutreffen, sondern die erst in der Moderne wiederentdeckt oder bestätigt worden sind. Beispielsweise erwähnt er bei der Beschreibung des angeführten Kraken, dass die Paarung durch einen Fangarm des Männchens geschieht, der gegabelt ist – die sogenannte Hektokotylisation –, und beschreibt diesen Fortpflanzungsvorgang (HA V 5, 541b9–15; V 12, 544a12; GA V 15, 720b33). Dieses Phänomen war bis ins 19. Jahrhundert nur durch Aristoteles bekannt; die genaue Art der Fortpflanzung wurde erst 1959 vollständig verifiziert. Bedeutender noch ist seine Hypothese, nach der die Teile eines Organismus in einer hierarchischen Ordnung ausgebildet werden und nicht – wie die (bereits von Anaxagoras vertretene) Präformationslehre annimmt – vorgebildet sind (GA 734a28–35). Diese Auffassung von der embryonalen Entwicklung ist in der Neuzeit unter der von Aristoteles noch nicht verwendeten Bezeichnung Epigenesis bekannt geworden. Ihre empirische Grundlage waren für Aristoteles seine Sezierungen. In der Neuzeit war aber die Präformationslehre vom 17. bis in das 19. Jahrhundert hinein die allgemein akzeptierte Theorie, und Vertreter der Epigenesis wie William Harvey (1651) und Caspar Friedrich Wolff (1759) fanden mit ihren embryologischen Untersuchungen, die klar zeigten, dass die Embryonen sich aus ganz undifferenzierter Materie entwickeln, wenig Beachtung. Diese Einsicht setzte sich erst im frühen 19. Jahrhundert durch und verdrängte schließlich die präformistischen Spekulationen. Endgültig wurde erst im 20. Jahrhundert in der Experimentalbiologie durch Hans Driesch und Hans Spemann bestätigt, dass die embryonale Entwicklung eine Kette von Neubildungen, ein epigenetischer Prozess ist. Ferner gibt es eine Analogie zwischen der aristotelischen zielhaften Epigenesis und der Genetik. Seelenlehre: Theorie des Lebendigseins. Ausgangssituation. Lebewesen unterscheiden sich von anderen natürlichen und künstlichen Objekten dadurch, dass sie lebendig sind. Bei Homer ist die Seele "(psychê)" das, was einen Leichnam verlässt. Im Laufe des 6. und 5. Jahrhundert v. Chr. findet der Begriff zunehmend eine deutliche Ausweitung: beseelt "(empsychos)" zu sein bedeutet lebendig zu sein und das Konzept Seele weist nun auch kognitive und emotionale Aspekte auf. Aristoteles nimmt diesen Sprachgebrauch auf. In seiner Seelentheorie ist er mit zwei Positionen konfrontiert: zum einen mit dem Materialismus vorsokratischer Naturphilosophen (vor allem Demokrit und Empedokles), die behaupten, die Seele bestehe aus einer besonderen Art Materie, zum anderen mit der dualistischen Position Platons, für den die Seele unsterblich, immateriell und ihrer Natur nach eher etwas Intelligibles ist. Hinsichtlich der Streitfrage zwischen Materialismus und Dualismus, ob Körper und Seele miteinander identisch sind oder nicht, ist Aristoteles der Auffassung, dass die Frage falsch gestellt ist. Dies erläutert er mit einem Vergleich: Die Frage "Sind Körper und Seele identisch?" ist ebenso unsinnig wie die Frage "Sind Wachs und seine Form identisch?" (An. II 1, 412b6–9). Zustände der Seele sind zwar immer auch Zustände des Körpers, aber eine Identität von Körper und Seele verneint Aristoteles ebenso wie die Unsterblichkeit der Seele. Bestimmung der Seele. Was die Seele ist, bestimmt Aristoteles mittels seiner Unterscheidung von Form und Materie. Die Seele verhält sich zum Körper wie die Form zur Materie, das heißt wie eine Statuenform zur Bronze. Form und Materie eines Einzeldings sind aber nicht zwei verschiedene "Objekte," nicht dessen Teile, sondern Aspekte ebendieses Einzeldings. Die Seele definiert Aristoteles als „erste Wirklichkeit "(entelecheia)" eines natürlichen organischen Körpers“ (An. II 1, 412b5 f.). Eine Wirklichkeit oder Aktualität ist die Seele, weil sie als Form den Aspekt des Lebendigen an der potentiell belebten Materie (nämlich der organischen) darstellt. Eine "erste" Wirklichkeit ist sie, insofern das Lebewesen auch dann lebendig ist, wenn es nur schläft und keine weiteren Tätigkeiten ausübt (die ebenfalls Aspekte des Seelischen sind). (An. II 1, 412a19–27). Fähigkeiten. Die weiteren seelischen Aspekte sind die Funktionen, die für ein Lebewesen charakteristisch sind, seine spezifischen Fähigkeiten oder Vermögen "(dynamis)." Aristoteles unterscheidet vor allem folgende Fähigkeiten: Ernährungs- und Fortpflanzungsvermögen kommen – als grundlegendes Vermögen alles Lebendigen – auch den Pflanzen zu, Wahrnehmungsvermögen (und Fortbewegungsfähigkeit) weisen nur die Tiere (einschließlich des Menschen) auf. Das Denken besitzt allein der Mensch. Wahrnehmungsvermögen. Aristoteles unterscheidet folgende fünf Sinne und behauptet, dass es nicht mehr geben kann: Wahrnehmung "(aisthesis)" fasst Aristoteles allgemein als ein Erleiden oder eine qualitative Veränderung (An. II 5, 416b33 f.). Das, was die Sinne wahrnehmen, ist dabei jeweils durch ein kontinuierliches Gegensatzpaar bestimmt: Sehen durch hell und dunkel, Hören durch hoch und tief, Riechen und Schmecken durch bitter und süß; Tasten weist verschiedene Gegensatzpaare auf: hart und weich, heiß und kalt, feucht und trocken. Aristoteles behauptet, dass beim Wahrnehmungsvorgang das jeweilige Organ "wie" das Wahrgenommene wird (An. 418a3–6). Des Weiteren sagt er, dass das Organ die Form „ohne die Materie“ aufnimmt, so „wie das Wachs das Siegel des Ringes ohne Eisen und ohne Gold aufnimmt“ (An. II 12, 424a18 f.). Dies ist von manchen Kommentatoren, darunter Thomas von Aquin, so interpretiert worden, dass das Organ keine natürliche Veränderung "(mutatio naturalis)," sondern eine geistige "(mutatio spiritualis)" erfahre. Andere Interpreten meinen, dass „ohne Materie“ schlicht bedeutet, dass zwar keine Partikel in das Organ gelangen, dieses sich aber tatsächlich dem Wahrnehmungsobjekt entsprechend verändert. Den Tastsinn besitzen alle Lebewesen, welche Wahrnehmung besitzen. Der Tastsinn ist ein Kontaktsinn, das heißt zwischen Wahrnehmungsorgan und Wahrgenommenem befindet sich kein Medium (An. II 11, 423a13 f.). Der Geschmacksinn ist eine Art Tastsinn (An. II 10, 422a8 f.). Die drei Distanzsinne Riechen, Hören und Sehen hingegen benötigen ein Medium, das den Eindruck vom Wahrgenommenen zum Organ transportiert. Vernunft. Die Vernunft oder das Denkvermögen "(nous)" ist spezifisch für den Menschen. Aristoteles definiert sie als „das, womit die Seele denkt und Annahmen macht“ (An. III 4, 429a22 f.). Die Vernunft ist unkörperlich, da sie anderenfalls in ihren möglichen Denkgegenständen eingeschränkt wäre, was aber nicht der Fall sein darf (An. III 4, 429a17–22). Allerdings ist sie körpergebunden, da sie auf Vorstellungen "(phantasmata)" angewiesen ist. Vorstellungen bilden das Material der Denkakte, sie sind konservierte Sinneswahrnehmungen. Das entsprechende Vorstellungsvermögen ("phantasia;" weder interpretierend noch produktiv im Sinne von Phantasie) ist auf Sinneseindrücke angewiesen, wenngleich Sinneseindruck und Vorstellung qualitativ mitunter stark voneinander abweichen können, etwa bei Halluzinationen. Das Vorstellungsvermögen ist den Wahrnehmungsvermögen zugeordnet (An. III 8, 428b10–18). Insofern die Vernunft also in ihrer Tätigkeit an Vorstellungen gebunden ist, ist sie auch an einen Körper gebunden. Ethik. Glück "(eudaimonia)" und Tugend oder Bestzustand "(aretê)" sind die in Aristoteles’ Ethik zentralen Begriffe. Aristoteles vertritt die These, dass das Ziel aller absichtlichen Handlungen das im „guten Leben“ verwirklichte Glück ist. Die Ausbildung von Tugenden ist nach seiner Ansicht wesentlich dafür, dieses Ziel zu erreichen (→ Tugendethik). Glück als das Ziel des guten Lebens. Strebenshierarchie der Güter. In ihren (absichtlichen) Handlungen streben alle Menschen nach etwas, das ihnen gut erscheint. Einige dieser erstrebten Güter werden nur als Mittel erstrebt, um andere Güter zu erreichen, andere sind sowohl Mittel als auch selbst ein Gut. Da das Streben nicht unendlich sein kann, muss es ein oberstes Gut und letztes Strebensziel geben. Dieses wird nur um seiner selbst willen erstrebt. Es wird offenbar allgemein „Glück“ "(eudaimonia)" genannt (EN I 1). Definition des Glücks als des obersten Guts. Um umrisshaft zu bestimmen, worin das Glück als oberstes Gut für den Menschen besteht, fragt Aristoteles: Worin besteht die spezifische Funktion "(telos)" oder Aufgabe "(ergon)" des Menschen? Sie besteht im Vermögen der Vernunft "(logos)," das ihn von anderen Lebewesen unterscheidet. Der für den Menschen spezifische Seelenteil verfügt über dieses Vermögen der Vernunft; der andere Seelenteil, der sich aus Emotionen und Begierden zusammensetzt, ist zwar selbst nicht vernünftig, kann sich aber durch die Vernunft leiten lassen. Um das Glück zu erlangen, muss das Individuum das Vermögen Vernunft gebrauchen, nicht bloß besitzen, und zwar auf Dauer und in einem Bestzustand "(aretê)." Demgemäß ist „das Gut für den Menschen“, das Glück, eine Tugenden. Um den Zustand der Vortrefflichkeit zu erreichen, muss man den beiden Seelenteilen entsprechend (a) Verstandestugenden und (b) Charaktertugenden ausbilden. Tugenden sind für Aristoteles Haltungen, zu denen jeder Mensch die Anlage besitzt, die sich jedoch durch Erziehung und Gewöhnung erst ausbilden müssen. Verstandestugenden. Unter den Verstandestugenden beziehen sich einige auf das Wissen von Unveränderlichem oder die Herstellung von Gegenständen. Allein die Klugheit "(phronêsis)" ist mit dem Handeln verknüpft, und zwar als Tugend mit dem Ziel eines guten Lebens. Sie ist – neben den Charaktertugenden – notwendig, um in konkreten Entscheidungssituationen im Hinblick auf das gute Leben handeln zu können. Im Bereich menschlicher Handlungen gibt es – anders als in den Wissenschaften – keine Beweise, und um klug zu sein, bedarf es dabei auch der Erfahrung. Die Funktion der Klugheit besteht darin, die Mitte "(mesotês)" zu wählen. Charaktertugenden. Charaktertugenden sind Haltungen "(hexeis)," für die kennzeichnend ist, dass man sie loben und tadeln kann. Sie werden durch Erziehung und Gewöhnung ausgeprägt, wobei dies nicht als eine Konditionierung zu verstehen ist. Zwar hängt von Kindheit an sehr viel von der Gewöhnung ab (EN II 1, 1103b24), Charaktertugenden liegen jedoch erst vor, wenn jemand sich wissentlich für die entsprechenden Handlungen entscheidet, und zwar nicht wegen möglicher Sanktionen, sondern um der tugendhaften Handlungen selbst willen, und wenn er dabei auch nicht ins Wanken gerät (EN II 3, 1105a26–33). Auch unterscheidet sich der Tugendhafte vom Selbstbeherrschten (der dieselben Handlungen ausführen mag, sich aber dazu zwingen muss) dadurch, dass er an der Tugend Freude empfindet (EN II 2, 1104b3 ff.). Durch Gewöhnung ausgeprägt werden die Charaktertugenden, indem Übermaß und Mangel vermieden werden. Das Instrument der Mitte bestimmt die Charaktertugenden genauer. So ist beispielsweise die Tugend der Tapferkeit eine Mitte zwischen den Lastern Tollkühnheit und Feigheit. Grundlage für die Tugenden sind dabei sowohl die Handlungen als auch die Emotionen und Begierden. Nicht tapfer, sondern tollkühn ist jemand, der entweder in einer bestimmten Situation völlig furchtlos ist, obwohl die Situation bedrohlich ist, oder der in einer ernsten Bedrohungssituation seine Furcht ignoriert. Die Mitte besteht also – hier wie bei den anderen Charaktertugenden – darin, angemessene Emotionen zu haben und demgemäß angemessen zu handeln. Dabei ist diese Lehre von der Mitte vermutlich nicht in konkreten Situationen als normativ handlungsleitend, sondern nur als Beschreibungsinstrument der Charaktertugenden aufzufassen. Sie ist auch "keine arithmetische" Mitte, sondern eine Mitte "für uns" "(pros hêmas)," die die jeweilige Emotion, die Person sowie die Situation berücksichtigt. Diese Tabelle zeigt einige wichtige Charaktertugenden (EN II 7): Aristoteles definiert die Charaktertugend dementsprechend als Lebensformen und Lust. Im Kontext der Analyse des guten Lebens unterscheidet Aristoteles drei Lebensformen, die verschiedene Ziele verfolgen: Das Genussleben im Sinne einer bloßen Befriedigung der Begierden hält Aristoteles für sklavisch und verwirft es. Gelderwerb und Reichtum als Ziel hält er nicht für eine Lebensform, da Geld immer nur Mittel zu einem Zweck, aber nie selbst Ziel ist. Er plädiert für das theoretische Leben als beste Lebensform. Die beste Tätigkeit, die in der Glücksdefinition gesucht wird, ist diejenige des Theoretikers, der auf Gebieten wie Philosophie, Mathematik usw. forscht und neue Erkenntnisse gewinnt, denn sie bedeutet Muße, dient keinem anderen Zweck, betätigt mit den Verstandestugenden das Beste im Menschen und weist die besten Erkenntnisgegenstände auf (EN X 7, 1177a18–35). Obwohl er das theoretische Leben für das bestmögliche hält, weist er darauf hin, dass die Betrachtung als Lebensform den Menschen als Menschen übersteigt und eher etwas Göttliches ist (EN X 7, 1177b26–31). Das zweitbeste Leben ist das politische. Es besteht in der Betätigung der Charaktertugenden, die den Umgang mit anderen Menschen sowie mit unseren Emotionen bestimmen. Da Charaktertugenden und Verstandestugenden einander nicht ausschließen, meint Aristoteles möglicherweise, dass selbst der Theoretiker, insofern er ein soziales und mit Emotionen ausgestattetes Wesen ist, sich im Sinne des zweitbesten Lebens betätigen muss. Aristoteles fasst die Betätigung der Verstandestugenden (zumindest der Klugheit) und der Charaktertugenden als wesentliche Elemente des Glücks auf. Aber auch äußere oder körperliche Güter und auch die Lust hält er für Bedingungen, die hilfreich oder sogar notwendig sind, um glücklich zu werden. Güter wie Reichtum, Freunde und Macht verwenden wir als Mittel. Fehlen einige Güter, wird das Glück getrübt, wie bei körperlicher Verunstaltung, Einsamkeit oder missratenen Kindern (EN I 9, 1099a31–1099b6). Aristoteles meint, das Genussleben führe nicht zum Glück. Er hält die Lust nicht für das oberste Gut. Gegenüber lustfeindlichen Positionen macht er jedoch geltend, dass das gute Leben Lust einschließen müsse und bezeichnet die Lust als ein Gut (EN VII 14). Auch meint er, man könne einen Tugendhaften, der „auf das Rad geflochten“ sei, nicht als glücklich bezeichnen (EN VII 14, 1153b18–20). Gegen Platons Auffassung, Lüste seien Prozesse "(kinêsis)," die einen Mangel beseitigen (wie Lust beim Durstlöschen), und somit sei das Vollenden des Prozesses besser als dieser selbst, argumentiert Aristoteles dafür, dass Lüste Tätigkeiten "(energeia)" sind, die kein Ziel außer sich aufweisen. Paradigmatische Fälle sind Wahrnehmen und Denken. Mit diesem Lustkonzept, das Lust als „unbehinderte Tätigkeit“ oder „Vervollkommnung der Tätigkeit“ definiert (EN VII 13, 1153a14 f.; X 4, 1174b33), macht er geltend, dass die Betätigung der Verstandestugenden und der Charaktertugenden lustvoll sein kann. Ob Lüste gut oder schlecht sind, hängt davon ab, ob die entsprechenden Tätigkeiten gut oder schlecht sind. Bei körperlichen Lüsten ist Letzteres etwa der Fall, wenn sie im Übermaß auftreten oder wenn sie gute Handlungen verhindern und so dem Glück abträglich sind. Politische Philosophie. Die politische Philosophie des Aristoteles schließt an seine Ethik an. Als umfassende Form aller Gemeinschaften besteht der Staat "(polis)" um des höchsten Gutes willen, des Glücks (EN I 1, 1094a26–b11; Pol. I 1, 1252a1–7). Die politische Philosophie fragt also nach den Bedingungen des Glücks hinsichtlich des Lebens im Staat. Hierfür analysiert er die Bestandteile jeder menschlichen Gemeinschaft und jedes Staates und untersucht, welche Verfassung "(politeia)" die beste ist und für welche besonderen Bedingungen welche Verfassung die richtige ist. Entstehung, Bestandteile und Zweck des Staates. Aus der Sicht von Aristoteles besteht der Staat von Natur aus, weil der einzelne Mensch nicht für sich allein zu existieren vermag. Betrachtet man die aus den einzelnen Haushalten sich zusammensetzenden Teile des Staates, so liegen zunächst zwei grundlegende Beziehungen vor: die zwischen Mann und Frau, deren Zweck die Fortpflanzung ist, und die von Herr und Sklave, die dem Lebensunterhalt und der Besitzmehrung dient. (Pol. I 2, 1253b, 1253a und 1253b) Aristoteles rechtfertigt die Sklaverei, indem er sie als dem Prinzip von Herrschaft und Unterordnung entsprechend auffasst. Er vertritt die These, dass es Sklaven gibt, die von Natur aus zu nichts anderem bestimmt sind als zum Sklavendasein. Das begründet er damit, dass solche „Sklaven von Natur“ nur in geringem Maße Anteil an der Vernunft hätten; daher sei es nicht nur gerechtfertigt, sondern sogar für sie selbst vorteilhaft, dass sie ihr Leben als Sklaven verbringen müssen (Pol. I 5, 1254b20–23; 1255a1 f.). Allerdings ist sein Konzept unklar und widersprüchlich, da er die Freilassung von Sklaven grundsätzlich billigt und für die Unterscheidung zwischen akzidentellen Sklaven (etwa durch Kriegsgefangenschaft) und Sklaven von Natur keine klaren Kriterien nennt. Sein Rat, Sklaven als Lohn die Freiheit zu versprechen (Pol. VII 10, 1330a20 f.), widerspricht der Vorstellung eines „Sklaven von Natur“. Entsprechend argumentiert er auch für eine Unterordnung der Frau (Pol. VII 10, 1330a20 f.). Es sei für sie besser, vom Mann beherrscht zu werden, da ihre Urteilskraft schwächer sei als die männliche (Pol. I 5, 1254b10–15; I 13, 1259a12). Mehrere Haushalte ergeben ein Dorf, in dem Arbeitsteilung bessere Versorgung ermöglicht, und mehrere Dörfer einen Staat. Dieser ist autark in dem Sinne, dass er die Bedingungen für ein gutes Leben bereitstellen kann. Aristoteles unterscheidet den Grund der Entstehung des Staates von seinem Zweck. Der Staat entsteht zum Zweck des Überlebens, des Lebens an sich, sein Zweck aber ist das "gute" Leben: εὖ ζῆν = eu zēn = gut leben (Pol. I 2, 1252a25–1253a1). Nach Aristoteles gehört es zur Natur des Menschen, in Gemeinschaft zu leben, denn er ist ein „zôon politikon“, ein Lebewesen in der Polisgemeinschaft (Pol. I 2, 1253a3). Nur im Staat kann der Mensch das gute Leben verwirklichen. Wer des Staates nicht bedürfe, sei „entweder ein Tier oder ein Gott“ (Pol. I 2, 1253a29). Bürger und Verfassung eines Staates. Eine Polis (ein Staat) besteht aus den freien Bürgern. Der Zweck des Staates ist immer das gute Leben. Militär- oder Handelsbündnisse, also Verträge, machen noch keinen Staat aus. Kennzeichnendes Merkmal eines bestimmten Staates ist seine Verfassung. Der Bürger Bürger sind die mit dem Bürgerrecht ausgestatteten Einwohner, die sich aktiv am politischen Geschehen (am Richten und Regieren) beteiligen (Pol. III 1, 1275a22). Den Bürger bestimmt Aristoteles also primär nicht über die Herkunft oder den Wohnort, sondern über die Partizipation an den politischen Institutionen des Staates. Entsprechend den damaligen Verhältnissen in Athen betrachtet Aristoteles Frauen, Kinder, Sklaven und Fremde nicht als Bürger. Ein Bürger darf auch nicht für seinen Lebensunterhalt arbeiten müssen. Lohnarbeiter und Handwerker können somit keine Bürger sein (Pol. III 5, 1278a11). Die jeweilige Verfassung eines Staates bestimmt genauer, wer Bürger ist und wer nicht. Theorie der Verfassungen In seiner Unterscheidung der verschiedenen Verfassungen stellt Aristoteles zwei Fragen: Bei der ersten Frage unterscheidet er drei mögliche Antworten: einer, wenige, viele. Bei der zweiten Frage unterscheidet er zwei mögliche Zustände und Nutznießer: die Verfassung ist gerecht, wenn zum Nutzen aller regiert wird; sie ist ungerecht oder verfehlt, wenn allein zum Nutzen der Herrschenden regiert wird (Pol. III 6, 1279a17–21). Auf dieser Grundlage entwirft er eine erste Staatsformenlehre mit sechs Verfassungen (Pol, III 6–8): Die verschiedenen Verfassungen wenden auf unterschiedliche Weise die distributive Gerechtigkeit an (Pol. III 9, 1280a7–22). Distributive Gerechtigkeit bestimmt er als die Verteilung proportional zur Leistung oder Würde (EN V 6). Kritik an schlechten Verfassungen Unter den schlechten, nicht am Gemeinwohl orientierten Verfassungen hält er die Tyrannis für die schlechteste, denn in ihr herrscht der Tyrann über den Staat im Sinne einer despotischen Alleinherrschaft wie der Herr über den Sklaven (Pol. III 8, 1279b16). Für etwas weniger schlecht erachtet er die durch die Herrschaft der Reichen gekennzeichnete Oligarchie, die ebenso wie die Tyrannis sehr instabil ist (Pol. V 12). Für den Grundirrtum der Oligarchie hält Aristoteles die Auffassung, dass die, die in "einer" Hinsicht (Besitz) ungleich sind, in "allen" Hinsichten ungleich seien. Entsprechend besteht der Grundirrtum der Demokratie in der Ansicht, dass die, die in "einigen" Hinsichten gleich sind, dies in "allen" seien (Pol. V 1, 1301a25–36). Die Demokratie hält Aristoteles für weniger schlecht als die Tyrannis und Oligarchie. Sie ist neben Gleichheit durch Freiheit gekennzeichnet. Freiheit bedeutet dabei, so zu leben wie man will, Gleichheit, dass das Regieren und Regiertwerden reihum geht (1317b2–12). Die absolute Freiheit, so zu leben wie man will, hält Aristoteles insofern für problematisch, als sie mit der Herrschaft der Verfassung in Konflikt steht (Pol. V 9, 1310a30–35). Gleichheit kritisiert er, wenn sie als totale arithmetische interpretiert wird, die dazu führe, dass die Herrschaft der Unvermögenden die Besitzenden enteignet. Dafür, dass Aristoteles die Beteiligung des „einfachen Volkes“ an der Herrschaft durchaus nicht rundweg abgelehnt hat, spricht ferner seine so genannte „Summierungsthese“ (Pol. III 11, 1281 a38–b9) und eine differenzierte Untersuchung der Formen der Volksherrschaft im Rahmen seiner zweiten Staatsformenlehre. Gute Verfassungen Unter den guten Verfassungen ist die Monarchie (unter der Aristoteles nicht zwingend ein Königtum, sondern nur eine dem Gemeinwohl dienende Alleinherrschaft versteht) am wenigsten gut. Insofern sie nicht gesetzgebunden ist, ist sie eine bloße Herrschaftsform, teilweise kaum eine Verfassung, und insofern problematisch, als nur das Gesetz unbeeinflusst von Emotionen herrschen kann. Unter einer Aristokratie versteht er eine Herrschaft der Guten, das heißt derjenigen, die am meisten Anteil an der Tugend "(aretê)" haben, was nicht unbedingt Herrschaft eines Geburtsadels bedeuten muss. Da das Ziel des Staates, das gute Leben, in einer Aristokratie im höchsten Maße verwirklicht wird, hält Aristoteles sie (neben einer bestimmten Form der Monarchie, nämlich der Königsherrschaft) für die beste Verfassung (Pol. IV 2, 1289a30–32). Aristoteles diskutiert Verfassungstheorie allerdings nicht ohne Realitätsbezug. Oft ist aus seiner Sicht eine absolut beste Verfassung in einem bestimmten Staat nicht möglich. Was am besten für einen konkreten Staat ist, muss immer relativ zu den Umständen bestimmt werden (Pol. IV 1, 1288b21–33). Solche Überlegungen durchziehen die ganze Verfassungstheorie. Sie zeigen sich insbesondere im Modell der Politie, die Aristoteles als die bestmögliche für die meisten zeitgenössischen Staaten ansieht (Pol. IV 11, 1295a25). Sie ist eine Mischverfassung, die Elemente der Demokratie und der Oligarchie enthält. Dabei wird für die Bestrebungen nach Gleichheit auf der einen und nach Reichtum auf der anderen Seite ein Ausgleich geschaffen. Dieser Ausgleich wird unter anderem durch Ämterzuteilung nach Klassenzugehörigkeit erreicht (Pol. V 8, 1308b26). Auf diese Weise wird nach seiner Auffassung die Stabilität erhöht und sozialen Unruhen vorgebeugt (die in griechischen Staaten häufig waren). Besondere Stabilität verleiht dem Staat ein breiter Mittelstand (Pol. IV 11, 1295b25–38). Poetik. Theorie der Dichtung. Mimêsis Der zentrale Begriff der aristotelischen Theorie der Dichtung, die er in seiner zu Lebzeiten nicht veröffentlichten "Poetik" "(poiêtikê)" ausarbeitet, ist die "mimêsis," das heißt die „Nachahmung“ oder „Darstellung“. Neben der Dichtung im engeren Sinne (Epik, Tragödie, Komödie und Dithyrambendichtung) zählen auch Teile der Musik und der Tanz für Aristoteles zu den mimetischen Künsten (Poet. 1, 1447a). Abbildende Künste wie Malerei und Plastik behandelt Aristoteles nicht weiter, sondern erwähnt nur, dass sie ebenfalls nach dem Prinzip der Nachahmung arbeiten (Poet. 1, 1447a19 f.). Gemeinsam ist allen mimetischen Künsten die zeitliche Sukzession. Insofern lässt sich "mimêsis" als ästhetisches Handeln auffassen. In der Lust an der "mimêsis" sieht Aristoteles eine anthropologische, allen Menschen gemeinsame Grundgegebenheit. Denn die Freude an ihr sowie an ihren Produkten ist den Menschen angeboren, da sie gerne lernen (Poet. 4, 1448b5-15). Im Gegensatz zu den anderen mimetischen Künsten ist für die Dichtung die Verwendung von Sprache spezifisch. Alle Dichtung ist zudem Darstellung von Handlungen; allerdings nicht von tatsächlich Geschehenem, sondern von dem, „was geschehen könnte, das heißt das nach den Regeln der Wahrscheinlichkeit oder Notwendigkeit Mögliche“ (Poet. 9, 1451a37 f.). Dargestellt werden Handlungen, die etwas über den Menschen im Allgemeinen aussagen, nicht über zufällige und beliebige Verhältnisse. Ziel ist nicht die Nachahmung von Menschen; nicht auf Figuren oder Charaktere, sondern auf Handlungen kommt es an; Erstere sind nur Mittel (Poet. 6, 1450a26–23). Arten der Dichtung Aristoteles klassifiziert vier Formen der existierenden Dichtung nach zwei Kriterien: (i) der Art der Darstellung von Handlung und (ii) der Art der dargestellten Figuren. Dramatische Darstellung ist dadurch gekennzeichnet, dass die jeweilige Figur selbst die Handlung darstellt, berichtende dadurch, dass über die Handlung berichtet wird. Mit „besser“ und „schlechter“ sind die Figuren und ihre Handlungen gemeint. Bessere Figuren oder Charaktere sind etwas besser als wir selbst, schlechtere schlechter; beides aber nie so weit, dass wir uns nicht mehr mit ihnen identifizieren können (Poet. 5, 1449a31–1449b13). Aristoteles vertritt dabei die Hypothese, dass die Tragödie aus dem Epos und die Komödie aus dem Spottlied entstanden ist (Poet. 4, 1449a2–7). Eine Untersuchung der Komödie kündigt Aristoteles an. Sie ist aber – wie auch eine des Spottliedes – nicht überliefert. Das Epos behandelt er recht kurz. Seine überlieferte Dichtungstheorie ist daher primär eine Tragödientheorie. Tragödie Aristoteles definiert die Tragödie als eine Dieser kurze Satz ist eine der meistdiskutierten Passagen im gesamten Werk des Aristoteles. (3) nennt das dramatisch-darstellende Element. (1) nennt (neben oben schon genannten Aspekten) die (später sogenannte) Einheit der Handlung. Die Einheit des Ortes und der Zeit wurde in der Renaissance der aristotelischen Tragödientheorie zugeschrieben, er vertrat sie aber selbst so nicht. (2) bezieht sich darauf, dass die Sprache der Tragödie Melodie und Rhythmus aufweist. Die weitaus meiste Aufmerksamkeit hat (4) erhalten, insbesondere (4b). Emotionserregung und Katharsis In (4) beschreibt Aristoteles die Funktion der Tragödie, das was sie leisten soll. Weitgehend unumstritten ist nur (4a): Beim Zuschauer sollen durch die dargestellte Handlung die Emotionen Mitleid und Furcht erregt werden. Unklar ist allerdings, ob "eleos" und "phobos" tatsächlich mit „Mitleid“ und „Furcht“ oder mit „Elementareffekten“ „Jammer“ und „Schauder“ wiederzugeben sind. Dass die Handlung selbst und nicht die Aufführung die entscheidende Rolle bei der Emotionserregung spielt, ist daraus ersichtlich, dass Aristoteles auch die gelesene Tragödie durch seine Theorie berücksichtigt sieht. Mitleid wird erregt, wenn die Protagonisten unverdient Unglück erleiden, Furcht, wenn sie dabei dem Zuschauer (oder Leser) ähnlich sind. (4b) ist höchst kontrovers, da die Funktionsweise nicht weiter erläutert ist. Das Wort "Katharsis," das als Metapher (wie „Reinigung“ im Deutschen) einen Sinnüberschuss aufweist, hat zu den verschiedensten Deutungen Anlass gegeben, insbesondere weil es schon vor Aristoteles verwendet wurde, nämlich unter anderem in der Medizin (Reinigung durch Brech- und Abführmittel) und in religiösen Kulten (Reinigung von unreinen Personen durch religiöse Praktiken). Die grammatikalische Konstruktion "Reinigung der Emotionen" lässt dabei verschiedene Deutungen zu, worin die Reinigung besteht. Vermutlich sollen die Emotionen "selbst" (durch eine Emotionserregung) gereinigt werden; die Aussage ist aber auch als Reinigung "von" den Emotionen verstanden worden. Der normativ-deskriptive Charakter der Tragödientheorie Aristoteles’ Tragödientheorie weist zwei Typen von Aussagen auf. Zum einen untersucht er die Grundlagen der Dichtung, unterscheidet verschiedene Arten von ihr und nennt Teile einer Tragödie und deren Funktionsweise. Zum anderen spricht er aber auch davon, was eine "gute" Tragödie ist und was der Dichter entsprechend machen "soll." So äußert er etwa, dass in einer guten Tragödie ein Protagonist weder aufgrund seines guten noch seines schlechten Charakters vom Glück ins Unglück gerät, sondern aufgrund eines Fehlers (Hamartie), beispielsweise wie Ödipus aufgrund von Unwissenheit. Nur eine schlechte Tragödie würde zeigen, wie ein guter Charakter vom Glück ins Unglück oder ein schlechter vom Unglück ins Glück gerät. Der Grund hierfür ist die Funktion der Tragödie, das Bewirken von Mitleid und Furcht. In schlechten Tragödien würden Mitleid und Furcht nicht erregt werden, in guten ist dies aufgrund der Beschaffenheit des Protagonisten und des Fehlers als Ursache des Unglücks der Fall (Poet. 13, 1452b28–1453a12). Hymnos. Von Aristoteles ist zudem ein Hymnos an Aretê überliefert, den er in Erinnerung an seinen Freund Hermias verfasst hat. Rezeption. Antike. Die Lehre des Aristoteles hat auf seine Schule, den Peripatos, nach seinem Tode weit weniger Einfluss ausgeübt als Platons Lehre auf dessen Akademie. Aristoteles wurde keine Verehrung zuteil, die mit derjenigen Platons bei den Platonikern vergleichbar wäre. Dies bedeutete einerseits Offenheit und Flexibilität, andererseits Mangel an inhaltlich begründetem Zusammenhalt. Die Peripatetiker widmeten sich vor allem empirischer Naturforschung, aber unter anderem auch der Ethik, Seelenlehre und Staatstheorie. Dabei kamen Aristoteles’ Schüler Theophrastos, sein Nachfolger als Leiter der Schule, und dessen Nachfolger Straton zu teilweise anderen Ergebnissen als der Schulgründer. Nach Stratons Tod (270/268 v. Chr.) begann eine Periode des Niedergangs. Das Studium und die Kommentierung der Schriften des Aristoteles wurde damals im Peripatos anscheinend vernachlässigt, jedenfalls weit weniger eifrig betrieben als das Platonstudium in der konkurrierenden Akademie. Erst im ersten Jahrhundert v. Chr. sorgte Andronikos von Rhodos für eine Zusammenstellung der Lehrschriften (Pragmatien) des Aristoteles, und auch bei deren Auslegung durch die Peripatetiker kam es zu einem Aufschwung. Die für die Öffentlichkeit bestimmten „exoterischen“ Schriften, insbesondere die Dialoge, waren lange populär, gingen aber in der römischen Kaiserzeit verloren. Cicero hat sie noch gekannt. Die Peripatetiker betrachteten die Lehrschriften als speziell für ihren internen Unterrichtsgebrauch bestimmt. In der römischen Kaiserzeit war der einflussreichste Repräsentant des Aristotelismus Alexander von Aphrodisias, der gegen die Platoniker die Sterblichkeit der Seele vertrat. Obwohl Aristoteles großen Wert auf die Widerlegung von Kernbestandteilen des Platonismus gelegt hatte, waren es gerade die Neuplatoniker, die in der Spätantike einen maßgeblichen Beitrag zur Erhaltung und Verbreitung seiner Hinterlassenschaft leisteten, indem sie seine Logik übernahmen, kommentierten und in ihr System integrierten. Eine besonders wichtige Rolle spielten dabei im 3. Jahrhundert n. Chr. Porphyrios, im 5. Jahrhundert Proklos, Ammonios Hermeiou (der in Alexandria die Tradition der Aristoteles-Kommentierung begründete) und im 6. Jahrhundert Simplikios, der bedeutende Aristoteleskommentare verfasste. Im 4. Jahrhundert schrieb Themistios Paraphrasen zu Werken des Aristoteles, die eine starke Nachwirkung erzielten. Er war unter den spätantiken Kommentatoren der einzige (wenn auch neuplatonisch beeinflusste) Aristoteliker; die anderen befassten sich mit dem Aristotelismus aus neuplatonischer Perspektive und strebten eine Synthese platonischer und aristotelischer Auffassungen an, wobei oft ein Übergewicht der platonischen erkennbar ist. Noch zu Beginn des 7. Jahrhunderts kommentierte der angesehene, in Konstantinopel lehrende christliche Philosoph Stephanos von Alexandria Werke des Aristoteles. Bei den prominenten antiken Kirchenvätern war Aristoteles wenig bekannt und unbeliebt, manche verachteten und verspotteten seine Dialektik. Sie verübelten ihm, dass er das Universum für ungeschaffen und unvergänglich hielt und die Unsterblichkeit der Seele bezweifelte (oder nach ihrem Verständnis bestritt). Ein positiveres Verhältnis zu Aristoteles hatten hingegen manche christliche Gnostiker und andere häretische Christen: Arianer (Aëtios von Antiochia, Eunomius), Monophysiten, Pelagianer und Nestorianer – ein Umstand, der den Philosophen für die kirchlichen Autoren erst recht suspekt machte. Syrer – monophysitische wie nestorianische – übersetzten das "Organon" in ihre Sprache und setzten sich intensiv damit auseinander. Im 6. Jahrhundert schrieb Johannes Philoponos Aristoteles-Kommentare, übte aber auch scharfe Kritik an der aristotelischen Kosmologie und Physik. Er war mit seiner Impetustheorie ein Vorläufer spätmittelalterlicher und frühneuzeitlicher Kritik an der aristotelischen Bewegungslehre. Mittelalter. Im Byzantinischen Reich des Frühmittelalters wurde Aristoteles wenig beachtet. Sein Einfluss machte sich vorwiegend indirekt geltend, nämlich über die meist neuplatonisch gesinnten spätantiken Autoren, die Teile seiner Lehre übernommen hatten. Daher war Vermischung mit neuplatonischem Gedankengut von vornherein gegeben. Bei Johannes von Damaskus tritt die aristotelische Komponente deutlich hervor. Im 11. und 12. Jahrhundert kam es zu einer Wiederbelebung des Interesses an aristotelischer Philosophie: Michael Psellos, Johannes Italos und dessen Schüler Eustratios von Nikaia (beide wegen Häresie verurteilt) sowie der primär philologisch orientierte Michael von Ephesos schrieben Kommentare. Die Kaisertochter Anna Komnena förderte diese Bestrebungen. Im islamischen Raum dagegen setzte die Wirkung der Werke des Aristoteles früh ein und war breiter und tiefer als in der Spätantike und im europäischen Früh- und Hochmittelalter. Der Aristotelismus dominierte qualitativ und quantitativ gegenüber der übrigen antiken Tradition. Schon im 9. Jahrhundert waren die meisten Werke des Aristoteles, häufig durch vorangehende Übersetzung ins Syrische vermittelt (der erste syrische Aristoteleskommentator war Sergios von Resaina), in arabischer Sprache verfügbar, ebenso antike Kommentare. Hinzu kam ein reichhaltiges unechtes (pseudo-aristotelisches) Schrifttum teilweise neuplatonischen Inhalts, darunter Schriften wie die "Theologie des Aristoteles" und der "Kalam fi mahd al-khair" "(Liber de causis)." Die aristotelischen Ideen waren von Anfang an mit neuplatonischen vermischt, und man glaubte an eine Übereinstimmung der Lehren Platons und des Aristoteles. In diesem Sinne deuteten al-Kindī (9. Jahrhundert) und al-Fārābī (10. Jahrhundert) und die ihnen folgende spätere Tradition den Aristotelismus; bei ibn Sina (Avicenna) trat das neuplatonische Element stärker in den Vordergrund. Einen relativ reinen Aristotelismus vertrat hingegen im 12. Jahrhundert ibn Rušd (Averroes), der zahlreiche Kommentare schrieb und die aristotelische Philosophie gegen al-Ghazālī verteidigte. Muslimische Gelehrte des Mittelalters bezeichneten Aristoteles oft als den "Ersten Lehrer". Der Titel "Lehrer" wurde Aristoteles zuerst von muslimischen Gelehrten verliehen und später von westlichen Philosophen verwendet (wie in dem berühmten Gedicht von Dante), die von der Tradition der islamischen Philosophie beeinflusst waren. Im lateinischen Mittelalter war zunächst bis ins 12. Jahrhundert nur ein kleiner Teil des Gesamtwerks des Aristoteles verbreitet, nämlich zwei der logischen Schriften ("Kategorien" und "De interpretatione"), die Boethius im frühen 6. Jahrhundert übersetzt und kommentiert hatte, zusammen mit der Einleitung des Porphyrios zur Kategorienlehre. Dieses Schrifttum, später als "Logica vetus" bezeichnet, bildete die Grundlage des Logikunterrichts. Mit der großen Übersetzungsbewegung des 12. und 13. Jahrhunderts änderte sich diese enge Begrenzung. Im 12. Jahrhundert wurden die bisher fehlenden logischen Schriften ("Analytica priora" und "posteriora," "Topik," "Sophistische Widerlegungen") in lateinischer Sprache verfügbar; sie machten die "Logica nova" aus. Dann wurden eines nach dem anderen fast alle restlichen Werke zugänglich (teils erst im 13. Jahrhundert). Die meisten Schriften wurden mehrmals ins Lateinische übertragen (entweder aus dem Arabischen oder aus dem Griechischen). Michael Scotus übersetzte Aristoteleskommentare des Averroes aus dem Arabischen. Sie wurden eifrig benutzt, was in der zweiten Hälfte des 13. Jahrhunderts zur Entstehung des lateinischen Averroismus führte, der ein für damalige Verhältnisse relativ konsequenter Aristotelismus war. Im Lauf des 13. Jahrhunderts wurden die Schriften des Aristoteles als Standardlehrbücher zur Grundlage der an den Universitäten (in der Fakultät der Freien Künste) betriebenen scholastischen Wissenschaft; 1255 wurden seine Logik, Naturphilosophie und Ethik an dieser Fakultät der Pariser Universität als Lehrstoff vorgeschrieben. Die Führungsrolle kam der Pariser und der Oxforder Universität zu. Wegweisend waren die Aristoteleskommentare des Albertus Magnus. Das Verfassen von Aristoteleskommentaren wurde eine Hauptbeschäftigung der Magister, und viele von ihnen hielten die kommentierten Lehrbücher für irrtumsfrei. Besonders intensiv studierte man neben der aristotelischen Methodik die Wissenschaftstheorie, um sie als Basis für ein hierarchisch geordnetes System der Wissenschaften zu verwenden. Widerstand erhob sich allerdings von theologischer Seite gegen einzelne Lehren, vor allem gegen die Thesen von der Ewigkeit der Welt und der absoluten Gültigkeit der Naturgesetze (Ausschluss von Wundern), sowie gegen den Averroismus. Daher kam es 1210, 1215, 1231, 1245, 1270 und 1277 zu kirchlichen Verurteilungen von Lehrsätzen und zu Aristotelesverboten. Sie richteten sich aber nur gegen die naturphilosophischen Schriften oder gegen einzelne Thesen und konnten den Siegeszug des Aristotelismus nur vorübergehend hemmen. Diese Verbote betrafen nur Frankreich (vor allem Paris), in Oxford galten sie nicht. Aristoteles wurde „der Philosoph“ schlechthin: mit "Philosophus" (ohne Zusatz) war immer nur er gemeint, mit "Commentator" Averroes. Gegenpositionen (vor allem in der Erkenntnistheorie und Anthropologie) vertraten Anhänger der platonisch beeinflussten Lehren des Augustinus, besonders Franziskaner („Franziskanerschule“). Ein prominenter Kritiker des Aristotelismus war der Franziskaner Bonaventura. Ein anderer Franziskaner, Petrus Johannis Olivi, stellte um 1280 missbilligend fest: „Man glaubt ihm (Aristoteles) ohne Grund – wie einem Gott dieser Zeit.“ Schließlich setzte sich das von dem Dominikaner Thomas von Aquin abgewandelte und weiterentwickelte aristotelische Lehrsystem (Thomismus) durch, zunächst in seinem Orden und später in der gesamten Kirche. Allerdings schrieb man weiterhin neuplatonische Schriften zu Unrecht dem Aristoteles zu, wodurch das Gesamtbild seiner Philosophie verfälscht wurde. Dante würdigte in seiner "Göttlichen Komödie" Bedeutung und Ansehen des Aristoteles, indem er ihn als „Meister“ darstellte, der von den anderen antiken Philosophen bewundert und geehrt wird; jedoch verwarf Dante manche aristotelische Lehren. Die "Politik" des Aristoteles wurde erst um 1260 von Wilhelm von Moerbeke ins Lateinische übersetzt und dann von Thomas von Aquin und anderen Scholastikern kommentiert und zitiert. Besonders die Rechtfertigung der Sklaverei bzw. Knechtschaft stieß bei den Gelehrten auf Interesse und grundsätzliche Zustimmung. Die "Politik" regte Kommentatoren und Verfasser politischer Traktate zu Erörterungen über Vor- und Nachteile von Erb- bzw. Wahlmonarchie sowie von absoluter bzw. ans Gesetz gebundener Herrschaft an. In der Epoche des Übergangs vom Spätmittelalter zur Frühen Neuzeit setzte sich Nikolaus von Kues kritisch mit Aristoteles auseinander. Er stellte sich Aristoteles als fiktiven Gesprächspartner vor, dem man die Berechtigung der cusanischen Lehre von der "Coincidentia oppositorum" einsichtig machen könnte, obwohl Aristoteles sie nach seinem Satz vom Widerspruch hätte verwerfen müssen. Neuzeit. In der Renaissance fertigten Humanisten neue, viel leichter lesbare Aristotelesübersetzungen ins Lateinische an, weshalb man weniger auf die Kommentare angewiesen war. Bedeutend sind u. a. die Übersetzungen der "Nikomachischen Ethik" und der "Politik" durch Leonardo Bruni. Man begann aber auch, die griechischen Originaltexte zu lesen. Es kam zu heftigem Streit zwischen Platonikern und Aristotelikern, wobei die beteiligten Humanisten mehrheitlich zu Platon neigten. Es gab in der Renaissance aber auch bedeutende Aristoteliker wie Pietro Pomponazzi (1462–1525) und Jacopo Zabarella (1533–1589), und es entstanden damals im Abendland mehr Aristoteleskommentare als während des gesamten Mittelalters. Wie im Mittelalter herrschte auch noch bei vielen Renaissance-Gelehrten das Bestreben vor, platonische und aristotelische Standpunkte untereinander und mit der katholischen Theologie und Anthropologie zu versöhnen. Seit dem 15. Jahrhundert war es aber möglich, dank des besseren Zugangs zu den Quellen das Ausmaß der fundamentalen Gegensätze zwischen Platonismus, Aristotelismus und Katholizismus besser zu verstehen. Bei der Vermittlung dieser Erkenntnisse spielte der byzantinische Philosoph Georgios Gemistos Plethon eine wichtige Rolle. Unabhängig davon herrschte der (neu)scholastische Aristotelismus, der die mittelalterliche Tradition fortsetzte, mit seiner Methode und Terminologie an Schulen und Universitäten noch bis tief in die Neuzeit, auch in den lutherischen Gebieten, obwohl Martin Luther den Aristotelismus ablehnte. Im sechzehnten Jahrhundert unternahmen Bernardino Telesio und Giordano Bruno Frontalangriffe auf den Aristotelismus, und Petrus Ramus trat für eine nichtaristotelische Logik ein (Ramismus). Bereits Giovanni Battista Benedetti (1530–1590) widerlegte 1554 in seinem Werk "Demonstratio proportionum motuum localium contra Aristotilem et omnes philosophos" in einem simplen Gedankenexperiment die aristotelische Annahme, dass Körper im freien Fall umso schneller fallen, je schwerer sie sind: Zwei gleiche Kugeln, die durch eine (masselose) Stange fest verbunden werden, fallen mit derselben Geschwindigkeit wie jede der beiden Kugeln allein. Aber erst seit dem 17. Jahrhundert verdrängte ein neues Wissenschaftsverständnis die aristotelisch-scholastische Tradition. Den Umschwung in der Physik leitete Galileo Galilei ein. 1647 konnte die von Aristoteles aufgestellte Hypothese eines Horror Vacui von Blaise Pascal mit dem Versuch Leere in der Leere widerlegt werden. Erst in der 1687 veröffentlichten Schrift "Philosophiæ Naturalis Principia Mathematica" von Isaac Newton wurde mit dem Trägheitsprinzip ein Fundament der neuen klassischen Mechanik errichtet, das die aristotelischen Annahmen ersetzte. In der Biologie konnten sich aristotelische Auffassungen bis ins 18. Jahrhundert halten. Sie erwiesen sich teilweise als fruchtbar. So ging William Harvey bei der Entdeckung des Blutkreislaufs von dem Prinzip des Aristoteles aus, dass die Natur nichts Unnötiges hervorbringt, und wendete es auf die Beschaffenheit der Blutgefäße und Herzkammern, von denen Aristoteles fälschlich drei annahm, an. Charles Darwin bezeichnete 1879 Aristoteles als „einen der größten Beobachter (wenn nicht den größten), die jemals gelebt haben“. Sehr stark und anhaltend war die Nachwirkung von Aristoteles’ "Poetik", insbesondere seiner Tragödientheorie (→ Regeldrama). Sie prägte Theorie und Praxis des Theaters während der gesamten Frühen Neuzeit, abgesehen von manchen gewichtigen Ausnahmen besonders in Spanien und England (Shakespeare). Die "Poetik" lag seit 1278 in lateinischer Übersetzung vor, 1498 und 1536 erschienen humanistische Übersetzungen. Auf ihr fußte die "Poetik" des Julius Caesar Scaliger (1561), die Dichtungslehre von Martin Opitz (1624), die französische Theaterlehre des 17. Jahrhunderts "(doctrine classique)" und schließlich die von Johann Christoph Gottsched geforderte Regelkunst ("Critische Dichtkunst," 1730). Im 19. Jahrhundert setzte insbesondere in Deutschland die intensive philologische Auseinandersetzung mit dem Werk des Aristoteles ein. 1831 erschien die von der Preußischen Akademie der Wissenschaften in Auftrag gegebene und durch Immanuel Bekker besorgte Gesamtausgabe. Hermann Bonitz verfasste zahlreiche Übersetzungen und den noch heute maßgeblichen "Index Aristotelicus." Ende des 19. Jahrhunderts wurde unter der Leitung von Hermann Diels ebenfalls in der in Berlin ansässigen Akademie die 15.000 Seiten umfassende Ausgabe der antiken griechischen Aristoteles-Kommentare "(Commentaria in Aristotelem Graeca)" veröffentlicht. Infolge der intensiven philologischen Auseinandersetzung wurde Anfang des 20. Jahrhunderts das lange vorherrschende Bild, das Corpus Aristotelicum sei ein als Ganzes komponiertes philosophisches System, vor allem von Werner Jaeger revidiert. Die moderne Aristotelesforschung wurde in der ersten Hälfte des 20. Jahrhunderts neben Jaeger vor allem von William David Ross in Oxford bestimmt; zahlreiche Schüler sorgten für eine zunehmende Beschäftigung mit Aristoteles nicht nur in den philologischen, sondern auch den philosophischen Abteilungen angelsächsischer Universitäten, die bis heute anhält. Martin Heideggers Seinsanalyse der Fundamentalontologie geschah in intensiver Auseinandersetzung mit Aristoteles, was auch für Schüler wie Hans-Georg Gadamer gilt. Den größten Einfluss hatte Aristoteles im 20. Jahrhundert in der Ethik (Tugendethik) und der politischen Philosophie (in Deutschland insbesondere in der Schule um Joachim Ritter, im angelsächsischen Raum im Kommunitarismus). In der zweiten Hälfte des 20. Jahrhunderts griff die zuvor metaphysikkritische analytische Philosophie Aristoteles’ Substanztheorie explizit (etwa David Wiggins: "Sameness and Substance", die Vier-Kategorien-Ontologie von E. J. Lowe oder die Ontologie von Barry Smith) oder seinen Essentialismus implizit auf (z. B. Kripke). Nach ihm ist der Mondkrater Aristoteles benannt. Gleiches gilt seit 1995 für den Asteroiden (6123) Aristoteles und seit 2012 für die Aristotle Mountains im Grahamland auf der Antarktischen Halbinsel. Textausgaben und Übersetzungen (Auswahl). Sammlungen Einzelausgaben Literatur. Der historische Aristoteles. Biographie Einführungen Gesamtdarstellungen Kompendien Hilfsmittel Rezeption. Übersichts- und Gesamtdarstellungen Epochenübergreifende Untersuchungen zu einzelnen Themen Antike Mittelalter Neuzeit Weblinks. Über Aristoteles Texte von Aristoteles
141
2458679
https://de.wikipedia.org/wiki?curid=141
Abraham Lincoln
Abraham Lincoln (* 12. Februar 1809 bei Hodgenville, Hardin County, heute: LaRue County, Kentucky; † 15. April 1865 in Washington, D.C.) amtierte von 1861 bis 1865 als 16. Präsident der Vereinigten Staaten von Amerika. Im Jahr 1860 erstmals gewählt, gelang ihm 1864 die Wiederwahl für eine zweite Amtszeit. Er war der erste Präsident aus den Reihen der Republikanischen Partei und der erste, der einem Attentat zum Opfer fiel. Lincolns Präsidentschaft gilt als eine der bedeutendsten in der Geschichte der Vereinigten Staaten: Die Wahl des Sklavereigegners veranlasste zunächst sieben, später weitere vier der sklavenhaltenden Südstaaten, aus der Union auszutreten und einen eigenen Staatenbund, die Konföderierten Staaten von Amerika, zu bilden. Lincoln führte die verbliebenen Nordstaaten durch den daraus entstandenen Sezessionskrieg. Er setzte die Wiederherstellung der Union durch und betrieb erfolgreich die Abschaffung der Sklaverei in den USA. Unter seiner Regierung schlug das Land endgültig den Weg zum zentral regierten, modernen Industriestaat ein und schuf so die Basis für seinen Aufstieg zur Weltmacht im 20. Jahrhundert. Leben. Kindheit und Jugend. Abraham Lincoln wurde in einer Blockhütte auf der Sinking Spring Farm nahe dem Dorf Hodgenville in Kentucky geboren. Seine Eltern waren der Farmer Thomas Lincoln und dessen Frau Nancy, die beide aus Virginia stammten. Thomas Lincolns Vorfahren waren einige Generationen zuvor aus der ostenglischen Grafschaft Norfolk nach Amerika ausgewandert. Zu seiner Familie gehörten noch Abrahams ältere Schwester Sarah sowie ein jüngerer Bruder Thomas jr., der aber schon kurz nach der Geburt starb. Als frommer Baptist lehnte Lincolns Vater die in Kentucky erlaubte Sklaverei ab, obwohl einige seiner Verwandten Sklavenhalter waren. Ende 1816 zog er mit seiner Familie nach Little Pigeon Creek im Südwesten des sklavenfreien Staats Indiana. Zwei Jahre später starb seine Frau Nancy an der so genannten "Milchkrankheit". 1819 heiratete Thomas Lincoln die Witwe Sarah Bush Johnston, die drei eigene Kinder in die Ehe mitbrachte. Abraham Lincoln pflegte als Halbwaise zu seiner Stiefmutter zeitlebens eine warmherzige Beziehung – auch, weil sie, anders als sein Vater, sein Streben nach Bildung unterstützte. Die Bildungsmöglichkeiten an der Frontier, der Siedlungsgrenze zur Wildnis, waren äußerst begrenzt. Auch in der Region von Indiana, in der die Lincolns damals lebten, gab es nur sporadisch betriebene Einraum-Schulen in Blockhütten, in denen die Kinder aller Jahrgänge gemeinsam unterrichtet wurden. Viel mehr als Grundkenntnisse im Lesen, Schreiben und Rechnen wurde dort nicht vermittelt. Die Schüler lernten meist durch gemeinsames Rezitieren. Selbst diese Art des Unterrichts hat Lincoln nur sehr unregelmäßig genossen. Von 1816 bis 1827 hat er zwar verschiedene Schulen in und um das heutige Cannelton besucht, zwischen seinem 11. und seinem 15. Lebensjahr aber nicht länger als insgesamt ein Jahr. Seine umfassende Bildung hat er sich vor allem als Autodidakt angeeignet. Der junge Lincoln war lesehungrig und verschlang jedes Buch, dessen er habhaft werden konnte. Neben der King-James-Bibel beeinflussten ihn vor allem die Dramen William Shakespeares sowie Werke von Homer, Vergil, John Dryden, John Milton und Daniel Defoe. Seine Belesenheit und Gewandtheit im Ausdruck wurden bald im näheren Umkreis bekannt, so dass Nachbarn ihn schon als Jugendlichen baten, Briefe für sie aufzusetzen. Im Wesentlichen aber bestand Lincolns Leben damals aus der harten und ungeliebten Farmarbeit mit seinem Vater. Thomas Lincoln lieh seinen Sohn gegen Bezahlung auch an Nachbarn aus, wenn diese Unterstützung benötigten. Bis zu seinem 19. Lebensjahr teilte Abraham Lincoln das Pionierdasein seiner Familie in Indiana. 1830 zogen die Lincolns erneut weiter nach Westen, ins Macon County in Illinois. Kurz darauf verließ Abraham das Elternhaus und ließ sich im Präriestädtchen New Salem, im benachbarten Sangamon County nieder, wo er eine Stelle als Kaufmannsgehilfe annahm. In den nächsten Jahren war er dort auch als Landvermesser und Posthalter tätig. In seiner Freizeit betätigte er sich damals als Ringer. Er war 1830 Meister in seinem County und musste in den folgenden zehn Jahren nur eine Niederlage hinnehmen. Das städtische Amerika lernte er erstmals im Jahr 1831 kennen, in dem er als Flößer auf dem Ohio und dem Mississippi flussabwärts bis nach New Orleans fuhr. Lincolns Aufstieg. Im Jahr 1832 nahm Lincoln als Freiwilliger am Kriegszug gegen die Sauk-Indianer unter Häuptling Black Hawk teil, ohne aber in Kämpfe verwickelt zu werden. Seine Kameraden wählten ihn bei dieser Gelegenheit zum Captain. Dies und die Tatsache, dass er sich in einem Debattierclub in New Salem als guter Redner erwiesen hatte, ermutigten ihn, noch im selben Jahr für das Repräsentantenhaus von Illinois zu kandidieren. Als Parteigänger der Whigs trat er im Wahlkampf für den Ausbau der Verkehrswege und eine Verbesserung des Schulwesens ein. Im ersten Anlauf scheiterte Lincoln, aber 1834 errang er das Mandat, das er über vier Legislaturperioden bis 1842 behalten sollte. Parlamentarier und Anwalt in Illinois. Das Staatsparlament von Illinois hatte bis 1839 seinen Sitz in der ersten Landeshauptstadt Vandalia. Als "Honest Abe" – ehrlicher Abe –, ein Spitzname, der ihm bleiben sollte, erwarb sich Abraham Lincoln dort rasch so viel Vertrauen, dass er zum Sprecher des Finanzausschusses und bereits mit 27 Jahren zum Parteiführer der oppositionellen Whigs gewählt wurde. Aus dem Jahr 1837 datiert seine erste öffentliche Stellungnahme gegen die Sklaverei. In einer Parlamentsdebatte stellte er fest, „dass die Institution der Sklaverei auf Ungerechtigkeit und schlechte Politik zurückzuführen ist“. In den ersten Jahren seiner politischen Tätigkeit absolvierte Lincoln ein diszipliniertes Selbststudium der Rechtswissenschaften; 1836 wurde er zur Anwaltskammer von Illinois zugelassen. Im folgenden Jahr gründete er mit dem Rechtsanwalt John T. Stuart eine gemeinsame Kanzlei in der neuen Hauptstadt von Illinois, Springfield. Doch auch als Anwalt lebte Lincoln noch lange in äußerst bescheidenen Verhältnissen. Während seiner Zeit in Springfield näherte sich Lincoln den Freimaurern an, die damals hohes Ansehen genossen. Obwohl er der Vereinigung wohlwollend gegenüberstand, wurde er jedoch nie – wie später irrtümlich behauptet – ihr Mitglied. Kurz vor seiner Wahl zum Präsidenten zog er ein Gesuch um Aufnahme in die "Tyrian Lodge No. 333" in Springfield zurück, weil er diesen Schritt nicht als Wahlkampftaktik missverstanden sehen wollte. Familiengründung. Im Jahr 1842 heiratete Abraham Lincoln Mary Todd, die einer reichen Familie von Pflanzern und Sklavenhaltern aus Kentucky entstammte. Bei den Todds stieß diese Verbindung auf erheblichen Widerstand, da Lincoln nur wenig Vermögen besaß und seine politischen Ansichten den ihren weitgehend widersprachen. Ein Verwandter Mary Lincolns, ihr Schwager Benjamin Hardin Helm, stieg im Sezessionskrieg sogar zum General der konföderierten Armee auf. Er fiel später in der Schlacht am Chickamauga. Abraham und Mary Lincoln wurden vier Söhne geboren: Zwei Kinder starben also bereits zu Lincolns Lebzeiten, und nur Robert erreichte das Erwachsenenalter. Wie sein Vater schlug er eine Karriere als Anwalt und Politiker ein und war von 1881 bis 1885 US-Kriegsminister. Der letzte direkte Nachfahre Abraham Lincolns, Robert Todd Lincoln Beckwith, ein Urenkel, starb 1985 im Alter von 81 Jahren. Abgeordneter im Repräsentantenhaus. Im Jahr seiner Heirat schied Lincoln aus dem Staatsparlament von Illinois aus, um sich verstärkt seiner Anwaltstätigkeit zu widmen. Er erwarb sich einen Ruf als Spezialist für Eisenbahnrecht und kam allmählich zu bescheidenem Wohlstand. 1842 bemüht sich Lincoln vergebens darum, bei den Wahlen zum Repräsentantenhaus als Kandidat der Whigs aufgestellt zu werden. Er führte sein Scheitern darauf zurück, dass er keiner Kirche angehörte und sich am 22. September mit dem demokratischen Politiker James Shields ein Duell mit Korbschwertern geliefert zu haben, auch wenn dabei aufgrund des Einschreitens der Sekundanten niemand verletzt worden war. Als einer der führenden Köpfe der Whigs in dem jungen Bundesstaat wurde Lincoln dann 1846 ins Repräsentantenhaus gewählt. In Washington trat er als Gegner von Präsident James K. Polk und seiner Kriegspolitik gegen Mexiko auf. So forderte er Polk, der den Krieg als Akt der Selbstverteidigung darstellte, in mehreren Resolutionen dazu auf, den genauen Punkt (englisch: "spot") zu benennen, an dem die mexikanische Armee in US-Territorium eingedrungen sei. Diese von Polk ignorierten Anträge wurden als "Spot Resolutions" bekannt, während Lincoln selbst wegen seiner Kriegsgegnerschaft von der Mehrheit der Presse angegriffen und als "spotty Lincoln" verhöhnt wurde. Er ging jedoch nicht so weit, der Streichung der Geldmittel für die Armee zuzustimmen. Im Januar 1849 brachte er eine Resolution zur Beschränkung der Sklaverei im District of Columbia ein. Ansonsten machte er bei seinem ersten Auftreten in der Bundespolitik kaum von sich reden. Für Lincoln war es wichtig, im engen Kontakt zu seinen Wählern zu bleiben, den er durch seine Tätigkeit als Anwalt aufgebaut hatte. Ein Angebot, als Partner in eine Kanzlei in Chicago einzusteigen, schlug er daher aus. Da er in Washington ohne seine Familie lebte, reizte ihn auch eine Karriere in der Bundeshauptstadt wenig. Der 1849 ins Amt gelangte Präsident Zachary Taylor bot ihm an, Gouverneur des neuen Territoriums Oregon zu werden, das die heutigen Staaten Oregon, Washington und Idaho sowie Teile Montanas und Wyomings einschloss. Aber auch dies schlug er aus und kehrte 1849 nach Springfield zurück. Für die nächsten fünf Jahre verabschiedete sich Abraham Lincoln aus der Politik. Erst die Verschärfung des Konflikts zwischen Befürwortern und Gegnern der Sklaverei brachte ihn auf die politische Bühne zurück. Weg zur Präsidentschaft. Um zu verstehen, wie Abraham Lincoln von einer kaum über Illinois hinaus bekannten Parteigröße zu einem in ganz Amerika beachteten Politiker und schließlich zum Präsidentschaftskandidaten der neuen Republikanischen Partei werden konnte, muss man die Entwicklung der Sklavenfrage und Lincolns Haltung dazu betrachten. Gegensätze zwischen Nord und Süd. Gesellschaftlich, kulturell und wirtschaftlich unterschieden sich der Norden und der Süden der USA in wesentlichen Punkten. Sie bildeten völlig gegensätzliche Wirtschaftssysteme aus, deren Interessen sich im Laufe des 19. Jahrhunderts immer schwerer miteinander vereinbaren ließen. Der Süden, als Agrarland auf die Ausfuhr von Baumwolle, Tabak und anderen Plantagenprodukten angewiesen, verfocht eine Freihandelspolitik, worin er von Großbritannien unterstützt wurde. Der Norden, der seine noch junge Industrie vor der Einfuhr von Massenprodukten aus England schützen wollte, trat für möglichst hohe Schutzzölle ein. Die Partei der Whigs – insbesondere deren Gründer Henry Clay, den Lincoln als sein Vorbild ansah – forderten wie später auch die Republikaner eine starke Zentralmacht, eine Nationalbank sowie Bundesausgaben zur Verbesserung der zwischenstaatlichen Infrastruktur, etwa durch den Bau von Fernstraßen und Kanälen. Nicht zuletzt befürworteten sie das Prinzip der freien Arbeit in den neu zu besiedelnden Gebieten des Westens. Die im Süden traditionell starke Demokratische Partei dagegen lehnte all das ab und war für eine weitgehende Autonomie der Einzelstaaten. Dies schloss auch das Recht neuer Staaten ein, auf ihrem Gebiet die Sklaverei zu gestatten. Trotz seiner geringeren Bevölkerungszahl nahm der Süden mit seiner reichen Pflanzeraristokratie bis zum Bürgerkrieg die politisch und gesellschaftlich führende Rolle innerhalb der USA ein. So kamen zum Beispiel die meisten Präsidenten aus den Sklavenstaaten. Zudem wog die Stimme eines weißen Südstaatlers bei Wahlen ungleich schwerer als die eines Nordstaatlers. Denn die Anzahl der Abgeordneten, die ein Staat ins Repräsentantenhaus entsenden durfte, hing von seiner Einwohnerstärke ab. Jedem der Südstaaten aber wurde die Zahl der dort lebenden afroamerikanischen Sklaven zu drei Fünfteln angerechnet, obwohl diesen selbst das Wahlrecht verwehrt war. Seit Beginn des 19. Jahrhunderts schritten Industrialisierung und Bevölkerungswachstum im Norden zwar rasch voran, so dass sich das wirtschaftliche Gewicht immer mehr zu seinen Gunsten verschob. Gleichzeitig aber gewannen die Stimmen der Südstaatler im Kongress an Gewicht, da die Anzahl ihrer Sklaven zwischen 1780 und 1860 von 500.000 auf 4 Millionen anstieg. Der wesentliche Grund dafür, dass sich die Sklaverei trotz des seit 1808 geltenden, offiziellen Verbots des Sklavenhandels auf dem Vormarsch befand, war der anhaltende Boom der amerikanischen Baumwollwirtschaft. In den frühen Jahren der Republik hatten sogar viele Politiker aus den Südstaaten, die – wie George Washington oder Thomas Jefferson – selbst Sklavenhalter waren, an eine allmähliche Abschaffung oder ein Absterben der Sklaverei gedacht. Im Jahr 1793 jedoch erfand Eli Whitney die Cotton Gin, eine Maschine, die die Fasern der Baumwolle von ihren Samenkapseln trennt. Sie steigerte die Effizienz der Entkörnung um das 50fache und machte den Baumwollanbau im großen Stil – und damit auch den Einsatz von Sklaven – profitabler denn je. Zwischen 1790 und 1820 stieg der Baumwollexport allein nach England um mehr als das Hundertfache an, von 700.000 auf 76 Millionen Kilogramm. Da Baumwolle den Boden stark auslaugt, werden nach einigen Jahren neue Anbauflächen benötigt. Anders als alle übrigen Baumwollproduzenten weltweit verfügten die Südstaatler aber nahezu unbegrenzt über Land, Arbeitskräfte und Kapital – wegen der von Weißen noch unbesiedelten Gebiete im Westen, der Sklaverei und finanzstarken Kreditgebern im Norden. So beherrschten die USA 1860 dank "King Cotton" "(König Baumwolle)" den weltweiten Baumwollmarkt. In den ersten 50 Jahren nach der Gründung der USA hatte die Sklavenfrage in der Innenpolitik nur eine untergeordnete Rolle gespielt. Mit der Ausweitung der Sklaverei wuchs aber auch der Widerstand dagegen. Viele Nordstaatler lehnten sie aus wirtschaftlichen Gründen ab, so etwa die bäuerlichen Anhänger der Free Soil Party, die sich von Seiten der südstaatlichen Pflanzer einem unfairen Wettbewerb um Land und billige Arbeitskraft ausgesetzt sahen. Ähnlich argumentierte der südstaatliche Autor Hinton Rowan Helper in seinem Bestseller "The Impending Crisis of the South" "(Die drohende Krise des Südens)", in dem er die Sklaverei als Hemmnis für die ökonomische Entwicklung darstellte. Zudem entstanden seit den 1830er Jahren im Norden publizistisch einflussreiche Vereinigungen von Abolitionisten, die die Sklaverei grundsätzlich ablehnten. Die einen – wie etwa der Journalist William Lloyd Garrison – forderten aus religiös-moralischen, die anderen – wie der entflohene Sklave Frederick Douglass – aus prinzipiellen Erwägungen heraus die Abschaffung der "peculiar institution" (der „besonderen Einrichtung“), wie die Sklaverei in der US-Verfassung verbrämend genannt wurde. Sie unterstützten die Bildung von Anti-Sklaverei-Wahlblöcken, die seit den 1840er Jahren immer mehr abolitionistisch gesinnte Politiker nach Washington brachten. Abgeordnete wie John Quincy Adams, Thaddeus Stevens oder Charles Sumner widersetzten sich Regelungen, die bis dahin verhindert hatten, dass das Sklaverei-Thema im Kongress auch nur erörtert wurde und setzten dieses endgültig auf die politische Agenda. Ihnen traten Südstaaten-Politiker wie der ehemalige Vize-Präsident und Senator von South Carolina, John C. Calhoun, entgegen. Er sah in der Sklaverei ein „positives Gut“, da die „Negerrasse“ von Natur aus zum Dienen bestimmt sei und es den Afroamerikanern in Gefangenschaft besser gehe als in Freiheit. Den gewaltlosen Aktionen der Abolitionisten schlug im Süden – und nicht nur dort – verstärkt Hass und Gewalt entgegen. In Lincolns Heimatstaat Illinois ermordeten 1837 fanatische Sklavereibefürworter den abolitionistischen Prediger Elijah P. Lovejoy. Er war der erste weiße Amerikaner, der wegen des Streits um die Sklavenfrage getötet wurde. Zuspitzung der Sklavenfrage. Freie und Sklavenstaaten waren zunehmend darauf bedacht, gegenüber der jeweils anderen Seite im Senat nicht in die Minderheit zu geraten. Dieses Problem stellte sich jedes Mal neu, wenn ein weiterer Staat in die Union aufgenommen werden sollte. Eine erste Zuspitzung des Konflikts konnte 1820 durch den Missouri-Kompromiss entschärft werden. Er sah vor, dass die Sklaverei nördlich der Mason-Dixon-Linie, die auf etwa 36° 30′ nördlicher Breite verlief, in allen neuen Staaten mit Ausnahme Missouris verboten sein solle. Dennoch wurde die Präsidentschaftswahl von 1844 von der Frage beherrscht, ob die wenige Jahre zuvor von Mexiko unabhängig gewordene Republik Texas als Sklavenstaat annektiert werden solle oder nicht. Die Annexion führte zum Mexikanisch-Amerikanischen Krieg, der 1848 mit weiteren, großen Landgewinnen der USA südlich der Mason-Dixon-Linie endete. Dadurch drohte sich das politische Gleichgewicht erneut zugunsten des Südens zu verschieben. Das sogenannte Wilmot Proviso, nach dem die Sklaverei in den eroberten Gebieten verboten werden sollte, erlangte nie Gesetzeskraft. Mit dem Kompromiss von 1850 aber gelang es dem Kongress ein letztes Mal, die Gegensätze zwischen den Staaten auszugleichen: Einerseits bestimmte er, dass Kalifornien der Union als sklavenfreier Staat beitreten sollte, andererseits verabschiedete er den Fugitive Slave Act. Wegen dieses Gesetzes, das sklavenfreie Staaten verpflichtete, entflohene Sklaven auszuliefern, spaltete sich jedoch die Partei der Whigs, der Lincoln angehörte. Am 30. Mai 1854 jedoch verabschiedete der Kongress auf Antrag des demokratischen Senators Stephen A. Douglas, eines späteren politischen Gegners Lincolns, den Kansas-Nebraska Act. Dieses Gesetz stellte es den beiden Territorien – obwohl nördlich der Mason-Dixon-Linie gelegen – frei, in ihren künftigen Staatsverfassungen selbst festzulegen, ob sie die Sklaverei gestatten oder nicht. Daraufhin brach in "Bleeding Kansas", dem blutenden Kansas, ein „Bürgerkrieg vor dem Bürgerkrieg“ aus. In ihm bekämpften sich Sklavereibefürworter und Anhänger der Free-Soil-Bewegung, die für das Prinzip der freien Arbeit auf freiem Land eintraten. Das innenpolitische Klima in den USA verschärfte sich nach der Verabschiedung des Gesetzes in einem Maße, das ausgleichende Debatten und Kompromisse kaum noch zuließ. Auf beiden Seiten nahmen irrationale Ängste zu, und Verschwörungstheorien stießen zunehmend auf Akzeptanz. Der einflussreiche Senator John C. Calhoun hatte bereits vor 1850 die Ansicht verbreitet, die Befreiung der Sklaven werde zum Rassenkrieg und zur Vernichtung der Union führen. Er und andere Apologeten der Sklaverei sahen in ihr nicht länger ein unvermeidliches Übel, sondern eine für Herren wie Sklaven positive Einrichtung, die es unbedingt zu schützen gelte. George Fitzhugh, ein in den 1850er Jahren vielbeachteter und auch von Lincoln gelesener Autor, ging sogar noch weiter. Er forderte, dass außer den schwarzen auch die weißen Arbeiter versklavt werden sollten. Viele Demokraten argumentierten in Wahlkämpfen unverhohlen rassistisch, versuchten ihre Gegner als „schwarze Republikaner“ zu verunglimpfen und setzten die Befreiung der Afroamerikaner mit „Rassenmischung“ und „freier Liebe“ gleich. Diesem Argument begegnete Lincoln mit der Aussage: „Ich kann nicht nachvollziehen, warum ich, weil ich keine Negerin als Sklavin haben will, sie unbedingt als Ehefrau wollen sollte.“ Weiter vertieft wurden die Gegensätze zwischen Nord und Süd 1857 durch das Urteil des Obersten Gerichtshofs im Fall Dred Scott versus Sandford. In der Urteilsbegründung stellte Chief Justice Roger B. Taney fest, dass Afroamerikanern grundsätzlich keine Bürgerrechte in den USA zustünden. Auch Sklaven, die in den freien Staaten und Territorien des Nordens lebten, würden dadurch nicht frei. Das Gericht stärkte damit die Rechte der Sklavenhalter auf ihr „Eigentum“, indem es das Recht des Kongresses bestritt, die Sklaverei in irgendeinem Staat oder Territorium zu verbieten. Sowohl mit dem Kansas-Nebraska-Gesetz als auch mit dem Urteil zu Ungunsten des Sklaven Dred Scott wurde der Missouri-Kompromiss faktisch aufgehoben. Dies löste im Norden eine Welle der Empörung aus. Eine letzte, entscheidende Verschärfung erfuhr der Konflikt am 16. Oktober 1859, als eine Gruppe radikaler Abolitionisten unter Führung von John Brown das Waffendepot der US-Armee in Harpers Ferry in Virginia überfiel. Ihr Ziel war es, Sklaven mit den erbeuteten Waffen auszurüsten und einen Befreiungskrieg im Süden zu führen. Der schlecht geplante Aufstand scheiterte von Beginn an. Browns Truppe wurde von virginischen Milizsoldaten, die der spätere Konföderiertengeneral Robert E. Lee anführte, aufgerieben und er selbst noch im Dezember desselben Jahres hingerichtet. Im Süden als Terrorist, im Norden von vielen als Freiheitsheld betrachtet, galt Brown nach einem Wort von Herman Melville als „Meteor des Krieges“, der nur 18 Monate nach der Aktion von Harpers Ferry ausbrach. Eine ihrer Folgen war, dass Virginia seine Miliztruppe zu einer professionellen Armee ausbaute und dass die Präsidentschaftswahl von 1860 ganz im Zeichen der Sklavenfrage stand. Ein Kompromiss zwischen Gegnern und Befürwortern der Sklaverei schien kaum noch möglich. Gemäßigte und radikale Sklavereigegner schlossen sich enger zusammen, während die Demokratische Partei zerbrach, wie zuvor schon die der Whigs. Lincoln als gemäßigter Gegner der Sklaverei. Lincolns Partei hatte bereits nach dem Kompromiss von 1850 erste Zerfallserscheinungen gezeigt. Vollends brach sie wegen des Streits um den Kansas-Nebraska-Act von 1854 auseinander. In diesem Jahr schlossen sich die meisten Whigs mit gemäßigten Sklavereigegnern aus den Reihen der Demokraten zur Republikanischen Partei zusammen. Verstärkt wurden sie durch Abolitionisten und Free Soiler. Sie alle sahen in den sklavereifreundlichen Regierungen der 1850er Jahre bereits die Verwirklichung der so genannten "slave power", einer von ihnen befürchteten Tyrannei der Sklavenhalter-Aristokratie, über die gesamten Vereinigten Staaten. Mit der Verabschiedung des Kansas-Nebraska Acts schienen "slave power" bzw. "slavocracy" endgültig in die Offensive zu gehen. Dies bewog Abraham Lincoln, in die Politik zurückzukehren. Am 22. Februar 1856 gründeten er und 24 weitere Gegner des Kansas-Nebraska-Gesetzes auch in Illinois einen Ableger der Republikanischen Partei. Zu dieser Zeit war er kein bedingungsloser Gegner der Sklaverei. Er verabscheute sie zwar moralisch, vertrat gegenüber den Südstaaten damals aber einen streng am geltenden Recht und Gesetz orientierten Standpunkt. So war er der Ansicht, dass die Gründerväter der Vereinigten Staaten die Sklaverei grundsätzlich als Übel angesehen, sie aber aus pragmatischen Gründen weiterhin in jenen Staaten geduldet hätten, in denen sie zur Zeit der Unabhängigkeitserklärung von 1776 und zum Zeitpunkt der Verabschiedung der US-Verfassung von 1787 bereits bestand. Eine Ausdehnung der Sklaverei auf weitere Staaten und Territorien widerspreche aber dem Geist der Verfassung und den freiheitlichen Prinzipien der Amerikanischen Revolution. Bei einer Rede in Springfield sprach er sich im Oktober 1854 dafür aus, mit den Abolitionisten zusammenzuarbeiten, wenn es um die Wiederherstellung des Missouri-Kompromisses ging, aber sich gegen sie zu stellen, wenn sie den "Fugitive Slave Act" abschaffen wollten. Er nahm damit eine Haltung zwischen radikalen Abolitionisten und Free Soilern ein, was ihn für breite Wählergruppen interessant machte. Im Jahr 1855 scheiterte sein erster Versuch, einen Sitz im Senat zu erlangen. Drei Jahre später unternahm er einen zweiten Anlauf. Sein Gegenkandidat war Senator Stephen A. Douglas, der Führer der Demokraten auf Unionsebene. Zum Auftakt des Wahlkampfs brachte Lincoln in einer berühmt gewordenen House-Divided-Rede, die er am 16. Juni 1858 im Staatsparlament von Illinois hielt, die Sklavenfrage und ihre Auswirkungen auf die amerikanische Politik auf den Punkt: In derselben Rede verdächtigte Lincoln seinen Gegner Douglas, den obersten Bundesrichter Taney, Präsident James Buchanan und dessen Vorgänger Franklin Pierce Teil einer Verschwörung zu sein, deren Ziel es sei, die Sklaverei auch in den bislang freien Bundesstaaten einzuführen. Einen Beleg für diesen Verdacht, den viele Nordstaatler teilten, gab es nicht. Aber indem Lincoln ihn in der Rede öffentlich geäußert und dabei festgestellt hatte, dass es keinen Kompromiss zwischen Sklaverei und Freiheit geben könne, erregte er landesweites Aufsehen als einer der entschiedensten Gegner der Sklaverei in den Reihen der Republikaner. Douglas, der als großer Redner bekannt war, erklärte sich mit einer Serie von sieben öffentlichen Rededuellen einverstanden, die er und Lincoln zwischen Juli und Oktober 1858 in verschiedenen Städten von Illinois austrugen. Die Lincoln-Douglas-Debatten sollten Geschichte machten, denn wegen ihrer grundsätzlichen Bedeutung und der rhetorischen Fähigkeiten der Kontrahenten wurden Mitschriften davon überall in den USA abgedruckt. Bei der Debatte, die am 27. August 1858 in Freeport im Norden von Illinois stattfand, gelang es Lincoln, seinen Gegner in eine Zwickmühle zu bringen. Douglas war der Initiator des Kansas-Nebraska-Acts gewesen, der dem Kongress in letzter Konsequenz das Recht absprach, die Sklaverei in einem US-Territorium zu verbieten. Lincoln fragte ihn daher, ob es zumindest der Bevölkerung eines Territoriums selbst auf gesetzlichem Wege möglich sei, die Sklaverei von dessen Gebiet auszuschließen, bevor es sich als Bundesstaat konstituiert habe. Antwortete Douglas darauf mit Nein, verärgerte er die in Illinois wichtige Wählergruppe der Free Soiler. Antwortete er mit Ja, wurde er für die Südstaatler unwählbar. Douglas entschied sich für ein Ja, um die unmittelbar anstehende Wahl zu gewinnen, legte damit aber zugleich den entscheidenden Stolperstein, an dem seine Präsidentschaftskandidatur zwei Jahre später scheitern sollte. Im weiteren Verlauf des Senatswahlkampfs von 1858 passte auch Lincoln sein Auftreten den Ansichten des jeweiligen Publikums an. So betonte er im Norden von Illinois, in Chicago, dass alle Menschen gleich erschaffen seien, und wandte sich gegen Vorstellungen von ungleichen Rassen. Im Süden des Staates, in Charleston, erklärte er hingegen, dass er noch nie befürwortet habe, den Schwarzen die gleichen sozialen und politischen Rechte wie den Weißen zuzugestehen. Den reinen Abolitionismus befürwortete er nicht, zumal er die Abolitionisten für zu wenig kompromissbereit hielt. Zudem hätte eine solche Haltung damals politischen Selbstmord bedeutet. Am Ende erhielt Lincoln zwar 4.000 Stimmen mehr als Douglas, verlor die Senatswahl aber erneut. Nicht zuletzt durch die Rededuelle hatte er sich aber nun als gemäßigter Gegner der Sklaverei im ganzen Land einen Namen gemacht und galt als möglicher Kandidat der Republikaner für die nächsten Präsidentschaftswahlen. Präsidentschaftswahl von 1860. Lincoln hatte bis zu diesem Zeitpunkt nie ein hohes Staatsamt bekleidet, und seine Erfahrungen in Washington beschränkten sich auf die wenigen Jahre als Kongressabgeordneter. Zwar unternahm er 1859 Vortragsreisen durch die Nordstaaten, um sich der Bevölkerung und seinen Parteifreunden vorzustellen und weiter für seinen gemäßigten Standpunkt zu werben. Aber trotz seiner wachsenden Bekanntheit, zu der insbesondere seine Rede vor der Cooper Union am 27. Februar 1860 und die dort von ihm erstellte Fotografie beitrug, galt er noch zu Beginn des Nominierungsparteitags der Republikaner, der im Mai 1860 in Chicago stattfand, als Außenseiter im Rennen um die Präsidentschaftskandidatur. Hoher Favorit war der Senator und frühere Gouverneur von New York, William H. Seward. Auch den Kandidaten Salmon P. Chase aus Ohio und Edward Bates aus Missouri wurden allgemein größere Chancen eingeräumt als Lincoln. Auf der Convention in Chicago konnte er sich uneingeschränkt nur auf die Delegation seines Heimatstaats Illinois verlassen. Deren Mitglieder aber überzeugten zahlreiche Delegierte anderer Staaten davon, für Lincoln als Kompromisskandidaten zu stimmen, falls sich ihr erster Favorit nicht durchsetzen ließe. Da sich die Vertreter der als radikal geltenden Sklavereigegner Seward und Chase und die eher konservativen Gruppierungen um Bates bei den Abstimmungen gegenseitig blockierten, bestimmten die Republikaner am 18. Mai 1860 schließlich Abraham Lincoln zu ihrem Spitzenkandidaten für den Kampf ums Weiße Haus. Seine Gegner nahm er später alle in sein Kabinett auf. Damit zwang er die Führer der verschiedenen innerparteilichen Gruppierungen, zusammen statt gegeneinander zu arbeiten. Während des Wahlkampfs kam Lincoln seine hohe rhetorische Begabung zustatten. Er galt als einer der größten Redner seiner Zeit und viele der von ihm geprägten Aussprüche und Aphorismen gehören in den USA bis heute zum allgemeinen Bildungsgut. Vor allem verstand er es, komplizierte Fragen mit einfachen Worten auf den Punkt zu bringen. Sätze wie „Nichts ist geregelt, was nicht gerecht geregelt ist“, „Die Wahlversprechen von heute sind die Steuern von morgen“ oder „Wer anderen die Freiheit verweigert, verdient sie nicht für sich selbst“ überzeugten viele Wähler. Das Wahlkampflied, das sein Programm prägnant zusammenfasste, war der noch heute populäre Song "Lincoln and Liberty". Die Präsidentschaftswahl fand im Herbst statt. Eine Grundlage für seinen Sieg hatte Lincoln schon zwei Jahre zuvor in den Debatten mit Stephen A. Douglas gelegt. Er hatte damals seinen Gegner, der die Präsidentschaftskandidatur der Demokraten anstrebte, zu Äußerungen über die Sklaverei gedrängt, die ihn für die Demokraten des Südens unwählbar machten. Wie die Whigs sechs Jahre zuvor, so hatte sich nun auch die Demokratische Partei gespalten. Die Nord-Demokraten nominierten Douglas, die Süd-Demokraten den eindeutigen Sklavereibefürworter John C. Breckinridge aus Kentucky, zu diesem Zeitpunkt noch amtierender Vizepräsident. Beide zusammen gewannen 2,2 Millionen Wähler, John Bell aus Tennessee, der für die von den Whigs abgespaltene Constitutional Union Party antrat, weitere 0,6 Millionen; Lincoln aber wurde mit fast 1,9 Millionen Stimmen der stärkste Einzelkandidat. Er siegte in keinem einzigen der Wahlbezirke des Südens – in den meisten stand er nicht einmal auf dem Stimmzettel –, erhielt aber fast alle Wahlmännerstimmen des Nordens (180) und damit eine klare Mehrheit: Mit 40 % der Wählerstimmen gewannen er und sein Vizepräsidentschaftskandidat Hannibal Hamlin 59 % aller Wahlmänner. Am 6. November 1860 wurde Abraham Lincoln gewählt; am 4. März 1861 sollte er den Amtseid ablegen. In diesen vier Monaten aber wurden Tatsachen geschaffen, die Lincolns gesamte Regierungszeit bestimmen sollten. Lincoln als Präsident. Während seiner gesamten Amtszeit als US-Präsident sah sich Abraham Lincoln gezwungen, einen Bürgerkrieg zur Wiederherstellung der Union zu führen. Dabei stand er im Wesentlichen vor vier großen Aufgaben: Er musste den Krieg militärisch gewinnen, bei der Bevölkerung des Nordens die Kampfbereitschaft aufrechterhalten, die Einmischung europäischer Mächte zugunsten der Konföderierten verhindern und schließlich die Abschaffung der Sklaverei betreiben, um die Ursache des Konflikts ein für alle Mal zu beseitigen. Amtsantritt und Kriegsbeginn. Die Wahl Abraham Lincolns war nicht die Ursache, aber der Anlass der Sezession. Der Gedanke, sich von der Union zu lösen, war erstmals während der so genannten Nullifikationskrise von 1832/33 in South Carolina aufgetaucht. Befürworter dieser Idee, wie John C. Calhoun fanden aber bis in die 1850er Jahre nur vereinzelt Zustimmung. In den 1850er Jahren mehrten sich dann die Stimmen derer, die für die Sezession eintraten. Die im Norden geübte Kritik an der Sklaverei wurde von vielen tonangebenden Südstaatlern als Bedrohung der eigenen Lebensart und Kultur betrachtet und jeder Versuch, sie zu beschränken, als Eingriff in die Rechte der Einzelstaaten und in das Eigentumsrecht ihrer Bürger. Aufgrund dieser Sichtweise machten die Verfechter der Sezession keinen Unterschied zwischen der kompromissbereiten Haltung Lincolns und den Zielen der Abolitionisten. Die Aussicht, Lincoln ins Weiße Haus einziehen zu sehen, gab den Extremisten im Süden den letzten entscheidenden Auftrieb. Noch bevor der neue Präsident sein Amt antreten konnte, gab South Carolina am 20. Dezember 1860 als erster Staat seinen Austritt aus der Union bekannt. Innerhalb weniger Wochen folgten alle Staaten des tiefen Südens: Mississippi, Florida, Alabama, Georgia, Louisiana und am 2. März 1861 Texas. In Montgomery, der Hauptstadt Alabamas, hatte sich am 4. Februar 1861 ein Provisorischer Kongress aus Vertretern der bis dahin ausgetretenen Staaten konstituiert. Dieser wählte am 9. Februar den Senator von Mississippi und früheren Kriegsminister Jefferson Davis, der wie Lincoln aus Kentucky stammte, zum provisorischen Präsidenten der Konföderierten Staaten von Amerika. Der scheidende US-Präsident James Buchanan bestritt den Einzelstaaten zwar das Recht, die Union zu verlassen, tat in seinen letzten Wochen im Amt aber nichts, um die Sezession zu verhindern. In der Rede zu seiner Amtseinführung am 4. März 1861 schlug Lincoln gegenüber dem Süden versöhnliche Töne an. Er versprach, nicht als erster zu Gewaltmaßnahmen zu greifen, machte aber zugleich deutlich, dass sein Amtseid ihn verpflichte, einer Spaltung der Union auf jeden Fall entgegenzutreten: Alle Hoffnungen auf eine Verhandlungslösung zerschlugen sich jedoch am 12. April 1861. An diesem Tag begannen konföderierte Truppen mit der Beschießung des von unionstreuen Einheiten gehaltenen Forts Sumter, das in der Hafeneinfahrt von Charleston lag, der alten Hauptstadt von South Carolina. Der Süden, der die Garnison von Fort Sumter als Besatzungstruppe betrachtete, hatte also trotz des angebotenen Gewaltverzichts zu den Waffen gegriffen – und trotz der Tatsache, dass Lincolns Regierung bis dahin keine Verfassung irgendeines Einzelstaats verletzt hatte und dies erklärtermaßen auch nicht plante. Dieser Umstand und der erzwungene Abzug der Garnison von Fort Sumter am 14. April erzeugten nun auch im Norden eine Kriegsstimmung. Die Öffentlichkeit verlangte energische Schritte gegen die Rebellen. Wie es so weit kommen konnte, erklärte Lincoln vier Jahre später in der Rede zu seiner zweiten Amtseinführung so: Der Beginn der Kampfhandlungen bewog Virginia und drei weitere Staaten des oberen Südens – North Carolina, Tennessee und Arkansas – die Union nun ebenfalls zu verlassen. Die Konföderierten verlegten daraufhin ihre Hauptstadt nach Richmond, Virginia. Von diesem Staat wiederum trennten sich die westlichen Landesteile ab, die in der Union bleiben wollten. Sie bildeten später den neuen Bundesstaat West Virginia. Um die Hauptstadt Washington halten zu können, war es für den Norden von entscheidender Bedeutung, die sklavenhaltenden Grenzstaaten Delaware, Maryland, Kentucky und Missouri zum Verbleib in der Union zu bewegen. Zu diesem Problem ist der Ausspruch Lincolns überliefert: „In diesem Krieg hoffe ich Gott auf meiner Seite zu haben. Kentucky aber muss ich auf meiner Seite haben.“ Alle vier Staaten blieben schließlich loyal – teils freiwillig, teils unter militärischem Druck. Lincolns Politik im Krieg. Die US-Armee zählte zu Kriegsbeginn nur etwas mehr als 16.000 Soldaten, die zudem überwiegend in den Indianergebieten des Westens stationiert waren. Am 15. April, einen Tag nach dem Fall von Fort Sumter, berief Lincoln daher 75.000 auf 90 Tage verpflichtete Milizsoldaten ein, um der Rebellion, wie die Abspaltung der Südstaaten im Norden genannt wurde, nunmehr militärisch ein Ende zu bereiten. Als weitere Sofortmaßnahme verfügte er eine Seeblockade aller konföderierten Häfen und vergrößerte die US-Streitkräfte bis zum Frühsommer durch weitere Anwerbungen auf rund 174.000 Soldaten und Matrosen. Da der Kongress erst im Juli wieder tagen sollte, geschahen diese Truppenaushebungen ohne dessen Ermächtigung. Dasselbe traf auf die Einschränkung einiger Grundrechte, etwa der Pressefreiheit oder des Habeas-Corpus-Gesetzes, zu. So ließ Lincoln Personen, die der Spionage für die Südstaaten verdächtigt wurden, ohne gesetzliche Grundlage verhaften. All dies brachte ihm bei Sympathisanten des Südens – zum Teil bis heute – den Ruf eines Diktators ein. Als aber im Juli die Vertreter der in der Union verbliebenen Staaten zum Kongress zusammentraten, stimmten sie allen Notstandsmaßnahmen des Präsidenten nachträglich zu. Aus ihrer Sicht verfuhr Lincoln mit den Unterstützern der Konföderierten nicht anders, als es mit Angehörigen einer fremden, mit den USA im Krieg befindlichen Macht üblich war – und genau dies beanspruchte die Konföderation ja zu sein. Doch selbst die angegebenen energischen Maßnahmen Lincolns reichten nicht aus. Die erste Niederlage der Unionstruppen in der Schlacht am Bull Run am 21. Juli 1861 machte deutlich, dass der Konflikt militärisch nicht schnell zu lösen war. Die Union musste sich auf einen langwierigen Eroberungskrieg einstellen. Dies war mit einer kleinen Berufsarmee und einer dreimonatigen Dienstpflicht nicht zu erreichen. Auch die Verlängerung auf neun Monate reichte nicht aus. Schließlich führte Lincolns Regierung erstmals in der Geschichte der USA die allgemeine Wehrpflicht ein, eine Maßnahme, die Anfang Juli 1863 zu bürgerkriegsähnlichen Unruhen in New York führte, den sogenannten Einberufungskrawallen. In der Stadt gab es zeitweilig sogar Bestrebungen, sich ebenfalls von der Union loszusagen und einen souveränen Staat zu bilden. Ein weiteres Problem stellten betrügerische Heereslieferanten dar, die die Unionsarmeen oft mit mangelhaftem oder völlig untauglichem Material belieferten. Daher verabschiedete der Kongress auf Lincolns Initiative am 2. März 1863 den False Claims Act, der bis heute als Lincoln Law bekannt ist. Das Gesetz ermutigte Whistleblower und erwies sich als wirksames Instrument, um Betrug zu Lasten der Allgemeinheit zu unterbinden. Der Bürgerkrieg zog sich auch deshalb in die Länge, weil Lincoln lange Zeit keinen geeigneten Oberbefehlshaber für die Potomac-Armee fand, die die Hauptlast der Kämpfe im Grenzgebiet von Virginia, zwischen Washington, D.C. und Richmond, zu tragen hatte. General George B. McClellan erwies sich zwar als hervorragender Organisator, aber als zögerlicher Heerführer. Er vergab – etwa im Halbinsel-Feldzug vom Frühjahr 1862 – gleich mehrere Chancen, dem Krieg durch schon greifbare Siege ein frühes Ende zu bereiten. Andere Befehlshaber wie Ambrose E. Burnside und Joseph Hooker erlitten katastrophale Niederlagen gegen die zahlenmäßig unterlegene Nord-Virginia-Armee des konföderierten Generals Robert E. Lee. Abraham Lincoln, der zwischen seiner Funktion als Kompaniechef im Indianerkrieg und der als Oberbefehlshaber der US-Streitkräfte nie mehr einen soldatischen Rang bekleidet hatte, unterzog sich nun auch einem Selbststudium in Militärfragen und wurde bald zum Experten. Mit den auf dem westlichen Kriegsschauplatz siegreichen Generalen Ulysses S. Grant und William T. Sherman fand er schließlich zwei Kommandeure, die mit ihren Truppen – der eine von Norden, der andere von Westen – die Konföderierten in langen, blutigen Kämpfen niederrangen. Kriegsziele und Kriegsgründe. Am 22. August 1862 schrieb Lincoln in einem offenen Brief an den bekannten Abolitionisten Horace Greeley, den Herausgeber der "New York Tribune": In der Tat ging es im Bürgerkrieg vordergründig um den nationalen Zusammenhalt der Vereinigten Staaten. Die Frage, an der sich der Kampf entzündet hatte, lautete: Hat ein einzelner Bundesstaat der USA das Recht, jederzeit aus der gemeinsamen Union auszutreten? Die Konföderierten bejahten dies, mit dem Argument, man sei dem Bund schließlich freiwillig beigetreten. Die Abspaltung, die sie vielfach als „Zweite Amerikanische Revolution“ bezeichneten, stand in ihren Augen in der Tradition von 1776. Sie kämpften also nach eigenem Selbstverständnis für die Rechte der Einzelstaaten. Der Norden wies dagegen darauf hin, dass keines der Einzelstaatenrechte bis dahin verletzt worden und dass nach der Unabhängigkeitserklärung von 1776 eine Revolution nur nach fortgesetzten schweren Rechtsverletzungen gerechtfertigt sei. Den tieferen Grund des Konflikts aber berührte Abraham Lincoln in der Gettysburg Address von 1863. In dieser Rede, seiner berühmtesten, sagte er, der Krieg werde um die Frage geführt, ob ein Staat, der sich auf Demokratie und individuelle Freiheit gründe, überhaupt auf Dauer bestehen könne. Diese Frage stellte sich mit umso größerer Berechtigung in einer Zeit, als eine „Regierung des Volkes, durch das Volk und für das Volk“ – wie Lincoln es in der Rede formulierte – international noch die große Ausnahme darstellte. Lincoln gab damit seiner Überzeugung Ausdruck, dass eine Demokratie zerbrechen müsse, wenn eine Minderheit (wie die Südstaatler) eine demokratische Entscheidung der Mehrheit (wie Lincolns Wahl zum Präsidenten) jederzeit verwerfen oder sogar mit Gewalt beantworten dürfe. Hinter der Frage der Einzelstaatenrechte stand aber immer unübersehbar die Sklavenfrage. An ihr – und nur an ihr – hatte sich der Streit um diese Rechte überhaupt erst entzündet. Ohne sie hätte sich das Problem der Einzelstaatenrechte nie in dieser Schärfe gestellt. So erwähnt beispielsweise die Erklärung zum Sezessionsbeschluss des Staates Texas vom 2. Februar 1861 den Dissens in der Frage der Sklaverei 21-mal, die Frage der Einzelstaatenrechte aber nur sechsmal. Alexander Hamilton Stephens, der Vizepräsident der Konföderation, erklärte in einer viel beachteten Rede vom 21. März 1861, der Bund der Südstaaten beruhe „… auf der großen Wahrheit, dass der Neger dem weißen Mann nicht gleichgestellt ist; dass sein untergeordnetes Verhältnis als Sklave gegenüber der überlegenen Rasse seine natürliche und normale Stellung ist.“ Lincoln verneinte aus wahltaktischen Gründen lange, dass die Abschaffung der Sklaverei zu seinen Kriegszielen gehörte. Denn zu Beginn des Konfliktes bildeten die Abolitionisten auch im Norden noch immer eine Minderheit, und kaum jemand wäre bereit gewesen, für die Befreiung der Sklaven in den Kampf zu ziehen. Doch ebendiese hatte Lincoln bereits in die Wege geleitet, als er den zitierten Brief an Greeley schrieb. Sklavenbefreiung. Über Lincolns Haltung zur Sklavenbefreiung bemerkte der afroamerikanische Schriftsteller und Abolitionist Frederick Douglass 1876: In der Tat war Lincoln nie radikaler Abolitionist und wurde es auch im Krieg nicht. In dem berühmten Brief an Greeley unterschied er zwischen seinem persönlichen Wunsch, nach dem alle Menschen frei sein sollten, und seiner Pflicht als Amtsträger, nach Recht und Gesetz zu handeln. Laut Gesetz aber war die Sklaverei im Süden erlaubt. Nach Lincolns Vorstellung sollte sie in einem allmählichen Prozess abgeschafft und die Sklavenhalter für den Verlust ihres „Besitzes“ entschädigt werden. Diesen Standpunkt vertrat er noch bis in die Anfangsphase des Bürgerkriegs hinein. So widerrief er beispielsweise die Anordnungen des Generalmajors John Charles Frémont, der die Sklaven von Plantagenbesitzern, die gegen die Union kämpften, für frei erklärt hatte. Auf gar keinen Fall war Lincoln vor 1861 bereit, die Sklavenfrage durch einen Krieg zu entscheiden. Indem sie aber von sich aus zur Gewalt gegriffen hatten, waren die Südstaaten nach Lincolns Auffassung selbst vom Weg des Rechtes und der Verfassung abgekommen. Je länger der Krieg dauerte, je mehr Opfer er forderte und je mehr Widerhall die Proteste der Abolitionisten fanden, desto stärker wurde Lincolns Überzeugung, dass die Sklaverei als Quelle allen Übels endgültig abgeschafft werden müsse. Dazu kam, dass er die Sklavenbefreiung mehr und mehr als Mittel begriff, den Süden wirtschaftlich und militärisch zu treffen. Kongress und Senat hatten bereits 1861 und 1862 sogenannte "Confiscation Acts" verabschiedet, durch die unter anderem die Sklaven konföderierter Soldaten für frei erklärt wurden. Dies sollte das Militär der Südstaaten schwächen. Am 22. Juli 1862 informierte Lincoln sein Kabinett über die geplante Proklamation zur Sklavenbefreiung. Da auch sie als Kriegsmaßnahme gedacht war, gab Außenminister Seward zu bedenken, dass die Erklärung nach der Reihe schwerer Niederlagen, die die Union bis dahin erlitten hatte, als Zeichen der Schwäche missdeutet werden könne. Daher gab Lincoln die Proklamation erst im September bekannt, nach dem Unionssieg in der Schlacht am Antietam. Am 1. Januar 1863 trat die Emanzipations-Proklamation schließlich in Kraft. Ihr entscheidender Passus besagte: Die Proklamation galt also vorerst nur für die Gebiete der Konföderierten, um die loyal gebliebenen Sklavenstaaten nicht zu verprellen. Aber die Befreiung der Sklaven war nun ein offizielles Kriegsziel der Union. Dessen moralisches Gewicht machte es England und Frankreich, die aus wirtschaftlichen und machtpolitischen Gründen die Sache der Konföderation unterstützten, unmöglich, aktiv auf deren Seite in den Krieg einzugreifen. Vollständig abgeschafft wurde die Sklaverei 1865. Indianerpolitik. Als Befürworter der Free-Soil-Bewegung unterzeichnete Lincoln 1862 den "Homestead Act", der 1863 in Kraft trat. Dieses Gesetz erlaubte es jedem Erwachsenen, sich auf unbesiedeltem Land niederzulassen und sich ein 160 Acre (etwa 64 ha) großes Areal anzueignen. Nach fünfjähriger Bewirtschaftung – oder bei Zahlung von 200 Dollar bereits nach einem halben Jahr – wurde er automatisch zum Eigentümer. Einerseits schuf dieses Gesetz, das bereits bestehende einzelstaatliche Regelungen ergänzte und vereinheitlichte, Rechtssicherheit für die Siedler. Andererseits ermöglichte es die Enteignung der Indianergebiete, indem es unterstellte, diese würden nicht bewirtschaftet. Vor allem nomadisch lebende Gruppen wurden nun verstärkt in Reservate abgedrängt. Das Heimstätten-Gesetz leistete dem Betrug Vorschub und führte zu zahllosen Konflikten zwischen Indianern und Siedlern, in denen die Gerichte meist zugunsten der letzteren entschieden. Im Sommer 1862, noch vor Inkrafttreten des "Homestead Act" und dreißig Jahre nach seiner Teilnahme am Krieg gegen die Sauk, sah sich Lincoln erneut einem Konflikt mit Indianern gegenüber. Nachdem vertraglich zugesicherte, staatliche Geldzahlungen an die Santee-Sioux in Minnesota ausgeblieben waren, gingen hungernde Mitglieder des Stammes gewaltsam gegen die örtliche Indianerbehörde und weiße Siedler vor. Kriegsminister Stanton beauftragte im September Generalmajor John Pope mit der Niederschlagung des Sioux-Aufstands. Pope, der für die kurz zuvor erlittene Niederlage der Unionstruppen in der 2. Schlacht am Bull Run verantwortlich gemacht wurde, hatte sich für den Einsatz freiwillig gemeldet, um seiner Absetzung als Befehlshaber der Virginia-Armee zuvorzukommen. In einem Befehl an den Kommandeur der Expedition, Oberst H. H. Sibley, schrieb er: „Es ist meine Absicht, die Sioux vollständig auszurotten. […] Sie müssen behandelt werden wie Wahnsinnige oder wilde Tiere und auf keinen Fall wie Menschen, mit denen man Verträge oder Kompromisse schließen kann.“ Nach der Niederschlagung des Aufstands wurden mehrere Hundert Sioux vor Militärgerichte gestellt und in Verfahren, die im Schnitt 10 bis 15 Minuten dauerten, zum Tode verurteilt. Pope wollte schließlich 303 Verurteilte hinrichten lassen, doch Lincolns Regierung fürchtete den ungünstigen Eindruck einer solchen Massenexekution auf die europäischen Regierungen, deren Einmischung in den Sezessionskrieg sie fürchtete. Andererseits forderten zahlreiche Siedler in Minnesota die Hinrichtung. 200 von ihnen griffen sogar das Gefangenenlager in Mankato an. Dennoch reduzierten Anwälte im Auftrag Lincolns die Zahl der Todesurteile drastisch. So wurden schließlich „nur“ 38 Männer gehängt, einer davon, Chaska, trotz seiner Begnadigung. Dies war die größte Massenhinrichtung in der amerikanischen Geschichte. Im Gegenzug sagte Lincoln, der sich massiven politischen Drucks zu erwehren hatte, die spätere Vertreibung der Indianer aus dem Bundesstaat zu sowie zwei Millionen Dollar Schadensersatz. Lincoln begründete die Hinrichtung damit, dass er nicht durch zu große Gnade einen weiteren Aufstand provozieren, aber auch nicht grausam sein wollte. In Minnesota wurde die hohe Anzahl der Begnadigungen eher schlecht aufgenommen: Bei der Präsidentschaftswahl 1864 gewann Lincoln zwar eine Mehrheit im Staat, doch fiel diese deutlich geringer aus als 1860. Darauf angesprochen, dass eine härtere Gangart dies hätte verhindern können, sagte Lincoln: „Ich konnte es mir nicht erlauben, Männer für Stimmen aufzuhängen.“ In Lincolns Amtszeit fiel auch das Sand-Creek-Massaker im Osten des damaligen Territoriums Colorado. Dabei töteten Soldaten unter dem Kommando von Oberst John Chivington am 29. November 1864 273 friedliche Cheyenne und Arapaho. Wesentlich beigetragen zur indianerfeindlichen Stimmung in dem Territorium hatte dessen Gouverneur John Evans, ein Mitbegründer der Republikanischen Partei und persönlicher Freund Lincolns. Evans, der Chivington für seine Tat ausgezeichnet und die wahren Umstände des Massakers verschleiert hatte, sah sich bald massiver Kritik ausgesetzt. Lincoln, der Evans eingesetzt hatte, stärkte ihm noch bis Anfang 1865 den Rücken, erst sein Nachfolger als Präsident, Andrew Johnson, enthob den Gouverneur im Sommer 1865 seines Amtes. Wiederwahl 1864. Die Konföderierten hatten im Sommer und Herbst 1863 bei Gettysburg, Vicksburg und Chattanooga schwere Niederlagen erlitten. Nach diesen Erfolgen der Union war endgültig klar, dass die Konföderierten den Krieg nicht aus eigener Kraft würden gewinnen können. Ihre einzige Chance bestand darin, den Krieg so lange und für den Norden so verlustreich weiterzuführen, dass Abraham Lincoln die Präsidentschaftswahlen von 1864 verlieren und durch einen neuen, verhandlungsbereiten Präsidenten ersetzt würde. Diese Chance war durchaus real. Der unerwartet lange und blutige Stellungskrieg, den General Grant seit dem Frühjahr 1864 im Norden Virginias führte, kostete die Regierung Lincoln weitgehend das Vertrauen der Bevölkerung. Der Präsident war im Sommer des Wahljahrs so unpopulär, dass er selbst mit einer Niederlage rechnete. In einem Memorandum vom 23. August 1864 schrieb er: „Die Wiederwahl dieser Regierung erscheint heute, wie seit einigen Tagen, als überaus unwahrscheinlich.“ Sein Gegenkandidat von den Demokraten war sein früherer Oberbefehlshaber McClellan, der grundsätzlich zu einem Verhandlungsfrieden mit dem Süden und zur Anerkennung seiner Unabhängigkeit bereit war. Erst in den letzten Wochen vor der Wahl wendete sich das Blatt, als die Ergebnisse des für den Norden äußerst erfolgreichen Atlanta-Feldzuges bekannt wurden: Die Truppen General Shermans hatten am 2. September 1864 Atlanta erobert, einen der wichtigsten Industriestandorte und Verkehrsknotenpunkte Georgias und des ganzen von der Konföderation noch gehaltenen Territoriums. Zudem besiegte Generalmajor Philip Sheridan am 19. Oktober im Shenandoah-Tal ein konföderiertes Korps, das zeitweilig sogar Washington bedroht hatte. Das Kriegsende schien jetzt nur noch eine Frage der Zeit zu sein. Die Republikaner setzten im Wahlkampf auf den von Lincoln geprägten Slogan „Mitten im Fluss soll man nicht die Pferde wechseln“ und bezeichneten die Positionen der Demokraten als landesverräterisch. Als Kandidat für die Vizepräsidentschaft ersetzte Lincoln den bisherigen Amtsinhaber, den weitgehend einflusslosen Nordstaatler Hannibal Hamlin, durch Andrew Johnson. Dieser gehörte der Demokratischen Partei an, stammte aus dem Konföderiertenstaat North Carolina und war 1857 von Tennessee in den Senat entsandt worden, hatte sich aber für die Union ausgesprochen. Seine Kandidatur sollte den Südstaatlern die Bereitschaft des Nordens signalisieren, sie nach dem Krieg gleichberechtigt in die wiederhergestellte Union zu integrieren. Gemeinsam mit Johnson kandidierte Lincoln im Rahmen der National Union Party, einer Wahlplattform aus Republikanern und einem Teil der Demokraten. Am 8. November hielten die USA als erstes demokratisches Land mitten in einem Krieg eine Wahl ab. Lincoln erzielte gegen den früheren Oberbefehlshaber des Unionsheeres George B. McClellan einen Erdrutschsieg: 55 Prozent der Wähler stimmten für ihn, und er erhielt sogar 212 von 233 Wahlmännerstimmen. Als erster Präsident seit Andrew Jackson vor 32 Jahren war er für eine zweite Amtszeit bestätigt worden. Seine Wähler entstammten vor allem der Bauern- und Arbeiterschaft sowie den städtischen Mittelschichten. Ihre geografischen Hochburgen waren Neuengland und die Staaten mit einem starken Anteil deutscher Einwanderer wie Wisconsin oder Illinois. Für den Präsidenten war es besonders bedeutsam, dass auch die Soldaten der Unionsarmee zu mehr als zwei Dritteln für ihn gestimmt hatten, obwohl sie sich von einem Sieg McClellans ein rascheres Ende der Kampfhandlungen erhoffen konnten. Vor der Wahl hatte Lincoln geäußert, es sei ihm lieber, mit der Mehrheit der Soldatenstimmen besiegt als ohne diese Mehrheit Präsident zu werden. In der Zeit bis zu seinem zweiten Amtsantritt setzte sich Lincoln energisch für die Verabschiedung des 13. Zusatzartikels zur US-Verfassung ein, der die Sklaverei auf dem Territorium der USA ein für alle Mal verbieten sollte. Nach dem Senat konnte er – nach einem vergeblichen Anlauf – am 31. Januar 1865 auch die nötige Zweidrittelmehrheit des Repräsentantenhauses zur Zustimmung bewegen. Um dem Sklavereiverbot endgültig Verfassungsrang zu verleihen, musste es jetzt nur noch von den Einzelstaaten ratifiziert werden. Ein weiteres, drängendes Problem war die Wiedereingliederung der Südstaaten in die Union. Am 4. März 1865 – anlässlich seiner zweiten Vereidigung als Präsident – versprach Lincoln, „Groll gegen niemanden“ und „Nächstenliebe gegen alle“ walten zu lassen. Er fasste bereits den Wiederaufbau des Südens und die Nachkriegsordnung ins Auge und hatte vor, den Südstaatlern milde Friedensbedingungen zu stellen. Die Rückkehr in die Union sollte ihnen so leicht wie möglich fallen. Gegen Widerstände aus der eigenen Partei setzte Lincoln den Grundsatz durch, dass ein abtrünniger Staat wieder gleichberechtigt in die Union aufgenommen werden sollte, sobald ein Zehntel seiner Bürger ihr den Treueid geleistet hätten. Sieg und Tod. Der Krieg ging nun einem raschen Ende entgegen. Am 3. April eroberten Grants Truppen die Konföderiertenhauptstadt Richmond, und Lincoln besichtigte zwei Tage später das Amtszimmer seines Kontrahenten Jefferson Davis. Am 9. April 1865 kapitulierten die Reste von Lees Armee vor General Grant bei Appomattox Court House, Virginia. Die konföderierten Truppen unter General Joseph E. Johnston ergaben sich am 26. April General Sherman bei Durham, North Carolina. Den endgültigen Sieg hat Abraham Lincoln jedoch nicht mehr erlebt: Am Abend des 14. April, des Karfreitags 1865, besuchte er mit seiner Frau Mary und einem befreundeten Ehepaar eine Komödie im Ford’s Theatre in Washington, D.C. Während der Vorstellung verschaffte sich der Schauspieler John Wilkes Booth, ein fanatischer Sympathisant der Südstaaten, Zutritt zur Loge des Präsidenten und schoss ihm aus nächster Distanz mit einer Deringer-Vorderladerpistole von hinten in den Kopf. Ärzte aus dem Publikum waren sofort zur Stelle, aber die Kugel ließ sich nicht entfernen. Da der Präsident nicht transportfähig war, wurde er in das Petersen House gebracht, ein Privathaus direkt gegenüber dem Theater. Dort starb Lincoln am folgenden Tag, dem 15. April, um 7:22 Uhr morgens, ohne das Bewusstsein noch einmal wiedererlangt zu haben. Andrew Johnson, seit März Lincolns Vizepräsident, legte noch am selben Tag den Amtseid als sein Nachfolger ab. Das Attentat war Teil einer größeren Verschwörung: Eine Gruppe von Südstaaten-Anhängern um Booth hatte geplant, neben Lincoln weitere Regierungsmitglieder zu ermorden. So verletzte Lewis Powell bei einem Mordanschlag Außenminister Seward schwer, ebenso dessen Sohn und weitere Mitglieder seines Haushalts. Der deutschstämmige George Atzerodt, der auf Vizepräsident Andrew Johnson angesetzt war, schreckte im letzten Moment vor dem Mord zurück. Booth, der sich nach dem Mord beim Sprung aus der Präsidentenloge das Bein verletzt hatte, gelang mit Hilfe eines weiteren Komplizen, David Herold, die Flucht nach Virginia. Dort wurde er am 26. April auf einer abgelegenen Farm gestellt und bei einem Schusswechsel getötet. Ein Militärgericht verurteilte Ende Juni Powell, Atzerodt, Herold und Booths Zimmerwirtin Mary Surratt, die der Mitwisserschaft verdächtigt wurde, zum Tode. Sie wurden am 7. Juli 1865 im Fort Lesley J. McNair in Washington durch Hängen hingerichtet. Lincolns Sarg wurde mit einem Sonderzug auf etwa demselben Weg nach Springfield überführt, auf dem der neugewählte Präsident 1860 nach Washington gereist war. In allen größeren Städten wie New York und Chicago fanden Trauerprozessionen und -gottesdienste mit dem aufgebahrten Leichnam statt. Am 5. Mai 1865 wurde Abraham Lincoln auf dem Friedhof Oak Ridge Cemetery in seiner Heimatstadt Springfield beigesetzt. Am 23. Juni kapitulierten bei Fort Towson im Indianerterritorium die letzten Truppen der Konföderation. Lincolns Vermächtnis, der 13. Verfassungszusatz, trat nach der Ratifizierung durch die in der Verfassung vorgesehene Mindestanzahl von Dreiviertel der im damaligen Kongress vertretenen Bundesstaaten am 18. Dezember 1865 in Kraft. Nachleben. Als der Dichter Walt Whitman von Lincolns Tod erfuhr, widmete er ihm das Gedicht "O Captain! My Captain!" Es spricht von einem Kapitän, der sein Schiff durch große Gefahren sicher in den Hafen steuert, das Ziel aber selbst nicht lebend erreicht. Später verglich Whitman den Präsidenten, der an einem Karfreitag tödlich verwundet worden war, mit Jesus Christus. Dies sind nur zwei von vielen Beispielen für die bis zur Verklärung reichende Verehrung, die Abraham Lincoln bereits unmittelbar nach seiner Ermordung zuteilwurde. Mehr als die nüchterne Beurteilung seiner Präsidentschaft trugen dazu die Art seines Todes und der Vergleich mit den eher glanzlosen Regierungszeiten seiner ersten Amtsnachfolger bei. Zunächst nur in den Nordstaaten, mit wachsendem zeitlichem Abstand zum Bürgerkrieg aber in den ganzen USA, setzte sich das Bild von Lincoln als einem der bedeutendsten Präsidenten der US-Geschichte durch. Während die weißen Amerikaner in ihm den Bewahrer der Union sahen, betrachteten ihn die Afroamerikaner vor allem als den Sklavenbefreier. Auch ihr Bild von Lincoln war von religiöser Metaphorik geprägt. Schon bei seinem Besuch in Richmond kurz vor Kriegsende wurde Lincoln von den Schwarzen als „Vater Abraham“ begrüßt. Später verglichen sie ihn mit Moses, der die Israeliten ins Gelobte Land geführt hatte, ohne dass es ihm vergönnt war, dieses selbst zu betreten. Auch eher zurückhaltende Beobachter wie Frederick Douglass, der Lincoln während seiner Präsidentschaft unablässig wegen seiner zögerlichen Haltung in der Sklavenfrage kritisiert hatte, äußerten sich im Rückblick voller Respekt: Heute wird der Mitbegründer der Republikanischen Partei von Angehörigen aller ethnischen Gruppen verehrt, von Konservativen und Liberalen ebenso wie von Linken. In Umfragen unter Historikern und der US-Bevölkerung wird er gemeinsam mit George Washington und Franklin D. Roosevelt stets als einer der drei besten US-Präsidenten bewertet. Die Freiwilligenverbände aus den USA, die im Spanischen Bürgerkrieg auf Seiten der Republik gegen die Putschisten unter General Franco kämpften, nannten sich Abraham-Lincoln-Brigade. Zahlreiche Orte in den USA wurden nach dem Präsidenten benannt, von kleinen wie Fort Abraham Lincoln in North Dakota bis zu großen wie der Hauptstadt Nebraskas. Insgesamt tragen 17 Countys seinen Namen. Die US Navy taufte mehrere Schiffe auf den Namen des Präsidenten, u. a. den Flugzeugträger USS "Abraham Lincoln" und das strategische Atom-U-Boot SSBN "Abraham Lincoln". Auch die Automarke "Lincoln" wurde 1917 von deren Begründer Henry M. Leland nach ihm benannt. Als Forschungsstätte wurde 1889 in Springfield die "Illinois State Historical Library" ins Leben gerufen, die – um ein Museum und weitere Einrichtungen erweitert – am 16. April 2005 als "The Abraham Lincoln Presidential Library and Museum" neu eröffnet wurde. Das Wohnhaus von Abraham Lincoln im historischen Zentrum Springfields steht unter der Obhut des U.S. National Park Service und ist heute ebenso ein Museum wie Lincolns Geburtsstätte in Kentucky, der Ort des Attentats – Ford’s Theatre – und das dem Theater gegenüberliegende Sterbehaus in Washington. Lincolns Bild ziert den 5-Dollar-Schein sowie die 1-Cent-Münze. In 10 US-Bundesstaaten wird Lincolns Geburtstag als offizieller Feiertag begangen. Zu seinen und George Washingtons Ehren wurde der nationale Feiertag „Presidents Day“ eingeführt. Und neben den Köpfen George Washingtons, Thomas Jeffersons und Theodore Roosevelts wurde auch der Lincolns in die Felsen von Mount Rushmore in South Dakota gemeißelt. Der Komponist Aaron Copland schrieb 1942 das Tongedicht "Lincoln Portrait" mit einem gesprochenen Begleittext zu Ehren des 16. US-Präsidenten. Bereits 1922 war am Ufer des Potomac in Washington das Lincoln Memorial eingeweiht worden. Der klassizistische Tempelbau und das Kapitol markieren die beiden Enden der National Mall, der zentralen Achse der amerikanischen Hauptstadt. Die Gedenkstätte birgt eine Kolossalstatue Abraham Lincolns, die der Zeusstatue von Olympia nachempfunden ist. In ihre Südwand ist der Text der "Gettysburg Address", in die Nordwand Lincolns zweite Amtsantrittsrede eingemeißelt. Seit ihrer Entstehung ist sie Schauplatz vieler großer Bürgerrechtsdemonstrationen gewesen. Martin Luther King hielt 1963 seine berühmte Rede "I Have a Dream" von den Stufen des Lincoln Memorials herab. Seit 1954 ziert der Slogan „Land of Lincoln“ die Kfz-Kennzeichen von Illinois. Ein 1984 entdeckter Asteroid des inneren Hauptgürtels wurde nach dem ehemaligen Präsidenten (3153) Lincoln benannt. In Lincolns 200. Geburtsjahr trat der erste afroamerikanische Präsident der USA sein Amt an. Barack Obama hatte seine Bewerbung als Präsidentschaftskandidat am 10. Februar 2007 vor dem alten Parlamentsgebäude in Springfield bekannt gegeben, in dem Lincoln 1858 seine bis heute nachwirkende "House Divided Speech" gehalten hatte. Sowohl bei seiner ersten als auch bei seiner zweiten Amtseinführung in den Jahren 2009 und 2013 legte der 44. Präsident der Vereinigten Staaten seinen Eid auf Lincolns Bibel ab. Um den anti-demokratischen Tendenzen ihrer Partei und den Machtmissbräuchen des damaligen Präsidenten Donald Trump entgegenzutreten, bildeten ehemalige Republikaner Ende 2019 die politische Gruppe "The Lincoln Project". Die landesweite Bewegung zielte darauf ab, Wechselwähler und traditionelle Republikaner dazu zu bewegen bei der Präsidentschaftswahl 2020 für den demokratischen Kandidaten Joe Biden zu stimmen, der Obamas Vizepräsident gewesen war. Verfilmungen. Seit 1911 ist Abraham Lincoln in fast 350 Filmen und Fernsehsendungen von Schauspielern dargestellt worden, unter anderem von Walter Huston, Henry Fonda, Gregory Peck, Raymond Massey, Hal Holbrook, Sam Waterston, Lance Henriksen, Daniel Day-Lewis und – besonders häufig (zehn Mal) – von Frank McGlynn senior. Day-Lewis erhielt für seine Hauptrolle in Steven Spielbergs Film "Lincoln" einen Oscar. Die wichtigsten Spiel- und Dokumentarfilme mit und über Lincoln sind:
142
4115319
https://de.wikipedia.org/wiki?curid=142
Altweibersommer
Altweibersommer ist die Bezeichnung für eine meteorologische Singularität. Es handelt sich um eine Phase gleichmäßiger Witterung im Herbst, oft Ende September und Oktober, die durch ein stabiles Hochdruckgebiet und ein warmes Ausklingen des Sommers gekennzeichnet ist. Das kurzzeitig trockenere Wetter erlaubt eine gute Fernsicht, intensiviert den Laubfall und die Laubverfärbung. Wortherkunft. Die Herkunft des Wortes ist nicht sicher, zumal neben dem Begriff "Altweibersommer" auch zahlreiche weitere wie "Ähnlsummer, Frauensommer, Mädchensommer, Mettensommer, Mettkensommer, Metjensommer, Nachsommer, Witwensommer, Michaelssommer, Martinssommer, Allerheiligensommer" und "fliegender Sommer" vorkommen, was die sprachgeschichtliche Deutung erschwert. Nach der einen Erklärung leitet sich der Name von Spinnfäden her, mit denen junge Baldachinspinnen im Herbst durch die Luft segeln (vgl. Spinnenflug). Der Flugfaden, den die Spinnen produzieren und auf dem sie durch die Luft schweben, erinnert die Menschen an das graue Haar alter Frauen. Mit „weiben“ wurde im Althochdeutschen das Knüpfen der Spinnweben bezeichnet. Nach der anderen Erklärung, in der von Kluge/Seebold die „vielleicht“ ursprüngliche, von Pfeifer hingegen „wahrscheinlicher“ eine sekundäre Bedeutung gesehen wird, liegt dem Wort das Motiv der zweiten Jugend bei Frauen, die als unzeitig und nur kurze Zeit dauernd angesehen wird, zugrunde. An diese letztere Deutung können das schweizerische "Witwesömmerli" und der bairische "Ähnlsummer" (‚Großvatersommer‘) angeschlossen werden, vielleicht liegt aber auch das Bild des alten, schwachen Sommers vor. Andere Begriffe für das Phänomen der milden Herbsttage kann man einfacher deuten, sie sind jedoch zum Teil lediglich weitere sekundäre Interpretationen der – unsicheren – Urbedeutung. So nennt man in norddeutschen Dialekten den Altweibersommer "Mettkensommer" und ähnlich, die Altweibersommerfäden "Metten, Mettken" oder "Mettjen". Dabei liegt eine Verkleinerungsform von "Made" vor, das heißt, man hielt sie für Raupengespinste. Wegen der lautlichen Ähnlichkeit wurde dieser Begriff wohl volksetymologisch zu "Mädchen" umgedeutet. Auf bestimmte Tage wiederum beziehen sich die Wörter "(St.) Michaelssommer" (29. September), "Allerheiligensommer" (1. November) und "(St.) Martinssommer" (11. November). Das Landgericht Darmstadt hat im Jahr 1989 festgestellt, dass die Verwendung des Ausdrucks "Altweibersommer" durch die Medien keinen Eingriff in die Persönlichkeitsrechte von älteren Damen darstellt. Altweibersommer in anderen Sprachen. In den slawischen Sprachen und im Ungarischen nennt man diese Zeit ähnlich wie im Deutschen "Altweibersommer" (polnisch "babie lato," tschechisch "babí léto," sorbisch "babylěćo, "slowakisch "babie leto," slowenisch "babje poletje / leto," ukrainisch "babyne lito," ungarisch "vénasszonyok nyara"). In Nordamerika, insbesondere in den Neuenglandstaaten, wird diese Wetterlage "Indian Summer" (Québec: "été indien") genannt – im Deutschen oft mit der herbstlichen Laubfärbung verwechselt. In Frankreich wurde der Begriff "été indien" 1975 durch ein gleichnamiges Lied von Joe Dassin popularisiert. Früher sprach man eher von "été de la Saint-Denis" (9. Oktober), "été de la Saint-Géraud" (13. Oktober) oder "été de la Saint-Martin" (11. November). Ähnlich spricht man in Finnland von "Ruska-Aika" (Zeit der Braunfärbung) und in Schweden vom "brittsommar" (Birgitta-Sommer). In Skandinavien kommen Erscheinungen der aufkommenden Polarnacht hinzu. In der Übergangsphase von der Mitternachtssonne zur Polarnacht macht der Spätsommer mit seiner prachtvollen Laubfärbung Ausflüge in die Natur besonders attraktiv. Die Ruska-Saison ist für viele einheimische Naturfreunde der Höhepunkt des Jahres und Auslöser für einen intensiven Tourismus ins nördliche Lappland, den nördlichsten Teil Europas am Polarkreis. In Spanien ist die Zeit als St.-Michaels-Sommer "(Veranillo de San Miguel)" bekannt. Andere Mittelmeerländer kennen im November den "St.-Martins-Sommer". In der Türkei wird die Wetterperiode als "pastırma yazı" („Pastırma-Sommer“) bezeichnet. Pastırma ist ein getrocknetes Rinderfilet, von würziger Paste umgeben, das im Spätsommer von türkischen Metzgern vorbereitet und traditionell unter dem Hausdach an der warmen Luft zum Trocknen aufgehängt wird. In Japan wird ein warmer später Sommer als „kleiner Frühling“ ("koharu" 小春) bezeichnet. Das darauf folgende Momijigari beschreibt die Sitte, bei angenehmem Herbstwetter Landschaften und Parks mit schöner herbstlicher Laubfärbung, insbesondere von Ahornbäumen und -wäldern, zu besuchen. Volksglauben und Wetterregeln. Im Volksglauben wurden die Spinnweben der Baldachinspinnen auch für Gespinste von Elfen, Zwergen oder der Nornen gehalten. Als Verursacherin galt aber auch die Jungfrau Maria, die zusammen mit 11.000 Jungfrauen das Land alljährlich um diese Zeit mit Seide überspinnen würden. Daher rühren auch Bezeichnungen dieser Spinnfäden wie "Marienhaar, Mariengarn, Marienfaden, Marienseide, Herbstgarn, Sommerseide, Herbstfäden, Liebfrauenfäden, Unserer Lieben Frauen Gespinst, Mutter Gottes Gespinst". Im Volksglauben nahm man an, dass es Glück bringe, wenn sich die Fäden an der Kleidung des Menschen heften würden, und wer sie mit sich herumträgt, werde berühmt werden. Ebenso verheiße es eine baldige Hochzeit, wenn sich fliegende Spinnfäden im Haar eines jungen Mädchens verfangen. Der Altweibersommer hat in verschiedenen Bauernregeln seinen Niederschlag gefunden, die gutes Wetter verheißen und auf einen angenehmen Herbst schließen lassen.
143
946284
https://de.wikipedia.org/wiki?curid=143
Ariel Sharon
144
1376620
https://de.wikipedia.org/wiki?curid=144
Astana
Astana [], deutsch auch [] (kasachisch und russisch ; ist auch das kasachische Wort für "Hauptstadt") ist seit dem 10. Dezember 1997 die Hauptstadt Kasachstans. Sie befindet sich im nördlichen Teil des Landes inmitten der Kasachischen Steppe am Ufer des Flusses Ischim. Mit Einwohnern (Stand ) ist sie nach Almaty die zweitgrößte Stadt des Landes. Die Stadt wurde 1830 als russische Festung gegründet. In den 1950er Jahren wurde der Ort zum Zentrum der sowjetischen Neulandkampagne zur Gewinnung von landwirtschaftlichen Anbauflächen. Dies führte dazu, dass sich das Stadtbild veränderte und die Entwicklung der Stadt vorangetrieben wurde. Nach der Unabhängigkeit Kasachstans von der Sowjetunion wurde eine Verlegung der Hauptstadt beschlossen und die Stadt somit am 10. Dezember 1997 zur Planhauptstadt. Im Süden der Stadt entstand daraufhin ein modernes Regierungsviertel mit markanten Bauwerken wie dem Bajterek-Turm, dem Khan Shatyr oder der Pyramide des Friedens und der Eintracht. Entwicklung des Ortsnamens. Die Stadt hat in jüngster Vergangenheit mehrmals ihren Namen gewechselt. So hieß sie bis 1961 , von „weiße Grabstätte“, von 1961 bis 1991 , von „Neuland“, von 1992 bis 1998 Aqmola, ab dann , kasachisch für „Hauptstadt“. Von 2019 bis 2022 hieß die Stadt zu Ehren des langjährigen Präsidenten Kasachstans Nursultan Nasarbajew Nur-Sultan. Am 17. September 2022 unterzeichnete Kasachstans Präsident Tokajew ein verfassungsänderndes Dekret, mit dem die Rückbenennung in Astana vollzogen wurde (Details siehe Abschnitt „Geschichte“). Geografie. Geografische Lage. Der Ort liegt in einer großräumigen Steppenlandschaft im Übergangsbereich zwischen dem russisch geprägten Norden Kasachstans und dem extrem dünn besiedelten Landeszentrum am Fluss Ischim. Die älteren Stadtviertel liegen nördlich des Flusses, während die neuen Stadtviertel vor allem südlich des Ischim angelegt wurden. Stadtgliederung. Die Stadt kann geografisch in verschiedene Gebiete eingeteilt werden. Nördlich der Eisenbahn, welche den Norden der Stadt in ost-westlicher Richtung durchquert, befinden sich Industrie- und ärmere Wohnviertel. Zwischen der Eisenbahnlinie und dem Fluss Ischim befindet sich die Innenstadt, in der aktuell eine rege Bautätigkeit herrscht. Westlich und östlich davon schließen sich gehobenere Wohnviertel an. Südlich des Ischim befinden sich Parks und das neue Regierungsviertel. Hier sind ebenfalls viele große Bauprojekte im Entstehen, so zum Beispiel der Bau eines Diplomatenviertels, verschiedener Regierungsgebäude und einer repräsentativen Uferpromenade. Bis 2030 sollen diese Stadtteile vollendet sein. Astanas Chefplaner, Wladimir Laptew, will ein "Berlin in eurasischer Version" erbauen. Gelegentlich wird auch eine Parallele zu Ankara gezogen, welches nach Gründung der modernen Türkei Hauptstadt wurde. Eine reine Verwaltungs-Hauptstadt wie Brasília oder Canberra ist nicht das Ziel der Stadtplaner. Klima. Astana gilt klimatisch nach Ulaanbaatar als die zweitkälteste Hauptstadt der Welt; sie wird vom Kontinentalklima geprägt. Die Winde aus Nordsibirien gelangen in den Wintermonaten aufgrund fehlender geografischer Barrieren nahezu ungebremst nach Nord- und Zentralkasachstan. Die winterliche Durchschnittstemperatur beträgt ca. −15 Grad Celsius mit vereinzelten Nachtfrösten bis −40 Grad Celsius. Das absolute Temperaturminimum liegt bei −51,6 Grad Celsius. Dagegen sind im Sommer Spitzentemperaturen von über 35 Grad Celsius zu verzeichnen. Bevölkerung. Einwohnerentwicklung. ¹ Volkszählungsergebnis Geschichte. Gründung bis Zweiter Weltkrieg. Spuren skythischer Besiedlung finden sich im Grab des Sonnenherrschers (vor etwa 2500 Jahren). Die Stadt wurde 1830 als russische Festung "Akmolinsk" gegründet (von kasachisch "Aqmola (Ақмола)", ‚weißes Heiligtum‘, aber auch ‚weißes Grab‘ für einen nahe gelegenen Platz, an dem heller Kalkstein zutage tritt). Lange Zeit fungierte sie nur als Fort in der kasachischen Steppe. Die Bedeutung der Stadt wuchs Ende des 19. und Anfang des 20. Jahrhunderts, als Akmolinsk ein Eisenbahnknotenpunkt an der Turksib wurde. Dies führte zur ersten wirtschaftlichen Blüte der Stadt, die bis zum Russischen Bürgerkrieg anhielt. Dieser betraf auch das Gebiet des heutigen Nordkasachstans und damit auch Akmolinsk. In Akmolinsk bestand das Kriegsgefangenenlager "330" für deutsche Kriegsgefangene des Zweiten Weltkriegs. Stadterweiterung im 20. Jahrhundert. Als Nikita Chruschtschow in den 1950er Jahren ein Mammutprojekt startete, um die nordkasachische Steppe in eine zweite Kornkammer der Sowjetunion zu verwandeln, wurde die Stadt zur Hauptstadt dieser sogenannten "Neuland-Region" "(Целинный край / Zelinny krai)" und 1961 in "Zelinograd" umbenannt. Der hohe Anteil an russischer Bevölkerung in dieser Gegend, der zu ethnischen Spannungen geführt hat, lässt sich auf den Zuzug von Landarbeitern in dieser Zeit zurückführen. In der Umgebung der Stadt wurden daneben viele Russlanddeutsche angesiedelt, die vorher unter der Herrschaft Josef Stalins deportiert worden waren. Hauptstadt. Nachdem Kasachstan mit dem Zerfall der Sowjetunion die Unabhängigkeit erlangt hatte, wurden die Stadt und ihre Region 1992 nach dem ursprünglichen Namen in "Aqmola" umbenannt und 1994 als zukünftige Hauptstadt nominiert. Nach der Verlegung der Hauptstadt von Almaty nach Aqmola am 10. Dezember 1997 wurde die Stadt am 6. Mai 1998 abermals umbenannt und erhielt den Namen Astana. Der Grund für die Verlegung der Hauptstadt bestand neben der hohen Erdbebengefahr in Almaty vor allem darin, dass die kasachische Regierung unter Nursultan Nasarbajew hoffte, durch diesen Schritt eventuellen separatistischen Tendenzen der mehrheitlich von Russen bewohnten Gebiete im Nordosten des Landes besser entgegentreten zu können. Des Weiteren wurden Astana die besten Entwicklungsmöglichkeiten – resultierend aus möglichen Bebauungsflächen und Verkehrsinfrastruktur – prognostiziert. Schließlich war der Umzug – was in Kasachstan eher hinter vorgehaltener Hand erwähnt wird – durch einen Interessen- und Machtausgleich zwischen den drei traditionellen kasachischen Stammesföderationen der Großen Horde im städtisch geprägten Süden – der der ehemalige Präsident Nasarbajew angehört –, der Mittleren Horde im zentralen und östlichen Kasachstan, in deren Gebiet Astana liegt, und der in der erdöl- und gasreichen Kaspischen Senke im Westen Kasachstans ansässigen Kleinen Horde bedingt. Seit Astana als Hauptstadt fungiert, erlebt die Stadt ein starkes Wirtschaftswachstum. Damit einhergehend sind ein starkes Bevölkerungswachstum und eine hohe Bautätigkeit. Am 23. März 2019 wurde die Stadt zu Ehren des langjährigen Präsidenten Kasachstans, Nursultan Nasarbajew, in "Nur-Sultan" umbenannt. Die Umbenennung erfolgte auf Vorschlag seines Nachfolgers Qassym-Schomart Toqajew. Im September 2022 willigte er aber ein, den Namen der kasachischen Hauptstadt zurück in "Astana" zu ändern. Politik. Bürgermeister. Bürgermeister (Äkim) von Astana ist seit Dezember 2022 Schengis Qassymbek. Während sowjetischer Zeit stand der Stadtverwaltung der Vorsitzende des Exekutivausschusses vor. Nachfolgend die Bürgermeister der Stadt seit 1992: Wappen und Flagge. Das aktuelle Wappen von Astana wurde vom kasachischen Präsidenten Nursultan Nasarbajew entworfen und am 5. Juni 2008 eingeführt. Die beiden zentralen Motive des Wappens sind "Bäiterek" () und "Schangyraq" (). Dabei ist Bajterek, Bezeichnung für den Baum des Lebens bei den Turkvölkern, die Personifizierung des Universums und Schangyrak, die Krone einer kasachischen Jurte, stellt den Übergangspunkt von der unendlichen Weite des Universums zum eigenen Haus dar. Am unteren Ende von Bäiterek findet sich eine stilisierte Darstellung des mythischen Vogels Simorgh mit ausgebreiteten Flügeln, für den in Kasachstan der Name Samruk verwendet wird. Das Wappen der Stadt ist in zwei Ringe aufgeteilt: Der äußere Ring steht für die Geschichte der Großen Steppe. Die rote Farbe geht auf die reinigende Kraft des Feuers zurück, das von den Türken als unverzichtbares Element angesehen wurde und mit Geburt, Wachstum und Entwicklung in Verbindung gebracht wurde. Die rote Grenze symbolisiert auch die feurigen Tore, die man durchquert, um den Geist zu reinigen und mit Kraft gefüllt zu werden. Der innere Ring in der Farbe Azurblau, die auch für die Flagge Kasachstans verwendet wird, steht für die Unabhängigkeit des modernen Kasachstan. An beiden Seiten der Inschrift des Stadtnamens befinden sich im roten Ring jeweils drei symmetrische Linien, die die Dachstangen (/"uyq") des Schangyrak darstellen. Die Inschrift Астана (kasachisch und russisch für Astana) wurde durch Nur-Sultan (in lateinischer Schrift) ersetzt. Kultur und Sehenswürdigkeiten. Museen. Unter den Museen der Stadt befindet sich das "Museum des ersten Präsidenten der Republik Kasachstan" mit einer Sammlung von Waffen, Orden und Auszeichnungen des Präsidenten Nursultan Nasarbajew. In verschiedenen Ausstellungen werden auch Exponate gezeigt, die Einblicke in die kasachische Kultur geben. In der Nähe des Flusses Ischim befindet sich das "Freilichtmuseum Atameken". Auf gut zwei Hektar wurde hier ein Miniaturmodell Kasachstans und des Kaspischen Meeres geschaffen. Es werden Modelle kasachischer Sehenswürdigkeiten und einiger europäischer Bauwerke präsentiert. Das "Kulturzentrum des Präsidenten" besteht aus einem Museum, einer Bibliothek und einem Konzertsaal. Es werden neben den Themengebieten Archäologie, Kunst und Geschichte Kasachstans einige weitere wissenschaftlich-kulturelle Themen behandelt. Bauwerke. Alte Gebäude sucht man in Astana vergeblich. Die Stadt wird zum einen von Gebäuden der Sowjetzeit geprägt – hier herrscht der Baustil der 1960er und 1970er Jahre vor –, zum anderen von Stadtvierteln, die entweder in den letzten Jahren entstanden sind oder umgebaut wurden. Das betrifft die Viertel südlich des Ischim, die im Rahmen des Regierungsumzuges entstanden sind. Nahezu alle bedeutenden Bauwerke der Stadt entstanden erst, nachdem die Stadt zur Hauptstadt Kasachstans erklärt wurde. Die bekannten Bauwerke der Stadt befinden sich überwiegend im neuen Regierungsviertel der Stadt, das im Süden von Astana angelegt wurde. Im Zentrum des Regierungsviertels befindet sich der Nurschol-Boulevard, an dem zahlreiche Behörden, das kasachische Parlament und einige staatliche Unternehmen ihren Sitz haben. An ihm befindet sich auch der Bajterek-Turm, ein rund 100 Meter hoher Aussichtsturm in der Form eines mythologischen Lebensbaumes und Wahrzeichen der Stadt. An seinem westlichen Ende liegt das Khan Shatyr, eine Konstruktion in Form eines Zeltes. Darin befinden sich unter anderem ein Einkaufszentrum, ein Entertainmentcenter und ein Aquapark. Am östlichen Ende dieser Prachtstraße befindet sich am Flussufer der Ak-Orda-Palast, der Amtssitz des kasachischen Präsidenten. Der markante Bau, der mit italienischem Marmor verkleidet ist und eine Kuppel mit einer goldenen Antenne trägt, ist umgeben von einem groß angelegten Park. Direkt gegenüber, auf der anderen Seite des Ischim, befindet sich die Pyramide des Friedens und der Eintracht. Dieses pyramidenförmige Bauwerk, das vom britischen Architektenbüro Foster + Partners entworfen wurde, ist dauerhafter Tagungsort des Kongresses der Führer der Welt- und der traditionellen Religionen. Es ist konzipiert als Ort der für religiöse Verständigung, Abkehr von Gewalt und Förderung von Glaube und der Gleichheit der Menschen steht. Seit der Jahrtausendwende entstanden in Astana auch zunehmend Wolkenkratzer. Das älteste Hochhaus der Stadt ist der 2001 vollendete Astana Tower. Die meisten Hochhäuser wurden am Nurschol-Boulevard errichtet. Dort befindet sich das 175 Meter hohe Railways Building, Sitz der Eisenbahngesellschaft Qasaqstan Temir Scholy, und der Transport Tower. Direkt neben dem Railways Building befindet sich der Komplex der Emerald Towers, der aus zwei Wolkenkratzern besteht. Emerald Towers 1 ist mit einer Höhe von 210 Metern das derzeit höchste Gebäude in Kasachstan. Der Komplex Northern Lights besteht aus drei Hochhäusern, von denen das höchste Gebäude eine Höhe von 180 Metern misst. Bereits seit 2010 entsteht südlich des Bajterek-Turms der Abu Dhabi Plaza, der durch die Vereinigten Arabischen Emirate finanziert wird. Mit einer Höhe von 311 Metern wird das Bauwerk das höchste Gebäude in Zentralasien sein. Die Fertigstellung wurde mehrmals verschoben und ist für das Jahr 2021 geplant. Die neue russisch-orthodoxe Mariä-Entschlafens-Kathedrale wurde Anfang 2010 vom Patriarchen der russisch-orthodoxen Kirche Kyrill I. eingeweiht. Die Nur-Astana-Moschee war die größte Moschee Kasachstans, bis sie 2012 von der Hazrat-Sultan-Moschee abgelöst wurde. Außerdem befindet sich in Astana mit der Beit Rachel Synagoge die größte Synagoge Zentralasiens. Astana richtete 2017 die Weltausstellung Expo 2017 aus. Sport. Zwei große Fußballvereine sind bzw. waren in Astana beheimatet. Der Fußballklub FK Astana-1964 spielte in der zweithöchsten Spielklasse des Landes und wurde 2014 aufgelöst. Seine Heimspiele trug er im Kaschymukan-Munaitpassow-Stadion aus. FK Astana wurde erst 2009 durch die Fusion zweier Teams gegründet und ist in der kasachischen Premjer-Liga vertreten. Die Fußball-Heimspiele werden in der 2009 eröffneten und 30.000 Zuschauer fassenden Astana Arena ausgetragen. Die Eishockeymannschaft Barys Astana ist eines der erfolgreichsten Teams Zentralasiens. Seit der Saison 2008/2009 nimmt sie am Spielbetrieb der Kontinentalen Hockey-Liga teil. Die Spielstätte der Mannschaft ist die 12.000 Zuschauer fassende Barys Arena. Das Radsportteam "Astana", das an der UCI ProTour teilnimmt, hat seit 2009 seinen Standort in Astana. Die Basketballmannschaft BK Astana wurde 2011 neu gegründet und spielt neben der Kasachischen National League in der VTB-UL. Sie gewann 2012 die nationale Meisterschaft und den Pokal. Seit 2011 existiert auch ein Rally Team Astana, das bei der Dakar Rally 2012 in der Klasse der Trucks den dritten Platz belegte. Mit dem Ironman Kazakhstan wird hier seit 2020 ein Triathlon über die Ironman-Distanz (3,86 km Schwimmen, 180,2 km Radfahren und 42,195 km Laufen) ausgetragen. Wirtschaft und Infrastruktur. Wirtschaft. Astana lebt vor allem von seiner Hauptstadtfunktion und den damit zusammenhängenden Wirtschaftszweigen. Durch die rege Bautätigkeit hat der Bausektor eine wichtige Bedeutung in der Stadt. Ein weiterer wichtiger Industriezweig ist die Lederverarbeitung. Das Stadtgebiet stellt eine Sonderwirtschaftszone dar. Die Umgebung wird großräumig landwirtschaftlich genutzt. Verkehr. Astana liegt in der Mitte Kasachstans und hat dadurch eine Sonderstellung als Verkehrsknotenpunkt. Eisenbahn. Astana ist ein wichtiger Verkehrsknotenpunkt im Eisenbahnverkehr sowohl in Nord-Süd- (von Petropawl nach Almaty und Taschkent) als auch in Ost-West-Richtung (von Moskau nach China). Der Bahnhof von Astana wird von der staatlichen kasachischen Eisenbahngesellschaft Kasachstan Temir Scholy betrieben und ist einer der größten Bahnhöfe Kasachstans. Es bestehen täglich Verbindungen in kasachische Großstädte. Zugverbindungen ins Ausland bestehen vor allem nach Russland, aber auch in zentralasiatische Staaten und nach China. Straße. Parallel zu den Eisenbahnstrecken verlaufen Hauptstraßen. Aufgrund der enormen Ausdehnung des Landes besitzt das Straßennetz nur Bedeutung für den regionalen Verkehr. In den nächsten Jahren sind weitere Schnellstraßen bzw. Autobahnen geplant. Die bislang einzige winter- und wetterfeste Autobahn Kasachstans verbindet Astana mit Kökschetau (A12, Teil der Europastraße 125). Flugverkehr. Ca. 15 km südlich vom Stadtzentrum Astanas befindet sich der Flughafen von Astana, u. a. mit Verbindungen nach Europa, z. B. nach Wien, Frankfurt und Kiew. Der Flughafen war für einige Jahre ein wichtiges Drehkreuz für die Flüge der Lufthansa Cargo nach Asien. Von Deutschland aus fliegen Air Astana und Lufthansa von Frankfurt am Main non-stop nach Astana. Turkish Airlines fliegt von Istanbul nach Astana. Von der Ukraine aus fliegt Ukraine International Airlines non-stop nach Astana und Almaty. In den nächsten Jahren soll etwa 15 km westlich von Astana ein neuer internationaler Flughafen gebaut werden. Öffentlicher Personennahverkehr. Dem öffentlichen Personennahverkehr dienen Omnibuslinien sowie eine große Zahl Marschrutki. Der Verkehr von Oberleitungsbussen musste 2008 aufgegeben werden, nachdem die Stromrechnungen nicht mehr beglichen werden konnten. Mit Inbetriebnahme der Stadtbahn Astana soll ein neues Verkehrssystem eingeführt werden. Nach Vollendung aller vier Bauabschnitte wird das Liniennetz aus vier Linien bestehen, die durch das gesamte Stadtgebiet verlaufen. Unternehmen. In Astana befinden sich vor allem die Konzernzentralen kasachischer Staatsunternehmen. Die meisten Unternehmen Kasachstans, die nicht in staatlichem Besitz sind, sind in der ehemaligen Hauptstadt Almaty ansässig. Das staatliche kasachische Mineralölunternehmen KazMunayGas hat seinen Hauptsitz in einem 18-stöckigen Gebäude im neuen Regierungsviertel der Stadt. Auch die beiden Tochterunternehmen KazTransOil und KazTransGas befinden sich in Astana. Neben Kasachstans größtem Transportunternehmen Kasachstan Temir Scholy, dessen Tochterunternehmen Kaztemirtrans und Kaztransservice hat auch die KazakhTelecom hier ihre Unternehmenszentrale. Das staatliche Medienunternehmen Nur Media befindet sich ebenfalls in Astana. Kasachstans größter Automobilhändler Astana Motors befindet sich in Astana. Das Bergbauunternehmen Eurasian Natural Resources hat in Astana seine neue kasachische Konzernzentrale eingerichtet. Als einziges kasachisches Kreditinstitut hat die Tsesnabank ihren Unternehmenssitz in der Hauptstadt. Bildung. Die Stadt ist Sitz mehrerer Hochschulen und Universitäten. Die älteste Universität ist die Kasachische Agrartechnische Universität. Die landwirtschaftliche Hochschule gehört zu den besten Hochschulen Kasachstans und verfügt über neun Fakultäten an denen mehr als 10.000 Studenten eingeschrieben sind. Eine weitere bedeutende Universität ist die Eurasische Nationale Universität. Sie wurde 1996 durch die Zusammenlegung zweier Hochschulen gegründet. Die Medizinische Universität Astana wurde 1964 gegründet. Die KAZGUU Närikbajew-Universität ist eine private Universität, die 1994 gegründet wurde. Die Nasarbajew-Universität wurde 2010 etabliert. Sie ist eine Forschungsuniversität mit vorwiegend internationalem Personal. An der Universität sind rund 5000 Studenten eingeschrieben.
145
2645786
https://de.wikipedia.org/wiki?curid=145
Angela Merkel
Angela Dorothea Merkel (geb. "Kasner"; * 17. Juli 1954 in Hamburg) ist eine deutsche Politikerin (CDU). Sie war vom 22. November 2005 bis zum 8. Dezember 2021 achter Bundeskanzler und als Frau die erste Bundeskanzlerin der Bundesrepublik Deutschland. Sie war im Amt des Bundeskanzlers die erste Person aus Ostdeutschland und die erste nach der Gründung der Bundesrepublik geborene Person. Von April 2000 bis Dezember 2018 war sie Bundesvorsitzende der CDU. Merkel wuchs in der DDR auf und war dort als Physikerin am Zentralinstitut für Physikalische Chemie tätig. Erstmals politisch aktiv wurde sie während der Wendezeit in der Partei Demokratischer Aufbruch, die sich 1990 der CDU anschloss. In der ersten und gleichzeitig letzten demokratisch gewählten Regierung der DDR übte sie das Amt der stellvertretenden Regierungssprecherin aus. Bei der Bundestagswahl am 2. Dezember 1990 errang sie erstmals ein Bundestagsmandat. Bei den folgenden sieben Bundestagswahlen wurde sie in ihrem Wahlkreis in Vorpommern direkt gewählt. Von 1991 bis 1994 war Merkel Bundesministerin für Frauen und Jugend im Kabinett Kohl IV und von 1994 bis 1998 Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit im Kabinett Kohl V. Von 1998 bis zu ihrer Wahl zur Bundesvorsitzenden der Partei im Jahr 2000 amtierte sie als Generalsekretärin der CDU. Von April 2000 bis Dezember 2018 war sie Bundesvorsitzende der CDU. Nach dem knappen Sieg der Unionsparteien bei der vorgezogenen Bundestagswahl 2005 löste Merkel Gerhard Schröder (SPD) als Bundeskanzler ab. Als Regierungschefin führte sie zunächst bis 2009 eine große Koalition mit der SPD (Kabinett Merkel I). Nach der Bundestagswahl 2009 ging sie mit der FDP eine schwarz-gelbe Koalition ein (Kabinett Merkel II), der 2013 eine erneute große Koalition folgte, die auch nach der Bundestagswahl 2017 fortgesetzt wurde (Kabinett Merkel III und IV). Am 29. Oktober 2018 kündigte sie an, zur Bundestagswahl 2021 nicht mehr zu kandidieren. Merkel galt während des Großteils ihrer Amtszeit als Bundeskanzlerin international als "De-facto"-"Anführerin" der Europäischen Union und als mächtigste Frau der Welt. Leben. Elternhaus und frühe Kindheit (1954–1960). Angela Merkel wurde im Elim-Krankenhaus im Hamburger Stadtteil Eimsbüttel als erstes Kind des evangelischen Theologen Horst Kasner (* 6. August 1926 in Berlin; † 2. September 2011 ebenda) und seiner Frau Herlind Kasner, geb. Jentzsch (* 8. Juli 1928 in Danzig; † 6. April 2019 in Berlin), geboren. Horst Kasner hatte ab 1948 an den Universitäten Heidelberg und Hamburg sowie an der Kirchlichen Hochschule Bethel in Bielefeld Theologie studiert. Seine Frau Herlind war Lehrerin für Latein und Englisch. Noch 1954, einige Wochen nach der Geburt der Tochter, siedelte die Familie von Hamburg-Eppendorf, Isestraße 95, in die DDR über. Für die Evangelische Kirche in Berlin-Brandenburg trat Horst Kasner im Dorf Quitzow (heute ein Ortsteil von Perleberg) eine Pfarrstelle an. Angela Merkel ist ebenfalls evangelisch. 1957 wechselte Kasner dauerhaft nach Templin in der Uckermark, um sich am Aufbau einer innerkirchlichen Weiterbildungsstelle zu beteiligen. Dort wuchs Angela Merkel im Haus Fichtengrund auf. Ihre Mutter war aufgrund des Pfarrberufs des Vaters im Schuldienst der DDR unerwünscht. Am 7. Juli 1957 wurde Angelas Bruder Marcus, am 19. August 1964 ihre Schwester Irene geboren. In Polen erregte 2013 die Entdeckung ihrer polnischen Wurzeln Aufmerksamkeit: Ihr Großvater, der Polizeibeamte Ludwig Kasner (1896–1959), hatte als Ludwig Kazmierczak als Pole im Deutschen Kaiserreich in Posen gelebt, im Ersten Weltkrieg erst für die deutsche Armee und dann als Angehöriger der polnischen Haller-Armee möglicherweise gegen die deutsche Armee an der Westfront gekämpft. Er siedelte später nach Berlin über. Schulzeit und Studium (1961–1978). 1961 wurde Angela Kasner an der Polytechnischen Oberschule (POS) in Templin (heute "Aktive Naturschule Templin") eingeschult. Auffallend waren ihre überdurchschnittlichen schulischen Leistungen; in den Schulfächern Russisch und Mathematik war Kasner Klassenbeste. Sie gewann "Russisch-Olympiaden" bis hin zur DDR-Ebene und galt während ihrer Schulzeit als zurückhaltende Schülerin. Sie war Mitglied der Freien Deutschen Jugend (FDJ). 1973 legte sie an der Erweiterten Oberschule (EOS) in Templin das Abitur ab. Kasner hatte sich bereits während ihrer Schulzeit für das Studium der Physik an der Karl-Marx-Universität (heute: „Universität Leipzig“) in Leipzig entschieden, das sie 1973 aufnahm. Um ihr Einkommen während ihres Studiums aufzubessern, arbeitete sie nach eigenen Angaben an zwei Abenden pro Woche in Discotheken nebenberuflich als „Bardame“. Sie gehörte nicht zu den opponierenden Kräften innerhalb der DDR, was ihre akademische Laufbahn verhindert hätte, berichtet aber, in diesen Jahren den Autor Reiner Kunze getroffen zu haben, den sie als ihren Lieblingsschriftsteller bezeichnet. 1977 heiratete sie den aus Cossengrün in Thüringen stammenden Physikstudenten Ulrich Merkel; die Ehe wurde 1982 geschieden. Angela Merkels Diplomarbeit vom Juni 1978 mit dem Titel "Der Einfluss der räumlichen Korrelation auf die Reaktionsgeschwindigkeit bei bimolekularen Elementarreaktionen in dichten Medien" wurde mit „sehr gut“ bewertet. Die Arbeit war zugleich ein Beitrag zum Forschungsthema "Statistische und Chemische Physik von Systemen der Isotopen- und Strahlenforschung" im Bereich statistische und physikalische Chemie am "Zentralinstitut für Isotopen- und Strahlenforschung" der Akademie der Wissenschaften der DDR (AdW). Akademie der Wissenschaften in Ost-Berlin (1978–1989). Nachdem 1978 eine Bewerbung von Merkel an der Technischen Hochschule Ilmenau gescheitert war, ging sie mit ihrem damaligen Mann nach Ost-Berlin. Hier nahm sie eine Stelle am Zentralinstitut für Physikalische Chemie (ZIPC) der Akademie der Wissenschaften der DDR in Berlin-Adlershof an. 1986 konnte sie für mehrere Tage zu einer Tagung in die Bundesrepublik Deutschland reisen. Außerdem nahm sie in Donezk an einem mehrwöchigen russischen Sprachkurs teil. Am Zentralinstitut arbeiteten rund 650 Personen, davon etwa 350 Wissenschaftler. Merkel arbeitete in der Abteilung Theoretische Chemie. Während der Arbeit an ihrer Dissertation nutzte Merkel die Gelegenheit, einige der Berechnungen bei der Tschechoslowakischen Akademie der Wissenschaften in Prag durchzuführen, da diese einen leistungsfähigen IBM-Großrechner besaß, den es in der DDR damals nicht gab. Am 8. Januar 1986 reichte sie ihre Dissertation mit dem Thema "Untersuchung des Mechanismus von Zerfallsreaktionen mit einfachem Bindungsbruch und Berechnung ihrer Geschwindigkeitskonstanten auf der Grundlage quantenchemischer und statistischer Methoden" ein. Die Arbeit wurde mit „sehr gut“ "(magna cum laude)" bewertet. Nach der Promotionsordnung musste dem Antrag auf Promotion der Nachweis beigefügt werden, dass die während des Studiums erworbenen Kenntnisse des Marxismus-Leninismus („ML“) wesentlich vertieft und erweitert worden waren. Merkel fertigte zum Nachweis eine schriftliche Arbeit mit dem Titel "Was ist sozialistische Lebensweise?" an, die mit „genügend“ "(rite)" bewertet wurde. Doktorvater war der Leiter der Abteilung "Theoretische Chemie" am ZIPC Lutz Zülicke. Nach der Promotion zum Doktor der Naturwissenschaften "(Dr. rer. nat.)" wechselte Merkel innerhalb des Instituts in den Bereich Analytische Chemie, in dem Klaus Ulbricht ihr Abteilungsleiter wurde. In Bezug auf ihre Koautorenschaft bei wissenschaftlichen Publikationen hat Angela Merkel die Erdős-Zahl 5. Merkel war weder Mitglied der SED noch einer der Blockparteien; sie war nicht in der zivilen oder der kirchlichen Opposition aktiv. Während ihrer Tätigkeit für die Akademie der Wissenschaften engagierte sie sich in einer FDJ-Gruppe. Nach eigenen Angaben war Merkel dort als Kulturreferentin tätig. Zeitzeugen – die der Merkel-Biograf Gerd Langguth befragt hat – sprachen davon, sie sei für „Agitation und Propaganda“ zuständig gewesen. Familie. Während ihres Physikstudiums in Leipzig lernte Angela Kasner im Jahr 1974 bei einem Jugendaustausch mit Physikstudenten in Moskau und Leningrad ihren ersten Ehemann, den aus Cossengrün stammenden Physikstudenten Ulrich Merkel, kennen. Am 3. September 1977 wurden die beiden in Templin kirchlich getraut. 1981 trennte sich das Paar und die kinderlose Ehe wurde 1982 in Ost-Berlin geschieden. Ulrich Merkel hat aus seiner zweiten Ehe einen Sohn. Im Jahr 1984 lernte Merkel an der Akademie der Wissenschaften der DDR in Berlin-Adlershof den Quantenchemiker Joachim Sauer kennen, den sie am 30. Dezember 1998 heiratete. Die Ehe ist kinderlos; Sauer brachte zwei Söhne aus erster Ehe (Adrian und Daniel Sauer) mit in die Partnerschaft. Das Ehepaar zog von der Luisenstraße, in unmittelbarer Sichtweite des Reichstagsgebäudes, in eine Wohnung Am Kupfergraben in der Nähe der Humboldt-Universität um, in der es weiterhin lebt. Freizeit. Seit 1985 sind Angela Merkel und Joachim Sauer Eigentümer eines Wochenendhauses in Hohenwalde, einem Ortsteil von Milmersdorf in der Uckermark. Ihren Urlaub verbringt sie mit ihrem Mann seit Jahren an denselben Orten: zu Ostern auf der Insel Ischia im Golf von Neapel, im Sommer zum Wandern in Sulden im Vinschgau/Südtirol und im Winter zum Skilanglauf in Pontresina im Schweizer Engadin. Angela Merkel und ihr Mann sind Opernliebhaber und besuchen regelmäßig die Premierenvorstellungen der Bayreuther Wagner-Festspiele. Politische Laufbahn. Demokratischer Aufbruch (1989–1990). Während der Wende in der DDR im Herbst 1989 zeichnete sich ab, dass im Osten Deutschlands neue, demokratische Parteistrukturen entstehen würden. Merkel wollte zunächst der SPD beitreten, hätte dafür jedoch vorher die Mitgliedschaft in einem Ortsverein beantragen müssen. Das sagte ihr nicht zu; sie begann deshalb im Dezember 1989 beim neu gegründeten Demokratischen Aufbruch (DA) zu arbeiten, zunächst im Dezember und Januar noch unentgeltlich als provisorische Systemadministratorin, ab 1. Februar 1990 dann hauptberuflich als Sachbearbeiterin in der persönlichen Arbeitsumgebung des Vorsitzenden Wolfgang Schnur in der Ost-Berliner Geschäftsstelle. Aus dieser Zeit ist auch ihre Aussage verbürgt, dass sie mit der CDU nichts zu tun haben wolle. Später folgten der Entwurf von Flugblättern, die Ernennung zur Pressesprecherin durch ihren „Entdecker“ Schnur und die Mitgliedschaft im Vorstand des DA. Der Demokratische Aufbruch schwankte zunächst noch stark in den politischen Perspektiven und galt eine Zeitlang, wie die anderen Vereinigungen der Bürgerbewegung (Neues Forum, Demokratie Jetzt), prinzipiell als politisch linksorientiert. Bald brach sich aber eine politische Haltung Bahn, die den Sozialismus grundsätzlich ablehnte. Dies verstärkte sich, als Anfang 1990 konservative westdeutsche Politiker auf die erste demokratische Volkskammerwahl am 18. März 1990 hinarbeiteten und Volker Rühe als Generalsekretär der westdeutschen CDU am 5. Februar 1990 das Wahlbündnis Allianz für Deutschland begründete. Der Demokratische Aufbruch nahm darin als neu gegründete Bürgerbewegung eine Schlüsselstellung ein: Denn Helmut Kohl, damaliger Bundeskanzler und CDU-Vorsitzender, wollte nicht allein auf die Ost-CDU (die als Blockpartei vorbelastet war) oder die der CSU nahestehende Deutsche Soziale Union (DSU) setzen. Das Ansehen des DA wurde jedoch erheblich geschädigt, als wenige Tage vor der Volkskammer-Wahl bekannt wurde, dass Wolfgang Schnur von 1965 bis 1989 für das Ministerium für Staatssicherheit (MfS) tätig gewesen war. Merkel leitete die Pressekonferenz, auf der der DA-Vorstand seine Betroffenheit darüber äußerte. Allianz für Deutschland (1990). Die erste freie Volkskammerwahl am 18. März 1990 endete für Merkels Demokratischen Aufbruch (DA) mit einem 0,9-Prozent-Desaster. Dank der unerwarteten 41 Prozent für den Bündnispartner Ost-CDU wurde die gemeinsame Allianz für Deutschland jedoch faktischer Wahlsieger. Unter dem CDU-Spitzenkandidaten Lothar de Maizière entstand innerhalb der folgenden Wochen eine Koalition, bestehend aus der Allianz, den Sozialdemokraten und den Liberalen. Am 12. April 1990 wählten die Volkskammerabgeordneten dieser Koalitionspartner Lothar de Maizière zum neuen Ministerpräsidenten der DDR. In der Regierung de Maizières erhielt Rainer Eppelmann mit dem Ressort "Abrüstung und Verteidigung" für den DA ein Ministeramt. Im Einklang mit der Koalitionsarithmetik, die bei der Verteilung weiterer Posten zu beachten war, wurde Merkel in der ersten, und gleichzeitig letzten, frei gewählten Regierung der DDR stellvertretende Regierungssprecherin. In den Wochen nach der Volkskammerwahl rückte überraschend schnell die Frage der Deutschen Wiedervereinigung in den politischen Mittelpunkt. Merkel begleitete viele vorbereitende Gespräche, z. B. diejenigen zum Staatsvertrag über die Schaffung einer Währungs-, Wirtschafts- und Sozialunion – der am 18. Mai 1990 in Bonn unterzeichnet wurde. Maßgeblicher Verhandlungsleiter auf Seiten der DDR war der parlamentarische Staatssekretär beim Ministerpräsidenten der DDR, Günther Krause, der in den nächsten Monaten ein wichtiger Förderer von Merkel wurde. Am 31. August 1990 wurde schließlich in Bonn der Einigungsvertrag von Günther Krause und dem Innenminister der Bundesrepublik, Wolfgang Schäuble unterschrieben. Merkel begleitete Delegationen um Lothar de Maizière auf Auslandsreisen und war beim Abschluss des Zwei-plus-Vier-Vertrages am 12. September 1990 in Moskau anwesend. Beitritt zur CDU (1990). Das schlechte Abschneiden des Demokratischen Aufbruchs bei der Volkskammerwahl und die Entwicklung der nächsten Monate nötigten zur Anlehnung des DA an die CDU, die von Merkel mitgetragen wurde. Am 4. August 1990 stimmte auf einem Sonderparteitag des DA eine Mehrheit für einen Beitritt zur westdeutschen CDU, nach vorhergehender Fusion mit der Ost-CDU. Merkel war eine von drei Delegierten, die der DA zum "Vereinigungsparteitag" der CDU in Hamburg am 1. und 2. Oktober 1990 sandte. In einer Rede stellte sie sich dort als ehemalige „Pressesprecherin des Demokratischen Aufbruchs“ und als Mitarbeiterin de Maizières vor. Am Vorabend dieses 38. CDU-Bundesparteitages kam es zu einem ersten von Merkel initiierten persönlichen Gespräch mit Helmut Kohl. Merkels Beitritt zur CDU erfolgte im Zuge der Fusion des DA an die CDU passiv, indem ihre Mitgliedschaft im DA automatisch in ein CDU-Parteibuch umgewandelt wurde. Nach der Wiedervereinigung am 3. Oktober 1990 erhielt Merkel die Planstelle einer Ministerialrätin (A 16) im Bundespresse- und Informationsamt (BPA). Im Einigungsvertrag war die Abwicklung der Akademie der Wissenschaften, an der sie zwölf Jahre gearbeitet hatte, festgeschrieben worden. Ihr Forschungsinstitut und alle anderen wurden grundlegend umstrukturiert, neu eingegliedert oder teilweise aufgelöst. Merkel bewarb sich daher mit der gesicherten beruflichen Position im BPA im Rücken um ein Bundestagsmandat. Durch die Vermittlung von Günther Krause, der in Mecklenburg-Vorpommern CDU-Landesvorsitzender war, trat sie im Bundestagswahlkreis Stralsund – Rügen – Grimmen als Direktkandidatin an. Ihre Nominierung erfolgte in der Kaserne Prora auf Rügen. Gleichzeitig wurde sie auf Platz 6 der Landesliste als Listenkandidatin gesetzt. Bundesministerin für Frauen und Jugend (1991–1994). Bei der ersten gesamtdeutschen Bundestagswahl am 2. Dezember 1990 gewann Merkel ihren neuen Wahlkreis mit 48,5 Prozent der abgegebenen Erststimmen. Mit der konstituierenden Sitzung am 20. Dezember 1990 wurde sie Abgeordnete des Deutschen Bundestages. Der Wahlsieger Helmut Kohl, der sie im November 1990 nochmals zu einem Gespräch ins Kanzleramt nach Bonn eingeladen hatte, nominierte sie überraschend für ein Ministeramt in seinem Kabinett. Das alte Bundesministerium für Jugend, Familie, Frauen und Gesundheit wurde dreigeteilt – in das Bundesministerium für Gesundheit (Gerda Hasselfeldt), das Bundesministerium für Familie und Senioren (Hannelore Rönsch) und das Bundesministerium für Frauen und Jugend (Angela Merkel). Merkel erhielt ein kleines Restministerium mit wenig Kompetenzen. Sie wurde am 18. Januar 1991 als Ministerin vereidigt. Als parlamentarischen Staatssekretär wählte sie Peter Hintze; als beamteter Staatssekretär folgte später noch Willi Hausmann. Im Januar 1992 wurde Beate Baumann Merkels Büroleiterin und blieb es bis zum Ende des Jahres 2021. Merkel war aufgrund ihrer Vergangenheit als Bürgerin der DDR wenig vertraut mit den Gebräuchen in der Union. Ihr schneller Quereinstieg gründete sich ausschließlich auf die Gunst des Bundeskanzlers, was ihr von Journalisten den Spitznamen „Kohls Mädchen“ einbrachte, während ihre späteren Konkurrenten in Karrierenetzwerken wie dem Andenpakt zusammengeschlossen waren, gegen die sie zunächst keine eigene Hausmacht geltend machen konnte. Daher bemühte sie sich im November 1991 um den CDU-Landesvorsitz in Brandenburg, konnte sich jedoch nicht gegen Ulf Fink durchsetzen. Dies sollte die einzige Abstimmungsniederlage ihrer Karriere bleiben. Im Dezember 1991 wurde sie auf dem CDU-Bundesparteitag in Dresden als Nachfolgerin von Lothar de Maizière zur einzigen stellvertretenden Bundesvorsitzenden ihrer Partei gewählt; ab 1992 war sie eine von vier Stellvertretern Kohls. Von 1992 bis 1993 saß sie darüber hinaus dem Evangelischen Arbeitskreis (EAK) der Unionsparteien vor. Im Juni 1993 nahm sie die Chance wahr, ihre Macht in der Partei auszubauen, indem sie Günther Krause als CDU-Landesvorsitzende von Mecklenburg-Vorpommern nachfolgte. Nach dem politischen Rückzug von de Maizière und Krause besaß sie eine der wenigen unbelasteten Ostbiografien innerhalb der CDU. Bundesumweltministerin (1994–1998). Merkel erreichte bei der Bundestagswahl am 16. Oktober 1994 in ihrem Wahlkreis 48,6 Prozent der Erststimmen und wurde im Kabinett Kohl überraschend Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit. Ihr Amtsvorgänger war der auch außerhalb der Union anerkannte Klaus Töpfer. Dessen umweltpolitische Positionen und Forderungen stießen jedoch innerhalb des Wirtschaftsflügels der CDU und insbesondere beim Koalitionspartner FDP auf zunehmenden Widerstand. Die Vereidigung Merkels am 17. November 1994 und der Wechsel Töpfers an die Spitze des Bundesministeriums für Raumordnung, Bauwesen und Städtebau können parteipolitisch als Töpfers Entmachtung betrachtet werden. Merkel entließ drei Monate nach Amtsantritt Töpfers langjährigen beamteten Staatssekretär Clemens Stroetmann und ersetzte ihn durch Erhard Jauck. CDU-Generalsekretärin (1998–2000). Die Bundestagswahl am 27. September 1998 endete für die Union und ihren Kanzlerkandidaten Kohl mit einem Debakel. CDU und CSU erzielten mit 35,2 Prozent das schlechteste Ergebnis seit 1949 – erstmals wurde eine amtierende Bundesregierung abgewählt. Merkels Erststimmenanteil sank um 11 Prozentpunkte auf 37,3 Prozent. Wolfgang Schäuble, der als Kohls möglicher Nachfolger galt, hatte vor der Wahl des Kandidaten kritisiert, dass Kohl erneut antrat, sich damit aber gegen Kohl nicht durchsetzen können. Auf dem CDU-Bundesparteitag in Bonn am 7. November 1998 wurde Schäuble zum neuen Bundesvorsitzenden gewählt und auf seinen Vorschlag Merkel zur Generalsekretärin der CDU. Sie erhielt damit eine der wenigen Positionen mit Gestaltungsmacht, die der langjährigen Regierungspartei CDU in der Opposition geblieben waren. Kohl wurde Ehrenvorsitzender der CDU mit Sitz im Präsidium und Bundesvorstand. Die CDU erreichte in den folgenden Monaten bei Landtagswahlen einige gute Ergebnisse und im Juni 1999 bei der Europawahl zusammen mit der CSU überragende 48,7 Prozent (1994: 38,8 Prozent). Hatte sich schon in der Ära Kohl die Tendenz gezeigt, dass die deutschen Wähler die auf Bundesebene in der Opposition befindlichen Parteien bei anderen Wahlen stärkten, wurde jetzt die neue Oppositionspartei CDU gestützt. Im November 1999 wurde die CDU-Spendenaffäre öffentlich. Helmut Kohl räumte in einem ZDF-Interview am 16. Dezember 1999 ein, während seiner Zeit als Bundeskanzler unter Bruch des Parteispendengesetzes Millionenbeträge entgegengenommen zu haben. Er weigerte sich aber, den oder die Geldgeber zu nennen, da er ihnen sein Ehrenwort gegeben habe. Merkel veröffentlichte am 22. Dezember 1999 einen Gastbeitrag in der Frankfurter Allgemeinen Zeitung, in dem sie Kohls Haltung kritisierte und die Partei zur Abnabelung aufforderte: Diese offene Kritik an Kohl, die bis dahin von der Parteiführung ungehört war, war nicht mit dem Parteivorsitzenden Schäuble abgesprochen, der Merkel daraufhin „eigentlich entlassen“ wollte; unter Funktionären wurde sie als „Vatermörderin“ und „Nestbeschmutzerin“ bezeichnet, erhielt aber auch viel Zuspruch für ihren riskanten Schritt, unter anderem von Christian Wulff. Da Schäuble ihr in der Sache Recht gab und Merkel, als unbelastet geltend, einen Neuanfang glaubwürdig vertreten konnte, beließ er sie im Amt. CDU-Vorsitzende (2000–2018). Am 16. Februar 2000 erklärte Schäuble vor der CDU/CSU-Bundestagsfraktion seinen Rücktritt als Partei- und Fraktionsvorsitzender. In den darauffolgenden Wochen war die Partei führungslos, Angela Merkel befand sich als Generalsekretärin in einer Schlüsselposition. In dieser Zeit fanden neun sogenannte „Regionalkonferenzen“ statt. Sie waren ursprünglich angesetzt worden, um die CDU-Spendenaffäre mit der Parteibasis zu diskutieren und aufzuarbeiten. Auf diesen lokalen Parteiversammlungen formierte sich Unterstützung für Merkel als Schäuble-Nachfolgerin. Ihr später Quereinstieg kam ihr nun zugute: Sie galt in der Öffentlichkeit und bei der Basis als in der Parteispendenangelegenheit unbelastet. Frühzeitig sprach sich der niedersächsische Oppositionsführer Christian Wulff für Merkel aus. Volker Rühe, Friedrich Merz und Edmund Stoiber dagegen sollen ihrer Kandidatur kritisch gegenübergestanden haben. Am 10. April 2000 wurde Angela Merkel auf dem CDU-Bundesparteitag in Essen mit 897 von 935 gültigen Stimmen zur neuen CDU-Bundesvorsitzenden gewählt. Neuer CDU-Generalsekretär wurde, auf Merkels Vorschlag, Ruprecht Polenz. Den Vorsitz der CDU/CSU-Bundestagsfraktion übernahm Friedrich Merz. Das neue Führungstrio erlebte am 14. Juli eine erste politische Niederlage: Obwohl die rot-grüne Bundesregierung nicht über die notwendige Mehrheit im Bundesrat verfügte, war es ihr gelungen, in der Abstimmung über die geplante Steuerreform einige Bundesländer mit CDU-Regierungsbeteiligung auf ihre Seite zu ziehen. Bereits im November 2000 trennte sich Angela Merkel von Ruprecht Polenz. Als seinen Nachfolger wählte sie Laurenz Meyer, der wie Polenz Bundestagsabgeordneter aus Nordrhein-Westfalen war. Die Jahre 2000 und 2001 bescherten der CDU unter Merkel – auch als Folge der Spendenaffäre – keine großen Landtagswahlerfolge. Die rot-grüne Bundesregierung schien dagegen Tritt gefasst zu haben. Die Positionierung für die Bundestagswahl im September 2002 begann: Friedrich Merz hatte sich selbst bereits im Februar 2001 als Kandidat für das Amt des Bundeskanzlers ins Gespräch gebracht. Damit war die Diskussion um die Kandidatenfrage – in den Medien häufig als „K-Frage“ bezeichnet – eingeläutet. Angela Merkels Bereitschaft zur Kandidatur war bekannt. Sie verfügte in den Spitzen der Partei jedoch über wenig Rückhalt, da viele CDU-Ministerpräsidenten und Landesvorsitzende den bayerischen Ministerpräsidenten und CSU-Vorsitzenden Edmund Stoiber favorisierten. Im Dezember 2001 war auf dem Bundesparteitag in Dresden eine Entscheidung vermieden worden, diese sollte am 11. Januar 2002 auf einer Sitzung von CDU-Präsidium und Bundesvorstand in Magdeburg fallen. Merkel ging der unmittelbaren Konfrontation mit Stoiber jedoch aus dem Weg: Im Vorfeld hatte sie ihn zum „Wolfratshauser Frühstück“ zu Hause besucht, bei dem sie ihm ihren Verzicht zu seinen Gunsten mitteilte. Angela Merkels Rückzug diente dabei dem eigenen Machterhalt, eine deutliche Abstimmungsniederlage gegen Stoiber hätte als Misstrauensvotum gegen ihre Person aufgefasst werden und eine Diskussion um den Parteivorsitz aufkommen lassen können. Oppositionsführerin (2002–2005). 2002. Die Bundestagswahl am 22. September 2002 endete mit einer knappen Wiederwahl der rot-grünen Regierungskoalition unter Gerhard Schröder und Joschka Fischer. Angela Merkel hatte die erfolglose Stoiber-Kandidatur loyal mitgetragen. Zu Schröders Wahlsieg hatte auch dessen schnelle Reaktion auf das Jahrhunderthochwasser beigetragen, als noch wichtiger wird indes seine ablehnende Haltung zum Irakkrieg betrachtet. Dem „Nein“ der amtierenden Bundesregierung stand ein Bekenntnis Merkels zu George W. Bushs Konfrontationskurs – von ihr damals als „Drohkulisse“ bezeichnet – gegenüber. Sie und Stoiber hielten an dem durch ihre Parteiprogramme vorgegebenen unbedingten Bekenntnis zu den USA fest und warfen der Regierung vor, für Irritation bei den Amerikanern zu sorgen und das historische Bündnis mit den „Befreiern“ vom Nationalsozialismus zu gefährden. Unmittelbar nach der verlorenen Bundestagswahl beanspruchte Angela Merkel den CDU/CSU-Fraktionsvorsitz im Bundestag, das bisherige Amt von Friedrich Merz; dies hatte sie unabhängig vom Wahlausgang geplant. Einer Regierung Stoibers wollte sie als Ministerin nicht angehören. In der nunmehr bestehenden Konstellation wollte sie der Regierung Schröder im Parlament als Oppositionsführerin gegenübertreten. Merz war zunächst nicht bereit, seine Position aufzugeben, und äußerte seinerseits Kritik an Merkel. Auf der entscheidenden CDU-Präsidiumssitzung gab das Votum Stoibers zugunsten Merkel den Ausschlag. Das Verhältnis zwischen Merkel und Merz galt bereits vorher als konfliktbelastete Konkurrenzkonstellation. Mit dem Erhalt des Vorsitzes der CDU/CSU-Bundestagsfraktion wurde Eva Christiansen Beraterin von Merkel. Sie gehörte trotz Unterbrechungen als Beraterin zu Merkels engsten Weggefährten. Bei der ersten Wiederwahl als Parteivorsitzende auf dem Bundesparteitag in Hannover am 11. November 2002 wurde Merkel mit 93,6 Prozent der Stimmen wiedergewählt. 2003. Das Jahr 2003 brachte der CDU und ihrer Vorsitzenden Erfolge bei den Landtagswahlen in Hessen und Niedersachsen. Die stärker werdende Präsenz der CDU im Bundesrat ermöglichte Angela Merkel schließlich ein Mitregieren aus der Opposition heraus. Die CDU trug die Agenda 2010 der rot-grünen Bundesregierung mit und stimmte, nachdem sie im Vermittlungsausschuss noch weitergehende Forderungen durchgesetzt hatte, den Gesetzesänderungen in Bundestag und Bundesrat zu. So war sie vor allem bei der Formulierung der zum 1. Januar 2004 wirksam gewordenen Gesundheitsreform und des Vierten Gesetzes für moderne Dienstleistungen am Arbeitsmarkt (Hartz IV) eingebunden. In der Hohmann-Affäre reagierte Merkel Anfang November 2003 auf die Äußerungen von Martin Hohmann zum „jüdischen Tätervolk“ zunächst mit der Aufforderung, dass Hohmann seine Position als Berichterstatter im Innenausschuss des Deutschen Bundestages aufgeben müsse. Merkel wurde dafür kritisiert, keinen Fraktionsausschluss des Abgeordneten voranzutreiben, während das Erreichen der notwendigen Zwei-Drittel-Mehrheit für Hohmanns Ausschluss in der eigenen Fraktion wiederum als unsicher galt. Eine Woche später leitete Merkel das Ausschlussverfahren gegen Hohmann ein. 2004. Am 6. Februar 2004 trat der politisch angeschlagene Bundeskanzler Gerhard Schröder als SPD-Vorsitzender zurück, sein Nachfolger wurde Franz Müntefering. Im selben Monat gelang der CDU ein deutlicher Sieg bei der Wahl zur Hamburgischen Bürgerschaft. Angela Merkel bereiste im Februar drei Tage lang die Türkei. Dort setzte sie sich für das Modell der „privilegierten Partnerschaft“ ein, als Alternative zu der von der Bundesregierung angestrebten Vollmitgliedschaft in der Europäischen Union. In einer Rede vom 20. November 2004 äußerte sich Angela Merkel mit den Worten „Die multikulturelle Gesellschaft ist gescheitert“ zur innenpolitischen Lage Deutschlands im Hinblick auf die Integrationsproblematik der muslimischen (vorwiegend türkischen) Bevölkerung. Dabei brachte sie erneut den Begriff der deutschen Leitkultur in die Diskussion und kritisierte vor allem den aus ihrer Sicht mangelnden Integrationswillen der Muslime. Das Ende der Amtszeit von Bundespräsident Johannes Rau bedeutete die Neubesetzung des formal höchsten politischen Amtes in der Bundesrepublik Deutschland. Wolfgang Schäuble hatte sich früh als Kandidat ins Gespräch gebracht und konnte auf Unterstützung innerhalb von CDU und CSU hoffen. Innerparteiliche Gegenspieler Angela Merkels wie Roland Koch und Friedrich Merz favorisierten Schäuble, ebenso wie Edmund Stoiber (CSU). Horst Köhler galt als Merkels Kandidat, und sein knapper Wahlerfolg in der Bundesversammlung am 23. Mai 2004 wurde allgemein als ein weiterer Ausbau ihrer Machtposition gewertet. Vorgezogene Bundestagswahl 2005. Die Landtagswahl in Nordrhein-Westfalen am 22. Mai 2005 brachte der SPD eine schwere Wahlniederlage, die eine Serie von Landtagswahlniederlagen der Jahre 2003 und 2004 fortsetzte. Als politisch-medialen Befreiungsschlag erklärten eine halbe Stunde nach Schließung der Wahllokale zuerst SPD-Parteichef Franz Müntefering und kurze Zeit darauf Bundeskanzler Gerhard Schröder, dass sie eine vorgezogene Neuwahl des Bundestages für den Herbst 2005 anstrebten. Am 30. Mai bestimmten die Parteipräsidien von CDU und CSU in einer gemeinsamen Sitzung Angela Merkel zur Kanzlerkandidatin der Unionsparteien. Ihre Rolle war unumstritten, die innerparteilichen Gegenspieler marginalisiert. Merkels Schattenkabinett wurde angesichts der angestrebten Koalition mit der FDP als "Kompetenzteam" vorgestellt. Insbesondere Paul Kirchhof und sein „Kirchhof-Modell“ (zur Besteuerung von Einkommen) sowie die CDU-Vorstellungen zur Krankenversicherung („Kopfpauschale“) galten später als „schwer vermittelbar“ und mitverantwortlich für ein unbefriedigendes Wahlergebnis. Bei der Bundestagswahl am 18. September 2005 erreichten CDU/CSU mit der Spitzenkandidatin Angela Merkel 35,2 Prozent (2002: 38,5) vor der SPD mit 34,2 Prozent. Ihren eigenen Wahlkreis 15 (Stralsund, Landkreis Nordvorpommern und Landkreis Rügen) gewann Angela Merkel mit 41,3 Prozent der Erststimmen. Damit blieb die Union deutlich hinter ihren Prognosen zurück und konnte ihr Wahlziel, eine Regierungsmehrheit für CDU/CSU und FDP, nicht erreichen. Im Gegenteil drohte sie ihren komfortablen Vorsprung analog zu 2002 an den erfahrenen Wahlkämpfer Schröder zu verlieren; die Hoffnung, dass Merkel das häufig gelobte Ergebnis des in Teilen Deutschlands 2002 eher irritierend empfundenen Bayern Stoiber noch einmal verbessern könnte, hatte sich nicht erfüllt. Historisch handelte es sich bei dem CDU-Ergebnis um das schlechteste seit 1949, bei dem gesamten Unions-Ergebnis um das zweitschlechteste. Merkel konnte sich aber dennoch auf einen knappen Vorsprung von vier Sitzen und damit einen der engsten Wahlausgänge der bundesdeutschen Geschichte stützen, da auch die Sozialdemokraten deutliche Stimmeneinbußen hinnehmen mussten und es anders als in den Umfragen ersichtlich zu einem Kopf-an-Kopf-Rennen gekommen war, in dessen Zuge die bisherige Regierungskoalition aus SPD und Grünen ihre Parlamentsmehrheit verloren hatte. Bundeskanzlerin (2005–2021). Große Koalition 2005 bis 2009. Koalitionsverhandlungen. In einer Fernsehdiskussion am Wahlabend, der sogenannten „Elefantenrunde“, beanspruchte Gerhard Schröder trotz der eingebüßten Mehrheit von Rot-Grün überraschend die Regierungsbildung für sich – in einer Form, die heftige Diskussionen auslöste und die er selbst später als „suboptimal“ bezeichnete. Die nächsten Tage waren im politischen Berlin von der Frage bestimmt, ob der SPD, als im Bundestag größter Einzelfraktion einer Partei, oder der CDU/CSU, als größter Fraktionsgemeinschaft, das Amt des Bundeskanzlers – in einer wie auch immer gearteten Koalitionsregierung – gebühre. Am 20. September wurde Angela Merkel von der erstmals nach der Wahl zusammengetretenen Unions-Bundestagsfraktion in geheimer Wahl mit 219 von 222 Stimmen zur Fraktionsvorsitzenden wiedergewählt. Nach dem enttäuschenden Bundestagswahlergebnis war dies ein wichtiges Vertrauensvotum und Rückhalt für bevorstehende Koalitionsgespräche. Die Öffentlichkeit erlebte in den 14 Tagen bis zu einer notwendigen Nachwahl im Wahlkreis 160 (Dresden I) Gespräche Angela Merkels und Edmund Stoibers mit Bündnis 90/Die Grünen zwecks Sondierung einer möglichen schwarz-gelb-grünen „Jamaika-Koalition“ zusammen mit der FDP. Erst nach der Entscheidung in Dresden begannen die Gespräche mit der SPD zur Bildung einer Großen Koalition. Am 10. Oktober veröffentlichten SPD, CDU und CSU eine gemeinsame Vereinbarung, die die geplante Wahl von Angela Merkel zur Bundeskanzlerin durch den 16. Deutschen Bundestag beinhaltete. Am 12. November stellte sie nach fünfwöchigen Verhandlungen der CDU/CSU mit der SPD den Koalitionsvertrag vor. Am 22. November 2005 wurde Angela Merkel mit 397 Ja-Stimmen der 614 Mitglieder des Bundestages (Nein-Stimmen: 202; Enthaltungen: 12; ungültig: 1; 2 Abgeordnete der SPD fehlten entschuldigt) zur Bundeskanzlerin gewählt. Damit hatten von den 446 anwesenden Abgeordneten der Koalition 49 Merkel ihre Stimme verweigert. Nach sieben männlichen Amtsvorgängern war Angela Merkel die erste Bundeskanzlerin und „achter Bundeskanzler der Bundesrepublik Deutschland“. Gleichzeitig war sie mit 51 Jahren die jüngste Amtsinhaberin, die erste Person aus Ostdeutschland und die erste Naturwissenschaftlerin, die dieses Amt bekleidet. Regierungsbildung. Noch vor Beginn der Legislaturperiode verzichtete Merkels langjähriger Konkurrent Edmund Stoiber überraschend auf das für ihn vorgesehene Amt des Wirtschaftsministers, nach eigenem Bekunden wegen Franz Münteferings Rückzug vom Parteivorsitz der SPD. In die Vertrauens- und Schlüsselstellung als Leiter des Bundeskanzleramtes berief Angela Merkel Thomas de Maizière, Cousin des letzten DDR-Ministerpräsidenten Lothar de Maizière. Erste Hälfte der Amtsperiode. Zu Beginn der Amtsperiode traten Merkel und ihr Kabinett weder außen- noch innenpolitisch in besonderem Maße in Erscheinung. Lediglich Merkels Minister sorgten für einige Schlagzeilen, die sich aber mehr auf Kompetenzfragen oder die langfristige Ausrichtung der Regierungsarbeit als auf konkrete Sachfragen bezogen. Ende März 2006 legte Merkel ein Acht-Punkte-Programm für die zweite „Etappe“ der Legislaturperiode vor. Darin wurden geplante Anstrengungen in den Bereichen Föderalismusreform, Bürokratieabbau, Forschung und Innovation, Energiepolitik, Haushalts- und Finanzpolitik, Familienpolitik, Arbeitsmarktpolitik und insbesondere Gesundheitsreform skizziert. Ungeachtet des Fehlens nötiger einschneidender Reformen stieß Merkels eher sachlicher Regierungsstil anfangs in der Bevölkerung, unter den Führungskräften der Wirtschaft und im Ausland überwiegend auf Zustimmung. Am 27. November 2006 wurde sie auf dem Bundesparteitag der CDU mit 93 Prozent der Stimmen erneut zur Bundesvorsitzenden der Partei gewählt. Merkel sorgte für einen kleineren außenpolitischen Eklat, als sie am 23. September 2007 den Dalai Lama Tendzin Gyatsho im Berliner Bundeskanzleramt empfing. Das Treffen mit dem geistlichen Oberhaupt der Tibeter war von ihr als „privater Gedankenaustausch“ mit einem religiösen Führer bezeichnet worden und sollte nicht als politische Stellungnahme zu den Autonomiebestrebungen Tibets verstanden werden. Trotzdem zeigte sich die Volksrepublik China verstimmt und sagte mit dem Hinweis auf „technische Probleme“ mehrere offizielle Termine auf ministerieller Ebene ab. Merkels außenpolitischer Berater Christoph Heusgen konnte die Wogen wieder glätten, indem er dem chinesischen Botschafter Ma Canrong versicherte, dass Deutschland seine China-Politik nicht ändern werde und die territoriale Integrität Chinas außer Frage stehe. EU-Ratspräsidentschaft 2007. Vertreten durch Angela Merkel und den Bundesaußenminister Frank-Walter Steinmeier hatte die Bundesrepublik Deutschland vom 1. Januar bis 30. Juni 2007 den Vorsitz im Rat der Europäischen Union inne. Der Vorsitz wurde turnusmäßig im Rahmen der Dreier-Präsidentschaft mit Portugal und Slowenien wahrgenommen. Als wesentliche Bestandteile der politischen Agenda nannte Merkel unter anderem den Europäischen Verfassungsvertrag, die „Klima- und Energiepolitik“, die „Vertiefung der transatlantischen Wirtschaftspartnerschaft“ und eine „Nachbarschaftspolitik für die Schwarzmeerregion und Zentralasien“. Auch setzte Merkel sich dafür ein, dass die EU den Bezug auf Gott und den christlichen Glauben in ihrer Verfassung festschreibt. Letztlich konnte sie sich mit dieser Forderung, die unter anderem auch aus Polen, Irland und Italien kam, aber nicht durchsetzen. Der Vertrag von Lissabon verweist lediglich auf das „kulturelle, religiöse und humanistische Erbe Europas“. Finanzkrise und Reaktionen. Im Herbst 2008 wurde – unter anderem durch die Insolvenz zahlreicher großer Finanzinstitute – das historische Ausmaß der 2007 einsetzenden Finanzkrise deutlich. Die IKB, einige deutsche Landesbanken und auch private Institute mussten Abschreibungen in erheblicher Höhe vornehmen. Der Deutsche Bundestag reagierte im August zunächst mit dem Risikobegrenzungsgesetz, die BaFin untersagte bestimmte Leerverkäufe. Am 8. Oktober 2008 gab die Regierung Merkel eine Garantieerklärung für die Spareinlagen in Deutschland ab. Diese Garantie galt für jedes Institut und für jeden Sparer eines Institutes, das Teil der deutschen Einlagensicherung ist. Zuvor hatte Merkel noch die irische Regierung wegen einer eigenen Staatsgarantie scharf kritisiert, die sich allerdings allein auf einheimische Banken bezog. Merkels Vorgehen wurde von anderen europäischen Finanzministern als nationaler Alleingang kritisiert, von der EU-Kommission jedoch als nicht wettbewerbsverzerrend und damit unproblematisch eingestuft. Die am 5. November 2008 und am 12. Januar 2009 beschlossenen Konjunkturpakete trug Angela Merkel als Kanzlerin mit. Sie sah dies als Chance, gestärkt aus der Finanz- und Wirtschaftskrise hervorzugehen. Auch setzte sie zusammen mit der SPD zum 14. Januar 2009 die Einführung der Umweltprämie, besser bekannt als "Abwrackprämie", trotz starker Kritik aus der Opposition durch. Damit wurde Käufern eines Neuwagens bei gleichzeitiger Verschrottung ihres mindestens 9 Jahre alten PKWs eine vom Staat gezahlte Prämie in Höhe von 2500 Euro gewährt. Dies sollte die durch die Weltwirtschaftskrise unter Druck geratene Automobilindustrie stützen. Dem angeschlagenen Autobauer Opel sagte Merkel Ende März 2009 ihre Unterstützung bei der Suche nach einem Investor zu und stellte staatliche Bürgschaften in Aussicht, lehnte es aber ab, Teile von Opel zu verstaatlichen. Beim geplanten Verkauf von Opel im Sommer 2009 plädierte Merkel für den Autozulieferer Magna als zukünftigen Eigentümer. Im April 2008 hatte Angela Merkel in ihrer Funktion als Kanzlerin den Bankier Josef Ackermann, damals Vorstandsvorsitzender der Deutschen Bank, und 20 bis 30 weitere Personen zu seinem 60. Geburtstagsessen eingeladen und musste daraufhin – nach einem Urteil des Oberverwaltungsgerichts Berlin-Brandenburg (OVG) aus dem Jahre 2012 – die Liste der geladenen Gäste veröffentlichen lassen. Es wurde unter anderem kritisiert, Merkel habe Politik und Lobby-Interessen miteinander vermischt. Weitere Politikfelder. Nach der Wahl Barack Obamas zum Präsidenten der Vereinigten Staaten von Amerika gratulierte Merkel ihm zu seinem „historischen Sieg“. Bei ihren ersten Treffen betonten beide ihre gemeinsame Linie zum Beispiel in den Fragen der Erderwärmung oder der Atompolitik des Iran. Eine der wenigen Unstimmigkeiten betraf die Aufnahme von Häftlingen aus dem amerikanischen Gefangenenlager der Guantanamo Bay Naval Base. Obama drängte auf eine schnelle Entscheidung Merkels. Bei den Beratungen zum Beitritt weiterer Länder, wie der Balkanstaaten, zur EU stieß Merkels konservativer Kurs bei der Außenministerkonferenz in Frauenberg im März 2009 auf Kritik. Der Regierungspartner SPD warf ihr vor, dass ihr Programm im Widerspruch zum Europawahlprogramm der CDU stehe. Nach dem Amoklauf in Winnenden vom 11. März 2009 sprach sich die Bundeskanzlerin für stärkere Kontrollen von Waffenbesitzern aus. Außerdem müsse versucht werden, Waffen für Kinder und Jugendliche unzugänglich aufzubewahren. Wahlkampf 2009. Während des im Vorfeld zur Bundestagswahl im September 2009 geführten Wahlkampfes wurde Merkel in der Öffentlichkeit und auch von Teilen der CDU/CSU oft vorgeworfen, zu wenig Parteiprofil zu zeigen. Man kritisierte zum Beispiel, dass sie ihr Konzept zur Bekämpfung der Weltwirtschaftskrise nicht klar formulierte. Merkel selbst dementierte diese Vorwürfe. Die Oppositionsparteien übten außerdem Kritik am Verhalten Angela Merkels in der Frage eines Fernsehduells der Spitzenkandidaten aller Parteien. Nach dem Spitzenduell der Kanzlerkandidaten von SPD und CDU sagten beide, Merkel und Steinmeier, ihren Auftritt in einer solchen Runde ab. Im Wahlkampf forderte Merkel eine Senkung des Eingangssteuersatzes bei der Einkommensteuer in zwei Schritten und den vollen Erhalt des Ehegattensplittings. Die Bundeskanzlerin lehnte weiter einen flächendeckenden Mindestlohn ab und trat dafür ein, die Laufzeiten der Kernkraftwerke in Deutschland zu verlängern. Schwarz-gelbe Koalition 2009 bis 2013. Bundestagswahl 2009 und Regierungsbildung. Am 27. September 2009 fand die Wahl zum 17. Deutschen Bundestag statt. Die Unionsparteien und die FDP erreichten dabei zusammen die notwendige Mehrheit für die von beiden Seiten angestrebte Bildung einer schwarz-gelben Koalition. Allerdings verloren beide Unionsparteien Stimmen und mussten ihr jeweils schlechtestes Ergebnis nach der ersten Bundestagswahl 1949 hinnehmen. Merkel selbst siegte im Wahlkreis 15 (Stralsund – Nordvorpommern – Rügen) mit 49,3 Prozent der Erststimmen und erreichte damit einen Zuwachs von 8 Prozentpunkten gegenüber der vorangegangenen Bundestagswahl.Nachdem die Koalitionsparteien einen Koalitionsvertrag unterzeichnet hatten, wurde Angela Merkel am 28. Oktober 2009 mit 323 von 612 abgegebenen Stimmen erneut zur Bundeskanzlerin gewählt; dies waren neun Stimmen weniger, als die Koalition aus CDU/CSU und FDP innehatte. Am 10. November 2009 gab Merkel ihre Regierungserklärung für die neue Legislaturperiode ab, in der sie die Überwindung der Folgen der Wirtschaftskrise in den Mittelpunkt stellte. Bewältigung der Wirtschaftskrise. Die Koalition konnte zunächst nicht recht Fuß fassen, so dass der öffentliche Eindruck von der Regierungsarbeit zunehmend litt. Beispielsweise beschränkte sich die Koalition, die angetreten war, das Steuersystem zu vereinfachen, mit dem „Wachstumsbeschleunigungsgesetz“ zunächst auf leichte steuerliche Entlastungen in verschiedenen Bereichen und das Einführen einer „Hotelsteuer“ (die Mehrwertsteuer für Hotelübernachtungen wurde von 19 auf 7 Prozent gesenkt). Gerade im ersten Jahr fand die Koalition nicht zu einem harmonischen Handeln zusammen, was in wechselseitigen Beschimpfungen über die Presse gipfelte. Erst gegen Ende des Jahres 2010 wurde die Zusammenarbeit in der Regierung als gut rezipiert. Die Folgen der Wirtschafts- und Bankenkrise sowie die zunehmenden Probleme in der Eurozone nahmen einen breiten Raum im Handeln der Koalition ein. Im Mai 2010 beschlossen die Regierungs-Chefs der 17 Euro-Länder auf einem EU-Ratstreffen in großer Hast den ersten Euro-Rettungsschirm: Griechenland (ein Land mit etwa 10 Millionen Einwohnern) erhielt einen unbesicherten Kredit von 80 Milliarden Euro, um eine kurz bevorstehende Staatspleite abzuwenden. Der Bundestag segnete den deutschen Anteil im Währungsunion-Finanzstabilitätsgesetz ab. Mehrere massive Aufstockungen der deutschen Haftung für Schulden anderer Euro-Länder – ein Verstoß gegen die No-Bailout-Klausel – folgten (siehe Eurokrise, griechische Finanzkrise). Derweil sank die Arbeitslosenzahl im Herbst 2010 auf unter 3 Millionen. Im Zusammenhang mit der Eurokrise beschloss der Bundestag am 13. Juni 2013 ein Gesetz zur Etablierung eines einheitlichen Bankenaufsichtsmechanismus, welcher auch eine Rekapitalisierung von finanziell in Schwierigkeiten geratenen Banken mit Geldern aus dem Europäischen Stabilitätsmechanismus (ESM) erlaubt, welcher bis dahin nur Hilfszahlungen an Staaten erlaubte. Bundeswehrreform und Plagiatsaffäre zu Guttenberg. Verteidigungsminister Karl-Theodor zu Guttenberg (CSU) stieß im Frühjahr 2010 eine Debatte zu einer Bundeswehrreform an, die eine maximale Truppenstärke von 185.000 Soldaten vorsah. Trotz großer Bedenken gaben CDU und CSU auf Parteitagen im Herbst 2010 eine breite Zustimmung. Der Deutsche Bundestag beschloss am 24. März 2011 mit den Stimmen der Union, FDP, SPD und der Grünen die Aussetzung der seit 55 Jahren bestehenden Wehrpflicht, so dass die Bundeswehr ab dem 1. Juli 2011 eine Berufsarmee wurde (auch „Freiwilligenarmee“ genannt). Im Zuge einer Plagiatsaffäre um seine Doktorarbeit erklärte zu Guttenberg, bis dahin beliebtester Minister ihres Kabinetts, unter öffentlichem und politischem Druck am 1. März 2011 seinen Rücktritt von sämtlichen bundespolitischen Ämtern. Merkels Äußerung, sie habe Guttenberg „nicht als wissenschaftlichen Assistenten“ bestellt und seine Arbeit als Minister sei „hervorragend“, verstärkte den Unmut an Universitäten und bei Akademikern über den Umgang mit der Affäre, die diese Äußerung als Geringschätzung oder Relativierung von wissenschaftlichen Standards aufnahmen. Energiepolitische Wende. Am 28. Oktober 2010 verlängerte die Bundesregierung die Laufzeiten aller 17 damals aktiven deutschen Atomkraftwerke („Ausstieg aus dem Ausstieg“) und annullierte damit den sogenannten Atomkonsens (2000/2002) der rot-grünen Regierung Schröder. Die sieben vor 1980 in Betrieb gegangenen deutschen Atomkraftwerke erhielten Strommengen für zusätzliche acht Betriebsjahre, bei den übrigen zehn sollte sich die Laufzeit um 14 Jahre verlängern. Damit setzte die Union einen Punkt ihres Wahlprogrammes um. Wenige Tage nach dem Beginn der Nuklearkatastrophe von Fukushima in Japan vollzog Merkel im März 2011 jedoch eine völlige Abkehr von ihrer bisherigen Atom- bzw. Energiepolitik: Zunächst verkündete die Bundesregierung ein dreimonatiges Atom-Moratorium für die sieben ältesten deutschen Atomkraftwerke sowie für das Kernkraftwerk Krümmel; kurz darauf setzte sie zwei Expertenkommissionen ein, um ihren beschleunigten Atomausstieg zu rechtfertigen bzw. legitimieren. Diese Kehrtwende brachte Merkel viel innerparteiliche Kritik ein, vor allem aus dem konservativen Flügel der Union. Die Opposition sah in Merkels schnell eingesetztem Atom-Moratorium ein wahltaktisches Manöver, um die CDU für die nur wenig später stattgefundenen Landtagswahlen in Baden-Württemberg, Rheinland-Pfalz, Sachsen-Anhalt sowie den Kommunalwahlen in Hessen zu unterstützen. Am 6. Juni 2011 beschloss das Kabinett Merkel II das Aus für acht Kernkraftwerke und einen stufenweisen Atomausstieg bis 2022. Das einseitige Atom-Moratorium und die Rücknahme der Laufzeitverlängerung führte zu jahrelangen Rechtsstreitigkeiten der vier Versorgungsunternehmen (EnBW, E.ON/PreussenElektra, RWE und Vattenfall (Vattenfall gegen Bundesrepublik Deutschland)) mit der Bundesregierung, die schließlich 2021 mit einer Ausgleichszahlung in Höhe von etwa 2,43 Milliarden Euro für nicht konzernintern verstrombare Elektrizitätsmengen und entwertete Investitionen beendet wurden; der geordnete und von Bund und Versorgungsunternehmen beidseitig beschlossene Atomausstieg von 2000/2002 wäre dagegen ohne finanzielle Entschädigung gewesen, siehe Atomkonsens. Umweltschutzorganisationen und die oppositionellen Grünen, die zu dieser Zeit stark in der Wählergunst zulegten, kritisierten den verkürzten Atomausstieg als nicht ausreichend, dennoch nahm Angela Merkel mit dem Atomausstieg die Bundesregierung, wie die sie tragenden Parteien, aus der direkten Kritik und konnte auf eine breite Zustimmung aus der Bevölkerung bauen; durch das Besetzen des Kernthemas der Grünen konnte Merkel zudem deren Höhenflug in den Umfragen beenden. Im Mai 2012 erregte Merkel großes Aufsehen, als sie den Minister für Umwelt, Naturschutz und Reaktorsicherheit Norbert Röttgen überraschend „entließ“. Ihre Entscheidung verkündete sie drei Tage nach Röttgens Landtagswahl-Niederlage als Spitzenkandidat der CDU-NRW gegen die amtierende Ministerpräsidentin Hannelore Kraft. Noch vor der Wahl hatte Merkel wiederholt Norbert Röttgen gelobt und ihr Verhältnis galt als sehr gut; Röttgen war der erste Minister, den Merkel „entließ“. Nachfolger wurde der Parlamentarische Geschäftsführer der CDU/CSU-Bundestagsfraktion, und enger Vertrauter Merkels, Peter Altmaier. Verhältnis zu den Vereinigten Staaten. Im Mai 2011 gratulierte Merkel dem US-Präsidenten Obama öffentlich zur Tötung Osama bin Ladens durch eine amerikanische Spezialeinheit und bekundete ihre Freude über den Erfolg der „Operation Neptune Spear“. Innerparteilich, bei Kirchenvertretern und in der Presse geriet sie dafür unter Kritik. Nachdem im Zuge der Überwachungs- und Spionageaffäre 2013 Hinweise darüber bekannt geworden waren, dass das CDU-Mobiltelefon der Bundeskanzlerin über Jahre hinweg durch den US-Geheimdienst NSA abgehört worden sein könnte, forderte Merkel am 23. Oktober 2013 in einem persönlichen Telefonat mit US-Präsident Obama eine umfassende Aufklärung der Vorwürfe und eine Beantwortung einer bereits vor Monaten gestellten Anfrage der deutschen Bundesregierung. Eine Sprecherin des Nationalen Sicherheitsrates der Vereinigten Staaten erklärte hierzu, dass der Präsident der Kanzlerin versichert habe, „dass die Vereinigten Staaten ihre Kommunikation nicht überwachen und auch nicht überwachen werden.“ Die Sprecherin beantwortete dabei trotz gezielter Nachfrage aber nicht, ob dies auch für die Vergangenheit gilt. Laut dem Journalisten Sidney Blumenthal, der als Berater von US-Präsident Bill Clinton und der US-Außenministerin Hillary Clinton tätig war, überwachten die Vereinigten Staaten wiederholt Gespräche von Angela Merkel mit Finanzminister Wolfgang Schäuble und von Merkel und Schäuble mit Gerhard Schindler und Generalmajor Norbert Stier, Präsident und Vizepräsident des Bundesnachrichtendienstes. So wurde am 6. Mai 2012 eine von Schäuble angesetzte „sichere“ Telefonkonferenz mit Merkel zur Wahl François Hollandes zum französischen Präsidenten und zum Ergebnis der Landtagswahl in Schleswig-Holstein abgehört. In dem Gespräch schlug Schäuble unter anderem vor, vorgezogene Bundestagswahlen in Erwägung zu ziehen, um einem möglichen Linkstrend und somit einem drohenden Verlust der Regierungsmehrheit vorzubeugen. Schäuble berichtete zu Informationen des Bundesamtes für Verfassungsschutz über das Erstarken rechtsextremer Parteien in Frankreich und Griechenland sowie rechtsextremer paramilitärischer Gruppen in Schweden, Deutschland, Belgien und den Niederlanden, während sich Merkel besorgt über Beziehungen der CSU zu Rechtsextremisten in Deutschland und Österreich äußerte. Bei Gesprächen im Juli, August und September 2012 ging es um die Eurokrise und um anstehende Wahlen in den Niederlanden und Italien. Kurz vor Beginn des Brüsseler EU-Gipfels vom 24. bis 25. Oktober 2013, bei dem die verdichteten Hinweise auf eine Spionage der Vereinigten Staaten gegen befreundete europäische Länder ausführlich erörtert wurden, obwohl dieses Thema auf der Tagesordnung nicht angekündigt war, sagte Merkel: „Das Ausspähen unter Freunden, das geht gar nicht. Wir sind Verbündete, aber so ein Bündnis kann nur auf Vertrauen aufgebaut sein.“ Am selben Tag berichtete die "New York Times", dass ein Auftrag zum Lauschangriff auf das Telefon Merkels in die Regierungszeit von US-Präsident George W. Bush zurückreiche und dass die US-Sicherheitsberaterin Susan E. Rice beteuert habe, der gegenwärtige US-Präsident Obama habe von dieser Sache nichts gewusst. "Der Spiegel" berichtete am 26. Oktober 2013, dass Merkels Mobiltelefon offenbar seit mehr als zehn Jahren überwacht werde und dass in der Botschaft der Vereinigten Staaten in Berlin Mitarbeiter der NSA und der CIA mittels moderner Hochleistungsantennen die Kommunikation im Regierungsviertel illegal abhören würden. Dabei seien nicht nur Verbindungsdaten der Gesprächspartner, sondern auch Inhalte von einzelnen Gesprächen aufgezeichnet worden. Am 27. Oktober 2013 wurde unter Berufung auf einen hohen NSA-Mitarbeiter berichtet, dass NSA-Chef Keith B. Alexander den US-Präsidenten 2010 persönlich über die Abhöraktion gegen Merkel informiert habe und dass nicht bloß ihr CDU-Mobiltelefon belauscht wurde, sondern auch ein angeblich abhörsicheres Handy der Bundeskanzlerin. Obama habe die Maßnahmen seinerzeit nicht nur weiterlaufen lassen, sondern auch darauf gedrängt, das neue Kanzler-Handy zu knacken. Am 30. Oktober 2013 berichtete die "New York Times" unter Berufung auf einen früheren Geheimdienstmitarbeiter, dass die NSA in Deutschland jede erreichbare Telefonnummer „aufsauge“; auch ranghohe Beamte und die Chefs der Oppositionsparteien seien Spionageziele. Für die Berichte der NSA hätten sich das Außenministerium, das Finanzministerium, andere Geheimdienste der Vereinigten Staaten sowie der Nationale Sicherheitsrat bei Präsident Obama interessiert. Obamas Sicherheitsberater hätten nach den ihnen regelmäßig vorgelegten Berichten kaum übersehen können, dass internationale Politiker wie Merkel ausgespäht würden. Der Start der Abhöraktion der Vereinigten Staaten gegen Deutschland sei 2002 erfolgt und habe sich vor allem gegen Bundeskanzler Gerhard Schröder gerichtet, weil dessen Ablehnung des Irakkrieges und dessen „Nähe“ zum russischen Präsidenten Putin bei den Vereinigten Staaten die Frage aufgeworfen habe, ob ihm noch getraut werden könne. Dass NSA-Chef Alexander mit Obama über eine Merkel betreffende Operation je gesprochen habe, wurde von der NSA allerdings umgehend dementiert. Gestützt auf US-Regierungskreise brachte das "Wall Street Journal" am 27. Oktober 2013 die Version, dass das NSA-Abhörprogramm gegen Merkel und die Spitzenpolitiker anderer Nationen gestoppt worden sei, als eine Überprüfung durch die US-Regierung dem US-Präsidenten im Sommer 2013 die Existenz dieser Geheimdienstoperationen offenbart habe. Mit dem Blick auf die Ausspähungen, die die Vereinigten Staaten offenbar auch gegen andere Nationen sowie gegen die Vereinten Nationen, die Europäische Union (EU), den Internationalen Währungsfonds und die Weltbank gerichtet hatten, ließen Dilma Rousseff, die Präsidentin Brasiliens, und Bundeskanzlerin Merkel eine Resolution der Vereinten Nationen vorbereiten, die den Internationalen Pakt über bürgerliche und politische Rechte ergänzen soll und alle Staaten auffordert, Gesetzgebung und Praxis bei Überwachungsaktionen im Ausland auf den Prüfstand zu stellen. Der am 1. November 2013 beim UN-Menschenrechtsausschuss eingereichte, die USA konkret nicht nennende Textentwurf einer Resolution wurde nach mehrwöchiger Beratung auf Drängen der USA und anderer Staaten abgeschwächt und von der Vollversammlung der Vereinten Nationen am 26. November 2013 einstimmig beschlossen. Große Koalition (2013–2021). Bundestagswahl 2013 und Regierungsbildung. Am 22. September 2013 fand die Wahl zum 18. Deutschen Bundestag statt. Während die Unionsparteien mit 41,5 Prozent das beste Zweitstimmenergebnis seit 1990 erhielten, schaffte der bisherige Koalitionspartner, die FDP, den Wiedereinzug in den Bundestag mit 4,8 Prozent erstmals seit 1949 nicht. Merkel selbst siegte im Wahlkreis 15 (Stralsund – Nordvorpommern – Rügen) mit 56,2 Prozent der Erststimmen und erreichte damit einen Zuwachs von 6,9 Prozentpunkten gegenüber der vorangegangenen Bundestagswahl. Nachdem die Koalitionsparteien einen Koalitionsvertrag unterzeichnet hatten, wurde Angela Merkel am 17. Dezember mit 462 von insgesamt 621 abgegebenen Stimmen erneut zur Bundeskanzlerin gewählt; dies sind 42 Stimmen weniger, als die Koalition aus CDU/CSU und SPD innehatte. Angela Merkel ist die erste Person an der Spitze der deutschen Regierung, die in der Bundesrepublik (1954) geboren wurde. Seit dem 26. März 2014, als der estnische Premierminister Andrus Ansip zurücktrat, ist Merkel die am längsten amtierende Regierungschefin der Europäischen Union. Bundestagswahl 2017 und Regierungsbildung. Am 20. November 2016 gab Merkel bekannt, bei der Bundestagswahl 2017 für eine vierte Amtszeit als Bundeskanzlerin kandidieren zu wollen. Am 6. Dezember 2016 wurde sie auf dem CDU-Bundesparteitag in Essen mit 89,5 Prozent der knapp 1000 Delegiertenstimmen als Parteivorsitzende wiedergewählt. Die CDU/CSU erlitt starke Verluste und erzielte ihr schlechtestes Ergebnis seit der Bundestagswahl 1949. Merkel selbst errang bei der Wahl das Direktmandat im Wahlkreis 15 (Vorpommern-Rügen – Vorpommern-Greifswald I) mit 44,0 Prozent der Erststimmen und verzeichnete damit einen Verlust von 12,3 Prozent gegenüber der vorangegangenen Bundestagswahl, verteidigte den Wahlkreis aber noch mit knapp 25 Prozent Vorsprung. Nach der Bundestagswahl 2017 gab die SPD bekannt, dass sie nicht für eine große Koalition zur Verfügung stehe, wodurch die sogenannte "Jamaika-Koalition" aus CDU/CSU, FDP und Grünen als einziges realistisches Bündnis mit Mehrheit galt. Mehr als vier Wochen lang gab es Sondierungsgespräche zwischen den Parteien, die in der Nacht des 19. November vom FDP-Vorsitzenden Christian Lindner für gescheitert erklärt wurden.Bundespräsident Frank-Walter Steinmeier führte daraufhin intensive Gespräche mit den Parteispitzen und erinnerte die gewählten Bundestagsabgeordneten nachdrücklich an die Verpflichtung zum Gemeinwohl und zur Regierungsbildung. Das Verfahren zur Wahl des Bundeskanzlers (und ggfs. folgende Neuwahlen) kann nach GG nur mit einem Vorschlag des Bundespräsidenten begonnen werden. Eine schwarz-rot-grüne Koalition (Kenia-Koalition) wurde zwischenzeitlich ins Gespräch gebracht, Angela Merkel und die Führungsspitze der SPD bevorzugen seit November 2017 alternativ eine Große Koalition (GroKo) mit einem erneuerten Koalitionsvertrag wie in der vorherigen Legislaturperiode als Königsweg, nicht jedoch Jusos sowie weite Teile der sozialdemokratischen Basis. Am 12. Januar schlossen CDU, CSU und SPD ihre Sondierungsgespräche ab und legten ein 28-seitiges Papier vor. Auf einem Sonderparteitag der SPD in Bonn stimmten am 21. Januar 56,4 Prozent der Delegierten für die Aufnahme von Koalitionsverhandlungen mit den Unionsparteien. Diese endeten am 7. Februar 2018 mit der Einigung von Union und SPD auf einen Koalitionsvertrag. Am 26. Februar 2018 stimmte ein CDU-Parteitag für eine Neuauflage der Großen Koalition, am 4. März 2018 wurde bekanntgegeben, dass 66 % der teilnehmenden SPD-Mitglieder bei einem Mitgliedervotum für den Koalitionsvertrag gestimmt haben. Angela Merkel wurde am 14. März 2018 mit 364 Ja-Stimmen (355 waren mindestens erforderlich) im ersten Wahlgang erneut zur Bundeskanzlerin gewählt und anschließend durch den Bundespräsidenten vereidigt. Sie erhielt damit 35 Stimmen weniger, als CDU/CSU und SPD über Sitze im Bundestag verfügen. Nach großen Verlusten der Unionsparteien bei den Landtagswahlen in Bayern und Hessen 2018 hat Merkel am 29. Oktober 2018 in einer Präsidiumssitzung angekündigt, nicht mehr für das Amt der CDU-Vorsitzenden zu kandidieren und nach Ende der Legislaturperiode im Jahr 2021 das Amt der Bundeskanzlerin nicht erneut anzustreben. Am 7. Dezember 2018 übergab sie den Posten des Bundesvorsitz der CDU an Annegret Kramp-Karrenbauer nach deren Wahl im zweiten Wahlgang. Ministerpräsidentenwahl in Thüringen 2020. → "Hauptartikel: Regierungskrise in Thüringen 2020" Am 6. Februar 2020 äußerte Merkel sich bei einem Staatsbesuch über das Ergebnis der Ministerpräsidentenwahl in Thüringen und forderte dazu auf, es rückgängig zu machen. Dies wurde auch durch kanzleramtliche Kanäle verbreitet. Darin erkannte das Bundesverfassungsgericht (Az. 2 BvE 4/20 u. a.) im Juni 2022 eine Verletzung des Rechts der AfD auf Chancengleichheit der Parteien aus Art. 21 Abs. 1 Satz 1 GG. EU-Ratspräsidentschaft 2020. Während der Deutschen EU-Ratspräsidentschaft vom 1. Juli bis zum 31. Dezember 2020 verhandelte Merkel über das Milliarden-Euro-Aufbauprogramm aufgrund der Corona-Krise und den Haushalt der EU-Staaten. Bundestagswahl 2021. Vom Moment des Zusammentretens des 20. Deutschen Bundestags zur Konstituierung am 26. Oktober 2021 bis zur Wahl ihres Nachfolgers Olaf Scholz zum Bundeskanzler am 8. Dezember 2021 übte Angela Merkel das Amt der Bundeskanzlerin auf Ersuchen des Bundespräsidenten weiter geschäftsführend aus. Für den neuen 20. Deutschen Bundestag hatte sie jedoch nicht mehr kandidiert. Somit standen ihr die mit dem Bundestagsmandat verbundenen Rechte trotz Sitzungsteilnahme schon während ihrer Amtszeit nicht mehr zu. Nachdem sie ihren Bundestagswahlkreis Vorpommern-Rügen – Vorpommern-Greifswald I seit seiner Existenz 1990 immer direkt mit großer oder absoluter Mehrheit gewonnen hatte, ging dieser jetzt erstmals an die SPD. Zusammen mit der Kanzlerschaft beendete Angela Merkel ihre gesamte politische Karriere. Sie war als Bundeskanzlerin 5860 Tage im Amt: Zehn Tage weniger als die Rekord-Amtszeit von 5870 Tagen des Bundeskanzlers Helmut Kohl. Zur Verabschiedung aus dem Amt fand im Bendlerblock ein Großer Zapfenstreich der Bundeswehr statt. Nach der Kanzlerschaft. Im Januar 2022 lehnte sie ein Angebot von UN-Generalsekretär António Guterres ab, in einem hochrangig besetzten Beratergremium zu globalen öffentlichen Gütern mitzuarbeiten. Im selben Monat lehnte sie einen Ehrenvorsitz der CDU mit der Begründung ab, dass dieser aus der Zeit gefallen sei. Am 13. Februar 2022 nahm Merkel als Mitglied der 17. Bundesversammlung für das Land Mecklenburg-Vorpommern an der Wahl des deutschen Bundespräsidenten 2022 teil. Umstritten war ihre Auszeichnung mit dem Großkreuz des Verdienstordens der Bundesrepublik Deutschland in besonderer Ausführung, das vor ihr nur Konrad Adenauer und Helmut Kohl bekommen hatten, durch Bundespräsident Steinmeier am 17. April 2023. Angela Merkel schreibt zusammen mit ihrer langjährigen Büroleiterin Beate Baumann an ihrer Biografie, das Buch soll im Herbst 2024 im Verlag Kiepenheuer & Witsch erscheinen. Politische Positionen. Innenpolitik. Klima- und Energiepolitik. Im April 1995 war Merkel als deutsche Umweltministerin Gastgeberin der ersten UN-Klimakonferenz (COP-1) in Berlin. Mit dem Berliner Mandat kam es zu einem Abschluss, der einen Einstieg in die internationale Reduzierung von Treibhausgasen bilden sollte. 1997 bei den nachfolgenden Verhandlungen zum Kyoto-Protokoll setzte sich Merkel für vergleichsweise hohe Reduktionsziele ein. Eine Initiative zur Eindämmung des Sommersmogs in Deutschland scheiterte im Mai 1995 innerhalb des Kabinetts und wurde später nur in sehr abgeschwächter Form umgesetzt. Bis zum AKW-Unglück von Fukushima 2011 befürwortete Merkel die zivile Nutzung der Kernenergie. Als Umweltministerin war sie für die Abwicklung von Atommülltransporten zuständig. Im Mai 1998 wurden Überschreitungen der Grenzwerte bei Castor-Transporten nach Frankreich bekannt. Vertreter der Opposition forderten daraufhin Merkels Rücktritt wegen Verletzung der ministeriellen Aufsichtspflicht. Sie verwies darauf, dass wichtige Kompetenzen und Verantwortlichkeiten auch bei den Bundesländern und der Atomwirtschaft lagen. Ebenfalls in ihre Amtszeit fällt das Kreislaufwirtschaftsgesetz zur Vermeidung und Verwertung von Abfällen. 1997 befürwortete sie öffentlich eine jährlich steigende Abgabe auf Energieträger wie Öl, Gas und Strom (Ökosteuer). In den Jahren 2006/07 erwarb sich Merkel den Ruf, eine „Klimakanzlerin“ zu sein: sie engagierte sich für Klimaziele auf europäischer und internationaler Ebene. Später sank der Stellenwert der Klimapolitik wieder. So nahm sie etwa beim UN-Klimagipfel in New York im September 2014 nicht mehr teil und besuchte stattdessen eine Tagung des Bundesverbands der Deutschen Industrie. 2015 äußerte sie, klimapolitische Initiativen seien noch nicht konkret geplant. Der Klimaforscher Mojib Latif äußerte im Juli 2018, Merkel sei aufgrund des kaum vorhandenen Klimaschutzes in Deutschland sowie mehrfacher Interventionen für die Autoindustrie „nie wirklich eine Klimakanzlerin“ gewesen. Kritiker haben Merkel vorgeworfen, Zusagen zu den von den Stromverbrauchern zu tragenden Kosten der von ihr maßgeblich beeinflussten Energiewende nicht eingehalten zu haben. Entgegen ihrer Regierungserklärung vom 9. Juni 2011, die EEG-Umlage solle nicht über ihre derzeitige Größenordnung von etwa 3,5 ct/kWh steigen, stieg sie bis 2017 auf 6,880 ct/kWh und sank während Merkels Amtszeit nie mehr unter 6,405 ct/kWh. Muslime in Deutschland. Bei einem Besuch des türkischen Ministerpräsidenten Ahmet Davutoğlu im Berliner Kanzleramt sagte sie im Januar 2015: „Der frühere Bundespräsident Christian Wulff hat gesagt: Der Islam gehört zu Deutschland. Und das ist so. Dieser Meinung bin ich auch.“ Anlässlich des islamischen Fastenmonats Ramadan im Jahre 2015 hat Angela Merkel zu gegenseitiger Wertschätzung der Religionen aufgerufen. Bei einem Empfang in Berlin bekräftigte sie zudem: „Es ist offenkundig, dass der Islam inzwischen unzweifelhaft zu Deutschland gehört.“ Vor Vertretern verschiedener Glaubensrichtungen verwies sie auf die weltweiten Gewalttaten im Namen einer Religion – „zu oft leider im Namen des Islams“. Doch jede Ausgrenzung von Muslimen in Deutschland, jeder Generalverdacht verbiete sich, sagte Merkel. Die allermeisten Muslime seien rechtschaffene und verfassungstreue Bürger. Integrationspolitik. Nachdem der türkische Ministerpräsident Erdoğan bei einem Deutschland-Besuch im Februar 2008 die Türken in Deutschland vor einer Assimilation gewarnt hatte, kritisierte sie dessen „Integrationsverständnis“. 2010 erklärte sie auf dem Deutschlandtag der Jungen Union der „Ansatz für Multikulti“ sei gescheitert. Man müsse Migranten nicht nur fördern, sondern auch fordern. 2013 sprach sie sich gegen die doppelte Staatsbürgerschaft und gegen die Trennung von muslimischen Jungen und Mädchen im Sportunterricht aus. Letzteres sei das „völlig falsche integrationspolitische Signal“ und das Gegenteil von Integration. 2017 verteidigte Merkel die doppelte Staatsbürgerschaft auch gegen den Parteitags-Beschluss der CDU. In ihrer Parteitagsrede vom 6. Dezember 2016 befürwortete Merkel ein gesetzliches Vollverschleierungsverbot. Innere Sicherheit. In einem von der CSU in Auftrag gegebenen Gutachten vom Januar 2016 stellte der Jurist und ehemalige Bundesverfassungsrichter Udo Di Fabio die These auf, die Bundesregierung breche mit ihrer Weigerung, die Landesgrenzen umfassend zu kontrollieren, die Verfassung. Die Staatsgrenzen seien „die tragenden Wände der Demokratien“. Der wenngleich schwierigen Aufgabe, sie zu schützen, könne sich keine Regierung entziehen. Dieses Gutachten für die CSU wurde von anderen Verfassungsexperten als „juristisch dürftig“ kritisiert. Dabei wurde auch darauf hingewiesen, dass die CSU selbst das Gutachten als mangelhaft einschätzen dürfte und es daher nie für eine Klage verwenden würde, was auch nicht geschah. Aktive Verfassungsrichter teilen di Fabios Einschätzung ebenfalls nicht. Der Europäische Gerichtshof bestätigte die Rechtmäßigkeit des Handelns der Kanzlerin ausdrücklich. Dieses Urteil wurde letztlich auch von der CSU gelobt. Ende Juli 2016 machte Merkel den Vorschlag, eine Nationalgarde aus Reservisten mit militärischer oder polizeilicher Ausbildung zu gründen, um die Polizei bei der Inneren Sicherheit zu unterstützen. Am 19. August 2016 erklärte Angela Merkel: In der Neujahrsansprache 2016/2017 erklärte Merkel unter Bezug auf den Anschlag auf den Berliner Weihnachtsmarkt an der Gedächtniskirche und andere terroristische Vorfälle: Bei der Klausurtagung der CDU in Perl am 14. Januar 2017 erklärte Merkel: Sie kündigte Sicherheit durch einen an. Islamistischer Terrorismus. Auf die Frage, wie sie Deutschland vor dem islamistischen Terror schützen wolle, antwortete Merkel in einem Interview vom 18. September 2015 sinngemäß, der islamistische Terror im Ausland werde zum Teil aus Deutschland dorthin exportiert, da viele der im Ausland agierenden Terroristen in Deutschland aufgewachsen seien; auch hätten die Europäer aufgrund ihrer eigenen geschichtlichen Vergangenheit in diesem Zusammenhang wenig Grund, Hochmut zu zeigen. Rechter Terrorismus. In Angela Merkels Amtszeit als Bundeskanzlerin fielen diverse rechtsradikal motivierte Anschläge und Mordtaten, darunter zwei Morde an Unternehmern mit Einwanderungsgeschichte im Jahre 2006, begangen durch den Nationalsozialistischen Untergrund (NSU), sowie auch die Aufdeckung der Gruppe im November 2011. Merkel warnte bei einer Gedenkfeier im Februar 2012 vor „Gleichgültigkeit und Unachtsamkeit gegenüber Intoleranz und Rassismus“. Ferner kam es 2019 zum Mordfall Walter Lübcke, dem ersten rechtsextrem motivierten Mord an einem Politiker in der Geschichte der Bundesrepublik, und zum Anschlag in Halle mit zwei Toten sowie 2020 zum Anschlag in Hanau mit neun Todesopfern. Nach der Tat in Hanau sagte Merkel in einer Ansprache, dass die Bundesregierung und alle staatlichen Institutionen für die Rechte und Würde eines jeden Menschen in unserem Land stünden. „Wir stellen uns denen, die versuchen, in Deutschland zu spalten, mit aller Kraft und Entschlossenheit entgegen“, sagte Merkel weiter. Wirtschaftspolitik. Merkel versuchte sich Ende 2000 mit der Formulierung einer „Neuen Sozialen Marktwirtschaft“ zu profilieren. Der Titel greift den etablierten Begriff der Sozialen Marktwirtschaft auf. Unter den unscharfen Thesen, deren konkrete Umsetzung im Vagen bleibt, finden sich auch Positionen, die bereits im Schröder-Blair-Papier aus dem Jahr 1999 auftauchten. Eine CDU-Präsidiumskommission unter Merkels Vorsitz erarbeitete bis zum 27. August 2001 ein Diskussionspapier, das im Dezember 2001 auf dem Bundesparteitag der CDU in Dresden verabschiedet und somit Teil der CDU-Programmatik wurde. Familienpolitik. Als Bundesministerin für Frauen und Jugend sah sich Angela Merkel in den neuen Bundesländern mit einer dramatisch gesunkenen Frauenerwerbsquote und, damit einhergehend, einem Einbruch der Geburtenrate konfrontiert. Hinzu kam die unterschiedliche Rechtslage zum Schwangerschaftsabbruch in Ost und West, die laut Einigungsvertrag von einer späteren gemeinsamen Regelung abgelöst werden sollte. Einen politischen Schwerpunkt während ihrer Amtszeit bildete daher die Neuregelung des § 218 und die Einführung einer faktischen Fristenlösung mit Beratungspflicht im gesamten Bundesgebiet. Der Verbesserung der beruflichen Situation von Frauen sollte das Gleichberechtigungsgesetz (1993/94) dienen. Als im Rückblick größten Erfolg ihrer Amtszeit bewertet Merkel die von ihr betriebene Änderung des Kinder- und Jugendhilfegesetzes. Diese Novellierung brachte den formellen Rechtsanspruch auf einen Kindergartenplatz für Kinder ab drei Jahren. Zur Diskussion um die Beschneidung aus religiösen Gründen und den Schutz der Unversehrtheit von Kindern positionierte sich Merkel im Juli 2012: Merkel sprach sich gegen die steuerliche Gleichstellung von homosexuellen Paaren aus und erklärte, sie wolle die Privilegierung der Ehe erhalten. In diesem Zusammenhang stellte sich Merkel 2013 ausdrücklich gegen das gemeinsame Adoptionsrecht von gleichgeschlechtlichen Paaren. Diese Haltung begründete sie mit einem „schlechten Bauchgefühl“. Bis 2018 änderte sie ihre Meinung. Sie habe sich mit der Frage des Kindeswohls näher beschäftigt und befürworte seitdem das Adoptionsrecht auch für gleichgeschlechtliche Paare. Im Juni 2017 zeigte sie sich erstmals offen für eine Diskussion zur Eheöffnung, sprach von einer „Gewissensentscheidung“ und gab schließlich am 27. Juni 2017 den Weg frei für eine Abstimmung ohne Fraktionszwang im Bundestag. Sie selbst stimmte gegen die Eheöffnung. Verkehrs- und Infrastrukturpolitik. Kurz vor der Bundestagswahl 2013 kam es zu einem öffentlichen Dissens zwischen Merkel und Horst Seehofer (CSU) zur Frage „PKW-Maut“. Während des Wahlkampfes betonte Merkel ihre ablehnende Haltung gegenüber der „PKW-Maut“. Sie bekräftigte im Kanzlerduell mit Peer Steinbrück ihr „Nein“ zu einer PKW-Maut mit den Worten: „Mit mir wird es keine Pkw-Maut geben“, allerdings setzte sich die CSU später im Koalitionsvertrag durch. Die PKW-Maut wurde schließlich 2019 durch den EuGH für nicht mit EU-Recht vereinbar erklärt. Außenpolitik. Merkel ist Mitglied der Atlantik-Brücke, welche sich für intensive Beziehungen zwischen Deutschland und den Vereinigten Staaten einsetzt. Barack Obama bezeichnete Angela Merkel rückblickend gegen Ende seiner Präsidentschaft als seine außenpolitisch wichtigste Partnerin. Europäische Union. Zukunft der Europäischen Union. Während eines EU-Gipfels in Brüssel am 7. November 2012 warb Bundeskanzlerin Angela Merkel für die Vereinigten Staaten von Europa: „Ich bin dafür, dass die Kommission eines Tages so etwas wie eine europäische Regierung ist“. 2005 äußerte Merkel – unter anderem bei einem Besuch in Istanbul –, sie favorisiere eine „privilegierte Partnerschaft“ mit der Türkei statt deren Vollmitgliedschaft in der EU. Eurokrise. Im Zuge der Weltfinanzkrise kam es zur Eurokrise, die Merkel mit ihrer Politik zu lösen versuchte. Sie bekräftigte immer wieder, dass der Euro eine starke Währung sei und suchte die Unterstützung von Frankreichs Präsidenten Hollande. Insbesondere bei den französischen Sozialisten war dies umstritten. So attackierte Frankreichs Industrieminister Arnaud Montebourg Merkel scharf und verglich sie mit Bismarck. Merkel tritt für einen strikten Sparkurs ein, der von einigen Kritikern wie dem Internationalen Währungsfonds als wachstumshemmend und krisenverschärfend betrachtet wird. Im Februar 2010 schloss Merkel Finanzhilfen für Griechenland ausdrücklich aus, erteilte jedoch bereits zwei Monate später ihre Zustimmung für das erste deutsche Hilfspaket für Griechenland in Höhe von 17 Milliarden Euro. Ende 2012 sagte sie, dass sie sich einen weiteren Schuldenschnitt für Griechenland im Jahr 2014 vorstellen könne. Sie stimmte 2010 sowohl für die provisorische EFSF als auch 2012 für den ESM mit dem Ziel der Stabilisierung des Euros. Merkel lehnt nach eigenem Bekunden EU-Anleihen, die der gemeinschaftlichen Schuldenaufnahme in der EU oder dem Euro-Währungsraum dienen könnten, ab. Sozialausgaben. Auf dem Weltwirtschaftsforum in Davos, 2013, begann Kanzlerin Merkel eine Serie von viel beachteten internationalen Stellungnahmen, die allesamt zum Inhalt hatten, dass Europa nur 7 % der Weltbevölkerung stellt und nur 25 % des weltweiten Bruttosozialprodukts erwirtschaftet, aber für fast 50 % der weltweiten Sozialleistungen aufkommt. Seit dieser Stellungnahme in Davos wurde dieses Argument ein wiederkehrender Bestandteil ihrer wichtigsten Reden. Der Economist sagte hierzu, ebenso wie Merkels Vision von vornherein als pragmatisch bezeichnet werden müsse, gelte Gleiches für ihren Plan zur Implementierung: Die Vision kann in drei Statistiken, einigen wenigen Karten und Fakten auf einer DIN-A-4-Seite zusammengefasst werden. Die Zahlen sind 7 %, 25 % und 50 %. Wenn Europa wettbewerbsfähig bleiben wolle, könne es sich schlicht nicht leisten, weiter so großzügig zu sein. Der Economist verglich damals Merkels Verwendung dieser Zahlen mit dem Verhalten der britischen Premierministerin Margaret Thatcher, die zu gegebener Zeit Passagen von Friedrich Hayeks "Weg zur Knechtschaft" aus ihrer Handtasche zog. In ähnlichem Sinn äußerte sich die Financial Times, die hervorhob, dass Merkel einen eindeutigen Bezug zwischen den Sozialleistungen und der mangelnden Wettbewerbsfähigkeit herstelle. Asylpolitik. In der Flüchtlingskrise 2015 fand Merkels Entscheidung vom 4. September 2015, in Absprache mit den Regierungschefs von Österreich und Ungarn den an der österreichisch-ungarischen Grenze und in Budapest festsitzenden Flüchtlingen vor allem aus Syrien und Afghanistan die Einreise nach Deutschland ohne Registrierung durch Ungarn zu gestatten, großes Echo in den Medien und der Öffentlichkeit innerhalb und außerhalb Deutschlands. Zugleich unterstrich Merkel die Bedeutung einer einheitlichen europäischen Flüchtlings- und Asylpolitik. Zu den erklärten Eckpunkten ihrer Asyl-Politik gehören eine hohe Priorität für die Integration von Anfang an, schnellere Asylverfahren mit beschleunigter Abschiebung von allein aus wirtschaftlicher Not kommenden Menschen, klare Regeln und keine Toleranz für Parallelgesellschaften und eine konsequente Verfolgung fremdenfeindlicher Angriffe. Sie äußerte: „Wenn Europa in der Flüchtlingsfrage versagt, dann ginge ein entscheidender Gründungsimpuls eines geeinten Europas verloren. Nämlich die enge Verbindung mit den universellen Menschenrechten, die Europa von Anfang an bestimmt hat und die auch weiter gelten muss.“ Zudem vertritt sie den Standpunkt, dass der aktuelle Zustrom der Migranten „mehr Chancen als Risiken“ für Deutschland biete, wenn die Integration gelinge. In einem Interview sagte sie am 11. September 2015 unter anderem: „Das Grundrecht auf Asyl für politisch Verfolgte kennt keine Obergrenze; das gilt auch für die Flüchtlinge, die aus der Hölle eines Bürgerkriegs zu uns kommen.“ Großes Medienecho fand ihr Satz: Angesichts der großen Anzahl von Flüchtlingen erreichte aber die Zustimmung der Bundesbürger für Merkel im Oktober 2015 einen Tiefpunkt. Mit der Arbeit der Bundeskanzlerin waren laut ARD-Deutschlandtrend nur noch 54 Prozent der Befragten zufrieden, das waren neun Prozent weniger als im Vormonat, zudem handelte es sich um den schlechtesten Wert seit Dezember 2011. In einer CDU/CSU-Fraktionssitzung, in der Merkel drei Stunden lang mit Kritik aus der Fraktion konfrontiert wurde, sagte sie: Am 13. Dezember 2015 formulierte in Karlsruhe ein Parteitag der CDU in einem Leitantrag einen Kompromiss, in dem einerseits Merkels Asylpolitik, insbesondere die konsequente Ablehnung von Obergrenzen, mit großer Mehrheit unterstützt wurde, andererseits das Ziel festgeschrieben wurde, „die Zahl der Flüchtlinge spürbar zu reduzieren“. Diese Formulierung fand am folgenden Tag in einer Gastrede auch die Billigung des Hauptbefürworters der „Kontingente“, des CSU-Parteivorsitzenden Horst Seehofer. Merkel bestätigte nochmals ihren Satz vom 31. August „Wir schaffen das“, der zum geflügelten Wort wurde, und ergänzte „Ich kann das sagen, weil es zur Identität unseres Landes gehört“. Am 16. Dezember unterstützte sie vor dem Bundestag in Berlin in einer Regierungserklärung zur Asylpolitik die Absicht der EU, ihre Außengrenzen, auch bei gegenteiliger Meinung der betroffenen Länder, verstärkt durch EU-eigene Organisationen wie Frontex zu schützen. Merkels Haltung rief wiederholte Kritik aus der eigenen Fraktion, besonders jedoch aus der CSU, hervor. Der bayerische Ministerpräsident Horst Seehofer bezeichnete Merkels Nicht-Aktivität an den Grenzen als „Herrschaft des Unrechts“ und forderte mehrfach eine Obergrenze für Flüchtlinge. Der seinerzeitige Präsident des Bundesverfassungsgerichts, Andreas Voßkuhle, bezeichnete eine Obergrenze als rechtlich unzulässig. Außerdem wurde Merkels Flüchtlingspolitik von verschiedenen Intellektuellen wie beispielsweise dem Althistoriker Alexander Demandt, dem Philosophen Peter Sloterdijk oder der Schriftstellerin Monika Maron kritisiert. Der Historiker Jörg Baberowski bemängelte sowohl Merkels Flüchtlingspolitik als auch die Versuche, Kritiker in eine „dunkeldeutsche“ Ecke zu verbannen. Der Entwicklungsökonom Paul Collier sieht zum Beispiel eine Politik der offenen Grenzen grundsätzlich als ethisch verwerflich an, weil sie den Menschen eine Art russisches Roulette aufnötige: Sie kommen über das Mittelmeer und müssen hoffen, dass ihr Boot nicht untergehe, ehe sie von Hilfsschiffen aufgenommen werden. Andererseits lobten viele Intellektuelle Merkels Flüchtlingspolitik, etwa in einem offenen Brief an die WELT. Der Politikwissenschaftler Herfried Münkler konstatierte, Merkel habe durch die Aufnahme von Flüchtlingen „Europa gerettet“, da Druck von kleineren Staaten genommen worden sei. In der New York Times warnte Ross Douthat vor der demographischen Auswirkung angesichts einer millionenfachen Zuwanderung mehrheitlich junger Männer, warf Merkel eine „edelgesinnte Verrücktheit“ vor und forderte sie zum Rücktritt auf. Auf der anderen Seite wählte die Zeitschrift Time Merkel zur Person des Jahres 2015 für ihre Haltung in der Flüchtlingskrise sowie ihre Rolle in der Ukraine-Krise. Im Januar 2016 schränkte Merkel bei einer Landesvertreterversammlung der CDU in Neubrandenburg ein, dass sie von den meisten Flüchtlingen erwarte, dass diese „wenn wieder Frieden in Syrien ist, wenn der IS im Irak besiegt ist, sie mit dem Wissen, das sie bei uns erworben haben, wieder in ihre Heimat zurückkehren.“ Nur ein geringer Teil habe Anspruch auf klassisches Asyl, die meisten Flüchtlinge genössen nur einen zeitweiligen Schutz durch die Genfer Flüchtlingskonvention. Militärische Konfliktlösungen. Im Vorfeld des Irakkriegs bekundete Angela Merkel ihre Sympathien für die Irakpolitik der USA und die „Koalition der Willigen“. Sie kritisierte als deutsche Oppositionsführerin vom Boden der USA aus die Außenpolitik der Bundesregierung, was ihr scharfen Widerspruch aus Berlin einbrachte. Der SPD-Fraktionsvorsitzende Franz Müntefering beurteilte Merkels Äußerung als „Bückling gegenüber der US-Administration“. In einer Rede im Deutschen Bundestag am 19. März 2003 erklärte Merkel die Unterstützung der Union für das Ultimatum an Saddam Hussein als „letzte Chance des Friedens“ und forderte die Bundesregierung auf, dies ebenso zu tun, um „den Krieg im Irak wirklich zu verhindern“. Angela Merkels Grundhaltung zu militärischen Konfliktlösungen beschreibt sie in Veröffentlichungen aus dieser Zeit. Als „Ultima Ratio“ akzeptierte Merkel beispielsweise das NATO-Engagement im Kosovokrieg (1999) und stellt historische Vergleiche zur deutschen Geschichte an: Bezüglich des Abzugs der Atomwaffen in Deutschland besteht Merkel darauf, dass die Verhandlungen über den Abzug der Raketen gemeinsam mit den anderen Nato-Ländern und keinesfalls im Alleingang durchgeführt werden. Nahost-Politik. Merkel hat sich bisher zurückhaltend zu einer deutschen Beteiligung an einer Friedenstruppe der Vereinten Nationen im Südlibanon zur Befriedung des Israel-Libanon-Konflikts geäußert. Israels Premier Olmert plädierte für die Beteiligung deutscher Soldaten. „Ich habe Kanzlerin Angela Merkel mitgeteilt, dass wir absolut kein Problem haben mit deutschen Soldaten im Südlibanon“, sagte er der Süddeutschen Zeitung. Zurzeit gebe es keine Nation, die sich Israel gegenüber freundschaftlicher verhalte als Deutschland. Am 18. März 2008 hielt Merkel in Israel vor der Knesset eine Rede, die sie auf Hebräisch begann. Sie betonte die historische Verantwortung Deutschlands für Israel; die Sicherheit des jüdischen Staates sei Teil der deutschen Staatsräson und niemals verhandelbar. Merkel war die erste ausländische Regierungschefin, die von der Knesset zu einer Rede eingeladen worden war. Bei einem Telefonat mit dem israelischen Ministerpräsidenten Benjamin Netanjahu im Jahr 2011 sagte Merkel, ihr fehle „jegliches Verständnis“ für die Genehmigung eines Siedlungsausbaus in Ostjerusalem durch die israelische Regierung. Zum Bürgerkrieg in Syrien forderte Merkel im Dezember 2011 ein Urteil des UN-Sicherheitsrates gegen den syrischen Staatspräsidenten Baschar al-Assad und stellte sich auf die Seite der Opposition. Im TV-Duell erklärte sie jedoch, Deutschland werde sich nicht an einem Militärschlag gegen Syrien beteiligen. Merkel will eine gemeinsame Haltung mit der Europäischen Union finden. Militärische Intervention in Libyen. Im Vorfeld der militärischen Intervention in Libyen im Frühjahr 2011 zeigte sich Merkel überrascht darüber, „mit welcher Schnelligkeit bestimmte Fragen ins Auge gefasst werden“ und kritisierte, dass es eine „Reihe von französischen Aktivitäten“ gegeben habe, die „erst sehr kurzfristig“ bekannt geworden seien. Gaddafi führe ohne Zweifel Krieg gegen die eigene Bevölkerung. Man müsse aber „sehr aufpassen, dass wir nichts beginnen, was wir nicht zu Ende bringen können.“ Überrascht zeigte sie sich darüber, dass Frankreich den Nationalen Übergangsrat als libysche Regierung anerkannt hatte. Es handele sich dabei um keine Anerkennung im Sinne des Völkerrechts. Ukraine. Merkel engagierte sich im Rahmen des sogenannten Normandie-Formats „Merkel-Hollande-Poroschenko-Putin“ mehrmals stundenlang bei der Konfliktlösung zwischen den ukrainischen und russischen Verbänden im Donbass, besonders beim Zustandekommen zweier Waffenstillstandsabkommen in der belarussischen Hauptstadt Minsk (siehe auch Minsk II). Russland. Nachdem auf den russischen Oppositionsführer Alexei Nawalny am 20. August 2020 ein Giftanschlag verübt worden war, forderte die von ihr geführte Bundesregierung eine Stellungnahme der russischen Regierung sowie Präsident Wladimir Putins. Die Sanktionen „gegen russische Beteiligte, die aufgrund ihrer offiziellen Funktion als verantwortlich für dieses Verbrechen und den Bruch internationaler Rechtsnormen gelten, sowie auf eine Einrichtung, die in das Nowitschok-Programm eingebunden ist“, erließ die EU auf Betreiben der Regierungen von Deutschland und Frankreich. Im Juni 2022, sechs Monate nach ihrem Abschied aus dem Kanzleramt, wies sie den Vorwurf zurück, eine Appeasement-Politik gegenüber Moskau betrieben zu haben. Sie nannte verschiedene Gründe, warum sie sich nicht für Fehler in der Russland-Politik zu entschuldigen habe. Diese Position bekräftigte sie bei verschiedenen Gelegenheiten, auch gegen Kritik aus ihrem ehemaligen politischen Umfeld. Bingener und Wehner urteilen, dass Merkel „keine grundsätzliche Sympathie“ für Putin gehabt habe. Aber sie habe ihn verstehen wollen und ihn oft getroffen, in der Hoffnung, Schlimmeres zu verhindern. Wegen ihrer Biografie habe sie eine emotionale Bindung zu Russland (nicht zu Putin). Vielleicht habe diese Emotionalität dafür gesorgt, dass sie als Kanzlerin nicht entschieden Härte in der Russlandpolitik gezeigt habe. Belarus. Bei einem Treffen mit dem italienischen Ministerpräsidenten Silvio Berlusconi 2011 äußerte Merkel sich zur Lage in Belarus. Sie und Berlusconi seien sich einig, dass man angesichts der Ereignisse nach der Präsidentschaftswahl im Vorjahr leider über neuerliche Sanktionen gegen dieses Land nachdenken müsse. Sie sehe die Entwicklung dort mit großer Sorge, insbesondere den Umgang mit der Opposition. Nach der Präsidentschaftswahl 2020, die de facto eine Scheinwahl des herrschenden Alexander Lukaschenko war, empfing Merkel während der Proteste im Herbst 2020 die Oppositionsführerin Swjatlana Zichanouskaja. Wegen der von Lukaschenko im Jahr 2021 herbeigeführten Migrationskrise an der Grenze zwischen Belarus und der Europäischen Union nahm Merkel Kontakt mit diesem auf. Rezeption. Ostdeutsche Herkunft. Merkel wurde dafür kritisiert, ihre ostdeutsche Herkunft während ihrer Kanzlerschaft in den Hintergrund gestellt zu haben. Ihre Rede zum Tag der Deutschen Einheit 2021 wurde als erstes öffentliches Bekenntnis zu ihren Erfahrungen mit Diskriminierung als Ostdeutscher gedeutet. Öffentlichkeitsarbeit. Seit dem 8. Juni 2006 wendete sich Merkel als erstes Regierungsoberhaupt weltweit per Video-Podcast an die Öffentlichkeit. Sie nutzte dieses Medium wöchentlich (jeden Samstag), um Inhalt und Ziele der Regierungspolitik zu vermitteln. Auf diesem Weg hat sie sich auch "verabschiedet." Zunächst produzierte Merkel-Biograf Wolfgang Stock den Podcast für etwa 6500 Euro pro Episode. Nach Kritik am Stil der Videobotschaft schrieb man die Produktion neu aus. Den Zuschlag erhielt die Evisco AG aus München. Da Jürgen Hausmann, einer der Vorstände der Evisco AG, ein Schwiegersohn des damaligen bayerischen Ministerpräsidenten Edmund Stoiber ist, wurden in den Medien Zweifel am ordnungsgemäßen Ablauf des Ausschreibungsverfahrens laut. Das ausschreibende Bundespresseamt wies die Vorwürfe zurück. „SMS-Kanzlerin“. Merkel war der erste Bundeskanzler, der Textnachrichten zur Kommunikation nutzte. Sie wurde deshalb auch als „SMS-Kanzlerin“ bezeichnet. Ein von Merkel zwischen 2003 und 2005 genutztes von der NSA abgehörtes Siemens S55 schenkte Merkel 2006 dem Bonner Haus der Geschichte. Ein vom Bundesamt für Sicherheit in der Informationstechnik zugelassenes abhörsicheres Mobiltelefon wurde in der Öffentlichkeit häufig als "Merkelphone" bezeichnet. Tremor. Weltweite Beachtung erhielt im Sommer 2019 ein nach Expertenmeinung wohl gesundheitlich unbedenklicher orthostatischer Tremor, der bei Merkel innerhalb weniger Wochen im bewegungslosen Stehen während zweier Staatsempfänge und einer Ministerernennung auftrat. Die militärische Zeremonie der darauf folgenden Staatsempfänge absolvierte sie im Sitzen. Auf diesbezügliche Fragen antwortete Merkel, es gebe keinen Grund zur Sorge und die Öffentlichkeit dürfe davon ausgehen, dass sie stets der „Verantwortung“ ihres Amtes entsprechend handele und auf ihre „Gesundheit achte“. Fernsehansprache 2020. In ihrer seit 2005 andauernden Kanzlerschaft wandte sich Angela Merkel außerhalb der Neujahrsansprachen einmal in einer Fernsehansprache („Rede an die Nation“) an die Öffentlichkeit. Anlass für diese Rede am 18. März 2020 war die COVID-19-Pandemie. Die Ansprache wurde von etwa 25 bis 30 Millionen Zuschauern verfolgt und als „historisch“ bezeichnet. Auch unter Merkels Vorgängern waren Fernsehansprachen selten; Gerhard Schröder etwa hielt nur zwei in sieben Jahren Amtszeit. Rezeption in der Kultur. Satire. Seit Merkels Amtsantritt als Bundeskanzlerin wurde ihre Person verschiedentlich zum Zwecke der Satire parodiert. Internationale Bekanntheit erlangte in diesem Zusammenhang Tracey Ullman mit ihren Sketchen in Tracey Ullman’s Show. In Deutschland wurde Antonia von Romatowski als Merkel-Parodistin bekannt. Sie stellte sie ab 2014 beim Münchner Nockherberg-Singspiel dar, seit 2020 in der Serie "Binge Reloaded." 2021 synchronisierte sie die Merkel-Puppe in der Serie "Spitting Image". Popkultur. Merkel ist für eine stereotype Geste bekannt, bei der sie ihre Hände mit den Innenflächen so vor dem Bauch hält, dass sich die Daumen und Zeigefinger an den Spitzen berühren. Dadurch bildet sich die Form einer Raute, die in der Presse oft als "Merkel-Raute" bezeichnet wird. Zur Bundestagswahl 2013 nutzte die CDU im Rahmen einer Personalisierungsstrategie die für die Kanzlerin typische Geste und bildete sie auf einem Riesenposter in Berlin ab. Berlins ehemaliger SPD-Landeschef Jan Stöß bezeichnete dies als Personenkult. Als Deutschlandkette wurde eine Halskette bekannt, die die deutsche Bundeskanzlerin Angela Merkel am 1. September 2013 beim Fernsehduell anlässlich der Bundestagswahl 2013 trug. "Merkozy" (auch: Sarkel bzw. Sarkokel) ist ein von den Medien kreiertes Kofferwort aus den Nachnamen von Angela Merkel und dem französischen Staatspräsidenten Nicolas Sarkozy. Das Konzept wurde nach der Ablösung Sarkozys fortgesetzt, wobei "Merkhollande" (ab 2012, auch Merkollande) und "Mercron" (ab 2017) deutlich weniger genutzt wurden und werden. In den 2010er Jahren entstand das Verb „merkeln“ als Neologismus mit der Bedeutung "in wichtigen Angelegenheiten nichts tun und keine klaren Aussagen treffen, kein Risiko eingehen." Das Frequentativum belegte 2015 den 2. Platz bei der Wahl zum Jugendwort des Jahres. Manche zogen eine Parallele zu Helmut Kohl. Während seiner Kanzlerschaft wurde ihm oft ein entsprechendes Verhalten nachgesagt. Das damalige Schlagwort war "Aussitzen". Merkel-Kritiker verwendeten es im Bundestags-Wahlkampf 2017. Darstellung in Literatur und Kunst. Insbesondere in der zweiten Hälfte ihrer Kanzlerschaft wurde Angela Merkel mehrmals zur Hauptfigur in Theaterstücken, Romanen, Filmen und Werken der bildenden Kunst.
146
1044898
https://de.wikipedia.org/wiki?curid=146
Alicia Silverstone
Alicia Silverstone [] (* 4. Oktober 1976 in San Francisco, Kalifornien) ist eine US-amerikanische Schauspielerin. Bekanntheit erlangte sie in den 1990er Jahren durch den Film "Clueless – Was sonst!" und als Batgirl in "Batman & Robin" sowie durch ihre Auftritte in drei Musikvideos der Band Aerosmith. Jugend. Silverstone wurde als Tochter britischer Eltern, eines Immobilieninvestors und einer Flugbegleiterin, geboren. Sie hat zwei ältere Geschwister, eine Halbschwester aus der ersten Ehe ihres Vaters und einen Bruder. Alicia Silverstone kommt aus einer jüdischen Familie und bezeichnet sich selbst als jüdisch. Sie wuchs in San Francisco auf und besuchte die „Crocker Middle School“ und anschließend die „San Mateo High School“. Im Alter von sechs Jahren begann Silverstone zu modeln und trat in Werbespots auf, erstmals für Domino’s Pizza. Sie verbrachte ihre Sommerferien gern in England, wo sie eine wachsende Begeisterung für dortige Theateraufführungen entwickelte. Neben Ballettstunden belegte sie deswegen mit 13 Jahren auch Schauspielkurse. Karriere. Silverstones erste Rolle war 1992 ein Auftritt in der elften Episode der fünften Staffel der Fernsehserie "Wunderbare Jahre" als "Jessica". Ihre erste Kinorolle hatte sie in dem Film "Das Biest" ein Jahr später. Um die Auflagen für Kinderarbeit zu umgehen, beantragte Silverstone mit 15 Jahren erfolgreich die rechtliche Selbstständigkeit. Für den Film wurde sie mit zwei "MTV Movie Awards" ausgezeichnet. Bei dieser Preisverleihung weckte sie die Aufmerksamkeit von Steven Tyler, der Leadsänger der Rockband "Aerosmith", was ihr Rollen in drei Videoclips der Band einbrachte – zu den Songs "Cryin’", "Amazing" und "Crazy". In letzterem Video spielte sie zusammen mit Liv Tyler, der Tochter des Sängers. Ihren schauspielerischen Durchbruch hatte Alicia Silverstone 1995 mit der Komödie "Clueless – Was sonst!", in der sie zum typischen Beispiel des kalifornischen Teenagers wurde. Die Regisseurin Amy Heckerling besetzte Silverstone in der Hauptrolle, nachdem sie sie in den Aerosmith-Videos gesehen hatte. "Clueless" war sowohl bei Kritikern als auch beim Kinopublikum ein Erfolg. Silverstone konnte erneut zwei MTV Movie Awards gewinnen und schloss einen Vertrag für zehn Millionen Dollar mit "Columbia TriStar" über weitere Filme. Im selben Jahr war sie auch in der Romanverfilmung "Innocent Babysitter" zu sehen. 1997 spielte sie das "Batgirl" in der vierten "Batman"-Verfilmung "Batman & Robin" an der Seite von George Clooney. Der Film erhielt überwiegend schlechte Kritiken und Silverstone wurde mit dem Negativpreis "Goldene Himbeere" als "schlechteste Nebendarstellerin" prämiert. Des Weiteren war sie in einer Hauptrolle in der Komödie "Ärger im Gepäck" neben Benicio del Toro und Christopher Walken zu sehen. Erstmals war sie hier auch als Produzentin tätig. 1999 spielte sie an der Seite von Brendan Fraser die Hauptrolle in der romantischen Komödie "Eve und der letzte Gentleman". Zu Beginn des neuen Jahrtausends zog sich Silverstone aus dem Mainstream-Kino zurück und stand überwiegend für Independent-Filme und Fernsehprojekte vor der Kamera. Außerdem spielte sie in einigen Theaterstücken. Im Jahr 2000 war sie in der "Shakespeare"-Adaption "Verlorene Liebesmüh’" (von und mit Kenneth Branagh) zu sehen. In dem Film musste sie auch singen und tanzen. Ab 2001 lieh sie der Comicfigur "Sharon Spitz" in der Serie "Braceface" ihre Stimme und erhielt dafür 2002 eine Nominierung für den Fernsehpreis "Emmy". 2002 gab sie ihr "Broadway"-Debüt als "Elaine Robinson" in dem Stück "Die Reifeprüfung" neben Kathleen Turner. Ein Jahr später spielte sie die Hauptrolle einer jungen Anwältin in der Serie "Kate Fox & die Liebe". Die Serie erhielt gute Kritiken und Silverstone wurde für einen "Golden Globe" nominiert, trotzdem war sie kein Erfolg und wurde nach einer Staffel wieder eingestellt. 2004 war sie an der Seite von Sarah Michelle Gellar in der erfolgreichen Komödie "Scooby Doo 2" zu sehen und spielte 2005 eine Friseurin in "Beauty Shop", der Fortsetzung des Films "Barbershop". 2006 war Silverstone als "Jack Starbright" in " Stormbreaker" neben Ewan McGregor und Mickey Rourke zu sehen. Der Film entstand nach dem Roman "Das Geheimnis von Port West" von Anthony Horowitz aus der Alex-Rider-Buchreihe. Ursprünglich sollten weitere Bücher dieser Reihe verfilmt werden, da der Film jedoch kein finanzieller Erfolg war, wurden keine Fortsetzungen produziert. 2008 hatte sie einen Cameo-Auftritt in der Komödie "Tropic Thunder". Von 2009 bis 2010 stand sie für das Theaterstück "Time Stands Still" auf der Bühne. Das Stück sowie Silverstones Leistung wurden positiv aufgenommen. 2010 beendete sie ihre Mitarbeit an dem Stück, um sich wieder ihrer Filmkarriere zu widmen. Ihre Rolle der Mandy wurde mit Christina Ricci neu besetzt. 2010 spielte sie eine Lehrerin in der Teenagerkomödie "Von der Kunst, sich durchzumogeln". Im selben Jahr drehte sie neben Sigourney Weaver den Vampirfilm "Vamps – Dating mit Biss", welcher allerdings erst zwei Jahre später den Weg ins Kino fand. Für diesen Film stand sie nach "Clueless" zum zweiten Mal unter der Regie von Amy Heckerling vor der Kamera. Des Weiteren spielte sie neben Hugh Jackman und Jennifer Garner in dem Drama "Alles in Butter", das ebenfalls 2012 in den amerikanischen Kinos veröffentlicht wurde. 2012 spielte Silverstone eine wiederkehrende Rolle in der Serie "Suburgatory" an der Seite ihres ehemaligen "Clueless"-Kollegen Jeremy Sisto. 2013 drehte sie den Serien-Piloten "HR", indem sie die Leiterin einer Personalabteilung darstellt, die nach einer Kopfverletzung ihre Lebenseinstellung ändert. In "Ass Backwards – Die Schönsten sind wir" (2013) übernahm Silverstone die Rolle der ehemaligen Schönheitskönigin Laurel. Die Komödie wurde 2013 auf einigen Filmfestivals gezeigt und in Deutschland direkt auf DVD veröffentlicht. In der schwarzen Komödie "Catfight" spielte Silverstone 2016 an der Seite von Anne Heche und Sandra Oh eine der Hauptrollen. Der Film wurde nur in ausgewählten Kinos veröffentlicht, erhielt aber weitgehend positive Kritiken. 2017 übernahm sie die Rolle der "Susan Heffley" in der vierten Verfilmung der Gregs-Tagebuch-Buchreihe, die zuvor von Rachael Harris verkörpert wurde. Der Film, der unter dem Titel "Gregs Tagebuch – Böse Falle!" in Deutschland veröffentlicht wurde, wurde von der Kritik negativ bewertet und konnte nicht an die Erfolge der vorherigen Filme anknüpfen, stellte aber mit einem weltweiten Einspielergebnis von 40,1 Millionen US-Dollar Silverstones erfolgreichsten Film seit "Beauty Shop" (2005) dar. In dem Psychothriller "The Killing of a Sacred Deer" unter der Regie von Yorgos Lanthimos war Silverstone 2017 an der Seite von Colin Farrell und Nicole Kidman in einer Nebenrolle zu sehen. Der Film konkurrierte bei den 70. Filmfestspielen von Cannes um die Goldene Palme und war ein Arthouse-Erfolg. 2018 spielte sie die Tochter von Diane Keatons Charakter in der Komödie "Book Club – Das Beste kommt noch", die mit einem weltweiten Einspielergebnis von rund 104 Millionen Dollar, Silverstones größter Kassenerfolg seit "Scooby Doo 2" (2004) wurde. Im gleichen Jahr spielte sie die Hauptrolle in der kurzlebigen Serie "American Woman", die nach einer Staffel eingestellt wurde. 2019 spielte sie neben Riley Keough unter der Regie des österreichischen Regie-Duos Veronika Franz und Severin Fiala in dem Horrorthriller "The Lodge". Von 2020 bis 2021 gehörte sie zur Stammbesetzung der Serie "Der Babysitter-Club". Für ihre schauspielerische Leistung wurde sie für den Daytime Emmy Award und den Children’s and Family Emmy Award nominiert. In der von Netflix produzierten Komödie "Senior Year" (2022) spielte sie neben Rebel Wilson. Persönliches. Seit Jahren ist Silverstone eines der prominenten Gesichter von PeTA-Kampagnen, die sich für Tierrechte und Veganismus einsetzen. So zeigte sie sich 2007 nackt in einem Werbespot und auf Plakaten der Tierschutzorganisation, und 2016 ließ sie sich für eine Kampagne gegen das Tragen von Wolle erneut nackt fotografieren. Silverstone ist seit 1998 Veganerin und wurde 2004 von PeTA zur "Sexiest Female Vegetarian" gekürt. 2009 erschien "The Kind Diet", ihr Buch über vegane Ernährung, das als "Meine Rezepte für eine bessere Welt" auch auf Deutsch erschienen ist. Das Buch schaffte es auf Platz 1 der Bestsellerliste der "New York Times". Dazu betreibt sie ein Weblog. 2014 erschien ihr zweites Buch, "The Kind Mama", in dem sie für Attachment Parenting wirbt. Im Juni 2005 heiratete sie Christopher Jarecki, Sänger der Musikgruppe "S.T.U.N." Das Paar lebte in Los Angeles und bekam im Mai 2011 einen Sohn, 2018 ließen sie sich scheiden.
147
2234691
https://de.wikipedia.org/wiki?curid=147
Al-Bīrūnī
Abu r-Raihan Muhammad b. Ahmad al-Bīrūnī (; persisch auch nur kurz , "Abū Raiḥān Bīrūnī") – kurz (al-)Biruni (geboren am 4. September 973 in Kath, Choresmien (heute Usbekistan); gestorben am 9. Dezember 1048 in Ghazna (heute Afghanistan)) war ein persischer (choresmischer) Universalgelehrter, Mathematiker, Kartograf, Astronom, Astrologe, Philosoph, Pharmakologe, Mineraloge, Forschungsreisender, Historiker und Übersetzer in Zentralasien. Leben und Werk. Die ersten 20 Jahre lebte Abū r-Raiḥān Muḥammad ibn Aḥmad in Choresmien, wo er schon in jungen Jahren von dem Gelehrten Abu Nasr Mansur ausgebildet wurde. Als die von Kath aus herrschende Afrighiden-Dynastie, welcher al-Bīrūnī nahestand, 995 von den Mamuniden aus Gurgandsch gestürzt wurde, verließ er das Land und ging an den Hof des Samaniden Mansur II. nach Buchara. Hier wirkte zu dieser Zeit auch der vor allem als Mediziner und Philosoph bekannte Ibn Sina (Avicenna), mit dem al-Bīrūnī (nachdem er um 997 einen programmatischen Briefwechsel eingeleitet hatte) viele Jahre lang zusammenarbeitete und den er auch in seiner „Chronologie“ aus dem Jahr 1000 erwähnte. 998 zog er nach Tabaristan und lebte am Hof des Ziyariden Qabus (Qābūs ibn Wuschmagīr), bevor er in seine Heimat zurückkehrte, wo er sieben Jahre lang zum Gurgandschischen Gelehrtenkreis um Khwarazm-Schah Mamun II. gehörte. Offenbar hatte er zuvor mit den Mamuniden Frieden geschlossen und die Beobachtung einer Mondfinsternis am 24. Mai 997 in Kath zeigt, dass er Choresmien schon eher wieder besucht haben muss. Al-Bīrūnī hatte damals mit Abu'l-Wafa verabredet, dass dieser das Ereignis in Bagdad beobachtet; durch einen Vergleich der notierten Eintrittszeiten des Erdschattens konnten sie die Differenz in den geographischen Längen von Kath und Bagdad bestimmen. Al-Bīrūnī beschäftigte sich in dieser Zeit mit Astronomie, Geschichte und Kartografie. 1017 eroberte der Ghaznawidensultan Mahmud von Ghazni Choresmien und nahm al-Bīrūnī, Abu Nasr Mansur ibn Iraq und andere als seine Gefangenen mit nach Ghazna. In der Folgezeit erhielt al-Bīrūnī von Mahmud finanzielle Zuwendungen für astronomische Aufgaben. Die Beobachtung einer Sonnenfinsternis am 8. April 1019 in Laghman nördlich von Kabul zeigt, dass er sich zumindest im Herrschaftsbereich Mahmuds frei bewegen konnte. Er bestimmte auch die genaue geographische Breite von Kath. Ab 1022 beherrschte Mahmud Teile von Nordindien. Al-Bīrūnī begleitete ihn auf diesen Feldzügen. Er war der erste islamische Wissenschaftler, der sich mit der brahmanischen Wissenschaft beschäftigte und darüber im "Kitab al-Hind" umfassend berichtete. Al-Bīrūnī, dessen Muttersprache choresmisch war, übersetzte zahlreiche arabische und griechische Werke ins Sanskrit, darunter die Elemente des Euklid. 1023 ermittelte er mit einem von ihm erfundenen neuen Messverfahren den Radius der Erdkugel zu 6339,6 km, was dem realen heutigen Wert am Äquator von 6378,1 Kilometer recht nahe kommt. Abu 'r-Raihan Muhammad al-Bīrūnī konstruierte das erste Pyknometer. Damit bestimmte er die Dichte (das spezifische Gewicht) von unterschiedlichen Materialien. Ehrungen. Eine moderne Stadt im Bereich von al-Bīrūnīs Geburtsort wurde 1958 ihm zu Ehren in Beruniy umbenannt. Die Universität Schiraz benannte ihr astronomisches Observatorium "Abu Reihan Observatorium". Die Internationale Astronomische Union (IAU) ehrte ihn durch die Benennung des Mondkraters Al-Biruni. Ferner ist er Namensgeber für die Insel Biruni Island in der Antarktis. Schriften. Al-Bīrūnī schrieb etwa 146 Bücher mit geschätzten 13.000 Seiten Umfang und tauschte sich mit Kollegen wie Avicenna (Ibn Sina) per Briefverkehr aus. Etwa ein Fünftel seines Werkes ist erhalten geblieben, darunter:
148
2747708
https://de.wikipedia.org/wiki?curid=148
Ankara
Ankara [], früher Angora (antiker Name , ), ist seit 1923 die Hauptstadt der Türkei und der gleichnamigen Provinz Ankara. Die Stadt ist nach türkischem Recht als Großstadtgemeinde "(Büyükşehir Belediyesi)" verfasst und nach Fläche und Einwohnern mit der gleichnamigen Provinz identisch. Sie hatte 2021 etwa 5,7 Millionen Einwohner und ist damit nach Istanbul die zweitgrößte Stadt des Landes. Etymologie und Name der Stadt. Die genaue etymologische Herkunft des Namens Ankara ist nicht bekannt. Pausanias berichtet, dass König Midas an der Stelle einen Anker gefunden und die Stadt dann dort dem Gegenstand entsprechend als "Ankyra" (griechisch für Anker) gegründet habe. Stephanos von Byzanz behauptet, die Galater hätten im Kampf gegen die Ptolemäer aus Ägypten nach dem Sieg einen Anker als Kriegstrophäe mitgebracht und diese Bezeichnung bei der Gründung der Stadt im Stadtnamen verewigt. Es sind Münzprägungen mit Ankermotiv bekannt. Dagegen gibt es Hinweise, dass die Stadtbezeichnung schon seit den Phrygern oder gar den Hethitern in einer ähnlichen Form benutzt und später von den Griechen zu Ankyra umgewandelt wurde. In ähnlicher Weise wurde in der islamischen Zeit Ankaras die These aufgestellt, die damals Engürü genannte Stadtbezeichnung stamme von dem persischen Wort für Traube ("engûr") ab, das sich auf die üppigen Weinanbaugebiete um Ankara beziehe. Ab dem 28. März 1930 wurde für den Namen der Hauptstadt auch im Verkehr mit Europäern anstelle der in der lateinischen Schrift bis dahin bei den Europäern üblichen – aus dem Neugriechischen stammenden – Namensform "Angora" die türkische Bezeichnung "Ankara" durchgesetzt. Ältere türkische Namensformen waren "Engüriye", "Engürü" oder "Engüri"; frühere Namensformen waren griechisch "Ankyra", lateinisch "Ancyra" und arabisch "Anḳira" und "Anḳuriyya" oder "Ḳalʿat al-Salāsil", zu deutsch „Kettenfestung“. Geographie und Klima. Ankara liegt etwa 900 bis 1050 Meter über dem Meeresspiegel und hat ein streng trockenes Kontinentalklima, das durch heiße trockene Sommer und kalte schneereiche Winter geprägt ist. Die Stadt liegt südlich am Fuße des Köroğlu-Gebirges und zieht sich südlich in Richtung Konya-Plateau. Die Jahresdurchschnittstemperatur beträgt 12,6 °C. Die wärmsten Monate sind Juli und August mit durchschnittlich etwas über 24 °C, die kältesten Januar und Februar mit Temperaturen etwas über dem Gefrierpunkt. Die meisten Niederschläge fallen im Mai mit durchschnittlich 51 Millimetern, die geringsten Niederschläge werden für die Monate Juli und August mit knapp 15 Millimeter im Mittel verzeichnet. Die Jahressumme der Niederschläge beträgt im Schnitt 414 mm; damit ist Ankara eines der trockensten Gebiete der Türkei. In der Stadt vereinigen sich zwei kleine Bäche namens "Hatip Çayı", auch "Bent Deresi" genannt, und "Çubuk Çayı" zum Ankara-Fluss ("Ankara Çayı"), der in der Stadt größtenteils überbaut und stark verschmutzt ist. Geschichte. Antike und byzantinische Zeit. Ursprünglich eine blühende phrygische Siedlung an der persischen Königsstraße, wurde es in römischer Zeit Hauptstadt der römischen Provinz Galatien. Die keltischen Galater waren als Söldner im 3. vorchristlichen Jahrhundert nach Anatolien gekommen und entwickelten sich dort zunächst zur Landplage. Nachdem sie ab 268 v. Chr. im Inneren Kleinasiens angesiedelt worden waren, wurde Ancyra Zentrum des galatischen Stammes der Tektosagen. 189 v. Chr. wurde Ancyra von Gnaeus Manlius Vulso besetzt, blieb aber unter regionaler Herrschaft. Die Galater wurden erst 44 v. Chr. nach Caesars Ermordung durch König Deiotaros unter einer Herrschaft vereinigt, aber bereits 25 v. Chr. wurde Galatien römische Provinz und Ancyra deren Hauptstadt. Aus römischer Zeit erhalten geblieben ist der Augustustempel, an dessen Wänden sich eine als Monumentum Ancyranum berühmt gewordene Inschrift befindet, die römischen Bäder und die Juliansäule. Bei der Teilung des Römischen Reiches nach dem Tode des Kaisers Theodosius I. im Jahr 395 fiel die Stadt an das Oströmische Reich, das später Byzantinisches Reich genannt wurde, und gehörte bis 1073 zu diesem. 620 eroberten vorrückende Sassaniden die Stadt und hielten sie sieben Jahre. Die Byzantiner machten die Stadt von 717–775 zum militärischen Hauptquartier ihrer Verwaltungseinheit Bukellarion. Ankara wurde mehrmals von arabischen Truppen unter den abbasidischen Kalifen Hārūn ar-Raschīd (797) und al-Mu'tasim bi-'llāh (838) erobert und von den Byzantinern nach einigen Jahren wieder eingenommen. Die von den Byzantinern als häretische Gruppe bezeichneten Paulikianer konnten die Stadt kurz einnehmen (871), sie wurden wie die Truppen der Abbasiden (931) ebenfalls wieder zurückgeworfen. Aus der byzantinischen Zeit stammen die eindrucksvollen Befestigungsmauern der Zitadelle sowie die in den Augustustempel eingebaute Kirche, von der noch die Apsis und die kleine Krypta erhalten sind. Seldschuken und Osmanen. Nach dem Sieg Alp Arslans in der Schlacht bei Manzikert 1071 löste sich die byzantinische Reichsverwaltung in Anatolien vorübergehend vollständig auf. In den so entstandenen anarchischen Verhältnissen ließen sich türkische Stammesgruppen in Anatolien nieder, denen oftmals rivalisierende Adelsfraktionen in den byzantinischen Städten Kleinasiens die Tore öffneten, um die militärischen Fähigkeiten dieser Gruppen für eigene Zwecke zu nutzen. Im Zuge der Konsolidierung und Zentralisierung der Herrschaft dieser türkischen Gruppen unter einer seldschukischen Nebenlinie geriet Ankara unter die Herrschaft des Sultanats der Rum-Seldschuken. Nach dem Mongoleneinfall 1243 und dem Zusammenbrechen des seldschukischen Staates übernahmen kleine unabhängige Fürstentümer, die Beyliks, die Kontrolle über die westanatolischen Grenzgebiete ("Uc"), während Ostanatolien und das östliche Mittelanatolien unter die direkte Herrschaft der mongolischen Ilchane und später auch unter die Herrschaft türkischer Fürsten fielen. Hierbei lag Ankara im Grenzgebiet zwischen den Grenzfürstentümern der Uc, namentlich der Osmanen und der Karamanen und dem Herrschaftsbereich der Ilchane. In diesem Herrschaftsvakuum geriet Ankara wie vergleichbare Städte unter die Leitung der Ahi. Die Ahi waren als Ausläufer der Futuwwa-Bewegung gildenartige Bruderschaften der städtischen Bevölkerung, etwa der Handwerker, deren Führer in Abwesenheit anderer Herrschaftsinstanzen staatliche Aufgaben in Anspruch nahmen. 1356 eroberte Orhan I. Ankara und gliederte es ins Osmanische Reich ein, welches dessen Entwicklung fortan – mit der Ausnahme der Besatzung 1401–1402 durch Timur nach der Schlacht bei Ankara – bis zum Ersten Weltkrieg bestimmen werden sollte. Ankara war Hauptstadt eines Sandschak im Eyâlet Anadolu und wurde 1841 Verwaltungssitz des neu gebildeten gleichnamigen Eyalets (ab 1867 Vilâyet Ankara). Seit 1892 ist Ankara durch die Anatolische Eisenbahn mit Istanbul verbunden. Nach der Niederlage der Osmanen im Ersten Weltkrieg besetzten alliierte Streitkräfte die damalige Hauptstadt Istanbul. Auch Ankara wurde 1919 für eine kurze Zeit nach der osmanischen Kapitulationserklärung von alliierten Truppen unter der Führung Withalls besetzt und wieder geräumt. Im anatolischen Kernland formierte sich gegen die Besatzungsmächte Widerstand, und nach der Ankunft Mustafa Kemals in Ankara Ende 1919 wurde 1920 die Große Nationalversammlung der Türkei ausgerufen, da das osmanische Parlament in Istanbul unter dem Druck der britischen Besatzung stand und viele seiner Abgeordneten nach seiner Auflösung durch die Briten inhaftiert und nach Malta deportiert wurden. Als die griechischen Besatzungstruppen 1921 bis in die Gegend des heutigen Polatlı (etwa 60 km vor Ankara vordrangen) und der Artilleriebeschuss schon in Ankara zu hören war, gab es im Parlament Überlegungen nach Kayseri umzuziehen, wovon nach der erfolgreichen Schlacht am Sakarya abgesehen wurde. Republik. Mit dem endgültigen Sieg der von Kemal Atatürk geführten Truppen im Türkischen Befreiungskrieg wurde Ankara wegen seiner Lage in Zentralanatolien und in bewusster Abgrenzung zur osmanischen Hauptstadt Istanbul im Vorfeld der Ausrufung der Republik am 13. Oktober 1923 zur Hauptstadt erklärt. Als repräsentative Hauptstadt der jungen Republik musste zunächst die Infrastruktur bereitgestellt werden. Die Stadt war durch einen Brand 1917 größtenteils zerstört worden, die Umgebung war versumpft (Malaria war ein großes Problem) und hinzu kam ein stetiger Zustrom von Menschen. In acht Jahren (1920–1928) vervierfachte sich die Bevölkerungszahl von ca. 25.000 auf 100.000 Zur Neukonzeption wurde größtenteils auf deutsche Architekten zurückgegriffen, so basierte die grundlegende Stadtplanung auf einem von Carl Christoph Lörcher für 1924–1925 entwickelten Plan, der aber im weiteren Verlauf aufgrund stärkeren Zuzugs neu bewertet und von dem ab 1929 im türkischen Dienst stehenden Hermann Jansen im sogenannten „Jansen-Plan“ neu konzipiert wurde. Clemens Holzmeister errichtete das Parlamentsgebäude, mehrere Ministerien und Gerichtsgebäude sowie eine Villa für Atatürk. In den folgenden Jahrzehnten musste die Stadtverwaltung sich mit der Landflucht auseinandersetzen, die in Gecekondu-Vierteln sichtbar wurde. Spätestens seit den 1950er Jahren wurde immer stärker auf repräsentative Bauten verzichtet, das Stadtbild im Zentrum dominieren große funktionale Quaderbauten und Verkehrsstraßen. Die als „grüne Stadt inmitten der anatolischen Steppe“ geplante Hauptstadt verlor stark an städtischer Grünfläche. Mitte der 1980er Jahre versuchte die sogenannte TOKI türkeiweit das Wohn- und Platzproblem mit billigen Hochhaussiedlungen zu lösen, welche seitdem das Stadtbild Ankaras dominieren. Von 1994 bis 2017 war der islamisch-konservative Melih Gökçek der Oberbürgermeister. Im Jahre 2009 wurde die Stadt für ihre herausragenden Bemühungen um die europäische Integration mit dem Europapreis ausgezeichnet. 2014 wurde der neue Amtssitz des Präsidenten eingeweiht, der trotz gerichtlichem Baustopp auf der Grünfläche der Waldfarm Atatürks errichtet wurde und knapp eine halbe Milliarde Euro kostete. Am 10. Oktober 2015 kam es während einer Demonstration am Bahnhof der Stadt zu einem terroristischen Sprengstoffanschlag mit über 100 Toten. 2017 wurde Gökçek als Bürgermeister durch den ebenfalls der AKP angehörenden Mustafa Tuna abgelöst, der bei der Kommunalwahl 2019 jedoch knapp seinem Herausforderer Mansur Yavaş von der CHP unterlag. Wappen. Das Wappen der Stadt ist ein langjähriges Streitthema. Das jahrzehntelang akzeptierte Wappen oder Emblem war die als „hethitische Sonne“ bezeichnete scheibenförmige Standarte (Bronzestandarten von Alaca Höyük). Sie wurde 1995 von dem langjährigen Bürgermeister der Jahre 1994–2017 Melih Gökçek, ab 2002 Mitglied der islamisch-konservativen AKP, durch eine Abbildung der Kocatepe-Moschee, die mit ihrer klassischen Architektur anderen Moscheen der Türkei sehr ähnelt und 1987 fertiggestellt wurde, ersetzt. Verschiedene Gerichtsbeschlüsse bemängelten die fehlende repräsentative Symbolik und kritisierten Befugnisübertritte des Bürgermeisters. Dieser integrierte als Reaktion daraufhin den Atakule-Fernsehturm in das Wappen. Später schlug Gökcek zwei "Katzenaugen" der Katzenrasse Türkisch Angora als Wappen vor; der Vorschlag wurde aber aufgrund von Protesten zurückgezogen. Die Wappenfrage bleibt ein Streitthema. Wirtschaft und Infrastruktur. Wirtschaft und Tourismus. Ankara ist nicht nur das Verwaltungszentrum der Türkei, sondern gilt neben Istanbul und Izmir auch als eines der größten Wirtschaftszentren des Landes. Von Bedeutung ist die Rüstungsindustrie, wie die TUSAS Turkish Aerospace Industries, die ASELSAN (Militärtechnik) oder die MKE Munitions- und Waffenindustrie, die Roketsan oder Havelsan. Des Weiteren existieren eine große MAN Autobusfabrik in der Nähe des Flughafens, ein Traktorenwerk, ein Baumaschinenhersteller (Hidromek), sowie Betriebe der Nahrungs- und Genussmittelindustrie, während die ehemals bedeutende Ziegen- und Wollhaarverarbeitung bedeutungslos geworden ist. Die Industriebetriebe konzentrieren sich größtenteils im Westen der Stadt. Das Einkaufs- und Handelszentrum der Stadt liegt größtenteils in Kızılay um den Kızılay-Platz. Ankara ist im Vergleich zu den anderen türkischen Städten wenig touristisch erschlossen. Dies wird zumeist mit dem vorherrschenden Image einer unbegrünten Beamtenstadt erklärt. Zu den meistbesuchten Orten zählt das Mausoleum des Staatsgründers Atatürk und das Museum für anatolischen Zivilisationen. Zumeist wird der Besuch im Rahmen einer größeren Tour, wie z. B. bei einer Reise nach Kappadokien organisiert. Für die religiösen inländischen Touristen ist die Hacı-Bayram-Moschee eine Pilgerstätte. Laut einer Studie aus dem Jahr 2014 erwirtschafte Ankara ein Bruttoinlandsprodukt von 104,86 Milliarden US-Dollar in Kaufkraftparität. In der Rangliste der wirtschaftsstärksten Metropolregionen weltweit belegte die Stadt damit den 129. Platz. Das BIP pro Kopf liegt bei 21.076 US-Dollar (KKP). Bildung. Ankara ist Sitz mehrerer Universitäten, u. a. der Universität Ankara, der Bilkent-Universität, der Gazi-Universität, der Technischen Universität des Nahen Ostens (ODTÜ), der Hacettepe-Universität, der Tobb-Universität für Wirtschaft und Hochtechnologie, der Ufuk-Universität, der Atılım-Universität, Çankaya-Universität und der Başkent-Universität. Verkehr. Straßen und ÖPNV. Die Qualität der Straßen ist unterschiedlich. Die achtspurige Ringautobahn O-20 trägt zur Entlastung des städtischen Verkehrs bei. Wie in anderen Großstädten gibt es zahlreiche Taxis. Wie in den meisten türkischen Städten wird ein beträchtlicher Teil des öffentlichen Nahverkehrs von Dolmuş übernommen. Der öffentliche Nahverkehr wird weitgehend mit Bussen abgewickelt. Es gibt mehrere Busbahnhöfe, u. a. der Fernbusbahnhof Ankara Şehirlerarası Terminal İşletmesi. Die U-Bahn besteht 2014 aus vier Linien M1, M2, M3 und Ankaray. Eine weitere Linie (M4) ist im Bau, eine Linie ist in langfristiger Planung. Daneben gibt es einen S-Bahn-Verkehr (Banliyö Trenleri). Eine 3,2 Kilometer lange kuppelbare Umlaufseilbahn mit vier Stationen verbindet seit 2014 den Stadtteil Şentepe mit der Metrostation Yenimahalle. Die Stadtverwaltung hat sich entschieden, das System allen Nutzern kostenlos zur Verfügung zu stellen, somit sind auch keine Fahrscheine notwendig. Gebaut wurde die Seilbahn vom Südtiroler Unternehmen Leitner ropeways. Flughäfen. Ankara besitzt mehrere militärische (u. a. Güvercinlik Havalimanı, Etimesgut Havalimanı) und einen internationalen zivilen Flughafen, den Esenboğa Airport. Er liegt 28 km nordöstlich der Stadt und wurde zwischen 2004 und Ende 2006 grundlegend erneuert. Gleichzeitig wurde der Flughafen über eine Schnellstraße an die Ringautobahn angeschlossen. Eisenbahn. Ankara wurde durch die Anatolische Eisenbahn Ende des 19. Jahrhunderts mit Istanbul und über einen Abzweig mit Izmir verbunden. Später wurden Strecken über Kayseri in den Osten des Landes, zur Bagdadbahn Richtung Adana und über Karabük an die Schwarzmeerküste gebaut. Die Hochgeschwindigkeitsstrecke Ankara–İstanbul wurde Januar 2009 in Betrieb genommen. Die Hochgeschwindigkeitsstrecke Ankara–Konya ist seit dem 30. August 2011 in Betrieb. Hochgeschwindigkeitsstrecken nach Sivas, Kars und Izmir sind geplant und sollen bis 2015 fertiggestellt werden. Das "TCDD Açık Hava Buharlı Lokomotif Müzesi" (Dampflok-Museum) beinhaltet verschiedene historische Zugmaschinen. Bevölkerung. Ankara hatte vor 1923 eine Bevölkerungszahl von ca. 25.000. Nachdem es den Status als Hauptstadt erhalten hatte, entwickelte es sich zu der Stadt mit der drittgrößten Bevölkerung nach Istanbul und Izmir und steht 2014 landesweit an zweiter Stelle. Es gehört zu den Städten mit dem stärksten Zuzug von Binnenmigranten. Die ganze Provinz zählt 5.045.085 Bewohner, Seit der letzten Verwaltungsreform 2014 umfasst die Großstadtgemeinde Ankara ("Ankara Büyükşehir Belediyesi") das gesamte Gebiet der Provinz. Vor dieser Reform entfielen von den Einwohnern der Provinz 4.630.735 Bewohner auf die Großstadt Ankara. Auf Makroebene betrachtet sind in Ankara fast ein Drittel der Bewohner Zentralanatoliens (11.608.868) beheimatet. Die Stadtbevölkerung Ankaras lebt zu 97 % in städtischer, zu 3 % in dörflicher Umgebung. Im Zeitraum 1990–2000 wuchs die Stadtbevölkerung ausgehend von 2.583.963 um 21,48 %. Im Vergleich dazu betrugen die Wachstumsraten in Zentralanatolien in diesem Zeitraum 15,78 % und für die gesamte Türkei 18,28 %. Während in Ankara 1.585.970 Bewohner beim Heimateinwohnermeldeamt Ankara gemeldet sind, gibt es eine größere Gruppe, die noch in den ursprünglichen Heimatprovinzen gemeldet ist. Die größte Einwanderung kommt aus den Provinzen Çorum mit 378.451, gefolgt von Yozgat 332.198, Çankırı 236.406, 196.296 Kırşehir, 180.595 Kırıkkale und 151.386 Sivas, dementsprechend größtenteils aus Zentralanatolien. Von außerhalb Zentralanatoliens kommen 103.319 Zuzüglern aus Erzurum, gefolgt von 81.830 aus Kars und 82.305 aus Bolu. Die geringsten Zuzüge verzeichnet Ankara aus Kırklareli, Hakkari und Yalova. Religion und Weltanschauungen. Die Bewohner sind größtenteils muslimischen Glaubens. Die Stadt kam früh mit dem Christentum in Kontakt. Nach der nordgalatischen Hypothese hat der Apostel Paulus von Tarsus die Bewohner Ankaras im ersten Jahrhundert zum Übertritt zum Christentum aufgerufen (Brief des Paulus an die Galater). Mit den Byzantinern wandelte sich der römische Augustustempel zu einer bedeutenden Kirche der Stadt. 1520 betrug der Anteil der Nichtmuslime in der Stadt 10 % und erhöhte sich durch den Zuzug meist katholischer Armenier im Jahre 1830 auf 45 %. Im Zuge der ethnischen Spannungen im Vorfeld des Ersten Weltkrieges und der Deportation der Armenier während des Völkermords ist die christliche Gemeinde stark geschrumpft. Die Stadt besitzt einige modernere Kirchen (protestantisch, katholisch, orthodox). Auch eine 100 Mitglieder umfassende jüdische Gemeinde mit einer Synagoge, der "Havra", existiert. Persönlichkeiten. Ankara ist Geburtsort zahlreicher prominenter Persönlichkeiten. Siehe "Liste von Söhnen und Töchtern der Stadt Ankara" Stadtbild. Die verwinkelten, engen Gassen der Altstadt winden sich um einen steilen, von der Zitadelle gekrönten Felskegel. Südlich der Altstadt und des alten Stadtzentrums Ulus erstreckt sich die moderne Neustadt mit den neuen Zentren Kızılay und Kavaklıdere, deren Kennzeichen breite Boulevards, zahlreiche Regierungsgebäude und Botschaften sowie moderne Wohnviertel sind. Insbesondere im westlichen Teil der Stadt entstehen Neubausiedlungen, um dem wachsenden Bedarf an Wohnfläche zu entsprechen. Trotz dieser Anstrengungen gab es bis in die erste Dekade des 21. Jahrhunderts noch sehr viele Marginalsiedlungen ("Gecekondu"). Ein großer Teil dieser Gecekondus wurde seit der Jahrtausendwende flächendeckend abgerissen, neu beplant und durch weitläufige, moderne Hochhaussiedlungen ersetzt. Die heutigen Strukturen erhielt Ankara im Wesentlichen durch den deutschen Städtebauer Hermann Jansen, dessen Planungen Ende der 1920er Jahre umgesetzt wurden. Im Stadtteil "Hamamönü" in der Stadtgemeinde Altındağ wurden ab 2009 historische Häuser im Stil des 19. Jahrhunderts restauriert und beherbergen nun Cafés, Galerien und Souvenirläden. In den letzten 15 Jahren wurde die Braunkohle als Heizmittel weitgehend vom umweltfreundlicheren Erdgas ersetzt. Dennoch nimmt aufgrund des stetigen Bevölkerungswachstums die Luftverschmutzung in Ankara stark zu, die alten Busse, Autos und das Fehlen einer umweltfreundlicheren Alternative tragen wesentlich dazu bei. Grünflächen. In den ersten städtebaulichen Plänen der jungen Republik war Ankara als grüne Stadt inmitten der kargen anatolischen Steppe geplant. Der zweite Stadtplaner Jansen plante sie in groben Zügen als anatolische Gartenstadt, so wurden große Grüngürtel angelegt, welche die Stadt in funktionelle Einheiten teilten. Eine größere Grünfläche im Westen der Stadt bildet die Waldfarm Atatürks, ein landwirtschaftlicher und forstwirtschaftlicher Demonstrationsbetrieb des Gazi, der die Bevölkerung bis in die 80er mit Rohmilch, Milchprodukten und lokalem Bier versorgte. Für die Bewohner der Stadt wurden damals dreistöckige Häuser mit Hintergärten angelegt, die heute noch in der Siedlung "Bahçelievler" in einer kleinen Zahl übriggeblieben sind. Mit der einsetzenden Landflucht ab den 1950ern wurden die Grünflächen Baugrund für Plattenbauten. Ein bekannter zentraler Park ist der Gençlik Parkı, der in der Bauzeit 1938–1943 im Stadtteil Ulus fertiggestellt wurde. Er wurde als Erholungspark eröffnet und änderte seinen Charakter ab den 1950er Jahren stärker in Richtung Unterhaltungspark. Nach einer Grundsanierung 2006 ist er mit abendlichen Lichteffekten und Musikshows ein Ort für flanierende Familien. Zu den größten Parks der Stadt gehört der Altınpark (mit 50,8 ha) im Stadtteil Altındağ. Er wurde auf einem ehemaligen Golfplatz errichtet und 1991 fertiggestellt und bietet neben Erholung auch Möglichkeiten zur sportlichen Betätigung (wie Kartsport, Eisbahn). Hinzu kommen mehrere kleinere Parks, darunter der "Kurtuluş Parkı", der "Kuğulu Parkı", der "Gökçek Parkı" und der "50. Yıl Parkı". Der Wald der Technischen Universität im Süden der Stadt war eine größere halbwegs bewaldete Grünfläche, die jedoch zunehmend bebaut wird, was zu anhaltenden Protesten der Studenten führt. Friedhöfe. Zu den landesweit bedeutendsten Friedhöfen gehört der Türkische Staatsfriedhof im Stadtteil Yenimahalle. Dieser beherbergt in seiner 536.000 m² großen Fläche 61 Gräber ranghoher Offiziere und Generäle des türkischen Befreiungskriegs, Gräber von drei Staatspräsidenten und einem Ministerpräsidenten. Für das relativ moderne Projekt (Bauzeit war 1981–1988) wurden die meisten Bestatteten dorthin umgebettet. Der ganze Friedhof ist mit Skulpturen durchzogen und beinhaltet ein Museum mit Habseligkeiten der Verstorbenen. Ein anderer Friedhof mit namhaften Bestatten ist der Städtische Friedhof Cebeci im Stadtteil Cebeci. Er wurde in der Republikzeit als moderner Friedhof durch den Architekten Martin Elsaesser geplant und ist im Sinne des Laizismus konfessionell gemischt. Durch Erweiterungen in der jüngeren Zeit hat er seine alte Struktur verloren. Er gilt mittlerweile als zweitgrößter Friedhof der Stadt. Der größte zivile Friedhof ist der "Karşıyaka-Friedhof" mit einer Fläche von 2,89 km². Kultur und Sehenswürdigkeiten. Römische Hinterlassenschaften. Im Stadtteil Ulus, dem historischen Kern der Stadt, liegen die Caracalla-Thermen, eine römische Badeanlage aus dem 3./4. Jahrhundert. Von den Badegebäuden sind Grundmauern und die Ziegel der Hypokaust-Heizungsanlage erhalten. Auf dem Platz für sportliche Übungen, der Palästra, sind zahlreiche Stelen, Kapitelle und Inschriften aufgestellt, die auf dem Stadtgebiet gefunden wurden. Etwa 400 Meter östlich davon befindet sich die Ruine des Tempels der Roma und des Augustus, an dessen Wänden der zweisprachige griechisch/lateinische Rechenschaftsbericht des Kaisers Augustus angebracht ist. Nahe dabei steht die ebenfalls römische Juliansäule, deren genaue Herstellungszeit nicht bekannt ist. Anıtkabir. Auf dem zentralen Hügel "Anıttepe" befindet sich die Ruhestätte des Staatsgründers Mustafa Kemal Atatürk. Nach seinem Tod 1938 wurde ein internationaler Architekturwettbewerb ausgerufen mit der Aufgabe ihm ein passendes Grabmal zu setzen. Der Entwurf fiel auf ein geradlinig rationales, schnörkelloses und monumental gehaltenes Mausoleum mit zentraler Lage und Blick auf die Stadt. Die Anlage ist dreiteilig: Über einen schmalen Gang (Löwenweg) gelangt man auf den zeremoniellen Platz, der 15.000 Menschen aufnehmen kann. Das Mausoleum umfasst Habseligkeiten des Feldherren und Staatsmannes und ein Museum über den Unabhängigkeitskrieg. Es ist ein landesweit bekanntes Nationaldenkmal, das jedes Jahr mehrere Millionen Besucher verzeichnet (2015: ca. 5 Millionen). Für ausländische Staatsgäste ist es ein protokollarischer Pflichtbesuch. Parlamente. Ankara umfasst drei Parlamentsgebäude. Das erste historische Parlament am Ulus-Platz war ein jungtürkisches Clubhaus, das von der neu formierten Nationalbewegung 1920 als Parlament benutzt wurde. Hier wurde während des Unabhängigkeitskrieges der Krieg gegen die vorrückenden Griechen und die Haltung zur besetzten Istanbuler Regierung debattiert. Heute ist es ein Museum ("Kurtuluş Savaşı Müzesi"). Das zweite historische Parlamentsgebäude wurde aufgrund der engen Platzverhältnisse vom Architekten Vedat Tek entworfen und ist in direkter Nachbarschaft zum ersten Parlament. Es wurde von 1924 bis 1961 genutzt und ist heute ebenfalls ein Museum ("Cumhuriyet Müzesi"). Das dritte und im Dienst stehende Parlament wurde 1938 von dem Sieger des Architekturwettbewerbs Clemens Holzmeister entworfen und 1961 fertiggestellt. Zitadelle. Die Zitadelle von Ankara ist eine von den Hethitern errichtete, von den Galatern ausgebaute und schließlich bis zu den Osmanen weitergenutzte Befestigungsanlage inmitten der Altstadt Ankaras. Sie wird unterteilt in die äußere ("Dışkale"), innere Burganlage ("İçkale") und die Burg an sich ("Akkale"). Moscheen. Wahrzeichen und Blickfang der Stadt ist die Kocatepe-Moschee. Sie ist die größte der Stadt. Im Inneren der Moschee befinden sich Teehäuser, ein großer Supermarkt und ein Konferenzraum. Das Gotteshaus wurde erst 1987 fertiggestellt und ist ein Rückgriff auf die klassische osmanische Architektur Mimar Sinans. Die ebenfalls bekannte "Maltepe-Moschee" orientiert sich wie viele andere Moscheen an dem gleichen Stil. Eine tatsächlich von Mimar Sinan in Ankara erbaute historische Moschee aus dem 16 Jh. ist die "Neue Moschee" im Stadtteil Ulus. Als architektonische Neuheit gilt die 2008 fertiggestellte Doğramacızade-Ali-Sami-Paşa-Moschee, die der Gründervater vieler Institute İhsan Doğramacı zu Ehren seines Vaters erbauen ließ. Der als postmodern bezeichnete Architekturstil ist schlicht gehalten und die Moschee erlaubt konzeptionell bei speziellen Anlässen auch Nicht-Muslimen die Nutzung der Räume. Zu den ältesten Moscheen (13 Jh.) der Stadt gehört die Aslanhane-Moschee. Der Name „Aslanhane“ bedeutet „Löwenhalle“ und ist den Löwenreliefs an der Außenfassade geschuldet. Der Gebetsraum wird im typischen seldschukischen Stil von hölzernen Säulen gestützt. Die Hacı-Bayram-Moschee wurde nach dem Dichter und Gründer des Bairami-Sufiordens, Hacı Bayram-i Veli benannt, dessen Grabmal sich direkt im Hintergarten befindet. Sie wurde 1428 fertiggestellt und besitzt ein Minarett. Unmittelbar angrenzend an die Moschee steht die Ruine des Augustustempels. Die Moschee steht inmitten eines Viertels mit restaurierten bzw. im osmanischen Stil neu- oder wiedererrichteten Gebäuden. Der Weg zur Moschee ist gesäumt von Läden für religiöse Literatur und Devotionalien. Museen. Eines der international bedeutendsten archäologischen Museen der Türkei ist das Museum für anatolische Zivilisationen, das als Schwerpunkt Exponate der Epochen bis zum Beginn des ersten vorchristlichen Jahrhunderts und dabei besonders der Hethiter ausstellt. Mit der jüngeren Geschichte der Republik beschäftigen sich die beiden ehemaligen Parlamente, die in Museen umgewandelt wurden. Auch das Museum im Anıtkabir behandelt das Thema und zeigt neben Habseligkeiten des Staatsgründers auch Schlachten audiovisuell auf Panoramaleinwänden. Es beherbergt zudem Nationalgemälde und Porträts des Staatsgründers und der beteiligten Generalität. Auf dem "Namazgah" Hügel liegen zwei im "ersten nationalen Stil" erbaute Museen. Das Ethnografische Museum Ankara ist ein 1930 erbautes Volkskundemuseum und stellt schwerpunktmäßig Exponate ab der seldschukischen Zeit aus: Koch-, Wohn- und Arbeitsumgebung und diverse Kunstformen der Nomaden und sesshaften Bewohner Anatoliens. Daneben liegt das Staatliche Kunst- und Skulpturenmuseum, welches als Zentrale der Türk Ocağı und Halkevleri genutzt wurde und heute als Kunstmuseum dient. Das 2006 eröffnete Çengelhan Rahmi M. Koç Museum befindet sich in der ehemaligen Çengelhan-Karawanserei und ist namentlich dem Sohn des türkischen Wirtschaftspionier Vehbi Koç gewidmet. Das Industriemuseum beinhaltet Maschinen und Gerätschaften aus dem Zeitalter der beginnenden Industrialisierung (Kommunikation, Navigation, Landwirtschaft). Daneben gibt es zwei Wissenschaftsmuseen in der Stadt, das "Feza Gürsey Science Center" in Altinpark und das Technologie- und Wissenschaftsmuseum der ODT-Universität ("ODTÜ Bilim ve Teknoloji Müzesi"). Bühnen. Die Opera Sahnesi (Deutsch: "Opernbühne") ist das größte der insgesamt drei Opernhäuser in Ankara. Es gehört zu den Türkischen Staatstheatern ("Devlet Tiyatroları"). Folgende Bühnen in Ankara gehören zu den Türkischen Staatstheatern: 125. Yıl Çayyolu Sahnesi, Büyük Tiyatro („Große Bühne“), Küçük Tiyatro („Kleine Bühne“), Şinasi Sahnesi, Akün Sahnesi, Altındağ Tiyatrosu, İrfan Şahinbaş Atölye Sahnesi, Oda Tiyatrosu ("Oda Tiyatrosu"), Mahir Canova Sahnesi, Muhsin Ertuğrul Sahnesi. Des Weiteren befinden sich in Ankara fünf klassische Orchester: Seymen. Äquivalent zu den in Westanatolien lokalisierten Zeybeks gibt es auch in Inneranatolien und besonders in Ankara die sogenannten "Seymen". Diese waren zu seldschukischen Zeiten bewaffnete Sicherheitskräfte. Heute sind sie in Vereinen organisiert und führen bei besonderen Anlässen in traditioneller Tracht, mit Turban und Krummsäbel in kleinen Gruppen ihre charakteristischen Tänze vor. Anlässe sind nationale Feiertage. Ein wichtiger lokaler Feiertag – und besonders für die Seymen – ist die Ankunft Mustafa Kemals in Ankara am 27. Dezember 1919. An diesem Tag wurde Mustafa Kemal als Organisator des anatolischen Widerstands von einer großen Gruppen tanzender Seymen mit Zurna und Davul in Empfang genommen, welches bei diesem Fest folkloristisch nachgebildet wird. Sport. Zur Saison 2012/2013 spielt ein Fußballverein in der Süper Lig, der höchsten türkischen Spielklasse: "Gençlerbirliği SK". Der Verein spielt im Leichtathletikstadion Ankara "19 Mayıs", das 21.250 Zuschauern Platz bietet. Hinter den İstanbuler Vereinen sind Vereine aus Ankara (MKE Ankaragücü, Ankara Şekerspor), jedoch eher zweitrangig und somit international weitgehend unbekannt. Weitere Sportmöglichkeiten sind zum Beispiel Skifahren auf dem Elmadağ, dem Hausberg von Ankara, oder Schlittschuhlaufen im Eisstadion. Des Weiteren gibt es noch mit Türk Telekomspor einen Basketballerstligisten. Sonstiges. Ankara ist die Heimat der Türkisch Angora, einer Katzenrasse, die als älteste Langhaar-Rasse der Welt gilt.
149
36246
https://de.wikipedia.org/wiki?curid=149
Atheismus
Atheismus (von „ohne Gott“) bezeichnet die Abwesenheit oder Ablehnung des Glaubens an einen Gott oder Götter. Im Gegensatz dazu bezeichnen Deismus und Theismus ( „Gott“) den Glauben an Götter, wobei der Monotheismus den Glauben an einen Gott und der Polytheismus den Glauben an mehrere Götter bezeichnet. Zum Atheismus im weiteren Sinne zählen einige auch den Agnostizismus (agnostischer Atheismus), nach dem eine Existenz von Gott oder Göttern ungeklärt oder nicht klärbar ist. Im engeren Sinne bezeichnet er die Überzeugung, dass es Gottheiten nicht gibt. Begriffsweite und -herkunft. Die begriffliche Spannbreite von "Atheismus" umfasst einerseits die „weiten“ Begriffsbedeutungen, die ein Dasein ohne Glauben an Gott, entsprechende Lebensweisen und diesbezügliche Begründungen einschließen (auch als „Nichttheismus“ begriffen), und andererseits „enge“ oder „starke“ Bedeutungen, die in Hinsicht auf Götterbehauptungen verneinend, gegebenenfalls kämpferisch oder mit Gegenbeweisen vertreten werden (auch bezeichnet als „Antitheismus“). Im antiken Griechenland wurde der Atheismus-Begriff mit dem Alpha privativum gebildet "(A-theismus)", er hat verschiedene altgriechische Varianten (Substantiv: im Sinne von „Gottlosigkeit, Gottesleugnung, Unglaube“) und er war in Asebie-Prozessen ein hinreichender Anklagepunkt. Die latinisierte Form „Atheismus“ findet sich erstmals bei Cicero, seit Ende des 16. Jahrhunderts erscheint sie im deutschen Schrifttum (frühneuhochdeutsch "Atheisterey") und sie gilt seit Beginn des 18. Jahrhunderts als eingedeutscht. In der Zeit der Aufklärung waren es zunächst Freidenker, Deisten, Pantheisten und Spinozisten, die von Philosophen und etablierten Kirchen als Atheisten bezeichnet und bezichtigt wurden. Ein Teil der Enzyklopädisten war dem Atheismus besonders verbunden. Als Kampfbegriff diente und dient (zumeist in den Südstaaten der USA) "Atheist" auch zur moralischen Diffamierung derjenigen, welche zwar den Theismus akzeptierten, aber in Einzelaspekten von der herrschenden Gotteslehre abwichen. Jedoch wird in der Regel als Atheist bezeichnet, wer es ausdrücklich verneint, an Gott oder Götter zu glauben. Agnostiker, die an keinen Gott glauben, werden vielfach zu den Atheisten im weiteren Sinne gezählt, obgleich nicht alle damit einverstanden sind. Agnostische Ansichten, nach welchen auch die Nichtexistenz Gottes nicht erkannt werden kann, sind hierbei nicht benannt. Der Agnostizismus vereint unterschiedliche Ansichten; daher ist die Zuordnung des Agnostizismus zum Atheismus umstritten (und umgekehrt). Umstritten ist auch die Zuordnung des Positivismus zum Atheismus. Der Philosoph Alfred Jules Ayer, Vertreter des "logical positivism" (Logischer Empirismus), betont, dass seine Position zu Sätzen wie „Gott existiert“ weder mit Atheismus noch mit Agnostizismus verwechselt werden sollte. Er halte solche Sätze für metaphysische Äußerungen, die weder wahr noch falsch seien. Charakteristisch für einen Atheisten sei hingegen die Ansicht, „dass es zumindest wahrscheinlich ist, dass es keinen Gott gibt“. Ob auch Positionen als „Atheismus“ bezeichnet werden sollen, die keine Gottheit annehmen, jedoch nicht auf Religionslosigkeit reduzierbar sind, wie etwa im Jainismus oder Konfuzianismus, ist in der Literatur umstritten. Teils wird vorgeschlagen, die explizite Ablehnung theistischer Positionen als „theoretischen“, und die Lebenspraxis (die sich vollzieht, „als ob“ ein Numinoses nicht existierte) als „praktischen Atheismus“ zu bezeichnen. Seit dem 19. Jahrhundert wird der Begriff „Atheismus“ in einem naturalistischen Sinne teilweise so eng geführt, dass er gegen alle supernaturalistischen Auffassungen gerichtet wird, die mit einem Glauben an übernatürliche Wesen, Kräfte oder Mächte göttlicher wie nichtgöttlicher Art verbunden sind (Animismus, Spiritismus, mono- und polytheistische Religionen). Dies wird zu Beginn des 21. Jahrhunderts oft als „Neuer Atheismus“ bezeichnet, wenn die Argumentation als naturwissenschaftlich ausgewiesen ist. Gesellschaftliche Aspekte. Demographische Merkmale. Umfragen zum Thema Atheismus werfen methodische Probleme auf, da es schwierig ist, eine einheitliche Abgrenzung zwischen Säkularisten, Humanisten, Nichttheisten, Agnostikern und spirituellen Personen vorzunehmen. Immer mehr verschwimmt die Grenze zwischen Gläubigen und Nichtgläubigen. Das "The World Factbook" der CIA schätzte im Jahre 2010: Atheisten 2,32 %, Nichtreligiöse 11,77 %, Christen 33,32 % (darunter 16,99 % römisch-katholisch), Muslime 21,01 %. In seiner „Bilanz des Unglaubens“ meint Georges Minois, es kursierten Unmengen an Zahlen, „die allesamt falsch sind“. Allenfalls könne man aus ihnen ersehen, dass mehr als ein Fünftel der Menschheit nicht mehr an einen Gott glaube. Minois präsentiert selbst Schätzungen für das Jahr 1993 – weltweit 1,2 Milliarden Agnostiker und Atheisten – sowie für das Jahr 2000 – etwa 1,1 Milliarden Agnostiker und 262 Millionen Atheisten, und zum Vergleich etwa 1,2 Milliarden Gläubige für den Islam und 1,1 Milliarden für die katholische Kirche. Laut dem Eurobarometer 2010 glaubten 20 % der Bürger der damals 27 EU-Staaten weder an Gott noch an eine spirituelle Kraft. Eine Mehrheit von 51 % glaubte an Gott und 26 % an „eine Art von spiritueller Kraft“; 3 % äußerten sich nicht. Zwischen den einzelnen Ländern gab es große Unterschiede; so war der Anteil der Gottesgläubigen in Malta mit 94 % und Rumänien mit 92 % am höchsten und mit 16 % in Tschechien und 18 % in Estland am geringsten. In Deutschland, Österreich und der Schweiz wurden je 44 % ermittelt. Die Anzahl der Einwohner, die angaben, weder an Gott, noch an eine spirituelle Kraft zu glauben, war im Jahr 2010 mit 40 % in Frankreich und 37 % in Tschechien am höchsten und betrug in Deutschland 27 %, in Österreich 12 % sowie 11 % in der Schweiz. Laut dem Eurobarometer 2005 glaubten mehr Frauen (58 %) an Gott als Männer (45 %); der Glaube an Gott korrelierte positiv mit dem Alter, politisch konservativer Einstellung und geringer Schulbildung. In den USA liegt die Zahl der Personen, die an Gott oder eine höhere Macht glauben, bei 91 %. Das Worldwide Independent Network und die Gallup International Association befragten im Zeitraum zwischen 2011 und 2012 fast 52.000 Personen aus 57 Ländern zu ihren religiösen Einstellungen. 13 % der befragten Personen bezeichneten sich als „überzeugte Atheisten“, 23 % nannten sich „nicht-religiös“ und 57 % gaben an, eine religiöse Person zu sein. Laut der Studie sind 15 % der Bevölkerung in Deutschland überzeugte Atheisten. China (47 %) und Japan (31 %) sind die Länder mit dem höchsten Anteil an überzeugten Atheisten. Zwischen 2005 und 2012 hat sich der Anteil religiöser Personen weltweit um 12 % (9 Prozentpunkte) verringert, während der Anteil von Atheisten um 75 % (3 Prozentpunkte) gestiegen ist. In manchen Ländern ist dieser Trend besonders ausgeprägt: In Vietnam, Irland und der Schweiz ging der Anteil der Personen, die sich selbst als religiös bezeichnen, zwischen 2005 und 2012 um 43, 32 und 30 % bzw. um 23, 22 und 21 Prozentpunkte zurück. Der Anteil an Atheisten ist nach Erhebungen in den USA bei Wissenschaftlern besonders hoch: Nur sieben Prozent der Mitglieder der amerikanischen Akademie der Wissenschaften glauben an die Existenz eines personalen Gottes. Eine Umfrage unter Mitgliedern der American Association for the Advancement of Science von 2009 ergab, dass 51 % der amerikanischen Wissenschaftler an Gott oder eine höhere Macht glauben, wesentlich weniger als in der Allgemeinbevölkerung. Der Anteil der atheistischen Wissenschaftler hat sich im Laufe des 20. Jahrhunderts nicht wesentlich verändert. So ergab eine Umfrage des Psychologen James H. Leuba im Jahr 1914, dass 42 % der amerikanischen Wissenschaftler an einen persönlichen Gott glaubten und ebenso viele nicht. Im Jahre 1996 wiederholte der Geschichtswissenschaftler Edward J. Larson die Umfrage von Leuba mit den gleichen Fragen und der gleichen Anzahl Personen und kam auf 40 % gläubige und 45 % atheistische Wissenschaftler. Eine im November 2013 veröffentlichte Metaanalyse von 63 Einzelstudien kam zu dem Ergebnis, dass Atheismus oder ein Nicht-Glauben an Gott signifikant (Korrelationskoeffizient: − 0,24) mit Intelligenz zusammenhängt (Intelligenz wurde in den meisten Studien erfasst durch den g-Faktor). Mehrere Forschungen ergaben einen positiven Zusammenhang zwischen Religiosität und Geburtenziffer. So hatten im Jahr 2002 in Deutschland Menschen, die sich selbst als nicht religiös bezeichneten, mit durchschnittlich 1,4 Kindern deutlich weniger Kinder als Menschen, die sich als religiös bezeichneten (durchschnittlich 1,9 Kinder). Das Institut der deutschen Wirtschaft kam bei einer Auswertung der weltweit erhobenen Daten des World Values Survey zu ähnlichen Ergebnissen. Politische Wechselwirkungen. Im Lauf der Geschichte kamen Atheisten vielfach mit politischen Autoritäten in Konflikt. Die Äußerung atheistischer Ansichten wurde noch im Jahre 2013 in zahlreichen Ländern mit Freiheitsentzug bestraft, in 13 Ländern sogar mit dem Tod. In der Neuzeit wurden gesellschaftliche Bereiche einschließlich der Politik, des Rechts und der Religionsausübung zunehmend autonom. Die Trennung von Kirche und Staat wurde mit Hilfe aufklärender Bewegungen verfassungsrechtlich verankert und dann durch staatskirchenrechtliche Bestimmungen ausgeformt. Diese Trennung wird als atheistisch bezeichnet (insbesondere im Laizismus). In Abgrenzung zu religiös-politischen oder auch staatsatheistischen Machthabern garantiert das rechtsstaatliche Prinzip eine weltanschauliche Neutralität in einer prozessual grundlegenden Weise. Rechtsstaatliche Verfassungsorgane sind in ihren Entscheidungen nicht nur von religiösen, sondern auch von sonstigen externen Einflüssen entsprechend entbunden und stattdessen vorrangig einer Verfassung verpflichtet, die in modernen Staaten auf Freiheitsklauseln basiert. Die entsprechend neutrale Rechtsbildung führte auch gegen politische Widerstände zu einer zunehmend rechtswirksamen Tolerierung atheistischer Positionen und Lebensgestaltungen in der modernen Welt. Heute enthalten die Verfassungen vieler demokratischer Staaten das Menschenrecht auf Religionsfreiheit und darin eingeschlossen das Recht, Atheist zu sein oder zu werden. Nicht in allen diesen Staaten gibt es eine strenge Trennung von Staat und Religion, zumal Religionen aus Kultur- und Selbstbestimmungsgründen unterschiedlich stark geschützt werden (beispielsweise durch ein Recht auf Religionsunterricht). Hinzu kommt der Gottesbezug in Verfassungen. So beginnt die Präambel des Grundgesetzes für die Bundesrepublik Deutschland mit den Worten: „Im Bewusstsein seiner Verantwortung vor "Gott" und den Menschen …“. Die Präambel der Bundesverfassung der Schweizerischen Eidgenossenschaft beginnt mit den Worten: „Im Namen Gottes des Allmächtigen!“ Im Jahre 1998 scheiterte bei einer Totalrevision der Verfassung ein Vorstoß, diese Präambel zu streichen. Einige heutige Strafgesetzbücher enthalten Regelungen, die die Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen als einen Straftatbestand ansehen. Atheistische Religions- oder Kirchenkritiker wurden infolgedessen in der Vergangenheit nach öffentlichen Äußerungen wiederholt strafrechtlich verfolgt. Auf der anderen Seite war Atheismus Bestandteil der marxistisch-leninistischen Staatsdoktrin, zum Beispiel in der Sowjetunion und in der Deutschen Demokratischen Republik, so dass Formen der Religionsausübung in den staatlich gelenkten Erziehungseinrichtungen keinen Ort hatten und politisch bekämpft wurden. Die Entkirchlichung Ostdeutschlands wird von Richard Schröder als die wohl wirksamste Hinterlassenschaft des SED-Regimes angesehen. Seinen Angaben zufolge waren im Jahre 1950 noch 91,5 Prozent der DDR-Bürger Kirchenmitglieder, 1964 noch 67,4 Prozent und am Ende der DDR etwa 25 Prozent. Diese Entwicklung setzt sich auch nach der Wiedervereinigung fort, so ging der kirchlich gebundene Bevölkerungsanteil weiter zurück und liegt in Großstädten wie Magdeburg oder Halle mittlerweile nur noch bei rund 15 %. Die Mitgliederschaft der beiden größeren Kirchen in Ostdeutschland ist darüber hinaus in hohem Maße überaltert und wird daher weiterhin abnehmen. Die von staatlicher Seite als Fortschrittsdoktrin gelehrte, marxistisch grundierte atheistische Weltanschauung wird von Kritikern wie Herbert Schnädelbach als „konfessioneller Atheismus“ und „Staatsreligion“ oder „Staatsatheismus“ bezeichnet. In Albanien wurde 1967 (bis 1990) ein totales Religionsverbot ausgerufen, und das Land bezeichnete sich als „erster atheistischer Staat der Welt“. Im gesamten so genannten Ostblock wurde der Atheismus gefördert, während gelebte Religiosität zumindest argwöhnisch betrachtet wurde, oft auch mit Nachteilen verbunden war oder gar gezielt verfolgt wurde, wie etwa bei den Christenverfolgungen unter Stalin. NGOs zufolge werden auch heute noch religiöse Gruppen und Einzelpersonen in manchen sich selbst als „atheistisch“ verstehenden Staaten wie Nordkorea verfolgt und oftmals inhaftiert, gefoltert und getötet. Der Atheismus wird aktiv gefördert, beispielsweise im Humanismus, im Existentialismus und durch die Freidenkerbewegung. Zu großen Anteilen sind der Sozialismus, Kommunismus und Anarchismus atheistisch geprägte Weltanschauungen. In den beiden letzten Jahrzehnten des 20. Jahrhunderts, so Georges Minois in seiner "Geschichte des Atheismus", habe der Eifer des antireligiösen Kampfes nachgelassen: Bedeutung im Wissenschaftskontext. Eine Orientierung an naturwissenschaftlichen Erklärungsmodellen lässt für einige Wissenschaftler früh die „Gotteshypothese“ als methodisch unzulässig erscheinen, da sie keine wissenschaftlich beobachtbaren Konsequenzen habe, mithin auch keine wissenschaftlich beschreibbaren Phänomene erkläre. Eine derartige Ausklammerung Gottes aus wissenschaftlicher Forschung wird als methodischer oder methodologischer Atheismus bezeichnet. Er impliziert allerdings keinen theoretischen Atheismus, behauptet also nicht, dass Gott nicht existiert. Daher wird manchmal präziser von „methodischem Noninterventionismus“ gesprochen. Die Frage, ob wissenschaftliches Denken und die Annahme eines Gottes überhaupt dergestalt in Beziehung treten können, dass eine gegenseitige Bestätigung oder Widerlegung denkbar ist, wird unter Wissenschaftstheoretikern kontrovers beurteilt. Auch in populärwissenschaftlichen Schriften finden sich gegenteilige Annahmen. Einige, z. B. Stephen Jay Gould und John Polkinghorne, vertreten den Standpunkt, dass die Wissenschaft mit der Religion nicht in Konflikt stehe, da sich erstere mit Empirie, letztere hingegen mit Fragen letzter Begründung und mit moralischen Werten befasse. Andere, z. B. Richard Dawkins, Steven Weinberg und Norman Levitt, argumentieren, dass Theismus mit einer wissenschaftlichen Weltsicht grundsätzlich unvereinbar sei, da Wunder wie die Auferstehung Jesu Christi die Naturgesetze außer Kraft setzen müssten; die Wissenschaft führe demnach zwangsläufig zu Atheismus, Deismus oder Pantheismus. Bis zur Mitte des 20. Jahrhunderts gab es noch mehrere wirkungsmächtige, intellektuell sogar hegemoniale „wissenschaftliche Weltanschauungen“, darunter den Marxismus in mehreren politischen Ausformungen, die Psychoanalyse oder den Neopositivismus, die erklärtermaßen atheistisch waren und den Religionen eine schädliche Wirkung zuschrieben. Atheismus und Moral. Mit anderen vertrat Immanuel Kant die Auffassung, dass moralische Prinzipien auch ohne Rückgriff auf höhere Wesen in der menschlichen Vernunft oder in der Natur zu gründen seien. Recht und Moral gäben die Möglichkeit, Maximen von Freiheit und Handlungen unter allgemeinen (Vernunft-)Gesetzen bestehen zu lassen. Zumindest sollte hier ableitbar sein, dass die Beurteilungskriterien rational verhandelbar seien. Vor allem in kirchlichen Kreisen wird die Meinung vertreten, dass mit dem fehlenden Glauben an Gott die Verneinung moralischer Werte im Sinne eines Nihilismus einhergehe. So bezeichnet der evangelikale Religionswissenschaftler und Publizist Ravi Zacharias den Atheismus als „jeden Wertes beraubt“ und bestreitet, dass es fundierte moralische Prinzipien ohne Rückgriff auf höhere Wesen geben könne. Der katholische Staatsrechtler und vormalige Verfassungsrichter Ernst-Wolfgang Böckenförde wird mit der Formel zitiert: „Der freiheitliche, säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ Dieses sogenannte Böckenförde-Diktum wird teilweise so gedeutet, dass Demokratien auf religiöse Bindungen als Garanten gemeinsamer Grundwerte angewiesen seien. Gegen diese Deutung wendet sich Gerhard Czermak. Er meint, Böckenförde werde „gründlich missverstanden, wenn nicht instrumentalisiert“, sofern aus seinem Diktum abgeleitet werde, Empirische Ergebnisse zur Moral und ihre Interpretation. Auch empirisch ist das Verhältnis von Religion und Moral nicht geklärt. Einige Untersuchungen legen nahe, dass persönliche Moral nicht von persönlicher Religiosität abhängig ist. So fanden z. B. Franzblau bei Atheisten größere Ehrlichkeit, und Ross bei Atheisten größere Hilfsbereitschaft gegenüber Armen. Gero von Randow entnimmt sozialpsychologischen Studien „eine auffallend geringe Kriminalität unter Nichtgläubigen. Das sollte umgekehrt auch nicht zu ihren Gunsten ins Feld geführt werden, denn sie sind tendenziell sozial besser gestellt und gebildeter als die Gläubigen, jedenfalls im Westen; wir haben es hier also nicht mit einem Religions-, sondern mit einem Klasseneffekt zu tun.“ Eine Trennung von Moral und Theismus stellt die Auffassung dar, die unter anderem John Leslie Mackie in seinem Buch "Ethik" und Richard Dawkins in seinem Buch "Der Gotteswahn" ausführen, nämlich dass Moral an den Prozess der biologischen Evolution gekoppelt und Ergebnis eines gesellschaftlich beeinflussten Entwicklungsprozesses sei. Hieraus könne folgen, dass die menschliche Moral auch dann Bestand habe, wenn Religionen in Verfall gerieten. Empirische Ergebnisse zur Sinnsuche. Laut einer empirischen Studie ist Atheismus (ebenso wie sich nicht einer Religionsgruppe zugehörig zu fühlen) mit der Vorstellung verbunden, dass das Leben dann sinnvoll ist, wenn man ihm selbst Sinn gibt. Dagegen unterscheiden sich Atheisten und Theisten nicht hinsichtlich ihrer Neigung zu Fatalismus oder Nihilismus. Abgrenzungen zu religiösen Orientierungen. Aus atheistischer Perspektive erscheint das Handeln aufgrund angeblich göttlicher Gebote fragwürdig, weil die Bewertung eines Verhaltens oder einer Handlung nicht von den Folgen für die Betroffenen abhängt, also auf die zwischenmenschliche Ebene zielt, sondern als ethisch wünschenswert hauptsächlich vermittels der extrinsischen Festsetzung eines transzendenten Wesens gilt. Ein Mord zum Beispiel wäre nach streng theistischer Auffassung nicht bereits wegen der Folgen für das Opfer eine schlechte, zu verurteilende Handlung, sondern auf der Grundlage göttlicher Gebote. „Es erscheint als höchst problematisch, etwas so Notwendiges wie die Moral auf die Basis von so Dubiosem – wie es der religiöse Glaube ist – stellen zu wollen. Wie sollte auf diese Weise eine wirkliche Orientierung und Lebenskunde möglich sein?“, schreibt Gerhard Streminger. Bereits Platon hatte in seinem frühen Dialog „Euthyphron“ mit dem sogenannten Euthyphron-Dilemma darauf hingewiesen, dass es generell unmöglich sei, das moralisch Gute im Rückgriff auf ein göttliches Prinzip zu begründen. Auch nach Kant kann die Verpflichtung eines Menschen zur Moralität prinzipiell nicht dadurch begründet werden, dass man auf die „Idee eines andern Wesens über ihm“, also auf einen Gott verweist. Dem Argument, ohne ein von einer göttlichen Instanz gegebenes, für jeden Menschen gleichermaßen verbindliches Gesetz sei es schwieriger, eine gemeinsame ethische Grundlage für eine Gesellschaft zu finden, halten manche Atheisten entgegen: Keine Religion könne überzeugend begründen, warum ihr Gesetz von einer göttlichen Instanz gegeben worden sein sollte und deshalb Allgemeinverbindlichkeit beanspruchen können sollte. Nicht einmal die Existenz irgendeiner göttlichen Instanz könne überzeugend begründet werden. So dürfe man davon ausgehen, dass die Gesetze der Religionen ebenso von Menschen gemacht seien wie alle anderen Gesetze und Verhaltensregeln: teilweise auf der Basis von Vernunft und Einsicht, teilweise auf der Basis der Interessen derjenigen, die über genug Macht verfügten, um ihre Vorstellungen durchzusetzen. Während einerseits Gesetze einer göttlichen Instanz als Hilfsmittel zur Stabilisierung des sozialen Miteinanders angesehen werden, vertreten manche Atheisten die Auffassung, dass der Anspruch der Religionen auf Allgemeinverbindlichkeit ihrer Gesetze es oftmals erschwert habe, eine gemeinsame ethische Grundlage für eine Gesellschaft zu finden. Nicht selten habe der Versuch, diese Allgemeinverbindlichkeit durchzusetzen, zu Verfolgungen, Vertreibungen oder gar Glaubenskriegen geführt. Umgekehrt wird auf Christenverfolgungen gemäß atheistischer Staatsdoktrin verwiesen. Atheisten halten eine religiöse Überzeugung für die Erarbeitung einer gemeinsamen (moralisch-)ethischen Grundlage vielfach eher für hinderlich: Viele Gläubige fühlten sich an göttliche Gesetze gebunden und seien vermutlich deshalb weniger bereit, ihre Vorstellungen in Zusammenarbeit mit anderen Menschen weiterzuentwickeln. „Prallen Anhänger religiös fundierter Ethiken aneinander, so sind Konflikte in vernünftiger Weise kaum zu lösen, da alle sich von Gott geleitet fühlen; alle glauben, dass die eigenen Gebote objektiv gegeben, eben gottgewollt seien“, schreibt Gerhard Streminger. Einige Gläubige hingegen betrachten die (moralisch-)ethischen Vorstellungen, die ihre Religion mit verwandten Religionen gemeinsam hat, als gute Grundlage für Zusammenarbeit und Weiterentwicklung. Ein Problem mangelnder Bereitschaft zur Weiterentwicklung ethischer Vorstellungen kann aus atheistischer Sicht darin liegen, dass die Anpassung von Verhaltensregeln an neue gesellschaftliche Gegebenheiten verhindert wird. Für die ethische Beurteilung einer Scheidung zum Beispiel sei zu berücksichtigen, ob die Frau als Konsequenz daraus materieller Not und gesellschaftlicher Ächtung ausgesetzt wäre, oder ob sie materiell abgesichert und gesellschaftlich akzeptiert bliebe. Atheistisch-weltanschauliche Gruppierungen. Während Glaubensvertreter den Atheisten vielfach die für ein funktionierendes gesellschaftliches Zusammenleben nötige ethische Fundierung absprechen, findet andererseits – hauptsächlich in der westlichen Welt – seit einigen Jahrzehnten eine lebhafte Auseinandersetzung darüber statt, ob nicht atheistischer Humanismus eine zeitgemäßere Grundlage für eine allgemeine Ethik bietet als die tradierten Religionen. "Deutschsprachige Gruppierungen, Stiftungen und Dachverbände:" "Im Ausland tätige Gruppierungen, Stiftungen und Dachverbände:" "Internationale Bewegungen, Dachverbände und Komitees:" Religiöser Atheismus. Die Frage, was an einer Haltung religiös sein könne, in der Gott offensichtlich keine Rolle spielt, behandelte Ronald Dworkin in seinen Vorlesungen zu Albert Einstein. Seine Antwort: „Religion ist etwas Tieferes als Gott.“ „Er verstand sich als religiöser Atheist, das heißt: Er glaubte zwar nicht an Gott, wohl aber an die sinnhafte Einheit des Kosmos und die Versöhnung von Glauben und Wissen.“ Während Theisten sie als von Gott geboten betrachten, argumentiert Dworkin, unsere ethischen Überzeugungen „könnten wir nicht haben, ohne zu denken, dass sie objektiv wahr sind“. Atheismus als religiöses Bekenntnis. Einige Atheisten verstehen ihre Weltanschauung als religiöses Bekenntnis und streben auf dem Wege einer religionsrechtlichen Anerkennung als Religionsgemeinschaft eine Gleichberechtigung und staatliche Gleichbehandlung an. Eine deutschsprachige Gruppierung dieses Typs ist die Atheistische Religionsgesellschaft in Österreich. Am 30. Dezember 2019 brachte sie den Antrag auf Feststellung des Erwerbs der Rechtspersönlichkeit als staatlich eingetragene religiöse Bekenntnisgemeinschaft „Atheistische Religionsgesellschaft in Österreich“ beim Kultusamt im österreichischen Bundeskanzleramt ein. Freireligiöse Bewegung. Laut Eigendarstellung der freireligiösen Bewegung gibt es unter den Freireligiösen auch Atheisten oder atheistisch-religiöse Positionen. Jüdischer und christlicher Atheismus. Die Religionskritik der Bibel ist der Ausgangspunkt eines jüdischen und christlichen Atheismus. Das Judentum beschreibt Douglas Rushkoff, Professor für Kommunikationstheorie an der New York University, aufgrund der Bilderlosigkeit des biblischen Gottes als Ausweg aus der Religion ("Nothing Sacred: The Truth about Judaism", 2004). In den 1960er Jahren bildete sich in den USA eine Gruppe von Theologen, welche unter dem Satz „Gott ist tot“ einen christlichen Atheismus proklamierte. Vertreter dieser Richtung sind der Theologe Thomas J. Altizer ("The Gospel of christian atheism", 1966), William Hamilton ("Radical Theology and the Death of God", 1966), Paul van Buren ("The secular meaning of the Gospel", 1963) oder Gabriel Vahanian ("The death of God", 1961). Der „Tod Gottes“, also die vermeintliche Unmöglichkeit, in der modernen Welt rational an einen Gott zu glauben, sei, so beispielsweise J. Altizer, eine gute Nachricht, da sie den Menschen von einem transzendenten Tyrannen befreit habe. Die säkulare Botschaft der Evangelien beziehe sich gemäß Paul van Buren allein auf den „Befreier“ Jesus von Nazaret. Während der Glaube an einen (jenseitigen) Gott abgelehnt wird, steht bei den „christlichen Atheisten“ die ethisch-moralische Botschaft Jesu, die rein auf das Diesseits bezogen wird, im Mittelpunkt. In der Zeit nach dem Zweiten Weltkrieg hat sich auch eine Verknüpfung von Atheismus und Christentum entwickelt, die sich explizit auf das Schweigen Gottes angesichts der Ermordung von Millionen von Juden durch deutsche Nationalsozialisten im Holocaust bezieht. Die deutsche Theologin Dorothee Sölle ist die bekannteste Vertreterin dieser Richtung. Beeinflusst wurden einige Theologen der „Gott-ist-tot-Theologie“ auch durch die religionsphilosophischen Gedanken Ernst Blochs im dritten Band seines Hauptwerkes Das Prinzip Hoffnung. 1968 hat Bloch Gedanken daraus zusammengefasst, präzisiert und erweitert in dem Buch "Atheismus im Christentum", in dem sich der Satz findet: Dorothee Sölle, von Bloch beeinflusst, veröffentlichte ebenfalls 1968 ein Buch mit einem ganz ähnlichem Titel: "Atheistisch an Gott glauben." Atheismus bedeutet bei Ernst Bloch wie auch bei Dorothee Sölle nicht den Verzicht auf Sinnhaftigkeit oder Transzendenz, sondern die Abkehr von einem allzu theistischen Gottesbild, der Vorstellung eines Gottes, der als allmächtiger, allwissender und allgegenwärtiger Gott Not und Leid bis hin zu Auschwitz zugelassen hat. In der Dekonstruktion und in der Nachfolge des Denkens von Emmanuel Levinas und Jacques Derrida fand sich ein weiterer Ansatz der Ausarbeitung eines christlichen Atheismus. Vertreter sind unter anderem Peter Rollins und Jean-Luc Nancy ("Dekonstruktion des Christentums" 2008). Kurzgefasst kann man darin die Vereinnahmung der Geste der Dekonstruktion sehen, in der der Sohn das Gesetz, die Arché des Vaters auflöst, indem er aber selbst vom Gesetz verurteilt wird. Damit werden messianische Ansätze des späten Derrida mit seinem Denken über die différance verbunden. Buddhismus. Der Buddhismus kennt keinen Glauben an einen Schöpfergott. Manche buddhistische Schulen nehmen aber in ihrer Kosmologie die Existenz zahlreicher anderer Ebenen der Wirklichkeit an, auf denen sowohl besser- als auch schlechtergestellte Wesen existieren, von denen die höheren Wesen den hinduistischen Göttern (Devas und Asuras) entsprechen. Diese Götter sind allerdings wie alle Wesen selbst im Existenzkreislauf, Samsara, gefangen; im Sinne der Wiedergeburtslehre kann jedes Wesen irgendwann auch als "Deva" geboren werden, wenn das entsprechende Karma (in diesem Fall überaus große Freigiebigkeit oder Samadhi-Erfahrungen) angesammelt wurde. Im Mahayana- oder nördlichen Buddhismus verehrt man darüber hinaus Wesen, die selbst Buddhas oder Bodhisattvas geworden sind. Durch den Respekt, den man diesen entgegenbringt, entsteht eine der notwendigen Grundlagen, selbst diesen Zustand zu erlangen. Daher werden im Buddhismus zahlreiche Statuen, Stupas und Tempel errichtet, die Objekte der Verehrung sind. Diese Wesen sind aber keine Götter, sondern Vorbilder. Im Theravada- oder südlichen Buddhismus ist das Ziel Arhatschaft, also Befreiung ohne Wiederkehr, sodass Arhats nur in der letzten Phase ihres letzten Lebens verehrt werden können. Daneben gibt es auch hier zahllose Stupas, Tempel, Buddhastatuen und Bildnisse früherer Arhats, zum Teil sogar von Bodhisattvas. Die Frage nach einem Schöpfergott wird als unfruchtbare metaphysische Spekulation zurückgewiesen und stattdessen die Ergründung der eigenen Erkenntnismöglichkeiten betont. Islam. Der Atheismus wird gemäß islamischen Recht bekämpft. Der Koran nennt keine diesseitigen Strafen für den „Abfall vom Islam“, worunter auch die Zuwendung zum Atheismus fällt. Im islamischen Recht, der Scharia, ist diese jedoch auf Grundlage von Hadithen und Idschmāʿ mit der Todesstrafe zu ahnden. Im Sudan (StGB aus dem Jahre 1991, Art. 126), Republik Jemen, Iran, Saudi-Arabien, Katar, Pakistan, Afghanistan, Somalia und in Mauretanien (StGB aus dem Jahre 1984, Art. 306) kann Abfall vom Islam noch heute mit dem Tode bestraft werden. Auch in Ländern, die keine islamischen Gerichtshöfe mehr haben, deren staatliche Rechtsordnung sich aber weiterhin an der Scharia orientiert, kann der bekundete „Abfall vom islamischen Glauben“ zivilrechtliche (Erbrecht, Eherecht) und strafrechtliche Konsequenzen haben. Ungeachtet der religiösen Dominanz gab es in der muslimischen Geschichte stets atheistische Persönlichkeiten, darunter der arabische Dichter Abū l-ʿAlāʾ al-Maʿarrī und der persische Mathematiker wie Dichter Omar Chayyām. Pantheismus. Im pantheistischen (griechisch: Allgottlehre) Gotteskonzept nimmt die Alleinheit des Universums die Schöpferrolle ein. Gott und Natur sind demnach gewissermaßen identisch. Da es im Pantheismus keinen "persönlichen" Gott gibt, wurde und wird der Pantheismus sowohl von Theisten als auch von Atheisten manchmal als ein hinter einer religiösen Sprache versteckter Atheismus betrachtet. Arthur Schopenhauer nannte den Pantheismus eine „Euphemie für Atheismus“. „Pantheismus ist nur ein höflicher Atheismus“, heißt es in einem Schopenhauer-Zitat von Ernst Haeckel. Der französische Philosoph Jean Guitton vertritt in seinem Werk die Überzeugung, dass er dem Atheismus die Verlegung des Gottesbegriffs in die Welt nachweisen könne und ordnet ihn daher generell dem Pantheismus zu. Der Pantheismus wird von seinen Anhängern als religionsphilosophische Lehre betrachtet und wurde in früheren Zeiten nicht dem Atheismus zugehörig betrachtet, was sich aber inzwischen geändert hat. Geschichtliche Entwicklung. Atheismus ist „so alt wie das menschliche Denken, so alt wie der Glaube, und der Konflikt zwischen beiden ist ein ständiges Merkmal der abendländischen Zivilisation“, heißt es bei Georges Minois, der Atheismus sowohl ideen- als auch verhaltensgeschichtlich zu erfassen sucht. Für die frühen Hochkulturen ergibt sich allerdings die Schwierigkeit, dass etwa sakrale Gebäude und kultische Schriften zu den vorherrschenden Überlieferungszeugnissen immer schon gehörten, während die weniger auffälligen Zeugnisse von Skeptizismus, Nichtglauben und religiöser Gleichgültigkeit erst in jüngerer Zeit einer intensivierten Forschung unterzogen werden, die etwa auch den asiatischen Raum einschließt. Praktischer und theoretischer Atheismus hatten und haben aber je eigene und einander ergänzende Bedeutung: In Antike und Mittelalter waren sowohl das private als auch das öffentliche Leben in der Regel von religiösen Vorstellungen durchdrungen, wogegen Skepsis und Zweifel eher bei Minderheiten und in intellektuellen Kreisen anzutreffen waren. Während sich die kritischen Auseinandersetzungen innerhalb der römisch-katholischen Kirche im späten Mittelalter verstärkten und in der Reformation einen Höhepunkt fanden, erfuhr der Atheismus im Zeitalter der Aufklärung einen bedeutenden Aufschwung und durch die Französische Revolution eine starke gesellschaftliche Verbreitung. Dies führte zur Säkularisierung und vielfach zur Trennung von Kirche und Staat. Im 19. und 20. Jahrhundert wurden verschiedenste atheistische Positionen mit breitem theoretischem Fundament entwickelt, insbesondere im Marxismus, im Existentialismus und in der analytischen Philosophie. Zudem bestehen im philosophischen Materialismus und im philosophischen Naturalismus Verbindungslinien zum Atheismus. Süd- und Vorderasien. Die frühesten belegbaren Formen des theoretischen Atheismus finden sich in den alten Hochkulturen Süd- und Vorderasiens. In Indien weisen einige der ältesten philosophischen Systeme atheistische Formen auf. Hierzu zählen der Jainismus, das Samkhya (beide entstanden etwa im 6. Jahrhundert v. Chr.) sowie das Vaisheshika und das Nyaya. Insbesondere die Tradition des Samkhya ist im indischen Denken bis heute lebendig geblieben (vergleiche Atheismus in Indien). Klar materialistisch-atheistisch war die indische Schule der Charvaka, die zweifelsfrei seit dem 6./7. Jahrhundert n. Chr. als feste Strömung belegbar ist und mindestens bis ins 16. Jahrhundert existierte. Sie berief sich auf die heute verlorenen „Barhaspati Sutras“. Nach Meinung vieler Indologen war es jedoch kein atheistisches Werk, sondern eine gegen etablierte Religionen skeptische, aber ethische Schrift. Einzelne Skeptiker sind vom 5. Jahrhundert v. Chr. bis zum 6. Jahrhundert n. Chr. überliefert. Der Buddhismus, der im 5. Jahrhundert v. Chr. in Indien entstand, und der Daoismus, der im 4. Jahrhundert v. Chr. in China entstand, kennen keine Schöpfergottheit. In Teilen der Fachliteratur wird der Zervanismus der antiken "Perser" mit dem übergeordneten unpersönlichen Prinzip des Zurvan („Zeit“ und Raum) als eine Form des Atheismus angesehen. Materialistisch und vorwiegend atheistisch war die spätestens seit dem 5. Jahrhundert n. Chr. existierende Strömung der „Zandiks“ oder „Dahri“. Ob die "Hebräer" einen theoretischen Atheismus kannten, ist umstritten. Jean Meslier sah in einigen Stellen des Alten Testaments Belege für die Existenz von Atheisten. So z. B. in Ps 10,3: Diese Interpretation wird von den meisten Exegeten jedoch nicht geteilt. Ihrer Meinung nach würden an den besagten Stellen stets nur bestimmte Eigenschaften Gottes geleugnet, nie aber seine Existenz. Griechisch-römische Antike. Vorsokratiker. Die fragmentarisch überlieferten ontologischen Systeme der Vorsokratiker erklären die Strukturen der Wirklichkeit nicht durch mythische oder ätiologische Erzählungen, sondern durch Zurückführung auf ein oder mehrere Prinzipien. Bei beispielsweise Demokrit oder Epikur kommen hierfür nur materielle Prinzipien in Betracht, so dass ein transzendenter, insbesondere geistiger Gott weder verwendet wird, noch Ort oder Funktion in diesen Systemen bekommen könnte. Andererseits ergeben sich bisweilen Konflikte mit etabliertem religiösem Kult und etablierter Rede über die Götter, weil ontologischen Prinzipien ähnliche oder dieselben Eigenschaften zugeschrieben werden wie den Göttern, etwa, über Naturprozesse zu regieren, ewig zu sein oder Prinzip für Leben und Denken zu sein. Die frühesten Formen einer Kritik der etablierten Gottesvorstellungen beziehen sich vor allem auf unangemessen menschliche Vorstellungsweisen (Anthropomorphismus). Göttern werden z. B. wankelmütige, jähzornige, eifersüchtige und egoistische Charakterzüge abgesprochen, wie sie in den Mythen Hesiods und Homers hervortreten. Beispiele hierfür sind Xenophanes, Heraklit und Protagoras. Xenophanes etwa erklärt die Göttervorstellungen und auch deren Verschiedenheit durch Projektion menschlicher Eigenschaften und formuliert polemisch: <poem> „Stumpfnasig, schwarz: so seh’n Äthiopiens Menschen die Götter Blauäugig aber und blond: so seh’n ihre Götter die Thraker Aber die Rinder und Rosse und Löwen, hätten sie Hände Hände wie Menschen, zum Zeichnen, zum Malen, ein Bildwerk zu formen, Dann würden Rosse die Götter gleich Rossen, die Rinder gleich Rindern Malen, und deren Gestalten, die Formen der göttlichen Körper, Nach ihrem Bilde erschaffen: ein jedes nach seinem.“ </poem> Während derart anthropomorphe Gottesvorstellungen, so der Tenor dieser Kritik, "nichts anderes" sind als eben nur menschliche Vorstellungen, tritt dem als kritisches Korrektiv zunehmend die Vorstellung eines monotheistischen, transzendenten göttlichen oder quasi-göttlichen Prinzips gegenüber. Empedokles (* zwischen 494 und 482; † zwischen 434 und 420 v. Chr.) sah in Göttern auch Personifizierungen der vier Elemente. Kritias (* 460; † 403 v. Chr.) betrachtete die Religion als menschliche Erfindung, die der Aufrechterhaltung der moralischen Ordnung dienen sollte. Skeptizismus und Asebie-Prozesse. Ein Abrücken oder Infragestellen der in der Polis kultisch verehrten Götter seitens skeptischer Philosophen oder naturwissenschaftlich orientierter Denker konnte zu Anklagen und Verurteilungen führen. Gottlosigkeit und Frevel an Göttern wurden im alten Athen als Asebeia teilweise auch strafrechtlich verfolgt. Eine erste Welle bekannter Asebie-Prozesse, bei denen politische Motive mitgewirkt haben dürften, richtete sich gegen Vertraute und Freunde des Perikles, darunter Aspasia und Anaxagoras. Der im 5. Jahrhundert v. Chr. namentlich von Sophisten geförderte Prozess der Infragestellung herkömmlicher Gottesbilder, auf den in den Asebieprozessen reagiert wurde, setzte sich unaufhaltsam fort. Auf Widerstand in dieser Form stieß auch der wegen seines religiösen Relativismus 415 v. Chr. aus Athen verbannte Protagoras, der sein Nichtwissen über die Existenz der Götter betonte und gleichzeitig erklärte, der Mensch sei das Maß aller Dinge. Skeptizistische und agnostische Positionen, wie sie die Sophisten und Sokrates (* 469; † 399 v. Chr.) vertraten, fanden eine zunehmende Verbreitung, und die Anklage wegen Gottlosigkeit gegen die „Physiker“ wird gängige Praxis: „Der Gelehrte, der in einem positivistischen Geist arbeitet, wird beschuldigt, das Geheimnis der Götter ergründen und das Heilige gewissermaßen ‚zergliedern‘ zu wollen.“ Einige der Angeklagten vertraten in den überlieferten Asebie-Prozessen nicht nur eine agnostische, sondern eine dezidiert atheistische Position (Diagoras von Melos, Theodoros von Kyrene). Gegen die wegen ihrer Schönheit bewunderte Phryne ist ein Asebie-Prozess überliefert, demzufolge ihr die Aktmodell-Arbeit für eine Aphrodite-Statue als ein Frevel gegen die Götter ausgelegt wurde. Von einer geistesgeschichtlich bis heute nachhallenden Wirkung war der Prozess gegen Sokrates. Seine Glaubensskepsis ist im platonischen Dialog "Phaidros" zum Ausdruck gebracht: Es sei abwegig, etwas über die Mythen und die Götter zu sagen, da er noch nicht einmal die Zeit habe oder in der Lage sei, sich selbst zu erkennen. „Lächerlich also kommt es mir vor, solange ich hierin noch unwissend bin, an andere Dinge zu denken.“ Platon ist aber als Sokrates’ Schüler nicht nur die wichtigste Überlieferungsquelle für dessen Denken und Philosophieren, sondern Minois zufolge der Erstverantwortliche für die Verfemung des Atheismus in den nachfolgenden zwei Jahrtausenden. In seinem Spätwerk "Nomoi" "(Gesetze)" bezieht er eine pantheistische Position, die sich von einem strengen Naturalismus abgegrenzt, weil dieser die nichtmateriellen Wirkungskräfte verkenne: Im zehnten Buch der Nomoi geht es Platon darum zu beweisen, dass es Götter gibt, dass sie sich auch um die Kleinigkeiten des Lebens kümmern, ohne aber bestechlich zu sein, und im Weiteren darum zu begründen, dass Atheisten je nach Grad der Gottesleugnung und Heuchelei mit abgestuften Sanktionen bis zur Todesstrafe zu belegen seien. Da es in Platons Lehre außerhalb der materiellen Welt eine höherwertige Welt der Ideen, der Archetypen, der Seelen und des Göttlichen gibt, gelten Atheisten, so Minois, fortan als von niederem Denken beherrscht und unfähig, sich zur Kontemplation der Ideen zu erheben. Der Einfluss platonischer Schulen auf die Unterdrückung des Atheismus ist umstritten. Als die Prozesse wegen Gottlosigkeit im Verlauf des 4. Jahrhunderts v. Chr. abnahmen, waren skeptische Einstellungen nicht etwa zurückgegangen, sondern unterdessen so verbreitet, dass die strafrechtliche Verfolgung immer weniger Wirkung zeigte. So konnte der Kyniker Diogenes (* ca. 400; † 325 v. Chr.) seinen Spott über Götter, Mysterien, Vorsehung und Aberglauben in Athen verbreiten, ohne dass man ihm den Prozess machte. Hellenismus. Während die Verehrung der anthropomorphen olympischen Götter auch im häuslichen Kult immer mehr an Bedeutung verlor, traten im Zuge des Zerfalls von Polis und herkömmlicher stadtstaatlicher Ordnung – auf dem Wege also zu den hellenistischen Großreichen und danach zum Römischen Reich – neben allerlei importierten Mysterienkulten und auswärtigen Gottheiten auch zunehmend vergöttlichte Herrscher, die auf diese Weise religiöse Bindungsbereitschaft zum eigenen Vorteil umlenkten. Weit entfernt von den alten Glaubensformen sind auch die an der Wende vom 4. zum 3. Jahrhundert v. Chr. entstehenden philosophischen Lehren des Epikureismus und der Stoa. Bei den Stoikern kommen pantheistische Vorstellungen zur Entfaltung, die das Göttliche mit der Allnatur verschmelzen und darin den Wirkungsort für die Menschen und für ihr ethisches Bezugssystem finden. Bei Epikur verschwinden die Götter in vom menschlichen Dasein gesonderten Welten und haben keinerlei Wirkungsmacht über die Menschen und ihr Treiben. Es handelt sich getreu dem rein materialistischen Weltbild Epikurs auch bei den Göttern um atomar konstituierte Wesen. Allerdings empfiehlt Epikur als der eigenen Seelenruhe dienlich, sich den staatlich vorgeschriebenen Kulten und religiösen Bräuchen flexibel anzupassen. Römische Antike. Mit der römischen Expansion verloren die überlieferten lateinischen Götter an Bindungskraft und Bedeutung. Die Eroberung Griechenlands und des östlichen Mittelmeerbeckens durch die Römer brachte mit auswärtigen Religionen und Gottheiten spiritualistische und materialistische Denkschulen zuhauf nach Rom, etwa Kybele, Isis, Osiris und Serapis, dazu astrologische und magische Vorstellungen sowie auch platonische, kynische und skeptische, epikureische und stoische Lehren. Der von Lukrez in Rom hymnisch verbreitete Epikureismus, in dessen Zentrum ein asketisch unterlegtes Lust- und Glücksstreben steht, stellt sich mit der vollständigen Abscheidung der Götter als eine im Grunde konsequent atheistische Morallehre dar. Die Stoa wiederum, die in den herrschenden Kreisen der römischen Gesellschaft häufig angenommen wurde, vermittelt einen nur vage-verschwommenen Gottesbegriff und trennt in dem anzustrebenden Ideal des stoischen Weisen kaum noch zwischen Mensch und Gott. Ciceros Untersuchung über die Natur der Götter "(De natura deorum)" mündete in Skepsis: „Bestimmt wird selbst diejenigen, die darüber etwas zu wissen glauben, die so große Uneinigkeit der gelehrtesten Männer in dieser wichtigen Frage zu gewissen Zweifeln zwingen.“ Eine – freilich weniger reflektierte – agnostische Grundstimmung scheint in der frühen Römischen Kaiserzeit (parallel zum Beginn des Frühchristentums) auch in Volkskreisen verbreitet gewesen zu sein; so legt der Schriftsteller Petronius in seinem satirischen Roman "Satyricon" (in der Szene des "Gastmahls des Trimalchio") dem Protagonisten "Ganymedes" die Worte in den Mund: Der sich einstellenden Vielfalt weltanschaulich-religiöser Vorstellungen gegenüber stand die Bereitschaft, als Atheismus zu diskriminieren und zu kriminalisieren, was nicht zu den etablierten Staatskulten gehörte. Davon war in seinen Anfängen auch das Christentum betroffen. Denn dessen Anhänger lehnten es aus Glaubensgründen ab, an den religiösen Staatskulten teilzunehmen. In der Ablehnung insbesondere des Kaiserkults wurden sie nicht selten zu Märtyrern. Mittelalter und Reformation. Ob es im Mittelalter Atheismus im Sinne einer Leugnung der Existenz eines Gottes gab, ist umstritten. Traditionell wird das „christliche Mittelalter“ als Zeitalter angesehen, in dem Europa komplett durch das Christentum bestimmt war, mit der Ausnahme kleiner jüdischer und muslimischer Minderheiten. Die oft dürftige und fast durchgängig christlich geprägte Quellenlage erschwert eine eindeutige Zuordnung einzelner Denker oder Personengruppen zum Atheismus. Der Theologe Walter R. Dietz schreibt, die Bezeichnung "Atheismus" sei im Mittelalter nur verwendet worden für Leugnungen des dreifaltigen Gottesgedankens, etwa durch den Islam. Nach dem evangelischen Theologen Jan Milič Lochman trat Atheismus im Sinne von Gottesleugnung oder Gottlosigkeit in Europa erst seit dem 16. und 17. Jahrhundert auf. Dem französischen Historiker Georges Minois zufolge gab es im Mittelalter durchaus Atheismus, und zwar sowohl in seiner praktischen, wie auch zumindest ansatzweise in seiner theoretischen Form. Der Glaube habe das Mittelalter zwar beherrscht, der Atheismus habe aber im Leben und Denken einer Minderheit überdauert. Theoretischer Atheismus. Seit dem 13. Jahrhundert ist eine zunehmende Kritik christlich-katholischer Glaubensinhalte zu beobachten. Eine wesentliche Rolle scheint hierbei die Wiederentdeckung aristotelischer Lehren und deren Interpretation durch islamische Philosophen gespielt zu haben. Wirkungsmächtig waren insbesondere der Aristotelismus und der Averroismus. Bedeutend war, dass Aristoteles, obwohl er teilweise als „Heide“ bezeichnet wurde, doch als "der" Meister des logischen Denkens galt. Die aristotelische Philosophie widerspricht der christlichen Lehre insbesondere in zwei Punkten: Sie verneint die Schöpfung und die Unsterblichkeit der Seele. Daher wurde das Unterrichten seiner Physik und Metaphysik auch wiederholt durch päpstlichen Erlass untersagt. Dennoch erstritt sich Georges Minois zufolge die Vernunft vom 11. bis 13. Jahrhundert eine zunehmend größere Unabhängigkeit vom Glauben. Petrus Abaelardus forderte ein, dass der Glaube den Regeln der Vernunft nicht widersprechen dürfe. Boetius von Dacien trat für die strikte Trennung von rational erfassbarer Wahrheit und Glaubenswahrheiten ein. Siger von Brabant ging noch weiter und bestritt zahlreiche zentrale christliche Dogmen. Die christliche Autorität reagierte einerseits mit Zensur und Repression. Zudem gab es jedoch auch verstärkte Bemühungen, den Glauben durch Gottesbeweise zu untermauern. Wilhelm von Ockham erklärte alle Versuche, Glaubenssätze mit den Mitteln der Vernunft zu beweisen, für von vornherein zum Scheitern verurteilt. Praktischer Atheismus. Im 12. Jahrhundert provozierten die Goliarden in ihren Liedern mit zum Teil bewusst provokanten atheistischen Positionen wie „ich bin begieriger nach Wollust als nach dem ewigen Seelenheil“. Eine skeptische Haltung in Bezug auf viele Glaubenssätze nahmen auch die englischen Lollarden ein. Auch einige der so genannten „Blasphemiker“ könnten Atheisten gewesen sein. In dem mehreren Autoren zugeschriebenen "Buch von den drei Betrügern" sind Moses, Jesus Christus und Mohammed gemeint. Daneben lebten auch pantheistische Weltanschauungen in kleineren Glaubensgemeinschaften und unter Einzelpersonen fort. Sie sind zwar nicht dem Atheismus im engeren Sinne zuzuordnen, forderten aber wohl den christlichen Glauben heraus. Vertreter sind insbesondere die Pariser Theologen David von Dinant und Amalrich von Bena sowie die Brüder und Schwestern des freien Geistes. Im Volk ist die Existenz von Ungläubigen in zahlreichen Berichten von Wundern bezeugt. Zudem lassen sich im einfachen Bauernvolk materialistisch-atheistische Positionen nachweisen. So wurde unter anderem die Existenz einer unsterblichen Seele und die Wiederauferstehung Christi verneint. Ein Beispiel für diese Art des „volkstümlichen Materialismus“ ist in den Verhörprotokollen des italienischen Müllers Menocchio festgehalten. Gegen Ende des Mittelalters gibt es auch zunehmend Klagen christlicher Pfarreien über die schwache Präsenz der Gemeinde in der sonntäglichen Messe. Als mittelalterliche Bevölkerungsteile, die besonders vom Atheismus betroffen waren, werden Söldner und Exkommunizierte genannt. Die Zahl letzterer ging allein in Frankreich zeitweise in die Zehntausende. Reformation. Die Reformation brachte keine Abkehr vom (christlichen) Glauben, sondern wertete den persönlichen Glauben im Sinne subjektiver Überzeugung sogar auf. Dennoch ist die Reformation ein wichtiger Wendepunkt nicht nur in der Geschichte der Religion, sondern auch in der des Atheismus. Durch die Reformation konnten sich mit den protestantischen Konfessionen erstmals Kirchen neben der katholischen etablieren, die zu stark waren, um dauerhaft gewaltsam unterdrückt werden zu können. Auf Dauer waren beide Seiten zur religiösen Toleranz gezwungen, später wurde diese auch auf zunächst nicht von dieser Toleranz eingeschlossene Gruppen, wie die Reformierten, erweitert. Diese Entwicklung hin zur Toleranz sollte später auch Atheisten zugutekommen. Durch die auf die Reformation folgenden Religionskriege diskreditierten sich die sich bekriegenden Kirchen in den Augen vieler selbst. Deutlich trat der Widerspruch zwischen öffentlich gepredigter christlicher Nächstenliebe und tatsächlichem Handeln der damaligen Kirchen beispielsweise in der offenkundigen Barbarei der Hugenottenkriege und des Dreißigjährigen Krieges zutage. Bedeutsam ist auch, dass die katholische Kirche ihr bis dahin beinahe unantastbares Deutungsmonopol für die traditionsgeprägte Auslegung der Bibel und damit beträchtlich an Autorität auch auf geistlichem Gebiet verlor. Politisch trug die Reformation entscheidend zur Emanzipation der Staaten aus der geistlichen Bindung an die Kirche bei, die sich nun vielfach, wie beispielsweise im Landesherrentum, im französischen Gallikanismus und der Reichskirche der Politik unterordnen musste. Diese Entstehung moderner Machtverhältnisse war eine zwingende Voraussetzung, um letztlich die Trennung von Kirche und Staat zu ermöglichen. Die dadurch garantierte Religionsfreiheit weitete sich, auch wenn der Weg dorthin keineswegs ohne Repressionen verlief, schließlich auch zur Respektierung des Rechts auf Glaubenslosigkeit aus. Dennoch blieb der Atheismus bis zum letzten Drittel des 19. Jahrhunderts ein Phänomen einer elitären Minderheit. 17. bis 19. Jahrhundert. Das Zeitalter der Aufklärung brachte den ersten theoretisch ausformulierten Atheismus der Neuzeit mit sich. Dieser steht in engem Zusammenhang mit den Fortschritten der Naturwissenschaft. Bereits 1674 war der deutsche studierte Theologe Matthias Knutzen mit drei atheistischen Schriften an die Öffentlichkeit getreten, die ihn zum ersten namentlich bekannten Atheisten der Neuzeit machen. Ein Jahrzehnt darauf folgte der polnische Philosoph Kazimierz Łyszczyński in seinem – bis auf wenige Zitate verlorenen – Werk "De non existentia Dei" (dt. "Über die Nichtexistenz Gottes"), in dem er postulierte, Gott sei lediglich eine von Menschen erdachte Chimäre und Religion sei nur ein Mittel zur Unterdrückung der Bevölkerung. Trotz der zu jener Zeit im Königreich Polen geltenden Religionsfreiheit wurde Łyszczyński für sein Werk 1689 aus politischen Gründen zum Tode verurteilt und hingerichtet. Bis weit ins 18. Jahrhundert war der Vorwurf, ‚Atheist‘ zu sein, in der Regel eine gefährliche Fremdzuschreibung. In Preußen war es die aufklärerische Haltung Friedrichs des Großen (1740: „Jeder soll nach seiner Façon selig werden“), in anderen Ländern die Erklärung der Menschen- und Bürgerrechte in der Französischen Revolution (1789) und die amerikanische Bill of Rights (1789), die zu einer Akzeptanz diverser atheistischer Standpunkte führten. Der französische Philosoph und Aufklärer Julien Offray de La Mettrie konnte 1748 seine atheistische Philosophie nur außerhalb Frankreichs, im preußischen Exil, öffentlich vertreten. In deutscher Sprache waren, in kritischer Wendung gegen Hegel, die Ex-Theologen Bruno Bauer und Ludwig Feuerbach die ersten atheistischen Philosophen. Feuerbach kritisierte in seinem einflussreichen Werk "Das Wesen des Christentums" (1841) nicht nur das Christentum grundlegend, sondern darüber hinaus die Religion generell als Ergebnis psychologischer Projektionen („Der Mensch schuf Gott nach seinem Bilde“). Später konstatierte Friedrich Nietzsche: „Gott ist tot“ (1882) und „Atheismus […] versteht sich bei mir aus Instinkt“ (1888). Aufklärung in Frankreich. Das früheste Zeugnis eines dezidierten Atheismus in der Neuzeit findet sich im "Theophrastus redivivus", der Schrift eines anonymen französischen Autors aus dem Jahr 1659. Die Existenz Gottes wird darin zwar bestritten, die gesellschaftliche Nützlichkeit der Religion hingegen behauptet. Als erster radikaler Atheist der Neuzeit gilt heute der französische Abbé Jean Meslier (1664–1729). In seinen zwischen 1719 und 1729 verfassten und erst später anonym veröffentlichten "Pensées et sentiments" stellte Meslier die Existenz von Göttern völlig in Abrede, welche für ihn bloße Hirngespinste sind. Im Gegensatz zum "Theophrastus" verbindet Meslier seinen Atheismus mit einem Antiklerikalismus: Er polemisiert gegen Kirche und Krone, die er als Ausbeuter und Unterdrücker der Armen ansieht. Meslier hat seine als "Testament" bekannt gewordene Schrift nur in drei handschriftlichen Exemplaren hinterlassen, die zunächst einige Jahrzehnte lang klandestin zirkulierten. Erst 1761 veröffentlichte Voltaire eine Version der Schrift, in der er alle atheistischen und materialistischen Passagen getilgt und nur Mesliers Christentumskritik und Antiklerikalismus erhalten hatte. Diese deistisch verfälschte Fassung blieb, zumal sie durch Neuauflagen und Aufnahme in Voltaires "Œuvres" weite Verbreitung fand, bis ins 20. Jahrhundert die allgemein bekannte; daran hat auch eine 1864 in Amsterdam erschienene vollständige Ausgabe nichts geändert. Erst 1972 haben Albert Soboul u. a. aufgrund der Originalmanuskripte eine nun maßgebliche Edition dieses ersten neuzeitlichen Werks des Atheismus geschaffen. Während Meslier somit lange Zeit als voltairianischer antiklerikaler Deist galt, war der erste öffentlich bekannt gewordene radikale Atheist der Aufklärung Julien Offray de La Mettrie (1709–1751). Sein philosophischer Erstling "Histoire naturelle de l’âme" (Naturgeschichte der Seele, 1745) wurde als materialistische und atheistische Schrift vom Pariser Henker verbrannt. La Mettrie floh nach Holland, wo er sein berühmtes Werk "L’homme machine" (Der Mensch als Maschine, 1748) publizierte, in dem es heißt, „dass die Welt niemals glücklich sein wird, solange sie nicht atheistisch ist.“ La Mettrie blieb nicht bei der Negation Gottes stehen, sondern skizzierte in seinem "Discours sur le bonheur" (Rede über das Glück, 1748) eine geradezu modern anmutende psycho(patho)logische Theorie des Religiösen. Er musste anschließend sogar aus den toleranten Niederlanden fliehen. Friedrich II. von Preußen bot ihm Asyl an und stellte ihn in Sanssouci als Vorleser ein. Er wurde auch in die Königlich Preußische Akademie der Wissenschaften zu Berlin aufgenommen. Eine frühe öffentliche Verneinung der Existenz eines Gottes findet sich auch in dem 1770 anonym erschienenen Werk "Système de la nature" des Baron d’Holbach (1723–1789), einem Grundwerk des Materialismus. Holbach sah in der Religion den größten Feind der natürlichen Moral und zog gegen ontologische und kosmologische Gottesbeweise zu Felde. Das Glück des Menschen hängt nach seiner Auffassung vielmehr am Atheismus. Die von ihm vertretene „Ethokratie“ beruht allerdings nicht auf der vorgängigen materialistischen Philosophie La Mettries, den er wegen seiner Moraltheorie sogar als „Wahnsinnigen“ bezeichnete. Denis Diderot (1713–1784), bekannt vor allem als Herausgeber der Encyclopédie, vertrat in seinen kirchen- und religionskritischen Werken "Pensées philosophiques" (1746) und dem "Lettre sur les aveugles à l’usage de ceux qui voient" (1749) zunächst eine deistische, später eine atheistische Position. Auch er war ein vehementer Gegner La Mettries, den er noch posthum als „Autor ohne Urteilskraft“ und wegen der „Verdorbenheit seines Herzens“ „aus der Schar der Philosophen“ ausschloss. Voltaire übte scharfe Kritik an Kirche und Klerus und griff in zahllosen Schriften und Briefen die christliche Religion teils mit scharfsinnigem Spott, teils mit feinsinniger Ironie an. Allerdings wollte er ausdrücklich nicht als Atheist bezeichnet werden (Réponse au Système de la nature, 1777). In dem Artikel "Athéisme" schrieb er unter anderem: Wenn sich Voltaire auch häufig zum englischen Deismus bekannte, wirkte er auf viele seiner Zeitgenossen durch seinen Stil und die Art, wie er seinen Deismus vortrug, durchaus wie ein Atheist. Die katholische Kirche bezichtigte ihn deswegen auch des Atheismus. Fritz Mauthner, Autor des vierbändigen Werks "Der Atheismus und seine Geschichte im Abendlande", nannte Voltaire „den Feldherrn und Staatsmann der französischen und europäischen Freidenker.“ Immanuel Kant. Gemäß Immanuel Kant gibt es keinen möglichen Beweis für oder gegen die Existenz eines höchsten Wesens, weder durch Anwendung der Vernunft noch durch Betrachtung der empirischen Natur. Wie Kant in der Transzendentalen Dialektik, dem zweiten Hauptteil der "Transzendentalen Logik" in Kritik der reinen Vernunft, zu zeigen versucht, scheitern alle Gottesbeweise daran, dass die in der menschlichen Vernunft vorhandene Vorstellung eine transzendentale Idee ist, d. h. die Vorstellung eines Gegenstands, der mit keiner möglichen menschlichen Erfahrung übereinstimmen kann. Er billigt transzendentalen Ideen jedoch eine regulative Funktion zu: Vereinfacht gesagt bedeutet dies: Alle Grenzen möglicher menschlicher Erfahrung überschreitenden Dinge (Gott, Unsterblichkeit, Unendlichkeit) sind nach Kant zwar nicht erkennbar, sie geben der Erfahrung aber eine gewisse, subjektive Einheit. Regulativ sind sie deswegen, weil sie dem Verstand eine Orientierung bieten, mit der dieser Erlebnisse und Eindrücke über den unmittelbaren Wahrnehmungsgehalt hinaus ordnen kann. Damit ist Kant in theoretischer Hinsicht ein Vertreter einer agnostizistischen Position. Die regulative Idee erhält jedoch in Kants Moralphilosophie eine neue Funktion. Beschäftigt sich Kant in der Kritik der reinen Vernunft mit der theoretischen Seite der Vernunft („Was kann ich wissen?“), so behandelt die Kritik der praktischen Vernunft deren praktische Seite („Was soll ich tun?“). Gott wird hier postuliert: Wenn die menschliche Vernunft in der Lage ist, sich selbst Ziele frei zu setzen, z. B. auch gegen die unmittelbar empfundenen empirischen Bedürfnisse, so setzt das voraus, dass jeder Mensch seine eigene Vernunft als verpflichtend erlebt (Kant nennt dies das ). Derjenige Anteil des menschlichen Willens, der vernunftgemäß und unabhängig von den empirischen Bedürfnissen seine Wahl trifft, kann nun nach Kant nichts anderes wollen, als einem moralischen Gesetz zu folgen. Das moralische Gesetz verpflichtet jeden Menschen zur Sittlichkeit, indem es ihn anhält, seinen Willen nach dem Kategorischen Imperativ zu gestalten. Für Kant besteht nun ein Problem darin, zu zeigen, ob und wieso die Befolgung des moralischen Gesetzes auch zu Glückseligkeit, also einem Zustand allgemeiner Zufriedenheit führt. Die Frage ist: Wenn ich sittlich handeln soll, ist dann auch sichergestellt, dass ich glücklich werde? Als Instanz, die sicherstellt, dass sittliches Verhalten auch zu Glückseligkeit führt, wird Gott eingeführt, die garantieren soll, dass die Welt im Ganzen einem gerechten Plan folgt. In der Nachfolge blieb Kants theistischer Skeptizismus oder partieller Agnostizismus weitgehend unbeachtet. Der Deutsche Idealismus (Fichte, Schelling, Hölderlin, Hegel) redete zwar von Gott als dem absoluten Weltgeist oder einem absoluten Ich, kümmerte sich hingegen wenig um die Antinomien der Vernunft. Aus heutiger Sicht wird Kants Postulat eines Gottes als Verbindungsglied zwischen Sittlichkeit und Glückseligkeit eher als Mangel seiner Theorie gesehen. Kants individualistischer Theorie fehlt schlicht der gesellschaftliche Horizont von Sittlichkeit. In seiner Rechtsphilosophie kommt Hegel hingegen ohne ein solches Ad-hoc-Postulat zur Begründung der Sittlichkeit aus. Stattdessen steht der absolute Weltgeist (= Gott) für Hegel theoretisch wie historisch am Anfang seines dialektischen Systems. Dabei macht Hegel sozusagen aus der antinomischen Misere der Dialektik eine neue Tugend, indem er das dialektische Prinzip der Selbstwidersprüchlichkeit zu einer eigenen Methode ausbaut. Ludwig Feuerbach. Ludwig Feuerbach vertrat in "Das Wesen des Christentums" von 1841 die folgenden Thesen: Feuerbachs Ausgangspunkt zur Herleitung seiner Thesen war die Natur des Menschen. Wesentlich für Feuerbach war, dass Menschen Bedürfnisse und Wünsche besitzen und diese in bestimmter Hinsicht unerfüllt bleiben, weil der Mensch – so würden wir heute sagen – ein Mängelwesen ist. Das ist sein anthropologischer Kern, den Marx weitgehend übernimmt. Von Hegel übernahm Feuerbach die idealistische Auffassung, dass es das Bewusstsein und seine Leistungen seien, die seine Praxis bestimmen. Im Zentrum stand für Feuerbach dabei die menschliche Einbildungskraft. Es seien nun die unerfüllbaren und andauernd unerfüllten Bedürfnisse, die der Mensch mit Hilfe seiner Einbildungskraft in ein religiöses Reich projiziere. Die religiösen Gehalte verweisen nach Feuerbach auf die unerfüllten Bedürfnisse und damit auf die als unvollkommen erlebte Natur des Menschen. In seinem Hauptwerk versucht er, dies anhand der Begriffe Liebe, Endlichkeit, Sterblichkeit, Ungerechtigkeit zu zeigen: Die religiöse Vorstellung der Unsterblichkeit der Seele sei ein Reflex auf die unvollkommene Natur des Menschen als sterbliches Wesen, die der Allgüte Gottes ein Reflex auf die Unmöglichkeit, alle Menschen gleichermaßen zu lieben usw. Feuerbachs Theorie der Religionskritik wurde später und wird heute in Verbindung mit dem Begriff „religiöser Anthropomorphismus“ oder „Anthropozentrismus“ oder unter dem Schlagwort „Projektionstheorie“ diskutiert. Schlagwortartig mag man sie unter folgenden Mottos zusammenfassen: oder: Die Erklärung der Religion hat also – nach Feuerbach – vom Menschen auszugehen, sie aus ihm herzuleiten und sie wieder auf ihn zu beziehen: Karl Marx. Marx’ Kritik an Feuerbach – „vergesellschaftete“ Religiosität Marx’ Religionskritik findet sich vor allem in zwei einschlägigen Werken/Texten: Marx übernimmt die Projektionstheorie Feuerbachs. Auch für ihn ist die Welt der Religion keine ontologische Kategorie, sondern gehört in den Bereich menschlicher Tätigkeiten. Auch für ihn reflektiert Religion ein Bedürfnis, und auch für ihn ist Religion die Widerspiegelung einer Wirklichkeit und nichts Transzendentes. Marx kritisiert jedoch einen wesentlichen Mangel an Feuerbachs Religionskritik: Feuerbach tue so, als ob jeder Mensch als Individuum oder als abstraktes Wesen seine Religion produziere, wohingegen der Mensch – so Marx – vor allem als konkret-praktisches und damit schon immer vergesellschaftetes (gesellschaftliches) Wesen zu begreifen sei: Und genau deswegen spiegele Religion auch nicht irgendwelche abstrakten, individuellen Bedürfnisse, sondern konkrete gesellschaftliche Bedürfnisse der Menschen wider. Neben dieser Theorie der "vergesellschafteten Religiosität" kritisiert Marx an Feuerbach, dass es mit der neuen anthropozentrischen Interpretation von Religion noch nicht getan sei: Diese These soll besagen, dass unter dem Blickwinkel der Praxis – und dies ist nach Marx die „gegenständliche Tätigkeit“ (= Arbeit als verändernde Aneignung von Natur) – Feuerbachs Theorie die Welt nur noch einmal in eine religiöse Welt verdoppelt und damit Religion zwar erklärt, jedoch nicht fragt, was dies praktisch für die gläubigen Menschen und die gesellschaftlichen Verhältnisse bedeutet. Und genau hier besitzt Religion gemäß Marx ihre praktische Aufgabe: Sie verhindere verändernde Praxis, weil sie die Menschen mit der Idee eines vom Erdenreich abgelösten und unabhängigen, vollkommenen Himmelreichs vertröste und umneble. Darauf bezieht sich auch Marxens Schlachtruf, wonach Religion „das Opium des Volkes“ sei. (in: "Zur Kritik der Hegelschen Rechtsphilosophie"). Marx’ Entfremdungstheorie als Religionskritik Nach Marx’ Ideologiekritik spiegeln sich in der Religion nicht nur unerfüllte abstrakte Bedürfnisse wider, sondern auch das konkrete, durch die gesamte menschliche Geschichte ziehende, gesellschaftliche Elend und Unrecht. Dies täten sie jedoch in verzerrter Form: Diese Verzerrung bestehe zum einen in einer Verkehrung oder Verdrehung wirklicher Verhältnisse und zum anderen in einer völligen Abstrahierung vom alltäglichen Lebensvollzug, die dazu führe, dass die Menschen sich in eine „Nebelregion“ flüchteten. So steht beispielsweise Gott als der Allgerechte, Allmächtige und Allgütige einer Welt ungleicher Verteilung von Macht, Gütern und Liebe gegenüber. Ausgangspunkt für Marx’ Kritik ist die Theorie der Selbstentfremdung: Als „Entfremdung“ bezeichnet man allgemein Prozess und Ergebnis des Verlusts des Einflusses und der Verfügungsgewalt des Menschen auf und über all jenes, was einst durch ihn selbst bewirkt und ihm damit in unmittelbarer Anschauung vertraut war, welches ihm aber schließlich als etwas Unabhängiges, Fremdes gegenübertritt. So besitzt ein von seiner Arbeit entfremdeter Lohnarbeiter – nach Marx – keinen Einfluss mehr auf das Arbeitsprodukt und den Arbeitsprozess, obwohl er sich andauernd darin befindet. Deswegen treten ihm der Arbeitsprozess wie das Arbeitsprodukt als etwas Fremdes gegenüber (siehe Marx: Frühschriften). In der religiösen Selbstentfremdung nun erlebe der Mensch seine Bedürfnisse einmal als erfüllbare und erfüllte Dinge, andererseits aber auch als prinzipiell oder manchmal unerfüllbar oder unerfüllt. Die Religion wird gegenüber dem Menschen nach und nach zu etwas Selbständigem, Unabhängigem und ihm Fremdem. Dies ist mit der religiösen Selbstentfremdung gemeint: In der Religion verselbstständigen sich die unerfüllten Bedürfnisse, indem letztere ein Eigenleben führen. Friedrich Nietzsche. Atheismus als Instinkt – „Gott ist eine faustgrobe Antwort“ Friedrich Nietzsche (1844–1900), Sohn eines evangelischen Pfarrers und christlich erzogen, nannte Gott „eine viel zu extreme Hypothese“. Die christliche Gottesvorstellung hielt er für widerlegt und überholt („Gott ist tot“). Daran, dass Nietzsche selbst an keinen metaphysischen Gott glaubte, besteht kaum ein Zweifel: Dies ist allerdings nicht der Schwerpunkt seiner Argumentation. Nietzsches Atheismus ist vielmehr Voraussetzung einer radikalen Kritik an der (christlichen) Moral. Er sah eine solche „Sklavenmoral“ als hinderlich für die Erhebung des Menschen zu neuer Größe an. Diese Kritik der christlichen Moral ist zwar charakterisiert von zahlreichen polemischen und invektiven Äußerungen Nietzsches („was war der grösste Einwand gegen das Dasein bisher? "Gott" […]“), zeigt sich aber vor allem in einer historisch-wissenschaftlichen "(Zur Genealogie der Moral)" und philosophischen Auseinandersetzung mit Begriff und Zweck von Moral (v. a. "Morgenröte. Gedanken über die moralischen Vorurteile" und "Die fröhliche Wissenschaft"). Für Nietzsches Atheismus ist kennzeichnend, dass er sich nicht generell gegen das Postulat höherer Werte stellt, sondern zunächst nur gegen jene der christlichen Moral, schließlich aber gegen die Werte jeder Moral, sofern sie die Instinktgewissheit und den biologisch angelegten „Willen zur Macht“ schwächen. Nietzsche wendet sich also gegen jede Moral, die zum Leben „Nein“ sagt. Das aber war seiner Ansicht nach bei den Morallehren aller bisherigen Philosophien und Religionen in mehr oder weniger großem Umfang der Fall – obwohl diese „Instrumente im Dienste des wachsenden Lebens“ sein sollten. Nietzsche bezeichnete sich folglich als den „ersten Immoralisten“ und bezeichnet damit eine Haltung des bewussten Verzichts auf eine Rückbindung an eine metaphysische Ordnung und Wahrheit. In "Also sprach Zarathustra" versuchte er im bewussten Anklang an den Stil der Bibel, die „frohe Botschaft“ vom „Übermenschen“ (also einer Moral, die im Dienste des Lebens steht) zu konkretisieren. In Nietzsches Atheismus ist nicht bloß ein nihilistischer Trieb zur Entwertung der Kultur zu sehen, nach Nietzsches eigener Auffassung sogar gerade das Gegenteil. Nietzsche kritisiert zwar die Moral und versteckt seine Abneigung gegen die christlichen Ideale nicht, jedoch wollte er diese Abwertung in sein Programm der „Umwertung aller Werte“ einbinden, die letztlich dem Ziel dient, neue Werte zu schaffen. Der Typus Zarathustra sollte so etwas wie der erste Prophet dieser neuen „ja-sagenden Moral“ sein, die im Dienste des Lebens steht, anstatt es in seiner freien Entfaltung zu hindern. Nietzsches Atheismus ist also ein notwendiges Zwischenprodukt, das im Prozess der „Umwertung der Werte“ den Boden für eine „Selbstbesinnung der Menschheit“ bereiten soll, die letztlich in eine bejahende, lebensfrohe Moral mündet. Atheismus bedeutet hier die Ablehnung von metaphysischer Ordnung und die Verneinung des damit verbundenen Gottglaubens. Dabei gesteht Nietzsche einigen Arten des Götterglaubens – ohne sie für „wahr“ zu halten – durchaus eine nützliche oder ästhetisch ansprechende Funktion zu. In "Der Antichrist" beschreibt er etwa einen „gesunden“, schadlosen Götterglauben folgendermaßen: Folglich ist es auch schlüssig, warum Nietzsche dem (in seinem Sprachgebrauch „nihilistischen“) jüdisch-christlichen Gottesbegriff immer wieder den Begriff eines gewalttätigen dionysischen Gottes gegenüberstellt. Nicht der Gottesglaube selbst schadet, sondern der Glaube an einen jenseitigen, metaphysischen Gott. Nietzsches Angriffe gegen den verbreiteten Gottesbegriff sind also eingebunden in eine viel weiter reichende Kultur- und Religionskritik und gehen damit über einen bloßen Atheismus hinaus. Tatsächlich richtet sich Nietzsche an vielen Stellen auch gegen seiner Meinung nach zu simple oder inkonsequente Formen des Atheismus. 20. und 21. Jahrhundert. Psychoanalyse. Sigmund Freud, der Begründer der Psychoanalyse, hat mehrmals in einer naturgeschichtlichen Deutung die Entstehung von Religionen (und vieler anderer Erscheinungen) als die Erfüllung unbewusster, auch unterdrückter Wünsche des Menschen zu erklären versucht. Als Grundlage dienten Freud die Ähnlichkeiten zwischen kultisch-religiösen Handlungen und den Handlungsabläufen neurotischer Besessenheit. In seinem Buch "Totem und Tabu" (1913) kommt er zu der Schlussfolgerung: seien eben die Religionsvorstellungen. Die Herleitungen, in denen sowohl die darwinsche „Urhorde“ als auch der Ödipuskomplex herangezogen werden, gelten als spekulativ. In einer verallgemeinerten Form, nämlich dass Religionen sehr wohl vorgeben, starke bewusste wie auch unbewusste Wünsche und Sehnsüchte der Menschen zu erfüllen, gilt Freuds These als unbestritten. Freuds einschlägige Monographie zum Thema ist "Die Zukunft einer Illusion" (1927). Nach Freud bieten die Eltern dem Kind unverzichtbaren Schutz und ein moralisches Gerüst für die Orientierung. Aus Sicht des Kindes sind die Eltern in der Lage, Übermenschliches zu leisten. Mit zunehmendem Alter des Kindes erkennt es, dass auch die Eltern nicht immer Schutz und Rat bieten können. So überträgt das Kind die den Eltern zugeschriebenen Fähigkeiten auf Gott. Anstatt also die Vorstellung aufzugeben, dass man immer geborgen und beraten ist in der Welt (Realitätsprinzip), wird weiterhin an der Illusion festgehalten. Gott ersetzt die Eltern in ihrer Funktion, Schutz und Moral zu bieten. Wenn Freuds Schlussfolgerungen auch nicht direkt den Theismus widerlegen, bieten sie doch gewisse Ansatzpunkte, religiöse Phänomene durch psychische Vorgänge zu erklären und die Notwendigkeit der Annahme übernatürlicher Kräfte zu verneinen. Existenzialismus. Einen existenzialistischen Atheismus im eigentlichen Sinne gibt es nicht, da der Existenzialismus kein geschlossenes Lehrgebäude darstellt und unter diesem Begriff sehr disparate weltanschauliche, philosophische, ja auch theologische Konzepte versammelt werden. Sie reichen von Stirner über Schopenhauer, Kierkegaard, Heidegger, Camus bis Sartre und Jaspers. Nimmt man als Referenzpunkt den Existenzialismus sartrescher Prägung, so ergibt sich folgende atheistische Auffassung: Der wichtigste existenzialistische Grundsatz Sartres findet sich in seinem bekannten Satz wieder, wonach die (menschliche) Existenz der Essenz (dem Wesen) vorausgehe. Es gibt kein Wesen (hier sowohl personal als Gott verstanden als auch abstrakt als Natur des Menschen), wonach und wodurch der Mensch konzipiert wurde. Da der Mensch zu Beginn „Nichts“ ist und sich ständig selbst entwirft, bedeute Gott also jemand, der so etwas wie eine menschliche Natur konzipiert hat, eine Beschränkung dieses konstitutiven Selbstentwurfs. Stattdessen ist nach Auffassung der Existenzialisten der Mensch von Beginn an zur absoluten Freiheit verdammt. Für die Neoexistenzialisten der Sartre-Schule ist Gott zunächst also das, was die absolute Freiheit des Menschen beschränkt. „Wenn Gott nicht existierte, wäre alles erlaubt“, schrieb Dostojewski. Aus existenzialistischer Perspektive würde man hinzusetzen: „Und weil er nicht existiert, ist der Mensch zur Verantwortung verdammt.“ Wie ist das zu verstehen? Wenn Gott existierte, gäbe es etwas, was der menschlichen Existenz vorausginge, auf das er sich als Grund seines Handelns berufen könnte. Fällt dieser Grund weg, ist der Mensch absolut verlassen und muss die Gründe seines Handelns vollständig aus sich selbst schöpfen. Erst jetzt, wenn prinzipiell alles erlaubt ist, ist er nach neoexistenzialistischer Sichtweise als Individuum voll verantwortlich für sein Handeln. Für Neoexistenzialisten ermöglicht erst eine Welt (genauer: eine Existenz) ohne Gott die wahre Verantwortung des Menschen. Die neoexistenzialistische Auffassung (Sartre, Camus) übernimmt Heideggers Daseinsbegriff (Sein und Zeit) für die Existenz. Demnach seien drei Dinge für die menschliche Existenz charakteristisch: die Geworfenheit, der Entwurf und die Verfallenheit. Wesentlich für die atheistische Grundhaltung der Neoexistenzialisten ist die Geworfenheit: Der Mensch ist kein Abbild einer Idee oder eines Vorbilds oder Bauplans, sondern er wird als tabula rasa in die Welt geworfen. Im Atheismuskonzept des Neoexistenzialismus geht es nicht allein um die Zurückweisung eines personalen Gottes, dem die Menschen sich zu verantworten haben, sondern auch um alle Konzepte, die als Theorien der „Natur des Menschen“ auftreten: Sei es die Gesellschaft (der Mensch als soziales Wesen), sei es die Ökonomie (der homo oeconomicus) oder seien es anthropologische Konzepte (der Mensch als des Menschen Wolf, als Egoist) – alle werden sie vom Existenzialismus zurückgewiesen mit dem Verweis, sie leisteten nur die Ent-Verantwortung des Menschen, weil dieser damit auf ihm äußerliche, sachliche Zwänge hinweisen könne. Damit kann der existenzialistische Atheismus auch als Versuch verstanden werden, gegen die Zwänge moderner Gesellschaften aufzubegehren, was die Neoexistenzialisten, vor allem Sartre, im Verlauf der Studentenrevolten 1968 in Frankreich auch taten. Analytische Philosophie. In weiten Teilen der im 20. Jahrhundert entwickelten analytischen Philosophie wurden anfänglich Fragen nach der Existenz oder Nichtexistenz von Göttern sowie metaphysische Fragen als unsinnig, nicht behandelbar oder irrelevant angesehen. So wurde im Rahmen des Logischen Positivismus die Rede über Götter für sinnlos gehalten, weil Sätze, in denen diese Begriffe vorkommen, nicht wahrheitsfähig seien (d. h. überhaupt nicht wahr oder falsch sein "können"). Dabei wird jedoch nicht behauptet, dass es keine Götter gebe. Vielmehr wird der Satz „Es gibt keine Götter“ ebenfalls als inhaltsleer angesehen – wie überhaupt jeder Satz über Gott oder sonstige metaphysische Objekte „keinen Sinn“ habe, sondern ein „Scheinsatz“ sei (so etwa Rudolf Carnap). Nach Max Bense, im deutschen Sprachraum damals einer der profiliertesten Vertreter dieser Position, sage ein Satz wie „Gott ist transzendent“ lediglich „von einem unbestimmten Etwas (x) ein unbestimmtes Prädikat (ist pektabel)“ aus. Einige Erkenntnistheoretiker sehen bei Existenzfragen stets den in der Beweispflicht, der die Existenz einer Sache behauptet, hier also den Theisten. Solange dieser die Begründungspflicht nicht erbracht habe, sei es rational gerechtfertigt, von einer Nichtexistenz auszugehen, zumal die Erklärung der Welt keine Gotteshypothese erfordere. Siehe hierzu ein evidentes Beispiel von Richard Dawkins unter "3.5.4.2 Neuer Atheismus" dieses Artikels (s. u.). Seit den Anfängen systematisch-theologischer Debatten wird über die Vereinbarkeit göttlicher Eigenschaften wie Allmacht, Allgüte, Gerechtigkeit, Einfachheit, Unendlichkeit usf. gestritten. So auch in der jüngeren analytischen Theologie. Eine typische Beweisführung mit der intendierten Konsequenz der Nichtexistenz Gottes hat dabei die Form eines Widerspruchsbeweises ausgehend von der Existenzannahme und üblichen Eigenschaftsaussagen über Gott. "Wenn" die Gott zugeschriebenen Eigenschaften semantisch widersinnig oder logisch widersprüchlich sind (wie etwa im sog. Allmachtsparadoxon), "dann" könne es jenen Gott nicht geben. Zu den ideengeschichtlich ältesten Argumenten, welche die Nichtexistenz Gottes wegen Inkompatibilitäten angenommener göttlicher Eigenschaften einerseits und empirischen Befundes andererseits nahelegen, gehört die Argumentation, dass Gottes Allmacht und Allgüte nicht mit der apparenten Existenz vermeidbarer Übel kompatibel sei. (siehe hierzu ausführlich den Hauptartikel Theodizee) Naturwissenschaften. Stellungnahmen. Atheismus auf der Basis empirischer Überlegungen: Der US-amerikanische Physiker Victor Stenger ist der Auffassung, dass für die Gotteshypothese nicht nur empirische Belege fehlen, sondern dass sich auch die oftmals Göttern zugeschriebenen Eigenschaften anhand naturwissenschaftlicher Erkenntnisse anfechten lassen. So seien die Schöpfung von Lebewesen durch die Evolutionstheorie, Körper-Seele-Dualismus und Unsterblichkeit durch Neurologie, die Wirkung von Gebeten durch Doppelblindstudien, die Schöpfung des Universums durch thermodynamische sowie quantenphysikalische Überlegungen und göttliche Offenbarungen durch die Geschichtswissenschaft widerlegt worden. Das Universum verhalte sich genau so, wie es in Abwesenheit eines Gottes zu erwarten sei. Die in vielen Kulturen beobachteten Vorstellungen von übernatürlichen Akteuren könnten nach einigen Vertretern (z. B. Pascal Boyer) auch empirische Rückschlüsse auf zugrunde liegende Verarbeitungsprozesse im menschlichen Gehirn erlauben. Nach einer aus völkerkundlichen Untersuchungen abgeleiteten Hypothese verarbeitet das Gehirn Sinneseindrücke mit Hilfe verschiedener Module. Eines dieser Module sei darauf spezialisiert, Veränderungen in der Umwelt als Werk von Lebewesen zu interpretieren. Ein solches „Lebewesenerkennungsmodul“ sollte überempfindlich arbeiten, da es meist günstiger sei, fälschlich z. B. einen Windhauch als Raubtier zu interpretieren, als ein tatsächlich vorhandenes zu übersehen. Dadurch könnten in unserem Gehirn aus unklaren Wahrnehmungen leicht Vorstellungen von übernatürlich erscheinenden Akteuren, wie z. B. Göttern oder Geistern, entstehen. Neuer Atheismus. Erstmals 2006 wurden einige Autoren, die in den vorangegangenen drei Jahren unter Berufung auf die Naturwissenschaften gegen theistische Glaubensformen argumentierten, als „Neue Atheisten“ bezeichnet. Zu ihnen zählen die US-Amerikaner Sam Harris, Daniel C. Dennett und der Brite Richard Dawkins. Weiterhin wurden Christopher Hitchens und Victor J. Stenger zu den neuen Atheisten gezählt. Ihre jeweiligen Bücher erzielten hohe Auflagen. Anschließend wurden auch der Franzose Michel Onfray, der Deutsche Michael Schmidt-Salomon und andere Autoren hinzugezählt, so dass die Bandbreite der so bezeichneten Position zugenommen hat. Richard Dawkins positioniert sich in der epistemologischen Debatte ("3.5.3 Analytische Philosophie", s. o.) folgendermaßen, dass es irrig sei, dass etliche theistische Vertreter die Beweislast umkehren und von den Skeptikern einfordern, postulierte theologische Dogmen zu widerlegen, ohne selbst die Mühen zu unternehmen, diese zweifelsfrei zu untermauern. Hierzu bedient er sich des von Bertrand Russell ersonnenen Beispiels einer hypothetischen Teekanne, die zwischen Erde und Mars ihre elliptischen Bahnen ziehe und derart klein sei, dass sie von keinem existenten Teleskop erfasst werden könne. In jedem Falle liege die Beweislast stets beim Verfechter der Aussage, jedoch kehre sich diese in theologischen Aussagen fälschlicherweise um. Zu den Kritikern des „Neuen Atheismus“ zählen mehrere Theologen, auch moderate Atheisten und andere Autoren, wie etwa Alister McGrath, John Lennox, David Aikman, Tina Beattie, David Berlinski, James A. Beverley, Terry Eagleton und Kathleen Jones; in Deutschland z. B. der „fromme Atheist“ Herbert Schnädelbach (trotz seiner harschen Kritik am Christentum erfolgte seine ebenso starke Kritik an den „Neuen Atheisten“ bezüglich einer konfessionell-naturwissenschaftlichen Gläubigkeit) und der „alte Atheist“ Joachim Kahl (dieser also mit dem direkten Gegenbegriff: „Alter Atheismus“). Systematische Erfassung. Es gibt verschiedene, sich teilweise überschneidende und widersprechende Einordnungen und Systematisierungen des Begriffs „Atheismus“. Beispielsweise unterscheidet das vatikanische "Sekretariat für Nichtglaubende" diejenigen, die Während in der deutschsprachigen Literatur eher von „engen“ und „weiten“ Begriffsbedeutungen die Rede ist, wird der Atheismus im angelsächsischen Raum oft mit den Begriffen "strong" (oder "positive") und "weak" (oder "negative") bezeichnet. Im Deutschen nimmt der Begriff „stark“ an Verbreitung zu (parallel zu „eng“). Auf Grundlage dieser polaren Unterscheidungen kann der Atheismus systematisch weiter geordnet oder typologisiert werden. Atheismus in einem weiten Sinne. Eine verbreitete Kategorie ist der weite (implizite) Atheismus, dessen Vertreter aussagen: „Ich bin nicht überzeugt, dass es Götter gibt.“ Dieser Atheismus beinhaltet jedoch "nicht", dass es "keine" Götter gäbe, bestreitet also nicht die Existenz von Göttern. Unterschieden wird das Nichtswissen über Gott oder Götter (Agnostizismus) und das Nichtvorhandensein des Glaubens an Gott oder Götter (Atheismus im wörtlichen Sinne). Bei Kant ist Gott nur eine regulative Idee der Vernunft. Und im Pantheismus eines Spinoza wird die Idee der personalen Einheit Gottes vollkommen aufgegeben und Gott nur noch als in der Schöpfung als Ganzes wirkende göttliche Substanz aufgefasst. Atheismus in einem starken Sinne. Die Gegenkategorie zum weiten Atheismus ist der starke (positive, explizite) Atheismus mit der logischen Aussageform: „Ich bin überzeugt, dass es weder Gott noch Götter gibt“. Vertreter des starken Atheismus lehnen den Glauben an die Existenz von Gott oder Göttern ab, also Monotheismus wie Polytheismus gleichermaßen. Hierfür findet sich gelegentlich auch der Begriff Antitheismus. Starker Atheismus lehnt auch ähnliche Überzeugungssysteme wie beispielsweise den Glauben an übernatürliche Wesen, Wirkkräfte oder Mächte ab, ist also Gegner aller spirituellen, animistischen und magischen Lehren sowie eines jeglichen Mystizismus. Daneben gibt es auch noch Spielarten des Atheismus, die den eigenständigen ontologischen Status von Gott oder Göttern einschränken oder bestreiten. Im anthropozentrischen Ansatz (Ludwig Andreas Feuerbach etwa) ist Gott kein echtes übernatürliches Wesen, sondern ein Produkt menschlicher Einbildungskraft. Kritik. Agnostizistische Gegenpositionen und Argumente. Mit Agnostizismus kann die These einer Falschheit von sowohl Theismus wie Atheismus oder nur eine Unentscheidbarkeit einhergehen. Wenn mit Atheismus die Festlegung auf eine Nichtexistenz Gottes gemeint ist („starke“ Bedeutung), dann bieten agnostizistische Positionen epistemische Argumente gegen theistische und „stark“ atheistische Positionen. Eine Form von Argumentation versucht zu zeigen, dass keine hinreichenden Rechtfertigungen für eine theoretische Verpflichtung auf Position oder Negation der Existenz Gottes bestünden, so dass eine diesbezügliche Urteilsenthaltung rationaler erscheine. Derartige Positionen sind insbesondere dann naheliegend, wenn „Gott“ verstanden wird als Eigenname, der auf ein etwaiges metaphysisches übernatürliches Objekt referiert, und empiristische oder verifikationistische Voraussetzungen vertreten werden. Dann wäre eine Aussage sinnlos, wenn deren Wahrheit nicht empirisch überprüfbar ist. Folglich wären die Aussagen „Gott existiert nicht“ und „Gott existiert“ nur unverständliche Lautkombinationen mit „… existiert (nicht)“. Theistische Gegenpositionen und Argumente. Jede Argumentation für theistische Positionen ist per se eine Argumentation gegen atheistische Positionen. Die meisten der bis heute diskutierten Typen von Argumenten haben Vorläufer bereits in der vorchristlichen Antike. Dazu zählen Versuche, die Existenz eines oder des Gottes zu beweisen, indem unterschiedliche Typen von Verursachungsketten auf eine Erstursache zurückgeführt werden. Dieser Typ von Argumenten begegnet in expliziter Form zuerst bei Aristoteles. Einer von vielen, welche diesen Argumenttyp wiederholen, ist Thomas von Aquin. Davon unterscheidbar sind Argumente, die ohne Bezugnahme auf Erfahrungstatsachen auskommen und z. B. bei einer Analyse des Seinsbegriffs (Avicenna u. a.) ansetzen oder bei einer Analyse der Implikate eines Begriffs Gottes als „dasjenige, worüber hinaus Größeres nicht gedacht werden kann“ (Anselm von Canterbury). Beide Argumenttypen sind unpopulärer geworden, spätestens seit Immanuel Kants Einwänden gegen die Möglichkeit, neue Wahrheiten über die Welt ohne Bezug auf Erfahrung zu gewinnen und über Gegenstände unabhängig davon zu reden, gemäß welcher Voraussetzungen diese uns erkennbar sind. Seit dem 19. Jahrhundert wird von vielen theistischen Philosophen und Theologen nicht mehr versucht, die Existenz Gottes als rational notwendig zu beweisen, sondern als rational möglich zu rechtfertigen. Dabei wird z. B. versucht aufzuweisen, dass der Gottesglaube eine Basis in der Natur oder Vernunft des Menschen habe (ausgearbeitet in einer sog. theologischen Anthropologie) oder insofern vernünftig sei, als er eine zufriedenstellende Interpretation von Mensch und Welt erlaube (so z. B. Wolfhart Pannenberg). Derartige Versuche, eine interne Plausibilität religiöser Überzeugungen herauszuarbeiten, haben eine Argumentationsweise ersetzt, welche die theologische Apologetik vom 14. bis frühen 20. Jahrhundert prägte, die mit äußeren Glaubwürdigkeitsgründen wie Wunder, Zeugen oder erfüllten Prophezeiungen argumentierte (sog. Extrinsezismus). Unter den zahllosen verschiedenen Ausarbeitungen von Rechtfertigungsversuchen eines Gottesglaubens wird in den letzten Jahrzehnten u. a. eine Gruppe von Positionen diskutiert, welche religiöse Überzeugungen im Kontext eines Meinungssystems für so grundlegend halten („basic beliefs“), dass diese weder einer weiteren Rechtfertigung zugänglich seien noch eine solche benötigten (sog. reformed epistemology, Erkenntnistheoretischer Fundamentalismus bezüglich religiösen Wissens, vertreten z. B. von Alvin Plantinga). Eine Argumentation zugunsten des Gottesglaubens, die sich auf erwünschte moralische oder gesellschaftliche Konsequenzen oder Funktionen bezieht, erscheint den meisten gegenwärtigen systematischen Theologen wenig plausibel. Eine derartige Argumentation findet sich auch in der vorchristlichen Antike, oftmals gepaart mit einer Polemik gegenüber Atheisten aufgrund der These, Atheismus führe notwendig und faktisch zu unmoralischem Verhalten. Platon etwa teilt in seinen Nomoi Atheisten in unterschiedliche Gruppen ein, die allesamt zu bestrafen seien; während für einige eine Gefängnisstrafe hinreiche, erfordere es bei anderen durchaus ein oder zwei Tode. Platon gilt, wie vielen vor und nach ihm, der Mensch kraft seiner Vernunft als göttlich und kraft seines Bezugs auf einen Gott als menschlich. Francis Bacon beschuldigt den Atheismus, „den Menschen zum Tier herabzuwürdigen, da er mit keiner höheren Natur mehr verbunden sei“. Papst Benedikt XVI. hob als Professor Joseph Ratzinger im Hinblick auf die Gefahr des „Unwesens“ der Religion auch eine positive reinigende Funktion des Atheismus hervor: Literatur. Allgemeine Einführungen und Kompendien. "Mit Nachschlagewerken:" Literatur zum „religiösen Atheismus“. "„Atheismus“ innerhalb von Religionen:"
151
568
https://de.wikipedia.org/wiki?curid=151
Anna Seghers
Anna Seghers (* 19. November 1900 in Mainz; † 1. Juni 1983 in Ost-Berlin; gebürtig Annette (Netti) Reiling, verheiratet als Netty Radványi) war eine deutsche Schriftstellerin und von 1952 bis 1978 Präsidentin des Schriftstellerverbandes der DDR. Leben. Herkunft und Ausbildung. Anna Seghers war das einzige Kind des Mainzer Kunst- und Antiquitätenhändlers Isidor Reiling und seiner Frau Hedwig (geb. Fuld). Ihr Großvater mütterlicherseits war der Frankfurter Rechtsanwalt Salomon Fuld. Der Vater war Mitglied und anteiliger Bauträger der 1879 eingeweihten neuorthodoxen Synagoge in der Flachsmarktstraße. Sie besuchte ab 1907 eine Privatschule, dann ab 1910 die Höhere Mädchenschule in Mainz, das heutige Frauenlob-Gymnasium. Im Ersten Weltkrieg leistete sie Kriegshilfsdienste. 1920 absolvierte sie das Abitur. Anschließend studierte sie in Köln und Heidelberg Geschichte, Kunstgeschichte und Sinologie. 1924 promovierte sie an der Universität Heidelberg mit einer Dissertation über "Jude und Judentum im Werk Rembrandts". Familiengründung und Anfänge als Autorin. 1925 heiratete sie den aus einer jüdischen Familie stammenden ungarischen Soziologen László Radványi, der sich später Johann Lorenz Schmidt nannte. Mit ihm hatte sie zwei Kinder. Das Ehepaar zog nach Berlin, wo es von 1925 bis 1933 im Bezirk Wilmersdorf wohnte. 1926 wurde der Sohn "Peter" geboren, der später Pierre Radványi hieß. In der Weihnachtsbeilage 1924 der "Frankfurter Zeitung" hatte die junge Autorin ihre erste Erzählung "Die Toten auf der Insel Djal" mit Antje Seghers signiert. Die Erzählung "Grubetsch" erschien 1927 unter dem Künstlernamen Seghers (ohne Vornamen), worauf Kritiker einen Mann als Autor vermuteten. Das Pseudonym entlieh sie dem von ihr geschätzten niederländischen Radierer und Maler Hercules Seghers (der Name wurde auch "Segers" geschrieben). 1928 wurde ihre Tochter Ruth († 2010) geboren. In diesem Jahr erschien auch Seghers’ erstes Buch "Aufstand der Fischer von St. Barbara" unter dem Pseudonym Anna Seghers. Für ihr Erstlingswerk erhielt sie auf Vorschlag von Hans Henny Jahnn noch im selben Jahr den Kleist-Preis. Ebenfalls 1928 trat sie der KPD bei und im folgenden Jahr war sie Gründungsmitglied des Bundes proletarisch-revolutionärer Schriftsteller. 1930 reiste sie erstmals in die Sowjetunion. Nach der Machtergreifung der Nationalsozialisten wurde Anna Seghers kurzzeitig von der Gestapo verhaftet; ihre Bücher wurden in Deutschland verboten und verbrannt. Wenig später konnte sie in die Schweiz fliehen, von wo aus sie sich nach Paris begab. Exil. Im Exil arbeitete sie an Zeitschriften deutscher Emigranten mit, unter anderem als Mitglied der Redaktion der "Neuen Deutschen Blätter". 1935 war sie eine der Gründerinnen des Schutzverbandes Deutscher Schriftsteller in Paris. Nach dem Beginn des Zweiten Weltkriegs und dem Einmarsch deutscher Truppen in Paris wurde Seghers’ Mann in Südfrankreich im Lager Le Vernet interniert. Anna Seghers gelang mit ihren Kindern die Flucht aus dem besetzten Paris in den von Philippe Pétain regierten Teil Südfrankreichs. Dort bemühte sie sich in Marseille um die Freilassung ihres Mannes sowie um Möglichkeiten zur Ausreise. Erfolg hatten ihre Bemühungen schließlich beim von Gilberto Bosques geleiteten mexikanischen Generalkonsulat, wo Flüchtlingen großzügig Einreisegenehmigungen ausgestellt wurden. Diese Zeit bildete den Hintergrund des Romans "Transit" (erschienen 1944). Im März 1941 gelang es Anna Seghers, mit ihrer Familie von Marseille aus über Martinique, New York, Veracruz nach Mexiko-Stadt auszuwandern. Ihr Mann fand dort Anstellung, erst an der Arbeiter-Universität, später auch an der Nationaluniversität. Anna Seghers gründete den antifaschistischen "Heinrich-Heine-Klub", dessen Präsidentin sie wurde. Gemeinsam mit Ludwig Renn rief sie die Bewegung Freies Deutschland ins Leben und gab deren gleichnamige Zeitschrift heraus. 1942 erschien ihr Roman "Das siebte Kreuz" – in einer englischen Ausgabe in den USA und auf Deutsch in Mexiko im Exil-Verlag El libro libre (Das freie Buch). Im Juni 1943 erlitt Anna Seghers bei einem Verkehrsunfall schwere Verletzungen, die einen langen Krankenhausaufenthalt notwendig machten. 1944 verfilmte Fred Zinnemann "Das siebte Kreuz" – der Erfolg von Buch und Film machten Anna Seghers weltberühmt; nach ihrem Tod machte Hans Werner Henze diesen Roman 1996 in einer Nachdichtung von Hans-Ulrich Treichel zur Grundlage seiner 9. Sinfonie. Leben in der DDR. 1947 verließ Seghers Mexiko und kehrte nach Berlin zurück, wo sie anfangs als Mitglied der Sozialistischen Einheitspartei Deutschlands in West-Berlin lebte. Auf dem Ersten Deutschen Schriftstellerkongress im Oktober 1947 hielt sie eine viel beachtete Rede über das Exil und den Freiheitsbegriff. In diesem Jahr wurde ihr der Georg-Büchner-Preis verliehen. 1950 zog sie nach Ost-Berlin und wurde zum Mitglied des Weltfriedensrates und zum Gründungsmitglied der Deutschen Akademie der Künste berufen. Im Jahr 1951 erhielt sie den Nationalpreis der DDR und unternahm eine Reise in die Volksrepublik China. 1952 wurde sie Präsidentin des Schriftstellerverbandes der DDR und blieb es bis 1978. 1955 zogen Anna Seghers und ihr Mann in die Volkswohlstraße 81 (seit 1984 Anna-Seghers-Straße) in Berlin-Adlershof, wo sie bis zu ihrem Tod wohnten. Seit dem Ende des 20. Jahrhunderts befindet sich in der Wohnung die "Anna-Seghers-Gedenkstätte", ein Museum zu Leben und Werk der Autorin. Als 1957 Walter Janka, dem Leiter des Aufbau-Verlages, der ihre Bücher verlegte, wegen angeblicher „konterrevolutionärer Verschwörung“ der Prozess gemacht wurde, nahm Anna Seghers dazu nicht öffentlich Stellung. Beim Ausschluss von Heiner Müller aus dem Schriftstellerverband im Jahre 1961 stimmte sie dagegen. 1975 wurden ihr der Kulturpreis des Weltfriedensrates sowie die Ehrenbürgerschaft von (Ost-)Berlin verliehen. 1978 trat sie als Präsidentin des Schriftstellerverbandes zurück und wurde dessen Ehrenpräsidentin. Im selben Jahr starb ihr Mann. Im Jahre 1979 schwieg Anna Seghers zu den Ausschlüssen von neun kritischen Autoren aus dem Schriftstellerverband. 1981 wurde ihr die Ehrenbürgerwürde ihrer Geburtsstadt Mainz verliehen. Sie starb am 1. Juni 1983 und wurde, nach einem Staatsakt in der Akademie der Künste der DDR, auf dem Dorotheenstädtischen Friedhof in Berlin beigesetzt. Trivia. Im März 1954 verbot die Gemeindeverwaltung von Ahrenshoop das Nacktbaden. Als bekennende Nudistin lag Seghers dennoch unbekleidet am Strand, ihr Gesicht mit der Zeitung Neues Deutschland bedeckt. Der Kulturminister Johannes R. Becher beschimpfte sie mit „Schämen Sie sich nicht, Sie alte Sau?“. Wenige Wochen danach erhielt sie als größte Schriftstellerin des Landes den Nationalpreis. Er wurde ihr vom Kultusminister Becher verliehen. Sie unterbrach seine Einleitungsworte „Meine liebe Anna“ mit „Für Dich, Hans, immer noch die alte Sau!“. Werke. Die frühen Werke Anna Seghers’ können der Neuen Sachlichkeit zugeordnet werden. In der Exilliteratur spielte sie nicht nur als Organisatorin eine wichtige Rolle, sondern schrieb mit "Transit" und "Das siebte Kreuz" auch zwei der literarisch bedeutendsten Romane dieser Zeit. Ihre späteren, in der DDR erschienenen Romane sind dem "Sozialistischen Realismus" verpflichtet.
152
411728
https://de.wikipedia.org/wiki?curid=152
Atmosphäre (Astronomie)
Die Atmosphäre [] (von , ‚Dunst‘, ‚Hauch‘ und ) ist die gas­förmige Hülle um größere Himmelskörper – insbesondere um Sterne und Planeten. Sie besteht meistens aus einem Gemisch von Gasen, die vom Schwerefeld des Himmelskörpers festgehalten werden können. Die Atmosphäre ist an der Oberfläche am dichtesten und geht in großen Höhen fließend in den interplanetaren Raum über. Sie bestimmt im Falle ihrer Existenz wesentlich das Erscheinungsbild eines Himmelskörpers. Die heißen Atmosphären von Sternen reichen tief in den Raum hinein. Bei Gasplaneten sind sie wesentlich kühler und von tieferen Schichten des Himmelskörpers nicht scharf getrennt. Bei großen Gesteinsplaneten und beim Saturnmond Titan ist die Atmosphäre eine (nach der Erde benannte) Erdsphäre und liegt über der Pedosphäre (betretbarer Boden) und der darunter befindlichen Lithosphäre. Entstehung einer Atmosphäre. Physikalische Erfordernisse. Bei der Ausbildung einer Planetenatmosphäre spielen mehrere Faktoren eine Rolle: Planetenmasse und -Radius bestimmen das Schwerefeld an der Oberfläche. Dieses muss ausreichend stark sein, damit die in der Regel aus Ausgasungen hervorgehenden Gasteilchen an den Himmelskörper gebunden bleiben und sich nicht in den Weltraum verflüchtigen können. Gasdichte, Temperatur und Schwerkraft. Entsprechend der kinetischen Gastheorie bewegen sich die Teilchen ungeordnet und dabei umso schneller, je höher die Temperatur des Gases ist und je leichter sie sind. Wenn die Anziehungskraft zu gering ist, verliert der Himmelskörper langfristig die schnellen (spezifisch leichten)Teile seiner Gashülle. Die Planetologie spricht dabei von "positiver Teilchenbilanz", wenn die Ausgasung des Gesteins mehr ausmacht als durch die Überwindung der Gravitation verloren geht. Ist diese Bilanz auch für schwerere Gase negativ, kann sich keine Atmosphäre ausbilden. Daher spielt neben der Größe des Himmelskörpers seine Oberflächentemperatur (die nicht zu hoch sein darf) eine wesentliche Rolle. Auch die Art der ausgebildeten Gase ist wichtig, da ein Planet bzw. großer Mond eine Atmosphäre aus Wasserstoff oder Helium viel schwerer halten kann als eine Hülle aus Sauerstoff, Stickstoff oder Kohlendioxid. Dies liegt daran, dass sich leichte Gasteilchen bei gleicher Temperatur wesentlich schneller bewegen als schwerere. Atmosphären, die Elemente wie Wasserstoff in größerem Umfang enthalten, finden sich daher vor allem bei sehr massereichen Gasriesen wie Jupiter oder Saturn, die eine sehr starke Gravitation besitzen. Letztlich ist nur eine kleine Minderheit der Himmelskörper in der Lage, eine Atmosphäre zu bilden und langfristig an sich zu binden. So besitzt zum Beispiel der Erdmond keine dauerhafte Atmosphäre, sondern nur kurzfristige, bodennahe Gase. Atmosphären der verschiedenen Himmelskörper. Vergleicht man die Himmelskörper unseres Sonnensystems und die Sterne miteinander, so zeigt sich der Einfluss der bei der Ausbildung einer Atmosphäre relevanten Faktoren und offenbart recht unterschiedliche Atmosphären. Atmosphäre von Sternen. Die Sonne bzw. die verschiedenen Sterne haben weitreichende Atmosphären, die mit der Photosphäre, Chromosphäre und Übergangsregion beginnen und mit Korona, Sonnenwind und Heliosphäre im weitestgehenden Sinne tief im interplanetaren Raum an der Heliopause enden. Die Atmosphäre der Sonne besteht weitgehend aus Wasserstoff (ca. 73 %) und Helium (ca. 25 %), die in Form ionisierten Plasmas (Sonnenwind und Sonnensturm) die Atmosphären der restlichen Himmelskörper im System beeinflussen. Atmosphären von Gasriesen. Die Atmosphärenzusammensetzung der Gasriesen wie Jupiter, Saturn, Uranus und Neptun basiert ähnlich wie die der Sterne im Wesentlichen auf den Stoffen Wasserstoff und Helium. Ihr Kern ist jedoch kalt und der Strahlungsdruck wie bei den Sternen fehlt. Atmosphären von Exoplaneten. Auch bei Planeten anderer Sternsysteme – den Extrasolaren Planeten – konnte mit verschiedenen Methoden das Vorhandensein von Atmosphären nachgewiesen werden, bisher jedoch nur im Radius von ca. 300 Lichtjahren um unser Sonnensystem herum. Das Wissen um die Eigenschaften dieser Atmosphären ist momentan sehr lückenhaft und unsystematisch. Dies beruht darauf, dass moderne astronomische Instrumente noch nicht auf diesen Zweig der Wissenschaft ausgelegt sind. Dies wird sich in der künftigen Generation von Instrumenten ändern, wie z. B. dem Weltraumteleskop JWST und dem Bodenteleskop E-ELT, deren Design gezielt in diese Richtung entwickelt wurde. Trotzdem können die oben erwähnten Methoden zur Entdeckung von Planeten auch in glücklichen Fällen zur Bestimmung der atmosphärischen Eigenschaften mancher Planeten herangezogen werden. Da die Atmosphären von Hot-Jupiter-Exoplaneten am leichtesten aufzuspüren und charakterisieren sind, konnte ein erster systematischer Vergleich ihrer Bewölkungseigenschaften durchgeführt werden. Gefunden wurde eine Antikorrelation von Bewölkung und spektralen Signaturen von Wasser in diesen Atmosphären. Dies würde bedeuten, dass Wasser generell in diesen Planeten bei ihrer Entstehung gebunden wird, was eines der ersten allgemeinen Ergebnisse über exoplanetare Atmosphären überhaupt darstellt. Atmosphärentabelle. Eine Übersicht der Himmelskörper des Sonnensystems hinsichtlich ihres atmosphärischen Drucks an der Oberfläche und ihrer chemischen Zusammensetzung in Volumenprozent. Gelistet sind die Hauptbestandteile einer Atmosphäre und das Wasservorkommen. Aufbau und Gradienten am Beispiel der Erdatmosphäre. Druckverlauf. Der Druckverlauf einer Atmosphäre, im Fall der Erdatmosphäre des Luftdrucks, ist in den unteren Bereichen durch die hydrostatische Gleichung bestimmt, die bei im Vergleich zum Planetenradius dünnen Atmosphären wie folgt geschrieben werden: Die Einflussgrößen sind der Druck "p", die Höhe "h", die Schwerebeschleunigung "g" und die Dichte "ρ". Im Falle konstanter Temperatur reduziert sich die Gleichung zur barometrischen Höhenformel. Im äußeren Bereich ist diese Beschreibung jedoch nicht mehr gültig, da sich die Bestandteile aufgrund der geringen Dichte auf Keplerbahnen oder den Magnetfeldlinien bewegen und sich gegenseitig kaum noch beeinflussen. Zur technischen Modellierung wird die Internationale Standardatmosphäre (ISA) verwendet, welche eine reine idealisierte Betrachtung über den gesamten Planeten darstellt. Die ISA beschreibt den Temperaturverlauf nach den polytropen Zustandsgleichungen. Dazu wird die Atmosphäre in Troposphäre und obere und untere Stratosphäre unterteilt. In der unteren Stratosphäre (11–20 km Höhe) findet überwiegend der internationale Flugverkehr statt. Überschallflüge hingegen in der oberen Stratosphäre. Untergliederungen. In der Regel ist eine Atmosphäre keine homogene Gashülle, sondern aufgrund zahlreicher innerer und äußerer Einflüsse in mehrere, mehr oder weniger klar gegeneinander abgegrenzte, Schichten einzuteilen, die vor allem durch die Temperaturabhängigkeit chemischer Prozesse in der Atmosphäre und die Strahlungsdurchlässigkeit abhängig von der Höhe entstehen. Im Wesentlichen kann man folgende Schichten nach dem Temperaturverlauf unterscheiden: Diese Gliederung gibt nur eine grobe Einteilung wieder, und nicht jede Schicht ist bei allen Atmosphären nachweisbar. So besitzt die Venus zum Beispiel keine Stratosphäre, kleinere Planeten und Monde besitzen nur eine Exosphäre, zum Beispiel der Merkur. Für Entstehung und Ausprägung der Dämmerungsfarben ist der vertikale Aufbau der Atmosphäre maßgeblich. Es ist auch möglich die Atmosphäre nicht nach dem Temperaturverlauf, sondern nach anderen Gesichtspunkten zu gliedern, wie:
153
403043
https://de.wikipedia.org/wiki?curid=153
Arvo Pärt
Arvo Pärt (Aussprache: [ˈɑrvo ˈpært]; * 11. September 1935 in Paide, Estland) ist ein estnischer Komponist, der als Vertreter der Neuen Einfachheit als einer der bedeutendsten lebenden Komponisten Neuer Musik gilt. Er hat die österreichische Staatsbürgerschaft. Von 1981 bis 2008 lebte er in Berlin. Leben. Im Alter von sieben Jahren begann Arvo Pärts musikalische Erziehung, mit vierzehn Jahren schrieb er erste eigene Kompositionen. 1954 begann er ein Musikstudium, arbeitete als Tonmeister beim Estnischen Hörfunk und studierte in Tallinn von 1958 bis 1963 Komposition bei Veljo Tormis und Heino Eller. Sein neoklassisches Frühwerk wurde von der Musik Schostakowitschs, Prokofjews und Bartóks beeinflusst. Anschließend experimentierte Pärt mit Schönbergs Zwölftontechnik und dem musikalischen Serialismus. Seine Musik erregte den Unwillen der sowjetischen Kulturfunktionäre wegen der nicht als systemkonform angesehenen modernen Komponierweise und wegen ihres religiösen Gehalts. Seine Komposition "Nekrolog," das erste estnische Werk in Zwölftontechnik, wurde 1960 von Tichon Chrennikow wegen ihres Serialismus offiziell missbilligt. Pärt suchte nach einem neuen künstlerischen Ausdrucksweg und fand ihn ab 1962 als Student am Moskauer Konservatorium in der sogenannten "Collage-Technik," in der er (wie in seiner Komposition "Credo)" Klangmaterial aus den Werken anderer Komponisten entlehnt, vor allem von Johann Sebastian Bach. Die Collage-Technik erwies sich jedoch für Pärt als Sackgasse: Er hatte das Gefühl, „es [ergebe] keinen Sinn mehr, Musik zu schreiben, wenn man fast nur mehr zitiert“. 1972 trat Pärt der russisch-orthodoxen Kirche bei. In einer langen schöpferischen Pause (1968–1976), in der die 3. Sinfonie (1971) das einzige autorisierte Werk ist, befasste er sich vor allem mit der Gregorianik (Gregorianischer Gesang), der Schule von Notre Dame und der Musik der Renaissance (klassische Vokalpolyphonie). Als Pärt 1976 das Klavierstück "Für Alina" präsentierte, hatte er in der langen Abgeschiedenheit seinen persönlichen Stil entwickelt, in dem die persönliche Gefühlswelt zugunsten einer dem Asketischen entsprungenen Balance zurücktritt. Diese neue Sprache, die für diese Epoche seines Lebenswerk bestimmend ist, nannte er "Tintinnabuli"-Stil. Tintinnabulum (lateinisch) bedeutet Glöckchenspiel. Gemeint ist das „Klingeln“ des Dreiklangs, dessen drei Töne das ganze Stück über mittönen. Das Ziel dieses Stils ist eine Reduktion des Klangmaterials auf das absolut Wesentliche. Kompositionstechnisch bestehen Pärts Tintinnabuli-Werke aus zwei Stimmen: Eine Stimme besteht aus einem Dur- oder Moll-Dreiklang, die zweite ist die Melodiestimme, die nicht zwingend in derselben Tonart steht wie die erste. Beide Stimmen sind durch strenge Regeln miteinander verknüpft. Der kleinste musikalische Baustein ist der Zweiklang, weshalb auch die Melodiestimme aus zwei Stimmen besteht. Die daraus entstehenden Gebilde entbehren trotz der Einfachheit des Materials und des Ziels der Reduktion auf das Wesentliche nicht der Komplexität. Mit Hilfe alter Techniken wie des Proportionskanons entwickelt er Formen, die durch ihre Regelmäßigkeit große Ruhe ausstrahlen. Statische Dreiklänge repräsentieren die Ewigkeit, dynamische Melodien die Vergänglichkeit der Zeit. Im Jahr 1980 emigrierte Arvo Pärt auf Druck der sowjetischen Regierung mit seiner Familie nach Wien, wo er die österreichische Staatsbürgerschaft erhielt. 1981 kam er als Stipendiat des Deutschen Akademischen Austauschdienstes mit seiner Familie nach Berlin-Lankwitz. Nach dem Zerfall der Sowjetunion und der Unabhängigkeit Estlands verbrachte er Teile des Jahres in seinem estnischen Landhaus. 2008 kehrte er nach Estland zurück. Pärt erfreut sich einer für einen zeitgenössischen Komponisten ungewöhnlich großen Beliebtheit. Auf Einladung von Walter Fink war er 2005 der 15. Komponist im jährlichen Komponistenporträt des Rheingau Musik Festival. Das Festival "Torino Settembre Musica" ehrte Pärt anlässlich der Olympischen Winterspiele von Turin mit der Auftragskomposition "La Sindone" "(Das Grabtuch)," einer Orchesterkomposition auf das Turiner Grabtuch, die am 15. Februar 2006 im Dom von Turin uraufgeführt wurde. Deren deutsche Erstaufführung durch die Symphoniker Hamburg fand am 24. Februar 2007 in der Hamburger Laeiszhalle in Anwesenheit Pärts statt. Die Aufführung seiner Werke in der Konzertsaison 2006/2007 widmete Arvo Pärt der am 7. Oktober 2006 ermordeten Journalistin Anna Politkowskaja. 2014 erhielt er die Ehrenmitgliedschaft der International Society for Contemporary Music ISCM (Internationale Gesellschaft für Neue Musik). Am 13. Oktober 2018 wurde das von Nieto Sobejano Arquitectos geplante "Arvo Pärt Centre" in Laulasmaa (Estland) eröffnet. Werk. Arvo Pärt strebt in seiner fast ausschließlich religiös motivierten Musik nach einem Ideal der Einfachheit, das die spirituelle Botschaft unterstützt. Pärt erklärt seine Musik so: Ein typisches Beispiel für seinen Stil ist seine "Johannespassion," für die er wie für viele seiner Werke Aus der Begründung der Gesellschaft zur Verleihung des Internationalen Brückepreises: Graphic Novel. 2018 erschien eine Graphic Novel des estnischen Grafikers und Karikaturisten Joonas Sildre, die 2021 auf Deutsch erschienen ist:
154
3354907
https://de.wikipedia.org/wiki?curid=154
Afghanistan
Afghanistan (paschtunisch und , amtlich "Islamisches Emirat Afghanistan") ist ein Binnenstaat an der Schnittstelle von Südasien, Zentralasien und Vorderasien, der an Iran, Turkmenistan, Usbekistan, Tadschikistan, die Volksrepublik China und Pakistan grenzt. Drei Viertel des Landes bestehen aus schwer zugänglichen Gebirgsregionen. Nach dem Einmarsch der Sowjetunion 1979 besiegten – von den Vereinigten Staaten und Saudi-Arabien finanzierte – Mudschaheddin die von der Sowjetunion gestützte Regierung. Die Aufteilung der Machtbereiche scheiterte jedoch an Rivalitäten; die fundamentalistisch islamisch ausgerichteten Taliban-Milizen kamen an die Macht und setzten eine radikale Interpretation des Islam und insbesondere der Scharia mit aller Härte durch. Nach den Terroranschlägen am 11. September 2001 in den Vereinigten Staaten wurde das Taliban-Regime, das Mitgliedern von Terrororganisationen Unterschlupf gewährt hatte, im maßgeblich von den Vereinigten Staaten geführten Krieg gegen den Terror gestürzt. Seither bestimmte dieser auch in Afghanistan geführte Krieg das Geschehen. Das Land konstituierte sich während der internationalen Stabilisierungsmission (ISAF) durch die Verfassung von 2004 als demokratische, islamische Republik. Von 2004 bis 2014 war Hamid Karzai Präsident der Islamischen Republik Afghanistan. Nach der Präsidentschaftswahl 2014 wurde Aschraf Ghani zum Sieger erklärt und am 29. September 2014 als Staatsoberhaupt vereidigt. Nach dem Abzug der internationalen Truppen Ende August 2021 erlangten die Taliban schnell wieder Kontrolle über das Land und proklamierten das Islamische Emirat Afghanistan. In diesem verüben die Taliban massive Menschenrechtsverletzungen. Im weltweiten Demokratieindex belegte Afghanistan 2022 mit Abstand den letzten Platz. Geographie. Topografie. Afghanistan ist ein Binnenstaat mit strategischer Bedeutung in der Region. Das Land ist größtenteils Gebirgsland. Weniger als 10 Prozent der Landesfläche liegen unterhalb von . Das zentrale Bergland besteht aus mehreren Gebirgszügen, deren höchster der Koh-e Baba (bis ) ist. Der Hindukusch (bis ) liegt im Nordosten, der Safed Koh (bis ) im Osten an der Grenze zu Pakistan. An dieser 2643 Kilometer langen Demarkationslinie befindet sich die Durand-Linie. Im Südwesten befindet sich eine abflusslose Ebene mit dem Hilmendsee an der Grenze zum Iran. Sein wichtigster Zufluss ist der Hilmend, der im Osten des Landes nahe der Hauptstadt Kabul entspringt. Afghanistan ist vor allem ein Gebirgsland im östlichen Iranischen Hochland. Nur im Norden liegen Ebenen am Amudarja und im Südwesten kleinere wüstenartige Becken. Der Nordosten wird vom Hindukusch durchzogen. Zwischen dem Becken von Kabul und dem nördlichen Landesteil besteht seit 1964 eine winterfeste Straßenverbindung über den Gebirgskamm mit einem fast 3 km langen Tunnel (Salangpass-Straße). Durch den Wachankorridor im Pamirgebirge besitzt Afghanistan auch mit der Volksrepublik China eine gemeinsame Grenze. Der südliche Hindukusch fällt steil in die Landschaft Nuristan ab, die teilweise noch von Nadelwäldern bedeckt ist. Die Landschaften zwischen der Hauptstadt Kabul und dem Chaiber-Pass an der Grenze zu Pakistan sind der politische und wirtschaftliche Kernraum des Landes. Siedlungskern im westlichen Afghanistan ist die Stadt Herat. Das südliche und südwestliche Afghanistan besteht aus Wüsten und Halbwüsten. Es wird nur vom Hilmend durchflossen, der der längste afghanische Fluss ist. Der Hilmend endet in den Salzseen von Sistan an der Grenze zum Iran. Östlich des Hilmend liegt die Wüste Rigestan („Sandland“) und westlich des Hilmend die vorwiegend aus Schotter und Lehmflächen bestehende Dascht-e Margo. Im nordöstlichen Hindukusch-Gebirgszug und in Teilen der Provinz Badachschan bebt häufig die Erde. Solche Erdbeben verursachen Erdrutsche und im Winter Schneelawinen. In einem starken Erdbeben am 30. Mai 1998 im Gebiet der Provinz Badachschan starben ungefähr 6000 Menschen. Auch im März 2002 starben dort tausende Menschen. 2012 zerstörte ein Erdbeben über 2000 Häuser; elf Menschen starben. In Afghanistan gibt es Kohle, Kupfer, Eisenerz, Lithium, Uran, Metalle der Seltenen Erden, Chromit, Gold, Zink, Talk, Baryt, Schwefel, Blei, Marmor, Schmuckstein, Erdgas, Erdöl und weitere Rohstoffe. 2010 schätzten die US-amerikanische und die afghanische Regierung den Wert der bis 2007 gefundenen, aber noch ungenutzten Mineralvorkommen auf einen Wert zwischen 900 und 3000 Milliarden US-Dollar. Der höchste Punkt des Landes ist der Gipfel des hohen Noshak im Hindukusch. Der tiefstgelegene Punkt () liegt in der Flussebene des Amudarja an der Grenze zu Turkmenistan. Die Band-e-Amir-Seen bei Bamiyan zählen zu den in der westlichen Welt bekanntesten Sehenswürdigkeiten. Sie sind seit 2009 als erster Nationalpark in Afghanistan ausgewiesen. Klima. In Afghanistan herrscht ein kontinentales Klima mit heißen trockenen Sommern (nur im äußersten Südosten bringt der Monsun Regen) und sehr kalten Wintern. Die winterlichen Westwinde bringen meist mäßige Niederschläge. Im Winter sind wegen der großen Höhe des Landes vor allem im Norden gelegentlich auch Schneefälle bis in die Täler möglich. Klimatisch gehört der Süden des Landes bereits zu den wärmeren Subtropen, in denen der Anbau von Dattelpalmen möglich ist, während der Norden eher zur gemäßigten Zone gehört. Im Jahr 2000 hatte die Hälfte der Bevölkerung unter einer der häufig auftretenden schweren Dürren zu leiden. Solche Dürren könnten sich in Zukunft häufen; die Globale Erwärmung könnte dazu führen, dass vor allem im Winter und Frühjahr weniger Niederschläge fallen (→ arideres Klima). Für den vom Monsun betroffenen Süd-Osten steht hingegen zu erwarten, dass die Niederschlagsmengen im Sommer stärker variieren; durch die zusätzliche Erwärmung der Atmosphäre wird auch das indische Monsunsystem labiler. Besonders die Landwirtschaft (in der viele Afghanen arbeiten) könnte negativ betroffen werden. In den diese Orte umgebenden Gebirgen und Hochgebirgen ist es kälter; die Lufttemperatur sinkt gemäß der Höhenformel um typisch 0,65 °C pro 100 m Höhe. Flora. Mit bis zu 5000 vermuteten höheren Pflanzenarten weist Afghanistan eine angesichts der Trockenheit recht hohe Artenzahl aus (zum Vergleich: für die etwa halb so große Bundesrepublik Deutschland werden um die 4000 Pflanzenarten geschätzt). Mit einem Anteil endemischer Arten von rund 30 % ist die afghanische Flora sehr reich an Pflanzen, die sonst nirgends auf der Welt vorkommen. Weite Teile des Landes sind durch menschlichen Einfluss umgestaltet, jahrtausendelange Überweidung, Entwaldung und landwirtschaftliche Nutzung haben trotz der Größe des Landes dazu geführt, dass nur sehr wenige, insbesondere abgelegene Regionen, noch eine natürliche Vegetation aufweisen. Eine kontinuierliche floristische Erforschung Afghanistans begann erst Mitte des 20. Jahrhunderts, auch sie ist durch die politische Situation des Staates erschwert. Naturschutz. Afghanistan weist eine große Habitatdiversität mit sehr unterschiedlichen ökologischen Bedingungen auf. Der Etablierung eines systematischen Naturschutzes steht die seit Jahrzehnten instabile politische Situation des Landes entgegen, erst 2009 wurde mit den Band-e-Amir-Seen bei Bamiyan der erste Nationalpark in Afghanistan ausgewiesen. Er besteht aus sechs spektakulären türkisfarbenen Seen, die durch natürliche Travertindämme getrennt sind. Städte. Im Jahr 2020 lebten 26 Prozent der Einwohner Afghanistans in Städten. 5 Prozent leben als Nomaden. Die größten Städte waren im Jahr 2019: Bevölkerung. Demografie. Afghanistan hatte 2021 40,1 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug +2,9 %. Afghanistan hatte damals eine der jüngsten und am schnellsten wachsenden Bevölkerungen weltweit, die Bevölkerungszahl hatte sich bis 2021 trotz mehrerer Kriege von 13,4 Millionen Menschen im Jahr 1980 verdreifacht. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 4,8. Außerhalb Afrikas ist Afghanistan das Land mit der höchsten Fruchtbarkeitsrate der Welt. Die meisten Frauen haben keinen Zugang zu Verhütungsmitteln und werden oft sehr jung schwanger. 2050 soll Afghanistan gemäß einer Schätzung 61 Millionen Einwohner haben, was die begrenzten Ressourcen des Landes stark belasten würde. Bevölkerungsstruktur. Die Bevölkerung des Landes fühlt sich einer Vielzahl ethnischer Gruppen und Stämme zugehörig; aus historischen Gründen sehen sich die Paschtunen, die größte Ethnie Afghanistans, oft als staatstragendes Volk. In vielen Gegenden leben mehrere Volksgruppen miteinander; die Zugehörigkeit zu einer der Gruppen ist statistisch nicht erfasst und kann nur geschätzt werden. Die Zuordnung des Einzelnen zu einer bestimmten ethnischen Gruppe ist zudem nicht immer eindeutig, da sich Selbstidentifikation und Fremdzuschreibung häufig unterscheiden. Die im Folgenden angegebenen Werte basieren auf der Bevölkerungszahl des Jahres 2009. Nach 1992 prägten ethnische Konflikte die Auseinandersetzungen zwischen den Mudschaheddin. Die traditionellen Herrscher Afghanistans waren die Paschtunen, sie bilden auch die große Mehrheit der Taliban-Bewegung. Der Sturz des Taliban-Regimes im Jahr 2001 gab einer Allianz aus Tadschiken, Hazara und Usbeken die Gelegenheit, ein Abkommen über die Aufteilung der Macht durchzusetzen. Die Paschtunen sehen sich seitdem Vergeltungsangriffen ausgesetzt. Unter den Taliban war es darüber hinaus zu Auseinandersetzungen zwischen Sunniten und Schiiten gekommen. Im Jahre 2017 waren 0,4 % der Bevölkerung im Ausland geboren. Frauen. Unter Amanullah Khan gab es 1923 den Vorschlag einer neuen Verfassung, die Wahlrechte für Frauen enthielt. Nadir Schah und Zahir Schah strichen die frauenfreundlichen Maßnahmen, und Frauen wurde das Wahlrecht verweigert. In der Verfassung von 1963, die 1964 in Kraft trat, erhielten Frauen das aktive und passive Wahlrecht. Doch es war auf Frauen beschränkt, die lesen und schreiben konnten. Diese Beschränkung wurde später gestrichen. Vor allem in Städten und größeren Orten gehen Frauen meist nur mit Ganzschleier (Burka) aus dem Haus. Allerdings wurde die Burka nur in größeren Städten üblich. Auf dem Land war die Burka nicht üblich, da sie etwa bei der Feldarbeit hinderlich ist. Nur in der kurzen Phase der kommunistischen Regierung 1978 und während deren Unterstützung durch sowjetische Truppen seit 1979 erhielten Frauen teilweise formale Selbstständigkeit, Freiheit und Schulbildung. Die Taliban verpflichteten Mitte der 1990er Jahre alle Frauen zum Tragen einer Burka. Bei den Tadschiken und den anderen Volksgruppen war diese Tradition bis dahin nicht weit verbreitet. Die Burka-Pflicht wurde 2001 offiziell wieder aufgehoben, die Burka bleibt jedoch weiterhin die gewöhnliche Kleidung für die meisten Frauen. Nur wenige Frauen wagen es, sich ohne männliche Begleitung in der Öffentlichkeit zu bewegen. Übergriffe gegen Frauen sind in Kabul und anderen größeren Städten nicht selten. Unter den Taliban war Frauen die Berufstätigkeit verboten, auch den Mädchen war es untersagt, eine Schule zu besuchen. Da es durch den Krieg allein in Kabul etwa 30.000 Witwen gab, waren diese völlig auf sich allein gestellt. Vielen blieb nichts anderes übrig, als zu betteln. Der eheliche Beischlaf ist seit 2009 in Artikel 132 des Gesetzes zur Regelung des Familienlebens verpflichtend. Dort steht: „Die Frau ist verpflichtet, den sexuellen Bedürfnissen ihres Mannes jederzeit nachzukommen.“ Nach Artikel 133 können Ehemänner ihre Frauen von unnötiger Beschäftigung abhalten. Auch wenn Frauen das Haus verlassen wollen, müssen sie zuerst die Erlaubnis des Ehemanns einholen. Im August 2020 bekundete Präsident Aschraf Ghani die Absicht, vor den geplanten Friedensgesprächen mit den Taliban einen Hohen Rat für Frauen zu schaffen, mit 26 Vertretern gesellschaftlicher Gruppen, die sich für Frauenrechte einsetzen, darunter Menschenrechtler, Aktivistinnen, Politiker und Beamte. Hunderte Frauen forderten unterdessen die Taliban in einem offenen Brief auf, ihre Rechte zu respektieren. Im März 2021 verbot das afghanische Erziehungsministerium allen Mädchen über zwölf Jahren, in Anwesenheit von Männern zu singen. Mit der Machtergreifung der Taliban im Jahr 2021 wurden die wenigen Frauenrechte, die bis dahin während des Krieges in Afghanistan implementiert worden waren, wieder abgeschafft. So schlossen die Taliban die Schulen für Mädchen ab 13 Jahren. Seit November 2022 ist Frauen in der Hauptstadt Kabul der Aufenthalt in öffentlichen Parks, Fitnessstudios und Freizeitparks auf Weisung der Taliban verboten. Einen Monat später erließen die Taliban ein Hochschulbildungsverbot gegen Frauen bzw. schlossen diese von Hochschulen aus. Flüchtlinge. Ab 1980 waren mehr als 6 Millionen Afghanen in die benachbarte Islamische Republik Pakistan und den Iran geflohen. Viele kamen zwar zurück, doch durch die Kämpfe im Jahr 2001 entstand eine neue Flüchtlingswelle; Hunderttausende wurden innerhalb des Landes vertrieben. Mit 3,2 Millionen Rückkehrern aus Pakistan und 860.000 aus dem Iran hat das UNHCR von 2002 bis 2007 rund 4 Millionen Afghanen bei ihrer Rückkehr ins Heimatland unterstützt. Etwa 3 Millionen registrierte Afghanen befanden sich Ende 2007 noch im Exil, davon zirka 2 Millionen in Pakistan, insbesondere in Peschawar, und 910.000 im Iran. Die Aufnahme des Programms der freiwilligen Rückkehr aus Pakistan wurde ab März 2008 fortgesetzt. Afghanistan hat eine wachsende Diaspora in westlichen Staaten. 2018 lebten rund 257.000 Personen afghanischer Herkunft in Deutschland. Rund 580.000 Menschen kehrten von Januar bis September 2018 auch aufgrund der wirtschaftlichen Lage aus Iran nach Afghanistan zurück. Infolge der Machtübernahme der Taliban im Jahr 2021 und dem damit verbundenem Anstieg der Armut nahmen die Flüchtlingszahlen wieder zu. Waisen. Stand 2021 gibt es rund 120.000 minderjährige Vollwaisen. Etwa 20.000 von ihnen sind in staatlichen oder privaten Einrichtungen in Obhut. Sprachen. In Afghanistan werden etwa 49 Sprachen und über 200 verschiedene Dialekte gesprochen. 1964 bestimmte die Große Ratsversammlung (Loja Dschirga) im Rahmen der Bestätigung einer neuen Verfassung Persisch („Dari“) und Paschto als offizielle Landes- und Regierungssprachen (Amtssprachen). Paschto. Paschto, die Sprache der größten Ethnie Afghanistan, der Paschtunen, ist per königlichem Dekret seit 1936 Amtssprache und wird Schätzungen aus dem Jahr 2023 zufolge von 52,4 % der Bevölkerung als Muttersprache gesprochen. Andere Schätzungen aus Kriegszeiten gehen von rund 35 bis 38 % aus, was die Anzahl der Paschtunen im Land deutlich unterschreitet und ein Zeichen dafür sein kann, dass diese, gerade in Großstädten wie Kabul oder Herat, ihre Muttersprache nicht sprachen. Traditionell wird die Nationalhymne Afghanistans in Paschto gesungen. Auch militärische Titel sind der paschtunischen Sprache entliehen. Persisch (Dari). "Dari" () ist die offizielle in Afghanistan gebräuchliche Bezeichnung für die persische Sprache. Der Begriff ist von "Fārsī-ye Darbārī", „Persisch des königlichen Hofes“ () abgeleitet. Etwa 32,1 % der Bevölkerung des Landes sprechen Dari als Muttersprache (Stand: 2023), insbesondere von den Tadschiken und Hazara, aber auch von Teilen der paschtunischen Bevölkerung, den Aimaken, Qizilbasch etc. Persisch war seit dem Mittelalter die dominierende Verwaltungs- und Kultursprache der Region bis hin nach Nordindien. Die persische Schriftsprache diente seit der Staatsgründung Afghanistans als Amts- und Verwaltungssprache. Das "Farsi" des Irans unterscheidet sich dabei von Dari hauptsächlich in der Phonetik, der Akzentuierung und Silbenstruktur. Das Dari der Bewohner der Hauptstadt Kabul prägt nicht nur die Regierungs- und Wirtschaftssprache Afghanistans, sondern dient auch jenen Volksgruppen, deren Muttersprache weder Paschto noch Dari ist, als Lingua franca. Bis in die 1960er Jahre war der Titel des in afghanischen Schulen gebräuchlichen Lesebuchs "Qerahate Farsi" (Persisches Lesebuch). 1964 benannte das zuständige Ministerium es in "Qerahate Farsi e Dari" und schließlich in "Qerahate Dari" um. Während die Bevölkerung die Landessprache häufig noch "Farsi" nennt, verwenden die staatlichen Institutionen und Medien die Bezeichnung "Dari". Johann Friedrich Kleuker verwendete 1776/77 erstmals im deutschen Sprachraum die Bezeichnung "Deri" für das Persische, das sich seit der Sassanidenzeit als Hofsprache aller Länder des iranischen Hochlandes entwickelt hatte. 1818 verwendete Joseph von Hammer-Purgstall dieselbe Bezeichnung bei seiner Übersetzung des Diwans des Dichters Hafis. Die Bezeichnung "Dari" kam im 9./10. Jahrhundert am Hof der Samaniden in Mittelasien auf, die das Persische zur Hofsprache erhoben hatten. Das afghanische Persisch oder Dari ist eng verwandt mit dem Tadschikischen, und die größte persischsprachige Bevölkerungsgruppe in Afghanistan sind Tadschiken. Dennoch ist die Sprachbezeichnung Tadschikisch nur für das Persische Tadschikistans und einiger anderer Gebiete der ehemaligen Sowjetunion üblich, in denen tadschikische Minderheiten leben. Tadschikisch wird meist in kyrillischer Schrift geschrieben, während Dari ebenso wie Persisch in persisch-arabischer Schrift geschrieben wird. Regionale Nationalsprachen. Daneben sind fünf Minderheitensprachen seit 1980 in jenen Regionen als Nationalsprachen anerkannt, in denen diese von der Mehrheit gesprochen werden; die Wichtigste ist Usbekisch. Auch Turkmenisch, Belutschisch, Paschai und Nuristani (Kati) haben unter der Regierung Hamid Karzais eine Aufwertung erfahren. Englisch. Englisch war bereits zu Zeiten Britisch-Indiens die Handels- und Geschäftssprache in Afghanistan. Auch nach der Unabhängigkeit vom Vereinigten Königreich im Jahr 1919 wurde in Afghanistan Englisch als internationales Kommunikationsmittel gelernt. Die afghanische Verfassung ist auch in englischer Sprache verfügbar. Auch auf Plakaten, in der Werbung und der offiziellen Beschilderung wird es verwendet. Es gab Bestrebungen, Englisch zur dritten Amtssprache Afghanistans zu erheben. Urdu. Die Muttersprache der Hindu- und Sikh-Minderheit in Afghanistan ist Urdu. Die große Beliebtheit von indischen und pakistanischen Filmen führte dazu, dass auch in anderen Bevölkerungsteilen Urdukenntnisse vorkommen. Urdu wird von einigen afghanischen Dichtern als Literatursprache verwendet und zudem in manchen afghanischen Schulen als Fremdsprache unterrichtet. Religion. Über 99,9 % der Bevölkerung sind Muslime, davon etwa vier Fünftel meist hanafitische Sunniten und ein Fünftel imamitische Schiiten. Der Islam ist in Afghanistan über die Jahrhunderte von den Afghanen sehr konservativ ausgelegt worden, wobei das Stammesrecht der Paschtunen eine Rolle spielte. Jedoch wird der Islam je nach ethnischer Gruppe, Region und Bildungsstand unterschiedlich verstanden und interpretiert. Eine wichtige Rolle spielen bis heute die vorislamischen Bräuche der Bevölkerung, wie zum Beispiel das altiranische Neujahr "(Nouruz)" nach dem iranischen Kalender oder der Glaube an segenbringenden Weihrauch "(Espand)", beides zoroastrische Bräuche. Die Lage der christlichen Minderheit in Afghanistan hatte sich Anfang Juni 2010 zugespitzt, nachdem der private Fernsehsender „Noorin TV“ und andere Kanäle einen Film über die Taufe von Konvertiten ausgestrahlt und ihre Gesichter gezeigt hatten. Danach riefen afghanische Regierungsvertreter dazu auf, Islam-„Abtrünnige“ mit dem Tode zu bestrafen. Staatspräsident Hamid Karzai wies Regierung und Staatsschutz an, dafür zu sorgen, dass es keine weiteren Übertritte gebe. Der stellvertretende Parlamentspräsident Abdul Satter Chowasi (Kabul) forderte die öffentliche Hinrichtung von Personen, die vom Islam zum Christentum übertreten. Ein Abgeordneter erklärte, die Ermordung von Christen, die zuvor Muslime waren, sei kein Verbrechen. Seither sind zahlreiche christliche Familien untergetaucht oder ins Ausland geflohen. Humanitäre Hilfswerke werden einer strengen staatlichen Kontrolle unterzogen. Zwei, die den Begriff „Kirche“ im Namen tragen, mussten ihre Aktivitäten einstellen – die Norwegische Kirchenhilfe und die US-amerikanische Organisation World Church Services (Kirchliche Weltdienste). Daneben gibt es noch höchstens 15.000 Hindus und einige wenige hundert Sikhs. Zebulon Simentov war der letzte bucharische Jude, der im Jahr 2021 Afghanistan verließ. Über die Zahl der Christen ist wenig bekannt. Bildung. Invasion, Bürgerkrieg und die Kulturfeindlichkeit der Taliban ließen große Teile der Bevölkerung ohne jeden Zugang zu Bildung aufwachsen. Frauen sind vom Ausschluss aus dem Bildungssystem stärker betroffen als Männer. Die Analphabetenquote war 2015 mit 61,8 % im internationalen Vergleich sehr hoch (Frauen: 75,8 %; Männer: 48 %). Der Analphabetismus ist eines der größten Hindernisse beim Wiederaufbau des Landes. Nach dem Ende des Taliban-Regimes entstanden mit ausländischer Hilfe zahlreiche Schulen mit zum Teil neu ausgebildetem Lehrpersonal, sodass ein großer Teil der Kinder und Jugendlichen, vor allem auch Mädchen, Zugang zu einer Schulbildung erlangten. Die mittlere Schulbesuchsdauer über 25-Jähriger stieg von 1,5 Jahren im Jahr 1990 auf 3,6 Jahre im Jahr 2015. Die Bildungserwartung lag 2018 bei 10,1 Jahren. Im Jahr 2014 gab es in Afghanistan 17 Universitäten und 17 „Institutions of Higher Education“ (IHE; vergleichbar mit einer Berufsschule) unter staatlicher Kontrolle. Daneben gibt es eine wachsende Anzahl an Privatuniversitäten von sehr unterschiedlicher Qualität. Finanziell gefördert werden lediglich Universitäten und Hochschulen, deren Namen aus den „bisherigen nationalen […] Fachausdrücken“ bestehen. Der Staat macht die Anerkennung und Förderung der Hochschulen und Universitäten in den nicht-paschtunischen Gebieten von der paschtunischen Benennung der Hochschule abhängig, was darin seine Begründung findet, dass Paschto eine der beiden Amts- und Landessprachen ist. In den paschtunischen Gebieten kann die persische Benennung der Hochschulen jedoch fehlen, ohne dort Sanktionen zu fürchten. Der letzte Absatz des Artikels 16 der Verfassung („die bisherigen nationalen […] und administrativen Fachausdrücke werden beibehalten“ – in Anspielung auf den Status der paschtunischen Sprache als Nationalsprache in der Zeit von Mohammad Zahir Khan, 1933–1973) hebt die vorangegangenen, eigentlich demokratischen Absätze über Sprachenfreiheit wieder auf. Hatten die Taliban im März 2022 angekündigt, Mädchen den Besuch von weiterführenden Schulen (Sekundarstufe I und II) zu erlauben, änderten die Taliban noch im selben Monat ihre Bildungspolitik und schlossen die Mädchenschulen für alle Kinder ab 13 Jahren. Unterricht für die Mädchen ab jener Altersgruppe findet daher, wenn überhaupt, nur durch Ehrenamtliche im Geheimen statt. Gesundheitswesen. Im Jahr 2018 praktizierten in Afghanistan 3 Ärztinnen und Ärzte je 10.000 Einwohner. Die ländliche Bevölkerung hat nur zu etwa 66 Prozent Zugang zu medizinischer Versorgung. 80 Prozent der Ärzte arbeiten in Kabul. In der Hauptstadt sind auch 60 Prozent der Krankenhausbetten und 40 Prozent der Apotheken. Afghanistan hat eine der höchsten Mutter-Kind-Sterblichkeitsraten der Welt. Nur bei 19 Prozent der Geburten steht medizinisches Fachpersonal zur Verfügung. Jährlich sterben etwa 24.000 Frauen vor, während oder direkt nach einer Entbindung. Laut Weltbank konnte die Kindersterblichkeit stark gesenkt werden. Die Sterblichkeit bei unter 5-jährigen betrug 2020 58,0 pro 1000 Lebendgeburten, 1980 betrug sie noch 244 pro 1000 Lebendgeburten. Im Jahr 2019 waren 26 % der Bevölkerung unterernährt. Im Jahr 2001 betrug die Rate noch 48 %. Die Lebenserwartung der Einwohner Afghanistans ab der Geburt lag 2020 bei 62,6 Jahren (Frauen: 65,4, Männer: 59,9). Landesname. Afghanistan bedeutet wörtlich „Land der Afghanen“. Die persische Endung "-stan" geht auf den indoiranischen Ausdruck für „Platz“ oder „Ort, an dem man steht“ zurück. Ein Afghane ist hierbei nicht im modernen Sinne als Staatsbürger Afghanistans zu verstehen, sondern als Angehöriger des Volkes und der Stämme der Paschtunen, die im persischen Sprachraum länderübergreifend als Afghanen und auf dem Indischen Subkontinent als Pathanen bezeichnet werden. Heute hingegen ist in der Verfassung Afghanistans ausdrücklich geregelt, dass alle Staatsbürger Afghanistans unabhängig von ihrer Ethnizität als Afghanen verstanden werden. 1801 wurde der Name Afghanistan im anglo-persischen Friedensvertrag im Zusammenhang mit den paschtunischen Siedlungsgebieten zum ersten Mal offiziell erwähnt, nachdem er bereits in den tschagataischsprachigen Memoiren Baburs aus dem 16. Jahrhundert, in einem regional begrenzten Sinne und auf die paschtunischen Stämme südlich von Kabul bezogen, erwähnt worden war. Erst 1919, mit der vollen Unabhängigkeit Afghanistans vom Britischen Weltreich, wurde der Name offiziell anerkannt und 1936, mit der ersten Verfassung des Landes, etabliert. Eine andere Bezeichnung für den Großteil des Gebietes ist Kabulistan oder Königreich von Kabul, die im 19. Jahrhundert vom schottischen Geschichtsschreiber Mountstuart Elphinstone als Landesbezeichnung bevorzugt verwendet wurde. Der wohl bekannteste historische Name dieser Region ist Chorasan, der über viele Jahrhunderte hinweg für die islamische und persische Blütezeit stand. Noch zu Elphinstones Zeit war die Bezeichnung Chorasan für den afghanischen Staat unter Einheimischen gängig. So erwähnte er, dass er bei seinem ersten Besuch in dem Land, das für die Außenwelt als Afghanistan bekannt war, von den Einheimischen in Chorasan willkommen geheißen wurde. Geschichte. Von der Antike bis zur Neuzeit. In der Antike gehörte das Gebiet des heutigen Afghanistan, das dem Osten des antiken „Aryānām Xšaθra“ entspricht, zum Perserreich. Später entstand in Baktrien ein Griechisch-Baktrisches Königreich, das von den Nachfolgern Alexanders des Großen regiert wurde. Das Gebiet wurde seit dem 2. Jahrhundert v. Chr. von verschiedenen Gruppen beherrscht und gehörte großenteils zum Parther- und Sassanidenreich. In der Spätantike siedelten dort die sogenannten iranischen Hunnen, bevor deren letztes Herrschaftsgebilde, das Hephthalitenreich, von Sassaniden und Göktürken vernichtet wurde. Nach dem Fall der persischen Sassaniden im Zuge der Invasion der muslimischen Araber (siehe Islamische Expansion) und dem langsamen Zerfall des Kalifats der Abbasiden, dominierten dort iranische Dynastien, die dem Kalifat höchstens nominell unterstanden. Der Islam setzte sich dennoch in dieser Region verhältnismäßig langsam gegen den Widerstand der Turk-Schahi und der Hindu-Shahi durch. Erst gegen Ende des 10. Jahrhunderts, mit der Eroberung der Region durch türkische Nomaden und Militärsklaven (unter anderem die Ghaznawiden und Seldschuken), sollen nach einer islamischen Chronik die meisten Einwohner im Raum Ghor (zwischen Herat und Kabul) Muslime gewesen sein. In dieser Zeit, unter den Ghaznawiden und Ghuriden, war das heutige Afghanistan das Kernland mächtiger Großreiche. Im 15. Jahrhundert machten die Timuriden Herat zu ihrer Hauptstadt. Vom 16. bis zum 18. Jahrhundert stand die Region im Mittelpunkt der Konflikte zwischen den persischen Safawiden im Westen, dem indischen Mogulreich im Südosten und den usbekischen Scheibaniden im Norden. Aufstieg der Paschtunen. Die Geschichte des modernen Afghanistan ist unzertrennlich mit der nationalen Geschichte der Paschtunen verbunden. Unzählige paschtunische Aufstände gegen die jeweiligen Herrscher (persische Safawiden und indische Mogulen) führten schließlich mit dem Aufstand des Stammes Ghilzai (1719) zum Sturz der Safawiden in Persien (1722). Dieser Sieg der Paschtunen hielt aber nicht lange an. Nur sieben Jahre später wurden sie von Nader Schah besiegt und zurück nach Kandahar verdrängt. Durch die folgenden Eroberungen Nader Schahs (1736–1747) erlangte das persische Reich vorübergehend wieder die Gewalt über die Region, die heute "Afghanistan" heißt. Nach dessen Ermordung übernahm der Stamm der Durranis, die mit Nader Schah gegen die Ghilzai verbündet waren und unter seinem Befehl kämpften, selbständig die Macht. Staatsgründung und Namensgebung. Der Paschtune Ahmad Schah Durrani begründete im Jahr 1747 nach dem Tod Nader Schah Afschars, im Osten seines Reiches, ein selbstständiges, paschtunisches Königreich, das als Vorgänger des modernen Staates Afghanistan betrachtet werden kann. Damit gilt er allgemein als der Begründer Afghanistans. Das von Ahmed Schah Durrani gegründete Reich zerbrach später an inneren Streitigkeiten und Einmischungen von außen. Wenig später geriet Afghanistan in den Einflussbereich der expandierenden Briten. Der Name „Afghanistan“ wurde erst im 19. Jahrhundert eingeführt und erst 1919 als Staatsname etabliert. Einflussbereich britischer und russischer Interessen. In Afghanistan kollidierten russische und britische Kolonialinteressen (The Great Game). Seit der Aufstellung der Kaiserlich Russischen Marine durch Zar Peter den Großen war es Ziel russischer Expansionspolitik, zum Indischen Ozean vorzustoßen und dort einen eisfreien Hafen zu bauen. Um Russland zuvorzukommen, sollte Afghanistan erobert und als Teil des Britischen Weltreichs an das spätere Britisch-Indien angegliedert werden. Dazu kämpfte 1839–1842 eine große anglo-indische Armee im ersten Anglo-Afghanischen Krieg gegen einen relativ schlecht ausgerüsteten afghanischen Widerstand. Die Briten konnten zwar das Land besetzen, jedoch nicht ihre Ziele durchsetzen. 1842 wurde ein Waffenstillstand vereinbart, bei dem die Briten sich bereit erklärten, ihre Truppen zurückzuziehen. Diese wurden jedoch kurz darauf am Chaiber-Pass angegriffen und alle Soldaten, darunter 690 britische und 2840 indische, aber auch 12.000 Zivilisten getötet. Als Reaktion auf diese Niederlage wurde eine Strafexpedition unter Generalmajor George Pollock entsandt, die am 15. September 1842 Kabul einnahm. Schon am 11. Oktober 1842 zogen sich die britischen Truppen aus Kabul und in der Folge aus Afghanistan vollständig zurück. Dieser Krieg hatte zur Folge, dass die britische Kolonialverwaltung lange Zeit keine direkten weiteren Aktionen in Afghanistan unternahm und erschwerte ihre politisch-wirtschaftlichen Bestrebungen wie die Kontrolle der Handelswege in Zentralasien und den von dort versuchten Angriff auf die chinesische Qing-Dynastie. Die Katastrophe in Afghanistan erregte auch viele Inder, da die britisch-indische Armee zu einem großen Teil aus Belutschen bestand. Angetrieben durch die vorangegangene Demütigung erklärte 1878 die britische Regierung erneut den Krieg gegen Afghanistan. Trotz kleiner militärischer Erfolge der Afghanen im zweiten Anglo-Afghanischen Krieg, wie bei der Schlacht von Maiwand 1880, wurde der Widerstand von den Briten niedergeschlagen, die Hauptstadt Kabul aus Rache niedergebrannt und eine Marionette als König installiert. Gleichzeitig übernahmen die Briten für die folgenden 40 Jahre die afghanische Außenpolitik. Aufgrund vieler Aufstände in Afghanistan wurde 1893 das Land durch die Durand-Linie von den Briten geteilt und das südöstliche Gebiet (die heutigen pakistanischen Provinzen NWFP, FATA und ein kleiner Teil Belutschistans) der indischen Kronkolonie einverleibt. Um diese Linie kontrollieren zu können, wurde das aus Afridis, einem Paschtunenstamm, bestehende Regiment Khyber Rifles im Jahr 1880 aufgestellt, da sich nur Einheimische in diesem Gebiet ungehindert bewegen können. Das Regiment besteht auch heute noch als Bestandteil der Pakistanischen Armee. Der dritte anglo-afghanische Krieg im Mai 1919 – ein letzter Versuch Afghanistans, sich von den britischen Kolonialbestrebungen zu befreien – führte schließlich durch geschicktes Verhandeln der afghanischen Diplomaten unter Amanullah Khan (die Afghanen drohten den Briten, sich Russland weiter anzunähern) zum Vertrag von Rawalpindi und am 8. August 1919 zur Anerkennung Afghanistans als souveräner und unabhängiger Staat durch Großbritannien. Somit hatte Afghanistan nach mehr als 60 Jahren britischer Vorherrschaft seine volle Unabhängigkeit erlangt, während ein großer Teil der Gebiete wie Teile der pakistanischen Nordwestprovinz als frontier area, auch als tribal area (Stammesgebiete unter Bundesverwaltung) bezeichnet, an die Briten verloren ging und später dem Staat Pakistan zugesprochen wurde. Das unabhängige Afghanistan bildete einen Puffer zwischen russischen und britischen Interessen. Dies schlug sich auch in der Grenzziehung nieder und ist noch heute am Wachan-Korridor ersichtlich. Afghanistan nach der Unabhängigkeit. Seit 1933 bestand mit Mohammed Zahir Schah (Mohammedzai) an der Spitze ein konstitutionelles Königreich. Zahir Schah läutete jedoch eine demokratische Wende in Afghanistan ein. Unter seiner Herrschaft wurden unter anderem Wahlen, ein Zwei-Kammern-Parlament, die Emanzipation der Frauen bis hin zum Frauenwahlrecht, eine Modernisierung der Infrastruktur und Pressefreiheit etabliert. Schahs fortschrittliche und westliche Politik war jedoch nicht unumstritten unter der afghanischen Bevölkerung. Seit 1946 ist Afghanistan Mitglied der Vereinten Nationen. 1973 stürzte der sich an die Sowjetunion anlehnende Mohammed Daoud Khan das Königshaus und rief die Republik aus. Nach Daouds Sturz 1978 in der Saurrevolution übernahm die von Nur Muhammad Taraki geführte, kommunistisch geprägte Demokratische Volkspartei Afghanistans die Macht in Kabul, rief die "Demokratische Republik Afghanistan" aus und versuchte mit sowjetischer Unterstützung eine gesellschaftliche Umgestaltung, zum Beispiel eine Alphabetisierung der Landbevölkerung. Diese Reformen untergruben die traditionelle Stammesordnung und provozierten Widerstand in ländlichen Gebieten. Gleichzeitig unterdrückte die Regierung die Opposition brutal mit Tausenden von politischen Hinrichtungen. Bis zu 27.000 wurden im Pul-e-Charkhi-Gefängnis hingerichtet. Diese stieß in einigen Regionen auf militärischen Widerstand, der unter anderem von den USA und Pakistan unterstützt wurde. Mit dem Einmarsch sowjetischer Truppen im Dezember 1979 entwickelte sich der Bürgerkrieg zu einem zehnjährigen Stellvertreterkrieg (→ Sowjetischer Einmarsch in Afghanistan) zwischen sowjetischer Besatzungsmacht und den von den Vereinigten Staaten, Saudi-Arabien und Pakistan unterstützten islamischen Guerillas (Mudschahedin), siehe dazu Operation Cyclone. 1989 erfolgte der Abzug der sowjetischen Truppen. Nach unterschiedlichen Schätzungen wurden in dem Krieg unter anderem 600 Tausend bis 2 Millionen Zivilisten getötet. Die sowjetisch gestützte Regierung unter Präsident Mohammed Nadschibullāh konnte sich nach dem sowjetischen Abzug noch bis zur Einnahme Kabuls 1992 durch die Mudschahedin halten. Im April 1992 wurde der Islamische Staat Afghanistan durch die Peschawar-Abkommen gegründet. Neuer Präsident wurde Burhānuddin Rabbāni. Die Vereinten Nationen präsentierten einen Übergangsplan, jedoch kam es bereits vor Ort zu zahlreichen Kämpfen verschiedener konkurrierender Mudschahedin in wechselnden Allianzen unter den neuen Warlords. Die Mudschahedin verweigerten dem zurückgetretenen Präsidenten Nadschibullāh den Gang ins Exil, der daraufhin in ein UN-Gebäude floh. Zwei wichtige, jeweils vom pakistanischen Geheimdienst ISI trainierte, konkurrierende Warlords waren dabei Gulbuddin Hekmatyār und Ahmad Schah Massoud, der unter Rabbāni Verteidigungsminister wurde. Ebenso führte der zu den Mudschahedin kurz vor dem Ende der Regierung Nadschibullāh übergelaufene General Abdul Raschid Dostum Truppen an. Als Hekmatyār Kabul einnehmen wollten, kamen ihm die Truppen von Massoud und Dostum dem zuvor und übernahmen die meisten Ministerien. Friedensverhandlungen scheiterten und Hekmatyārs Truppen, unterstützt von Pakistan, beschossen Kabul. Für die Kämpfe machten sich die verschiedenen Fraktionen gegenseitig verantwortlich. Es kam zu zahlreichen Menschenrechtsverbrechen bei diesen Machtkämpfen. Wie Human Rights Watch berichtete war es praktisch jederzeit möglich in Kabul getötet zu werden, sowohl der Artilleriebeschuss von Hekmatyārs Truppen als auch die konkurrierenden Mudschahedinfraktionen traf viele zivile Einrichtungen. Es kam zudem von den verschiedenen Seiten der Mudschahedin – unter Hekmatyār, Massoud, Dostum als auch weiteren Fraktionen – zu zahlreichen Entführungen, Plünderungen, Vergewaltigungen und Morden. 1993 kam es im Kabuler Stadtteil Afschar etwa zu einem Massaker durch die Truppen unter den Warlords Sayyaf und Massoud, bei dem geschätzt etwa 750 Menschen, hauptsächlich Angehörige der schiitischen Minderheit der Hazara, getötet oder verschleppt wurden. Bereits bis 1993 flohen mehr als eine halbe Million Menschen aus Kabul. Nach Verhandlungen wurde im Juni 1993 Hekmatyār zum afghanischen Premierminister ernannt. Der Frieden hielt jedoch nicht und es kam 1994 und 1995 wieder zu Kämpfen zwischen den konkurrierenden Milizen. Die Kämpfe hörten erst mit dem Einmarsch der Taliban auf, der wiederum von vielen Menschenrechtsverstößen begleitet wurde. Der Süden Afghanistans war überwiegend weder unter der Kontrolle der Zentralregierung noch unter der Kontrolle der Milizen vom Norden. Lokale Milizen- oder Stammesführer beherrschten den Süden. 1994 traten die fundamentalistischen Taliban in der südlichen Stadt Kandahar erstmals in Erscheinung. Die Taliban-Bewegung bestand aus Personen die früher als Mudschahedin kämpften und rekrutierte sich weiter aus religiösen Schulen für afghanische Flüchtlinge in Pakistan. In den Schulen wurde auch den Jihad glorifizierendes Propagandamaterial, das von den USA hergestellt wurde, verwendet. Die Kämpfe zwischen den Milizen der Mudschahedin und die Hoffnung auf Frieden durch eine neue Ordnung gaben den Taliban Auftrieb. Ihr Anführer und späteres Staatsoberhaupt wurde Mohammed Omar. Im Laufe des Jahres 1994 übernahmen die Taliban die Macht in verschiedenen südlichen und westlichen Provinzen Afghanistans. Bis März 1995 hatten die Taliban sechs Provinzen eingenommen und Kabul erreicht. Anfang 1995 führten die Taliban Verhandlungen sowohl mit der Regierung Rabbānis als auch mit der schiitischen Miliz Hizb-i Wahdat, die jedoch nicht zu einem Frieden führten. Während die Taliban zunächst den Kampf um Kabul verloren, waren sie im Westen des Landes weiter auf dem Vormarsch. Dabei kam es zu einem vorübergehenden geheimen Bündnis zwischen den Taliban und dem Warlord Dostum (siehe Afghanischer Bürgerkrieg (1989–2001)). Mit logistischer Unterstützung des ISI und neuen Waffen und Fahrzeugen aus Pakistan und Saudi-Arabien reorganisierten die Taliban ihre Truppen nach einigen Niederlagen im Land und planten 1996 auch eine erneute Offensive gegen Kabul. Am 26. September 1996 befahl Verteidigungsminister Massoud einen Rückzug der Truppen in den Norden Afghanistans. Am 27. September 1996 marschierten die Taliban in Kabul ein und errichteten das "Islamische Emirat Afghanistan", das lediglich von Pakistan, Saudi-Arabien und den Vereinigten Arabischen Emiraten anerkannt wurde. Der entmachtete Präsident Rabbāni, Massoud und Dostum, frühere Gegner, gründeten als Reaktion auf die Talibanoffensiven die "Vereinte Front" (bekannt als Nordallianz). Als mächtigster Mann im Bündnis galt Massoud, der Vereinten Front trat unter anderem auch der spätere Präsident Hamid Karzai bei. Der Iran und Russland unterstützen die Truppen Massouds, Pakistan intervenierte militärisch auf Seiten der Taliban. Nach deklassifizierten Dokumenten von US-Behörden (National Security Archive) hat die pakistanische Regierung die Taliban unter anderem logistisch mit Waffen, Treibstoff und Nahrung nach ihrer Machtübernahme in Kabul 1996 versorgt. Bei der Offensive von 25.000 Taliban-Kämpfern gegen die nördliche Allianz waren geschätzt auch rund 10.000 islamistische Milizionäre aus arabischen Ländern, Pakistan und anderen asiatischen Ländern wie Usbekistan aktiv.<ref name="Ahmed Rashid/The Telegraph"></ref> Anfang 2001 wandte die Vereinte Front eine neue Strategie von lokalem militärischem Druck an. Massoud bereiste 2001 Russland und die EU, wo er sich zudem mit einem Abgesandten der CIA traf und um militärische Unterstützung bat. Massoud bekannte sich dort in seinen Reden zu einem moderaten islamischen Staat, warnte die Staaten vor Al-Qaida und die Tour war ein PR-Erfolg. Jedoch wurde er später 2001 durch einen Bombenanschlag getötet. Die Taliban setzten in den von ihnen kontrollierten Gebieten ihre politische und juristische Interpretation des Islam durch. Die Frauen lebten quasi unter Hausarrest. Im Verlaufe der Kämpfe radikalisierten sich die Taliban weiter und führten radikale gegen Nicht-Moslems gerichtete Maßnahmen durch. Am 10. März zerstörten sie trotz enormer Proteste auch in der islamischen Welt durch Sprengladungen und Artilleriebeschuss die Buddha-Statuen von Bamiyan. Nach einem Bericht der Vereinten Nationen begingen die Taliban systematische Massaker unter der Zivilbevölkerung, während sie versuchten, ihre Kontrolle im Westen und Norden Afghanistans zu konsolidieren. Dabei kam es etwa zu einem Massaker in Masar-e Scharif und den Dörfern Bedmushkin und Nayak. Sowohl die Taliban als auch die Nordallianz-Truppen nahmen unter anderem bei ihrem Beschuss Kabuls laut Amnesty und HRW keine Rücksicht auf Zivilisten. In den Jahren 1999 und 2000 kam es zur Dürre in Afghanistan, welche die Not im Land weiter verschärfte. Nach den Anschlägen vom 11. September 2001. Am 9. September 2001 wurde Massoud ermordet. Zwei Tage danach wurden terroristische Anschläge in den Vereinigten Staaten verübt, die zum Tod von mindestens 2993 Menschen führten und als terroristischer Massenmord angesehen werden. Die Vereinigten Staaten identifizierten Mitglieder des Terrornetzwerks Al-Qaida, das seine Basis in dem Emirat der Taliban hatte und mit den Taliban verbündet war, als Täter der Terroranschläge des 11. Septembers 2001. Die Taliban verweigerten jedoch die Auslieferung der Verantwortlichen um Osama bin Laden, der sich zu den Attentaten bekannt hatte. Daraufhin begannen die Vereinigten Staaten im Oktober 2001 eine Invasion Afghanistans mit Hilfe eines Militärbündnisses unter ihrer Führung. Die US-Regierung unter Präsident George W. Bush nutzte als Legitimation dieser Invasion einen Entschluss des Sicherheitsrats der Vereinten Nationen, der den USA das Recht zur Selbstverteidigung zusprach. Infolge dieser Invasion gelang es, die in den meisten Regionen Afghanistans herrschenden Taliban zügig von der Macht zu verdrängen, wobei die Vereinte Front den Großteil der Bodentruppen stellte. Im Dezember 2001 trafen sich Führer der Vereinten Front sowie afghanischer Exilgruppen auf der Petersberger Konferenz in Bonn, wo sie sich auf das sogenannte „Petersberger Abkommen“ einigten, das einen Stufenplan zur Demokratisierung des Landes sowie die Bildung einer provisorischen Regierung mit dem Durrani-paschtunischen Stammesführer Hamid Karzai als Vorsitzenden vorsah. Mitglieder der siegreichen Vereinten Front übernahmen Schlüsselpositionen in der neuen Regierung. Außerdem wurde um die Stationierung einer einem Mandat der Vereinten Nationen unterstellten internationalen Truppe ersucht, um die Sicherheit der provisorischen Regierung zu gewährleisten. Diese Aufgabe übernahm die internationale Afghanistan-Schutztruppe International Security Assistance Force (ISAF). Die Taliban zogen sich vorerst in schwer zugängliche Bergregionen zurück. Die provisorische Regierung wurde im Juni 2002 durch eine von einer landesweiten außerordentlichen Loja Dschirga bestimmten Übergangsregierung abgelöst, wiederum mit Karzai als Übergangspräsidenten an der Spitze. Ende 2003 wurde eine verfassungsgebende Loja Dschirga einberufen, welche die neue afghanische Verfassung im Januar 2004 ratifizierte. Die am 9. Oktober 2004 durchgeführte Präsidentschaftswahl bestätigte Karsai als Präsidenten. Die demokratische Legitimität der Wahl kann jedoch angezweifelt werden, da am Tag der Wahl alle 15 Gegenkandidaten geschlossen ihren Rückzug und Boykott aufgrund von Betrugsvorwürfen verkündeten. Den Abschluss des im Petersberger Abkommen vorgesehenen Demokratisierungsprozesses markierten die Parlamentswahlen im September 2005, aus denen sich das erste gewählte afghanische Parlament seit 1973 konstituierte. Allerdings dokumentierte die Wahlbeobachtungsmission der Europäischen Union auch bei dieser Wahl „Unregelmäßigkeiten und Betrugsvorwürfe, die einen Schatten auf die Integrität der Wahlen werfen“ sowie „signifikante Defizite“ bei der Stimmenauszählung. Die Wahlen sollten ursprünglich im Juni 2004 stattfinden, mussten aber aufgrund von Verzögerungen bei der Wahlregistrierung mehrmals verschoben werden. Viele Taliban flohen über die Durand-Linie nach Pakistan und formierten sich dort neu. 2003 traten sie erstmals wieder in Erscheinung. Ab Anfang 2006 verübten sie zusammen mit dem Haqqani-Netzwerk und der Hizb-i Islāmī von Gulbuddin Hekmatyār verstärkt Anschläge gegen afghanische Zivilisten und Soldaten der ISAF. Selbstmordattentate, die vorher in Afghanistan völlig unbekannt waren, und Bombenanschläge auf nichtmilitärische Ziele nahmen stark zu. Babak Chalatbari beschrieb in einem Artikel für die Bundeszentrale für politische Bildung die Motive des „Terrors der Taliban“ wie folgt: „Die terroristische Taktik hinter der massiven Einschüchterung zielt darauf ab, dass kaum noch jemand wagt, sich den Auffassungen der theologisch meist nicht sonderlich ausgebildeten Masterminds der Taliban zu widersetzen.“ Die Zahl der versuchten und ausgeführten Selbstmordanschläge nahmen von drei im Jahr 2003 auf 106 im Jahr 2006 stark zu, zu denen sich meist die Taliban – insbesondere das Haqqani-Netzwerk – bekannten. Im Süden und Osten von Afghanistan existierten Gebiete, die von ausländischen Hilfsorganisationen und auch ISAF-Truppen gemieden wurden. Pakistan spielt eine zentrale Rolle in Afghanistan. Eine Analyse der London School of Economics and Political Science aus dem Jahr 2010 führt aus, dass der pakistanische Geheimdienst (ISI) eine „offizielle Politik“ der Unterstützung der Taliban betreibe. Der ISI finanziere und bilde die Taliban aus. Dies passiere, obwohl Pakistan sich offiziell als Verbündeter der NATO ausgebe. Als Ergebnis hält die Analyse fest: „Pakistan scheint ein Doppelspiel erstaunlichen Ausmaßes zu spielen.“ Amrullah Saleh, der ehemalige Geheimdienstchef Afghanistans, kritisierte 2010: „Wir reden über all diese Stellvertreter [Taliban, Haqqani, Hekmatyar], aber nicht ihren Meister: Die pakistanische Armee. Die Frage ist, was will Pakistans Armee erreichen […]? Sie wollen an Einfluss in der Region gewinnen.“ Die Taliban und Gulbuddin Hekmatyārs Truppen richteten sich in Anschlägen gezielt gegen die afghanische Zivilbevölkerung. Im Jahr 2009 waren sie laut Angaben der Vereinten Nationen für über 76 % der Opfer unter afghanischen Zivilisten verantwortlich. Auch im Jahr 2010 waren die Taliban für über Dreiviertel der zivilen Todesopfer in Afghanistan verantwortlich. Zivilisten waren mehr als doppelt so häufig das Ziel tödlicher Anschläge der Taliban wie afghanische Regierungstruppen oder ISAF-Truppen. Die "Afghanistan Independent Human Rights Commission" (AIGRC) nannte die gezielten Anschläge der Taliban gegen die Zivilbevölkerung ein „Kriegsverbrechen“. Religiöse Führer verurteilten die Anschläge der Taliban als Verstoß gegen die islamische Ethik. Menschenrechtsgruppen haben den Internationalen Gerichtshof in Den Haag dazu veranlasst, eine vorläufige Untersuchung gegen die Taliban auf Grund von Kriegsverbrechen vorzunehmen. In der Folgezeit kam es zu Spannungen zwischen Teilen der ehemaligen Vereinten Front und Hamid Karzai, nachdem dieser die Taliban als „Brüder“ bezeichnet hatte. Akteure um den ehemaligen Geheimdienstchef Amrullah Saleh und andere befürchteten, dass Karzai ein Abkommen mit den Taliban und Gulbuddin Hekmatyār schließen könne, das eine Rückkehr der Taliban abseits des demokratischen Prozesses ermögliche. Eine Abspaltung von Gulbuddin Hekmatyārs Partei Hizb-i Islāmī gab ab Herbst 2009 an, mit Karzai verbündet zu sein, und stellte mit Abdul Hadi Arghandiwal von 2010 bis 2017 den Wirtschaftsminister. Diese angeblichen Verbündeten Karzais ließen 2011 jedoch in öffentlichen Stellungnahmen keinen Zweifel an ihrer Loyalität gegenüber Hekmatyār. Der große Einfluss der Vereinten Front auf die Regierung wurde mit den Jahren reduziert. Bei der afghanischen Präsidentschaftswahl im August 2009 trat Abdullah Abdullah, ehemaliger Außenminister bis 2006 und einst einer der engsten Vertrauten Ahmad Schah Massouds, gegen Hamid Karzai an und galt als Mitfavorit. Karzai schien zunächst dennoch gewonnen zu haben. Bei der Stimmauszählung mehrten sich allerdings die Vorwürfe der internationalen Beobachter, dass massiver Wahlbetrug betrieben worden sei. Eine Beschwerdekommission ermittelte mehrere Wochen und gab Mitte Oktober bekannt, dass hunderttausende Stimmen ungültig seien. Damit verlor Amtsinhaber Karzai die absolute Mehrheit, und es wurde eine Stichwahl zwischen diesem und Abdullah am 7. November 2009 vereinbart. Ende Oktober 2009, knapp eine Woche vor der Wahl, drohte Abdullah laut Medienberichten, sich von der Stichwahl zurückzuziehen. Vorausgegangen waren gescheiterte Gespräche mit Karzai. Abdullah hatte unter anderem die Entlassung des Vorsitzenden der umstrittenen Wahlkommission (IEC) gefordert, um eine „freie und faire“ Stichwahl ermöglichen zu lassen. Sechs Tage vor der geplanten Stichwahl erklärte er seinen Boykott der Abstimmung. Als seine Anhänger auf die Straßen ziehen wollten, hielt Abdullah sie zurück, um die fragile Stabilität Afghanistans nicht zu gefährden. Nach der Tötung von Osama bin Laden durch US-Einsatzkräfte in der Operation Neptune Spear im Mai 2011 nahmen Anschläge auf prominente afghanische Politiker stark zu, so wurden unter anderem Expräsident Burhānuddin Rabbāni, Mohammed Daud Daud, Dschan Mohammed Chan und Präsident Karzais Halbbruder Ahmad Wali Karzai ermordet. Im Oktober 2011 begannen afghanische und NATO-Truppen eine Offensive gegen das Haqqani-Netzwerk im südöstlichen Grenzgebiet des Landes. 2014 wurde der erste demokratische Machtwechsel in Afghanistan durchgeführt, bei dem jedoch erneut massive Korruption und Fälschung vermutet wurde. Präsident Aschraf Ghani unterschrieb ein Abkommen mit der NATO, in dem die Nachfolgemission der ISAF, Resolute Support, legitimiert wurde. Diese begann am 1. Januar 2015 und unterstützte die afghanischen Sicherheitskräfte bis 2021 in der Ausbildung. Das Land wurde seit 2015 auch vom Islamischen Staat bedroht und weiterhin von Seiten der Taliban mit Gewalt überzogen. Im Februar 2020 unterzeichneten die Vereinigten Staaten und die Taliban ein Friedensabkommen. Die USA und die NATO verpflichteten sich dabei, ihre Streitkräfte innerhalb von 14 Monaten aus Afghanistan abzuziehen. Im Gegenzug garantierten die Taliban, innerhalb von zwei Wochen Friedensgespräche mit der afghanischen Regierung aufzunehmen und dem Terrorismus abzuschwören bzw. diesen in Afghanistan nicht zu dulden. Die afghanische Regierung hatte als Konfliktpartei das Abkommen nicht mitunterzeichnet. Da auch die Taliban keine Repräsentanten des Staates sind, handelte es sich bei dem Abkommen formal nicht um einen völkerrechtlichen Friedensvertrag. Der Vertrag berührte nicht die künftige Gestaltung des politischen Systems in Afghanistan oder die Verteilung der politischen Macht. Anschließend begannen im März 2020 Verhandlungen über einen Gefangenenaustausch zwischen der Taliban-Führung und der afghanischen Regierung, durch die bis zu 5000 gefangene Taliban freigelassen werden sollten, sofern im Gegenzug die Taliban 1000 ihrer Gefangenen frei ließen. Tatsächlich begann die afghanische Regierung bis einschließlich Mai 2020 mit der Freilassung von über 1000 der 5000 gefangenen Taliban, während diese Miliz einige hundert Regierungstreue freiließ. Gleichzeitig wurden aber vor allem durch terroristische Anschläge in Afghanistan im Mai 2020 der Terror in Afghanistan fortgesetzt, so dass der afghanische Präsident Aschraf Ghani im selben Monat bekannt gab, die Taliban fortan wieder bekämpfen zu wollen. Innerhalb einer Woche im Juni, so vermeldete die afghanische Regierung, hätten die Taliban 222 Terrorattacken im Land verübt, wodurch 422 staatliche Sicherheitskräfte getötet oder verwundet worden seien. Nach dem Ende des NATO-Einsatzes 2021. Ende Juli 2021 endete der NATO-Einsatz; nur US-amerikanische und türkische Soldaten befanden sich zu diesem Zeitpunkt noch unter nationalem Kommando in Afghanistan. Die Bundeswehr hatte das Land bereits im Juni verlassen. Nach dem Rückzug der internationalen Truppen hatten die Taliban innerhalb kurzer Zeit die Kontrolle über große Teile des gesamten Landes übernommen, da die Regierungstruppen den Widerstand weitgehend aufgegeben hatten. Nachdem schließlich nur noch die Hauptstadt Kabul als einzige größere Stadt unter Kontrolle der Regierung gestanden hatte, kündigte am 15. August 2021 der zu diesem Zeitpunkt amtierende Innenminister Abdul Sattar Mirzakwal eine friedliche Übergabe Kabuls, und damit fast ganz Afghanistans, an die Taliban an. Präsident Ghani floh nach Tadschikistan und die Taliban verkündeten nach der Einnahme des Präsidentenpalastes und großer Teile Kabuls noch am selben Tag ihren Sieg. Ein kleines Gebiet, das Pandschschir-Tal, war teilweise noch unter Kontrolle von Resten der afghanischen Armee und Regierung (siehe Pandschschir-Widerstand). Am 6. September 2021 gaben die Taliban an, auch diesen Teil Afghanistans erobert zu haben. Medienberichten zufolge flohen daraufhin die Anführer des Widerstands, Vizepräsident Amrullah Saleh und Ahmad Massoud, nach Tadschikistan. Nach der Übernahme durch die Taliban verschlechterte sich die humanitäre Situation Afghanistans, als westliche Nationen aufhörten, humanitäre Hilfe zu leisten, und die Weltbank und der Internationaler Währungsfonds auch ihre Zahlungen an Afghanistan einstellten. Im Oktober 2021 erklärten die Vereinten Nationen, dass mehr als die Hälfte der 39 Millionen Menschen in Afghanistan von akuter Nahrungsmittelknappheit betroffen sind. Führende Politiker der Welt haben Afghanistan humanitäre Hilfe in Höhe von 1,2 Milliarden US-Dollar zugesagt. Am 22. Dezember 2021 verabschiedete der Sicherheitsrat der Vereinten Nationen einstimmig eine von den USA vorgeschlagene Resolution, um humanitäre Hilfe bei der Versorgung verzweifelter Afghanen zu unterstützen und gleichzeitig zu versuchen, Gelder aus den Händen der Taliban fernzuhalten. Nach Angaben der Welthungerhilfe sei die humanitäre Lage „katastrophal“. So sei ohne eine Verbesserung der Versorgungslage im Jahr 2022 mit einem Anstieg der Armutsrate auf 97 Prozent zu rechnen. Politik. Politisches System des Islamischen Emirats Afghanistan. Nach der Machtübernahme der Taliban gaben diese am 7. September 2021 eine Übergangsregierung bekannt. Unter einem als "Amir al-Mu’minin" bezeichneten Staatsoberhaupt wurde ein Interims-Premierminister und zwei Stellvertreter ernannt. Insgesamt umfasst die Regierung 33 Mitglieder. Im September 2021 setzten die Taliban für die Zeit der Übergangsregierung die Verfassung des Königreichs Afghanistan aus der Amtszeit von König Sahir Schah in Kraft. Politisches System der Islamischen Republik Afghanistan. Die Präsidialrepublik gab sich im Jahr 2004 eine Verfassung, laut der ein direkt gewählter Präsident für eine fünfjährige Amtszeit gewählt wurde. Weiterhin bestimmte sie eine aus zwei Kammern bestehende Legislative, wobei die Wolesi Dschirga nach dem System Nicht übertragbare Einzelstimmgebung mit maximal 250 Parlamentariern besetzt wird, während die Meschrano Dschirga mit lokalen Würdenträgern und Experten besetzt ist. Die letzten Wahlen für die Präsidentschaft fanden im Jahr 2019 statt, die letzten Parlamentswahlen im Jahr 2018. Menschenrechte. Die Lage der Menschenrechte war bereits vor der Machtübernahme der Taliban schlecht. Amnesty International dokumentierte in zahlreichen Hafteinrichtungen in Afghanistan Folter und Misshandlungen. Journalisten wurden festgenommen, geschlagen oder getötet. Bei bestimmten Verbrechen konnte die Todesstrafe verhängt werden. Viele Kinder wurden in Afghanistan zwangsverheiratet. Häusliche Gewalt war weit verbreitet, zudem gab es Kindesmisshandlungen und sexuellen Missbrauch von Kindern etwa durch die Praktik von Bacha bazi. Durch die erneute Machtübernahme der Taliban im Jahr 2021 hat sich die Lage der Menschenrechte noch weiter verschlechtert. Mitte November 2022 forderte das Taliban-Oberhaupt Achundsada die Richter des Landes dazu auf, öffentliche Hinrichtungen, Steinigungen und Auspeitschungen sowie die Amputation von Gliedmaßen konsequent als Strafen auszusprechen. Etwa eine Woche später wurde erstmals öffentlich bestätigt, dass Peitschenhiebe als Strafe gerichtlich angeordnet und öffentlich durchgeführt werden. Internationale Aufmerksamkeit erhielt vor allem die fast vollständige Abschaffung der Gleichberechtigung der Frauen seit der Machtübernahme. Außerdem werden Unterstützungsangebote für Betroffene sexueller Gewalt abgebaut und Personen, die wegen Gewalt gegen Frauen und Mädchen inhaftiert waren, freigelassen – Gewaltopfer sind hingegen selbst von Inhaftierungen bedroht. Verfolgung der Hazara. Ende des 19. Jahrhunderts erlitten die Hazara aufgrund ihrer ethnischen und religiösen Zugehörigkeit einen von dem paschtunischen Emir Abdur Rahman Khan zu verantwortenden Völkermord. Bis heute werden die Hazara in Afghanistan diskriminiert und verfolgt. Am 11. Februar 1993 richteten Regierungstruppen unter dem damaligen Präsidenten Rabbani, dem damaligen Verteidigungsminister Ahmad Schah Massoud und militärischen Anführer (der Gruppierung Ittihad) Sayyaf ein schweres Massaker gegen die schiitische und ethnische Minderheit der Hazara im Kabuler Stadtteil Afschar an und ermordeten bis zu 1000 Zivilisten. Dieses Massaker wird jedoch von vielen Tadschiken abgestritten und der ehemalige (ethnisch tadschikische) Verteidigungsminister stattdessen als Nationalheld gefeiert. Mit der Machtübernahme der Taliban im Jahr 2021 begann die Vertreibung der Hazara in Afghanistan erneut. Außenpolitik. Zur Zeit der Demokratischen Republik Afghanistan von 1978 bis 1992 unterhielt das Land enge Beziehungen mit den Staaten des Ostblocks, einschließlich der Sowjetunion. Während der später folgenden Herrschaft der Taliban war das Land außenpolitisch nahezu komplett isoliert. Lediglich Pakistan, Saudi-Arabien und die Vereinigten Arabischen Emirate unterhielten in dieser Zeit offizielle Beziehungen zu dem Land. Seit dem Sturz des Regimes der Taliban verfügt Afghanistan über eine enge Westanbindung. Mit den Staaten der Europäischen Union und den USA arbeitet das Land in politischer, militärischer und wirtschaftlicher Hinsicht eng zusammen. Afghanistan steht deshalb auf der Liste der Major non-NATO Ally der Vereinigten Staaten. Afghanistan erhofft sich dabei eine Verbesserung seiner Sicherheitslage und eine verbesserte ökonomische und soziale Lage aufgrund eines stärkeren wirtschaftlichen Austauschs. Aufgrund seiner Binnenlage im Herzen Asiens kann es sich nicht von den regionalen Ereignissen abkoppeln. Die Beziehungen zu den Nachbarstaaten sind deshalb von entscheidender Bedeutung für Afghanistan. Mit Pakistan führt Afghanistan komplizierte und gelegentlich belastete Beziehungen. Afghanistan wirft Pakistan weiterhin die Unterstützung der Afghanischen Taliban vor. Pakistan unterstützt seit dem Beginn der sowjetischen Invasion des Landes die Taliban massiv mit Waffen und finanziellen Mitteln, um mithilfe der Taliban Einfluss auf das politische Geschehen im Land zu gewinnen. Eine Strategie, die sich inzwischen in Form einer verstärkten Präsenz der Taliban in Pakistan selbst gerächt hat. Gleichzeitig gibt es starke kulturelle Gemeinsamkeiten zwischen beiden Nationen. So lebt die Volksgruppe der Paschtunen in beiden Ländern. Pakistan hat 1,3 Millionen Flüchtlinge aus Afghanistan aufgenommen. Um dem zu starken Einfluss Pakistans zu entkommen, versucht das Land die Beziehungen mit Pakistans regionalem Rivalen Indien zu intensivieren. Indien ist einer der wichtigsten Investoren (unter anderem im Rohstoffsektor) in Afghanistan und mit rund 2 Mrd. US-Dollar seit 2001 größter regionaler und fünftgrößter Geber von Entwicklungshilfe insgesamt. Zum Iran bestehen enge sprachliche und kulturelle Verbindungen. Belastet werden die Beziehungen durch Konflikte um die Kontrolle von Wasserressourcen, dem Drogenschmuggel und afghanischen Flüchtlingen im Iran. Chinas wirtschaftlicher und politischer Einfluss in Afghanistan wächst. Beide Länder sind vor allem an einer Intensivierung der wirtschaftlichen Beziehungen interessiert. Chinesische Direktinvestitionen im Land kommen vor allem dem Rohstoffabbau zugute. Wichtigster Partner in der sicherheits- und wirtschaftspolitischen Zusammenarbeit sind die USA. Die staatlichen und politischen Strukturen des Landes in der Zeit nach der Überwindung der Taliban Herrschaft 2001 wurden zum größten Teil unter Anleitung und Aufsicht der Vereinigten Staaten konzipiert. Die USA waren der mit Abstand größte Geber von Entwicklungshilfe im Land. In Afghanistan waren weiterhin amerikanische Truppen stationiert. Im August 2017 wurde eine Aufstockung der amerikanischen Truppen in Afghanistan von 3.000 auf 14.000 Mann angekündigt. Afghanistan und Deutschland. Die deutsche Regierung gehörte zu den ersten Staaten, die die Regierung von Amanullah Khan und damit die Unabhängigkeit Afghanistans anerkannten. Zwischen deutschen Firmen und afghanischen Herrschern bestanden bereits seit 1898 Kontakte, diplomatische Beziehungen pflegten beide Länder jedoch erst ab 1922. 2017 lebten 252.000 Afghanen in Deutschland. Internationale Organisationen. Afghanistan ist seit 1946 Mitglied der Vereinten Nationen. Es hat Beobachterstatus in der WTO und ist Vertragsstaat des ICC. Daneben ist es Mitglied der Organisation für Islamische Zusammenarbeit sowie Mitglied der Bewegung der Blockfreien Staaten. Seit 2007 ist Afghanistan zudem vollständiges Mitglied der SAARC (Südasiatische Vereinigung für regionale Kooperation). Provinzen. Afghanistan gliedert sich in 34 Provinzen ("velayat"), die wiederum in 329 Distrikte ("woluswali") unterteilt sind. Den Provinzen steht jeweils ein Gouverneur ("waali") vor, der von der Regierung in Kabul ernannt oder bestätigt wird. Sicherheit. Sicherheitskräfte. Nach dem vorübergehenden Sturz der Taliban, die Stand 2021 wieder viele Regionen Afghanistans kontrollieren, hatten die an der "ISAF" beteiligten Nationen großes Interesse daran, den Afghanen auch auf dem Gebiet der Sicherheitspolitik wieder volle Souveränität garantieren zu können. Deshalb bauten sie unter Führung der Vereinigten Staaten die Polizei, Militär und Geheimdienst auf. Afghanistan steht seit 2012 auf der Liste der Major non-NATO ally und gehört damit zu den engsten diplomatischen und strategischen Partnern der USA außerhalb der NATO. Die Afghanische Nationalarmee (ANA) verfügte im Januar 2011 über ca. 150.000 Mann und bis Oktober 2014 war eine Truppenstärke von etwa 260.000 Mann angestrebt. Da der Aufbau und Unterhalt einer einsatzfähigen Luftwaffe teuer war, übernahmen die Vereinigten Staaten die Sicherung des afghanischen Luftraums. Die Notwendigkeit einer afghanischen Luftwaffe wurde debattiert, aufgrund der geographischen Gegebenheiten galt diese aber als vorhanden. Die Kommandostruktur orientierte sich an der der Vereinigten Staaten. So sollte Afghanistan unter militärisch sinnvollen Regionalkommandos aufgeteilt werden, vergleichbar den US-Streitkräften. Vorrangiges Ziel blieb aber zunächst die Verbesserung von Ausbildung, Moral und Ausrüstung sowie die Bereinigung des Militärs von Spionen und Saboteuren. In Zusammenarbeit mit Deutschland und der EU bildeten die Vereinigten Staaten afghanische Polizisten aus. Der neu gegründete afghanische Geheimdienst, die Nationale Sicherheitsdirektion (NDS) unterstützte die afghanische Regierung durch Informationsgewinnung und -auswertung. In ihrer jungen Geschichte fiel die NDS international durch Einsperrungen von Journalisten und durch Tötung eines Politikers auf. Die NDS genoss in Afghanistan de facto Straffreiheit. Sicherheitslage. In den Jahren von 2014 bis 2019 sind nach Angaben der afghanischen Regierung 45.000 Soldaten der afghanischen Streitkräfte im Kampf gegen Gruppierungen wie den Taliban und den islamischen Staat gefallen. Im Sommer 2016 standen 36 von 400 Regionen oder bis zu einem Drittel Afghanistans nicht mehr unter Kontrolle der Regierung. Trotz Friedensverhandlungen zwischen der afghanischen Regierung und den Taliban im Jahr 2020 war das Land von Kampfhandlungen zwischen den Soldaten und Milizen dieser beiden Akteure überzogen. In den Jahren von 2016 und 2020 töteten die Taliban laut UNAMA jährlich zwischen etwa 1300 und 1625 Zivilisten. Außerdem wurden jährlich zwischen etwa 2500 und 3600 Zivilisten direkt oder indirekt durch IEDs der Taliban verletzt. Laut dem Lagebericht des Auswärtigen Amtes tragen organisierte Kriminalität und Stammeskonflikte zu einer komplexen Sicherheitslage in Afghanistan bei. Landminen. Afghanistan ist stark mit Landminen belastet. Nach Angaben des United Nations Mine Action Service (UNMAS) ist das Land auf 530 km² mit 10 Millionen Minen kontaminiert. Die Hauptstadt Kabul gilt als am stärksten von Landminen belastete Stadt der Welt. Die Minen stammen aus der Zeit der sowjetischen Besatzung von 1979 bis 1989 sowie von den Vereinigten Staaten, Großbritannien und Iran aus der Zeit des Bürgerkrieges. Die Taliban setzten pakistanische Landminen ein. Die Minen sind eine ständige Gefahr für die Zivilbevölkerung. Allein im Jahr 2002 zählte das Rote Kreuz 1286 Landminenopfer, wobei von einer hohen Dunkelziffer auszugehen ist. Afghanistan trat 2002 der Ottawa-Konvention zum Verbot von Landminen bei. Es besteht jedoch der Verdacht, dass die Taliban seitdem zur Bekämpfung der ausländischen Militärpräsenz weiterhin Minen eingesetzt haben. Wirtschaft. Nach zwei Jahrzehnten Krieg war die Wirtschaft des Landes im Jahr 2001 weitgehend zerstört, ebenso ein Großteil der Viehbestände. Das Bruttoinlandsprodukt lag im Jahr 2016 bei geschätzten 18,8 Milliarden US-Dollar. Damit zählte Afghanistan zu den ärmsten Staaten weltweit. Bei der Entstehung des BIP war der Landwirtschaftssektor mit geschätzten 60 % beteiligt, die Industrie mit geschätzten 15 % und Dienstleistungen mit geschätzten 25 %. Bis zum Jahr 2017 sank der Anteil des Landwirtschaftssektors auf 23 %, die Anteile der Industrie und des Dienstleistungssektors stiegen dagegen auf 21 % und 52 %. Die Arbeitslosenquote lag im Jahr 2017 bei 23,9 %, dazu kommt Unterbeschäftigung, die weit verbreitet ist. 2017 arbeiteten 44,3 % aller Arbeitskräfte in der Landwirtschaft, 18,1 % in der Industrie und 37,6 % im Dienstleistungssektor. Die Gesamtzahl der Beschäftigten wird für 2017 auf 8,5 Millionen geschätzt; davon sind nur 17,3 % Frauen. Im Wirtschaftsjahr 2008/2009 lag das Wirtschaftswachstum bei 3,6 %. Der Grund für das niedrige Wachstum lag vor allem am fast vollständigen Ausfall der Getreideernte durch eine Dürre. 2009/2010 stieg das Wachstum auf 15 % an. 2016 wuchs die Wirtschaft nur um 2,4 %. Für die nächsten Jahre wird ein Wachstum von 3 bis 4 Prozent erwartet, was als nicht ausreichend für eine nachhaltige Senkung der Armut und hohen Arbeitslosigkeit bzw. Unterbeschäftigung gilt. Im Index für wirtschaftliche Freiheit belegt Afghanistan 2017 Platz 163 von 180 Ländern. Im Ease of Doing Business Index der Weltbank belegt Afghanistan 2018 Platz 183 von 190 Ländern. Das Entwicklungsprogramm der Vereinten Nationen zählt das Land zu den Ländern mit geringer menschlicher Entwicklung. Trotz bestehender Probleme wie mangelhafte Infrastruktur, teils unsicherer Sicherheitslage und Korruption haben in den letzten Jahren große Investitionen in Afghanistan stattgefunden: Verschiedene staatliche Unternehmen wurden privatisiert, durch den Krieg zerstörte Industrie wurde wieder aufgebaut. Die im Jahr 2003 gegründete Afghanistan Investment Support Agency (kurz: AISA) registriert neue Unternehmen und betreut Investoren bei Problemen nach der Unternehmensgründung. Zu den wichtigsten Handelspartnern zählt neben Staaten der Region, vor allem Pakistan und der Iran, auch die Europäische Union. Stand 2021 beruht rund ein Zehntel der afghanischen Wirtschaftsleistung auf dem Anbau des Rauschmittels Opium. Armut und Mangelernährung. Afghanistans Bevölkerung leidet, unter anderem aufgrund von Dürren, mindestens seit Ende der 2010er Jahre unter einer Hungersnot. Ende des Jahres 2021 lebten laut den Vereinten Nationen (UN) etwa die Hälfte der 38 Millionen Afghanen unterhalb der Armutsgrenze. Der prozentuale Anteil der Bevölkerung in Armut stieg im Jahr 2022 drastisch, laut UN-Prognosen auf bis zu 97 Prozent, an. 38 Prozent der Bevölkerung (23,34 Millionen Menschen) erhält Lebensmittelhilfen. Die Zahl der Menschen, die unter akuter Lebensmittelunsicherheit leiden, lag im Jahr 2021 bei 22,8 Millionen Menschen und im Jahr 2022 bei 19,7 Millionen. Laut einer Schätzung der UN leiden im Jahr 2022 höchstwahrscheinlich 1,1 Millionen Kinder unter fünf Jahren unter schwerster Unterernährung. Kennzahlen. Alle BIP-Werte sind in US-Dollar (Kaufkraftparität) angegeben. Landwirtschaft. Obwohl nur etwa 6 % der Staatsfläche landwirtschaftlich nutzbar sind und diese Nutzung meist von künstlicher Bewässerung abhängt, sind 67 % der Bevölkerung in der Landwirtschaft tätig (Stand 2001). Weitreichende Waldrodungen, Überweidung der Böden und unkoordiniertes Abpumpen von Grundwasser während der Bürgerkriegsjahre bewirkten einen Rückgang der landwirtschaftlich nutzbaren Ressourcen des Landes. Dadurch ist die Versorgung des Landes empfindlicher gegenüber Dürren und anderen Naturkatastrophen geworden. So sind die Ernten regelmäßig durch Dürren bedroht, die in ihrer Häufigkeit und Intensität in den letzten drei Jahrzehnten zugenommen haben. Dabei trockneten in manchen Fällen bestimmte Flüsse und Seen völlig aus. Teile der Bevölkerung sind auf Nahrungsmittelhilfen angewiesen. Eine Reihe von Organisationen befassen sich daher mit der Erhebung, Überwachung und dem Entwickeln von Nutzungskonzepten der Wasserressourcen des Landes. Drogenanbau. Afghanistan ist der größte Opiumproduzent der Welt. Im Juli 2000 wurde der Opiumanbau durch das Taliban-Regime verboten, worauf die Opiumproduktion völlig einbrach und im Jahre 2001 fast auf null sank. Nach dem US-geführten Krieg stieg die Produktion wieder an und ist seit 2004 höher als in den Jahren zuvor. 2006 betrug der Handel mit Opium 46 Prozent des Bruttoinlandsprodukts. Die Anbaufläche für Schlafmohn stieg seit der Beseitigung des Taliban-Regimes kontinuierlich, im Jahr 2006 erneut um 59 Prozent auf rund 193.000 Hektar. Nach Angaben des Büros der Vereinten Nationen für Drogen- und Verbrechensbekämpfung (UNODC) wurden im Jahr 2006 über 6000 Tonnen Opium geerntet, das entspricht 92 Prozent der gesamten Weltproduktion. Der Exportwert dieses Opiums liegt nach Angaben des Außenministeriums der Vereinigten Staaten bei 3,1 Milliarden US-Dollar, dagegen liegt der Straßenpreis bei rund 38 Milliarden US-Dollar. Im Herbst 2007 wurden in Afghanistan rund 8200 Tonnen Opium geerntet, davon mehr als die Hälfte in der afghanischen Provinz Helmand. Das übersteigt den weltweiten Verbrauch um 3000 Tonnen. Der einzelne Opiumfarmer erzielt hierbei etwa 122 US-Dollar pro Kilogramm Opium („“). Somit ist für diesen der Schlafmohnanbau um etwa das Zehnfache lukrativer als der Weizenanbau. Afghanistan ist auch größter Ertragsproduzent von Haschisch wie 2010 von der UNODC festgestellt wurde. Nach Angaben der UNODC-Studie werden in Afghanistan pro Hektar 145 Kilogramm Cannabisharz gewonnen. In Marokko, dem größten Cannabisanbauland der Welt, sind es zum Vergleich pro Hektar nur 40 Kilogramm. In der Provinz Nimrus wird Ephedrin, ein Vorstoff von Crystal Meth, hergestellt aus einer Meerträubel Art, einer heimischen Pflanze. Die Jahresproduktion wird auf 350.000 Kilogramm geschätzt. Zur Bekämpfung der Drogenkriminalität wird in Afghanistan seit dem Jahr 2002 die „Counter Narcotics Police of Afghanistan“ (CNPA) aufgebaut. Im Rahmen von Felderzerstörungen der afghanischen Drogenvernichtungseinheit "(Afghan Eradiction Force)" und der nationalen Polizei wird seit 2005 in zunehmendem Umfang der Opiumanbau bekämpft. Nachteil dieser von westlichen Geberländern geforderten Maßnahme ist, dass zahlreiche Bauern, deren Lebensgrundlage zerstört wurde, zu Anhängern lokaler Kriegsherren wurden, ein Grund für die Verschlechterung der Sicherheitslage seit dieser Zeit. Ein wirtschaftlich negativer Effekt ist, dass Marktverknappung der derzeitigen Überschussproduktion den Drogenhändlern in die Hände spielt, weil sie die Preise steigen lässt. 2003 betrug bei einer Ernte von 4000 Tonnen das von den Bauern erzielbare Bruttoeinkommen noch das 27fache des Weizenanbaus. Der erneute Anbau von Opium wird durch die Vernichtung von Feldern lukrativer, die politische Macht der Drogenbarone wird dagegen nicht angegriffen. Der überwiegende Anteil der Gewinne am Handel mit Opiaten wird im Ausland erzielt. im Frühjahr 2018 lag der Preis für Opium in Afghanistan bei etwa 60 bis 80 US-Dollar pro Kilogramm, der Preis für das hochwertigste Heroin bei 2.000 US-Dollar. Im Iran verdreifacht sich der Heroinpreis auf 5.800 US-Dollar beinahe, in Istanbul steigt der Preis auf etwa 15.000 US-Dollar. In Deutschland ist das Heroin dann etwa 35.000 US-Dollar wert und in Großbritannien sogar 40.000 US-Dollar. In London lassen sich für das gestreckte Heroin bis zu 74.000 Dollar pro Kilogramm erzielen. Bergbau und Industrie. Die bedeutendsten Bodenschätze sind Eisen- und Kupfererze, Erdgas, Kohle, Schmucksteine (hauptsächlich Lapislazuli) und Erdöl. In den 1880ern führte der britische Geologe Karl Griesbach geologische Explorationen durch und dokumentierte reichhaltige Vorkommen an Mineralien. 1937 vergab Afghanistan eine Konzession zum Abbau der Mineral- und Ölvorkommen über einen Zeitraum von 75 Jahren an eine US-Firma. Diese verzichtete jedoch schon bald auf die Wahrnehmung der Konzession, weil die wirtschaftliche Verwertung eine Investition von mehreren hundert Millionen US-Dollar erfordert hätte. Ab den 1950ern investierte die Sowjetunion in Explorationen, die bis in die 1980er fortgeführt wurden. Die wichtigsten Funde waren die Kupfererz-Vorkommen bei Aynak, etwa 30 km südlich der Hauptstadt gelegen, die Eisenerz-Vorkommen in Hajigak im zentralafghanischen Bamiyan und die Gasfelder Nahe Scheberghans. Die Sowjetunion stellte 1967 eine 101 km lange Gaspipeline nach Wachsch in der tadschikischen Sowjetrepublik fertig und von da an wurden etwa 90 Prozent der afghanischen Gasvorkommen in die Sowjetunion exportiert. 2007 nutzte der United States Geological Survey ein luftgestütztes Erkennungsverfahren, um weitere Mineralienvorkommen zu dokumentieren. Dabei wurden im Norden des Landes Lagerstätten entdeckt, die das 18fache der ursprünglich geschätzten Menge an Ölvorkommen und etwa das dreifache an Gasvorkommen enthalten. Im Jahr 2010 gab es eine Reihe von Presseberichten, in denen von Funden an Bodenschätzen im Wert von bis zu einer Billion US-Dollar, bei entsprechender Förderung auch bis zu vier Billionen US-Dollar, die Rede war. So soll Afghanistan zum Beispiel über Vorkommen an Lithium verfügen wie bisher nur Bolivien. Der überwiegende Anteil der Entdeckungen geht jedoch auf Explorationen der Sowjetunion zurück. Zahlreiche der früher ausschließlich als Staatseigentum angesehenen Minen und Lagerstätten wurden inzwischen privatisiert, was die Beteiligung ausländischer Investoren erst ermöglicht. Bei Erhebungen des möglichen Abbaus vorhandener nicht-fossiler Bodenschätze wurden 20 Lagerstätten identifiziert, die das Potenzial für einen wirtschaftlichen Abbau besitzen sollen. Voraussetzung für einen Produktionsbeginn ist jedoch eine ausreichende Sicherheitslage, die vielerorts noch nicht gegeben ist. 2008 vergab die afghanische Regierung eine Konzession zum Abbau der mit 5,5 bis 11,3 Millionen Tonnen bedeutendsten Kupfervorkommen in Aynak an den chinesischen Staatskonzern China Metallurgical Construction Corporation (MCC), der zugesichert hatte, 2,9 Milliarden US-Dollar in das Projekt zu investieren. Das Projekt verzögerte sich jedoch aufgrund von Vertragsstreitigkeiten und der kritischen Sicherheitslage. Eine Konzession für den Abbau der Eisenerze bei Hajigak wurde an ein Konsortium von sieben indischen Firmen und ein kleinerer Teil an eine kanadische Firma vergeben. Seit 2009 unterstützen die USA Afghanistan beim Aufbau einer eigenen Rohstoffindustrie. Tourismus. In Kabul sind einige Hotels und Gästehäuser für Ausländer geöffnet. Reisen außerhalb der Hauptstadt sind gefährlich. Viele Kulturschätze wie zum Beispiel die berühmten Buddha-Statuen von Bamiyan wurden zerstört oder geplündert. Afghanistan veröffentlicht keine offiziellen Zahlen zum Tourismus. In den 1960er und 1970er Jahren führte der sogenannte Hippie trail von Europa nach Südasien durch Afghanistan. Für Afghanistan existiert eine Reisewarnung des Auswärtigen Amtes der Bundesrepublik Deutschland (Stand: 28. April 2016). Reisen gelten als gefährlich, und von ihnen wird dringend abgeraten, da eine Rettung (besonders aus den Provinzen) im Unglücksfall nur unter "schwersten Bedingungen" möglich ist und "nicht garantiert" werden kann. Telekom-Industrie. 2008 wurde das Mobile-Payment mit M-Pesa von Afghanistans Telekomunternehmen Roshan und Vodafone eingeführt. Ab 2009 nutzte dann die Afghanische Nationalpolizei M-Pesa in einigen Landesteilen zur Bezahlung, wodurch nicht vorhandene Polizisten aufgespürt werden konnten und das übliche teilweise Einbehalten des Gehaltes, durch die oberen Polizeiränge, verhindert werden konnte. Korruption. Afghanistan gehört zu den weltweit korruptesten Ländern. Korruption ist in allen Teilen der Wirtschaft und des Staates verbreitet. Milliarden an Hilfsgeldern für den wirtschaftlichen Aufbau des Landes sind durch Korruption versickert. Staatshaushalt. Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 6,39 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 1,70 Mrd. US-Dollar gegenüber, zusätzlich erhielt Afghanistan internationale Finanzhilfen in Höhe von 2,7 Mrd. US-Dollar. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 10,5 % des BIP. Die Staatsverschuldung betrug 2016 1,540 Mrd. US-Dollar oder 8,2 % des BIP. 2010 wurden Afghanistan von den Staaten des Pariser Clubs 441 Mio. US-Dollar erlassen, ein Erlass von weiteren 585 Mio. US-Dollar wird angestrebt. Bereits 2007 waren Afghanistan im Rahmen der HIPC-Initiative Staatsschulden in Milliardenhöhe erlassen worden, 2006 lag die externe Staatsschuld bei umgerechnet 11,6 Mrd. USD. 2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche: Infrastruktur. Das Land hat eine kaum vorhandene Infrastruktur, die zudem in diversen Kriegen stark beschädigt wurde. Im Logistics Performance Index, der von der Weltbank erstellt wird, belegte Afghanistan den letzten Platz unter 160 Ländern. Bei der Qualität der vorhandenen Infrastruktur belegte das Land den drittletzten Platz unter allen untersuchten Staaten. Pipelines. Afghanistan wird bereits seit Jahrzehnten als mögliches Transitland für fossile Brennstoffe in Betracht gezogen; dies aufgrund seiner Lage zwischen den turkmenischen Erdöl- und Erdgasfeldern des Kaspischen Meeres und dem Indischen Ozean. Der Baubeginn der seit längerem geplanten Turkmenistan-Afghanistan-Pakistan-Pipeline (kurz: TAP), die Pakistan und gegebenenfalls Indien mit turkmenischem Erdgas beliefern würde, hätte 2006 stattfinden sollen. Das Projekt wurde aber aufgrund der unsicheren Sicherheitslage und unklarer Finanzierung auf unbestimmte Zeit verschoben und kommt möglicherweise nicht mehr zustande. Der Bau der Pipeline würde tausende Arbeitsplätze schaffen und dem Staat jährlich etwa 100 bis 300 Millionen US-Dollar an Transitgebühren einbringen. Energieversorgung. Nachdem die Taliban 2001 in Afghanistan von der Macht vertrieben worden waren, war die elektrische Infrastruktur in weiten Teilen des Landes zerstört: 2003 hatten nur 6–7 % der Bevölkerung Zugang zu elektrischem Strom, der jedoch nur etwa vier Stunden am Tag zur Verfügung stand. 30 % aller Stromanschlüsse des Landes befanden sich in Kabul; die damals vorhandenen 42 Kraftwerke leisteten nur 240 MW statt den nominellen 454 MW. Afghanistans Energienetz war in den folgenden Jahren in miteinander nicht verbundene Teilnetze getrennt. Im Norden gab es Teilnetze zwischen einzelnen Gebieten und den Nachbarländern: Bei Scheberghan (Erdgasförderung und Verstromung in einem 100 MW Kraftwerk), bei Masar-e Scharif und bei Kundus, im Osten gab es unverbundene Netze bei Kabul und Dschalalabad, im Westen bei Herat und im Süden ein Teilnetz zwischen Kandahar, Laschkar Gah, Musa Qala und der Kajakai-Talsperre. Nachdem in den ersten Jahren hauptsächlich lokale Wasserkraftwerke instand gesetzt worden waren, wie etwa das Sarobi Wasserkraftwerk nahe Kabul, entstand der Plan für ein überregionales Energiesystem, das innerhalb weniger Jahre aufgebaut werden könnte. 2009 erreichten die ersten 90 Megawatt (später dann bis zu 150 Megawatt) Kabul über eine 442 Kilometer lange Stromtrasse aus Usbekistan, wobei mehrere Städte in der Nähe der Hochspannungsleitung zu diesem Zeitpunkt ebenfalls angeschlossen wurden, zum Beispiel Pol-e Chomri, oder die demnächst angeschlossen werden. Auch die schnell wachsende Stadt Masar-e Scharif bekam über eine Abzweigung, zusätzlich zu einer schon bestehenden Verbindungen, aus Usbekistan Energie geliefert. Damit stieg der Versorgungsgrad wieder an, wenn auch auf niedrigem Niveau. 2009 lag der Pro-Kopf-Verbrauch an elektrischer Energie bei 49 kWh, was einer der niedrigsten Werte weltweit war. 2011 verfügten 28 % der Bevölkerung über einen Stromanschluss. Das Land hatte eine Installierte Leistung von rund 500 MW, verteilt auf Wasserkraftwerke und Dieselgeneratoren. Der Stromverbrauch lag bei insgesamt 3086 GWh, wovon 73 % aus dem Ausland importiert wurden. Im Jahr 2021 importierte Afghanistan knapp 80 Prozent seines Stroms aus dem Ausland (vor allem aus den zentralasiatischen Nachbarländern). Stand 2021 hatten 35 % aller Haushalte einen Stromanschluss. In Afghanistan wird insbesondere der Wasserkraft viel Potential eingeräumt: Es ist geplant, unter anderem die Kajakai-Talsperre mit einem zusätzlichen Wasserkraftwerk "Kajakai II" auszubauen. Auch andere erneuerbare Energien wie Windenergie und Solarenergie, die, von dezentralen Inselanlagen abgesehen, bisher über keine nennenswerte Rolle spielen, verfügen über großes Potential. Gründe für ihren Ausbau sind u. a. geringere Abhängigkeit von Energieimporten aus den Nachbarstaaten mit schwankenden und unvorhersehbaren Lieferbedingungen, längere Reichweite heimischer Energieressourcen Kohle und Erdgas sowie Reduzierung von Dieselimporten, deren Kosten ansteigen sowie Umweltschäden verursachen. Als besonders erfolgversprechend gilt der Einsatz von Windkraft- und Photovoltaikanlagen in den Provinzen Herat and Balch, wo ohne größere Abregelung ein Wind- und Solarstromanteil von 65 bis 70 % erreicht werden könnte. In Herat bläst z. B. an ca. 120 Tagen im Jahr starker Wind. Verkehrsinfrastruktur. Das "Straßennetz" befindet sich im Wiederaufbau und wird zudem erweitert. Die sogenannte Ring Road, die Hauptverkehrsader des Landes, in deren Umgebung rund 60 Prozent der Bevölkerung leben, wurde wieder instand gesetzt. So wurden bis 2007 bereits 715 Kilometer von ihr erneuert. Die Fertigstellung des letzten rund 400 km langen, neu trassierten Teilstücks, das die letzte Lücke im Nordwesten des Landes schließen würde, verzögert sich jedoch wegen der lokal prekären Sicherheitslage. Außerdem wurden bis Mitte 2007 über 800 km an sekundären Straßen erneuert oder neu angelegt. Das gesamte Straßennetz umfasste 2017 etwa 34.903 km, davon 17.903 km asphaltiert. Der Grenzfluss Amudarja beziehungsweise dessen Quellfluss Pandsch stellt ein natürliches Hindernis für Überlandtransporte in die nördlich gelegenen Nachbarländer Usbekistan und Tadschikistan dar, da nur wenige Brücken über diese beiden Flüsse existieren. Es besteht teilweise eine hohe Minengefahr und viele Straßen sind je nach Jahreszeit oft stark unterspült. Um 2000 wurde die Straßenverkehrsordnung der DDR übernommen, weil viele afghanische Soldaten in der DDR ausgebildet worden waren. In Afghanistan gibt es über 60 "Flugplätze" und "Flughäfen", überwiegend handelt es sich um einfache Schotterpisten. Nur in einigen Städten sind größere Flughäfen vorhanden, diese werden auch beziehungsweise überwiegend von der U. S. Air Force militärisch genutzt. Der größte Flughafen des Landes ist der Flughafen Kabul. Über ein Dutzend Fluggesellschaften fliegen Ziele in Afghanistan an. Afghanische Fluggesellschaften sind Ariana Afghan Airlines, Kam Air und Pamir Airways. Das afghanische "Schienennetz" hat derzeit eine Länge von 87 Kilometer in "russischer" Breitspur von 1520 Millimeter. Von Turkmenistan, Usbekistan und Pakistan führen kurze Stichstrecken auf afghanisches Gebiet, wobei die Chaiber-Pass-Bahnlinie zum pakistanisch-afghanischen Grenzort Landi Khana stillgelegt ist. Die Strecke vom usbekischen Termiz überquert auf der Brücke der Freundschaft (kombinierte Eisenbahn-Straßenbrücke) den Amudarja und führt seit August 2011 bis zum 85 Kilometer entfernten Flughafen von Masar-e Scharif. Über diese Brücke wird annähernd die Hälfte des afghanischen Imports abgewickelt. Aus dem turkmenischen Serhetabat führt eine Güterverkehrsstrecke 2 Kilometer auf afghanisches Gebiet, die 2007 erneuert wurde. Diese beiden Strecken sind in der Zeit der sowjetischen Besatzung gebaut worden. Aufgrund des steigenden Außenhandels mit dem Iran gibt es Bestrebungen, eine Bahnlinie zwischen Maschhad und Herat zu bauen. Des Weiteren gibt es konkrete Bauabsichten für eine Strecke vom pakistanischen Grenzort Chaman nach Kandahar und für eine Verbindung von Pakistan über Kabul nach Usbekistan. Durch diese Verbindung wird der Export von Kupfererz aus der Mine Aynak der China Metallurgical Group gefördert, welche die Strecke auch baut. Telekommunikation. Es existieren vier Mobilfunknetze. Anfang 2008 gab es in Afghanistan 4,5 Millionen Mobilfunknutzer. Das Telekommunikationsnetz der Afghan Telecom versorgt alle 34 afghanischen Provinzhauptstädte sowie 254 Orte und Dörfer. Im Jahr 2017 nutzten 11 Prozent der Einwohner Afghanistans das Internet. Kultur. Die Region war etwa vom 2. bis etwa zum 10. Jahrhundert buddhistisch geprägt. Aus dieser Zeit sind zahlreiche Überreste buddhistischer Stätten erhalten. Der Islam, der das Gebiet im 7. Jahrhundert erreicht hatte, verbreitete sich zunächst eher langsam. Eine der größten Sehenswürdigkeiten waren die Buddha-Statuen von Bamiyan. Im Jahre 2001 wurden diese in eine Felswand eingearbeiteten Kunstwerke durch die Taliban zerstört. Die zahlreichen Überreste von Klöstern, ausgemalten Höhlen, Statuen und Festungsanlagen im Bamiyan-Tal stehen auf der Liste des UNESCO-Welterbes, wie auch das sich in der Provinz Ghor befindliche Minarett von Dschām mit den dortigen archäologischen Überresten. Die Taliban zerstörten und plünderten viele Kunstwerke (unter anderem Gemälde und Figuren aus buddhistischer Zeit), vor allem die, die Menschen darstellten. Mitarbeitern des örtlichen Institutes für Kunst gelang es, Kunstwerke vor den Taliban zu retten. Zu den kulinarischen Spezialitäten der afghanischen Küche zählen Khabilie Palau mit delikaten Gemüsesoßen, Borani-Badendschan und Aschak. Literatur. Die afghanische Literatur umfasst unter anderem die Literatur in Dari und Paschto, die von Autoren auf dem Gebiet des seit dem 18. Jahrhundert existierenden afghanischen Staats verfasst wurde. Dari sprechen als Muttersprache vor allem Tadschiken und Hazara, aber auch immer mehr Paschtunen. Die Verbreitung der paschtunischen Sprache, einer ostiranischen Sprache, die sich aber stark vom Dari unterscheidet, deckt sich nicht mit dem heutigen afghanischen Staatsgebiet; sie reicht bis nach Pakistan. Umgekehrt wird auch das in Pakistan verbreitete Urdu von einer Minderheit in Afghanistan gesprochen und von einigen Autoren als Literatursprache genutzt. Paschto. Das Paschto brachte eine nennenswerte, jedoch außerhalb des paschtunischen Sprachraums kaum beachtete bzw. wenig bekannte Literatur hervor. Die Anfänge der Paschto-Literatur gehen ins 17. Jahrhundert zurück und sind stark vom Persischen beeinflusst. Die Echtheit älterer Manuskripte aus der voriranischen Zeit, die möglicherweise von Mohammed Hotak erst 1728–1729 verfasst wurden, wird bezweifelt. Pīr Roschān (1525–1581/1585), ein Krieger, Dichter und Sufi-Meister aus dem Ormur-Stamm, entwickelte eine eigene Schrift, die die Lautstruktur des Paschto besser wiedergab als die arabische Schrift. Als bekannteste Dichter und Literaten des Paschto der klassischen Epoche gelten Khushal Khan Khattak (Hushal Han, 1613–1689), ein auf dem Gebiet des heutigen Pakistan geborener Stammesherrscher, Führer des Aufstands gegen die Mogulherrscher und Meister des "landai", einer Form zweizeiliger paschtunischer Kurzgedichte, der gelegentlich auch in persischer Sprache dichtete, sowie der mystisch-erotische Dichter Abd ur-Rahman Mohmand (Rahman Baba, 1653–1709/1711) und der weltliche Liebeslyriker Abd ul-Hamid (* ~1732). Sie bedienten sich der Vorlagen und Formen der klassischen persischen Poesie, z. B. des Ghasel, deren Metrum der Paschto-Volksdichtung angepasst wurde. Rahman Babas Gedichte genossen bei den Paschtunen größte Verehrung. Nazo Tokhi („Nazo Ana“, „Großmutter Nazo“, ca. 1651–1717), eine Tochter des Häuptlings des Tokhi-Stammes, wurde als Kriegerin ebenso bekannt wie als Dichterin. Aber auch der erste König Afghanistans, Ahmad Schah Durrani (1724–1773), ging als großer Dichter in die Geschichte des Landes ein. Der Enkel Kushal Khans, Afzal Khan Khattak, kompilierte um 1708 mit dem "Tarich-e morassa" eine Geschichte Afghanistans aus verschiedenen Quellen. Daneben existiert die reiche Volksdichtung, die zuerst im 19. Jahrhundert (allerdings in der Gegend von Peschawar im heutigen Pakistan) von James Darmesteter dokumentiert wurde. Die afghanischen Barden waren jedoch meist keine Hofpoeten, sondern volksnahe Häuptlinge (so bis in die Neuzeit die des Kahttak-Clans in Pakistan) oder Derwische, die in Paschto dichteten. Der Abstand zwischen Volkssprache und literarischer Sprache ist gering. In Kabul wurde 1931 eine Paschtoakademie gegründet. Diese bemüht sich ebenso um die Pflege der paschtunischen Sprache wie ihr Gegenstück, die Pakhto Akedemi in Peschawar, dem literarischen Zentrum des Paschto im heutigen Pakistan. In den dreißiger Jahren setzten sich vor allem in den Feuilletons die westlichen Gattungen wie Novelle, Kurzgeschichte, Theaterstück und (Fortsetzungs-)Roman durch. Das war nicht einfach, da auch die Prosa in Paschto an das Ideal des persischen höfischen Stils gebunden war. Es kristallisierten sich zwei große Stoffgebiete heraus: historische Themen, die mit verklärendem Patriotismus behandelt wurden, und realistische Gegenwartskritik, wobei an den religiösen und gesellschaftspolitischen Grundregeln der islamischen Gesellschaft nicht gerüttelt wurde. Nach dem Zweiten Weltkrieg kam es zu einer Radikalisierung der Literatur. Federführend war die allerdings kurzlebige literarische Vereinigung "Wesch zalmayan" (Wache Jugend). Abdul Rauf Benawa (1913–1987) und Gul Pacha Ulfat (1909–1977) waren wichtige Autoren dieser Zeit. Beide verfassten u. a. Lehrgedichte. In Benawas Gedichtzyklus "Preschana afka" (Traurige Gedanken 1957) geht es um die Machtlosigkeit, Verlassenheit und Entrechtung der Menschen. Der Sozialaktivist Benawa thematisiert die Unterschiede zwischen Arm und Reich in seinem Land und die Willkürherrschaft von Beamten, der die Masse der Besitzlosen ausgesetzt ist, während Ulfat der Klage der Frauen über ihre gesellschaftliche Stellung eine Stimme verleiht. Allerdings verwendeten die jungen Radikalen Stereotype, die bis zur Karikatur verzerrt waren: der Dorfherr mit dickem Bauch und Gewehr, der Bauer barfuß unter der Peitsche des Feudalherrn, seine zwangsverheiratete Tochter, der im Ausland ausgebildete Arzt, der Mullah usw. Benawa musste emigrieren und starb 1987 im amerikanischen Exil. Auch Nur Muhammad Taraki (1917–1979), Übersetzer, Diplomat und zeitweise im Exil, veröffentlichte sozialkritische Kurzgeschichten, die nicht frei von Klischees waren. 1978 bis 1979 war er Ministerpräsident und wurde vermutlich ermordet. Der Verfasser patriotischer Gedichte, Schriftsteller und Psychologe Kabir Stori (1942–2006) studierte in Deutschland. Er wurde 1983 in Pakistan verhaftet und konnte nur wegen des erfolgreichen internationalen Drucks nach Deutschland emigrieren. Dari. Ein Wegbereiter der Modernisierung nach der Unabhängigkeit 1919 war Mahmud Tarzi (1865/68?–1935), der die politischen Reformen unterstützte, die erste wichtige Zeitung "Seraj ul akhbar" (Leuchte der Nachrichten) herausgab und 1919 Außenminister wurde. Er übersetzte die schöngeistige Literatur aus europäischen Sprachen ins Dari und führte die moderne westliche Begrifflichkeit (Nation, Freiheit, Ausbeutung, Wissenschaft, Eisenbahn, Flugzeug, …) in die Paschtuliteratur ein, wo früher Begriffe wie Liebe, Blume, Nachtigall und die Traditionen der Stammesgesellschaft dominierten. Die Erzähltradition blieb lange Zeit lyrisch geprägt. Die ersten modernen Kurzgeschichten erschienen etwa 1933; die meisten Autoren waren zugleich Übersetzer und Journalisten. Der erste Roman Afghanistans wurde 1938 publiziert; sein Autor war Sayed Mohammed Ibrahim Alemschahi. Im gleichen Jahr erschienen weitere Romane und Fortsetzungsromane, so "Chandschar" (Dolch) von Dschalaluddin Choschnawa und "Begom" von Suleiman Ali-Dschaguri, die von der traditionellen Erzählkunst beeinflusst waren, aber traditionelle Zustände durchaus kritisierten. Berühmtester Dramatiker der 1940er Jahre war Aburraschid Latifi. Azizurrahman Fathi wurde bekannt durch zwei große sozialkritische Romane von 1949 ("Sonnenaufgang") und 1952 ("Unter der wilden Rose"), durch die er neue Maßstäbe für die Langprosa setzte. Seit etwa 1953 wurden Autoren wie Balzac, Maupassant, Dickens, Jack London, Hemingway, Dostojewski, Tschechow und Maxim Gorki in Dari übersetzt. Seither gewann die realistische, regional-volkstümliche, oft auch absurde Kurzgeschichte – auch unter dem Einfluss der iranischen Linken und der kommunistischen Bewegung in Afghanistan – an Boden. Zu erwähnen sind Abdul-Ghafur Berschna (1912–1982), der seine Stoffe aus Volkserzählungen gewann, Babrak Arghand (* 1946), Jalal Nurani, Rahnaward Zaryab (1944–2020) und Akram Osman. Rosta Bakhtari schrieb unter dem Einfluss des Symbolismus und der Literatur des Absurden. Obwohl die Hoffnung auf Demokratisierung sich rasch zerschlug, verbesserte sich insbesondere die Lage der Frauen, was sich auch im Werk der Autorin und Übersetzerin Roqqiya Abu Bakr (1919–2004) ausdrückte. Der in Paschto und Dari schreibende, bei der Schilderung des Alltags der Eliten Klischees keineswegs meidende Lyriker und Erzähler Schafiq (1932–1979), ein studierte islamischer Theologe und Jurist, wurde 1971 Außenminister und 1972 bis 1973 Ministerpräsident. Nach dem kommunistischen Umsturz vom April 1978 wurde Schafiq 1979 ermordet. Mahbub emigrierte 1979 nach Pakistan, Indien und später nach Kanada. Gegen die sowjetische Okkupation regte sich literarischer Widerstand, u. a. von Layla Sarahat (1958–2004), Partov Naderi (* 1952) und Gholamschah Sarschar Schomali (1930–1981), der im Gefängnis starb. Als literarische Repräsentanten des neuen Regimes können die Romanautoren Assadullah Habib (* 1941), Babrak Arghand und Alim Eftekhar gelten. Als Erzählerinnen traten Maga Rahmani und Marjam Mahbub (* 1955) ("Das trostlose Haus" 1990) hervor. Der Schriftsteller, Literaturwissenschaftler und Präsident der afghanischen Schriftstellervereinigung Assadullah Habib war 1982 bis 1988 Rektor der Universität Kabul. Während der Talibanherrschaft gingen viele Intellektuelle ins Exil, und zwar aufgrund der Sprachverwandtschaft meist in den Iran, aber auch in die USA, so z. B. der Erzähler und Verfasser klassischer Gedichte Razeq Fani. Zu den Autoren, die ihre Arbeit im westlichen Exil fortsetzten, gehörten Spôjmaï Zariâb (* 1949), Tamim Ansary und der Friedenspädagoge Ahmad Jawed. Auch Marjam Mahbub publizierte in Kanada weitere Werke in Dari. Die Erfolg versprechende Lyrikerin Nadia Anjuman wurde 2005 im Alter von 25 Jahren von ihrem Ehemann erschlagen. Urdu. Rahbeen Khorshid und Mohammad Afsar Rahbin, der eigentlich Dari spricht, dichten (auch) in Urdu. Typisch für die Urdu-Literatur ist das Muschaira, das Dichter-Symposion, auf dem viele Poeten ihre Gedichte rezitieren. Medien. Laut dem Bericht der Nichtregierungsorganisation Reporter ohne Grenzen ist die Situation der Pressefreiheit im Land „schwierig“. Die Pressefreiheit ist zwar von der Verfassung garantiert, wird jedoch in der Realität von lokalen Machthabern und unterschiedlichen politischen Gruppen nicht respektiert. In den von Taliban beherrschten Regionen des Landes gibt es keine Medienfreiheit. 1906 erschien die erste afghanische Tageszeitung in Dari, die bereits nach einer Ausgabe wieder verboten wurde. 1911 wurde sie von Mahmud Tarzi wieder ins Leben gerufen. Nach 1919 wurde das Presse- und Zeitungswesen sehr gefördert, bereits 1921 erschien die erste Frauenzeitschrift. Nach der Machtübernahme der Taliban 1996 gab es fünf Jahre lang keine Fernsehsender, heute sind es bereits 16 Sender, die hauptsächlich Filme und Serien aus dem Ausland wie Indien, Pakistan und dem Iran im Unterhaltungsprogramm ausstrahlen. Freizügige Kleidung in der Werbung oder in indischen Serien wird durch Bildfilter unkenntlich gemacht oder verschwommen gezeigt. Informationssendungen und Talkshows werden auch von Frauen moderiert. Kalender. Gesetzliche oder staatliche und landwirtschaftliche Feiertage und Feste wie Nouruz, Unabhängigkeitsfest sowie staatliche Gedenktage werden nach dem iranischen Sonnenkalender gefeiert. Religiöse Feste werden nach dem islamischen Mondkalender gefeiert. Der Kalender nach dem Sonnenjahr ist Staatskalender, auch wenn er im Laufe der Geschichte auf dem Boden des heutigen Landes, aber auch seit der Namensgebung „Afghanistan“ im 19. Jahrhundert wiederholt außer Kraft gesetzt worden ist. Zuletzt wurde der Solarkalender im Jahre 1996 von den Taliban für ungültig erklärt. Der islamische Lunarkalender war der Kalender des „Islamischen Emirats Afghanistan“. Seit der Loja Dschirga von 2004 ist der auf dem Sonnenjahr beruhende Kalender abermals in der Verfassung verankert. Demnach basiert der Kalenderanfang auf dem Zeitpunkt der Pilgerfahrt (Hidschra) des Propheten Mohammed. Die Arbeitsgrundlage des Staatswesens ist der auf jener Pilgerfahrt beruhende Sonnenkalender. 22 Sonnenjahre entsprechen 23 Mondjahren. Die zwölf Monatsnamen des Sonnenkalenders entsprechen in Afghanistan den Tierkreiszeichen. Afghanische Kalender mit deutschen Feiertagen (GPL-Lizenz) sowie weitere Informationen zum afghanischen Kalender sind unter Afghan Kalender Projekt verfügbar. Sport. Afghanistans Sportkultur wird vor allem von seinen zentral- und südasiatischen Nachbarländern beeinflusst. Wie in anderen Ländern Zentralasiens, stellt das Reitspiel Buzkaschi den traditionellen Wettkampfsport Afghanistans dar, der vor allem bei Volksfesten ausgetragen wird. Basketball, Volleyball, Taekwondo und Gewichtheben genossen einige Zeit lang breite Popularität in Afghanistan. Fußball und allen voran Cricket genießen jedoch die größte Popularität unter den Mannschaftssportarten in Afghanistan. Cricket ist auch der einzige Sport, der von den Taliban geduldet wird und von der geografischen Lage Afghanistans nahe Pakistan und Indien profitiert, wo die Mannschaftssportart einen hohen Grad der Professionalisierung erreicht hat. Die afghanische Cricket-Nationalmannschaft wurde 2001 gegründet und zeigte seitdem einen konstanten Aufwärtstrend. Afghanistan nahm 2009 erstmals an der Qualifikation für die Cricket-Weltmeisterschaft 2011 teil und qualifizierte sich schließlich für die Turniere 2015 und 2019. Am 22. Juni 2017 wurde Afghanistan zusammen mit Irland der Teststatus zuerkannt, was zur Teilnahme an der angesehensten Stufe des Crickets berechtigt. Die afghanische Fußball-Nationalmannschaft wurde bereits 1933 gegründet und nimmt seit 1941 am internationalen Sportgeschehen teil. Zwischen 1984 und 2002 bestritt sie jedoch keine Spiele mehr; heute ist die Mannschaft wieder aktiv und absolviert Pflichtspiele, ihnen gelang jedoch noch nicht die Qualifikation für eine Fußball-Weltmeisterschaft. 2013 gewann Afghanistan bei der Fußball-Südasienmeisterschaft seinen ersten internationalen Titel. Seit 2012 gibt es die erste Fußball-Profiliga Afghanistans, die Afghan Premier League. Am 4. November 2016 fand ein Marathonlauf in Bamiyan statt, an dem erstmals Sportlerinnen teilnahmen.
155
568
https://de.wikipedia.org/wiki?curid=155
Atonale Musik
Atonale Musik bezeichnet allgemein eine durch sogenannte Atonalität charakterisierte Musik, die auf der chromatischen Tonleiter gründet, deren Harmonik und Melodik nicht auf ein tonales Zentrum bzw. einen Grundton fixiert ist – im Gegensatz zur (Dur-Moll-)Tonalität oder Modalität. Der Begriff wurde anfänglich in polemischer Absicht von der konservativen Musikkritik auf die Kompositionen der Wiener Schule, insbesondere auf Arnold Schönbergs "Drei Klavierstücke op. 11" (1909), angewandt und war ursprünglich mehr ein Schlagwort als ein musiktheoretischer Terminus. Sowohl Schönberg als auch Alban Berg lehnten diesen Begriff ab, weil sie ihn im Sinne von „ohne Töne“ (statt „ohne Tonart“) verstanden (u. a. in dem Radiodialog "Was ist atonal?" von 1930). Rückblickend betrachtet stellt der Paradigmenwechsel Tonalität/Atonalität um die Jahrhundertwende weniger eine „Revolution“ als vielmehr eine „Evolution“ dar, deren Grenzen durch den Zusatz „freie“ (Tonalität/Atonalität) auch in der (musik-)wissenschaftlichen Terminologie zunehmend verwischt werden. Obwohl sich bereits in Werken des 16. Jahrhunderts, insbesondere im „manieristischen“ italienischen Madrigal, stark chromatische Passagen finden, die in der Spätromantik wieder aufgegriffen wurden, kann von Atonalität erst ab dem frühen 20. Jahrhundert die Rede sein. Die frühe Atonalität der ersten Hälfte des 20. Jahrhunderts lässt sich in eine Phase der sogenannten freien Atonalität und etwa ab 1925 in eine Phase der zwölftonigen, später auch seriellen Atonalität gliedern. Die Preisgabe der Tonalität ist, abgesehen von einigen Gegenbewegungen, eine der wenigen Konstanten der Neuen Musik und verbindendes Element verschiedener Stilrichtungen der Moderne, wie etwa Aleatorik, Mikrotonalität oder Mikropolyphonie. Damit hat die Atonalität zwar einerseits zur zunehmenden Komplexität (aus der Sicht ihrer Befürworter) oder zur zunehmenden Beliebigkeit (aus der Sicht ihrer Gegner) der zeitgenössischen Musik und dem damit verbundenen „Bruch mit dem Publikum“ beigetragen, andererseits verbietet sich aufgrund ihrer vielfältigen Erscheinungsformen ein ästhetisches Pauschalurteil (sei es positiv oder negativ). Geschichtliche Entwicklung. Die Atonalität gestreift hatten schon Franz Liszt in seinen späten Klavierstücken und Alexander Skrjabin. Der überwuchernde Gebrauch von Chromatik während der Spätromantik oder bei Komponisten wie Max Reger hatte atonale Tendenz. Auch die Verwendung von Bi- oder Polytonalität, dem Gebrauch von zwei oder mehreren Tonarten gleichzeitig, führte in den Grenzbereich der Atonalität. Die erste Phase, die in der Aufgabe der traditionellen Harmonik besteht, wird auch „freie Atonalität“ genannt. Schönberg versuchte ein Ordnungsprinzip innerhalb der atonalen Musik zu schaffen und entwickelte die Methode der „Komposition mit zwölf nur aufeinander bezogenen Tönen“ (später als Zwölftontechnik apostrophiert), die er ab 1923 (in einigen der "Fünf Klavierstücke op. 23" und in den meisten Sätzen der "Suite für Klavier op. 25") erstmals anwendete. Dieses Zwölftonprinzip garantiert aber zunächst noch nicht zwingend die Atonalität, sondern lediglich eine weitgehend gleichmäßige Verteilung der zwölf temperierten Halbtöne innerhalb des kompositorischen Satzes. Je nach Reihenstruktur und vertikaler Organisation der Töne ist es durchaus möglich, Stücke in Reihentechnik zu komponieren, die als tonal empfunden werden. Schönberg hat einige seiner komplementären Reihen sogar bewusst so konstruiert, dass nach der vertikalen Entflechtung ihrer Hexachorde die Ausrichtung auf ein tonales Zentrum möglich wird. Durch zweckdienliche Materialdisposition generiert er sodann mit einer einzigen Grundreihe alternierend tonale und atonale Zonen. Im "Klavierstück op. 33a" und im "Klavierkonzert op. 42" verbindet sich dieses Vorgehen mit einer klaren formalen respektive inhaltlichen Intention. Die Zwölftontechnik wurde nach dem Zweiten Weltkrieg zum Serialismus weiterentwickelt und dominierte die Avantgarde der ernsten Musik während der 1950er Jahre in Europa. Weitere wichtige Wegbereiter der atonalen Musik waren neben Alban Berg und Anton von Webern, die zusammen mit Schönberg unter die sogenannte Zweite Wiener Schule subsumiert werden, Ernst Krenek, Igor Strawinsky, Béla Bartók und viele andere mehr. Ästhetische Debatte. In seiner 1949 erschienenen "Philosophie der neuen Musik" plädiert Theodor W. Adorno für Schönbergs atonale Kompositionsweise und setzt diese dem als Rückfall in bereits veraltete Kompositionstechnik betrachteten neoklassizistischen Stil von Igor Strawinsky entgegen. Der Schritt zur Atonalität um 1910 durch Schönberg bedeutet für Adorno die Befreiung der Musik vom Zwang der Tonalität und damit die ungehinderte Entfaltung des musikalischen Ausdrucks qua freier Atonalität mit dem vollen Triebleben der Klänge. Dagegen wendet er sich in der gleichen Schrift dezidiert gegen die (später von Schönberg entwickelte) Zwölftontechnik, weil er hier die Gefahr eines mechanisch ablaufenden Komponierens sah. Dazu passt auch der Kommentar des alten Schönberg, als man ihm mitteilte, dass seine Kompositionsmethode sich über die Welt ausgebreitet habe: „Ja, aber machen sie auch Musik?“ Wie jede künstlerische Revolution (die sich aus späterer Sicht oft eher als Evolution, als Weiterentwicklung darstellt) wurden auch die Mittel der Atonalität von konservativen Geistern heftig attackiert. Der Dirigent Ernest Ansermet etwa hat in seinem Buch "Die Grundlagen der Musik im menschlichen Bewusstsein" von 1961 der atonalen Musik ihr Existenzrecht überhaupt abgesprochen, da in ihr eine sinnhafte musikalische Formensprache aufgegeben werde und durch den Wegfall einer sinnstiftenden Tonalität ein fundiertes ästhetisches Urteil durch den Hörer nicht möglich sei. Die Erzeugung eines psychischen Widerhalls im Hörer durch atonale Musik täusche Sinnhaftigkeit nur vor. (Carl Dahlhaus kritisierte in seinem Artikel "Ansermets Polemik gegen Schönberg" (Neue Zeitschrift für Musik, 1966) Ansermets Annahmen als unwissenschaftlich.) Die meisten Einwände basieren auf zwei Grundannahmen: Dagegen wurde ins Feld geführt, dass Atonalität jenseits der Neuen Musik. Auch im Bereich populärer Musik wird auf Atonalität Bezug genommen, wie zum Beispiel das Berlin Atonal Festival, welches seit 2013 wieder stattfindet, verdeutlicht. Um 1960 wurden im Free Jazz atonale Strukturen erreicht. Maßgeblich sind hier vor allem freie Improvisationen (teilweise im Kollektiv) und eine sehr freie Formgestaltung. Zugleich werden rhythmische Grundmuster oftmals aufrechterhalten. Die Jazzforschung konnte zeigen, dass sich die improvisierenden Musiker häufig an modalen Skalen orientierten, also auch tonale Einflüsse in das Spiel integriert werden (Jost 1975). Typisch ist auch die Verwendung von Leittönen oder grundlegenden Motiven. Gemeinsamkeiten mit und Differenzen zum Free Jazz und der postseriellen Musik analysiert Kumpf (1976). Ebenfalls existieren atonale Klangmuster nicht selten in der Filmmusik; hier besonders häufig im Sound Design. Literatur. chronologisch
159
2458679
https://de.wikipedia.org/wiki?curid=159
Akeleien
Die Akeleien ("Aquilegia") bilden eine Pflanzengattung in der Familie der Hahnenfußgewächse (Ranunculaceae). Die 70 bis 75 Arten sind hauptsächlich in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Sorten einiger "Aquilegia"-Arten werden als Zierpflanzen verwendet. Beschreibung. Vegetative Merkmale. Akelei-Arten sind mehrjährige (meist drei- bis fünfjährige) bis ausdauernde krautige Pflanzen. Das reich verzweigte Wurzelsystem bildet schlanke, leicht verholzende Rhizome mit bleibender Pfahlwurzel als Überdauerungsorgan. Mit der Zeit erweitert sich die Pflanze um die Hypokotyl-Region oberhalb des Wurzelhalses in Form einer verdickten Sprossbasis oder Kormus, der an oder unterhalb der Bodenoberfläche bleibt. Diese Struktur hilft der Sprossachse bei der Überwinterung. Mit beständigem Wachstum über mehrere Saisonen hinweg, bilden sich neben der primären Blattkrone Seitenknospen, die neue Wachstumsachsen formen. An einer Pflanze stehen mehrere aufrechte, meist verzweigte Stängel zusammen. Die Sämlinge besitzen zwei Keimblätter (Kotyledonen). Die Laubblätter stehen in grundständigen Blattrosetten zusammen. Zusätzlich sind etwas kleinere Blätter wechselständig und spiralig am Stängel verteilt. Diese können jedoch als Anpassung an trockenere Habitate oder Hochgebirgsstandorte auch ganz fehlen. Die Laubblätter sind in einen langen Blattstiel und eine Blattspreite gegliedert. Die ein- bis dreifach dreiteilig gefiederten Blattspreiten bestehen aus gelappten bis geteilten Fiederblättchen. Der Rand der Fiederblättchen ist gekerbt. Generative Merkmale. Mit dem Übergang zum Blühen transformiert sich das apikale Meristem zu einem Blütenstand. Die Blüten stehen endständig, manchmal einzeln, aber meist in zwei bis zehn zymösen oder doldigen monochasialen oder dichasilen Blütenständen zusammen, mit laubblattähnlichen Hochblättern. Die zwittrigen, radiärsymmetrischen Blüten besitzen fünf Blattorgane und sind auch in fünfwirtligen Blüten geordnet. Im ersten Wirtel stehen die kronblattartigen Kelchblätter (Sepalen), die beim Anlocken von Bestäubern eine hervorstehende Funktion besitzen. Im zweiten Wirtel sind die durch einen rückwärts gerichteten Nektarsporn stark differenzierten Kronblätter (Petalen) angeordnet, die im Sporn Nektarien enthalten. Die Länge dieser Sporne variiert enorm von 9 bis 15 Zentimeter bei "Aquilegia longissima" und der spornlosen "Aquilegia ecalcarata". Die Arten variieren aber auch in der Länge der Kronblattspreite und der Kurvatur des Sporns. Die Farben der Blütenhüllblätter reichen von weiß bis blau und gelb bis rot. Die fünf freien, kurz genagelten Kelchblätter sind ausgebreitet und 0,7 bis 5,1 Zentimeter lang. Die fünf mehr oder weniger aufrechten, freien Kronblätter sind mit weniger als 30 Millimeter meist kürzer als die Kelchblätter. Die vielen Staubblätter sind in zehn Orthostichen zu je vier bis neun Wirteln angeordnet. Die der ersten Blüte folgenden Blüten haben dabei jeweils allmählich abnehmende Zahlen von Staubblattwirteln. Am apikalen Ende jeder Orthostiche findet sich ein neuartiges Blütenorgan, die etwa sieben schuppenförmigen, häutigen Staminodien. Diese sterilen, abgeplatteten Organe finden sich in allen Blüten ungeachtet ihrer Staubblattzahl. Die Staminodien bestehen aus einem zentralen Filament mit seitlicher Lamina und sind typischerweise farblos. Die ökologische Funktion dieser Organe wird nach wie vor diskutiert, aber es ist offensichtlich, dass sie auch dann noch an der Blüte verbleiben, wenn die anderen Blütenorgane abgefallen sind; sie bleiben als umschließender Kranz am Fruchtblatt. Eine Hypothese ist, dass diese Organe mit Mischungen aus Verteidigungssubstanzen gegen Herbivoren ausgestattet sind, um im frühen Stadium der Fruchtbildung einen Schutz zu bieten. Alle "Aquilegia"-Arten mit Ausnahme von "Aquilegia jonesii" besitzen solche Staminodien. Es befinden sich vier bis sechs freie Fruchtblätter im Zentrum der Blüte. Der Griffel ist etwa halb so lang wie der Fruchtknoten. An den bei einer Länge von 3 bis 26 Millimeter schmalen, zylindrischen Balgfrüchten ist der Griffel deutlich erkennbar. Jede Balgfrucht enthält 10 bis 36 Samen. Die schwarzen, glatten Samen sind schmal und verkehrt-eiförmig. Ökologie und Evolution. Die Akeleien gehören zu den ursprünglichen Blütenpflanzen und haben daher einen relativ einfachen morphologischen Bauplan. Die ursprünglichen "Aquilegia"-Arten sind vor etwa 6,18 bis 6,51 Mio. Jahren aus einem zentralasiatischen Verbreitungszentrum hervorgegangen. Sie bilden sowohl insgesamt als auch in den einzelnen Verbreitungsschwerpunkten eine monophyletische Gruppe (Monophylie). Die Entstehung der "Aquilegia"-Arten wird für Europa dabei auf einen Zeitraum auf 1,25 bis 3,96 Mio. Jahren vor heute, für Nordamerika auf 1,42 bis 5,01 Mio. Jahren vor heute angegeben. Da keine fossilen Überreste von "Aquilegia" spec. gefunden werden, beruhen diese Datierungen auf molekulargenetischen Daten (Molekulare Uhr). Die Besiedlung Nordamerikas erfolgte nur einmal über die im Pliozän geöffnete Landverbindung von Beringia (Beringstraße als Landverbindung im geologischen Zeitraum von 5,5 bis 3,1 Mio. Jahren vor heute geöffnet). Bei "Aquilegia"-Arten handelt es sich meist um Hemikryptophyten. Die Benetzbarkeit der Blattoberfläche ist gering. Wasser perlt in Tropfen ab, wie es auch bei Lotosblumen beobachtet werden kann, und nimmt dabei auf der Oberfläche anhaftende Schmutzpartikel mit (Lotuseffekt). Seit langer Zeit ist die Pflanzengattung "Aquilegia" für die Wissenschaft der Botanik wichtig. Die Gattung "Aquilegia" hat sich für das Verständnis evolutionsgeschichtlicher Abstammung von Blütenorganen und -morphologie in der Parallelentwicklung von Pflanzenarten und tierischen Bestäubern als eines der herausragenden Modelle herausgestellt. Dabei haben "Aquilegia"-Arten direktionale Anpassungen ihrer Nektarsporne an unterschiedliche Bestäuber wie Kolibri, Schwärmer und Hummeln vollzogen. Daher variieren die Längen der Nektarsporne zwischen 1 und 2 Millimeter sowie von 10 bis 12 Zentimeter, aber auch die Blütenfarben wie die -orientierung haben sich als direkt abhängig von bestäubenden Tieren herausgestellt (Hummelblüten sind blau-violett, Kolibriblüten rot, Schwärmerblüten weiß oder gelb). Sie haben sich dabei an eine Vielzahl unterschiedlicher Bestäuber angepasst: Schwebfliegen, Hummeln, Schwärmer und Kolibris. In Eurasien und Nordamerika haben sich die "Aquilegia"-Arten evolutionär jedoch in relativ kurzer Zeit spezifisch unterschiedlich entwickelt: Während sich in Eurasien "Aquilegia"-Unterarten durch adaptive Radiation an unterschiedliche Habitate (Wald, Grasland, alpine Standorte) weiterentwickelten, die Blütenmodifizierung aber relativ unbedeutend blieb, so fand in der neuen Welt die blütenmorphologische Anpassung an unterschiedliche Bestäuber statt. Daher haben sich die europäischen "Aquilegia"-Arten überwiegend allopatrisch durch reliktische Isolation gebildet (lokale Endemiten), die amerikanischen dagegen auch sympatrisch durch Barrieren im Bestäubungsmechanismus. So sind die Blüten der eurasischen Akeleien noch immer auf Hummeln fixiert, während die amerikanischen Arten größere Vielfalt entwickelten und neben Arten mit Hummelbestäubung auch Formen entwickelten, die ganz oder überwiegend auf Kolibri- ("Aquilegia flavescens", "Aquilegia skinneri", "Aquilegia formosa", "Aquilegia canadensis", "Aquilegia elegantula") oder Schwärmer-Bestäubung angelegt sind. "Aquilegia"-Arten können sich durch das Fehlen von bestimmten fördernden Ausbreitungsmechanismen der kleinen Samen nicht über größere Distanzen ausbreiten. Sie treten dadurch auch oft nur lokal häufiger auf. Vorkommen. Die 70 bis 75 "Aquilegia"-Arten haben ihre Areale in den gemäßigten Gebieten der Nordhalbkugel (zirkumboreal): in Eurasien und Nordamerika. Dabei reicht das Gattungsareal nördlich in die boreale Zone und südlich bis in die Berge Nordmexikos und Nordafrikas. Verbreitungsschwerpunkt sind die zentralasiatischen Gebirge in Südsibirien mit etwa zehn Arten. Die Arten verteilen sich zu je ungefähr einem Drittel auf die Kontinente Nordamerika, Asien und Europa. Die "Aquilegia"-Arten besiedeln eine Vielzahl unterschiedlicher Habitate, von Oasen in Trockengebieten bis zu alpinen Grasländern, Felsheiden oder temperaten Wäldern, von der Meeresküste bis zu den Hängen des Himalaya, der Rocky Mountains oder der Alpen. Sie gedeihen von der Wüste ("Aquilegia skinneri" oder "Aquilegia chrysanta") bis ins Hochgebirge ("Aquilegia dinarica" oder "Aquilegia jonesii"). Bestimmte Arten besiedeln als Generalisten eine Vielzahl von Habitaten; so findet sich "Aquilegia vulgaris" sowohl in Fels-, Wald und Grasvegetation. Spezialisten sind dann oft an felsige oder Gebirgsstandorte angepasst, was bei den europäischen Akeleien insbesondere auf einige der seltenen endemischen Arten Südeuropas und der Alpen zutrifft (beispielsweise "Aquilegia alpina", "Aquilegia dinarica", "Aquilegia kitaibelii"). Europäische Artkomplexe und Chromosomensätze. In Mitteleuropa kommen sechs "Aquilegia"-Arten vor. Sie werden aufgrund morphologischer Eigenschaften in die Gruppen des Vulgaris-Komplexes sowie des Alpina-Komplexes eingeteilt. Zur taxonomischen Unterscheidung der europäischen Arten dienen insbesondere eine Kombination aus Blütenmerkmalen sowie von Blatt- und Stängelbehaarung. Die im südlichen Mitteleuropa untereinander schwierig zu trennende Gewöhnliche Akelei ("Aquilegia vulgaris") und Dunkle Akelei ("Aquilegia nigricans") können in der Regel nur über das Hervortreten der Staubblätter, die entweder aus den Petalen herausragen oder von diesen eingeschlossen werden sowie dem Vorkommen oder Fehlen drüsiger Behaarung am Stängel eindeutig unterschieden werden. Zudem ist die Blütenfarbe bei der Dunklen Akelei ein Purpur-violett, bei der Gewöhnlichen Akelei ein Blau-violett. In Südeuropa sind die Merkmalskomplexe jedoch auch über Merkmale der Blattsegmente eindeutiger: die Dunkle Akelei hat hier tief eingeschnittene Loben der Blattsegmente. Die zur Dunklen Akelei wahrscheinlich eng verwandte Angenehme Akelei ("Aquilegia grata") hat die kürzesten Petalen aller europäische Akeleien. Mit 6 mm ragen bei der Angenehmen Akelei auch die Staubblätter weit aus den Petalen heraus. Gleichfalls ist die Schwarzviolette Akelei ("Aquilegia atrata") mit den 5 mm aus den Petalen herausragenden Staubblättern und der sehr dunklen Blütenfarbe auffällig. Gut ansprechbar sind zudem die Alpen-Akelei ("Aquilegia alpina") mit den besonderes großen blauen Blüten sowie die Kleinblütige Akelei ("Aquilegia einseleana"), die bereits zum alpinen Komplex der Akeleien zählt. Da Akeleien generell hohe Ansprüche an die Wasserversorgung haben, werden sie in subtropischen Lagen Südeuropas durch spezielle Gebirgssippen vertreten. Es sind die auf der Balkanhalbinsel wachsende Dinarische Akelei ("Aquilegia dinarica"), "Aquilegia nikolicii", "Aquilegia ottonis" und die Kitaibel-Akelei ("Aquilegia kitaibelliana"), die in Kalkgebirgen oberhalb der Baumgrenze an feuchten Quellnischen oder an abschattigen Felsvorsprüngen wachsen. Sie bleiben aber in den Trockenklimaten rar und meist sehr örtlich vorkommend. Bis heute ist es nicht möglich, die über zwanzig europäischen Akeleien über genetische Sequenzen zu unterscheiden, zu den amerikanischen sowie den asiatischen Sippen wurden aber genetische Diskriminanten gefunden. Durch die enge Verwandtschaft aller "Aquilegia"-Arten blieben bei infraspezifischen Kreuzungen selbst die geographisch entferntesten Arten immer fertil. Damit besitzt die Gattung auch keine polyploiden Vertreter. Das heißt, alle "Aquilegia"-Arten und selbst infraspezifische Hybriden bleiben in ihrem Chromosomensatz immer diploid. Aufgrund dieser als „religiös“ beschriebenen Diploidie wurden auch alle "Aquilegia"-Taxa in Bezug zu einer Arten-Herde (engl. „Species Flock“) gesetzt. Es wurden beispielsweise 2n = meist 14, seltener 16, 18 oder 20 gefunden. Systematik und Verbreitung. Die Gattung "Aquilegia" wurde 1753 durch Carl von Linné in "Species Plantarum", Tomus I, S. 533 aufgestellt. Der wissenschaftliche Gattungsname "Aquilegia" setzt sich aus zwei lateinischen Wortelementen zusammen: "aqua" für Wasser und "legere" für sammeln, also Wassersammler(in) und bezieht sich auf den in den Spornen angesammelten Nektar, mit dem bestäubende Insekten angelockt werden. Die Gattung "Aquilegia" gehört zur Subtribus Isopyrinae aus der Tribus Isopyreae in der Unterfamilie Isopyroideae innerhalb der Familie Ranunculaceae. In der Gattung "Aquilegia" gibt es etwa 70 bis 75 Arten: Trivialnamen. Die Herleitung des deutschen Trivialnamens Akelei ist unklar. Aber vermutlich ist der deutsche Volksname Akelei aus dem lateinischen "aquilegia" (womit im Allgemeinen "Aquilegia vulgaris" , die Gemeine Akelei, gemeint war) entlehnt. In den althochdeutschen Glossen sind Formen wie agaleia oder ageleia (seit dem 10 Jh.) anzutreffen. Bei Hildegard von Bingen heißt die Pflanze acoleia, ackeleia, agleia, im Mittelniederdeutschen akuleye. In der Volkssprache ist das Wort vielfach umgewandelt worden, z. B. in Akelchen (Thüringen), Aggerlei, Aggerleine (Pfalz), Aglije (Luzern, Zürich), Hagleie (Schaffhausen), Hakeleden, Hakelehnen (Mecklenburg), Gakeilei (angelehnt an Gaggel 'Ei' in der Kindersprache (Niederhessen, rheinisch)) oder Klei(e) (Niederrheinisch). Viele Volksnamen nehmen Bezug auf die Form der nickenden Blüten, so Glocken, Glöckerl, Glöckchen, Blaue Glocken (verbreitet), Zigeunerglocken (Gailtal/Kärnten), Teufelglocken (Lenggries/Oberbayern), Kaiserglocken (Riesengebirge), Zuckerglocken (Thurgau), Glockenblume (weit verbreitet), Glockenstück (Schwäbische Alb) oder Glockenrosa (Anhalt). Andere die Blütenform betreffende Volksnamen sind Pausewängel (Sächs, Felsengebirge), Stellhäfele (eigentlich ein irdenes Kochgefäß mit Füßen) (Aachern/Baden), Kessel (Mittenwald/Oberbayern), Stanitzelblume (bayerische Stanizl 'Papiertüte') (Knittelfeld/Steiermark), Manselblume (schweiz. Manse 'Rockärmel mit Spitzen') (Aargau), Narrenkappen (z. B. Lörrach/Baden, Kt. St. Gallen), Kapuzinerchappe(n), - Hüetli (Kt. St. Gallen), Pfaffenkäpple (Achkarren/Baden), Plumphose (Kt. Schaffhausen), Schlotterhose (St. Gallen), Schwizerhose (Aargau), Hose(n)lätzli (Aargau), Frae(n)schüehli (Küsnacht/Schwyz), Fünf Vögerl zsam (Oststeiermark), Tauberln (Südmähren) oder Gugerschen (Schönhengstgau, Sudetenland). Bezüge auf die dunkle Blütenfarbe findet man in den Namen Tintenglocke (Thüringer Wald, Thurgau) und Truarbliemli (Trauerblümlein da auch auf ländlichen Friedhöfen gepflanzt) (Grindelwald/Bern). Außerdem wird die Akelei noch Kaiserblume (Albendorf/Riesengebirge), Hernblume (Eifel), Zaniggele, Zinäggele oder Süniggele (angelehnt an 'Sanikel') (Schaffhausen) genannt. Elfenschuh, Zigeunerglocken, Teufelsglocken, Kaiserglocken und Narrenkappen sind ebenfalls Volksnamen der Akelei. Einen weiteren Namen, "Agelblume", verwendete die adelige Schwesternschaft von der Agelblume in Königsberg in Bayern, die bis zur Reformation bestand und in Königsberg ansässig war. Dabei stand die Akelei für die Bescheidenheit, an die sie die Schwestern von der Agelblume erinnern sollte. Symbolik und kulturelle Bedeutung. Die Akelei ist wahrscheinlich seit dem späten Mittelalter eine Zierpflanze europäischer Gärten. Die Gemeine Akelei wurde im Mittelalter und der frühen Neuzeit in vielfältiger Form in der Medizin verwendet. Aufgrund der ihr zugeschriebenen Symbolik ist sie außerdem auf zahlreichen mittelalterlichen Tafelgemälden zu finden. Die Akelei war im Altertum der Fruchtbarkeitsgöttin Freya geweiht, später wurde sie dann der Jungfrau Maria zugeordnet. Seit dem Mittelalter wurden die Samen als Aphrodisiakum verwendet. Es hieß sogar, dass die aphrodisischen Kräfte der Akeleisamen schon bei bloßer Berührung übertragen werden konnten. Rätsch schrieb, dass wenn man die Samen zu einem feinen Pulver zerrieb, mit dem man sich die Handflächen bestrich und dann damit eine Frau berührte, war diese sofort sexuell erregt. In der Symbolik steht die Akelei einerseits für Demut ein, und sie symbolisiert den Heiligen Geist, Lebenskraft, Überwindung irdischer Begrenzung, umfassendes Heil, Triumph, Erlösung, Dreieinigkeit und den Lobpreis Gottes. Andererseits steht sie für die Sexualkraft des Mannes, für Verführung und Liebe. Sie wurde und wird immer noch als Grabpflanze eingesetzt. Nutzung. Sorten einiger "Aquilegia"-Arten (beispielsweise "Aquilegia alpina", "Aquilegia atrata", "Aquilegia caerulea", "Aquilegia canadensis", "Aquilegia chrysantha", "Aquilegia elegantula", "Aquilegia flabellata", "Aquilegia formosa", "Aquilegia longissima", "Aquilegia saximontana", "Aquilegia skinneri", "Aquilegia viridiflora" und "Aquilegia vulgaris") und Hybriden (beispielsweise McKana-Hybriden) werden als Zierpflanzen verwendet. Sie werden je nach Art und Sorte sehr unterschiedlich als Beetpflanze, im Steingarten oder als Schnittblume genutzt.