id
stringlengths
1
7
url
stringlengths
31
285
title
stringlengths
1
185
text
stringlengths
2
554k
331
https://de.wikipedia.org/wiki/Amnesty%20International
Amnesty International
Amnesty International (von , Begnadigung, Straferlass, Amnestie) ist eine nichtstaatliche (NGO) und Non-Profit-Organisation, die sich weltweit für Menschenrechte einsetzt. Grundlage ihrer Arbeit sind die Allgemeine Erklärung der Menschenrechte und andere Menschenrechtsdokumente, wie beispielsweise der Internationale Pakt über bürgerliche und politische Rechte und der Internationale Pakt über wirtschaftliche, soziale und kulturelle Rechte. Die Organisation recherchiert Menschenrechtsverletzungen, betreibt Öffentlichkeits- und Lobbyarbeit und organisiert unter anderem Brief- und Unterschriftenaktionen für alle Bereiche ihrer Tätigkeit. Gründungsgeschichte Amnesty International wurde 1961 in London von dem englischen Rechtsanwalt Peter Benenson gegründet. Ihm soll die Idee zur Gründung gekommen sein, als er in der Zeitung zum wiederholten Mal von Folterungen und gewaltsamer Unterdrückung las, mit der Regierungen gegen politisch andersdenkende Menschen vorgingen. In einem 1983 geführten Interview erinnerte sich Benenson, dass der Artikel von zwei portugiesischen Studenten gehandelt habe, die in einem Café in Lissabon auf die Freiheit angestoßen hatten und daraufhin zu siebenjährigen Haftstrafen verurteilt worden waren. Nachträgliche Recherchen ergaben, dass es sich möglicherweise um eine Notiz in The Times vom 19. Dezember 1960 handelte, die allerdings keine Details über die „subversiven Aktivitäten“ der Verurteilten enthielt. Am 28. Mai 1961 veröffentlichte Benenson in der britischen Zeitung The Observer den Artikel The Forgotten Prisoners („Die vergessenen Gefangenen“), in dem er mehrere Fälle nennt, darunter Constantin Noica, Agostinho Neto und József Mindszenty, und die Leser aufrief, sich durch Briefe an die jeweiligen Regierungen für die Freilassung dieser Gefangenen einzusetzen. Er schrieb: „Sie können Ihre Zeitung an jedem beliebigen Tag der Woche aufschlagen und Sie werden in ihr einen Bericht über jemanden finden, der irgendwo in der Welt gefangen genommen, gefoltert oder hingerichtet wird, weil seine Ansichten oder seine Religion seiner Regierung nicht gefallen.“ Die aus diesem Artikel entstandene Aktion Appeal for Amnesty, 1961 gilt als der Anfang von Amnesty International. Zu den Gründungsmitgliedern gehörten Eric Baker und der irische Politiker Seán MacBride, der von 1961 bis 1974 auch Präsident der Organisation war. Auf einem internationalen Treffen in Brügge im September 1962 legte man sich endgültig auf den Namen Amnesty International fest. Von 1974 bis 1979 war der aus Meiningen stammende und in Neuseeland und Großbritannien aufgewachsene und ausgebildete anglikanische Priester und Friedensaktivist Paul Oestreicher, dessen Familie der Nazi-Verfolgung 1938 entkam, Präsident der Organisation. Obwohl sich Amnesty International als Organisation beschreibt, die für Menschen aller Nationalitäten und Religionen offensteht, kamen die Mitglieder anfangs vor allem aus der englischsprachigen Welt und Westeuropa. Diese Beschränkung ließ sich mit dem Kalten Krieg erklären. Versuche, Amnesty-Gruppen in Osteuropa zu gründen, stießen auf große Schwierigkeiten. Das lag nicht nur an der staatlichen Repression, sondern auch an unterschiedlichen Interessen, die westliche und osteuropäische Menschenrechtsaktivisten verfolgten. Das Logo ist eine mit Stacheldraht umwickelte Kerze. Es wurde von der englischen Künstlerin Diana Redhouse geschaffen, die sich durch das Sprichwort Es ist besser, eine Kerze anzuzünden, als sich über die Dunkelheit zu beklagen inspirieren ließ. Die deutsche Sektion hatte bereits in den 1970er Jahren beschlossen, dieses Logo für sich nicht mehr zu verwenden. Stattdessen wurde bis 2008 ein blau-weißes Logo mit Kleinbuchstaben genutzt. In Deutschland, Österreich und der Schweiz wurde bis Mitte 2008 eine heute nicht mehr verwendete Schreibweise mit Kleinbuchstaben und Abkürzungen verwendet: amnesty international, ai oder amnesty. Mitte 2008 wurde international ein neues, einheitliches Layout eingeführt, das die Farben Gelb und Schwarz verwendet. Das Logo enthält den Schriftzug Amnesty International in Großbuchstaben und die mit Stacheldraht umwickelte Kerze. Gründung in Deutschland Die bundesdeutsche Sektion wurde am 28. Juli 1961, zwei Monate nach Gründung der internationalen Organisation, von den Journalisten Gerd Ruge, Carola Stern und Felix Rexhausen und elf weiteren Menschen in Köln gegründet und als erste Sektion anerkannt. Gerd Ruge wurde zum 1. Vorsitzenden, Carola Stern zu seiner Stellvertreterin und Felix Rexhausen zum geschäftsführenden Vorstandsmitglied und Kassenwart gewählt. Das deutsche AI-Büro residierte über Jahrzehnte in der Domstraße im Kölner Agnesviertel, wo Stern damals wohnte. Zunächst nannte sich die Gruppe „Amnestie-Appell e. V.“. Sie setzte sich zum Beispiel für in der DDR inhaftierte politische Gefangene ein. Nach dem Fall der Mauer wurde die Organisation auch in den neuen Bundesländern aktiv, wo sie bis dahin verboten war. Stand 2020 hat sie ihren Sitz in Berlin. Seit dem Jahr 2016 ist Markus N. Beeko Generalsekretär von Amnesty International in Deutschland (Stand 2020). Gründung in Österreich Amnesty International Österreich wurde am 4. Mai 1970 gegründet. AI Österreich gehörte am 14. November 2001 zu den ersten 44 Organisationen, die das Österreichische Spendengütesiegel verliehen bekamen. Generalsekretär ist Heinz Patzelt (Stand Januar 2016). Gründung in der Schweiz Offiziell gegründet wurde die Schweizer Sektion 1970. Doch schon 1964 gab es die erste Sektion in Genf, deren Initiator Seán MacBride war, damaliger Generalsekretär und Mitbegründer von Amnesty International. Der erste Mitarbeiter wurde 1976 eingestellt, heute arbeiten 70 Angestellte für Amnesty Schweiz. Zusätzlich engagieren sich 1500 Freiwillige aktiv in mehr als siebzig Lokal- und Themengruppen. Derzeitige Geschäftsleiterin ist Alexandra Karle. Aufbau der Organisation International Zahlen und andere Daten zur Organisation Amnesty International zählt nach eigenen Angaben mehr als zehn Millionen Mitglieder und Unterstützer. In über 70 Staaten gibt es Sektionen, die eine kontinuierliche Menschenrechtsarbeit garantieren. Die größeren Sektionen unterhalten in der Regel ein Sekretariat mit hauptamtlichen Mitarbeitern. Die Sektion koordiniert die Arbeit der Mitglieder und ist die Verbindungsstelle zwischen den Gruppen und dem Internationalen Sekretariat in London. Die Sektionen entsenden Vertreter in die Global Assembly (bis 2017 Internationale Ratstagung bzw. International Council Meeting (ICM)), das oberste Gremium von Amnesty auf internationaler Ebene, das alle zwei Jahre zusammentritt. Die Global Assembly legt Strategie und Arbeitsweise von Amnesty fest und wählt den internationalen Vorstand, dem die Führung der laufenden Geschäfte der Organisation obliegt. Unter der Verantwortung des Internationalen Vorstandes steht auch das Internationale Sekretariat in London, an dessen Spitze der Internationale Generalsekretär steht. Von 2010 bis August 2018 war dies Salil Shetty, der aus Indien stammt. Er initiierte eine Veränderung der Organisation, indem die Präsenz in Ländern des globalen Südens durch Einrichtung von Büros und dort verankerte Recherchearbeit verstärkt wurde, während das Hauptquartier in London verkleinert wurde. Sein Nachfolger in den Jahren 2018 und 2019 war Kumi Naidoo aus Südafrika, vormaliger Direktor von Greenpeace. Generalsekretäre Deutsche Sektion Mitgliedschaft und Strukturen sind in der Satzung und einem Arbeitsrahmen geregelt. Mitglieder können sich einer Gruppe anschließen. Von Gruppen wird aktiver Einsatz durch gezielte Aktionen vor Ort, Briefeschreiben, Öffentlichkeitsarbeit und Spendeneinwerbung erwartet. Alle Mitglieder erhalten auch unabhängig von Gruppenaktivitäten Mitmachangebote. In Deutschland gibt es rund 30.000 Mitglieder, davon ca. 9000 in über 600 lokalen Gruppen, die in 43 Bezirke aufgeteilt sind. Daneben gibt es sogenannte Koordinationsgruppen, die die Arbeit zu einzelnen Ländern oder bestimmten Menschenrechtsthemen sektionsweit koordinieren. Etwa 70.000 Förderer unterstützen die Organisation durch regelmäßige Beiträge. Geleitet und nach außen vertreten wird die deutsche Sektion durch einen ehrenamtlichen Vorstand, der 2021 aus acht Mitgliedern besteht. Vorstandssprecher ist Wassily Nemitz. Laut Satzung wird der Verein „…durch zwei Mitglieder des geschäftsführenden Vorstands gemeinsam vertreten.“ 1999 bezog Amnesty International Deutschland Räume im „Haus der Demokratie und Menschenrechte“ in der Greifswalder Straße in Berlin. 2012 gab das Sekretariat seinen Sitz in Bonn endgültig auf. Aus Platzgründen sind aber nur noch das Büro des Bezirks Berlin-Brandenburg sowie das Regionalbüro Ost im „Haus der Demokratie und Menschenrechte“ ansässig, das Sekretariat der Sektion befindet sich nun in der Zinnowitzer Straße. Darüber hinaus gibt es Regionalbüros in München (seit 2011) und in Düsseldorf (seit 2016), welche die Mitglieder im Süden bzw. Westen Deutschlands unterstützen. Das Sekretariat erledigt administrative Aufgaben für die Mitglieder, macht Öffentlichkeitsarbeit und übernimmt Lobbyismusarbeit. Es beschäftigt über 60 Teil- und Vollzeitkräfte und wird von Markus N. Beeko als Generalsekretär geleitet, der zum September 2016 Selmin Çalışkan abgelöst hat. Einmal jährlich findet über zweieinhalb Tage zu Pfingsten die Jahresversammlung der deutschen Sektion statt. Alle Mitglieder sind antrags- und stimmberechtigt, Gruppen haben zusätzliches Stimmrecht. Förderer haben kein Stimmrecht und können nicht teilnehmen. Die Jahresversammlung wählt den siebenköpfigen, ehrenamtlichen Vorstand und beschließt Schwerpunkte der inhaltlichen Arbeit der Sektion. Die Diskussionen sind vertraulich („intern“), nur auf Beschluss der Jahresversammlung können einzelne Beschlüsse öffentlich gemacht werden. Die deutsche Sektion finanziert sich überwiegend aus Mitglieds- und Fördererbeiträgen und Spenden, zu einem geringeren Teil aus Erbschaften, Verkaufserlösen, Geldbußen und Sammlungen. Seit etwa 2010 führt die Organisation „Direktdialoge“ in Städten durch, um Förderer zu gewinnen; teils werden Fremdfirmen dafür engagiert. Im Jahr 2016 wurden ca. 20,3 Millionen Euro eingenommen. Davon wurden etwa 5,9 Millionen Euro an das internationale Sekretariat abgeführt. Zur Unterstützung der Arbeit von Amnesty International wurde im Mai 2003 die Stiftung Menschenrechte – Förderstiftung Amnesty International mit Sitz in Berlin gegründet. Jährlich erscheint der Amnesty International Annual Report, der die Menschenrechtslage in ca. 160 Ländern und Territorien beschreibt. Die deutsche Version erscheint jeweils einige Monate später im S. Fischer Verlag. Ziele und Arbeitsweise Die Organisation recherchiert fortlaufend zur Menschenrechtssituation weltweit und führt Aktionen gegen spezifische Menschenrechtsverletzungen durch. Der Jahresbericht der Organisation (Amnesty International Report) enthält einen Überblick über die Lage der Menschenrechte in fast allen Ländern der Erde. Die Organisation hat sich sieben Ziele unter dem Motto Gerechtigkeit globalisieren! gesetzt: Aufbau von gegenseitigem Respekt und Kampf gegen Diskriminierung Forderung nach Gerechtigkeit Sicherstellung der körperlichen und geistigen Unversehrtheit aller Menschen Schutz der Menschenrechte in bewaffneten Konflikten Schutz der Rechte von Flüchtlingen, Asylsuchenden, Binnenflüchtlingen und Migranten Schutz der Rechte von Frauen und Mädchen Förderung der wirtschaftlichen, sozialen und kulturellen Rechte Von 2005 bis 2009 lief die internationale Kampagne „Gewalt gegen Frauen verhindern“, die sich gegen die vielfältigen Formen von Gewalt gegen Frauen, sowohl staatlicherseits als auch im häuslichen Umfeld, wandte. Nach einer schwierigen und kontroversen internen Diskussion beschloss die internationale Ratstagung der Organisation 2007 in Morelos, Mexiko, eine begrenzte Position zum Schwangerschaftsabbruch. So soll die völlige Entkriminalisierung gefordert werden sowie Staaten aufgefordert werden, Abtreibung im Falle von Vergewaltigung, sexueller Nötigung, Inzest und bei schwerwiegender Gefahr für das Leben einer Frau zu legalisieren. Die Organisation bekräftigt, dass viele gesellschaftliche Faktoren und Zwänge zu ungewollten Schwangerschaften beitragen und damit auch zu der – weltweit jährlich in ca. 26 Millionen Fällen illegalen – Entscheidung der Frauen. Im Mai 2016 nahm die Organisation, inklusiver aller ihrer Landesverbände, die Forderung auf, Prostitution zu legalisieren. Man setze sich für die Menschenrechte der Sexarbeiter ein, nicht für ein Recht auf käuflichen Sex. Der Entscheidung waren drei Jahre Sichtung von Forschungsberichten verschiedener Institutionen wie der WHO, UNAIDS und dem UN-Sonderberichterstatter für das Recht auf physische und mentale Gesundheit und ein Beschluss des Entscheidungsgremiums International Council Meeting vorausgegangen. Zu den typischen Aktionsformen der Organisation zählen: Fallarbeit: Diese wird seit Gründung der Organisation betrieben und beinhaltet die langfristige Betreuung eines gewaltlosen politischen Gefangenen (prisoner of conscience) durch eine oder mehrere Amnesty-Gruppen, im Idealfall bis zu dessen Freilassung. Ein Grundsatz dabei war, dass Amnesty-Gruppen nicht zu Vorgängen im eigenen Land arbeiten. Urgent Actions (Eilaktionen): Diese wurden 1973 eingeführt, um auf drohende Menschenrechtsverletzungen schnell reagieren zu können. Dabei werden möglichst innerhalb von 48 Stunden Mitglieder und Unterstützer mobilisiert, um bei den verantwortlichen staatlichen Stellen zu appellieren. Im Jahr 2005 gab es 326 dieser Aktionen. Briefe gegen das Vergessen: Pro Monat werden drei Fälle aus verschiedenen Ländern vorgestellt, dabei geht es oft um Fälle des gewaltsamen staatlichen Verschwindenlassens von Menschen, Langzeitinhaftierungen oder Verurteilungen aufgrund unfairer Gerichtsverfahren. Öffentlichkeits- und Lobbyarbeit: Vielfältige Aktionen der Gruppen und die Arbeit des nationalen Sekretariats zielen darauf ab, das Bewusstsein für Menschenrechtsverletzungen in der Öffentlichkeit zu schärfen und Menschenrechtsverletzungen bekannt zu machen und so Unterstützung für die Anliegen zu gewinnen. Auf die Arbeit von Amnesty macht die jährlich vergebene Auszeichnung Botschafter des Gewissens aufmerksam. Menschenrechtsbildung: Aktionen in Schulen, öffentliche Vorträge etc. zur Verankerung von Wissen über die Menschenrechte. Online-Kampagnen: Mit e-collecting-Aktionen und Online-Petitionen nutzt Amnesty verstärkt das Internet als Protestmedium für ihre Kampagnenarbeit. Aktionen und Kampagnen Die Organisation führt immer wieder große und kleine, internationale Themenkampagnen durch, die teilweise über mehrere Jahre angelegt sind. Internationale größere Schwerpunkte sind derzeit (2018/19): Mut braucht Schutz! 70 Jahre Allgemeine Erklärung der Menschenrechte Bis 2013, zum Abschluss des Vertrags über den Waffenhandel am 2. April 2013 war Amnesty an der Kampagne Control Arms beteiligt. 1988 gab es eine internationale Amnesty-Konzerttour unter dem Titel Human Rights Now!. Am 10. Dezember 2005 – dem Internationalen Tag der Menschenrechte – wurde ein neues Musikprojekt unter dem Titel Make Some Noise gestartet. Dabei veröffentlichten bekannte internationale Künstler, darunter The Black Eyed Peas, Serj Tankian und The Cure, Coverversionen von John-Lennon-Songs exklusiv auf der Website von Amnesty. Parallel zur Musik werden dort konkrete Kampagnen und Fälle vorgestellt. Botschafter des Gewissens Seit 2003 verleiht Amnesty International den undotierten Preis Botschafter des Gewissens (). Vaclav Havel war der erste Preisträger, 2019 ging der Preis an Greta Thunberg und Fridays for Future. Menschenrechtspreis Die deutsche Sektion vergibt seit 1998 alle zwei Jahre den Amnesty International Menschenrechtspreis. 2016 wurde der Preis an den indischen Rechtsanwalt Henri Tiphagne vergeben. 2018 wurde der Preis an das Nadeem-Zentrum für die Rehabilitierung von Opfern von Gewalt und Folter in Kairo verliehen. Kritik Kritik am strategischen Vorgehen Regierungen und nahestehende Kommentatoren, die von Amnesty International in ihren Berichten kritisch beurteilt werden, haben verschiedentlich Kritik an Amnesty geübt. So wurde Amnesty z. B. aus China, Russland und dem Kongo Einseitigkeit gegen nicht-westliche Länder bei seinen Beurteilungen vorgeworfen sowie, dass die Sicherheitsbedürfnisse (z. B. bei der Bekämpfung von Rebellen) nicht genügend beachtet würden. Umgekehrt wurde Amnesty z. B. nach der Kritik an der israelischen Politik im Gazastreifen vom American Jewish Congress angegriffen. Als im Mai 2005 ein Amnesty-Bericht den USA eine Spitzenstellung bei Menschenrechtsverletzungen zuwies (siehe hierzu: Gefangenenlager der Guantanamo Bay Naval Base), bezeichnete ein Pressesprecher des Weißen Hauses dies als lächerlich und behauptete, die Angaben entsprächen nicht den Tatsachen. Neben Vorwürfen der Einseitigkeit gab es kritische Stimmen, die bemängelten, Amnesty sei zu sehr auf Öffentlichkeitsarbeit ausgerichtet. Im Jahr 2002 warf der Jura-Professor Francis Boyle (ehemaliges AI-Exekutivkomiteemitglied in den USA) Amnesty vor, an erster Stelle stünde die öffentliche Aufmerksamkeit (publicity), dann würden Spendengelder und Mitglieder angeworben, es fänden interne Machtkämpfe statt, und die Menschenrechte als Ziel kämen erst am Schluss. Auf der internationalen Ratstagung in Dakar im August 2001 wurde eine Ausweitung des Mandats auf den Einsatz auch für wirtschaftliche, soziale und kulturelle Rechte beschlossen. Danach äußerten einige Mitglieder, AI verliere an Profil und dehne sein Betätigungsfeld zu sehr aus. AI könne zu einem „Menschenrechts-Gemischtwarenladen“ mutieren und an Glaubwürdigkeit verlieren. AI solle sich weiterhin auf bürgerliche und politische Rechte konzentrieren. Diese Bedenken wurden im Jahre 2010 in einem BBC-Beitrag zum 50. Geburtstag der Organisation aufgegriffen. Darin wurde behauptet, Amnesty International habe es bis dato nicht geschafft, eine nennenswerte Anzahl von Mitgliedern außerhalb von Europa, den Vereinigten Staaten, Kanada, Australien und Neuseeland zu gewinnen. Kritik an einzelnen Punkten Amnesty International fiel vor dem Zweiten Golfkrieg (1990–1991) auf die Brutkastenlüge herein – die von einer US-amerikanischen PR-Firma fabrizierte Geschichte, irakische Truppen hätten Babys aus Brutkästen eines kuwaitischen Krankenhauses gerissen. Amnesty wurde 2002 vorgeworfen, das Apartheid-System in Südafrika nie als Ganzes verurteilt zu haben. Im April 2007 machte AI bekannt, von nun an für eine Entkriminalisierung des Schwangerschaftsabbruches in gewissen Grenzen sowie für ein Recht auf einen Schwangerschaftsabbruch im Falle von Vergewaltigung, Inzest oder schwerwiegender Gefahr für Gesundheit oder Leben der Mutter einzutreten. Der Kurienkardinal der römisch-katholischen Kirche, Renato Raffaele Martino, äußerte in einem Interview, Katholiken und kirchliche Organisationen sollten überlegen, ob sie AI weiter unterstützen könnten. Amnesty International erwiderte darauf, sich nicht für ein universelles Recht auf Abtreibung einzusetzen, sondern für die Entkriminalisierung von Frauen in einer Notlage. In der Umsetzung dieser Politik bezeichnete AI im Jahre 2009 ein völliges Verbot des Schwangerschaftsabbruchs als Folter im Sinne der Anti-Folterkonvention. 2018 beschloss Amnesty, dass Schwangerschaftsabbruch nicht nur entkriminalisiert sein müsse, sondern dass der Zugang zur Abtreibung legal sein müsse für Frauen, Mädchen und „Personen, die schwanger werden können“. In diesem Kontext lobbyierte Amnesty auch gegen ein Recht auf Leben vor der Geburt, indem sie ein entsprechendes Schreiben an den UN-Menschenrechtsausschuss schickten und darin argumentierten, dass ein Recht auf Leben vor der Geburt nicht menschenrechtskompatibel sei. („Amnesty International recommends that the General Comment makes clear that the right to life protection under the Covenant extends only after birth.“) Seit 2020 fordert Amnesty International den ungehinderten Zugang zu und das Recht auf legale Abtreibung für jede schwangere Person, die dies wünscht, unabhängig von den Gründen und bis zur Geburt. Weder geschlechtsselektive Abtreibungen seien zu verbieten, noch dürfe medizinisches Personal aus Gewissensgründen die Durchführung von Abtreibungen verweigern. Seit 2010 werfen zahlreiche Kritiker Amnesty International eine unkritische Haltung gegenüber dem politischen Islam vor. Als die damalige Abteilungsleiterin für Frauenrechte, Gita Sahgal, 2010 kritisierte, dass Amnesty mit Islamisten öffentlich auftrat, ohne sich klar von deren Ideologie zu distanzieren, wurde sie in der Folge entlassen. Eine ähnlich schwere Kontroverse, allerdings ohne Entlassungen, löste im Sommer 2019 ein englischsprachiges Video der Organisation aus, das die These vertrat, Hidschābs, Burkas und Kopftücher seien ausschließlich eine Frage der Wahlfreiheit der betreffenden Individuen. 2014 führte Amnesty International eine interne Konsultation dazu durch, ob die Prostitution und ihr Umfeld entkriminalisiert werden sollen. Die internen Dokumente gerieten an die Öffentlichkeit und lösten international eine heftige Debatte aus. In Deutschland kritisierte u. a. die feministische Zeitschrift Emma die Überlegungen, auch Bordelle und die Arbeitgeber von Prostitution zu entkriminalisieren. Ein entsprechendes Dokument, das auf dem Treffen des Internationalen Rates der Menschenrechtsorganisation vom 7. bis 11. August 2015 in Dublin beschlossen wurde, erregte erneut internationales Aufsehen. Kritik an der Amnesty-Position zur Prostitution kommt u. a. aus katholischen und feministischen Kreisen, sowie von ehemaligen Prostituierten, wobei in diesem Zusammenhang auch die Bezeichnung „Menschenrechtsorganisation“ in Frage gestellt wird. Anfang 2017 kritisierte Amnesty International die operativen Maßnahmen der Kölner Polizei zur Silvesternacht 2016/17 als rassistisch („Racial Profiling“), während die Polizei und die meisten Politiker solchen Vorwürfen widersprachen und die Verhinderung einer Wiederholung von gruppenweisen sexuellen Übergriffen wie Silvester 2015/16 lobten. Im Mai 2019 gestand der Generalsekretär von Amnesty International, Kumi Naidoo, ein Loch im Budget der Organisation von bis zu 17 Millionen Pfund an fehlenden Spendergeldern bis Ende 2020 ein. Zur Bewältigung der Haushaltskrise kündigte Naidoo den Mitarbeitern an, dass der Hauptsitz der Organisation im Rahmen einer dringenden Umstrukturierung fast 100 Stellen gestrichen hätte. Unite the Union, die größte Gewerkschaft Großbritanniens, erklärte, die Entlassungen seien eine direkte Folge „überhöhter Ausgaben der Führungsmannschaft der Organisation“ und seien „trotz eines Einkommensanstiegs“ erfolgt. Unite, die die Belegschaft vertritt, befürchtete, dass die Kürzungen am stärksten bei Mitarbeitern mit niedrigerem Einkommen vorgenommen würden. Darin hieß es, dass die 23 Spitzenverdiener von Amnesty International im vergangenen Jahr insgesamt 2,6 Millionen Pfund erhielten – im Durchschnitt somit 113.000 Pfund pro Jahr. Unite forderte eine Überprüfung, ob es notwendig ist, so viele Führungskräfte in der Organisation zu haben. Kurze Zeit später entließ die Organisation fünf der sieben Mitglieder der Generaldirektion in London. Damit reagierte die Menschenrechtsorganisation nach eigenen Angaben auf einen Bericht über „toxische“ Arbeitsbedingungen. Der Bericht über die Arbeitsbedingungen wurde nach Häufung von Suiziden von Mitarbeitern in Genf und Paris im Jahr 2018 in Auftrag gegeben. Bei der Veröffentlichung im Januar attestierten externe Gutachter dem Unternehmen schließlich „Schwachstellen in der Organisationskultur und dem Management“. Mitarbeiter hätten über starken Druck und Stress geklagt und die Arbeitsbedingungen oft als „toxisch“ beschrieben. Daraufhin hatte Generalsekretär Naidoo Konsequenzen angekündigt. Im Februar 2022 veröffentlichte Amnesty International einen Bericht, der zu dem Schluss kommt, dass Israel „das internationale Unrecht der Apartheid begangen habe.“ Diese Einschätzung stieß auf scharfen Protest. Israels Außenministerium wies die Kritik des Amnesty-Berichts zurück. „Der Bericht verfestigt und wiederholt Lügen, Ungereimtheiten und unbegründete Behauptungen, die von wohlbekannten, antiisraelischen Hassorganisationen stammen.“ Es gebe keine Vorwürfe dieser Art gegen Syrien, den Iran oder korrupte und mörderische Führungen in Afrika oder Lateinamerika. Der Präsident des Zentralrates der Juden in Deutschland, Josef Schuster, bezeichnete die Veröffentlichung eines solchen Berichtes als fahrlässig, „weil er den ohnehin verbreiteten israelbezogenen Antisemitismus in Europa weiter schüren wird“. Kritik kam auch von der Grünen-Politikerin Marlene Schönberger, der Bericht von Amnesty stelle wieder einmal unter Beweis: „Der Apartheidsvorwurf gegen Israel dekontextualisiert historische Tatsachen. Er dient dazu, den jüdischen Staat zu dämonisieren.“ Nachdem auch die deutsche Sektion von Amnesty International den Apartheid-Vergleich übernommen hatte, stieß das auf breite Kritik. Michael Wolffsohn merkte dazu an: „Gäbe es in Israel Apartheid, wären Araber heute nicht bei Koalitionsbildungen Zünglein an der Waage, an der Regierung und als Richter am Obersten Gericht beteiligt.“ Die von Amnesty International vertretene Position wurde in einem Leitartikel des Guardian verteidigt. Mehrere andere Menschenrechtsorganisationen waren in den letzten Jahren zu ähnlichen Ergebnissen gekommen und auch im innerisraelischen Diskurs war der mögliche Vorwurf der Apartheid schon von einigen Politikern erhoben worden. Der Psychologe und Islamismus-Experte Ahmad Mansour kritisierte den AI-Bericht und bezeichnete die Realität in Israel, Gaza und im Westjordanland als „viel komplexer, als die Verfasser dieses Berichts sich offenbar vorstellen können“. Anfang August 2022 publizierte Amnesty einen Bericht über den russischen Überfall auf die Ukraine 2022, der zu dem Schluss kommt, eine „Taktik“ ukrainischer Militäreinheiten in der Umgebung von Zivilisten „verletzt humanitäres Völkerrecht und gefährdet Zivilisten, da sie zivile Objekte in militärische Ziele verwandelt“, solches sei Amnesty in 19 Orten so geschildert worden, die meist „kilometerweit von der Front entfernt“ und zu denen „brauchbare Alternativen verfügbar [waren], die nicht das Leben von Zivilisten gefährden würden“. Ähnliches hatten bereits das Büro des Hohen Kommissars der Vereinten Nationen für Menschenrechte Ende Juni (für beide beteiligten Seiten) und die Washington Post Ende März (ohne das Vorliegen von Kriegsverbrechen als gesichert zu beschreiben) berichtet. Der Bericht wurde von der russischen Propaganda dankbar als Instrument aufgenommen, obschon ausgerechnet die Webseite von Amnesty in Russland gesperrt ist. Die Leiterin des ukrainischen Büros von Amnesty trat sofort zurück und erklärte, dass die Ukrainer „an der Erstellung dieses Berichts nicht beteiligt waren, dass Personen daran beteiligt waren, die das ukrainische Büro nicht kennt“, und dass die Bürokratie von Amnesty „keinen einzigen Einwand des ukrainischen Büros“ berücksichtigt habe. Die russische Investigativjournalistin Julija Latynina kritisierte den Bericht aufs Schärfste und nannte ihn Desinformation bis hin zur Lüge. Der Bericht schreibe suggestiv ein „Muster“ herbei, dies bei einer nicht repräsentativen Stichprobe. Hätte ein Journalist einen solchen verallgemeinernden Text abgeliefert, würde er gefeuert. Es genüge, die russischen Verlautbarungen zu lesen; nicht einmal Alexander Chodakowski beispielsweise behaupte, die Städte würden ausradiert, weil es dort ukrainische Truppen gab; genau das aber suggeriere der induktive Bericht von Amnesty. Der Versuch der Rechtfertigung durch die Generalsekretärin Agnès Callamard sei eine weitere Desinformation. Jene sagte: „Ukrainische und russische Medienmassen und Trolle: Sie alle greifen jetzt die Amnesty-Ermittlungen an. Das nennt man militärische Propaganda und Desinformation“ – obschon die russische Seite die (aus dem Zusammenhang gelösten) Sätze des Berichts zu seinem Vorteil nutzt – und fügte hinzu: „Das wird unsere Unparteilichkeit nicht beeinträchtigen und die Fakten nicht ändern.“ Boyd van Dijk, der zur Entstehung der Genfer Konventionen publiziert hatte, twitterte ebenfalls Kritik an Amnesty; unfair sei es, relativ kleine („relatively marginal“) Verletzungen durch die Truppen der verteidigenden Ukraine mit massiven Verletzungen („grave breaches“) durch Russland zu vergleichen, welches angreift. Es sei auch besser, das IHL nicht als strikte Checkliste zu „framen“, so wie es der Amnesty Report tue. („The point being here is that it would be better both analytically as well as normatively to embrace the richness of IHL history, rather than framing it as a strict codebook with severe limitations for those fighting against aggression and/or genocide, as the @amnesty report does.“) Der UN-Ermittler Marc Garlasco twitterte, dass Amnesty das Gesetz nicht verstanden habe. „Die Ukraine kann Einheiten stationieren in Gebieten, die sie verteidigt – speziell in Städten“. Sie habe gleichwohl die „VERPFLICHTUNG“ (Sic!), Zivilisten zu schützen, wozu sie Schritte unternehme. Russland hingegen habe nun die offizielle Entschuldigung einer internationalen Organisation („While nothing has stopped Russia from hitting civilian areas, now they have an excuse“). Intern sei der Bericht als „zu vage“ kritisiert worden; drei Tage nach Veröffentlichung entschuldigte sich Amnesty für den „verursachten Schmerz“. Ein Editorial des Kyiv Independent erinnerte an die Menschen, die für Amnesty gespendet hatten, im Glauben, es würde alles für ukrainische Zivilisten tun – nun mache der Amnesty Bericht jede zivile Infrastruktur zur Zielscheibe („Instead, it has just put a target on all civilian infrastructure, endangering the lives of the millions of Ukrainians living with Russia’s war.“). Die Tageszeitung kommentierte, dass eine Organisation wie Amnesty in der Lage sein sollte, ihre Erkenntnisse so zu publizieren, dass sie nicht „Moskau eine Täter-Opfer-Umkehr ermöglichen“. Auch in Schweden gab es bei Amnesty einen Protest-Rücktritt des dortigen lokalen Mitbegründers Per Wästberg. Auszeichnungen 1976: Erasmuspreis 1977: Friedensnobelpreis 1984: Four Freedoms Award, in der Kategorie Meinungsfreiheit 1988: Hans-Böckler-Preis 1998: Jaime-Brunet-Preis für Menschenrechte 2001: Orden der Freiheit (Portugal) Zeitschrift Amnesty International, Sektion der Bundesrepublik Deutschland: Amnesty Journal, Literatur Amnesty International (Hrsg.): Amnesty International Report 2015/2016. S. Fischer, Frankfurt/Main 2016, ISBN 978-3-10-002509-8. Egon Larsen: A Flame in Barbed Wire: The Story of Amnesty International. London, 1978. ISBN 0-393-01213-1. Egon Larsen: Amnesty International : im Namen der Menschenrechte. Die Geschichte von amnesty international. Vorw. von Peter Benenson. Kindler, München 1980. ISBN 3-463-00790-8. Roland Brauckmann: Amnesty International als Feindobjekt der DDR (PDF; 276 kB) (Schriftenreihe des Berliner Landesbeauftragten für die Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR, Band 3), Berlin 1996. Uta Devries: Amnesty International gegen Folter – eine kritische Bilanz. In: Beiträge zur Politikwissenschaft. Bd. 71, Peter Lang, Frankfurt am Main 1998, ISBN 3-631-32748-X. Jürgen Wüst: «Imperialistisches Menschenrechtsgeschrei». Der Kampf des MfS gegen die Internationale Gesellschaft für Menschenrechte (IGFM) und Amnesty International (AI), in: Deutschland Archiv, Nr. 3/1998, S. 418–427 K. E. Cox: Should Amnesty International Expand its Mandate to Cover Economic, Social, and Cultural Rights? In: Arizona Journal of International and Comparative Law. Vol. 16, T.2, S. 261–284, 1999. Heike Alefsen, Wolfgang Behlert, Stefan Keßler, Bernd Thomsen: 40 Jahre für die Menschenrechte. Neuwied/Kriftel 2001, ISBN 3-472-04738-0, Aufsatzsammlung, hrsg. von Amnesty International(darin auch ein Aufsatz: Einmischung, Einseitigkeit und mangelnde Ausgewogenheit – Anmerkungen zur Kritik an amnesty international, S. 34–44). Anja Mihr: Amnesty International in der DDR: der Einsatz für Menschenrechte im Visier der Stasi. Ch. Links, Berlin 2002, ISBN 3-86153-263-8. Stephen Hopgood: Keepers of the Flame. Understanding Amnesty International. Cornell University Press, Ithaca, N.Y. 2006, ISBN 0-8014-7251-2, (Inhaltsangabe: Keepers of the Flame). ai Bibliography – Index: Publications on Health and Human Rights Themes. 1985–2005 Ingrid Heinrich-Jost: Abenteuer Amnesty. Freiheit und Menschenwürde. Carl Ueberreuter, Wien 1991, ISBN 3-8000-1458-0. Aryeh Neier: The international human rights movement: a history. Princeton University Press, Princeton 2012. Weblinks Internationale Website (englisch, französisch, spanisch und arabisch) Sektionen: Deutschland, Liechtenstein, Österreich, Schweiz Politikwissenschaftliche Rezensionen der Jahresberichte von 2008 bis 2015 Benjamin Nathans: Moskauer Menschenrechtler an Amnesty International, in: Quellen zur Geschichte der Menschenrechte, herausgegeben vom Arbeitskreis Menschenrechte im 20. Jahrhundert, Mai 2015, abgerufen am 10. September 2019. Einzelnachweise Menschenrechtsorganisation Internationale Organisation (London) Non-Profit-Organisation Organisation mit Österreichischem Spendengütesiegel Organisation als Namensgeber für einen Asteroiden Träger des Menschenrechtspreises der Vereinten Nationen Träger des Europäischen Menschenrechtspreises Friedensnobelpreisträger Träger des Ordens der Freiheit Gegründet 1961 Träger des Internationalen Jaime-Brunet-Preises für Menschenrechte Träger des Bruno-Kreisky-Preises für Verdienste um die Menschenrechte Träger des Erasmuspreises
337
https://de.wikipedia.org/wiki/Abteilung%20%28Biologie%29
Abteilung (Biologie)
Die Abteilung (Divisio) ist eine hierarchische Stufe der biologischen Systematik. In der Botanik ist sie nach dem ICBN als höchste Rangstufe unterhalb des Reichs (Regnum) bzw. Unterreichs (Subregnum) vorgesehen. Abteilungen enden auf -phyta bei Pflanzen bzw. auf -mycota bei Pilzen. Die Abteilung in der Botanik entspricht dem Stamm (Phylum) in der zoologischen Systematik und wird entsprechend auch in der Botanik gelegentlich als Phylum bezeichnet. In der zoologischen Systematik wurde die Abteilung teilweise als Rangstufe zwischen dem Reich und dem Stamm verwendet. Andere Autoren nannten andere Rangstufen Abteilung (divisio), teilweise zwischen Klasse und Ordnung, einige auch zwischen Ordnung und Familie. Andere haben den Begriff zur Unterteilung von Gattungen verwendet. Diese Verwendungen sind nicht mehr gebräuchlich. Quellen David L. Hawksworth: Terms Used in Bionomenclature: The naming of organisms (and plant communities). Published by Global Biodiversity Information Facility, Copenhagen. May 2010. Abriss und Download Einzelnachweise Taxonomie
338
https://de.wikipedia.org/wiki/Art%20%28Biologie%29
Art (Biologie)
Die Art, auch Spezies oder Species genannt, ist in der Biologie (einschließlich Virologie und Palichnologie) die Grundeinheit der Systematik. Jede biologische Art ist ein Resultat der Artbildung. Bislang gelang keine allgemeine Definition der Art, welche die theoretischen und praktischen Anforderungen aller biologischen Teildisziplinen gleichermaßen erfüllt. Vielmehr existieren in der Biologie verschiedene Artkonzepte, die zu unterschiedlichen Klassifikationen führen. Historisch wie auch aktuell spielen zwei Ansätze von Artkonzepten eine wichtige Rolle: auf der Grundlage einer angenommenen Fortpflanzungsgemeinschaft (biologischer Artbegriff) auf Grund der Annahme einer Gruppe von Individuen mit charakteristischen gemeinsamen Artmerkmalen, mithilfe derer die Zugehörigkeit zu einer Art klar abgrenzbar sein soll und die anhand äußerer (morphologischer Artbegriff) oder erblicher Merkmale bestimmt werden. Mit dem Aufkommen der Kladistik ist seit den 1950er Jahren der auf dem biologischen Artbegriff beruhende, chronologisch definierte phylogenetische Artbegriff hinzugekommen, nach dem eine Art mit der Artspaltung, also der Bildung zweier Arten aus einer Ursprungsart, beginnt und mit ihrer erneuten Artspaltung oder aber ihrem Aussterben endet. Das Problem der Artdefinition besteht aus zwei Teilproblemen: Gruppenbildung: Welche Populationen von Individuen gehören zusammen? Rangbildung: Welche der zahlreichen, ineinander geschachtelten Gruppen von Populationen mit abgestuften Ähnlichkeiten und Beziehungen können als „Art“ zusammengefasst werden? Die Hauptunterschiede der verschiedenen Artkonzepte liegen dabei auf der Ebene der Rangbildung. Eine Gruppe von Lebewesen unabhängig von ihrem Rang bezeichnen Taxonomen als Taxon (in der Botanik auch Sippe). In biologischen Fachtexten wird bei Bezug auf eine unbestimmte Art oft abgekürzt „spec.“ oder „sp.“ (von ), bei mehreren Arten auch „spp.“ (species pluralis). Art als Taxon Eine Art als Taxon ist eine gemäß den Regeln der Taxonomie und der biologischen Nomenklatur formal beschriebene und benannte Form von Lebewesen. Eine taxonomische Art stellt eine wissenschaftliche Hypothese dar und kann unabhängig von einem Artkonzept sein, sofern man zumindest akzeptiert, dass Arten reale und individuelle Erscheinungen der Natur sind. Die Art ist eine Rangstufe der klassischen, auf Carl von Linné zurückgehenden Taxonomie. Einige rein merkmalsbezogen arbeitende Systematiker sind der Ansicht, Arten wären mehr oder weniger willkürlich zusammengestellte, künstliche Gruppen, nur die Individuen seien letztlich real: Manche gehen dabei so weit, dass der Artbegriff wie alle anderen Rangstufen ihrer Ansicht nach besser abgeschafft werden sollten und durch neue Konzepte wie die Least-inclusive taxonomic unit ersetzt werden sollten. Die meisten Biologen sind aber der Ansicht, dass Arten natürliche Einheiten mit realer Existenz darstellen; es gäbe dann Artkriterien, an denen sich reale Arten identifizieren ließen. Dieser Vorstellung liegt letztlich eine Unterscheidung zwischen durch Genfluss oder horizontalen Gentransfer geprägten Einheiten unterhalb des Artniveaus und den Arten, bei denen dies nicht zutrifft (engl. ), zu Grunde. Für viele Biologen, darunter Anhänger eines phylogenetischen Artkonzepts (vgl. unten), sind sie sogar die einzigen in diesem Sinne natürlichen taxonomischen Einheiten. Nomenklatur Der wissenschaftliche Name einer Art (oft lateinischen oder griechischen Ursprungs) setzt sich nach der von Carl von Linné 1753 eingeführten binären Nomenklatur aus zwei Teilen zusammen, die beide kursiv geschrieben werden (diese Nomenklatur wurde 2021 auch in der Virologie für neue Virusarten eingeführt, die bestehenden anderweitigen Artnamen werden nach und nach umbenannt). Der erste Teil dieses Namens ist der groß geschriebene Gattungsname. Der zweite Teil wird immer klein geschrieben und in der Botanik sowie bei Prokaryoten als Epitheton („specific epithet“) bezeichnet, in der Zoologie als Artname oder Artzusatz („specific name“). Um Verwechslungen zwischen dem Artzusatz und dem gesamten Artnamen, also dem Binomen aus Gattungsname und Artzusatz, zu vermeiden, werden in der Zoologie entweder die eindeutigen englischen Begriffe verwendet oder hinzugefügt oder gelegentlich und informell auch Begriffe wie „epithetum specificum“ oder „epitheton specificum“ verwendet. Beispiele Bei der Rotbuche (Fagus sylvatica) bezeichnet der Namensteil Fagus die Gattung, sylvatica ist das Artepitheton. Beim Löwen (Panthera leo) bezeichnet der Namensteil Panthera die Gattung, leo ist der Artname („specific name“). Sowohl in der Botanik (Code Article 46) als auch in der Zoologie (Code Article 51) wird empfohlen, dem wissenschaftlichen Artnamen die Namen der Autoren beizufügen, welche die Art beschrieben haben, zumindest, wenn es um taxonomische oder nomenklatorische Fragen geht. Dies ist zum Beispiel wichtig, um Homonyme zu erkennen, das sind Fälle, in denen zwei Autoren versehentlich zwei verschiedene Arten mit demselben Namen benannt haben. Im Geltungsbereich des Internationalen Codes der Nomenklatur für Algen, Pilze und Pflanzen wird es empfohlen, die Autorennamen abzukürzen, wobei in der Regel das Namensverzeichnis von Brummit und Powell als Grundlage dient (vergleiche Artikel Autorenkürzel der Botaniker und Mykologen), „L.“ steht beispielsweise für Linné. Beispiel: Shiitake Lentinula edodes (Berk.) Pegler – Erklärung: Miles Josef Berkeley hat die Art zuerst beschrieben, David Norman Pegler hat sie in das heute gültige System eingeordnet. Nach den Internationalen Regeln für die Zoologische Nomenklatur sollen zumindest einmal in jedem wissenschaftlichen Text dem Artnamen die Autor(en) und das Jahr der Publikation hinzugefügt werden (Code Recommendation 51a). Wenn im entsprechenden Fachgebiet zwei Autoren mit demselben Nachnamen tätig waren, soll der abgekürzte Vorname hinzugefügt werden, um Eindeutigkeit herzustellen. Wenn die Art heute in eine andere Gattung gestellt wird als in die, in der sie ursprünglich beschrieben wurde, müssen Autor(en) und Jahr in Klammern gesetzt werden (Code Article 51.3). Zwischen Autor und Jahr wird in der Regel ein Komma gesetzt. Beispiel: Löwe Panthera leo (Linnaeus, 1758) – Erklärung: Carl Nilsson Linnæus hat die Großkatze zuerst und als Felis leo beschrieben. Wer sie zuerst in die heute meist für den Löwen verwendete Gattung Panthera Oken, 1816 gestellt hat, ist in der Zoologie nicht relevant. Statt Linnæus wird Linnaeus geschrieben, da der Autor in lateinischen Buchstaben angegeben werden soll (Code Recommendation 51 b). Geschichte Die Philosophen der Antike kannten noch keine systematischen Konzepte und somit keinen Artbegriff im heutigen Sinne. Von Aristoteles sind als erstem Philosophen Schriften bekannt, in denen zwei getrennte – allgemein philosophisch zu verstehende – Begriffe είδος (eidos, ins Deutsche mit „Art“ übersetzt) und γένος (genos, deutsch „Gattung“) voneinander abgrenzt werden. In seinen Kategorien charakterisiert er anhand eines Beispiels aus der Welt der Lebewesen diese als zweite Wesenheiten (δεύτεραι ουσίαι), die in dem Einzelnen vorhanden sind. So ist ein einzelner Mensch in der Art Mensch vorhanden und ein einzelnes Pferd in der Art Pferd, beide gehören jedoch zur Gattung des Lebenden (ζῷον zoon). In seiner Historia animalium (Περί τα ζώα ιστοριών) wendet Aristoteles die Begriffe είδος und γένος auch auf das Tierreich an, ohne dabei jedoch eine taxonomische Ordnung aufzustellen. Vielmehr spricht er von der Überlappung von Eigenschaften der Tierarten (ἐπάλλαξις epállaxis) und der Notwendigkeit, eine einzelne Art anhand mehrerer nebengeordneter Merkmale zu definieren. Dennoch beschäftigt er sich bei der Beschreibung der Arten mit einzelnen charakteristischen Merkmalen. Der Begriff είδος wird auch nicht im Sinne eines heutigen Artbegriffes konsequent als unterste Kategorie zwischen dem einzelnen Lebewesen und γένος verwendet, vielmehr kann die Bedeutung meist am besten mit „Form“, „Gestalt“ oder „Wesen“ wiedergegeben werden, während Tierarten in der Regel mit γένος bezeichnet werden. Laut biblischer Schöpfungs­geschichte im 1. Buch Mose schuf Gott zwischen dem 3. und 6. Schöpfungstag die Pflanzen und Tiere, „ein jegliches (jedes) nach seiner Art“ (zehnmal Zitat „nach seiner Art“, , zu verstehen als „Wesensart“, hebräisch min מין bzw. למינה, ). In der Septuaginta wird מין mit γένος (κατὰ γένος „nach/gemäß der Art“, ) übersetzt, in der Vulgata dagegen uneinheitlich, manchmal mit genus und manchmal mit species, wobei auch die Präpositionen wechseln (secundum speciem suam, secundum species suas, in species suas, juxta genus suum, secundum genus suum, in genere suo, ). Es wird hier auch eine Aussage zur Fortpflanzung der Pflanzen und Tiere „nach ihrer Art“ getroffen, indem Gott in spricht: „Es lasse die Erde aufgehen Gras und Kraut, das Samen bringe, und fruchtbare Bäume auf Erden, die ein jeder nach seiner Art Früchte tragen, in denen ihr Same ist“, sowie in zu den Tieren des Wassers und der Luft: „Seid fruchtbar und mehret euch.“ Diese biblischen Aussagen wie auch Aristoteles waren bis in die Neuzeit prägend für die Vorstellungen der Gelehrten des Abendlandes. Pierre Duhem führte 1916 für die philosophische Auffassung vom Wesen oder der „Essenz“ eines Individuums den Begriff des Essentialismus ein. Nach Auffassung von Ernst Mayr stimmte die auf dem „Schöpfungsglauben beruhende Interpretation des Artbegriffes der christlichen Fundamentalisten“ recht gut mit der letztendlich auf Platon zurückgehenden Vorstellung einer „unveränderlichen Essenz“ (είδος als Wesen) überein und bildeten die Grundlage für einen „essentialistischen Artbegriff“, wie er vom Mittelalter bis ins 19. Jahrhundert hinein dominierte. Hiernach gehörten alle Objekte, welche dieselbe Essenz gemeinsam haben, derselben Art an. Laut Mayr war „[d]er Essentialismus mit seiner Betonung von Diskontinuität, Konstanz und typischen Werten (Typologie)“ der Hintergrund für typologische Artkonzepte, nach denen ein Individuum auf Grund seiner – in der Regel morphologischen – Merkmale (Typus) immer eindeutig einer bestimmten Art angehört und der Hintergrund dafür, dass Darwins „These von der Evolution durch natürliche Selektion daher als unannehmbar befunden“ wurde. Erkennbar ist dies auch bei John Ray, der 1686 in seiner Historia plantarum generalis die Arten der Pflanzen als Fortpflanzungsgemeinschaften mit beständigen Artkennzeichen definiert, nachdem er „lange Zeit“ nach Anzeichen für ihre Unterscheidung geforscht habe: „Uns erschien aber keines [kein Anzeichen] zuverlässiger als die gesonderte Fortpflanzung aus dem Samen. Welche Unterschiede auch immer also im Individuum oder der Pflanzenart aus dem Samen derselben hervorgehen, sie sind zufällig und nicht für die Art kennzeichnend. […] Denn die sich nach ihrer Art unterscheiden, bewahren ihre Art beständig, und keine entspringt dem Samen der anderen oder umgekehrt.“ Systematisierung durch Carl von Linné Carl von Linné stellte mit Species Plantarum (1753) und Systema Naturae (1758) als erster ein enkaptisches, auf hierarchisch aufbauenden Kategorien (Klasse, Ordnung, Gattung, Art und Varietät, jedoch noch nicht Familie) beruhendes System der Natur auf, wobei er für die Art die binäre Nomenklatur aus Gattungsnamen und Artepitheton einführte. Hierarchisch bedeutet dabei, dass die Einheiten auf unterschiedlichen Ebenen zu Gruppen zusammengefasst werden, wobei die in der Hierarchie höherstehenden Gruppen durch allgemeine, die tieferstehenden Gruppen durch immer speziellere Merkmale zusammengefasst werden (ein bestimmtes Individuum gehört also seiner Merkmalskombination gemäß in eine Art, eine Gattung, eine Familie usw.). Enkaptisch bedeutet, dass die in der Hierarchie tieferstehenden Gruppen in jeweils genau eine Gruppe der höheren Hierarchiestufe eingeschachtelt werden, also zum Beispiel jede Art in eine und genau eine, Gattung. In seiner Philosophia botanica formuliert er: „Es gibt so viele Arten, wie viele verschiedene Formen das unendliche Seiende am Anfang schuf; diese Formen, nach den hineingegebenen Gesetzen der Fortpflanzung, brachten viele [weitere Formen] hervor, doch immer ähnliche.“ Darüber hinaus bezeichnet er die Art und die Gattung als Werk der Natur, die Varietät als Werk des Menschen, Ordnung und Klasse dagegen als vom Menschen geschaffene Einheit. „Die Arten sind unveränderlich, denn ihre Fortpflanzung ist wahres Fortdauern.“ Während Georges-Louis Leclerc de Buffon 1749 noch verneint, dass es in der Natur irgendwelche Kategorien gäbe, revidiert er später diese Sicht für die Art und formuliert einen typologischen Artbegriff mit einer Konstanz der Arten: „Der Abdruck jeder Art ist ein Typ, dessen wesentliche Merkmale in unveränderlichen und beständigen Wesenszügen eingeprägt sind, doch alle Nebenmerkmale variieren: Kein Individuum gleicht vollkommen dem anderen.“ Jean-Baptiste de Lamarck, der bereits von einer Transformation der Arten ausgeht, betrachtet dagegen die Art und alle anderen Kategorien als künstlich. 1809 äußert er sich in seiner Philosophie zoologique: „Die Natur hat nicht wirklich Klassen, Ordnungen, Familien, Gattungen, beständige Arten herausgebildet, sondern allein Individuen.“ Dies hindert ihn jedoch nicht daran, auf dem Gebiet der Taxonomie sehr produktiv zu sein, deren Kategorien er praktisch zu nutzen weiß. Charles Darwin, der von der Art sogar im Titel seines Grundlagenwerkes On the Origin of Species (Über die Entstehung der Arten) von 1859 spricht, scheut sich vor einer Formulierung eines Artbegriffs. Laut Ernst Mayr kann man aus seinen Notizbüchern aus den 1830er Jahren schließen, dass er damals die Vorstellung von einer Art als Fortpflanzungsgemeinschaft hatte. In seiner Entstehung der Arten bezeichnet er jedoch die Begriffe der Art und der Varietät unmissverständlich als künstlich: „Aus diesen Bemerkungen geht hervor, dass ich den Kunstausdruck „Species“ als einen arbiträren und der Bequemlichkeit halber auf eine Reihe von einander sehr ähnlichen Individuen angewendeten betrachte und dass er von dem Kunstausdrucke „Varietät“, welcher auf minder abweichende und noch mehr schwankende Formen Anwendung findet, nicht wesentlich verschieden ist. Ebenso wird der Ausdruck „Varietät“ im Vergleich zu bloßen individuellen Verschiedenheiten nur arbiträr und der Bequemlichkeit wegen benutzt.“ Ähnlich äußert sich auch Alfred Russel Wallace 1856 in seiner Grundlagenarbeit über die Ritterfalter (Papilionidae) im Malaiischen Archipel, in der er verschiedene Verläufe der Evolution durch natürliche Zuchtwahl erklärt. Er bezeichnet Arten als „lediglich stark gekennzeichnete Rassen oder Lokalformen“ und geht dabei auch darauf ein, dass Individuen unterschiedlicher Arten generell als unfähig angesehen werden, fruchtbare gemeinsame Nachkommen zu zeugen, doch sei es nicht einmal in einem von tausend Fällen möglich, das Vorliegen einer Vermischung zu überprüfen. Seit Darwin ist die Ebene der Art gegenüber unterscheidbaren untergeordneten (Lokalpopulationen) oder übergeordneten (Artengruppen bzw. höheren Taxa) nicht mehr besonders ausgezeichnet. Innerhalb der Taxonomie unterlag die Artabgrenzung Moden und persönlichen Vorlieben, es gibt Taxonomen, die möglichst jede unterscheidbare Form in den Artrang erheben wollen („splitter“), und andere, die weitgefasste Arten mit zahlreichen Lokalrassen und -populationen bevorzugen („lumper“). Ende des 19. Jahrhunderts wurden biologische Artkonzepte einer Fortpflanzungsgemeinschaft diskutiert. Erwin Stresemann äußert in diesem Sinne bereits 1919 in einem Artikel über die europäischen Baumläufer klare Vorstellungen über Artbildung und genetische Isolation: „Es will nur die Tatsache im Namen zum Ausdruck bringen, dass sich die [im Laufe der geographischen Separation] zum Rang von Spezies erhobenen Formen physiologisch so weit voneinander entfernt haben, dass sie, wie die Natur beweist, wieder zusammenkommen können, ohne eine Vermischung einzugehen.“ Beherrschend im wissenschaftlichen Diskurs wurden die biologischen Artkonzepte der Fortpflanzungsgemeinschaft mit Theodosius Dobzhansky und Ernst Mayr seit der 2. Hälfte des 20. Jahrhunderts. Dobzhansky verknüpft den Artbegriff – ähnlich wie Stresemann – mit der Artbildung und definiert 1939 Arten als das „Stadium des Evolutionsvorgangs […], in dem Formengruppen, die sich bisher untereinander fortpflanzen oder jedenfalls dazu fähig waren, in zwei oder mehr gesonderte Gruppen aufgeteilt werden, die sich aus physiologischen Ursachen nicht untereinander fortpflanzen können“, während Mayr 1942 formuliert: „Arten sind Gruppen von natürlichen Populationen, die sich tatsächlich oder potentiell untereinander vermehren und fortpflanzungsmäßig von anderen derartigen Gruppen getrennt sind.“ In einem erweiterten biologischen Artbegriff bezieht Mayr 2002 die ökologische Nische mit in die Begriffsdefinition ein: „Eine Art ist eine Fortpflanzungsgemeinschaft von (fortpflanzungsmäßig von anderen isolierten) Populationen, die eine spezifische Nische in der Natur einnimmt.“ Mayr stellt die Bedeutung der Art in der Biologie als natürliche „Einheit der Evolution, der Systematik, der Ökologie und der Ethologie“ heraus und hebt sie hierin von allen anderen systematischen Kategorien ab. Aus praktischen Erwägungen überdauern bis heute auch typologische Artkonzepte. Nach wie vor benennt die als Autorität bezeichnete Person, welche die Artbeschreibung einer neuen Art (species nova) als erste veröffentlicht, diese anhand der arttypischen Merkmale des Typusexemplars mit einem selbst gewählten Artnamen aus dem Gattungsnamen und dem Artepitheton. Demgegenüber hebt der britische Paläoanthropologe Chris Stringer hervor: Alle Art-Konzepte sind „von Menschen erdachte Annäherungen an die Realität der Natur.“ Debatte um Essentialismus in der Geschichte der Biologie In der Debatte um Essentialismus in der Geschichte der Biologie hebt Mary Winsor hervor, dass etwa die Verwendung von Typusarten als Prototypen für höhere Kategorien unvereinbar mit dem Essentialismus sei, und John S. Wilkins betont, dass die – von Winsor als „Methode der Exemplare“ bezeichnete – Typologie der Biologen und der Essentialismus keineswegs zwangsläufig verknüpft sind. Während Essenzen definierbar und allen Angehörigen einer Art eigen seien, ließen sich Typen instantiieren und seien variabel. Laut Ernst Mayr beginnt die Geschichte des Artbegriffs in der Biologie mit Carl von Linné. Er hebt in seinen Arbeiten zur Wissenschaftsgeschichte hervor, dass der Essentialismus das abendländische Denken in großem Ausmaß beherrscht habe. Er setzt typologische mit essentialistischen Artbegriffen gleich, die mit Darwin's These von der Evolution durch natürliche Selektion „absolut unvereinbar“ sind. Artkonzepte Morphologisches Artkonzept Typologisch definierte Arten sind Gruppen von Organismen, die in der Regel nach morphologischen Merkmalen (morphologisches Artkonzept) unterschieden werden. Es können aber auch andere Merkmale wie zum Beispiel Verhaltensweisen in analoger Weise verwendet werden. Eine nach morphologischen Kriterien definierte Art wird Morphospezies genannt. Beispiele: Pferd und Esel lassen sich morphologisch klar voneinander abgrenzen und gehören damit zu verschiedenen Morphospezies. Löwe und Tiger lassen sich morphologisch und im Verhalten klar voneinander abgrenzen: Tiger sind gestreift und leben als Einzelgänger, die sich nur zur Paarungszeit treffen. Löwen haben nur als Jungtiere manchmal ein Fleckenmuster, sind nicht gestreift, die Männchen haben eine mehr oder weniger stark entwickelte Mähne. Löwen leben normalerweise in Rudeln aus Weibchen mit ihren Jungtieren, und einem oder mehreren adulten Männchen. Die Fellmerkmale und das Verhalten der Arten überlappen sich in ihrer Ausprägung nicht, und wenn (Liger und Tigons in Zoos), dann sind diese Zwischenformen viel seltener. Beides sind daher gut trennbare Morphospezies (bzw. Ethospezies). In der Paläontologie kann in der Regel nur das morphologische Artkonzept angewandt werden. Da die Anzahl der Funde oft begrenzt ist, ist die Artabgrenzung in der Paläontologie besonders subjektiv. Beispiel: Die Funde von Fossilien zweier Individuen in der gleichen Fundschicht, also praktisch gleichzeitig lebend, unterscheiden sich stark voneinander: Sie können jetzt zwei verschiedenen Arten zugeordnet werden, wenn man der Meinung ist, dass sie weit genug von einem morphologischen Typus abweichen. Sie können aber auch derselben Art zugeordnet werden, wenn man der Meinung ist, dass in dieser Art auch eine größere Variationsbreite, welche die Funde mit einschließt, angenommen werden kann. Die Unterschiede können aber auch auf einen deutlichen Sexualdimorphismus (Unterschiede in der Erscheinung der Männchen und Weibchen) innerhalb einer Art zurückzuführen sein. Diese Probleme werden mit zunehmender Zahl der Funde und damit Kenntnis der tatsächlichen Variationsbreite geringer, lassen sich aber nicht vollständig beseitigen. Das morphologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie. In anderen Bereichen, wie etwa in der Mikrobiologie oder in Teilbereichen der Zoologie, wie bei den Nematoden, versagen rein morphologische Arteinteilungsversuche weitgehend. Problematik der morphologischen Abgrenzung Die Natur ist kein starres System, sondern in stetiger Veränderung begriffen. Unter dem Einfluss verschiedener Evolutionsfaktoren verändern sich Populationen graduell, gelegentlich auch sprunghaft von Generation zu Generation. Ein unveränderlicher Typus ist daher mit den Erkenntnissen der Evolutionsbiologie nicht vereinbar. In der belebten Natur gibt es keine Typen oder Essenzen (Ernst Mayr 1998). Eine Kategorisierung anhand morphologischer Merkmale ist nicht objektivierbar. Eine auf bloßer Unterscheidbarkeit basierende Einteilung hängt stets davon ab, wie genau man die verschiedenen Individuen oder Populationen untersucht und an welchen Kriterien die „Verschiedenheit“ festgemacht wird, was viel Raum für Willkür und Interpretation lässt. Je genauer die Untersuchungsmethoden, desto mehr Unterschiede zwischen verschiedenen Individuen und Populationen werden auffällig. In der Konsequenz würde jede noch so kleine intraspezifische Variation zu einem eigenen Taxon erklärt, wenn der jeweilige Taxonom den Unterschied für wesentlich erachtet. Durch die Existenz von Hybrid- und Übergangsformen wird das Problem zusätzlich verschärft, weil hier eine eindeutige, nicht willkürliche Abgrenzung nach morphologischen Gesichtspunkten kaum möglich ist. Der morphologische Artbegriff ist nicht konsequent durchzuhalten, weil er häufig im Widerspruch zur beobachtbaren biologischen Realität steht. In der Praxis ergibt sich diese Einschränkung u. a. aus der Existenz intraspezifischer Polymorphismen. Eine Reihe Spezies durchläuft während ihrer Individualentwicklung verschiedene Stadien (z. B. Larve → Fliege, Raupe → Schmetterling) in denen der jeweilige Phänotyp drastischen Veränderungen unterworfen ist. Häufig sind Sexualdimorphismen anzutreffen, Arten in denen männliche und weibliche Individuen unterschiedliche Phänotypen ausbilden. Beispielsweise ordnete Linné Männchen und Weibchen der Stockente ursprünglich zwei verschiedenen Arten zu; als man den Fehler erkannte, wurden beide zu einer Art zusammengefasst, obwohl sich an ihrer Unterschiedlichkeit nichts geändert hatte. Viele Spezies zeichnen sich durch eine hohe phänotypische Plastizität aus. Ein Phänotyp ist nicht vollständig durch den Genotyp determiniert, sondern das Ergebnis der Wechselwirkung von Genotyp und Umwelt. Derselbe Genotyp kann je nach Umwelt- und Lebensbedingungen unterschiedliche Standortformen hervorbringen, welche nach morphologischen Kriterien verschiedenen Taxa zugeordnet werden, obwohl sie genetisch völlig identisch sein können (z. B. im Falle von Ablegern). Beispielsweise variiert die Blattform des Löwenzahns sehr stark in Abhängigkeit von Niederschlagsmenge, Sonnenstrahlung und Jahreszeit zur Zeit der Blattbildung. Es gibt auch die umgekehrte Situation: Biologisch völlig verschiedene Arten können aufgrund ähnlicher Selektionsbedingungen in ihrem Phänotyp konvergieren, sodass sie rein äußerlich nicht mehr ohne Weiteres zu unterscheiden sind, so genannte Zwillingsarten. Das gleiche Problem stellt sich bei den kryptischen Arten. Schließlich erwies sich ein rein morphologisches Abgrenzungskriterium als nicht zuverlässig genug, weil die Variationen innerhalb einer Fortpflanzungsgemeinschaft größer sein können als diejenigen zwischen morphologisch ähnlichen, also Populationen desselben „Typus“, welche jedoch keine Fortpflanzungsgemeinschaft bilden. Physiologisches Artkonzept bei Bakterien Bakterien zeigen nur wenige morphologische Unterscheidungsmerkmale und weisen praktisch keine Rekombinationsschranken auf. In Ermangelung eindeutiger Abgrenzungsdefinitionen erstellte das International Committee on Systematics of Prokaryotes (ICSP) 2001 das weitest verbreitete Artenkonzept für Bakterien („Phylo-phenetic species concept“): „A monophyletic and genomically coherent cluster of individual organisms that show a high degree of overall similarity in many independent characteristics, and is diagnosable by a discriminative phenotypic property.“ (Ein monophyletisch und genomisch kohärentes Cluster einzelner Organismen, die in vielen unabhängigen Merkmalen einen hohen Grad an Gesamtähnlichkeit aufweisen und durch eine diskriminative phänotypische Eigenschaft diagnostizierbar sind.) In der Praxis wird überwiegend der Stoffwechsel als Unterscheidungskriterium von Stämmen herangezogen. Weil ein allgemein akzeptiertes Artkriterium fehlt, stellen Bakterienstämme so die derzeit tatsächlich verwendete Basis zur Unterscheidung dar. Anhand biochemischer Merkmale wie etwa der Substanz der Zellwand unterscheidet man die höheren Bakterientaxa. Man testet an bakteriellen Reinkulturen zu ihrer „Artbestimmung“ deren Fähigkeit zu bestimmten biochemischen Leistungen, etwa der Fähigkeit zum Abbau bestimmter „Substrate“, z. B. seltener Zuckerarten. Diese Fähigkeit ist leicht erkennbar, wenn das Umsetzungsprodukt einen im Kulturmedium zugesetzten Farbindikator umfärben kann. Durch Verimpfung einer Bakterienreinkultur in eine Reihe von Kulturgläsern mit Nährlösungen, die jeweils nur ein bestimmtes Substrat enthalten („Selektivmedien“), bekommt man eine sog. „Bunte Reihe“, aus deren Farbumschlägen nach einer Tabelle die Bakterienart bestimmt werden kann. Dazu wurden halbautomatische Geräte („Mikroplatten-Reader“) entwickelt. Seit entsprechende Techniken zur Verfügung stehen (PCR), werden Bakterienstämme auch anhand der DNA-Sequenzen identifiziert oder unterschieden. Ein weithin akzeptiertes Maß ist, dass Stämme, die weniger als 70 % ihres Genoms gemeinsam haben, als getrennte Arten aufzufassen sind. Ein weiteres Maß beruht auf der Ähnlichkeit der 16S-rRNA-Gene. Nach DNA-Analysen waren dabei zum Beispiel weniger als 1 % der in natürlichen Medien gefundenen Stämme auf den konventionellen Nährmedien vermehrbar. Auf diese Weise sollen in einem ml Boden bis zu 100.000 verschiedene Bakteriengenome festgestellt worden sein, die als verschiedene Arten interpretiert wurden. Dies ist nicht zu verwechseln mit der Gesamtkeimzahl, die in der gleichen Größenordnung liegt, aber dabei nur „wenige“ Arten umfasst, die sich bei einer bestimmten Kulturmethode durch die Bildung von Kolonien zeigen. Viele Unterscheidungskriterien sind rein pragmatisch. Auf welcher Ebene der Unterscheidung man hier Stämme als Arten oder gar Gattungen auffasst, ist eine Sache der Konvention. Die physiologische oder genetische Artabgrenzung bei Bakterien entspricht methodisch dem typologischen Artkonzept. Ernst Mayr, leidenschaftlicher Anhänger des biologischen Artkonzepts, meint daher: „Bakterien haben keine Arten“. Daniel Dykhuizen macht darauf aufmerksam, dass – entgegen mancher Anschauung – Transformationen, Transduktionen und Konjugationen (als Wege des DNA-Tauschs zwischen Stämmen) nicht wahllos, sondern zwischen bestimmten Formen bevorzugt, zwischen anderen quasi nie ablaufen. Demnach wäre es prinzipiell möglich, ein Artkonzept für Bakterien entsprechend dem biologischen Artkonzept bei den Eukaryonten zu entwickeln. Frederick M. Cohan versucht dagegen auf Basis von Ökotypen, ein Artkonzept zu entwickeln. Biologisches oder populationsgenetisches Artenkonzept Gegen Ende des 19., Anfang des 20. Jahrhunderts begann sich in der Biologie allmählich das Populationsdenken durchzusetzen, was Konsequenzen für den Artbegriff mit sich brachte. Weil typologische Klassifizierungsschemata die realen Verhältnisse in der Natur nicht oder nur unzureichend abzubilden vermochten, musste die biologische Systematik einen neuen Artbegriff entwickeln, der nicht auf abstrakter Unterschiedlichkeit oder subjektiver Einschätzung einzelner Wissenschaftler basiert, sondern auf objektiv feststellbaren Kriterien. Diese Definition wird als biologische Artdefinition bezeichnet, „Sie heißt „biologisch“ nicht deshalb, weil sie mit biologischen Taxa zu tun hat, sondern weil ihre Definition eine biologische ist. Sie verwendet Kriterien, die, was die unbelebte Welt betrifft, bedeutungslos sind.“ Eine biologisch definierte Art wird als Biospezies bezeichnet. Der neue Begriff stützte sich auf zwei Beobachtungen: Zum einen setzen sich Arten aus Populationen zusammen und zum anderen existieren zwischen Populationen unterschiedlicher Arten biologische Fortpflanzungsbarrieren. „Die [biologische] Art besitzt zwei Eigenschaften, durch die sie sich grundlegend von allen anderen taxonomischen Kategorien, etwa dem Genus, unterscheidet. Erstens einmal erlaubt sie eine nichtwillkürliche Definition – man könnte sogar so weit gehen, sie als „selbstoperational“ zu bezeichnen –, indem sie das Kriterium der Fortpflanzungsisolation gegenüber anderen Populationen hervorhebt. Zweitens ist die Art nicht wie alle anderen Kategorien auf der Basis von ihr innewohnenden Eigenschaften, nicht aufgrund des Besitzes bestimmter sichtbarer Attribute definiert, sondern durch ihre Relation zu anderen Arten.“ Das hat – zumindest nach der Mehrzahl der Interpretationen – zur Folge, dass Arten nicht Klassen sind, sondern Individuen. Das Kriterium der Fortpflanzungsfähigkeit bildet den Kern des biologischen Artbegriffs oder der Biospezies. Eine Biospezies ist eine Gruppe sich tatsächlich oder potentiell miteinander fortpflanzender Individuen, die voll fertile Nachkommen hervorbringen: Eine Art ist eine Gruppe natürlicher Populationen, die sich untereinander kreuzen können und von anderen Gruppen reproduktiv isoliert sind. Dabei sollen die Isolationsmechanismen zwischen den einzelnen Arten biologischer Natur sein, also nicht auf äußeren Gegebenheiten, räumlicher oder zeitlicher Trennung basieren, sondern Eigenschaften der Lebewesen selbst sein: Isolationsmechanismen sind biologische Eigenschaften einzelner Lebewesen, die eine Kreuzung von Populationen verschiedener sympatrischer Arten verhindern. Die Kohäsion der Biospezies, ihr genetischer Zusammenhalt, wird durch physiologische, ethologische, morphologische und genetische Eigenschaften gewährleistet, die gegenüber artfremden Individuen isolierend wirken. Da die Isolationsmechanismen verhindern, dass nennenswerte zwischenartliche Bastardisierung stattfindet, bilden die Angehörigen einer Art eine Fortpflanzungsgemeinschaft; zwischen ihnen besteht Genfluss, sie teilen sich einen Genpool und bilden so eine Einheit, in der evolutionärer Wandel stattfindet. Beispiele: Pferd und Esel sind zwar kreuzbar (Maultier, Maulesel), haben aber aufgrund einer genetischen Barriere keine fruchtbaren Nachkommen, bilden damit verschiedene Biospezies. Löwe und Tiger sind zwar unter künstlichen Bedingungen (Zoo) kreuzbar, (Großkatzenhybride: Liger Tigon) und haben im Zoo unter Umständen auch fruchtbare Nachkommen. In der Natur leben sie zwar teilweise in gemeinsamen Verbreitungsgebieten, natürliche Hybriden wurden bisher jedoch nicht nachgewiesen, was den Schluss nahelegt, dass sie sich nicht verpaaren. Sie gelten aufgrund ethologischer Barrieren als verschiedene Biospezies. Problematik Geographisch deutlich getrennte Populationen sind, da sie sich in der Natur nicht kreuzen können, nach dem biologischen Artkonzept schwierig zu fassen. Nach der Theorie der allopatrischen Artbildung sind sie quasi „Arten im Entstehungsprozess“. Eine prinzipielle Schwierigkeit besteht eigentlich nicht, da die Frage experimentell entschieden werden kann (wenn keine biologischen Isolationsmechanismen evolviert sind, ist es noch dieselbe Art). Das biologische Artkonzept enthält in der ursprünglichen Fassung keinen Zeitbegriff. Untereinander kreuzen können sich evidenterweise nur gleichzeitig lebende Organismen. Ein Kriterium, ob früher lebende Organismen zur selben Art zu zählen sind oder nicht, wird dadurch nicht gegeben. Spätere Erweiterungen des Konzepts (zuerst wohl Simpson 1951) versuchten, dies durch Bezug auf evolutionär definierbare Einheiten zu überwinden. Arten, die sich nur ungeschlechtlich vermehren, werden durch die Definition des biologischen Artkonzepts nicht erfasst. Sie werden als Agamospezies bezeichnet. Hierzu gehören einige Protisten, einige Pilze, einige Pflanzen, wie die kultivierte Form der Banane (siehe hierzu auch Genet), sowie einige Tiere (mit parthenogenetischer Vermehrung). Agamospezies haben auch keinen Genpool und sind somit auch nach dem populationsgenetischen Artkonzept keine Arten. Viele Tier- und Pflanzenarten kreuzen sich auch in der Natur untereinander fruchtbar (Introgression), wie zum Beispiel verschiedene Steinkorallenarten oder Mehlbeer-Bäume sowie verschiedene Arten aus der Familie der Lebendgebärenden Zahnkarpfen jeweils innerhalb einer Gattung, wie beispielsweise Platy und Schwertträger in der Gattung Xiphophorus. Orchideen können sich zum Teil sogar über Gattungsgrenzen hinweg fruchtbar kreuzen. Diese Hybriden sind in der Natur in der Minderheit, die verschiedenen morphologisch beschriebenen Orchideenarten bleiben daher nach dem morphologischen Artkonzept unterscheidbar. Nach dem biologischen Artkonzept handelt es sich dann um getrennte Arten, wenn sich Isolationsmechanismen herausgebildet haben, die eine Hybridisierung normalerweise verhindern, auch wenn sie physiologisch möglich wäre, z. B. klimabedingte Unterschiede bei Tieren in der Fortpflanzungszeit oder bei Pflanzen in der Blütezeit. Diese Mechanismen können zusammenbrechen (z. B. durch menschliches Eingreifen oder drastische Änderungen der Umwelt durch Klimaveränderungen). Dadurch werden dem Konzept nach vorher getrennte Arten wieder zu einer Art (z. B. bei manchen Orchideenarten in Mitteleuropa beobachtet). Derselbe Vorgang kann aber auch natürlich ablaufen (introgressive Hybridisierung). Das biologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie, besonders in der Evolutionsbiologie. In gewisser Weise bildet es das Standardmodell, aus dem die anderen modernen Artkonzepte abgeleitet sind oder gegen welches sie sich in erster Linie abgrenzen. Die notwendigen Charaktere (Fehlen natürlicher Hybriden bzw. gemeinsamer Genpool) sind bisweilen umständlich zu überprüfen, in bestimmten Bereichen, wie etwa in der Paläontologie, versagen biologische bzw. populationsgenetische Artabgrenzungen weitgehend. Phylogenetisches oder evolutionäres Artkonzept Nach diesem Konzept wird eine Art als (monophyletische) Abstammungsgemeinschaft aus einer bis vielen Populationen definiert. Eine Art beginnt nach einer Artspaltung (siehe Artbildung, Kladogenese) und endet wenn alle Individuen dieser Art, ohne Nachkommen zu hinterlassen, aussterben oder wenn aus dieser Art durch Artspaltung zwei neue Arten entstehen. Phylogenetische Anagenese ist die Veränderung einer Art im Zeitraum zwischen zwei Artspaltungen, also während ihrer Existenz. Solange keine Aufspaltung erfolgt, gehören alle Individuen zur selben Art, auch wenn sie unter Umständen morphologisch unterscheidbar sind. Das phylogenetische Artkonzept beruht auf der phylogenetischen Systematik oder „Kladistik“ und besitzt nur im Zusammenhang mit dieser Sinn. Im Rahmen des Konzepts sind Arten objektive, tatsächlich existierende biologische Einheiten. Alle höheren Einheiten der Systematik werden nach dem System „Kladen“ genannt und sind (als monophyletische Organismengemeinschaften) von Arten prinzipiell verschieden. Durch die gabelteilige (dichotome) Aufspaltung besitzen alle hierarchischen Einheiten oberhalb der Art (Gattung, Familie etc.) keine Bedeutung, sondern sind nur konventionelle Hilfsmittel, um Abstammungsgemeinschaften eines bestimmten Niveaus zu bezeichnen. Der wesentliche Unterschied liegt weniger in der Betrachtung der Art als in derjenigen dieser höheren Einheiten. Nach dem phylogenetischen Artkonzept können sich Kladen überlappen, wenn sie hybridogenen Ursprungs sind. Problematik Jede Art und jede Artaufspaltung in diesem Modell muss zunächst, dem typologischen oder dem biologischen Artkonzept folgend, definiert werden. Dabei können die beim jeweiligen Artkonzept bereits besprochenen Schwierigkeiten auftreten. Das phylogenetische Artkonzept vereinfacht lediglich die Betrachtung zwischen zwei Artaufspaltungen, indem alle Populationen dieser Zeitspanne zu einer Art zusammengefasst werden. Ernst Mayr meint daher: „Es gibt nur zwei Art-Konzepte, alles andere sind Definitionen, wie man eine Art als systematische Einheit, also als Taxon, umschreiben soll. Die beiden Konzepte sind das typologische Artkonzept, das eine Art als etwas beschreibt, was sich deutlich äußerlich von anderen Lebewesen unterscheidet, und das biologische Artkonzept, das Arten als Gemeinschaften von Individuen bezeichnet, die potenziell fortpflanzungsfähige Nachkommen miteinander zeugen können. Andere Artkonzepte gibt es nicht.“ Chronologisches Artkonzept Ein weiterer Versuch, Arten in der Zeit klar abzugrenzen, ist das chronologische Artkonzept (Chronospezies). Auch hier wird die Art zunächst anhand eines anderen Artkonzepts definiert (meist das morphologische Artkonzept). Dann werden nach den Kriterien dieses Konzepts auch die Artgrenzen zwischen in einer Region aufeinanderfolgenden Populationen definiert. Dieses Konzept findet vorwiegend in der Paläontologie Anwendung und ist daher in der Regel eine Erweiterung des morphologischen Artkonzeptes um den Faktor Zeit: Eine Art wird durch eine Sequenz zeitlich aufeinander folgender Populationen charakterisiert, deren Individuen innerhalb einer bestimmten morphologischen Variationsbreite liegen. Dieses Konzept ist dann gut anwendbar, wenn praktisch lückenlose Fundfolgen vorliegen. Statistisches Artkonzept In der Paläontologie, speziell in der Paläoanthropologie erweist sich die Zuordnung zu Arten und sogar die Zuordnung zu Gattungen allein anhand fossiler Knochen als schwierig. Anstelle einer kontravalenten Zuordnung wird daher von John Francis Thackeray eine wahrscheinlichkeitstheoretische Zuordnung vorgeschlagen. Anstelle der Frage, ob ein Fossil zur Spezies A und ein anderes zur Spezies B gehört, wird die Wahrscheinlichkeit, dass beide zur selben Spezies gehören, errechnet. Dazu wird eine möglichst große Reihe von Paaren unterschiedlicher morphometrischer Messpunkte von je zwei Individuen verglichen, bei denen die Artzugehörigkeit unsicher ist. Die Messwertpaare weichen stets voneinander ab. Sie streuen in Form einer Gaußschen Normalverteilung. Innerhalb dieser Verteilung wird definiert, in welchem Intervall um den Mittelwert (z. B. 2 Sigma) beide Individuen als derselben Art zugehörig betrachtet werden. Liegen die Messpunkte außerhalb des vorgegebenen Intervalls, werden die beiden Individuen als zwei verschiedene Arten betrachtet. Artenzahl Anfang des 21. Jahrhunderts waren zwischen 1,5 und 1,75 Millionen Arten beschrieben, davon rund 500.000 Pflanzen. Es ist jedoch davon auszugehen, dass es sich bei diesen nur um einen Bruchteil aller existierenden Arten handelt. Schätzungen gehen davon aus, dass die Gesamtzahl aller Arten der Erde deutlich höher ist. Die weitestgehenden Annahmen reichten dabei Ende der 1990er-Jahre bis zu 117,7 Millionen Arten; am häufigsten jedoch wurden Schätzungen zwischen 13 und 20 Millionen Arten angeführt. Eine 2011 veröffentlichte Studie schätzte die Artenzahl auf 8,7 ± 1,3 Millionen, davon 2,2 ± 0,18 Millionen Meeresbewohner; diese Schätzung berücksichtigte allerdings nur Arten mit Zellkern (Eukaryoten), also nicht die Prokaryoten und auch nicht Viren, Viroide und Prionen. Jay Lennon und Kenneth Locey von der Indiana University schätzten auf Basis der Ergebnisse von 3 Großprojekten, die Mikroben in Medizin, Meer und Boden behandeln, die Artenanzahl auf der Erde im März 2016 auf 1 Billion (1012). Insbesondere die kleinen Lebensformen der Bakterien, Archaeen und Pilze wurden bisher stark unterschätzt. Moderne Genom-Sequenzierung macht genaue Analysen möglich. Über die Gesamtzahl aller Tier- und Pflanzenarten, die seit Beginn des Phanerozoikums vor 542 Mio. Jahren entstanden, liegen nur Schätzungen vor. Wissenschaftler gehen von etwa einer Milliarde Arten aus, manche rechnen sogar mit 1,6 Milliarden Arten. Weit unter einem Prozent dieser Artenvielfalt ist fossil erhalten geblieben, da die Bedingungen für eine Fossilwerdung generell ungünstig sind. Zudem zerstörten Erosion und Plattentektonik im Laufe der Jahrmillionen viele Fossilien. Forscher haben bis 1993 rund 130.000 fossile Arten wissenschaftlich beschrieben. Es kann gezeigt werden, dass bei Verwendung des phylogenetischen Artkonzepts mehr Arten unterschieden werden als beim biologischen Artkonzept. Die Vermehrung der Artenzahl, z. B. innerhalb der Primaten, die ausschließlich auf das verwendete Artkonzept zurückgehen, ist als „taxonomische Inflation“ bezeichnet worden. Dies hat Folgen für angewandte Bereiche, wenn diese auf einem Vergleich von Artenlisten beruhen. Es ergeben sich unterschiedliche Verhältnisse beim Vergleich der Artenzahlen zwischen verschiedenen taxonomischen Gruppen, geographischen Gebieten, beim Anteil der endemischen Arten und bei der Definition der Schutzwürdigkeit von Populationen bzw. Gebieten im Naturschutz. Literatur Neil A. Campbell: Biologie. Spektrum Akademischer Verlag, Heidelberg 1997, ISBN 3-8274-0032-5, S. 476 ff. Werner Kunz: Was ist eine Art? In der Praxis bewährt, aber unscharf definiert. In: Biologie in unserer Zeit. Wiley-VCH, Weinheim 32, 1, 2002, S. 10–19. Ernst Mayr: Das ist Leben – die Wissenschaft vom Leben. Spektrum Akademischer Verlag, Heidelberg 1997, ISBN 3-8274-1015-0. Ernst Mayr: Animal Species and Evolution. 6. Auflage. Belknap of Harvard University Press, Cambridge 1963, 1977; Artbegriff und Evolution. Parey, Hamburg/ Berlin 1967 (deutsch). Ernst Mayr: Grundlagen der zoologischen Systematik. Blackwell Wissenschaftsverlag, Berlin 1975, ISBN 3-490-03918-1. Ernst Mayr: Evolution und die Vielfalt des Lebens. Springer-Verlag, 1979, ISBN 3-540-09068-1. Peter Ax: Das Phylogenetische System. Urban & Fischer Bei Elsevier, 1997, ISBN 3-437-30450-X. Peter Ax: Systematik in der Biologie. Verlag Gustav Fischer, Stuttgart 1988, ISBN 3-437-20419-X. Ernst Mayr: Eine neue Philosophie der Biologie. R. Piper, München 1991, ISBN 3-492-03491-8. Originalausgabe: Toward a New Philosophy of Biology. The Belknap Press of Harvard University Press, Cambridge, Massachusetts und London 1988. Michael Ruse (Hrsg.): What the Philosophy of Biology is. Essays dedicated to David Hull. Kluwer Academic Publishers, Dordrecht 1989, ISBN 90-247-3778-8. Für die Diskussion von Spezies besonders: J. Cracraft, M. T. Ghiselin, P. Kitcher, E. O. Wiley and M. B. Williams Peter Heuer: Art, Gattung, System: Eine logisch-systematische Analyse biologischer Grundbegriffe. Verlag Karl Alber, Freiburg i. Br. 2008, ISBN 978-3-495-48333-6. Für detaillierte und aktuelle Diskussionen spezieller Themen: Robert A. Wilson (hrsg.): Species – New Interdisciplinary Essays. The MIT Press, Cambridge, Massachusetts, London 1999, ISBN 0-262-23201-4. Elliott Sober: Philosophy of Biology. 2. Auflage. Westview Press, 2000, ISBN 0-8133-9126-1. Rainer Willmann: Die Art in Raum und Zeit. Das Artkonzept in der Biologie und Paläontologie. Parey, Hamburg 1985, ISBN 3-489-62134-4. Weblinks Deutschlandfunk, 8. September 2013: Über Schubladen: Biologen kämpfen mit dem Art-Begriff. Deutschland-Radio, 15. Dezember 2005: Wissenschaftler schlägt Neudefinition des schwankenden Artbegriffs vor. Telepolis, 28. Juli 2005: Neuer Wirt, neue Art. Einzelnachweise Evolution Taxonomie
339
https://de.wikipedia.org/wiki/Anaerobie
Anaerobie
Anaerobie (zu aer ‚Luft‘ und ‚Leben‘; mit Alpha privativum α(ν)- a(n)- ‚ohne‘) bezeichnet Leben ohne Sauerstoff (Disauerstoff O2). Lebewesen, die für ihren Stoffwechsel keinen molekularen Sauerstoff brauchen, werden als anaerob bezeichnet. Jene Anaerobier, die durch O2 gehemmt oder sogar abgetötet werden, werden genauer obligat anaerob benannt. Anaerobe Lebensformen Anaerobe einzellige Organismen sind die ältesten Formen des Lebens auf der Erde, noch vor den ersten oxygen photosynthetisch aktiven Einzellern im Präkambrium, die O2 ausschieden. Mit dessen Anreicherung in der Hydrosphäre und der Atmosphäre änderten sich die Lebensbedingungen großräumig (siehe Große Sauerstoffkatastrophe). Die heute lebenden anaeroben Organismen benötigen ebenfalls alle keinen Sauerstoff für ihren Stoffwechsel und lassen sich grob danach unterscheiden, wie gut sie mit einer sauerstoffhaltigen Umgebung zurechtkommen: Obligate Anaerobier sind Organismen, die allein einen anaeroben Stoffwechsel betreiben und einen Lebensraum mit anoxischen Bedingungen brauchen. In der Mikrobiologie wird unterschieden zwischen moderaten Formen, die in Anwesenheit von Sauerstoff nicht wachsen können, und strikten Formen, die durch O2 geschädigt bzw. abgetötet werden. Aerotolerante Anaerobier sind Organismen, die allein einen anaeroben Stoffwechsel betreiben, also O2 nicht nutzen, jedoch die Anwesenheit von Sauerstoff tolerieren und daher auch unter oxischen Bedingungen leben können. Fakultative Anaerobier sind Organismen, die unter sauerstofffreien Bedingungen einen anaeroben Stoffwechsel betreiben können, bei Anwesenheit von Sauerstoff aber O2 im Stoffwechsel nutzen können, also sowohl unter anoxischen Bedingungen wie unter oxischen Bedingungen wachsen können. Lebensräume, in denen kein Sauerstoff enthalten ist, werden als anoxisch bezeichnet (mit früherem Sprachgebrauch auch als anaerob); Sauerstoff enthaltende Lebensräume werden oxisch genannt (früher auch aerob). Das bis Februar 2020 einzig bekannte Tier (nach einer neuen Definition), das seine Energie ohne Mitochondrien bzw. Sauerstoff produziert, ist der kleine 10-zellige Lachsparasit Henneguya zschokkei, welcher im Laufe der Evolution die Fähigkeit zur Sauerstoffumwandlung (aerobe Zellatmung) verloren hat. Der Fund zeigt, dass auch mehrzellige Organismen ohne Sauerstoff bzw. Sauerstoffzellatmung überleben können und Evolution zu scheinbar weniger komplexen Organismen führen kann. Anaerobe Atmung Im Unterschied zur aeroben Atmung werden bei der anaeroben für den oxidativen Energiestoffwechsel anstelle von O2 andere Elektronenakzeptoren als Oxidationsmittel verwendet. Häufig verwendete alternative Elektronenakzeptoren sind: Nitrat, dreiwertige Eisen-Ionen (Fe3+), vierwertige Mangan-Ionen (Mn4+), Sulfat, Schwefel, Fumarat und Kohlenstoffdioxid (CO2). Diese Redox-Reaktionen werden als anaerobe Atmung bezeichnet. In der Tabelle sind Typen der anaeroben Atmung aufgeführt, die in der Umwelt weit verbreitet sind (zum Vergleich ist die aerobe Atmung mit dabei). Die Reihung der Atmungsprozesse erfolgte nach Möglichkeit nach dem Standard-Redoxpotential des Elektronenakzeptorpaars in Volt bei einem pH-Wert von 7. Die tatsächlichen pH-Werte können abweichen (z. B. bei Acetogenese). Gärung Nicht als anaerobe Atmung, sondern als Gärung werden Vorgänge bezeichnet, bei denen kein externer Stoff als terminaler Elektronenakzeptor verwendet wird. Gärungsorganismen sind vor allem: Milchsäurebakterien (Milchsäuregärung) Hefen (alkoholische Gärung) praktisch alle Aerobier beherrschen unter anoxischen Bedingungen die Milchsäuregärung: anaerober Stoffwechsel (beim Menschen siehe auch Anaerobe Schwelle) Symbiosen Manche Turbellarien, Ringelwürmer und Enteroparasiten wie Bandwürmer beherbergen anaerobe Bakterien und können durch diese Symbiose auch unter anoxischen Bedingungen leben. Identifikation Das Verhalten von Mikroorganismen gegenüber Sauerstoff, ihre Identifikation als Aerobier, Anaerobier, Aerotoleranter oder fakultativer Anaerobier, kann durch Kultur in einem Sauerstoffkonzentrationsgradienten ermittelt werden. Dabei kultiviert man sie in einem Gelnährmedium, das sich in einem einseitig geschlossenen Glasrohr (Reagenzglas, Kulturröhrchen) befindet und in das Sauerstoff nur vom oberen, offenen Ende durch Diffusion eindringen kann. Auf diese Weise bildet sich ein Sauerstoffkonzentrationsgradient aus mit hoher Sauerstoffkonzentration oben und niedriger Sauerstoffkonzentration unten. Die Mikroorganismen werden in sehr geringer Menge gleichmäßig im Gelnährmedium verteilt, in dem sie ortsgebunden sind und sich nicht fortbewegen können. Dort, wo sich die Mikroorganismen hinsichtlich der Sauerstoffkonzentration unter geeigneten Bedingungen befinden, vermehren sie sich und man kann nach einer gewissen Zeit einen Bewuchs mit bloßem Auge erkennen. Die Zone, in der sich Bewuchs zeigt, ist ein Indikator für das Verhalten der Mikroorganismen gegenüber Sauerstoff, wie aus dem Bild deutlich wird. Kultur von anaeroben Mikroorganismen Anaerobie ist unter anderem bei der Kultivierung von Mikroorganismen von Bedeutung. Sollen gegenüber O2 empfindliche Mikroorganismen kultiviert werden oder sollen fakultativ anaerobe Mikroorganismen unter anoxischen Bedingungen kultiviert werden, so ist es erforderlich, bei der Kultur O2 auszuschließen. Hierbei werden sogenannte Anaerobentechniken verwendet. Ein Beispiel ist die Kultur in einer Anaerobenkammer: Darin erreicht man mit einer Gasatmosphäre aus 10 Vol.-% H2 + 10 Vol.-% CO2 + 80 Vol.-% N2 anoxische Bedingungen, die es ermöglichen, anaerobe Mikroorganismen zu kultivieren. Es besteht aber auch die Möglichkeit, anaerobe Mikroorganismen mittels Flüssigkulturen anzureichern. Dabei wird meist ausgenützt, dass die Löslichkeit von O2 in Flüssigkeiten mit steigender Temperatur sinkt. Siehe auch Aerobie Hydrogenosom Mitochondrium Einzelnachweise Weblinks NZZ: Leben – gänzlich ohne Sauerstoff (abgerufen am 14. April 2010) Stoffwechsel Ökologische Eigenschaft Mikrobiologie
340
https://de.wikipedia.org/wiki/Awk
Awk
awk ist eine Programmiersprache zur Bearbeitung und Auswertung beliebiger Textdaten, u. a. auch CSV-Dateien. Der zugehörige Interpreter ist eher als Compiler zu betrachten, weil der Programmtext zuerst komplett kompiliert und dann ausgeführt wird. awk wurde primär als Reportgenerator konzipiert und war eines der ersten Werkzeuge, das in der Version 3 von Unix erschien. Man kann awk als Weiterentwicklung oder Ergänzung des Streameditors sed betrachten, sie teilen gewisse syntaktische Elemente wie etwa reguläre Ausdrücke. Im Unterschied zu sed stehen in awk aber C-ähnliche Strukturen (if .. then .. else, verschiedene Schleifen, C-Formate …) zur Verfügung, die einen wesentlich leichteren Programmaufbau erlauben. In der Minimalanwendung wird awk in Shell-Skripten eingesetzt, um als Filter zum Beispiel Dateinamen zusammenzusetzen. Mit ausführlicheren Programmen gelingt es, Textdateien zu bearbeiten, umzuformen oder auszuwerten. Dazu stehen neben den üblichen Stringfunktionen aber auch mathematische Grund-Funktionen zur Verfügung. Der Name "awk" ist aus den Anfangsbuchstaben der Nachnamen ihrer drei Autoren Alfred V. Aho, Peter J. Weinberger und Brian W. Kernighan zusammengesetzt. Eine Version von awk ist heute in fast jedem unixähnlichen System zu finden und oft bereits vorinstalliert. Ein vergleichbares Programm ist aber auch für fast alle anderen Betriebssysteme verfügbar. Die Sprache arbeitet fast ausschließlich mit dem Datentyp Zeichenkette (). Daneben sind assoziative Arrays (d. h. mit Zeichenketten indizierte Arrays, auch Hashes genannt) und reguläre Ausdrücke grundlegende Bestandteile der Sprache. Die Leistungsfähigkeit, Kompaktheit, aber auch die Beschränkungen der awk- und sed-Skripte regten Larry Wall zur Entwicklung der Sprache Perl an. Aufbau eines Programms Die typische Ausführung eines awk-Programms besteht darin, Operationen – etwa Ersetzungen – auf einem Eingabetext durchzuführen. Dafür wird der Text zeilenweise eingelesen und anhand eines gewählten Trenners – üblicherweise eine Serie von Leerzeichen und/oder Tabulatorzeichen – in Felder aufgespalten. Anschließend werden die awk-Anweisungen auf die jeweilige Zeile angewandt. awk-Anweisungen haben folgende Struktur: Bedingung { Anweisungsblock } Für die eingelesene Zeile wird ermittelt, ob sie die Bedingung (oft ein Regulärer Ausdruck) erfüllt. Ist die Bedingung erfüllt, wird der Code innerhalb des von geschweiften Klammern umschlossenen Anweisungsblocks ausgeführt. Abweichend davon kann ein Statement auch nur aus einer Aktion { Anweisungsblock } oder nur aus einer Bedingung Bedingung bestehen. Fehlt die Bedingung, so wird die Aktion für jede Zeile ausgeführt. Fehlt die Aktion, so wird als Standardaktion das Schreiben der ganzen Zeile ausgeführt, sofern die Bedingung erfüllt ist. Variablen und Funktionen Der Benutzer kann Variablen innerhalb von Anweisungsblöcken durch Referenzierung definieren, eine explizite Deklaration ist nicht notwendig. Der Gültigkeitsbereich der Variablen ist global. Eine Ausnahme bilden hier Funktionsargumente, deren Gültigkeit auf die sie definierende Funktion beschränkt ist. Funktionen können an beliebiger Stelle definiert werden, die Deklaration muss dabei nicht vor der ersten Nutzung erfolgen. Falls es sich um Skalare handelt, werden Funktionsargumente als Wertparameter übergeben, ansonsten als Referenzparameter. Die Argumente bei Aufruf einer Funktion müssen nicht der Funktionsdefinition entsprechen, überzählige Argumente werden als lokale Variablen behandelt, ausgelassene Argumente mit dem speziellen Wert uninitialized – numerisch Null und als Zeichenkette den Wert des leeren Strings – versehen. Funktionen und Variablen aller Art bedienen sich des gleichen Namensraums, so dass gleiche Benennung zu undefiniertem Verhalten führt. Neben benutzerdefinierten Variablen und Funktionen stehen auch Standardvariablen und Standardfunktionen zur Verfügung, beispielsweise die Variablen $0 für die gesamte Zeile, $1, $2 … für das jeweils i-te Feld der Zeile und FS (von engl. ) für den Feldtrenner, sowie die Funktionen gsub(), split() und match(). Befehle Die Syntax von awk ähnelt derjenigen der Programmiersprache C. Elementare Befehle sind Zuweisungen an Variablen, Vergleiche zwischen Variablen sowie Schleifen oder bedingte Befehlsausführungen (if-else). Daneben gibt es Aufrufe sowohl zu fest implementierten als auch zu selbst programmierten Funktionen. Ausgeben von Daten auf der Standardausgabe ist durch den „print“-Befehl möglich. Um etwa das zweite Feld einer Eingabezeile auszudrucken, wird der Befehl print $2 benutzt. Bedingungen Bedingungen sind in awk-Programmen entweder von der Form Ausdruck Vergleichsoperator Ausdruck oder von der Form Ausdruck Matchoperator /reguläres Suchmuster/ Reguläre Suchmuster werden wie beim grep-Befehl gebildet, und Matchoperatoren sind ~ für "Muster gefunden" und !~ für "Muster nicht gefunden". Als Abkürzung für die Bedingung „$0 ~ /reguläres Suchmuster/“ (also die ganze Zeile erfüllt das Suchmuster) kann „/reguläres Suchmuster/“ verwendet werden. Als spezielle Bedingungen gelten die Worte BEGIN und END, bei denen die zugehörigen Anweisungsblöcke vor dem Einlesen der ersten Zeile bzw. nach Einlesen der letzten Zeile ausgeführt werden. Darüber hinaus können Bedingungen mit logischen Verknüpfungen zu neuen Bedingungen zusammengesetzt werden, z. B. $1 ~ /^E/ && $2 > 20 { print $3 } Dieser awk-Befehl bewirkt, dass von jeder Zeile, die mit E beginnt und deren zweites Feld eine Zahl größer 20 ist, das dritte Feld ausgegeben wird. Versionen, Dialekte Die erste awk-Version aus dem Jahr 1977 erfuhr 1985 eine Überarbeitung durch die ursprünglichen Autoren, die als nawk („new awk“) bezeichnet wurde. Sie bietet die Möglichkeit, eigene Funktionen zu definieren, sowie eine größere Menge von Operatoren und vordefinierten Funktionen. Der Aufruf erfolgt zumeist dennoch über „awk“, seit eine Unterscheidung zwischen beiden Versionen obsolet geworden ist. Das GNU-Projekt der Free Software Foundation stellt unter dem Namen gawk eine nochmals erweiterte freie Variante zur Verfügung. Eine weitere freie Implementierung ist mawk von Mike Brennan. mawk ist kleiner und schneller als gawk, was allerdings durch einige Einschränkungen erkauft wird. Auch BusyBox enthält eine kleine awk-Implementierung. Literatur Alfred V. Aho, Brian W. Kernighan, Peter J. Weinberger, Die Programmiersprache AWK, OSTC Verlag, 2010, ISBN 978-3-9811280-0-0. Alfred V. Aho, Brian W. Kernighan, and Peter J. Weinberger: The AWK Programming Language. Addison-Wesley, 1988, ISBN 0-201-07981-X. Dale Dougherty and Arnold Robbins: sed & awk O’Reilly & Associates, 1997, ISBN 1-56592-225-5. Helmut Herold: awk und SED, 3. Auflage, Addison-Wesley, 2003, ISBN 3-8273-2094-1. Arnold Robbins: GAWK: Effective AWK Programming: A User’s Guide for GNU Awk O’Reilly, 2001, ISBN 0-596-00070-7. (aktuelle Version online) Jürgen Peters: Programmieren mit awk, Oldenbourg, 1990, ISBN 3-486-21504-3. Reinhold Kalteis: awk – Die Programmiersprache für UNIX und DOS, Franzis, 1991, ISBN 3-7723-4231-0. Gottfried Staubach: UNIX-Werkzeuge zur Textmusterverarbeitung, Springer, 1989, ISBN 3-540-51232-2 und ISBN 0-387-51232-2. Weblinks awk(P): pattern scanning and processing language – Debian POSIX Programmer's Manual GNU awk-Website http://www.ostc.de/awk.pdf – Ausführliche Beschreibung auf Deutsch (PDF, 340 kB) Unix-Software Programmiersprache Abkürzung Linux-Software GNU Core Utilities
341
https://de.wikipedia.org/wiki/Achim%20von%20Arnim
Achim von Arnim
Carl Joachim Friedrich Ludwig „Achim“ von Arnim (* 26. Januar 1781 in Berlin; † 21. Januar 1831 in Wiepersdorf, Kreis Jüterbog-Luckenwalde) war ein deutscher Schriftsteller. Neben Clemens Brentano und Joseph von Eichendorff gilt er als ein wichtiger Vertreter der Heidelberger Romantik. Leben 1781 bis 1800 Arnims Vater war der wohlhabende Königlich Preußische Kammerherr Joachim Erdmann von Arnim, der dem Adelsgeschlecht Arnim aus dem uckermärkischen Familienzweig Blankensee entstammte und Gesandter des preußischen Königs in Kopenhagen und Dresden und später Intendant der Berliner Königlichen Oper war. Arnims Mutter Amalie Caroline von Arnim, geborene von Labes, starb drei Wochen nach seiner Geburt. Arnim verbrachte Kindheit und Jugend zusammen mit seinem älteren Bruder Carl Otto bei seiner Großmutter Caroline von Labes in Zernikow und Berlin, wo er von 1793 bis 1798 das Joachimsthalsche Gymnasium besuchte. Er studierte von 1798 bis 1800 Rechts- und Naturwissenschaften und Mathematik in Halle (Saale). Noch als Student schrieb er zahlreiche naturwissenschaftliche Texte, unter anderem den Versuch einer Theorie der elektrischen Erscheinungen sowie Aufsätze in den Annalen der Physik. Im Haus des Komponisten Johann Friedrich Reichardt lernte er Ludwig Tieck kennen, dessen literarische Arbeiten er bewunderte. 1800 wechselte Arnim zum naturwissenschaftlichen Studium nach Göttingen, wo er Johann Wolfgang von Goethe und Clemens Brentano begegnete. Unter deren Einfluss wandte er sich von den naturwissenschaftlichen Schriften eigenen literarischen Arbeiten zu. Nach Beendigung des Studiums im Sommer 1801 schrieb er, beeinflusst von Goethes Werther, seinen Erstlingsroman Hollin’s Liebeleben. 1801 bis 1809 Arnim unternahm von 1801 bis 1804 eine Bildungsreise quer durch Europa zusammen mit seinem Bruder Carl Otto. 1802 begegnete er in Frankfurt erstmals seiner späteren Frau Bettina und bereiste zusammen mit Clemens Brentano den Rhein. Ende 1802 besuchte er auf Schloss Coppet Frau von Staël und 1803 traf er in Paris erstmals Friedrich Schlegel. In diesem Jahr reiste Arnim weiter nach London und blieb bis Sommer 1804 in England und Schottland. Nach seiner Rückkehr entwarfen Arnim und Brentano erste konkrete Pläne zur Herausgabe einer Volksliedersammlung, die schließlich 1805 unter dem Titel Des Knaben Wunderhorn erschien. Arnim ging mit Goethe in Weimar die gesammelten und teils von Arnim und Brentano stark bearbeiteten Lieder der Sammlung durch. 1805 traf er in Frankfurt den Rechtsgelehrten Friedrich Karl von Savigny (1779–1861), der ihn schätzen lernte und mit dem ihn eine lebenslange Freundschaft verband. Seit dem 11. November 1808 schrieben sie sich regelmäßig. Die Veröffentlichung weiterer Bände verzögerte sich durch den Deutsch-Französischen Krieg. Nach der Niederlage Preußens bei Jena und Auerstedt folgte Arnim dem geflohenen Königshof nach Königsberg. Dort machte er im Kreis um den Reformer Freiherrn vom Stein politische Vorschläge. 1807 reiste Arnim zusammen mit Reichardt zu Goethe nach Weimar, wo auch Clemens und Bettina Brentano waren. Gemeinsam fuhren sie nach Kassel, wo Arnim erstmals die Brüder Grimm traf, mit denen er sein Leben lang befreundet blieb. Arnim zog 1808 nach Heidelberg, Clemens Brentano folgte ihm und dort vollendeten sie ihre Arbeit an der Volksliedersammlung. Der zweite und dritte Band des Wunderhorns erschien und außerdem schrieb Arnim Aufsätze für die Heidelbergischen Jahrbücher. In dem Kreis von Romantikern um Joseph Görres, dem die Heidelberger Romantik ihren Namen verdankt, gab Arnim die Zeitung für Einsiedler heraus, an der neben Brentano, Görres und den Brüdern Grimm auch Tieck, Friedrich Schlegel, Jean Paul, Justinus Kerner und Ludwig Uhland mitarbeiteten. Dieser Kreis wandte sich überwiegend aus politischen Gründen dem Mittelalter zu, um über diese Epoche eine nationale Einheit zu stiften, der ästhetische Aspekt interessierte dabei weniger. Arnim verließ Heidelberg Ende 1808 und besuchte Goethe auf dem Heimweg nach Berlin. Seit 1809 lebte Arnim in Berlin, wo er sich erfolglos um ein Amt im preußischen Staatsdienst bewarb. 1810 bis 1831 In Berlin veröffentlichte Arnim seine Novellensammlung Der Wintergarten, arbeitete für Kleists Berliner Abendblätter und gründete 1811 die Deutsche Tischgesellschaft, später Christlich-Deutsche Tischgesellschaft genannte patriotische Vereinigung, zu der zahlreiche Politiker, Professoren, Militärs und Künstler der Berliner Gesellschaft gehörten und in der nur christlich getaufte Männer Zutritt hatten. 1810 verlobte sich Arnim mit Bettina, das Paar heiratete am 11. März 1811. Die Arnims hatten sieben Kinder: Freimund, Siegmund, Friedmund, Kühnemund, Maximiliane, Armgart und Gisela von Arnim (1827–1889). Das Paar lebte meist getrennt, sie in Berlin, er auf seinem Gut Wiepersdorf. Bald nach der Hochzeit reisten sie gemeinsam nach Weimar, um Goethe zu besuchen. Ein heftiger Streit Bettinas mit Goethes Frau Christiane führte zu einer lebenslangen Entfremdung zwischen Goethe und Arnim. 1813 während der Befreiungskriege gegen Napoleon befehligte Arnim als Hauptmann ein Berliner Landsturmbataillon. Von Oktober 1813 bis Februar 1814 war er Herausgeber der Berliner Tageszeitung Der Preußische Correspondent, gab diese Stellung aber wegen Streitigkeiten mit dem Erstherausgeber Barthold Georg Niebuhr auf. Ebenfalls 1813 trat er der Gesetzlosen Gesellschaft zu Berlin bei. Von 1814 bis zu seinem Tode 1831 (Gehirnschlag) lebte Arnim überwiegend – unterbrochen von gelegentlichen Reisen und längeren Berlinaufenthalten – auf seinem Gut in Wiepersdorf und nahm mit zahlreichen Artikeln und Erzählungen in Zeitungen, Zeitschriften und Almanachen sowie mit Buchveröffentlichungen am literarischen Leben Berlins teil. Seine Frau und die Kinder lebten vor allem in Berlin. 1817 erschien der erste Band seines Romans Die Kronenwächter. Arnim schrieb vor allem für den Gesellschafter und hatte zeitweilig eine eigene Rubrik in der Vossischen Zeitung. 1820 besuchte Arnim Ludwig Uhland, Justinus Kerner, die Brüder Grimm und zum letzten Mal Goethe in Weimar. In seinen letzten Lebensjahren hatte Arnim immer wieder mit finanziellen Problemen zu kämpfen. Großer literarischer Erfolg blieb aus. Achim von Arnim starb am 21. Januar 1831 in Wiepersdorf. Werk und Wirkung Arnim hinterließ eine Fülle von Dramen, Novellen, Erzählungen, Romanen, Gedichten und anderen Arbeiten. Er wird heute zu den bedeutendsten Vertretern der deutschen Romantik gezählt. Vor allem über das Wunderhorn wirkte er auf Spätromantiker und Realisten ein wie etwa Eduard Mörike, Heinrich Heine, Ludwig Uhland und Theodor Storm. Die Sammlung enthält etwa 600 Bearbeitungen deutscher Volkslieder und gehört zu den wichtigsten Zeugnissen einer von der Romantik propagierten Volksdichtung. Enthalten sind Liebes-, Kinder-, Kriegs- und Wanderlieder vom Mittelalter bis ins 18. Jahrhundert. Goethe empfahl Des Knaben Wunderhorn zur Lektüre über alle Standesgrenzen hinweg, da es ihm für die einfachste Küche ebenso wie für das Klavier der Gelehrten geeignet erschien. Arnims Novellen zeugen von der Hinwendung des Autors zum Übernatürlichen. Die Erzählung Isabella von Ägypten vermischt Fiktion und Realität und nimmt so Elemente des Surrealismus vorweg; die traumhafte Phantastik wird mit historischen Bezügen verbunden. Poetologisch stellte Arnim seine Literatur in den Dienst der politischen Erneuerung, die er nicht durch politische Arbeit, sondern in der Kunst verwirklichen wollte. Deshalb hat er öfter volkstümliche Stoffe wiederbelebt. Arnims unvollendet gebliebener Roman Die Kronenwächter trieb die Erneuerung des historischen Romans in Deutschland voran. Er zeigt Missstände von Arnims Gegenwart in Form einer geschichtlichen Erzählung. Als Lyriker wird Arnim weniger als die Zeitgenossen Brentano und Eichendorff wahrgenommen, obwohl er ein reiches und vielgestaltiges lyrisches Werk hinterlassen hat; auch fast alle seine erzählerischen Werke enthalten Gedichte und Lieder. Die zeitgenössischen Urteile über Arnim gingen weit auseinander: Heine schrieb, Arnim sei „ein großer Dichter und einer der originellsten Köpfe der romantischen Schule. Die Freunde des Phantastischen würden an diesem Dichter mehr als an jedem anderen deutschen Schriftsteller Geschmack finden.“ Goethe dagegen sah Arnims Werk als ein Fass, an dem der Küfer vergessen habe, die Reifen festzuschlagen. 1995 gründeten die Herausgeber der historisch-kritischen Weimarer Arnim-Ausgabe (WAA) die Internationale Arnim-Gesellschaft mit Sitz in Erlangen. Der 1991 gegründete Freundeskreis Schloss Wiepersdorf e.V. richtete mit Unterstützung des Freien Deutschen Hochstifts (Frankfurt am Main) im Schloss Wiepersdorf das Bettina und Achim von Arnim-Museum ein, das Leben und Schaffen des Schriftstellerpaares und seines Umfeldes dokumentiert. Antisemitismusvorwürfe Ein Gegenstand anhaltender Diskussion in der Arnim-Forschung ist der Zusammenhang von nationalem Engagement und antisemitischer Denunziation. Mehrfach, etwa in der Erzählung Die Versöhnung in der Sommerfrische von 1811, benutzt Arnim die traditionelle Gegenüberstellung von Christen und Juden, um ein konstruiertes „deutsches Wesen“ in der Opposition zu einem vermeintlichen „jüdischen Wesen“ zu profilieren. In der Tischrede Über die Kennzeichen des Judentums, die Arnim vor der Deutsch-christlichen Tischgesellschaft hielt, drückt sich – laut Micha Brumlik – „klassischer Antisemitismus aus, wie ihn 100 Jahre später Julius Streichers Hetzblatt Der Stürmer verbreiten sollte“. Darin heißt es u. a.: In zahlreichen seiner literarischen Werke treten jüdische Figuren auf, die oftmals stark negativ konnotiert bzw. bis zur Lächerlichkeit überzeichnet sind. Außerhalb der Versöhnung in der Sommerfrische finden sich jüdische Figuren z. B. in Arnims und Brentanos Wunderhorn (1806), in seinem Doppeldrama Halle und Jerusalem (1811) sowie in der Erzählung Die Majoratsherren (1819). Werke Romane Hollin’s Liebeleben. 1802. online Ariel's Offenbarungen. 1804. online Armut, Reichtum, Schuld und Buße der Gräfin Dolores. 1810. Neuausg. 2017 Die Kronenwächter. Band 1: Bertholds erstes und zweites Leben. 1817 (Band 2 wird als Fragment 1854 aus dem Nachlass von Ehefrau Bettina bearbeitet herausgegeben.) online Erzählungen Aloys und Rose. 1803 Erzählungen von Schauspielen. 1803 Mistris Lee in der Sammlung Der Wintergarten. 2 Bände. 1809 Isabella von Ägypten, Kaiser Karl des Fünften erste Jugendliebe. 1812 Melück Maria Blainville. 1812 Die drei liebreichen Schwestern und der glückliche Färber. 1812 Angelika, die Genueserin, und Cosmus, der Seilspringer. 1812 Die Einquartierung im Pfarrhause. 1817 Frau von Saverne. 1817 Die Weihnachts-Ausstellung. 1817 Der tolle Invalide auf dem Fort Ratonneau. 1818 () Seltsames Begegnen und Wiedersehen. 1818 Die zerbrochene Postkutsche. 1818 Juvenis. 1818 Fürst Ganzgott und Sänger Halbgott. 1818 Die Majoratsherren. 1819 Owen Tudor. 1820 Die Kirchenordnung. 1822 Raffael und seine Nachbarinnen. 1824 Die Verkleidungen des französischen Hofmeisters und seines deutschen Zöglings. 1823 Metamorphosen der Gesellschaft in der Sammlung Landhausleben. 1826 Die Ehenschmiede 1839 Dramen Halle und Jerusalem. Studentenspiel und Pilgerabenteuer. 1811 Das Loch oder Das wiedergefundene Paradies. 1811 Schaubühne. Sammlung. 1813 Die Gleichen. 1819 Die Päpstin Johanna. 1846 Lyrik Des Knaben Wunderhorn. Volksliedersammlung in 3 Bänden. Mit Clemens Brentano. 1805, 1806 und 1808 Band 1. 1806. () Band 2. 1808. () Band 3. 1808. () Kriegslieder. 1806 Gedichte. 1856, 1976 Novellen Novellen, mit einem Nachwort versehen von Rudolf Kayser, Roland-Verlag, München 1918 Verschiedenes Versuch einer Theorie der elektrischen Erscheinungen. Johann Jacob Gebauer, Halle 1799. Von Volksliedern. 1805 Tröst Einsamkeit. Buchausgabe der von Arnim herausgegebenen Zeitung für Einsiedler. 1808 Christopher Marlowe: Doktor Faustus. Übersetzung und Vorwort von Arnim. 1818 Aufsätze und Erinnerungen eines Reisenden. 1829 Hartwig Schultz (Hrsg.): Achim von Arnim – Clemens Brentano. Freundschaftsbriefe, illustriert, Eichborn, Frankfurt am Main 2000, ISBN 978-3-8218-4700-9, 2 Bände, Reihe Die Andere Bibliothek. Ehrungen und Andenken In Göttingen wurde 1909 eine Göttinger Gedenktafel an seinem Göttinger Wohnhaus in der Prinzenstraße 10/12 angebracht. 1941 wurde die Arnimstraße in Hamburg-Osdorf nach Achim von Arnim benannt. Literatur Michael Andermatt (Hrsg.): Grenzgänge. Studien zu L. Achim von Arnim. Bouvier, Bonn 1994 (= Modern German studies. Band 18), ISBN 3-416-02520-2. Hildegard Baumgart: Bettine Brentano und Achim von Arnim. Lehrjahre einer Liebe. Berlin-Verlag, Berlin 1999, ISBN 3-8270-0271-0. Urs Büttner: Poiesis des „Sozialen“. Achim von Arnims Poetik bis zur Heidelberger Romantik (1800–1808). De Gruyter, Berlin/Boston 2015 (= Studien zur deutschen Literatur. Band 208), ISBN 978-3-11-031457-1. Tobias Bulang: Barbarossa im Reich der Poesie. Verhandlungen von Kunst und Historismus bei Arnim, Grabbe, Stifter und auf dem Kyffhäuser. Lang, Frankfurt am Main 2003 (= Mikrokosmos. Band 69), ISBN 3-631-50698-8. Roswitha Burwick: Dichtung und Malerei bei Achim von Arnim. De Gruyter, Berlin 1989 (= Quellen und Forschungen zur Sprach- und Kulturgeschichte der germanischen Völker. Band 215; Neue Folge 91), ISBN 3-11-011826-2. Roswitha Burwick (Hrsg.): Neue Tendenzen der Arnimforschung. Edition, Biographie, Interpretation. Mit unbekannten Dokumenten. Lang, Bern 1990 (= Germanic studies in America. Band 60), ISBN 3-261-04249-4. Roswitha Burwick (Hrsg.): „Frische Jugend, reich an Hoffen“ – der junge Arnim. Zernikower Kolloquium der Internationalen Arnim-Gesellschaft. Niemeyer, Tübingen 2000 (= Schriften der Internationalen Arnim-Gesellschaft. Band 2), ISBN 3-484-10820-7. Sheila Dickson (Hrsg.): The Marriage Blacksmith. von Ludwig Achim von Arnim. Translated with notes by Sheila Dickson. Wehrhahn, Hannover 2007, ISBN 978-3-86525-061-2. Christian Drösch: Somnambule Schwärmerei und wunderbarer Magnetismus. Künstlicher Somnambulismus und ähnliche Phänomene im Prosawerk Ludwig Achim von Arnims. Königshausen & Neumann, Würzburg, 2012 (= Epistemata Literaturwissenschaft. 736), ISBN 978-3-8260-4648-3. Dagmar von Gersdorff: Bettina und Achim von Arnim. Eine fast romantische Ehe. Rowohlt, Berlin 1997, ISBN 3-87134-288-2. Helga Halbfass: Komische Geschichte(n). Der ironische Historismus in Achim von Arnims Roman „Die Kronenwächter“. Lang, New York 1993 (= Studies on themes and motifs in literature. Band 3), ISBN 0-8204-2131-6. Heinz Härtl (Hrsg.): „Die Erfahrung anderer Länder“. Beiträge eines Wiepersdorfer Kolloquiums zu Achim und Bettina von Arnim. De Gruyter, Berlin 1994, ISBN 3-11-014289-9. Frederick Hetmann: Bettina und Achim. Die Geschichte einer Liebe. Beltz & Gelberg Verlag, Weinheim 1984, ISBN 3-407-80644-2. Helene M. Kastinger Riley: Ludwig Achim von Arnims Jugend- und Reisejahre. Ein Beitrag zur Biographie mit unbekannten Briefzeugnissen. Bouvier, Bonn 1978 (= Abhandlungen zur Kunst-, Musik- und Literaturwissenschaft. Band 266), ISBN 3-416-01419-7. Helene M. Kastinger Riley: Achim von Arnim. In Selbstzeugnissen und Bilddokumenten. Rowohlt, Reinbek bei Hamburg 1994 (= Rowohlts Monographien. Band 277), ISBN 3-499-50277-1. Jürgen Knaack: Achim von Arnim – Nicht nur Poet. Die politischen Anschauungen Arnims in ihrer Entwicklung. Thesen. Darmstadt 1976, ISBN 3-7677-0022-0. Jürgen Knaack: Alles geschieht in der Welt der Poesie wegen. Leben und Werk des Achim von Arnim. Wiesbaden 2021, ISBN 978-3-95490-522-5. Fabian Lampart: Zeit und Geschichte. Die mehrfachen Anfänge des historischen Romans bei Scott, Arnim, Vigny und Manzoni. Königshausen & Neumann, Würzburg 2002 (= Epistemata; Reihe Literaturwissenschaft. Band 401), ISBN 3-8260-2267-X. Brigitte Martin: Wir brauchen unseren Frieden. Uckermärker Postbotengeschichten – Achim von Arnim und andere. Feature. Regie: Hannelore Solter. Produzent: Rundfunk der DDR. 1981. Martin Neuhold: Achim von Arnims Kunsttheorie und sein Roman „Die Kronenwächter“ im Kontext ihrer Epoche: mit einem Kapitel zu Brentanos „Die mehreren Wehmüller und ungarischen Nationalgesichter“ und Eichendorffs „Ahnung und Gegenwart“. Niemeyer, Tübingen 1994 (= Hermaea: germanistische Forschungen. Band 73), ISBN 3-484-15073-4. Claudia Nitschke: Utopie und Krieg bei Ludwig Achim von Arnim. Niemeyer, Tübingen 2004 (= Untersuchungen zur deutschen Literaturgeschichte. Band 122), ISBN 3-484-32122-9. Walter Pape (Hrsg.): Arnim und die Berliner Romantik. Kunst, Literatur und Politik. Berliner Kolloquium der Internationalen Arnim-Gesellschaft. Niemeyer, Tübingen 2001 (= Schriften der Internationalen Arnim-Gesellschaft. Band 3), ISBN 3-484-10833-9. Ulfert Ricklefs: Kunstthematik und Diskurskritik. Das poetische Werk des jungen Arnim und die eschatologische Wirklichkeit der „Kronenwächter“. Niemeyer, Tübingen 1990 (= Untersuchungen zur deutschen Literaturgeschichte. Band 56), ISBN 3-484-32056-7. Ulfert Ricklefs: Magie und Grenze. Arnims „Päpstin-Johanna“-Dichtung. Mit einer Untersuchung zur poetologischen Theorie Arnims und einem Anhang unveröffentlichter Texte. Vandenhoeck und Ruprecht, Göttingen (= Palaestra. Band 285), ISBN 3-525-20558-9. Ulfert Ricklefs (Hrsg.): Universelle Entwürfe – Integration – Rückzug. Arnims Berliner Zeit (1809–1814). Wiepersdorfer Kolloquium der Internationalen Arnim-Gesellschaft. Niemeyer, Tübingen 2000 (= Schriften der Internationalen Arnim-Gesellschaft. Band 1), ISBN 3-484-10799-5. Holger Schwinn: Kommunikationsmedium Freundschaft. Der Briefwechsel zwischen Ludwig Achim von Arnim und Clemens Brentano in den Jahren 1801 bis 1816. Lang, Frankfurt am Main 1997 (= Europäische Hochschulschriften Reihe 1, Deutsche Sprache und Literatur. Band 1635), ISBN 3-631-30452-8. Martina Steinig: „Wo man singt, da lass’ dich ruhig nieder…“ Lied- und Gedichteinlagen im Roman der Romantik. Eine exemplarische Analyse von Novalis’ Heinrich von Ofterdingen und Joseph von Eichendorffs Ahnung und Gegenwart. Mit Anmerkungen zu Achim von Arnims Armut, Reichtum, Schuld und Buße der Gräfin Dolores. Frank und Timme, Berlin 2006, ISBN 3-86596-080-4. Thomas Sternberg: Die Lyrik Achim von Arnims. Bilder der Wirklichkeit – Wirklichkeit der Bilder. Bouvier, Bonn 1983 (= Abhandlungen zur Kunst-, Musik- und Literaturwissenschaft. Band 342), ISBN 3-416-01764-1. Weblinks (Ulrich Goerdten) Aufsätze zu Achim von Arnim im Goethezeitportal Einzelnachweise Achim Autor Dichterjurist Literatur (19. Jahrhundert) Literatur (Deutsch) Drama Lyrik Roman, Epik Volksliedsammler und -forscher Bettina von Arnim Deutscher Geboren 1781 Gestorben 1831 Mann
342
https://de.wikipedia.org/wiki/Algorithmus
Algorithmus
Ein Algorithmus (benannt nach al-Chwarizmi, von arabisch: ) ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. Damit können sie zur Ausführung in ein Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt. Definition Turingmaschinen und Algorithmusbegriff Der Mangel an mathematischer Genauigkeit des Begriffs Algorithmus störte viele Mathematiker und Logiker des 19. und 20. Jahrhunderts, weswegen in der ersten Hälfte des 20. Jahrhunderts eine ganze Reihe von Ansätzen entwickelt wurde, die zu einer genauen Definition führen sollten. Eine zentrale Rolle nimmt hier der Begriff der Turingmaschine von Alan Turing ein. Weitere Formalisierungen des Berechenbarkeitsbegriffs sind die Registermaschinen, der Lambda-Kalkül (Alonzo Church), rekursive Funktionen, Chomsky-Grammatiken (siehe Chomsky-Hierarchie) und Markow-Algorithmen. Es wurde – unter maßgeblicher Beteiligung von Alan Turing selbst – gezeigt, dass all diese Methoden die gleiche Berechnungsstärke besitzen (gleich mächtig sind). Sie können durch eine Turingmaschine emuliert werden, und sie können umgekehrt eine Turingmaschine emulieren. Formale Definition Mit Hilfe des Begriffs der Turingmaschine kann folgende formale Definition des Begriffs formuliert werden: „Eine Berechnungsvorschrift zur Lösung eines Problems heißt genau dann Algorithmus, wenn eine zu dieser Berechnungsvorschrift äquivalente Turingmaschine existiert, die für jede Eingabe, die eine Lösung besitzt, stoppt.“ Eigenschaften des Algorithmus Aus dieser Definition sind folgende Eigenschaften eines Algorithmus ableitbar: Das Verfahren muss in einem endlichen Text eindeutig beschreibbar sein (Finitheit). Jeder Schritt des Verfahrens muss tatsächlich ausführbar sein (Ausführbarkeit). Das Verfahren darf zu jedem Zeitpunkt nur endlich viel Speicherplatz benötigen (Dynamische Finitheit, siehe Platzkomplexität). Das Verfahren darf nur endlich viele Schritte benötigen (Terminierung, siehe auch Zeitkomplexität). Darüber hinaus wird der Begriff Algorithmus in praktischen Bereichen oft auf die folgenden Eigenschaften eingeschränkt: Der Algorithmus muss bei denselben Voraussetzungen das gleiche Ergebnis liefern (Determiniertheit). Die nächste anzuwendende Regel im Verfahren ist zu jedem Zeitpunkt eindeutig definiert (Determinismus). Church-Turing-These Die Church-Turing-These besagt, dass jedes intuitiv berechenbare Problem durch eine Turingmaschine gelöst werden kann. Als formales Kriterium für einen Algorithmus zieht man die Implementierbarkeit in einem beliebigen, zu einer Turingmaschine äquivalenten Formalismus heran, insbesondere die Implementierbarkeit in einer Programmiersprache – die von Church verlangte Terminiertheit ist dadurch allerdings noch nicht gegeben. Der Begriff der Berechenbarkeit ist dadurch dann so definiert, dass ein Problem genau dann berechenbar ist, wenn es einen (terminierenden) Algorithmus zu dem Problem gibt, das heißt, wenn eine entsprechend programmierte Turingmaschine das Problem in endlicher Zeit lösen könnte. Es sei bemerkt, dass die Ambiguität des Begriffs „intuitiv berechenbares Problem“ den mathematischen Beweis dieser These unmöglich macht. Es ist also theoretisch denkbar, dass intuitiv berechenbare Probleme existieren, die nach dieser Definition nicht als „berechenbar“ gelten. Bis heute wurde jedoch noch kein solches Problem gefunden. Abstrakte Automaten Turingmaschinen harmonieren gut mit den ebenfalls abstrakt-mathematischen berechenbaren Funktionen, reale Probleme sind jedoch ungleich komplexer, daher wurden andere Maschinen vorgeschlagen. Diese Maschinen weichen etwa in der Mächtigkeit der Befehle ab; statt der einfachen Operationen der Turingmaschine können sie teilweise mächtige Operationen, wie etwa Fourier-Transformationen, in einem Rechenschritt ausführen. Oder sie beschränken sich nicht auf eine Operation pro Rechenschritt, sondern ermöglichen parallele Operationen, wie etwa die Addition zweier Vektoren in einem Schritt. Ein Modell einer echten Maschine ist die (kurz ) mit folgenden Eigenschaften: Ein Algorithmus einer seq. ASM soll durch einen endlichen Programmtext spezifiziert werden können schrittweise ausgeführt werden können für bestimmte Zustände terminieren, muss aber nicht immer terminieren (sinnvolle Gegenbeispiele für die Forderung, dass immer terminiert werden muss, wären etwa ein Programm, das fortgesetzt Primzahlen findet, oder ein Betriebssystem) nur begrenzt viele Zustände pro Schritt ändern können (Begrenzung der Parallelität) nur begrenzt viele Zustände pro Schritt inspizieren können (Begrenzung der Exploration). Informatik und Mathematik Algorithmen sind eines der zentralen Themen der Informatik und Mathematik. Sie sind Gegenstand einiger Spezialgebiete der theoretischen Informatik, der Komplexitätstheorie und der Berechenbarkeitstheorie, mitunter ist ihnen ein eigener Fachbereich Algorithmik oder Algorithmentheorie gewidmet. In Form von Computerprogrammen und elektronischen Schaltungen steuern Algorithmen Computer und andere Maschinen. Algorithmus und Programme Für Algorithmen gibt es unterschiedliche formale Repräsentationen. Diese reichen vom Algorithmus als abstraktem Gegenstück zum konkret auf eine Maschine zugeschnittenen Programm (das heißt, die Abstraktion erfolgt hier im Weglassen der Details der realen Maschine, das Programm ist eine konkrete Form des Algorithmus, angepasst an die Notwendigkeiten und Möglichkeiten der realen Maschine) bis zur Ansicht, Algorithmen seien gerade die Maschinenprogramme von Turingmaschinen (wobei hier die Abstraktion in der Verwendung der Turingmaschine an sich erfolgt, das heißt, einer idealen mathematischen Maschine). Ein Algorithmus beschreibt eine Vorgehensweise in ihren Teilschritten, zu deren Erledigung wiederum Algorithmen benötigt werden. Beispielsweise werden für die Lösung Quadratischer Gleichungen die Grundrechenarten verwendet. Entsprechend wird in Programmen auf Operatoren zurückgegriffen, welche in die Programmiersprache integriert sind, oder auf Programmbibliotheken. Guter Programmcode zeichnet sich dadurch aus, dass der Teil mit dem eigentlichen Algorithmus kompakt und nachvollziehbar bleibt, während nebensächliche Details in Unterprogramme ausgliedert sind (Modularisierung). Algorithmen können in Programmablaufplänen nach DIN 66001 oder ISO 5807 grafisch dargestellt werden. Erster Computeralgorithmus Der erste für einen Computer gedachte Algorithmus (zur Berechnung von Bernoullizahlen) wurde 1843 von Ada Lovelace in ihren Notizen zu Charles Babbages Analytical Engine festgehalten. Sie gilt deshalb als die erste Programmiererin. Weil Charles Babbage seine nicht vollenden konnte, wurde Ada Lovelaces Algorithmus nie darauf implementiert. Heutige Situation Algorithmen für Computer sind heute so vielfältig wie die Anwendungen, die sie ermöglichen sollen. Vom elektronischen Steuergerät für den Einsatz im Kfz über die Rechtschreib- und Satzbau-Kontrolle in einer Textverarbeitung bis hin zur Analyse von Aktienmärkten finden sich tausende von Algorithmen. Hinsichtlich der Ideen und Grundsätze, die einem Computerprogramm zugrunde liegen, wird einem Algorithmus in der Regel urheberrechtlicher Schutz versagt. Je nach nationaler Ausgestaltung der Immaterialgüterrechte sind Algorithmen der Informatik jedoch dem Patentschutz zugänglich, so dass urheberrechtlich freie individuelle Werke, als Ergebnis eigener geistiger Schöpfung, wirtschaftlich trotzdem nicht immer frei verwertet werden können. Dies betrifft oder betraf z. B. Algorithmen, die auf der Mathematik der Hough-Transformation (Jahrzehnte alt, aber mehrfach aktualisiertes Konzept mit Neu-Anmeldung) aufbauen, Programme, die das Bildformat GIF lesen und schreiben wollten, oder auch Programme im Bereich der Audio- und Video-Verarbeitung, da die zugehörigen Algorithmen, wie sie in den zugehörigen Codecs umgesetzt sind, oftmals nicht frei verfügbar sind. Die entsprechenden Einsparpotentiale für alle Anwender weltweit (für den Rete-Algorithmus wurde einst eine Million USD auf DEC XCON genannt) dürften heute problemlos die Grenze von einer Milliarde USD im Jahr um ein Zigfaches überschreiten. Populärer Gebrauch des Begriffs Der Begriff des Algorithmus hat seit etwa 2015 im Kontext des Online-Marketing Einzug in die Presse- und Alltagssprache gehalten. Algorithmen bestimmen insbesondere bei werbefinanzierten Angeboten, welche Inhalte und welche Werbeanzeigen dem Anwender gezeigt werden. Ziel dieser Algorithmen ist es, den Anwender lange auf der jeweiligen Plattform zu halten und ihm solche Anzeigen einzublenden, bei denen die Wahrscheinlichkeit eines Klicks am höchsten ist. Der Begriff „Algorithmus“ fällt auch allgemein, wenn eine Software nach unbekannten, aber offensichtlich komplexen Regeln entscheidet. Beispielsweise, welche Ergebnisse von einer Suchmaschine angezeigt werden. Dabei schwingt häufig ein gewisses Unbehagen mit, eben weil der Algorithmus nicht transparent ist. In der Diskussion nicht scharf davon abgegrenzt ist der Begriff „Künstliche Intelligenz“. Sie bedient sich ebenfalls Algorithmen zur Lösung vorgegebener Probleme. Von künstlicher Intelligenz wird aber im Allgemeinen nur gesprochen, wenn zusätzlich auf einen Vorrat zuvor erlernten Wissens zugegriffen wird, wobei in der Lernphase charakteristische Muster identifiziert und eingeordnet werden. Mit einer passenden Wissensbasis ist es geeigneten Algorithmen beispielsweise möglich, natürliche geschriebene und gesprochene Sprache zu verarbeiten, Gesichter oder beliebige Objekte zu identifizieren, oder Texte zu formulieren. Abgrenzung zur Heuristik Der Übergang zwischen Algorithmus und Heuristik ist fließend: Eine Heuristik ist eine Methode, aus unvollständigen Eingangsdaten zu möglichst sinnvollen Ergebnissen zu gelangen. Viele heuristische Vorgehensweisen sind selbst exakt definiert und damit Algorithmen. Bei manchen ist jedoch nicht in jedem Schritt genau festgelegt, wie vorzugehen ist – der Anwender muss „günstig raten“. Sie können nicht (vollständig) als Algorithmus formuliert werden. Eigenschaften Determiniertheit Ein Algorithmus ist determiniert, wenn dieser bei jeder Ausführung mit gleichen Startbedingungen und Eingaben gleiche Ergebnisse liefert. Determinismus Ein Algorithmus ist deterministisch, wenn zu jedem Zeitpunkt der Algorithmusausführung der nächste Handlungsschritt eindeutig definiert ist. Wenn an mindestens einer Stelle mehr als eine Möglichkeit besteht (ohne Vorgabe, welche zu wählen ist), dann ist der gesamte Algorithmus nichtdeterministisch. Beispiele für deterministische Algorithmen sind Bubblesort und der euklidische Algorithmus. Dabei gilt, dass jeder deterministische Algorithmus determiniert ist, während aber nicht jeder determinierte Algorithmus deterministisch ist. So ist Quicksort mit zufälliger Wahl des Pivotelements ein Beispiel für einen determinierten, aber nicht deterministischen Algorithmus, da sein Ergebnis bei gleicher Eingabe und eindeutiger Sortierung immer dasselbe ist, der Weg dorthin jedoch zufällig erfolgt. Nichtdeterministische Algorithmen können im Allgemeinen mit keiner realen Maschine (auch nicht mit Quantencomputern) direkt umgesetzt werden. Beispiel für einen nichtdeterministischen Algorithmus wäre ein Kochrezept, das mehrere Varianten beschreibt. Es bleibt dem Koch überlassen, welche er durchführen möchte. Auch das Laufen durch einen Irrgarten lässt an jeder Verzweigung mehrere Möglichkeiten, und neben vielen Sackgassen können mehrere Wege zum Ausgang führen. Finitheit Statische Finitheit Die Beschreibung des Algorithmus besitzt eine endliche Länge, der Quelltext muss also aus einer begrenzten Anzahl von Zeichen bestehen. Dynamische Finitheit Ein Algorithmus darf zu jedem Zeitpunkt seiner Ausführung nur begrenzt viel Speicherplatz benötigen. Terminiertheit Ein Algorithmus ‚terminiert überall‘ oder ‚ist terminierend‘, wenn er nach endlich vielen Schritten anhält (oder kontrolliert abbricht) – für jede mögliche Eingabe. Ein nicht-terminierender Algorithmus (somit zu keinem Ergebnis kommend) gerät (für manche Eingaben) in eine so genannte Endlosschleife. Für manche Abläufe ist ein nicht-terminierendes Verhalten gewünscht, z. B. Steuerungssysteme, Betriebssysteme und Programme, die auf Interaktion mit dem Benutzer aufbauen. Solange der Benutzer keinen Befehl zum Beenden eingibt, laufen diese Programme beabsichtigt endlos weiter. Donald E. Knuth schlägt in diesem Zusammenhang vor, nicht terminierende Algorithmen als rechnergestützte Methoden (Computational Methods) zu bezeichnen. Darüber hinaus ist die Terminierung eines Algorithmus (das Halteproblem) nicht entscheidbar. Das heißt, das Problem, festzustellen, ob ein (beliebiger) Algorithmus mit einer beliebigen Eingabe terminiert, ist nicht durch einen Algorithmus lösbar. Effektivität Der Effekt jeder Anweisung eines Algorithmus muss eindeutig festgelegt sein. Beispiele für (weitere) Eigenschaften von Algorithmen Einfache Grundoperation: „Öffne die Flasche Wein.“ – Hierbei wird das Wissen um das Öffnen vorausgesetzt. Sequentieller Algorithmus: „Bier auf Wein, lass' das sein.“ – Beiden Operationen ist eine Reihenfolge vorgegeben. Nebenläufiger Algorithmus: „Getrunken wird Apfelsaft und Sprudel.“ – Die Reihenfolge ist nicht vorgegeben und kann auch gleichzeitig erfolgen. Parallele Ausführung: „Mit Sekt anstoßen“ – dies kann nur gleichzeitig (parallel) ausgeführt werden und nicht hintereinander (sequentiell). Nichtdeterministischer/nichtdeterminierter Algorithmus: „Füge dem Teig 200 ml Bier oder Wasser hinzu.“ – Das Ergebnis kann sich unterscheiden, je nachdem welche Alternative man wählt. Algorithmenanalyse Die Erforschung und Analyse von Algorithmen ist eine Hauptaufgabe der Informatik und wird meist theoretisch (ohne konkrete Umsetzung in eine Programmiersprache) durchgeführt. Sie ähnelt somit dem Vorgehen in manchen mathematischen Gebieten, in denen die Analyse eher auf die zugrunde liegenden Konzepte als auf konkrete Umsetzungen ausgerichtet ist. Algorithmen werden zur Analyse in eine stark formalisierte Form gebracht und mit den Mitteln der formalen Semantik untersucht. Die Analyse unterteilt sich in verschiedene Teilgebiete: Beispielsweise wird das Verhalten von Algorithmen bezüglich Ressourcenbedarf wie Rechenzeit und Speicherbedarf in der Komplexitätstheorie behandelt; die Ergebnisse werden meist asymptotisch (z. B. als asymptotische Laufzeit) angegeben. Der Ressourcenbedarf wird dabei im Allgemeinen in Abhängigkeit von der Länge der Eingabe ermittelt, das heißt, der Ressourcenbedarf hängt meist davon ab, wie viele Eingabewerte verarbeitet werden müssen, „wie ‚groß‘ die Eingabe(menge) ist“. Das Verhalten bezüglich der Terminierung, ob also der Algorithmus überhaupt jemals erfolgreich beendet werden kann, behandelt die Berechenbarkeitstheorie. Typen und Beispiele Der älteste bekannte nicht-triviale Algorithmus ist der euklidische Algorithmus. Spezielle Algorithmus-Typen sind der randomisierte Algorithmus (mit Zufallskomponente), der Approximationsalgorithmus (als Annäherungsverfahren), die evolutionären Algorithmen (nach biologischem Vorbild) und der Greedy-Algorithmus. Eine weitere Übersicht geben die Liste von Algorithmen und die Kategorie Algorithmus. Alltagsformen von Algorithmen Rechenvorschriften sind eine Untergruppe der Algorithmen. Sie beschreiben Handlungsanweisungen in der Mathematik bezüglich Zahlen. Andere Algorithmen-Untergruppen sind z. B. (Koch-)Rezepte, Gesetze, Regeln, Verträge, Montage-Anleitungen. Wortherkunft Das Wort Algorithmus ist eine Abwandlung oder Verballhornung des Namens des persischen Rechenmeisters und Astronomen Abu Dschaʿfar Muhammad ibn Musa al-Chwārizmī, dessen Namensbestandteil (Nisba) al-Chwarizmi „der Choresmier“ bedeutet und auf die Herkunft des Trägers aus Choresmien verweist. Er baute auf die Arbeit des aus dem 7. Jahrhundert stammenden indischen Mathematikers Brahmagupta. Die ursprüngliche Bedeutung war das Einhalten der arithmetischen Regeln unter Verwendung der indisch-arabischen Ziffern. Die ursprüngliche Definition entwickelte sich mit Übersetzung ins Lateinische weiter. Sein Lehrbuch Über die indischen Ziffern (verfasst um 825 im Haus der Weisheit in Bagdad) wurde im 12. Jahrhundert aus dem Arabischen ins Lateinische übersetzt und hierdurch in der westlichen Welt neben Leonardo Pisanos Liber Abaci zur wichtigsten Quelle für die Kenntnis und Verbreitung des indisch-arabischen Zahlensystems und des schriftlichen Rechnens. Mit der lateinischen Übersetzung al-Chwārizmī wurde auch der Name des Verfassers in Anlehnung an die Anfangsworte der ältesten Fassung dieser Übersetzung (Dixit Algorismi „Algorismi hat gesagt“) latinisiert. Aus al-Chwārizmī wurde mittelhochdeutsch algorismus, alchorismus oder algoarismus – ein Wort, das aus dem Lateinischen nahezu zeitgleich und gleichlautend ins Altfranzösische (algorisme, argorisme) und Mittelenglische (augrim, augrym) übersetzt wurde. Mit Algorismus bezeichnete man bis um 1600 Lehrbücher, die in den Gebrauch der Fingerzahlen, der Rechenbretter, der Null, die indisch-arabischen Zahlen und das schriftliche Rechnen einführen. Das schriftliche Rechnen setzte sich dabei erst allmählich durch. So beschreibt etwa der englische Dichter Geoffrey Chaucer noch Ende des 14. Jahrhunderts in seinen Canterbury Tales einen Astrologen, der Steine zum Rechnen (augrym stones) am Kopfende seines Betts aufbewahrt: This clerk was cleped hende Nicholas. / His augrym stones layen faire apart, / On shelves couched at his beddes heed; In der mittelalterlichen Überlieferung wurde das Wort bald als erklärungsbedürftig empfunden und dann seit dem 13. Jahrhundert zumeist als Zusammensetzung aus einem Personennamen Algus und aus einem aus dem griechischen (Nebenform von ) in der Bedeutung „Zahl“ entlehnten Wortbestandteil -rismus interpretiert. Algus, der vermutete Erfinder dieser Rechenkunst, wurde hierbei von einigen als Araber, von anderen als Grieche oder zumindest griechisch schreibender Autor, gelegentlich auch als „König von Kastilien“ (Johannes von Norfolk) betrachtet. In der volkssprachlichen Tradition erscheint dieser „Meister Algus“ dann zuweilen in einer Reihe mit großen antiken Denkern wie Platon, Aristoteles und Euklid, so im altfranzösischen Roman de la Rose, während das altitalienische Gedicht Il Fiore ihn sogar mit dem Erbauer des Schiffes Argo gleichsetzt, mit dem Jason sich auf die Suche nach dem Goldenen Vlies begab. Auf der para-etymologischen Gräzisierung des zweiten Bestandteils -rismus auf griech. , beruht dann auch die lateinische Wortform algorithmus, die seit der Frühen Neuzeit, anfangs auch mit der Schreibvariante algorythmus, größere Verbreitung erlangte und zuletzt die heute übliche Wortbedeutung als Fachterminus für geregelte Prozeduren zur Lösung definierter Probleme annahm. Geschichte des Algorithmus Geschichtliche Entwicklung Schon mit der Entwicklung der Sprache ersannen die Menschen für ihr Zusammenleben in größeren Gruppen Verhaltensregeln, Gebote, Gesetze – einfachste Algorithmen. Mit der Sprache ist auch eine geeignete Möglichkeit gegeben, Verfahren und Fertigkeiten weiterzugeben – komplexere Algorithmen. Aus der Spezialisierung einzelner Gruppenmitglieder auf bestimmte Fertigkeiten entstanden die ersten Berufe. Der Algorithmusbegriff als abstrakte Sicht auf Aufgabenlösungswege trat zuerst im Rahmen der Mathematik, Logik und Philosophie ins Bewusstsein der Menschen. Ein Beispiel für einen mathematischen Algorithmus aus dem Altertum ist der Euklidische Algorithmus. Antikes Griechenland Obwohl der etymologische Ursprung des Wortes arabisch ist, entstanden die ersten Algorithmen im antiken Griechenland. Zu den wichtigsten Beispielen gehören das Sieb des Eratosthenes zum Auffinden von Primzahlen, welches im Buch Einführung in die Arithmetik von Nikomachos beschrieben wurde und der euklidische Algorithmus zum Berechnen des größten gemeinsamen Teilers zweier natürlicher Zahlen aus dem Werk „die Elemente“. Einer der ältesten Algorithmen, die sich mit einer reellen Zahl beschäftigen, ist der Algorithmus des Archimedes zur Approximation von , was zugleich auch eines der ältesten numerischen Verfahren ist. Mathematik im 19. und 20. Jahrhundert Bedeutende Arbeit leisteten die Logiker des 19. Jahrhunderts. George Boole, der in seiner Schrift The Mathematical Analysis of Logic den ersten algebraischen Logikkalkül erschuf, begründete damit die moderne mathematische Logik, die sich von der traditionellen philosophischen Logik durch eine konsequente Formalisierung abhebt. Gottlob Frege entwickelte als erster eine formale Sprache und die daraus resultierenden formalen Beweise. Giuseppe Peano reduzierte die Arithmetik auf eine Sequenz von Symbolen manipuliert von Symbolen. Er beschäftigte sich mit der Axiomatik der natürlichen Zahlen. Dabei entstanden die Peano-Axiome. Die Arbeit von Frege wurde stark von Alfred North Whitehead und Bertrand Russell in ihrem Werk Principia Mathematica weiter ausgearbeitet und vereinfacht. Zuvor wurde von Bertrand Russell die berühmte russellsche Antinomie formuliert, was zum Einsturz der naiven Mengenlehre führte. Das Resultat führte auch zur Arbeit Kurt Gödels. David Hilbert hat um 1928 das Entscheidungsproblem in seinem Forschungsprogramm präzise formuliert. Alan Turing und Alonzo Church haben für das Problem 1936 festgestellt, dass es unlösbar ist. Literatur Thomas H. Cormen, Charles E. Leiserson, Ronald L. Rivest, Clifford Stein: Algorithmen. Eine Einführung. 2., korr. Auflage. Oldenbourg, München/Wien 2007, ISBN 3-486-58262-3. (Originaltitel: Introduction to algorithms. Übersetzt von Karen Lippert, Micaela Krieger-Hauwede).Englischsprachige Originalausgabe: Introduction to Algorithms. 2. Auflage. MIT Press, Cambridge (Massachusetts) 2001, ISBN 0-262-03293-7. Christoph Drösser: Total berechenbar? Wenn Algorithmen für uns entscheiden. Hanser-Verlag, 2016, ISBN 978-3-446-44699-1. Donald E. Knuth: The Art of Computer Programming. Band 1–3. Addison-Wesley, Reading (Mass.) 1998, ISBN 0-201-48541-9. Anany Levitin: Introduction to The Design and Analysis of Algorithms. Addison-Wesley, 2007, ISBN 0-321-36413-9. Thomas Ottmann, Peter Widmayer: Algorithmen und Datenstrukturen. 4. Auflage. Spektrum Akademischer Verlag, Heidelberg 2002, ISBN 3-8274-1029-0. Sebastian Stiller: Planet der Algorithmen – Ein Reiseführer. Knaus-Verlag, 2015. ISBN 978-3-641-16793-6. Jochen Ziegenbalg, Oliver Ziegenbalg und Bernd Ziegenbalg: Zum Begriff des Algorithmus. In: Algorithmen von Hammurapi bis Gödel. 3. Auflage. Frankfurt 2010, ISBN 978-3-8171-1864-9, S. 24–31. Weblinks Tom Schimmeck: Algorithmen im US-Justizsystem: Schicksalsmaschinen. In: deutschlandfunk.de, 20. Juni 2017, Der Algorithmus der Woche (Algorithmen anschaulich erklärt, herausgegeben vom Fakultätentag Informatik) Dictionary of Algorithms and Data Structures des NIST (englisch) Was ist Algorithmik? – Seite beim Fachbereich Informatik der TU Darmstadt Vorlesungsmitschrift Höhere Algorithmik der FU Berlin (PDF; 1,9 MB) Fußnoten
345
https://de.wikipedia.org/wiki/Arabische%20Sprache
Arabische Sprache
Die arabische Sprache (kurz Arabisch; Eigenbezeichnung , kurz , ) ist die am weitesten verbreitete Sprache des semitischen Zweigs der afroasiatischen Sprachfamilie und in ihrer Hochsprachform eine der sechs Amtssprachen der Vereinten Nationen. Schätzungsweise wird Arabisch von 313 Millionen Menschen als Muttersprache und von weiteren 424 Millionen als Zweit- oder Fremdsprache gesprochen. Auch durch seine Rolle als Sakralsprache entwickelte sich das Arabische zur Weltsprache. Die moderne arabische Standardsprache beruht auf dem klassischen Arabischen, der Sprache des Korans und der Dichtung, und unterscheidet sich stark von den gesprochenen Varianten des Arabischen. Aus dem klassischen Arabisch hat sich in den letzten anderthalb Jahrtausenden eine Vielzahl von Dialekten entwickelt. Für alle Sprecher dieser Sprache, außer den Sprechern des Maltesischen, ist Hocharabisch Schrift- und Dachsprache. Das Maltesische ist mit den maghrebinisch-arabischen Dialekten stark verwandt, wurde jedoch im Gegensatz zu den anderen gesprochenen Formen des Arabischen zu einer eigenständigen Standardsprache ausgebaut. Ob Hocharabisch als moderne Standardsprache zu betrachten ist, ist umstritten (siehe auch Ausbausprache). Es fehlt oft an einem einheitlichen Wortschatz für viele Begriffe der modernen Welt sowie am Fachwortschatz in vielen Bereichen moderner Wissenschaften. Darüber hinaus ist Hocharabisch innerhalb der einzelnen arabischen Länder relativ selten ein Mittel zur mündlichen Kommunikation. Die einzelnen arabischen Dialekte in den verschiedenen Ländern unterscheiden sich teilweise sehr stark voneinander, wenn auch meist nur in der Aussprache, und sind bei vorliegender geographischer Distanz gegenseitig nicht oder nur schwer verständlich. So werden beispielsweise algerische Filme, die im dortigen Dialekt gedreht worden sind, zum Teil hocharabisch untertitelt, wenn sie in den Golfstaaten ausgestrahlt werden. Verbreitungsgebiet Varianten des Arabischen werden von etwa 370 Millionen Menschen gesprochen und damit weltweit am sechsthäufigsten verwendet. Es ist Amtssprache in folgenden Ländern: Ägypten, Algerien, Bahrain, Dschibuti, Irak, Jemen, Jordanien, Katar, Komoren, Kuwait, Libanon, Libyen, Mali, Marokko, Mauretanien, Niger, Oman, Palästinensische Autonomiegebiete, Saudi-Arabien, Somalia, Sudan, Syrien, Tschad, Tunesien, Vereinigte Arabische Emirate und Westsahara. Verkehrssprache ist es in Eritrea, Sansibar (Tansania), Südsudan, wird von muslimischen Bevölkerungsteilen in Äthiopien gesprochen und gewinnt auf den Malediven an Bedeutung. Darüber hinaus ist es eine der sechs offiziellen Sprachen der Vereinten Nationen. In allerneuester Zeit gewinnt das gesprochene Hocharabische wieder an Zuspruch. An dieser Entwicklung maßgeblich beteiligt sind die panarabischen Satellitensender, z. B. al-Dschazira in Katar. Allerdings ist Hocharabisch (fuṣḥā) auf allgemeiner Kommunikationsebene nicht vorherrschend, vielmehr bewegen sich die Sprachformen in den Registern der sog. ʾal-luġa ʾal-wusṭā, also als eine „mittlere Sprache“ (Mittelarabisch) zwischen Hocharabisch und Dialekt. Durch die im arabischen Verbreitungsgebiet dominierende ägyptische Film- und Fernsehproduktion (u. a. bedingt durch die Bevölkerungszahl) gilt der gesprochene Kairoer Dialekt in den jeweiligen Gesellschaften gemeinhin als verständlich, ist sozusagen „gemeinsprachlich“ etabliert. Gewöhnliche Filme auf Hocharabisch zu drehen, ist eher unüblich, da diese Sprachnorm generell ernsteren Themen vorbehalten ist, wie sie z. B. in Fernseh- und Rundfunknachrichten, religiösen Sendungen oder Gottesdiensten vorkommen. Auf dem Power Language Index von Kai L. Chan belegt die Arabische Hochsprache den fünften Platz der mächtigsten Sprachen der Welt. Klassifikation Das klassische Hocharabisch unterscheidet sich nur geringfügig von der altarabischen Sprache. Durch Vergleiche verschiedener semitischer Sprachen lässt sich oft die Herkunft eines Wortes ermitteln. Beispielsweise entspricht das arabische Wort laḥm (Fleisch) dem hebräischen lechem, das jedoch Brot bedeutet. So bedeutet Bethlehem im Hebräischen Haus des Brotes, die entsprechende arabische Ortsbezeichnung Bayt Laḥm hingegen Haus des Fleisches. Die Wortwurzel bezeichnet somit ursprünglich ein Grundnahrungsmittel. Lange betrachteten viele Semitisten das klassische Arabisch als die ursprünglichste semitische Sprache überhaupt. Erst allmählich stellt sich durch Vergleiche mit anderen afro-asiatischen Sprachen heraus, dass Hocharabisch viele Möglichkeiten konsequent ausgebaut hat, die in der Grammatik früherer semitischen Sprachen bereits angelegt waren. So hat es einen umfangreichen semitischen Wortschatz bewahrt und ihn darüber hinaus erweitert. Die heutigen Dialekte waren vielen Veränderungen unterworfen, wie sie andere semitische Sprachen schon sehr viel früher (vor etwa 2000 bis 3000 Jahren) erfahren hatten. Geschichte Schon im vorislamischen Arabien existierte eine reichhaltige Dichtersprache, die in Gedichtsammlungen wie den Mu'allaqat auch schriftlich überliefert ist. Auf dieser Dichtersprache fußt zum Teil das Arabische des Korans, das immer noch altertümlich geprägt ist und einen synthetischen Sprachbau aufweist. Wohl erst nachträglich hat man den Konsonantentext des Korans durch Zusatzzeichen für neue nichtarabische Muslime lesbarer gemacht. In frühislamischer Zeit wurden viele Gedichte dieser Sprache schriftlich festgehalten. Bis heute ist das Auswendiglernen von Texten ein wichtiger Bestandteil der islamischen Kultur. So werden bis heute Menschen sehr geachtet, die den gesamten Koran auswendig vortragen können (Hāfiz/Ḥāfiẓ). Dies ist ein Grund, warum Koranschulen in der muslimischen Welt (insbesondere Pakistan) weiter einen regen Zustrom erfahren. Das klassische Hocharabisch ist insbesondere die Sprache des Korans, die sich aus dem Zentrum der arabischen Halbinsel, dem Hedschas, im Zuge der islamischen Eroberungen über den ganzen Vorderen Orient verbreitete. Kalif Abd al-Malik, der Erbauer des Felsendoms in Jerusalem, erhob um 700 diese Form des Arabischen zur offiziellen Verwaltungssprache des islamischen Reiches. Die islamische Expansion führte zur Aufspaltung des Arabischen in eine klassische, auf dem Koran beruhende Schriftsprache, und in die lexikalisch und grammatisch untereinander sehr unterschiedlichen arabischen Dialekte, die einen analytischen Sprachbau aufweisen und ausschließlich dem mündlichen Gebrauch vorbehalten sind. Bis heute wird jede neue Generation von Arabischsprechern in diese Diglossie hineingeboren. Hocharabisch wird heute als Muttersprache kaum mehr gesprochen. Doch wird es, lediglich mit Wortschatzänderungen, schriftlich mittels Bücher und Zeitungen noch benutzt (außer in Tunesien, Marokko und in etwas geringerem Maße in Algerien, wo sich das Arabische diese Rolle mit dem Französischen teilt). Im wissenschaftlich-technischen Bereich wird in den anderen arabischen Ländern aus Mangel an spezifischem Fachwortschatz neben Französisch oft auch Englisch gebraucht. Bei offiziellen Anlässen wird die in der Regel nur geschriebene Sprache auch verbal verwendet. Diese Sprache wird deshalb häufig als modernes Hocharabisch bezeichnet. Sie unterscheidet sich vom klassischen Hocharabisch vor allem in Wortschatz und je nach Bildungsgrad des Sprechers teilweise auch in Grammatik und Aussprache. Siehe auch: Arabische Literatur. Phonologie Das hocharabische Lautsystem ist wenig ausgeglichen. Es gibt nur drei mit den Lippen gebildete Laute, , und ; und fehlen. Dagegen gibt es sehr viele an den Zähnen gebildete Laute. Charakteristisch sind die emphatischen (pharyngalisierten) Konsonanten [], [], [] und [] (angegeben ist die IPA-Lautschrift). Der kehlige, raue Lauteindruck des Arabischen entsteht durch die zahlreichen Gaumen- und Kehllaute wie dem tief in der Kehle gesprochenen oder dem Kehlkopf-Presslaut („ʿAin“) und dessen stimmloser Variante („Ḥā'“). Der Knacklaut („Hamza“) ist ein vollwertiges Phonem. Vokale Im Hocharabischen existieren nur die drei Vokale a, i und u, die jeweils kurz oder lang sein können, sowie die zwei Diphthonge ai und au. Die Aussprache der Vokale wird von den umgebenden Konsonanten beeinflusst und variiert stark. Beispielsweise sind , und mögliche Allophone des Phonems /a/. Konsonanten Das Hocharabische verfügt über 28 Konsonantenphoneme. Die Halbvokale und werden in der Grammatiktradition der westlichen Arabistik als „konsonantische Vokale“ gezählt. Alle Konsonanten können geminiert (verdoppelt) vorkommen. 1) Die velarisierte („dunkle“) Variante existiert als eigenständiges Phonem nur im Wort Allah []. Sie tritt ansonsten in manchen Dialekten als Allophon von in der Umgebung von emphatischen Konsonanten auf, z. B. sulṭān [], im Standard jedoch nicht. Silbenstruktur Im klassischen Arabischen gibt es offene bzw. kurze Silben der Form KV und geschlossene bzw. lange Silben der Form KV̅ oder KVK (K steht für einen Konsonanten, V für einen Kurzvokal, V̅ für einen Langvokal). Nach dem Langvokal ā und nach ay kann auch ein verdoppelter Konsonant stehen und eine überlange Silbe KV̅K verursachen (z. B. dābba „Tier“). Im modernen Hocharabischen ändert sich die Silbenstruktur, weil die klassischen Endungen meist weggelassen werden. Dadurch sind am Wortende neben den langen auch überlange Silben der Form KV̅K und KVKK möglich (z. B. bāb, aus bābun „Tür“ oder šams, aus šamsun „Sonne“). Da eine Silbe nur mit einem einzelnen Konsonanten beginnt, können am Wortanfang keine Konsonantenverbindungen stehen. Bei älteren Lehnwörtern werden anlautende Konsonantenverbindungen durch einen vorangesetzten Hilfsvokal beseitigt (z. B. usṭūl „Flotte“, aus ). Bei neueren Lehnwörtern wird ein Vokal zwischen die anlautenden Konsonanten geschoben (z. B. faransā „Frankreich“, während frühere Entlehnungen von „Franken“ als ʾifranǧ wiedergegeben wurden). Betonung Da die arabische Schrift die Betonung nicht notiert und die mittelalterlichen Grammatiker sich zur Betonung an keiner Stelle geäußert haben, kann man strenggenommen keine sicheren Aussagen über die Betonung des historischen klassischen Arabisch machen. Diesbezügliche Empfehlungen in Lehrbüchern beruhen auf der Betonung, die von modernen Sprechern auf das klassische Arabisch angewandt wird, wobei man sich in Europa gewöhnlich an den Aussprachegewohnheiten im Raum Libanon/Syrien orientiert. In Gebieten wie z. B. Marokko oder Ägypten werden klassisch-arabische Texte mit durchaus anderer Betonung gelesen. Nach der üblichen Auffassung ist die Wortbetonung im Arabischen nicht bedeutungsunterscheidend und auch zum Teil nicht genau festgelegt. Generell ziehen lange Silben den Ton auf sich. Für das klassische Arabisch gilt, dass die Betonung auf der vor- oder drittletzten Silbe liegen kann. Die vorletzte Silbe wird betont, wenn sie geschlossen bzw. lang ist (z. B. faʿáltu „ich tat“); ansonsten wird die drittletzte Silbe betont (z. B. fáʿala „er tat“). Im modernen Hocharabischen kann durch den Ausfall der klassischen Endungen auch die letzte Silbe betont werden (z. B. kitā́b, aus kitā́bun „Buch“). Teilweise verschiebt sich die Betonung weiter nach vorne (z. B. mádrasa statt madrásatun „Schule“; die in Ägypten übliche Aussprache dieses Wortes ist aber z. B. madrása, in Marokko hört man madrasá). Das marokkanische Arabisch ist im Gegensatz zum klassischen Arabisch und zu den anderen modernen Dialekten eine Tonsprache. Dialektale Variation Die Phonologie der neuarabischen Dialekte unterscheidet sich stark von der des klassischen Arabischen und des modernen Hocharabischen. Die i und u werden teils als und gesprochen. Die meisten Dialekte monophthongisieren ay und aw zu [] und [], wodurch die Dialekte über fünf statt drei Vokalphoneme verfügen. Kurze Vokale werden oft zum Schwa reduziert oder fallen völlig aus. Dadurch sind in manchen Dialekten auch Konsonantenhäufungen am Wortanfang möglich. Beispiel: für baḥr: bḥar (Meer); für laḥm: lḥam (Fleisch) im tunesischen Dialekt, wobei die geöffnete bzw. geschlossene Silbe ausgetauscht wird. Die Dialekte haben zum Teil Konsonanten des Hocharabischen verloren, zum Teil haben sie auch neue Phoneme entwickelt. Die Laute [] und [] fallen in nahezu sämtlichen Dialekten zu einem Phonem zusammen, dessen Aussprache regional variiert. Der Laut hat in einigen Dialekten seinen Phonemstatus verloren, in vielen anderen Dialekten ersetzt er das Qāf. Vor allem in Stadt-Dialekten, jedoch auch in Bauern-Dialekten sind und zu und geworden, in Beduinen-Dialekten werden sie meist noch unterschieden. Bei Buchwörtern aus dem Hocharabischen werden sie aber als und ausgesprochen. Das hocharabische wird auf unterschiedliche Arten realisiert, unter anderem in Ägypten als und in Teilen Nordafrikas und der Levante als . Das hocharabische wird in Teilen Ägyptens und der Levante als gesprochen, in einigen anderen Dialekten hat es sich zu entwickelt. Oft wird jedoch die Aussprache bei Wörtern aus dem Hocharabischen beibehalten, so dass die Phoneme und parallel existieren. Einige Dialekte haben durch Lehnwörter aus anderen Sprachen fremde Phoneme übernommen, z. B. die Maghreb-Dialekte den Laut aus dem Französischen oder das Irakisch-Arabische den Laut aus dem Persischen. Schrift Geschrieben wird das Arabische von rechts nach links mit dem arabischen Alphabet, das nur Konsonanten und Langvokale kennt. Es gibt allerdings als Lern- und Lesehilfe ein nachträglich hinzugefügtes System mit Kennzeichen (Taschkīl) für die Kurzvokale A, I und U, und das in der klassischen Grammatik wichtige End-N, Konsonantenverdopplungen und Konsonanten ohne nachfolgenden Vokal. Der Koran wird immer mit allen Zusatzzeichen geschrieben und gedruckt. Grundsätzlich wäre das vokalisierte und mit Zusatzzeichen versehene Schriftarabisch gleichzeitig eine präzise Lautschrift, diese wird jedoch fast nur für den Koran genutzt. Bei allen anderen Texten muss die grammatische Struktur vollständig bekannt sein, um korrekt auf die zutreffenden Kurzvokale und Endungen schließen zu können. Die arabische Schrift ist eine Kurrentschrift, die sich im Laufe der Geschichte verschliffen hat. Da die Buchstaben in einem Wort verbunden werden, gibt es bis zu vier verschiedene Formen eines Buchstabens: allein stehend, nach rechts verbunden, nach links verbunden und beidseitig verbunden. Als immer mehr Buchstaben in der Gestalt zusammenfielen, entwickelte man ein System, diese durch Punkte über und unter den Konsonanten zu unterscheiden. Alte Formen der arabischen Schrift, wie Kufi (), benutzen noch keine Punkte. Im Laufe der Zeit wurde Kufi mehr und mehr durch die Kursive Naschī () ersetzt. Aussprache In vielen islamischen Ländern gibt es Bestrebungen, sich bei der Aussprache der modernen Hochsprache am klassischen Hocharabisch zu orientieren. Grundlage dabei ist meistens der Aussprachestandard der Koranrezitation (ar. tilāwa ), die weitgehend kodifiziert ist und in modernen Korandrucken auch durch Diakritika wiedergegeben wird. Diese Ausspracheform genießt ein hohes Prestige, wird allerdings in der Regel nur im religiösen Kontext verwendet. Die frühere Aussprache des Hocharabischen ist nicht mit Sicherheit in allen Einzelheiten bekannt. Ein typischer Fall, in dem bis heute keine völlige Klarheit über die Aussprachenormen des klassischen Hocharabisch besteht, ist die so genannte Nunation, also die Frage, ob die Kasusendungen bei den meisten unbestimmten Nomina auf n auslauten oder nicht (kitābun oder kitāb). Für beide Varianten lassen sich Argumente finden, und da in alten Handschriften das Vokalzeichen der Endung nicht geschrieben wurde, bleibt diese Frage strittig. Grammatik Der Artikel Das Arabische kennt indeterminierte (unbestimmte) und determinierte (bestimmte) Nomina, die sich in der Hochsprache (nicht mehr im Dialekt) durch ihre Endungen unterscheiden. Indeterminierte Nomina erhalten, sofern sie nicht diptotisch flektiert werden (siehe unter Kasus), die Nunation. Determiniert wird ein Nomen vor allem durch den vorangestellten Artikel al- (, dialektal oft el- oder il-), welcher in seiner Form zwar unveränderlich ist, aber nach einem Vokal im Satzinneren ohne Stimmabsatz (Hamza) gesprochen wird (siehe Wasla). Außerdem kommt es (beim Sprechen) zu einer Assimilation des im Artikel enthaltenen l an den nachfolgenden Laut, wenn es sich bei diesem um einen sogenannten Sonnenbuchstaben handelt (Bsp.: asch-schams – „die Sonne“ – statt al-schams). Bei Mondbuchstaben bleibt der Artikel al- und der nachfolgende Laut wird nicht verdoppelt (Bsp.: al-qamar – „der Mond“ – in diesem Fall keine Assimilation). Determiniert ist ein Wort auch im Status constructus (, wörtl. „Hinzufügung, Annexion“) durch einen nachfolgenden (determinierten) Genitiv oder ein angehängtes Personalsuffix; ferner sind auch viele Eigennamen (z. B. , Lubnan – Libanon) ohne Artikel determiniert. Ein Beispiel: , al-qamar(u) – „der Mond“ im Gegensatz zu , qamar(un) – „ein Mond“ Das Genus Im Arabischen gibt es zwei Genera (Geschlechter): das Femininum (weiblich) und das Maskulinum (männlich). Die meisten weiblichen Wörter enden auf a, das – so es sich um ein Tā' marbūta handelt – im Status constructus zu at wird. Weibliche Personen (Mutter, Schwester etc.), die meisten Eigennamen von Ländern und Städten sowie die Namen doppelt vorhandener Körperteile (Fuß – qadam; Hand – yad; Auge -ʿayn) sind auch ohne weibliche Endung weiblich. Das Gleiche gilt für einige weitere Substantive wie z. B. die Wörter für „Wind“ (rīḥ), „Feuer“ (nār), „Erde“ (arḍ) oder „Markt“ (sūq). Beispiele: Maskulinum: (qamar-un) „ein Mond“ Femininum: (luġa-tun) „eine Sprache“ Der Numerus Es gibt drei Numeri: Singular (Einzahl), Dual (Zweizahl) und Plural (Mehrzahl). Im ägyptischen Dialekt wurde jedoch der Dual größtenteils abgeschafft. Auf der anderen Seite haben einige Substantive für Zeiteinheiten nicht nur den Dual bewahrt, sondern als vierten Numerus noch einen gesonderten Zählplural ausgebildet, z. B. „Tag“: Singular yōm, Dual yōmēn, Plural ayyām, Plural nach Zahlwörtern tiyyām. Das Kollektivum Das Arabische kennt auch ein Kollektivum, das u. a. bei Obst- und Gemüsesorten vorkommt. Ein Beispiel hierfür ist ; um den Singular eines Kollektivums zu bilden, wird ein Tā' marbūta angehängt: . Der Kasus Man unterscheidet drei Fälle: Nominativ (al-marfūʿ; auf -u endend), Genitiv (al-maǧrūr; auf -i endend) und Akkusativ (al-manṣūb; auf -a endend), die meist durch die kurzen Vokale der Wortendungen (im Schriftbild durch orthographische Hilfszeichen) markiert werden. Die meisten Nomina werden triptotisch flektiert, d. h., sie weisen den drei Kasus entsprechend drei unterschiedliche Endungen auf (determiniert: -u, -i, -a; indeterminiert: -un, -in, -an). Daneben gibt es Diptota – Nomina, bei denen die Genitivendung im Status indeterminatus gleich der Akkusativendung -a lautet (die beiden Kasus werden formal nicht unterschieden) und die keine Nunation haben (-u, -a, -a). Diptotisch flektiert werden vor allem Adjektive der Grundform afʿal (darunter Farbadjektive wie aḥmar-u, aḥmar-a – rot) und bestimmte Pluralstrukturen (wie faʿāʾil, Bsp.: rasāʾil-u, rasāʾil-a – Briefe). Der Genitiv folgt beispielsweise immer nach Präpositionen (z. B. fi ’l-kitābi – in dem Buch) und in einer Genitivverbindung auf das Nomen regens (Bsp.: baitu ’r-raǧuli – das Haus des Mannes). Die arabische Sprache unterscheidet nicht wie das Deutsche zwischen einem direkten (Akkusativ-)Objekt und einem indirekten (Dativ-)Objekt. Stattdessen kann die Konstruktion aus Präposition und Genitiv im Deutschen häufig mit dem Dativ wiedergegeben werden. Beispiel: fi ’l- baiti – in dem Haus Das Verb Die wirkliche Komplexität der arabischen Sprache liegt in der Vielfalt ihrer Verbalformen und der daraus abgeleiteten Verbalsubstantive, Adjektive, Adverbien und Partizipien. Jedes arabische Verb verfügt mit dem Perfekt und dem Imperfekt zunächst über zwei Grundformen, von denen erstere eine vollendete Handlung in der Vergangenheit ausdrückt (Beispiel: kataba – er schrieb/hat geschrieben), letztere hingegen eine unvollendete im Präsens oder Futur (yaktubu – er schreibt/wird schreiben). Das Futur (I) kann aber auch durch Anhängen des Präfixes sa- oder durch die Partikel saufa vor dem Imperfekt gebildet werden (sayaktubu/saufa yaktubu – er wird schreiben). Zudem kennt das Arabische gleichfalls eine Art Verlaufsform der Vergangenheit (kāna yaktubu – er pflegte zu schreiben) und die beiden Zeitstufen Futur II (yakūnu qad kataba – er wird geschrieben haben) und Plusquamperfekt (kāna qad kataba – er hatte geschrieben), die allerdings in erster Linie in geschriebenen Texten vorkommen. Das Imperfekt gliedert sich in die Modi Indikativ (yaktubu), Konjunktiv (yaktuba), Apokopat (yaktub) und Energikus (yaktubanna oder yaktuban). Der Konjunktiv kommt u. a. nach Modalverben (z. B. arāda – wollen) im Zusammenhang mit ʾan (dass) oder als negierte Form des Futurs mit der Partikel lan (lan yaktuba – er wird nicht schreiben) vor. Der Apokopat wird zumeist als Verneinung der Vergangenheit zusammen mit der Partikel lam verwendet (lam yaktub – er schrieb nicht). Der Energikus kann häufig mit der Konstruktion fa+l(i) gebildet werden ((fal-)yaktubanna- er soll/ muss schreiben). Eine weitere wichtige Form ist das Verbalsubstantiv (kitābatun – das Schreiben). Die Bildung der Verbalsubstantive erfolgt bis auf den Grundstamm nach einem festen Schema, d. h., die Verbalsubstantive der Stämme II – X lassen sich bis auf wenige Ausnahmen nach bestimmten Stammbildungsmorphemen ableiten (Bsp.: tafʿīl für den II. Stamm, mufāʿala/fiʿāl für den III. Stamm usw.). Bsp.: nāqaša (III) – diskutieren → munāqaša/niqāš – Dialog; Diskussion Viele Verben existieren in mehreren von insgesamt 15, durch Umbildung der Wurzel abgeleiteten Stämmen, die jeweils bestimmte Bedeutungsaspekte (z. B. intensivierend, kausativ, denominativ, aktiv oder passiv, transitiv oder intransitiv, reflexiv oder reziprok) haben können. Von diesen 15 Stämmen werden in der heutigen arabischen Schriftsprache allerdings nur neun regelmäßig verwendet, die Stämme IX und XI–XV kommen nur selten vor. Der 9. Stamm wird hauptsächlich verwendet, um die Verben für Farben bzw. körperliche Eigenschaften zu bezeichnen: iḥmarra (von aḥmar) – „erröten“, „rot werden“ iḥwalla (von aḥwal) – „schielen“ Die Übersetzung der Verben der Stämme II – X kann teilweise durch bestimmte Regeln erfolgen. Bei der Ableitung eines Verbs vom Grundstamm kann z. B. der 3. Stamm eine Tätigkeit bezeichnen, die mit oder durch eine Person geschieht, während der 7. Stamm oft ein Passiv ausdrückt: kātaba (III) – „korrespondieren mit jmdm.“ (inkataba (VII) – „geschrieben werden“) Jeder Stamm weist bestimmte Eigenschaften auf, z. B. ein Präfix, Verlängerung, Änderung oder Wegfall eines Vokals oder auch Dehnung (Gemination) des mittleren Radikals (d. h. Wurzelkonsonanten). Die Art und Reihenfolge dieser Konsonanten, mit Ausnahme sogenannter schwacher Radikale, ändern sich hingegen innerhalb einer Wortfamilie nie. Die meisten Verbformen lassen sich schematisch ableiten. Eine Eigenheit der arabischen Grammatik erleichtert die mündliche Wiedergabe des Hocharabischen sehr: Am Ende eines Satzes fällt im Hocharabischen die Vokalendung meist weg. Man nennt diese Form „Pausalform“. Nun werden aber die drei Fälle und auch zum Teil die Modi gerade durch diese Endungen ausgedrückt, die bei einer Sprechpause wegfallen. Deshalb benutzen viele Sprecher, wenn sie modernes Hocharabisch sprechen, sehr häufig diese „Pausalform“ und ersparen sich so einen Teil der manchmal komplizierten Grammatik. Das komplizierte System der Verbformen ist in vielen Dialekten noch weitestgehend erhalten, sodass die Dialektsprecher damit weniger Schwierigkeiten haben. Obwohl wie unten beschrieben die Bedeutung eines Wortes meist an den Konsonanten hängt, sind es gerade die kurzen Vokale, die einen großen Teil der komplizierten Grammatik ausmachen. Das Arabische ist eine Sprache, in der die Verben „sein“ und „haben“ viel unvollständiger als im Deutschen ausgebildet sind. Häufig sind im Präsens verblose Nominalsätze: ʾanā kabīr – „ich [bin] groß“; nur zur Verstärkung oder wenn die Syntax es formal notwendig macht (z. B. nach der Konjunktion أن ʾan – „dass“) wird – wie in der Zeitstufe der Vergangenheit – das temporale Hilfsverb kāna für „sein“ gebraucht. Ein Nominalsatz (ohne Kopula) wird im Präsens mit der flektierbaren Negation laisa („nicht sein“) verneint. Das Verb „haben“ existiert gar nicht, es wird stattdessen durch die Präpositionen li- („für“), fī („in“), maʿa („mit“) und besonders ʿinda („bei“) + Personalsuffix ebenfalls als Nominalsatz ausgedrückt: ʿindī… – „bei mir [ist]…“ = „ich habe…“; verneint: laisa ʿindī… – „bei mir [ist] nicht…“ = „ich habe nicht…“. Da ferner das Arabische relativ wenige eigenständige Adverbien (im Deutschen wären das z. B. „noch“, „fast“, „nicht mehr“ etc.) besitzt, enthalten manche Verben neben ihrer ursprünglichen Bedeutung auch noch eine adverbiale Bedeutung. Diese Verben können im Satz alleine oder in Verbindung mit einem anderen Verb im Imperfekt stehen, z. B. mā zāla (wörtlich: „nicht aufgehört haben“) – ((immer) noch (sein)) oder kāda (fast/beinahe (sein)). In manchen Dialekten werden diese Adverbien anders ausgedrückt. So heißt "noch" in Ägypten "lissa" oder "bardu". (Entsprechend lautet der Satz "Er schreibt (immer) noch." in ägyptischem Arabisch "lissa biyiktib.") Eine weitere Verbkategorie sind die Zustandsverben (z. B. kabura – „groß sein“, ṣaġura – „klein sein“), welche ein Adjektiv verbalisieren und anstelle eines Nominalsatzes verwendet werden können. Das Wortmuster dieser Verben ist häufig faʿila oder faʿula. Diese Kategorie enthält einen großen Wortschatz, wird aber im Vergleich zu den Verben, welche eine Aktion ausdrücken (z. B. ʾakala – „essen“), seltener benutzt. Verbalstamm: Wurzelkonsonant Arabische Wörterbücher sind häufig so angelegt, dass die einzelnen Wörter nach ihren Wurzeln, also quasi ihren „Wortfamilien“, geordnet sind. Daher ist es beim Erlernen des Arabischen wichtig, die Wurzelkonsonanten eines Wortes identifizieren zu können. Der überwiegende Teil der Wörter hat drei Wurzelkonsonanten, einige auch vier. Durch das Abtrennen bestimmter Vor-, Zwischen- und Endsilben erhält man die Wurzel eines Wortes. Gerade Anfänger sollten solche nach Wurzeln geordneten Wörterbücher benutzen, da der Gebrauch „mechanisch-alphabetisch“ geordneter Lexika bei geringen Grammatikkenntnissen oft dazu führt, dass eine Form nicht erkannt und falsch übersetzt wird. Präpositionen Im Arabischen gibt es streng genommen nur drei Wortarten: Nomen (اِسْم), Verb (فِعْل) und Präposition (حَرْف). Präpositionen, die wir aus dem Deutschen oder Englischen kennen, sind im Arabischen Adverbien. Es gibt so genannte "echte Präpositionen", Wörter, die im Arabischen مَبْنِيّ (undeklinierbar) genannt werden, weil sie unveränderlich sind. Ein Beispiel ist das Wort فِي. Echte Präpositionen Zu den echten Präpositionen zählen: Ist مَعَ („mit“) eine Präposition (حَرْف)? Auf diese Frage gibt es keine eindeutige Antwort. Die meisten Grammatiker jedoch sehen مع als „Nomen“ (اِسْم), weil das Wort مع Nunation (تَنْوِين) erhalten kann. Zum Beispiel: Sie kamen gemeinsam – جاؤوا مَعًا Eine Präposition (حَرْف) ist per Definition مَبْنِيّ, kann also keinesfalls Nunation bekommen. Deshalb ist das Wort مع ein Adverb der Zeit oder des Orts (ظَرْف مَكان; ظَرْف زَمان), Grammatiker sagen auch:  اِسْم لِمَكان الاِصْطِحاب أَو وَقْتَهُ Wortschatz Die meisten arabischen Wörter bestehen aus drei Wurzelkonsonanten (Radikalen). Daraus werden dann verschiedene Wörter gebildet, beispielsweise kann man unter anderem aus den drei Radikalen K-T-B folgende Wörter und Formen bilden: KaTaBa: er schrieb (Perfekt) – das Muster FaʿaLa ist charakteristisch für Verben im Perfekt. yaKTuBu: er schreibt (Imperfekt) – das Muster YaFʿaLu steht für Verben im Imperfekt. KiTāBun: Buch – das Muster FiʿāL kommt häufig bei Substantiven vor. KuTuBun: Bücher – ebenso das Muster FuʿuL. KāTiBun: Schreiber/Schriftsteller (Einzahl) – das Muster FāʿiL ist ein Muster für Aktivpartizipien. KuTTāBun: Schreiber (Mehrzahl) – das Muster FuʿʿāL kommt häufig bei Substantiven vor, die Berufe bezeichnen. maKTaBun: Schreibtisch, Büro – das Muster maFʿaL bezeichnet häufig den Ort, an dem etwas gemacht wird. maKTaBatun: Bibliothek, Buchhandlung – ebenso das Muster maFʿaLa. maKTūBun: geschrieben – das Muster maFʿūL ist ein Muster für Passivpartizipien. Im klassischen Hocharabisch treten noch die meist nicht geschriebenen Endungen -a, -i, -u, -an, -in, -un, -ta, -ti, -tu, -tan, -tin, -tun oder auch keine Endung auf. Für das T in den Endungen siehe Tā' marbūta; für das N in diesen Endungen siehe Nunation. Der Wortschatz ist zwar extrem reich, aber oft nicht klar normiert und mit Bedeutungen aus der Vergangenheit überfrachtet. So gibt es zum Beispiel kein Wort, das dem europäischen Wort „Nation“ relativ genau entspricht. Das dafür gebrauchte Wort (, Umma) bedeutete ursprünglich und im religiösen Kontext bis heute „Gemeinschaft der Gläubigen (Muslime)“; oder z. B. „Nationalität“ (, ǧinsiyya) eigentlich „Geschlechtszugehörigkeit“ im Sinne von „Sippenzugehörigkeit“ – „Geschlechtsleben“ z. B. heißt (, al-ḥayāt al-ǧinsiyya), wobei al-ḥayāt „das Leben“ heißt. Das Wort für „Nationalismus“ (, qaumiyya) bezieht sich ursprünglich auf die Rivalität von „(Nomaden-)Stämmen“ und kommt von qaum, was ursprünglich und bis heute oft noch „Stamm“ im Sinne von „Nomadenstamm“ bedeutet. So überlagern sich oft in einem Wort sehr alte und sehr moderne Konzepte, ohne dass das eine über das andere obsiegen würde. „Umma“ z. B. gewinnt wieder mehr seine alte religiöse Bedeutung zurück. Es gibt durch Kontakt mit klassischen Kulturen zahlreiche alte Lehnwörter aus dem Aramäischen und Griechischen und seit dem 19. Jahrhundert viele neuere aus dem Englischen und Französischen. Die häufigsten Wörter Wie in anderen Sprachen sind auch im Arabischen die Strukturwörter am häufigsten. Je nach Zählmethode und Textkorpus erhält man unterschiedliche Ergebnisse. Eine Studie der Universität Riad kommt zu folgendem Ergebnis: fī (in [Präposition]) min (von, aus [Präposition]) ʿalā (auf, über, an, bei [Präposition]) anna (dass [Konjunktion]) inna (gewiss, wahrlich [Konjunktion, auch Verstärkungspartikel]) ilā (zu, nach, bis, bis zu [Präposition]) kāna (sein [Verb]) hāḏā, hāḏihi (diese, dieser, dieses [Demonstrativpronomen]) an (dass [Konjunktion]) allaḏī (der [Relativpronomen]) Die vorstehende Liste enthält weder monomorphematische Wörter noch Personalsuffixe. In einer anderen Wortliste sind diese berücksichtigt: wa- (und [Konjunktion]) li- (für [Konjunktion]) fī (in, an, auf [Präposition]) bi- (mit, durch [Präposition]) -hū (sein [besitzanzeigendes Personalsuffix]) min (von, aus [Präposition]) -hā (ihr [besitzanzeigendes Personalsuffix]) ʿalā (auf, über, an, bei [Präposition]) ilā (zu, nach, bis, bis zu [Präposition]) anna (dass [Konjunktion]) Beide Zählungen lassen den bestimmten Artikel al- (der, die, das) außer Acht. Das häufigste Substantiv, das im Deutschen eine substantivische Entsprechung hat, ist laut der Riader Studie يوم yaum („Tag“), das häufigste Adjektiv كبير kabīr („groß“). Sprachbeispiel Allgemeine Erklärung der Menschenrechte: In arabischer Schrift: In DMG-Umschrift (vergleiche Arabisches Alphabet): Yūladu ǧamīʿu ’n-nāsi ʾaḥrāran wa-mutasāwīna fi ’l-karāmati wa-’l-ḥuqūqi. Wa-hum qad wuhibū ’l-ʿaqla wa-’l-wiǧdāna wa-ʿalaihim ʾan yuʿāmilū baʿḍuhum baʿḍan bi-rūḥi ’l-ʾiḫāʾi. In IPA-Umschrift: ˈjuːladu dʒaˈmiːʕu‿nˈnːaːsi ʔaħˈraːran mutasaːˈwiːna fi‿lkaˈraːmati wa‿lħuˈquːqi wa qɒd ˈwuhibuː‿lˈʕɒqla wa‿lwidʒˈdaːna wa ʕaˈlaihim ʔan juˈʕaːmila ˈbɒʕdˤuhum ˈbɒʕdˤan bi ˈruːħi‿lʔiˈxaːʔi In deutscher Übersetzung: Alle Menschen sind frei und gleich an Würde und Rechten geboren. Sie sind mit Vernunft und Gewissen begabt und sollen einander im Geist der Brüderlichkeit begegnen. Übersetzungen Übertragungen ins Arabische erfolgen meist aus dem Englischen und Französischen, oft aus dem Spanischen sowie zur Zeit der Sowjetunion aus dem Russischen. Selten sind Übertragungen aus anderen europäischen Sprachen wie auch aus dem Japanischen, Chinesischen, Persischen, Türkischen und Hebräischen. So liegen zum Beispiel Werke von Jürgen Habermas lediglich in einer in Syrien erschienenen Übertragung aus dem Französischen vor. Einige Werke von Friedrich Nietzsche, ebenfalls aus dem Französischen, wurden in Marokko verlegt. In Syrien erschien Der Antichrist von Nietzsche in einer Übersetzung aus dem Italienischen. Die Buchmesse Kairo, zweitgrößte der Welt für den arabischen bzw. nordafrikanischen Raum, ist staatlich. Arabisch lernen Zahlreiche deutschsprachige Universitäten und gemeinnützige Weiterbildungseinrichtungen bieten Kurse für Arabisch als Fremdsprache an, z. B. als Teil der Orientalistik, Theologie, oder eben der Arabistik, der Wissenschaft der arabischen Sprache und Literatur. Das Interesse für Arabisch als Fremdsprache beruht unter anderem darauf, dass es die Sprache des Koran ist und alle islamischen Begriffe in ihrem Ursprung arabisch sind. In muslimischen Schulen weltweit gehört Arabisch zum Pflichtprogramm. Es gibt eine Vielzahl von Arabisch-Sprachschulen, wobei sich die meisten im arabischsprachigen Raum oder auch in nichtarabischen muslimischen Regionen befinden. Didaktik Für westliche Lerner des Arabischen ist das erste große Hindernis die arabische Schrift. Im deutschsprachigen Raum wird vor allem auf das Erlernen des Modernen Standard-Arabisch (MSA) gezielt, das im Unterschied zu den arabischen Dialekten auch geschrieben wird. Seine Mutterform, Fusha, gilt als Sakralsprache und beachtet die sog. Nunation, worauf beim MSA größtenteils verzichtet wird. Da die arabische Schrift eine Konsonantenschrift ist und mit Ausnahme von Lehrbüchern und Korantexten ohne Vokalisierung geschrieben wird, nimmt das Erlernen des geschriebenen Wortschatzes unverhältnismäßig viel Zeit in Anspruch, verglichen mit den Alphabetschriften anderer Sprachen. Auch in arabischsprachigen Ländern wird in den ersten zwei Schuljahren ausnahmslos alles mit Vokalisation geschrieben. Was die Grammatik des modernen Standard-Arabischen betrifft, so wirkt sich der spätere Wegfall der Vokalisierungen bremsend auf die Lerngeschwindigkeit aus. Sogar für Muttersprachler wird in der Schule ein Großteil des Arabischunterrichts für die korrekte Konjugation verwendet. Siehe auch arabischer Name arabische Schrift Liste deutscher Wörter aus dem Arabischen Liste von Staaten mit indigener muttersprachlich arabischer Bevölkerung Sprachen in Israel DIN 31635 ist eine Norm für die Transkription der arabischen in die lateinische Schrift. Sie beruht auf der Umschrift der Deutschen Morgenländischen Gesellschaft (DMG) Literatur Allgemeine Beschreibungen Wolfdietrich Fischer (Hrsg.): Grundriß der Arabischen Philologie. Band 1: Sprachwissenschaft. Wiesbaden 1982, ISBN 3-88226-144-7. Wolfdietrich Fischer: Classical Arabic. In: Robert Hetzron (Hrsg.): The Semitic Languages. London / New York 1997, ISBN 0-415-05767-1. Frank Weigelt: Die arabische Sprache: Geschichte und Gegenwart. Buske, Hamburg 2021, ISBN 3967690407. Grammatiken Wolfdietrich Fischer: Grammatik des Klassischen Arabischen. 3. Auflage. Wiesbaden 2002, ISBN 3-447-04512-4. Ernst Harder, Annemarie Schimmel: Arabische Sprachlehre. Heidelberg 1997, ISBN 3-87276-001-7 (Knappe Einführung in die arabische Sprache und Grammatik.) John Mace: Arabic Grammar. A Revision Guide. Edinburgh 1998, ISBN 0-7486-1079-0 (Übersichtliche, auf das Arabisch der Gegenwart bezogene Grammatik.) Mohamed Badawi, Christian A. Caroli: As-Sabil: Grundlagen der arabischen Grammatik. Konstanz 2011. Mohamed Badawi, Christian A. Caroli: As-Sabil: Grundlagen der arabischen Verblehre. Konstanz 2008. Lehrbücher Mohamed Badawi, Christian A. Caroli: As-Sabil. Praktisches Lehrbuch zum Erlernen der arabischen Sprache der Gegenwart, Band 1. Konstanz 2005. Katharina Bobzin: Arabisch Grundkurs. Lehrbuch mit Audio-CD und Schlüssel. 2., durchgesehene Auflage. Wiesbaden 2004, ISBN 978-3-447-05043-2 (12 Lektionen jeweils mit Testseite, Text- und Übungsteil, komplett vertont mit genauen Schreibanleitungen für alle arabische Buchstaben.) Tawfik Borg: Modernes Hocharabisch. Konversationskurs. 5. Auflage. Hamburg 2004, ISBN 3-921598-23-0 (Konversationsbezogenes Lehrwerk, das zum Teil jedoch ägyptisches statt hocharabischen Vokabulars verwendet.) Wolfdietrich Fischer, Otto Jastrow: Lehrgang für die arabische Schriftsprache der Gegenwart. 5. Auflage. Wiesbaden 1996, ISBN 3-88226-865-4. Günther Krahl, Wolfgang Reuschel, Eckehard Schulz: Arabisch mit System Berlin/München 2012, ISBN 978-3-468-80354-3. Amin Tahineh: Arabisch für die Erwachsenenbildung. ISBN 3-00-007862-2. Stefan Wild: Didaktische Probleme des akademischen Unterrichts im klassischen Arabisch. In: J. H. Hopkins (Hrsg.): General Linguistics and the Reaching of Dead Hamito-Semitic Languages. Brill (Verlag), Leiden 1978, S. 51–67. Wörterbücher Arne Ambros: A Concise Dictionary of Koranic Arabic Wiesbaden 2004, ISBN 3-89500-400-6. Arne Ambros, Stephan Procházka: The Nouns of Koranic Arabic Arranged by Topics. Wiesbaden 2006, ISBN 3-89500-511-8. Fachliteratur zu spezifischen Themen Hartmut Kästner: Phonetik und Phonologie des modernen Hocharabisch. Verlag Enzyklopädie Leipzig, 1981. Pierre Larcher: Linguistique arabe: sociolinguistique et histoire de la langue. Brill, Leiden [u. a.] 2001. André Roman: La création lexicale en arabe – étude diachronique et synchronique des sons et des formes de la langue arabe. Jounieh u. a., (CEDLUSEK) Université Saint-Esprit de Kas, 2005 434-130/42/81, LSV 0874 Kristina Stock: Basiswissen Arabische Dichtung. Edition Hamouda, Leipzig 2016, ISBN 978-3-940075-99-4. Petr Zemánek, Jiří Milička: Words Lost and Found. The Diachronic Dynamics of the Arabic Lexicon. RAM-Verlag, Lüdenscheid 2017, ISBN 978-3-942303-45-3. Weblinks Allgemein Einführung in die arabische Schrift Arabische Schrift und Sprache Arabisch und Arabischlernen (Kostenloses Online-Magazin) Arabische Welt und Sprache kostenlos kennenlernen Wörterbücher Langenscheidt Deutsch-Arabisch Wörterbuch (frei zugänglich, 50.000 Stichwörter und Wendungen, keine Diakritika) Deutsch – Arabisch – Englisch Online Wörterbuch (reichhaltig, mit Textbeispielen, ohne Arab. Aussprache) Arabic Dictionaries Online Deutsch-Arabisches Online-Wörterbuch (viele Varianten, mit Diakritika der Vokale, Aussprache-Umschrift) Arabische Standard-Wörterbücher المعاجم العربية – online auf einer Seite Arabisches Lexikon معجم عربي Edward William Lane’s Lexicon: studyquran.co.uk, Tyndale Archive, archive.org (Arabisch-Englisch) John Penrice: A dictionary and glossary of the Koran, with copious grammatical references and explanations of the text, H. S. King, London 1873 (Arabisch-Englisch) Deutsch-Arabisches Online-Wörterbuch und Translator (einschließlich Transkription) Arabic Dictionary, Suche in mehreren Lexika und Linksammlung. Deutsch – Arabisch Online Wörterbuch mit Translation-Memory Deutsch – Arabisches Online Wörterbuch Mit integrierter Suchfunktion. Dag Nikolaus Hasse: Arabic and Latin Glossary, Würzburg 2005ff. Andreas Lammer: Online Dictionary of Arabic Philosophical Terms Lernen Deutsch – Arabisch Vokabeltrainer. Ägyptischer Dialekt Arabisches Vokabeltraining Ausführliche arabische Grammatik 40+ Stunden kostenlos online Arabischkurs Arabic for Nerds – wöchentlicher, kostenloser Newsletter zur arabischen Grammatik für Fortgeschrittene (in einfachem Englisch) Einstufungstest Arabisch Einstufungstest in den Stufen A1-B2 Gemeinsamen Europäischen Referenzrahmens für Sprachen (GER) Diverses Online Arabic Keyboard clavier arabe arabische Tastatur mit der Ta3reeb Funktion Einzelnachweise Einzelsprache Orientalistik
347
https://de.wikipedia.org/wiki/Aorta
Aorta
Die Aorta (, von ), auch Hauptschlagader oder große Körperschlagader, ist ein großes Blutgefäß, das an der Aortenöffnung (Ostium aortae) aus der linken Herzkammer entspringt. Sie leitet das Blut aus der linken Herzkammer (linker Ventrikel) in die Gefäße des großen Blutkreislaufs. Die Aorta ist die größte Schlagader (Arterie) des Körpers. Beim erwachsenen Menschen hat sie in der Regel einen Durchmesser von etwa 2,5–3,5 cm und eine Länge von 30–40 cm. Sie hat die Form eines aufrechten Spazierstocks mit einem bogenförmigen Anfang und einem geraden Verlauf nach unten bis in den Beckenbereich. Geschichtliches Hippokrates (460–um 370 v. Chr.) verstand unter der Aorta noch die Luftröhre mit den zwei Hauptbronchien, an denen die Lungen „hängen“. Aristoteles (384–322 v. Chr.) übertrug die Bezeichnung dann auf die große Körperschlagader. Abschnitte In der Anatomie, Chirurgie und bei bildgebenden Verfahren unterscheidet man zur besseren Orientierung folgende Aortenabschnitte: Aufsteigende Aorta (Aorta ascendens), die von der linken Herzkammer aus nahezu senkrecht nach oben verläuft und von dieser durch die Aortenklappe getrennt ist. Sie liegt vollständig in der Herzbeutelhöhle und ist nur wenige Zentimeter lang. Der leicht bauchig erweiterte Anfangsteil der Aorta (Aortenbulbus oder Bulbus aortae) besteht aus den drei Sinus aortae (auch Sinus Valsalvae), die vom Schließungsrand des jeweiligen Aortenklappensegels und der Aortenwand begrenzt sind. Aus dem vorderen und linken Sinus entspringen unmittelbar am Herzen die Herzkranzgefäße (Arteriae coronariae) zur Versorgung des Herzmuskels. An der aufsteigenden Aorta befindet sich eine Umschlagstelle des Herzbeutels, die als Crista aortae ascendentis (Rindfleischfalte) bezeichnet wird. Aortenbogen (Arcus aortae) als Fortsetzung der senkrecht aufsteigenden Aorta. Aus dem Aortenbogen gehen unter anderem die Schlagadern zur Versorgung von Kopf und Armen ab. Die drei wichtigsten Abgänge des Aortenbogens sind der Truncus brachiocephalicus, die Arteria carotis communis sinistra und die Arteria subclavia sinistra. Absteigende Aorta (Aorta descendens), die bis in den Beckenraum zieht und sich dort in die beiden großen Beckenarterien aufteilt. Sie ist ca. 30 cm lang und wird noch einmal in Unterabschnitte aufgeteilt: Brustaorta (Aorta thoracica), die vollständig im Brustraum liegt. Sie gibt Gefäße zum Herzbeutel, zu den Zwischenrippenräumen, zur Speiseröhre und zur Eigenversorgung des Lungengewebes ab (nicht zu verwechseln mit den Gefäßen, die zur Sauerstoffaufnahme durch die Lungen führen, diese stammen aus dem kleinen Blutkreislauf). Nach dem Durchtritt durch den Hiatus aorticus des Zwerchfells wird aus der Brustaorta auf der Höhe des zwölften Brustwirbels die Bauchaorta (Aorta abdominalis), die sich anhand des Abgangs der beiden Nierenarterien (Arteriae renales) wiederum in zwei Segmente unterteilen lässt: Bauchaorta oberhalb der Nierenarterien (Aorta abdominalis suprarenalis), die sofort nach Zwerchfelldurchtritt den Truncus coeliacus zur Versorgung von Magen, Milz, Zwölffingerdarm, Bauchspeicheldrüse und Leber abgibt. Ein weiterer Abgang (Arteria mesenterica superior) versorgt den Hauptteil des Darms und der übrigen Verdauungsorgane. Bauchaorta unterhalb der Nierenarterien (Aorta abdominalis infrarenalis), aus der Gefäße für die unteren Darmabschnitte (Arteria mesenterica inferior), den Enddarm und einige Beckenorgane abgehen. Dieser Aortenabschnitt teilt sich schließlich auf Höhe des vierten Lendenwirbels im Becken in die beiden großen Beckenschlagadern (Arteriae iliacae communes) auf. Windkesselfunktion Dank der Elastizität ihrer Gefäßwand fungiert die Aorta als Windkessel, welcher durch überwiegend radiales Nachgeben der Wand bei Druckanstieg aus dem in diskreten Schüben vom Herzen ankommenden Blutstrom durch rhythmische Volumensvergrößerung einen gleichmäßiger abfließenden Strom macht. Der Druck des Blutes wird dabei ständig durch Drucksensoren (so genannte Barorezeptoren) gemessen. Untersuchungsmöglichkeiten Palpation (Tastuntersuchung) Ultraschall Transösophageale Echokardiografie (TEE), bei der eine Ultraschallsonde geschluckt und die Untersuchung aus der direkt neben dem Herzen liegenden Speiseröhre vorgenommen wird Computertomografie (CT) Magnetresonanztomografie (MRT) Angiografie, bei der nach Gabe von Kontrastmittel Röntgenaufnahmen der Gefäße gemacht werden Röntgenbild des Brustraums Herzkatheteruntersuchung (Diagnostik und Intervention) Krankheiten der Aorta Aortenisthmusstenose Arteriosklerose (im Volksmund Gefäßverkalkung) der Aorta (Aortensklerose) Aortenaneurysma (Aussackung der Aortenwand aufgrund nachlassender Elastizität, tritt meist im Bereich der Bauchaorta auf) Aortendissektion (Lösung einzelner Gefäßwandschichten voneinander) Ruptur (vollständiger Riss in der Aortenwand, kommt am häufigsten bei Unfällen oder bei Aussackungen vor; sehr geringe Überlebenschance) Verschluss der Aorta (z. B. durch Thrombose, Tumoren im Bauchraum etc.) Marfan-Syndrom (Gendefekt, bei dem aufgrund von angeborenen Störungen der Bindegewebsbildung die Elastizität der Aortenwand herabgesetzt ist, was zu Aussackungen führen kann) Aortenbogen-Syndrom Aortopulmonale Kollaterale Zystische Medianekrose Erdheim-Gsell Syphilis der Aorta mit syphilitischer Aortitis (Mesaortitis luica, Aortitis syphilitica) Takayasu-Arteriitis (Autoimmunerkrankung) Typen der Bauchaortenstenose Man unterscheidet folgende Typen der Bauchaortenstenose: Lokalisation suparenal ohne Beteiligung der Viszeral- und Nierenarterien Bauchaortenstenose mit Beteiligung der Viszeral- und Nierenarterien; renovaskulärer Hypertonus Infrarenale Aortenstenose ohne Beteiligung der Beckenarterien Infrarenale Aortenstenose mit Beteiligung der Beckenarterien Siehe auch Reitende Aorta Literatur Herbert Reindell, Helmut Klepzig: Krankheiten des Herzens und der Gefäße. In: Ludwig Heilmeyer (Hrsg.): Lehrbuch der Inneren Medizin. Springer-Verlag, Berlin/Göttingen/Heidelberg 1955; 2. Auflage ebenda 1961, S. 450–598, hier: S. 587–590 (Erkrankungen der Aorta). Weblinks Einzelnachweise Arterie der Bauchhöhle Anatomie des Herzens
348
https://de.wikipedia.org/wiki/AutoCAD
AutoCAD
AutoCAD [] ist ein CAD-Programm von Autodesk. Beschreibung AutoCAD wurde als grafischer Zeichnungseditor von der Firma Autodesk entwickelt. In den Anfangsjahren bis ca. 1990 wurde AutoCAD hauptsächlich als einfaches CAD-Programm mit Programmierschnittstellen zum Erstellen von technischen Zeichnungen verwendet. Heute umfasst die Produktpalette eine umfangreiche 3D-Funktion zum Modellieren von Objekten sowie spezieller Erweiterungen insbesondere für Ingenieure, Maschinenbauingenieure, Architekten, Innenarchitekten und Designfachleute sowie Geoinformatiker, Gebäudetechniker und allgemeine Bauingenieure. AutoCAD ist grundsätzlich ein vektororientiertes Zeichenprogramm, das auf einfachen Objekten wie Linien, Polylinien, Kreisen, Bögen und Texten aufgebaut ist, die wiederum die Grundlage für kompliziertere 3D-Objekte darstellen. Die zu AutoCAD entwickelten Dateiformate .dwg sowie .dxf bilden einen Industriestandard zum Austausch von CAD-Daten. Laut Autodesk wurden seit der Erfindung des DWG-Formates rund drei Milliarden Dateien erstellt, davon wurden im Jahr 2006 eine Milliarde aktiv bearbeitet. Betriebssysteme AutoCAD lief auf PC-kompatiblem DOS, wie PC DOS und MS-DOS, und wurde auch auf Unix und den Macintosh portiert. Ab Release 14 wurde in den 1990er Jahren nur noch Windows als Betriebssystem unterstützt. Seit dem 15. Oktober 2010 ist AutoCAD zusätzlich auch für macOS erhältlich (ab Version 10.5.8 „Leopard“). Mit AutoCAD web app und AutoCAD mobile app (vormals AutoCAD 360 und AutoCAD WS), stehen auch vereinfachte, kostenfreie Versionen als Webapp und native Mobile App für Smartphones und Tablet-PCs zur Verfügung (Android und iOS). Versionen Die aktuelle Version ist AutoCAD 2024, erschienen im März 2023. AutoCAD Ersterscheinung Die ARX (AutoCad Runtime Extension)-Version wird durch die interne Versions-Variable ACADVER angezeigt. ARX-Anwendungen sind nur innerhalb des ganzzahligen Versions-Anteils (z. B. 17) kompatibel ausführbar. Mit AutoCad 2024 sind erstmals seit Version 2000 vier hintereinanderfolgende Versionen kompatibel. Varianten AutoCAD wird in verschiedenen Varianten mit unterschiedlichem Funktionsumfang angeboten. AutoCAD AutoCAD ist eine Software zur Bearbeitung von technischen Zeichnungen als Vektorgrafiken in 2D- und 3D. Die Software ist unter anderem in C++ programmiert und besitzt mehrere Programmierschnittstellen wie zum Beispiel AutoLISP. AutoCAD wird häufig mit zusätzlicher Software eingesetzt, die mit vorgegebenen Symbolen, Makros und Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Im Zuge der Weiterentwicklung wurden diese Funktionen direkt in die auf AutoCAD basierenden Produkte integriert. AutoCAD LT AutoCAD LT ist eine vereinfachte AutoCAD-Variante, mit der meist 2D-Zeichnungen erstellt werden und die weniger Programmierschnittstellen besitzt. Auch hier gibt es zusätzliche Software, die durch die vorgegebenen Symbole, Makros und Software mit Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Aufgrund der geringeren Funktionalität ist AutoCAD LT kostengünstiger als die 3D-Variante AutoCAD. AutoCAD Mechanical AutoCAD Mechanical ist eine Erweiterung von AutoCAD für den Maschinenbau-Bereich (CAD/CAM), die aus dem ehemaligen deutschen Softwarehaus GENIUS CAD software GmbH im bayerischen Amberg durch Übernahme seitens Autodesk entstanden ist. Es ist eine sehr leistungsfähige 2D-Applikation mit deutlich erweitertem Befehlsumfang, Normteilen, Berechnungs- und Stücklistenfunktionen. Die früher vertriebene Erweiterung Mechanical Desktop für die mechanische 3D-Konstruktion wird nicht mehr weiterentwickelt. Stattdessen gibt es das wesentlich leistungsfähigere und modernere parametrische 3D-Programm für die Konstruktion in Mechanik und Maschinenbau Autodesk Inventor. AutoCAD, AutoCAD Mechanical und Autodesk Inventor werden mit weiteren Produkten als Paket mit dem Namen „Product Design Suite“ vermarktet. Eine Erweiterung stellt „Product Design Suite Ultimate“ mit dem „Inventor Professional“ dar, das die Funktionalität um FEM-Berechnung, dynamische Simulation, Rohrleitungs- und Kabelbaumkonstruktion erweitert. Die Verwaltung der Konstruktionsdaten kann mit Autodesk Vault erfolgen. AutoCAD Architecture AutoCAD Architecture ist eine erweiterte AutoCAD-Variante für den Bau- und Architekturmarkt (CAAD), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von Gebäuden benötigt werden (Wände, Fenster, Treppen, Dächer etc.) verfügt. AutoCAD Architecture ersetzt den bis zur Einführung von Autodesk entwickelten Architectural Desktop (ADT). Wie bei anderen Software-Lösungen auf Basis von AutoCAD (Civil3d, Inventor, …) handelt es sich um ein sogenanntes vertikales Produkt. Die Zeichnung wird wahlweise in 2D oder 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für den Bau notwendig sind, werden automatisch erstellt. Da AutoCAD Architecture objektorientiert arbeitet und das IFC-Format beherrscht, kann es zu den BIM-CAD Systemen gezählt werden. AutoCAD Architecture wird ab der Version 2023 nicht mehr als eigenständiges Programm angeboten. sondern ist nun in AutoCAD enthalten. AutoCAD MEP AutoCAD MEP () ist eine erweiterte AutoCAD-Architecture-Variante für die Gebäudetechnik (HVAC/MEP), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von gebäudetechnischen Anlagen benötigt werden (Heizkessel, Heizkörper, Rohrleitungen, Rohrleitungsarmaturen, Klimakomponenten, Elektrotrassen, Schalter und Dosen etc.) verfügt. Die Zeichnung wird vollständig 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für die Gebäudetechnik notwendig sind, werden wie bei AutoCAD Architecture automatisch erstellt. Die Kompatibilität zu AutoCAD Architecture ist damit gewährleistet. AutoCAD ReCap AutoCAD ReCap ist eine AutoCAD-Erweiterung, die zusätzlich zu den 3D-Modellen das Verarbeiten von Punktwolken, wie sie zum Beispiel Laserscanner liefern, in AutoCAD ermöglicht. AutoCAD Map 3D AutoCAD Map 3D basiert auf AutoCAD und ergänzt dieses um umfangreiche Funktionen für den Bereich Kartografie. Mit dem Programm erstellt und bearbeitet man technische Karten. Es lassen sich durch diverse Schnittstellen Daten aus zahlreichen Quellen integrieren und in gewissem Umfang auch Geodaten-Analysen durchführen. In der aktuellen Version sind die 3D-Funktionen erweitert worden, so lassen sich unter anderem auch Höhenlinienpläne generieren. Autodesk Topobase 1998 wurde die Software Topobase von der Schweizer Firma C-Plan AG in Gümligen als AutoCAD-Erweiterung veröffentlicht. 2006 wurde die Firma von Autodesk übernommen. Die Erweiterung machte AutoCAD Map 3D zu einem Geoinformationssystem und basiert auf einer nach Standards des Open Geospatial Consortium schematisierten Datenbank von Oracle mit Spatial-Erweiterung. Ab der Version 2012 ist sie in Map 3D integriert und für alle Fachschalen einsetzbar. Autodesk Infrastructure Map Server Auch TB-Web GIS wurde von der Firma C-Plan neben Topobase entwickelt. Nach Übernahme durch Autodesk wurde die Software als Autodesk Topobase Web angeboten. Autodesk entwickelte das PHP-basierte Web-GIS-Framework Autodesk MapGuide Enterprise, das von der Open Source Geospatial Foundation OSGeo quelloffen als MapGuide Open Source erhältlich ist. Die Produkte Autodesk MapGuide Enterprise und Autodesk Topobase Web wurden zusammengelegt zur Mapserver-Software mit Web-GIS-Framework namens Autodesk Infrastructure Map Server. AutoCAD Civil 3D AutoCAD Civil 3D basiert auf AutoCAD und ist für die Bearbeitung von Tiefbauprojekten, insbesondere Verkehrswege-, Landschaftsplanung, Geländemodellierung und Wasserbau, geeignet. Um die Bearbeitung von Projekten zu ermöglichen, die sich über weite und komplexe Geländeformen ziehen, ist die volle Funktionalität von AutoCAD Map 3D in AutoCAD Civil 3D integriert. AutoCAD ecscad AutoCAD ecscad basiert auf AutoCAD und ist für die Planung elektrotechnischer Steuerungssysteme, sogenannter Stromlaufpläne geeignet. Autodesk AutoSketch/SketchBook Autosketch ist ein einfaches Vektor-Zeichenprogramm. Es wird von Autodesk nicht mehr unterstützt oder weiterentwickelt. Es wurde abgelöst von dem Programm Autodesk SketchBook, welches auch gratis als Expressversion mit eingeschränktem Funktionsumfang für Windows, MacOS, iOS und Android erhältlich ist. Programmierschnittstellen AutoCAD bietet eine Vielzahl an Programmierschnittstellen (APIs) für Customizing und Automatisierung. Als interne Programmierschnittstellen stehen heute zur Verfügung AutoLISP bzw. Visual Lisp (eine XLISP-Variante) *.lsp und *.fas ; .fas-Dateien sind mit dem internen Lisp-Compiler erzeugte Kompilate von Lisp-Programmen. Visual Basic for Applications (VBA) *.dvb . VBA wird in den derzeit aktuellen Versionen jedoch nicht mehr standardmäßig installiert, so dass es manuell nachinstalliert werden muss. Skripte *.scr Menüdateien *.mnu DIESEL (keine eigene Datei-Erweiterung) Dialog Control Language *.dcl . Eine Sprache, die es erlaubt, den Aufbau von Dialogboxen zu steuern. sowie weitere Schnittstellen zu: C++ (ObjectARX) *.arx .Net-Framework (insbesondere zu Visual Basic.NET, C#) Durch den Einsatz von Vorgabezeichnungen, Blöcken, Symbolen, Linientypen und externen Spezialprogrammen, zum Beispiel für die Ausgabe von Berechnungsergebnissen können relativ einfach fast alle geometrischen und technischen Darstellungen erzeugt oder modifiziert werden. Dateiformate AutoCAD verwendet überwiegend eigene Dateiformate. DWG Nach außen ist dieses Dateiformat durch den Dateinamenanhang .dwg, für ‚normale‘ Zeichnungsdateien gekennzeichnet. Das Kürzel steht für (engl. für „Zeichnung“). Die Dokumentation der Dateistruktur ist nicht frei erhältlich, jedoch findet man im Internet eine Dokumentation der Open Design Alliance. Das DWG-Dateiformat wurde kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert. So wurde das Format mit Einführung der Versionen AutoCAD 2000, 2004, 2007, 2010, 2013 und 2018 geändert. Die als DWG 2000, DWG 2004, DWG 2007, DWG 2010, DWG 2013 und DWG 2018 bezeichneten Formate können nicht in ältere AutoCAD-Versionen eingelesen werden. Die eingeschränkte Kompatibilität des DWG-Dateiformats zu älteren AutoCAD-Versionen kann durch Abspeichern in älteren Formatversionen (kann im Programm generell festgelegt werden) sowie durch die Verwendung des DXF-Dateiformats und den Einsatz von externen Konverterprogrammen teilweise umgangen werden. Bei Nutzung des DXF-Formats ist dabei mit dem Zerfall von nicht unterstützen Objekten in einfachere Basisobjekte zu rechnen. Die ersten 6 Bytes einer dwg-Datei sind mit einem gewöhnlichen Texteditor lesbar. Sie geben die Version der DWG-Datei an. Dateien der Version AutoCAD 2013 bis AutoCAD 2017 beginnen mit dem Header AC1027, ab Version AutoCAD 2018 beginnen mit AC1032. DXF Die DXF-Schnittstelle ist eine quelloffene Schnittstelle des Herstellers Autodesk und unterliegt keinem neutralen Normungsausschuss, die Dokumentation für DXF ist aber frei verfügbar. Sie ist ein in ASCII-Zeichen lesbares Abbild der binär abgespeicherten DWG. AutoCAD unterstützt DXF (engl. , „Zeichnungsaustauschformat“) für den Datenaustausch mit anderen CAD-Programmen in der aktuellen Version und jeweils noch meist 3–4 älteren Stände. Das DXF-Dateiformat unterstützt direkt 2D- und 3D-Koordinaten sowie zum Beispiel Linien, Bögen und einfache Flächen und weitere komplexe Geometrieelemente wie zum Beispiel Blöcke, ARX-Objekte und Bemaßungen. Es ist mit einfachen Mitteln zum Beispiel mit Texteditoren und fast allen Programmiersprachen, einschließlich mit dem VBA von Excel möglich, DXF-Dateien zu erzeugen, auszuwerten oder zu manipulieren. Diese Möglichkeiten bieten sich besonders für geometrische und auf geometriebasierende Berechnungen von CAD-Modellen zum Beispiel zur Optimierung von Flächen an. Der Aufbau ist sehr klar, einfach und strukturiert. Diese Schnittstelle hat sich im CAD-Markt als ein Quasi-Datenaustauschstandard etabliert, obwohl sie nicht von Autodesk mit diesem Ziel entwickelt wurde. Das DXF-Format wurde von Autodesk dazu geschaffen, um geometrische Informationen von AutoCAD an eine interne oder externe Applikation zur weiteren Verwendung zu übergeben. Genauso sollte das Ergebnis zum Beispiel einer Berechnung wieder aus der Applikation zurück an AutoCAD übergeben werden. Dazu wurde eine Liste von geometrischen Objekten von den Entwicklern erstellt und sauber dokumentiert. Diese offene Dokumentation wurde dann von anderen CAD-, CNC- und CAM-Herstellern wegen ihrer einfachen Struktur und Übersicht als CAD-Schnittstelle übernommen. Sie ist der oft kleinste gemeinsame Nenner vieler Vektorgrafikprogramme und wird von fast allen unterstützt. Allerdings werden meist nicht alle Funktionen von den anderen Herstellern voll unterstützt und es gehen daher manchmal entscheidende Details beim Austausch via DXF verloren. Auch das DXF-Dateiformat wurde, wie das DWG-Dateiformat, kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert. DXB Das DXB-Dateiformat (engl. ) ist eine binäre Form des DXF-Dateiformates. Es ist extrem kompakt, kann im Verhältnis zu DXF schnell gelesen und geschrieben werden, ist aber für den Programmierer wesentlich aufwendiger als die ASCII-Variante. DXB wird nur in wenigen, hauptsächlich zeitkritischen Anwendungsfällen verwendet. DWF Ein weiteres Format ist das Dateiformat DWF (engl. ) als hochkomprimiertes Vektorformat zur Präsentation im Internet und zur Ansicht. Das Format ist dokumentiert. Ein DWF-Toolkit mit C++-API zum Lesen und Schreiben ist mit Quelltext kostenlos bei Autodesk erhältlich. DWFx ist eine Weiterentwicklung von DWF, die auf dem XPS-Format von Microsoft basiert. DGN Ein weiteres Format ist das Dateiformat DGN, das von MicroStation definiert wird und auch in den aktuellen AutoCAD Versionen unterstützt wird. Das Kürzel DGN steht für (engl. für „Entwurf“). SHP Ein weiteres Format ist das Dateiformat SHP (engl. Shapefile; nicht zu verwechseln mit dem ESRI-Shapefile), eine Symboldefinition. Dieses Dateiformat wird zur Codierung von Zeichnungselementen auf unterster Ebene eingesetzt und wird vor der Verwendung zu SHX kompiliert. Anwendungsgebiete sind benutzerdefinierte Schraffuren, Linien, Bemaßungen oder Schriftarten. Es können nur die elementarsten Objekte definiert werden wie Linien und Bögen. SHX Die Dateiendung für AutoCad-Schriftarten (Fonts) und Linientypen. Eine Schrift-shx-Datei ist jedoch in einem Binärformat codiert, eine Linientyp-shx-Datei in Reintext. Schriften im shx-Format werden z. T. graphisch anders behandelt, als z. B. Schriften, die vom Betriebssystem zur Verfügung gestellt werden (TrueType, Postscript-Fonts), da sie keine Füllungsflächen oder Rundungen unterstützen. Anwendungen Für AutoCAD gibt es zu vielen Bereichen Spezial-Anwendungen. Beispielsweise für das Bauwesen, den Maschinenbau (siehe oben), den Landschaftsbau, die Versorgungs- und Elektrotechnik. Diese sind in der Regel in C++ geschrieben. Autodesk bietet hier mit ObjectARX (C++-API) die entsprechenden Grundlagen. Die Entwicklung geht auch hier zu .NET. Einfache Programmwerkzeuge (Tools) sind bisweilen in Visual Basic oder VBA geschrieben worden. Hinzu kommen eine Vielzahl von AutoLISP-Routinen, die oft in freien Foren ausgetauscht werden. Eine Auflistung kommerzieller Anwendungen findet sich im Autodesk-Katalog. AutoCAD-Kurse im Test Die Stiftung Warentest hat im Februar 2015 AutoCAD-Kurse für Einsteiger getestet. Sieben Kurse wurden getestet, vier davon bekamen eine gute Qualität bescheinigt. Unter den Anbietern waren Handwerkskammern, Industrie- und Handelskammern und kommerzielle Bildungsanbieter. Die Kosten für die drei- bis fünftägigen Kurse variierten zwischen 143 und 2090 Euro, wobei sowohl der günstigste als auch der teuerste Kurs nur mittelmäßig abschnitten. Fachliteratur und Schulungsunterlagen Weblinks AutoCAD auf der deutschen Autodesk-Website AutoCAD web app AutoCAD-Befehlssatz Deutsch-Englisch Einzelnachweise CAD-Programm 3D-Grafiksoftware Windows-Software MacOS-Software Proprietäre Software
349
https://de.wikipedia.org/wiki/Alessandro%20Volta
Alessandro Volta
Alessandro Giuseppe Antonio Anastasio Volta, ab 1810 Graf von Volta (* 18. Februar 1745 in Como; † 5. März 1827 ebenda) war ein italienischer Physiker. Er gilt als Erfinder der Volta’schen Säule, heute bekannt als elektrische Batterie, und als einer der Begründer der Elektrizitätslehre. Nach ihm wurde die SI-Einheit für die elektrische Spannung benannt. Leben und Werk Volta wurde als Sohn einer wohlhabenden Familie in Como im damals habsburgischen Norditalien als eines von neun Kindern geboren, von denen fünf – wie auch einige Onkel – Priester wurden. Der Vater selbst war lange Jesuitennovize. Voltas Eltern, Filippo Volta und Maria Maddalena dei Conti Inzaghi, hatten aber eine andere Laufbahn für Volta vorgesehen und schickten ihn in Vorbereitung einer Juristenlaufbahn von 1758 bis 1760 auf eine Jesuitenschule. Im Selbststudium beschäftigte er sich mit Büchern über Elektrizität (Pieter van Musschenbroek, Jean-Antoine Nollet, Giambatista Beccaria) und korrespondierte mit führenden Gelehrten. Der Turiner Physik-Professor Beccaria riet ihm, sich auf experimentelle Arbeit zu konzentrieren. 1769 veröffentlichte er seine erste physikalische Arbeit, die schon Kritik an den Autoritäten laut werden ließ. 1775 wuchs seine Bekanntheit durch die Erfindung des bald in ganz Europa benutzten Elektrophors, mit dem durch Influenz erzeugte statische Elektrizität erzeugt und transportiert werden konnte. 1774 wurde er zum Superintendenten und Direktor der staatlichen Schulen in Como ernannt. Schon 1775 wurde er dann zum Professor für Experimentalphysik an der Schule in Como berufen. 1776 entdeckte er in aus den Sümpfen am Lago Maggiore aufsteigenden Gasblasen als Erster das Methan und begann mit dem brennbaren Gas zu experimentieren (Volta-Pistole, in der ein elektrischer Funke in einer Flasche die Verbrennung auslöst, also eine Art Gasfeuerzeug). Er konstruierte damit stetig brennende Lampen und benutzte seine Volta-Pistole als Messgerät für den Sauerstoffgehalt von Gasen (Eudiometer). All diese Entdeckungen führten dazu, dass er 1778 (nach einer Reise in die Schweiz 1777, wo er u. a. Voltaire traf) zum Professor für Physik und bis 1819 Lehrstuhlinhaber für Experimentalphysik an die Universität Pavia berufen wurde. Dort erfand er ein („Strohhalm“-) Elektroskop zur Messung kleinster Elektrizitätsmengen (1783), quantifizierte die Messungen unter Einführung eigener Spannungseinheiten (das Wort „Spannung“ stammt von ihm) und formulierte die Proportionalität von aufgebrachter Ladung und Spannung im Kondensator. 1792 erfuhr er von den Frosch-Experimenten des angesehenen Anatomen Luigi Galvani, die dieser auf animalische Elektrizität zurückführte. Volta erkannte aber die Ursache der Muskelzuckungen in äußeren Spannungen (etwa Kontaktelektrizität, falls mit mehreren Metallen experimentiert wurde), und es entsprang ein Streit um den Galvanismus, der die Wissenschaftler in ganz Europa in Lager teilte. Für Galvani lag die Erklärung darin, dass der Frosch eine Art Leidener Flasche (also ein Kondensator) war, für Volta war er nur eine Art Detektor. Heute ist immer noch wichtig, dass sich daraus Voltas langjährige Untersuchungen zur Kontaktelektrizität und schließlich seine bahnbrechende Erfindung der Batterie ergab. Volta soll in seinen Schriften auch die Idee des Telegraphen und das Gay-Lussac-Gesetz (Volumenausdehnung von Gasen proportional zur Temperatur) vorweggenommen haben. 1791 ernannte ihn die Royal Society zum Mitglied und verlieh ihm 1794 ihre Copley-Medaille. 1792 ging er auf seine zweite Auslandsreise, bei der er u. a. Pierre Simon Laplace, Antoine Laurent de Lavoisier in Paris, wo er bereits seit 1782 Mitglied der Académie des sciences war, sowie Georg Christoph Lichtenberg in Göttingen besuchte. Die größte und erfolgreichste Erfindung Voltas war jedoch die um 1800 konstruierte Voltasche Säule, die erste funktionierende Batterie (nachdem er schon in den 1790er Jahren elektrische Spannungsreihen verschiedener Metalle untersucht hatte). Sie bestand aus übereinander geschichteten Elementen aus je einer Kupfer- und einer Zinkplatte, die von Textilien, die mit Säure (zunächst Wasser bzw. Salzlake) getränkt waren, voneinander getrennt waren. Er schildert die Erfindung in einem berühmten, am 20. März 1800 verfassten Brief an Sir Joseph Banks von der Royal Society in London. Erst diese Erfindung der Batterie ermöglichte die weitere Erforschung der magnetischen Eigenschaften elektrischer Ströme und die Anwendung der Elektrizität in der Chemie im folgenden Jahrhundert. 1801 reiste er nach Paris, wo er am 7. November Napoleon Bonaparte seine Batterie vorführte. 1802 erhielt er vom Institut de France die Ehrenmedaille in Gold und von Napoleon eine Pension. 1805 wurde er zum auswärtigen Mitglied der Göttinger Akademie der Wissenschaften gewählt. Seit 1808 war er auswärtiges Mitglied der Bayerischen Akademie der Wissenschaften. Nachdem Napoleon Italien erobert hatte, ernannte er Volta, der sich schon damals eigentlich zur Ruhe setzen wollte, 1809 zum Senator und erhob ihn 1810 in den Grafenstand. Nach der Erfindung der Batterie gab er die Forschung und Lehre zunehmend auf, wurde aber durch die Ernennung zum Dekan der philosophischen Fakultät 1813 noch zum Bleiben bewogen bis zu seiner endgültigen Emeritierung 1819. 1820 wurde er zum Mitglied der Royal Society of Edinburgh gewählt. Seine Karriere hatte die wechselnden Herrschaftsverhältnisse unbeschadet überstanden – er war sowohl bei den Habsburgern als auch bei Napoleon in Gunst. Im Ruhestand zog er sich auf sein Landhaus in Camnago nahe Como zurück. Volta heiratete, nachdem er vorher lange Jahre mit der Sängerin Marianna Paris gelebt hatte, 1794 die wohlhabende Teresa Peregrini, mit der er drei Söhne hatte. Alessandro Volta starb 1827 mit 82 Jahren in Como. Er liegt in Camnago, einem Ortsteil von Como begraben, der seit 1863 Camnago Volta heißt. Dort kann man auch seine Instrumente im Museum Tempio Voltiano sehen. Posthume Ehrungen Im 19. Jahrhundert wurde Volta mit der vermutlich höchsten Auszeichnung, die einem Physiker zuteilwerden kann, geehrt: Zu seinen Ehren wurde die Maßeinheit für die elektrische Spannung international mit der Bezeichnung Volt betitelt. Vorgeschlagen wurde dies zuerst 1861 von einem Komitee der British Association for the Advancement of Science. Napoleon III. stiftete 1852 den Volta-Preis, der von der Pariser Académie des sciences vergeben wurde. 1964 wurde der Mondkrater Volta nach ihm benannt, 1999 der Asteroid (8208) Volta und ebenso das Fernheizkraftwerk Volta in Basel (1980). Das Unternehmen Isovolta stellt seit 1949 in Österreich elektrische Isolierstoffe her. 2019 wurde die Zitteraalart Electrophorus voltai erstbeschrieben. Alessandro Volta wurde auf der letzten italienischen 10.000-Lire-Banknote abgebildet, die von der Banca d’Italia zwischen 1984 und 2001 ausgegeben wurde. Schriften F. Massardi (Herausgeber): Alessandro Volta. Epistolario, 5 Bände, Bologna, Zanichelli, 1949–1955 (Briefe) Allessandro Volta: Le Opere. 7 Bände, Hoepli, Mailand 1918–1929 (Reprint: Johnson, New York 1968) Aloisius Galvani: Abhandlung über die Kräfte der Electricität bei der Muskelbewegung (Comm. Bonon. Sc. et Art. Inst. et Acad. T. 7; 1791, Originaltitel: De viribus electricitatis in motu musculari commentarius), herausgegeben von A. J. von Oettingen, 2. Aufl., Repr. der Ausg. Leipzig, Engelmann, 1894 und 1900. Deutsch, Thun / Frankfurt am Main 1996, ISBN 3-8171-3052-X (enthält auch: Alessandro Volta: Untersuchungen über den Galvanismus (1796–1800), früher als: Ostwalds Klassiker der exakten Wissenschaften; Bd. 52 und 118). Literatur Lexika, Nachschlagewerke Anna Märker: Volta, Alessandro Giuseppe Antonio Anastasio. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. Band 3, De Gruyter, Berlin/ New York 2007, ISBN 978-3-11-019703-7, S. 1459 Concise Dictionary of Scientific Biography. Charles Scribner’s Sons, New York 1981, ISBN 0-684-16650-X, S. 712–714. Weitere Werke Volta, Alessandro Giuseppe Antonio Anastasio. In: Kevin Desmond: Innovators in Battery Technology: Profiles of 95 Influential Electrochemists, McFarland, 2016, ISBN 978-0-7864-9933-5, S. 231–235 Geoffrey Sutton The politics of science in early Napoleonic France: the case of the voltaic pile. In: Historical studies in the physical sciences. Band 11, 1981, S. 329–366 Emilio Segrè: Von den fallenden Körpern zu den elektromagnetischen Wellen (= Die großen Physiker und ihre Entdeckungen. Band 1), Piper, München / Zürich 1986, ISBN 3-492-11174-2. Marcello Pera: The ambigious frog: the Galvano-Volta controversy on animal electricity. Princeton University Press 1992. John Heilbron: Electricity in the 17. and 18. century. University of California Press 1979, Dover 1999. Giuliano Pancaldi: Volta: Science and Culture in the age of enlightenment. Princeton University Press 2005. Jürgen Teichmann: Galvani und Volta. In: Karl von Meyenn (Hrsg.): Die großen Physiker, Band 1, C. H. Beck, München 1997, ISBN 3-406-41148-7, S. 263–269 Weblinks Werkausgabe (Digitalisat, italienisch) Ausführliche Biographie Universität Pavia, englisch Museum Tempio Voltiano (Alessandro Volta Museum) Digitalisierte Werke von Volta – SICD der Universitäten von Strasbourg Wolfgang Burgmer: 18.02.1745 - Geburtstag von Alessandro Volta WDR ZeitZeichen vom 18. Februar 2020. (Podcast) Einzelnachweise Batterieentwickler Physiker (18. Jahrhundert) Ingenieur, Erfinder, Konstrukteur (18. Jahrhundert) Hochschullehrer (Universität Pavia) Träger der Copley-Medaille Mitglied der Ehrenlegion (Ritter) Mitglied der Accademia delle Scienze di Torino Mitglied der Königlich Niederländischen Akademie der Wissenschaften Auswärtiges Mitglied der Royal Society Mitglied der Preußischen Akademie der Wissenschaften Mitglied der Niedersächsischen Akademie der Wissenschaften zu Göttingen Mitglied der Bayerischen Akademie der Wissenschaften Mitglied der Académie des sciences Mitglied der Royal Society of Edinburgh Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Historische Person (Italien) Person (Como) Geboren 1745 Gestorben 1827 Mann
350
https://de.wikipedia.org/wiki/Anwendungssoftware
Anwendungssoftware
Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Applikation; englisch ) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der „Lösung von Benutzerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail-Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele. Grundlegendes Begriffsbestimmungen: „Applikation“ und „App“ Aus dem englischen Begriff application hat sich in der Alltagssprache auch die Bezeichnung Applikation, kurz App, etabliert. Im deutschen Sprachraum wurde die Abkürzung App seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit Mobile App gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartphones und Tabletcomputer. Inzwischen bezeichnen Microsoft und Apple Desktop-Anwendungssoftware ebenfalls als App (Windows-App, Mac App Store). Dennoch wird in der Umgangssprache unter einer App meist eine Anwendung für Mobiltelefone oder für Tablets verstanden. Abgrenzung zu systemnaher Software Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu , die aber keinen Endbenutzer-bezogenen ‚Nutzen‘ bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme. Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop-Anwendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware. Anwendungsbereiche für Applikationssoftware In Unternehmen Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise-Resource-Planning-Systeme, kurz ERP-Systeme, oder Portal-Software) spricht man auch von Business-Anwendungen, Business Software oder Unternehmenssoftware. Auf Mobilgeräten Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden. In Webbrowsern Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop-Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen. Siehe auch Widget, ein Programm, das innerhalb eines anderen Programms läuft. Weblinks Jeff Desjardins: The Apps Winning the Battle For Our Attention Span. visualcapitalist.com, 30. August 2018 (Grafiken und Informationen zu „Die Apps, die den Kampf um unsere Aufmerksamkeitsspanne gewinnen“, englisch) Einzelnachweise
352
https://de.wikipedia.org/wiki/Antoni%20van%20Leeuwenhoek
Antoni van Leeuwenhoek
Antoni van Leeuwenhoek [] () (* 24. Oktober 1632 in Delft, Republik der Sieben Vereinigten Provinzen; † 26. August 1723 ebenda) war ein niederländischer Naturforscher und der bedeutendste Mikroskopiker des 17. und beginnenden 18. Jahrhunderts. Er entdeckte die Mikroorganismen, darunter Bakterien, Protozoen und andere Einzeller, und wird deshalb als „Vater der Protozoologie und Bakteriologie“ bezeichnet. Er beschrieb die Entdeckung der Spermatozoen und untersuchte sie bei zahlreichen Tierarten. Seine Beobachtungen machten ihn zum Gegner der Spontanzeugung. Parallel zu anderen Forschern seiner Zeit entdeckte er rote Blutkörperchen und die Kapillaren als Verbindung zwischen Arterien und Venen im Blutkreislauf. Seine Forschungsgebiete erstreckten sich auf einen weiten Bereich von der Medizin bis zur Botanik. Leeuwenhoek war gelernter Tuchhändler und ab einem Alter von 27 Jahren städtischer Beamter in seiner Heimatstadt Delft. Er hatte keine wissenschaftliche oder technische Ausbildung und brachte sich das Herstellen und Benutzen von Mikroskopen selbst bei. Die Beobachtungen, die er mit seinen Mikroskopen machte, teilte er in über 300 Briefen der Royal Society in London sowie zahlreichen anderen europäischen Persönlichkeiten mit. Schreibvarianten des Namens Leeuwenhoeck bedeutet Löwenecke. Der Name rührt vermutlich von einer Straßenecke in der Nähe des Leeuwenpoort, des Löwentors im Osten von Delft, her. Bis 1683 unterschrieb Leeuwenhoek mit „Antoni Leeuwenhoeck“. Danach ließ er das c im Nachnamen weg, um ab 1685 bis zum Lebensende mit „Antoni van Leeuwenhoek“ zu zeichnen. In den englischen Übersetzungen seiner Briefe, die in den Philosophical Transactions of the Royal Society veröffentlicht wurden, ist der Nachname in 19 verschiedenen Varianten buchstabiert worden. Die meisten davon müssen wohl als schlichte Falschschreibungen angesehen werden. Der letzte Buchstabe des Vornamens ist ein langes i, das in seinen auf Niederländisch veröffentlichten Briefen meist als i, manchmal als y wiedergegeben wurde. „Antoni“ wird auf dem o betont. Auf seinem Gedenkstein an der alten Kirche in Delft und auf den meisten seiner auf lateinisch veröffentlichten Briefe wurde die latinisierte Form „Antonius a Leeuwenhoek“ verwendet. Auf seinem Grabstein findet sich außerdem im niederländischen Text die Variante „Anthony van Leewenhoek“, also ohne u im Nachnamen und zusätzlichem h und y im Vornamen, eine Schreibweise, die von ihm selbst nicht überliefert ist. Weitere Schreibvarianten wurden von deutschen (Anton von Leuwenhoek), französischen (Antoine Leuwenhoek) und italienischen Autoren verwendet (Lewenoeckio, Lauenoch), häufiger in abweichenden Schreibweisen im gleichen Text. In modernen Texten wird als Name meist „Leeuwenhoek“ verwendet, selten „van Leeuwenhoek“. Leben Kindheit und Jugend Antoni van Leeuwenhoek wurde am 24. Oktober 1632 geboren, während des Goldenen Zeitalters der Niederlande. Seine Heimatstadt Delft hatte zu dieser Zeit etwa 21000 Einwohner. Er kam aus einer wohlhabenden Familie des Mittelstands. Die Familie, besonders auf seiner mütterlichen Seite, war in Delft gut vernetzt, viele hatten Aufgaben im öffentlichen Leben übernommen. Seine Eltern waren Philips van Leeuwenhoek, ein Korbmacher wie dessen eigener Vater, und Margaretha, geborene Bel van den Berch, Tochter des Delfter Braumeisters Jacob Bel van den Berch. Sie heirateten 1622. Antoni wurde zehn Jahre später als fünftes Kind nach vier Schwestern geboren. Er wurde am 4. November 1632 in der Nieuwe Kerk getauft. Der Name auf dem Taufeintrag lautet auf „Thonis“, Nachnamen werden nicht erwähnt. Der Vater wird als „Phillips thonis zn“ angegeben, also Phillip, Thonis Sohn. In der väterlichen Linie haben sich die Vornamen Thonis (also Antoni) und Phillips über mehrere Generationen abgewechselt. Leeuwenhoeks Vater starb fünf Jahre nach der Geburt, Anfang Januar 1638. Die Mutter heiratete im Dezember 1640 erneut, ihr zweiter Mann Jacob Jansz. Molin, ein Maler, starb 1648. 1664 starb auch die Mutter, sie wurde am 3. September beerdigt. Etwa zur Zeit ihrer zweiten Heirat schickte die Mutter ihren Sohn im Alter von 8 Jahren auf eine Schule in Warmond, nördlich von Leiden. Anschließend, vermutlich ab 1646, lebte er bei seinem Onkel Cornelis Jacobsz van den Berch in Benthuizen, knapp 20 Kilometer nordöstlich von Delft. Dieser Onkel war Anwalt und Gemeindebeamter. Es wird spekuliert, dass er hier einige Grundlagen der Mathematik und Physik erlernte, es gibt aber keine Quellen zu seiner Bildung. Eigenen späteren Aussagen zufolge hat er keine Fremdsprache erlernt und sprach ausschließlich den holländischen Dialekt seiner Zeit und Gegend. 1648, im Jahr als sein Stiefvater starb, wurde er mit 16 Jahren von seiner Mutter nach Amsterdam geschickt. Einige ihrer Verwandten waren erfolgreiche Händler, so auch ihr Schwager Pieter Mauritz Douchy, ein einflussreicher Wollhändler in Amsterdam. Dieser nahm Leeuwenhoek bei sich auf und suchte ihm eine Anstellung. Leeuwenhoek wurde beim Tuchhändler William Davidson, einem 1616 geborenen Schotten, ausgebildet, der sich 1640 in Amsterdam niedergelassen hatte. Er bewährte sich und wurde schließlich für mehrere Jahre als Buchhalter und Kassierer eingesetzt. Wie lange er in diesem Geschäft arbeitete und welche sonstigen Tätigkeiten er verfolgte, ist nicht bekannt. Es wird spekuliert, dass er zu dieser Zeit Jan Swammerdam kennenlernte. Rückkehr nach Delft und gesellschaftliche Etablierung 1654 kehrte er nach Delft zurück, wo er den Rest seines Lebens wohnte. Am 29. Juli des Jahres heiratete er mit 21 Jahren die drei Jahre ältere Barbara de May (* 20. Dezember 1629). Zwischen 1655 und 1664 hatte das Paar fünf Kinder, von denen nur die zweitgeborene Tochter Maria (* 22. September 1656; † 25. April 1745) die frühe Kindheit überlebte. Maria blieb unverheiratet und blieb bei ihrem Vater bis an sein Lebensende. Wohl ebenfalls 1654 kaufte Leeuwenhoek ein Haus und Geschäft in der Straße Hippolytusbuurt, in dem er einen Tuchhandel eröffnete. Zwei überlieferte Rechnungen von 1658 und 1660 zeigen, dass er tatsächlich als Tuch- und Kurzwarenhändler tätig war. 1660, mit nur 27 Jahren, wurde Leeuwenhoek zum Kammerherrn der Schepenen der Stadt Delft ernannt („Camerbewaarder der Camer van Heeren Schepenen van Delft“) und damit zu einem der besser bezahlten städtischen Bediensteten. Ein Schepen war ein städtischer Würdenträger mit Aufgaben eines Ratsherrn, aber auch eines Schöffen. Diese Funktion erfüllte Leeuwenhoek 39 Jahre lang. Auch danach bezog er noch bis zu seinem Tod das entsprechende Gehalt. Zu den Aufgaben gehörte es, die Räumlichkeiten instand zu halten, zu beheizen, zu reinigen, für Versammlungen zu öffnen, Aufgaben für die Versammelten zu übernehmen und Stillschweigen über alle dort beredeten Angelegenheiten zu bewahren. Sein jährliches Gehalt mit Aufwandsentschädigung lag zunächst bei 314 Gulden pro Jahr und 1699 bei 400, um schließlich auf 450 Gulden zu steigen: 1711 erhielt er ein zusätzliches Gehalt von 50 Gulden als „generaal-wijkmeester“ (in etwa: General-Bezirksmeister). Ein gut bezahlter Glasarbeiter verdiente 270 Gulden im Jahr, Leeuwenhoek bekam also ein recht stattliches Gehalt. Es wurde vermutet, dass Leeuwenhoek beide Ämter ehrenhalber verliehen wurden und die tatsächlichen Aufgaben durch Stellvertreter ausgeführt wurden. Neuere Forschungen sprechen jedoch gegen diese Annahme. Ebenfalls um 1660 hat er vermutlich aufgehört, als Tuchhändler zu arbeiten. Nach zwölf Jahren Ehe starb 1666 Leeuwenhoeks Frau Barbara. 1671 heiratete er ein zweites Mal, Cornelia Swalmius. Diese starb 1694. 1669 wurde Leeuwenhoek nach entsprechender Prüfung als Landvermesser staatlich zugelassen. 1676 wurde er zum Nachlassverwalter für den Maler Jan Vermeer bestimmt. Ebenfalls 1632 geboren verstarb dieser mit nur 43 Jahren und hinterließ seiner Witwe und acht minderjährigen Kindern einen insolventen Nachlass sowie zahlreiche seiner wertvollen Bilder. Nachdem die Witwe den Bankrott hatte erklären müssen, wurde Leeuwenhoek eingesetzt. Möglicherweise war er ein Freund der Familie Vermeer. Sehr wahrscheinlich haben sich Leeuwenhoek und Vermeer gekannt. Sie wohnten beide in der Nähe des Delfter Marktplatzes und hatten gemeinsame Bekannte, etwa Constantijn Huygens. Es gibt aber keinen historischen Beleg für eine Bekanntschaft. Jedenfalls wird die Übertragung der Abwicklung des Besitzes eines zu Lebzeiten in der Stadt angesehenen Malers als Beleg für ein hohes Ansehen Leeuwenhoeks gewertet. Ein weiteres Amt übernahm Leeuwenhoek 1679, als er zum wijnroeijer (Weinmesser) gewählt wurde. Als solcher musste er alle Weine und Spirituosen, die in die Stadt gebracht wurden, prüfen und die verwendeten Gefäße eichen. Dieses Amt hatte er wohl bis zum Lebensende inne, wobei er sich teils vertreten ließ. Korrespondenz mit der Royal Society 1660 wurde in London die Royal Society gegründet. Sie wollte mit allen in Kontakt treten, die das Wissen über die Natur förderten, unabhängig von deren Nationalität oder gesellschaftlicher Stellung. Ihr erster Sekretär, Henry Oldenburg, pflegte zahlreiche Briefwechsel, so auch mit dem 1673 schon berühmten, in Delft praktizierenden Arzt Reinier de Graaf. In den Jahren zuvor hatte sich Leeuwenhoek offensichtlich erfolgreich mit der Anfertigung von Mikroskopen befasst und erste Beobachtungen mit deren Hilfe angestellt. De Graaf war über diese Arbeiten im Bilde und hatte mehrfach selbst verschiedene Objekte durch diese Mikroskope betrachten können. In der Zeitschrift der Royal Society, den Philosophical Transactions, erschien 1668 eine mikroskopische Arbeit des Italieners Eustachio Divini. Er hatte ein kleineres Tier als alle bisher gesehenen finden können. Wohl in Antwort auf diesen Bericht schrieb de Graaf an Oldenburg, dass Leeuwenhoek Mikroskope entwickelt habe, die besser seien als alle bisher bekannten. Der Brief wurde beim Treffen der Royal Society am 7. Mai 1673 (Julianischer Kalender) verlesen. Ein Brief von Leeuwenhoek selbst, in dem er verschiedene Beobachtungen mitteilte, war Graafs Schreiben beigefügt. Eine englische Übersetzung wurde in den Philosophical Transactions veröffentlicht. Bemerkenswert ist, dass diese Kontaktaufnahme mitten im Englisch-Niederländischen Krieg von 1672–1674 stattfand, der Teil des Holländischen Kriegs von 1672 bis 1678 war. Zwar wurde Delft nicht von feindlichen Armeen erreicht, es gab im Rampjaar (Katastrophenjahr) 1672 jedoch Aufstände gegen die Regenten. Erst ein gutes halbes Jahr zuvor, am 10. September 1672, war die Hälfte der Stadtregierung, der Vroedschap, herausgeworfen worden. Die Mitglieder der Royal Society trugen Oldenburg auf, direkt mit Leeuwenhoek in Kontakt zu treten und um Abbildungen der beobachteten Objekte zu bitten. Leeuwenhoek fand sich des Zeichnens nicht mächtig, er ließ daher zeichnen und sandte das Ergebnis nach London. Parallel zu diesem Brief schickte Constantijn Huygens einen Leeuwenhoek lobenden Brief an Robert Hooke, Mikroskopiker und Mitglied der Royal Society. Ab dieser Zeit sandte Leeuwenhoek bis an sein Lebensende zahlreiche Briefe an die Royal Society, von denen viele, oft gekürzt, in englischer Übersetzung in den Transactions abgedruckt wurden. In späteren Jahren wurden viele der Briefe in niederländischer oder lateinischer Fassung auch als eigenständige Veröffentlichungen gedruckt. Am 23. Januar 1680 schrieb Hooke an Leeuwenhoek anscheinend, er sei erstaunt, dass dieser noch kein Mitglied der Royal Society sei, und er bot an, ihn zur Wahl vorzuschlagen. Die Antwort von Leuwenhoek vom 13. Februar ist erhalten: Er habe niemals mit einer solchen Ehre gerechnet und er würde die Wahl als größte Ehre der Welt ansehen. Tatsächlich wurde Leeuwenhoek bereits am 19. Januar (Julianischer Kalender) auf Vorschlag von William Croone einstimmig als ordentliches Mitglied gewählt. Der Sekretär der Gesellschaft wurde beauftragt, ein Diplom anzufertigen und Leeuwenhoek zu schicken. Die Bedeutung, die die Aufnahme in die Royal Society für Leeuwenhoek hatte, wird aus seiner Antwort an Hooke deutlich, aber auch daraus, dass das Diplom im einzigen von ihm angefertigten Ölgemälde-Porträt prominent platziert war. Am 13. August des Jahres schrieb Constantijn Huygens Junior an seinen Bruder Christiaan Huygens: „Noch immer eilen alle hier um Leeuwenhoek zu sehen, als den großen Mann des Jahrhunderts. Vor einigen Monaten hat ihn die Royal Society in London aufgenommen, was ihm einigen Stolz gegeben hat. Er hat sogar ernsthaft Herrn Vater [gemeint ist Constantijn Huygens] gefragt, ob er mit dieser Ehre bekleidet in Zukunft verpflichtet sei, hinter einem Doktor der Medizin zurück zu stehen.“ Gegen Ende des 17. Jahrhunderts war Leeuwenhoek der einzige ernsthafte Mikroskopiker weltweit. Er hatte weder Rivalen noch Nachahmer. Mikroskope wurden sonst nur zum Zeitvertreib eingesetzt. Besucher und Briefpartner Nachdem Leeuwenhoek durch seine Entdeckungen berühmt geworden war, wollten ihn zahlreiche Menschen besuchen und durch seine Mikroskope schauen, darunter Berühmtheiten und Staatsoberhäupter. Zar Peter der Große kam 1697 und ließ sich den Blutkreislauf im Schwanz eines Aals zeigen. Die Königin von England Maria II. suchte ihn ebenfalls in Delft auf, wie schon 1679 James Duke of York, der spätere König Jakob II. von England und 1678 John Locke. Leeuwenhoek fühlte sich dadurch geschmeichelt und es festigte seinen Ruf in der Stadt. Er fühlte sich aber auch gestört und wollte am liebsten allein gelassen werden. Thomas Molyneux (1661–1733), irischer Arzt und Zoologe, wurde 1686 Mitglied der Royal Society. Er besuchte Leeuwenhoek in deren Auftrag 1685 und hinterließ einen schriftlichen Bericht. In diesem beschreibt er den Aufbau der Mikroskope, die Leeuwenhoek seinen Besuchern zeigte, aber auch, dass Leeuwenhoek von weiteren Mikroskopen sprach, die dieser nur selbst je gesehen hätte und die noch weit besser als die gezeigten wären. Jene, die er ausprobieren konnte, vergrößerten ähnlich stark wie einige, die er zuvor in England und Irland verwendete, sie hatten aber ein deutlich klareres Bild. Thomas Molyneux wurde vermutlich von seinem Bruder William Molyneux begleitet, denn dieser schrieb in einem Buch über Optik von seinem Besuch bei Leuwenhoek mit einer ähnlichen Einschätzung der Mikroskope. Am 4. März 1699 wurde Leeuwenhoek von einem Mitglied der Académie des sciences in Paris, dem Physiker Burlet, als Briefpartner („correspondant“) benannt. Ob Leeuwenhoek darüber informiert war, ist nicht bekannt. Leeuwenhoek führte Korrespondenzen mit vielen Gelehrten und Persönlichkeiten seiner Zeit, neben verschiedenen Mitgliedern der Royal Society unter anderem mit seinen Landsleuten Constantijn Huygens, Anthonie Heinsius, Pieter Rabus, sowie Gottfried Wilhelm Leibniz, Antonio Magliabechi, Kurfürst Johann Wilhelm von der Pfalz, Landgraf Karl von Hessen-Kassel und Melchisédech Thévenot. Ein weiterer Besucher, der einen ausführlichen Bericht überlieferte, war Zacharias Konrad von Uffenbach, der 1710 kam. Gegen Ende seines Berichts schreibt er: Alter und Tod Leeuwenhoek war im Alter finanziell gut abgesichert. Er versah seine städtischen Aufgaben bis etwa zum Alter von 70, bezog danach aber weiter das entsprechende Gehalt. Sein Vermögen lag bei fast 60.000 Gulden, in seinem Nachlass befanden sich neben zahlreichen Mikroskopen aus Silber auch drei aus Gold. Leeuwenhoek starb, am 26. August 1723, fast genau zwei Monate vor seinem 91. Geburtstag in Delft, wo er in der Oude Kerk beigesetzt wurde. Die Inschrift auf seinem Grabmal lautet: Porträts von Leeuwenhoek Trotz seiner Bekanntheit schon zu Lebzeiten gibt es nur wenige Abbildungen, von denen sicher ist, dass sie Leeuwenhoek zeigen. Das bekannteste ist ein Werk von Johannes Verkolje, das in zwei Versionen existiert. Ein Ölgemälde fertigte der Maler 1686 an, in etwa in Leeuwenhoeks 54. Lebensjahr. In diesem schaut Leeuwenhoek nach links. Er trägt eine Perücke, in seiner rechten Hand hält er einen Zirkel. Auf dem Tisch liegt neben anderen Dingen das gesiegelte Diplom der Royal Society. Das Gemälde gehört heute dem Rijksmuseum Amsterdam. Die andere Variante ist ein Mezzotinto-Druck. Dieser unterscheidet sich vom Gemälde durch die Ausrichtung, er ist spiegelverkehrt. Verkolje hat hier wohl auf der Druckplatte aus Kupfer das Ölgemälde richtig herum abgezeichnet, wodurch der Abdruck schließlich seitenverkehrt war. Der Künstler hat aber auch Veränderungen vorgenommen: In der Hand hält Leeuwenhoek jetzt eines seiner Mikroskope und auf dem Tisch liegen statt des Diploms einige Eichenblätter mit Gallen, ein Objekt, von dem Leeuwenhoek im gleichen Jahr mikroskopische Beobachtungen veröffentlicht hat. Von dieser Variante sind mehrere Abdrucke erhalten. Ein weiterer Druck wurde auf den gravierten Titelseiten der letzten, 1718 veröffentlichten Briefe von Leeuwenhoek dargestellt. Der Graveur, Jan Goeree (1670–1731), fertigte dieses Bild 1707 an, als Leeuwenhoek 75 Jahre alt war. Die Zunft der Delfter Chirurgen gab 1681 ein Ölgemälde bei Cornelis de Man in Auftrag, das viele ihrer Mitglieder zeigt. Im Mittelpunkt steht der offizielle Stadt-Anatom Cornelis 's Gravesande, der etwas an einem eröffneten Leichnam demonstriert. Rechts hinter ihm, also hinter seiner linken Schulter, steht Leeuwenhoek. Er war kein Mitglied der Gilde; es ist überliefert, dass der Maler dem Bild mit Leeuwenhoeks Anwesenheit mehr Glanz habe verleihen wollen. Jan Vermeer und Leeuwenhoek lebten zur gleichen Zeit in Delft, waren gleich alt, beide berühmt und Leeuwenhoek hat Vermeers Nachlass abgewickelt. Die Vermutung liegt nahe, dass sie sich auch zu Lebzeiten kannten. Es gibt aber keine Belege darüber, dass sie bekannt waren oder dass Vermeer Leeuwenhoek auch gemalt hätte. Es wurde spekuliert, dass Leeuwenhoek für einige Bilder mit Wissenschaftlern (etwa „Der Geograph“ und „Der Astronom“) Modell gestanden habe. Dem wird jedoch auch widersprochen, mit dem Argument, dass es zwischen der Person auf dem Bild von Verkolje und den Wissenschaftlern Vermeers keine Ähnlichkeit gebe. Der 1669 entstandene „Geograph“ könnte jedoch von Leeuwenhoek inspiriert sein, denn dieser wurde im gleichen Jahr als Landvermesser zugelassen. Möglicherweise handelt es sich um eine idealisierte Version von Leeuwenhoek Leeuwenhoeks Mikroskope Einfache und zusammengesetzte Mikroskope Alle von Leeuwenhoek bekannten Mikroskope sind sogenannte „einfache Mikroskope“. Im Prinzip funktionieren sie wie eine sehr starke Lupe. Da für stärkere Vergrößerungen stärkere Krümmungen der einzigen Linse erforderlich sind, sind die Linsen solcher einfachen Mikroskope sehr klein. „Einfach“ bezieht sich dabei nicht etwa auf eine einfache Herstellung, sondern auf den Gegensatz zu „zusammengesetzten Mikroskopen“, die mit Objektiv und Okular eine Vergrößerung in zwei Schritten bewirken (siehe auch Lichtmikroskop). Heutige Mikroskope sind bis auf Ausnahmen (siehe etwa Foldscope) zusammengesetzte Mikroskope. Zusammengesetzte Mikroskope wurden einige Jahrzehnte vor Leeuwenhoeks Geburt entwickelt. Das Problem der chromatischen Aberration wurde erst im 19. Jahrhundert gelöst. Zu Leeuwenhoeks Zeiten multiplizierte sich bei zusammengesetzten Mikroskopen das Problem durch die Verwendung zweier Linsen. Sie produzierten daher vor allem im höheren Auflösungsbereich schlechte Ergebnisse. So schrieb Robert Hooke: Erst ab etwa 1830 wurden zusammengesetzte Mikroskope leistungsfähiger als einfache. Bauformen von Leeuwenhoeks Mikroskopen Einfache Mikroskopbauformen und Präparate-Erstellung Die Grundkonstruktion von Leeuwenhoeks Mikroskopen (siehe Abbildungen unten) war simpel: Eine kleine bikonvexe Linse wurde zwischen zwei Metallplatten gefasst. Auf der einen Seite wurde das Objekt vor die Linse platziert, von der anderen Seite wurde mit dem dicht davor liegenden Auge durch die Linse das vergrößerte Objekt betrachtet. Je nach Vergrößerung der Linse lag der Abstand zum Auge bei etwa einem Zentimeter. Um das Objekt an die richtige Position bringen zu können, wurde es auf einer Nadelspitze befestigt, die durch eine Vorrichtung mit Schrauben bewegt werden konnte. Eine solche Vorrichtung zum Bewegen des Präparats war ein Alleinstellungsmerkmal bei Mikroskopen seiner Zeit. Die meisten seiner Mikroskope hatten Metallplatten aus Messing oder Silber. Die Platten sind etwa 4–5 cm hoch und halb so breit. Anscheinend zog es Leeuwenhoek vor, ein gutes Präparat mit dem Präparatehalter fest zu verkleben und dann ein neues Mikroskop zu bauen. Im Gegensatz zur hohen Qualität der Linsen war die Qualität der Metallarbeiten nicht allzu gut. Eine Abweichung vom Grundaufbau bestand darin, zwei oder drei Linsen nebeneinander zu montieren, so dass mittels zweier Haltevorrichtungen mehrere Präparate im raschen Wechsel miteinander verglichen werden konnten. Auch könnten unterschiedlich stark vergrößernde Linsen verwendet worden sein. Heute noch vorhandene Mikroskope Leeuwenhoeks haben alle eine einzelne Linse. Andere Mikroskope zu Leeuwenhoeks Zeit wurden mit Auflicht verwendet, das Licht fiel also von der Seite des Objektivs auf das Präparat. Leeuwenhoek jedoch verwendete Durchlicht, also Licht, das durch das Präparat hindurch fiel. Durchlicht-Beleuchtung ist für biologische Präparate oft besonders geeignet. Wie genau er verschiedene Präparate beleuchtete, ob mit Kerzen oder generell mit Tageslicht, ist nicht bekannt. In einem Brief empfiehlt er für die Betrachtung von Schnitten, das Mikroskop gegen den offenen Himmel zu halten. Objekte in Flüssigkeiten wurden in kleine Glasröhrchen gefüllt und darin betrachtet. Diese hat er mit zwei Silber- oder Kupferfedern so befestigt, dass er das Röhrchen wie gewünscht vor der Linse bewegen konnte. Leeuwenhoek beschrieb seinem Besucher Uffenbach, dass er die jungen Austern, die der Besucher betrachten konnte, aus der Mutter heraus genommen, mit einem Tropfen Weingeist versetzt und das Glasröhrchen an das entstandene Gemisch gehalten hatte. Dieses zog darauf von selbst in die Röhrchen (siehe Kapillareffekt). Weingeist verwendete er, damit das Gemisch „nicht so leicht stinkend“ würde wie bei der Verwendung von Wasser. In späteren Versuchen hat Leeuwenhoek Flüssigkeitstropfen wohl auch zwischen zwei Glasplättchen verteilt. Eine Goldlösung ließ Leeuwenhoek auf ein Stück Glas präzipitieren und befestigte dieses am Mikroskop. Dobell nahm an, dass Leeuwenhoek der erste war, der von undurchsichtigen Objekten Schnitte anfertigte, um diese im Durchlicht zu betrachten. Tatsächlich wurden Schnitte jedoch schon zuvor von Robert Hooke, Nehemiah Grew und Malpighi angefertigt. Untersuchungen im 20. Jahrhundert an Originalschnitten von Leeuwenhoek zeigten, dass ein Kork-Schnitt teils nur wenige Mikrometer dick war. Er fertigte die Schnitte wohl mit seinem Rasiermesser an, auf einem Holundermark-Schnitt konnten rote Blutkörperchen gefunden werden. Aalkijker Eine weitere Variante war der „Aalkijker“ (Aalgucker). Aalkijker sind in drei Bauformen bekannt. 1689 beschrieb Leeuwenhoek zum ersten Mal, dass er sein Mikroskop angepasst habe, um das strömende Blut im Schwanz junger Aale, Kaulquappen und kleiner Fische zu beobachten (siehe Abbildung). 1708 schrieb Leeuwenhoek, dass er den Aalkijker umgestaltet habe, um die Beobachtung zu vereinfachen, ohne aber eine Zeichnung beizufügen. Sein Besucher Uffenbach fertigte eine Zeichnung an, die er seiner Reiseerzählung beigab, die vermutlich diese Bauform zeigt (siehe Abbildung). Eine weitere Abbildung findet sich auf der Titelseite der Auktion, bei der nach seinem Tod viele der Geräte versteigert wurden. Uffenbach schrieb über das Gerät: Eine weitere Bauform, die Leeuwenhoek zugeschrieben wird, ist im Museum Boerhaave in Leiden ausgestellt. Im Vergleich zur ersten Bauform ist der Rohrhalter hier kürzer und ein Linsenhalter ist dauerhaft mit ihm verbunden. Mehrere Linsen sind zwischen kleine Platten gefasst und können ausgewechselt werden. Linsen Das besondere an Leeuwenhoeks Mikroskopen war die ansonsten in seiner Zeit unerreichte Qualität der Linsen. Für Tuchhändler dieser Zeit waren Lupen ein wichtiges Hilfsmittel, um die Anzahl der Fäden in einem Stoff und damit dessen Qualität zu bestimmen. Vermutlich hat Leeuwenhoek in seiner Amsterdamer Zeit daher zum ersten Mal mit Glaslinsen gearbeitet. Sogenannte Flohgläser, also einfache Vergrößerungsgläser zum Betrachten von Insekten, waren eine Modeerscheinung der Zeit und das Schleifen von Linsen aus Glasblöcken ein in weiten Kreisen verbreiteter Zeitvertreib. In den 1650er Jahren war Delft für die Qualität seiner Glaslinsen bekannt, nicht zuletzt wegen der hohen Güte des Glases aus lokaler Produktion. Wie und warum Leeuwenhoek sich für die Mikroskopie begeisterte, ist nicht überliefert. Es gibt jedoch Hinweise darauf, dass er von Robert Hookes Micrographia inspiriert wurde. Er hielt sich ungefähr 1668 in England auf und 1667 kam die zweite Auflage der Micrographia auf den Markt. Darin sind auch mikroskopische Abbildungen von Stoffen zu sehen, an denen Leeuwenhoek vermutlich berufliches Interesse hatte, genauso wie mögliche Berufskollegen, die er vielleicht in England besuchte. Im Vorwort beschrieb Hooke die Methoden, um Linsen herzustellen, und dass einfache Mikroskope bessere Bilder liefern, aber schwieriger zu benutzen sind. Der wohl stärkste Hinweis ist, dass Leeuwenhoek in seinem ersten Brief an die Royal Society zahlreiche Objekte behandelte, die auch in der Micrographia beschrieben wurden: Stachel und Mundwerkzeuge der Biene, eine Laus und Fruchtkörper von Schimmel, und im unmittelbaren Zusammenhang in beiden Werken Holz, Holundermark, Kork und ein Federkiel. Leeuwenhoek hat seine genauen Arbeitsweisen geheim gehalten. Das betrifft nicht nur die Verwendung seiner besten Mikroskope, sondern auch die Herstellungsweise seiner Linsen. Es gibt prinzipiell drei Möglichkeiten, kleine, starke Linsen herzustellen. Sie können aus einem Glasstück geschliffen und anschließend poliert werden. Ein dünner Glasfaden kann in eine Flamme gehalten werden, so dass sich am Ende ein Kügelchen bildet. Oder ein dünnes Glasröhrchen wird am Ende zugeschmolzen und zum Glühen gebracht. Durch Blasen in das Röhrchen von der anderen Seite entsteht eine Glaskugel, die eine Warze hat. Diese Warzen sind linsenförmig. Leeuwenhoek hat wohl mindestens zwei dieser Verfahren verwendet, denn von den neun heute noch bekannten Exemplaren von Leeuwenhoeks Mikroskopen haben alle bis auf eines geschliffene Linsen, wie Untersuchungen im 20. Jahrhundert ergeben haben. Nur das am stärksten vergrößernde, das sogenannte Utrechter Mikroskop, hat eine erschmolzene Linse in der Form einer leicht gedrückten Kugel. Ob sie geblasen oder am Ende eines Glasfadens erzeugt wurde, ist umstritten. Auch sein Besucher Uffenbach berichtete über Leeuwenhoeks Geheimhaltung. Er konnte ihm jedoch entlocken, dass dieser zum Schleifen von Linsen zwar nur einen Schalentyp verwende, dass es aber einen Unterschied mache, ob er frische oder schon häufig benutzte Schalen verwende, da sich die Schalen durch Gebrauch weiten würden und die Gläser dadurch größer würden, ein Vorgang, den Uffenbach als allgemein bekannt ansah. Die Frage, ob Leeuwenhoek auch einige Linsen blasen würde, verneinte Leeuwenhoek entschieden und „bezeigte eine große Verachtung gegen die geblasenen Gläser. […] alle seine Gläser wären auf beyden Seiten convex geschliffen“. Uffenbach schreibt aber auch: Uffenbachs mitreisender Bruder wollte nicht glauben, dass es möglich sei, etwas anderes zu blasen als eine Kugel. Arbeiten aus dem 20. Jahrhundert zeigen dies jedoch. Uffenbach beschreibt ferner, dass einige Mikroskope doppelte Linsen hatten, also zwei Linsen direkt hinter einander, die zusammen nicht viel dicker seien als die einfachen Linsen. Die doppelten Linsen seien zwar mühsamer zu machen als die einfachen, sie würden aber auch laut Leeuwenhoeks Aussage nur wenig mehr vergrößern als diese. Die Linse des Utrechter Mikroskops ist etwa 1,1 mm dick. Von den beiden Messingplatten, zwischen denen die Linse montiert ist, hat die auf der Präparat-Seite eine Öffnung mit 0,5 mm Durchmesser, die dem Auge zugewandte einen Durchmesser von 0,5 mm. Die numerische Apertur wurde mit 0,4 bestimmt. Alle untersuchten Linsen, einschließlich derer der Mikroskope, die Leeuwenhoek der Royal Society vermachte, waren bikonvex, nicht etwa kugelförmig. Möglicherweise war er deshalb erfolgreicher als andere Mikroskopiker, die mit einfachen Mikroskopen und mit kugelförmigen Linsen arbeiteten. Anzahl und Verbleib der Mikroskope Bis zu seinem Tod fertigte Leeuwenhoek mehr als 500 einfache Varianten seiner Mikroskope, Aalkijker und einzelne Linsen an. Zu seinen Lebzeiten gab er soweit bekannt nur zwei davon ab, und zwar als Geschenk an Königin Maria II. von England, als diese ihn in Delft besuchte. Ansonsten verweigerte er jedes Ansinnen auf Verkauf oder Abgabe seiner Instrumente. Zu Lebzeiten stellte er ein Schränkchen mit 26 Mikroskopen aus Silber zusammen, die ursprünglich jeweils ein Präparat montiert hatten. Dieses Schränkchen vermachte er der Royal Society. Seine Tochter verschickte es nach seinem Tod nach London. Diese Sammlung wurde 1722 und 1739 eingehend beschrieben. In der ersten Hälfte des 19. Jahrhunderts ging sie jedoch verloren. Leeuwenhoeks Tochter Maria starb 1745. Zwei Jahre später und damit 24 Jahre nach Leeuwenhoeks Tod wurden die verbliebenen Mikroskope in der Lukasgilde in Delft versteigert, der Gilde der Maler, Glasmacher und Porzellanhersteller. Zwei Exemplare des Versteigerungskatalogs sind überliefert, einer der beiden enthält auch die Namen der Käufer und den Preis. Die Sammlung wurde auf 196 Einzelposten aufgeteilt, viele bestanden aus einer Box mit zwei Mikroskopen, so wie Leeuwenhoek sie hinterlassen hatte. Einige Posten bestanden aus Linsen. Von den 322 Mikroskopen waren die meisten aus Messing, 131 aus Silber, vier hatten beide Metalle und drei Exemplare waren aus Gold. Fast alle zugehörigen Linsen waren aus Glas, aber vier der Silbermikroskope hatten eine Linse aus Quarz und zwei weitere aus Sand. Außerdem kamen 23 Aalkijker der verschiedenen Bauarten zum Verkauf. Die meisten Käufer waren Delfter Bürger, darunter einige Notare. Bis zu 20 Einzelposten gingen an eine Person. Ende des 20. Jahrhunderts waren noch neun seiner Mikroskope bekannt. Bis Ende 2015 hat sich die Zahl der Leeuwenhoek zugeschriebenen Mikroskope auf zwölf erhöht. Ein Besucher einer Ausstellung erkannte, dass er eines zu Hause hatte. Eines wurde bei silbernem Puppenhaus-Zubehör gefunden, ein weiteres fand sich im Schlamm eines Delfter Kanals. Hinzu kommen ein Aalkijker und sechs einzelne Linsen. Eines dieser Mikroskope, ein silbernes, wurde 2009 bei Christie’s für 350.000 Euro versteigert. Vier befinden sich im Museum Boerhaave in Leiden, zwei im Deutschen Museum in München, eines im Universitätsmuseum Utrecht, eines im Naturkundemuseum Antwerpen und neben dem versteigerten ein weiteres in einer privaten Sammlung. Das Museum Boerhaave besitzt außerdem fünf einzelne, gefasste Linsen. Leistungsfähigkeit der Mikroskope Die Sammlung der 26 Mikroskope der Royal Society wurde 1739 eingehend untersucht. Umgerechnet auf den Abstand eines Gegenstands zum Auge von 250 mm ergaben sich dabei Vergrößerungen von 50-fach (entsprechend einer Brennweite von f=5,08 mm) bis 200-fach (f=1,27 mm). Am häufigsten war eine Vergrößerung von etwa hundertfach (f=2,54 mm), die bei acht Mikroskopen vorkam. Bei den zehn Anfang 2015 noch bekannten Mikroskopen traten Vergrößerungen von 68-fach(f=3,66 mm) bis 266-fach (f=0,94 mm) auf. Beim letzteren, dem sogenannten Utrechter Mikroskop, konnte bei Untersuchungen im 20. Jahrhundert mit Fotos von Diatomeen, einem bei Mikroskopikern beliebten Testobjekt, eine Auflösung von 1,35 µm erreicht werden. Damit übertraf es noch die Auflösung eines achromatischen zusammengesetzten Mikroskops von 1837 von Charles Chevalier, einem führenden Mikroskopbauer seiner Zeit. Die fünf einzelnen gefassten Linsen des Museums Boerhaave haben meist niedrigere Vergrößerungen, von 32-fach bis 65-fach, nur eine erreicht 150-fach. Sie werden als Zubehör zum Aalkijker gedeutet. Zusammengesetzte Mikroskope erreichten zu Leeuwenhoeks Zeiten nur eine Vergrößerung von etwa 100-fach. Sein Beitrag für die Anwendung der Mikroskopie als wissenschaftliche Technik war außerordentlich. Niemand hat zu seiner Zeit vergleichbare Beobachtungen machen können, auf Grund der hohen Leistungsfähigkeit seiner Geräte aber auch auf Grund der Geheimhaltung mit der er seine leistungsfähigeren Verfahren umgab. Geheime Methoden Leeuwenhoek hielt seine Arbeitsmethoden zum großen Teil geheim. Er erwähnte explizit, dass er seine besten Mikroskope für sich selbst behalte und seinen Besuchern nicht zeigte. Émile Blanchard vermutete 1868 gar, Leeuwenhoek habe im hohen Alter seine besten Instrumente verschwinden lassen, um seine Methode geheim zu halten. Auch seine spezielle Beobachtungsmethode für sehr kleine Kreaturen hielt er geheim. Daher kann nur spekuliert werden, wie er diese Beobachtungen genau durchführte. Dobell war überzeugt, dass Leeuwenhoek Dunkelfeldmikroskopie betrieb. Barnett Cohen demonstrierte 1937 zwei Verfahren, mit denen Leeuwenhoek eine zusätzliche Vergrößerung erzielt haben könnte: Durch Einbringen der Flüssigkeit in das kugelförmig aufgeblasene Ende einer Glaskapillare konnte er bei einem Kugeldurchmesser von etwa 1 mm eine um Faktor 1,5-fach erhöhte Vergrößerung feststellen. Durch Einbringen einer kleinen Luftblase in die Kugel konnte er ferner eine um Faktor 2 erhöhte Vergrößerung bei Objekten vor der Blase beobachten. Mit seitlicher Dunkelfeldbeleuchtung konnte er rote Blutkörperchen so sehr deutlich sehen. Klaus Meyer, der Leeuwenhoeks Briefe ins Deutsche übersetzte und 1998 herausgab, vertrat dagegen die Ansicht, dass Leeuwenhoek sein normales Mikroskop mit einem Tubusrohr und einer schwach vergrößernden Okularlinse versah und es so zu einem zusammengesetzten Mikroskop erweiterte. Laura J. Snyder vermutet, dass er neben der Anwendung von Dunkelfeldmikroskopie auch ein Sonnenmikroskop verwendete, mit dem er mikroskopische Bilder an eine Wand warf. Aufgrund der Geheimhaltung hatten Leeuwenhoeks Instrumente keinen Einfluss auf die weitere Entwicklung von Mikroskopen. Leeuwenhoeks Briefe, seine Beobachtungen und Entdeckungen Übersicht Leeuwenhoek teilte alle seine Beobachtungen in über 300 Briefen mit. Den ersten von 215 an die Royal Society in London schickte er 1673. Von diesen wurden 119 mindestens auszugsweise in den Philosophical Transactions veröffentlicht. Das macht ihn bis heute (Stand 2014) mit großem Abstand zum Autor mit den meisten Veröffentlichung in dieser Zeitschrift seit deren Gründung 1665 und damit in über 350 Jahren. Er korrespondierte auch mit vielen anderen Gelehrten. Dass Leeuwenhoek keine Ausbildung als Wissenschaftler hatte, ist seinen Briefen anzumerken. In ihnen beschreibt er seine Beobachtungen, ohne diese zu ordnen, durchmischt mit persönlichen Details, um plötzlich auf ein völlig anderes Thema zu kommen. Jedoch hat er immer deutlich auseinandergehalten, was er tatsächlich beobachtet hatte und wie er seine Beobachtungen deutete, ein Merkmal auch moderner Wissenschaft. Diese Klarheit ist in wissenschaftlicher Literatur seiner Zeit selten. Leeuwenhoek beschrieb über 200 Arten, jedoch hat er sie häufig nicht genau genug beschrieben, um sie heute sicher identifizieren zu können. Als seine wichtigsten Entdeckungen werden je nach Autor die Spermatozoen, Rote Blutkörperchen oder Mikroorganismen genannt. Mikroorganismen beschrieb er erstmals 1674 und genauer in einem langen Brief vom 9. Oktober 1676. Er fand Glockentierchen, Rädertierchen, Süßwasserpolypen, frei bewegliche Protozoen und Bakterien. 1688 beschrieb er den Blutkreislauf in der Schwanzflosse eines jungen Aals und er klärte den Lebenszyklus etlicher Tiere auf. Daneben beobachtete er viele weitere Objekte der belebten und unbelebten Natur wie die Struktur von Holz, die Form von Kristallen oder gestreifte Muskulatur, zu deren Untersuchung er Färbungen mit Safran durchführte. Mikroorganismen: Die Diertgens oder Animalcules Erste Beobachtungen Die ersten Mikroorganismen sah Leeuwenhoek vermutlich 1674. Er beschrieb sie in einer kurzen Passage in einem Brief an Henry Oldenburg, Sekretär der Royal Society, vom 7. September des Jahres. Im Wasser eines Süßwassersees nahe Delft, das er am Tag nach der Entnahme untersuchte, fand er Erdpartikel und spiralförmige ‚Ranken‘. Clifford Dobell identifizierte diese in seinem Buch über Leeuwenhoek 1932 als die Alge Spirogyra. Eine Arbeit von 2016 widersprach dieser Ansicht jedoch und vermutete, dass es sich um die Cyanobakterie Dolichospermum handelte. Auch weitere grüne Partikel waren in Leeuwenhoeks Wasserprobe vorhanden, und ziemlich sicher auch Protozoen, denn er schreibt: Der Größenvergleich bezog sich wie damals üblich auf das Volumen. Tausendfach kleineres Volumen entspricht einer zehnfach kürzeren Länge. Die Tiere, auf die sich Leeuwenhoek im Größenvergleich bezieht, sind Milben. Die Käsemilbe ist etwa einen halben Millimeter (= 500 Mikrometer) lang, die Mehlmilbe Acarus siro etwas kleiner. Tatsächlich hat Euglena viridis eine Länge von 40 – 65 Mikrometer. Leeuwenhoek schrieb von „dierkens“, „diertgens“, „kleyne dierkens“ oder „diertjes“, also von Tierchen. In den veröffentlichten englischen Übersetzungen wurden sie auf Lateinisch als „animalcules“ oder, da Englisch kein Diminutiv kennt, als „little animals“ (kleine Tiere) bezeichnet. Ein weiterer Bericht folgt ein gutes Jahr später in einem Brief vom 20. Dezember 1675, der aber nicht veröffentlicht wurde. Leeuwenhoek schrieb, dass er im vergangenen Sommer in fast allen Gewässerproben Animalcules gefunden habe. Von diesen seien einige unglaublich klein gewesen, kleiner gar als jene, die von anderen entdeckt wurden und Wasserflöhe oder Wasserläuse genannt wurden. Hier bezog sich Leeuwenhoek wohl auf eine Veröffentlichung von Jan Swammerdam von 1669. In einem ebenso unveröffentlichtem Brief einen Monat später schrieb Leeuwenhoek, dass er auch in aufgefangenem Regenwasser, Quellwasser und im Wasser der Kanäle von Delft fündig wurde. Außerdem kündigte er einen genaueren Bericht an. Der Brief über die Protozoen Dieser Bericht erfolgte in einem Brief vom 9. Oktober 1676, der als „Brief über die Protozoen“ bekannt wurde. Das Original-Manuskript hat 17½ eng beschriebene Folio-Seiten. Knapp die Hälfte des Briefes wurde in englischer zusammenfassender Übersetzung im März 1677 in den Philosophical Transactions der Royal Society mit dem Titel „[…] by Mr. Antony van Leewenhoeck […]: Concerning little Animals by him observed in Rain- Well- Sea- and Snow-water; as also in water wherin Pepper had lain infused“. veröffentlicht. (Deutsch: Bezüglich kleiner Tiere, die er in Regen- Brunnen- Meeres- und Schneewasser beobachtete; und auch in Wasser worin er Pfeffer eingelegt hatte.) Der restliche Teil blieb unbekannt bis zu den Untersuchungen von Dobell (1932), der in den Archiven der Royal Society das Originalmanuskript fand und neu übersetzte. Der Brief beginnt mit mehreren, teils sehr ausführlichen Beobachtungen des Auftauchens verschiedener Arten von Mikroorganismen in frischem Regenwasser, das einige Tage steht. Es folgen kurze Beschreibungen der Funde in Fluss- und Brunnenwasser und eine ausführlichere über Meerwasser. Der zweite Teil des Briefes beschäftigt sich mit Aufgüssen mehrerer Gewürze mit Regenwasser. Fünf Ansätze mit Pfeffer werden beschrieben, und je einer mit Ingwer, Gewürznelken und Muskat. Dazwischen ist eine Beobachtung an Essig eingestreut. Bis auf einige Beobachtungen an Pfefferwasser fiel der zweite Teil jedoch den Kürzungen zum Opfer und wurde erstmals 1932 veröffentlicht. Mit den Aufgüssen verwendete er ein ähnliches Verfahren, wie viele spätere Mikroskopiker, die einen Heuaufguss ansetzten um Mikroorganismen zu beobachten, besonders die danach benannten Infusorien. In diesem Brief beschreibt Leeuwenhoek viele Organismen, davon einige Arten so genau, dass sein Biograf Clifford Dobell, selbst Protozoologe, diese 1932 eindeutig zuordnen konnte. Bei Vorticella, einem Glockentierchen, beschreibt er das charakteristische Zusammenziehen und Strecken, bei Wimpertierchen die „dünnen, kleinen Füße oder Beine“ oder „kleine Pfoten“, also die Cilien. Auch das Waffentierchen Stylonychia mytilus lässt sich zuordnen. In frisch aufgefangenem Regenwasser entdeckte er die ersten Organismen nach zwei bis vier Tagen, sie erreichten dann eine Dichte von etwa 1000 bis über 2000 „pro Tropfen“. Seine Größenangaben waren so nachvollziehbar, dass sie sich auf heutige Maße umrechnen lassen, für einige der Organismen auf 6–8 Mikrometer. Zur Veranschaulichung gab er an, dass eines der Diertgen bezogen auf ein Milbe so groß sei wie eine Biene zu einem Pferd. Bei einigen konnte er auf Grund ihrer geringen Größe keine Form beschreiben. In Flusswasser fand er weniger als 25 Tierchen pro Tropfen, in Brunnenwasser im Winter keine und im Sommer über 500 „in einem Korn Wasser“. In sommerlichem Meerwasser dagegen nur 1–4 pro Tropfen. Pfefferwasser untersuchte Leeuwenhoek eigentlich, um nach der Ursache für die Schärfe des Pfeffers zu suchen. Cartesianer hatten spekuliert, dass scharfer, saurer Geschmack durch die Form von Partikeln der jeweiligen Stoffe hervor gerufen wird. Leeuwenhoek fand im Wasser einige Tage nach dem Einlegen des Pfeffers neben Protozoen auch Organismen, die sich nach seiner Beschreibung sicher als Bakterien identifizieren lassen. An einer Stelle beschreibt er, wie ein ovaler Animalcules von über hundert der allerkleinsten Animalcules umgeben war, von denen einige fort getrieben wurden. Mit heutigem Wissen lässt sich diese Szene als ein Wimperntierchen deuten, das von Bakterien umgeben ist, von denen einige durch den Schlag der Cilien abgetrieben werden. Von den Wimperntierchen beschrieb er bis zu über 8000 in einem Tropfen, die Zahl der Bakterien aber als „weitaus größer“. Auch beobachtete er, dass das oberflächennahe Wasser weitaus dichter besiedelt war, als der Wasserkörper. Eine beschriebene Bakterienform identifizierte Dobell als „vermutlich Bacilli“, eine weitere als die Fadenbakterie Pseudospira. Eine ausführlich beschriebene Form sind Spirillen, „sehr kleine Aale“. Pseudospira und Spirillen kommen allerdings erst im ursprünglich gekürzten Teil des Briefes vor. Leeuwenhoek schätzte die Zahl der Spirillen auf über hunderttausend in einem kleinen Tropfen Oberflächenwasser ein. Im nicht veröffentlichten Teil des Briefes findet sich auch eine interessante Beobachtung über Essigälchen: Bei manchen der großen Exemplare, die er auseinanderbrach konnte er beobachten, dass lebende kleine Älchen hervor kamen. Tatsächlich sind Essigälchen lebendgebärend und diese Beobachtungen somit die ersten zur Fortpflanzung dieser Tierart. Bestätigung der Entdeckung Die Royal Society war an Leeuwenhoeks Schilderungen sehr interessiert, aber auch skeptisch. Nehemiah Grew, Sekretär der Gesellschaft und ebenfalls Mikroskopiker, wurde beauftragt, Leeuwenhoeks Versuche zu wiederholen. Es ist nicht überliefert, ob es tatsächlich dazu kam. Zusammen mit weiteren Beobachtungen sandte Leeuwenhoek am 5. Oktober 1677 Stellungnahmen von acht angesehenen Personen, denen er die Mikroorganismen gezeigt hatte, nach London. Darunter war der Pastor der englischen Gemeinde in Delft, zwei lutheranische Pastoren aus Delft und Den Haag sowie ein Notar. Robert Hooke, selbst berühmter Mikroskopiker und Mitglied der Royal Society, hatte auf Grund nachlassender Sehstärke schon länger nicht mehr mikroskopiert. Nun aber fertigte er einen Aufguss mit Pfefferkörnern durch und beobachtete. Nach etwa einer Woche fand er zahlreiche Mikroorganismen und konnte Leeuwenhoeks Berichte somit bestätigen. Bei Sitzungen der Royal Society am 1., 8. und 15. November 1677 führte Hooke Demonstrationen durch. Während die ersten beiden wohl, auch auf Grund technischer Einschränkungen der verwendeten Mikroskope, nicht alle Teilnehmer überzeugten, war das Ergebnis des Pfefferaufgusses, das bei der dritten Demonstration vorgeführt wurde, anscheinend eindeutig. Die „kleinen Tiere“ bewegten sich auf unterschiedlichste Art, so dass es Tiere sein mussten, Irrtum ausgeschlossen. Leeuwenhoeks Entdeckung wurde nicht mehr angezweifelt. Die Neuigkeit der Entdeckung verbreitete sich schnell. Wie Hooke in einem Brief an Leeuwenhoek vom 18. April 1678 berichtete, ließ sich selbst König Charles II. von England die Entdeckung vorführen und war über die Beobachtung „sehr erfreut“. Bakterien im Zahnbelag Am 12. September 1683 verfasste Leeuwenhoek einen Brief, in dem er Bakterien aus dem Zahnbelag beschreibt. Dieser wurde 1695 auch in seiner Briefsammlung „Arcana naturae detecta“ veröffentlicht. Dazu gehört die gezeigte Abbildung mit den fig. A bis fig. G, die zeigt, dass es tatsächlich um Bakterien geht. Diese fand er, wenn er Zahnbelag entweder mit Regenwasser oder mit Speichel vermischte, nicht aber in reinem Speichel. In diesem Brief schreibt er weiterhin: Leeuwenhoek beobachtete hier als Erster die schützende Wirkung eines Biofilms für die darin lebenden Mikroorganismen. In einem späteren Brief beschrieb er 1692 ebenfalls Bakterien aus dem Zahnbelag und bestimmte auch deren Größe. Weitere Beobachtungen von Mikroorganismen In einem Brief vom 7. März 1692 an die Royal Society berichtet Leeuwenhoek über Tierchen, die „kopulierten“. Sehr wahrscheinlich sah er die Konjugation und Teilung von Ciliaten. In einem Brief an den Kurfürsten von der Pfalz vom 9. November 1695 beschreibt er das Aufeinandertreffen zweier Tierchen, die sich offenbar zur Konjugation verbinden. Im gleichen Brief spekuliert er auch, dass kleinere Tierchen (also Bakterien) den größeren (etwa Ciliaten) als Nahrung dienen könnten. Und er beschrieb, dass das Fleisch toter junger Teichmuscheln verschwand, während sich die Zahl der Mikroorganismen stark vermehrte. Er schloss daraus, dass diese sich von den Teichmuscheln ernährten. Neben freilebenden Mikroorganismen fand Leeuwenhoek auch solche, die im Körper von Tier und Mensch lebten. In einem Brief von 1674, der erst im 20. Jahrhundert erstmals veröffentlicht wurde, beschrieb er eiförmige Teilchen in der Galle eines alten Kaninchens, sehr wahrscheinlich Oocysten von Eimeria stiediae, dem Erreger der Kokzidiose der Kaninchen, ohne dass er jedoch die Funktion der Oocyste erkannte. 1680 (veröffentlicht 1695) entdeckte er Mikroorganismen im Darm einer Pferdebremse, vermutlich Flagellaten. In einem Brief vom 4. November 1681 schrieb er an Robert Hooke, dass er Durchfall gehabt habe, und seine Ausscheidungen untersucht habe. Darin fand er Mikroorganismen, aus deren Beschreibung hervorgeht, dass es sich um Giardia intestinalis handelte, den Erreger der Giardiasis, einer mit Durchfall verbundenen Erkrankung. Einige Organismen erwähnt der Brief ohne genauere Beschreibung, aus einer weiteren lässt sich jedoch auf Spirochäten schließen, meist harmlose Darmbewohner. Leeuwenhoek untersuchte auch seine normalen Exkremente, also wenn er nicht krank war. Dann konnte er keine Mikroorganismen finden, sondern nur wenn die Exkremente „lockerer“ waren als normal. Er stellt jedoch weder hier noch sonst in seinen Schriften eine Ursache-Wirkungs-Beziehung zwischen Mikroorganismen und Krankheit her. 1683 beschrieb er mehrere Experimente an Fröschen, die ihm zeigten, dass verschiedene Mikroorganismen zahlreich in deren Darminhalt leben, nicht aber im Blut. Von zweien fertigte er Zeichnungen an (siehe Abbildung), auf denen sich Opalina dimidiata (siehe Opalinea) und das Wimperntierchen Nyctotherus cordiformis identifizieren lassen. In einem Brief vom 2. Januar 1700 gab Leeuwenhoek die älteste Beschreibung der Grünalge Volvox an. Auf der beigefügten Zeichnung (siehe Abbildung) ist Volvox ohne Zweifel identifizierbar. Er beschrieb die Fortbewegung und auch die Reproduktion durch Tochterkugeln, die in der „Mutterkugel“ heranwachsen. Über mehrere Tage hinweg beobachtete er einzelne Mutterkolonien, in denen die Tochterkolonien wuchsen, bis die Mutterkugel schließlich platzte. In den Tochterkolonien beobachtete er wiederum Tochterkolonien. Er betonte, dass die Töchter seiner Beobachtung nach also nicht durch Spontanzeugung entstehen, sondern gebildet werden wie alle Pflanzen und Samen. Das Beispiel Volvox wurde von Anhängern der Präformationslehre herangezogen, um ihre Ansichten zu bestärken. Leeuwenhoek schrieb zwar, dass viele Leute die Kugeln auf Grund der Fortbewegung als Tierchen bezeichnen würden, bezeichnet sie selber aber als „deeltjens“, also als Teilchen. In einer Probe mit Volvox und vielen kleinen Tieren wie Mückenlarven und Krebschen beobachtete er, dass Volvox nach einigen Tagen verschwand. Daher spekulierte er, das Volvox den Tieren als Nahrung diene. Im gleichen Brief ist auch ein Bild einer Foraminiferen-Schale, die er in einem Krabbenmagen gefunden hatte. Eine frühere Beschreibung einer Foraminiferen-Schale wurde von Robert Hooke 1665 angefertigt. Am 9. Februar 1702 beschrieb er Mikroorganismen aus einer Wasserrinne, die sich anhand seiner Angaben als Haematococcus pluvialis, Chlamydomonas und Coleps identifizieren lassen. Im gleichen Brief beschrieb er Rädertierchen, dass diese Haematococcus fressen, und dass sie ausgetrocknet und danach wieder ins Leben zurückkehren können. Wenn er getrocknete Ablagerungen aus der Wasserrinne fünf Monate trocken lagerte und dann mit Wasser versetzte, konnte er nach einigen Stunden lebende Mikroorganismen entdecken. Aus solchen Beobachtungen schloss er, dass Mikroorganismen durch den Wind in neue Lebensräume verbreitet werden können. Auch dies sah er als Argument gegen Spontanzeugung. Am 25. Dezember 1702 schrieb Leeuwenhoek einen Brief an die Royal Society, in dem er Untersuchungen an Wasserlinsen beschrieb, oder genauer die „Tierchen“, die er auf den Wurzeln der Wasserlinsen fand. Durch seine Beschreibung und eine beigefügte Abbildung (hier gezeigt) lassen sich wieder mehrere Organismen identifizieren. Dazu gehörten Glockentierchen der Gattung Vorticella sowie Carchesium polypinum, Diatomeen, Rädertierchen (vermutlich Limnias ceratophyli) und ein röhrenbauender Ciliat, vermutlich Cothurnia cristallina. Schließlich erfolgt die erste Beschreibung des Süßwasserpolypen Hydra. Leeuwenhoek beobachtete über zwei Tage hinweg die Sprossung junger Polypen aus einem älteren und damit die erste solche asexuelle Reproduktion bei Tieren überhaupt. Auch Polypenläuse der Gattungen Trichodina und Kerona konnte er beobachten. Gut zwei Monate später schrieb Leeuwenhoek erneut an die Royal Societey, diesmal über den koloniebildenden Flagellaten Anthopysa vegetans, eine Goldalge, die sich von Bakterien ernährt und baumartige Strukturen bildet. Auch diese Beschreibung wurde von einer Abbildung begleitet. Blut und Blutkreislauf Vorgeschichte William Harvey veröffentlichte 1628 sein berühmtes Buch „de Motu Cordis“, in dem er darlegte, dass das Blut im Körper in einem Kreislauf floss, entgegen Jahrhunderte alten früheren Vorstellungen. Er konnte jedoch die Kapillaren, die Verbindung zwischen Arterien und Venen, nicht finden, da er nicht mikroskopisch arbeitete. Dies gelang Marcello Malpighi 1661 in der Lunge und später auch in der Niere. Auch rote Blutkörperchen beobachtete er, die er 1666 als merkwürdige kleine Fettkugeln beschrieb und die er für die rote Farbe des Blutes verantwortlich machte, und unterschied sie vom Blutserum. Jan Swammerdam sah die roten Blutkörperchen bereits 1658 im Froschblut. Im Brief von de Graaf, in dem er Leeuwenhoek der Royal Society 1673 vorstellte, schlug er vor, diese möge Leeuwenhoek einige schwierige Aufgaben stellen. Einige von Leeuwenhoeks Entdeckungen gingen denn auch auf Vorschläge zurück, die ihm Mitglieder der Gesellschaft machten. Der Sekretär der Gesellschaft Oldenburg schlug Leeuwenhoek in seiner Einladung, mehr Berichte nach London zu schicken, vor, Blut und andere Körperflüssigkeiten zu untersuchen. Im zweiten Brief, den dieser an die Gesellschaft schickte, beschrieb er Beobachtungen an einer Laus, die aus seiner Hand Blut gesaugt hatte. Rote Blutkörperchen (Erythrocyten) 1674 schrieb Leeuwenhoek einen Brief an Constantin Huygens, in dem auch er rote Blutkörperchen beschrieb, die er in Blut aus seinem Daumen entdeckte. Die folgenden Jahre beschäftigte er sich mehrfach mit dem Thema, untersuchte auch das Blut von Hasen. Er bestimmte 1678 die Größe der roten Blutkörperchen mit ‚weniger als einem Dreitausendstel eines Zolls‘, umgerechnet ‚weniger als 8,5 Mikrometer‘, und lag damit ziemlich genau an der heutigen Erkenntnis einer durchschnittlichen Größe von menschlichen Erythrocyten von etwa 7,5 Mikrometern. Alle frühen Beobachter beschrieben menschliche Erythrocyten als kugelig. Neben den Beobachtern der Royal Society und Leeuwenhoek unterlief dieser Fehler auch Swammerdam und den niederländischen Mikrosokop-Herstellern Musschenbroek. Erst im 19. Jahrhundert setzte sich die Erkenntnis durch, dass Erythrocyten der Säugetiere im Gegensatz zu denen der anderen Wirbeltiere keinen Zellkern und eine bikonkave Form haben. Ebenfalls 1674 zeigte Leeuwenhoek, dass rote Blutkörperchen schwerer sind als Plasma. 1684 beschrieb er den Unterschied der roten Blutkörperchen in Säugetieren einerseits und Fischen, Fröschen und Vögeln andererseits: Während er die der Säugetiere als rund wahrnahm, beschrieb er die anderen als oval und flach. Auf Grund des fehlenden Zellkerns unterscheidet sich die Form der roten Blutkörperchen der Säugetiere deutlich von der Form bei anderen Wirbeltieren. Kreislauf Besuchern zeigte Leeuwenhoek gerne, was er für das aufregendste Schauspiel seiner Arbeit hielt, den Blutfluss in den Kapillaren im Schwanz einer Kaulquappe oder eines jungen Aals. Er beobachtete, dass diese Blutgefäße so eng sind, dass immer nur ein Blutkörperchen hindurch fließt. Er stellte fest, dass diese Durchblutung mit dem Herzschlag synchronisiert ist, und verstand dadurch, dass es sich bei den Kapillaren um das fehlende Glied zwischen Arterien und Venen handelte. In einem Brief vom 12. November 1680 schrieb Leeuwenhoek noch, dass Kapillaren so eng seien, dass die roten Blutkörperchen nicht hindurch passen würden. Zu dieser Zeit zweifelte er noch, ob es ein von Arterien zu Venen durchgehendes, geschlossenes Kreislaufsystem geben würde. Dieses beschrieb er zum ersten Mal in Kaulquappen und kleinen Fischen in einem Brief vom 7. September 1688 und wieder am 12. Januar 1689. Zu diesem Brief gehört auch die Abbildung des Aalkiekers, die weiter oben in diesem Artikel gezeigt wird. Auch spätere Briefe beschäftigen sich mit dem Blutkreislauf. In einem Brief an die Royal Society von 1699 beschrieb er, dass sich Kaulquappen für Demonstrationen besser eignen, da sie sich weniger bewegen und weiter, dass die „roten Kügelchen“ in den kleinsten Gefäßen weiter auseinander sind, sich also beim Durchfließen vereinzeln, während in einer größeren Arterie 20 nebeneinander fließen konnten. 1683 benutzte er zum ersten Mal den Begriff Kapillare für kleine Blutgefäße. Ferner beschrieb er, dass das Blut in den kleineren Gefäßen zwar kontinuierlich fließt (im Gegensatz zur Aorta), aber in Synchronisation zum Herzen mal schneller, mal langsamer. Spermatozoen, Präformationslehre und Fortpflanzung Lebendgeburt beim Essigälchen 1676 untersuchte Leeuwenhoek das Essigälchen Anguillula aceti. Der etwa zwei Millimeter lange Nematode war bekannt, er ist mit bloßem Auge sichtbar. Als er einige der größeren auseinanderriss, stellte er fest, dass dadurch kleine Älchen freigesetzt wurden. Dies scheint die erste Beobachtung der Lebendgeburt bei Anguillula zu sein, und Leeuwenhoeks erste Beobachtung zum Thema Fortpflanzung. Die Entdeckung der Spermatozoen Im November 1677 schickte Leeuwenhoek einen Brief an Lord William Brouncker, den Präsidenten der Royal Society, in dem er die Entdeckung von Tierchen in der Samenflüssigkeit bekannt gab, heute Spermatozoen oder Spermien genannt. Er berichtete, dass ihm der Leidener Medizinstudent Johan Ham ein Glasröhrchen mit dem Harnröhrenausfluss eines Gonorrhoe-Kranken gebracht habe. Ham hatte darin ‚lebende Tierchen‘ gesehen, von denen er dachte, dass sie durch die Fäulnis der Samenflüssigkeit auf Grund der Krankheit entstanden waren. Leeuwenhoek berichtete weiter, dass er schon vor einigen Jahren auf Vorschlag von Oldenburg Samenflüssigkeit untersucht habe und darin Kügelchen gesehen habe. Er habe die Untersuchung aber damals eingestellt, weil er sie unziemlich fand. Nach Hams Besuch habe er seine Untersuchung aber wieder aufgenommen, um die Samenflüssigkeit auch eines gesunden Mannes zu beobachten. Gedanken um Anstand oder um seinen Ruf beschäftigten Leeuwenhoek ganz offensichtlich: Im Gegensatz zu anderen Briefen ließ er diesen auf Latein übersetzen, bevor er ihn verschickte. Auch bat er Brouncker, den Brief nicht zu veröffentlichen, falls die Mitglieder der Royal Society die Ergebnisse für anstößig halten sollten. Ferner versicherte er, dass die Samenflüssigkeit des Gesunden von ihm selbst stamme, als Überrest eines ehelichen Beischlafs, und ohne etwa sich selbst sündig zu schänden. Im Gegensatz zu Ham begriff Leeuwenhoek, dass die Spermatozoen nicht etwa durch krankheitsbedingten Verfall der Samenflüssigkeit entstanden, sondern ein normaler Bestandteil waren. Er beobachtete, dass sie sich durch Bewegung ihres Schwanzes vorwärts bewegten, wie eine Schlange oder ein Aal schwimmend. Um zu verstehen, wo die Spermatozoen herkamen, untersuchte er in den nächsten Jahren Samenflüssigkeit und männliche Sexualorgane zahlreicher Tiere, darunter Hasen, Ratten, Hunde, Kabeljau, Hechte, Brassen, Miesmuscheln, Austern, Hähne, Frösche, Maikäfer, Schaben, Kleinlibellen, Grashüpfer, Flöhe, Milben und Mücken. Von den 280 zu Lebzeiten Leeuwenhoeks publizierten Briefen wurden Spermatozoen in 57 erwähnt. Bei Säugern fand er Spermatozoen immer im Samenleiter und in den Hoden. Er schloss richtigerweise, dass Hoden die Aufgabe der Spermatozoenbildung haben. Leeuwenhoeks Befund von Spermatozoen in zahlreichen Insekten waren ein gewichtiges Argument gegen die Annahme der Spontanzeugung, wo doch selbst niederste Insekten sich ähnlich fortpflanzten wie höhere Tiere. Er war überzeugt, dass so wie es für ein steiniges Gebirge unmöglich sei ein Pferd zu erzeugen, es genauso unmöglich für eine Fliege oder irgendein anderes sich bewegendes Tier sei, aus zerfallenden Stoffen erzeugt zu werden. Präformationslehre: Animalkulismus Die Entdeckung der Spermatozoen krempelte auch die Ansichten über die biologische Entwicklung von Lebewesen um. Bisher waren bei Mensch und Tier nur die Eier bekannt gewesen. Viele Forscher glaubten an Präformation, damals auch Präexistenz oder Evolution genannt. „Evolution“ hatte also eine ganz andere Bedeutung als heute, nämlich eine rein entwicklungsbiologische. Die Evolutionisten nahmen an, dass das neue Individuum bereits vor der Befruchtung im elterlichen Organismus vorhanden ist und nur noch zu wachsen braucht. Die meisten glaubten wie Harvey, de Graaf, Swammerdam oder Malpighi, dass Eier die Quelle des Embryos seien, dessen Entwicklung durch Samen angestoßen würde (Ovismus). Nun wurde gesehen, dass sich Spermatozoen im Gegensatz zu den Eiern bewegten und sich verhielten wie lebende Tiere. Daher wurde ihnen von manchen Forschern die wesentliche Rolle zugesprochen. In seinem zweiten Brief über Spermatozoen-Beobachtungen an die Royal Society schrieb Leeuwenhoek im März 1678: „Es ist ausschließlich der männliche Samen, der den Fetus formt und alles was die Frau beitragen mag dient nur dazu den Samen zu empfangen und zu füttern.“ Später schrieb er: „Der Mensch kommt nicht vom Ei, sondern von einem Tierchen, das sich im männlichen Samen findet.“ Diese Ausprägung der Präformationslehre wird als Animalkulismus bezeichnet, ihre Anhänger auch als Spermatisten. Leeuwenhoek nahm an, dass der ganze Mensch auf eine Weise schon im Spermatozoon vorhanden sei, und er verbrachte Tage mit dem Versuch, die Umrisse des ‚kleinen Menschen‘ oder ‚Homunculus‘ mikroskopisch zu entdecken. Als jedoch 1699 eine französische Zeitschrift einen Artikel unter dem Pseudonym Dalenpatius veröffentlichte, in dem behauptet wurde, in Spermatozoen sei ein kompletter kleiner Mensch zu sehen, und sogar angebliche mikroskopische Zeichnungen beigefügt wurden, schrieb Leeuwenhoek einen langen Brief an die Royal Society, in dem er solche angeblichen Beobachtungen als „reine Einbildung und nicht die Wahrheit“ verspottete. Trotz seiner zahlreichen Beobachtungen habe er so etwas nie gesehen. Auch wenn er sich manchmal vorstelle, hier sei der Kopf, da die Schultern, dort die Hüften, seien seine Beobachtungen hierzu doch so unsicher, dass er dies nicht bestätigen könne. Nicolas Hartsoeker war weniger zurückhaltend und veröffentlichte 1694 das berühmt gewordene Bild eines Homunculus im Spermatozoon. Vererbung und Hybride 1683 beschrieb Leeuwenhoek als erster einen dominanten Erbgang, eine Fellfarbe bei Kaninchen. Da der Elternteil mit dem dominanten Erbteil das Männchen war, nahm er dies als Bestätigung für den Animalkulismus. Zwei Jahre später wurde ihm bewusst, dass seine bisherigen Überlegungen das Auftauchen von mütterlichen Merkmalen bei Hybriden wie Maultier und Maulesel nicht erklären können. Er versuchte dies von falscher Ernährung im Mutterleib abzuleiten. Parthenogenese bei Blattläusen 1695 suchte Leeuwenhoek die Eier in Blattläusen (vermutlich Myzus ribes), konnte jedoch keine finden. Stattdessen fand er bei der Dissektion der Tiere im Inneren zahlreiche kleine Blattläuse, die genauso aufgebaut waren wie die Erwachsenen. Bis zu 70 Embryonen unterschiedlicher Größe konnte er entdecken. Die Blattläuse mussten also lebendgebärend sein. Er konnte ein Muttertier beobachten, das innerhalb von 24 Stunden neun Kinder zur Welt brachte. Im Brief mit diesen Beobachtungen äußerte er sich sehr verwundert darüber, dass er nur weibliche Blattläuse entdeckte. In diesem Brief leitete er aber noch nicht ab, dass es sich um Parthenogenese handelte, denn womöglich waren die Männchen noch nicht gefunden. Zu diesem Schluss kam er erst fünf Jahre später. Hierdurch entstand jedoch ein schwerwiegendes logisches Problem: Als überzeugter Verfechter des Animalkulismus ging Leeuwenhoek davon aus, dass der Embryo vollständig im Spermatozoon enthalten ist. Wie konnte es dann zu Embryonen ohne Männchen und also ohne Spermatozoen kommen? Er löste diesen Widerspruch, indem er die parthenogenetischen Blattläuse mit Spermatozoen gleich setzte, Tiere also ohne weibliches Element. Er setzte die parthenogenetische Bildung der jungen Blattläuse analog der Bildung der Spermatozoen im Hoden. Lebenszyklen gegen Spontanzeugung Leeuwenhoek war ein entschiedener Gegner der Spontanzeugung, mit der er sich von 1676 bis 1717 immer wieder auseinandersetzte. Um diese zu widerlegen, war es erforderlich, bei fraglichen Organismen den kompletten Lebenszyklus zu beschreiben. Dies gelang ihm bei 26 Tierarten, darunter Ameisen, Blattläuse und Muscheln, und 1687 auch beim Kornkäfer. Dieser schlüpft aus Weizenkörnern, die zuvor äußerlich völlig unversehrt aussehen, so dass Leeuwenhoeks Zeitgenossen dies als Beleg für eine Spontanzeugung ansahen. Leeuwenhoek untersuchte die Kornkäfer mehrere Monate lang, untersuchte die Rüssel und wie diese ein Loch in ein Korn bohren könnten. Er unterschied die Geschlechter, beobachtete die Paarung, fand die Spermatozoen sowie Ei, Larve und Puppe. Die Eiablage selbst konnte er nicht beobachten, konnte aber überzeugend argumentieren, dass das Ei durch ein Loch in der Kornhülle abgelegt werden musste, das der Rüssel bohren konnte, und folgerte daraus, dass es auch in diesem Fall keine Spontanzeugung gäbe und sich die Tiere mit den bekannten Sexualprozessen fortpflanzten. 1693 beschrieb er die Entwicklung des Flohs mit Abbildungen und argumentierte wiederum gegen Spontanzeugung. Weitere zoologische Beobachtungen In einem Übersichtsartikel von 1937 wurde gezählt, dass Leeuwenhoek in den zu seinen Lebzeiten veröffentlichten Briefen etwa 214 „Tierarten“ untersucht hatte, darunter 35 Protozoen (die heute nicht mehr zu den Tieren gezählt werden), 3 Hohltiere, 11 Weichtiere, 10 Krebstiere, 11 Spinnentiere, 67 Insekten, 22 Fische, 3 Amphibien, 11 Vögel und 21 Säugetiere. Neben den an anderer Stelle näher erläuterten Themen beschäftigte er sich mit der Bewegung von Cilien, der Histologie von Schwämmen, der Struktur des Säugetierhaars, Verdauungstrakt, Harnblase, Knochen, Gehirn und Rückenmark, Zwerchfell, Fettgewebe, Milz, Sehnen, Zunge und Gaumen mit Drüsen. Augen und Sehnerv 1674 beschrieb Leeuwenhoek seine Untersuchungen am Auge und Sehnerv von Kühen. Sein Nachbar, der Arzt 's Gravesande, hatte ihn über eine alte Streitfrage informiert, wonach der Sehnerv angeblich hohl sein sollte, damit die Lebensgeister hindurch fließen könnten. Schon Galenus beschrieb eine tubuläre Struktur des Sehnervs. Tatsächlich verläuft in der Mitte die Arteria centralis retinae, die Leeuwenhoek jedoch nicht finden konnte. Er beschrieb einen Aufbau aus filamentösen Teilen aus einer sehr weichen Substanz. Leeuwenhoek versuchte das Sehen mit einer Weiterleitung von Schwingungen von Auge zu Hirn zu erklären. Einem Brief an die Royal Society legte er Schnittpräparate von 200 Mikrometern Dicke bei, die er aus getrocknetem Gewebe mit einem Rasiermesser angefertigt hatte. Diese werden noch immer von der Royal Society aufbewahrt. In 10 Briefen allein bis 1700 an die Royal Society behandelt er (unter anderem) den Sehnerv. Er untersuchte ihn bei Pferden, Kabeljau, Fliegen, Krabben, Schafen, Schweinen, Hunden, Katzen, Hasen, Kaninchen und Vögeln. Noch 1713, im Alter von 81 Jahren, überredete Leeuwenhoek den Kapitän eines Walfängerschiffes, ihm ein Walauge mitzubringen. Den Penis eines Wales erhielt er ebenfalls. Er fertigte Schnitte der Hornhaut des Auges an, um die Anzahl der Schichten zu bestimmen, und entdeckte dabei die Sklera, die Lederhaut. 1715 beschrieb er die auf seinen Zeitgenossen Descartes zurückgehende Lehrmeinung, dass Nervenfasern hohl seien und eine Flüssigkeit oder Dampf weiterleiten würden, eine Ansicht, die sich bis in die Mitte des 19. Jahrhunderts hielt. Leeuwenhoek konnte mikroskopisch keine Hohlräume finden, glaubte jedoch auch, dass die Fäden des Nervengewebes hohl sein müssten. Auch mit dem Facettenauge von Insekten und Krebstieren beschäftigte er sich intensiv. Unter anderem stellte er fest, dass jedes sechseckige Segment der Cornea einer Libelle ein eigenes Bild einer Kerzenflamme erstellen kann. Histologie der quergestreiften Muskulatur Vermutlich entdeckte er die Querstreifung der Muskelfasern bereits 1674, sicher aber ist dies für 1682. Zum Präparieren setzte er scharfe Nadeln ein, um vereinzelte Fasern zu erhalten. Er war überzeugt, dass die Streifung nur im kontrahierten, nicht aber im entspannten Zustand zu sehen ist, womöglich eine Übertragung aus seinen Beobachtungen am Stängel des Glockentierchens (Vorticella). Zunächst nahm er an, dass die Streifung ringförmig wäre, um später zu der Ansicht zu kommen, dass sie spiralförmig sei. Er kam zu der Überzeugung, dass die Zahl der Fasern beim Wachstum eines Tieres gleich bleibt, dass diese aber größer werden. Nachdem er Muskeln in sehr verschiedenen Tierarten untersucht hatte, schrieb er 1712, dass die Muskelfasern eines Wales nicht größer seien als die einer Mücke, das die Größe der Faser zwischen Tierarten sich wenig unterscheiden, die Anzahl aber unterschiedlich sein müsse. Später revidierte er diese Aussage und gab an, dass ein Wal sechsmal dickere Muskelfasern habe als ein Ochse oder eine Maus. Er sah auch, dass eine Faser aus mehreren Muskelfibrillen aufgebaut und vom Sarkolemm umgeben ist. Zur besseren Darstellung der gestreiften Muskulatur bei Kühen setzte er 1714 eine Farblösung von kräftig gelbem Safran in Branntwein ein und führte damit die erste bekannte histologische Färbung durch. Diese Methode fand jedoch keine Nachahmer. Bei Untersuchungen 1694 an Herzmuskeln von Schaf, Ochse, Ente, Huhn und Kabeljau merkte er, dass die Herzmuskeln der Vertebraten keine so parallelen Fasern haben, wie die Skelettmuskulatur, sondern verzweigter sind. Hier bemerkte er die Streifung nicht. Haut Bei Untersuchungen der Haut stellte Leeuwenhoek 1678 fest, dass die Epidermis aus der basalen Schicht heraus wächst. 1683 beschrieb er menschliche Haut genauer, und wie sich die obersten Schichten abnutzen und von unten ersetzt werden. Die Hautschuppen betrachtete er als sehr kleine Entsprechung der Schuppen bei Fischen. Ebenfalls 1683 untersuchte er das Plattenepithel der Lippen und in der Mundhöhle. 1685 erwähnt er die Oberflächenmuster der Epidermis wie Fingerabdrücke. Zunächst glaubte er nicht an die Existenz von Schweißporen, änderte seine Meinung aber 1717, als er sich intensiv mit Schnitten der Haut befasste. Die Entdeckung des Zellkerns 1686 entdeckte er den Zellkern als einen „hellen Punkt“ in den Plattenepithelzellen in der Mundhöhle und in Hautschuppen, ohne jedoch dessen Bedeutung zu erkennen. Weitere Beschreibungen folgten 1688 in den kernhaltigen Dotterzellen des sich entwickelnden Froscheis, 1695 im Ei von Süßwasser-Muscheln der Gattung Sphaerium und beim Makronukleus der Wimperntierchen. 1700 fand er in Eiern von Garnelen einen „kleinen runden hellen Punkt“; im gleichen Jahr beschreibt er die kernhaltigen roten Blutkörperchen von Flunder und Lachs. Mikrodissektion von Insekten und anderen Kleintieren Leeuwenhoek wurde als Pionier der Mikrodissektion bezeichnet. In den 1680er und 1690er Jahren führte er zahlreiche Mikrodissektionen von Insekten durch und studierte Mund und Stachel der Bienen. Zu seinen ersten Versuchstieren gehörten 1680 Flöhe und die Mehlmilbe Acarus (auch: Aleurobius). 1683 und 1693 gelang es ihm unter anderem, die Tracheen des Flohs zu präparieren. 1687 präparierte er Magen und Gedärme von Larven der Waldameisen. Außerdem hat er Seidenspinner, Kornkäfer, den Stechapparat von Mücken (Culex), Kornmotten (Tinea granella), Läuse (Pediculus), Käsemilben, Blattläuse und verschiedene Krebstiere untersucht. In Bienen untersuchte er die Anatomie des Stachels und stellte fest, dass normale Bienen keine Eier tragen. Er schloss daraus, dass es im Bienenstock nur ein Weibchen gäbe. Tatsächlich fand er in der Königin eine große Anzahl von Eiern. 1701 beschrieb er in der Gartenkreuzspinne 400 Spinndrüsen und die Eier. Einer der wenigen ernsthaften Fehler, die Leeuwenhoek unterliefen, war die Verwechslung von Moostierchen (Membranipora), die auf Miesmuscheln (Mytilus) wachsen, mit dem Laich der Muscheln und der anschließende Versuch, die Organe der Membranipora als Teile der jungen Muschel zu verstehen. Parasitische Insekten Ab 1686 untersuchte er Pflanzengallen an Eichen, Disteln und Weiden und die parasitären Insekten, die sie verursachen. Er schlussfolgerte, dass die Insektenlarven die Pflanze verletzen und den Gallwuchs auslösen. Er verfolgte die Entwicklung von Larve und Puppe (aber nicht den ganzen Lebenszyklus) und nahm an, dass die fertigen „Fliegen“ sich nach draußen bohren und ihre Eier auf die Pflanze legen. Dies stand im Gegensatz zur damaligen allgemeinen Meinung, dass innere Parasiten wie Gallwespen durch Spontanzeugung entstehen. In den Folgejahren untersuchte er Parasiten der Blattläuse (Aphis). In aufgeschwollenen Blattläusen fand er eine „Made“ und sonst nichts. Er nahm zunächst an, dass eine Ameise ihr Ei in den Körper der Blattlaus gelegt habe, konnte später aber beobachten, dass aus den parasitierten Blattläusen kleine schwarze „Fliegen“ schlüpften. An diesen konnte er einen Legestachel sehen. Zwar konnte er es nicht beobachten, er war nun aber überzeugt, dass dieser Parasit seine Eier zum Überleben in einem geeigneten Wirt ablegen muss. Auf Grund früherer Beobachtungen schloss er, dass in Raupen mehrere Eier von Parasiten abgelegt werden können. 1696 bestätigte er seine Beobachtungen an Linden-Blattläusen (Therioaphis). 1700 schließlich konnte er an Blattläusen von Johannisbeerbüschen beobachten, dass aus den Läusen geschlüpfte Parasiten (Aphidius auf der dem Brief beigelegten Zeichnung erkennbar) ihre Eier mit Hilfe des Legestachels wieder in Blattläusen ablegen, und zwar ohne dass sie sich zuvor gepaart hätten. Im folgenden Jahr beobachtete er Hyperparasitismus, nämlich Parasiten an den Gallwespenlarven Nematus gallicola in Weidengallen. Botanik Leeuwenhoek betrieb vielfältige botanische Forschung, von der bisher nur ein kleiner Teil in zusammenfassenden Veröffentlichungen besprochen wurde. Beispielsweise untersuchte er Hölzer, Fruchtsamen und Kokosnüsse. Bereits 1676 hatte er eine Sammlung mit 50 Holzarten. Er lieferte genaue Beobachtungen des Aufbaus verschiedener Weichhölzer und Tropenhölzer wie dem Muskatnussbaum. Dabei bemerkte er unter anderem, dass die Wurzel die gleiche Struktur hat wie der Stamm. Die Borke von Birke, Kirschbaum, Limette und Zimt beschrieb er 1705. Bei der Streitfrage, ob das Holz von der Borke oder die Borke vom Holz gebildet würde vertrat er die zweite Möglichkeit. Entschieden wurde diese Frage erst im 19. Jahrhundert durch die Entdeckung des Kambiums. Leeuwenhoeks Beobachtungen der Mikrostruktur der Borke waren vorzüglich, seine funktionellen Interpretationen jedoch häufig falsch. Leeuwenhoek gilt neben Hooke, Malpighi und Grew als Mitbegründer der Pflanzenanatomie. Die Qualität der Zeichnungen zu seinen Arbeiten wurde jedoch als höher eingeschätzt als die der anderen. Pestizide Bei der Muskatnuss beobachtete er pestizide Eigenschaften. Zunächst war er überrascht, zwischen Muskatnüssen keine Milben zu finden. In Experimenten stellte er fest, dass diese von Muskatnuss-Stücken davon laufen. Gab er Milben mit Muskat in ein Glasröhrchen starben sie nach kurzer Zeit, in einem größeren Glasrohr vermieden sie den Kontakt, so dass er schloss, dass die Milben wohl vor freigesetzten Dämpfen flüchteten – oder an ihnen zu Grunde gingen. Er stellte ferner fest, dass Kornmotten in einem Glasgefäß mit etwas Schwefeldioxid abgetötet werden. Als er das Experiment wiederholen wollte, und frischen Schwefel verbrennen wollte, bemerkte er, dass auch Schwefel selbst durch seine Dämpfe abtötende Wirkung hat. Er berechnete, dass ein halbes Pfund Schwefel ausreichen würde um einen Getreidespeicher der Größe 24 × 16 × 8 Fuß (ca. 7,5 × 5 × 2,5 Meter) auszuschwefeln. Zwei Tage nach einem Experiment bemerkte er im Kornspeicher noch einige fliegende Motten und schloss, dass die Puppen der Motte wohl unempfindlich gegen das Gift waren, und daher eine zweite Behandlung nötig sei, wenn die Puppen geschlüpft waren. Er konnte hinreichend zeigen, dass der Mottenbefall durch erwachsene Motten verursacht wurde, und nicht etwa durch Spontanzeugung. Beobachtungen zu weiteren Themenbereichen Auch für verschiedene Kristalle wie Salz interessierte er sich. Zu seinen materialwissenschaftlichen Forschungen existieren jedoch keine Übersichtsarbeiten. 1684 entdeckte er die nadelförmigen Harnstoff-Kristalle, die sich im Gewebe von Gicht-Patienten bilden, und nahm richtig an, dass es diese Nadelform sei, die den Patienten die Schmerzen verursachen. Rezeption Zu Lebzeiten Leeuwenhoek stellte in seinen Schriften nirgendwo eine Verbindung von Mikroorganismen und Krankheit her. Diese zogen aber sehr bald andere. Schon 1683 schrieb Frederick Slare (1648?–1727), Arzt und Mitglied der Royal Society, über den Ausbruch einer tödlichen Rinderkrankheit in der Schweiz: „Ich wünschte Herr Leeuwenhoek wäre bei der Obduktion dieser infizierten Tiere dabei gewesen. Ich bin überzeugt, er hätte das ein oder andere merkwürdige Insekt gefunden.“ Als Insekten wurden im damaligen Englisch alle kleinen Tiere bezeichnet. Die Vorstellung von Mikroorganismen als Krankheitserreger konnte sich in der Medizin jedoch lange nicht durchsetzen, diese ging weiter von Miasmen als Krankheitsursachen aus. Schon zu Lebzeiten wurde Leeuwenhoek als wichtigster Mikroskopiker seiner Zeit angesehen. Robert Hooke schrieb, dass das Mikroskop fast außer Anwendung gekommen sei und dass Leeuwenhoek die wesentliche Person sei, die es noch nutze. Das läge nicht am Mangel an Dingen, die zu entdecken seien, sondern am Mangel an wissbegierigem Geist. Andere wichtige zeitgenössische Mikroskopiker waren lediglich Leeuwenhoeks Landsleute Jan Swammerdam und Nicolas Hartsoeker, der Italiener Marcello Malpighi sowie die Engländer Nehemiah Grew und Robert Hooke selbst. 19. Jahrhundert Brian J. Ford hat sich Ende des 20. Jahrhunderts intensiv mit Leeuwenhoeks Werk auseinandergesetzt. Unter anderem hat er im Archiv der Royal Society gut erhaltene Originalpräparate von Leeuwenhoek gefunden. Er schrieb, dass Leeuwenhoek bis zum Ende des 19. Jahrhunderts weitgehend vergessen war. Diese Bemerkung machte er in Zusammenhang mit einem ersten internationalen Treffen zu Leeuwenhoeks Gedenken, welches von Christian Gottfried Ehrenberg 1875 anlässlich des 200. Jahrestags der „Entdeckung der mikroskopischen Thiere“ in Delft organisiert wurde. Ehrenberg hatte Leeuwenhoek bereits früher immer wieder in Vorträgen vor der Königlichen Akademie der Wissenschaften in Berlin gewürdigt. In Delft war zu diesem Zeitpunkt das Wohnhaus von Leeuwenhoek nicht mehr bekannt. Wie sich später herausstellte, wurde damals ein falsches Haus angenommen und mit einer Gedenktafel versehen. Die Royal Society, die zu dem Treffen eingeladen wurde, bestätigte nicht einmal den Eingang der Einladung. Der Annahme, dass Leeuwenhoek in dieser Zeit weitgehend vergessen war, steht jedoch nicht nur das internationale Treffen selbst entgegen, sondern auch einige Erwähnungen in der zeitgenössischen Literatur. In Artikeln der kurz zuvor gegründeten wissenschaftlichen Zeitschrift Nature heißt es 1870: Und 1873: Auch in den Folgejahren finden sich in dieser Zeitschrift ettliche Erwähnungen von Leeuwenhoek. In der „Geschichte der Zoologie bis auf Johannes Müller und Charles Darwin“ von 1872 von Julius Victor Carus wurde Leeuwenhoek ausführlich erwähnt. Carus schrieb „Von einer Bedeutung, welche die aller Vorgänger weit hinter sich ließ, sind vorzüglich zwei Männer, von denen man allerdings sagen kann, daß sie das Mikroskop erst den Naturwissenschaften gegeben haben, Malpighi und Leeuwenhoek“ und beschrieb ihn und seine Entdeckungen anschließend auf zwei Buchseiten. Ebenfalls 1875 erschien die erste Leeuwenhoek-Biografie von P. J. Haaxmann: „Antony van Leeuwenhoek, de Ontdekker der Infusorien“. 20. und 21. Jahrhundert Das Interesse an Leeuwenhoek wurde durch ein 1927 erschienenes populärwissenschaftliches Buch von Paul de Kruif zusätzlich geweckt. Das erste Kapitel von „Microbe Hunters“, das als „Mikrobenjäger“ auch auf Deutsch erschien, war Leeuwenhoek gewidmet. Eine maßgebliche Biografie erschien fünf Jahre später: Clifford Dobell veröffentlichte Antony van Leeuwenhoek and his „little animals“ (Antony van Leeuwenhoek und seine Tierchen), das sich eingehend mit Leeuwenhoeks Leben, seinen Mikroskopen und vielen anderen Aspekten beschäftigt. Bezüglich Leeuwenhoeks wissenschaftlichen Beobachtungen beschränkt es sich jedoch ausschließlich auf die Mikroorganismen. Eine solch umfassende Übersicht, die auch bisher unveröffentlichte Briefe einschließt, liegt über Leeuwenhoeks andere Arbeitsgebieten nicht vor. Lediglich für die zoologischen Arbeiten wurde 1937 zumindest über die zu Leeuwenhoeks Zeiten veröffentlichten Briefe ein Übersichtsartikel veröffentlicht. 1950 und 1951 erschien ein zweibändiges biografisches Werk von A. Schierbeck auf niederländisch, das 1959 in ein englischsprachiges Buch vom gleichen Autor mündete. Eine weitere populärwissenschaftliche Biografie erschien 1966 in den USA und 1970 in Großbritannien unter dem Titel „Discoverer of the unseen world“ beziehungsweise „The cleere observer“. Drei später erschienene Bücher widmen sich neben anderen Themen etwa zur Hälfte Leeuwenhoek. In Büchern über die Geschichte der Mikroskopie wird Leuwenhoek ausführlich erwähnt, auch allgemeine Lehrbücher über Lichtmikroskopie, die ein Kapitel über die Geschichte enthalten, erwähnen Leeuwenhoek und seine einlinsigen Mikroskope. In modernen Zeiten wurde er als berühmtester Anwender des einfachen Mikroskops bezeichnet, ferner als Vater oder Gründer der Protozoologie und Bakteriologie. Bei einer Abstimmung 2004 des niederländischen Fernsehens „De Grootste Nederlander“ (der größte Niederländer) kam Leeuwenhoek auf Platz 4. Ehrungen 1680 wurde Leeuwenhoek in die Royal Society aufgenommen. 1716 wurde ihm im Alter von 84 Jahren von der Universität Löwen in den Österreichischen Niederlanden in Anerkennung seiner Arbeiten eine Silbermedaille verliehen. Dies kann in etwa mit der Verleihung eines akademischen Grades in neueren Zeiten verglichen werden. Die Leeuwenhoek-Medaille wurde 1877 durch die Königlich Niederländische Akademie der Wissenschaften gestiftet. Seit 1934 existiert eine mikrobiologische Fachzeitschrift mit dem Titel „Antonie van Leeuwenhoek“. 1950 schaffte die Royal Society einen wiederkehrenden Preis mit dem Titel „The Leeuwenhoek Medal and Lecture“ (Die Leeuwenhoek-Medaille und Vorlesung). Der Preis wird vergeben zur Anerkennung von Exzellenz in Mikrobiologie, Bakteriologie, Virologie, Mykologie, Parasitologie und Mikroskopie. Der 1982 entdeckte Asteroid (2766) Leeuwenhoek trägt seinen Namen, ebenso ein Mondkrater. Die Pflanzengattung Levenhookia aus der Familie der Stylidiaceae wurde nach ihm benannt, ebenso wie die Milbengattung Leeuwenhoekia . „Antoni van Leeuwenhoek“ heißt ein Krankenhaus in Amsterdam, das auf Krebspatienten spezialisiert ist. Zahlreiche Straßen in den Niederlanden sind nach Leeuwenhoek benannt. Werke Bücher Alle Bücher sind Sammlungen von Briefen. Von den über 300 Briefen, die Leeuwenhoek an die Royal Society und andere Gelehrte schrieb, wählte er 38 aus, um sie in Buchform zu veröffentlichen. Die Arcana naturae detecta (enthüllte Geheimnisse der Natur) erschien 1695, als Leeuwenhoek 63 Jahre alt war. (online verfügbar) Eine Fortsetzung erschien 1722 als Continuatio Arcanorum Naturae Detectorum. Schon vorher, 1718, erschien Send-Brieven zoo aan de hoog edele Heeren van de Koninkylyke Societeit te London, als aan andere aansienelyke en geleerde Lieden, over verscheyde Verborgentheden der Natuure…. Zwischen 1719 und 1730 erschienen Leeuwenhoeks gesammelte Werke in Leyden unter dem Titel „Antoni van Leeuwenhoek Opera Omni seu Arcana Naturae ope exactissimorum Microscopiorum detecta, experimentis variis comprobata, Epistolis as varios ilustres viros ut et Ad integram, quae Londini floret, sapientem Societatem, cujus Membrum est, datis. Comprehensa, & Quatuor Tomis distincta“ (Gesammelte Werke oder Geheimnisse der Natur, entdeckt mit den genauesten Mikroskopen, durch verschiedene Experimente bewiesen, mit den Briefen an verschiedene hervorragende Männer, sowie an die unbescholtene, weise Gesellschaft, die in London blüht, deren Mitglied er ist, zusammengefasst und auf vier Bände verteilt.)(online verfügbar) 1931 ernannte die Königlich Niederländische Akademie der Wissenschaften eine Kommission, die alle auffindbaren Briefe Leeuwenhoeks veröffentlichen sollte, auch jene ohne wissenschaftlichen Inhalt. Der Band mit den ersten 21 Briefen erschien 1939. Der neueste Band 17 (Stand 2020) erschien 2018 mit 33 Briefen, vier an, der Rest von Leeuwenhoek, darunter drei bis dahin unveröffentlichte, aus dem Zeitraum November 1712 bis Mai 1716, also etwa sieben Jahre vor seinem Tod. Die Bände dieser Serie „Alle de Brieven van Antoni Van Leeuwenhoek – The Collected Letters of Antoni Van Leeuwenhoek“ enthalten jeweils die niederländische Originalversion, eine moderne englische Übersetzung, Wiedergaben der zugehörigen Abbildungen sowie zahlreiche Anmerkungen der Herausgeber zu den Texten. (Bände 1–15 (Briefe bis 1707) online verfügbar) Auswahl einiger Briefe M. Leewenhoeck, Regnerus de Graaf: A Specimen of Some Observations Made by a Microscope, Contrived by M. Leewenhoeck in Holland, Lately Communicated by Dr. Regnerus de Graaf. In: Phil. Trans. Band 8, 1673, S. 6037–6038; doi:10.1098/rstl.1673.0017 (Volltext) Antony van Leewenhoeck: Observations, Communicated to the Publisher by Mr. Antony van Leewenhoeck, in a Dutch Letter of the 9th of Octob. 1676. Here English’d: concerning Little Animals by Him Observed in Rain-Well-Sea. and Snow Water; as Also in Water Wherein Pepper Had Lain Infused. In: Phil. Trans. Band 12, 1677, S. 821–831; doi:10.1098/rstl.1677.0003 (Volltext) Mr. Leewenhoeck: Mr. Leewenhoecks Letter Written to the Publisher from Delff the 14th of May 1677, Concerning the Observations by him Made of the Carneous Fibres of a Muscle, and the Cortical and Medullar Part of the Brain; as Also of Moxa and Cotton. In: Phil. Trans. Band 12, 1677, S. 899–895; doi:10.1098/rstl.1677.0027 (Volltext) Doctor Anthonius Lewenhoeck: Observationes D. Anthonii Lewenhoeck, De Natis E Semine Genitali Animalculis. In: Phil. Trans. Band 12, 1677, S. 1040–1046; doi:10.1098/rstl.1677.0068 (Volltext) Literatur Robert D. Huerta: Giants of Delft: Johannes Vermeer and the natural philosophers; the parallel search for knowledge during the age of discovery. Bucknell University Press, Lewisburg, Pa., U.S.A. 2003, ISBN 0-8387-5538-0. Klaus Meyer: Geheimnisse des Antoni van Leeuwenhoek. Pabst Science Publishers, Lengerich 1998, ISBN 3-931660-89-3. Weblinks Lens on Leeuwenhoek (englisch) Antony van Leeuwenhoek, Film von J.C. Mol von 1924 auf Youtube. Einzelnachweise Optiker Persönlichkeit der Lichtmikroskopie Mitglied der Royal Society Korrespondierendes Mitglied der Académie des sciences Person als Namensgeber für einen Asteroiden Niederländer Geboren 1632 Gestorben 1723 Mann Biophysiker Physiker (17. Jahrhundert) Physiker (18. Jahrhundert) Person als Namensgeber für einen Mondkrater
353
https://de.wikipedia.org/wiki/Ambra
Ambra
Ambra oder Amber ist eine graue, wachsartige Substanz aus dem Verdauungstrakt von Pottwalen. Sie wurde früher bei der Parfümherstellung verwendet. Heute ist sie von synthetischen Substanzen weitgehend verdrängt und wird nur noch in wenigen teuren Parfüms verwendet. Etymologie Etymologen leiten die Wortformen Ambra und Amber vom arabischen Wort anbar ab, das häufig wie ambar ausgesprochen wird. Ambra ist auch die mittellateinische Bezeichnung, die über das Italienische ins Deutsche gelangte, während die Form Amber über französisch ambre vermittelt wurde. Das arabische Wort anbar wurde von den Kreuzfahrern nach Europa gebracht. Schon im späten 13. Jahrhundert wurde das Wort in Europa auch zur Bezeichnung von Bernstein verwendet, möglicherweise weil Bernstein wie Ambra an Stränden angespült wird. Es ist aber nicht auszuschließen, dass trotz der gleichlautenden Bezeichnungen für Bernstein und Ambra keine etymologische Verwandtschaft besteht. Als die Verwendung von Ambra stark zurückging, bekam beispielsweise das Wort ambre im Französischen beziehungsweise amber im Englischen die Hauptbedeutung „Bernstein“. Zur sprachlichen Unterscheidung diente nun die Farbe. Bernstein wurde im Englischen früher white amber oder yellow amber genannt; Ambra wird bis heute im Französischen als ambre gris („grauer Amber“; lateinisch ambra chrysea bzw. ambra grisea) bezeichnet und als ambergris im Englischen. Der Zusammenhang der Bezeichnungen für Ambra und Bernstein zeigt sich auch in weiteren Sprachen: Französisch: ambre gris (Ambra), ambre (Bernstein) Italienisch: ambra grigia (Ambra), ambra (Bernstein) Spanisch: ámbar gris (Ambra), ámbar (Bernstein) Englisch: ambergris (Ambra), amber (Bernstein) – daher auch Amber als englisches Fremdwort für Bernstein im Deutschen Neben dem Bernstein wurde in der alten Literatur auch Walrat, weißer Liquidambar und echter flüssiger Storax als (weiße) Ambra bezeichnet. Im frühneuzeitlichen Drogenhandel wurden auch bestimmte Mixturen als Ambra bezeichnet, die unter anderem Bisam (bzw. Moschus) oder Zibet enthielten. Al-Kindī gab zudem unter dem Stichwort Amber drei Duftstoffrezepturen an, die nichts mit der Ambra zu tun hatten. Entstehung Ambra entsteht bei der Nahrungsaufnahme von Pottwalen. Die unverdaulichen Teile wie Schnäbel oder Hornkiefer von Tintenfischen und Kraken werden in Ambra eingebettet. Im Darm einzelner Pottwale können bis zu 400 Kilogramm Ambra enthalten sein. Solche Mengen führen jedoch gehäuft zu Darmverschluss und schließlich zum Tod dieser Tiere. Über die genaue Ursache der Entstehung besteht Unklarheit. Möglicherweise liegt eine Stoffwechselkrankheit des Pottwals vor, wenn er Ambra bildet. Einer anderen Theorie zufolge dient der Stoff dem antibiotischen Wundverschluss bei Verletzungen der Darmwand. Ins Meer gelangt die Substanz durch Erbrechen, als „Kotsteine“ oder durch den natürlichen Tod der Tiere. Ambra wird auf dem Meer treibend in Klumpen von meist bis zu 10 Kilogramm gefunden, in Einzelfällen aber auch über 100 Kilogramm. Diese Ambra-Klumpen können über Jahre bis Jahrzehnte durch die Meere treiben und finden sich als Strandgut an Küsten. Frühere Vorstellungen über die Entstehung Asien Über die Entstehung der Ambra wurde schon im 10. Jahrhundert spekuliert. Der arabische Reisende Al-Masudi gab Berichte von Händlern und Seeleuten wieder, die behaupteten, Ambra wachse wie Pilze auf dem Meeresboden. Sie werde bei Stürmen aufgewirbelt und so an die Küsten gespült. Ambra komme in zwei unterschiedlichen Formen, einer weißen und einer schwarzen, vor. Al-Masudi berichtete auch davon, dass an einer Stelle der arabischen Küste am Indischen Ozean die Bewohner ihre Kamele auf die Suche nach Ambra abgerichtet hätten. Aus Arabien stammt auch die Vorstellung, dass Ambra aus Quellen floss, die sich nahe der Meeresküste befanden. In der Märchenerzählung Tausendundeine Nacht strandete Sindbad, nachdem er Schiffbruch erlitten hatte, auf einer Wüsteninsel, auf der er eine Quelle mit stinkendem, rohem Ambra entdeckte. Die Substanz floss wie Wachs in das Meer, wo sie von riesigen Fischen erst verschluckt und dann wieder in Gestalt wohlriechender Klumpen erbrochen wurde, die an den Strand trieben. Im Kaiserreich China bezeichnete man Ambra bis etwa 1000 n. Chr. als lung sien hiang (Lóngxiánxiāng 龍涎香), als das „Speichelparfüm der Drachen“, da man glaubte, dass die Substanz aus dem Speichel von Drachen stamme, die auf Felsen am Rande des Meeres schliefen. Im Orient ist Ambra noch heute unter diesem Namen bekannt. Europa Im antiken Griechenland, wo Ambra wegen seiner angeblich die Alkoholwirkung verstärkenden Eigenschaft Wein beigemischt wurde, nahm man eine Quelle in Meeresnähe als Ursprungsort der Ambra an. In weiten Teilen des antiken und frühmittelalterlichen Europa nahm man an, dass echter Bernstein und Ambra gleichen oder zumindest ähnlichen Ursprungs seien. Vermutlich geht diese Vorstellung auf die Übereinstimmungen dieser beiden Substanzen im Wohlgeruch, der Seltenheit und des Wertes sowie im äußeren Erscheinungsbild und des Vorkommens (an Meeresküsten) zurück. Allerdings wird schon in frühen Chroniken ein Unterschied zwischen Ambra und Bernstein erwähnt. Ambra wurde danach entweder als Sperma von Fischen oder Walen angesehen, als Kot unbekannter Seevögel (vermutlich aus einer fehlerhaften Deutung der in der Ambra enthaltenen Tintenfischschnäbel) oder als große Bienenstöcke aus Küstengebieten. Marco Polo kannte bereits die Herkunft von Ambra aus dem Magen von Walen. Er berichtete, dass die Bewohner der Insel Sokotra, die nahe dem Horn von Afrika liegt, mit großen Mengen Ambra handelten. Laut seinem Bericht zogen sie die Kadaver von verendeten Walen an Land, um Ambra aus dem Magen zu holen und „Öl“ aus dem Kopf zu gewinnen. Johannes Hartlieb gab in seinem Kräuterbuch (Entstehung zwischen 1435 und 1450) an, dass Ambra auf dem Meeresboden wachse und dort durch Wasserturbulenzen von Walen losgelöst werde. Dies entsprach Al-Masudis Theorie über die Herkunft der Ambra, die im 16. Jahrhundert auch von Adam Lonitzer vertreten wurde. 1574 folgerte der flämische Botaniker Carolus Clusius als erster aus Einschlüssen von Tintenfischschnäbeln im Ambra, dass dieses aus dem Verdauungstrakt von Walen stammt. Dies blieb aber lange Zeit wenig beachtet. Erst später, als man bei der Schlachtung von Pottwalen frische Ambra im Darm einzelner Tiere entdeckte, wurde Clusius’ Aussage bestätigt. Der Schiffsarzt Exquemelin deutete Ambra noch im 17. Jahrhundert als Wachs von Wildbienen: „In diesen Landschaften gibt es ja auch viele Bienen, die an den Waldbäumen ihren Honig machen, und so passiert es denn nicht selten, dass durch heftige Stürme das Wachs zusamt dem an den Bäumen hängenden Honig dem Meere zugetrieben wird. […] Was wohl recht glaubhaft ist, denn dieses Ambra ist, wenn man es findet, noch weich und riecht wie Wachs.“ Das 1721 in Leipzig erschienene Allgemeine Lexicon der Künste und Wissenschafften beschreibt als wahrscheinlichste Erklärung für Ambra dies als ein „Erdpech“, das durch die Flut angeschwemmt und durch Luft und Meerwasser gehärtet werde. Im Jahre 1783 legte der Botaniker Joseph Banks der Royal Society eine Arbeit des in London lebenden deutschen Arztes Franz Xaver Schwediauer vor, in der dieser die in Westeuropa vorherrschenden Irrtümer über Ambra und den Ursprung dieser Substanz beschrieb. Er identifizierte Ambra als ein Erzeugnis des oft unnatürlich aufgeblähten Darms kranker Pottwale und brachte die Entstehung von Ambra mit den Schnäbeln von Tintenfischen, der Hauptnahrung der Pottwale, in Verbindung. Eigenschaften Ambra ist eine graue bis schwarze mit hellgelben bis grauen Streifen oder Punkten durchsetzte, undurchsichtige, wachsartige, zähe Masse. Die Dichte beträgt etwa 0,8–0,9 g/cm³, sie ist in Wasser unlöslich, in Alkohol und Ether schwach löslich, der Schmelzpunkt liegt bei ca. 60 °C, der Siedepunkt bei etwa 100 °C. Frische Ambra ist weiß, weich und riecht abstoßend. Erst durch den über Jahre oder Jahrzehnte währenden Kontakt mit Luft, Licht und Salzwasser erhält sie ihre feste Konsistenz und ihren angenehmen Duft. Sie besteht zu etwa 95 % aus geruchslosen Sterinen (Epicoprosterol, Coprosterol, Coprostanone, Cholesterol) und dem ebenfalls geruchslosen Triterpenalkohol Ambrein sowie Pristan und Ketonen. Neuere Untersuchungen mit Hilfe der Kopplung der Gaschromatographie mit der Massenspektrometrie zeigen, dass ein Dichlormethan-Extrakt als Hauptkomponente Ambrein neben verschiedenen Sterinen enthielt. Die geruchsbestimmenden Inhaltsstoffe (ca. 0,5 %) werden durch Luft und Licht aus Ambrein gebildet – u. a. Ambrox und Ambrinol. Die Duftnote wird als holzig, trocken, balsamisch, etwas tabakartig mit aphrodisierendem Einschlag beschrieben. Ambra, bzw. ihre synthetische Form, wird typischerweise als Basisnote in Duftkompositionen eingesetzt. Die beiden französischen Chemiker Joseph Bienaimé Caventou und Pierre Joseph Pelletier waren die ersten, die Ambrein isolierten, charakterisierten und so benannten. Verwendung Der grauen und schwarzen Ambra kam bei der Herstellung von Parfüm erhebliche Bedeutung zu. In Asien ist Ambra ein beliebter Räucherstoff, der schon viele Jahrhunderte vor Christus bei verschiedenen Ritualen und Zeremonien eingesetzt wurde. Im Orient wird Ambra auch als Gewürz für Nahrungsmittel und Weine und als Aphrodisiakum verwendet. Ambra wurde früher auch zur Zubereitung besonders exklusiver Speisen verwendet. In Kosmetikprodukten wird sie in der Liste der Inhaltsstoffe als angegeben. Im Mittelalter wurde Ambra als Arznei im Rahmen der Humoralpathologie verwendet. Johannes Hartlieb erläuterte in seinem Kräuterbuch, die Substanz wirke im zweiten Grade trocken und heiß. Dadurch helfe Ambra hervorragend bei allen Herzerkrankungen, es gilt als die hochst erznei zu dem herzen. Ferner wirke Ambra gegen Ohnmachten, Epilepsie und Gebärmutterhochstand. Ein aus Ambra als Hauptbestandteil zubereitetes Arzneimittel wurde als Diambra bezeichnet. Jan Huygen van Linschoten schrieb in seinen Reiseberichten über die Ambra: Adam Lonitzer gab in seinem Kreüterbuch mit folgenden Worten eine Ersatzrezeptur für echte Ambra an: Wert Bereits im 15. Jahrhundert wurde Ambra in Europa gehandelt und mit Gold aufgewogen, wenngleich diese Funde nur in seltenen Fällen den höchsten Qualitätsansprüchen genügten. Leo Africanus schrieb im 16. Jahrhundert, dass in Fès der Preis für ein Pfund Ambra bei 60 Dukaten liege (im Vergleich dazu kostete ein Sklave 20, ein Eunuch 40 und ein Kamel 50 Dukaten). Damit war es eine sehr kostbare Substanz. Aufgrund der Synthetisierung dieser Substanz und des Handelsverbots von Pottwalprodukten gemäß dem Washingtoner Artenschutz-Übereinkommen wird natürliches Ambra heute nicht mehr benötigt. Für angespülte Fundstücke werden jedoch nach wie vor hohe Summen gezahlt, die je nach Qualität pro Kilogramm auch im fünfstelligen Eurobereich liegen können. Ein im Dezember 2012 vor der niederländischen Insel Texel angespülter Pottwalkadaver enthielt einen Ambrabrocken mit einem Gewicht von 83 Kilogramm im Wert von etwa 500.000 Euro. Vor der Küste des Jemen wurde im April 2021 sogar ein Fundstück von 132 Kilogramm im Bauch eines verendeten Wales entdeckt und machte die glücklichen Fischer zu Millionären (Zeitwert von einem Kilogramm Ambra: ca. 80.000 €). Im Oktober 2021 fand ein Fischer im Süden Thailands einen Klotz Ambra von über 30 Kilogramm. Dessen Wert wurde auf über eine Million Euro geschätzt. 2023 wurde auf der Kanarischen Insel La Palma ein Pottwalkadaver angespült, der über 9 kg Ambra mit einem Schätzwert von 500.000 Euro enthielt. Ambra in der Literatur In der Liebeslyrik wurde häufig die Ambra genannt. In Herman Melvilles Moby-Dick heißt es: Siehe auch Ambergris-Gletscher Weblinks Randy D. Ralph: , Januar 2011 (englisch). Literatur Alain Corbin: Pesthauch und Blütenduft: Eine Geschichte des Geruchs. (Originaltitel: Le miasme et la jonquille. Aubier Montaigne, Paris 1982. Übersetzt von Grete Osterwald), Wagenbach, Berlin 2005 (Erstausgabe 1984), ISBN 978-3-8031-3618-3. Sabine Krist/Wilfried Grießer: Die Erforschung der chemischen Sinne. Geruchs- und Geschmackstheorien von der Antike bis zur Gegenwart. Lang, Frankfurt am Main / Berlin / Bern / Bruxelles / New York / Oxford / Wien 2006, ISBN 978-3-631-55284-1. Gisela Reinecke, Claudia Pilatus: Parfum – Lexikon der Düfte. Komet, Köln 2006, ISBN 978-3-89836-596-3. Renate Smollich: Der Bisamapfel in Kunst und Wissenschaft. Deutscher Apotheker Verlag, Stuttgart 1983, ISBN 3-7692-0733-5, S. 26–30, (zur Geschichte des Duftstoffs). Hans Irion: Drogisten Lexikon. 2. Band: A–K. Springer, 1955, ISBN 978-3-642-49508-3, S. 66 f. Einzelnachweise Duftstoff Stoffgemisch Walfang Tierisches Produkt Bernstein
354
https://de.wikipedia.org/wiki/Albedo
Albedo
Die Albedo (; von ) ist ein Maß für das Rückstrahlvermögen (Reflexionsstrahlung) von diffus reflektierenden, also nicht selbst leuchtenden Oberflächen. Sie wird als dimensionslose Zahl angegeben und entspricht dem Verhältnis von rückgestrahltem zu einfallendem Licht (eine Albedo von 0,9 entspricht 90 % Rückstrahlung). Die Albedo hängt bei einer gegebenen Oberfläche von der Wellenlänge des einstrahlenden Lichtes ab und kann für Wellenlängenbereiche – z. B. das Sonnenspektrum oder das sichtbare Licht – angegeben werden. Vor allem in der Meteorologie ist sie von Bedeutung, da sie Aussagen darüber ermöglicht, wie stark sich eine Oberfläche erwärmt – und damit auch die Luft in Kontakt mit der Oberfläche. In der Klimatologie ist die so genannte Eis-Albedo-Rückkopplung ein wesentlicher, den Strahlungsantrieb und damit die Strahlungsbilanz der Erde beeinflussender Faktor, der relevant für den Erhalt des Weltklimas ist. In der 3D-Computergrafik findet die Albedo ebenfalls Verwendung; dort dient sie als Maß für die diffuse Streukraft verschiedener Materialien für Simulationen der Volumenstreuung. In der Astronomie spielt die Albedo eine wichtige Rolle, da sie mit grundlegenden Parametern von Himmelskörpern (z. B. Durchmesser, scheinbare/absolute Helligkeit) zusammenhängt. Albedoarten Es werden verschiedene Arten der Albedo unterschieden: Die sphärische Albedo (auch planetarische Albedo, Bondsche Albedo oder bolometrische Albedo genannt) ist das Verhältnis des von einer Kugeloberfläche in alle Richtungen reflektierten Lichts zu der auf den Kugelquerschnitt einfallenden Strahlung. Bei der planetarischen Albedo gilt als Oberfläche der obere Rand der Atmosphäre. Die sphärische Albedo liegt stets zwischen 0 und 1. Der Wert 0 entspricht einer vollständigen Absorption und 1 einer vollständigen Reflexion des einfallenden Lichts. Die geometrische Albedo ist das Verhältnis des von einer vollen bestrahlten Fläche zum Beobachter gelangenden Strahlungsstroms zu dem, der von einer diffus reflektierenden, absolut weißen Scheibe (ein sogenannter Lambertstrahler) gleicher Größe bei senkrechtem Lichteinfall zum Beobachter gelangen würde. Die geometrische Albedo kann in seltenen Fällen auch Werte größer 1 annehmen, weil reale Oberflächen nicht ideal diffus reflektieren. Das Verhältnis zwischen sphärischer Albedo und geometrischer Albedo ist das sogenannte Phasenintegral (siehe Phase), das die winkelabhängige Reflektivität jedes Flächenelements berücksichtigt. Messung Die Messung der Albedo erfolgt über Albedometer und wird in Prozent angegeben. In der Astronomie können aufgrund der großen Entfernungen keine Albedometer eingesetzt werden. Die geometrische Albedo kann hier aber aus der scheinbaren Helligkeit und dem Radius des Himmelskörpers und den Entfernungen zwischen Erde, Objekt und Sonne berechnet werden. Um die sphärische Albedo zu bestimmen, muss auch das Phasenintegral (und somit die Phasenfunktion) bekannt sein. Diese ist allerdings nur für diejenigen Himmelskörper vollständig bekannt, die sich innerhalb der Erdbahn bewegen (Merkur, Venus). Für die oberen Planeten kann die Phasenfunktion nur teilweise bestimmt werden, wodurch auch die Werte für ihre sphärische Albedo nicht exakt bekannt sind. Satelliten der US-Raumfahrtbehörde NASA messen seit ca. 2004 die Albedo der Erde. Diese ist insgesamt, abgesehen von kurzfristigen Schwankungen, in den letzten zwei Jahrzehnten konstant geblieben; regional dagegen gab es Veränderungen von mehr als 8 %. In der Arktis z. B. ist die Rückstrahlung geringer, in Australien höher geworden. Demgegenüber steht eine Studie aus dem Jahr 2021 – sie zeigt, dass die Albedo zwischen 1998 und 2017 um ~0,5 % abgesunken ist, wobei der Zusammenhang zum Klimawandel ungeklärt ist. Die Entwicklung könnte durch den Klimawandel mitverursacht worden sein und/oder die globale Erwärmung signifikant verstärken. Das Deep Space Climate Observatory misst seit 2015 die Erd-Albedo in einem Abstand von 1,5 Millionen Kilometern zur Erde vom Lagrange-Punkt L1 aus. An diesem Punkt hat die Sonde einen dauerhaften Blick auf die sonnenbeschienene Seite der Erde. Einflüsse Die Oberflächenbeschaffenheit eines Himmelskörpers bestimmt seine Albedo. Der Vergleich mit den Albedowerten irdischer Substanzen ermöglicht es also, Rückschlüsse auf die Beschaffenheit anderer planetarer Oberflächen zu ziehen. Gemäß der Definition der sphärischen Albedo ist die Voraussetzung von parallel einfallendem Licht wegen der großen Entfernungen der reflektierenden Himmelskörper von der Sonne als Lichtquelle sehr gut gegeben. Die stets geschlossene Wolkendecke der Venus strahlt viel mehr Licht zurück als die basaltartigen Oberflächenteile des Mondes. Die Venus besitzt daher mit einer mittleren sphärischen Albedo von 0,76 ein sehr hohes, der Mond mit durchschnittlich 0,12 ein sehr geringes Rückstrahlvermögen. Die Erde hat eine mittlere sphärische Albedo von 0,3. Durch die globale Erwärmung verschieben sich auf der Erde die regionalen Albedo-Werte. Durch Verschiebung der Wolkenbänder sank die Albedo z. B. in der nördlichen gemäßigten Zone, stieg dafür aber weiter im Norden. Die höchsten bisher gemessenen Werte fallen auf die Saturnmonde Telesto (0,994) und Enceladus (0,99). Der niedrigste Mittelwert wurde mit nur 0,03 am Kometen Borrelly festgestellt. Glatte Oberflächen wie Wasser, Sand oder Schnee haben einen relativ hohen Anteil spiegelnder Reflexion, der von Kreide ebenso, ihre Albedo ist deshalb stark abhängig vom Einfallswinkel der Sonnenstrahlung (siehe Tabelle). Die Albedo ist außerdem abhängig von der Wellenlänge des Lichts, das untersucht wird, weswegen bei der Angabe der Albedowerte immer der entsprechende Wellenlängenbereich angegeben werden sollte. Berücksichtigung in der Bautechnik Zur Verbesserung des städtischen Mikroklimas werden bei der Planung und Ausführung von Verkehrsflächen im zunehmenden Maße Oberflächen mit günstigen Albedowerten berücksichtigt. Die Reflexionseigenschaften von Asphalt- und Betonoberflächen können beispielsweise durch die Verwendung heller Gesteinskörnungen optimiert werden. Zwei ausführliche Fachartikel finden sich in . Weblinks Mehrsprachige Umweltenzyklopädie ESPERE Einzelnachweise Meteorologische Größe Photometrische Größe
355
https://de.wikipedia.org/wiki/Algebraische%20Zahl
Algebraische Zahl
In der Mathematik ist eine algebraische Zahl eine reelle oder komplexe Zahl, die Nullstelle eines Polynoms vom Grad größer als Null (nicht-konstantes Polynom) mit rationalen Koeffizienten und sowie ist, also eine Lösung der Gleichung . Die so definierten algebraischen Zahlen bilden eine echte Teilmenge der komplexen Zahlen . Offenbar ist jede rationale Zahl algebraisch, da sie die Gleichung löst. Es gilt also . Ist eine reelle (oder allgemeiner komplexe) Zahl nicht algebraisch, so heißt sie transzendent. Die ebenfalls gebräuchliche Definition der algebraischen Zahlen als Nullstellen von Polynomen mit ganzzahligen Koeffizienten ist äquivalent zur oben angegebenen. Jedes Polynom mit rationalen Koeffizienten kann durch Multiplikation mit dem Hauptnenner der Koeffizienten in eines mit ganzzahligen Koeffizienten umgewandelt werden. Das entstehende Polynom hat dieselben Nullstellen wie das Ausgangspolynom. Polynome mit rationalen Koeffizienten kann man normieren, indem man alle Koeffizienten durch den Koeffizienten dividiert. Nullstellen von normierten Polynomen, deren Koeffizienten ganzzahlig sind, nennt man ganzalgebraische Zahlen oder auch ganze algebraische Zahlen. Die ganzalgebraischen Zahlen bilden einen Unterring der algebraischen Zahlen, der aber nicht faktoriell ist. Zum allgemeinen Begriff der Ganzheit siehe Ganzheit (kommutative Algebra). Man kann den Begriff der algebraischen Zahl zu dem des algebraischen Elements erweitern, indem man die Koeffizienten des Polynoms statt aus aus einem beliebigen Körper entnimmt. Grad und Minimalpolynom einer algebraischen Zahl Für viele Untersuchungen algebraischer Zahlen sind der im Folgenden definierte Grad und das Minimalpolynom einer algebraischen Zahl wichtig. Ist eine algebraische Zahl, die eine algebraische Gleichung mit , erfüllt, aber im Fall keine derartige Gleichung geringeren Grades, dann nennt man den Grad von . Damit sind alle rationalen Zahlen vom Grad 1. Alle irrationalen Quadratwurzeln rationaler Zahlen sind vom Grad 2. Die Zahl ist gleichzeitig der Grad des Polynoms , des sogenannten Minimalpolynoms von . Beispiele Beispielsweise ist eine ganze algebraische Zahl, denn sie ist eine Lösung der Gleichung . Ebenso ist die imaginäre Einheit als Lösung von ganzalgebraisch. ist eine ganze algebraische Zahl vom Grad 4. Siehe dazu Beispiel für algebraisches Element. und sind Beispiele für algebraische Zahlen 1. bzw. 2. Grades, die nicht ganzalgebraisch sind. Gegen Ende des 19. Jahrhunderts wurde bewiesen, dass die Kreiszahl und die Eulersche Zahl nicht algebraisch sind. Von anderen Zahlen, wie zum Beispiel , weiß man bis heute nicht, ob sie algebraisch oder transzendent sind. Siehe dazu den Artikel Transzendente Zahl. Eigenschaften Die Menge der algebraischen Zahlen ist abzählbar und bildet einen Körper. Der Körper der algebraischen Zahlen ist algebraisch abgeschlossen, d. h., jedes Polynom mit algebraischen Koeffizienten besitzt nur algebraische Nullstellen. Dieser Körper ist ein minimaler algebraisch abgeschlossener Oberkörper von und ist damit dessen algebraischer Abschluss. Man schreibt ihn oft als (für „algebraischer Abschluss von “; verwechselbar mit anderen Abschlussbegriffen) oder als (für „Algebraische Zahlen“). Oberhalb des Körpers der rationalen Zahlen und unterhalb des Körpers der algebraischen Zahlen befinden sich unendlich viele Zwischenkörper, etwa die Menge aller Zahlen der Form , wobei und rationale Zahlen sind sowie irrational und Quadratwurzel einer rationalen Zahl ist. Auch der Körper der mit Zirkel und Lineal aus konstruierbaren Punkte der komplexen Zahlenebene ist ein solcher algebraischer Zwischenkörper. Im Rahmen der Galoistheorie werden diese Zwischenkörper untersucht, um so tiefe Einblicke über die Lösbarkeit oder Nichtlösbarkeit von Gleichungen zu erhalten. Ein Resultat der Galoistheorie ist, dass zwar jede komplexe Zahl, die man aus rationalen Zahlen durch Verwendung der Grundrechenarten (Addition, Subtraktion, Multiplikation und Division) sowie durch Ziehen n-ter Wurzeln (n eine natürliche Zahl) erhalten kann (man nennt solche Zahlen „durch Radikale darstellbar“), algebraisch ist, umgekehrt aber algebraische Zahlen existieren, die man nicht in dieser Weise darstellen kann; alle diese Zahlen sind Nullstellen von Polynomen mindestens 5. Grades. Weblinks Barry Mazur: Algebraic Numbers. (PDF; 272 kB). Einzelnachweise Zahl Algebraische Zahlentheorie Körpertheorie
356
https://de.wikipedia.org/wiki/Andr%C3%A9%20Gide
André Gide
André Paul Guillaume Gide [] (* 22. November 1869 in Paris; † 19. Februar 1951 ebenda) war ein französischer Schriftsteller. 1947 erhielt er den Literaturnobelpreis. Leben und Schaffen Herkunft, Jugend und Heirat André Gide war das einzige Kind einer wohlhabenden calvinistischen Familie. Der Vater, Paul Gide (1832–1880), war Professor der Rechtswissenschaft und stammte aus der mittleren Bourgeoisie der südfranzösischen Kleinstadt Uzès, die Mutter, Juliette Rondeaux (1835–1895), aus der Großbourgeoisie von Rouen. Die Familie lebte in Paris, verbrachte die Tage um Neujahr regelmäßig in Rouen, die Osterzeit in Uzès und die Sommermonate auf den beiden Landsitzen der Rondeaux' in der Normandie, La Roque-Baignard im Pays d’Auge und Cuverville im Pays de Caux. Mit knapp elf Jahren verlor Gide seinen Vater. Zwar trat dadurch keine materielle Notlage ein, doch war er nun ganz der puritanischen Erziehung seiner Mutter unterworfen. In seiner Autobiographie wird Gide die eigene Kindheit und Jugend, speziell das Wirken der strengen, freud- und lieblosen Mutter in dunklen Farben malen und für seine Probleme als Heranwachsender verantwortlich machen: „In dem unschuldigen Alter, in dem man in der Seele gerne nichts als Lauterkeit, Zartheit und Reinheit sieht, entdecke ich in mir nur Finsternis, Häßlichkeit und Heimtücke.“ Gide hatte seit 1874 Unterricht bei Privatlehrern, besuchte phasenweise auch reguläre Schulen, immer wieder unterbrochen durch Nervenleiden, die ärztliche Behandlung und Kuraufenthalte erforderlich machten. Im Oktober 1887 trat der fast 18-jährige Gide in die Unterprima der reformpädagogischen École Alsacienne ein, wo er sich mit Pierre Louÿs anfreundete. Im Jahr darauf besuchte er die Oberprima des Traditionsgymnasiums Henri IV, an dem er im Oktober 1889 das Baccalauréat ablegte. In dieser Zeit begann seine Freundschaft mit Léon Blum. Bei einem Besuch in Rouen im Dezember 1882 verliebte sich Gide in seine Kusine Madeleine Rondeaux (1867–1938), die Tochter von Juliette Gides Bruder Émile Rondeaux. Der 13-jährige André erlebte damals, wie sehr seine Kusine unter der ehelichen Untreue ihrer Mutter litt und sah in ihr fortan den Inbegriff von Reinheit und Tugend im Gegensatz zu seiner eigenen, so empfundenen Unreinheit. Diese Jugendliebe überdauerte die folgenden Jahre und 1891 machte Gide Madeleine erstmals einen Heiratsantrag, den diese aber ablehnte. Erst nach dem Tod Juliette Gides im Mai 1895 verlobte sich das Paar und heiratete noch im Oktober 1895, dies zu einem Zeitpunkt, da Gide sich seiner Homosexualität bereits bewusst geworden war. Die Spannung, die sich daraus ergab, wird Gides literarisches Werk – zumindest bis 1914 – mitprägen und seine Ehe schwer belasten. Aufgrund des Verhältnisses, das er ab 1917 mit Marc Allégret einging, verbrannte Madeleine 1918 sämtliche Briefe, die er ihr geschrieben hatte. Zwar blieb das Paar verheiratet, doch lebten beide nun meist getrennt. Nach Madeleines Tod im Jahr 1938 reflektierte Gide ihre Beziehung – „die verborgene Tragödie“ seines Lebens – in der Schrift Et nunc manet in te. Der befreundete Schriftsteller Jean Schlumberger widmete dieser Ehe das Buch Madeleine und André Gide, in dem Madeleine eine günstigere Darstellung fand als in Gides autobiographischen Schriften. Literarische Anfänge Gide entschied sich nach dem Baccalauréat gegen ein Studium und war auch nicht gezwungen, einer Erwerbsarbeit nachzugehen. Sein Ziel war, Schriftsteller zu werden. Erste Versuche hatte er schon während der Schulzeit unternommen, als er mit Freunden, darunter Marcel Drouin und Pierre Louÿs, im Januar 1889 die literarische Zeitschrift Potache-Revue gründete und dort seine ersten Verse veröffentlichte. Im Sommer 1890 begab er sich alleine nach Menthon-Saint-Bernard am Lac d’Annecy, um sein erstes Buch zu schreiben: Les Cahiers d’André Walter („Die Tagebücher des André Walter“), die er auf eigene Kosten drucken ließ (wie alle Werke bis 1909!) und die 1891 erschienen. Gides autobiographisch geprägter Erstling hat die Form eines posthum aufgefundenen Tagebuchs des jungen André Walter, der sich, nachdem er seine Hoffnung auf die geliebte Emmanuèle hat aufgeben müssen, in die Einsamkeit zurückgezogen hat, um den Roman Allain zu schreiben; das Tagebuch dokumentiert seinen Weg in den Wahnsinn. Während der André Walter zum Druck vorbereitet wurde, besuchte Gide im Dezember 1890 seinen Onkel Charles Gide in Montpellier, wo er – vermittelt durch Pierre Louÿs – Paul Valéry kennenlernte, dem er später (1894) seine ersten Schritte in Paris erleichterte und dem er bis zu dessen Tod 1945 freundschaftlich verbunden bleiben sollte. Zwar brachte der André Walter Gide keinen kommerziellen Erfolg („Ja, der Erfolg war gleich Null.“), doch ermöglichte er ihm den Zugang zu wichtigen Kreisen der Symbolisten in Paris. Wiederum vermittelt durch Pierre Louÿs, wurde er 1891 in die Zirkel von José-Maria de Heredia und von Stéphane Mallarmé aufgenommen. Dort verkehrte er mit berühmten Literaten seiner Zeit, darunter Henri de Régnier, Maurice Barrès, Maurice Maeterlinck, Bernard Lazare und Oscar Wilde, mit dem er 1891/92 regelmäßig in Kontakt stand. Gide selbst lieferte 1891 mit der kleinen Abhandlung Traité du Narcisse. Théorie du symbole („Traktat vom Narziß. Theorie des Symbols“) eine symbolistische Programmschrift, die für das Verständnis seiner Poetik – auch jenseits seiner symbolistischen Anfänge – grundlegende Bedeutung hat. Im Narziss-Mythos entwirft Gide sein eigenes Bild als Schriftsteller, der sich selbst bespiegelt, in permanentem Dialog mit sich selbst steht, für sich selbst schreibt und sich dadurch als Person erst erschafft. Die dieser Haltung angemessene Gattung ist das Tagebuch, das Gide seit 1889 konsequent führt, ergänzt durch weitere autobiographische Texte; aber auch in seinen erzählenden Werken ist das Tagebuch als Darstellungsmittel allgegenwärtig. Im Jahr 1892 veröffentlichte Gide das Gedichtbändchen Poésies d’André Walter („Die Gedichte des André Walter“), in dem eine Auswahl aus jenen Versen geboten wurde, die der Schüler bereits in Potache-Revue publiziert hatte. Im Februar 1893 lernte er in den literarischen Zirkeln von Paris Eugène Rouart (1872–1936) kennen, der ihm die Bekanntschaft mit Francis Jammes vermittelte. Die Freundschaft zu Rouart, die bis zu dessen Tod bestand, hatte für Gide große Bedeutung, weil er in dem ebenfalls homosexuell veranlagten Freund einen Kommunikationspartner fand, den die gleiche Identitätssuche umtrieb. Der Briefwechsel beider, vor allem in den Jahren 1893 bis 1895, zeigt den vorsichtig tastenden Dialog, der beispielsweise über das 1893 auf Französisch erschienene Werk Die conträre Sexualempfindung von Albert Moll geführt wurde. Im Jahr 1893 veröffentlichte Gide die kurze Erzählung La Tentative amoureuse („Der Liebesversuch“), deren Haupthandlung aus einer unverklemmten Liebesgeschichte besteht, deren leicht ironischer Nachspann dagegen eine „Madame“ anspricht, die sichtlich diffiziler ist als die Geliebte der Haupthandlung. Im selben Jahr verfasste er die lyrische lange Erzählung Le Voyage d’Urien („Die Reise Urians“), wo er in Form eines phantastischen Reiseberichts wieder einmal die schwierige Suche eines müßigen, materiell sorgenfreien jungen Intellektuellen nach dem „wahren Leben“ thematisiert. Afrikareisen 1893/94 und 1895 Im Jahr 1893 ergab sich für Gide die Möglichkeit, den befreundeten Maler Paul-Albert Laurens (1870–1934) nach Nordafrika zu begleiten. Die Freunde setzten im Oktober von Marseille nach Tunis über, reisten weiter nach Sousse, verbrachten die Wintermonate im algerischen Biskra und kehrten über Italien zurück. Gide war im November 1892 wegen einer leichten Tuberkulose vom Militärdienst befreit worden; während der Reise nach Sousse brach die Krankheit aus. Die Monate in Biskra dienten der Regeneration und waren mit ersten heterosexuellen Kontakten zu jungen Prostituierten verbunden. Für Gide noch bedeutsamer war die erste homosexuelle Erfahrung mit einem Jugendlichen, die sich bereits in Sousse zugetragen hatte. Die langsame Genesung und die erwachte Sinnlichkeit in der nordafrikanischen Landschaft erlebte Gide als Wendepunkt in seinem Leben: „mir schien, als hätte ich zuvor gar nicht gelebt, als träte ich aus dem Tal der Schatten und des Todes ins Licht des wahren Lebens, in ein neues Dasein, in dem alles Erwartung, alles Hingabe wäre.“ Von der Reise zurückgekehrt empfand Gide ein „Gefühl der Entfremdung“ seinen bisherigen Lebensumständen gegenüber, was er in dem Werk Paludes („Sümpfe“) verarbeitete, das während eines Aufenthaltes in La Brévine in der Schweiz entstand (Oktober bis Dezember 1894). In Palude karikiert er nicht ohne Melancholie den Leerlauf in den Literatenzirkeln der Hauptstadt, aber auch seine eigene Rolle darin. Schon im Januar 1895 reiste Gide erneut nach Nordafrika, diesmal alleine. Seine Aufenthaltsorte waren Algier, Blida und Biskra. In Blida traf er zufällig auf Oscar Wilde und dessen Geliebten Alfred Douglas. Wilde, der zu diesem Zeitpunkt kurz vor seiner Rückkehr nach England stand, die ihn gesellschaftlich vernichten sollte, organisierte während eines gemeinsamen Aufenthaltes in Algier eine sexuelle Begegnung Gides mit einem Jugendlichen (Mohammed, ca. 14-jährig), dem Gide in seiner Autobiographie zentrale Bedeutung beimessen wird: „(…) erst jetzt fand ich endlich zu meiner eigenen Norm.“ Gide hat in seinem Leben eine Vielzahl weiterer Afrikareisen unternommen, schon die Hochzeitsreise führte ihn 1896 nach Nordafrika zurück. Klaus Mann verglich die lebensgeschichtliche Bedeutung der ersten beiden Afrikareisen für Gide, „die Wonne echter Neugeburt“, mit dem Italienerlebnis Goethes. Gide verarbeitete dieses Erlebnis in zentralen Texten seines literarischen Werkes: in lyrischer Prosa in Les Nourritures terrestres („Uns nährt die Erde“, 1897), als problemorientierte Erzählung in L’Immoraliste („Der Immoralist“, 1902), schließlich autobiographisch in Si le grain ne meurt („Stirb und werde“, 1926). Speziell die Autobiographie sorgte zeitgenössisch wegen ihres offenen Bekenntnisses zur Homosexualität für kontroverse Debatten; später galt sie als Meilenstein in der Entwicklung schwulen Selbstbewusstseins in westlichen Gesellschaften. Etablierung als Autor Nach der Rückkehr aus Afrika verbrachte Gide zwei Wochen in Gesellschaft seiner Mutter in Paris, bevor diese auf das Gut La Roque abreiste, wo sie am 31. Mai 1895 verstarb. Die spannungsreiche Beziehung zwischen Mutter und Sohn hatte sich zuletzt versöhnlicher gestaltet und Juliette Gide hatte ihren Widerstand gegen eine Eheschließung von Madeleine und André aufgegeben. Nach ihrem Tod verlobte sich das Paar am 17. Juni und heiratete am 7. Oktober 1895 in Cuverville. Gide berichtete später, dass er noch vor der Verlobung einen Arzt aufgesucht habe, um über seine homosexuellen Neigungen zu sprechen. Der Mediziner empfahl die Ehe als Heilmittel („Sie kommen mir vor wie ein Ausgehungerter, der bis heute versucht hat, sich von Essiggurken zu nähren.“). Die Ehe wurde wohl nie vollzogen, Gide trennte radikal zwischen Liebe und sexuellem Verlangen. Die Hochzeitsreise führte in die Schweiz, nach Italien und Nordafrika (Tunis, Biskra). Seine Reisenotizen Feuilles de route („Blätter von unterwegs“) sparen die Eheproblematik aus und konzentrieren sich ganz auf die sinnliche Präsenz von Natur und Kultur. Nach ihrer Rückkehr erfuhr Gide im Mai 1896, dass er zum Bürgermeister des Dorfes La Roque-Baignard gewählt worden war. Er übte dieses Amt aus, bis das Gut La Roque im Jahr 1900 verkauft wurde. Die Gides behielten nur Madeleines Erbe Cuverville. Im Jahr 1897 erschien Les Nourritures terrestres. Seit der ersten Übersetzung ins Deutsche durch Hans Prinzhorn im Jahr 1930 war dieses Werk unter dem Titel Uns nährt die Erde bekannt, die neuere Übertragung durch Hans Hinterhäuser übersetzt Die Früchte der Erde. Gide hatte seit der ersten Afrikareise an dem Text gearbeitet, dessen erste Fragmente 1896 in der Zeitschrift L’Ermitage publiziert wurden. In einer Mischung aus Lyrik und hymnischer Prosa gibt Gide seinem Befreiungserlebnis Ausdruck: in der Ablehnung des Gegensatzes von Gut und Böse, im Eintreten für Sinnlichkeit und Sexualität in jeder Form, in der Feier des rauschhaften Genusses gegen Reflexion und Rationalität. Mit diesem Werk wandte sich Gide vom Symbolismus und von der Salonkultur des Pariser Fin de Siècle ab. Es verschaffte ihm unter jüngeren Literaten Bewunderung und Gefolgschaft, war zunächst aber kein kommerzieller Erfolg; bis zum Ersten Weltkrieg verkauften sich nur einige Hundert Exemplare. Nach 1918 aber entwickelte sich Les Nourritures terrestres „für mehrere Generationen zur Bibel“. Gide trat in seinen frühen Jahren kaum als politischer Autor hervor. Sein Antinaturalismus erstrebte Kunstwerke, „die außerhalb der Zeit und aller »Kontingenzen« stünden“. In der Dreyfus-Affäre jedoch, die Frankreichs Öffentlichkeit seit 1897/98 spaltete, positionierte er sich klar auf Seiten Emile Zolas und unterzeichnete im Januar 1898 die Petition der Intellektuellen zugunsten eines Revisionsverfahrens für Alfred Dreyfus. Im selben Jahr publizierte er in der Zeitschrift L’Ermitage den Artikel A propos der «Déracinés», in dem er sich anlässlich der Veröffentlichung des Romans Les Déracinés („Die Entwurzelten“) von Maurice Barrès, gegen dessen nationalistische Entwurzelungstheorie wandte. Wieder ganz dem absoluten Kunstideal entsprach dann die 1899 veröffentlichte Erzählung Le Prométhée mal enchaîné („Der schlechtgefesselte Prometheus“), die um das Motiv des acte gratuit kreist, einer völlig freien, willkürlichen Handlung. Gide zeigte früh Interesse am deutschsprachigen Kulturraum. Schon als Schüler begeisterte er sich für Heinrich Heine, dessen Buch der Lieder er im Original las. Im Jahr 1892 führte ihn eine erste Deutschland-Reise nach München. Bald ergaben sich persönliche Kontakte zu deutschsprachigen Autoren, etwa zu dem Symbolisten und Lyriker Karl Gustav Vollmoeller, den er 1898 kennenlernte und noch im selben Jahr in dessen Sommerresidenz in Sorrent besuchte. Durch Vollmöller kam Gide 1904 in Kontakt mit Felix Paul Greve. In diese Zeit fällt auch seine Bekanntschaft mit Franz Blei. Greve und Blei traten als frühe Übersetzer Gides ins Deutsche hervor. Auf Einladung Harry Graf Kesslers besuchte Gide 1903 Weimar und hielt vor der Fürstin Amalie am Weimarer Hof den Vortrag Über die Wichtigkeit des Publikums. Gide sollte sich zeitlebens, insbesondere nach 1918, für die französisch-deutschen Beziehungen einsetzen. An geistigen Einflüssen sind Goethe und Nietzsche hervorzuheben; mit letzterem setzte sich Gide seit 1898 intensiv auseinander. Um die Jahrhundertwende wandte sich Gide verstärkt dramatischen Arbeiten zu. Seine szenischen Werke knüpfen an Stoffe der antiken Überlieferung oder biblische Geschichten an. Im Mittelpunkt seiner Ideendramen stehen Figuren, auf die Gide seine eigenen Erfahrungen und Ideen projiziert. In dem für seine dramaturgischen Überlegungen wichtigen Vortrag De l’évolution du théâtre („Über die Entwicklung des Theaters“), gehalten 1904 in Brüssel, zitiert Gide Goethe zustimmend: „Für den Dichter ist keine Person historisch, es beliebt ihm, eine sittliche Welt darzustellen und er erweist zu diesem Zweck gewissen Personen aus der Geschichte die Ehre, ihren Namen seinen Geschöpfen zu leihen.“ Der 1898 in der Zeitschrift La Revue blanche publizierte Text Philoctète ou Le Traité des trois morales („Philoktet oder der Traktat von den drei Arten der Tugend“) lehnte sich an Sophokles an und hatte den Charakter eines Traktats in dramaturgischer Form; eine Aufführung war weder geplant, noch wurde sie tatsächlich realisiert. Das erste Drama Gides, das die Bühne erreichte, war 1901 Le roi Candaule („König Kandaules“), dessen Stoff Herodots Historien und Platons Politeia entnommen war. Das Werk wurde am 9. Mai 1901 in der Regie Aurélien Lugné-Poes in Paris uraufgeführt. In der Übersetzung Franz Bleis kam es schon 1906 zu einer Aufführung im Deutschen Volkstheater in Wien. Im Jahr 1903 publizierte Gide das Drama Saül („Saul“), dessen Grundlage das Buch Samuel ist. Das Stück war schon 1898 vollendet, von Gide aber erst veröffentlicht worden, nachdem alle Versuche, es zur Aufführung zu bringen, gescheitert waren. Tatsächlich wurde Saul erst 1922 von Jacques Copeau im Théâtre du Vieux-Colombier in Paris uraufgeführt. Wenngleich Gide nach dieser intensiven Theaterarbeit um 1900 erst 1930 mit Œdipe („Oedipus“) wieder ein großes Drama vorlegte, blieb er dem Theater doch immer verbunden. Dies zeigen etwa seine Übersetzungen von William Shakespeares Hamlet und Antonius und Cleopatra oder von Rabindranath Tagores Das Postamt; auch das von Gide verfasste Opernlibretto für Perséphone, das Igor Strawinsky vertonte, steht für sein theatralisches Interesse. Im Jahr 1913 gehörte Gide selbst zu den Gründern des Théâtre du Vieux-Colombier. Gide arbeitete meist an mehreren Werken gleichzeitig, die über Jahre reiften und in einem dialektischen Verhältnis zueinander standen. Dies gilt insbesondere für zwei seiner wichtigsten Erzählungen vor 1914: L’Immoraliste („Der Immoralist“, 1902) und La Porte étroite („Die enge Pforte“, 1909), die Gide selbst als „Zwilling(e)“ bezeichnete, die „im Wettstreit miteinander in meinem Geist wuchsen“. Die ersten Überlegungen zu beiden Texten, die das Problem der Tugend aus unterschiedlichen Perspektiven behandeln sollten, gehen auf die Zeit nach der Rückkehr von der ersten Afrikareise zurück. Beide Erzählungen sind in den Örtlichkeiten wie in den personellen Konstellationen stark autobiographisch geprägt, weshalb es nahe lag, in Marceline und Michel (im Immoralist) und in Alissa und Jérôme (in Die enge Pforte) Madeleine und André Gide zu erkennen. Gide hat diese Gleichsetzung immer zurückgewiesen und das Bild verschiedener Knospen gebraucht, die er als Anlagen in sich trage: Aus einer dieser Knospen konnte die Figur des Michel erwachsen, der sich ganz der absoluten, selbstbezogenen Vitalität hingibt und dafür seine Frau opfert; aus einer anderen Knospe ging die Figur der Alissa hervor, die ihre Liebe der absoluten und blinden Nachfolge Christi opfert. Beide Figuren scheitern in ihrer entgegengesetzten Radikalität, beide verkörpern Anlagen und Versuchungen Gides, die er gerade nicht ins Extrem treibt, sondern – auch hier dem Vorbild Goethes folgend – in sich zu vereinen und auszugleichen sucht. Im Jahr 1906 erwarb Gide die Villa Montmorency in Auteuil, wo er bis 1925 lebte, soweit er sich nicht in Cuverville aufhielt oder auf Reisen war. In dieser Zeit arbeitete Gide hauptsächlich an Die enge Pforte. Diese Arbeit unterbrach er im Februar und März 1907 und stellte in kurzer Zeit die Erzählung Le Retour de l’enfant prodigue („Die Rückkehr des verlorenen Sohnes“) fertig, die noch im Frühjahr 1907 erschien. Die Erzählung greift das biblische Motiv von der Heimkehr des verlorenen Sohns auf, der bei Gide jedoch dem jüngeren Bruder rät, das elterliche Haus ebenfalls zu verlassen und nicht zurückzukommen, d. h. sich definitiv zu emanzipieren. Die Erzählung erschien bereits 1914 in der Übersetzung Rainer Maria Rilkes auf Deutsch und entwickelte sich – gerade in Deutschland – „zu einem Bekenntnisbuch der Jugendbewegung“. Nach Raimund Theis ist Die Rückkehr des verlorenen Sohnes „eine der formal geschlossensten, vollendetsten Dichtungen André Gides“. Bald nach der Fertigstellung des Verlorenen Sohnes, im Juli 1907, besuchte Gide seinen Freund Eugène Rouart auf dessen Gut in Südfrankreich. Dort kam es zu einer Liebesnacht zwischen Gide und dem 17-jährigen Landarbeitersohn Ferdinand Pouzac (1890–1910), die Gide in der kleinen Erzählung Le Ramier („Die Ringeltaube“) verarbeitete, die erst 2002 aus seinem Nachlass veröffentlicht wurde. Um Gide bildete sich seit Les Nourritures terrestres ein Kreis jüngerer Literaten, bestehend aus Marcel Drouin, André Ruyters, Henri Ghéon, Jean Schlumberger und Jacques Copeau. Die Gruppe plante, eine literarische Zeitschrift nach ihren Vorstellungen zu gründen, nachdem L’Ermitage, in der auch Gide seit 1896 publiziert hatte, 1906 eingegangen war. Gemeinsam mit Eugène Montfort bereitete die Gruppe um Gide für November 1908 das erste Heft des neuen Periodikums vor, das den Titel La Nouvelle Revue française (NRF) tragen sollte. Nach Differenzen mit Montfort trennte man sich und die sechs Freunde begründeten die Zeitschrift unter gleichem Namen mit einer neuen ersten Nummer, die im Februar 1909 erschien. Die Zeitschrift konnte schnell namhafte Autoren der Zeit gewinnen, darunter Charles-Louis Philippe, Jean Giraudoux, Paul Claudel, Francis Jammes, Paul Valéry und Jacques Rivière. Der NRF wurde 1911 ein eigenes Verlagshaus angegliedert (Éditions de la NRF), dessen Leitung der bald einflussreiche Verleger Gaston Gallimard übernahm. Gides Erzählung Isabelle erschien 1911 als drittes Buch des neuen Verlages. Über die Zeitschrift und den NRF-Verlag wurde Gide nach 1918 einer der tonangebenden französischen Literaten seiner Epoche, der mit fast allen zeitgenössischen europäischen Autoren von Rang Kontakte pflegte. In die Literaturgeschichte ging die im Jahr 1912 erfolgte Ablehnung des ersten Bandes von Marcel Prousts Roman Auf der Suche nach der verlorenen Zeit durch den Verlag ein: Gide trug als Lektor die Hauptverantwortung und begründete sein Votum damit, dass Proust „ein Snob und literarischer Amateur“ sei. Seinen Fehler räumte Gide später Proust gegenüber ein: „Die Ablehnung des Buchs wird der größte Fehler der NRF bleiben und (denn ich schäme mich, weitgehend dafür verantwortlich zu sein) einer der stechendsten Schmerzen und Gewissensbisse meines Lebens.“ Gide teilte seine erzählenden Werke in zwei Gattungen ein: die Soties und die Récits. Zu den Soties zählte er Die Reise Urians, Paludes und Der schlecht gefesselte Prometheus, zu den Récits Der Immoralist, Die enge Pforte, Isabelle und die 1919 erschienene Pastoralsymphonie. Während die Sotie mit satirischen und parodistischen Stilmitteln arbeitet, ist der Récit als Erzählung zu charakterisieren, in der eine Figur idealtypisch, aus der Fülle des Lebens herausgelöst, als Fall dargestellt wird. Beide Gattungen grenzte Gide klar von der Totalität des Romans ab, was bedeutete, dass er selbst noch keinen Roman vorgelegt hatte. Auch das 1914 publizierte Werk Les Caves du Vatican („Die Verliese des Vatikans“) ließ er trotz der komplexen Handlungsführung nicht als Roman gelten, sondern rechnete es zu seinen Soties. Vor dem Hintergrund realer Gerüchte in den 1890er Jahren, Freimaurer hätten Leo XIII. eingesperrt und durch einen falschen Papst ersetzt, entwirft Gide ein Gesellschaftsbild voller Falschheit und Heuchelei, in dem Religion, Wissenschaftsgläubigkeit und bürgerliche Werte durch seine Figuren, allesamt Narren, ad absurdum geführt werden. Nur die schillernde Figur des schönen jungen Kosmopoliten Lafcadio Wluiki, ganz frei und bindungslos, scheint positiv besetzt: – und er begeht einen Mord als „acte gratuit“. Die Verliese des Vatikans stießen bei Erscheinen teils auf positive Resonanz, wofür Prousts Begeisterung stehen mag, teils auf heftige Kritik, wofür die Ablehnung Paul Claudels charakteristisch ist. Der mit Gide befreundete Claudel hatte ihn in den Jahren vor 1914 zum Katholizismus bekehren wollen und Gide schien der Konversion phasenweise nahe. Das neue Werk konnte Claudel nun nur als Absage verstehen, zumal sich im Buch auch eine satirisch dargestellte Konversion findet. Claudels noch 1914 in einem Brief an Gide geäußerte Kritik setzte aber bei einer homoerotischen Passage an: „Um Himmels willen, Gide, wie konnten Sie den Absatz schreiben (…). Muss man also in der Tat annehmen – ich habe mich immer geweigert es zu tun –, dass Sie selbst diese entsetzlichen Sitten praktizieren? Antworten Sie mir. Sie müssen antworten.“ Und Gide antwortete in einer Weise, die zeigt, dass er des Doppellebens, das er führte, überdrüssig war (auch wenn das öffentliche Bekenntnis erst nach 1918 folgte): „Niemals habe ich bei einer Frau ein Verlangen gespürt; und die traurigste Erfahrung, die ich in meinem Leben gemacht habe, ist, dass die beständigste, längste, lebendigste Liebe nicht von dem begleitet war, was ihr im Allgemeinen vorausgeht. Im Gegenteil: Liebe schien mir das Verlangen zu verhindern. (…) Ich habe nicht gewählt, so zu sein.“ Erster Weltkrieg und Durchbruch in der Zwischenkriegszeit Nach dem Ausbruch des Ersten Weltkrieges engagierte sich Gide, der nicht zum Militärdienst eingezogen wurde, bis Frühjahr 1916 in der privaten Hilfsorganisation Foyer Franco-Belge, die sich um Flüchtlinge aus den von deutschen Truppen besetzten Gebieten kümmerte. Dort arbeitete er mit Charles Du Bos und Maria van Rysselberghe, der Frau des belgischen Malers Théo van Rysselberghe, zusammen. Maria (genannt La Petite Dame) wurde zu einer engen Vertrauten Gides. Seit 1918 erstellte sie ohne sein Wissen Aufzeichnungen über Begegnungen und Gespräche mit ihm, die zwischen 1973 und 1977 unter dem Titel Les Cahiers de la Petite Dame publiziert wurden. Mit der Tochter der Rysselberghes, Elisabeth, zeugte Gide 1922 eine Tochter: Catherine Gide (1923–2013), die er vor Madeleine verheimlichte und erst nach deren Tod 1938 offiziell als Tochter anerkannte. Nach dem Verkauf der Villa in Auteuil lebte Gide seit 1926 meist in Paris in einem Haus in der rue Vaneau mit Maria, Elisabeth und Catherine, während sich Madeleine ganz nach Cuverville zurückzog. Die Jahre 1915/16 wurden durch eine tiefe moralische und religiöse Krise Gides überschattet. Er vermochte nicht, seinen Lebenswandel mit den tief in ihm verankerten religiösen Prägungen in Einklang zu bringen. Zudem erlebte er seit Jahren die Anziehungskraft, die der Katholizismus auf Personen seines engsten Umfeldes ausübte. Dies galt nicht nur für Claudel, sondern auch für Francis Jammes, der schon 1905 konvertiert war. 1915 folgte Henri Gheon, dann Jacques Copeau, Charles Du Bos und Paul-Albert Laurens. In einer Tagebuchnotiz des Jahres 1929 gestand Gide ein: „Ich möchte nicht behaupten, daß ich nicht zu einer bestimmten Zeit meines Lebens ziemlich nahe daran gewesen wäre, zu konvertieren.“ Als Zeugnis seiner Glaubenskämpfe publizierte Gide im Jahr 1922 in kleiner Auflage (70 Exemplare) anonym die Schrift Numquid et tu…?; 1926 ließ er eine größere Auflage (2650 Exemplare) unter eigenem Namen folgen. Gide überwand die Krise durch die Liebe zu Marc Allégret. Er kannte Marc, Jahrgang 1900, von Geburt an, da er ein Freund der Familie war. Marcs Vater, der Pastor Élie Allégret (1865–1940), hatte Gide als Kind unterrichtet und ihn seither wie einen jüngeren Bruder betrachtet. Als er 1916 in die Mission nach Kamerun geschickt wurde, vertraute er Gide die Sorge um seine sechs Kinder an. Dieser verliebte sich in den viertältesten Sohn Marc und ging seit 1917 ein intimes Verhältnis zu ihm ein; erstmals erlebte er die Übereinstimmung von Liebe und sexueller Begierde. Gide und Allégret unternahmen Reisen, 1917 in die Schweiz und 1918 nach England. Die Kehrseite dieses Glücks war die schwere Krise in der Beziehung zu Madeleine. Diese hatte 1916 durch Zufall vom Doppelleben ihres Mannes erfahren und war durch dessen monatelangen Aufenthalt in England zusammen mit Marc so tief verletzt, dass sie alle Briefe, die ihr Gide über 30 Jahre hinweg geschrieben hatte, noch einmal las und dann verbrannte. Als Gide im November 1918 davon erfuhr, war er zutiefst verzweifelt: „Damit verschwindet mein Bestes (…).“ Vor dem Hintergrund dieser emotionalen Wechselfälle entstand 1918 die Erzählung La Symphonie pastorale („Die Pastoral-Symphonie“), die 1919 veröffentlicht wurde. Dabei handelte es sich um die Geschichte eines Pastors, der ein blindes Waisenmädchen in seine Familie aufnimmt, sie erzieht, sich in sie verliebt, sie aber an seinen Sohn verliert. Die Symphonie war der größte Bucherfolg Gides zu seinen Lebzeiten, mit mehr als einer Million Exemplaren und rund 50 Übersetzungen. Im selben Jahr erschien auch die Nouvelle Revue française, die seit 1914 eingestellt war, erstmals nach dem Krieg. In dieser Zeit vollzog sich Gides Aufstieg zur zentralen Figur im literarischen Leben Frankreichs: le contemporain capital, der bedeutendste Zeitgenosse, wie der Kritiker André Rouveyre schrieb. In die Jahre nach dem Ersten Weltkrieg fiel Gides zunehmende Rezeption in Deutschland, wofür der Romanist Ernst Robert Curtius von großer Bedeutung war. In seinem 1919 publizierten Werk Die literarischen Wegbereiter des neuen Frankreich würdigte er Gide als einen der bedeutendsten französischen Gegenwartsautoren. Zwischen Curtius und Gide entspann sich seit 1920 ein Briefwechsel, der bis zu Gides Tod andauerte. Schon 1921 begegneten sich beide erstmals persönlich im luxemburgischen Colpach. Im örtlichen Schloss veranstaltete das Industriellenehepaar Aline und Emil Mayrisch Treffen französischer und deutscher Intellektueller. Gide kannte Aline Mayrisch, die in der NRF über deutsche Literatur schrieb, seit Beginn des Jahrhunderts. Sie und Gide sorgten auch für Curtius’ Einladung zum zweiten, regelmäßig stattfindenden Treffen von Intellektuellen, die sich der europäische Verständigung verschrieben hatten: den Dekaden von Pontigny, die Paul Desjardins seit 1910 veranstaltete. Die während des Krieges unterbrochenen Dekaden fanden 1922 erstmals wieder statt und Gide, der schon vor 1914 zugegen war, gehörte zu den regelmäßigen Teilnehmern. Die auf gegenseitigem Respekt beruhende Freundschaft zwischen Gide und Curtius gründete auch auf der gemeinsamen Ablehnung von Nationalismus und Internationalismus; beide befürworteten ein Europa der Kulturen. Ernst Robert Curtius hat zudem Werke Gides ins Deutsche übersetzt. Im Jahr 1923 veröffentlichte Gide ein Buch über Dostojewski: Dostoïevsky. Articles et causeries („Dostojewski. Aufsätze und Vorträge“). Er hatte sich mit dem russischen Romancier seit 1890 auseinandergesetzt, als er erstmals das Buch Le Roman russe von Eugène-Melchior de Vogüé gelesen hatte. Das 1886 publizierte Werk Vogüés hatte die russische Literatur in Frankreich popularisiert und speziell Dostojewski als Repräsentanten einer „Religion des Leidens“ vorgestellt. Gide wandte sich seit der ersten Lektüre gegen diese Interpretation und betonte die psychologischen Qualitäten des russischen Erzählers, der in seinen Figuren die extremsten Möglichkeiten der menschlichen Existenz ausleuchte. Er publizierte einige Artikel über Dostojewski und plante vor 1914 eine Lebensbeschreibung, die er aber nie vorlegte. Aus Anlass des 100. Geburtstages hielt er 1921 einen Vortrag im Theater Vieux-Colombier, woraus sich eine Vortragsreihe in den Jahren 1921/22 entwickelte. Das 1923 veröffentlichte Werk sammelte ältere Aufsätze und die Vorträge im Vieux-Colombier, die nicht weiter bearbeitet worden waren. Dass sich sein Blick auf Dostojewski nicht gewandelt hatte, verdeutlichte Gide mit Nietzsches Ausspruch, Dostojewski sei „der einzige Psychologe, von dem ich etwas zu lernen hatte“, den er dem Buch als Motto voranstellte. Die Publikation über Dostojewski ist Gides umfassendste Auseinandersetzung mit einem anderen Schriftsteller, die gerade in die Jahre fiel, in denen er selbst an einer Theorie des Romans arbeitete. Gides Interesse an der russischen Literatur zeigt auch seine 1928 vorgelegte Übertragung der Novellen Puschkins. Mitte der 1920er Jahre kulminierte Gides Werk in der Veröffentlichung dreier Bücher, an denen er über Jahre gearbeitet hatte und die ihn als öffentliche Person wie auch als Künstler endgültig definierten: 1924 erschien Corydon. Quatre dialogues socratiques („Corydon. Vier sokratische Dialoge“), 1926 Si le grain ne meurt („Stirb und werde“) und im selben Jahr Les Faux-Monnayeurs („Die Falschmünzer“). Gide führte 1922 bei der Psychoanalytikerin Eugénie Sokolnicka für kurze Zeit eine Psychoanalyse durch. Sie stand den Literaten um die Zeitschrift „Nouvelle Revue Française“ sehr nahe. Gide porträtierte Eugénie Sokolnicka literarisch als „Doctoresse Sophroniska“ in dem besagten Roman „Die Falschmünzer“. Mit Corydon und Stirb und werde outete sich Gide als Homosexueller in der breiten Öffentlichkeit. Für ihn war dies ein Befreiungsschlag, da er sein Privatleben und sein öffentliches Bild zunehmend als falsch und heuchlerisch empfand. Im Entwurf eines Vorworts zu Stirb und werde benannte er seine Motivation: „Ich meine, es ist besser, für das, was man ist, gehaßt, als für das, was man nicht ist, geliebt zu werden. Unter der Lüge, so glaube ich, habe ich am meisten in meinem Leben gelitten.“ Corydon hatte eine lange Entstehungsgeschichte. Seit 1908 arbeitete Gide an sokratischen Dialogen zum Thema Homosexualität. Im Jahr 1911 ließ er unter dem Titel C. R. D. N. eine Ausgabe in 22 Exemplaren anonym erscheinen. Zu diesem Zeitpunkt waren die ersten beiden und ein Teil des dritten Dialogs fertiggestellt. Noch vor dem Krieg setzte Gide die Arbeit fort, unterbrach sie in den ersten Kriegsjahren und nahm sie ab 1917 wieder auf. Den entstandenen Text ließ er, wieder anonym, in einer Auflage von nur 21 Exemplaren drucken, die bereits den Titel Corydon. Vier sokratische Dialoge trugen. Nach weiteren Bearbeitungen seit 1922 erschien das Buch im Mai 1924 unter Gides Namen, 1932 erstmals auf Deutsch in der Übersetzung von Joachim Moras. Corydon kombiniert die fiktionale literarische Form des Dialogs mit nichtfiktionalen Inhalten, über die sich die beiden Gesprächspartner austauschen (Geschichte, Medizin, Literatur usw.). Gides Anliegen war es, die Homosexualität als naturgegeben zu verteidigen, wobei er die Spielart der Päderastie präferierte. Auch die Entstehung der Autobiografie Stirb und werde, die Gides Leben bis zur Heirat 1895 darstellt, geht auf die Jahre vor dem Ersten Weltkrieg zurück. Im Jahr 1920 ließ Gide einen Privatdruck (12 Exemplare) des ersten Teils der Memoiren anfertigen, der nur für seine Freunde bestimmt war; 1921 folgten 13 Exemplare des zweiten Teils zum selben Zweck. Die für den Buchhandel bestimmte Ausgabe lag 1925 gedruckt vor, wurde auf Gides Wunsch aber erst im Oktober 1926 ausgeliefert. Stirb und werde ist eine Lebensbeschreibung, die nicht dem Muster des organischen Wachstums oder der stufenweisen Entfaltung der Persönlichkeit folgt, sondern einen radikalen Umbruch darstellt: die Zeit vor den Afrikareisen (Teil I) erscheint als dunkle Epoche der Selbstentfremdung, die Erfahrungen in Afrika (Teil II) als Befreiung und Erlösung des eigenen Selbst. Gide war sich bewusst, dass eine derart stilisierte Sinngebung in der eigenen Lebensbeschreibung die Realität vereinfachte und die Widersprüche in seinem Wesen harmonisierte. In einer in die Autobiographie aufgenommenen Selbstreflexion bemerkte er daher: „So sehr man sich auch um Wahrheit bemüht, die Beschreibung des eigenen Lebens bleibt immer nur halb aufrichtig: In Wirklichkeit ist alles viel verwickelter, als es dargestellt wird. Vielleicht kommt man im Roman der Wahrheit sogar näher.“ Mit den Falschmünzern löste er diesen Anspruch ein. Gide bezeichnete Die Falschmünzer in der Widmung des Werkes für Roger Martin du Gard als seinen „ersten Roman“ – und nach seiner eigenen Definition des Romans blieb es auch sein einziger. Er hatte die Arbeit an dem Buch im Jahr 1919 aufgenommen und im Juni 1925 abgeschlossen. Anfang 1926 erschien es mit dem auf 1925 datierten Copyright. Parallel zur Entstehung des Romans führte Gide ein Tagebuch, in dem er seine Reflexionen über das sich entwickelnde Werk festhielt. Dieser Text erschien im Oktober 1926 unter dem Titel Journal des Faux-Monnayeurs („Tagebuch der Falschmünzer“). Die Falschmünzer ist ein sehr kunstvoll angelegter Roman um die Entstehung eines Romans. Die Handlung, die damit beginnt, dass einer der Protagonisten seine außereheliche Zeugung entdeckt, wirkt etwas verwirrend, steht aber auf der Höhe der zeitgenössischen theoretischen und erzähltechnischen Errungenschaften der Gattung Roman, die sich selbst inzwischen zum Problem geworden war. Die Faux-Monnayeurs gelten heute als ein richtungweisendes Werk der modernen europäischen Literatur. Wendung zum Sozialen und Politischen Im Jahr 1925 verkaufte Gide seine Villa in Auteuil und ging mit Allégret auf eine fast einjährige Reise durch die damaligen französischen Kolonien Congo (Brazzaville) und Tschad. Die seines Erachtens unhaltbaren ausbeuterischen Zustände dort schilderte er anschließend in Vorträgen und Artikeln sowie in den Büchern Voyage au Congo („Kongoreise“) (1927) und Retour du Tchad („Rückkehr aus dem Tschad“) (1928), womit er heftige Diskussionen entfachte und viele Angriffe nationalistischer Franzosen auf sich zog. 1929 erschien L’École des femmes („Die Schule der Frauen“), die tagebuchartige Geschichte einer Frau, die ihren Mann als starren und seelenlosen Vertreter der bürgerlichen Normen demaskiert und ihn verlässt, um im Krieg Verwundete zu pflegen. 1931 beteiligte sich Gide an der von Jean Cocteau ausgelösten Welle antikisierender Dramen mit dem Stück Œdipe („Ödipus“). Ab 1932, im Rahmen der wachsenden politischen Polarisierung zwischen links und rechts in Frankreich und ganz Europa, engagierte Gide sich zunehmend auf Seiten der französischen kommunistischen Partei (PCF) und antifaschistischer Organisationen. So reiste er z. B. 1934 nach Berlin, um dort die Freilassung kommunistischer Regimegegner zu verlangen. 1935 gehörte er zur Leitung eines Kongresses antifaschistischer Schriftsteller in Paris, der teilweise verdeckt mit Geldern aus Moskau finanziert wurde. Er verteidigte dabei das Sowjetregime gegen Angriffe von trotzkistischen Delegierten, die die sofortige Freilassung des in der Sowjetunion internierten Schriftstellers Victor Serge verlangten. Auch mäßigte er – zumindest theoretisch – seinen bis dahin vertretenen kompromisslosen Individualismus zugunsten einer Position, die die Rechte des Ganzen und der Anderen vor die des Einzelnen setzt. Im Juni 1936 reiste er auf Einladung des sowjetischen Schriftstellerverbandes mehrere Wochen durch die UdSSR. Ihn betreute der Vorsitzende der Auslandskommission des Verbandes, der Journalist Michail Kolzow. Am Tag nach der Ankunft Gides starb der Vorsitzende des Schriftstellerverbandes Maxim Gorki. Gide hielt auf dem Lenin-Mausoleum, auf dem auch das Politbüro mit Stalin an der Spitze Aufstellung genommen hatte, eine der Trauerreden. Doch zu der von ihm erhofften Audienz bei Stalin im Kreml kam es nicht. Den Forschungen von Literaturhistorikern zufolge war Stalin über Gides Absichten gut unterrichtet. Dieser hatte vor seiner Abreise dem in Paris als Korrespondent sowjetischer Zeitungen arbeitenden Schriftsteller Ilja Ehrenburg anvertraut: „Ich habe mich entschlossen, die Frage nach seiner Haltung zu meinen Gesinnungsgenossen aufzuwerfen.“ Er wolle Stalin nach der „rechtlichen Lage der Päderasten fragen“, hielt Ehrenburg fest. Gides Enttäuschung beim Blick hinter die Kulissen der kommunistischen Diktatur war jedoch groß. Seine Eindrücke von dieser Reise, die ihn auch nach Georgien führte, schilderte er in dem kritischen Bericht Retour de l’U.R.S.S.(„Zurück aus der Sowjetunion“), in dem er sich indes bemühte, Emotionen und Polemik zu vermeiden. Er beschrieb das Sowjetregime als „Diktatur eines Mannes“, die die Ursprungsideen von der „Befreiung des Proletariats“ pervertiert habe. Die sowjetische Presse reagierte mit heftigen Attacken auf ihn, seine Bücher wurden aus allen Bibliotheken des Landes entfernt, eine bereits begonnene mehrbändige Werkausgabe wurde nicht fortgesetzt. Als viele westliche Kommunisten ihn attackierten und ihm vorwarfen, er unterstütze mit seiner Kritik indirekt Hitler, ging Gide vollends auf Distanz zur Partei. Der Zweite Weltkrieg und die Nachkriegszeit Nach dem Ausbruch des Zweiten Weltkriegs 1939 zog er sich zu Freunden nach Südfrankreich zurück und ging 1942 nach Nordafrika, nachdem er sich von einem passiven Sympathisanten des Regierungschefs des Kollaborationsregimes von Marschall Philippe Pétain zu einem aktiven Helfer der Londoner Exilregierung unter Charles de Gaulle entwickelt hatte. Diese versuchte er z. B. 1944 mit einer Propagandareise durch die westafrikanischen Kolonien zu unterstützen, deren Gouverneure lange zwischen Pétain und de Gaulle schwankten. 1946 publizierte Gide sein letztes größeres Werk, Thésée („Theseus“), eine fiktive Autobiografie des antiken Sagenhelden Theseus, in den er sich hineinprojiziert. In seinen letzten Jahren konnte er noch seinen Ruhm genießen mit Einladungen zu Vorträgen, Ehrendoktorwürden, der Verleihung des Nobelpreises 1947, Interviews, Filmen zu seiner Person u. ä. m. Die Begründung für den Nobelpreis lautet: „für seine weit umfassende und künstlerisch bedeutungsvolle Verfasserschaft, in der Fragen und Verhältnisse der Menschheit mit unerschrockener Wahrheitsliebe und psychologischem Scharfsinn dargestellt werden“. 1939, 1946 und 1950 erschienen seine Tagebücher unter dem Titel Journal. Das Maß seiner Enttäuschung und Ernüchterung über den Kommunismus schilderte Gide in einem Beitrag zu dem 1949 erschienenen Buch The God that failed, herausgegeben von Richard Crossman, Arthur Koestler u. a. 1949 erhielt Gide die Goetheplakette der Stadt Frankfurt am Main. 1950 wurde er als auswärtiges Ehrenmitglied in die American Academy of Arts and Letters gewählt. Eine indirekte Anerkennung seiner Bedeutung war, dass 1952 sein Gesamtwerk auf den Index Romanus der katholischen Kirche gesetzt wurde. Von seiner Tochter im Nachlass entdeckt und herausgegeben, erschien 2002 postum die 1907 entstandene homoerotische Novelle Le Ramier (dt. Die Ringeltaube). Weitere Darstellung Gides in der bildenden Kunst Renèe Sintenis: Porträt André Gide (Porträtplastik; weißer Ton, modelliert, Höhe: 33 cm, 1928; ein von mutmaßlich zwei Exemplaren in der Nationalgalerie Berlin) Werke Werkchronologie 1890: Les Cahiers d’André Walter (‚Die Hefte des André Walter‘) 1891: Le Traité du Narcisse (‚Traktat vom Narziß‘) 1892: Les Poésies d’André Walter (‚Die Gedichte des André Walter‘) 1893: Le Voyage d’Urien (‚Die Reise Urians‘) 1893: La Tentative amoureuse ou Le Traité du vain désir (‚Der Liebesversuch oder Eine Abhandlung über die Sinnlosigkeit des Verlangens‘) 1895: Paludes (‚Paludes‘) 1897: Les Nourritures terrestres (‚Die Früchte der Erde‘) 1899: Le Prométhée mal enchaîné (‚Der schlechtgefesselte Prometheus‘) 1901: Le Roi Candaule (‚König Kandaules‘), Theaterstück 1902: L’Immoraliste (‚Der Immoralist‘) 1903: Saül (‚Saul‘), Theaterstück 1907: Le Retour de l’enfant prodigue (‚Die Rückkehr des verlorenen Sohnes‘) 1909: La Porte étroite (‚Die enge Pforte‘) 1911: Corydon. Quatre dialogues socratiques (‚Corydon. Vier sokratische Dialoge‘) 1911: Isabelle 1914: Les Caves du Vatican (‚Die Verliese des Vatikans‘) 1914: Souvenirs de la Cour d'Assises (‚Erinnerungen aus dem Schwurgericht‘) 1919: La Symphonie pastorale (‚Die Pastoralsymphonie‘) 1925: Les Faux-Monnayeurs (‚Die Falschmünzer‘) 1926: Si le grain ne meurt (‚Stirb und werde‘) 1927: Voyage au Congo (‚Kongoreise‘) 1928: Le Retour du Tchad (‚Rückkehr aus dem Tschad‘) 1929: L’École des femmes (‚Die Schule der Frauen‘) 1930: Robert 1930: L'Affaire Redureau (‚Die Affäre Redureau‘) 1930: La Séquestrée de Poitiers (‚Die Eingeschlossene von Poitiers‘) 1931: Œdipe (‚Ödipus‘), Theaterstück 1934: Perséphone. Melodram (Oratorium). Musik (1933/34): Igor Strawinsky. UA 1934 1936: Geneviève (‚Genoveva oder Ein unvollendetes Bekenntnis‘) 1936: Retour de l'U.R.S.S. Gallimard, Paris. (Zurück aus Sowjet-Russland. Zürich 1937) 1937: Retouches à mon Retour de l’U.R.S.S. (Retuschen zu meinem Russlandbuch. Zürich 1937) 1939: Et nunc manet in te (erschienen 1947) 1946: Thésée (‚Theseus‘) 1949: Feuillets d’automne (‚Herbstblätter‘) 1949: Anthologie de la poésie française (Hrsg., Vorrede) 1939, 1946, 1950: Journal (Tagebücher) 1993: Le Grincheux (posthum, wohl 1925/26 entstanden) (‚Der Griesgram‘) 2002: Le Ramier (posthum‚ 1907 entstanden) (‚Die Ringeltaube‘, 2006) Deutsche Ausgaben Zurück aus Sowjet-Russland. Übersetzung Ferdinand Hardekopf, Jean Christophe Verlag, Zürich 1937. Retuschen zu meinem Russlandbuch. Jeand Christophe Verlag, Zürich 1937. Hans Hinterhäuser/Peter Schnyder/Raimund Theis (Hrsg.): André Gide: Gesammelte Werke in zwölf Bänden. Deutsche Verlags-Anstalt, Stuttgart 1989–2000: Band I (Autobiographisches 1): Stirb und Werde; Tagebuch 1889–1902 Band II (Autobiographisches 2): Tagebuch 1903–1922 Band III (Autobiographisches 3): Tagebuch 1923–1939 Band IV (Autobiographisches 4): Tagebuch 1939–1949; Et nunc manet in te; Kurze autobiographische Texte Band V (Reisen und Politik 1): Kongoreise; Rückkehr aus dem Tschad Band VI (Reisen und Politik 2): Zurück aus Sowjetrußland; Retuschen zu meinem Rußlandbuch; Soziale Plädoyers Band VII (Erzählende Werke 1): Die Hefte des André Walter; Traktat vom Narziß; Die Reise Urians; Der Liebesversuch; Paludes; Der schlechtgefesselte Prometheus; Der Immoralist; Die Rückkehr des verlorenen Sohnes Band VIII (Erzählende Werke 2): Die enge Pforte; Isabelle; Die Verliese des Vatikans Band IX (Erzählende Werke 3): Die Falschmünzer; Tagebuch der Falschmünzer Band X (Erzählende Werke 4): Pastoralsymphonie; Die Schule der Frauen; Robert; Geneviève; Theseus Band XI (Lyrische und szenische Dichtungen): Die Gedichte des André Walter; Die Früchte der Erde; Neue Früchte der Erde; Philoktet; Saul; König Kandaules; Oedipus Band XII (Essays und Aufzeichnungen): Dostojewski; Corydon; Anmerkungen über Chopin; Aufzeichnungen zu Literatur und Politik Die enge Pforte. Manesse-Verlag, Zürich 1995, ISBN 3-7175-1868-2 Schwurgericht. Drei Bücher vom Verbrechen. Eichborn-Verlag, Frankfurt am Main 1997, Reihe Die Andere Bibliothek, ISBN 3-8218-4150-8 Die Falschmünzer. Tagebuch der Falschmünzer. Manesse-Verlag, Zürich 2000, ISBN 3-7175-8265-8 Die Ringeltaube. Erzählung. Deutsche Verlags-Anstalt, München 2006, ISBN 3-421-05896-2 Der Griesgram. Matthes & Seitz, Berlin 2015, ISBN 978-3-95757-002-4 Siehe auch André-Gide-Preis Polyphonie (Literatur) Literatur Ernst Robert Curtius: André Gide. In: Französischer Geist im zwanzigsten Jahrhundert. Francke-Verlag, Bern 1952, Seite 40–72. (Zuerst erschienen in: Die literarischen Wegbereiter des neuen Frankreich. Kiepenheuer, Potsdam 1919.) Justin O’Brien: Portrait of André Gide. A critical biography. Octagon, New York 1977 ISBN 0-374-96139-5 Ilja Ehrenburg: Menschen – Jahre – Leben (Memoiren), München 1962/1965, Band 2: 1923–1941 ISBN 3-463-00512-3 S. 363–368 Portrait Gides Jutta Ernst, Klaus Martens (Hrsg.): André Gide und Felix Paul Greve. Korrespondenz und Dokumentation. Ernst Röhrig Universitätsverlag, St. Ingbert 1999 Ruth Landshoff-Yorck: Klatsch, Ruhm und kleine Feuer. Biographische Impressionen. Kiepenheuer & Witsch, Köln 1963 Frank Lestringant: André Gide l’inquiéteur. Flammarion, Paris 2011 ISBN 978-2-08-068735-7 Klaus Mann: André Gide und die Krise des modernen Denkens. Steinberg, Zürich 1948 Claude Martin: André Gide. Rowohlt, Reinbek 1963 Peter Schnyder: André und Madeleine Gide in Lostdorf Bad. In: Oltner Neujahrsblätter, Bd. 43, 1985, S. 46–50. Jean-Pierre Prevost: André Gide. Un album de famille. Gallimard, Paris 2010 ISBN 978-2-07-013065-8 Maria van Rysselberghe: Das Tagebuch der kleinen Dame. Auf den Spuren von André Gide. 2 Bände. Nymphenburger Verlag, München 1984 Alan Sheridan: André Gide, a life in the present. Harvard University Press, Cambridge 1999 ISBN 0-674-03527-5 Raimund Theis: André Gide. Wissenschaftliche Buchgesellschaft, Darmstadt 1974 ISBN 3-534-06178-0 Film Liebe, Haß und Leidenschaft, André Gide und Madeleine, mit Jürgen Arndt und Ingrid Resch, ein Film von Vera Botterbusch 45 Min, BR 1997 Weblinks Hans Christoph Buch: Wer betrügt, betrügt sich selbst – Über André Gide und seine Reise in die Sowjetunion (1936) und sein diesbezügliches Buch „Zurück aus Sowjet-Russland“ in der Zeitung Die Zeit 12/1995 Biographie und Zitate von André Gide (frz.) Amis d’André Gide (frz.) Britta L. Hofmann Experimentelle Poetik. Poetik als Experiment Diss. phil. Univ. Frankfurt, 2003, insbes. zum acte gratuit bei A. G. (siehe Kap.: L’Acte gratuit. Die Suche nach Freiheit, Authentizität und Disponibilität, S. 266ff; bei Gide v. a. in den Verliesen) Einzelnachweise Nobelpreisträger für Literatur Autor Literatur des Symbolismus Literatur (19. Jahrhundert) Literatur (20. Jahrhundert) Literatur (Französisch) Literatur (Frankreich) Homosexualität in der Literatur Roman, Epik Erzählung Novelle Essay Drama Librettist Tagebuch Filmproduzent Schriftsteller (Paris) Mitglied der American Academy of Arts and Letters Franzose Geboren 1869 Gestorben 1951 Mann Chefredakteur
357
https://de.wikipedia.org/wiki/Aggregatzustand
Aggregatzustand
Ein Aggregatzustand ist die Art der Verbindung und Verschiebbarkeit der kleinsten Teile, aus denen Materie zusammengesetzt ist. Anders formuliert sind Aggregatzustände fundamentale Erscheinungsformen von Materie, die sich jeweils sprunghaft in der Mobilität ihrer Atome und Moleküle sowie in der Stärke der Wechselwirkungen zwischen diesen unterscheiden. Die klassischen Aggregatzustände fest, flüssig und gasförmig lassen sich daher sensorisch anhand ihrer unterschiedlichen makroskopischen mechanischen und rheologischen Eigenschaften identifizieren. Daneben werden in der Physik auch weitere, in der Biosphäre der Erde nicht oder kaum natürlich vorkommende Erscheinungsformen der Materie als Aggregatzustand bezeichnet. So gilt Plasma, aus dem beispielsweise die Sonne besteht, als vierter Aggregatzustand der Materie. Bestimmte Stoffe, wie etwa Flüssigkristalle, viskoelastische Stoffe oder Schmelzen besonders langkettiger Polymere, können Merkmale sowohl des festen als auch des flüssigen Aggregatzustandes aufweisen. Gläser ataktischer Polymere mit hohen Molekulargewichten werden oft als Festkörper betrachtet, obwohl es sich bei diesen lediglich um Flüssigkeiten mit einer – verglichen mit den Zeitskalen menschlicher Wahrnehmung – stark verlangsamten Dynamik handelt. Der Begriff Aggregatzustand ist vom enger gefassten Begriff Phase abzugrenzen. Eine Phase ist innerhalb eines Materials ein räumlich begrenzter Bereich, der chemisch und physikalisch einheitliche Eigenschaften aufweist. Ein Aggregatzustand kann mehrere Phasen umfassen. Beispielsweise können homogene Feststoffe bei unterschiedlichen Temperaturen und Drücken in unterschiedlichen Kristallmodifikationen vorliegen, die durch enantiotrope Umwandlungen ineinander überführbar sind und die jeweils eine eigene Phase darstellen. Heterogene Gemische können einheitlich im festen oder flüssigen Aggregatzustand vorliegen, aber mehrere Phasen unterschiedlicher stofflicher Zusammensetzungen enthalten. Bei Gasen und Plasmen lassen sich die Begriffe Aggregatzustand und Phase synonym verwenden. Die Überführung eines Stoffes in einen anderen Aggregatzustand erfolgt durch einen Phasenübergang, der sich durch eine Zustandsänderung herbeiführen lässt, etwa durch eine Änderung der Temperatur, des Drucks oder des Volumens. Die Grenzen zwischen den verschiedenen Aggregatzuständen im Zustandsraum eines Stoffes lassen sich graphisch mit Hilfe von Phasendiagrammen darstellen. Die drei klassischen Aggregatzustände Übersicht Es gibt drei klassische Aggregatzustände: fest (f alternativ s): In diesem Zustand behält ein Stoff meist sowohl Form als auch Volumen bei. flüssig (fl alternativ l): Hier wird das Volumen beibehalten, aber die Form ist unbeständig und passt sich dem umgebenden Raum an. gasförmig (g): Hier entfällt auch die Volumenbeständigkeit, ein Gas füllt den zur Verfügung stehenden Raum vollständig aus. Für feste Stoffe und flüssige Stoffe gibt es den zusammenfassenden Begriff kondensierte Materie. Flüssigkeiten und Gase werden in der Physik unter dem Oberbegriff Fluide zusammengefasst. Bei Feststoffen unterscheidet man auch nach anderen Merkmalen: kristallin: Ein Feststoff, der seine Form nicht verändert. Seine Bausteine, die Kristalle, weisen eine Fernordnung auf. amorph: Ein Feststoff, der lediglich durch eine Nahordnung ausgezeichnet ist, siehe amorphes Material. Ein amorpher Festkörper ist metastabil. Die klassischen Aggregatzustände lassen sich mit einem Teilchenmodell erklären, das die kleinsten Teilchen eines Stoffes (Atome, Moleküle, Ionen) auf kleine Kugeln reduziert. Die mittlere kinetische Energie aller Teilchen ist in allen Zuständen ein Maß für die Temperatur. Die Art der Bewegung ist in den drei Aggregatzuständen jedoch völlig unterschiedlich. Im Gas bewegen sich die Teilchen geradlinig wie Billardkugeln, bis sie mit einem anderen oder mit der Gefäßwand zusammenstoßen. In der Flüssigkeit müssen sich die Teilchen durch Lücken zwischen ihren Nachbarn hindurchzwängen (Diffusion, Brownsche Molekularbewegung). Im Festkörper schwingen die Teilchen nur um ihre Ruhelage. Fest Bewegung Die kleinsten Teilchen sind bei einem Feststoff nur wenig in Bewegung. Sie schwingen um eine feste Position, ihren Gitterplatz, und rotieren meist um ihre Achsen. Je höher die Temperatur wird, desto heftiger schwingen bzw. rotieren sie, und der Abstand zwischen den Teilchen nimmt (meist) zu. Ausnahme: Dichteanomalie. Die Form des Feststoffes bleibt unverändert. Stoffe im festen Aggregatzustand lassen sich nur schwer aufteilen. Sie lassen sich nur schwer verformen (geringe Verformbarkeit, spröde). Hinweis: Betrachtet man die Teilchen mit quantenmechanischen Grundsätzen, so dürfen aufgrund der Heisenbergschen Unschärferelation eigentlich Teilchen nie ruhig stehen. Sie haben kleine Schwingungen, die man auch als Nullpunktsfluktuationen bezeichnet. Das entspricht dem Grundzustand des harmonischen Oszillators. Anziehung Zwischen den kleinsten Teilchen wirken verschiedene Kräfte, nämlich die Van-der-Waals-Kräfte, die elektrostatische Kraft zwischen Ionen, Wasserstoffbrückenbindungen oder kovalente Bindungen. Die Art der Kraft ist durch den atomaren Aufbau der Teilchen (Ionen, Moleküle, Dipole …) bestimmt. Bei Stoffen, die auch bei hohen Temperaturen fest sind, ist die Anziehung besonders stark. Anordnung Durch die schwache Bewegung und den festen Zusammenhalt sind die Teilchen regelmäßig angeordnet. Die meisten festen Reinstoffe haben deshalb eine regelmäßige Struktur (Kristall), nur wenige sind amorph. Die Teilchenanordnung in einem amorphen Festkörper ist ähnlich ungeordnet wie in der Flüssigkeit, er ist jedoch formstabil, da die Teilchenbewegungen gegeneinander weitgehend eingefroren sind. Abstand Durch die starke Anziehung sind die Teilchen eng beieinander (hohe Packungsdichte) Das Volumen eines Feststoffes lässt sich durch Kompression nach den Gesetzen der Elastizitätstheorie, abhängig von der Größe des Kompressionsmoduls bzw. des E-Moduls, verringern. Temperaturänderungen bewirken ebenso eine Veränderung des Volumens nach den Gesetzen der Wärmeausdehnung. Flüssig Bewegung Die Teilchen sind nicht wie beim Feststoff ortsfest, sondern können sich gegenseitig verschieben. Bei Erhöhung der Temperatur werden die Teilchenbewegungen immer schneller. Anziehung Durch die Erwärmung ist die Bewegung der Teilchen so stark, dass die Wechselwirkungskräfte nicht mehr ausreichend sind, um die Teilchen an ihrem Platz zu halten. Die Teilchen können sich nun frei bewegen. Ein flüssiger Stoff verteilt sich von allein, wenn er nicht in einem Gefäß festgehalten wird. Ein Farbstoff verteilt sich von allein in einer Flüssigkeit (Diffusion). Abstand Obwohl der Abstand der Teilchen durch die schnellere Bewegung ein wenig größer wird (die meisten festen Stoffe nehmen beim Schmelzen einen größeren Raum ein), hängen die Teilchen weiter aneinander. Für die Verringerung des Volumens einer Flüssigkeit durch Kompression gilt ähnliches wie bei einem Festkörper, wobei der entsprechende Kompressionsmodul der Flüssigkeit zum Tragen kommt. Bei einer Temperaturverringerung wird das Volumen ebenfalls kleiner, bei Wasser jedoch nur bis zu einer Temperatur von 4 °C (Anomalie des Wassers), während darunter bis 0 °C das Volumen wieder ansteigt. Anordnung Obwohl die Teilchen sich ständig neu anordnen und Zitter-/Rotationsbewegungen durchführen, kann eine Anordnung festgestellt werden. Diese Nahordnung ist ähnlich wie im amorphen Festkörper, die Viskosität ist jedoch sehr viel niedriger, d. h., die Teilchen sind beweglicher. Gasförmig Bewegung Bei Stoffen im gasförmigen Zustand sind die Teilchen schnell in Bewegung. Ein Gas oder gasförmiger Stoff verteilt sich schnell in einem Raum. In einem geschlossenen Raum führt das Stoßen der kleinsten Teilchen gegen die Wände zum Druck des Gases. Anziehung Beim gasförmigen Zustand ist die Bewegungsenergie der kleinsten Teilchen so hoch, dass sie nicht mehr zusammenhalten. Die kleinsten Teilchen des gasförmigen Stoffes verteilen sich gleichmäßig im gesamten zur Verfügung stehenden Raum. Abstand Durch die schnelle Bewegung der Teilchen in einem Gas sind sie weit voneinander entfernt. Sie stoßen nur hin und wieder einander an, bleiben aber im Vergleich zur flüssigen Phase auf großer Distanz. Ein gasförmiger Stoff lässt sich komprimieren, d. h., das Volumen lässt sich verringern. Anordnung Wegen der Bewegung sind die Teilchen ungeordnet. In der physikalischen Chemie unterscheidet man zwischen Dampf und Gas. Beide sind physikalisch gesehen nichts anderes als der gasförmige Aggregatzustand; die Begriffe haben auch nicht direkt mit realem Gas und idealem Gas zu tun. Was umgangssprachlich als „Dampf“ bezeichnet wird, ist physikalisch gesehen eine Mischung aus flüssigen und gasförmigen Bestandteilen, welche man im Falle des Wassers als Nassdampf bezeichnet. Bei einem Dampf im engeren Sinn handelt es sich um einen Gleichgewichtszustand zwischen flüssiger und gasförmiger Phase. Er kann, ohne Arbeit verrichten zu müssen, verflüssigt werden, das heißt beim Verflüssigen erfolgt kein Druckanstieg. Ein solcher Dampf wird in der Technik als Nassdampf bezeichnet im Gegensatz zum sogenannten Heißdampf oder überhitzten Dampf, der im eigentlichen Sinn ein reales Gas aus Wassermolekülen darstellt und dessen Temperatur oberhalb der Kondensationstemperatur der flüssigen Phase beim jeweiligen Druck liegt. Ausgewählte Reinstoffe als Beispiele Reinstoffe werden entsprechend ihrem Aggregatzustand bei einer Temperatur von 20 °C (siehe Raumtemperatur) und einem Druck von 1013,25 hPa (Normaldruck) als Feststoff, Flüssigkeit oder Gas bezeichnet. Beispiel: Brom ist bei Raumtemperatur und Normaldruck flüssig (siehe Tabelle), also gilt Brom als Flüssigkeit. Diese Bezeichnungen (Feststoff, Flüssigkeit, Gas) werden zwar auch gebraucht, wenn Stoffe unter veränderten Bedingungen einen anderen Aggregatzustand annehmen. Im engeren Sinne bezieht sich die Einteilung jedoch auf die oben genannten Standardbedingungen; jeder Stoff gehört dann zu einer der Kategorien. 1 bei Normaldruck Aggregatzustände in Gemischen Bei der Vermischung von Stoffen ergeben sich abhängig vom Aggregatzustand der Bestandteile und ihrem mengenmäßigen Anteil charakteristische Gemische, zum Beispiel Nebel oder Schaum. Änderung des Aggregatzustands Die Übergänge zwischen den verschiedenen Aggregatzuständen haben spezielle Namen (eoc, omc, eon) und spezielle Übergangsbedingungen, die bei Reinstoffen aus Druck und Temperatur bestehen. Diese Übergangsbedingungen entsprechen dabei Punkten auf den Phasengrenzlinien von Phasendiagrammen. Hierbei ist für jeden Phasenübergang eine bestimmte Wärmemenge notwendig bzw. wird dabei freigesetzt. Die Sublimation und das Verdampfen kommen auch unterhalb der Sublimations- beziehungsweise Siedepunktes vor. Man spricht hier von einer Verdunstung. Alltagsbeispiele Alle Übergänge können am Beispiel Wasser im Alltag beobachtet werden (siehe Abbildung): Schmelzen Schnee oder Eis fängt im Frühjahr an flüssig zu werden, sobald Temperaturen oberhalb der Schmelztemperatur herrschen. Erstarren Kühlt das Wasser in Seen unter den Gefrierpunkt ab, bilden sich Eiskristalle, die mit der Zeit immer größer werden, bis die Oberfläche mit einer Eisschicht überzogen ist. Verdampfen Wird Wasser im Kochtopf über seine Siedetemperatur erhitzt, so wird das Wasser gasförmig. Das „Blubbern“ im Kochtopf kommt zustande, weil das Wasser am heißen Topfboden zuerst die Siedetemperatur erreicht - Die aufsteigenden Blasen sind der Wasserdampf, der (wie die meisten gasförmigen Stoffe) unsichtbar ist. Verdunstung, der Übergang von flüssig in gasförmig ohne Erreichen der Siedetemperatur, ist bei Schweiß auf der Haut gut zu beobachten. Kondensieren Der deutlich sichtbare Nebel oberhalb kochenden Wassers, der meist umgangssprachlich als „Dampf“ bezeichnet wird, ist zu winzigen Wassertröpfchen kondensierter Wasserdampf. Tau und Wolken entstehen ebenfalls durch kondensierenden Wasserdampf. Sublimation Gefrorene Pfützen können im Winter, auch bei Temperaturen weit unterhalb des Gefrierpunktes, durch Sublimation nach und nach „austrocknen“, bis das Eis vollständig sublimiert und die Pfütze verschwunden ist. Resublimation Raureif oder Eisblumen, die sich im Winter bilden, entstehen durch den aus der Umgebungsluft resublimierenden Wasserdampf. Teilchenmodell der Phasenübergänge Schmelzen Durch Erhöhen der Temperatur (Zufuhr von thermischer Energie) bewegen sich die kleinsten Teilchen immer heftiger, und ihr Abstand voneinander wird (normalerweise) immer größer. Die Van-der-Waals-Kräfte halten sie aber noch in ihrer Position, ihrem Gitterplatz. Erst ab der sogenannten Schmelztemperatur wird die Schwingungsamplitude der Teilchen so groß, dass die Gitterstruktur teilweise zusammenbricht. Es entstehen Gruppen von Teilchen, die sich frei bewegen können. In ihnen herrscht eine Nahordnung, im Gegensatz zur Fernordnung von Teilchen innerhalb des Kristallgitters fester Stoffe. Erstarren Mit Sinken der Temperatur nimmt die Bewegung der Teilchen ab, und ihr Abstand zueinander wird immer geringer. Auch die Rotationsenergie nimmt ab. Bei der sogenannten Erstarrungstemperatur wird der Abstand so klein, dass sich die Teilchen gegenseitig blockieren und miteinander verstärkt anziehend wechselwirken – sie nehmen eine feste Position in einem dreidimensionalen Gitter ein. Es gibt Flüssigkeiten, die sich bei sinkender Temperatur ausdehnen, beispielsweise Wasser. Dieses Verhalten wird als Dichteanomalie bezeichnet. Verdampfen und Sublimation Die Geschwindigkeit der kleinsten Teilchen ist nicht gleich. Ein Teil ist schneller, ein Teil ist langsamer als der Durchschnitt. Dabei ändern die Teilchen durch Kollisionen ständig ihre aktuelle Geschwindigkeit. An der Grenze eines Festkörpers oder einer Flüssigkeit, dem Übergang einer Phase in eine gasförmige, kann es mitunter vorkommen, dass ein Teilchen von seinen Nachbarn zufällig einen so starken Impuls bekommt, dass es aus dem Einflussbereich der Kohäsionskraft entweicht. Dieses Teilchen tritt dann in den gasförmigen Zustand über und nimmt etwas Wärmeenergie in Form der Bewegungsenergie mit, das heißt die feste oder flüssige Phase kühlt ein wenig ab. Wird thermische Energie einem System zugeführt und erreicht die Temperatur die Sublimations- oder Siedetemperatur, geschieht dieser Vorgang kontinuierlich, bis alle kleinsten Teilchen in die gasförmige Phase übergetreten sind. In diesem Fall bleibt die Temperatur in der verdampfenden Phase in der Regel unverändert, bis alle Teilchen mit einer höheren Temperatur aus dem System verschwunden sind. Die Wärmezufuhr wird somit in eine Erhöhung der Entropie umgesetzt. Wenn die Kohäsionskräfte sehr stark sind, beziehungsweise es sich eigentlich um eine viel stärkere Metall- oder Ionenbindung handelt, dann kommt es nicht zur Verdampfung. Die durch Verdampfen starke Volumenzunahme eines Stoffes kann, wenn sehr viel Hitze schlagartig zugeführt wird, zu einer Physikalischen Explosion führen. Kondensation und Resublimation Der umgekehrte Vorgang ist die Kondensation beziehungsweise Resublimation. Ein kleinstes Teilchen trifft zufällig auf einen festen oder flüssigen Stoff, überträgt seinen Impuls und wird von den Kohäsionskräften festgehalten. Dadurch erwärmt sich der Körper um die Energie, die das kleinste Teilchen mehr trug als der Durchschnitt der kleinsten Teilchen in der festen beziehungsweise flüssigen Phase. Stammt das Teilchen allerdings von einem Stoff, der bei dieser Temperatur gasförmig ist, sind die Kohäsionskräfte zu schwach, es festzuhalten. Selbst wenn es zufällig so viel Energie verloren hat, dass es gebunden wird, schleudert es die nächste Kollision mit benachbarten kleinsten Teilchen wieder in die Gasphase. Durch Absenken der Temperatur kann man den kleinsten Teilchen ihre Energie entziehen. Dadurch ballen sie sich beim Unterschreiten der Sublimations- oder Erstarrungstemperatur durch die Wechselwirkungskräfte mit anderen Teilchen zusammen und bilden wieder einen Feststoff oder eine Flüssigkeit. Phasendiagramme Das p-T-Phasendiagramm eines Stoffes beschreibt in Abhängigkeit von Druck und Temperatur, in wie vielen Phasen ein Stoff vorliegt und in welchem Aggregatzustand sich diese befinden. Anhand der Linien kann man also erkennen, bei welchem Druck und welcher Temperatur die Stoffe ihren Aggregatzustand verändern. Gewissermaßen findet auf den Linien der Phasenübergang zwischen den Aggregatzuständen statt, weshalb man diese auch als Phasengrenzlinien bezeichnet. Auf ihnen selbst liegen die jeweiligen Aggregatzustände in Form eines dynamischen Gleichgewichts nebeneinander in verschiedenen Phasen vor. Bei einem bestimmten Druck und einer bestimmten Temperatur, dem so genannten Tripelpunkt, können alle drei Aggregatzustände gleichzeitig vorliegen. Es handelt sich dabei um den Punkt in der „Mitte“ des Phasendiagramms, an welchem sich alle drei Phasengrenzlinien treffen. Der Tripelpunkt eignet sich daher als ein Ausgangspunkt dieser Linien und für die Festlegung vieler Temperaturskalen. Oberhalb eines bestimmten Druckes und einer bestimmten Temperatur, dem sogenannten kritischen Punkt, können Gas und Flüssigkeit aufgrund ihrer identischen Dichte nicht mehr unterschieden werden. In diesem Zustandsraum kann daher keine Phasengrenzlinie festgelegt werden. Für Drücke unterhalb des Tripelpunkt-Druckes kann die Substanz bei einer Senkung der Temperatur nur fest oder bei einer Steigerung der Temperatur nur gasförmig werden. Die Trennlinie zwischen beiden Bereichen nennt man Sublimationskurve. Auf ihr können feste und gasförmige Phasen gleichzeitig existieren. Die Sublimationskurve beginnt theoretisch am absoluten Nullpunkt und endet am Tripelpunkt. Für Drücke oberhalb des Tripelpunkt-Druckes ist die Substanz für Temperaturen unterhalb des Schmelzpunktes fest, zwischen Schmelz- und Siedepunkt flüssig und oberhalb des Siedepunktes gasförmig. Die Trennlinie zwischen fester und flüssiger Phase, also die Kurve der Schmelzpunkte, nennt man Schmelzkurve, die Trennlinie zwischen Flüssigkeit und Gas nennt man Siedepunktskurve. Beide Kurven beginnen ebenfalls am Tripelpunkt, wobei sich die Schmelzkurve theoretisch bis in das Unendliche fortsetzt und die Siedepunktskurve am kritischen Punkt endet. Die Freiheitsgrade innerhalb des Phasendiagramms sind von der betrachteten Ebene abhängig. Am Tripelpunkt und am kritischen Punkt existiert kein Freiheitsgrad, da sowohl Druck als auch Temperatur feste, lediglich stoffabhängige Werte besitzen. An den Phasengrenzlinien sind entweder Druck oder Temperatur frei wählbar und bedingen einander, es existiert folglich ein Freiheitsgrad. Im reinen Zustandsraum, also in den Flächen des Phasendiagramms, sind Druck und Temperatur frei wählbar, was zwei Freiheitsgraden entspricht. Nichtklassische Aggregatzustände Neben den drei klassischen Aggregatzuständen gibt es weitere Materiezustände, die zum Teil nur unter extremen Bedingungen auftreten (nach Temperatur, tendenziell von hoher zu niedriger, sortiert). Der Plasmazustand: Bei sehr hohen Temperaturen werden die Atome in Atomkern und -hülle zerlegt; freie Elektronen entstehen. Der Zustand tritt beispielsweise im Lichtbogen, in Sternen und in Kernfusionsreaktoren auf. Das Atomgas: In ihm existieren keine Moleküle mehr, da die ständigen Stöße die Bindungen zerstören, allerdings sind die Elektronen noch fest gebunden. Der überkritische Zustand tritt bei Überschreiten des kritischen Punktes auf und ist ein Mischzustand zwischen flüssig und gasförmig. Der mesomorphe Zustand: Er nimmt eine Zwischenposition zwischen den Aggregatzuständen flüssig und fest ein und tritt in verschiedener Ausprägung beispielsweise bei Flüssigkristallen oder plastischen Kristallen auf. Das Bose-Einstein-Kondensat: Hierbei handelt es sich um eine Menge extrem kalter Atome, die den gleichen quantenmechanischen Zustand einnehmen, dadurch ununterscheidbar werden und sich somit vollkommen kohärent verhalten. Das Fermionen-Kondensat: Ein superkalter Zustand von Fermionen, welche sich durch ihren halbzahligen Spin von den Bosonen (ganzzahliger Spin) unterscheiden. Das Suprafluid: Eine Flüssigkeit ohne innere Reibung. Das Suprasolid: Ein Zustand, der bei superkaltem Helium-4 erreicht wird. Die Materie zeigt gleichzeitig sowohl Eigenschaften fester als auch suprafluider Körper. Der bosonische Metallzustand Literatur Weblinks Flash-Animationen zu den Aggregatzuständen fest, flüssig, gasförmig (dwu-Unterrichtsmaterialien) Einzelnachweise Thermodynamik Stoffeigenschaft
358
https://de.wikipedia.org/wiki/Arbeitsmarkt
Arbeitsmarkt
Der Arbeitsmarkt ist ein Markt, an dem die Nachfrage nach Arbeitskräften mit dem Angebot von Arbeitskräften zusammentrifft. In der Arbeitsmarktökonomik wird in den Wirtschaftswissenschaften die Funktionsweise von Arbeitsmärkten untersucht. Allgemeines Grundlage des Arbeitsmarktes ist die eigentumsrechtliche Trennung arbeitender Menschen von den zur Arbeit notwendigen Produktionsmitteln. Der Arbeitsmarkt setzt Menschen voraus, die ihren Lebensunterhalt nicht mit eigenen Produktionsmitteln (Boden und Kapital) sichern können und deswegen gezwungen sind, ihre Arbeitskraft an die Eigentümer der Produktionsmittel zu verkaufen (siehe Lohnarbeit in der marxistischen Theorie). Eine Klasse solcher Menschen – das sogenannte Industrieproletariat – entstand in der europäischen Neuzeit im Zuge der Bevölkerungsexplosion während der industriellen Revolution. Das damit entstandene Problem der Arbeitslosigkeit (Erwerbslosigkeit und Armut mangels eigener Produktionsmittel und mangels einer Person, die den eigentums- und damit arbeitslosen Menschen für sich arbeiten lassen will) bildete einen der wichtigsten Aspekte der "sozialen Frage" (Pauperismus) und stellt eines der wichtigsten Strukturmerkmale der europäischen ("westlichen") Neuzeit dar. Während nach neoklassischer Sicht der Arbeitsmarkt wie ein Gütermarkt funktioniert, unterscheidet er sich nach institutionalistischer und arbeitsökonomischer Sicht in charakteristischer Weise vom Gütermarkt. Für Robert M. Solow ist „Arbeit als Ware etwas Besonderes […] und daher auch der Arbeitsmarkt“. Auch die keynesianische Kritik an der Neoklassik sieht dies so (siehe Arbeitsmarktpolitik). Anders als das umgangssprachliche Verständnis rekrutiert sich das Arbeitsangebot aus den arbeitswilligen und arbeitsfähigen Arbeitskräften, die Arbeitsnachfrage resultiert aus den offenen Stellen der Arbeitgeber. Definition Auf dem Arbeitsmarkt wird Arbeitskraft für eine bestimmte Arbeitszeit und bestimmte Qualifikationen angeboten und nachgefragt. Arbeitnehmer, die über ihre Arbeitskraft persönlich frei verfügen können, verkaufen (korrekter: vermieten) gegen Arbeitsentgelt ihre Arbeitskraft zur Verrichtung produktiver Tätigkeiten an Arbeitgeber, unter deren Weisungsrecht sie Güter herstellen oder Dienstleistungen erbringen, in Kombination mit (meist) von den Arbeitgebern zur Verfügung gestellten Rohstoffen und Arbeitsmitteln. Der Arbeitgeber muss durch (zusätzliche) Personalkosten auf einen Teil seiner Gewinne verzichten, der Arbeitnehmer muss die Furcht vor dem Arbeitsleid überwinden. Der Arbeitsmarkt ist kein Markt für Arbeitsleistungen; Arbeitsergebnisse sind Gegenstand von Werkverträgen. Ähnlich wie Ärzte werden auch Arbeitnehmer für ihre „Bemühungen“ bezahlt und nicht für deren Erfolg. Der Arbeitsvertrag begründet ein Arbeitsverhältnis und ist ein Vertrag sui generis. Besonderheiten des Arbeitsmarktes Die Besonderheit der „Ware Arbeitskraft“ besteht darin, dass sie unauflöslich an Menschen als Träger dieser Ware gebunden ist. Insofern ist eine Verfügung über diese Ware immer auch eine Verfügung über ihren Träger, dessen Menschenwürde beachtet werden muss. Das für Sachen charakteristische „ius utendi et abutendi“, das Recht, eine Sache zu gebrauchen, aber auch zu missbrauchen, ist auf Tiere und Menschen nur sehr begrenzt anwendbar. So haben Arbeitnehmer insbesondere ein Recht auf Freizeit, über deren Gestaltung der Arbeitgeber nur sehr bedingt Mitspracherechte hat, und auf Freizügigkeit. Die Arbeitsnachfrage lässt sich im Zusammenhang mit dem Grenzprodukt der Arbeit (1. Ableitung der Produktionsfunktion) errechnen (siehe hier). Der Marktpreis für die Arbeitskraft eines bestimmten Arbeitnehmers kann unter seinem Existenzminimum liegen. In diesem Fall besteht eine Pflicht eines Staates, der sich als Sozialstaat versteht, darin zu verhindern, dass die betreffende Person ein Haushaltseinkommen unterhalb ihres Existenzminimums erzielt. Als Instrumente kommen unter anderem Transferleistungen, Mindestlohn und Arbeitskräfteverknappung zum Einsatz. Der Zusammenschluss der Arbeitnehmer zu Gewerkschaften und das Arbeitsrecht als Schutzrecht für die Arbeitnehmer sind als Konsequenzen einer unterstellten „Macht-Asymmetrie“ (Claus Offe) auf den Arbeitsmärkten und des Charakters des Arbeitsverhältnisses als „Herrschaftsverhältnis“ (Max Weber) zu verstehen. Diese Theorie beruht auf der Prämisse, dass Arbeitsmärkte in der Regel Käufermärkte seien, d. h., dass eine hohe Zahl an Arbeitswilligen mit einer beschränkten Zahl an Arbeitsplätzen konfrontiert werde, was ohne Marktregulierungen wie Tarifentgelte oder einen gesetzlichen Mindestlohn zwangsläufig zu niedrigen Arbeitsentgelten führen würde. Formen des Arbeitsmarktes Es wird unterschieden zwischen dem ersten Arbeitsmarkt, der den betriebswirtschaftlich begründeten Bedarf nach Arbeitskräften (Arbeitsplatzangebote) von Unternehmen (Arbeitgeber) mit einer Nachfrage geeigneter freier Arbeitskräfte (Arbeitnehmer) zusammenführt, und dem zweiten (staatlich geförderten) Arbeitsmarkt, der über arbeitsmarktpolitische Maßnahmen zusätzliche Anreize für Arbeitgeber schafft, Arbeitsplätze anzubieten, um damit einen Marktausgleich von Angebot und Nachfrage herbeizuführen. Der Arbeitsmarkt entwickelte sich im Zuge der fortschreitenden Arbeitsteilung. Wichtige Kennzahlen des Arbeitsmarktes sind die Erwerbsquote, die Arbeitslosenquote sowie das Arbeitsentgelt (Lohnniveau). Die Kennzahlen werden oft regional oder nach Wirtschaftssektoren getrennt dargestellt. Man kann den Arbeitsmarkt für Analysezwecke unterschiedlich strukturieren: nach dem Alter der Beteiligten nach Geschlecht der Beteiligten nach den Produkten und Dienstleistungen (Wirtschaftszweige) nach dem Arbeitsinhalt (Berufe, Tätigkeiten) nach der Stellung im Arbeits- und Verwertungsprozess (Eigentümer = Unternehmer oder Kapitalgeber, Manager = Entscheider (aber nicht Eigentümer), Beschäftigter = Ausführender) nach dem Technisierungsniveau der Arbeit Die volkswirtschaftliche Statistik der Bundesrepublik unterscheidet zwischen so genannten Erwerbstätige. Dazu zählen auch die Selbständigen (in Deutschland im Jahr 2001 3.632 Mio. von insgesamt 36.816 Mio. Erwerbstätigen) und Personen mit Arbeitsvertrag (Beschäftigte) und mindestens 401 Euro monatlichem Bruttoarbeitseinkommen. Derzeit zählt das Statistische Bundesamt in Deutschland knapp 27 Millionen Arbeitsverhältnisse. Marktstrukturen Sämtliche klassischen volkswirtschaftlichen Produktionsfaktoren werden auf Faktormärkten gehandelt, und zwar die Arbeit auf dem Arbeitsmarkt, der Boden auf dem Immobilienmarkt und das Kapital auf dem Kapitalmarkt. Während Arbeits- und Bodenangebot stark von Natureinflüssen abhängen (Witterung, Bodenbeschaffenheit), wird das Güterangebot in hohem Maße von wirtschaftlichen Erwägungen beeinflusst. Theoretische Grundlagen Im Standardmodell der neoklassischen Theorie lässt sich der Arbeitsmarkt wie auf einem Gütermarkt durch steigende Angebotskurven und fallende Nachfragekurven charakterisieren: Je höher der Lohn, desto höher ist das Arbeitskraftangebot und desto geringer die Arbeitskraftnachfrage. Hierbei wird ein repräsentativer Akteur unterstellt, was auf sehr einfache Weise die Übertragung einzelwirtschaftlicher Beobachtungen auf die gesamtwirtschaftliche Analyse ermöglicht. Die dem Modell zugrunde liegende Annahme vollkommener Markttransparenz sowie die Unterstellung des Produktionsfaktors Arbeit als homogen schränken seine Anwendbarkeit aus Sicht moderner Theorien des Arbeitsmarktes allerdings ein. Die klassische Lehre nimmt Löhne als flexibel an und erklärt dadurch eine Markträumung. In der Realität sind Löhne allerdings nicht flexibel, denn sie werden in der Regel tariflich für einen bestimmten Zeitraum festgelegt. Tatsächlich sind sie nach unten sogar meist starr. Weitere Arbeitsmarkttheorien: Humankapitaltheorie Suchtheorie Gewerkschaftstheorie Kontrakttheorie: siehe Prinzipal-Agent-Theorie Effizienzlohntheorie Insider-Outsider-Ansatz: siehe auch Persistenz (Makroökonomie)#Ursachen von Persistenz. Zu internen Arbeitsmärkten: Transaktionskostentheorie Segmentationstheorie. Arbeitnehmer als Dienstleistungserbringer Es ist in der deutschen Sprache üblich, denjenigen, der die Arbeit gibt (verrichtet), den Arbeitnehmer zu nennen, während der, der die Arbeit nimmt (Arbeitsleistung entgegennimmt), Arbeitgeber genannt wird. Die Dienstleistungen, die auf dem Arbeitsmarkt gehandelt werden, unterscheiden sich von anderen Dienstleistungen vor allem in diesen Punkten: Der Arbeitnehmer bringt kein eigenes Sachkapital (Büros, Computer usw.) ein, sondern lediglich seine Fähigkeiten und Fertigkeiten; das notwendige Sachkapital wird vom Unternehmer gestellt. Der Arbeitnehmer hat in der Regel nur einen Vertragspartner, den Unternehmer. Aktuelle Entwicklungen auf dem Arbeitsmarkt In Deutschland Seit 2005 werden auf dem Arbeitsmarkt drei Arbeitsverhältnisse unterschieden: Minijob (Bruttoverdienst bis 450 Euro/Monat) Niedriglohn-Job (Bruttoverdienst von 450,01 bis 800,00 Euro/Monat) reguläres Beschäftigungsverhältnis (Bruttoverdienst ab 800 Euro/Monat). Dazu abgestuft werden entsprechend Sozialversicherungsbeiträge und Steuern eingezogen. Die Neuregelung beruht auf dem Hartz-Konzept und soll die Zahl der Arbeitsverhältnisse erhöhen. Arbeitsmarktforschung Arbeitsmarkt- und Berufsforschung befasst sich mit der theoretischen und empirischen Untersuchung von Arbeitsmarkt, Berufsgruppen- und Branchenentwicklung etc. in wirtschaftlichen und sozialen Zusammenhängen. Für diese Disziplin wurde 1968 an der damaligen Bundesagentur für Arbeit das Institut für Arbeitsmarkt- und Berufsforschung gegründet. Hier wird das Forschungsfeld interdisziplinär von Soziologen, Ökonomen und Ökonometrikern untersucht. Die Forschung unterscheidet zwischen Ländern mit liberalem (Bsp. USA), konservativem (Bsp. Bundesrepublik Deutschland) und sozialdemokratischem (Bsp. Schweden) Wohlfahrtsstaatsmodell und deren spezifischen Auswirkungen auf den Arbeitsmarkt. Analysiert man diese Modelle z. B. anhand ihrer Auswirkungen auf das Geschlechterverhältnis im Arbeitsmarkt, ergibt sich folgendes Bild: Im liberalen Modell findet eine allgemein positive Entwicklung der Geschlechtergleichheit auf dem Arbeitsmarkt weitgehend zu Lasten gering verdienender Frauen statt. Im konservativen Modell ist v. a. eine hohe vertikale Segregation – d. h. geringe Aufstiegschancen von Frauen – zu beobachten. Das sozialdemokratische Modell produziert im Gegenzug eine starke horizontale Segregation, also eine Teilung des Arbeitsmarktes in spezifische Frauen- und Männerberufe. Siehe auch Arbeitsökonomik Agenda 2010 Arbeitsmarktindikator Arbeitsmarktstatistik der Vereinigten Staaten Liste der größten Arbeitgeber Liste der Länder nach Arbeitslosenquote Liste der Länder nach Anzahl an Arbeitskräften Niedriglohn Öffentlich geförderter Beschäftigungssektor Übergangsarbeitsmärkte Unterbeschäftigung Literatur Sven Rahner: Architekten der Arbeit: Positionen, Entwürfe, Kontroversen.: edition Körber-Stiftung, Hamburg 2014, ISBN 978-3-89684-156-8. Wolfgang Franz: Arbeitsmarktökonomik. 6. Auflage. Springer, Berlin 2006, ISBN 3-540-32337-6. Carroll Haak: Wirtschaftliche und soziale Risiken auf den Arbeitsmärkten von Künstlern. VS Verlag, Wiesbaden 2008. Michael Krätke: Arbeitsmarkt. In: Historisch-kritisches Wörterbuch des Marxismus. Band 1, Argument-Verlag, Hamburg 1994, Sp. 525–545. Walther Müller-Jentsch: Tarifautonomie. Über die Ordnung des Arbeitsmarktes durch Tarifverträge. Springer SV, Wiesbaden 2018, ISBN 978-3-658-21227-8. Günther Schmid: Gleichheit und Effizienz auf dem Arbeitsmarkt. Überlegungen zum Wandel und zur Gestaltung des „Geschlechtervertrags“. Internet http://web.fu-berlin.de/gpo/guenther_schmid.htm (abgerufen am 21. Februar 2009). Robert M. Solow: The Labor Market as a Social Institution. Blackwell, Cambridge 1990. Thomas Wagner, Elke Jahn: Neue Arbeitsmarkttheorien. 2. Auflage. Lucius und Lucius/UTB, Stuttgart 2004, ISBN 3-8282-0253-5. Weblinks Einzelnachweise
360
https://de.wikipedia.org/wiki/Assemblersprache
Assemblersprache
Eine Assemblersprache, kurz auch Assembler genannt (von ), ist eine Programmiersprache, die auf den Befehlsvorrat eines bestimmten Computertyps (d. h. dessen Prozessorarchitektur) ausgerichtet ist. Assemblersprachen bezeichnet man deshalb als maschinenorientierte Programmiersprachen und – als Nachfolger der direkten Programmierung mit Zahlencodes – als Programmiersprachen der zweiten Generation: Anstelle eines Binärcodes der Maschinensprache können Befehle und deren Operanden durch leichter verständliche mnemonische Symbole in Textform (z. B. „MOVE“), Operanden z. T. als symbolische Adresse (z. B. „PLZ“), notiert und dargestellt werden. Der Quelltext eines Assemblerprogramms wird mit Hilfe einer Übersetzungssoftware (Assembler oder Assemblierer) in Maschinencode übersetzt. Dagegen übersetzt in höheren Programmiersprachen (Hochsprachen, dritte Generation) ein sogenannter Compiler abstraktere (komplexere, nicht auf den Prozessor-Befehlssatz begrenzte) Befehle in den Maschinencode der gegebenen Zielarchitektur – oder in eine Zwischensprache. Umgangssprachlich werden die Ausdrücke „Maschinensprache“ und „Assembler(sprache)“ häufig synonym verwendet. Übersicht Ein Quelltext in Assemblersprache wird auch als Assemblercode bezeichnet. Programme in Assemblersprachen zeichnen sich dadurch aus, dass alle Möglichkeiten des Mikroprozessors genutzt werden können, was heutzutage selten erforderlich ist. Sie werden im Allgemeinen nur noch dann verwendet, wenn Programme bzw. einzelne Teile davon sehr zeitkritisch sind, z. B. beim Hochleistungsrechnen oder bei Echtzeitsystemen. Ihre Nutzung kann auch dann sinnvoll sein, wenn für die Programme nur sehr wenig Speicherplatz zur Verfügung steht (z. B. in eingebetteten Systemen). Unter dem Aspekt der Geschwindigkeitsoptimierung kann der Einsatz von Assemblercode auch bei verfügbaren hochoptimierenden Compilern noch seine Berechtigung haben, Vor- und Nachteile sollten aber für die spezifische Anwendung abgewogen werden. Bei komplexer Technik wie Intel Itanium und verschiedenen digitalen Signalprozessoren kann ein Compiler u. U. durchaus besseren Code erzeugen als ein durchschnittlicher Assemblerprogrammierer, da das Ablaufverhalten solcher Architekturen mit komplexen mehrstufigen intelligenten Optimierungen (z. B. Out-of-order execution, Pipeline-Stalls, …) hochgradig nichtlinear ist. Die Geschwindigkeitsoptimierung wird immer komplexer, da zahlreiche Nebenbedingungen eingehalten werden müssen. Dies ist ein gleichermaßen wachsendes Problem sowohl für die immer besser werdenden Compiler der Hochsprachen als auch für Programmierer der Assemblersprache. Für einen optimalen Code wird immer mehr Kontextwissen benötigt (z. B. Cachenutzung, räumliche und zeitliche Lokalität der Speicherzugriffe), welches der Assemblerprogrammierer teilweise (im Gegensatz zum Compiler) durch Laufzeitprofiling des ausgeführten Codes in seinem angestrebten Anwendungsfeld gewinnen kann. Ein Beispiel hierfür ist der SSE-Befehl MOVNTQ, welcher wegen des fehlenden Kontextwissens von Compilern kaum optimal eingesetzt werden kann. Die Rückwandlung von Maschinencode in Assemblersprache wird Disassemblierung genannt. Der Prozess ist allerdings verlustbehaftet, bei fehlenden Debug-Informationen hochgradig verlustbehaftet, da sich viele Informationen wie ursprüngliche Bezeichner oder Kommentare nicht wiederherstellen, da diese beim Assemblieren nicht in den Maschinencode übernommen wurden oder berechnet wurden. Beschreibung Programmbefehle in Maschinensprache bilden sich aus dem Operationscode (Opcode) und meist weiteren, je nach Befehl individuell festgelegten Angaben wie Adressen, im Befehl eingebettete Literale, Längenangaben etc. Da die Zahlenwerte der Opcodes schwierig zu merken sind, verwenden Assemblersprachen leichter merkbare Kürzel, sogenannte mnemonische Symbole (kurz Mnemonics). Beispiel: Der folgende Befehl in der Maschinensprache von x86-Prozessoren 10110000 01100001 (in hexadezimaler Darstellung: 'B0 61') entspricht dem Assemblerbefehl movb $0x61, %al # AT&T-Syntax (alles nach „#“ ist Kommentar) # mnemonisches Kürzel bedeutet „move_byte von/was , nach“ bzw. mov al, 61h ; Intel-Syntax; das ‚mov‘ als mnemotechnisches Kürzel erkennt ; aus dem angesprochenen ‚al‘, dass nur 1 Byte kopiert werden soll. ; „mov wohin , was/woher“ und bedeutet, dass der hexadezimale Wert „61“ (dezimal 97) in den niederwertigen Teil des Registers „ax“ geladen wird; „ax“ bezeichnet das ganze Register, „al“ (für low) den niederwertigen Teil des Registers. Der hochwertige Teil des Registers kann mit „ah“ angesprochen werden (für „high“). Am Beispiel ist zu erkennen, dass – obwohl in denselben Maschinencode übersetzt wird – die beiden Assembler-Dialekte deutlich verschieden formulieren. Die Information, dass ein Byte zu kopieren ist, steckt bei AT&T im „movb“; der Intel-mov entnimmt sie dem Umstand, dass Register(teil) „al“ ein Byte groß ist. Quelle und Ziel des Kopierens werden vertauscht angegeben. Auch das Format zum Ansprechen eines Registers sowie zur Angabe eines direkten Zahlenwerts ist verschieden. Mit Computerhilfe kann man das eine in das andere weitgehend eins zu eins übersetzen. Jedoch werden Adressumformungen vorgenommen, so dass man symbolische Adressen benutzen kann. Die Eingabedaten für einen Assembler enthalten neben den eigentlichen Codes/Befehlen (die er in Maschinencode übersetzt) auch Steueranweisungen, die seine Arbeitsweise bestimmen/festlegen, zum Beispiel zur Definition eines Basisregisters. Häufig werden komplexere Assemblersprachen (Makroassembler) verwendet, um die Programmierarbeit zu erleichtern. Makros sind dabei im Quelltext enthaltene Aufrufe, die vor dem eigentlichen Assemblieren automatisch durch (meist kurze) Folgen von Assemblerbefehlen ersetzt werden. Dabei können einfache, durch Parameter steuerbare Ersetzungen vorgenommen werden. Die Disassemblierung von derart generiertem Code ergibt allerdings den reinen Assemblercode ohne die beim Übersetzen expandierten Makros. Beispielprogramm Ein sehr einfaches Programm, das zu Demonstrationszwecken häufig benutzte Hallo-Welt-Beispielprogramm, kann zum Beispiel in der Assemblersprache MASM für MS-DOS aus folgendem Assemblercode bestehen: ASSUME CS:CODE, DS:DATA ;- dem Assembler die Zuordnung der Segmentregister zu den Segmenten mitteilen DATA SEGMENT ;Beginn des Datensegments Meldung db "Hallo Welt" ;- Zeichenkette „Hallo Welt“ db 13, 10 ;- Neue Zeile db "$" ;- Zeichen, das die Textausgabefunktion (INT 21h, Unterfunktion 09h) als Zeichenkettenende versteht DATA ENDS ;Ende des Datensegments CODE SEGMENT ;Beginn des Codesegments Anfang: ;- Einsprung-Label fuer den Anfang des Programms mov ax, DATA ;- Adresse des Datensegments in das Register „AX“ laden mov ds, ax ; In das Segmentregister „DS“ uebertragen (das DS-Register kann nicht direkt mit einem Wert beschrieben werden) mov dx, OFFSET Meldung ;- die zum Datensegment relative Adresse des Textes in das „DX“ Datenregister laden ; die vollstaendige Adresse von „Meldung“ befindet sich nun im Registerpaar DS:DX mov ah, 09h ;- die Unterfunktion 9 des Betriebssysteminterrupts 21h auswaehlen (Textausgaberoutine) int 21h ;- den Betriebssysteminterrupt 21h aufrufen (hier erfolgt die Ausgabe des Textes am Schirm) mov ax, 4C00h ;- die Unterfunktion 4Ch (Programmbeendigung) des Betriebssysteminterrupts 21h festlegen int 21h ;- damit wird die Kontrolle wieder an das Betriebssystem zurueckgegeben (Programmende) CODE ENDS ;Ende des Codesegments END Anfang ;- dem Assembler- und Linkprogramm den Programm-Einsprunglabel mitteilen ;- dadurch erhaelt der Befehlszaehler beim Aufruf des Programmes diesen Wert Vergleichende Gegenüberstellungen für das Hallo-Welt-Programm in unterschiedlichen Assemblerdialekten enthält diese Liste. In einem Pascal-Quelltext (eine Hochsprache) kann der Programmcode für „Hallo Welt“ dagegen deutlich kürzer sein: program Hallo(output); begin writeln('Hallo Welt') end. Verschiedene Assemblersprachen Jede Computerarchitektur hat ihre eigene Maschinensprache und damit Assemblersprache. Mitunter existieren auch mehrere Assemblersprachen-Dialekte („verschiedene Assemblersprachen“, sowie zugehörige Assembler) für die gleiche Prozessorarchitektur. Die Sprachen verschiedener Architekturen unterscheiden sich in Anzahl und Typ der Operationen. Jedoch haben alle Architekturen die folgenden grundlegenden Operationen: Daten lesen und schreiben von/nach Hauptspeicher in/aus dem Prozessor (i. A. von/zu einem Register); fast immer auch von-Register-zu-Register, meistens auch von-Hauptspeicher-zu-Hauptspeicher, einfache logische Operationen (z. B. Bit-Operationen wie AND/OR/NOT/SHIFT), einfache Kontrolle des Programmflusses (v. a. durch Prozessor-Flag-bedingte Sprünge), einfache arithmetische Operationen (z. B. Ganzzahl-Addition, Ganzzahl-Vergleich). Bestimmte Rechnerarchitekturen haben oft auch komplexere Befehle (CISC) wie z. B.: Aufrufe von Ein- bzw. Ausgabegeräten, eine einfache Operation (z. B. Addition) auf einen Vektor von Werten anwenden, Speicherblock-Operationen (z. B. kopieren oder mit Nullen füllen), höhere Arithmetik: Befehle, die durch (mehrere) einfache nachgebaut werden könnten (z. B. „Verringere Wert in Register A um 1; wenn es nun =0 ist, springe an Programmstelle xyz“ (DJZ A,xyz ~ 'decrement A, Jump if Zero to xyz')), Gleitkomma-Arithmetik wie Gleitkomma-Addition, -Multiplikation, Sinus-, Kosinus- und Wurzelberechnung (entweder über spezielle Zusatzprozessoren realisiert oder über Softwareroutinen), massive, direkte Parallelprogrammierbarkeit des Prozessors, etwa bei digitalen Signalprozessoren, Synchronisation mit anderen Prozessoren für SMP-Systeme, Unterbrechungssteuerungen, die besonders für Prozessrechner benötigt werden. Geschichte Die erste Assemblersprache wurde 1947 von Kathleen Booth entwickelt. Sie entwarf im Anschluss den Assembler für die ersten Computersysteme am Birkbeck College der University of London. Zwischen 1948 und 1950 schrieb Nathaniel Rochester einen der frühsten symbolischen Assembler für eine IBM 701. In den 1980er und frühen 1990er Jahren wechselte die Sprache, in der Betriebssysteme für größere Rechner geschrieben wurden, von Assembler zu Hochsprachen hin, meist C, aber auch C++ oder Objective C. Hauptauslöser war die steigende Komplexität von Betriebssystemen bei größerem verfügbaren Speicher im Bereich oberhalb von einem Megabyte. In Assembler verblieben zum Beispiel das Zwischenspeichern von Registern bei Prozesswechsel (siehe Scheduler), oder bei der x86-Architektur der Teil des Boot-Loaders, der innerhalb des 512 Byte großen Master Boot Records untergebracht sein muss. Auch Teile von Gerätetreibern werden in Assemblersprache geschrieben, falls aus den Hochsprachen kein effizienter Hardware-Zugriff möglich ist. Manche Hochsprachencompiler erlauben es, direkt im eigentlichen Quellcode Assemblercode, sogenannte Inline-Assembler, einzubetten. Bis ca. 1990 wurden die meisten Computerspiele in Assemblersprachen programmiert, da nur so auf Heimcomputern und den damaligen Spielkonsolen eine akzeptable Spielgeschwindigkeit und eine den kleinen Speicher dieser Systeme nicht sprengende Programmgröße zu erzielen war. Noch heute gehören Computerspiele zu den Programmen, bei denen am ehesten kleinere assemblersprachliche Programmteile zum Einsatz kommen, um so Prozessorerweiterungen wie SSE zu nutzen. Bei vielen Anwendungen für Geräte, die von Mikrocontrollern gesteuert sind, war früher oft eine Programmierung in Assembler notwendig, um die knappen Ressourcen dieser Mikrocontroller optimal auszunutzen. Um Assemblercode für solche Mikrocontroller zu Maschinencode zu übersetzen, werden Cross-Assembler bei der Entwicklung eingesetzt. Heute sind Mikrocontroller so günstig und leistungsfähig, dass moderne C-Compiler auch in diesem Bereich die Assembler weitgehend abgelöst haben. Nicht zuletzt aufgrund größerer Programmspeicher bei geringen Aufpreisen für die Chips fallen die Vorteile von Hochsprachen gegenüber den teils geringen Vorteilen der Assemblersprache immer mehr ins Gewicht. Vergleich zur Programmierung in einer Hochsprache Nachteile Assemblerprogramme sind sehr hardwarenah geschrieben, da sie direkt die unterschiedlichen Spezifikationen und Befehlssätze der einzelnen Computerarchitekturen (Prozessorarchitektur) abbilden. Daher kann ein Assemblerprogramm im Allgemeinen nicht auf ein anderes Computersystem (andere Prozessorarchitektur) übertragen werden, ohne dass der Quelltext angepasst wird. Das erfordert, abhängig von den Unterschieden der Assemblersprachen, hohen Umstellungsaufwand, unter Umständen ist ein komplettes Neuschreiben des Programmtextes erforderlich. Im Gegensatz dazu muss bei Hochsprachen oft nur ein Compiler für die neue Zielplattform verwendet werden. Quelltexte in Assemblersprache sind fast immer deutlich länger als in einer Hochsprache, da die Instruktionen weniger komplex sind und deshalb gewisse Funktionen/Operationen mehrere Assemblerbefehle erfordern; z. B. müssen beim logischen Vergleich von Daten (= > < …) ungleiche Datenformate oder -Längen zunächst angeglichen werden. Die dadurch größere Befehlsanzahl erhöht das Risiko, unübersichtlichen, schlecht strukturierten und schlecht wartbaren Programmcode herzustellen. Vorteile Nach wie vor dient Assembler zur Mikro-Optimierung von Berechnungen, für die der Hochsprachencompiler nicht ausreichend effizienten Code generiert. In solchen Fällen können Berechnungen effizienter direkt in Assembler programmiert werden. Beispielsweise sind im Bereich des wissenschaftlichen Rechnens die schnellsten Varianten mathematischer Bibliotheken wie BLAS oder bei architekturabhängigen Funktionen wie der C-Standardfunktion memcpy weiterhin die mit Assembler-Code. Auch lassen sich gewisse, sehr systemnahe Operationen unter Umgehung des Betriebssystems (z. B. direktes Schreiben in den Bildschirmspeicher) nicht in allen Hochsprachen ausführen. Der Nutzen von Assembler liegt auch im Verständnis der Arbeits- und Funktionsweise eines Systems, das durch Konstrukte in Hochsprachen versteckt wird. Auch heute noch wird an vielen Hochschulen Assembler gelehrt, um ein Verständnis für die Rechnerarchitektur und seine Arbeitsweise zu bekommen. Siehe auch C−− – eine „portable“ Assemblersprache Literatur Gerhard Niemeyer: Einführung in das Programmieren in ASSEMBLER. Systeme IBM, Siemens, Univac, Comparex, IBM-PC/370. 6. bearbeitete und erweiterte Auflage. de Gruyter, Berlin u. a. 1989, ISBN 3-11-012174-3 (De-Gruyter-Lehrbuch). Joachim Rohde: Assembler ge-packt. (Schnelles und effektives Nachschlagen aller relevanten Befehlssätze für AMD und Intel. MMX und 3DNow! SSE und seine Erweiterungen). 2. aktualisierte Auflage. Mitp-Verlag, Heidelberg 2007, ISBN 978-3-8266-1756-0 (Die ge-packte Referenz). Joachim Rohde, Marcus Roming: Assembler. Grundlagen der Programmierung. (Theorie und Praxis unter DOS und Windows. MMX und 3DNOW! Programme optimieren und Reverse Engineering). 2. aktualisierte und erweiterte Auflage. Mitp-Verlag, Bonn 2006, ISBN 3-8266-1469-0 (3-8266-1469-0). Jeff Duntemann: Assembly Language Step-by-Step. Programming with DOS and Linux. 2. Auflage. Wiley, New York NY u. a. 2000, ISBN 0-471-37523-3 (mit 1 CD-ROM). Paul Carter: PC Assembly Language, 2001. Robert Britton: MIPS Assembly Language Programming. Prentice Hall, Upper Saddle River NJ 2003, ISBN 0-13-142044-5. Steve McConnell: Code Complete. A practical Handbook of Software Construction. Microsoft Press, Redmond WA 1993, ISBN 1-55615-484-4. Randall Hyde: The Art of Assembly Language. 2. Auflage, No Starch Press, 2010, ISBN 978-1593272074. Weblinks Ed Jorgensen: x86-64 Assembly Language Programming with Ubuntu. (PDF; 2,4 MB) Compiler Explorer – interaktive Übersetzung verschiedener Ausgangssprachen im Webbrowser (englisch) Einzelnachweise Assembler Programmiersprache als Thema
368
https://de.wikipedia.org/wiki/Analog-Digital-Umsetzer
Analog-Digital-Umsetzer
Ein Analog-Digital-Umsetzer ist ein elektronisches Gerät, Bauelement oder Teil eines Bauelements zur Umsetzung analoger Eingangssignale in einen digitalen Datenstrom, der dann weiterverarbeitet oder gespeichert werden kann. Weitere Namen und Abkürzungen sind ADU, Analog-Digital-Wandler oder A/D-Wandler, (analog-to-digital converter) oder kurz A/D. Eine Vielzahl von Umsetz-Verfahren ist in Gebrauch. Das Gegenstück ist der Digital-Analog-Umsetzer (DAU). Analog-Digital-Umsetzer sind elementare Bestandteile fast aller Geräte der modernen Kommunikations- und Unterhaltungselektronik wie z. B. Mobiltelefonen, Digitalkameras, oder Camcordern. Zudem werden sie zur Messwerterfassung in Forschungs- und industriellen Produktionsanlagen, in Maschinen und technischen Alltagsgegenständen wie Kraftfahrzeugen oder Haushaltsgeräten eingesetzt. Arbeitsweise Ein ADU setzt ein zeit- und wert-kontinuierliches Eingangssignal (Analogsignal) in eine zeitdiskrete und wertdiskrete Folge von digital repräsentierten Werten um. Aufgrund einer endlichen Anzahl von möglichen Ausgangswerten erfolgt dabei immer eine Quantisierung. Das Ergebnis einer AD-Umsetzung kann man sich in einem Signal-Zeit-Diagramm in einer Punktfolge mit gestuften horizontalen und vertikalen Abständen vorstellen. Die Hauptparameter eines ADUs sind seine Bittiefe und seine maximale Abtastrate. Die Umsetzzeit ist meist wesentlich kleiner als das Reziproke der Abtastrate. Schon die Bittiefe eines AD-Umsetzers begrenzt die maximal mögliche Genauigkeit, mit der das Eingangssignal umgesetzt werden kann. Die nutzbare Genauigkeit ist durch weitere Fehlerquellen des ADUs geringer. Neben möglichst schnellen Verfahren gibt es auch langsame (integrierende) Verfahren zur Unterdrückung von Störeinkopplungen. Zeit-Diskretisierung (Abtastung) Die minimal notwendige Abtastfrequenz für eine verlustfreie Diskretisierung ergibt sich aus der Bandbreite des Eingangssignals. Um das Signal später vollständig rekonstruieren zu können, muss die Abtastfrequenz größer als das Doppelte der maximal möglichen Frequenz im Eingangssignal sein (siehe Nyquist-Frequenz). Anderenfalls kommt es zu einer Unterabtastung und führt im rekonstruierten Signal zu im Eingangssignal nicht vorhandenen Frequenzen. Daher muss das Eingangssignal bandbegrenzt sein. Entweder ist es dies von sich aus oder es wird durch Tiefpassfilterung zu solch einem Signal gemacht. Manchmal ist das abzutastende Signal allerdings so hochfrequent, dass man diese Bedingung technisch nicht realisieren kann. Wenn das Eingangssignal jedoch periodisch ist, kann man durch Mehrfachabtastung mit zeitlichem Versatz dennoch eine Rekonstruktion ermöglichen, ohne dabei das Abtasttheorem zu verletzen, da bei mehrfachem Durchlauf des Signals Zwischenpunkte ermittelt werden und so eine größere Zahl von Stützstellen entsteht, was im Endeffekt einer Erhöhung der Abtastrate entspricht. Während der Signalumsetzung darf sich bei vielen Umsetzverfahren das Eingangssignal nicht ändern. Dann schaltet man dem eigentlichen AD-Umsetzer eine Abtast-Halte-Schaltung (Sample-and-Hold-Schaltung) vor, die den Signalwert () analog so zwischenspeichert, dass er während der Quantisierung konstant bleibt. Dies trifft besonders auf die stufen- und bitweisen Umsetzer zu, die längere Umsetzzeiten benötigen. Wenn ein Umsetzer diese Abtast-Halte-Schaltung erfordert, so ist sie bei Realisierung als integrierter Schaltkreis heute meist enthalten. In vielen Anwendungen soll das Eingangssignal in immer exakt gleichen Zeitabständen abgetastet werden. Durch zufällige Variationen der Abstände tritt jedoch ein Effekt auf, den man als Jitter bezeichnet. Er verfälscht das ursprüngliche Signal bei der späteren Rekonstruktion, da diese wieder äquidistant – also mit gleichen Zeitabständen – erfolgt. Nicht verwechselt werden darf die Umsetzdauer mit der Latenzzeit eines Umsetzers, d. h. die Zeit, die nach der Erfassung vergeht, bis ein AD-Umsetzer das Datum weitergegeben hat. Diese Zeit kann weitaus größer als die Umsetzdauer sein, was insbesondere in der Regelungstechnik störend sein kann. Sie wird verursacht durch Pipelining des Umsetzers, Nachbearbeitung der Daten und die serielle Datenübertragung. Quantisierung Die Quantisierung des vorher zeitdiskretisierten Signals stellt den eigentlichen Übergang von einem analogen Signal zu einem digitalen Signal dar. Auf Grund der endlichen Bittiefe des Umsetzers gibt es nur eine gewisse Anzahl an Codeworten und deren dazugehörige Eingangsspannung. Das Signal wird quantisiert. Die Abweichung zwischen der wahren Eingangsspannung und der quantisierten Eingangsspannung nennt man Quantisierungsabweichung. Je mehr Bits bzw. Codeworte zur Verfügung stehen, umso kleiner ist diese unvermeidbare Abweichung. Bei einem idealen AD-Umsetzer verringert jedes zusätzliche Bit dieses Rauschen um 6,02 dB. Bei realen AD-Umsetzern kann man über die Effektive Anzahl von Bits (ENOB) abschätzen, was ein weiteres Bit bei dem betrachteten Umsetzer bringen würde (so würde ein weiteres Bit bei einem 12-bit-Umsetzer mit einem ENOB von 11 bit ca. 0,15 bit bzw. 0,9 dB bringen). Das Verhältnis aus maximal möglicher unverzerrter Eingangsspannung und dem Rauschen bei signallosem Eingang nennt man Dynamikumfang. Umsetzer, die bei fehlendem Eingangssignal ein konstantes Codewort liefern, haben einen unendlich hohen Dynamikumfang. Sinnvoller ist die Angabe des Signal-Rausch-Verhältnisses (bzw. des SINAD, signal to noise and distortion ratio, Verhältnis des Signals zur Summe aus Rauschen und Verzerrungen). Bezugswert Da das dem ADU zugeführte Analogsignal in einen größenlosen Digitalwert umgesetzt wird, muss es mit einem vorgegebenen Wert oder Signal bewertet werden (Eingangssignalbereich bzw. Messbereich). Im Allgemeinen wird ein feststehender Bezugswert (z. B. eine intern erzeugte Referenzspannung) verwendet. Das analoge Eingangssignal wird digital abgebildet, die Referenz legt den zulässigen Scheitelwert des Eingangssignals fest. Quantisierungskennlinie Bei Analog-Digital-Umsetzern besteht zwischen Eingangs- und Ausgangsgröße immer ein nichtlinearer Zusammenhang. Ändert sich allerdings bei steigender Eingangsspannung der Digitalwert in konstanten Abständen oder nähert sich bei extrem feiner Stufung die Kennlinie einer Geraden, spricht man dennoch von einem linearen Analog-Digital-Umsetzer. Es gibt wobei daneben auch andere Kodierungen, beispielsweise Zweierkomplement, BCD-Code verwendbar sind. Interfaces Neben der schon erwähnten Abtast-Halte-Schaltung werden weitere Schaltungen für das Interface in die analoge Welt benötigt, so dass diese vielfach zusammen mit dem eigentlichen Umsetzer auf einem Chip integriert sind. Dies können beispielsweise Puffer- bzw. Verstärkerschaltungen, ggf. mit umschaltbarer Verstärkung (Programmable Gain Amplifier (PGA)) sowie Eingänge für differenzielle Signalübertragung sein. Es gibt auch Varianten ohne echten Subtrahierverstärker am Eingang; stattdessen werden die beiden Leitungen des differentiellen Signals hintereinander verarbeitet und erst anschließend die Differenz gebildet (sog. pseudodifferentielle Eingänge). Am Ausgang werden digitale Daten zur Verfügung gestellt. Klassischerweise erscheint jedes Bit der Ausgangsgröße an einem eigenen Anschlusspin; die Größe wird also parallel ausgegeben – nicht zu verwechseln mit der Parallelumsetzung. Falls die Größe auf einer Anzeige angezeigt werden soll, kommen auch integrierte Siebensegment-Codierer zum Einsatz, oder die Größe wird als BCD-Code im Multiplexverfahren ausgegeben. Nachteilig an der parallelen Ausgabe, insbesondere bei der Weiterverarbeitung durch Mikroprozessoren oder -controllern, ist hierbei die große Anzahl an benötigten Anschlusspins. Daher werden vielfach serielle Verbindungen implementiert, beispielsweise mit den Protokollen I²C, SPI oder I²S. Bei entsprechenden Datenraten wird beispielsweise LVDS- oder JESD204B-Technik eingesetzt. Abweichungen Zusätzlich zu dem unvermeidbaren Quantisierungsfehler haben reale AD-Umsetzer folgende Fehler: Nullpunktfehler, Verstärkungsfehler und Nichtlinearitätsfehler Als Abweichungen der Kennlinien zwischen realem und idealem Umsetzer sind folgende Fehler definiert (siehe Bild): Nullpunktfehler (Offset) Verstärkungsfehler () Nichtlinearitätsfehler Der Verstärkungsfehler wird oft als Bruchteil des aktuellen Wertes angegeben, der Nullpunktfehler zusammen mit dem Quantisierungsfehler und der Nichtlinearitätsfehler als Bruchteile des Endwertes oder als Vielfache eines LSB. Fehler in der Stufung Einzelne Stufen können unterschiedlich breit ausfallen. Bei kontinuierlich steigender Eingangsgröße kann es je nach Realisierungsverfahren vorkommen, dass ein Wert der Ausgangsgröße übersprungen wird, insbesondere dann, wenn es einen Übertrag über mehrere Binärstellen gibt, beispielsweise von 0111 1111 nach 1000 0000. Man spricht hierzu von „missing codes“. Zeitliche und Apertur-Fehler Bei Wandlung jedes nichtkonstanten Eingangssignals entsteht durch zeitliche Schwankungen des Umsetzer-Taktes Δt (clock jitter) ein der zeitlichen Änderung des Eingangssignals proportionaler Fehler. Bei einem Sinussignal der Frequenz f und der Amplitude A beträgt es . Jeglicher Jitter erzeugt weiteres Rauschen – es gibt keinen Schwellwert, unterhalb dem es zu keiner Verschlechterung des Signal-Rausch-Verhältnisses kommt. Viele aktuelle Wandler (insbesondere Delta-Sigma-Umsetzer) haben eine interne Taktaufbereitung. Der Hintergrund ist der, dass viele Wandler einen höheren internen Takt benötigen bzw. bei Delta-Sigma-Umsetzern, dass dort Jitter direkt (d. h. auch bei konstantem Eingangssignal) Wandlungsfehler verursacht. Realisierungsverfahren Es gibt eine große Anzahl von Verfahren, die zur Umsetzung von analogen in digitale Signale benutzt werden können. Im Folgenden sind die wichtigsten Prinzipien aufgeführt. Als Eingangsgröße wird in allen Beispielen die elektrische Spannung zugrunde gelegt. Den inneren Ablauf einer Umsetzung steuern die Bausteine selbst. Für die Zusammenarbeit mit einem Rechner kann ein ADU mit einem Start-Eingang versehen sein für die Anforderung zu einer neuen Umsetzung, mit einem „busy“-Ausgang für die Meldung der noch andauernden Umsetzung und mit bus-kompatiblen Datenausgängen für das Auslesen des entstandenen Digitalwertes. Integrierender Umsetzer (Zählverfahren) Bei diesen Verfahren finden zwei Vorgänge statt: ein analoger durch die Messgröße beeinflusster Prozess, bei dem ein Kondensator stetig geladen wird und im Wechsel wieder entladen, ein digitaler Prozess, der vom Ladevorgang abhängige Zeiten oder Impulsdichten misst, wozu gezählt wird. Beim Nachlauf-Umsetzer wird ebenfalls gezählt. Dieser wird ohne Kondensator als rückgekoppelter Umsetzer betrieben und weiter unten erklärt. Single-Slope-Umsetzer (Sägezahn-/Einrampenverfahren) Beim Sägezahnverfahren wird die Ausgangsspannung eines Sägezahngenerators über zwei Komparatoren K1 und K2 mit dem Massepotenzial (0 V) und mit der ADU-Eingangsspannung verglichen. Während des Zeitraums, in dem die Sägezahnspannung den Bereich zwischen 0 V und der Spannung durchläuft, werden die Impulse eines Quarzoszillators gezählt. Aufgrund der konstanten Steigung der Sägezahnspannung ist die verstrichene Zeit und somit der Zählerstand bei Erreichen von proportional zur Höhe der ADU-Eingangsspannung. Zum Ende des Zählvorgangs wird das Zählergebnis in ein Register übertragen und steht als digitales Signal zur Verfügung. Anschließend wird der Zähler zurückgesetzt, und ein neuer Umsetzungsvorgang beginnt. Die Umsetzungszeit bei diesem ADU ist abhängig von der Eingangsspannung. Schnell veränderliche Signale können mit diesem Umsetzertyp nicht erfasst werden. Umsetzer nach dem Sägezahnverfahren sind ungenau, da der Sägezahngenerator mit Hilfe eines temperatur- und alterungsabhängigen Integrationskondensators arbeitet. Sie werden wegen ihres relativ geringen Schaltungsaufwands für einfache Aufgaben eingesetzt, beispielsweise in Spielkonsolen, um die Stellung eines Potentiometers, das durch einen Joystick oder ein Lenkrad bewegt wird, zu digitalisieren. Dual- und Quadslope-Umsetzer (Mehrrampenverfahren) Dual- und Quadslope-Umsetzer bestehen im Wesentlichen aus einem Integrator und mehreren Zählern und elektronischen Schaltern. Der Integrator arbeitet mit einem externen, hochwertigen Kondensator, der in zwei oder mehr Zyklen geladen und entladen wird. Beim Zweirampenverfahren (Dual-Slope) wird zunächst der Integratoreingang mit der unbekannten ADU-Eingangsspannung verbunden, und es erfolgt die Ladung über ein fest vorgegebenes Zeitintervall. Für die anschließende Entladung wird der Integrator mit einer bekannten Referenzspannung entgegengesetzter Polarität verbunden. Einzelheiten werden unter digitale Messtechnik erläutert. Die benötigte Entladezeit bis zum Erreichen der Spannung null am Integratorausgang wird durch einen Zähler ermittelt; der Zählerstand steht bei geeigneter Dimensionierung unmittelbar für die Eingangsspannung. Die Größe der Kapazität kürzt sich bei diesem Verfahren aus dem Ergebnis heraus. Zur Korrektur des Nullpunktfehlers des ADU wird beim Vierrampenverfahren noch ein weiterer Lade-/Entladezyklus bei kurzgeschlossenem Integratoreingang durchgeführt. Die Referenzspannung ist die bestimmende Größe für die Genauigkeit; das heißt beispielsweise, dass thermisch bedingte Schwankungen vermieden werden müssen. Derartige Umsetzer nach dem Mehrrampenverfahren sind langsam, benötigen keine Abtast-Halte-Schaltung und bieten eine hohe Auflösung sowie gute differentielle Linearität und gute Unterdrückung von Störsignalen wie Rauschen oder Netzeinkopplung. Das typische Einsatzgebiet sind anzeigende Messgeräte (Digitalmultimeter), die kaum eine Umsetzzeit unter 500 ms benötigen und bei geeigneter Integrationsdauer überlagerte 50-Hz-Störungen der Netzfrequenz eliminieren können. Ladungsbilanz-Umsetzer Beim Ladungsbilanzverfahren (Charge-Balancing-Verfahren) wird der Kondensator eines Integrators durch einen zur Eingangsgröße proportionalen elektrischen Strom geladen und durch kurze Stromstöße in entgegengesetzter Richtung entladen, so dass sich im Mittel keine Ladung aufbaut. Je größer der Ladestrom ist, desto häufiger wird entladen. Die Häufigkeit ist proportional zur Eingangsgröße; die Anzahl der Entladungen in einer festen Zeit wird gezählt und liefert den Digitalwert. In seinem Verhalten ist das Verfahren dem Dual-Slope-Verfahren ähnlich. Auch andere analoge Eingangsstufen, die einen Spannungs-Frequenz-Umformer mit genügend hochwertiger Genauigkeit enthalten, führen über eine Frequenzzählung auf einen Digitalwert. Rückgekoppelter Umsetzer (Serielles Verfahren) Diese arbeiten mit einem DAU, der einen Vergleichswert liefert. Dieser wird nach einer geeigneten Strategie an das analoge Eingangssignal angenähert. Der zum Schluss am DAU eingestellte Digitalwert ist das Ergebnis des ADU. Da das Verfahren eine Zeitspanne benötigt, in der sich das Eingangssignal nicht ändern darf, wird davon mittels Sample-and-Hold-Schaltung (S/H) eine „Probe“ genommen und während der Umsetzung festgehalten. Nachlauf-Umsetzer Hier wird ein Zähler als Datenspeicher eingesetzt. Je nach Vorzeichen von wird um einen Schritt aufwärts oder abwärts gezählt und neu verglichen – gezählt und neu verglichen, bis die Differenz kleiner ist als der kleinste einstellbare Schritt. Diese Umsetzer „fahren“ dem Signal einfach nach, wobei die Umsetzungszeit vom Abstand des aktuellen Eingangssignals zum Signal bei der letzten Umsetzung abhängt. Sukzessive Approximation Diese arbeiten mit einem DAU, der einen Vergleichswert jedes Mal neu aufbaut. Das Eingangssignal wird mittels Intervallschachtelung eingegrenzt. Einfache sukzessive Approximation setzt dabei pro Schritt ein Bit um. Ein um Größenordnungen genaueres und schnelleres Umsetzen kann dadurch erreicht werden, dass die Umsetzung redundant erfolgt, indem mit kleinerer Schrittweite umgesetzt wird, als einem Bit entspricht. Wägeverfahren Ein mögliches Approximationsverfahren ist das Wägeverfahren. Dabei werden in einem Datenspeicher (successive approximation register, SAR) zunächst alle Bits auf null gesetzt. Beginnend beim höchstwertigen Bit (Most Significant Bit, MSB) werden abwärts bis zum niederwertigsten Bit (Least Significant Bit, LSB) nacheinander alle Bits des Digitalwerts ermittelt. Vom Steuerwerk wird jeweils das in Arbeit befindliche Bit probeweise auf eins gesetzt; der Digital-Analog-Umsetzer erzeugt die dem aktuellen Digitalwert entsprechende Vergleichsspannung. Der Komparator vergleicht diese mit der Eingangsspannung und veranlasst das Steuerwerk, das in Arbeit befindliche Bit wieder auf null zurückzusetzen, wenn die Vergleichsspannung höher ist als die Eingangsspannung. Sonst ist das Bit mindestens notwendig und bleibt gesetzt. Nach der Einstellung des niederwertigsten Bits ist kleiner als der kleinste einstellbare Schritt. Während der Umsetzung darf sich das Eingangssignal nicht ändern, da sonst die niederwertigen Bits auf Grundlage der festgestellten, aber nicht mehr gültigen höherwertigen Bits gewonnen würden. Deshalb ist dem Eingang eine Abtast-Halte-Schaltung (S/H) vorgeschaltet. Für jedes Bit an Genauigkeit benötigt der ADU jeweils einen Taktzyklus Umsetzungszeit. Derartige Umsetzer erreichen Auflösungen von 16 Bit bei einer Umsetzungsrate von 1 MHz. Redundante Umsetzer Dem Wägeverfahren ähnliche redundante Analog-Digital-Umsetzer gehen davon aus, dass keine exakte Halbierung des noch offenen Intervalls um den Zielwert herum erfolgt, sondern dieses Intervall nur um einen Anteil davon eingeschränkt wird. Dazu haben sie einen Digital-Analog-Umsetzer, dessen Elemente nicht nach dem Dualsystem gestaffelt sind, also immer um den Faktor 2, sondern um einen kleineren Faktor. Sie nehmen damit einerseits in Kauf, dass mehr Elemente benötigt werden, um den gleichen Wertebereich abzudecken, ermöglichen aber andererseits, dass der Umsetzer um eine Größenordnung schneller arbeiten und eine um mehrere Größenordnungen höhere Genauigkeit erzielen kann: Die schnellere Funktion kommt dadurch, dass der Komparator in jedem Schritt nicht abwarten muss, bis sich seine Verstärker bis zu einem Mehrfachen der Zielgenauigkeit eingeschwungen haben (immer etwas größenordnungsmäßig so viele Einschwing-Zeitkonstanten, wie der Umsetzer Bits umsetzen soll), sondern eine Entscheidung schon nach der kurzen 50-Prozent-Einschwingzeit abgeben kann, die dann in einem recht großen Bereich innerhalb des Restintervalls fehlerhaft ist. Das wird allerdings mehr als abgefangen durch die redundant ausgelegten Umsetzerelemente. Die Gesamtumsetzdauer eines solchen Umsetzers liegt größenordnungsmäßig eine Zehnerpotenz unter der seines einfachen Vorbilds. Durch den redundanten Umsetzungsprozess hat ein solcher Umsetzer ein viel geringeres Eigenrauschen als sein rein dualer Gegenpart. Zusätzlich kann sich ein solcher ADU selbst einmessen, und zwar bis zu einer Genauigkeit, die nur durch das Rauschen begrenzt ist. Indem man das Selbsteinmessen wesentlich langsamer ablaufen lässt als die Umsetzung in der Nutzanwendung, kann der Rauscheinfluss in diesem Prozess um eine Größenordnung gedrückt werden. Die resultierende Kennlinie eines solchen Umsetzers ist bis auf eine rauschartige Abweichung um wenige Vielfache des kleinsten beim Selbsteinmessen verwendeten Elements absolut linear. Indem zwei derartige Umsetzer nebeneinander auf denselben Chip platziert werden und einer immer im Einmess-Modus ist, können solche Umsetzer nahezu resistent gegen Herstellungstoleranzen, Temperatur- und Betriebsspannungsänderungen gemacht werden. Die erreichbare Auflösung ist ausschließlich rauschbegrenzt. Delta-Sigma-Verfahren Das Delta-Sigma-Verfahren, auch als 1-Bit-Umsetzer bezeichnet, basiert auf der Delta-Sigma-Modulation. In der einfachsten Form (Modulator erster Ordnung) kommt das Eingangssignal über einen analogen Subtrahierer zum Integrator und verursacht an dessen Ausgang ein Signal, das von einem Komparator mit eins oder null bewertet wird. Ein Flipflop erzeugt daraus ein zeitdiskretes binäres Signal, mit dem ein 1-Bit-Digital-Analog-Umsetzer in eine positive oder negative elektrische Spannung liefert, die über den Subtrahierer den Integrator wieder auf null zurückzieht (Regelkreis). Ein nachgeschalteter Digitalfilter setzt den seriellen und hochfrequenten Bit-Strom in Daten niedriger Erneuerungsrate, aber großer Bitbreite (16 oder 24 Bit) und hohem Signal-Rausch-Verhältnis (94 bis 115 dB) um. In der Praxis werden Delta-Sigma-Umsetzer als Systeme dritter oder vierter Ordnung aufgebaut, das heißt durch mehrere seriell angeordnete Differenz- und Integratorstufen. Dies erlaubt eine bessere Rauschformung und damit einen höheren Gewinn an Auflösung bei gleicher Überabtastung. Ein Vorteil des Delta-Sigma-Umsetzers ist, dass die Dynamik in gewissen Grenzen durch die Bandbreite wechselseitig ausgetauscht werden kann. Durch die kontinuierliche Abtastung am Eingang wird auch keine Halteschaltung (engl. sample and hold) benötigt. Außerdem werden geringe Anforderungen an das analoge Anti-Aliasing-Filter gestellt. Die Vorteile werden durch den Nachteil der vergleichsweise hohen Latenzzeit erkauft, welche vor allem durch die digitalen Filterstufen bedingt ist. Delta-Sigma-Umsetzer werden daher dort eingesetzt, wo kontinuierliche Signalverläufe und nur moderate Bandbreiten benötigt werden, wie beispielsweise im Audiobereich. Praktisch alle Audiogeräte im Bereich der Unterhaltungselektronik wie zum Beispiel DAT-Rekorder setzen diese Umsetzer ein. Auch bei Datenumsetzern in der Kommunikationstechnik und der Messtechnik wird es aufgrund der fallenden Preise zunehmend eingesetzt. Durch die dabei notwendige hohe Überabtastung sind dem Verfahren bei höheren Frequenzen allerdings Grenzen gesetzt. Parallel-Umsetzer Einstufige Parallelumsetzer (Flash-Umsetzer) Während die sukzessive Approximation mehrere Vergleiche mit nur einem Komparator ausführt, kommt die direkte Methode oder auch Flash-Umsetzung mit nur einem Vergleich aus. Dazu ist bei Flash-Umsetzern aber für jeden möglichen Ausgangswert (bis auf den größten) ein separat implementierter Komparator erforderlich. Beispielsweise ein 8-Bit-Flash-Umsetzer benötigt somit 28−1 = 255 Komparatoren. Das analoge Eingangssignal wird im Flash-Umsetzer gleichzeitig von allen Komparatoren mit den (über einen linearen Spannungsteiler erzeugten) Vergleichsgrößen verglichen. Anschließend erfolgt durch eine Kodeumsetzung der 2n−1 Komparatorsignale in einen n bit breiten Binärkode (mit n: Auflösung in Bit). Das Resultat steht damit nach den Durchlaufverzögerungen (Schaltzeit der Komparatoren sowie Verzögerung in der Dekodierlogik) sofort zur Verfügung. Im Ergebnis sind die Flash-Umsetzer also sehr schnell, bringen aber im Allgemeinen auch hohe Verlustleistungen und Anschaffungskosten mit sich (insbesondere bei den hohen Auflösungen). Die Codeumsetzung erfordert unabhängig von der Auflösung nur eine Spalte mit Und-Gattern und eine Spalte mit Oder-Gattern (siehe Bild). Sie rechnet das Ergebnis der Komparatoren um in eine Binärzahl. Sie arbeitet mit einer sehr kurzen und für alle Binärziffern gleich langen Durchlaufverzögerung. Für die vier möglichen Werte eines Zwei-Bit-Umsetzers sind drei Komparatoren erforderlich. Der vierte hat nur die Funktion, eine Messbereichsüberschreitung zu signalisieren und die Codeumsetzung zu unterstützen. Mehrstufige Parallelumsetzer (Pipeline-Umsetzer) Pipeline-Umsetzer sind mehrstufige Analog-Digital-Umsetzer mit mehreren selbständigen Stufen, die in Pipeline-Architektur aufgebaut sind. Ihre Stufen bestehen in der Regel aus Flash-Umsetzern über wenige Bits. In jeder Pipelinestufe wird eine grobe Quantisierung vorgenommen, dieser Wert wieder mit einem DAU in ein analoges Signal umgesetzt und vom zwischengespeicherten Eingangssignal abgezogen. Der Restwert wird verstärkt der nächsten Stufe zugeführt. Der Vorteil liegt in der stark verminderten Anzahl an Komparatoren, z. B. 30 für einen zweistufigen Acht-Bit-Umsetzer. Ferner kann eine höhere Auflösung erreicht werden. Die Mehrstufigkeit erhöht die Latenzzeit, aber vermindert die Abtastrate nicht wesentlich. Die Pipeline-Umsetzer haben die echten Parallelumsetzer außer bei extrem zeitkritischen Anwendungen ersetzt. Diese mehrstufigen Umsetzer erreichen Datenraten von 250 MSPS (Mega-Samples Per Second) bei einer Auflösung von 12 Bit (MAX1215, AD9480) oder eine Auflösung von 16 Bit bei 200 MSPS (ADS5485). Die Werte der Quantisierungsstufen werden unter Berücksichtigung ihrer Gewichtung addiert. Meistens enthält ein Korrektur-ROM noch Kalibrierungsdaten, die dazu dienen, Fehler zu korrigieren, die in den einzelnen Digitalisierungsstufen entstehen. Bei manchen Ausführungen werden diese Korrekturdaten auch auf ein externes Signal hin generiert und in einem RAM abgelegt. Pipeline-Umsetzer kommen normalerweise in allen Digitaloszilloskopen und bei der Digitalisierung von Videosignalen zur Anwendung. Als Beispiel ermöglicht der MAX109 bei einer Auflösung von 8 bit eine Abtastrate von 2,2 GHz. Mittlerweile gibt es aber noch schnellere (4 GSPS) und genauere Umsetzer (16 bit @1 GSPS). Bei heutigen Digitaloszilloskopen mit möglichen Abtastraten von 240 GSPS werden zusätzlich noch Demultiplexer vorgeschaltet. Hybrid-Umsetzer Ein Hybrid-Umsetzer ist kein eigenständiger Umsetzer, sondern er kombiniert zwei oder mehr Umsetzungsverfahren, zum Beispiel auf Basis einer SAR-Struktur, wobei der ursprüngliche Komparator durch einen Flash-Umsetzer ersetzt wird. Dadurch können in jedem Approximationsschritt mehrere Bits gleichzeitig ermittelt werden. Marktsituation Am Markt kommen im Wesentlichen vier Verfahren vor: Für hohe Abtastraten kommen Pipeline-Umsetzer zum Einsatz. Geschwindigkeiten 40 MSPS bis 5 GSPS. Übliche Dynamik 8 Bit, 12 Bit (bis 4 GSPS) oder 16 Bit (bis 1 GSPS). Kommt es auf hohe Genauigkeit bei gemäßigter Abtastraten an und spielt Latenz keine Rolle, kommen Delta-Sigma-Umsetzer zum Einsatz. Geschwindigkeiten wenige SPS bis 2,5 MSPS. Bittiefen 16 Bit bis 24 Bit. Ist die Latenz wesentlich oder stört das vergleichsweise steile Tiefpassverhalten, kommen sukzessiv approximierende Umsetzer zum Einsatz. Geschwindigkeiten 0,1 MSPS bis 10 MSPS. In einfachen anzeigenden Messgeräten wie Multimeter kommen langsame Störungen dämpfende Zählverfahren wie Dualslope-Umsetzer zum Einsatz. Mit diesen Verfahren kann man fast alle praktischen Anforderungen abdecken und bei gemäßigten Anforderungen (z. B. 12 bit, 125 KSPS, 4 Kanäle) sind diese Wandler kostengünstig (ca. 1 €) zu bekommen. Wichtige Kenngrößen Abtastrate (Sample Rate) – Angabe zur Häufigkeit der Umsetzung. Auflösung (Resolution) – Breite der Stufen (auch Anzahl der Stufen oder Anzahl der Stellen), die zur Darstellung des Ausgangssignals verwendet werden. Nullpunktsfehler – Die Umsetzerkennlinie (ohne Berücksichtigung der Stufung) ist verschoben. Der digitale Wert unterscheidet sich vom richtigen Wert um einen konstanten Betrag. Empfindlichkeitsfehler, Verstärkungsfehler – Die Umsetzerkennlinie (ohne Berücksichtigung der Stufung) ist verdreht (Steigungsfehler). Der digitale Wert unterscheidet sich vom richtigen Wert um einen konstanten Prozentsatz der Eingangsgröße. Integrale Nichtlinearität – Der Fehler dadurch, dass eine als linear zugrunde gelegte Umsetzerkennlinie (ohne Berücksichtigung der Stufung) nicht geradlinig ist. Differenzielle Nichtlinearität – Abweichung der Breite der Umsetzungsstufen untereinander Quantisierungskennlinie – Grafische Darstellung des Zusammenhangs zwischen den digitalen Ausgangswerten und den analogen Eingangswerten, z. B. einem linearen oder logarithmischen Verlauf folgend. Quantisierungsfehler – Durch die begrenzte Auflösung bedingte Abweichung des Ausgangssignals vom funktionalen (stetigen) Verlauf. Informationslücke (Missing Code) – Wenn eine kontinuierliche Vergrößerung des Eingangssignals keine fortlaufend durchnummerierten Werte des Ausgangscodes zur Folge hat, sondern ein Wert übersprungen wird; möglich bei einer differenziellen Nichtlinearität von mehr als 1 LSB. Latenzzeit – Laufzeitverzögerung von der Erfassung des Eingangssignals bis zur Bereitstellung des zugehörigen Ausgangssignals. Signal-Rausch-Verhältnis in dB Dynamikumfang in dB Dynamische Parameter Intermodulationsstörungen in dB Betriebsstrom – je schneller die Umsetz-Elektronik arbeiten muss, desto höherer wird ihr Versorgungsstrom (Eigenerwärmung). Siehe auch Antialiasing (Signalverarbeitung) Dithering (Audiotechnik) Digitale Messtechnik Vielkanalanalysator Liste von Audio-Fachbegriffen Literatur Rudy J. van de Plassche: CMOS integrated analog-to-digital and digital-to-analog converters. 2nd edition. Kluwer Academic, Boston 2003, ISBN 1-4020-7500-6 (englisch) Ulrich Tietze, Christoph Schenk: Halbleiter-Schaltungstechnik. 12. Auflage. Springer, Heidelberg 2002, ISBN 3-540-42849-6 Rüdiger Klein, Das neue Werkbuch Elektronik. Bercker, Kevelaer, ISBN 978-3-645-65094-6 Weblinks Grundlagen anhand von Simulationen Eine Einführung in Delta-Sigma-Wandler AD-Umsetzer in „Angewandte Mikroelektronik“ – Grundlagen Pipelined Subranging ADCs (PDF; 1 MB) Einzelnachweise Elektronische Schaltung Messdatenerfassung Digitale Signalverarbeitung
373
https://de.wikipedia.org/wiki/Anglikanische%20Gemeinschaft
Anglikanische Gemeinschaft
Die Anglikanische Gemeinschaft (auch Anglikanische Kommunion, ; von ‚englisch‘), umgangssprachlich auch die anglikanische Kirche, ist eine weltweite christliche Kirchengemeinschaft, die in ihrer Tradition evangelische und katholische Glaubenselemente vereinigt, wobei die katholische Tradition in der Liturgie und im Sakramentsverständnis (insbesondere dem Amtsverständnis) vorherrscht, die evangelische in der Theologie und der Kirchenverfassung. Die anglikanischen Kirchen sehen sich als Teile der einen, heiligen, katholischen und apostolischen Kirche, die sich der Tradition und Theologie der englischen Reformation (zum Teil auch der schottischen, siehe Scottish Episcopal Church#Geschichte) verpflichtet haben. Jedoch verstehen die anglikanischen Kirchen ihre Reformation nicht als einen Bruch mit der vorreformatorischen Kirche, sondern als notwendige Reform der katholischen Kirche der britischen Inseln. Damit ist die anglikanische Kirche sowohl katholische Kirche als auch reformatorische Kirche, die allerdings seit der Reformation eine bewusst eigenständige christlich-anglikanische Tradition und Theologie entwickelt hat. Heiliger und Märtyrer der anglikanischen Kirche ist Thomas Morus (Gedenktag am 6. Juli). Organisation und Verbreitung Die Kirchengemeinschaft besteht aus 41 selbständigen Kirchen bzw. Provinzen. Neben der Church of England, der Mutterkirche fast aller Kirchen der Anglican Communion, sind dies beispielsweise die Anglikanische Kirche von Kanada, die Episkopalkirche der Vereinigten Staaten und die Church of Nigeria. Ferner gehören zur Gemeinschaft auch unierte Kirchen, zu denen sich evangelische und anglikanische Kirchen zusammengeschlossen haben, wie die Church of South India, die Church of North India oder die Church of Pakistan. Für eine vollständige Liste aller Mitglieder der Gemeinschaft siehe Liste der Mitgliedskirchen der Anglikanischen Gemeinschaft. Die Provinzen bzw. Kirchen, denen jeweils ein Primas (primate) vorsteht, bestehen meist aus mehreren Bistümern. Die Zahl der Mitglieder ist schwer zu bestimmen, da viele Kirchen bei den Angaben zur Mitgliederzahl nicht angeben, worauf sich diese bezieht (regelmäßige Gottesdienstbesucher, registrierte Kirchenmitglieder, traditionell mit der Kirche verbundene gelegentliche Kirchgänger). Oftmals wird die Zahl von ca. 80 Millionen Mitgliedern verwendet. Die Anglikanische Gemeinschaft selbst gibt auf ihrer Website die Zahl vorsichtiger mit mehreren zehn Millionen („tens of millions Christians“) an. Ein Aufsatz des Kirchenhistorikers Daniel Muñoz, der 2015 im Journal of Anglican Studies erschien, kam aber zu dem Ergebnis von nur etwa neun Millionen aktiven Kirchenmitgliedern. Anglikanische Kirchen gibt es vor allem in englischsprachigen Gebieten sowie in den Ländern des Commonwealth (insbesondere den Commonwealth Realms). Vereinzelte Gemeinden finden sich auch in den meisten übrigen Staaten. Darüber hinaus gibt es Kirchen, die der anglikanischen Tradition angehören, jedoch nicht zur Anglikanischen Gemeinschaft gehören (u. a. die sogenannten Anglican continuing churches). Leitung der Kirchengemeinschaft Die Gemeinschaft kennt keine zentralisierten Strukturen der Autorität, sondern vertritt seit der englischen Reformation das Prinzip, dass kein Bischof (ob von Rom, Canterbury oder Konstantinopel) für die Geschäfte eines anderen Bistums weisungsbefugt ist. Dennoch gibt es in der Gemeinschaft vier sogenannte Instruments of Unity („Instrumente der Einheit“). In der Reihenfolge ihres Alters sind diese: Der Erzbischof von Canterbury, die Lambeth Conference, das Anglican Consultative Council und das Primates' Meeting (Treffen der Primasse, der ranghöchsten Bischöfe der einzelnen Provinzen). Oberster geistlicher Leiter der Kirche ist der Primas der Church of England, also der Erzbischof von Canterbury (gegenwärtig Justin Welby, seit 1. Januar 2013) als primus inter pares. Er, dessen Amt seit Gründung durch Augustinus von Canterbury im Jahr 597 besteht, besitzt kein Weisungsrecht gegenüber den übrigen Kirchen der Kirchengemeinschaft. Seit 1867 tagt die Lambeth Conference, eine Konferenz der Bischöfe aller Kirchen der Anglikanischen Kirchengemeinschaft, alle zehn Jahre. Aufgrund der prekären Situation der Anglikanischen Gemeinschaft fand die für 2018 geplante Konferenz erst im Juli / August 2022 statt. Die Anglikanische Beratende Versammlung (ACC: Anglican Consultative Council) tritt seit 1968 etwa alle drei Jahre zusammen und hat in erster Linie koordinierende Funktionen. Sie setzt sich je nach Größe der jeweiligen anglikanischen Kirchen(provinz) aus einem bis drei Delegierten zusammen. Der Erzbischof von Canterbury beruft seit 1979 die Treffen der Primasse (Vorsteher) der anglikanischen Kirche ein und leitet sie. Diese Treffen, die anfangs alle zwei bis drei Jahre stattfanden und seit 2000 jährlich, haben ebenfalls kein Weisungsrecht gegenüber den einzelnen Kirchen. Gewöhnlich wird dabei ein gemeinsamer Pastoralbrief herausgegeben. Aufbau einer anglikanischen Kirche/Kirchenprovinz Die Mitgliedskirchen werden Kirche oder Provinz genannt. Einige dieser Kirchenprovinzen decken sich mit den Grenzen politischer Staaten, einige erstrecken sich über mehrere Staaten, während andere nur Teilbereiche einer Nation einschließen. Geleitet wird jede Kirche von einer Synode, die sich aus den Bischöfen, Klerusvertretern und Laienvertretern zusammensetzt. Die Versammlung kann aus einem Haus (Synode) oder aus zwei Kammern (z. B. Haus der Bischöfe, Haus der Deputierten) zusammengesetzt sein und tagt stets zu bestimmten Zeiten. In einigen Fällen besteht neben ihr ein Provinzbüro, in dem alle laufenden Angelegenheiten der Kirche bearbeitet werden. In anderen Provinzen besteht an der Stelle des Provinzbüros ein Executive Committee, das sich ebenfalls mit Fragen der Finanzen oder Klerikerausbildung beschäftigt. Oft wird das Büro bzw. Komitee von einem Generalsekretär geleitet. Jeder anglikanischen Kirche steht ein Primas vor. Dieser kann der Bischof eines bestimmten Sitzes sein, so wie für England in Canterbury, ist aber für gewöhnlich nicht daran gebunden, sondern wird auf der Provinzsynode gewählt. In den meisten Fällen trägt er den Titel eines Erzbischofs, und oft ist seine Amtszeit beschränkt. In der Episkopalkirche der USA lautet der Titel des Primas Presiding Bishop. Aufbau einer anglikanischen Diözese Jeder Diözese steht ein Bischof vor, dem – wenn die Diözese von entsprechender Größe ist – Suffraganbischöfe beigeordnet sind. Diese haben eine ähnliche Rolle wie die Weihbischöfe der römisch-katholischen Kirche. Es kann zwar vorkommen, dass sie einen eigenen Bezirk innerhalb der Diözese zugeordnet bekommen, sie bleiben aber in jedem Fall dem Diözesanbischof untergeordnet. Manchmal wird die Regionalaufsicht stattdessen durch einen sogenannten Archidiakon oder einen Dekan ausgeführt (siehe unten). Die Kirchengemeinschaft sieht sich als in der Apostolischen Sukzession stehend an. Dieser Anspruch wird sowohl von der orthodoxen als auch von der altkatholischen Kirche anerkannt, nicht jedoch von der römisch-katholischen Kirche (siehe Apostolicae curae). Der Diözesanbischof besitzt meistens eine Kathedrale, an welcher es den Kathedralklerus gibt. Dieser untersteht dem Dean (Dekan) oder Provost (Propst) und kann sich ggf. in Residenzkanoniker, Honorarkanoniker (Praebendare) und Niedere Kanoniker unterteilen. Der Diözesanklerus besteht aus Priestern, die entsprechend der Gemeinde, in der sie tätig sind, vicars oder rectors (Pfarrer), curates (Kapläne/Vikare) oder assistant curates/priests sind, sowie aus Diakonen. Mehrere Pfarrkirchen sind in Dekanaten zusammengefasst. Besonders große Diözesen sind in Archdeaneries (Erzdekanate) unterteilt, denen Archdeacons vorstehen (manchmal mit den Suffraganbischöfen identisch). Diese Erzdekanate ähneln den Regionen in großen römisch-katholischen Diözesen. Um in die Reihen des Klerus der anglikanischen Kirche aufgenommen zu werden, bewirbt man sich beim Bischof einer Diözese. Dieser wird diese Bewerbung an ein Gremium (Selection Conference) weiterleiten, das den Bewerber auf seine Eignung im Geistlichen, Geistigen, Gesundheitlichen und Familiären prüft. Ist dies geschehen, so sendet es ein Gutachten an den jeweiligen Bischof, in welchem es den Bewerber empfiehlt, bedingt empfiehlt oder ablehnt. Zugleich macht es auch Vorschläge zur Ausbildung, welche von einem normalen Hochschulstudium bis zu regionalen Kursen reichen. Hat der Bewerber die Zustimmung des Bischofs erhalten, so untersteht er fortan einem Diocesan Director for Ordinands, der den Bewerber in allen Bereichen seines Lebens begleitet und zum Ende der Ausbildung ein Zeugnis zu dessen Eignung abgibt. Ist dieses positiv ausgefallen, so steht der Weihe des Bewerbers oder der Bewerberin nichts mehr im Wege. Aufbau in Kontinentaleuropa Im 19. Jahrhundert gründeten sowohl die Church of England als auch die US-Episkopalkirche in Europa Pfarreien. Die Zielgruppe waren Glaubensangehörige im Ausland sowie Reisende. Zuständig für diese Pfarreien war ursprünglich der Bischof von London (im Fall der Church of England) bzw. der Presiding Bishop (im Fall der US-Episkopalkirche). Später übertrug der Bischof von London die Zuständigkeit an den neu eingesetzten Bischof von Gibraltar. 1980 wurde durch eine Union der Diözese von Gibraltar und der vom Bischof von Fulham geleiteten Jurisdiktion of North and Central Europe die Diözese in Europa (Diocese [of Gibraltar] in Europe) gegründet, die seither für die Gemeinden in Europa außerhalb Großbritanniens und Irlands zuständig ist (zusätzlich für einige Länder in Zentralasien und Nordafrika). Parallel stärkte die US-Kirche die Autonomie der europäischen Pfarreien durch die Struktur der Convocation of Episcopal Churches in Europe, eine bistumsähnliche Organisation mit einem Suffraganbischof, der ursprünglich vom Presiding Bishop ernannt wurde. Im Juni 2001 wurde Pierre Whalon erstmals durch den Klerus und Volk der Convocation als Bischof gewählt. Er trat von dem Amt 2018 zurück wegen Erreichung der Altersgrenze. Sein Nachfolger ist Mark D. W. Edington, gewählt am 20. Oktober 2018 und in das Amt eingeführt zum 1. März 2019. Die feierliche Amtseinführung unter der Leitung des Presiding Bishops fand am 6. April 2019 in der Kathedrale in Paris statt. In Deutschland gibt es rund 40 anglikanische bzw. episkopale Gemeinden, von denen sich die englischsprachigen 1997 zum Council of Anglican and Episcopal Churches in Germany (CAECG) zusammengeschlossen haben. Viele von ihnen wurden im 19. Jahrhundert gegründet und erfuhren in der Besatzungszeit nach dem Zweiten Weltkrieg neuen Aufschwung, manche – wie die Gemeinde in Hamburg – gehen auf Handelsbeziehungen zwischen England und Kontinentaleuropa im 17. Jahrhundert zurück. Eine Reihe von deutschsprachigen Gemeinden entstanden in den letzten Jahren und zählen sich zur Church of England, der Anglican Independent Communion oder der Anglican Church in North America. Gemeinden der Church of England existieren u. a. in Berlin, Bonn/Köln, Düsseldorf, Freiburg im Breisgau, Hamburg, Heidelberg, Leipzig und Stuttgart. Sie gehören zur Archdeaconry of Germany & Northern Europe, die von einem Archdeacon geleitet wird. Gemeinden der Episcopal Church in the USA (ECUSA) existieren u. a. in Frankfurt am Main, München und Wiesbaden; dazu kommen Missionen in Augsburg, Karlsruhe, Nürnberg und Ulm. Die anglikanischen Gemeinden in der Schweiz bilden in der Diözese in Europa der Church of England eine eigene Archdeaconry, welcher der Ven. Arthur Siddall vorsteht. Sie hat acht Standortpfarreien in größeren Städten und einige weitere Gemeinden, die von dort betreut werden. Die US-Episkopalkirche hat eine Gemeinde in Genf. In Österreich gibt es eine anglikanische Gemeinde in Wien, die Christ Church Vienna; von dort aus werden so genannte Satellitengemeinden z. B. in Klagenfurt betreut. Sie wird geleitet von Ven. Patrick Curran, Bischofsvikar des östlichen Europas. Lehre Die anglikanischen Kirchen bekennen sich „zum dreieinigen Gott […], wie er sich in Jesus Christus offenbart hat“. Grundlage der Lehre sind die 39 Artikel, das Book of Common Prayer und die Ordnung zur Ernennung von Bischöfen, Priestern und Diakonen, allesamt entstanden im 16. Jahrhundert und größtenteils das Werk von Thomas Cranmer, Erzbischof von Canterbury. In der anglikanischen Lehre gibt es ein weites Spektrum zwischen der High Church (Anglo-Katholizismus), die in Liturgie und Lehre den anderen katholischen Kirchen nahesteht, und der Low Church, die dem Protestantismus, insbesondere dem Calvinismus, nahesteht. Theologisch sind innerhalb der anglikanischen Kirchen sehr liberale wie auch streng evangelikale und konservative anglokatholische Richtungen vertreten. Dieses sehr weite Meinungsspektrum wird teilweise als Stärke der Anglikaner betrachtet, die somit ein weites Spektrum des heutigen Christentums ohne Kirchenspaltung in einer Kirche umfassen können. Teilweise wird aber auch kritisiert, dass die Kirche so für nichts mehr stehe und der Beliebigkeit zu viel Raum gebe. Gottesdienst und Praxis Der Gottesdienst der anglikanischen Kirchen ist liturgisch ähnlich aufgebaut wie der der katholischen Kirchen. Er ist im Book of Common Prayer niedergelegt, von dem die einzelnen Gliedkirchen eigene Ausgaben haben. Liturgie Die Liturgie der anglikanischen Kirchen hat die Eucharistie als zentrales Element und auch anderweitig zeugt sie vom anglikanischen Selbstverständnis als Teil der universalen katholischen Kirche. Die gottesdienstlichen Handlungen im Anglikanismus wurden allerdings, anders als in der römisch-katholischen Kirche, schon seit der Reformationszeit in der jeweiligen Landessprache abgehalten. Gebet Das Stundengebet, in den anglikanischen Kirchen als Daily Office bezeichnet, ist eine wichtige Tradition. Insbesondere der Morning- und Evening Prayer sind weit verbreitet und werden in einigen Kirchen täglich gebetet. Die anglikanischen Kirchen kennen auch die Rosenkranztradition, wobei der Aufbau des Rosenkranzes und die Gebete sich von denen der katholischen Kirche unterscheiden und weniger auf Maria, dafür stärker auf Jesus Christus ausgerichtet sind. Diese Tradition wird jedoch nur in den eher zum Anglokatholizismus neigenden Gemeinden praktiziert; viele Anglikaner aus anderen Gemeinden sind mit dem Ave-Maria-Gebet, das nicht im Book of Common Prayer vorkommt, gar nicht vertraut. Orden Wie die katholische Kirche, so kennt auch der Anglikanismus Männer- und Frauenorden. Nachdem sich die Kirche in England 1531 vom Papst losgesagt hatte (siehe unten), wurden die bestehenden Klöster aufgelöst. Rund 300 Jahre lang blieb monastisches Leben in England und Schottland verboten. In der Mitte des 19. Jahrhunderts bildeten sich unter dem Einfluss der Oxford-Bewegung (siehe unten) erstmals wieder geistliche Gemeinschaften, die nach den Evangelischen Räten lebten. Frauenorden entstanden seit den 1840er Jahren. Die meisten zur Reformationszeit bereits bestehenden katholischen Orden haben anglikanische Entsprechungen. Diese leben nach den Evangelischen Räten und in Gemeinschaft, sind entweder kontemplativ oder aktiv in der Erziehung bzw. in der Pflege tätig. Geschichte Die Kirche von England datiert ihre Geschichte zurück bis in die römische Zeit, als das Christentum sich im gesamten römischen Reich ausbreitete. Nach dem Abzug der Römer und Einfall der Angeln, Sachsen und Jüten, die ihre heidnische Religion mit sich brachten, blieben nur noch die keltischen Stämme Britanniens im äußersten Norden und Westen der Inseln als Christen zurück (siehe dazu: Keltische Kirche). Mit der Mission von Augustinus von Canterbury an den Hof von Kent im Jahr 597 kam die christliche Religion erneut aus Rom nach England. Diese Missionstätigkeit ergänzte sich mit einer Mission durch irische Mönche (siehe Columban). Die Bistümer in England waren in die beiden Kirchenprovinzen Canterbury und York aufgeteilt. Als 1529 unter Heinrich VIII. Streitigkeiten zwischen dem englischen Thron und dem Papst in Rom über die Rechtmäßigkeit der königlichen Ehen aufkamen, erklärten die Bischöfe Englands am 11. Februar 1531, dass sie in Heinrich und nicht im Papst das Oberhaupt der englischen Kirche sahen, womit sich die englische Kirche von Rom lossagte. So wurden in den Kirchenprovinzen von York und Canterbury (nun mit Vorrang) im 16. Jahrhundert Ideen der Reformation in die Praxis umgesetzt. Die Church in Wales unterstand dem Primas von Canterbury. Nach Heinrichs Aneignung Irlands 1541 entstand dort unter den Nachfolgern die Schwesterkirche der Church of Ireland. Unter Heinrich VIII. änderte sich durch die englische Reformation für die Kirche zunächst wenig: Der Gebrauch der lateinischen Sprache wurde zugunsten der englischen aufgegeben. Die aufgelösten Klöster gingen in königlichen Besitz über, ihre kirchliche Immunität fiel weg. Mit Eduard VI. wurde jedoch das erste Book of Common Prayer am Pfingstfest 1549 eingeführt, unter maßgeblicher Arbeit von Thomas Cranmer, Erzbischof von Canterbury. Damit begann eine Tradition, nach der sich der Anglikanismus vorrangig durch eine episkopale Kirchenordnung und eine einheitliche gottesdienstliche Praxis definiert. Nach einer kurzen Zwischenepisode unter der römisch-katholischen Monarchin Maria I. setzte sich die Reformbewegung der englischen Kirche unter Elisabeth I. und den ersten beiden Stuart-Königen fort. Es entwickelte sich ein sich vertiefender Streit zwischen Puritanern, die eine stärker reformierte Theologie verfolgten, und Theologen wie Lancelot Andrewes, die eine katholischere Position einnahmen. Dieser Streit verursachte unter anderem den Englischen Bürgerkrieg. Nach der Restauration der Stuarts unter Karl II. wurden diese Streitigkeiten mit einem neuen Book of Common Prayer (1661) beigelegt. Dies ist auch heute noch die offizielle Version, die in England neben dem Book of Alternative Services Anwendung findet. Im Gefolge der Glorious Revolution 1688/89 spaltete sich die heute relativ unbekannte Gruppe der Non-Juror aufgrund ihrer strengen Auslegung der anglikanischen Staatsvorstellungen ab und griff liturgisch auf das erste Book of Common Prayer zurück. Auf die Gesamtentwicklung der Church of England hatte diese kurzlebige Glaubensgemeinschaft zwar keinen Einfluss; in Schottland jedoch führte die Weigerung der Bischöfe, den Treueid zu leisten, zur Etablierung der presbyterianischen Kirche und folglich zur Gründung einer eigenen anglikanischen Kirche, der Scottish Episcopal Church. Nach der amerikanischen Unabhängigkeit bildete sich auch in den USA eine weitere anglikanische Kirche, die nunmehr auch neben der nichtetablierten episkopalen Kirche Schottlands existierte. Es folgten auch in anderen Ländern weitere Kirchen, die aber alle zusammen im sog. Anglikanischen Kommunion eine Kirchengemeinschaft pflegen. Im 19. Jahrhundert, unter dem Einfluss der romantischen Bewegung, fand eine neue Hinwendung zu liturgischer Tradition statt. Diese Bewegung fand ihren Ausgang in Oxford und wurde deshalb Oxford-Bewegung genannt. Zu ihren Unterstützern gehörte John Henry Newman. Siehe hierzu auch: Anglo-Katholizismus (High Church), Low Church. Der Erzbischof von Canterbury Charles Thomas Longley berief 1867 eine „nationale Synode der Bischöfe der Anglikanischen Kirche im In- und Ausland“ ein, die unter seiner Führung zusammentreten sollte. Nachdem er sich mit beiden Häusern der Convocation of Canterbury beraten hatte, willigte Erzbischof Longley ein und rief alle Bischöfe der Anglikanischen Gemeinschaft (damals 144 an der Zahl) zu einem Treffen in Lambeth ein. Die Lambeth-Konferenz wurde zu einer nunmehr im zehnjährigen Rhythmus stattfindende Vollversammlung aller Bischöfe der Anglikanischen Gemeinschaft. In der zweiten Hälfte des 20. Jahrhunderts fand in vielen anglikanischen Kirchen eine liturgische Reformbewegung statt, die zu neuen Books of Common Prayer führten. Diese waren enger an altkirchliche Liturgien angelehnt, enthielten jedoch eine modernere Sprache und Theologie. Parallel dazu wurde die Priesterschaft auch für Frauen geöffnet. Seit den späten 1980er Jahren wurden auch die ersten Bischöfinnen in apostolischer Nachfolge geweiht. Ökumene Die meisten Kirchen der Anglikanischen Kirchengemeinschaft sind Mitglied im Ökumenischen Rat der Kirchen. Sie stehen darüber hinaus in Kirchengemeinschaft mit der Utrechter Union der Altkatholischen Kirchen, der Unabhängigen Philippinischen Kirche und der indischen Mar-Thoma-Kirche. 2003 unterzeichneten methodistische und anglikanische Vertreter ein Abkommen, das die Zusammenarbeit zwischen den beiden Denominationen – u. a. gemeinsame Gotteshäuser und -dienste – stärken und die Beziehungen vertiefen soll. Kontroversen Frauenordination Uneinigkeit über die Zulassung von Frauen zu den Weihen führt bis in die Gegenwart zu Kontroversen innerhalb der anglikanischen Kirchen. Für die Mitgliedskirchen der Anglikanischen Gemeinschaft sind nur die Prinzipien des Lambeth-Quadrilateral verbindlich. Die Frage der Frauenordination wird darin nicht behandelt, daher gibt es keine einheitliche für alle Gliedkirchen bindende Regelung. Die einzelnen Kirchenprovinzen vertreten daher unterschiedliche Haltungen, manche lehnen die Frauenordination grundsätzlich ab, manche erlauben die Weihe zum Diakon, andere auch zum Priestertum oder Bischofsamt. Als erste Frau empfing Florence Li Tim-Oi 1944 in Hong Kong durch Ronald Owen Hall, den Bischof von Victoria, Hongkong und Macau, die anglikanische Priesterweihe. Dies gilt allerdings als kriegsbedingter Einzelfall, nach Kriegsende ließ sie ihr Priesteramt zur Vermeidung eines Disputs mit dem Erzbischof von Canterbury bereits ab 1945 ruhen. Erst in den 1970er Jahren wurde die Frauenordination in den Kirchen der USA, Kanadas und Neuseelands etabliert. Die erste anglikanische Bischöfin war Barbara Clementine Harris, die 1989 zur Suffraganbischöfin der Episcopal Diocese of Massachusetts geweiht wurde. Die erste Diözesanbischöfin war von 1990 bis 2004 Penny Jamieson in der Diocese of Dunedin in Neuseeland. Am 18. Juni 2006 wurde Katharine Jefferts Schori als Presiding Bishop an die Spitze der Episkopalkirche in den USA gewählt und somit als erste Frau Primas einer anglikanischen Kirche. Die Generalsynode der Church of England hat die Zulassung von Frauen zum Bischofsamt mehrheitlich als „theologisch gerechtfertigt“ bezeichnet. Während der Antrag bei den Bischöfen und dem Klerus die notwendige Zweidrittelmehrheit erhielt, verfehlte er sie bei den Laienvertretern um fünf Stimmen. Eine Arbeitsgruppe sollte eine entsprechende Kirchengesetzgebung auf den Weg bringen. Auf der Generalsynode 2008 wurde das Thema erneut diskutiert. Am 7. Juli 2008 beschloss die Synode die Einrichtung einer Arbeitsgruppe zur Regelung der Ordination von Frauen zum Bischofsamt. Dabei sollten die Wünsche der Mitglieder, die aus theologischen Gründen die Ordination von Bischöfinnen ablehnen, berücksichtigt werden. Es gab den Vorschlag, in jeder Kirchenprovinz nötigenfalls einen männlichen Suffragansitz einzurichten, dem sich Gemeinden anschließen können, die die Ordination von Bischöfinnen ablehnen. Er wurde bis 2010 entworfen und bis zum Februar von 42 von 44 Diözesen angenommen. Bei der Generalsynode im November 2012 erreichte dieses Kirchengesetz jedoch nicht die nötige Mehrheit bei den Laienmitgliedern. Erst 2014 wurden die nötigen Mehrheiten auf der Generalsynode erreicht. Am 25. Januar 2015 wurde mit Libby Lane die erste Bischöfin in der Church of England ordiniert. Zur ersten Diözesanbischöfin – von Gloucester – wurde am 26. März 2015 Rachel Treweek ernannt. Zur ersten Bischöfin der Church of Ireland wurde im September 2013 Pat Storey geweiht. Die erste Bischöfin in der Church in Wales, Joanna Penberthy, wurde am 30. November 2016 für ihr Amt geweiht. Im März 2018 wurde Anne Dyer zur ersten Bischöfin der Scottish Episcopal Church geweiht. Die 38 Provinzen vertreten unterschiedliche Positionen zur Frauenordination: 7 Provinzen ohne Frauenordination: Church of the Province of Central Africa, Episcopal Church in Jerusalem and the Middle East, Church of the Province of Melanesia, Church of Nigeria, Anglican Church of Papua New Guinea, Church of the Province of South East Asia, Church of the Province of Tanzania 3 Provinzen mit Zulassung der Frauen zum Diakonat: Church of the Province of the Indian Ocean, Province de L’Eglise Anglicane Du Congo, Church of Pakistan 11 Provinzen mit Zulassung der Frauen zu Diakonat und Priestertum: Church of the Province of Burundi, Hong Kong Sheng Kung Hui, Anglican Church of Kenya, Church of the Province of Rwanda, Church of South India, Spanish Reformed Episcopal Church, Church of the Province of Uganda, Church of the Province of West Africa, Church of the Province of the West Indies, Iglesia Anglicana del Cono Sur de América, Anglikanische Kirche von Korea 17 Provinzen mit Zulassung von Frauen zum Diakonen-, Priester- und Bischofsamt: Anglican Church of Australia, Anglican Church in Aotearoa, New Zealand and Polynesia, Church of Bangladesh, Igreja Episcopal Anglicana do Brasil, die Anglikanische Kirche von Kanada, Zentralamerika, Church of England, Church of Ireland, Nippon Sei Ko Kai, Anglican Church of Mexico, Church of North India, Philippine Episcopal Church, Scottish Episcopal Church, Anglican Church of Southern Africa, Province of the Episcopal Church of South Sudan, Episcopal Church in the USA, Church in Wales Homosexualität Die weltweite Anglikanische Kirchengemeinschaft befindet sich seit der Bischofsweihe von Gene Robinson am 2. November 2003 in New Hampshire (USA) in einem Diskussionsprozess, bei dem die Einheit der Kirchengemeinschaft bedroht wird. Nicht nur der Vollzug der Bischofsweihe hat zu Kontroversen geführt, sondern auch die parallel verlaufende Entscheidung der kanadischen Diözese von New Westminster, Riten für die Segnung gleichgeschlechtlicher Paare zu entwickeln. Da Robinson seine Beziehungen zu seinem gleichgeschlechtlichen Partner nicht verheimlicht, wurde mit seiner Weihe erneut ersichtlich, dass es zum Thema Homosexualität innerhalb der Anglikanischen Kommunion Meinungsverschiedenheiten gibt, was bereits auf den Lambeth-Konferenzen der Jahre 1988 und 1998 deutlich geworden war. Konservative Geistliche und Mitglieder (vor allem aus Asien und Afrika, aber auch aus der American Anglican Council) sehen diesen Schritt als unvereinbar mit der bislang vertretenen Lehre der Kirche und als Bruch der Kommunion. Zwar hatten die Konferenzen mehrheitlich festgestellt, dass homosexuelle Praxis mit der Heiligen Schrift unvereinbar sei; allerdings hat eine Lambeth-Konferenz im Anglikanismus nicht den Status einer gesetzgebenden Körperschaft oder einer Lehrinstanz, sondern kann nur Konsens feststellen, solange und soweit dieser vorhanden ist, denn der Anglikanismus ist nicht hierarchisch, sondern dezentral gegliedert. Innerhalb der Anglikanischen Gemeinschaft hat die Scottish Episcopal Church und in der nicht-anglikanischen Ökumene auch die Metropolitan Community Church die Entscheidungen der nordamerikanischen Kirchen begrüßt. Die Befürworter der Weihe (vor allem aus Nordamerika, Europa, Neuseeland und Südafrika) betonen einerseits die anglikanische Tradition, dass die Ortskirche ihre Angelegenheiten vor Ort regeln darf, andererseits vertreten sie die Auffassung, dass homosexuelle und heterosexuelle Christen gleichwürdig sind, Leitungsämter der Kirche auszufüllen. Am 19. Februar 2007 haben die anglikanischen Kirchenoberhäupter in Daressalam eine Verlautbarung veröffentlicht, in welcher sie die US-amerikanische Episkopalkirche zu einer Umkehr von ihrer Haltung zur Homosexualität und zur Weihe homosexueller Bischöfe auffordern. Innerhalb der US-Kirche bestehen erhebliche Bedenken, dass die Forderungen der anderen Kirchen mit dem Kirchenrecht der US-Kirche selber vereinbar sind, und man hält die Vorschläge darüber hinaus für „eine beispiellose Machtverschiebung zugunsten der Primasse“. Die US-Kirche kritisierte auch die fehlende Bereitschaft der anderen Kirchenoberhäupter, stärkere Schritte gegen die Kriminalisierung von Homosexualität in anderen Ländern zu unternehmen, und die Verweigerung vieler anglikanischer Landeskirchen, in den von mehreren Lambeth-Konferenzen (1998, 2008) und vom Windsor Report verlangten Listening Process (Dialog) mit homosexuellen Anglikanern zu treten. Im März 2010 wurde die offen lesbische Mary Douglas Glasspool zur Bischöfin der Episkopalkirche im Bistum Los Angeles gewählt. Die Bischöfe der anglikanischen Kirche im südlichen Afrika wandten sich im Mai 2010 gegen jede Form der Kriminalisierung von Homosexuellen. Im September 2013 hat die Church of England erlaubt, dass homosexuelle anglikanische Geistliche eine Lebenspartnerschaft eingehen dürfen, solange sie sexuell enthaltsam leben. Im April 2014 ließ sich ein homosexueller anglikanischer Priester standesamtlich trauen und wurde in der Folge entlassen. Im November 2013 erlaubte die Church of England die Segnung gleichgeschlechtlicher Paare in einem Gottesdienst. 2017 erlaubte die Anglikanische Kirche in Schottland die Trauung gleichgeschlechtlicher Paare, so wie sie bereits in der Anglikanischen Kirche in den Vereinigten Staaten und in der Anglikanischen Kirche in Kanada kirchenrechtlich ermöglicht wurde. Im Mai 2018 befürworte die Generalsynode der Anglican Church in Aotearoa, New Zealand and Polynesia die öffentliche Segnung gleichgeschlechtlicher Paare. Im Juni 2018 erlaubte die Igreja Episcopal Anglicana do Brasil die Trauung gleichgeschlechtlicher Paare. Zölibat Die Verpflichtung zum Zölibat, 1539 in den Act of Six Articles noch ausdrücklich bestätigt, wurde 1552 vom Kronrat Eduards VI. (federführend Thomas Cranmer) aufgehoben. Endgültig fixiert ist dies in den 1571 vom Parlament verbindlich beschlossenen 39 Religionsartikeln. Weblinks Anglican Communion Zugang zu allen Anglikanischen Kirchen weltweit auf Englisch und “not official in any way” Übersicht der Kirchen nach Mitgliedern und Diözesen Liste von anglikanischen Kirchen, die nicht Teil der Anglican Communion sind Einzelnachweise Konfessioneller Weltbund Kirchengemeinschaft Internationale Organisation (London) Gegründet 1867
378
https://de.wikipedia.org/wiki/Artemisia%20%28Gattung%29
Artemisia (Gattung)
Artemisia ist eine Pflanzengattung in der Familie der Korbblütler (Asteraceae). Einzelne Arten werden Beifuß, Wermut, Stabwurz oder Edelraute genannt. Zu dieser artenreichen Gattung gehören 250 bis 500 Arten, die hauptsächlich in den gemäßigten Gebieten vorkommen. Fast alle Arten haben ihre Verbreitungsgebiete auf der Nordhalbkugel in Nordamerika und Eurasien. Nur wenige Arten findet man in Südamerika und Afrika. Wortherkunft Artemisia wurde bereits bei Pedanios Dioskurides und Plinius dem Älteren erwähnt, die damit Artemisia vulgaris und ähnliche Arten beschrieben. Der Name Artemisia rührt aber nicht vom Namen der griechischen Göttin Artemis her. Vielmehr wählte Carl von Linné, der der Pflanzengattung den Namen Artemisia gab, ihn in Anlehnung an Königin Artemisia II., die Schwester und Gattin des Maussolos II. von Halikarnassos. Sie errichtete für Maussolos das berühmte Mausoleum von Halikarnassos, eines der sieben Weltwunder der Antike. Plinius der Ältere berichtet, dass Artemisia II. den Wunsch gehabt habe, dass eine Pflanze nach ihr benannt werde. Diesen Wunsch hat ihr Carl von Linné erfüllt. Beschreibung Vegetative Merkmale Artemisia-Arten sind ein- bis zweijährige oder meist ausdauernde krautige Pflanzen, Halbsträucher und seltener Sträucher und erreichen je nach Art Wuchshöhen von 3 bis 350 Zentimetern. Die Pflanzenteile sind meistens kahl und mehr oder weniger aromatisch. Die wechselständig angeordneten Laubblätter sind gestielt oder ungestielt. Die Blattspreiten sind einfach bis mehrfach fiederteilig. Generative Merkmale In traubigen oder rispigen Blütenständen sind meistens zahlreich, kleine, oft nickende körbchenförmige Teilblütenstände angeordnet. Die Hülle (= Involucrum) ist glockig, zylindrisch, eiförmig bis kugelig und besteht aus zahlreichen, dachziegelartig angeordneten, angedrückten und am Rand meist trockenhäutigen Hüllblättern. Der Körbchenboden ist flach, kahl oder mehr oder weniger behaart und ohne Spreublätter. Die Blüten sind alle röhrig, entweder homogam, zwittrig oder heterogam. Die in der Mitte stehenden Blüten sind zwittrig und die randständigen weiblich. Die Staubbeutel haben meistens lanzettliche Anhängsel an der Spitze. Die Schenkel der Griffel ragen bei den weiblichen Randblüten oft weit heraus. Die Achänen sind zylindrisch oder zusammengedrückt und haben keine starken Rippen, oft mehr oder weniger verschleimend. Ein Pappus fehlt meist. Systematik Die Erstveröffentlichung der Gattung Artemisia erfolgte 1753 durch Carl von Linné in Species Plantarum, Band 2, Seite 845. Synonyme für Artemisia sind Absinthium , Chamartemisia , Elachanthemum & , Oligosporus und Seriphidium () Die Gattung Artemisia umfasst etwa 250 bis 500 Arten (Auswahl): Artemisia abaensis : Sie gedeiht in mittleren und großen Höhenlagen in den chinesischen Provinzen südwestliches Gansu, westliches Sichuan sowie östliches Qinghai. Artemisia abbreviata (: Sie kommt in Sibirien vor. Eberraute (Artemisia abrotanum ): Die ursprüngliche Heimat ist die Balkanhalbinsel, das weitere Südosteuropa bis zur Kaukasusregion und die Türkei. Wermutkraut oder Echt-Wermut (Artemisia absinthium ): Es kommt im gemäßigten Eurasien, in Indien sowie in Nordafrika vor. Artemisia abyssinica (): Sie kommt in Äthiopien, Eritrea, im Jemen und in Saudi-Arabien vor. Artemisia adamsii (Syn.: Artemisia depressa , Artemisia tenuifolia ): Sie kommt im südwestlichen Sibirien, in der östlichen Mongolei und im östlichen Teil des Autonomen Gebietes Innere Mongolei sowie der chinesischen Provinz Heilongjiang vor. Artemisia afghanica : Sie kommt nur in Afghanistan vor. Artemisia aflatunensis : Sie kommt nur in Kirgisistan vor. Indianer-Wermut oder Räucherwermut (Artemisia afra ): Sie ist im tropischen und im südlichen Afrika verbreitet. Artemisia aksaiensis : Sie gedeiht auf Hügeln in Höhenlagen von 3100 bis 3800 Metern nur im westlichen Teil der chinesischen Provinz Gansu. Artemisia alaskana (Syn.: Artemisia tyrrellii ): Sie kommt im nördlichen Nordamerika in Alaska und Kanada vor. Cola-Strauch (Artemisia alba , Syn.: Artemisia achilleifolia , Artemisia biasolettiana , Artemisia camphorata , Artemisia fruticosa , Artemisia humilis (non 1768), Artemisia incanescens , Artemisia lobelii , Artemisia saxatilis , Artemisia suavis , Artemisia subcanescens ): Die Heimat ist das südliche Europa mit Spanien, Frankreich, Italien, der Balkanhalbinsel und Inseln der Ägäis, außerdem Belgien und das nordwestliche Afrika. Artemisia albicaulis (Syn.: Seriphidium prasinum (): Die Heimat ist Afghanistan. Artemisia albicerata (Syn. Draconia albicerata (, Oligosporus albiceratus (): Das Verbreitungsgebiet liegt im südwestlichen Sibirien und in Kasachstan. Artemisia alcockii : Sie kommt nur in Tadschikistan vor. Artemisia aleutica : Dieser Endemit kommt nur auf den westlichen Aleuten im US-amerikanischen Bundesstaat Alaska vor. Artemisia algeriensis (Syn.: Seriphidium algeriense (): Die Heimat ist Algerien. Artemisia alpina (Syn.: Artemisia argentata , Artemisia caucasica , Artemisia chamissonis , Artemisia chewsurica , Artemisia grossheimii , Artemisia lanulosa , Artemisia monticola , Artemisia pumila Hort. ex ): Das Verbreitungsgebiet erstreckt sich vom südöstlichen Europa mit Bulgarien und Rumänien über die Ukraine bis in die Kaukasusregion und in die Türkei. Artemisia ammaniana (Syn. Artemisia coerulescens , Artemisia glauca , Draconia glauca (): Die Heimat ist Sibirien. Artemisia amoena : Das Verbreitungsgebiet reicht vom südwestlichen Sibirien über Kasachstan bis in die Mongolei. Artemisia amygdalina : Die Heimat ist das nördliche Pakistan, der indische Bundesstaat Jammu-Kashmir und Afghanistan. Artemisia andersiana : Sie kommt nur in Afghanistan vor. Artemisia anethifolia (Syn.: Absinthium divaricatum , Artemisia multicaulis ): Das Verbreitungsgebiet reicht vom südlichen Sibirien über die Mongolei bis in das nördliche China. Artemisia anethoides (Syn.: Artemisia korotkyi , Artemisia zhaodongensis ): Das Verbreitungsgebiet liegt in Russland, der Mongolei und China. Artemisia angustissima : Sie kommt in Korea und in den chinesischen Provinzen südliches Gansu, Hebei, südöstliches Heilongjiang, Henan, Jiangsu, Jilin, Liaoning, südliches Shaanxi, Shandong sowie Shanxi vor. Einjähriger Beifuß (Artemisia annua ): Das ursprüngliche Verbreitungsgebiet erstreckt sich von Zentralasien über die Kaukasusregion, das westliche Asien bis in das östliche und südöstliche Europa. Artemisia anomala : Die Heimat liegt im südöstlichen China, auf Taiwan und in Vietnam. Artemisia apiacea : Sie kommt nur in Japan vor. Artemisia aralensis (Syn.: Seriphidium aralense (): Die Heimat ist Kasachstan und Usbekistan. Artemisia araxina : Die Heimat ist Aserbaidschan und Armenien. Artemisia arborescens ( (Syn.: Absinthium arborescens , Absinthium arborescens , Artemisia argentea , Artemisia elegans ): Die Heimat liegt im Mittelmeerraum. Artemisia arbuscula (Syn.: Seriphidium arbusculum (): Die Heimat sind die westlichen Vereinigten Staaten. Es gibt zwei Unterarten. Artemisia arenaria : Sie kommt im europäischen Russland, in der Ukraine, im Iran, in Zentralasien und im Kaukasusraum vor. Madeira-Beifuß (Artemisia argentea ): Dieser Endemit kommt nur auf Inselgruppe Madeira vor. Artemisia argyi (Syn.: Artemisia chiarugii , Artemisia handel-mazzettii , Artemisia nutans , Artemisia nutantiflora ): Die Heimat liegt im südlichen Russischen Fernen Osten, der Mongolei, China, Korea und Japan. Als Neophyt kommt sie von Ost- bis Südosteuropa vor. Artemisia argyrophylla (Syn.: Artemisia brevis ): Die Heimat liegt im südwestlichen Sibirien, in der Mongolei und im nordwestlichen China. Artemisia armeniaca (Syn.: Artemisia potentillifolia ): Die Heimat ist Ungarn, Osteuropa, die Kaukasusregion, das westliche Asien, Kasachstan und das südwestliche Sibirien. Artemisia arschantinica : Sie kommt nur in der Mongolei vor. Artemisia aschurbajewii : Das Verbreitungsgebiet erstreckt sich von Zentralasien bis in das nordwestliche China. Artemisia atlantica : Die Heimat ist Marokko, Algerien und Tunesien. Artemisia atrata : Die Heimat ist Frankreich, Italien und Slowenien. Artemisia atrovirens : Sie kommt in weiten Chinas und im nördlichen Thailand vor. Artemisia aucheri : Sie kommt im Iran, in Afghanistan, im nördlichen Pakistan und im westlichen Tibet vor. Artemisia aurata : Die Vorkommen reichen von der Mongolei über das äußerste südöstliche Russland, das nordöstliche China und Korea bis Japan. Artemisia australis (Syn. Artemisia hillebrandii ): Die Heimat sind Inseln des Hawaii-Archipels. Österreich-Wermut, auch Österreichischer Beifuß (Artemisia austriaca , Syn.: Artemisia orientalis , Artemisia repens ): Die ursprüngliche Verbreitung reicht vom zentralen Mitteleuropa über die nördliche Balkanhalbinsel, das zentrale und südliche Osteuropa, über Westasien, Zentralasien, Sibirien und Russlands Ferner Osten bis ins nördliche China. Artemisia austrohimalayana (Syn.: Artemisia austrohimalayaensis , Artemisia tenuifolia ): Die Heimat sind indische Bundesstaaten im westlichen Himalaya. Artemisia austroyunnanensis : Die Verbreitung erstreckt sich von der südchinesischen Provinz Yunnan über Hinterindien bis in die Himalaya-Region. Artemisia avarica : Die Heimat ist die südliche Kaukasusregion. Artemisia balchanorum : Sie kommt nur in Turkmenistan vor. Artemisia barrelieri : Sie kommt in Marokko und in Spanien vor. Artemisia bashkalensis : Sie wurde 2015 aus der Türkei erstbeschrieben. Zweijähriger Beifuß (Artemisia biennis ): Das ursprüngliche Verbreitungsgebiet ist das westliche Kanada und die westlichen und zentralen Vereinigten Staaten. Artemisia bigelovii : Sie kommt in den westlichen Vereinigten Staaten und in New Mexico und Texas vor. Artemisia borealis : Sie kommt ursprünglich im südöstlichen Frankreich, in der Schweiz, in Österreich, in Italien, im europäischen Russland, in Sibirien, Kamtschatka, Sachalin, in Alaska, in Kanada und in den westlichen Vereinigten Staaten vor. Artemisia brevifolia : Sie kommt in Indien, im nördlichen Pakistan, im nordöstlichen Afghanistan und im westlichen Xizang vor. Artemisia caerulescens : Sie kommt in mehreren Unterarten in Marokko und in Südeuropa vor. Kalifornischer Beifuß (Artemisia californica ): Sie kommt von Kalifornien bis ins nördliche Mexiko vor. Feld-Beifuß (Artemisia campestris ): Das Verbreitungsgebiet liegt in Eurasien, dem nördlichen Afrika und Nordamerika. Es gibt etwa fünf Unterarten. Artemisia cana : Sie kommt in drei Unterarten im westlichen Kanada und in den westlichen und in den zentralen Vereinigten Staaten vor. Artemisia capillaris : Sie kommt in Afghanistan, Pakistan, Indien, auf den Philippinen, in Japan, Korea, China, Taiwan, in der Mongolei und im fernöstlichen Russland vor. Artemisia carruthii : Sie kommt in den Vereinigten Staaten und im nördlichen Mexiko vor. Artemisia carvifolia : Sie kommt in Indien, Nepal, Bangladesch, Myanmar, Vietnam, China und Korea vor. Artemisia chamaemelifolia : Sie kommt im nördlichen Spanien, im südlichen Frankreich, in Italien, Bulgarien, in der Türkei, in Armenien, Georgien, Aserbaidschan und in Daghestan vor. Wurmsamen (Artemisia cina ): Die Heimat sind die asiatischen Steppengebiete im nordwestlichen China, in Kasachstan und Kirgisistan. Artemisia codonocephala : Sie kommt in China, Japan, Korea und im fernöstlichen Russland vor. Artemisia commutata : Sie kommt in Sibirien, in der Mongolei und im fernöstlichen Russland vor. Artemisia copa : Die Heimat ist Argentinien und Chile. Artemisia daghestanica : Sie kommt in der Kaukasusregion vor. Artemisia desertorum : Sie kommt in Pakistan, Indien, Nepal, China, Japan, Korea, in der Mongolei und in Russland vor. Moxakraut (Artemisia douglasiana , Syn.: Artemisia heterophylla ): Die Heimat ist Washington, Oregon, Kalifornien und Nevada. Deutscher Estragon (Artemisia dracunculus ): Die Heimat ist Osteuropa, Zentralasien, Sibirien, Afghanistan, Pakistan, die Mongolei, Indien, das nördliche China, Alaska, Kanada, die Vereinigten Staaten und Mexiko. Artemisia dzevanovskyi : Sie kommt in der Ukraine und in Rumänien vor. Artemisia filifolia : Sie kommt in Kanada, in den westlichen und in den zentralen Vereinigten Staten sowie im nördlichen Mexiko vor. Artemisia flahaultii : Sie kommt in Marokko vor. Artemisia fragrans : Sie kommt in der Türkei, im Iran, in Kasachstan und in der Kaukasusregion vor. Artemisia frigida : Sie kommt im europäischen Russland, in Sibirien, Kasachstan, in China, in der Mongolei, in Alaska, Kanada und in den Vereinigten Staaten vor. Artemisia fukudo : Sie kommt in Japan, Korea, Taiwan und Zhejiang vor. Artemisia furcata : Sie kommt in Sibirien, im fernöstlichen Russland, in Alaska, Kanada und Washington vor. Ährige Edelraute auch Schwarze Edelraute (Artemisia genipi ): Die Heimat sind die Alpen von Frankreich über Italien, die Schweiz, Liechtenstein und Österreich bis nach Slowenien. Gletscher-Edelraute (Artemisia glacialis ): Die Heimat sind die südwestlichen Alpen in Frankreich, Italien und der Schweiz. Heiligenbeifuß (Artemisia gmelinii , Syn.: Artemisia sacrorum , Artemisia vestita ): Das Verbreitungsgebiet umfasst Osteuropa, das südliche Sibirien, Zentralasien, die Himalaya-Region, die Mongolei, das nördliche China, Russlands Ferner Osten, Korea und Japan, Indien, Nepal und das nördliche Pakistan. Artemisia gorgonum : Dieser Endemit kommt nur auf den Kapverden vor. Artemisia granatensis : Sie kommt nur in Spanien vor. Artemisia henriettae : Dieser Endemit kommt nur im Gebiet von Nowaja Semlja und Franz-Josef-Land vor. Artemisia herba-alba : Sie kommt in Frankreich, Spanien, Marokko, in der Türkei, Syrien, Israel, im Libanon und in Saudi-Arabien vor. Artemisia hololeuca : Sie kommt in der Ukraine und im europäischen Russland vor. Artemisia huguetii : Sie kommt nur in Marokko vor. Artemisia ifranensis : Sie kommt nur in Marokko vor. Artemisia incana : Sie kommt in Westasien und im Kaukasusraum vor. Artemisia inculta : Sie kommt in Kreta, in Libyen, Ägypten und auf der Sinaihalbinsel vor. Artemisia indica : Sie kommt in Indien, Bhutan, Myanmar, Thailand, China, Japan und Taiwan vor. Artemisia insipida : Die Heimat ist Frankreich; diese Art gilt als ausgestorben. Artemisia japonica : Sie kommt in Afghanistan, Indien, Nepal, Bhutan, Myanmar, Thailand, China, Japan, Korea und im fernöstlichen Russland vor. Artemisia judaica : Sie kommt in Marokko, Algerien, Libyen, Ägypten im Tschad, in Saudi-Arabien, Israel und in Jordanien vor. Schlitzblatt-Wermut, auch Schlitzblättriger Beifuß (Artemisia laciniata ): Das weite Verbreitungsgebiet umfasst in Europa Deutschland und Österreich und reicht von Russland über Zentralasien bis Ostasien und in Nordamerika von Alaska und Kanada bis zu den westlichen Vereinigten Staaten und New Mexico. Elfenraute oder Weißer China-Beifuß (Artemisia lactiflora ): Die Verbreitung erstreckt sich vom südlich-zentralen China und Taiwan über Indochina und Indonesien bis zum indischen Subkontinent. Artemisia lagocephala : Sie kommt in Sibirien, China und in Russlands Fernem Osten vor. Artemisia lancea : Sie kommt in China, Japan, Korea und Taiwan vor und ist in Rumänien ein Neophyt. Artemisia leucodes : Sie kommt in Tadschikistan und in Kasachstan vor. Artemisia longifolia : Sie kommt im westlichen Kanada und in de nordwestlichen und nördlich-zentralen Vereinigten Staaten vor. Artemisia ludoviciana : Sie kommt in sechs Unterarten in Kanada, in den Vereinigten Staaten und in Mexiko vor. Artemisia lucentica : Sie kommt nur in Spanien vor. Artemisia magellanica : Die Heimat ist das südliche Südamerika. Strand-Beifuß (Artemisia maritima ): Die Heimat sind die Küstengebiete des Vereinigten Königreichs und Irland sowie von der von Frankreich bis Norwegen, Schweden und Estland. Artemisia mauiensis : Sie kommt auf Hawaii vor. Artemisia mesatlantica : Sie kommt nur in Marokko vor. Artemisia michauxiana : Sie kommt in Kanada und in den westlichen Vereinigten Staaten vor. Artemisia molinieri : Sie kommt in Frankreich vor. Artemisia mongolica : Sie kommt in Zentralasien, Russland, China, Korea und Taiwan vor. Artemisia monosperma : Sie kommt in Libyen, Ägypten, auf der Sinaihalbinsel, in Israel, im Libanon und in Jordanien vor. Artemisia montana : Sie kommt in China, Japan, Korea und in Russlands Fernem Osten vor. Artemisia moorcroftiana : Sie kommt in Pakistan, Indien, Nepal, Bhutan und China vor. Artemisia myriantha : Sie kommt in China, Indien, Nepal, Bhutan und im nördlichen Myanmar vor. Artemisia negrei : Sie kommt nur in Marokko vor. Glänzende Edelraute (Artemisia nitida ): Die Heimat sind die Südalpen in Österreich, Italien und Slowenien. Schnee-Edelraute (Artemisia nivalis ): Dieser Endemit kommt nur im Wallis in der Schweiz vor. Artemisia norvegica : Sie kommt in zwei Unterarten in Schottland, Norwegen, im europäischen Russland, in Sibirien und im fernöstlichen Russland und außerdem in Alaska, Kanada und in den westlichen Vereinigten Staaten vor. Artemisia nova : Sie kommt im westlichen New Mexico und in den westlichen Vereinigten Staaten vor. Artemisia oelandica : Sie kommt nur in Schweden vor. Artemisia oranensis : Sie kommt in Algerien und in Marokko vor. Artemisia ordosica : Sie kommt in China vor. Artemisia pallens : Sie kommt im südlichen Indien vor. Waldsteppen-Beifuß, auch Waldsteppen-Wermut (Artemisia pancicii ): Die Heimat ist Österreich, Tschechien und Serbien. Artemisia papposa : Sie kommt in den US-Bundesstaaten Oregon, Idaho und Nevada vor. Artemisia pauciflora : Sie kommt im südöstlichen europäischen Russland, im Altai und im westlichen Kasachstan vor. Artemisia pedatifida : Sie kommt in den US-Bundesstaaten Colorado, Idaho, Wyoming und Montana vor. Artemisia pedemontana : Sie kommt in Spanien, Italien und Bulgarien vor. Artemisia poljakovii : Sie kommt nur in Algerien vor. Pontischer Beifuß (Artemisia pontica ): Er ist von Südost-, Mittel- und Osteuropa über das nördliche Kasachstan bis Sibirien und China verbreitet. Artemisia porteri : Sie kommt in den US-Bundesstaaten Wyoming und südliches Montana vor. Artemisia princeps (Yomogi oder auch Japanischer Beifuß): Sie kommt in Japan, Korea und in China vor. Dünen-Beifuß (Artemisia pycnocephala , Syn.: Oligosporus pycnocephalus ): Sie kommt nur in Kalifornien vor. Artemisia pygmaea : Sie kommt in den US-Bundesstaaten Colorado, Arizona, Nevada, Utah und New Mexico vor. Artemisia ramosa : Sie kommt nur auf Teneriffa und Gran Canaria vor. Artemisia reptans : Sie kommt in Marokko und auf Teneriffa, Fuerteventura und Gran Canaria vor. Artemisia rigida : Sie kommt im östlichen Washington, im östlichen Oregon, im westlichen Idaho und im nordwestlichen Montana vor. Felsen-Beifuß (Artemisia rupestris , Syn.: Absinthium laxum , Absinthium rupestre , Absinthium viride , Absinthium viridifolium , Artemisia dentata , Artemisia viridifolia ): Die Heimat ist Deutschland, Estland, Schweden und das nördliche europäische Russland sowie Afghanistan, Zentralasien, Sibirien, die Mongolei, das nordwestliche China und außerdem auf dem amerikanischen Kontinent das kanadische Yukon-Territorium. Artemisia rutifolia : Sie kommt in Zentralasien, Sibirien, Afghanistan, Iran, Pakistan, Nepal, in der Mongolei und in China vor. Artemisia saharae : Sie kommt in Algerien und in Tunesien vor. Artemisia santolinifolia : Sie kommt im europäischen Russland, in Afghanistan, Pakistan, Sibirien, Zentralasien, in der Mongolei und in China vor. Salzsteppen-Wermut (Artemisia santonicum ): Sie ist eine pannonische Salzsteppenpflanze. Artemisia schmidtiana : Sie kommt in Sachalin, auf den Kurilen, in Hokkaido und Honshu vor. Besen-Beifuß (Artemisia scoparia , Syn.: Absinthium laxum , Artemisia elegans , Artemisia kohatica , Artemisia scopariiformis , Artemisia scoparioides , Oligosporus scoparius ): Die Verbreitung liegt in Mittel-, Südost- und Osteuropa sowie im gemäßigten Asien, in Ägypten und in Pakistan. Artemisia scopulorum : Sie kommt in Colorado, Montana, Wyoming, Nevada, Utah und New Mexico vor. Artemisia sieberi : Sie kommt in Ägypten, auf der Sinaihalbinsel, in Israel, Jordanien, Syrien im Libanon und in der Türkei vor. Sivers Beifuß (Artemisia siversiana , Syn.: Absinthium sieversianum , Artemisia chrysolepis , Artemisia koreana , Artemisia moxa , Artemisia scaposa , Artemisia sparsa , Carpesium gigas ): Das Verbreitungsgebiet ist Zentralasien, die Himalaya-Region, das südliche Sibirien, das fernöstliche Russland, China, Korea, Japan, Indien und Pakistan. Im östlichen europäischen Russland und in der Ukraine ist diese Art ein Neophyt. Artemisia songarica : Sie kommt im südöstlichen Kasachstan und im nördlichen Xinjiang vor. Artemisia sphaerocephala : Sie kommt in der Mongolei und in China vor. Artemisia splendens : Aus der Türkei, Irak, Iran und dem südlichen Kaukasus. Artemisia stelleriana : Sie kommt in Russlands Fernem Osten, in Alaska, in Japan und im nördlichen Korea vor. Artemisia suksdorfii : Sie kommt im südlichen British Columbia, in Washington, Oregon und Kalifornien vor. Artemisia szowitziana : Sie kommt in Aserbaidschan, in Armenien und in der Kaukasusregion vor. Artemisia taurica : Sie kommt auf der Krim, in der Türkei und im Kaukasusgebiet vor. Artemisia terrae-albae : Sie kommt im südöstlichen europäischen Russland, in Kasachstan, im nördlichen Xinjiang und in der Mongolei vor. Artemisia thuscula : Sie kommt auf den Kanarischen Inseln vor. Artemisia tilesii : Sie kommt im europäischen Russland, in Sibirien, im fernöstlichen Russland, in Japan, in Alaska, Kanada und in den nordwestlichen Vereinigten Staaten vor. Armenischer Beifuß (Artemisia tournefortiana ): Er ist von Vorderasien über Zentralasien, Indien, Nepal, Pakistan, Sibirien, der Mongolei bis ins westliche China weitverbreitet. In Süd-, Mittel- und Osteuropa ist diese Art ein Neophyt. Artemisia transiliensis : Sie kommt nur in Kirgisistan vor. Wüsten-Beifuß (Artemisia tridentata ): Die Heimat liegt im westlichen Nordamerika von Kanada über die USA bis ins nördliche Mexiko. Es gibt vier Unterarten. Artemisia tripartita : Sie kommt in zwei Unterarten in British Columbia, Washington, Oregon, Idaho, Wyoming und Nevada vor. Echte Edelraute (Artemisia umbelliformis ): Sie gedeiht in den Gebirgen Mittel- und Südeuropas. Es gibt zwei Unterarten. Artemisia vallesiaca : Sie kommt in Frankreich, in der Schweiz und in Italien vor. Verlotscher Beifuß (Artemisia verlotiorum ): Die Heimat liegt in China und in Taiwan; sie ist in Europa, auf Madeira, in Algerien, Armenien und Südamerika weitverbreitet eingebürgert. Gewöhnlicher Beifuß (Artemisia vulgaris ): Er kommt durch den Menschen verbreitet heute in fast allen Regionen der Nordhalbkugel vor. Nutzung Schon in der Antike waren Artemisia-Arten als Heil- und Gewürzpflanzen bekannt. Fast alle Artemisia-Arten enthalten viel Bitterstoffe und ätherische Öle. Sie werden vor allem wegen ihrer dekorativen, oft duftenden und bisweilen Insekten-abwehrenden Laubblätter kultiviert. Der Einjährige Beifuß wird in der Traditionellen Chinesischen Medizin als Malaria-Mittel genutzt. Auf Extrakten aus dem Einjährigen Beifuß beruht die von der WHO empfohlene Therapie gegen Malaria (siehe Artemisinin). Die WHO lehnt aber die Anwendung pflanzlicher Artemisia-Präparate wie Tees ab. In den französischen und italienischen Alpen, vorrangig im Aosta-Tal, wird aus Artemisia ein dort populärer Kräuterlikör namens Génépi hergestellt. Quellen Literatur Gustav Hegi: Illustrierte Flora von Mittel-Europa – mit besonderer Berücksichtigung von Deutschland, Österreich und der Schweiz. VI. Band, 2. Hälfte. J. F. Lehmanns Verlag, München 1928–1929. Leila M. Shultz: Artemisia. In: , online (engl.). Einzelnachweise Weblinks
379
https://de.wikipedia.org/wiki/Adam%20und%20Eva
Adam und Eva
Adam und Eva waren nach der biblischen Erzählung im 1. Buch Mose (Kapitel 2 bis 5) das erste Menschenpaar und somit die Stammeltern aller Menschen. Demnach formte Gott den Adam aus Erde und hauchte ihm den Lebensatem ein. Anschließend gab Adam zwar den Tieren Namen, fand aber kein partnerschaftliches Gegenüber. Daraufhin ließ Gott Adam in einen tiefen Schlaf fallen, entnahm ihm eine Rippe (wörtlich: „Seite“) und schuf aus dieser sein Gegenüber Eva. Während in der Erzählung bis zu diesem Punkt immer von „dem Menschen“ (Adam) gesprochen wird, erkennt Adam nun in der Begegnung mit dem neuen Wesen sich als Mann und ihm gegenüber Eva als Frau. Adam wird auch im Koran erwähnt, der heiligen Schrift des Islams. Etymologie Das Wort „Adam“ (), das in der Schöpfungserzählung als Eigenname gebraucht wird, bedeutet „Mensch“ (im Gegensatz zu anderen Lebewesen, insbesondere den Tieren). Auf das ähnlich klingende Wort Adamah ( „Erde, Erdboden“) wird durch den Schöpfungsakt Bezug genommen. Die Herkunft des Namens „Eva“ (, oder ; ) ist umstritten. Eine Möglichkeit ist die künstlich archaisierende Bildung aus מְחַוָּה, mit der Bedeutung „die ins Leben Rufende“; dies korrespondiert mit der volksetymologischen Deutung in . Die andere Möglichkeit ist die Herleitung von ḥwj’ „Schlange“. Dieser Name wird im Alten Testament nur an zwei Stellen genannt, nämlich in und 4,1 . Zuvor wird sie stets als „Frau“ Adams bezeichnet. Die hebräischen Wörter für Frau ( ) und Mann ( ) sind einander sehr ähnlich, obwohl sie nicht miteinander verwandt sind. Es handelt sich um ein Wortspiel: So, wie der Mensch (ādām) aus der Erde (ădāmāh) hervorgeht, so geht die Frau (iššāh) aus dem Mann (īš) hervor. In der Septuaginta wird der Name Adam als Eigenname Αδάμ adam wiedergegeben, während der Name Eva mit Ζωἠ Zoë „Leben“ übersetzt wird. Im Neuen Testament, wo Eva nur an zwei Stellen erwähnt wird ( und ), wird der Name Eva dagegen griechisch Εὕα Heúa umschrieben. In der Biblia Vulgata des Mittelalters lautet ihr Name schließlich Hava, Heva oder dann Eva. Textliche Überlieferungen Biblischer Schöpfungsbericht Im biblischen Schöpfungsbericht () steht: „Und Gott schuf den Menschen zu seinem Bilde, zum Bilde Gottes schuf er ihn, und er schuf sie als Mann und Weib.“ Adam und Eva leben zunächst im Garten Eden. Dort wird Eva von der Schlange überredet, trotz Gottes Verbot vom Baum der Erkenntnis von Gut und Böse zu essen. Diese Schlange wird in der christlichen Tradition oft auf den Teufel bezogen; diese Gleichsetzung findet sich schon im Neuen Testament in . Das gängige Bild vom Apfel als verbotener Paradiesfrucht beruht nicht auf einem Übersetzungsfehler der lateinischen Bibel, der Vulgata, sondern darauf, dass in der lateinischen Sprache das Wort malus „Apfelbaum“ bedeuten kann, aber auch „schlimm, böse“, ebenso wie malum „Apfel“ bedeuten kann oder „das Übel, das Schlechte, das Böse“. Daraus ergab sich ein naheliegendes Wortspiel, zumal die Vulgata den „Baum der Erkenntnis von Gut und Böse“ aus dem hebräischen Urtext übersetzte mit lignum scientiae boni et mali. Die im Essen der verbotenen Frucht zum Ausdruck kommende Abkehr von Gottes Geboten gilt sowohl in der jüdischen als auch in der christlichen Religion als Ungehorsam gegenüber Gott. Das Christentum spricht vom Sündenfall. Als Folge der Rebellion beschreibt die Bibel, dass Adam und Eva ihre Nacktheit erkennen, woraufhin sie sich einen Schurz aus Feigenblättern anfertigen. Vor Gott versuchen sie sich zu verstecken. Zum ersten Mal ist etwas im Garten Eden vorhanden, was vorher nicht bekannt war: die Verletzung des Schamgefühls. Gott stellt sie zur Rede, woraufhin Adam die Schuld Eva zuschreibt und Eva der Schlange. Beide werden aus dem Garten Eden vertrieben, Gott macht ihnen jedoch Fellkleidung als Schutz. Eva muss fortan Kinder unter Schmerzen gebären, Adam wird der harte und mühselige Ackerbau auferlegt. Die klassischen Worte aus : „Denn Staub bist du und zum Staub zurück kehrst du“ bringen nach christlicher Interpretation zum Ausdruck, dass nun der Tod in die Welt getreten ist, da die Menschen sterblich geblieben sind. Zwischen Eva, der Schlange und ihren jeweiligen Nachkommen wird Feindschaft herrschen. In der biblischen Erzählung zeugt Adam nach der Vertreibung aus dem Paradies mit Eva Kain, Abel und Set. Genesis 5,4 erwähnt außerdem weitere nicht namentlich genannte Töchter und Söhne, die Adam nach der Geburt Sets gezeugt hat. Adams gesamtes Lebensalter wird mit 930 Jahren angegeben. Andere Berichte Die niederländischen Wissenschaftler Marjo C.A. Korpel und Johannes de Moor von der Protestantisch-Theologischen Universität in Amsterdam publizierten 2014 die Ergebnisse ihrer Untersuchung von Tontafeln aus Ugarit aus dem 13. Jahrhundert v. Chr., die eine frühe Version des Mythos von Adam und Eva enthalten. Rund 800 Jahre älter als die Fassung im 1. Buch Mose, erzählt dieser in ugaritischer Sprache in Keilschrift verfasste Text von einem Kampf zwischen dem Schöpfergott El, dem höchsten der Götter, und einem Widersacher namens Horon, der El stürzen möchte: Die Götter leben in einem paradiesischen Garten, in dem auch der Unsterblichkeit verleihende Baum des Lebens wächst. Horon wird von dort verbannt, woraufhin er die Gestalt einer großen Schlange annimmt, den Baum des Lebens vergiftet und in einen Baum des Todes verwandelt, der alles Leben auf der Erde bedroht. Die Götter wählen einen aus ihrer Mitte aus, um den Abtrünnigen zu bekämpfen. Doch der Auserwählte, Adam, scheitert, als Horon in Form der Schlange ihn beißt und ihn so seiner Unsterblichkeit beraubt. Den verbliebenen Göttern gelingt es, Horon zu zwingen, den vergifteten Baum zu entwurzeln. So bleibt die Unsterblichkeit zwar verloren, aber das Leben kann weitergehen. Die Sonnengöttin erschafft als Partnerin für den nun sterblichen Adam eine „gute Frau“. Sie und Adam erlangen, indem sie Nachkommen zeugen, eine neue Form der Unsterblichkeit. Vorstellungen zu einem Stammelternpaar gibt es auch in anderen Schöpfungsberichten. So findet sich in der germanischen Mythologie die Geschichte von Ask und Embla. Deutung Jüdische Deutungen Aus dem Vers : „Es ist nicht gut, dass der Mensch allein sei“ wird nach rabbinischer Deutung die Verpflichtung des Menschen zur Eheschließung abgeleitet. In der Sicht des hellenistisch-jüdischen Philosophen Philon von Alexandria hat die Rebellion die folgende Bedeutung: Es existieren zwei Schöpfungen, die des himmlischen und die des irdischen, aus Staub geschaffenen und der Vergänglichkeit unterworfenen Menschen. Adam steht für die Vernunft, Eva für die Sinnlichkeit, die Schlange für die Lust. Der Aufstand gegen Gott entsteht durch eine Störung der betrachtenden Vernunft, wobei die Schlange als Vehikel der Versuchung dient. Christliche Sichtweisen Die lateinische Kirche entwickelt aus der biblischen Erzählung den Begriff der Erbsünde, sie begreift Adam als Typ und Haupt-Figur der Menschheit. Als solcher kann er, wie der Apostel Paulus im Römerbrief schreibt, ursächlich für den Tod aller Menschen sein. Diesem „alten (Menschentypus) Adam“ wird Jesus Christus als der eine „neue Adam“ gegenübergestellt, dessen Kreuzestod im Gehorsam gegenüber dem Willen des Vaters () und dessen Auferstehung ein Leben im Sieg über die Mächte des Todes hinaus ermöglichen (vgl. . , siehe auch Sündenfall). Diese Interpretation wird aber nicht von der Ostkirche akzeptiert, wo die Erbsünde unbekannt ist; es heißt nur, dass der Tod durch Adam und Eva in die Welt gebracht wurde und in der Auferstehung Jesu das Paradies wieder erschlossen ist (vgl. die Anastasis-Ikonen, wo Adam und Eva an der Hand des Auferstandenen aus dem Todesgrab herausgeführt werden, siehe unten). Der Gegensatz von „Geist“ und „Fleisch“, der für Paulus grundlegend ist und der bei ihm auch hinter dem Gegensatz zwischen dem „neuen Adam“ Jesus und dem „alten Adam“ steht (vgl. , , ), ist schon in den ersten Kapiteln der Genesis zu finden. „Alle, die zu Jesus Christus gehören, haben das Fleisch und damit ihre Leidenschaften und Begierden gekreuzigt. Wenn wir aus dem Geist leben, dann wollen wir dem Geist auch folgen“ (). Das „Kreuzigen“ bedeutet nicht töten, sondern der Bestimmung durch den Geist unterwerfen im Sinn der inneren Beschneidung des Herzens durch den Geist (vgl. ; ; vgl. ). Das so beschnittene Herz hat wieder Zugang zur Gnade und zur Sehkraft der „Hoffnung auf die Herrlichkeit Gottes“ () und die Unsterblichkeit (), die den Adam paradisus im Gnadenstand des Paradieses auszeichnet (vgl. , , ). Auch die beiden Bäume in der einen Mitte des Paradieses lassen sich auf diesen Gegensatz von Geist (Lebensbaum) und Fleisch (Erkenntnisbaum) zurückführen. In der Theologie des Mormonentums ist Adam die Verkörperung des Erzengels Michael. Esoterische Analogien Die Sicht Philos von Alexandrien wurde auch von Paulus und den Kirchenvätern aufgegriffen und weiterentwickelt. Danach verkörpern Adam und Eva oder das Männliche und Weibliche die zwei Seiten der menschlichen Wirklichkeit: das Innere und Erinnernde des Geistes (hebr. sachar bedeutet „männlich“ und „erinnern“) sowie das Äußere, Erscheinende oder Umhüllende des Fleisches, welches dann im Bund der Beschneidung zurückgedrängt wird. Die geöffnete „Seite“ Adams, aus der heraus Gott die Frau bildet, wird mit „Fleisch“ geschlossen (). Die „Rippe“ symbolisiert hier die Mondsichel. Hebr. zela übersetzt Othmar Schilling mit „das Gekrümmte“; zu verweisen ist auch auf zelem („Bild“) und zel („Schatten“). Luna galt in den alten Kulturen als „Urgrund aller Geburt“ (Johannes Lydos) oder „Mutter des irdischen Lebens“ (vgl. ), deren monatlicher Zyklus die Menstruation der Frau bestimmt. Auf den Mond verweist auch der Zahlenwert 19 von Eva, hebr. Chewa(h) (wie Chaja für „Tier“), in Zahlen 8-6-5, in der Summe 19. Das Mondjahr kann wegen der Differenz zum Sonnenjahr von knapp elf Tagen nicht einfach in zwölf gleich große Teile eingeteilt werden, sondern muss durch das Einschalten eines 13. Monats immer wieder an das Sonnenjahr angepasst werden. Dabei beträgt die Differenz in 19 Jahren genau sieben Mond-Monate. Diese 19 Jahre nennt man „ein ‚mechasor‘, eine Wiederholung, eine Zurückkehr, und somit auch Kreis oder Zyklus.“ Im Bildtypus der Maria Immaculata erscheint die Mutter Jesu als ‚neue Eva‘ auf der Mondsichel stehend und der Schlange (des nur zeitlich-irdischen Werdens und Vergehens) den Kopf zertretend (nach ; ). Der frühchristliche Bischof Theophilus von Antiochia sagt in seiner Auslegung der Erschaffung von Sonne und Mond am 4. Schöpfungstag: „Die Sonne ist das Bild Gottes, der Mond das des Menschen“; im monatlich ‚sterbenden‘ und dann wieder erscheinenden Mond sieht er also „ein Sinnbild des Menschen“ und zugleich „ein Vorbild unserer künftigen Auferstehung“ (An Autolykus II, 15). Auch deshalb wird Ostern am ersten Sonntag nach dem Frühlings-Vollmond gefeiert. Im gleichen Sinn deutet dann Bonaventura (13. Jh.) Sonne und Mond als Sinnbild für das In-eins-Sein von Gottheit und Menschheit in Jesus Christus: „Das Licht des Lammes gibt ihm [Jerusalem] Schönheit und Glanz, seine Gottheit leuchtet an Stelle der Sonne, seine Menschheit an Stelle des Mondes […]“ Auf Darstellungen von der Erschaffung der Frau aus dem Mann werden beide häufig von Sonne und Mond flankiert (vgl. zum Beispiel den Schalldeckel der Kanzel der Klosterkirche der ehemaligen Zisterzienserabtei Bebenhausen bei Tübingen). Bedeutung von Adam und Eva im mandäischen Glauben Für die kleine Religionsgemeinschaft der Mandäer sind Adam und Eva die ersten Menschen. Der Mandäismus beschreibt jedoch die Geburt Evas nicht als Entstehung aus Adams Rippe, sondern als Gabe der Lichtwelt an Adam. In den mandäischen Gemeinschaften werden die Frauen auch in spiritueller Hinsicht als völlig gleichberechtigt zu den Männern gesehen; in der Geschichte der Mandäer gab es auch Priesterinnen. Darstellung im Koran Auch der Koran kennt die Erzählungen von dem aus Erde geformten Erstmenschen Adam, den Gott durch Einhauchung zum Leben erweckt und mit seiner Gattin im Paradies wohnen lässt. Eva, in islamischer Tradition Hawwa genannt, wird im Koran allerdings nicht namentlich erwähnt. Sie ist aus Adams Körper gebildet (Sure 7, Vers 189) und wird zusammen mit ihm aus dem Paradies gewiesen, nachdem die beiden – angestiftet von Iblis – Früchte vom verbotenen Baum verzehrt haben (Sure 2, Verse 30–29; Sure 7, Verse 19–25). Eine wichtige Rolle in der Adamtradition des Koran spielt das Motiv der Stellvertreterschaft Adams, dem Gott die Namen aller Dinge offenbart. Aus Überheblichkeit widersetzt sich Iblis als einziger dem Befehl Gottes, sich vor Adam niederzuwerfen. Daraufhin wird er von Gott aus dem Paradies verwiesen, erbittet sich aber Aufschub bis zum Tag des jüngsten Gerichts, um nun zu versuchen, die Menschen ebenfalls abirren zu lassen – was ihm auch gelingt. Diese Verleitung zur Sünde gilt im Islam als irdische Prüfung (Koran: Sure 15 Al-Hidschr, Vers 34–40). Gott hatte die Menschen ausdrücklich vor diesem Versucher gewarnt, sie ließen sich aber dennoch betören und verführen (Sure 7 al-A'raf, Vers 22). Im Gegensatz zur christlichen Überlieferung fehlt in der islamischen Adamtradition die Rolle der Frau als Verführerin, die vom Satan als Erste verführt wird ihrerseits Adam zum Verzehr der verbotenen Frucht verleitet. Nach dem Koran ist Adams Sünde ein Fehltritt (Sure 2 al-Baqara, Vers 36), nicht aber Abfall von Gott und Zerstörung der Beziehung zu ihm. Deshalb ist die Folge auch nicht so schwerwiegend wie im biblischen Bericht: Statt der Ankündigung: „… sonst werdet ihr sterben“ warnt Gott den Menschen vor Satan: „Dass er euch nur nicht aus dem Paradies vertreibt und dich unglücklich macht!“ (Sure 20 Tā-Hā, Vers 117). Durch die Sünde schadet der Mensch nur sich selber: „Unser Herr, wir haben uns selbst Unrecht getan.“ (Sure 7, Vers 23) „Hierauf erwählte ihn sein Herr und er wandte sich ihm wieder zu und leitete ihn recht.“ (Sure 20, Vers 122) Adam und seine Frau werden zwar aus dem Paradies vertrieben, aber ihnen wird gesagt: „Wenn dann von mir eine Rechtleitung zu euch kommt, dann haben diejenigen, die meiner Rechtleitung folgen, nichts zu befürchten und sie werden nicht traurig sein.“ (Sure 2, Vers 38f) Im Koran wird den Menschen ihr Sündenfall von Gott explizit verziehen (Sure 2, Vers 37, am Ende der Erzählung der Adamgeschichte): „Da empfing Adam von seinem Herren Worte (Bittgebete). Und er wandte sich zu ihm zu. Er ist ja der Vergebende, sich wieder Zuwendende und der Barmherzige“. Diese Stelle steht im Gegensatz zu einem Glauben an eine „Erbsünde“. Jeder Mensch wird mit einem „weißen Blatt“ geboren, heißt es in Sprüchen des Propheten Mohammed als Bestätigung. Somit wird nach islamischer Lehre jeder Mensch sündenfrei geboren. Gedenktage evangelisch: Evangelische Kirche in Deutschland: 24. Dezember Lutherische Kirche – Missouri-Synode: 19. Dezember römisch-katholisch: 24. Dezember orthodox: vorletzter Sonntag im Advent armenisch: 26. Dezember (nur Adam) koptisch: 1. April Adam und Eva in der Kunst Die künstlerischen Darstellungen des Mythos von Adam und Eva sind außerordentlich zahlreich und über Jahrhunderte immer wieder neu variiert und verändert worden. Dabei bewegen sich die Darstellungen zwischen verschiedenen Polen der theologischen Deutung des Geschehens: In einigen Werken erscheinen Adam und Eva in ihrer paradiesischen Gottesnähe. Der deutsche Philosophiehistoriker Kurt Flasch verweist etwa auf ein Deckengemälde aus der Zeit um 1200 in der Klosterkirche St. Michael in Hildesheim, das zeige, Eva erscheint vielen Künstlern als mächtige Urmutter der Menschheit, als Geschenk Gottes an Adam, erst aus ihrer Tat erwachsen Zeit und die menschliche Geschichte. In entsprechenden Darstellungen der Schöpfungsszene, in der Gott Eva aus der Seite Adams erstehen lässt, erscheint die starke Eva als Bindeglied zwischen Adam und Gott, so im abgebildeten Relief des Doms zu Orvieto oder einem dem frühen, Donatello zugeschriebenen Terracottarelief im Dommuseum in Florenz. Auf der anderen Seite ist die Zuweisung der Hauptschuld am Sündenfall an Eva ein Thema der Kunst. Der Sündenfall wird zum Ausgangspunkt der Herrschaft des Mannes über die Frau, Eva zur Gegenfigur der jungfräulichen Maria und zum Ursprung allen Elends der Menschheitsgeschichte. Ebenfalls um 1200 gestaltet ein unbekannter Künstler die Vertreibung aus dem Paradies an einem Kapitell der Kathedrale von Clermont-Ferrand. „Der Cherubim verschließt das Paradiestor; er zerrt Adam an den Haaren heraus. Eva und Adam sind beide Bestrafte, Verjagte, Hinausgeworfene, aber wie verschieden ist ihre Lage: Adam steht, Eva kniet oder liegt am Boden; sie ist gestürzt; ihre Position ist jetzt unter ihm, und er demonstriert dies: Er zieht sie am Haarschopf, wie der Engel ihn gepackt hat. Er setzt die Strafe fort; er gibt seiner Frau einen Fußtritt.“ Aber trotz der theologischen Legitimation dieser Negativsicht Evas über Jahrhunderte eröffnet sich in der Kunst eine Vielfalt der Akzentuierungen und Motiven zwischen den Polen Sünde/Strafe und der positiven Sicht der ersten Menschen. Eine „positive Vollendung“ der Geschichte von Adam und Eva kennt die Ikonentradition. Die Auferstehungsikone (Anastasis), ein häufiges Motiv, zeigt nicht (wie die westliche Kunst) die Abbildung der Auferstehung Jesu selbst oder des leeren Grabes, sondern die Illustration eines Satzes aus dem Apostolischen Glaubensbekenntnis: … hinabgestiegen in das Reich des Todes. Der auferstandene Christus tritt die Türen des (oft personifizierten) Hades ein und zieht Adam und Eva als erste der Menschen aus dem Reich des Todes. Ein ganz anderer Motivbereich der künstlerischen Gestaltung von Adam und Eva ist die Darstellung der Arbeit. Mit der Vertreibung aus dem Paradies beginnt der Zwang zur Arbeit, der Künstlern Darstellungsmöglichkeiten alltäglicher menschlicher Aktivitäten bietet. Dabei werden sowohl traditionelle weibliche und männliche Tätigkeitsfelder zum Gegenstand, als auch neue Arbeitsgebiete der jeweiligen Zeit. In der Frührenaissance bot die Darstellung von Adam und Eva zudem den Künstlern eine erste Möglichkeit, Aktmalerei in einer Zeit zu betreiben, in der die Darstellung menschlicher Nacktheit noch weitgehend verpönt war. Heraldisch sind beide nebst Schlange und Baum im Wappen von Baja (deutsch Frankenstadt) abgebildet. Siehe auch: Dürers Darstellung von Adam und Eva (1507) Ghibertis Relief an der Paradiespforte am Baptisterium San Giovanni in Florenz (um 1450) Marmorgruppe von Ferdinand Schlöth (1873): Adam und Eva vor dem Sündenfall (Kunstmuseum Basel). Theater Das Mundartstück Schöpfung der ersten Menschen, der Sündenfall und dessen Strafe (in der Ausgabe München 1913, später bekannt als Die schwäbische Schöpfung) des Prämonstratensers Sebastian Sailer wurde 1743 im Kloster Schussenried uraufgeführt und versetzt die biblische Schöpfungsgeschichte um Adam und Eva in die Welt oberschwäbischer Bauern. 1796 wurde es von dem Benediktiner Meingosus Gaelle zur Oper Adam und Evas Erschaffung vertont. Peter Hacks schrieb 1972 mit Adam und Eva ein gleichnamiges Bühnenstück, in dem er, in Anschluss an die Hegelsche Interpretation des Sündenfalls, diesen Stoff zu einem allgemeinen Weltbild ausarbeitet. 1973 wurde das Stück am Staatsschauspiel Dresden uraufgeführt. Patrizia Barbuiani verfasste ein weiteres Bühnenstück unter dem Titel Eva & Adam. Es handelt sich dabei um ein komisches Theaterstück ohne Worte, das die Vertreibung von Adam und Eva aus dem Paradies, ihr Leben in einer modernen Welt, ihren Tod und schließlich ihre Rückkehr ins Paradies erzählt. Seine Uraufführung hatte es 2007 am Markus Zohner Theater Compagnie in Lugano. Siehe auch Leben Adams und Evas (einflussreiche Schriften) Lilith (erste Frau Adams) Adam des Y-Chromosoms, mitochondriale Eva (genetisch errechnete Stammeltern aller heutigen Menschen) Manu (Hinduismus) Literatur Adam: Michael Ernst: Adam – die Rezeption eines alttestamentlichen Motivs in neutestamentlichen Texten. In: Alttestamentliche Gestalten im Neuen Testament: Beitrage zur biblischen Theologie. Herausgegeben von Markus Öhler. WBG, Darmstadt 1999, ISBN 3-534-13836-8, S. 27–39. Paul Hengge: Die Bibel-Korrektur: Auch Adam hatte eine Mutter. Orac & Pietsch, Wien 1979, ISBN 3-85368-849-7. Neuauflage 1992, unter dem Titel: Auch Adam hatte eine Mutter: Bibelkorrektur I – Altes Testament. Book on Demand, Norderstedt 2012, ISBN 3-8311-1148-0. Zweiter Teil: Joseph aber dachte Maria zu verlassen: Bibelkorrektur II – Neues Testament. Book on Demand, Norderstedt 2012, ISBN 3-8311-1149-9. Eva: Carel van Schaik, Kai Michel: Die Wahrheit über Eva: Die Erfindung der Ungleichheit von Frauen und Männern. Rowohlt, Reinbek November 2020, ISBN 978-3-498-00112-4 („Wer hat Angst vor der ‚Evalution‘?“). Andrea Imig: Luzifer als Frau? Zur Ikonographie der frauengestaltigen Schlange in Sündenfalldarstellungen des 13. bis 16. Jahrhunderts. In: Schriften zur Kunstgeschichte. Band 25. Kovač, Hamburg 2009, ISBN 978-3-8300-4464-2 (Doktorarbeit Universität Köln 2008). Allgemein: Christfried Böttrich, Beate Ego, Friedmann Eißler (Hrsg.): Adam und Eva in Judentum, Christentum und Islam. Vandenhoeck & Ruprecht, Göttingen 2011, ISBN 978-3-525-63028-0. Klaus W. Hälbig: Der Baum des Lebens: Kreuz und Thora in mystischer Deutung. Echter, Würzburg 2011, ISBN 978-3-429-03395-8. Kurt Flasch: Eva und Adam: Wandlungen eines Mythos. Beck, München 2004, ISBN 3-406-52763-9 (kurze kulturgeschichtliche Beschreibung der Geschichte der ersten Menschen; ). Stephen Greenblatt: Die Geschichte von Adam und Eva: Der mächtigste Mythos der Menschheit. Siedler, München 2018, ISBN 978-3-8275-0041-0. Rainer Hoffmann: Im Paradies, Adam und Eva und der Sündenfall - Albrecht Dürers Darstellungen -, Böhlau-Verlag, 2021, ISBN 978-3-412-52385-5. Marie Luise Kaschnitz: Adam und Eva, 1949. In: Eisbären. Ausgewählte Erzählungen. Insel, Frankfurt/M. 1982, ISBN 978-3-458-31704-3, S. 19–26. Katharina Siefert: Adam und Eva-Darstellungen der deutschen Renaissance. Doktorarbeit, Philosophische Fakultät der Universität Karlsruhe, 1994 (). Mark Twain: Die Tagebücher von Adam und Eva, mit Bildern von Henri Rousseau, Verlag Herder, Freiburg Basel Wien 2014, ISBN 978-3-451-30947-2. Weblinks Artikel im Jewish Women: A Comprehensive Historical Encyclopedia. Jewish Women’s Archive, USA 2006, abgerufen am 24. Oktober 2019 (englisch): Carol Meyers: Eve: Bible. Alice Ogden Bellis: Eve: Apocrypha. Tamar Kadari: Eve: Midrash and Aggadah. Einzelnachweise Person des evangelischen Namenkalenders Person im Buch Genesis Person im Tanach Eva Biblische Person Person (Koran) Fiktives Paar
382
https://de.wikipedia.org/wiki/Allium
Allium
Allium steht für: Allium, Pflanzengattung der Tribus Allieae, siehe Lauch (Gattung) Allium (Album), Jazzalbum von Dave Rempis (2022)
383
https://de.wikipedia.org/wiki/Anaximander
Anaximander
Anaximander oder Anaximandros (; * um 610 v. Chr. in Milet; † nach 547 v. Chr. ebenda) war ein vorsokratischer griechischer Philosoph. Er gehört neben Thales und Anaximenes zu den wichtigsten Vertretern jenes philosophischen Aufbruchs, der mit Sammelbegriffen wie „ionische Aufklärung“ und „ionische Naturphilosophie“ bezeichnet wird. Einordnung von Person und Bedeutung Apollodor von Athen zufolge lebte Anaximander um 610 – 546 v. Chr. in Milet. Es ist wahrscheinlich, dass er Thales von Milet gekannt und mit ihm in enger Gedankengemeinschaft gelebt hat. Jedenfalls gilt er als Nachfolger und Schüler des Thales. Ihn beschäftigte dasselbe Grundproblem wie Thales, nämlich die Frage nach dem Ursprung allen Seins, nach der Arché (). Dafür hielt er jedoch nicht das Wasser, sondern das stofflich unbestimmte Ápeiron (): das hinsichtlich seiner Größe „Unbegrenzte“ bzw. „Unermessliche“. Von Anaximanders Philosophie ist im Original nur ein einziges Fragment überliefert; es stellt überhaupt den ersten erhaltenen griechischen Text in Prosaform dar. Der Großteil der philosophischen Anschauungen Anaximanders ist der zwei Jahrhunderte späteren Überlieferung des Aristoteles zu entnehmen und mit einigen Unsicherheiten behaftet. Als bedeutender Astronom und Astrophysiker entwarf er als erster eine rein physikalische Theorie der Weltentstehung (Kosmogonie). Er gründete seine Überlegungen zur Entstehung des Weltganzen ausschließlich auf Beobachtung und rationales Denken. Auf Anaximander geht der moderne Begriff Kosmos () und die Erfassung der Welt als ein planvoll erfassbares, geordnetes Ganzes zurück. Er zeichnete ebenfalls als erster nicht nur eine geographische Karte mit der damals bekannten Verteilung von Land und Meer, sondern konstruierte auch eine Sphäre, einen Himmelsglobus. Die Karte ist heute verschollen, wurde aber später durch Hekataios von Milet ausgewertet, aus dessen Werk eine halbwegs konkrete Darstellung der damaligen Weltsicht überliefert ist. Nach ihm ist der Mondkrater Anaximander benannt. Ursprung und Ordnungsprinzip des Weltganzen Die Grundsubstanz alles Gewordenen nach Anaximander, das Apeiron (das Grenzenlose), wird unterschiedlich gedeutet: als räumlich und zeitlich unbegrenzter Urstoff, als unendlich hinsichtlich Masse oder Teilbarkeit, als unbestimmt oder grenzenlos u. a.m. Der Begriff des Unermesslichen spiegelt die Offenheit der Möglichkeiten, das Apeiron zu deuten, aber auch die Unvorhersehbarkeit dessen, was aus dem Apeiron entsteht oder von ihm erzeugt wird. Nach Aristoteles hat Anaximander das, was der Begriff bezeichnet, als ein den Göttern der Volksreligion vergleichbares unsterbliches und unzerstörbares Wesen betrachtet. Mit dem einzigen erhaltenen Anaximander-Fragment liegt der erste schriftlich gefasste und überlieferte Satz der griechischen Philosophie überhaupt vor. Allerdings ist die diesbezügliche Forschung uneins, in welchem Umfang das Überlieferungsgut tatsächlich authentisch auf Anaximander zurückgeht. Die Wiedergabe durch Simplikios von Kilikien im 6. nachchristlichen Jahrhundert beruht ihrerseits auf einem verlorengegangenen Werk des Aristoteles-Schülers Theophrastos von Eresos. Die sich auf das Apeiron beziehende, unter dem Seienden die Vielheit der Dinge und Phänomene verstehende Kernaussage lautet: „(Woraus aber für das Seiende das Entstehen sei, dahinein erfolge auch sein Vergehen) gemäß der Notwendigkeit; denn diese schaffen einander Ausgleich und zahlen Buße für ihre Ungerechtigkeit nach der Ordnung der Zeit.“ Damit hat Anaximander als Erster etwas nicht Wahrnehmbares und Unbestimmtes als existierend festgelegt, um so wahrnehmbare Phänomene zu erklären. Die gleichsam gesetzmäßige wechselseitige Ablösung gegenstrebiger Wirkkräfte oder Substanzen in einem kontinuierlichen und ausgeglichenen Prozess dürfte für die beständige Ordnung des Kosmos stehen: ein dem Wechsel und der Veränderung ausgesetztes und doch in sich stabiles System. Uneinig ist die Forschung darüber, ob auch das Apeiron an diesem Geschehen beteiligt ist oder ob es sich um einen rein innerweltlichen Ausgleichsprozess handelt, sodass die Wirkung des Apeiron sich allein auf die Phase der Weltentstehung beschränkte. Im anderen Fall kämen auch Vorstellungen von einer Mehrzahl neben- oder nacheinander existierender Welten in Betracht. Robinson erwägt, dass Anaximander sich das Universum als einen ewigen Prozess gedacht haben könnte, „in dem eine unendliche Anzahl galaktischer Systeme aus dem Apeiron geboren und wieder in es aufgenommen wird. Damit hätte er auf brillante Weise die Weltsicht der Atomisten Demokrit und Leukipp vorweggenommen, die für gewöhnlich als deren eigene Leistung betrachtet wird.“ Kosmos und Erde Anaximander meinte, bei der Entstehung des heutigen, geordneten Universums habe sich aus dem Ewigen ein Wärme- und Kältezeugendes abgesondert, und daraus sei eine Feuerkugel um die die Erde umgebende Luft gewachsen, wie um einen Baum die Rinde. Die Gestirne entstehen laut Anaximander durch die geplatzte Feuerkugel, indem das abgespaltene Feuer von Luft eingeschlossen wird. An ihnen befänden sich gewisse röhrenartige Durchgänge als Ausblasestellen; sie seien dort als Gestirne sichtbar. In gleicher Weise entstünden auch die Finsternisse, nämlich durch Verriegelung der Ausblasestellen. Das Meer sei ein Überrest des ursprünglich Feuchten. „Ursprünglich war die ganze Oberfläche der Erde feucht gewesen. Wie sie aber dann von der Sonne ausgetrocknet wurde, verdunstete allmählich der eine Teil. Es entstanden dadurch die Winde und die Wenden von Sonne und Mond, aus dem übrigen Teil hingegen das Meer. Daher würde es durch Austrocknung immer weniger Wasser haben, und schließlich würde es allmählich ganz trocken werden“ (Aristoteles über Anaximander). Aus einem Teil dieses Feuchten, das durch die Sonne verdampfe, entstünden die Winde, indem die feinsten Ausdünstungen der Luft sich ausschieden und, wenn sie sich sammelten, in Bewegung gerieten. Auch die Sonnen- und Mondwenden geschähen, weil diese eben, jener Dämpfe und Ausdünstungen wegen, ihre Wenden vollführten, indem sie sich solchen Orten zuwendeten, wo ihnen die Zufuhr dieser Ausdünstung gewährleistet sei. Die Erde sei das, was vom ursprünglich Feuchten an den hohlen Stellen der Erde übrig geblieben sei. Anaximander meinte, die Erde sei schwebend, von nichts überwältigt und in Beharrung ruhend infolge ihres gleichen Abstandes von allen Himmelskreisen. Ihre Gestalt sei rund, gewölbt und ähnele in der Art eines steinernen Säulensegments einem Zylinder. Wir stünden auf der einen ihrer Grundflächen; die andere sei dieser entgegengesetzt. Regengüsse bildeten sich aus der Ausdünstung, welche infolge der Sonnenstrahlung aus der Erde hervorgerufen werde. Blitze entstünden, indem der Wind sich in die Wolken hineinstürze und sie auseinanderschlage. Theorie der Menschwerdung und der Seele Die Entstehung der Menschheit führte Anaximander auf andere Lebewesen zurück. Ihm war aufgefallen, dass der Mensch im Vergleich zu anderen Arten im Frühstadium seiner Entwicklung sehr lange Zeit benötigt, bis er für die Selbstversorgung und das Überleben aus eigenen Kräften sorgen kann. Deshalb nahm er an, dass die ersten Menschen aus Tieren hervorgegangen sind, und zwar aus Fischen oder fischähnlichen Lebewesen. Denn den Ursprung des Lebendigen suchte er im Wasser; das Leben war für ihn eine Spontanentstehung aus dem feuchten Milieu: „Anaximander sagt, die ersten Lebewesen seien im Feuchten entstanden und von stachligen Rinden umgeben gewesen. Im weiteren Verlauf ihrer Lebenszeit seien sie auf das trockene Land gegangen und hätten, nachdem die sie umgebende Rinde aufgeplatzt sei, ihr Leben noch für kurze Zeit auf andere Weise verbracht.“ Die Seele hielt Anaximander für luftartig. Der Vorstellung von der Seele als Aër mag die Verbindung mit dem Leben bzw. dem Ein- und Ausatmen zugrunde gelegen haben. Unklar ist, ob er zwischen der Atemseele des Menschen und der anderer Lebewesen unterschied. Wie sich Anaximanders Auffassung von Apeiron und Kosmos zu seiner Vorstellung von der Seele verhielt, ob es zwischen ihnen überhaupt eine Beziehung gab, ist ungewiss. Da Anaximander die Seele für luftartig hielt, vermuten manche, dass er der Seele Unsterblichkeit zusprach. Ob er an eine Beseelung des Kosmos, ferner an eine Allbeseelung, ähnlich wie sie sich Thales vermutlich vorgestellt hatte, und darüber hinaus an die Unsterblichkeit individueller Seelen dachte, bleibt dahingestellt. Interpretationen Bertrand Russell interpretiert Anaximanders Theorien in der Geschichte der abendländischen Philosophie als Behauptung der Notwendigkeit eines angemessenen Gleichgewichts zwischen Erde, Feuer und Wasser, die alle unabhängig voneinander danach streben können, ihre Anteile im Verhältnis zu den anderen zu vergrößern. Anaximander scheint seine Überzeugung auszudrücken, dass eine natürliche Ordnung das Gleichgewicht zwischen diesen Elementen sicherstellt, dass dort, wo Feuer war, nun Asche (Erde) ist. Friedrich Nietzsche behauptete in Die Philosophie im tragischen Zeitalter der Griechen, Anaximander sei ein Pessimist gewesen, der behauptete, das ursprüngliche Wesen der Welt sei ein Zustand der Unbestimmtheit. Demnach muss alles Bestimmte schließlich wieder in die Unbestimmtheit übergehen. Mit anderen Worten: Anaximander betrachtete „... alles Werden als eine unrechtmäßige Emanzipation vom ewigen Sein, ein Unrecht, für das die Zerstörung die einzige Buße ist“. Die Welt der einzelnen Objekte hat in dieser Denkweise keinen Wert und sollte untergehen. Nietzsche bezeichnet Anaxagoras und die anderen Vorsokratiker als Vorplatoniker. Textausgaben Hermann Diels (Hrsg.): Die Fragmente der Vorsokratiker. Band 1. Herausgegeben von Walther Kranz. 4. Auflage (Abdruck der 3. Auflage mit Nachträgen). Weidmann, Berlin 1922 (griechisch und deutsch) Laura Gemelli Marciano (Hrsg.): Die Vorsokratiker. Band 1, Artemis & Winkler, Düsseldorf 2007, ISBN 978-3-7608-1735-4, S. 32–69 (griechische Quellentexte mit deutscher Übersetzung, Erläuterungen sowie Einführung zu Leben und Werk) Jaap Mansfield (Hrsg.): Die Vorsokratiker. Stuttgart 1987. (Fragmente (griech./dtsch.), Übersetzung und Erläuterungen) Georg Wöhrle: Die Milesier: Anaximander und Anaximenes. Berlin 2012. (Kommentare und griech./dtsch. Fragmente) Bertrand Russel: Philosophie des Abendlandes: Ihr Zusammenhang mit der politischen und der sozialen Entwicklung, Europa Verlag, Zürich 1950, ISBN 3-88059-965-3 Literatur Übersichtsdarstellungen in Handbüchern Thomas Schirren, Georg Rechenauer: Zum Leben der einzelnen Philosophen. 2. Anaximander und Niels Christian Dührsen: Anaximander. In: Hellmut Flashar u. a. (Hrsg.): Frühgriechische Philosophie (= Grundriss der Geschichte der Philosophie. Die Philosophie der Antike, Band 1), Halbband 1, Schwabe, Basel 2013, ISBN 978-3-7965-2598-8, S. 184–185 (Biographie) und 263–320 (Werk, Lehre, Rezeption) Einführungen und Untersuchungen Walter Burkert: Iranisches bei Anaximandros. In: Rheinisches Museum für Philologie. Neue Folge, Band 106, 1963, S. 97–134. Dirk L. Couprie, Robert Hahn, Gerard Naddaf: Anaximander in Context. New Studies in the Origins of Greek Philosophy. State University of New York Press, Albany (New York) 2003, ISBN 0-7914-5537-8 Maria Marcinkowska-Rosóɫ: Die Prinzipienlehre der Milesier. Berlin/Boston 2014. Thomas M. Robinson: Die Ionische Aufklärung. In: Friedo Ricken (Hrsg.): Philosophen der Antike. Band 1, Kohlhammer, Stuttgart u. a. 1996, ISBN 3-17-012719-5, S. 38–51, hier: S. 45 ff. Christof Rapp: Die Vorsokratiker. Beck, München 1997, ISBN 3-406-38938-4 Wolfgang Schadewaldt: Die Anfänge der Philosophie bei den Griechen. Tübinger Vorlesungen Band I. Frankfurt/M. 1978. Rezeption Carmela Baffioni: Anaximandre dans l'Islam. In: Richard Goulet (Hrsg.): Dictionnaire des philosophes antiques. Band Supplément. CNRS Editions, Paris 2003, ISBN 2-271-06175-X, S. 759–761 Carlo Rovelli: Die Geburt der Wissenschaft: Anaximander und sein Erbe. Rowohlt, Reinbek bei Hamburg 2019, ISBN 3-498-05398-1. Weblinks Textausgaben Verschiedene Textauszüge (griech., engl., franz.; PDF-Datei; 136 kB) Fragments and Commentary, engl. Übers. von Arthur Fairbanks, The First Philosophers of Greece, London: K. Paul, Trench, Trubner 1898, 8–16. Literatur Karl Bormann: Anaximander von Milet. In: UTB-Online-Wörterbuch Philosophie Dirk Couprie: Materialien zu Anaximander (englisch) Egon Gottwein: Anaximander Patricia Curd: „Presocratic Philosophy“, in: The Stanford Encyclopedia of Philosophy (Summer 2016 Edition), Edward N. Zalta (ed.). Fußnoten Vorsokratiker Astronom der Antike Kosmologe der Antike Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Person (Milet) Grieche (Antike) Geboren im 7. Jahrhundert v. Chr. Gestorben im 6. Jahrhundert v. Chr. Mann
385
https://de.wikipedia.org/wiki/Anita
Anita
Anita ist ein weiblicher Vorname. Herkunft und Bedeutung des Namens Anita ist eine spanische, portugiesische und kroatische Verkleinerungsform von Anna (hebräisch für die Begnadete) oder Kurzform von Juanita (siehe Johanna). Die Vergabe des Namens Anita setzt im deutschsprachigen Raum gegen Ende des 19. Jahrhunderts ein. Wahrscheinlich erfolgte die Entlehnung nicht direkt aus dem Spanischen, sondern aus dem italienischen Raum. In Italien geht die Verbreitung dieses Namens auf die Gattin des Freiheitskämpfers Giuseppe Garibaldi, Anita Garibaldi (Ana Maria de Jesus Ribeiro da Silva) zurück. Namenstag Namenstag ist für die im Ursprung hebräische Form der 26. Juli. Namensträgerinnen Anita Augspurg (1857–1943), deutsche Frauenrechtlerin Valerie Anita Aurora (* 1978), US-amerikanische Informatikerin und Gründerin einer gemeinnützigen Gesellschaft Anita Baker (* 1958), US-amerikanische Jazz- und Soul-Sängerin Anita Berber (1899–1928), deutsche erotische Tänzerin und Schauspielerin Anita Björk (1923–2012), schwedische Schauspielerin Anita Borg (1949–2003), US-amerikanische Computerwissenschafterin und Feministin Anita Briem (* 1982), isländische Schauspielerin und Musikerin Anita Brookner (1928–2016), britische Schriftstellerin Anita Bay Bundegaard (* 1963), dänische Politikerin und Journalistin Anita Cerquetti (1931–2014), italienische Sopranistin Anita Dobson (* 1949), britische Schauspielerin Anita Doth (* 1971), niederländische Sängerin Anita Eichhorn (* 1991), deutsche Filmschauspielerin Anita Ekberg (1931–2015), schwedische Schauspielerin und Fotomodell Anita Gillette (* 1936), US-amerikanische Schauspielerin Anita Gulli (* 1998), italienische Skirennläuferin Anita Hegerland (* 1961), Duettpartnerin von Roy Black Aníta Hinriksdóttir (* 1996), isländische Leichtathletin Anita Hofmann, österreichische Musicaldarstellerin und Tänzerin Anita Hofmann (* 1977), deutsche Schlagersängerin, siehe Anita & Alexandra Hofmann Anita Idel (* 1955), deutsche Tierärztin, Agrarwissenschaftlerin und Mediatorin Anita Kupsch (* 1940), deutsche Schauspielerin Anita Lindblom (1937–2020), schwedische Schauspielerin, Tänzerin und Sängerin Anita Lochner (* 1950), deutsch-US-amerikanische Schauspielerin, Synchronsprecherin und Übersetzerin Anita Mui (1963–2003), chinesische Sängerin und Schauspielerin Anita Nergaard (* 1967), norwegische Diplomatin Anita O’Day (1919–2006), US-amerikanische Jazzsängerin Anita Page (1910–2008), US-amerikanische Schauspielerin Anita Pallenberg (1942–2017), deutsch-italienisches Model, Schauspielerin und Modedesignerin Anita Pointer (1948–2022), US-amerikanische Sängerin Anita Sarkeesian (* 1984), kanadisch-amerikanische feministische Medienkritikerin und Videobloggerin Anita Spada (* 1913), deutsche Sängerin Anita Vulesica (* 1974), deutsche Schauspielerin Anita Wachter (* 1967), österreichische Skirennläuferin Anita Wagner (* 1960), österreichische Sängerin Anita Wagner (* 1994), bosnische Tennisspielerin Anita Ward (* 1956), US-amerikanische Sängerin Anita Włodarczyk (* 1985), polnische Hammerwerferin Anita Zabludowicz (* 1960), Kunstsammlerin und Galeristin Familienname Rogyaer Anita (* 1999), Fußballspieler für Bonaire Vurnon Anita (* 1989), Fußballspieler für Curaçao Einzelnachweise Weiblicher Vorname Kurzform (Vorname) Spanischer Personenname Portugiesischer Personenname Slawischer Personenname
386
https://de.wikipedia.org/wiki/Andreas
Andreas
Andreas ist ein männlicher Vorname, der auch als Familienname vorkommt. Bedeutung Abgeleitet wird der Name aus dem Altgriechischen andreios = mannhaft, tapfer. „Andreas“ wäre dann „der Männliche, der Tapfere“. Herkunft Der Name Andreas stammt aus Griechenland und findet dort erstmals in hellenistischer Zeit um 250 v. Chr. Erwähnung. Andere Varianten des Namens sind jedoch früher belegt, so taucht beispielsweise in der Olympialiste um 688 v. Chr. der Name Androlos auf. Mit den Römern gelangte der Name nach Mitteleuropa. Die Verbreitung des Namens geht auf den Apostel Andreas zurück (Bruder von Petrus). Durch das lateinische Christentum gelangte er erstmals nach Westeuropa. Aber auch in anderen Gebieten wie Palästina verbreitete sich der Name schnell. Nach England kam der Name „Andreas“ beziehungsweise „Andreus“ durch den Einfall der Normannen 1066. Dort ist der Name seit 1086 belegt. Das romanische Andreus wandelte sich mit der Zeit zu Andreu und schließlich zum englischen Andrew. Seit dem Mittelalter tritt der Name in ganz Europa häufig auf, besonders in England (13. Jahrhundert), Schottland und Skandinavien. Einen weiteren „Aufschwung“ gab es nach der Reformation. Familienname Wenngleich -as eine sehr verbreitete Namens-Endung in Griechenland ist, findet sich der Nachname trotz der Beliebtheit des Vornamens selten ohne zusätzliche Endungen. Der häufigste schwedische Nachname ist Andersson („Sohn des Anders = Andreas“), was daran liegt, dass Anders um 1900 der häufigste Vorname in Schweden war. Zu dieser Zeit wurden aus den Patronymen Nachnamen. Verbreitung Der Name Andreas war bereits im ausgehenden 19. Jahrhundert ein mäßig populärer Jungenvorname in Deutschland. Seine Popularität sank zunächst, um dann Mitte der 1940er Jahre stark anzusteigen. Von der Mitte der 1950er bis Anfang der 1980er Jahre war der Name unter den zehn beliebtesten Jungenvornamen des jeweiligen Jahres. Obwohl der Name es niemals auf Platz eins der Häufigkeitsstatistik eines Jahres schaffte, gehört er doch zu den vier insgesamt häufigsten Vornamen seit 1890 (nach Peter, Michael und Thomas). Ab den 1990er Jahren nahm seine Beliebtheit dann stark ab. Namenstag Der Namenstag von Andreas ist der 30. November (Andreastag), der Gedenktag des Apostels Andreas. Weitere Gedenktage der römisch-katholischen Kirche sind: Der Gedenktag des Anderl von Rinn war der 12. Juli. Anderl von Rinn wurde jedoch 1994 aus der Liste der Seligen gestrichen. Namensträger Einzelname Vorname Andreas Adityawarman (* 1987), indonesischer Badmintonspieler Andreas Baader (1943–1977), deutscher linksextremistischer Terrorist Andreas Benz (* 1958), deutscher Badmintonspieler und Trainer Andreas Bourani (* 1983), deutscher Sänger Andreas Bovenschulte (* 1965), deutscher Jurist, Politiker (SPD), Präsident des Senats und Bürgermeister von Bremen Andreas Brehme (* 1960), deutscher Fußballspieler Andreas Eschbach (* 1959), deutscher Schriftsteller Andreas Fröhlich (* 1965), deutscher Rezitator, Synchron-, Hörspiel- und Off-Sprecher Andreas Fulterer (1961–2016), italienischer Sänger Andreas Gabalier (* 1984), österreichischer Volksmusiksänger Andreas Giebel (* 1958), deutscher Schauspieler und Kabarettist Andreas Goldberger (* 1972), österreichischer Skispringer Andreas Hanft (1932–1996), deutscher Nachrichtensprecher, Schauspieler, Hörspiel- und Synchronsprecher Andreas Heinz (* 1941), deutscher katholischer Theologe Andreas Heinz (* 1991), deutscher Badmintonspieler Andreas Hofer (1767–1810), Anführer des Tiroler Volksaufstandes Andreas Helmling (1959–2019), deutscher Bildhauer Andreas Hoppe (* 1960), deutscher Schauspieler Andreas Kämmer (* 1984), deutscher Badmintonspieler Andreas Kieling (* 1959), deutscher Tierfilmer Andreas Klöden (* 1975), deutscher Radrennfahrer Andreas Luh (* 1959), deutscher Sportwissenschaftler Andreas Köpke (* 1962), deutscher Fußballspieler Andreas Martin (* 1952), deutscher Schlagersänger Andreas Möller (* 1967), deutscher Fußballspieler Andreas Molterer (1931–2023), österreichischer Skirennläufer Andreas Papandreou (1919–1996), griechischer Politiker Andreas Pietschmann (* 1969), deutscher Schauspieler Andreas Reinelt (* 1978), Zauberkünstler, Teil der Ehrlich Brothers Andreas Scheuer (* 1974), deutscher Politiker (CSU), Bundesminister Andreas Türck (* 1968), deutscher Fernsehmoderator Andreas Voßkuhle (* 1963), deutscher Rechtswissenschaftler und Präsident des Bundesverfassungsgerichts Andreas Wellinger (* 1995), deutscher Skispringer Andreas Wölk (* 1979), deutscher Badmintonspieler Andreas Zbinden (* 2000), Schweizer Badmintonspieler Familienname Varianten Weibliche Versionen sind Andrea, Andrina und Andriane. Siehe auch Andreaskreuz Andreasbrunnen Andreasmarkt San Andreas Weblinks Einzelnachweise Männlicher Vorname Griechischer Personenname Familienname
387
https://de.wikipedia.org/wiki/Anna
Anna
Anna ist ein weiblicher Vorname. Herkunft und Bedeutung Beim Namen Anna handelt es sich um die lateinische Variante des hebräischen Namens . Daneben lässt sich Anna auch als Kurzform von germanischen Namen, die mit der Silbe arn- „Adler“ beginnen, oder als Kurzform von Namen mit der Endung -anna deuten. Außerdem ist Anna Perenna die römische Neujahrsgöttin. Ihr Name bedeutet „stets wiederkehrendes Jahr“. Nach katholischer und orthodoxer Überlieferung ist Anna bzw. Hanna der Name der Großmutter Jesu Christi. Verbreitung Anna war schon im byzantinischen Reich ein sehr populärer Vorname, der sich im Mittelalter auch in Europa ausbreitete. Noch heute erfreut er sich international großer Beliebtheit. Hervorzuheben sind hier Österreich (Rang 2, Stand 2020), Tschechien (Rang 3, Stand 2016) und Ungarn (Rang 2, Stand 2019). In Deutschland gehört Anna zu den wenigen Vornamen, die seit 1890 durchgehend in den Vornamensstatistiken auftauchen. Im ausgehenden 19. und beginnenden 20. Jahrhundert zählte der Name zu den beliebtesten Mädchennamen und belegte dabei mehrfach den 1. Rang. Mit den 1920er Jahren sank die Popularität des Namens. In den 1940er bis 1960er Jahren wurde er kaum vergeben. Ein plötzliches Revival erlebte der Name in den 1970er Jahren. In den 1980er Jahren gehörte er wieder zu den beliebtesten Vornamen. In den 1990er und 2000er Jahren belegte er wieder mehrfach den 1. Rang der Statistik. Mittlerweile wird der Name wieder etwas seltener vergeben. Im Jahr 2021 belegte Anna Rang 18 der Hitliste. In Süddeutschland belegt der Name sogar Rang 7, als Zweitname steht er auf Rang 10. Namenstage 8. Februar: nach Anna Margareta Lorger 9. Februar: nach Anna Katharina Emmerick 7. Juni: nach Ana vom heiligen Bartholomäus 26. Juli: nach der Heiligen Anna 5. Oktober: nach Anna Schäffer 20. Oktober: nach Anna Francesca Boscardin 9. Dezember (orthodox: "Empfängnis der hl. Anna") Für weitere Namenstage: siehe Hanna Namensträgerinnen Herrscherinnen Weitere Adelige Anna (Falkenstein) († 1420), hessische Adlige Anna von Waldburg, Tochter des Johannes II. von Waldburg Anna zu Mecklenburg (1865–1882), Angehörige des großherzoglichen Hauses von Mecklenburg-Schwerin Anna Theresa von Savoyen (1717–1745), Prinzessin aus dem Hause Savoyen Anna Victoria von Savoyen (1683–1763), Prinzessin von Sachsen-Hildburghausen Herrscher Es existierten auch männliche Träger dieses Namens: Anna (East Anglia), König von East Anglia (635–654) Anne de Montmorency (1493–1567), Connétable von Frankreich Äbtissinnen und Priorinnen Anna von der Borch († 1512), Äbtissin des Klosters Kaufungen Anna von Gundelfingen (* zwischen 1360 und 1365; † 1410), Äbtissin des freiweltlichen Damenstifts Buchau im heutigen Bad Buchau am Federsee Anna von Henneberg († um 1363), Äbtissin des Klosters Sonnefeld Anna Sophia von Hessen-Darmstadt (1638–1683), als Anna Sophia II. Äbtissin des reichsunmittelbaren und freiweltlichen Stifts Quedlinburg Anna von Munzingen († 1327), deutsche Dominikanerin und Priorin im Kloster Adelhausen in Freiburg Anna von Nürnberg († 1383), Äbtissin des Klosters Himmelkron Maria Anna von Oeyen (1737–1813), die letzte Äbtissin von 1774 bis 1802 im Zisterzienserkloster St. Ludwig, Dalheim Anna Payer († 1546), Äbtissin in Basel Anna Dorothea von Sachsen-Weimar (1657–1704), Äbtissin des Reichsstifts Quedlinburg Anna Salome von Salm-Reifferscheidt (1622–1688), Fürstäbtissin des kaiserlich-freiweltlichen katholischen Stifts Essen Anna von Schlüsselberg († 1379), Äbtissin des Klosters Schlüsselau Anna II. zu Stolberg (1504–1574), Äbtissin des Reichsstiftes von Quedlinburg Anna III. zu Stolberg (1565–1601), Äbtissin des reichsunmittelbaren und freiweltlichen Stifts Quedlinburg Anna Erika von Waldeck (1551–1611), Äbtissin des Reichsstifts Gandersheim Anna von Weinburg (* vor 1303; † 1353), Äbtissin des freiweltlichen Damenstifts Buchau im heutigen Bad Buchau am Federsee Anna von Welck (1865–1925), Äbtissin des Klosters Drübeck Anna von Werdenberg († 1497), Äbtissin des Damenstifts Buchau Anna von Bolanden († 1320), pfälzische Adelige, Zisterzienserin in Worms Anna von Bussnang († 1404), Fürstäbtissin des Fraumünsterklosters in Zürich Anna Margarete von Braunschweig-Harburg (1567–1646), Pröpstin im Stift Quedlinburg Mythologische Personen Anna (Schwester der Dido), identifiziert mit Anna Perenna, einer römischen Göttin Heilige Anna (Heilige), Großmutter Jesu Christi Anna Schäffer, Heilige aus Mindelstetten, Deutschland Anna von Nowgorod, Heilige der russisch-orthodoxen Kirche Weiblicher Vorname Es gibt eine große Zahl von Persönlichkeiten mit Vornamen Anna. Siehe auch Anna Maria Agia Anna Anna-Kartoffeln Annenschule Anna selbdritt. Einzelnachweise Weiblicher Vorname Biblischer Personenname Deutscher Personenname
410
https://de.wikipedia.org/wiki/Auschwitz-Erlass
Auschwitz-Erlass
Als Auschwitz-Erlass wird der Erlass des Reichsführers SS Heinrich Himmler vom 16. Dezember 1942 bezeichnet, mit dem die Deportation der innerhalb des Deutschen Reichs lebenden Sinti und Roma angeordnet wurde, um sie als Minderheit – anders als bei vorausgegangenen individuellen oder kollektiven Deportationen – komplett zu vernichten. Er bildete die Grundlage für die Deportation von 23.000 Menschen aus fast ganz Europa (darunter etwa 13.000 aus Deutschland und Österreich) in das Vernichtungslager Auschwitz-Birkenau. Dort richtete die SS im Lagerabschnitt B II e ein so genanntes „Zigeunerfamilienlager“ ein. Der Erlass selbst ist nicht überliefert. Er wird jedoch in einem geheimen „Schnellbrief“ Arthur Nebes an die Kriminalpolizeileitstellen vom 29. Januar 1943 in Bezug genommen: Der Schnellbrief trug den Titel „Einweisung von Zigeunermischlingen, Rom-Zigeunern und balkanischen Zigeunern in ein Konzentrationslager“ und ging nachrichtlich unter anderem an das sog. Eichmannreferat (Amt IV Ref. B 4) im Reichssicherheitshauptamt. Mit der Verhaftung wurde das Eigentum aller Personen wie mitgebrachte Kleidung, Lebensmittelvorräte, Barmittel, Wertpapiere sowie Ausweise konfisziert. Nach Überstellung in das Lager sollten die zuständigen Einwohnermeldeämter zur Berichtigung der Melderegister von dem „Wegzug“ verständigt werden. Gleichartige Deportationsanordnungen ergingen am 26. und 28. Januar 1943 für die „Donau- und Alpenreichsgaue“ sowie am 29. März 1943 für den Bezirk Bialystok, das Elsass, Lothringen, Belgien, Luxemburg und die Niederlande. Gegenüber den Burgenlandroma und den ostpreußischen Sinti und Roma verwies das RKPA auf ähnliche Anweisungen vom 26. Mai bzw. 1. Oktober 1941 sowie vom 6. Juli 1942. Eine entscheidende Vorstufe des Erlasses war das Himmler-Thierack-Abkommen vom 18. September 1942. Es betrifft die Aufgabenteilung zwischen den NS-Behörden und wurde zwischen Reichsjustizministerium (Thierack) und dem obersten Polizeichef (Himmler) vereinbart. Es lautete: Darin werden die Justizbehörden (Gefängnisse, Untersuchungshaftanstalten etc.) angewiesen, Gefangene direkt und ohne Verfahren an die SS zu überstellen. Die Tötungsabsicht durch Zwangsarbeit ist in kaum einem anderen offiziellen Papier so offen dargestellt worden. Erfassung: Zuschreibungsdiskurs Die Deportation nach den Vorgaben des Erlasses setzte die Kategorisierung und reichsweite Erfassung der zu Deportierenden voraus. Zu der Frage, wer „Zigeuner“ sei, gab es im NS-Zigeunerdiskurs im Wesentlichen drei Meinungen: „Vollzigeuner“ und „Mischlinge mit vorwiegendem zigeunerischen Blutsanteil“ (so die Ehebestimmungen nach dem „Blutschutzgesetz“, einem der beiden Nürnberger Gesetze von 1935) „stammechte Zigeuner“ und „Zigeunermischlinge“ (so Rassenhygienische und bevölkerungsbiologische Forschungsstelle [RHF] und Reichskriminalpolizeiamt [RKPA]), insgesamt als „Zigeuner“ bezeichnet „Zigeuner“ ohne weitere Unterscheidungen, die als Spitzfindigkeiten angesehen wurden (so z. B. Goebbels, Bormann, Thierack). Gemeinsam war diesen Zuschreibungsvarianten die sowohl ethnische als auch soziale Interpretation der rassenideologischen Grundposition. Demnach verlief die rassische bzw. völkische Demarkationslinie zwischen „Vollzigeunern“ und „Zigeunermischlingen“, die zusammen die „fremdrassige“ und kollektiv „asoziale“ Gruppe der „Zigeuner“ ausmachten, auf der einen und einer Vielzahl von vor allem subproletarischen Sozialgruppen „deutschblütiger Asozialer“ auf der anderen Seite. In diesem Sinn waren bereits im Gefolge der Nürnberger Gesetze seit 1936 wie bei den Ehevorschriften gegen Juden Heiraten zwischen „Deutschblütigen“ und „Vollzigeunern“ bzw. „Zigeunermischlingen“ genehmigungspflichtig. „Regelung aus dem Wesen dieser Rasse“ Am 8. Dezember 1938 hatte Himmler in einem Runderlass eine „Regelung der Zigeunerfrage aus dem Wesen dieser Rasse“ angekündigt. Bestimmend für dessen Umsetzung in operative reichszentrale Vorschriften wurden die Vorstellungen von RHF und RKPA. 1937 nahm die RHF ihre Erfassungstätigkeit auf. 1940 ging deren Leiter Robert Ritter von 32.230 „Zigeunern“ im Deutschen Reich aus (einschließlich Österreich und Sudetenland, aber ausschließlich Elsaß-Lothringen). Bis zum November 1942, d. h. bis kurz vor dem Auschwitz-Erlass entstanden in der RHF nach Angabe ihres Leiters 18.922 Gutachten. 2.652 davon ergaben „Nichtzigeuner“, wie sie für ein gesondertes „Landfahrersippenarchiv“ erfasst wurden. Dessen Bezugsraum beschränkte sich im Wesentlichen auf bestimmte Teilregionen im Süden des Reichs. Die Arbeiten daran wurden 1944 eingestellt, ohne dass es bis zu diesem Zeitpunkt zu Deportationen wie nach dem Auschwitz-Erlass gekommen wäre. Eine Teilgruppe der „Nichtzigeuner“ bildeten „nach Zigeunerart lebende“ Jenische. Es gelang der RHF nicht, die Verantwortlichen für die Normierung der nationalsozialistischen Rasse- und Asozialenpolitik „davon zu überzeugen, dass die Jenischen eine relevante rassenhygienische Gruppe und Bedrohung darstellen“. Das erklärt, dass sie als Fallgruppe im Auschwitz-Erlass bzw. in dessen Ausführungsbestimmungen vom 29. Januar 1943 und demzufolge, soweit erkennbar, im „Hauptbuch“ des „Zigeunerlagers“ in Birkenau nicht oder kaum vorkommen. Der RHF und dem RKPA galten „Zigeuner“ insgesamt als eine in einem langen Zeitraum entstandene „Mischrasse“. Die Unterscheidung zwischen „stammechten Zigeunern“ und „Mischlingszigeunern“ wurde pseudowissenschaftlich mit sich aus der Abstammung ergebenden „gemischten Blutsanteilen“ begründet, wodurch die Bindung der „Mischlinge“ an traditionelle „Stammes“normierungen reduziert oder aufgegeben worden sei. Die Teilgruppe der „Mischlinge“ galt der RHF nicht zuletzt aufgrund einer angeblich ungewöhnlichen sexuellen „Hemmungslosigkeit“ als besonders gefährlich. Ihre Angehörigen würden danach streben, in den deutschen Volkskörper einzudringen. Ähnlich sah es die Führung der SS, wenngleich sie von „rassereinen“ statt von „stammechten Zigeunern“ sprach, die sie als noch ursprüngliche „Arier“ und Forschungsobjekte in einem Reservat unterzubringen beabsichtigte, in dem ihnen zugestanden werden sollte, ein ihnen unterstelltes archaisches „Nomadentum“ auszuleben. Der Erlass zur „Auswertung der rassenbiologischen Gutachten über zigeunerische Personen“ vom 7. August 1941 differenzierte stärker als bislang im Sinne des ethnischen Rassismus und ließ den alten Begriff des „nach Zigeunerart umherziehenden Landfahrers“ fallen. Er unterschied zwischen „Vollzigeunern bzw. stammechten Zigeunern“, „Zigeuner-Mischlingen mit vorwiegend zigeunerischem Blutsanteil“ (1. Grades, 2. Grades), „Zigeuner-Mischlingen mit vorwiegend deutschem Blutsanteil“ und „Nicht-Zigeunern“: „NZ bedeutet Nicht-Zigeuner, d. h. die Person ist oder gilt als deutschblütig“. Diese Aufgliederung lag den Gutachten und den Auflistungen der RHF zugrunde, nach denen ab Frühjahr 1943 von regionalen und lokalen Instanzen die Selektionsentscheidungen getroffen wurden. Den ganz überwiegenden Teil der „Zigeuner“ stufte die RHF als „Mischlinge“ ein. Insoweit „Zigeuner-Mischlinge mit vorwiegend deutschem Blutsanteil“ als „Nicht-Zigeuner“ geltend eingestuft werden konnten, legte eine gemeinsame Besprechung von RHF, RKPA und Reichssicherheitshauptamt (RSHA) Mitte Januar 1943 fest, dass sie zwar „polizeilich wie Deutschblütige“ anzusehen, im Übrigen aber zu sterilisieren seien. Steht auch der Auschwitz-Erlass im allgemeinen Zusammenhang nationalsozialistischer Rassenpolitik und -hygiene, so verweist doch der Zeitpunkt auf einen weiteren Kontext: den des verstärkten Arbeitseinsatzes von KZ-Häftlingen in der Industrie, weshalb die Zahl der Inhaftierten gesteigert werden sollte. Die Ausnahmebestimmungen Der Schnellbrief vom 29. Januar 1943 sah die Herausnahme einiger Gruppen aus der Deportation vor. Alle anderen über „Zigeuner“ verhängten Verfolgungsmaßnahmen blieben auch für sie in Kraft. So wie einerseits „Nicht-Zigeuner“ bereits vom Auschwitz-Erlass selbst ausgenommen waren, sollten andererseits nach dem Schnellbrief vom 29. Januar 1943 die „reinrassigen“ oder als „im zigeunerischen Sinne gute Mischlinge“ kategorisierten Angehörigen der Sinti und Lalleri – von der Umsetzung des Erlasses ausgenommen sein. Die Zahl der von „Zigeunerhäuptlingen“, die das RKPA eingesetzt hatte, auf diesem Weg von der Auschwitz-Deportation Ausgenommenen war „verschwindend gering“. Sie betrug „weniger als ein Prozent“ der rund 30.000 bei Kriegsbeginn im Deutschen Reich Lebenden. Als weitere Ausnahmegruppen nannte der Schnellbrief mit „Deutschblütigen“ Verheiratete, Wehrmachtssoldaten, Kriegsversehrte, mit Auszeichnung aus der Wehrmacht Entlassene, „sozial angepaßte Zigeunermischlinge“ und solche, die von den Arbeitsämtern oder den Rüstungsinspektionen als wehrwirtschaftlich unverzichtbare Arbeitskräfte bezeichnet wurden. Die Ausnahmebestimmungen eröffneten den unteren staatlichen Instanzen, der Wirtschaft und der Wehrmacht erhebliche Handlungsspielräume, die auf sehr unterschiedliche Weise genutzt wurden. Der Schnellbrief sah vor, sie mit Ausnahme der „Reinrassigen“ und der „im zigeunerischen Sinne guten Mischlinge“ unfruchtbar zu machen. Die Selektions- und Deportationspraxis Ziel der Deportation war das Vernichtungslager Auschwitz II in Birkenau. Dort entstand im Lagerabschnitt B II e als abgetrennter Bereich das „Zigeunerlager“. Ein erster Transport traf dort am 26. Februar 1943 ein. Bis Ende Juli 1944 waren es etwa 23.000 Menschen, die entsprechend dem Schnellbrief vom 29. Januar 1943 als Familien „möglichst geschlossen“ in das „Familienlager“ verbracht worden waren. Über die Zusammensetzung der Transportlisten entschieden vor allem die lokalen und regionalen Behörden. Dabei bildeten die Gutachten der RHF – soweit solche vorlagen – die Leitlinie. Lokalstudien, aber auch Aussagen von Rudolf Höß und anderen Verantwortlichen belegen, dass die Vorschriften über Ausnahmefallgruppen nur begrenzt Beachtung fanden. Demnach habe der Mischlingsgrad bei der Einweisung nach Auschwitz keine Bedeutung gehabt. Hunderte Soldaten, darunter Kriegsversehrte und Ausgezeichnete, seien eingewiesen worden. Aus der Wittgensteiner Kleinstadt Berleburg wurden 134 Personen deportiert, die als „sozial angepasst“ zu gelten hatten und sich nach 200 Jahren Sesshaftigkeit so gut wie ausnahmslos nicht als „Zigeuner“ sahen. Da die Selbsteinschätzung der Betroffenen kein Auswahlkriterium war, wurde mutmaßlich auch eine nicht bestimmbare, jedenfalls aber geringe Zahl von Nicht-Sinti und Nicht-Roma die aufgrund verwandtschaftlicher Beziehungen zu Sinti und Roma als „Zigeunermischlinge“ eingestuft waren, deportiert. „Insgesamt wurden an die 15.000 Menschen aus Deutschland zwischen 1938 und 1945 als ‚Zigeuner‘ oder ‚Zigeunermischlinge‘ umgebracht“, davon etwa 10.500 in Auschwitz-Birkenau. Entschädigung und Gedenken Den Verfolgten stand nach einem Urteil des Bundesgerichtshofs (BGH) vom 7. Januar 1956 eine Wiedergutmachung nach dem Bundesentschädigungsgesetz (BEG) erst für den Zeitraum ab dem 1. März 1943 – dem Wirkungsdatum des „Auschwitz-Erlasses“ – zu. Das Gericht hatte in Übereinstimmung mit der damals herrschenden Literatur entschieden, dass insbesondere die Umsiedlungsaktion von Sinti und Roma nach dem Generalgouvernement aufgrund eines Schnellbriefs des Reichsführers SS und Chefs der Deutschen Polizei vom 27. April 1940 nicht allein aus Gründen der Rassenpolitik der nationalsozialistischen Gewalthaber durchgeführt worden sei, sondern zur „Bekämpfung des Zigeunerunwesens,“ „ihrer asozialen Eigenschaften“ und „durch die Zigeunerplage hervorgerufener Mißstände,“ daher nicht entschädigungspflichtig nach § 1 BEG. Aufgrund neuer historischer Erkenntnisse sowie Veränderungen im gesellschaftlichen Klima und im Umgang mit der nationalsozialistischen Vergangenheit hob der BGH diese Rechtsprechung 1963 auf. Zum Gedenken an den Erlass hat der Künstler Gunter Demnig in Kooperation mit dem Verein Rom e. V. am 16. Dezember 1992, dem 50. Jahrestag des Erlasses, einen Stolperstein vor dem historischen Kölner Rathaus in das Pflaster eingelassen. Auf dem Stein zu lesen sind die ersten Zeilen des den Erlass zitierenden Schnellbriefs. Demnig mischte sich mit diesem Stein in die Diskussion um das Bleiberecht von aus Jugoslawien geflohenen Roma ein. Siehe auch Zigeunerzentrale: Einordnung der NS-Vernichtungspolitik in den jahrzehntelangen polizeilichen Verfolgungsdiskurs bis weit in die 1960er Jahre; die NS-"Reichszentrale zur Bekämpfung des Zigeunerunwesens" Mit dem Festsetzungserlass bzw. Festschreibungserlass vom 17. Oktober 1939 wird eine Verfügung bezeichnet, die das Reichssicherheitshauptamt auf Anweisung Himmlers an die Kriminalpolizei-Leitstellen im Deutschen Reich sandte. Die verbliebene Bewegungsfreiheit der Angehörigen der Minderheit wurde in der Folge beseitigt. Literatur Udo Engbring-Romang: Die Verfolgung der Sinti und Roma in Hessen zwischen 1870 und 1950. Brandes und Apsel, Frankfurt am Main 2001, ISBN 3-86099-225-2, S. 342–347. Martin Luchterhandt: Der Weg nach Birkenau. Entstehung und Verlauf der nationalsozialistischen Verfolgung der ‚Zigeuner’. Schmidt-Römhild, Lübeck 2000, ISBN 3-7950-2925-2. Romani Rose (Hrsg.) „Den Rauch hatten wir täglich vor Augen...“: Der nationalsozialistische Völkermord an den Sinti und Roma. Verlag Wunderhorn, Heidelberg 1999, ISBN 3-88423-142-1 (Dokumentation zur Verfolgung im KZ Auschwitz-Birkenau). Michael Zimmermann: Rassenutopie und Genozid. Die nationalsozialistische „Lösung der Zigeunerfrage“. Christians, Hamburg 1996, ISBN 3-7672-1270-6. Michael Zimmermann (Hrsg.): Zwischen Erziehung und Vernichtung. Zigeunerpolitik und Zigeunerforschung im Europa des 20. Jahrhunderts. Steiner, Stuttgart 2007, ISBN 978-3-515-08917-3. Weblinks Stiftung niedersächsische Gedenkstätten: Schnellbrief des Reichssicherheitshauptamts vom 29. Januar 1943 an die Kriminalpolizeileitstellen zur „Einweisung von Zigeunermischlingen, Róm-Zigeunern und balkanischen Zigeunern in ein Konzentrationslager,“ unterzeichnet von Arthur Nebe. Einzelnachweise Rechtsquelle (20. Jahrhundert) Rechtsquelle (Zeit des Nationalsozialismus) Porajmos KZ Auschwitz Heinrich Himmler Ereignis 1942 Wikipedia:Artikel mit Video
412
https://de.wikipedia.org/wiki/Asteroid
Asteroid
Als Asteroiden (von ), Kleinplaneten oder Planetoiden werden astronomische Kleinkörper bezeichnet, die sich auf keplerschen Umlaufbahnen um die Sonne bewegen und größer als Meteoroiden (Millimeter bis Meter), aber kleiner als Zwergplaneten (ca. tausend Kilometer) sind. Der Begriff Asteroid wird oft als Synonym von Kleinplanet verwendet, bezieht sich aber hauptsächlich auf Objekte innerhalb der Neptun­bahn und ist kein von der IAU definierter Begriff. Jenseits der Neptunbahn werden solche Körper auch transneptunische Objekte (TNO) genannt. Nach neuerer Definition fasst der Begriff Kleinplanet die „klassischen“ Asteroiden und die TNO zusammen. Bislang sind über 1,316 Millionen Asteroiden im Sonnensystem bekannt (Stand: 13. Oktober 2023), wobei jeden Monat mehrere Tausend neue Entdeckungen hinzukommen und die tatsächliche Anzahl wohl in mehrere Millionen gehen dürfte. Asteroiden haben im Gegensatz zu den Zwergplaneten definitionsgemäß eine zu geringe Masse, um in ein hydrostatisches Gleichgewicht zu kommen und eine annähernd runde Form anzunehmen, und sind daher generell unregelmäßig geformte Körper. Nur die wenigsten haben mehr als einige hundert Kilometer Durchmesser. Große Asteroiden im Asteroidengürtel sind die Objekte (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, (7) Iris, (10) Hygiea und (15) Eunomia. Bezeichnungen Die Bezeichnung Asteroid bezieht sich auf die Größe der Objekte. Asteroid bedeutet wörtlich „sternartig“. Fast alle sind so klein, dass sie im Teleskop wie der Lichtpunkt eines Sterns erscheinen. Die Planeten erscheinen hingegen als kleine Scheibe mit einer gewissen räumlichen Ausdehnung. Die Bezeichnung Kleinplanet oder Planetoid rührt daher, dass sich die Objekte am Firmament wie Planeten relativ zu den Sternen bewegen. Asteroiden sind keine Planeten und gelten auch nicht als Zwergplaneten, denn aufgrund ihrer geringen Größe ist die Gravitation zu schwach, um sie annähernd zu einer Kugel zu formen. Gemeinsam mit Kometen und Meteoroiden gehören Asteroiden zur Klasse der Kleinkörper. Meteoroiden sind kleiner als Asteroiden, aber zwischen ihnen und Asteroiden gibt es weder von der Größe noch von der Zusammensetzung her eine eindeutige Grenze. Zwergplaneten Seit der 26. Generalversammlung der Internationalen Astronomischen Union (IAU) und ihrer Definition vom 24. August 2006 zählen die großen runden Objekte, deren Gestalt sich im hydrostatischen Gleichgewicht befindet, strenggenommen nicht mehr zu den Asteroiden, sondern zu den Zwergplaneten. (1) Ceres (975 km Durchmesser) ist das größte Objekt im Asteroidengürtel und wird als einziges Objekt zu den Zwergplaneten gezählt. (2) Pallas und (4) Vesta sind große Objekte im Asteroidengürtel, beide sind aber nicht rund und somit per Definition keine Zwergplaneten. Im Kuipergürtel gibt es neben dem – früher als Planet und heute als Zwergplanet eingestuften – Pluto (2390 km Durchmesser) weitere Zwergplaneten: (136199) Eris (2326 km), (136472) Makemake (1430 × 1502 km), (136108) Haumea (elliptisch, etwa 1920 × 1540 × 990 km), (50000) Quaoar (1110 km) und (90482) Orcus (917 km). Das Ende 2003 jenseits des Kuipergürtels entdeckte etwa 995 km große Objekt (90377) Sedna dürfte ebenfalls als Zwergplanet einzustufen sein. Die Geschichte der Asteroidenforschung Vermuteter Kleinplanet und die „Himmelspolizey“ Bereits im Jahr 1760 entwickelte der deutsche Gelehrte Johann Daniel Titius eine einfache mathematische Formel (Titius-Bode-Reihe), nach der die Sonnenabstände der Planeten einer einfachen numerischen Folge entsprechen. Nach dieser Folge müsste es allerdings zwischen Mars und Jupiter einen weiteren Planeten im Sonnenabstand von 2,8 AE geben. Auf diesen offenbar noch unentdeckten Planeten setzte gegen Ende des 18. Jahrhunderts eine regelrechte Jagd ein. Für eine koordinierte Suche wurde 1800, als erstes internationales Forschungsvorhaben, die Himmelspolizey gegründet. Organisator war Baron Franz Xaver von Zach, der seinerzeit an der Sternwarte Gotha tätig war. Der Sternhimmel wurde in 24 Sektoren eingeteilt, die von Astronomen in ganz Europa systematisch abgesucht wurden. Für den Planeten hatte man bereits den Namen „Phaeton“ reservieren lassen. Die Suche blieb insofern erfolglos, als der erste Kleinplanet (Ceres) zu Jahresbeginn 1801 durch Zufall entdeckt wurde. Allerdings bewährte sich die Himmelspolizey bald in mehrfacher Hinsicht: mit der Wiederauffindung des aus den Augen verlorenen Kleinplaneten, mit verbesserter Kommunikation über Himmelsentdeckungen und mit der erfolgreichen Suche nach weiteren Kleinplaneten zwischen 1802 und 1807. Die Entdeckung der ersten Kleinplaneten In der Neujahrsnacht des Jahres 1801 entdeckte der Astronom und Theologe Giuseppe Piazzi im Teleskop der Sternwarte von Palermo (Sizilien) bei der Durchmusterung des Sternbildes Stier einen schwach leuchtenden Himmelskörper, der in keiner Sternkarte verzeichnet war. Piazzi hatte von Zachs Forschungsvorhaben gehört und beobachtete das Objekt in den folgenden Nächten, da er vermutete, den gesuchten Planeten gefunden zu haben. Er sandte seine Beobachtungsergebnisse an Zach, wobei er es zunächst als neuen Kometen bezeichnete. Piazzi erkrankte jedoch und konnte seine Beobachtungen nicht fortsetzen. Bis zur Veröffentlichung seiner Beobachtungen verging viel Zeit. Der Himmelskörper war inzwischen weiter in Richtung Sonne gewandert und konnte zunächst nicht wiedergefunden werden. Der Mathematiker Gauß hatte allerdings ein numerisches Verfahren entwickelt, das es erlaubte, unter Anwendung der Methode der kleinsten Quadrate die Bahnen von Planeten oder Kometen anhand nur weniger Positionen zu bestimmen. Nachdem Gauß die Veröffentlichungen Piazzis gelesen hatte, berechnete er die Bahn des Himmelskörpers und sandte das Ergebnis nach Gotha. Heinrich Wilhelm Olbers entdeckte das Objekt daraufhin am 31. Dezember 1801 wieder, das schließlich den Namen Ceres erhielt. Im Jahr 1802 entdeckte Olbers einen weiteren Himmelskörper, den er Pallas nannte. 1803 wurde Juno, 1807 Vesta entdeckt. Bis zur Entdeckung des fünften Asteroiden, Astraea im Jahr 1845, vergingen allerdings 38 Jahre. Die bis dahin entdeckten Asteroiden wurden damals noch nicht als solche bezeichnet – sie galten zu dieser Zeit als vollwertige Planeten. So kam es, dass der Planet Neptun bei seiner Entdeckung im Jahr 1846 nicht als achter, sondern als dreizehnter Planet gezählt wurde. Ab dem Jahr 1847 folgten allerdings so rasch weitere Entdeckungen, dass bald beschlossen wurde, für die zahlreichen, aber allesamt doch recht kleinen Himmelskörper, welche die Sonne zwischen Mars und Jupiter umkreisen, eine neue Objektklasse von Himmelskörpern einzuführen: die Asteroiden, die sogenannten kleinen Planeten. Die Zahl der großen Planeten sank somit auf acht. Bis zum Jahr 1890 wurden insgesamt über 300 Asteroiden entdeckt. Fotografische Suchmethoden, Radarmessungen Nach 1890 brachte die Anwendung der Fotografie in der Astronomie wesentliche Fortschritte. Die Asteroiden, die bis dahin mühsam durch den Vergleich von Teleskopbeobachtungen mit Himmelskarten gefunden wurden, verrieten sich nun durch Lichtspuren auf den fotografischen Platten. Durch die im Vergleich zum menschlichen Auge höhere Lichtempfindlichkeit der fotografischen Emulsionen konnten, in Kombination mit langen Belichtungszeiten bei Nachführung des Teleskops quasi im Zeitraffer, äußerst lichtschwache Objekte nachgewiesen werden. Durch den Einsatz der neuen Technik stieg die Zahl der entdeckten Asteroiden rasch an. Ein Jahrhundert später, um 1990, löste die digitale Fotografie in Gestalt der CCD-Kameratechnik einen weiteren Entwicklungssprung aus, der durch die Möglichkeiten der computerunterstützten Auswertung der elektronischen Aufnahmen noch potenziert wird. Seither hat sich die Zahl jährlich aufgefundener Asteroiden nochmals vervielfacht. Ist die Bahn eines Asteroiden bestimmt worden, kann die Größe des Himmelskörpers aus der Untersuchung seiner Helligkeit und des Rückstrahlvermögens, der Albedo, ermittelt werden. Dazu werden Messungen mit sichtbaren Lichtfrequenzen sowie im Infrarotbereich durchgeführt. Diese Methode ist allerdings mit Unsicherheiten verbunden, da die Oberflächen der Asteroiden chemisch unterschiedlich aufgebaut sind und das Licht unterschiedlich stark reflektieren. Genauere Ergebnisse können mittels Radarbeobachtungen erzielt werden. Dazu können Radioteleskope verwendet werden, die, als Sender umfunktioniert, starke Radiowellen in Richtung der Asteroiden aussenden. Durch die Messung der Laufzeit der von den Asteroiden reflektierten Wellen kann deren exakte Entfernung bestimmt werden. Die weitere Auswertung der Radiowellen liefert Daten zu Form und Größe. Regelrechte „Radarbilder“ lieferte beispielsweise die Beobachtung der Asteroiden (4769) Castalia und (4179) Toutatis. Automatisierte Durchmusterungen Neue und weiterentwickelte Technologien sowie fortgesetzte Leistungssteigerung von Detektoren und elektronischer Datenverarbeitung ermöglichten seit den 1990er Jahren eine Reihe von automatisierten Suchprogrammen mit verschiedenen Zielsetzungen. Diese Durchmusterungen haben einen erheblichen Anteil an der Neuentdeckung von Asteroiden. Eine Reihe von Suchprogrammen konzentriert sich auf erdnahe Asteroiden z. B. LONEOS, LINEAR, NEAT, NeoWise, Spacewatch, Catalina Sky Survey und Pan-STARRS. Sie haben erheblichen Anteil daran, dass quasi täglich neue Asteroiden gefunden werden, deren Anzahl Mitte Juli 2020 über 900.000 erreicht hatte. In naher Zukunft wird sich die Zahl der bekannten Asteroiden nochmals deutlich erhöhen, da für die nächsten Jahre Durchmusterungen mit erhöhter Empfindlichkeit geplant sind, zum Beispiel Gaia und LSST. Allein die Raumsonde Gaia soll nach Modellrechnungen bis zu eine Million bisher unbekannter Asteroiden entdecken. Beobachtungen mit Raumsonden Eine Reihe von Asteroiden konnte mittels Raumsonden näher untersucht werden: Die Raumsonde Galileo flog auf ihrem Weg zum Planeten Jupiter im Jahr 1991 am Asteroiden (951) Gaspra und 1993 an (243) Ida vorbei. Die Sonde NEAR-Shoemaker passierte 1997 den Asteroiden (253) Mathilde und landete 2001 auf (433) Eros. Die Sonde Deep Space 1 näherte sich 1999 dem Asteroiden (9969) Braille bis zu einem Abstand von lediglich 28 km. Die Sonde Stardust zog 2002 in 3.300 km Entfernung am Asteroiden (5535) Annefrank vorbei. Die japanische Sonde Hayabusa erreichte 2005 den Asteroiden (25143) Itokawa und entnahm erstmals Gesteinsproben von einem Asteroiden. Im Juni 2009 warf sie eine Kapsel mit diesen Proben über Australien ab. Im November 2010 bestätigte die JAXA, dass die Proben – etwa 1500 meist sehr kleine Partikel – definitiv von dem Asteroiden stammten. Die europäische Sonde Rosetta passierte 2008 den Asteroiden (2867) Šteins und 2010 den Asteroiden (21) Lutetia. Von Juli 2011 bis September 2012 befand sich die 2007 gestartete Raumsonde Dawn im Orbit um (4) Vesta. Anschließend machte sich die Raumsonde auf den Weg zum Zwergplaneten Ceres, den sie 2015 erreichte. Dez 2012: Vorbeiflug der chinesischen Sonde Chang’e 2 an Asteroid (4179) Toutatis. Weitere Missionen sind geplant, unter anderem: Für das Jahr 2024 plant die japanische Raumfahrtagentur JAXA die Mission Destiny Plus zum Asteroiden (3200) Phaethon. Benennung Die Namen der Asteroiden setzen sich aus einer vorangestellten Nummer und einem Namen zusammen. Die Nummer gab früher die Reihenfolge der Entdeckung des Himmelskörpers an. Heute ist sie eine rein numerische Zählform, da sie erst vergeben wird, wenn die Bahn des Asteroiden gesichert und das Objekt jederzeit wiederauffindbar ist; das kann durchaus erst Jahre nach der Erstbeobachtung erfolgen. Von den bisher bekannten 1.316.623 Asteroiden haben 629.008 eine Nummer (Stand: 13. Oktober 2023). Der Entdecker hat innerhalb von zehn Jahren nach der Nummerierung das Vorschlagsrecht für die Vergabe eines Namens. Dieser muss jedoch durch eine Kommission der IAU bestätigt werden, da es Richtlinien für die Namen astronomischer Objekte gibt. Dementsprechend existieren zahlreiche Asteroiden zwar mit Nummer, aber ohne Namen, vor allem in den oberen Zehntausendern. Neuentdeckungen, für die noch keine Bahn mit ausreichender Genauigkeit berechnet werden konnte, werden mit dem Entdeckungsjahr und einer Buchstabenkombination, beispielsweise 2003 UB313, gekennzeichnet. Die Buchstabenkombination setzt sich aus dem ersten Buchstaben für die Monatshälfte (beginnend mit A und fortlaufend bis Y ohne I) und einem fortlaufenden Buchstaben (A bis Z ohne I) zusammen. Wenn mehr als 25 Kleinplaneten in einer Monatshälfte entdeckt werden – was heute die Regel ist – beginnt die Buchstabenkombination von vorne, gefolgt von jeweils einer je Lauf um eins erhöhten laufenden Nummer. Der erste Asteroid wurde 1801 von Giuseppe Piazzi an der Sternwarte Palermo auf Sizilien entdeckt. Piazzi taufte den Himmelskörper auf den Namen „Ceres Ferdinandea“. Die römische Göttin Ceres ist Schutzpatronin der Insel Sizilien. Mit dem zweiten Namen wollte Piazzi König Ferdinand IV., den Herrscher über Italien und Sizilien ehren. Dies missfiel der internationalen Forschergemeinschaft und der zweite Name wurde fallengelassen. Die offizielle Bezeichnung des Asteroiden lautet demnach (1) Ceres. Bei den weiteren Entdeckungen wurde die Nomenklatur beibehalten und die Asteroiden wurden nach römischen und griechischen Göttinnen benannt; dies waren (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, und so weiter. Als immer mehr Asteroiden entdeckt wurden, gingen den Astronomen die antiken Gottheiten aus. So wurden Asteroiden unter anderem nach den Ehefrauen der Entdecker, zu Ehren historischer Persönlichkeiten oder Persönlichkeiten des öffentlichen Lebens, Städten und Märchenfiguren benannt. Beispiele hierfür sind die Asteroiden (21) Lutetia, (216) Kleopatra, (719) Albert, (1773) Rumpelstilz, (5535) Annefrank, (17744) Jodiefoster. Neben Namen aus der griechisch-römischen Mythologie kommen auch Namen von Gottheiten aus anderen Kulturkreisen zur Anwendung, insbesondere für neu entdeckte, größere Objekte, wie (20000) Varuna, (50000) Quaoar und (90377) Sedna. Monde von Asteroiden erhalten zu ihrem Namen keine permanente Nummer und gelten nicht als Asteroiden oder Kleinkörper, da sie nicht selbstständig die Sonne umlaufen. Entstehung Zunächst gingen die Astronomen davon aus, dass die Asteroiden das Ergebnis einer kosmischen Katastrophe seien, bei der ein Planet zwischen Mars und Jupiter auseinanderbrach und Bruchstücke auf seiner Bahn hinterließ. Es zeigte sich jedoch, dass die Gesamtmasse der im Hauptgürtel vorhandenen Asteroiden sehr viel geringer ist als die des Erdmondes. Schätzungen der Gesamtmasse der Kleinplaneten schwanken zwischen 0,1 und 0,01 Prozent der Erdmasse (Der Mond hat etwa 1,23 Prozent der Erdmasse). Daher wird angenommen, dass die Asteroiden eine Restpopulation von Planetesimalen aus der Entstehungsphase des Sonnensystems darstellen. Die Gravitation von Jupiter, dessen Masse am schnellsten zunahm, verhinderte die Bildung eines größeren Planeten aus dem Asteroidenmaterial. Die Planetesimale wurden auf ihren Bahnen gestört, kollidierten immer wieder heftig miteinander und zerbrachen. Ein Teil wurde auf Bahnen abgelenkt, die sie auf Kollisionskurs mit den Planeten brachten. Hiervon zeugen noch die Einschlagkrater auf den Planetenmonden und den inneren Planeten. Die größten Asteroiden wurden nach ihrer Entstehung stark erwärmt (hauptsächlich durch den radioaktiven Zerfall des Aluminium-Isotops 26Al und möglicherweise auch des Eisenisotops 60Fe) und im Innern aufgeschmolzen. Schwere Elemente, wie Nickel und Eisen, setzten sich infolge der Schwerkraftwirkung im Inneren ab, die leichteren Verbindungen, wie die Silikate, verblieben in den Außenbereichen. Dies führte zur Bildung von differenzierten Körpern mit metallischem Kern und silikatischem Mantel. Ein Teil der differenzierten Asteroiden zerbrach bei weiteren Kollisionen, wobei Bruchstücke, die in den Anziehungsbereich der Erde geraten, als Meteoriten niedergehen. Klassifikationsschemata von Asteroiden Die spektroskopische Untersuchung der Asteroiden zeigte, dass deren Oberflächen chemisch unterschiedlich zusammengesetzt sind. Analog erfolgte eine Einteilung in verschiedene spektrale, beziehungsweise taxonomische Klassen. Klassifikationsschema nach Tholen David J. Tholen veröffentlichte 1984 für die Einordnung von Asteroiden anhand ihrer Spektraleigenschaften ein Klassifikationsschema mit 14 Klassen, die wiederum in 3 Gruppen (C, S und X) zusammengefasst sind: A-Asteroiden: Das Spektrum der A-Asteroiden zeigt deutliche Olivinbanden und weist auf einen völlig differenzierten Mantelbereich hin. A-Asteroiden halten sich im inneren Bereich des Hauptgürtels auf. Beispiele wären (446) Aeternitas, (1951) Lick und (1747) Wright. B-Asteroiden: Ähnlich zusammengesetzt wie die C- und G-Klasse. Abweichungen im UV-Bereich. Beispiele: (62) Erato, (2) Pallas, (3200) Phaethon sind B-Asteroiden. C-Asteroiden: Dies ist mit einem Anteil von 75 Prozent der häufigste Asteroidentyp. C-Asteroiden weisen eine kohlen- oder kohlenstoffartige (das C steht für Kohlenstoff), dunkle Oberfläche mit einer Albedo um 0,05 auf. Es wird vermutet, dass die C-Asteroiden aus dem gleichen Material bestehen wie die kohligen Chondriten, einer Gruppe von Steinmeteoriten. Die C-Asteroiden bewegen sich im äußeren Bereich des Hauptgürtels. (54) Alexandra, (164) Eva und (2598) Merlin sind Vertreter dieses Spektraltyps. D-Asteroiden: Dieser Typ ist ähnlich zusammengesetzt wie die P-Asteroiden, mit einer geringen Albedo und einem rötlichen Spektrum. Beispiele sind (3552) Don Quixote, (435) Ella, (944) Hidalgo. E-Asteroiden: Die Oberflächen dieses seltenen Typs von Asteroiden bestehen aus dem Mineral Enstatit. Chemisch dürften sie den Enstatit-Chondriten, einer Gruppe von Steinmeteoriten, ähneln. E-Asteroiden besitzen eine hohe Albedo von 0,4 und mehr. Beispiele: (29075) 1950 DA, (33342) 1998 WT24, (64) Angelina, (2867) Šteins. F-Asteroiden: Ebenfalls eine Untergruppe der C-Klasse, jedoch mit Unterschieden im UV-Bereich. Außerdem fehlen Absorptionslinien im Wellenlängenbereich des Wassers. Beispiele: (704) Interamnia, (1012) Sarema, (530) Turandot. G-Asteroiden: Sie können als Untergruppe der C-Klasse angesehen werden, da sie ein ähnliches Spektrum aufweisen, jedoch im UV-Bereich unterschiedliche Absorptionslinien aufweisen. Beispiele: (106) Dione, (130) Elektra, (19) Fortuna. M-Asteroiden: Der überwiegende Rest der Asteroiden wird diesem Typ zugerechnet. Bei den M-Meteoriten (das M steht für metallisch) dürfte es sich um die metallreichen Kerne differenzierter Asteroiden handeln, die bei der Kollision mit anderen Himmelskörpern zertrümmert wurden. Sie besitzen eine ähnliche Albedo wie die S-Asteroiden. Ihre Zusammensetzung dürfte der von Nickel-Eisenmeteoriten gleichen. (250) Bettina, (325) Heidelberga, (224) Oceana, (16) Psyche und (498) Tokio sind M-Asteroiden. P-Asteroiden: Asteroiden dieses Typs besitzen eine sehr geringe Albedo und ein Spektrum im rötlichen Bereich. Sie sind wahrscheinlich aus Silikaten mit Kohlenstoffanteilen zusammengesetzt. P-Asteroiden halten sich im äußeren Bereich des Hauptgürtels auf. Beispiele: (65) Cybele, (76) Freia, (1001) Gaussia, (46) Hestia und (643) Scheherezade. R-Asteroiden: Dieser Typ ist ähnlich aufgebaut wie die V-Asteroiden. Das Spektrum weist auf hohe Anteile an Olivinen und Pyroxenen hin. Beispiel: (349) Dembowska. S-Asteroiden: Der mit einem Anteil von 17 Prozent zweithäufigste Typ (das S steht für Silikat) kommt hauptsächlich im inneren Bereich des Hauptgürtels vor. S-Asteroiden besitzen eine hellere Oberfläche mit einer Albedo von 0,15 bis 0,25. Von ihrer Zusammensetzung her ähneln sie den gewöhnlichen Chondriten, einer Gruppe von Steinmeteoriten, die überwiegend aus Silikaten zusammengesetzt sind. Beispiele: (29) Amphitrite, (5) Astraea, (27) Euterpe, (6) Hebe, (7) Iris. T-Asteroiden: T-Asteroiden findet man im mittleren und äußeren Bereich des Hauptgürtels sowie bei den Jupiter-Trojanern. Sie weisen ein dunkles rötliches Spektrum auf, unterscheiden sich jedoch von den P- und R-Asteroiden. Beispiele: (96) Aegle, (3317) Paris, (308) Polyxo, (596) Scheila. V-Asteroiden: Dieser seltene Typ von Asteroiden (das V steht für Vesta) ist ähnlich zusammengesetzt wie die S-Asteroiden. Der einzige Unterschied ist der erhöhte Anteil an Pyroxen-Mineralen. Es wird angenommen, dass alle V-Asteroiden aus dem silikatischen Mantel von Vesta stammen und bei der Kollision mit einem anderen großen Asteroiden abgesprengt wurden. Darauf weist ein gewaltiger Impaktkrater auf Vesta hin. Die auf der Erde gefundenen HED-Achondrite, eine seltene Gruppe von Steinmeteoriten, könnten ebenfalls von Vesta stammen, da sie eine ähnliche chemische Zusammensetzung aufweisen. Beispiele für V-Asteroiden: (4055) Magellan, (3908) Nyx, (3551) Verenia. X-Asteroiden: Asteroiden mit rötlichen Spektren, die nicht genauer in die Klassen E, M oder P eingeordnet werden können, weil die dafür notwendigen Albedo-Bestimmungen nicht vorliegen. Beispiele: (53319) 1999 JM8, (3362) Khufu, (275) Sapientia, (1604) Tombaugh. Das Klassifikationsschema wurde von Tholen 1989 ergänzt: U Zusatz zeigt ein ungewöhnliches Spektrum an; weit vom Zentrum des Cluster entfernt : Zusatz zeigt „noisy“ Daten an :: Zusatz zeigt sehr „noisy“ Daten an --- Zeigt Daten an, die zu „noisy“ sind, als dass eine Klassifikation möglich wäre (im Grunde wären alle Klassen möglich) I Widersprüchliche Daten Nach Tholen können bis zu vier Buchstaben vergeben werden, beispielsweise „SCTU“. Ein Asteroid mit einem derartigen Zusatz ist beispielsweise (2340) Hathor, welcher nach Tholen in die Spektralklasse „CSU“ einsortiert werden würde (nach SMASSII als Sq). Der Buchstabe „I“ ist beispielsweise in der JPL Small-Body Database beim Asteroiden (515) Athalia eingetragen, nach SMASSII wird der Asteroid als „Cb“ eingeordnet. Zusammensetzung In der Vergangenheit gingen Wissenschaftler davon aus, dass die Asteroiden monolithische Felsbrocken, also kompakte Gebilde sind. Die geringen Dichten etlicher Asteroiden sowie das Vorhandensein von riesigen Einschlagkratern deuten jedoch darauf hin, dass viele Asteroiden locker aufgebaut sind und eher als rubble piles anzusehen sind, als lose „Schutthaufen“, die nur durch die Gravitation zusammengehalten werden. Locker aufgebaute Körper können die bei Kollisionen auftretenden Kräfte absorbieren ohne zerstört zu werden. Kompakte Körper werden dagegen bei größeren Einschlagereignissen durch die Stoßwellen auseinandergerissen. Darüber hinaus weisen die großen Asteroiden nur geringe Rotationsgeschwindigkeiten auf. Eine schnelle Rotation um die eigene Achse würde sonst dazu führen, dass die auftretenden Fliehkräfte die Körper auseinanderreißen (siehe auch: YORP-Effekt). Man geht heute davon aus, dass der überwiegende Teil der über 200 Meter großen Asteroiden derartige kosmische Schutthaufen sind. Bahnen Anders als die Planeten besitzen viele Asteroiden keine annähernd kreisrunden Umlaufbahnen. Sie haben, abgesehen von den meisten Hauptgürtelasteroiden und den Cubewanos im Kuipergürtel, meist sehr exzentrische Orbits, deren Ebenen in vielen Fällen stark gegen die Ekliptik geneigt sind. Ihre relativ hohen Exzentrizitäten machen sie zu Bahnkreuzern; das sind Objekte, die während ihres Umlaufs die Bahnen eines oder mehrerer Planeten passieren. Die Schwerkraft des Jupiter sorgt allerdings dafür, dass sich Asteroiden, bis auf wenige Ausnahmen, nur jeweils innerhalb oder außerhalb seiner Umlaufbahn bewegen. Anhand ihrer Bahnen werden Asteroiden auch zu mehreren Asteroidenfamilien zugeordnet, die sich durch ähnliche Werte von großer Halbachse, Exzentrizität sowie Inklination ihrer Bahn auszeichnen. Die Asteroiden einer Familie stammen vermutlich vom gleichen Ursprungskörper ab. Im Jahr 2015 listete David Nesvorný fünf Hauptfamilien auf. Etwa 45 % aller Asteroiden des Hauptgürtels können anhand der gegebenen Kriterien einer solchen Familie zugeordnet werden. Asteroiden innerhalb der Marsbahn Innerhalb der Marsbahn bewegen sich einige unterschiedliche Asteroidengruppen, die alle bis auf wenige Ausnahmen aus Objekten von unter fünf Kilometer Größe (überwiegend jedoch deutlich kleiner) bestehen. Einige dieser Objekte sind Merkur- und Venusbahnkreuzer, von denen sich mehrere nur innerhalb der Erdbahn bewegen, manche können sie auch kreuzen. Wiederum andere bewegen sich hingegen nur außerhalb der Erdbahn. Die Existenz der als Vulkanoiden bezeichneten Gruppe von Asteroiden konnte bislang nicht nachgewiesen werden. Diese Asteroiden sollen sich auf sonnennahen Bahnen innerhalb der von Merkur bewegen. Erdnahe Asteroiden Asteroiden, deren Bahnen dem Orbit der Erde nahekommen, werden als erdnahe Asteroiden, auch NEAs (Near Earth Asteroids) bezeichnet. Üblicherweise wird als Abgrenzungskriterium ein Perihel kleiner als 1,3 AE verwendet. Wegen einer theoretischen Kollisionsgefahr mit der Erde wird seit einigen Jahren systematisch nach ihnen gesucht. Bekannte Suchprogramme sind zum Beispiel Lincoln Near Earth Asteroid Research (LINEAR), der Catalina Sky Survey, Pan-STARRS, NEAT und LONEOS. Amor-Typ: Die Objekte dieses Asteroidentyps kreuzen die Marsbahn in Richtung Erde. Allerdings kreuzen sie nicht die Erdbahn. Ein Vertreter ist der 1898 entdeckte (433) Eros, der sich der Erdbahn bis 0,15 AE nähert. Nahe Vorbeigänge von Eros an der Erde dienten in den Jahren 1900 und 1931 zur genauen Vermessung des Sonnensystems. Der Namensgeber der Gruppe, der 1932 entdeckte (1221) Amor, besitzt eine typische Bahn von 1,08 bis 2,76 AE. Der größte Vertreter dieser Gruppe ist mit 38 Kilometern Durchmesser der Asteroid (1036) Ganymed. Alle Asteroiden des Amor-Typs haben ihr Perihel in relativer Erdnähe, ihr Aphel kann jedoch sowohl innerhalb der Marsbahn als auch weit außerhalb der Jupiterbahn liegen. Apohele-Typ: Diese Objekte gehören zu einer Untergruppe des Aten-Typs, deren Aphel innerhalb der Erdbahn liegt und diese somit nicht kreuzen (Aten-Asteroiden haben ihr Aphel typischerweise außerhalb der Erdbahn). Erdbahnkreuzer: Dies sind Objekte, deren Umlaufbahn die der Erde kreuzt, was die Wahrscheinlichkeit einer Kollision beinhaltet. Apollo-Typ: Asteroiden dieses Typs haben eine Bahnhalbachse mit einer Ausdehnung von mehr als einer AE, wobei einige ihrer Mitglieder sehr exzentrische Umlaufbahnen besitzen, welche die Erdbahn kreuzen können. Einige können im Perihel-Durchgang sogar ins Innere der Venus-Umlaufbahn gelangen. Namensgeber der Gruppe ist der 1932 von K. Reinmuth entdeckte (1862) Apollo mit einer Bahn von 0,65 bis 2,29 AE. Der 1937 entdeckte (69230) Hermes zog in nur 1½-facher Monddistanz an der Erde vorbei und galt danach als verschollen, bis er im Jahr 2003 schließlich wiedergefunden wurde. Der größte Apollo-Asteroid ist (1866) Sisyphus. Aten-Typ: Dies sind erdnahe Asteroiden, deren Bahnhalbachse typischerweise eine Länge von weniger als einer AE besitzt. Jedoch liegt ihr Aphel in allen Fällen außerhalb der Erdbahn. Daher können Aten-Asteroiden mit exzentrischen Bahnen die Erdbahn von innen her kreuzen. Benannt wurde die Gruppe nach dem 1976 entdeckten (2062) Aten. Weitere Vertreter der Gruppe sind (99942) Apophis, (2340) Hathor und (3753) Cruithne. Arjuna-Asteroiden: Objekte dieser Gruppe besitzen eine erdähnliche Umlaufbahn. Dieser Gruppe gehören meist Asteroiden der Apollo-, Amor- oder Aten-Gruppe an. Asteroiden zwischen Mars und Jupiter Etwa 90 Prozent der bekannten Asteroiden bewegen sich zwischen den Umlaufbahnen von Mars und Jupiter. Sie füllen damit die Lücke in der Titius-Bode-Reihe. Die größten Objekte sind hier (1) Ceres, (2) Pallas, (4) Vesta und (10) Hygiea. Asteroiden des Hauptgürtels Die meisten der Objekte, deren Bahnhalbachsen zwischen der Mars- und Jupiterbahn liegen, sind Teil des Asteroiden-Hauptgürtels. Sie weisen eine Bahnneigung unter 20° und Exzentrizitäten unter 0,25 auf. Die meisten sind durch Kollisionen größerer Asteroiden in dieser Zone entstanden und bilden daher Gruppen mit ähnlicher chemischer Zusammensetzung. Ihre Umlaufbahnen werden durch die sogenannten Kirkwoodlücken begrenzt, die durch Bahnresonanzen zu Jupiter entstehen. Dadurch lässt sich der Hauptgürtel in drei Zonen einteilen: Innerer Hauptgürtel: Diese Zone wird durch die 4:1- und 3:1-Resonanz begrenzt, liegt zwischen etwa 2,06 und 2,5 AE und enthält meist silikatreiche Asteroiden der V- und S-Klasse. Mittlerer Hauptgürtel: Objekte in dieser Gruppe besitzen Bahnhalbachsen zwischen 2,5 und 2,8 AE. Dort dominieren Asteroiden des C-Typs. Auch der Zwergplanet Ceres bewegt sich in dieser Zone, die zwischen der 3:1-Resonanz (Hestia-Lücke) und der 5:2-Resonanz liegt. Äußerer Hauptgürtel: Dieses Gebiet wird nach außen hin von der Hecubalücke (2:1-Resonanz) bei etwa 3,3 AE begrenzt. In diesem Bereich treten häufig Objekte der D- und P-Klasse auf. Asteroiden außerhalb des Hauptgürtels Außerhalb des Asteroidengürtels liegen vereinzelt kleinere Asteroidengruppen, deren Umlaufbahnen meist in Resonanz zur Jupiterbahn stehen und dadurch stabilisiert werden. Außerdem existieren weitere Gruppen, die ähnliche Längen der Bahnhalbachsen aufweisen wie die Hauptgürtelasteroiden, jedoch deutlich stärker geneigte Bahnen (teilweise über 25°) oder andere ungewöhnliche Bahnelemente aufweisen: Hungaria-Gruppe: Diese Gruppe besitzt Bahnhalbachsen von 1,7 bis 2 AE und steht in 9:2-Resonanz zu Jupiter. Sie besitzen mit einer mittleren Exzentrizität von 0,08 fast kreisrunde Bahnen, allerdings sind diese sehr stark gegen die Ekliptik geneigt (17° bis 27°). Der Namensgeber für die Hungaria-Gruppe ist der Asteroid (434) Hungaria. Phocaea-Gruppe: Objekte mit einem mittleren Bahnradius zwischen 2,25 und 2,5 AE, Exzentrizitäten von mehr als 0,1 und Inklinationen zwischen 18° und 32°. Alinda-Typ: Diese Gruppe bewegt sich in 3:1-Resonanz zu Jupiter und in 1:4-Resonanz zur Erde mit Bahnhalbachsen um 2,5 AE. Die Bahnen dieser Objekte werden durch die Resonanz zu Jupiter, welche dieses Gebiet von Asteroiden freiräumt (dort befindet sich die Hestia-Lücke), gestört. Hierdurch werden die Exzentrizitäten dieser Objekte beständig erhöht, bis die Resonanz bei einer Annäherung an einen der inneren Planeten aufgelöst wird. Einige Alinda-Asteroiden haben ihr Perihel nahe oder innerhalb der Erdbahn. Ein Vertreter dieser Gruppe ist der Asteroid (4179) Toutatis. Pallas-Familie: Eine Gruppe von Asteroiden der B-Klasse mit Bahnhalbachsen von 2,7 bis 2,8 AE und relativ hohen Bahnneigungen von über 30°. Die Familie besteht aus Fragmenten, die bei Zusammenstößen aus Pallas herausgeschleudert wurden. Cybele-Gruppe: Objekte dieser Gruppe bewegen sich jenseits der Hecuba-Lücke außerhalb des Hauptgürtels bei Entfernungen zwischen 3,27 und 3,7 AE und gruppieren sich um die 7:4-Resonanz zu Jupiter. Sie haben Exzentrizitäten von weniger als 0,3 und Bahnneigungen unter 25°. Hilda-Gruppe (nach (153) Hilda benannt): Die Hildas bewegen sich in einer Bahnresonanz von 3:2 mit dem Planeten Jupiter. Ihnen gemeinsam ist ein mittlerer Sonnenabstand zwischen 3,7 und 4,2 AE, eine Bahnexzentrizität kleiner als 0,3 und eine Inklination kleiner als 20°. Asteroiden außerhalb der Jupiterbahn Zentauren: Zwischen den Planeten Jupiter und Neptun bewegt sich eine als Zentauren bezeichnete Gruppe von Asteroiden auf exzentrischen Bahnen. Der erste entdeckte Vertreter war (2060) Chiron. Die Zentauren stammen vermutlich aus dem Kuipergürtel und sind durch gravitative Störungen auf instabile Bahnen abgelenkt worden. Damocloiden: Eine Gruppe von Objekten, die nach dem Asteroiden (5335) Damocles benannt wurde. Sie haben ihr Aphel meist jenseits der Uranusbahn, aber ein Perihel im inneren Sonnensystem. Ihre kometenähnlichen Bahnen sind sehr exzentrisch und stark gegen die Ekliptik geneigt. Ihr Umlauf ist in manchen Fällen rückläufig. Die bekannten Objekte sind um die acht Kilometer groß und ähneln Kometenkernen, besitzen jedoch weder Halo noch Schweif. Transneptunische Objekte, Kuipergürtel-Objekte Im äußeren Sonnensystem, jenseits der Neptunbahn, bewegen sich die transneptunischen Objekte, von denen die meisten als Teil des Kuipergürtels betrachtet werden (Kuiper belt objects; KBO). Dort wurden die bislang größten Asteroiden oder Planetoiden entdeckt. Die Objekte dieser Zone lassen sich anhand ihrer Bahneigenschaften in drei Gruppen einteilen: Resonante KBOs: Die Bahnen dieser Objekte stehen in Resonanz zu Neptun. Die bekanntesten Vertreter sind die Plutinos, zu denen der größte bekannte Zwergplanet (134340) Pluto und auch (90482) Orcus gehören. Cubewanos: Diese Objekte bewegen sich in nahezu kreisrunden Bahnen mit Neigungen unter 30° in einer Entfernung zwischen 42 und 50 AE um die Sonne. Bekannte Vertreter sind (20000) Varuna und (50000) Quaoar sowie der Namensgeber der Gruppe (15760) QB1. gestreute KBOs: Himmelskörper dieser Gruppe besitzen sehr exzentrische Orbits, deren Aphel in über 25000 AE Entfernung liegen kann, während das Perihel meist bei 35 AE liegt. Teil dieser Gruppe ist der massereichste bekannte Zwergplanet (136199) Eris. Asteroiden, die sich auf Planetenbahnen bewegen Asteroiden, die sich in den Lagrange-Punkten der Planeten befinden, werden „Trojaner“ genannt. Zuerst wurden diese Begleiter bei Jupiter entdeckt. Sie bewegen sich auf der Jupiterbahn vor beziehungsweise hinter dem Planeten. Jupitertrojaner sind beispielsweise (588) Achilles und (1172) Äneas. 1990 wurde der erste Marstrojaner entdeckt und (5261) Eureka genannt. In der Folgezeit wurden weitere Marstrojaner entdeckt. Auch Neptun besitzt Trojaner und 2011 wurde mit 2011 QF99 der erste Uranustrojaner entdeckt. Manche Asteroiden bewegen sich auf einer Hufeisenumlaufbahn auf einer Planetenbahn, wie zum Beispiel der Asteroid 2002 AA29 in der Nähe der Erde. Interstellarer Asteroid Im Oktober 2017 wurde mit 1I/ʻOumuamua der erste interstellar reisende Asteroid entdeckt. Er ist länglich geformt, rund 400 Meter lang und näherte sich etwa im rechten Winkel der Bahnebene der Planeten. Nachdem seine Bahn durch die Gravitation der Sonne um etwa 90° abgelenkt wurde, flog er auf seinem neuen Kurs in Richtung des Sternbildes Pegasus in ca. 24 Millionen Kilometern Entfernung am 14. Oktober 2017 an der Erde vorbei. Einzelobjekte Im Sonnensystem bewegen sich einige Asteroiden, die Charakteristika aufweisen, die sie mit keinem anderen Objekt teilen. Dazu zählen unter anderem (944) Hidalgo, der sich auf einer stark exzentrischen, kometenähnlichen Umlaufbahn zwischen Saturn und dem Hauptgürtel bewegt, und (279) Thule, der sich als einziger Vertreter einer potenziellen Gruppe von Asteroiden in 4:3-Resonanz zu Jupiter bei 4,3 AE um die Sonne bewegt. Ein weiteres Objekt ist (90377) Sedna, ein relativ großer Asteroid, der weit außerhalb des Kuipergürtels eine exzentrische Umlaufbahn besitzt, die ihn bis zu 900 AE von der Sonne entfernt. Inzwischen wurden allerdings mindestens fünf weitere Objekte mit ähnlichen Bahncharakteristika wie Sedna entdeckt; sie bilden die neue Gruppe der Sednoiden. Einige Charakteristika wie ihre Form lassen sich aus ihrer Lichtkurve berechnen. Orientierung der Bahnrotation Planeten, Asteroiden und Kometen kreisen typisch alle in derselben Richtung um die Sonne. 2014 wurde ein erster Asteroid entdeckt, 2015 nummeriert und 2019 benannt, nämlich (514107) Kaʻepaokaʻawela, der in die entgegengesetzte Richtung umläuft; und zwar in der Ko-Orbit-Region des Planeten Jupiter. 2018 wurde analysiert, dass (514107) Kaʻepaokaʻawela schon vor der Bildung der Planeten von außerhalb des Sonnensystems eingefangen worden sein muss. Heute ist bekannt, dass etwa 100 weitere Asteroiden „falsch herum“ um die Sonne laufen. Einschlagwahrscheinlichkeit und -wirkung Asteroiden, die mit wesentlich größeren Himmelskörpern wie Planeten kollidieren, erzeugen Einschlagkrater. Die Größe des Einschlagkraters und die damit verbundene Energiefreisetzung (Explosion) wird maßgeblich durch die Geschwindigkeit, Größe, Masse und Zusammensetzung des Asteroiden bestimmt. Die Flugbahnen der Asteroiden im Sonnensystem sind nicht genau genug bekannt, um auf längere Zeit berechnen zu können, ob und wann genau ein Asteroid auf der Erde (oder auf einem anderen Planeten) einschlagen wird. Durch Annäherung an andere Himmelskörper unterliegen die Bahnen der Asteroiden ständig kleineren Veränderungen. Deswegen wird auf Basis der bekannten Bahndaten und -unsicherheiten lediglich das Risiko von Einschlägen errechnet. Es verändert sich bei neuen, genaueren Beobachtungen fortlaufend. Mit der Turiner Skala und der Palermo-Skala gibt es zwei gebräuchliche Methoden zur Bewertung des Einschlagrisikos von Asteroiden auf der Erde und der damit verbundenen Energiefreisetzung und Zerstörungskraft: Die Turiner Skala ist anschaulich und einfach gehalten. Sie ist in ganzzahlige Stufen von 0 bis 10 eingeteilt, wobei 0 keine Gefahr bedeutet und Stufe 10 einem sicheren Einschlag mit großer globaler Zerstörungswirkung entspricht (→Global Killer). Von dieser Skala wird eher in den Medien Gebrauch gemacht, da sie einfacher zu verstehen ist als die Palermo-Skala. Die Palermo-Skala wiederum findet in der Astronomie häufigere Anwendung, da sie physikalisch aussagekräftiger ist. Sie setzt die Einschlagwahrscheinlichkeit mit dem Hintergrundrisiko durch Objekte vergleichbarer Größe in Verbindung. Die Palermo-Skala ist logarithmisch aufgebaut: Ein Wert von 0 auf der Palermo-Skala entspricht dem einfachen Hintergrundrisiko (1=100), 1 entspricht zehnfachem Risiko (10=101), 2 dem 100-fachen Risiko (100=102) und so weiter. Die Europäische Weltraumorganisation (ESA) publiziert öffentlich eine fortlaufend aktualisierte Risikoliste, in der Asteroiden und deren Wahrscheinlichkeit einer Kollision mit der Erde aufgeführt sind. Nahe Begegnungen mit erdnahen Asteroiden Am 18. März 2004 passierte um 23:08 Uhr MEZ der Asteroid 2004 FH, ein Gesteinsbrocken mit etwa 30 Metern Durchmesser, die Erde über dem südlichen Atlantik in einem Abstand von nur 43.000 Kilometern. Der nur etwa sechs Meter große Asteroid 2004 FU162 näherte sich der Erde am 31. März 2004 auf 6.535 Kilometer. Die zweitgrößte Annäherung erfolgte am 19. Dezember 2004 durch 2004 YD5 (5 m Durchmesser) in einer Entfernung von 35.000 km. Aufgrund der geringen Größe von nur wenigen Metern würde er, ebenso wie 2004 FU162, wahrscheinlich zu den Meteoroiden gezählt werden. Am 29. Januar 2008 passierte um 09:33 Uhr MEZ der Asteroid 2007 TU24 (250 m Durchmesser) im Abstand von 538.000 Kilometern die Erde. Am 9. Oktober 2008 passierte der rund einen Meter große Asteroid 2008 TS26 in nur 6150 Kilometern Entfernung die Erde. Nur ein anderer derzeit bekannter Asteroid ist der Erde näher gekommen. Am 2. März und am 18. März 2009 um 13:17 Uhr MEZ passierten die Asteroiden 2009 DD45 (21–47 m Durchmesser) bzw. 2009 FH (13–29 m) die Erde in einer Entfernung von nur 70.000 bzw. 80.000 km. Die beiden Asteroiden wurden erst einen Tag zuvor entdeckt. Erst 15 Stunden vor seiner dichtesten Annäherung an der Erde entdeckten Astronomen einen sieben Meter großen Asteroiden. Der Gesteinsbrocken streifte am 6. November 2009 in einer Entfernung von 2 Erdradien an der Erde vorbei. Er wurde vom Catalina Sky Survey aufgespürt. Damit erreichte der Asteroid mit der Bezeichnung 2009 VA die drittgrößte Annäherung aller bisher bekannten und katalogisierten Asteroiden, die nicht auf die Erde einschlugen. Am 13. Januar 2010 passierte um 13:46 Uhr MEZ der Asteroid 2010 AL30 (10–15 m Durchmesser) im Abstand von 130.000 Kilometern die Erde. Er wurde am 10. Januar 2010 von Wissenschaftlern des MIT entdeckt. Am 8. September 2010 passierten zwei Asteroiden die Erde: um 11:51 Uhr MEZ der Asteroid 2010 RX30 (10–62 m Durchmesser) im Abstand von 250.000 Kilometern und um 23:12 Uhr MEZ der Asteroid 2010 RF12 (7–16 m Durchmesser) im Abstand von 80.000 Kilometern. Beide wurden am 5. September 2010 entdeckt. Am 9. November 2011 passierte der 400 m große Asteroid (308635) 2005 YU55 in 324.600 km Entfernung – also innerhalb der Mondbahn – die Erde. Am 27. Januar 2012 passierte der 11 m große Asteroid 2012 BX34 in einer Entfernung von weniger als 60.000 km die Erde. Am 15. Februar 2013 passierte der ca. 45 m große Asteroid (367943) Duende in einer Entfernung von knapp 28.000 km die Erde, also noch unterhalb der Umlaufbahn der geostationären Satelliten. Am 29. August 2016 passierte der Asteroid 2016 QA2 mit etwa 34 m Durchmesser die Erde in einer Entfernung von ca. 84.000 km. Der Asteroid wurde erst wenige Stunden vorher entdeckt. Am 26. Juli 2019 passierte der Asteroid 2019 OK mit etwa 100 m Durchmesser die Erde in einer Entfernung von ca. 65.000 km. Der Asteroid wurde erst 12 Stunden vorher vom SONEAR-Observatorium in Brasilien entdeckt. Am 16. August 2020 passierte der Asteroid 2020 QG die Erde über dem Indischen Ozean in nur 3000 km Höhe. Das ist zu diesem Zeitpunkt der allernächste je beobachtete Vorbeiflug. Mit seinen ca. 3–6 m Durchmesser wäre er bei größerer Annäherung wahrscheinlich in der Atmosphäre verglüht. Zukunft Am 13. April 2029 wird der 270 m große Asteroid (99942) Apophis die Erde passieren. Nach bisherigen Berechnungen wird nur etwa der dreifache Erddurchmesser (etwa 30.000 Kilometer) zwischen der Erde und dem Asteroiden liegen. Solch ein Ereignis kommt laut Angaben der Universität von Michigan nur alle 1300 Jahre vor. Die Wahrscheinlichkeit einer Kollision der Erde mit Apophis ist mit 0,023 Prozent aus derzeitiger Sicht (Stand 11. Juli 2019) recht unwahrscheinlich. Der Asteroid (29075) 1950 DA (2 km Durchmesser) wird der Erde am 16. März 2880 sehr nahe kommen, wobei die Möglichkeit einer Kollision besteht. Die Wahrscheinlichkeit dafür liegt bei 0,33 Prozent. Am Valentinstag des Jahres 2046 (14. Februar 2046) soll der Asteroid 2023 DW mit einer Entfernung von 1,8 Millionen Kilometer vorbeikommen. Der Durchmesser beträgt 50 Metern. Die Trefferquote beträgt zwischen 1 zu 560 bis 650 auf der Turiner Skala Die höchste Wahrscheinlichkeit einer Kollision mit der Erde wird derzeit (Stand 17. Juli 2019) dem Asteroiden 2010 RF12 (8 m Durchmesser) zugewiesen. Er wird die Erde am 5. September 2095 mit einer Wahrscheinlichkeit von 6,25 Prozent treffen. Beispiele für Einschläge auf der Erde Eine Auflistung irdischer Krater findet sich in der Liste der Einschlagkrater der Erde sowie als Auswahl unter Große und bekannte Einschlagkrater. Mutmaßliche Kollisionen zwischen Asteroiden Die Wissenschaft benennt mehrere mögliche Kollisionen zwischen Asteroiden untereinander: vor 470 Millionen Jahren (Ekaterina Korochantseva, 2007) vor 5,8 Millionen Jahren (David Nesvorny, 2002) P/2010 A2, 2009 (596) Scheila, 2010 (Dennis Bodewits, 2011) Internationaler Tag der Asteroiden 2001 etablierte das Committee on the Peaceful Uses of Outer Space (COPUOS) der UNO das Action Team on Near-Earth Objects (Action Team 14). Empfohlen wurde 2013 die Errichtung eines international asteroid warning network (IAWN) und einer space mission planning advisory group (SMPAG). Das Action Team 14 hat sein Mandat erfüllt und wurde 2015 aufgelöst. Am 30. Juni 2015 wurde der erste Asteroid Day ausgerufen. Siehe auch Asteroidenabwehr Asteroidenbergbau Hirayama-Familie Liste der Asteroiden Alphabetische Liste der Asteroiden Liste der Monde von Asteroiden Liste der besuchten Körper im Sonnensystem #Hauptgürtel-Asteroiden Literatur Kometen und Asteroiden (= Sterne und Weltraum. Special Nr. 2003/2). Spektrum der Wissenschaft Verlag, Heidelberg 2003, ISBN 3-936278-36-9. William Bottke, Alberto Cellino, Paolo Paolicchi, Richard P. Binzel (Hrsg.): Asteroids III (= Space Science Series). Univ. of Arizona Press, 2002, ISBN 0-8165-2281-2 (englisch). Gottfried Gerstbach: Die Asteroiden – Dramatik und Schutt im Planetensystem. In: Sternenbote. Jahrgang 45/12, Wien 2002, S. 223–234 (PDF). Thorsten Dambeck: Vagabunden im Sonnensystem. In: Bild der Wissenschaft. März 2008, , S. 56–61. John S. Lewis: Mining the sky-untold riches from the asteroids, comets, and planets. Addison-Wesley, Mass. 1997, ISBN 0-201-32819-4. Thomas K. Henning: Astromineralogy. Springer, Berlin 2003, ISBN 3-540-44323-1. Thomas H. Burbine: Asteroids – Astronomical and Geological Bodies. Cambridge University Press, Cambridge 2016, ISBN 978-1-107-09684-4. Weblinks Asteroid Watch auf der Webpräsenz des JPL (englisch) www.kleinplanetenseite.de 200 Jahre Kleinplaneten auf der Webpräsenz des Verein Kuffner-Sternwarte Steinschlag aus dem Universum – Artikel bei www.vossyline.de lexikon.astronomie.info/planetoiden – Linksammlung. Darunter u. a. eine Auflistung täglich sichtbarer Asteroiden Liste aller nummerierten und benannten Asteroiden mitsamt Entdeckungsdaten auf der Webpräsenz des IAU Minor Planet Center Hintergrund-Dossier mit vielen Videos, Karten und Bildern zu Kometen, Asteroiden und Meteoriten auf der Webpräsenz des Bayerischen Rundfunks Einschläge auf dem Mond mit diversen Bildbeispielen – aus SPON Videos Einzelnachweise
414
https://de.wikipedia.org/wiki/Asen%20%28Mythologie%29
Asen (Mythologie)
Die Asen (von altnordisch áss „Ase“, Plural: æsir „Asen“), eine nordische Bezeichnung der germanischen Götter, sind nach Snorri Sturluson in der Prosa-Edda ein Göttergeschlecht der nordischen Mythologie. Dieses Geschlecht ist nach der Zahl der ihm zugehörigen Gottheiten größer als das ebenfalls nordische Göttergeschlecht der Wanen. Die Asen werden von ihrer Mentalität als kriegerische und herrschende Götter geschildert, wohingegen die Wanen als Fruchtbarkeitsgottheiten stilisiert werden. Bei Snorri findet jedoch eine stringente Trennung der Geschlechter nicht statt. Zudem wird der Begriff „Ase“ in Quellen auch als ein genereller Begriff für (heidnischer) „Gott“ gebraucht (siehe auch: Abschnitt Etymologie im germanischen Sprachraum bei Gott). Etymologie Der Begriff „Ase“ ist inschriftlich zuerst fassbar belegt in einer Runeninschrift aus dem 2. Jahrhundert aus Vimose in Dänemark: asau wija „ich weihe dem Asen/Gott“. Ein weiterer Beleg ist die Form Ansis bei Jordanes (Getica 13,78), hier werden diese als mythische Vorfahren der Goten als semideos, lateinisch für „Halbgötter“, bezeichnet. Vermutet wird, dass die Herkunft des Wortes Asen auf die Pfahlidole oder Pfahlgötter zurückgehen könnte. Die Wurzel der heutigen Worte „Balken“ und „Pfosten“ haben eine nahe Verwandtschaft zu den Bezeichnungen æsir und áss. Das altisländische, beziehungsweise altnordische áss weist durch den runischen Beleg einen u-Stamm auf, wodurch auf ein germanisches *ansu-z zu schließen ist. Durch den Beleg bei Jordanes wird in der Forschung diskutiert, ob durch die Form ansis, neben der altnordischen Form mit dem u-Stamm, berechtigt ein i-Stamm anzunehmen ist und in der Folge auf ein germanisches *ansi-z rückzuführen ist. Im deutschsprachigen Raum hat sich das Wort Asen (über āss entwickelt aus germanisch ans- „Gott“; vgl. auch anses „Halbgötter“, bei Jordanus um 550) als Bezeichnung der germanischen Götter im 19. Jahrhundert eingebürgert. Die Asen der Edda Nach der Jüngeren Edda wohnen zwölf Asen in Asgard (Sitz der Götter). Sie herrschen über die Welt und die Menschen. Ihnen werden Eigenschaften wie Stärke, Macht und Kraft zugeschrieben. Sie sind weitgehend vermenschlicht, haben also einen irdischen Alltag. Wie die Menschen sind sie sterblich. Nur durch die Äpfel der Idun halten sie sich jung, bis fast alle von ihnen zur Ragnarök getötet werden. Stammbaum der nordischen Gottheiten Die folgende Übersicht zeigt die verwandtschaftlichen Beziehungen zwischen den bekanntesten nordischen Gottheiten aus den Geschlechtern der Asen und Wanen: Das goldene Zeitalter Tefldu í túni, teitir váru, var þeim vettergis vant ór gulli, uns þrjár kvámu þursa meyjar ámáttkar mjök ór Jötunheimum. Das goldene Zeitalter wird beschrieben als eine glückliche Zeit, in der die Götter ohne Menschen auf einer grünen Erde wie Kinder lebten. In dieser Zeit legten sie Essensvorräte an, fertigten Zangen, Ambosse und Hämmer. Siehe auch Åsa (weiblicher Vorname) Ásatrú (germanisches Neuheidentum) Germanische Gottheit Nordgermanische Religion Nordische Mythologie Angelsächsische Religion Kontinentalgermanische Mythologie Literatur Alfred Bammesberger: Gotisch ansis und urgermanisch *ans(u)-. In: Beiträge zur Namenforschung. Band 31, 1999, S. 231–240. Vladimir Orel: A Handbook of Germanic Etymology. Brill, Leiden/Boston 2003, ISBN 90-04-12875-1. Rudolf Simek: Lexikon der germanischen Mythologie (= Kröners Taschenausgabe. Band 368). 3., völlig überarbeitete Auflage. Kröner, Stuttgart 2006, ISBN 3-520-36803-X. Alexander Sitzmann, Friedrich E. Grünzweig: Die altgermanischen Ethnonyme. Fassbaender, Wien 2008, ISBN 978-3-902575-07-4. Jan de Vries: Altgermanische Religionsgeschichte. 3., unveränderte Auflage. De Gruyter, Berlin/New York 1970, Reprint 2010, Band 1: ISBN 978-3-11-002678-8, Band: 2 ISBN 978-3-11-002807-2. Einzelnachweise Gruppe von Gottheiten
416
https://de.wikipedia.org/wiki/Altes%20Reich
Altes Reich
Altes Reich ist die Bezeichnung für die erste der drei klassischen Perioden des Alten Ägypten, die ungefähr von 2700 bis 2200 v. Chr. dauerte. Das Alte Reich folgte auf die Thinitenzeit mit ihren Königen der 1. und 2. Dynastie, die zur Bildung des ägyptischen Staates geführt hatte. Es umfasste die 3. bis 6. Dynastie. Die darauffolgende Zeit (Erste Zwischenzeit) war geprägt von instabilen politischen Verhältnissen in Ägypten. Die Alten Ägypter selbst sahen die Epoche als Goldenes Zeitalter und Höhepunkt ihrer Kultur an. Die Zeit war von äußerst lang anhaltender politischer Stabilität geprägt und die innere Ordnung des Landes war durch keinerlei äußere Bedrohungen gefährdet. Die bereits zur Thinitenzeit begonnene Zentralisierung des Staates und der langsam einsetzende Wohlstand in der Bevölkerung führten zu beachtlichen architektonischen und künstlerischen Leistungen. Es kam zur Entstehung erster wichtiger Gattungen der klassischen ägyptischen Literatur, zur Kanonisierung von Malerei und Bildhauerei, aber auch zu zahlreichen Neueinführungen in der Verwaltung, die fast drei Jahrtausende überdauerten. Das Alte Reich ist das Zeitalter der großen Pyramiden, die in der Gegend der damaligen Hauptstadt Memphis entstanden: zunächst die Stufenpyramide von Pharao Djoser in Sakkara, später dann die drei monumentalen Pyramiden auf dem Plateau von Gizeh (von Cheops, Chephren und Mykerinos), die zu den sieben Weltwundern der Antike zählen. Die Pyramiden spiegeln eindrucksvoll die zentrale Stellung der Herrscher in der Gesellschaft wider und ihre Macht, die danach in der altägyptischen Geschichte unerreicht blieb. Zugleich machen sie die Weiterentwicklung des Verwaltungsapparates deutlich und seine Fähigkeit, materielle und menschliche Ressourcen zu mobilisieren. Sie zeigen aber auch die erheblichen Fortschritte in Architektur und Kunst auf und lassen erkennen, welche zentrale Rolle Totenkult und Jenseitsglaube zu dieser Zeit gespielt haben. Quellenlage Die Hauptquelle für das Alte Reich sind die Pyramiden und ihre Tempelanlagen, die letzteren sind jedoch häufig stark zerstört. Vor allem in den Pyramidengrabkammern der 6. Dynastie fanden sich Texte, die eine umfangreiche Quelle zum Totenglauben der Epoche darstellen. Neben den Pyramiden finden sich umfangreiche Friedhöfe der höchsten Beamten, deren Gräber oftmals reich mit Reliefs und Inschriften dekoriert sind. Nekropolen in den Provinzen fanden in der Forschung bisher wenig Beachtung. Immerhin stammen aus dem späten Alten Reich einige bedeutende dekorierte Grabanlagen lokaler Würdenträger. Siedlungen des Alten Reiches sind bisher kaum ausgegraben. Eine Ausnahme stellt neuerdings die Pyramidenstadt von Gizeh dar. Nur wenige Tempel dieser Zeit sind bisher untersucht worden. Im Gegensatz zu späteren Epochen scheinen sie eher klein und undekoriert gewesen zu sein. Eine Ausnahme stellen zwei Heiligtümer zum Sonnen- und Königskult dar. Aus dem Alten Reich gibt es nur wenige Papyri, die wichtigsten fanden sich in Abusir und stellen Verwaltungsurkunden eines Pyramidentempels dar. 3. Dynastie Die 3. Dynastie (2700 bis 2620 v. Chr.) folgte auf die Thinitenzeit, die zur Reichseinigung und zur Bildung des ersten ägyptischen Staates geführt hat. Die Dynastie wird gemeinhin dem Alten Reich zugerechnet, da sie den Beginn des für diese Epoche ausschlaggebenden Pyramidenbaus markiert. Einige Forscher ziehen es vor, sie in direkte Kontinuität mit der 1. und 2. Dynastie zu setzen, die zahlreiche Gemeinsamkeiten hinsichtlich politischer Organisation und kultureller Aspekte aufweisen. Der Übergang von der 2. zur 3. Dynastie stellt keinen echten Dynastiewechsel dar, da die ersten Herrscher der 3. Dynastie in direkter Linie vom Königshaus der vorhergehenden Dynastie abstammen. Über die Anzahl und Abfolge der Könige der 3. Dynastie herrscht einige Unklarheit. Probleme bereitet die Tatsache, dass die fast ausschließlich in späteren Listen überlieferten Geburtsnamen nur selten in Einklang mit den zeitgenössisch auftretenden Horusnamen gebracht werden können. Von den aus dieser Zeit überlieferten fünf oder sechs Horusnamen kann lediglich Netjeri-chet eindeutig König Djoser zugewiesen werden. Die Reihenfolge der nächsten drei Herrscher Sechemchet, Chaba und Sanacht dagegen ist ungewiss. Der vermutlich letzte Herrscher Huni wurde versuchsweise mit dem Horusnamen Qahedjet identifiziert, jedoch ist diese Zuweisung nicht sicher. Die Angaben für die Dauer der 3. Dynastie schwanken zwischen 50 und 75 Jahren. König Djoser wird als bedeutendster Herrscher der 3. Dynastie angesehen, da er mit seinem Pyramidenkomplex in Sakkara die erste Stufenpyramide und den ersten monumentalen Steinbau in der Geschichte der Menschheit schaffen ließ. Für den Bau der Pyramide, die einen Höhepunkt des frühen ägyptischen Steinbaus darstellt, waren enorme Fortschritte in der logistischen Organisation nötig, die nur durch eine gut funktionierende, straff organisierte Verwaltung erzielt werden konnten. Als einer der berühmtesten Beamten dieser Zeit ist Imhotep bekannt, der als Berater und Baumeister von Djoser wirkte und bis in die Spätzeit hinein als legendärer Erfinder verehrt und sogar vergöttlicht wurde. Sichtbare Fortschritte im Bereich Bildender Kunst lassen sich am besten an Werken aus Djosers Regierungszeit ablesen, die sich in ihrer Ausführung deutlich von der vorhergehenden Epoche abheben. Die 3. Dynastie war von der Stärkung des Zentralstaates geprägt, der von der neuen Hauptstadt Memphis aus an der Grenze zwischen Ober- und Unterägypten regiert wurde. Die hohen Würdenträger ließen sich nicht mehr wie in der Frühzeit auf Friedhöfen in der Provinz bestatten, sondern erhielten nun einen Platz in der königlichen Nekropole. Die gegen Ende der Dynastie an vielen Stellen im Reich errichteten Kleinpyramiden unterstreichen dagegen den wachsenden Einfluss der Zentralregierung auf die Provinzen. Zur Beschaffung von Baumaterial und anderen wichtigen Rohstoffen wurden Expeditionen in weit entfernte Gegenden entsandt, etwa ins Wadi Maghara im Westen des Sinai. 4. Dynastie Die 4. Dynastie (2620 bis 2500 v. Chr.) wurde von Snofru gegründet, der möglicherweise ein Sohn von Huni war. In einer Zeitspanne von etwa 100 Jahren regierten sieben Könige aus der Dynastie, von denen die vier Könige Snofru, Cheops, Chephren und Mykerinos eine relativ lange Regierungszeit zwischen 18 und 30 Jahren ausübten. Die Dynastie war eine Blütezeit Ägyptens und ist der Nachwelt durch die größten jemals in Ägypten errichteten Pyramiden in Erinnerung geblieben. Ihr Gründer Snofru, der als Idealbild des gerechten Königs galt, unternahm weit entfernte Expeditionen nach Nubien und Libyen und ließ eine Grenzfestung zum Schutze des Landes bauen; weiterhin ließ er in Meidum und Dahschur nacheinander drei große Pyramidenanlagen errichten, die den Übergang von der Stufenpyramide zur echten Pyramide einleiteten. Sein Nachfolger Cheops wählte das Plateau von Gizeh als Bauplatz für seine Pyramide, die mit ursprünglich 146,59 Metern Höhe die höchste der Welt ist. Ihre enorme Größe veranlasste antike Autoren dazu, ihn im Gegensatz zu seinem Vater als größenwahnsinnigen und tyrannischen Herrscher darzustellen, ihm wurde aber in Wirklichkeit bis in die Spätzeit hinein noch eine eigenständige kultische Verehrung zuteil. Zwei seiner Söhne, Djedefre und Chephren, folgten ihm auf den Thron. Djedefre nannte sich als erster König „Sohn des Re“, Chephren ließ sich eine weitere große Pyramide neben der seines Vaters erbauen. Von dem nachfolgenden König Bicheris ist nur wenig bekannt. Erst sein Nachfolger Mykerinos ließ eine dritte Pyramide in Gizeh bauen. Der letzte König der Dynastie hieß Schepseskaf. Bei Manetho ist ein gewisser Thamphthis überliefert, der jedoch nicht durch zeitgenössische Belege bestätigt werden kann. Die Umsetzung der großen Bauvorhaben dieser Dynastie erforderte eine weitaus komplexere und effizientere Verwaltung als in der Dynastie zuvor. Die Verwaltung wurde immer weiter ausgebaut und umfasste schließlich ein „Amt für königliche Arbeiten“, das sich speziell um die Errichtung von Denkmälern kümmerte. Zu den Aufgaben gehörte die Rekrutierung von Arbeitskräften, die Errichtung von ausgedehnten Arbeitersiedlungen für ihre Versorgung und Unterkunft unweit der Bauplätze, die Umsetzung der großen und technisch anspruchsvollen Bauvorhaben, die Erschließung von Steinbrüchen, die sich außerhalb des zuständigen Verwaltungsgebietes befinden konnten (Hatnub, Fayyum, Wadi Hammamat, Sinai) sowie die Lieferung von Rohmaterial in die Region von Memphis. Alle staatliche Macht konzentrierte sich in der Person des Pharaos, dessen göttlicher Charakter sich mehr als jemals zuvor in seinen Bauprojekten manifestierte. Die höchsten Amtsposten in der Verwaltung wurden meist von Prinzen besetzt. Von einigen hohen Hofbeamten ist bekannt, dass sie gelegentlich als Verwalter in den Provinzen eingesetzt werden konnten. 5. Dynastie Die Herrscher der 5. Dynastie (2504 bis 2347 v. Chr.) sind sowohl durch archäologische Funde als auch durch überlieferte Texte genauer bekannt als die der vorangegangenen Dynastien. Ihre Zeit ist durch kleinere Pyramiden, oft bei Abusir gelegen, und Tempel des Sonnengottes Re gekennzeichnet. Die Könige (Pharaonen) mussten ihre absolute Macht mit dem aufstrebenden Adel und einer wachsenden Bürokratie teilen. Letzterer verdanken wir viele der erhaltenen Texte. In der Pyramide des Unas fanden sich erstmals die so genannten Pyramidentexte, die somit die ältesten überlieferten religiösen Texte der Menschheitsgeschichte sind. Die Tradition der Anbringung von Jenseitsliteratur in Königsgräbern wurde im Mittleren Reich mit den Sargtexten und im Neuen Reich mit den verschiedenen Unterweltsbüchern (Amduat, Höhlenbuch, Pfortenbuch etc.) fortgeführt. In nicht-königlichen Gräbern des Neuen Reiches fand man Papyri mit dem Totenbuch. 6. Dynastie Die 6. Dynastie (2347 bis 2216 v. Chr.) setzte die 5. Dynastie kulturell fort. Eine Dezentralisierung der Verwaltungsstrukturen mit über das Land verteilten Verwaltern stellte regionale Zentren her, die mit nachgebendem Einfluss der Herrscher an Bedeutung gewannen, wie beispielsweise am Grabmal des Chunes in Qubbet el-Hawa bei Assuan im 1. Gau Oberägyptens deutlich wird. Die Zentralregierung verlor nach Kriegszügen gegen Libyen, Nubien und Palästina immer mehr an Einfluss. Neueste Forschungen deuten darauf hin, dass Klimaveränderungen (siehe 4,2-Kilojahr-Ereignis), mit ausbleibenden Nilhochwassern, zum Niedergang des Alten Reiches beigetragen haben könnten. Auch die nahezu gleichzeitigen Umbrüche in Sumer und der Indus-Kultur sprechen dafür. Mit dem Zerfall der Zentralregierung nach Pepi II beginnt die Erste Zwischenzeit. Zeitliche und archäologische Einordnung sowie die Relationen zu weiteren Hochkulturen Siehe auch Geschichte des Alten Ägypten Literatur Petra Andrássy: Untersuchungen zum ägyptischen Staat des Alten Reiches und seinen Institutionen (= Internet-Beiträge zur Ägyptologie und Sudanarchäologie. Band 11). Golden House Publications, London 2008 (online). Martin von Falck, Bettina Schmitz: Das Alte Reich. Ägypten von den Anfängen zur Hochkultur. von Zabern, Mainz 2009, ISBN 978-3-8053-4073-1. Peter Der Manuelian, Thomas Schneider (Hrsg.): Towards a New History for the Egyptian Old Kingdom. Perspectives on the Pyramid Age (= Harvard Egyptological Studies. Band 1). Brill, Leiden/ Boston 2015, ISBN 978-90-04-30188-7. Peter Jánosi: Die Gräberwelt der Pyramidenzeit. von Zabern, Mainz 2006, ISBN 3-8053-3622-5. Christoph Kucklick: Das Reich der Pharaonen. Gruner & Jahr, Hamburg 2000, ISBN 3-570-19239-3. Jaromír Málek: In the Shadow of the Pyramids: Egypt During the Old Kingdom. University of Oklahoma Press, Norman (OK) 1986, ISBN 0-8061-2027-4. Dokumentationen Das Zeitalter der großen Pyramiden - Das Ende des Alten Reiches. TV-Dokumentation von Sigrid Clément und Christian Holt, (Originaltitel: La fin des pyramides géantes.) F (myCANAL) 2020, deutsche Synchronfassung ZDF 2021, auf ZDFinfo; Auch auf: youtube.com. Weblinks Einzelnachweise ! 3. Jahrtausend v. Chr. Epoche der ägyptischen Geschichte
417
https://de.wikipedia.org/wiki/Aussetzung%20des%20Handels
Aussetzung des Handels
Aussetzung des Handels ist eine Maßnahme der Geschäftsführung einer Börse, die den Börsenhandel mit Handelsobjekten allgemein oder einem bestimmten Handelsobjekt für einen unbestimmten Zeitraum untersagt. Allgemeines Börsenkurse sind dadurch gekennzeichnet, dass sie mehr oder weniger starken Schwankungen unterliegen. Die Kursbildung beruht auf den unterschiedlichen Vorstellungen der Marktteilnehmer und stellt für diese ein Kursrisiko dar. Wenn die Kursschwankungen und damit Kursrisiken jedoch so groß sind, dass ein ordnungsgemäßer Börsenhandel nicht mehr stattfinden kann, darf die Geschäftsführung in den Handel eingreifen und Kursnotierungen (vorübergehend) untersagen. Auch Direktgeschäfte zwischen Börsenteilnehmern sind dann verboten. In Deutschland Rechtsgrundlagen Das Börsengesetz (BörsG) kennt zwei Arten der Kursaussetzung. Die Geschäftsführung einer Börse ist nach Abs. 1 BörsG befugt, den Handel von Handelsobjekten auszusetzen oder einzustellen: Aussetzung des Handels ist vorzunehmen, wenn ein ordnungsgemäßer Börsenhandel zeitweilig gefährdet oder wenn dies zum Schutz des Publikums geboten erscheint; Einstellung des Handels ist geboten, wenn ein ordnungsgemäßer Börsenhandel nicht mehr gewährleistet erscheint. Bei Aussetzung oder Einstellung geht das Gesetz davon aus, dass ein ordnungsgemäßer Börsenhandel nicht mehr stattfinden kann. Ist der Börsengeschäftsführung aufgrund der Mitteilung des Emittenten erkennbar, dass sich die von den Handelsteilnehmern vereinbarten Preise infolge ihrer Informationsdefizite nicht fair und transparent bilden, so ist die Ordnungsmäßigkeit des Börsenhandels nicht mehr gewährleistet. Temporäre Gefährdungen führen zur Aussetzung, länger anhaltende zur länger andauernden Einstellung des Handels. Beide Maßnahmen führen zur Einstellung der Kursnotiz und sind der Börsenaufsicht und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zu melden. Die Vorschrift des § 25 Abs. 1 BörsG übernimmt in § 57 die Börsenordnung für die Frankfurter Wertpapierbörse. Danach kann die Geschäftsführung den Handel im regulierten Markt aussetzen, „wenn ein ordnungsgemäßer Börsenhandel zeitweilig gefährdet oder wenn dies zum Schutz des Publikums geboten erscheint.“ Wenn dieser ordnungsgemäße Börsenhandel nicht mehr möglich ist, kann der Handel sogar ganz eingestellt werden. Nach Abs. 1 Nr. 5 KWG kann die BaFin die Schließung eines Kreditinstituts für den Verkehr mit der Kundschaft anordnen, wodurch es den Bankkunden nicht mehr möglich ist, Wertpapierorders für die Börse abzugeben. Unterbrechungen Eine so genannte Volatilitätsunterbrechung beim Computerhandelssystem Xetra findet statt, wenn ein möglicher Kurs „außerhalb des dynamischen Preiskorridors“ liegt. Dieser Korridor wird von den Handelssystemen der Börse errechnet, eine Aussetzung des Handels wird den Anlegern unmittelbar mitgeteilt. Volatilitätsunterbrechungen dauern bei Aktien aus dem DAX und Werten der STOXX Europe 50-Indizes drei Minuten, bei allen anderen Wertpapieren fünf Minuten. Der Umfang des Preiskorridors wird nicht veröffentlicht, damit sich die Marktteilnehmer nicht hierauf einstellen können. Schwanken Kurse über längere Zeit sehr stark, kann die Börsenleitung mit dem Status des „Fast Market“ die Kursnotierungen aussetzen. Dies geschah zuletzt wegen der COVID-19-Pandemie am 16. März 2020. Ursachen und Folgen Auslöser für Eingriffe in den Börsenhandel können sowohl Ereignisse bei einem einzelnen Wertpapier (angekündigte Ad-hoc-Publizität durch Unternehmen), beim Publikum (Panikkäufe und -verkäufe) oder Extremereignisse (Terroranschläge am 11. September 2001) sein. In WpHG ist vorgeschrieben, dass kursbeeinflussende Tatsachen unmittelbar vor ihrer Veröffentlichung den Börsen und der BaFin mitzuteilen sind. Dadurch erhalten die Börsen etwa 20 Minuten vor der Öffentlichkeit diese Informationen und haben ausreichend Zeit, über eine Kursaussetzung zu entscheiden. Ad-hoc-Mitteilungen sind geeignet, einen erheblichen Kursausschlag herbeizuführen. Die Unterbrechung des Börsenhandels ist eine Ermessensentscheidung der Börsengeschäftsführung. Ist die Entscheidung der Börsengeschäftsführung zur Kursaussetzung gefallen, erhält der letzte Kurs des betroffenen Wertpapiers den Kurszusatz au/ausg = ausgesetzt: Die Kursnotierung ist ausgesetzt, ein Ausruf ist nicht gestattet. Der Anleger kann aus einer Kursaussetzung schließen, dass Ereignisse eingetreten sind, die für die Bewertung seines Handelsobjekts maßgeblich sein können. Kursaussetzungen führen dann – anders als bei der Handelsunterbrechung („trading halt“) – zum Erlöschen aller betroffenen Orders (§ 6 Abs. 4 Börsengeschäftsbedingungen). Denn die Marktteilnehmer haben angesichts der veröffentlichten kursbeeinflussenden Tatsachen „kein Interesse mehr an der Ausführung ihrer in Unkenntnis dieser Tatsachen erteilten Kauf- und Verkaufsaufträge“. Wegen der schwerwiegenden Folgen einer Kursaussetzung durch die Börsenorgane ist ein solcher Vorgang die Ausnahme. Nach Kursaussetzung wird mit dem zuletzt festgestellten Kurs begonnen bzw. bei Kursaussetzung vor Börsenbeginn mit dem Schlusskurs des Vortages. Zweck Aussetzungen oder Einstellungen führen zu keinen Umsätzen, so dass die Kauf- und Verkaufsabsichten nicht realisiert werden können. Diese Maßnahmen zielen darauf ab, durch Unterbrechung des Handels die Marktteilnehmer zu beruhigen und ihnen Zeit für die Beschaffung aktueller Informationen zu geben, um das Informationsgleichgewicht wiederherzustellen. Matthias Ecke wies 2005 nach, dass Ereignisse mit Kursaussetzungen durch eine starke Reaktion bei Wiederaufnahme des Handels gekennzeichnet sind. Im Vergleich mit – nicht kursausgesetzten – Ad-hoc-Meldungen zeigen Kursaussetzungen stärkere Ereigniseffekte. Ecke gelangt zu dem Ergebnis, dass Emittenten und Anleger darauf vertrauen können, dass Kursaussetzungen in der Regel nur dann vorgenommen werden, wenn sie mit sehr sensitiven Informationen in Verbindung stehen. Da starke Kursschwankungen im Rahmen eines Spillovers von der Finanzwirtschaft auch auf die Realwirtschaft übergreifen können, kann eine Kursaussetzung auch Finanz- und Wirtschaftskrisen abschwächen oder gar verhindern. In den USA In den USA ist bei „Trading halts“ oder „Suspensions“ zu unterscheiden, ob die US-Finanzaufsicht Security Exchange Commission (SEC) oder die Börse eine Aussetzung initiiert hat. In den meisten Fällen werden Aussetzungen von den Börsen selbst initiiert. Die Gründe dafür können Verstöße gegen Listing-Bedingungen, gegen handelssegmentspezifische Anforderungen oder gegen Publizitätspflichten sein. Der am meisten zu beobachtende Grund sind anstehende Unternehmensnachrichten. Die SEC hat die Möglichkeit, Aktien bis zu zehn Handelstage vom Börsenhandel auszuschließen. Die Handelsaussetzung bleibt bis 23.59 Uhr des zehnten Handelstages nach der Ankündigung der Aktion bestehen. Handelsobjekte Handelsaussetzungen beschränken sich nicht auf Aktien, sondern können sich auf alle Handelsobjekte erstrecken, so auch auf Staatsanleihen, Leerverkäufe oder Geld. So wurden im Jahr 2002 sowohl in Argentinien als auch Uruguay so genannte Bankfeiertage ausgerufen. Effektiv wurde der Handel mit Geld, Abhebungen und Überweisungen ausgesetzt. Auch in diesen Fällen war die Stabilisierung der jeweiligen Währung das Ziel. Die längerfristige Aussetzung des Handels mit dem einzig allgemein akzeptierten Tauschmittel eines Landes hat fatale Folgen für die arbeitsteilige Wirtschaft: Ohne Tauschmittel kommt die Arbeitsteilung zum Erliegen. In der Regel folgt auf solche Umständen eine allgemeine Verelendung. Kritik Befürworter sehen in der Aussetzung des Handels mit Wertpapieren einzelner Unternehmen einen Anlegerschutz. So wird der Handel mit Aktien eines Unternehmens ausgesetzt, wenn dieses Unternehmen Pflichtmitteilungen zu tätigen hat, die einen erheblichen Einfluss auf den Kurs haben können wie z. B. Insolvenzanträge, Fusionen eines Unternehmens oder Unternehmensübernahmen. Hierzu bekommen die Kontrollorgane die Pflichtmitteilung vor der Veröffentlichung und können den Handel aussetzen, bevor die Nachricht bekannt wird. Kritiker sehen in Aussetzungen des Handels einen Widerspruch zur Idee des wirtschaftlichen Liberalismus, da dort Märkte frei von Beeinflussung sein sollen. Häufig wird der Handel eines bestimmten Wertpapiers oder gleich aller Wertpapiere an einer Wertpapierbörse ausgesetzt. Die Begründung dafür ist, dass bei steigenden Kursen Wertpapiere gekauft werden, womit der Kurs noch weiter steigt, und dass bei fallenden Kursen Wertpapiere verkauft werden, womit der Kurs noch weiter fällt. Die Nichtaussetzung von Kursen hat möglicherweise trendverschärfende Effekte. Siehe auch Argentinien-Krise Börsenkrach Schwarzer Freitag Schwarzer Montag Einzelnachweise Börsenhandel
419
https://de.wikipedia.org/wiki/A%C5%A1%C5%A1ur-n%C3%A2%E1%B9%A3ir-apli%20II.
Aššur-nâṣir-apli II.
Aššur-nâṣir-apli II. (auch Aschschur-nasir-apli, Assur-nasirpal) regierte als assyrischer König von 883 bis 859 v. Chr. Er war Sohn des Tukulti-Ninurta II. Das Neuassyrische Reich gewann unter ihm wieder die Ausmaße der Zeit von Tukulti-apil-Ešarra I. Feldzüge führte Aššur-nâṣir-apli u. a. gegen Babylon und Urartu. In einem Feldzug gegen die Aramäer wurden 300 Talente Eisen als Kriegsbeute erwähnt, die den wirtschaftlichen Aufschwung der Aramäer deutlich machen. Die Berichte seiner Eroberungen sind in übertreibenden Phrasen geschrieben. So wird die flache Gebirgsgruppe des Dschabal Bischri südwestlich des Euphrat als hohe Berge, deren Spitzen die Vögel nicht erreichen beschrieben. Die Tribute und die Beute wurden unter anderem benötigt, um Bauvorhaben in Aššur, Ninive und Kalḫu zu finanzieren. Aššur-nâṣir-apli verlegte die Hauptstadt von Assur nach Kalḫu. Die Einweihung von Kalḫu wurde zehn Tage lang gefeiert. Anwesend waren rund 70.000 Gäste (Assyrer, Fremde aus mindestens zwölf Ländern, darunter Sidon, Tyros, Muṣaṣir, Kumme, Gurgum, Gilzanu und Melid), wie auf der 1951 von Max Mallowan entdeckten Bankett-Stele beschrieben. Der Palast besaß auch einen prächtigen Garten. In Imgur-Enlil errichtete er einen Tempel des Traumgottes Mamu, dessen Tore er mit Bronzereliefs verzieren ließ. Aššur-nâṣir-apli führte Verwaltungsreformen durch. Ein eng gespanntes Botennetz erlaubte eine schnelle Nachricht von Aufständen, die so im Keim erstickt werden konnten. Unter Aššur-nâṣir-apli II. wurden die Deportationen in großem Stil ausgeweitet. Sein Nachfolger war sein Sohn Salmānu-ašarēd III. Seine Gemahlin war Mullissu-mukannišat-Ninua, die auch Mutter des Nachfolgers war. Literatur Dietz-Otto Edzard: Geschichte Mesopotamiens. C. H. Beck Verlag, München 2004, ISBN 3-406-51664-5. A. K. Grayson: Assyria: Ashur‐dan II to Ashur‐nirari V (934–745 B.C.). In: John Boardman u. a. (Hrsg.): The Cambridge Ancient History. 2. Auflage. Band 3.1. Cambridge University Press, Cambridge 1982, S. 238–281, hier S. 253–259. Weblinks Einzelnachweise König (Assyrien) Geboren im 10. Jahrhundert v. Chr. Gestorben im 9. Jahrhundert v. Chr. Mann
420
https://de.wikipedia.org/wiki/Antioxidans
Antioxidans
Ein Antioxidans oder Antioxidationsmittel (Mehrzahl Antioxidantien, auch Antioxidanzien) ist eine chemische Verbindung, die eine Oxidation anderer Substanzen verlangsamt oder gänzlich verhindert. Antioxidantien haben eine große physiologische Bedeutung durch ihre Wirkung als Radikalfänger. Sie inaktivieren im Organismus reaktive Sauerstoffspezies (ROS), deren übermäßiges Vorkommen zu oxidativem Stress führt, der in Zusammenhang mit dem Altern und der Entstehung einer Reihe von Krankheiten gebracht wird. Geringe, d. h. physiologische Mengen an ROS dagegen sind als Signalmoleküle, die die Stressabwehrkapazität, Gesundheit und Lebenserwartung von Modellorganismen und des Menschen steigern, durchaus erforderlich. Eine nahrungsergänzende Zufuhr (Supplementierung) von Antioxidantien kann bestimmten Studien zufolge zu einer gesteigerten Krebshäufigkeit und zu einem erhöhten Sterberisiko des Menschen führen. Antioxidationsmittel sind außerdem von großer, insbesondere technologischer Bedeutung als Zusatzstoffe für verschiedenste Produkte (Lebensmittel, Arzneimittel, Bedarfsgegenstände, Kosmetik, Gebrauchsmaterialien), um darin einen – besonders durch Luftsauerstoff bewirkten – oxidativen Abbau empfindlicher Moleküle zu verhindern. Der oxidative Abbau bestimmter Inhaltsstoffe oder Bestandteile wirkt sich wertmindernd aus, weil sich Geschmack oder Geruch unangenehm verändern (Lebensmittel, Kosmetika), die Wirkung nachlässt (bei Arzneimitteln), schädliche Abbauprodukte entstehen oder physikalische Gebrauchseigenschaften nachlassen (z. B. bei Kunststoffen). Wirkungsmechanismus Nach Art des chemischen Wirkmechanismus werden Antioxidantien in Radikalfänger und Reduktionsmittel unterschieden. Im weiteren Sinne werden auch Antioxidations-Synergisten zu den Antioxidantien gerechnet. Radikalfänger Bei Oxidationsreaktionen zwischen organischen Verbindungen treten vielfach kettenartige Radikalübertragungen auf. Hier werden Stoffe mit sterisch gehinderten Phenolgruppen wirksam, die im Ablauf dieser Übertragungen reaktionsträge stabile Radikale bilden, die nicht weiter reagieren, wodurch es zum Abbruch der Reaktionskaskade kommt (Radikalfänger). Zu ihnen zählen natürliche Stoffe wie die Tocopherole und synthetische wie Butylhydroxyanisol (BHA), Butylhydroxytoluol (BHT) und die Gallate. Sie sind wirksam in lipophiler Umgebung. Reduktionsmittel Reduktionsmittel haben ein sehr niedriges Redox-Potential – ihre Schutzwirkung kommt dadurch zustande, dass sie eher oxidiert werden als die zu schützende Substanz. Vertreter sind etwa Ascorbinsäure (−0,04 V bei pH 7 und 25 °C), Salze der Schwefligen Säure (+0,12 V bei pH 7 und 25 °C) und bestimmte organische schwefelhaltige Verbindungen (z. B. Glutathion, Cystein, Thiomilchsäure), die vorwiegend in hydrophilen Matrices wirksam sind. Antioxidationssynergisten Synergisten unterstützen die Wirkung von Antioxidantien, beispielsweise, indem sie verbrauchte Antioxidantien wieder regenerieren. Durch Komplexierung von Metallspuren (Natrium-EDTA) oder Schaffung eines oxidationshemmenden pH-Wertes können Synergisten die antioxidative Wirkung eines Radikalfängers oder Reduktionsmittels verstärken. Vorkommen Natürliche Antioxidantien Viele Antioxidantien sind natürlich und endogen vorkommende Stoffe. Im Säugetierorganismus stellt das Glutathion ein sehr wichtiges Antioxidans dar, auch eine antioxidative Aktivität von Harnsäure und Melatonin ist bekannt. Ferner sind Proteine wie Transferrin, Albumin, Coeruloplasmin, Hämopexin und Haptoglobin antioxidativ wirksam. Antioxidative Enzyme, unter denen die wichtigsten die Superoxiddismutase (SOD), die Glutathionperoxidase (GPX) und die Katalase darstellen, sind zur Entgiftung freier Radikale in den Körperzellen ebenfalls von entscheidender Bedeutung. Für ihre enzymatische Aktivität sind Spurenelemente wie Selen, Kupfer, Mangan und Zink wichtig. Als antioxidativ wirksames Coenzym ist Ubichinon-10 zu nennen. Für den menschlichen Organismus essentiell notwendige und antioxidativ wirksame Stoffe wie Ascorbinsäure (Vitamin C), Tocopherol (Vitamin E) und Betacarotin (Provitamin A) können nicht bedarfsdeckend synthetisiert werden und müssen mit der Nahrung zugeführt werden (exogene Antioxidantien). Eine Reihe von Antioxidantien werden als Bestandteil der Muttermilch an den Säugling weitergegeben, um dort ihre Wirkung zu entfalten. Als sekundäre Pflanzenstoffe kommen Antioxidantien wie Carotinoide und verschiedenste polyphenolische Verbindungen (Flavonoide, Anthocyane, Phytoöstrogene, Nordihydroguajaretsäure und andere) in zahlreichen Gemüse- und Obstarten, Kräutern, Früchten, Samen etc. sowie daraus hergestellten Lebensmitteln vor. Die Deutsche Gesellschaft für Ernährung (DGE) erachtet die wissenschaftliche Datenlage als nicht ausreichend, um Empfehlungen für die Zufuhr einzelner Antioxidantien abzugeben. Synthetische Antioxidantien Zu den künstlichen Antioxidationsmitteln zählen die Gallate, Butylhydroxyanisol (BHA) und Butylhydroxytoluol (BHT). Durch eine synthetische Veresterung der Vitamine Ascorbinsäure und Tocopherol wird deren Löslichkeit verändert, um das Einsatzgebiet zu erweitern und verarbeitungstechnische Eigenschaften zu verbessern (Ascorbylpalmitat, Ascorbylstearat, Tocopherolacetat). Ernährung Gesundheitlicher Stellenwert Freie Radikale sind hochreaktive Sauerstoffverbindungen, die im Körper gebildet werden und in verstärktem Maß durch UV-Strahlung und Schadstoffe aus der Umwelt entstehen. Ihr Vorkommen im Übermaß (oxidativer Stress) erzeugt Zellschäden und gilt nicht nur als mitverantwortlich für das Altern, sondern wird auch in Zusammenhang mit der Entstehung einer Reihe von Krankheiten gebracht. Geringe, d. h. physiologische Mengen an ROS dagegen sind als Signalmoleküle, die die Stressabwehrkapazität, Gesundheit und Lebenserwartung von Modellorganismen und des Menschen steigern, erforderlich. Einen Schutz vor den schädlichen Folgen zu hoher Mengen an freien Radikalen stellt das körpereigene Abwehrsystem dar, welches durch geringe Mengen an ROS – einer Impfung ähnlich – immer wieder aktiviert wird (siehe auch Mitohormesis). Außer endogen gebildeten Antioxidantien wirken im Abwehrsystem auch solche, die mit der Nahrung zugeführt werden. Eine gesunde Ernährung unter Einbeziehung von mit an antioxidativ wirksamen Stoffen reichen Lebensmitteln gilt als effektive Vorbeugung vor Herz-Kreislauferkrankungen, eine Schutzwirkung vor bestimmten Krebsarten wird als möglich erachtet. Beides jedoch wird inzwischen nicht mehr als durch aussagekräftige Studien gesichert betrachtet. Die Beurteilung polyphenolischer Pflanzeninhaltsstoffe dagegen ist in diesem Zusammenhang deutlich besser gesichert, und die wissenschaftliche Beweislage für die gesundheitsfördernde Wirkung bestimmter Polyphenole, besonders der im Tee, Kakao, Beeren und Rotwein vorkommenden Flavanole, hat sich in den letzten Jahren verstärkt. Dies scheint aber nicht damit in Verbindung zu stehen, dass diese Substanzen antioxidative Eigenschaften in vitro besitzen. Ein Expertengutachten geht davon aus, dass die antioxidative Kapazität, welche die Polyphenole und Flavonoide in vitro zeigen, kein Messwert für deren Wirkung im menschlichen Körper ist. Die Europäische Behörde für Lebensmittelsicherheit (EFSA) schloss sich dieser Einschätzung weitgehend an. Häufigste Lebensmittelquellen Nach einer US-amerikanischen Untersuchung aus dem Jahr 2005 stammt der mit Abstand größte Teil der mit der täglichen Nahrung zugeführten physiologischen Antioxidantien in den USA aus dem Genussmittel Kaffee, was allerdings weniger daran liege, dass Kaffee außergewöhnlich große Mengen an Antioxidantien enthalte, als vielmehr an der Tatsache, dass die US-Amerikaner zu wenig Obst und Gemüse zu sich nähmen, dafür aber umso mehr Kaffee konsumierten. Die antioxidative Kapazität eines Lebensmittels und somit die Fähigkeit zum Abfangen von Sauerstoffradikalen wird mit dessen ORAC-Wert angegeben. Nahrungsergänzung Antioxidativ wirksame Substanzen werden in einer Reihe von Nahrungsergänzungsmitteln als „Anti-Aging“-Präparate und zur Krankheitsprävention (z. B. vor Krebs) auf dem Markt angeboten. Die enthaltenen antioxidativen Substanzen kommen auch natürlicherweise in der Nahrung vor, außerdem werden sie vielen Lebensmitteln zugesetzt, sodass in der Regel kein Mangel besteht. Es fehlen belastbare wissenschaftliche Nachweise, dass die Einnahme von Nahrungsergänzungsmitteln – in denen antioxidativ wirksame Substanzen meist isoliert und nicht im Verbund mit natürlichen Begleitstoffen enthalten sind – gesundheitlich vorteilhaft ist. Im Gegenteil kann die Supplementierung der Antioxidantien beta-Carotin, Vitamin A sowie Vitamin E beim gesunden Menschen eine gesteigerte Entstehung von Krebs und eine Verringerung der Lebenserwartung bewirken, während Vitamin C als Supplement bzgl. Krebs und Lebenserwartung wirkungslos ist. Bei gesunden Sportlern wurde in einer 2009 veröffentlichten Studie ein kontraproduktiver Einfluss von Vitamin C und E auf den Trainingseffekt und die Vorbeugung von Diabetes gemessen, da diese Antioxidantien den Anstieg von Radikalen im Körper unterdrücken, sodass er sich weniger gut an die Belastung anpasste. Auch bei bestimmten pathologischen Zuständen soll sich eine antioxidative Nahrungsergänzung nachteilig auswirken: bei Krebspatienten wurden Wechselwirkungen mit antineoplastischen Behandlungsmethoden (Chemotherapie, Strahlentherapie) oder andere schädliche Auswirkungen beschrieben. Bezogen auf Antioxidantien in Form von Supplementen wird auf die finanziellen Interessen der Hersteller verwiesen: „Die Vorstellung von Oxidation und Altern wird von Leuten am Leben gehalten, die damit Geld verdienen.“ Seit 2013 gilt die Vorstellung als überholt, man könne das komplexe Netzwerk von antioxidativen Systemen im menschlichen Körper durch Flutung mit einer einzelnen per Supplement zugeführten Substanz verbessern. Totale antioxidative Kapazität Die Bestimmung der totalen antioxidativen Kapazität (total antioxidant capacity, TAC) in Körperflüssigkeiten liefert einen pauschalen Eindruck über die relative antioxidative Aktivität einer biologischen Probe. Es stehen verschiedene Möglichkeiten für die Bestimmung der antioxidativen Kapazität in Körperflüssigkeiten zur Verfügung. Das Grundprinzip all dieser Methoden ist gleich. Die in der biologischen Probe enthaltenen Antioxidantien schützen ein Substrat vor dem durch ein Radikal induzierten oxidativen Angriff. Die Zeitspanne und das Ausmaß, mit der die Probe diese Oxidation verhindert, kann bestimmt werden und wird meist mit Trolox (wasserlösliches Vitamin-E-Derivat) oder Vitamin C als Standard verglichen. Je länger es dauert, ein Substrat zu oxidieren, desto höher ist die antioxidative Kapazität. Durch verschiedene Extraktionen kann man die antioxidative Kapazität lipidlöslicher und wasserlöslicher Substanzen untersuchen. Oft angewandte Tests sind TRAP (Total Peroxyl Radical-trapping Antioxidant Parameter), ORAC (Oxygen Radical Absorbance Capacity), TEAC (Trolox Equivalent Antioxidative Capacity), FRAP (Ferric Ion Reducing Antioxidant Power) und PLC (Photochemilumineszenz). Im Jahre 2010 wurde in den USA die totale antioxidative Kapazität durch Ernährung und Nahrungsergänzungsmittel bei Erwachsenen untersucht. Dabei wurden Datenbanken des US-Department für Landwirtschaft, Daten zu Nahrungsergänzungsmitteln und zum Lebensmittelverzehr von 4391 US-Erwachsenen im Alter ab 19 Jahren ausgewertet. Um die Daten zur Aufnahme von einzelnen antioxidativen Verbindungen zu TAC-Werten zu konvertieren, wurde die Messung des Vitamin-C-Äquivalent (VCE) von 43 antioxidativen Nährstoffen zuvor angewendet. Die tägliche TAC lag durchschnittlich bei 503,3 mg VCE/Tag, davon ca. 75 Prozent aufgenommen durch die Nahrung und 25 Prozent durch Nahrungsergänzungsmittel. Nichtinvasive Messung von Antioxidantien am Menschen Die Hochleistungsflüssigkeitschromatographie gilt als Goldstandard zur Bestimmung von Antioxidantien. Die Analyse erfordert entweder Blutproben oder die Entnahme von Hautbiopsien. Zur Analyse kurzfristiger Änderungen eignet sie sich deshalb nur bedingt. Aus diesem Grund wurden Verfahren entwickelt, mit denen Antioxidantien nichtinvasiv durch direkte Messung an spezifischen Hautarealen bestimmt werden. Gemessen werden Carotinoide als bester biologischer Marker für den Konsum von Obst und Gemüse. Ein in diesem Zusammenhang wichtiges Verfahren ist die Resonanz-Raman-Spektroskopie. Prinzipiell erfordert sie schmalbandige Lichtquellen (meist Laser) zur Beleuchtung. Das aus der Haut zurückgestreute Licht wird über ein dispersives Element (meist ein Optisches Gitter) in seine spektralen Anteile zerlegt. Während die Messung in der Vergangenheit mit Laborgeräten erfolgte, sind inzwischen auch Tischgeräte verfügbar. Ein weiteres Verfahren, mit dem Antioxidantien erfolgreich am Menschen gemessen wurden, ist die Reflexionsspektroskopie. Im Unterschied zur Resonanz-Raman-Spektroskopie kommen zur Beleuchtung der Haut breitbandige Lichtquellen oder LEDs zum Einsatz. Der apparative Aufwand ist insgesamt geringer, sodass Antioxidantien-Scanner auch als Handgeräte realisiert werden können, die in ihrem Messergebnis jedoch sehr gut mit den Ergebnissen der Resonanz-Raman-Spektroskopie korrelieren. Technische Verwendung In der Industrie werden Antioxidantien als Zusatzstoffe (Additive) benötigt, um die oxidative Degradation von Kunststoffen, Elastomeren und Klebstoffen zu verhindern. Sie dienen außerdem als Stabilisatoren in Treib- und Schmierstoffen. In Kosmetika auf Fettbasis, etwa Lippenstiften und Feuchtigkeitscremes, verhindern sie Ranzigkeit. In Lebensmitteln wirken sie Farb- und Geschmacksveränderungen entgegen und verhindern ebenfalls das Ranzigwerden von Fetten. Obwohl diese Additive nur in sehr geringen Dosen benötigt werden, typischerweise weniger als 0,5 Prozent, beeinflussen ihr Typ, die Menge und Reinheit drastisch die physikalischen Parameter, Verarbeitung, Lebensdauer und oft auch Wirtschaftlichkeit der Endprodukte. Ohne Zugabe von Antioxidantien würden viele Kunststoffe nur kurz überleben. Die meisten würden sogar überhaupt nicht existieren, da viele Plastikartikel nicht ohne irreversible Schäden fabriziert werden könnten. Das Gleiche gilt auch für viele andere organische Materialien. Kunst-, Kraft- und Schmierstoffe Es kommen hauptsächlich sterisch gehinderte Amine (hindered amine stabilisers, HAS) aus der Gruppe der Arylamine zum Einsatz und sterisch gehinderte Phenolabkömmlinge, die sich strukturell oft vom Butylhydroxytoluol ableiten (Handelsnamen Irganox, Ethanox, Isonox und andere). Futtermittel Lebensmittel, Kosmetika, Arzneimittel Zulässige Antioxidantien sind in Deutschland in der Verordnung (EG) Nr. 1333/2008 und der Kosmetik-Verordnung geregelt. Beispiele für antioxidative Lebensmittelzusatzstoffe sind in der Tabelle angegeben. Als Lebensmittelzusatz aufgrund lebertoxischer Wirkungen seit 1968 nicht mehr erlaubt ist die Nordihydroguajaretsäure, ein höchst wirksames Antioxidans zur Haltbarmachung von Fetten und Ölen, das aber weiterhin in kosmetischen Präparaten zulässig ist. Lebensmitteltechnisch und pharmazeutisch gebräuchliche Antioxidationssynergisten sind unter anderem Citronensäure und ihre Salze (E330–E333), Weinsäure und ihre Salze (E334–E337), Phosphorsäure und ihre Salze (E338–E343) und Ethylendiamintetraessigsäure (EDTA) und ihre Salze (Calciumdinatrium-EDTA, E385). Analytik Die zuverlässige qualitative und quantitative Bestimmung der verschiedenen Antioxidantien gelingt nach angemessener Probenvorbereitung durch Kopplung der HPLC oder Gaschromatographie mit der Massenspektrometrie. Literatur Lipid-soluble antioxidants: biochemistry and clinical applications, Hrsg.: A. S. H. Ong, L. Packer, Birkhäuser, Basel; Boston; Berlin, 1992, ISBN 978-3-7643-2667-8 M. H. Carlsen u. a.: The total antioxidant content of more than 3100 foods, beverages, spices, herbs and supplements used worldwide. In: Nutrition Journal 9, 2010, 3. doi:10.1186/1475-2891-9-3 (Open Access unter CC-by-2.0) Einzelnachweise !Antioxidantien Humanphysiologie Tierphysiologie
422
https://de.wikipedia.org/wiki/Aszites
Aszites
Der Aszites (auch Ascites, von ) ist die medizinische Benennung für eine übermäßige Ansammlung von freier, meist klarer seröser Flüssigkeit in der Bauchhöhle, genauer im Peritonealraum; andere Ausdrücke für diese Flüssigkeitsansammlung sind Hydraskos, Bauchwassersucht oder Wasserbauch. Bei Gesunden enthält der Peritonealraum nur zirka 50 bis 70 Milliliter Flüssigkeit. Bei manchen Krankheiten, z. B. bei einer Leberzirrhose, nimmt die Menge erheblich zu; deswegen sprach man (nach Hippokrates) früher auch von einer Leberwassersucht. Bei einer Mangelernährung mit unzureichender Aufnahme von Proteinen wird auch vom Hungerbauch (Kwashiorkor) gesprochen. Der bereits in der Antike bekannte Zusammenhang des Aszites mit Lebererkrankungen wurde in den frühen hippokratischen Schriften als durch einen Einschmelzungsvorgang der Leber und später (bei Erasistratos) als zirrhotisch bedingt angesehen. Symptomatik Kleinere Aszitesmengen sind meist symptomlos. Erst größere Volumina machen sich als Schwellung des Bauches bemerkbar, die meist schmerzlos ist. Ätiologie und Pathophysiologie Allen Ursachen gemeinsam ist der Übertritt von Flüssigkeit aus den Blutgefäßen in den Peritonealraum. Der Aszites gehört zusammen mit Hepatischer Enzephalopathie und Ösophagusvarizen zu den lebensbedrohlichen Komplikationen der dekompensierten Leberzirrhose. Mit rund 75 % ist die Leberzirrhose auch die häufigste Ursache für Aszites, da sie durch eine Erhöhung des Drucks im Pfortaderkreislauf zu einem Flüssigkeitsaustritt aus den Blutgefäßen führt. Aszites kann auch bei einem akuten Leberschaden auftreten. Ebenso kann ein Verschluss der venösen Sinus der Leber, z. B. beim Budd-Chiari-Syndrom, zur Bildung von Aszites führen. Auch bei einer Herzinsuffizienz oder einer Pericarditis constrictiva kann es zu Aszites kommen. Tumoren der Leber oder Metastasen im Bauchraum können ebenso eine Flüssigkeitsansammlung bedingen. Bei Perforationen von Hohlorganen führt eine sekundäre Peritonitis (Entzündung des Bauchfells) auch zur Bildung von freier Flüssigkeit im Peritonealraum. Eine Tuberkulose kann solchen Aszites chronisch bedingen. Ebenso kann eine Pankreatitis oder Fisteln des Gallen- oder Pankreassystems zur Bildung von Aszites führen. Bei schwerer Unterernährung kommt es durch Albuminmangel oft zu Aszites. Diagnostik Körperliche Untersuchung Sichtbare Schwellung (ausladende Flanken beim liegenden Patienten, im Gegensatz zum nach oben stehenden Bauch bei Adipositas) Perkussion: Dämpfung, die sich entsprechend der Schwerkraft verlagern lässt Undulationsphänomen: Bei seitlichem Anstoßen des Bauches bildet sich eine Welle, die (ab etwa zwei Litern Aszitesflüssigkeit) auf der anderen Seite ertastet werden kann. Sonografie (Ultraschall): Geringe Mengen von Aszites lassen sich dabei am ehesten am Unterrand der Leber oder knapp oberhalb der Harnblase nachweisen. Der Raum zwischen Leber und Niere (Morison-Grube oder Recessus hepatorenalis) ist im Liegen der tiefste Punkt des Oberbauchs. Computertomografie Um zu klären, warum sich Aszites gebildet hat, ist eine Punktion des Peritonealraums und Untersuchung der Flüssigkeit obligat. Der Aszites ist meist eine klare Flüssigkeit. Milchiger Aszites weist auf eine Verletzung oder Störung des Lymphabflusses (zum Beispiel durch ein Trauma) hin, kann aber auch bei anderen Erkrankungen vorkommen. Dunkelbrauner Aszites erhält seine Farbe oft durch einen hohen Anteil an Bilirubin und ist hinweisend für ein Galleleck. Schwarzer Aszites kann auf Nekrosen des Pankreas oder ein metastasiertes Melanom hinweisen. Der Eiweißgehalt des Aszites kann einen Hinweis für die Genese erbringen. Bei einem Eiweißgehalt über 2,5 g/dl (= Exsudat) liegt ein entzündlicher Aszites vor, bei einem Wert unter 2,5 g/dl (= Transsudat) besteht ein nicht-entzündlicher Aszites. Alternativ kann der Albumingehalt des Aszites in Relation zum Albumingehalt des Bluts gesetzt werden. Beträgt dieser Serum-Aszites-Albumin-Gradient (SAAG = Serumalbuminkonzentration minus Aszitesalbuminkonzentration) mehr als 1,1 g/dl, ist von einer Bildung des Aszites durch einen Bluthochdruck in der Pfortader auszugehen. Dabei spricht ein Gradient von 1,1 g/dl bis 2,5 g/dl für das Vorliegen einer Leberzirrhose, der Spätform eines Budd-Chiari-Syndroms oder einer massiven Metastasierung der Leber. Ein auf über 2,5 g/dl erhöhter Gradient spricht für Aszitesbildung im Rahmen einer Herzinsuffizienz oder eines frühen Budd-Chiari-Syndroms. Ein SAAG von kleiner 1,1 g/dl spricht gegen eine Genese des Aszites im Rahmen eines Pfortaderhochdrucks. Dies kann im Rahmen einer Pankreatitis, einer Peritonealkarzinose, eines Gallelecks, einer Tuberkulose oder eines nephrotischen Syndroms auftreten. Eine laborchemische Untersuchung auf Zellzahl kann eine spontan bakterielle Peritonitis nachweisen. Mikrobiologische und zytologische Untersuchungen sind ebenso sinnvoll. Weitere durch hohen Blutdruck in der Pfortader ausgelöste Komplikationen der Leberzirrhose sind Varizenblutungen und die hepatische Enzephalopathie. Komplikationen Refluxösophagitis, Atemnot, Darmwandhernien aufgrund erhöhten intraabdominellen Drucks Hydrothorax hepatorenales Syndrom bei Leberzirrhose erhöhtes Risiko von Varizenblutungen und hepatischer Enzephalopathie Eine gefährliche Komplikation des Aszites ist die spontan bakterielle Peritonitis (SBP): Bei etwa 15 % der Patienten mit portalem Aszites (also Aszites aufgrund einer Druckerhöhung in der Pfortader wie bei Leberzirrhose) kommt es zu einer Auswanderung von Darmbakterien aus dem Darm mit anschließender Peritonitis. Die häufigsten Erreger sind hierbei Escherichia coli (50 %), grampositive Kokken (30 %) und Klebsiellen (10 %). Die Patienten haben meist weder Fieber noch Abdominalschmerzen, diagnostisch hilft die Aszitespunktion, bei der sich über 250 Granulozyten/µl finden. Der Keimnachweis gelingt oft nicht. Dennoch ist die SBP mit einer hohen Letalität von bis zu 50 % verbunden. Therapie: Cephalosporine der dritten Generation, anschließend Rezidivprophylaxe mit oralem Fluorchinolon. Eine neuere mikrobiologische Studie widerlegt allerdings die Vermutung, dass die für SBP verantwortlichen Bakterien ausschließlich Mitglieder der Darmflora sind. Außerdem waren Bakterien bereits vor dem Erscheinen der SBP-Symptome nachweisbar. Die genauen Mechanismen, die zu einer Besiedlung des Peritoneums führen, sind daher weitgehend unklar. Therapie Leichte Fälle des Aszites können mit Natriumrestriktion behandelt werden. Etabliert hat sich beim portalen Aszites auch die Gabe von Spironolacton, einem Aldosteronantagonisten. Elektrolyte und Gewicht müssen regelmäßig kontrolliert werden, ebenso sollte man eine Flüssigkeitsbilanz ziehen. Mittelschwere Fälle werden mit der zusätzlichen Gabe eines Schleifendiuretikums, z. B. Furosemid, behandelt. Die Ausschwemmung sollte schonend erfolgen, d. h. nicht mehr als 500 g Gewichtsabnahme pro Tag, um der Entstehung eines hepatorenalen Syndroms vorzubeugen. Schwere, therapierefraktäre Verläufe können zusätzlich mit Parazentese, also der Abpunktion der Flüssigkeit, mit gleichzeitiger Albumingabe und anschließender Rezidivprophylaxe mit Diuretika (Medikamente zur Steigerung der Nierenausscheidung) behandelt werden. Bei dieser Methode wird der Erguss durch die Bauchdecke punktiert und abgelassen. Da sich der Aszites meist schnell wieder bildet, muss diese Methode zwangsläufig wiederholt werden. Dies kann vom Arzt zwar ambulant durchgeführt werden, Nachteile sind jedoch dabei, dass bei jeder Wiederholung das Risiko von Blutungen, von bakteriellen Infektionen des Bauchraums und von Verletzungen vorhanden ist. Es hat sich gezeigt, dass Patienten aufgrund der Schmerzen und Unannehmlichkeiten oft die Punktionen hinauszögern, bis die Symptome unerträglich sind. Als Alternative zu den fortlaufenden Punktionen hat sich in letzter Zeit das Legen eines dünnen Ablaufschlauchs (PleurX Aszites) in die Bauchhöhle bewährt. Der im Bauchraum liegende Teil des Silikonschlauches hat mehrere Löcher, über die der Erguss in den Katheter eintreten kann. Außerhalb der Bauchhöhle verläuft der Schlauch im Unterhautfettgewebe, um bakterielle Entzündungen zu verhindern. Am Ende des Schlauchs befindet sich ein Ventil, das Eintreten von Luft und das Auslaufen von Flüssigkeit verhindert, wenn keine aktive Entlastung durch den Patienten oder den Pflegedienst stattfindet. Die Entlastung des Ergusses erfolgt mit einer Vakuumflasche, die über ein Spezialventil mit dem Katheter verbunden wird. Wenn die Klemmen an der Drainageflasche geöffnet werden, kann Flüssigkeit aus dem Bauchraum aktiv und schnell abgelassen werden. Die meisten Patienten können dies nach einer Einweisung selbst bewerkstelligen. Der Katheter kann ambulant mit örtlicher Betäubung gelegt werden, das Ablassen des Aszites selbst ist schmerzfrei. Ebenso kann ein TIPS (transjugulärer intrahepatischer portosystemischer (Stent-)Shunt), also eine Verbindung zwischen der Pfortader und der unteren Hohlader, angelegt werden. Hierbei kommt es anschließend allerdings zu einem beinahe ungehinderten Anstrom der normalerweise von der Leber abgebauten Stoffe in den Körperkreislauf. Das bei Leberzirrhose ohnehin in der Entgiftungsfunktion eingeschränkte Organ verliert so die Fähigkeit, Giftstoffe wie Ammoniak zu verstoffwechseln. Dadurch steigt die Gefahr für das Auftreten weiterer Komplikationen, beispielsweise einer portalen Hypertension oder einer hepatischen Enzephalopathie. Kürzlich veröffentlichte Studiendaten zeigen im Rahmen einer Therapie der hepatischen Enzephalopathie auch eine Senkung des Risikos für zusätzliche Leberzirrhose-Komplikationen wie eine spontan bakterielle Peritonitis (SBP) oder Varizenblutungen. Eine weitere Option bei Leberzirrhose ist eine Transplantation. Allerdings stehen nicht ausreichend Organe zur Verfügung. So standen Ende des Jahres 2017 rund 2.000 Patienten auf der Warteliste für eine Lebertransplantation – während nur 823 Patienten tatsächlich eine Spenderleber erhielten. Maligner Aszites wird häufig mit wiederholten Parazentesen behandelt. Zudem kommen Shunts und Chemotherapien zum Einsatz, die teilweise direkt in den Peritonealraum (intraperitoneal) verabreicht werden, ebenso wie der speziell für die Therapie des malignen Aszites zugelassene Antikörper Catumaxomab. Zwei wissenschaftliche Studien aus den Jahren 2011 und 2013 zeigen als Alternative zur Parazentese bei malignem und nicht malignem Aszites die Anlage eines im Unterhautfettgewebe getunnelten Katheters. Der Patient, seine Angehörigen oder der Pflegedienst können im häuslichen Umfeld den Aszites drainieren. Siehe auch Ödem Einzelnachweise Weblinks R. Wiest, J. Schölmerich: Diagnostik und Therapie des Aszites. In: Deutsches Ärzteblatt. Band 103, Nr. 28-29, 2006, S. A1972–A1981. (aerzteblatt.de, PDF, 220 kB) S3-Leitlinie „Aszites, spontan bakterielle Peritonitis und hepatorenales Syndrom“ der Dt. Ges. f. Verdauungs- und Stoffwechselkrankheiten (DGVS): AWMF-Register Nr. 021/017, Stand 30. April 2011 Pathologie
423
https://de.wikipedia.org/wiki/Aggregat%204
Aggregat 4
Aggregat 4 (A4) war die Typenbezeichnung der im Jahr 1942 weltweit ersten funktionsfähigen Großrakete mit Flüssigkeitstriebwerk. Sie war als ballistische Artillerie-Rakete großer Reichweite konzipiert und das erste von Menschen konstruierte Objekt, das die Grenze zum Weltraum – nach Definition der Fédération Aéronautique Internationale 100 Kilometer Höhe (Kármán-Linie) – durchstieß. Die A4 bildete ab Mitte 1945 die Ausgangsbasis der Raumfahrtentwicklungen der USA und der Sowjetunion. Die Boden-Boden-Rakete A4 wurde im Deutschen Reich in der Heeresversuchsanstalt Peenemünde (HVP) auf Usedom ab 1939 unter der Leitung von Wernher von Braun entwickelt und kam im Zweiten Weltkrieg ab 1944 in großer Zahl zum Einsatz. Neben der flugzeugähnlichen Fieseler Fi 103, genannt V1, bezeichnete die NS-Propaganda auch die Rakete A4 als kriegsentscheidende „Wunderwaffe“. Im August 1944 wurde sie von Propagandaminister Joseph Goebbels erstmals intern und im Oktober 1944 öffentlich zur Vergeltungswaffe 2, kurz V2, erklärt. In der deutschen Presse war spätestens ab Dezember 1944 von der Fernwaffe „V 2“ die Rede. Die Starteinheiten von Wehrmacht und SS nannten sie schlicht „Das Gerät“. Entwicklung Erste Versuche mit Flüssigbrennstoffraketen fanden von 1932 an an der Heeresversuchsanstalt Kummersdorf statt. Ab 1937 wurden die Versuche schrittweise nach Peenemünde verlegt. Im März 1936 hatte man für die A4-Raketenentwicklung in der dortigen Versuchsstelle folgendes Anforderungsprofil formuliert: Eine Tonne Nutzlast (Sprengstoff) sollte über 250 Kilometer bei einer Abweichung von 1 Promille (250 Meter) befördert werden. Neben dem Technischen Direktor Wernher von Braun war eine große Zahl von Wissenschaftlern und Ingenieuren in der HVP tätig, unter ihnen Walter Thiel, Helmut Hölzer, Klaus Riedel, Helmut Gröttrup, Kurt Debus und Arthur Rudolph. Leiter der HVP bzw. zeitweise deren Kommandeur war Generalmajor Walter Dornberger, Chef der Raketenabteilung im Heereswaffenamt (Wa Prüf R, später Wa Prüf 11). Die Vorgängermodelle des Aggregats 4 waren nur teilweise erfolgreich: Aggregat 1 explodierte beim Brennversuch in der Heeresversuchsanstalt Kummersdorf, Aggregat 2 absolvierte 1934 zwei erfolgreiche Starts auf Borkum und im Dezember 1937 hatte Aggregat 3 vier Fehlstarts. Erst der direkte Nachfolger Aggregat 5 war 1938 erfolgreich. Das Aggregat 4 wurde ab 1939 entwickelt und erstmals im März 1942 getestet. Am 3. Oktober 1942 gelang ein erfolgreicher Start, bei dem es mit einer Spitzengeschwindigkeit von 4.824 km/h (etwa Mach 4,5) eine Gipfelhöhe von 84,5 km erreichte und damit erstmals in den Grenzbereich zum Weltraum vordrang. Dies war der erste gelungene Großraketenstart der Menschheitsgeschichte. Am 26. Mai 1943 fand ein Vergleichsschießen mit der Flugbombe Fi 103 in Peenemünde statt. Danach fiel die Entscheidung, beide Waffen parallel weiter zu entwickeln und einzusetzen. Die Flügelbombe galt als das einfachere System, das in größerer Stückzahl herzustellen, auf kürzeren Distanzen einzusetzen war und die Rakete als Hauptangriffswaffe unterstützten sollte. Nach den Luftangriffen der Royal Air Force auf Peenemünde (s. Operation Hydra am 17. August 1943) wurde beschlossen, die Ausbildung der Raketentruppen und die Scharferprobung der A4-Raketen nicht in Peenemünde, sondern in Südostpolen außerhalb der Reichweite der alliierten Bomber durchzuführen: anfangs für die westalliierten Bomber unerreichbar im Karpatenvorland auf dem SS-Truppenübungsplatz Heidelager bei Blizna im Generalgouvernement, wurden die Übungen wegen der anrückenden Roten Armee später auf den SS-Truppenübungsplatz Westpreußen in die Tucheler Heide nördlich von Bromberg verlegt. Die Bevölkerung um Blizna war dabei rücksichtslos den A4- und Fieseler-Fi-103-Einschlägen ausgeliefert. Auf Flugblättern warnte man vor Ort lediglich vor gefährlichen Kraftstoffbehältern, die aber keine Bomben seien. Am 20. Mai 1944 stellten Mitglieder der polnischen Heimatarmee Teile eines abgestürzten A4 sicher. Die wichtigsten Teile wurden zusammen mit den in Polen vorgenommenen Auswertungen in der Nacht vom 25. zum 26. Juli 1944 mit einer DC-3 der RAF, die in der Nähe von Żabno gelandet war, nach Brindisi ausgeflogen (Operation Most III). Von dort aus kamen die Teile nach London, was der britischen Regierung erstmals die Existenz einer deutschen Rakete bewies. Anfänglich zerlegten sich 70 % der Testraketen beim Wiedereintritt in die Erdatmosphäre in einigen Kilometern Höhe, so dass nur Trümmer mit reduzierter Sprengwirkung auf der Erde einschlugen. Aufgrund dieser Strukturversagen im Flug begannen im Juni 1944 Teststarts, welche zwecks verbesserter Verfolgbarkeit teilweise senkrecht erfolgten. Bei den „Luftzerlegern“ tappte man jedoch lange im Dunkeln. Erst mit der Isolierung der Tanks durch Glaswolle und einer zusätzlich versteiften Mittelzelle konnten die Luftzerleger auf 30 % reduziert werden. Kurz vor dem Fronteinsatz wurde die Zuverlässigkeit durch eine Blechmanschette im Geräteteil auf nahezu 100 % gesteigert. Wegen dieser konstruktiven Änderungen blieben nur noch maximal 750 kg (statt geplanter 1.000 kg) für den Sprengstoff. Am 20. Juni 1944 wurde bei einem Senkrechtstart eine Rekordhöhe von 174,6 km erzielt. Bereits zwei Tage zuvor hatte die Rakete mit der Werk-Nr. MW 18012 eine Gipfelhöhe von etwa 127 km erreicht; damit übertraf diese Rakete die heutige anerkannte Weltraumgrenze von 100 km Höhe (die Kármán-Linie) deutlich und war der erste menschengemachte Gegenstand im Weltraum. Von Peenemünde und der Greifswalder Oie aus erfolgten noch bis einschließlich 20. Februar 1945 Versuchsstarts von A4-Raketen. Aufbau Die A4-Rakete war 14 Meter hoch und hatte vollgetankt eine Startmasse von 13,5 Tonnen. Die einstufige Rakete bestand aus etwa 20.000 Einzelteilen. Der Rumpf bestand aus Spanten und Stringern, die mit dünnem Stahlblech beplankt waren. Die Technik bestand aus vier Baugruppen: Spitze mit Gefechtskopf und Aufschlagzünder Geräteteil mit Batterien und Kreiselsteuerung Mittelteil mit Tanks für Ethanol und Flüssigsauerstoff Heckteil mit Schubgerüst, Druckflaschen mit Stickstoff, Dampferzeuger, Turbopumpe, Brennkammer („Ofen“), Schubdüse, Strahlruder und Luftruder. Als Zubehör zur Verwendung der A4-Rakete wurden unterschiedliche Start- und Transportgerätschaften genutzt und in der Bedienvorschrift Die A4-Fibel: Handbuch zum Start der A4 beschrieben. Unter anderem sind dazu bekannt: Sd.Kfz. 7/3 – Feuerleitpanzerfahrzeug für Raketen A4 (Startkontrollwagen) Anhänger Meillerwagen mit Startrampe und Vidalwagen ohne Startrampe Sprengstoff Die etwa 738 kg Sprengstoff (Vergleichsweise mit etwa 600 kg TNT) einer Amatol-Mischung waren in der Raketenspitze untergebracht. Da sich diese während des Flugs durch Kompressionswärme an der Außenhaut der Verkleidung aufheizte, konnten nur Sprengstoffmischungen verwendet werden, deren Zündtemperatur über 200 °C lag. Steuerung Für die Stabilisierung und Steuerung sorgte das Leitwerk mit den Luftrudern, welche aber erst bei höherer Geschwindigkeit wirkten. Kurz nach dem Start waren die direkt im Gasstrom liegenden vier Strahlruder aus Graphit für die Stabilisierung zuständig. Alle Ruder wurden von Servomotoren bewegt. Als einer der ersten Flugkörper war das A4 mit einem für die damalige Zeit sehr fortschrittlichen Trägheitsnavigationssystem ausgestattet, das mit zwei Kreiselinstrumenten (Gyroskopen) selbsttätig den eingestellten Kurs hielt. Hersteller war das Kieler Unternehmen Anschütz & Co. Die elektrische Energie für Kurssteuerung und Ruderanlage wurde den beiden Bordbatterien entnommen, die aus dem Werk Hagen der Accumulatoren Fabrik AG (AFA) stammten. Die Batterien waren unterhalb des Sprengkopfes im Geräteraum eingebaut, wo sich auch das sogenannte „Mischgerät“ befand, ein elektronischer Analogrechner, der die von den Gyroskopen registrierten Abweichungen von Quer- und Seitenachse auswertete und zur Kurskorrektur die Servomotoren der Strahl- und Luftruder ansteuerte. Um eine bessere Zielgenauigkeit zu erreichen, wurde in mehreren Versuchsraketen auch eine Funksteuerung erprobt, die aber im späteren Einsatz wegen möglicher Störungen von Seiten des Feindes nicht verwendet wurde. Die beim Start eingestellte Zeitschaltuhr sorgte dafür, dass der Neigungswinkel der Kreiselplattform nach vier Sekunden Brennzeit so verändert wurde, dass die Rakete aus der Senkrechten in eine geneigte Flugbahn überging. Durch ein Integrationsgerät (J-Gerät), das aufgrund der summierten Beschleunigung die aktuelle Geschwindigkeit berechnete, wurde bei der richtigen Geschwindigkeit das Triebwerk abgeschaltet, um damit die Reichweite zu steuern. Dazu wurde am J-Gerät ein Wert eingestellt, der einer Schusstafel entnommen werden konnte. Der Neigungswinkel war bei jedem Schuss gleich. Vor dem Start musste die Rakete auf ihrem Starttisch exakt senkrecht gestellt und so gedreht werden, dass eine besonders markierte Flosse in Zielrichtung zeigte. Antrieb Das Aggregat 4 war eine Flüssigkeitsrakete und wurde mit einem Gemisch aus 75-prozentigem Ethanol und Flüssigsauerstoff angetrieben. Unter der Leitung des Ingenieurs Walter Thiel wurden das beste Mischungsverhältnis der Treibstoffe, die Einspritzdüsenanordnung sowie die Form des Raketenmotors ermittelt. Eine Pumpenbaugruppe war nötig, welche die großen Mengen an Alkohol und flüssigem Sauerstoff in die Brennkammer fördern konnte. Zum Antrieb dieser Doppelpumpe diente eine integrierte Dampfturbine von 600 PS Leistung. In einem Dampferzeuger wurde durch die katalytische Zersetzung von Wasserstoffperoxid mittels Kaliumpermanganat Dampf erzeugt. Zur Förderung des Wasserstoffperoxids war auf 200 bar komprimierter Stickstoff in mehreren Druckbehältern an Bord; dieser diente auch zur Betätigung diverser Ventile. Die Kreiselsteuerung und das präzise und daher sehr aufwendig zu fertigende Pumpenaggregat waren die beiden teuersten Bauteile des A4. Die Rakete hatte einen anfänglichen Schub von 270 kN, entsprechend einer Leistung von 650.000 PS, und erreichte nach einer Brenndauer von etwa 65 Sekunden ihre Höchstgeschwindigkeit von etwa 5.500 km/h, etwa Mach 5. Die Verbrennungsgase verließen den Raketenmotor mit etwa 2.000 m/s. Da der gesamte Flug bei einer Reichweite von 250 bis 300 km nur 5 Minuten dauerte, gab es damals keine Abwehrmöglichkeit gegen diese Waffe. Fertigung Nach dem erfolgreichen Start vom 3. Oktober 1942 wurde trotz paralleler Weiterentwicklung zur Behebung technischer Mängel die Serienfertigung angeordnet. Die Fertigungsstätten für Teile des A4 waren über ganz Deutschland verstreut: Unter dem Tarnnamen „Rebstock“ bei Ahrweiler an der Ahr wurden in unfertigen Eisenbahntunneln Bodenanlagen und Fahrzeuge für die Rakete unter Tage produziert. Zwischen 1942 und September 1944 wurde unter starker Geheimhaltung auch bei Friedrichshafen-Raderach gefertigt. Das Gelände wurde im Januar 1945 beim Herannahen französischer Truppen geräumt. Weitere Lieferanten waren die Unternehmen Gustav Schmale in Lüdenscheid, in der Teile der Brennkammer gefertigt wurden, und die Accumulatoren Fabrik AG (AFA) in Hagen-Wehringhausen, welche die speziellen Akkumulatoren herstellte. Anfang 1944 wurde der Betrieb von Triebwerksprüfständen im „Vorwerk Schlier“, KZ-Nebenlager Redl-Zipf auf dem Gemeindegebiet von Neukirchen an der Vöckla, und im „Vorwerk Mitte Lehesten“, KZ-Außenlager Laura im Thüringer Schiefergebirge aufgenommen. 1943 lief in insgesamt vier Orten die Serienfertigung des A4, welche, so Dornberger in einem Protokoll zu einer Besprechung mit Gerhard Degenkolb und Kunze, „grundsätzlich mit Sträflingen durchgeführt“ werde. Dafür zog man Häftlinge aus folgenden Konzentrationslagern heran: KZ Buchenwald (HVA Peenemünde ab Juni), KZ Dachau (Luftschiffbau Zeppelin „Friedrichshafener Zeppelinwerke“ ab Juni/Juli), KZ Mauthausen (Rax-Werke in Wiener Neustadt ab Juni/Juli) und KZ Sachsenhausen (DEMAG-Panzer in Falkensee bei Berlin ab März). Einzelne wissenschaftliche Mitarbeiter wählte Wernher von Braun persönlich unter den Häftlingen im KZ-Buchenwald aus. Insgesamt wurden während des Zweiten Weltkrieges 5.975 Raketen von Zwangsarbeitern, KZ-Häftlingen und deutschen Zivilbeschäftigten aus tausenden Einzelteilen zusammengebaut. Hinzu kommen mindestens 314 Raketen, die im Rahmen der Entwicklung in Peenemünde gebaut wurden. Am 29. Oktober 1944 wurde Dornberger nach dem Einsatz des A4 als V2 an der Westfront mit dem Ritterkreuz des Kriegsverdienstkreuzes mit Schwertern ausgezeichnet. Ab 1944 fand die Montage der A4 im unterirdischen Komplex der Mittelwerk GmbH in einer Stollenanlage im Kohnstein nahe Nordhausen durch Häftlinge des KZ Mittelbau-Dora statt. Im Schnitt waren etwa 4.000 Häftlinge des KZ Mittelbau unter Aufsicht von ungefähr 3.000 Zivilangestellten mit dem Zusammenbau beschäftigt. Für das hochtechnologische Projekt wurden auch spezialisierte inhaftierte Facharbeiter und Ingenieure aus dem gesamten Reichsgebiet und den besetzten Staaten gezielt herangezogen. Obwohl viele von ihnen erst nach einer handwerklichen Prüfung in den Kohnstein verschleppt wurden, erwarteten sie dort keine besseren Arbeits- und Haftbedingungen als in anderen Konzentrationslagern. Vielmehr befürchteten sie, dass man sie wegen ihrer Einblicke in dieses Staatsgeheimnis nicht mehr freilassen würde. Wie unmenschlich die Behandlung auch durch zivile Ingenieure zeitweise war, zeigt etwa eine schriftliche Anweisung, die Häftlinge bei Verfehlungen nicht mehr mit spitzen Gegenständen zu stechen. Es gab Sabotageakte; die Fertigung der Rakete war aber nie ernstlich behindert. Bei der Endabnahme erwies sich jede zweite Rakete als nicht voll funktionstüchtig und musste nachgebessert werden; dies lag in erster Linie daran, dass die Ingenieure aus Peenemünde fast täglich bauliche Änderungen anordneten, was den laufenden Produktionsprozess erheblich beeinträchtigte. Opfer Insgesamt wurden 60.000 Häftlinge in den KZ-Komplex Mittelbau-Dora (inkl. Außenlager) verschleppt und fast 90 Prozent von diesen als Berg- und Bauarbeiter ausgebeutet. 16.000 bis 20.000 KZ-Häftlinge und Zwangsarbeiter, die meisten zwanzig- bis vierzigjährig, starben nach Schätzungen zwischen September 1943 und April 1945 im Lagerkomplex Mittelbau-Dora sowie auf Liquidations- oder sogenannten Evakuierungstransporten. Unter den Opfern befanden sich allerdings auch etwa 1.300 in der Boelcke-Kaserne Zurückgelassene, die größtenteils durch zwei britische Luftangriffe am 3. und 4. April 1945 auf Nordhausen getötet worden waren. Etwa 8.000 Menschen verloren ihr Leben durch den Einsatz der Waffe, die meisten im Raum London und Antwerpen (s. u. Einsatz). Laut Jens-Christian Wagner, Leiter der Gedenkstätte KZ Mittelbau-Dora, sind somit Wagner lässt dabei jedoch außer Acht, dass nur knapp 4.000 Häftlinge zu den privilegierten gehörten, die qualifizierte Arbeiten in der A4-Fertigung verrichteten. Wie viele Häftlinge starben, die direkt in der A4-Produktion arbeiteten, wurde bislang noch nicht untersucht. Hinzu kommt, dass im Mittelwerk neben der A4-Rakete und anderen Rüstungsgütern auch die Flugbombe Fieseler Fi 103 („V1“) in Serie gefertigt wurde. Durch den Einsatz beider „Vergeltungswaffen“ gab es in England und Belgien über 17.500 Tote und mindestens 47.000 Verletzte. Einziger Ingenieur der V2-Produktion, der je vor Gericht gestellt wurde, war der DEMAG-Geschäftsführer und Generaldirektor der Mittelwerk GmbH Georg Rickhey. 1947 im „Dachauer Dora-Prozess“ angeklagt, wurde er freigesprochen, obwohl im Prozess der mitangeklagte Funktionshäftling Josef Kilian aussagte, dass Rickhey bei einer besonders brutal inszenierten Massenstrangulation von 30 Häftlingen am 21. März 1945 in Mittelbau-Dora anwesend war. 1943 gelang es der Widerstandsgruppe rund um Kaplan Heinrich Maier durch die Verbindungen zum Wiener Stadtkommandanten Heinrich Stümpfl, der wahrscheinlich dem Widerstand zugerechnet werden kann, die exakten Zeichnungen der V2-Rakete dem amerikanischen Office of Strategic Services zukommen zu lassen. Auch wurden Lageskizzen von V-Raketen-Fabrikationsanlagen in Peenemünde an alliierte Generalstäbe übermittelt, um damit alliierten Bombern Luftschläge zu ermöglichen. Die Gruppe wurde nach und nach von der Gestapo erkannt und die meisten Mitglieder hingerichtet. Startliste der Versuchsstarts in Peenemünde Anmerkung: Für den Zeitraum zwischen Juli 1943 und Februar 1945 liegen keine vollständigen Startlisten vor. Bei einem Versuchsstart am 13. Juni 1944 zur Erprobung von Komponenten der Flugabwehrrakete Wasserfall stürzte eine von Peenemünde aus gestartete A4-Rakete in Südschweden ab. Einsatz Bereits ab Ende 1939 ging es schon dem Entwurf nach in der Sache um eine Kriegsrakete für den Angriff. Hitler drohte Großbritannien deutlich im September 1940: „Wenn sie erklären, sie werden unsere Städte in großem Maße angreifen – wir werden ihre Städte ausradieren!“ Walter Dornberger warb im Juli 1941 für das neue Waffensystem, indem er auf die „nicht mehr vorhandene Luftüberlegenheit“ und damit auf die verlorene Luftschlacht um England hinwies. Hitler, der die „Fernrakete“ als einzige verbliebene Möglichkeit für den direkten Angriff auf England sah, genehmigte im August 1941 die Entwicklung des A4 bis zur Einsatzreife, allerdings ohne entsprechende Dringlichkeitsstufe. Ende März 1942 präzisierte Dornberger die Planung dahingehend, dass „bei Tag und Nacht in unregelmäßigen Abständen, unabhängig von der Wetterlage, sich lohnende Ziele wie London, Industriegebiete, Hafenstädte, pp. unter Feuer genommen werden“. Im September wurde das Projekt in die Dringlichkeitsstufe SS eingruppiert und im Juni 1943 noch einmal höher eingestuft. Die anfängliche Planung sah einen Verschuss aus festen, verbunkerten Anlagen heraus vor. Dies wurde wegen der fortgesetzten Gebietsverluste des Deutschen Reiches jedoch nie umgesetzt. Es blieb beim Einsatz von mobilen Startrampen aus. Die NS-Führung kündigte ab 1943 den Einsatz neuartiger „Wunderwaffen“ für Angriffe auf England an. Diese sollten die militärische Antwort auf die fortlaufenden Luftangriffe gegen die deutsche Zivilbevölkerung in den Städten sein. Die deutsche Kriegspropaganda förderte die Hoffnung auf die einzigartige Schlagkraft dieser technisch völlig neuartigen Waffe, welche die Wende im Krieg herbeiführen sollte. Es galt Durchhaltewillen und Kampfgeist an der Front zu sichern. Die nach den ersten erfolgreichen Einsätzen ab September 1944 aufkommende Begeisterung für die A4-Rakete verflüchtigte sich jedoch bald wieder, weil die erhoffte militärische Wende nicht eintrat. Noch in seiner letzten Rundfunkrede am 30. Januar 1945 versprach sich Adolf Hitler trotz der katastrophalen Kriegslage immer noch den „Endsieg“ durch den verstärkten Einsatz der „Wunderwaffen“. Als am 8. September 1944 das erste A4 den Londoner Stadtteil Chiswick und nicht die Innenstadt selbst traf, räumte Dornberger ein, dass es sich beim A4 um eine „unzureichende“ Waffe handele. Trotzdem taufte Propagandaminister Goebbels das A4 sofort in V2 um und propagierte diese als „Vergeltungswaffe“ V2. Mit Sprengköpfen bestückt und von mobilen Startrampen aus wurden mit ihr vor allem London und später Antwerpen bombardiert; London nach offizieller Verlautbarung als Vergeltung für britische Bombenangriffe. Zwar war die Treffergenauigkeit gering, aber die plötzlichen Einschläge ohne jegliche Vorwarnung übten eine vorher unvorstellbare terrorisierende Wirkung (Demoralisierung) auf die Bevölkerung aus, die völlig anders war als bei der V1, der seit 13. Juni 1944 verschossenen Flugbombe. Während man bei Angriffen der V1 noch Fliegeralarm auslösen konnte, war dies durch die Überschallgeschwindigkeit der V2 unmöglich, da der Start und der ballistische Flug mit der damaligen Radartechnologie nicht erfasst werden konnte und der Überschallknall erst nach der plötzlichen Explosion zu hören war. Im Double-Cross-System versuchte die britische Abwehr mit Doppelagenten, den vermeintlichen Einschlag weiter nach Nordwesten zu verlegen oder Einschlagszeitpunkte zu vertauschen. Damit wurde der Angreifer dazu veranlasst, die Zielentfernung zu verkürzen und das Londoner Zentrum zu verschonen. Durch entsprechende Reduzierung der Zielentfernung durch die deutschen Abschusskommandos wurde so der Schwerpunkt der V2-Einschläge um ca. 10 km nach Osten in die Vororte Londons verschoben. Insgesamt wurden etwa 3200 A4-Raketen abgefeuert: V2-Angriffe auf England London 1358 Norwich 43 Ipswich 1 V2-Angriffe auf Frankreich Lille 25 Paris 22 Tourcoing 19 Arras 6 Cambrai 4 V2-Angriffe auf Belgien Antwerpen 1610 Lüttich 27 Hasselt 13 Tournai 9 Mons 3 Diest 2 V2-Angriffe auf die Niederlande Maastricht 19 V2-Angriffe auf Ziele in Deutschland Remagen 11 Von Den Haag aus wurden 1.039 Raketen gestartet, die vor allem auf London gerichtet waren. Bei einem alliierten Luftangriff auf die Startrampen am 3. März 1945 kamen 510 Menschen ums Leben. In Frankreich waren mehrere große Bunker zum Start des A4 im Bau oder geplant, deren Fertigstellung als Folge von Bombenangriffen und der Invasion der Alliierten nicht gelang. Die bekanntesten sind das Blockhaus von Éperlecques, der Kuppelbau von Helfaut-Wizernes und die Anlagen im Raum Cherbourg. Rückblickend ist der Einsatz der V2 vorrangig als Terror gegenüber der Zivilbevölkerung des Gegners zu werten, vergleichbar mit den Flächenbombardements der Alliierten auf deutsche Städte. Militärisch-taktischer Absicht geschuldet waren die elf Beschüsse auf die von den Alliierten eroberte Ludendorff-Brücke über den Rhein zwischen Remagen und Erpel zwecks Verhinderung des weiteren Eindringens sowie 1610 Angriffe auf den Seehafen von Antwerpen wegen seiner Bedeutung für die Versorgung des gegnerischen Militärs. Die Einschläge der V2-Raketen konnten hier zumindest für einige Wochen den Truppentransport der Alliierten ganz erheblich behindern. Am meisten hatte aber auch hier die Zivilbevölkerung zu leiden. Die letzte Rakete im Kampfeinsatz wurde am 27. März 1945 von deutscher Seite gegen Antwerpen gestartet. Danach wurden nach und nach nahezu alle A4-Batterien aufgelöst. Trotzdem wurden noch Vorbereitungen für das VIII. Sonderschießen getroffen. Dazu war die ehemalige „Lehr- und Versuchsbatterie 444“, jetzt umbenannt in „Lehr- und Versuchsabteilung z. V.“, bereits am 28. Januar 1945 aus dem Einsatz in Holland zurückgezogen und zur Ruhe und Auffrischung nach Buddenhagen (Wolgast) befohlen worden. Von hier aus verlegte man diese Abteilung zusammen mit der „Gruppe Erprobung“ bzw. dem „Entwicklungskommando Rethem“ über Rethem (Aller) in den Raum Kirchlinteln (Kreis Verden (Aller)). Ziel des Sonderschießens war die „Schwerpunkterhöhung der Treffgenauigkeit und Einschlagprozente“. Die Zielpunkte lagen im Wattenmeer östlich der Insel Sylt und zwischen den dänischen Inseln Römö und Fanö. Im Zeitraum von Mitte März 1945 bis zum 6. April 1945 wurden aus zwei Startstellungen etwa zehn Versuchsraketen abgefeuert. Dabei kam auch die Steuerung mit Hilfe der Leitstrahllenkung zum Einsatz. Nach dem Abzugsbefehl vom 6. April 1945 durch General Hans Kammler verlegte man die „Lehr- und Versuchsabteilung z. V.“ aus dem „Stellungsraum Neddenaverbergen“ (heute Gemeinde Kirchlinteln, Kreis Verden/Aller) über den Kreis Herzogtum Lauenburg nach Welmbüttel im Kreis Dithmarschen in Schleswig-Holstein, etwa 10 km östlich von Heide gelegen. Hier wurden die mitgebrachten Fahrzeuge und Sondergerätschaften und vermutlich auch einige Raketen, die durch eine nicht weiter bekannte Nachschubeinheit angeliefert worden waren, in einem Moor versenkt bzw. gesprengt. Am 1. Mai 1945 wurden noch 20 bis 30 Soldaten zu einem Flakregiment in den Raum Bargteheide/Trittau abgestellt. Ab dem 3. Mai 1945 wurde die letzte noch existierende und voll ausgerüstete A4-Abteilung aufgelöst, indem die noch verbliebenen Soldaten durch die Vorgesetzten offiziell entlassen wurden. Der Einsatz des A4 als Terrorinstrument führte in London zu Diskussionen, diesen mit chemischen Waffen zu vergelten. Insgesamt forderte der Einsatz der A4-Raketen mehr als 8000 Menschenleben, hauptsächlich Zivilisten. Die größte Zahl an Opfern auf einen Schlag war am 16. Dezember 1944 in Antwerpen zu beklagen, als eine A4 das vollbesetzte Kino „Rex“ traf und 567 Menschen tötete. Deutsche Weiterentwicklungen Am 24. Januar 1945 wurde in Peenemünde eine geflügelte Version der A4-Rakete, die A4b, erstmals erfolgreich gestartet. Sie sollte die doppelte Reichweite des A4 erreichen, stürzte allerdings wegen eines Flügelbruchs vorzeitig ab. Zu weiteren Starts dieses Flugkörpers kam es aufgrund der Kriegslage nicht mehr. Von 1943 bis zum Kriegsende 1945 beschäftigte man sich in Peenemünde mit der Entwicklung einer Interkontinentalrakete. Diese war als zweistufige Fernrakete ausgelegt und trug die Bezeichnung A9/10. Sie war in Umfang und Höhe etwa doppelt so groß wie das A4. Das A9/10 bestand aus zwei unabhängigen Raketen, dem A10 und dem A9, die bis zum Abtrennen der ausgebrannten Startrakete A10 unter einer gemeinsamen Hülle miteinander verbunden blieben. Nach dem Ausbrennen des A10 sollte der Weiterflug vom A9 übernommen werden, die in etwa den Plänen des späteren A4b entsprach. Die projektierte Reichweite dieser sogenannten „Amerikarakete“, deren erklärtes Ziel es war, New York anzugreifen, betrug 5.500 km. Jedoch kam das Projekt nicht über das Planungsstadium hinaus. Der Prüfstand VII der Heeresversuchsanstalt Peenemünde war allerdings schon beim Bau 1938 für die A9-/A10-Rakete dimensioniert. Das A9/10 kam jedoch nie über seinen Projektstatus hinaus und wurde nie gebaut. Der ehemalige Reichsminister für Rüstung und Kriegsproduktion Albert Speer schrieb später zur Bewertung des A4-Projektes: „Unser aufwendigstes Projekt war zugleich unser sinnlosestes. Unser Stolz und zeitweilig mein favorisiertes Rüstungsziel erwies sich als einzige Fehlinvestition.“ Die Kosten für das gesamte V2-Programm werden auf rund zwei Milliarden Reichsmark geschätzt. Nach dem Krieg Die Weiterentwicklung der Raketentechnik durch die Supermächte USA und UdSSR nach dem Zweiten Weltkrieg mit einer Verlängerung der Reichweite und Erhöhung der Nutzlast mit Raketen von Land wie auch von Unterseebooten wurde ein wesentlicher Treiber der zunehmenden Bedrohung durch den Kalten Krieg. Starts in Cuxhaven Die Briten ließen im Oktober 1945 mehrere A4-Raketen durch Kriegsgefangene aus ehemaligen deutschen Starteinheiten in der Nähe von Cuxhaven starten, um Vertretern der alliierten Besatzungsmächte die „Wunderwaffe V2“ beim Start zu demonstrieren (Operation Backfire, → Raketenstarts in Cuxhaven). Hierbei entstand auch ein zunächst geheimer Dokumentarfilm, der heute im Museum Peenemünde zu sehen ist. In den USA Erbeutung von A4-Raketen am 29. März 1945 Den Amerikanern waren am 29. März 1945 auf einem überlangen Militärzug im Bahnhof Bromskirchen in Hessen, durch überraschenden Zugriff einer Vorhut der 3. US-Panzerdivision, der 1. US-Armee, zehn komplette A4-Raketen des Artillerieregimentes, Heeres Art.Abt.(mot)705, 10.Batterie, der Gruppe Süd-Art.Rgt.(mot.)z.V.901 Abt.Ia, mit den mobilen Startrampen, Treibstoff und Bedienungsanleitung in die Hände gefallen. Dies wurde in den alliierten Wochenschauen ausführlich thematisiert. Der Zug sollte die Raketen vom Westerwald kommend am 22. März über die Aar-Salzböde-Bahn in neue Stellungen im Raum Schelderwald bzw. in die Nähe von Marburg bringen. Diese zehn A4 wurden mit der Eisenbahn von den Amerikanern in den Hafen von Antwerpen transportiert und drei Tage später von dort aus in die USA verschifft. Das war eine der Grundlagen für die Weiterentwicklung in den USA. Wernher von Braun im Dienst der USA Am 2. Mai 1945 stellte sich Wernher von Braun den Streitkräften der Vereinigten Staaten und wurde zusammen mit anderen Wissenschaftlern aus seinem Mitarbeiterstab ebenfalls in die USA gebracht (Operation Paperclip). Etwa 100 erbeutete A4 und Teile davon wurden im Mittelwerk Nordhausen noch vor dem Einmarsch der Roten Armee von US-Truppen verladen und ebenfalls in die USA verfrachtet. Sie standen am Anfang einer ganzen Entwicklungslinie der amerikanischen Raketentechnik und damit zu den Raumfahrtentwicklungen der USA. Ein Exemplar steht im National Air and Space Museum in Washington (D.C.), ein weiteres kam anlässlich von Filmarbeiten Ende der 1950er-Jahre wieder nach Deutschland zurück und befindet sich heute im Deutschen Museum in München. Schon ab 1946 erfolgten Teststarts mit A4-Raketen, bei welchen die Army den Raum, den der Sprengkopf eingenommen hatte, der Wissenschaft zur Verfügung stellte. So brachte eine Rakete im Juni Messinstrumente, darunter ein Geiger-Müller-Zählrohr zur Messung kosmischer Strahlung, Temperatur- und Druckmessgeräte, einen Spektrographen und Funkausrüstung in 107 Kilometer Höhe. Am 20. Februar 1947 wurden Roggen- und Baumwollsamen sowie Fruchtfliegen auf 109 Kilometer Höhe transportiert und als erste Organismen überhaupt im All bezeichnet. Im Juni 1949 wurde mit einem weiteren A4 erstmals ein Säugetier, der Rhesusaffe Albert II., auf eine Höhe von ca. 130 km transportiert. Bei der Rückkehr öffnete sich der Fallschirm nicht, so dass der Rhesusaffe starb. Die Modifizierung des A4 mit einer Corporal-Rakete als zweiter Stufe nannte man Bumper. Am 24. Februar 1949 erreichte die Oberstufe einer Bumper eine Höhe von 393 Kilometern. Mit Bumper-Raketen wurden 1950 die ersten Raketenstarts von Cape Canaveral in Florida durchgeführt. In Huntsville (Alabama) wurde mit dem Redstone Arsenal ein erstes Zentrum für die Raketenentwicklung gegründet, wo zusammen mit den deutschen Wissenschaftlern insgesamt 67 A4-Raketen gestartet wurden. Sie bildeten den Ausgangspunkt für die ab 1953 geflogene dreistufige Redstone-Rakete mit einem Schub von 347 kN und Brenndauer von 135 s in der ersten Stufe, welche als militärische ballistische Rakete in Dienst gestellt wurde. Diese wurde unter Leitung von Wernher von Braun weiter entwickelt und zuerst 1956 in der Forschungs-Version Jupiter-C geflogen und später als Juno I für den Start des ersten amerikanischen Satelliten Explorer 1 in den Weltraum verwendet. Daraus entstanden durch diverse Weiterentwicklungen Kriegswaffen, letztlich aber auch die Saturn-V-Raketen für die erste Mondlandung mit Apollo 11 im Juli 1969. Im Rahmen der Operation Sandy gelang am 6. September 1947 mit dem Start eines A4 vom Flugdeck des amerikanischen Flugzeugträgers Midway erstmals der Start einer Langstreckenrakete von einem Schiff aus. In der Sowjetunion Bereits im August 1944 fielen der Sowjetunion bei der Eroberung des Testgeländes auf dem SS-Truppenübungsplatz Heidelager bei Dębica im Süden des Generalgouvernements Trümmer zerlegter A4-Raketen und Reste demontierter Abschussanlagen in die Hände und ermöglichten es, erste grundlegende technische Daten des deutschen Raketenprogramms zu sammeln. Bei der Besetzung Peenemündes am 5. Mai 1945 brachte die Rote Armee eine komplette V2 in ihren Besitz. Nachdem die US-amerikanischen Besatzungstruppen Ende Juni 1945 das Gebiet um Nordhausen und damit auch die Anlagen der Mittelwerk GmbH gemäß den Vereinbarungen des Potsdamer Abkommens an die Rote Armee unter der militärischen Führung von Dmitri Ustinow übergeben hatten, gründete die Sowjetunion im Juli 1945 das Institut Rabe (Raketenbau und -entwicklung) in Bleicherode, um unter Leitung von Boris Tschertok die Konstruktionsunterlagen des A4 samt Apparaturen der Bordausrüstung des Lenksystems wiederherzustellen und die komplette Fertigung des A4 in der Sowjetischen Besatzungszone zu ermöglichen. Im September 1945 warben die sowjetischen Stellen Helmut Gröttrup, den für sie wichtigsten Erfahrungsträger aus Peenemünde, als Leiter des Büro Gröttrup an, dem sich bald weitere hochkarätige Forscher anschlossen, die die Komponenten des A4 rekonstruieren konnten, darunter Werner Albring für die Aerodynamik und Kurt Magnus für die Kreiselsteuerung. Im Februar 1946 wurden das Institut Rabe und das Büro Gröttrup zum Institut Nordhausen (auch unter dem Namen Zentralwerke bekannt) unter der Leitung von Generalmajor Lew Gaidukow und dem sowjetischen Raumfahrtpionier Sergei Koroljow als Chefkonstrukteur zusammengeführt. Die deutsche Leitung wurde Helmut Gröttrup als Generaldirektor übertragen. Im September 1946 arbeiteten mehr als 5.000 deutsche Mitarbeiter sowie 700 sowjetische Mitarbeiter daran, die Berechnungen und die Konstruktionsunterlagen des A4 wiederherzustellen und die Produktion des A4 und ihrer Bestandteile inkl. der notwendigen Testverfahren wieder aufzunehmen. Walentin Gluschko leitete die Erprobung von A4-Triebwerken in Lehesten im Thüringer Wald und wurde später Chefkonstrukteur der sowjetischen Raketentriebwerke. Mit der Aktion Ossawakim am 22. Oktober 1946 wurden ca. 160 ausgewählte Wissenschaftler des Institut Nordhausen mit ihren Familien, insgesamt ca. 500 Menschen, zwangsweise in die Sowjetunion zunächst nach Podlipki (ca. 20 km nordwestlich von Moskau) und dann sukzessive auf die Insel Gorodomlija (ca. 380 km nordwestlich von Moskau) gebracht, um mit der neu gegründeten Filiale 1 der Forschungs- und Entwicklungsstätte für Weltraumraketen NII-88 den sowjetischen Nachbau des A4 zu unterstützen und auftretende Probleme zu analysieren. Außerdem wurden alle Fertigungsanlagen in der Sowjetischen Besatzungszone demontiert und in die Sowjetunion verfrachtet. Die 5 in Bleicherode komplett zusammengebauten A4 sowie nachgebaute Teile für weitere 6 Raketen wurden zum neu geschaffenen Raketentestgelände Kapustin Jar gebracht und dort getestet. Der erste erfolgreiche Start eines A4 fand am 18. Oktober 1947 statt. Am 17. Oktober 1948 erfolgte der erste erfolgreiche Start einer komplett in der Sowjetunion gebauten R-1-Rakete als Kopie des A4. Die R-1 musste teilweise geänderte Materialien verwenden, weil nicht alle in der Sowjetunion verfügbar waren, und in Einzelfällen wie Dichtungsmaterialien auf deutsche Originalteile zurückgreifen. Durch andere Verbesserungen, die von den deutschen Wissenschaftlern vorgeschlagen wurden, konnte sie aber eine vergleichbare Reichweite und Nutzlast erzielen. Das rekonstruierte und verbesserte A4 bildete somit eine wesentliche Grundlage für die Anfänge der sowjetischen Raumfahrttechnologie und Raketenwaffen. Während der Arbeit des deutschen Kollektivs in Gorodomlija wurden bis 1949 weitere entscheidende Verbesserungen zur Erhöhung der Reichweite, der Verbesserung der Treffgenauigkeit und Vereinfachung ausgearbeitet. Dies umfasste u. a. die Verwendung der Tanks als tragender Außenhülle zur Gewichtsreduzierung, die Kegelform der Rakete für eine bessere Flugstabilität in allen Betriebszuständen, die Bündelung von vielen parallelen Triebwerken zu einer Großrakete, die Vektorsteuerung der Triebwerke anstelle der aufwändigen Strahlruder aus Graphit, die Trennung der Nutzlast von der ausgebrannten Trägerrakete sowie Fernlenkverfahren mit Peilstrahlen. Diese Ideen wurden von den sowjetischen Ingenieuren unter Leitung von Sergei Koroljow sukzessive umgesetzt und zur Reife entwickelt. Die westlichen Geheimdienste unterschätzten die sowjetischen Fortschritte trotz eindeutiger Hinweise der Rückkehrer aus Gorodomlija. Es gab Indizien, dass die sowjetischen Wissenschaftler aufgrund „ihrer Liebe zur Raketentechnologie“ und „ihrer Wertschätzung der deutschen Arbeiten“ durchaus in der Lage sein könnten, als erste über Langstreckenraketen zu verfügen. Die am 4. Oktober 1957 verwendete Rakete zum Start des ersten Satelliten Sputnik 1 auf Basis der Interkontinentalrakete R-7 wies deutliche Ähnlichkeiten mit Komponenten des A4 und zu den Ideen des deutschen Kollektivs auf, vor allem zum zuletzt ausgearbeiteten Konzept G-4 bzw. R-14. Die R-7 erreichte beim Start einen Schub von 3.900 kN, was ungefähr 4×4=16 gebündelten A4-Triebwerken entsprach. Die heute verwendeten Sojus-Raketen basieren auf der Technologie der R-7 und gelten als sehr zuverlässig. In Frankreich Nach dem Ende des Zweiten Weltkriegs versuchte auch der französische Geheimdienst, deutsche Wissenschaftler für eigene Entwicklungen der Raketentechnik anzuwerben, war aber gegenüber den lange geplanten Operationen der amerikanischen und britischen Geheimdienste im Nachteil. Dennoch konnten sie in Bad Kissingen, wo deutsche Wissenschaftler zeitweise interniert waren, und nach Abschluss der Operation Backfire einige Spezialisten abwerben, u. a. Otto Müller für den Raketenantrieb und Rolf Jauernik für die Raketensteuerung. Zunächst arbeiteten die deutschen Spezialisten in Emmendingen in der französisch besetzten Zone, später im Laboratoire de recherches balistiques et aérodynamiques (LRBA) in Vernon in der Normandie. Projekte zum Nachbau des A4 und zur Entwicklung eines A9 wurden abgebrochen. Ab März 1949 entwarf das LRBA eine wesentlich kleinere Höhenforschungsrakete, die Véronique (VERnon-électrONIQUE) mit nur 40 kN Schub als der ersten flugfähigen Flüssigkeitsrakete Frankreichs. In Großbritannien Das Vereinigte Königreich interessierte sich zunächst für die deutschen Raketen, die London bombardiert hatten, und leitete im Sommer 1945 die Operation Backfire in Cuxhaven für eigene technische Analysen. Ende 1946 wurden Bestrebungen der British Interplanetary Society für eine eigenständige Weiterentwicklung des A4 mit dem Projekt Megaroc für den Start einer bemannten Kapsel durch die Regierung wegen fehlenden militärischen Nutzens zurückgewiesen. Ab 1954 gab es eine Zusammenarbeit mit den USA zur Entwicklung der Mittelstreckenrakete Blue Streak, die 1960 aufgrund von Kostenüberschreitungen beendet wurde. Sonstige Ereignisse Die Firma Canadian Arrow projektierte im Rahmen des Ansari X-Prize eine um zwei Meter verlängerte A4-Rakete, die eine Kapsel mit drei Passagieren auf 100 km Höhe bringen und mittels Fallschirmen landen sollte. Sie wurde von der Jury zur schönsten Rakete des Wettbewerbs gewählt. Ein offizieller Festakt der deutschen Luft- und Raumfahrtindustrie unter der Schirmherrschaft der damaligen Bundesregierung zum 50. Jahrestag des Erstfluges des A4 wurde erst wegen internationaler Proteste kurzfristig abgesagt. Die A4-Großrakete wurde im Ausland stark mit dem KZ Mittelbau-Dora in Bezug gebracht, in dem auch KZ-Häftlinge die Rakete in Serienfertigung bauten. Museale Rezeption In Deutschland befindet sich nur eine vollständig erhaltene A4-Rakete, die in der Luft- und Raumfahrtabteilung des Deutschen Museums in München ausgestellt wird. Daneben finden sich in der Bundesrepublik noch zwei Nachbauten mit Originalteilen, einmal im Militärhistorischen Museum der Bundeswehr in Dresden und einmal im Historisch-Technischen Museum Peenemünde. Das Heeresgeschichtliche Museum in Wien besitzt in der Dauerausstellung „Republik und Diktatur“ (Saal VII) ein Triebwerk eines A4, das kurz nach dem Kriegsende aus dem Toplitzsee, wo zwischen 1943 und 1945 zahlreiche waffentechnische Versuche durchgeführt worden waren, geborgen wurde. Im Deutschen Museum Flugwerft Schleißheim ist eine A4-Brennkammer, in der Wehrtechnische Studiensammlung Koblenz und im Deutschen Technikmuseum Berlin je ein A4-Triebwerksblock ausgestellt. Zusammenhänge und Hintergründe sind in der ständigen Ausstellung der KZ-Gedenkstätte Mittelbau-Dora (Nordhausen) dokumentiert, wenn auch hier nicht im Detail auf die A4-Rakete eingegangen wird; Besichtigungen von Teilen der Untertageanlage sind möglich. Komplette Raketen bzw. Replika in Originalgröße in anderen Ländern werden bspw. im Imperial War Museum in London, im Musée de l’Armée in Paris, im Nationaal Militair Museum der Niederlande in Soesterberg und im National Air and Space Museum in Washington, D.C. ausgestellt. Siehe auch Regener-Tonne Geschichte der Raumfahrt Operation Crossbow KZ Ebensee Literatur Philipp Aumann: Rüstung auf dem Prüfstand : Kummersdorf, Peenemünde und die totale Mobilmachung. Historisch-Technisches Museum Peenemünde, Ch. Links Verlag, Berlin 2015, ISBN 978-3-86153-864-6. Philipp Aumann, Thomas Köhler: Vernichtender Fortschritt : Serienfertigung und Kriegseinsatz der Peenemünder „Vergeltungswaffen“. Historisch-Technisches Museum Peenemünde, Ch. Links Verlag, Berlin 2018, ISBN 978-3-96289-030-8. Ralf Blank: Energie für die „Vergeltung“. Die Accumulatoren Fabrik AG Berlin-Hagen und das deutsche Raketenprogramm im Zweiten Weltkrieg. In: Militärgeschichtliche Zeitschrift. 66 (2007), S. 101–118. Stefan Brauburger: Wernher von Braun – Ein deutsches Genie zwischen Untergangswahn und Raketenträumen. Pendo, München 2009, ISBN 978-3-86612-228-4. Franz Josef Burghardt: Spione der Vergeltung. Die deutsche Abwehr in Nordfrankreich und die geheimdienstliche Sicherung der Abschussgebiete für V-Waffen im Zweiten Weltkrieg. Eine sozialbiografische Studie. Schönau 2018. ISBN 978-3-947009-02-2. ; Durchgesehene und erweiterte Neuausgabe: T. D. Dungan: V-2. A Combat History of the First Ballistic Missile. (Weapons in History), Westholme Publishing, 2005, ISBN 1-59416-012-0 Joachim Engelmann: Geheime Waffenschmiede Peenemünde. V2 – „Wasserfall“ – „Schmetterling“. Podzun-Pallas-Verlag, Friedberg, ISBN 3-7909-0118-0. Historisch-Technisches Museum Peenemünde (Hrsg.): Wunder mit Kalkül. Die Peenemünder Fernwaffenprojekte als Teil des deutschen Rüstungssystems . Ch.Links Verlag, Berlin 2016, ISBN 978-3-86153-926-1. Georg Metzler: Geheime Kommandosache. Raketenrüstung in Oberschwaben – Das Außenlager Saulgau und die V2 (1943–1945). Wilfried Eppe, Bergatreute 1996, ISBN 3-89089-053-9. Karsten Porezag: Geheime Kommandosache. Geschichte der „V-Waffen“ und geheime Militäraktionen des Zweiten Weltkrieges an Lahn, Dill und Westerwald, Dokumentation. 2. überarbeitete Auflage. Verlag Wetzlardruck, Wetzlar 2003, ISBN 3-926617-20-9. Niklas Reinke: Geschichte der deutschen Raumfahrtpolitik. Konzepte, Einflussfaktoren und Interdependenzen: 1923–2002. Oldenbourg, München 2004, ISBN 3-486-56842-6. Gerhard Reisig: Raketenforschung in Deutschland. Wie die Menschen das All eroberten. Agentur Klaus Lenser, Münster 1997, ISBN 3-89019-500-8. Herbert Ringlstetter: Aggregat 4/ V 2 Neustart. In: Flugzeug Classic, Dezember 2018, S. 30–35 Wolfgang Gückelhorn, Detlev Paul: V2 gefrorene Blitze, Helios Verlag, 29. Januar 2007, ISBN 3-938208-43-0. Weblinks Einzelnachweise Kurzstreckenrakete Raketentyp Raketenwaffe Militärtechnik (Zweiter Weltkrieg) V-Waffen-Programm Wernher von Braun
424
https://de.wikipedia.org/wiki/Apfel
Apfel
Apfel bezeichnet eine Frucht bzw. einen Baum: Kulturapfel, die Frucht der Art Malus domestica, siehe auch Liste von Apfelsorten Äpfel, allgemein eine Pflanzengattung (Malus) von Kernobstgewächsen innerhalb der Familie der Rosengewächse Apfelfrucht, eine Sonderform der Sammelbalgfrüchte in der Pflanzenmorphologie Apfel (Heraldik) Anderes: Adamsapfel, Teil des Kehlkopfs Apfel (Erzählungen), Sammlung von Erzählungen und Episoden von Michael Schulte Grube Apfel, stillgelegtes Bergwerk in Nordrhein-Westfalen Pferdeapfel, an Form und Größe der Früchte erinnernde Exkremente von Pferden Reichsapfel, Herrschaftssymbol Zankapfel, mythologische Frucht Apfel ist der Familienname folgender Personen: Alfred Apfel (1882–1941), deutscher Rechtsanwalt, Verbandsfunktionär und Schriftsteller Arthur Apfel (1922–2017), britischer Eiskunstläufer Ernst Apfel (1925–2002), deutscher Musikwissenschaftler Fabian Apfel (* 1999), deutscher Handballspieler Hermann Apfel (1807–1892), deutscher lutherischer Theologe Holger Apfel (* 1970), ehemaliger deutscher Politiker (NPD) Iris Apfel (* 1921), US-amerikanische Designerin und Stilikone Oscar Apfel (1878–1938), US-amerikanischer Stumm- und Tonfilmschauspieler Rahel Apfel (1857–1912), deutsche Schriftstellerin, Lyrikerin und Zionistin, Mutter von Alfred Apfel Siehe auch: Appel (Begriffsklärung) Apple (Begriffsklärung) Erdapfel Front Deutscher Äpfel, eine politisch-satirische Organisation
425
https://de.wikipedia.org/wiki/Ares
Ares
Ares () ist in der griechischen Mythologie der Gott des schrecklichen Krieges, des Blutbades und Massakers. Er gehört zu den zwölf olympischen Gottheiten, den Olympioi. Obwohl die Bedeutung nicht ganz gleich ist, wurde er später von den Römern dem eigenen Kriegsgott Mars gleichgestellt. Doch stand Mars bei den Römern höher im Ansehen als Ares bei den Griechen. Deutung Die etymologischen Wurzeln des Namens sind unklar, vermutlich bedeutet Ares der „Verderber“, der „Rächer“. Wahrscheinlich stammt die Gestalt des mordenden Ares aus dem bronzezeitlichen Thrakien, sie wird auch mythologisch als seine Heimat genannt. Aber bereits in mykenischer Zeit (1600–1050 v. Chr.) ist er auf dem griechischen Festland nachweisbar und verbreitet. Möglich ist auch, dass er in vorgriechischer Zeit ein Fruchtbarkeitsgott und seiner italischen Entsprechung ähnlicher war. Mythos Als ehelicher Sohn des Zeus und der Hera gehörte er zu den zentralen Gestalten in der griechischen Götterwelt. Ares wird als roher, wilder, nicht zu bändigender Kriegsgott beschrieben, der Gefallen an Gewalt findet und mit den wilden Tieren zog, um sich an deren Blut zu laben. Während Athene, die Göttin der Weisheit und der Kriegslist, für den heroischen bzw. intellektuellen Part des Krieges steht, ist Ares eher ein finsterer Gott, ein „göttlicher Raufbold“. Im Kampf um Troja kämpft Ares auf Seiten der Trojaner, Athene auf Seiten der Griechen. Es kommt sogar zum Kampf beider Gottheiten gegeneinander, als Athene Diomedes hilft, so dass dieser Ares verwunden kann. Auf dem Olymp wird er später von Asklepios (Gott der Heilkunst) behandelt und lässt sich von seiner Schwester Hebe baden. Ares ist aggressiv, grausam, unbarmherzig und blutrünstig, mischt sich auch des Öfteren aktiv in die Gefechte der Sterblichen ein und stachelt deren Kampfgeist weiter auf. Streit, Plünderungen, Blutbäder, das Geräusch klirrender Waffen und das Geräusch brechender Knochen bereiten ihm großes Vergnügen. Mit den schönen Künsten der anderen Götter konnte Ares nur wenig anfangen. Mit seinen Eigenschaften war er auch bei den anderen olympischen Göttern unbeliebt, ja verhasst. Obwohl Ares als Kriegsgott bei Göttern und Menschen verhasst war – selbst sein Vater Zeus verachtete ihn –, galt er doch auch, über die Verkörperung des Männern vorbehaltenen Kriegshandwerkes, als Sinnbild männlicher Kraft und Schönheit. Mythologisch wird dies in seiner Liebesbeziehung zur Liebesgöttin Aphrodite versinnbildlicht: Obwohl mit dem rechtschaffenen, aber missgestalteten Gott der Schmiede Hephaistos verheiratet, fühlt sie sich von Ares angezogen und lässt sich auf eine leidenschaftliche und andauernde Affäre mit ihm ein. Der vom Sonnengott Helios davon unterrichtete eifersüchtige Ehemann bringt all seine Handwerkskunst auf und schmiedet ein unsichtbares unzerreißbares Netz, mit dem er beide in flagranti erwischt. Die so Übertölpelten werden den herbeigerufenen Göttern vorgeführt. Diese aber entrüsten sich nicht, sondern brechen, auf Hephaistos’ Kosten, in ein homerisches Gelächter aus. Eros, der mit Pfeil und Bogen bewaffnete Liebesgott, wird als gemeinsamer Sohn von Ares und Aphrodite angesehen. Des Weiteren werden dieser Verbindung Anteros (Gott der Gegenliebe) und Harmonia (Göttin der Eintracht) zugesprochen sowie seine wichtigsten Begleiter, die Götter Deimos (Gott des Grauens), Phobos (Gott der Furcht) und Enyalios (Gott des Kampfes). Wie anderen Göttern auch, werden ihm zahlreiche Liebschaften innerhalb und auch außerhalb der Welt der Unsterblichen nachgesagt. So werden unter anderem die ihn ständig begleitende Göttin des Neides und der Zwietracht Eris, die Göttin der Morgenröte Eos und etliche Sterbliche erwähnt. Die kriegerischen und ebenfalls nahe Thrakien angesiedelten Amazonen wurden mit Ares als Stammvater in Verbindung gebracht. Kult Anders als seine römische Entsprechung wurde Ares kaum kultisch verehrt, galt doch bereits jeder Krieg – den die Griechen oft auch miteinander führten – als eine Huldigung für ihn. Als seltene und berühmteste Ausnahme kultischer Orte ist hier der Areopag zu nennen, dessen Namenspate er ist, wobei dies ebenfalls mythologisch begründet wird. Andere Kultstätten sind in Ätolien, Thessalien oder Athen zu finden; im peloponnesischen Hermione stand eine Kultstatue von ihm. Darstellung Als unbeliebter Gott war er selten Gegenstand in der Kunst, anders seine römische Entsprechung. Ares’ Symbole sind: brennende Fackel, Hund und Geier sowie für einen Kriegsgott typisch Schwert, Helm und Schild. Trivia Nach Ares benannt ist der griechische Sportclub Aris Thessaloniki. Ares ist auch der Titel einer Netflix-Serie sowie des Schweizer Politthrillers "Ares: kein Fall für Carl Brun" von Monika Hausammann. Literatur Irmgard Beck: Ares in Vasenmalerei, Relief und Rundplastik (= Archäologische Studien. Band 7). Lang, Frankfurt a. M. u. a. 1984, ISBN 3-8204-8067-6. Herbert Jennings Rose: Griechische Mythologie. Ein Handbuch. Beck, München 1974, ISBN 3-406-02526-9. Weblinks Ares. In: Theoi Project (englisch) Einzelnachweise Griechische Gottheit Kriegsgottheit Männliche Gottheit
426
https://de.wikipedia.org/wiki/Angola
Angola
Angola ( [], []; auf Kimbundu, Umbundu und Kikongo „Ngola“ genannt) ist ein Staat im Südwesten Afrikas. Nationalfeiertag ist der 11. November, der Jahrestag der 1975 erlangten Unabhängigkeit. Angola grenzt an Namibia, Sambia, die Republik Kongo, die Demokratische Republik Kongo und den Atlantischen Ozean – die zu Angola gehörige Exklave Cabinda liegt im Norden zwischen der Demokratischen Republik Kongo und der Republik Kongo am Atlantik. Der Name Angola leitet sich von dem Titel Ngola der Könige von Ndongo ab, einem östlich von Luanda gelegenen Vasallenstaat des historischen Kongoreiches. Die Region um Luanda erhielt diesen Namen im 16. Jahrhundert durch die ersten portugiesischen Seefahrer, die an der dortigen Küste anlandeten und ein Padrão, ein steinernes Kreuz als Zeichen der Inbesitznahme für den portugiesischen König, errichteten. Die Bezeichnung wurde Ende des 17. Jahrhunderts auf die Region um Benguela ausgedehnt, im 19. Jahrhundert dann auf das damals noch nicht umgrenzte Territorium, dessen koloniale Besetzung sich Portugal vornahm. 1961 begannen Kämpfe für die Unabhängigkeit, die 1975 gewonnen wurden. Seither beherrscht die Partei MPLA das Land autoritär; Korruption und Menschenrechtsverletzungen sind bis heute weit verbreitet. Geografie Geografische Lage Die Republik Angola liegt zwischen 4° 22′ und 18° 02′ südlicher Breite sowie 11° 41′ und 24° 05′ östlicher Länge. Das Land gliedert sich grob in eine schmale Niederung entlang der Atlantikküste, die in Richtung Osten, zum Landesinneren hin, zum Hochland von Bié ansteigt: Es macht den größten Teil Angolas aus, ist im Süden flach und in der Landesmitte bergig. Der höchste Berg ist der in diesem Hochland liegende Môco mit 2619 m über dem Meeresspiegel. Der Osten Angolas wird vom Sambesi durchflossen. Die Landesfläche von Angola beträgt etwa das 3½-Fache der Fläche von Deutschland. Klima Angola ist in drei Klimazonen eingeteilt: An der Küste und im Norden des Landes ist es tropisch, das heißt, es gibt das ganze Jahr hohe Tagestemperaturen zwischen 25 und 30 °C, nachts ist es nur unwesentlich kühler. Von November bis April ist Regenzeit. Das Klima wird stark durch den kühlen Benguelastrom (17–26 °C) beeinflusst, so dass Nebel häufig ist. Die durchschnittliche Niederschlagsmenge liegt bei 500 mm, im Süden kaum bei 100 mm jährlich. Das Hochland im Zentrum und Süden des Landes ist gemäßigt-tropisch, es gibt vor allem im Winter deutliche Temperaturunterschiede zwischen Tag und Nacht. So liegen etwa in Huambo die Temperaturen im Juli zwischen 25 °C tagsüber und 7–8 °C nachts, dazu kommt noch enorme Trockenheit. Ähnlich wie an der Küste ist die Regenzeit von Oktober bis April. Es fallen im Schnitt rund 1000 mm Regen pro Jahr. Im Südosten des Landes ist es überwiegend heiß und trocken mit kühlen Nächten im Winter bzw. Hitze und gelegentlichen Niederschlägen im Sommer. Die Jahresniederschläge schwanken um 250 mm. Hydrologie Den „Wasserturm“ des Landes bildet das Hochland von Bié. Von dort teilt sich Angola in 5 Haupteinzugsgebiete auf. Die beiden größten sind die des Kongo und des Sambesi. Zusammen entwässern sie über 40 % der Landesfläche. Die Flächen, die über den Okavango abfließen, liegen bei etwa 12 %. Somit entwässert gut die Hälfte des Landes über sehr große Einzugsgebiete aus dem Land hinaus. Hinzu kommen der Cuanza, mit ebenfalls etwa 12 %, und der Cunene mit knapp 8 %. Zu erwähnen ist noch das Cuvelai-Etosha-Einzugsgebiet, das nach Süden entwässert. Die restlichen knapp 20 % des Landes sind Küstenflüsse. Die Wasserressourcen im Süden Angolas haben für die Nachbarländer Botswana und Namibia große Bedeutung. Daher gründeten sie 1994 zusammen die Permanent Okavango River Basin Water Commission. Flora und Fauna Die Vegetation reicht klimabedingt von tropischem Regenwald im Norden und in Cabinda über Baumsavannen im Zentrum bis zur trockenen Grassavanne, die durchsetzt ist mit Euphorbien (Wolfsmilchgewächsen), Akazien und Affenbrotbäumen. Von Namibia ausgehend zieht sich entlang der Südwestküste ein Wüstenstreifen. Die Fauna Angolas ist reich an Wildtieren, es finden sich Elefanten, Flusspferde, Geparde, Gnus, Krokodile, Strauße, Nashörner und Zebras. Die Ausweitung der Landwirtschaft, aber auch die Zerstörungen durch die Bürgerkriege und der Handel mit Elfenbein gefährden das Überleben vieler Arten. In Angola gibt es 13 Naturschutzgebiete (Nationalparks und Naturreservate) mit einer Gesamtfläche von 162.642 km², die 12,6 % des Staatsgebiets ausmachen. Geschichte Die ersten Bewohner des heutigen Angola waren Khoisan, die ab dem 13. Jahrhundert weitgehend von Bantu-Volksgruppen verdrängt wurden. 1483 begann die Errichtung portugiesischer Handelsposten an der Küste, vor allem in Luanda und dessen Hinterland, ein Jahrhundert später auch in Benguela. Erst Anfang des 19. Jahrhunderts begann die systematische Eroberung und Besetzung des heutigen Territoriums, die erst Mitte der 1920er Jahre abgeschlossen war. Von der Mitte der 1920er Jahre bis Anfang der 1960er Jahre war Angola einem klassischen Kolonialsystem unterworfen. Die Kolonialmacht Portugal wurde von 1926 bis zur Nelkenrevolution 1974 von einer Militärdiktatur regiert (bis 1932 Carmona, bis 1968 Salazar, bis 1974 Caetano). Die wichtigste ökonomische Grundlage Angolas waren bis zum Ende der Kolonialzeit die Landwirtschaft und Viehzucht, die sowohl in Großbetrieben europäischer Siedler als auch in den Familienbetrieben der Afrikaner stattfand. Die Förderung von Diamanten war für den Kolonialstaat von zentraler Bedeutung. Eine weitere wichtige Komponente war der Handel. Zu bescheidener Industrialisierung und Entwicklung des Dienstleistungssektors kam es erst in der spätkolonialen Phase, also in den 1960er und 1970er Jahren. In den 1950er Jahren wurden auf dem Festland Erdölvorkommen geortet, in den 1960er Jahren auch im Meer vor Cabinda, doch setzte erst ganz am Ende der Kolonialzeit eine Förderung größeren Ausmaßes ein. In den 1950er Jahren begann sich nationalistischer Widerstand zu formieren, der 1961 in einen bewaffneten Befreiungskampf mündete (1960 – im „Afrika-Jahr“ – hatten 18 Kolonien in Afrika (14 französische, zwei britische, eine belgische und eine italienische) die Unabhängigkeit von ihren Kolonialmächten erlangt; siehe auch Dekolonisation Afrikas). Ab 1962 führte Portugal deswegen einschneidende Reformen durch und leitete eine spätkoloniale Phase ein, die in Angola eine neue Situation schuf, den Unabhängigkeitskrieg jedoch nicht zum Erliegen brachte. Der Unabhängigkeitskrieg kam abrupt zu einem Ende, als am 25. April 1974 ein Militärputsch in Portugal die Nelkenrevolution auslöste sowie die dortige Diktatur zum Einsturz brachte und das neue demokratische Regime sofort mit der Entkolonisierung begann. Der Umsturz in Portugal löste in Angola bewaffnete Auseinandersetzungen zwischen den Befreiungsbewegungen FNLA, MPLA und UNITA aus, deren ethnische Verwurzelung im Lande unterschiedlich war. In diese Auseinandersetzungen griffen die USA, Zaire (seit 1997 Demokratische Republik Kongo) und Südafrika (noch unter dem Apartheid-Regime) auf Seiten von FNLA und UNITA ein, die Sowjetunion und Kuba auf Seiten der MPLA. Letztere behielt die Oberhand und rief 1975 in Luanda die Unabhängigkeit aus, gleichzeitig FNLA und UNITA in Huambo. Die Gegenregierung von FNLA und UNITA löste sich zwar rasch auf, aber sofort nach der Unabhängigkeitserklärung setzte ein Bürgerkrieg zwischen den drei Bewegungen ein, aus dem die FNLA nach kurzer Zeit ausschied, während ihn die UNITA bis zum Tode ihres Anführers Jonas Savimbi im Jahre 2002 weiterführte. Gleichzeitig errichtete die MPLA ein politisch-ökonomisches Regime, das dem der damals sozialistischen Länder nachempfunden war. Bemerkenswert war die zivile Entwicklungshilfe Kubas während dieser Zeit. Dieses Regime wurde 1990/91 während einer Unterbrechung des Bürgerkriegs zugunsten eines Mehrparteiensystems aufgegeben. Im September 1992 fanden Wahlen statt, an denen auch die UNITA teilnahm. Die MPLA erhielt 53,74 Prozent der Stimmen und 129 der 220 Parlamentssitze. Der Präsidentschaftskandidat der MPLA, José Eduardo dos Santos, erhielt 49,56 Prozent der Stimmen; gemäß der Verfassung wäre eine Stichwahl gegen Jonas Savimbi notwendig gewesen. Daraus ergab sich eine bizarre Situation, die bis 2002 anhielt. Einerseits nahmen Vertreter der UNITA und der FNLA am Parlament und sogar der Regierung teil, andererseits kämpfte der militärische Arm der UNITA nach der Wahl weiter. Das politische System entwickelte sich zu einer autoritären Präsidialdemokratie, während im Lande Zerstörungen zum Teil erheblichen Ausmaßes vor sich gingen. Am 22. Februar 2002 entdeckte die Armee Jonas Savimbi im Osten des Landes und erschoss ihn. Danach stellte die UNITA den Kampf sofort ein. Sie löste ihren militärischen Arm auf, der teilweise in die angolanische Armee übernommen wurde. Unter einem neuen Vorsitzenden, Isaias Samakuva, übernahm sie die Rolle einer normalen Oppositionspartei. Bei der Parlamentswahl im September 2008 erhielt die MPLA 81,64 % der Stimmen (UNITA 10,39 %, FNLA 1,11 %). 2002 begann der Wiederaufbau der zerstörten Städte, Dörfer und Infrastruktur. Dank der Erdölförderung und des zeitweise hohen Ölpreises gab es dafür genug Devisen. Die regierende Gruppe um den Präsidenten nutzte dies aber auch zur starken eigenen Bereicherung, ein Beispiel für die herrschende Kleptokratie. Eine im Januar 2010 verabschiedete neue Verfassung hat die Stellung der MPLA und besonders des Staatspräsidenten gestärkt. Vom Typ der Regierungslehre handelt es sich um ein autoritäres Präsidialsystem. Seit 2017 ist João Lourenço Präsident und scheint teilweise mit der Korruption seines Vorgängers aufzuräumen, obwohl dieser noch Vorsitzender der Regierungspartei ist und Lourenço sein Stellvertreter. Im Dezember 2019 wurde das auf 2,2 Milliarden US-Dollar geschätzte Vermögen von Isabel dos Santos, der Tochter des alten Präsidenten, eingefroren und entzogen. Bevölkerung In Angola gab es bisher erst zwei Volkszählungen in den Jahren 1970 und 2014. 2020 veröffentlichte das nationale Statistikamt eine Projektion. Demnach betrug die Bevölkerung 31,13 Millionen. Die Bevölkerung Angolas ist eine der am schnellsten wachsenden der Welt. Im Jahr 2021 betrug das Bevölkerungswachstum 3,2 % und die Fertilität pro Frau lag bei 5,3 Kindern. In den 1970er Jahren lag der Wert sogar bei etwa 7,5 Kindern pro Frau. Das Medianalter der Bevölkerung lag 2020 bei geschätzten 16,7 Jahren. 46,6 % der Bevölkerung sind jünger als 15 Jahre. Für das Jahr 2050 wird laut der mittleren Bevölkerungsprognose der UN mit einer Bevölkerung von über 72 Millionen gerechnet. Ein akutes demografisches Problem mit unabsehbaren wirtschaftlichen, sozialen und politischen Folgen hat sich in Angola aus dem Kriegszustand ergeben, der sich über vier Jahrzehnte hingezogen hat. Um 2000 war ein erheblicher Teil der Landbevölkerung in die Städte in unwegsame Gebiete (Berge, Wald, Sumpfland) oder ins benachbarte Ausland (Namibia, Botswana, Sambia, Demokratische Republik Kongo, Republik Kongo) geflohen. Entgegen allen Erwartungen ist es nach dem Friedensschluss nicht zu einem massiven Rückfluss gekommen. Zwar ist ein Teil der Bevölkerung in ihre Ursprungsorte zurückgekehrt, aber – wie die Erhebungen der letzten Jahre zeigen – per Saldo hat das Binnenland sogar weiter an Bevölkerung verloren. Dies hängt nicht zuletzt damit zusammen, dass sich die Wirtschaft – mit Ausnahme der Landwirtschaft und der Förderung von Diamanten – ganz überwiegend auf den Küstenstreifen konzentriert. Die Volkszählung von 2014 hat allerdings aufgedeckt, dass der Rückgang der ländlichen Bevölkerung trotz generell schlechter Lebensbedingungen weniger drastisch war als befürchtet; sie macht knapp über 60 % der Gesamtbevölkerung aus. Volksgruppen Die meisten Angolaner sind Bantu und gehören drei Ethnien an: Mehr als ein Drittel sind Ovimbundu, ansässig auf dem Zentralhochland, dem angrenzenden Küstenstreifen und nunmehr ebenfalls stark präsent in allen größeren Städten auch außerhalb dieses Gebietes; ein knappes Viertel sind Ambundu (Sprache: Kimbundu), die in einem breiten Landstrich von Luanda bis Malanje überwiegen; schließlich gehören 10 bis 15 % den Bakongo an, einem Volk, das im Westen von Kongo-Brazzaville und der Demokratischen Republik Kongo sowie im Nordwesten Angolas angesiedelt ist und nunmehr auch in Luanda eine starke Minderheit darstellt. Zahlenmäßig kleinere Volksgruppen sind die Ganguela, eigentlich ein Konglomerat aus kleineren Gruppen Ostangolas, dann Nyaneka-Nkhumbi im Südwesten, die zumeist Hirtenbauern sind, die Ovambo (Ambo) und Herero Südangolas (mit Verwandten in Namibia) sowie die Tshokwe (einschließlich der Lunda) aus dem Nordosten Angolas (und aus dem Süden der DR Kongo sowie dem Nordwesten Sambias), die im Verlaufe des letzten Jahrhunderts in kleinen Gruppen südwärts gewandert sind. Einige kleine Gruppen im äußersten Südwesten werden als Xindonga bezeichnet. Schließlich gibt es noch residuale Gruppen der Khoisan (San), die verstreut in Südangola leben und nicht zu den Bantu gehören. Etwa 2 % der Bevölkerung sind mestiços, also Mischlinge von Afrikanern und Europäern. Die Portugiesen waren mit 320.000 bis 350.000 Menschen am Ende der Kolonialzeit die größte europäischstämmige Volksgruppe im Land. Über die Hälfte von ihnen war im Lande geboren, nicht selten in der zweiten oder dritten Generation, und fühlte sich mehr Angola zugehörig als Portugal. Die anderen waren in der spätkolonialen Phase zugewandert oder als Angestellte/Beamte staatlicher Einrichtungen (einschließlich des Militärs) nach dort versetzt worden. Die meisten Portugiesen flohen kurz vor oder nach der Unabhängigkeitserklärung Angolas von Ende 1975 nach Portugal, Brasilien oder Südafrika, doch ist ihre Zahl inzwischen wieder auf rund 170.000 angewachsen, zu denen möglicherweise 100.000 andere Europäer sowie Latein- und Nordamerikaner hinzukommen. Zu den Europäern kommt inzwischen eine große, auf etwa 300.000 Menschen geschätzte Gruppe von Chinesen, die im Zuge einer Immigrationswelle nach Afrika kamen und kommen. Im Jahre 2017 waren 2,1 % der Bevölkerung im Ausland geboren. Bis 1974/75 lebten auch etwa 130 deutsche Familien (Angola-Deutsche) als Farmer oder Unternehmer im Land, vor allem in den Regionen um Huambo und Benguela; in der Stadt Benguela gab es seinerzeit sogar eine deutsche Schule. Fast alle haben seither aber das Land verlassen. Die ethnischen Unterschiede haben, im Gegensatz zu anderen (afrikanischen und nichtafrikanischen) Ländern, in Angola nur in Maßen für gesellschaftlichen Zündstoff gesorgt. Als sich Bakongo, die in den 1970er Jahren in den Kongo-Kinshasa geflohen waren, bei ihrer Rückkehr in großer Zahl in Luanda niederließen, hat das zwar zu gegenseitigem „Fremdeln“ zwischen ihnen und den ansässigen Ambundu geführt, nicht aber zu massiven oder gar gewalttätigen Konflikten. Als sich im Bürgerkrieg Ambundu und Ovimbundu gegenüberstanden, bekam der Konflikt auf seinem Höhepunkt auch ethnische Untertöne; seit Frieden herrscht, sind diese deutlich abgeklungen. Bei Konflikten aller Art können solche Abgrenzungen aber wieder ins Spiel kommen. Außerdem ist das Problem der Rassenbeziehungen zwischen Schwarzen, Mischlingen und Weißen noch in keiner Weise ausgestanden, zumal es von der Politik her manipuliert wird und seinerseits die Politik bedingt. Sprachen Fast alle der in Angola gesprochenen Sprachen gehören zur Bantu-Sprachfamilie. Portugiesisch ist Amtssprache in Angola. Sie wird zu Hause von 85 % der Bevölkerung in den Städten und von 49 % der Landbevölkerung gesprochen. Von allen afrikanischen Ländern hat sich Angola alles in allem vermutlich die Sprache der ehemaligen Kolonialmacht am stärksten zu eigen gemacht. Unter den afrikanischen Sprachen Angolas am weitesten verbreitet sind das Umbundu, das von 23 % der Bevölkerung, besonders von der ethnischen Gruppe der Ovimbundu gesprochen wird, das Kikongo (8,24 %) der Bakongo, das Kimbundu (7,82 %) der Ambundu und das Chokwe (6,54 %) der Chokwe. Andere Sprachen sind Ngangela, Oshivambo (Kwanyama, Ndonga), Mwila, Nkhumbi, Otjiherero sowie das im 20. Jahrhundert von Rückwanderern aus dem Zaire eingeführte Lingala. In Angola werden insgesamt (je nach Einteilungskriterien) rund 40 verschiedene Sprachen/Dialekte gesprochen. Religionen In Angola gibt es knapp 1000 Religionsgemeinschaften. Nach dem Zensus 2014 gehören den oft schon während der Kolonialzeit gegründeten protestantischen Kirchen 38,1 % der Bevölkerung an, während 41,1 % der Bevölkerung Anhänger der römisch-katholischen Kirche sind. Keiner Religionsgemeinschaft gehören 12,3 % der Einwohner an. Methodisten sind besonders im Gebiet von Luanda bis Malanje vertreten, Baptisten im Nordwesten und Luanda. In Zentralangola und den angrenzenden Küstenstädten ist vor allem die Igreja Evangélica Congregacional em Angola (Evangelisch-Kongregationalistische Kirche in Angola) vertreten. Aus der Kolonialzeit stammen auch verschiedene kleinere Gemeinschaften, so Lutheraner (z. B. in Südangola) und Reformierte (vor allem in Luanda). Dazu kommen Adventisten, neuapostolische Christen sowie (nicht zuletzt durch Einflüsse aus Brasilien) seit der Unabhängigkeit eine Vielfalt pfingstlich-charismatischer Freikirchen und die Zeugen Jehovas. Die neuen Gemeinschaften, darunter zum Beispiel die als Wirtschaftsunternehmen organisierte „Igreja Universal do Reino de Deus“ (IURD, Vereinigte Kirche des Reichs Gottes), die in Brasilien entstand und sich von dort aus in die anderen portugiesischsprachigen Länder ausbreitete, sind besonders in den größeren Städten vertreten und haben zum Teil erheblichen Zulauf. Aufgrund von Einflüssen aus Südafrika und Namibia hat sich in den 2000er Jahren ein kleiner Ableger der anglikanischen Kirche des südlichen Afrika gebildet. Am 24. September 2021 gründete sich daraus die Anglikanische Kirche von Mosambik und Angola. Schließlich gibt es zwei christlich-synkretistische Gemeinschaften, die in der DR Kongo verwurzelten Kimbanguisten und die im kolonialen Angola entstandenen Tokoisten. Nur noch ein verschwindend geringer Teil der Bevölkerung hängt ausschließlich traditionellen Religionen an, aber unter den Christen finden sich nicht selten Bruchstücke von Vorstellungen, die aus diesen Religionen stammen. Der Anteil der Muslime (fast alle sunnitisch) beträgt laut Zensus 2014 nur 0,4 Prozent. Er setzt sich aus Einwanderern aus verschiedenen, meist afrikanischen Ländern zusammen, die aufgrund ihrer Verschiedenartigkeit keine Gemeinschaft bilden. Saudi-Arabien bemühte sich um eine Ausbreitung des Islams in Angola. So kündigte es 2010 an, dass es in Luanda die Errichtung einer islamischen Universität finanzieren werde. Im November 2013 wurde jedoch dem Islam und zahlreichen anderen Organisationen die Anerkennung als Religionsgemeinschaft verweigert, da sie nicht mit dem Christentum vereinbar seien. Zudem wurden Gebäude, die ohne Baugenehmigung errichtet wurden, zum Abriss vorgesehen. Mehr als 60 Moscheen im Land wurden geschlossen. Die katholische Kirche, die traditionellen protestantischen Kirchen und einige Freikirchen unterhalten soziale Einrichtungen, die dazu bestimmt sind, Mängel in der gesellschaftlichen oder staatlichen Versorgung auszugleichen. Die katholische Kirche und die traditionellen protestantischen Kirchen äußern sich gelegentlich zu politischen Fragen und finden dabei unterschiedliches Gehör. Soziales Gesundheitsversorgung Die Ernährungs- und Gesundheitssituation der angolanischen Bevölkerung ist – aus europäischer Perspektive – größtenteils katastrophal. Nur rund 30 % der Bevölkerung haben Zugang zu grundlegender medizinischer Versorgung und nur 40 % haben Zugang zu ausreichend reinem Trinkwasser. Jährlich sterben tausende Menschen an Durchfallerkrankungen oder Atemwegsentzündungen. Daneben sind Malaria, Meningitis, Tuberkulose und Erkrankungen durch Wurmbefall verbreitet. Die Infektionsrate mit HIV liegt nach Schätzungen von UNAIDS bei 2 % und damit für die Region sehr niedrig. Als Grund hierfür wird die Abschottung des Landes während des Bürgerkrieges genannt. Im Jahr 1987 wurde ein erster großer Cholera-Ausbruch in Angola gemeldet, welcher 16.222 Fälle und 1.460 Todesfälle umfasste. Er begann am 8. April 1987 in der Provinz Zaire und breitete sich auf viele andere Gebiete einschließlich der Provinz Luanda aus. Nachdem die Zahl der Fälle zwischen Juli und Oktober zurückgegangen war, kam es ab November zu einem Anstieg, und galt als endemisch, wobei die Ausbrüche 1988 in zahlreichen Provinzen weiter anhielten. Im Jahr 1988 wurden zwei Drittel der Cholerafälle in Afrika von Angola gemeldet (15 500 Fälle gegenüber 23 223 in ganz Afrika). Zwischen 1997 und 2005 wurde kein Cholerafall mehr gemeldet. Ausbruch der Cholera 2006/2007: Zwischen dem 13. Februar 2006 und dem 9. Mai 2007 erlebte Angola einen seiner schlimmsten Cholera-Ausbrüche in der Geschichte und meldete 82 204 Fälle mit 3092 verbundenen Todesfällen und einem Gesamt-Fall-Verstorbenen-Anteil (FVA) von 3,75 %. Der Höhepunkt des Ausbruchs wurde Ende April 2006 mit einer täglichen Inzidenz von 950 Fällen erreicht. Der Ausbruch begann in Luanda und erreichte rasend schnell 16 der 18 Provinzen. Die Entwicklung deutet darauf hin, dass die Krankheit sich sowohl über den Seeweg als auch über den Landweg ausgebreitet haben könnte. Die Cholera-Ausbrüche in Angola sind Berichten zufolge hauptsächlich auf den schlechten Zugang zu Grundversorgung wie der Versorgung mit sauberem Wasser und sanitären Einrichtungen zurückzuführen. Zwar wird der Erfolg aller Hilfsmaßnahmen bei der Eindämmung des Cholera-Ausbruchs anerkannt, doch das Fehlen einer langfristigen und nachhaltigen Versorgung mit sauberem Wasser und sanitären Einrichtungen sowie einer verbesserten Gesundheitsversorgung macht viele Menschen immer noch anfällig für Cholera und andere damit zusammenhängende Krankheiten wie Marburg, Polio etc. Obwohl Luanda die meisten Fälle (rund 50 %) meldete, wiesen andere Provinzen wie Bié, Huambo, Cuanza Sul und Lunda Norte den höchsten FVA-Wert auf. Dies ist mit dem schwierigen Zugang zu Gesundheitseinrichtungen zu erklären, wobei die weit von Luanda entfernten Provinzen besonders unterversorgt waren. Im Jahr 2007 meldete Angola 18 422 Fälle, darunter 513 Todesfälle (FVA 2,78 %). Luanda verzeichnete 37 % aller Fälle und Benguela 22,5 %. Den höchsten Fall-Verstorbenen-Anteil meldete Cuanza Sul mit 12 %. Etwa ein Drittel der Bevölkerung ist teilweise oder vollständig von ausländischen Nahrungsmittelhilfen abhängig. 2015 waren 14,0 % der Bevölkerung unterernährt. Im Jahr 2000 waren es noch 50,0 % der Bevölkerung. Die Sterblichkeit bei unter 5-jährigen betrug 2020 71,5 pro 1000 Lebendgeburten und damit leicht unter dem Wert von Sub-Sahara-Afrika von 73,3. Aufgrund der mangelnden medizinischen Versorgung ist auch die Zahl der Frauen, die während der Geburt sterben, extrem hoch. Die Lebenserwartung der Einwohner Angolas ab der Geburt lag 2020 bei 61,5 Jahren (Frauen: 64,4, Männer: 58,7). Bildungswesen Während der Kolonialzeit wurde das Bildungswesen bis auf das letzte Jahrzehnt vernachlässigt und war stets ein Instrument der Kolonialpolitik. Nach der Unabhängigkeit setzte ein systematischer Neubeginn an, bei dem die Zusammenarbeit mit Kuba eine wichtige Rolle spielte. Der Bürgerkrieg behinderte diese Anstrengungen und führte vor allem in ländlichen Regionen zu einem eklatanten Lehrermangel. Der Aufbau eines neuen Bildungswesens wurde insgesamt jedoch fortgesetzt, besonders in den Städten, in denen sich nach und nach die Hälfte der Bevölkerung konzentrierte. Seit dem Frieden 2002 wurden und werden große Anstrengungen unternommen, um die Situation zu verbessern und die enormen Defizite auszuräumen. In der gleichen Zeit begann in Angola eine Schulreform mit der Absicht, die Inhalte der Schule für die Kinder relevanter zu machen und bessere Ergebnisse zu erzielen. In Angola gehen weniger als zwei Drittel der Kinder im schulpflichtigen Alter zur Schule. In den Grundschulen wiederholen 54 % der Kinder eine oder mehrere Klassen. Wenn die Kinder die fünfte Klasse erreichen, gehen nur noch 6 % der Kinder ihrer Altersgruppe in die Schule. Dies hat auch mit dem Umstand zu tun, dass für die Versetzung in höhere Klassen ein gültiger Personalausweis vorzulegen ist, den viele nicht haben. Diese hohe Schulabbrecherquote entspricht dem Mangel an Schulen mit fünfter und sechster Klasse. Die Alphabetisierungsrate der erwachsenen Bevölkerung betrug 2015 71,1 % (Frauen: 60,2 %, Männer: 82,0 %) Von der Bevölkerung >18 Jahre verfügen 47,9 % über keinen Schulabschluss, 19,9 % über einen Primarschulabschluss, 17,1 % über einen mittleren Schulabschluss (I ciclo do ensino secundário), 13,2 % über einen Sekundarschulabschluss (II ciclo do ensino secundário) und 2,0 % über einen Hochschulabschluss. Bei den 18–24-Jährigen liegen die Quoten bei 25 % (kein Schulabschluss), 34 % (Primarschulabschluss), 29 % (mittlerer Schulabschluss), 13 % (Sekundarschulabschluss) und 0 % (Hochschulabschluss). Die Quote der Bevölkerung >24 Jahre mit Hochschulabschluss ist von Provinz zu Provinz sehr unterschiedlich. Den höchsten Anteil verzeichnen Luanda (5,4 %) und Cabinda (3,8 %), den niedrigsten Cunene (0,6 %) und Bié (0,5 %). In Zusammenarbeit mit dem angolanischen Bildungsministerium betreibt die Hilfsorganisation Ajuda de desenvolvimento de Povo para Povo em Angola sieben Lehrerausbildungsstätten in Huambo, Caxito, Cabinda, Benguela, Luanda, Zaire und Bié, die so genannten Escolas dos Professores do Futuro, an denen bis Ende 2006 mehr als 1000 Lehrer für den Einsatz in den ländlichen Gebieten ausgebildet wurden. Bis 2015 sollen acht weitere dieser Lehrerausbildungsstätten eingerichtet und 8000 Lehrer ausgebildet werden. Das Hochschulwesen bestand bis in die späten 1990er Jahre aus der staatlichen Universidade Agostinho Neto, deren etwa 40 Fakultäten über das ganze Land verteilt waren und sich insgesamt in einem schlechten Zustand befanden. Daneben gab es nur noch die Universidade Católica de Angola (UCAN) in Luanda. Inzwischen gibt es, vor allem in Luanda, eine wachsende Anzahl privater Universitäten. Dazu zählen unter anderem die Universidade Lusíada de Angola, die Universidade Lusófona de Angola, und die Universidade Jean Piaget de Angola die allesamt eng mit den gleichnamigen Universitäten in Portugal verbunden sind. Mit Unterstützung einer Lissaboner Universität ist auch die Angola Business School entstanden. Rein angolanische Initiativen sind die Universidade Privada de Angola, die Universidade Metodista de Angola, die Universidade Metropolitana de Angola, die Universidade Independente de Angola, die Universidade Técnica de Angola, die Universidade Gregório Semedo die Universidade Óscar Ribas, die Universidade de Belas, und das Instituto Superior de Ciências Sociais e Relações Internacionais. Alle diese Universitäten sind in Luanda angesiedelt, obwohl einige auch „pólos“ genannte Außenstellen in anderen Städten haben, so die Universidade Privada de Angola in Lubango, die Universidade Lusófona de Angola in Huambo und die Universidade Jean Piaget in Benguela. Im Sinne einer Dezentralisierung des Hochschulwesens war es jedoch entscheidend, dass 2008/2009 aus der Universidade Agostinho Neto sechs Regionaluniversitäten mit je eigenem Namen ausgegliedert wurden, die die bestehenden Fakultäten übernahmen und meist weitere gründeten, und die innerhalb ihres jeweiligen Zuständigkeitsgebiets in anderen Städten „pólos“ einrichteten. In Benguela entstand so die Universidade Katyavala Bwila, in Cabinda die Universidade 11 de Novembro, in Huambo die Universidade José Eduardo dos Santos mit „pólo“ in Bié, in Lubango die Universidade Mandume ya Ndemufayo (siehe auch Mandume yaNdemufayo) mit „pólo“ in Ondjiva, in Malanje mit Saurimo und Luena die Universidade Lueij A’Nkonde und in Uíge die Universidade Kimpa Vita. In den meisten Fällen waren die Namensgeber afrikanische Führungsfiguren aus vorkolonialer Zeit oder aus der Zeit des Primärwiderstands gegen die koloniale Eroberung. Sämtliche Universitäten haben mit Aufbauschwierigkeiten zu kämpfen. Der Zuständigkeitsbereich der Universidade Agostinho Neto wurde auf die Provinzen Luanda und Bengo beschränkt. Die qualitativen Unzulänglichkeiten des Hochschulwesens sind durch diese Entwicklung jedoch bislang nur teilweise überwunden worden. In Luanda haben aufgrund der Vielfalt der Universitäten einige von ihnen mit einer abnehmenden Nachfrage zu kämpfen. Siehe auch: Liste der Universitäten in Angola Politik Politisches System Zurzeit ist die politische Macht auf die Präsidentschaft konzentriert. Die Exekutive bestand bis 2017 aus dem langjährigen Präsidenten, José Eduardo dos Santos, der zugleich Oberkommandierender der Streitkräfte und Regierungschef war, und dem Ministerrat. Der Ministerrat, bestehend aus allen Regierungsministern und Vizeministern, trifft sich regelmäßig, um über politische Themen zu diskutieren. Die Gouverneure der 18 Provinzen werden vom Präsidenten ernannt und handeln nach seinen Vorstellungen. Das Verfassungsrecht von 1992 begründet die wesentlichen Merkmale der Regierungsstruktur und nennt die Rechte und Pflichten der Bürger. Das Rechtssystem, das auf dem portugiesischen Recht und dem Gewohnheitsrecht basiert, ist schwach und bruchstückhaft. Gerichte sind nur in zwölf von mehr als 140 Stadtverwaltungen tätig. Das oberste Gericht dient als Rechtsmittelinstanz. Ein Verfassungsgericht – mit der Fähigkeit einer unparteiischen Bewertung – wurde bis 2010 nicht ernannt, obwohl es das Gesetz vorsieht. Seit 2017 ist João Lourenço Präsident. Im Dezember 2019 wurde das auf 2,2 Milliarden US-Dollar geschätzte Vermögen von Isabel dos Santos, der Tochter des alten Präsidenten, eingefroren. Dennoch hat sich der Zustand von Demokratie und Menschenrechten im Land unter Lourenço nicht verbessert. Die 2010 vom Parlament angenommene Verfassung hat die autoritären Züge des politischen Systems nochmals verschärft. Hervorzuheben ist, dass die Präsidentschaftswahl abgeschafft wurde und in Zukunft der Vorsitzende und der stellvertretende Vorsitzende derjenigen Partei, die bei den Parlamentswahlen die meisten Stimmen erhält, automatisch Staatspräsident bzw. Vizepräsident sind. Der Staatspräsident kontrolliert über verschiedene Mechanismen sämtliche Staatsorgane, einschließlich des nunmehr geschaffenen Verfassungsgerichts; von einer Gewaltenteilung kann man infolgedessen nicht sprechen. Es handelt sich also nicht mehr um ein Präsidialsystem, wie es das etwa in den USA oder Frankreich gibt, sondern um ein System, das verfassungsrechtlich in dieselbe Kategorie fällt wie die cäsaristische Monarchie Napoleon Bonapartes, das korporative System António de Oliveira Salazars nach der portugiesischen Verfassung von 1933, die brasilianische Militärregierung nach der Verfassung von 1967/1969 sowie verschiedene autoritäre Regime im gegenwärtigen Afrika. Der 27 Jahre andauernde Bürgerkrieg in Angola hat die politischen und gesellschaftlichen Einrichtungen des Landes stark beschädigt. Die UN vermutet, dass es in Angola 1,8 Millionen Flüchtlinge gab. Mehrere Millionen Menschen waren direkt von Kriegshandlungen betroffen. Täglich spiegelten die Lebensbedingungen im ganzen Land, besonders in Luanda (durch immense Landflucht ist die Hauptstadt auf über fünf Millionen Einwohner angewachsen), den Zusammenbruch der Verwaltungsinfrastruktur und der vielen gesellschaftlichen Einrichtungen wider. Krankenhäuser hatten oft weder Medikamente noch eine Grundausstattung, Schulen hatten keine Bücher, und Angestellte im öffentlichen Dienst besaßen keine Ausstattung, um ihrer täglichen Arbeit nachzugehen. Seit dem Ende des Bürgerkriegs im Jahre 2002 sind massive Bemühungen um Wiederaufbau unternommen worden, doch finden sich dessen Spuren überall im Lande. Die vielfältigen Probleme und Möglichkeiten des Wiederaufbaus werden in großer Ausführlichkeit beschrieben vom Angolaportugiesen José Manuel Zenha Rela. Die zwei einflussreichsten Gewerkschaften sind: UNTA (União Nacional dos Trabalhadores Angolanos); Nationale Union der angolanischen Arbeiter CGSILA (Confederação Geral dos Sindicatos Independentes e Livres de Angola); Allgemeiner Bund der freien und unabhängigen Gewerkschaften Angolas Parlament Am 5. und 6. September 2008 wählten die Angolaner erstmals seit Ende des Bürgerkrieges eine neue Nationalversammlung. Nach Auffassung von Wahlbeobachtern der SADC und der Afrikanischen Union (AU) verlief die Wahl „allgemein frei und fair“. Beobachter der EU wiesen zwar auf die sehr gute technische und logistische Vorbereitung der Wahlen, die hohe Wahlbeteiligung sowie den friedlichen Prozess der Stimmabgabe hin. Kritisiert wurde allerdings die chaotische Abhaltung der Wahlen vor allem in der Hauptstadt Luanda. Nach Auffassung internationaler Beobachter bestanden in der Zeit vor den Wahlen keine freien und für alle Parteien gleichen Voraussetzungen für faire Wahlen. Es wird von fast allen Beobachtern übereinstimmend hervorgehoben, dass die staatlichen Medienanstalten massiv zugunsten der MPLA missbraucht wurden, freier Zugang zu den elektronischen Medien für die Oppositionsparteien außerhalb Luandas nicht gegeben war. Die angolanische Zivilgesellschaft spricht von staatlich finanzierten Wahlgeschenken der MPLA und Einschüchterungen durch deren Sympathisanten. Die MPLA gewann die Wahl mit knapp 82 % der abgegebenen Stimmen, während die UNITA etwas mehr als 10 % der Stimmen auf sich vereinigen konnte. Die größte Oppositionspartei legte zunächst Beschwerde gegen die Wahl ein, gestand nach deren Ablehnung jedoch ihre Niederlage ein. Folgende Parteien verfügten nach dieser Wahl über Sitze im Parlament: Frente Nacional de Libertação de Angola (FNLA) – („Nationale Front der Befreiung Angolas“, ehemalige Befreiungsbewegung, Opposition) 3 Sitze Movimento Popular de Libertação de Angola (MPLA) – („Volksbewegung der Befreiung Angolas“, ehemalige Befreiungsbewegung, an der Macht seit der Unabhängigkeit) 191 Sitze Partido de Renovação Social (PRS) – („Partei der Sozialen Erneuerung“, Wählerschaft konzentriert auf die Volksgruppen der Lunda und Chokwe, Opposition), 8 Sitze União Nacional para a Independência Total de Angola (UNITA) – („Nationale Union für die völlige Unabhängigkeit Angolas“, ehemalige Befreiungsbewegung, Opposition) 16 Sitze Nova Democracia – União Eleitoral (ND) („Wahlbündnis Neue Demokratie“, Opposition) 2 Sitze Die Regierung bestätigte 2011/2012 ihre Absicht, 2012 erneut Parlamentswahlen abzuhalten und so zum ersten Mal die verfassungsmäßige Bestimmung zu achten, nach der Wahlen alle vier Jahre stattfinden müssen. Außer den im Parlament vertretenen Parteien waren weitere 67 Parteien berechtigt, bei diesen Wahlen anzutreten. José Eduardo dos Santos tat wiederholt seine Absicht kund, bei diesen Wahlen nicht erneut zu kandidieren, sodass sich die Frage stellte, wer sein Nachfolger als Staatspräsident sein würde. Die Wahlen fanden dann am 31. August 2012 statt. Im Gegensatz zu seinen vorherigen Erklärungen war José Eduardo dos Santos erneut Spitzenkandidat des MPLA, das etwas mehr als 70 % der Stimmen erhielt – also weniger als 2008, aber immer noch eine sehr komfortable Mehrheit, die dos Santos das Verbleiben im Amt garantierte. Die UNITA erhielt um die 18 % und die Neugründung CASA (Convergência Ampla de Salvação de Angola) rund 6 %. Weitere Parteien zogen nicht ins Parlament ein, da keine auch nur 2 % der Stimmen erreichte. Bemerkenswert sind die starken Unterschiede zwischen den Regionen, besonders in Hinsicht auf die Resultate der Opposition. So erhielt diese rund 40 % in den Provinzen Luanda und Cabinda, in denen das Niveau der Politisierung besonders hoch ist. Am 23. August 2017 fanden erneut Wahlen statt. Präsident dos Santos trat nicht mehr an. Die MPLA erhielt rund 65 % der Stimmen und stellte damit weiter den Präsidenten. Die UNITA kam auf rund 27 %. Die jüngsten Wahlen fanden am 24. August 2022 statt. Nachdem sich die größte Oppositionspartei UNITA mit dem Demokratischen Block (BD) im Oktober 2021 zu einem Wahlbündnis unter dem Namen „FPU“ („Vereinte Demokratische Front“) zusammengeschlossen hatte, wurden der Opposition gute Chancen eingeräumt, erstmals die regierende MPLA abzulösen. Im Vorfeld der Wahl ging die Regierung jedoch gezielt mit Hausdurchsuchungen und Verhaftungen gegen Oppositionelle vor, die von „Hexenjagd“ und Willkür sprachen. Die Regierung warf den Oppositionsparteien vor, die Bevölkerung aufzuhetzen und machte sie für Straßenproteste und Angriffe auf MPLA-Büros verantwortlich. Nach der Wahl zweifelte die UNITA das vorläufige Wahlergebnis an und forderte eine internationale Kommission zur Überprüfung der Wahlzettel. Die Wahlkommission von Angola billigte jedoch am 29. August das endgültige Wahlergebnis, nach dem die MPLA mit rund 51 % die Mehrheit der Stimmen gewonnen habe, die UNITA erhielt demnach rund 44 %. Auch bei den umstrittenen, nachgezählten Stimmen habe die Regierungspartei die Mehrheit gewonnen. Sie erhielt allerdings eine Million Stimmen weniger als bei den Wahlen 2017. Politische Indizes Menschenrechte 2008 kam es laut Amnesty International wiederholt zu willkürlichen Festnahmen von Personen, die ihr Recht auf freie Meinungsäußerung bzw. auf Versammlungs- und Vereinigungsfreiheit wahrgenommen hatten. Ein staatliches soziales Sicherungssystem gibt es nicht. Alleinstehende Frauen stehen vor allem in den ländlichen Gebieten vor zusätzlichen Schwierigkeiten. In einigen Gemeinden ist es Frauen traditionell untersagt, eigenes Land zu besitzen und dieses zu kultivieren. Nach den Nationalversammlungswahlen 2017 hat sich unter dem neuen Präsidenten João Lourenço die Meinungs-, Presse- und Versammlungsfreiheit verbessert. Die staatlichen Medien berichten freier und unabhängiger, deren Führungspersonal, das aus hohen Funktionären der Regierungspartei MPLA bestand, wurde ausgetauscht und Verträge mit Medienunternehmen, die Familienangehörigen des ehemaligen Präsidenten gehörten und als Sprachrohr der Partei agierten, wurden gekündigt. Bereits während des Wahlkampfs berichteten die Medien über die Wahlauftritte der Opposition und alle Parteien erhielten Sendezeit im staatlichen Fernsehen. Auch die Versammlungsfreiheit wurde weitgehend gewährleistet. Seit dem Amtsantritt des neuen Präsidenten gibt es keine Erkenntnisse über Verurteilungen oder Verhaftungen regierungskritischer Journalisten. Bis ins 21. Jahrhundert konnte Homosexualität in Angola nach Artikel 71 und 72 des Strafgesetzbuches als „Verstoß gegen die öffentliche Moral“ mit Haft oder Arbeitslager bestraft werden. Diese Bestimmungen wurden 2018 nicht nur abgeschafft, sondern die Diskriminierung auf Basis der sexuellen Orientierung wurde verboten. Arbeitgeber, die sich weigern, Menschen aufgrund ihrer sexuellen Orientierung einzustellen, können mit einer Gefängnisstrafe bis zu zwei Jahren bestraft werden. Gleichgeschlechtliche Beziehungen waren in Teilen der Gesellschaft lange tabuisiert. In einem offenen Brief forderten mehrere Menschenrechtsgruppen und Persönlichkeiten des Landes die US-amerikanische Außenministerin Hillary Clinton auf, den Zustand der Demokratie in Angola auf ihrer Afrikareise 2009 anzusprechen. „Weltweit ist die Vorstellung in Umlauf, dass Angola große demokratische Fortschritte macht. In Wirklichkeit werden die Menschen mit anderen Ideen (als jene der Regierung) verfolgt und festgenommen. Das Kundgebungsrecht existiert nicht“, klagte David Mendes von der Organisation „Associação Mãos Livres“ (Vereinigung der Freien Hände). China bekomme immer mehr Einfluss in Angola. „Und jeder weiß, dass China die Menschenrechte nicht respektiert“, sagte Mendes. Amnesty International rief bereits 2007 in einem offenen Brief an die EU auf, die schwierige Situation der Menschenrechte in Angola anzusprechen und auf ihre Agenda zu setzen. Beobachter im Land schätzen die Rahmenbedingungen der Lebensumstände in Angola als potenziell gewalttätig ein. Der historische Verlauf vom gewaltorientierten Handeln der ehemaligen portugiesischen Staatsmacht im Kolonialkrieg bis zur staatlichen Unabhängigkeit im Jahre 1975, ein darauf folgender 30-jähriger Bürgerkrieg und extrem ungesicherte soziale Verhältnisse mit bewaffneten Lokalkonflikten bis in die Gegenwart hat große Teile der angolanischen Bevölkerung an Gewaltwillkür von jeglichen Seiten im Alltag gewöhnt. Im Verlauf der jüngeren Landesgeschichte wurde die Achtung des individuellen Menschenlebens beeinträchtigt und es entspricht inzwischen den Alltagserfahrungen vieler Bürger, dass nur die Ziele die Mittel rechtfertigten würden. Aussagen in Medien, die Hinrichtungen unterstützen, zeigen, dass unter der Bevölkerung das „physische Aussterben“ mutmaßlicher oder tatsächlicher Krimineller begrüßt wird. Eine Orientierung auf rechtsstaatliche Standards ist nur schwach vorhanden, wie zum Beispiel auf das Recht auf Leben. Populistische Meinungsbildungen, ebenso von und in Behörden verbreitet, nutzen die gefühlte Angst der Bevölkerung vor Verbrechen, um die angolanischen Bürger von rechtsstaatlichen Denkweisen fernzuhalten, sich von Menschenrechten zu distanzieren oder ihre Bürgerrechte im Lebensalltag nicht einzufordern. Zu dieser Entwicklung gehen regional auftretende Vorfälle parallel einher, bei denen es zu Überfällen und Morden unter der Zivilbevölkerung kommt, auf die keine Aufklärung und keine strafrechtlichen Konsequenzen für die Täter folgen. Diese Alltagserfahrungen stehen im Widerspruch zu den politischen Proklamationen der angolanischen Regierung zugunsten von vermeintlich garantierten rechtsstaatlichen Normen im Land. Politischer Protest Offenbar unter dem Einfluss der Volksaufstände in arabischen Ländern gab es Versuche am 7. März 2011 und dann wieder zu einem späteren Zeitpunkt, in Luanda eine Großdemonstration gegen das politische Regime in Angola zu organisieren. Es handelte sich um Versuche, Protest unabhängig von den Oppositionsparteien zu artikulieren. Die MPLA hat am 5. März in Luanda eine „präventive Gegendemonstration“ mit vorgeblich einer Million Anhängern veranstaltet. Während der folgenden Monate fanden Proteste im Internet und bei Rapveranstaltungen statt. Am 3. September 2011 wurde dann erneut die Erlaubnis zu einer regimekritischen, vor allem gegen die Person des Staatspräsidenten gerichteten Demonstration erteilt, die dann jedoch unter Einsatz von Schlagstöcken und Schusswaffen gewaltsam aufgelöst wurde, als sie den ihr zugestandenen Bereich zu überschreiten begann. Etwa 50 Personen wurden verhaftet und sahen einer summarischen Verurteilung entgegen. Außenpolitik Angola ist seit 1976 Mitglied der Vereinten Nationen, seit 1996 Mitglied der WTO und seit 2007 bei der OPEC sowie Gründungsmitglied der Südafrikanischen Entwicklungsgemeinschaft SADC, als auch bei der AU (Afrikanische Union) und der CPLP, der Gemeinschaft der Staaten portugiesischer Sprache. Am 15. Oktober 2013 wurde die strategische Partnerschaft mit Portugal von Angola aufgekündigt. Präsident dos Santos erklärte, die Beziehungen zwischen den beiden Ländern seien nicht gut. Die Ursache war der Umstand, dass die portugiesische Justiz einige politisch gewichtige Angolaner, die zum engeren Umkreis des Staatspräsidenten gehören, aufgrund von in Portugal begangenen Delikten (vor allem massiver Geldwäsche) unter Anklage gestellt hatte. Siehe auch: Liste der angolanischen Botschafter beim Heiligen Stuhl, Liste der angolanischen Botschafter in Brasilien, Liste der angolanischen Botschafter in Frankreich, Liste der angolanischen Botschafter in São Tomé und Príncipe Verwaltungsgliederung Territoriale Gliederung Angola gliedert sich in 18 Provinzen (portugiesisch: províncias, Singular – província): Diese 18 Provinzen untergliedern sich weiter in 162 Municípios, 559 Kommunen und 27.641 Örtlichkeiten (Localidades). Städte Zur Bevölkerung der Städte liegen für die nachkoloniale Zeit bis ins 21. Jahrhundert keine zuverlässigen Zahlen vor. Von der Veröffentlichung der Erhebung des Instituto Nacional de Estatística aus dem Jahr 2008, die nach 2011 zur Verfügung stand, wurde ein qualitativer Fortschritt erwartet. Nach der Projektion 2020 wurden in den offiziellen Statistiken nur die Einwohnerzahlen der Municípios, aber nicht der einzelnen Kommunen veröffentlicht. Ein Município umfasst neben der größten Stadt des Landkreises auch einige kleinere Orte in der Umgebung. Demnach ergibt sich für die Municípios folgendes Bild: Luanda als Hauptstadt ist geradezu explosiv gewachsen. Laut dem Zensus von 2014 leben in der Stadt 2,17 Millionen Einwohner, laut Projektion 2020 2,66 Millionen. Das prozentual stärkste Wachstum seit dem letzten Zensus von 1970 haben Cabinda (740.000 Einwohner) in der ölreichen gleichnamigen Provinz, sowie die Provinzhauptstadt Uíge (615.000 Einwohner) aufzuweisen. Lubango hat von allen größeren Städten die relativ geringsten nachkolonialen Erschütterungen zu verzeichnen gehabt, ist aber gerade deswegen durch den Zufluss nicht nur aus dem engeren und weiteren Umland, sondern vor allem aus dem Zentralhochland auf etwa 930.000 Einwohner angewachsen Ein sehr starkes Wachstum ist bei den Küstenstädten Benguela (660.000 Einwohner), Lobito (460.000 Einwohner) und Moçâmedes (360.000 Einwohner) zu beobachten. Huambo ist nach der Unabhängigkeit zunächst zur zweitgrößten Stadt Angolas geworden, wurde dann aber weitgehend zerstört und entvölkert. Seit 2002 ist ihre Einwohnerzahl wieder auf 875.000 angewachsen. Kuito ist noch erheblich stärker zerstört worden als Huambo und hatte 2020 bereits wieder 545.000 Einwohner. Militär Die Streitkräfte Angolas unterhalten ein etwa 107.000 Mann starkes Militär, die Forças Armadas Angolanas (FAA). Angola gab 2020 knapp 1,7 Prozent seiner Wirtschaftsleistung oder 1,04 Mrd. US-Dollar für seine Streitkräfte aus. Die Ausgaben für Verteidigung gehören damit zu den höchsten in ganz Afrika. Es gibt drei Teilstreitkräfte: Heer, Marine sowie Luftwaffe und Luftabwehrkräfte, wovon das Heer zahlenmäßig die größte darstellt. Militärisches Gerät stammt hauptsächlich aus der ehemaligen Sowjetunion. Kleine Kontingente sind in der Republik Kongo und der Demokratischen Republik Kongo stationiert. Generalstabschef ist der General Egídio de Sousa Santos. Wirtschaft Allgemein Mit einem Bruttoinlandsprodukt von 95,8 Milliarden US-Dollar (2016) ist Angola nach Südafrika und Nigeria die drittgrößte Volkswirtschaft Subsahara-Afrikas. Gleichzeitig lebt ein großer Teil der Bevölkerung in Armut. Das Bruttoinlandsprodukt pro Kopf betrug im selben Jahr 3.502 US-Dollar (6.844 USD kaufkraftbereinigt). Angola stand damit weltweit an 120. Stelle (von ca. 200 Ländern insgesamt). Angolas Wirtschaft leidet unter den Folgen des jahrzehntelangen Bürgerkriegs. Dank seiner Bodenschätze – vorrangig der Ölvorkommen und Diamantenabbau – gelang dem Land jedoch während der letzten Jahre ein großer wirtschaftlicher Aufschwung. Das Wirtschaftswachstum Angolas ist im Jahr 2019 das größte in Afrika. Allerdings kommen die Einkünfte aus den Rohstoffvorkommen nicht bei dem Großteil der Bevölkerung an, sondern bei korrupten Nutznießern innerhalb der politisch und ökonomisch Herrschenden des Landes sowie einer sich langsam bildenden Mittelschicht. Der Mittelschicht gehörten 2015 nur 4,4 Millionen der damals 26 Millionen Einwohner an. Ein großer Teil der Bürger ist arbeitslos und etwa die Hälfte leben unterhalb der Armutsgrenze, wobei es drastische Unterschiede zwischen Stadt und Land gibt. Eine Erhebung des Instituto Nacional de Estatística von 2008 kommt zu dem Ergebnis, dass auf dem Lande rund 58 % als arm zu betrachten waren, in den Städten jedoch nur 19 %, insgesamt 37 %. In den Städten, in denen sich inzwischen mehr als 50 % der Angolaner zusammenballen, ist die Mehrheit der Familien auf Überlebensstrategien angewiesen. Dort wird auch die soziale Ungleichheit am deutlichsten greifbar, insbesondere in Luanda. Das Entwicklungsprogramm der Vereinten Nationen zählt Angola zu den Ländern mit mittlerer menschlicher Entwicklung. Die Arbeitslosigkeit liegt landesweit bei 24,2 %, wobei es kaum Unterschiede zwischen Männern und Frauen gibt. Große Unterschiede sind jedoch zwischen den Provinzen zu verzeichnen. Während die Arbeitslosigkeit in Lunda Sul (43 %), Lunda Norte (39 %), Luanda (33 %) und Cabinda (31 %) am höchsten ist, liegt sie in Namibe und Huíla (17 %), Malanje (16 %), Cuanza Sul und Benguela (13 %) am niedrigsten. Die wichtigsten Handelspartner für den Export von Gütern und Rohstoffen sind die USA, China, Frankreich, Belgien und Spanien. Importpartner sind überwiegend Portugal, Südafrika, USA, Frankreich und Brasilien. 2009 entwickelte sich Angola für Portugal zum größten Exportmarkt außerhalb Europas, und rund 24.000 Portugiesen übersiedelten in den letzten Jahren nach Angola, suchten dort Beschäftigung oder gründeten Unternehmen. Erheblich wichtiger ist jedoch die Präsenz Chinas in Form einer ganzen Reihe großer Unternehmen. Nach dem Ende des Bürgerkriegs 2002 ersuchte Angola bei China einen Kredit von 60 Milliarden US-Dollar für Infrastrukturmaßnahmen wie Eisenbahn-, Straßen-, Wohnungs- und Krankenhausbau. Er soll mit Erdöllieferungen zurückgezahlt werden. Die von den chinesischen Firmen – einschließlich chinesischer Arbeitskräfte – ausgeführten Projekte sind jedoch von sehr schlechter Qualität. Neu gebaute Straßen und Eisenbahnstrecken müssen alle zwei Jahre repariert werden, die Wohnungen weisen nach wenigen Jahren Risse und Wasserinfiltrationen auf, das von den Chinesen 2006 fertiggestellte städtische Krankenhaus Hospital Geral de Luanda musste schon sechs Jahre nach der Einweihung abgerissen und 2015 neu eröffnet werden. Von grundlegender Bedeutung für die Bevölkerung Angolas ist die Schattenwirtschaft, die sich schon während der „sozialistischen“ Phase entwickelte und in der Phase der Liberalisierung exponentiell angewachsen ist und die zurückzudrängen sich die Regierung gegenwärtig bemüht. Lange Zeit war Angola abhängig von seinen Erdölexporten. Fast alles wird importiert, sogar Mineralwasser, obwohl das Land über unzählige Wasserquellen verfügt. Der Verfall des Ölpreises drückte empfindlich auf den Staatshaushalt des südwestafrikanischen Landes. Seit einigen Jahren bemüht es sich, seine Wirtschaft zu diversifizieren – weg allein vom Erdöl. Dafür ist der Ausbau der Infrastruktur nötig, die Modernisierung der Energieversorgung und bessere Bedingungen für private Investoren. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Angola Platz 137 von 140 Ländern (Stand 2018). Außerhalb der Ölförderung ist die Leistungsfähigkeit der einheimischen Industrie sehr schwach. Der Staat nimmt großen Einfluss auf das wirtschaftliche Geschehen. Gleichzeitig ist Korruption im staatlichen Sektor sehr ausgeprägt. Im Index für wirtschaftliche Freiheit belegt das Land 2018 deshalb nur Platz 164 von 180 Ländern. Fischfabrik In ihre Fischfabrik von Solmar investierte Elizabete Dias Dos Santos 25 Millionen US-Dollar. Die Verarbeitungsanlage eröffnete im Herbst 2016. Diese Art von Fließbandproduktion ist in dem Sektor einzigartig in Angola. 120 Menschen arbeiten in der Fabrik. Daneben profitieren die Zulieferer, denn mehr als 50.000 Menschen leben vom traditionellen Fischfang in Angola. 40 % der Ankäufe erfolgt bei den Kleinfischern. Um private Investoren zu gewinnen, hatte die angolanische Regierung die Bedingungen für einheimische und ausländische Unternehmen verbessert durch unter anderem Steuervergünstigungen, Hilfe bei der Finanzierung und vereinfachte Verfahren zur Firmengründung. Stahlwerk Bei Aceria de Angola, nördlich der Hauptstadt Luanda ging 2015 ein Stahlwerk mit einer Kapazität von 500.000 Tonnen pro Jahr in Betrieb. 350 Millionen Dollar wurden investiert. Das Werk hat mehr als 500 Arbeitsplätze und bietet vielen Menschen eine Ausbildung. In dem Werk wird vornehmlich Schrott recycelt und daraus Baustahl für Betonbauten hergestellt. Ziel des libanesisch-senegalesischen Betreibers Georges Fayez Choucair ist es, zu Exportieren. Daher ist die Kapazität des Werkes doppelt so hoch wie der angolanische Bedarf. Mit dem Werk wurde auch die Region elektrifiziert und die Wasserversorgung erschlossen. Es musste eigens eine Hochspannungsleitung hierher gelegt werden. Die Arbeitslosigkeit in der Region sank von circa siebzig auf etwa zwanzig Prozent. Fayez Choucair ist überzeugt: „Man kann nicht in einem neuen Land investieren, in einer völlig neuen Bevölkerung und ankommen und sich einnisten nach dem Motto ‚ich bin reich‘ – nein! Man muss heute die Bevölkerung für sich gewinnen, das ist kein Projekt eines Einzelnen, sondern ein Gemeinschaftsprojekt!“ Privatisierungsprogramm Ende 2018 wurde mit dem Präsidialdekret Nº141/18 die Privatisierungsbehörde IGAPE (Institito de Gestão de Activos e Participação do Estado) gegründet, mit der die Regierung 195 staatliche Unternehmen komplett oder teilweise privatisieren will, um den Privatsektor zu stärken und somit das Wachstum des Landes zu fördern. Das Programm umfasst die wichtigsten Wirtschaftszweige wie den Energiesektor (Sonangol), Telekommunikation und IT, den Finanzbereich (Bankwesen (BAI), Versicherungen (ENSA), Kapitalfonds), den Transportsektor (TAAG), den Tourismus sowie das verarbeitende Gewerbe einschließlich der Nahrungsmittelverarbeitung und der Landwirtschaft. Die meisten Unternehmen sollen 2020 verkauft werden. Elektrizitätsversorgung Im Jahre 2011 lag Angola bezüglich der jährlichen Erzeugung mit 5,512 Mrd. kWh an Stelle 119 und bzgl. der installierten Leistung mit 1.657 MW an Stelle 114 in der Welt. 2014 betrug die installierte Leistung 1.848 MW, davon 888 MW in Wärmekraftwerken und 960 MW in Wasserkraftwerken. Bis 2014 waren nur 30 bis 40 % der Bevölkerung an das Stromnetz angeschlossen. Daher begann die Regierung mit der Planung erheblicher Investitionen (bis 2017 23,4 Mrd. US-Dollar) im Bereich der Stromversorgung. Dies beinhaltet den Bau neuer Kraftwerke, Investitionen in die Übertragungsnetze sowie die ländliche Elektrifizierung. Es sollen eine Reihe von Wasserkraftwerken an Cuanza und Kunene errichtet werden, um das Wasserkraftpotenzial (geschätzt 18.000 MW) auszuschöpfen. Das Wasserkraftpotenzial des Kunene war schon in der Vergangenheit eine Basis für Projekte und Teilinvestitionen umfangreicher und nie komplett verwirklichter Planungen, die im Rahmen des ehemaligen Cunene-Projektes zwischen Südafrika und Angola bzw. Portugal entstanden. Die Talsperre Laúca mit einer geplanten Leistung von 2.070 MW wird zurzeit errichtet. Sie soll voraussichtlich im Juli 2017 in Betrieb gehen. Gegenwärtig (Stand April 2015) gibt es in Angola kein nationales Verbundnetz, sondern es existieren drei voneinander unabhängige regionale Netze für den Norden, das Zentrum und den Süden des Landes sowie weitere isolierte Insellösungen. Dadurch können die Überschüsse aus dem nördlichen Netz nicht in die übrigen Netze eingespeist werden. Das bei weitem wichtigste Netz ist das nördliche, das auch die Hauptstadt Luanda umfasst. Nach Fertigstellung der Talsperre Laúca sollen auch die drei Stromnetze miteinander verbunden werden. Die Stromversorgung ist im ganzen Land unzuverlässig und verbunden mit regelmäßigen Stromausfällen, die durch den Betrieb teurer Generatoren kompensiert werden müssen. Der Preis je kWh liegt bei 3 AOA (ca. 2,5 €-cent), wird jedoch erheblich subventioniert und ist nicht kostendeckend. Regionale Disparitäten Ein strukturelles Problem der angolanischen Wirtschaft sind die extremen Unterschiede zwischen den verschiedenen Regionen, die zum Teil auf den langanhaltenden Bürgerkrieg zurückzuführen sind. Rund ein Drittel der wirtschaftlichen Tätigkeit konzentriert sich auf Luanda und die angrenzende Provinz Bengo, die immer stärker zum Expansionsraum der Hauptstadt wird. Auf der anderen Seite herrscht in verschiedenen Regionen des Binnenlandes Stillstand oder gar Rückschritt. Mindestens ebenso gravierend wie die soziale Ungleichheit sind die deutlichen wirtschaftlichen Unterschiede zwischen den Regionen. 2007 konzentrierten sich in Luanda 75,1 % aller geschäftlichen Transaktionen und 64,3 % der Arbeitsplätze in (öffentlichen oder privaten) Wirtschaftsunternehmen. 2010 waren 77 % aller Unternehmen in Luanda, Benguela, Cabinda, der Provinz Kwanza Sul und Namibe angesiedelt. Das BIP pro Kopf war 2007 in Luanda samt angrenzender Provinz Bengo auf rund 8000 US-Dollar angewachsen, während es im westlichen Mittelangola dank Benguela und Lobito etwas unter 2000 US-Dollar lag, im übrigen Land jedoch deutlich unter 1000 US-Dollar. Die Tendenz zur Ballung der Wirtschaft im Küstenstreifen, insbesondere im „Wasserkopf“ Luanda/Bengo, hat seit dem Ende des Bürgerkriegs nicht etwa abgenommen, sondern sich fortgesetzt und bringt eine „Entleerung“ eines großen Teils des Binnenlandes mit sich. Die globalen Wachstumszahlen täuschen also darüber hinweg, dass die Wirtschaft Angolas unter extremen Ungleichgewichten leidet. Korruption Eines der am stärksten ausgeprägten Merkmale des heutigen Angola ist eine allgegenwärtige Korruption. In den Erhebungen von Transparency International erscheint das Land regelmäßig unter den weltweit korruptesten, in Afrika in einer Kategorie mit Somalia und Äquatorialguinea. In den ersten fünf Jahren des 21. Jahrhunderts wurde geschätzt, dass Öleinnahmen im Wert von vier Milliarden US-Dollar oder 10 % des damaligen Bruttoinlandsprodukts durch Korruption versickerten. Seit Jahren steht der Kampf gegen die Korruption im Regierungsprogramm, doch nur ganz selten ist nachzuweisen, dass diese Absichtserklärung in die Tat umgesetzt wird. Eine aufsehenerregende Ausnahme war Ende 2010 die Entlassung von zehn Abteilungsleitern und fast 100 Beamten der Fremden- und Grenzpolizei SME (Serviço de Migrações e Estrangeiros), die nicht nur für die Grenzkontrolle, sondern auch für die Erteilung von Einreise-, Aufenthalts- und Ausreisegenehmigungen zuständig ist. Der neue Staatspräsident João Lourenço geht offenbar entschieden gegen Korruption und Vetternwirtschaft vor. Bereits im ersten Amtsjahr ersetzte er mehrere Provinz-Gouverneure, Minister, hohe Beamte und Verwalter von Staatsbetrieben, wie beispielsweise die Leiterin des staatlichen Ölkonzerns Sonangol, Isabel dos Santos, Tochter des vorangegangenen Staatspräsidenten oder den Aufsichtsratsvorsitzenden des staatlichen Öl-Fonds mit einem Wert von 5 Milliarden US-Dollar, José Filomeno dos Santos, Sohn des Vorgängers. José dos Santos wurde im September 2018 verhaftet und steht unter Verdacht, 500 Mio. US-Dollar des Staatsfonds illegal ins Ausland überwiesen zu haben. Er wurde im März 2019 aus der Untersuchungshaft entlassen und wartete seitdem zu Hause auf seinen Prozess, der am 9. Dezember 2019 in Luanda begann. Wirtschaftszweige Bergbau: Angola besitzt reiche Erdöl-Offshore-Vorkommen und Diamantminen im Nordosten des Landes sowie weitere Mineralvorkommen im Land. Die Bodenschätze machen Angola zu einem der reichsten Länder Afrikas. Angola verkauft jährlich Rohdiamanten im Wert von rund einer Milliarde Euro. Die Edelsteine sollen ab 2019 auch im Land selbst bearbeitet werden, um den Verkaufserlös zu steigern. Der Großteil der angolanischen Wirtschaft lebt jedoch vom Öl und seinen Produkten. Das Land war im Jahr 2016 mit einer Fördermenge von 87,9 Millionen Tonnen nach Nigeria Afrikas zweitgrößter Erdölproduzent und -exporteur (siehe Erdöl/Tabellen und Grafiken). Die Erlöse aus der Erdölförderung machen nach Angaben der OPEC etwa 95 % der Exporte und 45 % des Bruttoinlandsproduktes Angolas aus. Wichtigster Abnehmer von Erdöl ist die Volksrepublik China, die die Vereinigten Staaten als Haupthandelspartner abgelöst hat. Zum 1. Januar 2007 wurde Angola als 12. Mitglied der OPEC aufgenommen, nimmt an dem Quotaregime allerdings erst seit März 2007 teil. 1975 wurden zusätzlich Uranvorkommen an der Grenze zu Namibia entdeckt. Im April 2019 wurden in der Provinz Huambo Vorkommen von rund 23 Milliarden Tonnen mineralischer Rohstoffe mit wirtschaftlich interessanten Gehalten an Seltenerdmetallen entdeckt, die ab 2020 abgebaut werden sollen. Landwirtschaft: Etwa 85 % der arbeitenden Bevölkerung sind in der Landwirtschaft tätig. Das wichtigste Agrarprodukt für den Export ist Kaffee, gefolgt von Zuckerrohr. Weitere wichtige Ausfuhrgüter sind Mais und Kokosöl. Die Produktion von Kartoffeln, Reis und Kakao ist ebenfalls erwähnenswert. Die Zucht von Rindern und Ziegen ist relativ weit verbreitet. Insgesamt leidet die Landwirtschaft immer noch schwer unter den Folgen des Bürgerkrieges. Wegen der Gefahr durch übriggebliebene Landminen weigern sich viele Bauern, ihre Felder zu bewirtschaften. So reicht die agrarische Produktion nicht aus, um den eigenen Bedarf zu decken, und das Land ist auf den Import von Lebensmitteln angewiesen. Die Landwirtschaft befindet sich in einem leichten Aufschwung. Industrie: Die Industrie des Landes ist kaum entwickelt und litt unter dem Bürgerkrieg. Der tragende Industriezweig Angolas ist die Verarbeitung der landwirtschaftlichen Erzeugnisse, vorrangig Getreide, Fleisch, Baumwolle, Tabak und Zucker; zusammen mit der Raffinierung von Erdöl. Wichtige Produkte sind weiterhin Dünger, Zellulose, Klebstoffe, Glas und Stahl. Wirtschaftskennzahlen Das Bruttoinlandsprodukt und der Außenhandel Angolas sind in den letzten Jahren aufgrund steigender Einkünfte durch die Erdölausfuhr massiv gewachsen. Mit dem Sinken des Ölpreises ab 2014 kam es zu einem Einbruch. Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich folgendermaßen: Staatshaushalt Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 33,50 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 27,27 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 6,5 % des BIP. Angolas Schulden beliefen sich im Dezember 2011 auf insgesamt 31,4 Milliarden Dollar. Nahezu die Hälfte davon, ca. 17,8 Milliarden, waren nach Aussage von Finanzminister Carlos Alberto Lopes Auslandsschulden. Hauptgläubiger der angolanischen Regierung waren China mit 5,6 Milliarden, Brasilien mit 1,8 Milliarden, Portugal mit 1,4 Milliarden und Spanien mit 1,2 Milliarden. Die Inlandsschulden in Höhe von 13,6 Milliarden Dollar resultieren hauptsächlich aus Anleihen und Schatzanweisungen zur Unterstützung der laufenden staatlichen Investitions-Programme. 2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche: Gesundheit: 2,6 % Bildung: 2,4 % (2005) Militär: 5,7 % Im Oktober 2019 wurde eine Mehrwertsteuer (IVA) von 14 % eingeführt, um den Staatshaushalt unabhängiger von den Erdölexporten zu machen. Zuvor gab es nur eine Konsumsteuer (IC) von 10 %, die damit abgeschafft wurde. Die berechneten Mehreinnahmen für 2020 durch die IVA betragen 432,4 Milliarden Kwanzas, die berechneten Staatseinnahmen für 2020 ohne den Erdölsektor betragen 712,3 Milliarden Kwanzas. Der Staatshaushalt für das Jahr 2020 beträgt 15,9 Billionen Kwanzas (27 Milliarden Euro). Dabei geht die Regierung von einem mittleren Erdölpreis von 55 US-Dollar/Barrel, einer Inflationsrate von 24 % und einem realen Wirtschaftswachstum von 1,8 % aus. Die Sozialausgaben betragen 40,7 % der Gesamtausgaben. Dazu zählt auch der Umweltschutz, dessen Ausgaben im Vergleich zum Vorjahr um 180 % erhöht wurden. Auslandsinvestitionen Seit Ende des Bürgerkriegs steigen die privaten Investitionen von Angolanern im Ausland ständig an. Dies hängt damit zusammen, dass sich im Lande die Akkumulation auf eine kleine gesellschaftliche Gruppe konzentriert und dieser daran gelegen ist, ihren Besitz aus Gründen der Sicherheit und der Profitmaximierung zu streuen. Bevorzugtes Anlageziel ist Portugal, wo angolanische Anleger (einschließlich der Familie des Staatspräsidenten) in Banken und Energieunternehmen, in der Telekommunikation und in der Presse präsent sind, aber auch z. B. Weingüter und Tourismusobjekte aufkaufen. Verkehr Schienenverkehr Der Schienenverkehr in Angola ist auf die Häfen ausgerichtet. Er wird auf drei Netzen betrieben, die nicht verbunden sind. Eine weitere, nicht mit den drei Netzen verbundene Strecke wurde inzwischen eingestellt. Es finden sowohl Güter- als auch Personenverkehr statt. Die gesamte Streckenlänge beträgt 2764 Kilometer, davon 2641 Kilometer in der im südlichen Afrika üblichen Kapspur und 123 Kilometer in 600-Millimeter-Spur (Stand 2010). Alleiniger Betreiber ist die staatliche Gesellschaft Caminhos de Ferro de Angola (CFA). Fernbusverkehr Es gibt Fernverkehrsbusse der Unternehmen Macon und Grupo SGO, die Luanda mit den größten Städten des Landes verbinden. Macon bietet internationale Verbindungen nach Windhoek und Kinshasa an. Flugverkehr In Angola verfügen 10 Fluggesellschaften über die Lizenz für Inlandsflüge: Aerojet, Air Guicango, Air Jet, Air 26, Bestfly, Heliang, Heli Malongo, SJL, Sonair und TAAG. Sonair besitzt mit sechs Flugzeugen die größte Flotte für den Binnenmarkt. Die Flughäfen mit den meisten Passagieren im Jahr 2016 waren: Luanda, Cabinda, Soyo, Catumbela und Lubango. TAAG ist die internationale Fluglinie von Angola. Seeverkehr Es bestehen Katamaranverbindungen für Passagiere vom Zentrum Luandas in die Vororte Benfica, Samba, Corimba, Cacuaco und Panguila sowie eine Schnellfährverbindung für den Personen-, Fahrzeug- und Gütertransport von Luanda nach Cabinda, die vom staatlichen Instituto Marítimo e Portuário de Angola durchgeführt werden. Geplant sind weitere Schiffsverbindungen nach Lobito, Namibe und Porto Amboim. Telekommunikation In Angola gibt es 14 Millionen Benutzer von Mobiltelefonen, das entspricht 46 % der Bevölkerung. Der Markt wird unter den beiden Unternehmen Unitel (82 %) und Movicel (18 %) aufgeteilt. Über einen Internetzugang verfügen 20 % der Einwohner, auch hier sind die beiden Marktführer Unitel (87 %) und Movicel (12 %). Das Telefonfestnetz wird nur von 0,6 % der Einwohner genutzt. Dieser Markt wird von der Angola Telecom (58 %) angeführt, gefolgt von MsTelecom (21 %), TV Cabo (19 %) und Startel (2 %). Das Fernsehen wird nur von 7 % der Bevölkerung genutzt, der Marktführer ist in diesem Segment das Unternehmen ZAP (69 %), gefolgt von DStv (28 %) und TV Cabo (3 %). Am 26. Dezember 2017 wurde AngoSat-1, der erste angolanische Kommunikationssatellit, vom russischen Raketenstartplatz Baikonur in eine geostationäre Umlaufbahn gebracht. Die geplante Orbitalposition konnte jedoch nicht erreicht werden und er wurde einige Monate später aufgegeben. Am 26. September 2018 nahm das South Atlantic Cable System, ein 6165 km langes Seekabel, das Angola mit Brasilien in 63 Millisekunden verbindet, den Betrieb auf. Es ermöglicht auch die Verbindung Luanda – Miami (über Fortaleza) in 128 Millisekunden. Kultur Literatur Einige bekannte angolanische Schriftsteller sind Mário Pinto de Andrade, Luandino Vieira, Arlindo Barbeitos, Alda Lara, Agostinho Neto, Pepetela, Ondjaki und José Eduardo Agualusa. Unter dem Eintrag Arquivos dos Dembos / Ndembu Archives wurden 1160 Manuskripte aus Angola vom 17. bis frühen 20. Jahrhundert in die UNESCO-Liste des Weltdokumentenerbes aufgenommen. Musik In der Musik verfügt Angola über eine reiche Vielfalt an regionalen Stilen. Die Musik hat über die von dort deportierten Sklaven großen Einfluss auf die afroamerikanische Musik, vor allem auf die brasilianische Musik genommen. Aber auch kontemporäre angolanische Popmusik wird in den anderen portugiesischsprachigen Ländern gehört. Kizomba und Kuduro sind Musik- und Tanzstile, die sich von Angola aus in der Welt verbreitet haben. Andersherum ist im modernen Musikleben und der Jugendkultur Luandas ein zunehmender Einfluss aus den US-amerikanischen und brasilianischen Musikmärkten zu spüren. Zu den bekanntesten Pop-Musikern zählen Waldemar Bastos, Paulo Flores, Bonga, Vum Vum Kamusasadi, Maria de Lourdes Pereira dos Santos Van-Dúnem, Ana Maria Mascarenhas, Mario Gama, Pérola, Yola Semedo, Anselmo Ralph und Ariovalda Eulália Gabriel. Medien Die Nichtregierungsorganisation Reporter ohne Grenzen sieht in Angola erkennbare Probleme für die Pressefreiheit. Fernsehen Televisão Pública de Angola (angolanisch, staatlich), TV Zimbo (angolanisch, privat), AngoTV (angolanisch, privat), Rádio Televisão Portuguesa (portugiesisch, öffentlich-rechtlich), Rádio Televisão Portuguesa Internacional (portugiesisch, öffentlich-rechtlich), Televisão Comercial de Angola (angolanisch, staatlich), ZON Multimédia (privat), TV Record (brasilianisch, privat) TV Globo (brasilianisch, privat), Televisão de Moçambique (TVM) (mosambikanisch, staatlich) Radio RNA (Rádio Nacional de Angola) (staatlich), Rádio LAC (Luanda Antena Comercial), Rádio Ecclesia (katholischer Radiosender), Rádio Cinco (Sportradio), Rádio Despertar (der UNITA nahestehend), Rádio Mais (privat), TSF (portugiesisches Radio), Rádio Holanda (auf Portugiesisch) Internet Im Jahr 2020 nutzten 36 Prozent der Einwohner Angolas das Internet. Zeitungen Jornal de Angola (staatlich) Wochenzeitungen (alle privat): Semanário Angolense, O País, A Capital, Folha 8, Agora, Angolense, Actual, Independente, Cara, Novo Jornal, O Apostolado (kirchlich), Gazeta de Luanda Wirtschaftswochenzeitungen: Jornal de Economia & Finanças (staatlich), Semanário Económico (privat), Expansão (privat) Zeitschriften Rumo (Wirtschaftszeitschrift, privat) Nachrichtenagenturen Agência Angola Press (ANGOP; staatlich) Sport Fußball Am 8. Oktober 2005 gelang es der angolanischen Fußballnationalmannschaft, sich unerwartet für die WM 2006 in Deutschland zu qualifizieren. Ein knappes 1:0 beim Gruppenletzten in Ruanda reichte aus, um das Ticket zu lösen und Nigeria, das seit 1994 an jeder WM-Endrunde teilnahm, aus dem Wettbewerb zu werfen. Das angolanische Team nahm damit zum ersten Mal an einer WM-Endrunde teil, wo es nach einem 0:1 gegen Portugal, einem 0:0 gegen Mexiko und einem 1:1 gegen den Iran als Gruppendritter in der Vorrunde ausschied. Weiterhin nahm die Mannschaft an den Afrikameisterschaften (Afrika-Cup) 1996, 1998, 2006, 2008, 2010 (als Ausrichter), 2012, 2013 und 2019 teil. Basketball Die angolanische Basketballnationalmannschaft der Herren hat elf der letzten dreizehn Austragungen der Afrikameisterschaft gewonnen, womit sie die erfolgreichste Mannschaft der Wettbewerbsgeschichte ist. Daher nimmt sie regelmäßig an der Weltmeisterschaft und den Olympischen Spielen teil. Bei den Spielen 1992 war Angola der erste Gegner des US-amerikanischen Dream Teams. Die größten sportlichen Erfolge waren bislang das Überstehen der Vorrunde bei den Weltmeisterschaften 2002, 2006 und 2010. Handball Die Frauen-Handballnationalmannschaft hat bereits elfmal den Afrikameistertitel geholt und ist zudem als erste afrikanische Mannschaft bei einer WM in die Endrunde gelangt. Rollschuh-Hockey Diese Sportart wird schon seit der portugiesischen Kolonialzeit in Angola betrieben. Im März 2019 wurde in Luanda die erste Afrikanische Meisterschaft im Rollschuh-Hockey veranstaltet. Angola gewann dabei den Titel nach einem Sieg gegen Mosambik. Wellenreiten Das Surfen wird in Angola immer beliebter. Seit 2013 wird jedes Jahr im Oktober das Social Surf Weekend mit Teilnehmern aus dem In- und Ausland in Cabo Ledo mit Unterstützung des Tourismus-Ministeriums veranstaltet. Im Jahr 2018 hat es sich mit über 4000 Teilnehmern zum größten Sommer-Festival Angolas entwickelt. Im September 2016 fand die erste nationale Surf-Meisterschaft des Landes ebenfalls in Cabo Ledo statt. Sie wurde vom Angolanischen Wassersportverband organisiert. Im Juli 2018 wurde Angola Mitgliedsstaat der International Surfing Association (ISA). Literatur Patrick Alley: Angolas Reichtum ist sein Verhängnis. In: Arbeitsgemeinschaft Kirchlicher Entwicklungsdienst (Hrsg.): Der Überblick. Band 2, 1999. Leinfelden-Echterdingen, S. 37–40. Association of Episcopal Conferences of the Central African Region ACERAC: The Church and Poverty in Central Africa: The Case of Oil. Malabo 2002. Anton Bösl: Die Parlamentswahlen in Angola 2008. Ein Land auf dem Weg in die Ein-Parteien-Demokratie. KAS Auslandsinformationen 10/2008. Tom Burgis: Der Fluch des Reichtums – Warlords, Konzerne, Schmuggler und die Plünderung Afrikas, Westend, Frankfurt 2016, ISBN 978-3-86489-148-9. Jakkie Cilliers, Christian Dietrich (Hrsg.): Angola’s war economy. Pretoria 2000. Eugénio da Costa Almeida, Angola: Patência regional em emergência, Lissabon 2011. Michael Cromerford: The Peaceful Face of Angola: Biography of a Peace Process (1991 to 2002). Luanda 2005. Bettina Decke: A terra é nossa – Koloniale Gesellschaft und Befreiungsbewegung in Angola. Bonn 1981. Manuel Ennes Ferreira: A indústria em tempo de guerra: Angola 1975–1991. Lissabon 1999. Fernando Florêncio: No Reino da Toupeira. In ders.(Hrsg.): Vozes do Universo Rural: Reescrevendo o Estado em África. Lissabon. Global Witness: A Crude Awakening: The Role of the Oil and Banking Industries in Angola’s Civil War and the Plunder of State Assets. London 1999. Global Witness: A rough trade: The Role of Companies and Governments in the Angolan Conflict. London 1998. Global Witness: Conflict Diamonds: Possibilities for the Identification, Certification and Control of Diamonds. London 2000. Global Witness: Os Homens dos Presidentes. London 2002. Jonuel Gonçalves: A economia ao longo da história de Angola. Luanda 2011. Rainer Grajek: Religion in Angola, In: Markus Porsche-Ludwig und Jürgen Bellers (Hrsg.): Handbuch der Religionen der Welt, Bautz Verlag 2012 Rainer Grajek: Angola, In: Markus Porsche-Ludwig, Wolfgang Gieler, Jürgen Bellers (Hrsg.): Handbuch Sozialpolitiken der Welt, LIT Verlag 2013, S. 82–87. Fernando Andresen Guimarães: The Origins of the Angolan Civil War: Foreign Intervention and Domestic Political Conflict. Houndsmills, New York 1998. Franz-Wilhelm Heimer: Der Entkolonisierungskonflikt in Angola. München 1980. Franz-Wilhelm Heimer: Social Change in Angola. München 1973. Tony Hodges: Angola from Afro-Stalinism to Petro-Diamond Capitalism. Bloomington, Indianapolis 2001. Tony Hodges: The Anatomy of an Oil State. Bloomington, Indianapolis 2004. Human Rights Watch: The Oil Diagnostic in Angola: An Update Complete Report. New York 2001. International Monetary Fund: IMF Staff Country Report No. 99/25: Angola: Statistical Annex. Washington, D.C. 1999. International Monetary Fund: Mission Concluding Statements: Angola-2002 Article IV Consultation, Preliminary Conclusions of the IMF mission. Washington, D.C. 2002. Manfred Kuder, Wilhelm Möhlig (Hrsg.): Angola. München 1994. Manfred Kuder: Erdöl und Diamanten: Angolas umkämpfte Exportgüter. In: Geographische Rundschau. Jg. 55, Heft 7/8. Braunschweig 2003. S. 36–38. Brank Lazitch: Angola 1974–1988: Eine Niederlage des Kommunismus. Meyers Verlagsgesellschaft, Stuttgart 1989. Yves Loiseau, Pierre-Guillaume Roux: Jonas Savimbi. Köln 1989. Lukonde Luansi: Angola – Das Scheitern des Transitionsprozesses. In: Wolf-Christian Paes, Heiko Krause (Hrsg.): Zwischen Aufbruch und Zusammenbruch – Demokratisierung im Südlichen Afrika. Bonn 2001. S. 153–179. Jean-Michel Mabeko-Tali: Barbares et citoyens: L’identité nationale à l’épreuve des transitions africaines: Congo-Brazzaville, Angola. L’Harmattan, Paris 2005. Assis Malaquias: Rebels and Robbers: Violence in Post-Colonial Angola. Nordiska Afrikainstitutet, Uppsala 2007. Daniel Matcalfe: Blaue Dahlie, schwarzes Gold. Eine Reise durch Angola, Ostfildern, DuMont Reiseverlag, 2015, ISBN 978-3-7701-8274-9. Médecins sans frontières: Angola uma população sacrificada. Brüssel 2002. Christine Messiant: L’Angola post-colonial: Guerre et paix sans démocratisation. Karthala, Paris 2008. Christine Messiant: L’Angola post-colonial: Sociologie politique d’une oléocratie. Karthala Paris 2009. Michel Offermann: Angola zwischen den Fronten. Centaurus, Pfaffenweiler 1988. Ricardo Soares de Oliveira: Magnificant and Beggar Land: Angola since the Civil War, Hurst, 2015. Wolf-Christian Paes: Reiches Land, Armes Land: Ölproduktion und der Krieg in Angola. In: Illoyal – Journal für Antimilitarismus. Nr. 12. Berlin 2000. S. 8. Alfredo Pinto Escoval: Angola. In: Wolfgang Gieler (Hrsg.): Handbuch der Außenwirtschaftspolitiken. Bonn 2004. Alfredo Pinto Escoval: Staatszerfall im südlichen Afrika: Das Beispiel Angola. Berlin 2004. Hermann Pössinger: Landwirtschaftliche Entwicklung in Angola und Moçambique. Weltforum Verlag, München 1968. Manuel Alves da Rocha: Economia e Sociedade em Angola. 2. Ausgabe. Nzila, Luanda 2009, ISBN 972-33-0759-6. Martin Schümer: Angola-Konflikt. In: Dieter Nohlen (Hrsg.): Internationale Beziehungen, Pipers Wörterbuch zur Politik. Band 5. München 1984. S. 44–46. Keith Somerville: Angola: Politics, Economics and Society. London 1986. Rui de Azevedo Teixeira, A Guerra de Angola 1961–1974, Matosinhos: QuidNovi, 2010, ISBN 978-989-628-189-2. Inge Tvedten: La scène angolaise. Limites et potentiel des ONG. In: Lusotopie 2002/1. Paris 2002, S. 171–188. Final Report of the UN Panel of Experts on violations of Security Council sanctions against Unita. In: UN Security Council document S/2000/203. New York 2000. UNITA-Renovada holds party congress. In: UN: The Angolan Mission Observer. Februar 1999. New York 1999. UNDP: A Descentralização de Angola. Luanda 2002. UNHCHR (Hrsg.): Report on the question of the use of mercenaries as a means of violating human rights and impending the exercise of the right of peoples to self-determination, submitted by Mr. Enrique Ballesteros (Peru), Special Rapporteur pursuant to Commission resolution 1998/6. Genf 1995. UNICEF (Hrsg.): Angola – Multiple Indicator Cluster Survey 1996. Luanda 1998. François Xavier Verschave: Dunkelmänner, schwarz und weiß. In: Der Überblick. Jg. 31 Heft 2/95. Leinfelden-Echterdingen 1995, S. 74–77. Nuno Vidal, Justino Pinto de Andrade (Hrsg.): O processo de transição para o multipartidarismo em Angola, 3. Ausd, Luanda 2008, ISBN 972-99270-4-9. Nuno Vidal, Justino Pinto de Andrade (Hrsg.): Sociedade civil e política em Angola: Enquadramento regional e internacional, Luanda 2008, ISBN 978-972-99270-7-2. Alex Vines: Planmäßige Verwüstung Angolas. In: Der Überblick. Jg. 30 Heft 4/94. Leinfelden-Echterdingen 1994, S. 99–101. Wilhelm Wess: Vor Zehn Jahren verließen die Kubaner Angola. In: Deutsche Gesellschaft für die afrikanischen Staaten portugiesischer Sprache (Hrsg.): DASP-Heft Angola. DASP-Reihe Nr. 96. Bonn 2001, S. 6. Elmar Windeler: Angolas blutiger Weg in die Moderne: Portugiesischer Ultrakolonialismus und angolanischer Dekolonisationsprozess. trafo Verlag, Berlin 2008, ISBN 978-3-89626-761-0. Robert Zischg: Die Politik der Sowjetunion gegenüber Angola und Mozambique, Baden-Baden: Nomos, 1990, ISBN 978-3-7890-2019-3. Weblinks Landesprofil bei Ministerien deutschsprachiger Staaten Auswärtiges Amt (D): Angola. auf www.auswaertiges-amt.de. Bundesministerium für europäische und internationale Angelegenheiten (A): Länderspezifische Reiseinformation: Angola (Republik Angola). auf www.bmeia.gv.at. Eidgenössisches Departement für auswärtige Angelegenheiten (CH): Südliches Afrika. auf www.eda.admin.ch. Internationale Links United Nations: United Nations Statistics Division. Angola. auf www.data.un.org (englisch). The World Bank: Countries. Angola. auf www.worldbank.org (englisch). US-Government: CIA World Fact Book. Angola. auf www.cia.gov (englisch). Electoral Institute for Sustainable Democracy in Africa: African Democracy Encyclopaedia Project: Angola. auf www.eisa.org (englisch). WHO: Angola. auf www.afro.who.int (portugiesisch). Welternährungsprogramm der Vereinten Nationen: Angola. auf www.wfp.org (englisch). UNHCR: Angola. auf www.unhcr.org (englisch). Minority Rights Group International: Angola. auf www.minorityrights.org (englisch). UNCTAD: Catalogue of Diversification Opportunities 2022. Angola. auf www.unctad.org (PDF, englisch). Weitere Links Angola country profile auf BBC News (englisch) NationMaster – Angola (englisch) Markus Weimer: The Peace Dividend: Analysis of a Decade of Angolan Indicators, 2002–12. Africa Programme Paper AFP PP 2012/03. In: chathamhouse.org. März 2012 (PDF; 523 KB, englisch). Anmerkungen Einzelnachweise Least Developed Country Staat in Afrika Präsidialrepublik (Staat) Mitgliedstaat der Vereinten Nationen Mitgliedstaat der Gemeinschaft der Portugiesischsprachigen Länder Ehemaliges Hoheitsgebiet ohne Selbstregierung Verwaltungseinheit als Namensgeber für einen Asteroiden Mitgliedstaat der Entwicklungsgemeinschaft des südlichen Afrika
427
https://de.wikipedia.org/wiki/Asta%20Nielsen
Asta Nielsen
Asta Nielsen (* 11. September 1881 in Kopenhagen; † 25. Mai 1972 in Frederiksberg; vollständiger Name Asta Sofie Amalie Nielsen) war eine dänische Schauspielerin. Sie war der erste weibliche Stummfilmstar. Leben und Werk Asta Nielsen wuchs in Schweden und Dänemark auf. Ihr Vater, Jens Christian Nielsen, war ein oft arbeitsloser Schmied, der starb, als Asta 14 Jahre alt war, und die Mutter, Ida Frederikke Petersen, war Wäscherin. Bereits als Kind kam sie mit dem Theater in Berührung. Im Jahr 1895 lernte sie den dänischen Schauspieler und Autor Peter Jerndorff (1842–1926) kennen, er gab ihr privat Schauspielunterricht. Ihre uneheliche Tochter Jesta wurde 1901 geboren. Ab 1902 war sie in Kopenhagen fest angestellt. Ihr erster Film, Afgrunden (1910, dt. Abgründe), brachte ihr und dem Regisseur Urban Gad gleich einen Vertrag zur Produktion von mehreren Filmen in Deutschland, der aufgrund ihres Erfolgs bis 1915 verlängert wurde. Sie drehte anfangs ausschließlich unter der Regie von Urban Gad, den sie 1912 heiratete. 1915 endete die berufliche Zusammenarbeit, 1918 erfolgte die Scheidung. Der außergewöhnliche Erfolg Asta Nielsens beim Publikum ermöglichte es ihren Produzenten, ab 1911 abendfüllende Filmserien für die internationalen Märkte herzustellen und mit exklusiven Aufführungsrechten zu vermarkten. Dies stellte insbesondere in Anbetracht der in den Kinos noch vorherrschenden Kurzfilmprogramme und der dadurch bestimmten Sehgewohnheiten ein Wagnis dar und zielte darauf ab, auch das anspruchsvollere Theaterpublikum ins Kino zu locken. Meist stellte Nielsen konfliktbeladene Frauen dar, deren Verhalten nicht den gesellschaftlichen Konventionen entsprach, so in Der fremde Vogel (1911) und Die arme Jenny (1912). Nielsen hatte aber auch Talent für komische Rollen und war beim Publikum damit vor allem in Engelein (1914) so erfolgreich, dass eine Fortsetzung gedreht wurde. 1916 ging sie wieder nach Dänemark und kehrte erst nach Ende des Ersten Weltkrieges nach Deutschland zurück, wo sie fortan vorwiegend in Literaturverfilmungen und Dramen auftrat. Zwischen 1920 und 1922 produzierte sie drei Filme selbst. Darunter eine Verfilmung von Shakespeares Hamlet, in der sie den Dänenprinzen spielt. Nach der im Film vertretenen Theorie war Hamlet eine als männlicher Thronfolger erzogene Prinzessin, was seine/ihre abweisende Haltung gegenüber Ophelia erklären soll. Herausragend ist ihre Darstellung von Frauen am untersten Rand der Gesellschaft in Die freudlose Gasse (1925, als Maria Lechner, genannt Mizzi, an der Seite von Greta Garbo als Grete Rumfort) von Georg Wilhelm Pabst und in Dirnentragödie (1927, als Auguste mit Werner Pittschau in der Rolle des Studenten Felix) von Bruno Rahn. Asta Nielsen war der große Star des Stummfilms, im Prinzip sogar der erste weibliche Filmstar überhaupt in der Geschichte des Kinos, in der sie als eines ihrer ersten Sexsymbole gelten kann. Nielsen ließ sich auf kein Rollenfach festlegen: Sie spielte sowohl gebrochene, leidende Frauen als auch Tänzerinnen, einfache Arbeiterinnen und eine reiche Unternehmerin. Ihre Körpersprache war immer dezent, zugleich aber ausdrucksstark. Nahezu alle Frauenrollen, die sie spielte, scherten aus dem üblichen weiblichen Verhaltensmustern ihrer Zeit aus. Ihre Filmkarriere endete mit dem Aufkommen des Tonfilms – sie trat nur in einem einzigen, Unmögliche Liebe, auf. Zwar hatte sie eine angenehme Stimme, doch ging ihr gekonntes Mienenspiel in diesem neuen Medium verloren. Filmangebote lehnte sie von da an ab und widmete sich dem Theater. 1946 veröffentlichte sie ihre Autobiographie, Die schweigende Muse. Der Antiquar Frede Schmidt nahm von 1956 bis 1959 in Kopenhagen heimlich seine fast täglichen Telefonate mit Asta Nielsen auf, die 2016 publik gemacht wurden. 1963 wurde sie mit dem Filmband in Gold für ihr langjähriges und hervorragendes Wirken im deutschen Film ausgezeichnet. 1968 erschien ein von ihr produzierter, autobiografischer Dokumentarfilm. Familie Asta Nielsen war mindestens dreimal verheiratet. Alle Ehen blieben kinderlos. Ihre Tochter Jesta (1901–1964), die mit dem dänischen Maler, Graphiker und Sänger Paul Vermehren (1904–1964) verheiratet war, stammte aus einer unehelichen Beziehung. Den Vater hielt die Schauspielerin zeit ihres Lebens geheim. Eine angeblich 1911 geschlossene Ehe mit dem Kaufmann Alfred Schendel von Pelkowski (* 1878) lässt sich nicht verifizieren. 1912 heiratete sie den dänischen Regisseur Urban Gad (1879–1947). Die Ehe wurde am 16. Dezember 1918 geschieden, nachdem sich das Paar bereits 1915 getrennt hatte. Ein Jahr später ehelichte sie den schwedischen Produzenten Freddy Wingaardh. 1923 erfolgte die Scheidung. Über eine angebliche Heirat mit dem Regisseur Sven Gade konnte bislang kein Nachweis erbracht werden. Mit dem Schauspieler Grigori Chmara war sie von 1921 bis 1933 liiert, ohne ihn zu heiraten. Ihre letzte Ehe, die bis zu ihrem Tod bestand, ging sie am 12. Januar 1970 mit Christian Theede (1899–1988) ein, einem Gärtnereibetreiber, Kunsthändler sowie Galeristen auf der Insel Møn. Trivia Beim Versuch, eine Straßenbahn durch die vordere Tür, die nur von aussteigenden Fahrgästen genutzt werden durfte, zu besteigen, kam Nielsen im Februar 1951 in Innsbruck zu Fall, nachdem sie vom Lenker der Straßenbahn gestoßen worden war. Sie kam daraufhin mit leichten Verletzungen ins Krankenhaus. Später gab sie an, den Lenker, der sie auf die Gefahr der sich automatisch schließenden Türen aufmerksam machen wollte, aufgrund einer Schwerhörigkeit nicht gehört zu haben. Asta Nielsen starb 1972 und wurde auf dem Vestre Kirkegård (Westfriedhof) in Kopenhagen in einem anonymen Gemeinschaftsgrab beigesetzt. Im September 2010 wurde sie mit einem Stern auf dem Boulevard der Stars in Berlin geehrt. Asta Nielsen besaß ab 1929 auf der deutschen Ostseeinsel Hiddensee ein Haus, das sie „Karusel“ nannte (dänische Bezeichnung für Karussell). Der Name leitet sich von zwei deutlich abgerundeten Ecken des quadratischen Grundrisses des Gebäudes ab. Sie verbrachte dort mit ihrer Tochter und ihrem Mann oft mehrere Monate im Sommer. Zu den Freunden und Bekannten, die sie dort besuchten, zählten Joachim Ringelnatz, Heinrich George und Gerhart Hauptmann. Nach 1935 oder 1936 nutzte sie das Haus nicht mehr. Das Haus war 1923 von dem Architekten Max Taut erbaut worden und 1975 unter Denkmalschutz gestellt. Nielsens Erben verkauften es 1989 an die Gemeinde. 2015 wurde es als „Asta-Nielsen-Haus“ eröffnet und enthält eine Ausstellung zu Asta Nielsen. Filme Stummfilme Theater (Auswahl) 1905: Alexander der Große, Christiana 1908: Die schöne Marseillerin, Neues Theater Kopenhagen 1925: Die Kameliendame, Schauspielhaus Leipzig 1926: Rita Cavallini, Friedrichtheater Dessau 1927: Gewitter nach Alexander Ostrowski 1933: Gentlemen, Theater am Kurfürstendamm Berlin 1933: Angst 1934: Mrs. Dot 1934: La Femme X nach Alexandre Bisson 1939: Tony zeichnet ein Pferd, Folketeatret Kopenhagen Kinothek Asta Nielsen 2000 gründete sich in Frankfurt am Main durch eine Initiative von Filmemacherinnen, Kuratorinnen, Kritikerinnen, Studierenden, Historikerinnen und Filmliebhaberinnen die Kinothek Asta Nielsen. Die Kinothek ist ein Verein, der es sich zur Aufgabe gemacht hat, die Filmarbeit von Frauen zu dokumentieren und wieder in die Kinos zu bringen und schließt mit ihrer Arbeit an die feministische Filmarbeit der 1970er und 1980er Jahre an. Von 2006 bis 2018 war die Filmwissenschaftlerin und -kuratorin Karola Gramann die künstlerische Leitung der Kinothek Asta Nielsen. Ab 2018 leitete sie die Kinothek zusammen mit der Film- und Kulturwissenschaftlerin Gaby Babić. Seit 2020 ist Babić alleinige Geschäftsführerin und künstlerische Leiterin. Die Kinothek widmete ihrer Namensgeberin mehrere Retrospektiven. Bibliografie Die schweigende Muse. (Dän. Orig.: Den tiende muse ) Hinstorff Verlag, Rostock 1961 Neuausgaben: Die schweigende Muse – Lebenserinnerungen. Carl Hanser, München 1977. ISBN 3-446-12420-9; Heyne, München 1979. ISBN 978-3-453-01019-2. Ein Tag im Paradies – mit einer vollständigen Filmographie. Hrsg., übers. und Nachw. von Allan O. Hagedorff. Ullstein, Frankfurt a. M u. Berlin 1996. ISBN 978-3-548-30400-7. Im Paradies. Erzählungen. Reihe Illustrierte Lieblingsbücher von Kat Menschik, Band 15, Galiani Berlin, Köln 2023, ISBN 978-3-86971-280-2. Literatur (alphabetisch sortiert) Barbara Beuys: Asta Nielsen : Filmgenie und Neue Frau. Insel Verlag, Berlin 2020, ISBN 978-3-458-17841-5 Karola Gramann und Heide Schlüpmann (Hrsg.): Nachtfalter. Asta Nielsen, ihre Filme. 2. Auflage, Wien 2010 Andreas Hansert: Asta Nielsen und die Filmstadt Babelsberg. Das Engagement Carl Schleussners in der deutschen Filmindustrie. Michael Imhof, Petersberg 2007, ISBN 978-3-86568-232-1. Günter Helmes: „Senkt die Fahnen vor ihr, denn sie ist unvergleichlich und unerreicht.“ Annäherungen an Asta Nielsen, den ersten ‚Star‘ der Filmgeschichte. In: Jahrbuch zur Kultur und Literatur der Weimarer Republik, Bd. 17, 2015/16, S. 47–73. Hans Schifferle: Magie des Körpers. „Totentanz“ mit Asta Nielsen (1912). In: Peter Buchka (Hrsg.): Deutsche Augenblicke. Eine Bilderfolge zu einer Typologie des Films (= „Off“-Texte. Bd. 1). Belleville, München 1996, ISBN 3-923646-49-6, S. 10 f. (zuerst: Süddeutsche Zeitung 1995). Heide Schlüpmann et al. (Hrsg.): Unmögliche Liebe. Asta Nielsen, ihr Kino. 2. Auflage, Wien 2010 Renate Seydel, Allan Hagedorff (Hrsg.): Asta Nielsen. Eine Biographie. Ihr Leben in Fotodokumenten, Selbstzeugnissen und zeitgenössischen Betrachtungen. Gestaltet von Bernd Meier und mit einem Vorwort versehen von Svend Kragh-Jacobsen. 1. Auflage. Henschelverlag Kunst und Gesellschaft, Berlin (DDR) 1981. 263 S., mit s/w Abb. (LSV-Nr. 8414, 625284 4) (2. Auflage. ebenda 1984). Renate Seydel (Hrsg.): Asta Nielsen. 1881–1972. Ein Leben zwischen Kopenhagen – Berlin und Hiddensee. Demmler Verlag, Ribnitz-Damgarten 2011, ISBN 978-3-910150-86-7. Dokumentarfilm Asta und „Charlotte“ – Ein Filmstar im Ruhrgebiet, WDR Köln 1990, Buch und Regie: Paul Hofmann und Heinz Trenczak Weblinks Der Stern des Stummfilms - Asta Nielsen private Website auf film-zeit.de „Importing Asta Nielsen“. Datenbank – Sammlung von Artikeln und Werbeanzeigen aus Branchenblättern und Lokalzeitungen weltweit Einzelnachweise Stummfilmschauspieler Filmschauspieler Träger des Deutschen Filmpreises Darstellender Künstler (Deutschland) Autobiografie Däne Geboren 1881 Gestorben 1972 Frau
428
https://de.wikipedia.org/wiki/Autismus
Autismus
Autismus (von „selbst“) gilt als eine Störung der Gehirnentwicklung beim Menschen. Er wird in der Regel in der frühen Kindheit sichtbar und zeigt sich typischerweise in folgenden drei Bereichen und Verhaltensweisen: Probleme beim wechselseitigen sozialen Umgang und Austausch (etwa beim Verständnis und Aufbau von Beziehungen). Auffälligkeiten bei der sprachlichen und nonverbalen Kommunikation (etwa bei Blickkontakt und Körpersprache). eingeschränkte Interessen mit sich wiederholenden, stereotyp ablaufenden Verhaltensweisen. Betroffene Menschen werden als Autisten oder als autistisch bezeichnet. Aufgrund ihrer Einschränkungen benötigen viele davon – manchmal lebenslang – Hilfe und Unterstützung. Autismus geht oft mit Beeinträchtigungen der Sprachentwicklung und Störungen der Intelligenzentwicklung einher. Trotz umfangreicher Forschungsanstrengungen gibt es derzeit keine allgemein anerkannte Erklärung der Ursachen autistischer Störungen. Im deutschsprachigen Bereich wird im derzeit gültigen Klassifikationssystem ICD-10-GM zwischen drei verschiedenen Ausprägungen unterschieden, die als tiefgreifende Entwicklungsstörungen eingeordnet sind: frühkindlicher, atypischer Autismus und Asperger-Syndrom. Das 2013 veröffentlichte DSM-5 und die seit 2022 international gültige ICD-11 hingegen definieren nur noch eine allgemeine, übergreifende Autismus-Spektrum-Störung. Grund für diese Änderung war die zunehmende Erkenntnis der Wissenschaft, dass eine klare Abgrenzung der zuvor bei der Diagnostik unterschiedenen Subtypen nicht möglich ist – und man stattdessen von einem fließenden Übergang zwischen verschiedenen individuellen Ausprägungen des Autismus ausgehen sollte. Der Übergang von der ICD-10 zur ICD-11 wird ab 2022 einige Jahre in Anspruch nehmen. Geschichte Zum Begriff Der Schweizer Psychiater Eugen Bleuler prägte den Begriff Autismus um 1911 im Rahmen seiner Forschungen zur Schizophrenie. Er bezog ihn ursprünglich zunächst nur auf diese Erkrankung und wollte damit eines ihrer Grundsymptome beschreiben – die Zurückgezogenheit in eine innere Gedankenwelt. Bleuler verstand unter Autismus „die Loslösung von der Wirklichkeit zusammen mit dem relativen oder absoluten Überwiegen des Binnenlebens.“ Sigmund Freud übernahm die Begriffe „Autismus“ und „autistisch“ von Bleuler und setzte sie annähernd mit „Narzissmus“ bzw. „narzisstisch“ gleich  – als Gegensatz zu „sozial“. Die Begriffsbedeutung wandelte sich mit der Zeit von „dem Leben in einer eigenen Gedanken- und Vorstellungswelt“ hin zu „Selbstbezogenheit“ in einem allgemeinen Sinne. Diagnose-Entstehung Hans Asperger und Leo Kanner nahmen den Autismus-Begriff unabhängig voneinander auf. Sie sahen in ihm aber nicht mehr nur ein einzelnes Symptom wie Bleuler, sondern versuchten, damit gleich ein ganzes Syndrom eigener Art zu erfassen. Sie unterschieden dabei Menschen mit Schizophrenie, die sich aktiv in ihr Inneres zurückziehen, von jenen, die von Geburt an in einem Zustand der inneren Zurückgezogenheit leben. Letzteres definierte nunmehr den „Autismus“. Kanner prägte den Begriff des „frühkindlichen Autismus“ (early infantile autism), der daher auch als Kanner-Syndrom bezeichnet wird. Seine Sichtweise erreichte internationale Anerkennung und wurde zur Grundlage der weiteren Forschung und der Anerkennung von Autismus als eigenständiges Störungsbild. Die Veröffentlichungen Aspergers zur „Autistischen Psychopathie“ hingegen wurden zunächst international kaum wahrgenommen. Dies lag zum einen an der zeitlichen Überlagerung mit dem Zweiten Weltkrieg und zum anderen daran, dass Asperger auf Deutsch publizierte und seine Texte lange nicht ins Englische übersetzt wurden. Die englische Psychiaterin Lorna Wing (siehe historische Literatur) führte seine Arbeit in den 1980er-Jahren fort und verwendete erstmals die Bezeichnung Asperger-Syndrom. Symptome Die zentralen Merkmale von Autismus sind eine dauerhafte Beeinträchtigung der wechselseitigen sozialen Kommunikation und Interaktion sowie beschränkte, repetitive Verhaltensweisen, Interessen oder Aktivitäten, die für die Umwelt ungewöhnlich oder dem Alter nicht angemessen erscheinen. Diese Symptome treten in der frühen Kindheit auf, typischerweise zwischen 12 und 24 Monaten, fallen jedoch in vielen Fällen erst dann auf, wenn sie zu Schwierigkeiten oder Beeinträchtigungen führen. Autismus tritt in vielfältigen, individuellen Ausprägungen auf. Die einzelnen Aspekte der Symptomatik und die aus ihnen resultierenden Beeinträchtigungen können unterschiedlich stark ausgeprägt sein und sind beispielsweise auch abhängig von Sprachfähigkeit und Intelligenz, durch die Defizite verdeckt oder ausgeglichen werden können. Zudem variiert das Erscheinungsbild mit Alter und Entwicklungsstand, auch Unterschiede in Bezug auf das Geschlecht werden vermutet. Autismus kann mit einem völligen Fehlen von Lautsprache, einer verzögerten Sprachentwicklung, Schwierigkeiten beim Sprachverständnis oder einer auffälligen Sprechweise und Verwendung von Sprache einhergehen. Da Spracherwerb eng mit sozialer Interaktion verknüpft ist, verläuft er bei autistischen Kindern häufig von Beginn an auffällig. Über zwei Drittel von ihnen entwickeln jedoch im Laufe des Lebens zumindest grundlegende Lautsprache. In 25 % bis 42 % der Fälle geht Autismus mit einer geistigen Behinderung einher, welche in der Regel über einen unter 70 Punkte liegenden Intelligenzquotienten definiert wird. Die Diagnose kann durch die für Autismus charakteristischen Symptome erschwert werden. So konnte in einer Studie gezeigt werden, dass autistische Kinder bei dem stark auf verbalen Elementen basierenden Wechsler-IQ-Test im Schnitt 30 Prozentpunkte schlechter abschneiden als beim Ravens-Matrizentest, der keine solchen enthält. Autismus kann auch zusammen mit einer Hochbegabung auftreten. Auffälligkeiten in der wechselseitigen sozialen Kommunikation und Interaktion Die Fähigkeit, mit anderen Personen in Interaktion zu treten oder Gedanken und Gefühle mitzuteilen, ist bei Autismus beeinträchtigt. Bei kleinen Kindern zeigt sich dies beispielsweise dadurch, dass sie keine oder kaum soziale Interaktion initiieren oder das Verhalten anderer Personen imitieren. Vorhandene Lautsprache wird oft einseitig eingesetzt und nicht zum gegenseitigen Austausch. Im Bereich der nonverbalen Kommunikation fallen autistische Kinder oft schon früh dadurch auf, dass sie nicht auf Gegenstände zeigen oder diese anderen Personen bringen, um ihr Interesse an ihnen zu signalisieren und zu teilen. Umgekehrt kann auffällig sein, dass autistische Kleinkinder Zeigegesten oder Blicken anderer Personen nicht folgen. Allgemein sind fehlender oder ungewöhnlicher Einsatz von Blickkontakt, Gesten, Mimik, Körpersprache oder Intonation typisch für Autismus. Auch wenn beispielsweise einige Gesten erlernt wurden, bleibt das Repertoire hinter einem alterstypischen Umfang zurück und sie werden nicht spontan zur Kommunikation eingesetzt. Bei voll ausgebildeter Lautsprache ist oft eine fehlende Koordination zwischen verbalen und nonverbalen Elementen zu beobachten. So kann beispielsweise die Körpersprache auf andere Personen hölzern oder übertrieben wirken. Im Bereich der sozialen Interaktion kann fehlendes, reduziertes oder ungewöhnliches Interesse an sozialen Kontakten bestehen. Dies kann etwa durch Ablehnung anderer, passives Verhalten in sozialen Situationen oder durch unangemessene, aggressiv oder unhöflich wirkende Kontaktaufnahme sichtbar werden. Diese Schwierigkeiten sind besonders bei autistischen Kindern auffällig, welche häufig kein alterstypisches Interesse an gemeinsamen Spielen oder Fantasie- und Rollenspielen zeigen oder auf Spielen nach strikten Regeln bestehen. Ältere Kinder, Jugendliche und Erwachsene können Schwierigkeiten haben, das für eine soziale Situation kulturell angemessene Verhalten zu identifizieren oder zwischen unterschiedlicher Verwendung von Sprache zu unterscheiden, also etwa Ironie oder soziale Lügen zu erkennen. Eine Präferenz für alleine verfolgte Beschäftigungen oder die Interaktion mit deutlich jüngeren oder älteren Personen ist typisch. Häufig besteht ein Interesse an Freundschaften, ohne genau zu verstehen, was eine solche beinhaltet, also beispielsweise nicht allein auf einem geteilten Spezialinteresse aufbauen kann. Ältere autistische Kinder und Erwachsene ohne kognitive Einschränkungen und verzögerte Sprachentwicklung haben oft Schwierigkeiten, sich in komplexen Situationen sozial angemessen zu verhalten oder auf nonverbale Kommunikation zu reagieren. Sie entwickeln häufig Kompensationsstrategien, so dass diese Schwierigkeiten vor allem in ungewohnten Situationen auffallen. Von dieser Gruppe wird soziale Interaktion oft als sehr anstrengend empfunden, da sie im Gegensatz zu nicht-autistischen Menschen, denen dies intuitiv gelingt, bewusst das Verhalten anderer beobachten und die eigene Reaktion steuern müssen. Mädchen und Frauen gelingt dieses sogenannte Camouflaging häufig besser. Beschränkte, repetitive Verhaltensweisen, Interessen und Aktivitäten Typisch für Autismus sind repetitive Bewegungen wie Schaukeln mit dem Oberkörper, Flattern mit den Händen oder Fingerschnipsen, die fachsprachlich als Stereotypien bezeichnet werden. Auch die auf Wiederholung ausgerichtete Verwendung von Gegenständen, bei Kindern etwa das Aufreihen von Spielzeug oder die Beschäftigung mit kreiselnden Münzen, sind häufig zu beobachten. Im Bereich der Sprache sind Echolalie (das Wiederholen von Worten und Lauten) oder stereotype Verwendung von Worten, Phrasen und Prosodie typisch. Bei autistischen Kleinkindern lässt sich häufig eine ungewöhnlich intensive, wiederholte Beschäftigung mit einzelnen Gegenständen beobachten. Viele autistische Menschen ohne kognitive oder sprachliche Einschränkungen lernen, dieses übergreifend als Stimming bezeichnete Verhalten in der Öffentlichkeit zu unterdrücken (Masking). Stimming wird von dieser Gruppe als angenehm und beruhigend beschrieben und kann zur Emotionsregulation und dem Abbau von Ängsten dienen. Repetitive Verhaltensweisen können mit einer erhöhten oder reduzierten Empfindlichkeit für Reize in Verbindung stehen. Dies kann sich beispielsweise in Form von außergewöhnlich starken Reaktionen auf bestimmte Geräusche oder Texturen, dem Riechen und Berühren von Gegenständen oder einer Faszination für Lichter oder rotierende Objekte äußern. Auch eine Unempfindlichkeit für Schmerz, Hitze oder Kälte wird manchmal beobachtet. Typisch sind starke Reaktionen auf den Geschmack, Geruch, Textur oder Erscheinung von Essen oder ritualisiertes Verhalten in Bezug auf diese Reize. Eine stark begrenzte Diät ist ebenfalls häufig anzutreffen, bis hin zu einer vermeidend-restriktiven Ernährungsstörung. Weiterhin typisch für Autismus ist ein starkes Festhalten an Routinen, das sich durch Bestehen auf strikte Befolgung von Regeln, starr wirkendes Denken oder Stress auch bei kleinen Abweichungen (wie einem veränderten Weg zur Schule oder Arbeit) äußern kann. Dieses Verhalten wird oft als „Widerstand gegen Veränderungen“ oder „Beharren auf Gleichartigkeit“ beschrieben. Viele autistische Kinder, Jugendliche und Erwachsene widmen sich mit großer Intensität Spezialinteressen, die von Außenstehenden häufig als ungewöhnlich oder nicht altersgemäß wahrgenommen werden. Die Beschäftigung mit diesen Interessen ist in der Regel mit Freude verbunden. Ihr Verfolgen bietet Möglichkeiten, Fähigkeiten zu entwickeln und sie können schulische und berufliche Möglichkeiten eröffnen. Besonders bei Mädchen und Frauen können diese Interessen in ihrer Art auch als alterstypisch wahrgenommen werden (etwa Beschäftigung mit einer prominenten Person oder einer bestimmten Tierart), werden jedoch außergewöhnlich intensiv verfolgt. Autismus-Spektrum Im deutschsprachigen Raum wird, der 10. Revision der Internationalen Klassifikation der Krankheiten der Weltgesundheitsorganisation (ICD-10, 1994) folgend, zwischen drei Ausprägungen des Autismus unterschieden: Frühkindlicher Autismus: Auffälligste Merkmale – neben den Verhaltensabweichungen – sind: eine stark eingeschränkte Sprachentwicklung; motorische Beeinträchtigungen nur bei weiteren Behinderungen. In etwa 75 % der Fälle liegt eine geistige Behinderung vor. Bisweilen wird weiter unterschieden zwischen „niedrigfunktionalem“ und „hochfunktionalem Autismus“. Hierbei handelt es sich nicht um diagnostische Kategorien, sondern um eine Unterteilung in Hinblick auf die kognitive Leistungsfähigkeit. Teilweise wird auch das nachfolgend aufgeführte Asperger-Syndrom zum hochfunktionalen Autismus gerechnet. Atypischer Autismus: Nicht alle Diagnosekriterien des frühkindlichen Autismus hinsichtlich der Symptomatik sind erfüllt oder zeigen sich erst nach dem dritten Lebensjahr. Er tritt in der Regel bei Kindern mit erheblichen kognitiven Einschränkungen auf, bei denen sich die Autismus-spezifischen Auffälligkeiten dadurch nicht zeigen, oder bei Kindern mit einer Störung der Sprachverarbeitung. Asperger-Syndrom: Unterscheidet sich vom frühkindlichen und atypischen Autismus durch eine fehlende Verzögerung der Sprachentwicklung und kognitiven Entwicklung. Menschen mit Asperger-Syndrom haben zumeist eine normale Intelligenz, sind jedoch häufig auffällig motorisch ungeschickt. In der seit Januar 2022 international gültigen ICD-11 sind alle Ausprägungen des Autismus zu einer einzelnen Diagnose Autismus-Spektrum-Störung (ASS; englisch autism spectrum disorder, kurz ASD) zusammengefasst. Damit folgt die ICD der 2013 veröffentlichten 5. Ausgabe des Diagnostic and Statistical Manual of Mental Disorders, dem Klassifikationssystem der American Psychiatric Association, das auch international und in der Forschung Verwendung findet. Grund für diesen Schritt war die zunehmende Erkenntnis der Wissenschaft, dass eine ausreichend klare Abgrenzung der zuvor unterschiedenen Subtypen nicht möglich ist. Frühkindlicher Autismus Der frühkindliche Autismus (auch als autistische Störung, Kanner-Autismus, Kanner-Syndrom, oder infantiler Autismus bezeichnet) wurde zuerst 1943 von Leo Kanner beschrieben. Er gilt als prototypische Form des Autismus und wird in der Literatur auch als klassischer Autismus bezeichnet. Er zeichnet sich durch charakteristische Auffälligkeiten in den Bereichen der sozialen Interaktion, der Sprache und Kommunikation sowie durch eingeschränkte, repetitive Verhaltensmuster aus. Häufig, jedoch nicht immer, geht er mit einer geistigen Behinderung einher. Typischerweise entwickeln sich die betroffenen Kinder von Beginn an auffällig. In einigen Fällen erscheint die frühkindliche Entwicklung anfangs normal und Auffälligkeiten werden erst im zweiten oder dritten Lebensjahr deutlich sichtbar. Es werden auch Fälle berichtet, in denen Kinder im zweiten und dritten Lebensjahr ihre zuvor gezeigten Sprachfähigkeiten verlieren und sich zunehmend sozial zurückziehen. Kinder mit frühkindlichem Autismus entwickeln entweder nie eine Lautsprache, die Sprachentwicklung verläuft verzögert und anders als bei nicht-autistischen Kindern oder bereits erlernte Sprache bildet sich zurück. Dabei kann es zu einer Reihe von Auffälligkeiten kommen, die bei einer gewöhnlichen Sprachentwicklung nicht beobachtet werden, beispielsweise das als Echolalie bezeichnete Wiederholen von Worten und Sätzen eines Gesprächspartners, die ständige Wiederholung gleichartiger Geräusche oder ein eigenwilliger, nur für Vertraute verständlicher Sprachgebrauch. Hierin unterscheidet sich der frühkindliche Autismus von einer bloßen Verzögerung der Sprachentwicklung. Bei frühkindlichem Autismus sind sogenannte Stereotypien oft vergleichsweise deutlich ausgeprägt. Zudem kommt selbstverletzendes Verhalten beispielsweise in Form von Kopfschlagen oder Beißen in Finger, Hände oder Handgelenke vor. Solche selbstverletzende Verhaltensweisen sind jedoch nicht zu verwechseln mit dem bewusst selbstverletzenden Verhalten, das typischerweise zum Spannungsabbau eingesetzt wird (etwa durch Verbrennungen oder Ritzen am Unterarm) oder – seltener – aus suizidalen Tendenzen heraus entsteht und dann ein anderes (suizidales) Verletzungsmuster aufweist. Bei vielen Kindern, aber auch Jugendlichen und Erwachsenen, wird eine besonders leichte Reizbarkeit beobachtet, die sowohl für die Betroffenen als auch ihr Umfeld einen Stressfaktor darstellt. Diese Reizbarkeit kann unmittelbar mit für den frühkindlichen Autismus typischer Symptomatik in Verbindung stehen. So können beispielsweise Frustration über Nichtgelingen effektiver Kommunikation, Unterbrechungen bei der intensiven Beschäftigung mit Interessen oder eine hohe Sensibilität für Reize zu Stress und Wutausbrüchen führen. Diese sind für die betroffenen Personen oft nicht zu kontrollieren und werden auch als „Meltdowns“ bezeichnet. Aggressives Verhalten, etwa gegenüber Altersgenossen oder Betreuungspersonen ist häufig. Physische Aggressionen sind oft impulsiv und können zu Verletzungen und Schäden führen, sind jedoch in der Regel – im Unterschied zu Störungen des Sozialverhaltens – nicht mit feindseligen Absichten verbunden. Ein Zusammenhang zwischen aggressivem Verhalten und dem Grad der kognitiven Einschränkungen besteht nicht. Hochfunktionaler Autismus Treten alle Symptome des frühkindlichen Autismus zusammen mit normaler Intelligenz (einem IQ – nach Wechsler-Skala – von mehr als 70) auf, so sprach man von hochfunktionalem Autismus (high-functioning autism, HFA). Gegenüber dem Asperger-Syndrom sind die motorischen Fähigkeiten meist deutlich besser. Oftmals wird wegen der Verzögerung der Sprachentwicklung zunächst der frühkindliche Autismus diagnostiziert. Es kann aber später eine normale Sprachentwicklung erfolgen, bei der durchaus ein mit dem Asperger-Syndrom vergleichbares Funktionsniveau erreicht wird. Viele HFA-Autisten sind deshalb als Erwachsene kaum von Asperger-Autisten zu unterscheiden. Nichtsprechende HFA-Autisten können eigenständig leben und lernen, sich schriftlich zu äußern; internetbasierte Kommunikationsformen helfen gerade diesen Menschen, ihre Lebensqualität deutlich zu steigern. Hochfunktionaler Autismus wurde bislang nicht in die international für Forschung und Gesundheitswesen maßgeblichen Klassifikationssysteme Internationale Klassifikation der Krankheiten und Diagnostic and Statistical Manual of Mental Disorders aufgenommen. Die Verwendung des Begriffs „hochfunktional“ und seinem Gegenstück „niedrigfunktional“ zur näheren Spezifikation einer Autismus-Diagnose ist umstritten. Die Bezeichnungen werden Studien zufolge einerseits von autistischen Personen, ihren Angehörigen und den sie betreuenden Mitarbeitern im Gesundheitswesen mehrheitlich abgelehnt. Andererseits konnte gezeigt werden, dass die wahrgenommene „Funktionalität“ einer Person nicht mit ihren gemessenen kognitiven Fähigkeiten korreliert. Teilweise wurde „Hochfunktionaler Autismus“ auch als Begriff für das Asperger-Syndrom verwendet. Atypischer Autismus Atypischer Autismus gilt als eine Variante des frühkindlichen Autismus. Er unterscheidet sich dadurch, dass Kinder erst im oder nach dem dritten Lebensjahr autistisches Verhalten zeigen (atypisches Manifestationsalter) und/oder nicht alle Symptome aufweisen (atypische Symptomatik). Diese unkonkrete Formulierung der Diagnosekriterien führt dazu, dass diese unterschiedlich angewandt werden, und auch zu Schwierigkeiten in der Forschung. Wenn atypischer Autismus zusammen mit erheblicher Intelligenzminderung auftritt, wird manchmal auch von „Intelligenzminderung mit autistischen Zügen“ gesprochen. Asperger-Syndrom Das Asperger-Syndrom (auch Asperger-Autismus oder Asperger-Störung) wurde zuerst 1943 von dem österreichischen Kinderarzt Hans Asperger als „autistische Psychopathie“ beschrieben. Schon zuvor hatte ab 1925 die russische Kinderpsychiaterin Grunja Sucharewa über vergleichbare Fälle einer „schizoiden Persönlichkeitsstörung“ bzw. „schizoiden Psychopathie“ publiziert. Das Asperger-Syndrom ist gekennzeichnet durch Auffälligkeiten in der wechselseitigen sozialen Interaktion sowie repetitive und ritualisierte Verhaltensmuster. Sprache, Intelligenz und Anpassungsfähigkeit entwickeln sich ohne auffällige Verzögerung. Im Bereich der Sprache sind jedoch Auffälligkeiten wie eine ungewöhnliche Intonation oder eine als pedantisch oder formell wahrgenommene Ausdrucksweise typisch. Weiterhin lässt sich oft eine motorische Ungeschicklichkeit beobachten. Es gibt zahlreiche Berichte über das gleichzeitige Auftreten von überdurchschnittlicher Intelligenz. Als besonders problematisch erweist sich die soziale Interaktion, da Menschen mit Asperger-Syndrom nach außen hin keine offensichtlichen Anzeichen einer Behinderung haben. So kann es geschehen, dass die Schwierigkeiten von Menschen mit Asperger-Syndrom als bewusste Provokation empfunden werden, obwohl dies nicht der Fall ist. Wenn etwa eine betroffene Person auf eine an sie gerichtete Frage nur mit Schweigen reagiert, wird dies fälschlicherweise oft als Sturheit und Unhöflichkeit gedeutet. Viele Menschen mit Asperger-Syndrom können durch Schauspielkunst und Kompensationsstrategien – das sogenannte Masking oder Camouflaging – nach außen hin eine Fassade aufrechterhalten, sodass ihre Probleme auf den ersten Blick nicht gleich sichtbar sind, jedoch bei persönlichem Kontakt durchscheinen, etwa in einem Vorstellungsgespräch. Menschen mit Asperger-Syndrom gelten nach außen hin oft als extrem schüchtern, jedoch ist das nicht das eigentliche Problem. Schüchterne Menschen verstehen die sozialen Regeln, trauen sich aber nicht, sie anzuwenden. Menschen mit Asperger-Syndrom verstehen sie hingegen nicht und haben deshalb Probleme, damit umzugehen. Die Fähigkeit zur kognitiven Empathie (Einfühlungsvermögen) ist manchmal nur schwach ausgeprägt. Bezüglich der affektiven Empathie ergab eine Übersichtsarbeit von 2013 uneinheitliche Ergebnisse: weniger als 50 % der Studien zeigten eine Einschränkung der emotionalen Wahrnehmung. Inselbegabung Die Interessen von Autisten sind häufig auf bestimmte Gebiete konzentriert. Wenn jemand auf einem solchen Gebiet außergewöhnliche Fähigkeiten, zum Beispiel im Kopfrechnen, Zeichnen, in der Musik oder in der Merkfähigkeit aufweist, spricht man von einer „Inselbegabung“, bzw. von Savants (Wissende). Etwa 50 Prozent der Inselbegabten sind Autisten, jedoch ist nur ein kleiner Teil der Autisten inselbegabt. Der Film Rain Man schildert einen solchen Fall. Diagnose und Klassifikation Autismus wird zumeist in der Kindheit diagnostiziert. Die Diagnose erfolgt im Durchschnitt umso früher, je stärker die Verzögerung bei der Sprachentwicklung und je auffälliger das Verhalten sind. Das Asperger-Syndrom, das nicht mit einer Störung der Sprachentwicklung verbunden ist, wird daher häufig erst im Grundschulalter erkannt. Manche Autisten erhalten die Diagnose jedoch erst als Erwachsene. Nach Daten der auf Autismus spezialisierten Kölner Spezialsprechstunde aus dem Zeitraum von 2005 bis 2009 erfolgte die erstmalige Diagnose beispielsweise im Durchschnitt im Alter von 34 Jahren. Auch bei vielen der erst im Erwachsenenalter diagnostizierten Personen waren charakteristische Symptome wahrscheinlich bereits in der Kindheit präsent, wurden jedoch nicht erkannt, falsch interpretiert oder es ergaben sich aus ihnen keine Schwierigkeiten, die für das Umfeld einen Anlass für eine Untersuchung darstellten. Diagnostik Die Diagnose von Autismus erfolgt anhand der beobachteten Symptomatik. Zur Diagnostik geeignete Biomarker, etwa neurobiologische Befunde, sind nicht bekannt. Bei der Diagnostik ist wichtig, zu beachten, dass nicht einzelne Symptome autismusspezifisch sind, da ähnliche Merkmale auch bei anderen Störungen oder in der Allgemeinbevölkerung auftreten. Spezifisch für Autismus ist vielmehr die Kombination von mehreren dieser Symptome, d. h. der Symptomkonstellation, die zudem bereits seit der Kindheit vorliegen muss. Dieses sogenannte klinische Bild wird durch Einsatz verschiedener diagnostischer Verfahren gewonnen. Zum Einsatz kommen können Interviews mit Patienten und/oder ihren Bezugspersonen, standardisierte und validierte Fragebögen sowie Verhaltensbeobachtungen und eine körperliche Untersuchung. Standardverfahren sind der Autism Diagnostic Observation Schedule-2 (ADOS-2, Verhaltensbeobachtung) sowie das Autism Diagnostic Interview-Revised (ADI-R, Eltern-Interview), die auch in deutscher Sprache verfügbar sind. Die auf diese Weise erhobenen Informationen werden verglichen und gewichtet. Beispielsweise muss berücksichtigt werden, dass besonders bei Erwachsenen die Eigenwahrnehmung oder die Einschätzung einer Person durch die Eltern stark von der Wahrnehmung der sonstigen Umwelt abweichen kann. Weiterhin können sich Eltern oder andere Angehörige Erwachsener oft nicht mehr ausreichend präzise an Verhalten und Entwicklung in der Kindheit erinnern. Erschwert wird die Diagnostik bei älteren Kindern, Jugendlichen und Erwachsenen oft dadurch, dass diese im Laufe ihres Lebens gelernt haben, auffällige Symptome wie repetitive Verhaltensweisen (Stimming) zu unterdrücken oder Schwierigkeiten bei sozialer Interaktion und Kommunikation zu kompensieren. Diese als Masking oder Camouflaging bezeichneten Strategien und Verhaltensweisen können zu einem unauffälligen ersten Eindruck führen, aber beispielsweise durch Beobachtung der Person in ungewohntem Umfeld oder Erfragen des kognitiven Aufwands erkannt werden. Die Diagnose autistischer Mädchen und Frauen kann dadurch erschwert werden, dass ihnen – im Vergleich zu einer männlichen Vergleichsgruppe – das Masking häufig besser gelingt und ihre Spezialinteressen häufig unauffälliger sind oder eher als alterstypisch wahrgenommen werden.Jedoch ist auch bei ihnen zum Beispiel soziale Interaktion mit großen Anstrengungen verbunden und sie gehen ihren Interessen mit höherer Intensität und Qualität nach als nicht-autistische Gleichaltrige. Nach ICD-10 Autismus wird im fünften Kapitel der ICD-10 (1994) als tiefgreifende Entwicklungsstörung (Schlüssel F84) aufgeführt. Es wird unterschieden zwischen: F84.0: Frühkindlicher Autismus, siehe Frühkindlicher Autismus#Nach ICD F84.1: atypischer Autismus, siehe Atypischer Autismus F84.5: Asperger-Syndrom, siehe Asperger-Syndrom#Nach ICD Sind sowohl die Kriterien für frühkindlichen Autismus als auch das Asperger-Syndrom erfüllt, wird die Diagnose frühkindlicher Autismus gestellt. Nach DSM-5 Das Diagnostic and Statistical Manual of Mental Disorders (das Klassifikationssystem der American Psychiatric Association, das auch international und in der Forschung Verwendung findet) fasst in seiner 5. Auflage (DSM-5, seit 2013, revidiert 2022) alle Formen des Autismus in der Diagnose Autismus-Spektrum-Störung (ASS, englisch Autism Spectrum Disorder, ASD) zusammen. Die Diagnosekriterien lauten: A) Anhaltende Defizite in der sozialen Kommunikation und sozialen Interaktion über verschiedene Kontexte hinweg. Diese manifestieren sich in allen der folgenden aktuell oder in der Vergangenheit erfüllten Merkmalen: Defizite der sozial-emotionalen Gegenseitigkeit (z. B. ungewöhnliche soziale Annäherung; fehlende normale wechselseitige Konversation, verminderter Austausch von Interessen, Gefühlen und Affekten) Defizite im nonverbalen Kommunikationsverhalten, das in sozialen Interaktionen eingesetzt wird (z. B. weniger oder kein Blickkontakt bzw. Körpersprache; Defizite im Verständnis und Gebrauch von Gestik bis hin zu vollständigem Fehlen von Mimik und nonverbaler Kommunikation) Defizite in der Aufnahme, Aufrechterhaltung und dem Verständnis von Beziehungen (z. B. Schwierigkeiten, eigenes Verhalten an verschiedene soziale Kontexte anzupassen, sich in Rollenspielen auszutauschen oder Freundschaften zu schließen) B) Eingeschränkte, repetitive Verhaltensmuster, Interessen oder Aktivitäten, die sich in mindestens zwei der folgenden aktuell oder in der Vergangenheit erfüllten Merkmalen manifestieren: Stereotype oder repetitive motorische Bewegungsabläufe; stereotyper oder repetitiver Gebrauch von Objekten oder Sprache (z. B. einfache motorische Stereotypien, Echolalie, Aufreihen von Spielzeug, Hin- und Herbewegen von Objekten, idiosynkratrischer Sprachgebrauch) Festhalten an Gleichbleibendem, unflexibles Festhalten an Routinen oder an ritualisierten Mustern (z. B. extremes Unbehagen bei kleinen Veränderungen, Schwierigkeiten bei Übergängen, rigide Denkmuster oder Begrüßungsrituale, Bedürfnis, täglich den gleichen Weg zu gehen) Hochgradig begrenzte, fixierte Interessen, die in ihrer Intensität oder ihrem Inhalt abnorm sind (z. B. starke Bindung an oder Beschäftigen mit ungewöhnlichen Objekten, extrem umschriebene oder perseverierende Interessen) Hyper- oder Hyporeaktivität auf sensorische Reize oder ungewöhnliches Interesse an Umweltreizen (z. B. scheinbare Gleichgültigkeit gegenüber Schmerz oder Temperatur, ablehnende Reaktion auf spezifische Geräusche oder Oberflächen, exzessives Beriechen oder Berühren von Objekten) C) Die Symptome müssen bereits in früher Kindheit vorliegen, können sich aber erst dann voll manifestieren, wenn die sozialen Anforderungen die begrenzten Möglichkeiten überschreiten. (In späteren Lebensphasen können sie auch durch erlernte Strategien überdeckt werden.) D) Die Symptome müssen klinisch bedeutsames Leiden oder Beeinträchtigungen in sozialen, beruflichen oder anderen wichtigen Funktionsbereichen verursachen. E) Die Symptome können nicht besser durch eine andere Geistige Behinderung oder eine allgemeine Entwicklungsverzögerung erklärt werden. Intellektuelle Beeinträchtigungen und Autismus-Spektrum-Störungen treten häufig zusammen auf. Um die Diagnosen „Autismus-Spektrum-Störung“ und „Intellektuelle Entwicklungsstörung“ gemeinsam stellen zu können, sollte die soziale Kommunikationsfähigkeit unter dem aufgrund der allgemeinen Entwicklung erwarteten Niveau liegen. Für die Beeinträchtigungen der sozialen Kommunikation (A) und eingeschränkten, repetitiven Verhaltensmustern (B) soll jeweils ein Schweregrad angegeben werden, der die aktuell benötigte Unterstützung beschreibt: Schweregrad 3: „sehr umfangreiche Unterstützung erforderlich“ Schweregrad 2: „umfangreiche Unterstützung erforderlich“ Schweregrad 1: „Unterstützung erforderlich“ Liegt ein bekannter medizinischer oder genetischer Krankheitsfaktor oder Umweltfaktor vor, soll dieser zusätzlich spezifiziert werden (z. B. „Autismus-Spektrum-Störung mit einhergehendem Rett-Syndrom“). Das Vorliegen einer intellektuellen oder sprachlichen Beeinträchtigung kann durch einen entsprechenden Zusatz gekennzeichnet werden (z. B. „Autismus-Spektrum-Störung mit begleitender Sprachlicher Beeinträchtigung – keine verständliche Sprache“). Weiterhin kann spezifiziert werden, dass die ASS mit einer Katatonie einhergeht. Das DSM-5 weist ausdrücklich darauf hin, dass Personen mit einer gesicherten DSM-IV-Diagnose einer autistischen Störung, Asperger-Störung oder nicht näher bezeichneten tiefgreifenden Entwicklungsstörung eine ASS-Diagnose nach DSM-5 erhalten sollen. Für Personen mit deutlichen sozialen Kommunikationdefiziten, die ansonsten nicht die Kriterien der Autismus-Spektrum-Störung erfüllen, solle die Diagnose einer sozialen Kommunikationsstörung erwogen werden. Nach ICD-11 Alle Ausprägungen des Autismus werden in der international seit Januar 2022 gültigen 11. Revision der Internationalen Klassifikation der Krankheiten der Weltgesundheitsorganisation (ICD-11) in der Diagnose Autismus-Spektrum-Störung (Schlüssel 6A02, kurz ASS, englisch Autism Spectrum Disorder, ASD) zusammengefasst. Die Diagnosekriterien lauten: Anhaltende Defizite beim Initiieren und Aufrechterhalten sozialer Kommunikation und wechselseitiger sozialer Interaktion die außerhalb der typischen Bandbreite dessen liegen, was angesichts des Alters und der Stufe der intellektuellen Entwicklung zu erwarten wäre. Die spezifische Ausprägung dieser Defizite variiert mit dem Alter, lautsprachlichem und intellektuellem Vermögen, und Schwere der Störung. Ausprägungen können Beeinträchtigungen in folgenden Bereichen beinhalten: Verständnis von, Interesse an, oder unangemessene Reaktion auf verbale oder nonverbale Kommunikation anderer Integration von Lautsprache mit typischer komplementärer nonverbaler Kommunikation wie etwa Blickkontakt, Gestik, Mimik und Körpersprache. Dieses nonverbale Verhalten kann auch in Bezug auf Frequenz und Intensität reduziert sein. Verständnis und Verwendung von Sprache in sozialen Zusammenhängen und Fähigkeit, wechselseitige soziale Gespräche zu initiieren und aufrechtzuerhalten. Soziale Wahrnehmung, was zu Verhalten führt, dass nicht dem sozialen Kontakt angemessen moduliert wird. Fähigkeit, sich die Gefühle, emotionale Verfassung und Einstellung anderer vorzustellen und auf diese zu reagieren. Gegenseitiges Teilen von Interessen. Fähigkeit, typische Beziehungen mit Gleichaltrigen einzugehen und aufrechtzuerhalten. Anhaltende beschränkte, repetitive und unflexible Verhaltensmuster, Interessen oder Aktivitäten, die klar atypisch oder exzessiv für das Alter und den sozio-kulturellen Kontext sind. Dies kann beinhalten: Fehlende Anpassung an neue Erfahrungen und Umstände verbunden mit Stress, der durch triviale Veränderungen einer gewohnten Umgebung oder in Reaktion auf unerwartete Ereignisse ausgelöst wird. Unflexibles Befolgen bestimmter Routinen. Diese können beispielsweise geografisch sein, wie etwa das Nehmen einer gewohnten Route, oder den präzisen Zeitpunkt von Mahlzeiten oder Fahrten betreffen. Exzessives Befolgen von Regeln (z. B. bei Spielen). Exzessive und anhaltende ritualisierte Verhaltensmuster (z. B. vertiefte Beschäftigung mit dem Aufreihen oder Sortieren von Gegenständen in bestimmter Weise), die keinen erkennbaren externen Zweck erfüllen. Repetitive und stereotype motorische Bewegungen, wie etwa Bewegungen des ganzen Körpers (z. B. Schaukeln), untypischer Gang (z. B. Laufen auf Zehenspitzen), ungewöhnliche Hand- oder Fingerbewegungen und Haltung. Dieses Verhalten ist besonders in der frühen Kindheit häufig. Anhaltende vertiefte Beschäftigung mit einem oder mehreren Spezialinteressen, Objekt-Teilen oder spezifischen Formen von Reizen (inklusive Medien) oder eine ungewöhnlich starke Bindung an bestimmte Gegenstände (ausgenommen typische Tröster). Lebenslange exzessive und anhaltende Hypersensitivität oder Hyposensitivität für Reize oder ein ungewöhnliches Interesse an einem Reiz. Dies kann tatsächliche oder erwartete Geräusche, Licht, Texturen (besonders von Kleidung und Essen), Gerüche und Geschmack, Wärme, Kälte oder Schmerzen beinhalten. Der Beginn der Störung liegt in der Phase der Entwicklung, typischerweise in der frühen Kindheit, aber charakteristische Symptome können sich erst später voll ausprägen, wenn soziale Anforderungen die beschränkten Kapazitäten übersteigen. Die Symptome führen zu einer signifikanten Beeinträchtigung im persönlichen, familiären, sozialen, schulischen, beruflichen oder einem anderen wichtigen Bereich. Manchen Personen mit Autismus-Spektrum-Störung gelingt es, durch außergewöhnliche Anstrengungen in vielen Bereichen adäquat funktional zu agieren, so dass ihre Defizite anderen nicht auffallen. Die Diagnose einer Autismus-Spektrum-Störung ist auch hier angemessen. Analog zum DSM-5 werden dabei die „Störung der Intelligenzentwicklung“ und „Beeinträchtigung der funktionellen Sprache“ (Laut- oder Gebärdensprache) spezifiziert, wobei die möglichen Kombinationen in der ICD-11 eigene Diagnoseschlüssel erhalten: Zusätzlich soll die entsprechende Diagnose einer Störung der Intelligenzentwicklung vergeben werden. Durch eine weitere Ziffer kann kodiert werden, ob es zu einem Verlust bereits erworbener Fähigkeiten (typischerweise im Laufe des zweiten Lebensjahrs und im Bereich der Sprachentwicklung oder sozialer Reaktivität) kam: 6A02.x0: Ohne Verlust bereits erworbener Fähigkeiten 6A02.x1: Mit Verlust bereits erworbener Fähigkeiten Differentialdiagnose Autistische Verhaltensweisen können auch bei anderen Syndromen und psychischen Erkrankungen auftreten. Von diesen muss Autismus daher abgegrenzt werden: ADHS Die Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung ist von Autismus oft schwer zu unterscheiden, denn auch bei Autismus können stark fokussierte Aufmerksamkeit, leichte Ablenkbarkeit sowie Hyperaktivität auftreten. Umgekehrt können durch die für ADHS typische Impulsivität und Hyperaktivität Auffälligkeiten in der sozialen Kommunikation entstehen, wie etwa das Unterbrechen anderer Personen, eine unangepasste Lautstärke beim Sprechen und das Missachten des persönlichen Bereichs. Eine Unterscheidung ist möglich anhand des Entwicklungsverlaufs sowie dem Fehlen von beschränkten, repetitiven Verhaltensweisen und ungewöhnlichen Interessen, die bei ADHS nicht auftreten. Die Differentialdiagnose zwischen ADHS und Autismus ist überdies auch deshalb schwierig, da ADHS häufig mit Autismus gemeinsam vorkommt (Komorbidität). Bindungsstörung Bei der Bindungsstörung ist das Sprachvermögen intakt. Eine Abgrenzung zu Autismus ohne Einschränkung der Sprachentwicklung kann im Einzelfall schwierig sein. Der Anamnese kommt hier eine wichtige Rolle zu. Neuropsychologische Tests sind eine weitere Grundlage einer klaren Differenzierung. Allerdings ist Autismus keine Bindungsstörung und autistische Menschen sind nicht in ihrer emotionalen Bindung gestört, auch wenn sie Beziehungen möglicherweise untypisch gestalten. Borderline-Persönlichkeitsstörung Manche Autoren sehen vor allem bei Frauen Parallelen zur Borderline-Persönlichkeitsstörung (BPS), bei der ebenfalls die Empathiefähigkeit beeinträchtigt sei und nonverbale Signale schwerer erkannt würden. Borderline sei jedoch von starken Stimmungsschwankungen geprägt und gehe selten mit Spezialinteressen oder ausgeprägt rationalem Denken einher. BPS und Autismus können auch gemeinsam auftreten. Heller-Syndrom Das Heller-Syndrom zählt wie ASS zu den tiefgreifenden Entwicklungsstörungen nach ICD-10. Es bewirkt einen allgemeinen Interessenverlust an der Umgebung, Stereotypien und motorische Manierismen. Das Sozialverhalten ähnelt dem eines Autisten. HörbehinderungEine Hörbehinderung (Schwerhörigkeit oder Gehörlosigkeit) kann bei Kindern auf den ersten Blick mit Autismus verwechselt werden, weil das Kind auf laute Geräusche oder Ansprache nicht reagiert und weil sich die Sprachentwicklung verzögert. Ein Hörtest oder Hörscreening (bei Kindern regelmäßig im Rahmen von Kindervorsorgeuntersuchungen und vor der Einschulung durchgeführt) kann eine Hörbehinderung ermitteln. Allerdings lassen aktuelle Forschungsergebnisse vermuten, dass das Hörtest-Verfahren Hirnstammaudiometrie (engl. auditory brainstem response, ABR) auch bei autistischen Neugeborenen Auffälligkeiten zeigt, da bei ihnen das Gehirn langsamer auf Geräusche reagiert. Autismusähnliches Verhalten Autistisches Verhalten bei psychischem Hospitalismus, Kindesmisshandlung und Verwahrlosung unterscheidet sich vom Autismus dadurch, dass dieser primär, also von Geburt an, auftritt. Die typischen Verhaltensweisen werden bei Autisten nicht durch falsche Erziehung, mangelnde Liebe, Misshandlung oder Verwahrlosung ausgelöst. In jenen Fällen verschwindet das autistische Verhalten bei Besserung der äußeren Umstände wieder, wohingegen Autismus nicht veränderbar ist. Magersucht Bei Magersucht (Anorexia nervosa) können Essgewohnheiten auftreten (z. B. rigides und selektives Essverhalten, Rumination), die auch bei Menschen mit Autismus-Spektrum-Störungen häufig zu beobachten sind. Diese haben zudem im Kindes- und Jugendalter ein erhöhtes Risiko für Untergewicht. Wesentliches Unterscheidungsmerkmal ist, dass bei Magersucht die Regulation des eigenen Gewichts und das Körperbild im Vordergrund stehen, während bei Autismus die Ursache für das abweichende Essverhalten in sensorischen Sensitivitäten, der Neigung zu repetitivem Verhalten oder Schwierigkeiten, Hunger zu erkennen, liegen kann (Alexithymia). Jedoch können auch autistische Personen das Motiv haben, Gewicht zu verlieren, um soziale Anerkennung zu erlangen. Zu beachten ist, dass Magersucht auch gemeinsam mit einer Autismus-Spektrum-Störung auftreten kann. Eine 2015 publizierte Auswertung von Daten des dänischen Gesundheitssystems ergab, dass Patienten mit einer Autismus-Diagnose eine fünfmal so große Wahrscheinlichkeit hatten, später von Magersucht betroffen zu sein, als eine Kontrollgruppe ohne Autismus-Diagnose. Autismus-Spektrum-Störungen sind bei Patienten mit Anorexia nervosa im Vergleich zur Gesamtbevölkerung überrepräsentiert. Mutismus Mutismus hängt im Gegensatz zu Autismus eher mit sozialer Angst zusammen und äußert sich ausschließlich als Kommunikationsstörung, geht aber typischerweise nicht mit einer Entwicklungsverzögerung einher, wie es bei Autismus der Fall ist. Es wird zwischen totalem Mutismus (der Patient spricht trotz funktionell vorhandener Sprechfähigkeit überhaupt nicht) und selektivem bzw. elektivem Mutismus (Spracheinsatz von Personen und Situationen abhängig) unterschieden. Im Gegensatz zu Autismus ist bei selektivem Mutismus auch in Situationen, in denen eine Person nicht spricht, die soziale Reziprozität nicht eingeschränkt und es treten keine repetitiven oder beschränkten Verhaltensweisen auf. Persönlichkeitsstörungen Persönlichkeitsstörungen gehen oft mit Schwierigkeiten in der sozialen Interaktion, die Ähnlichkeiten mit Autismus aufweisen. Dies gilt insbesondere für die schizotype Persönlichkeitsstörung. Wesentliches Unterscheidungsmerkmal in der Diagnostik sind die beschränkten, repetitiven Verhaltensweisen und Interessen, welche bei Autismus ab der frühen Kindheit auftreten, jedoch nicht bei Persönlichkeitsstörungen. Schizophrenie Schizophrenie unterscheidet sich im Wesentlichen durch das Auftreten von Halluzinationen, Wahn und Ich-Störungen, die bei Autismus nicht vorkommen. Im Unterschied zur Schizophrenia simplex besteht der Autismus oder das Asperger-Syndrom bereits seit dem Kindesalter. Stummheit, Aphasie Stummheit, Aphasie oder eine sonstige Form von Sprachentwicklungsverzögerung kann bei Kindern auf den ersten Blick autistisches Verhalten vortäuschen, weil die sprachlichen Äußerungen fehlen. Das normale Sozialverhalten unterscheidet die Stummheit allerdings vom Autismus bzw. vom Asperger-Syndrom. Urbach-Wiethe-Syndrom Das Urbach-Wiethe-Syndrom ist eine sehr seltene neurologische Störung, die zu Hautveränderungen, Schleimhautveränderungen (Heiserkeit) und zu Schwierigkeiten bei der Kommunikation und im Sozialverhalten führt. Die Betroffenen haben Probleme, Gesichtsausdrücke anderer Menschen zu interpretieren und Gesprächen zu folgen. Die gleichzeitig auftretenden Haut- und Schleimhautveränderungen ermöglichen aber eine Abgrenzung vom Autismus. Eine genetische Untersuchung kann Klarheit verschaffen. Zwangserkrankungen Bei Menschen, die an Zwangshandlungen leiden, sind die Fähigkeiten zu sozialem Umgang und Kommunikation in der Regel nicht beeinträchtigt. Im Gegensatz zu an einer Zwangsstörung Erkrankten erleben Autisten ihre Routinen nicht als gegen ihren Willen aufgedrängt, sondern sie schaffen ihnen Sicherheit und sie fühlen sich mit ihnen wohl (ich-synton). Einige Menschen mit Asperger-Syndrom erfüllen aber zusätzlich die Kriterien der zwanghaften Persönlichkeitsstörung; eine Differentialdiagnose ist normalerweise aber auch hier möglich. Komorbidität Autismus-Spektrum-Störungen oder autistische Symptome sind mit einer Reihe von Syndromen verbunden, treten bei diesen also häufig auf oder gehören zur charakteristischen Symptomatik. Viele der Syndrome haben eine bekannte, oft monogenetische Ursache. Hierzu zählen: Angelman-Syndrom Das Angelman-Syndrom ist oberflächlich gesehen dem frühkindlichen Autismus sehr ähnlich. Es stellt aber eine Veränderung auf dem 15. Chromosom dar und lässt sich genetisch nachweisen. Fragiles-X-Syndrom Das Fragiles-X-Syndrom wird durch einen genetischen Defekt ausgelöst, der mit entsprechenden Analysemethoden eindeutig nachgewiesen und vom Autismus unterschieden werden kann. Rett-Syndrom Das Rett-Syndrom zählt wie die oben angeführten Autismus-Varianten in der ICD-10 und dem DSM-IV zu den tiefgreifenden Entwicklungsstörungen. Es kommt fast ausschließlich bei Frauen vor; typische Symptome sind autistisches Verhalten und Störungen der Bewegungskoordination (Ataxie). Während im DSM-5 eine Diagnose „Autismus-Spektrum-Störung mit einhergehendem Rett-Syndrom“ möglich ist, ist in der ICD-11 das Rett-Syndrom Ausschlussdiagnose für eine ASS. Zusammen mit Autismus können verschiedene begleitende (komorbide) körperliche und psychische Erkrankungen auftreten: Die Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) muss nicht nur von Autismus abgegrenzt werden, sondern kann auch zusätzlich auftreten. Depressionen, Psychosen, Phobien, Zwangsstörungen, Essstörungen: Bleibt Autismus lange Zeit unerkannt und unbehandelt, können sich verschiedenartige zusätzliche Störungen wie ein Fächer ausbreiten. Darum ist eine frühe Diagnose so wichtig. Posttraumatische Belastungsstörungen (PTBS): Autistische Menschen haben ein erhöhtes Risiko für traumatische Erfahrungen, insbesondere sozialer Viktimisierung. Zu beachten ist, dass es Überschneidungen der Symptomatik von PTBS und ASS gibt. Schlafstörungen sind bei Menschen mit Autismus besonders häufig, rund 80 Prozent der Kinder und 50 Prozent der Erwachsenen sind betroffen. Verbreitet sind vor allem Ein- und Durchschlafprobleme, Parasomnien und nächtliche epileptische Anfälle. Prosopagnosie (Gesichtsblindheit): Schwierigkeiten, Gesichter zu erkennen. Manche Menschen mit Autismus nehmen Menschen und Gesichter wie Gegenstände wahr. In Studien wurde festgestellt, dass manche Menschen mit Autismus die visuellen Informationen beim Betrachten von Personen und Gesichtern in einem Teil des Gehirns verarbeiten, der eigentlich für die Wahrnehmung von Objekten zuständig ist. Ihnen fehlt dann die intuitive Fähigkeit, Gesichter im Bruchteil einer Sekunde zu erkennen und Ereignissen zuzuordnen. Das Tourette-Syndrom ist eine neuro-psychiatrische Erkrankung, die durch das Auftreten von Tics charakterisiert ist. Tuberöse Sklerose ist eine genetische Erkrankung, die mit Fehlbildungen und Tumoren des Gehirns, Hautveränderungen und meist gutartigen Tumoren in anderen Organsystemen einhergeht. Klinisch ist sie häufig durch epileptische Anfälle und kognitive Behinderungen gekennzeichnet. Genderinkongruenz und Geschlechtsdysphorie sowie nicht-geschlechtskonformes Verhalten treten bei autistischen Menschen gehäuft auf. Zudem werden unter Kindern, Jugendlichen und Erwachsenen mit Geschlechtsdysphorie autistische Züge und Autismus-Spektrum-Störungen überhäufig beobachtet. Häufigkeit Eine Analyse von 11.091 Interviews von 2014 durch das National Center for Health Statistics der USA ergab eine Häufigkeit (Lebenszeitprävalenz) des ASS von 2,24 % in der Altersgruppe 3–17 Jahre, 3,29 % bei Jungen und 1,15 % bei Mädchen. Eine Übersicht von 2015 zeigte, dass die Zahlen zur Geschlechterverteilung wegen methodischer Schwierigkeiten stark variierten. Das Verhältnis männlich-weiblich betrage jedoch mindestens 2:1 bis 3:1, was auf einen biologischen Faktor in dieser Frage hindeute. Die möglichen Gründe hinter der vergleichsweise niedrigen Anzahl an diagnostizierten Frauen seien vielfältig, so kämen etwa genetische Schutzfaktoren sowie eine stärker auf bei Männern ausgeprägte Symptome ausgerichtete Diagnostik infrage. Die Zahl der Autismus-Diagnosen scheint in den vergangenen Jahrzehnten stark gestiegen zu sein. Die Centers for Disease Control (CDC) in den USA geben einen Anstieg der Autismusfälle um 57 % an (zwischen 2002 und 2006). Im Jahr 2006 war noch eines von 110 Kindern im Alter von 8 Jahren mit Autismus diagnostiziert, Im Jahr 2020 hingegen eines von 36 Kindern. Obwohl bessere und frühere Diagnostik eine Rolle spielt, kann laut CDC nicht ausgeschlossen werden, dass ein Teil des Anstiegs auf eine tatsächliche Erhöhung der Fälle zurückzuführen ist. Autismus liegt allerdings nicht nur als Erkrankung in der Bevölkerung vor, sondern auch als ein auf einem Kontinuum liegendes Persönlichkeitsmerkmal. Mit diesem Persönlichkeitsmerkmal gehen verschiedene Charakteristika einher, beispielsweise schlechtere soziale Fähigkeiten und eine vermehrte Aufmerksamkeit für Details. Folgende Faktoren spielen bei der Zunahme der Fallzahlen in jüngerer Zeit eine Rolle: Der häufigere Besuch von Kindergärten und die frühere Einschulung der Kinder erhöhen die Chance, dass Autismus entdeckt wird. Eltern beobachten heute aufmerksamer, ob sich ihre Kinder „normal“ entwickeln. Früher brachte man oft ein Kind erst dann zum Arzt, wenn es auffällig spät sprechen lernte. Die Definition von Autismus ist „verbreitert“ worden, sodass mehr Kinder als autistisch diagnostiziert werden. In der Vergangenheit wurde Autismus oft unter kindlicher Schizophrenie oder Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) eingeordnet. Ein verbessertes Screening, gestärktes Bewusstsein und vereinfachter Zugang zu Leistungen des Gesundheitssystems könnte zu einem beobachteten Anstieg an Diagnosen bei historisch unterversorgten Gruppen geführt haben. Folgen und Prognose Autismus kann die Entwicklung der Persönlichkeit, die Berufschancen und die Sozialkontakte erheblich beeinträchtigen. Der Langzeitverlauf einer Störung aus dem Autismusspektrum hängt von der individuellen Ausprägung beim Einzelnen ab. Die Ursache des Autismus kann nicht behandelt werden, da sie nicht bekannt ist. Möglich ist lediglich eine unterstützende Behandlung in einzelnen Symptombereichen. Andererseits sind viele Schwierigkeiten, über die autistische Menschen berichten, durch Anpassungen ihrer Umwelt vermeidbar oder verminderbar. Beispielsweise berichten manche von einem Schmerzempfinden für bestimmte Tonfrequenzen. Solchen Menschen geht es in einem reizarmen Umfeld deutlich besser. Eine autismusgerechte Umwelt zu finden bzw. herzustellen ist deshalb ein wesentliches Ziel. Dies gilt auch im Falle von Schlafstörungen, welche sich durch verhaltenstherapeutische Maßnahmen, Maßnahmen der Schlafhygiene sowie eine medikamentöse Therapie (Melatonin) behandeln lassen. Auch eine Zunahme autistischer Symptome bei Schlafmangel ist beschrieben, etwa verstärkte stereotype Verhaltensweisen oder Hyperaktivität. Kommunikationstraining für Autisten sowie für deren Freunde und Angehörige kann für alle Beteiligten hilfreich sein und wird beispielsweise in Großbritannien von der National Autistic Society angeboten und wissenschaftlich weiterentwickelt. Eine zunehmende Zahl von Schulen, Colleges und Arbeitgebern speziell für autistische Menschen demonstriert den Erfolg, Autisten in autismusgerechten Umfeldern leben zu lassen. Die autistischen Syndrome gehören nach dem (deutschen) Schwerbehindertenrecht zur Gruppe der psychischen Behinderungen. Nach den Grundsätzen der Versorgungsmedizin-Verordnung beträgt der Grad der Behinderung je nach Ausmaß der sozialen Anpassungsschwierigkeiten 10 bis 100 Prozent. Beim frühkindlichen und atypischen Autismus bleibt eine Besserung des Symptombilds meist in engen Grenzen. Etwa 10–15 % der Menschen mit frühkindlichem Autismus erreichen im Erwachsenenalter eine eigenständige Lebensführung. Der Rest benötigt in der Regel eine intensive, lebenslange Betreuung und eine geschützte Unterbringung. Über den Langzeitverlauf beim Asperger-Syndrom gibt es bisher keine Studien. Hans Asperger nahm einen positiven Langzeitverlauf an. In der Regel lernen Menschen mit Asperger-Syndrom im Laufe ihrer Entwicklung, ihre Probleme – abhängig vom Grad ihrer intellektuellen Fähigkeiten – mehr oder weniger gut zu kompensieren. Der britische Autismusexperte Tony Attwood vergleicht den Entwicklungsprozess von Menschen mit Asperger-Syndrom mit der Erstellung eines Puzzles: Mit der Zeit bekommen sie die einzelnen Teile des Puzzles zusammen und erkennen das ganze Bild. So können sie das Puzzle (oder Rätsel) des Sozialverhaltens lösen. Es existiert eine Reihe von Büchern über autistische Menschen. Der Neurologe Oliver Sacks und Psychologe Torey L. Hayden haben Bücher über ihre Patienten mit Autismus und deren Lebenswege veröffentlicht. An Büchern, die von Autisten selbst geschrieben wurden, sind insbesondere die Werke der US-amerikanischen Tierwissenschaftlerin Temple Grandin, der australischen Schriftstellerin und Künstlerin Donna Williams, der US-amerikanischen Erziehungswissenschaftlerin Liane Holliday Willey und des deutschen Schriftstellers und Filmemachers Axel Brauns bekannt. Schule, Ausbildung, Beruf Welche Schule für Menschen mit Autismus geeignet ist, hängt von Intelligenz, Sprachentwicklung und Ausprägung des Autismus beim Einzelnen ab. Sind Intelligenz und Sprachentwicklung normal ausgeprägt, können Kinder mit Autismus eine Regelschule besuchen, und es kann ein reguläres Studium oder eine reguläre Berufsausbildung absolviert werden. Andernfalls kann der Besuch einer Förderschule in Betracht gezogen werden. Die Inklusive Pädagogik bietet alternative Lösungen an. Zudem kann etwa eine Tätigkeit in einer Werkstatt für Menschen mit Behinderung (kurz WfbM, früher auch Beschützende Werkstatt genannt) infrage kommen. Einerseits kann der Einstieg ins reguläre Berufsleben problematisch werden, da viele Autisten die hohen sozialen Anforderungen der heutigen Arbeitswelt nicht erfüllen können. So sind laut einer von Rehadat veröffentlichten Studie von 2004 nur ungefähr zehn Prozent der autistischen jungen Menschen den Anforderungen einer Berufsausbildung gewachsen, da „neben dem erreichten kognitiven Leistungsniveau die psychopathologischen Auffälligkeiten entscheidend für die Ausbildungsfähigkeit sind“, was Geduld und möglicherweise eine längere Phase der Berufsvorbereitung erfordert, damit eine Ablehnung prinzipiell ausbildungsfähiger Jugendlicher vermieden wird. Verständnisvolle Vorgesetzte und Kollegen sind für Menschen mit Autismus unerlässlich. Wichtig sind außerdem geregelte Arbeitsabläufe, klare Aufgaben, überschaubare Sozialkontakte, eine eindeutige Kommunikation und die Vermeidung von Höflichkeitsfloskeln, welche zu Missverständnissen führen können. Auf der anderen Seite sind Autisten und den damit unter Umständen verbundenen Teilleistungsstärken teilweise gerade besonders gut für bestimmte Berufe bzw. Tätigkeiten geeignet. Viele Autisten erfüllen durch ihre kognitive Leistungsfähigkeit auch die Voraussetzungen für ein Studium, welches sich jedoch aufgrund der nicht fest vorgeschriebenen Struktur in die Länge ziehen kann. Ein wichtiges Ziel für autistische Erwachsene ist es, eine zum eigenen Stärke-Schwäche-Profil passende Nische zu finden, in der sie gut zurechtkommen. Der richtige Arbeitsplatz, der besondere Eigenarten der jeweiligen Person berücksichtigt, kann schwierig zu finden, aber oft auch sehr erfüllend sein. Verschiedene Unternehmen suchen gezielt nach Autisten oder haben sich auf ihre Vermittlung spezialisiert. Der britische Psychologe Attwood schreibt über die Diagnose von „leicht autistischen“ Erwachsenen, dass diese teilweise gut zurechtkommen, wenn sie etwa einen passenden Arbeitsplatz gefunden haben, aber im Fall von Krisen – etwa durch Erwerbslosigkeit – von ihrem Wissen über das Asperger-Syndrom zur Bewältigung von Krisen profitieren können. Behandlung Ausgehend von der individuellen Entwicklung wird bei autistischen Kindern ein Plan aufgestellt, in dem die Art der Behandlung einzelner Symptome festgelegt und aufeinander abgestimmt wird. Dem Übereinkommen über die Rechte von Menschen mit Behinderungen (UN-Behindertenrechtskonvention) entsprechend sollte eine passende Umgebung geschaffen werden, in der alle Beteiligten lernen, wie sie die „Eigenarten“ des Kindes am besten berücksichtigen können. Bei Kindern wird das gesamte Umfeld (Eltern, Familien, Kindergarten, Schule) in den Behandlungsplan einbezogen. Angebote für Erwachsene sind vielerorts erst im Aufbau begriffen. Einen Überblick über Anwendungen, Therapien und Interventionen hat die englische National Autistic Society veröffentlicht. Eine Auswahl von Behandlungsmethoden soll im Folgenden kurz vorgestellt werden. Zur Behandlung bei Erwachsenen liegt eine umfassende Übersicht von 2013 durch die Freiburger Autismus-Studiengruppe vor. Die systematische Auswertung von Behandlungsversuchen bei älteren Jugendlichen und Erwachsenen ist (Stand 2017) – im Gegensatz zur Situation bei Kindern – noch unbefriedigend, was auf die historisch spätere Aufmerksamkeit bei der Erfassung dieser Altersgruppen zurückgeführt wurde. Therapie Die Verhaltenstherapie ist in der „Autismustherapie“ die am besten wissenschaftlich abgesicherte Therapieform. Zu den Wirkfaktoren der Verhaltenstherapie liegt eine umfassende Studie von 2014 vor. Ziel ist es, einerseits unangemessene Verhaltensweisen wie übermäßige Stereotypien oder (auto)aggressives Verhalten abzubauen und andererseits soziale und kommunikative Fertigkeiten aufzubauen. Im Prinzip wird dabei so vorgegangen, dass erwünschtes Verhalten durchgängig und erkennbar belohnt wird (positive Verstärkung). Verhaltenstherapien können entweder ganzheitlich oder auf einzelne Symptome ausgerichtet sein – und auch Begleiterscheinungen wie Schlaf- oder Angststörungen lassen sich verhaltenstherapeutisch behandeln. Verhaltenstherapien, die das Ziel haben, Autisten wie „normale“ oder nicht-autistische Menschen erscheinen zu lassen, werden jedoch kritisiert. Die behavioristisch geprägte Angewandte Verhaltensanalyse (Applied Behavior Analysis, ABA) soll möglichst früh beginnen. Zunächst wird anhand einer Systematik festgestellt, welche Fähigkeiten und Funktionen das Kind bereits besitzt und welche nicht. Hierauf aufbauend werden spezielle Programme erstellt, die das Kind befähigen sollen, die fehlenden Funktionen zu erlernen. Die Eltern werden in die Therapie einbezogen. Die Verfahrensweisen von ABA basieren im Wesentlichen auf Methoden des operanten Konditionierens. Hauptbestandteile sind Belohnung bei „richtigem Verhalten“ und Löschung bei „falschem“ Verhalten. Lernversuche und -erfolge sowie erwünschtes Verhalten werden möglichst direkt verstärkt, wobei primäre (wie Nahrungsmittel) und sekundäre Verstärker (wie Spielzeug) eingesetzt werden, um erwünschtes Verhalten zu belohnen. In den 1980er Jahren wurde ABA durch Jack Michael, Mark Sundberg und James Partington weiterentwickelt, indem auch die Vermittlung sprachlicher Fähigkeiten einbezogen wurde. Ein ganzheitlich orientiertes pädagogisches Förderkonzept ist TEACCH (Treatment and Education of Autistic and related Communication-handicapped Children), das sich sowohl an Kinder als auch an Erwachsene mit Autismus richtet. TEACCH ist darauf ausgerichtet, die Lebensqualität von Menschen mit Autismus zu verbessern und sie anzuleiten, sich im Alltag zurechtzufinden. Zentrale Annahmen des Konzeptes sind, dass Lernprozesse durch Strukturierung und Visualisierung bei Menschen mit autistischen Merkmalen eingeleitet werden können. Elterntraining Eine Reduzierung des Stresses der Eltern zeigt deutliche Besserungen im Verhalten ihrer autistischen Kinder. Es gibt starke Hinweise auf einen Zusammenhang zwischen der Stressbelastung der Eltern und den Verhaltensproblemen ihrer Kinder, unabhängig von der Schwere des Autismus'. Verhaltensprobleme der Kinder zeigen sich nicht vor, sondern auch während erhöhter Stressbelastung der Eltern. Die National Autistic Society hat das „NAS EarlyBird“ Programm entwickelt, ein dreimonatiges Trainingsprogramm für Eltern, um sie auf das Thema Autismus effektiv vorzubereiten. Nebst dem Stressmanagement kann Elterntraining auch auf eine Verbesserung von Begleitsymptomen wie Angst- und Schlafstörungen abzielen, bei Letzterem z. B. durch die Erstellung und Umsetzung eines Schlafplans und die Einführung bestimmter Rituale vor dem Zubettgehen. Medikamentöse Behandlung Die medikamentöse Behandlung von Begleitsymptomen wie etwa Angst, Depressionen, Aggressivität oder Zwängen mit Antidepressiva (etwa SSRI), atypischen Neuroleptika oder Benzodiazepinen kann eine Komponente im Gesamtbehandlungsplan sein. Für Kinder mit Schlafstörungen kann die Gabe von Melatonin helfen, wenn verhaltenstherapeutische Maßnahmen und Maßnahmen der Schlafhygiene allein nicht zum gewünschten Erfolg führen. Schlafstörungen sind bei Menschen mit Autismus-Spektrum-Störung multifaktoriell bedingt – für Kinder konnte zum Teil eine verringerte Produktion und Freisetzung von körpereigenem Melatonin gezeigt werden. In Studien mit retardiertem Melatonin zeigten autistische Kinder und Jugendliche wiederum eine verkürzte Einschlafzeit und eine erhöhte Gesamtschlafdauer. Mit besonderer Vorsicht ist bei der Gabe von Stimulanzien, wie sie bei Hyperaktivität (ADHS) verschrieben werden, vorzugehen, da sie bei Autismus und der hier häufig vorkommenden Überempfindlichkeit auf Reize der Sinnesorgane letztere noch verstärken können. Die Wirksamkeit von Methylphenidat ist bei Autisten reduziert (ca. 50 statt 75 Prozent der Patienten), 10-mal häufiger seien unerwünschte Nebenwirkungen wie z. B. Reizbarkeit oder Schlafstörungen. Ergänzende Maßnahmen Mögliche ergänzende Maßnahmen sind etwa Musik-, Kunst-, Massagetherapie oder der Einsatz von Therapierobotern (Keepon) oder Echolokationslauten (Dolphin Space). Sie können die Lebensqualität steigern, indem sie positiv auf Stimmung, Ausgeglichenheit und Kontaktfähigkeit einwirken. Therapeutisches Reiten und der Einsatz von Hunden sowohl zur Unterstützung von Therapien als auch zur Begleitung im Alltag gelten als besonders geeignet. Verfahren ohne Wirksamkeitsnachweis Weitere bekannte Maßnahmen sind Festhaltetherapie, Gestützte Kommunikation und Daily-Life-Therapie. Diese Maßnahmen „sind im Kontext der Behandlung des Autismus entweder äußerst umstritten und unglaubwürdig oder deren Annahmen und Versprechungen wurden durch wissenschaftliche Untersuchungen im Wesentlichen widerlegt“. Die Festhaltetherapie wurde 1984 von der US-amerikanischen Kinderpsychologin Martha Welch entwickelt und von Jirina Prekop im deutschen Sprachraum verbreitet. Ansatzpunkt bei dieser Therapie ist die nicht dem aktuellen Stand der Autismusforschung entsprechende Annahme, dass der Autismus eine emotionale Störung sei, die durch negative Einflüsse in der frühesten Kindheit hervorgerufen werde. Das betroffene Kind habe kein Urvertrauen aufbauen können. Bei der überaus umstrittenen Festhaltetherapie soll durch Festhalten des Kindes der Widerstand gegen Nähe und Körperkontakt gebrochen und so das Urvertrauen nachträglich entwickelt werden. Bedenklich bei der Festhaltetherapie „ist nicht nur die manchmal äußerst dramatisch und gewalttätig anmutende Vorgehensweise, sondern auch die dem Konzept mehr oder weniger zugrundeliegende These, dass das frühe Urvertrauen vom Kind nicht erworben werden konnte. Dies wird häufig von Eltern im Sinne einer persönlichen Schuld am Sosein ihres autistischen Kindes interpretiert“. Bei der Methode Gestützte Kommunikation benutzt die Person mit Autismus (gestützte Person) mit körperlicher Hilfestellung durch eine assistierende Person (Stützer) eine Kommunikationshilfe (Buchstabentafel, Kommunikationstafel, Computertastatur u. ä.). Durch diese gemeinsame Bedienung entsteht ein Text, dessen Autorenschaft der gestützten Person zugeschrieben wird. Die Stützer werden in Seminaren in die Gestützte Kommunikation eingeführt. Kritik an der Methode entzündet sich u. a. daran, dass in Blindversuchen nachgewiesen werden konnte, dass der Stützer den Schreiber unbewusst und unbeabsichtigt beeinflusste, sodass der Stützer und nicht die gestützte Person Urheber des Textes ist. Die Daily-Life-Therapie wurde erstmals 1964 in Japan angewandt. Dabei wird von der Grundhypothese ausgegangen, dass ein hohes Angstniveau bei Menschen mit Autismus durch körperliche Anstrengung beseitigt werden kann. Körperliche Anstrengung führt zu einer erhöhten Ausschüttung von Endorphinen, die schmerzlindernd oder schmerzunterdrückend (analgetisch) wirken. Des Weiteren gibt es verschiedene „biologisch begründete“ Therapiemethoden – etwa die Behandlung mit dem Darmhormon Sekretin –, unter Verwendung hoher Dosen von Vitaminen und Mineralien oder mit besonderen Diäten. Auch hier fehlen bisher Wirksamkeitsnachweise, sodass von diesen Maßnahmen abgeraten wird. Passende Umgebung Seit dem Inkrafttreten des Übereinkommens über die Rechte von Menschen mit Behinderungen (UN-Behindertenrechtskonvention) wird zumindest in Deutschland als zusätzliches Angebot für Kinder die Möglichkeit geschaffen, eine passende Umgebung zu gestalten. Defizite in der Entwicklung können bei einem förderlichen Umgang mit den Kindern sowie durch eine Umgebung, die Vertrautheit, Ruhe, Überschaubarkeit und Vorhersagbarkeit bietet, teilweise ausgeglichen werden. Ob hierbei zusätzlich Medikamente verordnet werden sollten, wird im Rahmen der Debatte um Neurodiversität kritisch diskutiert und verschieden gehandhabt. Mögliche Ursachen von Autismus Mögliche Ursachen oder Auslöser von Autismus werden heute auf unterschiedlichen Wissenschaftsgebieten erforscht. Allgemein anerkannt ist, dass genetische Faktoren und Umwelteinflüsse eine große Rolle spielen. Biomarker, die eine sichere Diagnose erlauben, waren Stand 2022 jedoch noch nicht bekannt. Als widerlegt gelten die noch bis in die 1960er-Jahre vertretene Ansicht, Autismus entstehe durch eine gefühlskalte Mutter (die sogenannte „Kühlschrankmutter“), sowie die Ende der 1990er Jahre verbreitete Besorgnis, Autismus könne durch Impfungen hervorgerufen werden (siehe „Der Fall Wakefield“, in dem die Untersuchung von 12 autistischen Kindern beschrieben wird). Biologische Erklärungsansätze Die biologischen Ursachen des gesamten Autismusspektrums liegen in entwicklungsbiologischen Abweichungen bei Entstehung und Wachstum des Gehirns. Verändert sind nach aktuellem Forschungsstand dabei sowohl Anatomie als auch Funktion, und insbesondere die Ausbildung bestimmter Nervenverbindungen (Konnektom). Gegenstand der Forschung sind die möglichen Ursachen dieser Abweichungen, die in erster Linie – aber nicht nur – die Embryonalentwicklung betreffen. Neben besonderen vererbten genetischen Bedingungen kommen im Prinzip alle Faktoren infrage, die die Arbeit der Gene in kritischen Zeitfenstern beeinflussen (Teratologie). Zwei Metaanalysen von Daten zur Kartierung des menschlichen Gehirns von 2021 und 2022 kamen – unabhängig voneinander – zu dem Ergebnis, dass bei Autismus-Patienten im Zusammenhang mit Empathie-Prozessen die Aktivität im rechtsseitigen Gyrus parahippocampalis im Vergleich zu gesunden Kontrollgruppen signifikant vermindert war. Diese Gehirnregion ist unter anderem an der Wahrnehmung von sozialen Situationen beteiligt. Genetische Faktoren Die genetischen Ursachen des Gesamtbereichs des Autismusspektrums haben sich als äußerst vielfältig und hochkomplex erwiesen. In einer Übersicht von 2011 wurden bereits 103 Gene und 44 Genorte (Genloci) als Kandidaten für eine Beteiligung identifiziert, und es wurde vermutet, dass die Zahlen weiter stark stiegen. Es wird allgemein davon ausgegangen, dass die immensen Kombinationsmöglichkeiten vieler genetischer Abweichungen die Ursache für die große Vielfalt und Breite des Autismusspektrums sind. Seit etwa 2010 hat sich zunehmend herausgestellt, dass neben den länger bekannten erblichen Veränderungen gerade bei Autismus submikroskopische Veränderungen in Chromosomen eine Schlüsselrolle spielen, nämlich die Kopienzahlvariationen. In erster Linie handelt es sich dabei um Genduplikation oder Gendeletion. Sie entstehen bei der Bildung von Eizellen der Mutter oder von Samenzellen des Vaters (Meiose). Das heißt, sie entstehen neu (de novo). Wenn ein Kind eine solche Abweichung von einem Elternteil erhält, kann es sie jedoch weiter vererben, und zwar mit einer Wahrscheinlichkeit von 50 Prozent. Dadurch ist es möglich, dass eine Abweichung, die zu Autismus beiträgt, nur einmalig bei einem Kind auftritt und nicht weiter vererbt wird oder aber auch mehrere Familienmitglieder in verschiedenen Generationen betrifft. In letzterem Fall kann zudem die Durchschlagskraft (Penetranz und Expressivität) einer solchen genetischen Abweichung von Person zu Person höchst unterschiedlich sein (0–100 %). Eineiige Zwillinge weisen im Regelfall beide eine Autismus-Spektrum-Störung auf. Moderne Analysemethoden (DNA-Chip-Technologie) erlauben die Feststellung genetischer Abweichungen (Analyse des Karyotyps), die zur Ausprägung der Spektrum-Störung führen, wobei die Einbeziehung von Familienmitgliedern oft hilfreich oder sogar notwendig ist. Die Ergebnisse können dann die Grundlage von genetischen Beratungen bilden. Atypische Konnektivität 2004 entdeckte eine Forschergruppe um Marcel Just und Nancy Minshew an der Carnegie Mellon University in Pittsburgh (USA) die Erscheinung der veränderten Konnektivität (großräumiger Informationsfluss, engl. connectivity) im Gehirn bei den Gruppendaten von 17 Probanden aus dem Asperger-Bereich des Autismusspektrums. Funktionelle Gehirnscans (fMRI) zeigten im Vergleich zur Kontrollgruppe sowohl Bereiche erhöhter als auch Bereiche verminderter Aktivität sowie eine verminderte Synchronisation der Aktivitätsmuster verschiedener Gehirnbereiche. Auf der Grundlage dieser Ergebnisse entwickelten die Autoren erstmals die Theorie der Unterkonnektivität (underconnectivity) für die Erklärung des Autismusspektrums. Die Ergebnisse wurden relativ schnell in weiteren Studien bestätigt, ausgebaut und präzisiert, und das Konzept der Unterkonnektivität wurde entsprechend fortentwickelt. Bezüglich anderer Theorien wurde es nicht als Gegenmodell, sondern als übergreifendes Generalmodell präsentiert. In den folgenden Jahren nahm die Anzahl der Studien zur Konnektivität beim Autismusspektrum explosionsartig zu. Dabei wurde neben eher globaler Unterkonnektivität häufig auch eher lokale Überkonnektivität gefunden. Letztere wird allerdings – gestützt auf Kenntnisse der frühkindlichen Gehirnentwicklung bei Autismus – eher als Überspezialisierung und nicht als Steigerung der Effektivität verstanden. Um beide Erscheinungen zu berücksichtigen, wird das Konzept nun atypische Konnektivität genannt. Es zeichnet sich ab (Stand: Juli 2015), dass es sich als Konsensmodell in der Forschung etabliert. Dies gilt auch, wenn der Asperger-Bereich des Autismusspektrums für sich betrachtet wird. Die beim Autismusspektrum vorliegende atypische Konnektivität wird verstanden als Ursache des hier beobachteten besonderen Verhaltens, wie etwa bei der Erfassung von Zusammenhängen zwischen Dingen, Personen, Gefühlen und Situationen. Umwelt- und mögliche kombinierte Faktoren Früher gab es den Verdacht, dass Umweltgifte oder Impfstoff-Zusätze (Thiomersal) die Entstehung von Autismus begünstigen könnten. Nach dem Stand von 2017 gilt Ersteres als nicht ausreichend erforscht. Während die Hypothese, dass ein Zusatz von Thiomersal in Impfstoffen das Risiko von ASS erhöhen könnte, als vielfach widerlegt gilt, ist der mögliche Einfluss erhöhter Aufnahme von Quecksilber und anderer Substanzen aufgrund widersprüchlicher Untersuchungsergebnisse noch umstritten. Eine Studie der Swinburne University im Journal of Toxicology and Environmental Health aus dem Jahr 2011, die auf einer Umfrage unter den Enkelkindern der Überlebenden der „Rosa-Krankheit“ basiert (Infantile Akrodynie, ab 1931 auch Feersche Krankheit genannt, eine wahrscheinlich durch Quecksilberintoxikation verursachte Stammhirnenzephalopathie mit Haut- und multiplen Organsymptomen bei Kleinkindern), legt nahe, dass tatsächlich eine Kombination aus genetischen und umweltbedingten Faktoren bei der Entstehung autistischer Symptome eine Rolle spielen könnte, allerdings nur bei Kindern mit einer (angeborenen) Präposition für Quecksilber-Überempfindlichkeit. Die Studie verweist allerdings darauf, dass sich die Autismusdiagnosen in dieser Studie nicht bestätigt hätten. Für die weitere Erforschung eines möglichen Zusammenhangs zwischen Autismus und Quecksilbervergiftung in vergleichbar hohen Mengen sei zunächst die weitere Erforschung der „Rosa-Krankheit“ erforderlich. In den 50er-Jahren wurde Quecksilber in wesentlichen Mengen gegen Kinderkrankheiten verabreicht, diese Form der Akrodynie ist seit damals praktisch verschwunden. In der Studie wurden offenbar weder die Betroffenen selbst untersucht noch eine Übertragbarkeit zwischen der Akrodynie und anderen Quecksilberbelastungen aufgezeigt. Widerlegte Erklärungsansätze Es taucht immer wieder das Gerücht auf, Autismus könne durch Impfungen etwa gegen Mumps, Masern oder Röteln (MMR) verursacht werden, wobei eine im Impfstoff enthaltene organische Quecksilberverbindung, das Konservierungsmittel Thiomersal, als auslösende Substanz verdächtigt wird. Derlei Berichte entbehren jedoch „jeglicher wissenschaftlicher Grundlage, so unterscheidet sich die Häufigkeit von Autismus nicht bei geimpften und ungeimpften Kindern.“ Durch verschiedene Studien ist der Zusammenhang zwischen Thiomersal enthaltenden Impfstoffen und Autismus mittlerweile widerlegt. Ungeachtet dessen ist heute in der Regel in Impfstoffen kein Thiomersal mehr enthalten. Eine Abnahme der Anzahl der Neuerkrankungen war erwartungsgemäß in Folge nicht zu beobachten – eine weitere Schwächung der „Autismus-durch-Impfung“-Hypothese. Die Annahmen, dass Autismus eine Folge von Impfschäden sein soll, ging auf eine Veröffentlichung von Andrew Wakefield in der Fachzeitschrift The Lancet 1998 zurück. 2004 wurde bekannt, dass Wakefield vor der Veröffentlichung von Anwälten, die Eltern Autismus-betroffener Kinder vertraten, 55.000 £ an Drittmitteln erhalten hatte. Diese suchten Verbindungen zwischen Autismus und der Impfung, um Hersteller des Impfstoffes zu verklagen. Die Gelder waren weder den Mitautoren noch der Zeitschrift bekannt gewesen. Daraufhin traten zehn der dreizehn Autoren des Artikels von diesem zurück. Im Januar 2010 entschied die britische Ärztekammer (General Medical Council), dass Wakefield „unethische Forschungsmethoden“ angewandt hatte und seine Ergebnisse in „unehrlicher“ und „unverantwortlicher“ Weise präsentiert wurden. The Lancet zog daraufhin Wakefields Veröffentlichung vollständig zurück. In der Folge wurde im Mai 2010 auch ein Berufsverbot in Großbritannien gegen ihn ausgesprochen. Die amerikanische Food and Drug Administration hat im September 2006 einen Zusammenhang zwischen Autismus und Impfstoffen als unbegründet abgewiesen, zahlreiche wissenschaftliche und medizinische Einrichtungen folgten dieser Einschätzung. Bis 2013 gab es widersprüchliche Hinweise zu der Hypothese, dass Systeme von Spiegelneuronen bei Menschen mit Autismus möglicherweise nicht hinreichend funktionstüchtig seien. In einer Metaanalyse von 2013 wurde dann festgestellt, dass es wenig gebe, das die Hypothese stütze, und dass das Datenmaterial eher mit der Annahme vereinbar sei, dass die absteigende (Top-down-)Modulierung sozialer Reaktionen bei Autismus atypisch sei. Die Theorie, dass eine Vermännlichung des Gehirns (Extreme Male Brain Theory) durch einen hohen Testosteronspiegel im Mutterleib ein Risikofaktor für ASS sein könnte, wurde in neueren Studien gezielt untersucht, konnte jedoch nicht bestätigt werden. Hierzu zählen auch Untersuchungen des Gehirns durch bildgebende Verfahren (fMRI). Es zeigte sich, dass männliche ASS-Patienten eher typisch weibliche Eigenschaften bei der Verbindung von Gehirnregionen (engl. connectivity) hatten – statt, wie in der Theorie der Vermännlichung des Gehirns vorhergesagt, besonders verstärkt männliche. Obwohl Verdauungsstörungen im Zusammenhang mit ASS oft beschrieben wurden, gibt es bis heute (Stand November 2015) keine zuverlässigen Daten zu einer möglichen Korrelation oder gar einem möglichen ursächlichen Zusammenhang – weder in die eine noch in die andere Richtung. Auties und Aspies Die Ausprägungen von Autismus umfassen ein breites Spektrum. Viele Menschen mit Autismus wünschen sich keine „Heilung“, da sie Autismus nicht als Krankheit, sondern als normalen Teil ihres Selbst betrachten. Viele Erwachsene mit „leichterem“ Autismus haben gelernt, mit ihrer Umwelt zurechtzukommen. Sie wünschen sich statt Pathologisierung oft nur die Toleranz durch ihre Mitmenschen. Auch sehen sie Autismus nicht als etwas von ihnen Getrenntes, sondern als integralen Bestandteil ihrer Persönlichkeit. Die australische Künstlerin und Kanner-Autistin Donna Williams hat in diesem Zusammenhang den Ausdruck Auties vorgeschlagen, der sich entweder speziell auf Menschen mit Kanner-Autismus bezieht, oder allgemein auf alle Menschen im Autismus-Spektrum. Williams gründete 1992 zusammen mit Kathy Lissner Grant und Jim Sinclair das Autism Network International (ANI) und gilt als Mitinitiatorin der Neurodiversitätsbewegung. Von der US-amerikanischen Erziehungswissenschaftlerin und Asperger-Autistin Liane Holliday Willey stammt der Ausdruck Aspies für Menschen mit Asperger-Syndrom. Die Psychologen Tony Attwood und Carol Gray richten in ihrem Essay Die Entdeckung von „Aspie“ den Blick auf positive Eigenschaften von Menschen mit Asperger-Syndrom. Die Ausdrücke Auties und Aspies wurden von vielen Selbsthilfeorganisationen von Menschen im Autismusspektrum übernommen. Um dem Wunsch vieler Autisten nach Toleranz durch ihre Mitmenschen Ausdruck zu verleihen, feiern einige seit 2005 jährlich am 18. Juni den Autistic Pride Day. Das Schlagwort der Autismusrechtsbewegung – „Neurodiversität“ (neurodiversity) – bringt die Idee zum Ausdruck, dass eine untypische neurologische Entwicklung einem normalen menschlichen Unterschied entspreche, der ebenso Toleranz verdiene wie jede andere (physiologische oder sonstige) menschliche Variante. Autismusforschung In der Grundlagenforschung wurde bei der visuellen Wahrnehmung von Autisten ein überscharfer Aufmerksamkeitswinkel festgestellt, der in seiner Schärfe (sharpness) stark mit der Schwere der autistischen Symptome korrelierte, sowie eine erhöhte Empfindlichkeit für visuelle Feinkontraste. Klinische Beobachtungen von Uta Frith (2003) verdeutlichten, dass Autisten häufig erhebliche Schwierigkeiten haben, sprachliche Äußerungen in der gegebenen sprachlichen Situation (Kontext) angemessen zu verstehen. Ergebnisse von Melanie Eberhardt und Christoph Michael Müller deuteten darauf hin, dass ein Autismus-Konzept einer am Detail orientierten Verarbeitung von Sprache viele Besonderheiten des Sprachverstehens autistischer Menschen erklären kann. Aktuelle Ergebnisse der internationalen Autismusforschung werden auf der seit 2007 jährlich stattfindenden Wissenschaftlichen Tagung Autismus-Spektrum (WTAS) vorgestellt. Diese Tagung ist mit Gründung der Wissenschaftlichen Gesellschaft Autismus-Spektrum (WGAS) 2008 auch deren wesentliches Organ. Ein besonderes Forschungszentrum im deutschsprachigen Raum ist das Universitäre Zentrum Autismus Spektrum (UZAS) in Freiburg. Autismus und Behinderung Barrierefreiheit Eine UN-Studie erkennt die kulturelle Eigenart von Autisten, barrierefrei online Gemeinschaften zu bilden, als im Rahmen der Menschenrechte gleichwertig an: Autisten haben in Deutschland das Recht auf barrierefreie fernschriftliche Kommunikation. Das kann beispielsweise einer Entscheidung des Bundessozialgerichts vom 14. November 2013 entnommen werden, die von der Enthinderungsselbsthilfe von Autisten für Autisten erstritten wurde. Grad der Behinderung Grad der Behinderung: Hilflosigkeit: Die vorgenannten Regelungen gelten seit dem 23. Dezember 2010 bzw. 5. November 2011. Autisten galten in Deutschland vor 2010/2011 nach den früheren Anhaltspunkten für die ärztliche Gutachtertätigkeit (AHG) im sozialen Entschädigungsrecht und nach dem Schwerbehindertenrecht Teil 2 SGB IX automatisch als Schwerbehinderte mit einem Grad der Behinderung (GdB) zwischen 50 und 100. Außerdem wurde bei autistischen Kindern mindestens bis zum 16. Lebensjahr Hilflosigkeit angenommen. Autismus und Kunst Manche autistische Menschen sind erfolgreich in der bildenden Kunst tätig. Es gibt in dieser Gruppe von Künstlern eine große Vielfalt von stilistischen Merkmalen, bildnerischen Ausdrucksformen und Verfahren. Kategorisieren lassen sich sogenannte Kritzelbilder und präschematische Darstellungen, abstrakte Malerei oder Farb-Form-Experimente, bildnerische Narrationen, surreal-phantastische Bildnerei, Collagen, seriell angelegten Musterbildungen aus geometrischen Figurationen oder einer fotorealistischen Präzisionsmalerei. Autismus in den Medien Dokumentationen Meine Welt hat tausend Rätsel – Leben und Denken hochbegabter Autisten – Dokumentation im Rahmen der ZDF-Sendung 37 Grad, Folge 572, Deutschland 2007, Regie: Chiara Sambucchi. Autisten – Dokumentarfilm von Wolfram Seeger für WDR und 3sat über das Haus Bucken in Velbert, ein privat organisiertes Heim, in dem 13 erwachsene Autisten leben. Deutschland 2009 (90 Min.). Alternative Kurzfassung: Der seltsame Sohn – Im Haus der Autisten – u. a. im Rahmen der WDR-Sendereihe Menschen hautnah ausgestrahlt, 2009 (44 Min.). Expedition ins Gehirn – 3-teilige Wissenschaftsdokumentation über Savants und Autisten mit Savant-Fähigkeiten, Arte und Radio Bremen, TR-Verlagsunion, 2006, ISBN 3-8058-3772-0 (DVD, deutsch/englisch, ca. 156 Min.). Sendungen des WDR-Fernsehmagazins Quarks & Co: Autismus – wenn Denken einsam macht. 2006. Was ist anders bei Nicole? Begegnung mit einer Autistin. 2008. Was ist Autismus? – Reihe im Rahmen des Schulfernsehens Planet Schule des SWR und WDR Fernsehens The Boy With The Incredible Brain – Reportage über Daniel Tammet im Rahmen der britischen TV-Serie Extraordinary People. 2005 (englisch). Wenn Veränderung ängstigt. Kurzfilm, Deutschland 2012, Regie: Christian Landrebe (7 Min.) Hilfe bei Autismus? Die Rolle der Bakterien – Dokumentation von Marion Gruner und Christopher Sumpton über Wissenschaftler, die Indizien für die Ursache der Störung in der menschlichen Darmflora suchen. Kanada 2012, Arte (52 Min.). Ines Schipperges: Autismus-Serie: Alle acht Folgen. In: SZ-Magazin, 28. März 2018. Ausgezeichnet mit dem DGPPN-Medienpreis für Wissenschaftsjournalismus in der Kategorie Gesellschaft. Kinofilme Im Folgenden eine Liste von Filmen, die Autismus als zentrales Thema behandeln: Adam (2009) The Accountant (mit Ben Affleck) Das Mercury Puzzle (mit Miko Hughes) Rain Man (mit Dustin Hoffman) Niemand hört den Schrei (mit Bradley Pierce) Ben X (mit Greg Timmermans) Ihr Name ist Sabine (mit Sabine Bonnaire) Du gehst nicht allein (Film über das Leben von Temple Grandin, mit Claire Danes) My Name Is Khan (mit Shah Rukh Khan) Der kalte Himmel Mozart und der Wal (Originaltitel: Mozart and the Whale, mit Josh Hartnett) Im Weltraum gibt es keine Gefühle (2011) Jimmie (2008) Matthijs’ Regeln (Originaltitel: De regels van Matthijs) (2012) Alles außer gewöhnlich (2019) Fernsehserien Aapki Antara (Indien 2009) The Big Bang Theory Kommissar Beck – Der Junge in der Glaskugel (Schweden 2001) Die Brücke – Transit in den Tod (Schweden/Dänemark 2011; deutsch als ZDF-Koproduktion) The Good Doctor (Vereinigte Staaten 2017) Atypical (Vereinigte Staaten 2017) Pablo (Großbritannien 2017–2020) Extraordinary Attorney Woo (Südkorea 2022) Der Alte (2017–2021 in der Figur des Lenny Wandmann, gespielt von Thimo Meitner) Hörfunk Thomas Gaevert: „Ich kriegte es nicht raus“ – Bericht aus der Welt der Autisten. Produktion: Südwestrundfunk 2005 – 25 Minuten; Erstsendung: 21. September 2005 auf SWR2 Literatur Aktuelle Leitlinien AWMF-Leitlinie Autismus-Spektrum-Störungen im Kindes-, Jugend- und Erwachsenenalter, Teil 1: Diagnostik. Deutsche Gesellschaft für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie, Stand 2016 (awmf.org; gültig von 2016 bis 2021). AWMF-Leitlinie Autismus-Spektrum-Störungen im Kindes-, Jugend- und Erwachsenenalter, Teil 2: Therapie. Deutsche Gesellschaft für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie und Deutsche Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde, Stand 2021 (awmf.org, gültig bis 2026) Werke von historischer Bedeutung Hans Asperger: Das psychisch abnorme Kind. In: Wiener Klinische Wochenzeitschrift. Jg. 51, 1938, , S. 1314–1317. Hans Asperger: Die „Autistischen Psychopathen“ im Kindesalter. In: Archiv für Psychiatrie und Nervenkrankheiten. Band 117, 1944, S. 73–136. doi:10.1007/bf01837709 Susan Folstein und Michael Rutter: Infantile Autism: a Genetic Study of 21 Twin Pairs. In: The Journal of Child Psychology and Psychiatry. Band 18, Nr. 4, 1977, S. 297–321, doi:10.1111/j.1469-7610.1977.tb00443.x Leo Kanner: Autistic disturbances of affective contact. In: Nervous Child. 1943, Band 2, S. 217–250. Lorna Wing und Judith Gould: Severe Impairments of Social Interaction and Associated Abnormalities in Children: Epidemiology and Classification In: Journal of Autism and Developmental Disorders, Band 9, Nr. 1, 1979, https://doi.org/10.1007/BF01531288 (Studie, die als wegbereitend für das Konzept des Autismusspektrums gilt). Lorna Wing: Asperger’s syndrome. A clinical account. In: Psychological medicine. Band 11, H. 1, Februar 1981, , S. 115–129, PMID 7208735 (wissenschaftliche Veröffentlichung, die maßgeblich dazu beitrug, die Bezeichnung Asperger-Syndrom international zu etablieren). Genetik des Autismusspektrums Anita Thapar und Michael Rutter: Genetic Advances in Autism. In: Journal of autism and developmental disorders. Band 51, Nummer 12, Dezember 2021, S. 4321–4332, doi:10.1007/s10803-020-04685-z, PMID 32940822, (Review). Neurobiologie des Autismusspektrums J. O. Maximo, E. J. Cadena, R. K. Kana: The implications of brain connectivity in the neuropsychology of autism. In: Neuropsychology review. Band 24, Nummer 1, März 2014, S. 16–31, doi:10.1007/s11065-014-9250-0, PMID 24496901, (Review). R. A. Müller, P. Shih, B. Keehn, J. R. Deyoe, K. M. Leyden, D. K. Shukla: Underconnected, but how? A survey of functional connectivity MRI studies in autism spectrum disorders. In: Cerebral cortex (New York, N.Y. 1991). Band 21, Nummer 10, Oktober 2011, S. 2233–2243, doi:10.1093/cercor/bhq296, PMID 21378114, (Review). Einführende Darstellungen Inge Kamp-Becker und Sven Bölte: Autismus. 3., aktualisierte Auflage. UTB 2021, ISBN 978-3-8252-5624-1. Lisa Habermann und Christian Kißler: Das autistische Spektrum aus wissenschaftlicher, therapeutischer und autistischer Perspektive. Springer, Wiesbaden 2022, ISBN 978-3-658-37601-7 Judith Sinzig: Frühkindlicher Autismus. Springer-Verlag, Berlin 2011, ISBN 978-3-642-13070-0; doi:10.1007/978-3-642-13071-7. Ludger Tebartz van Elst (Hrsg.): Autismus-Spektrum-Störungen im Erwachsenenalter. 3. Auflage. Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin 2021, ISBN 978-3-95466-645-4 Ratgeberliteratur Vera Bernard-Opitz und Andra Bernard: Kinder und Jugendliche mit Autismus-Spektrum-Störungen: Ein Praxishandbuch für Therapeuten, Eltern und Lehrer. 4. erweiterte und überarbeitete Auflage. Kohlhammer, Stuttgart 2020, ISBN 978-3-17-036514-8. Hannah Cholemkery, Janina Kitzerow, Sophie Soll und Christine M. Freitag: Ratgeber Autismus-Spektrum-Störungen: Informationen für Betroffene, Eltern, Lehrer und Erzieher. Hogrefe, Göttingen 2017, ISBN 978-3-8017-2705-5 Christine Preißmann: Autismus und Gesundheit: Besonderheiten erkennen – Hürden überwinden – Ressourcen fördern. W. Kohlhammer, 2017, ISBN 978-3-17-032027-7 Brita Schirmer: Elternleitfaden Autismus: Wie Ihr Kind die Welt erlebt. Mit gezielten Therapien wirksam fördern. Schwierige Alltagssituationen meistern. 3., überarbeitete Auflage, Trias, Stuttgart 2020, ISBN 978-3-432-11283-1. Therapeutische Ansätze Kristin Snippe: Autismus. Wege in die Sprache. 3. Auflage, Schulz-Kirchner Verlag, Idstein 2022, ISBN 978-3-8248-0999-8. Anne Häussler: Der TEACCH-Ansatz zur Förderung von Menschen mit Autismus: Einführung in Theorie und Praxis. 6., verbesserte Auflage. Modernes Lernen, Dortmund 2022, ISBN 978-3-8080-0924-6. Weblinks Einzelnachweise Krankheitsbild in Phoniatrie und Pädaudiologie Psychische Störung Kinder- und Jugendpsychiatrie Behinderungsart Wikipedia:Artikel mit Video Neurowissenschaften
429
https://de.wikipedia.org/wiki/Austria
Austria
Austria ist der latinisierte Name Österreichs. Er bezeichnete ursprünglich nur das heutige Niederösterreich, später die gesamte Habsburgermonarchie und in der spanischen Form Casa de Austria deren Herrscherdynastie. Er dient in verschiedenen Sprachen als Übersetzung für „Österreich“ und wird auch als Markenbegriff verwendet, um einen Österreichbezug herzustellen. Die Allegorie der Austria, ein Symbol des österreichischen Staats, wird als Frauengestalt mit einer Mauerkrone im Haar und einem Speer in der Hand dargestellt, die sich auf einen Wappenschild stützt. Wortherkunft und Geschichte Erstmals erwähnt wird der Name Austria in einer auf Latein verfassten Urkunde König Konrads III. vom 25. Feber 1147, die heute im Stift Klosterneuburg der Augustiner-Chorherren aufbewahrt wird. Darin ist die Rede von Gütern, die von den Austrie marchionibus, den Markgrafen Österreichs (Marchiones Austriae) verschenkt wurden. Die Bezeichnung geht jedoch nicht auf die lateinische, sondern auf die urgermanische Sprache zurück. Das althochdeutsche *austar- bedeutet soviel wie „östlich“ oder „im Osten“, und die altisländische Edda nennt den mythischen Zwerg des Ostens Austri. Eng mit dem Wort Austria verwandt sind auch die Namen Austrasien und Austrien für das Ostfrankenreich bzw. Ostreich. Auch in der älteren Bezeichnung Ostarrîchi ist die Wurzel ôstar- erkennbar. Auf Isländisch wird Österreich heute noch Austurríki (ausgesprochen mit anlautendem „Ö“, [ˈøistʏrˈriːcɪ]) genannt. Die Ähnlichkeit mit dem lateinischen Auster für „Südwind“ und terra australis für das „Südland“ Australien ist zufällig. Seit dem Mittelalter bezeichnete man das Erzherzogtum Österreich als Austria und den (Erz-)Herzog von Österreich als (Archi-)Dux Austriae. Seit dem 15. Jahrhundert wird der erstmals 1326 nachgewiesene Begriff domus Austriae für das gesamte Haus Österreich verwendet, dessen spanische Übersetzung Casa de Austria im engeren Sinne aber nur für die spanische Linie der Habsburger. Seit dem 18. Jahrhundert ist die Austria als Nationalallegorie Österreichs in der bildenden Kunst bekannt. Heutige Verwendung Länderkennzeichen In Österreich zugelassene Kraftfahrzeuge werden mit dem Buchstaben A als Länderkennzeichen gekennzeichnet. Nach dem früher üblichen Aufkleber, der bei Auslandsreisen am Wagenheck zu führen war, befindet sich der Buchstabe heute auf dem Euro-Kennzeichen. In der ISO-3166-Kodierliste findet sich Österreich mit den Kürzeln AT und AUT; die Top-Level-Domain ist .at. Führen des Namens der Republik in Firmennamen Die Führung des Wortes Austria in Unternehmensnamen (Firma) oder anderen Institutionen ist nur mit bundesbehördlicher Genehmigung zulässig.  Z2 Unternehmensgesetzbuch besagt Dieser Grundsatz wurde in Bezug auf die Namenszusätze Austria, austro – aber auch Österreich, österreichisch und die Namen anderer Gebietskörperschaften, wie steirisch, Vienna – dahingehend ausgelegt, dass sie Analoges gilt für Vereine und andere Verbände. Beispiele Staatliche Organisationen und Verbände: Agrarmarkt Austria (AMA) Austria Wirtschaftsservice Gesellschaft (aws) Austrian Business Agency (ABA) Film Austria Universitäre Organisationen und nahe Vereine Filmarchiv Austria Laxenburg Austria-Forum / AEIOU Österreich-Lexikon Graz Unternehmen: Austrian Airlines (AUA), ehem. staatliche Fluglinie, heute im Lufthansa-Konzern Unicredit Bank Austria (ehem. Bank Austria Creditanstalt AG), Kreditinstitut Austria-Collegialität (heute UNIQA), Versicherung Austro Control, österreichische zivile Luftraumüberwachung Location Austria, internationale Bewerbung des Filmproduktionsstandortes Österreich Austria Metall AG (AMAG), größter österreichischer Aluminiumhersteller Austria Presse Agentur (APA), größte nationale Nachrichtenagentur Austria Tabakwerke AG, Tabakwarenhersteller und -händler (ehem. Tabakregie, österr. Tabakmonopol, heute privatisiert) A1 Telekom Austria (ehem. Post- und Telegraphenverwaltung) Österreichische Sportvereine: FK Austria Wien, Erstligist SC Austria Lustenau, Erstligist SV Austria Salzburg, seit 2005 FC Red Bull Salzburg SV Austria Salzburg, 2005 gegründet SK Austria Klagenfurt, ehemaliger Erstligist ESV Austria Graz, ehemaliger Erstligist ESV Austria Innsbruck, ehemaliger Zweitligist Made in Austria Produkte aus Österreich erhalten die Herkunftsbezeichnung Made in Austria („hergestellt in Österreich“), das keinen expliziten rechtlichen Schutz genießt, aber durch gerichtliche Entscheide gesichert ist. Es gibt Bestrebungen, den Begriff durch Made in EU zu ersetzen. Bei Einhaltung bestimmter Bedingungen wird seit 1946 das österreichische Gütesiegel Austria Gütezeichen vergeben, das vom Wirtschaftsministerium überwacht wird. Siehe auch Geschichte Österreichs Wappen Österreichs, Flagge Österreichs, zu den Insignien der Republik Staatliche Auszeichnung, zur Führung des Staatswappens durch Firmen Austriaca Felix Austria Literatur Erich Zöllner: Der Österreichbegriff, 1988 Karl Roth: Oesterreich oder Oestreich. In: Kleine Beiträge zur deutschen Sprache, Geschichts- und Ortsforschung 1, 1850, S. 179–182. Weblinks Einzelnachweise Nationales Symbol (Österreich) Österreichische Auszeichnung Choronym Ersterwähnung 1147 Namensgeber für einen Asteroiden
430
https://de.wikipedia.org/wiki/Anatexis
Anatexis
Als Anatexis (griechisch ἀνάτηξις „Schmelzen“), auch Migmatisierung, bezeichnet man das partielle Aufschmelzen von Gesteinen der Erdkruste infolge von Temperaturerhöhung, Druckentlastung und/oder Fluidzufuhr (z. B. von H2O, CO2). Anatexis findet in der tieferen Erdkruste statt, zumeist im Laufe von Gebirgsbildungsprozessen, z. B. im Himalaya und den Alpen, aber auch im Thüringer Wald. Die resultierenden Gesteine werden als Migmatite bezeichnet bzw. als migmatisierte Gneise, Schiefer etc. Das Anfangsstadium der Aufschmelzung wird als Metatexis bezeichnet. Die Mobilisation findet hierbei nur an den Korngrenzen statt und betrifft nur einen Teil des Mineralbestands (partielle Schmelze). Im höheren Stadium, der Diatexis, werden zunehmend auch die dunklen (mafischen) Mineralbestandteile aufgeschmolzen, bis es schließlich zur Bildung von Magma und magmatischen Gesteinen kommt. Die mehr oder weniger aufgeschmolzenen Gesteine (Metatexite und Diatexite) werden als Migmatite (oder Anatexite) zusammengefasst. Bei granitischen Gesteinen findet die Anatexis unter fluidgesättigten Bedingungen bei Temperaturen oberhalb von 650 °C statt. Typische Drücke liegen bei 0,5 bis 1 GPa (entspricht dem Druck in 15 bis 35 km Tiefe). Hierbei werden hauptsächlich der Quarz und die Feldspäte aufgeschmolzen. Bei steigenden Temperaturen bilden sich sukzessive granitische, granodioritische und quarzdioritische Schmelzen. Basische Gesteine schmelzen erst bei deutlich höheren Temperaturen. Da Quarzite, Amphibolite und Kalksilikatfelse in der Natur praktisch nie als Anatexite angetroffen werden und selbst in ausgedehnten Migmatitgebieten als sogenannte Resisters unverändert erhalten sind, schätzt man die maximale Temperatur, die bei einer regionalen Aufschmelzung erreicht wird, auf etwa 800 °C. Siehe auch Metamorphose Literatur Petrologie
431
https://de.wikipedia.org/wiki/Axiomensystem
Axiomensystem
Ein Axiomensystem (auch: Axiomatisches System) ist ein System von grundlegenden Aussagen, Axiomen, die ohne Beweis angenommen und aus denen alle Sätze (Theoreme) einer Theorie logisch abgeleitet werden. Die Ableitung erfolgt dabei durch die Regeln eines formalen logischen Kalküls. Eine Theorie besteht aus einem Axiomensystem und all seinen daraus abgeleiteten Theoremen. Mathematische Theorien werden in der Regel als Elementare Sprache (auch: Sprache erster Stufe mit Symbolmenge) im Rahmen der Prädikatenlogik erster Stufe axiomatisiert. Allgemeines Ein Axiomensystem als Produkt der Axiomatisierung eines Wissensgebietes dient der präzisen, ökonomischen und übersichtlichen „Darstellung der in ihm geltenden Sätze und der zwischen ihnen bestehenden Folgerungszusammenhänge“. Die Axiomatisierung zwingt zugleich zu einer eindeutigen Begrifflichkeit. Elemente eines axiomatischen Systems sind: ein Alphabet, aus denen die Ausdrücke nach gewissen Regeln hergestellt werden; eine Menge von grundlegenden Ausdrücken – den Axiomen – und ein System logischer Schlussregeln (Kalkül) zur Ableitung weiterer Ausdrücke, den Theoremen. Ein Beispiel: Die Theorie der Gruppen Die Theorie der Gruppen formuliert man als elementare Sprache im Rahmen der Prädikatenlogik erster Stufe. Das Alphabet: Alle Ausdrücke der elementaren Sprache , die – zusätzlich zu den logischen Symbolen und der Gleichheit (hier mit dargestellt) – die Symbolmenge enthält. Dabei ist eine Konstante (neutrales Element), ein einstelliges Funktionssymbol (Inversion) und ein zweistelliges Funktionssymbol (Verknüpfung von Gruppenelementen). Die Gruppenaxiome sind Das verwendete logische System: Der Sequenzenkalkül der Prädikatenlogik erster Stufe Eigenschaften von Axiomensystemen Wir bezeichnen im Folgenden wie üblich die Ableitbarkeitsrelation des zugrundegelegten logischen Kalküls (Sequenzenkalkül, Kalkül des natürlichen Schließens) mit ; sei die zugehörige Inferenzoperation, die also jeder Menge M von Axiomen die zugehörige Theorie zuordnet. Die Inferenzoperation ist ein Hüllenoperator, d. h., es gilt insbesondere (Idempotenz des Hüllenoperators). Deshalb sind Theorien deduktiv abgeschlossen, man kann also nichts Weiteres aus T herleiten, was nicht schon aus M beweisbar wäre. M nennt man auch eine Axiomatisierung von T. Konsistenz Eine Menge von Axiomen (und auch die dazugehörende Theorie ) wird konsistent (oder widerspruchsfrei) genannt, falls man aus diesen Axiomen keine Widersprüche ableiten kann. Das bedeutet: Es ist nicht möglich, sowohl einen Satz als auch seine Negation mit den Regeln des Axiomensystems aus (bzw. ) herzuleiten. In Worten von Tarski: Unabhängigkeit Ein Ausdruck wird unabhängig von einer Menge von Axiomen genannt, wenn nicht aus den Axiomen in hergeleitet werden kann. Entsprechend ist eine Menge von Axiomen unabhängig, wenn jedes einzelne der Axiome in von den restlichen Axiomen unabhängig ist: für alle . Prägnant zusammengefasst: „Unabhängig sind die Axiome, wenn keines von ihnen aus den anderen ableitbar ist“. Syntaktische Vollständigkeit Eine Menge von Axiomen wird syntaktisch vollständig (auch negationstreu) genannt, wenn für jeden Satz der Sprache gilt, dass der Satz selbst oder seine Negation aus den Axiomen in hergeleitet werden kann. Dazu gleichbedeutend ist, dass jede Erweiterung von durch einen bisher nicht beweisbaren Satz widersprüchlich wird. Analoges gilt für eine Theorie. Vollständige Theorien zeichnen sich also dadurch aus, dass sie keine widerspruchsfreien Erweiterungen haben. Vorsicht: Die syntaktische Vollständigkeit einer Theorie darf nicht mit der semantischen Vollständigkeit aus der Modelltheorie verwechselt werden. Modelle und Beweise von Widerspruchsfreiheit, Unabhängigkeit und Vollständigkeit Für das Folgende nehmen wir an, dass der zugrundeliegende Kalkül korrekt ist; d. h., dass jede syntaktischen Ableitung auch die semantische Folgerung impliziert (dies ist eine Minimalforderung an ein axiomatisches System, die z. B. für den Sequenzenkalkül der Prädikatenlogik erster Stufe gilt). Wenn es zu einem Axiomensystem ein Modell besitzt, dann ist M widerspruchsfrei. Denn angenommen, es gäbe einen Ausdruck A mit und . Jedes Modell von M wäre dann sowohl Modell von als auch von – was nicht sein kann. Die Widerspruchsfreiheit eines Axiomensystems lässt sich also durch Angabe eines einzigen Modells zeigen. So folgt z. B. die Widerspruchsfreiheit der obigen Axiome der Gruppentheorie durch die Angabe der konkreten Menge mit und der Definition von durch die Addition modulo 2 (). Modelle kann man auch verwenden, um die Unabhängigkeit der Axiome eines Systems zu zeigen: Man konstruiert zwei Modelle für das Teilsystem, aus dem ein spezielles Axiom A entfernt wurde – ein Modell, in dem A gilt und ein anderes, in dem A nicht gilt. Zwei Modelle heißen isomorph, wenn es eine eineindeutige Korrespondenz zwischen ihren Elementen gibt, die sowohl Relationen als auch Funktionen erhält. Ein Axiomensystem, für das alle Modelle zueinander isomorph sind, heißt kategorisch. Ein kategorisches Axiomensystem ist vollständig. Denn sei das Axiomensystem nicht vollständig; d. h., es gebe einen Ausdruck A, für den weder A noch aus dem System herleitbar ist. Dann gibt es sowohl ein Modell für als auch eines für . Diese beiden Modelle, die natürlich auch Modelle für sind, sind aber nicht isomorph. Axiomensysteme in einzelnen Bereichen Logik Für die elementare Aussagenlogik, die Prädikatenlogik erster Stufe und verschiedene Modallogiken gibt es axiomatische Systeme, die die genannten Anforderungen erfüllen. Für die Prädikatenlogiken höherer Stufen lassen sich nur widerspruchsfreie, aber nicht vollständige axiomatische Systeme entwickeln. Das Entscheidungsproblem ist in ihnen nicht lösbar. Arithmetik Für die Arithmetik gilt der Gödelsche Unvollständigkeitssatz. Dies wird weiter unten diskutiert. Geometrie David Hilbert gelang es 1899, die euklidische Geometrie zu axiomatisieren. (Sonstige) Axiomensysteme aus dem Bereich der Mathematik Huntingtonsches Axiomensystem Peano-Dedekindsches Axiomensystem der Arithmetik Wahrscheinlichkeitstheorie Zermelo-Fraenkel-Mengenlehre Physik Günther Ludwig legte in den 1980er Jahren eine Axiomatisierung der Quantenmechanik vor Sprachwissenschaft Karl Bühler versuchte 1933, eine Axiomatik der Sprachwissenschaft zu entwickeln. Wirtschaftstheorie Arnis Vilks schlug 1991 ein Axiomensystem für die neoklassische Wirtschaftstheorie vor. Axiomatisches System und Gödelscher Unvollständigkeitssatz Die Gödelschen Unvollständigkeitssätze von 1931 sprechen über höchstens rekursiv aufzählbar axiomatisierte Theorien, die in der Logik erster Stufe formuliert sind. Es wird ein vollständiger und korrekter Beweiskalkül vorausgesetzt. Der erste Satz sagt aus: Falls die Axiome der Arithmetik widerspruchsfrei sind, dann ist die Arithmetik unvollständig. Es gibt also mindestens einen Satz , so dass weder noch seine Negation ¬ in der Arithmetik beweis­bar sind. Des Weiteren lässt sich zeigen, dass jede Erweiterung der Axiome, die rekursiv aufzählbar bleibt, ebenfalls unvollständig ist. Damit ist die Unvollständigkeit der Arithmetik ein systematisches Phänomen und lässt sich nicht durch eine einfache Erweiterung der Axiome beheben. Der zweite Unvollständigkeitssatz sagt aus, dass sich insbesondere die Widerspruchsfreiheit der Arithmetik nicht im axiomatischen System der Arithmetik beweisen lässt. Siehe auch Logische Aussage Axiomenschema Begriffssystem Euklid Formales System Quellen Logik
432
https://de.wikipedia.org/wiki/Axiom
Axiom
Ein Axiom (von griechisch ἀξίωμα axíoma, „Forderung; Wille; Beschluss; Grundsatz; philos. (...) Satz, der keines Beweises bedarf“, „Wertschätzung, Urteil, als wahr angenommener Grundsatz“) ist ein Grundsatz einer Theorie, einer Wissenschaft oder eines axiomatischen Systems, der innerhalb dieses Systems weder begründet noch deduktiv abgeleitet, sondern als Grundlage willentlich akzeptiert oder gesetzt wird. Abgrenzungen Innerhalb einer formalisierbaren Theorie ist eine These ein Satz, der bewiesen werden soll. Ein Axiom dagegen ist ein Satz, der nicht in der Theorie bewiesen werden soll, sondern beweislos vorausgesetzt wird. Wenn die gewählten Axiome der Theorie logisch unabhängig sind, so kann keines von ihnen aus den anderen hergeleitet werden. Im Rahmen eines formalen Kalküls sind die Axiome dieses Kalküls immer ableitbar. Dabei handelt es sich im formalen oder syntaktischen Sinne um einen Beweis; semantisch betrachtet handelt es sich um einen Zirkelschluss. Ansonsten gilt: „Geht eine Ableitung von den Axiomen eines Kalküls bzw. von wahren Aussagen aus, so spricht man von einem Beweis.“ Axiom wird als Gegenbegriff zu Theorem (im engeren Sinn) verwendet. Theoreme wie Axiome sind Sätze eines formalisierten Kalküls, die durch Ableitungsbeziehungen verbunden sind. Theoreme sind also Sätze, die durch formale Beweisgänge von Axiomen abgeleitet werden. Mitunter werden die Ausdrücke These und Theorem jedoch im weiteren Sinn für alle gültigen Sätze eines formalen Systems verwendet, d. h. als Oberbegriff, der sowohl Axiome als auch Theoreme im ursprünglichen Sinn umfasst. Axiome können somit als Bedingungen der vollständigen Theorie verstanden werden, insofern diese in einem formalisierten Kalkül ausdrückbar sind. Innerhalb einer interpretierten formalen Sprache können verschiedene Theorien durch die Auswahl der Axiome unterschieden werden. Bei nicht-interpretierten Kalkülen der formalen Logik spricht man statt von Theorien allerdings von logischen Systemen, die durch Axiome und Schlussregeln vollständig bestimmt sind. Dies relativiert den Begriff der Ableitbarkeit oder Beweisbarkeit: Sie besteht immer nur in Bezug auf ein gegebenes System. Die Axiome und die abgeleiteten Aussagen gehören zur Objektsprache, die Regeln zur Metasprache. Ein Kalkül ist jedoch nicht notwendigerweise ein Axiomatischer Kalkül, der also „aus einer Menge von Axiomen und einer möglichst kleinen Menge von Schlussregeln“ besteht. Daneben gibt es auch Beweis-Kalküle und Tableau-Kalküle. Immanuel Kant bezeichnet Axiome als „synthetische Grundsätze a priori, sofern sie unmittelbar gewiß sind“ und schließt sie durch diese Definition aus dem Bereich der Philosophie aus. Diese nämlich gründe sich auf Begriffe, die als abstrakte Vorstellungsbilder niemals als Gegenstand unmittelbarer Anschauung (Evidenz) besitzen. Daher grenzt er die diskursiven Grundsätze der Philosophie von den intuitiven der Mathematik ab: Erstere müssten sich „bequemen, ihre Befugniß wegen derselben durch gründliche Deduction zu rechtfertigen“ und erfüllen daher nicht die Kriterien eines a priori. Unterscheidungen Der Ausdruck Axiom wird in drei Grundbedeutungen verwendet. Er bezeichnet einen unmittelbar einleuchtenden Grundsatz – den klassischen (materialen) Axiombegriff, ein Naturgesetz, das als Prinzip für empirisch gut bestätigte Regeln postuliert werden kann – den naturwissenschaftlichen (physikalischen) Axiombegriff, einen Ausgangssatz, der in einem Kalkül einer formalen Sprache als gültig vorausgesetzt wird – den modernen (formalen) Axiombegriff. Klassischer Axiombegriff Der klassische Axiombegriff wird auf die Elemente der Geometrie des Euklid und die Analytica posteriora des Aristoteles zurückgeführt. Axiom bezeichnet in dieser Auffassung ein unmittelbar einleuchtendes Prinzip bzw. eine Bezugnahme auf ein solches. Ein Axiom in diesem essentialistischen Sinne bedarf aufgrund seiner Evidenz keines Beweises. Axiome wurden dabei angesehen als unbedingt wahre Sätze über existierende Gegenstände, die diesen Sätzen als objektive Realitäten gegenüberstehen. Diese Bedeutung war bis in das 19. Jahrhundert hinein vorherrschend. Am Ende des 19. Jahrhunderts erfolgte eine „Abnabelung der Geometrie von der Wirklichkeit“. Die systematische Untersuchung unterschiedlicher Axiomensysteme für unterschiedliche Geometrien (euklidische, hyperbolische, sphärische Geometrie usw.), die unmöglich allesamt die aktuale Welt beschreiben konnten, musste zur Folge haben, dass der Axiombegriff formalistischer verstanden wurde und Axiome insgesamt im Sinne von Definitionen einen konventionellen Charakter erhielten. Als wegweisend erwiesen sich die Schriften David Hilberts zur Axiomatik, der das aus den empirischen Wissenschaften stammende Evidenzpostulat durch die formalen Kriterien von Vollständigkeit und Widerspruchsfreiheit ersetzte. Eine alternative Auffassungsweise bezieht daher ein Axiomensystem nicht einfach hin auf die aktuale Welt, sondern folgt dem Schema: Wenn irgendeine Struktur die Axiome erfüllt, dann erfüllt sie auch die Ableitungen aus den Axiomen (sog. Theoreme). Derartige Auffassungen lassen sich im Implikationismus, Deduktivismus oder eliminativen Strukturalismus verorten. In axiomatisierten Kalkülen im Sinne der modernen formalen Logik können die klassischen epistemologischen (Evidenz, Gewissheit), ontologischen (Referenz auf ontologisch Grundlegenderes) oder konventionellen (Akzeptanz in einem bestimmten Kontext) Kriterien für die Auszeichnung von Axiomen entfallen. Axiome unterscheiden sich von Theoremen dann nur formal dadurch, dass sie die Grundlage logischer Ableitungen in einem gegebenen Kalkül sind. Als „grundsätzliches“ und „unabhängiges“ Prinzip sind sie innerhalb des Axiomensystems nicht aus anderen Ausgangssätzen abzuleiten und a priori keines formalen Beweises bedürftig. Naturwissenschaftlicher Axiombegriff In den empirischen Wissenschaften bezeichnet man als Axiome auch grundlegende Gesetze, die vielfach empirisch bestätigt worden sind. Als Beispiel werden die Newtonschen Axiome der Mechanik genannt. Auch wissenschaftliche Theorien, insbesondere die Physik, beruhen auf Axiomen. Aus diesen werden Theorien geschlussfolgert, deren Theoreme und Korollare den Ausgang von Experimenten vorhersagen können. Stehen Aussagen der Theorie im Widerspruch zur experimentellen Beobachtung, werden die Axiome angepasst. Beispielsweise liefern die Newtonschen Axiome nur für „langsame“ und „große“ Systeme gute Vorhersagen und sind durch die Axiome der speziellen Relativitätstheorie und der Quantenmechanik abgelöst bzw. ergänzt worden. Trotzdem verwendet man die Newtonschen Axiome weiter für solche Systeme, da die Folgerungen einfacher sind und für die meisten Anwendungen die Ergebnisse hinreichend genau sind. Formaler Axiombegriff Durch Hilbert (1899) wurde ein formaler Axiombegriff herrschend: Ein Axiom ist jede unabgeleitete Aussage. Dies ist eine rein formale Eigenschaft. Die Evidenz oder der ontologische Status eines Axioms spielen keine Rolle und bleiben einer gesondert zu betrachtenden Interpretation überlassen. Ein Axiom ist dann eine grundlegende Aussage, die Bestandteil eines formalisierten Systems von Sätzen ist, ohne Beweis angenommen wird und aus der zusammen mit anderen Axiomen alle Sätze (Theoreme) des Systems logisch abgeleitet werden. Teilweise wird behauptet, in diesem Verständnis seien Axiome völlig willkürlich: Ein Axiom sei „ein unbewiesener und daher unverstandener Satz“, denn ob ein Axiom auf Einsicht beruht und daher „verstehbar“ ist, spielt zunächst keine Rolle. Richtig daran ist, dass ein Axiom – bezogen auf eine Theorie – unbewiesen ist. Das heißt aber nicht, dass ein Axiom unbeweisbar sein muss. Die Eigenschaft, ein Axiom zu sein, ist relativ zu einem formalen System. Was in einer Wissenschaft ein Axiom ist, kann in einer anderen ein Theorem sein. Ein Axiom ist unverstanden nur insofern, als seine Wahrheit formal nicht bewiesen, sondern vorausgesetzt ist. Der moderne Axiombegriff dient dazu, die Axiomeigenschaft von der Evidenzproblematik abzukoppeln, was aber nicht notwendigerweise bedeutet, dass es keine Evidenz gibt. Es ist allerdings ein bestimmendes Merkmal der axiomatischen Methode, dass bei der Deduktion der Theoreme nur auf der Basis formaler Regeln geschlossen wird und nicht von der Deutung der axiomatischen Zeichen Gebrauch gemacht wird. Die Frage, ob es (mathematische, logische, reale) Objekte gibt, für die das Axiomensystem zutrifft, interessiert zunächst nicht, wird aber mit der Widerspruchsfreiheit grob gleichgesetzt. Natürlich gelten Beispielobjekte, bei denen man mit dem Axiomensystem erfolgreich arbeiten kann, als Beleg für die Existenz solcher Objekte und für die Widerspruchsfreiheit des Axiomensystems. Beispiele für Axiome Traditionelle Logik Satz von der Identität Satz vom Widerspruch Satz vom ausgeschlossenen Dritten Satz vom zureichenden Grund Klassische Logik Komprehensionsaxiom: „Zu jedem Prädikat P gibt es die Menge aller Dinge, die dieses Prädikat erfüllen.“ Die ursprüngliche Formulierung stammt aus der naiven Mengenlehre Georg Cantors und schien lediglich den Zusammenhang zwischen Extension und Intension eines Begriffs klar auszusprechen. Es bedeutete einen großen Schock, als sich herausstellte, dass es in der Axiomatisierung durch Gottlob Frege nicht widerspruchsfrei zu den anderen Axiomen hinzugefügt werden konnte, sondern die Russellsche Antinomie hervorrief. Mathematik Generell werden in der Mathematik Begriffe wie natürliche Zahlen, Monoid, Gruppe, Ring, Körper, Hilbertraum, Topologischer Raum etc. durch ein System von Axiomen charakterisiert. Man spricht bspw. von den Peano-Axiomen (für die natürliche Zahlen), den Gruppenaxiomen, den Ringaxiomen usw. Manchmal werden einzelne Forderungen (auch die Folgerungen) in einem System auch Gesetz genannt (z. B. das Assoziativgesetz). Ein spezielles Axiomensystem der genannten Beispiele – die natürlichen Zahlen mit den Peano-Axiomen ggf. ausgenommen (s. u.) – ist durchaus als Definition aufzufassen. Damit man nämlich ein gewisses mathematisches Objekt, bspw. als Monoid ansprechen (und danach weitere Eigenschaften folgern) kann, ist nachzuweisen (mithilfe anderer Axiome oder Theoreme), dass die Forderungen, die im Axiomensystem des Monoids formuliert sind, allesamt für das Objekt zutreffen. Ein wichtiges Beispiel ist die Hintereinanderausführung von Funktionen, bei der der Nachweis der Assoziativität nicht völlig trivial ist. Misslänge nämlich dieser Nachweis bei einem der Axiome, dann könnte das betreffende Objekt nicht als Monoid angesehen werden. (Außerordentlich schwierig ist der auf D. Knuth zurückgehende Nachweis der Assoziativität der Fibonacci-Multiplikation.) Insofern sind viele der genannten „Axiomensysteme“ überhaupt nicht (und stehen geradezu im Gegensatz zu) grundlegende/n Aussagen, die als „unabgeleitete Aussagen“ „ohne Beweis angenommen“ werden. Die Körperaxiome in Verbindung mit den Anordnungsaxiomen und dem Vollständigkeitsaxiom definieren die reellen Zahlen. Parallelenaxiom: „Zu jeder Geraden und jedem Punkt, der nicht auf dieser Geraden liegt, gibt es genau eine zu der Geraden parallele Gerade durch diesen Punkt.“ Dieses Postulat der euklidischen Geometrie galt immer als weniger einleuchtend als die anderen. Da seine Gültigkeit bestritten wurde, versuchte man, es aus den anderen Definitionen und Postulaten abzuleiten. Im Rahmen der Axiomatisierung der Geometrie um die Wende zum 19. Jahrhundert stellte sich heraus, dass eine solche Ableitung nicht möglich ist, da es von der Axiomatisierung der anderen Postulate logisch unabhängig ist. Damit war der Weg frei zur Anerkennung nichteuklidischer Geometrien. Der Begriff „Wahrscheinlichkeit“ wird seit 1933 durch ein von Kolmogorow aufgestelltes Axiomensystem exakt implizit definiert. Damit wurden alle verschiedenen stochastischen Schulen – Franzosen, Deutsche, Briten, Frequentisten, Bayesianer, Probabilisten und Statistiker – erstmals mit einer einheitlichen Theorie versorgt. Obwohl es andere grundlegende Systeme (Theorien erster Ordnung) durchaus gibt, werden für das Zählen in den natürlichen Zahlen die Peano-Axiome allermeist ohne weitere Rückführung zugrunde gelegt. Beispielsweise: „Jede natürliche Zahl n hat genau einen Nachfolger n+1.“ist eine Zusammenfassung der Axiome 2 und 4 der Peano-Axiome. Das Axiom der vollständigen Induktion (Peano-Axiom Nummer 5) stellt eine außerordentlich wichtige Beweismethode in der Mathematik dar. Physik Vorschläge zur Axiomatisierung wichtiger Teilgebiete Auch Theorien der empirischen Wissenschaften lassen sich „axiomatisiert“ rekonstruieren. In der Wissenschaftstheorie existieren allerdings unterschiedliche Auffassungen darüber, was es überhaupt heißt, eine „Axiomatisierung einer Theorie“ vorzunehmen. Für unterschiedliche physikalische Theorien wurden Axiomatisierungen vorgeschlagen. Hans Reichenbach widmete sich u. a. in drei Monographien seinem Vorschlag einer Axiomatik der Relativitätstheorie, wobei er insbesondere stark von Hilbert beeinflusst war. Auch Alfred Robb und Constantin Carathéodory legten Axiomatisierungsvorschläge zur speziellen Relativitätstheorie vor. Sowohl für die spezielle wie für die allgemeine Relativitätstheorie existiert inzwischen eine Vielzahl von in der Wissenschaftstheorie und in der Philosophie der Physik diskutierten Axiomatisierungsversuchen. Patrick Suppes und andere haben etwa für die klassische Partikelmechanik in ihrer Newtonschen Formulierung eine vieldiskutierte axiomatische Rekonstruktion im modernen Sinne vorgeschlagen, ebenso legten bereits Georg Hamel, ein Schüler Hilberts, sowie Hans Hermes Axiomatisierungen der klassischen Mechanik vor. Zu den meistbeachteten Vorschlägen einer Axiomatisierung der Quantenmechanik zählt nach wie vor das Unternehmen von Günther Ludwig. Für die Axiomatische Quantenfeldtheorie war v. a. die Formulierung von Arthur Wightman aus den 1950er Jahren wichtig. Im Bereich der Kosmologie war für Ansätze einer Axiomatisierung u. a. Edward Arthur Milne besonders einflussreich. Für die klassische Thermodynamik existieren Axiomatisierungsvorschläge u. a. von Giles, Boyling, Jauch, Lieb und Yngvason. Für alle physikalischen Theorien, die mit Wahrscheinlichkeiten operieren, insbes. die Statistische Mechanik, wurde die Axiomatisierung der Wahrscheinlichkeitsrechnung durch Kolmogorow wichtig. Verhältnis von Experiment und Theorie Die Axiome einer physikalischen Theorie sind weder formal beweisbar noch, so die inzwischen übliche Sichtweise, direkt und insgesamt durch Beobachtungen verifizierbar oder falsifizierbar. Einer insbesondere im wissenschaftstheoretischen Strukturalismus verbreiteten Sichtweise von Theorien und ihrem Verhältnis zu Experimenten und resultierenden Redeweise zufolge betreffen Prüfungen einer bestimmten Theorie an der Realität vielmehr üblicherweise Aussagen der Form „dieses System ist eine klassische Partikelmechanik“. Gelingt ein entsprechender Theorietest, wurden z. B. korrekte Prognosen von Messwerten angegeben, kann diese Überprüfung ggf. als Bestätigung dafür gelten, dass ein entsprechendes System zutreffenderweise unter die intendierten Anwendungen der entsprechenden Theorie gezählt wurde, bei wiederholten Fehlschlägen kann und sollte die Menge der intendierten Anwendungen um entsprechende Typen von Systemen reduziert werden. Literatur Artikel in fachbezogenen Enzyklopädien und Wörterbüchern Axiom. In: Jürgen Mittelstraß (Hrsg.): Enzyklopädie Philosophie und Wissenschaftstheorie. Band 1. B. I.-Wissenschaftsverlag, 1980. Logical Terms, Glossary of. In: Paul Edwards (Hrsg.): The Encyclopedia of Philosophy. Vol. 5. Collier Macmillan, 1972. Axiom. In: Arnim Regenbogen & Uwe Meyer (Hrsg.): Wörterbuch der philosophischen Begriffe. Meiner, Hamburg 2006, ISBN 3-7873-1761-9. Axiom. In: Helmut Seiffert: Einführung in die Wissenschaftstheorie. Band 4: Wörterbuch der wissenschaftstheoretischen Terminologie. Beck, München 1997, ISBN 3-406-42200-4. Axiom. In: Wulff D. Rehfus (Hrsg.): Handwörterbuch Philosophie. CD-ROM. Vandenhoeck und Ruprecht, Göttingen 2005, ISBN 3-525-30148-0. Axiom. In: Hadumod Bußmann (Hrsg.): Lexikon der Sprachwissenschaft. 3., aktualisierte und erweiterte Auflage. Kröner, Stuttgart 2002, ISBN 3-520-45203-0. axiôma (Annahme, Forderung, Postulat, Axiom). In: Christoph Horn & Christof Rapp (Hrsg.): Wörterbuch der antiken Philosophie. C.H. Beck, München, 2002, ISBN 978-3406476235. Monographien Evandro Agazzi: Introduzione ai problemi dell’assiomatica. Milano 1961. Robert Blanché: Axiomatics. Routledge, London 1962. Euklid: Die Elemente. Harri Deutsch, Frankfurt am Main, 4. erw. Auflage. 2005. David Hilbert u. a.: Grundlagen der Geometrie. Teubner 2002, ISBN 3-519-00237-X. Árpád Szabó: Anfänge der griechischen Mathematik. Oldenbourg 1969, ISBN 3-486-47201-1. Bochenski: Die zeitgenössischen Denkmethoden. 10. Auflage. 1993, S. 73 ff. Carnap: Einführung in die symbolische Logik. 3. Auflage. 1968, S. 172 ff. Hilbert/Ackermann: Grundzüge der theoretischen Logik. 6. Auflage. 1972, S. 24. Kutschera: Frege. 1989, S. 154 f. Hermann Schüling: Die Geschichte der axiomatischen Methode im 16. und beginnenden 17. Jahrhundert. Wandlung der Wissenschaftsauffassung. [Studien und Materialien zur Geschichte der Philosophie; 13]. Georg Olms, Hildesheim 1969. Nagel, Newmann: Der Gödelsche Beweis. In: Meixner (Hrsg.): Philosophie der Logik. 2003, S. 150 (169). Tarski: Einführung in die mathematische Logik. 5. Auflage. 1977, S. 126 ff. Weblinks Einzelnachweise Wissenschaftstheorie Erkenntnistheorie Logik
435
https://de.wikipedia.org/wiki/Akrostichon
Akrostichon
Ein Akrostichon (von , ‚Spitze‘, und στίχος stíchos ‚Vers‘, ‚Zeile‘) ist ein Gedicht (meist in Versform), bei dem die Anfänge von Wort- oder Versfolgen (Buchstaben bei Wortfolgen oder Wörter bei Versfolgen, auch Anfangssilben) hintereinander gelesen einen eigenen Sinn, beispielsweise einen Namen oder einen Satz, ergeben. Die deutsche Bezeichnung für diese literarische Form ist Leistenvers oder Leistengedicht. Akrosticha gehören sowohl zur Kategorie der Steganographie als auch zu den rhetorischen Figuren. Sie sind abzugrenzen gegen reine Abkürzungen beziehungsweise Aneinanderreihungen von Wörtern, also beispielsweise Akronyme wie INRI. In der jüdischen Literatur sind Akrosticha weit verbreitet, angefangen mit der hebräischen Bibel. Die Klagelieder Jeremias haben bis auf Kapitel 5 einen akrostischen Aufbau. In einigen Psalmen folgen die jeweils ersten Buchstaben von 22 Versen der Reihe der 22 Buchstaben des hebräischen Alphabetes (Psalmen 9 und 10, 25, 34, 37, 111, 112, 119 und 145). Die ersten vier Wörter von Psalm 96,11 () enthalten ein Akrostichon des Namens Gottes, JHWH. In späterer rabbinischer Literatur deuten die Anfangsbuchstaben von Werken oder Liedstrophen jeweils auf den Verfasser hin. Dies ist zum Beispiel der Fall bei der Sabbathymne Lecha Dodi, bei der die Anfangsbuchstaben der ersten acht Strophen den Namen Schlomo ha-Levi ergeben und auf den Autor Schlomo Alkabez hinweisen. Auch das frühchristliche Symbol des Ichtys lässt, je nach Schreibweise, eine Auslegung als Akrostichon zu. Das Akrostichon war in antiker, mittelalterlicher und barocker Dichtung beliebt, so zum Beispiel bei Otfrid von Weißenburg (um 800–870) oder Martin Opitz (1597–1639). Paul Gerhardts Lied Befiehl du deine Wege ist ein Akrostichon aus Psalm 37,5. In dem Werk diu crône von Heinrich von dem Türlin findet sich der Name des Dichters als Akrostichon. Ein Beispiel aus moderner Zeit ist „Lust = Leben unter Strom“ von Elfriede Hablé (1934–2015). Joachim Ringelnatz (1883–1934) beteiligte sich unter dem Namen Erwin Christian Stolze mit einem Akrostichon an der Ausschreibung zu einer olympischen Hymne. Die Anfangsbuchstaben ergaben seinen vollständigen Namen. Akrosticha begegnet man auch als Eselsbrücken für wissenschaftliche oder alltägliche Zusammenhänge. Ein Sonderfall ist der Abecedarius, bei dem die Anfangsbuchstaben das Alphabet bilden. Ein Gedicht, bei dem die Endbuchstaben ein Wort oder einen Satz ergeben, ist ein Telestichon, trifft das für die mittleren Buchstaben zu, handelt es sich um ein Mesostichon. Ein Akroteleuton ist ein mehrfaches Akrostichon oder eine Kombination aus Akrostichon und Telestichon. Literatur Ernst Vogt: Das Akrostichon in der griechischen Literatur. In: Antike und Abendland. Band 13. de Gruyter, Berlin 1967, , S. 80–95. Weblinks Akrostichon-Sonett von Robert Gernhardt aus der Zeit Nr. 41/2005 Akrostichon über das Akrostichon von Martin Möllerkies (2012) Acrostic Poems for Children, Teachers, and other Poets (englisch) Einzelnachweise Buchstabenspiel Literarischer Begriff
437
https://de.wikipedia.org/wiki/Amtliches%20Verzeichnis%20der%20Ortsnetzkennzahlen
Amtliches Verzeichnis der Ortsnetzkennzahlen
Amtliches Verzeichnis der Ortsnetzkennzahlen (Abkürzung: AVON) war das Verzeichnis der Telefonvorwahlnummern in Deutschland. Herausgegeben und bearbeitet wurde es vom Fernmeldetechnischen Zentralamt in Darmstadt im Auftrage der Deutschen Bundespost und später der Deutschen Telekom. Das AVON erschien nur nach Bedarf als Beilage zum Telefonbuch. Es enthielt neben allen deutschen Vorwahlen eine Auswahl an internationalen Vorwahlnummern. Für einige dieser Länder gab es ausführliche kostenlose Vorwahlnummern-Verzeichnisse, welche beim Fernmeldeamt Gießen bestellt werden konnten. Geschichtliche Entwicklung Die von jedem Ortsnetz im Selbstwählferndienst (SWFD) zugelassenen Ortsnetze waren Ende der 1960er Jahre in einem „Amtlichen Verzeichnis der Ortsnetzkennzahlen für den Selbstwählferndienst“ kurz: AVON enthalten, das dem amtlichen Fernsprechbuch bei der Ausgabe beigegeben oder den Fernsprechteilnehmern besonders übersandt wurde. Aus diesem Verzeichnis konnten die zum SWFD zugelassenen Ortsnetze der Bundesrepublik und eine Auswahl der zum SWFD zugelassenen Orte des Auslands mit den dazugehörigen Ortsnetzkennzahlen sowie Länderkennzahlen und die jeweilige Sprechdauer für eine Gebühreneinheit entnommen werden. Anfang der 1970er Jahre war auf der Vorderseite des Umschlags die Namen der Ortsnetze angegeben, für die das AVON gültig war, in der Regel handelte es sich dabei jeweils um die Ortsnetze des Bereiches einer Knotenvermittlungsstelle. Später enthielt das AVON alle Ortsnetze der Bundesrepublik. Bis in die 1990er Jahre enthielt das AVON auf der letzten Umschlagseite „Wichtige Hinweise zur Vorsorge und Eigenhilfe des Bürgers – zum Selbstschutz“ des Bundesverband für den Selbstschutz. Das erste Gesamtdeutsche AVON nach der Wiedervereinigung erschien anlässlich der Neunummerierung der neuen Bundesländer zum 1. Juni 1992. Das Verzeichnis hieß zuletzt einfach „Das Vorwahlverzeichnis“ und wurde letztmals 2001 in gedruckter Form aufgelegt. Seither erfüllen Internetsuchseiten den Zweck dieses Verzeichnisses. Literatur Handwörterbuch des elektrischen Fernmeldewesens, 2. Auflage, 1. Band A–F. Berlin 1970, S. 36 Einzelnachweise Weblinks Bundesnetzagentur: Ortsnetzbereiche, Ortsnetzkennzahlen und Ortsnetzbereichsgrenzen Telekommunikation (Deutschland) Deutsche Bundespost Telekom Deutsche Telekom Fernmeldetechnisches Zentralamt Öffentliche Verwaltung (Deutschland) Rufnummernverzeichnis
438
https://de.wikipedia.org/wiki/Autobahn
Autobahn
Eine Autobahn ist eine Fernverkehrsstraße, die dem Schnellverkehr und dem Güterfernverkehr mit Kraftfahrzeugen dient. Merkmale Autobahnen bestehen im Normalfall aus zwei Richtungsfahrbahnen mit mindestens je zwei Fahrstreifen. Es gibt in Deutschland allerdings auch Autobahnen mit mehr als zwei Richtungsfahrbahnen wie beispielsweise die A9 am Kindinger Berg, bei dem die Autobahn über eine lange Strecke aus 3 Richtungsfahrbahnen besteht. Für die Benutzung von Autobahnen wird in vielen Ländern eine Maut (Straßennutzungsgebühr) erhoben. In der Regel ist ein zusätzlicher Seitenstreifen (auch Standstreifen oder Pannenstreifen genannt) vorhanden. Bei modernen Autobahnen sind die Fahrbahnen voneinander durch einen Mittelstreifen getrennt, in dem passive Schutzeinrichtungen wie Stahlschutzplanken oder Betonschutzwände errichtet sind. Die Fahrbahnbefestigung erfolgt heutzutage durch Beton- oder Asphaltbelag. Im Gegensatz zu anderen Straßenkategorien besitzen Autobahnen stets höhenfreie Knotenpunkte. So erfolgt der Übergang von einer Autobahn auf eine andere durch Brücken und Unterführungen (Autobahnkreuz beziehungsweise in Österreich „Knoten“) oder Abzweigungen (Autobahndreieck, in der Schweiz „Verzweigung“); Übergänge ins untergeordnete Straßennetz werden (Autobahn-)Anschlussstellen genannt. Je nach Verlauf der Trasse spricht man in manchen Fällen von Ringautobahnen oder Stadtautobahnen. Tunnel und Brücken im Verlauf der Autobahnen sind Teile der Autobahnen. An den meisten Autobahnen befinden sich Autobahnraststätten und Autobahnparkplätze, um den Ver- und Entsorgungsbedürfnissen der Autobahnnutzer nachzukommen und diesen eine Möglichkeit zu geben, sich zu erholen. Oft befinden sich dort auch Attraktionen und Spielgeräte für Kinder. Diese Anlagen sind Teile der Autobahnen. Auf Fahrstreifen der Autobahnen ist das Halten und Parken sowie das Wenden nicht erlaubt. Des Weiteren ist auf dem Seitenstreifen beziehungsweise Pannenstreifen und in den Nothaltebuchten das Halten nur in besonderen Fällen (etwa eines technischen Defektes oder auf Anweisung eines ausführenden Staatsorgans) erlaubt, um den nachfolgenden Verkehr nicht zu behindern und sich nicht in Lebensgefahr zu begeben. Die Nutzung der Autobahn ist für Fußgänger und Fahrradfahrer in vielen Ländern verboten. Autobahnnetz Die Vielzahl von einzelnen Autobahnen bildet zusammen ein Straßennetz, das sich über Ländergrenzen hinweg erstreckt. Ein besonders dichtes Netz bilden Autobahnen in Europa, Nordamerika und in einigen asiatischen Ländern. Auf Kontinenten wie Afrika, Australien und Südamerika sind nur im Einzugsbereich von Großstädten Autobahnabschnitte zu finden. Eine flächenmäßige Erschließung ist nicht vorhanden. Gründe dafür sind der Mangel an finanziellen Mitteln, das geringe motorisierte Verkehrsaufkommen in ländlichen Gegenden und/oder die geringere Besiedlungsdichte. Europa In den meisten europäischen Ländern bilden Autobahnen eine eigene Straßenart, in einigen Ländern (zum Beispiel Schweden) werden sie zu den anderen Fernstraßen (beispielsweise Europastraßen) gezählt. Autobahnen sind in allen europäischen Staaten außer Island, Lettland, Malta, Moldawien und den Zwergstaaten vorhanden. In Europa werden ständig neue Autobahnen gebaut oder bestehende Autobahnabschnitte erweitert. In den Jahren 1994 bis 2004 wuchs das Autobahnnetz in den neuen EU-Mitgliedstaaten um 1000 km, in den alten Mitgliedstaaten sogar um 12.000 km. Mit 38,6 km Autobahn auf 100.000 Einwohner hat Zypern die höchste Autobahndichte in Europa. Nordamerika Die USA sind von einem für die Größe des Landes sehr dichten Autobahnnetz (sogenannte Interstate Highways) überzogen, die zum Teil deutlich großzügiger angelegt sind als in Europa. Während Überlandautobahnen weniger ausgelastet sind, leiden Autobahnen in Ballungsräumen unter einem starken Verkehrsaufkommen. Der Straßenquerschnitt wird aus diesem Grund sehr breit ausgebildet (bis zu neun Fahrstreifen je Richtungsfahrbahn) und mit großzügigen Anschlussstellen und Knotenpunkten angelegt. Das Interstate-Highway-Netz ist weitgehend systematisch angelegt. In Nord-Süd-Richtung verlaufen die Highways mit der Nummerierung 5 (also von der Westküste nach Osten 5, 15, 25 usw. bis 95 an der Ostküste), in Ost-West-Richtung mit der Nummerierung 0 (also vom Süden nach Norden 10, 20, 30 usw. bis 90 im Norden an der kanadischen Grenze). Das Highway-System begann im November 1921 mit dem Bundesgesetz The Federal Aid Highway Act, das im Juni 1956 erneuert wurde und danach zu einem intensiven Ausbau des Systems führte. Der erste größere Interstate-Highway war The National Road ab Maryland in Richtung Westen, durch Gesetz vom März 1806 ins Leben gerufen. Die Bauarbeiten begannen im Juli 1811 in Cumberland (Maryland) und erreichten 1839 Vandalia (Illinois). Das National Highway System (NHS) umfasst heute rund 257.000 km, das sind 1,1 % aller US-Straßen. Zum NHS gehören auch die Freeways und Expressways, die beide meist in Metropolitan Areas zu finden sind. Der Osten Kanadas, darunter vor allem Ontario und Québec, verfügt über ein ähnlich gut ausgebautes Autobahnnetz wie die Vereinigten Staaten. Bis auf den bundesstaatlich verwalteten Trans-Canada Highway obliegt der übrige Straßenbau den einzelnen Provinzen. Der Trans-Canada-Highway ist außerhalb von Ballungsräumen und dichter besiedelten Gebieten noch nicht durchgängig mehrspurig ausgebaut. In Mexiko sind die wichtigsten Städte des Landes mit Autobahnen verbunden, wobei der große Teil der Autobahnen mautpflichtig ist. Die kostenpflichtigen Straßen sind in einem ähnlichen Zustand wie in anderen nordamerikanischen Ländern. In Ballungszentren sind die carreteras durchgehend mehrspurig, in weniger dicht besiedelten Regionen manchmal zweispurig mit Gegenverkehr. Asien Japan (japanisch: ) und Südkorea (koreanisch: gosokdoro) verfügen über Autobahnnetze mit hohem Ausbaustandard. Die Maximalgeschwindigkeit beträgt in Japan offiziell 100 km/h. Mautabgaben (ETC – electronic toll control) sind auch für kurze Strecken und Privatbenutzung üblich. Viele aufstrebende Staaten Ost- und Südostasiens bauen ihre Autobahnnetze mit großer Geschwindigkeit aus. China () hat durch ein groß angelegtes Ausbauprogramm das deutsche Autobahnnetz im Hinblick auf die Länge überholt. In Thailand fasste die Regierung aufgrund steigender Zulassungen von Kraftfahrzeugen und einem Bedarf an Hochgeschwindigkeitsstraßen mit begrenztem Zugang im Jahr 1997 einen Kabinettsbeschluss, in dem ein Masterplan für den Bau von Autobahnen festgelegt wurde. Darin wurden einige Abschnitte von Schnellstraßen als Autobahn Motorway bezeichnet. Derzeit verfügt das Land über zwei Autobahnen und mehrere Hochstraßen (Expressways). Den ersten Expressway (dort die Stadtautobahn) gibt es in Bangkok seit 1981. Der größte Teil der Autobahnen sind mautpflichtig. Die Höchstgeschwindigkeit liegt bei 120 km/h. In Laos wird seit 2018 an der ersten Autobahn dem Vientiane-Boten Expressway gebaut. Die Mautautobahn gehört zu 95 Prozent der chinesischen Yunnan Construction Engineering Group, die auch der Bauträger ist. Dem laotischen Staat gehören nur fünf Prozent. Der Bauträger besitzt eine 50-jährige Konzession auf die Mauteinnahmen. Die Höchstgeschwindigkeit liegt bei 120 km/h. Malaysia verfügt über etwa 1200 Kilometer Autobahn. So verbindet der North-South Expressway etwa den Nordzipfel von Malaysia an der Grenze zu Thailand mit Johor Bahru an der Grenze zu Singapur im Süden. Die Autobahnen sind größtenteils mautpflichtig, die Gebühr wird dabei direkt an Ort und Stelle in Mautstationen kassiert. Vietnam verfügt über 1276 Kilometer Autobahn. Der Bau von Autobahnen (Expressways) in Vietnam wurde in den 2000er Jahren im Zusammenhang mit der Verschlechterung des transnationalen Autobahnsystems geplant. Die erste Autobahn Vietnams ist die Hồ Chí Minh-Trung Lương-Autobahn. Sie ist seit 2010 eröffnet. Die ersten 30 Kilometer der Autobahn Suai–Beaco in Osttimor wurden 2018 eröffnet. Ähnlich dem Europastraßennetz werden auch im asiatischen Raum einzelstaatliche Autobahnen und autobahnähnlichen Straßen zu einem Gesamtnetz verbunden. Das Vorhaben läuft unter dem Namen Asiatisches Fernstraßen-Projekt. Geschichte Bulgarien Der erste Spatenstich zum Bau des Autobahnringes in Bulgarien erfolgte am 4. Oktober 1974. Es sollten drei Autobahnen mit einer Gesamtlänge von knapp 900 km gebaut werden, die Sofia, Warna und Burgas verbinden sollten. Bis zur Wende 1990 wurden etwa 270 km fertiggestellt, in den folgenden 20 Jahren lediglich weitere 116 km. Seit dem EU-Beitritt Bulgariens im Jahr 2007 wächst das Autobahnnetz um etwa 60 km jährlich, sodass Mitte 2014 über 50 % der geplanten Gesamtlänge von 1182 km bereits in Betrieb ist. Dänemark Die dänischen Autobahnen wurden in den 1960er Jahren geplant und ab 1972 gebaut. Deutschland Die erste autobahnähnliche Strecke der Welt war die AVUS in Berlin. Sie wurde privat finanziert und 1921 eröffnet. Ihre Benutzung war gebührenpflichtig. Die AVUS diente daher zunächst dem Vergnügen eines zahlungskräftigen Publikums mit Abonnement und erlaubte für die Zeit hohe Geschwindigkeiten von über 100 km/h. Außerdem war sie Renn- und Teststrecke. Für den öffentlichen Verkehr ohne Abonnement oder Tageskarte war sie nicht freigegeben. Als erste öffentliche Autobahn Deutschlands – damals noch offiziell als „kreuzungsfreie Kraftfahr-Straße“ L185 oder „Kraftwagenstraße“ bezeichnet – wird oft die heutige A 555 zwischen Köln und Bonn, die nach dreijähriger Bauzeit am 6. August 1932 durch den damaligen Kölner Oberbürgermeister Konrad Adenauer eröffnet wurde, gewertet. Die Strecke von 20 km war bereits höhenfrei und je Fahrtrichtung zweispurig, jedoch ohne Trennung der Spuren einer Richtung durch einen Streifen. Auf Fotos wirken sie daher dem heutigen Betrachter eher wie eine je sehr breite Spur. Baulich getrennte Richtungsfahrbahnen, ein weiteres typisches Charakteristikum von Autobahnen, besaß sie noch nicht. Daher bekam der Abschnitt erst 1958 nach weiterem Ausbau den offiziellen Status einer Autobahn. Ob die Strecke als „erste Autobahn“ gilt, ist daher umstritten. Einige Autoren argumentieren, die Fahrbahnen in je einer Richtung können als zweispurig gewertet werden, was eine Straße zur „Autobahn“ qualifiziere. Da die bauliche Trennung der beiden Richtungsfahrbahnen, die Kleeblattauffahrt sowie die Integration in ein Netz fehlten, wird sie jedoch oft nicht als richtige Autobahn, sondern nur als weitere Vorstufe gewertet. Das spätere Bundesfernstraßengesetz „setzt jedoch auch die Einfügung in ein zusammenhängendes Verkehrsnetz und die Bestimmung für den weiträumigen Verkehr vor“, was bei einer Länge von 20 km nach heutigen Maßstäben nicht gegeben ist. Der Bau der Nur-Autostraße Köln–Düsseldorf (heute Teil der A 3) wurde bereits 1929 durch den Provinzialverband der preußischen Rheinprovinz rechtlich fixiert. Ein 2,5 km langer Abschnitt bei Opladen wurde 1931 begonnen und 1933 fertiggestellt. Der weltweit erste Plan zum Bau eines großen Autobahnnetzes war der HaFraBa-Plan (= Hansestädte–Frankfurt–Basel), dessen erste Version in etwa dem Verlauf der heutigen Autobahn A 5 und dem nördlichen Teil der A 7 entsprach. Diese Pläne wurden ab Ende 1926 erstellt und erstmals in einer Ausstellung im Gewerbemuseum Basel 1927 der Öffentlichkeit präsentiert. Bis 1933 wuchsen die Pläne zu einem Netz. Tatsächlich gebaut wurde nach den HaFraBa-Plänen erst ab 1933, die Strecke Frankfurt–Darmstadt–Mannheim–Heidelberg. Mit der HaFraBa verbunden ist die Entstehung des Wortes „Autobahn“, das 1932 von Robert Otzen in der gleichnamigen Fachzeitschrift geprägt wurde. Dennoch verwendete Adolf Hitler in der Rede zur Eröffnung der Internationalen Automobil- und Motorrad Ausstellung am Kaiserdamm in Berlin am 11. Februar 1933 nicht das Wort „Autobahn“, sondern kündigte eine „Inangriffnahme und Durchführung eines großzügigen Straßenbauplanes“ an. Die Rede war das erste öffentliche Bekenntnis Hitlers zum Autobahnbau. Am 1. Mai zur Kundgebung auf dem Berliner Tempelhofer Feld wiederholte Hitler die Ankündigung variierend als „Riesenprogramm, das wir nicht der Nachwelt überlassen wollen, sondern das wir verwirklichen müssen, ein Programm, das Milliarden erfordert. Ein Programm unseres Straßenbaus, eine gigantische Aufgabe. Wir werden sie groß beginnen, und die Widerstände dagegen aus dem Weg räumen.“ Der Neologismus Autobahn erhielt erst ab Sommer 1933 im Zuge der Propagandasendungen und Zeitungsartikel, welche die „erste Bauschlacht“, die Baustelle bei Frankfurt am Main, vorbereiteten, eine erste Verbreitung; obwohl Hitler selbst dort wieder nur von „großen Verkehrsstraßen“ und dem „größten Straßennetz der Welt“ sprach. Erst zu ihrer Eröffnung 1935 wurde sie im Radio von Paul Lawen vor Millionenpublikum als „weiße blanke Reichsautobahnstraße“ bezeichnet und von Zeitgenossen auch als „erste Reichsautobahn“ erinnert. Die Bezeichnung „Nur-Autostraße“ habe man verworfen, schrieb die HaFraBa, um dem Umstand Ausdruck zu verleihen, man wolle eine „Autobahn“ in Analogie zur Eisenbahn errichten. Der Mythos, der Begriff „Autobahn“ und die grundsätzliche Idee hierfür gehe direkt auf Hitler zurück, ist eine Geschichtsfälschung. Unterlagen aus dem Bundesarchiv belegen, wie der damalige Generalinspektor für das Deutsche Straßenwesen, Fritz Todt, 1934 eine derartige geistige Urheberschaft in das Jahr 1923 zurückdatiert und entsprechend schlussfolgerte: „Die Reichsautobahnen, wie wir sie jetzt bauen, haben nicht als von der ‚HAFRABA‘ vorbereitet zu gelten, sondern einzig und allein als ‚Die Straßen Adolf Hitlers‘.“ Finnland Die erste Autobahn in Finnland wurde 1962 von Helsinki nach Espoo eröffnet. Anfang 2019 waren 926 Kilometer autobahnartig ausgebaut. Im Wesentlichen sind dies Teile der vier von Helsinki wegführenden Staatsstraßen 1, 4, 5 und 7. Die Autobahnen bilden keine eigene Systematik, sondern sind integriert in das System der Staatsstraßen mit einer Gesamtlänge von 8.570 km. Einige wenige autobahnartig ausgebaute Abschnitte gehören nicht zu Staatsstraßen. Die kurze Staatsstraße 29 ist die nördlichste Autobahn der Welt. Frankreich Die erste Autobahn Frankreichs, die Autoroute de Normandie, sollte 1940 fertiggestellt werden. Durch den Zweiten Weltkrieg verzögerte sich allerdings der Bau und die Strecke wurde erst 1946 eröffnet. Die offizielle Bezeichnung „Autoroute“ (Autostraße) wurde 1955 eingeführt. Inzwischen hat Frankreich mit derzeit etwa 11.650 Kilometern das fünftlängste Autobahnnetz weltweit und das drittlängste in Europa. Italien Als erste Autobahn Italiens und gleichzeitig erste für alle zugängliche Autostraße Europas gilt die Autostrada dei Laghi. Das erste Teilstück zwischen Mailand und Varese wurde 1924 privat von Piero Puricelli errichtet und war gebührenpflichtig. Die Autostraße besaß je Fahrtrichtung einen Fahrstreifen und war noch nicht höhenfrei ausgebildet. Spezielle Ein- und Ausfahrten waren angelegt. Im Jahre 1933 gab es in Italien bereits ein Autobahnnetz, das 457,5 km lang war. Kroatien Seit der Gründung der Republik Kroatien erfuhr der Ausbau des Autobahnnetzes in Kroatien zunehmende Bedeutung. Die derzeitige Gesamtlänge aller Autobahnen (kroatisch: Autoceste; singular Autocesta) beträgt 1270,2 km. Zusätzlich befinden sich 185,6 Autobahnkilometer im Bau. Das geplante Autobahnnetz soll 1670,5 km lang werden. Namibia In Namibia wurde mit der A1 erstmals 2017 eine Autobahn eröffnet. Diese hat in ihrer aktuellen Ausbaustufe eine Länge von 53 Kilometer zwischen Windhoek und Okahandja. Generell werden alle vierspurigen Überlandstraßen in Namibia als Autobahn (englisch Freeway) deklariert. Weitere Autobahnen befinden sich im Bau. Niederlande Die Niederlande haben mit 57,5 Kilometern den größten Anteil Autobahnkilometer pro 1000 km² in der Europäischen Union. Insgesamt besitzen die Niederlande ein Autobahnnetz von 2360 km. Die älteste niederländische Autobahn ist die A12 zwischen Den Haag und Utrecht, deren erster Abschnitt 1937 in Betrieb genommen wurde. Norwegen In den 1960er Jahren begann Norwegen mit der Planung eines umfassenden Autobahnnetzes, doch der Bau wurde nach nur 45 Streckenkilometern aufgrund der hohen Baukosten gestoppt. Stattdessen beschränkte man sich auf den Bau von Schnellstraßen. Erst zur Jahrtausendwende kam der Autobahnbau wieder in Schwung – vor allem durch die Erweiterung von vorhandenen Schnellstraßen. 2004 umfasste das norwegische Autobahnnetz im Vergleich immer noch geringe 193 km. Viele Autobahnen wurden später gebaut und bis Ende 2022 waren es rund 620 Kilometer, und es gibt eine Entscheidung über weitere 600 Kilometer bis 2035, zum Beispiel eine zusammenhängende Strecke Haugesund–Stavanger–Kristansand–Oslo. Eine Besonderheit ist, dass der Ausbau meist über eine Maut (auf rund 1 NOK/km) auf dem entsprechenden Abschnitt finanziert wird, nicht jedoch die Instandhaltung („Öffentlich-private Partnerschaft“). Sobald die Investitionskosten abbezahlt sind, entfallen die Mautgebühren. Österreich Der Autobahnbau begann in Österreich mit dem Anschluss an das Deutsche Reich 1938. Noch im selben Jahr wurden erste Teilstücke der West Autobahn (A 1) bei Salzburg fertiggestellt. Im Zuge des Zweiten Weltkrieges kam der Ausbau des Autobahnnetzes bei einer Gesamtlänge von 16,8 km allerdings zum Erliegen und wurde erst nach dem Wiedererlangen der Souveränität Österreichs mit dem Österreichischen Staatsvertrag von 1955 wieder aufgenommen. Für die Benützung, die ursprünglich kostenlos war, wird seit 1997 Maut eingehoben. Polen Nach der Westverschiebung 1945 verfügte Polen lediglich über einige noch unter nationalsozialistischer Planung errichtete Autobahnfragmente in Pommern, Ostpreußen und Schlesien. Unter der kommunistischen Führung wurden anschließend vorwiegend in den Ballungszentren Polens Schnellstraßen, jedoch keine weiteren Autobahnstrecken errichtet. Erst in den 1980ern begann der ernsthafte Bau eines umfassenden Autobahnnetzes, das allerdings vor allem im Nordosten und Osten des Landes immer noch erhebliche Lücken aufweist. Am 1. Dezember 2012 wies das polnische Autobahnnetz eine Gesamtstreckenlänge von 1342 km auf. Schweden Die schwedischen Autobahnen, in Schweden Motorvägar genannt, entstanden erst nach dem Zweiten Weltkrieg. Der erste Motorväg mit Autobahnstandard wurde, nach deutschem Vorbild, mit einer Fahrbahn aus Beton zwischen Malmö und Lund angelegt und 1953 von Prinz Bertil von Schweden eingeweiht. Das Teilstück war 17 km lang. 2012 umfasste das schwedische Autobahnnetz ungefähr 1920 km. Schweiz Die erste Autobahn der Schweiz war die Ausfallstraße Luzern-Süd, welche den Verkehr von Luzern an Horw vorbeileitete. Sie wurde am 11. Juni 1955 eröffnet und ist heute Teil der A2. Am 8. März 1960 trat das Bundesgesetz über die Nationalstrassen in Kraft, welches die Kompetenzen zur Planung und zum Bau von Strassen mit nationaler Bedeutung dem Bund übertrug und im Artikel 2 die Autobahn als Nationalstrasse erster Klasse beschreibt. Am 21. Juni 1960 folgte der Bundesbeschluss über das Nationalstrassennetz, in welchem das anzustrebende Autobahnnetz festgelegt ist. Die erste vom Bund finanzierte Strasse war die am 10. Mai 1962 eröffnete acht Kilometer lange Grauholzautobahn, welche der Umfahrung von Zollikofen dient. 1963 wurde das erste längere Teilstück einer Autobahn eröffnet, die A1 zwischen Genf und Lausanne. 1985 wurde das letzte Teilstück der A2 im Tessin zwischen Biasca und Bellinzona fertiggestellt. Serbien Bereits nach dem Zweiten Weltkrieg wurde eine Autostraße durch Jugoslawien gebaut, welche vier der sechs Teilrepubliken (darunter Serbien) passierte und den Namen „Straße der Brüderlichkeit und Einheit“ (Autoput Bratstvo i jedinstvo) erhielt. Mit dem steigenden Verkehrsaufkommen auf den Straßen der Teilrepubliken wurde die Autostraße zum Autoput mit zwei Richtungsfahrbahnen umgebaut. Seit der Unabhängigkeit Serbiens 2006 befinden sich viele Autobahnen und Schnellstraßen in Planung und Bau. Slowenien Die erste Autobahn in Slowenien war die „Avtocesta Vrhnika – Postojna“. Sie wurde am 29. Dezember 1972 eröffnet und ist heute Teil der A1. Ungarn Das Netz der ungarischen Autobahnen (Ungar.: autópálya) beträgt 1232,6 km. Die erste Planung für Autobahnen in Ungarn stammt aus dem Jahr 1942. Im Jahr 1964 wurde die erste Autobahn M7 von Budapest zum Plattensee fertiggestellt. Später begann der Bau nach Tatabánya, nach Győr und in Richtung Wien. Ungarn hat ein radiales Autobahnnetz mit dem Zentrum Budapest: M1; M2; M3; M4; M5; M6; M7 und einen äußeren Ring: M0. Vereinigtes Königreich Der Bau von Autobahnen im Vereinigten Königreich begann 1949 mit dem Special Roads Act. Darin definierte das britische Parlament „spezielle Straßen“ (später offiziell als „Motorway“ bezeichnet), für die nur bestimmte Fahrzeugtypen zugelassen waren. Die erste dieser „speziellen Straßen“, die heutige M6 bei Preston, wurde am 5. Dezember 1958 eröffnet. Ein Jahr später, am 2. November 1959, gab man die heutige M1 bei London für den Verkehr frei. Da die M6 damals recht kurz war und lange nicht erweitert wurde, wird häufig die M1 als erste Autobahn Großbritanniens bezeichnet. Vereinigte Staaten Der Long Island Motor Parkway (LIMP), auch bekannt als Vanderbilt Parkway, war eine ab 1908 errichtete private Straßenverbindung im Staate New York, die als Mautstraße dem Automobilverkehr vorbehalten war und auch als Rennstrecke diente. Ihre kreuzungsfreie Bauweise und die Verwendung geteilter Richtungsfahrbahnen machen sie zu einem Vorläufer der Autobahnen. Sie wurde 1938 vom Staat New York übernommen und stillgelegt. Beschilderung Um dem Verkehrsteilnehmer die Orientierung zu erleichtern, erhalten Fernstraßen eine charakteristische Beschilderung, welche durch Farbe und Symbolik die Bedeutung der Straße hervorhebt. Die Farben Blau und Grün sind laut dem Wiener Übereinkommen über Straßenverkehrszeichen von 1968 zugelassen. Zeichen für Beginn und Ende einer Autobahn sind besonders wichtig, weil sich Rechte und Pflichten der Verkehrsteilnehmer ändern. Um eine einheitliche Farbgebung anzustreben und weder grüner noch blauer Beschilderung den Vorzug zu geben, kam in den 1990er-Jahren die Idee auf, eine andere Farbgebung zu nutzen; nach Versuchen auch mit violett (z. B. in gewissen Regionen in Deutschland) einigte man sich aber auf die rote Farbe. Da die Farbänderung sämtlicher Beschilderungen jedoch exorbitante Kosten verursacht hätte, sind zum einen nur wenige Länder der neuen Farbgebung gefolgt (F/CH/PL), zum anderen wurde hierbei aber ausschließlich die Nummerierungsbeschilderung auf rote Farbe umgestellt, die Hinweis- und Verkehrsschilder jedoch in der bisherigen Farbe belassen. So sind z. B. auf gewissen Strecken in der Schweiz nach wie vor grüne Nummerierungsbeschilderungen zu sehen, die aber noch aus der Zeit stammen, als die Autobahnen mit der Nationalstrassennummer bezeichnet wurden. Blaue Beschilderung Grüne Beschilderung Verkehrsregeln Fast alle Länder haben eine Geschwindigkeitsbegrenzung zwischen 100 und 130 km/h für Autobahnen eingeführt. Allgemein ist die Geschwindigkeit den Straßen-, Verkehrs-, Sicht- und Wetterverhältnissen (beispielsweise Schnee oder Nebel) und den Eigenschaften von Fahrzeug und Ladung anzupassen. In Europa ist Deutschland das einzige Land, in dem die Geschwindigkeit auf Autobahnen nicht generell begrenzt ist; es gibt eine Autobahn-Richtgeschwindigkeits-Verordnung, die aber nur empfehlenden Charakter hat. In den meisten Ländern sind Fahrzeuge, die bauartbedingt eine bestimmte Mindestgeschwindigkeit nicht erreichen können (45 bis 80 km/h, länderabhängig), von der Autobahnbenutzung ausgeschlossen, da sie den Verkehrsfluss unverhältnismäßig behindern und so die Unfallgefahr erhöhen würden. Das Halten, Wenden, Rückwärtsfahren sowie das Auf- und Abfahren an nicht gekennzeichneten Stellen auf der Autobahn ist generell verboten. Ausnahmen zum Haltverbot bilden die Autobahnparkplätze und Autobahnraststätten. Verkehrsteilnehmer, deren Fahrzeug eine Panne hat, warten am äußersten Fahrbahnrand (beziehungsweise auf dem Standstreifen, falls vorhanden). Bei Verkehrssituationen, die zu einem Rückstau führen, ist in Deutschland, Österreich und anderen Ländern eine Rettungsgasse zu bilden. Dabei haben die Verkehrsteilnehmer der linken Spur ihre Fahrzeuge ganz an den linken Fahrbahnrand zu lenken. Verkehrsteilnehmer in der rechten Fahrspur haben ihre Fahrzeuge ganz an den rechten Fahrbahnrand zu lenken. Damit bildet sich zwischen den beiden Fahrzeugkolonnen eine für Einsatzfahrzeuge reservierte Fahrspur. Bei mehreren Fahrspuren befindet sich die Rettungsgasse immer rechts von der am weitesten links befindlichen Fahrspur. Verkehrsstärke Autobahnen sind baulich dafür ausgelegt, ein hohes Verkehrsaufkommen auszuhalten. Der höchste Verkehrsfluss mit bis zu 2600 Autos pro Stunde und Fahrstreifen stellt sich – wegen des verringerten Sicherheitsabstandes – bei etwa 85 km/h ein, wenn sich die Geschwindigkeiten der einzelnen Fahrzeuge einander anpassen. Eine noch höhere Belastung führt dann zum Stau. Bei subjektiv „freier Strecke“ können hingegen nur etwa 1800 Autos pro Stunde und Fahrstreifen passieren. Das theoretische Modell für den Zusammenhang zwischen Geschwindigkeit und Durchlassfähigkeit einer Straße liefert das Fundamentaldiagramm des Verkehrsflusses. Verkehrssicherheit Autobahnen haben einen sehr geringen Anteil an den Gesamtunfallzahlen im Verkehr. Dies liegt hauptsächlich an der Abwesenheit von unfallträchtigen Verkehrselementen (kein Kreuzungs- und direkter Gegenverkehr, keine Fußgänger, keine Radfahrer …). 2014 fanden 31 % der Fahrleistung in Deutschland auf Autobahnen statt, der Anteil an den Verkehrstoten lag aber nur bei 11 %. Die Getötetenrate lag auf Autobahn mit 1,6 Todesfällen pro Milliarden-Fahrzeugkilometer im Vergleich deutlich niedriger als der Wert von 4,6 im gesamten Verkehr beziehungsweise 6,5 auf außerstädtischen Bundesstraßen. Neben dem Risiko, mit einem anderen Fahrzeug zu kollidieren, besteht, sofern Autobahnen nicht durch Wildschutzzäune eingezäunt werden, auch die Gefahr eines Wildunfalls. Diese zum Teil schweren Unfälle treten besonders in Waldgebieten auf. Im Regelfall werden in Deutschland und Österreich Autobahnen bei Nacht nur im innerstädtischen Bereich (Stadtautobahn) sowie bei unfallträchtigen Ein- und Ausfahrten beleuchtet. Autobahntunnel werden – wie andere Straßentunnel – immer beleuchtet. In vielen anderen Ländern (beispielsweise Frankreich oder Großbritannien) sind die meisten Autobahnen in Ballungsräumen und alle Autobahnknotenpunkte beleuchtet. Es gibt einige Länder wie Belgien, Luxemburg oder die Vereinigten Arabischen Emirate, wo sogar fast alle Autobahnen nachts beleuchtet werden. Im Zuge der Energieeinsparungen und der aufwändigen Wartung sowie der sogenannten Lichtverschmutzung wird aber auch in einigen dieser Länder die Beleuchtung nach und nach eingestellt. Maut In vielen Ländern muss man für das Befahren der Autobahn eine Benutzungsgebühr (sogenannte Maut) bezahlen. Dieses kann zeitabhängig in Form einer Vignette geschehen oder streckenabhängig durch Bezahlen an Mautposten, wie in zahlreichen weiteren europäischen Staaten üblich. In Österreich gilt für LKW seit dem 1. Januar 2004 eine Mautpflicht, die über mitzuführende GO-Boxen und ein entlang der Autobahn installiertes Dezimeterwellen-System abgerechnet wird. Um ein Ausweichen auf Landstraßen zu verhindern, werden häufig Fahrverbote für LKW auf parallel verlaufenden Straßen verhängt. In der Schweiz gilt die LSVA auf allen Straßen, somit existiert das Ausweichen des Schwerverkehrs auf Landstraßen nicht. In Deutschland gilt seit dem 1. Januar 2005 eine LKW-Maut, die entweder an Automaten über dort anzugebende Fahrtrouten im Voraus oder über eingebaute Maut-Geräte satellitengestützt automatisiert erhoben wird. Die Erhebung erfolgt über das Unternehmen Toll Collect. Kultur Die Autobahnen haben auch zu kultureller Auseinandersetzung angeregt. Ein Beispiel ist die Errichtung von Autobahnkirchen. Beispiele im Bereich der Musik sind das Album Autobahn der Musikgruppe Kraftwerk und das Lied Deutschland Autobahn des US-amerikanischen Country-Sängers Dave Dudley, dessen Großeltern aus Deutschland stammten. In dem Film The Big Lebowski (1998) taucht ein Trio deutscher Nihilisten auf, das als Gruppe Autobahn (ein Kraftwerk-Verschnitt) Ende der 1970er seine erste Techno-LP mit dem Titel Nagelbett herausgebracht haben soll. Auch tragen einige Diskotheken, die an oder in der Nähe einer Autobahn liegen, den Namen dieser Autobahn, so zum Beispiel eine Kasseler Diskothek namens A7 an der A 7. Die deutsche Filmkomödie Superstau spielt fast komplett auf einer Autobahn. Der Schweizer Autobahn 1 wurde ein Song von Toni Vescoli gewidmet, der den Titel N1 trägt und 1983 erschienen ist. Er beschreibt die allgemeine Hassliebe zur A 1, die damals noch als Nationalstrasse 1 (Kurzform N1) bezeichnet wurde. Baukosten Die Baukosten von Autobahnen sind stark von den Gegebenheiten der jeweiligen Strecke abhängig. Einfache Streckenführungen verursachen Kosten von etwa vier bis sechs Millionen Euro pro Autobahnkilometer, bei komplexen Strecken, etwa mit Brücken und Tunneln, liegen die Kosten um ein Vielfaches höher. Zusätzlich zu den reinen Baukosten kommen Kosten für den Planungsprozess, für Gutachten und Beratungsleistungen externer Ingenieure, Genehmigungsverfahren und für begleitende Investitionen, also etwa für Lärmschutzwände, Straßenbegleitgrün und Wechselverkehrszeichen hinzu. Entsprechend einer Beispielrechnung ergeben sich in Deutschland durchschnittliche Kosten von 26,8 Millionen Euro pro Autobahnkilometer, wovon ein Viertel reine Baukosten und drei Viertel zusätzliche Kosten sind. Beispielsweise kostet der Neubau der deutschen A20 von 1992 bis 2005 etwa 1,9 Milliarden Euro bei einer Länge von 322 km, das entspricht 6 Mio. Euro pro Autobahnkilometer. Hingegen kostete die 84 km lange Schweizer A16 auf Grund zahlreicher Kunstbauten 6,5 Milliarden Schweizer Franken (77,38 Millionen Franken pro Kilometer). Autobahnbau und Naturschutz Autobahnen sowie deren Neu- oder Ausbau werden durch Anwohner-, Natur- und Umweltinitiativen kritisiert. Umweltschützer sehen den Autobahnbau unter anderem als falsches verkehrspolitisches Signal, da der motorisierte Individualverkehr und somit der zusätzliche Ausstoß von klimaschädlichen Abgasen gefördert wird. Außerdem warnen sie vor zusätzlicher Lärmbelastung und Luftverschmutzung für die Umgebung der Autobahn. Naturschützer hingegen bemängeln vor allem den Flächenverbrauch sowie die zunehmende Landschaftszerschneidung, welche durch neue Autobahnen gefördert wird. Zudem wird bemängelt, dass der Arten- wie der Biotopschutz bei der Verkehrsplanung oft eine untergeordnete Rolle spielt. Aus diesen Gründen versuchen Umweltschutzorganisation und Naturschutzverbände durch Aufklärungsarbeit, aber auch mithilfe des Verbandsklagerechts, den Bau weiterer Autobahnen zu verhindern oder umweltverträglichere Streckenführungen beim Neubau durchzusetzen. Des Weiteren fördern Autobahnen aktiv die Zersiedelung. Durch die verkürzte Wegstrecke und die Verkürzung der Fahrzeiten wird es z. B. Arbeitnehmern ermöglicht, sich weiter weg von ihren Arbeitsplätzen anzusiedeln. Dies führt wiederum zu mehr Verkehr auf den Autobahnen, was wiederum zu einem Bedarf für neue Straßen oder für den Straßenausbau führt. So sind z. B. in Los Angeles selbst achtstreifige Autobahnen regelmäßig von Staus betroffen. Ein weiteres Beispiel sind Gewerbegebiete an Autobahnen außerhalb von Städten. Diese sind in der Regel nicht mit anderen Verkehrsmitteln zu erreichen, ein weiterer Anstieg des Individualverkehrs ist die Folge. Eine Möglichkeit, die negativen Auswirkungen von Autobahnen auf die Umwelt zu verringern, ist das Verfahren der Trassenbündelung. So wird neben einem bestehenden Verkehrsweg (etwa einer Bahnstrecke) eine Autobahn errichtet. Durch dieses Prinzip werden die Flächenzerschneidung und die Neuverlärmung reduziert. Ein weiteres Mittel, mit dem versucht wird die Auswirkungen der Landschaftszerschneidung zu verringern, ist der Bau von Grünbrücken. Siehe auch Allgemein Autostraße (autobahnähnliche Schnellstraße) Autobahn-Behelfsflugplatz Autobahnfest Autobahntunnel Autobahnbrücke Europäische Autobahnnetze Sonstige Autobahnnetze Liste der Autobahnen in China Liste der Autobahnen in Südkorea Liste der Autobahnen in Thailand Liste US-amerikanischer Interstate-Highways Trans-Canada Highway Literatur → Literatur zur Autobahn in Deutschland siehe: Autobahn (Deutschland)#Literatur. Bernd Kreuzer: Tempo 130. Kultur- und Planungsgeschichte der Autobahnen in Oberösterreich. Trauner, Linz 2005, ISBN 3-85487-783-8. Maxwell G. Lay: Die Geschichte der Straße. Vom Trampelpfad zur Autobahn. Campus, Frankfurt am Main und New York 1994, ISBN 3-593-35132-3. Geschichte und neuere Zahlen bei Reiner Ruppmann: Das europäische Autobahnnetz: Weiterhin Hoffnungsträger oder primär Funktionsraum für die Transit-Ökonomie?, in: Zeitschrift für Weltgeschichte (ZWG), Teil 1: 14. Jg. 2013, Heft 2, Seiten 81–107; Teil 2: 14. Jg. 2014, Heft 1, Seiten 163–180. Weblinks Autobahn Superlative aus aller Welt Autobahn Seite mit Bildern von Deutschland und Europa Geschwindigkeitsbegrenzungen in den Vereinigten Staaten Diagonal – Radio für Zeitgenoss/innen: „Fahren, fahren, fahren!“ – Zum Thema: Autobahn., Radio Ö1, 10. September 2016 Einzelnachweise ! Straßenbaugeschichte
440
https://de.wikipedia.org/wiki/Attac
Attac
Attac (ursprünglich association pour une taxation des transactions financières pour l'aide aux citoyens; seit 2009: association pour la taxation des transactions financières et pour l'action citoyenne; ‚Vereinigung zur Besteuerung von Finanztransaktionen im Interesse der Bürger‘) ist eine globalisierungskritische Nichtregierungsorganisation. Attac hat weltweit circa 90.000 Mitglieder und agiert in 50 Ländern, hauptsächlich jedoch in Europa. Gründung Attac wurde am 3. Juni 1998 in Frankreich gegründet. Den Anstoß zur Gründung gab ein Leitartikel von Ignacio Ramonet, der im Dezember 1997 in der Zeitung Le Monde diplomatique veröffentlicht wurde und die Gründung einer Association pour une taxe Tobin pour l’aide aux citoyens (deutsch: „Vereinigung für eine Tobin-Steuer zum Nutzen der Bürger“) vorschlug. Seine Idee war, auf weltweiter Ebene eine Nichtregierungsorganisation (NGO) ins Leben zu rufen, die Druck auf Regierungen ausüben sollte, um eine internationale „Solidaritätssteuer“ zur Kontrolle der Finanzmärkte, genannt Tobin-Steuer, einzuführen. Gemeint war damit die durch den US-amerikanischen Ökonomen James Tobin Ende der 1970er Jahre vorgeschlagene Steuer in Höhe von 0,1 % auf spekulative internationale Devisengeschäfte. Der von Ramonet gleichzeitig vorgeschlagene Name dieser Organisation „attac“ sollte, aufgrund seiner sprachlichen Nähe zum französischen Wort attaque, zugleich den Übergang zur „Gegenattacke“ signalisieren, nach Jahren der Anpassung an die Globalisierung. Die Aktivitäten von Attac weiteten sich schnell über den Bereich der Tobinsteuer und die „demokratische Kontrolle der Finanzmärkte“ hinaus aus. Mittlerweile umfasst der Tätigkeitsbereich von Attac auch die Handelspolitik der WTO, die Verschuldung der Dritten Welt und die Privatisierung der staatlichen Sozialversicherungen und öffentlichen Dienste. Die Organisation ist inzwischen in einer Reihe von afrikanischen, europäischen und lateinamerikanischen Ländern präsent. Im deutschsprachigen Raum hatten 1999 die NGOs Weltwirtschaft, Ökologie und Entwicklung (WEED) und Kairos Europa die Initiative zur Gründung von Attac ergriffen. Attac Deutschland Attac Deutschland ist ein Projekt des eingetragenen Vereins Attac Trägerverein e.V. Der Verein ist beim Amtsgericht Frankfurt am Main unter der Vereinsregisternummer VR 12648 registriert. In Frankfurt/Main beschlossen am 22. Januar 2000 circa 100 Teilnehmer der Gründungsversammlung ein „Netzwerk zur demokratischen Kontrolle der internationalen Finanzmärkte“ zu gründen. Dieses soll eng mit der im Jahr 1998 gegründeten französischen Organisation Attac zusammenarbeiten. Attac Deutschland besteht aus Mitgliedsorganisationen und Einzelmitgliedern (Stand April 2018: über 29.000) Attac versteht sich als „Bildungsbewegung“ mit Aktionscharakter und Expertise. Über Vorträge, Publikationen, Podiumsdiskussionen und Pressearbeit sollen die Zusammenhänge der Globalisierungsthematik einer breiten Öffentlichkeit vermittelt und Alternativen zum „neoliberalen Dogma“ aufgezeigt werden. Seit mehreren Jahren begleitet ein wissenschaftlicher Beirat die Arbeit von Attac. Mit Aktionen soll Druck auf Politik und Wirtschaft zur Umsetzung der Alternativen erzeugt werden. Mit dem Jugendnetzwerk Noya sollen insbesondere junge Menschen für globalisierungskritische Themen angesprochen werden. Daneben existieren etliche Campus-Gruppen, die speziell auf Studenten und Bildungsthemen ausgerichtet sind. Attac versteht sich als Netzwerk, in dem sowohl Einzelpersonen als auch Organisationen aktiv sein können. In Deutschland gehören circa 200 Organisationen Attac an, darunter ver.di, BUND, Pax Christi, Evangelische StudentInnengemeinde in Deutschland (Bundes-ESG) Deutsche Friedensgesellschaft – Vereinigte KriegsdienstgegnerInnen (DFG-VK), Medico international und viele entwicklungspolitische und kapitalismuskritische Gruppen. Momentan sind von den über 29.000 Mitgliedern viele in den etwa 170 Regionalgruppen oder den bundesweiten Arbeitsgruppen aktiv. Attac Deutschland ist Mitglied im Tax Justice Network. Struktur Wissenschaftlicher Beirat (Auswahl) Im 2001 gegründeten wissenschaftlichen Beirat von Attac Deutschland arbeiteten circa 100 Professoren, Wissenschaftler und Experten mit. Engagiert waren Ökonomen, Soziologen, Politologen, Juristen, Psychologen und Fachleute anderer Professionen. Der Beirat war an Buchveröffentlichungen beteiligt. Seit Mai 2021 befindet sich der Wissenschaftliche Beirat in einer Phase der Reorganisation. Im alten Beirat waren vertreten (Auswahl): Quelle: Mitgliedsorganisationen von Attac Deutschland (Auswahl) Attac Deutschland versteht sich als Netzwerk, dem neben ca. 29.000 Einzelmitgliedern (2015) etwa 200 Organisationen angehören, darunter: Bekannte Personen und Prominente bei Attac Auswahl aus der Kategorie:Attac-Mitglied Themen Ursprünglich setzte sich Attac vor allem für die Einführung der Tobin-Steuer auf Finanztransaktionen und eine demokratische Kontrolle der internationalen Finanzmärkte ein. Inzwischen hat sich Attac auch anderer Themen der globalisierungskritischen Bewegung angenommen, als deren Teil es sich sieht. Seine Mitglieder nehmen häufig an Aktionen und Demonstrationen teil, die tendenziell dem linken politischen Spektrum zugeordnet werden. Attac kritisiert dabei die neoliberale Globalisierung und versucht u. a. mit Demonstrationen und Bildungs- und Aufklärungsarbeit gegen Armut und Ausbeutung zu kämpfen. Attac befasst sich in Deutschland vor allem mit folgenden Themen, zu denen es zum Großteil auch gesonderte bundesweite Arbeitszusammenhänge gibt: demokratische Kontrolle der Finanzmärkte (z. B. Tobin-Steuer), internationale Steuern und Abschaffung von Steueroasen, Fairer Handel statt Freihandel, Solidarische Ökonomie, Sicherstellung der Sozialsysteme und der öffentlichen Daseinsvorsorge, Mindestlohn, Bedingungsloses Grundeinkommen, Prekarisierung sowie die Verteilung von Arbeit, Globalisierung und Ökologie, Globalisierung und Krieg, Wissensallmende und freier Informationsfluss, für eine konzernfreie, soziale, ökologische und demokratisch kontrollierte öffentliche Daseinsvorsorge – gegen Privatisierung (von Energie, Strom, Wasser, Bildung usw.), Geschlechtergerechtigkeit, Migration, ökonomische Alphabetisierung Konsum- und Konzernkritik Demokratie und Eigentumsverteilung „Neoliberale“ Entwicklungen durch EU und WTO (insbesondere GATS und TRIPS, sowie EPAs und der Festlegung einer „neoliberalen Wirtschaftsform mit Verfassungsrang“ in einer vorerst gescheiterten EU-Verfassung), spezifische Entwicklungen in Lateinamerika. Attacs Hauptkritik an den „Kräften der neoliberalen Globalisierung“ (im Sprachverständnis von Attac zu unterscheiden von kultureller, ökologischer, politischer Globalisierung) ist, dass diese das Versprechen eines „Wohlstands für alle“ nicht haben einlösen können. Im Gegenteil: Die Kluft zwischen Arm und Reich werde immer größer, sowohl innerhalb der Gesellschaften als auch zwischen Nord und Süd. Motor dieser Art von Globalisierung seien die internationalen Finanzmärkte. Banker und Finanzmanager setzten täglich Milliardenbeträge auf diesen Finanzmärkten um und nähmen über ihre Anlageentscheidungen immer mehr Einfluss auf die gesellschaftliche Entwicklung. Damit würden die Finanzmärkte letztendlich die Demokratie untergraben. Deshalb plädiert Attac, neben anderen Maßnahmen, für die besagte Besteuerung von Finanztransaktionen, die so genannte Tobin-Steuer. Attac behauptet, neoliberale Entwicklungen seien politisch gewollt, d. h. die Politik sei nicht Opfer, sondern Hauptakteur dieses Prozesses. Attac tritt für eine „demokratische Kontrolle“ und Regulierung der internationalen Märkte für Kapital, Güter und Dienstleistungen ein. Politik müsse sich an den Leitlinien von Gerechtigkeit, Demokratie und ökologisch verantwortbarer Entwicklung ausrichten. Nur so könne die durch die kapitalistische Wirtschaftsweise entstehende gesellschaftliche Ungleichheit ausgeglichen werden. Attac möchte nach eigenen Angaben ein breites gesellschaftliches Bündnis als Gegenmacht zu den internationalen Märkten bilden. Die Behauptung, Globalisierung in ihrer jetzt herrschenden Form sei ein alternativloser Sachzwang, wird von Attac als reine Ideologie zurückgewiesen. Stattdessen wird unter Stichworten wie Alternative Weltwirtschaftsordnung, Global Governance, Deglobalisierung, Re-Regionalisierung und Solidarische Ökonomie über Alternativen diskutiert. Der Begriff „Ökonomische Alphabetisierung“ bezeichnet die Strategie von Attac, eine Vermittlung von ökonomischen Grundkenntnissen an weite Teile der Bevölkerung vorzunehmen. Da immer mehr Bereiche des öffentlichen Lebens den marktwirtschaftlichen Prinzipien unterworfen würden, seien immer öfter ökonomische Grundkenntnisse für eine Partizipation im demokratischen Prozess und für die Meinungsbildung erforderlich. Arbeitsweise Attac sagt über sich selbst, Grundsatz sei ein ideologischer Pluralismus. Inhaltlich bestehe allerdings auch ein unüberbrückbarer Gegensatz zum wirtschaftlichen Liberalismus. Attac möchte seine politischen Ziele friedlich und respektvoll durchsetzen und auf Gewalt deeskalierend reagieren. Entscheidungen werden bei Attac nicht nach dem Mehrheits-, sondern nach dem Konsensprinzip getroffen. Das heißt, dass Entscheidungen zunächst diskutiert und – falls niemand widerspricht – von allen mitgetragen werden. So können Entscheidungen auch auf vorläufiger Basis getroffen und später erneut diskutiert werden, falls eine Seite dazu anrät. Auf diese Weise kann das Meinungsspektrum der Mitglieder und Mitgliedsorganisationen besser integriert werden und kann sich keine Kultur von Mehrheitsabstimmungen entwickeln, die zum Übergehen von Minderheiten führen würde. Da Attac keine politische Partei ist, die zu jedem Thema einen abrufbaren und einheitlichen Standpunkt bereithalten muss, fallen die Nachteile des Konsensprinzips aus der Sicht der Aktivisten kaum ins Gewicht. Die Mitwirkung bei Attac findet vorwiegend in Arbeitskreisen (AKs) oder Arbeitsgemeinschaften (AGs) statt, die es sowohl auf regionaler als auch auf nationaler Ebene zu den verschiedenen Themengebieten gibt, sowie in zahlreichen Regionalgruppen. Meinungen von Attac zu wirtschaftspolitischen Themen werden zum Teil auch gesellschaftlich wahrgenommen, wie die vermehrten Auftritte von Attac-Mitgliedern in den Medien (DeutschlandRadio, Phönix) und bei Politik-Talkshows (z. B. Sven Giegold bei Sabine Christiansen, Maybrit Illner oder Jutta Sundermann als Gast von Bettina Böttinger im Kölner Treff) zeigten. Ratschlag Der Attac-Ratschlag ist bei Attac Deutschland das höchste Entscheidungsgremium. Er trifft sich zweimal jährlich, und zwar einmal als Attac-Basistreffen mit dem Schwerpunkt auf Erfahrungsaustausch und ein weiteres Mal als Entscheidungsgremium unter anderem mit den jährlichen Wahlen zum Attac-Rat und zum Koordinierungskreis. Beide Treffen sind öffentliche Vollversammlungen. Der Attac-Ratschlag ist ein bundesweites, öffentliches Treffen aller interessierten Menschen aus den Mitgliedsorganisationen, Ortsgruppen sowie den bundesweiten Arbeitszusammenhängen und aktiver Nichtmitglieder. Entscheidungen werden im Wesentlichen im Konsensverfahren getroffen, Abstimmungen sollen die Ausnahme sein. Für den Fall von Abstimmungen und Wahlen werden von den Mitgliedsorganisationen und Ortsgruppen Delegierte bestimmt. Auf dem Ratschlag haben alle Anwesenden, egal ob Attac-Mitglieder oder nicht, Rede- und Stimmrecht zu inhaltlichen Fragen. Die Verabschiedung des Haushaltes und die Wahlen der Gremien sind jedoch den Delegierten vorbehalten. Diese Delegierten werden von Attac-Gruppen, Mitgliedsorganisationen und bundesweiten Arbeitszusammenhängen bestimmt, jeweils nach ihren eigenen Verfahren, die nicht zentral geregelt sind. Jede Attac-Ortsgruppe bestimmt zwei Delegierte. Attac-Gruppen mit mehr als 100 Attac-Mitgliedern bestimmen vier Delegierte. Gruppen mit mehr als 200 Attac-Mitgliedern bestimmen sechs Delegierte. Die bundesweit tätigen Mitgliedsorganisationen bestimmen jeweils zwei Delegierte. Bundesweite Arbeitsgruppen, Kampagnen, feminist attac (früher: Frauennetzwerk), wissenschaftlicher Beirat usw. bestimmen auch jeweils zwei Delegierte. (Beschluss Ratschläge Frankfurt 2002 und Aachen 2003) Für die Delegationen zum Ratschlag gilt eine Frauenquote. Die Delegierten der Attac-Gruppen sollen so gewählt werden, dass mindestens die Hälfte der Delegierten Frauen sein können, aber maximal die Hälfte Männer. D. h.: bleiben Frauenplätze unbesetzt, sind diese nicht durch Männer auffüllbar, jedoch können leere Männerplätze durch Frauen besetzt werden. Rechtsstreit um die Gemeinnützigkeit Im Oktober 2014 erkannte das Finanzamt Frankfurt am Main Attac die Gemeinnützigkeit ab und begründete diesen Schritt mit „den allgemeinpolitischen Zielen“ der Organisation. Gemeinnützigkeit beziehe sich auf eingegrenzte Ziele wie z. B. den Umweltschutz, nicht auf ein breites gesellschaftspolitisches Engagement zu unterschiedlichen Themen, wie es Attac betreibe. Attac erhob Widerspruch gegen die Entscheidung des Finanzamts. Im November 2016 wurde dem Widerspruch durch das Hessische Finanzgericht stattgegeben und damit die Gemeinnützigkeit gerichtlich festgestellt. Gegen das Urteil ging das Finanzamt allerdings auf Weisung des Bundesfinanzministeriums mit einer Nichtzulassungsbeschwerde vor, die der Bundesfinanzhof am 13. Dezember 2017 annahm. Damit blieb das Urteil des hessischen Landesgerichtes bis zu einer Entscheidung im Revisionsverfahren ohne Rechtskraft und Attac ohne anerkannte Gemeinnützigkeit. Am 26. Februar 2019 gab der Bundesfinanzhof bekannt, dass er der Revision weitgehend stattgibt, aber zur endgültigen Entscheidung erneut an das Hessische Finanzgericht verweist. Gemeinnützige Vereine hätten kein allgemeinpolitisches Mandat, das aber Attac durch Pressemitteilungen zu sehr unterschiedlichen Themen wahrnehme. Die öffentliche Meinung „im Sinne eigener Auffassungen“ zu beeinflussen, sei durch den gemeinnützigen Zweck der politischen Bildung nicht abgedeckt. Diese setze „ein Handeln in geistiger Offenheit voraus“ und schließe nur die Erarbeitung von Lösungsvorschlägen ein. Die FAZ verwies darauf, dass diese Beschränkung in gleicher Weise für parteinahe Stiftungen gelte. Weiter argumentierte der Bundesfinanzhof, dass einseitig beeinflussendes politisches Engagement nur zugunsten einer eng begrenzten Zahl von gemeinnützigen Zwecken erfolgen darf, unter anderem Natur- und Tierschutz sowie „die allgemeine Förderung des demokratischen Staatswesens“. attac stellte den „Dominoeffekt“ heraus, den die Entscheidung des Bundesfinanzhofs mit sich bringen würde, denn es gehe nicht nur um attac. Eine der größten deutschen gesellschaftspolitischen Kampagnenorganisation Campact begann im Zuge des Rechtsstreites damit, keine Spendenbescheinigungen mehr auszustellen, da sie fürchtet, den Status der Gemeinnützigkeit ebenfalls entzogen zu bekommen. Mit dem Entzug der Gemeinnützigkeit mache man Organisationen „mundtot“, die Kampagnen mit allgemeinpolitischem Charakter unterstützen. Bereits mit und vor dem Urteil von 2014 wurde eine Beschränkung der steuerbegünstigten politischen Ziele durch die Abgabenordnung kritisiert. „Politik ist nicht nur Sache der Parteien, das spiegelt nicht die Zivilgesellschaft von heute“ wider, sagte etwa Ulrich Müller, Geschäftsführer von LobbyControl. Unabhängig von dem laufenden Rechtsstreit fordert attac eine Erweiterung des Gemeinnützigkeitsrechts in Deutschland. Der Satzungszweck „Förderung des demokratischen Staatswesens“ müsse wie Umwelt- und Naturschutz als gemeinnütziger Zweck anerkannt werden. Im März 2021 reichte Attac Verfassungsbeschwerde gegen den Entzug der Gemeinnützigkeit ein. Aktionen von Attac (Auswahl) Regelmäßige Veranstaltungen jährlich stattfindende Attac-Sommerakademie (2009 – Karlsruhe: gekoppelte Sommerakademie mit Ratschlag; 2008 – Leipzig: gekoppelte Sommerakademie mit Frühjahrsratschlag; 2007 – Fulda: 1. gekoppelte Ratschlagsakademie; 2006 – Karlsruhe; 2005 – Göttingen; 2004 – Dresden; 2003 – Münster; 2002 – Marburg), im Mai 2008 stattdessen eine Ratschlagsakademie („Maitage“) in Leipzig 1.–6. August 2008: erste Europäische Attac-Sommeruniversität in Saarbrücken; 9.–14. August 2011: European Network Academy in Freiburg jährlich stattfindende Attac-Aktionsakademie seit 2006 jährlich stattfindende Attacademie, in der Aktive in Seminaren ein Jahr lang alles über Theorie und Praxis emanzipativer Globalisierungskritik sowie das notwendige Handwerkszeug für wirkungsvolle gesellschaftspolitische Arbeit lernen können Mitorganisation von bundesweiten Kongressen, z. B. McPlanet.com, Solidarische Ökonomie 2006, Klimacamp 2008, Lateinamerika-Kongress 2008, Kapitalismuskongress 2009, Bankentribunal 2010, Postwachstumskongress 2011 Die Demonstration Wir haben es satt! wird gemeinsam von Attac und anderen Organisationen getragen. Die Veranstaltung findet jedes Jahr Anfang Januar in Berlin statt. Kampagnen 2002 STOPP-GATS-Kampagne 2003 Mobilisierung gegen den Irakkrieg mit Großdemo am 15. Februar 2003 in Berlin Attac-Aktion SPD erhängt den Sozialstaat am 5. September 2003 (Ein Aktivist seilte sich vom Willy-Brandt-Haus in Berlin ab) 2004 Anlässlich des Kauf-nix-Tags Versteigerungsversuch von Nix bei eBay Beteiligung an Demonstrationen gegen die Agenda 2010 gemeinsam mit DGB und anderen Kampagne „Vodaklau“ gegen die steuersparenden Abschreibungspläne von Vodafone nach der Übernahme von Mannesmann, „Her mit den 20.000.000.000 Euro“ 2005 Aktion gegen die Umsetzung der Biopatentrichtlinie. Kampagne gegen die EU-Verfassung, auch gemeinsam mit Attac Frankreich Kampagne für die Veröffentlichung aller Nebeneinkünfte von Politikern – in Kooperation mit Campact, dem BUND und Mehr Demokratie Aktionen gegen die Europäische Dienstleistungsrichtlinie, europaweite Großdemonstration am 19. März 2005 in Brüssel Online-Demo gemeinsam mit Campact: Gesicht zeigen gegen Softwarepatente Beginn einer mehrjährigen Kampagne gegen Produktions- und Arbeitsbedingungen beim Discounter Lidl 2006 Kampagne für internationale Steuern mit Aktionen zur Einführung einer Flugticketabgabe in Paris und Berlin Beteiligung am Bündnis Bahn für Alle gegen den geplanten Börsengang der Deutschen Bahn AG im Jahr 2006 und 2007 2007 Beteiligung an der Vorbereitung der Proteste gegen den G8-Gipfel in Deutschland Mitorganisation des Klima-Aktionstags am 8. Dezember 2007 mit Demonstrationen vor dem Kraftwerk Neurath und in Berlin Veröffentlichung eines Aktionsplans zur Schließung von Steueroasen. 2008 Protestaktion von Attac in der Frankfurter Börse, im Oktober 2008 live übertragen bei diversen Nachrichten- und Börsensendern. Kampagne power to the people ab Anfang 2008 gegen das Oligopol bei der Energie-/Stromversorgung und für die demokratische Kontrolle der Stromnetze 2009 Im März 2009 verteilte Attac in 90 deutschen Städten 150.000, auf den 1. Mai 2010 datierte, Plagiate der Wochenzeitung Die Zeit, in denen eine – nach den Wünschen der Globalisierungskritiker in 13 Monaten realisierbare – mögliche Zukunft nach der Wirtschaftskrise dargestellt wird. Sie folgt damit einem früheren Plagiat der New York Times mit ähnlichen Zielen. Ein Exemplar der Fälschung lag der Ausgabe der taz vom 23. März 2009 bei. Auch die Webseite von Zeit-Online wurde plagiiert, wozu eigens eine Webseite (die-zeit.net). eingerichtet wurde. Im Oktober 2010 erhielt Attac für die Zeitung den renommierten Otto-Brenner-Preis. Ende März 2009 kamen in Berlin und Frankfurt 55.000 Menschen zu den Demos Wir zahlen nicht für Eure Krise!, die von Attac und einem breiten Bündnis organisiert wurden. Seit Ende 2009 ist Attac Mitglied im Koordinierungskreis des Bündnisses Steuer gegen Armut, das sich für die Einführung der Finanztransaktionssteuer, eine der Gründungsforderungen Attacs, einsetzt. Aktionen waren das Sammeln von rund 60.000 Unterschriften für eine Petition an den Deutschen Bundestag sowie die Veröffentlichung eines Kampagnenspots mit Heike Makatsch und Jan Josef Liefers. 2010 Im April 2010 organisierte Attac ein zivilgesellschaftliches Bankentribunal, das die Ursachen des Finanzcrashs beleuchtete und die politischen Maßnahmen zur Rettung der Banken kritisierte. Im Sommer 2010 protestiert Attac mit Demos und Aktionen sowie einem alternativen Umverteilungspaket gegen das von der Bundesregierung vorangetriebene Sparpaket. Bankenaktionstag am 29. September 2010 mit Aktionen in zirka 75 Städten, darunter auch einige Bankenblockaden und -besetzungen. Zu diesem Tag erschien die Financial Crimes, ein weiteres Zeitungsplagiat in Anlehnung an die gefälschte Zeit (siehe März 2009), die laut Angaben von Attac in 120.000 Exemplaren verteilt worden ist. Im November 2010 Unautorisierte Öffentlichmachung eines Gutachtens über die Verantwortung des Freistaats Bayerns an der Krise der Bayerischen Landesbank. Zum Jahreswechsel 2010/11 Proteste gegen die Übernahme des Ökotextilherstellers Hess Natur durch den Private-Equity-Fonds Carlyle sowie Unterstützung der Gründung von HNGeno, die Hess Natur als Genossenschaft von Beschäftigten, Kunden und Investoren aufkaufen und betreiben möchte. 2011 Im Februar 2011 beteiligte Attac sich an den Großdemos und dezentralen Aktionstagen gegen Atomkraft unter dem Eindruck der Fukushima-Katastrophe. Auch in den Jahren zuvor mobilisierte Attac zu den in der Regel von .ausgestrahlt organisierten Demos und Menschenketten. Im Juni 2011 Start der Konsumentenkampagne Bank wechseln – Politik verändern! Für den 15. Oktober 2011 mobilisierte Attac zu dezentralen Demos zur Finanzmarktkrise, die bemerkenswerten Zulauf erhielten und die als Geburtsstunde der deutschen Occupy-Bewegung gelten. Im November 2011 organisierte Attac im Bündnis Banken in die Schranken die zeitgleiche Umzingelung des Bankenviertels in Frankfurt und des Regierungsviertels in Berlin mit zusammen rund 18.000 Beteiligten. 2012 Bis Mai 2012 Mobilisierung und Organisation der Blockupy-Proteste gegen die Krisenpolitik der Troika aus EZB, EU-Kommission und IWF. Im April 2012 Start diverser Aktionen gegen den Europäischen Fiskalpakt, unter anderem eine Online-Aktion unter www.fiskalpakt-stoppen.de, die in einem breiten Bündnis beworben wurde. Empörung unter einigen Bundestagsabgeordneten Deutschlands löste die Postkartenaktion einer Attac-Regionalgruppe an sie Ende Juni 2012 aus. Attac Aachen vergleicht die Zustimmung zum Fiskalpakt und zum ESM mit dem Ermächtigungsgesetz von 1933 in Nazideutschland. Attac Deutschland hat sich nach Bekanntwerden der Aktion sofort davon distanziert und erklärt, dass es derartige Vergleiche für unangemessen hält. Anschluss Attacs an das Bündnis Umfairteilen. 2013 Start einer Kampagne unter dem Namen Sparbucks gegen Steuervermeidung durch Konzerne und für eine Gesamtkonzernsteuer. 2016 Attac ist Erstunterzeichner des bundesweiten Bündnis „Aufstehen gegen Rassismus“. Unterzeichnung des Aufrufes von Ende Gelände, einer Großaktion des zivilen Ungehorsams für den Klimaschutz. 2017 Start der Kampagne Reichtum Umverteilen – ein gerechtes Land für alle gemeinsam mit Oxfam, Verdi, GEW und über 20 weiteren Organisationen. Attac hat sich beim Protest gegen den G20-Gipfel in Hamburg aktiv beteiligt, so haben sie den Alternativgipfel mitorganisiert, waren im Bündnis „Grenzenlose Solidarität statt G20“ und haben zur Blockade „Block G20 – Colour the Red Zone“ aufgerufen. Zum Jahreswechsel 2017/18 Protestaktionen gegen Steuertricks von Apple. 2018 Im April 2018 gemeinsame Protestaktion von Attac mit dem Bündnis „Make Amazon Pay“ und der Gewerkschaft Verdi in Berlin gegen die Ausbeutung von Arbeitskräften bei Amazon. Protestaktion #seebrücke von Attac und einem breiten Bündnis aus anderen Organisationen für sichere Häfen in Europa. Attac beteiligt sich in landesweiten Bündnissen an den Protesten gegen die Verschärfungen der Polizeigesetze. Am 15. September 2018 haben etwa 50 Aktivisten zum 10. Jahrestag des Höhepunktes der Weltfinanzkrise die Frankfurter Paulskirche besetzt. Attac Österreich Attac Österreich ist ein in Wien unter der Nummer ZVR 969464512 eingetragener bundesweiter Verein und wurde am 6. November 2000 gegründet. Die Gründung war von 50 Personen aus allen Gesellschaftsbereichen vorbereitet worden. Zur Auftaktveranstaltung in Wien kamen mehr als 300 Interessierte. Neben den Proponenten saßen die Politikwissenschaftlerin Susan George von Attac Frankreich, Stephan Schulmeister vom Österreichischen Institut für Wirtschaftsforschung (WIFO) und Brigitte Unger, Professorin für Ökonomie an der Wirtschaftsuniversität Wien, auf dem Podium. Der Verein hat über 5400 Einzelmitglieder und mehr als 70 Mitgliedsorganisationen. Prominente Unterstützer sind unter anderem die Schriftsteller Franzobel und Robert Menasse. Zu den wichtigsten regelmäßigen Veranstaltungen zählen eine jährliche Sommerakademie an wechselnden Orten Österreichs sowie seit 2009 eine gemeinsam mit Greenpeace und anderen NGOs veranstaltete Aktionsakademie. Attac Österreich zeichnet auch für die Initiative Wege aus der Krise verantwortlich. Zu den Unterstützern dieser Initiative zählen die Armutskonferenz, die Gewerkschaft der Gemeindebediensteten, Kunst, Medien, Sport und freie Berufe (GdG-KMSfB), Global 2000 Österreich, die Gewerkschaft der Privatangestellten (GPA), Greenpeace Austria, die Katholische ArbeitnehmerInnen Bewegung Österreich (KAB), die Österreichische Hochschülerinnen- und Hochschülerschaft, die Gewerkschaft PRO-GE, SOS Mitmensch und die Gewerkschaft Vida sowie eine Reihe weiterer Organisationen. Arbeitsweise Attac Österreich ist ein unabhängiger, in Wien eingetragener bundesweiter Verein. Attac Österreich steht nach eigenen Angaben keiner Partei nahe. Die koordinierende Stelle ist der auf der jährlichen Generalversammlung gewählte Vorstand. Bei der konstituierenden Generalversammlung am 20. Mai 2001 wurde das Prinzip des Gender-Mainstreaming in den Statuten Attacs verankert. Der Vorstand besteht laut diesen Statuten zu mindestens 50 Prozent aus Frauen. Der Großteil der Arbeit basiert auf dem Engagement ehrenamtlicher Aktivisten in knapp 30 Regional- und zahlreichen Inhaltsgruppen. Mitgliedsorganisationen von Attac Österreich (Auszug) Arbeitnehmerorganisationen Alternative und Grüne GewerkschafterInnen/Unabhängige GewerkschafterInnen (AUGE/UG) Gewerkschaft der Privatangestellten (Gewerkschaft GPA) Gewerkschaft Hotel, Gastgewerbe und Persönliche Dienste (HGPD) Gewerkschaft Kunst, Medien, Sport, freie Berufe Gewerkschaft PRO-GE, Produktionsgewerkschaft Gewerkschaft Bau-Holz ÖGB Oberösterreich ÖGB Tirol Kirche Caritas Innsbruck Katholische Aktion Österreich Katholische Frauenbewegung Österreichs Katholische Jugend Österreich Katholische Sozialakademie Österreich Katholische ArbeitnehmerInnen Bewegung Österreich Entwicklungspolitik Südwind Wien Südwind Niederösterreich Südwind Oberösterreich Südwind Entwicklungspolitik Salzburg Arbeitsmarkt, Soziales, Pensionen, Sozialismus Arbeit für Gerechtigkeit EXIT-Sozial – Verein für psychosoziale Dienste SOS Mitmensch Sozialistische Jugend Oberösterreich Volkshilfe Österreich Gemeinden Molln Gallneukirchen Ebensee am Traunsee Publikationen Klimasoziale Politik – Eine gerechte und emissionsfreie Gesellschaft gestalten, gemeinsam mit Armutskonferenz und Beigewum, Bahoe Books, Wien 2021, ISBN 978-3-903290-65-5. Attac Schweiz In der Schweiz wurde Attac bereits 1999 gegründet und besteht aus etwa einem Dutzend Lokalgruppen. Im Gegensatz zur Schreibweise in Deutschland und anderen Ländern schreibt sich ATTAC Schweiz mit Großbuchstaben. Kritik Allgemeine Kritik Eine Innenansicht mit Kritik am Organisierungsmodell von Attac und den prägenden Inhalten ist im 2004 veröffentlichten Buch Mythos Attac von Jörg Bergstedt zu finden. Parallel zum Buch sind Internetseiten mit gesammelten Kritiken und Zitaten aus der Organisation entstanden. James Tobin, der „Erfinder“ der Tobin-Steuer, distanzierte sich in einem Interview mit dem deutschen Magazin Der Spiegel im Jahr 2001 von Attac und anderen Globalisierungskritikern: „Ich kenne wirklich die Details der Attac-Vorschläge nicht genau. Die jüngsten Proteste sind ziemlich widersprüchlich und uneinheitlich, ich weiß nicht einmal, ob all das Attac widerspiegelt. Im großen Ganzen sind deren Positionen gut gemeint und schlecht durchdacht. Ich will meinen Namen nicht damit assoziiert wissen.“ Antisemitismuskontroverse Attac wurde von verschiedenen Seiten eine Nähe zum Antisemitismus vorgeworfen. In Deutschland dementierte der Attac-Koordinierungskreis im Dezember 2002 diese Vorwürfe in Form eines Diskussionspapieres. Darin heißt es, dass Attac sich als pluralistisches und offenes Bündnis verstehe. Pluralismus würde jedoch nicht als prinzipienlose Beliebigkeit definiert, sondern fände dort seine Grenzen, wo Rassismus, Antisemitismus und Nationalismus ins Spiel kämen. Auch nach dieser Darstellung gab es weitere Kritik in diesem Bereich, zum Beispiel im Hinblick auf ein Plakat, das auf dem Attac-Ratschlag 2003 neben der Bühne stand und das nach Ansicht von Kritikern die Zinsknechtschaft anprangerte oder ein Aufruf der Attac-AG Globalisierung und Krieg zum Boykott von Waren aus jüdischen Siedlungen in Palästinensergebieten. Toralf Staud konstruierte in der Wochenzeitung Die Zeit unter anderem durch seine Interpretation eines gezeigten Plakats den Vorwurf, dass, wenn über „das Finanzkapital“ oder „die Wall Street“ geraunt würde, dies das alte Vorurteil vom geldgierigen Juden wachrufe. Etliche Globalisierungskritiker erlägen seiner Ansicht nach der Versuchung, für unübersichtliche Entwicklungen Sündenböcke verantwortlich zu machen. Die komplexen Zusammenhänge der Globalisierung reduzierten sie auf ein „Komplott dunkler Mächte“. In Österreich veranstaltete Attac vom 18. bis 20. Juni 2004 den Kongress Blinde Flecken der Globalisierungskritik gegen antisemitische Tendenzen und rechtsextreme Vereinnahmung, unterstützt vom Dokumentationsarchiv des österreichischen Widerstandes. Der Kongress ist in einem Reader dokumentiert, in welchem die Thematik kritisch betrachtet, und die generelle einhellige Ablehnung rechtsextremer Ideologien bei Attac formuliert wird. Rezeption Die Aberkennung der Gemeinnützigkeit von attac Deutschland durch deutsche Gerichte bedeutete einen Einschnitt in die Arbeit von attac in der Bundesrepublik. Die spendenbasierte finanzielle Grundlage der Organisationsstrukturen musste neu ausgerichtet werden. Heribert Prantl schrieb in der Süddeutschen Zeitung zur Bedeutung von attac: „Egal wie man zu den Aktionen von Attac steht; man muss den Verein ... nicht unbedingt mögen, um das Unwerturteil des Gerichts und dessen Begründung als höchst sonderbar zu kritisieren. Das Urteil besagt letztendlich, dass aus Sicht des Steuerrechts das pointierte Agieren in der Zivilgesellschaft, also das Werben für politische Projekte und Positionen eine irgendwie suspekte, jedenfalls nicht förderungswürdige Sache sei.“ Das Urteil habe eine “toxischer Wirkung” für die gesamte Zivilgesellschaft. Siehe auch Internationaler Währungsfonds Weltbank Weltsozialforum Schriften (Auswahl) Zwischen Konkurrenz und Kooperation. Analysen und Alternativen zum Standortwettbewerb, Mandelbaum Verlag, Wien 2006, ISBN 978-3-85476-190-7. Konzernmacht brechen! Von der Herrschaft des Kapitals zum Guten Leben für Alle, Mandelbaum Verlag, Wien 2016, ISBN 978-3-85476-650-6 (Buch als PDF-Datei). Entzauberte Union. Warum die EU nicht zu retten und ein Austritt keine Lösung ist, Mandelbaum Verlag, Wien 2017, ISBN 978-3-85476-669-8. Literatur Udo Baron: Die Anti-Globalisierungsbewegung und der Linksextremismus. Das globalisierungskritische Netzwerk „Attac“. In: Uwe Backes, Eckhard Jesse (Hrsg.): Jahrbuch Extremismus & Demokratie, 17. Jahrgang (2005), Nomos, Baden-Baden 2005, ISBN 3-8329-1665-2, S. 160–172. Weblinks Offizielle Website von Attac International (deutsch, englisch, französisch, spanisch) Grafik: Weltweite Verbreitung des Politiknetzwerks Attac, aus: Zahlen und Fakten: Globalisierung, www.bpb.de „Zwischen Protest und Pragmatismus. Zehn Jahre Attac“, Radio-Feature, SWR2, 25. Januar 2008 Einzelnachweise Globalisierungskritische Organisation Abkürzung Gegründet 1998 Internationale Organisation (Paris) Verein (Paris)
441
https://de.wikipedia.org/wiki/Almandin
Almandin
Almandin, auch als Eisentongranat oder Eisen-Tonerdegranat bezeichnet, ist ein Mineral aus der Gruppe der Granate innerhalb der Mineralklasse der „Silikate und Germanate“. Er kristallisiert im kubischen Kristallsystem mit der idealisierten Zusammensetzung Fe3Al2[SiO4]3, ist also chemisch gesehen ein Eisen-Aluminium-Silikat, das strukturell zu den Inselsilikaten gehört. Almandin ist das Eisen-Analogon zu Spessartin (Mn3Al2[SiO4]3) und Pyrop (Mg3Al2[SiO4]3) und bildet mit diesen eine Mischkristallreihe, die sogenannte „Pyralspit-Reihe“. Da Almandin zudem mit Grossular (Ca3Al2[SiO4]3) Mischkristalle bildet, weist natürlicher Almandin ein entsprechend weites Spektrum der Zusammensetzung mit je nach Bildungsbedingungen mehr oder weniger großen Anteilen von Mangan, Magnesium und Calcium auf. Zusätzlich können noch Spuren von Natrium, Kalium, Chrom und Vanadium, seltener auch Scandium, Yttrium, Europium, Ytterbium, Hafnium, Thorium und Uran vorhanden sein. Das Mineral ist durchsichtig bis durchscheinend und entwickelt typischerweise Rhombendodekaeder oder Ikositetraeder sowie Kombinationen dieser Kristallformen, die fast kugelig wirken. Ebenfalls oft zu finden sind körnige bis massige Mineral-Aggregate. Im Allgemeinen können Almandinkristalle eine Größe von mehreren Zentimetern Durchmesser erreichen. Es wurden jedoch auch Riesenkristalle von bis zu einem Meter Durchmesser bekannt. Die Farbe von Almandin variiert meist zwischen dunkelrot und rotviolett, kann aber auch bräunlichrot bis fast schwarz sein. Almandin ist die weltweit am häufigsten auftretende Granatart und kommt oft in schleifwürdigen Qualitäten mit starkem, glasähnlichem Glanz vor, was ihn zu einem begehrten Schmuckstein macht. Etymologie und Geschichte Almandin war bereits Plinius dem Älteren (ca. 23–79 n. Chr.) unter dem Namen alabandicus bekannt und gehörte allgemein zu den „Karfunkelsteinen“ (carbunculus), das heißt roten Edelsteinen. Benannt wurde er nach der antiken Stadt Alabanda in Karien (Kleinasien, heute in der türkischen Provinz Aydın), wo der Stein bearbeitet worden sein soll. Alabanda gilt daher auch als Typlokalität für Almandin. Im Mittelalter waren verschiedene Abwandlungen des Namens im Umlauf wie unter anderem alabandina, alabandra und alabanda. Albertus Magnus (um 1200–1280) führte die Bezeichnung alamandina ein, die fast der heutigen Form entsprach. Um 1800 wurde die Bezeichnung Almandin schließlich endgültig von Dietrich Ludwig Gustav Karsten (1768–1810) auf den Eisentongranat festgelegt. Kurioserweise wurde das 1784 erstmals beschriebene und namentlich ähnliche Mangansulfid Alabandin ebenfalls nach dem türkischen Ort Alabanda benannt, obwohl es dort bisher nicht nachgewiesen werden konnte. Klassifikation Die strukturelle Klassifikation der International Mineralogical Association (IMA) zählt den Almandin zur Granat-Obergruppe, wo er zusammen mit Andradit, Calderit, Eringait, Goldmanit, Grossular, Knorringit, Morimotoit, Majorit, Menzerit-(Y), Momoiit, Pyrop, Rubinit, Spessartin und Uwarowit die Granatgruppe mit 12 positiven Ladungen auf der tetraedrisch koordinierten Gitterposition bildet. In der mittlerweile veralteten, aber noch gebräuchlichen 8. Auflage der Mineralsystematik nach Strunz gehörte der Almandin zur Abteilung der „Inselsilikate (Nesosilikate)“, wo er zusammen mit Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, Hydrougrandit, Katoit, Kimzeyit, Knorringit, Majorit, Morimotoit, Pyrop, Schorlomit, Spessartin, Uwarowit, Wadalit und Yamatoit (diskreditiert, da identisch mit Momoiit) die „Granatgruppe“ mit der System-Nr. VIII/A.08 bildete. Die seit 2001 gültige und von der International Mineralogical Association (IMA) verwendete 9. Auflage der Strunz’schen Mineralsystematik ordnet den Almandin ebenfalls in die Abteilung der „Inselsilikate (Nesosilikate)“ ein. Diese ist weiter unterteilt nach der möglichen Anwesenheit weiterer Anionen und der Koordination der beteiligten Kationen, so dass das Mineral entsprechend seiner Zusammensetzung in der Unterabteilung „Inselsilikate ohne weitere Anionen; Kationen in oktahedraler [6] und gewöhnlich größerer Koordination“ zu finden ist, wo es zusammen mit Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Holtstamit, Katoit, Kimzeyit, Knorringit, Majorit, Momoiit, Morimotoit, Pyrop, Schorlomit, Spessartin und Uwarowit die „Granatgruppe“ mit der System-Nr. 9.AD.25 bildet. Ebenfalls zu dieser Gruppe gezählt wurden die mittlerweile nicht mehr als Mineral angesehenen Granatverbindungen Blythit, Hibschit, Hydroandradit und Skiagit. Wadalit, damals noch bei den Granaten eingruppiert, erwies sich als strukturell unterschiedlich und wird heute mit Chlormayenit und Fluormayenit einer eigenen Gruppe zugeordnet. Die nach 2001 beschriebenen Granate Irinarassit, Hutcheonit, Kerimasit, Toturit, Menzerit-(Y) und Eringait wären hingegen in die Granatgruppe einsortiert worden. Auch die vorwiegend im englischen Sprachraum gebräuchliche Systematik der Minerale nach Dana ordnet den Almandin in die Abteilung der „Inselsilikatminerale“ ein. Hier ist er zusammen mit Pyrop, Spessartin, Knorringit, Majorit und Calderit in der „Granatgruppe (Pyralspit-Reihe)“ mit der System-Nr. 51.04.03a innerhalb der Unterabteilung „[[Systematik der Minerale nach Dana/Silikate#51.04 Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >[6]-Koordination|Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >[6]-Koordination]]“ zu finden. Chemismus Almandin mit der idealisierten Zusammensetzung [X]Fe2+3[Y]Al3+[Z]Si3O12 ist das Eisen-Analog von Pyrop ([X]Mg2+3[Y]Al[Z]Si3O12) und kommt in der Natur meistens als Mischkristall mit Pyrop Spessartin und Grossular vor. Mit diesen Endgliedern besteht, zumindest bei geologisch relevanten Temperaturen, unbegrenzte Mischbarkeit, entsprechend den Austauschreaktionen [X]Fe2+ = [X]Mg2+ (Pyrop) [X]Fe2+ = [X]Mn2+ (Spessartin) [X]Fe2+ = [X]Ca2+ (Grossular) Für die Mischungsreihe Almandin-Grossular konnten bislang keine Hinweise auf eine Mischungslücke gefunden werden. Nur für pyropreiche Pyrop-Grossular-Almandin-Mischkristalle wurde eine Mischungslücke bei Temperaturen unterhalb von ungefähr 600 °C nachgewiesen. Auf der oktaedrisch koordinierten Y-Position kann Al3+ ersetzt werden durch Fe3+, entsprechend der Austauschreaktion [Y]Al3+ = [Y]Fe3+ (Skiagit) Almandinreiche Granate bilden sich meist bei der Metamorphose von Peliten und sind häufig zoniert. Bei zunehmender Metamorphose, d. h. steigender Temperatur und Druck, wachsen Granate mit spessartin- und grossularreichen Kern, die zum Rand hin almandin- und pyropreicher werden. Spessartinreiche Ränder hingegen deuten auf ein Granatwachstum bei absteigender Metamorphose und niedrigen Temperaturen hin. Die Korrelation der Gehalte an Eisen, Mangan und Magnesium erlaubt Rückschlüsse auf die Mineralreaktion, über die Granat bei der Metamorphose gebildet worden ist. Kristallstruktur Almandin kristallisiert mit kubischer Symmetrie in der sowie 8 Formeleinheiten pro Elementarzelle. Es gibt zahlreiche Bestimmungen für die Kantenlänge der kubischen Elementarzelle sowohl natürlicher Mischkristalle wie auch synthetischer Almandine. Für das reine Almandinendglied wird der Gitterparameter z. B. mit a = 11,526 Å oder a = 11,525 Å angegeben. Die Struktur ist die von Granat. Eisen (Fe2+) besetzt die dodekaedrisch von 8 Sauerstoffionen umgebenen X-Positionen und führt eine deutlich asymmetrische Schwingung um das Zentrum der Position aus. Das Eisenion ist etwas zu klein für die Dodekaederporition und „schlackert“ etwas. Aluminium (Al3+) besetzt die oktaedrisch von 6 Sauerstoffionen umgebene Y-Position und die tetraedrisch von 4 Sauerstoffionen umgebenen Z-Position ist ausschließlich mit Silicium (Si4+) besetzt. Bei einigen natürlichen Almandin-Grossular-Mischkristallen wurde Doppelbrechung und die Ausbildung von Sektorzonierung beobachtet. Als Erklärung für diese Doppelbrechung wird eine teilweise geordnete Verteilung von Fe und Mg einerseits und Ca andererseits auf der X-Position der Granatstruktur angeführt. Dies geht einher mit einer Symmetrieerniedrigung auf die tetragonale Raumgruppe I4acd. Neuere Untersuchungen an einer großen Gruppe von Aluminiumgranaten finden keine belastbaren Hinweise auf eine Symmetrieerniedrigung und Ordnung von Kationen. Als Ursache der Doppelbrechung werden Gitterspannungen (Spannungsdoppelbrechung) genannt. Varietäten und Modifikationen Rhodolithe, allgemein auch als orientalische Granate bekannt, sind rosa- bis rotviolette Almandin-Varietäten, die genau genommen Almandin-Pyrop-Mischkristalle mit einem Mischungsverhältnis von Magnesium : Eisen ≈ 2 : 1 und einer Dichte von etwa 3,84 g/cm³ sind. Bekannte Vorkommen für Rhodolith sind unter anderem Brasilien, Indien, Kenia, Madagaskar, Mexiko, Sambia und Tansania. Auch der Malaya-Granat ist ein Almandin-Pyrop-Mischkristall mit den gleichen Fundgebieten wie Rhodolith, allerdings von eher rötlich oranger Farbe. Benannt wurde er nach dem Suaheli-Wort malaya für „außerhalb der Familie stehend“. Bildung und Fundorte Almandin ist ein charakteristisches Mineral metamorpher Gesteine wie unter anderem Glimmerschiefer, Amphibolit, Granulit und Gneis. Ab ungefähr 450 °C bildet sich almandinreicher Granat bei der Reaktion von Chloritoid + Biotit + H2O zu Granat + Chlorit. Ab ca. 600 °C bildet sich Granat beim Abbau von Staurolith, und selbst bei beginnender Gesteinsschmelze können Granate noch neu gebildet werden, z. B. bei der Reaktion von Biotit + Sillimanit + Plagioklas + Quarz zu Granat + Kalifeldspat + Schmelze. Erst ab Temperaturen von 900 °C baut sich Granat ab zu Spinell + Quarz oder bei hohen Drucken zu Orthopyroxen + Sillimanit. Almandinreiche Granate können sich aber auch in magmatischen Gesteinen wie Granit und Granit-Pegmatit bilden. Die Kristalle sind normalerweise im Mutter-Gestein eingebettet (Blasten) und von anderen Almandin-Kristallen getrennt. Granate mit den bisher höchsten bekannten Almandingehalten von 86,7 % (Stand: 1995) fand man bei Kayove in Ruanda, aber auch in Deutschland traten schon almandinreiche Kristalle von rund 76 % auf, so unter anderem bei Bodenmais. Als häufige Mineralbildung ist Almandin an vielen Fundorten anzutreffen, wobei bisher (Stand: 2014) rund 2200 Fundorte als bekannt gelten. Begleitet wird Almandin unter anderem von verschiedenen Amphibolen, Chloriten, Plagioklasen und Pyroxenen sowie von Andalusit, Biotit, Cordierit, Hämatit, Kyanit, Sillimanit und Staurolith. Neben seiner Typlokalität Alabanda trat das Mineral in der Türkei bisher nur noch in den Granat-Amphiboliten nahe Çamlıca auf der asiatischen Seite Istanbuls auf. In Deutschland konnte Almandin an mehreren Orten im Schwarzwald (Freiburg im Breisgau, Grube Clara in Oberwolfach) in Baden-Württemberg, an vielen Orten in Bayern (Bayerischer Wald, Oberpfälzer Wald, Spessart), bei Ruhlsdorf/Eberswalde-Finow in Brandenburg, an einigen Orten im Odenwald (Erlenbach, Lindenfels), bei Bad Harzburg in Niedersachsen, bei Bad Doberan in Mecklenburg-Vorpommern, bei Perlenhardt und am Drachenfels (Königswinter) in Nordrhein-Westfalen, an vielen Orten in der Eifel in Rheinland-Pfalz, in der Grube „Gottesbelohnung“ bei Schmelz im Saarland, im Steinbruch Diethensdorf und bei Penig sowie an vielen Orten im Erzgebirge in Sachsen und an einigen Orten in Schleswig-Holstein (Barmstedt, Kiel, Schleswig, Travemünde) gefunden werden. In Österreich fand sich das Mineral bisher vor allem in Kärnten in den Gurktaler Alpen und der Saualpe, in der Koralpe von Kärnten bis zur Steiermark und in den Niederen Tauern, aber auch an mehreren Orten in Niederösterreich (Wachau, Waldviertel), Salzburg (Hohe Tauern), im Tiroler Gurgler Tal und Zillertal sowie an einigen Fundpunkten in Oberösterreich und Vorarlberg. In der Schweiz sind Almandinfunde bisher nur von einigen Orten in den Kantonen Tessin (Gotthardmassiv) und Wallis (Binntal) bekannt geworden. Bekannt aufgrund außergewöhnlicher Almandinfunde sind unter anderem die Ishikawa-Pegmatite in der Präfektur Fukushima auf der japanischen Insel Honshū und Shengus am Haramosh in Pakistan, wo gut ausgebildete Almandinkristalle von bis zu 15 Zentimeter Durchmesser entdeckt wurden. Bis zu 5 Zentimeter große Kristalle fand man unter anderem in den Glimmerschiefern und Gneisen bei Fort Wrangell in Alaska und bei Bodø in Norwegen. Auch in Italien, in Südtirol, wurden Almandine von beträchtlicher Größe am Granatenkogel im Seebertal gefunden. Weitere Fundorte liegen unter anderem in Afghanistan, Ägypten, Äthiopien, Algerien, Angola, der Antarktis, Argentinien, Australien, Belgien, Bolivien, Brasilien, Bulgarien, Burkina Faso, Chile, China, der Demokratischen Republik Kongo, Finnland, Frankreich und Französisch-Guayana, Griechenland, Grönland, Guatemala, Indien, Ireland, Israel, Kanada, Kolumbien, Korea, Madagaskar, Malawi, Mexiko, der Mongolei, Myanmar, Namibia, Nepal, Neukaledonien, Neuseeland, Norwegen, Polen, Portugal, Rumänien, Russland, Saudi-Arabien, Schweden, Simbabwe, der Slowakei, Slowenien, Spanien, Sri Lanka, Südafrika, Taiwan, Tadschikistan, Thailand, Tschechien, der Ukraine, Ungarn, Usbekistan, im Vereinigten Königreich (UK) und den Vereinigten Staaten von Amerika (USA). Auch in Gesteinsproben vom Mond konnte Almandin nachgewiesen werden. Verwendung Almandin wird wie die meisten anderen Minerale der Granatfamilie vor allem als Schmuckstein verwendet, die je nach Reinheit und Klarheit in Facettenform oder zu Cabochons geschliffen werden. Weniger edle, das heißt zu dunkle und undurchsichtige Varietäten, werden auch als Schleifmittel genutzt. Verwechslungsgefahr besteht vor allem mit den verschiedenen Granatvarietäten aufgrund der überwiegenden Mischkristallbildung zwischen den einzelnen Endgliedern. Daneben kann Almandin aber auch mit Rubin, Spinell und roten Turmalinen verwechselt werden. Aufgrund der schwierigen Unterscheidung werden die verschiedenen Granatnamen im Edelsteinhandel inzwischen häufig als Farbbezeichnung genutzt, wobei Almandin und Rhodolith die rosa bis violetten Granate vertreten. Der bisher größte bekannte und geschliffene Almandin-Edelstein ist ein Cabochon von 175 ct, der in der Smithsonian Institution in Washington, D.C aufbewahrt wird. Siehe auch Liste der Minerale Liste mineralischer Schmuck- und Edelsteine Literatur Weblinks Mineralienatlas:Almandin (Wiki) Database-of-Raman-spectroscopy – Almandine Mineralien-Lexikon – Almandin Webmineral – Almandine (englisch) Institut für Edelsteinprüfung – Namenssuche (Rhodolith) Edelsteinknigge – Almandin Einzelnachweise Grandfathered Mineral Schmuckstein Kubisches Kristallsystem Inselsilikate (Strunz) Eisenmineral Aluminiummineral Siliciummineral
443
https://de.wikipedia.org/wiki/Aktiva
Aktiva
Unter Aktiva (Singular Aktivum, von ) versteht man die Summe des einem Unternehmen zur Verfügung stehenden Vermögens, das auf der linken Seite einer Bilanz zu finden ist. Sie zeigen, für welche Vermögensgegenstände die Kapitalquellen eines Unternehmens verwendet wurden. Diese Kapitalquellen sind auf der rechten Seite der Bilanz gelistet und bilden die Passiva. Allgemeines Die Aktivseite der Bilanz zeigt mithin die Verwendung der finanziellen Mittel bzw. den Besitz des Wirtschaftssubjektes, während die rechte Seite der Bilanz (Passivseite) die Mittelherkunft anzeigt. Von Aktivierung spricht man, wenn ein Bilanzposten auf der Aktivseite verbucht wird. Dabei ist zu unterscheiden, ob die Aktiva einer Aktivierungspflicht, einem Aktivierungswahlrecht oder einem Aktivierungsverbot unterliegen. Die Buchhaltung führt die Endbestände der Aktiv- und Passivkonten zusammen, die Gegenüberstellung der Aktiva mit den Passiva zu einer kontenmäßigen Einheit heißt Bilanz. Hierin sind die Summen der Aktiva und der Passiva (Bilanzsumme) formal identisch, dies ist ein wesentliches Merkmal der Bilanz. Der so gefasste Bilanzbegriff unterscheidet sich vom Kontobegriff nur darin, dass man beim Konto von Soll und Haben spricht. Die drei Bilanzprinzipien der Bilanzwahrheit, Bilanzklarheit und Bilanzkontinuität gelten sowohl für Aktiv- als auch Passivseite. Aus Gründen des Vorsichtsprinzips und des damit einhergehenden Gläubigerschutzes können bestimmte Teile der Aktiva (insbesondere Anlagevermögen, Roh-, Hilfs- und Betriebsstoffe und Forderungen) im Rahmen des Niederstwertprinzips unterbewertet werden, Passiva können hingegen überbewertet werden. Unterbewertung bedeutet, dass den Vermögensgegenständen im Rahmen des Niederstwertprinzips und der vernünftigen kaufmännischen Beurteilung ein niedrigerer Bilanzwert beigemessen werden darf als es dem tatsächlichen Zeitwert entspricht. Hiermit soll den Vermögensrisiken angemessen Rechnung getragen werden, die in der Gefahr eines ganzen oder teilweisen Wertverlustes einzelner Vermögensgegenstände bestehen. Unterteilung der Aktiva Der Begriff Aktivseite ist ein bestimmter Rechtsbegriff, der im Gliederungsschema des Abs. 2 HGB erwähnt wird. Danach besteht die Aktivseite auf der ersten Gliederungsebene abschließend aus Anlagevermögen, Umlaufvermögen, aktiven Rechnungsabgrenzungsposten, aktiven latenten Steuern und dem aktiven Unterschiedsbetrag aus der Vermögensverrechnung. Bei den Vermögensgegenständen unterscheidet man zwischen materiellem und immateriellem Anlagevermögen. Die Verbindlichkeit dieser Gliederungspunkte und der festgelegten weiteren Unterteilung letzterer richtet sich gemäß § 266 Abs. 1 und 2, und HGB nach bestimmten Kriterien, wie z. B. der Rechtsform oder der Größenklasse des bilanzierenden Unternehmens. Anlagevermögen Im Anlagevermögen sind gemäß Abs. 2 HGB nur die Gegenstände auszuweisen, die bestimmt sind, dauernd dem Geschäftsbetrieb zu dienen. Das Anlagevermögen beinhaltet somit die mittel- und langfristig gebundenen Mittel des Unternehmens. Ebenfalls zum Anlagevermögen gerechnet werden Finanzanlagen mit dauerhaftem Charakter, beispielsweise langfristige Anleihen und Beteiligungen, Ausleihungen oder Anteile an anderen Unternehmen. Weiterhin umfasst das Anlagevermögen auch immaterielle Vermögensgegenstände. Es handelt sich um solche Vermögensgegenstände, die nicht körperlich fassbar sind. Hierzu zählen entgeltlich erworbene immaterielle Vermögensgegenstände, wie Lizenzen, gewerbliche Schutzrechte und Konzessionen. So zählt in der Medienindustrie das immaterielle Vermögen zu den wichtigsten Elementen der Bilanz, werden hier doch die zukünftig zu erwartenden Erträge aus Film- oder Musikrechten kapitalisiert und aufgeführt. Auch immaterielle Vermögensgegenstände, die nicht entgeltlich erworben wurden, sind dem Anlagevermögen zuzuordnen. Allerdings besteht handelsrechtlich unter den Voraussetzungen des Abs. 2 HGB lediglich ein Aktivierungswahlrecht für solche selbst geschaffenen immateriellen Vermögensgegenstände; steuerlich besteht gemäß Abs. 2 EStG sogar ein Aktivierungsverbot. Umlaufvermögen Das Umlaufvermögen umfasst diejenigen Vermögensgegenstände, die das Unternehmen zur kurzfristigen Verwendung besitzt. Dazu zählen beispielsweise die Kassenbestände, Bankguthaben sowie kurzfristig verfügbare Finanzanlagen. Daneben bilden zum Beispiel auch für die Produktion notwendige Rohstoffe und Vorprodukte sowie kurzfristig verkaufbare Lagerbestände an Fertigprodukten Teile des Umlaufvermögens. Rechnungsabgrenzungsposten Rechnungsabgrenzungsposten dienen dazu, Aufwendungen und Erträge der Periode zuzuordnen, welcher sie wirtschaftlich zugerechnet werden müssen. Als Rechnungsabgrenzungsposten auf der Aktivseite der Bilanz – auch aktive Rechnungsabgrenzungsposten genannt – sind nach Abs. 1 HGB Ausgaben auszuweisen, die vor dem Bilanzstichtag getätigt wurden, aber erst später einen Aufwand darstellen. Hierzu zählen z. B. im Voraus bezahlte Mieten, die im laufenden Geschäftsjahr gezahlt wurden aber erst im nächsten Geschäftsjahr fällig wären und auch erst dann einen Aufwand darstellen. Aktive latente Steuern Differenzen zwischen handelsrechtlichen und steuerrechtlichen Wertansätzen, die zu einer Steuerentlastung führen und sich in späteren Perioden voraussichtlich auflösen, können gemäß Abs. 1 Satz 2 HGB als aktive latente Steuern aktiviert werden. Aktiver Unterschiedsbetrag aus der Vermögensverrechnung Als aktiver Unterschiedsbetrag aus der Vermögensverrechnung ist der beizulegende Zeitwert von Vermögensgegenständen abzüglich der entsprechenden Schulden anzusetzen, sofern eine Verrechnung von Vermögensgegenständen und Schulden im Sinne des Abs. 2 Satz 2 HGB erfolgt und das Ergebnis hieraus positiv ist. Weitere Posten Unter bestimmten Umständen kann oder muss die Aktivseite um weitere Posten ergänzt werden. Gemäß Abs. 5 HGB können weitere Posten hinzugefügt werden, wenn deren Inhalt nicht von einem anderen, vorgeschriebenen Posten gedeckt ist. Die Gliederung und Bezeichnung der Posten müssen nach Abs. 6 HGB geändert werden, wenn dies wegen Besonderheiten des Unternehmens zur Aufstellung eines klaren und übersichtlichen Jahresabschlusses notwendig ist. Des Weiteren besteht die Möglichkeit, Bilanzposten unter den Voraussetzungen des Abs. 7 und 8 HGB zusammenzufassen oder ganz wegzulassen. Aufwendungen für die Ingangsetzung und Erweiterung des Geschäftsbetriebs, können nach § 67 Abs. 5 Satz 1 EGHGB auch nach dem Bilanzrechtsmodernisierungsgesetz (BilMoG) als Bilanzierungshilfe auf der Aktivseite vor dem Anlagevermögen ausgewiesen werden, wenn diese Bilanzierungshilfe für ein Geschäftsjahr, das vor 2010 begonnen hat, gebildet wurde. Bilanzanalyse Im Rahmen der Vermögensanalyse interessiert sich die Bilanzanalyse für die Zusammensetzung der Aktiva, deren Verhältnis zu anderen Bilanzpositionen und ermittelt betriebswirtschaftliche Kennzahlen, die sich mit der vertikalen Vermögensstruktur der Aktivseite, dem Verhältnis einzelner Aktivpositionen zu den entsprechenden Passivpositionen sowie dem Verhältnis zu den Erträgen befassen. Hierzu gehört insbesondere die Anlagenintensität, die Teile des Gesamtvermögens mit dem Gesamtvermögen in Beziehung setzt. Die horizontale Kapitalstruktur befasst sich mit dem Verhältnis von Aktiv- zu Passivseite einer Bilanz im Rahmen der Anlagendeckung. Die Sachanlagen- und Forderungsbindung ermöglicht Aussagen über das Verhältnis der Sachanlagen bzw. des Forderungsbestands zu den Umsatzerlösen. Die Aktiva alleine geben wenig Aufschluss über die Liquidität und Ertragsfähigkeit, da nur der Zusammenhang zwischen Kapitalverwendung und Kapitalaufbringung Rückschlüsse auf die Entwicklungen und Zukunftsaussichten des Unternehmens zulässt. Insbesondere gilt als goldene Regel zur Beurteilung der Finanzierung des Anlagevermögens, dass langfristige Investitionen nicht mit kurzfristigem Fremdkapital finanziert werden dürfen. Damit soll vermieden werden, dass die Pflicht zur Rückzahlung des Fremdkapitals bereits vor einer erfolgreichen Nutzung der erworbenen Vermögensgegenstände besteht. Insbesondere die immateriellen Vermögensgegenstände (IV) sollten detailliert betrachtet werden. Der nicht direkt messbare Wert dieses Vermögens lässt sich nur mit eindeutigen Regeln bilanzieren. Die Regeln sollen klar formuliert, nachvollziehbar sein sowie die Umsetzung des Niederstwertprinzips im Sinne von Abs. 3 und 4 HGB bezwecken. Volkswirtschaftliche Gesamtrechnung Die volkswirtschaftlichen Gesamtrechnungen „vermitteln ein umfassendes quantitatives Gesamtbild des wirtschaftlichen Geschehens“. Hierbei werden innerhalb der Vermögensrechnung sogenannte Vermögensbilanzen erstellt, deren Aktivseite aus Sach- und Geldvermögen besteht. Siehe auch Aktivierungsverbot Aktivierungswahlrecht Handelsaktiva Literatur Adolf G. Coenenberg, Axel Haller, Gerhard Mattner, Wolfgang Schultze: Einführung in das Rechnungswesen: Grundzüge der Buchführung und Bilanzierung. 8. Auflage. Schäffer-Poeschel Verlag, Stuttgart 2010, ISBN 978-3-7910-2808-8 Michael Griga, Raymund Krauleidis: Bilanzen erstellen und lesen für Dummies. 2. Auflage, Wiley-VCH Verlag 2010, ISBN 978-3-527-70598-6 Gerhard Scherrer: Rechnungslegung nach neuem HGB. 3. Auflage, Vahlen 2010, ISBN 978-3-8006-3787-4 Jürgen Weber, Barbara E. Weißenberger: Einführung in das Rechnungswesen: Bilanzierung und Kostenrechnung. 8. Auflage. Schäffer-Poeschel Verlag, Stuttgart 2010, ISBN 978-3-7910-2923-8 Einzelnachweise Rechnungswesen Bilanzrecht Vermögensrechnung (VGR)
444
https://de.wikipedia.org/wiki/Alexander%20Graham%20Bell
Alexander Graham Bell
Alexander Graham Bell (* 3. März 1847 in Edinburgh, Schottland; † 2. August 1922 in Baddeck, Kanada) war ein britischer, später US-amerikanischer Audiologe, Erfinder, Großunternehmer und Befürworter der Eugenik. Es gelang ihm 1876, aufbauend auf Ideen seiner Vorgänger, das Telefon zur Marktreife zu entwickeln und ein flächendeckendes Telefonnetz in Nordamerika aufzubauen, das von seinem Unternehmen American Telephone and Telegraphy Company monopolartig beherrscht wurde. Leben und Werk Bell als Sprachtherapeut und Gehörlosenlehrer Bereits Bells Großvater Alexander und sein Vater Alexander Melville Bell beschäftigten sich mit Sprechtechnik, wobei Letzterer als Professor der Rede- und Vortragskunst das erste universale phonetische Schriftsystem bzw. eine Lautschrift oder phonetisches Alphabet entwickelte, das er Visible Speech nannte, weil damit die Laute abgebildet würden. Bells Mutter Eliza Symonds Bell war stark schwerhörig, Bell konnte sich jedoch mit ihr mit besonders tiefer Stimme unterhalten. Außerdem konnte sie die Schwingungen seiner Klaviermusik spüren. Das sowie die familiär vorgeprägte berufliche Laufbahn machten Bell später zu einem der engagiertesten Befürworter des lautsprachlich orientierten Erziehungsprinzips für Gehörlose im Gegensatz zu gebärdensprachlich orientierten Methoden. Alexander, der aus Bewunderung für einen Freund der Familie noch als Kind den zweiten Vornamen „Graham“ annahm, wurde wie seine beiden Brüder zunächst von der Mutter unterrichtet. Ab dem 10. Lebensjahr besuchte er eine Privatschule in Edinburgh und ab dem 14. Lebensjahr eine Schule in London. Er studierte in Edinburgh Latein und Griechisch. Mit 17 Jahren wurde er Lehrer an der Weston House Academy für Sprechtechnik und Musik in Elgin, Schottland. Während dieser Zeit begann er mit ersten selbstständigen Forschungsarbeiten auf dem Gebiet der Akustik. Dabei lernte er auch den deutschen Physiker und Physiologen Hermann von Helmholtz kennen, der mit seinem 1863 erschienenen Werk „Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik“ den jungen Bell wesentlich beeinflusste. Schließlich folgte er seinem Vater nach London, wo dieser am University College als Dozent für Sprechtechnik tätig war und seinen Sohn als Assistenten einstellte. Bell studierte bis 1870 Anatomie und Physiologie der menschlichen Stimme. 1868 gab er an Susanna Hulls Schule in London Sprechunterricht für gehörlose Kinder. Nachdem Alexanders Brüder Edward (1868) und Melville (1870) beide an Tuberkulose gestorben waren, siedelten Alexander und seine Eltern 1870 wegen des besseren Klimas nach Kanada über, wo der Vater Dozent für Philologie am Queen’s College, Kingston, Ontario wurde. 1871 ging er als Gehörlosenlehrer an die in Northampton (Massachusetts) eingerichtete spätere „Clarke School“. Ein Luftballon, den sich jedes dieser Kinder ans Ohr hielt, konnte die Schwingungen in der Stimme aufnehmen. Bell blieb danach für den Rest seines Lebens Mitglied des Aufsichtsrats der Schule und wurde in den letzten fünf Lebensjahren auch dessen Vorsitzender. Zur gleichen Zeit unterrichtete er auch neben Edward Miner Gallaudet am American Asylum for the Deaf in Hartford (Connecticut). Von 1873 bis 1877 war Bell Professor für Sprechtechnik und Physiologie der Stimme an der Universität Boston. Im Jahr 1877 heiratete er die gehörlose Tochter Mabel seines Geschäftspartners Hubbard, die er als Gehörlosenlehrer (damals „Taubstummenlehrer“) an der Clarke-Schule kennengelernt hatte. Mit ihr hatte er zwei Töchter, Elsie May und Marian (Daisy) Bell, sowie die Söhne Edward und Robert, die beide im Kindesalter starben. 1890 war er Mitbegründer der American Association to Promote the Teaching of Speech to the Deaf (AAPTSD) (heute Alexander Graham Bell Association for the Deaf and Hard of Hearing), deren erster Präsident er wurde. Bell und die Erfindung des Telefons Die historisch nachhaltigste Wirkung erzielte Bell 1876 mit der Weiterentwicklung des Telefons zu einem gebrauchsfähigen System und dessen nachfolgender großindustrieller Vermarktung; die Bell Telephone Company, die sich später zum weltweit größten Telekommunikationskonzern AT&T entwickelte, erlangte dabei eine marktbeherrschende Stellung. Um 1873 versuchte Bell, einen „harmonischen Telegraphen“ zu entwickeln, der durch Benutzung mehrerer isolierter musikalischer Tonlagen mehrere Nachrichten gleichzeitig senden können sollte, betrieb das jedoch mit wenig Engagement. 1874 führt Bell akustische Experimente zur Aufzeichnung von Schallwellen durch. Er konstruierte damit den „Phonautographen“, ein Gerät, das die Vibrationen des Schalls auf einem berußten Zylinder aufzeichnete. Antonio Meucci Bereits in den 1830er Jahren hatte der italienische Wissenschaftler und Erfinder Antonio Meucci die Entdeckung gemacht, dass Schall durch elektrische Schwingungen in Kupferdraht übertragen werden kann. Nach seiner Übersiedlung in die USA 1850 entwickelte er ein Telefon, mit dem er das Krankenzimmer seiner Ehefrau mit seiner Werkstatt verband. In den nächsten zehn Jahren vervollkommnete er seine Erfindung und präsentierte sie ab 1860 öffentlich. In der italienischsprachigen Presse wurde darüber berichtet, nicht aber in angelsächsischen Medien. 1871 beantragte Meucci für sein „Telettrofono“ schließlich ein Patent, das über zwei Jahre lang nicht erteilt wurde, so dass der Antrag erlosch. Später wurde verbreitet, Meucci hätte nicht die nötigen Mittel für die Patentgebühren gehabt. Diese Darstellung wird allerdings von Kritikern angezweifelt, da er in derselben Zeit (1872–1876) vier andere Patente, beispielsweise für ein Hygrometer erteilt bekam. Meucci reichte seine Unterlagen und Geräte bei Edward B. Grant ein, dem Vizepräsidenten der American District Telegraph Co., um seine Erfindung an deren Telegraphenkabel testen zu lassen, wurde aber mehr als zwei Jahre lang hingehalten. In der Zwischenzeit nutzte Bell, der jetzt in den ehemaligen Werkstätten Meuccis bei der American District Telegraph Co. arbeitete, dessen Materialien und Unterlagen für die Weiterentwicklung seines Telefons. Als Meucci 1874 diese Gerätschaften und Unterlagen von Grant zurückforderte, wurde ihm mitgeteilt, man habe sie verloren. Meucci, der des Englischen nicht mächtig war, beauftragte einen Anwalt, gegen Bell vorzugehen, was allerdings nie geschah. Trotz jahrzehntelanger Streitigkeiten gelang es Antonio Meucci nicht, das Patent oder wenigstens eine finanzielle Entschädigung von Bell zu erhalten. Er starb als verarmter Mann. Am 11. Juni 2002 würdigte das Repräsentantenhaus der Vereinigten Staaten in einer Resolution Antonio Meuccis Leistungen und seinen Beitrag zur Erfindung des Telefons. Philipp Reis Von 1858 bis 1863 hatte Philipp Reis ebenfalls ein funktionierendes Gerät zur Übertragung von Tönen über elektrische Leitungen entwickelt und seiner Erfindung den Namen „Telephon“ gegeben. Am 26. Oktober 1861 führte er den Fernsprecher zahlreichen Mitgliedern des Physikalischen Vereins in Frankfurt vor. Reis nahm den Morse-Telegraphen als Vorbild, der mit Unterbrechung des Stromkreislaufs arbeitet. Damit konnte er Musiknoten an einen Empfänger schicken; für Sprache war das Gerät (noch) nicht geeignet. Danach verbesserte Reis den Apparat bis 1863 wesentlich und verkaufte ihn in größerer Stückzahl als wissenschaftliches Demonstrationsobjekt. So kamen auch Exemplare ins Ausland. Bell lernte ein frühes Modell des Reis’schen Telefonapparates bereits 1862 in Edinburgh kennen. Sein Vater versprach ihm und seinen Brüdern einen Preis, wenn sie diese Sprechmaschine weiterentwickeln würden. 1865 konnte der britisch-amerikanische Erfinder David Edward Hughes in England gute Resultate mit dem deutschen „Telephon“ erzielen. Ab 1868 wurde in den USA mit der deutschen Erfindung gearbeitet. Als Bell im März 1875 an der amerikanischen Forschungs- und Bildungseinrichtung Smithsonian Institution mit dem Reis’schen Telefonapparat experimentierte, war die Erfindung in Fachkreisen bereits gut bekannt und Reis seit über einem Jahr verstorben. Bell konnte aber von der für ihn wichtigen Grundlagenforschung des Deutschen profitieren. Patentstreit mit Gray Der Direktor der „Clarke School for the Deaf“, der prominente Bostoner Rechtsanwalt Gardiner Greene Hubbard, und der wohlhabende Geschäftsmann Thomas Sanders aus Salem erfuhren von Bells Experimenten und bewogen ihn, die Entwicklung des „Harmonischen Telegraphen“ voranzutreiben. Die drei unterzeichneten eine Vereinbarung, nach der Bell finanzielle Unterstützung erhielt im Gegenzug für eine spätere Beteiligung von Hubbard und Sanders an den Erträgen. Hubbards gehörlose Tochter Mabel wurde als Druckmittel eingesetzt: Bell durfte sie erst heiraten, nachdem er seine Erfindung fertiggestellt hatte, zwei Tage nach Gründung der Bell Telephone Company. Obwohl Bell bei seinen Versuchen zufällig entdeckt haben soll, dass statt der erwarteten Telegraphenimpulse auch Tonfolgen übertragen werden konnten, gelang es ihm nicht, diese Entdeckung zu wiederholen. Gleichwohl meinte er, das Prinzip für die Übertragung von Tönen für einen Patentantrag beschreiben zu können. Zugute kam ihm dabei, dass das Patentamt einige Jahre zuvor die Anforderung hatte fallen lassen, mit dem Patentantrag ein funktionierendes Modell einzureichen. Am 14. Februar 1876 reichte Gardiner Greene Hubbard als Bells Anwalt den Patentantrag ein, nur zwei Stunden bevor der Lehrer, Erfinder und Unternehmer Elisha Gray das Gleiche tun konnte. Der wesentliche Unterschied zwischen beiden Fernsprechern war, dass Grays Erfindung im Gegensatz zu der von Bell funktionierte. Während Bell in seinem Antrag sehr vage blieb, beschrieb Gray sein Telefon bis in die Einzelheiten. Bells Eile war nicht unbegründet, wusste er doch von mehreren Erfindern, die auch an Telefonen arbeiteten. Der von Hubbard eingereichte Antrag löste den größten Patentstreit der Geschichte aus. Bell verwendete bei der späteren praktischen Ausführung seines Telefons u. a. einen regelbaren Widerstand in Form eines Drahts, der in eine Schwefelsäurelösung getaucht war. Dieser Widerstand war in seiner Patentschrift nicht aufgeführt und Bell soll ihn nie zuvor erprobt haben. Elisha Grays Antrag hingegen enthielt einen solchen Widerstand. Besonders, nachdem Bells Patent am 7. März 1876 erteilt worden war, wurden die Stimmen lauter, die eine illegale Verbindung zwischen Bell und dem Patentamt sahen. Ein Beamter beschuldigte sich selbst der Bestechung, doch wurde seine wankelmütige Aussage in der internationalen Fachpresse bezweifelt. Weiterentwicklung Das von Bells sachkundigem Mechaniker Thomas A. Watson gebaute erste funktionierende Telefon sah den Berichten zufolge merkwürdig aus. Die im Patentstreit umstrittene säuregefüllte Metalldose war mit einer Scheibe bedeckt, die einen Draht hielt, der in die Säure getaucht war. Außen an der Metalldose befand sich ein anderer Draht, der zum Empfängertelefon führt. Das Hineinbrüllen in einen senkrecht darüber angeordneten Trichter brachte Scheibe und Draht zum Schwingen. Durch diese Schwingungen veränderten sich der Abstand und damit auch der Stromfluss durch Draht und Säure zum Empfängertelefon. Dort wurden die Schwankungen des Stromes wieder in gleichartige Membranvibrationen umgesetzt, die dann Töne produzierten. Am 10. März 1876 soll der erste deutlich verständliche Satz übertragen worden sein: „Watson, come here. I need you.“ (Watson, kommen Sie her, ich brauche Sie). Bell soll sich aus Versehen Säure über die Kleidung geschüttet und nach Watson gerufen haben. Dieses Telefon war nicht sonderlich gebrauchstauglich, doch Bell verbesserte es, da er im Gegensatz zu der Reis’schen Schallübertragungsmethode, die auf der Schwingung einer Membran beruhte, nun die elektromagnetische Induktion benutzte, welche der englische Physiker und Chemiker Michael Faraday entdeckt hatte. Bell verwendete jetzt sowohl für den Lautsprecher als auch für das Mikrofon elektromagnetische Spulen, Dauermagnete und den bereits erwähnten Widerstand. 1877 wurde dann ein neuartiger Schallwandler verbaut, der den druckabhängigen Übergangswiderstand zwischen der Membran und einem Kohlegranulat zur Signalgewinnung nutzte. Als Erfinder dieses Kohlemikrofons, das auf dem von Philipp Reis erfundenen Kontaktmikrofon aufbaut, gelten sowohl der britisch-amerikanische Konstrukteur und Erfinder David Edward Hughes, der 1865 mit einem importierten Telefon des Deutschen experimentiert hatte, als auch der deutsch-amerikanische Erfinder Emil Berliner 1877 während seiner Tätigkeit bei den Bell Labs. Dennoch dauerte es noch bis 1881, bis das Bell-Telefon praktisch einsatzfähig war. Bell als Unternehmer Im Juli 1877 gründete Bell zusammen mit Thomas Sanders und Gardiner Greene Hubbard unter Beteiligung seines Assistenten Thomas Watson die Bell Telephone Company. Nicht ganz überraschend war der Bedarf an Telefonapparaten zunächst gering und Bell und seine Partner hatten so große Absatzschwierigkeiten, dass sie schließlich ihre Patente der mächtigen Western Union Telegrafengesellschaft – Elisha Grays Arbeitgebern – für 100.000 $ zum Kauf anboten. Die Western Union lehnte ab, was sich als schwere Fehlentscheidung herausstellen sollte. Dennoch sahen Amerikas Telegraphengesellschaften voraus, dass Bells Telefon eine Bedrohung für ihr Geschäft darstellte, und versuchten, dem gegenzusteuern. Die Western Union Company ließ Thomas Alva Edison ein eigenes Telefon mit anderer Technik entwickeln. Bell verklagte daraufhin Western Union wegen der Verletzung seiner Patentrechte. Diese berief sich darauf, dass eigentlich Elisha Gray das Telefon erfunden habe, verlor jedoch diesen und zahlreiche weitere Prozesse. Auch Emil Berliner hatte Ärger mit dem Patentamt und Thomas Edison, für dessen Phonographen er ganz neue Vorstellungen eingereicht hatte. Berliner hatte auch ein Mikrofon entwickelt, das er 1877 für 50.000 Dollar an die „Bell Telephone Company“ verkaufte. Er zog nach Boston und arbeitete für Bell Telephone bis 1883. Im März 1879 fusionierte die Bell Telephone Company mit der New England Telephone Company zur National Bell Telephone Company, deren Präsident William H. Forbes, Schwiegersohn von Ralph Waldo Emerson, wurde. Im April 1880 erfolgte eine weitere Fusion mit der American Speaking Telephone Company zur American Bell Telephone Company. 1885 wurde die American Telephone and Telegraph Company (AT&T) in New York als Tochterunternehmen von Graham Bell gegründet, um die Fernverbindungslinien quer durch die USA für das Bell’sche System zu erobern. Theodore Vail wurde der erste Präsident der Gesellschaft. 1889 wurden sämtliche Geschäftsaktivitäten der American Bell Telephone Company zur American Telephone and Telegraph Company transferiert, da Gesetze in Massachusetts das aggressive Wachstum verhindert hätten. Diese markiert den Anfang der heutigen Gesellschaft AT&T. 1925 wurden die Bell Telephone Laboratories aufgebaut, um die Forschungslaboratorien der AT&T und der Western Electric Company zusammenzufassen. Weitere Erfindungen Für seine Erfindung verlieh Frankreich Bell 1880 den Volta-Preis im Wert von 50.000 Franc. Mit diesem Geld gründete er das Volta Laboratory in Washington D.C., wo er im gleichen Jahr mit seinem Assistenten, Charles Sumner Tainter, und seinem Cousin Chichester Alexander Bell das Photophon entwickelte, welches Licht als Mittel der Projektion der Informationen verwendete, während das Telefon auf Strom angewiesen war. Im Jahr 1881 konnten sie erfolgreich eine Nachricht über das Photophon 200 Meter von einem Gebäude zum anderen versenden. Bell sah das Photophon als „die größte Erfindung, die ich je gemacht habe“. Im Jahr 1886 erfanden Bell und seine Mitarbeiter im Volta Laboratory die erste Phonographenwalze, die Schallwellen auf Wachs aufzeichnen konnte. Diese Neuerung ging einher mit der Weiterentwicklung des von Thomas Alva Edison erfundenen Phonographen, hin zum Graphophon. Im gleichen Zeitraum experimentierten die drei Mitglieder der Volta Laboratory Association mit einer flachen Wachsscheibe in senkrechter Position und nahmen somit die Idee einer Schallplatte vorweg. Die dabei verwendete Funktionsweise ähnelte der später vom Emil Berliner bei seinem Grammophon zum Tragen kommende horizontale Anordnung der verwendeten Tonträger. Nach Gründung der Volta Graphophone Company, deren Aufgabe darin bestand, die Patente der Mitglieder der Volta Laboratory Association zu vermarkten, erfolgte die Veräußerung dieser an die American Graphophone Company mittels Verschmelzung beider Unternehmen. Daneben betrieb Bell eine Vielzahl anderer wissenschaftlicher Experimente, unter anderem zu Drachen mit tetraedrischen Strukturen, Mehrlingsgeburten in der Schafzucht sowie Entsalzung von Meerwasser. Das Attentat auf Präsident Garfield 1881 brachte Bell auf die Idee einer Induktionswaage zur Lokalisierung von Metallgegenständen im menschlichen Körper. 1881 starb Bells neugeborener Sohn Edward an einer Erkrankung der Atemwege. Bell reagierte auf diese Tragödie durch die Erfindung einer Metall-Vakuum-Jacke, die das Atmen erleichtern sollte. Dieser Apparat war ein Vorläufer der Eisernen Lunge, die in den 1950er Jahren Anwendung fand. Immer wieder beschäftigte er sich auch mit der Taubheit und entwickelte das Audiometer zum Messen der Gehörleistung. In seiner Jugend inspiriert in Edinburgh von dem von Charles Wheatstone nachgebauten Sprechapparat des Ungarn Wolfgang von Kempelen, baute Bell mit Hilfe seines Bruder einen eigenen Sprechapparat, wobei er mit Guttapercha den Vokaltrakt im Abguss eines menschenlichen Schädels modellierte. 1907 – vier Jahre nach dem ersten Flug der Brüder Wright in Kitty Hawk – gründete Bell mit Glenn Curtiss, William „Casey“ Baldwin, Thomas Selfridge, und J.A.D. McCurdy die Aerial Experiment Association zum Bau von Flugzeugen. Bis 1909 bauten sie vier Prototypen, deren erfolgreichster, „Silver Dart“, am 23. Februar in Kanada der erste Flug gelang. Er wurde von einem zugefrorenen See in Baddeck, Nova Scotia, gestartet, wo Bell ein Haus besaß. Bell beschäftigte sich auch intensiv mit der Konstruktion von Tragflügelbooten. Mit seinem Geschäftspartner und Freund Casey Baldwin baute er das Boot Hydrodrome IV, das 1919 mit 70,86 Meilen pro Stunde (114,04 km/h) einen absoluten Geschwindigkeitsweltrekord auf dem Wasser erzielte. Bis zu seinem Tode 1922 beschäftigte sich Bell vor allem mit weiteren Entwicklungen und Erfindungen auf zahlreichen technischen Gebieten sowie mit eugenischen Untersuchungen zur Taubheit. Eugenik Bell erforschte zwischen 1882 und 1892 das gehäufte Auftreten von Gehörlosigkeit auf der Insel Martha’s Vineyard nahe Boston und vermutete zu Recht Vererbung als Ursache. Die genauen Zusammenhänge konnte er jedoch nicht erklären; ihn irritierte, dass nicht jedes Kind von Eltern mit entsprechenden Erbanlagen gehörlos wurde. Ihm fehlte die Kenntnis der Mendelschen Gesetze, die Gregor Mendel schon 1865 formuliert hatte, die aber bis zum Jahr 1900 der Öffentlichkeit weitgehend unbekannt blieben. Dennoch empfahl Bell in der Monographie Memoir upon the Formation of a Deaf Variety of the Human Race ein Eheverbot unter Tauben, warnte vor Internaten an den Gehörlosen-Schulen als möglichen „Brutstätten“ einer „tauben Menschenrasse“ und empfahl die eugenische Kontrolle von US-Immigranten. Spätere Arbeiten von „Rassenhygienikern“ stützten sich bis weit in das 20. Jahrhundert ungeprüft auf Bells Angaben. Als Folge wurden zahlreiche gehörlose Menschen ohne ihr Wissen und Einverständnis sterilisiert. Dabei soll Bell durchaus die methodischen Schwächen seiner Untersuchungen gekannt haben. 1921 war Bell Ehrenpräsident des zweiten internationalen Eugenikkongresses unter der Schirmherrschaft des American Museum of Natural History in New York. Er arbeitete mit diesen Organisationen mit dem Ziel zusammen, Gesetze zur Verhinderung der Ausweitung von „defekten Rassen“ einzuführen. George Veditz, Präsident der National Association of the Deaf, nannte Bell 1907 „den Feind, den die tauben Amerikaner am meisten zu fürchten haben“. Bell haftet damit der Ruf an, die Entwicklung der Gemeinschaft der gehörlosen Menschen und der Gebärdensprache massiv behindert zu haben, mit Auswirkungen, die noch heute in vielen Ländern spürbar sind. Auszeichnungen und Ehrungen 1877 wurde er in die American Academy of Arts and Sciences gewählt. 1882 wurde er gewähltes Mitglied der American Philosophical Society. 1883 wurde Bell Mitglied der National Academy of Sciences. 1887 wurde er zum Mitglied der Gelehrtenakademie Leopoldina gewählt. 1914 erhielt er für sein Lebenswerk die AIEE Edison Medal. Als Bell 1922 starb, ruhte zu seinem Gedenken in den Vereinigten Staaten für eine Minute der gesamte Telefonverkehr. 1931 wurde zu Ehren Bells die dimensionslose Maßeinheit (Pseudomaß) für logarithmische Verhältniswerte, mit dem elektrische Spannungen, Leistungen und auch Schallpegel gemessen werden, mit Bel benannt; bekannt ist vor allem die abgeleitete Maßeinheit Dezibel. 1965 wurde Bell in die National Aviation Hall of Fame aufgenommen. 1970 wurde der Mondkrater Bell nach ihm benannt. 1977 erklärte ihn die kanadische Bundesregierung zu einer „Person von nationaler historischer Bedeutung“. 2008 zu seinem 161. Geburtstag am 3. März wurde ihm ein Google Doodle gewidmet. Im arktischen Archipel Franz-Josef-Land sind die Graham-Bell-Insel und die dortige ehemalige sowjetische Luftwaffenbasis „Greem-Bell“ nach Alexander Graham Bell benannt. Die Insel wurde 1899 von Evelyn Baldwin entdeckt und vom Expeditionsleiter Walter Wellman benannt. Ihm zu Ehren ist die IEEE Alexander Graham Bell Medal benannt, die höchste Auszeichnung der IEEE für Telekommunikation. Verschiedenes 1897 wurde Bell nach dem Tod von Gardiner Greene Hubbard zum zweiten Präsidenten der National Geographic Society gewählt. 1939 wurde Bell in der Hollywood-Filmbiografie Liebe und Leben des Telefonbauers A. Bell (The Story of Alexander Graham Bell) unter der Regie von Irving Cummings von Don Ameche gespielt. 1971 veröffentlichte die britische Glam-Rock-Gruppe The Sweet den Titel Alexander Graham Bell, der in Deutschland Platz 24 in der Hitparade erreichte. The Sweet erhielten dafür eine goldene Schallplatte. Bell war Mitbegründer der internationalen Fachzeitschrift „Science“. Schriften Memoir upon the formation of a deaf variety of the human race. New Haven, CT: National Academy of Sciences. 1883. („Anmerkungen zur Formierung einer tauben Variation der menschlichen Rasse“) Utility of signs, 1894. („Nützlichkeit von Gebärden“) The question of sign language, 1898. („Die Frage der Gebärdensprache“) Marriage of the deaf, 1917. („Heiraten unter Tauben“) Veröffentlichungen von Alexander Graham Bell Literatur Catherine Mackenzie: Alexander Graham Bell. Überwinder der Distanz (Originaltitel: Alexander Graham Bell). Deutsch von J. N. Lorenz. Rohrer, Wiesbaden 1951. Jon Balchin: Quantensprünge , 100 große Wissenschaftler und ihre Ideen. Deutsch von Hans w. Kothe, Gondrom 2005, S. 132. Karl K. Darrow: Bell: Das Telefon. Leprince-Ringuet, Louis (Hrsg.), Die berühmten Erfinder. Physiker und Ingenieure, [Les inventeurs celebres], Genf: Mazenod, 1951, S. 208–210. Wilhelm Berdrow: Buch der Erfindungen. 2. Auflage. Düsseldorf: VDI-Verlag GmbH, 1985. C. H. Hylander: Amerikanische Erfinder. München: Carl Hanser Verlag, 1947. John Brooks (Hrsg.): Telephone. The First Hundred Years. New York: Harper and Row, 1976, S. 43–56. K. Jäger, F. Heilbronner (Hrsg.): Lexikon der Elektrotechniker. VDE Verlag, 2. Auflage von 2010, Berlin/Offenbach, ISBN 978-3-8007-2903-6, S. 45–46. Klaus Beyrer: Johann Philipp Reis – Alexander Graham Bell. Zwei Pioniere des Telefons. In: Mensch Telefon. Aspekte telefonischer Kommunikation, hrsg. v. Margret Baumann u. Helmut Gold. Heidelberg: Braus 2000, S. 57–74. Filme Thomas Ammann: Meilensteine der frühen Kommunikation. DVD. Drehbuch: Susanne Päch. Kamera: Johannes Kirchlechner. Reihe: P.M. Wissensedition. Meilensteine 3, o. J. (2007), 60 Min Weblinks Bell-Hörer von 1877 der Museumsstiftung Post und Telekommunikation Deutsches Telefon Museum Rekonstruierte Original-Sprachaufnahme von Alexander Graham Bell (ca. 1885) Einzelnachweise Erfinder (Sprechmaschinen) Unternehmer (Elektrotechnik) Person (Gehörlosenpädagogik) Eugeniker National Geographic Society Mitglied der Leopoldina (19. Jahrhundert) Mitglied der American Academy of Arts and Sciences Mitglied der National Academy of Sciences Mitglied der American Philosophical Society Person als Namensgeber für einen Mondkrater Wikipedia:Artikel mit Video Brite US-Amerikaner Geboren 1847 Gestorben 1922 Mann
445
https://de.wikipedia.org/wiki/Abu%20Nidal
Abu Nidal
Abu Nidal (), eigentlicher Name Sabri Chalil al-Banna (; * Mai 1937 in Jaffa; † 16. August 2002 in Bagdad), war ein palästinensischer Terrorist. 1974 gründete er die nach ihm benannte Abu-Nidal-Organisation, eine Abspaltung der PLO. Diese führte über 100 Anschläge in mehr als 20 Ländern aus. Frühe Jahre Abu Nidal wurde im Mai 1937 am Hafen von Jaffa an der Küste Palästinas geboren, das damals unter britischer Herrschaft stand. Sein Vater Chalil war ein reicher Geschäftsmann, der sein Geld mit Orangenplantagen machte und seine elf Kinder in einem fünfstöckigen Haus am Strand großzog (heute in Verwendung als israelisches Militärgericht). Chalil verliebte sich in eines seiner Stubenmädchen, eine erst 16-jährige Alawitin und nahm sie entgegen dem Wunsch seiner Familie zu seiner Frau. Sie bekam sein zwölftes Kind, Sabri Chalil al-Banna. Verschiedenen Quellen zufolge war sie seine zweite oder achte Frau. Verachtet von seinen älteren Halbgeschwistern verlief seine Kindheit sehr unglücklich. Der Vater starb 1945, als Abu Nidal sieben war, woraufhin seine Familie seine ungeliebte Mutter aus dem Haus warf. Obwohl er gemeinsam mit seinen Geschwistern leben durfte, wurde seine Erziehung vernachlässigt. Er entwickelte sich zum Frauenverachter, zwang später seine eigene Frau in die Isolation und verbot auch den Frauen seiner Anhänger jegliche Freundschaften untereinander. Als der Palästinakrieg zwischen Arabern und Juden ausbrach, verlor seine Familie die Orangenplantagen, da Jaffa im Kriegsgebiet lag. Sie flohen ins Flüchtlingslager Al-Burj nach Gaza, wo sie ein Jahr in Zelten lebten. Danach gingen sie nach Nablus und dann nach Jordanien. Abu Nidal verbrachte seine Teenagerjahre in Nablus in diversen Jobs. Mit 18 trat er der Baath-Partei bei, die jedoch 1957 verboten wurde. Als Drahtzieher eines fehlgeschlagenen Attentats auf König Hussein floh er nach Saudi-Arabien, wo er sich als Elektriker und Anstreicher niederließ und auch zeitweise im Labor für Aramco arbeitete. Politisches Leben In Riad sammelte er eine kleine Gruppe junger Palästinenser, die sich „Palästina-Geheimorganisation“ nannte, und lernte seine Frau Hiyam Al-Bitar kennen, mit der er den Sohn Nidal und zwei Töchter, Badia und Bissam bekam. Als Israel 1967 den Sechstagekrieg gewann, wurde er angesichts der neuen diplomatischen Lage von den Saudis eingesperrt und gefoltert und schließlich aus dem Land vertrieben. Er zog nach Amman, Jordanien, um und gründete die Handelsfirma Impex, und trat Fatah, Jassir Arafats Partei innerhalb der PLO bei. Impex wurde bald die Plattform für Tätigkeiten der Fatah und Abu Nidal wurde ein wohlhabender Mann, unter anderem als Geflügelexporteur nach Polen. Gleichzeitig diente die Firma als Deckmantel für seine politische Gewalttätigkeit und seine Multimillionen-Dollar-Waffengeschäfte, Söldnertätigkeiten und Schutzschläger. Impex diente als Treffpunkt für Fatahmitglieder und als deren Finanzkraft. Abu Nidal war in dieser Zeit als sauberer Geschäftsmann bekannt. Während des Schwarzen Septembers in Jordanien zwischen Fedajin und Truppen König Husseins blieb er zuhause, verließ nie sein Büro. Sein Talent für Organisation erkennend, ernannte Abu Ijad ihn 1968 zum Fatah-Repräsentanten in Khartum, Sudan, dann in Bagdad 1970, nur zwei Monate vor dem zweiten Attentat auf König Hussein. Nidal war inoffizieller Mitarbeiter der DDR-Staatssicherheit. Abspaltung von der PLO Kurz vor der PLO-Vertreibung aus Jordanien und während der drei folgenden Jahre begannen sich einige radikale palästinensische und andere arabische Parteien, wie George Habaschs PFLP, DFLP, Arabische Befreiungsfront, Sa'iqa und die Palästinensische Befreiungsfront, von der PLO abzuspalten und starteten ihre eigenen Terrorangriffe gegen israelische militärische und zivile Ziele. Kurz nach der Vertreibung aus Jordanien fing Abu Nidal an, Kritik an der PLO über „Stimme von Palästina“, die PLO-eigene Radiostation im Irak zu übertragen und beschuldigte sie der Feigheit, wegen der Zustimmung zu einer Waffenruhe mit König Hussein. Während des dritten Fatah-Kongresses in Damaskus 1971 trat Abu Nidal als Führer eines linksgerichteten Bündnisses gegen Arafat auf. Zusammen mit Abu Daoud (einer von Fatahs unbarmherzigsten Kommandanten, der später für die Planung der Geiselnahme von München verantwortlich war, bei der 11 israelische Athleten im olympischen Dorf in München als Geiseln genommen und getötet wurden) und dem palästinensischen Intellektuellen Nadschi Allusch, erklärte er Arafat zum Feind des palästinensischen Volkes und verlangte mehr Demokratie innerhalb der Fatah sowie Rache gegen König Hussein. Es war Abu Nidals letzter Kongress. Jahre in Libyen und weitere Attentate 1985 zog Abu Nidal nach Tripolis, wo er mit Gaddafi Freundschaft schloss, der bald sein Partner wurde und auch Gebrauch davon machte. Am 15. April 1986 griffen US-Truppen in der Operation El Dorado Canyon von britischen Stützpunkten aus Tripolis und Bengasi an. Dutzende wurden getötet. Diese Aktion war die Vergeltung für ein Bombenattentat zehn Tage davor auf einen Berliner Nachtclub, der häufig von US-Soldaten besucht wurde. Nach Abu Nidals Tod berichtete Atef Abu Bakr, ein ehemaliges Mitglied der Fatah RC gegenüber Journalisten, dass Gaddafi Abu Nidal gebeten hatte, gemeinsam mit seinem Geheimdienstchef, Abdullah al-Senussi, eine Serie von Racheattentaten gegen britische und US-Ziele zu planen. Abu Nidal arrangierte die Entführung von zwei Briten und einem Amerikaner, die später ermordet aufgefunden wurden. Danach schlug er Senussi vor, ein Flugzeug zu entführen oder zu sprengen. Am 5. September 1986 entführte ein Fatah RC-Team den Pan Am Flug 73 in Karatschi, 22 Passagiere wurden getötet, etliche verwundet. Im August 1987 ließ er eine Bombe auf einen Flug von Belgrad einer unbekannten Fluggesellschaft schmuggeln, die allerdings nicht explodierte. Verärgert über dessen Versagen befahl Senussi Abu Nidal, eine Bombe zu bauen, die von einem libyschen Agenten an Bord des PanAm Fluges 103 nach New York gebracht wurde. Am 21. Dezember 1988 explodierte das Flugzeug über Lockerbie in Schottland. 259 Menschen an Bord und 11 am Boden wurden getötet. 2000 verurteilte ein schottisches Gericht Abdel Basset Ali al-Megrahi, den ehemaligen Sicherheitschef der Libyan Arab Airlines, für seine Rolle beim Attentat. Er hatte den Koffer in Malta so beschriftet, dass er an Bord der Maschine gelangen würde. Die Beteiligung Abu Nidals wurde niemals bestätigt. Tod Nach dem Bruch mit Gaddafi, der bemüht war, den Kontakt mit den Vereinigten Staaten und dem Vereinigten Königreich wiederherzustellen und sich vom Terror zu distanzieren, ließ sich Abu Nidal 1999 im Irak nieder. Die irakische Regierung meinte zwar, er sei mit einem gefälschten Pass eingereist, aber ab 2001 lebte er dort offiziell, obwohl er in Abwesenheit in Jordanien zum Tode verurteilt worden war, für seine Rolle bei der Ermordung eines jordanischen Diplomaten 1994 in Beirut. Am 19. August 2002 berichtete zuerst die palästinensische Zeitung Al-Ajjam, dass Abu Nidal drei Tage zuvor in seiner Bagdader Wohnung Selbstmord begangen habe. Am 21. August gab der Direktor des irakischen Geheimdienstes eine Pressekonferenz, bei der Fotos des blutigen Körpers Abu Nidals und ein Obduktionsbericht präsentiert wurden, die beweisen sollten, dass er an einer einzigen Schussverletzung, einem Kopfschuss durch den Mund, gestorben sei. Geheimdienstmitarbeiter hätten Abu Nidal in seiner Wohnung aufgesucht und ihn aufgefordert, sie zu einem Verhör zu begleiten. Mit der Bitte, sich etwas anziehen zu dürfen, habe er sich in sein Schlafzimmer zurückgezogen und sich in den Mund geschossen. Nach acht Stunden Intensivbehandlung sei er im Krankenhaus gestorben. Internationale Experten und palästinensische Weggefährten äußerten jedoch erhebliche Zweifel an der offiziellen irakischen Darstellung und gingen von einer Ermordung Abu Nidals aus. Chronologie der Attentate (überschneidet sich mit ANO) September 1973: Besetzung der saudischen Botschaft in Paris. Dezember 1973: Anschlag auf ein Passagierflugzeug der US-Fluggesellschaft PanAm und das Terminal am Fiumicino International Airport in Rom. 1976: September: Besetzung des Semiramis Hotels in Damaskus. Zwei der Terroristen werden später öffentlich gehängt. Oktober: Anschläge auf syrische Botschaften in Islamabad (Pakistan) und Rom (Italien). Attentat auf den syrischen Außenminister Khadam während des Auslandsaufenthaltes in Abu Dhabi (V.A.E. – Vereinigte Arabische Emirate). Der Außenminister der V.A.E wird bei dem Anschlag getötet. November: Anschlag auf das Intercontinental Hotel in Amman, Jordanien. Dezember: Versuchte Ermordung des syrischen Außenministers Khadam in Damaskus und fehlgeschlagener Anschlag auf die syrische Botschaft in İstanbul. 1978: Januar: Attentat auf den PLO-Repräsentanten in London. Februar: Der Präsident der Konferenz der Organisation für Solidarität der Völker Afrikas, Asiens und Lateinamerikas, der ägyptische Journalist Youssef al-Seba'i wird ermordet. Juni: Attentat auf den PLO-Vertreter in Kuwait City. August: Attentat auf den PLO-Repräsentanten Izz al-Din al-Kalak in Paris und Anschlag auf das PLO-Büro in Islamabad (Pakistan). Juli 1980: Anschlag auf eine jüdische Schule in Antwerpen. 1981: Mai: Attentat auf Heinz Nittel, Leiter der österreichisch-israelischen Freundschaftsvereinigung in Wien. Juni: Attentat auf den PLO-Vertreter Naim Khader in Brüssel. August: Anschlag auf die Synagoge in Wien tötet 2 Menschen und verletzt 17 weitere Personen. 1982: Juni: Versuchtes Attentat auf Shlomo Argov den israelischen Botschafter in London. August: Anschlag mit Maschinengewehren auf das jüdische Restaurant „Jo Goldenberg“ in Paris. Versuchte Anschläge auf den Konsul der Vereinigten Arabischen Emirate in Bombay (Indien) und auf einen kuwaitischen Diplomaten in Karatschi (Pakistan). September: Attentat auf einen kuwaitischen Diplomaten in Madrid und Anschlag auf eine Synagoge in Brüssel. Oktober: Terroristen mit Maschinengewehren und Handgranaten bewaffnet überfallen die Synagoge in Rom und töten ein Kind, zehn Personen werden verletzt. 1983: April: Attentat auf den PLO-Vertreter Issam Sartawi (1935–1983) der als Beobachter an der Konferenz der Sozialistischen Internationale in Lissabon teilnahm. In der Lobby des Hotel Montchoro in Albufeira, Portugal wurde Sartawi getötet. Oktober: Ermordung des jordanischen Botschafters in Neu-Delhi (Indien) und des Botschafters in Rom. Dezember: Attentat auf den jordanischen Botschafter in Madrid. 1984: Februar: Attentat auf den Botschafter der Vereinigten Arabischen Emirate in Paris. März: Attentat auf einen britischen Diplomaten in Athen. Versuchter Bombenanschlag auf das Intercontinental Hotel in Amman, während des Besuchs von Elisabeth II. in Jordanien. Oktober: Versuchtes Attentat auf einen Diplomaten der Vereinigten Arabischen Emirate in Rom. November: Bombenanschlag auf ein Büro der Fluggesellschaft British Airways in Beirut. Dezember: Attentat auf einen jordanischen Diplomaten in Bukarest. Bombenanschlag und Attentate auf die PLO-Vertreter Hani al-Hassan und Fahed Kawasmeh in Amman. 1985: März: Bombenanschläge auf die Büros der jordanischen Fluggesellschaft ALIA in Rom (Italien), Athen (Griechenland) und Nikosia (Zypern). April: Raketenangriff auf ein Passagierflugzeug der jordanischen Fluggesellschaft ALIA beim Start in Athen. Die Rakete explodiert nicht, hinterlässt aber ein Loch im Flugzeugrumpf. Auch auf die jordanische Botschaft in Rom wird ein Raketenangriff verübt. Juli: Versuchter Bombenanschlag auf die US-Botschaft in Kairo. Bombenanschlag auf die Büros der Fluggesellschaft British Airways und ALIA in Madrid. Bei den Anschlägen stirbt eine Person und 29 werden verletzt. Handgranatenanschlag auf das Café de Paris in Rom, dabei werden 38 Personen verletzt. November: Ein Passagierflugzeug der Egypt Air wird von arabischen Terroristen entführt. Auf dem Flughafen Malta erstürmt eine Sondereinheit der ägyptischen Sicherheitskräfte das Flugzeug. Dabei sterben 66 Menschen. Verantwortlich für den Anschlag wird die ANO gemacht. Dezember: Libyen unterstützt die Terroristen Abu-Nidal-Organisation – logistisch bei den Anschlägen auf den Flughäfen Wien-Schwechat und Rom-Fiumicino. Bei den fast zeitgleichen Anschlägen auf die Schalter der israelischen Fluggesellschaft El Al werden 20 Personen getötet, darunter 5 US-Amerikaner und 120 zum Teil schwer verletzt. Die vier Terroristen sterben ebenfalls. 1986: April: Sprengstoffanschlag auf ein US-Passagierflugzeug des Typs Boeing 727 der Fluggesellschaft TWA mit 111 Fluggästen auf dem Flug 840 von Rom über Athen nach Kairo. Zwischen Korfu und Korinth explodiert eine Bombe an Bord und reißt ein Loch in die Maschine. 4 Passagiere werden dadurch herausgeschleudert. Der Pilot kann das Flugzeug in Athen notlanden. September: Anschlag auf die Besucher der türkischen Neve-Schalom-Synagoge in İstanbul mit Maschinengewehren und Handgranaten, dabei sterben 22 Menschen. Der Anschlag war ein Racheakt für die israelische Aktion in einem Miliz-Lager im Südlibanon. November 1987: Entführung einer Yacht mit 8 belgischen Bürgern an Bord nach Libyen. Mai 1988: Zeitgleiche Anschläge auf das Acropole Hotel und das Hotel Sudan Club in Khartum (Sudan), dabei werden 8 Personen getötet und 21 verletzt. Januar 1991: Attentat auf den stellvertretenden PLO-Chef Abu Iyad und den Fatah-Kommandeur Abu el-Hol in Tunis. Dezember 1998: Verlegung des Hauptquartiers der ANO in die irakische Hauptstadt Bagdad. August 2002: Abu Nidal wird in Bagdad in einem Appartement tot aufgefunden. Quellen Miller, Aaron David. „Sabri Khalil al-Banna“ in Reich, Bernard. (Hrsg.) Political Leaders of the Contemporary Middle East and North Africa: A Biographical Dictionary. Westport, Conn.: Greenwood Press, 1990. Steinberg, Matti. „The Radical Worldview of the Abu Nidal Faction.“ Jerusalem Quarterly 48, Fall 1988, 88–104. Council on Foreign Relations: Abu Nidal Organization (ANO), aka Fatah Revolutionary Council, the Arab Revolutionary Brigades, or the Revolutionary Organization of Socialist Muslims Weblinks Einzelnachweise Attentäter Person im Nahostkonflikt Palästinenser Inoffizieller Mitarbeiter des Ministeriums für Staatssicherheit Geboren 1937 Gestorben 2002 Mann
446
https://de.wikipedia.org/wiki/Alternativweltgeschichte
Alternativweltgeschichte
Alternativweltgeschichten sind eine Ausformung des Science-Fiction-Genres und unter den Bezeichnungen Allohistoria, Parahistorie, Virtuelle Geschichte, Imaginäre Geschichte, Ungeschehene Geschichte, Potentielle Geschichte, Eventualgeschichte, Alternate History, Alternative History oder Uchronie („Nicht-Zeit“, aus altgriechisch „nicht-“ und „Zeit“) bekannt. In der Geschichtswissenschaft werden derartige Gedankenspiele, die allerdings Bezug auf die historischen Quellen nehmen, als kontrafaktische Geschichte bezeichnet. Die Geschichten dieser Werke spielen in einer Welt, in der der Lauf der Weltgeschichte irgendwann (am so genannten Divergenzpunkt) von dem uns bekannten abgewichen ist. Während Science-Fiction mit dem Potentialis operiert, operiert die kontrafaktische Geschichte mit dem Irrealis, stellt also die Frage: „Was hätte sein können, wenn …?“ Das Genre wurde insbesondere in der englischsprachigen Literatur der Zeit nach dem Zweiten Weltkrieg entwickelt. Geschichte Vor dem 19. Jahrhundert Frühe Beispiele der kontrafaktischen Geschichtsschreibung finden sich bereits in Antike, etwa in Form der Überlegungen des Titus Livius, was passiert wäre, falls die Armee Alexanders des Großen auf die römischen Legionen getroffen wäre. Herodot spekulierte hingegen über eine griechische Niederlage in der Schlacht bei Marathon. Im Jahr 1490 erzählt Tirant lo Blanc (Joanot Martorelli, Marti Joan de Galba) die Geschichte eines Ritters, der das Byzantinische Reich vor dem Osmanischen Reich rettet. Im Jahr 1670 merkt Blaise Pascal in seinen Pensées scherzhaft an, die Geschichte wäre anders verlaufen, hätte Kleopatra VII. eine kleinere Nase gehabt. 19. Jahrhundert Das Genre der kontrafaktischen historischen Fiktion entstand im 19. Jahrhundert, besonders im französischsprachigen Raum. Entscheidende Vorläufer waren hierbei Louis Geoffroy (Napoléon et la conquête du monde, 1836), welcher eine Welteroberung durch Napoleon Bonaparte nach einem Sieg im Russlandfeldzug 1812 beschrieb, und Charles Renouvier (Uchronie, 1876), welcher nicht nur den Begriff „Uchronie“ etablierte, sondern auch erstmals verschiedene Aspekte des Genres wissenschaftlich zu erfassen versuchte. Das erste englischsprachige historische Werk wurde von Nathaniel Hawthorne (P's correspondence, 1845) geschrieben. Im Verlauf des späten 19. und frühen 20. Jahrhunderts entwickelte sich das Genre (als solches noch nicht weithin anerkannt) nur schleppend. Zu den Beiträgen dieser Zeit gehören Hands Off (1881) von Edward Everett Hale und A Connecticut Yankee in King Arthur's Court (1889) von Mark Twain, wobei beide Beispiele eine Zeitreisegeschichte erzählen, in welcher der Zeitreisende die Zeitlinie verändert. 20. Jahrhundert George Macaulay Trevelyan veröffentlichte seine Kurzgeschichte If Napoleon Had Won the Battle of Waterloo, welche sich dadurch auszeichnet, eine der ersten dystopischen Erzählungen der Alternativgeschichte zu sein, wohingegen frühere Beispiele zumeist utopisch waren und dem Eskapismus dienten. Im Jahr 1931/1932 veröffentlichte John Collings Squire die erste belegte Essaysammlung der Alternativgeschichte unter dem Titel If It Happened Otherwise (in den Vereinigten Staaten unter dem Titel If: Or History Rewritten veröffentlicht). Die Beiträge zu Squires Sammlung wurden von mehreren internationalen Autoren geschrieben, wobei besonders Winston Churchill, der spätere Premierminister des Vereinigten Königreichs, hervorzuheben ist. Andere Beiträge kamen von Philip Guedalla und Harold Nicolson sowie Ronald Knox (alle Vereinigtes Königreich), Emil Ludwig (Deutschland) und André Maurois (Frankreich). Die Kurzgeschichte Sidewise in Time von Murray Leinster (welche später dem Sidewise Award den Namen gibt) wurde im Jahre 1934 veröffentlicht und erforschte eine Realität von parallel existierenden Zeitlinien, die urplötzlich durcheinandergewürfelt wurden. Der Zweite Weltkrieg (1939–45) veränderte das Genre der Alternativweltgeschichte vollkommen und ist seitdem zum mit Abstand beliebtesten Thema der Alternativgeschichte geworden, wobei fast ausschließlich dystopische Szenarien entstehen. Alternativgeschichten des Zweiten Weltkriegs entstehen schon kurz nach Kriegsende, so etwa Si l’Allemagne avait vaincu (‚Wenn Deutschland gewonnen hätte‘, 1950) von Randolph Robban. Im Jahr 1953 veröffentlichte J. Ward Moore das Buch Bring the Jubilee (im Deutschen: Der Große Süden), womit er in den Vereinigten Staaten die Alternativgeschichten über den Sezessionskrieg erweiterte. Interesse in den USA an alternativen Szenarien des Bürgerkriegs stieg wiederum mit dem hundertsten Jahrestag des Sezessionskriegs im Jahre 1961, so etwa in Form von MacKinlay Kantors If the South Had Won the Civil War (1961). Im Jahr 1962 erschien die vermutlich berühmteste Alternativweltgeschichte aller Zeiten, The Man in the High Castle (ins Deutsche übersetzt unter dem Titel Das Orakel vom Berge) von Philip K. Dick, welches die Geschichte der von Nazi-Deutschland und vom Japanischen Kaiserreich besetzten Vereinigten Staaten erzählt. Das Buch wurde zum Vorbild einer erfolgreichen Fernsehserie, welche zwischen den Jahren 2015 und 2019 produziert wurde (wobei diesmal im Deutschen der Originaltitel unübersetzt blieb). Im Jahr 1964 erweiterte Robert Fogel die Alternativgeschichte um mehrere wissenschaftliche und statistische Methoden, was das Genre als Ganzes auch interessanter als ernsthaftes Gedankenexperiment für die Geschichtswissenschaften machte (siehe hierzu: Kontrafaktische Geschichte). Fogel errechnete in seinem Werk Railroads and American Economic Growth alternative Statistiken der Logistik für eine Version der Vereinigten Staaten, in welcher der weitreichende Aufbau von Eisenbahnen nicht stattfand. Nach dem Tod des Diktators Francisco Franco im Jahre 1976 erlebte das Genre auch in Spanien einen Aufschwung, insbesondere mit einem Schwerpunkt auf den Spanischen Bürgerkrieg. Der Katalane Victor Alba schrieb im Jahre 1976 eine utopische Darstellung einer überlebenden Zweiten Spanische Republik, wohingegen der Franquist Fernando Vizcaino Casas im Jahre 1989 eine dystopische Vision der siegreichen Republikaner zeichnete. Im Jahr 1992 veröffentlichte der Brite Robert Harris das Buch Fatherland (im Deutschen: Vaterland) und erzielte einen großen finanziellen Erfolg, was dem Genre der Alternativgeschichte zu größerem Status verhalf. Harris’ Buch ist der Hauptvertreter eines Phänomens der Alternativgeschichte im britischen Kulturraum während der 1990er, welcher von Richard J. Evans als „euroskeptischer Kontrafaktualismus“ bezeichnet wird. Im Kontext der Deutschen Wiedervereinigung (1990) und des Vertrags von Maastricht (1992) wurden unter britischen Konservativen Ängste über ein von Deutschland dominiertes Europa geweckt. Dadurch entstanden zahlreiche britische Alternativgeschichten über ein imperialistisches Deutschland (oft in Form eines im Zweiten Weltkrieg siegreichen NS-Staates, wie im Falle von Vaterland) oder einen anderweitig hervorgebrachten europäischen Superstaat. Andere britische Vertreter des euroskeptischen Kontrafaktualismus der 1990er-Jahre waren neben Harris auch John Charmley, Andrew Roberts und Niall Ferguson. Außerhalb Großbritanniens war das Phänomen weniger verbreitet, wobei der polnisch-britische Historiker Adam Zamoyski zu den Ausnahmen zählt. Im Jahr 1997 veröffentlichte Niall Ferguson das Werk Virtual History: Alternatives and Counterfactuals, in welchem er versuchte, die kontrafaktische Geschichte als seriöses Mittel der Geschichtsforschung zu etablieren. 21. Jahrhundert Die Popularität der Alternativgeschichte als Genre ist seit den 1990ern rapide gestiegen. Mehrere Klassiker des Genres wurden im 21. Jahrhundert als Serien umgesetzt, so etwa The Man in the High Castle und SS-GB. Gesichtspunkte des Genres Stilmittel und Tropen Wie andere Genres auch kennt die Alternativgeschichte mehrere Tropen und Stilmittel, die in verschiedensten Werken erkennbar sind. Zu fast jeder Erzählung der Alternativgeschichte gehört ein Divergenzpunkt (engl.: point of divergence). Vor diesem Divergenzpunkt ist die Geschichte der alternativen Zeitlinie mit jener der dem Leser bekannten realen Zeitlinie identisch. Alternativgeschichten enthalten oft innerhalb ihrer Handlung eigene Alternativgeschichten (die oft auf die reale Zeitlinie anspielen). Das berühmteste Beispiel ist hierbei The Grasshopper Lies Heavy (im Deutschen: Schwer liegt die Heuschrecke) in The Man In The High Castle (im Deutschen: Das Orakel vom Berge). Während das Gesamtszenario einen Sieg der Achsenmächte im Zweiten Weltkrieg darstellt, beschreibt The Grasshopper Lies Heavy innerhalb des Szenarios eine alternative Version der Welt, in welcher die Alliierten den Zweiten Weltkrieg (wie in der realen Zeitlinie) gewinnen. Oft werden bekannte historische Persönlichkeiten in einer alternativen Zeitlinie in eine völlig andere Rolle gesetzt. So wird Al Capone in Back in the USSA (Kim Newman) zu einem Stalin-ähnlichen kommunistischen Diktator der Vereinigten Staaten. Tendenzen bei der Themenwahl Die Wahl des Szenarios und Divergenzpunkts einer Alternativgeschichte wird nachhaltig von der Absicht, der politischen Orientierung und der Faktenkenntnis des jeweiligen Autors sowie vom Kontext der jeweiligen Epoche geprägt. Die Autoren dystopischer Alternativgeschichten zielen oft darauf ab, dem Publikum die Vorzüge der realen Zeitlinie vor Augen zu führen, sowie die Bosheit und Unerwünschtheit der jeweils beschriebenen Dystopie zu unterstreichen. Heimatland des Autors als Faktor der Themenwahl Autoren jeder Nation tendieren eher dazu, alternativgeschichtliche Szenarien mit Bezug auf die eigene Nationalgeschichte zu entwickeln. Deutschland nimmt eine Sonderrolle ein. Die beiden Weltkriege als Schlüsselereignisse der deutschen Geschichte sind in der deutschen Bibliographie der Alternativgeschichte oft behandelt, aber insbesondere beim Zweiten Weltkrieg gilt in Deutschland eine größere kulturelle Tabuisierung der Veränderung bestimmter Themen als in anderen Ländern. Insbesondere Alternativgeschichten des Holocaust, welche besonders in den Vereinigten Staaten mit einiger Häufigkeit geschrieben werden, gibt es in Deutschland fast überhaupt nicht. In Frankreich sind die Französische Revolution und die Koalitionskriege sowie die Revolution von 1968 außerordentlich beliebt. In Italien ist die Epoche des Faschismus relevant. In Russland war die Alternativgeschichte als Genre zu Sowjetzeiten unbeachtet geblieben, erfreut sich aber seit den späten 1980er-Jahren wachsender Beliebtheit, wobei ein Scheitern der Russischen Revolution, Variationen in der Geschichte des Stalinismus (oder ein längeres Leben Wladimir Lenins), Abwandlungen des Zweiten Weltkriegs und religiöse Leitmotive (radikale christliche Theokratie in Russland oder Islamisierung Russlands) wiederkehrende Elemente sind. In Spanien nimmt der Spanische Bürgerkrieg eine erhöhte Stellung ein. In den Vereinigten Staaten schreiben Autoren der Alternativgeschichte oft über den Zweiten Weltkrieg (ein globales Phänomen), aber häufig auch über den Sezessionskrieg sowie den Vietnamkrieg, wobei besonders der erstere eine kulturell fast ausschließlich für Amerikaner interessante Epoche darstellt. Dennoch zählt der Sezessionskrieg wegen der großen Menge US-amerikanischer Alternativgeschichtswerke zu den meistbehandelten Themen des Genres. Politische Orientierung des Autors als Faktor der Themenwahl Der britische Historiker Richard J. Evans vertritt die These, dass Alternativgeschichte und insbesondere Kontrafaktische Geschichte attraktiver für Konservative als für Progressive sind, da erstere in den Geschichtswissenschaften oft philosophisch einen größeren Fokus auf Individualismus und die Freiheit der Entscheidung der Einzelperson legen, während letztere sich eher deterministischen Modellen der Sozialgeschichte und der gesellschaftsfokussierten Geschichtsschreibung zugeneigt sehen und Gedankenspiele der Alternativgeschichte tendenziell skeptischer betrachten. Dennoch gibt es auch linksgerichtete Autoren der Alternativgeschichte, so etwa E. H. Carr. Die Alternativgeschichte kann als politische Satire oder politische Propaganda dienen, so im Falle der britischen „euroskeptischen Kontrafaktualisten“, welche ihre Alternativgeschichten als Warnung gegen einen durch ein übermächtiges Deutschland gelenkten europäischen Zentralstaat konzipierten. Beliebte Themen Zweiter Weltkrieg Mit Abstand das beliebteste Thema für Alternativgeschichten ist der Zweite Weltkrieg, sowie verwandte Themen wie Adolf Hitler, der Holocaust oder der Nationalsozialismus. Durch die massive Bandbreite von Alternativerzählungen über den Zweiten Weltkrieg haben sich mehrere Subgenres und Tropen gebildet. Das klassische Szenario einer Alternativgeschichte des Zweiten Weltkriegs ist der Sieg der Achsenmächte. Die berühmtesten Beispiele sind hierbei The Man in the High Castle (Philip K. Dick), SS-GB (Den Leighton) und Fatherland (Robert Harris). Eines der frühesten Werke in der dystopischen Literatur über einen Sieg der Achsenmächte in einem Weltkrieg ist Swastika Night (Katharine Burdekin, 1937, auf Deutsch: Nacht der braunen Schatten), welches aufgrund seiner Erscheinung vor Beginn des Krieges eher zu den Zukunftsvoraussagen als zur Alternativgeschichte gehört. Im angloamerikanischen Raum sind Darstellungen einer fiktionalen Besatzung der Vereinigten Staaten und/oder des Vereinigten Königreichs durch das Dritte Reich populär. Es gibt mehrere Erzählungen, in denen Adolf Hitler als Schlüsselperson des Nationalsozialismus behandelt und Hitlers Leben verändert wird, wobei die genaue Veränderung variiert (Nichtgeburt, früher Tod, erfolgreiche Aufnahme in die Akademie der Künste, Ermordung kurz nach der Machtergreifung, Flucht aus Berlin 1945, Verurteilung als Kriegsverbrecher etc.). Beispiele für Alternativgeschichten, die auf Adolf Hitler als Person fokussiert sind, sind The Trial of Adolf Hitler (Philippe van Rundt, 1978), Operation Lucifer: The Chase, Capture and Trial of Adolf Hitler (David B. Charnay, 2001), The Asgard Solution (James Marino, 1983) und The Berkut (Joseph Heywood, 1987). Sezessionskrieg Das zweitbeliebteste Thema in der Alternativgeschichte ist der Sezessionskrieg, wobei die allermeisten Werke hierbei von US-amerikanischen Autoren für den eigenen Markt geschrieben werden. Arten der Alternativgeschichte Es gibt verschiedene Arten der Alternativgeschichte. In manchen ist die alternative Zeitlinie die einzig existente, manchmal existiert die alternative Zeitlinie parallel zu der dem Leser bekannten realen Zeitlinie (Parallelwelterzählungen), manchmal existieren unendlich viele Zeitlinien gleichzeitig, und manchmal gehen die alternative und reale Zeitlinie durch Zeitreise ineinander über (hierbei wird entweder die alternative Zeitlinie durch den Zeitreisenden verursacht, eine alternative Vergangenheit zur realen Gegenwart korrigiert oder eine Veränderung der realen Zeitlinie durch andere Zeitreisende verhindert („Zeitpolizeigeschichten“)). Außerdem unterscheiden sich Alternativgeschichten durch die Art des Divergenzpunkts. In manchen Fällen wird ein einzelnes Ereignis verändert (z. B. der Ausgang einer Schlacht oder politischen Wahl oder die (Nicht-)Ermordung einer historischen Person), aber die übrigen physikalischen Regeln der Welt und ihrer Bewohner unverändert gelassen. Wieder andere Alternativgeschichten verändern die Grundlagen der Welt (z. B. durch magische Elemente oder Zeitreise), wodurch die beschriebene Zeitlinie fundamental von der realen Zeitlinie unterscheidbar ist. Eine eigene Kategorie bilden hierbei wiederum die unendlichen Parallelweltgeschichten, da in solchen die reale Zeitlinie neben anderen alternativen Zeitlinien existiert, die jeweils verschiedenen Regeln unterworfen sein können. Subgenres und verwandte Genres Es gibt mehrere Subgenres der Alternativgeschichte. Zeitreise ist ein bei Autoren beliebtes Stilmittel, um den/die Protagonisten innerhalb der realen Zeitlinie in die Vergangenheit zu schicken und dort (absichtlich oder unabsichtlich) den Verlauf der Zeit zu ändern, wodurch eine Alternativgeschichte entsteht. Abwandlungen davon sind Erzählungen, in denen der Zeitreisende in der Vergangenheit eine Alternativgeschichte vorfindet und erst durch das eigene Eingreifen die reale Zeitlinie wiederherstellt. Elemente des Fantasy-Genres können in Alternativgeschichten in die Menschheitsgeschichte einfließen, so etwa Magie oder fiktionale Kreaturen. Ein Beispiel hierfür ist die Temeraire-Serie (auf Deutsch: Die Feuerreiter Seiner Majestät) von Naomi Novik, in welcher Drachenreiter in den Koalitionskriegen kämpfen. Separat von der Alternativgeschichte sind Zukunftsvoraussagen, auch wenn diese mitunter ähnlich geschrieben sein können. So etwa erscheint 1984 (erschienen 1948) von George Orwell rückwirkend als Roman der Alternativgeschichte, ist aber aufgrund des Erscheinungsjahres dem Genre der Zukunftsvoraussagen zuzuordnen. Unterscheidung von der Geschichtsfälschung Alternativgeschichtliche Erzählungen sind Werke der Fiktion, die klar als solche zu erkennen sind. Historische Versuche der Geschichtsfälschung sind nicht als Teil der Alternativgeschichte als Genre der Fiktion anzusehen. Beispiele der Alternativgeschichte, nach Thema sortiert Römisches Reich Roger Caillois: Pontius Pilatus. 1963 (Pontius Pilatus spricht Jesus Christus frei), ISBN 3-928262-13-0. Lyon Sprague de Camp: Lest Darkness Fall. 1941 (ein amerikanischer Archäologe wird ins Rom des Jahres 535 zurückversetzt und rettet das Ostgotenreich vor dem Untergang), ISBN 3-548-31046-X. Oliver Henkel: Die Zeitmaschine Karls des Großen. (Odoaker misslingt die Eroberung Roms 476, das Imperium Romanum existiert bis in die Zeit Karls des Großen hinein, welcher nun gegen Rom intrigiert), ISBN 3-8311-1661-X. Kirk Mitchell: Germanicus-Trilogie. deutschsprachige Ausgaben 1988–1990 bei Bastei-Lübbe unter den Titeln Procurator, Imperator und Liberator (Jesus Christus wurde nicht hingerichtet, nach über 2000 Jahren ist das Römische Reich immer noch die führende Weltmacht) Wladimir Fjodorowitsch Tendrjakow: Anschlag auf Visionen. 1989: Jesus wird bereits bei einer seiner ersten Predigten gesteinigt, der Sonnenstaat von Campanella wird verwirklicht, entwickelt sich aber zum Terrorregime, ISBN 3-353-00515-3. Erster Weltkrieg Jan Becher: Sedanstag. 2020 und 2021. Der Erste Weltkrieg hat nie stattgefunden. In einem seit 1871 friedlichen Europa sind 18 Geschichten angesiedelt, die es in der Realität so nie geben dürfte. Erste Auflage 2020. ISBN 978-3-00-065308-7 Guido Morselli: Licht am Ende des Tunnels. 1977 (Durch einen Alpentunnel gewinnen die Mittelmächte Deutsches Kaiserreich und Österreich-Ungarn den Ersten Weltkrieg. Das Deutsche Kaiserreich verzichtet auf Annexionen und gründet eine Westeuropäische Gemeinschaft), ISBN 3-518-38707-3. Heinrich von Stahls Kaiserfront-Buchreihe spielt in einer Parallelwelt, in der der Erste Weltkrieg anders ausging und die Welt im Jahre 1953 von Außerirdischen angegriffen wird. Hannes Stein: Der Komet. 2013 (Der österreichische Thronfolger Franz Ferdinand entgeht knapp dem Attentat in Sarajevo, und so finden weder der Erste noch der Zweite Weltkrieg statt, die Stadt Wien, wo der Roman spielt, entwickelt sich ganz anders.), ISBN 978-3-86971-067-9. Oliver Henkel: Kaisertag. 2002 (Es gibt kein Attentat in Sarajevo und 1988 existiert das Deutsche Kaiserreich weiter und hat die Atombombe entwickelt), ISBN 3-8311-4481-8. Christian Kracht: Ich werde hier sein im Sonnenschein und im Schatten. (Durch das Tunguska-Ereignis wird Russland unbewohnbar, Lenin bleibt in der Schweiz, wo 1917 der Sowjet gegründet wird), ISBN 3-462-04041-3. Weimarer Republik Christian v. Ditfurth: Das Luxemburg-Komplott. (Rosa Luxemburg und Karl Liebknecht werden nicht von Freikorps-Einheiten ermordet), Droemer/Knaur 2008, ISBN 978-3-426-63496-7. Zweiter Weltkrieg, Nationalsozialismus, Adolf Hitler, Holocaust Richard Bachman: Todesmarsch. 1979 (engl.: The Long Walk; der Roman deutet an einigen Stellen an, dass das Deutsche Reich den Zweiten Weltkrieg gewonnen und sich zu einer Atommacht entwickelt hat), ISBN 3-548-26327-5. Otto Basil: Wenn das der Führer wüßte. 1966 (Das Deutsche Reich hat den Zweiten Weltkrieg gewonnen, nach Adolf Hitlers Tod in den 1960er Jahren steuert die Welt auf einen Atomkrieg mit der anderen Supermacht Japan zu) (2010, ISBN 978-3-85286-197-5) Michael Chabon: Die Vereinigung jiddischer Polizisten. 2007 (engl.: The Yiddish Policemen's Union; die Vereinigten Staaten errichten im Zweiten Weltkrieg in Alaska eine – nur provisorische – Heimstatt für jüdische Flüchtlinge) Len Deighton: SS-GB. (engl.: SS-GB; dem Deutschen Reich gelingt die Invasion Englands im Zweiten Weltkrieg, die Vereinigten Königreiche werden ein SS-Staat), ISBN 3-453-43931-7. Philip K. Dick: Das Orakel vom Berge. 1962 (engl.: The Man in the High Castle; das Deutsche Reich und das Japanische Kaiserreich haben im Zweiten Weltkrieg Amerika besetzt und untereinander aufgeteilt), ISBN 3-453-52272-9. Christian v. Ditfurth: Der 21. Juli. (Das Attentat vom 20. Juli 1944 gelingt, das Deutsche Reich baut vor den Vereinigten Staaten die Atombombe), ISBN 978-3-426-62415-9. Christian v. Ditfurth: Der Consul (Adolf Hitler wird vor seiner Machtergreifung ermordet), ISBN 978-3-426-62787-7. Andreas Eschbach: NSA – Nationales Sicherheitsamt. (Fiktion darüber, was passiert wäre, wenn es in Nazi-Deutschland schon Computer, Mobiltelefone und soziale Medien gegeben hätte.) Peter Friedrich: Seelöwe. Trilogie. (Die Wehrmacht landet im Juli 1940 in Kent. Mit den damals vorhandenen Methoden und Waffen wird eine alternative Seelöwe-Operation durchgeführt), ISBN 978-1-5202-3042-9. Stephen Fry: Geschichte machen. (engl.: Making History; wie würde die Welt aussehen, wenn Hitler nie geboren worden wäre?), ISBN 3-499-22410-0. Newt Gingrich, William Forstchen: 1945. Robert Harris: Vaterland. 1992 (engl.: Fatherland; das Deutsche Reich hat den Zweiten Weltkrieg gewonnen, die Handlung spielt zu Hitlers 75. Geburtstag im Jahr 1964 in einem Berlin, das nach Albert Speers Plänen umgebaut wurde. Mit Rutger Hauer verfilmt), ISBN 3-453-07205-7. Oliver Henkel: Im Jahre Ragnarök. 2009 (Nach einem anderen Ende des Zweiten Weltkriegs wird der Morgenthau-Plan in einer härteren Form verwirklicht), ISBN 978-3-941258-05-1. Kaiji Kawaguchi: Zipang. 2000–2009 (Ein japanischer Aegis-Zerstörer gerät durch ein Wetterphänomen in das Jahr 1942). Siegfried Langer: Alles bleibt anders. 2008 (Deutschland gewinnt den Zweiten Weltkrieg, Europa wird deutschsprachig, England wird eine deutsche Provinz). Charles Lewinsky, Doris Morf: Hitler auf dem Rütli. Protokolle einer verdrängten Zeit. Zürich 2014. (Hitlers Truppen marschieren im Mai 1940 in die Schweiz ein, die Armee muss kapitulieren, die Schweiz wird dem Dritten Reich einverleibt.) Philip Roth: Verschwörung gegen Amerika. (engl.: The Plot Against America; Charles Lindbergh wird 1941 Präsident der USA und verständigt sich mit dem Deutschen Reich), ISBN 3-446-20662-0. Éric-Emmanuel Schmitt: Adolf H. Zwei Leben. (Hitler wird 1908 an der Wiener Kunstakademie angenommen und dessen Leben nimmt einen völlig anderen Verlauf.) ISBN 3-250-60107-1. Norman Spinrad: Der stählerne Traum. 1972 (engl.: The Iron Dream; Adolf Hitler wandert in die Vereinigten Staaten aus und wird dort ein SF-Schriftsteller, der seine kruden Ideen in Romanen veröffentlicht), ISBN 3-453-30684-8. Volkmar Weiss: Das Tausendjährige Reich Artam. (Adolf Hitler stürzt im November 1941 mit dem Flugzeug ab und der Krieg gegen die USA findet nicht statt, im eroberten Osten entsteht das neue Reich Artam), ISBN 978-3-926370-45-7. Jerry Yulsman: Elleander Morning. (engl.: Elleander Morning; Adolf Hitler wird 1913 in Wien ermordet, dadurch findet der Zweite Weltkrieg nicht statt), ISBN 3-453-31308-9. Thomas Ziegler: Die Stimmen der Nacht. (Nachkriegsdeutschland wird 1945 im Zuge des Morgenthau-Plans komplett deindustrialisiert. Der Großteil der Deutschen wandert nach Südamerika aus und baut dort ein neues Nazireich auf). Kalter Krieg Thomas Brussig: Das gibts in keinem Russenfilm, 2015 (Brussig erzählt aus seinem Leben in einer DDR, in der die Wiedervereinigung ausgefallen ist), ISBN 978-3-596-03266-2. Christian v. Ditfurth: Die Mauer steht am Rhein. (Die DDR bekommt nach einem sowjetisch-amerikanischen „Kuhhandel“ die Bundesrepublik zugeschlagen), ISBN 3-462-60004-4. Christoph Ransmayr: Morbus Kitahara. Deutschland nach dem Zweiten Weltkrieg und Umsetzung des „Morgenthau-Planes“ Simon Urbans Roman Plan D von 2011 beschreibt ein Deutschland, in dem es in der DDR die Wende 1989 nach einem Putsch nicht gegeben hat. Bauer, Gollanek, Klostius u. Stracke: Walter Ulbrichts letzter Coup, 2023 (Ulbricht möchte 1973 heimlich aus der DDR ausreisen und bedient sich dabei einer Abteilung des MfS mit phantastischen Fähigkeiten), ISBN 3-89773-149-5 Diverse Szenarien Laurent Binet: Civilizations. Grasset, Paris 2019, (Die Inka überfallen im 16. Jahrhundert Europa) (ISBN 978-2-246-81309-5). deutsch: Eroberung. Roman. Übers. Kristian Wachinger. Rowohlt, Hamburg 2020, ISBN 978-3-498-00186-5. Samuel Bury: Histoire de la prise de Berne et de l’annexion de la Suisse à l’Allemagne. 1872. (Die Schweiz wird im 19. Jahrhundert von Bismarck besetzt). Emmanuel Carrère: Kleopatras Nase. Kleine Geschichte der Uchronie. Gatza, Berlin 1986, ISBN 3-928262-09-2. A. Bertram Chandler: Die australische Revolution. 1983 (Kelly Country; Ned Kelly führt einen erfolgreichen Aufstand der Australier gegen die Briten an) Ronald W. Clark: Queen Victoria’s Bomb. 1967 Wadim Dawydow: Die Thronfolger. (russ.: Наследники по прямой) (Trilogie: Die Burg von Kimmerien. 2007, ISBN 978-5-289-02584-5, Die Prophezeiung. 2008, ISBN 978-5-289-02619-4, Dem Tod zum Trotz. 2008, ISBN 978-5-9942-0073-5). Der Einfluss der gegenwärtigen Protagonisten erstellt mehrere Points of Divergence (Bifurkationspunkte), wodurch sich die Weltgeschichte deutlich ändert, z. B., der Zweite Weltkrieg zwei Jahre früher beendet wird. Eine „klassische“ Alternativweltgeschichte ohne Artefakte aus anderer Welt, Zukunft o. ä., die in der russischen Art des Genres sehr beliebt ist. Jasper Fforde: Thursday-Next-Reihe (enthält mehrere alternative Entwicklungen) Eric Flint: 1632 (Serie). (Im Mittelpunkt der Handlung stehen die Einwohner der US-amerikanischen Kleinstadt Grantville, die aus dem ländlichen West Virginia des Jahres 2000 in die Wirren des Dreißigjährigen Krieges im Thüringen des Jahres 1631 versetzt wird.) William Gibson, Bruce Sterling: Die Differenzmaschine. (engl.: The Difference Engine; Im 19. Jahrhundert wird der erste funktionierende, mechanisch arbeitende, Computer gebaut), ISBN 3-453-05380-X. Harry Harrison, John Holm: Hammer und Kreuz. Trilogie 2001 (Die Invasion der Wikinger in England 856 nimmt einen anderen Verlauf). Oliver Henkel: Wechselwelten. 2004 (verschiedene Szenarien in sieben Kurzgeschichten), ISBN 3-8334-1535-5. Theodor Herzl: Der Unternehmer Buonaparte. 1900. (eine kurze Erzählung, im Volltext auf Wikisource) Michael Kurland: Wo steckt Aaron Burr? 1975 (engl. The Whenabouts of Burr; Die Unterschriften unter der Verfassung der Vereinigten Staaten sind plötzlich geändert. Die Nachforschungen führen in ein Netz von parallelen Welten mit alternativer Geschichte), ISBN 3-548-31058-3. Naomi Novik: Die Feuerreiter Seiner Majestät, 2006–2016 (neunteilige Serie mit Fantasy-Elementen, die Drachenreiter während der Koalitionskriege darstellt). Matt Ruff: Mirage. 2012 (eine Welt, in der die Vereinigten Staaten und der Mittlere Osten sinngemäß die weltpolitischen Plätze tauschen). Alfred Stabel: Der Goldene Apfel der Deutschen. (Die Türken erobern 1683 Wien und etablieren sich als mitteleuropäische Großmacht), ISBN 978-3-86346-079-2. Harry Turtledove: diverse Werke, unter anderem Southern Victory. (der Süden gewinnt den Sezessionskrieg – und wie sich dies im 20. Jahrhundert auswirkt) Alternativgeschichte in nichtgedruckten Medien Filme (Auswahl) It Happened Here (1964) (Das Deutsche Reich besetzt im Verlauf des Zweiten Weltkrieges Großbritannien) Der Junge und sein Hund (1975) (Die im Jahr 2024 spielende Handlung erwähnt einen zwischen 1950 und 1983 ausgetragenen Dritten Weltkrieg) The Trial of Lee Harvey Oswald (1977) (Lee Harvey Oswald wurde nicht zwei Tage nach dem Attentat auf John F. Kennedy selbst erschossen, sondern muss sich vor Gericht verantworten) Philadelphia Experiment II (1993) (Durch ein missglücktes Teleportationsexperiment wird ein Tarnkappenbomber mit Nuklearbewaffnung in der Zeit zurückgeschickt, mit dessen Hilfe das Deutsche Reich den Krieg für sich entscheidet) Vaterland (1994) (Deutschland im Jahr 1964 nach dem Sieg im Zweiten Weltkrieg) White Man’s Burden („Straße der Rache“) (1995) (Die gesellschaftlichen Rollen von Schwarzen und Weißen in den USA sind vertauscht) 2009 Lost Memories (2002) (Südkoreanischer Film, in dem Japan sich im Zweiten Weltkrieg mit den USA verbündet hat und die Atombombe auf Berlin statt auf Hiroshima gefallen ist) Nothing So Strange (2002) (Mockumentary, in der Bill Gates einem Attentat zum Opfer fällt) Sky Captain and the World of Tomorrow (2004) (Ein alternatives 1939, in dem Zeppeline dank des offensichtlichen Ausbleibens der Hindenburg-Katastrophe die Luftfahrt mit beherrschen, die Technik insgesamt ausgefeilter erscheint und keine politischen Zeichen eines bevorstehenden Zweiten Weltkrieges erkennbar sind) Perfect Creature (2006) (Durch Genmutationen vor 300 Jahren sind Vampire entstanden, die nun mit den Menschen koexistieren, die Kirche der Vampir-Bruderschaft hat sich zur Hauptreligion entwickelt, die Technologie ist großteils am Stand der ersten Hälfte des 20. Jahrhunderts stehengeblieben) Virtual JFK (2008) (Dokumentation über die Frage, wie der Vietnamkrieg sich entwickelt hätte, wenn Kennedy nicht bei einem Anschlag ums Leben gekommen wäre) Inglourious Basterds (2009) (Der im Sommer 1944 angesiedelte Film selbst weist keine alternative Haupthandlung auf; die bekannte Zeitlinie reißt erst mit der Ermordung des NSDAP-Führungskaders und der darauf folgenden Kapitulation des Deutschen Reiches ab) Watchmen – Die Wächter (2009) (Alternative USA des Jahres 1985, in dem der Vietnamkrieg gewonnen wurde und Richard Nixon als Dauerpräsident fungiert) Jackboots on Whitehall („Nazi Invasion“) (2010) (Satirischer Puppentrickfilm, bei dem das Deutsche Reich 1940 über einen Tunnel eine Invasion Großbritanniens startet) Paradox – Die Parallelwelt (2010) (In dieser Welt nimmt die Magie den Stellenwert der Wissenschaft an) Iron Sky (2012) (Komödie, in der sich Nationalsozialisten auf den Mond geflüchtet haben) Nazi Sky – Die Rückkehr des Bösen (2012) (Eine Gruppe Nationalsozialisten rund um Dr. Mengele flüchtet sich in eine unterirdische Welt in der Antarktis) Arlo & Spot (2015) (Die Erde wird an der Kreide-Paläogen-Grenze nicht von einem Asteroiden getroffen. In der Gegenwart haben die Dinosaurier Landwirtschaft und Viehzucht entwickelt, während die Menschheit noch immer auf Höhlenmenschenniveau ist.) Once Upon a Time in Hollywood (2019) (großteils im realen Los Angeles von 1969 angesiedelt, allerdings scheitert am Ende der Mordversuch der Manson Family an Sharon Tate) Yesterday (2019) (Der Film zeigt eine alternative Gegenwart, in der unter anderem die Beatles und Coca-Cola nie existiert haben) Doku-Fiction Der Dritte Weltkrieg (1998) („Dokumentation“ über einen alternativen Verlauf der osteuropäischen Reformbewegung 1989, die im Einmarsch der Sowjetunion in die Bundesrepublik und letztendlich im nuklearen Schlagabtausch gipfelt) C.S.A.: The Confederate States of America (2004) Fernsehserien Star Trek: TOS-Episode „Griff in die Geschichte“ (1967) Spellbinder – Gefangen in der Vergangenheit (1995) Sliders – Das Tor in eine fremde Dimension (1995–2000) Star Trek: Raumschiff Voyager, Doppelfolge: Vor dem Ende der Zukunft (Episode 50/51, 1996) Spellbinder – Im Land des Drachenkaisers (1996) Animorphs (einzelne Episoden, 1998–2000) Full Metal Panic! (Anime, 2002–2005) Code Geass: Lelouch of the Rebellion (Anime, 2006–2008) Fringe – Grenzfälle des FBI (2008–2012) The Man in the High Castle (2015–2019) Parallels – Reise in neue Welten (Nur Pilotfilm) SS-GB (2017) For All Mankind (2019) (Der sowjetische Kosmonaut Alexei Leonow betritt als erster Mensch den Mond) Computerspiele (Auswahl) Wolfenstein 3D: Am Ende des Spiels tötet man Adolf Hitler. Imperium Romanum (Adventure): Zeitreisepiraten bringen moderne technische Errungenschaften ins antike Rom und verändern damit die Geschichte Command & Conquer: Alarmstufe Rot: 1946 beschließen Wissenschaftler in New Mexico unter Leitung von Professor Albert Einstein, den Zweiten Weltkrieg zu verhindern, indem sie Adolf Hitler ausschalten, noch bevor er im Deutschen Reich die Macht ergreifen kann. Dadurch wird der Zweite Weltkrieg von der Sowjetunion unter Stalin ausgelöst. Enigma: Rising Tide: Die Lusitania wird 1915 nicht von einem deutschen U-Boot versenkt. Die USA treten nicht in den Ersten Weltkrieg ein und das Deutsche Reich gewinnt den Krieg. 1937 kämpfen somit drei Mächte (Deutsches Kaiserreich, USA und eine Allianz aus Japan und den britischen Kolonien) um die Vorherrschaft. Interstate ’76: Die Ölkrise verschärft sich so weit, dass die gesamte öffentliche Ordnung der USA zusammenbricht und sich auf den Überlandstraßen Polizei, Banditen und Selbstjustizler bekriegen. World in Conflict: Ende der 1980er Jahre überfällt die UdSSR überraschend mehrere europäische Länder und startet mit der Hilfe Chinas eine Invasion an der Nordwestküste der USA. Turning Point: Fall of Liberty: Winston Churchill ist bereits 1931 gestorben und Großbritannien kann Deutschland und den Achsenmächten nicht standhalten. Diesen gelingt es später, in den USA einen von ihnen kontrollierten Präsidenten zu installieren. Sniper Elite (Serie): In mehreren Teilen der Serie kann man Adolf Hitler töten, wobei nicht immer klar ist, ob es sich um ein Double handelt. Im Add-on Zombie Army Trilogy gibt es eine alternative Zeitlinie, in der Hitler gefallene Soldaten als Zombies zurückkehren lässt und daraufhin selbst zum Zombie wird. Wolfenstein: The New Order: Deutschland hat den Zweiten Weltkrieg gewonnen und beherrscht die Welt, der Hauptcharakter in dem Spiel schließt sich einem Widerstand an und kämpft im Untergrund gegen das Regime. Rollenspiele GURPS Infinite Worlds: Durch eine Maschine namens Parachronator ist es der Menschheit gelungen, Parallelweltreisen durchzuführen und diese Welten zum eigenen wirtschaftlichen Zweck auszubeuten. Deadlands: Nach einer Anrufung beherrschen böse Geister den Westen der USA, Kalifornien wurde durch ein Erdbeben in eine Insellandschaft verwandelt und der Sezessionskrieg tobt bereits 15 Jahre. Space: 1889: Ein Steampunk-Setting im ausgehenden 19. Jahrhundert, in dem sich die Äthertheorie bewahrheitet und die Menschheit mit Luftschiffen den Mars kolonisiert. Crimson Skies: Im Zuge der Weltwirtschaftskrise sind die USA in mehrere, einander bekriegende Einzelstaaten zerfallen, die auch von den übrig gebliebenen Großmächten bedrängt werden. Literatur Emmanuel Carrère: Kleopatras Nase: Kleine Geschichte der Uchronie. Gatza, Berlin 1993, ISBN 3-928262-09-2. Johannes Dillinger: Uchronie. Ungeschehene Geschichte von der Antike bis zum Steampunk. Schöningh, Paderborn 2015. Uwe Durst: Zur Poetik der parahistorischen Literatur. In: Neohelicon. XXXI, 2/2004, S. 201–220. Uwe Durst: Drei grundlegende Verfremdungstypen der historischen Sequenz. In: Deutsche Vierteljahrsschrift für Literaturwissenschaft und Geistesgeschichte DVjs. 2/2009, S. 337–358. Hans-Heinrich Freitag, Peter Hühn (Hrsg.): Literarische Ansichten der Wirklichkeit. Studien zur Wirklichkeitskonstitution in englischsprachiger Literatur. To honour Johannes Kleinstück. (= Anglo-American forum. Bd. 12). Lang, Frankfurt am Main/ Bern/ Cirencester/U.K. 1980, ISBN 3-8204-6014-4. Jörg Helbig: Die Vergangenheit, die keine war. Über parahistorische Literatur. In: Wolfgang Jeschke (Hrsg.): Das Science Fiction Jahr 1989. Wilhelm Heyne Verlag, München, ISBN 3-453-03139-3, S. 391–403. Jörg Helbig: Was wäre wenn… 150 Jahre parahistorische Literatur in Großbritannien und den USA. In: Quarber Merkur. 91/92, Franz Rottensteiners Literaturzeitschrift für Science Fiction und Phantastik, Passau 2000, ISBN 3-932621-32-8. Harald Husemann: When William Came; If Adolf Had Come. In: Anglistik und Englischunterricht: Images of Germany. 29/30, 1986, S. 57–83. Hans-Peter von Peschke: Was wäre wenn. Alternative Geschichte. Theiss, Darmstadt 2014, ISBN 978-3-8062-2795-6. Gavriel David Rosenfeld: The World Hitler Never Made. Alternate History and the Memory of Nazism. 2005, ISBN 0-521-84706-0. (Rezension) Georg Ruppelt: Nachdem Martin Luther Papst geworden war und die Alliierten den Zweiten Weltkrieg verloren hatten. Literarische Alternativen zur besten der Welten. Wehrhahn Verlag, 2007, ISBN 978-3-86525-096-4. Erik Simon (Hrsg.): Alexanders langes Leben, Stalins früher Tod, und andere abwegige Geschichten. Erzählungen und Berichte aus Parallelwelten, München 1999, ISBN 3-453-14912-2. J. C. Squire (Hrsg.): Wenn Napoleon bei Waterloo gewonnen hätte, und andere abwegige Geschichten. Erzählungen und Berichte aus Parallelwelten, München 1999, ISBN 3-453-14911-4. Andreas Martin Widmann: Kontrafaktische Geschichtsdarstellung: Untersuchungen an Romanen von Günter Grass, Thomas Pynchon, Thomas Brussig, Michael Kleeberg, Philip Roth und Christoph Ransmayr. (= Heidelberg Studien zur historischen Poetik. 4). Winter, Heidelberg 2009, ISBN 978-3-8253-5610-1 (zugleich: Dissertation, Universität Mainz). Niall Fergusson: Virtuelle Geschichte – Historische Alternativen im 20. Jahrhundert. Wissenschaftliche Buchgesellschaft, Darmstadt 1997, ISBN 3-89678-201-0. Weblinks Alternative Geschichte: „Wenn Nazis siegen und die Schweiz Krieg führt“, Artikel der Welt Uchronia.net: The Alternate History List (Bibliografie, englisch) Alternativgeschichte-Wiki Ankerpunkte Blog: Romane und Filme (Rezensionen, deutsch) Einzelnachweise
449
https://de.wikipedia.org/wiki/Ada%20%28Programmiersprache%29
Ada (Programmiersprache)
Ada ist eine strukturierte Programmiersprache mit statischer Typenbindung. Sie wurde von Jean Ichbiah für das Unternehmen Honeywell Bull in den 1970er Jahren entworfen. Ada ist vom Erscheinungsbild ähnlich zur Programmiersprache Pascal. Benannt wurde die Sprache nach Ada Lovelace (1815–1852), der Tochter von Lord Byron und Mitarbeiterin von Charles Babbage, die auch als erste Programmiererin bezeichnet wird. Überblick Ada wurde anfänglich stark vom US-Verteidigungsministerium gefördert und unterstützt. Wie alle von ISO standardisierte Sprachen wird sie in regelmäßigen Abständen überarbeitet. Mit Veröffentlichung eines neuen Standards verliert der vorige seine Gültigkeit. Daher gibt es nur eine Sprache Ada; nur zur Unterscheidung der Generationen werden diese informell als Ada 83 (die erste standardisierte Generation), Ada 95, Ada 2005 und Ada 2012 bezeichnet. Die nächste Generation ist im Wesentlichen abgeschlossen und wird vorläufig als Ada 202X bezeichnet. Ada-Compiler werden gewöhnlich einer Validierung unterzogen, der Ada Conformity Assessment Test Suite (ACATS), die praktisch Grundvoraussetzung für den professionellen Einsatz ist. ACATS ist ebenfalls ein ISO-Standard. Aufgrund der hohen Anforderungen, die validierte Compiler erfüllen müssen, hat Ada sich vor allem in sicherheitskritischen Bereichen durchgesetzt, zum Beispiel in der Flugsicherung, in Sicherheits-Einrichtungen der Eisenbahn, in Waffensystemen, der Raumfahrt, der Medizin oder der Steuerung von Kernkraftwerken. Bis auf einzelne Ausnahmen verweigert sich die Automobilindustrie ihrer Verwendung. Fähigkeiten der Sprache Ada war ursprünglich gedacht als allgemeine Programmiersprache, die die Vielzahl von Programmiersprachen im amerikanischen Verteidigungsministerium ersetzen sollte. Heute wird sie meist für eingebettete (embedded) und Echtzeit-Systeme (real-time systems) verwendet. Herausragende Merkmale von Ada sind etwa das strenge Typsystem (starke Typisierung) mit fehlerrobuster Syntax, das zahlreiche Prüfungen schon zur Übersetzungszeit erlaubt, Nebenläufigkeit, Ausnahmebehandlung und generische Programmierung. Ada 95 führte sogenannte tagged types (erweiterbare Typen) ein, die das Ada zugrundeliegende Konzept des Programmieren durch Erweiterung weiter ausbauen und dynamische Polymorphie ermöglichen. Implementierungen von Ada benutzen üblicherweise keine automatische Speicherbereinigung (garbage collection) zur Speicherverwaltung, da diese das Echtzeitverhalten empfindlich stören würde; der Standard verbietet dies jedoch nicht. Ada unterstützt Laufzeittests, um Speicherüberläufe, Zugriff auf nicht zugewiesenen Speicher, off-by-one-Fehler und andere, ähnlich geartete Fehler frühzeitig zu erkennen. Viele dieser Fehler lassen sich jedoch durch richtige Verwendung der Sprachmittel schon während der Programmierung vermeiden oder während der Übersetzung erkennen. Für eine höhere Effizienz können diese Laufzeittests abgeschaltet werden. Programmverifikation mit SPARK Auch zur Programmverifikation stehen verschiedene Spracheigenschaften zur Verfügung. Mit Ada ist es zum ersten Mal gelungen, industriell verwendete Programme automatisch auf Korrektheit zu überprüfen. Dazu wird die Sprachvariante SPARK verwendet, eine Untermenge von Ada mit Annotationen, das sind Kommentare mit spezieller Syntax wie zum Beispiel Vor- und Nachbedingungen. Die Korrektheit eines SPARK-Programms wird mit einem Verifikationsprogramm (SPARK Examiner) durch statische Analyse der Annotationen überprüft (also vor Ausführung des Programms). In den neuesten Sprachgenerationen sind viele dieser Annotationen durch sogenannte Aspekte ersetzt, sodass auch der Übersetzer Nutzen aus ihnen ziehen kann. Ziel ist jedoch, dass für diese Aspekte kein Code erzeugt wird – sie werden wie die Annotationen vom SPARK Examiner ausgewertet. Programmierwerkzeuge Für Ada gibt es den quelloffenen Compiler GNAT unter GP-Lizenz. Die Firma AdaCore entwickelt die integrierte Entwicklungsumgebung (IDE) GNAT Programming Studio, die in einer freien und einer kommerziellen Version angeboten wird. Darüber hinaus bieten verschiedene namhafte Hersteller Compiler mit IDEs für Ada an. Ein Plugin für Eclipse, die GNATbench, wurde zunächst in der kommerziellen Version GNATpro vertrieben, ist mittlerweile aber auch unter einer GPL verfügbar. Daneben gibt es einige kleinere IDEs, die Ada unterstützen und sich vor allem für die Lehre eignen, zum Beispiel jGRASP, oder unter Windows das bekannte AdaGIDE. Außerdem existiert ein Emacs-Mode für Ada. Geschichte In den 1970ern zeigte sich das Verteidigungsministerium der Vereinigten Staaten besorgt über die wachsende Anzahl von Programmiersprachen, die in seinen Projekten verwendet wurden. Wartung, Ausbildung, Modularität und Wiederverwendung waren dadurch schwer beeinträchtigt. Viele der Programmiersprachen waren zudem proprietär (man war also vom Anbieter abhängig) oder schlicht veraltet. 1975 sollte eine Arbeitsgruppe diesen Dschungel lichten und eine Sprache finden oder erfinden, welche die Bedingungen des Ministeriums erfüllt. Eine Reihe von Anforderungskatalogen, bezeichnet als Strawmann, Woodenman, Tinman, Ironman und Steelman (daneben für eine integrierte Entwicklungsumgebung die Dokumente Sandman (nicht veröffentlicht), Pebbleman und Stoneman) wurden erstellt und viele existierende Sprachen daraufhin überprüft, doch 1977 kam man zum Ergebnis, dass keine der vorhandenen Sprachen geeignet war. Nach einer Ausschreibung kamen vier Kandidaten in die nähere Auswahl (Red, Green, Blue und Yellow genannt), und im Mai 1979 entschied man sich für Green von Jean Ichbiah, welches dann auf den Namen Ada getauft wurde. Die ursprüngliche Beschreibung wurde am 10. Dezember 1980 gebilligt, dem Geburtstag von Ada Lovelace. Der Standard erhielt die Bezeichnung MIL-STD 1815, da 1815 ihr Geburtsjahr war. Die erste Implementierung fand unter Multics statt. Im Februar 1983 wurde die Sprache zu einer ANSI-Norm (ANSI/MIL-STD 1815A), die ISO übernahm die Norm 1987 als ISO-8652:1987. Diese Version wird heute als Ada 83 bezeichnet, nach dem Jahr der ANSI-Normung. Ada 95, die gemeinsame ISO/ANSI-Norm ISO-8652:1995, wurde im Februar 1995 angenommen. Damit wurde Ada 95 zur ersten objektorientierten Programmiersprache mit einer ISO-Norm. Im Juni 2001 wurde die erste technische Korrektur gemäß den Statuten der ISO als ISO/IEC 8652:1995/Cor 1:2001 angenommen. Weitere Überarbeitungen sind März 2007 ISO/IEC-8652:1995/AMD 1:2007, informell Ada 2005, ISO/IEC 8652:2012, informell Ada 2012, und der aktuelle Standard ISO/IEC 8652:2012/Cor 1:2016. Eine neue Version, arbeitstechnisch Ada 202X genannt, ist kurz vor Vollendung. Nach der Einführung Adas 1983 fiel die Anzahl der verwendeten Programmiersprachen im Verantwortungsbereich des US-amerikanischen Verteidigungsministeriums bis 1996 von über 450 auf 37. Das US-Verteidigungsministerium schrieb vor, dass jedes Softwareprojekt mit einem Anteil von mehr als 30 % neuem Code in Ada geschrieben werden musste. Diese Vorschrift wurde 1997 aufgehoben, zudem wurden häufig Ausnahmen genehmigt. In vielen anderen Staaten der NATO wurden ähnliche Vorschriften erlassen. Um die Verbreitung des Standards und der Sprache allgemein zu unterstützen, finanzierte die US Air Force die Entwicklung des kostenfreien GNAT-Compilers. Die auf Sicherheit ausgelegten Spracheigenschaften von Ada alleine können Fehler nicht verhindern: Ariane V88, die erste Ariane 5, ging im Juni 1996 samt Nutzlast verloren, unter anderem weil ein arithmetischer Überlauf auftrat und für die vom Compiler generierte Ausnahme keine angemessene Ausnahmebehandlung implementiert worden war. Entgegen Bertrand Meyers Behauptung hätte auch die von ihm entwickelte Programmiersprache Eiffel den Verlust der Rakete nicht verhindert. (Der Grund des Fehlschlags war die ungeprüfte Übernahme eines Codes von Ariane 4, der für deren Flugprofil ausgelegt war.) Im April 2008 kam Ada 2005 wieder in die Schlagzeilen, nachdem Lockheed Martin ein Update zum Flugsicherungssystem der Federal Aviation Administration vor der vereinbarten Lieferzeit und unter dem erwarteten Budget abgeliefert hatte. Hallo Welt in Ada Das Hallo-Welt-Programm in Ada: with Ada.Text_IO; procedure Hallo is begin -- Ausgabe des Textes "Hallo, Welt!". Ada.Text_IO.Put_Line("Hallo, Welt!"); end Hallo; Siehe auch GNAT – GNU Ada Compiler GNAT Programming Studio (GPS) Ada Conformity Assessment Test Suite (ACATS) Literatur Manfred Nagl: Softwaretechnik mit Ada 95. Vieweg, ISBN 3-528-15583-3. Harry Feldmann: Programmieren mit Ada. Vieweg, ISBN 3-528-05205-8. Annette Weinert: Programmieren mit Ada und C. Vieweg, ISBN 3-528-05240-6. Diana Schmidt: Erfolgreich Programmieren mit Ada. Springer Verlag, ISBN 3-540-57689-4. Klaus P. Kratzer: ADA. Hanser Fachbuch, ISBN 3-446-16545-2. Englisch John Barnes: Programming in Ada 2012., ISBN 978-1-107-42481-4. Simon Johnston: Ada 95 for C and C++ Programmers. N.H. Cohen: Ada as a Second language. – sehr ausführlich. A. Burns und A. Wellings: Concurrency in Ada. Nell Dale, Chip Weems & John W. McCormick: Programming and Problem Solving with Ada 95 (2. Ausgabe), ISBN 978-0-7637-0792-7. Referenzen Ada 2012 Language Reference Manual (LRM) Rationale for Ada 2012 Weblinks comp.lang.ada (Newsgroup) A# – Ada für .NET/Mono Steelman On-Line Ada, C, C++, and Java vs. The Steelman Modula-3 and Ada Tutorial (PDF; 1,4 MB) Vorlesungsskript mit Aufgaben, (PDF; 88 kB), (Beuth-Hochschule für Technik Berlin, Prof. Dr. Grude; 1,30 MB; ZIP) Ada 95: The Craft of Object-Oriented Programming (PDF; 1,4 MB) Online-Buch von John English The Big Online Book of Linux Ada Programming Online-Buch von Ken O. Burtch Referenz und Glossar Ada Reference Manual – freie Ada-95-Online-Referenz Javier Miranda: A Detailed Description of the GNU Ada Run-Time. 2002 Einzelnachweise Programmiersprache MIL-STD Programmiersprache mit einem ISO-Standard Ada Lovelace
455
https://de.wikipedia.org/wiki/Absinth
Absinth
Absinth, auch Absinthe genannt, gehört zu den Wermutspirituosen und ist ein alkoholisches Getränk, das traditionell aus Wermutkraut, Anis, Fenchel, einer je nach Rezeptur unterschiedlichen Reihe weiterer Kräuter sowie Alkohol hergestellt wird. Die meisten Absinthmarken sind grün, daher wird Absinth auch „Die grüne Fee“ () genannt. Der Alkoholgehalt liegt üblicherweise zwischen 45 und 89 Volumenprozent und ist demnach dem oberen Bereich der Spirituosen zuzuordnen. Aufgrund der Verwendung bitter schmeckender Kräuter, insbesondere von Wermut, gilt Absinth als Bitterspirituose, obwohl er nicht unbedingt bitter schmeckt. Absinth wurde ursprünglich im 18. Jahrhundert im Val de Travers im heutigen Schweizer Kanton Neuenburg (République et Canton de Neuchâtel) als Heilmittel hergestellt. Große Popularität fand diese Spirituose, die traditionell mit Wasser vermengt getrunken wird, in der zweiten Hälfte des 19. und dem frühen 20. Jahrhundert in Frankreich. Zu den berühmten Absinth-Trinkern zählten Charles Baudelaire, Paul Gauguin, Vincent van Gogh, Ernest Hemingway, Edgar Allan Poe, Arthur Rimbaud, Aleister Crowley, Henri de Toulouse-Lautrec und Oscar Wilde. Auf dem Höhepunkt seiner Popularität stand das Getränk in dem Ruf, aufgrund seines Thujon-Gehalts abhängig zu machen und schwerwiegende gesundheitliche Schäden hervorzurufen. Ab 1915 war das Getränk in einer Reihe europäischer Staaten und den USA verboten. Moderne Studien haben eine Schädigung durch Absinthkonsum über die Wirkung von Alkohol hinaus nicht nachweisen können; die damals festgestellten gesundheitlichen Schäden werden heute auf die schlechte Qualität des Alkohols und die hohen konsumierten Alkoholmengen zurückgeführt. Seit 1998 ist Absinth in den meisten europäischen Staaten wieder erhältlich. Auch in der Schweiz sind seit 2005 die Herstellung und der Verkauf von Absinth wieder erlaubt. Inhaltsstoffe Verwendete Kräuter Außer Wermut (Artemisia absinthium) enthält in Frankreich und der Schweiz hergestellter Absinth Anis, teilweise ersetzt durch den preisgünstigeren Sternanis, Fenchel, Ysop, Zitronenmelisse und pontischen Wermut. Varianten verwenden auch Angelika, Kalmus, Origanum dictamnus, Koriander, Veronica, Wacholder, Muskat und verschiedene weitere Kräuter. Wermut, Anis und Fenchel machen den typischen Geschmack des Absinths aus. Die übrigen Gewürze dienen der geschmacklichen Abrundung. Die grüne Farbe, die viele Absinthsorten aufweisen, stammt vom Chlorophyll in pontischem Wermut, Ysop, Melisse und Minze. Thujon Thujon ist ein Bestandteil des ätherischen Öls des Wermuts, das für die Absinthherstellung verwendet wird. Die schädlichen Auswirkungen, die während des Höhepunkts der Absinth-Popularität im 19. Jahrhundert in Frankreich zu beobachten waren und zu denen unter anderem Schwindel, Halluzinationen, Wahnvorstellungen, Depressionen, Krämpfe, Blindheit sowie geistiger und körperlicher Verfall gehörten, wurden auf diese Substanz zurückgeführt. Thujon ist ein Nervengift, das in höherer Dosierung Verwirrtheit und epileptische Krämpfe (Konvulsionen) hervorrufen kann. Aus diesem Grund wurde in der Europäischen Union der Thujongehalt in alkoholischen Getränken begrenzt (10 mg/kg in alkoholischen Getränken und bis zu 35 mg/kg in aus Artemisia-Arten hergestellten alkoholischen Getränken.) Die insbesondere in Tierexperimenten des 19. Jahrhunderts beobachtete konvulsive Wirkung des Absinths wird heute auf eine Blockierung von GABAA-Rezeptoren und eine Desensibilisierung von Serotonin-5-HT3-Rezeptoren durch Thujon zurückgeführt. Es ist jedoch inzwischen widerlegt, dass die im Absinth enthaltene Thujonmenge ausreicht, um in diesem Maße pharmakodynamisch zu wirken. Als Ursache oder wesentlicher Faktor eher wahrscheinlich ist der im Absinth enthaltene Alkohol. Auch ein möglicher gemeinsamer Wirkmechanismus mit dem Cannabis-Wirkstoff Tetrahydrocannabinol über eine Aktivierung von Cannabinoid-Rezeptoren konnte nicht bestätigt werden. Eine in der Clubszene und in den Medien proklamierte euphorisierende und aphrodisierende Wirkung heutiger Absinthe kann anhand dieser experimentellen Daten nicht auf die in diesen Getränken enthaltene Thujondosis zurückgeführt werden. Der Absinth des 19. Jahrhunderts hatte entgegen früheren Berichten, die von bis zu 350 Milligramm je Liter sprachen, im Wesentlichen keinen höheren Thujongehalt als die heutigen reglementierten Absinthe. In einer Untersuchung von Absinthen auf Basis historischer Rezepte und Prozesse und von 1930 hergestelltem Absinth konnten nur Thujonmengen von unter 10 mg/kg nachgewiesen werden. Der Thujongehalt kann jedoch höher liegen, wenn Wermutauszüge oder Wermutöle zugesetzt werden. Die Absinthe werden auf diese Weise jedoch sehr bitter. Alkohol Der Alkoholgehalt historischer Absinthe lag zwischen 45 und 78 %. In diesem Bereich befinden sich mit wenigen Ausnahmen auch die heute erhältlichen Absinthsorten. Absinth ist aber auch mit einem Alkoholgehalt von bis zu 90 % erhältlich. Wegen des hohen Alkoholgehalts wird Absinth in der Regel verdünnt getrunken. Historisch belegt sind fünf Qualitätsgrade: Absinthe des essences („Absinth-Auszüge“), Absinthe ordinaire („gewöhnlicher Absinth“), Absinthe demi-fine („Absinth halb-fein“), Absinthe fine („Absinth fein“) und Absinthe Suisse („Schweizer Absinth“), wobei Absinthe des essences den geringsten Alkoholgehalt und die niedrigste Qualität repräsentiert. Absinthe Suisse verweist nicht auf das Herstellungsland, sondern auf einen besonders hohen Alkoholgehalt und hohe Qualität. Rückblickend wird heute nicht mehr Thujon, sondern der Alkoholgehalt des Absinths als die vorrangige Ursache des im 19. und Anfang des 20. Jahrhunderts verbreiteten Absinthismus angesehen. 1914 lag die von erwachsenen Franzosen pro Kopf konsumierte reine Alkoholmenge bei jährlich 30 Litern. Im Vergleich dazu führt heute (2013, laut WHO) Moldau mit 18,22 Litern reinem Alkohol pro Erwachsenem weltweit die Statistiken des Alkoholkonsums an. Die Symptome des Absinthismus unterscheiden sich nicht von denen eines chronischen Alkoholmissbrauchs (Alkoholismus). Andere Inhaltsstoffe Ein zusätzliches Problem des Absinths des 19. Jahrhunderts war, dass der verwendete Alkohol oft minderwertig war und viel Amylalkohol und andere Fuselöle enthielt. Auch Methanol, das Schwindel, Kopfschmerzen und Übelkeit bewirkt und als Spätfolge Erblindung, Schüttellähmung oder bei einer Überdosis den Tod nach sich zieht, war im damaligen Absinth enthalten. Um dem Absinth seine charakteristische Farbe zu verleihen, wurden bisweilen Zusatzstoffe wie Anilingrün, Kupfersulfat, Kupferacetat und Indigo zugesetzt. Ebenso wurde Antimontrichlorid hinzugefügt, um den Louche-Effekt (die milchige Trübung des sonst klaren Getränks, wenn es mit Wasser verdünnt oder sehr stark gekühlt wird) hervorzurufen. Jedoch lagen die in historischen Proben gefundenen Konzentrationen potenzieller Schadstoffe wie Pinocamphon, Fenchon, Alkoholverunreinigungen, Kupfer- und Antimon-Ionen in einem für den Rückschluss auf Absinthismus unverdächtigen Bereich. Herstellung Bei der Herstellung werden Wermut, Anis und Fenchel in Neutralalkohol oder Weinalkohol mazeriert (eingeweicht) und anschließend destilliert. Die Destillation trägt dazu bei, die starken Bitterstoffe des Wermuts abzutrennen. Diese sind weniger flüchtig als die Aromastoffe und bleiben bei der Destillation zurück. Andernfalls wäre das Ergebnis unangenehm bis ungenießbar bitter. Eine unverhältnismäßige Bitterkeit bei Absinth kann ein Indiz dafür sein, dass bei der Produktion auf die Destillation ganz oder teilweise verzichtet wurde, bei der Herstellung Wermutextrakte verwendet wurden und es sich um minderwertigen beziehungsweise unechten Absinth handeln könnte. Das Destillat kann mit Kräutern wie Pontischem Wermut, Melisse und Ysop eingefärbt werden. Die Färbung durch Kräuter trägt zum geschmacklichen Gesamtbild des Endprodukts bei. Sie stellt hohe Ansprüche an die Fertigkeiten des Herstellers bei der Auswahl der Färbekräuter, ihrem quantitativen Verhältnis und der Dauer der Färbung. Bei altem Absinth kann sich die Färbung des Getränks von einem ursprünglich leuchtenden Grün in ein gelbliches Grün oder Braun wandeln, da sich das Chlorophyll zersetzt. Sehr alte Absinthe sind gelegentlich bernsteinfarben. Klarer Absinth, auch „Blanche“ oder „La Bleue“ genannt, ist typisch für den in illegalen Destillerien in der Schweiz hergestellten Absinth. Der Verzicht auf die normalerweise für Absinth typische Färbung erleichterte den heimlichen Verkauf in Zeiten, in denen Absinth in der Schweiz verboten war. Heute wird Absinth häufig hergestellt, indem Absinthessenz in hochprozentigen Alkohol gegeben wird. Erst ab der gehobenen Mittelklasse werden klassische Produktionsmethoden wie die Mazeration angewandt. Einige der heute hergestellten Absinthe werden mit Lebensmittelfarbe gefärbt. Es handelt sich auch dabei meist um minderwertige Absinthe mit einem vereinfachten Produktionsprozess, der den Absinth wichtiger geschmacklicher Nuancen beraubt. Neben der „Grünen Fee“ gibt es auch rot, schwarz oder blau gefärbten Absinth. Diese für Absinth ungewöhnliche Färbung geschieht vor allem aus Marketinggründen. Geschichte Herkunft des Namens „Absinth“ ist die Eindeutschung des französischen absinthe, das ursprünglich „Wermut“ bedeutete. Es geht über zurück auf , was ebenfalls den Wermut bezeichnete. Wermut als Heilmittel Wermut gehört zur Gattung Artemisia (Beifuß), deren Vertreter in den gemäßigten Klimazonen der nördlichen Hemisphäre wachsen. Viele Arten dieser duftenden und häufig insektenabwehrenden Pflanzen haben eine lange Tradition als Heilpflanze. Hinweise auf die Verwendung von Beifuß-Arten zu Heilzwecken finden sich bereits im Papyrus Ebers, der Texte aus der Zeit von 3550 bis 1550 vor Christus enthält. Auch das Alte Testament nimmt an mehreren Stellen Bezug auf die Bitterkeit der Artemisia-Kräuter. In deutschen Ausgaben werden die Pflanzen meist mit „Wermut“ übersetzt, obwohl es sich um andere Arten der Gattung Artemisia handelt. 2007 haben deutsche Forscher in einer Doppelblind-Studie herausgefunden, dass Wermut eine „signifikante Verbesserung“ bei Patienten mit Morbus Crohn bringe. Für die Entstehung des Absinths ist die Verwendung von Artemisia-Kräutern in Tinkturen und Extrakten von Bedeutung. Sie wird schon von Theophrast und Hippokrates erwähnt. Wermutabkochungen in Wein wurden von Hildegard von Bingen als Entwurmungsmittel empfohlen. Wermutweine, bei denen Wermutblätter gemeinsam mit Trauben vergoren werden, sind für das 16. Jahrhundert belegt. Sie standen in dem Ruf, besonders wirksame Magenmittel zu sein. Die Entstehung des Absinths Das Rezept für Absinth ist in der zweiten Hälfte des 18. Jahrhunderts im Val-de-Travers des heutigen schweizerischen Kantons Neuenburg (Neuchâtel) entstanden. Für diese Gegend ist der Konsum von Wein, der mit Wermut versetzt wurde, ab 1737 belegt. Während der ursprüngliche Herstellungsort gesichert ist, werden je nach Quelle unterschiedliche Personen als Urheber der ursprünglichen Rezeptur genannt. Der aus politischen Gründen in das preußische Fürstentum geflohene französische Arzt Dr. Pierre Ordinaire, der in Couvet als Landarzt praktizierte, soll einen selbst hergestellten „élixir d’absinthe“ bei seinen Patienten verwendet haben. Nach seinem Tod gelangte das Rezept an die gleichfalls in Couvet ansässige Familie Henriod, die es als Heilmittel deklarierte und über Apotheken verkaufte. Nach anderen Quellen wurde ein Absinthelixir in der Familie Henriod bereits länger hergestellt – ein Wermutelixier sei schon um die Mitte des 18. Jahrhunderts von einer Henriette Henriod destilliert worden. Auch die mit dem Gastwirt Henry-Francois Henriod verheiratete heilkundige Suzanne-Marguerite Motta, „Mutter Henriod“ genannt, wird als Urheberin der Originalrezeptur genannt. Helmut Werner hat in seiner Geschichte des Absinths die These aufgestellt, dass Pierre Ordinaire auf Basis seiner medizinischen Erfahrung lediglich den Herstellungsprozess eines Familienrezeptes der Henriod-Familie optimierte und auf größere Mengen auslegte. Gesichert ist, dass 1797 ein Major Dubied die Rezeptur von einem Mitglied der Familie Henriod erwarb und mit seinem Sohn Marcellin und seinem Schwiegersohn Henri Louis Pernod eine Absinth-Brennerei gründete. Anfänglich wurden täglich nur 16 Liter produziert, und der größte Teil der Produktion ging ins nahe gelegene Frankreich. Um die umständlichen Zollformalitäten zu umgehen, verlegte Henri Louis Pernod im Jahre 1805 die Destillerie ins französische Pontarlier und produzierte dort anfangs täglich 400 Liter. Sein Erfolg zog das Entstehen einer Reihe weiterer Absinthbrennereien sowohl in Frankreich als auch im Fürstentum Neuenburg nach sich. Verwendung von Absinth durch Militärärzte 1830 besetzte Frankreich Algerien. Die unzureichenden sanitären Einrichtungen führten regelmäßig zu Epidemien unter den französischen Soldaten, die von Militärärzten unter anderem mit einer Mischung aus Wein, Wasser und Absinth bekämpft wurden. Bereits die ersten Schiffe, die nach Algerien übersetzten, hatten Fässer mit Absinth an Bord. Die Soldaten erhielten tägliche Absinthrationen, weil man hoffte, auf diese Weise sowohl die Auswirkungen von schlechtem Trinkwasser als auch die Malaria bekämpfen zu können. Auf die Absinthproduktion zeigte dies deutliche Auswirkungen. Die Firma Pernod steigerte ihre Produktion auf täglich 20.000 Liter, und ihr Konkurrent Berger gründete eine Absinthbrennerei in der Nähe von Marseille, um die Transportwege nach Algerien zu verkürzen. Aus Algerien zurückkehrende Soldaten machten Absinth in ganz Frankreich bekannt. Populär wurde das Getränk insbesondere in Paris, wo die Kriegsheimkehrer Absinth regelmäßig in den späten Nachmittagsstunden in den Cafés genossen. Veränderte Trinkgewohnheiten und der Erfolg des Absinths Bereits um 1860 war die „grüne Stunde“, die „heure verte“ im Alltagsleben französischer Metropolen etabliert. Absinthtrinken zwischen 17 und 19 Uhr galt als chic. Zu seinem Ruf als zeitgemäßes Getränk der späten Nachmittagsstunden trugen auch die zahlreichen Trinkrituale bei. Auf den Tischen der Bars und Cafés der Pariser Boulevards standen häufig hohe Wasserbehälter mit mehreren Hähnen. Ein Absinthtrinker platzierte einen der spatelförmigen und gelochten oder geschlitzten Absinthlöffel auf sein Glas und legte darauf ein Stück Zucker. Dann drehte er einen der Hähne des Wasserbehälters auf, wodurch mit etwa einem Tropfen pro Sekunde Wasser auf den Löffel herabtropfte. Jeder Tropfen gezuckerten Wassers, der in das darunter stehende Absinthglas fiel, hinterließ im Absinth eine milchige Spur, bis schließlich ein Mischungsverhältnis erreicht war, das dem Getränk insgesamt eine milchig-grünliche Färbung verlieh. Marie-Claude Delahaye gilt in Frankreich als die Historikerin, die sich am intensivsten mit der Geschichte des Absinths auseinandergesetzt hat. In einem Interview mit Taras Grescoe wies sie darauf hin, dass Absinth in mehrfacher Hinsicht eine Neuerung in den französischen Trinkgewohnheiten darstellte. Erstmals tranken Franzosen ein alkoholhaltiges Getränk in größeren Mengen, dessen Geschmack wesentlich von Kräutern bestimmt war und das mit Wasser verdünnt wurde. Absinth war gleichzeitig die erste hochprozentige Spirituose, die Frauen, die nicht zur Halbwelt gehörten, in der Öffentlichkeit konsumieren konnten. Bereits um die Mitte des 19. Jahrhunderts hatte Absinth sich als Getränk der Bohème etabliert. Absinth war ein verhältnismäßig preisgünstiges Getränk, das selbst nach der Besteuerung durch die französische Regierung preisgünstiger blieb als Wein. Es ließ sich außerdem mit billigem Alkohol aus Zuckerrüben oder Getreide produzieren, und ein einzelnes Glas Absinth konnte wegen seiner Verdünnung mit Wasser über Stunden die Berechtigung erkaufen, in einer der Bars auszuharren. Mit etwa drei Sous pro Glas konnten sich nicht nur Künstler dieses Getränk erlauben, sondern auch Arbeiter. Für viele von ihnen wurde es zur Gewohnheit, nach Beendigung ihrer Arbeit in eine der Bars einzukehren und Absinth zu trinken. Angesichts beengter Wohnverhältnisse und eines sehr geringen Freizeitangebots war die Einkehr in eine Bar eine der wenigen Unterhaltungsmöglichkeiten. Daraus erklärt sich, dass es in Paris zur Wende des 20. Jahrhunderts 11,5 Kneipen je 1000 Einwohner gab. 1912 betrug der Jahreskonsum von Absinth in Frankreich 221,9 Mio. Liter. Absinth als Getränk der Künstler und Literaten Absinthgenuss wird bis heute mit der französischen Kunstszene dieser Zeit verbunden. So schreiben Hannes Bertschi und Marcus Reckewitz: „Es scheint, als sei die gesamte europäische Elite der Literatur und der bildenden Künste im Absinthrausch durch das ausgehende 19. und beginnende 20. Jahrhundert getorkelt.“ Vereinsamte, heruntergekommene Absinthtrinker waren immer wieder Motive der damaligen Malerei und der Literatur. Édouard Manets Gemälde Der Absinthtrinker, das um 1859 entstand, erregte mit dem Sujet eines verwahrlosten Alkoholikers großen Anstoß und wurde vom Auswahlkomitee des Pariser Salons abgelehnt. Die literarische Vorlage zu dem Gemälde war ein Gedicht von Charles Baudelaire, der selbst Absinth in großen Mengen konsumierte und so versuchte, durch Syphilis verursachte Schmerzen und Schwindelgefühle zu bekämpfen. Weitere frühe Darstellungen sind die Karikaturen Le premier verre, le sixième verre von Honoré Daumier und L’Èclipse von André Gill. Edgar Degas’ Gemälde Der Absinth von 1876 zeigt ein sich nicht mehr wahrnehmendes, apathisch nebeneinander sitzendes Paar in einer der französischen Bars. Neben Camille Pissarro und Alfred Sisley gehörte auch Henri Toulouse-Lautrec zu den bekannten Absinthtrinkern, der seinen Malerkollegen Vincent van Gogh 1887 in einem Café mit einem Glas Absinth porträtierte. Im selben Jahr entstand dessen Stillleben mit Absinth. Ein Beleg für die Verbreitung des Getränkes außerhalb von Paris ist sein in Arles entstandenes Gemälde Nachtcafé an der Place Lamartine, das ebenso wie Paul Gauguins Dans un café à Arles Barbesucher beim Absinthkonsum zeigt. Zu Beginn des 20. Jahrhunderts wählte Pablo Picasso wiederholt Absinthtrinker als Motiv. Neben verschiedenen Bildern seiner Blauen Periode, wie zum Beispiel Buveuse assoupie aus dem Jahr 1902, entstand 1911 das kubistische Gemälde Das Glas Absinth und 1914 eine Skulptur mit gleichem Titel. Ebenfalls aus dieser Zeit stammen die Bilder Der Absinthtrinker des tschechischen Malers Viktor Oliva sowie The Absinthe Drinker des irischen Künstlers William Orpen. Beispiele für Absinth in der Literatur sind À Rebours von Joris-Karl Huysmans, Lendemain von Charles Cros und Comédie de la Soif von Arthur Rimbaud. Dieser wurde am 10. Juli 1873 von seinem betrunkenen Liebhaber Paul Verlaine angeschossen, was möglicherweise auf übermäßigen Absinthkonsum zurückzuführen ist. Oscar Wilde beschrieb Absinth mit den poetischen Worten: „Absinthe has a wonderful color, green. A glass of absinthe is as poetical as anything in the world.“ Zugleich gab er zu bedenken: „Nach dem ersten Glas sieht man die Dinge so, wie man sie gern sehen möchte. […] Am Ende sieht man die Dinge so, wie sie sind, und das ist das Entsetzlichste, das geschehen kann.“ Auch wenn die Darstellungen in Kunst und Literatur häufig explizit Absinth nennen, spiegeln sich in den Gemälden und Romanen die alkoholbedingten Probleme einer Gesellschaft, in der traditionell Wein konsumiert wurde und hochprozentige Alkoholika bis zur Einführung von Absinth verhältnismäßig selten genossen wurden. Rund 100 Jahre zuvor hatte ein sprunghaft angestiegener Branntweinkonsum in Großbritannien vergleichbare soziale Probleme geschaffen und war nur durch gesetzliche Maßnahmen wieder auf verträglichere Maße rückführbar gewesen. Absinthgegner Bereits um das Jahr 1850 wurden Sorgen über die Folgen des Langzeit-Absinth-Konsums laut. Dieser führe zu Absinthismus. Als Symptome galten Abhängigkeit, Übererregbarkeit und Halluzinationen. Nachdem Émile Zolas 1877 veröffentlichter Roman L’assommoir (dt. Der Totschläger) auf die gravierenden sozialen Folgen des Alkoholismus aufmerksam gemacht hatte, hatten eine Reihe von Antialkoholikervereinigungen versucht, Absinth verbieten zu lassen – verschiedentlich gemeinsam mit den Weinproduzenten. 1907 gingen 4000 Demonstranten in Paris unter dem Slogan „Tous pour le vin, contre l’absinthe“ (Alle für den Wein und gegen den Absinth) auf die Straße. Wein galt im Frankreich jener Zeit als gesundes Getränk und Grundnahrungsmittel. „Absinth macht kriminell, führt zu Wahnsinn, Epilepsie und Tuberkulose und ist verantwortlich für den Tod tausender Franzosen. Aus dem Mann macht Absinth ein wildes Biest, aus Frauen Märtyrerinnen und aus Kindern Debile, er ruiniert und zerstört Familien und bedroht die Zukunft dieses Landes“, zitiert Barnaby Conrad in seiner Geschichte des Absinths die damaligen Kritiker. Auch Zola beschrieb in seinem einflussreichen Roman Schnaps als ein menschenverderbendes Getränk, Wein dagegen als das Recht des Arbeiters. Unterstützung fand diese Sichtweise auch bei Medizinern. Alkoholismus war in Frankreich erstmals in den 1850er Jahren wissenschaftlich beschrieben worden. Französische Mediziner hatten um 1900 bei den billigen Absinthmarken, die im kalten Auszugsverfahren hergestellt wurden, besonders viele Schadstoffe festgestellt. Auch aus ihrer Sicht war Absinth das erste Getränk, das verboten werden sollte. Ein Mord und das Absinthverbot Ein spektakulärer Mordfall im August des Jahres 1905 in der Waadtländer Gemeinde Commugny, der europaweit ausführlich in den Medien dargestellt wurde, war der letzte Anstoß, Herstellung und Verkauf von thujonhaltigen Getränken in den meisten europäischen Ländern und den USA gesetzlich zu verbieten. Der Weinbergarbeiter Jean Lanfray war starker Alkoholiker, der bis zu fünf Liter Wein pro Tag trank. An dem Tag, an dem er seine schwangere Frau, seine zweijährige Tochter Blanche und seine vierjährige Tochter Rose in einem Wutanfall ermordete, hatte er neben Wein auch Branntwein sowie zwei Gläser Absinth zu sich genommen. In der Verbotsdebatte, an der sich auch Weinproduzenten lebhaft beteiligten, konzentrierte man sich auf den Absinthgenuss, der dem Mord vorausgegangen war. In Belgien nahm man den Vorfall zum Anlass, noch im selben Jahr Absinth zu verbieten. In der Schweiz wurde das Absinth-Verbot aufgrund einer Volksinitiative, bei der sich am 5. Juli 1908 63,5 Prozent der abstimmenden männlichen Bevölkerung dafür aussprachen, in die Verfassung aufgenommen. Das Verbot trat am 7. Oktober 1910 in Kraft. In Frankreich ließ man sich mit dem Verbot bis 1914 Zeit. Ob sich das Verbot von Absinth positiv auf die französische Volksgesundheit auswirkte, lässt sich nicht mehr feststellen. Mangelnde Gesundheitsstatistiken und die Zäsur des Ersten Weltkriegs verhindern entsprechende Analysen. Zu den heutigen EU-Ländern, die sich dem Absinth-Verbot zu Beginn des 20. Jahrhunderts nicht anschlossen, zählten lediglich Spanien und Portugal. Auch in Großbritannien, wo Absinth im 19. Jahrhundert nur ein Nischendasein fristete, blieb zumindest der Verkauf erlaubt. Das Verbot des Absinths führte in Frankreich zu einer wachsenden Popularität des Absinthsubstituts Pastis, für dessen Herstellung kein Wermut verwendet wird, das aber ebenfalls mit Wasser verdünnt in den Nachmittagsstunden genossen wird. Die Schweiz: Brennereien im Untergrund Nach dem französischen Verbot verlegte die Firma Pernod, einer der größten französischen Absinth-Hersteller, ihre Absinth-Produktion zunächst nach Spanien, konzentrierte sich aber dann auf die Herstellung von Anis-Schnäpsen. Das Val-de-Travers dagegen, das ursprüngliche Herstellungsgebiet, litt stärker unter dem Verbot. Über ein Jahrhundert hatte man in dem eher ärmlichen Tal vom Wermutanbau, dem Verkauf des getrockneten Krauts sowie der Absinth-Destillation gelebt. Nach dem Verbot ließ die Schweizer Regierung die Wermut-Felder unterpflügen. Die Destillation wurde jedoch heimlich weitergeführt – die Einwohner des Tales legen Wert darauf, auf eine 250-jährige ununterbrochene Geschichte der Absinth-Produktion verweisen zu können. Die Zahl der Destillerien, die im Val-de-Travers illegal Absinth herstellten, schätzen Interviewpartner des Autors Taras Grescoe zu Beginn des 21. Jahrhunderts auf etwa sechzig bis achtzig. Ähnlich wie den illegal gebrannten Moonshine der USA, den norwegischen Hjemmebrent oder den irischen Poteen, umgibt auch den illegalen Schweizer Absinth eine reiche Folklore. Berthe Zurbuchen, eine Berühmtheit des Val-de-Travers, die achtzig Jahre lang illegal Absinth brannte und in einem Schauprozess in den 1960er Jahren zu 3000 Franken Strafzahlung verurteilt wurde, soll ihren Richter nach dem Urteilsspruch gefragt haben, ob sie sofort zahlen solle oder erst, wenn er das nächste Mal vorbeikäme, um sich seine wöchentliche Flasche abzuholen. Nach der Verurteilung strich sie ihr Haus demonstrativ absinthgrün. Im Jahr 1983 servierte man anlässlich eines Staatsbesuchs dem französischen Präsidenten François Mitterrand ein mit Absinth glasiertes Soufflé. Für den Restaurantbesitzer führte die demonstrative Verwendung des illegalen Absinths zu einer Hausdurchsuchung und einer viertägigen Gefängnisstrafe auf Bewährung. Der Vertreter des Kantons, Pierre-André Delachaux, der das absinthglasierte Soufflé angeregt hatte, entging nur knapp einem erzwungenen Rücktritt von seinem Amt und dem Ende seiner politischen Karriere. Ab 2001 wurde im Val-de-Travers neben illegalem Absinth auch eine legale Absinth-Variante produziert. Dies war möglich, weil der Alkohol- und Thujongehalt soweit reduziert wurde, dass dieses Produkt laut Gesetz kein Absinth mehr war. Noch vor der Absinth-Legalisierung in der Schweiz am 1. März 2005 bemühte man sich, Absinth als intellektuelles Gut des Val-de-Travers unter dem IGP, dem „indication géographique protégée“ schützen zu lassen. Man ist dabei in direkter Konkurrenz zu den Nachbarn auf der französischen Seite der Grenze, die gleichermaßen versuchen, eine „appellation d’origine réglementée“ zu erhalten. Unabhängig davon, wer in diesem Wettstreit erfolgreich sein wird, könnten nach einer Verleihung nur noch solche Produkte die Bezeichnung Absinth tragen, die aus dieser Region des Jura stammen und bei deren Herstellung bestimmte Qualitätsstandards eingehalten wurden. Absinth als Modegetränk der späten 1990er Jahre So schreibt Grescoe in seinem Essay Absinthe Suisse – One glass and You are Dead. Auch die im Internet verfügbaren Rezepte für die Heimherstellung von Absinth können als Indiz dafür gewertet werden, dass das Verbot zum Mythos dieses Getränks beigetragen hat. Für andere, einst populäre Getränke wie etwa Veilchen- oder Vanillelikör lässt sich keine auch nur annähernd vergleichbare Fülle an Rezepturen finden. Eine breite öffentliche Wahrnehmung der Spirituose Absinth setzte ein, als ein auf alkoholische Getränke spezialisierter Importeur in den 1990er Jahren bemerkte, dass es in Großbritannien keine spezifische Gesetzgebung gab, die den Verkauf von Absinth untersagte. Hill’s Liquere, eine tschechische Brennerei, begann für den britischen Markt Hill’s Absinth herzustellen – ein Getränk, von dem Taras Grescoe behauptet, es wäre nichts anderes als ein hochprozentiger Wodka, den man mit Lebensmittelfarbe eingefärbt habe. Der beginnende Wiederausschank von Absinth wurde von einer Reihe von Artikeln in Lifestyle-Magazinen begleitet, die sich über seine gerne kolportierte halluzinogene und erotisierende Wirkung, das in vielen Ländern geltende Absinth-Verbot, van Goghs angeblich absinthinduzierte Selbstverstümmelung und die elaborierten Trinkrituale ausließen. Diese breite Medienabdeckung lässt sich auch in allen anderen europäischen Ländern beobachten, die in den Folgejahren den Ausschank von Absinth wieder erlaubten. Selbst Filme griffen Absinth als epochentypisches Ausstattungsmerkmal auf, so 1992 in Bram Stoker’s Dracula. 2001 berauscht sich Johnny Depp im Film From Hell auf seiner Jagd nach Jack the Ripper an Opium und smaragdgrünem Absinth. Beides gemeinsam schuf eine neue Nachfrage nach diesem Getränk, die Importeure und Brennereien länderspezifische Gesetzgebungen überprüfen ließ. In den Niederlanden ist der Verkauf von Absinth beispielsweise seit Juli 2004 wieder erlaubt, nachdem der Amsterdamer Weinhändler Menno Boorsma erfolgreich gegen das Verbot geklagt hatte. Anpassungen bestehender Gesetze Klagen gegen ein Absinth-Verbot hatten in der EU generell große Aussicht auf Erfolg, da sowohl Spanien als auch Portugal die Absinth-Herstellung und den Verkauf erlaubten. Einige Länder wie etwa Belgien hoben ihr Absinthverbot mit dem Hinweis auf eine ausreichende EU-Gesetzgebung auf, ohne durch Klagen dazu gezwungen worden zu sein. In Deutschland, wo seit 1923 nicht nur die Herstellung von Absinth, sondern sogar die Verbreitung von Rezepten zur Herstellung verboten waren, trat das Absinthgesetz Ende 1981 außer Kraft, faktisch blieb die Rechtslage aber beinahe unverändert, da die Aromenverordnung die Verwendung von Wermutöl und Thujon weiterhin untersagte. Eine grundlegende Änderung trat 1991 ein, als die 1988 verfasste EU-Richtlinie zur Angleichung der Rechtsvorschriften der Mitgliedstaaten über Aromen zur Verwendung in Lebensmitteln in Kraft trat (88/388/EWG). Von nun an waren thujonhaltige Pflanzen und Pflanzenteile (bspw. Wermut) sowie Aromaextrakte aus diesen unter Einbehaltung von folgenden Thujon-Grenzwerten gestattet: 5 mg/l bei bis zu 25 Volumenprozent Alkohol, 10 mg/l bei darüber liegendem Alkoholgehalt und 35 mg/l in Bitterspirituosen. 1999 strich die Schweiz das 1910 in die Verfassung aufgenommene Absinth-Verbot. In den USA fiel das Verbot 2007 mit diversen Auflagen. Frankreich hob 2011 das seit 1915 geltende Absinth-Verbot auf. Trinkweisen und -rituale Ähnlich den Anis-Spirituosen Pastis, Rakı oder Ouzo wird Absinth grundsätzlich nicht pur getrunken, sondern mit Wasser verdünnt. Die klare Flüssigkeit opalisiert dabei, das heißt, sie trübt sich milchig ein. Dieses Phänomen wird Louche-Effekt genannt. Ursache des Effekts ist die schlechte Wasserlöslichkeit des im Absinth enthaltenen ätherischen Öls Anethol. Die verschiedenen Trinkrituale, die sich rund um den Absinth entwickelt haben, werden französisches Trinkritual, Schweizer Trinkweise und tschechisches oder Feuerritual genannt. Ihnen allen ist eigen, dass der Absinth im Verhältnis zwischen 1:1 bis 1:5 mit Eiswasser vermischt wird. Die meisten Absinthtrinker wählen ein Mischungsverhältnis von mindestens 1:3. Die Schweizer Trinkweise ist dabei die am wenigsten etablierte. Bei ihr werden lediglich zwei bis vier Zentiliter Absinth mit kaltem Wasser vermischt. Auf Zucker wird verzichtet, da die in der Schweiz getrunkenen Absinthe grundsätzlich weniger bitter waren als die französischen. Das Feuerritual, auch tschechische Trinkweise genannt, ist historisch nicht mit dem Absinthkonsum verbunden. Es wurde in den 1990er Jahren von tschechischen Absinthproduzenten entwickelt, um den Genuss des Getränks attraktiver zu machen. Dazu werden ein bis zwei mit Absinth getränkte Würfelzucker auf einen Absinthlöffel gelegt und angezündet. Sobald der Zucker karamellisiert und Blasen wirft, werden die Flammen gelöscht und der Zucker erst dann in den Absinth gegeben. Geraten noch brennende Zuckerstücke in das Glas, besteht die Gefahr, dass sich der darin befindliche Absinth entzündet. Auch hier wird der Absinth in einem Verhältnis von 1:3 bis 1:5 mit Eiswasser vermischt. Das französische Trinkritual ist dagegen eine historisch belegbare Tradition. Absinth wurde im 19. Jahrhundert bis hin zum Verbot zu Beginn des 20. Jahrhunderts in Frankreich auf diese Weise genossen. Ähnlich wie beim Feuerritual wird der Absinth mit Zucker getrunken. Dazu werden ein oder zwei Stück Würfelzucker auf einem Absinthlöffel platziert, und es wird sehr langsam kaltes Wasser über den Zucker gegossen oder geträufelt. Das Mischungsverhältnis liegt bei 1:3 bis 1:5. Für das Hinzugeben des Wassers kann auf eine Absinthfontäne oder einen speziellen Glasaufsatz – das Brouille – zurückgegriffen werden. Bei einer Fontäne wird der Zucker auf dem Absinthlöffel durch einen dünnen Strahl aus den Fontänenhähnen aufgelöst. Das Brouille wird hingegen direkt auf das Absinthglas gesetzt, so dass der Absinth ohne Absinthlöffel zubereitet wird. Durch ein kleines Loch im Glasaufsatz strömt das Wasser in das darunter befindliche Absinthglas. Literatur Deutsch Jakob Hein, Lars Lobbedey, Klaus-Jürgen Neumärker: Absinth – Neue Mode, alte Probleme. (PDF; 836 kB) In: Deutsches Ärzteblatt. Jg. 98, Heft 42, 19. Oktober 2001, . Hannes Bertschi, Marcus Reckewitz: Von Absinth bis Zabaione. Argon, Berlin 2002, ISBN 3-87024-559-X. Erika Büttner: Die grüne Fee Absinth. Eine Legende lebt. Buchverlag für die Frau, Leipzig 2002, ISBN 3-89798-001-0. Alexander Kupfer: Göttliche Gifte. Kleine Kulturgeschichte des Rausches seit dem Garten Eden. Metzler, Stuttgart 2002, ISBN 3-476-01409-6 (Umfangreiches Kapitel über Absinth in dem Kapitel: Literatur und Kunst). M. Lang, C. Fauhl, R. Wittkowski (Hrsg.): Belastungssituation von Absinth mit Thujon. In: BgVV-Hefte. 08/2002. Bundesinstitut für gesundheitlichen Verbraucherschutz und Veterinärmedizin, Berlin 2002 (erhältlich beim Bundesinstitut für Risikobewertung: Modegetränk Absinth: BfR rät beim Konsum zur Vorsicht!). Helmut Werner: Absinth. Die grüne Wunderdroge. Ullstein-Taschenbuch 36373, München 2002, ISBN 3-548-36373-3. Tobias Otto, Joachim Deiml: Die Wirkung des neurotropen Absinth-Wirkstoffs a-Thujon (Alpha-Thujon) auf den 5-HT_1tn3-Rezeptor. Dissertation an der Ludwig-Maximilians-Universität München. München 2003. Michael Erdmann, Heiko Antoniewicz: Kochkultur mit Absinth. Klartext, Essen 2003, ISBN 3-89861-167-1. Peter Schmersahl: Absinth – die grüne Fee. Das Modegetränk der Künstler vom Montmartre. In: Deutsche Apotheker-Zeitung. 144, 5893, Stuttgart 2004, . Diana Nitsche: Absinth. Medizin- und Kulturgeschichte einer Genussdroge. Dissertation an der Medizinischen Fakultät der Universität Heidelberg. Heidelberg 2005. Mathias Broeckers, Chris Heidrich, Roger Liggenstorfer: Absinthe – Die Wiederkehr der Grünen Fee. Geschichten und Legenden eines Kultgetränkes. Nachtschatten Verlag, Solothurn 2007, ISBN 978-3-03788-151-4 (). Dirk W. Lachenmeier, Joachim Emmert, T. Kuballa, G. Sartor: Thujon – Ursache des Absinthismus? (PDF; 64 kB), Studie des Chemischen und Veterinäruntersuchungsamts (CVUA) Karlsruhe und der Fluka Production GmbH, Buchs SG [ohne Jahr]. Englisch Barnaby Conrad: Absinthe: History in a Bottle. Chronicle Books, San Francisco 1997 (Reprint), ISBN 0-8118-1650-8. Phil Baker: The Dedalus Book of Absinthe. Dedalus Concept Books, Sawtry 2001, ISBN 1-873982-94-1. Taras Grescoe: The Devil’s Picnic – A Tour of everything the governments of the world don’t want you to try. Pan Macmillan, London 2006, ISBN 0-330-43151-X. David Nathan-Maister: The Absinthe Encyclopedia – A Guide To The Lost World Of Absinthe And La Fée Verte. Oxygenee Press, [ohne Ort] 2009, ISBN 978-0-9556921-1-6. Französisch Marie-Claude Delahaye, Benoît Noël: Absinthe, muse des peintres. Éditions de l’Amateur, Paris 1999, ISBN 2-85917-286-6. Marie-Claude Delahaye: L’absinthe – Son histoire. le Musée de l’absinthe, Auvers-sur-Oise 2000, ISBN 2-9515316-2-1. Marie-Claude Delahaye: L’absinthe, muse des poètes. le Musée de l’absinthe, Auvers-sur-Oise 2000, ISBN 2-9515316-0-5. Marie-Claude Delahaye: L’Absinthe Les Cuillères. le Musée de l’absinthe, Auvers-sur-Oise 2001, ISBN 2-9515316-1-3. Benoît Noël: L’Absinthe, un mythe toujours vert. Esprit frappeur, Paris 2000, ISBN 2-84405-094-8. Benoît Noël: L’absinthe, une fée franco-suisse. Cabédita, Yens sur Morges 2001, ISBN 2-88295-313-5. Weblinks Das Absinth Verbot - Übersicht über den Status quo, Stand 2023 Modegetränk Absinth – BfR rät beim Konsum zur Vorsicht!, Bundesinstitut für Risikobewertung (BfR), 2. Juli 2003 Absinth-Wirkung. Die „Grüne Fee“ wird entzaubert, Spiegel Online, 30. April 2008 The Virtual Absinthe Museum (englisch) Einzelnachweise Spirituose Ritual Val-de-Travers NE Kulinarisches Erbe der Schweiz
458
https://de.wikipedia.org/wiki/Artikel
Artikel
Artikel (von ) steht für: Artikel (Wortart), Geschlechtswort oder Begleiter Artikel (Recht), Einteilungseinheit von Verfassungen, Gesetzen und Verträgen Presseartikel, als Kurzform, siehe Journalistische Darstellungsform #Weitere informierende Formen Artikel, Eintrag in einem Nachschlagewerk, siehe Lexikon #Artikel, Eintrag, Stichwort Artikel, Sortengruppe einer Warenart eines Handelsbetriebs, siehe Sortiment Siehe auch:
460
https://de.wikipedia.org/wiki/Brandenburg%20%28Begriffskl%C3%A4rung%29
Brandenburg (Begriffsklärung)
Brandenburg steht für: Brandenburg (Familienname), ein deutscher Familienname; für bekannte Namensträger siehe dort Staatswesen (in zeitlicher Reihenfolge): Bistum Brandenburg, katholisches Bistum (949–1571) Mark Brandenburg, Markgrafschaft (etwa 1157 bis 1815) Brandenburg-Preußen, geschichtswissenschaftliche Bezeichnung für die hohenzollerschen Herrschaftsgebiete von 1618 bis zur Krönung Friedrichs III. von Brandenburg zum König Friedrich I. in Preußen (1701) Provinz Brandenburg, Provinz Preußens (1815–1947) Land Brandenburg (1947–1952), Land der Sowjetischen Besatzungszone (1947–1949) und der Deutschen Demokratischen Republik (1949–1952) Brandenburg, Land der Bundesrepublik Deutschland (seit 1990) Orte: Brandenburg an der Havel, kreisfreie Stadt in Brandenburg, Deutschland Brandenburg (Württemberg), heute ein Ortsteil von Dietenheim Brandenburg (Nordfriesland), heute ein Ortsteil von Wester-Ohrstedt Domäne Brandenburg in Stadthagen, Landkreis Schaumburg Brandenburg (Tandel), Dorf an der Blees, Gemeinde Tandel, Großherzogtum Luxemburg deutscher Name der Gemeinde Brambory im Mittelalter, heute Okres Kutná Hora, Tschechien deutscher Name des Ortes Uschakowo in der Oblast Kaliningrad, Rajon Gurjewsk, Gemeinde Nowomoskowskoje, Russland (bis 1935 Brandenburg, 1935–1945 Brandenburg (Frisches Haff) im Landkreis Heiligenbeil, Provinz Ostpreußen) Brandenburg (Kentucky), Stadt in den USA Brandenburg Commercial District, in Brandenburg, Kentucky, ID-Nr. 86000523 Asteroid: (6068) Brandenburg, ein Asteroid des Hauptgürtels Bauwerke: Brandenburg (Brandenburg an der Havel), ehemalige Burg in der Stadt Brandenburg an der Havel Brandenburg (Lauchröden), Burgruine bei Lauchröden (zu Gerstungen) Burg Brandenbourg, Burgruine im Ortsteil Brandenburg der luxemburgischen Gemeinde Tandel Brandenburg House, in Bozeman, Montana, ID-Nr. 87001804 Brandenburg Methodist Episcopal Church, in Brandenburg, Kentucky, ID-Nr. 84001828 Grube Brandenburg, Schlesien Zeche Haus Brandenburg, Witten Brandenburg, alternativer Name des Burgstall am Galgenbühl (Kirchzarten) Adelsgeschlechter: Brandenburg (Adelsgeschlecht), Patriziergeschlecht in Biberach an der Riß, Oberschwaben abgeleitet von der Mark Brandenburg: Brandenburg-Ansbach, Bezeichnung eines Zweigs der fränkischen Hohenzollern (Markgrafen von Brandenburg-Ansbach) Brandenburg-Bayreuth, Bezeichnung eines Zweigs der fränkischen Hohenzollern (Markgrafen von Brandenburg-Bayreuth) seit 1604, vorher: Brandenburg-Kulmbach, Bezeichnung eines Zweigs der fränkischen Hohenzollern (Markgrafen von Brandenburg-Kulmbach) Haus Brandenburg, verkürzende Bezeichnung der Brandenburgischen Hohenzollern Handelsschiffe: Brandenburg (Schiff, 1951), das Typschiff dieser Klasse Brandenburg (1966), Frachtschiff der Deutschen Seereerderei der DDR Brandenburg-Klasse (1951), eine Serie von sechs Frachtschiffen der Hamburg-Amerikanischen Packetfahrt-Actien-Gesellschaft Kriegsschiffe: Brandenburg (Schiff, 1936), ein ehemaliges französisches Kühlschiff, das von der deutschen Kriegsmarine als Minenschiff eingesetzt wurde Brandenburg-Klasse (1992), eine Klasse von Fregatten der Deutschen Marine, siehe F123 Brandenburg (F 215), das Typschiff dieser Klasse Brandenburg-Klasse (1891), eine Klasse von Linienschiffen der kaiserlichen Marine SMS Brandenburg (1891), das Typschiff dieser Klasse Militaria: Brandenburg (Spezialeinheit), eine Spezialeinheit der Wehrmacht (1939–1945) Brandenburg, den Decknamen des Sonderzuges, den Adolf Hitler während des Zweiten Weltkriegs benutzte, siehe Amerika (Zug) Unternehmen: Hans Brandenburg (Autohaus) Siehe auch: Schloss Brandenburg Brandenburg Mountain Kloster Brandenburg Heinrich Brandenburg (Werft) Brandenburger Brandenberg Brandsburg
461
https://de.wikipedia.org/wiki/Bundesrepublik
Bundesrepublik
Bundesrepublik steht für: Bundesstaat (föderaler Staat), allgemein eine als Bundesstaat organisierte Republik Kurzform (Staatsformbezeichnung) von Bundesrepublik Deutschland, siehe Deutschland Siehe auch:
462
https://de.wikipedia.org/wiki/Beruf
Beruf
Ein Beruf ist „jede auf Erwerb gerichtete Beschäftigung, die sich nicht in einem einmaligen Erwerbsakt erschöpft“ (BVerfGE 97,228). Unter „Beruf“ wird oft eine systematisch erlernte, spezialisierte, meistens mit einem Qualifikationsnachweis versehene Tätigkeit verstanden. Der Begriff ist abzugrenzen vom umgangssprachlichen Ausdruck Job, der eine Tätigkeit zum Erwerb bezeichnet, die nur vorübergehend ausgeübt wird oder nicht an eine besondere Eignung oder Ausbildung gebunden ist. Wortherkunft und Geschichte Beruf geht auf „berufen“ (mhdt. beruofen) zurück, einer Präfixbildung des Verbs „rufen“. Die Ständelehre des Mittelalters kannte die „vocatio interna“ und die „vocatio externa“. Im Mittelalter betrachteten insbesondere Theologen den Beruf unter zwei Teilaspekten, dem „inneren Beruf“ () und dem „äußeren Beruf“ (). Martin Luther übersetzte das lateinische vocatio als die Berufung durch Gott. „Jeder bleibe in dem Beruf, in dem ihn Gottes Ruf traf“ oder „Jeder bleibe in der Berufung, in der er berufen wurde“ . Er verwendete das Wort Beruf auch für den Stand, das Amt und die Arbeit des Menschen in der Welt. Luther hatte beide Aspekte zusammengefasst, weil für ihn Christen bei jeder Tätigkeit einer inneren und äußeren Berufung folgten. Diese innere Berufung mache jede Tätigkeit, auch die in der Familie, zum Beruf. Vocatio interna ist die von Gott ausgehende innere Berufung einer Person zum heiligen Amt (Priester oder Mönch), die durch Gisbert Voetius in seiner „Politica ecclesiastica“ (1663–1676) neues Gewicht erhielt. Die innere Berufung ist das eingenommene geistliche Amt, die äußere Berufung betraf weltliche Berufsstände. Im Rahmen der späteren Säkularisierung verschwanden die spirituellen Bestandteile, während die soziale Verpflichtung im Rahmen der Arbeitsteilung erhalten blieb. Über Beruf und Berufsausbildung wurden in den Zünften die handwerklichen Aktivitäten gesteuert und die ständische Gesellschaftsordnung repräsentiert. Erst seit dem Übergang in das 19. Jahrhundert erhält der Begriff Beruf jenen Inhalt einer eine fachliche Qualifikation voraussetzenden, in der Regel mit einem Erwerbseinkommen verbundenen Tätigkeit. Beruf ist „der Kreis von Tätigkeiten mit zugehörigen Pflichten und Rechten, den der Mensch im Rahmen der Sozialordnung als dauernde Aufgabe ausfüllt und der ihm zumeist zum Erwerb des Lebensunterhaltes dient“. Der Soziologe Max Weber sieht 1925 im industriellen Beruf die „Spezifizierung, Spezialisierung und Kombination von Leistungen“, die für Personen die „Grundlage einer kontinuierlichen Versorgungs- und Erwerbschance“ bildeten. Seit Webers Definition werden Berufe amtlich erfragt und in Statistiken veröffentlicht. Die amtliche deutsche Statistik versteht unter Beruf „die auf Erwerb gerichteten, besondere Kenntnisse und Fertigkeiten sowie Erfahrung erfordernden und in einer typischen Kombination zusammenfließenden Arbeitsverrichtungen … und die in der Regel auch die Lebensgrundlage für ihn und seine nicht berufstätigen Angehörigen bilden.“ Berufsinhalt sind neben der Einkommenserzielung und dem Erwerb von Rentenansprüchen auch der persönliche Lebensinhalt, Interessen, Wertvorstellungen und Ziele, die spezifische gesellschaftliche Wertschätzung und das soziale Ansehen. Berufe und Berufsinhalte unterliegen heute einem mehr oder weniger starken Wandel insbesondere hinsichtlich der Arbeitsbedingungen. Die Berufsausbildung war ursprünglich so gestaltet, dass der Mensch den einmal erlernten Beruf sein gesamtes Berufsleben ausüben sollte. Technischer Fortschritt, ökonomischer Wandel und zunehmende Arbeitsteilung haben jedoch weltweit dazu geführt, dass ganze Berufsgruppen überflüssig wurden und der Beruf als „Lebensaufgabe“ nicht mehr Begriffsinhalt darstellt. Das hängt zusammen mit dem Wandel von der Berufsorientierung hin zur Prozessorientierung, der durch die Veränderung der Berufsbilder und -anforderungen zum Berufswechsel und Umschulung zwingen kann. Sozialgeschichtliche Aspekte Die zur Ausübung eines Berufs erforderlichen Fähigkeiten und Kenntnisse werden durch Ausbildung, Praxis oder Selbststudium erworben. Die Aufnahme in einen Berufsstand kann aber auch erfolgen durch Zuschreibung (adscription), etwa bei Erbfolge (z. B. als Bauer, zünftiger Handwerker), durch Gelöbnisse (Soldaten), Diensteide (Beamte) oder durch Ordination (Geistlicher). Die meisten Berufe sind das Ergebnis fortschreitender Arbeitsteilung. Sie haben häufig eine jahrhundertelange Tradition, da viele von der Gesellschaft benötigte oder gewünschte Leistungen im Wesentlichen konstant geblieben sind. Daher rührt auch die auffällige soziale Erscheinung der Berufsvererbung. Zu den ältesten, frühgeschichtlichen Berufen gehören Schmied, Zimmermann, Heiler, Priester, Wandererzähler und -sänger und Wächter. Seit dem Mittelalter fanden sich viele Berufsgruppen in Zünften und Gilden zusammen, die auch die Ausbildung des beruflichen Nachwuchses übernahmen. Auch „unehrliche Berufe“ bildeten eigene Organisationen. Die Ständeliteratur verzeichnet entsprechend der Ständeordnung eine sich innerhalb der Frühen Neuzeit etablierte Vielfalt der Berufe mit ganz unterschiedlichen Qualifizierungs- und Tätigkeitsmerkmalen sowie Rahmenbedingungen. Die Komplexität der Berufskonzepte steigert sich entsprechend dem wissenschaftlich-technischen Fortschritt. In einigen Berufen wird auf die sogenannte Berufung des/der Einzelnen besonderer Wert gelegt (zum Beispiel Pfarrer, Priester, aber auch Arzt, Lehrer, Apotheker, Richter). Ein Wissenschaftler erhält einen sogenannten „Ruf“ auf eine Professorenstelle, wenn die Hochschule ihn gern in ihrem Kollegenkreis hätte. Bemerkenswert in diesem Zusammenhang ist die Pflicht zur Arbeit im Rahmen der christlichen Soziallehre. Rechtsfragen Das Grundgesetz garantiert das Grundrecht der freien Berufswahl, denn alle Deutschen haben das Recht, Beruf, Arbeitsplatz und Ausbildungsstätte frei zu wählen ( Abs. 1 GG). Unter Beruf versteht man verfassungsrechtlich jede auf Dauer angelegte, der Einkommenserzielung dienende menschliche Betätigung. Dem verfassungsrechtlichen Berufsbegriff sind zwei Elemente immanent, nämlich Lebensaufgabe und Lebensgrundlage. Für den Beruf als Lebensaufgabe ist wesentlich, dass jemand eine innere Beziehung zu seinem Beruf hat, für den er sich verpflichtet und verantwortlich fühlt. Lebensgrundlage setzt wiederum voraus, dass ein Beruf für eine gewisse Dauer gegen Entgelt ausgeübt wird. Gerhard Pfennig erklärt den Berufsstatus am Beispiel der Soldaten und verweist darauf, dass wehrpflichtige Soldaten lediglich eine öffentliche Dienstleistung erfüllten. Der soldatische Dienst als Beruf komme lediglich für Berufssoldaten in Frage, deren Wehrdienst durch die soldatische Laufbahn zu einem Beruf geworden sei. Der Begriff des Berufs ist dabei nicht auf bestimmte traditionelle oder rechtlich fixierte Berufsbilder beschränkt, sondern umfasst jede frei gewählte Form der (erlaubten) Erwerbstätigkeit und ist daher für die Entwicklung neuer Berufsbilder offen. Einem Beruf ist also eine nicht nur kurzfristige Tätigkeit immanent; ebenso muss er auf Einkommenserwerb abzielen (Erwerbstätigkeit). Der Begriff Einkommen ist weit auszulegen, hierunter können neben dem typischen Geldeinkommen auch Naturalleistungen (Deputatlohn wie freie Wohnmöglichkeit, Speisen und Getränke) verstanden werden. Arten Man unterscheidet den erlernten und den ausgeübten Beruf. Der erlernte Beruf beruht auf einer abgeschlossenen Berufsausbildung und urkundlich bestätigtem Qualifikationsnachweis. Ausgeübter Beruf ist die von einem Arbeitnehmer tatsächlich verrichtete Tätigkeit, für welche keine abgeschlossene Berufsausbildung nachgewiesen werden kann. Wer den Beruf ausübt, für den er eine Berufsausbildung abgeschlossen hat, ist im erlernten Beruf tätig. Wer hingegen in einem Beruf tätig ist, den er ursprünglich nicht erlernt hat, arbeitet in einem ausgeübten Beruf. Freie Berufe sind überwiegend selbständige Tätigkeiten, die nicht der Gewerbeordnung unterliegen. Auch diese sind auf eine gewisse Dauer angelegt und beruhen auf fachlicher Vorbildung, unterscheiden sich von den anderen Berufen jedoch durch wirtschaftliche Selbständigkeit. Beruf, Identifikation und Status Ein Berufstätiger kann sich sowohl mit seinem Arbeitgeber als auch mit seinem Beruf identifizieren. Wird eine Tätigkeit als wichtig für den Selbstwert einer Person erachtet, spricht man von der Identifikation mit dem Beruf („“). Eine hohe Berufsidentifikation kann zu höheren Zielen bei der Arbeitsleistung beitragen. Während die Arbeit an die technisch-wirtschaftliche Dimension des Leistungsvollzugs anknüpft, kennzeichnet der Berufsbegriff deren qualitative Voraussetzungen sowie deren soziale Integration und die daraus resultierende Identitätsfindung. Der Beruf ist auch ein bedeutender Mechanismus für den sozialen Status einer Person. Dabei gilt der berufliche Status in modernen Gesellschaften als der beste Einzelindikator für den sozialen Status einer Person. Das Prestige von Berufen hängt von der Qualifikation und dem erzielten Einkommen ab. Der formale Status ergibt sich aus der Einteilung in Arbeiter, Angestellte, Beamte und Selbständige, während der materielle Status meist auf die Einkommenshöhe reduziert wird. Berufsklassifikationen Die Angabe des Berufs ist in allen Statistiken und Erhebungen zum Arbeitsmarkt oder zur sozioökonomischen Lage weltweit unverzichtbar. Der Beruf ist nach wie vor ein dominierender Aspekt in der Beschreibung von Arbeitsmarktentwicklungen. Auch in der Vermittlungsarbeit der Arbeitsämter hat die Angabe des Berufs eine zentrale Bedeutung. Eine Berufsklassifikation schafft für die Vermittlung die Möglichkeit, über sinnvolle und praxisgerechte Zusammenfassungen von ähnlichen beruflichen Tätigkeiten zu verfügen und anzuwenden. International verwendet die Internationale Standardklassifikation der Berufe (ISCO) seit 1957 ein Schema für die Eingruppierung von Berufen. In Deutschland nutzt die Bundesagentur für Arbeit seit Januar 2011 eine mit diesem Schema weitgehend kompatible Neusystematisierung der Berufe, die auch vom Statistischen Bundesamt als Klassifizierung der Berufe übernommen wurde. Reglementierung der Berufsausübung Heute wird die Berufsausbildung (Inhalte, Dauer) in den meisten europäischen Ländern staatlich festgelegt. Die staatliche Reglementierung der Berufswahl findet aber in Deutschland und den meisten anderen Ländern ihre Grenzen im Grundrecht der Berufsfreiheit. Wer welchen Beruf ausüben darf, wurde und wird in verschiedenen Kulturkreisen unterschiedlich gehandhabt. In Europa gilt prinzipiell das Recht der freien Berufsausübung, das jedoch einigen Einschränkungen unterliegt. Bei so genannten reglementierten Berufen ist für die Ausübung eine entsprechende Ausbildung und Qualifikation erforderlich: Als Arzt oder Rechtsanwalt darf beispielsweise nur tätig sein, wer ein medizinisches bzw. juristisches Hochschulstudium erfolgreich abgeschlossen, entsprechende Praxiserfahrung (Referendariat) nachweisen kann und die Zulassung einer Ärztekammer oder Rechtsanwaltskammer besitzt. Ebenfalls unterliegt die Ausübung handwerklicher Berufe bestimmten Einschränkungen: So ist beispielsweise zur selbständigen Ausübung eines Handwerks in Deutschland ein Fachschulabschluss zum Staatlich geprüften Techniker, Abschluss zum Handwerksmeister (Meisterbrief) oder Hoch- bzw. Universitätsabschluss erforderlich. (Novellierung der Handwerksordnung § 7.2) Erfolgreich sozial herausgebildete Berufe entwickeln eine mehr oder minder ausgeprägte Berufsethik. Abgrenzung Die Abgrenzung zum Job wird meist durch den Aspekt der Dauerhaftigkeit vorgenommen. Job ist eine temporäre, kurzfristige Tätigkeit ohne innere Beziehung und Verantwortung zur Tätigkeit, eine Gelegenheitsarbeit. Das kommt beim Wort „jobben“ zum Ausdruck, mit dem eine vorübergehende Tätigkeit zwecks Einkommenserzielung umschrieben wird. Diese Abgrenzung findet auch in angelsächsischen Ländern statt, wo bei Beruf von „profession“ (lat. professio) oder „occupation“ die Rede ist und „job“ eher als Nebentätigkeit klassifiziert wird. Der Berufsbegriff wird auch benutzt, um Einkommenserwerb und fachliche Qualifikation zu betonen. Berufsmusiker (Berufssportler, Berufssoldaten, Berufsrichter) sind fachlich ausgebildet und werden für ihre Arbeitsleistung bezahlt, Amateurmusiker oder Laienrichter hingegen mehr oder weniger nicht. Größte Berufsordnungen in Deutschland Nach Angaben des Statistischen Bundesamtes werden die Berufe in 369 so genannte Berufsordnungen unterschieden, in der alle existierenden Berufe eingruppiert sind, wodurch eine Klassifizierung der Berufe entsteht. Vgl. Frauenanteile in der Berufswelt. Erwerbstätige Männer in den am stärksten besetzten Berufsgruppen (2019) (Quelle: ) Maschinenbau- und Betriebstechnik 1.456.000 Lagerwirtschaft, Post und Zustellung, Güterumschlag 1.158.000 Unternehmensorganisation und -strategie 1.137.000 Fahrzeugführung im Straßenverkehr 946.000 Elektrotechnik 568.000 Fahrzeug-, Luft-, Raumfahrt- und Schiffbautechnik 563.000 Geschäftsführung und Vorstand 532.000 technische Produktionsplanung, -steuerung 529.000 Verkauf (ohne Produktspezialisierung) 523.000 Hochbau 478.000 Erwerbstätige Frauen in den am stärksten besetzten Berufsgruppen (2019) Büro und Sekretariat 1.589.000 Erziehung, Sozialarbeit, Heilerziehungspflege 1.409.000 Verkauf (ohne Produktspezialisierung) 1.219.000 Unternehmensorganisation und -strategie 1.218.000 Reinigung 1.022.000 Gesundheits- und Krankenpflege, Rettungsdienst und Geburtshilfe 952.000 Verwaltung 899.000 Arzt- und Praxishilfe 686.000 Lehrtätigkeit an allgemeinbildenden Schulen 604.000 Altenpflege 602.000 Sonstiges Wer einen Beruf erlernt hat (z. B. über eine Lehre oder über eine akademisches Studium) und diesen ausübt ist Berufsträger. Manche Berufsbezeichnungen sind gesetzlich geschützt (z. B. Arzt, Rechtsanwalt). Siehe auch Arbeit (Betriebswirtschaftslehre) Job (Arbeit) Berufsbezeichnung, Berufsbeschreibung, Berufsberatung, Ausbildungsberuf Berufskultur, Berufssoziologie, Arbeit (Sozialwissenschaften) Bundesinstitut für Berufsbildung Ausbildung Weiterbildung Berufswahlreife Berufswissenschaft Freier Beruf (Österreich), Unehrlicher Beruf Sozialstruktur, Soziale Rolle Museum der Arbeit Professionalisierung Männerdomäne, Frauendomäne Schwerarbeit, Österreichische Schwerarbeitsverordnung Liste lateinischer Berufs- und Funktionsbezeichnungen Literatur Günter Lanczkowski, Gustaf Wingren, Heinz-Horst Schrey: Art. Beruf I. Religionsgeschichtlich II. Historische und ethische Aspekte III. Protestantismus und Katholizismus der Neuzeit. In: Theologische Realenzyklopädie 5 (1980), S. 654–676 (zur Kultur- und Begriffsgeschichte) Werner Dostal, Friedemann Stooß, Lothar Troll: Beruf – Auflösungstendenzen und erneute Konsolidierung. In: Mitteilungen zur Arbeitsmarkt- und Berufsforschung, Nr. 3, Nürnberg 1998, S. 438–460 (Artikel, sowi-online.de; mit einer Übersicht über Definitionen des Begriffs Beruf). Gerald Sailmann: Der Beruf. Eine Begriffsgeschichte. Transcript, Bielefeld 2018, . Weblinks Deutschland: Österreich: Einzelnachweise
464
https://de.wikipedia.org/wiki/Biologie
Biologie
Biologie (von „Leben“ und hier: „Lehre“, siehe auch -logie) oder historisch auch Lebenskunde ist die Wissenschaft von der belebten Materie, den Lebewesen. Sie ist ein Teilgebiet der Naturwissenschaften und befasst sich sowohl mit den allgemeinen Gesetzmäßigkeiten des Lebendigen als auch mit den Besonderheiten der einzelnen Lebewesen: zum Beispiel mit ihrer Entwicklung, ihrem Bauplan und den physikalischen und biochemischen Vorgängen in ihrem Inneren. Im Fach Biologie wird in zahlreichen Teilgebieten geforscht. Zu den ganz allgemein auf das Verständnis des Lebendigen ausgerichteten Teilgebieten gehören insbesondere Biophysik, Genetik, Molekularbiologie, Ökologie, Physiologie, Theoretische Biologie und Zellbiologie. Mit großen Gruppen der Lebewesen befassen sich die Botanik (Pflanzen), die Zoologie (Tiere) und die Mikrobiologie (Kleinstlebewesen und Viren). Die Betrachtungsobjekte der Biologie umfassen u. a. Moleküle, Organellen, Zellen und Zellverbände, Gewebe und Organe, aber auch das Verhalten einzelner Organismen sowie deren Zusammenspiel mit anderen Organismen in ihrer Umwelt. Diese Vielfalt an Betrachtungsobjekten hat zur Folge, dass im Fach Biologie eine Vielfalt an Methoden, Theorien und Modellen angewandt und gelehrt wird. Die Ausbildung von Biologen erfolgt an Universitäten im Rahmen eines Biologiestudiums, von Biologie-Lehramtsstudierenden zumindest zeitweise auch im Rahmen der Biologiedidaktik. In neuerer Zeit haben sich infolge der fließenden Übergänge in andere Wissenschaftsbereiche (z. B. Medizin, Psychologie und Ernährungswissenschaften) sowie wegen des interdisziplinären Charakters der Forschung neben der Bezeichnung Biologie weitere Bezeichnungen für die biologischen Forschungsrichtungen und Ausbildungsgänge etabliert wie zum Beispiel Biowissenschaften, Life Sciences und Lebenswissenschaften. Geschichte Allgemeines Überlegungen zum Leben gab es bereits um 600 v. Chr. bei dem griechischen Naturphilosophen Thales von Milet, der das Wasser als den Anfang – den Urgrund – aller Dinge bezeichnet haben soll. Von der Antike bis ins Mittelalter beruhte die Biologie allerdings hauptsächlich auf der Beobachtung der Natur, also nicht auf Experimenten. In die Interpretation der Beobachtungen flossen zudem häufig Theorien wie die Vier-Elemente-Lehre oder verschiedene spirituelle Haltungen ein, so auch der Schöpfungsmythos der biblischen Genesis, demzufolge „Gott der HERR den Menschen aus Staub von der Erde“ formte (Adam) und ihm „den Odem des Lebens in seine Nase“ blies – „und so ward der Mensch ein lebendiges Wesen.“ Erst mit Beginn der wissenschaftlichen Revolution in der frühen Neuzeit begannen Naturforscher, sich vom Übernatürlichen zu lösen. Im 16. und 17. Jahrhundert erweiterte sich zum Beispiel das Wissen über die Anatomie durch die Wiederaufnahme von Sektionen und Erfindungen wie das Mikroskop ermöglichten ganz neue Einblicke in eine bis dahin nahezu unsichtbare Welt. Der Brüsseler Arzt und Philosoph Johan Baptista van Helmont gelangte, Gedanken von Paracelsus weiterentwickelnd, im 17. Jahrhundert zu einer biologischen Lebens- und Krankheitsauffassung. Die Entwicklung der Chemie brachte auch in der Biologie Fortschritte. Experimente, die zur Entdeckung von molekularen Lebensvorgängen wie der Fermentation und der Fotosynthese führten, wurden möglich. Im 19. Jahrhundert wurden die Grundsteine für zwei große neue Wissenschaftszweige der Naturforschung gelegt: Gregor Mendels Arbeiten an Pflanzenkreuzungen begründeten die Vererbungslehre und die spätere Genetik und Werke von Jean-Baptiste de Lamarck, Charles Darwin und Alfred Russel Wallace begründeten die Evolutionstheorien. Die Bezeichnung Biologie, im modernen Sinne verwendet, scheint mehrfach unabhängig voneinander eingeführt worden zu sein. Gottfried Reinhold Treviranus (Biologie oder Philosophie der lebenden Natur, 1802) und Jean-Baptiste Lamarck (Hydrogéologie, 1802) verwendeten und definierten ihn erstmals. Das Wort selbst wurde schon 1797 von Theodor Gustav August Roose (1771–1803) im Vorwort seiner Schrift Grundzüge der Lehre von der Lebenskraft verwendet und taucht im Titel des dritten Bands von Michael Christoph Hanows Philosophiae naturalis sive physicae dogmaticae: Geologia, biologia, phytologia generalis et dendrologia von 1766 auf. Zu den Ersten, die „Biologie“ in einem umfassenden Sinn prägten, gehörte der deutsche Anatom und Physiologe Karl Friedrich Burdach. Mit der Weiterentwicklung der Untersuchungsmethoden drang die Biologie in immer kleinere Dimensionen vor. Im 19. Jahrhundert erhielt die Medizin mit der von Theodor Schwann begründeten tierischen Zellenlehre eine neue biologische Grundlage. Weitere Errungenschaften des Jahrhunderts waren die Anwendung der Deszendenztheorie, der vergleichenden Morphologie und Entwicklungsgeschichte auf die Anatomie sowie wegbereitende Erkenntnisse biochemischer und biophysikalischer Lebensvorgänge. Im 20. Jahrhundert kamen die Teilgebiete Physiologie und Molekularbiologie zur Entfaltung. Grundlegende Strukturen wie die DNA, Enzyme, Membransysteme und die gesamte Maschinerie der Zelle können seitdem auf atomarer Ebene sichtbar gemacht und in ihrer Funktion genauer untersucht werden. Zugleich gewann die Bewertung von Datenerhebungen mit Hilfe statistischer Methoden immer größere Bedeutung und verdrängte die zunehmend als bloß anekdotisch empfundene Beschreibung von Einzelphänomenen. Als Zweig der Theoretischen Biologie begann sich seit den 1920er Jahren zudem, eine mathematische Biologie zu etablieren. Bis zur Mitte des 20. Jahrhunderts befassten sich Biologen neben Themen der Vererbung, Entwicklung und Beeinflussung des Menschen durch die Umwelt auch mit Fragen nach dem Wesen und Sinn des Lebens. So breitete sich der von Hans Driesch vertretene Neovitalismus aus. Jakob Johann von Uexküll stellte 1909 seine Umwelttheorie auf, Hans Spemann und seine Schüler lieferten ab 1921 bahnbrechende Untersuchungen zum Organisatoreffekt, es erfolgten experimentelle Studien zu den biologischen Trägern der Erbmasse in der Zelle und 1927 wurden Mutationen als Folge von Röntgenbestrahlung von Hermann Joseph Muller nachgewiesen. Seit dem Ende des 20. Jahrhunderts entwickeln sich aus der Biologie neue angewandte Disziplinen: Beispielsweise ergänzt die Gentechnik unter anderem die klassischen Methoden der Tier- und Pflanzenzucht und eröffnet zusätzliche Möglichkeiten, die Umwelt den menschlichen Bedürfnissen anzupassen. Die praktische Biologie und Medizin gehörten zu den Disziplinen, in denen im Deutschen Reich noch Ende des 19. Jahrhunderts im Vergleich mit anderen Disziplinen am vehementesten Gegenwehr gegen die Zulassung von Frauen geübt wurde. So versuchten unter anderem E. Huschke, C. Vogt, P. J. Möbius und T. a.L. a.W. von Bischoff die geistige Inferiorität von Frauen nachzuweisen, um deren Zulassung zum Studium zu verhindern. Hingegen waren die beschreibenden biologischen Naturwissenschaften (aber auch andere beschreibende Naturwissenschaften wie Physik und Mathematik) weiter. Hier zeigten sich die noch ausschließlich männlichen Lehrenden in einer Studie A. Kirchhoffs (1897) zumeist offen für die Zulassung von Frauen zum Studium. Besondere Fortschritte (Auswahl) 600 v. Chr. Thales von Milet stellt die erste Theorie zur Entstehung des Lebens auf. 350 v. Chr. Aristoteles – diverse Schriften zur Zoologie 1. Jahrhundert n. Chr. Plinius der Ältere veröffentlicht die 37-bändige Naturalis historia zur Botanik und Zoologie. 1665 Robert Hooke beschreibt Zellen in Korkgewebe. 1683 Antoni van Leeuwenhoek entdeckt Bakterien, Einzeller, Blutzellen und Spermien durch Mikroskopie. 1758 Carl von Linné begründet in seinem Werk Systema Naturae die bis heute gültige Taxonomie im Tier- und Pflanzenreich um 1800 Entstehung der Auffassung von Lebewesen als Organismen (Georges Cuvier, Immanuel Kant), die konstitutiv für die (moderne) Biologie ist 1802 Jean-Baptiste de Lamarck (Begründer der ersten Evolutionstheorie) und Gottfried Reinhold Treviranus definieren als Erste den Begriff „Biologie“. 1839 Theodor Schwann und Matthias Jacob Schleiden – Begründer der Zelltheorie 1858 Charles Darwin (1842, unveröffentlicht) und Alfred Russel Wallace begründen unabhängig voneinander die Evolutionstheorie. 1866 Gregor Mendels erste Veröffentlichung über Versuche mit Pflanzenhybriden begründet die Genetik. 1879 Gesamtdarstellung der indirekten Kernteilung durch Walther Flemming 1881 Coelomtheorie von Oskar Hertwig und Richard Hertwig 1888 Einführung der Bezeichnung „Chromosomen“ durch Wilhelm Waldeyer 1894 Entdeckung des Pithecanthropus auf Java durch Eugène Dubois 1925 mit der Aufstellung der Lotka-Volterra-Gleichungen (Gleichungen zur Beschreibung von Räuber-Beute-Beziehung) beginnt das Zeitalter der mathematischen Biologie 1935 erster eindeutiger Nachweis eines Virus durch Wendell Meredith Stanley 1938 Einführung der Übermikroskopie in Medizin und Biologie durch Helmut Ruska 1944 Oswald Avery zeigt, dass die DNA, und nicht wie zuvor vermutet Proteine, der Träger der Erbinformationen ist 1950 Barbara McClintock veröffentlicht ihre (lange Zeit nicht anerkannte) Entdeckung von beweglichen Elementen in der Erbmasse (Transposons). Heute bildet ihre Entdeckung die Grundlage gentechnologischer Verfahren 1952 Alan Lloyd Hodgkin und Andrew Fielding Huxley stellen die Grundgleichungen der Elektrophysiologie auf 1953 James D. Watson und Francis Crick veröffentlichen die Doppelhelixstruktur der DNA (wichtigen Anteil an der Strukturaufklärung hatten dabei auch Rosalind Franklin und Maurice Wilkins) 1973 John Maynard Smith und George R. Price führen das Konzept der Evolutionär Stabilen Strategie ein. 1982 Hypothese über Prionen (infektiöses Agens ohne Erbgut) von Stanley Prusiner. Anfang der 1990er Jahre wurden Prionen durch den sogenannten Rinderwahnsinn allgemein bekannt. 1983 Kary Mullis erfindet die Polymerase-Kettenreaktion (PCR). DNA-Moleküle können fortan im Labor millionenfach vervielfältigt werden 1990–2003 Sequenzierung des menschlichen Erbguts durch das Humangenomprojekt Einteilung der Fachgebiete Die Biologie als Wissenschaft lässt sich durch die Vielzahl von Lebewesen, Untersuchungstechniken und Fragestellungen nach verschiedenen Kriterien in Teilbereiche untergliedern: Zum einen kann die Fachrichtung nach den jeweils betrachteten Organismengruppen (Pflanzen in der Botanik, Bakterien in der Mikrobiologie) eingeteilt werden. Andererseits kann sie auch anhand der bearbeiteten mikro- und makroskopischen Hierarchie-Ebenen (Molekülstrukturen in der Molekularbiologie, Zellen in der Zellbiologie) geordnet werden. Die verschiedenen Systeme überschneiden sich jedoch, da beispielsweise die Genetik viele Organismengruppen betrachtet und in der Zoologie sowohl die molekulare Ebene der Tiere als auch ihr Verhalten untereinander erforscht wird. Die Abbildung zeigt in kompakter Form eine Ordnung, die beide Systeme miteinander verbindet. Im Folgenden wird ein Überblick über die verschiedenen Hierarchie-Ebenen und die zugehörigen Gegenstände der Biologie gegeben. In seiner Einteilung orientiert er sich an der Abbildung. Beispielhaft sind Fachgebiete aufgeführt, die vornehmlich die jeweilige Ebene betrachten. Mikrobiologie Sie ist die Wissenschaft und Lehre von den Mikroorganismen, also von den Lebewesen, die als Individuen nicht mit bloßem Auge erkannt werden können: Bakterien und andere Einzeller, bestimmte Pilze, ein- und wenigzellige Algen (Mikroalgen) und Viren. Botanik / Pflanzenwissenschaft Die Botanik (auch Pflanzenwissenschaft) ging aus der Heilpflanzenkunde hervor und beschäftigt sich vor allem mit dem Bau, der Stammesgeschichte, der Verbreitung und dem Stoffwechsel der Pflanzen. Zoologie / Tierbiologie Die Zoologie (auch Tierbiologie) beschäftigt sich vor allem mit dem Bau, der Stammesgeschichte, der Verbreitung und den Lebensäußerungen der Tiere. Humanbiologie Die Humanbiologie ist eine Disziplin, die sich im engeren Sinn mit der Biologie des Menschen sowie den biologischen Grundlagen der Humanmedizin und im weiteren Sinn mit den für den Menschen relevanten Teilbereichen der Biologie befasst. Die Humanbiologie entstand als eigenständige Wissenschaftsdisziplin erst in der zweiten Hälfte des 20. Jahrhunderts. Ihr verwandt ist die biologische Anthropologie, welche jedoch zur Anthropologie gezählt wird. Ziel der biologischen Anthropologie mit ihren Teilgebieten Primatologie, Evolutionstheorie, Sportanthropologie, Paläoanthropologie, Bevölkerungsbiologie, Industrieanthropologie, Genetik, Wachstum (Auxologie), Konstitution und Forensik ist die Beschreibung, Ursachenanalyse und evolutionsbiologische Interpretation der Verschiedenheit biologischer Merkmale der Hominiden. Ihre Methoden sind sowohl beschreibend als auch analytisch. Molekularbiologie Die grundlegende Stufe der Hierarchie bildet die Molekularbiologie. Sie ist jene biologische Teildisziplin, die sich mit Molekülen in lebenden Systemen beschäftigt. Zu den biologisch wichtigen Molekülklassen gehören Nukleinsäuren, Proteine, Kohlenhydrate und Lipide. Die Nukleinsäuren DNA und RNA sind als Speicher der Erbinformation ein wichtiges Objekt der Forschung. Es werden die verschiedenen Gene und ihre Regulation entschlüsselt sowie die darin codierten Proteine untersucht. Eine weitere große Bedeutung kommt den Proteinen zu. Sie sind zum Beispiel in Form von Enzymen als biologische Katalysatoren für beinahe alle stoffumsetzenden Reaktionen in Lebewesen verantwortlich. Neben den aufgeführten Gruppen gibt es noch viele weitere, wie Alkaloide, Terpene und Steroide. Allen gemeinsam ist ein Grundgerüst aus Kohlenstoff, Wasserstoff und oft auch Sauerstoff, Stickstoff und Schwefel. Auch Metalle spielen in sehr geringen Mengen in manchen Biomolekülen (z. B. Chlorophyll oder Hämoglobin) eine Rolle. Biologische Disziplinen, die sich auf dieser Ebene beschäftigen, sind: Biochemie, Genetik und Epigenetik (DNA-unabhängige Vererbung von Merkmalen), Molekularbiologie, Pharmazeutische Biologie und Toxikologie. Zellbiologie Zellen sind grundlegende strukturelle und funktionelle Einheiten von Lebewesen. Man unterscheidet zwischen prokaryotischen Zellen, die keinen Zellkern besitzen und wenig untergliedert sind, und eukaryotischen Zellen, deren Erbinformation sich in einem Zellkern befindet und die verschiedene Zellorganellen enthalten. Zellorganellen sind durch einfache oder doppelte Membranen abgegrenzte Reaktionsräume innerhalb einer Zelle. Sie ermöglichen den gleichzeitigen Ablauf verschiedener, auch entgegengesetzter chemischer Reaktionen. Einen großen Teil der belebten Welt stellen Organismen, die nur aus einer Zelle bestehen, die Einzeller. Sie können dabei aus einer prokaryotischen Zelle bestehen (die Bakterien), oder aus einer eukaryotischen (wie manche Pilze). In mehrzelligen Organismen schließen sich viele Zellen gleicher Bauart und mit gleicher Funktion zu Geweben zusammen. Mehrere Gewebe mit Funktionen, die ineinandergreifen, bilden ein Organ. Biologische Disziplinen, vornehmlich auf dieser Ebene (Beispiele): Histologie, Anatomie Immunologie, Infektionsbiologie, Neurobiologie Mykologie, Mikrobiologie, Protozoologie, Phykologie Zellbiologie, Zellphysiologie Entwicklungsbiologie Jedes Lebewesen ist Resultat einer Entwicklung. Nach Ernst Haeckel lässt sich diese Entwicklung auf zwei zeitlich unterschiedlichen Ebenen betrachten: Durch die Evolution kann sich die Form von Organismen im Laufe der Generationen weiterentwickeln (Phylogenese). Die Ontogenese ist die Individualentwicklung eines einzelnen Organismus von seiner Zeugung über seine verschiedenen Lebensstadien bis hin zum Tod. Die Entwicklungsbiologie untersucht diesen Verlauf. Physiologie Die Physiologie befasst sich mit den physikalischen, biochemischen und informationsverarbeitenden Funktionen der Lebewesen. Physiologisch geforscht und ausgebildet wird sowohl in den akademischen Fachrichtungen Biologie und Medizin als auch in der Psychologie. Genetik Als Begründer der Genetik gilt Gregor Mendel. So entdeckte er die später nach ihm benannten Mendelschen Regeln, die in der Wissenschaft allerdings erst im Jahr 1900 rezipiert und bestätigt wurden. Der heute weitaus wichtigste Teilbereich der Genetik ist die Molekulargenetik, die in den 1940er Jahren begründet wurde. Verhaltensbiologie Die Verhaltensbiologie erforscht das Verhalten der Tiere und des Menschen. Sie beschreibt das Verhalten, stellt Vergleiche zwischen Individuen und Arten an und versucht, das Entstehen bestimmter Verhaltensweisen im Verlauf der Stammesgeschichte zu erklären, also den „Nutzen“ für das Individuum. Ökologie / Umweltbiologie Das Fachgebiet Ökologie (auch Umweltbiologie) setzt sich mit den Wechselwirkungen zwischen den Organismen und den abiotischen und biotischen Faktoren ihres Lebensraumes auf verschiedenen Organisationsebenen auseinander. Individuen: Die Autökologie betrachtet vor allem Auswirkungen der abiotischen Faktoren wie Licht, Temperatur, Wasserversorgung oder jahreszeitlichen Wandel auf das Individuum. Biologische Disziplinen, die diese Ebene ebenfalls betrachten, sind beispielsweise die Anthropologie, Zoologie, Botanik und Verhaltensbiologie. Populationen (Demökologie): Eine Population ist eine Fortpflanzungsgemeinschaft innerhalb einer Art in einem zeitlich und räumlich begrenzten Gebiet. Die Populationsökologie betrachtet vor allem die Dynamik der Populationen eines Lebensraumes auf Grund der Veränderungen der Geburten- und Sterberate, durch Veränderungen im Nahrungsangebot oder abiotischer Umweltfaktoren. Diese Ebene wird auch von der Verhaltensbiologie und der Soziobiologie untersucht. Im Zusammenhang mit der Beschreibung und Untersuchung sozialer Verbände wie Herden oder Rudel können auch die auf den Menschen angewandten Gesellschaftswissenschaften gesehen werden. Biozönosen (Synökologie): Sie stellen Gemeinschaften von Organismen dar. Pflanzen, Tiere, Pilze, Einzeller und Bakterien sind in einem Ökosystem meist voneinander abhängig und beeinflussen sich gegenseitig. Sie sind Teil von Stoffkreisläufen in ihrem Lebensraum bis hin zu den globalen Stoffkreisläufen wie dem Kohlenstoffzyklus. Die Lebewesen können sich positiv (z. B. Symbiose), negativ (z. B. Fressfeinde, Parasitismus) oder einfach gar nicht beeinflussen. Lebensgemeinschaft (Biozönose) und Lebensraum (Biotop) bilden zusammen ein Ökosystem. Die Landschaftsökologie ist auf die räumliche Ausprägung ökologischer Zusammenhänge und Regelkreise gerichtet. Sie erforscht das Zusammenwirken von Biodiversität und Geodiversität auf der Ebene der daraus resultierenden Landschaftsdiversität. In der Humanökologie werden im Besonderen die wechselseitigen Beziehungen zwischen Mensch und Umwelt in den Mittelpunkt gerückt. Biologische Disziplinen, die sich mit Ökosystemen beschäftigen (Beispiele): Biogeografie, Biozönologie Ökologie, Chorologie, Geobotanik, Pflanzensoziologie Da die Evolution der Organismen zu einer Anpassung an eine bestimmte Umwelt führen kann, besteht ein intensiver Austausch zwischen beiden Fachdisziplinen, was insbesondere in der Disziplin der Evolutionsökologie zum Ausdruck kommt. Evolutionsbiologie und Systematik Die Phylogenese beschreibt die Entwicklung einer Art im Verlauf von Generationen. Hier betrachtet die Evolutionsbiologie die langfristige Anpassung an Umweltbedingungen und die Aufspaltung in neue Arten. Auf der Grundlage der phylogenetischen Entwicklung ordnet die biologische Taxonomie alle Lebewesen in ein Schema ein. Die Gesamtheit aller Organismen wird in drei Gruppen, die Domänen, unterteilt, welche wiederum weiter untergliedert werden: Archaeen (Archaea) Bakterien (Bacteria) Eukaryoten (Eukarya) Mit der Klassifizierung der Tiere in diesem System beschäftigt sich die Spezielle Zoologie, mit der Einteilung der Pflanzen die Spezielle Botanik, mit der Einteilung der Archaeen, Bakterien und Pilze die Mikrobiologie. Als häufige Darstellung wird ein phylogenetischer Baum gezeichnet. Die Verbindungslinien zwischen den einzelnen Gruppen stellen dabei die evolutionäre Verwandtschaft dar. Je kürzer der Weg zwischen zwei Arten in einem solchen Baum, desto enger sind sie miteinander verwandt. Als Maß für die Verwandtschaft wird häufig die Sequenz eines weitverbreiteten Gens herangezogen. Als in gewissem Sinne eine Synthese von Ökologie, Evolutionsbiologie und Systematik hat sich seit Ende der 1980er Jahre die Biodiversitäts­forschung etabliert, die auch den Brückenschlag zu Schutzbestrebungen für die biologische Vielfalt und zu politischen Abkommen über Schutz und Nachhaltigkeit bildet. Synthetische Biologie In diesem Fachgebiet versuchen Bio-Ingenieure, künstliche lebensfähige Systeme herzustellen, die wie naturgegebene Organismen von einem Genom gesteuert werden. Theoretische Biologie Die Theoretische Biologie (auch Systemische Biologie) befasst sich mit mathematisch formulierbaren Grundprinzipien biologischer Systeme auf allen Organisationsstufen. Systembiologie Die Systembiologie versucht, Organismen in ihrer funktionellen Gesamtheit zu verstehen. Sie folgt der Systemtheorie und nutzt neben mathematischen Modellen auch Computersimulationen. Sie überschneidet sich mit der Theoretischen Biologie. Arbeitsmethoden der Biologie Die Biologie nutzt viele allgemein gebräuchliche wissenschaftliche Methoden, wie strukturiertes Beobachten, Dokumentation (Notizen, Fotos, Filme), Hypothesen­bildung, mathematische Modellierung, Abstraktion und Experimente. Bei der Formulierung von allgemeinen Prinzipien in der Biologie und der Knüpfung von Zusammenhängen stützt man sich sowohl auf empirische Daten als auch auf mathematische Sätze. Je mehr Versuche mit verschiedenen Ansatzpunkten auf das gleiche Ergebnis hinweisen, desto eher wird es als gültig anerkannt. Diese pragmatische Sicht ist allerdings umstritten; insbesondere Karl Popper hat sich gegen sie gestellt. Aus seiner Sicht können Theorien durch Experimente oder Beobachtungen und selbst durch erfolglose Versuche, eine Theorie zu widerlegen, nicht untermauert, sondern nur untergraben werden (siehe Unterdeterminierung von Theorien durch Evidenz). Einsichten in die wichtigsten Strukturen und Funktionen der Lebewesen sind mit Hilfe von Nachbarwissenschaften möglich. Die Physik beispielsweise liefert eine Vielzahl Untersuchungsmethoden. Einfache optische Geräte wie das Lichtmikroskop ermöglichen das Beobachten von kleineren Strukturen wie Zellen und Zellorganellen. Das brachte neues Verständnis über den Aufbau von Organismen und mit der Zellbiologie eröffnete sich ein neues Forschungsfeld. Mittlerweile gehört eine Palette hochauflösender bildgebender Verfahren, wie Fluoreszenzmikroskopie oder Elektronenmikroskopie, zum Standard. Als eigenständiges Fach zwischen den Wissenschaften Biologie und Chemie hat sich die Biochemie herausgebildet. Sie verbindet das Wissen um die chemischen und physikalischen Eigenschaften von den Bausteinen des Lebens mit der Wirkung auf das biologische Gesamtgefüge. Mit chemischen Methoden ist es möglich bei biologischer Versuchsführung zum Beispiel Biomoleküle mit einem Farbstoff oder einem radioaktiven Isotop zu versehen. Das ermöglicht ihre Verfolgung durch verschiedene Zellorganellen, den Organismus oder durch eine ganze Nahrungskette. Die Bioinformatik ist eine sehr junge Disziplin zwischen der Biologie und der Informatik. Die Bioinformatik versucht mit Methoden der Informatik biologische Fragestellungen zu lösen. Im Gegensatz zur theoretischen Biologie, welche häufig nicht mit empirischen Daten arbeitet, um konkrete Fragen zu lösen, benutzt die Bioinformatik biologische Daten. So war eines der Großforschungsprojekte der Biologie, die Genomsequenzierung, nur mit Hilfe der Bioinformatik möglich. Die Bioinformatik wird aber auch in der Strukturbiologie eingesetzt, hier existieren enge Wechselwirkungen mit der Biophysik und Biochemie. Eine der fundamentalen Fragestellungen der Biologie, die Frage nach dem Ursprung der Lebewesen (auch als phylogenetischer Baum des Lebens bezeichnet, siehe Abbildung oben), wird heute mit bioinformatischen Methoden bearbeitet. Die Mathematik dient als Hauptinstrument der theoretischen Biologie der Beschreibung und Analyse allgemeinerer Zusammenhänge der Biologie. Beispielsweise erweist sich die Modellierung durch Systeme gewöhnlicher Differenzialgleichungen in vielen Bereichen der Biologie (etwa der Evolutionstheorie, Ökologie, Neurobiologie und Entwicklungsbiologie) als grundlegend. Fragen der Phylogenetik werden mit Methoden der diskreten Mathematik und algebraischen Geometrie bearbeitet. Zu Zwecken der Versuchsplanung und Analyse finden Methoden der Statistik Anwendung. Die unterschiedlichen biologischen Teildisziplinen nutzen verschiedene systematische Ansätze: Mathematische Biologie: Aufstellen und Beweisen allgemeiner Sätze der Biologie. Biologische Systematik: Lebewesen charakterisieren und anhand ihrer Eigenschaften und Merkmale in ein System einordnen Physiologie: Zerlegung und Beschreibung von Organismen und ihren Bestandteilen mit anschließendem Vergleich mit anderen Organismen, mit dem Ziel einer Funktionserklärung Genetik: Katalogisieren und analysieren des Erbgutes und der Vererbung Verhaltensbiologie, Soziobiologie: Das Verhalten von Individuen, von artgleichen Tieren in der Gruppe und zu anderen Tierarten beobachten und erklären Ökologie: Beobachten einer oder mehrerer Arten in ihrem Lebensraum, ihrer Wechselbeziehung und den Auswirkungen biotischer und abiotischer Faktoren auf ihre Lebensweise Nutzansatz: die Zucht und Haltung von Nutzpflanzen, Nutztiere und Nutzmikroorganismen untersuchen und durch Variation der Haltungsbedingungen optimieren Anwendungsbereiche der Biologie Die Biologie ist eine naturwissenschaftliche Disziplin, die sehr viele Anwendungsbereiche hat. Durch biologische Forschung werden Erkenntnisse über den Aufbau des Körpers und die funktionellen Zusammenhänge gewonnen. Sie bilden eine zentrale Grundlage, auf der die Medizin und Veterinärmedizin Ursachen und Auswirkungen von Krankheiten bei Mensch und Tier untersucht. Auf dem Gebiet der Pharmazie werden Medikamente, wie beispielsweise Insulin oder zahlreiche Antibiotika, aus genetisch veränderten Mikroorganismen statt aus ihrer natürlichen biologischen Quelle gewonnen, weil diese Verfahren preisgünstiger und um ein Vielfaches produktiver sind. Für die Landwirtschaft werden Nutzpflanzen mittels Molekulargenetik mit Resistenzen gegen Schädlinge versehen und unempfindlicher gegen Trockenheit und Nährstoffmangel gemacht. In der Genussmittel- und Nahrungsmittelindustrie sorgt die Biologie für eine breite Palette länger haltbarer und biologisch hochwertigerer Nahrungsmittel. Einzelne Lebensmittelbestandteile stammen auch hier von genetisch veränderten Mikroorganismen. So wird das Lab zur Herstellung von Käse heute nicht mehr aus Kälbermagen extrahiert, sondern mikrobiell erzeugt. Weitere angrenzende Fachgebiete, die ihre eigenen Anwendungsfelder haben, sind Ethnobiologie, Bionik, Bioökonomie, Bioinformatik und Biotechnologie. „Galerie des Lebens“ (Vertreter verschiedener Organismengruppen) Siehe auch Philosophie der Biologie Literatur Ernst Almquist: Große Biologen. J.F. Lehmann Verlag, München 1931. Isaac Asimov: Geschichte der Biologie. Fischer, Frankfurt am Main 1968. Änne Bäumer: Geschichte der Biologie. Band 1: Biologie von der Antike bis zur Renaissance. Lang, Frankfurt am Main [u. a.] 1991, ISBN 3-631-43312-3. Band 2: Zoologie der Renaissance, Renaissance der Zoologie. Lang, Frankfurt am Main [u. a.] 1991, ISBN 3-631-43313-1. Band 3: 17. und 18. Jahrhundert. Lang, Frankfurt am Main [u. a.] 1996, ISBN 3-631-30317-3. Änne Bäumer: Bibliography of the history of biology / Bibliographie zur Geschichte der Biologie. Peter Lang, Frankfurt am Main u. a. 1997, ISBN 3-631-32261-5. Neil A. Campbell, Jane B. Reece: Biologie. 6. Auflage. Pearson Studium, München 2006, ISBN 3-8273-7180-5. Christian Göldenboog: Das Loch im Walfisch. Die Philosophie der Biologie. Klett-Cotta, Stuttgart 2003. 270 S. ISBN 3-608-91991-0. Brigitte Hoppe: Biologie, Wissenschaft von der belebten Materie von der Antike zur Neuzeit. Biologische Methodologie und Lehren von der stofflichen Zusammensetzung der Organismen (= Sudhoffs Archiv. Beiheft 17). Franz Steiner, Wiesbaden 1976, ISBN 3-515-02163-9. (Zugleich Habilitationsschrift). Ilse Jahn (Hrsg.): Geschichte der Biologie. Theorien, Methoden, Institutionen, Kurzbiographien. 3. Auflage. Spektrum, Heidelberg 2002 (und Kassel 2004), ISBN 3-8274-1023-1. Dieter Klämbt, Horst Kreiskott, Bruno Streit: Angewandte Biologie. VCH, Weinheim 1991, ISBN 3-527-28170-3. Ernst Mayr: Das ist Biologie. Die Wissenschaft des Lebens. Spektrum, Heidelberg 2000, ISBN 3-8274-1015-0. Ernst Mayr: Die Entwicklung der biologischen Gedankenwelt. Vielfalt, Evolution und Vererbung. Springer, Berlin 2002 (Nachdruck der Ausgabe 1984). Heinz Penzlin: Die theoretischen Konzepte der Biologie in ihrer geschichtlichen Entwicklung. In: Naturwissenschaftliche Rundschau. Band 62, Nr. 5, 2009, , S. 233–243. William K. Purves u. a.: Biologie. 7. Auflage. Spektrum, Heidelberg 2006, ISBN 3-8274-1630-2. Gertrud Scherf: Wörterbuch Biologie. Directmedia Publishing, CD-ROM, Berlin 2006, ISBN 978-3-89853-840-4. Georg Toepfer: Historisches Wörterbuch der Biologie. Geschichte und Theorie der biologischen Grundbegriffe. 3 Bände. Metzler, Stuttgart 2011, ISBN 978-3-476-02316-2. Weblinks Virtuelle Fachbibliothek Biologie (vifabio) www.BioLib.de – alte Bücher aus der Biologie mit vielen Originalabbildungen „Die Autonomie der Biologie“ – umfangreicher Artikel von Ernst Mayr Verband Biologie, Biowissenschaften und Biomedizin in Deutschland ABA – Austrian Biologist Association Verein österreichischer Biologinnen und Biologen Einzelnachweise Wissenschaftliches Fachgebiet
467
https://de.wikipedia.org/wiki/Bruce%20Willis
Bruce Willis
Walter Bruce Willis (* 19. März 1955 in Idar-Oberstein, Deutschland) ist ein ehemaliger US-amerikanischer Schauspieler. Seinen Durchbruch als Filmschauspieler hatte er 1988 mit dem Kinofilm Stirb langsam in der Rolle des John McClane, die er auch in mehreren Fortsetzungen verkörperte. Zuvor war er bereits durch die Fernsehserie Das Model und der Schnüffler bekannt geworden. Er profilierte sich insbesondere in actionbetonten Rollen und spielte in Hollywood-Filmen wie Pulp Fiction, 12 Monkeys, Das fünfte Element, The Sixth Sense und Sin City mit. Er gewann unter anderem einen Emmy und einen Golden Globe Award. Nachdem bei Willis Aphasie diagnostiziert worden war, gab seine Familie Ende März 2022 kurz nach seinem 67. Geburtstag das Ende seiner Schauspielkarriere bekannt. Im Februar 2023 machte seine Familie zudem öffentlich, dass er an frontotemporaler Demenz leide. Biografie Kindheit und Jugend Bruce Willis wurde 1955 in Idar-Oberstein in Rheinland-Pfalz als Sohn des US-Soldaten David Willis und dessen deutscher Frau Marlene aus Kaufungen bei Kassel geboren. Er verbrachte die ersten zwei Jahre mit den Eltern in Deutschland, ehe die Familie 1957 in die Vereinigten Staaten übersiedelte. Zusammen mit seinen drei jüngeren Geschwistern wuchs er in New Jersey auf. Als Therapie gegen sein Stottern kam er während der Schulzeit zur Schauspielerei. Nach Abschluss der High School nahm er Schauspielunterricht am Montclair State College und arbeitete nebenher in einer Chemiefabrik, um den Unterricht zu finanzieren. Schauspielkarriere Erste Erfahrungen als Schauspieler sammelte er an Theatern in New York City und als Darsteller in Werbespots. Ab 1985 spielte er die Hauptrolle in der Detektivserie Das Model und der Schnüffler (Moonlighting), die unter anderem mit einem Emmy und einem Golden Globe ausgezeichnet wurde. Eine Gastrolle hatte er in Miami Vice. Anschließend arbeitete er zweimal mit dem Regisseur Blake Edwards zusammen. 1988 gelang Willis mit dem Kinoerfolg Stirb langsam der Durchbruch. Die Rolle des Polizisten John McClane – der nur die eigenen Regeln befolgt und immer einen lockeren Spruch auf den Lippen hat – machte ihn zum Star des Actionfilms. Abgesehen von weiteren Actionfilmen wie Stirb langsam 2 und Last Boy Scout – Das Ziel ist Überleben hatte er bis Mitte der 1990er-Jahre kaum kommerziellen Erfolg, was unter anderem daran lag, dass er durch Rollen in Komödien wie Der Tod steht ihr gut versuchte, sein Action-Image zu relativieren. 1994 wurde er von Quentin Tarantino in Pulp Fiction in der Rolle des Boxers Butch besetzt, dessen Darstellung von der Kritik gelobt wurde. Es folgten weitere Kassenschlager wie 12 Monkeys (1995), Das fünfte Element (1997) oder Armageddon – Das jüngste Gericht (1998). Mit Filmen wie The Sixth Sense (1999) oder Unbreakable – Unzerbrechlich (2000) widmete er sich anschließend verstärkt Dramen, blieb aber auch Komödien und Actionfilmen treu. Im Oktober 2006 wurde Willis mit einem Stern auf dem Hollywood Walk of Fame geehrt. Er zählte laut dem US-amerikanischem Forbes Magazine zu dieser Zeit zu den bestbezahlten Schauspielern Hollywoods. Zwischen Juni 2007 und Juni 2008 erhielt er Gagen in Höhe von insgesamt 41 Millionen US-Dollar und rangierte damit hinter Will Smith, Johnny Depp, Eddie Murphy, Mike Myers und Leonardo DiCaprio auf Platz sechs. Es folgten bis zuletzt weitere Kinoproduktionen, aber insbesondere seit Mitte der 2010er-Jahre spielte Willis vermehrt in Filmen mit, die nur eine eingeschränkte oder überhaupt keine Kinoauswertung erfuhren. Außerdem trat er in solchen zweitklassigen Produktionen häufig nur als Nebendarsteller auf. Mit den Regisseuren Steven C. Miller und Brian A. Miller arbeitete er mehrfach bei B-Actionfilmen zusammen. Häufiger Produzent war Randall Emmett. Rückblickend wird dieser Qualitätsabfall mit Willis’ bereits einsetzender Erkrankung erklärt. Sein Schaffen umfasst rund 140 Produktionen für Film und Fernsehen. Am 30. März 2022 gab die Familie das Ende von Willis’ Schauspielkarriere bekannt, nachdem bei ihm eine aphasische Störung mit kognitiven Einschränkungen diagnostiziert worden war. Kollegen berichteten, er habe in den Jahren zuvor an Filmsets wiederholt Probleme u. a. mit Texten und Abläufen gehabt und sei auf Unterstützung angewiesen gewesen. Im Februar 2023 teilte die Familie die endgültige Diagnose mit; er leidet an frontotemporaler Demenz, auch FTD genannt. Durch die nicht heilbare Krankheit verlor Willis später auch seine Sprachfähigkeiten. Weitere Aktivitäten Willis war auch als Theaterschauspieler und Produzent tätig. Im King King, einem Musiklokal in Los Angeles, war er Stammgast und trat (mit den Blue Shadows) auch als mundharmonikaspielender „Bruno“ auf. Darüber hinaus veröffentlichte er zwei Musik-Alben; das sehr erfolgreiche The Return of Bruno, das mit Platin ausgezeichnet wurde und If It Don’t Kill You, It Just Makes You Stronger. Chartplatzierungen erreichte er mit den Singleauskopplungen Respect Yourself – dem Cover eines Songs der Staple Singers – und Under the Boardwalk. 2010 hatte er einen Gastauftritt im Musikvideo zu Stylo, der 2010 erschienenen Single der Gorillaz. Willis ist Mitgründer der Restaurantkette Planet Hollywood. 2007 ernannte die Stadt Idar-Oberstein den hier geborenen Willis zum Sonderbotschafter. Privatleben Mit der Schauspielkollegin Demi Moore – mit der Willis von 1987 bis 2000 verheiratet war – hat er drei Töchter: Rumer (* 1988), Scout LaRue (* 1991) und Tallulah Belle (* 1994). Alle Töchter standen schon selbst vor der Kamera, zunächst in Filmen, in denen auch ein Elternteil mitspielte. Rumer war an der Seite ihres Vaters in Hostage – Entführt zu sehen; Scout LaRue und Tallulah Belle spielten erstmals in dem Film Der scharlachrote Buchstabe, danach 2001 in Banditen!. Beim Sundance Film Festival in Utah im Januar 2008 präsentierte sich Willis mit seiner neuen Partnerin, dem Fotomodell Emma Heming; die Hochzeit fand am 21. März 2009 auf den Caicos-Inseln statt. Am 1. April 2012 wurde die erste gemeinsame Tochter geboren. Am 5. Mai 2014 bekam das Paar eine weitere Tochter. Äußerungen zu Politik und Zeitgeschehen In einem Interview Anfang 2006 dementierte Willis das Gerücht, er sei Anhänger der Regierung von George W. Bush. Er sagte, er sei kein Republikaner und hasse Regierungen: „Wir können unsere Politiker nicht beeinflussen. Die interessieren sich einen Dreck für uns.“ Außerdem rechtfertigte er sich, den Krieg im Irak zu befürworten: „Ich bin kein gewalttätiger Mensch. Aber wir leben in einer gewalttätigen Welt. Dieses Land wurde auf Gewalt aufgebaut.“ Anlässlich des Films Stirb langsam 4.0 meinte er in einem Interview mit der Süddeutschen Zeitung, dass er ein politisch schwer einzuordnender Mensch sei, der differenziert denke. Filmografie (Auswahl) Diskografie Alben Kompilationen 1997: Bruce Willis 1999: Classic Bruce Willis: The Universal Masters Collection 2000: Millennium Series 2000: Master Series 2005: Ultimate Collection Singles Auszeichnungen für Musikverkäufe Platin-Schallplatte 1987: für das Album The Return of Bruno Deutsche Synchronstimmen Ronald Nitschke lieh ihm in Das Model und der Schnüffler, Der Tod steht ihr gut, Blind Date und Four Rooms seine Stimme. In fast allen anderen Filmen wurde er von Manfred Lehmann synchronisiert. In Stirb langsam: Jetzt erst recht bekam er ausnahmsweise die Stimme von Thomas Danneberg, da Lehmann zu diesem Zeitpunkt mit Dreharbeiten beschäftigt war. Auszeichnungen 1986: People’s Choice Awards, Favorite Male Performer in a New TV Program 1987: Emmy, Bester Hauptdarsteller in einer Dramaserie, für Das Model und der Schnüffler 1987: Golden Globe, Bester Serien-Hauptdarsteller – Komödie oder Musical für Das Model und der Schnüffler 1992: Goldene Himbeere, Schlechtestes Drehbuch für Hudson Hawk – Der Meisterdieb 1999: Goldene Himbeere, Schlechtester Hauptdarsteller für Armageddon, Das Mercury Puzzle und Ausnahmezustand 1999: Blockbuster Entertainment Awards, Bester Nebendarsteller, für Ausnahmezustand 2000: Blockbuster Entertainment Awards, Bester Hauptdarsteller, für The Sixth Sense 2000: People’s Choice Award, Favorite Motion Picture Star in a Drama 2000: American Cinematheque Gala Tribute; American Cinematheque Award 2000: Emmy, Bester Gastdarsteller in einer Comedyserie für Friends 2002: Hasty Pudding, Mann des Jahres 2005: Goldene Kamera, Bester Internationaler Schauspieler 2005: Officier dans l’ordre des Arts et des Lettres (franz. Kulturorden) 2006: Stern auf dem Hollywood Walk of Fame 2013: Komtur dans l’ordre des Arts et des Lettres Literatur Kai Jessen: Bruce Willis. Action, Action! Heyne, München 1998, ISBN 3-453-14564-X. Annette Kilzer (Hrsg.): Bruce Willis. Bertz + Fischer Verlag, Berlin 2000, ISBN 3-929470-70-5. Berndt Schulz: Bruce Willis, Hollywoods neuer Superstar. Lübbe, Bergisch Gladbach 1992, ISBN 3-404-61221-3. Weblinks Bruce Willis bei Moviepilot Einzelnachweise Filmschauspieler Popsänger Emmy-Preisträger Golden-Globe-Preisträger Träger des Ordre des Arts et des Lettres (Komtur) Person (Idar-Oberstein) US-Amerikaner Geboren 1955 Mann
468
https://de.wikipedia.org/wiki/Benchmarking%20in%20der%20Betriebswirtschaft
Benchmarking in der Betriebswirtschaft
Benchmarking (engl. Benchmark = „Maßstab“, steht für eine Bezugs- oder Richtgröße) bezeichnet in der Betriebswirtschaft eine Managementmethode, mit der sich durch zielgerichtete Vergleiche unter mehreren Unternehmen das jeweils beste als Referenz zur Leistungsoptimierung herausfinden lässt. Dazu ist es notwendig, durch Vergleich bessere Methoden und Praktiken (Best Practices) zu identifizieren, zu verstehen, auf die eigene Situation anzupassen und zu integrieren. Benchmarking ist eine Weiterentwicklung des Betriebsvergleichs. Grundlagen Die Durchführung eines Benchmarkings beruht auf der Orientierung an den Besten einer vergleichbaren Gruppe. Diese Vorgehensweise bezeichnet man als „Best Practice“ (wörtlich: bestes Verfahren oder „die beste Lösung“). Best Practice existiert auf verschiedenen Betrachtungsebenen und tritt in folgenden Formen auf: Konzepte: Im Sinne der Effektivität geht es darum, die richtigen Dinge zu tun, Detail- oder Prozessebene: Im Sinne der Effizienz geht es darum, die Dinge richtig zu tun. Auf der obersten Betrachtungsebene werden Konzepte in Frage gestellt. Es geht darum, die „richtigen Dinge zu tun“. Auf der untersten Betrachtungsebene der Detailprozesse wird der Prozess in Frage gestellt. Hier geht es darum, die „Dinge richtig zu tun“ – also die Prozesseffizienz zu verbessern. Ein häufiger Fehler beim Benchmarking besteht darin, die Betrachtungsebenen im Vorfeld nicht klar zu definieren. Erfahrungen zeigen, dass ein Benchmarking auf Konzeptebene sich kaum mit einem auf Detailprozessebene kombinieren lässt. Die für ein Benchmarking benötigten Ansprechpartner für die beiden Ebenen sind allzu verschieden und die Methoden zur Identifikation geeigneter Benchmarking-Partner unterscheiden sich je nach Betrachtungsebene. Benchmarking ist einer der effektivsten Wege, externes Wissen rasch in das eigene Unternehmen einzubringen. Das in einem Benchmarking-Projekt erarbeitete Wissen ist in höchstem Maße praxisorientiert – denn es stammt aus der Praxis und hat sich im Alltag bewährt. In der Europäischen Union wird das Benchmarking seit Ende 1996 als eine Methode angewandt, um die Leistungskraft der einzelnen Arbeitsmärkte der EU-Länder zu vergleichen. Dabei sollen Schwächen einzelner Mitgliedstaaten offengelegt und die jeweiligen Regierungen in die Lage versetzt werden, dringend benötigte Reformen durchzuführen. Entsprechende Vergleichsmethoden sind auf den nationalen Ebenen der Politik bisher eher unüblich, der Drang nationaler oder regionaler Politik zu mehr Transparenz ist steigerungsfähig. In der Bundesrepublik Deutschland gibt es im Bereich der öffentlichen Verwaltungen und Organisationen zum einen gesetzliche Vorschriften für das Benchmarking (z. B. Krankenhäuser, Rentenversicherung), zum anderen auch freiwillige Aktivitäten in sogenannten Benchmarking-Clubs. So sind beispielsweise die gesetzlichen Unfallversicherungsträger mit wissenschaftlicher Begleitung dabei ein Prozessbenchmarking durchzuführen und weiterzuentwickeln, das sowohl qualitative, als auch quantitative Ziele und Wirkungen berücksichtigt. Es gibt bisher keine Beispiele international genormter (ISO) Benchmarks, industrielle Standards werden beispielsweise durch SPEC gesetzt. Benchmarking-Grundtypen Benchmarking-Methoden unterscheiden sich meist nur im Detaillierungsgrad und in den Bezeichnungen. Das Grundschema bleibt in etwa gleich: Vergleiche zeigen Unterschiede zwischen der eigenen Organisation und den Benchmarking-Partnern. Daraus lassen sich Folgerungen für die eigene Organisation ableiten, ein Lernprozess beginnt. Aus praktischer Sicht hat sich eine Einteilung von Benchmarking in vier Grundtypen bewährt. Die Klassifizierung erfolgt auf Grund der Eigenschaften der Benchmarking-Partner. Diese können in der eigenen oder in einer fremden Branche gefunden werden und sie gehören entweder zur eigenen oder zu einer fremden Organisation. Typ 1: Internal Benchmarking (internes Benchmarking) Internes Benchmarking findet innerhalb der eigenen Organisation und Branche statt. Ein Beispiel ist ein internationaler Zementhersteller, der den Produktionsprozess aller seiner Werke periodisch miteinander vergleicht. Der große Vorteil dieses Benchmarking-Typs ist es, dass erstens die Daten gut erhältlich und zweitens Vergleiche auf Kennzahlenebene möglich sind. Ein möglicher Nachteil kann mangelnde Akzeptanz sein, die auf das Phänomen zurückgeht, dass „der Prophet im eigenen Land“ oft nichts gilt. Eine besondere Form des internen Benchmarkings ist das Konzern-Benchmarking. Dabei zählen Benchmarking-Anstrengungen innerhalb von Konzernen, Holdings oder Konglomeraten. Das interne Benchmarking beschränkt sich also nicht mehr auf die gleiche Branche, sondern wird auf das ganze Unternehmen ausgedehnt. Der Vorteil beim Konzern-Benchmarking ist die gute Verfügbarkeit von Informationen. Abhängig von der Betrachtungsebene ist kennzahlenorientiertes Benchmarking allerdings nur noch beschränkt möglich, da die beteiligten Unternehmenseinheiten anderen Branchen angehören. Spielt sich das Benchmarking auf der Konzeptebene ab, sind Successful Practices oft nicht mehr 1:1 übertragbar. Typ 2: Competitive Benchmarking (Wettbewerbsbenchmarking) Die Benchmarking-Partner sind Unternehmen aus derselben Branche. Die Benchmarking-Partner können denselben Markt oder unterschiedliche Märkte bearbeiten. In beiden Fällen gilt das Hauptinteresse oft dem Vergleich von Kennzahlen, der allerdings aus Wettbewerbsgründen nur eingeschränkt möglich ist. Wettbewerbs-Benchmarking bedingt eine besonders gute Vorbereitung und eine sehr offene Kommunikation. Jeder Teilnehmer muss die Sicherheit erhalten, dass die abgegebenen und erhaltenen Informationen in einem ausgewogenen Verhältnis stehen. Dies lässt sich kaum mehr realisieren, sobald einer der Wettbewerber die Federführung übernimmt und für „sein“ Projekt Partner sucht. Der Vorteil dieses Benchmarking-Typs ist die klare Positionierung des eigenen Unternehmens im Wettbewerb. Dem stehen zwei Nachteile gegenüber: Erstens ist es schwierig, Kennzahlen oder sogar Prozesse mit der direkten Konkurrenz zu benchmarken. Zweitens zeigt die Erfahrung des Transferzentrums für Technologiemanagement (TECTEM) an der Universität St. Gallen, dass die Erkenntnisse aus Wettbewerbs-Benchmarking einen geringen Neuigkeitsgrad haben. Typ 3: Functional Benchmarking (funktionales oder markt-übergreifendes Benchmarking) Hier erfolgt der Vergleich mit Unternehmen der gleichen Branche in getrennten Märkten. Man vergleicht den Organisationsbereich bezüglich seiner Funktion, wie beispielsweise die interne Logistikabteilung mit einem Versandunternehmen. Es ist die universelle Art des Benchmarkings. Es bietet ein sehr hohes Lernpotenzial, da es am meisten neue Ideen und Anregungen bietet. Dieses Potenzial kann insbesondere bei Benchmarking auf Konzeptebene voll ausgeschöpft werden. Typ 4: Generic Benchmarking (generisches Benchmarking) oder auch Best-Practice-Benchmarking Das generische Benchmarking ist die reinste Form des Benchmarkings. Hier findet ein branchen- und funktionsübergreifender Vergleich von Prozessen und Methoden statt. Es wird hier ein Vergleich zwischen unverwandten Unternehmen angestrebt. Ein immer wieder zitiertes Beispiel für das generische Benchmarking ist der Vergleich der Zeiten für Be- und Entladung, Betankung, Reinigung und Sicherheitschecks von Flugzeugen mit den Boxenstopps beim Indy-500-Autorennen, den die Southwest Air Lines durchgeführt hat. Durch das Benchmarking soll eine Zeitreduzierung um 50 % möglich gewesen sein. Standardphasen des Benchmarkings Der grundlegende Ablauf eines Benchmarking-Projekts, den zuerst Robert Camp beschrieben hat, bildet die Grundlage der meisten Veröffentlichungen zum Thema Benchmarking. Er kann grob in die folgenden Phasen eingeteilt werden 1. Zielsetzungs-/Vorbereitungsphase Problemdefinition (Festlegung des Benchmarking-Objektes) und interne Voranalyse Suche und Auswahl des Benchmarking-Partners und Nominierung des Benchmarking-Teams 2. Vergleichsphase (quantitatives Benchmarking) Festlegung eines Kennzahlenrasters zur Leistungsermittlung Erhebung von Daten Analyse und Beurteilung der erhobenen Daten Einpositionierung in Form von Rankings Ermittlung des „Best Performers“ 3. Analysephase (qualitatives Benchmarking) Analysieren der Prozesse oder besten Strategie Ableiten der „Best Practices“ 4. Verbesserung und Implementierung Konzeption von Verbesserungsmaßnahmen Implementierung der Verbesserungsmaßnahmen Monitoring zur Ergebnis- und Fortschrittskontrolle Diese Schritte können wiederum zum Ausgangspunkt für ein neuerliches Benchmarking werden, das erneut in die Vergleichsphase eintritt. Ursprünge des Begriffs „Benchmarking“ Zur Etymologie des Wortes „Benchmarking“ siehe Benchmark. Der betriebswirtschaftliche Begriff „Benchmarking“ geht zurück auf die US-amerikanische Firma Xerox Corporation. Obwohl die beim Benchmarking angewandten Methoden schon sehr viel früher in der Praxis der modernen industriellen Produktion entstanden sind – zum Beispiel lässt sich die Übertragung des Fließbandprinzips aus einer Großschlachterei in die Automobilproduktion durch Henry Ford als sehr erfolgreiches Benchmarking bezeichnen –, hat sich der Begriff des Benchmarkings erst in den 1980er Jahren mit den Veröffentlichungen von Robert C. Camp zu Benchmarking-Projekten bei Xerox durchgesetzt. Diese Schriften haben der Benchmarking-Idee zum Durchbruch verholfen. Der Kopiererhersteller Xerox befand sich Ende der 1970er Jahre bedingt durch Qualitäts- und Kostenprobleme in einer schwierigen Wettbewerbsposition. Der japanische Konkurrent Canon brachte einen Kopierer zu einem Verkaufspreis auf den Markt, der wesentlich unter den Herstellkosten für vergleichbare Geräte bei Xerox lag. Die Marktanteile von Xerox fielen auf dem Kopierermarkt steil ab. Aus diesem Grund wandte Xerox 1979 zum ersten Mal ein Benchmarking an: Es wurde ein Kopierer der Konkurrenz gekauft, zerlegt und die einzelnen Komponenten mit jenen der eigenen Kopierer verglichen. So konnten die niedrigeren Herstellungskosten von Canon zu einem großen Teil erklärt werden. In einem nächsten Schritt wurden die Aktivitäten der einzelnen Wertschöpfungsketten im Unternehmen analysiert, mit dem Ergebnis, dass erhebliche Probleme in den Logistik- und Vertriebsprozessen aufgedeckt werden konnten. Unter anderem wurden die logistischen Prozesse der Materialentnahme bei dem Kopiergerätehersteller mit dem des Outdoor-Artikel-Versenders L.L.Bean verglichen. Dies veranlasste Xerox zu Folgeprojekten, wobei unter anderem Pharmagroßhändler und Haushaltsgerätehersteller als Benchmark dienten. Aufgrund dieser ersten Erfolge wurde Benchmarking bald zu einer Hauptsäule der Xerox-Strategie. 1992 erfolgte die erste Gründung eines IBC (international benchmarking clearing house), einer Einrichtung, die als Dienstleistung anbietet, Benchmarkingpartner zu vermitteln. 1994 gründete das Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik (IPK) das Informationszentrum Benchmarking (IZB). Das Global Benchmarking Network (GBN) wurde 1994 aus der Taufe gehoben. Für Camp stand die Identifikation und Implementation von „Best Practices“ im Mittelpunkt. Einem rein quantitativen Benchmarking, also dem bloßen Vergleich von Kennzahlen, sprach er nur in Verbindung mit einer vertieften Analyse der Praktiken einen Nutzen zu. Seither hat sich das Benchmarking über mehrere Generationen weiterentwickelt und zu unterschiedlichen Erscheinungsformen geführt. Best Practices oder Successful Practices Der im Benchmarking häufig verwendete Begriff der Best Practices ist nur dann korrekt, wenn ein Benchmarking eine vollständige, weltweite Analyse beinhaltet. Dies ist nur in den wenigsten Fällen praktikabel. Ein Beispiel wäre der Herstellungsprozess von Mikrochips für hoch integrierte Prozessoren. Hier sind alle „Global Players“ bekannt und könnten in ein Benchmarking einbezogen werden. In der Regel ist eine globale Analyse aus Zeit- und Kostengründen allerdings kaum möglich oder sinnvoll. Der Anspruch des Benchmarking besteht in den meisten Fällen nicht darin, die besten Praktiken zu finden, sondern erfolgreiche (wobei die Kriterien für den Erfolgsnachweis im Vorfeld definiert werden müssen). Die Literatur spricht hier von Successful Practices. Benchmarking in der Volkswirtschaftslehre Auch in der Volkswirtschaftslehre wird Benchmarking betrieben. Hier geht es um die Wettbewerbsfähigkeit von: Regionen (z. B. Bundesländern) Branchen Staaten (z. B. nationale Arbeitsmärkte in der EU s.o.) Benchmarking-Ergebnisse werden u. a. im Global Competitiveness Report des World Economic Forum veröffentlicht. Einzelnachweise Sinnverwandte Begriffe Benchmark als genormtes Testverfahren zur Performancemessung von Geräten, siehe zum Beispiel EDV-Benchmark Total-Quality-Management Prozessbenchmarking Produktbenchmarking Benchmark Award Siehe auch Liste der Controllinginstrumente Literatur Robert C. Camp: Benchmarking. The search for industry best practices that lead to superior performance. Quality Press, Milwaukee, Wisconsin 1989, ISBN 0-87389-058-2. Robert C. Camp: Benchmarking. (Deutsche Übersetzung von: Benchmarking. The search for industry best practices that lead to superior performance.) Hanser, München 1994, ISBN 3-446-17606-3. Robert C. Camp; Bjørn Andersen: Current Position and Future Development of Benchmarking. BM Survey Results, 11. Februar 2004, Artikel-Download bei globalbenchmarking.org: Xerox Corporation: Leadership through quality. Implementing competitive benchmarking. Stamford CT 1987. Holger Kohl: Process Benchmarking at the German Fraunhofer Information Centre Benchmarking (ICB). In: NPC Best Practice Digest, June 2004. Artikel-Download bei globalbenchmarking.org: Best Practice Digest Fritz Fahrni (Hrsg.): Erfolgreiches Benchmarking in Forschung und Entwicklung, Beschaffung und Logistik. Carl Hanser Verlag, München/ Wien 2002, ISBN 3-446-21790-8. Gunnar Siebert, Stefan Kempf: Benchmarking. Hanser Wirtschaft, München 2002, ISBN 3-446-21850-5. Arndt-Alexander Böhnert: Benchmarking. Charakteristik eines aktuellen Managementinstruments. Kovač, Hamburg 1999, ISBN 3-86064-901-9. Rolf Straub: Benchmarking. Eine Darstellung des Benchmarking als modernes Instrument zur Leistungsverbesserung. Dissertation. Universität Zürich, 1997. James G. Patterson: Grundlagen des Benchmarking. Die Suche nach der besten Lösung. Ueberreuter, Wien 1996, ISBN 3-7064-0251-3. Weblinks GBN, Global Benchmarking Network Managementlehre bg:Бенчмаркинг
469
https://de.wikipedia.org/wiki/Beobachter
Beobachter
Beobachter steht für: Person, die eine qualitative Beurteilung macht, siehe Beobachtung Beobachter in militärischen Funktionen, siehe Spotter #Spotting beim Militär Beobachter (Physik), Konzept in der Physik Beobachter (Entwurfsmuster), Entwurfsmuster aus dem Bereich der Softwareentwicklung Beobachter (Regelungstechnik), Verfahren der Regelungstechnik Beobachter (Zeitschrift), schweizerische Konsumenten- und Beratungszeitschrift Beobachter TV, crossmediale TV-Serie von SRF Siehe auch: Beobachterstatus (für eine Person oder Organisation) Deutscher Beobachter (Begriffsklärung) Niedersächsischer Beobachter (Begriffsklärung)
470
https://de.wikipedia.org/wiki/Bin%C3%A4r
Binär
binär (von lateinisch bina „doppelt, paarweise“) steht für: Mathematik: Codierungseigenschaft, siehe Binärcode Zahlensystemeigenschaft, siehe Dualsystem Eigenschaft von Beziehungen, siehe Relation (Mathematik) Eigenschaft von Verknüpfungen, siehe Zweistellige Verknüpfung Naturwissenschaft: Mischungseigenschaft, siehe Phasendiagramm #Ideale binäre Mischung (Zweistoffsystem) Verbindungseigenschaft, siehe Chemische Verbindung #Binäre, ternäre und quaternäre Verbindungen Kampfstoffeigenschaft, siehe binärer Kampfstoff Sprengstoffeigenschaft, siehe binäre Sprengstoffe Weiteres: Eigenschaft von Namen, siehe Binomen Binäre Geschlechterordnung Eigenschaft von Geschlechtsidentitäten, siehe Geschlechtsidentität #Binäre Geschlechtsidentität Siehe auch: Binar (Begriffsklärung)
472
https://de.wikipedia.org/wiki/Black%20Box
Black Box
Black Box oder Blackbox (engl. [], ‚schwarzer Kasten‘) steht für: Black Box (Systemtheorie), ein geschlossenes System unter Vernachlässigung des inneren Aufbaus, siehe dort auch zur Wortherkunft einen dunklen und schallisolierten Raum, siehe Camera silens EA Black Box, kanadisches Entwicklungsstudio für Computerspiele eine bestimmte Implementierungstechnik für Frameworks, siehe Framework Black Box (Psychologie), speziell im Behaviorismus alle kognitiven (innerpsychischen) Vorgänge in der Verhaltensforschung Black Box (Band), ein Dance-Projekt Blackbox (Online-Community), eine Online-Community in Österreich Blackbox (Fenstermanager), eine Software zur Verwaltung der GUI eines Computers (Window-Manager) Black Box (Zeitschrift), deutsche Filmzeitschrift BlackBox Component Builder, Softwareentwicklungsumgebung für Component Pascal ein Kino im Filmmuseum Düsseldorf, siege Filmmuseum Düsseldorf#Kino Black Box Umgangssprachlich für Datenschreiber verschiedener Verkehrsmittel: für einen Flugdatenschreiber (en: flight data recorder, FDR) oder Stimmenrekorder (cockpit voice recorder, CVR) zur Unfallanalyse in Flugzeugen für die Unfallanalyse in Kraftfahrzeugen, den Unfalldatenspeicher in Schiffen, den Schiffsdatenschreiber, siehe Voyage Data Recorder für die Datenschreiber in Zügen, siehe Elektronische Fahrtenregistrierung Werke: Black Box (Amos Oz), ein Roman von Amos Oz aus dem Jahr 1986 Black Box (Connelly), ein Kriminalroman von Michael Connelly aus dem Jahr 2012 Black Box (Egan), ein Twitter-Roman von Jennifer Egan Blackbox (von Stuckrad-Barre), ein Buch von Benjamin von Stuckrad-Barre Blackbox (Album), einem Album der Band Brandhärd Black Box (Fernsehserie), eine US-amerikanische Fernsehserie The Black Box, französischer Spielfilm von Richard Berry (2005) Black Box (Film), US-amerikanischer Horrorfilm von Emmanuel Osei-Kuffour (2020) Black Box (2023), deutsch-belgischer Spielfilm von Aslı Özge Black Box – Gefährliche Wahrheit, französischer Spielfilm von Yann Gozlan (2021) Black Box (Spiel), ein Spiel von Eric W. Solomon Polizeiruf 110: Black Box, ein Fernsehfilm aus der ARD-Krimireihe Polizeiruf 110 aus dem Jahr 2022
473
https://de.wikipedia.org/wiki/Brainstorming
Brainstorming
Brainstorming ist eine von Alex F. Osborn 1939 entwickelte und von Charles Hutchison Clark modifizierte Methode zur Ideenfindung, die die Erzeugung von neuen, ungewöhnlichen Ideen in einer Gruppe von Menschen fördern soll. Er benannte sie nach der Idee dieser Methode, nämlich using the brain to storm a problem (wörtlich: „das Gehirn verwenden, um ein Problem zu stürmen“). Hilbert Meyer verwendet in Unterrichtsmethoden als Übersetzungsangebot den Begriff „Kopfsalat“, der VDS schlägt „Denkrunde“ und „Ideensammlung“ vor. Technik und Einsatzgebiet Der Name Brainstorming hat sich schnell verbreitet, wird heute aber auch für andere Techniken als die von Osborn beschriebene verwendet. Anwendung findet dieses Verfahren bevorzugt im gesamten Bereich der Werbung. Es wird aber mit mehr oder weniger Erfolg auch bei sämtlichen Problemen eingesetzt, zum Beispiel bei der Produktentwicklung oder beim Konstruieren neuer technischer Geräte. Die Ergebnisse eines Brainstormings können in weiteren Arbeitsschritten verwendet werden, es kann aber auch das (ergebnislose) Brainstorming allein als kreative Lockerungsübung eingesetzt werden. Das ursprüngliche Verfahren sieht zwei Schritte vor: Vorbereitung Es wird eine Gruppe aus beliebig vielen Personen zusammengestellt. Je nach Problemstellung kann sie aus Experten/Mitarbeitern, Laien oder Experten anderer Fachgebiete bestehen. Die Gruppenleitung bereitet Anschauungsmaterial vor und führt die Gruppe in das Problem ein, das dabei analysiert und präzisiert wird. Dabei sollte die Frage- bzw. Aufgabenstellung weder zu breit und allgemein gehalten sein („Wie können wir die Welt retten?“) noch zu kleinteilig bzw. spezifisch („Welches Klebeverfahren um Bauteil A an B zu befestigen?“). Den Gruppenmitgliedern wird im Vorfeld der Ablauf des Brainstormings mitgeteilt, ob es sich um ein moderiertes oder nicht moderiertes Brainstorming handelt. Ein Protokollant kann ernannt werden. Vier grundsätzliche Regeln gelten beim Brainstorming: Kombinieren und Aufgreifen von bereits geäußerten Ideen ist erwünscht. Kommentare, Korrekturen und Kritik sind verboten. Viele Ideen in kürzester Zeit (Zeitrahmen ca. 5–30 min) Freies Assoziieren und Phantasieren ist erlaubt. Phase Eins: Ideen finden Nun nennen die Teilnehmer spontan Ideen zur Lösungsfindung, wobei sie sich im optimalen Fall gegenseitig inspirieren und untereinander Gesichtspunkte in neue Lösungsansätze und Ideen einfließen lassen. Die Ideen werden protokolliert. Alle Teilnehmenden sollen ohne jede Einschränkung Ideen produzieren und mit anderen Ideen kombinieren. Auch sollte die Phase in einem Zeitrahmen um die 30 bis 45 Minuten liegen. Die Gruppe sollte in eine möglichst produktive und erfindungsreiche Stimmung versetzt werden. In dieser Phase gelten folgende Grundregeln: Keine Kritik an anderen Beiträgen, Ideen, Lösungsvorschlägen (kreative Ansätze können sich auch aus zunächst völlig unsinnigen Vorschlägen entwickeln). Keine Wertung oder Beurteilung der Ideen. Jeder soll seine Gedanken frei äußern können. Keine unsachlichen Argumente. Je kühner und phantasievoller, desto besser. Dadurch wird das Lösungsfeld vergrößert. Phase Zwei: Ergebnisse sortieren und bewerten Nach einer Pause werden nun sämtliche Ideen (von der Gruppenleitung) vorgelesen und von den Teilnehmern bewertet und sortiert. Hierbei geht es zunächst nur um bloße thematische Zugehörigkeit und das Aussortieren von problemfernen Ideen. Die Bewertung und Auswertung kann in derselben Diskussion durch dieselben Teilnehmer erfolgen oder von anderen Fachleuten getrennt vorgenommen werden. Aspekte der Gruppendynamik beim Brainstorming Nach einer Studie aus dem Jahr 2002 von Henk Wilke und Arjaan Wit spielt die Gruppendynamik beim Brainstorming eine große Rolle. Als bekannteste und weit verbreitete Kreativitätstechnik ist es für einen effektiven und effizienten Einsatz von Brainstorming sinnvoll, gruppendynamische Prozesse und Problemfelder zu kennen und ihnen gegebenenfalls entgegenzuwirken. Es geht hierbei um Auswirkungen der Gruppenstruktur, aber auch um potentielle Prozess- sowie Motivationsverluste, die Einfluss auf die Ergebnisse des Brainstormings nehmen können. Dabei sind Aspekte der Gruppenstruktur, der Rollendifferenzierung, der Statusdifferenzierung und der Kommunikationsmuster zu beachten, ansonsten können Prozess- und Motivationsverluste entstehen. Schwächen – Varianten – Kritik Untersuchungen behaupten, dass schon die Äußerung einer Idee die Ideenfindung der anderen Teilnehmenden beeinflusst. Daher sei es sinnvoll, alle Teilnehmenden vor dem eigentlichen Brainstorming ihre Ideen aufschreiben zu lassen, um danach zunächst gänzlich unbeeinflusst davon berichten zu können. Laut einem Bericht in „Bild der Wissenschaft“ 1/2005 nützt die traditionelle Brainstorming-Methode jedoch nachweislich nichts: 50 Studien zeigten ein vernichtendes Ergebnis, die Kandidaten konnten es in Gruppen nicht besser, weil sie sich gegenseitig blockierten. Meist mussten sie warten, bis ein anderer ausgeredet hatte, was ihre Kreativität hemmte. Dieses Phänomen wird Produktionsblockierung genannt. Einzelkämpfer hingegen hatten nicht nur mehr, sondern auch bessere Eingebungen als die Gruppe. Kreativität hinge somit eher vom Bewusstseinsstand der Einzelnen ab. Anders verhält es sich mit elektronischem Brainstorming, das mit Hilfe elektronischer Meetingsysteme online durchgeführt wird. Diese Systeme setzen wesentliche Grundregeln des Brainstormings auf technischer Ebene durch und hebeln schädliche Einflüsse der Gruppenarbeit dank Anonymisierung und Parallelisierung der Eingaben aus. Die positiven Effekte elektronischen Brainstormings verstärken sich mit wachsender Gruppengröße. Um weniger ausdrucksstarke, aber gleichwertig qualifizierte Mitarbeiter einzubeziehen, kann auch auf Brainwriting oder die Collective-Notebook-Methode ausgewichen werden. Auch hier gilt, dass jede Variation in Umgebung und Art der Durchführung neue Impulse liefert. Als hilfreich erweist sich bei Brainstormings auch, sogenannte Outsider in das Brainstorming einzubeziehen. Mitglieder innerhalb einer Organisation blockieren zumeist bei der Ideenfindung, weil sie zu sehr in bestimmten Strukturen denken und darin gefangen sind. Leute von außerhalb können die Denkprozesse beschleunigen und positiv beeinflussen. Andererseits sind wiederum geübt kreative Menschen in der Lage, sich innerhalb einer Brainstorming-Sitzung gegenseitig anzuregen und zu beflügeln. Die Brauchbarkeit der Ideen hängt wesentlich von der Vertrautheit der Teilnehmenden mit dem Problemgebiet ab, vielfältige Interessen und breite Allgemeinbildung sind ebenfalls vorteilhaft. Brainstorming und verwandte Methoden werden manchmal nur deshalb angewendet, um möglichst viele Personen an der Problemlösung zu beteiligen, also aus (betriebs-)politischen Gründen. In solchen Fällen spielt die Effektivität keine große Rolle. Wird Brainstorming streng ergebnisorientiert eingesetzt und auch nur von für diese Methode geeigneten Personen ausgeübt, kann es sehr schnell zu guten Teilergebnissen führen, die wiederum weitere Arbeitsschritte befruchten. Ein Sozialpsychologe der Universität Utrecht machte bezüglich Brainstorming ein Experiment, in dem 20 allein nachdenkende Menschen bis zu 50 % mehr und originellere Einfälle hatten als „Teams“, die klassisches Brainstorming betrieben. Vor- und Nachteile Vorteile Ermöglicht Finden innovativer Ideen und ausgefallenen Problemlösungen Einsatz, wenn normale Techniken keine weiteren Lösungsansätze bieten (Sackgasse) Einfach zu handhaben Geringe Kosten Ausnutzung von Synergieeffekten infolge der Gruppenbildung Nachteile Sehr abhängig von den Teilnehmern Gefahr des Abschweifens Aufwändige Selektion geeigneter Ideen Gefahr gruppendynamischer Konflikte Anwendung Für Problemarten einfacher Komplexität Gut geeignet für Problemlösungen auf rein sprachlicher Ebene (Namens- und Slogan-Findung) Geeignet für Zielformulierung und Aussagen mit Symbolcharakter Brauchbar als Einstieg in ein Thema, um das Feld der Lösungsansätze abzustecken Variationen Elektronisches Brainstorming: Anonymisierung und Parallelisierung von Ideen; überwindet soziale Barrieren in der Gruppe; Vorteile wachsen mit Größe der Gruppe Brainwriting (in verschiedenen Formen): Schriftliche Ideensammlung; besser geeignet für stillere Teilnehmer oder Gruppen, in denen mit Spannungen zu rechnen ist Brainwalking: Ideensammlung in Bewegung und auf im Raum verteilten Plakaten mit unterschiedlichen Fragestellungen; besser geeignet für größere Gruppen und erfahrene Teilnehmer Kollektivnotebook: Es werden Notizen gemacht und weitergereicht ABC-Brainstorming: Kann eingesetzt werden, wenn „normales“ Brainstorming stockt oder wenn sich die Gruppe erst den begrifflichen Kontext eines Problems erarbeiten möchte. Die Methode ist geeignet für Fragestellungen, die viele Begriffe liefern kann. Es gibt zwei Varianten: Die Buchstaben A bis Z werden untereinander auf eine Tafel geschrieben. Die Teilnehmer werden der Reihe nach aufgefordert, zu jedem Buchstaben einen Begriff zu suchen. Der Moderator notiert den Begriff hinter dem jeweiligen Buchstaben. In aufsteigender Reihenfolge wird zu jedem Buchstaben jeweils ein Begriff gesucht und an der Tafel notiert. Hierbei werden von einem erfahrenen Moderator die Begriffe gleich an der Tafel vor sortiert/gruppiert. Anschließend werden die Begriffe in der Gruppe geordnet, zusammengefasst, hinterfragt, gelöscht oder verfeinert. Problem: Nennung wichtiger Begriffe wird verhindert, wenn der dazugehörige Buchstabe bereits mit einem anderen Begriff „belegt“ ist. Literatur M. Nückles, J. Gurlitt, T. Pabst, A. Renkl: Mind Maps und Concept Maps. Visualisieren – Organisieren – Kommunizieren. Beck-Wirtschaftsberater im dtv, München 2004, ISBN 3-423-50877-9. Charles Hutchison Clark: Brainstorming: How to Create Successful Ideas. Wilshire Book Company, 1989, ISBN 0-87980-423-8. A. F. Osborn: Applied Imagination. Charles Scribner’s Sons, New York 1957. A. Bosse: Das kollektive Genie: Die Innovationsleistung rollengestützter Gruppen. Tectum, Marburg 2007, ISBN 978-3-8288-9332-0. Paul B. Paulus, Bernard A. Nijstad (Hrsg.): Group Creativity: Innovation Through Collaboration. Oxford University Press, London, ISBN 0-19-514730-8. H. Rätzsch: Ideenfindung. Vogel, Würzburg 1999, ISBN 3-8023-1786-6. H. Wilke, A. Wit: Gruppenleistung. In: K. Jonas, M. Hewstone (Hrsg.): Sozialpsychologie. Eine Einführung. Springer, Berlin 2002, ISBN 3-540-42063-0, S. 497–535. Werner Gilde, Claus-Dieter Starke: Ideen muss man haben um es zu können. Urania-Verlag, Leipzig/ Jena/ Berlin 1969. Weblinks Einzelnachweise Methode der Kommunikation Kreativitätstechnik
474
https://de.wikipedia.org/wiki/Buckminster%20Fuller
Buckminster Fuller
Richard Buckminster Fuller (oft abgekürzt zu R. Buckminster Fuller, auch Bucky Fuller genannt; * 12. Juli 1895 in Milton, Massachusetts; † 1. Juli 1983 in Los Angeles) war ein US-amerikanischer Architekt, Konstrukteur, Visionär, Designer, Philosoph und Schriftsteller. Leben und Wirken Fuller stammte aus einer wohlhabenden Familie. Er war eines von vier Kindern des Lederwarenhändlers Richard Buckminster Fuller und dessen Frau Caroline Wolcott Andrews. Er war zudem der Großneffe von Margaret Fuller, einer amerikanischen Journalistin und Bürgerrechtlerin. Sein Cousin war der Journalist und Schriftsteller John Phillips Marquand, der 1938 den Pulitzer-Preis für seinen Roman Der selige Mister Apley erhielt. 1914 lernte er Anne Hewlett (1896–1983), Tochter des prominenten New Yorker Architekten James Monroe Hewlett, kennen. Die beiden heirateten in New York am 12. Juli 1917, seinem 22. Geburtstag. Sie hatten zwei Töchter, Alexandra (1918–1923) und Allegra (1927–2021). Alexandra starb mit vier Jahren an Kinderlähmung und spinaler Meningitis. Allegra Fuller Snyder gründete das Board of Directors des Buckminster Fuller Institute und wurde dessen Vorsitzende. Buckminster Fuller begann 1912 in Harvard zu studieren, brach das Studium jedoch ab und wurde Marinesoldat. 1927, im Alter von 32 Jahren, war er bankrott, arbeitslos und nach dem Tode seines ersten Kindes nahe daran, sich das Leben zu nehmen. Er beschloss, sein weiteres Leben als Experiment zu verstehen: Er wollte feststellen, was eine einzelne Person dazu beitragen kann, die Welt zum Nutzen der Menschheit zu verändern. Er begann, sein Leben peinlich genau in einem Tagebuch zu dokumentieren, das er dann ein halbes Jahrhundert lang führte. Nach mehreren Anstellungen in der Industrie, unter anderem in der Exportabteilung eines fleischverarbeitenden Unternehmens, begann er als Architekt zu arbeiten. In den späten zwanziger Jahren hatte er einigen Erfolg mit neuen Gebäudekonzepten, die er unter dem Namen Dymaxion (Dymaxion-Globus) der Öffentlichkeit vorstellte. Weitere Entwürfe energie- und/oder materialeffizienter Konstruktionen (zum Beispiel ein stromlinienförmiges Auto, ein Badezimmer, Tensegrity) folgten, wurden patentiert und teilweise ebenfalls unter dem Warenzeichen Dymaxion vermarktet. 1970 wurde Fuller zum Mitglied (NA) der National Academy of Design gewählt. Bekannt wurde Fuller durch seine Domes oder geodätischen Kuppeln, auch Fuller-Kuppeln genannt, die man meist auf Ausstellungen, in Science-Fiction-Filmen oder als Teil von Militäranlagen (Radarkuppeln) sehen kann und die er 1948 mit Studenten am Black Mountain College im Projektstudium zusammen mit Josef Albers baute. Die bekannteste ist die Biosphère, der Ausstellungspavillon der Vereinigten Staaten an der Expo 67 in Montreal. Auch Achterbahnen fanden in diesen Kugeln Platz (zum Beispiel der Eurosat im Europa-Park bei Rust). Sie basieren auf einer Weiterentwicklung von einfachsten geometrischen Grundkörpern (Tetraeder als 3-Simplex, Oktaeder und dichteste Kugelpackungen) und sind extrem stabil sowie mit geringem Materialaufwand realisierbar. Das Konstruktionsprinzip wurde 1954 patentiert. Ebenso bekannt ist auch sein ab 1965 entworfener Fly’s Eye Dome. Fuller sah als einer der Ersten das Wirken der Natur als durchgängiges systemisches Wirken unter wirtschaftlichen Prinzipien (Material- und Energieeffizienz und die damit verbundene Tendenz zur Ephemerisierung). Als Maß der Verfügbarkeit von (fossiler) Energie prägte er 1940 den Begriff „energy slave“. Ein anderer wichtiger Aspekt war für ihn das Entdecken von nutzbaren Synergien, ein Begriff, den er mitprägte. Er wirkte als Designer, Wissenschaftler, Forscher, Entwickler und Schriftsteller und propagierte dabei frühzeitig globale und kosmische Sichtweisen, wie in „Bedienungsanleitung für das Raumschiff Erde“. Den Sinn des Lebens in der Moderne untersuchte er mit der Frage nach der „Integralfunktion des Menschen im Universum“. Seine in späteren Jahren entwickelten Methoden und technischen Konstruktionen versuchen Minimalprinzipien in den Bereichen der Technik fortzuentwickeln, um zur Vermeidung des „kosmischen Bankrottes“ Mittel zur nachhaltigen Fortentwicklung unserer Zivilisation bereitzustellen. Diesem Zweck diente auch 1961 die Propagierung des Spieles World Game, das – im Gegensatz zu Konfliktsimulationen – praktisch aufzeigen sollte, wie spontane Kooperation das Leben aller Menschen verbessern kann. R. Buckminster Fuller starb 1983 in Los Angeles, keine 36 Stunden vor seiner Frau Anne. Das Grab der beiden befindet sich auf dem Friedhof Mount Auburn in Cambridge, Massachusetts. Preise und Auszeichnungen 1968 wurde Fuller Professor an der Southern Illinois University Carbondale, später auch an der University of Pennsylvania. Zwischen 1954 und 1981 erhielt Fuller 47 Ehrendoktorate sowie über 100 Auszeichnungen und Preise. Nach ihm wurde die dritte bekannte elementare Modifikation des Kohlenstoffs benannt, die Fullerene, deren chemische Struktur an seine Kuppelbauten erinnert. Das bisher am besten erforschte Fulleren C60 wird auch als Buckminster-Fulleren beziehungsweise Bucky Ball bezeichnet. Fuller war Mitglied und später auch Vorsitzender des Vereins für Hochbegabte Mensa International. Außerdem wurde er 1963 in die American Academy of Arts and Letters und 1968 in die American Academy of Arts and Sciences aufgenommen. 2004 ehrte ihn der United States Postal Service mit einer Briefmarke zum 50. Jahrestag der Patentierung der geodätischen Kuppeln. Ausstellungen 2011: MARTa Herford: Bucky Fuller & Spaceship Earth und Wir sind alle Astronauten. Universum Richard Buckminster Fuller im Spiegel zeitgenössischer Kunst Trivia Der amerikanische Künstler Matthew Day Jackson ehrte Fuller durch das im Jahre 2007 entstandene Porträt Bucky aus Holz mit einem aus Perlmutt eingelegten Auge. Das Objekt wurde im Jahre 2010 bei Christie’s in New York an den Juwelier Laurence Graff verkauft. Das Buckminster-Fulleren ist nach ihm benannt. Werke (Auswahl) Konzepte und Gebäude: Dymaxion-Haus (1928) Dymaxion-Auto (1933) Vorgefertigte kompakte Nasszelle (1937) Weltkarten (1940) Geodätische Gebäude (1943) Aluminium-Haus mit Außenhülle aus Plexiglas in Kugelform, hergestellt von Beech Aircraft (1948): keilförmiges Wohnzimmer von 34 m², drei weitere keilförmige Räume, zwei Bäder, ein Vorratsraum mit Kühlschrank, ein Abwaschraum, drei Toiletten, ein Korridor; Gewicht 3 Tonnen Tensegritätsstrukturen (1949) Geodätische Kuppel für die Ford Motor Company (1953) Patent auf geodätische Kuppeln (1954) World Peace Game, Strategie-Spiel als Alternative zu Kriegsspielen mit dem Ziel allgemeinen Weltfriedens ohne ökologische Zerstörungen (1961) Veröffentlichungen (Auswahl) Nine Chains to the Moon. J. B. Lippincott, New York 1938 Education automation. Freeing the Scholar to Return to His Studies. Doubleday, Garden City, 1960 Erziehungsindustrie. Prospekt universaler Planung und Instruktion. Edition Voltaire, Berlin 1970 Operating Manual for Spaceship Earth. Southern Illinois University Press, Carbondale und Edwardsville 1969, , Version vom 25. Dezember 2011 im Internet Archive Bedienungsanleitung für das Raumschiff Erde und andere Schriften. Rowohlt, Reinbek 1973, ISBN 3-499-25013-6; veränderte Neuausgabe: Verlag der Kunst, Amsterdam/Dresden 1998, ISBN 90-5705-015-3 The Prospect for Humanity. In: Saturday Review. 1964 Die Aussichten der Menschheit. 1965–1985. Edition Voltaire, Frankfurt/Berlin 1968 Utopia or oblivion. Jargon Press, Highlands 1969 Konkrete Utopie. Die Krise der Menschheit und ihre Chance zu überleben. Econ-Verlag, Düsseldorf/Wien 1974, ISBN 3-430-12994-X Intuition. Anchor & Doubleday, Garden City 1971 Synergetics. Explorations in the Geometry of Thinking (mit E. J. Applewhite). Macmillan, New York 1975/79 Tetrascroll. Goldilocks and the Three Bears. A Cosmic Fairy Tale. Universal Limited Art Editions, West Islip 1975 Goldlöckchen und die drei Bären. Ein Märchen erklärt die moderne Weltsicht im Raumzeitalter = Tetrascroll. DuMont, Köln 1983, ISBN 3-7701-1515-5 Critical Path. St. Martin’s Press, New York 1981 St. Martin’s Press, New York 1983 Grunch. Raubzug der Giganten. VAP, Wiesbaden 1985, ISBN 3-922367-15-1 Cosmography. A Posthumous Scenario for the Future of Humanity (mit Kiyoshi Kuromiya). Macmillan, New York 1992, ISBN 0-02-541850-5 Ideas and Integrities: A Spontaneous Autobiographical Disclosure (Series Editor Jaime Snyder), Lars Müller Publishers, Baden/CH 2010, ISBN 978-3-03778-198-2 Literatur Jürgen Claus, „Die strukturelle Geometrie Buckminster Fullers“, in: Jürgen Claus, „Expansion der Kunst“, rowohlts deutsche enzyklopädie, Rowohlt Verlag, Reinbek bei Hamburg 1970, ISBN 3-499-55334-1, S. 24 ff. Amy C. Edmondson: Birkhäuser, Boston 1987, ISBN 0-8176-3338-3. David Kuchenbuch: Welt-Bildner. Arno Peters, Richard Buckminster Fuller und die Medien des Globalismus, 1940–2000, Wien, Köln, Weimar 2022, ISBN 978-3-412-52111-0. Joachim Krausse & Claude Lichtenstein (Hrsg.): Your Private Sky. R. Buckminster Fuller. Design als Kunst einer Wissenschaft. Müller, Baden 2000, ISBN 3-907044-93-2 (Ausstellungskatalog des Museums für Gestaltung Zürich). Joachim Krausse & Claude Lichtenstein (Hrsg.): Your Private Sky. R. Buckminster Fuller. Diskurs. Müller, Baden 2000, ISBN 3-907044-95-9 (Ergänzungsband zum Ausstellungskatalog). K. Michael Hays, Dana A. Miller (Hrsg.): Buckminster Fuller: Starting with the Universe. Yale University Press (Whitney Museum of American Art) New York 2008, ISBN 0-300-12620-4. Christof Kehr (Hrsg.): Wir sind alle Astronauten. Universum Richard Buckminster Fuller im Spiegel zeitgenössischer Kunst, Bielefeld 2011, ISBN 978-3-86678-576-2. Alec Nevala-Lee: Inventor of the Future: The Visionary Life of Buckminster Fuller. Dey Street, New York 2022, ISBN 978-0-06-294722-2. Elena Ochoa Foster (Hrsg.): Dymaxion Car: Buckminster Fuller, Ivory Press 2011, ISBN 978-0-9564339-3-0. Kolja Reichert, Alles wird besser und besser, FAS Nr. 5/2018 von 4. Februar 2018, S. 44. Weblinks Deutschlandfunk: Nachrichten vom Raumschiff Erde – Der amerikanische Visionär Buckminster Fuller, Feature von Michael Langer, ausgestrahlt am 18. Dezember 2009, aufgerufen am 12. Mai 2010 Website des Buckminster Fuller Institute Buckminster Fuller auf Video in der Medialounge des Zentrums für Kunst und Medientechnologie (QuickTime) Website des Buckminster Fuller Virtual Institute R. Buckminster Fuller: Thinking Out Loud, Website zu einer TV-Dokumentation aus der Reihe American Masters Vor 125 Jahren geboren: Richard Buckminster Fuller und das Raumschiff Erde Porträt von Jochen Stöckmann, Deutschlandfunk, 12. Juli 2020 we are all astronauts. a random design project Nonlineare Webseite der Agentur urbn; interaction design zu Buckminster Fullers Theorien Referat auf der Website der TU Darmstadt Porträt von Marco Siebertz, Roger Nr. 3 Einzelnachweise Architekt (Vereinigte Staaten) Industriedesigner Autor Literatur (20. Jahrhundert) Literatur (Englisch) Literatur (Vereinigte Staaten) Sachliteratur Designkritiker Tagebuch Hochschullehrer (Southern Illinois University Carbondale) Mitglied der American Academy of Arts and Letters Mitglied der American Academy of Arts and Sciences Träger der Presidential Medal of Freedom US-Amerikaner Geboren 1895 Gestorben 1983 Mann
475
https://de.wikipedia.org/wiki/Bayern
Bayern
Bayern (; Ländercode BY; amtlich Freistaat Bayern) ist das flächengrößte der 16 Länder der Bundesrepublik Deutschland und liegt in deren Südosten. Mit rund  Millionen Einwohnern ist es das zweitbevölkerungsreichste deutsche Land. Die Landeshauptstadt und bevölkerungsreichste Stadt ist München mit rund  Millionen Einwohnern. Der Freistaat hat im Süden Anteil am Hochgebirge der Ostalpen und an dem bis zur Donau reichenden flachen Alpenvorland. Nördlich der Donau bestimmen Mittelgebirge wie der Bayerische Wald oder das Fichtelgebirge das Landschaftsbild. Seine staatsrechtliche Ordnung beruht auf der Verfassung des Freistaates Bayern. Die Bezeichnung Freistaat trägt Bayern seit 1918 mit der Ausrufung als Republik und dem damit verbundenen Ende des Königreichs Bayern. Bereits im Jahre 555 n. Chr. und damit rund 500 Jahre vor der Verwendung des Begriffs deutsch im heutigen Sinn ist das ältere bayerische Stammesherzogtum nachgewiesen, das Teil des fränkischen Herrschaftsbereichs wurde. Unter den Karolingern entstand erstmals ein baierisches Königtum. Nach dem Ende der Herrschaft der Karolinger erstarkte die baierische Eigenständigkeit im jüngeren bayerischen Stammesherzogtum. Mit Beginn der Herrschaft der Wittelsbacher 1180 folgte der Übergang zum Territorialstaat. Sie regierten Bayern über 700 Jahre bis 1918. Baiern war Kurfürstentum des Heiligen Römischen Reiches und ab 1806 Königreich. Durch die Verfassungen von 1808 und 1818 wurde Bayern konstitutionelle Monarchie. Bayern konnte auf dem Wiener Kongress 1814 als eine der Siegermächte einen großen Teil der Gebietsgewinne behalten; unter anderem kamen Teile Frankens, Schwabens und die neugeschaffene linksrheinische Pfalz zu Bayern. 1918 brach die Wittelsbachermonarchie in der Novemberrevolution zusammen. In der Weimarer Republik verlor Bayern seine Reservatrechte weitgehend zugunsten des Reichs. Nach der NS-Machtergreifung erfolgte schrittweise die Aushebelung sämtlicher politischen Möglichkeiten Bayerns, so des Bayerischen Landtags, aber auch der bayerischen Staatsbürgerschaft. Die Amerikanische Besatzungsmacht stellte Bayern 1945 offiziell wieder als unabhängigen Staat her. Die Pfalz wurde 1946 von Bayern abgetrennt und ist heute Teil von Rheinland-Pfalz. 1949 gründete der Freistaat unter Vorbehalten die Bundesrepublik mit. Traditionell gliedert es sich in die drei Landesteile und „Stämme“ Altbayern (Bezirk und Regierungsbezirk Oberpfalz, Ober- und Niederbayern), Franken (Ober-, Mittel- und Unterfranken) und Schwaben. Die Heimatvertriebenen aus den ehemaligen deutschen Ostgebieten werden als vierter Stamm bezeichnet. Geographie Der Freistaat hat im Süden Anteil am Hochgebirge der Ostalpen und an dem bis zur Donau reichenden flachen Alpenvorland. Nördlich der Donau bestimmen Mittelgebirge wie der Bayerische Wald oder das Fichtelgebirge das Landschaftsbild. Auch besitzt Bayern im Westen, zwischen Nördlinger Ries und dem Donauried bei Dillingen an der Donau Anteile an der Schwäbischen Alb, auch als Riesalb bekannt. Östlich vom Nördlinger Ries erstreckt sich die Fränkische Alb. Mit Mainfranken besitzt Bayern eine der wichtigsten Weinregionen Deutschlands. Gebiet und Landschaft Als Binnenland grenzt Bayern an folgende Staaten: im Osten an Tschechien, im Südosten und Süden an Österreich, im Südwesten über den Bodensee an die Schweiz und an die deutschen Bundesländer Baden-Württemberg (im Westen), Hessen (im Nordwesten), Thüringen (im Norden) und Sachsen (im Nordosten). Die Landesgrenze Bayerns ist insgesamt 2705 Kilometer lang. Bayern grenzt, im Westen beginnend, im Uhrzeigersinn an Baden-Württemberg (829 Kilometer Grenzlänge), Hessen (262 Kilometer), Thüringen (381 Kilometer), Sachsen (41 Kilometer), an die tschechischen Regionen Karlsbad, Pilsen und Südböhmen (357 Kilometer), an die österreichischen Bundesländer Oberösterreich, Salzburg, Tirol und Vorarlberg (816 Kilometer) sowie an den Schweizer Kanton St. Gallen (19 Kilometer), wobei der Grenzverlauf im Bodensee nicht festgelegt ist. Bis 1990 bildete die Grenze zu Thüringen, Sachsen und der damaligen Tschechoslowakei einen Abschnitt des Eisernen Vorhangs. Sie stellte durch die Grenzsicherungsanlagen eine physisch nahezu unüberwindbare Trennung zwischen der NATO und dem Warschauer Pakt dar. Bei Prex gab es ein Dreiländereck. Nicht zum bayerischen Staatsgebiet und daher nicht zum deutschen Bundesgebiet gehören die im privatrechtlichen Eigentum Bayerns stehenden Saalforsten in Österreich. Andererseits gehört der Egerer Stadtwald, der historisch zur böhmischen Stadt Eger (tschechisch Cheb) gehört, zum bayerischen Staatsgebiet und wird von einer Stiftung verwaltet. Bayern liegt in Süddeutschland und umfasst: die Bayerischen Alpen im Süden davon nördlich das Alpenvorland bis zur Donau mit den drei großen Seen Oberbayerns das ostbayerische Mittelgebirge und die Stufenlandschaft der Schwäbischen und Fränkischen Alb. Die Bayerischen Alpen im äußersten Süden Bayerns gehören zu den Nördlichen Kalkalpen. Bayern ist das einzige deutsche Bundesland, das Anteil an den Alpen hat. Meist werden unter den Bayerischen Alpen nur die zwischen den Flüssen Lech und Saalach gelegenen Gebirgsteile verstanden. In diesem engeren Sinn zählen daher die Allgäuer Alpen, auf die sich das bayerische Staatsgebiet erst seit jüngerer Zeit erstreckt, und die Berchtesgadener Alpen nicht zu den Bayerischen Alpen, nicht zu verwechseln mit dem Begriff der Bayerischen Voralpen, die nördlich an das Gebirge angrenzen. Letztere umfassen den bayerischen Anteil der Voralpen zwischen der Loisach im Westen und dem Inn im Osten. Während die Voralpen nur vereinzelt ausgeprägte Kalkfelswände haben, sind die Alpen durch die im Jungpleistozän entstandenen Kare, Seen und die typischen U-Täler durch Gletscher geprägt. Ablagerungen der eiszeitlichen Flüsse sowie vor allem die Gletscher ließen insbesondere im Alpenvorland eine hügelige Landschaft mit Seen und Mooren entstehen. Dort liegen etwa der Chiemgau, das Fünfseenland und das Allgäu. Während zwischen den Alpen und südlich der Donau das Gelände flach bis hügelig ist, liegen nördlich davon mehrere Gebirge, die eine Höhe von über tausend Metern erreichen, darunter beispielsweise der Bayerische Wald mit dem Großen Arber als höchstem Berg Bayens außerhalb der Alpen und das Fichtelgebirge mit dem Schneeberg als höchstem Berg Frankens. Die Fränkische Alb als geologische Fortsetzung des Schweizer Juras und der Schwäbischen Alb zieht sich um einen Bogen durch den Norden Bayerns und schirmt Teile Frankens von Altbayern ab. Nördlich davon liegen zahlreiche Zeugenberge wie der Hesselberg. Der äußerste Südwesten der Alb grenzt ans Nördlinger Ries, Rest eines beim Ries-Ereignis vor etwa 14,6 Millionen Jahren entstandenen Einschlagkraters. Das Fränkische Keuper-Lias-Land, in dem etwa Aischgrund, Steigerwald und Frankenhöhe liegen, geht in die Mainfränkischen Platten über. Südwestlich davon liegen die Mittelgebirge Odenwald, Spessart und Rhön. Die östliche Hälfte Bayerns wird von Mittelgebirgen wie dem Bayerischen Wald oder dem Frankenwald geprägt. Dort befindet sich das größte, nicht zerschnittene Waldgebiet Mitteleuropas. Auch Teile des Vogtlands liegen in Bayern. Der westliche Teil Unterfrankens als Bestandteil der Tiefebene des Rheins gehört zum Bayerischen Untermain. Die niedrigste Stelle Bayerns liegt mit ca. am Ufer des Mains auf Höhe von Kahl am Main (Unterfranken), die höchste im Wettersteingebirge auf dem Gipfel der Zugspitze (), dem höchsten deutschen Berg. Alle 30 höchsten Berggipfel Deutschlands liegen in den Bayerischen Alpen, konzentriert im Wettersteingebirge, in den Berchtesgadener Alpen und den Allgäuer Alpen. Der höchste bayerische Gipfel der Berchtesgadener Alpen ist der Watzmann () und der höchste bayerische Gipfel in den Allgäuer Alpen ist die Hochfrottspitze (). Der geographische Mittelpunkt Bayerns liegt etwa 500 Meter östlich des Marktes Kipfenberg im Landkreis Eichstätt (). Historisch betrachteten sich mehrere Orte in Bayern als Mittelpunkt Europas. Seit dem EU-Beitritt Kroatiens am 1. Juli 2013 lag der geographische Mittelpunkt der Europäischen Union im Landkreis Aschaffenburg, im Ortsteil Oberwestern der bayerischen Gemeinde Westerngrund (). Seit dem Austritt des Vereinigten Königreiches am 31. Januar 2020 liegt der EU-Mittelpunkt im Landkreis Würzburg, im Ortsteil Gadheim der Gemeinde Veitshöchheim (). Gewässer Der bedeutendste Fluss des Landes ist die Donau, diese fließt in der Südhälfte des Landes von West nach Ost, gelangt bei Ulm auf das Landesgebiet und tritt bei Passau nach Österreich über. Ihre größten Nebenflüsse sind (stromabwärts): Iller, Lech, Isar, Inn (von Süden) Wörnitz, Altmühl, Naab und Regen (von Norden) Die vier südlichen Nebenflüsse entspringen in den Alpen und sind wasserreicher. Inn und Lech führen (wegen des langen Oberlaufs) bei ihrer Mündung meist etwas mehr Wasser als die Donau. Im Heimatkundeunterricht wird zur Donau vielerorts folgender Merkspruch aufgesagt: „Brigach und Breg bringen die Donau zuweg. Iller, Lech, Isar, Inn, fließen rechts zur Donau hin. Wörnitz, Altmühl, Naab und Regen fließen links dagegen.“ Der größte Teil Frankens wird durch den Main von Ost nach West in den Rhein entwässert. In seinem markant geschwungenen Lauf bildet er das sogenannte Maindreieck und Mainviereck. Seine größten Nebenflüsse sind Regnitz und Tauber von links und Fränkische Saale von rechts. Im Nordosten Oberfrankens bzw. Niederbayerns entspringen die linken Nebenflüsse der Elbe, die „Sächsische“ Saale, die Eger und die Kalte Moldau als Quellfluss der Moldau. In den Endmoränenlandschaften im südlichen Teil des nördlichen Alpenvorlandes gibt es viele Seen, die teilweise ins Gebirge hineinragen, etwa der Tegernsee, der Starnberger See und der Schliersee. Bayern hat Anteil am Bodensee, dem größten See des westlichen Mitteleuropas. Der größte See innerhalb Bayerns ist der Chiemsee. Nördlich der Fränkischen Alb wurden die Stauseen des Fränkischen Seenlands gebildet. Sie dienen zur Wasserregulierung Nordbayerns, insbesondere der Wasserversorgung des Main-Donau-Kanals, einer wichtigen Wasserstraße in Nordbayern. In den Alpen wurde 1924 das Walchenseekraftwerk in Betrieb genommen, das das natürliche Gefälle zwischen dem als „Oberbecken“ fungierenden Walchensee und dem „Unterbecken“ Kochelsee zur Stromerzeugung nutzt. Durch Teile Bayerns führt die Europäische Hauptwasserscheide. Sie trennt das zum Rhein gehörende Flusssystem von dem der Donau. Details sind beschrieben in der Liste der Flüsse in Bayern sowie in der Liste der Seen in Bayern. Schutzgebiete In Bayern liegen der Nationalpark Bayerischer Wald und der Nationalpark Berchtesgaden. Von der UNESCO anerkannte Biosphärenreservate sind das Biosphärenreservat Berchtesgadener Land und das Biosphärenreservat Rhön. Es gibt 18 Naturparke in Bayern, das älteste ist der 1969 gegründete Naturpark Altmühltal. In Bayern sind 603 Naturschutzgebiete, 702 Landschaftsschutzgebiete, 674 Fauna-Flora-Habitat-Gebiete, 84 Europäischen Vogelschutzgebiete, 160 Naturwaldreservate und über 3.400 Geotope vom Bayerischen Landesamt für Umwelt ausgewiesen (Stand: März 2017). Hundert besonders sehenswerte Geotope sind als Bayerns schönste Geotope ausgewiesen. Größtes Naturschutzgebiet sind die Allgäuer Hochalpen, kleinstes ist der Drabafelsen. Siehe auch: Ausdehnung und Flächennutzung Mit 70.541,57 Quadratkilometern ist Bayern das flächenmäßig größte deutsche Bundesland und hat damit knapp 22.000 Quadratkilometer mehr Fläche als Niedersachsen. Der Freistaat entspricht etwa 19 Prozent der deutschen Staatsfläche. Die Fläche Bayerns ist größer als die vieler Staaten Europas, etwa die der Niederlande oder Irlands. Das Staatsgebiet Bayerns erstreckt sich von 47° 16′ bis zu 50° 34′ nördlicher Breite und von 8° 58′ bis 13° 50′ östlicher Länge. Bayern erstreckt sich in west-östlicher Richtung über maximal 260, in nord-südlicher über 366 Kilometer. Der südlichst gelegene Ort in Bayern ist Einödsbach, der westlichste Großwelzheim, der nördlichste Weimarschmieden und der östlichste Breitenberg. Die südlichste Stelle Bayerns und ganz Deutschlands ist das Haldenwanger Eck. Etwa 86,1 Prozent der Fläche werden land- und forstwirtschaftlich genutzt. 12,0 Prozent sind Siedlungs- und Verkehrsflächen. Klima Das Klima geht vom Nordwesten (relativ ausgeglichen) nach Osten vom Seeklima (Cfb) ins Kontinentalklima (Dfb) über. An etwa 100 Tagen sind die Temperaturen unter null Grad Celsius, die Westwinde bringen durchschnittlich 700 mm Niederschlag, im Nordstau der Alpen lokal bis 1800 mm pro Jahr. Die mittlere jährliche Sonnenscheindauer beträgt 1600 bis 1900 Stunden. Der wärmste Monat ist meist der Juli, kältester der Januar. Der Föhn beeinflusst das Wetter im gesamten Alpenvorland und kann stellenweise bis an die Fränkische Alb reichen. Der Norden Bayerns ist trockener und wärmer als der Süden; die Region um Würzburg weist die meisten Sonnentage Süddeutschlands auf. Auswirkungen des Klimawandels Die Auswirkungen der globalen Erwärmung zeigen sich auch in Bayern. Die Sommermonate werden dabei tendenziell heißer und trockener. Zuletzt war der Juni 2019 der wärmste Juni in Bayern seit Beginn der Beobachtungen und der Winter 2019/2020 lag bayernweit drei Grad Celsius über dem langjährigen Mittel. Am 20. Dezember 2019 wurde in Piding eine Rekordtemperatur von 20,2 °C gemessen. Die Wintermonate werden tendenziell niederschlagsreicher, wobei der Niederschlag vermehrt in Form von Regen statt Schnee fällt. Extreme Wetterlagen, wie etwa das Hochwasser in Mitteleuropa 2013 oder das Starkschneeereignis im Januar 2019, nehmen zu. Eine Folge der Erwärmung ist u. a. die fortschreitende Schmelze aller bayerischer Alpengletscher: Von den vier bayerischen Gletschern wird mit dem Höllentalferner mittelfristig nur einer bestehen. Beispielsweise ist seit den 1980er-Jahren der Südliche Schneeferner, von Überresten abgesehen, bereits vollständig verschwunden. Flora Bayern wäre von Natur aus hauptsächlich von Wäldern bedeckt. Im Flach- und Hügelland würden buchendominierte Mischwälder vorherrschen, in den Gebirgen in Bergmischwälder übergehend. In den höheren Gebirgslagen kämen Fichtenwälder vor und die Flüsse würden von ausgedehnten Auwäldern begleitet werden. Nur die Gewässer und die Gebirgslagen oberhalb der Waldgrenze sowie Sonderstandorte wie Hochmoore wären natürlicherweise nicht bewaldet. Durch umfangreiche Rodungen für landwirtschaftliche Flächen und Siedlungen hat der Mensch bereits im Mittelalter die Waldfläche in Bayern zurückgedrängt. Aktuell sind mit 2,6 Millionen Hektar 36,9 Prozent der bayerischen Landesfläche bewaldet. Damit befindet sich rund ein Viertel der deutschen Wälder in Bayern. Die Baumartenzusammensetzung der Wälder in Bayern ist stark von der forstwirtschaftlichen Nutzung geprägt. Die häufigste Baumart in Bayerns Wäldern ist die Gemeine Fichte mit 41,8 Prozent Flächenanteil, gefolgt von der Waldkiefer mit 17,9 Prozent, der Rotbuche mit 13,9 Prozent und den Eichen mit 6,8 Prozent Anteil. Besonders große Waldgebiete befinden sich noch in den Mittelgebirgen in Nord- und Ostbayern, wie zum Beispiel im Spessart, im Fichtelgebirge, im Steigerwald und im Bayerischen Wald, sowie in den Bayerischen Alpen. Dagegen sind insbesondere die Gegenden mit fruchtbaren Böden im Voralpenland, im Hügelland und in den Flussniederungen von überwiegend landwirtschaftlich genutzten Offenlandschaften mit Wiesen, Äckern und nur wenigen Einzelbäumen und kleineren Wäldern geprägt. Franken weist gebietsweise für Süddeutschland einzigartige Sandlebensräume auf, die als Sandachse Franken geschützt sind. In den Flusstälern entlang von Main und Tauber wurde die Landschaft für den Weinanbau umgestaltet. Weit verbreitet sind Magerrasen, ein extensiv genutztes Grünland an besonders nährstoffarmen, „mageren“ Standorten. Besonders die Südliche Frankenalb mit dem Altmühltal ist gekennzeichnet von solchen Magerrasen. Viele dieser Gebiete sind als Schutzgebiet ausgewiesen. Fauna In den Wäldern Bayerns leben, wie in anderen Teilen Deutschlands, nur noch relativ wenige Großtierarten. Es gibt unter anderem verschiedene Marderarten, Dam- und Rothirsche, Rehe sowie Wildschweine und Füchse. In naturnahen Gebieten, wie dem Fichtelgebirge, leben Luchse und Auerhähne, aber auch Biber und Otter verbreiten sich wieder. Vereinzelt gibt es Sichtungen von seit längerem in Mitteleuropa ausgerotteten Tieren in Bayern, beispielsweise vom Wolf. In hochalpinen Regionen leben der wieder eingebürgerte Alpensteinbock und das Alpenmurmeltier. Seltener ist die Gämse in einigen Mittelgebirgen, wie der Fränkischen Alb, beheimatet. In den Bayerischen Alpen kommt der Steinadler vor. Es wurden 19 verschiedene Amphibienarten nachgewiesen. Geschichte Antike Ab dem 3. Jahrhundert v. Chr. gründeten keltische Stämme im Alpenvorland erste befestigte, stadtähnliche Siedlungen. In dem Oppidum von Manching lebten damals bereits etwa 5.000 bis 10.000 Kelten innerhalb einer Stadtbefestigung. Zur Zeit des Kaisers Augustus wurde das keltisch besiedelte Gebiet Altbayerns südlich der Donau Teil des Römischen Reiches und seiner Provinzen Raetia und Noricum. Nach Zusammenbruch der römischen Herrschaft bildete sich das Volk der Bajuwaren. Vermutlich haben sich die Bajuwaren aus verschiedenen Volksgruppen gebildet: aus Resten der keltischen Bevölkerung (Vindeliker, Boier), aus einheimischen Römern, aus alemannischen, fränkischen bzw. thüringischen, ostgotischen und langobardischen Volkssplittern, aus germanischen Söldnern der römischen Grenztruppen. Es wird von einer Stammesbildung der Bajuwaren im eigenen Land, also dem Land zwischen Donau und Alpen, ausgegangen. Älteres Stammesherzogtum Für das Jahr 555 n. Chr. ist die Existenz eines bairischen Stammesherzogtumes mit Sitz in Freising und Regensburg unter den Agilolfingern belegt, das unter den Merowingern Teil des fränkischen Herrschaftsbereichs Austrasien wurde. Mit der Lex Baiuvariorum entstand das erste kodifizierte bairische Stammesrecht (um 741/743). Der Sieg Karls des Großen über den Bayernherzog Tassilo III. 788 markiert das Ende des sogenannten älteren Stammesherzogtums. Seit 788 bis zum Beginn des 10. Jahrhunderts gab es keinen baierischen Herzog. Die Karolinger regierten als baierische Könige oder Unterkönige und setzten zur Herrschaftsausübung bisweilen Statthalter (Präfekten) ein. Jüngeres Stammesherzogtum Der Niedergang der Karolinger ermöglichte ein Wiederaufleben der Eigenständigkeit der baierischen Herzöge im sogenannten jüngeren Stammesherzogtum. Nach Ende der Herrschaftsperiode der Karolinger kam es erneut dazu, dass die Eigenständigkeit der einzelnen Gebiete allmählich erstarkte. Unterstützt wurde dies durch die Bedrohung von außen durch die Ungarneinfälle ab etwa 862. Markgraf Luitpold von Bayern fiel 907 in der Schlacht von Pressburg in einer Niederlage gegen die Ungarn, jedoch wird das Datum durch den Antritt seines Sohns Arnulf I. als Herzog von Bayern gleichzeitig als Beginn des jüngeren baierischen Stammesherzogtums gesehen. Nach dem Sieg in der Schlacht auf dem Lechfeld erfolgte eine zweite Welle baierischer Ostsiedlung mit Gewinn von Gebieten im heutigen Niederösterreich, Istrien und der Krain. Der Streit mit den Ottonen führte wieder zu einer starken Abhängigkeit vom deutschen Königtum. 976 wurde der Südosten Bayerns als Teil eines neu geschaffenen Herzogtums Kärnten abgetrennt. Zusätzlich regierte das Geschlecht der Babenberger in der Marcha Orientalis (Ostarrichi) zunehmend unabhängiger vom bayerischen Herzog. 1014 wurde Herzog Heinrich IV. aus der baierischen Linie der Ottonen als Heinrich II. römisch-deutscher Kaiser. Ab 1070 kam es unter den Welfen zu einem Wiedererstarken der Macht der baierischen Herzöge. 1156 wurde die Mark Österreich losgelöst und unter den Babenbergern, die zuvor nach dem Sturz des Welfen Heinrichs des Stolzen kurzzeitig ganz Bayern regiert hatten, selbst zum Herzogtum erhoben. 1180 stürzte Friedrich I. Barbarossa auf Betreiben der Fürsten den Welfen Heinrich den Löwen, den Herzog von Bayern und Sachsen. Das Herzogtum Baiern wurde durch die Abtrennung der Steiermark und der andechsischen Markgrafschaft Istrien weiter verkleinert. Auch die Grafen von Tirol agierten zunehmend unabhängiger vom baierischen Herzog und profitierten später wie die Wittelsbacher vom Aussterben der Grafen von Andechs, die zuletzt auch das von Bayern abgetrennte Herzogtum Meranien besessen hatten. Territorialherzogtum Ab 1180 wurde das verkleinerte Bayern als Territorialherzogtum von den Wittelsbachern regiert, die bis zum Ende der Monarchie 1918 an der Macht blieben. 1214 fiel auch die Pfalz von den Welfen an die Wittelsbacher. Der herzogliche Vorort hatte sich in dieser Zeit mehrfach verschoben, zunächst von Regensburg bis 1231 nach Kelheim und dann bis 1255 nach Landshut. Bayern erlebte von 1255 bis 1503 eine Periode zahlreicher Teilungen in Einzelherzogtümer. Kurz vor der ersten Wiedervereinigung erlangte Ludwig IV. 1328 als erster Wittelsbacher die Kaiserwürde, was für Bayern einen neuen Höhepunkt der Macht bedeutete. Gleichzeitig löste sich jedoch das Erzstift Salzburg endgültig vom Mutterland Bayern. Im Hausvertrag von Pavia von 1329 teilte Ludwig den Besitz in eine pfälzische Linie mit der Rheinpfalz und der später sogenannten Oberpfalz und in eine altbayerische Linie auf. Die von ihm neu hinzugewonnenen Gebiete Brandenburg, Tirol, die niederländischen Provinzen Holland, Seeland und Friesland sowie der Hennegau gingen unter seinen Nachfolgern sehr bald wieder verloren. Tirol fiel 1363 an die Habsburger, Brandenburg 1373 an die Luxemburger. Mit der Goldenen Bulle 1356 ging die Kurwürde für die altbayerische Linie an die der Pfalz verloren. 1429 wurde nach dem Aussterben der Linie Straubing-Holland das Herzogtum Bayern-Straubing unter den Linien München, Ingolstadt und Landshut aufgeteilt. 1447 fiel Bayern-Ingolstadt an Bayern-Landshut, das seinerseits im Landshuter Erbfolgekrieg von Bayern-München gewonnen wurde. Mit dem Kölner Schiedsspruch, der den Krieg beendete, verlor Bayern 1505 das Gebiet um Kufstein, Kitzbühel und Rattenberg sowie das Zillertal und das Mondseeland an die Habsburger. Auch entstand damals aus weiteren Landshuter Gebieten mit Pfalz-Neuburg ein unabhängiges Fürstentum. Durch das Primogeniturgesetz von Herzog Albrecht IV. von 1506 fanden die Landesteilungen ein Ende. Das Herzogtum Bayern öffnete sich unter der Herrschaft von Wilhelm IV. und Albrecht V. der Renaissance und wurde zu einem Hort der Gegenreformation. Die an Bayern angrenzenden Freien Reichsstädte Nürnberg und Augsburg waren vom Beginn der Neuzeit bis zum Ende der Renaissance bedeutende Handels- und Wirtschaftszentren, was in Augsburg vor allem auf den Einfluss der Kaufmannsfamilien Fugger und Welser zurückging. In dieser Zeit zählten beide Orte zusammen mit Köln und Prag und zu den vier größten Städten des Heiligen Römischen Reiches und hatten Regensburg eingeholt, das ebenfalls Freie Reichsstadt war. Herzog Wilhelm V. beteiligte sich 1583 erfolgreich am Krieg gegen den protestantisch gewordenen Erzbischof von Köln, für fast 200 Jahre stellten seither bayerische Prinzen den Kölner Kurfürsten und regierten zahlreiche weitere Bistümer in Nordwestdeutschland. Kurfürstentum In der Gegenreformation nahm Bayern weiterhin eine führende Stellung ein und ging aus dem Dreißigjährigen Krieg mit Gebietsgewinnen und dem Aufstieg zum Kurfürstentum hervor: 1620 besiegten die Truppen der Katholischen Liga unter Führung des bayerischen Feldherrn Tilly in der Schlacht am Weißen Berge bei Prag die Protestanten. Anschließend ließ Tilly die Pfalz besetzen. Zum Dank erhielt Maximilian I. 1623 die Kurwürde und 1628 die von ihm besetzten kurpfälzischen Teile der Oberpfalz als Kriegsentschädigung. Durch verschiedene Reformen sanierte Maximilian das Land finanziell und machte es wirtschaftlich leistungsfähig. Durch die Ausschaltung der ständischen Mitwirkungsrechte wurde er der eigentliche Begründer der absolutistischen Herrschaft in Bayern. Er schuf eine wirksame Landesverwaltung, eine neue Gesetzessammlung (Codex Maximilianeus) und war in merkantilistischen Maßnahmen seiner Zeit bereits voraus. Auch für die Kunstpolitik und das fürstliche Mäzenatentum entstanden neue finanzielle Spielräume. Nach dem Krieg widmete sich auch der Nachfolger Kurfürst Ferdinand Maria dem Wiederaufbau des verwüsteten Landes und verfolgte eine vorsichtige Neutralitätspolitik. Sowohl in Altbayern als auch besonders in den fränkischen Hochstiften Würzburg und Bamberg begann eine glanzvolle Zeit der barocken Kunst. Ab 1663 wandelte sich der Reichstag zu einem permanenten Gesandtenkongress (Immerwährender Reichstag), der in Regensburg tagte. Während des Spanischen und Österreichischen Erbfolgekrieges und im Zuge der Großmachtpolitik Maximilian II. Emanuels und später seines Sohnes Karl Albrecht wurde das absolutistische Bayern mehrfach vorübergehend von Österreich besetzt. 1705 erhob sich das bayerische Volk gegen die kaiserliche Besatzung. Die bayerische Volkserhebung umfasste weite Gebiete Niederbayerns, das Innviertel und das östliche Oberbayern. Ein Landesdefensionskongress tagte im Dezember 1705 im damals noch bayerischen Braunau am Inn. Erst die Schlacht von Aidenbach am 8. Januar 1706 endete mit der völligen Niederlage der Volkserhebung. Nach der Kaiserkrönung Karl Albrechts wurden weite Teile des Kurfürstentums bis 1744 erneut besetzt. Karl Albrechts Sohn Maximilian III. Joseph beendete 1745 endgültig die Großmachtpolitik seiner Vorgänger und widmete sich inneren Reformen. Nach dem Aussterben der altbayerischen Linie der Wittelsbacher entstand Ende 1777 das Doppel-Kurfürstentum Kurpfalz-Bayern (zeitgenössisch Churpfalz-Baiern oder Pfalz-Baiern), zu dem auch die Herzogtümer Jülich und Berg gehörten, unter der Regentschaft des Kurfürsten Karl Theodor aus der pfälzischen Linie der Wittelsbacher. Im Bayerischen Erbfolgekrieg und mit dem Fürstenbund verhinderte Preußen den Anschluss Bayerns an Österreich und konnte sich dafür im Gegenzug für das an Österreich gefallene bayerische Innviertel die Ansprüche auf die beiden hohenzollernschen Markgraftümer Ansbach und Bayreuth sichern, die später dann an Bayern fielen. Graf Rumford begann unter Karl Theodor mit weiteren Reformen, unter anderem auch bei der Bayerischen Armee. Ab 1794 war auch Kurpfalz-Bayern in die Koalitionskriege gegen das revolutionäre Frankreich verwickelt. Königreich Zur Zeit Napoleons stand Bayern anfangs auf der Seite Frankreichs und konnte durch Säkularisation und Mediatisierung große Gebietsgewinne verzeichnen. So fielen Tirol, Vorarlberg sowie das 1779 verlorene Innviertel an Bayern, später auch Salzburg. Im Frieden von Pressburg, der am 26. Dezember 1805 zwischen Frankreich und dem deutschen Kaiser Franz II. abgeschlossen wurde, wurde das mit Napoleon verbündete Bayern zum Königreich proklamiert. König Max I. Josephs Minister Maximilian Graf von Montgelas gilt dabei als Schöpfer des modernen bayerischen Staates. Das neue Königreich beseitigte alle Relikte der Leibeigenschaft, die das alte Reich hinterlassen hatte. Durch das Religionsedikt von 1803 wurden alle drei christlichen Bekenntnisse gleichberechtigt – Katholiken, Reformierte und Lutheraner. 1807 wurden die ständischen Steuerprivilegien abgeschafft. 1805 wurden alle erblichen und käuflichen Ämter durch die große Dienstespragmatik abgeschafft. Das Münchner Regulativ von 1805 und das Juden-Edikt von 1813 gewährte den Israeliten im neuen Bayern erste Freiheiten. Am 27. August 1807 führte Bayern als erstes Land der Welt eine Pockenimpfung ein. 1812 wurde die bayerische Gendarmerie gegründet. Durch ein neues Strafgesetzbuch, das Anselm von Feuerbach entworfen hatte, wurde 1813 die Folter abgeschafft. Das Fürstentum Ansbach fiel 1806 durch einen von Napoleon erzwungenen Gebietstausch an das Königreich Bayern, das protestantische Fürstentum Bayreuth wurde 1810 von Napoleon an Bayern verkauft. Durch den rechtzeitigen Wechsel auf die Seite der Gegner Napoleons im Vertrag von Ried konnte Bayern auf dem Wiener Kongress 1814 als Siegermacht einen Teil der Gebietsgewinne behalten. Für den Verlust Tirols und der rechtsrheinischen Pfalz wurde es durch wirtschaftlich weiter entwickelte Gebiete um Würzburg und Aschaffenburg entschädigt. Der neugeschaffene linksrheinische Rheinkreis kam im Tausch gegen Salzburg 1816 durch den Vertrag von München zu Bayern und war ab 1837 die bayerische Rheinpfalz. König Ludwig I., der seit 1825 regierte, baute die bayerische Hauptstadt München zur Kunst- und Universitätsstadt aus. In seine Regierungszeit fiel die Hinwendung Bayerns zu Griechenland sowie die Einrichtung zahlreicher Kunstsammlungen und klassizistischer Bauten. Er führte ab 1830 die Zensur wieder ein und beseitigte die Pressefreiheit. Das Hambacher Fest 1832 in der Pfalz auf dem Hambacher Schloss bei Neustadt an der Weinstraße hatte seine Wurzeln in der Unzufriedenheit der pfälzischen Bevölkerung mit der bayerischen Verwaltung. Wegen einer Affäre mit der Tänzerin Lola Montez musste er 1848 im Zuge der Märzunruhen abdanken. Unter seinem Sohn und Nachfolger Max II. Joseph kam es zu einer schrittweisen Liberalisierung aber auch zum Pfälzer Aufstand. Der König war ein Anhänger der Trias-Politik, die vorsah, die deutschen Mittelstaaten unter Führung Bayerns zur dritten Kraft neben den beiden Großmächten Preußen und Österreich zu entwickeln. 1861 erfolgte im Inneren mit der Abschaffung der alten Landgerichte die Trennung von Justiz und Verwaltung, bereits zuvor war die Ministerverantwortlichkeit eingeführt worden. 1864 wurde Ludwig II. zum König von Bayern proklamiert. Er ging wegen des Baues von Neuschwanstein und anderer Schlösser als Märchenkönig in die Geschichte ein. Im Deutschen Krieg 1866 erlitt Bayern an der Seite Österreichs eine Niederlage gegen Preußen. 1868 erfolgte die Gründung der konservativen, großdeutschen Patriotenpartei (1887 umbenannt in Bayerisches Zentrum). 1871 wurde Bayern Teil des neu gegründeten Deutschen Reiches, erhielt dabei sogenannte Reservatrechte (eigenes Post-, Eisenbahn- und Heereswesen sowie eigene Diplomatie). 1886 übernahm Prinzregent Luitpold die Regentschaft. Die „Prinzregentenzeit“, wie die Epoche Prinz Luitpolds häufig bezeichnet wird, gilt aufgrund der politischen Passivität Luitpolds als Ära der allmählichen Rückstellung bayerischer Interessen hinter die des Reichs. 1893 erfolgte der erste Einzug der SPD in den bayerischen Landtag, 1906 die Angleichung des Landtagswahlgesetzes an das Reichswahlrecht. 1913 wurde Ludwig III. König, im Jahr darauf brach der Erste Weltkrieg aus. Noch am 2. November 1918 kam es zu einer Wahlrechts- und Parlamentsreform. Im Rahmen der Novemberrevolution 1918 wurde jedoch kurz darauf die Wittelsbacher Monarchie abgesetzt. Freistaat (Bamberger Verfassung) Im Verlauf der Novemberrevolution rief am 8. November 1918 Kurt Eisner, Schriftsteller und Journalist, Gründungsmitglied der USPD, Bayern als Volksstaat bzw. Freistaat aus, den Freien Volksstaat Bayern. Nach dem Staatsgrundgesetz der Republik Bayern vom 4. Januar 1919 wurde die Bamberger Verfassung vom 14. August 1919 zur ersten demokratischen Verfassung Bayerns und beendete das 1806 gegründete Königreich Bayern. (Zwischenzeitlich vermochten jedoch noch ab dem 7. April 1919 sozialistische Gruppen für vier Wochen die „Münchner Räterepublik“ zu installieren.) Durch eine Volksabstimmung kam am 1. Juli 1920 der Freistaat Coburg zu Bayern (→ Landkreis Coburg). Durch die Bestimmungen des Versailler Vertrags mussten am 10. Januar 1920 das Bezirksamt St. Ingbert sowie Teile der Bezirksämter Homburg und Zweibrücken an das neu geschaffene, unter Völkerbundsverwaltung stehende Saargebiet abgetreten werden. Erst 1930 erfolgte der Abzug der Besatzung der Franzosen und die vollständige Rückgliederung der Pfalz an Bayern. Nach der Niederschlagung der „Münchner Räterepublik“ wurde Bayern zur Hochburg ultra-konservativer sowie reaktionärer Kräfte und wurde in den ersten Jahren der Weimarer Republik als „Ordnungszelle“ bezeichnet. Am 8. und 9. November 1923 wurde Bayern Schauplatz des Hitlerputsches, der aber von der bayerischen Landespolizei niedergeschlagen werden konnte. Stärkste Partei war die Bayerische Volkspartei, die meist auch den Ministerpräsidenten stellte. Nationalsozialismus und Zweiter Weltkrieg Als Verwaltungseinheit bestand Bayern auch während der Zeit des Nationalsozialismus (1933 bis 1945), war aber weitgehend bedeutungslos. Die Stadt München, in der Adolf Hitler seit 1913 gelebt und seinen politischen Aufstieg begonnen hatte, wurde von den Nationalsozialisten allerdings propagandistisch zur Hauptstadt der Bewegung stilisiert. Mit dem KZ Dachau errichtete das NS-Regime nur wenige Wochen nach der sogenannten Machtergreifung das erste durchgehend betriebene Konzentrationslager. Im fränkischen Nürnberg hielt die NSDAP von 1933 bis 1938 auf dem Reichsparteitagsgelände ihre Reichsparteitage und andere Propagandaveranstaltungen ab; 1935 wurden hier die Nürnberger Gesetze bekanntgegeben. Auf dem Obersalzberg nahe Berchtesgaden ließ Hitler den Berghof errichten, der ihm als zweiter Regierungssitz diente und sich zu einem zentralen Ort der Macht im nationalsozialistischen Deutschen Reich entwickelte. 1939 wurde der Regierungsbezirk Niederbayern-Oberpfalz um ein bis zum Münchner Abkommen 1938 zur Tschechoslowakei gehörendes Gebiet, die Landkreise Bergreichenstein, Markt Eisenstein und Prachatitz, erweitert, das 1945 wieder abgetrennt wurde. Im Zweiten Weltkrieg erlitten bayerische Städte wie Aschaffenburg, Augsburg, München, Nürnberg und Würzburg starke Zerstörungen (siehe Luftangriffe auf Aschaffenburg, Augsburg, München, Nürnberg und Würzburg). Teil der amerikanischen Besatzungszone Die Besatzungsmächte leiteten Vertriebene aus Schlesien und dem Sudetenland gezielt in das dünn besiedelte Bayern. Dadurch wuchs die Bevölkerung bis 1949 um ein Viertel. Es entstanden mehrere Vertriebenenstädte. General Eisenhower stellte mit der Proklamation Nummer 2 vom 28. September 1945 Bayern offiziell als Staat wieder her; die Exekutive lag zwischen 1945 und 1952 in den Händen von US-amerikanischen Militärgouverneuren. Nach der Besetzung durch US-Truppen wurde Bayern Bestandteil der amerikanischen Besatzungszone, während im Jahr 1946 die in der französischen Besatzungszone gelegene stark industrialisierte Rheinpfalz dem neugebildeten Land Rheinland-Pfalz eingegliedert wurde. Andererseits fiel 1945 Ostheim vor der Rhön an Bayern. Da die US-Militärregierung entschieden gegen die Wiederherstellung einer Monarchie eingestellt war, verbot sie 1946 die wiedergegründete Bayerische Heimat- und Königspartei. (Nach dem Ende der Militärregierung 1949 konnte die Partei jedoch neu konstituiert werden.) Ab dem 30. Juni 1946 tagte in München eine Verfassungsgebende Versammlung. Eine neue, republikanische Verfassung des Freistaates Bayern wurde 1946 mit großer Mehrheit durch das Volk angenommen (Näheres im Artikel Bayerische Verfassungsgeschichte). Freistaat (innerhalb der Bundesrepublik Deutschland) 1948 entschied der Landtag auf Antrag der Staatsregierung, das Grundgesetz abzulehnen, es jedoch in dem Fall als verbindlich anzuerkennen, wenn zwei Drittel der Bundesländer es annehmen würden. 1949 wurde Bayern auf dieser Basis als Land Teil der Bundesrepublik Deutschland. Die Rückgliederung des Landkreises Lindau nach Bayern erfolgte am 1. September 1955. Der langanhaltende Wirtschaftsaufschwung („Wirtschaftswunder“) trug dazu bei, dass ein tiefer Strukturwandel Bayerns folgte. In den 1960- und 1970er-Jahren wurden Bildung, Infrastruktur und Industrie modernisiert: Neue Gymnasien und Universitäten wurden eröffnet; auf dem Land wurden viele Straßen asphaltiert, zukunftsträchtig erscheinende Branchen wie Fahrzeug- und Maschinenbau, Luft- und Raumfahrt-, sowie Atomindustrie wurden gefördert. Damit wurde das von der Agrarwirtschaft geprägte Bayern zu einem führenden Industriestandort innerhalb der Bundesrepublik Deutschland; 1971 begann die Gebietsreform in Bayern. Von 1962 bis 2008 sowie von 2013 bis 2018 hatte die CSU die absolute Mehrheit in Bayern inne. Bayern wechselte 1987 erstmals im Länderfinanzausgleich vom Nehmerland zum Geberland und ist seit 2008 ununterbrochen das größte Geberland. Bevölkerung Demografie Rund 13 Millionen Einwohner oder 16 Prozent der deutschen Bevölkerung leben im Freistaat Bayern. Nach Nordrhein-Westfalen ist Bayern die bevölkerungsreichste subnationale Entität der Europäischen Union und einer der bevölkerungsreicheren Gliedstaaten in der westlichen Welt. Seit 1840 hat sich die Einwohnerzahl Bayerns mehr als verdreifacht. Zur Volkszählung 1970 wurden erstmals mehr als zehn Millionen Einwohner gezählt. Zum 31. Dezember 2016 belief sich der Bevölkerungsstand auf 12.930.751 Personen, davon waren rund 50,5 % weiblich. Obwohl im Freistaat mehr Menschen sterben als geboren werden, erhöht sich aufgrund einer deutlich höheren Zuwanderung im Vergleich zur Abwanderung die Bevölkerungszahl seit 2012 kontinuierlich um insgesamt mehr als 400.000. Ende 2012 entsprach der Ausländeranteil 9,6 Prozent. Bayern hatte mit 1,55 Kinder pro Frau im Jahr 2017 eine zusammengefasste Fruchtbarkeitsziffer, die leicht unter dem Bundesdurchschnitt von 1,57 lag. Wie in ganz (West-)Deutschland kam es ab den 1950er Jahren vor dem Hintergrund des deutschen Wirtschaftswunders zu Zuwanderung insbesondere aus der Türkei, dem damaligen Jugoslawien und Italien und verstärkt um 1990 nach dem Ende des Kalten Krieges aus ostmitteleuropäischen und osteuropäischen Ländern. „Vier Stämme Bayerns“ Anfang 1778 wurden das Kurfürstentum Bayern und die Kurpfalz durch Erbfolge der Wittelsbacher wiedervereinigt. Während in napoleonischer Zeit die rechtsrheinische Pfalz an Baden kam, fielen große Teile der linksrheinischen Pfalz 1816 als Rheinkreis an Bayern zurück. Gleichzeitig kamen durch Napoleon weitere schwäbische Gebiete und große Teile Frankens an das Königreich Bayern. Bis zum Zweiten Weltkrieg verstand man unter den vier Stämmen Bayerns die Altbayern, Franken, Schwaben und Pfälzer. Zahlreiche Monumente aus dieser Zeit betonen diesen Sachverhalt. Nach 1945 gelangten über zwei Millionen Flüchtlinge und Heimatvertriebene, vor allem die als Sudetendeutsche bezeichneten Deutschböhmen, Deutschmährer und Sudetenschlesier, nach Bayern. Die Sudetendeutschen wurden von Franz Josef Strauß als „vierter Stamm“ bezeichnet, wobei die deutschböhmische, -mährische und sudetenschlesische Bevölkerung aus unterschiedlichen Dialekt- und Kulturräumen des deutschen Sprachraumes innerhalb der damaligen Tschechoslowakei stammte und somit heterogen ist. Sinti und Jenische haben ebenfalls eine staatlich bisher nicht anerkannte lange Tradition in Bayern. Seit dem Zweiten Weltkrieg und dem endgültigen Verlust der Rheinpfalz 1946 wird nun die ursprünglich ansässige und die unmittelbar nach dem Zweiten Weltkrieg zugewanderte deutsch-böhmische Bevölkerung Bayerns in „Vier Stämme“ (siehe Deutsche Stämme für die Wortherkunft) untergliedert und setzt sich zusammen aus den drei traditionell ansässigen Stämmen, den Franken, den Schwaben und den für den Freistaat namensgebenden Altbayern sowie als viertem Stamm den Sudetendeutschen, für die Bayern die „Schirmherrschaft“ übernahm. Unterscheidungsmerkmale der drei ursprünglich ansässigen Stämme sind etwa eigene Dialekte (bairisch, ostfränkisch, alemannisch), eigene Küchen (bayerisch, fränkisch, schwäbisch), eigene Traditionen, Trachten und teilweise Architekturstile. Es werden gelegentlich den einzelnen Stämmen sogar unterschiedliche Mentalitäten zugeschrieben, so etwa sind laut Bayerischer Staatsregierung die Altbayern weltoffen, beharrlich und musisch begabt, Franken hingegen zeichnen ein ausgeprägter „Gemeinschaftssinn, Organisationstalent, Heiterkeit und ein schnelles Auffassungsvermögen“ aus, während man Schwaben als sparsame Menschen sieht, die einen „Hang zur Untertreibung“ haben. Bei Kabinettsbildungen werden aus Proporzgründen die Ämter nach den Stämmen verteilt. Auch die drei CSU-Ministerposten des Bundeskabinetts Merkel III waren auf die drei Stämme Franken, Baiern und Schwaben verteilt. Bekannt ist vor allem der lange Streit zwischen den Franken und den Altbayern um die angebliche Ungleichbehandlung der Franken durch die Bayern. Franken sei einigen Organisationen gemäß in den Parteistrukturen unterrepräsentiert und bekomme weniger Steuermittel. Auch werde sich generell weniger um Belange und Probleme der fränkischen Regierungsbezirke gekümmert. Gelegentlich wird auch die Rückgabe von sogenannter Beutekunst, Kunstwerke aus fränkischen Städten und Schatzkammern, die vom Königreich Bayern im 19. Jahrhundert konfisziert und nach München gebracht wurden, gefordert. Viele derartige Beschwerden gelten allerdings als gegenstandslos. So sind beispielsweise fränkische Politiker in den Strukturen der großen Parteien nicht unterrepräsentiert. Auch ist die Forderung der Rückgabe von Kunstschätzen problematisch, da etwa der Hofer Altar in München und einige Dürer-Gemälde in der Alten Pinakothek nicht geraubt, sondern freiwillig abgegeben wurden. Religion und Weltanschauung Bayern ist mit 45,7 % (Stand: 2021) nach dem Saarland das Bundesland mit dem höchsten römisch-katholischen Bevölkerungsanteil in Deutschland. Weitere 16,8 % (Stand: 2021) der Bevölkerung sind evangelisch-lutherisch. Diese beiden Konfessionen verteilen sich ungleich über die Bezirke. So sind Altbayern und Unterfranken überwiegend katholisch, Teile Mittelfrankens und Oberfrankens eher protestantisch geprägt. Die Zahl der Katholiken und Protestanten hat sich seit 1970 deutlich verringert. Sowohl die Markgraftümer Ansbach und Bayreuth als auch die Mehrzahl der freien Reichsstädte (wie etwa Nürnberg oder Rothenburg ob der Tauber) zählten zum lutherischen Kernland und waren Hochburgen der Reformation. Der bayerische Staat zahlt der römisch-katholischen Kirche jährlich 65 Millionen Euro und der evangelischen Kirche 21 Millionen Euro Staatsdotationen aus dem allgemeinen Haushalt. Die katholischen Pfarreien gehören dem Bistum Würzburg, dem Bistum Eichstätt und dem Erzbistum Bamberg in der Kirchenprovinz Bamberg sowie dem Bistum Regensburg, dem Bistum Passau, dem Bistum Augsburg und dem Erzbistum München und Freising in der Kirchenprovinz München und Freising an. Weitere katholische Gemeinden unterstehen der Jurisdiktion katholischer Ostkirchen. Die Evangelisch-Lutherische Kirche in Bayern ist eine Gliedkirche der Evangelischen Kirche in Deutschland (EKD) und gliedert sich in sechs Kirchenkreise Ansbach-Würzburg, Augsburg, Bayreuth, München, Nürnberg und Regensburg. Zur EKD gehören ebenfalls die zehn bayerischen Gemeinden der Evangelisch-reformierten Kirche. Evangelische Freikirchen gibt es vor allem in den Ballungsräumen. Die altkatholische Kirche verfügt über ein bayerisches Dekanat. Jüdische Gemeinden gab es bis zum 19. Jahrhundert vor allem in ländlichen Gebieten Frankens und Schwabens sowie den freien Reichsstädten wie etwa in Nürnberg (Ansiedlungsverbot 1499 bis 1850) und Regensburg. Im wittelsbachischen Altbayern gab es so gut wie keine Juden, seit der Judenemanzipation aber zunehmend in bayerischen Städten. Von fast 200 jüdischen Gemeinden vor dem Holocaust existieren in Bayern noch oder wieder 13 Gemeinden. Sie sind in der IKG München und Oberbayern sowie im Landesverband der Israelitischen Kultusgemeinden in Bayern organisiert. Von wachsender Bedeutung ist insbesondere in Großstädten der Islam. Viele Moscheegemeinden versuchen, ihre bisherigen Hinterhofmoscheen durch repräsentative Neubauten zu ersetzen. Eine Studie des Bundesministeriums des Innern beziffert den Anteil der Muslime an der bayerischen Gesamtbevölkerung im Jahr 2008 auf ungefähr 4 Prozent (etwa 13 Prozent der in Deutschland wohnhaften Muslime). Wie in vielen Gegenden Deutschlands wächst auch in Bayern der Anteil konfessionell ungebundener Einwohner. Die Humanistische Vereinigung versteht sich als Weltanschauungsgemeinschaft und Interessenvertretung nichtreligiöser Menschen. Der Verband, der im März 2019 rund 2100 Mitgliedern ausgewiesen hatte, ist in Bayern unter anderem Träger des Humanistischen Lebenskundeunterrichts, er betreibt seit 2008 eine Grundschule in freier Trägerschaft sowie über ein Dutzend Kindertagesstätten. Er unterhält ein eigenes Sozialwerk und den Turm der Sinne in Nürnberg. Besonders in Ballungszentren gibt es kleinere buddhistische, alevitische, hinduistische und Bahai-Gemeinden, Königreichssäle der Zeugen Jehovas und Gemeinden kleinerer christlicher Kirchen wie der Siebenten-Tags-Adventisten. In München hat die fast ausgestorbene Religionsgemeinschaft der Mandäer Zuflucht gefunden und eine Gemeinde gegründet. Aufgrund des Konflikts mit dem deutschen Staat um die Schulpflicht gerieten die Zwölf Stämme bei Nördlingen negativ in die Schlagzeilen. Seit 1966 hat Bayern auch eine mittlerweile große assyrisch-aramäische Gemeinde, die größtenteils der Syrisch-Orthodoxen Kirche von Antiochien angehört. Die meisten dieser Suryoye kommen aus dem Kalksteingebirge Tur Abdin im Südosten der Türkei. Bevölkerungsreichste Städte Bevölkerungsreichste Stadt sowie einzige Millionenstadt Bayerns ist die Landeshauptstadt München mit rund  Millionen Einwohnern (). Sie ist deutschlandweit die drittgrößte Stadt und die elftgrößte Stadt der Europäischen Union und zählt zu den Weltstädten der Kategorie Beta+. Sie ist die größte Stadt Deutschlands, die kein Stadtstaat ist. Zudem ist München mit Einwohnern je Quadratkilometer () die am dichtesten bevölkerte Gemeinde Deutschlands sowie mit dessen höchstgelegene Großstadt. Nürnberg ist mit seinen  Einwohnern () landesweit die zweitgrößte Stadt, belegt bundesweit den 14. sowie in der Europäischen Union den 51. Platz und zählt zu den Weltstädten der Kategorie Gamma−. Aufgrund der Bedeutung Nürnbergs stellt München in Bayern keine Primatstadt dar. Augsburg ist mit  Einwohnern () landesweit die drittgrößte Stadt und belegt bundesweit den 23. Platz. In Bayern gibt es insgesamt acht Großstädte. Jüngste Großstadt (mindestens 100.000 Einwohner) Bayerns ist Fürth (seit 1990), das zuvor bereits von 1951 bis 1956 und von 1972 bis 1976 eine Großstadt war. Nürnberg bildet zusammen mit Erlangen, Fürth und Schwabach ein ausgeprägtes Städteband mit über 810.000 Einwohnern. Metropolregionen in Bayern stellen die Metropolregion München und die Metropolregion Nürnberg dar. Des Weiteren sind Teile zum Rhein-Main-Gebiet zugehörig. Gesundheitswesen In Bayern gibt es über 400 Krankenhäuser, davon fünf Universitätskliniken. Sie verfügen insgesamt über rund 73.000 Betten und rund 4000 teilstationäre. Etwa 60 Prozent der Krankenhäuser befinden sich in öffentlicher Trägerschaft. In Bayern gibt es zudem über 3.200 Apotheken und rund 60.000 Ärzte. Die Arztdichte beträgt 208 Einwohner je Arzt, damit hat Bayern nach dem Saarland einen Spitzenwert unter den Flächenländern. Dennoch wird vor den Folgen eines Ärztemangels in Bayern, vor allem auf dem Land und unter Fachärzten, gewarnt. Die meisten Bewohner Bayerns sind bei der AOK Bayern krankenversichert. Die durchschnittliche Lebenserwartung lag im Zeitraum 2017/19 bei 79,5 Jahren für Männer und bei 83,9 Jahren für Frauen. Die Männer belegen damit unter den deutschen Bundesländern Rang 2, während Frauen Rang 3 belegen. Regional hatten 2013/15 Starnberg (Erwartung der Gesamtbevölkerung: 83,39 Jahre), München (Stadt) (83,02) und der Landkreis München (82,97) die höchste, sowie Amberg (79,04), Straubing (78,80) und Hof (Saale) (78,75) die niedrigste Lebenserwartung. Sprache und Dialekt Amts- und Verkehrssprache ist Deutsch. Zahlreiche weitere Sprachen werden von jenen gesprochen, die aus anderen Sprachregionen kommen bzw. den entsprechenden Migrationshintergrund haben. In Bayern dominieren Dialekte der oberdeutschen Dialektfamilie. Daneben werden räumlich eng begrenzt besonders im westlichen Unterfranken mitteldeutsche Mundarten gesprochen. Die Dialekte in Bayern lassen sich folgenden Dialektgruppen zuordnen (von Nord nach Süd): Mitteldeutsche Dialekte: Rheinfränkisch als Südhessisch um Aschaffenburg (Unterfranken) Thüringisch-Obersächsisch als Südostthüringisch in Ludwigsstadt (Landkreis Kronach, Oberfranken) Oberdeutsche Dialekte: Ostfränkisch als Mainfränkisch und Oberfränkisch vor allem in den fränkischen Regierungsbezirken Bairisch als Nord- und Mittelbairisch, am Rand zu Tirol Südbairisch, vor allem in Altbayern Alemannisch als Schwäbisch und Niederalemannisch vor allem im Regierungsbezirk Schwaben Zwischen diesen Mundarträumen bestehen nicht zu unterschätzende Übergangsgebiete, die sich nicht ohne Bruch einem dieser Gebiete zuordnen lassen. Es existieren bairisch-fränkische (etwa Nürnberg und Umgebung), bairisch-schwäbische (unter anderem Lechrain) und schwäbisch-fränkische (Gebiet um Dinkelsbühl und Hesselberggebiet) Übergangsgebiete, in manchen Orten sogar bairisch-schwäbisch-fränkische Mischdialekte (zum Beispiel Treuchtlingen, Eichstätt). Die Dialekte sind bei den Einheimischen, besonders außerhalb der großen Städte, sehr verbreitet, wobei in Ballungsgebieten wie München ein Aussterben der Dialekte zu beobachten ist. Lexikographisch erfasst werden die bairischen Dialekte durch das Bayerische Wörterbuch, die schwäbischen durch das Schwäbische Wörterbuch und die ostfränkischen durch das Fränkische Wörterbuch, wozu noch zahlreiche Wörterbücher über Orts- und Regionalmundarten kommen. Areallinguistisch werden die Dialekte Bayerns vom Sprachatlas von Bayerisch-Schwaben, dem Sprachatlas von Mittelfranken, dem Sprachatlas von Niederbayern, dem Sprachatlas von Nordostbayern, dem Sprachatlas von Oberbayern und dem Sprachatlas von Unterfranken aufgearbeitet. Zahlreiche weitere deutsche und nichtdeutsche Dialekte werden von jenen gesprochen, die aus anderen Dialekt- oder Sprachregionen kommen. Politik Staatsaufbau Grundlage der Politik in Bayern ist die durch Volksabstimmung am 1. Dezember 1946 angenommene Verfassung des Freistaates Bayern. Die Verfassung trat am 8. Dezember 1946 in Kraft. Bayern ist demnach Freistaat (Republik) und Volksstaat (Demokratie). Seit dem 1. Januar 2000 existiert nach der Abschaffung des Senats ein parlamentarisches Einkammersystem. Die gesetzgebende Gewalt liegt beim Bayerischen Landtag, dessen Abgeordnete alle fünf Jahre (bis 1998: alle vier Jahre) gewählt werden. Bis Ende 1999 existierte mit dem Senat eine zweite Kammer, mit der Vertreter sozialer und wirtschaftlicher Interessenverbände ein politisches Gegengewicht zum Landtag schaffen sollten. In einem Volksentscheid wurde am 8. Februar 1998 die Abschaffung dieser Kammer beschlossen. Bis dahin war Bayern das einzige deutsche Land mit einer zweiten Kammer. Sie hatte jedoch nur bedingten Einfluss, weil sie keine Gesetze einbringen durfte, sondern nur das Recht der Mitwirkung besaß. Die Staatsregierung wird vom Bayerischen Ministerpräsidenten geführt. Er leitet die Geschäfte, bestimmt die Richtlinien der Politik, vertritt Bayern nach außen und ernennt die Staatsminister und -sekretäre. Außer vom Landtag können in Bayern Gesetze und Verfassungsänderungen durch Volksbegehren und Volksentscheid beschlossen werden. Zwingend notwendig ist ein Volksentscheid bei jeder Änderung der Bayerischen Verfassung. Legislative Der Bayerische Landtag ist das Landesparlament des Freistaates Bayern. Sein Sitz ist das Maximilianeum in München. Eine Legislaturperiode dauert fünf Jahre. Die aktuelle Legislaturperiode dauert von 2018 bis 2023. Im Bayerischen Landtag sind momentan sechs Parteien vertreten. Nach der Wahl vom 14. Oktober 2018 ergaben sich folgende Sitzverteilung und Stimmenanteile (insgesamt 205 Sitze): *2013 nicht angetreten Exekutive Die Staatsregierung ist die oberste Behörde des Freistaates Bayern. Der vom Landtag gewählte Ministerpräsident beruft und entlässt die Staatsminister und die Staatssekretäre mit Zustimmung des Landtags. Er weist den Staatsministern einen Geschäftsbereich oder eine Sonderaufgabe zu, den diese nach dem Ressortprinzip und den vom Ministerpräsidenten bestimmten Richtlinien der Politik (Richtlinienkompetenz) eigenverantwortlich verwalten. Die Staatssekretäre sind gegenüber ihren Staatsministern weisungsgebunden. Die Bayerische Staatskanzlei unterstützt den Ministerpräsidenten und die Staatsregierung in ihren verfassungsmäßigen Aufgaben. Die verfassungsrechtliche Höchstgrenze der 18 Mitglieder im Kabinett der Staatsregierung wird meist voll ausgeschöpft. Judikative Das oberste bayerische Gericht ist der Bayerische Verfassungsgerichtshof. Des Weiteren gibt es diverse obere Landesgerichte, darunter drei Oberlandesgerichte in München, Nürnberg und Bamberg, den Bayerischen Verwaltungsgerichtshof, zwei Landesarbeitsgerichte (München und Nürnberg), das Bayerische Landessozialgericht sowie die restliche Judikative. Das Bayerische Oberste Landesgericht als oberstes bayerisches Gericht der ordentlichen Gerichtsbarkeit wurde mit Wirkung zum 1. Juli 2006 aufgelöst, zum 15. September 2018 wiedererrichtet, jedoch mit weniger Kompetenzen. Wahlrecht Im Vergleich zu Wahlen auf Bundesebene weist das bayerische Wahlrecht mehrere Besonderheiten auf: Direktkandidaten, die in ihrem Wahlbezirk (Stimmkreis) die Wahl gewonnen haben, können nur in den Landtag einziehen, wenn auch ihre Partei die Hürde von fünf Prozent erreicht hat. Darüber hinaus ergibt sich die Sitzverteilung im Landtag aus der Summe der Erst- und Zweitstimmen. In anderen Bundesländern und bei Bundestagswahlen entscheidet die Erststimme über die Wahl des Direktkandidaten im Wahlbezirk und allein die Zweitstimme bestimmt die Zahl der Sitze im Parlament, was üblicherweise dazu führt, dass Erststimmen häufiger den großen Parteien mit aussichtsreichen Direktkandidaten gegeben werden. Wer bei einer bayerischen Landtagswahl eine kleinere Partei mit beiden Stimmen wählt, verschenkt seine Erststimme also nicht, da beide Stimmen dieser Partei zugutekommen, selbst wenn der entsprechende Stimmkreiskandidat den Einzug in den Landtag nicht schaffen sollte. Zudem besteht bei der Zweitstimme die Möglichkeit diese einem bestimmten Kandidaten einer Partei zu geben, sodass sich die Reihung der Bewerber gegenüber den von den Parteien aufgestellten Listen ändern kann. Eine weitere Besonderheit findet sich im Kommunalwahlrecht. Es besteht die Möglichkeit des Kumulierens („Häufeln“, bis zu drei Stimmen können für einen Kandidaten abgegeben werden) und des Panaschierens (Stimmen können auf Kandidaten verschiedener Listen verteilt werden). Direkte Demokratie In Bayern gibt es zahlreiche direktdemokratische Elemente. Neben Volksbegehren und Volksentscheid auf Landesebene wurde am 1. Oktober 1995 durch einen Volksentscheid die direkte Demokratie auf Kommunalebene eingeführt. Das bayerische Verfassungsgericht hat die Regelungen 1997 zwar verschärft (unter anderem durch Einführung eines Abstimmungsquorums), dennoch initiieren die Bayern jährlich rund 100 Bürgerentscheide. Landräte und Bürgermeister Bei den Kommunalwahlen sind die drei größten Kräfte meist CSU, SPD und Freie Wähler. Von den 71 Landräten werden 50 von der CSU, 6 von der SPD, 13 von den Freien Wählern und zwei von den Grünen gestellt; fünf Landräte sind weiblich. Von den Oberbürgermeistern der 25 kreisfreien Städte werden elf von der CSU und elf von der SPD, darunter in Nürnberg (Marcus König) und München (Dieter Reiter) gestellt. Ferner sind je ein CDU-Mitglied, eine Parteilose und ein Kandidat der Wählervereinigung Bayreuther Gemeinschaft ins Amt gewählt worden. Die letzte Bayerische Kommunalwahl fand am 15. März 2020 statt. Parteienlandschaft Die Parteienlandschaft im Freistaat Bayern weist Merkmale auf, die in der übrigen Bundesrepublik nicht vorhanden sind: die CDU als Volkspartei ist mit keinem eigenen Landesverband vertreten und nimmt nicht an Wahlen teil. Stattdessen überlässt sie der CSU als Schwesterpartei den Vortritt. Ungewöhnlich für ein deutsches Flächenland ist auch, dass die CSU seit 1957 ununterbrochen den Ministerpräsidenten stellt; des Öfteren in Verbindung mit einer absoluten Mehrheit im Landtag. Die SPD hat in Bayern mit den geringsten Zuspruch aller SPD-Landesverbände. Sie war die größte Oppositionspartei mit einem Fünftel bis zu einem Drittel der Stimmen bei Landtagswahlen bis zur Landtagswahl in Bayern 2018. Bei dieser Wahl erreichte sie nur noch knapp 10 % und wurde damit nach CSU, Grünen (17,5 %), den Freien Wählern und der AfD fünftstärkste Partei. Hingegen zogen in der Vergangenheit die bayerischen Grünen stets mit etwas unter zehn Prozent der Stimmen ins Parlament ein. Bei der letzten Landtagswahl erhielten sie erstmals sechs Direktmandate. Im Gegensatz zu anderen Bundesländern und zur Bundesebene ziehen in Bayern die Freien Wähler regelmäßig ins Landesparlament ein, während Die Linke, die Piratenpartei und die FDP politisch kaum eine Rolle spielen und nur selten bzw. noch nie in den Landtag gewählt wurden. Der AfD gelang es 2018, als sie das erste Mal zur Wahl antrat, in den neuen bayerischen Landtag einzuziehen. In Bayern sind mehrere Regionalparteien aktiv. Die Bayernpartei z. B. setzt sich für die Möglichkeit einer Volksabstimmung über den Austritt Bayerns aus dem deutschen Staatsverband ein. Während sie in den 1950er und 1960er Jahren in den Landtag und Bundestag einzog und sich von 1962 bis 1966 an der Staatsregierung beteiligte, verlor diese Partei nach ihrem Ausscheiden aus dem Landtag vollkommen an Bedeutung. 2009 gründete sich in Bamberg die Partei für Franken, eine regionale Kleinpartei, die sich unter anderem für eine bessere wirtschaftliche Gleichstellung Frankens innerhalb des Freistaates einsetzt. Außer bei den Kommunalwahlen 2014 konnte diese Partei bisher keine besonderen Wahlerfolge vorweisen. Partner- und Patenschaften Am 5. Juni 1954 übernahmen der Freistaat Bayern und die Bayerische Staatsregierung unter Hans Ehard die Patenschaft für die sudetendeutsche Volksgruppe, die nach der Vertreibung der Deutschen aus der Tschechoslowakei in die Bundesrepublik zogen. Mit folgenden Partnerregionen pflegt der Freistaat Bayern Kontakte: seit 1987: Shandong, Volksrepublik China seit 1989: Québec, Kanada seit 1995: Westkap, Südafrika seit 1995: Gauteng, Südafrika seit 1997: São Paulo, Brasilien seit 2004: Guangdong, Volksrepublik China seit 2007: Karnataka, Indien seit 2007: Georgia, Vereinigte Staaten Staatsverschuldung Die Staatsverschuldung des Freistaates Bayern erhöhte sich wie auf Bundesebene und in anderen Bundesländern langfristig. Seit 2011 werden jährlich Schulden getilgt. 1992 lagen die Schulden noch bei rund 15 Milliarden, 2010 wurde ein Höchststand von 29 Milliarden erreicht. 2016 waren es 19 Milliarden Euro Schulden, Ende 2018 15 Milliarden Euro und Ende 2019 13 Milliarden Euro. Die Staatsregierung beabsichtigt mittelfristig bis 2030 alle Schulden zu tilgen. Innere Sicherheit Die bayerische Polizei ist der größte Polizeiverband der Bundesrepublik. Im Jahr 2007 wurden in Bayern 666.807 Straftaten statistisch erfasst. 428.766 Fälle (64,3 Prozent) konnten aufgeklärt, 305.711 Tatverdächtige ermittelt werden. Dies stellt die höchste Aufklärungsquote im Bundesgebiet dar. Die bayerische Polizei unterhält mit der Polizeihubschrauberstaffel Bayern außerdem die größte Polizeihubschrauberstaffel einer Landespolizei. Militär Eine Bayerische Armee existierte als stehendes Heer von 1682 bis zu seiner Auflösung im Jahre 1919. Über eine gewisse Eigenständigkeit verfügte bis 1924 die Bayerische Reichswehr. In der Gegenwart hat die Bundeswehr rund 60 Standorte in Bayern mit insgesamt 50.700 Dienstposten, im Zuge der Neuausrichtung der Bundeswehr schließen in Bayern drei Standorte und die Anzahl an Dienstposten sinkt auf 31.000. Größte Kaserne Bayerns ist die Hochstaufen-Kaserne in Bad Reichenhall. In München und Würzburg befinden sich Bundeswehrfachschulen. Die aus der Division Süd entstandene 10. Panzerdivision der Bundeswehr sitzt in Veitshöchheim. In München haben die Sanitätsakademie der Bundeswehr, das Truppendienstgericht Süd und die Universität der Bundeswehr, in Erding das Wehrwissenschaftliches Institut für Werk- und Betriebsstoffe ihren Sitz. Oberste Kommandobehörde Bayerns ist das Landeskommando Bayern. Im Freistaat gibt es über 150.000 verbandlich organisierte Reservisten. In Bayern gibt es mehrere US-amerikanische Militärbasen. Drittgrößter Truppenübungsplatz Europas ist der Truppenübungsplatz Grafenwöhr. Die einst für die Landesverteidigung zuständigen Gebirgsschützen nehmen heute in der Regel nur noch repräsentative Aufgaben war, so bilden sie beispielsweise auf Bitte der Staatsregierung bei offiziellen Besuchen ausländischer Staatsoberhäupter in Bayern eine Ehrenformation. Bayern in Europa Mit der Verbindung zur Europäischen Politik und Verwaltung ist die Staatsministerin für Europaangelegenheiten und Internationales Melanie Huml betraut. Die Bayerische Staatskanzlei besitzt eine Vertretung bei der Europäischen Union in Brüssel. Bayern hat viele Beziehungen und Kooperationen zu den europäischen Nachbarstaaten, unter anderem zur Koordinierung der Alpen- und Donaupolitik. Der Freistaat Bayern wird durch Politiker im Ausschuss der Regionen vertreten. Dem Europäischen Parlament gehören zwölf Abgeordnete aus Bayern an: fünf von der CSU, drei von der SPD jeweils einer von Bündnis 90/Die Grünen, Freie Wähler, ÖDP und Linkspartei. Der Freistaat Bayern erhält zahlreiche Förderungen von der Europäischen Union, etwa 495 Millionen Euro aus dem Europäischen Fonds für Regionale Entwicklung (EFRE) und knapp 300 Millionen Euro aus dem Europäischen Sozialfonds (ESF), jeweils in der Förderperiode 2014 bis 2020. Bayern im Bund Im Bundesrat hat Bayern ebenso wie Niedersachsen, Baden-Württemberg und Nordrhein-Westfalen die höchstmögliche Anzahl von sechs Stimmen. Vertreten wird Bayern durch den Ministerpräsidenten Markus Söder sowie Hubert Aiwanger, Florian Herrmann, Joachim Herrmann, Thorsten Glauber und Georg Eisenreich. Die Arbeit im Bundesrat wird von der Vertretung des Freistaates Bayern beim Bund koordiniert. Für Bundesangelegenheiten zuständig ist im bayerischen Kabinett Florian Herrmann als Staatsminister für Bundesangelegenheiten und Medien. Konsulate Die wirtschaftliche Bedeutung Bayerns für den Außenhandel der Bundesrepublik Deutschland sowie die Bedeutung als wichtiges Zentrum von Industrie, Handel und Logistik, als Sitz von ausländischen Unternehmen und mit einer Bevölkerung, in der zahlreiche verschiedene Staatsangehörigkeiten vertreten sind, hat dazu geführt, dass auf dem Gebiet des Freistaats Bayern 127 Staaten mit ihren Konsulaten vertreten sind. Darunter sind 45 berufs- sowie 82 honorarkonsularische Vertretungen (Stand 2022). Die meisten Vertretungen befinden sich in München und seinem Umland. Ferner sind ausländische Vertretungen in Nürnberg, Fürth und Regensburg vorhanden. Doyen des bayerischen Corps Consulaire ist der ungarische Generalkonsul Gábor Tordai-Lejkó. Auszeichnungen Die höchste Auszeichnung, die der Freistaat Bayern verleiht, ist der 1853 gestiftete Bayerische Maximiliansorden für Wissenschaft und Kunst. Zur Anerkennung für hervorragende Verdienste werden etwa der Bayerische Verdienstorden, die Bayerische Verfassungsmedaille und zahlreiche weitere Orden, Medaillen und Ehrenzeichen verliehen. Auf Vorschlag von Jurys verleiht der Freistaat zahlreiche Auszeichnungen wie etwa den Bayerischen Filmpreis oder den Bayerischen Printpreis. Hoheitliche Symbole Das Bayerische Staatswappen besteht aus sechs heraldischen Komponenten: Der goldene Löwe, ursprünglich mit der wittelsbachischen Pfalz am Rhein verbunden, steht für die Oberpfalz, der „fränkische Rechen“ für die drei fränkischen Bezirke, der blaue Panther für die Altbayern und die drei schwarzen Löwen für Schwaben. Der weiß-blaue Herzschild deutet den Gesamtstaat Bayern an, die Volkskrone bezeichnet nach dem Wegfall der Königskrone die Volkssouveränität. Das kleine Staatswappen zeigt die bayerischen Rauten und die Volkskrone. Als Wappenzeichen fungieren die bayerischen Rauten und der fränkische Rechen. Der Freistaat Bayern besitzt zwei gleichgestellte Staatsflaggen, die weiß-blau gerautete Flagge und die Flagge mit horizontalen Streifen in den Farben Weiß und Blau. Die Rautenflagge hat immer vom Betrachter aus gesehen links oben (heraldisch rechte, obere Ecke) eine angeschnittene, weiße Raute (auch im Wappen) und mindestens 21 (angeschnittene) Rauten. Die gleichen weiß-blauen Rauten sind in vielen Stadt- und Kreiswappen in den Gebieten der historischen Kurpfalz zu finden, da die Wittelsbacher auch in der Pfalz begütert waren. Ein Flaggenstreit besteht um die Frankenfahne. Die Landeshymne ist das Bayernlied. Der Ursprungstext umfasst drei Strophen und wurde von Michael Öchsner verfasst, die Melodie stammt von Konrad Max Kunz. Dieser historisch-korrekte Text ist auch heute noch die offizielle Version (ersten beiden Strophen), wird in Schulen gelehrt sowie zu offiziellen und staatlichen Veranstaltungen gespielt. Das Bayernlied (Originalfassung) hat seit 1966 Hymnen-Status der Bundesrepublik Deutschland. Die Bavaria (der latinisierte Ausdruck für Bayern) ist die weibliche Symbolgestalt Bayerns und tritt als personifizierte Allegorie für das Staatsgebilde Bayern in verschiedenen Formen und Ausprägungen auf. Sie stellt damit das säkulare Gegenstück zu Maria als religiöser Patrona Bavariae dar. Der Bayerische Löwe ist Symbolfigur des Freistaats Bayern, unter anderem auf Denkmälern und Auszeichnungen. Die Landesfarben sind weiß-blau. Etymologie und Schreibweise Die allein verwendete Schreibweise des Landesnamens mit „y“ geht auf eine Anordnung von König Ludwig I. von Bayern vom 20. Oktober 1825 zurück, mit der die seit 1806 geltende Schreibweise „Königreich Baiern“ abgelöst wurde. Diese Anordnung des Königs zur Schreibung mit dem „griechischen“ Ypsilon steht im Zusammenhang mit dessen Philhellenismus. Bis dahin wurde der Landesname oft mit „i“ geschrieben, wenngleich es auch viele ältere Belege der Schreibung mit einem „y“ gibt. Während der Münchner Räterepublik kehrte man vorübergehend zur Schreibweise „Baiern“ zurück. Auch zur Kaiserzeit war die Schreibweise nicht reichseinheitlich: Der preußische Ministerpräsident Otto von Bismarck verwendete im Briefwechsel mit Ludwig II. um 1880 die alte i-, der Bayernkönig hingegen die y-Schreibweise. Der Stamm der einheimischen Bevölkerung Altbayerns (ohne Franken und bayerisches Schwaben) wird weiterhin als die Baiern (in anderen Abschnitten auch Altbayern genannt) bezeichnet, ebenso lautet die Bezeichnung für den Dialekt Bairisch (in dieser Schreibung bezeichnet das Wort auch die in Österreich gesprochenen Dialekte). Der Begriff Bayern bzw. Baiern ist auf das Volk der Bajuwaren zurückzuführen. Der volle Name der Bajuwaren wird hergeleitet aus einem mutmaßlichen germanischen Kompositum *Bajowarjōz (Plural). Überliefert ist dieser Name als althochdeutsch Beiara, Peigira, latinisiert Baiovarii. Es wird angenommen, dass es sich dabei um ein Endonym handelt. Hinter dem Erstglied Baio steckt das Ethnikon des zuvor bewohnenden keltischen Stammes der Boier, der im althochdeutschen Landschaftsnamen Bēheima ‚Böhmen‘ (, spätlateinisch dann Boiohaemum) und im onomastischen Anknüpfungspunkt (Baias, Bainaib usw.) erhalten ist. Das Zweitglied -ware bzw. -varii der Bewohnerbezeichnung Bajuwaren stammt aus urgermanisch *warjaz ‚Bewohner‘ (vgl. , ), das zu wehren (urgermanisch *warjana-) gehört (vgl. auch walisisch gwerin ‚Menschenmenge‘). Der Name ‚Baiern‘ wird deshalb als ‚Bewohner Böhmens‘ gedeutet. Die Namensdeutung ist allerdings weiterhin umstritten. Verwaltungsgliederung Regierungsbezirke und Bezirke Das Staatsgebiet des Freistaates Bayern ist für den Bereich der allgemeinen und inneren Verwaltung in Verwaltungssprengel eingeteilt, die Regierungsbezirke (laut Verfassung Kreise) genannt werden. Die Regierungsbezirke werden durch die Regierungen geleitet, denen je ein Regierungspräsident vorsteht, der vom Innenminister ernannt wird. Die Regierungen sind die Mittelbehörden der allgemeinen und inneren Verwaltung und unterstehen dem Staatsministerium des Inneren. Nachstehend sind die Regierungsbezirke sortiert nach dem Amtlichen Gemeindeschlüssel (AGS) und mit den Abkürzungen des Bayerischen Staatsministeriums des Innern. Geografisch deckungsgleich mit den Regierungsbezirken sind in Bayern die Bezirke gleichen Namens. Anders als die Regierungsbezirke, welche die örtliche Zuständigkeit der Regierungen festlegen, sind die Bezirke kommunale Gebietskörperschaften des öffentlichen Rechts. Der Bezirk ist in Bayern die dritte kommunale Ebene über den Gemeinden (erste Ebene) und Landkreisen (zweite Ebene). Sie sind Selbstverwaltungskörperschaften und haben daher demokratisch gewählte Verwaltungsorgane, den Bezirkstag, der alle fünf Jahre von den Wahlberechtigten des Bezirks direkt gewählt wird, und einen Bezirkstagspräsidenten, der aus der Mitte des Bezirkstags gewählt wird. Sie können anders als die Regierungsbezirke Wappen und Flaggen wie eine Gemeinde oder ein Landkreis führen. Planungsregionen Bayern hat 18 Planungsregionen. Sie sind regionale Planungsräume, in denen nach dem Bayerischen Landesentwicklungsprogramm ausgewogene Lebens- und Wirtschaftsbeziehungen erhalten oder entwickelt werden sollen. Hierzu wird für jede Region ein Regionalplan aufgestellt. Die Region Donau-Iller (15) ist die erste länderübergreifende Planungsregion Deutschlands mit einem östlichen Teil in Bayern und einem westlichen Teil in Baden-Württemberg. Landkreise und kreisfreie Städte Die sieben Regierungsbezirke unterteilen sich in 71 Landkreise und 25 kreisfreie Städte. Die Landkreise und die kreisfreien Städte sind kommunale Gebietskörperschaften mit Selbstverwaltungsrecht. Die Landkreise haben als Verwaltungsorgane den Kreistag und den Landrat. Die kreisfreie Stadt handelt durch den Stadtrat und den Oberbürgermeister. Sowohl der Landrat beziehungsweise der Oberbürgermeister als auch der Kreistag beziehungsweise der Stadtrat werden von den Wahlberechtigten auf die Dauer von sechs Jahren gewählt (süddeutsche Ratsverfassung). Die Landkreise bilden gleichzeitig Sprengel, welche die örtliche Zuständigkeit der Unterbehörden der allgemeinen und inneren Verwaltung festlegen. Anders als auf der Ebene der Regierungsbezirke hat der Staat hier jedoch keine eigenen inneren Behörden errichtet, sondern bedient sich durch Organleihe des Landrates zur Erfüllung der Aufgaben der staatlichen Verwaltung; der Landrat ist insoweit Kreisverwaltungsbehörde. Bei den kreisfreien Städten ist im Gegensatz dazu eine Vollkommunalisierung gegeben, da ihnen die Aufgaben der unteren staatlichen Verwaltungsbehörde zur selbstständigen Erledigung übertragen werden. Flächengrößter Landkreis Bayerns ist der Landkreis Ansbach (Mittelfranken). Der Landkreis München (Oberbayern) ist mit Einwohnern () der bevölkerungsreichste Landkreis des Freistaates. Schwabach (Mittelfranken) ist Bayerns bevölkerungsärmste kreisfreie Stadt mit Einwohnern (). Gemeinden Der Freistaat Bayern besteht aus 2.056 politisch selbständigen Gemeinden (Stand: 1. Juli 2021) sowie 172 gemeindefreien Gebieten, meist Seen und Forste (Stand: 1. Juli 2023). Von den 2031 kreisangehörigen Gemeinden sind 985 Mitgliedsgemeinden in einer der 311 Verwaltungsgemeinschaften (Stand: 1. Juli 2021). Die Gemeinden verteilen sich (Stand: 1. Juli 2021) auf 25 kreisfreie Städte und 29 Große Kreisstädte. Zum 1. Januar 2009 gab es 262 sonstige Städte, 386 Märkte und 1.355 sonstige Gemeinden. Zusätzlich sind 13 Orte zu leistungsfähigen kreisangehörigen Gemeinden ernannt worden, die bestimmte Aufgaben der Bauaufsicht übernehmen. Während kreisfreie Städte die gleichen Aufgaben wie Landkreise übernehmen, haben Große Kreisstädte nur einige Aufgaben, die über die einer „normalen“ kreisangehörigen Gemeinde hinausgehen. Obwohl das Marktrecht heute keine rechtliche Bedeutung hat, können größere kreisangehörige Gemeinden auf deren Antrag auch heute noch von der Bayerischen Staatsregierung offiziell zum „Markt“ erklärt werden. Der Begriff „Marktgemeinde“ ist in Bayern keine offizielle Bezeichnung für eine Kommune. Es kommt dort aber vor, dass der Begriff „Markt“ offizieller Bestandteil des Gemeindenamens ist, zum Beispiel Markt Berolzheim oder Markt Einersheim. Flächengrößte und einwohnerstärkste Gemeinde Bayerns ist München, flächenkleinste Gemeinde ist Buckenhof im Landkreis Erlangen-Höchstadt, einwohnerärmste Gemeinde ist Chiemsee im Landkreis Rosenheim. Unterhaching ist die einwohnerstärkste Gemeinde Bayerns ohne eigenes Markt- oder Stadtrecht. Verwaltungsreformen Die einzige Kreisreform in Bayern fand mit Wirkung vom 1. Juli 1972 statt. Alle weiteren Änderungen der Kreisgrenzen sind auf kleinere, nicht grundlegende Reformen zurückzuführen, bei denen es sich hauptsächlich um Gemeindegebietsreformen handelte. Manchmal wurden Gemeinden in bestehende Gemeinden eingemeindet, manchmal wurde auch eine neue Gemeinde gebildet. Von 1971 bis 1980 wurden in Folge von Gemeindefusionen die Effizienz der Gemeinden stark vergrößert. Die Zahl der Gemeinden wurde von etwa 7000 auf rund 2050 reduziert, die Zahl der Landkreise sank von 143 auf 71, die Zahl der kreisfreien Städte sank von 48 auf 25. Zugleich wurde die Verwaltungseinheit der Großen Kreisstadt eingeführt. Wirtschaft und Verkehr Bayern gilt als sehr wirtschaftsstarker und reicher Staat, er hat sich in den letzten Jahrzehnten vom Agrar- zum Technologiestandort entwickelt. Der Anteil Bayerns an der deutschen Wirtschaftsleistung betrug 2021 18,5 Prozent. Die wirtschaftlich stärkste Region ist der Großraum München mit Automobilindustrie (BMW, Audi, MAN, Knorr-Bremse), IT-Sektor (Siemens, Nokia Networks, Infineon, Microsoft, Nemetschek SE), Medien und Verlagen (ProSiebenSat.1 Media, Vodafone Kabel Deutschland, Hubert Burda Media), Rüstungsindustrie (Airbus, Krauss-Maffei) und Touristik (Museen, Oktoberfest, Kongressen, Messen). Weitere bedeutende Wirtschaftsstandorte in Südbayern sind Augsburg (Airbus, Fujitsu Technology Solutions, MAN, KUKA, UPM-Kymmene, Verlagsgruppe Weltbild), Ingolstadt (Audi, MediaMarktSaturn Retail Group) und das Bayerische Chemiedreieck zwischen Chiemsee, Inn und Salzach. Einen weiteren wichtigen Wirtschaftsstandort stellt der Großraum Nürnberg mit Industrieunternehmen (Siemens, Leistritz Group, Dehn, Schmitt + Sohn), Sportartikelherstellern (Adidas, Puma, uvex), Spielwarenproduzenten (Playmobil, Simba-Dickie-Group, Trix, Herpa, Bruder), Schreibwarenherstellern (Faber-Castell, Lyra, Staedtler, Schwan-Stabilo), Automobilindustrie (Alcan/Nüral, Leoni, MAN, Schaeffler), Rüstungsunternehmen (Diehl, RUAG Ammotec, RWS), Dienstleistern (DATEV, Ergo Direkt, GfK, Nürnberger Versicherung), Druckereien und Verlagen (Olympia-Verlag, Tessloff Verlag, Verlag Nürnberger Presse) sowie Touristik (Museen, Christkindlesmarkt, Kongressen und Messen) dar. Daneben kann in Nordbayern der Raum zwischen Aschaffenburg und Würzburg/Schweinfurt sehr gute Wirtschaftsdaten aufweisen, etwa eine Arbeitslosigkeit von durchschnittlich unter sechs Prozent und eine florierende Wirtschaft. Gleiches gilt für Regensburg (Continental Automotive, Maschinenfabrik Reinhausen, BMW, Siemens, Infineon, Osram Opto Semiconductors), das seit Jahren an Wirtschaftskraft zunimmt. Ein weiterer Wirtschaftsraum ist Hochfranken. Vertreten sind dort Nexans, Dennree, Scherdel und Netzsch. Manche Grenzregionen sind durch Wettbewerbsvorteile in den Nachbarstaaten einesteils und mangelnde Infrastruktur andernteils von Subventionen abhängig. Speziell der Bayerische Wald hatte zu Zeiten des Kalten Krieges durch seine abseitige Lage im Zonenrandgebiet wenig Standortattraktivität besessen. Zwar fiel nach 1990 dort der Eiserne Vorhang zur Tschechoslowakei, gleichzeitig wurde im wiedervereinigten Deutschland die Zonenrandförderung aufgehoben, und zugleich bot das angrenzende Tschechien – ab 2004 Mitglied der Europäischen Union – oft bessere Investitionsanreize. Eine große Bedeutung haben in Bayern die Familienunternehmen. In der Platzierung der 1000 größten Unternehmen dieses Typus liegt Bayern mit 193 Unternehmen im Bundesländervergleich (nach Nordrhein-Westfalen) auf Rang zwei. Die größten Unternehmen in maßgeblichem Unternehmerbesitz sind BMW, Schaeffler und Knauf. Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreichte Bayern 2014 einen Index von 151 (EU-28: 100; Deutschland: 131). Die Arbeitslosenquote beträgt . Die höchste Arbeitslosenquote Bayerns hatte 2019 die Stadt Schweinfurt. Bayern – insbesondere der Raum Nürnberg – erfuhr des Öfteren Werkschließungen und die Verlagerung von Arbeitsplätzen. Mitte der 1980er Jahre begann der Niedergang des Büromaschinenherstellers Triumph-Adler; 2003 löste sich die Grundig AG auf. Von 2005 bis 2007 erfolgte die Schließung und Verlagerung des AEG-Stammwerks ins Ausland. Der ehemals weltgrößte Versandhaus-Konzern Quelle GmbH ging im 2009 in Insolvenz und wurde aufgelöst. International bedeutende Messen befinden sich in München und Nürnberg. Tourismus Der Tourismus gilt aufgrund seines hohen Beitrags zur bayerischen Wirtschaft als „Leitökonomie“. So betrug der Bruttoumsatz der Tourismuswirtschaft 2016 fast 24 Milliarden Euro, die Tagesreisen stellten mit 63 Prozent den größten Anteil davon. Die Beherbergungsindustrie spielt in Bayern mit 13.400 Beherbergungsbetrieben mit mindestens neun Betten und 548.000 Gästebetten eine große Rolle. Das bedeutet, dass sich etwa jeder vierte deutsche Beherbergungsbetrieb in Bayern befindet. Nach Mecklenburg-Vorpommern war Bayern im Jahre 2014 das zweitbeliebteste innerdeutsche Urlaubsziel (gemessen an Reisen ab fünf Tagen Dauer). 2018 hat der Tourismus in Bayern mit 39,1 Millionen Ankünften und 98,7 Millionen Übernachtungen den achten Ankunfts- und Übernachtungsrekord in Folge erzielt. Bayern war 2018 das beliebteste Reiseziel ausländischer Gäste in Deutschland. Touristisch sind neben München besonders die Regionen um die bayerischen Seen und in den Alpen, die kulturhistorisch bedeutenden Städte Nürnberg (mit der historischen Meile, Reichsparteitagsgelände und seinen Museen), Augsburg (mit der Fuggerei, Stadtmauer, Renaissancebauten) sowie Regensburg (mit der historischen Altstadt als UNESCO-Welterbe seit 2007) stark. Oberbayern nimmt mit 38,0 Millionen Übernachtungen einen Spitzenplatz unter den Regierungsbezirken ein, die zweitstärkste Destination ist Bayerisch Schwaben mit 15,5 Millionen. Die offizielle Marketinggesellschaft der bayerischen Tourismus- und Freizeitwirtschaft ist seit Jahresbeginn 2000 die Bayern Tourismus Marketing GmbH (München). Das Motto lautet: „Bayern – traditionell anders“. Zuständig für die touristischen Angebote und die zugehörige Qualitätssicherung sind die vier regionalen Tourismusverbände: Tourismusverband Allgäu/Bayerisch Schwaben, Tourismusverband Franken, Tourismusverband Ostbayern und der Tourismus Oberbayern München. Energie Verbrauch Der Primärenergieverbrauch im Land ist recht konstant und lag im Jahr 2010 bei 578,2 Milliarden Kilowattstunden, nach 556,8 Milliarden Kilowattstunden im Jahr 2009 und 566,6 Milliarden Kilowattstunden im Jahr 2008. Dies kann einer steigenden Energieproduktivität zugeschrieben werden, also einer verbesserten wirtschaftlichen Produktivität im Verhältnis zur eingesetzten Energie. Diese ist seit 1995, das als Basisjahr angelegt wird, fast durchgehend gestiegen. Die Jahre 2008 und 2009 fallen hinter den Bestwert im Jahr 2007 zurück. Die größten Energieverbraucher im Jahr 2010 waren die Privathaushalte, die 29 Prozent des Endenergieverbrauches ausmachten. Die Bereiche Industrie und Verkehr benötigten gleichermaßen 28 Prozent der Endenergie und damit nur geringfügig weniger als die Haushalte. Etwas abgeschlagen war der Bereich Gewerbe, Handel, Dienstleistungen mit insgesamt 15 Prozent am Endenergieverbrauch. Energieversorger In Bayern waren im Jahr 2013 ungefähr 420 Energieversorger in einem oder mehreren Bereichen angesiedelt: Circa 350 dieser Versorger engagierten sich in der Stromversorgung, ungefähr 100 wirtschafteten im Bereich der Wärme- und Kälteversorgung, etwa 140 befassten sich mit der Erdgas-Sparte. Strommix Die Kernenergie bildet mit 48,7 Prozent den größten Anteil an der Nettostromerzeugung. Auf dem zweiten Platz folgen erneuerbare Energien mit 29,2 Prozent. Beide Anteile sind damit im Vergleich zum bundesweiten Durchschnitt (18 bzw. 21 Prozent) überdurchschnittlich groß. Konventionelle Gase tragen mit 15,5 Prozent zur Nettostromerzeugung bei – dieser Anteil liegt nahezu im Bundesdurchschnitt (14 Prozent). Die Stromerzeugung aus Kohlekraftwerken ist relativ unbedeutend, ihr Anteil beträgt 4,1 Prozent (Bundesweiter Durchschnitt von Braun- und Steinkohle insgesamt 42 Prozent). Einen noch geringeren Anteil besitzen mineralische Öle mit 2,6 Prozent, die bundesweit im Schnitt seltener genutzt werden (Heizöl, Pumpspeicher und andere hier insgesamt 5 Prozent) (Stand: jeweils 2011). Kernenergie An zwei Standorten in Bayern befinden sich Kernkraftwerke (KKW Isar und KKW Gundremmingen), außerdem wird in Garching bei München ein Forschungsreaktor betrieben (FRM II). Eine Studie des Deutschen Instituts für Wirtschaftsforschung (DIW) stellte 2015 fest, dass der Atomausstieg die Versorgungssicherheit in Bayern und Deutschland nicht gefährdet. Erneuerbare Energien Erneuerbare Energien trugen 2014 mit 36,2 % zur Bruttostromerzeugung bei. Der hohe Anteil erneuerbarer Energien an der Nettostromerzeugung fußt vor allem auf dem bedeutenden Anteil der bereits seit Jahrzehnten genutzten Wasserkraft: Ihr Anteil an der Stromerzeugung aus erneuerbaren Energien liegt bei 35,3 Prozent. Zweitwichtigster regenerativer Energielieferant ist mittlerweile die Photovoltaik mit 35,2 Prozent am Gesamtanteil der erneuerbaren Energien, die mit im Rahmen der Energiewende stark ausgebaut wurde. Die Stromerzeugung aus Biomasse hatte einen Anteil von 25,4 Prozent. Weiterhin eher unbedeutend ist die Nutzung der Windenergie – der Beitrag beläuft sich auf 5,6 Prozent der erneuerbaren Stromerzeugung (Stand: jeweils 2014). Im Bundesländervergleich „Erneuerbare Energien“ belegte Bayern im Jahr 2012 den zweiten Platz nach Brandenburg. Bis 2021 sollten erneuerbare Energien dem Bayerischen Energiekonzept (2011) zufolge einen Anteil von 20 Prozent am Endenergieverbrauch und 50 Prozent am Stromverbrauch erreichen. Nach diesem Energiekonzept sollte die Windenergie bis 2025 ca. 6 bis 10 Prozent des Strombedarfes decken, was etwa dem Neubau von 1000 bis 1500 zusätzlichen Windkraftanlagen entspricht. Im Widerspruch zu diesem Ziel wurden 2014 deutlich verschärfte restriktive Abstandsregelungen in Form der 10-H-Regelung eingeführt und ein Jahr später das Windenergieausbauziel auf 5 bis 6 Prozent des Strombedarfes reduziert. Daraufhin brachen die Zahl der Baugenehmigungen von 336 im Jahr 2014 auf 25 im Jahr 2015 ein. Bei einer Gesamthöhe von 200 m stehen für die Windenergienutzung theoretisch nur 0,05 % der Landesfläche zur Verfügung; unter Berücksichtigung, dass nur manche Standorte auch genügend Wind aufweisen nur 0,01 %. Bis Mitte 2018 waren 1159 Windkraftanlagen mit einer Gesamtleistung von 2510 MW installiert. Medien Bayern ist Sitz mehrerer bedeutender Medienunternehmen, insbesondere in der Landeshauptstadt München. Dort, beziehungsweise im Umland von München, befinden sich etwa öffentlich-rechtliche Medien wie der Bayerische Rundfunk und die Programmdirektion des ARD-Gemeinschaftsprogramms Das Erste und des ZDF-Landesstudios Bayern sowie private Fernseh- und Hörfunkanbieter wie Antenne Bayern, ProSiebenSat.1 Media, Sport1 oder Sky Deutschland. Des Weiteren sind in München etwa 250 ansässige Verlage und große Zeitungen wie etwa die Süddeutsche Zeitung (SZ) angesiedelt. Nürnberg bildet einen der größten Verlagsstandorte Deutschland; dort werden beispielsweise das bundesweit erscheinende Sportmagazin Kicker des Nürnberger Olympia-Verlags und die Nürnberger Nachrichten, eine der größten deutschen Tageszeitungen mit einer Auflage von rund 300.000 Exemplaren, herausgegeben. BayernWLAN Der Freistaat Bayern betreibt ein großflächiges Netz von über 40.000 kostenfrei angebotenen BayernWLAN-Hotspots mit der WLAN SSID @BayernWLAN. Im Bereich des ÖPNV unterstützt der Freistaat Bayern die Kommunen bei der Einrichtung von WLAN-Angeboten finanziell und organisatorisch. Verkehr Internationaler Verkehr Im internationalen Straßen- und Bahnverkehr sind die Verbindungen von Deutschland nach Österreich und darüber hinaus nach Italien und Südosteuropa von überragender Bedeutung. Beispielhaft sind hier die Verbindungen von Nürnberg über Regensburg und Passau nach Linz, die Verbindungen von Würzburg bzw. Nürnberg und München über Rosenheim nach Salzburg beziehungsweise Innsbruck sowie die Verbindung von München über Lindau nach Bregenz und Zürich zu erwähnen. Hingegen sind die Verkehrsverbindungen ins benachbarte Tschechien bei weitem nicht von vergleichbarer Relevanz, lediglich die Bundesautobahn 6 wurde nach der politischen Wende in der Tschechischen Republik verwirklicht. Insbesondere die Bahnverbindungen in die Tschechische Republik sind bis heute nicht sehr leistungsfähig. Eine Elektrifizierung wurde bisher auf keiner nach Tschechien führenden Verbindung umgesetzt. Vor dem Zweiten Weltkrieg befand sich in der tschechoslowakischen Stadt Cheb (Eger) ein Bahnknotenpunkt, der mittels Korridorverbindungen im deutschen Binnenverkehr genutzt wurde. Seit seinem Bestehen unterstand er bis zum Ende des Zweiten Weltkrieges bayerischen beziehungsweise deutschen Bahnverwaltungen. Zu Zeiten des Kalten Krieges besaß die Verbindung von Nürnberg über Cheb nach Prag eine vergleichsweise wichtige Bedeutung. Heute bestehen von Nürnberg aus nur noch Umsteigeverbindungen mit Regionalzügen über Cheb und Furth im Wald, während von München aus mit dem Alex eine Direktverbindung über Regensburg (Richtungswechsel), Schwandorf (erneuter Richtungswechsel) und Furth im Wald nach Prag besteht. Für die Zukunft wird im Rahmen des Projektes Donau-Moldau-Bahn eine Elektrifizierung der Verbindung geplant. Für den Fernverkehr von Nürnberg nach Prag bietet die Deutsche Bahn Fernbusse an. Straßen Durch Bayern führen unter anderem die Autobahnen A 3, 6, 7, 8, 9 und 70 sowie die seit dem Herbst 2005 fertiggestellte A 71 und die im August 2008 fertiggestellte A 73, die Bayern mit Thüringen verbinden. Anbindung an das Bundesland Hessen besteht über die A 3, die A 7 sowie ein kleines Teilstück der A 45. Über die A 72 erhält man Anschluss an den Freistaat Sachsen. Sternförmig von München aus führen die A 95 nach Garmisch-Partenkirchen, die A 96 über Memmingen nach Lindau, die A 93 über Regensburg nach Hof, die A 92 über Landshut nach Deggendorf und die A 94 in Abschnitten nach Passau. Von der A 95 zweigt die A 952 als Verbindung zum Starnberger See ab. Südlich verbindet ein Stück der A 93 die A 8 mit der Brenner Autobahn. Seit den 1970er Jahren geplant, bisher wegen Streitigkeiten um die Trassenführung nur in Abschnitten fertiggestellt ist die A 94 von München über Altötting nach Passau. Daneben führt auch eine große Anzahl an Bundesstraßen durch Bayern. Den Münchner Ring bilden die Autobahnen A 99 mit der Eschenrieder Spange (auch A 99a genannt) und die A 995. Ergänzt werden diese durch Staats-, Kreis- und Gemeindestraßen. Bayern ist damit straßenverkehrsmäßig gut erschlossen. Dennoch stammen mit 344 Projekten zu Bundesautobahnen und Bundesstraßen 18,5 Prozent der Anmeldungen zum Bundesverkehrswegeplan 2030 aus Bayern. Bayern bekam vom seit 2009 CSU-geführten Bundesverkehrsministerium im Zeitraum von 2009 bis 2018 vermehrt Investitionen aus Bundesmitteln zugewiesen. Gemessen an Infrastruktur und Einwohnerzahl waren dies überproportional viele Gelder vor allem für Fernstraßen. Von 2014 bis 2019 wurden beispielsweise in Bayern 243 Brücken von insgesamt ca. 4.700 saniert, in Nordrhein-Westfalen 100 von fast 4.400. In die Fernstraßen in Bayern wurden 2 Milliarden Euro investiert, im bevölkerungsreichsten Land Nordrhein-Westfalen 1,4 Milliarden Euro. Bayern erhielt auch über den Gesamtzeitraum die höchste Mittelzuweisung und hatte dabei die größte Aufstockung der Mittel. So konnten in Bayern (bzw. im Vergleich dazu in NRW) von 2011 bis 2018 an neu gebauten Straßenkilometern fertig gestellt werden: für Autobahnen 13 km (24 km) und für Bundesstraßen 120 km (0 km). Im Süden wird Bayern überdies gerne als Abkürzung im innerösterreichischen Verkehr benutzt, da aufgrund der geographischen Gegebenheiten der Weg durch die Alpen bei weitem länger ist als von Innsbruck über die A 8 oder von Lofer über die B 21 oder B 305 nach Salzburg („Großes“ bzw. „Kleines Deutsches Eck“). Schienen-, Flug- und Schiffsverkehr Bayern verfügt über ein dichtes Streckennetz im Eisenbahnverkehr mit zahlreichen Bahnhöfen. Der Münchener und der Nürnberger Hauptbahnhof sind zwei der größten in Deutschland und stellen dabei wichtige Knotenpunkte im transeuropäischen Verkehr dar. Die Städte München und Nürnberg verfügen über U- und S-Bahnen mit einem weiten Einzugsgebiet. Eines der größten europäischen Drehkreuze für den Flugverkehr ist der Flughafen München „Franz Josef Strauß“. Neben dem internationalen Flughafen Nürnberg „Albrecht Dürer“, gibt es noch den Flughafen Memmingen und zahlreiche Verkehrslandeplätze. 2018 kam es viermal zu einem Treibstoffschnellablass über Bayern. Dabei wurden insgesamt 107 Tonnen Kerosin abgelassen. Die meisten Binnenschifffahrten finden auf der Donau, dem Main sowie auf dem Main-Donau-Kanal statt. Hierfür gibt es zahlreiche Güterhäfen. Mit einer jährlichen Umschlagleistung von rund 15 Millionen Tonnen ist das trimodale Güterverkehrszentrum am Nürnberger Hafen das größte und bedeutendste multifunktionale Güterverkehrs- und Logistikzentrum Süddeutschlands. Kultur Theater, Schauspiel und Oper Bayern verfügt über mehrere Staatstheater. Die Bayerische Staatsoper im Nationaltheater München gilt als das national und international renommierteste Haus in Bayern. Des Weiteren spielen in München das Bayerische Staatsschauspiel, das Residenztheater München, das Bayerische Staatsballett und das Staatstheater am Gärtnerplatz. Daneben bestehen das Staatstheater Nürnberg und das Staatstheater Augsburg, die aus den jeweiligen städtischen Bühnen hervorgegangen sind. Sechzehn Theater werden von bayerischen Kommunen getragen. Mehrspartenhäuser sind hierbei die Theater in Regensburg, Würzburg, Hof und Coburg. Vorwiegend oder ausschließlich Sprechtheater bieten das E.T.A.-Hoffmann-Theater in Bamberg, Das Theater Erlangen, das Stadttheater Fürth und das Stadttheater Ingolstadt sowie in der bayerischen Landeshauptstadt die Münchner Kammerspiele und das Münchner Volkstheater. Die vier Landesbühnen sind in Memmingen, Landshut/Passau/Straubing, Coburg und Dinkelsbühl beheimatet. Theater für Kinder und Jugendliche bieten neben den Kinder- und Jugendsparten der kommunal geförderten Häuser unter anderem die Schauburg in München oder das Theater Pfütze und das Theater Mummpitz in Nürnberg an. Internationale Bekanntheit erlangte die Augsburger Puppenkiste durch ihre Fernsehproduktionen, das Figurentheater bietet jedoch auch ein Programm für Erwachsene an. Des Weiteren gibt es eine Vielzahl an freien und privaten Theatern sowie Volks- und Bauerntheatergruppen. Die von Richard Wagner gegründeten Bayreuther Festspiele sind ein international bedeutendes Festival. Jährlich finden in wechselnden Städten die Bayerischen Theatertage statt. Musik Bayern wird traditionell als die Heimat der Volksmusik, der Jodler und Schuhplattler angesehen. Aus Bayern stammen bekannte Komponisten wie Max Reger, Carl Orff, Wilfried Hiller, Richard Strauss und Christoph Willibald Gluck. Die Regensburger Domspatzen, die Augsburger Domsingknaben, der Tölzer Knabenchor und der Windsbacher Knabenchor sowie der Münchener Bach-Chor sind weltweit bekannte Chöre. Zu den bekanntesten in Bayern beheimateten klassischen Orchestern zählen die Münchner Philharmoniker, das Symphonieorchester des Bayerischen Rundfunks, die Bamberger Symphoniker, das Bayerische Staatsorchester am Nationaltheater, die Augsburger Philharmoniker am Staatstheater Augsburg, das Münchener Bach-Orchester, die Bayerische Kammerphilharmonie in Augsburg, die Münchner Symphoniker, das Münchener Kammerorchester, das Georgische Kammerorchester in Ingolstadt, die Nürnberger Philharmoniker am Staatstheater Nürnberg, die Nürnberger Symphoniker und die Hofer Symphoniker, die als einziges Orchester auch Musikschüler ausbilden. Unter den Musikfestspielen herausragend sind die Bayreuther Festspiele und die Münchner Opernfestspiele. Ein weiteres Highlight in der Musikszene sind die Thurn-und-Taxis-Schlossfestspiele, die in Regensburg seit mehreren Jahren unter dem Protektorat von Gloria von Thurn und Taxis gegeben werden. In den letzten Jahren stieg die Zahl der Besucher stetig an. Ebenfalls beachtenswert ist der Münchner Kaiserball sowie der Nürnberger Opernball. Film Bayern ist zusammen mit der Stadt München, dem Bayerischen Rundfunk sowie der Spitzenorganisation der Filmwirtschaft Gesellschafter der Internationalen Münchner Filmwochen GmbH, die sowohl das alljährliche Filmfest München als auch das Internationale Festival der Filmhochschulen München organisieren. In Nürnberg finden im jährlich wechselnden Turnus das Nuremberg International Human Rights Film Festival sowie der Deutsche Menschenrechts-Filmpreis statt. Zusätzlich beheimatet die Stadt neben dem Filmfestival Türkei/Deutschland auch das Fantasy Filmfest. In Hof (Saale) finden alljährlich die Hofer Filmtage statt. Ihr Gründer Heinz Badewitz starb 2016, das Festival existiert aber weiterhin. Bei den Filmtagen stehen vor allem deutsche, aber auch internationale Weltpremieren im Vordergrund. Küche Durch das Nebeneinander der zwei Stämme Altbayern und Franken, dazu kulturelle Teile von Schwaben, ist die Küche im Freistaat Bayern sehr vielfältig: Schweinsbraten, Schweinshaxe, Schäufele (Schweineschulter), Kalbshaxe, Spanferkel Semmelknödel, Kartoffelknödel oder fränkisch Kloß, Leberknödel und -suppe Sauerkraut, Krautwickel, Krautspätzle, Krautkrapfen Leberspätzle(suppe), Speckknödel(suppe), Pfannkuchensuppe (Fädlesuppe) Blaue Zipfel, Hofer Rindfleischwurst, Fränkische Bratwurst, Nürnberger Rostbratwurst, Regensburger Wurst, Stockwurst, Weißwurst, Wollwurst Dampfnudeln, Rohrnudeln, Schmalznudeln, Bayerisch Creme Bayerischer Kartoffelsalat, Bayerischer Wurstsalat Obazda oder fränkisch: Gerupfter Leberkäse Schwaben und Allgäu: Kässpatzen Fingernudeln (Schupfnudeln) Saures Lüngerl Hofer Schnitz (Gemüseeintopf aus dem Osten Oberfrankens) Veranstaltungen Volksfeste und Kirchweihen sind in Bayern weit verbreitet. Anfänglich gedachte man damit der Kirchenweihe. Vielerorts gibt es viele Kirchweih-Traditionen, wie etwa das Aufstellen eines Kirchweihbaumes. In größeren Städten wird meist anstatt einer Kirchweih ein Volksfest begangen. Das größte Volksfest der Welt ist das Münchner Oktoberfest (Wiesn) mit 6,3 Millionen Besuchern im Jahr 2014. Weitere große Volksfeste in Bayern sind das Gäubodenvolksfest in Straubing, die Erlanger Bergkirchweih, das Karpfhamer Fest, das Nürnberger Volksfest, der Augsburger Plärrer, das Würzburger Kiliani-Volksfest, die Regensburger Dult, die Fürther Michaeliskirchweih und der Hofer Schlappentag. Bayern hat offiziell kein Landesfest, jedoch hat der Tag der Franken, der seit 2006 in Franken begangen wird, den Charakter eines Landesfesttags. Der Nürnberger Christkindlesmarkt ist ein Weihnachtsmarkt auf dem Hauptmarkt und gehört mit über zwei Millionen Besuchern jährlich zu den größten Weihnachtsmärkten Deutschlands und den bekanntesten weltweit. Aushängeschild unter den traditionellen Dorfkirchweihfesten ist die Limmersdorfer Lindenkirchweih im oberfränkischen Thurnau (Landkreis Kulmbach), in deren Mittelpunkt der Tanz in der Lindenkrone zählt. Sie wird seit mindestens 1729 als fränkische Plankirchweih ununterbrochen durchgeführt. 2014 wurde sie deshalb als Sinnbild dörflicher fränkischer Festkultur als einer von 27 Bräuchen in Deutschland in die Nationale Liste des Immateriellen Kulturerbes aufgenommen. Kartenspieltradition Siehe: Schafkopf, Watten Kleidung Siehe: Bayerische Tracht, Fränkische Tracht Industriekultur Mit der Maxhütte (Sulzbach-Rosenberg) verfügt Bayern über eines der bedeutendsten Industriedenkmale Europas. Die technik- und architekturhistorisch einmalige Anlage wird trotz bestehenden Denkmalschutzes teilweise demontiert. Aktuell wird versucht, das Industriedenkmal vor einem endgültigen Abriss zu bewahren. Sehenswürdigkeiten Bayern kann auf eine über 1000 Jahre alte Kultur- und Geistesgeschichte zurückblicken. Laut Artikel 3 der Verfassung des Freistaates Bayern ist Bayern ein Kulturstaat. Der Freistaat Bayern fördert in seinem Haushalt 2003 Kunst und Kultur mit jährlich über 500 Millionen Euro, zusätzlich kommen erhebliche Leistungen der bayerischen Kommunen und privater Träger hinzu. Die ersten Steinbauten in Bayern entstanden in der Römerzeit. Beispielsweise wurde in Weißenburg eine römische Therme ausgegraben. Zeugnisse aus dem Frühmittelalter gibt es nur wenige. Ein Beispiel ist jedoch die Krypta des Bamberger Doms aus der Zeit Kaiser Heinrichs II. Im Hochmittelalter wurden Augsburg, Nürnberg, Würzburg und Regensburg zu wohlhabenden Handelsstädten. In Regensburg und Nürnberg entstanden wie in Italien mächtige Geschlechtertürme. Der Regensburger Dom ist ein Hauptwerk der gotischen Architektur in Süddeutschland. Da die Steinerne Brücke lange Zeit die einzige Brücke zwischen Ulm und Wien an der Donau war, führte sie den Handel hierher. Zu den historischen Stadtkernen gehören neben den großen Städten auch Rothenburg ob der Tauber, Dinkelsbühl, Straubing und Nördlingen. Die Stadt Landshut ist für die Martinskirche, den größten Backsteinturm der Welt sowie für die Stadtresidenz mit ihren Renaissancemalereien bekannt. In Augsburg errichteten die Fugger die Fuggerei, die älteste Sozialsiedlung der Welt. Das Rathaus der Stadt gilt als das Paradestück dieser Zeit. Zu den Sehenswürdigkeiten in München gehören das Siegestor und die Antikensammlungen. In Nürnberg zählen die historischen Sehenswürdigkeiten der Altstadt, das Reichsparteitagsgelände aus der Zeit des Nationalsozialismus sowie das Memorium Nürnberger Prozesse zu den bedeutendsten touristischen Anlaufpunkten. Unter König Ludwig II. entstanden Schloss Neuschwanstein, Schloss Linderhof und Herrenchiemsee. UNESCO-Welterbe Zum Welterbe der UNESCO innerhalb Bayerns gehört unter anderem seit 1981 die Würzburger Residenz, ein Schlossbau des süddeutschen Barocks, samt Hofgarten und angrenzendem Residenzplatz. Die bemerkenswert prächtig ausgestattete Wieskirche bei Steingaden wurde 1983 zum Welterbe erklärt. 1993 wurde die Altstadt von Bamberg zum Weltkulturerbe erklärt. Seit 2005 gehört der Obergermanisch-Raetische Limes, mit insgesamt 550 Kilometern Länge das längste Bodendenkmal Europas, zum Welterbe. Teil des Welterbes sind mehrere zum Limes gehörende Bauten wie die Thermen in Weißenburg. 2006 wurde die Altstadt von Regensburg mit Altem Rathaus, Dom und Steinerner Brücke aufgenommen, 2011 die prähistorischen Pfahlbauten um die Alpen mit mehreren urgeschichtlichen Siedlungen, 2012 folgte das Markgräfliche Opernhaus in Bayreuth. Der letzte bayerische Neuzugang als UNESCO-Welterbe war 2019 das Augsburger Wassermanagement-System. Zum Weltdokumentenerbe der UNESCO gehören seit 2003 die Bamberger Apokalypse, eine Handschrift des Klosters Reichenau, sowie seit 2013 das Lorscher Arzneibuch. Beide Schriften werden in der Staatsbibliothek Bamberg aufbewahrt. In der Bayerischen Staatsbibliothek in München liegen das 2003 aufgenommene Perikopenbuch Heinrichs II., die 2009 aufgenommene Hohenems-Münchener Handschrift A, das 2003 aufgenommene Evangeliar aus dem Bamberger Dom, das 2003 aufgenommene Evangeliar Ottos III. und die 2005 aufgenommene Bibliotheca Corviniana. Eine Goldene Bulle (aufgenommen 2013) lagert im Bayerischen Hauptstaatsarchiv, eine weitere im Staatsarchiv Nürnberg. Museen Bayern ist mit rund 1300 Museen das museumsreichste Bundesland Deutschlands und eine der museumsreichsten Regionen des Kontinents. Zur vielfältigen Museumslandschaft zählen kunst- und kulturhistorische Museen, Burgen, Schlösser und Gärten, archäologische und naturkundliche Sammlungen, Museen der Technik- und Industriegeschichte sowie Bauernhof- und Freilichtmuseen, die sich in staatlicher, kommunaler oder privater Trägerschaft befinden. Zu den größten und bekanntesten gehören das Germanische Nationalmuseum in Nürnberg und das Bayerische Nationalmuseum in München. Größtes naturwissenschaftlich-technisches Museum der Welt ist das Deutsche Museum in München. Zu den größten und bedeutendsten ihrer Art gehören das seit 1976 bestehende Fränkische Freilandmuseum in Bad Windsheim und das seit 1990 bestehende Fränkische Freilandmuseum in Fladungen. Einen wesentlichen Teil des Gemälde- und Kunstbesitzes des Freistaates Bayern betreuen die Bayerischen Staatsgemäldesammlungen. Bibliotheken und Archive Größte Bibliothek des Freistaates ist die Bayerische Staatsbibliothek in München. Sie ist die zentrale Landesbibliothek Bayerns und eine der bedeutendsten europäischen Forschungs- und Universalbibliotheken mit internationalem Rang. Mit 10,22 Millionen Medieneinheiten ist sie die drittgrößte Bibliothek Deutschlands und besitzt eine der größten Sammlungen im deutschsprachigen Raum. Größte Universitätsbibliothek ist die Universitätsbibliothek der Ludwig-Maximilians-Universität München. Älteste öffentliche Bibliothek ist die Stadtbibliothek Nürnberg, größte die Münchner Stadtbibliothek. Die zweitgrößte Bibliothek Bayerns ist die Bibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg. Um die Versorgung mit wissenschaftlicher Literatur in allen Regionen zu gewährleisten, existieren zehn staatliche Regionalbibliotheken, die größte ist die Staatsbibliothek Bamberg. Das Bayerische Hauptstaatsarchiv in München ist das größte bayerische Staatsarchiv und aufgrund der langen staatlichen Existenz Bayerns auch eines der bedeutendsten Archive in Europa. Daneben gibt es zahlreiche andere Staatsarchive. Tier- und Wildparke (Auswahl) Gartenschauen In Bayern fand zweimal die Bundesgartenschau statt: Die Bundesgartenschau 1983, die mit der Internationalen Gartenbauausstellung zusammenfiel, und die Bundesgartenschau 2005, die beide jeweils in München stattfanden. Bayern konzipierte als eines der ersten Bundesländer eine eigene Landesgartenschau, die erstmals 1980 zusammen mit dem Land Baden-Württemberg in Neu-Ulm/Ulm stattfand. Münzen Seit 2006 erscheinen jährlich 2-Euro-Gedenkmünzen mit einem Motiv des Landes, das den Präsidenten des Bundesrates stellt. 2012 war dies Bayern, somit wurden mit dem Ausgabedatum 3. Februar 2012 rund 30 Millionen 2-Euro-Münzen mit dem Schloss Neuschwanstein als Motiv geprägt, die als offizielles Zahlungsmittel im Umlauf sind und beim Münzen sammeln beliebt sind. Feiertage Neben den bundesweit gültigen Feiertagen Neujahr (1. Januar), Karfreitag, Ostersonntag und Ostermontag, Tag der Arbeit (1. Mai), Christi Himmelfahrt, Pfingstsonntag und Pfingstmontag, Tag der Deutschen Einheit (3. Oktober) sowie 1. und 2. Weihnachtsfeiertag (25./26. Dezember) gibt es im Freistaat Bayern gemäß dem Gesetz über den Schutz der Sonn- und Feiertage noch weitere Feiertage. In ganz Bayern als Feiertag gültig sind Heilige Drei Könige (6. Januar), Fronleichnam und Allerheiligen (1. November). Aus Anlass des 500. Reformationsjubiläums im Jahr 2017 war der Reformationstag am 31. Oktober 2017 ein einmaliger gesetzlicher Feiertag. Mariä Himmelfahrt (15. August) ist nur in Gemeinden mit überwiegend katholischer Bevölkerung ein gesetzlicher Feiertag. Das Augsburger Friedensfest (8. August) ist nur in der Stadt Augsburg ein gesetzlicher Feiertag. Ebenso ist der Schlappentag nur in der Stadt Hof ein Feiertag. Buß- und Bettag war bis 1994 Feiertag. Seitdem ist der Tag zwar Werktag, jedoch haben Schüler unterrichtsfrei. Mit zwölf landesweit gültigen Feiertagen ist Bayern das Bundesland mit den meisten Feiertagen, inklusive Mariä Himmelfahrt sind es in katholischen Gebieten 13 Feiertage, in Augsburg sind es 14. Neben den Feiertagen sind stille Tage, an denen besondere Einschränkungen zu beachten sind, festgelegt. Es sind öffentliche Unterhaltungsveranstaltungen verboten, die nicht dem ernsten Charakter dieser Tage entsprechen, beispielsweise herrscht an Karfreitag Tanzverbot. Die stillen Tage in Bayern sind Aschermittwoch, Gründonnerstag, Karfreitag, Karsamstag, Allerheiligen, Volkstrauertag, Totensonntag, Buß- und Bettag sowie der Heilige Abend (24. Dezember). Bildung Schulsystem Es sind etwa 5500 Schulen im Freistaat Bayern vorhanden, die nach dem Bayerischen Gesetz über das Erziehungs- und Unterrichtswesen arbeiten. Es folgt nach der vierjährigen Grundschule das dreigliedrige Schulsystem mit Mittelschule, Realschule und Gymnasium mit Abitur nach der 12. Klasse. Ab der 7. Klasse gibt es die Möglichkeit, die Wirtschaftsschule, und ab der 10., die Berufliche Oberschule (Fachoberschule und Berufsoberschule) mit Erlangung des bayerischen Abiturs nach der 13. Klasse zu besuchen. Schüler mit einem Abschlusszeugnis der Realschule, der Wirtschaftsschule oder des M-Zuges an Mittelschulen können an ausgewählten Gymnasien in so genannte Einführungsklassen und bei erfolgreichem Bestehen in die 11. Jahrgangsstufe des Gymnasiums übertreten. Unter bestimmten Voraussetzungen ist ein Übertritt in die 11. Klasse auch ohne Besuch der Einführungsklasse bzw. ein Übertritt in die reguläre 10. Jahrgangsstufe des Gymnasiums möglich. Hinzu treten sonderpädagogische Förderschulen sowie Schulen für Kranke. Das Schulsystem ist generell durchlässig, und jedem Schüler steht mit jedem erreichten Abschluss der Weg zum nächsthöheren schulischen Abschluss offen. Als Schulen besonderer Art sind in Bayern fünf Gesamtschulen vorhanden. Ferner gibt es in Bayern zahlreiche Internate, Privatschulen sowie Einrichtungen des zweiten Bildungswegs. Eine Besonderheit im bayerischen Bildungswesen sind Schulvorbereitende Einrichtungen für Kinder mit sonderpädagogischem Förderbedarf, die es in dieser Form in keinem anderen Bundesland gibt. Weitere Besonderheiten des bayerischen Schulsystems sind Jahrgangsstufentests, Absentenheftführer sowie das Elitenetzwerk Bayern zur akademischen Spitzenausbildung. In den von der OECD durchgeführten PISA-Studien erreichen die Schüler Bayerns regelmäßig Spitzenplätze. Im gesamtdeutschen Bildungsvergleich liegt Bayern (stand 2019) auf dem zweiten Platz hinter Sachsen. Universitäten und Hochschulen In Bayern existieren neun staatliche Universitäten des Freistaates sowie die Universität der Bundeswehr München. Bis 1962 existierten lediglich vier Universitäten in München (LMU, TU), Würzburg und Erlangen (ab 1966 Erlangen-Nürnberg). Zwischen 1962 und 1975 wurden in Regensburg, Augsburg, Bamberg, Bayreuth und Passau fünf weitere durch den Freistaat gegründet. Hinzu kam 1973 noch die neu gegründete Bundeswehruniversität. Seit 2018 befindet sich mit der Technischen Universität Nürnberg die zehnte staatliche Universität im Aufbau. Daneben gibt es 18 staatliche Fachhochschulen in Bayern, wie etwa in Aschaffenburg, Hof, Landshut, Kempten und Nürnberg die zwischen 1971 und 1996 gegründet wurden. Darüber hinaus existiert mit der 1980 gegründeten Katholischen Universität Eichstätt-Ingolstadt eine kirchliche Universität, sowie vier weitere private bzw. kirchliche Hochschulen und 10 Kunsthochschulen. Auch unterhält Bayern Zentren zur akademischen Kooperation sowie zur Koordination der internationalen Zusammenarbeit im Bereich Hochschulen und Unternehmen wie etwa das Bayerische Hochschulzentrum für China (BayCHINA) in Bayreuth oder das Bayerisch-Indische Zentrum für Wirtschaft und Hochschulen (BayIND) in Hof. Sport Ballsportarten Zu den beliebtesten Sportarten gehört der Fußball. Der Bayerische Fußball-Verband zählt rund 1,5 Millionen Mitglieder und ist damit der mitgliederstärkste Verband des Deutschen Fußball-Bunds. International bekannt ist der FC Bayern München, er ist Rekordmeister der Fußball-Bundesliga, der er seit 1965 angehört, und darüber hinaus mehrfacher Gewinner von internationalen Fußballwettbewerben wie der UEFA Champions League. Ebenfalls in der höchsten deutschen Spielklasse spielt seit 2011 der FC Augsburg. In der zweithöchsten Spielklasse, der 2. Fußball-Bundesliga, spielen aktuell zwei bayerische Vereine: der neunfache deutsche Meister und langjährige Rekordmeister 1. FC Nürnberg, der dreifache deutsche Meister SpVgg Greuther Fürth. In der Saison 2023/24 spielen der langjährige Erstligist TSV 1860 München, der FC Ingolstadt 04, der SSV Jahn Regensburg und die SpVgg Unterhaching in der 3. Fußball-Liga. Der 1. FC Nürnberg belegt bei der Anzahl der gewonnenen Meistertitel den zweiten Platz. Bei den Frauen ist ebenfalls die Mannschaft des FC Bayern München, deutscher Meister 1976, 2015, 2016 und 2021, in der Bundesliga vertreten. Zudem spielt in der Saison 2023/24 der 1. FC Nürnberg ebenfalls erstklassig. Im Volleyball sind in der 1. Bundesliga der mehrmalige deutsche Meister der Frauen Rote Raben Vilsbiburg sowie die Herren des ASV Dachau, von WWK Volleys Herrsching und dem TSV Unterhaching aktiv. Die Basketballmannschaften Bamberg Baskets, Bayern München und Würzburg Baskets spielen in der höchsten deutschen Spielklasse. Die Bamberger Mannschaft wurde als TSK Bamberg (2003–2006) sowie als Brose Bamberg (2006–2023) wurde 2005, 2007, 2010, 2011, 2012, 2013 und 2015 deutscher Meister und 2010, 2011 und 2012 Pokalsieger. Im Damen-Basketball konnte die in der 1. Bundesliga spielende Mannschaft des TSV Wasserburg in den Jahren 2004 bis 2007 den deutschen Meistertitel erringen und wurde zudem 2005 bis 2007 deutscher Pokalsieger. Derzeit (Saison 2023/24) ist der HC Erlangen (Bundesliga) der höchstklassig spielende Handballverein der Männer im Freistaat Bayern. Die Handballabteilung des TV Großwallstadt aus dem Landkreis Miltenberg spielte lange Jahre in der 1. Handball-Bundesliga und spielt heute in der 2. Bundesliga, in der auch der HSC 2000 Coburg vertreten ist. Bekannt, wenn auch ebenso nicht mehr erstklassig, sind die Münchener Vereine TSV Milbertshofen und MTSV Schwabing. Im Damenhandball ist der 1. FC Nürnberg das erfolgreichste bayerische Team. In der jüngeren Vergangenheit wurden sie 2005, 2007 und 2008 Deutscher Meister und stießen 2007/2008 bis in die Hauptrunde der EHF Champions League vor. Jedes Jahr findet in München das Tennisturnier ATP München statt. Für weibliche Tennisspieler findet seit 2013 jährlich das WTA Nürnberg in Nürnberg statt. Bayern steht mit 163 Golfplätzen deutschlandweit an der Spitze. Stand 2008 waren 110.000 aktive Golfer registriert. Im Baseball haben in den vergangenen Jahren immer mehr Mannschaften erfolgreich in der 1. und 2. Baseball-Bundesliga gespielt. Dazu zählt unter anderem der deutsche Meister der Saison 2008, 2010 und 2011, die Regensburg Legionäre. Zu den weiteren erfolgreichen bayerischen Teams gehören die Gauting Indians, die Ingolstadt Schanzer und die Haar Disciples. Auf Landesverbandsebene gehören unter anderem die Augsburg Gators, die Erlangen White Sox, die Fürth Pirates, die Deggendorf Dragons und die Garching Atomics zu den bayerischen Vereinen. Mit rund 60 angemeldeten Vereinen ist der Bayerische Baseball- und Softball-Verband (BBSV) einer der größten in Deutschland. Auch im American Football ist Bayern mit einigen Mannschaften in den höchsten Spielklassen vertreten. In der German Football League spielen die Munich Cowboys, die Straubing Spiders, die Ingolstadt Dukes und die Allgäu Comets aus Kempten. In der zweithöchsten Spielklasse, GFL2, sind drei bayerische Mannschaften vertreten, die Kirchdorf Wildcats, Regensburg Phoenix und die Fursty Razorbacks. Im Damenfootball sind die Munich Cowboys Ladies und die Erlangen Rebels in der Bundesliga vertreten, sowie die Allgäu Comets Ladies und die Regensburg Phoenix Ladies in der zweiten Liga. Mit den Munich Ravens ist auch ein bayerisches Team in der europäischen Footballliga European League of Football (ELF) vertreten. Korbball wird vor allem in Franken, aber auch im Allgäu gespielt. Schweinfurt gilt seit 1937 als Zentrum des Korbballs. In der Region nehmen mehr als 80 Vereine am Spielbetrieb teil. Wintersport Speziell im alpinen Raum hat der Wintersport eine traditionell große Bedeutung. Die Bayerischen Alpen bieten günstige Bedingungen für den Ski-Rennlauf. Die herausragenden Vertreter dieser Sportart sind Mirl Buchner, Heidi Biebl, Rosi Mittermaier, Marina Kiehl, Christa Kinshofer, Martina Ertl, Hilde Gerg, Maria Höfl-Riesch, Franz Pfnür und Markus Wasmeier. Aus dem Biathlon-Bundesleistungszentrum in Ruhpolding gingen zahlreiche Gewinner internationaler Wettbewerbe hervor, die bekanntesten unter ihnen sind Fritz Fischer, Michael Greis, Uschi Disl, Martina Glagow und Magdalena Neuner. Im Langlauf erreichten Tobias Angerer und Evi Sachenbacher-Stehle bedeutende Resultate. In Bayern gibt es fünf Eishockey-Vereine in der Deutschen Eishockey Liga; die Augsburger Panther, den ERC Ingolstadt, den EHC Red Bull München, die Nürnberg Ice Tigers und die Straubing Tigers. In der DEL2 spielen die Mannschaften des EV Landshut, des ESV Kaufbeuren, des EV Regensburg, der Starbulls Rosenheim und der Selber Wölfe. In der Oberliga Süd sind zehn von 13 Mannschaften aus Bayern. Ein besonders durch seine Nachwuchsarbeit bekannter Verein ist der EV Füssen. Vor allem im Gebiet des Oberallgäuer Orts Oberstdorf und in Garmisch-Partenkirchen finden zahlreiche Sportveranstaltungen statt, etwa die ersten beiden Springen der Vierschanzentournee. In Garmisch fanden die Olympischen Winterspiele 1936 statt. Auch zahlreiche Welt- und Europameisterschaften, etwa im Bereich Rennrodeln, Eiskunstlauf, Curling oder Skiflug, fanden dort stat Weitere Sportarten Nicht zuletzt durch den Dokumentarfilm Am Limit wurden die Sportkletterer Thomas und Alexander Huber einem größeren Publikum ein Begriff. Auch früher waren Bayern unter den weltbesten Gipfelstürmern, unter anderen Johann Grill, Josef Enzensperger, Otto Herzog, Anderl Heckmair oder Toni Schmid. Bouldern wurde unter anderem durch den Nürnberger Wolfgang Fietz bekannt und wird indoor und im Klettergebiet Nördlicher Frankenjura und Klettergebiet Kochel betrieben. In Bayern haben sich einige Brauchtumssportarten wie Fingerhakeln und Eisstockschießen erhalten, die in organisierten Ligen betrieben werden. Auch das Sautrogrennen gehört zu den bayerischen Brauchtumssportarten. Besondere Beliebtheit erfreut sich diese Sportart im Süden Bayerns an den Flüssen Donau, Iller, Isar und Lech. In Franken wird anlässlich von Volksfesten in den meist noch vorhandenen örtlichen Dorf- bzw. Löschwasserteichen diesem Sport gehuldigt. Unter größter Belustigung der Zuschauer werden ernste regionale und überregionale Meisterschaften bestritten, seit 2010 in Schwarzenbach an der Saale sogar echte Weltmeisterschaften. Im Bereich des Motorsports gibt es die alljährlichen Tourenwagenrennen zur DTM auf dem Norisring in Nürnberg-Dutzendteich. Speedwayrennen gibt es in Landshut, Pocking, Abensberg und Olching, Sandbahnrennen in Mühldorf am Inn, Pfarrkirchen, Vilshofen, Dingolfing und Plattling. In Inzell finden internationale Eisspeedwayrennen statt. Sportschießen wird in den Disziplinen Gewehr, Pistole, Bogen, Wurfscheibe, Laufende Scheibe und Armbrust im gesamten Land ausgeübt. Die Sportschützen stellen mit dem Bayerischen Sportschützenbund (BSSB) den viertgrößten Sportfachverband im Land. Viele bayerische Teilnehmer bei Olympischen Spielen konnten Erfolge erzielen. Im Schach ist Bayern mit der Schachabteilung des FC Bayern München sowie dem MSA Zugzwang 82 in der Schachbundesliga vertreten. Während Bayern München neunmal die deutschen Meisterschaft gewinnen konnte, ist der Münchener SC 1836 achtmaliger deutscher Meister und zugleich der älteste Sportverein Bayerns. Zudem konnte der fränkische SC 1868 Bamberg dreimal die Meisterschaft erringen. Im Tanzsport ist das Rot-Gold-Casino Nürnberg einer der erfolgreichsten Vereine weltweit. So tritt der amtierende Einzelweltmeister Latein für das RGC Nürnberg an. Im Formationstanz stellt der Verein im Bereich Standard den amtierenden Vize-Europameister, sowie im Bereich Latein die beste Mannschaft Bayerns. Darüber hinaus sind viele weitere Tänzerinnen und Tänzer für den Verein in verschiedenen Leistungsklassen erfolgreich. Viele Turnvereine haben in Bayern eine lange Tradition. Das Landesleistungszentrum war in Nürnberg, wurde aber mit dem Bundesleistungszentrum in Frankfurt am Main zusammengelegt. Zentren sind Augsburg, Würzburg, Schweinfurt, Nürnberg, Landshut, Passau und Rosenheim. Bayerische Turnerinnen belegten in den 1920er Jahren oftmals weltweit Spitzenplätze. Seit 2000 gibt es für Kinder eine Bayerische Kinderturnolympiade. Statistik und Studien Kriminalitätsrate Im deutschlandweiten Vergleich weist Bayern eine sehr niedrige Kriminalitätsrate auf. 2017 wurden laut polizeilicher Kriminalstatistik 4.868 Straftaten pro 100.000 Einwohner registriert. Das war der niedrigste Wert unter allen Bundesländern. Privatinsolvenzen Bayern hatte 2017 unter allen Bundesländern die niedrigste Quote an Privatinsolvenzen. Auf 100.000 Bürger gerechnet waren nur 86 zahlungsunfähig. Der deutschlandweite Durchschnitt liegt bei 123 privaten Insolvenzen je 100.000 Einwohner. In Bremen waren es mit 212 am meisten. Siehe auch Literatur Institut für Bayerische Geschichte: Einführende Bibliographie zur Geschichte Bayerns (Zusammenstellung grundlegender Literatur und Quellensammlungen; PDF; 51 kB). Bayerische Bibliographie Karl Bosl (Hrsg.): Handbuch der historischen Stätten Deutschlands. Band 7: Bayern (= Kröners Taschenausgabe. Band 277). 3. Auflage. Kröner, Stuttgart 1981, ISBN 3-520-27703-4. Max Spindler (Hrsg.), Gertrud Diepolder: Bayerischer Geschichtsatlas. Bayerischer Schulbuchverlag, München 1969. Max Spindler, Alois Schmid (Hrsg.): Handbuch der bayerischen Geschichte. Beck, München 1971ff. (4 Bände). Wilhelm Volkert, Richard Bauer: Handbuch der bayerischen Ämter, Gemeinden und Gerichte: 1799–1980. Beck, München 1983, ISBN 3-406-09669-7. Peter Claus Hartmann: Bayerns Weg in die Gegenwart. Vom Stammesherzogtum zum Freistaat heute. 2. Auflage. Pustet, Regensburg 2004, ISBN 3-7917-1875-4. Benno Hubensteiner: Bayerische Geschichte. Staat und Volk, Kunst und Kultur. 18. Auflage. Rosenheim 2013, ISBN 978-3-475-53756-1. Gerald Huber: Lecker derbleckt. Eine kleine bairische Wortkunde. Societätsverlag, Frankfurt am Main 2008, ISBN 978-3-7973-1100-9. Bayerisches Jahrbuch. 86. Jahrgang. K. G. Saur, München 2007, ISBN 978-3-598-23666-2 (auch CD-ROM-Ausgabe: ISBN 978-3-598-23667-9 (wichtiges Nachschlagewerk mit Informationen zu mehr als 7.000 Institutionen und ca. 12.500 Personen)). Franz X. Bogner: Bayern aus der Luft. Stürtz, Würzburg 2009, ISBN 978-3-8003-4014-9. Weblinks Webpräsenz der Bayerischen Staatsregierung BayernPortal – zentrales E-Government-Portal der Bayerischen Staatsregierung Bayerische Landesbibliothek Online Literaturportal Bayern Museumsportal Bayern Haus der Bayerischen Geschichte BayernAtlas – detaillierte Karten flächendeckend Außenwirtschaftsportal Bayern bavarikon – Kunst-, Kultur- und Wissensschätze Bayerns Einzelnachweise Region in Europa Bundesland (Deutschland) Land der Weimarer Republik
476
https://de.wikipedia.org/wiki/Bliss%20%28Familienname%29
Bliss (Familienname)
Bliss ist ein englischer Familienname. Namensträger Aaron T. Bliss (1837–1906), US-amerikanischer Politiker Albert A. Bliss (1812–1893), US-amerikanischer Jurist, Zeitungsherausgeber und Politiker Alexa Bliss (* 1991), US-amerikanische Wrestlerin Amos Atkinson Bliss, politische Persönlichkeit in New Brunswick, Kanada Archibald Meserole Bliss (1838–1923), US-amerikanischer Politiker Arthur Bliss (1891–1975), englischer Komponist Boti Bliss (* 1975), US-amerikanische Schauspielerin Brian Bliss (* 1965), US-amerikanischer Fußballspieler Calvin C. Bliss (1823–1891), US-amerikanischer Politiker Caroline Bliss (* 1961), britische Schauspielerin Charles K. Bliss (1897–1985), ukrainisch-australischer Entwickler der Bliss-Symbole Cornelius Newton Bliss (1833–1911), US-amerikanischer Politiker Edwin Munsell Bliss (1848–1919), US-amerikanischer Missionar Edith Bliss (1959–2012), australische Sängerin und Moderatorin Frank Bliss (* 1956), deutscher Ethnologe und Islamwissenschaftler Frederick J. Bliss (1859–1937), US-amerikanischer Archäologe George Bliss (1813–1868), US-amerikanischer Politiker Gilbert Ames Bliss (1876–1951), US-amerikanischer Mathematiker Henry Bliss (1830–1899), erstes Opfer eines Autounfalls in den Vereinigten Staaten John Bliss (1930–2008), US-amerikanischer Schauspieler Karen Bliss (* 1963), US-amerikanische Radrennfahrerin Lela Bliss (1896–1980), US-amerikanischer Schauspielerin Lillie P. Bliss (1864–1931), US-amerikanische Kunstsammlerin und Mitbegründerin des Museum of Modern Art Lucille Bliss (1916–2012), US-amerikanische Schauspielerin und Synchronsprecherin Marilyn Bliss (* 1954), US-amerikanische Komponistin Melvin Bliss (1945–2010), US-amerikanischer Sänger Michael Bliss (1941–2017), kanadischer Historiker Mildred Barnes Bliss (1879–1969), US-amerikanische Kunstsammlerin und Stifterin Nathaniel Bliss (1700–1764), englischer Astronom Panti Bliss (* 1968), irische Dragqueen und LGBT-Aktivistin Philemon Bliss (1813–1889), US-amerikanischer Jurist und Politiker Pierre Sanoussi-Bliss (* 1962), deutscher Schauspieler, Regisseur und Drehbuchautor Robert Woods Bliss (1875–1962), US-amerikanischer Diplomat, Kunstsammler und Stifter Tasker H. Bliss (1853–1930), Generalstabschef der Armee der Vereinigten Staaten Till Kaposty-Bliss (* 1970), deutscher Grafiker und Verleger Zenas Work Bliss (1867–1957), US-amerikanischer Politiker Weblinks Bliss bei forebears.io Familienname Englischer Personenname
477
https://de.wikipedia.org/wiki/Baden-W%C3%BCrttemberg
Baden-Württemberg
Baden-Württemberg (Abkürzung BW; amtlich Land Baden-Württemberg) ist ein Land im Südwesten von Deutschland. Gemäß seiner Verfassung hat es die Staatsform einer parlamentarischen Republik und ist ein teilsouveräner Gliedstaat der Bundesrepublik Deutschland. Das Land wurde 1952 durch Zusammenschluss der kurzlebigen Nachkriegsländer Württemberg-Baden, (Süd-)Baden und Württemberg-Hohenzollern gegründet und befindet sich somit in der Tradition der alten Länder Baden und Württemberg mit Einschluss der Hohenzollernschen Lande. Baden-Württemberg ist naturräumlich geprägt von seinen Anteilen an der Oberrheinischen Tiefebene und Mittelgebirgen wie dem Schwarzwald, dem Südwestdeutschen Schichtstufenland mit der Schwäbischen Alb und dem Alpenvorland nördlich des Bodensees. Sowohl nach Einwohnerzahl als auch bezüglich der Fläche steht Baden-Württemberg an dritter Stelle der deutschen Länder. Bevölkerungsreichste Stadt Baden-Württembergs ist die Landeshauptstadt Stuttgart, gefolgt von Mannheim und Karlsruhe. Weitere Großstädte sind Freiburg im Breisgau, Heidelberg, Ulm, Heilbronn, Pforzheim und Reutlingen. Baden-Württemberg ist das deutsche Land mit den höchsten Exporten (2021), der zweitniedrigsten Arbeitslosenquote (Juli 2023), dem vierthöchsten Bruttoinlandsprodukt (BIP) pro Kopf (2022) sowie den meisten angemeldeten Patenten pro Kopf (2021) und den absolut und relativ höchsten Forschungs- und Entwicklungsausgaben (2019). Die durchschnittliche Lebenserwartung lag im Zeitraum 2018/20 bei 79,9 Jahren für Männer und bei 84,2 Jahren für Frauen, womit beide unter den deutschen Bundesländern jeweils den ersten Rang belegen. Geographie Im Süden grenzt Baden-Württemberg mit dem Klettgau und dem Hotzenwald an den Hochrhein, im Hegau und Linzgau an den Bodensee und im Westen mit dem Breisgau und dem Markgräflerland an den Oberrhein. Im Norden zieht sich die Landesgrenze über Odenwald und Tauberland, im Osten über Frankenhöhe und Ries, entlang von Donau und Iller sowie durch das westliche Allgäu. Benachbarte deutsche Länder sind im Osten und Nordosten Bayern, im Norden Hessen und im Nordwesten Rheinland-Pfalz. Im Westen grenzt Baden-Württemberg an die elsässischen Départements Bas-Rhin und Haut-Rhin in der französischen Region Grand Est. Die Schweizer Grenze im Süden wird von den Kantonen Basel-Stadt, Basel-Landschaft, Aargau, Zürich, Schaffhausen und Thurgau gebildet. Der Kanton St. Gallen ist nur über den Bodensee verbunden. Über den Bodensee ist Baden-Württemberg außerdem mit dem österreichischen Bundesland Vorarlberg verbunden. Mit diesem teilt es – weil dort ebenfalls alemannischer Dialekt gesprochen wird – den manchmal umgangssprachlich verwendeten Beinamen Ländle respektive alemannisch Ländli. Der geographische Mittelpunkt Baden-Württembergs bei wird von einem Denkmal in einem Waldstück auf der Gemarkung von Tübingen markiert. Es handelt sich dabei um den Schwerpunkt der Landesfläche. Im Gegensatz dazu wurde die Mitte von Baden-Württemberg aus den Extremwerten (nördlichster, südlichster, östlichster und westlichster Landpunkt) ermittelt. Das Mittel aus der geographischen Breite des nördlichsten und südlichsten Punktes und das Mittel aus der geographischen Länge des östlichsten und westlichsten Punktes im Bezugssystem WGS84 errechnet sich zu . Diese vier Extremkoordinaten Baden-Württembergs sind: im Norden in der Stadt Wertheim, im Süden in der Gemeinde Grenzach-Wyhlen, im Westen in der Gemeinde Efringen-Kirchen und im Osten in der Gemeinde Dischingen. Die Mitte von Baden-Württemberg befindet sich 14,3 km nördlich vom Tübinger Schwerpunkt in Böblingen in einem kleinen Waldstück, dem Hörnleswald, an der Tübinger Straße von Böblingen nach Holzgerlingen und ist mit einem Steinpfeiler markiert. Die höchste Erhebung des Landes ist der Feldberg im Schwarzwald mit . Der tiefste Punkt liegt im Mannheimer Naturschutzgebiet Ballauf-Wilhelmswörth am Rheinufer und an der Grenze zu Hessen auf . Naturräumliche Gliederung und Geologie Innerhalb Baden-Württembergs werden nach geologischen und geomorphologischen Kriterien fünf Großräume unterschieden: Die Oberrheinische Tiefebene ist ein mit Sedimenten gefüllter Grabenbruch. Dazu zählt auch die Vorbergzone zwischen der Ebene und dem Schwarzwald. In der Tiefebene finden sich diverse Salzlagerstätten, Heilquellen und einige heute erloschene Vulkane wie z. B. der Kaiserstuhl. Die Randgebirge Schwarzwald und Odenwald bestehen aus Granit, Gneis und Buntsandstein. Ihre Nord-Süd-Ausrichtung macht sie zu Regenfängern, deren westliche Gewässer viel Wasser führen und sich vergleichsweise tief eingeschnitten haben. Der im Südschwarzwald gelegene Feldberg ist mit der höchste Berg in den deutschen Mittelgebirgen. Das südwestdeutsche Schichtstufenland besteht aus weiten, hügeligen Landterrassen, die durch mehrere Gesteinsstufen voneinander abgegrenzt sind. Sie bestehen nach Südosten hin aus immer jüngeren Gesteinsschichten, wobei wechselweise harte und weiche Schichten übereinandergelagert sind. Teilräume sind die Neckar- und Tauber-Gäuplatten (Baar, das Obere Gäu, Stromberg, Kraichgau, Hohenloher Ebene), das Keuperbergland (Kleiner Heuberg, Rammert, Schönbuch, Glemswald, Strom- und Heuchelberg, Schurwald, Schwäbisch-Fränkische Waldberge) und das Albvorland. Zum Südwestdeutschen Schichtstufenland zählen auch der Randen und seine Ausläufer im Klettgau. Die Schwäbische Alb ist als geschlossenes Mittelgebirge ein gewässerarmes Karstgebiet. Sie ist von typischen Karstformen (z. B. Dolinen) und zahlreichen kleinen vulkanischen Formen durchzogen. Am östlichen Rand liegt der Meteoritenkrater von Nördlingen (Nördlinger Ries). Das Alpenvorland, zu dem Oberschwaben und das württembergische Allgäu gehören, ist ein flachwelliges Hügelland, in dem der Bodensee und einstige vulkanische Berge im Hegau liegen. Die starke Prägung durch eiszeitliche Vorgänge zeigt sich in zahlreichen typischen Landschaftsformen wie Moränen, Seen und Mooren. Klima Baden-Württemberg liegt in einem Übergangsgebiet zwischen Seeklima im Westen und Kontinentalklima im Osten. Das bewirkt, dass abwechselnd ozeanische und kontinentale Klimaeinflüsse wirksam werden. Aufgrund der vorherrschenden Westwinde überwiegen die ozeanischen Klimaeinflüsse, wobei diese in den östlichen Landesteilen abnehmen. Die Vielgestaltigkeit der Oberflächenformen, also das Nebeneinander hoher Bergländer und abgeschirmter Beckenräume, führt zu deutlichen klimatischen Unterschieden schon auf kurzen Entfernungen. Temperaturen Durch die südliche Lage ist Baden-Württemberg gegenüber anderen Ländern hinsichtlich der Temperaturen begünstigt. Das Oberrheinische Tiefland weist Jahresmitteltemperaturen von 10 °C auf und gehört damit zu den wärmsten Gebieten Deutschlands. Klimatisch begünstigt sind auch der Kraichgau, das Neckartal nördlich von Stuttgart, das Bodenseegebiet, das Hochrheingebiet und das Taubertal. Mit der Höhe sinkt die Durchschnittstemperatur, und der Südschwarzwald ist mit durchschnittlich 4 °C eines der kältesten Gebiete Deutschlands. Eine Ausnahme von dieser Regel ist die im Winter vorkommende Inversionswetterlage, bei der höhere Lagen wärmer sind als tiefer gelegene, weil bei windstillem Hochdruckwetter die von den Höhen abfließende Kaltluft sich in Beckenräumen sammelt. Extreme Kältewerte lassen sich deshalb auf der Baar beobachten. Hier kann es im Winter zu Temperaturen von unter −30 °C kommen. Niederschlag Die mit dem Westwind herantransportierten Luftmassen stauen sich vor allem an Schwarzwald und Odenwald, daneben auch an der Schwäbischen Alb, den höheren Lagen der Keuperwaldberge und den Voralpen. Deshalb fällt auf der Luvseite reichlich Niederschlag (über 1000 mm pro Jahr, im Südschwarzwald stellenweise über 2000 mm). Auf der Leeseite im Regenschatten fällt wesentlich weniger Niederschlag. Hier gibt es ausgeprägte Trockengebiete: Im nördlichen Oberrheinischen Tiefland, der Freiburger Bucht (Leeseite der Vogesen) und dem Taubergrund fallen etwa 600 mm, im mittleren Neckarraum und der Donauniederung bei Ulm etwa 700 mm pro Jahr. Folgen der globalen Erwärmung Im Auftrag der baden-württembergischen Landesregierung wurden seit Ende der 1990er Jahre mehrere Studien zu den regionalen Folgen der globalen Erwärmung durchgeführt. Laut einer Zusammenfassung dieser Ergebnisse aus dem Jahr 2012 stieg die Jahresdurchschnittstemperatur in Baden-Württemberg im Zeitraum 1906 bis 2005 um 1,0 °C an (weltweit 0,7 °C), von durchschnittlich 8 °C auf 9 °C. Der größte Anstieg erfolgte dabei in den letzten 30 Jahren. Die Anzahl der Höchstniederschläge im Winter und die Zahl der Hochwasserereignisse haben in diesem Zeitraum um 35 Prozent zugenommen, die Anzahl der Tage mit Schneedecke in tiefer gelegenen Regionen haben um 30 bis 40 Prozent abgenommen. Von 1953 bis 2009 nahm die Anzahl der Eistage (Höchsttemperatur unter 0 °C) in Stuttgart von 25 auf 15 ab, die Anzahl der Sommertage (Höchsttemperatur mindestens 25 °C) dagegen erhöhte sich von 25 auf 45 (vgl. auch Hitzewelle 2003). Die Wahrscheinlichkeit einer ausgeprägt trockenen Vegetationsperiode im Sommer hat sich seit 1985 versechsfacht. Klimamodelle prognostizieren eine Weiterführung dieser Trends. Im Juli 2013 wurde ein Klimaschutzgesetz für Baden-Württemberg verabschiedet. Gewässer Aufgrund der bergigen Topographie spielten und spielen die Flüsse und ihre Täler eine erhebliche Rolle für Besiedlung, Verkehrswesen und Geschichte des Landes. Die Europäische Hauptwasserscheide zwischen Rhein und Donau hat im Hochschwarzwald ihre westlichste Ausbuchtung und verläuft über die Baar im Norden entlang der Schwäbischen Alb, im Süden durch das Alpenvorland. Das Einzugsgebiet des Rhein-Zuflusses Neckar nimmt mit etwa 14.000 km² fast zwei Fünftel der Landesfläche ein. Der Rhein ist der wasserreichste Fluss des Landes. Mit ihm ist Baden-Württemberg an eine der bedeutendsten Wasserstraßen der Welt angeschlossen. Sein Einzugsgebiet (ohne Neckar) im Land ist etwa 11.000 km² groß. Im 19. Jahrhundert wurde der Oberrhein ausgehend von den Plänen des badischen Ingenieurs Tulla begradigt. Er bildet mit wenigen Ausnahmen die westliche Landesgrenze zu Frankreich und zu Rheinland-Pfalz. Hochrhein, Seerhein und Bodensee bilden den größten Teil der südlichen Landesgrenze zur Schweiz. Der Neckar entspringt am Ostrand des Schwarzwalds bei Villingen-Schwenningen und durchfließt das Zentrum des Landes, bis er im Nordwesten in Mannheim in den Rhein mündet. Er wird durch zahlreiche Schleusen reguliert und dient als Verkehrsweg für die industriereiche Landesmitte. Die Donau entsteht bei Donaueschingen aus den vom Schwarzwald kommenden Quellflüssen Brigach und Breg und fließt etwa ostnordöstlich, wobei sie die Schwäbische Alb nach Süden und Oberschwaben nach Norden begrenzt und hinter Ulm nach Bayern fließt. Sie entwässert etwa 9400 km² und damit mehr als ein Viertel des Landes. Während der Rhein das Land bei Mannheim auf einer Höhe von etwa verlässt, liegt die Donau an der bayerischen Grenze bei Ulm noch über hoch. Die zum Rhein entwässernden Flüsse haben daher eine größere Erosionskraft und vergrößern ihr Einzugsgebiet langfristig auf Kosten der Donau. Unter den übrigen Flüssen sind die längsten die Zwillingsflüsse Kocher und Jagst, die den Nordosten des Landes durchfließen und in den Neckar münden. Ganz im Nordosten fließt die Tauber. Hier grenzt das Landesgebiet an den Main. Mit dem Bodensee hat das Land Anteil am zweitgrößten Alpenrandsee. Über die Bodensee-Wasserversorgung erhalten mehrere Millionen Einwohner vor allem im mittleren Neckarraum ihr Trinkwasser. Schutzgebiete Der 2014 gegründete Nationalpark Schwarzwald ist der erste Nationalpark in Baden-Württemberg. Die größten der mehr als 1000 Naturschutzgebiete des Landes sind die eiszeitlich überprägten Gebiete Feldberg und Gletscherkessel Präg im Hochschwarzwald, das Hochmoorgebiet Wurzacher Ried im ebenfalls glazial geprägten Alpenvorland und das Auengebiet Taubergießen am Oberrhein. Etwa 22,8 Prozent der Landesfläche sind als Landschaftsschutzgebiete ausgewiesen. Sieben Naturparke nehmen zusammen ein Drittel der Fläche Baden-Württembergs ein. Die Biosphärengebiete Schwäbische Alb und Schwarzwald sind als Biosphärenreservate der UNESCO anerkannt. Flächenaufteilung Nach Daten des Statistischen Landesamtes, Stand 2017. Mitte 2023 wurde in Bad Säckingen die Grenze zwischen Baden-Württemberg und der Schweiz aufgrund der Sanierung einer Holzbrücke neu vermessen und im Einvernehmen um acht Meter zugunsten Baden-Württembergs verschoben. Somit hat sich die Fläche des Landes entsprechend vergrößert. Verdichtungsräume Baden-Württemberg liegt innerhalb des als Blaue Banane bezeichneten, von London nach Norditalien verlaufenden europäischen Agglomerationsbandes. Der gültige Landesentwicklungsplan aus dem Jahr 2002 unterscheidet zwischen den Raumkategorien „Verdichtungsräume“, „Randzonen der Verdichtungsräume“ und „ländlicher Raum“, wobei letzterer eigene Verdichtungsbereiche enthält. Außer dem größten und zentralen Raum Stuttgart liegen die sieben Verdichtungsräume in grenzüberschreitenden Gunsträumen entlang der Peripherie des Landes. Die meisten sind als Teil Europäischer Metropolregionen ausgewiesen: der Verdichtungsraum Stuttgart mit ca. 2,7 Millionen Einwohnern einschließlich der Räume um Heilbronn und um Reutlingen/Tübingen; siehe auch Metropolregion Stuttgart mit ca. 5,2 Millionen Einwohnern der baden-württembergische Teil des grenzüberschreitenden Verdichtungsraums Rhein-Neckar, siehe auch Metropolregion Rhein-Neckar der Verdichtungsraum Karlsruhe/Pforzheim der Verdichtungsraum Freiburg der Verdichtungsraum Lörrach/Weil als baden-württembergischer Teil des grenzüberschreitenden Verdichtungsraums um Basel, siehe Metropolregion Basel der baden-württembergische Teil des grenzüberschreitenden Verdichtungsraums Ulm/Neu-Ulm der Bodenseeraum mit besonderer struktureller Prägung Der Oberrheinraum von Karlsruhe über Offenburg und Freiburg bis Lörrach/Weil am Rhein ist Teil der 2010 mit den angrenzenden südpfälzischen, französischen und Schweizer Regionen gebildeten Trinationalen Metropolregion Oberrhein. Die fünf Verdichtungsbereiche im ländlichen Raum sind: der Verdichtungsbereich Schwäbisch Hall/Crailsheim der Verdichtungsbereich Aalen/Heidenheim/Ellwangen der Verdichtungsbereich Offenburg/Lahr/Kehl der Verdichtungsbereich Villingen-Schwenningen/Tuttlingen/Rottweil der Verdichtungsbereich Albstadt/Balingen/Hechingen Großstädte Neun Städte im Land haben mindestens 100.000 Einwohner und gelten als Großstädte. Geschichte Vorgeschichte Das Gebiet des heutigen Baden-Württemberg war nachweislich bereits vor mindestens einer halben Million Jahren von Vertretern der Gattung Homo besiedelt. Der bei Mauer gefundene Unterkiefer von Mauer und der bei Steinheim an der Murr entdeckte Homo steinheimensis, die heute beide zur Hominini-Art Homo heidelbergensis eingeordnet werden, zählen mit einem Alter von rund 500.000 beziehungsweise 250.000 Jahren zu den ältesten Funden der Gattung Homo in Europa überhaupt. Bedeutende paläolithische Nachweise kulturellen Lebens in Baden-Württemberg reichen circa 35.000 bis 40.000 Jahre zurück. So alt sind die Funde der ältesten bekannten Musikinstrumente der Menschheit (eine Elfenbeinflöte, ausgegraben 1979 im Geißenklösterle) und Kunstwerke (Löwenmensch), die in Höhlen der Schwäbischen Alb entdeckt wurden, vor allem in denen des Lonetals. Die wichtigsten dieser Höhlen sind die sogenannten Höhlen der ältesten Eiszeitkunst. Vor allem aus dem Neolithikum finden sich zahlreiche Belege von Siedlungen und Bestattungen von der frühesten Zeit an, die ab der Bandkeramik auf die unterschiedlichsten Kulturkomplexe zurückgehen und eine ununterbrochene Linie bis zum Beginn der Bronzezeit und bis zur Eisenzeit repräsentieren. Bei Kleinkems in Südbaden befindet sich das älteste deutsche Jaspisbergwerk aus der Jungsteinzeit. In der Hallstattzeit besiedelten die Kelten große Teile des Landes. Dies ist durch die zahlreichen Hügelgräber belegt, deren bekanntestes das Grab des Keltenfürsten von Hochdorf ist, und durch hallstattzeitliche Siedlungen wie der Heuneburg oder dem Münsterhügel von Breisach. Antike Seit Caesars Gallischem Krieg 55 v. Chr. bildete der Rhein im Norden die Ostgrenze des römischen Reiches. Um 15 v. Chr. überschritten die Römer unter Tiberius die Alpen. Die neu gegründete Provinz Raetia erstreckte sich bis an die Donau und umfasste damit auch das heutige Oberschwaben. Der Landweg zwischen Mainz und Augsburg war strategisch sehr wichtig. Um diesen zu verkürzen, bauten die Römer um 73/74 n. Chr. eine Straße durch das Kinzigtal im mittleren Schwarzwald; zum Schutz dieser Straße gründeten sie Rottweil. Weitere Gründungen dieser Zeit sind Ladenburg, Bad Wimpfen, Rottenburg am Neckar, Heidelberg und Baden-Baden; eine Siedlungskontinuität ist jedoch nur für Baden-Baden, Ladenburg und Rottweil wahrscheinlich. Die später gebaute Straße über Bad Cannstatt verkürzte den Weg zwischen Mainz und Augsburg noch weiter. Die Landnahme in Südwestdeutschland sicherten die Römer durch Feldzüge im heutigen Hessen ab. Um 85 n. Chr. gründete Kaiser Domitian die Provinz Germania superior (Obergermanien). Die Grenze des römischen Reiches verlief von ungefähr 98–159 n. Chr. entlang des Neckar-Odenwald-Limes, später entlang des Obergermanisch-Rätischen Limes. Den vom Limes umschlossenen Teil des Gebietes rechts des Rheines und links der Donau bezeichneten die Römer als Dekumatland. Der nordöstliche Teil des heutigen Baden-Württemberg war nie Teil des römischen Reiches. Um 233 n. Chr. plünderten Alamannen das Dekumatland; in der Zeit der Reichskrise des 3. Jahrhunderts gaben die Römer um 260 n. Chr. nach erneuten Überfällen die bisherige Grenze auf und zogen sich hinter Rhein, Donau und Iller, den Donau-Iller-Rhein-Limes, zurück. Sie hielten die Rheingrenze noch bis zum Rheinübergang von 406. Mittelalter Im 5. Jahrhundert kam das Gebiet des Herzogtums Alemannien zum Fränkischen Reich. Die Nordgrenze Alemanniens wurde nach Süden verschoben und deckte sich grob mit dem Verlauf der heutigen alemannisch-fränkischen Dialektgrenze. Das nördliche Drittel Baden-Württembergs lag somit im direkten fränkischen Einflussbereich (Bistümer Mainz, Speyer, Worms, Würzburg), die südlichen zwei Drittel verblieben im alemannischen Einflussbereich (Bistümer Konstanz, Augsburg, Straßburg). Im 8. Jahrhundert wurden Grafschaften (Gaue) als Verwaltungseinheiten installiert. Mit der Neubildung der Stammesherzogtümer gehörten die südlichen Gebiete des heutigen Bundeslandes bis zum Ausgang des Hochmittelalters zum Herzogtum Schwaben, die nördlichen Gebiete befanden sich beim Herzogtum Franken. Im Hochmittelalter gehörte das Gebiet zu den zentralen Landschaften des Heiligen Römischen Reiches Deutscher Nation. Es ist Heimat zahlreicher aufstrebender Adelsdynastien und lag im Schnittpunkt einiger wichtiger Fernhandelsrouten. Der Hochadel und die Klöster lenkten einen intensiven Landesausbau, in dessen Verlauf die Mittelgebirge erschlossen und zahlreiche Städte gegründet wurden, und erweiterten so ihre Machtbasis. Wichtige Familien waren neben den Herzogshäusern vor allem die fränkischen Salier und die schwäbischen Staufer, die sich zu ihrer Zeit den Kaiserthron erkämpften. Weitere wichtige Adelshäuser waren die – ursprünglich aus Oberschwaben stammenden – Welfen, die Zähringer und die Habsburger und auch die unterschwäbischen Hohenzollern. Nach dem Ende der Stauferdynastie im 13. Jahrhundert kam es zu einer bleibenden Dezentralisierung des Reiches. Die ohnehin traditionell schwache Zentralmacht von Kaisern und Königen verlor zunehmend Rechte und Befugnisse an aufstrebende Regionalmächte. Dieser langfristige Trend wurde auch und gerade in Südwestdeutschland spürbar. Es kam zur territorialen Zersplitterung in Hunderte von kleinen Grafschaften, Reichsstädten, geistlichen Gebieten oder gar einzelnen ritterschaftlichen Dörfern. Die sich auf dem Gebiet der alten Stammesherzogtümer Franken und Schwaben im Hoch- und Spätmittelalter entwickelnden Territorien erwiesen sich zumeist als beständig und dominierten bis zu den Umbruchsjahren 1803/1806. Zu den bedeutendsten unter ihnen zählen: die Reichsstädte Ulm, Biberach an der Riß, Esslingen, Heilbronn, Gmünd, Hall, Rottweil, Konstanz (bis 1548) und Reutlingen die weltlichen Fürstenstaaten Württemberg, Vorderösterreich, Pfalz, Baden, Hohenlohe und Fürstenberg die weltlichen Herrschaftsgebiete der Bistümer Konstanz, Worms, Speyer und Straßburg die Klosterstaaten St. Blasien, Zwiefalten, Ochsenhausen und Salem Zur horizontalen Diversifizierung trat die vertikale Aufteilung von Rechten an einem Ort in verschiedene Rechteinhaber. So konnten die zahlreichen finanziellen, wirtschaftlichen, militärischen und jurisdiktionalen Rechte innerhalb eines Dorfes in den Händen mehrerer Staaten, Herren oder Familien liegen. Frühe Neuzeit Die frühe Neuzeit war geprägt von der Reformation und den Expansionsbestrebungen der entstehenden Flächenstaaten Österreich, Preußen, Frankreich und Schweden. Aus diesen resultierten Konflikte wie der Bauernkrieg, der Dreißigjährige Krieg und der Pfälzische Erbfolgekrieg. Im heutigen Baden-Württemberg, das territorial außerordentlich stark zersplittert blieb, lag dabei einer der Schwerpunkte der Kampfhandlungen mit entsprechenden Folgen für Bevölkerung und Wirtschaft. Reformation und Bauernkrieg Das spätere Baden war Schauplatz der Bundschuh-Verschwörungen. Der aus Untergrombach stammende Joß Fritz führte von 1501 bis 1517 im Hochstift Speyer und in Vorderösterreich insgesamt drei Verschwörungen an. Bereits 1518 lernten junge südwestdeutsche Gelehrte bei der Heidelberger Disputation Martin Luther und seine Lehren kennen. Der Brettener Philipp Melanchthon folgte Luther nach Wittenberg und wurde zu einem der führenden Köpfe der lutherischen Reformation. Johannes Brenz ging von Heidelberg nach Schwäbisch Hall, führte dort die Reformation ein und unterstützte später Herzog Christoph von Württemberg beim Aufbau der evangelischen Landeskirche. Der Deutsche Bauernkrieg hatte einen seiner Schwerpunkte im deutschen Südwesten. Bereits 1524 versammelten sich in Stühlingen, Furtwangen und Biberach mehrere tausend Bauern. Am Ostersonntag 1525 stürmten und besetzten schwäbische Bauern die Burg Weinsberg und töteten den Grafen Ludwig von Helfenstein, der ein Schwiegersohn Kaiser Maximilians I. war. Diese Weinsberger Bluttat kostete die Bauern viele Sympathien. In der Folge zogen sie unter anderem in Stuttgart ein und zerstörten zahlreiche Burgen und Klöster, darunter die Burg Hohenstaufen, das Kloster Lorch und das Kloster Murrhardt. Am 24. April 1525 übertrugen die Aufständischen dem Hauptmann Götz von Berlichingen die militärische Führung. Am 23. Mai 1525 nahmen südbadische Bauern Freiburg ein. Der Bauernaufstand wurde durch ein Söldnerheer, das im Auftrag des Schwäbischen Bundes unter der Führung von Georg Truchsess von Waldburg-Zeil kämpfte, noch im Sommer 1525 brutal niedergeschlagen. Man schätzt, dass dabei ca. 100.000 Aufständische zu Tode kamen. Besonders in den südwestdeutschen Reichsstädten verbreitete sich die Reformation schnell. Der Protestation zu Speyer gehörten 1529 fünf Reichsstädte aus dem heutigen Baden-Württemberg an. Als Markgraf Philipp von Baden 1533 kinderlos starb, wurde die Markgrafschaft unter seinen Brüdern Ernst und Bernhard III. in das protestantische Baden-Durlach und das katholische Baden-Baden aufgeteilt. Herzog Ulrich von Württemberg führte die Reformation ein, als er 1534 durch die siegreiche Schlacht bei Lauffen nach fünfzehnjähriger Habsburgischer Zwangsverwaltung wieder auf den Stuttgarter Thron zurückkehrte. In der Kurpfalz führte Kurfürst Ottheinrich 1557 die Reformation lutherischer Prägung ein. Unter seinem Nachfolger Friedrich III., der 1563 den Heidelberger Katechismus ausarbeiten ließ, wurde die Kurpfalz calvinistisch. Dreißigjähriger Krieg Hauptschauplätze des Dreißigjährigen Kriegs im deutschen Südwesten waren die Kurpfalz und Vorderösterreich, aber auch die übrigen Gebiete wurden durch Plünderungen und Mundraub der durchziehenden und lagernden Heere schwer getroffen. Nach der Schlacht am Weißen Berg verlagerte sich der Böhmisch-Pfälzische Krieg in die Kurpfalz. Die vereinigten Heere der Grafen Peter von Mansfeld und Georg Friedrich von Baden-Durlach besiegten Tilly 1622 bei Mingolsheim. Wenig später unterlag der von Mansfeld getrennte Markgraf von Baden Tilly in der Schlacht bei Wimpfen. Während sich die Kriegsereignisse danach nach Norden verlagerten, blieb die Kurpfalz von den Spaniern links des Rheines und den Bayern rechts des Rheines besetzt. 1632 wurden beide durch die Schweden unter König Gustav Adolf vertrieben. 1634 eroberten die Schweden die Festung Philippsburg und zogen noch im selben Jahr bis an den Hochrhein. Nach der Schlacht bei Nördlingen floh Herzog Eberhard III. ins Exil nach Straßburg. Die siegreichen kaiserlichen und spanischen Truppen besetzten das Territorium Württembergs und es kam in diesen evangelischen Landstrichen zu verheerenden Übergriffen, Plünderungen und Brandschatzungen. 1635 eroberte Johann von Werth Philippsburg und Heidelberg zurück, Bayern besetzte erneut die Kurpfalz. 1638 feierten die protestantisch-schwedischen Verbände unter Bernhard von Sachsen-Weimar in Vorderösterreich bei der Schlacht bei Rheinfelden, in Breisach und in Freiburg Erfolge. 1643/44 schlug das Schlachtenglück in Schlachten bei Tuttlingen und Freiburg zugunsten der kaiserlich-katholischen Truppen um. Die Kämpfe im Südwesten dauerten noch bis Kriegsende an. Im Jahre 1647 unterzeichneten Bayern, Schweden und Frankreich in Ulm ein Waffenstillstandsabkommen, in dessen Folge sich die in Bayern eingefallenen schwedischen und französischen Truppen nach Oberschwaben und Württemberg zurückzogen. Im Westfälischen Frieden 1648 erhielt Karl I. Ludwig die Pfalz sowie die 1623 im Regensburger Reichstag verlorene Kurwürde zurück und Breisach wurde französisch. Als Folge des Dreißigjährigen Kriegs war die Bevölkerung um mehr als die Hälfte, regional um zwei Drittel, zurückgegangen, der Viehbestand war fast völlig vernichtet, ein Drittel des Nutzlandes lag brach. Die Region brauchte lange, um sich davon zu erholen. Zeitalter des Absolutismus → Hauptartikel für die Zeit von 1693–1733 in Württemberg: Eberhard Ludwig Nach dem Ende des Holländischen Kriegs 1679 annektierte Frankreich Freiburg im Breisgau. Die vorderösterreichische Regierung verlegte während der französischen Herrschaft über Freiburg ihren Sitz nach Waldshut. Im Pfälzischen Erbfolgekrieg verwüsteten französische Truppen unter der Führung von General Ezéchiel de Mélac den nordwestlichen Teil des heutigen Baden-Württembergs. Vor allem in den Jahren 1689 und 1693 ließ Mélac jeweils auf dem Rückzug systematisch Verteidigungsanlagen sprengen und flächendeckend Dörfer und Städte in Brand setzen, dabei wurden unter anderem die Residenzstädte Heidelberg mitsamt dem Schloss, Durlach und Baden zerstört, aber auch Mannheim, Bretten, Pforzheim oder Marbach. Nach Kriegsende musste Frankreich Freiburg und Breisach am Rhein an Österreich zurückgeben. In der Folge zogen mehrere der Landes- und Kirchenfürsten aus den alten Residenzstädten aus und errichteten neue Barockresidenzen nach dem Vorbild von Versailles. So entstanden barocke Planstädte mit großen Schlössern in Karlsruhe, Ludwigsburg und Rastatt, die kurpfälzische Residenz Schloss Mannheim und Sommerresidenz Schloss Schwetzingen sowie Schloss Bruchsal als Sitz des Hochstifts Speyer. Von 1703 bis 1713 war die Oberrheinebene zwischen Freiburg und Heidelberg im Spanischen Erbfolgekrieg Aufmarschgebiet der kaiserlichen Truppen und mehrfach Schauplatz von Kämpfen zwischen diesen und denen Frankreichs. Im österreichischen Erbfolgekrieg belagerten und eroberten französische Truppen unter dem persönlichen Kommando Ludwigs XV. 1744 Freiburg. 1782 wurde in den vorderösterreichischen Gebieten, d. h. in großen Teilen des südlichen heutigen Landesteils, die Leibeigenschaft im Zuge der Reformen Kaiser Josephs II. abgeschafft. 1806 bis 1918 Hatten zu Beginn des 19. Jahrhunderts noch etwa 300 Staaten im Gebiet des heutigen Baden-Württembergs territoriale Rechte inne, so reduzierte sich deren Zahl nach der Auflösung des Alten Reiches auf vier. Vor allem das Königreich Württemberg und das Großherzogtum Baden gehörten zu den Gewinnern der Koalitionskriege. Die beiden Fürstentümer Hohenzollern-Sigmaringen und Hohenzollern-Hechingen überlebten aufgrund besonderer Beziehungen zu Napoleon die Mediatisierung. Zudem war die Stadt Wimpfen eine hessische Exklave. 1849 wurde die Badische Revolution durch preußische Interventionstruppen niedergeschlagen, die Badische Armee aufgelöst und unter preußischer Führung neu aufgebaut. 1850 wurden die beiden hohenzollerischen Staaten zur preußischen Provinz Hohenzollernsche Lande. Im Deutschen Krieg 1866 standen Baden und Württemberg auf der Seite Österreichs und mussten nach Kriegsende eine Entschädigung an das siegreiche Preußen zahlen und militärische Geheimverträge mit dem Norddeutschen Bund schließen. Dies führte 1870 zum Eintritt dieser Staaten in den Deutsch-Französischen Krieg. Infolge des Kriegs schlossen sich Baden und Württemberg dem neu gegründeten und von Preußen angeführten Deutschen Kaiserreich an. 1918 bis 1933 1919 gaben sich die Republik Baden und der Volksstaat Württemberg demokratische Verfassungen. Zeit des Nationalsozialismus Machtergreifung und Terror 1933 wurden die selbständigen Landesregierungen mittels Gleichschaltungsgesetzen zu Gunsten nationalsozialistischer Gauleiter und Reichsstatthalter entmachtet. Die Machtergreifung wurde von Terror gegen die politischen Gegner begleitet und unterstützt. In Baden ernannte sich Gauleiter Robert Wagner am 11. März 1933 selbst zum Staatspräsidenten. Diese Selbsternennung legalisierte Reichspräsident Hindenburg am 5. Mai 1933 nachträglich durch Wagners Ernennung zum Reichsstatthalter. Das Amt des badischen Ministerpräsidenten übernahm Walter Köhler. Der württembergische Landtag wählte am 15. März 1933 Wilhelm Murr mit den Stimmen der NSDAP, DNVP und des Bauernbundes zum Staatspräsidenten. Am 6. Mai 1933 wurde er zum Reichsstatthalter ernannt, während das Amt des Ministerpräsidenten auf Christian Mergenthaler überging. Diese Dualität in der Machtausübung blieb bis Kriegsende erhalten. Die Regimegegner, vor allem Kommunisten und Sozialdemokraten, wurden ab März 1933 in einer Verhaftungswelle der Gestapo in „Schutzhaft“ genommen und in den Lagern Kislau (bei Bad Schönborn), Ankenbuck (bei Villingen) und Heuberg (bei Stetten am kalten Markt) interniert. Regimekritische Frauen wurden im Frauengefängnis Gotteszell festgehalten. Die badische SPD-Führung wurde am 16. Mai 1933 von Karlsruhe nach Kislau verschleppt, wobei der Abtransport öffentlich inszeniert wurde. Nach der Umbildung der Landtage gemäß dem Ergebnis der Reichstagswahl vom 5. März 1933 beschlossen die Landtage am 8. Juni 1933 in Württemberg bzw. am 9. Juni 1933 in Baden Landesermächtigungsgesetze. An den Abstimmungen durften sich die Abgeordneten der inzwischen verbotenen KPD nicht mehr beteiligen. Die SPD-Abgeordneten enthielten sich in Württemberg der Stimme, während die fünf verbliebenen in Baden offen mit „Nein“ stimmten. Alle anderen Abgeordneten – in Württemberg waren dies Zentrum, DNVP, Bauernbund, CSVD und NSDAP – stimmten der Selbstentmachtung zu. Das Lager Heuberg wurde Ende 1933 wegen Überfüllung geschlossen. Die Insassen wurden auf das Fort Oberer Kuhberg in Ulm verlegt. Mitglieder von Gestapo, SS und SA ermordeten den führenden badischen Sozialdemokraten Ludwig Marum am 29. März 1934 in Kislau. 1936 meldete die Gestapo, sie habe die „illegalen“ Strukturen von SPD und KPD zerschlagen. Verfolgung der Juden und anderer Minderheiten Dem Massenmord der Nationalsozialisten an der deutschen Zivilbevölkerung fielen in Baden und Württemberg ca. 12.000 Juden, eine große Zahl von Angehörigen der Roma-Minderheit, 10.000 Kranke sowie eine unbekannte Anzahl von Regimegegnern zum Opfer. Bis 1939 waren zwei Drittel der ca. 35.000 Juden, die 1933 in Baden und Württemberg gelebt hatten, ausgewandert. Am 22. Oktober 1940 leiteten der badische Gauleiter Robert Wagner und Josef Bürckel, Gauleiter der Westmark, die „Wagner-Bürckel-Aktion“, bei der noch vor dem eigentlichen Holocaust ca. 6000 badische Juden in das Lager Gurs verschleppt wurden. Von dort aus wurden die meisten von ihnen in deutsche Vernichtungslager in Osteuropa gebracht und dort ermordet. Die württembergischen Juden wurden ab November 1941 in mehreren Direktzügen zu je ca. 1000 Personen nach Riga, Izbica, Auschwitz und Theresienstadt deportiert, wo sie umgebracht wurden. In der Tötungsanstalt Grafeneck bei Gomadingen ermordeten die Machthaber im Rahmen der Aktion T4 mehr als 10.000 Patienten psychiatrischer Kliniken in einer Gaskammer. Roma, und unter ihnen viele Sinti, wurden z. T. in lokalen „Zigeunerlagern“ interniert, zum Beispiel im Zigeunerzwangslager in Ravensburg, und 1940 nach Polen und 1943 in das Vernichtungslager Auschwitz-Birkenau verschleppt. Zahlreiche Insassen baden-württembergischer Konzentrationslager starben bei der Zwangsarbeit. Beispielsweise kostete im KZ Bisingen bei Hechingen der Versuch, Schieferöl zu gewinnen, 1000 Menschen das Leben. Andere Häftlinge kamen auf den sogenannten Todesmärschen, mit denen die Machthaber kurz vor Kriegsende die Konzentrationslager angesichts der anrückenden amerikanischen Truppen räumen wollten, ums Leben. Widerstand Mit dem in Stuttgart aufgewachsenen Graf von Stauffenberg, den Geschwistern Scholl, die ihre Kindheit in Forchtenberg, Ludwigsburg und Ulm verbracht haben, sowie dem Hitler-Attentäter Georg Elser, der auf der Ostalb und in Konstanz lebte, haben vier der bekanntesten deutschen Widerstandskämpfer ihre Wurzeln im Südwesten. Weitere Beispiele sind die Freiburgerin Gertrud Luckner, die Juden bei der Ausreise unterstützte, 1943 verhaftet wurde und das KZ Ravensbrück überlebte, der Mannheimer Georg Lechleiter, der eine Untergrundorganisation der KPD anführte und 1942 in Stuttgart hingerichtet wurde sowie der Karlsruher Reinhold Frank und die Stuttgarter Fritz Elsas und Eugen Bolz, die als Mitglieder der Verschwörung vom 20. Juli 1944 im Jahre 1945 hingerichtet wurden. Ebenfalls zum Widerstand rechnet man die Wirtschaftswissenschaftler des Freiburger Kreises um Walter Eucken, den Rottenburger Bischof Joannes Sproll, der 1938 seiner Diözese verwiesen wurde, nachdem er sich an der Volksabstimmung um den „Anschluss“ Österreichs nicht beteiligt hatte, und Robert Bosch, der Juden und andere Verfolgte in seinem Unternehmen unterbrachte. Kriegsende und Kriegsfolgen Im Oktober 1944 wurde die Regierung des Vichy-Regimes unter Marschall Pétain auf Befehl Hitlers von Vichy nach Sigmaringen verlegt. Das Schloss Sigmaringen blieb bis Kriegsende Sitz der aus Sicht der Nationalsozialisten offiziellen französischen Regierung. Die alliierten Luftangriffe im Zweiten Weltkrieg trafen die Städte in Südwestdeutschland nicht alle in gleichem Maße. Beim Luftangriff auf Pforzheim am 23. Februar 1945 starben innerhalb von wenigen Minuten 17.600 Menschen. Sehr schwer getroffen wurden auch Stuttgart, Mannheim, Heilbronn, Friedrichshafen, Freiburg und Ulm. Schwere Schäden trugen Karlsruhe, Reutlingen, Böblingen, Sindelfingen, Offenburg und Göppingen davon. Andere Städte, z. B. Rottweil, Heidelberg, Baden-Baden, Esslingen, Ludwigsburg, Tübingen, Villingen, Konstanz, Aalen oder Schwäbisch Gmünd blieben nahezu unversehrt und haben deshalb noch heute intakte Altstädte. Im Frühjahr 1945 besiegten amerikanische und französische Bodentruppen auch auf dem Gebiet Baden-Württembergs diejenigen der Wehrmacht. Die Amerikaner besetzten Mannheim am 29. März 1945. Stuttgart eroberten die französischen Truppen am 22. April 1945. Teilweise schwere Kämpfe führten dazu, dass in den letzten Kriegswochen noch Crailsheim, Waldenburg, Bruchsal und Freudenstadt zerstört wurden. Der Weg zum Südweststaat Nach dem Zweiten Weltkrieg kamen die nördlichen Teile von Baden und Württemberg zur US-amerikanischen Besatzungszone, die südlichen Teile sowie Hohenzollern zur französischen. Die Aufteilung erfolgte entlang der Kreisgrenzen, wobei zur US-amerikanischen Zone bewusst alle die Kreise geschlagen wurden, durch die die Autobahn Karlsruhe-München (heutige A 8) verlief. Die Militärregierungen der Besatzungszonen gründeten 1945/46 die Länder Württemberg-Baden in der amerikanischen sowie Württemberg-Hohenzollern und Baden in der französischen Zone. Diese Länder wurden am 23. Mai 1949 Teil der Bundesrepublik Deutschland. Das Grundgesetz für die Bundesrepublik Deutschland traf in Regelungen zu einer Neugliederung des Bundesgebiets mithilfe von Volksabstimmungen. Dieser Artikel trat jedoch wegen Vorbehalten der Besatzungsmächte zunächst nicht in Kraft. Abweichend davon wurden in Artikel 118 die drei Länder im Südwesten dazu angehalten, eine Neugliederung durch gegenseitige Vereinbarung zu regeln. Dieser Artikel beruhte auf der noch vor Beginn der Beratungen über das Grundgesetz getroffenen Entscheidung vom 31. August 1948 bei der Konferenz der Ministerpräsidenten auf Jagdschloss Niederwald zur Schaffung eines Südweststaats. Für den Fall, dass eine solche Regelung nicht zustande käme, wurde eine Regelung durch ein Bundesgesetz vorgeschrieben. Als Alternativen kamen entweder eine Vereinigung zu einem Südweststaat oder die separate Wiederherstellung Badens und Württembergs (einschließlich Hohenzollerns) in Frage, wobei die Regierungen Württemberg-Badens und Württemberg-Hohenzollerns für Ersteres, diejenige Badens für Letzteres eintraten. Eine Übereinkunft der Regierungen über eine Volksabstimmung scheiterte an der Frage des Abstimmungsmodus. Das daraufhin am 4. Mai 1951 verabschiedete Bundesgesetz sah eine Einteilung des Abstimmungsgebiets in vier Zonen vor (Nordwürttemberg, Nordbaden, Südwürttemberg-Hohenzollern, Südbaden). Die Vereinigung der Länder sollte als akzeptiert gelten, wenn sich eine Mehrheit im gesamten Abstimmungsgebiet sowie in drei der vier Zonen ergab. Da eine Mehrheit in den beiden württembergischen Zonen sowie in Nordbaden bereits abzusehen war (hierfür wurden Probeabstimmungen durchgeführt), favorisierten diese Regelung die Vereinigungsbefürworter. Die (süd-)badische Regierung strengte eine Verfassungsklage gegen das Gesetz an, die jedoch erfolglos blieb. Vor der Volksabstimmung, die am 9. Dezember 1951 stattfand, bekämpften sich Befürworter und Gegner des geplanten Südweststaates. Die führenden Vertreter der Pro-Seite waren der Ministerpräsident Württemberg-Badens Reinhold Maier und der Staatspräsident Württemberg-Hohenzollerns Gebhard Müller, Anführer der Südweststaat-Gegner war der Staatspräsident Badens Leo Wohleb. Bei der Abstimmung votierten die Wähler in beiden Teilen Württembergs mit 93 Prozent für die Fusion, in Nordbaden mit 57 Prozent, während in Südbaden nur 38 Prozent dafür waren. In drei von vier Abstimmungsbezirken gab es eine Mehrheit für die Bildung des Südweststaates, so dass die Bildung eines Südweststaates beschlossen war. Hätte das Ergebnis in Gesamtbaden gezählt, so hätte sich eine Mehrheit von 52 Prozent für eine Wiederherstellung des (separaten) Landes Baden ergeben. Hinweis: Die historischen Abläufe finden sich ausführlich auch im Abschnitt Die Entstehung Baden-Württembergs im Artikel Württemberg-Hohenzollern. Gründung des Landes Am 9. März 1952 wurde die Verfassunggebende Landesversammlung gewählt. Auf einer Sitzung am 25. April 1952 wurde der erste Ministerpräsident gewählt. Damit war das Land Baden-Württemberg gegründet. Reinhold Maier (FDP/DVP) bildete als erster Ministerpräsident eine Koalition aus SPD, FDP/DVP und BHE. Nach Inkrafttreten der Verfassung wirkte die Verfassunggebende Landesversammlung bis 1956 als erster Landtag von Baden-Württemberg. Der Name des Landes war Gegenstand eines längeren Streites. Der im Überleitungsgesetz vom 15. Mai 1952 genannte Name Baden-Württemberg war zunächst nur übergangsweise vorgesehen, setzte sich jedoch letztlich durch, da kein anderer Name von allen Seiten akzeptiert wurde. Die am 19. November 1953 in Kraft getretene Landesverfassung wurde lediglich von der Verfassunggebenden Landesversammlung beschlossen, anschließend aber nicht durch eine Volksabstimmung bestätigt. Reinhold Maier hatte mit seiner schnellen Regierungsbildung 1952 die CDU als stärkste Fraktion ausgeschlossen. Das erzeugte Unmut, sowohl bei den zwei südlichen Landesteilen Südbaden und Südwürttemberg-Hohenzollern, die sich in der neuen Regierung nicht oder nur unzureichend vertreten fühlten, als auch bei Gebhard Müller, dem neuen CDU-Fraktionsvorsitzenden, der die Nichtbeteiligung der CDU als persönlichen Affront empfand. Bei der Bundestagswahl vom 6. September 1953, die von Reinhold Maier zugleich zum Plebiszit über seine Politik erklärt worden war, errang die CDU in Baden-Württemberg die absolute Mehrheit der Stimmen. Reinhold Maier zog die Konsequenzen und trat als Ministerpräsident zurück. Sein Nachfolger wurde Gebhard Müller, der eine Koalition aus CDU, SPD, FDP/DVP und BHE bildete. Dieselbe Konstellation regierte auch nach der Wahl 1956 (die KPD hatte den Einzug in den Landtag nicht mehr geschafft, somit wurde die Koalition zur Allparteienregierung) und hatte bis 1960 Bestand. Nachfolger Müllers wurde 1958 Kurt Georg Kiesinger als dritter Ministerpräsident des Landes. Erneute Abstimmung in Baden Die badischen Vereinigungsgegner gaben den Kampf gegen den Südweststaat auch nach 1952 nicht auf. Im Heimatbund Badnerland organisiert, erstrebten sie weiterhin die Wiederherstellung Badens. Abs. 2 GG sah vor, dass in Gebieten, deren Landeszugehörigkeit nach Ende des Zweiten Weltkriegs ohne Volksabstimmung geändert worden war, ein Volksbegehren über die Neugliederung möglich sei. Nachdem dieser Passus infolge des Deutschlandvertrags 1955 in Kraft trat, stellte der Heimatbund einen Antrag auf ein Volksbegehren zur Wiederherstellung des Landes Baden in den Grenzen von 1945. Das Bundesinnenministerium lehnte diese Forderung unter anderem mit der Begründung ab, das neue Bundesland sei bereits durch eine Volksabstimmung zustande gekommen. In der darauf folgenden Klage vor dem Bundesverfassungsgericht bekam der Heimatbund 1956 Recht. Das Gericht argumentierte, dass die Abstimmung von 1951 keine Abstimmung im Sinne von GG gewesen sei, da hierbei die zahlenmäßig stärkere Bevölkerung Württembergs und Hohenzollerns die zahlenmäßig schwächere Badens habe überstimmen können. Der Wille der badischen Bevölkerung sei durch die Besonderheit der politisch-geschichtlichen Entwicklung überspielt worden, weshalb ein Volksbegehren nach GG zulässig sei. Das Bundesverfassungsgericht setzte in seinem Urteil keine Frist für die Abstimmung, weshalb sie immer wieder verschleppt wurde. Es bedurfte einer weiteren Entscheidung des Bundesverfassungsgerichtes im Jahre 1969, in der es die Abstimmung bis spätestens zum 30. Juni 1970 anordnete. Diese wurde am 7. Juni 1970 durchgeführt und ergab mit 81,9 Prozent eine große Zustimmung zum Verbleib von Baden im gemeinsamen Land Baden-Württemberg. Die Wahlbeteiligung lag bei 62,5 Prozent. Die Ablehnung des Volksbegehrens machte den Weg frei zu einer administrativen Neugliederung des Landes. 1971 wurde eine Reform der Landkreise und der Regierungsbezirke eingeleitet, die 1973 in Kraft trat. Seitdem sind die ehemaligen Landesgrenzen kaum noch im Kartenbild zu erkennen. Bevölkerungsentwicklung Die Bevölkerungsentwicklung in Baden-Württemberg war zwischen 1950 und 2008 im Allgemeinen von einem stetigen Anstieg geprägt. In den 1950er Jahren stieg die Bevölkerung Baden-Württembergs um knapp 1,3 Millionen Menschen an. Auch in den 1960er Jahren stieg die Bevölkerung nochmals um knapp 1,2 Millionen Menschen an. 1971 überstieg die Bevölkerungszahl erstmals die Neun-Millionen-Marke. Die 1970er Jahre waren dagegen bevölkerungsmäßig weitgehend von Stagnation geprägt. Vor allem in den zehn Jahren von 1977 bis 1987 trat die Bevölkerungsentwicklung weitgehend auf der Stelle. Ein Rückgang Anfang der 1980er Jahre wurde zwar ausgeglichen, in den zehn Jahren nach 1977 nahm die Bevölkerung jedoch nur um rund 165.000 Menschen auf knapp 9,3 Millionen zu. Mit dem Ende des Kalten Krieges und dem Zustrom von Menschen aus Zentral- und Osteuropa änderte sich dies jedoch sehr deutlich. Die zwanzig Jahre von 1988 bis 2008 waren von einem kontinuierlichen Bevölkerungsanstieg geprägt. Die Bevölkerung nahm in dieser Zeit um fast 1,5 Millionen Menschen zu. In den Jahren 1990 und 1991 wuchs die Bevölkerung jeweils um fast 200.000 Personen. Insgesamt ist in den 50 Jahren zwischen 1952 und 2002 die Bevölkerung Baden-Württembergs um knapp vier Millionen von 6,7 auf 10,7 Millionen Menschen gewachsen, das ist eine Zunahme um knapp 60 Prozent. In den Jahren 2008 und 2009 gab es einen kleinen Bevölkerungsrückgang im ansonsten von Wachstum geprägten Baden-Württemberg. Auch bisher ist die Bevölkerung stets höchstens drei Jahre in Folge geschrumpft, um dann wieder und weiter anzuwachsen. Dennoch prognostizierte das Statistische Landesamt im Jahr 2010 einen Rückgang der Bevölkerung bis zum Jahr 2030 um 3,5 Prozent auf rund 10,3 Millionen Menschen. Die Studie „Wegweiser Kommune“ der Bertelsmann-Stiftung geht in einer Prognose aus dem Jahr 2011 von einem Bevölkerungsrückgang von 0,4 Prozent für Baden-Württemberg bis 2030 (gegenüber 2009) aus, womit Baden-Württemberg nach Bayern das Flächenland mit der stabilsten Bevölkerungsgröße ist. Hoheitssymbole Das Wappen zeigt drei schreitende Löwen auf goldenem Grund. Dies ist das Wappen der Staufer und Herzöge von Schwaben. Über dem großen Landeswappen befinden sich die sechs Wappen der historischen Landschaften, aus denen oder aus deren Teilen Baden-Württemberg gebildet worden ist. Diese sind: Vorderösterreich (rot-weiß-rot geteilter Schild), Kurpfalz (steigender Löwe), Württemberg (drei Hirschstangen), Baden (roter Schrägbalken), Hohenzollern (weiß-schwarz geviert) und Franken (drei silberne Spitzen auf rotem Grund). Dabei sind die Wappen Badens und Württembergs etwas größer dargestellt. Schildhalter sind der badische Greif und der württembergische Hirsch. Auf dem kleinen Landeswappen ruht stattdessen eine Blattkrone. Die Benutzung des Landeswappens ist genehmigungspflichtig und grundsätzlich nur den Behörden im Land Baden-Württemberg gestattet. Seit der letzten Änderung des Landeshoheitszeichengesetzes am 4. November 2020 (gültig seit 14. November 2020) wird auf der Landesdienstflagge mit großem Wappen das große Landeswappen einschließlich der Schildhalter verwendet, auf welche vorher verzichtet wurde. Die Landesflagge ist schwarz-gold; die Landesdienstflagge trägt zusätzlich das kleine Landeswappen. Verwaltungsgliederung Baden-Württemberg ist seit dem 1. Januar 1973 in vier Regierungsbezirke, zwölf Regionen (mit je einem Regionalverband) sowie 35 Landkreise und neun Stadtkreise eingeteilt. Die Regierungsbezirke werden durch ihre Behörden, den Regierungspräsidien, verwaltet. Regierungsbezirke und Regionen Regierungsbezirk Freiburg (Behörde: Regierungspräsidium Freiburg) mit den Regionen Hochrhein-Bodensee, Schwarzwald-Baar-Heuberg, Südlicher Oberrhein Regierungsbezirk Karlsruhe (Behörde: Regierungspräsidium Karlsruhe) mit den Regionen Mittlerer Oberrhein, Nordschwarzwald, Rhein-Neckar Regierungsbezirk Stuttgart (Behörde: Regierungspräsidium Stuttgart) mit den Regionen Heilbronn-Franken, Ostwürttemberg, Stuttgart Regierungsbezirk Tübingen (Behörde: Regierungspräsidium Tübingen) mit den Regionen Bodensee-Oberschwaben, Donau-Iller, Neckar-Alb Die Region Donau-Iller umfasst auch angrenzende Gebiete in Bayern. Die Region Rhein-Neckar umfasst auch angrenzende Gebiete in Hessen und Rheinland-Pfalz. Stadt- und Landkreise Im Land bestehen die folgenden neun Stadtkreise (in Klammern die jeweiligen Kfz-Kennzeichen): Die 35 Landkreise sind: Zum Landkreis Konstanz gehört die Exklave Büsingen am Hochrhein, die in der Nähe von Schaffhausen liegt und völlig von Schweizer Gebiet umschlossen ist. Die Landkreise haben sich 1956 zum Landkreistag Baden-Württemberg zusammengeschlossen. Gemeinden Siehe auch: Liste der Städte und Gemeinden in Baden-Württemberg, Liste der größten Städte in Baden-Württemberg (alle Gemeinden mit mehr als 20.000 Einwohnern) sowie Gemeindeordnungen in Deutschland Seit dem Abschluss der Gebiets- und Verwaltungsreform und dem Zusammenschluss weiterer Gemeinden gliedert sich das Land Baden-Württemberg in insgesamt 1101 Gemeinden (89 davon sind Große Kreisstädte, 312 Gemeinden werden als Stadt bezeichnet) sowie die zwei unbewohnten gemeindefreien Gebiete Gutsbezirk Münsingen und Gemeindefreier Grundbesitz Rheinau. Die Rechte und Pflichten der Gemeinden werden vor allem in der baden-württembergischen Landesverfassung (§§ 69–76) und in der baden-württembergischen Gemeindeordnung (GemO) festgelegt. In § 1 GemO sind die Gemeinden als „Grundlage und Glied des demokratischen Staates“ beschrieben, und die „Teilnahme an der […] Verwaltung der Gemeinde“ als „Recht und Pflicht“ der Gemeindebewohner. Als ein Gemeindegebiet wird in § 7 GemO die Gesamtheit der zur Gemeinde gehörenden Grundstücke definiert. Diese Grundstückseinheit ist als Gemarkung im Grundbuch dokumentiert. Ferner ist festgelegt, dass alle Grundstücke Baden-Württembergs zu einer Gemeinde gehören sollen – „besondere Gründe“ rechtfertigen aber den Verbleib von Grundstücken außerhalb eines gemeindlichen Markungsverbandes. Solche „gemeindefreien Grundstücke“ existieren in Baden-Württemberg in zwei unbewohnten gemeindefreien Gebieten – Gutsbezirk Münsingen und Gemeindefreier Grundbesitz Rheinau. Hinter den neun Großstädten des Landes sind die größten Mittelstädte Ludwigsburg, Esslingen, Tübingen, Villingen-Schwenningen und Konstanz. In § 3 GemO sind als besondere Gemeindetypen Stadtkreise (außerhalb Baden-Württembergs Kreisfreie Stadt genannt) und Große Kreisstädte erwähnt. Sie unterscheiden sich von den verbleibenden Gemeinden durch die ganze oder teilweise Übernahme von Kreisaufgaben. In Baden-Württemberg sind neun Gemeinden zu Stadtkreisen und 91 Gemeinden zu Großen Kreisstädten erklärt worden. Von den in § 8 GemO genannten Gemeindegebietsänderungen haben Eingliederung (Eingemeindung) und Neubildung (Gemeindefusion/Zusammenlegung) das Ende der politischen Selbständigkeit einer Gemeinde zur Folge. Umfangreiche derartige Gebietsänderungen wurden unter dem Stichwort Gebietsreform in den 1970er Jahren verfügt. Die Eingliederung von Tennenbronn nach Schramberg am 1. Mai 2006 war die erste Aufgabe der Selbstständigkeit einer Gemeinde seit 1977. Die alle fünf Jahre stattfindenden Kommunalwahlen wurden zuletzt am 26. Mai 2019 durchgeführt. Bei den Wahlen im Jahr 2009 waren 18.233 Gemeinderäte und 1.960 Kreisräte zu wählen. Gemarkungen Die 1101 Gemeinden gliedern sich in 3380 Gemarkungen. Diese sind keine Verwaltungseinheiten, sondern Flächeneinheiten des Liegenschaftskatasters. In vielen Fällen entsprechen die aktuellen Gemarkungen den ehemaligen Gemeinden vor der Gebietsreform bzw. den heutigen Gemeinden in ihren Grenzen vor der Gebietsreform. Politik Der Ministerpräsident ist Vorsitzender der Landesregierung von Baden-Württemberg, die aus Ministern, Staatssekretären und ehrenamtlichen Staatsräten besteht. Die Ministerpräsidenten seit 1952: Baden-Württemberg ist politisch bürgerlich-konservativ geprägt, die CDU und die FDP/DVP sind in Baden-Württemberg verhältnismäßig stark und haben die meisten Regierungen des Landes gestellt. Aus diesem Grund hatte die SPD dort stets einen schweren Stand; ihre Ergebnisse lagen bislang immer unter dem Bundesdurchschnitt. Die CDU ging bis 2011 bei jeder Wahl als stärkste Partei hervor, während das Bundesland für die FDP das bislang einzige darstellt, bei dem sie bei Landtagswahlen noch nie an der Fünf-Prozent-Hürde scheiterte. Seit den 1980er Jahren ist Baden-Württemberg auch eine Hochburg der in Karlsruhe gegründeten Grünen, deren Wahlergebnisse im Land stets über dem Bundesdurchschnitt lagen; ihr erstmaliger Einzug in den Landtag im Jahr 1980 war gleichzeitig der erste in einem Flächenland; seit dem Erfolg bei den Landtagswahlen 2011 stellen die Grünen hier ihren ersten Ministerpräsidenten überhaupt. Während der Ministerpräsident von 1953 bis 2011 immer von der CDU gestellt wurde, waren an der Regierung teilweise die FDP/DVP beziehungsweise die SPD (Große Koalition) beteiligt. Während der 1990er Jahre waren die Republikaner im Landtag vertreten (10,9 Prozent 1992 und 9,1 Prozent 1996), die in diesem Bundesland ihren größten Zulauf hatten. Zuvor saß zwischen 1968 und 1972 ebenso die NPD mit 9,8 Prozent der Wählerstimmen im Landtag. 2016 zog die AfD mit 15,1 Prozent in den Landtag ein. In keinem anderen der alten (westdeutschen) Länder erreichten Parteien rechts von CDU und CSU derart hohe Wahlergebnisse. Die CDU erreichte bei allen Wahlen zwischen 1972 und 1988 die absolute Mehrheit im Landtag. Aufgrund des Austrittes des Landtagsabgeordneten Ulrich Maurer aus der SPD am 27. Juni 2005 und seinem Eintritt in die WASG am 1. Juli war diese im Landtag vertreten. Stefan Mappus wurde am 10. Februar 2010 zum Ministerpräsidenten gewählt, verlor allerdings seine schwarz-gelbe Regierungsmehrheit nach der Landtagswahl 2011. Die CDU selbst fuhr mit 39,0 Prozent das zweitschlechteste Wahlergebnis in der Geschichte der Landespartei ein, die FDP schaffte nur knapp den Sprung in den Landtag (5,3 Prozent). Die Grünen dagegen erreichten mit 24,2 Prozent das zu dem Zeitpunkt beste Ergebnis der Partei auf Landesebene. Die SPD erreichte mit 23,1 Prozent ihr in Baden-Württemberg bis dahin schlechtestes Wahlergebnis und trat als Juniorpartner in eine grün-rote Koalition unter Ministerpräsident Winfried Kretschmann ein. Bei der Landtagswahl 2016 setzte sich der Trend fort: Sowohl CDU als auch SPD verschlechterten sich nochmals auf ihre bis dahin jeweils schlechtesten Ergebnisse im Land, wohingegen die Grünen weiter zugewinnen konnten. Die neu angetretene AfD konnte 15,1 Prozent der Stimmen erzielen. In der Folge bildeten die Grünen zusammen mit der CDU eine Koalition unter Ministerpräsident Kretschmann (Kabinett Kretschmann II). Bei der Landtagswahl 2021 konnten die Grünen erneut bei Verlusten der CDU Stimmenanteile dazugewinnen. Die FDP konnte ihr Ergebnis verbessern, während die SPD und AfD Verluste hinnehmen musste. Die Regierungsbildung mündete erneut in der Bildung einer grün-schwarzen Regierung (Kabinett Kretschmann III). Das Land unterhält zwei Landesvertretungen außerhalb von Baden-Württemberg. Seit 1954 existiert die Vertretung des Landes Baden-Württemberg beim Bund, welche ihren Sitz bis zum Umzug der Bundesregierung in der Bundesstadt Bonn hatte und heute in der Bundeshauptstadt Berlin sitzt. Im Jahre 1987 kam die Vertretung des Landes Baden-Württemberg bei der Europäischen Union dazu, welche als Bindeglied zwischen dem Bundesland Baden-Württemberg und der Europäischen Union fungiert. Zudem besteht seit November 2021 das BW-UK Office, die Auslandsrepräsentanz Baden-Württembergs im Vereinigten Königreich. Baden-Württemberg und die japanische Präfektur Kanagawa pflegen seit 1989 eine bilaterale Partnerschaft. Innerhalb Europas bildet Baden-Württemberg zusammen mit den Regionen Katalonien, Lombardei und Rhône-Alpes die multilaterale Arbeitsgemeinschaft Vier Motoren für Europa. Mit service-bw steht den Bürgern eine E-Government-Plattform zur Verfügung. Im landeseigenen Umweltinformationssystem Baden-Württemberg sind aktuelle Messergebnisse zur Luftqualität, zum Bodensee, Unwetterwarnungen, Geoinformationen, und ein Informationssystem für Wasser, Immissionsschutz, Boden, Abfall und Arbeitsschutz abrufbar. Staatshaushalt Am 26. Oktober 2022 wurde vom Minister für Finanzen des Landes Baden-Württemberg, Danyal Bayaz (Grüne), der Haushaltsplan als Entwurf für die Jahre 2023 und 2024 (sogenannter Doppelhaushalt) in den Landtag eingebracht. Aufgrund der Vorlage des Haushaltsentwurfs im Landtag wurde dieser von den Abgeordneten debattiert. Der Landtag von Baden-Württemberg hat am 20. Dezember 2022 den Haushaltsplan für 2023 und 2024 beschlossen. Der Staatshaushalt des Landes Baden-Württemberg sieht für das Jahr 2023 Aufwendungen (Ausgaben) in Höhe von 61.049.405.700 Euro und für das Jahr 2024 in Höhe von 60.405.007.300 Euro vor. Der Haushaltsplan gliedert sich in ein Vorheft und in folgende 17 Einzelpläne, die von 01 bis 18 (mit Ausnahme der Zahl 15) nummeriert sind: Die Staatsverschuldung Baden-Württembergs bezifferte sich am 31. Dezember 2021 auf 59,7 Milliarden Euro. Wirtschaft Baden-Württemberg zählt zu den wirtschaftsstärksten und wettbewerbsfähigsten Regionen Europas. Insbesondere im Bereich der industriellen Hochtechnologie sowie Forschung und Entwicklung gilt Baden-Württemberg als die innovativste Region der Europäischen Union. Die Forschungsstärke spiegelt sich in den Ausgaben für Forschung und Entwicklung wider, welche 2005 bei 4,2 Prozent des Bruttoinlandsprodukts liegen, der höchste Wert unter den EU-Regionen (NUTS 1). Gemessen am Bruttoinlandsprodukt, das 2021 rund 536 Milliarden Euro betrug, gehört Baden-Württemberg zu den wohlhabenderen Regionen der EU mit einem Index von 144 (EU-28: 100, Deutschland: 126) (2014). Nach Hamburg und Bayern belegt Baden-Württemberg den dritten Platz im Kaufkraftvergleich 2016 mit 23.368 Euro pro Einwohner. Die durchschnittlichen Bruttolöhne je Arbeitnehmer im Jahr 2020 variierten je nach Land- bzw. Stadtkreis zwischen 32.000 bis über 50.200 Euro. So weist der Landkreis Böblingen mit 50.244 Euro je Arbeitnehmer den höchsten Durchschnittsverdienst im Jahr 2020 auf, gefolgt von den Stadtkreisen Stuttgart (49.375 Euro) und Karlsruhe (43.514 Euro). Die Arbeitslosenquote betrug . Sie ist dabei in den eher ländlich geprägten Regionen traditionell niedriger als in den Städten. So betrug die Arbeitslosenquote im März 2023 im Landkreis Biberach lediglich 2,4 Prozent, im Alb-Donau-Kreis 2,5 Prozent und im Landkreis Ravensburg 2,7 Prozent, während sie in den Stadtkreisen Baden-Baden mit 5,8 Prozent, Pforzheim mit 5,9 Prozent und Mannheim mit 7,1 Prozent deutlich höher lag. Ungefähr 50.000 Baden-Württemberger gehen als Grenzgänger einer Arbeit in der Schweiz nach. Charakteristisch für die Wirtschaft des Landes sind seine Familienunternehmen. Unter den 1000 größten Familienunternehmen Deutschlands befinden sich 190 in Baden-Württemberg, das ist Platz drei im Bundesländervergleich. Auch im Verhältnis zur Einwohnerzahl kann das Land damit die drittmeisten Familienunternehmen in Deutschland vorweisen. Umsatzstärkstes baden-württembergisches Familienunternehmen ist der Handelsmulti Schwarz-Gruppe, gefolgt von der Robert Bosch GmbH und der Merckle Unternehmensgruppe. Ab 1999 warb die Landesregierung mit dem Motto „Wir können alles. Außer Hochdeutsch.“ für Baden-Württemberg als Wirtschaftsstandort und Lebensumfeld. Ziel der von der Landesregierung als äußerst erfolgreich eingeschätzten Kampagne war es, die wirtschaftliche Leistungsfähigkeit des Landes bekannter zu machen und sie mit den kulturellen, landschaftlichen und gastronomischen Vorzügen zu assoziieren. Das Motto wurde von einer Werbeagentur erfunden und zunächst dem Freistaat Sachsen angeboten, der seine Nutzung jedoch ablehnte. Es wurde zum geflügelten Wort. Ein weiteres, ebenfalls von der Agentur entworfenes Motto, ist „Nett hier. Aber waren Sie schon mal in Baden-Württemberg?“. Seit 2021 wirbt die Landesregierung mit der Bezeichnung Länd (Eigenschreibweise in Majuskeln), die von einer anderen Werbeagentur erschaffen wurde. Landwirtschaft Das Land weist für die Landwirtschaft höchst unterschiedliche natürliche Bedingungen auf (vgl. Abschnitt Geographie). In der Bilanz sind die tiefer gelegenen Tal- und Beckenräume des Landes wie Oberrheintiefland und Neckartal oder auch das Bodenseegebiet ausgesprochene Gunsträume für die Landwirtschaft. Hier finden sich neben Ackerbau auch Intensivkulturen wie z. B. Obst- und Weinbau mit den Weinbaugebieten Baden und Württemberg. In der Landeshauptstadt Stuttgart wird – ungewöhnlich für eine Großstadt – im verhältnismäßig größeren Umfang Weinbau betrieben (siehe Weinbau in Stuttgart). Der überwiegende Teil des Landes weist mittlere Höhenlagen auf, die für den Getreidebau günstig sind, der in unterschiedlichen Kombinationen mit Grünlandwirtschaft und Futterbau auftritt. Ungünstige Wuchsklimate finden sich in den Höhengebieten des Schwarzwalds und der Schwäbischen Alb sowie in der Baar, hier herrschen Futterbau und Viehhaltung auf Grünland oder Forstwirtschaft vor. Die ökologische Landwirtschaft ist 2018 auf 9.290 Betriebe (11 Prozent der Betriebe) und 197.751 Hektar Ökofläche (14 Prozent der landwirtschaftlichen Nutzfläche) angestiegen. Der allgemeine Strukturwandel der Landwirtschaft, ihre betriebliche Konzentration und die Intensivierung der Produktion, vollzieht sich in Baden-Württemberg aufgrund seiner kleinteiligeren Landwirtschaft mit einiger Verzögerung letztlich in gleicher Geschwindigkeit. Indikatoren sind z. B. der Rückgang der Betriebszahlen: 1971 gab es noch 215.430 landwirtschaftliche Betriebe, 2007 waren es nur noch 57.049; das Wachstum der durchschnittlichen Betriebsgröße: 1949 betrug diese noch 4,9 Hektar, im Jahr 2005 23,9 Hektar (im Bundesdurchschnitt unter den Flächenstaaten die geringste Zahl); die Umkehrung des Verhältnisses von Haupt- zu Nebenerwerbsbetrieben: 1949 waren es 251.000 Haupt- und 141.000 Nebenerwerbsbetriebe, im Jahr 2005 wurden 19.900 Haupterwerbsbetriebe und 35.400 Nebenerwerbsbetriebe verzeichnet; der Rückgang der in der Landwirtschaft Erwerbstätigen: deren absolute Zahl nahm in Baden-Württemberg noch bis 1925 zu und sank danach zunächst langsam, ab den 1950er Jahren schnell ab, im Jahr 2005 waren es etwa 100.000 Erwerbstätige, was zwei Prozent aller Erwerbstätigen entspricht. Produzierendes Gewerbe Industrie und Gewerbe beschäftigten 2005 in 8.600 Betrieben gut 1,2 Millionen Menschen, was 38,3 Prozent der sozialversicherungspflichtig Beschäftigten darstellt. Damit ist Baden-Württemberg das deutsche Bundesland mit dem höchsten Anteil der Industriebeschäftigten und dem höchsten Industrieanteil am Bruttoinlandsprodukt. Die international hohe Wettbewerbsfähigkeit der Industriebranchen des Landes wird maßgeblich durch hohe Forschungsleistungen der Unternehmen begünstigt (Wirtschaftsanteil an Forschung und Entwicklung: 3,4 Prozent des Bruttoinlandsprodukts). Die drei nach Beschäftigtenzahlen wichtigsten Branchen sind die Maschinenbauindustrie, die mit vielen Unternehmen in Baden-Württemberg ansässig ist (z. B. Trumpf, Heidelberger Druckmaschinen, Festo, Voith, Liebherr, Putzmeister, SEW); der Fahrzeugbau: Baden-Württemberg ist ein Zentrum der Automobilindustrie (Daimler AG, Porsche, Robert Bosch GmbH, Audi, Smart, Iveco Magirus, ZF Friedrichshafen, LuK, Rheinmetall Automotive, Mahle Kolben, BBS) mit Standorten in Stuttgart, Sindelfingen, Neckarsulm, Mannheim, Rastatt, Gaggenau, Bühl (Baden), Ulm, Friedrichshafen und Weissach; die Herstellung von Metallerzeugnissen (z. B. Wieland-Werke AG in Ulm). Im Schwarzwald war früher die Feinmechanik sehr bedeutend, insbesondere die Uhrenindustrie sowie später die Unterhaltungselektronik (Junghans, Kienzle, SABA, Dual). Auf der Schwäbischen Alb war und ist hauptsächlich die Textilindustrie (mit Hugo Boss, Trigema und Steiff) von Bedeutung. Die Mineralölraffinerie Oberrhein in Karlsruhe ist die zweitgrößte Mineralölraffinerie in Deutschland. In Walldorf hat das größte europäische Software-Unternehmen SAP seinen Sitz. Aus Baden-Württemberg stammen die bekannten Programme VirtualBox, TeamSpeak und Teamviewer Remote. Mit Lexware ist ein weiterer Softwareentwickler in Baden-Württemberg beheimatet und vor allem durch kaufmännische Softwarelösungen bekannt. Relevant und bedeutend für die Wirtschaft einiger Städte und Gemeinden ist die Rüstungsindustrie mit etwa 120 Unternehmen. So ist Oberndorf am Neckar baden-württembergisches Zentrum für Schusswaffen, bspw. von Heckler & Koch, Rheinmetall oder ehemals Mauser. Darüber hinaus zu erwähnen ist Junghans Microtec in Seedorf als Hersteller von Zündern und Leitsystemen für Flugkörper. Die Bodenseeregion ist ebenfalls zentral für die Produktion von Verteidigungsgerät. Energie Das Kernkraftwerk Neckarwestheim wurde im April 2023 als eines der drei letzten in Deutschland, das Kernkraftwerk Philippsburg 2019 und das Kernkraftwerk Obrigheim 2005 stillgelegt. 2011 waren bereits die jeweils ältesten Blöcke der Kernkraftwerke Neckarwestheim und Philippsburg abgeschaltet worden. Die Flüsse des Landes weisen zahlreiche Laufwasserkraftwerke auf. Mitte der 1970er-Jahre wurde das Rheinkraftwerk Iffezheim gebaut. Es wurde 2013 erweitert und ist seitdem mit 148 MW das größte dieser Art in Deutschland. Mit Stand Ende 2015 waren in Baden-Württemberg 515 Windkraftanlagen mit einer Leistung von insgesamt 880 Megawatt installiert, von denen 186 Megawatt im ersten Halbjahr 2016 errichtet wurden. Die Zahl der Anlagen erhöhte sich bis 2018 auf 720, die Leistung auf 1.534 Megawatt. Allerdings hat Baden-Württemberg weiterhin die niedrigste installierte Windenergieleistung aller deutschen Flächenländer mit Ausnahme des Saarlandes. Mit Stand August 2020 ist der Windpark Harthäuser Wald mit 18 Anlagen und 54,9 Megawatt der größte und leistungsstärkste Windpark des Landes. Medien In Baden-Württemberg produzieren fast 50 Zeitungsverlage täglich mehr als 220 unterschiedliche Tageszeitungen mit einer Auflage von mehr als zwei Millionen Exemplaren. Im Zeitungsbereich gibt es 17 Regionalzeitungen. Die auflagenstärksten (mindestens 80.000 Exemplare) sind die Südwest Presse, die Stuttgarter Nachrichten, die Schwäbische Zeitung, der Mannheimer Morgen, die Badische Zeitung, die Badischen Neuesten Nachrichten, die Rhein-Neckar-Zeitung, die Heilbronner Stimme und die Stuttgarter Zeitung. Die meisten Lokalzeitungen beziehen den Mantel von einer Regionalzeitung. Über 500 Verlage in Baden-Württemberg produzieren jährlich über 10.000 Neuerscheinungen. Viele traditionsreiche Unternehmen wie beispielsweise der Ernst Klett Verlag, die Verlagsgruppe Georg von Holtzbrinck oder die Verlagsgruppe Hüthig Jehle Rehm haben ihren Stammsitz im Land. Weiterhin befindet sich in Offenburg der Sitz der Hubert Burda Media, einer der größten Verlags- und Medienkonzerne Deutschlands, der auch auf dem internationalen Markt von Bedeutung ist. Die wichtigsten wissenschaftlichen Bibliotheken Baden-Württembergs sind die Württembergische Landesbibliothek und die Badische Landesbibliothek. In den 800 öffentlichen Bibliotheken des Landes in kommunaler Trägerschaft werden etwa 16 Millionen Medien verfügbar gehalten. Hinzu kommen mehrere hundert Bibliotheken in kirchlicher Trägerschaft. Der öffentlich-rechtliche Rundfunk wird vom Südwestrundfunk betrieben, der auch Klangkörper unterhält, die zu den führenden in Europa gehören: das SWR Symphonieorchester, das SWR Vokalensemble Stuttgart sowie die SWR Big Band Stuttgart. Im privaten Hörfunk gibt es neben 13 Lokalsendern drei regionale Bereichssender (Radio Regenbogen, Antenne 1, Radio 7) und einen überregionalen Sender vorwiegend für junge Menschen (bigFM). Zwölf nichtkommerzielle private Hörfunkveranstalter, wie beispielsweise Bermudafunk, Querfunk oder radioaktiv, und fünf Lernradios ergänzen das Angebot. Die Sender BWeins, HD Campus TV und Baden TV bieten ein privates Fernsehlandesprogramm. Darüber hinaus gibt es 14 regionale Fernsehsender wie das Rhein-Neckar Fernsehen, Regio TV Schwaben oder RTF.1 Neckar-Alb. Acht private bundesweite Veranstalter senden aus Baden-Württemberg. Tourismus Pro Jahr werden im Fremdenverkehrsgewerbe Baden-Württemberg rund 49 Millionen Übernachtungen gezählt. Das mittelständisch geprägte Tourismusgewerbe trägt rund fünf Prozent zum Bruttoinlandsprodukt bei. Der Tourismus bietet etwa 200.000 Arbeitsplätze sowie 8000 Ausbildungsplätze. Da die Arbeitsplätze standortgebunden sind, gelten sie als relativ sicher. Der Schwarzwald ist die wichtigste Erholungsregion in Baden-Württemberg und das meistbesuchte Urlaubsziel unter den deutschen Mittelgebirgen. Er ist insbesondere für seine romantischen Täler, Schluchten, Mühlen und die typischen Bauernhöfe sowie als Herkunftsort der Kuckucksuhr bekannt. Er ist auch wegen seines guten Wegenetzes mit Fernwanderwegen wie dem Westweg ein beliebtes Wandergebiet. Rund um den Feldberg (1493 m), dem höchsten Berg im Schwarzwald, sowie in vielen anderen Orten des Schwarzwalds hat der Wintersport eine lange Tradition. Der Bodensee mit der Alpenkette im Hintergrund ist ebenfalls ein gut besuchtes Reiseziel und auch Naherholungsziel für die Städter; hier finden sich mit den Pfahlbauten Unteruhldingen und der zum UNESCO-Welterbe zählenden Klosterinsel Reichenau Zeugnisse unterschiedlichster Epochen. Am See haben die Blumeninsel Mainau und die alten Städte Konstanz und Meersburg die höchsten Besucherzahlen. Nicht weit von der Region um den Bodensee liegen das Donautal sowie Oberschwaben mit den alten reichsstädtisch geprägten Kleinstädten Biberach an der Riß und Ravensburg. Die Oberschwäbische Barockstraße führt durch dieses Zentrum des Barocks nördlich der Alpen. Das württembergische Allgäu lockt mit seiner Landschaft und vielen Wandermöglichkeiten, ebenso wie weiter nördlich der Naturpark Schwäbisch-Fränkischer Wald. Die Schwäbische Alb ist für ihre kleinen romantischen Städte (z. B. Bad Urach), die Heidelandschaften, die ausgedehnten Wälder, die Höhlen, Burgen und Schlösser bekannt (Burg Hohenzollern, Schloss Lichtenstein, Schloss Sigmaringen). Baden-Württemberg hat rund 60 Heilbäder und Kurorte, insbesondere im Schwarzwald und in Oberschwaben. Anziehungspunkte für Städtereisende sind auch die Kurstadt Baden-Baden mit ihrer berühmten Spielbank, die von ihrer akademischen Bevölkerung geprägten alten Universitätsstädte Heidelberg (Heidelberger Schloss und Altstadt), Freiburg im Breisgau (Münster und „Bächle“ in der Altstadt) und Tübingen (am Rande des idyllischen Waldes Schönbuch gelegen, auch bekannt für seine Stocherkähne auf dem Neckar), die alten Reichsstädte Esslingen am Neckar, Reutlingen und Ulm und die zentral gelegene Landeshauptstadt Stuttgart mit dem zoologisch-botanischen Garten Wilhelma, der Staatsgalerie und den Automobilmuseen (Mercedes-Benz, Porsche). Neben der Wilhelma gibt es weitere Botanische Gärten in Freiburg, Heidelberg, Hohenheim, Karlsruhe, Konstanz, Tübingen, und in Ulm, der Stadt mit dem höchsten Kirchturm der Welt. Der Europa-Park im südbadischen Rust ist Deutschlands größter Freizeitpark mit über fünf Millionen Besuchern im Jahr. Auch der Erlebnispark Tripsdrill bei Cleebronn, der erste Freizeitpark in Deutschland, ist sehr bekannt. Beliebt sind auch die badische und die schwäbische Gastronomie sowie die badischen und württembergischen Weine. Im Schwarzwaldort Baiersbronn befinden sich mit der Schwarzwaldstube und dem Restaurant Bareiss zwei Restaurants, die vom Guide Michelin mit drei Sternen ausgezeichnet sind. Insgesamt befinden sich 74 Sternelokale in Baden-Württemberg. Verkehr Straßenverkehr Die wichtigsten Autobahnen sind in Süd-Nord-Richtung die A 5 (von Basel über Karlsruhe bis Weinheim und weiter Richtung Frankfurt am Main) und die A 81 (von Singen am Hohentwiel über Stuttgart nach Würzburg). Weiter östlich stellt die A 7, die allerdings nur auf einem kurzen Abschnitt zwischen Ulm und Ellwangen durch baden-württembergisches Gebiet verläuft, eine weitere Süd-Nord-Verbindung dar. In West-Ost-Richtung haben die A 6 (von Saarbrücken kommend über Mannheim und Heilbronn nach Crailsheim und weiter Richtung Nürnberg) und die A 8 (von Karlsruhe über Stuttgart nach Ulm und weiter Richtung München) die größte Bedeutung. Besondere straßenbauliche Herausforderung war und ist der Albaufstieg, der auf 16 km Länge rund 380 m Höhendifferenz vom Albvorland bis zur Albhochfläche überwindet. Beide West-Ost-Autobahnen liegen weitgehend in der nördlichen Hälfte des Landes, in der bergigen Südhälfte fehlt eine durchgehende West-Ost-Autobahn. Der Verkehr in diesen Richtungen wird hier durch Bundesstraßen aufgenommen, wie z. B. durch die B 31, welche durch den Südschwarzwald sowie am nördlichen Bodenseeufer entlangführt und dabei die Autobahnen 5, 81 und 96 miteinander verbindet. Letztere erschließt den äußersten Südosten des Landes. Lediglich am Rande des Hochrheins entsteht derzeit nach und nach eine neue Autobahn, die A 98, von der es bereits einige Teilstücke gibt. Gerade die Autobahnen um die Großstädte Baden-Württembergs werden vor allem während der Stoßzeiten von sehr starkem Verkehr belastet. Staus von über 25 Kilometern Länge sind auch außerhalb von Urlaubszeiten keine Seltenheit. Die meistbefahrene Kreuzung Baden-Württembergs ist die als Echterdinger Ei bekannte Anschlussstelle Stuttgart-Degerloch, welche die Kreuzung der A 8 mit der autobahnähnlich ausgebauten B 27 bildet. Es liegt einige Kilometer östlich des Autobahnkreuzes Stuttgart und wird jeden Tag von 170.000 bis 180.000 Fahrzeugen befahren. Die Länge der Autobahnen im Land beträgt 1039 km, die Länge der Bundesstraßen 4410 Kilometer. Die Landesstraßen sind 9893 Kilometer lang, die Kreisstraßen 12.074 Kilometer. (Stand 2007) Schienenverkehr Das Schienennetz der DB Netz AG im Land umfasst 3400 Kilometer Strecke, auf denen 6400 Kilometer Gleise verlegt und 9500 Weichen eingebaut sind. Rund 1400 Bahnübergänge sind vorhanden. Auf diesem Netz finden täglich 6500 Zugfahrten statt, die dabei 310.000 Kilometer zurücklegen. Weitere Strecken werden von anderen Eisenbahninfrastrukturunternehmen betrieben; die bedeutendsten sind die Württembergische Eisenbahn-Gesellschaft, die SWEG Südwestdeutsche Landesverkehrs-GmbH, die seit 2018 zur SWEG gehörende Hohenzollerische Landesbahn und die Karlsruher Albtal-Verkehrs-Gesellschaft. Die Nahverkehrsgesellschaft Baden-Württemberg bestellt im Auftrag des Landes den Schienenpersonennahverkehr in Baden-Württemberg. Das Karlsruher Modell als Innovation verbindet technologisch die Systeme Eisenbahn und Straßenbahn und wird an vielen Stellen weltweit nachgeahmt. Das Land Baden-Württemberg fördert die Realisierung von Schienenwegeprojekten, die in den Zuständigkeitsbereich des Bundes fallen. Bis 2017 wurden Förderungen in Höhe von 2,4 Milliarden Euro erteilt, was mehr als der Summe der Förderungen aller übrigen Bundesländer entsprach. Zu den geförderten Vorhaben zählten Stuttgart 21, die Neubaustrecke Wendlingen–Ulm, die Ausbau- und Neubaustrecke Karlsruhe–Basel sowie die Südbahn. Schifffahrt Der Rhein hat bis Basel und der Neckar bis Plochingen den Status von Bundeswasserstraßen. Am Zusammenfluss in Mannheim liegt der Hafen Mannheim, einer der bedeutendsten Binnenhäfen Europas. Weitere große Häfen sind die Rheinhäfen Karlsruhe mit dem größten Ölbinnenhafen Europas, der Hafen Heilbronn und der Hafen in Kehl. Auf den Flüssen wird auch Fahrgastschifffahrt im Ausflugs- und Freizeitverkehr betrieben. Auf dem Bodensee verkehren die Autofähren, Personenschiffe und Ausflugsboote der Weißen Flotte. Luftverkehr Baden-Württemberg verfügt über vier Verkehrsflughäfen. Der internationale Flughafen Stuttgart ist der sechstgrößte Deutschlands. Der Flughafen Karlsruhe/Baden-Baden bei Rastatt erfuhr einen Aufschwung durch die Angebote von Billigfluglinien und ist der zweitgrößte im Bundesland. Ein weiterer Regionalflughafen befindet sich in Friedrichshafen. Die Regionen Oberrhein und Hochrhein-Bodensee profitieren zudem von den grenznahen Flughäfen Flughafen Basel-Mülhausen, Flughafen Straßburg und Flughafen Zürich. Der Flughafen Lahr ist ein Frachtflughafen; im Personenluftverkehr hat er zudem die Lizenz als Zubringerflughafen für den Europapark Rust. Mannheim besitzt mit dem Flugplatz Mannheim City einen bedeutenden Verkehrslandeplatz. Kultur Mit der Klosterinsel Reichenau im Bodensee, der Zisterzienserabtei Kloster Maulbronn und den Höhlen der ältesten Eiszeitkunst liegen drei Stätten des UNESCO-Welterbes vollständig in Baden-Württemberg. An vier weiteren Welterbestätten hat das Land Anteil: An den Prähistorischen Pfahlbauten um die Alpen mit Fundstätten überwiegend um Bodensee und Federsee; am Obergermanisch-Raetischen Limes im Norden und Osten des Landes; zwei Häuser in der Stuttgarter Weißenhofsiedlung wurden 2016 als Teil des architektonischen Werks von Le Corbusier in die Welterbeliste aufgenommen; Baden-Baden erhielt den Welterbe-Status 2021 als eine der bedeutenden Kurstädte Europas. In der Badischen Landesbibliothek in Karlsruhe wird die Ausgabe C des Nibelungenlieds aufbewahrt. Die drei vollständigen Handschriften aus dem 13. Jahrhundert wurden gemeinsam im Juli 2009 zum UNESCO-Weltdokumentenerbe ernannt. Der Barbarastollen ist ein stillgelegter Versorgungsstollen bei Oberried in der Nähe von Freiburg im Breisgau. Als einziges Objekt in Deutschland unterliegt der Barbarastollen dem Sonderschutz nach den Regeln der Haager Konvention zum Schutz von Kulturgut bei bewaffneten Konflikten. Er dient seit 1975 als Zentraler Bergungsort der Bundesrepublik Deutschland zur Lagerung von fotografisch archivierten Dokumenten mit hoher national- oder kulturhistorischer Bedeutung. In Europa ist er das größte Archiv zur Langzeitarchivierung. Seit 1978 ist der Bergungsort auch in das Internationale Register der Objekte unter Sonderschutz bei der UNESCO in Paris eingetragen. Im Creative Cities Network der UNESCO sind die Städte Heidelberg (UNESCO City of Literature), Karlsruhe (UNESCO City of Media Arts) und Mannheim (UNESCO City of Music) vertreten. Im Süden und entlang des Rheins wird die schwäbisch-alemannische Fastnacht gefeiert. Das Cannstatter Volksfest wird nach dem Münchner Oktoberfest als zweitgrößtes Volksfest der Welt bezeichnet. Seit 1978 werden im Land die Heimattage Baden-Württemberg veranstaltet. Religionen und Weltanschauungen Während 2001 noch 74 Prozent einer der beiden großen Konfessionen angehörten, waren es 2019 noch 60 Prozent und 2022 nur noch 57 Prozent. Wie überall in Deutschland steigt die Zahl von Menschen, die keiner oder anderen Religionen (z. B. Islam) zugehörig sind. Für Baden-Württemberg wurden folgende Mitgliederzahlen der Religionsgemeinschaften veröffentlicht: Unabhängig von der Kirchensteuer zahlt Baden-Württemberg jährlich über 130 Millionen Euro an Staatsleistungen an die römisch-katholische und die evangelische Kirche. Siehe auch: Erzbistum Freiburg, Bistum Mainz und Diözese Rottenburg-Stuttgart, Evangelische Landeskirche in Baden und in Württemberg, Neuapostolische Kirche Süddeutschland, Alt-Katholische Kirche in Deutschland #Verbreitung nach Bundesländern Sprachen und Dialekte Amts- und Verkehrssprache ist Deutsch. Zahlreiche weitere Sprachen und Dialekte werden von jenen gesprochen, die aus anderen Sprach- oder Mundartregionen kommen oder einen entsprechenden Migrationshintergrund haben. Die angestammten Dialekte werden von Sprachwissenschaftlern in oberdeutsche und mitteldeutsche Mundarten gruppiert: Mitteldeutsch: Um Mannheim und Heidelberg wird Rheinfränkisch (stellenweise auch Kurpfälzisch oder Pfälzisch genannt) gesprochen Oberdeutsch: Etwa in den südlichen zwei Dritteln werden verschiedene Färbungen des Schwäbischen (vor allem in Württemberg) sowie des Nieder-, Mittel- und Hochalemannischen (vor allem in Baden) gesprochen. Um Karlsruhe und Heilbronn wird Südfränkisch gesprochen, im Osten des nördlichen Drittels Baden-Württembergs Ostfränkisch. Zwischen den Mundarträumen bestehen Übergangsgebiete, die sich keinem der Räume eindeutig zuordnen lassen. Es existieren vor allem südfränkisch-schwäbische (unter anderem um Calw, um Pforzheim, Zabergäu), südfränkisch-niederalemannische (um Baden-Baden und Rastatt) und schwäbisch-niederalemannische (Oberschwaben) Übergangsgebiete. Vor allem in diesen Gegenden wird die Unschärfe der germanischen Dialektgliederung deutlich. Neuere Entwicklungen sind das Eindringen schwäbischer Dialektmerkmale nach Heilbronn und Schwäbisch Hall. Das Land wird auch außerhalb der Landesgrenze mit (vor allem schwäbischen) Dialektsprechern assoziiert, so etwa bei der klischeehaften Identifizierung von Schwaben in Berlin. Die Landesregierung unter Erwin Teufel griff dies 1999 auf, indem sie den Werbespruch „Wir können alles. Außer Hochdeutsch.“ prägte. Bekannte Mundartkünstler sind z. B. die Dichter bzw. Schriftsteller Thaddäus Troll und Harald Hurst, der Volksschauspieler und Komiker Willy Reichert, der Schauspieler Walter Schultheiß und der Kabarettist Christoph Sonntag. Es gibt Fernsehsendungen im Dialekt wie z. B. Hannes und der Bürgermeister. Auch der Kinofilm bzw. die Fernsehserie Die Kirche bleibt im Dorf wurden in Mundart verfilmt. Eine Verschriftlichung der Mundart wie in Luxemburg steht hingegen nicht zur Debatte. Im Juli 2023 gründete sich der Dachverband der Dialekte Baden-Württemberg (DDDBW). Dieser wird – bisher einmalig in Deutschland – auf Initiative einer über 50 Landtagsabgeordneten umfassenden Parlamentariergruppe vom Land Baden-Württemberg institutionell unterstützt. Sport Als Dachorganisationen für den Sport in Baden-Württemberg gibt es die drei Landessportbünde Württembergischer Landessportbund (WLSB), Badischer Sportbund Freiburg (BSB) und Badischer Sportbund Nord (BSB Nord). Übergeordneter Verband ist der Landessportverband Baden-Württemberg (LSV), der auch Mitglied im Deutschen Olympischen Sportbund ist. Fußball Stuttgart war Spielort der Fußball-Weltmeisterschaften 1974 und 2006. In der Fußball-Bundesliga spielen mit dem fünfmaligen deutschen Meister und dreifachen Pokalsieger VfB Stuttgart, dem SC Freiburg, dem 1. FC Heidenheim und der TSG 1899 Hoffenheim in der Saison 2023/24 vier Vereine aus Baden-Württemberg. In der 2. Bundesliga spielt der Karlsruher SC. In der 3. Liga sind der SV Waldhof Mannheim, der SV Sandhausen, der SSV Ulm 1846 und die 2. Mannschaft des SC Freiburg aktiv. Der ehemalige Bundesligist Stuttgarter Kickers spielt derzeit in der viertklassigen Regionalliga Südwest. Aus dem heutigen Baden-Württemberg kommen auch die ehemaligen Deutschen Meister Freiburger FC (1907), FC Phönix Karlsruhe (1909), Karlsruher FV (1910) und VfR Mannheim (1949). In der Frauen-Bundesliga spielen der SC Freiburg und die TSG 1899 Hoffenheim. Ehemalige Bundesligisten sind: SC Sand, VfL Sindelfingen, TSV Crailsheim, SC Klinge Seckach, TSV Ludwigsburg, TuS Binzen und VfL Ulm/Neu-Ulm. Der baden-württembergische Fußball wird von drei regionalen Landesverbänden organisiert: Badischer Fußballverband (BFV), Südbadischer Fußball-Verband (SBFV) und Württembergischer Fußball-Verband (WFV). Handball Frisch Auf Göppingen gewann 1960 und 1962 den Europapokal der Landesmeister, zwischen 1954 und 1972 neun Mal die Deutsche Meisterschaft und in den 2010er Jahren viermal den EHF-Pokal. Die Rhein-Neckar Löwen wurden 2016 und 2017 Deutscher Meister und 2018 Pokalsieger. In der Handball-Bundesliga der Männer spielen 2023/24 außerdem der TVB 1898 Stuttgart und HBW Balingen-Weilstetten. In der Frauen-Bundesliga sind mit der SG BBM Bietigheim (Deutscher Meister 2017, 2019, 2022 und 2023, Vizemeister 2018 und 2020), dem TuS Metzingen (Vizemeister 2016) und der Sport-Union Neckarsulm drei Teams vertreten. Basketball In der Basketball-Bundesliga sind 2023/24 die MHP Riesen Ludwigsburg, Ratiopharm Ulm, die Crailsheim Merlins, die MLP Academics Heidelberg und die Tigers Tübingen beheimatet. In der ProA (zweite Basketball-Bundesliga) spielen die Kirchheim Knights und die PS Karlsruhe Lions. Volleyball Die Männer-Mannschaft des VfB Friedrichshafen gewann 2007 die Volleyball Champions League und wurde 13-mal Deutscher Meister und 17-mal Pokalsieger. Die Frauen-Mannschaft von Allianz MTV Stuttgart wurde 2019 und 2022 Deutscher Meister sowie von 2015 bis 2018 und 2021 Vizemeister. Zudem gewann sie viermal den DVV-Pokal. CJD Feuerbach gewann von 1989 bis 1991 die Deutsche Meisterschaft der Frauen und wurde viermal Pokalsieger. Eishockey In der Deutschen Eishockey Liga spielen 2023/24 der achtfache deutsche Meister Adler Mannheim und die Schwenninger Wild Wings. In der DEL2 sind die Ravensburg Towerstars, die Bietigheim Steelers sowie der EHC Freiburg vertreten. Wintersport Internationale Skisprung-Wettbewerbe werden auf der Hochfirstschanze in Titisee-Neustadt und im Adler-Skistadion in Hinterzarten veranstaltet. Eine traditionsreiche Veranstaltung in der Nordischen Kombination ist der Schwarzwaldpokal in Schonach. Aus dem Schwarzwald stammen Olympiasieger und Weltmeister in nordischen Disziplinen wie Georg Thoma, Dieter Thoma und Martin Schmitt. Alpine Skiwettbewerbe finden im Feldberg-Gebiet bei Todtnau-Fahl statt, in der Heimat des ältesten deutschen Skiclubs, des Skiclub Todtnau 1891 e. V. Tennis In Stuttgart finden zwei international bedeutende Tennisturniere statt: Der MercedesCup der Männer auf der Anlage des TC Weissenhof ist Teil der ATP Tour 250. Der Porsche Tennis Grand Prix der Frauen in der Porsche-Arena gehört zur WTA Tour. Das Männerteam des TK Grün-Weiss Mannheim spielt in der 1. Bundesliga. Das Frauenteam des TEC Waldau Stuttgart wurde 2005 Sieger der Bundesliga, das des TC Weissenhof zwischen 1975 und 1989 vier Mal Deutscher Mannschaftsmeister. Der TC Rüppurr aus Karlsruhe gehörte lange der 1. Herren- und aktuell der 1. Damen-Bundesliga an. Aus dem nordbadischen Landesteil stammen die ehemaligen Weltranglistenersten Steffi Graf und Boris Becker. Leichtathletik Stuttgart war Austragungsort der Leichtathletik-Europameisterschaften 1986 und -Weltmeisterschaften 1993. Von 2006 bis 2008 fand hier das Leichtathletik-Weltfinale statt. Danach wurde das ehemalige Neckarstadion in ein reines Fußballstadion umgebaut. Das Internationale Hochsprung-Meeting Eberstadt wurde von 1979 bis 2018 jährlich ausgetragen. Motorsport Der Hockenheimring zählt zu den bedeutendsten Motorsport-Rennstrecken in Deutschland. Er gehörte bis 2019 zu den Austragungsorten für den Großen Preis von Deutschland in der Formel 1 und ist Schauplatz des Eröffnungsrennens sowie des Finales der DTM. In Holzgerlingen, Gaildorf und Reutlingen fanden Läufe zur Motocross-Weltmeisterschaft statt. In Rudersberg werden WM-Läufe mit Seitenwagen veranstaltet. In Berghaupten und Hertingen fanden Läufe zur Langbahn-Welt- und Europameisterschaft statt. Weitere Sportarten Erfolgreichster Hockeyverein ist der HTC Stuttgarter Kickers, welcher 2005 die deutsche Meisterschaft und 2006 den Europapokal der Landesmeister gewann. Aktuell spielt der Mannheimer HC sowohl bei den Damen als auch bei den Herren in der Feldhockey-Bundesliga, außerdem der TSV Mannheim bei den Damen. In der Deutschen Wasserball-Liga sind der der SV Cannstatt (Deutscher Meister 2006), der SSV Esslingen und der SV Ludwigsburg 08. Die Frauen der TSG Backnang 1920 Schwerathletik wurden 2017 und 2018 Deutscher Judo-Mannschaftsmeister. Bei den Männern belegte der KSV Esslingen seit 2011 sechsmal den zweiten Platz. In der Baseball-Bundesliga Süd spielen der deutsche Rekordmeister Mannheim Tornados, der vierfache Deutsche Meister Heidenheim Heideköpfe und die Stuttgart Reds. Im American Football gewannen die Schwäbisch Hall Unicorns 2011, 2012, 2017, 2018 und 2022 den German Bowl. Außerdem spielen in der German Football League die Ravensburg Razorbacks. Die Stuttgart Surge spielen in der europäischen Footballliga European League of Football (ELF) Heidelberg ist neben Hannover das Zentrum des Rugbysports in Deutschland. Die dortigen Vereine Heidelberger RK, RG Heidelberg und SC Neuenheim holten in der Bundesliga insgesamt 18 deutsche Meisterschaften. Im Schach gewann die OSG Baden-Baden von 2006 bis 2023 – in jeder Saison außer 2015/16 – 16-mal die deutsche Meisterschaft. In der Bundesliga ist Baden-Württemberg 2023/24 außerdem mit den SF Deizisau und dem SC Ötigheim vertreten. Pferderennen werden seit 1858 auf dem Rennplatz Iffezheim bei Baden-Baden ausgetragen. Bildung Schulen In Baden wurde mit dem Mannheimer Schulsystem der Vorläufer des modernen Schulsystems entwickelt. Heute folgt in Baden-Württemberg nach der vierjährigen Grundschule ein vielgliedriges Schulsystem mit Hauptschule und Werkrealschule, Realschule, Gymnasium und Gemeinschaftsschule. Schüler mit und ohne Behinderung werden gemeinsam erzogen und unterrichtet (inklusive Pädagogik). Die sonderpädagogische Beratung, Unterstützung und Bildung findet in den allgemeinen Schulen statt, soweit Schüler mit Anspruch auf ein entsprechendes Bildungsangebot kein sonderpädagogisches Bildungs- und Beratungszentrum besuchen. In ganz Baden-Württemberg gibt es lediglich drei integrierte Gesamtschulen in Freiburg, Heidelberg und Mannheim, die als Schulen besonderer Art im Schulgesetz für Baden-Württemberg eine Sondergenehmigung erhalten haben. Des Weiteren führt Baden-Württemberg als einziges Land in Deutschland die besondere Form des „sechsjährigen Wirtschaftsgymnasiums“, welches das bundesweit einzige berufliche Gymnasium ist, das bereits mit der gymnasialen Mittelstufe beginnt. Der Besuch beginnt in der achten Klassenstufe und endet in Jahrgangsstufe 13 mit der allgemeinen Hochschulreife. Nach dem Regierungswechsel 2011 führte die Landesregierung (Kabinett Kretschmann I) als neue Schulform in Baden-Württemberg die Gemeinschaftsschule ein, die meist aus ehemaligen Hauptschulen (bzw. Werkrealschulen), vereinzelt auch aus Realschulen gebildet wurden. Zum Schuljahr 2013/14 gab es 129 Gemeinschaftsschulen im Land, weitere 81 folgen 2014. Hochschulen Baden-Württemberg verfolgt eine dezentrale Bildungs-, Hochschul- und Forschungsinfrastruktur. Die Hochschulen sind über das ganze Land verteilt. Insgesamt liegen über ein Viertel aller Hochschulstandorte im ländlichen Raum. In Baden-Württemberg gibt es neun staatliche Universitäten, sechs pädagogische Hochschulen (Universitäten gleichgestellt) sowie die private Zeppelin-Universität und 73 staatliche und private Hochschulen. Die baden-württembergischen Hochschulen gehören zu den renommiertesten in Deutschland. In einer Hochschulplatzierung des Magazins Focus (2005) wurden sechs baden-württembergische Universitäten unter die besten zehn eingestuft. In Heidelberg befindet sich die älteste Universität in Deutschland; außerdem gibt es noch Universitäten in Freiburg, Konstanz, Mannheim, Stuttgart, Tübingen, Stuttgart-Hohenheim, Ulm, in Nachfolge der Universität Karlsruhe das Karlsruher Institut für Technologie sowie die private Zeppelin-Universität in Friedrichshafen. 2006 wurde die ehemalige Universität Karlsruhe bei der Exzellenzinitiative des Bundes und der Länder als eine von bundesweit drei zu fördernden Universitäten mit „Zukunftskonzepten“ ausgewählt. In der zweiten Runde der Exzellenzinitiative folgten 2007 die Universitäten Heidelberg, Konstanz und Freiburg als zu fördernde Hochschulen nach, sodass zeitweise vier von insgesamt neun der durch die Exzellenzinitiative in allen drei Förderlinien geförderten deutschen Universitäten in Baden-Württemberg lagen. Im Zuge der dritten Runde der Exzellenzinitiative im Jahr 2012 verloren das Karlsruher Institut für Technologie und die Universität Freiburg diesen Status, während die Universität Tübingen erstmals diese Auszeichnung erlangte. Im Jahr 2019 konnten vier baden-württembergische Universitäten im Rahmen der Exzellenzstrategie des Bundes und der Länder den Titel „Exzellenzuniversität“ erringen (welcher insgesamt elf Mal vergeben wurde) und somit deutlich mehr als in jedem anderen Bundesland. Bei den ausgezeichneten Universitäten handelt es sich um die Universität Heidelberg, das Karlsruher Institut für Technologie, die Universität Konstanz und die Universität Tübingen. Zwei weitere – die Universitäten in Freiburg und Stuttgart – erreichten darüber hinaus das Finale der Exzellenzstrategie. Die staatlichen Fachhochschulen tragen in Baden-Württemberg seit 2006 den Titel Hochschule. Seit 2022 gehören diese Hochschulen dem Promotionsverband der Hochschulen für angewandte Wissenschaften Baden-Württemberg an, der das Promotionsrecht besitzt. Neben einer Vielzahl von weiteren Hochschulen, wie Kunst- und Musikhochschulen oder pädagogischen Hochschulen wird der tertiäre Bildungsbereich durch die Duale Hochschule Baden-Württemberg ergänzt. Bundesweit einzigartig ist die Popakademie Baden-Württemberg. In Ludwigsburg befindet sich die renommierte Filmakademie Baden-Württemberg. Siehe auch Literatur Das Land Baden-Württemberg. Amtliche Beschreibung nach Kreisen und Gemeinden. Hrsg. von der Landesarchivdirektion Baden-Württemberg. 8 Bände. Kohlhammer, Stuttgart 1974–1983. Christoph Borcherdt (Hrsg.): Geographische Landeskunde von Baden-Württemberg. (= Schriften zur politischen Landeskunde Baden-Württembergs. Band 8). 3. Auflage. Kohlhammer, Stuttgart 1993, ISBN 3-17-008150-0. Otto Borst: Geschichte Baden-Württembergs. Ein Lesebuch. Konrad Theiss Verlag, Stuttgart 2004, ISBN 3-8062-1730-0. Hans Gebhardt (Hrsg.): Geographie Baden-Württembergs. Raum, Entwicklung, Regionen. (= Schriften zur politischen Landeskunde Baden-Württembergs. Band 36). Kohlhammer, Stuttgart 2008, ISBN 978-3-17-019427-4. Erwin Keefer/Württembergische Landesmuseum Stuttgart: Steinzeit. Konrad Theiss Verlag, Stuttgart 1993, ISBN 3-8062-1106-X. Siegfried Kullen: Baden-Württemberg. 3. Auflage. Klett, Stuttgart 1989, ISBN 3-12-928805-8. Reinhold Weber, Iris Häuser: Baden-Württemberg. Eine kleine politische Landeskunde. 6. Auflage. Landeszentrale für politische Bildung Baden-Württemberg, Stuttgart 2008. Reinhold Weber, Hans-Georg Wehling: Geschichte Baden-Württembergs. (= Beck’sche Reihe. 2601). Beck, München 2007, ISBN 978-3-406-55874-0. Reinhold Weber, Hans-Georg Wehling (Hrsg.): Baden-Württemberg. Gesellschaft, Geschichte, Politik. (= Schriften zur politischen Landeskunde Baden-Württembergs. Band 34). Kohlhammer, Stuttgart 2006, ISBN 3-17-018837-2. Landesbibliographie Baden-Württemberg (ab 1983) Hermann Bausinger: Der herbe Charme des Landes. Gedanken über Baden-Württemberg. 4. Auflage. Klöpfer & Meyer, Tübingen 2011, ISBN 978-3-940086-98-3. Dokumentarfilme Weblinks Webpräsenz des Landes Baden-Württemberg Landeskunde Baden-Württemberg von der Landeszentrale für politische Bildung Baden-Württemberg LEO-BW – Landeskunde Baden-Württemberg vom Landesarchiv Baden-Württemberg Landesbibliographie Baden-Württemberg von der Württembergischen Landesbibliothek Statistisches Landesamt Baden-Württemberg – mit ausführlichen Landes- und Regionaldaten zu vielen Themen Offene Geobasisdaten des Landesamtes für Geoinformation und Landentwicklung Land Baden-Württemberg beim deutschen sozialen Netzwerk Stage Einzelnachweise Bundesland (Deutschland) Gegründet 1952
478
https://de.wikipedia.org/wiki/Betriebssystem
Betriebssystem
Ein Betriebssystem, auch OS (von ) genannt, ist eine Zusammenstellung von Computerprogrammen, die die Systemressourcen eines Computers wie Arbeitsspeicher, Festplatten, Ein- und Ausgabegeräte verwaltet und diese Anwendungsprogrammen zur Verfügung stellt. Das Betriebssystem bildet dadurch die Schnittstelle zwischen den Hardware-Komponenten und der Anwendungssoftware des Benutzers. Betriebssysteme bestehen in der Regel aus einem Kernel (deutsch: Kern), der die Hardware des Computers verwaltet, sowie speziellen Programmen, die beim Start unterschiedliche Aufgaben übernehmen. Zu diesen Aufgaben gehört unter anderem das Laden von Gerätetreibern. Betriebssysteme finden sich in fast allen Arten von Computern: Als Echtzeitbetriebssysteme auf Prozessrechnern und eingebetteten Systemen, auf Personal Computern, Tabletcomputern, Smartphones und auf größeren Mehrprozessorsystemen wie z. B. Servern und Großrechnern. Die Aufgaben eines Betriebssystems lassen sich wie folgt zusammenfassen: Benutzerkommunikation; Laden, Ausführen, Unterbrechen und Beenden von Programmen; Verwaltung und Zuteilung der Prozessorzeit; Verwaltung des internen Speicherplatzes für Anwendungen; Verwaltung und Betrieb der angeschlossenen Geräte; Schutzfunktionen z. B. durch Zugriffsbeschränkungen. Die Gewichtung zwischen diesen Aufgaben wandelte sich im Laufe der Zeit, insbesondere wird Schutzfunktionen wie dem Speicherschutz oder begrenzten Benutzerrechten heute eine höhere Bedeutung zugemessen als noch in den 1990er Jahren. Dies macht Systeme allgemein robuster, reduziert z. B. die Zahl der Programm- und Systemabstürze und macht das System auch stabiler gegen Angriffe von außen, etwa durch Computerviren. Dieser Artikel behandelt den Begriff „Betriebssystem“ hauptsächlich im Kontext „allgemein zur Informationsverarbeitung verwendete Computersysteme“. Daneben sind Betriebssysteme (mit ggf. spezialisierter Funktionalität) grundsätzlich in nahezu allen Geräten im Einsatz, in denen Software betrieben wird (wie Spielecomputer, Mobiltelefone, Navigationssysteme, Maschinen der Maschinenbaubranchen u. v. a.). Auch viele Steuerungssysteme (eingebettetes System) die z. B. in Flugzeugen, Autos, Zügen, oder in Satelliten zu finden sind, besitzen spezialisierte Betriebssysteme. Definitionen und Abgrenzung Ein Betriebssystem übernimmt zwei wesentliche Aufgaben, die im Grunde in keinem direkten Zusammenhang zueinander stehen: Die eine Aufgabe besteht darin, dem Anwendungsprogrammierer saubere Abstraktionen der Betriebsmittel zur Verfügung zu stellen (anstelle der unschönen Hardware). Das Betriebssystem bietet somit eine leichter verständliche und besser handhabbare Schnittstelle zur eigentlichen Maschine an und „versteckt“ die Komplexität der darunterliegenden Maschine: „Der Ansprechpartner für den Programmierer ist also nicht mehr die wirkliche Maschine, sondern eine virtuelle Maschine (Betriebssystem), welche wesentlich einfacher zu verstehen und zu programmieren ist.“ Das Betriebssystem erzeugt abstrakte Objekte, um die Komplexität beherrschbar zu machen. Ein Beispiel für eine solche Abstraktion ist die Datei. Diese kann beispielsweise in Form eines Digitalfotos, einer gespeicherten E-Mail-Nachricht oder einer Website vorliegen. Es ist auf jeden Fall einfacher, sich damit zu beschäftigen, als mit den Details von Festplattenspeichern. Die andere Aufgabe besteht darin, die Hardwareressourcen zu verwalten: „Ein Betriebssystem muss eine geordnete und kontrollierte Zuteilung von Prozessoren, Speichereinheiten und Peripheriegeräten unter den verschiedenen Programmen, welche darum konkurrieren, sicherstellen.“ Das Betriebssystem ordnet und kontrolliert die Allokation der Prozessoren, Speicher und Ein-/Ausgabegeräte und überwacht, welches Programm gerade welches Betriebsmittel nutzt. Liegen beispielsweise mehrere Aufträge für einen Drucker vor, so muss festgelegt werden, wie diese abgearbeitet werden. Auf einem modernen Betriebssystem können dadurch auch mehrere Programme gleichzeitig ausgeführt werden. Benutzen mehrere Anwender einen Computer oder ein Netzwerk, dann gewinnen Maßnahmen zur Verwaltung und zum Schutz von Speicher, Ein-/Ausgabegeräten und anderen Betriebsmitteln noch an Bedeutung. Die Benutzer würden sich sonst gegenseitig stören. Die Gesamtheit aller Programme und Dateien, die sämtliche Abläufe bei Betrieb eines Rechners steuern, wird Systemsoftware genannt. Dazu gehören Betriebssysteme, aber auch systemnahe Software wie Compiler, Interpreter und Editoren. Anwendungssoftware wie beispielsweise Browser oder Buchhaltungssoftware benutzen die Systemsoftware für einen ordnungsgemäßen Ablauf. In der Literatur wird der Begriff „Betriebssystem“ innerhalb der Systemsoftware unterschiedlich breit interpretiert. In der DIN-Sammlung 44300 (veraltet, ersetzt durch ISO/IEC 2382:2015 siehe: Liste der DIN-Normen/DIN 1–49999 unter DIN 44300) geht die Definition von seiner Aufgabe und Stellung in einer Programmhierarchie aus: Für Andrew S. Tanenbaum beschränkt sich der Begriff Betriebssystem im Wesentlichen auf den Kernel: „Editoren, Compiler, Assembler, Binder und Kommandointerpreter sind definitiv nicht Teil des Betriebssystems, auch wenn sie bedeutsam und nützlich sind.“ Viele Lehrbücher folgen dieser engeren Sichtweise. Andere Autoren zählen unter anderem auch eine Kommandosprache zum Betriebssystem: „Außer die Hardware zu verwalten […], bieten moderne Betriebssysteme zahlreiche Dienste an, etwa zur Verständigung der Prozesse untereinander, Datei- und Verzeichnissysteme, Datenübertragung über Netzwerke und eine Befehlssprache.“ Eine noch weitere Fassung des Begriffes, die beispielsweise auch Editoren und Compiler umfasst, geht zum Teil auf ältere Werke des deutschen Sprachraums zurück, lässt sich aber auch in aktueller Literatur noch finden. So zählen die Autoren des Informatik-Dudens auch Übersetzungsprogramme und Dienstprogramme zu den wesentlichen Komponenten eines Betriebssystems. In jüngerer Zeit kann der GNU/Linux-Namensstreit als Beispiel für die Abgrenzungsprobleme angesehen werden. Der Begriff des Betriebssystems ist in Artikel 3 der Richtlinie (EU) 2019/882 legal definiert. Ungeachtet dessen, wie weit oder wie eng man den Begriff „Betriebssystem“ fasst, enthalten die Installationsmedien für Betriebssysteme für gewöhnlich zusätzliche Dienst- und Anwendungsprogramme. Entwicklungsstufen Die Entwicklung von Computer-Betriebssystemen verlief und verläuft parallel zur Entwicklung und Leistungsfähigkeit verfügbarer Hardware: Beide Linien bedingten sich gegenseitig und ermöglichten bzw. erforderten Weiterentwicklungen auf der ‚anderen‘ Seite. Die Entwicklung verlief zum Teil in kleinen, manchmal in größeren Sprüngen: Lochkarten verarbeitende Systeme (gilt sinngemäß auch für Lochstreifen) gehören mittlerweile (seit Anfang der 1970er Jahre) der Vergangenheit an. Jedoch sind sie ein guter Ansatz zur Betrachtung der Systementwicklung: In diesen räumlich relativ großen Systemen gab es noch keine externen elektronischen Speichermedien. Die Programme lagen (in Maschinensprache) in Form von Lochkartenstapeln vor und wurden durch den Operator über den Lochkartenleser in den internen Speicher ‚eingelesen‘. Nach der „Ende-Karte“ wurde das Anwendungsprogramm gestartet, das seine Eingabedaten je nach Aufgabenstellung ebenfalls über den Kartenleser lesen (deshalb der Begriff Stapelverarbeitung, engl. batch processing, queued systems) und seine Ergebnisse direkt über einen Drucker und/oder über den Kartenstanzer ausgeben musste. Vor- und nachgelagert waren, mithilfe elektro-mechanischer Geräte (Kartenlocher, Mischer, Sortierer) ausgeführt, Erfassungs-, Misch- und Sortiervorgänge erforderlich. Bereits zu diesem Zeitpunkt war die interne Verarbeitung deutlich schneller als die Ein-/Ausgabegeräte; das Lesen eines Lochkartenstapels (Karton mit 2000 Karten) dauerte ca. 5–10 Minuten, die Arbeitsspeichergrößen solcher Rechner lagen bei ca. 16 bis 64 kB (Beispiel siehe System/360). Diese Maschinen besaßen kein konventionelles Betriebssystem, wie es heute geläufig ist. Lediglich ein Kontrollprogramm (resident monitor) wurde im Speicher gehalten und sorgte für den reibungslosen Ablauf, indem es die Kontrolle an die momentan auszuführenden Programme übergab. Der Rechner konnte stets nur ein Programm nach dem anderen ausführen. Eine Weiterentwicklung – Multiprogrammed Batch Systems – konnte zusätzliche Geräte unterstützen (Magnetbandeinheiten, erste Magnetplatten mit z. B. 7,25 MB Speichervolumen), mehrere Programme gleichzeitig ausführen (z. B. in 3 'Partitionen') sowie Programme und Daten auf externen Speichern halten. Eine schnellere Abarbeitung war möglich, da die Zeit für das Lesen und Ausgeben der Kartenstapel entfiel – und die Prozessoren schneller wurden. Hier wurden Mechanismen wie das Spooling (Zwischenausgabe von Druckerdaten auf Magnetband mit verzögertem, parallel möglichem Drucken) und die Möglichkeit des Offline-Betriebs bereits ausgiebig genutzt. Jedoch war ein Programm nötig, welches sich der Aufgaben E/A-Verwaltung, Speicherverwaltung und vor allem CPU-Scheduling etc. annimmt. Ab diesem Zeitpunkt konnte man von ersten Betriebssystemen reden. Die nächsten Schritte waren dann Folgen der jeweiligen Aufgabenbereiche, die den Systemen zukamen. Folgende Systeme sind entstanden und bis zum heutigen Tage im Einsatz: Parallele Systeme, Verteilte Systeme, Personal-Computer-Systeme, Time-Sharing-Systeme, Real-Time-Systeme und in neuester Zeit auch die Personal Digital Assistants und Smartphones. Im PC-Bereich sind derzeit die meistgenutzten Betriebssysteme die verschiedenen Varianten von Windows von Microsoft (führend bei Systemen mit GUI), BSD inkl. macOS von Apple (am weitesten verbreitetes Desktop-Unix) und GNU/Linux (führend bei Servern). Für spezielle Anwendungen (Beispiel: industrielle Steuerung) werden auch experimentelle Betriebssysteme für Forschungs- und Lehrzwecke eingesetzt. Neben den klassischen Varianten gibt es noch spezielle Betriebssysteme für verteilte Systeme, bei denen zwischen dem logischen System und den physischen System(en) unterschieden wird. Der logische Rechner besteht aus mehreren physischen Rechnereinheiten. Viele Großrechner, Number-Cruncher und die Systeme aus dem Hause Cray arbeiten nach diesem Prinzip. Eines der bekanntesten Betriebssysteme im Bereich verteilte Systeme ist Amoeba. Aufgaben Zu den Aufgaben eines Betriebssystems gehören meist: Speicherverwaltung Verwaltung der Systemressource Hauptspeicher. Protokollierung der Speichernutzung. Reservierung und Freigabe von Speicher. (Prozess)-Verwaltung Überwachung der Speicherzugriffe und gegebenenfalls Beenden von Prozessen bei einer Schutzverletzung. Erzeugung neuer Prozesse (entweder auf Anforderung des Betriebssystems oder auf Aufforderung anderer schon existierender Prozesse) und Reservierung des von den Prozessen benötigten Speichers. Kommunikation und Synchronisation von Prozessen untereinander (Interprozesskommunikation) Geräte- und Dateiverwaltung Effiziente Zuweisung von Ein-/Ausgabegeräten und Vermittlungseinheiten (Datenkanäle, Steuereinheiten), Vermeidung von Konflikten Initiierung, Überwachung der Ausführung, Terminierung von Ein-/Ausgabevorgängen. Verwaltung des Dateisystems. Erzeugung eines Namensraums mit zugehörigen Speicherobjekten und gegebenenfalls weiteren Objekten. Rechteverwaltung Voneinander unabhängige Benutzer/Programme dürfen sich gegenseitig nicht stören. Abstraktion Verbergen der Komplexität der Maschine vor dem Anwender Abstraktion des Maschinenbegriffes (nach Coy): Reale Maschine = Zentraleinheit + Geräte (Hardware) Abstrakte Maschine = Reale Maschine + Betriebssystem Benutzermaschine = Abstrakte Maschine + Anwendungsprogramm Als Gerät aus der Sicht eines Betriebssystems bezeichnet man aus historischen Gründen alles, was über Ein-/Ausgabekanäle angesprochen wird. Dies sind nicht nur Geräte im herkömmlichen Sinn, sondern mittlerweile auch interne Erweiterungen wie Grafikkarten, Netzwerkkarten und anderes. Die (Unter-)Programme zur Initialisierung und Ansteuerung dieser „Geräte“ bezeichnet man zusammenfassend als Gerätetreiber. Betriebsmittelverwaltung und Abstraktion Als Betriebsmittel oder Ressourcen bezeichnet man alle von der Hardware eines Computers zur Verfügung gestellten Komponenten, also den Prozessor (bei Mehrprozessorsystemen die Prozessoren), den physischen Speicher und alle Geräte wie Festplatten-, Disketten- und CD-ROM-Laufwerke, Netzwerk- und Schnittstellenadapter und andere. Die Hardware Compatibility List enthält alle Hardware-Produkte, die im Zusammenhang mit einem bestimmten Betriebssystem auf ihre Funktionalität hin getestet wurden. Einführendes Beispiel: Zeitgeberbausteine Moderne Rechnersysteme besitzen Zeitgeberbausteine (Timer). In frühen PCs wurde z. B. der Baustein 8284 des Unternehmens Intel eingesetzt. Dieser Baustein muss zunächst initialisiert werden. Er kann dann nach Ablauf einer Zeitspanne oder periodisch den Prozessor unterbrechen und ihn zur Abarbeitung einer eigenen Routine veranlassen. Neben der Initialisierung ist eine Unterbrechungsroutine zu erstellen, deren Aufruf in einer dafür geeigneten Sprache (meist Assembler) programmiert werden muss. Da Unterbrechungen asynchron auftreten, sind komplexe Verhältnisse hinsichtlich der Datenstrukturen zu berücksichtigen. Genaue Kenntnisse des Bausteins (Datenblatt), der Computerhardware (Unterbrechungsbehandlung) und des Prozessors sind erforderlich. Die einzelnen Komponenten, die an diesem Prozess beteiligt sind, fasst man unter dem Begriff Rechnerarchitektur zusammen. Virtuelle Prozessoren Ein modernes Mehrprogrammbetriebssystem verwendet einen solchen Zeitgeberbaustein, um den normalerweise einzigen Prozessor periodisch (normalerweise im Millisekundenbereich) zu unterbrechen und eventuell mit einem anderen Programm fortzufahren (sogenanntes präemptives Multitasking). Die Initialisierung und die Unterbrechungsroutine werden dabei vom Betriebssystem implementiert. Auch wenn nur ein einzelner Prozessor zur Verfügung steht, können mehrere Programme ausgeführt werden, jedes Programm erhält einen Teil der Prozessorzeit (Scheduling). Jedes Programm verhält sich, bis auf die verlangsamte Ausführungszeit, so, als hätte es einen eigenen virtuellen Prozessor. Virtuelle Zeitgeber Über einen Systemruf, zum Beispiel alarm, wird jedem Programm darüber hinaus ein eigener virtueller Zeitgeber zur Verfügung gestellt. Das Betriebssystem zählt die Unterbrechungen des Original-Zeitgebers und informiert Programme, die den alarm-Systemruf verwendeten. Die einzelnen Zeitpunkte werden über eine Warteschlange verwaltet. Abstraktion Die Hardware des Zeitgebers ist damit vor den Programmen verborgen. Ein System mit Speicherschutz erlaubt den Zugriff auf den Zeitgeberbaustein nur über den Kernel und nur über exakt definierte Schnittstellen (meist Systemrufe genannt, die über spezielle Prozessorbefehle wie TRAP, BRK, INT realisiert werden). Kein Programm kann somit das System gefährden, die Verwendung des virtuellen Zeitgebers ist einfach und portabel. Der Anwender oder Programmierer braucht sich nicht um die (komplexen) Details zu kümmern. Virtualisierung weiterer Betriebsmittel So wie Prozessoren und Zeitgeber virtualisiert werden, ist dies auch für alle anderen Betriebsmittel möglich. Dabei werden einige Abstraktionen teilweise nur als Software implementiert, andere erfordern spezielle Hardware. Dateisysteme Über Dateisysteme werden die Details der externen Speichersysteme (Festplatten-, Disketten- oder CD-ROM-Laufwerke) verborgen. Dateinamen und Verzeichnisse erlauben den bequemen Zugriff, die eigentlich vorhandene Blockstruktur und die Geräteunterschiede sind vollkommen unsichtbar. Interner Speicher Der interne Speicher (RAM) wird auch Arbeitsspeicher genannt und vom Betriebssystem in Blöcke (Kacheln) aufgeteilt, die den geladenen Programmen auf Anforderung zur Verfügung gestellt werden. Meist wird der Speicher initialisiert, das bedeutet, dass dabei allenfalls noch vorhandene Daten zuvor gelöscht werden. Über virtuellen Speicher wird bei vielen Systemen jedem Programm ein kontinuierlicher (zusammenhängender) Bereich zur Verfügung gestellt. Die Virtuelle Speicherverwaltung erlaubt einen flexiblen Ansatz, bei dem der reale physisch vorhandene Speicher weder zusammenhängend sein muss (Segmentierung), noch muss er in Summe real wirklich so groß sein, wie es aus Sicht der Programme scheint. Stattdessen werden einzelne Speicherblöcke, , nach Bedarf zwischen Arbeitsspeicher (RAM) und externem Speicher (z. B. die Auslagerungsdatei) hin und her geschoben (Paging). Netzwerk Die Details der Netzwerkzugriffe werden verborgen, indem auf die eigentliche Hardware (Netzwerkkarte) ein Protokollstapel aufgesetzt wird. Die Netzwerksoftware erlaubt beliebig viele virtuelle Kanäle. Auf der Ebene der Sockets (Programmierung) ist die Netzwerkkarte vollkommen unsichtbar, das Netzwerk hat viele neue Fähigkeiten (bidirektionale, zuverlässige Datenströme, Adressierung, Routing) bekommen. Bildschirm Als Grafische Benutzeroberfläche (GUI, Abk. für engl. Graphical User Interface) wird generell eine Bildschirmausgabe beschrieben, wenn sie über eine Eingabeaufforderung hinausgeht. Mit den richtigen Grafikkarten und Bildschirmen ist die Darstellung von geometrischen Objekten (Linien, Kreisen, Ellipsen, aber auch Schriftattributen und Farben) auf dem Bildschirm möglich, aus denen sich komplexere geometrische Elemente wie Knöpfe, Menüs, Benutzeroberflächen etc. zum einfachen Steuern von Programmen erstellen lassen. Die Grafikkarte als Hardware ist für den Programmierer und Anwender vollkommen verborgen. Klassifikation Betriebssystemarten Betriebssysteme können je nach ihren Merkmalen und Funktionen in verschiedene Kategorien unterteilt werden. Betriebsarten Batch System (Jobsystem, Stapelverarbeitung) Der Nutzer muss warten, bis sein Programm an der Reihe ist. Die Antwortzeit des Systems ist nicht begrenzt. Beispiele: DOS, OS/2, Windows. Dialogsystem (interaktives System) Eine einzelne Antwort kann lange dauern, aber im Durchschnitt erfolgt die Antwort innerhalb einer vorgegebenen Zeit. Die mittlere Antwortzeit des Betriebssystems liegt unterhalb eines bestimmten Grenzwertes. Beispiele: MS Windows XP, Windows 7/8, Unix, Linux. Echtzeitsystem Das Betriebssystem antwortet sofort. Die Einhaltung eines gegebenen Grenzwertes für die Antwortzeit ist in jedem Fall erforderlich. Beispiele: QNX, VxWorks. Anzahl der parallel bedienbaren Nutzer (Quelle: ) Ein-Nutzer-Betriebssystem (single user) Nur ein Nutzer kann das System gleichzeitig verwenden. Beispiele: Betriebssysteme auf Handys, Navigationssysteme in Fahrzeugen. Mehr-Nutzer-Betriebssystem (multi user) Das System kann gleichzeitig mehrere verschiedene Nutzer verwalten und (quasi-)parallel bedienen. Beispiele: Unix, Linux. Anzahl der parallel bearbeitbaren Nutzeraufträge (Quelle: ) Ein-Prozess-Betriebssystem (single tasking) Nur ein Auftrag (Prozess) kann zu einem Zeitpunkt durch das System bearbeitet werden. Beispiel: MS-DOS. Mehr-Prozess-Betriebssystem (multi tasking) Das System kann gleichzeitig mehrere verschiedene Aufträge verwalten und (quasi-)parallel bearbeiten. Eine Weiterentwicklung dieses Prinzips ist das Multithreading, bei dem mehrere Threads in einem Prozess zusammengefasst werden können. Beispiele: Unix, Linux, Windows XP, Windows 7, Windows 8. Diese verschiedenen Arten von Betriebssystemen bieten unterschiedliche Funktionen und Fähigkeiten, um den vielfältigen Anforderungen und Nutzungsszenarien gerecht zu werden. Die Wahl des richtigen Betriebssystems hängt von den spezifischen Bedürfnissen und Zielen eines Benutzers oder einer Organisation ab. Geschichte Erste Betriebssysteme (bis 1980) Die ersten Computer kamen ohne echtes Betriebssystem aus, da lediglich ein einziges Programm im Stapelbetrieb geladen sein konnte und die unterstützte Hardware noch sehr überschaubar war. Der erste Digitalrechner wurde von Charles Babbage (1792–1872) entwickelt. Er sah bereits die Notwendigkeit, seine „Analytische Maschine“ mit Software zu betreiben. Er stellte die Tochter des bekannten Dichters Lord Byron Ada Lovelace ein, um erste Programme zu schreiben. Ada Lovelace gilt als die erste Programmiererin. Charles Babbage gelang es nie, seine „Analytische Maschine“ vernünftig zum Laufen zu bringen. Zahnräder, Gestänge und andere mechanische Teile konnten nicht in der notwendigen Präzision hergestellt werden. Nach den erfolglosen Versuchen von Charles Babbage wurden wenige Anstrengungen unternommen, ein weiteres Projekt Digitalrechner auf die Beine zu stellen. Erst vor dem Zweiten Weltkrieg wurden Babbages Ideen wieder aufgegriffen. Erste digitale Rechner wurden auf Basis von elektrischen Relais und Röhren realisiert. Zu den ersten Wissenschaftlern gehörten Howard Aiken von der Havard Universität, John von Neumann an der Princeton-Universität, John William Mauchly, John Presper Eckert in Pennsylvania und Konrad Zuse in Berlin. Die ersten Computer wurden von einem Team von Technikern entwickelt, welche für den Entwurf, den Bau, die Programmierung und Wartung solcher Maschinen verantwortlich waren. Programmiersprachen waren unbekannt und die Programme wurden mithilfe von Steckkarten realisiert, auf welchen die Programme mithilfe von elektrischen Drähten programmiert wurden. Da ein Computer nur ein einziges Programm ausführen konnte, waren Betriebssysteme unnötig. Eine Berechnung einer einzigen Aufgabe dauerte Sekunden, und die Ausführung eines Programmes Stunden, aber nur dann wenn die Computer mit Tausenden von Röhren oder Relais einwandfrei funktionierten. In den frühen 1950er Jahren wurden elektrische Drähte durch Lochkarten ersetzt. Als Betriebssystem-Vorläufer gilt der 1956 in Gestalt des GM-NAA I/O bei General Motors für die IBM 704 erfundene resident monitor, ein Stück Software, das nach Beendigung eines Stapelauftrags den Folgeauftrag automatisch startete. 1959 entstand daraus das SHARE Operating System (SOS), das bereits über eine rudimentäre Ressourcenverwaltung verfügte. Dessen Nachfolger IBSYS verfügte bereits über eine einfache Shell mit Kommandosprache. 1961 entstand mit dem Compatible Timesharing System (CTSS) für die IBM 7094 am MIT das erste Betriebssystem für Mehrbenutzerbetrieb. Das ermöglichte die quasi-gleichzeitige Benutzung der Rechenanlage durch mehrere Anwender mittels angeschlossener Terminals. Eine Vielzahl gleichzeitig geladener Programme erforderte es, die von ihnen beanspruchten Speicherbereiche voneinander abzugrenzen. Als Lösung entstand 1956 an der TU Berlin der Virtuelle Speicher und wurde Mitte der 1960er Jahre erstmals in Großrechner-Betriebssystemen umgesetzt. Damals lieferte meist der Hersteller der Hardware das Betriebssystem, das nur auf einer bestimmten Modellreihe oder sogar nur auf einem bestimmten System lief, sodass Programme weder zwischen verschiedenen Computern, noch über verschiedene Generationen hinweg portierbar waren. Mit der Einführung der Modellreihe System/360 von IBM führte IBM 1964 das Betriebssystem OS/360 in verschiedenen Versionen (OS/360 für rein lochkartenbasierte Systeme, TOS/360 für Maschinen mit Bandlaufwerken, DOS/360 für solche mit Festplatten) ein. Es war das erste Betriebssystem, das modellreihenübergreifend eingesetzt wurde. Ab 1963 wurde Multics in Zusammenarbeit von MIT, General Electric und den Bell Laboratories (Bell Labs) von AT&T entwickelt, das jedoch erst ab 1969 bis 2000 im Einsatz war. Multics wurde in PL/I programmiert. Inspiriert von den Arbeiten an Multics startete eine Gruppe um Ken Thompson und Dennis Ritchie an den Bell Labs 1969 mit der Entwicklung von Unix. In den Jahren 1970 bis 1972 wurden mit RSX-15 und RSX-11 frühe Vorläufer des heutigen Windows NT entwickelt. Unix wurde in den Jahren 1972–1974 bis auf wenige Teile in der höheren Programmiersprache C mit dem Ziel der Portabilität neu implementiert, um auf der damals neuen PDP-11 lauffähig zu sein. In weiterer Folge entwickelte sich UNIX zu einer ganzen Familie von Systemen für verschiedene Hardwareplattformen. Die ersten PCs wie der Altair 8800 von 1975 verfügten zunächst über kein Betriebssystem. Daher mussten sämtliche Aktionen in einem reinen Maschinencode eingegeben werden. Sein erstes Betriebssystem erhielt der Altair 8800 in Form eines BASIC-Interpreters. Dieser stellte sowohl eine Programmierumgebung dar als auch die allgemeine Schnittstelle zwischen dem Benutzer und der Hardware (die dieser Interpreter direkt ansteuerte). Er war Laufzeitumgebung und Benutzerschnittstelle zugleich; über bestimmte Befehle konnte der Benutzer beispielsweise Daten laden und speichern und Programme ausführen. 1974 erfand Gary Kildall CP/M, das als erstes universelles PC-Betriebssystem gilt. Durch seine modulare Bauweise (der plattformunabhängige Kernel BDOS setzte auf einer Hardware-Treiberschicht namens BIOS auf) ließ es sich mit vertretbarem Aufwand auf zahlreiche zueinander inkompatible PC-Plattformen portieren. Eine Programmierumgebung steuerte nun (meistens) nicht mehr die Hardware direkt an, sondern nutzte die Schnittstellen des Betriebssystems. Daher war auch die Programmierumgebung nicht mehr nur auf einer bestimmten Hardware lauffähig, sondern auf zahlreichen PCs. Für die aufkommende Computergrafik reichten rein textbasierte Benutzerschnittstellen nicht mehr aus. Die 1973 eingeführte Xerox Alto war das erste Computersystem mit einem objektorientierten Betriebssystem und einer grafischen Benutzeroberfläche, was diesen Rechner für Desktop-Publishing geeignet machte und einen großen Fortschritt in Sachen Benutzerfreundlichkeit darstellte. Meilensteine Der C64, ein Heimcomputer der 1980er Jahre In den 1980er Jahren wurden Heimcomputer populär. Diese konnten neben nützlichen Aufgaben auch Spiele ausführen. Die Hardware bestand aus einem 8-Bit-Prozessor mit bis zu 64 KiB RAM, einer Tastatur und einem Monitor- bzw. HF-Ausgang. Einer der populärsten dieser Computer war der Commodore 64 (kurz „C64“) mit dem Mikroprozessor 6510 (einer Variante des 6502). Dieser Computer verfügte über einen in einem eigenen 8 KiB-ROM-Baustein befindlichen Systemkern namens Kernal mitsamt einem BIOS (Basic Input/Output System), das die Geräte Bildschirm, Tastatur, serielle IEC-Schnittstelle für Diskettenlaufwerke bzw. Drucker, Kassetteninterface initialisierte und über ein Kanalkonzept teilweise abstrahierte. Über ein separates 8 KiB-ROM-BASIC, das auf die Funktionen des BIOS aufsetzte, konnte das System bedient und programmiert werden. Das Betriebssystem dieses Computers kann auf der Ebene des BASIC-Interpreters als gute Hardwareabstraktion angesehen werden. Natürlich sind weder Kernel, Speicher- oder sonstiger Hardwareschutz vorhanden. Viele Programme, vor allem auch Spiele, setzten sich über das BIOS hinweg und griffen direkt auf entsprechende Hardware zu. Abstraktionsschichten im Betriebssystem des Heimcomputers C64 Die grafische Benutzeroberfläche (GUI) von Apple Xerox entwickelte im Palo Alto Research Center (PARC) das Smalltalk-Entwicklungssystem (Xerox entwickelte mit ALTO (1973) und Star (1981) erste Rechner mit grafischer Benutzeroberfläche). Das Unternehmen Apple bot Xerox an, die Technologie zu kaufen; da PARC aber vor allem ein Forschungszentrum war, bestand kein Interesse an Verkauf und Vermarktung. Nachdem Apple-Chef Steve Jobs Xerox Aktienanteile von Apple anbot, wurde ihm erlaubt, einigen Apple-Entwicklern die Xerox-Demos zu zeigen. Danach war den Apple-Entwicklern auf jeden Fall klar, dass der grafischen Benutzeroberfläche die Zukunft gehörte, und Apple begann, eine eigene grafische Benutzeroberfläche zu entwickeln. Viele Merkmale und Prinzipien jeder modernen grafischen Benutzeroberfläche für Computer, wie wir sie heute kennen, sind originale Apple-Entwicklungen (Pull-down-Menüs, die Schreibtischmetapher, Drag and Drop, Doppelklicken). Die Behauptung, Apple habe seine GUI von Xerox illegal kopiert, ist ein ständiger Streitpunkt; es existieren jedoch gravierende Unterschiede zwischen einem Alto von Xerox und der Lisa/dem Macintosh. Der Mac-OS-Nachfolger Mitte der 1990er Jahre steckte das Unternehmen Apple in einer tiefen Krise; es schien kurz vor dem Ruin. Ein dringliches Problem war dabei, dass Apples Betriebssystem Mac OS als veraltet galt, weshalb sich Apple nach Alternativen umzusehen begann. Nach dem Scheitern des wichtigsten Projektes für ein modernes Betriebssystem mit dem Codenamen Copland sah sich Apple gezwungen, Ausschau nach einem für die eigenen Zwecke verwendbaren Nachfolger zu halten. Zuerst wurde vermutet, dass Apple das Unternehmen Be, mit ihrem auch auf Macs lauffähigen Betriebssystem BeOS, übernehmen würde. Die Übernahmeverhandlungen scheiterten jedoch im November 1996, da der frühere Apple-Manager und Chef von Be Jean-Louis Gassée im Falle einer Übernahme 300 Millionen US-Dollar und einen Sitz im Vorstand verlangte. Da Gil Amelio versprochen hatte, bis zur Macworld Expo im Januar 1997 die zukünftige Strategie zu Mac OS zu verkünden, musste schnell eine Alternative gefunden werden. Überraschend übernahm Apple dann noch im Dezember 1996 für 400 Mio. US-Dollar das Unternehmen NeXT des geschassten Apple-Gründers Steve Jobs mitsamt dem Betriebssystem NeXTStep bzw. OPENSTEP, das Apples Grundlage für die nachfolgende neue Betriebssystem-Generation werden sollte. Unter dem Codenamen Rhapsody wurde es weiterentwickelt zu einem UNIX für Heim- und Bürocomputer mit dem Namen „Mac OS X“; von Version 10.8 (2012) bis 10.11 hieß es einfach „OS X“, seit Version 10.12 (2016) „macOS“. Ab Version 10.5 ist es konform mit der Single UNIX Specification. Das Betriebssystem OPENSTEP war die erste Implementierung der OpenStep-Spezifikationen, die zusammen mit Sun entwickelt wurden. Deren Entwicklung hatte Einfluss auf Java und somit letztlich auf Android. Disk Operating System (DOS) Seinen Ursprung hat das „Disketten-Betriebssystem“ auf Großrechnern () wie dem System/360 von IBM aus den 1960er Jahren. Der Ansatz wurde in den 1970ern mit CP/M von Digital Research auf den damals aufkommenden Personal Computern übernommen, das sich seinerseits u. a. an TOPS-10, einer Weiterentwicklung von DOS auf Großrechnern, orientierte. Ähnliche Systeme gab es daraufhin auch für den Commodore PET (Commodore DOS), den Apple II (Apple DOS) und den Atari (Atari DOS). Die Portierung von CP/M auf den Motorola 68000, genannt CP/M-68k, selbst kein großer kommerzieller Erfolg, wurde zur Grundlage für TOS, dem Betriebssystem des Atari ST. 86-DOS erschien 1980 als Nachbildung von CP/M für den Intel 8086, wurde von Microsoft gekauft und für den IBM PCs als PC DOS eingesetzt. Es setzt auf das PC-BIOS des IBM PC auf und stellt Dateisystemoperationen zur Verfügung. Microsoft vertrieb ein fast identisches System auch als MS-DOS für IBM-kompatible PCs und x86-PCs. Die ersten IBM PCs waren ganz ähnlich wie der C64 aufgebaut. Auch sie verfügten über ein eingebautes BIOS zur Initialisierung und Abstraktion der Hardware. Sogar ein BASIC-Interpreter im ROM war vorhanden. Da der IBM PC im Grundsatz ein offenes Design verwendet, wurde anfangs von der Konkurrenz versucht, ohne BIOS und BASIC dazu kompatible DOS-PCs zu bauen. Es wurde jedoch schnell klar, dass das BIOS ein unverzichtbarer Teil des IBM PC war, ohne den auch keine vollständige Kompatibilität möglich war. Nachdem das BIOS durch Reverse Engineering nachprogrammiert worden war, wurde auch in IBM-PC-kompatiblen Computern ein BIOS eingesetzt, allerdings wurde auf das ROM-BASIC verzichtet. Die auf anderen PCs und Heimcomputern eingesetzte Varianten von DOS sind nicht zu MS-DOS kompatibel, etwa AmigaDOS. PC-kompatibles DOS Der PC konnte mit seinem Intel-8088-Prozessor (16-Bit-Register) bis zu 1 MiB Speicher adressieren, die ersten Modelle waren jedoch nur mit 64 KiB ausgestattet. Diskettenlaufwerke lösten die alten Kassettenrekorder als Speichermedium ab. Sie erlauben vielfaches Schreiben und Lesen einzeln adressierbarer 512-Byte-Blöcke. Die Benutzung wird durch ein Disk Operating System (DOS) vereinfacht, das ein abstraktes Dateikonzept bereitstellt. Blöcke können zu beliebig großen Clustern (Zuordnungseinheit – kleinste für das Betriebssystem ansprechbare Einheit) zusammengefasst werden. Dateien (logische Informationseinheiten) belegen einen oder mehrere dieser (verketteten) Cluster. Eine Diskette kann viele Dateien enthalten, die über Namen erreichbar sind. Auf den ersten PCs war kein Speicherschutz realisiert, die Programme konnten daher an DOS vorbei direkt auf das PC-BIOS und, am BIOS vorbei, auch direkt auf die Hardware zugreifen, z. B. auf die Grafikkarte. Erst spätere PCs wurden mit dem Intel-80286-Prozessor ausgestattet, der Speicherschutz ermöglichte. MS-DOS stellte auch keine für alle Zwecke ausreichende Abstraktion zur Verfügung. Es ließ sich nur ein Programm gleichzeitig starten, die Speicherverwaltung war eher rudimentär. Ein Teil der Hardware wurde nicht unterstützt und musste von Programmen direkt angesprochen werden, was dazu führte, dass beispielsweise für jedes Spiel die Soundkarte neu konfiguriert werden musste. Die Performance einiger Routinen, speziell zur Textausgabe, war verbesserungswürdig. Viele Programme setzten sich daher über das Betriebssystem hinweg und schrieben z. B. direkt in den Bildschirmspeicher. MS-DOS wurde mit einem Satz von Programmen (sogenannten Werkzeugen) und dem Kommandointerpreter COMMAND.COM ausgeliefert. Abstraktionsschichten eines PC unter DOS Windows 1983 begann das Unternehmen Microsoft mit der Entwicklung einer grafischen Betriebssystem-Erweiterung („Grafik-Aufsatz“) für MS-DOS namens Windows. Das MS-DOS und BIOS-Design der PCs erlaubten, da immer nur ein Programm exklusiv laufen konnte, keine Weiterentwicklung in Richtung moderner Serverbetriebssysteme. Microsoft begann Anfang der 1990er Jahre, ein solches Betriebssystem zu entwickeln, das zunächst als Weiterentwicklung von OS/2 geplant war (an dessen Entwicklung Microsoft zwischen 1987 und 1991 beteiligt war): Windows NT 3.1 (Juli 1993). Für den Consumer-Markt brachte Microsoft am 15. August 1995 Windows 95 heraus; es setzt auf MS-DOS auf. Dieser „Consumer-Zweig“, zusammengefasst Windows 9x, wurde mit der Veröffentlichung von Windows Me (August/September 2000) abgeschlossen. Aufbau von Windows NT: Über die Hardware wurde eine Abstraktionsschicht, der Hardware Abstraction Layer (HAL) gelegt, auf den der Kernel aufsetzte. Verschiedene Gerätetreiber waren als Kernelmodule ausgeführt und liefen wie der Kernel im privilegierten Kernel Mode. Sie stellten Möglichkeiten der E/A-Verwaltung, Dateisystem, Netzwerk, Sicherheitsmechanismen, virtuellen Speicher usw. zur Verfügung. Systemdienste (System Services) ergänzten das Konzept; wie ihre Unix-Pendants, die daemons, waren sie in Form von Prozessen im User-Mode ausgeführt. Abstraktionsschichten unter Windows NT (etwas vereinfacht) Über sogenannte Personalities wurden dann die Schnittstellen bestehender Systeme nachgebildet, zunächst für Microsofts eigenes, neues Win32-System, aber auch für OS/2 (ohne Grafik) und POSIX.1, also einer Norm, die eigentlich Unix-Systeme vereinheitlichen sollte. Personalities liefen wie Anwenderprogramme im unprivilegierten User-Mode. Das DOS-Subsystem war in Form von Prozessen implementiert, die jeweils einen kompletten PC mit MS-DOS als virtuelle Maschine darstellten; darauf konnte mit einer besonderen Version von Windows 3.1, dem Windows-on-Windows, auch Win16-Programme ausgeführt werden. Windows-on-Windows blendete dazu die Fenster der Win16-Programme in das Win32-Subsystem ein, das die Grafikausgabe verwaltete. Das System erlaubte daher die Ausführung von Programmen sowohl für MS-DOS wie für die älteren Windows-Betriebssysteme, allerdings unter vollkommener Kontrolle des Betriebssystems. Dies galt aber nur für die Implementierung für Intel-80386-Prozessoren und deren Nachfolger. Programme, die direkt auf die Hardware zugreifen, blieben aber außen vor. Insbesondere viele Spiele konnten daher nicht unter Windows NT ausgeführt werden, zumindest bis zur Vorstellung von WinG, das später in DirectX umbenannt wurde. Ohne die Möglichkeit eines direkten Zugriffs auf die Grafikhardware bzw. -treiber war die Programmierung von leistungsfähigen Actionspielen zunächst auf die älteren Windows-Versionen beschränkt. Windows NT erschien in den Versionen 3.1, 3.5, 3.51 und 4.0. Windows 2000 stellte eine Weiterentwicklung von Windows NT dar. Auch Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008, Windows 7, Windows Server 2012, Windows 8/8.1 und Windows 10 bauen auf der Struktur von Windows NT auf. Linux (GNU/Linux) 1991 begann Linus Torvalds in Helsinki/Finnland mit der Entwicklung des Linux-Kernels, den er bald danach der Öffentlichkeit zur Verfügung stellte. Es läuft als portables Betriebssystem auf verschiedenen Rechnerarchitekturen, wurde aber zunächst für PCs mit Intel-80386-Prozessor entwickelt. Das in diesen Rechnern verwendete BIOS dient nur noch zum Initialisieren der Hardware und zum Starten des Bootloaders, da die Routinen des PC-BIOS für Multitaskingsysteme wie Linux ungeeignet sind. Dies kommt zustande, da insbesondere der Prozessor durch Warten belastet wird anstatt durch eine – in der Hardware durchaus vorhandene – geschickte Unterbrechungsverwaltung (interrupt handling) auf Ereignisse (events) zu reagieren. Linux verwendet daher nach dem Starten des Systems eigene Gerätetreiber. Es verteilt die Prozessorzeit auf verschiedene Programme (Prozesse). Jeder dieser Prozesse erhält einen eigenen, geschützten Speicherbereich und kann nur über Systemaufrufe auf die Gerätetreiber und das Betriebssystem zugreifen. Die Prozesse laufen im Benutzermodus (user mode), während der Kernel im Kernel-Modus (kernel mode) arbeitet. Die Privilegien im Benutzermodus sind sehr eingeschränkt. Ein direkter Zugriff wird nur sehr selten und unter genau kontrollierten Bedingungen gestattet. Dies hat den Vorteil, dass kein Programm z. B. durch einen Fehler das System zum Absturz bringen kann. Linux stellt wie sein Vorbild Unix eine vollständige Abstraktion und Virtualisierung für nahezu alle Betriebsmittel bereit (z. B. virtueller Speicher, Illusion eines eigenen Prozessors). Fast vollständige Abstraktion unter Linux Verbreitung Das Unternehmen StatCounter analysiert die Verbreitung von Endanwender-Betriebssystemen anhand von Zugriffsstatistiken diverser Websites. Viele Jahre lang lag Windows an der Spitze, bis es laut StatCounter 2017 von Android überholt wurde. Die laut StatCounter am weitesten verbreiteten Endanwender-Betriebssysteme sind: Siehe auch Echtzeitbetriebssystem Liste von Betriebssystemen Literatur Albrecht Achilles: Betriebssysteme. Eine kompakte Einführung mit Linux. Springer: Berlin, Heidelberg, 2006. ISBN 978-3-540-23805-8. Uwe Baumgarten, Hans-Jürgen Siegert: Betriebssysteme. Eine Einführung. 6., überarbeitete, aktualisierte und erweiterte Auflage, Oldenbourg Verlag: München, Wien, 2007. Erich Ehses, Lutz Köhler, Petra Riemer, Horst Stenzel, Frank Victor: Systemprogrammierung in UNIX / Linux. Grundlegende Betriebssystemkonzepte und praxisorientierte Anwendungen. Vieweg+Teubner: Wiesbaden, 2012. ISBN 978-3-8348-1418-0. Eduard Glatz: Betriebssysteme. Grundlagen, Konzepte, Systemprogrammierung. 1. Auflage. dpunkt: Heidelberg, 2006. ISBN 3-89864-355-7. Sibsankar Haldar, Alex A. Aravind: Operating Systems. Delhi (u. a.): Pearson Education, 2009. ISBN 978-81-317-1548-2. Helmut Herold, Bruno Lurz, Jürgen Wohlrab, Matthias Hopf: Grundlagen der Informatik. Kapitel 9: Betriebssysteme. 3., aktualisierte Auflage, Pearson: Hellbergmoos, 2017, S. 433–462. ISBN 978-3-86894-316-0. Peter Mandl: Grundkurs Betriebssysteme. Architekturen, Betriebsmittelverwaltung, Synchronisation, Prozesskommunikation, Virtualisierung. 4. Auflage, Springer Vieweg: Wiesbaden, 2014. ISBN 978-3-658-06217-0. Abraham Silberschatz, Peter Baer Galvin, Greg Gagne: Operating System Concepts. Ninth Edition, John Wiley & Sons: Hoboken, 2013. ISBN 978-1-118-06333-0. Andrew S. Tanenbaum, Herbert Bos: Moderne Betriebssysteme. 4., aktualisierte Auflage. Pearson: Hallbergmoos, 2016. ISBN 978-3-86894-270-5. Ältere zitierte Ausgabe: Andrew S. Tanenbaum: Moderne Betriebssysteme. 3., aktualisierte Auflage, Pearson Studium, 2009. Englische Originalausgabe: Modern Operating Systems. 4th Edition, Pearson, 2016. Weblinks Informationen zu allen Betriebssystemen Lowlevel – Wiki und Forum zur Betriebssystementwicklung (Online) Einzelnachweise Systemsoftware
479
https://de.wikipedia.org/wiki/Billy%20Wilder
Billy Wilder
Billy Wilder (* 22. Juni 1906 als Samuel Wilder in Sucha, Galizien, Österreich-Ungarn; † 27. März 2002 in Los Angeles, Kalifornien) war ein österreichischer Drehbuchautor, Filmregisseur und Filmproduzent, der nach seiner Emigration die US-amerikanische Staatsbürgerschaft annahm. Wilder wirkte stilbildend für das Genre Filmkomödie und schuf als Regisseur und Drehbuchautor von Komödien wie Sabrina (1954), Manche mögen’s heiß (1959), Eins, Zwei, Drei (1961) und Das Mädchen Irma la Douce (1963), aber auch von dramatischen Filmen wie Frau ohne Gewissen (1944), Das verlorene Wochenende (1945), Boulevard der Dämmerung (1950) oder Zeugin der Anklage (1957) Filme von zeitloser Relevanz. Sein Werk umfasst mehr als 60 Filme, die in einem Zeitraum von über 50 Jahren entstanden sind. Er wurde als Autor, Produzent und Regisseur 21-mal für einen Oscar nominiert und sechsmal ausgezeichnet. Allein bei der Oscarverleihung 1961 wurde er als Produzent, Drehbuchautor und Regisseur für den Film Das Appartement dreifach ausgezeichnet, was bis heute nur insgesamt zehn Regisseuren gelungen ist. Leben und Werk Herkunft Samuel Wilder war der Sohn jüdischer Eltern. Sein Vater Max Wilder betrieb in Krakau das Hotel „City“ sowie mehrere Bahnhofsrestaurants in der Umgebung. Die Mutter rief den Sohn von jeher „Billie“. Samuel nannte sich daher „Billie Wilder“ (deutsch ausgesprochen); in den USA änderte er die Schreibweise dann in „Billy“. Mitten im Ersten Weltkrieg zog die Familie aus Angst vor der herannahenden russischen Armee 1916 nach Wien. In seiner Jugend war er dort eng mit dem späteren Hollywood-Regisseur Fred Zinnemann befreundet, mit dem er zeitweise in dieselbe Klasse ging (Privatgymnasium Juranek im 8. Gemeindebezirk) und zu dem er sein Leben lang Kontakt hielt. Nach seiner Matura arbeitete er als Reporter für die Wiener Boulevardzeitung Die Stunde. Als er 1926 den Jazzmusiker Paul Whiteman interviewte, war dieser von ihm so begeistert, dass er ihn einlud, nach Berlin mitzukommen, um ihm die Stadt zu zeigen. Eine Woche später stellte sich heraus, dass Die Stunde Wiener Geschäftsleute und Prominente zu jener Zeit mit der Drohung erpresste, unvorteilhafte Artikel über sie zu veröffentlichen. Die Angelegenheit wurde zum größten Medienskandal der Ersten Republik in Österreich und Wilder beschloss, in Berlin zu bleiben und für eine andere Zeitung zu arbeiten. In Berlin Wilder wohnte 1927 in Berlin-Schöneberg (Viktoria-Luise-Platz 11) zur Untermiete: „Eineinhalb Jahre. Ein winziges Zimmer mit düsterer Tapete. Wand an Wand mit einer ständig rauschenden Toilette.“ Hier begann auch seine Filmkarriere, als der Direktor einer Filmgesellschaft, Maxim Galitzenstein, in Unterhosen aus dem Schlafzimmer der Nachbarin in Wilders Zimmer auftaucht und schließlich dessen erstes Drehbuch kaufte. In Berlin wurde Billy Wilder Stammgast des Romanischen Cafés, wo er sich mit seinem Idol, dem rasenden Reporter Egon Erwin Kisch, anfreundete. Als Ghostwriter für bekannte Drehbuchautoren wie Robert Liebmann und Franz Schulz konnte Wilder sich neben seiner Tätigkeit als Reporter eine zusätzliche Einkommensquelle erschließen. So trug er zu dem Filmklassiker Menschen am Sonntag bei (unter anderem mit Curt Siodmak, Robert Siodmak, Fred Zinnemann und Edgar G. Ulmer). Gemeinsam mit Erich Kästner schrieb er 1931 das Drehbuch für Emil und die Detektive, die Erstverfilmung von Kästners Roman – damals noch als „Billie Wilder“. Emigration und Arbeit in den USA Unmittelbar nach der Machtergreifung der Nationalsozialisten übersiedelte Wilder 1933 nach Paris, wo er sich als Ghostwriter für französische Drehbuchautoren seinen Lebensunterhalt verdiente. Hier inszenierte er auch seinen ersten Film, Mauvaise graine, mit Danielle Darrieux. 1934 konnte er, von Joe May mit einem Besuchervisum ausgestattet, in die Vereinigten Staaten einreisen. Er nannte sich nun „Billy“, wurde 1936 von Paramount Pictures unter Vertrag genommen und schrieb die Drehbücher zu Komödien wie Ninotschka, bei dem sein Vorbild Ernst Lubitsch Regie führte, und Enthüllung um Mitternacht, die beide 1939 veröffentlicht wurden. 1942 führte Wilder in der Komödie Der Major und das Mädchen mit Ginger Rogers erstmals in Hollywood Regie, da er mit den ständigen Änderungen an seinen Drehbüchern unzufrieden war und selbst das Heft in die Hand nehmen wollte. Sein zweiter Film Fünf Gräber bis Kairo mit Franchot Tone diente 1943 im Zweiten Weltkrieg als Propagandafilm gegen das NS-Regime. Im folgenden Jahr inszenierte er mit Frau ohne Gewissen einen bedeutenden Klassiker des Film noir, der Barbara Stanwyck als Femme fatale zeigt. Der Film erhielt sieben Oscar-Nominierungen, unter anderem für Wilder in den Kategorien Beste Regie und Bestes adaptiertes Drehbuch. 1945 erhielt Wilder vom U.S. Army Signal Corps den Auftrag, das umfangreich vorhandene Material des amerikanischen und britischen Militärs u. a. über die Befreiung des KZ Bergen-Belsen zu einem Kurzfilm zu verdichten. Es wurde der einzige Dokumentarfilm unter seiner Aufsicht, Die Todesmühlen. Trotz aller persönlichen Betroffenheit – seine nächsten Verwandten waren im Holocaust ermordet worden – wollte er keinen „Gräuelfilm“, da er sofort erkannte: „Objektiv gesehen: So unsympathisch die Deutschen sein mögen, sie sind – und jetzt zitiere ich Wort für Wort den guten Onkel in Washington – unsere logischen Verbündeten von morgen.“ Nach seinen Nominierungen für Frau ohne Gewissen erhielt er 1946 als Regisseur und als Drehbuchautor je einen Oscar für den Film Das verlorene Wochenende. Das Drama um einen erfolglosen Schriftsteller (Ray Milland) setzte sich ungewöhnlich realistisch mit den Problemen eines Alkoholikers auseinander. Kurz danach kam Wilder im Auftrag der amerikanischen Regierung im Rang eines Colonels nach Deutschland und inszenierte im kriegszerstörten Berlin 1947/48 den Film Eine auswärtige Affäre mit Jean Arthur und Marlene Dietrich in den Hauptrollen, der sich kritisch mit der NS-Vergangenheit im besetzten Deutschland auseinandersetzte. Im selben Jahr führte er zudem Regie beim Filmmusical Ich küsse Ihre Hand, Madame mit Bing Crosby. Nach 1950 war Wilder meist als Produzent an seinen Filmen beteiligt. Er schuf Klassiker wie Boulevard der Dämmerung (1950), mit Gloria Swanson als verblendeter Ex-Diva, Das verflixte 7. Jahr (1955) und Manche mögen’s heiß (1959), beide mit Marilyn Monroe, Zeugin der Anklage (1958), erneut mit Marlene Dietrich, sowie Das Appartement (1960) und Das Mädchen Irma la Douce (1963), beide mit Shirley MacLaine, und die Komödie Eins, Zwei, Drei (1961) mit James Cagney, Liselotte Pulver und Horst Buchholz in den Hauptrollen. Ein 1960 geplantes Filmprojekt mit den Marx Brothers, die Antikriegssatire A Day At The United Nations, kam wegen des schlechten Gesundheitszustands von Chico Marx letztlich nicht zustande. Billy Wilders Alter Ego auf der Leinwand verkörperten Jack Lemmon und William Holden. Während Holden vor allem in dramatischen Werken wie Boulevard der Dämmerung, Stalag 17 oder Fedora wirkte, war Lemmon in Komödien wie Manche mögen’s heiß, Das Mädchen Irma la Douce, Der Glückspilz und Extrablatt zu sehen. Wilders spätere Werke konnten an die Erfolge seiner Glanzzeit nicht mehr anknüpfen. Ab Mitte der 1980er Jahre beschränkte er sich auf Beratertätigkeiten für United Artists. Wilder, dessen Familie im Holocaust umkam (siehe auch Privatleben), war ursprünglich als Regisseur für Schindlers Liste im Gespräch. Aufgrund seines hohen Alters übernahm dann jedoch Steven Spielberg selbst die Regie. Wilder war von Spielbergs Werk tief berührt und ließ ihn das in einem Brief wissen, was Spielberg in seinem Antwortbrief als große Ehrerbietung durch den Altmeister bezeichnete. 1999 übernahm Billy Wilder die Schirmherrschaft über das Bonner „Billy-Wilder-Institute of Film and Television Studies oHG“, das 2002 kurz vor seinem Tod geschlossen werden musste. Billy Wilder starb am 27. März 2002 in Los Angeles im Alter von 95 Jahren an den Folgen einer Lungenentzündung. Er hatte schon länger mit gesundheitlichen Problemen zu kämpfen gehabt, aber immer noch Interviews gegeben. Sein Grab befindet sich im Westwood Village Memorial Park Cemetery. Im 3. Wiener Bezirk wurde im Jahr 2008 die Billy-Wilder-Straße und in Berlin-Lichterfelde 2007 eine neue Straße Billy-Wilder-Promenade nach ihm benannt. Die Billy-Wilder-Straße in Wien wurde 2021 auf Grund einer Umwidmung zu Bauland wieder aufgelassen. Privatleben Wilder war von 1936 bis 1947 mit Judith Coppicus-Iribe verheiratet. Sie hatten eine gemeinsame Tochter, Victoria (* 1939). 1949 heiratete Wilder die Schauspielerin und Sängerin Audrey Young (1922–2012). 1989 ließ Wilder, der insbesondere Werke Picassos und europäischer Impressionisten gesammelt hatte, seine umfangreiche Gemäldesammlung versteigern. Der Erlös betrug 32,6 Millionen US-Dollar. Seine Mutter Gitla starb 1943 im KZ Plaszow, sein Stiefvater Bernhard (Berl) Siedlisker wurde im Vernichtungslager Belzec ermordet. Namensaussprache Billy Wilder ist als Weilder geläufig. Wolfgang Glück berichtete jedoch, Wilder habe sich ihm 1987 als Wilder bekanntgemacht und seinen Namen immer in dieser Form ausgesprochen. Regiestil Der Drehbuchautor als Regisseur Als er bereits zahlreiche Drehbücher geschrieben und sich oft über die Umsetzung geärgert hatte, entschied sich Wilder, bei der Realisierung seiner Drehbücher selbst die Regie zu übernehmen. Die Idee sei ihm gekommen, als sich Charles Boyer bei den Dreharbeiten zu Das goldene Tor weigerte, ein Zwiegespräch mit einer Kakerlake zu führen, wie Wilder es im Drehbuch vorgesehen hatte, und Regisseur Mitchell Leisen danach Wilders Proteste zurückwies. Die Szene war ihm besonders wichtig, weil er Erinnerungen an seine eigene Situation verarbeitet hatte, als er 1934 in Mexicali an der amerikanisch-mexikanischen Grenze darauf warten musste, wieder in die USA einreisen zu dürfen, um endgültig die amerikanische Staatsbürgerschaft zu erlangen. In einem seiner späteren Filme griff Wilder das Motiv in abgewandelter Form auf, als er mit James Stewart in Lindbergh – Mein Flug über den Ozean (1957) den berühmten Piloten bei seinem Flug über den Atlantik zu einer zufällig im Cockpit mitreisenden Fliege sprechen ließ. Zuvor war es Preston Sturges als erstem Drehbuchautor gelungen, ins Regiefach zu wechseln und das strenge „Kastendenken“ des alten Hollywood zu durchbrechen. Preston Sturges verkaufte sein Drehbuch für Der große McGinty für zehn Dollar an Paramount Pictures unter der Bedingung, es selbst verfilmen zu dürfen. Der Film wurde ein Kassenschlager. Wilders Regiestil ist von seiner Herkunft aus dem schreibenden Fach geprägt; er glaubte wie kaum ein anderer an Macht und Bedeutung des Drehbuchs. Wie Alfred Hitchcock ließ er bei den Dreharbeiten kaum Änderungen zu. Er lehnte allzu extravagante Kameraeinstellungen ab, weil sie das Publikum von der Handlung ablenken könnten. Nur wenn das Publikum sich nicht mehr bewusst sei, dass ein Kamerateam anwesend ist, entstehe der Zauber eines guten Films. Dennoch war ihm die Bildgestaltung sehr wichtig. In Das Appartement nutzte er das Cinemascope-Breitwandformat geschickt aus, um etwa die Einsamkeit seines Protagonisten filmisch darzustellen. Er liebte den Schwarzweißfilm und nutzte diesen noch, als der Farbfilm längst Standard war. Seine erfolgreichsten Filme hat er in Schwarzweiß gedreht. Wilder setzte gern die sogenannte „Narration“ ein, also die Stimme eines der Filmhelden, die aus dem Off die Handlung kommentiert, zumeist um in die Handlung eines Filmes einzuführen bzw. sie voranzutreiben – so in Frau ohne Gewissen, Boulevard der Dämmerung, Stalag 17, Das Appartement, Das Privatleben des Sherlock Holmes oder in Fedora. Dabei ist es laut Wilder wichtig, dass die Stimme nicht etwas erzählt, was der Zuschauer ohnehin schon sieht, sondern dem Zuschauer zusätzliche Informationen vermittelt. Grundsätze In Volker Schlöndorffs TV-Dokumentation Billy Wilder, wie haben Sie’s gemacht? erläuterte Wilder einige seiner Grundsätze, die beim Filmemachen zu beachten seien; so beispielsweise, wann Nahaufnahmen (close-ups) nicht gemacht werden dürften. Ein Darsteller, der versuche, eine plötzliche Erkenntnis, eine Eingebung darzustellen, sehe immer dumm aus (“looks stupid”). Auch die Nahaufnahme des Gesichts eines Menschen, der gerade eine Todesnachricht erhält, sei unpassend. Es gebe zwei wichtige Elemente eines guten Drehbuchs, die Konstruktion einer Geschichte und die Dialoge. Agatha Christie sei eine ausgezeichnete Konstrukteurin von Geschichten, aber eher schwach in ihren Dialogen gewesen. Raymond Chandler dagegen habe sehr gute Dialoge verfassen können, jedoch von der Konstruktion einer Geschichte keine Ahnung gehabt. Als sein Vorbild betrachtete Wilder Ernst Lubitsch, für den er einige Drehbücher (Ninotchka) verfasst hat. In seinem Büro hing ein Schild mit der Aufschrift: „How would Lubitsch have done it?“ (Wie hätte Lubitsch es gemacht?) Wilder selbst hat in Gesprächen mit dem Regisseur Cameron Crowe zehn Regeln postuliert (1999 veröffentlicht): Merkmale In der Struktur bevorzugte Billy Wilder den Aufbau der Handlung in drei Akten aus klassischen Theaterstücken. Wilder legte seine Dreiakter so an, dass die Hauptakteure am Ende des dritten Aktes eine moralische Entscheidung treffen mussten. Wilders Filme zeichnen sich durch eine straffe Handlung und spritzige, griffige Dialoge aus. In den Handlungen gelang es ihm oft die Grenzen des Unterhaltungsfilmes zu durchstoßen und schlüpfrige Details oder als anstößig geltende Themen in seinen Filmen zu realisieren, um der bigotten Gesellschaft den moralischen Spiegel vor die Nase zu halten. Dabei bediente er sich einer ausgefeilten Symbolsprache und vermeintlich harmloser Formulierungen, um das Hays Office, die Zensurstelle der amerikanischen Filmindustrie, hinters Licht zu führen. Er thematisierte gleich in seiner ersten Regiearbeit ein Liebesverhältnis eines Erwachsenen mit einer (vermeintlich) Minderjährigen, was besonders im Wortspiel des Originaltitels The Major and the Minor (Der Major und das Mädchen) deutlich wurde. Er ließ Männer in Frauenkleidern spielen (Manche mögen’s heiß) und schuf so die Grundlage, um eine Fülle anzüglicher und hintergründiger Anspielungen unterzubringen. Ehebruch kommt in seinen Filmen in zahlreichen Variationen vor, ebenso Prostitution und Homosexualität. Seine Protagonisten sind keine strahlenden moralischen Helden, sondern oft eher Durchschnittsmenschen mit Fehlern und Schwächen, die aber aufgrund besonderer Herausforderungen in bestimmten Situationen über sich hinauswachsen. Selbstzitate Bestimmte Versatzstücke aus seinen Filmen hat Wilder mehrfach verwendet, zum Beispiel: Filmografie (Auswahl) Auszeichnungen Academy Awards 1946: Oscar für die beste Regie für Das verlorene Wochenende (1945) 1946: Oscar das beste Drehbuch für Das verlorene Wochenende (1945) (mit Charles Brackett) 1951: Oscar für das beste Originaldrehbuch für Boulevard der Dämmerung (1950), gemeinsam mit Charles Brackett und D. M. Marshman jr. 1961: Oscar für die beste Regie für Das Appartement (1960) 1961: Oscar für den besten Film für Das Appartement (1960) 1961: Oscar für das beste Originaldrehbuch für Das Appartement (1960) (mit I. A. L. Diamond) 1987: Irving G. Thalberg Memorial Award Golden Globes 1946: Golden Globe für die beste Regie in Das verlorene Wochenende (1945) 1951: Golden Globe für die beste Regie in Boulevard der Dämmerung (1950) 1955: Golden Globe für das beste Filmdrehbuch für Sabrina (1954), mit Ernest Lehman und Samuel A. Taylor Writers Guild of America 1951: WGA Award (Screen) für das am besten geschriebene amerikanische Drama Boulevard der Dämmerung (1950), gemeinsam mit Charles Brackett und D.M. Marshman Jr. 1955: WGA Award (Screen) für die am besten geschriebene amerikanische Komödie Sabrina (1955), gemeinsam mit Samuel A. Taylor und Ernest Lehman 1958: WGA Award (Screen) für die am besten geschriebene amerikanische Komödie Ariane – Liebe am Nachmittag (1957), gemeinsam mit I.A.L. Diamond 1960: WGA Award (Screen) für die am besten geschriebene amerikanische Komödie Manche mögen’s heiß (1959), gemeinsam mit I. A. L. Diamond 1961: WGA Award (Screen) für die am besten geschriebene amerikanische Komödie Das Appartement (1960), gemeinsam mit I. A. L. Diamond Directors Guild of America 1961: DGA Award für hervorragende Regiearbeit in Das Appartement (1960), gemeinsam mit Hal W. Polaire (Regie-Assistenz) Cannes Film-Festival 1946 1946: Grand Prix des Festivals für Das verlorene Wochenende (1945) Laurel Awards 1963: Golden Laurel für den Spitzen-Produzenten/Regisseur PGA Golden Laurel Awards 2000: PGA Hall of Fame – Filme für Manche mögen’s heiß (1959) British Academy Film Award 1961: Bester Film für Das Appartement (1960) 1995: Ehrenpreis der British Academy of Film and Television Arts (BAFTA) Blue Ribbon Award 1951: Blue Ribbon Award für den besten (ausländischen) Film Boulevard der Dämmerung (1950) Bodil 1951: Bodil für den besten (amerikanischen) Film Boulevard der Dämmerung (1950) Boulevard der Stars 2010: Stern auf dem Boulevard der Stars in Berlin David di Donatello 1975: David di Donatello für die beste Regie in Extrablatt (1974) Deutscher Filmpreis 1973: Filmband in Gold für langjähriges und hervorragendes Wirken im deutschen Film 1997: Ehrenpreis an eine ausländische Persönlichkeit für herausragende Leistungen im Bereich des Films (Gesamtwerk) Europäischer Filmpreis 1992: Felix für das Lebenswerk Internationale Filmfestspiele Berlin 1993: Goldener Ehrenbär für das Gesamtwerk Fotogramas de Plata 1982: Fotogramas de Plata für den besten (ausländischen) Film Fedora (1982), gemeinsam mit Atlantic City (1980) Sindacato Nazionale Giornalisti Cinematografici Italiani 1951: Nastro d’Argento für den besten Regisseur (ausländischer Film) in Boulevard der Dämmerung (1950) Los Angeles Film Critics Association Award 1994: Career Achievement Award Venedig Film Festival 1951: International Award für Reporter des Satans (1951) 1972: Goldener Löwe – Ehrenpreis American Film Institute 1986: AFI Life Achievement Award Walk of Fame (Jahr unbek.) Stern auf dem Walk of Fame, 1751 Vine Street Weitere Auszeichnungen und Ehrungen 1983: Großer Österreichischer Staatspreis für Filmkunst 1984: Ehrenmitglied der American Academy of Arts and Letters 1990: Kennedy-Preis des John F. Kennedy Center for the Performing Arts 1994: Goethe-Medaille des Goethe-Instituts 1997: Ehrenmedaille der Bundeshauptstadt Wien 1999: Berliner Bär (B.Z.-Kulturpreis) 2000: Ehrenbürger von Wien 2000: Ehrenmedaille der Universität für Musik und darstellende Kunst Wien 2000: Bundesverdienstkreuz Würdigung Zur 60-Jahr-Feier der Filmakademie Wien stiftete Rudolf John den „Billy Wilder Award“, der von der Filmakademie vergeben wird. Im Jahr 2003 legte die österreichische Post eine Sonderbriefmarke zu seinen Ehren auf. Von 2000 bis 2016 gab es direkt neben der Deutschen Kinemathek im Berliner Sony Center eine Bar namens „Billy Wilder’s“. Des Weiteren wurde im Berliner Bezirk Steglitz-Zehlendorf eine Straße mit dem Namen „Billy-Wilder-Promenade“ nach ihm benannt. Schriften und Gespräche Helmut Sorge: Gesellschaft: Es war wie in New York. Interview. In: Spiegel Special, Nr. 6, 1. Juni 1997. Cameron Crowe: Hat es Spaß gemacht, Mr. Wilder? (Originaltitel: Conversations with Wilder. Übersetzung von Rolf Thissen) Diana, München 2000, ISBN 3-8284-5031-8. Robert Horton: Billy Wilder. Interviews. University Press of Mississippi, Jackson (MS) 2001, ISBN 1-57806-444-9. Rolf Aurich, Andreas Hutter, Wolfgang Jacobsen, Günter Krenn (Hrsg.): „Billie“. B. W.s Wiener journalistische Arbeiten. Filmarchiv Austria, Wien 2006, ISBN 978-3-901932-90-8. Literatur (Auswahl) Sachbücher Charlotte Chandler: Nobody’s Perfect. Billy Wilder. A Personal Biography. Pocket Books, London u. a. 2003, ISBN 0-7434-6098-7. Cameron Crowe: Hat es Spass gemacht, Mr. Wilder? Gespräche mit Billy Wilder, Kampa Verlag, Zürich, 2019, ISBN 978-3-311-14008-5. Gerd Gemünden: Filmemacher mit Akzent. Billy Wilder in Hollywood. Synema, Wien 2006, ISBN 3-901644-20-2. Michael Hanisch: Billy Wilder (1906–2002). Von Galizien nach Beverly Hills (= Jüdische Miniaturen. Band 18). Stiftung Neue Synagoge Berlin, Centrum Judaicum. Hentrich und Hentrich, Teetz 2004, ISBN 3-933471-72-9. Glenn Hopp: Billy Wilder. Filme mit Esprit 1906–2002. Taschen, Köln 2003, ISBN 3-8228-1685-X. Andreas Hutter, Klaus Kamolz: Billie Wilder. Eine europäische Karriere. Böhlau, Wien u. a. 1998, ISBN 3-205-98868-X. Hellmuth Karasek: Billy Wilder. Eine Nahaufnahme. Aktualisierte und erweiterte Neuausgabe. Hoffmann und Campe, Hamburg 2006, ISBN 978-3-455-09553-1. Michaela Naumann: Billy Wilder – hinter der Maske der Komödie. Der kritische Umgang mit dem kulturellen Selbstverständnis amerikanischer Identität (= Marburger Schriften zur Medienforschung. Band 22). Schüren, Marburg 2010, ISBN 978-3-89472-724-6 (Dissertation, Universität Marburg, 2011). Claudius Seidl: Billy Wilder. Seine Filme, sein Leben. Heyne, München 1988, ISBN 3-453-00657-7. Ed Sikov: On Sunset Boulevard. The Life and Times of Billy Wilder. University Press of Mississippi, Jackson 2017, ISBN 978-1-4968-1268-1. Neil Sinyard, Adrian Turner: Billy Wilders Filme. Spiess, Berlin 1980, ISBN 3-89166-327-7. Kay Weniger: Das große Personenlexikon des Films. Die Schauspieler, Regisseure, Kameraleute, Produzenten, Komponisten, Drehbuchautoren, Filmarchitekten, Ausstatter, Kostümbildner, Cutter, Tontechniker, Maskenbildner und Special Effects Designer des 20. Jahrhunderts. Band 8: T – Z. David Tomlinson – Theo Zwierski. Schwarzkopf & Schwarzkopf, Berlin 2001, ISBN 3-89602-340-3, S. 385 ff. Kay Weniger: ‘Es wird im Leben dir mehr genommen als gegeben …‘. Lexikon der aus Deutschland und Österreich emigrierten Filmschaffenden 1933 bis 1945. Eine Gesamtübersicht. S. 537 ff., ACABUS-Verlag, Hamburg 2011, ISBN 978-3-86282-049-8 Maurice Zolotow: Billy Wilder in Hollywood. W. H. Allen, London 1977. Belletristik Jonathan Coe: Mr. Wilder and Me. Europa Editions, New York 2022, ISBN 978-1-60945-792-1. Filmdokumentationen Billy Wilder, wie haben Sie’s gemacht? Deutsche TV-Dokumentationsreihe (1988) von Volker Schlöndorff. Billy Wilder – Eine Menschliche Komödie (Originaltitel: AFI's 100 Years... 100 Movies: The Wilder Shores of Love). Amerikanische TV-Dokumentation (1998) von Robert Mundi (Buch) und Mel Stuart (Regie). „Du sollst nicht langweilen“: Billy Wilder. Französische TV-Dokumentation (2016) von André Schäfer und Jascha Hannover, 95 Minuten. Billy Wilder - Eine Hollywood-Legende. Französische TV-Dokumentation von Julia Kuperberg und Clara Kuperberg, ARTE F, 55 Minuten, 2016. Weblinks , Internationales Biographisches Archiv 20/2012 vom 15. Mai 2012 Michael Wenk: Ein Besuch beim alten Meister vom Hollywood-Boulevard. Zum 100. Geburtstag des unvergleichlichen Drehbuchautors und Filmregisseurs Billy Wilder. In: Neue Zürcher Zeitung, 17. Juni 2006 Andreas Hutter: «Billy wer …?». Ein Lokalaugenschein in Sucha, seinem Geburtsort in Polen. In: Neue Zürcher Zeitung, 17. Juni 2006 »In einem wiederaufgelegten Gesprächsband steht Billy Wilder … Rede und Antwort«, Neue Zürcher Zeitung, Juni 2019 Billy Wilder im Archiv der Österreichischen Mediathek Einzelnachweise Autor Person (Stummfilm) Drehbuchautor Filmregisseur Literatur (20. Jahrhundert) Literatur (Deutsch) Literatur (Englisch) Freimaurer (20. Jahrhundert) Freimaurer (21. Jahrhundert) Freimaurer (Österreich) Träger des Deutschen Filmpreises Träger des Europäischen Filmpreises Träger des Großen Bundesverdienstkreuzes mit Stern Träger des Großen Goldenen Ehrenzeichens für Verdienste um die Republik Österreich Träger der Ehrenmedaille der Bundeshauptstadt Wien in Gold Träger des Großen Österreichischen Staatspreises Mitglied der American Academy of Arts and Letters Österreichischer Emigrant zur Zeit des Nationalsozialismus Oscarpreisträger Golden-Globe-Preisträger Ehrenbürger von Wien Kunstsammler Österreichischer Emigrant in den Vereinigten Staaten Person (Cisleithanien) Person um Marilyn Monroe Österreicher US-Amerikaner Geboren 1906 Gestorben 2002 Mann
481
https://de.wikipedia.org/wiki/Barry%20Levinson
Barry Levinson
Barry Levinson (* 6. April 1942 in Baltimore, Maryland) ist ein US-amerikanischer Filmregisseur. Für Rain Man gewann er 1989 den Oscar in der Kategorie Beste Regie. Leben Der Sohn eines Kaufmanns studierte Rundfunk- und Fernsehjournalismus an der American University. Während seines Studiums hatte Levinson unterschiedliche Jobs beim Fernsehen in Baltimore. Um endgültig in der Film- und Fernsehbranche zu arbeiten, ging er ohne Abschluss nach Los Angeles und nahm Schauspielunterricht. Erste Jobs als Komödiant in Comedy-Clubs brachten ihn zum Schreiben von Drehbüchern. Anfang der 1970er Jahre begann er Drehbücher für Sitcoms und Kinofilme zu schreiben, die unter anderem von Mel Brooks realisiert wurden. Sein Debüt als Regisseur gab er dann 1982 mit American Diner. 1989 gewann er für Rain Man den Oscar für die beste Regie. Obwohl er in seiner Karriere auch immer wieder Flops wie Toys, Avalon oder Sphere – Die Macht aus dem All landete, gelangen ihm ebenfalls häufig spektakuläre Erfolge wie Rain Man und Banditen!. Viele seiner Filme spielen in Baltimore, der Stadt seiner Jugend: American Diner, Tin Men, Avalon und Liberty Heights. Im Jahr 1990 gründete er mit dem Produzenten Mark Johnson die Firma Baltimore Pictures. Barry Levinson ist zum zweiten Mal verheiratet und Vater zweier leiblicher Söhne. Sam Levinson ist als Drehbuchautor und Regisseur tätig. Filmografie Regie 1982: American Diner (Diner) 1983: Diner (Kurzfilm) 1984: Der Unbeugsame (The Natural) 1985: Das Geheimnis des verborgenen Tempels (Young Sherlock Holmes) 1987: Tin Men 1987: Good Morning, Vietnam 1988: Rain Man 1990: Avalon 1991: Bugsy 1992: Toys 1993: Enthüllung (Disclosure) 1993: Homicide (Homicide: Life on the Street, Fernsehserie, 2 Folgen) 1994: Jimmy Hollywood 1996: Sleepers 1997: Wag the Dog – Wenn der Schwanz mit dem Hund wedelt (Wag the Dog) 1998: Sphere – Die Macht aus dem All (Sphere) 1999: Liberty Heights 1999: The 20th Century: Yesterday`s Tomorrows 1999: Original Diner Guys 2000: Mit oder ohne – Was Männer haben sollten (An everlasting piece) 2001: Banditen! (Bandits) 2004: Neid (Envy) 2004: The Jury (Fernsehserie) 2004: Uniform Used to Mean Something… (Kurzfilm) 2006: Man of the Year 2008: Inside Hollywood (What Just Happened?) 2009: Ein Leben für den Tod (You Don't Know Jack, Fernsehfilm) 2010: PoliWood (Dokumentation) 2012: The Bay – Nach Angst kommt Panik (The Bay) 2014: The Humbling 2015: Rock the Kasbah 2017: The Wizard of Lies – Das Lügengenie (The Wizard of Lies, Fernsehfilm) 2018: Paterno 2021: The Survivor Produktion 1996: Donnie Brasco – Regie: Mike Newell 1998: Verliebt in Sally (Home Fries) – Regie: Dean Parisot 2000: Der Sturm (The Perfect Storm) – Regie: Wolfgang Petersen 2002: Besessen (Possession) – Regie: Neil LaBute 2006: Man of the Year – Regie: Barry Levinson 2021: The Survivor Drehbuch 1976: Mel Brooks’ letzte Verrücktheit: Silent Movie (Silent movie) – Regie: Mel Brooks 1977: Mel Brooks’ Höhenkoller (High Anxiety) – Regie: Mel Brooks 1979: … und Gerechtigkeit für alle (…And Justice for All) – Regie: Norman Jewison 1980: Max’s Bar (Inside Moves) – Regie: Richard Donner 1982: Zwei dicke Freunde (Best friends) – Regie: Norman Jewison 1982: American Diner (Diner) – Regie: Barry Levinson 1983: Bitte nicht heute nacht! (Unfaithfully Yours) – Regie: Howard Zieff 1987: Suspicion, der Verdacht (Suspicion) – Regie: Andrew Grieve 1987: Tin Men – Regie: Barry Levinson 1990: Avalon – Regie: Barry Levinson 1994: Jimmy Hollywood – Regie: Barry Levinson 2006: Man of the Year – Regie: Barry Levinson Auszeichnungen 1989 – Oscar für die beste Regie von Rain Man 1989 – Goldener Bär für Rain Man auf der Berlinale 1989 1998 – Silberner Bär für Wag the Dog auf der Berlinale 1998 1999 – Creative Achievement Award im Rahmen der American Comedy Awards 2005 – CineMerit Award des Filmfest München für Verdienste um die Filmkunst 2018 – Internationales Filmfestival Karlovy Vary – Právo Audience Award und Crystal Globe for Outstanding Artistic Contribution to World Cinematography Literatur Daniel Remsperger: [Artikel] Barry Levinson. In: Thomas Koebner (Hrsg.): Filmregisseure. Biographien, Werkbeschreibungen, Filmographien. 3., aktualisierte und erweiterte Auflage. Reclam, Stuttgart 2008 [1. Aufl. 1999], ISBN 978-3-15-010662-4, S. 439–441 [mit Literaturhinweisen]. Astrid Meirose und Volker Pruß: [Artikel] Diner. In: Thomas Koebner unter Mitarbeit von Kerstin-Luise Neumann (Hrsg.): Filmklassiker. Beschreibungen und Kommentare. Reclam, Stuttgart 1995, ISBN 3-15-030011-8, Bd. 4, S. 13–15. Weblinks Keiner kennt die Mächtigen Hollywoods – Interview mit Marco Schmidt bei faz.net, 26. März 2009 Einzelnachweise Filmregisseur Drehbuchautor Oscarpreisträger US-Amerikaner Geboren 1942 Mann
482
https://de.wikipedia.org/wiki/Bernardo%20Bertolucci
Bernardo Bertolucci
Bernardo Bertolucci (* 16. März 1941 in Parma; † 26. November 2018 in Rom) war ein italienischer Filmregisseur. Zwischen 1962 und 2012 inszenierte er 16 Spielfilme. Sein dem Geheimnis verpflichteter Erzählstil war oft opernhaft und melodramatisch und ließ Mehrdeutigkeiten viel Raum. Bertolucci inszenierte vielfach mit Bezugnahmen auf Musik, Malerei und Literatur. Zu seinen meistbeachteten Werken gehören Der große Irrtum/Der Konformist, Der letzte Tango in Paris, 1900 (Novecento) sowie Der letzte Kaiser. Leben Herkunft und Jugend Bertolucci wurde Anfang der 1940er Jahre in der Emilia-Romagna geboren. Die Familie wohnte außerhalb Parmas im ländlichen Dorf Baccanelli, wo er viel Kontakt mit den Kindern einfacher Bauern hatte. Seine Mutter war Lehrerin für Literatur, der Vater Attilio war ein landesweit bekannter Dichter und lehrte Kunstgeschichte. Bertolucci kam noch vor dem Schulalter mit Poesie in Berührung, die er alltäglich vermittelt bekam, denn die Gedichte des Vaters rankten sich oft um die häusliche Umgebung. Mit sechs Jahren begann Bernardo Gedichte zu schreiben. Daneben war der Vater als Filmkritiker für die Gazzetta di Parma tätig und fuhr regelmäßig nach Parma, um sich Filme anzusehen, über die er schreiben sollte. Oft nahm er Bernardo mit, der daraufhin „Parma“ mit „Kino“ gleichsetzte. Mit 15 Jahren drehte er zwei 16-mm-Amateurkurzfilme. Als die Familie nach Rom umzog, verlor er die Bezugspunkte und fühlte sich entwurzelt. Er hatte es nun mit Kindern aus dem Kleinbürgertum zu tun: „Was als gesellschaftlicher Aufstieg gedacht war, erlebte ich als Herabstufung des Lebenswandels, denn schließlich haben die Bauern etwas Älterhergebrachtes und daher Aristokratischeres als das Kleinbürgertum.“ In den ersten Jahren in Rom habe er die Stadt abgelehnt. Zum Freundeskreis der Familie zählte dort der Dichter und spätere Filmemacher Pier Paolo Pasolini. Der Vater arbeitete für einen Verleger und half Pasolini 1955, dessen ersten Roman und danach auch Gedichte zu veröffentlichen. Als Belohnung für den erfolgreichen Schulabschluss durfte Bertolucci 1959 einen Monat in Paris verbringen, wo er öfter die Cinémathèque française aufsuchte. Mit zwanzig habe er den Eindruck gehabt, es sei selbstverständlich, Filme zu drehen. Er brach sein Literaturstudium an der Universität Rom ab und wurde Regieassistent bei Pasolinis Erstling Accattone. Da Pasolini als Literat im Film unerfahren war und sich dessen Ausdrucksmittel erst aneignen musste, hatte Bertolucci dabei das Gefühl, der „Geburt der filmischen Sprache“ beizuwohnen. Im Jahr darauf veröffentlichte Bertolucci den Gedichtband In cerca del mistero und erhielt dafür bei einem der angesehensten Literaturpreise Italiens, dem Premio Viareggio, die Auszeichnung in der Sektion für das beste Erstlingswerk. Dennoch wandte er sich endgültig von der Schriftstellerei ab. Familie und Privatleben Bernardos jüngerer Bruder Giuseppe war Theaterregisseur. Sein Cousin Giovanni ist Filmproduzent und hat diese Funktion bei einigen seiner Filme wahrgenommen. Bernardo Bertolucci lernte bei der Entstehung von Accattone Adriana Asti kennen, die für die nächsten Jahre seine Lebensgefährtin wurde. Sie spielte in seinem zweiten Spielfilm Vor der Revolution die weibliche Hauptrolle.1980 heiratete er die britische Drehbuchautorin Clare Peploe. Bertolucci litt viele Jahre unter Rückenproblemen. Eine misslungene Bandscheibenoperation zwang ihn ab 2003 in den Rollstuhl. Dadurch wurde er der schlechten Situation für Rollstuhlfahrer in Rom gewahr, u. a. dadurch, dass dort viele öffentliche Gebäude nicht barrierefrei sind. 2012 rief er eine Kampagne zur Verbesserung der Lage ins Leben. Er erkrankte an Krebs, an dessen Folgen er am 26. November 2018 im Alter von 77 Jahren in Rom starb. Politische Haltung Wie mehrere andere bedeutende italienische Filmregisseure auch, etwa Pasolini, Visconti und Antonioni, bekannte sich Bertolucci zum Marxismus. Er erzählte, dass er von Kindheit an Kommunist gewesen sei, als er viel Zeit unter Bauern verbrachte. Zunächst aus sentimentalen Gründen; als die Polizei eines Tages einen Kommunisten erschoss, habe er sich für deren Seite entschieden. Er trat jedoch erst 1968 der Kommunistischen Partei bei. Trotz der marxistischen Einstellung sprach er sich für Individualismus aus. „Die wichtigste Entdeckung, die ich nach den Ereignissen vom Mai 1968 machte, war, dass ich die Revolution nicht für die Armen gewollt hatte, sondern für mich. Die Welt hätte sich für mich ändern sollen. Ich entdeckte den individuellen Aspekt politischer Revolutionen.“ Er grenzte sich von jenen unter den Marxisten ab, die dem Volk dienen wollen, und fand, es sei dem Volk am besten gedient, wenn er sich selber diene, denn nur dann könne er Teil des Volkes sein. Kino, auch politisches, habe keine politischen Auswirkungen. Ende der 1970er Jahre sprach er von Schuldgefühlen, sich nicht genügend am Leben der Partei zu beteiligen. Schöpferischer Ansatz und Stil Zu Beginn seines filmischen Schaffens postulierte Bertolucci: „Ich sehe keinen Unterschied zwischen Kino und Gedichten. Damit meine ich, dass es von der Idee zum Gedicht keine Vermittlung gibt, so wie keine zwischen einer Idee und einem Film besteht.“ Bereits die Idee selbst müsse poetisch sein, sonst könne keine Poesie entstehen. Später schwächte er diese Aussage ab, indem er postulierte, der Film sei dem Gedicht näher als dem Roman. Als er im Alter von 15 Jahren mit einer 16-mm-Kamera bei den Bauern eine traditionelle Schweineschlachtung filmte, stach der Schlachter am Herz vorbei und das toll gewordene Tier entwand sich. Es rannte blutend über den verschneiten Hof, was selbst in Schwarzweiß imposant erschien und in ihm die Überzeugung weckte, beim Drehen dem Zufall so viel Raum wie möglich zu gewähren. Die Drehbücher betrachtete er nur als Skizzen, die er beim Drehen ebenso an die Schauplätze anpasste wie an die Darsteller, die sich nicht in die geschriebenen Figuren verwandeln sollten. Der visuelle Stil seiner Filme ist gekennzeichnet von langen Kamerafahrten und sehr bewusst gestalteten Farben. Bildausschnitte und Kamerabewegungen legte er als Bestandteil seines Regiestils, seiner persönlichen „Handschrift“ jeweils selbst fest. Sein langjähriger Kameramann Vittorio Storaro, zwischen 1969 und 1993 an acht Werken beteiligt, war nur für die Beleuchtung zuständig. Typisch für Bertoluccis Erzählstil sind Bezüge zu Werken der Malerei, der Oper, der Literatur und des Films oder Zitate daraus. Der Vorspann einiger seiner Filme besteht aus der Einblendung eines oder mehrerer Gemälde. Sämtliche Filme bis 1981 enthalten eine Tanzszene, von denen manche der Handlung eine neue Wendung geben. Die Tänze drücken politische oder sexuelle Konflikte aus, dabei stehen ausgelassener Freudentaumel und strenger Regelgehorsam einander gegenüber. Häufig wird sein Stil als der Oper verwandt beschrieben, weil er deren zur Schau gestellte Melodramatik und musikalische Lyrik anklingen lässt und ganze Handlungen von Verdi-Opern inspiriert sein können. Das Singen von Arien und andere Anspielungen auf Verdi dienen als ironischer Kommentar zum Geschehen. Seine Filme fallen in die unterschiedlichsten Genres, wenn der Genre-Begriff überhaupt angemessen ist. Die Schlüsse seiner Werke sind, zum Missfallen vieler Zuschauer, meist offen, „Rückzüge, Auflösungen ins Unwirkliche, um keinen Punkt setzen zu müssen.“ Die vordergründige Handlung ist von untergeordneter Bedeutung, sofern sie im Einzelnen überhaupt nachvollziehbar ist. Inhaltliche Schwerpunkte Autobiografische Elemente haben häufig Eingang in Bertoluccis Filme gefunden; dennoch entwickelte er Drehbücher oft mit Koautoren. Er gewährte unzählige Gespräche, bevorzugt mit Filmfachzeitschriften, in denen er seine Werke und seine darin verfolgten Absichten erklärte. Oft zeigte er die Einflüsse in seinen Filmen auf, solche aus der Kunst wie aus seinem persönlichen Leben und aus seiner Psychoanalyse. Er bemühte sich, als Autor seiner Filme wahrgenommen zu werden. Mehrdeutigkeit In Mehrdeutigkeiten, Widersprüchen und Paradoxa sah Bertolucci etwas Positives, weil Freiheit total sein müsse, sogar wenn dies zu inkohärenten Haltungen führe. „Wir sollten gegen das arbeiten, was wir gemacht haben. Man macht etwas, dann widerspricht man dem, dann widerspricht man dem Widerspruch und so weiter. Lebendigkeit entsteht genau kraft der Fähigkeit, sich selber zu widersprechen …“ Der Titel seines einzigen veröffentlichten literarischen Werks, des Gedichtbandes In cerca del mistero, bedeutet „Auf der Suche nach dem Geheimnis“. Diese Suche zog sich durch sein ganzes filmisches Schaffen. Er bewegte sich sowohl in der erfahrbaren Welt wie auch im Traum, lotete die Beziehung zwischen Vergangenheit und Gegenwart aus, zwischen dem, was man ist, und dem, was man zu sein hat. „Er jongliert zwischen den Genres, Stilen und Theorien und mischt zu jedem Spiel die Karten aufs Neue.“ Er spielte mit allen Formen, meidet Einförmigkeit und versucht beständig Neues, das erstaunt und befremdet. Er wollte für sein Publikum möglichst unvorhersehbar sein und es überraschen, wie er auch sich selbst von Werken anderer gerne überraschen ließ. Überzeugt, dass ein Film erst durch den Zuschauer vollendet werde, hielt er jede Deutung eines Werkes für richtig. Bertolucci war Kosmopolit, was sich insbesondere in seinen internationalen Großproduktionen ausdrückte, die auf vier Kontinenten spielten. „Bertoluccis Protagonisten sind Gefangene, die aus ihrer Heimat ausbrechen können, aber noch in der Fremde Gefangene ihrer Sehnsucht werden.“ Identität und Doppelgängermotiv In mathematischen Größen wäre sein Werk durch die Zahl 2 am besten umschrieben, geometrisch durch die Ellipse, die statt eines einzigen Zentrums deren zwei hat. Der Zuschauer, gewohnt seine Aufmerksamkeit auf einen Punkt zu richten, ist gezwungen, zwei Zentren zu beachten. Bertolucci stellte häufig Identitäten infrage; wiederholt tauchen die Motive der Schizophrenie, gespaltener Persönlichkeiten und des Doppelgängers auf. So manche Figuren führten parallele Leben oder wurden vom selben Schauspieler verkörpert. Am offensichtlichsten ist das Prinzip in Partner, das auf Dostojewskis Roman Der Doppelgänger basiert. Auch in der Strategie der Spinne spielt derselbe Darsteller zwei Rollen, Vater und Sohn. Die beiden Figuren Olmo und Alfredo in 1900 sind am selben Tag geboren und Bertolucci unterzog ihre parallel geschilderten Leben einem Vergleich. In den Träumern kommt ein Zwillingspaar vor, ein Bruder und eine Schwester, die voneinander nicht loskommen. Aber auch Ereignisse innerhalb eines Films fanden oft in gewandelter Form zweimal statt. Manchmal enthielten die Bilder Spiegelungen, und Wirklichkeit und Einbildung bestanden nebeneinander. In Bertoluccis Universum war eben auch nichts einzigartig. Vergänglichkeit und Tod In Bertoluccis Universum ist nichts fest. Menschen, Gesellschaften, Situationen und die Moral sind allmählichen Verwandlungen unterworfen und vergänglich. Großen Raum nehmen Alterung und körperlicher Verfall ein. Der Tod ist nicht ein brutal eintretender Endpunkt des irdischen Lebens, sondern innerhalb des Lebens präsent als eine in zahlreiche Fragmente zerstückelte Agonie, „ein langer, keuchender Schrei.“ Bertolucci zitierte den Ausspruch, Film zeige den Tod bei der Arbeit. Grundlage aller Poesie sei das Vergehen von Zeit. In auffallend vielen Titeln seiner Filme kommt die Zeit vor, am offensichtlichsten in Vor der Revolution und 1900. Der Mond in La Luna ist für die Gezeiten verantwortlich. Es gibt den Letzten Tango und den Letzten Kaiser, und der Tod ist präsent in Todeskampf und La Commare Secca. Ödipale Konflikte mit Vaterfiguren Seine Figuren unterliegen oft einem Determinismus und können der Vergangenheit nicht entkommen. Es sind zum Beispiel junge Menschen, die aus ihrer Familie und sozialen Klasse ausbrechen wollen, aber unweigerlich nach den Mustern der Vergangenheit leben. Ihnen steht eine männliche Autoritätsfigur gegenüber, die gemischte Gefühle hervorruft und die sie letztlich ablehnen. Die aufbegehrenden Söhne erringen nur vorübergehend Siege, die Strategien der Väter überdauern. Der Vatermord taucht als Motiv mehr oder minder offen in fast allen Filmen der ersten Schaffenshälfte auf. Bertolucci hatte es in jungen Jahren mit mehreren Vaterfiguren zu tun, die auf sein Leben und Werk Einfluss hatten, von dem er sich befreien wollte. Sein Vater Attilio Bertolucci war ein in Italien bekannter Dichter. Zwar veröffentlichte Bernardo Bertolucci einen eigenen Gedichtband, doch blieb dieser sein einziges literarisches Werk. Er habe mit dem Vater wettstreiten wollen und dann gespürt, dass er den Kampf verlieren würde. Daher sei er auf ein anderes Gebiet ausgewichen, das Kino. Ein anderes Mal begründete er das Ende seiner dichterischen Arbeit damit, in Gedichten und in Filmen nicht dasselbe mitteilen zu wollen. Die zweite Figur war Pier Paolo Pasolini. Er wohnte einige Jahre im selben Gebäude; der junge Bernardo war mit ihm befreundet und las ihm regelmäßig seine Gedichte vor; es entwickelte sich eine Beziehung wie zwischen Lehrer und Schüler. Diese setzte sich fort, als ihn Pasolini 1961 zu seinem Regieassistenten ernannte. Stilistisch blieb Pasolinis Einfluss bescheiden. Die künstlerisch beherrschende Gestalt war der französische Filmregisseur Jean-Luc Godard. Die Filme aus Bertoluccis ersten zwei Jahrzehnten sind von einer ästhetischen und politischen Auseinandersetzung mit Godard und seinem Werk geprägt. Während er Godards Einfluss in Vor der Revolution und Partner feierte, verwirklichte er in der Strategie der Spinne einen eigenen Stil und schritt darauf im Film Der große Irrtum zum symbolischen Vatermord. Im Letzten Tango in Paris schließlich karikierte er Godards und seine eigene Kinomanie in der Figur des Jungfilmers Tom. Godard radikalisierte sich Ende der 1960er Jahre politisch wie filmästhetisch und stand Bertoluccis Hinwendung zu konventionelleren Großproduktionen ablehnend gegenüber. Bertolucci nannte Ende der 1960er Jahre Pasolini und Godard als seine bevorzugten Regisseure, zwei große Poeten, die er sehr bewunderte, und daher habe er gegen beide anfilmen wollen. Denn um Fortschritte zu erzielen und um anderen etwas geben zu können, müsse man mit jenen kämpfen, die man am meisten liebe. Frauen als Nebenfiguren Bertolucci thematisierte häufig die Unterdrückung von Söhnen durch Väter beziehungsweise durch das Patriarchat. Im Mittelpunkt des narrativen und emotionalen Geschehens stehen männliche Figuren, während die weiblichen Rollen Ableitungen männlicher Ängste und Hassgefühle sind. Es sind oft niedere oder gar destruktive Rollen, die meist eine sexualisierte Funktion innerhalb der Erzählung einnehmen. An der Figur Caterina in La Luna offenbarte Bertolucci seine Sicht, dass sich kreative Arbeit und Muttersein nicht erfolgreich vereinbaren lassen. Die Frauen haben in der Regel keine intellektuellen Interessen und leben für Instinkte und sinnliches Vergnügen. Es sind die männlichen Figuren, die leiden und diese Leiden geistig verarbeiten. Filmische Laufbahn Anfangsjahre (bis 1969) Die ersten Jahre seines filmischen Schaffens waren geprägt von der Suche nach einem eigenen Stil und eigenen Themen. Im Alter von nur 21 Jahren erhielt Bertolucci überraschend die Gelegenheit, einen ersten Film zu drehen. Nach dem Erfolg von Pasolinis Film Accattone war der Produzent darauf aus, eine seiner Kurzgeschichten zu verfilmen. Da sich Pasolini bereits dem Projekt Mamma Roma zugewandt hatte, beauftragte der Produzent mit der Ausarbeitung des Stoffes zu einem Drehbuch einen anderen Autor und Bertolucci, dem das dargestellte Milieu römischer proletarischer Kleinkrimineller fremd war. Dennoch bemühte er sich, den Erwartungen des Produzenten nach einem „pasolinesken“ Produkt gerecht zu werden. Nach Fertigstellung bot ihm der Produzent auch die Regie an. Bertolucci versuchte, La Commare Secca (1962) zu „seinem“ Film zu machen durch einen eigenen Stil, der von Pasolini unbeeinflusst sei. Besonders auffällig sind die zahlreichen Kamerafahrten, von denen der mitwirkende Kameramann behauptete, er hätte noch in keinem Film so viele durchzuführen gehabt. In dieser Zeit sah er sich nie ganz dem italienischen Kino zugehörig; näher stand er der französischen Kinematografie, die er am interessantesten fand. Mit der Presse sprach er bevorzugt auf Französisch, weil es die Sprache des Kinos sei. Bei seinem zweiten Film Vor der Revolution (1964), produziert von einem filmbegeisterten Mailänder Industriellen, konnte er ein eigenes, persönliches Thema behandeln: die Schwierigkeit eines Intellektuellen bürgerlicher Herkunft, gleichzeitig Marxist und für die proletarischen Massen da zu sein, die Angst, auf das eigene Milieu zurückgeworfen zu werden, weil die Wurzeln so stark seien. Er habe für diese Angst vor der eigenen Feigheit noch keine Lösung gefunden, erklärte er später, die einzige Möglichkeit sei, sich der Dynamik und „unglaublichen Vitalität“ des Proletariats anzuschließen, der echten revolutionären Kraft auf der Welt. Der Stil verrät stilistische Einflüsse von Godard und Antonioni. Das Werk wurde in Italien kaum aufgeführt und erntete dort meist ablehnende Kritiken, während das Echo der internationalen Filmkritik besser war. Beim Dreh begegnete er erstmals Vittorio Storaro, der als Kameraassistent mitwirkte. Storaro hatte den Eindruck, dass Bertolucci ein ungeheures Wissen hatte, besonders für jemanden in seinem Alter, jedoch auch viel Überheblichkeit zeigte. In den folgenden Jahren lehnte Bertolucci immer wieder Angebote ab, Italowestern zu drehen. Er wollte keine Kompromisse eingehen und nicht wie manch anderer Regisseur Filme drehen, an die er nur halb glaubte. So vergingen mehrere Jahre, ohne dass er einen langen Spielfilm verwirklichen konnte. Aus dieser Zeit zu verzeichnen sind lediglich die Mitarbeit am Drehbuch von Spiel mir das Lied vom Tod, eine Fernsehdoku über den Öltransport sowie der Kurzfilm Todeskampf, ein Beitrag zum Episodenfilm Liebe und Zorn. Das filmische Ideal, das er in den 1960er Jahren verfolgte, war ein Kino, das vom Kino handelte, die eigene Sprache reflektierte und erneuerte, im Geiste Godards. Die Filme sollten sich ihrer selbst bewusst sein und das Publikum, das von Film nichts verstehe, lehren. Seine Drehbücher verfasste er damals zusammen mit Gianni Amico, mit dem er die Weltanschauung teilte und der ihn in einer cinéphilen, experimentellen, das gewöhnliche Publikum wenig berücksichtigenden Arbeitsweise bestärkte. So entstand auch Partner, wo er inhaltlich und formal Godard imitierte. Der wirre Film stieß auf wenig Verständnis; recht bald distanzierte er sich vom „neurotischen“, „kranken“ Nebenwerk. Später fand er, dass seine intensive Beschäftigung mit Filmsprache ihn zu stilistischer Arroganz verleitet hatte und dass er nach Partner ein großes Verlangen nach Publikum für seine Filme verspürte. Er stürzte in eine tiefe Depression und begann 1969 eine Psychoanalyse. Diese wurde zu einem kreativen Motor und half ihm, sich von den „kranken Theorien“, wie er sie nannte, zu befreien, die sein frühes Schaffen stilistisch geprägt haben. Zwischen der Analyse und der Arbeit bestand eine Ersatzbeziehung: „Wenn ich einen Film drehe, fühle ich mich wohl und brauche keine Analyse.“ Eine erste Frucht seiner neuen Methode war Die Strategie der Spinne, die er 1969 fürs italienische Fernsehen drehte. Erstmals war Vittorio Storaro für das Licht verantwortlich; Bertolucci sollte fortan für über zwei Jahrzehnte mit ihm arbeiten und sie verband eine enge Freundschaft. Die beiden entwickelten eine unverwechselbare Bildsprache, Bertoluccis spezifischer visueller Stil kam erstmals unverfälscht von Godards Einfluss zur vollen Entfaltung. Dabei befasste er sich mit seinen bevorzugten Themen wie der Verknüpfung von Geschichte und Geschichtsschreibung mit der Gegenwart, dem Ringen des Sohnes mit dem Vater, gespaltenen Identitäten, Faschismus und Widerstand. Internationale Großproduktionen (1970–1976) Mit dem Großen Irrtum, auch bekannt als Der Konformist, betrat Bertolucci die Bühne der internationalen Großproduktionen. Der Film wurde in Frankreich und Italien in geschichtlichen Kulissen aufwendig gedreht, mit dem Star Jean-Louis Trintignant in der Hauptrolle. Wieder lotete er Italiens faschistische Vergangenheit aus und konstruierte einen psychosexuellen Erklärungsansatz für das Handeln der Hauptfigur. Das Werk zeichnet sich durch eine zeitlich fragmentierte Handlung und einen visuellen Stil aus, der inhaltliche Aussagen mit Hilfe des eingesetzten Lichts unterstreicht. Der große Erfolg etablierte Bertolucci als Filmemacher von Weltrang. Mit dem Großen Irrtum begann Bertoluccis Zusammenarbeit mit Franco Arcalli, die bis zu dessen Tod 1978 andauerte. Dank Arcalli erkannte er, dass er mit dem Schnitt neue Sichtweisen gewinnen kann. Da er Arcalli als stimulierend und ideenreich erlebte, der Schnitt gleichsam zu einer Revision des Drehbuchs geriet, avancierte Arcalli auch zum Drehbuchautor. Einen weiteren Höhepunkt erreichte Bertolucci mit dem Drama Der letzte Tango in Paris (1972), mit Marlon Brando in der Hauptrolle. Der nur vordergründig unpolitische Film schildert den Daseinsschmerz eines Mannes im mittleren Alter und sein Leiden an der Unterdrückung des Lustprinzips in der westlichen Kultur. Wegen seiner drastischen, unverblümten Darstellung von Sex war der Film ein beherrschendes Gesprächsthema. Die Skandalisierung und Zensurversuche bewirkten einen enormen Kassenerfolg, in den USA blieb er auf Jahre hinaus der einträglichste europäische Film. Mit diesen Erfolgen im Rücken konnte Bertolucci ein Vorhaben in Angriff nehmen, das oft als größenwahnsinnig beschrieben wird: die Erzählung eines halben Jahrhunderts italienischer Geschichte in dem über fünfstündigen 1900. Von den US-amerikanischen Filmstudios war der Film auf sieben Millionen US-Dollar veranschlagt, und am Ende kostete er über acht Millionen. Obwohl ganz in Italien angesiedelt, werden mehrere Rollen von internationalen Stars gespielt, darunter Burt Lancaster, Gérard Depardieu, Donald Sutherland, Dominique Sanda und Robert De Niro. Es ist ein Hohelied auf die bäuerliche Schicht und auf den Kommunismus. Der Film überraschte die Kritik mit seiner konventionellen Form; Bertolucci wählte bewusst eine ans Massenkino angelehnte einfache und emotionale Filmsprache, um seine Botschaft breiter streuen zu können. Wegen des politischen Gehalts wollten die Studios 1900 in den Vereinigten Staaten nicht wie vorgesehen in den Vertrieb nehmen. Um die zu veröffentlichende Fassung kam es zu einem auch gerichtlich ausgetragenen Streit zwischen Bertolucci, dem Produzenten Grimaldi und den Studios. Diese setzten für die US-Version starke Kürzungen durch, werteten den Film dort kaum aus, und bei der US-Kritik stieß das Werk als Propaganda auf völlige Ablehnung. In Europa lief es nur leicht gekürzt. Bertolucci erkannte später den Widerspruch zwischen den kapitalistischen, multinationalen Produktionsbedingungen und der naiven, lokal verwurzelten utopischen Vision. Kleinere Produktionen (1977–1982) Mehrere geplante Filmprojekte, darunter die Verfilmung von Dashiell Hammetts Roman Red Harvest, scheiterten daran, dass er Produzenten nicht von ihnen überzeugen konnte. Er wollte seinen ersten amerikanischen Film auf Basis eines Klassikers der US-Literatur machen. Das Projekt kam für ihn nur als politischer Film infrage, die amerikanischen Produzenten hatten jedoch kein Verständnis für seine Lesart des Romans. Bei der Dimensionierung seiner nächsten beiden Filmprojekte musste Bertolucci viel bescheidener sein. Das Drama La Luna (1979) um eine inzestuöse Mutter-Sohn-Beziehung entstand mit einem wesentlich kleineren Budget und wenigen Darstellern. Gedreht wurde vor allem in Rom, teilweise auch in Parma und New York, und in den Hauptrollen ist es mit US-amerikanischen Darstellern besetzt. Bertolucci hat darauf hingewiesen, dass es in diesem Werk kein ständiges Fragen nach dem Wesen von Film und Kino mehr gibt; La Luna schäme sich nicht des Vergnügens. Doch genau dieses Beharren auf einem konventionellen, konsumierbaren Erzählstil enttäuschte die Kritik. Noch stärker auf seine Heimatregion um Parma konzentriert blieb er in der Tragödie eines lächerlichen Mannes (1981), wo er die nebulöse politische Lage in Italien in den Vordergrund rückte. Bis auf Anouk Aimée mit Italienern besetzt und in italienischer Sprache, war es innerhalb des Vierteljahrhunderts seiner Zusammenarbeit mit Storaro der einzige Streifen, für den er einen anderen Kameramann beizog. Dem metafilmischen Diskurs ließ er so viel Raum wie seit Partner nicht mehr und verweigerte dem Publikum eine nachvollziehbare Handlung und die Identifikation mit einer Figur. Das Werk rief bei der Kritik sehr unterschiedliche Bewertungen hervor – einige stellten eine resignative Haltung fest – und fand beim Publikum kaum Beachtung. Manche Filmpublizisten, die sein ganzes Werk überblicken, meinen, die Tragödie sei das möglicherweise am meisten unterschätzte Werk Bertoluccis. Andere Kulturkreise (1983–1993) Zu Beginn der 1980er Jahre zeigte sich Bertolucci sehr enttäuscht von Italien und dem politischen System. Er verlor auch das Interesse an der Gegenwart. Das führte ihn auf die Suche nach etwas ganz anderem und die Besonderheiten nicht-westlicher Kulturen. Als Ergebnis drehte er, wieder mit Storaro, drei Filme, in denen er seine Themen vor dem Hintergrund Chinas, Nordafrikas und des Buddhismus behandeln konnte. Diese drei Filme haben gemein, dass der Regisseur gegenüber Vaterfiguren versöhnlicher geworden war, die nun als Lehrer und Weise erschienen. Das erste Projekt war Der letzte Kaiser (1987), bei dem er als cineastischer Marco Polo das Leben des letzten chinesischen Kaisers Pu Yi nachzeichnete – zum ersten Mal hatte es die chinesische Regierung einer westlichen Filmproduktion erlaubt, in der Verbotenen Stadt zu drehen. Mit seinem Erfolg bei Kritik und Publikum stellt das mit Auszeichnungen überhäufte Geschichtsdrama einen weiteren Höhepunkt in Bertoluccis Schaffen dar. Der darauffolgende Film Himmel über der Wüste (1990) führte ihn nach Marokko und in die Sahara und ist mit den Stars Debra Winger und John Malkovich besetzt. Er handelt von einem Paar, das vor der westlichen Zivilisation flüchtet und in der Begegnung mit dem Fremden und der Sahara seine Identität verliert. Die Kritik war sich nicht einig, wie gut Bertolucci Themen und Figuren des Romans von Paul Bowles getroffen hat; doch selbst einige der negativen Kritiken bescheinigten dem Werk, sein Blick auf die Landschaften und Städte Nordafrikas sei sinnlich und überwältigend. Die dritte der „exotischen“ Produktionen ist Little Buddha aus dem Jahr 1993, mit dem sich Bertolucci an Kinder jeden Alters wenden wollte. Es ergründet Buddhismus und Reinkarnation. Viele Kritiker empfanden das Werk als zu einfach und vermissten die Vielschichtigkeit seiner bisherigen Werke. Es war sein erster Film, der nicht um einen Konflikt politischer, psychologischer oder zwischengeschlechtlicher Art gebaut ist. Der Regisseur bezeichnete sich als skeptischen Amateur-Buddhisten, als nur an der ästhetischen und poetischen Seite dieser Philosophie interessiert. Nach dem Untergang der kommunistischen Utopie des gewohnten Raums für Träume verlustig gegangen, fand er im Buddhismus ein neues inspirierendes Feld. Die Umstellung sei ihm leichtgefallen, denn der Buddhismus habe mit Marx und Freud gemein, dass sie alle nicht Gottheiten, sondern den Menschen in den Mittelpunkt stellen. Spätwerk (ab 1994) Als er die fünfzig überschritten hatte, waren Konflikte mit Vaterfiguren kein wichtiger Bestandteil mehr. Die Themen seiner früheren Filme kommen in Gefühl und Verführung (1995) zwar in Gestalt melancholisch zurückgezogener 68er vor, doch die Hauptfigur ist ein junges unerfahrenes Mädchen. Sein nächstes Werk, das Kammerspiel Shandurai und der Klavierspieler (1998), fand bei der Kritik viel Zustimmung, doch in Deutschland zunächst keinen Verleih. Es gelangte erst in die Kinos, als das Interesse an Bertolucci mit dem kommerziellen Erfolg der Träumer 2003 wieder erwachte. Die Träumer sind drei junge Menschen, die in Paris 1968 eine Dreierbeziehung leben und sich von den Ereignissen auf der Straße abkapseln. Bertoluccis Spätwerke ernteten bei einem Teil der Kritik den Vorwurf, Film gewordene Altherrenfantasien zu sein, bei denen er sich an den Körpern junger Frauen delektierte. Nach den Träumern konnte er fast zehn Jahre lang keinen weiteren Film vollenden. Das Projekt Bel Canto, die Verfilmung des gleichnamigen Romans von Ann Patchett über eine Geiselnahme in Südamerika, musste auf unbestimmte Zeit verschoben werden. 2007 wandte er sich einem anderen Vorhaben zu, einem Drama über den italienischen Musiker Carlo Gesualdo, der im 16. Jahrhundert lebte und mordete. Erst 2012 wurde mit Ich und Du (Io e te) seine erste Spielfilmregiearbeit nach zehn Jahren Pause außer Konkurrenz bei den Filmfestspielen von Cannes uraufgeführt. Im Frühjahr 2018 bekundete Bertolucci, er wolle einen Film über die Liebe und damit verbundene Kommunikationsprobleme drehen, allerdings kam es nicht mehr dazu. Filmografie → Erweiterte Filmografie 1962: La Commare Secca 1964: Vor der Revolution (Prima della rivoluzione) 1968: Partner 1969: Todeskampf (Agonia), Episode aus Liebe und Zorn (Amore e rabbia) 1970: Die Strategie der Spinne (La strategia del ragno) 1970: Der große Irrtum (Il conformista) 1972: Der letzte Tango in Paris (Ultimo tango a Parigi) 1976: 1900 (Novecento) 1979: La Luna 1981: Die Tragödie eines lächerlichen Mannes (La tragedia di un uomo ridicolo) 1987: Der letzte Kaiser (The Last Emperor) 1990: Himmel über der Wüste (The Sheltering Sky) 1993: Little Buddha 1996: Gefühl und Verführung (Stealing Beauty) 1998: Shandurai und der Klavierspieler (L’assedio) 2003: Die Träumer (I sognatori) 2012: Ich und Du (Io e te) Darüber hinaus hat Bertolucci einige Kurz- und Dokumentarfilme gedreht. Auszeichnungen Neben dem 1962 gewonnenen Premio Viareggio für seinen Gedichtband In cerca del mistero (Bestes Erstlingswerk) erhielt Bertolucci im Laufe seiner Karriere 49 Film- und Festivalpreise, darunter zwei Oscars und zwei Golden Globe Awards für Der letzte Kaiser. Für 32 weitere Auszeichnungen war er nominiert. Eine Auswahl der gewonnenen Preise und Auszeichnungen, inklusive einiger Nominierungen: Filme 1970: Interfilm-Preis (Lobende Erwähnung) bei den Internationalen Filmfestspielen Berlin für Der große Irrtum 1970: Sutherland Trophy des British Film Institute für Der große Irrtum 1971: National Society of Film Critics Award für Der große Irrtum (Beste Regie) 1972: Oscar-Nominierung für Der große Irrtum (Bestes adaptiertes Drehbuch) 1973: Nastro d’Argento für Der letzte Tango in Paris (Beste Regie) 1974: Golden-Globe-Nominierung für Der letzte Tango in Paris (Beste Regie) 1974: Oscar-Nominierung für Der letzte Tango in Paris (Beste Regie) 1977: Bodil für 1900 (Bester europäischer Film) 1988: César für Der letzte Kaiser (Bester ausländischer Film) 1988: Zwei David di Donatello für Der letzte Kaiser (Beste Regie, Bestes Drehbuch – gemeinsam mit Mark Peploe) 1988: Directors Guild of America Award für Der letzte Kaiser (Beste Spielfilmregie) 1988: Europäischer Filmpreis für Der letzte Kaiser (Spezialpreis der Jury) 1988: Gilde-Filmpreis für Der letzte Kaiser (Bester ausländischer Film) 1988: Zwei Golden Globe Awards für Der letzte Kaiser (Beste Regie, Bestes Drehbuch – gemeinsam mit Mark Peploe) 1988: Nastro d’Argento für Der letzte Kaiser (Beste Regie) 1988: Zwei Oscars für Der letzte Kaiser (Beste Regie, Bestes adaptiertes Drehbuch – gemeinsam mit Mark Peploe) 1989: British Academy Film Award für Der letzte Kaiser (Bester Film – gemeinsam mit Jeremy Thomas) 1989: Kinema-Jumpō-Preis für Der letzte Kaiser (Bester fremdsprachiger Film) 1991: Golden-Globe-Nominierung für Himmel über der Wüste (Beste Regie) 1994: Goldene Kamera für Little Buddha (Film – International) 1998: Freedom of Expression Award des National Board of Review (für die Veröffentlichung des Director’s Cut von Der letzte Kaiser) 2013: Nastro d’Argento für Ich und Du (gemeinsam mit dem übrigen Filmstab) Gesamtwerk 1997: Ehrenleopard des Filmfestivals von Locarno 1998: British Film Institute Fellowship 2007: Goldener Ehrenlöwe der Filmfestspiele von Venedig (als „vielleicht berühmtester italienischer Regisseur der Gegenwart, und einer der wichtigsten und einflussreichsten in der Geschichte des Kinos“) 2008: Stern auf dem Hollywood Walk of Fame (offizielle Einweihung im November 2013 am 6925 Hollywood Blvd.) 2011: Ehrenpalme der Filmfestspiele von Cannes 2012: Europäischer Filmpreis für ein Lebenswerk Filminterviews 2013 hatte der Dokumentarfilm Bertolucci on Bertolucci von Walter Fasano und Luca Guadagnino auf dem Filmfestival in Venedig Premiere. Der Film beruht auf Interviews, die Bertolucci im Lauf von 50 Jahren gegeben hat. Bernardo Bertolucci: Der Regisseur, der gerne mit jungen Menschen dreht. Gespräch mit Video-Einspielungen, Frankreich, Deutschland, 2013, 43:30 Min., Moderation: Vincent Josse, Produktion: arte, Reihe: Square, Erstsendung: 27. Oktober 2013 bei arte. Weblinks Essay über die Arbeit von Bernardo Bertolucci in: senses of cinema, 2004 (englisch) La prima intervista della TSI a Bernardo Bertolucci (italienisch) auf lanostrastoria.ch/entries/ Einzelnachweise Filmregisseur Drehbuchautor PCI-Mitglied Oscarpreisträger Golden-Globe-Preisträger Träger des Europäischen Filmpreises Träger des Verdienstordens der Italienischen Republik (Großoffizier) Person (Parma) Italiener Geboren 1941 Gestorben 2018 Mann
484
https://de.wikipedia.org/wiki/Liste%20von%20Videofachbegriffen
Liste von Videofachbegriffen
Alphabetische Aufstellung der im Videobereich verwendeten Fachbegriffe mit deren Abkürzung. A Antialiasing – Kantenglättung AR – Accurate Recording AVCHD – Video- und Audio-Aufzeichnungsformat AVI – Audio Video Interleave B BAS – Bild-Austast-Synchron-Signal Bandgeschwindigkeit – Vorschub des Magnetbandes in Strecke auf Zeit (ursprünglich IPS, umgerechnet in cm/s) Betacam – Videoformat, im SD-Broadcastbereich verbreitet Betamax Bildauflösung – Anzahl der Pixel = Breite × Höhe Blu-ray Disc – Nachfolger der DVD-Video BNC-Stecker Breitbildfernsehen – 16:9 Bildformat / Anamorph C Codec – Coder / Decoder Composite Video Compositing Control-L CRID – Content Reference Identifier D DFT – Diskrete Fourier-Transformation DCT – Diskrete Cosinustransformation DivX – Digital Video Express DV – Digital Video DVCAM DVCPRO DVB – Digital Video Broadcasting DVB-C – Digital Video Broadcasting – Cable DVB-S – Digital Video Broadcasting – Satellite DVB-T – Digital Video Broadcasting – Terrestrial DVB-H – Digital Video Broadcasting – Handheld. DVB-M oder auch DVB-X DVD-Video – Digital Versatile Disc – Video (* .vob) DVD DVI – Digital Visual Interface DVD-Authoring E ePTZ – Electronic Pan, Tilt, Zoom (elektronisch schwenken, neigen, zoomen) F FBAS – Farb-Bild-Austast-Synchron-Signal H Halbbild HDCAM HDTV – High Definition Television HD DVD – geplanter Nachfolger der DVD-Video, hat sich nicht gegen Blu-ray Disc durchgesetzt Hi8 HDMI – High Definition Multimedia Interface HD-SDI – High Definition Serial Digital Interface HDV – High Definition Video I Interlacing – siehe Zeilensprungverfahren Indeo K Koaxialkabel Keying L LP/SP = long play/standard play Bandgeschwindigkeit bei Aufnahme/Wiedergabe M MAZ – Magnetische Aufzeichnung Matroska Megapixel (eine Million Bildpunkte) MiniDV MiniDVD – kleinformatige DVD (Durchmesser 8 cm) MPEG – Moving Pictures Expert Group MXF – Material eXchange Format N NTSC – National Television System Committee Nightshot – Aufnahmen mit Videokameras bei eingeschränkten Lichtverhältnissen Netzwerkkamera O OGM – Ogg Media P PAL – Phase Alternating Line PDC – Programme Delivery Control PTZ – Pan, Tilt, Zoom (schwenken, neigen, zoomen) R RGB-Farbraum ratDVD S S-VCD – Super Video-CD S-VHS – Super VHS S-Video – Separate Video Scan Converter SCART – Syndicat des Constructeurs d'Appareils Radiorécepteurs et Téléviseurs Screencamera – Bildschirmkamera SD TV – Standard Definition Television SDI – Serial Digital Interface Seamless Branching SECAM – Séquentiel à mémoire ShowView Skew SL – Series Link Steadicam – tragbares Stativ Streaming Media SVCD – SuperVideo CD SG – Schriftgenerator T TBC – Time Base Corrector Timeshift – Aufnahme mit gleichzeitiger, zeitlich versetzter Wiedergabe U U-matic V VCD – Video CD VCR – Video Cassette Recorder VDR – Video Disk Rekorder, Harddiskrekorder, Festplattenrekorder VESA – Video Electronics Standards Association Video 2000 Video 8 Videobearbeitung Videoformate VHS – Video Home System VPS – Video Programming System Videoschnitt VTR – Video Tape Rekorder VirtualDub Visual Effects W Webcam Widescreen – Breitbild Windowbox X XDCAM XDCAM HD x.v.Colour Xvid x264 Y YUV-Farbmodell (Wird bei analogen PAL und NTSC verwendet) YIQ-Farbmodell (Veraltet. Würde früher bei analogen NTSC verwendet) YCbCr-Farbmodell (digitale Bild- und Videosysteme auf JPEG-/MPEG-Basis, wie DVD-Video, DVB-Fernsehen, digitales PAL und digitales NTSC) YPbPr-Farbmodell (analoges Component Video, analoge Mutter des digitalen YCbCr) Z Zeilensprungverfahren # 4K 8K ! Liste (Informatik) Liste (Fachsprache)
485
https://de.wikipedia.org/wiki/Internationale%20Filmfestspiele%20Berlin
Internationale Filmfestspiele Berlin
Die Internationalen Filmfestspiele Berlin, kurz Berlinale, sind ein jährlich in Berlin stattfindendes Filmfestival. Es zählt neben denen von Cannes und Venedig zu den wichtigsten Filmfestivals und gilt als eines der weltweit bedeutendsten Ereignisse der Filmbranche. Die letzte Auflage fand vom 16. bis 26. Februar 2023 statt. Im Jahr 2024 soll die 74. Berlinale vom 15. bis 25. Februar veranstaltet werden. Überblick Die im Wettbewerb erfolgreichen Filme werden von einer internationalen Jury mit dem Goldenen und den Silbernen Bären ausgezeichnet. Mehr als 400 Filme werden in verschiedenen Sektionen präsentiert. Mit mehr als 325.000 verkauften Eintrittskarten und etwa 490.000 Kinobesuchern insgesamt (inklusive akkreditierter Fachbesucher) ist die Berlinale das größte Publikumsfestival der Welt. Rund 16.000 Fachbesucher aus 130 Ländern nehmen an dem Festival teil. Etwa 3.700 Journalisten aus mehr als 80 Ländern berichten über die Zeit der Festspiele. Während der Berlinale findet zeitgleich der European Film Market (EFM) statt. Der EFM gehört zu den international wichtigsten Treffen der Filmindustrie und hat sich zu einem bedeutenden Marktplatz für Produzenten, Verleiher, Filmeinkäufer und Co-Produktionsagenten etabliert. Gegründet wurde die Berlinale im Jahr 1951. Festivaldirektor war von 2001 bis 2019 Dieter Kosslick. Das Festival wird bis zur 74. Berlinale (2024) von einer Doppelspitze geleitet, der Geschäftsführerin Mariette Rissenbeek und dem Künstlerischen Leiter Carlo Chatrian. Seit 2002 sind die Internationalen Filmfestspiele Berlin ein Geschäftsbereich der Kulturveranstaltungen des Bundes in Berlin GmbH. Sie erhalten eine institutionelle Förderung der Beauftragten der Bundesregierung für Kultur und Medien. Geschichte Die Berlinale findet seit 1951, zunächst im Sommer, seit 1978 im Februar, in Berlin statt. Sie geht auf eine Initiative von Oscar Martay zurück. Martay war Film Officer der Militärregierung der Vereinigten Staaten und beaufsichtigte und förderte in dieser Funktion die Berliner Filmindustrie, unter anderem mit mehreren Darlehen der amerikanischen Militärregierung, mit denen die Finanzierung der Filmfestspiele in den ersten Jahren sichergestellt wurden. Unter dem Motto „Schaufenster der freien Welt“ eröffnete die erste Berlinale am 6. Juni 1951 mit Alfred Hitchcocks Rebecca im Titania-Palast. Zum ersten Festspielleiter wurde der Filmhistoriker Alfred Bauer berufen, der nach dem Krieg die britische Militärregierung in Filmangelegenheiten beraten hatte. Im Ostteil der Stadt gab es als Reaktion auf die Berlinale das Festival des volksdemokratischen Films, auf dem hauptsächlich Filme aus dem damaligen Ostblock gezeigt wurden. Dieses Filmfest fand ebenfalls erstmals 1951, eine Woche nach dem Ende der Berlinale statt. Seit der ersten Berlinale wird der – nach einer Vorlage der Bildhauerin Renée Sintenis gestaltete – Goldene Berliner Bär verliehen. Die Preisträger wurden in den ersten Jahren teilweise durch Publikumswahl bestimmt. Nachdem die FIAPF (Fédération Internationale des Associations de Producteurs de Films) die Berlinale offiziell mit den Festivals in Cannes, Venedig und Locarno gleichgestellt hatte, änderte sich dies entsprechend den FIAPF-Richtlinien: Die Berlinale wurde zu einem A-Festival und berief 1956 erstmals eine internationale Jury ein, die den „Goldenen“ und die „Silbernen Bären“ vergab. Die frühe Berlinale war vor allem ein Publikums- und Glamour-Festival, auf dem sich zahlreiche Filmstars präsentierten (etwa Gary Cooper, Sophia Loren, Jean Marais, Richard Widmark, Jean Gabin, Michèle Morgan, Henry Fonda, Errol Flynn, Giulietta Masina, David Niven, Cary Grant, Jean-Paul Belmondo und Rita Hayworth). Die Ausrichtung des Festivals änderte sich ab Ende der 1960er Jahre auch aufgrund der gesellschaftlichen und politischen Polarisierung. So kam es etwa auf der Berlinale 1970 durch den Vietnamkriegs-Film o.k. von Michael Verhoeven zu heftigem Streit, sodass die Jury zurücktrat und das Wettbewerbsprogramm abgebrochen wurde. Auf der Berlinale 1971 wurde daraufhin neben dem traditionellen Wettbewerb mit dem „Internationalen Forum des jungen Films“ eine ehemalige Gegenveranstaltung in das Festival integriert, das junge und progressive Filme vorstellen sollte. Durch die Veränderungen Infolge der Ostpolitik Willy Brandts, die mit einer kulturellen Öffnung der Ostblockstaaten einherging, kamen 1974 mit Mit dir und ohne dich von Rodion Nachapetow und 1975 mit Jakob der Lügner zum ersten Mal ein sowjetischer und ein DDR-Film ins Programm. 1976 wurde der bisherige Festivalleiter Alfred Bauer durch den Filmpublizisten Wolf Donner abgelöst. Dieser führte zahlreiche Änderungen und Modernisierungen des Festivals ein, etwa die Verlegung vom Sommer in den Winter. Einer der Gründe für diese Änderung war damals der Termin der Filmmesse (heute: European Film Market), der sich im Winter weniger mit den Terminen anderer Filmmärkte überschnitt. Donner etablierte neue Sektionen wie die Deutsche Reihe und das Kinderfilmfest, die ehemalige Informationsschau wurde zum Panorama in seiner heutigen Form. Seit Donners Zeit gilt die Berlinale vor allem als „Arbeitsfestival“ und weniger als Bühne für Stars und „Sternchen“. Wolf Donner wurde 1979 durch Moritz de Hadeln abgelöst, der die Berlinale bis 2001 leitete. Seit 2000 ist das Theater am Potsdamer Platz mit 1800 Sitzplätzen Hauptspielstätte. Während der Berlinale wird das Theater in Berlinale Palast umbenannt. Neben den Filmpremieren der Wettbewerbsfilme findet hier auch der Eröffnungsfilm und die Preisverleihung statt. Bis einschließlich 2015 hatte Rosa von Praunheim mehr als 20 Filme auf der Berlinale und ist damit Rekordhalter. Die Berliner Filmfestspiele wurden vom 1. Mai 2001 bis Ende Mai 2019 von Dieter Kosslick geleitet. Auch unter ihm gab es einige Veränderungen: So wurde die neue Reihe Perspektive Deutsches Kino eingeführt, 2003 entstand für die Nachwuchsförderung der Berlinale Talent Campus und zur Berlinale 2007 wurde mit den Berlinale Shorts eine weitere neue Sektion vorgestellt. Ab 1. Juni 2019 übernahmen Carlo Chatrian und Mariette Rissenbeek offiziell die Leitung des Filmfestivals. Rissenbeek und Chatrian kündigten im Mai 2019 an, die Reihe Kulinarisches Kino 2020 nicht fortzusetzen. Mit der Reihe Encounters soll eine neue Wettbewerbssektion geschaffen werden, um Werke von unabhängigen Filmemacherinnen zu fördern. Ab 2020 stieg RBB Media, eine Tochtergesellschaft des RBB, als Co-Partner bei dem Filmfestival ein. Sektionen Wettbewerb Der Wettbewerb ist die zentrale Sektion der Filmfestspiele; im Wettbewerbsprogramm werden die Hauptpreise – der Goldene Bär und die Silbernen Bären – verliehen. Im Wettbewerb werden (entsprechend den FIAPF-Richtlinien) ausschließlich Filme gezeigt, die innerhalb der letzten zwölf Monate vor Festivalbeginn produziert und noch nicht außerhalb ihrer Ursprungsländer aufgeführt wurden. Etwa 20 Filme stehen jedes Jahr im Wettbewerb. Die Nominierung der Filme sowie die Auswahl der Jurymitglieder ist Aufgabe der Festivaldirektion. Die Preisträger werden von einer internationalen Jury unter Führung eines Jury-Präsidenten gewählt und zum Ende des Festivals verkündet. Aktuelle Spielstätten des Wettbewerbs sind u. a. der Berlinale Palast am Potsdamer Platz sowie die Kinos CinemaxX, Kino International und das Haus der Berliner Festspiele. 2009 kam der Friedrichstadtpalast als Spielstätte hinzu. Jury-Präsidentin der Berlinale 2009 war die Schauspielerin Tilda Swinton. 2010 hatte dieses Amt der Regisseur Werner Herzog inne, gefolgt von Isabella Rossellini (2011), Mike Leigh (2012), Wong Kar-Wai (2013), Produzent und Drehbuchautor James Schamus (2014), Darren Aronofsky (2015), Meryl Streep (2016), Paul Verhoeven (2017), Tom Tykwer (2018), Juliette Binoche (2019) und Jeremy Irons (2020). Forum und Forum Expanded Das Internationale Forum des Jungen Films (kurz: Forum) findet seit 1971 statt; der inhaltliche Schwerpunkt liegt traditionell im Bereich des politisch engagierten Kinos. Das Forum geht zurück auf eine Initiative des von Gero Gandert 1963 gegründeten Vereins Freunde der Deutschen Kinemathek. Die Gründer waren Gero Gandert, Erika Gregor, Ulrich Gregor, Heiner Roß und Manfred Salzgeber. Ulrich Gregor war von 1971 bis 1979 der Sprecher des Forums, ab dann Leiter für 20 Festivals. Das Forum bot jungen Regisseuren wie Raúl Ruiz, Derek Jarman und Peter Greenaway eine erste Gelegenheit, sich international zu präsentieren. Es gibt auch Filmen mit ungewöhnlichen Formaten eine Plattform, so etwa den überlangen Produktionen Taiga von Ulrike Ottinger (8 h 21 min) oder Satanstango von Béla Tarr (7 h 16 min). Einen weiteren Schwerpunkt des Forums bildet der außereuropäische Film. In den 1970er und 1980er Jahren konzentrierte man sich auf US-Independentfilme, Filme aus Lateinamerika und internationale Avantgarde-Filme. In den 1980er und 1990er Jahren widmete man sich dem unabhängigen Kino Asiens. Leiter des Forums war von 2001 bis 2018 der Berliner Filmjournalist Christoph Terhechte. Nach einer Festivaledition mit Interimsleitung ist seit August 2019 Cristina Nord die Sektionsleiterin des Forums. „Das Internationale Forum, immer noch das wichtigste Nebenprogramm der Berliner Filmfestspiele, ist für die Neugierigen unter den Cineasten schon seit Jahren zu deren Hauptprogramm geworden.“ (Peter W. Jansen). Spielstätten des Forums sind die Kinos Delphi Filmpalast, Arsenal (mittlerweile am Potsdamer Platz), CineStar (bis zur Berlinale 2019), CinemaxX, Cubix und das silent green Kulturquartier. 2015 wurde erstmals das Gesamtprogramm von Forum Expanded in der Akademie der Künste gezeigt, nachdem sie bis 1999 schon einmal Spielort der Berlinale war. Seit Herbst 2021 leiten die Künstlerin Ala Younis und Ulrich Ziemons gemeinsam diese Sektion. Retrospektive, Hommage und Berlinale Classics Die Retrospektive ist das filmhistorische Programm der Berlinale. Sie wird seit 1951 durchgeführt und seit 1977 in deutlich nichtkommerzieller Intention von der Stiftung Deutsche Kinemathek (heute: Filmmuseum Berlin – Deutsche Kinemathek) kuratiert und organisiert. Die Themen der Retrospektive widmen sich zentralen Perioden der Filmgeschichte ebenso wie filmästhetischen oder filmtechnischen Aspekten und einzelnen Genres. Leiter der Retrospektive ist Rainer Rother. Aktuelle Spielstätten der Retrospektive sind das CinemaxX und das Zeughauskino. Mit der Hommage und dem Goldenen Ehrenbären werden seit 1977 herausragende Persönlichkeiten des Films für ihr Lebenswerk gewürdigt. In einer Filmreihe sind jeweils deren wichtigste Werke zu sehen. Der Goldene Ehrenbär für das Lebenswerk wird im Rahmen einer Galaveranstaltung für den anwesenden Ehrengast verliehen. Die Internationalen Filmfestspiele Berlin und die Deutsche Kinemathek – Museum für Film und Fernsehen bereiten die Hommage gemeinsam vor. In den Berlinale Classics feiern digital restaurierte Filmklassiker und Wiederentdeckungen ihre Erstaufführung. Sie erweitern seit 2013 die Retrospektive. Verzeichnis der Retrospektiven 1951–1953: „Stummfilme“ 1954: „Schau berühmter Filme“ 1955: „60 Jahre Film“ 1956: „Humor der Nationen“ 1957: „Deutsche Künstler im ausländischen Film“ 1958: „Meisterwerke des internationalen Films von 1915 bis 1945“ 1959: „Internationale Meisterwerke der ersten Tonfilmjahre“ 1960: „10 Jahre Goldener Berliner Bär“ und „Internationaler Musikfilm 1930–1945“ 1961: „Richard Oswald“, „Billy Wilder“, „Akira Kurosawa“ 1962: „Asta Nielsen“, „G. W. Pabst“, „Ingmar Bergman“ 1963: „Elisabeth Bergner“, „E. A. Dupont“, „Karl Grune“, „Yasujiro Ozu“ 1964: „Kostbarkeiten internationaler Filmkunst: Louis Lumière, Pola Negri, Paul Leni“ 1965: „Meisterwerke deutscher Filmkunst“ 1966: „Max Ophüls“, „Mack Sennett“, „Cinema Novo“ 1967: „Harry Langdon“, „Ernst Lubitsch“ 1968: „Ernst Lubitsch“, „W. C. Fields“ 1969: „Abel Gance“ und „Musical 1929–1949“ 1970: „20 Jahre Festspielfilme in Berlin“ und „Fred Astaire und Ginger Rogers“ 1971: „Vom Revuefilm zum Filmmusical: Busby Berkeley, Eddie Cantor“ 1972: „Douglas Fairbanks“, „Ludwig Berger“ 1973: „William Dieterle“ und „Amerikanische Musicals und Zeichentrickfilme“ 1974: „Jacques Feyder“, „Lilian Harvey“ und „Norman McLaren“ 1975: „Greta Garbo“ und „Conrad Veidt“ 1976: „Eleanor Powell“, „Conrad Veidt II. Teil“; „Deutsche Spitzenfilme 1929–1932“ 1977: „Marlene Dietrich, Teil 1“ und „Liebe, Tod und Technik. Kino des Phantastischen 1933–1945“ 1978: „Marlene Dietrich, Teil 2“ und „Zensur – Verbotene deutsche Filme 1933–1945“ 1979: „Rudolph Valentino“ und „Wir tanzen um die Welt. Revuefilme 1933–1945“ 1980: „Billy Wilder“ und „3-D-Filme“ 1981: „Der Produzent: Die Filme von Michael Balcon“ 1982: „Aufruhr der Gefühle: Curtis Bernhardt“ und „Kinderfilme aus der DDR“ 1983: „Exil – Sechs Schauspieler aus Deutschland“: Elisabeth Bergner, Dolly Haas, Hertha Thiele, Curt Bois, Franz (Francis) Lederer, Wolfgang Zilzer (Paul Andor) 1984: „Lubitsch 1914–1933“ 1985: „Special Effects“ 1986: „Henny Porten“ 1987: „Rouben Mamoulian“ 1988: „Color – Die Geschichte des Farbfilms“ 1989: „Erich Pommer“ und „Europa 1939“ 1990: „Das Jahr 1945“ und „40 Jahre Berlinale“ 1991: „Kalter Krieg“ 1992: „Babelsberg – Ein Filmstudio“ 1993: „CinemaScope“ 1994: „Erich von Stroheim“ 1995: „Happy Birthday, Cinema! Buster Keaton 100, Slapstick & Co“ 1996: „William Wyler“ 1997: „G. W. Pabst“ 1998: „Robert und Curt Siodmak“ 1999: „Otto Preminger“ 2000: „Künstliche Menschen“ 2001: „Fritz Lang“ 2002: „European 60s. Revolte, Phantasie & Utopie“ 2003: „Friedrich Wilhelm Murnau“ 2004: „New Hollywood 1967–1976. Trouble in Wonderland“ 2005: „Production Design und Film“ 2006: „Traumfrauen. Stars im Film der fünfziger Jahre“ 2007: „City Girls – Frauenbilder der Stummfilmzeit“ 2008: „Luis Buñuel“ 2009: „70 mm – Bigger than Life“ 2010: „Play It Again …!“ 2011: „Ingmar Bergman“ 2012: „Die rote Traumfabrik“: Meschrabpom-Film und ihr deutscher Zweig Prometheus Film 2013: „The Weimar Touch“ 2014: „Aesthetics of Shadow. Lighting Styles 1915–1950“ 2015: „Glorious Technicolor. Filme aus dem George Eastman House und weiteren Archiven“ 2016: „Deutschland 1966 – Filmische Perspektiven in Ost und West“ 2017: „Future Imperfect. Science · Fiction · Film“ 2018: „Weimarer Kino – neu gesehen“ 2019: „Selbstbestimmt. Perspektiven von Filmemacherinnen“ 2020: „King Vidor“ 2021: Aufgrund der COVID-19-Pandemie entfallen 2022: „No Angels – Mae West, Rosalind Russell & Carole Lombard“ 2023: „Young at Heart – Coming of Age at the Movies“ Verzeichnis der Hommagen 1977: Wilfried Basse 1981: Peter Pewas 1982: James Stewart 1984: Melina Mercouri/Jules Dassin 1986: Fred Zinnemann 1987: Madeleine Renaud/Jean-Louis Barrault 1991: Jane Russell/Robert Mitchum 1992: Hal Roach 1993: Gregory Peck 1994: Sophia Loren 1995: Alain Delon 1996: Jack Lemmon und Elia Kazan 1997: Kim Novak 1998: Catherine Deneuve 1999: Shirley MacLaine 2000: Jeanne Moreau und Robert De Niro 2001: Kirk Douglas 2002: Claudia Cardinale 2003: Anouk Aimée 2007: Arthur Penn 2008: Francesco Rosi 2009: Maurice Jarre 2010: Hanna Schygulla und Wolfgang Kohlhaase 2011: Armin Mueller-Stahl 2012: Meryl Streep 2013: Claude Lanzmann 2014: Ken Loach 2015: Wim Wenders 2016: Michael Ballhaus 2017: Milena Canonero 2018: Willem Dafoe 2019: Charlotte Rampling 2020: Helen Mirren 2023: Steven Spielberg Panorama Das Panorama gehört zum offiziellen Programm der Berlinale und wird seit 1986 veranstaltet. Vorläufer war in der Anfangszeit der Berlinale die so genannte Informationsschau. Leiter war zunächst Manfred Salzgeber, der 1992 von Wieland Speck abgelöst wurde. Schwerpunkte sind das Arthouse-Kino und der Autorenfilm, alle Filme werden als Welt- oder Europa-Premiere gezeigt. Das Hauptprogramm bietet jährlich etwa 18 Spielfilme, zahlreiche weitere Produktionen bilden das Rahmenprogramm. Subsektionen sind die Reihen Dokumente, Panorama Special und Panorama-Kurzfilme. Inhaltlich widmet sich das Panorama eher gesellschaftlichen als direkt politischen Themen: So werden traditionell viele schwul-lesbische beziehungsweise queere Filme gezeigt. Spielstätten des Panoramas sind das CinemaxX, das Kino International und das CineStar (bis zur Berlinale 2019). Generation Seit 1978 widmet die Berlinale eine Sektion speziell Kindern und Jugendlichen und zeigt dort eine aktuelle Auswahl internationaler Spiel- und Kurzfilme. Die Sektion gilt in diesem Bereich als eine der wichtigsten Markt- und kulturellen Plattformen weltweit. Die Sektion wurde 2004 durch den Jugendfilmwettbewerb 14plus ergänzt. Der frühere Name „Kinderfilmfest“ wurde zur Berlinale 2007 in Generation umbenannt. Entsprechend heißen die Wettbewerbe heute Generation Kplus und Generation 14plus. Im Wettbewerb Generation Kplus verleiht eine elfköpfige Kinderjury den Gläsernen Bären an je einen Spiel- und einen Kurzfilm. Eine Internationale Jury von Filmfachleuten vergibt zudem die mit Geld dotierten Preise des Deutschen Kinderhilfswerks. Den Gläsernen Bären für den besten Spielfilm im Wettbewerb Generation 14plus vergibt eine siebenköpfige Jury von Jugendlichen. Die Devise, keinen „Kinderkitsch“ zu zeigen, bedeutet, anspruchsvolle Filme aus der ganzen Welt ins Programm aufzunehmen, die nah am Alltag und am Erleben von Kindern und Jugendlichen bleiben und auch eine Realität abbilden, die manchmal harter Tobak ist. Mit ihrem Programm möchte die Sektion Generation für ein erweitertes Verständnis von Filmen für junge Menschen werben. Die Wettbewerbsbeiträge beschränken sich nicht auf klassische Kinder- oder Jugendfilmproduktionen; sie schließen vielmehr auch Filme ein, die zwar nicht für diese Zielgruppen konzipiert wurden, aber Kinder oder Jugendliche thematisch und formal ansprechen. Im Rahmen von Cross Section werden seit 2006 für Kinder und Jugendliche geeignete Filme aus den anderen Sektionen der Berlinale außer Konkurrenz in „Generation“ wiederholt und so einem Publikum unter 18 Jahren zugänglich gemacht. Von 2008 bis 2022 wurde Generation von Maryanne Redpath geleitet, von 2008 bis 2014 in Zusammenarbeit mit Florian Weghorn als Co-Kurator. Hauptspielstätte von Generation Kplus war der Zoo Palast. Seit 2012 ist das Haus der Kulturen der Welt die Hauptspielstätte von Generation 14plus. Weitere Vorstellungen gibt es in den Kinos Colosseum (Prenzlauer Berg), im Filmtheater am Friedrichshain sowie im Cinemaxx am Potsdamer Platz. Seit 2023 wird die Sektion vom Filmkritiker Sebastian Markt geleitet. An seiner Seite betreut Melika Gothe das Sektionsmanagement. Berlinale Special Berlinale Special ist eine 2004 neu eingeführte Reihe im offiziellen Programm, in der sowohl aktuelle Arbeiten großer Filmemacher als auch Wiederaufführungen von klassischen Werken der Filmgeschichte und Produktionen zu Festivalschwerpunkten oder aktuell-brisanten Themen gezeigt werden sollen. Aufführungsort ist der Friedrichstadt-Palast. Die Sektion soll mit der Ausgabe 2024 wegfallen. Perspektive Deutsches Kino Die unter Dieter Kosslick eingeführte Sektion Perspektive Deutsches Kino widmet sich der aktuellen deutschen Filmproduktion und ergänzt die geschlossene Reihe German Cinema; gezeigt werden etwa ein Dutzend Spiel-, Dokumentar- und Experimentalfilme, die aus ca. 250 Bewerbungen ausgewählt werden. Linda Söffker war von 2010 bis 2022 die Leiterin. Seit 2023 wird die Sektion von Jenni Zylka geführt. Die Sektion soll mit der Ausgabe 2024 wegfallen. Berlinale Shorts Im Jahr 2006 wurde mit den Berlinale Shorts eine eigene Sektion für kurze Filme eingerichtet. Je ein Goldener und ein Silberner Bär werden seit 1955 an die besten kurzen Filme vergeben, seit 2003 von einer eigens dafür einberufenen internationalen Jury. In den Berlinale Shorts laufen jährlich ca. 30 Kurzfilme, die um die Bären konkurrieren. Die Sektion wurde von 2007 bis 2019 von Maike Mia Höhne geleitet. Carlo Chatrian als künstlerischer Direktor und Mariette Rissenbeek als Geschäftsführerin, seit dem 1. Juni 2019 offiziell die Leitung der Berlinale, haben Anna Henckel-Donnersmarck zur neuen Leiterin der Sektion berufen. Kurzfilme und mittellange Filme sind darüber hinaus in den Sektionen Generation, Perspektive Deutsches Kino und im Forum Expanded zu sehen. Berlinale Series 2015 wurde die Berlinale zum ersten A-Festival weltweit, das eine eigene Reihe für Fernsehserien ins offizielle Programm einführte. Zuvor war es bereits ab 2010 zu Premieren von Serienformaten (u. a. Top of the Lake, Im Angesicht des Verbrechens) gekommen. Im Rahmen der Berlinale Special Series kam es u. a. mit Better Call Saul, The Night Manager oder 4 Blocks zu Welt- oder internationalen Premieren. 2018 wurde die Reihe in Berlinale Series umbenannt und hat mit dem Zoo Palast eine veränderte zentrale Spielstätte erhalten. Seit 2019 ist Julia Fidel die Leiterin von Berlinale Series. Encounters Zum 70. Jubiläum der Berlinale 2020 wurde die neue, kompetitive Sektion Encounters eingeführt. Weitere Veranstaltungen Berlinale Talents: (2003–2013 „Berlinale Talent Campus“); Veranstaltungsort: Haus der Kulturen der Welt (bis 2006), Hebbel am Ufer (seit 2007) Deutsche Reihe (German Cinema): nur für akkreditierte Besucher Kulinarisches Kino: 2007 eingeführte Filmreihe an der Schnittstelle von Kino, Kochen und Nahrungsmitteln. 2019 fand die letzte Edition statt, die Reihe wird mit der 70. Berlinale nicht fortgeführt. Berlinale Keynotes: Brancheninterne Vortragsreihe zu den Zukunftsstrategien und Perspektiven der Filmindustrie European Film Market Der European Film Market (EFM) ist wichtiger Handelsplatz für Produzenten, Verleiher, Filmeinkäufer und Co-Produktionsagenten. Als erster Filmmarkt im Jahr gehört der EFM neben dem Marché du Film in Cannes im Mai und dem American Film Market im November zu den drei bedeutendsten Branchentreffen der Filmindustrie. Der EFM ist die Nachfolgeveranstaltung der Filmmesse. Sie wurde von 1980 bis 1987 von Aina Bellis geleitet; 1988 übernahm Beki Probst die Leitung für diese im Sinne der Filmwirtschaft an die Berlinale angegliederte Veranstaltung. Von 2014 bis Oktober 2020 leitete der Niederländer Matthijs Wouter Knol den European Film Market. Die langjährige EFM-Direktorin Beki Probst stand dem EFM dabei bis 2018 als Präsidentin vor. Seit November 2020 ist Dennis Ruh Direktor des EFM. Veranstaltungsort des EFMs waren bis 2000 die Räume in der Budapester Straße, danach fand der Filmmarkt im Atrium des Debis-Hauses am Potsdamer Platz statt, das eine Fläche von rund 2.500 m² bot. Die stetige Expansion der Veranstaltung führte 2006 zum Umzug in den Martin-Gropius-Bau und das Marriott Hotel am Potsdamer Platz. Beim EFM 2020 wurden 971 Vorführungen von 732 angemeldeten Filmen durchgeführt, darunter waren 525 Filme mit ihrer Marktpremiere. Dafür wurden vorwiegend die Kinos CinemaxX und CineStar genutzt. Es waren über 11.423 Teilnehmer aus 114 Ländern gemeldet. 564 Ausstellern und Anbietern standen 1.649 registrierte Buyer gegenüber. Preise und Auszeichnungen Verliehene Preise Der Goldene Bär ist seit 1951 der Große Preis der Berliner Filmfestspiele. Er wird aus den Wettbewerbsfilmen ausgesucht, die sämtlich nur in den zwölf Monaten vor Beginn des Festivals produziert und vorher nicht außerhalb ihres Herkunftslands oder auf anderen Festivals gezeigt worden sein dürfen. Der Preis wurde nur einmal nicht verliehen: 1970. Seit 1951 wird der Silberne Bär in verschiedenen Kategorien vergeben, einschließlich des Großen Preises der Jury (früher Spezialpreis der Jury), der 1965 eingeführt wurde und so etwas wie eine Auszeichnung für den zweitbesten Film des Wettbewerbs darstellt. 1951 wurde die Auszeichnung für drei Filme in den Kategorien Musical, Drama und Komödie verliehen. 1952–1955 ging der Silberne Bär allgemein an einen Spielfilm. Seit 1956 wird der Preis in verschiedenen Kategorien vergeben. Momentan wird neben dem Großen Preis der Jury je ein Silberner Bär für die beste Regie, die beste Darstellerin, den besten Darsteller, das beste Drehbuch und „für eine herausragende künstlerische Leistung aus den Kategorien Kamera, Schnitt, Musik, Kostüm oder Set-Design“ vergeben. Im Wettbewerb der Berlinale Shorts werden ebenfalls ein Goldener Bär und ein Silberner Bär als Preis der Jury vergeben. Die Internationale Kurzfilmjury vergibt auch Lobende Erwähnungen und den DAAD-Kurzfilmpreis: Der DAAD-Kurzfilmpreis wird vom Deutschen Akademischen Austauschdienst an einen künstlerisch herausragenden und visuell innovativen Kurzfilm der Berlinale Shorts vergeben. Der Preis umfasst ein dreimonatiges Stipendium in Berlin beim Künstlerprogramm des DAADs und eine Projektunterstützung. Der Preis wurde erstmals 2006 verliehen. Zudem ergeht eine Nominierung für den besten europäischen Kurzfilm beim Europäischen Filmpreis an einen Filmemacher europäischer Herkunft. Im Jahr 2015 wurde zudem erstmals der Audi Short Film Award, dotiert mit 20.000 Euro, verliehen. Gläserner Bär: Der Preis wird von einer Kinderjury an den besten Spielfilm und Kurzfilm der Sektion Generation verliehen. Es gibt ihn auch als Lobende Erwähnung. Der Preis wird seit 1998 verliehen. Der Große Preis des Deutschen Kinderhilfswerk wird von einer Internationalen Jury aus Filmschaffenden verliehen und ist derzeit mit 7.500 Euro dotiert. Es gibt ihn auch als Spezialpreis (2.500 Euro) und Lobende Erwähnung. Das Deutsche Kinderhilfswerk verleiht ihn seit 1999. Bester Erstlingsfilm: Die 2006 initiierte Auszeichnung ist mit 50.000 Euro dotiert und wird von der Gesellschaft zur Wahrnehmung von Film- und Fernsehrechten (GWFF) gestiftet. Aus den Sektionen Wettbewerb, Panorama, Forum oder Generation kürt eine internationale Jury den besten Debütfilm. Das Preisgeld wird zwischen Regisseur und Produzent geteilt. Der Berlinale Dokumentarfilmpreis wurde 2017 ins Leben gerufen. Insgesamt werden rund 18 aktuelle Dokumentarbeiträge aus den Sektionen Wettbewerb, Encounters, Panorama, Forum, Generation, Berlinale Special und Perspektive Deutsches Kino für den Berlinale Dokumentarfilmpreis nominiert. Eine dreiköpfige Jury entscheidet über die Vergabe, das Preisgeld teilen sich Regisseur und Produzent des Preisträgerfilms. Die Auszeichnung wird im Rahmen der offiziellen Preisverleihung im Berlinale Palast vergeben. In den ersten zwei Jahren war der Preis mit einem Preisgeld in Höhe von 50 000 Euro dotiert und von dem Uhrenhersteller Glashütte gestiftet. Seit dem Rückzug des Unternehmens als Sponsor der Berlinale wird der fortan mit 40 000 Euro dotierte Preis von der Rundfunkanstalt RBB gestiftet. Die Berlinale Kamera geht seit 1986 an Persönlichkeiten oder Institutionen, die sich um die Berlinale verdient gemacht haben. Er kann nur an Preisträger vergeben werden, die nicht direkt an den Wettbewerbsfilmen beteiligt sind. Der Goldene Ehrenbär als Auszeichnung für ein Lebenswerk geht an den Gast der Hommage. Außerdem verleihen vom Festival unabhängige Jurys folgende Preise: Der FIPRESCI-Preis wird seit 1957 von der internationalen Filmkritikervereinigung Fédération Internationale de la Presse Cinématographique (FIPRESCI) verliehen. Im Wettbewerb sowie in den Sektionen Panorama und Forum wird jeweils ein Preisträger ermittelt. CICAE-Preis: Der Preis wird von der Vereinigung C.I.C.A.E. vergeben, der Confédération Internationale des Cinémas d’Art et d’Essai (Internationaler Verband der Filmkunsttheater). Er wird auch als Lobende Erwähnung, Empfehlung und Spezielle Erwähnung vergeben. Die erste Verleihung war 1967. Die Berliner Morgenpost vergibt seit 1974 Leserpreis der Berliner Morgenpost an einen Beitrag aus dem internationalen Wettbewerb. Caligari Filmpreis: Seit 1986 wird der Preis für thematische oder stilistische Neuerungen für Filme im Forum verliehen. Er ist derzeit mit 4.000 Euro dotiert, die zu gleichen Teilen an Regisseur und Verleiher gehen. Der Preis wird auch als Besondere Erwähnung verliehen. Der 1986 initiierte Friedensfilmpreis geht an einen Film, der ästhetische Qualität mit einer humanistischen Botschaft, demokratischer Aussage und sozialer Verantwortung verbindet. Er ist derzeit mit 5.000 Euro dotiert und wird auch als Lobende Erwähnung vergeben. Teddy Award: Der Preis wird von einer internationalen Jury, deren Mitglieder vorwiegend Organisatoren schwuler und lesbischer Filmfestivals sind, für einen Kurz-, Spiel- und Dokumentarfilme aus dem Themenbereich Homosexualität verliehen. Der 1987 erstmals vergebene Award ist seit 1992 offizieller Berlinalepreis. Die verliehene Statuette wurde von Comiczeichner Ralf König entworfen. Es gibt den Preis auch als Spezialpreis, Besondere Erwähnung, Jurypreis und Publikumspreis. Der Preis der Ökumenischen Jury trat 1992 die Nachfolge der Preise von Interfilm und der Organisation catholique internationale pour le cinéma et l’audiovisuel (OCIC) an. Je ein Film aus Wettbewerb, Panorama und Forum werden prämiert. Mit dem Preis werden Regisseure ausgezeichnet, die wahres künstlerisches Talent besitzen und deren Filme Handlungen oder Porträts zeigen, die die Botschaft der Bibel transportieren oder das Publikum für spirituelle, menschliche und soziale Werte sensibilisieren. Der Preis wird auch als Besondere Erwähnung und Spezialpreis vergeben. Der Preis der Gilde Deutscher Filmkunsttheater geht an einen Film aus dem offiziellen Wettbewerb und wird seit 1996 vergeben. Die Jury setzt sich aus drei Kinobetreibern zusammen, die Mitglied der Gilde deutscher Filmkunsttheater sind. (Nicht zu verwechseln mit dem Gilde-Filmpreis.) Sieben Leser des Homosexuellenmagazins Siegessäule vergeben seit 1997 unter allen Filmen des Festivals den Preis der „Siegessäule“-Leserjury an das Werk, das am besten mit dem Thema Homosexualität umgeht. Der Leserpreis des Tagesspiegels wird seit 2023 an den besten Film der Wettbewerbssektion Encounters verliehen. Zuvor wurde mit der Auszeichnung der beste Beitrag aus der Sparte Forum geehrt. Der Shooting Stars Award, seit 1998 von European Film Promotion an 10 junge europäische Nachwuchsschauspieler verliehen Der Heiner-Carow-Preis wird seit 2013 von der DEFA-Stiftung an einen deutschen Spiel-, Dokumentar- oder Essayfilm aus der Sektion Panorama (2013–2019) verliehen und ist mit 5.000 Euro dotiert. Zur 70. Berlinale wechselte die Auszeichnung in die Sektion Perspektive Deutsches Kino. Seit 1998 wird der NETPAC Award vom Network for the Promotion of Asian Cinema (NETPAC) an einen herausragenden asiatischen Film im Forum vergeben. Es gibt ihn auch als Besondere Erwähnung. Der Panorama Publikumspreis, eine Bronzestatuette, wird vom Publikum der Sektion Panorama per Wahl bestimmt. Der Preis wird seit 1999 verliehen. Der vom Deutsch-Französischen Jugendwerk (DFJW) gestiftete Preis Dialogue en Perspective wird seit 2004 an einen Film der Perspektive Deutsches Kino verliehen. Der Preis ist das Ergebnis eines interkulturellen filmischen Diskurses junger Menschen aus drei Ländern: Frankreich, Deutschland und einem jährlich wechselndes Gastland. Die Jury besteht aus sieben Mitgliedern, deren Zusammensetzung öffentlich ausgeschrieben wird, und einer Persönlichkeit, die sich für einen filmischen Dialog zwischen Deutschland und Frankreich engagiert, als Jurypräsident/-in. Jan Henrik Stahlberg hatte bei der Berlinale 2012 dieses Amt inne. Die Score Competition ist ein Preis des Berlinale Talent Campus und wird an drei junge Komponisten bzw. Sound Designer vergeben. Der Preis beinhaltet eine Orchestrierung des Soundtracks durch das Deutsche Filmorchester Babelsberg. Der Komponist des besten Soundtracks erhält eine Reise zu den wichtigsten Filmstudios in Hollywood. Der Berlin Today Award wird seit 2004 an drei Kurzfilmprojekte über Berlin verliehen, die dafür auf dem jeweils letztjährigen Berlinale Talent Campus nominiert wurden. Die Filme wurden mit Mitteln des Medienboards Berlin-Brandenburg produziert. Der erstmals 2005 vergebene Amnesty International Filmpreis der Menschenrechtsorganisation Amnesty International ist mit derzeit 5.000 Euro dotiert und geht an Filme, die die Situation der Menschenrechte in der heutigen Zeit thematisieren. Der Femina-Film-Preis ist derzeit mit 2.000 Euro dotiert und zeichnet seit 2005 herausragende Leistungen von Frauen im Bereich Ausstattung, Kamera, Kostüm, Musik und Schnitt für einen deutschsprachigen Film aus. Der Preis Label Europa Cinemas geht an einen herausragenden europäischen Film der Sektion Panorama. Er ist eine Initiative der Vereinigung Europa Cinemas, die den Verleih europäischer Filme in Europa fördert. Der Preis wird seit 2005 vergeben. Der Think:Film Award zeichnet seit 2014 eine künstlerische Arbeit in der Sektion Forum Expanded aus. Der Preis wird von der Allianz Kulturstiftung unterstützt und besteht in einer Einladung nach Berlin und Kairo, wo die ausgewählte Arbeit öffentlich präsentiert werden darf. Der Kompagnon-Förderpreis und der Kompass-Perspektive-Preis werden in der Sektion Perspektive Deutsches Kino vergeben. Nicht mehr vergebene Berlinale-Preise Der nach dem Gründer der Berlinale benannte Alfred-Bauer-Preis wurde von 1987 bis 2019 an einen Wettbewerbsfilm verliehen, der der Filmkunst neue Perspektiven eröffnete. Er wurde auch als Lobende Erwähnung vergeben. Nachdem 2020 durch Recherchen bekannt wurde, dass Bauer wahrscheinlich eine bedeutende Position in der NS-Zeit innehatte, wurde die Vergabe des Preises vorerst ausgesetzt. Der Bronzene Bär war so etwas wie ein Preis für die Drittplatzierten des Wettbewerbs. Der Preis wurde 1951–1956 vergeben. 1951 wurde er für vier Filme in den Kategorien Dokumentation, Drama und Komödie verliehen, 1952–1955 an einen Spielfilm allgemein. 1956 wurde der Siegerfilm per Publikumsabstimmung bestimmt. Der Große Bronzeteller wurde vom Publikum nach einer Abstimmung für den beliebtesten Film des Festivals vergeben. Der Preis wurde nur 1951 vergeben. Der Zweitplatzierte erhielt den Kleinen Bronzeteller. Die Goldene Plakette wurde einmalig 1951 für drei dokumentarische Filme vergeben. Zweiter und dritter Preis hießen Silberne Plakette und Bronzene Plakette. Der nur 1951 verliehene Sonderpreis der Stadt Berlin wurde für Filmerrungenschaften von herausragendem Wert vergeben. Es gab ihn auch als Ehrenurkunde. Der Sonderpreis des Senats von Berlin wurde von einer Jury internationaler Delegierter an mehrere herausragende Filme verliehen. Der Preis wurde nur zwei Jahre vergeben (1953–1954). Der OCIC-Preis (verliehen von 1954 bis 1991) wurde von der katholischen OCIC verliehen, der „Organisation Catholique Internationale du Cinéma et de l'Audiovisuel“. Es gab ihn auch als Besondere Erwähnung, Empfehlung, Besondere Empfehlung, Lobende Erwähnung und Förderpreis. 1991 vereinigten sich die OCIC und ihre evangelische Schwestervereinigung Interfilm zu einer ökumenischen Jury. Von 1954 bis 1956 ging die Große Goldene Plakette an den besten Dokumentarfilm des offiziellen Wettbewerbs. Der Sieger wurde per Wahl vom Publikum bestimmt. Der zweite und dritte Preis hießen Große Silberne Plakette und Große Bronzene Plakette Die Kleine Goldene Plakette ging von 1955 bis 1957 an den besten Kurzfilm des offiziellen Wettbewerbs. Der Preis wurde in einer Abstimmung vom Publikum bestimmt. Die entsprechenden Preise für den zweit- und drittbesten Film waren die Kleine Silberne Plakette und die Kleine Bronzene Plakette. Der nur 1958 vergebene Preis des Senators für Volksbildung ging an den am besten für ein junges Publikum geeigneten Dokumentar- oder Kulturfilm. Von 1959 bis 1969 wurde der Jugendfilmpreis an den am besten für ein junges Publikum geeigneten Film vergeben. Bis 1967 war die Auszeichnung ein Bronzeteller. Kurz-, Dokumentar- und Spielfilme wurden prämiert. Es gab ihn auch als Ehrenvolle Erwähnung. 1968–1969 hieß die Auszeichnung Preis der jungen Generation. Der von 1960 bis 1987 vergebene C.I.D.A.L.C.-Preis wurde von der die internationale Verständigung fördernden Vereinigung C.I.D.A.L.C. vergeben, der „Confédération Internationale pour la Diffusion des Arts et des Lettres par le Cinéma“. Es gab ihn auch als C.I.D.A.L.C. Gandhi-Preis, Silberne Medaille der C.I.D.A.L.C., Lobende Erwähnung, Spezialpreis, Besondere Empfehlung, UNESCO-Preis der C.I.D.A.L.C. und C.I.D.A.L.C. Diplom. Der Interfilm-Preis wurde von der evangelischen Kirche verliehen. Es gab ihn auch als Empfehlung, Lobende Erwähnung, Otto-Dibelius-Filmpreis, Grand Prix, Besondere Erwähnung, Besondere Empfehlung, Spezialpreis und One World Filmpreis. 1992 vereinigte sich die evangelische Vereinigung mit ihrer katholischen Schwester OCIC zu einer ökumenischen Jury. Der Preis wurde von 1963 bis 1989 vergeben. Der von 1963 bis 1972 verliehene UNICRIT Preis wurde von der Kritikervereinigung UNICRIT vergeben, der „Union International de la Critique de Cinema“. Es gab ihn auch als Ehrenvolle Erwähnung, Sonderpreis und Statuette. Der Preis der International Writers' Guild, eine goldene Plakette, ging an das beste Drehbuch eines Wettbewerbsfilms. Die IWG vergab den Preis von 1968 bis 1973. Der Journalisten-Sonderpreis wurde von einer unabhängigen Gruppe von Filmkritikern aus Belgien, Dänemark, den Niederlanden und der Schweiz vergeben. Er wurde nach dem Rücktritt der Internationalen Jury 1970 spontan initiiert und nur dieses eine Jahr vergeben. Der von 1982 bis 1999 verliehene UNICEF-Preis wurde von der UNICEF an Filme vergeben, die sich mit den Themen Kindheit, Jugend und Familie beschäftigten. Es gab ihn auch als Lobende Erwähnung. Der von 1983 bis 1989 verliehene C.I.F.E.J.-Preis wurde vom „Centre International du Film pour l'Enfance et la Jeuneusse“ (C.I.F.E.J.) initiiert, das die Verbreitung von Film unter Kindern und Jugendlichen fördert. Es gab ihn auch als Lobende Erwähnung. Der von 1983 bis 1989 verliehene Preis der „Zitty“-Forum-Leserjury wurde von Lesern der alternativen Berliner Stadtzeitung „Zitty“ vergeben. Der nur 1985 verliehene Otto-Domnick-Filmpreis wurde in Erinnerung an den experimentellen Filmemacher Ottomar Domnick vergeben. Der von 1986 bis 1996 verliehene Kinderfilm-Preis war der ehemalige Hauptpreis des Kinderfilmfestivals. Es gab ihn als Preis der Senatorin für Frauen, Jugend und Familie, als Lobende Erwähnung, als Preis der Stiftung Maria Schell und als Preis für den Besten Kurzfilm. Panorama-Kurzfilmpreis der New York Film Academy: Eine dreiköpfige Jury wählte von 1993 bis 2002 den Sieger aus dem Kurzfilmprogramm des Panoramas, der ein Stipendium der New York Film Academy gewann. Es gab den Preis auch als Besondere Erwähnung. Panorama Kurzfilmpreis: Die offizielle Kurzfilmjury des Festivals bestimmte von 2003 bis 2005 den Sieger dieses Preises. Es gab ihn auch als Lobende Erwähnung und Spezialpreis. Der nur 1996 verliehene Mionetto-Filmpreis wurde von dem italienischen Sekthersteller Mionetto gesponsert. Der Pierrot-Preis ging an den besten europäischen Debütfilm. Er wurde nur 1998 verliehen. Der nur 2002 verliehene Premiere First Movie Award ging an den besten Debütfilm aus dem Wettbewerb, dem Panorama, dem Forum, dem Kinderfilmfest oder der Perspektive Deutsches Kino. Es gab ihn auch als besondere Erwähnung. Der Preis der Leserjury der „Berliner Zeitung“ wurde zwischen 1992 und 2006 an einen Film des Forums verliehen. Der Preis wurde auch als Besondere Erwähnung verliehen. Der Wolfgang-Staudte-Preis wurde zwischen 1990 und 2006 an den besten Debütfilm oder zweiten Film im Hauptprogramm des Forums verliehen. Er erinnert an den Regisseur Wolfgang Staudte. Blauer Engel: Der Blaue Engel war von 1993 bis 2005 der Große Preis der Urheberrechtsorganisation AGICOA. Der New York Film Academy Scholarship Award bestand aus einem Stipendium der New York Film Academy für einen herausragenden Kurzfilmregisseur. Der Preis wurde von 1996 bis 2005 verliehen. Der Piper Heidsieck New Talent Award wurde an die beste Schauspielerin oder den besten Schauspieler in der ersten Filmrolle vergeben. Der Preis wurde 2001 und 2002 verliehen. Der Talent Movie of the Week wurde während des Berlinale Talent Campus ausgezeichnet. Der Preis wurde von 2003 bis 2006 verliehen. 2004 wurde der Planet Documentary Film Award innerhalb des Berlinale Talent Campus verliehen. Er sollte die Finanzierung einer Dokumentarfilmproduktion ermöglichen. Festival-Trailer Seit 2002 eröffnet ein 50 Sekunden langer Trailer („Opener“) die Vorführungen in allen Sektionen des Festivals. Die Computeranimation entstand in Zusammenarbeit des Regisseurs Uli M Schueppel mit der Filmproduktionsfirma Das Werk Berlin. Literatur Peter Cowie: Die Berlinale. Das Festival. Bertz + Fischer, Berlin 2010, ISBN 978-3-86505-202-5. Matthias Greuling: Cannes, Venedig, Berlin: Die großen Filmfestivals: ein Servicebuch für Filmer und Medienvertreter. Norderstedt 2004. Jürgen Haase (Hrsg.): Zwischen uns die Mauer. DEFA-Filme auf der Berlinale. be.bra, Berlin 2010, ISBN 978-3-8148-0175-9. Weblinks Einzelnachweise Filmfestival in Berlin Träger des Berliner Kunstpreises Erstveranstaltung 1951
486
https://de.wikipedia.org/wiki/Bundesbeauftragter%20f%C3%BCr%20die%20Stasi-Unterlagen
Bundesbeauftragter für die Stasi-Unterlagen
Der Bundesbeauftragte für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik (BStU), verkürzend nach den amtierenden Bundesbeauftragten auch Gauck-, Birthler- bzw. Jahn-Behörde genannt, war eine Bundesoberbehörde mit Zentralstelle in Berlin und Außenstellen in den Neuen Ländern. Ihre Aufgabe bestand darin, die Akten und Dokumente des Ministeriums für Staatssicherheit (kurz MfS oder „Stasi“) der DDR zu verwalten und zu erforschen. Die Errichtung der Behörde wurde von Mitgliedern der Bürgerkomitees und Freiwilligen der Bürgerrechtsbewegung im Zuge der friedlichen Revolution von 1989 erwirkt. Die Amtszeit des Bundesbeauftragten betrug fünf Jahre, eine einmalige Wiederwahl war gemäß § 35 Abs. 4 Stasi-Unterlagen-Gesetz (StUG) möglich. Das 1991 in Kraft getretene StUG bildete die Rechtsgrundlage der Behörde. Die Behörde war Mitglied der Platform of European Memory and Conscience und gehörte dem Geschäftsbereich des Beauftragten der Bundesregierung für Kultur und Medien (BKM) an. Mit Wirkung zum 17. Juni 2021 wurde die Behörde aufgelöst und in das Bundesarchiv überführt. Geschichte Am 4. Oktober 1990 übernahm der ehemalige Rostocker Pastor Joachim Gauck das Amt des Sonderbeauftragten der Bundesregierung für die Stasi-Unterlagen. Mit Inkrafttreten des Stasi-Unterlagen-Gesetzes am 29. Dezember 1991 wurde er der Bundesbeauftragte für die Stasi-Unterlagen. Wegen ihres langen amtlichen Titels wurde die Behörde daraufhin kurz Gauck-Behörde genannt. Nachdem Marianne Birthler die Leitung der Behörde im Oktober 2000 übernommen hatte, hieß die Behörde in den Medien auch Birthler-Behörde. Sie wird als Bundesbehörde für die Stasi-Unterlagen (BStU) bezeichnet und unterlag der Dienstaufsicht durch den Beauftragten der Bundesregierung für Kultur und Medien. Es gibt keine Fachaufsicht durch ein Ministerium, die BStU berichtet regelmäßig an den Deutschen Bundestag. Der Deutsche Bundestag hat auf Vorlage der Bundesregierung im Rahmen der Fortschreibung des Gedenkstättenkonzeptes beschlossen, eine Expertenkommission einzusetzen. Diese sollte die Aufgaben der BStU analysieren und dem Deutschen Bundestag Vorschläge zur Zukunft der Behörde machen. Die Regierungsparteien CDU/CSU und FDP entschieden, dass die BStU noch mindestens bis 2019 tätig bleiben soll. In dem Gedenkstättenkonzept ist außerdem festgehalten, dass die Struktur und Anzahl der BStU-Außenstellen in den Regionen zeitnah verändert wird, um trotz zurückgehenden Personalbestands die Arbeitsfähigkeit gewährleisten zu können. Hierzu lagen 2009 erste Planungen vor, die mit dem BKM, dem Deutschen Bundestag und den Ländern diskutiert wurden. Am 28. Januar 2011 wurde der Journalist Roland Jahn vom Deutschen Bundestag zum neuen Leiter der Behörde gewählt. Das Amt trat er im März 2011 an. Anfang 2016 kritisierte der Bundesrechnungshof die unzulässige Zahl von Überstunden der Pressesprecherin der Behörde, Dagmar Hovestädt. Laut BStU waren die Überstunden dienstlich notwendig, eine rechtliche Prüfung habe stattgefunden, in der Verwaltung sei es jedoch zu verschiedenen Fehlern gekommen. Die Behörde stellte die Mängel anschließend ab und führte eine verbesserte Prüfmethodik für Finanzentscheidungen ein. Stasi-Unterlagen-Gesetz Am 29. Dezember 1991 trat das Stasi-Unterlagen-Gesetz (StUG) in Kraft; der Deutsche Bundestag hatte es mit großer Mehrheit verabschiedet. Das zentrale Anliegen dieses Gesetzes ist die Öffnung der Akten des ehemaligen Staatssicherheitsdienstes für die Aufarbeitung, insbesondere der Zugang der Betroffenen zu den Informationen, die der Staatssicherheitsdienst zu ihnen gespeichert hat. Erstmals bekamen damit Bürger die Gelegenheit, Unterlagen einzusehen, die eine Geheimpolizei über sie angelegt hatte. Das ist in der Geschichte ohne Beispiel. Zudem ist es ein Auftrag des Gesetzes, die Persönlichkeitsrechte der Menschen, über die Stasi-Unterlagen existieren, zu schützen. Vier Tage nach dem Inkrafttreten des Gesetzes, am 2. Januar 1992, begann die Akteneinsicht. Das Ministerium für Staatssicherheit der DDR sammelte Material über Millionen von Menschen – in erster Linie über DDR-Bürger, aber auch über viele Bürger der Bundesrepublik Deutschland und über Bürger anderer Staaten. Viele Lebensläufe – nicht nur in der DDR – wurden im Laufe der Jahre durch die Staatssicherheit entscheidend beeinflusst. Das MfS organisierte den beruflichen Erfolg oder Misserfolg, erstellte gründliche Pläne zur so genannten Zersetzung, drang in die Privatsphäre seiner Opfer ein und verwendete auch intime Informationen für seine Zwecke. Die Stasi verletzte Grundrechte der Bürger wie die ärztliche Schweigepflicht, Bank- und Postgeheimnis, die Unverletzlichkeit der Wohnung, auch wenn sie in der Verfassung der DDR festgelegt waren. Insgesamt wurden bis Ende 2020 7.353.885 Anträge auf Akteneinsicht gestellt, darunter: 3.394.609 Anträge von Bürgern auf Auskunft, Einsicht und Herausgabe (Erst- und Wiederholungsanträge, Anträge auf Decknamenentschlüsselung und Anträge zur Herausgabe von Kopien), 1.754.521 Ersuchen zur Überprüfung von Mitarbeitern des öffentlichen Dienstes (bis 2011), 517.419 Anträge zu Fragen der Rehabilitierung, Wiedergutmachung und Strafverfolgung, 1.148.201 Ersuchen zu Rentenangelegenheiten, 38.430 Anträge von Forschung und Medien, sowie 438.673 sonstige Überprüfungen und Ersuchen (2011). Beschäftigung ehemaliger MfS-Angehöriger 2007 erschien ein als vertraulich deklariertes „Gutachten über die Beschäftigung ehemaliger MfS-Angehöriger bei der BStU“, das der Kulturstaatsminister Bernd Neumann bei dem ehemaligen Verfassungsrichter Hans Hugo Klein und dem Historiker Klaus Schroeder in Auftrag gegeben hatte. Das Gutachten erhebt schwere Vorwürfe gegenüber der Behörde, vor allem bezogen auf die Zeit unter Joachim Gaucks Führung. So sollen 1991 mindestens 79 ehemalige Stasimitarbeiter, darunter fünf ehemalige IMs, in der Behörde tätig gewesen sein. Im Gutachten heißt es: „Nahezu alle ehemaligen MfS-Bediensteten hatten in den ersten Jahren des Aufbaus der Behörde die Möglichkeit des Missbrauchs. Sie konnten Akten vernichten, verstellen oder herausschmuggeln, denn sie hatten als Wachschützer, als Archivare, als Magazinmitarbeiter oder als Rechercheure zum Teil ungehinderten und unbeaufsichtigten Zugang zu erschlossenem, aber auch zu unerschlossenem Material.“ Marianne Birthler begrüßte grundsätzlich die Beauftragung der Bundesregierung zur Erstellung eines Gutachtens, wies aber die im Gutachten angegebenen Zahlen an Mitarbeitern mit MfS-Vergangenheit zurück und bemängelte, dass das Gutachten unbelegte Darstellungen enthalte. Der letzte Amtsinhaber Roland Jahn bezeichnete in seiner Antrittsrede am 14. März 2011 die Beschäftigung ehemaliger MfS-Mitarbeiter als „unerträglich“ und erklärte es zu seinem Ziel, diese Mitarbeiter umsetzen zu lassen. Rosenholz-Dateien Unter den Unterlagen der Behörde nimmt die „Rosenholz“-Datenbank in der Öffentlichkeit eine Sonderstellung ein. Sicher haben politische Diskussionen und die Medienberichterstattung um die Verstrickung Westdeutscher in das Staatssicherheitssystem der DDR daran ihren Anteil. Diese Datenbank wird im Karteibereich der Zentralstelle geführt. Bei den „Rosenholz“-Unterlagen handelt es sich um mikroverfilmte Karteien der Hauptverwaltung Aufklärung (HV A) des MfS, die für die Auslandsspionage zuständig war. Diese Verfilmung fertigte das MfS 1988 im Zuge der allgemeinen Mobilmachungsbereitschaft an. Auf unbekanntem Wege gelangten diese Unterlagen 1989/1990 in die USA. Die amerikanische Regierung ermöglichte 1993 Mitarbeitern des Bundesamtes für Verfassungsschutz Einblick in diese mikroverfilmten Karteikarten. Die deutschen Behörden sollten in die Lage versetzt werden, Spione zu enttarnen und ggf. unter Anklage zu stellen. Diese Aktion des Bundesamtes für Verfassungsschutz, in deren Folge tausende Westdeutsche überprüft wurden, lief damals unter dem Codewort „Rosenholz“. Inzwischen wird der Name auch als Bezeichnung für die Unterlagen selbst benutzt. Nach langwierigen Verhandlungen der Bundesregierung mit den zuständigen Stellen in den USA wurden die Unterlagen mit westdeutschem Bezug seit dem Sommer 2000 bis Mai 2003 schrittweise an die Stasi-Unterlagen-Behörde zurückgegeben. Seit Juni 2003 können die Unterlagen entsprechend dem Stasi-Unterlagen-Gesetz verwendet werden. In zahlreichen Spionageprozessen und Ermittlungsverfahren, die in den 1990er Jahren stattfanden, hat der Generalbundesanwalt Erkenntnisse aus den „Rosenholz“-Unterlagen verwendet. Daher ist aktuell mit strafrechtlich relevanten Entdeckungen kaum noch zu rechnen. Darüber hinaus ist die Überlieferungslage der „Rosenholz“-Datenbank nicht eindeutig. Oft werden sowohl IM (Inoffizieller Mitarbeiter), also Spione, wie deren Quellen, die von den IM ausgeforscht oder abgeschöpft wurden, unter dem gleichen Vorgang erfasst. Deshalb lässt sich oft nicht mehr eindeutig zuordnen, wer Täter und wer Opfer war. Da die HV A 1990 fast alle wichtigen Akten vernichten konnte, sind auch kaum Möglichkeiten zur Gegenprüfung in den Stasi-Unterlagen gegeben. Bedeutung und Ende der BStU 2021 Nach der Auflösung des MfS 1990 und der anschließenden Offenlegung seiner Arbeitsweise wurde das MfS zum Gegenstand eines breiten öffentlichen Interesses und intensiver Forschung seit 1991. Die Dokumentation der BStU über Strukturen, Mitarbeiter und Methoden eines Nachrichtendienstes stellt einen bislang einmaligen Sonderfall und Chance in der deutschen Geschichte dar. Die Behörde eröffnete den Betroffenen erstmals und einzigartig Einsicht in die über sie gespeicherten Informationen. Im „Fall Kohl“ (2000–2004) ging es darum, ob Protokolle der von der Stasi illegal abgehörten Telefonate des damaligen Bundeskanzlers Helmut Kohl herausgabefähig sind. Während Kohl dies ablehnte, drängten insbesondere Journalisten, die zur Spendenaffäre recherchierten, auf Akteneinsicht. Der daraus resultierende „Aktenstreit“ führte nach mehreren Gerichtsverfahren zu einem Kompromiss: Der BStU darf die Unterlagen herausgeben, aber nur unter strengen Auflagen und eingeschränkt. Überführung ins Bundesarchiv Schon als 1991 das Stasi-Unterlagen-Gesetz (StUG) in Kraft trat, war klar, dass die damit gegründete Bundesbehörde für die Stasi-Unterlagen ihren Aktenbestand irgendwann in das Bundesarchiv überführen würde. Da im Stasi-Unterlagen-Gesetz aber ein Unterschied beim Zugang zu den Täterunterlagen gemacht wird, den es im Bundesarchivgesetz nicht gibt, und weil für die Akten der Stasiopfer ein größerer Datenschutz besteht als im Bundesarchiv, ist diese Überführung nicht ohne Weiteres möglich. Eine Änderung des StUG und die mögliche Auflösung und Eingliederung der BStU in das Bundesarchiv wurde 2006 und 2007 öffentlich diskutiert. Der Deutsche Bundestag hat auf Vorlage der Bundesregierung im Rahmen der Fortschreibung des Gedenkstättenkonzeptes im Jahr 2008 die Einsetzung einer Expertenkommission durch den 17. Deutschen Bundestag beschlossen. Diese sollte die gesetzlich zugewiesenen Aufgaben der BStU analysieren und Vorschläge zur Zukunft der Behörde unterbreiten. Grundsätzlich haben die Regierungsparteien CDU/CSU und FDP entschieden, dass die BStU mindestens bis zum Jahr 2019 weiterarbeiten soll. Dies hatte die SPD schon in der vergangenen Legislaturperiode gefordert. Am 27. November 2014 wurde die Expertenkommission zur Zukunft der Behörde des BStU offiziell eingesetzt. In der Fortschreibung der Gedenkstättenkonzeption wurden auch Entscheidungen über die Zukunft der Außenstellen und die Arbeit in der Fläche festgehalten: „Die Struktur der Außenstellen wird zeitnah verändert, um eine effizientere Arbeit trotz zurückgehenden Personalbestandes gewährleisten zu können.“ Da die Außenstellen Rostock, Magdeburg, Gera und Suhl geschlossen werden sollen, setzte eine intensive Diskussion darüber ein. Die Schließung betrifft die Archivstandorte, vor Ort sollen Bürgerbüros die Dienstleistungen für die Bürger – Akteneinsicht, politische Bildungsarbeit, Informationsveranstaltungen etc. – weiter anbieten. Auflösungsbeschluss 2020 und neue Bundesbeauftragte für die Opfer der SED-Diktatur 2021 Der Ausschuss für Kultur und Medien des Deutschen Bundestages hat am 1. August 2019 über das Konzept des Bundesbeauftragten für die Stasi-Unterlagen und des Bundesarchivs vom 13. März 2019 beraten und eine Beschlussempfehlung abgestimmt. Diese wurde in der Plenarsitzung vom 26. September 2019 angenommen. Der Ausschuss für Kultur und Medien des Deutschen Bundestags hat am 4. November 2020 zur Überführung der Stasi-Akten in die Zuständigkeit des Bundesarchivs und die Einrichtung des Amtes eines Beauftragten für die Opfer der SED-Diktatur nach dem Entwurf eines Gesetzes zur Änderung des Bundesarchivgesetzes, des Stasi-Unterlagen-Gesetzes und zur Einrichtung einer oder eines SED-Opferbeauftragten vom 27. Oktober 2020 eine öffentliche Anhörung durchgeführt. Am 19. November 2020 stimmte der Bundestag mit der Mehrheit aus CDU/CSU, SPD, FDP und Bündnis 90/Die Grünen für ein Gesetz zur Überführung der Unterlagen in die Zuständigkeit des Bundesarchivs. Die Linksfraktion enthielt sich, die AfD-Fraktion stimmte dagegen. Der Bundesbeauftragte Jahn äußerte sich zustimmend zu dem Gesetz und zur Nachfolge: „Es ist gut, dass aus dem Beauftragten für die Akten ein Beauftragter für die Menschen wird, der nicht nur die Stasi, sondern die gesamte SED-Diktatur in den Blick nimmt.“ Das Gesetz zur Änderung des Bundesarchivgesetzes, des Stasi-Unterlagen-Gesetzes und zur Einrichtung einer oder eines SED-Opferbeauftragten wurde am 9. April 2021 ausgefertigt und trat gemäß seinem Artikel 6 am 17. Juni 2021 in Kraft. Am 10. Juni 2021 wählte der Bundestag Evelyn Zupke zur neuen Bundesbeauftragten für die Opfer der SED-Diktatur. Einsichtnahme in Stasi-Unterlagen Die Rechtsgrundlage für die Einsichtnahme in die Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR bildet das Stasi-Unterlagen-Gesetz (StUG). Das Antragsformular für die Einsichtnahme kann auf der Internetseite der BStU heruntergeladen werden. Der private Akteneinsichtsantrag Jeder Einzelne hat das Recht, von dem Bundesbeauftragten Auskunft darüber zu verlangen, ob in den erschlossenen Unterlagen Informationen zu seiner Person enthalten sind. Ist das der Fall, kann er Auskunft, Einsicht in Unterlagen und Herausgabe von Kopien erhalten. Die Unterlagen zu vermissten oder verstorbenen nahen Angehörigen sind nur für einen festgelegten Personenkreis und nur zu bestimmten Zwecken eingeschränkt zugänglich (§ 15 StUG). Anträge von Forschern und Medienvertretern Der Bundesbeauftragte unterstützt die Forschung, Presse, Rundfunk und Film (Medien) sowie Einrichtungen zur politischen Bildung bei der historischen und politischen Aufarbeitung der Tätigkeit des Staatssicherheitsdienstes, der Herrschaftsmechanismen der ehemaligen DDR bzw. der ehemaligen sowjetischen Besatzungszone sowie bei der Aufarbeitung der nationalsozialistischen Vergangenheit. Im Rahmen eines zulässigen Antrags werden die Unterlagen des Staatssicherheitsdienstes zur Verfügung gestellt. Ersuchen öffentlicher und nicht-öffentlicher Stellen Die Überprüfung von Personen auf eine frühere hauptamtliche oder inoffizielle Tätigkeit für den Staatssicherheitsdienst ist auf der Grundlage eines schriftlichen Ersuchens öffentlicher und nicht-öffentlicher Stellen möglich. Das sind etwa die Landtage oder Regierungen, aber auch Kreistage oder Bürgermeister. Der Kreis der überprüfbaren Personen wurde mit dem Siebten Gesetz zur Änderung des Stasi-Unterlagen-Gesetzes vom 21. Dezember 2006 stark eingeschränkt. Ebenso werden u. a. Ersuchen zu Rentenangelegenheiten, zu offenen Vermögensfragen oder zu Ordensangelegenheiten bearbeitet. Für Zwecke der Strafverfolgung und Gefahrenabwehr sowie zur Rehabilitierung und Wiedergutmachung stellt der Bundesbeauftragte auch Unterlagen zur Verfügung. Unter Berufung auf das Informationsfreiheitsgesetz stellte der Bürgerrechtler Heiko Stamer im Oktober 2012 einen Antrag auf Akteneinsicht bezüglich der Nutzung der vom MfS gesammelten Daten durch nationale und internationale Institutionen. Im Februar 2013 erhielt er eine 63-seitge Liste jener, die beim BStU in den Jahren 2000 bis 2012 Auskunft ersucht hatten. Auf der Liste finden sich allen voran nationale Institutionen wie Landeskriminalämter (519), der Generalbundesanwalt (354), das Bundeskriminalamt (349), die regionalen Polizeibehörden (311) und die regionalen Staatsanwaltschaften (233). Ebenso finden sich auf der Liste internationale Institutionen wie das US-Justizministerium, die NSA, die britische sowie die amerikanische Botschaft und verschiedene Verteidigungsministerien. Rekonstruktion zerrissener Unterlagen Manuelle Rekonstruktion Seit 1995 besteht bei der BStU eine Projektgruppe zur manuellen Rekonstruktion zerrissener Unterlagen des Staatssicherheitsdienstes. In ihr arbeiten überwiegend Mitarbeiter des Bundesamtes für Migration und Flüchtlinge (BAMF) in Zirndorf bei Nürnberg. Derzeit sind dort sechs Vollzeit- und zwei Teilzeitkräfte unter Leitung eines Archivars der BStU tätig. Seit Beginn der Arbeiten im Jahr 1995 ist Schriftgut aus 400 Säcken im Umfang von 105 laufenden Regalmetern wiederhergestellt worden; etwa 75 Prozent der erschlossenen Unterlagen betreffen Vorgänge aus den letzten fünf Jahren der DDR. Hinzu kommen erhebliche Mengen an Teilrekonstruktionen (Blattfragmente), die erst vervollständigt werden können, wenn in anderen Säcken die zugehörigen Teile gefunden worden sind. Inhaltlicher Schwerpunkt der Arbeiten war etwa die Wiederherstellung von Schriftgut der Abteilung XV (Auslandsaufklärung) der Bezirksverwaltung Leipzig. Zusammen mit den früheren, seit Beginn der Bearbeitung im Herbst 2004 erfolgten Rekonstruktionen konnte so Schriftgut im Umfang von etwa 8 laufenden Regalmetern wiederhergestellt werden. Diese Unterlagen sind insoweit von besonderer Bedeutung, als 1989/90 beinahe alle Unterlagen zur Auslandsspionage des Staatssicherheitsdienstes vernichtet worden waren. Die rekonstruierten Dokumente haben deshalb nicht nur einen hohen Informationswert, sondern zeichnen sich auch durch ihren Evidenzwert aus, denn sie gehören zu den wenigen Zeugnissen der Tätigkeit, Struktur und Wirkungsweise der Auslandsspionage des Staatssicherheitsdienstes. Die zusammengesetzten Dokumente stammen überwiegend aus der Schlussphase der DDR. Etwa die Hälfte der erschlossenen Unterlagen konnte Vorgängen zugeordnet werden, die 1989 vom MfS noch aktiv geführt wurden. Die rekonstruierten Unterlagen belegen, dass und wie der Staatssicherheitsdienst für Zwecke der Auslandsspionage, insbesondere in der alten Bundesrepublik, auf allen Ebenen inoffizielle Mitarbeiter aus anderen Diensteinheiten des MfS rekrutierte, um sie zusätzlich zum eigenen Agentennetz einzusetzen. Im Juli 2008 wurde entschieden, die manuelle Rekonstruktion der Unterlagen zur Leipziger Abteilung XV zunächst einzustellen, weil einerseits der Arbeits- und Zeitaufwand für die Rekonstruktion der besonders kleinteiligen Schnipsel extrem hoch war und andererseits die Aussicht auf eine computergesteuerte Zusammensetzung der stark zerstörten Unterlagen besteht. Deshalb werden die verbleibenden Materialien – zusammen mit den zerrissenen Akten der Auslandsaufklärung aus den übrigen Bezirksverwaltungen der Staatssicherheit – in das Pilotverfahren zur virtuellen Rekonstruktion eingebracht. Das Pilotverfahren hat somit auch positive Effekte auf die Arbeitsabläufe der manuellen Rekonstruktion: Erstmals besteht die Aussicht, Material differenziert nach Schadensklassen in verschiedene Arbeitsgänge einsteuern zu können. Durch diese neue arbeitsorganisatorische Option wird dem vom Deutschen Bundestag formulierten Ziel, die Rekonstruktion zerrissener Stasi-Unterlagen zu beschleunigen, zugleich auch bei der manuellen Zusammensetzung der Unterlagen entsprochen. Neben den Materialien der Auslandsaufklärung wurden schwerpunktmäßig weiterhin Unterlagen der HA XX (Staatsapparat, Kultur, Kirche, Untergrund) des MfS zusammengesetzt. Einen dritten Arbeitsschwerpunkt bildet seit Ende 2006 die Rekonstruktion von Unterlagen der Bezirksverwaltungen Cottbus und Frankfurt (Oder). Beide Überlieferungen sind durch hohe Verluste von Unterlagen gekennzeichnet, doch ist für einige Bereiche zerrissenes Schriftgut in nennenswertem Umfang erhalten. Daher besteht die Aussicht, Überlieferungslücken im Wege der Rekonstruktion ausgleichen zu können. Pilotverfahren zur virtuellen Rekonstruktion Für die Haushaltsjahre 2007 und folgende bewilligte der Deutsche Bundestag bis zu 6,3 Millionen Euro für ein Pilotverfahren zur virtuellen Rekonstruktion der zerrissen überlieferten Unterlagen des Staatssicherheitsdienstes. Das Pilotverfahren lehnt sich an eine Machbarkeitsstudie des Fraunhofer-Instituts für Produktionsanlagen und Konstruktionstechnik (IPK) aus dem Jahr 2003 an. In dem im Frühjahr 2007 zwischen dem Beschaffungsamt des Bundesministeriums des Innern (für die BStU) und der Fraunhofer-Gesellschaft (für das IPK) abgeschlossenen Forschungsauftrag wird dem Institut eingeräumt, Projektteile von Unterauftragnehmern ausführen zu lassen. Dies trifft insbesondere für das Scannen und die sogenannte Rahmensoftware zur eigentlichen Rekonstruktionssoftware zu. Die für die Verwahrung und Behandlung von MfS-Unterlagen geforderten Sicherheitsstandards werden vom IPK gewährleistet. Derzeit befindet sich das Pilotverfahren in der Entwicklungsphase. Da die Entwicklung der verschiedenen Module wesentlich zeitaufwändiger war als das IPK beim Projektstart angenommen hat, kam es zu einer bisher über zweijährigen Verzögerung. Dennoch ist das Verfahren weiter auf einem guten Weg. Durch die Verzögerung entstehen keine Mehrkosten, da die Leistungen des IPK zu einem Festpreis erfolgsabhängig vergütet werden. Das Rekonstruktionsverfahren konnte mittlerweile in der ersten lauffähigen Version, die die Basismodule beinhaltet, abgenommen werden. In der sich daran anschließenden Testphase (Testlauf im Realbetrieb) mit den verbliebenen Säcken sollen die verschiedenen Arbeitsschritte auf ihre Zuverlässigkeit hin überprüft und verfeinert werden. Auch während des geplanten Testlaufs werden Beschäftigte der BStU beim IPK begleitend eingesetzt. Das Pilotverfahren besteht aus zwei Hauptbausteinen. Der erste Hauptbaustein umfasst die vom IPK zu realisierende Entwicklungs- und Testphase, in der die Schnipsel aus einigen „Probesäcken“ von insgesamt 400 nach archivfachlichen Kriterien ausgewählten Säcken mit zerrissenen Unterlagen im IPK gescannt und automatisiert bzw. interaktiv (durch Mitarbeiter am Bildschirm) virtuell rekonstruiert werden. Die hierbei gewonnenen Erfahrungen dienen der Weiterentwicklung der Software und der optimalen Ablaufgestaltung. Mitarbeiter der BStU unterstützen und begleiten die Arbeitsvorbereitung des Scan-Verfahrens sowie die Qualitätssicherung für das Zusammensetzen und die interaktive virtuelle Rekonstruktion. Der zweite Hauptbaustein ist vom BStU zu realisieren und schließt sich an das technisch erfolgreich abgeschlossene Pilotverfahren an. In der archivischen Bearbeitungsphase werden die vom IPK gelieferten virtuell rekonstruierten Einzelseiten zu Dokumenten bzw. Vorgängen formiert und nach Archivstandards erschlossen. Das Ergebnis der darauf folgenden Auswertungsphase wird ein Bericht an den Deutschen Bundestag sein. Gefordert werden belastbare Aussagen zur Machbarkeit und Prozessmodellierung im Realbetrieb sowie zu den Kosten eines möglichen Hauptverfahrens. Darüber hinaus sollen die im Pilotverfahren gewonnenen Erkenntnisse zum Mehrwert der rekonstruierten Unterlagen im Vergleich zu den vorhandenen Unterlagen bezogen auf die jeweils bearbeiteten Teilbestände dargestellt werden. Auf der Grundlage dieser Aussagen soll das Parlament über den weiteren Umgang mit den zerrissenen Unterlagen entscheiden können. Der Bundesrechnungshof kritisierte in seinem Jahresbericht 2016 die Kosten der Rekonstruktion zerrissener Stasi-Akten mit der Stasi-Schnipselmaschine. In acht Jahren konnten nur Schnipsel aus 23 Säcken digitalisiert und der Inhalt von 11 Säcken rekonstruiert werden. Dabei lagern rund 15.000 Säcke mit Schnipseln in der Behörde. Der Bundesrechnungshof stellte fest, dass für das Projekt beim BStU Ausgaben von mehr als 14 Millionen Euro angefallen waren, „ohne dass absehbar war, wann und wie eine relevant höhere Zahl von Säcken bearbeitet werden könnte“ und forderte den BStU auf, „in einer Neu-Konzeption die fachlichen, technischen und finanziellen Voraussetzungen für eine Weiterführung des Projekts darzulegen“ und empfahl, weil die 2014 vom Bundestag eingesetzte Expertenkommission für die Zukunft des BStU die „Durchführbarkeit der virtuellen Rekonstruktion skeptisch“ sah, eine Kosten-Nutzen-Abwägung. Die Behördenorganisation Der Bundesbeauftragte war bis zur Überführung ins Bundesarchiv am 17. Juni 2021 Roland Jahn, die Funktion des Direktors beim Bundesbeauftragten wurde von der Abteilungsleiterin Zentral- und Verwaltungsaufgaben wahrgenommen. Der Stabsbereich umfasste die Sprecherin des BStU und die Pressestelle, das Leitungsbüro sowie die Arbeitsbereiche Rekonstruktion und Prävention und interne Revision. Die Behörde war in fünf Abteilungen und diese wieder in Referate unterteilt; zudem gab es zwölf Außenstellen, welche insgesamt in das Bundesarchiv überführt wurden. Der BStU hatte bis zu Überführung ins Bundesarchiv am 17. Juni 2021 zur Abstimmung und Beratung einen Beirat und ein wissenschaftliches Beratungsgremium. Abteilung ZV (Zentral- und Verwaltungsaufgaben) Diese Abteilung ist zuständig für Personalangelegenheiten und Aus- und Fortbildung (Referat ZV 1), Liegenschaften (ZV 2), Organisation (Referat ZV 3), Haushalt und Beschaffung (Referat ZV 4), Informations- und Telekommunikationstechnik (Referat ZV 5) sowie Innerer Dienst (Referat ZV 6), Justiziariat (Referat ZV 7), IT-Organisation / IT-Projekte (Referat ZV 8) sowie eine Projektgruppe Standortplanung. Abteilungsleiterin ist Alexandra Titze. Abteilung AR (Archiv) Die Abteilung gliedert sich in das Grundsatzreferat (AR 1), das Karteireferat (AR 2), den Magazindienst (Referat AR 3), Digitalisierung (Referat AR 4), die Erschließungsreferate AR 5 und AR 6. Abteilungsleiterin von AR ist Birgit Salamon. Abteilung AU (Auskunft) Die Abteilung besteht aus einem Grundsatzreferat (AU G) sowie verschiedenen Auskunftsreferaten (AU 1–6). Die Abteilung Auskunft bearbeitet die Anträge auf Akteneinsicht der Bürger, aber auch Anträge auf Überprüfung (Sicherheit, Parlamentarier u. a., Ordensangelegenheiten) für Renten-, Rehabilitations- und Wiedergutmachungsfragen. Die Anträge von Forschung und Medien werden in den Referaten AU 5 und AU 6 bearbeitet. Der Abteilungsleiter ist Martin Griese. Abteilung KW (Kommunikation und Wissen) Die Abteilung umfasst die digitale Vermittlung (Referat KW 1), die Öffentlichkeitsarbeit / Campusentwicklung (Referat KW 2), die wissenschaftliche Forschung (Referat KW 3), den Forschungsservice wie Publikationslektorat und Bibliothek (Referat KW 4) und Ausstellungen und regionale Schwerpunktstudien (Referat KW 5). Die Abteilungsleitung wird vom Bundesbeauftragten für die Stasi-Unterlagen wahrgenommen. Abteilung R (Regionale Aufgaben) In der Abteilung R sind die zwölf Außenstellen des Stasi-Unterlagen-Archivs zusammengefasst. Sie befinden sich in den früheren Bezirksstädten der DDR und verwahren die Unterlagen der Bezirksverwaltungen des Staatssicherheitsdienstes. Abteilungsleiter ist Jens Boltze. In folgenden Städten gibt es BStU-Außenstellen: Beirat des BStU Gemäß § 39 StUG (aufgehoben mit Wirkung vom 17. Juni 2021) begleitete bis zur Überführung ins Bundesarchiv am 17. Juni 2021 der Beirat die inhaltliche Arbeit des Bundesbeauftragten in beratender Funktion. Der Bundesbeauftragte unterrichtet den Beirat über grundsätzliche und andere wichtige Angelegenheiten und erörtert sie mit ihm. Dem Beirat gehören acht Mitglieder an, die vom Deutschen Bundestag gewählt werden sowie neun Mitglieder, die von den jeweiligen Landtagen in den neuen Bundesländern gewählt oder von den jeweiligen Landesregierungen ernannt werden. Damit werden in Anbetracht der fachlichen Unabhängigkeit des Bundesbeauftragten eine zusätzliche Begleitung ihrer Tätigkeit ermöglicht und die besonderen Interessen der neuen Bundesländer berücksichtigt. Mitglieder im Beirat sind folgende vom Deutschen Bundestag gewählte Personen: Katrin Budde, Siegmund Ehrmann, Thomas Hacker, Horst Möller, Petra Morawe, Bodo Walther, Manfred Wilke, Jörn Wunderlich. Von den neuen Bundesländern wurden Jörn Mothes (Vorsitzender des Beirates) vom Land Mecklenburg-Vorpommern, Uwe Schwabe (Erster Stellvertreter des Vorsitzenden) vom Freistaat Sachsen, Iris Gleicke (Zweite Stellvertreterin des Vorsitzenden) vom Freistaat Thüringen, Nancy Aris vom Freistaat Sachsen, Kai Langer vom Land Sachsen-Anhalt, Maria Nooke vom Land Brandenburg, Astrid Rothe-Beinlich vom Freistaat Thüringen, Florian Steger vom Land Sachsen-Anhalt, Tom Sello vom Land Berlin benannt. Landesbeauftragte der ostdeutschen Länder Neben den dem BStU unterstellten Außenstellen mit den Akten von 14 Bezirken der DDR (s. o.) gibt es, worauf StUG Bezug nimmt, sechs Landesbeauftragte zur Aufarbeitung der SED-Diktatur und der Folgen der kommunistischen Diktatur als eigenständige Behörden der ostdeutschen Länder, die von der Auflösung 2021 des BStU nicht betroffen sind. Ihre Berufung erfolgt durch die Landesparlamente und ist daher oft auch Gegenstand parteipolitischer Kompromisse. Die Aufgaben der Ländereinrichtungen sind durch Landesgesetze stärker auf individuelle Beratung und psychosoziale Fürsorge der Stasi-Opfer ausgerichtet, auch erfüllen sie landeseigene Bildungsaufgaben, so in Mecklenburg-Vorpommern: Beratung und Unterstützung bei der Inanspruchnahme von Entschädigungs- und Hilfeleistungen, insbesondere zur Rehabilitierung und Entschädigung von Opfern rechtsstaatswidriger Verfolgung Beratung zur Klärung und Anerkennung des eigenen Schicksals und des Schicksals von Angehörigen Beratung zu Fragen der Antragstellung, zum Recht auf Auskunft, zur Einsicht und Herausgabe von Stasi-Unterlagen Beratung von öffentlichen Stellen beim Umgang mit Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR Aufklärung und Förderung der politischen und historischen Aufarbeitung der Tätigkeit des Staatssicherheitsdienstes Zusammenarbeit mit der Landeszentrale für politische Bildung, Opferverbänden und Aufarbeitungsinitiativen Berlin Berliner Beauftragter zur Aufarbeitung der SED-Diktatur. Aktuell: Tom Sello (seit 2017), Franz-Jacob-Str. 4 B, 10369 Berlin, Internet: berlin.de/aufarbeitung/ Früherer Beauftragter: Martin Gutzeit (1993–2017) Brandenburg Die Beauftragte des Landes Brandenburg zur Aufarbeitung der Folgen der kommunistischen Diktatur. Aktuell: Maria Nooke, Hegelallee 3, 14467 Potsdam, Internet: aufarbeitung.brandenburg.de Frühere Beauftragte: Ulrike Poppe (Erstberufung nach langer Gründungsdebatte; 2009–2017) Mecklenburg-Vorpommern Landesbeauftragte für Mecklenburg-Vorpommern für die Aufarbeitung der SED-Diktatur. Aktuell: Anne Drescher, Bleicherufer 7, 19053 Schwerin, Internet: landesbeauftragter.de Frühere Beauftragte: Peter Selle (1993–1998), Jörn Mothes (1998–2008), Marita Pagels-Heineking (2008–2013) Sachsen Sächsische Landesbeauftragte zur Aufarbeitung der SED-Diktatur. Aktuell: Nancy Aris, Devrientstraße 1, 01067 Dresden, Internet: lasd.landtag.sachsen.de Frühere Beauftragte: Fritz Arendt (1993–1996), Siegmar Faust (1996–1999; abberufen), Michael Beleites (2000–2010), Lutz Rathenow (2011–2021) Sachsen-Anhalt Beauftragte des Landes Sachsen-Anhalt zur Aufarbeitung der SED-Diktatur. Aktuell: Birgit Neumann-Becker, Schleinufer 12, 39104 Magdeburg, Internet: aufarbeitung.sachsen-anhalt.de Frühere Beauftragte: Edda Ahrberg (1994–2005), Gerhard Ruden (2005–2010; zurückgetreten), Thüringen Landesbeauftragter des Freistaats Thüringen zur Aufarbeitung der SED-Diktatur. Aktuell: Peter Wurschi, Jürgen-Fuchs-Straße 1, 99096 Erfurt, Internet: thla.thueringen.de Frühere Beauftragte: Jürgen Haschke (1993–2003); Hildigund Neubert (2003–2013), Christian Dietrich (2013–2018) Podcast „111 km Akten“ Am 1. April 2020 startete die Behörde den wöchentlichen, später zweiwöchentlichen Podcast 111 Kilometer Akten. Dieser lief auch nach dem Übergang des Archivs ins Bundesarchiv weiter und endete im Dezember 2022. Im Podcast kamen Nutzer des Archivs von außen und Archivmitarbeiter zu Wort, zudem wurde über Veranstaltungen des Archivs zur Stasi-Geschichte berichtet. Jede Folge endete mit einem kurzen Originalton aus dem über 20.000 Tondokumente umfassenden Audiobereich des Archivs. Die Themen deckten weite Teile der Stasi- und damit implizit der DDR-Geschichte ab. Der Podcast basiert auf einem Konzept des Journalisten Maximilian Schönherr, der auch Mitgastgeber des Podcast war. Literatur Der BStU hat zahlreiche Dokumentationen und Analysen zu allen möglichen Aspekten rund um die DDR und deren Ministerium für Staatssicherheit veröffentlicht – Angaben dazu sind auf der Internetseite und in der Deutschen Nationalbibliothek zu finden. Rundfunkberichte Otto Langels: DDR-Geheimdienst – Die ungewisse Zukunft der Stasi-Unterlagenbehörde, in: Deutschlandfunk – Hintergrund vom 28. Januar 2014 Weblinks Offizielle Website des Stasi-Unterlagen-Archivs Geschichte des BStU auf der Website des Stasi-Unterlagen-Archivs Tätigkeitsberichte des BStU auf der Website des Stasi-Unterlagen-Archivs MfS-Lexikon auf der Website des Stasi-Unterlagen-Archivs Landesbeauftragter des Freistaats Thüringen zur Aufarbeitung der SED-Diktatur Beauftragte des Landes Sachsen-Anhalt zur Aufarbeitung der SED-Diktatur Sächsische Landesbeauftragte zur Aufarbeitung der SED-Diktatur Die Beauftragte des Landes Brandenburg zur Aufarbeitung der Folgen der kommunistischen Diktatur Berliner Beauftragter zur Aufarbeitung der SED-Diktatur Landesbeauftragte für Mecklenburg-Vorpommern für die Aufarbeitung der SED-Diktatur Einzelnachweise Bundesbehörde in Berlin Staatssicherheit (DDR) Deutsche Wiedervereinigung Gegründet 1990 Aufgelöst 2021 Aufarbeitung der SED-Diktatur
488
https://de.wikipedia.org/wiki/Bor
Bor
Bor ist ein chemisches Element mit dem Elementsymbol B und der Ordnungszahl 5. Im Periodensystem steht es in der 3. Hauptgruppe, bzw. der 13. IUPAC-Gruppe, der Borgruppe, sowie der zweiten Periode. Das dreiwertige seltene Halbmetall kommt in Form seiner Sauerstoffverbindungen als Borax und Kernit in einigen abbauwürdigen Lagerstätten vor. Bor existiert in mehreren Modifikationen: Amorphes Bor ist ein braunes Pulver, von kristallinem Bor sind mehrere allotrope Modifikationen bekannt. Borverbindungen finden vielfältige Anwendungen in verschiedenen Industriezweigen. Die Waschmittelindustrie verwendet Borverbindungen wie Natriumperborat im großtechnischen Maßstab als Bleichmittel. Die Glasindustrie nutzt Bor in Form seiner Boraxverbindungen für die Produktion von Gläsern und Keramiken mit hoher Chemikalienresistenz und Temperaturwechselbeständigkeit. Elementares Bor wird in der Halbleiterindustrie zur Dotierung eingesetzt. Borpolymere und -keramiken spielen eine Rolle für die Herstellung hochfester Leichtbau- und feuerfester Materialien. Borcarbid weist eine hohe Härte auf und wird als Schleifmittel verwendet. Zum Hartlöten werden Borverbindungen als Flussmittel genutzt. In der Hydroborierung dienen Borreagenzien der Synthese organischer Feinchemikalien. Natürliches Bor besteht aus zwei stabilen Isotopen, von denen 10Bor als Neutronenabsorber geeignet ist. Die Salze und Ester von Bor (Borate) haben geringe Toxizität für Säugetiere, sind aber giftig für Gliederfüßer und werden als Insektizide verwendet. Borsäure wirkt schwach antimikrobiell; es sind natürliche, Bor enthaltende Antibiotika bekannt. Bor ist möglicherweise ein essentielles Spurenelement. In der Landwirtschaft verbessert Bordüngung die Stabilität der pflanzlichen Zellwände. Bei Pflanzen ist Bor bei der Zellteilung, Zelldifferenzierung, Zellstreckung, Gewebebildung, Nukleinsäurestoffwechsel, der Eiweißsynthese und beim Energiestoffwechsel beteiligt. Geschichte Borverbindungen (von burah über buraq und griech. βοραχου bzw. lat. borax „borsaures Natron“, „Borax“) sind seit Jahrtausenden bekannt. Im alten Ägypten nutzte man zur Mumifikation das Mineral Natron, das neben anderen Verbindungen auch Borate enthält. Seit dem 4. Jahrhundert wird Boraxglas im Kaiserreich China verwendet. Borverbindungen wurden im antiken Rom zur Glasherstellung verwendet. Erst 1808 stellten Joseph Louis Gay-Lussac und Louis Jacques Thénard Bor durch Reduktion von Bortrioxid mit Kalium, unabhängig hiervon etwas später Sir Humphry Davy durch Elektrolyse von Borsäure her. 1824 erkannte Jöns Jakob Berzelius den elementaren Charakter des Stoffes. Die Darstellung von reinem kristallisiertem Bor gelang dem amerikanischen Chemiker W. Weintraub im Jahre 1909 durch Reduktion von gasförmigem Bortrichlorid mit Wasserstoff im Lichtbogen. Vorkommen Wie die beiden im Periodensystem vorangehenden Elemente Lithium und Beryllium ist auch Bor ein im Sonnensystem auffallend seltenes Element. Die Seltenheit dieser drei Elemente erklärt sich daraus, dass sie keine Produkte der stellaren Kernfusionen sind, die zur Elemententstehung (Nukleosynthese) führen. Das Wasserstoffbrennen führt zu Heliumatomen, das darauffolgende Heliumbrennen (der Drei-Alpha-Prozess) schon zu Kohlenstoffatomen. Bor und Beryllium entstehen ausschließlich bei der Spallation schwerer Atomkerne durch kosmische Strahlung. Bor kommt auf der Erde nur in sauerstoffhaltigen Verbindungen vor. Große Lagerstätten befinden sich in Bigadiç, einem Landkreis der Provinz Balıkesir im Westen der Türkei. Die größten Boratminen befinden sich bei Boron (Kalifornien) (die Kramer-Lagerstätte) und in Kırka (Türkei). Abgebaut werden die Mineralien Borax, Kernit und Colemanit. In der Türkei sind 70 % der abgebauten Erze Colemanit und werden für die Herstellung von hitzeresistentem Glas verwendet. Weitere Vorkommen gibt es in der Mojave-Wüste in den USA, sowie in den Anden (Südamerika) und alpinen Regionen im südlichen Eurasien. Staßfurter Kalisalze enthalten geringe Mengen vergesellschafteten Boracit. Die weltweiten Abbaumengen betrugen im Jahr 2005 geschätzt 4.910.000 t (als) Bortrioxid. Seit dem Jahr 2007 veröffentlichen die USA ihre Abbaumengen nicht mehr, da sie ein Geschäftsgeheimnis darstellen. Die globalen Abbaumengen verteilen sich, wie folgt: n.bek. = nicht bekannt In Wasser kommt Bor überwiegend als undissoziierte Borsäure vor. Bor kommt im Meerwasser in einer Konzentration von 4–5 mg/l vor. In Meeresluft wurden 0,17 μg/m3 gemessen (WHO, 1996). In Mineralwässern wurden durchschnittlich 500 μg/l Bor gemessen, mit einem Wertespektrum zwischen weniger als 20 μg/l und 3,23 mg/l. Der Gehalt im Grundwasser sowie in Binnengewässern liegt in Deutschland im Bereich von 10 bis 50 μg/l, wobei in Baden-Württemberg von einem Hintergrundwert (ohne anthropogene Beeinflussung) im Grundwasser von 50 μg/l ausgegangen wird. In der Außenluft sind in Deutschland im Durchschnitt 16 ng/m³ und im Trinkwasser Werte von 10 bis 210 μg/l gemessen worden. Im Boden liegt die Konzentration an Borax zwischen 88 und 177 mg/kg bezogen auf das Trockengewicht. In der Schweiz wird von natürlichen Borgehalten im Flusswasser von rund 10 μg/l und im Grundwasser von bis zu 40 μg/l ausgegangen, während die tatsächlichen Werte in Flüssen und Seen bis über 200 μg/l betragen können und das Trinkwasser durchschnittlich rund 20 μg/l und höchstens 60 μg/l Bor enthält. Pflanzen benötigen Bor und der Gehalt in der Trockenmasse beträgt 30–75 ppm. Menschen nehmen Bor über Trinkwasser und Nahrung auf. Im Körper liegt ein Gehalt von etwa 0,7 ppm vor. Gewinnung und Darstellung Amorphes Bor wird durch die Reduktion von Bortrioxid, B2O3, mit Magnesiumpulver hergestellt: B2O3 + 3Mg -> 2B + 3MgO Derartig gewonnenes Bor besitzt nach Abtrennen der Beimengungen eine Reinheit von 98 %. Die Reinheit des Stoffes kann erhöht werden, indem das Bor als Reinstoff aus einer Platinschmelze bei 800–1200 °C auskristallisiert wird. Kristallines Bor lässt sich auch durch andere Verfahren darstellen: Das Element lässt sich meist aus seinen Halogeniden als Reinstoff gewinnen. Mittels eines 1000–1400 °C heißen Wolfram- oder Tantaldrahts kann durch Reduktion von Bortrichlorid oder Bortribromid mit Wasserstoff das Element in sehr hoher Reinheit dargestellt werden. Um Bortrifluorid mit Wasserstoff zu reduzieren, wären Reaktionstemperaturen von 2000 °C erforderlich, sodass diese Verbindung nicht als Ausgangsstoff zur Darstellung genutzt wird. Eine weitere Möglichkeit stellt die thermische Zersetzung von Diboran bei 600–800 °C bzw. von Bortriiodid bei 800–1000 °C an einer Tantal-, Wolfram- oder Bornitrid-Oberfläche dar. B2H6 -> 2B + 3H2 2BI3 -> 2B + 3I2 Modifikationen Die vermutlich thermodynamisch stabilste Form ist die β-rhomboedrische Modifikation (β-Bor). Sie hat eine komplizierte Struktur mit mindestens 105 Boratomen pro Elementarzelle, wobei hier noch Boratome hinzukommen, die sich auf teilbesetzten Lagen befinden. Die Anzahl der Boratome pro Elementarzelle wird mit 114 bis 121 Atomen angegeben. Die Struktur dieser Modifikation kann man mit einem 60-Ecken-Polyeder beschreiben. Die einfachste allotrope Modifikation ist die α-rhomboedrische Form des Bors (α-Bor). Die in dieser Modifikation des Bors dominierende Struktureinheit ist das B12-Ikosaeder mit 12 Boratomen im Ikosaeder. Diese sind in Schichten angeordnet ähnlich wie in einer kubisch flächenzentrierten Packung. Die Ikosaeder einer Schicht sind durch Dreizentrenbindungen und die Ikosaeder benachbarter Schichten durch Zweizentrenbindungen miteinander verknüpft. α-tetragonales Bor (auch als γ-Bor bezeichnet), die als erstes dargestellte kristalline Form des Bors, enthält 50 Bor-Atome in der Elementarzelle (gemäß der Formel (B12)4B2), kann beispielsweise aber auch, abhängig von den Herstellungsbedingungen, als Einschlussverbindung B50C2 oder B50N2 vorliegen. Im fremdatomfreien α-tetragonalen Bor verbindet ein einzelnes Boratom immer vier B12-Ikosaeder miteinander. Jedes Ikosaeder hat Verbindungen zu je zwei einzelnen Boratomen und zehn anderen Ikosaedern. Seit der ersten Beschreibung dieser Struktur ist es nie wieder gelungen, diese Modifikation rein herzustellen. Man geht mittlerweile davon aus, dass reines α-tetragonales Bor in der beschriebenen Struktur nicht existiert. Das elementare Bor ist schwarz, sehr hart und bei Raumtemperatur ein schlechter Leiter. Es kommt nicht in der Natur vor. Forscher an der ETH in Zürich stellten aus äußerst reinem Bor einen ionischen Kristall her. Dazu musste das Material einem Druck von bis zu 30 Gigapascal und einer Temperatur von 1500 °C ausgesetzt werden. Dieselbe Arbeitsgruppe veröffentlichte mittlerweile ein Addendum, wonach sie die Bindungssituation in dieser Modifikation als kovalent bezeichnen. Einem Forschungsteam an der Universität Bayreuth ist es 2011 gelungen, α-rhomboedrisches Bor eindeutig als thermodynamisch stabile Phase von Bor zu identifizieren. In Hochdrucklaboratorien wurde eine Serie unterschiedlicher Borkristalle bei Temperaturen bis zu 2300 Kelvin und Drücken bis zu 15 Gigapascal synthetisiert. Von besonderem Interesse für die Forschung und für industrielle Anwendungen, wie die Halbleitertechnik, sind hierbei α-Bor-Einkristalle. Eigenschaften Physikalische Eigenschaften Wegen der hohen Ionisierungsenergie sind von Bor keine B3+-Kationen bekannt. Die komplizierten Strukturen in vielen Borverbindungen und deren Eigenschaften zeigen, dass die Beschreibung der Bindungsverhältnisse als kovalent, metallisch oder ionisch stark vereinfachend sind und durch einen Molekülorbital(MO)-Ansatz ersetzt werden müssen. Die Elektronenkonfiguration 1s22s22p1 des Bors zeigt, dass nur die drei Elektronen der zweiten Schale für die Ausbildung von kovalenten Bindungen mit s-, px-, py- und pz-Orbitalen zur Verfügung stehen. Dieser Elektronenmangel wird durch Ausbildung von Mehrzentrenbindungen, insbesondere einer Dreizentrenbindung, und Elektronenakzeptorverhalten (Lewis-Acidität) kompensiert. Es ist gelungen, eine Borverbindung mit einer Bor-Bor-Dreifachbindung herzustellen. Bor ist durchlässig für Infrarotlicht. Bei Raumtemperatur zeigt es eine geringe elektrische Leitfähigkeit, die bei höheren Temperaturen stark ansteigt. Bor besitzt die höchste Zugfestigkeit aller bekannten Elemente sowie die zweithöchste Härte, nur übertroffen von der Kohlenstoffmodifikation Diamant. Bormodifikationen haben physikalische und chemische Ähnlichkeit mit Hartkeramiken wie Siliciumcarbid oder Wolframcarbid. Chemische Eigenschaften Bis 400 °C ist Bor reaktionsträge, bei höheren Temperaturen wird es zu einem starken Reduktionsmittel. Bei Temperaturen über 700 °C verbrennt es in Luft zu Bortrioxid B2O3. Von siedender Salz- und Fluorwasserstoffsäure wird Bor nicht angegriffen. Oxidierend wirkende, konzentrierte Schwefelsäure greift Bor erst bei Temperaturen über 200 °C an, konzentrierte Phosphorsäure hingegen erst bei Temperaturen über 600 °C. Löst man B2O3 in Wasser, so entsteht die sehr schwache Borsäure. Deren flüchtige Ester, am deutlichsten Borsäuretrimethylester, färben Flammen kräftig grün. Die Fähigkeit des Bors, über kovalente Bindungen stabile räumliche Netzwerke auszubilden, sind ein weiterer Hinweis auf die chemische Ähnlichkeit des Bors mit seinen Periodennachbarn Kohlenstoff und Silicium. Eine wichtige Forschungsdisziplin der heutigen anorganischen Chemie ist die der Verbindungen des Bors mit Wasserstoff (Borane) sowie mit Wasserstoff und Stickstoff, die den Kohlenwasserstoffen ähneln (isoelektronisch), z. B. Borazol B3N3H6 („anorganisches Benzol“). Eine Reihe organischer Borverbindungen sind bekannt, beispielsweise Boronsäuren. Isotope Es sind insgesamt 13 Isotope zwischen 6B und 19B des Bors bekannt. Von diesen sind zwei, die Isotope 10B und 11B, stabil und kommen in der Natur vor. Das Isotop mit dem größeren Anteil an der natürlichen Isotopenzusammensetzung ist 11B mit 80,1 %, 10B hat einen Anteil von 19,9 %. Alle künstlichen Isotope haben sehr kurze Halbwertszeiten im Millisekundenbereich. Verwendung Die wirtschaftlich wichtigste Verbindung ist Borax (Natriumtetraborat-Decahydrat, Na2B4O7 · 10 H2O) zur Herstellung von Isolier- und Dämmstoffen sowie Bleichstoffen (Perborate). Weitere Anwendungen: Elementares Bor Additiv für Raketentreibstoffe Ferrobor und Bor als Legierungszusatz für Feinkornbaustähle und Nickelbasislegierungen Reduktionsmittel bei der Herstellung von reinem Kupfer, um Sauerstoff zu entfernen Bor als Kornfeinungsmittel für Messing-Gusslegierungen Bor-Nitrat-Gemische als Zünder für Airbags Kristallines Bor und Borfasern für Anwendungen mit extrem hoher Festigkeit und Steifigkeit: Bauteile für Helikopterrotoren, Tennisrackets, Golfschläger, Angelruten, Panzerungen und schusssichere Westen; wegen des geringen Radarechos findet es Verwendung in den Stealth-Kampfflugzeugen F-117 und B-2. Feuerwerksartikel und Leuchtspurmunition (wegen intensiv grüner Flamme) p-Dotierung in Silicium Thermochemische Randschichthärtung, siehe Borieren Nadelträger bei sehr hochwertigen Tonabnehmersystemen von Plattenspielern, als Ersatz für Aluminium Die Kernfusion von 11B-Atomkernen mit Protonen wäre eine – technisch noch sehr ferne – Möglichkeit zur Energiegewinnung. Borverbindungen Waschmittel (Perborate) Lichtwellenleiter Organische Synthesen Feuerfestes Borosilikatglas Glasfritten Keramikglasuren Pflanzenschutzmittel Schleifmittel und Schneidstoff zur Bearbeitung von Stahl (Borcarbid, Bornitrid); weitere Anwendungen siehe dort Neodym-Eisen-Borverbindungen zur Herstellung stärkster Magnete. Sie werden genutzt für Kernspintomographen, Mikromotoren und Festplatten (Positionierung der Schreib-/Leseköpfe), Dauermagnet-Rotoren (z. B. Schritt- und Servomotoren), Linearmotoren für Positionierachsen, hochwertige Lautsprecher und Kopfhörer. Gegenüber den Cobalt-Samarium-Magneten sind sie wesentlich preiswerter. Abtastnadelträger bei hochwertigen Tonabnehmern für Schallplatten Brems- und Kupplungsbeläge Panzerungen, kugelsichere Westen Nuklearanwendungen von Borverbindungen, meist Borcarbid B4C: Neutronenabschirmung aufgrund des sehr hohen Wirkungsquerschnitts für thermische Neutronen bei der Kernreaktion 10B(n,)7Li (3837 Barn); für Bor mit natürlicher Isotopenzusammensetzung gelten demnach 764 Barn. Borverbindungen werden deshalb Strahlenschutzkleidung und -wänden, Stählen für Lagergefäße von Kernbrennstoffen und der dem Strahlenschutz dienenden Betonhülle hinzugefügt. Steuerstäbe zur Regelung und zum Abschalten der Kettenreaktion in Kernreaktoren. Bei Druckwasserreaktoren wird dafür dem Kühlwasser eine variable Menge von Borsäure zugemischt. Detektion von Neutronen auf Basis der gleichen Reaktion Neutronenquelle durch die Kernreaktion 11B(,n)14N Flussmittel zum Löten (Borsäure) Boraxperle als grobe chemische Analysemethode für Metallionen Kühlschmierstoffe in der Zerspanung Holzschutzmittel (wegen geringer Giftigkeit) Flammschutzmittel für Platinen Kosmetikindustrie Düngemittel Borane Diboran Boroxin Herstellung von Elektrolyten Boride Bornitrid Borhalogenide Nachweis von niederen Alkoholen mit Borsäure (s. Borsäuretrimethylester) BNCT (Boron Neutron Capture Therapy) Magnesiumdiborid (MgB2) Rheniumdiborid (ReB2) ist ein Feststoff härter als Diamant Strontiumborid (SrB6)wird in Steuerstäben für Kernreaktoren eingesetzt Lanthanhexaborid (LaB6) wird in hochergiebigen Kathoden als Elektronenemitter genutzt Physiologie Bor ist möglicherweise ein essentielles Spurenelement, das unter anderem positiven Einfluss auf Knochenstoffwechsel und Gehirnfunktion hat. Menschen nehmen Bor über Trinkwasser und Nahrung auf. Im Körper liegt ein Gehalt von etwa 0,7 ppm vor. Die World Health Organization (WHO) stellte 1998 in einer Studie fest, dass weltweit von einer durchschnittlichen Aufnahme von 1–2 mg Bor pro Tag ausgegangen werden kann, und empfiehlt einen Richtwert (Guideline value) von 2,4 mg/l Trinkwasser. Pflanzen reagieren zum Teil sehr empfindlich auf Bor, so dass bestimmte sensible Pflanzen (Weiden, Obstbäume, Artischocken) bei Konzentrationen von mehr als 1 mg/l Bor zu Borchlorosen neigen (Krankheitsbild gekennzeichnet durch vermehrte Bildung von braunen Flecken) und schließlich absterben können. Pflanzen reagieren aber auch empfindlich auf zu wenig Bor, der Gehalt in der Trockenmasse liegt meist zwischen 30 und 75 ppm. Pharmakologie Bortezomib ist das erste Arzneimittel, das Bor enthält. Es ist der erste verfügbare Proteasom-Inhibitor, der seit 2008 zur Behandlung des Multiplen Myeloms zugelassen ist. Über das Bor erfolgt die hochspezifische und hochaffine Bindung an die katalytische Stelle des 26S-Proteasoms. Da die Borversorgung über die Nahrung und das Trinkwasser in der Regel ausreichend ist und ein zusätzlicher Nutzen von borhaltigen Nahrungsergänzungsmitteln unbelegt ist, wird angesichts der möglichen Risiken von deren Verwendung abgeraten. Sicherheitshinweise Elementares Bor ist in geringen Dosen nicht giftig. Für Bor gibt es keine Hinweise auf genotoxische oder kanzerogene Wirkungen; von der Deutschen Gesellschaft für Ernährung ist kein Referenzwert für Bor als Zufuhrempfehlung aufgeführt. Dosen über 100 mg/Tag können jedoch Vergiftungserscheinungen hervorrufen. Die US-amerikanische Behörde EPA gibt einen täglichen Grenzwert (RfD – Reference Dose) von 0,2 mg pro Kilogramm Körpergewicht für Bor und Borate an, geht jedoch nicht von einer Karzinogenität aus. Bortrioxid, Borsäure und Borate werden mit der 30. ATP in der EU seit Sommer 2009 als fortpflanzungsgefährdend eingestuft. Bei Borsäure und Borax wurde dieser Effekt bislang jedoch lediglich bei der Verabreichung von höheren Dosen an Mäuse beobachtet. Einige Borverbindungen wie die Borane (Borwasserstoffverbindungen) sind hochgradig toxisch und müssen mit größter Sorgfalt gehandhabt werden. Nachweis Bor lässt sich in der analytischen Chemie mit der Curcumin-Methode quantitativ in Form des rot gefärbten Komplexes Rosocyanin, bzw. unter zusätzlicher Verwendung von Oxalsäure durch die Farbreaktion zu Rubrocurcumin nachweisen. Hierzu wird eine Probe des Bor-haltigen Materials oxidativ aufgeschlossen. Die durch den Aufschluss gebildete Borsäure kann anschließend kolorimetrisch bestimmt werden. Zur Messung der Expositionen von Bor am Arbeitsplatz saugt man mit einer Pumpe ein definiertes Luftvolumen durch einen Membranfilter. Zur analytischen Bestimmung wird das Bor mit einem Gemisch aus Salpetersäure und Salzsäure überführt. Gemäß dem Messsystem Gefährdungsermittlung der Unfallversicherungsträger (MGU) wird Bor mittels ICP-Massenspektrometrie bestimmt. Die Bestimmungsgrenze liegt bei 2 µg/m3. Literatur N.N. Greenwood, A. Earnshaw: Chemie der Elemente. 1. Auflage. VCH Verlagsgesellschaft, Weinheim 1988, ISBN 3-527-26169-9, S. 172–266. Harry H. Binder: Lexikon der chemischen Elemente – das Periodensystem in Fakten, Zahlen und Daten. S. Hirzel Verlag, Stuttgart 1999, ISBN 3-7776-0736-3. Peter Paetzold: Neues vom Bor und seinen Verbindungen. In: Chemie in unserer Zeit. 9. Jahrgang, Nr. 3, 1975, S. 67–78 (doi:10.1002/ciuz.19750090302). Weblinks Einzelnachweise Halbleiter
489
https://de.wikipedia.org/wiki/Barium
Barium
Barium (von , wegen der hohen Dichte des Bariumminerals Baryt) ist ein chemisches Element mit dem Elementsymbol Ba und der Ordnungszahl 56. Im Periodensystem steht es in der sechsten Periode und der 2. Hauptgruppe bzw. der 2. IUPAC-Gruppe und zählt damit zu den Erdalkalimetallen. Bariumoxid wurde erstmals 1774 von Carl Wilhelm Scheele dargestellt. Barium ist metallisch-glänzend und von silbrig-weißer Farbe. Es kommt in der Natur wegen seiner hohen Reaktivität nicht elementar vor; u. a. ist es leicht entzündlich. Wasserlösliche Bariumverbindungen sind giftig. Geschichte Erstmals wurden bariumhaltige Minerale im Jahr 1602 durch den italienischen Schuhmacher und Alchemisten Vincenzo Casciarolo (1571–1624) untersucht, dem glänzende Steinchen auffielen, die nach dem Erhitzen im Dunkeln leuchteten. Sie wurden durch die Publikationen des Ulisse Aldrovandi einem größeren Publikum als „Bologneser Stein“ bekannt. Es handelte sich dabei um Baryt, der beim Erhitzen mit organischen Substanzen phosphoresziert. 1774 wurde von dem schwedischen Chemiker Carl Wilhelm Scheele bei der Untersuchung von Gips erstmals Bariumoxid (BaO) identifiziert, das zunächst neue alkalische Erde genannt wurde. Zwei Jahre später fand Johan Gottlieb Gahn die gleiche Verbindung bei ähnlichen Untersuchungen. Ebenfalls im 18. Jahrhundert war dem englischen Mineralogen William Withering in Bleibergwerken Cumberlands ein schweres Mineral aufgefallen, bei dem es sich nicht um ein Bleierz handeln konnte und dem er die Bezeichnung „“ gab. Es ist heute als Witherit (Bariumcarbonat BaCO3) bekannt. Metallisches Barium, jedoch nicht in Reinform, wurde erstmals 1808 von Sir Humphry Davy in England durch Elektrolyse eines Gemisches aus Bariumoxid und Quecksilberoxid hergestellt. Daraufhin erfolgte die Namensgebung Barium nach dem Bariummineral Baryt. Die erste Reindarstellung des Bariums gelang 1855 Robert Bunsen und Augustus Matthiessen durch Schmelzelektrolyse eines Gemisches aus Bariumchlorid und Ammoniumchlorid. 1910 wurde von Marie Curie das schwerere Radium unter Ausnutzung seiner chemischen Ähnlichkeit mit Barium isoliert. Eine wichtige Rolle spielte das Metall auch 1938 bei den kernchemischen Experimenten Otto Hahns und Fritz Straßmanns, die Uran mit langsamen Neutronen beschossen und zu ihrem Erstaunen das viel leichtere Element Barium in den Reaktionsprodukten fanden. Dieser Befund wurde von ihnen korrekt als Spaltung des Urankerns gedeutet. Vorkommen Barium kommt wegen seiner hohen Reaktivität in der Natur nicht elementar, sondern nur in Verbindungen vor. Mit einem Anteil von etwa 0,039 % ist Barium das 14.-häufigste Element der Erdkruste. Barium wird vor allem in den Mineralen Baryt (Schwerspat = kristallisiertes Bariumsulfat) und Witherit (Bariumcarbonat) gefunden, wobei Baryt die häufigsten Vorkommen hat. Die Weltjahresproduktion an Baryt stieg in den Jahren 1973 bis 2003 von etwa 4,8 Millionen Tonnen auf 6,7 Millionen Tonnen an, die weltweiten Reserven werden auf etwa zwei Milliarden Tonnen geschätzt. Die deutschen Vorkommen von Bariumverbindungen liegen im Sauerland, im Harz und in Rheinland-Pfalz. Die Hauptförderländer von Barium sind die Volksrepublik China, Mexiko, Indien, Türkei, USA, Deutschland, Tschechien, Marokko, Irland, Italien und Frankreich. Gewinnung und Darstellung Nur ein kleiner Teil Baryt wird zu Bariummetall weiterverarbeitet. Hierbei wird das Sulfat zunächst zu Sulfid reduziert. Anschließend wird das Bariumsulfid in Bariumcarbonat und weiter in Bariumoxid überführt, das schließlich mit Silicium oder Aluminium bei 1200 °C im Vakuum zum Reinmetall reduziert wird. Die Reaktionen verlaufen nach folgenden Gleichungen: Bariumsulfat reagiert mit Kohlenstoff zu Bariumsulfid und Kohlenstoffdioxid. Bariumsulfid wird mit Wasser und Kohlenstoffdioxid versetzt und reagiert zu Bariumcarbonat und Schwefelwasserstoff. Bariumcarbonat ist wasserunlöslich; es zerfällt beim Erhitzen zu Bariumoxid und Kohlenstoffdioxid. Bariumoxid reagiert mit Aluminium zu Aluminiumoxid und Bariummetall. Die Metallgewinnung aus Bariumcarbonat ist nach diesem Schema zwar einfacher, allerdings ist es in der Natur seltener zu finden. Hochreines Barium wird aus geschmolzenem Bariumchlorid durch Elektrolyse mit anschließender Hochvakuumsublimation gewonnen. Eigenschaften Physikalische Eigenschaften Barium ist ein festes, paramagnetisches Erdalkalimetall, das in einem kubisch-raumzentrierten Gitter kristallisiert. Seine silberweiße Farbe wird an der Luft schnell mattgrau, weil sich eine Oxidschicht bildet. Barium weist eine grüne bis fahlgrüne Flammenfärbung mit den charakteristischen Spektrallinien von 524,2 und 513,7 nm auf. Barium hat eine Dichte von 3,62 g/cm3 (bei 20 °C) und zählt damit zu den Leichtmetallen. Mit einer Mohshärte von 1,25 ist es vergleichsweise weich und auch das weichste der Erdalkalimetalle. Der Schmelzpunkt liegt bei 727 °C, der Siedepunkt bei 1637 °C. Das elektrochemische Standardpotenzial beträgt −2,912 V. Chemische Eigenschaften In den chemischen Eigenschaften ähnelt es Calcium und den anderen Erdalkalimetallen. Es reagiert heftiger als die meisten anderen Erdalkalimetalle mit Wasser und mit Sauerstoff und löst sich leicht in fast allen Säuren – eine Ausnahme bildet konzentrierte Schwefelsäure, da die Bildung einer Sulfatschicht (Passivierung) die Reaktion stoppt. Barium kann deshalb als eines der unedelsten Metalle bezeichnet werden. Wegen dieser hohen Reaktivität wird es unter Schutzflüssigkeiten aufbewahrt. Es reagiert direkt mit Halogenen, Sauerstoff, Stickstoff und Schwefel. Dabei bildet es immer Verbindungen, in denen es als zweiwertiges Kation vorliegt. Beim Erhitzen an der Luft verbrennt das Metall mit der typischen grünen Flammenfärbung zu Bariumoxid. Als sehr unedles Metall reagiert Barium mit Wasser unter Wasserstoff- und Hydroxidbildung. Bariumhydroxid bildet sich auch schon beim Kontakt des Metalls mit feuchter Luft. Im Gegensatz zu anderen Erdalkalimetallen bildet Barium nur eine dünne, wenig passivierende Oxidschicht und kann sich daher in feuchter Luft selbst entzünden. Isotope In der Natur kommen sieben stabile Bariumisotope vor, wobei 138Ba mit 71,8 % das häufigste Isotop ist. Des Weiteren sind von Barium 33 radioaktive Isotope mit Halbwertszeiten zwischen 10,5 Jahren bei 133Ba und 150 Nanosekunden bei 153Ba bekannt; die meisten zerfallen innerhalb weniger Sekunden. Die Bariumisotope besitzen zwischen 58 (114Ba) und 97 (153Ba) Neutronen. Stabile Bariumisotope entstehen bei verschiedenen Zerfallsreihen, beispielsweise des 137I in 137Ba. Die radioaktiven Isotope zerfallen in Lanthan-, Xenon-, Caesium- und Iodisotope. Folgend zwei Beispiele für Kernspaltungen, bei denen radioaktive Isotope des Bariums entstehen: Uran fängt ein langsames Neutron ein und zerfällt dabei in Barium, Krypton und drei schnelle Neutronen (erster Nachweis einer Kernspaltung). Californium zerfällt spontan in Barium, Molybdän und vier Neutronen. Außerdem kann mit einem Cäsium-Barium-Generator das metastabile Isomer Barium-137m aus dem Zerfall von Caesium-137 erzeugt werden. Barium-137m zerfällt mit einer Halbwertszeit von 153,1(1) Sekunden unter Abgabe von Gammastrahlung zu stabilem Barium-137. Verwendung Elementares Barium findet nur in kleinem Umfang Verwendung, und die Produktion liegt bei nur wenigen Tonnen pro Jahr. Die wichtigste Anwendung ist die als Gettermaterial in Vakuumröhren, beispielsweise von Fernsehern oder als Sonnenkollektoren, denn es bindet schnell unerwünschte Restgase wie Sauerstoff, Stickstoff, Kohlenstoffdioxid und Wasserdampf; auch unreaktive Gase werden eingeschlossen und so aus der Vakuumröhre entfernt. Der Dampfdruck des Metalls ist bei den verwendeten Temperaturen gering. Außerdem wird mit Barium legiertes Nickel in Zündkerzen eingesetzt. Weiterhin erhöht es die Härte von Bleilegierungen, die als Lagermetalle verwendet werden. In Verbindung mit Eisen als Bariumferrit (BaFe) findet es Verwendung als Material für Magnetbänder hoher Kapazität. Biologische Bedeutung Pflanzen nehmen Bariumkationen aus dem Boden auf und reichern sie an. Die höchste Konzentration in einer Nutzpflanze findet sich mit 4g pro kg bei der Paranuss, allerdings größtenteils in wasserunlöslicher Form. Zieralgen (Desmidiaceae), eine Familie von einzelligen, etwa einen Millimeter großen Grünalgen (Chlorophyta), die in kalten, nährstoffarmen Süßgewässern, insbesondere in Hochmooren, vorkommen, biomineralisieren Barium und Strontium und lagern sie in ihren Zellen in flüssigkeitsgefüllten Hohlräumen ab. Dazu wird Barium auch bei verschwindend geringen Konzentrationen von nur 1 ppb dem Wasser entzogen. Die Algen tolerieren auch für andere Organismen tödliche Bariumkonzentrationen von bis zu 35 ppm (Millionstel Anteile). Die biologische Funktion der Kristalle ist noch unklar; gesichert scheint, dass durch die Ablagerungen die schädliche Wirkung der Stoffe auf den Organismus vermindert wird. Auch im menschlichen Körper kommt Barium vor, der durchschnittliche Gewebeanteil liegt bei 100 ppb, in Blut und Knochen mit jeweils bis zu 70 ppb etwas niedriger. Mit der Nahrung wird täglich etwa ein Milligramm Barium aufgenommen. Sicherheitshinweise und Toxikologie Alle wasser- oder säurelöslichen Bariumverbindungen sind giftig. Die maximale Arbeitsplatzkonzentration (MAK-Wert) liegt bei 0,5 mg/m3. Eine Dosis von 1 bis 15 Gramm ist abhängig von der Löslichkeit der jeweiligen Bariumverbindung für einen Erwachsenen tödlich. Das in der Röntgenologie verwendete wasserunlösliche Kontrastmittel Bariumsulfat, das zur Darstellung des Magen-Darm-Trakts beziehungsweise des Schluckakts in der Röntgenkinematographie eingesetzt wird, muss deshalb frei von löslichen Bariumverbindungen sein, das heißt, als Reinsubstanz zugeführt werden. Zu beachten ist hier auch die Verwechslungsmöglichkeit bei den im Sprachgebrauch der Apotheken verwendeten lateinischen Begriffen „Barium sulfuricum“ (Bariumsulfat) und „Barium sulfuratum“ (Bariumsulfid). Bariumvergiftungen erfolgen meist am Arbeitsplatz oder in der Nähe Barium verarbeitender Industriebetriebe. Dabei kann es eingeatmet werden oder über das Trinkwasser in den Organismus gelangen. Abgelagert werden Bariumionen in der Muskulatur, den Lungen und den Knochen, in die es ähnlich wie Calcium, jedoch schneller aufgenommen wird. Seine Halbwertszeit im Knochen wird auf 50 Tage geschätzt. Als Konkurrent von Calcium an den Zellmembranen, erhöht es – bei niedriger Dosierung – die Membrandurchlässigkeit und verstärkt die Muskelkontraktion. Das kann zu Blutdrucksteigerung mit Senkung der Herzfrequenz und zu Muskelkrämpfen führen. Höhere Dosen verursachen Muskelschwäche bis hin zu -lähmung, auch auf Grund einer Beeinträchtigung des Zentralen Nervensystems. Herzrhythmusstörungen (Extrasystolen und Kammerflimmern), Tremor, allgemeines Schwächegefühl, Schwindel, Angst und Atemprobleme können auftreten. Bei akuten wie subakuten Vergiftungen können Störungen des Magen-Darm-Trakts wie Leibschmerzen, Erbrechen und Durchfall auftreten. In hohen Konzentrationen blockiert Barium die passiven Kaliumkanäle in der Zellmembran der Muskelzellen, so dass Kalium die Muskelzellen nicht mehr verlassen kann. Da die Natrium-Kalium-ATPase unvermindert Kalium in die Zellen pumpt, sinkt der Kaliumspiegel im Blut. Die resultierende Hypokaliämie verursacht den Ausfall der Muskelreflexe (Areflexie) mit folgender Muskel- und Atemlähmung. Erste Hilfe kann durch Gabe von Natriumsulfat- oder Kaliumsulfatlösung erfolgen, wodurch die Bariumionen als schwerlösliches und damit ungiftiges Bariumsulfat gebunden werden. Im Krankenhaus kann Barium durch Dialyse entfernt werden. Nachweis Nasschemische Methoden Eine Nachweisreaktion ist das Umsetzen mit verdünnter Schwefelsäure, woraufhin weißes Bariumsulfat ausfällt: Befindet sich Barium in Gesellschaft mit anderen Elementen, die ebenfalls schwerlösliche Sulfate bilden, so kann dieses Verfahren nicht angewendet werden. Trennung und Nachweis erfolgen dann, sofern nur Erdalkalielemente vorhanden sind, nach dem Chromat-Sulfat-Verfahren (siehe unter Ammoniumcarbonatgruppe). Im Rahmen dieses Verfahrens wird die Bariumlösung mit Kaliumchromatlösung versetzt, und es entsteht ein gelber Niederschlag von Bariumchromat. Sind noch andere Elemente mit schwerlöslichen Sulfaten vorhanden, muss ein geeigneter Kationentrenngang durchgeführt werden. Instrumentelle Methoden Ein zum Nachweis von Barium geeignetes Verfahren ist die Atomspektroskopie. Der Nachweis von Barium und Bariumsalzen erfolgt hierbei über das charakteristische Spektrum. Mit einem Flammenatomabsorptionsspektrometer oder einem Atomemissionsspektrometer mit induktiv gekoppeltem Hochfrequenzplasma lassen sich selbst geringe Spuren von Barium nachweisen. Beim klassischen Nachweis hält man die Probe in eine Bunsenbrennerflamme und beobachtet die grüne Flammenfärbung. Diese Methode ist allerdings nicht eindeutig, wenn Elemente mit ähnlichen Flammenfarben vorhanden sind. Verbindungen Bariumverbindungen liegen fast ausschließlich in der Oxidationsstufe +II vor. Diese sind meist farblose, salzartige Feststoffe. Charakteristisch für Bariumverbindungen ist die grüne Flammenfärbung. Sauerstoffverbindungen Es existieren zwei verschiedene Barium-Sauerstoffverbindungen, Bariumoxid und Bariumperoxid. Bariumoxid adsorbiert Wasser und Kohlenstoffdioxid und wird dementsprechend eingesetzt. Bariumperoxid, das aus Bariumoxid hergestellt werden kann, ist ein starkes Oxidationsmittel und wird in der Pyrotechnik verwendet. Es ist daneben ein mögliches Edukt für die Herstellung von Wasserstoffperoxid. Wird Bariumoxid in Wasser gelöst, bildet sich die starke Base Bariumhydroxid, die zum Nachweis von Carbonationen verwendet werden kann. Halogenverbindungen Mit Halogenen bildet Barium Verbindungen des Typs BaX2, die in der Blei(II)-chlorid-Struktur kristallisieren. Bariumfluorid, das abweichend in der Fluoritstruktur kristallisiert, besitzt einen weiten transparenten Spektralbereich und wird in der optischen Industrie eingesetzt. Das giftige und gut lösliche Bariumchlorid ist Grundstoff für andere Bariumverbindungen und dient als Fällungsmittel für Sulfat, etwa zum Nachweis oder zur Wasserenthärtung. Verbindungen mit Oxosäuren Bariumsulfat ist die technisch wichtigste Bariumverbindung. Es besitzt im Vergleich zu anderen Bariumverbindungen den Vorteil, auf Grund der sehr geringen Löslichkeit ungiftig zu sein. Es wird vor allem in der Erdölförderung für die Erhöhung der Dichte von Bohrschlämmen eingesetzt. Daneben dient es als Füllstoff für Kunststoffe, als Röntgenkontrastmittel und wird als Anstrichfarbe eingesetzt. Bariumcarbonat ist ein wirksames Rattengift, es wird auch als Rohstoff zur Glasherstellung sowie bei der Produktion hartmagnetischer Ferrite verwendet. Bariumnitrat, Bariumiodat und Bariumchlorat werden wegen ihrer brandfördernden Eigenschaften und der grünen Flammenfärbung in der Pyrotechnik benutzt. Weitere Bariumverbindungen finden sich in der :Kategorie:Bariumverbindung Literatur Robert Kresse, Ulrich Baudis, Paul Jäger, H. Hermann Riechers, Heinz Wagner, Jochen Winkler, Hans Uwe Wolf: Barium and Barium Compounds. In: Ullmann's Encyclopedia of Industrial Chemistry. 6. Auflage. 2007, doi:10.1002/14356007.a03_325. Weblinks Barium in der Umweltprobendatenbank des Bundes Einzelnachweise Leichtmetall
490
https://de.wikipedia.org/wiki/Beryllium
Beryllium
Beryllium ist ein chemisches Element mit dem Symbol Be und der Ordnungszahl 4. Sein Name lässt sich vom Mineral Beryll, einem berylliumhaltigen Edelstein, ableiten (, ). In diesem Mineral sowie im Bertrandit ist auch der größte Teil des in der Erdkruste vorhandenen Berylliums gebunden. Beryllium gehört zu den seltener vorkommenden Metallen. Entdeckt wurde es als Bestandteil des Minerals Beryll bereits 1798 von Louis-Nicolas Vauquelin und wegen des süßlichen Geschmacks der isolierten berylliumhaltigen Verbindungen (z. B. des Hydroxids) zunächst Glucine genannt. Elementares Beryllium wurde erstmals 1828 von Friedrich Wöhler und unabhängig davon von Antoine Bussy hergestellt. Im Periodensystem steht Beryllium in der zweiten Hauptgruppe (2. IUPAC-Gruppe) und zählt daher zu den Erdalkalimetallen. Als Element der zweiten Periode zählt es zu den leichten Erdalkalimetallen. Es hat wegen des Verhältnisses zwischen Ladung und Durchmesser des zweiwertigen Ions aber einige für diese Gruppe ungewöhnliche Eigenschaften; zum Beispiel hat es eine höhere Dichte als seine beiden Homologe Magnesium und Calcium. Das stahlgraue Leichtmetall ist sehr hart und spröde, hat einen höheren Elastizitätsmodul als Stahl und wird meist als Legierungszusatz verwendet. In Verbindungen ist es zweiwertig. Im Vergleich mit den anderen leichten Alkali- und Erdalkalimetallen (Lithium, Natrium, Kalium, Magnesium und Calcium) ist es außergewöhnlich giftig und gesundheitsschädlich. Geschichte Im Altertum und im Mittelalter dienten durchsichtige Beryllstücke vielfach als Lupe (Sehhilfe beim Lesen oder anderen Tätigkeiten im Nahbereich). Die erste überlieferte Erwähnung findet sich in der Naturalis historia aus dem 1. Jahrhundert, wo Plinius der Ältere die Ähnlichkeit zwischen den Mineralien Beryll und Smaragd (Beryll mit einer Spur Chrom) beschrieb. Er hielt sie für unterschiedliche Stoffe. Der Abbé R. J. Haüy stellte bei Beryll und Smaragd nach Härte und Dichte die gleichen physikalischen Eigenschaften sowie die gleiche Kristallform fest und veranlasste daraufhin den französischen Chemiker Louis-Nicolas Vauquelin zu einer Untersuchung. Vauquelin bewies 1798, dass Beryll und Smaragd chemisch nahezu identisch sind. Er isolierte auch ein Oxid aus beiden Mineralen, das er terre du béril (Beryllerde) nannte; es war den bekannten Aluminiumverbindungen zwar ähnlich, aber doch deutlich verschieden von diesen. Bis dahin wurde Beryll nach den vorangegangenen Analysen von T. Bergman, F. C. Achard M. H. Klaproth und L. N. Vauquelin für ein Calcium-Aluminiumsilicat gehalten. Dem neu entdeckten Stoff gaben die Herausgeber des Artikels von Vauquelin den Namen Glucine, wegen des süßen Geschmacks des Berylliumsalzes (griechisch γλυκύς glykys ‚süß‘). Namen wie Glucinum, Glucinium oder Glycinium wurden in Frankreich und einigen anderen Ländern noch bis ins 20. Jahrhundert verwendet, obgleich bereits M. H. Klaproth und A. G. Ekeberg 1802 darauf hinwiesen, dass süßer Geschmack durchaus keine spezielle Eigenschaft der Salze des Berylliums ist, dass Salze des Yttriums ebenfalls süß schmecken und dass daher die Bezeichnung Beryllerde vorzuziehen sei. Die ersten Berichte über Versuche, das Element darzustellen, wurden 1809 von H. Davy und 1812 von F. Stromeyer veröffentlicht. Doch erst 1828 gelang es Friedrich Wöhler und kurz darauf Antoine Bussy, das Element durch Reduktion des Berylliumchlorids mit Kalium darzustellen. Wöhler nannte das neue Element Beryllium. Das 1836 im Davidsonit (einer Beryll-Varietät) entdeckte Element, das von T. Richardson Donium und von H. S. Boase Treenium genannt wurde, stellte sich als Beryllium heraus. M. Awdejew nahm 1842 die ersten Bestimmungen des genauen Atomgewichtes vor. Julius Weeren (1854) und Henry Debray (1855) führten ebenfalls umfangreiche Untersuchungen des Metalls, seiner elementaren Eigenschaften und seiner Verbindungen durch. Auch Charles Arad Joy (1863) erforschte die Herstellung von Beryllverbindungen. Weiteren Kreisen wurde es wohl auf der Pariser Weltausstellung 1867 bekannt, wo erstmals eine größere Menge ausgestellt wurde. Das chemische Symbol Be wurde 1814 von J. J. Berzelius eingeführt. Große Fortschritte in der Chemie des Berylliums gelangen zwischen 1873 und 1885 durch Albert Atterberg, L. F. Nilson und O. Pettersson. In diesen Jahren wurde auch über die Valenz des Berylliums und seine Position im Periodensystem intensiv diskutiert. Zahlreiche weitere Forscher trugen später ebenfalls zur Entwicklung der Chemie des Berylliums bei. Reines Beryllium in kristalliner Form wurde erstmals 1899 von Paul Marie Alfred Lebeau durch Schmelzflusselektrolyse von Natriumtetrafluoridoberyllat (Na2[BeF4]) hergestellt. Nach dem Ersten Weltkrieg wurde Beryllium gleichzeitig von der Siemens & Halske AG (Alfred Stock und Hans Goldschmidt) in Deutschland und von der Union Carbide and Carbon Corporation (Hugh S. Cooper) in den Vereinigten Staaten produziert. Nach dem Zweiten Weltkrieg stellte in Amerika vor allem die Beryllium Corp. of America in Cleveland hochreines Beryllium her und in England erforschte das National Physical Laboratory das Element. 1945 wurde Beryllium zusammen mit dem Alphastrahler Polonium als Neutronenquelle in der Atombombe Little Boy eingesetzt, die über Hiroshima abgeworfen wurde. Bis in die 1940er Jahre wurden Berylliumverbindungen als Bestandteil von Leuchtstoffröhren verwendet (zum Beispiel Zink-Mangan-Beryllium-Silikate), was aber beendet wurde, als immer mehr Fälle von Berylliose aufgedeckt wurden. Berylliose wurde 1946 auch anhand von Arbeitern dieser Industrie zuerst beschrieben. Vorkommen Beryllium ist ein sehr seltenes Element: Kurz nach dem Urknall entstand fast nur instabiles 7Be, und in Sternen kommt das Element bei der Kernfusion nur als Zwischenprodukt vor. Abgesehen von weiteren zu vernachlässigenden Quellen wie Supernovae stammt das im Sonnensystem vorhandene Beryllium daher, wie auch Bor, praktisch ausschließlich aus Spallation durch kosmische Strahlung. Unter den Elementen, die leichter als Eisen sind, ist Beryllium am seltensten (siehe gelistete Häufigkeiten im Sonnensystem). In der Erdhülle steht es mit einem Massenanteil von 5,3 ppm an 48. Stelle der Elementhäufigkeit. Es ist dabei in der oberen kontinentalen Lithosphäre stark angereichert, vergleicht man die Konzentrationen von 1,4 ppm in der unteren kontinentalen Kruste und 0,07 ppm im primitiven Mantel. Beryllium ist ein typisch lithophiles Element. Es bildet eine charakteristische vierfache Koordination mit Sauerstoff im [BeO4]6−-Komplex. Geochemisch wird es in sauren und in alkalischen Magmen während des magmatischen Differenzierungsprozesses angereichert. Bei einem sauren Magma wird es in der pegmatitischen und hydrothermalen Restphase konzentriert, während es bei einem alkalischen Magma in das Gitter mehrerer gesteinsbildender und zusätzlicher Mineralien durch diadoche Einfangtechnik eintritt, was seine Konzentration in der Restphase verhindert. Mineralien, die Beryllium als wesentlichen Bestandteil enthalten, scheinen relativ spät entstanden zu sein. In terrestrischen Gesteinen älter als etwa 3 Milliarden Jahre wurden solche nicht nachgewiesen, sie treten wohl erst rund 1,5 Milliarden Jahre nach der Entstehung der Erde auf. In außerirdischen Gesteinen wurden bislang keine berylliumhaltigen Minerale gefunden. Meteorite, wie Chondrite, Achondrite, steinige Eisen- und Eisenmeteorite, enthalten Beryllium in Konzentrationen von 0 bis 400 ppb. Dabei werden in lokalen Calcium-Aluminium-reichen Einschlüssen (CAIs) bis zu 560 ppb erreicht, mit maximaler Konzentration in Melilith und Änderungsphasen von CAIs (649 ppb bzw. ≈ 1 ppm); die Affinität von Beryllium zu Melilith wird auf dessen strukturelle Ähnlichkeit mit Gugiait zurückgeführt. Konzentrationen unter 10 ppm reichen selten aus, um ein Mineral mit Beryllium als wesentlichem Bestandteil zu stabilisieren. Normalerweise ist eine weitere Anreicherung erforderlich, damit die häufigeren Berylliummineralien entstehen können, beispielsweise auf rund 70 ppm für einen Beryll in granitischen Pegmatiten. Das seltene Element Beryllium kommt auf der Erde in einer Reihe verschiedener Mineralien vor. Die mengenmäßig wichtigsten sind Bertrandit (Be4Si2O7(OH)2) und Beryll (Be3Al2Si6O18). Auch Phenakit kommt weltweit vor. Beryllium tritt in der Struktur von knapp 40 Mineralien als formelwirksamer Bestandteil und in gut 50 weiteren Mineralien als diadocher Bestandteil auf (einige Quellen geben sogar 112, die International Mineralogical Association 126 (Stand Juli 2019) Mineralien mit Beryllium als wesentlichem Element an). Von den rund 40 eigentlichen Berylliummineralien sind 26 Silikate (z. B. Beryll, Barylith, Phenakit), welche die enge geochemische Ähnlichkeit des Komplexes [BeO4]6− mit den Komplexen von [SiO4]4− und [AlO4]5− widerspiegeln. Daneben sind Oxide (z. B. Bromellit, Chrysoberyll), Borate (z. B. Hambergit, Rhodizit), Antimonate (z. B. Swedenborgit), Phosphate (z. B. Beryllonit, Hurlbutit) sowie das bisher einzige bekannte Carbonat Niveolanit bekannt. Beryll kommt in heterogenen zonierten Pegmatiten vor, Bertrandit stammt aus nicht-pegmatitischen Quellen. Die schönsten und wertvollsten berylliumhaltigen Mineralien sind unter anderem die Beryll-Varietäten Aquamarin, Smaragd und weitere „Berylle“, Chrysoberyll und dessen Varietät Alexandrit sowie Euklas, Phenakit und Tugtupit, die überwiegend als Schmucksteine verwendet werden. Beryllium-Lagerstätten finden sich bevorzugt im Äquatorialgürtel. In der Leckbachrinne im Habachtal (Hohe Tauern) südlich von Bramberg in Österreich wurde bis vor wenigen Jahren Smaragd gewonnen (siehe auch Smaragdbergwerk Habachtal). In den USA werden niedrighaltige Lagerstätten von Berylliumoxid-Erz in der Nevada-Wüste abgebaut. Die geschätzten Vorräte an förderbarem Beryllium liegen weltweit bei etwa 80.000 Tonnen. Die (Stand 2022) bekannten globalen Lagerstätten werden auf 100.000 Tonnen Beryllium geschätzt, 60 Prozent der Lagerstätten befinden sich in den USA (hauptsächlich in Form von Bertrandit im Gebiet der Spor Mountain in Utah) und der Rest in Lagerstätten von Beryll in anderen Ländern. Abgebaut werden diese in den USA, Russland, Kanada, Brasilien, der Volksrepublik China, Madagaskar, Mosambik und Portugal. Beryllium kommt in Spuren in vielen Stoffen vor. Herstellung Das wichtigste Ausgangsmaterial für die Darstellung von Berylliumsalzen als Ausgangsstoff zur Herstellung von Beryllium ist der Beryll, der neben dem durch die Formel gegebenen Aluminiumgehalt meist noch Eisen enthält. Neben dem eigentlichen Aufschluss ist daher die Trennung des Berylliums vom Aluminium und Eisen von Bedeutung. Der Aufschluss erfolgt entweder mittels alkalischer Flussmittel Al2Be3[Si6O18] + 6 H2SO4 -> 3 BeSO4 + Al2Si6O12(SO4)3 + 6 H2O BeSO4 + 2 NaOH -> Na2SO4 + Be(OH)2 oder mittels Fluoriden oder Silicofluoriden. Al2Be3[Si6O18] + 6 Na2SiF6 -> 3 Na2BeF4 + 2 Na3AlF6 + 9 SiO2 + 3 SiF4 Na2BeF4 + 4 NaOH -> Na2BeO2 + 4 NaF + 2 H2O Na2BeO2 + 2 H2O -> Be(OH)2 + 2 NaOH Außer dem Beryll werden noch Gadolinit und Leukophan als Ausgangsmaterial für Berylliumsalze mit Aufschluss durch zum Beispiel Schwefelsäure oder Königswasser benutzt. Das entstehende Berylliumhydroxid wird mit Ammoniumbifluorid unter Bildung von Ammoniumfluoroberyllat umgesetzt, das wiederum bei erhöhten Temperaturen (> 125 °C) zu Berylliumfluorid und flüchtigem Ammoniumfluorid zersetzt wird. Zur Erzeugung von Berylliumchlorid führt man Berylliumhydroxid durch Erhitzen in Berylliumoxid über, das bei 800 °C mit Kohlenstoff und Chlor unter Bildung des gewünschten wasserfreien Berylliumchlorid reagiert. Elementares Beryllium wird durch Reduktion von Berylliumfluorid mit Magnesium bei 1300 °C hergestellt. Die Reaktion beginnt schon bei niedrigen Temperaturen, jedoch nimmt über 850 °C die Reaktionsgeschwindigkeit zu, nachdem sowohl Magnesium als auch Berylliumfluoride geschmolzen sind. Die Herstellung hochreinen, metallischen Berylliums erfolgt durch Schmelzflusselektrolyse von Berylliumchlorid mit Lithiumchlorid bei 500 °C oder Natriumchlorid bei 350 °C oder Berylliumfluorid mit Lithiumfluorid oder Kaliumfluorid bei 500 °C: BeCl2 -> Be + Cl2 Beryllium scheidet sich an der Kathode in Form eines feinen Berylliumpulvers ab, das von Zeit zu Zeit mit der Kathode aus der Schmelze gehoben sowie abgestreift und – nach Befreiung von anhaftendem Salz (Waschen mit Wasser) – durch Sintern bei 1150 °C in kompakte Stücke verwandelt wird. Die Weltjahresproduktion an Beryllium-Metall betrug 2018 etwa 230 t. Die bisher nachgewiesenen weltweiten Reserven belaufen sich auf über 100.000 t. Der Preis für Beryllium als voll bearbeitete Luft- und Raumfahrtkomponente liegt zwischen 300 und 1500 €/kg. Als Handelsprodukt in Form von Drähten oder Folien aus reinem Beryllium (> 99,5 % Berylliumgehalt) auch deutlich teurer (> 10.000 €/g.) Eigenschaften Physikalische Eigenschaften Kristallines Beryllium ist von stahlgrauer Farbe, wobei gut ausgebildete Kristallflächen oft einen helleren Farbton zeigen. Die Mohs-Härte des Metalls liegt zwischen 6 und 7. Es ist diamagnetisch und bei normalen Temperaturen außerordentlich spröde und zerspringt leicht bei Schlagbeanspruchung. Bei höheren Temperaturen ist es verhältnismäßig duktil, jedoch ist eine Bearbeitung bei diesen Temperaturen wegen der sehr hohen Affinität des Metalls zum Sauerstoff sehr schwierig und kann ohne Materialverlust nur in einer Wasserstoff-Atmosphäre oder im Vakuum vorgenommen werden. Das spröde Verhalten hängt von verschiedenen Faktoren ab, wie Temperatur, Korngröße, Reinheit (vor allem dem Berylliumoxidgehalt) und vom Verarbeitungsprozess. So ist sehr feinkörniges und hochreines (99,999 %) Beryllium bei normalen Temperaturen plastisch verformbar. Beryllium mit technischer Reinheit ist bei Temperaturen über 500 °C verformbar. Beryllium hat für ein Leichtmetall einen bemerkenswert hohen Schmelzpunkt. Neben der sehr hohen spezifischen Wärmekapazität von 1,825 kJ/(kg·K) hat es einen um ein Drittel höheren Elastizitätsmodul als Stahl (Elastizitätsmodul 303 GPa, Schubmodul 135 GPa, Kompressionsmodul 110 GPa). Die molare Wärmekapazität ist mit 16,45 J/(mol·K) jedoch deutlich kleiner als die der meisten anderen Metalle. Auch die Schwingungsdämpfung ist sehr hoch. Im sichtbaren Licht und nahen Ultraviolett reflektiert es etwa 50 %, im Infrarotbereich bei einer Wellenlänge von 10,6 µm etwa 98 %. Die Schallgeschwindigkeit in Beryllium ist 2,5 Mal höher als die von Stahl, der Wärmeausdehnungskoeffizient liegt bei Raumtemperatur etwa bei 11 · 10−6 pro K. Da es nur vier Elektronen pro Atom hat, ist die Wechselwirkung mit Röntgenstrahlung sehr gering. Es ist somit sehr durchlässig für Röntgenstrahlung und wird in Röntgenröhren als Austrittsfenster benutzt. Alphastrahlung kann aus Beryllium Neutronen freisetzen: James Chadwick gelang durch die Enträtselung dieser Reaktion die Entdeckung des Neutrons und noch heute finden Kombinationen aus Alphastrahlern und Beryllium Anwendung als Neutronenquelle im kleinen Maßstab. Beryllium kristallisiert normalerweise in einer hexagonal-dichtesten Packung, genannt α-Beryllium in der Raumgruppe , im Gegensatz zu β-Beryllium mit einer kubisch raumzentrierten Form, die zwischen 1250 °C und ihrem Schmelzpunkt von 1287 °C stabil ist. Beryllium hat eine außerordentlich niedrige Poissonzahl von µ = 0,032, weist also im Zugversuch eine sehr geringe Querkontraktion auf, während andere Element-Metalle Werte von µ = 0,21 (Chrom) bis 0,44 oder 0,45 (Gold, Blei; Thallium) aufweisen. Das bedeutet, dass eine Berylliumzugprobe im einachsigen Zugversuch kaum einschnürt, also ihren Querschnitt fast konstant beibehält. Chemische Eigenschaften Beryllium gehört zu den selteneren Metallen, das in Salzen sowohl kationisch (Berylliumsilicate) wie anionisch (in Beryllat-Oxoanionen BeO22-) vorkommt. Beryllium und seine Verbindungen ähneln durch ihre ausgeprägte Schrägbeziehung im Periodensystem in vieler Hinsicht dem Aluminium und dessen Verbindungen. Bei Raumtemperatur ist Beryllium an trockener Luft beständig und bleibt blank, da sich eine passivierende Oxidschicht bildet. Erst beim Erhitzen in Pulverform verbrennt es unter heller Feuererscheinung zu Berylliumoxid und Berylliumnitrid. Die Oxidschicht widersteht auch dem Angriff kalter oxidierende Säuren, z. B. konzentrierter Salpetersäure bis zu einer Konzentration von 6 M. Verunreinigungen mit Halogenid- und Sulfationen fördern die Lösung. In verdünnten nichtoxidierenden Säuren (z. B. Salzsäure, Schwefelsäure und Ammoniumhydrogendifluorid) löst es sich entsprechend seinem stark negativen Normalpotential (−1,847 V) lebhaft unter Wasserstoffentwicklung. 2NH4HF2 + Be -> (NH4)2BeF4 + H2 Laugen greifen Beryllium unter Bildung von Beryllaten an. 2NaOH + Be -> Na2BeO2 + H2 An feuchter Luft überzieht es sich mit einer Schicht aus Hydroxid, die sich beim Kontakt mit Wasser ausbildet. Bei höheren Temperaturen ist die Korrosionsbeständigkeit in Wasser abhängig von den Verunreinigungen des Metalls sowie des Korrosionsmediums, zusätzlich besteht die Gefahr der Lochfraßkorrosion. In reiner Form wird es durch Wasser selbst bei Rotglut nicht angegriffen. In heißen Gasen wie Luft, Sauerstoff, Stickstoff und Kohlenstoffdioxid tritt merkliche Korrosion erst oberhalb von 600 °C ein. Im Unterschied zu den übrigen Elementen der II. Hauptgruppe löst sich Beryllium, vor allem bei Erwärmung, auch in wässerigen Alkalilaugen unter Bildung von Beryllaten. Mit den Halogenen reagiert es bei Erhitzung unter Bildung von Halogeniden BeX2. Nur wenige Elemente bilden substantielle feste Lösungen im Beryllium, und zwar Kupfer, Nickel, Cobalt und in geringerem Maße Eisen. Silber hat eine begrenzte feste Löslichkeit in Beryllium. Die meisten Festlösungslegierungen sind wesentlich härter als das gereinigte Metall, d. h. Metall, aus dem mikrolegierungsartige Verunreinigungen entfernt wurden. Beryllium bildet viele intermetallische Verbindungen (zum Beispiel mit Titan), die oft eine wichtige Rolle sowohl bei Studien zur Legierungsentwicklung als auch bei der Herstellung von Beryllium-Verbundwerkstoffen spielen. Aluminium ist ein wichtiger Legierungszusatz, der keine intermetallische Verbindung mit Beryllium bildet. Auch weist Aluminium keine signifikante Feststofflöslichkeit in Beryllium und Beryllium in Aluminium auf, sodass Beryllium-Aluminium-Legierungen als Mischungen der beiden im Wesentlichen reinen Metalle erscheinen. Isotope Es sind insgesamt 11 Isotope des Berylliums zwischen 5Be und 16Be bekannt. Von diesen ist nur eines stabil, das Isotop 9Be mit 5 Neutronen. Damit ist Beryllium eines von 22 Reinelementen. Die langlebigsten instabilen Isotope sind 7Be, das mit einer Halbwertszeit von 53,22 Tagen unter Elektroneneinfang in 7Li übergeht und 10Be, das mit einer Halbwertszeit von 1,51 Millionen Jahren unter Betazerfall zu 10B zerfällt. Beide Isotope sind kosmogen. Alle anderen Isotope haben nur kurze Halbwertszeiten von Sekunden, Millisekunden oder weniger. Beim Einsatz in Kernreaktoren entstehen durch Neutroneneinfang und die folgenden Kernreaktionen gasförmige Produkte. {}^9Be + n_{f} -> {}^7Li + {}^3H {}^9Be + n_{f} -> {}^8Be + 2n {}^8Be-> 2 {}^4He {}^9Be + n_{f} -> {}^6He + {}^4He Der Nachweis von 10Be wird zum Beispiel in der Geologie und Klimaforschung verwendet – in der Geologie zum Beispiel bei der Datierung der Offenlegung von Gestein. Damit lässt sich zum Beispiel der Rückzug von Gletschern datieren. Die Konzentration von 10Be zeigt eine Korrelation mit der die Erde erreichenden kosmischen Strahlung. 10Be entsteht bei Reaktionen schneller Nukleonen aus der Höhenstrahlung mit Stickstoff und Sauerstoff der Luft. Die so entstandenen Spallationsprodukte adsorbieren an den Aerosolen der oberen Atmosphäre, die schließlich mit dem Regen auf die Erdoberfläche transportiert werden, wo sie sich mit dem stabilen 9Be vermischen. Die Höhenstrahlung und damit die Entstehungsrate von 10Be hängen von der Stärke des Erdmagnetfeldes und der Sonnenaktivität ab (hohe Be-Konzentration bei geringer Sonnenaktivität). Da es sich bevorzugt auf Aerosoloberflächen niederschlägt, korrelieren hohe Berylliumkonzentrationen auch mit hohen Aerosolkonzentrationen in der Luft. Hohe Konzentrationen treten in Warmzeiten, geringe in Kaltzeiten auf. Da 10Be zusammen mit den übrigen Gasen der Atmosphäre in Eisbohrkernen eingeschlossen wird, kann durch Analyse dieser Einschlüsse über viele Jahrtausende der Zusammenhang zwischen Sonnenaktivität und globalem Temperaturverlauf analysiert werden. Das extrem kurzlebige Isotop 8Be (Halbwertszeit etwa 10−17 Sekunden) spielt eine wichtige Rolle in der Nukleosynthese von schwereren Elementen in Sternen (Beryllium-Barriere). Die Kurzlebigkeit von 8Be beruht darauf, dass es bevorzugt zu zwei Alphateilchen zerfällt. Beryllium ist das einzige Element, das bei gerader Protonenzahl kein stabiles Isotop mit gerader, dafür aber eines mit ungerader Neutronenzahl hat. Im Allgemeinen sind gerade Anzahlen an Nukleonen stabiler als ungerade, was diese Abweichung beim Beryllium besonders ungewöhnlich macht. An dem kurzlebigen Isotop 11Be wurde 2008 eine kernphysikalisch interessante Besonderheit nachgewiesen: Sein Atomkern besteht aus einem relativ kompakten Rumpfkern und einem einzelnen, locker gebundenen Neutron, das diesen als Halo umgibt. Verwendung Der größte Teil (> 85 %) des weltweit hergestellten Berylliums wird für die Herstellung verschiedener Berylliumlegierungen (Berylliumgehalt weniger als 60 %) verwendet. Etwa 10 % werden für Produkte aus reinem Beryllium und Legierungen mit mehr als 60 % Berylliumgehalt eingesetzt. Das restliche Beryllium findet seinen Einsatz hauptsächlich in Berylliumoxidkeramiken. Gemessen am Wertschöpfungsumsatz wurden rund 22 % der Berylliumprodukte in Industriekomponenten, 21 % in der Unterhaltungselektronik, 16 % in der Automobilelektronik, 9 % in Verteidigungsanwendungen, 8 % in der Telekommunikationsinfrastruktur, 7 % in Energieanwendungen, 1 % in medizinischen Anwendungen und 16 % in anderen Anwendungen eingesetzt. Beryllium Trotz der herausragenden Eigenschaften des Berylliums ist es wegen seines hohen Preises und seiner Gesundheitsgefährdung nur für wenige Anwendungen im Einsatz. Halbzeuge und Rohteile aus Berylliummetall werden vielfach als Sinterprodukte pulvermetallurgisch in HIP- und CIP-Verfahren hergestellt (heiß- und kaltisostatisches Pressen). Gussteile aus Beryllium finden wegen der anisotropen Eigenschaften und anderer Merkmale, wie Grobkörnigkeit, keine technische Verwendung. Beryllium wird als Material für „Fenster“ von Röntgenröhren sowie Röntgen- und Gammastrahlungsdetektoren eingesetzt, wegen der Durchlässigkeit für diese Strahlen, insbesondere für die weichen (niederenergetischen) Anteile. Es wird eingesetzt für Moderatoren und Neutronenreflektoren in Kernreaktoren und Kernwaffen, als Neutronenquellen (zusammen mit einem Alphastrahler), in Kernfusionsanlagen wie JET (Joint European Torus) wegen des hohen Schmelzpunktes und der kleinen Ordnungszahl als Plasmabegrenzung () sowie als Spiegelmaterial speziell für Weltraumteleskope wegen des geringen Gewichts und niedrigen Wärmeausdehnungskoeffizienten, beispielsweise beim James-Webb-Weltraumteleskop. Beryllium ist auch zur Neutronenvermehrung im Brutmantel (Blanket) zukünftiger Fusionsreaktoren mittels der (n,2n)-Kernreaktion vorgesehen. Die Kombination aus hoher Neutronenmultiplikation, geringer Absorption und wirksamer Streuung bietet hierfür sehr günstige Eigenschaften. In der European Synchrotron Radiation Facility wird Beryllium als Material für refraktive Linsen für Röntgenstrahlung (Compound Refractive Lenses, CRL) bis zu einer Energie von 40 keV verwendet. Beryllium findet bei Teilchenbeschleunigern wie dem Large Hadron Collider Verwendung als Baumaterial für vakuumdichte Röhren in den Detektoren, da Beryllium durchfliegende Teilchen schwächer streut als andere Materialien. Aufgrund des geringen Gewichts und der hohen Wärmekapazität wurde Beryllium in Bremsscheiben und anderen Teilen des Space Shuttles (Fensterbefestigungen und anderen thermisch und mechanisch hochbelasteten Teilen) eingesetzt. Auch Rotoren in Kreiselkompassen, bewegliche Spiegel in optischen Systemen, Antriebssysteme in Magnetbandgeräten werden aus dem Metall hergestellt. Hochtöner von High-End-Lautsprechern werden aus Beryllium-Metall (von 1974 bis 1997 in der Yamaha Corporation), als Kalottenmembran für ultrahohe Töne und inzwischen erfolgreich für High-End-Hochtonkalotten in Serienproduktion (FOCAL TBe-Linie,) Koaxiallautsprecher mit Kalotten-Hochtönern und Konus-Mitteltönern aus Beryllium (TAD Labs) eingesetzt. Beryllium wird zudem für den Motorsport (z. B. Porsche 906) eingesetzt. Mercedes-Ilmor, Lieferant des McLaren-Formel-1-Teams, verwendete diesen Werkstoff beim Motorenbau. Der Werkstoff wurde nach einem Protest von Ferrari 2001 verboten. Als Begründung wurde genannt, dass der Werkstoff bei der Bearbeitung gesundheitsschädlich ist. Da Beryllium in Sternen durch die Energieerzeugungsprozesse zum großen Teil in andere Elemente umgewandelt wird, eignet es sich als Marker für die Bestimmung des Alters von Sternen. Berylliumlegierungen Beryllium dient als Konstruktionswerkstoff in Legierungen mit Aluminium für beanspruchte und sehr leichte Produkte in der Flugzeug- und Weltraumtechnik. Beralcast (früher Lockalloy) und AlBeMet-AM162 (62 % Be, 38 % Al) sind Markennamen für Feinpulver, aus denen die Bauteile durch heißisostatisches Pressen hergestellt werden. 70 bis 80 % des weltweit hergestellten Berylliums wird als Legierungsbestandteil in Berylliumkupfer (CuBe, CuCoBe) eingesetzt. Daraus werden unter anderem funkenfreie, nichtmagnetische Werkzeuge hergestellt, die in explosionsgefährdeten Bereichen eingesetzt werden können. Kontakt- und Federwerkstoffe aus Berylliumkupfer zeichnen sich durch große Härte, Elastizität, Zugfestigkeit, Ermüdungsfestigkeit, Korrosionsbeständigkeit, Nichtmagnetisierbarkeit sowie gute elektrische und thermische Leitfähigkeit aus. Berylliumkupfer kann daher für Kontaktfedern oder andere stromübertragende Federn, z. B. in Drehspulmesswerken oder an Kohlebürsten, eingesetzt werden, ebenso für nichtmagnetisierbare Werkzeuge zum Einsatz in starken Magnetfeldern, beispielsweise zu Arbeiten an MRT-Geräten. Zu finden ist Berylliumkupfer in Präzisionssockeln für ICs sowie als Material für die Dosen von Dosenbarometern aufgrund der hohen Elastizität. Daneben wird es in Relaiskontaktfedern eingesetzt, dient in Hohlbananensteckern als Kontaktfedernmaterial, wird als Material für Ventilführungen und Ventilsitze im Motorenbau (Verbrennungsmotoren) und als CuBe- und CuCoBe-Elektroden für das Punktschweißen und für Kunststoffspritzdüsen eingesetzt. CuBe kann auch als Material für Dynoden von Photoelektronenvervielfachern (unter anderem mit Berylliumoxid als Beschichtungsmaterial) verwendet werden. Berylliumkupfer dient auch als Werkstoff für hochbelastete Gleitlager v. a. in der Luftfahrtindustrie. Geringe Reibung, gute Verschleißfestigkeit und hohe Korrosionsbeständigkeit sind hierbei die wichtigsten Eigenschaften. Weiterhin dient Beryllium als Legierungsbestandteil mit Anteilen von etwa 0,0001–0,1 Gew.-% zur Verbesserung der Festigkeit und des Dehnungsverhaltens von Feinstdrähten („Bonddrähten“) aus Gold, die in der Halbleiterindustrie zum Kontaktieren von Bauelementen auf einem Verdrahtungsträger genutzt werden. Einige Uhrenfedern bestehen aus Eisen-Nickel-Beryllium, NiBe. Nickel-Beryllium-Legierungen werden für temperaturbelastete Verbindungselemente wie Thermostatschalter und Nickel-Beryllium-Werkzeuge, sowie wegen der Anti-Klebeneigung für sekundäre Bor-Silikat-Gläser und optische Gleitsichtgläser eingesetzt. Nachweis Neben atomspektroskopischen Methoden kann Beryllium auch nasschemisch nachgewiesen werden. Dabei wird Beryllium als Berylliumhydroxid (durch Fällung mit Ammoniak) bestimmt, nachdem störende Ionen mit Chinolin-8-ol entfernt oder durch Ethylendiamintetraessigsäure maskiert worden sind. Zur photometrischen Bestimmung eignen sich Komplexe mit Pentan-2,4-dion, Morin, Thorin, Aluminon, Chromazurol und Chinalizarin. Mit Chinalizarin bildet sich in alkalischer Lösung ein schwerlöslicher blauer Komplex. Zur Unterscheidung von einer ähnlich aussehenden Magnesiumverbindung wird der Berylliumkomplex in Gegenwart von NaOH durch Bromwasser zerstört, während der Mg-Komplex eine Zeit beständig ist. In Gegenwart von Ammoniak bleibt der Berylliumkomplex bei Zugabe von Bromwasser stabil, während der Mg-Komplex schnell zerstört wird. In alkalischer Lösung bilden Be(II)-Salze mit Morin einen fluoreszierenden Farblack. Unter diesen Bedingungen fluoresziert die analoge Aluminiumverbindung nicht. Säuert man leicht an, verschwindet die Fluoreszenz der Be-Verbindung, während die Al-Verbindung fluoresziert. Zu den gebräuchlichen analytischen Techniken gehören die induktiv gekoppelte Plasma-Atomemissionsspektroskopie (ICP-AES), die induktiv gekoppelte Plasma-Massenspektroskopie (ICP-MS) und die Atomabsorptionsspektroskopie (AAS). Darüber hinaus wurde eine molekulare Fluoreszenzmethode für Beryllium entwickelt, die eine mit ICP-MS vergleichbare Empfindlichkeit aufweist. Daneben wurde eine Vielzahl alternativer Techniken erprobt. Dazu gehören die laserinduzierte Durchbruchsspektroskopie (LIBS), die mikrowelleninduzierte Plasmaspektroskopie (MIPS), die Aerosol-Laufzeit-Massenspektroskopie (TOFMS) und die oberflächenverstärkte Ramanspektroskopie. Im Allgemeinen erfordern diese Techniken eine deutlich geringere Probenvorbereitung. Aufgrund von Problemen mit mangelnder Präzision bei niedrigeren Analytenwerten und der unzureichenden Fähigkeit, Oberflächenwischtücher zu verarbeiten, haben sich diese Methoden jedoch nicht durchgesetzt. Toxikologie Beryllium und Berylliumverbindungen können Ursache eines allergischen Kontaktekzems sein. Sie können an Haut bzw. Lunge zu einer granulomatösen Hautreaktion bzw. granulomatösen Erkrankung mit immunologischer Genese führen. Diese beruht, im Unterschied zu den meisten anderen bekannten allergischen Reaktionen an den Atemwegen, sehr wahrscheinlich auf einer zellvermittelten immunologischen Reaktion vom Spättyp. Bei der Inhalation von Beryllium oder dessen Verbindungen entsteht durch die Wirkung der Makrophagen primär lösliches Berylliumoxid, das zirkuliert (Hapten), die Struktur körpereigener Proteine verändert und bei entsprechender genetischer Disposition als ein Allergen wirkt. Aktuelle Studien weisen darauf hin, dass Beryllium nicht im eigentlichen Sinne akut toxisch ist, sondern die Auswirkungen eine Folge einer überschießenden allergischen Reaktion sind. Auch die krebserregende Wirkung ist nicht eindeutig nachgewiesen. Lösliche Berylliumverbindungen können aufgrund der Reizwirkung zu einer ausgeprägten, schlecht heilenden Dermatitis führen. Gelangen Berylliumsalzlösungen oder ungelöste Partikel infolge Verletzungen oder bei geschädigter Hautbarriere in die Haut, können Ulcera oder Nekrosen die Folge sein. Bis zur Mitte des 20. Jahrhunderts wurde aus Betrieben zur Berylliumgewinnung oder aus Beryllium verarbeitenden Betrieben häufiger über ein allergisches Kontaktekzem durch Berylliumsalze und seltener durch Berylliumoxid und Beryllium berichtet. In dieser Zeit waren vor allem berufliche Schnittverletzungen durch Leuchtstoffröhren, die z. B. Zink‐Mangan‐Beryllium‐Silikate enthielten, für keloid‐artige, schlecht heilende oder vernarbende Granulome durch in die Haut gelangte Berylliumsalze oder Berylliumoxid verantwortlich. Die Wirkung von Beryllium akkumuliert sich im menschlichen Körper und führt nach jahrelanger Latenzzeit zu schweren Erkrankungen. Gefährlich ist vor allem inhaliertes Beryllium oder inhalierte Berylliumsalze – insbesondere Berylliumfluorid oder Berylliumoxid in hoher Konzentration. Dies kann zu einer akuten Entzündung des Atemtraktes im Sinne einer Tracheobronchitis und Pneumonitis führen, in schweren Fällen zu einem Lungenödem. Außer in besonders schweren Fällen ist die Symptomatik mit Dyspnoe, Husten und Brustschmerz zumeist vollständig reversibel. Diese Erkrankungsform wurde zuerst bei Beschäftigten in der Gewinnung und Anreicherung von Beryllium bzw. Berylliumverbindungen aus berylliumhaltigen Erzen beobachtet. Nach einer Latenzzeit von bis zu 5 Jahren und mehr (in Einzelfällen bis zu 30 Jahren) kam es bei einem kleinen Teil der Betroffenen auch zu einer chronischen Lungenerkrankung (Berylliose). Diese tritt in der Regel als Folge einer chronischen Exposition gegen niedrige Beryllium-Konzentrationen auf. Die Krankheit kann durch einen Lymphozytentransformationstest nachgewiesen werden. Hierbei kommt es in der Lunge zur Bildung charakteristischer Epitheloidzellgranulome. Verschlucktes Beryllium ist relativ ungefährlich, da es überwiegend wieder ausgeschieden wird. Sicherheitshinweise Beryllium wurde 2013 von der EU gemäß der Verordnung (EG) Nr. 1907/2006 (REACH) im Rahmen der Stoffbewertung in den fortlaufenden Aktionsplan der Gemeinschaft (CoRAP) aufgenommen. Hierbei werden die Auswirkungen des Stoffs auf die menschliche Gesundheit bzw. die Umwelt neu bewertet und ggf. Folgemaßnahmen eingeleitet. Ursächlich für die Aufnahme von Beryllium waren die Besorgnisse bezüglich anderer Exposition / risikobasierter Bedenken. Die Neubewertung fand ab 2013 statt und wurde von Deutschland durchgeführt. Anschließend wurde ein Abschlussbericht veröffentlicht, in dem festgestellt wurde, dass Beryllium aufgrund seiner Einstufung als krebserzeugend Kategorie 1B und STOT RE1 (Berylliose) und SE3 die Anforderungen für SVHC-Stoffe (Substances of Very High Concern) erfüllt und entsprechend eingestuft werden sollte. Berylliumhaltige Legierungen – in fester Form und wie sie in den Endprodukten enthalten sind – weisen keine besonderen gesundheitlichen Risiken auf. Allerdings entstehen bei einigen Herstellungs-, Verarbeitungs- und Recyclingverfahren schwebende Partikel (Staub, Nebel oder Rauch) deren Einatmen zu ernsthaften Lungenerkrankungen führen kann. Bei der Berylliumverarbeitung ist deshalb Absaugung und Abkapselung bei der Spanabnahme unbedingt erforderlich. Bei der Zerstörung berylliumoxidhaltiger elektronischer Bauteile kann Berylliumoxid freigesetzt werden, sie müssen daher entsprechend gekennzeichnet sein, was aber, insbesondere bei älteren Bauteilen, oft nicht der Fall ist. Verbindungen Beryllium hat in seinen Verbindungen mit elektronegativen Bindungspartnern praktisch ausschließlich die Oxidationsstufe +2. Die Oxidationsstufe +1 hat es als Ausnahme zum Beispiel in dem bei sehr hoher Temperatur durch Reaktion von Beryllium mit Berylliumchlorid zugänglichen und bei Raumtemperatur zersetzungsanfälligen Berylliummonochlorid. Be + BeCl2 -> 2 BeCl Das Berylliumkation Be2+ ist in der Erdalkaligruppe das am stärksten polarisierende Ion, sodass die Bindungen mit Beryllium ausgesprochen kovalent sind. Deswegen bildet Beryllium keine Verbindungen BeX2 (X = elektronegativer Rest) mit vorwiegend ionischem Bindungscharakter. Wie die kovalenten Borverbindungen gehören auch die kovalenten Berylliumverbindungen zu den elektronenungesättigten Verbindungen, die bei einwertigen Gruppen X zu Molekülen BeX2 führen, in denen dem Beryllium nur ein Elektronenquartett zukommt. Ähnlich wie das Bor, wenn auch weniger ausgeprägt, kann auch das Beryllium dieses Defizit an Elektronen durch Adduktbildung, durch pπpπ-Bindungen und durch Dreizentrenbindungen beseitigen. Die wichtigste Koordinationszahl des Berylliums ist vier, wobei es in der Regel als Tetraeder wie in Berylliumchlorid, aber auch quadratisch-planar wie in Berylliumphthalocyanin vorliegt. In Verbindungen BeX2 mit sperrigen Substituenten X oder im gasförmigen Zustand tritt Beryllium in seinen Verbindungen auch mit der Koordinationszahl drei (trigonal-planar), zwei (linear, wie in gasförmigem Berylliumchlorid) und eins (Berylliumoxid in der Gasphase) auf. In Ausnahmefällen beobachtet man darüber hinaus höhere Koordinationszahlen wie sechs oder sieben. Sauerstoffverbindungen Beim gesamten kommerziellen Volumen ist Berylliumhydroxid die wichtigste Berylliumverbindung. Sie fällt bei der Versetzung von Berylliumsalzlösungen mit Basen aus. Sie entsteht als Produkt der Extraktionsverfahren für Beryll- und Bertranditerze und wird als Zwischenprodukt für die Herstellung metallischen Berylliums, von Berylliumoxid und berylliumhaltiger Legierungen als Handelsprodukte eingesetzt. Berylliumhydroxid ist die wichtigste Verbindung zur Herstellung hochreinen Berylliumoxids, das aufgrund der keramischen Eigenschaften gesinterten Berylliumoxids für die Herstellung oder den Schutz von Materialien, die bei hohen Temperaturen in korrosiven Umgebungen eingesetzt werden, verwendet wird – so in Lasern und Elektronik, der Raumfahrt und Nukleartechnik. Prozesse für die Herstellung von Berylliummetall und für das Legieren mit Kupfer oder/und Nickel verwenden Berylliumhydroxid und Berylliumoxid als Ausgangsstoff. Berylliumoxid selbst wird als gut wärmeleitender Isolator für Hochfrequenz-Leistungstransistoren, -Zirkulatoren und -Hochlastwiderstände eingesetzt. Wegen der Giftigkeit wird Berylliumoxid, wenn möglich, durch Aluminiumoxid, Bornitrid oder Aluminiumnitrid ersetzt. Halogenverbindungen Die farblosen Berylliumdihalogenide BeX2 (X = F, Cl, Br, I) können zum Beispiel direkt aus den Elementen oder durch Reaktion von HX mit Beryllium bzw. von X2 mit Berylliumoxid in Anwesenheit von Kohlenstoff dargestellt werden. Berylliumfluorid wird in der Nukleartechnik und als Zwischenprodukt bei der Herstellung reinen Berylliums eingesetzt. Wasserstoffverbindungen Das weiße, nichtflüchtige, hochpolymere Berylliumhydrid BeH2 (Beryllan) kann durch Umsetzung von Dimethylberyllium mit Diboran dargestellt werden. Mit Trimethylamin und Dimethylamin bildet Berylliumdihydrid Amide wie zum Beispiel das trimere Berylliumdiamid. Das farblose, an Luft entflammende, explosionsartig mit Wasser reagierende Berylliumboranat kann aus Berylliumchlorid und Lithiumborhydrid gewonnen werden. Weitere Verbindungen Beryllium bildet eine große Zahl weiterer anorganischer, organischer und intermetallischer Verbindungen. Sie werden zumeist zur Herstellung von Beryllium oder anderen Berylliumverbindungen verwendet. Mit Stickstoff bildet es bei hohen Temperaturen das kristalline farblose und sehr harte Berylliumnitrid Be3N2. Daneben kennt man noch ein stickstoffreicheres Nitrid, das farblose Berylliumdiazid BeN6. Bei Reaktion zwischen Berylliumoxid und Kohlenstoff bildet sich das ziegelrote Berylliumcarbid Be2C. Mit Bor bildet es eine Reihe von Berylliumboriden BenBm (Be5B, Be4B, Be2B, BeB32). Strukturell interessant ist ein beim Erhitzen wasserfreien Berylliumnitrats Be(NO3)2 entstehendes, sublimierbares, basisches Berylliumnitrat Be4O(NO3)6. Seine Struktur entspricht einem Be4-Tetraeder, dessen Mitte mit einem Sauerstoffatom besetzt ist und dessen sechs Be2-Kanten durch sechs (gewinkelte) Nitrat-Ionen überbrückt sind. Mit Essigsäure bilden sich die Berylliumverbindungen Berylliumacetat Be(C2H3O2)2 oder basisches Berylliumacetat Be4O(CH3COO)6. Berylliumverbindungen bilden ähnlich wie Aluminium oder Magnesium Alkyl- und Aryl-Derivate. Diese sind zur Bildung von at-Komplexen befähigt, die wiederum katalytische Eigenschaften haben können. Einige Verbindungen (wie zum Beispiel Beryllium-bis-pentan-2,4-dionat oder basisches Berylliumacetat) können unzersetzt destilliert werden und dienen als Zwischenprodukt zur Reinigung von Beryllium. Berylliumdiorganyle BeR2 (R z. B. Me, Et, Pr iPr, Bu, tBu …) liegen als giftige, farblose, viskose Flüssigkeiten oder Feststoffe vor. Sie lassen sich wie erstere durch Metathese aus Berylliumchlorid und RMgX oder LiR sowie durch Transmetallierung aus Beryllium und HgR2 gewinnen. → :Kategorie:Berylliumverbindung Literatur Weblinks Einzelnachweise Elektrotechnischer Werkstoff Hexagonales Kristallsystem Leichtmetall Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 28
491
https://de.wikipedia.org/wiki/Berkelium
Berkelium
Berkelium ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Bk und der Ordnungszahl 97. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Berkelium wurde nach der Stadt Berkeley in Kalifornien benannt, in der es entdeckt wurde. Bei Berkelium handelt es sich um ein radioaktives Metall mit einem silbrig-weißen Aussehen. Es wurde im Dezember 1949 erstmals aus dem leichteren Element Americium erzeugt. Es entsteht in geringen Mengen in Kernreaktoren. Seine Anwendung findet es vor allem zur Erzeugung höherer Transurane und Transactinoide. Geschichte So wie Americium (Ordnungszahl 95) und Curium (96) in den Jahren 1944 und 1945 nahezu zeitgleich entdeckt wurden, erfolgte in ähnlicher Weise in den Jahren 1949 und 1950 die Entdeckung der Elemente Berkelium (97) und Californium (98). Die Experimentatoren Glenn T. Seaborg, Albert Ghiorso und Stanley G. Thompson stellten am 19. Dezember 1949 die ersten Kerne im 60-Zoll-Zyklotron der Universität von Kalifornien in Berkeley her. Es war das fünfte Transuran, das entdeckt wurde. Die Entdeckung wurde zeitgleich mit der des Californiums veröffentlicht. Die Namenswahl folgte naheliegenderweise einem gemeinsamen Ursprung: Berkelium wurde nach dem Fundort, der Stadt Berkeley in Kalifornien, benannt. Die Namensgebung folgt somit wie bei vielen Actinoiden und den Lanthanoiden: Terbium, das im Periodensystem genau über Berkelium steht, wurde nach der schwedischen Stadt Ytterby benannt, in der es zuerst entdeckt wurde: It is suggested that element 97 be given the name berkelium (symbol Bk) after the city of Berkeley in a manner similar to that used in naming its chemical homologue terbium (atomic number 65) whose name was derived from the town of Ytterby, Sweden, where the rare earth minerals were first found. Für das Element 98 wählte man den Namen Californium zu Ehren der Universität und des Staates Kalifornien. Als schwerste Schritte in der Vorbereitung zur Herstellung des Elements erwiesen sich die Entwicklung entsprechender chemischer Separationsmethoden und die Herstellung ausreichender Mengen an Americium für das Target-Material. Die Probenvorbereitung erfolgte zunächst durch Auftragen von Americiumnitratlösung (mit dem Isotop 241Am) auf eine Platinfolie; die Lösung wurde eingedampft und der Rückstand dann zum Oxid (AmO2) geglüht. Nun wurde diese Probe im 60-Zoll-Zyklotron mit beschleunigten α-Teilchen mit einer Energie von 35 MeV etwa 6 Stunden beschossen. Dabei entsteht in einer sogenannten (α,2n)-Reaktion 243Bk sowie zwei freie Neutronen: Nach dem Beschuss im Zyklotron wurde die Beschichtung mittels Salpetersäure gelöst und erhitzt, anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt und abzentrifugiert; der Rückstand wurde wiederum in Salpetersäure gelöst. Um die weitgehende Abtrennung des Americiums zu erreichen, wurde diese Lösung mit einem Gemisch von Ammoniumperoxodisulfat und Ammoniumsulfat versetzt und erhitzt, um vor allem das gelöste Americium auf die Oxidationsstufe +6 zu bringen. Nicht oxidiertes restliches Americium wurde durch Zusatz von Flusssäure als Americium(III)-fluorid ausgefällt. Auf diese Weise werden auch begleitendes Curium als Curium(III)-fluorid und das erwartete Element 97 (Berkelium) als Berkelium(III)-fluorid ausgefällt. Dieser Rückstand wurde durch Behandlung mit Kalilauge zum Hydroxid umgewandelt, welches nach Abzentrifugieren nun in Perchlorsäure gelöst wurde. Die weitere Trennung erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Die chromatographische Trennung konnte nur aufgrund vorheriger Vergleiche mit dem chemischen Verhalten der entsprechenden Lanthanoide gelingen. So tritt bei einer Trennung das Terbium vor Gadolinium und Europium aus einer Säule. Falls das chemische Verhalten des Berkeliums dem eines Eka-Terbiums ähnelt, sollte das fragliche Element 97 daher in dieser analogen Position zuerst erscheinen, entsprechend vor Curium und Americium. Der weitere Verlauf des Experiments brachte zunächst kein Ergebnis, da man nach einem α-Teilchen als Zerfallssignatur suchte. Erst die Suche nach charakteristischer Röntgenstrahlung und Konversionselektronen als Folge eines Elektroneneinfangs brachte den gewünschten Erfolg. Das Ergebnis der Kernreaktion wurde mit 243Bk angegeben, obwohl man anfänglich auch 244Bk für möglich hielt. Im Jahr 1958 isolierten Burris B. Cunningham und Stanley G. Thompson erstmals wägbare Mengen, die durch langjährige Neutronenbestrahlung von 239Pu in dem Testreaktor der National Reactor Testing Station in Idaho erzeugt wurden. Isotope Von Berkelium existieren nur Radionuklide und keine stabilen Isotope. Insgesamt sind 12 Isotope und 5 Kernisomere des Elements bekannt. Die langlebigsten sind 247Bk (Halbwertszeit 1380 Jahre), 248Bk (9 Jahre) und 249Bk (330 Tage). Die Halbwertszeiten der restlichen Isotope liegen im Bereich von Millisekunden bis Stunden oder Tagen. Nimmt man beispielhaft den Zerfall des langlebigsten Isotops 247Bk heraus, so entsteht durch α-Zerfall zunächst das langlebige 243Am, das seinerseits durch erneuten α-Zerfall in 239Np übergeht. Der weitere Zerfall führt dann über 239Pu zum 235U, dem Beginn der Uran-Actinium-Reihe (4 n + 3). Die angegebenen Zeiten sind Halbwertszeiten. → Liste der Berkeliumisotope Vorkommen Berkeliumisotope kommen auf der Erde wegen ihrer im Vergleich zum Alter der Erde zu geringen Halbwertszeit nicht natürlich vor. Über die Erstentdeckung von Einsteinium und Fermium in den Überresten der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll hinaus wurden neben Plutonium und Americium auch Isotope von Curium, Berkelium und Californium gefunden, darunter das 249Bk, das durch den β-Zerfall in 249Cf übergeht. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst später im Jahr 1956 publiziert. In Kernreaktoren entsteht vor allem das Berkeliumisotop 249Bk, es zerfällt bereits während der Zwischenlagerung (vor der Endlagerung) fast komplett zum Californiumisotop 249Cf mit 351 Jahren Halbwertszeit. Dieses zählt zum Transuranabfall und ist daher in der Endlagerung unerwünscht. Gewinnung und Darstellung Berkelium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor (HFIR) am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist. Gewinnung von Berkeliumisotopen Berkelium entsteht in Kernreaktoren aus Uran (238U) oder Plutonium (239Pu) durch zahlreiche nacheinander folgende Neutroneneinfänge und β-Zerfälle – unter Ausschluss von Spaltungen oder α-Zerfällen. Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt. Bei den angegebenen Zeiten handelt es sich um Halbwertszeiten. Letzteres wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein Vielfaches höher als in einem Kernreaktor. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm. Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächst schwereren Isotope. Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind. 249Bk ist das einzige Isotop des Berkeliums, das auf diese Weise gebildet werden kann. Es entsteht durch β-Zerfall aus 249Cm – das erste Curiumisotop, welches einen β-Zerfall eingeht (Halbwertszeit 64,15 min). Durch Neutroneneinfang entsteht zwar aus 249Bk auch das 250Bk, dies zerfällt aber schon mit einer Halbwertszeit von 3,212 Stunden durch β-Zerfall zu 250Cf. Das langlebigste Isotop, das 247Bk, kann somit nicht in Kernreaktoren hergestellt werden, so dass man sich oftmals mit dem eher zugänglichen 249Bk begnügen muss. Berkelium steht heute weltweit lediglich in sehr geringen Mengen zur Verfügung, weshalb es einen sehr hohen Preis besitzt. Dieser beträgt etwa 185 US-Dollar pro Mikrogramm 249Bk. Das Isotop 248Bk wurde 1956 durch Beschuss mit 25-MeV α-Teilchen aus einem Gemisch von Curiumnukliden hergestellt. Seine Existenz mit dessen Halbwertszeit von 23 ± 5 Stunden wurde durch das β-Zerfallsprodukt 248Cf festgestellt. 247Bk wurde 1965 aus 244Cm durch Beschuss mit α-Teilchen hergestellt. Ein eventuell entstandenes Isotop 248Bk konnte nicht nachgewiesen werden. Das Berkeliumisotop 242Bk wurde 1979 durch Beschuss von 235U mit 11B, 238U mit 10B, sowie 232Th mit 14N bzw. 15N erzeugt. Es wandelt sich durch Elektroneneinfang mit einer Halbwertszeit von 7,0 ± 1,3 Minuten zum 242Cm um. Eine Suche nach einem zunächst vermuteten Isotop 241Bk blieb ohne Erfolg. Darstellung elementaren Berkeliums Die ersten Proben von Berkeliummetall wurden 1969 durch Reduktion von BkF3 bei 1000 °C mit Lithium in Reaktionsapparaturen aus Tantal hergestellt. BkF3 + 3 Li -> Bk + 3 LiF Elementares Berkelium kann ferner auch aus BkF4 mit Lithium oder durch Reduktion von BkO2 mit Lanthan oder Thorium dargestellt werden. 3 BkO2 + 4 La -> 3 Bk + 2 La2O3 Eigenschaften Im Periodensystem steht das Berkelium mit der Ordnungszahl 97 in der Reihe der Actinoide, sein Vorgänger ist das Curium, das nachfolgende Element ist das Californium. Sein Analogon in der Reihe der Lanthanoide ist das Terbium. Physikalische Eigenschaften Berkelium ist ein radioaktives Metall mit silbrig-weißem Aussehen und einem Schmelzpunkt von 986 °C. Die bei Standardbedingungen auftretende Modifikation α-Bk kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern a = 341,6 ± 0,3 pm und c = 1106,9 ± 0,7 pm sowie vier Formeleinheiten pro Elementarzelle, einem Metallradius von 170 pm und einer Dichte von 14,78 g/cm3. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d. h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Bei höheren Temperaturen geht α-Bk in β-Bk über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter a = 499,7 ± 0,4 pm, einem Metallradius von 177 pm und einer Dichte von 13,25 g/cm3. Die Kristallstruktur besteht aus einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC, was einem kubisch flächenzentrierten Gitter (f.c.c.) entspricht. Die Lösungsenthalpie von Berkelium-Metall in Salzsäure bei Standardbedingungen beträgt −600,2 ± 5,1 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (ΔfH0) von Bk3+(aq) auf −601 ± 5 kJ·mol−1 und des Standardpotentials Bk3+ / Bk0 auf −2,01 ± 0,03 V. Zwischen 70 K und Raumtemperatur verhält sich Berkelium wie ein Curie-Weiss-Paramagnet mit einem effektiven magnetischen Moment von 9,69 Bohrschen Magnetonen (µB) und einer Curie-Temperatur von 101 K. Beim Abkühlen auf etwa 34 K erfährt Berkelium einen Übergang zu einem antiferromagnetischen Zustand. Dieses magnetische Moment entspricht fast dem theoretischen Wert von 9,72 µB. Chemische Eigenschaften Berkelium ist wie alle Actinoide sehr reaktionsfähig. Es reagiert allerdings nicht schnell mit Sauerstoff bei Raumtemperatur, was möglicherweise auf die Bildung einer schützenden Oxidschicht zurückzuführen ist. Jedoch reagiert es mit geschmolzenen Metallen, Wasserstoff, Halogenen, Chalkogenen und Penteliden zu verschiedenen binären Verbindungen. In wässriger Lösung ist die dreiwertige Oxidationsstufe am beständigsten, jedoch kennt man auch vierwertige und zweiwertige Verbindungen. Wässrige Lösungen mit Bk3+-Ionen haben eine gelbgrüne Farbe, mit Bk4+-Ionen sind sie in salzsaurer Lösung beige, in schwefelsaurer Lösung orange-gelb. Ein ähnliches Verhalten ist für sein Lanthanoidanalogon Terbium zu beobachten. Bk3+-Ionen zeigen zwei scharfe Fluoreszenzpeaks bei 652 nm (rotes Licht) und 742 nm (dunkelrot – nahes Infrarot) durch interne Übergänge in der f-Elektronen-Schale. Spaltbarkeit Berkelium eignet sich anders als die benachbarten Elemente Curium und Californium auch theoretisch nur sehr schlecht als Kernbrennstoff in einem Reaktor. Neben der sehr geringen Verfügbarkeit und dem damit verbundenen hohen Preis kommt hier erschwerend hinzu, dass die günstigeren Isotope mit gerader Massenzahl nur eine geringe Halbwertszeit haben. Das einzig infrage kommende geradzahlige Isotop, 248Bk im Grundzustand, ist nur sehr schwer zu erzeugen, zudem liegen keine ausreichenden Daten über dessen Wirkungsquerschnitte vor. 249Bk ist im Prinzip in der Lage, eine Kettenreaktion aufrechtzuerhalten, und damit für einen schnellen Reaktor oder eine Atombombe geeignet. Die kurze Halbwertszeit von 330 Tagen zusammen mit der komplizierten Gewinnung und dem hohen Bedarf vereiteln entsprechende Versuche. Die kritische Masse liegt unreflektiert bei 192 kg, mit Wasserreflektor immer noch 179 kg, ein Vielfaches der Weltjahresproduktion. 247Bk kann sowohl in einem thermischen als auch in einem schnellen Reaktor eine Kettenreaktion aufrechterhalten und hat mit 1380 Jahren eine ausreichend große Halbwertszeit, um sowohl als Kernbrennstoff als auch Spaltstoff für eine Atombombe zu dienen. Es kann allerdings nicht in einem Reaktor erbrütet werden und ist damit in der Produktion noch aufwendiger und kostenintensiver als die anderen genannten Isotope. Damit einher geht eine noch geringere Verfügbarkeit, was angesichts der benötigten Masse von mindestens 35,2 kg (kritische Masse mit Stahlreflektor) als Ausschlusskriterium angesehen werden kann. Verwendung Die Verwendung für Berkeliumisotope liegt hauptsächlich in der wissenschaftlichen Grundlagenforschung. 249Bk ist ein gängiges Nuklid zur Synthese noch schwererer Transurane und Transactinoide wie Lawrencium, Rutherfordium und Bohrium. Es dient auch als Quelle für das Isotop 249Cf, welches Studien über die Chemie des Californiums ermöglicht. Es hat den Vorzug vor dem radioaktiveren 252Cf, welches ansonsten durch Neutronenbeschuss im High-Flux-Isotope Reactor (HFIR) erzeugt wird. Eine 22-Milligramm-Probe 249Bk wurde im Jahr 2009 in einer 250-Tage-Bestrahlung hergestellt und dann in einem 90-Tage-Prozess in Oak Ridge gereinigt. Diese Probe führte zu den ersten 6 Atomen des Elements Tenness am Vereinigten Institut für Kernforschung (JINR), Dubna, Russland, nach einem Beschuss mit Calcium-Ionen im U400-Zyklotron für 150 Tage. Diese Synthese war ein Höhepunkt der russisch-amerikanischen Zusammenarbeit zwischen JINR und Lawrence Livermore National Laboratory bei der Synthese der Elemente 113 bis 118, die 1989 gestartet wurde. Verbindungen → Kategorie: Berkeliumverbindung Obwohl das Isotop 247Bk die längste Halbwertszeit ausweist, ist das Isotop 249Bk leichter zugänglich und wird überwiegend für die Bestimmung der chemischen Eigenschaften herangezogen. Oxide Von Berkelium existieren Oxide der Oxidationsstufen +3 (Bk2O3) und +4 (BkO2). Berkelium(IV)-oxid (BkO2) ist ein brauner Feststoff und kristallisiert im kubischen Kristallsystem in der Fluorit-Struktur in der mit den Koordinationszahlen Cf[8], O[4]. Der Gitterparameter beträgt 533,4 ± 0,5 pm. Berkelium(III)-oxid (Bk2O3) entsteht aus BkO2 durch Reduktion mit Wasserstoff: 2 BkO2 + H2 -> Bk2O3 + H2O Es ist ein gelbgrüner Feststoff mit einem Schmelzpunkt von 1920 °C. Es bildet ein kubisch-raumzentriertes Kristallgitter mit a = 1088,0 ± 0,5 pm. Halogenide Halogenide sind für die Oxidationsstufen +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil. Die vierwertige Stufe ist nur in der festen Phase stabilisierbar. Berkelium(IV)-fluorid (BkF4) ist eine gelbgrüne Ionenverbindung und kristallisiert im monoklinen Kristallsystem und ist isotyp mit Uran(IV)-fluorid. Berkelium(III)-fluorid (BkF3) ist ein gelbgrüner Feststoff und besitzt zwei kristalline Strukturen, die temperaturabhängig sind (Umwandlungstemperatur: 350 bis 600 °C). Bei niedrigen Temperaturen ist die orthorhombische Struktur (YF3-Typ) zu finden. Bei höheren Temperaturen bildet es ein trigonales System (LaF3-Typ). Berkelium(III)-chlorid (BkCl3) ist ein grüner Feststoff mit einem Schmelzpunkt von 603 °C und kristallisiert im hexagonalen Kristallsystem. Seine Kristallstruktur ist isotyp mit Uran(III)-chlorid (UCl3). Das Hexahydrat (BkCl3 · 6 H2O) weist eine monokline Kristallstruktur auf. Berkelium(III)-bromid (BkBr3) ist ein gelbgrüner Feststoff und kristallisiert bei niedrigen Temperaturen im PuBr3-Typ, bei höheren Temperaturen im AlCl3-Typ. Berkelium(III)-iodid (BkI3) ist ein gelber Feststoff und kristallisiert im hexagonalen System (BiI3-Typ). Die Oxihalogenide BkOCl, BkOBr und BkOI besitzen eine tetragonale Struktur vom PbFCl-Typ. Chalkogenide und Pentelide Berkelium(III)-sulfid (Bk2S3) wurde entweder durch Behandeln von Berkelium(III)-oxid mit einem Gemisch von Schwefelwasserstoff und Kohlenstoffdisulfid bei 1130 °C dargestellt, oder durch die direkte Umsetzung von metallischem Berkelium mit Schwefel. Dabei entstanden bräunlich-schwarze Kristalle mit kubischer Symmetrie und einer Gitterkonstanten von a = 844 pm. Die Pentelide des Berkeliums (249Bk) des Typs BkX sind für die Elemente Stickstoff, Phosphor, Arsen und Antimon dargestellt worden. Ihre Herstellung erfolgt durch die Reaktion von entweder Berkelium(III)-hydrid (BkH3) oder metallischem Berkelium mit diesen Elementen bei erhöhter Temperatur im Hochvakuum in Quarzampullen. Sie kristallisieren im NaCl-Gitter mit den Gitterkonstanten 495,1 pm für BkN, 566,9 pm für BkP, 582,9 pm für BkAs und 619,1 pm für BkSb. Weitere anorganische Verbindungen Berkelium(III)- und Berkelium(IV)-hydroxid sind beide als Suspension in 1 M Natronlauge stabil und wurden spektroskopisch untersucht. Berkelium(III)-phosphat (BkPO4) wurde als Feststoff dargestellt, der eine starke Fluoreszenz bei einer Anregung durch einen Argon-Laser (514,5 nm-Linie) zeigt. Weitere Salze des Berkeliums sind bekannt, z. B. Bk2O2S, (BkNO3)3 · 4 H2O, BkCl3 · 6 H2O, Bk2(SO4)3 · 12 H2O und Bk2(C2O4)3 · 4 H2O. Eine thermische Zersetzung in einer Argonatmosphäre bei ca. 600 °C (um eine Oxidation zum BkO2 vermeiden) von Bk2(SO4)3 · 12 H2O führt zu raumzentrierten orthorhombischen Kristallen von Berkelium(III)-oxisulfat (Bk2O2SO4). Diese Verbindung ist unter Schutzgas bis mindestens 1000 °C thermisch stabil. Berkeliumhydride werden durch Umsetzung des Metalls mit Wasserstoffgas bei Temperaturen über 250 °C hergestellt. Sie bilden nicht-stöchiometrische Zusammensetzungen mit der nominalen Formel BkH2+x (0 < x < 1). Während die Trihydride eine hexagonale Symmetrie besitzen, kristallisiert das Dihydrid in einer fcc-Struktur mit der Gitterkonstanten a = 523 pm. Metallorganische Verbindungen Berkelium bildet einen trigonalen (η5–C5H5)3Bk-Komplex mit drei Cyclopentadienylringen, die durch Umsetzung von Berkelium(III)-chlorid mit geschmolzenem Be(C5H5)2 bei etwa 70 °C synthetisiert werden können. Es besitzt eine gelbe Farbe und orthorhombische Symmetrie mit den Gitterkonstanten a = 1411 pm, b = 1755 pm und c = 963 pm sowie einer berechneten Dichte von 2,47 g/cm3. Der Komplex ist bis mindestens 250 °C stabil und sublimiert bei ca. 350 °C. Die hohe Radioaktivität bewirkt allerdings eine schnelle Zerstörung der Verbindungen innerhalb weniger Wochen. Ein C5H5-Ring im (η5–C5H5)3Bk kann durch Chlor ersetzt werden, wobei das dimere [Bk(C5H5)2Cl]2 entsteht. Das optische Absorptionsspektrum dieser Verbindung ist sehr ähnlich zum (η5–C5H5)3Bk. Sicherheitshinweise Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Literatur David E. Hobart and Joseph R. Peterson: Berkelium; in: Lester R. Morss, Norman M. Edelstein, Jean Fuger (Hrsg.): The Chemistry of the Actinide and Transactinide Elements, Springer, Dordrecht 2006; ISBN 1-4020-3555-1, S. 1444–1498 (doi:10.1007/1-4020-3598-5_10). Gmelins Handbuch der anorganischen Chemie, System Nr. 71, Transurane: Teil A 1 I, S. 38–40; Teil A 1 II, S. 19, 326–336; Teil B 1, S. 72–76. The Solution Absorption Spectrum of Bk3+ and the Crystallography of Berkelium Dioxide, Sesquioxide, Trichloride, Oxychloride, and Trifluoride, Ph.D. Thesis, Joseph Richard Peterson, October 1967, U. S. Atomic Energy Commission Document Number UCRL-17875 (1967). J. R. Peterson, D. E. Hobart: The Chemistry of Berkelium; in: Harry Julius Emeleus (Hrsg.): Advances in inorganic chemistry and radiochemistry, Volume 28, Academic Press, 1984, ISBN 0-12-023628-1, S. 29–64 (doi:10.1016/S0898-8838(08)60204-4, ). G. T. Seaborg (Hrsg.): Proceedings of the 'Symposium Commemorating the 25th Anniversary of the Discovery of Elements 97 and 98', 20. Januar 1975; Report LBL-4366, Juli 1976. Weblinks Amanda Yarnell: Berkelium, Chemical & Engineering News, 2003. Einzelnachweise
492
https://de.wikipedia.org/wiki/Blei
Blei
Blei ist ein chemisches Element mit dem Elementsymbol Pb () und der Ordnungszahl 82. Es ist ein giftiges Schwermetall und steht in der 4. Hauptgruppe bzw. der 14. IUPAC-Gruppe (Kohlenstoffgruppe) und 6. Periode des Periodensystems. Blei ist leicht verformbar und hat einen vergleichsweise niedrigen Schmelzpunkt. Die Isotope 206Pb, 207Pb und 208Pb sind die schwersten stabilen Atome, Blei ist damit das Element mit der höchsten Massen- und Ordnungszahl, das noch stabil ist. Alle Bleiisotope haben die magische Protonenzahl 82, die diese Stabilität bewirkt. Bei 208Pb liegt sogar ein so genannter doppelt magischer Kern vor, weil er zusätzlich die magische Neutronenzahl 126 aufweist. Da die Bleiisotope -206, -207 und -208 die Endprodukte der drei natürlichen Zerfallsreihen radioaktiver Elemente sind, ist relativ viel Blei entstanden; es kommt deshalb in der Erdkruste im Vergleich zu anderen schweren Elementen (Quecksilber, Gold u. a.) häufig vor. Geschichte Der bisher älteste Fund von metallischem Blei wurde in Çatalhöyük, etwa 50 km südöstlich von Konya auf dem Anatolischen Plateau, gemacht. Er besteht aus Bleiperlen zusammen mit Kupferperlen, die auf etwa 6500 vor Christus datiert wurden. In der frühen Bronzezeit wurde Blei neben Antimon und Arsen verwendet, um aus Legierungen mit Kupfer Bronzen zu erzeugen, bis sich Zinn weitgehend durchsetzte. Bereits die Babylonier kannten Vasen aus Blei. Die Assyrer mussten Blei (abāru) einführen, was von Tiglat-pileser I. unter anderem als Tribut von Melid belegt ist. Im antiken Griechenland wurde Blei hauptsächlich in Form von Bleiglanz abgebaut, um daraus Silber zu gewinnen. Im römischen Reich dagegen wurde der Stoff für eine Vielzahl von Anwendungsbereichen genutzt. Von besonderer Bedeutung war das Blei beispielsweise in der Architektur, wo Steinblöcke mithilfe von Bleiklammern aneinander befestigt wurden. So wurden für die Errichtung der Porta Nigra schätzungsweise sieben Tonnen Blei verbaut. Weitere wichtige Einsatzbereiche waren die Verkleidung von Schiffsrümpfen zum Schutz vor Schädlingsbefall und die Herstellung von innerstädtischen Wasserleitungen. Hinzu kam die Nutzung von Blei als Rohstoff für die Herstellung von Gefäßen, als Material von Schreibtafeln oder für die sogenannten Tesserae, die zum Beispiel als Erkennungs- oder Berechtigungsmarke dienten. Kleine Bleistücke, die sogenannten „Schleuderbleie“, dienten im römischen Heer als Schleudergeschoss. Aufgrund des hohen Bedarfs fand auch ein Handel mit Blei über weite Strecken statt, der sich unter anderem durch Inschriften auf römischen Bleibarren nachweisen lässt. In der antiken Literatur war man der Ansicht, Blei und Zinn seien zwei Erscheinungsformen des gleichen Stoffes, sodass man Blei im Lateinischen als (von ), Zinn als (von ) bezeichnete. Daher ist oft unklar, ob ein antiker Text mit plumbum Blei oder Zinn meint. Schon der römische Autor Vitruv hielt die Verwendung von Blei für Trinkwasserrohre für gesundheitsschädlich und empfahl, stattdessen nach Möglichkeit Tonrohre zu verwenden. Trotzdem waren Trinkwasserrohre aus Blei bis in die 1970er Jahre gebräuchlich, was beispielsweise auch in dem englischen Wort zum Ausdruck kommt. Aus heutiger Sicht besonders bedenklich war auch die Zugabe von Blei als Süßungsmittel zum Wein (sogenannter „Bleizucker“, siehe Blei(II)-acetat). Die häufige Nutzung von Blei in Rohren und im Wein wurde teilweise auch als Grund für den Untergang des Römischen Reiches diskutiert, eine Hypothese, die heutzutage in der Forschung allerdings abgelehnt wird. In Westfalen gewannen die Römer bis zu ihrem Rückzug nach der Varusschlacht Blei. Die für unterschiedliche Fundstellen typische Zusammensetzung der Isotope zeigt, dass das Blei für die Herstellung römischer Bleisärge, die im Rheinland gefunden wurden, aus der nördlichen Eifel stammt. Die römische Bleiverarbeitung hat zu einer bis heute nachweisbaren Umweltverschmutzung geführt: Eisbohrkerne aus Grönland zeigen zwischen dem 5. Jahrhundert v. Chr. und dem 3. Jahrhundert n. Chr. einen messbaren Anstieg des Bleigehalts in der Atmosphäre. Auch später hatte Blei (von ) eine wichtige Bedeutung. Es wurde beispielsweise zum Einfassen von Bleiglasfenstern, beispielsweise in Kirchen oder für das Eindecken von Bleidächern verwendet. Besonders wichtig wurde Blei vor allem nach Erfindung der Feuerwaffen für das Militär als Material für Projektile von Handfeuerwaffen. Da die Soldaten ihre Geschosse selbst herstellten, war es nicht unüblich, dass sie alles Blei stahlen, das sie finden konnten, um Geschosse daraus anzufertigen. Blei spielte auch in der Alchemie eine wichtige Rolle. Auf Grund seiner Ähnlichkeit zu Gold (ähnlich weich und schwer) galt Blei als guter Ausgangsstoff für die Goldsynthese (Synthese als Farbumwandlung von Grau nach Gelb). Das alchemistische Symbol für Blei ist eine stilisierte Sichel (♄), da es bereits seit dem Altertum als Planetenmetall dem Gott und Planeten Saturn (lateinisch Saturnus) zugeordnet wurde. Mit Beginn der industriellen Revolution wurde Blei dann in großen Mengen für die chemische Industrie, zum Beispiel für die Schwefelsäureproduktion im Bleikammerverfahren oder die Auskleidung von Anlagen zur Sprengstoffherstellung, benötigt. Es war damals das wichtigste Nichteisenmetall. Beim Versuch, das Alter der Erde durch Messung des Verhältnisses von Blei zu Uran in Gesteinsproben zu bestimmen, stellte der US-amerikanische Geochemiker Clair Cameron Patterson etwa 1950 fest, dass die Gesteinsproben ausnahmslos mit großen Bleimengen aus der Atmosphäre verunreinigt waren. Als Quelle konnte er das als Antiklopfmittel in Kraftstoffen verwendete Tetraethylblei nachweisen. Nach Pattersons Befunden enthielt die Atmosphäre vor 1923 fast überhaupt kein Blei. Aufgrund dieser Erkenntnisse kämpfte er zeit seines Lebens für die Verringerung der Freisetzung von Blei in die Umwelt. Seine Bemühungen führten schließlich dazu, dass 1970 in den USA der Clean Air Act mit strengeren Abgasvorschriften in Kraft trat. 1986 wurde der Verkauf verbleiten Benzins in den Vereinigten Staaten, in der Bundesrepublik Deutschland durch das Benzinbleigesetz schrittweise ab 1988, in der EU ab 2001 völlig verboten. Daraufhin sank der Bleigehalt im Blut der Amerikaner fast sofort um 80 Prozent. Da Blei jedoch in der Umwelt praktisch ewig erhalten bleibt, hat dennoch heute jeder Mensch etwa 600-mal mehr von dem Metall im Blut als vor 1923. Pro Jahr wurden um das Jahr 2000 immer noch legal etwa 100.000 Tonnen in die Atmosphäre freigesetzt. Die Hauptverursacher sind Bergbau, Metallindustrie und produzierendes Gewerbe. Im Jahr 2009 lag die Menge des gewonnenen Bleis bei den Nichteisenmetallen an vierter Stelle nach Aluminium, Kupfer und Zink. Es wird vor allem für Autobatterien (Bleiakkumulatoren) verwendet (60 % der Gesamtproduktion). Allgemein wird versucht, die Belastung von Mensch und Umwelt mit Blei und damit Bleivergiftungen zu verringern. Außer dem Verbot von verbleiten Benzins wurde ab 2002 durch die RoHS-Richtlinien die Verwendung von Blei in Elektro- und Elektronikgeräten eingeschränkt. 1989 wurden bleihaltige Anstriche und Beschichtungen vollständig verboten, der Einsatz von bleihaltiger Munition wurde ab 2005 in einigen Bundesländern teilweise verboten. Als Material für Wasserrohre wurde Blei schon 1973 verboten; in Deutschland vorhandene Bleirohre müssen bis zum 12. Januar 2026 ausgetauscht werden, wobei die Frist in Ausnahmefällen verlängert werden kann. Seit 1. März 2018 ist das Verwenden (Lagern, Mischen, Gebrauchen zur Herstellung u. a.) und Inverkehrbringen von Blei – massiv (zum Beispiel als Barren oder Pellets) oder als Pulver – ähnlich wie schon länger bei vielen Bleiverbindungen in der EU von wenigen Ausnahmen abgesehen regelmäßig verboten, wenn das zum Verkauf an die breite Öffentlichkeit bestimmt ist und die Bleikonzentration darin 0,3 % oder mehr beträgt; im Übrigen muss der Lieferant gewährleisten, dass das vor dem Inverkehrbringen als „nur für gewerbliche Anwender“ gekennzeichnet ist. Vorkommen Blei kommt in der Erdkruste mit einem Gehalt von etwa 0,0018 % vor und tritt eher selten gediegen, das heißt in elementarer Form auf. Dennoch sind weltweit inzwischen rund 200 Fundorte für gediegen Blei bekannt (Stand: 2017), so unter anderem in Argentinien, Äthiopien, Australien, Belgien, Brasilien, Volksrepublik China, Deutschland, Finnland, Frankreich, Georgien, Griechenland, Grönland, Italien, Kanada, Kasachstan, Kirgisistan, Mexiko, der Mongolei, Namibia, Norwegen, Österreich, Polen, Russland, Schweden, Slowenien, Tschechien, der Ukraine, den US-amerikanischen Jungferninseln, im Vereinigten Königreich und den Vereinigten Staaten von Amerika (USA). Auch in Gesteinsproben des mittelatlantischen Rückens, genauer am nordöstlichen Rand der „Markov-Tiefe“ innerhalb der „Sierra-Leone-Bruchzone“ (Sierra-Leone-Schwelle), sowie außerhalb der Erde auf dem Mond im Mare Fecunditatis konnte Blei gefunden werden. An jedem Fundort weicht die Isotopenzusammensetzung geringfügig von den oben angegebenen Mittelwerten ab, so dass man mit einer genauen Analyse der Isotopenzusammensetzung den Fundort bestimmen und bei archäologischen Fundstücken auf alte Handelswege schließen kann. Zudem kann Blei ebenfalls fundortabhängig verschiedene Fremdbeimengungen wie Silber, Kupfer, Zink, Eisen, Zinn und/oder Antimon enthalten. In Bleierzen ist Blei zumeist als Galenit (Bleisulfid PbS, Bleiglanz) zugegen. Dieses Mineral ist auch die bedeutendste kommerzielle Quelle für die Gewinnung neuen Bleis. Weitere Bleimineralien sind Cerussit (Blei(II)-carbonat, PbCO3, auch Weißbleierz), Krokoit (Blei(II)-chromat, PbCrO4, auch Rotbleierz) und Anglesit (Blei(II)-sulfat, PbSO4, auch Bleivitriol). Die Bleiminerale mit der höchsten Bleikonzentration in der Verbindung sind Lithargit und Massicotit (bis 92,8 %) sowie Minium (bis 90,67 %). Insgesamt sind bisher 514 Bleiminerale bekannt (Stand: 2017). Die wirtschaftlich abbaubaren Vorräte werden weltweit auf 67 Millionen Tonnen geschätzt (Stand 2004). Die größten Vorkommen findet man in der Volksrepublik China, den USA, Australien, Russland und Kanada. In Europa sind Schweden und Polen die Länder mit den größten Vorkommen. Auch in Deutschland wurde in der nördlichen Eifel (Rescheid / Gruben Wohlfahrt und Schwalenbach; Mechernich / Grube Günnersdorf und auch Tagebau /Virginia; Bleialf), im Schwarzwald, im Harz (Goslar/Rammelsberg), in Sachsen (Freiberg/Muldenhütten), an der unteren Lahn (Bad Ems, Holzappel), sowie in Westfalen (Ramsbeck/Sauerland) in der Vergangenheit Bleierz abgebaut, verhüttet und veredelt. Die bedeutendste Quelle für Blei ist heute das Recycling alter Bleiprodukte. Daher bestehen in Deutschland nur noch zwei Primärhütten, die Blei aus Erz herstellen, die Bleihütte Binsfeldhammer in Stolberg (Rheinland) und Metaleurop in Nordenham bei Bremerhaven. Sämtliche andere Hütten erzeugen so genanntes Sekundärblei, indem sie altes Blei (insbesondere aus gebrauchten Autobatterien) aufarbeiten. Blei als Mineral Natürliche Vorkommen an Blei in seiner elementaren Form waren bereits vor der Gründung der International Mineralogical Association (IMA) bekannt. Als vermutliche Typlokalität wird die manganreichen Eisenerz-Lagerstätte Långban in Schweden angegeben, wo derbe Massen von bis zu 50 kg oder 60 kg gefunden worden sein sollen. Blei ist daher als sogenanntes grandfathered Mineral als eigenständige Mineralart anerkannt. Gemäß der Systematik der Minerale nach Strunz (9. Auflage) wird Blei unter der System-Nummer 1.AA.05 (Elemente – Metalle und intermetallische Verbindungen – Kupfer-Cupalit-Familie – Kupfergruppe) beziehungsweise in der veralteten 8. Auflage unter I/A.03 (Zinn-Blei-Gruppe) eingeordnet. Die vorwiegend im englischsprachigen Raum verwendete Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. 01.01.01.04 (Goldgruppe). In der Natur tritt gediegen Blei meist in Form von zentimetergroßen Blechen und Platten sowie in körnigen, dendritischen, haar- oder drahtförmigen Aggregaten auf. Sehr selten finden sich auch oktaedrische, würfelige und dodekaedrische Bleikristalle, die meist winzig sind, aber gelegentlich eine Größe zwischen 4 cm und 6 cm erreichen können. Staaten mit der größten Förderung Die weltweit bedeutendsten Förderländer für Bleierz im Jahre 2020 waren die Volksrepublik China (1.900.000 Tonnen), Australien (494.000 Tonnen) und die USA (306.000 Tonnen), deren Anteil an den weltweit abgebauten 4,4 Millionen Tonnen zusammen etwa zwei Drittel betrug. In Europa sind Russland, Schweden, Polen und die Türkei als die größten Bleiproduzenten zu nennen. Die wichtigsten Produzenten von raffiniertem Blei (Hüttenblei mit 99,9 % Reinheit) sind die Volksrepublik China (1,8 Millionen Tonnen), die USA (1,2 Millionen Tonnen) und Deutschland (403.000 Tonnen), deren Anteil zusammen rund die Hälfte der weltweit erzeugten 6,7 Millionen Tonnen beträgt. Weitere bedeutende Produzenten von raffiniertem Blei in Europa sind Großbritannien, Italien, Frankreich und Spanien. Der weltweite Verbrauch bzw. Produktion von Blei stieg von etwa 7 Millionen Tonnen auf etwa 11 Millionen Tonnen in den Jahren 2013 bis 2016. Der Großteil des Bleis wird dabei für Bleiakkumulatoren verwendet. Ca. 92 % des 2021 in den USA gebrauchten Bleis wurden dieser Verwendung zugeführt. Gewinnung und Darstellung Das mit Abstand bedeutendste Bleimineral ist das Galenit. Dieses tritt häufig vergesellschaftet mit den Sulfiden anderer Metalle (Kupfer, Bismut, Zink, Arsen, Antimon u. a.) auf, die naturgemäß als Verunreinigung des Rohbleis bis zu einem Anteil von 5 % enthalten sind. Das durch Zerkleinerung, Klassierung und Flotation auf bis zu 60 % Mineralgehalt aufbereitete Erz wird in drei verschiedenen industriellen Prozessen in metallisches Blei überführt. Dabei treten die Verfahren der Röstreduktion und der Röstreaktion zunehmend in den Hintergrund und werden durch Direktschmelzverfahren ersetzt, die sich einerseits wirtschaftlicher gestalten lassen und die andererseits umweltverträglicher sind. Röstreduktionsarbeit Dieses Verfahren verläuft in zwei Stufen, dem Rösten und der Reduktion. Beim Rösten wird das fein zerkleinerte Bleisulfid auf einen Wanderrost gelegt und 1000 °C heiße Luft hindurchgedrückt. Dabei reagiert es mit dem Sauerstoff der Luft in einer exothermen Reaktion zu Blei(II)-oxid (PbO) und Schwefeldioxid. Dieses wird über die Röstgase ausgetrieben und kann für die Schwefelsäureproduktion verwendet werden. Das Bleioxid ist unter diesen Bedingungen flüssig und fließt nach unten. Dort kann es gesintert werden. (Röstarbeit) Anschließend erfolgt die Reduktion des Bleioxids mit Hilfe von Koks zu metallischem Blei. Dies geschieht in einem Schachtofen, ähnlich dem beim Hochofenprozess verwendeten. Dabei werden schlackebildende Zuschlagsstoffe wie Kalk beigefügt. (Reduktionsarbeit) Röstreaktionsarbeit Dieses Verfahren kommt vor allem bei hochgradig mit PbS angereicherten Bleierzen zum Einsatz und ermöglicht die Bleierzeugung in einem Schritt. Dabei wird das sulfidische Erz nur unvollständig geröstet. Anschließend wird das Bleisulfid/Bleioxid-Gemisch weiter unter Luftabschluss erhitzt. Dabei setzt das Bleioxid sich mit dem verbliebenen PbS ohne Zugabe eines weiteren Reduktionsmittels zu Blei und Schwefeldioxid um: (Röstarbeit), (Reaktionsarbeit). Direktschmelzverfahren Moderne Herstellungsverfahren für Blei basieren auf Direktschmelzverfahren, die auf Umweltverträglichkeit und Wirtschaftlichkeit hin optimiert wurden (zum Beispiel das QSL-Verfahren). Vorteilhaft ist die kontinuierliche Prozessführung mit Beschränkung auf einen Reaktionsraum, der als einziger Emittent für Schadstoffe auftritt – im Vergleich dazu weisen die klassischen Produktionsverfahren das Sintern als zusätzlichen emittierenden Schritt auf. Das Rösten und die Reduktion finden parallel in einem Reaktor statt. Das Bleisulfid wird ähnlich wie beim Röstreaktionsverfahren nicht vollständig geröstet. Ein Teil des Bleis entsteht somit durch Reaktion des Bleisulfids mit Bleioxid. Da der Reaktor leicht geneigt ist, fließen Blei und bleioxidhaltige Schlacke ab. Diese passiert die Reduktionszone, in die Kohlenstaub eingeblasen und das Bleioxid so zu Blei reduziert wird. Beim Rösten wird statt Luft reiner Sauerstoff verwendet. Dadurch verringert sich das Volumen an Abgasen erheblich, die andererseits eine im Vergleich zu konventionellen Verfahren höhere Konzentration an Schwefeldioxid aufweisen. Deren Verwendung für die Schwefelsäureherstellung gestaltet sich somit einfacher und wirtschaftlicher. Raffination Das entstehende Werkblei enthält 2–5 % andere Metalle, darunter Kupfer, Silber, Gold, Zinn, Antimon, Arsen, Bismut in wechselnden Anteilen. Das Aufreinigen und Vermarkten einiger dieser Beiprodukte, insbesondere des bis zu 1 % im Werkblei enthaltenen Silbers, trägt wesentlich zur Wirtschaftlichkeit der Bleigewinnung bei. Die pyrometallische Raffination des Bleis ist ein mehrstufiger Prozess. Durch Schmelzen in Gegenwart von Natriumnitrat/Natriumcarbonat bzw. von Luft werden Antimon, Zinn und Arsen oxidiert und können als Bleiantimonate, -stannate und -arsenate von der Oberfläche der Metallschmelze abgezogen werden („Antimonabstrich“). Kupfer wie auch eventuell enthaltenes Zink, Nickel und Kobalt werden durch Seigern des Werkbleis aus dem Rohmetall entfernt. Dabei sinkt auch der Schwefelgehalt beträchtlich. Silber wird nach dem Parkes-Verfahren ggf. durch die Zugabe von Zink und das Ausseigern der sich bildenden Zn-Ag-Mischkristalle aus dem Blei abgeschieden („Parkesierung“), während die Bedeutung des älteren Pattinson-Verfahrens stark zurückgegangen ist (siehe auch Herstellung von Silber, Güldischsilber). Bismut kann nach dem Kroll-Betterton-Verfahren durch Legieren mit Calcium und Magnesium als Bismutschaum von der Oberfläche der Bleischmelze abgezogen werden. Eine weitere Reinigung kann durch elektrolytische Raffination erfolgen, jedoch ist dieses Verfahren bedingt durch den hohen Energiebedarf kostenintensiver. Blei ist zwar ein unedles Element, welches in der elektrochemischen Spannungsreihe ein negativeres Standardpotential als Wasserstoff aufweist. Dieser hat jedoch an Bleielektroden eine hohe Überspannung, so dass eine elektrolytische Abscheidung metallischen Bleis aus wässrigen Lösungen möglich wird, siehe elektrolytische Bleiraffination. Raffiniertes Blei kommt als Weichblei bzw. genormtes Hüttenblei mit 99,9- bis 99,97%iger Reinheit (zum Beispiel Eschweiler Raffiné) oder als Feinblei mit 99,985 bis 99,99 % Blei (DIN 1719, veraltet) in den Handel. Entsprechend dem Verwendungszweck sind auch Bezeichnungen wie Kabelblei für die Legierung mit ca. 0,04 % Kupfer verbreitet. Aktuelle Normen wie DIN EN 12659 kennen diese noch gebräuchlichen Bezeichnungen nicht mehr. Eigenschaften Physikalische Eigenschaften Blei ist ein unedles Metall mit einem Standardelektrodenpotential von etwa −0,13 V. Es ist allerdings edler als viele andere Gebrauchsmetalle, wie Eisen, Zink oder Aluminium. Es ist ein diamagnetisches Schwermetall mit einer Dichte von 11,3 g/cm³, das kubisch-flächenzentriert kristallisiert und damit eine kubisch dichteste Kugelpackung mit der aufweist. Der Gitterparameter beträgt bei reinem Blei 0,4950 nm (entspricht 4,95 Å) bei 4 Formeleinheiten pro Elementarzelle. Darauf gründet die ausgeprägte Duktilität des Metalls und die geringe Mohshärte von 1,5. Es lässt sich daher leicht zu Blechen walzen oder zu Drähten formen, die jedoch wegen ihrer geringen Härte nur wenig beständig sind. Eine diamantartige Modifikation, wie sie von den leichteren Homologen der Gruppe 14 bekannt ist, tritt beim Blei nicht auf. Das liegt an der relativistisch bedingten Instabilität der Pb-Pb-Bindung und an der geringen Tendenz, vierwertig aufzutreten. Frische Bleiproben sind von grauweißer bis metallisch weißer Farbe und zeigen einen typisch metallischen Glanz, der aber durch oberflächliche Oxidation sehr schnell abnimmt. Die Farbe wechselt dabei ins Dunkelgraue und wird matt. Auf Papier hinterlässt das weiche Metall einen (blei)grauen Strich. Aus diesem Grund wurde früher mit Blei geschrieben und gemalt. Der Name „Bleistift“ blieb bis heute erhalten, obwohl man seit langem dafür Graphit benutzt. Der Schmelzpunkt des Bleis liegt bei 327 °C, sein Siedepunkt bei 1740–1751 °C (Werte in Fachliteratur unterschiedlich: 1740 °C, 1746 °C, 1751 °C). Blei leitet als typisches Metall sowohl Wärme als auch Strom, dies aber deutlich schlechter als andere Metalle (vgl. elektrische Leitfähigkeit Blei: 4,8 · 106 S/m, Silber: 62 · 106 S/m). Unterhalb von 7,196 K zeigt Blei keinen elektrischen Widerstand, es wird zum Supraleiter vom Typ I. Die Schallgeschwindigkeit in Blei liegt bei etwa 1200 m/s, in der Literatur streuen die Werte etwas, wahrscheinlich bedingt durch unterschiedliche Reinheit oder Bearbeitung. Chemische Eigenschaften An der Luft wird Blei durch Bildung einer Schicht aus Bleioxid passiviert und damit vor weiterer Oxidation geschützt. Frische Schnitte glänzen daher zunächst metallisch, laufen jedoch schnell unter Bildung einer matten Oberfläche an. In feinverteiltem Zustand ist Blei leichtentzündlich (pyrophores Blei). Auch in diversen Säuren ist Blei durch Passivierung unlöslich. So ist Blei beständig gegen Schwefelsäure, Flusssäure und Salzsäure, da sich mit den Anionen der jeweiligen Säure unlösliche Bleisalze bilden. Deshalb besitzt Blei für spezielle Anwendungen eine gewisse Bedeutung im chemischen Apparatebau. Löslich ist Blei dagegen in Salpetersäure (Blei(II)-nitrat ist wasserlöslich), heißer, konzentrierter Schwefelsäure (Bildung des löslichen Pb(HSO4)2-Komplexes), Essigsäure (nur bei Luftzutritt) und heißen Laugen. In Wasser, das keinen Sauerstoff enthält, ist metallisches Blei stabil. Bei Anwesenheit von Sauerstoff löst es sich jedoch langsam auf, so dass bleierne Trinkwasserleitungen eine Gesundheitsgefahr darstellen können. Wenn das Wasser dagegen viele Hydrogencarbonat- und Sulfationen enthält, was meist mit einer hohen Wasserhärte einhergeht, bildet sich nach einiger Zeit eine Schicht basischen Bleicarbonats und Bleisulfats. Diese schützt das Wasser vor dem Blei, jedoch geht selbst dann noch etwas Blei aus den Leitungen in das Wasser über. Isotope Natürlich vorkommendes Blei besteht im Mittel zu etwa 52,4 % aus dem Isotop 208Pb, zu etwa 24,1 % aus 206Pb, zu etwa 22,1 % aus 207Pb, und zu etwa 1,4 % 204Pb. Die Zusammensetzung ist je nach Lagerstätte geringfügig verschieden, so dass mit einer Analyse der Isotopenzusammensetzung die Bleiherkunft festgestellt werden kann. Das ist für historische Funde aus Blei und Erkenntnisse früherer Handelsbeziehungen von Bedeutung. Die drei erstgenannten Isotope sind stabil. Bei 204Pb handelt es sich um ein primordiales Radionuklid. Es zerfällt unter Aussendung von Alphastrahlung mit einer Halbwertszeit von 1,4 · 1017 Jahren (140 Billiarden Jahre) in 200Hg. 208Pb besitzt einen doppelt magischen Kern; es ist das schwerste stabile Nuklid. (Das noch schwerere, lange für stabil gehaltene 209Bi ist nach neueren Messungen instabil und zerfällt mit einer Halbwertszeit von (1,9 ± 0,2)· 1019 Jahren (19 Trillionen Jahre) unter Aussendung von Alphateilchen.) Die stabilen Isotope des natürlich vorkommenden Bleis sind jeweils die Endprodukte der Uran- und Thorium-Zerfallsreihen: 206Pb ist das Endnuklid der beim 238U beginnenden Uran-Radium-Reihe, 207Pb ist das Ende der beim 235U beginnenden Uran-Actinium-Reihe und 208Pb das Ende der beim 244Pu bzw. 232Th beginnenden Thorium-Reihe. Durch diese Zerfallsreihen kommt es zu dem Effekt, dass das Verhältnis der Bleiisotope in einer Probe bei Ausschluss eines stofflichen Austausches mit der Umwelt zeitlich nicht konstant ist. Dies kann zur Altersbestimmung durch die Uran-Blei- bzw. Thorium-Blei-Methode genutzt werden, die auf Grund der langen Halbwertszeiten der Uran- und Thoriumisotope im Gegensatz zur Radiokarbonmethode gerade zur Datierung von Millionen Jahre alten Proben tauglich ist. Außerdem führt der Effekt zu differenzierten Isotopensignaturen im Blei aus verschiedenen Lagerstätten, was zum Herkunftsnachweis herangezogen werden kann. Weiterhin existieren noch 33 instabile Isotope und 13 instabile Isomere von 178Pb bis 215Pb, die entweder künstlich hergestellt wurden oder in den Zerfallsreihen des Urans bzw. des Thoriums vorkommen, wie etwa 210Pb in der Uran-Radium-Reihe. Das langlebigste Isotop unter ihnen ist 205Pb mit einer Halbwertszeit von 153 Millionen Jahren. → Liste der Blei-Isotope Verwendung Die größten Bleiverbraucher sind die USA, Japan, Deutschland und die Volksrepublik China. Der Verbrauch ist stark von der Konjunktur in der Automobilindustrie abhängig, in deren Akkumulatoren etwa 60 % des Weltbedarfs an Blei verwendet werden. Weitere 20 % werden in der chemischen Industrie verarbeitet. Strahlenabschirmung Wegen seiner hohen Atommasse eignet sich Blei in ausreichend dicken Schichten oder Blöcken zur Abschirmung gegen Gamma- und Röntgenstrahlung; es absorbiert Röntgen- und Gammastrahlung sehr wirksam. Blei ist hierfür billiger und leichter zu verarbeiten, etwa als weiches Blech, als noch „atom-schwerere“, dichtere Metalle. Deshalb wird es ganz allgemein im Strahlenschutz (zum Beispiel Nuklearmedizin, Radiologie, Strahlentherapie) zur Abschirmung benutzt. Ein Beispiel ist die Bleischürze, welche Ärzte und Patienten bei Röntgenaufnahmen tragen. Bleiglas wird ebenfalls zum Strahlenschutz verwendet. Im Krankenhausbereich ist als technische Angabe bei baulichen Einrichtungen mit Abschirmfunktion wie Wänden, Türen, Fenster der Bleidickegleichwert üblich und oft angeschrieben, um die Wirksamkeit von Strahlenschutz und Strahlenbelastung berechnen zu können. Blei wird deshalb zum Beispiel auch für Streustrahlenraster eingesetzt. Einen besonderen Anwendungsfall stellt die Abschirmung von Gamma-Spektrometern für die Präzisionsdosimetrie dar. Hierfür wird Blei mit möglichst geringer Eigen-Radioaktivität benötigt. Der natürliche Gehalt an radioaktivem 210Pb wirkt sich störend aus. Er fällt umso niedriger aus, je länger der Verhüttungszeitpunkt zurückliegt, denn mit der Verhüttung werden die Mutter-Nuklide aus der Uran-Radium-Reihe (Begleiter im Erz) vom Blei abgetrennt. Das 210Pb zerfällt daher vom Zeitpunkt der Verhüttung an mit seiner Halbwertszeit von 22,3 Jahren, ohne dass neues nachgebildet wird. Deshalb sind historische Bleigegenstände wie etwa Trimmgewichte aus gesunkenen Schiffen oder historische Kanonenkugeln zur Gewinnung von strahlungsarmem Blei für die Herstellung solcher Abschirmungen begehrt. Auch gibt es noch andere Forschungseinrichtungen, die aus ähnlichen Gründen dieses alte Blei benötigen. Metall Blei wird vorwiegend als Metall oder Legierung verwendet. Im Gegensatz zu früheren Zeiten, als Blei eines der wichtigsten und meistverwendeten Metalle war, versucht man heute, Blei durch andere, ungiftige Elemente oder Legierungen zu ersetzen. Wegen seiner wichtigen Eigenschaften, vor allem seiner Korrosionsbeständigkeit und hohen Dichte sowie seiner einfachen Herstellung und Verarbeitung, hat es aber immer noch eine große Bedeutung in der Industrie. Elemente mit einer ähnlichen oder noch höheren Dichte beispielsweise sind entweder noch problematischer (Quecksilber, Uran) oder sehr selten und teuer (Wolfram, Gold, Platin). Elektrotechnik Das meiste Blei wird heutzutage für chemische Energiespeicher in Form von Bleiakkumulatoren (zum Beispiel für Autos) verwendet. Ein Autoakku enthält eine Blei- und eine Blei(IV)-oxid-Elektrode sowie verdünnte Schwefelsäure (37 %) als Elektrolyt. Aus den bei der elektrochemischen Reaktion entstehenden Pb2+-Ionen bildet sich in der Schwefelsäure unlösliches Blei(II)-sulfat. Wiederaufladen ist durch die Rückreaktion von Blei(II)-sulfat zu Blei und Blei(IV)-oxid möglich. Ein Vorteil des Bleiakkumulators ist die hohe Nennspannung einer Akkuzelle von 2,06 Volt. Maschinenbau Da Blei eine hohe Dichte besitzt, wird es als Gewicht benutzt. Umgangssprachlich gibt es deshalb die Bezeichnung „bleischwer“ für sehr schwere Dinge. Bleigewichte wurden unter anderem als Ausgleichsgewichte zum Auswuchten von Autorädern benutzt. Dies ist aber seit dem 1. Juli 2003 bei PKW-Neuwagen und seit dem 1. Juli 2005 bei allen PKW (bis 3,5 t) verboten; die Bleigewichte sind durch Zink- oder Kupfergewichte ersetzt worden. Weitere Anwendungen unter Ausnutzung der hohen Dichte sind: Bleiketten zur Straffung von Gardinen und Tauchgewichte, um beim Tauchen den Auftrieb von Taucher und Ausrüstung auszugleichen. Außerdem wird Blei als Schwingungsdämpfer in vibrationsempfindlichen (Auto-)Teilen, zur Stabilisierung von Schiffen und für Sonderanwendungen des Schallschutzes verwendet. Apparatebau Blei ist durch Passivierung chemisch sehr beständig und widersteht u. a. Schwefelsäure und Brom. Daher wird es als Korrosionsschutz im Apparate- und Behälterbau eingesetzt. Eine früher wichtige Anwendung war das Bleikammerverfahren zur Schwefelsäureherstellung, da damals Blei das einzige bekannte Metall war, das den Schwefelsäuredämpfen widerstand. Auch frühere Anlagen und Räume zur Herstellung von Nitroglyzerin wurden an Boden und Wand mit Blei ausgekleidet. Blei wurde auch häufig zur Ummantelung von Kabeln zum Schutz vor Umwelteinflüssen benutzt, beispielsweise bei Telefonkabeln. Heute ist Blei dabei meist durch Kunststoffe, zum Beispiel PVC, abgelöst worden, wird aber bis heute bei Kabeln in Raffinerien eingesetzt, da es auch gegen Kohlenwasserstoffe unempfindlich ist. Bauwesen Da Blei leicht zu bearbeiten und zu gießen ist, wurde Blei in der Vergangenheit häufig für metallische Gegenstände verwendet. Zu den wichtigsten Bleiprodukten zählten u. a. Rohre. Aufgrund der Toxizität der aus dem Blei evtl. entstehenden chemischen Verbindungen (Bleivergiftung) kommen Bleirohre aber seit den 1970er Jahren nicht mehr zum Einsatz. Trotz einer gebildeten Karbonatschicht in den Rohren löst sich das Blei weiterhin im Trinkwasser. Erfahrungsgemäß wird bereits nach wenigen Metern der Grenzwert der geltenden Trinkwasserverordnung nicht mehr eingehalten. Weitere Verwendung im Hochbau fand Blei zur Verbindung von Steinen durch eingegossene Metallklammern oder Metalldübel, etwa um Scharniere an einen steinernen Türstock zu befestigen oder ein Eisengeländer an einer Steintreppe. Diese Verbleiungstechnik ist in der Restaurierung noch weit verbreitet. So an der Turmspitze im Wiener Stephansdom oder der Brücke in Mostar. Auch für Fensterfassungen, zum Beispiel an mittelalterlichen Kirchenfenstern, wurden oft Bleiruten verwendet. Blei (Walzblei) findet auch Verwendung als Dachdeckung (zum Beispiel die Hauptkuppeln der Hagia Sophia) oder für Dachabschlüsse (zum Beispiel bei den berühmten „Bleikammern“, dem ehemaligen Gefängnis von Venedig und im Kölner Dom) sowie zur Einfassung von Dachöffnungen. Auch wurde früher Farben und Korrosionsschutzanstrichen Blei beigemischt, insbesondere bei Anstrichen für Metalloberflächen. Noch heute stellt Blei bei Gebäuden im Bestand einen zu berücksichtigenden Gebäudeschadstoff dar, da es in vielen älteren Bau- und Anlageteilen weiterhin zu finden ist. Pneumatiksteuerungen Ein spezieller Anwendungsbereich von Bleirohren waren ab dem späten 19. Jahrhundert pneumatische Steuerungen für Orgeln (pneumatische Traktur), pneumatische Kunstspielklaviere und, als ein spezieller und sehr erfolgreicher Einsatzfall, die Steuerung der Link-Trainer, des ersten weitverbreiteten Flugsimulators. Die Vorteile von Bleirohren (billig, stabil, flexibel, kleiner Platzbedarf für die nötigen umfangreichen Rohrbündel, lötbar, mechanisch leicht zu verarbeiten, langlebig) waren dafür ausschlaggebend. Militärtechnik Ein wichtiger Abnehmer für Bleimetall war und ist das Militär. Blei dient als Grundstoff für Geschosse, sowohl für Schleudern als auch für Feuerwaffen. In sogenannten Kartätschen wurde gehacktes Blei verschossen. Der Grund für die Verwendung von Blei waren und sind einerseits die hohe Dichte und damit hohe Durchschlagskraft und andererseits die leichte Herstellung durch Gießen. Heutzutage wird das Blei meist von einem Mantel (daher „Mantelgeschoss“) aus einer Kupferlegierung (Tombak) umschlossen. Vorteile sind vor allem eine höhere erreichbare Geschossgeschwindigkeit, bei der ein nicht ummanteltes Bleigeschoss aufgrund seiner Weichheit nicht mehr verwendet werden kann, und die Verhinderung von Bleiablagerungen im Inneren des Laufes einer Feuerwaffe. Bleifreie Munition ist jedoch auch verfügbar. Karosseriereparatur Vor dem Aufkommen moderner 2-Komponenten-Spachtelmasse wurden Blei oder Blei-Zinn-Legierungen aufgrund ihres geringen Schmelzpunktes zum Ausfüllen von Schad- und Reparaturstellen an Fahrzeugkarosserien genutzt. Dazu wurde das Material mit Lötbrenner und Flussmittel auf die Schadstelle aufgelötet. Anschließend wurde die Stelle wie beim Spachteln verschliffen. Dies hat den Vorteil, dass das Blei im Gegensatz zu Spachtelmasse eine feste Bindung mit dem Blech eingeht und bei Temperaturschwankungen auch dessen Längenausdehnung mitmacht. Da die entstehenden Dämpfe und Stäube giftig sind, wird dieses Verfahren heute außer bei der Restaurierung historischer Fahrzeuge kaum noch verwendet. Brauchtum Ein alter Orakel-Brauch, den bereits die Römer pflegten, ist das Bleigießen, bei dem flüssiges Blei (heutzutage auch in Legierung mit Zinn) in kaltem Wasser zum Erstarren gebracht wird. Anhand der zufällig entstehenden Formen sollen Weissagungen über die Zukunft getroffen werden. Heute wird der Brauch noch gerne zu Neujahr geübt, um einen (nicht unbedingt ernst genommenen) Ausblick auf das kommende Jahr zu bekommen. Wassersport Beim Tauchen werden Bleigewichte zum Tarieren verwendet; der hohe Dichteüberschuss (gut 10 g/cm³) gegenüber Wasser liefert kompakt den Abtrieb, so dass ein Taucher auch in geringer Wassertiefe schweben kann. Für die Verwendung von Blei als Gewicht ist ferner der vergleichsweise niedrige Preis begünstigend: Ausgehend von den Weltmarktpreisen für Metalle vom Juli 2013 hat Blei ein hervorragendes Preis-Gewichts-Verhältnis. Die Verwendung erfolgt in Form von Platten an den Schuhsohlen eines Panzertauchanzugs, als abgerundete Blöcke aufgefädelt auf einem breiten Hüftgurt oder – modern – als Schrotkugeln in Netzen in den Taschen einer Tarierweste. Öffnen der Gurtschnalle oder der Taschen (unten) erlaubt es, den Ballast notfalls rasch abzuwerfen. Der Kielballast von Segelyachten besteht bevorzugt aus Blei. Eisenschrot ist zwar billiger, aber auch weniger dicht, was bei den heute üblichen schlanken Kielen nicht optimal ist. Neben der Dichte ist ein weiterer Vorteil, dass Blei nicht rostet und daher auch bei einem Schaden in der Kielverkleidung nicht degeneriert. Legierungsbestandteil Blei wird auch in einigen wichtigen Legierungen eingesetzt. Durch das Zulegieren weiterer Metalle ändern sich je nach Metall die Härte, der Schmelzpunkt oder die Korrosionsbeständigkeit des Materials. Die wichtigste Bleilegierung ist das Hartblei, eine Blei-Antimon-Legierung, die erheblich härter und damit mechanisch belastbarer als reines Blei ist. Spuren einiger anderer Elemente (Kupfer, Arsen, Zinn) sind meist in Hartblei enthalten und beeinflussen ebenfalls maßgeblich die Härte und Festigkeit. Verwendung findet Hartblei beispielsweise im Apparatebau, bei dem es neben der chemischen Beständigkeit auch auf Stabilität ankommt. Eine weitere Bleilegierung ist das Letternmetall, eine Bleilegierung mit 60–90 % Blei, die als weitere Bestandteile Antimon und Zinn enthält. Es wird für Lettern im klassischen Buchdruck verwendet, spielt heute allerdings in der Massenproduktion von Druckgütern keine Rolle mehr, sondern allenfalls für bibliophile Editionen. Daneben wird Blei in Lagern als so genanntes Lagermetall verwendet. Blei spielt eine Rolle als Legierungsbestandteil in Weichlot, das unter anderem in der Elektrotechnik Verwendung findet. In Weichloten ist Zinn neben Blei der wichtigste Bestandteil. Die Verwendung von Blei in Loten betrug 1998 weltweit etwa 20.000 Tonnen. Nach der EG-Richtlinie 2002/95/EG RoHS ist Blei seit Juli 2006 weitgehend in der Löttechnik verboten; Ausnahmen gelten für spezielle Anwendungen. Blei ist ein häufiger Nebenbestandteil in Messing. Dort hilft ein Bleianteil (bis 3 %), die Zerspanbarkeit zu verbessern. Auch in anderen Legierungen, wie zum Beispiel Rotguss, kann Blei als Nebenbestandteil enthalten sein. Daher ist es ratsam, nach längerem Stehen das erste aus Messingarmaturen kommende Wasser wegen etwas herausgelösten Bleis eher nicht zu trinken. Bleifrei Mit Ausnahme von AvGas für spezielle Flugzeugmotoren werden bleihaltige Produkte und Anwendungen entweder vollständig ersetzt (wie bei der Verwendung bleifreier Munition oder wie das Tetraethylblei im Benzin; siehe dazu auch Entwicklung der Ottokraftstoffe#Bleifrei), oder der Bleigehalt wird durch Grenzwerte auf einen der technischen Verunreinigung entsprechenden Wert beschränkt (zum Beispiel Zinn und Lot). Diese Produkte werden gern „bleifrei“ genannt. Grenzwerte gibt es u. a. in der Gesetzgebung um die so genannte RoHS (Richtlinie 2011/65/EU), die 1000 ppm (0,1 %) vorsieht. Strenger ist der Grenzwert für Verpackungen mit 100 ppm (Richtlinie 94/62/EG). Der politische Wille zum Ersetzen des Bleis gilt auch dort, wo die Verwendung aufgrund der Eigenschaften technisch oder wirtschaftlich interessant wäre, die Gesundheitsgefahr gering und ein Recycling mit sinnvollem Aufwand möglich wäre (zum Beispiel Blei als Dacheindeckung). Bleiglas Wegen der abschirmenden Wirkung des Bleis besteht der Konus von Kathodenstrahlröhren (d. h. der „hintere“ Teil der Röhre) für Fernsehgeräte, Computerbildschirme etc. aus Bleiglas. Das Blei absorbiert die in Kathodenstrahlröhren zwangsläufig entstehenden weichen Röntgenstrahlen. Für diesen Verwendungszweck ist Blei noch nicht sicher zu ersetzen, daher wird die RoHS-Richtlinie hier nicht angewendet. Glas mit sehr hohem Bleigehalt wird wegen dieser Abschirmwirkung auch in der Radiologie sowie im Strahlenschutz (zum Beispiel in Fensterscheiben) verwendet. Ferner wird Bleiglas wegen seines hohen Brechungsindexes für hochwertige Glaswaren als sogenanntes Bleikristall verwendet. Toxizität Elementares Blei kann vor allem in Form von Staub über die Lunge aufgenommen werden. Dagegen wird Blei kaum über die Haut aufgenommen. Daher ist elementares Blei in kompakter Form für den Menschen nicht giftig. Metallisches Blei bildet an der Luft eine dichte, schwer wasserlösliche Schutzschicht aus Bleicarbonat. Toxisch sind gelöste Bleiverbindungen sowie Bleistäube, die durch Verschlucken oder Einatmen in den Körper gelangen können. Besonders toxisch sind Organobleiverbindungen, zum Beispiel Tetraethylblei, die stark lipophil sind und rasch über die Haut aufgenommen werden. Seit 2006 werden einatembare Fraktionen von Blei und anorganische Bleiverbindungen von der MAK-Kommission der Deutschen Forschungsgemeinschaft als krebserzeugend eingestuft: Bleiarsenat wird aufgrund seines Arsen- und Bleichromat aufgrund seines Chrom(VI)-Gehaltes in der Kategorie 1 (Substanzen, die sich beim Menschen oder im Tierversuch als krebserzeugend erwiesen haben), Blei und andere anorganische Bleiverbindungen außer Bleiarsenat und Bleichromat in der Kategorie 4 (Stoffe, mit krebserzeugenden Eigenschaften). Blei reichert sich selbst bei Aufnahme kleinster Mengen, die über einen längeren Zeitraum stetig eingenommen werden, im Körper an, da es zum Beispiel in Knochen eingelagert und nur sehr langsam wieder ausgeschieden wird. Blei kann so eine chronische Vergiftung hervorrufen, die sich unter anderem in Kopfschmerzen, Müdigkeit, Abmagerung und Defekten der Blutbildung, des Nervensystems und der Muskulatur zeigt. Bleivergiftungen sind besonders für Kinder und Schwangere gefährlich. Es kann auch Fruchtschäden und Zeugungsunfähigkeit bewirken. Im Extremfall kann die Bleivergiftung zum Tod führen. Die Giftigkeit von Blei beruht unter anderem auf einer Störung der Hämoglobinsynthese. Es hemmt mehrere Enzyme und behindert dadurch den Einbau des Eisens in das Hämoglobinmolekül. Dadurch wird die Sauerstoff-Versorgung der Körperzellen gestört. Bleiglas und Bleiglasur eignen sich nicht für Ess- und Trinkgefäße, da Essig(säure) Blei als wasserlösliches Bleiazetat aus dem Silikatverbund herauslösen kann. Als Automotoren noch mit Benzin mit Bleitetraethyl liefen, war die Vegetation in der Nähe von Straßen und in den Städten mit Blei, als Oxidstaub, belastet. Raue und vertiefte Oberflächen, etwa die Einziehung rund um den Stängel eines Apfels, sind Fallen für Staub. Der Zusatz bleihaltiger Antiklopfmittel im Autobenzin hat nach einer 2022 in der PNAS veröffentlichten Studie der Duke und der Florida State University seit den frühen Sechzigerjahren 170 Millionen Amerikaner um durchschnittlich fast fünf IQ-Punkte dümmer gemacht. Wer Mitte der Sechzigerjahre und vor dem Verbot bleihaltigen Benzins 1996 geboren wurde, hat im Schnitt sogar einen bis zu sechs Punkte niedrigeren IQ, als wenn er in einer Welt ohne Blei in der Umwelt aufgewachsen wäre. Der norwegische Umweltökonom und Berater der Weltbank Bjorn Larsen referierte auf der 5. Weltchemikalienkonferenz (September 2023 in Bonn) zu Blei. Er sagte, die Sterblichkeit sei sechsmal höher als bislang angenommen und schätzte die ökonomischen Schäden für das Jahr 2019 auf 6 Billionen US-Dollar. Bleibelastung der Umwelt Luft Die Bleibelastung der Luft wird hauptsächlich durch bleihaltige Stäube verursacht: Hauptquellen sind die Blei-erzeugende Industrie, die Verbrennung von Kohle und bis vor einigen Jahren vor allem der Autoverkehr durch die Verbrennung bleihaltiger Kraftstoffe in Automotoren – durch Reaktion mit dem Benzin zugesetzten halogenierten Kohlenwasserstoffen entstand aus dem zugesetzten Tetraethylblei neben geringeren Mengen an Blei(II)-chlorid und Blei(II)-bromid vor allem Blei und Blei(II)-oxid. Infolge des Verbotes bleihaltiger Kraftstoffe ist die entsprechende Luftbelastung in den letzten Jahren deutlich zurückgegangen. Am höchsten ist die Bleibelastung durch Bleistäube derzeit bei der Arbeit in Blei-produzierenden und -verarbeitenden Betrieben. Auch beim Reinigen und Entfernen alter Mennige-Anstriche durch Sandstrahlen entsteht Bleistaub. Die bei der Bleiraffination und der Verbrennung von Kohle entstehenden Bleioxidstäube konnten durch geeignete Filter verringert werden. Eine weitere Quelle, die mengenmäßig aber kaum ins Gewicht fällt, ist die Verbrennung von Hausmüll in Müllverbrennungsanlagen. Sport- und andere Schützen sind erheblichen Belastungen durch im Mündungs- bzw. Zündfeuer enthaltene (Schwer)metalle ausgesetzt, darunter neben Antimon, Kupfer und Quecksilber eben auch Blei; Vorsorge kann durch den Betrieb entsprechender Absauganlagen auf Schießständen sowie durch den Gebrauch bleifreier Munition getroffen werden. Boden Auch Böden können mit Blei belastet sein. Der mittlere Bleigehalt der kontinentalen Erdkruste liegt bei 15 mg/kg. Böden enthalten von Natur aus zwischen 2 und 60 mg/kg Blei; wenn sie aus bleierzhaltigen Gesteinen entstanden sind, kann der Gehalt deutlich höher sein. Der Großteil der Bleibelastung von Böden ist anthropogen, die Quellen dafür sind vielfältig. Der Großteil des Eintrags erfolgt über Bleistäube aus der Luft, welche mit dem Regen oder durch trockene Deposition in die Böden gelangen. Für Deutschland und das Jahr 2000 wurde der atmosphärische Eintrag in Böden auf 571 t Blei/Jahr geschätzt. Eine weitere Quelle ist belasteter Dünger, sowohl Mineraldünger (136 t Pb/a), insbesondere Ammonsalpeter, als auch Wirtschaftsdünger (182 t Pb/a). Klärschlämme (90 t Pb/a) und Kompost (77 t Pb/a) tragen ebenfalls zur Bleibelastung der Böden bei. Ein erheblicher Eintrag erfolgt auch durch Bleischrot-Munition. Bei Altlasten, wie zum Beispiel an ehemaligen Standorten von bleiproduzierenden Industriebetrieben oder in der Umgebung von alten bleiummantelten Kabeln, kann der Boden ebenfalls eine hohe Bleibelastung aufweisen. Eine besonders große Bleiverseuchung hat beispielsweise im Ort Santo Amaro da Purificação (Brasilien) zu hohen Belastungen bei Kindern geführt. Wasser Die Bleibelastung der Gewässer resultiert hauptsächlich aus dem Ausschwemmen von Blei aus belasteten Böden. Dazu tragen auch geringe Mengen bei, die der Regen aus Bleiwerkstoffen wie Dachplatten löst. Die direkte Verschmutzung von Gewässern durch die Bleiindustrie und den Bleibergbau spielt (zumindest in Deutschland) auf Grund des Baus von Kläranlagen fast keine Rolle mehr. Der Jahreseintrag von Blei in Gewässer ist in Deutschland von ca. 900 t im Jahr 1985 auf ungefähr 300 t im Jahr 2000 zurückgegangen. In Deutschland beträgt der Grenzwert im Trinkwasser seit dem 1. Dezember 2013 10 µg/l (früher 25 µg/l); die Grundlage der Messung ist eine für die durchschnittliche wöchentliche Wasseraufnahme durch Verbraucher repräsentative Probe (siehe Trinkwasserverordnung). Nahrung Durch die Bleibelastung von Luft, Boden und Wasser gelangt das Metall über Pilze, Pflanzen und Tiere in die Nahrungskette des Menschen. Besonders hohe Bleibelastungen können in verschiedenen Pilzen enthalten sein. Auf den Blättern von Pflanzen lagert sich Blei als Staub ab, das war charakteristisch für die Umgebung von Straßen mit viel Kfz-Verkehr, als Benzin noch verbleit wurde. Dieser Staub kann durch sorgfältiges Waschen entfernt werden. Zusätzliche Quellen können bleihaltige Munition bei gejagten Tieren sein. Blei kann auch aus bleihaltigen Glasuren von Keramikgefäßen in Lebensmittel übergehen. In frischem Obst und Gemüse ist in den allermeisten Fällen Blei und Cadmium nicht oder nur in sehr geringen Spuren nachweisbar. Wasserleitungen aus Bleirohren können das Trinkwasser belasten. Sie sind in Deutschland erst seit den 1970er Jahren nicht mehr verbaut worden. Besonders in Altbauten in einigen Regionen Nord- und Ostdeutschlands sind Bleirohre immer noch anzutreffen. Bei über 5 % der Proben des Wassers aus diesen Gebäuden lagen die Bleiwerte des Leitungswassers laut Stiftung Warentest über dem aktuellen gesetzlichen Grenzwert. Gleiches gilt für Österreich und betrifft Hauszuleitungen der Wasserversorgers und Leitungen im Haus, die Sache des Hauseigentümers sind. Aus bleihaltigem Essgeschirr kann Blei durch saure Lebensmittel (Obst, Wein, Gemüse) herausgelöst werden. Wasserleitungsarmaturen (Absperrhähne, Formstücke, Eckventil, Mischer) sind meist aus Messing oder Rotguss. Messing wird für gute Zerspanbarkeit 3 % Blei zugesetzt, Rotguss enthält 4–7 %. Ob Blei- und andere Schwermetallionen (Cu, Zn, Ni) in relevantem Ausmaß ins Wasser übertreten, hängt von der Wasserqualität ab: Wasserhärte, pH-Wert, Sauerstoff, Salzgehalt. Grundsätzlich kann nach längerem Stehen des Wassers in der Leitung, etwa über Nacht, durch Laufenlassen der Wasserleitung von etwa einer Minute (Spülen) vor der Entnahme für Trinkwasserzwecke der Gehalt aller aus der Leitungswandung eingewanderten Ionen reduziert werden. Rechtliche Regelung In der EU wurde der Grenzwert für Blei in Trinkwasser 1998 durch die Richtlinie 98/83/EG (ersetzt durch Richtlinie (EU) 2020/2184) – allerdings mit einer Übergangsfrist von 15 Jahren – auf 10 μg/L festgelegt. Die Höchstmengen an Blei in Lebensmitteln werden durch die Verordnung (EG) Nr. 1881/2006 geregelt. Die jeweiligen Höchstgrenzen hängen dabei vom Erzeugnis ab und orientieren sich auch daran, was durch gute Herstellungspraxis oder gute landwirtschaftliche Praxis erreichbar ist. Der niedrigste Wert wird für Säuglingsnahrung und Lebensmitteln für Säuglinge und Kleinkinder mit 0,010 mg/kg vorgeschrieben. 0,10 mg/kg ist der Grenzwert etwa für Fleisch, Wurzel- und Knollengemüse, Zuckermais, Wein (ab 2022er Weinlese), Honig oder viele Früchte. Für Krebstiere gilt ein Grenzwert von 0,50 mg/kg, für Muscheln ein Grenzwert von 1,50 mg/kg. In Rindengewürzen und Fleur de Sel sind maximal 2,0 mg/kg und in Nahrungsergänzungsmittel sogar 3,0 mg/kg erlaubt. Analytik Klassische qualitative Bestimmung von Blei Nachweis durch Kristallisation Bleiionen können in einer mikroskopischen Nachweisreaktion als Blei(II)-iodid dargestellt werden. Dabei wird die Probe in verdünnter Salzsäure gelöst und vorsichtig bis zur Kristallisation eingedampft. Der Rückstand wird mit einem Tropfen Wasser aufgenommen und anschließend mit einem Kristall eines wasserlöslichen Iodids, zum Beispiel Kaliumiodid (KI), versetzt. Es entstehen nach kurzer Zeit mikroskopisch kleine, gelbe, hexagonale Blättchen des Blei(II)-iodids. Qualitativer Nachweis im Trennungsgang Da Blei nach Zugabe von HCl nicht quantitativ als PbCl2 ausfällt, kann es sowohl in der HCl-Gruppe als auch in der H2S-Gruppe nachgewiesen werden. Das PbCl2 kann sowohl durch Zugabe von Kaliumiodid gemäß obiger Reaktion als gelbes PbI2 gefällt werden, als auch mit K2Cr2O7 als gelbes Bleichromat, PbCrO4. Nach Einleiten von H2S in die salzsaure Probe fällt zweiwertiges Blei in Form von schwarzem PbS aus. Dieses wird nach Digerieren mit (NH4)SX und Zugabe von 4 M HNO3 als PbI2 oder PbCrO4 nachgewiesen. Instrumentelle quantitative Analytik des Bleis Für die Spurenanalytik von Blei und seinen Organoderivaten steht eine Reihe von Methoden zur Verfügung. Allerdings werden in der Literatur laufend neue bzw. verbesserte Verfahren vorgestellt, auch im Hinblick auf die oft erforderliche Vorkonzentrierung. Ein nicht zu unterschätzendes Problem besteht in der Probenaufarbeitung. Atomabsorptionsspektrometrie (AAS) Unter den verschiedenen Techniken der AAS liefert die Quarzrohr- und die Graphitrohrtechnik die besten Ergebnisse für die Spurenanalytik von Bleiverbindungen. Häufig wird Blei mit Hilfe von NaBH4 in das leicht flüchtige Bleihydrid, PbH2, überführt. Dieses wird in eine Quarzküvette geleitet und anschließend elektrisch auf über 900 °C erhitzt. Dabei wird die Probe atomisiert und es wird unter Verwendung einer Hohlkathodenlampe die Absorbanz bei 283,3 nm gemessen. Es wurde eine Nachweisgrenze von 4,5 ng/ml erzielt. Gerne wird in der AAS auch eine Luft-Acetylenfackel (F-AAS) oder mikrowelleninduziertes Plasma (MIP-AAS) zur Atomisierung eingesetzt. Atomemissionsspektrometrie (AES) In der AES haben sich das mikrowelleninduzierte Plasma (MIP-AES) und das induktiv gekoppelte Argon-Plasma (ICP-AES) zur Atomisierung bewährt. Die Detektion findet bei den charakteristischen Wellenlängen 283,32 nm und 405,78 nm statt. Mit Hilfe der MIP-AES wurde für Trimethylblei, (CH3)3Pb+, eine Nachweisgrenze von 0,19 pg/g ermittelt. Die ICP-AES ermöglicht eine Nachweisgrenze für Blei in Trinkwasser von 15,3 ng/ml. Massenspektrometrie (MS) In der Natur treten für Blei insgesamt vier stabile Isotope mit unterschiedlicher Häufigkeit auf. Für die Massenspektrometrie wird häufig das Isotop 206Pb genutzt. Mit Hilfe der ICP-Quadrupol-MS konnte dieses Isotop im Urin mit einer Nachweisgrenze von 4,2 pg/g bestimmt werden. Photometrie Die am weitesten verbreitete Methode zur photometrischen Erfassung von Blei ist die sog. Dithizon-Methode. Dithizon ist ein zweizähniger, aromatischer Ligand und bildet bei pH 9–11,5 mit Pb2+-Ionen einen roten Komplex dessen Absorbanz bei 520 nm (ε = 6,9·104 l/mol·cm) gemessen wird. Bismut und Thallium stören die Bestimmung und sollten vorher quantitativ gefällt oder extrahiert werden. Voltammetrie Für die elektrochemische Bestimmung von Spuren von Blei eignet sich hervorragend die subtraktive anodische Stripping-Voltammetrie (SASV). Dabei geht der eigentlichen voltammetrischen Bestimmung eine reduktive Anreicherungsperiode auf einer rotierenden Ag-Disk-Elektrode voraus. Es folgt die eigentliche Bestimmung durch Messung des Oxidationsstroms beim Scannen eines Potentialfensters von −800 mV bis −300 mV. Anschließend wird die Messung ohne vorangehende Anreicherung wiederholt und die so erhaltene Kurve von der ersten Messung subtrahiert. Die Höhe des verbleibenden Oxidationspeaks bei −480 mV korreliert mit der Menge an vorhandenem Blei. Es wurde eine Nachweisgrenze von 50 pM Blei in Wasser ermittelt. Bleiverbindungen → :Kategorie:Bleiverbindung Bleiverbindungen kommen in den Oxidationsstufen +II und +IV vor. Aufgrund des relativistischen Effekts ist die Oxidationsstufe +II dabei – im Gegensatz zu den leichteren Homologen der Gruppe 14, wie Kohlenstoff und Silicium – stabiler als die Oxidationsstufe +IV. Der Sachverhalt der Bevorzugung der um 2 erniedrigten Oxidationsstufe, findet sich in analoger Weise auch in anderen Hauptgruppen und wird Effekt des inerten Elektronenpaares genannt. Blei(IV)-Verbindungen sind deshalb starke Oxidationsmittel. In intermetallischen Verbindungen des Bleis (Plumbide: MxPby), vor allem mit Alkali- und Erdalkalimetallen, nimmt es auch negative Oxidationsstufen bis −IV an. Viele Bleiverbindungen sind Salze, es gibt aber auch organische Bleiverbindungen, die kovalent aufgebaut sind. Ebenso wie bei Bleimetall wird heutzutage versucht, Bleiverbindungen durch andere, ungiftige Verbindungen zu substituieren. So wurde „Bleiweiß“ (basisches Blei(II)-carbonat) als Weißpigment durch Titan(IV)-oxid ersetzt. Oxide Blei(II)-oxid PbO tritt in zwei Modifikationen, als rote Bleiglätte und als gelbes Massicolit, auf. Beide Modifikationen wurden früher als Pigmente verwendet. Es dient als Ausgangsstoff für andere Bleiverbindungen. Blei(II,IV)-oxid Pb3O4, auch Mennige genannt, ist ein leuchtend rotes Pulver, das früher verbreitet als Pigment und Rostschutzfarbe verwendet wurde. Es ist in Deutschland, seit 2005 auch in der Schweiz, als Rostschutz verboten. Pb3O4 wird in der Glasherstellung für die Bereitung von Bleikristall verwendet. Blei(IV)-oxid PbO2 ist ein schwarz-braunes Pulver, das als Elektrodenmaterial in Bleiakkumulatoren und als Oxidationsmittel in der chemischen Industrie (zum Beispiel Farbstoffherstellung) verwendet wird. Schwefelverbindungen Blei(II)-sulfid PbS ist als Galenit (Bleiglanz) das wichtigste Bleimineral. Es dient vor allem zur Herstellung metallischen Bleis. Blei(II)-sulfat PbSO4 kommt als Anglesit ebenfalls in der Natur vor und wurde als Weißpigment verwendet. Weitere Bleisalze Blei(II)-acetat Pb(CH3COO)2 · 3H2O, auch Bleizucker genannt, war früher ein Zuckerersatzstoff zum Beispiel für das Süßen von Wein. Aufgrund der Giftigkeit von Bleizucker starben früher Menschen an solcherart vergiftetem Wein. Blei(IV)-acetat (Pb(CH3COO)4) bildet farblose, an feuchter Luft nach Essig riechende Kristallnadeln. Mit Wasser zersetzt es sich zu Blei(IV)-oxid und Essigsäure. Es dient in der Organischen Chemie als starkes Oxidationsmittel. Bleiweiß, basisches Bleicarbonat 2 PbCO3 · Pb(OH)2, war früher ein beliebtes Weißpigment; es ist heute meist durch Titanoxid abgelöst. Blei(II)-nitrat Pb(NO3)2 ist ein giftiges, weißes Pulver, das für Sprengstoffe und zur Herstellung von Streichhölzern verwendet wurde. Blei(II)-chlorid PbCl2 dient als Ausgangsstoff zur Herstellung von Bleichromat. Blei(II)-chromat PbCrO4 ist ein orange-gelbes Pulver, welches früher als Pigment diente und heute wegen seiner Giftigkeit nicht mehr eingesetzt wird. Bleiazid Pb(N3)2 ist ein wichtiger Initialsprengstoff. Organische Bleiverbindungen Organische Bleiverbindungen liegen fast immer in der Oxidationsstufe +4 vor. Deren bekannteste ist Tetraethylblei Pb(C2H5)4 (TEL), eine giftige Flüssigkeit, die als Antiklopfmittel Benzin zugesetzt wurde. Heute wird Tetraethylblei nur noch in Flugbenzin verwendet. Literatur Gerhart Jander, Ewald Blasius: Einführung in das anorganisch-Chemische Praktikum. 14. Auflage. S. Hirzel, Leipzig 1995, ISBN 3-7776-0672-3. William H. Brock: Viewegs Geschichte der Chemie. Vieweg, Braunschweig 1997, ISBN 3-540-67033-5. Stefan Meier: Blei in der Antike. Bergbau, Verhüttung, Fernhandel. Dissertation. Zürich, Universität 1995. Raymund Gottschalk, Albrecht Baumann: Material provenance of late-Roman lead coffins in the Rheinland, Germany. In: European Journal of Mineralogy. 13, Stuttgart 2001, S. 197–200. Heiko Steuer, Ulrich Zimmermann: Alter Bergbau in Deutschland. (= Archäologie in Deutschland. Sonderheft). Konrad Theiss, Stuttgart 1993, ISBN 3-8062-1066-7. Weblinks Mineralienatlas:Blei (Wiki) MATERIAL ARCHIV: Blei – Umfangreiche Materialinformationen und Bilder Lead Poisoning: A Historical Perspective – Historische Perspektive zur Bleivergiftung (englisch) (2001, PDF, S. 215–226; 1,37 MB) TRGS 505-Technische Regeln für Gefahrstoffe-Blei (PDF; 186 kB) Einträge von Blei in die Umwelt (PDF; 3,9 MB) (PDF; 48 kB) Molekulare Ursache für Bleivergiftungen Lead and Human Health, Environmental Health & Toxicology, Specialized Information Services, United States National Library of Medicine (en.) Blei – Informationen des Bundesamts für Lebensmittelsicherheit und Veterinärwesen Einzelnachweise Grandfathered Mineral Kubisches Kristallsystem Elemente (Mineralklasse) Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 30 Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 63 Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 72
493
https://de.wikipedia.org/wiki/Brom
Brom
Brom [] ( „Gestank“) ist ein chemisches Element mit dem Elementsymbol Br und der Ordnungszahl 35. Im Periodensystem steht es in der 7. Hauptgruppe, bzw. der 17. IUPAC-Gruppe und gehört damit zusammen mit Fluor, Chlor, Iod, Astat und Tenness zu den Halogenen. Elementares Brom liegt unter Normbedingungen (Temperatur = 0 °C und Druck = 1 atm) in Form des zweiatomigen Moleküls Br2 in flüssiger Form vor. Brom und Quecksilber sind die einzigen natürlichen Elemente, die unter Normbedingungen flüssig sind. In der Natur kommt Brom nicht elementar, sondern nur in verschiedenen Verbindungen vor. Die wichtigsten Verbindungen sind die Bromide, in denen Brom in Form des Anions Br− auftritt. Die bekanntesten Bromide sind Natriumbromid und Kaliumbromid. Bromide sind ein Bestandteil des Meerwassers und besitzen einige biologische Funktionen. Entdeckung Brom wurde 1826 durch den französischen Chemiker Antoine-Jérôme Balard aus Meeresalgen der Salzwiesen bei Montpellier gewonnen und von diesem als bisher unbekannter Stoff erkannt. Bereits zwei Jahre vor Balard stellte der deutsche Chemiker Justus von Liebig 1824 unwissentlich elementares Brom her. Er hatte den Auftrag, die Salzsolen von Salzhausen zu analysieren, da die Stadt ein Kurbad plante. Bei der Untersuchung dieser Sole fand Liebig eine neue Substanz, die er als Iodchlorid deutete. 13 Jahre später gab er zu, dass ihn seine nachlässige Analyse um die Entdeckung eines neuen Elements gebracht habe. Liebig schrieb dazu: „Ich kenne einen Chemiker, der, als er in Kreuznach war, die Mutterlaugen der Saline untersuchte.“ Im Weiteren beschrieb er dann sein Missgeschick und schloss mit den Worten: „Seit dieser Zeit hat er keine Theorien mehr aufgestellt, wenn sie nicht durch unzweifelhafte Experimente unterstützt und bestätigt wurden; und ich kann vermelden, dass er daran nicht schlecht getan hat.“ Auch Karl Löwig hat sich mit Brom befasst, das er bereits vor 1825 durch Einleiten von Chlor in Kreuznacher Solewasser gewann, jedoch kam Balard ihm mit der Publikation seiner Entdeckung zuvor. Eine industrielle Produktion erfolgte ab 1860. Aufgrund seines stechenden Geruchs schlug Joseph Louis Gay-Lussac den Namen „Brom“ (griech. für „Bocksgestank der Tiere“) vor. Vorkommen Brom kommt in Form von Bromiden, den Salzen der Bromwasserstoffsäure, vor. Mengenmäßig finden sich die größten Vorkommen als gelöste Bromide im Meerwasser. Auch Vorkommen natürlicher Salzlagerstätten (Stein- und Kalisalze) enthalten geringe Anteile an Kaliumbromid und Kaliumbromat. Brom kann auch in der Atmosphäre in der Form von molekularem Brom und Bromoxid vorkommen und kann die atmosphärische Ozonchemie maßgeblich beeinflussen und dabei über weite Distanzen transportiert werden. Während des polaren Frühlings zerstören regelmäßig größere Konzentrationen (>10ppt) BrO fast das gesamte troposphärische Ozon. Diese Ereignisse sind mittels der DOAS-Methode auch von Satelliten zu beobachten. In tropischen Regionen mit hoher Bioaktivität wurden starke Emissionen halogenierter Kohlenwasserstoffe beobachtet, die letztendlich durch Photolyse zur Bildung von BrO und zur Ozonzerstörung beitragen können. Brom ist für Tiere in Spuren essenziell. Bromid fungiert als Cofaktor bei einer Stoffwechsel-Reaktion, die notwendig zum Aufbau der Kollagen-IV-Matrix im Bindegewebe ist. Gewinnung und Darstellung Die industrielle Herstellung elementaren Broms erfolgt durch Oxidation von Bromidlösungen mit Chlor. Durch Oxidation von Kaliumbromid durch Chlor entstehen Brom und Kaliumchlorid Als Bromidquelle nutzt man überwiegend Sole und stark salzhaltiges Wasser aus großer Tiefe sowie Salzseen, vereinzelt auch Meerwasser. Eine Gewinnung aus den Restlaugen der Kaligewinnung ist nicht mehr wirtschaftlich. Seit 1961 hat sich die jährlich gewonnene Menge an Brom von rund 100.000 Tonnen auf über eine halbe Million Tonnen mehr als verfünffacht. Die größten Brom-Produzenten sind die Vereinigten Staaten, China, Israel, sowie Jordanien. Es wird geschätzt, dass alleine das Tote Meer ungefähr 1 Milliarde Tonnen Brom enthält und sämtliche Meere der Erde ungefähr 100 Billionen Tonnen. Die globalen Abbaumengen verteilen sich, wie folgt: Im Labor kann Brom durch Umsetzung von Natriumbromid mit Schwefelsäure und Braunstein in der Hitze dargestellt werden. Das Brom wird dabei durch Destillation abgetrennt. Aus Natriumbromid, Mangan(IV)-oxid und Schwefelsäure entstehen Brom, Mangan(II)-sulfat, Natriumsulfat und Wasser. Eigenschaften Physikalische Eigenschaften Die Dichte von Brom beträgt 3,12 g/cm3. Die schwere rotbraune Flüssigkeit bildet chlorähnlich riechende Dämpfe, die giftiger sind als Chlor. Festes Brom ist dunkel, bei weiterer Abkühlung hellt es auf. In Wasser ist es mäßig, in organischen Lösungsmitteln wie Alkoholen, Kohlenstoffdisulfid oder Tetrachlorkohlenstoff sehr gut löslich. In Wasser gelöstes Brom reagiert langsam unter Zwischenbildung von Hypobromiger Säure (HBrO) und Sauerstoffabgabe zu Bromwasserstoff (HBr). Die kinetisch gehemmte Reaktion wird durch (Sonnen-)Licht beschleunigt, Bromwasser wird daher in braunen, wenig lichtdurchlässigen Flaschen aufbewahrt. Chemische Eigenschaften Brom verhält sich chemisch wie das leichtere Chlor, reagiert aber im gasförmigen Zustand weniger energisch. Feuchtigkeit erhöht die Reaktivität des Broms stark. Mit Wasserstoff reagiert es im Gegensatz zum Chlor erst bei höheren Temperaturen unter Bildung von Bromwasserstoff (farbloses Gas). Mit vielen Metallen (z. B. Aluminium) reagiert es exotherm unter Bildung des jeweiligen Bromids. Feuchtem Brom widerstehen nur Tantal und Platin. Verwendung Chemisches Polieren von Galliumarsenid (als Lösung in Methanol) mehrfach bromierte Biphenyle bzw. Diphenylether als Flammschutzmittel in Verbundwerkstoffen wie FR-4, wie sie bei Leiterplatten eingesetzt werden. Im Jahr 2000 wurden 38 % des Broms für die Herstellung von bromierten Flammschutzmitteln verwendet. Methylbromid als Schädlingsbekämpfungsmittel Desinfektionsmittel (milder als Chlor) in Form von Bromiden, beispielsweise Kaliumbromid, als nebenwirkungsreiches Arzneimittel (Narkose-, Beruhigungs- und Schlafmittel; Behandlung therapieresistenter Epilepsien mit generalisiert tonisch-klonischen Anfällen, früher – etwa auch zur Behandlung der „Hysterie“ – sehr beliebt; heute obsolet). 1928 wurde eins von fünf Rezepten in den USA für bromhaltige Medikamente ausgestellt. Fotoindustrie (Silberbromid als Bestandteil der lichtempfindlichen Suspension) Alkali-Hypobromite als Bleichmittel im Labor als Indikator (ungesättigte Kohlenstoffverbindungen entfärben Bromwasser, d. h. Addition von Brom) im Chemieunterricht zur experimentellen Veranschaulichung von Additionsreaktionen und Substitutionsreaktionen Bromate als Oxidationsmittel bromhaltiger Kautschuk zur Herstellung „luftdichter“ Reifen Tränengas, z. B. in Form von Monobromaceton in Mitteln zum Schutz gegen das Nervengas Soman bei US-Soldaten im Irak-Krieg Früher in Form von Alkylbromiden als Scavenger zum Entfernen des Bleis aus Zylindern bei der Nutzung von verbleitem Benzin Nachweis Bromidionen können qualitativ mit Hilfe von Chlorwasser und Hexan nachgewiesen werden. Zum nasschemischen Nachweis der Bromidionen kann man sich auch wie bei den anderen Nachweisreaktionen für Halogenide die Schwerlöslichkeit des Silbersalzes von Bromid zu Nutze machen. Das Gleiche gilt für die volumetrische Bestimmung der Halogenide durch Titration. Zur Spurenbestimmung und Speziierung von Bromid und Bromat wird die Ionenchromatografie eingesetzt. In der Polarografie ergibt Bromat eine kathodische Stufe bei −1,78 V (gegen SCE, in 0,1 mol/l KCl), wobei es zum Bromid reduziert wird. Mittels Differenzpulspolarografie können auch Bromatspuren erfasst werden. Sicherheitshinweise Elementares Brom ist sehr giftig und stark ätzend, Hautkontakt führt zu schwer heilenden Verätzungen. Inhalierte Bromdämpfe führen zu Atemnot, Lungenentzündung und Lungenödem. Auch auf Wasserorganismen wirkt Brom giftig. Im Labor wird beim Arbeiten mit Brom meist eine dreiprozentige Natriumthiosulfatlösung bereitgestellt, da sie verschüttetes Brom oder Bromwasserstoff sehr gut binden kann. Hierbei bilden sich Natriumbromid, elementarer Schwefel und Schwefelsäure. Durch die entstehende Säure kann weiteres Thiosulfat zu Schwefel und Schwefeldioxid zerfallen: Die Aufbewahrung von Brom erfolgt in Behältern aus Glas, Blei, Monel, Nickel oder Teflon. Verbindungen → Kategorie: Bromverbindung Brom bildet Verbindungen in verschiedenen Oxidationsstufen von −1 bis +7. Die stabilste und häufigste Oxidationsstufe ist dabei −1, die höheren werden nur in Verbindungen mit den elektronegativeren Elementen Sauerstoff, Fluor und Chlor gebildet. Dabei sind die ungeraden Oxidationsstufen +1, +3, +5 und +7 stabiler als die geraden. Bromwasserstoff und Bromide Anorganische Verbindungen, in denen das Brom in der Oxidationsstufe −1 und damit als Anion vorliegt, werden Bromide genannt. Diese leiten sich von der gasförmigen Wasserstoffverbindung Bromwasserstoff (HBr) ab. Diese ist eine starke Säure und gibt in wässrigen Lösungen leicht das Proton ab. Bromide sind in der Regel gut wasserlöslich, Ausnahmen sind Silberbromid, Quecksilber(I)-bromid und Blei(II)-bromid. Besonders bekannt sind die Bromide der Alkalimetalle, vor allem das Natriumbromid. Auch Kaliumbromid wird in großen Mengen, vor allem als Dünger und zur Gewinnung anderer Kaliumverbindungen, verwendet. Bleibromid wurde früher in großen Mengen bei der Verbrennung von verbleitem Kraftstoff freigesetzt (wenn dem Benzin Dibrom-Ethan zugesetzt war um das Blei flüchtig zu machen, siehe Tetraethylblei#Antiklopfmittel für Motorenbenzin). Bromoxide Es ist eine größere Anzahl Verbindungen von Brom und Sauerstoff bekannt. Diese sind nach den allgemeinen Formeln BrOx (x = 1–4) und Br2Ox (x = 1–7) aufgebaut. Zwei der Bromoxide, Dibromtrioxid (Br2O3) und Dibrompentaoxid (Br2O5) lassen sich als Feststoff isolieren. Bromsauerstoffsäuren Neben den Bromoxiden bilden Brom und Sauerstoff auch mehrere Säuren, bei denen ein Bromatom von einem bis vier Sauerstoffatomen umgeben ist. Dies sind die Hypobromige Säure, die Bromige Säure, die Bromsäure und die Perbromsäure. Sie sind als Reinstoff instabil und nur in wässriger Lösung oder in Form ihrer Salze bekannt. Interhalogenverbindungen Brom bildet vorwiegend mit Fluor, zum Teil auch mit den anderen Halogenen eine Reihe von Interhalogenverbindungen. Bromfluoride wie Bromfluorid und Bromtrifluorid wirken stark oxidierend und fluoriend. Während Brom in den Fluor-Brom- und Chlor-Brom-Verbindungen als elektropositiveres Element in Oxidationsstufen +1 im Bromchlorid bis +5 im Brompentafluorid vorliegt, ist es in Verbindungen mit Iod der elektronegativere Bestandteil. Mit diesem Element sind die Verbindungen Iodbromid und Iodtribromid bekannt. Organische Bromverbindungen Eine Vielzahl von organischen Bromverbindungen (auch Organobromverbindungen) wird synthetisch hergestellt. Wichtig sind die Bromalkane, die Bromalkene sowie die Bromaromaten. Eingesetzt werden sie unter anderem als Lösungsmittel, Kältemittel, Hydrauliköle, Pflanzenschutzmittel, Flammschutzmittel oder Arzneistoffe. Zu den Organobromverbindungen gehören auch die polybromierten Dibenzodioxine und Dibenzofurane. Literatur Weblinks Einzelnachweise
494
https://de.wikipedia.org/wiki/Botanik
Botanik
Die Botanik (, von botáne ‚Weide-, Futterpflanze‘ [epistéme -Wissenschaft], auch Phytologie und Pflanzenkunde) erforscht die Pflanzen. Sie befasst sich mit dem Lebenszyklus, Stoffwechsel, Wachstum und Aufbau der Pflanzen; ferner mit ihren Inhaltsstoffen (siehe Heilkunde), ihrer Ökologie (siehe Biozönose) und ihrem wirtschaftlichen Nutzen (siehe Nutzpflanze) sowie ihrer Systematik. In jüngerer Zeit wird die Botanik im akademischen Bereich in Anlehnung an den internationalen Sprachgebrauch („Plant Science“) vermehrt als Pflanzenwissenschaft bezeichnet. So wurde beispielsweise das führende universitäre Lehrbuch der Botanik, das auf Eduard Strasburger zurückgeht, ab der 37. Auflage (2014) in Lehrbuch der Pflanzenwissenschaften umbenannt, und auch einige Botanik-Studiengänge werden im deutschen Sprachraum heute als Studiengang der Pflanzenwissenschaft geführt. Geschichte In ihren Ursprüngen geht die Botanik auf das medizinisch/heilkundliche Befassen mit Heilpflanzen zurück. Von einer ersten abstrakt-wissenschaftlichen Untersuchung und Systematisierung des Pflanzenreiches zeugen die Schriften von Theophrastos aus dem 3. und 2. Jahrhundert v. Chr. Der Grieche Dioskurides beschrieb im 1. Jahrhundert zahlreiche Heilpflanzen. Seine genauen, in fünf Bücher (griechisch ὑλικά) aufgeteilten Pflanzenbeschreibungen wurden, insbesondere von arabischsprachigen Autoren, bis in die Neuzeit benutzt. Zuvor verfassten Diokles von Karystos (im 4. Jahrhundert v. Chr.) und Krateuas (im 1. Jahrhundert v. Chr.) vergleichbare Werke (Kräuterbücher). Im Gegensatz zu den eher (natur)philosophisch geprägten Betrachtungen etwa des Aristoteles stellte Dioskurides in seiner um das Jahr 60 entstandenen Materia medica den Nutzen und die genaue Beschreibung unter anderem der Pflanzen in den Vordergrund und ist mit einem etwa 512 verfassten Manuskript die erste noch erhaltene abendländische Abhandlung über Heilpflanzen. Die moderne wissenschaftliche Botanik wurde im 16. Jahrhundert durch Konrad Gesner und Leonhard Fuchs begründet. Zu den herausragenden Botanikern des 17. und 18. Jahrhunderts gehörten etwa der Arzt Nehemiah Grew in England und Carl von Linné in Schweden sowie der Universalgelehrte Albrecht von Haller in der Schweiz. Abgrenzung Zu den Pflanzen im engeren Sinne zählen neben den Gefäßpflanzen auch die Moose und Grünalgen. Früher wurden auch Pilze, Flechten und die Prokaryoten (Bakterien und Archaeen) als Pflanzen angesehen. Obwohl man heute erkennt, dass diese (ebenso wie alle Algen außer den Grünalgen) phylogenetisch nicht näher mit den Pflanzen verwandt sind, werden Algengruppen wie Rotalgen, Braunalgen, Kieselalgen sowie Pilze und Flechten weiter in der Botanik behandelt. Prokaryoten (einschließlich der darin enthaltenen Cyanobakterien, früher als Blaualgen bezeichnet), sind – zusammen mit anderen Mikroorganismen – seit längerem Objekte einer eigenen Disziplin, der Mikrobiologie. Fachgebiete Kerngebiete Aufgrund der unterschiedlichen Fragestellungen und Methoden haben sich im Kern folgende Teilgebiete der Botanik entwickelt: Pflanzenmorphologie – Erforschung der Struktur und Form der Pflanzen mit den Teilgebieten Morphologie im engeren Sinne – äußerer Bau der Pflanzen Anatomie – innerer Bau der Pflanzen Histologie – Gewebelehre Zytologie – Feinbau der Zelle Pflanzenphysiologie – Erforschung der allgemeinen Funktionsabläufe der Pflanzen mit den Teilgebieten Stoffwechselphysiologie Reiz- und Bewegungsphysiologie Entwicklungsphysiologie Ökophysiologie der Pflanzen – beschäftigt sich mit Anpassungen der Pflanzenphysiologie aus ökologischer Sicht Pflanzensystematik – Beschreibung und Ordnung der Pflanzenwelt mit den Teilgebieten Taxonomie Paläobotanik Geobotanik – Erforschung der Pflanzen unter Konkurrenzbedingungen sowie deren Abhängigkeit vom Standort. Teilgebiete sind: Vegetationskunde (synonym sind Pflanzensoziologie, Phytocoenologie) – befasst sich mit Aufbau und Struktur der Pflanzendecke Arealkunde oder Chorologie – untersucht die Verbreitung der Pflanzensippen historisch-genetische Geobotanik – erforscht die Verbreitung der Pflanzensippe in der Vergangenheit Pflanzenökologie – untersucht die Beziehungen der Pflanzen und Pflanzengemeinschaften zu ihrer Umwelt Feldbotanik – Sammeln von Arten bei Exkursionen und Anlegen von Vergleichssammlungen zur Bestimmung der Flora in einem Gebiet Angewandte Botanik / Angewandte Pflanzenwissenschaft – Erforschung der Anwendungsmöglichkeiten pflanzenwissenschaftlicher Grundlagenerkenntnisse für menschliche Lebensbereiche: Nutzung von Pflanzen in Land- und Forstwirtschaft, Gartenbau, Arzneipflanzenbau und Landschaftsarchitektur, pflanzliche Lebensmittelverarbeitung und Lebensmittelsicherheit, Einsatz von Pflanzen in Umweltschutz und Biomonitoring, Pflanzenbiotechnologie, Medizinische Botanik als Erforschung der Anwendung von Pflanzenwirkstoffen in der Human- und Veterinärmedizin. Vielfach gibt es auch die Einteilung in Allgemeine und Spezielle Botanik, wobei sich die Allgemeine Botanik mit den pflanzenbiologischen Grundlagen befasst, die sich über das Pflanzenreich erstrecken, während die Spezielle Botanik vertiefendes Wissen über die Biologie ausgewählter Sippen der pflanzlichen Systematik vermittelt. Spezialgebiete und angrenzende Disziplinen Algologie (Phykologie) Archäobotanik Biochemie Biophysik Cecidologie Ethnobotanik Forstbotanik Genetik Gentechnik (Gentechnologie) Geobotanik (Phytogeographie) Heilpflanzenkunde (Phytopharmakognosie) Holzbiologie Karpologie Mikrobiologie Molekularbiologie Mykologie Pflanzenzüchtung Phytomedizin Renaturierungsökologie Botanische Florilegia Literatur Agnes Arber: Herbals. Their Origin and Evolution. A chapter in the history of botany. 1912; 2. Auflage Cambridge 1938; Neudruck ebenda 1953. Hermann Fischer: Mittelalterliche Pflanzenkunde. München 1929 (= Geschichte der Wissenschaften. Geschichte der Botanik. Band 2); Neudruck (mit einem Vorwort von Johannes Steudel) Hildesheim 1967. Andreas Held: Prüfungs-Trainer Biologie der Pflanzen. Elsevier/Spektrum Akademischer Verlag, 2004, ISBN 3-8274-1472-5. Herder Lexikon der Biologie. Verlag Herder, 1996, ISBN 3-86025-156-2. Eckehart Johannes Jäger, Stefanie Neumann, Erich Ohmann: Botanik. 5. neu bearbeitete Auflage, Spektrum Akademischer Verlag, Heidelberg/Berlin 2003, ISBN 3-8274-0921-7. Hermann Karsten (Botaniker): Illustrirtes Repetitorium der pharmaceutisch-medicinischen Botanik und Pharmacognosie, Springer Verlag, Berlin, Heidelberg 1886, ISBN 978-3-642-91788-2. Robin Wall Kimmerer: Geflochtenes Süßgras: Die Weisheit der Pflanzen. Übersetzt von Elsbeth Ranke, Aufbau Verlag, 2021, ISBN 978-3-351-03873-1. Karl Mägdefrau: Geschichte der Botanik. Leben und Leistung großer Forscher. Gustav Fischer Verlag, Stuttgart 1973, ISBN 3-437-20489-0. Ernst H. F. Meyer: Geschichte der Botanik. Bornträger Verlag, Königsberg 1854–1857; Neudruck Amsterdam 1965. Anna Pavord: Wie die Pflanzen zu ihren Namen kamen. Eine Kulturgeschichte der Botanik. Berlin 2008. Rudolf Schubert, Günther Wagner: Botanisches Wörterbuch. 12. Auflage. Verlag Eugen Ulmer, 2000, ISBN 3-8001-2742-3. Jerry Stannard: Botanical Data in the late Mediaeval “Rezeptliteratur”. In: Gundolf Keil (Hrsg.), mit Peter Assion, Willem Frans Daems und Heinz-Ulrich Roehl: Fachprosa-Studien. Beiträge zur mittelalterlichen Wissenschafts- und Geistesgeschichte. Berlin 1982, S. 371–395. Eduard Strasburger: Lehrbuch der Botanik für Hochschulen. Fischer, Jena 1894. Joachim W. Kadereit et al.: Strasburger – Lehrbuch der Pflanzenwissenschaften. Springer Spektrum, 37. vollständig überarbeitete & aktualisierte Auflage, Berlin & Heidelberg 2014, ISBN 978-3-642-54434-7 (Print), ISBN 978-3-642-54435-4 (E-Book). Weblinks Peter von Sengbusch: Botanik online (1996–2004) Virtual Library of Botany (Linkverzeichnis) (in Englisch) Botanische Museen bei webmuseen.de Einzelnachweise Biologische Disziplin
495
https://de.wikipedia.org/wiki/Barn
Barn
Das Barn b (engl. für ‚Scheune‘) ist eine Maßeinheit der Fläche, die zur Angabe von Wirkungsquerschnitten in der Atom-, Kern- und Teilchenphysik verwendet wird. Das Barn ist keine SI-Einheit. Es ist in den Staaten der EU und in der Schweiz eine gesetzliche Einheit für die Angabe von Wirkungsquerschnitten, also keine allgemeingültige Flächenmaßeinheit. Ein Barn liegt in der Größenordnung des geometrischen Querschnitts schwerer Atomkerne wie etwa Uran. Die Definition ist: 1 b = 10−24 cm2 = 10−28 m2 = 100 fm2. Übliche dezimale Teile Kleine Wirkungsquerschnitte werden in Millibarn (mb), Mikrobarn (µb), Nanobarn (nb) oder Pikobarn (pb) angegeben. Beispielsweise ist 1 pb = 10−12 b = 10−40 m2. Shed Die Einheit Shed (engl. für ‚Schuppen‘) war zur Beschreibung sehr kleiner Wirkungsquerschnitte, vor allem von Neutrino-Reaktionen, gedacht, konnte sich aber nie richtig durchsetzen. Es gilt 1 shed = 10−24 b = 10−52 m2. Inverse Barn Bei Experimenten mit kollidierenden Teilchenstrahlen verwendet man als Maß für die über die Zeit aufsummierte (integrierte) Luminosität oft den Kehrwert der Einheit, insbesondere inverse Pikobarn und inverse Femtobarn: , . Wortherkunft Die Bezeichnung barn für die bereits übliche Wirkungsquerschnitt-Einheit 10−24 cm2 wurde im Dezember 1942 von zwei Wissenschaftlern der Purdue University eingeführt, die an der US-amerikanischen Kernwaffenentwicklung (Manhattan-Projekt) mitwirkten. Dabei spielte es eine Rolle, dass ein Wirkungsquerschnitt dieser Größe für Kernreaktionen erschien. Einzelnachweise Kernphysik Flächeneinheit Maßeinheit (Physik)
496
https://de.wikipedia.org/wiki/Bar
Bar
Bar steht für: Bar (Lokal), Gaststätte für Getränke Bar (Einheit), Maß für Druck Bar (Maßeinheit), altes Gewichts- und Volumenmaß im Raum des Indischen Ozean verwendete alte Gewichtseinheiten, siehe Bahār Bar (Schiff), Bootstyp im Alten Ägypten Bar (Meistergesang), musikalische und lyrische Strophenform eine Textzeile im Hip-Hop, siehe Hip-Hop-Jargon Bar (Vorname), männlicher und weiblicher Vorname Bar (Familienname) – dort auch zu Namensträgern Bar (Adelsgeschlecht), niedersächsische Uradelsfamilie Bar ist der Name folgender geographischer Objekte: Verwaltungsgebiete: Arrondissement Bar-le-Duc, Département Meuse, Frankreich Arrondissement Bar-sur-Aube, Département Aube, Frankreich Rajon Bar, Ukraine Orte: Bar (Corrèze), Gemeinde im Département Corrèze, Frankreich Bar-le-Duc, Stadt im Département Meuse, Frankreich Bar-lès-Buzancy, Gemeinde im Département Ardennes, Frankreich Bar-sur-Aube, Stadt im Département Aube, Frankreich Le Bar-sur-Loup, Gemeinde im Département Alpes-Maritimes, Frankreich Bar-sur-Seine, Stadt im Département Aube, Frankreich Bar (Iran), Stadt im Iran Bar (Montenegro), Hafenstadt in Montenegro Bar (Lwiw), Dorf in der Oblast Lwiw, Rajon Lwiw, Ukraine Bar (Schmerynka), Stadt in der Oblast Winnyzja, Rajon Schmerynka, Ukraine Bár, Gemeinde im Komitat Baranya, Ungarn historisch: Herzogtum Bar, historisches Herzogtum in Lothringen sowie: Bar (Fluss), linker Nebenfluss der Maas, Frankreich Bar (Fluss in der Ukraine), Fluss in der Oblast Lwiw, Ukraine Bar Branch – mehrere Flüsse Bar Island – mehrere Inseln Bar Rock – mehrere Inseln Bar Lake – mehrere Seen bar steht für: mit Papier-/Münzeld bezahlen, siehe Bargeld unbekleidet oder unverhüllt, siehe Nacktheit bar, in der Programmierung eine metasyntaktische Variable -bar, Endsilbe, die auf eine Möglichkeit hinweist Bairische Dialekte, nach dem SIL-Code BAR steht als Abkürzung für: Bangor and Aroostook Railroad, ehemalige amerikanische Eisenbahngesellschaft Barbados (Länderkürzel bei Olympischen Spielen) Bardiani CSF, ein italienisches UCI-Radsportteam Landkreis Barnim, Kfz-Kennzeichen Kennzeichen im Bereich des Wasserstraßen- und Schifffahrtsamt Eberswalde Baruch, Buch der Bibel Berliner Außenring, Eisenbahnring um das ehemalige West-Berlin Bester verfügbarer Preis im Hotelwesen Biologischer Arbeitsstoff-Referenzwert, arbeitsmedizinischer Vergleichswert British American Racing, ehemaliges Formel-1-Team (B.A.R.) British Archaeological Reports, archäologische Fachzeitschrift Browning Automatic Rifle, Maschinengewehr der US Army Bundesamt für äußere Restitutionen Bundesarbeitsgemeinschaft für Rehabilitation, deutsche Verbände-Repräsentanz Schweizerisches Bundesarchiv, Bern Siehe auch: Baar Bahr (Begriffsklärung) Barr (Begriffsklärung) Bars Abkürzung
498
https://de.wikipedia.org/wiki/Becquerel%20%28Einheit%29
Becquerel (Einheit)
Becquerel [], Einheitenzeichen Bq, ist die SI-Einheit der Aktivität einer bestimmten Menge einer radioaktiven Substanz. Angegeben wird die mittlere Anzahl der Atomkerne, die pro Sekunde radioaktiv zerfallen: 1 Bq = 1 s−1 (d. h. ein Becquerel entspricht einem radioaktiven Zerfall pro Sekunde) Da 1 Bq eine extrem geringe Aktivität ist, treten in der Praxis sehr große Zahlenwerte auf. Daher verwendet man oft Vorsätze für die Größenordnung (Mega-, Giga-, Tera-, …). Zum Beispiel enthält ein menschlicher Körper bei Erwachsenen je nach Geschlecht, Größe und Gewicht rund 4 kBq radioaktives 40K. Die Einheit ist nach dem französischen Physiker Antoine Henri Becquerel benannt, der 1903 zusammen mit Pierre Curie und Marie Curie den Nobelpreis für die Entdeckung der Radioaktivität erhielt. Geschichte Das Becquerel wurde 1975 auf dem 15. Treffen der Generalkonferenz für Maß und Gewicht als abgeleitete SI-Einheit mit besonderem Namen in das Internationale Einheitensystem aufgenommen. Dass ein eigener Einheitenname geschaffen werden sollte, wurde unter anderem damit begründet, dass das einfache „s−1“ bei der Verwendung von SI-Präfixen zu Verwirrung führen könnte. Zum Beispiel ist ein Kilobecquerel (kBq) eine inverse Millisekunde (ms−1), d. h., ein verkleinerndes Präfix bei s−1 kennzeichnet ein Vielfaches der Aktivität. Bezug zu anderen Einheiten Die Einheit Becquerel ersetzt im Internationalen Einheitensystem (SI) das Curie, das zwar nie Teil des SI war, aber bis 1998 noch als „temporär zugelasse Einheit“ galt. Zwischen diesen beiden Einheiten besteht folgender Zusammenhang: 1 Ci = 3,7 · 1010 Bq 1 Bq = 2,7027 · 10−11 Ci Außerdem gilt folgender Zusammenhang: 1 Bq = 60 dpm („disintegrations per minute“, Zerfälle pro Minute) Die Einheiten Rutherford (1 rd = 106 Bq) und Stat (1 Stat = 1,345 · 104 Bq) sind weitere veraltete, nicht SI-konforme Einheiten für die Aktivität. Auf den ersten Blick scheint das Becquerel identisch mit der Einheit Hertz zu sein, beide sind definiert als s−1. Der Unterschied zwischen beiden ist, dass in Becquerel die mittlere Häufigkeit eines zufälligen Ereignisses (wie des radioaktiven Zerfalls), in Hertz hingegen eine nichtzufällige, periodische Größe (wie die Frequenz einer Radiowelle) gemessen wird. Einzelnachweise Radioaktivitätseinheit Henri Becquerel
499
https://de.wikipedia.org/wiki/Barrel
Barrel
Das Barrel (; : , Fass) ist die gebräuchlichste Einheit für Rohöl und beschreibt ein historisches Fass mit ca. 159 Litern. Es ist eine Maßeinheit des Hohlraums, siehe Raummaß. Man unterscheidet zwischen dem gebräuchlichen US-amerikanischen Barrel und dem Imperialen (d. h. britischen), beide gibt es für Erdölprodukte und Bier mit unterschiedlichen Maßen. Geschichte des Barrels Erdölindustrie Der Ort im europäischen Kulturkreis, an dem zuerst Erdöl gewonnen wurde, war Pechelbronn im Elsass. Die dortige Erdpechquelle ist seit 1498 belegt. Das aus den so genannten Pechelbronner Schichten stammende Erdöl wurde zunächst medizinisch bei Hauterkrankungen benutzt. Die kommerzielle Nutzung aber begann 1735 und endete 1970. Generationen von Technikern besuchten das Gebiet, um das Fördern und Raffinieren von Erdöl zu lernen. Von dort stammt auch die Methode, Erdölprodukte (Rohprodukte, medizinische Produkte, Lampenöl, Schmieröl) in Fässer abzufüllen. Unter den im Großhandel genormten Fässern wählte man nicht Wein- oder Bierfässer, sondern gereinigte Heringstonnen. Gesalzener Hering wurde damals in großen Mengen in Fässern ins Binnenland verkauft, so dass diese Fässer günstig erworben werden konnten. Um Verwechslungen und spätere Befüllung mit Nahrungsmitteln zu verhindern, wurde der Fassboden blau gestrichen. Mit zunehmender Produktion wurden bei örtlichen Küfern Fässer der eingeführten Größe bestellt. Nachdem 1858/59 in Wietze und anschließend 1859 in den USA in Titusville, Pennsylvania die ersten Erdölquellen erbohrt wurden, übernahmen die Unternehmer nicht nur die Techniken aus Pechelbronn, sondern ließen auch von örtlichen Küfern Tonnen aus Eichenholz in den Abmessungen wie in Pechelbronn herstellen. Neben den alten Maßen der Heringstonne von 158,987 Litern übernahmen die US-Produzenten auch die Angewohnheit, den Fassboden blau zu streichen. Die zwei massiven Eisenringe um das Fass werden „Sicken“ genannt, auf ihnen konnten „Rollsickenfässer“ gerollt werden. Komplexität und Vielfalt alter Fassgrößen Die Komplexität und Vielfalt der damaligen Maßsysteme mit unterschiedlichen Maßen (Fassgrößen) für verschiedene Flüssigkeiten, die sich auch von Land zu Land unterschieden, zeigt der folgende Eintrag in der Oeconomischen Encyclopädie: Hier geht es um das englische Muid. Die Vergleichsmaße im Zitat unterscheiden sich von Land zu Land und sogar von Region zu Region stärker noch als das Barrel. Das Muid (lat. ‚reichlich‘) reichte von 268 Liter in Paris bis 1500 Liter in Skandinavien. Gebräuchlich ist das Muid heute nur noch als die 1300-Litergröße in Châteauneuf-du-Pape. Begriffe, Einheiten und Umrechnungsfaktoren Die Einheitenzeichen für Barrel sind: bl., bbl. (US-Volumen) bzw. bl. Imp., bbl. Imp. (Imperial-Volumen). Die Abkürzung bbl. steht für blue barrel, ein blau gekennzeichnetes Fass mit genormtem Inhalt. Erdöl- und Gasindustrie Im internationalen Gebrauch wird das US-amerikanische Barrel mit 158,987 Litern verwendet. Das imperiale Barrel wird nicht verwendet. Erdöl bbl = One Barrel of Oil = 1 Barrel Öl Mbbl = One Thousand Barrels = 1000 Barrel. M steht hier für mille (lat. 1000). MMbbl = Million barrels = Millionen Barrel bpd oder bopd (barrels of oil per day (Barrel pro Tag), kurz b/d) wird zum Beispiel für die Menge Rohöl genommen, die eine Ölquelle oder ein Ölfeld pro Tag fördert. Mbpd = One thousand barrels of oil per day = 1000 Barrel Öl pro Tag MMbpd = One million barrels of oil per day = 1 Million Barrel Öl pro Tag Gas Mcf = Thousand Standard Cubic Feet = Tausend Kubikfuß (cft) MMcf = Million Standard Cubic Feet = Million Kubikfuß BCF = Billion Standard Cubic Feet = Milliarde Kubikfuß TCF = Trillion Standard Cubic Feet = Billion Kubikfuß Mcfpd = Thousand Standard Cubic Feet per day = Tausend Kubikfuß pro Tag MMcfpd = Million Standard Cubic Feet per day = Million Kubikfuß pro Tag Barrels of oil equivalent (BOE) boe (BOE) (barrels of oil equivalent) wurde eingeführt, um eine Möglichkeit zu haben, Öl-, Gas- und Flüssiggasmengen in Bezug auf ihren Energiegehalt miteinander zu vergleichen. Dabei wird berücksichtigt, dass die Masseeinheit Erdgas und Erdöl unterschiedlich viel Verbrennungsenergie liefert. Man rechnet: 5,5–6 Mcf Gas = 1 Barrel-Öl-Äquivalent (BOE). Vergleiche: Öleinheit. boepd = Barrels of oil equivalent per day = Barrel-Öl-Äquivalent pro Tag MMBOE = Million barrels of oil equivalent = Millionen Barrel-Öl-Äquivalent MMBOEpd = Million barrels of oil equivalent per day = Millionen Barrel-Öl-Äquivalent pro Tag Umrechnung Erdöl 1 bbl. = 158,987294928 Liter (l) 1 bbl. = 42 liquid gallons (gal) 1 bbl. = 336 pint (pt) 1 bbl. = 9702 cubic inch (cin) 1 bbl. ≈ 0,137 metrische Tonnen Erdöl (bei einer Dichte von ≈ 0,8617 t/m³) 7,3 bbl. ≈ 1 Tonne Erdöl 1 bbl. Imp. = 159,113159869818 Liter 1 bbl. Imp. = 35 gallons (Imp.) 1 bbl. Imp. = 280 pint (Imp.) 1 bbl. Imp. = 9709,68075 cubic inch 1 bbl. Imp. ≈ 1,00079 bbl. 24000 bbl. Imp. = 24019 bbl. Gas 1 Mcf = 1000 cft = 1000 Kubikfuß Gas = 28,316846592 Kubikmeter Gas 1 Kubikmeter Gas ≈ 35,315 Kubikfuß Gas 1 MMcf = 1000 Mcf 1 BCF = 1000 MMcf 1 TCF = 1000 BCF 1 Kubikfuß Gas liefert eine Energiemenge zwischen 1010 BTU und 1070 BTU, was ungefähr 1065 bis 1129 Kilojoule entspricht. Definiert ist ein Barrel of oil equivalent BOE mit: 1 boe = 5800000 BTU = 6117863,2 Kilojoule Demnach entsprechen: 1 boe ≈ 5421 bis 5743 Kubikfuß Gas ≈ 153 bis 163 Kubikmeter Gas 1 MMBTU = 1 Million BTU = 1054804 Kilojoule ≈ 935 bis 990 Kubikfuß Gas ≈ 26,5 bis 28 Kubikmeter Gas Andere Flüssigkeiten Für Bier, Wein und ähnliches gelten folgende Umrechnungsfaktoren: 1 bl. (Imp.) = 163,6593 Liter 1 bl. (Imp.) = 36 Gallonen (Imp.) 1 bl. (Imp.) = 288 Pint (Imp.) 1 bl. (Imp.) = 9987,1002 Kubikzoll 1 bl. (U.S.) = 119,2405 Liter 1 bl. (U.S.) = 31,5 Gallonen (U.S.) 1 bl. (U.S.) = 252 Pint (U.S.) 1 bl. (U.S.) = 7276,5 Kubikzoll 1 bl. (Imp.) ≈ 1,3725 bl. (U.S.) 17.500 bl. (Imp.) = 24.019 bl. (U.S.) Barrel als historisches Flüssigkeitsmaß in England Weinmaß Reichsmaß 1 Barrel Wein = 31 ½ Gallons = 63 Pottles = 126 Quarts = 252 Pints = 7212 ½ Pariser Kubikzoll = 143 Liter altes Weinmaß 1 Barrel = 7052 ¼ Pariser Kubikzoll = 139 ¾ Liter 2 Barrels = 1 Hogshead 4 Barrels = 1 Pipe 8 Barrels = 1 Tonne (Tun) Biermaße neueres Reichsmaß 1 Barrel (Ale oder weißes ungehopftes Bier) = 32 Gallons = 64 Pottles = 128 Quarts= 256 Pints = 7327 Pariser Kubikzoll = 145 1/5 Liter altes Weißbiermaß 1 Barrel = 7164 1/5 Pariser Kubikzoll = 142 3/20 Liter 1 Barrel = 1 ½ Hogshead altes Reichsmaß 1 Barrel (gehopftes Bier oder Braunbier oder Porter) = 36 Gallons =72 Pottles = 144 Quarts = 288 Pints = 8242 4/5 Pariser Kubikzoll = 163 ⅓ Liters altes Biermaß 1 Barrel = 8059 3/5 Pariser Kubikzoll = 159,7 Liter 1 Barrel = 1 ½ Hogshead, 3 Barrels = 1 Pipe (Butt) 6 Barrels = 1 Tonne (Tun) Handelsgewicht Das Barrel als Masseneinheit (Handelsgewicht) hatte für viele Produkte unterschiedliche Werte. Beispiele: 1 Barrel Butter = 101,605 Kilogramm 1 Barrel Mehl = 88,904 Kilogramm 1 Barrel Pech = 128,594 Kilogramm 1 Barrel Pottasche = 93,719 Kilogramm 1 Barrel Rosinen = 50,802 Kilogramm 1 Barrel Salz = 127,000 Kilogramm 1 Barrel Salz, gestoßen = 25,4 Kilogramm 1 Barrel Schießpulver = 11,34 Kilogramm 1 Barrel Seife = 116,120 Kilogramm Zählmaß Als britisches Zählmaß für Heringe 1 Barrel = 10 Hundreds = 1200 Stück Siehe auch Tonne (Hohlmaß) Barräle Literatur Johann Friedrich Krüger: Vollständiges Handbuch der Münzen, Maße und Gewichte aller Länder der Erde, Verlag Gottfried Basse, Quedlinburg und Leipzig 1830, S. 16. Oeconomische Encyclopädie von J. G. Krünitz, ein 242-bändiges Werk, erschienen von 1773 bis 1858 und wichtigste Quelle der deutschen Industriegeschichte Weblinks Deutsches Erdölmuseum Wietze Museé de Petrole, Merkwiller-Pechelbronn Einzelnachweise/Anmerkungen Erdölwirtschaft Altes Maß oder Gewicht (Vereinigtes Königreich) Hohlmaß (Essen und Trinken) Ölmaß Weinmaß Biermaß Salzmaß (Masse) Lebensmittelmaß (Vereinigte Staaten) Lebensmittelmaß (Vereinigtes Königreich)
500
https://de.wikipedia.org/wiki/Bushel
Bushel
Das Bushel ist eine von den Britischen Inseln stammende angloamerikanische Maßeinheit zur Bestimmung des Volumens von Waren. Das Wort Bushel ist eine Anglifizierung des altfranzösischen und „Fässchen“. Abgekürzt wird diese Einheit mit bu oder bsh. Eine typologisch vergleichbare Maßeinheit ist das Scheffel. Obwohl das Bushel eigentlich ein Raummaß ist, wurde es auch als äquivalentes Gewichtsmaß für bestimmte Waren benutzt, beispielsweise für Äpfel. Hierzu wurden Umrechnungstabellen erlassen, die – je nach Art der Ware – das bushel weight festlegten, also die Masse, die einem Bushel einer bestimmten Warenart entsprach. Heutzutage wird das Bushel nur noch als äquivalentes Getreidemaß in den Vereinigten Staaten verwendet; eine andere Anwendung hat diese Einheit praktisch nicht mehr. Es gibt das – mittlerweile historische – britische Bushel (imp bu) mit grob 36,4 Liter und das US-amerikanische Bushel (US bu), welches mit grob 35,2 Liter ca. 3 % kleiner ist. Britisches Bushel 1 bu = 36,3687 l Mit dem Weights and Measures Act von 1963 und 1976 wurde das britische Hohlmaßsystem bereinigt und unter anderem auch das Bushel abgeschafft. Definiert wurde dieses Bushel im Weights and Measures Act von 1824 als das achtfache einer Gallone. Das britische Imperial Bushel wurde nur bei Schüttgütern (z. B. Getreide, Kohle, Obst) eingesetzt, obwohl es aus der Gallone abgeleitet wurde, die sowohl bei Schüttgütern als auch bei flüssigen Waren anwendbar ist. US-amerikanisches Bushel 1 bu = 35,23907016688 l In den USA hat das Bushel seinen Ursprung im historischen englischen Winchester bushel, welches zum Zeitpunkt der Abschaffung 1824 in England einem zylindrischen Volumen mit 18½ Zoll Durchmesser und 8 Zoll Höhe entsprach. Aus dieser Einheit wurde das US-Bushel abgeleitet und mit exakt 2150,42 Kubikzoll definiert, welches damit um ca. 1,1 Liter kleiner ist als das mittlerweile abgeschaffte britische Bushel und im Gegensatz zu diesem in keinem Verhältnis zur Gallone steht. Das amerikanische Bushel wird nur für Schüttgüter verwendet und ist das Grundmaß für das heutzutage ungebräuchliche Hohlmaßsystem für Schüttgüter (dry measure). Nutzung als Verrechnungseinheit für Getreide in den USA Im Handel (z. B. an Warenterminbörsen) wird das Bushel heute als äquivalentes Gewichtsmaß verwendet. Die Masse eines Bushels hängt von Art und Feuchte des Getreides ab. Da die USA zu den größten Getreideerzeugern zählen, ist die Einheit „bushel“ als Maß zur Bestimmung der Masse einer Getreidemenge weltweit von Bedeutung. Wenn heutzutage Getreidepreise pro Scheffel angegeben werden, ist damit dieses „bushel“ gemeint. Ein „bushel“ (als Masseneinheit) einer bestimmten Getreideart entspricht der Masse, die eine Getreidemenge mit dem Volumen eines „bushel“ (als Volumeneinheit) aufweist, unter der Voraussetzung einer definierten Feuchtigkeit. Die Masse, die der Menge eines „bushel“ Getreide entspricht, wird bezeichnet als „standard weight per bushel“ oder als „standard bushel weight“ oder auch als „standard weight“. Die Basisfeuchte (= Bezugsfeuchte), bei der das „standard bushel weight“ festzustellen ist, wird als „standard moisture“ bezeichnet. Im metrischen Maßsystem ist die Verrechnungseinheit „bushel“ (als Maß für die Bestimmung einer Getreidemenge) vergleichbar mit der sogenannten Trockenmasse bei Getreide, die anhand der tatsächlichen Masse und Feuchtegehalts sowie der Basisfeuchte der Trockenmasse berechnet wird. Bestimmung der Verrechnungsmenge in Bushel Um die Verrechnungsmenge von Getreide in „bushel“ festzustellen, wird das Getreide gewogen und die Feuchtigkeit gemessen. Sofern die tatsächliche Feuchtigkeit höher als die Basisfeuchtigkeit („standard moisture“) der jeweiligen Getreideart ist, muss die äquivalente Trockenmasse wie folgt berechnet werden: {| class="wikitable" |- class="hintergrundfarbe5" ! Trockenmasse bei Bezugsfeuchte = Masse × (100 % – % Feuchte) / (100 % – % Bezugsfeuchte) |} Anmerkung: Die prozentuale Getreidefeuchte ist definiert als das Verhältnis der Masse des in der Getreideprobe enthaltenen Wassers zur Gesamtmasse der Getreideprobe. Im nächsten Schritt wird die Trockenmasse durch das „standard weight per bushel“ dividiert und man erhält die Anzahl der „bushel“. Beispiel: Wie viele Gewichtseinheiten „bushel“ ergeben 1000 pounds Mais (≈ 453,6 kg) bei einer festgestellten Getreidefeuchte von 30 %? Zunächst ist die Trockenmasse für die bei Mais gültige Bezugs- oder Basisfeuchte von 15,5 % zu bestimmen: 1000 pounds × (100 % – 30 %) / (100 % – 15,5 %) = 828,4 pounds (≈ 375,8 kg) Trockenmasse Aus der Trockenmasse ergibt sich die Verrechnungseinheit „bushel“, indem durch das sogenannte „standard weight/bu“ von Mais (= 56 pounds) dividiert wird: 828,4 pounds / 56 pounds = 14,8 bushel Mais oder abgekürzt: 14,8 bu Mais. Bushel als Grundlage zur Bestimmung der Schüttdichte von Getreide Der Getreidepreis für eine bestimmte Menge ist nicht nur abhängig von der Trockenmasse (bezogen auf eine Basisfeuchte), sondern unter anderem auch von der Schüttdichte, die bei Getreide im deutschen Sprachraum als Hektolitergewicht bezeichnet wird. Die Feststellung der Schüttdichte ist die einzige Anwendung, bei der die Maßeinheit „bushel“ als Raummaß verwendet wird. Hier wird ein Hohlmaß mit dem Rauminhalt von einem „bushel“ mit Getreide gefüllt, das die Basisfeuchte aufweist. Das festgestellte Gewicht ergibt ein Maß für die Schüttdichte und wird als „test weight/bu“ oder auch als „test weight“ bezeichnet. Im Idealfall stimmt das „test weight/bu“ mit dem „standard weight/bu“ überein. Bushel als Grundlage von Flächenerträgen In Nordamerika wird der Flächenertrag (Englisch: „yield“) von Getreide als „bushel/acre“ angegeben. Bei der Umrechnung von „bushel/acre“ zur metrischen Flächenertragseinheit „dt/ha“ ist zu beachten, dass dies zunächst für die angegebene Basisfeuchte („standard moisture“) der jeweiligen Getreideart gilt und bei anderen Basisfeuchten für die Zieleinheit „dt/ha“ entsprechend umzurechnen ist. Bushel als Grundlage von Preisangaben In den Vereinigten Staaten von Amerika wird der Preis für Getreide aller Arten in $/bu angegeben. Der an der Chicago Board of Trade ermittelte Getreidepreis in $/bu ist ein weltweit beachteter Preisindikator. Gesetzliche Festlegungen Gesetzliche Definitionen der Masse je Bushel finden sich sowohl auf Bundesebene als auch bei einzelnen Staaten, bspw. in Illinois. Zur Festlegung der Basisfeuchte von Mais ist ein Bundesgesetz vorhanden, doch generell ergeben sich die Basisfeuchten aus den im Getreidehandel herrschenden Usancen. Einzelnachweise Altes Maß oder Gewicht (Vereinigtes Königreich) Getreidemaß (Amerika) Vereinigte Staaten Angloamerikanische Volumeneinheit
501
https://de.wikipedia.org/wiki/British%20thermal%20unit
British thermal unit
Die British thermal unit ist eine Einheit der Energie. Ihr Einheitenzeichen ist Btu oder BTU, ihr Formelzeichen W. Die Btu gehört nicht zum internationalen Einheitensystem (SI), sondern zum Angloamerikanischen Maßsystem. Definition Ein BTU ist definiert als die Wärmeenergie , die benötigt wird, um ein britisches Pfund Wasser um 1 Grad Fahrenheit zu erwärmen. Aufgrund der temperaturabhängigen spezifischen Wärmekapazität ist diese Energie je nach Temperatur des Wassers unterschiedlich. Daher wurde eine spezifische Wärmekapazität von exakt festgelegt, was einer Temperatur von ca. 55 °F entspricht. Zusammen mit = 1 pound = 0,45359237 kg und = 1 °F =  K ergibt sich: Die International (Steam) Table-Btu wurde daher mit 1055,05585262 Joule definiert. Die Definition einer Btu folgt dem gleichen Prinzip wie die Definition der Kalorie: nur die Masse des zu erwärmenden Wassers und die Temperaturdifferenz unterscheiden sich. Von Btu abgeleitet sind die Einheiten Quad (quadrillion British thermal units) und Therm. Anwendungen und weitere Umrechnungen Erdgas Der Erdgas-Verbrauch wird manchmal in MMBtu angegeben (million British thermal units; MM kommt von tausend tausend). 1 MMBtu entspricht 26,4 Kubikmeter Gas, basierend auf einem Energieinhalt von 40 MJ/m³ (11 kWh/m³). Ungefähre Wärmemengen für Strom und Wärmegehalt von Strom Ungefähre Wärmemengen für fossile Brennstoffe Wärmepumpen Bei der Spezifizierung von Wärmepumpen (speziell Klimaanlagen) wird bei Importgeräten oft die Kühlleistung in BTU pro Stunde (BTU/h) angegeben. Als Umrechnung ergibt sich: also ≈ 293 W. Weblinks Einzelnachweise Energieeinheit
503
https://de.wikipedia.org/wiki/Beno%C3%AEt%20Mandelbrot
Benoît Mandelbrot
Benoît B. Mandelbrot (* 20. November 1924 in Warschau; † 14. Oktober 2010 in Cambridge, Massachusetts) war ein französisch-US-amerikanischer Mathematiker. Mandelbrot leistete Beiträge zu einem breiten Spektrum mathematischer Probleme, insbesondere in der theoretischen Physik, der Finanzmathematik und der Chaosforschung. Am bekanntesten aber wurde er als Vater der fraktalen Geometrie. Er beschrieb die Mandelbrot-Menge und prägte den Begriff „fraktal“. Mandelbrot trug selbst stark zur Popularisierung seiner Arbeiten bei, indem er Bücher schrieb und Vorlesungen hielt, die für die Allgemeinheit bestimmt waren. Mandelbrot verbrachte die meiste Zeit seiner Karriere an IBMs Thomas J. Watson Research Center, wo er die Position eines IBM Fellows innehatte. Später wurde er Sterling Professor für Mathematik (Mathematical Sciences) an der Yale University. Er war ferner wissenschaftlicher Mitarbeiter am Pacific Northwest National Laboratory, der Universität Lille I, dem Institute for Advanced Study und dem Centre national de la recherche scientifique. Mandelbrot lebte bis zu seinem Tode in den Vereinigten Staaten. Frühes Leben Mandelbrot wurde in Polen in einer litauisch-jüdischen Familie mit akademischer Tradition geboren. Seine Mutter war Ärztin, sein Vater Kleiderhändler. Als Junge wurde Mandelbrot von zwei Onkeln in die Mathematik eingeführt, von denen einer, Szolem Mandelbrojt, am Collège de France Mathematik lehrte. Im Jahr 1936 siedelte die Familie nach Paris über, um der sich ankündigenden Bedrohung durch die Nationalsozialisten zu entgehen. Mandelbrot besuchte bis zum Ausbruch des Zweiten Weltkriegs das in Paris. Er erwarb den Ruf einer mathematischen Hochbegabung durch seine Fähigkeit, Aufgaben als geometrische Probleme zu visualisieren. Bei einem nationalen Test löste er eine Rechenaufgabe als einziger Schüler in Frankreich. Nach eigener Angabe versuchte er dazu gar nicht erst, das komplizierte Integral zu berechnen, sondern erkannte, dass der Aufgabe eine Kreisformel zugrunde lag, und transformierte die Koordinaten, um den Kreis in der Lösung einzusetzen. Seine Familie flüchtete vor der deutschen Besatzung ins Vichy-Frankreich, nach Tulle, wo ihn der Rabbiner von Brive-la-Gaillarde bei seiner Schulausbildung unterstützte. Von 1945 bis 1947 studierte er Ingenieurwissenschaften an der École polytechnique bei Gaston Julia und Paul Lévy. Anschließend absolvierte er ein Studium der Aeronautik am California Institute of Technology, das er 1949 mit einem Master abschloss. Nach seinem Studium kehrte Mandelbrot nach Frankreich zurück und promovierte 1952 an der Universität von Paris im Fach Mathematik. Von 1949 bis 1957 war er wissenschaftlicher Mitarbeiter am Centre national de la recherche scientifique. Während dieser Zeit verbrachte Mandelbrot ein Jahr am Institute for Advanced Study in Princeton (New Jersey), wo er von John von Neumann unterstützt wurde. 1955 heiratete Mandelbrot Aliette Kagan, zog mit ihr nach Genf und anschließend zurück nach Frankreich. Nach einem Jahr an Université Lille Nord de France trat Mandelbrot 1958 in die Forschungsabteilung im Thomas J. Watson Research Center bei IBM ein und wurde dort 1974 zum IBM-Fellow ernannt, eine Auszeichnung, die ihm weitgehende Freiheiten für seine Forschungen ermöglichte. Wissenschaftliche Karriere Ab 1951 veröffentlichte Mandelbrot Arbeiten über Probleme der Mathematik, aber auch über Probleme angewandter Gebiete wie der Informationstheorie, Wirtschaftswissenschaften und Strömungsmechanik. Er war zunehmend davon überzeugt, dass eine Vielzahl von Problemen in diesen Gebieten von zwei zentralen Themen bestimmt seien, nämlich „fat tail“-Wahrscheinlichkeitsverteilungen und selbstähnlichen Strukturen. Mandelbrot fand heraus, dass die Preisschwankungen der Finanzmärkte nicht durch eine Normalverteilung, sondern durch eine Lévy-Verteilung beschrieben werden können, die theoretisch eine unendliche Varianz aufweist. Zum Beispiel zeigte er, dass die Baumwollpreise seit 1816 einer Lévy-Verteilung mit dem Parameter folgen, während einer Gaußverteilung entsprechen würde (siehe auch alpha-stabile Verteilungen). So lieferte er auch eine mögliche Erklärung für das Equity Premium Puzzle. Mandelbrot wandte diese Ideen auch im Bereich der Kosmologie an. 1974 schlug er eine neue Erklärung für das Olberssche Paradoxon des dunklen Nachthimmels vor. Er zeigte, dass sich das Paradoxon auch ohne Rückgriff auf die Urknall-Theorie vermeiden lässt, wenn man eine fraktale Verteilung der Sterne im Universum annimmt, in Analogie zum sogenannten Cantor-Staub. 1975 prägte Mandelbrot den Begriff fraktal, um derartige Strukturen zu beschreiben. Er veröffentlichte diese Ideen in dem Buch Les objets fractals, forme, hasard et dimension (1975; eine englische Übersetzung Fractals: Form, Chance and Dimension wurde 1977 veröffentlicht). Mandelbrot entwickelte damit Ideen des tschechischen Geografen, Demografen und Statistikers Jaromír Korčák (1895–1989) weiter, die dieser in dem Artikel Deux types fondamentaux de distribution statistique veröffentlicht hatte (1938; deutsch Zwei Grundtypen der statistischen Verteilung). Während seiner Anstellung als Gastprofessor für Mathematik an der Harvard University 1979 begann Mandelbrot mit dem Studium der fraktalen Julia-Mengen, die gegenüber bestimmten Transformationen in der komplexen Ebene invariant sind und die zuvor von Gaston Julia und Pierre Fatou untersucht wurden. Diese Mengen werden durch die iterative Formel erzeugt. Mandelbrot benutzte Computerplots dieser Menge, um ihre Topologie in Abhängigkeit von dem komplexen Parameter zu untersuchen. Dabei entdeckte er die Mandelbrot-Menge, die nach ihm benannt ist. 1982 erweiterte Mandelbrot seine Ideen und publizierte sie in seinem wohl bekanntesten Buch The Fractal Geometry of Nature (die deutsche Übersetzung erschien 1987 unter dem Titel Die fraktale Geometrie der Natur). Dieses einflussreiche Buch machte Fraktale einer breiteren Öffentlichkeit bekannt und brachte auch viele der Kritiker zum Schweigen, die Fraktale bis dahin als Programmier-Artefakt abgetan hatten. Mandelbrot verließ IBM 1987 nach 35 Jahren Betriebszugehörigkeit, nachdem IBM beschlossen hatte, seine Abteilung für Grundlagenforschung aufzulösen. Er arbeitete dann in der mathematischen Abteilung der Yale University, wo er 1999 im Alter von 75 Jahren seine erste unbefristete Professorenstelle übernahm. Als er 2005 emeritierte, war er Sterling Professor für Mathematik. Seine letzte Anstellung trat Mandelbrot 2005 als Battelle Fellow am Pacific Northwest National Laboratory an. Im selben Jahr veranstaltete die Deutsche Bundesbank ein Festkolloquium anlässlich seines im Vorjahr begangenen 80. Geburtstags zum Thema Heavy tails and stable Paretian distributions in finance and macroeconomics, um seine Beiträge zum besseren Verständnis von Finanzmärkten und Finanzmarktstabilität zu würdigen. Seine jüngste Veröffentlichung zu fraktalen mathematischen Strukturen an den Finanzmärkten Fraktale und Finanzen bekam den Wirtschaftsbuchpreis der Financial Times Deutschland. Fraktale und Rauheit in der Natur Obwohl Mandelbrot den Begriff fraktal prägte, wurden einige der in The Fractal Geometry of Nature dargestellten Objekte schon früher von Mathematikern beschrieben. Vor Mandelbrot wurden sie allerdings eher als unnatürliche mathematische Absonderlichkeiten angesehen. Es war Mandelbrots Verdienst, die fraktale Geometrie für die Beschreibung realer Objekte anzuwenden, deren „raue“, nicht durch einfache Idealisierungen beschreibbare Objekte sich bis dahin der wissenschaftlichen Untersuchung entzogen. Er zeigte, dass all diese Objekte bestimmte Eigenschaften gemeinsam haben, wie die Selbstähnlichkeit, Skaleninvarianz und oft eine nicht-ganzzahlige Dimension. Beispiele natürlicher Fraktale sind die Formen von Bergen, Küstenlinien und Flüssen, Verästelungen von Pflanzen, Blutgefäßen und Lungenbläschen, die Verteilung von Sternhaufen in Galaxien und die Pfade der Brownschen Bewegung. Fraktale Strukturen finden sich auch in quantitativen Beschreibungen menschlichen Schaffens und Handelns, etwa in der Musik, der Malerei und der Architektur sowie in Börsenkursen. Mandelbrot war daher der Auffassung, dass Fraktale viel eher der intuitiven Erfassung zugänglich sind als die künstlich geglätteten Idealisierungen der traditionellen euklidischen Geometrie: Mandelbrot wurde als Visionär und als unabhängiger Geist (engl. „Maverick“) bezeichnet. Sein allgemeinverständlicher und leidenschaftlicher Schreibstil und seine Betonung bildlicher geometrischer Anschauung machten insbesondere sein Buch The Fractal Geometry of Nature auch für Nichtwissenschaftler zugänglich. Das Buch löste ein breites öffentliches Interesse an Fraktalen und Chaostheorie aus. Tod Mandelbrot starb im Alter von 85 Jahren an Bauchspeicheldrüsenkrebs. Der Mathematiker Heinz-Otto Peitgen bezeichnete Mandelbrot anlässlich seines Todes als eine der wichtigsten Persönlichkeiten der letzten 50 Jahre für die Mathematik und deren Anwendung in der Naturwissenschaft. Der französische Staatspräsident Nicolas Sarkozy würdigte Mandelbrot als einen großen und originellen Geist, dessen Arbeit vollständig jenseits des wissenschaftlichen Mainstreams verlief. Die Zeitschrift The Economist wies zudem auf seine Berühmtheit jenseits der Wissenschaft hin und nannte ihn den Vater der fraktalen Geometrie. Trivia Der Name der deutschen Live-Coding-Band Benoît and the Mandelbrots bezieht sich auf den berühmten Mathematiker. Die Gruppe wurde 2009 in Karlsruhe gegründet. Ehrungen, Preise und Mitgliedschaften (Auswahl) 1982: Aufnahme in die American Academy of Arts and Sciences 1983: Invited Speaker auf dem Internationalen Mathematikerkongress in Warschau (On fractal geometry and a few of the mathematical questions it has raised). 1985: Barnard-Medaille 1986: Franklin-Medaille des Franklin Institute 1987: Alexander-von-Humboldt-Preis 1987: Aufnahme in die National Academy of Sciences 1988: Steinmetz-Medaille 1990: Französische Ehrenlegion; 2006 Beförderung zum Offizier 1991: Nevada-Medaille 1993: Wolf-Preis für Physik 1999: Ehrendoktorwürde der University of St Andrews 2000: Lewis-Fry-Richardson-Medaille 2000: Benennung des kleinen Asteroiden (27500) Mandelbrot 2003: Japan-Preis 2004: Aufnahme in die American Philosophical Society 2010: Ehrendoktorwürde der Johns Hopkins University Schriften mit Richard Hudson: Fraktale und Finanzen: Märkte zwischen Risiko, Rendite und Ruin. Piper, 2007 (englisches Original: The (mis)behavior of markets: a fractal view of risk, ruin and reward. Basic Books, 2004) The fractalist: memoir of a geometer. Pantheon Books, 2012. Selecta. mehrere Bände, Springer Verlag, ab 1997. Die fraktale Geometrie der Natur. Birkhäuser, 1987, 2001. Fractals: Form, Chance and Dimension. Freeman, San Francisco 1977. The fractal geometry of nature. Freeman, 1983. Schönes Chaos: Mein wundersames Leben. Piper Verlag, München 2013, ISBN 978-3-492-96162-2. (Autobiografie) Literatur Donald J. Albers, G. L. Alexanderson: Mathematical People – Profiles and Interviews. Birkhäuser 1985. Nigel Lesmoir-Gordon: Clouds are not Spheres. A Portrait of Benoît Mandelbrot, the Founding Father of Fractal Geometry. World Scientific, London 2018, ISBN 978-1-78634-474-8. Weblinks Mandelbrots Homepage an der Universität Yale Interview (New Scientist. 2004, auf Englisch, Bezahlware) Der Vater des Apfelmännchens. (Technology Review 2005) TED Vortrag: Fractals and the art of roughness (2010) Barnsley, Frame (Herausgeber) The Influence of Benoit B. Mandelbrot on Mathematics, Notices AMS, 2012, Nr.9 Barnsley, Frame (Herausgeber) Glimpses of Benoit B. Mandelbrot, Notices AMS, 2012, Nr.8 Einzelnachweise Finanzmathematiker Mathematiker (20. Jahrhundert) Autor Hochschullehrer (Yale University) Träger des Japan-Preises IBM Fellow Mitglied der Norwegischen Akademie der Wissenschaften Mitglied der Ehrenlegion (Offizier) Fellow der American Physical Society Mitglied der American Academy of Arts and Sciences Mitglied der National Academy of Sciences Mitglied der American Philosophical Society Ehrendoktor der Johns Hopkins University Ehrendoktor der University of St Andrews Polnischer Emigrant in Frankreich Polnischer Emigrant in den Vereinigten Staaten Litauer US-Amerikaner Franzose Pole Geboren 1924 Gestorben 2010 Mann
504
https://de.wikipedia.org/wiki/Bund%20f%C3%BCr%20Umwelt%20und%20Naturschutz%20Deutschland
Bund für Umwelt und Naturschutz Deutschland
Der Bund für Umwelt und Naturschutz Deutschland e. V. (Apronym BUND) ist eine nichtstaatliche Umwelt- und Naturschutzorganisation mit Sitz in Berlin. Er ist das deutsche Mitglied des internationalen Naturschutznetzwerkes Friends of the Earth und Teil des Deutschen Naturschutzrings (DNR). Der BUND ist einer der größten Umwelt- und Naturschutzverbände in Deutschland; Vorsitzender ist Olaf Bandt. Der Verein wurde am 20. Juli 1975 als „Bund Natur und Umweltschutz Deutschland e. V.“ von 21 Umweltschützern, darunter Bodo Manstein (1. Vorsitzender), Horst Stern, Bernhard Grzimek, Hubert Weinzierl, Gerhard Thielcke, Herbert Gruhl, Hubert Weiger sowie Enoch zu Guttenberg unter maßgeblicher Mithilfe des Bundes Naturschutz in Bayern in Marktheidenfeld gegründet. 1977 erfolgte die Umbenennung des Vereins in den heutigen Namen. Der BUND ist mit rund 470.000 Mitgliedern (und rund 180.000 Spendern) (Stand 2019) einer der großen Umweltverbände Deutschlands. Vom Staat ist er als Umwelt- und Naturschutzverband (im Rahmen des Bundesnaturschutzgesetzes) anerkannt und muss daher bei Eingriffen in den Naturhaushalt angehört werden. Außerdem verfügt er aus dem Umwelt-Rechtsbehelfsgesetz über ein Verbandsklage-Recht. Der BUND sieht sich seit Jahren in der Rolle des kritischen Mahners und Beobachters, der umweltpolitische Defizite aufdeckt, politischen Lobbyismus leistet und die Öffentlichkeit aufklärt. Er fragt etwa danach, wie erneuerbare Energien ausgebaut werden können, wie Flüsse und Seen vor Schadstoffen geschützt werden können, wie Strahlenbelastungen reduziert werden können und wie der Naturschutz forciert werden kann. Der Verein fordert eine Kehrtwende in der Agrarpolitik. Aktionen und Kampagnen auf regionaler, nationaler und internationaler Ebene führten zur Erhaltung von Moorgebieten, zur Mobilmachung gegen die Atomkraft und zur Werbung für umwelt- und gesundheitsverträgliche Produkte. Der BUND ist einer der 78 ausgewählten Verbände in Deutschland, die eine Musterfeststellungsklage durchführen dürfen. Organisation Der BUND ist föderal organisiert. Neben dem Bundesverband gibt es 16 Landesverbände (der bayerische Landesverband führt den Namen „Bund Naturschutz in Bayern e. V.“) und über 2000 regionale Kreis- und Ortsgruppen, die sich mit lokalen ökologischen Problemen beschäftigen. Ehrenamtliche Facharbeitskreise auf Bundes- und Landesebene befassen sich etwa mit der Bio- und Gentechnologie, dem Bodenschutz, umweltfreundlichen Energien, gesundheitlichen und rechtlichen Fragen. Neben den ehrenamtlichen gibt es einige fest angestellte Mitarbeiter, vor allem in der Bundesgeschäftsstelle und in den Landesgeschäftsstellen. Ältester Landesverband im Bundesverband ist der Bund Naturschutz in Bayern, der 1913 in München gegründet wurde. Zweitältester Landesverband ist der Landesverband Bremen, der aus der Bremer Naturschutzgesellschaft hervorging, die ihrerseits aus einem 1914 in Bremen gegründeten Vogelschutzverein entstanden war. Der Bundesverband wie auch die Landesverbände sind jeweils eigenständige Vereine, während die Regional- und Ortsgruppen rein rechtlich Bestandteile ihres Landesverbands sind. Ein Mitglied des BUND ist somit immer sowohl Mitglied im Bundesverband als auch im entsprechenden Landesverband. Neben den „Vollmitgliedern“ kennt der BUND die „Fördermitglieder“, die regelmäßig spenden, aber nicht an der Verbandsdemokratie teilnehmen. Der Verband ist intern von unten nach oben organisiert, d. h. die Mitglieder einer Verbandsebene wählen jeweils aus ihrer Mitte die Amtsträger und die Vertreter (Delegierten) für die nächsthöhere Ebene; Mitglieder- und Delegiertenversammlungen sind öffentlich. Den Landesvorständen und dem Bundesvorstand gehören neben den direkt gewählten Mitgliedern außerdem auch je ein Vertreter der BUNDjugend, der Facharbeitskreise („wissenschaftlicher Rat“) sowie der Regional-/Landesverbände („Landesrat“/„Verbandsrat“) an. Auf Bundesebene koordinieren sich der Vorstand, der wissenschaftliche Beirat und der Verbandsrat im Gesamtrat. Selbständig innerhalb des BUND agiert die BUNDjugend mit ihren Untergliederungen in den Bundesländern (in Bayern die „Jugendorganisation Bund Naturschutz“) und den einzelnen Jugendgruppen. Der BUND ist Einsatzstelle für Teilnehmer des FÖJ (freiwilliges ökologisches Jahr) und des BFD (Bundesfreiwilligendienst); es gibt Stellen beim Bundesverband, bei den Landesverbänden und bei der BUNDjugend. Vorsitzende Vorsitzende waren: Juli–November 1975: Bodo Manstein 1975–1977: Herbert Gruhl 1977–1983: Gerhard Thielcke 1983–1998: Hubert Weinzierl 1998–2007: Angelika Zahrnt 2007–2019: Hubert Weiger seit 2019: Olaf Bandt Facharbeitskreise Es gibt 20 Bundes-Arbeitskreise, in denen sich ehrenamtliche Mitglieder – oft renommierte Wissenschaftler – mit aktuellen Fragen des Umweltschutzes beschäftigen. Zu den Aufgaben der Arbeitskreise gehört die Teilnahme an Anhörungen des Bundestages, die Prüfung neuer Gesetze und das Erarbeiten umweltfreundlicher Konzepte. Darüber hinaus organisieren die Arbeitskreise Seminare und Tagungen und geben ihr Wissen in Informationsbroschüren weiter. Die Landesverbände haben im Rahmen ihrer Möglichkeiten ebenfalls Facharbeitskreise mit ähnlichen Themen. Die Sprecher der Arbeitskreise bilden den Wissenschaftlichen Beirat des BUND, der den Bundesvorstand fachlich berät. Der Vorsitzende des Beirats ist kraft Satzung Mitglied des Bundesvorstands. Im Jahr 2015 gab es folgende Bundes-Facharbeitskreise: Neben den Arbeitskreisen gibt es im BUND zwei Kommissionen: Seit 2012 besteht die Kommission Wissenschaftspolitik im wissenschaftlichen Beirat. Ihre Aufgabe ist die Analyse des Wissenschaftssystems und der Einsatz für eine zukunftsfähige Entwicklung, also eine Querschnittsfunktion über alle Fachgebiete des BUND hinweg. Die Atom- und Strahlenkommission (BASK) wurde 1986 anlässlich der Reaktorkatastrophe von Tschernobyl eingerichtet, auch als Gegengewicht zur staatlichen Strahlenschutzkommission. Das unabhängige Fachgremium berät den Bundesvorstand ehrenamtlich zur Nutzung der Atomkraft und zum Schutz vor ionisierender Strahlung. Mitgliedschaften, Kooperationen Der BUND ist Mitglied bei zahlreichen Verbänden und Vereinen, unter anderem bei: Friends of the Earth Europe und International, seit 1989 als deutsche Sektion des Europäischen Umweltnetzwerkes Deutscher Naturschutzring, dem Dachverband der deutschen Umwelt- und Naturschutzverbände Attac, einem globalisierungskritischen Netzwerk Grüner Strom Label, einem Verein, der Ökostrom-Angebote zertifiziert natureplus, einem Verein zur Vergabe eines Umweltgütesiegels für Baustoffe Kuratorium Baum des Jahres Atomausstieg selber machen, einem Bündnis, das über Ökostrom informiert und zum Stromanbieterwechsel motivieren will NEULAND, einem Verein zur Vermarktung von Produkten aus tier- und umweltgerechter bäuerlicher Nutztierhaltung EUROPARC Deutschland, dem Dachverband der Nationalparks, Biosphärenreservate und Naturparks Initiative Transparente Zivilgesellschaft (als Unterzeichner). Der BUND kooperiert bzw. kooperierte mit dem Bundesverband Bürgerinitiativen Umweltschutz dem Bischöflichen Hilfswerk Misereor (für die Studie „Zukunftsfähiges Deutschland“ (1996), die den Diskurs zur Nachhaltigkeit stark prägte) Brot für die Welt und dem Evangelischen Entwicklungsdienst (EED) (für die Nachfolgestudie „Zukunftsfähiges Deutschland in einer globalisierten Welt“ (2008)) der Stiftung Europäisches Naturerbe (Euronatur), die der BUND mit initiiert hat der Bodensee-Stiftung, einer internationalen Stiftung für Natur und Kultur mit Sitz in Radolfzell McPlanet.com, einem globalisierungskritischen Umweltkongress dem deutschen Tierschutzbund bei dem Tierwohllabel NEULAND Finanzen 2019 beliefen sich die Gesamteinnahmen auf 35,9 Millionen Euro. Spenden – der Verein ist als gemeinnützig anerkannt – und Mitgliedsbeiträge machen mehr als zwei Drittel der Gesamteinnahmen aus. Ziele Der BUND setzt sich für die Erhaltung der natürlichen Lebensgrundlagen ein. Im Einzelnen steht er unter anderem für den Umbau der Energiewirtschaft hin zu regenerativen Energiequellen die Verkehrswende hin zur nachhaltigen Mobilität eine Förderung des öffentlichen Personennahverkehrs sowie des Fahrrad- und Fußverkehrs einen sanften Tourismus: Fahrrad- und Wander­urlaube, Fernfahrten mit der Bahn ein Energiespar- und Sanierungsprogramm des Wohnungs- und Hausbestandes den Schutz von ökologisch wertvollen Flächen und Landschaften eine umweltfreundliche und artgerechte Land- und Forstwirtschaft Aktivitäten und Projekte Aktivitäten Der Verband wird bei Eingriffen in die Natur – vom Pflügen einer geschützten Orchideenwiese über die Ausweisung neuer Baugebiete bis zur Planfeststellung eines Flughafens – angehört, muss also fachlich fundierte Stellungnahmen schreiben. Diese Arbeit wird überwiegend von ehrenamtlichen Mitgliedern mit entsprechender Fachkenntnis übernommen, teilweise auch von den Angestellten des Vereins. Viele Mitglieder werden (ehrenamtlich) in den Naturschutzbeirat auf Kreis-, Landes- oder Bundesebene berufen. Ortsgruppen pflegen lokale Biotope, geben ihr Wissen durch Führungen weiter und leiten Kindergruppen. Der BUND stellt Informationsmaterial in Form von Broschüren, Argumentationen, Hintergrundberichten und Studien zur Verfügung. Der BUND ist Mitglied des Grüner Strom Label e. V., der das gleichnamige Gütesiegel für Ökostromangebote vergibt. Der BUND ist Mitveranstalter der Demonstrationen unter dem Motto Wir haben es satt!. Der BUND beteiligt sich intensiv an der Endlagerdiskussion und stellt ein Mitglied in der Kommission Lagerung hoch radioaktiver Abfallstoffe. Projektbeispiele 1978: Kampagne Rettet die Vögel; Präsentation des ersten deutschen Solarmobils. 1981: Erster öffentlicher Hinweis auf das Waldsterben. 1988: Kampagne Garten ohne Gift. 1989: Das Projekt Grünes Band Deutschland schützt Biotope entlang der ehemaligen deutsch-deutschen Grenze. 1994: Veröffentlichung der ersten Umwelt-Computerliste. 1995: Veröffentlichung der Studie Zukunftsfähiges Deutschland mit Misereor. 2001: BUND, Deutsche Bahn, NABU, WWF und VCD starteten im April die Aktion Fahrtziel Natur. 2003: Das Magazin GEO und der BUND richteten im Grünen Band Deutschland gemeinsam den fünften GEO-Tag der Artenvielfalt aus. 500 Experten kartieren in 24 Stunden mehr als 5200 verschiedene Tier- und Pflanzenarten, darunter auch Arten, die bereits als ausgestorben galten. 2004: Der BUND präsentierte mit dem Rettungsnetz Wildkatze sein bislang größtes Artenschutzprogramm. Laut dem vorgestellten „Wildkatzenwegeplan“ sollen bestehende Wälder mit Wildkatzenpopulationen in ganz Deutschland durch ein 20.000 Kilometer langes Netz aus Busch- und Baum-Korridoren verbunden werden. 2005: Der BUND startete gemeinsam mit dem ZDF und dem UFZ–Umweltforschungszentrum Leipzig-Halle die Aktion Abenteuer Schmetterling (ab 2006: Abenteuer Faltertage). 2005: Die BUNDstiftung wurde gegründet. 2006: Das Aktionsbündnis Zukunft statt Braunkohle wurde mit Bürgerinitiativen und anderen Umweltverbänden gegründet. 2006: Aktion Atomausstieg selber machen mit anderen Umweltorganisationen. 2007: Mit der Zeitung Kohle-Express protestierte der BUND gegen den Bau von mehr als 20 neuen Kohlekraftwerken in Deutschland und die Erweiterung des Braunkohletagebaus. 2007: Der Wettbewerb Adbusting prangerte die Autohersteller BMW, Mercedes und Volkswagen an, die entgegen ihren Versprechungen vor allem „Spritfresser“ bewerben. 2008: Gemeinsam mit Verbrauchern und unterstützt von Sarah Wiener forderte der BUND mit seiner Aktion Aus Liebe zur Natur. Ohne Gentechnik von Edeka die Kennzeichnung entsprechender Produkte mit dem Etikett „Ohne Gentechnik“. 2010: Der BUND Hamburg war Mitinitiator einer Volksinitiative, die das Ziel einer Rekommunalisierung der Energienetze und der Etablierung „echter“ Stadtwerke in Hamburg hatte. Die Initiative aus 24 Organisationen erreichte mit einem Volksbegehren, dass 2013 ein Volksentscheid durchgeführt wurde. 2010: Die Aktion Zukunft ohne Gift soll erreichen, dass Kinder ohne Belastung durch schädliche Chemikalien aufwachsen. So können Kindertagesstätten Staubproben aus ihrer Einrichtung beim BUND kostenlos auf Weichmacher testen lassen. Bestimmte chemische Schadstoffe haben eine hormonelle Wirkung und stehen unter Verdacht, zu Unfruchtbarkeit, Diabetes und Krebs zu führen. 2011: Start des Projekts „Wildkatzensprung“ (gefördert durch das Bundesprogramm Biologische Vielfalt) mit Aktivitäten zum Schutz der Wildkatze in zehn Bundesländern. In diesem größten Einzelprojekt in der Geschichte des BUND werden zum einen sogenannte „grüne Korridore“ in Hessen (Rothaargebirge-Knüll), Niedersachsen (Harz-Solling), Baden-Württemberg (Region Herrenberg), Rheinland-Pfalz (Westerwald/Taunus-Rothaargebirge) und Thüringen (Region Greiz) gepflanzt. Zum anderen wird in Zusammenarbeit mit dem Forschungsinstitut Senckenberg eine bundesweite Gendatenbank zur Wildkatze entwickelt, um die Populationen und die Wanderungsbewegungen zu dokumentieren und die Schutzmaßnahmen für die Wildkatze zu optimieren. Das Projekt ist mit über 1200 Freiwilligen auch eines der größten „Citizen Science“-Projekte Europas und wurde 2017 erfolgreich abgeschlossen. 2012: Die Aktion Stadtnatur informierte über Pflanzen und Tiere in der Stadt und motivierte, selbst Naturräume zu erleben und zu schaffen, z. B. mit urbanem Gartenbau und einem Fotowettbewerb. 2012: Mit Stellen Sie die Giftfrage forderte der BUND Verbraucher auf, Anbieter von Produkten nach gefährlichen Inhaltsstoffen zu fragen (siehe REACH-Verordnung). In Kooperation mit dem Umweltbundesamt erleichtert ein Anfrage-Generator die Formulierung. 2013: Mit der Bereitstellung der App ToxFox ermöglicht der BUND es Verbrauchern, durch Scannen des Strichcodes von Kosmetika zu ersehen, ob das Produkt hormonell wirkende Chemikalien enthält. Seit 2019 werden auch Nanopartikel angezeigt. Zum Kosmetik-Check kann online auch alternativ einfach die EAN-Nummer eingegeben werden, Protestmails können direkt an die Hersteller geschickt werden. Die Analyse der Chemikalien aus der INCI-Liste der Inhaltsstoffe für etwa 60.000 Pflege- und Kosmetikprodukte geschah in Zusammenarbeit mit der Community Datenbank Codecheck.info. Kritik an der Studie gab es vom Industrieverband Körperpflege- und Waschmittel, die Mengen an potentiell schädlichen Inhaltsstoffen seien zu gering. Andererseits waren Naturkosmetika weitgehend frei von hormonaktiven Substanzen. 2013: Die Aktion Wildbienen informierte die Öffentlichkeit über Bedeutung und Bedrohung der über 550 deutschen Wildbienenarten und gab Tipps, wie den Wildbienen geholfen werden kann. 2014: Der BUND veröffentlichte den Einkaufsratgeber Mikroplastik – die unsichtbare Gefahr und startete damit eine öffentliche Debatte um Mikroplastik in Kosmetik und den Eintrag von Mikroplastik in die Meere und Flüsse. 2015: Das Magazin GEO und der BUND richteten in der Hohen Garbe an der Elbe, dem angrenzenden Garbe-Polder sowie der Aland-Niederung gemeinsam den GEO-Tag der Artenvielfalt aus. Die Experten kartierten in 24 Stunden mehr als rund 1.400 Pflanzen- und Tierarten, darunter eine Pilzart, die erstmals in Deutschland gefunden wurde. 2018: Am 23. November 2018 haben der BUND und der Solarenergie-Förderverein Deutschland gemeinsam mit elf Einzelpersonen (unter anderem Josef Göppel, Hannes Jaenicke und Volker Quaschning) eine Verfassungsbeschwerde beim Bundesverfassungsgericht (BVerfG) eingelegt. Mit der ersten Klage dieser Art soll der Handlungsdruck für die Politik erhöht werden, mehr zur Bekämpfung des Klimawandels zu tun. Veröffentlichungen (Auswahl) 2013: Der Fleischatlas – Daten und Fakten über Tiere als Nahrungsmittel. In Kooperation mit der Heinrich-Böll-Stiftung und Le Monde diplomatique publiziert der BUND den Fleischatlas (Creative Commons Lizenz: CC-BY-SA). Die Publikation verdeutlicht anhand von Texten und Grafiken Zusammenhänge in der Fleischproduktion und beim Konsum von Fleisch. Mit der Publikation fordert der BUND auch die „Agrarwende“, setzt sich dafür ein, Überproduktionen abzubauen und die kleinbäuerliche Landwirtschaft zu fördern. 2022: Im November des Jahres wurde in einem Gemeinschaftsprojekt der Allianz pro Schiene, des deutschen Verkehrssicherheitsrats (DVR) und des BUND erstmals das „Mobilitätsbarometer“ [für Deutschland] veröffentlicht. Es soll von da an jährlich erhoben werden. Kampagnen gegen Großprojekte Als Interessenvertreter des Umwelt- und Naturschutzes ist der Bund verschiedentlich insbesondere gegen einige Großprojekte vorgegangen. So war etwa zum Weltjugendtag 2005 eine Abschlussmesse des Papstes Benedikt XVI. ursprünglich bei Hangelar geplant. Der BUND reichte einen Widerspruch gegen die behördliche Genehmigung ein. Eine vorherige Kampfmittelräumung auf dem Gelände des Flugplatzes Hangelar, der geplante „Papst-Hügel“ und der Wegebau für die Großveranstaltung würden Fauna und Flora im Naturschutzgebiet Hangelarer Heide zu stark belasten. Die Veranstalter verlegten den Schlussgottesdienst auf das Marienfeld in Kerpen. Im Februar 2003 reichte der BUND zusammen mit dem NABU beim Hamburgischen Oberlandesgericht eine Klage gegen den geplanten Offshore-Windpark Butendiek ein. Für den Standort seien genug ökologisch sinnvollere Alternativen vorhanden. Die Klage wurde abgewiesen mit der Begründung, dass BUND und NABU als Klagende keine Verletzung eigener Rechte geltend machen könnten. Ein Sprecher des Bundesumweltministeriums kritisierte die Klage und erklärte, dass der Bau des Windparks vielmehr positive Auswirkungen auf die Natur haben werde, da beispielsweise die Fischerei in dessen Umkreis eingeschränkt werde. Seit Ende der 1970er Jahre engagieren sich die damalige „Hambach Gruppe“ und später auch der BUND gegen den Braunkohlentagebau Hambach und für die Erhaltung des „Hambacher Forsts“. Der BUND führte seit 2009 Klagen gegen die Zulassung des 2. Rahmenbetriebsplanes, gegen die tagebaubedingte Verlegung der Autobahn A 4 und gegen die Hauptbetriebsplanzulassung 2011–2014. Mit einer weiteren Klage gegen die Zulassung des 3. Rahmenbetriebsplans 2020–2030 und den Hauptbetriebsplan 2018–2020 scheiterte der BUND im November 2017 zunächst vor dem Verwaltungsgericht Köln. Einen Vergleichsvorschlag der Gerichtskammer zur Schonung des Hambacher Walds lehnten RWE und das beklagte Land ab. Der BUND erhob direkt anschließend Berufung vor dem zuständigen Oberverwaltungsgericht für das Land Nordrhein-Westfalen (OVG). Mit einem Eilantrag erreichte der BUND am 5. Oktober 2018 beim OVG Münster einen vorläufigen Rodungsstopp für den Hambacher Forst. Am 6. Oktober fand eine vom BUND mitorganisierte Großdemonstration am Wald mit ca. 50.000 Teilnehmern statt. Nach der Zurückweisung der Klage im März 2019 beim Verwaltungsgericht Köln beantragte der BUND im August 2019 die Berufung beim OVG Münster; der Rodungsstopp bleibt vorerst weiter bestehen. Kritik Dem BUND wurde mehrfach die vorzeitige Rücknahme von Klagen gegen naturbedrohende Bauvorhaben aufgrund finanzieller Vorteile vorgeworfen. So warf Der Spiegel der Organisation erstmals im Jahr 1997 „Ablasshandel“ vor. Der BUND Thüringen habe 1996 nach einer zweckgebundenen Spende der VEAG in Höhe von 7 Millionen DM eine Klage gegen das Pumpspeicherwerk Goldisthal fallen gelassen. Nach Darstellung des BUND waren die Erfolgsaussichten der Klage gering, gleichwohl stehe der Landesverband Thüringen dem Pumpspeicherwerk aus Naturschutzsicht weiter kritisch gegenüber. Das Geld wurde zur Gründung der Naturstiftung David eingesetzt. Neben dem Spiegel kritisierten auch der NDR und das Magazin Panorama Zugeständnisse des BUND und anderer Umweltverbände nach finanziellen Ausgleichsleistungen erneut als „Ablasshandel“ und „Tauschgeschäfte“. So hatte der BUND Niedersachsen (zusammen mit dem WWF) 2006 eine Klage gegen die geplante Vertiefung der Ems für die Überführung von Kreuzfahrtschiffen zurückgezogen, nachdem in einem Vergleich die Zahlung von 9 Millionen Euro in ein neu geschaffenes Sondervermögen Emsfonds vereinbart wurde. Über die Verwendung dieser Mittel für Projekte im Ems-Dollart-Gebiet entscheidet ein neugeschaffenes sechsköpfiges Gremium, das auf Dauer mit einem Mitglied des BUND besetzt ist. Der BUND Schleswig-Holstein hatte 2008 ein Klageverfahren gegen den Ausbau des Lübecker Flughafens beendet, nachdem Kompensationsleistungen in eine Naturschutz-Stiftung für die Grönauer Heide ausgehandelt worden waren. Im Jahr 2011 zog der BUND Niedersachsen eine Klage gegen den geplanten Offshore-Windpark Nordergründe vor Wangerooge zurück, nachdem in einem Vergleich die Zahlung von rund 800.000 Euro vereinbart wurde, die später in einen zweckgebundenen, vom BUND verwalteten Fonds fließen sollten. Der Mitbegründer des Verbandes Enoch zu Guttenberg begründete im Mai 2012 seinen Austritt unter anderem mit dem Verdacht der Käuflichkeit des BUND. Seiner Überzeugung nach sei es vor allem um finanzielle Vorteile gegangen, als der BUND Klagen gegen den Windpark in Nordergründe und die Elbvertiefung zurückgezogen und dafür von den Betreibern Stiftungsgelder erhalten habe. Außerdem lehnte er die seiner Meinung nach landschaftszerstörenden Windkraftanlagen außerhalb bebauter Flächen ab. Der BUND habe sein Ziel – die Natur und deren Schutz – verfehlt. Der BUND wies die Vorwürfe der Bestechlichkeit mehrfach zurück: Im Rahmen von Vergleichen seien sinnvolle Lösungen gefunden worden, die zu naturverträglicheren Planungen geführt hätten. Vergleiche gegen Geld würden zudem nur einen minimalen Anteil an den Verbandsklagen des BUND ausmachen. Die Organisation befürworte den Ausbau der erneuerbaren Energien grundsätzlich und gehe nur in Einzelfällen gerichtlich gegen offenkundige Fehlplanungen vor. Beim Windpark Nordergründe seien neben einer geringeren Anlagenzahl deutlich reduzierte Umweltauswirkungen und umfangreiche Monitoringmaßnahmen zu den Auswirkungen auf den Vogelzug erreicht worden. Auch zum – nicht realisierten – Flughafenausbau in Lübeck sei ein Umfang an Eingriffsminderungen und Kompensationsleistungen ausgehandelt worden, der über eine Klage niemals hätte erreicht werden können. Verleihung von Umweltpreisen Bodo-Manstein-Medaille Von 1980 bis 1991 verlieh der BUND die nach dem ersten Vorsitzenden benannte Bodo-Manstein-Medaille für besondere Verdienste im Natur- und Umweltschutz. Auf der Medaille war zu seinem Gedenken das Porträt Bodo Mansteins im Profil abgebildet; der Mediziner und Umweltschützer der ersten Stunde war zum Zeitpunkt der ersten Verleihung bereits verstorben. BUND-Forschungspreis Seit 2017 verleiht der BUND jährlich den Forschungspreis für wissenschaftliche Arbeiten zur Nachhaltigen Entwicklung an Universitäts-Absolventen. Der Preis wird in den Kategorien Bachelorarbeit, Masterarbeit und Dissertation (auch Forschungsarbeit) verliehen und ist mit Geldpreisen von 500 Euro, 1.000 Euro und 2.500 Euro dotiert. Die Preisträger arbeiteten an unterschiedlichsten Themen, beispielsweise 2019 an biologischer Schädlingsbekämpfung im Ackerbau, am deutschen Schienengüterverkehr des Jahres 2040 oder am Weltaktionsprogramm „Bildung für eine nachhaltige Entwicklung“. Auszeichnungen von Landesverbänden Seit 2009 verleiht der BUND Hessen den Eduard-Bernhard-Preis an Menschen, die sich durch starkes Engagement für Umwelt und Naturschutz auszeichnen. Der Bund Naturschutz in Bayern verleiht seit 1970 die Bayerische Naturschutzmedaille für besonderes Engagement im BN. Mit der Karl-Gayer-Medaille ehrt der Bund Naturschutz Bayern – in Abstimmung mit der Arbeitsgemeinschaft Naturgemäße Waldwirtschaft – seit 1977 Personen, die sich um die naturgemäße Waldwirtschaft verdient gemacht haben. Die höchste Auszeichnung Bayerns im Naturschutzbereich ist der Bayerische Naturschutzpreis des Bund Naturschutz, der seit Anfang der 1970er Jahre verliehen wird. Der BUND Berlin vergab von 2005 bis 2014 den Berliner Umweltpreis in den Kategorien Umweltengagement, Kinder und Jugend und Wirtschaft und Innovation. Der BUND Baden-Württemberg zeichnet seit 2007 Naturschützer mit dem Gerhard-Thielcke-Naturschutzpreis aus. Der Naturschutzpreis entstand zum 75. Geburtstag des BUND-Ehrenvorsitzenden und Mitbegründers Gerhard Thielcke, der auch die Vergabe-Kriterien formuliert hat. Der Arbeitskreis Energie des BUND Nordrhein-Westfalen vergab 2009 und 2010 den mit 1000 Euro dotierten BUND-Energiepreis für umweltfreundlichen Umgang mit Energie. Für den Preis konnten sich vorzugsweise BUND-Gruppen bewerben, aber auch Bürgerinitiativen, Einzelpersonen und Firmen, sofern das Projekt einen direkten Nutzen für die Umwelt hatte, innovativ war und zum Nachmachen animierte. Auch Orts- und Kreisgruppen des BUND verleihen regelmäßig regionale Umweltpreise für herausragende Leistungen für die Umwelt – sowohl positive wie auch negative. Unbeliebt bis gefürchtet sind Negativpreise: Verantwortliche werden für Umweltsünden und ökologische Fehltritte öffentlich kritisiert; die Möglichkeit, bei der Verleihung Stellung zu nehmen, wird nur selten genutzt. Natur & Umwelt Service und Verlags GmbH Die Natur & Umwelt Service und Verlags GmbH wurde 1977 gegründet und ist eine hundertprozentige Tochter des BUND. Sie ist Dienstleisterin im Versand und Projektmanagement für den BUND, übernimmt aber auch Funktionen für externe Auftraggeber. Zum Beispiel wickelt sie seit 2002 für das Bundesumweltministerium den Wettbewerb Don Cato ab, der Kinder mit Fragen des Natur- und Umweltschutzes vertraut machen soll. Darüber hinaus betreibt sie den BUNDladen, in dessen Internetshop und Katalog Schön ökologische Artikel angeboten werden. Corporate Design Der ursprüngliche Name Bund für Natur- und Umweltschutz Deutschland wurde 1977 in die heutige Form geändert, so dass aus der Abkürzung BNUD das Apronym BUND entstand, das Teil der Corporate Identity des Vereins wurde. Das Vereins-Logo zeigt links neben dem Schriftzug BUND ein grafisches Element, das den Erdball symbolisieren soll, der von zwei schützenden Händen umschlossen wird. Der Logo-Entwurf stammte von Rudolf Schreiber, einem Mitglied des Gründungsvorstands des Umweltverbands. Der BUND ist deutsches Mitglied des internationalen Naturschutznetzwerkes Friends of the Earth, weswegen der Zusatz Friends of the Earth Germany (früherer Zusatz in deutscher Sprache: Freunde der Erde) Element der heutigen Marke des Vereins ist. BUND-Stiftungen Dem BUND-Bundesverband steht seit 2005 die gemeinnützige BUNDstiftung mit Sitz in Schwerin zur Seite. Die Stiftung startete mit 50.000 Euro Kapital und lag durch Spenden, Zustiftungen, Erbschaften und Stifterdarlehen zehn Jahre nach der Gründung bei drei Mio. Euro. Die Stiftung fördert Großprojekte wie die Arbeit am Grünen Band, die Auenwälder an der Mittelelbe (Hohe Garbe) und die Goitzsche-Wildnis bei Bitterfeld. Viele der rechtlich eigenständigen BUND-Landesverbände haben ebenfalls für ähnliche Zwecke eine gemeinnützige Stiftung ins Leben gerufen. Das Gründungskapital stammt teils aus eigenen Rücklagen, teils aus Ersatzzahlungen für große Baumaßnahmen. Die Stiftungen agieren rechtlich unabhängig von den BUND-Verbänden; oft sind BUND-Aktive (auch federführend) an der Stiftungsleitung beteiligt. Die Stiftungen nach Gründungsdatum: Momo-Stiftung (Baden-Württemberg): Die 1993 vom BUND Baden-Württemberg gegründete Momo-Stiftung fördert Projekte, die Kindern und Jugendlichen ein besseres Verständnis für ihre Umwelt und die Natur vermitteln. Namenspatin war das Mädchen Momo von Michael Ende. Naturstiftung David (Thüringen): Der Thüringer Landesverband gründete 1998 die Naturstiftung David, die auch Mitglied im Deutschen Naturschutzring ist. Die Stiftung hat Arbeitsschwerpunkte in den Feldern Naturschutz, Erneuerbare Energien und Energieeinsparung. BUND NRW Naturschutzstiftung: Der Landesverband Nordrhein-Westfalen rief 2002 die Naturschutzstiftung ins Leben, die jährlich den Schmetterling des Jahres auszeichnet. Bund Naturschutz Stiftung (Bayern): Der Bund Naturschutz in Bayern hat 2007 eine selbstständige Stiftung errichtet. Zu den geförderten Projekten gehören das Grüne Band, der Ankauf naturnaher Flächen und die Umweltbildung. BUND Hessen-Naturschutzstiftung: Der Landesverband hat 2009 die Naturschutzstiftung eingerichtet. Gefördert werden Erwerb und Pflege von Naturschutzflächen, Umweltbildung sowie Natur- und Umweltschutzprojekte des BUND. Stiftung Ausgleich Altenwerder (Hamburg): 2009 hat der BUND die Stiftung gegründet, um Werte in der Natur zu verbessern, wiederherzustellen und langfristig zu sichern. Der Arbeitsschwerpunkt liegt im Naturraum der Tideelbe im Bereich Hamburg, südlich der Norderelbe. Stiftung Naturlandschaft (Niedersachsen): Die Stiftung wurde 2010 gegründet. Sie hat ihren Sitz in Hannover, die Geschäftsstelle befindet sich in einer Wasserburg in Königslutter, die zu einem vielseitigen Natur- und Wissenschaftszentrum ausgebaut ist. Neben BUND und NABU unterhalten auch viele andere Verbände hier ihre Geschäftsstelle, z. B. der Landesverband Bürgerinitiativen Umweltschutz, das Freilicht- und Erlebnismuseum Ostfalen und der Geopark Harz – Braunschweiger Land – Ostfalen. Weblinks Offizielle Website Einzelnachweise Deutscher Naturschutzring Umweltschutzorganisation (Deutschland) Naturschutzorganisation (Deutschland) Verein (Berlin) Verein (Bundesverband) Friends of the Earth Initiative Transparente Zivilgesellschaft Gegründet 1975 Eingetragen im Lobbyregister des Deutschen Bundestags
505
https://de.wikipedia.org/wiki/Bet%C3%A4ubungsmittelgesetz%20%28Deutschland%29
Betäubungsmittelgesetz (Deutschland)
Das Betäubungsmittelgesetz (BtMG), ehemals Opiumgesetz (s. u.), ist ein deutsches Bundesgesetz, das den generellen Umgang mit Betäubungsmitteln regelt. Welche Stoffe und Zubereitungen vom Betäubungsmittelgesetz erfasst werden, lässt sich den Anlagen I bis III des Gesetzes entnehmen (§ 1 Abs. 1 BtMG): erfasst die nicht verkehrsfähigen Betäubungsmittel (Handel und Abgabe verboten, etwa LSD), die verkehrsfähigen, aber nicht verschreibungsfähigen Betäubungsmittel (Handel erlaubt, Abgabe verboten, etwa Ausgangsstoffe wie Cocablätter) und die verkehrsfähigen und verschreibungsfähigen Betäubungsmittel (Abgabe nach BtMVV, etwa Morphin). Die Anlagen sind jeweils dreispaltig aufgebaut. Spalte 1 enthält die Internationalen Freinamen (INN) der Weltgesundheitsorganisation (etwa Amphetamin), Spalte 2 andere nicht geschützte Stoffbezeichnungen wie Kurzbezeichnung oder Trivialnamen (etwa Amphetamin) und Spalte 3 die chemische Stoffbezeichnung (etwa (RS)-1-Phenylpropan-2-ylazan). Eine vollständige Übersicht über die erfassten Stoffe gibt die Liste von Betäubungsmitteln nach dem Betäubungsmittelgesetz. Inhalt Das BtMG ist in acht Abschnitte gegliedert Begriffsbestimmungen Erlaubnis und Erlaubnisverfahren Pflichten im Betäubungsmittelverkehr Überwachung Vorschriften für Behörden Straftaten und Ordnungswidrigkeiten Betäubungsmittelabhängige Straftäter Übergangs- und Schlussvorschriften Tatbestand Betäubungsmittel im Sinne des BtMG und Drogen sind nicht gleichzustellen. Alkohol, Nikotin und Coffein werden vom BtMG, weil sie nicht in die Anlagen aufgenommen wurden, nicht erfasst. Sie sind daher in Deutschland legale Drogen. Aber auch andere berauschende Substanzen verschiedener Pflanzen (bspw. Stechäpfel und Engelstrompeten) sowie von Pilzen wie dem Fliegenpilz unterliegen nicht dem BtMG. Die Vorschriften des Gesetzes regeln die Herstellung, das Inverkehrbringen, die Einfuhr und die Ausfuhr von Betäubungsmitteln nach Anlage I, II und III. Für diese Tätigkeiten bedarf es einer Erlaubnis, die das Bundesinstitut für Arzneimittel und Medizinprodukte erteilen kann (§ 3 BtMG). Ferner werden der Betrieb von Drogenkonsumräumen geregelt (§ 10a BtMG), die Vernichtung von Betäubungsmitteln und die Dokumentation des Verkehrs. Das Betäubungsmittelgesetz ist eine Folge der durch die Ratifikation des Einheitsabkommens über die Betäubungsmittel 1961 sowie anderer ähnlicher Abkommen entstandenen Verpflichtung Deutschlands, die Verfügbarkeit mancher Drogen gemäß den Bestimmungen des Übereinkommens einzuschränken. Der Prohibition unterliegen die Stoffe nach Anlage I (illegale Drogen), deren Besitz und Erwerb nur durch Sondererlaubnis durch das BfArM für wissenschaftliche Zwecke möglich ist oder von einer zuständigen Stelle zur Untersuchung oder Vernichtung entgegengenommen wird. Es handelt sich bei den in den Anhängen aufgeführten Substanzen um so genannte res extra commercium, zu deutsch nicht handelbare Sachen. Werden sie in das Bundesgebiet eingeführt, so hat nur der Staat das Recht, den Besitz an diesen Substanzen durch Sicherstellung oder Beschlagnahme auszuüben. Grundsätzlich gehört das Betäubungsmittelgesetz in die Kategorie der Verwaltungsgesetze, da Regelungsmaterie der Verkehr der Betäubungsmittel ist. Durch die häufig angewendeten Strafvorschriften in den §§ 29–30a BtMG ist es aber zugleich eines der wichtigsten Gesetze im Bereich des Nebenstrafrechts. Für die Einfuhr und Ausfuhr der Grundstoffe zahlreicher Betäubungsmittel (insbesondere synthetischer Drogen wie Amphetamin) gilt das Grundstoffüberwachungsgesetz. Gesetz über den Verkehr mit Betäubungsmitteln (§29 BtMG) Die häufigsten Verstöße gegen das Betäubungsmittelgesetz werden durch den - Gesetz über den Verkehr mit Betäubungsmitteln - geahndet. Dieser Paragraf regelt den allgemeinen Umgang mit verbotenen Betäubungsmitteln. Verboten sind dabei – immer das Fehlen einer Erlaubnis vorausgesetzt – der Anbau, die Herstellung, das Handeltreiben, die Einfuhr oder Ausfuhr, die Veräußerung, die Abgabe, das Inverkehrbringen, der Erwerb, der Besitz und das unerlaubte Verschreiben, Verabreichen oder Überlassen. Bei einem Verstoß gegen den § 29 BtMG droht eine Freiheitsstrafe bis zu fünf Jahren oder Geldstrafe. In besonders schweren Fällen, wie etwa gewerbsmäßigem Drogenhandel oder dem Drogenhandel mit Waffen oder einer Bande ist mit einer Freiheitsstrafe von nicht unter einem Jahr zu rechnen. Daneben können unter Umständen Berufsverbote, die Unterbringung in einer Entziehungsanstalt oder ein Entzug der Fahrerlaubnis verhängt werden. Wichtige Faktoren bei der Strafzumessung sind die Art und Menge des oder der Betäubungsmittel, die konkrete Tathandlung sowie Lebensumstände und Vorstrafen des Beschuldigten sowie das Bundesland, in welchem der Gerichtsprozess stattfindet. Geschichte Das Betäubungsmittelgesetz ist der unmittelbare Nachfolger des in der Weimarer Republik erlassenen Opiumgesetzes vom 10. Dezember 1929 (RGBl. I S. 215). Nach der Umformulierung des Kurztitels und umfangreichen inhaltlichen Änderungen durch Gesetz vom 22. Dezember 1971 () wurde am 10. Januar 1972 eine Neubekanntmachung () herausgegeben. Die aktuelle Fassung des BtMG datiert auf den 28. Juli 1981 (); deren Wortlaut wurde zuletzt am 1. März 1994 neu bekannt gemacht (). Gefährdungspotential Grundüberlegung zum Betäubungsmittelgesetz ist die Feststellung eines Suchtpotentials als sozialer Beeinträchtigung einer Person in Verbindung mit einer nicht rückgängig zu machenden (irreversiblen) gesundheitlichen Beeinträchtigung oder Schädigung des Körpers der Person (somatischer oder psychosomatischer Schaden) durch einmaligen, mehrmaligen oder anhaltenden Genuss von Betäubungsmitteln. Sämtliche Pharmaka, welche eine solche irreversible Schädigung erwarten lassen, sind oder werden den Beschränkungen des Betäubungsmittelgesetzes unterworfen. Damit werden auch neue Designerdrogen erfasst. Daneben gilt eine zusätzliche Gefährdung durch medizinisch nicht sachgerechte Zubereitung und Verabreichung von Betäubungsmitteln. Weiter wird durch den Genuss von Betäubungsmitteln ein Gefährdungspotential für Dritte mobilisiert, wenn der Suchtkranke sein Handeln am Arbeitsplatz im Straßenverkehr beim Führen von Fahrzeugen in den Elternpflichten nicht mehr selbst kontrollieren kann. Vom Opiumgesetz zum Betäubungsmittelgesetz Bis zur Mitte der 1960er Jahre war die Drogenpolitik im Verhältnis zu anderen Bereichen der Politik ein äußerst kleiner und gesellschaftlich kaum beachteter Politikbereich. Wohl vor allem auf Grund der geringen Zahl der sozial auffälligen Drogenkonsumenten blieb das Opiumgesetz weithin papierenes Gesetz ohne akute Verfolgungsrealität. Entsprechend niedrig war die Zahl der auf Grund des Opiumgesetzes verurteilten Personen. Anfang der sechziger Jahre des 20. Jahrhunderts lag diese Zahl zwischen 100 und 150 pro Jahr, das heißt zwei bis drei Verurteilungen pro Woche in der ganzen Bundesrepublik Deutschland. Ende der sechziger Jahre änderte sich der Stellenwert der Drogen- und speziell der Cannabispolitik schlagartig. Dies geschah vor dem Hintergrund der internationalen Entwicklung (internationale Abkommen) und vor allem dem in den USA wahrgenommenen „Jugend-Drogen-Problem“. In Deutschland vermittelte die Presse nach dem reißerischen Vorbild in den Vereinigten Staaten von Amerika ab Ende der sechziger Jahre den Eindruck einer gewaltigen „Haschisch- und Drogenwelle“, die das Land zu überrollen drohte. Gleichzeitig wurde in der öffentlichen Meinung das Bild eines dramatischen sozialen Problems vorgezeichnet, das zudem mit dem vermutlich wichtigsten innenpolitischen Ereignis jener Zeit in Verbindung gebracht wurde, nämlich der hauptsächlich von Studenten getragenen Protestbewegung, die sich während der großen Koalition aus CDU/CSU und SPD von 1966 bis 1969 als „Außerparlamentarische Opposition (APO)“ formiert hatte. Auf internationaler Ebene trat die Bundesrepublik Deutschland einer Reihe von Übereinkommen im Rahmen der Vereinten Nationen (UNO) zur Drogenpolitik bei. Es handelt sich hierbei um das Einheitsabkommen über die Betäubungsmittel vom 30. März 1961 über Suchtstoffe in der Fassung des Protokolls vom 25. März 1972 zur Änderung des Einheitsabkommens über die Betäubungsmittel von 1961 (sogenannte Single-Convention) und um das Übereinkommen vom 21. Februar 1971 über psychotrope Stoffe (Konvention über psychotrope Substanzen). Vor diesem Hintergrund hat der Gesetzgeber (Deutscher Bundestag und Bundesrat) im Dezember 1971 das Opiumgesetz vom 10. Dezember 1929, das vor allem die verwaltungsmäßige Kontrolle der medizinischen Versorgung der Bevölkerung mit Opium, Morphium und anderen Betäubungsmitteln regelte, durch ein neues „Gesetz über den Verkehr mit Betäubungsmitteln (Betäubungsmittelgesetz, BtMG)“ ersetzt. Dem neuen Gesetz vom 22. Dezember 1971, das am 10. Januar 1972 nach redaktionellen Änderungen neu bekanntgegeben wurde, liegt eine abstrakt-typologische Täterklassifizierung zugrunde, so dass nach der Vorstellung des Gesetzgebers jedem Tätertypus eine Sanktionsstufe zugeordnet werden kann, wobei die Höchststrafe von drei auf zehn Jahre heraufgesetzt wurde. Der Gesetzgeber ermächtigte in § 1 Abs. 2 bis 6 BtMG die Bundesregierung (Exekutive), durch Rechtsverordnung weitere Stoffe den betäubungsmittelrechtlichen Vorschriften zu unterstellen. Die Tatsache, dass nicht nur der Gesetzgeber, sondern ein Verordnungsgeber der Exekutive Straftatbestände schaffen kann, die mit hohen Freiheitsstrafen (seit dem 25. Dezember 1971 bis zu zehn Jahren, seit dem 1. Januar 1982 sogar Höchststrafen bis zu 15 Jahren) geahndet werden können, hat in den vergangenen Jahren immer wieder heftige und kontroverse Debatten im Kreise der Verfassungs- und Strafjuristen ausgelöst. Die Vereinbarkeit der Strafvorschriften des Betäubungsmittelgesetzes mit dem Grundgesetz ist zudem umstritten, weil einerseits Grundrechtsbegrenzungen nur unter strikter Wahrung des Verhältnismäßigkeitsgebotes erfolgen dürfen und andererseits die strafbewehrte Drogenprohibition kaum geeignet scheint, das gesetzgeberische Ziel (Verfügbarkeit der in den Anlagen aufgeführten Stoffe zu unterbinden) zu erreichen. Mit dem Gesetz zur Neuordnung des Betäubungsmittelrechts vom 28. Juli 1981 (), das am 1. Januar 1982 in Kraft trat, wurde nicht nur für die besonders schweren Fälle eine Erhöhung der Strafobergrenze von 10 auf 15 Jahren Freiheitsstrafe vorgenommen, sondern auch die Definition der Betäubungsmittel geändert. In § 1 Abs. 1 BtMG wurde der Anwendungsbereich des Gesetzes auf die in den Anlagen I bis III genannten Stoffe und Zubereitungen beschränkt. Betäubungsmittel im Sinne des Gesetzes sind nur die in den Anlagen I bis III genannten Stoffe und Zubereitungen (Positivliste). Die in den Anlagen I bis III genannten Stoffe und Zubereitungen sind Teil des Gesetzes. „Cannabis-Beschluss“ Am 9. März 1994 erging der so genannte Cannabis-Beschluss des Bundesverfassungsgerichts, demzufolge bei geringfügigen Verstößen gegen das BtMG durch die Einfuhr, den Erwerb oder den Besitz von geringen Mengen Cannabis zum Eigenverbrauch nach Ermessen der Strafverfolgungsbehörden ein Strafverfahren eingestellt werden kann, nachfolgend geregelt in BtMG. In der Praxis wird dies in verschiedenen Bundesländern stark unterschiedlich gehandhabt, da insbesondere nicht einheitlich festgelegt ist, was eine „geringe Menge“ ist. Einziehung von Taterträgen Mit Aufhebung der Vermögensstrafe ( BtMG a. F.) wurde der Anwendungsbereich der erweiterten Einziehung von Taterträgen (bisher „erweiterter Verfall“) durch BtMG eröffnet. Rechtsverwandtschaften Im Kontext des BtMG stehen vier Verordnungen: Betäubungsmittel-Verschreibungsverordnung (BtMVV) Betäubungsmittel-Binnenhandelsverordnung (BtMBinHV) Betäubungsmittel-Außenhandelsverordnung (BtMAHV) Betäubungsmittel-Kostenverordnung (BtMKostV) Thematisch verwandt sind sowohl die gesetzlichen Regelungen zu Grundstoffen als auch zu Arzneimitteln (AMG). Im Juli 2014 urteilte der EuGH, dass nicht als Betäubungsmittel eingestufte, zum Berauschen verwendete Stoffe und Zubereitungen nicht als Arzneimittel anzusehen seien, das Herstellen und Inverkehrbringen zu diesem Zweck könne daher nicht nach dem Arzneimittelgesetz verboten werden. Gegenstand des Urteiles waren sogenannte „Kräutermischungen“, welche synthetische Cannabinoide enthielten. Inwiefern dieses Urteil auf andere berauschenden Substanzen, welche jedoch nicht dem BtMG unterliegen, anwendbar ist, ist strittig. BtMG und AMG werden seit November 2016 durch das Neue-psychoaktive-Stoffe-Gesetz (NpSG) ergänzt, welches den Handel mit den im Urteil gegenständlichen synthetischen Cannabinoiden, aber auch mit Phenylethylaminen unter Strafe stellt. Betäubungsmittel in der Medizin Welche Arzneimittel in Deutschland als Betäubungsmittel geführt werden und aufgrund ihres Gefährdungspotenzials strengen Vorschriften unterliegen, ist im Betäubungsmittelgesetz festgelegt. In den Anlagen des Gesetzes sind die Stoffe und Zubereitungen aufgelistet, die hierzulande unter die Gruppe der Betäubungsmittel fallen. Viele von ihnen werden im medizinischen Bereich angewendet, z. B. bei chronisch starken Schmerzen, fortgeschrittenen Krebserkrankungen, bei AIDS-Erkrankungen und während und nach Operationen. Vernichtung von Betäubungsmitteln Die Vernichtung von Betäubungsmitteln ist in § 16 BtMG geregelt. Demnach hat der Eigentümer von nicht mehr verkehrsfähigen Betäubungsmitteln diese auf seine Kosten und in Gegenwart von zwei Zeugen zu vernichten. Die Beseitigung hat dabei so zu erfolgen, dass eine auch nur teilweise Wiedergewinnung der Mittel ausgeschlossen ist. Für die Nachvollziehbarkeit dieser Vernichtung fordert das Betäubungsmittelgesetz eine Niederschrift, die der Eigentümer drei Jahre aufbewahren muss. Entsorgung von Betäubungsmitteln Grundsätzlich muss dafür Sorge getragen werden, dass niemand durch einen zufälligen Kontakt zu Schaden kommt. Die Entsorgung erfolgt über den Rest- bzw. Hausabfall. Dazu werden feste Darreichungsformen wie Tabletten, Dragees, Granulate, Kapseln oder Suppositorien durch Verreiben zerkleinert. Kapseln sind vorher zu öffnen. Wirkstoffpflaster werden aneinandergeklebt und in kleine Stücke zerschnitten, so dass einzelne Pflasterschnipsel nicht mehr kleben können. Flüssige Betäubungsmittel wie Ampulleninhalte oder Tropfen können in Zellstoff aufgenommen und in dieser Form entsprechend nach Abfallschlüsselnummer 180104 entsorgt werden. Eine Ausnahme besteht, wenn laut Packungsbeilage ein anderer Weg der Entsorgung vorgesehen ist. Literatur Hügel, Junge, Lander, Winkler: Deutsches Betäubungsmittelrecht. Kommentar. 8. Auflage. Wissenschaftliche Verlagsgesellschaft, Stuttgart Stand: März 2010, ISBN 978-3-8047-2523-2 (Loseblattsammlung). Harald Hans Körner, Jörn Patzak, Mathias Volkmer: Betäubungsmittelgesetz. Beck’scher Kurz-Kommentar Nr. 37, Verlag C. H. Beck, 7. Auflage, München 2011, ISBN 978-3-406-62465-0. Neufassung des Betäubungsmittelgesetzes. 2001, ISBN 3-930442-06-X. Patzak, Jörn: Betäubungsmittelrecht. 2. Auflage. Verlag C.H. Beck, München 2011, ISBN 978-3-406-61397-5. Bernhard van Treeck: Drogen- und Suchtlexikon. Lexikon-Imprint-Verlag, Berlin 2004, ISBN 3-89602-542-2. Bernhard van Treeck: Das große Cannabis-Lexikon – Alles über die Nutzpflanze Hanf. Lexikon-Imprint-Verlag, Berlin 2000, ISBN 3-89602-268-7. Bernhard van Treeck: Drogen. Schwarzkopf & Schwarzkopf, Berlin 2003, ISBN 3-89602-420-5. Benjamin Fässler: Drogen zwischen Herrschaft und Herrlichkeit. Nachtschatten-Verlag, Solothurn 1997, ISBN 3-03788-138-0. zur Geschichte desselben: Werner Pieper (Hrsg.): Nazis On Speed – Drogen im 3. Reich. Löhrbach 2002, Band 1: ISBN 3-930442-53-1, Band 2: ISBN 3-930442-54-X. Siehe auch Liste von Betäubungsmitteln nach dem Betäubungsmittelgesetz Weblinks Länderprofil Deutschland des „European Monitoring Centre on Drugs and Drug Addiction“ Einzelnachweise Rechtsquelle (Deutschland) Betäubungsmittelrecht (Deutschland) Nebenstrafrecht (Deutschland) Veterinärrecht (Deutschland) Drogenpolitik Klinische Forschung Rechtsquelle (20. Jahrhundert)
506
https://de.wikipedia.org/wiki/BRD
BRD
BRD ist eine nicht offizielle Abkürzung für die Bundesrepublik Deutschland, die mitunter im wissenschaftlichen und insbesondere politischen Kontext verwendet wird, analog zur Abkürzung „DDR“ während der Epoche von 1949 bis 1990. Amtliche Verlautbarungen der Bundesrepublik enthalten die Abkürzung dagegen seit Anfang der 1970er-Jahre nicht mehr. Entstehung und Verwendung des Begriffs Abkürzung in der Bundesrepublik Deutschland Nach Gründung der Bundesrepublik Deutschland wurde die Abkürzung „BRD“ dort zunächst wertfrei verwendet. Die Gesellschaft für deutsche Sprache (GfdS) ermittelte 1988 als ältesten Beleg den Aufsatz Die verfassungsrechtlichen Grundlagen der Bundesrepublik Deutschland des seinerzeitigen Ordinarius für öffentliches Recht und Völkerrecht an der Universität Freiburg, Wilhelm Grewe, in der Deutschen Rechts-Zeitschrift vom 20. Juni 1949. In gewissem Umfang war diese Abkürzung bereits in den 1950er-Jahren gebräuchlich. Der Rechtschreibduden – von 1956 bis 1996 in Westdeutschland maßgeblich für die amtliche deutsche Rechtschreibung – führte 1967 die Abkürzung erstmals in seiner 16. Auflage. Im Juli 1965 legte das damalige Bundesministerium für gesamtdeutsche Fragen unter Erich Mende (FDP) „Richtlinien für die Bezeichnung [I.] Deutschlands; [II.] der Demarkationslinien innerhalb Deutschlands; [III.] der Orte innerhalb Deutschlands (Bezeichnungsrichtlinien)“ fest. Darin wurde Folgendes im Gemeinsamen Ministerialblatt (GMBl. S. 227 f.) beschrieben: Anfang der 1970er-Jahre begann eine Kontroverse um die Abkürzung, als in einigen Bundesländern der Gebrauch untersagt wurde, da sie durch die häufige Verwendung in der DDR als „kommunistische Erfindung“ und „Agitationsformel“ verfemt sei. Mit der Vermeidung der Abkürzung „BRD“ wollte sich die bundesdeutsche Seite vom Sprachgebrauch in der DDR abgrenzen und verhindern, dass west- und ostdeutscher Staat durch analoge Abkürzungen auf eine Stufe gestellt werden. Die Bundesrepublik betrachtete sich trotz aller Lockerungen im deutsch-deutschen Verhältnis stets als völkerrechtlich einzig legitimen deutschen Staat (keine völkerrechtliche Anerkennung der DDR), da nur die Regierung der Bundesrepublik Deutschland aus demokratischen Wahlen hervorging. Die Bezeichnung „Deutschland“ beanspruchte sie für Gesamtdeutschland und damit stellvertretend für sich selbst. Durch die fortdauernde Verwendung dieses Begriffs sollte die Existenz einer deutschen Nation – Deutschland als Ganzes – im öffentlichen Bewusstsein gehalten werden, um das Staatsziel der Wiedervereinigung nicht zu gefährden. Am 31. Mai 1974 empfahlen dann die Regierungschefs des Bundes und der Länder, „dass im amtlichen Sprachgebrauch die volle Bezeichnung ‚Bundesrepublik Deutschland‘ verwendet werden“ solle. Ab Juni 1974 wurden von der Kultusministerkonferenz Schulbücher mit dem Kürzel „BRD“ nicht mehr zugelassen. In Aufsätzen in West-Berlin durfte das Kürzel, wenn das Thema Deutschland im Unterricht behandelt worden war, als Fehler angestrichen werden. Seit dem 4. Oktober 1976 gibt es einen Runderlass des Kultusministers von Schleswig-Holstein (NBl. KM. Schl.-H. S. 274), der jede Abkürzung für nicht „wünschenswert“ erklärt. Im Jahr 1977 nahm die GfdS die Abkürzung in die Liste der Wörter des Jahres auf. Andreas von Schoeler, parlamentarischer Staatssekretär im Bundesministerium des Innern, gab am 30. November 1979 dem Deutschen Bundestag die Auskunft, dass von dem Gebrauch des Akronyms „BRD“ Abstand zu nehmen sei. Nachdem schon in den siebziger Jahren die Kultusministerien einzelner Länder darauf hingewiesen hatten, dass die volle Bezeichnung „Bundesrepublik Deutschland“ im Schulunterricht benutzt werden sollte, fasste die Kultusministerkonferenz in ihrer 202. Plenarsitzung am 12. Februar 1981 den Beschluss, die Abkürzung „BRD“ in Schulbüchern und kartographischen Werken für den Schulunterricht nicht mehr zu verwenden. Dieser Beschluss wurde in der Folge von einzelnen Ländern durch Bekanntmachung in ihren Amtsblättern in Landesrecht umgesetzt, so unter anderem in Baden-Württemberg am 14. April 1981 und in Schleswig-Holstein am 4. August 1981. Die amtliche Auffassung zu BRD ist einer der wenigen Fälle (siehe auch Orthographie), in denen auf diese Weise versucht wurde, direkt in den bundesdeutschen Sprachgebrauch einzugreifen. In den 1980er-Jahren verband sich im Zusammenhang mit der Flick-Affäre der „gekauften Republik“ das Kürzel auch mit dem polemischen politischen Schlagwort „Bananenrepublik Deutschland“. Abkürzung in der Deutschen Demokratischen Republik In der Deutschen Demokratischen Republik wurde die Bundesrepublik in den ersten beiden Jahrzehnten der deutschen Teilung meist Westdeutschland genannt. Die SED-Führung vermied damit die amtliche Bezeichnung Bundesrepublik Deutschland. In offiziellen Schreiben wurden daher zeitweise auch die Bezeichnungen „westdeutsche Bundesrepublik“ und „Deutsche Bundesrepublik“ (DBR) gebraucht. Darin kam vor allem die Analogie zum Staatsnamen Deutsche Demokratische Republik (DDR) zum Vorschein, um die von der Sowjetunion postulierte Zwei-Staaten-Theorie zu betonen und den Begriff Deutschland für eine gesamtdeutsche Nation offenzuhalten. Als Reflex darauf, dass diese Bezeichnung dann auch in der Bundesrepublik sogar teils von Vertriebenenpolitikern verwendet wurde, wies die Bundesregierung in ihren Bezeichnungsrichtlinien von 1961 „Deutsche Bundesrepublik“ als „terminologisches Pendant zur ‚Zweistaatentheorie‘“ aus, wodurch die Bezeichnung als „inkorrekt“ und „grundsätzlich zu vermeiden“ gebrandmarkt wurde. Auch die ostdeutsche Literatur nahm diese Bezeichnung auf. Dies änderte sich jedoch 1968 mit dem Inkrafttreten der neuen DDR-Verfassung, mit der sich die Deutsche Demokratische Republik vom Ziel der Wiedervereinigung verabschiedete. Seither wurde in der DDR für die Bundesrepublik neben der amtlichen Staatsbezeichnung Bundesrepublik Deutschland offiziell verstärkt die Abkürzung BRD verwendet. Dies sollte die Gleichberechtigung der beiden Staaten ausdrücken; die Bezeichnung verbreitete sich auch im allgemeinen Sprachgebrauch. Konsentierte bundesdeutsche Abkürzungen In den alten Bundesländern wurden bis zur Deutschen Einheit und werden teilweise auch danach die Abkürzungen BR Deutschland (auch BRep Deutschland), BR Dt., BR Dtl., BRDt., BRep.Dtschl., BRep. Dtschld., B’Rep. Dt., B.Rep. Dtld., BRep.D, BR Dtld. oder vereinzelt – soweit kontextbezogen – einfach BRep. und Dtld. bevorzugt; eine Verwendung des Kürzels „BRD“ war hingegen von offizieller Seite nicht erwünscht (siehe auch Abschnitt „Heutige Verwendung“). Im mündlichen Sprachgebrauch war und ist der Kurzname Bundesrepublik für die Bundesrepublik Deutschland gebräuchlich. Kfz-Nationalitätszeichen Dass beide deutsche Staaten das Nationalitätenkennzeichen D verwendeten, hatte 1971 zur gleichnamigen Benennung des westdeutschen Fernsehmagazins Kennzeichen D geführt. Um ihre „Eigenständigkeit zu betonen“, ersetzte die DDR das D-Kennzeichen ab dem 1. Januar 1974 durch das Nationalitätskennzeichen DDR. Daraufhin riefen in der Bundesrepublik linke Gruppierungen, besonders die Deutsche Kommunistische Partei (DKP), ihre Anhänger dazu auf, an ihren Kraftfahrzeugen das „anmaßende“ Nationalitätenkennzeichen D, auch „D-Schild“ genannt, durch ein Schild mit den Buchstaben BRD zu ersetzen. In solchen Fällen wurden im öffentlichen Straßenverkehr mitunter Bußgeldbescheide verteilt, was damit begründet wurde, dass der „BRD“-Aufkleber mit einem fremden Nationalitätskennzeichen verwechselt werden könnte. Dagegen brachten im Zuge der Wende im Herbst 1989 DDR-Bürger ihr Streben nach nationaler Einheit mit der Umwandlung ihres DDR-Schilds in ein D-Schild durch Tilgung des ersten und letzten Buchstabens zum Ausdruck. Internationale Abkürzungen International waren und teilweise sind die entsprechenden Abkürzungen wie FRG (für Federal Republic of Germany) im Englischen und RFA (République Fédérale d’Allemagne) im Französischen üblich. Die russische Abkürzung ФРГ (für Федеративная Республика Германия, Federatiwnaja Respublika Germanija) ist auch heute noch sehr gebräuchlich. Für das vereinigte Deutschland haben sich verschiedene Abkürzungen durchgesetzt: D: als Kfz-Nationalitätszeichen und ziviles Luftfahrzeugkennzeichen, DE (neben DEU Landescode des internationalen Standards ISO 3166): im Internet und internationalen Adressen (z. B. in Luftfrachtbriefen) GER (offizielles Mannschaftskürzel des IOC; ): bei internationalen Sportereignissen. Heutige Verwendung Seit dem Ende des Kalten Krieges Ende des 20. Jahrhunderts und mit der deutschen Wiedervereinigung hat die Diskussion um die Abkürzung BRD ihre Brisanz verloren. So setzt der Duden seit den 1990er-Jahren „BRD“ mit „Bundesrepublik Deutschland“ gleich, während er aber darauf hinweist, dass es sich um eine „nicht amtliche Abkürzung“ handelt. Seitdem verwendet zuweilen auch die dem Bundesinnenministerium unterstellte Bundeszentrale für politische Bildung auf ihren Webseiten und bei der Veröffentlichung wissenschaftlicher Publikationen die in ihrer Vergangenheit nicht unumstrittene Abkürzung BRD. Regelmäßig wird die Abkürzung auch in den Medien verwendet, z. B. in der Frankfurter Allgemeinen Zeitung, in der Süddeutschen Zeitung oder in der Welt, auch wenn sie sich inzwischen auf das vereinte Deutschland bezieht. Der Begriff „alte BRD“ tauchte in den Medien ungefähr ab dem Jahr 2000 als Verweis auf die Bundesrepublik Deutschland vor 1990 auf, welche sich nicht nur geografisch, sondern auch in der Ausprägung der Sozialen Marktwirtschaft von der Bundesrepublik des 21. Jahrhunderts unterscheidet. Zum Beispiel waren viele Unternehmen, die der Versorgung der Bevölkerung dienen, noch nicht privatisiert, sondern Bundes-, Landes- oder kommunales Eigentum (z. B. Bundespost, Bundesbahn, Krankenhäuser). Rechtsextreme Verwendung Gelegentlich wird heute von Rechtsextremisten wie Horst Mahler sowie von Nationalisten die Abkürzung BRD verwendet, um darzustellen, dass aus ihrer Sicht die Bundesrepublik Deutschland zum einen nur einen Teil Deutschlands (jenes in den Grenzen von 1937) umfasse – in revanchistischen Kreisen misst man dem deutsch-polnischen Grenzvertrag zu den ehemaligen deutschen Ostgebieten von 1990 keine Bedeutung zu – und zum anderen kein souveräner Staat sei, sondern lediglich eine „Organisationsform einer Modalität der Feindmächte des Deutschen Reiches“ (OMF-BRD) – in Anlehnung an den von Carlo Schmid 1948 geprägten Begriff der „Organisationsform einer Modalität der Fremdherrschaft“. Darüber hinaus wird das Kürzel verwendet in Darstellungen, die die Bundesrepublik als illegitimen Staat ansehen, dessen Regierung so genannte „Kommissarische Reichsregierungen“ gegenübergestellt werden, z. B. als „BRD GmbH“. Ähnlicher Streitfall Eine vergleichbar ideologisch geführte Diskussion gab es um die Begriffe Berlin (West), West-Berlin und Westberlin mit der Abkürzung WB. Die in Berlin (West) und der Bundesrepublik Deutschland („Westdeutschland“) benutzte Klammerkonstruktion sollte die Einheit der Stadt Berlin, die in zwei Teile geteilt war, klarstellen. Seitens der DDR wurde durch die Zusammenschreibung „Westberlin“ versucht, den Eindruck eines eigenständigen geografischen (wie z. B. Westindien) und politischen Gebietes („Selbständige politische Einheit Westberlin“) zu schaffen, und dieses von Berlin, Hauptstadt der Deutschen Demokratischen Republik abzugrenzen. Ebenso ergab sich eine politische Debatte um den Begriff „Westdeutschland“ oder auch hinsichtlich dessen, dass die DDR nicht Ausland zur Bundesrepublik sein könne, sowie um die Abkürzung „DDR“, die z. B. in der Springer-Presse vor dem 2. August 1989 nur in Anführungszeichen verwendet wurde. Literatur Weblinks Einzelnachweise Politik (Deutschland) Sprache (DDR)
524
https://de.wikipedia.org/wiki/Berlin-Alt-Treptow
Berlin-Alt-Treptow
Alt-Treptow ist ein Ortsteil und einer der Namensgeber des Bezirks Treptow-Köpenick in Berlin. Alt-Treptow grenzt im Südwesten an den Ortsteil Neukölln, im Nordwesten an Kreuzberg, im Nordosten an Friedrichshain sowie nach Südosten an Plänterwald. Es ist ein alter Knotenpunkt der Straßen-, Wasser- und Schienenwege der Stadt Berlin. Geschichte Ursprung und Entwicklung In dem Gebiet sind einige Spuren von Jägern und Sammlern aus der Mittelsteinzeit überliefert. Eines der ältesten Spuren ist eine facettierte Hammeraxt aus dem Neolithikum, die im Schlesischen Busch gefunden wurde. Die Facettierung weist darauf hin, dass sie der mitteldeutschen Schnurkeramik zuzurechnen ist. Eine erste dauerhafte Besiedlung des Gebiets im heutigen Alt-Treptow konnte auf das 6. oder 7. Jahrhundert von Slawen (Wenden) datiert werden. Der Name bezog sich anfangs wohl auf die Flusserweiterung südlich des Rummelsburger Sees und hatte verschiedene Varianten (Trebow, Trebkow, Trebikow, Trepkow). Im Laufe der Zeit ging die Bezeichnung auf eine Fischereisiedlung über, die sich in dem waldreichen Gebiet an einer fischreichen Stelle angesiedelt hatte. Die Bewohner nannten die Siedlung ausweislich einer Kämmereirechnung aus dem Jahr 1568 Der Trebow. Einige Quellen führen als Ursprung für den Wortstamm die slawischen Worte „drewo“ (‚Laubholz‘) bzw. „drewko“ (‚kleines Laubholz‘) an, während andere Quellen auf das Wasser („Treptau“) abzielen. Überlieferungen zufolge befindet sich heute an der Stelle das Gasthaus Zenner. Die Rechnung führt weiterhin aus, dass die Bewohner für das Recht, Fischerei zu betreiben, 24 Groschen Wasserzins und 32 Groschen Heidegeld für die Bienenzucht an die Stadt entrichten mussten. 1590 führt ein Protokoll der Stadt aus: „An Trebkow […] hat der Rath zu Cölln ein Heußlein und an dem Fließ, so von Rixdorf in die Spree gehet, zwo mehr“. Weitere Ansiedlungen sind nicht bekannt, zumal die Gegend vor der Stadtmauer als unsicher galt. Der Floßgraben, später als Landwehrgraben bezeichnet, heute verläuft dort der Landwehrkanal, bildete die Stadtgrenze von Berlin und diente zur Entwässerung der Feldmark. Südlich dieses Grabens erstreckte sich die Köllnische Heide, früher auch Mirica genannt. Markgraf Otto III. von Brandenburg hatte dieses Gebiet entlang der Spree mit allen Rechten und Nutzungen der Bürgerschaft Kölln als vererbbaren Besitz überschrieben, verfügte die damals noch junge Stadt über wenig Bauholz. Zum nördlichen Teil, auch Vorderheide oder Birkheide genannt, gehörte auch das heutige Alt-Treptow; der südliche Teil, einschließlich der 1435 vom Johanniterorden erworbenen Spreeheide (auch Hinterheide genannt) dehnte sich bis zum Köpenicker Forst aus, die Grenze bildete das sogenannte Kannefließ. Dieses Gebiet entspricht ungefähr dem heutigen Ortsteil Baumschulenweg. Bei der Vereinigung von Alt-Berlin, Kölln, Friedrichswerder, Dorotheenstadt und Friedrichstadt zur Königlichen Haupt- und Residenzstadt Berlin 1709 kam die bis dahin auch als Stadtforst bezeichnete Köllnische Heide zu Berlin. Vorwerk Treptow Um 1261 überließ der Ritter Rudolf von Stralau das Vorwerk Treptow, als dessen Vorbesitzer Templer genannt werden und das bis ins 19. Jahrhundert noch als Burgwall bezeichnet wurde, der Stadt Kölln. 1568 findet es sich dort auf einer Kämmereirechnung unter dem Namen Trebow, mit der die Existenz eines Fischerhauses belegt wird. Dieses lag vermutlich an der Mündung des bis heute existierenden Heidekampgrabens und war wahrscheinlich auch der Fischereibetrieb, der ab 1602 von der Stadt Kölln getragen wurde und die dort einen Fischer anstellte. Im 17. Jahrhundert finden sich in den Kämmereirechnungen der Stadt Kölln keine Erwähnungen, sodass zu vermuten ist, dass dieser Betrieb im Zuge des Dreißigjährigen Kriegs aufgegeben wurde. Stattdessen eröffnet 1653 Erdtmann Schmoll, kurfürstlicher Küchenmeister, einen Wein- und Bierausschank. 1707 kam es durch den ehemaligen Köllner Bürgermeister Johann Lauer zu einer Neuansiedlung mit Stallung, Scheune und Nebengebäude; dieser Flecken wurde als Vorwerck Trepkow oder Vorwerk Treptow bezeichnet. Er plante, die Siedlung für die kommenden neun Jahre für eine Pacht von 40 Talern pro Jahr zu bewirtschaften. Aus gesundheitlichen Gründen musste er die Siedlung nach vier Jahren jedoch wieder abgeben, woraufhin der Magistrat einen anderen Pächter suchen musste. 1727 eröffnete der damalige Förster einen weiteren Bierausschank und trug damit dem Trend Rechnung, dass immer mehr Berliner die Region vor den Toren der Stadt für Ausflüge und zur Freizeitgestaltung nutzten. 1730 war die Ansiedlung schon erweitert um ein Backhaus, ein Brauhaus und eine Windmühle. Vier Jahre später erweitere der Förster das Gebäude, die Spreebudike, um eine Kegelbahn, eine Kaffeeschenke und ein zweites Stockwerk. Auf diesem Areal stand später auch das Gasthaus Zenner. Erweitert um sechs Grundstücke, die 1779 Siedlern zugesprochen wurden, wurde die Ansiedlung als Kolonie Treptow bezeichnet. Die Kolonisten betrieben ebenfalls Ausflugslokale und prägten das geflügelte Wort „Hier können Familien Kaffee kochen“. Bereits 1752 entstanden am damaligen Floßgraben auf der Treptower Seite zwei Lohmühlen (Lutze und Busset) im Gebiet der heutigen Lohmühlenstraße. Diese war damals eher ein ausgetretener Pfad, der sich 1783 erstmals als Kohlhorstweg auf einer Karte eingezeichnet findet, vom Schlesischen Tor nach Rixdorf führend. Gutsbezirk Treptow Das Gebiet trug 1808 die amtliche Bezeichnung Gutsbezirk Treptow. Hierzu gehörten das Alte Vorwerk aus dem Jahr 1779, die drei Doppelhäuser der sächsischen Kolonisten sowie die Gaststätte Spreebudike. Dieser Komplex wurde 1817 aufgelöst; dort entstand 1821/1822 das Magistrats-Kaffeehaus Treptow, später dann das heutige Zenner. Im Jahr 1823 beschloss der Magistrat, große Teile der Köllnischen Heide abzuholzen. Als Grund gab man an, dass der Forst unrentabel geworden sei und darüber hinaus der Diebstahl an Bau- und Brennholz überhand genommen habe. Die Kämmereikasse erhoffte sich Einnahmen in Höhe von rund 100.000 Talern; offiziell überliefert sind 99.825 Taler, während andere Quellen von nur 83.325 Talern sprechen. Ausgenommen wurden nur der Schlesische Busch und der Alte Treptower Park. Die freigewordenen Flächen wurden anschließend vom Magistrat vermarktet, wobei es hier zu Grundstücksspekulationen gekommen sein soll. Bauern, die auf den zuvor kommunalen Flächen Ackerbau und Viehzucht betrieben hatten, beriefen sich auf ein Gewohnheitsrecht und forderten vom Magistrat Ersatzansprüche. 1840 war die Rodung abgeschlossen, und da in der Folge die privaten Grundstücke auch erschlossen werden mussten, wurden 1842 erstmals Straßen benannt: der Lohmühlen-Weg (heute: Lohmühlenstraße), der nach der Familie Bouché benannte Bouché-Weg (heute: Bouchéstraße), der Kiefholz-Weg (heute: Kiefholzstraße), die Elsen-Allee (heute: Elsenstraße), die Treptower Allee (heute: Puschkinallee), die Park-Allee (heute: Bulgarische Straße) und die Neue-Krug-Allee. Der Bereich westlich der Köpenicker Landstraße (heute: Am Treptower Park) bis zu den später gelegten Eisenbahngleisen und zwischen Elsen-Allee und Bouché-Weg wurde als Exerzierplatz für die Berliner Garnison der Preußischen Armee genutzt. Wald, Heide und die Spree waren schon seit dem 18. Jahrhundert Anziehungspunkte für Ausflügler aus Berlin. Seit 1864 gab es dann auch Dampfschifffahrten zwischen der Anlegestelle Jannowitzbrücke und Treptow. Das Gasthaus Zenner entwickelte sich zu einem Sammelpunkt der Ausflügler, weitere Kaffee-, Bier- und Gartenlokale kamen hinzu und Treptow wurde zu einem beliebten Ausflugsziel der Berliner. Als Wohnort war der Gutsbezirk Treptow jedoch lange Zeit nicht beliebt, da der Untergrund sich nicht zum Bauen eignete. Treptow liegt im Tal der Oberspree und ist Teil des Berliner Urstromtals. Es gab zur damaligen Zeit noch alte vertorfte Spreearme und sumpfigen Boden. Im Herbst und Frühjahr waren große Teile Überschwemmungsgebiet. Straßen und Bahnstrecken wurden deshalb auf Dämmen geführt. Dies änderte sich mit der Rodung der Köllnischen Heide. Erstmals findet sich 1842 die Bezeichnung Lohmühlenweg in einem amtlichen Dokument. Die nach der Abholzung der Köllnischen Heide entstehenden Grundstücke waren vom Boden her gut für den Pflanzenanbau geeignet, sodass sich entsprechende Betriebe ansiedelten. Um 1875 waren auf dem Gebiet zwischen der heutigen Lohmühlen- und der Elsenstraße, westlich des Exerzierplatzes und der Berlin-Görlitzer Bahnlinie, die in den 1860er Jahren gebaut wurde, hauptsächlich Gärtnereien angesiedelt. Östlich der Bahnlinie, an der heutigen Jordanstraße, befanden sich die Gebäude der 1850 gegründeten Chemischen Fabrik von Dr. phil. Jordan, dem ersten Industriebetrieb Treptows. Später hatte die Actien-Gesellschaft für Anilin-Fabrikation (Agfa) dort ihren Sitz. Zwischen der Treptower Chaussee und der Spree, nach Norden hin am Landwehrkanal gelegen, siedelte sich 1859 die Fabrik für Landmaschinen von Carl Beermann an. Seine Söhne, die Gebrüder Hermann und Georg Beermann, verlegten 1872 den erweiterten Firmensitz in die Eichenstraße. 1924 wurde die Beermannsche Fabrikationsstätte von der Allgemeinen Berliner Omnibus-Aktien-Gesellschaft (ABOAG) übernommen und für den Bau und die Reparatur von Autobussen genutzt. An diese evangelische Unternehmerfamilie jüdischer Herkunft erinnerte von 1904 bis 1938 die Beermannstraße, die seit 1947 wieder diesen Namen trägt. Nach 1860 übernahm die Lederfabrik Kampffmeyer (später: Firma Dr. M. J. Salomon & Co.) eine der beiden dort vorhandenen Lohmühlen, nämlich die Bussetsche Lohmühle. Die 1866 als Handwerksbetrieb gegründete Firma Ehrich & Graetz stellte bis 1902 vor allem Petroleumlampen her und entwickelte sich zu einem international gefragten Unternehmen für Gasbeleuchtungstechnik und Gasbrenngeräte. Mit ihren Grätz-Laternen trug die Firma maßgeblich zur ersten Berliner Straßenbeleuchtung bei. Von 1907 bis 1962 trug die bedeutendste Einkaufsstraße Alt-Treptows den Namen Graetzstraße, nunmehr erinnert diese an den 1943 hingerichteten Treptower Arbeiter und Widerstandskämpfer Karl Kunger. Landgemeinde Treptow Am 22. Januar 1876 wurde der Gutsbezirk Treptow durch einen königlichen Erlass in die Landgemeinde Treptow umgewandelt, die dem Landkreis Teltow angehörte. Das Gebiet entsprach etwa den heutigen Ortsteilen Treptow, Plänterwald und Baumschulenweg. 1876 bestand die Landgemeinde aus 37 Grundstücken und hatte 567 Einwohner. Die seit der Mitte des 19. Jahrhunderts entstandenen ersten Industrieansiedlungen brachten zusätzliche finanzielle Mittel, sodass Treptow nicht nur vom Ausflugsverkehr profitierte. Zwischen 1876 und 1878 legte Gustav Meyer den Treptower Park an. Aufgrund der gestiegenen Popularität der Landgemeinde wurde 1878 eine Pferdebahn vom Spittelmarkt bis nach Alt-Treptow eingerichtet. Im Zuge der Vorbereitung der Großen Berliner Gewerbeausstellung 1896 kam es in der Landgemeinde Treptow zu zahlreichen Infrastrukturänderungen und -verbesserungen. Viele Straßen wurden angelegt und befestigt, der öffentliche Nahverkehr wurde ausgebaut. Im Jahr 1895 wurde zwischen Treptow und Stralau, etwas nördlich von der heutigen Insel der Jugend, der eingleisige Spreetunnel Stralau–Treptow gebaut. Er war ein erster Versuch für den Bau einer städtischen Untergrundbahn in Berlin. Der Tunnel hatte eine Länge von 454 Metern, davon verliefen 200 Meter unter der Spree; der tiefste Punkt der Röhre lag zwölf Meter unter dem Wasserspiegel. Am 17. Juli 1899 fand eine erste Probefahrt statt, am 18. Dezember wurde der reguläre Betrieb der sogenannten Knüppelbahn aufgenommen. 1931 wurde der Bahnverkehr wegen gefährdeter Verkehrssicherheit eingestellt. Danach durfte der Tunnel noch von Fußgängern benutzt werden, im Zweiten Weltkrieg diente er als Luftschutzraum. Am 26. Februar 1945 wurde er zerstört und geflutet. Aus Anlass der Gewerbeausstellung wurde auch eine (zunächst nur temporär vorgesehene) Sternwarte gebaut, ausgestattet mit dem bis heute längsten Linsenfernrohr der Welt (21 Meter Länge). Sie wird nach ihrem Mitgründer Friedrich Simon Archenhold Archenhold-Sternwarte genannt. In der Lohmühlenstraße 52 entstand 1899 zwischen der Heidelberger Straße und der Isingstraße das Gebäude, in dem sich bis 1945 das Postamt Berlin SO 36 befand. Es war für fast den gesamten Ortsteil Treptow und große Teile von Kreuzberg zuständig und wurde im Zweiten Weltkrieg zerstört. Im nördlichen Teil wurden in der zweiten Hälfte des 19. Jahrhunderts die Mietshäuser des Wilhelminischen Rings gebaut. Ebenfalls 1899 zog die Lampen-Fabrik Ehrich & Graetz OHG in den neu gebauten Gebäudekomplex in der Elsenstraße um. Von 1902 bis 1903 wurde der Rixdorfer Stichkanal ausgehoben, der an der heutigen Lohmühlenbrücke begann und bis zur Ringbahn verlief. 1912–1913 wurde er bis zum Teltowkanal verlängert und heißt heute Neuköllner Schifffahrtskanal. Durch den Bau des Kanals senkte sich der Grundwasserspiegel um durchschnittlich etwa zwei Meter, teilweise mehr. Durch die Inbetriebnahme von vielen Tiefbrunnen sank das Grundwasser noch weiter. Der Standort wurde für die Gärtnereien aufgrund der gestiegenen Bewässerungskosten wirtschaftlich uninteressant, die Grundstücke ließen sich jedoch gewinnbringend als Gewerbeflächen oder Bauland verkaufen. Nachdem innerhalb kurzer Zeit viele Gärtnereien ihre Betriebe verlegt oder aufgegeben hatten, entstanden an der Lohmühlenstraße Holzlagerplätze, Sägewerke, Zimmereien und Baustoffgroßhandlungen, später auch Kohlenlagerplätze der Hedwigshütte Kohlen- und Kokswerke AG. Die Lage am Landwehrkanal war gut geeignet, die Bau- und Brennstoffe bis in die Nähe des Stadtkerns zu transportieren. Die Metallwaren- und Laternenfabrik Fritz Weber & Co. als „Laternen-Weber“ bekannt, begann 1907 in der Graetzstraße 68 (heute Karl-Kunger-Straße) mit der Produktion. Auch der Fabrikkomplex an der Jordanstraße entwickelte sich weiter. 1901 wurden die noch bestehenden Gebäude zwischen der Jordanstraße und dem Görlitzer Damm, zur Lohmühlenstraße hin, erbaut. 1905 waren bei der Agfa Treptow fast 2000 Arbeitnehmer beschäftigt. Im Ersten Weltkrieg wurde dort unter anderem auch Giftgas hergestellt. Um die Jahrhundertwende begann die Verlagerung großer Teile der Produktion in die Agfa-Film- und Farbenfabrik in Wolfen bei Bitterfeld. Ab 1908 wandelte sich der Exerzierplatz zwischen Elsenstraße und Bouchéstraße in ein Kasernengelände für die Kavallerie-Telegraphen-Schule und das Königlich-Preußische Telegraphen-Bataillon Nr. 1. Bildung des Bezirks Treptow Die Landgemeinde Treptow hatte auf Grund ihres starken Wachstums finanzielle Probleme, vor allem durch die notwendig werdenden Infrastrukturmaßnahmen (Wasser, Abwasser, Elektrizität, Verkehr). Bereits im Juli 1902 kam es zur Unterzeichnung eines Anschlussvertrags zwischen der Stadt Berlin und der Gemeinde Treptow. Darin wurde geregelt, dass Treptow die Berliner Rieselfelder im Bereich Osdorf nutzen darf. Die notwendigen Erschließungs- und Anschlussarbeiten wird Treptow als Gegenleistung selbst ausführen. In den Folgejahren verstärkte sich der Wunsch zur Eingemeindung von Treptow nach Berlin. Nach dem Ersten Weltkrieg verschärften sich diese Probleme zusehends. Im Jahr 1920 wurde der Bezirk Treptow gebildet und nach Groß-Berlin eingemeindet. Er reichte südlich bis Bohnsdorf. Der Ortsteil Treptow umschloss dabei das Gebiet zwischen Kreuzberg, Neukölln, Stralau und der Ringbahn zuzüglich des Treptower Parks. Dieser Ortsteil erhielt 2001 nach der letzten Berliner Verwaltungsreform die Bezeichnung Alt-Treptow. Zwischen den Weltkriegen Auf dem Kasernengelände, nach dem Ersten Weltkrieg formal dem Berliner Polizeipräsidenten unterstellt, wurde in den 1920er Jahren die Berliner Polizei untergebracht. Im Jahr 1925 erwarb die Allgemeine Berliner Omnibus-Actiengesellschaft (ABOAG) ehemalige Hallen der Landmaschinenfabrik der Gebrüder Beermann und nutzten diese dann als Betriebshof für den Omnibusbetrieb. Das Gelände zwischen der Hoffmannstraße und der Spree gegenüber dem Bahnhof Treptow diente bis 1926 als Holzlagerplatz der Firma Kempfer und Lucke. Danach wechselte es den Besitzer und der AEG-Konzern errichtete dort das Apparatewerk Treptow. Im Agfa Firmenkomplex verblieben in den 1930er Jahren noch Agfa-Foto und Verkaufseinrichtungen des I.G.-Farben-Konzerns. Ab 1934 zog dort die Waffenfabrik Treptow der Gustav Genschow & Co. AG ein. Nach der Machtergreifung der Nationalsozialisten wurde auf dem Gelände der Kaserne die Heereswaffenmeisterschule der Wehrmacht untergebracht, die hier Waffen und Munition zur Panzerabwehr erprobte. Die Kistenfabrik Reschke übernahm 1931 den Standort der Dr. M. J. Salomon & Co. Von 1935 bis 1940 entstand an der Ecke Kiefholz-/Lohmühlenstraße ein neuer Fabrikkomplex für das Unternehmen Fritz Weber & Co. Weber selbst war Wehrwirtschaftsführer und Mitglied der NSDAP. Unter anderem fertigten hier mehr als 2300 Arbeiter und Angestellte Kriegsmaterialien. Auch Zwangsarbeiter wurden beschäftigt, die aus den ebenfalls in der Lohmühlenstraße gelegenen Zwangsarbeiterlagern (Ostarbeiterlager Lohmühlenstraße 23/24 und Ausländerlager Lohmühlenstraße 55) rekrutiert wurden. Der Zweite Weltkrieg Zum Ende des Zweiten Weltkriegs, bei den Kämpfen um die deutsche Hauptstadt, erfolgten am 21. Juni 1944 und 3. Februar 1945 amerikanische Luftangriffe. Um das schnelle Vordringen der Roten Armee in das Zentrum Berlins zu verlangsamen, sprengten deutsche Wehrmachtsangehörige am 23. oder 24. April 1945 die Wiener Brücke (letzte Straßenbahnfahrt am 21. April 1945). Bis zum 26. April tobten die letzten Kämpfe in Treptow um die Lohmühlenstraße und Umgebung. Zeit der DDR Im Treptower Park befindet sich das ab dem 1. Mai 1946 und 1949 angelegte Sowjetische Ehrenmal, das am 8. Mai 1949 eingeweiht wurde. Die sowjetische Denkmal-Bauverwaltung hatte sich in dem nahen Kasernengelände Am Treptower Park bis 1951 einquartiert. Polizeikräfte waren ebenfalls wieder auf dem Gelände stationiert; nach 1949 die Volkspolizei. Im Jahr 1962 übernahmen die DDR-Grenztruppen die Kaserne. Die Gebäude des Apparatewerks Treptow der AEG dienten in der DDR dem Stammbetrieb des Volkseigenen Kombinats Elektro-Apparate-Werke Berlin-Treptow (EAW). Im ehemaligen Agfa-Firmenkomplex an der Jordanstraße waren nach der Waffenfabrik Treptow später der VEB Steremat und Abteilungen des Großhandelsbetriebs Sport und Kulturwaren ansässig. Der Rüstungsbetrieb Weber wurde nach 1945 enteignet. In dem Komplex Lohmühlen-/Kiefholzstraße siedelte sich der Fertigungsbereich 3 des VEB Berliner Werkzeugmaschinenfabrik (BWF) an. Im Jahr 1954 wurde am Ufer der Spree der Hafen Treptow angelegt, die Reederei der Ost-Berliner Weiße Flotte betrieb von hier aus wieder Fahrgastschiffe. Am 13. August 1961 wurde die Grenze zwischen Alt-Treptow und den West-Berliner Bezirken Kreuzberg und Neukölln hermetisch abgeriegelt. Zwischen dem 13. und 23. August 1961 gab es für zehn Tage an der Puschkinallee und an der Elsenstraße Grenzübergänge nach Kreuzberg bzw. Neukölln. Die Berliner Mauer verlief, um wenige Meter nach hinten versetzt, entlang des Flutgrabens, des Landwehrkanals, der Harzer Straße, der Bouchéstraße, der Heidelberger und der Treptower Straße zur Kiefholzstraße. Kurioserweise lag das nordwestlichste Gebäude des Bezirks, die Fischerei an der Oberen Freiarchenbrücke, somit jenseits der Mauer und war nur vom Westen aus zugänglich. Die Mauer Die Wachtürme waren so angeordnet, dass der Todesstreifen von dort aus durchgängig einzusehen war. Als einer der wenigen in der Stadt ist der – eher untypische – Turm der ehemaligen Führungsstelle im Schlesischen Busch erhalten geblieben. An der Görlitzer Bahn erlaubte ein Tor in der Mauer den Transit von Güterwagen zwischen dem in Neukölln gelegenen Güterbahnhof Berlin-Treptow und auf dem Gelände des Görlitzer Bahnhofs verbliebenen Gewerbebetrieben. Dieser Übergang war mit einer Beschaubrücke und zwei flankierenden Wachtürmen gesichert. Der Streifen zwischen dem Kanal und der Mauer wurde, insbesondere im etwas breiteren Abschnitt zwischen der über den Flutgraben führenden Treptower Brücke und der Bahntrasse, von den mit Grünanlagen damals nicht verwöhnten Kreuzbergern gern zum Sonnenbaden, in den letzten Jahren des Bestehens der Mauer sogar als wilder Zeltplatz, genutzt. Der provisorische Fußgängersteg an der Stelle der ehemaligen Wiener Brücke verlor mit dem Mauerbau seine Funktion. Die Balkone der auf dieser Seite der Lohmühlenstraße stehenden Häuser öffneten sich zum Todesstreifen hin bzw. ragten in diesen hinein. Am Lohmühlenplatz wurde dem Westteil der Stadt 1988 im Rahmen eines Gebietsaustauschs zwischen der DDR und West-Berlin ein Stück des Bezirks abgetreten, was für West-Berliner über die Lohmühlenbrücke eine bessere Zufahrt zum Neuköllner Gebiet um die Harzer Straße ermöglichte. Am 11. Juni 1962 gelang 55 Ost-Berlinern die Flucht durch einen etwa 75 m langen Tunnel, der von einem Lokal an der Heidelberger Ecke Elsenstraße gegraben worden war. Dieser Tunnel wurde im Oktober 2004 bei Bauarbeiten wiederentdeckt. Auch andere Fluchtwillige nutzten die günstige Lage des schmalen Todesstreifens an der beidseitig bebauten Heidelberger Straße. So gelang am 17. März 1962 eine Flucht mit Hilfe einer Leiter, 1963 wurde bei einem Fluchtversuch mit einem Schützenpanzer der Flüchtende durch Schüsse schwer verletzt. Eine spektakuläre Flucht gelang 1983 über die Bouchéstraße an einem Seil von Haus zu Haus. Nahe der Kiefholzstraße Ecke Treptower Straße befand sich das zweite, ebenfalls streng bewachte Tor für die Übergabezüge nach Kreuzberg. Nach dem Mauerfall Nach dem Mauerfall wurde 1990 das Kasernengelände zwischen Elsenstraße und Bouchéstraße von der Bundeswehr übernommen. In einem Teil der Kaserne wurden Asylsuchende untergebracht. Von 1996 bis 1999 wurden die Gebäude der Kaserne denkmalgerecht saniert, seitdem ist ein Teil des Bundeskriminalamtes und des Verfassungsschutzes dort untergebracht. Die Hallen der ehemaligen Landmaschinenfabrik Gebrüder Beermann dienten noch bis 1993 als Betriebshof für Berliner Omnibuslinien, sie tragen inzwischen den Namen Arena Berlin und werden als Ort für Großveranstaltungen genutzt. Der Industriekomplex Lohmühlen-/Kiefholzstraße südlich der Lohmühleninsel wurde nach 1990 rekonstruiert und steht unter Denkmalschutz. Dort haben sich Firmen aus dem Bereich des Kommunikationsdesigns angesiedelt. 1992 erfolgte die Sanierung des denkmalgeschützten Agfa-Komplexes an der Jordanstraße durch eine private Stiftung. Der Hafen Treptow ist seit der Wiedervereinigung Berlins Sitz des Schifffahrtsunternehmens Stern und Kreisschiffahrt, zu DDR-Zeiten Weiße Flotte. Die letzten russischen Truppen wurden 1994 im Treptower Park verabschiedet. 1997 wurde der Ortsteil Plänterwald gebildet. Dafür trat Alt-Treptow mehr als zwei Drittel seines Gebietes an diesen Ortsteil ab. Ebenfalls in den 1990er Jahren wurden die Treptowers anstelle des Hauptgebäudes der AEG-Elektroapparatewerke Treptow errichtet, deren höchstes Gebäude mit 17 Stockwerken und 125 m Höhe die Traufhöhe der umliegenden Bebauung deutlich übersteigt und damit eine Landmarke in diesem Gebiet darstellt. Zwischen 2000 und 2003 erhielt der Ortsteil an der Straßenkreuzung Elsenstraße /Am Treptower Park ein Einkaufscenter (Park-Center) südlich und das Multiplex-Kino nördlich von Am Treptower Park. Hinter den Gebäudekomplexen blieb die Reservefläche für die Ausfahrt Treptower Park vom 16. Abschnitt der Stadtautobahn A 100 frei, die bei der Fortführung des Autobahnbaus zur Anschlussstelle wird. Das Museum des Kapitalismus wurde 2014 gegründet. Bevölkerung Quelle ab 2007: Statistischer Bericht A I 5. Einwohnerregisterstatistik Berlin. Bestand – Grunddaten. 31. Dezember. Amt für Statistik Berlin-Brandenburg (jeweilige Jahre) Verkehr Der Bahnhof Treptower Park an der Berliner Ringbahn ist der einzige S-Bahnhof des Ortsteils. Mehrere Buslinien der BVG erschließen Alt-Treptow. Durch den Nordosten des Ortsteils verläuft die Bundesstraße 96a. Derzeit wird die Berliner Stadtautobahn durch den Ortsteil gebaut, die an der B 96a eine Anschlussstelle erhalten soll. Dazu sind 2015 die letzten Mieter der Beermannstraße 22 und 24 nach langem Protest ausgezogen und die beiden Häuser abgerissen worden. Söhne und Töchter des Ortsteils Arthur Stellbrink (1884–1956), Radrennfahrer Curt Froboese (1891–1994), Pathologe Erna Hosemann (1894–1974), Verbandsfunktionärin Hans Klakow (1899–1993), Bildhauer Bodo Schulz (1911–1987), Gewerkschafter Gunther S. Stent (1924–2008), Molekularbiologe Alexander Schalck-Golodkowski (1932–2015), Politiker (SED) Gabriele Beger (* 1952), Bibliothekarin Maren Gilzer (* 1960), Schauspielerin Jana Pallaske (* 1979), Schauspielerin Moritz Russ (* 2001), Synchronsprecher Siehe auch Liste der Straßen und Plätze in Berlin-Alt-Treptow Liste der Kulturdenkmale in Berlin-Alt-Treptow Liste der Stolpersteine in Berlin-Alt-Treptow Kinos im Ortsteil auf der Bezirksliste Literatur Helga Pett: Alt-Treptow in Berlin. Förderverein für das Heimatmuseum Treptow e. V., 2004 (auf Grundlage eines Manuskripts von Gerhard Hänsel). Judith Uhlig: Treptow – Geschichte der Berliner Verwaltungsbezirke. Stapp Verlag, 1995. Monika Becker, Ronald Friedmann, Anja Schindler: Juden in Treptow. Sie haben geheißen wie ihr heißt, Hrsg.: Kulturbund e. V. Berlin-Treptow, Edition Hentrich 1993. Weblinks Alt-Treptow. Bezirksamt Treptow-Köpenick Einzelnachweise AltTreptow Ort an der Spree
526
https://de.wikipedia.org/wiki/Berlin-Sch%C3%B6neberg
Berlin-Schöneberg
Schöneberg ist ein Ortsteil im Berliner Bezirk Tempelhof-Schöneberg. Schöneberg war bis 1920 eine eigenständige Stadt und geht auf eine mittelalterliche Dorfgründung im Bereich der heutigen Hauptstraße zurück. Geographie Schöneberg ist ein dicht bebauter innerstädtischer Ortsteil von Berlin und liegt am Übergang des Berlin-Warschauer Urstromtals zur Hochfläche des Teltow. Der damit verbundene Anstieg ist an mehreren Stellen im Ortsteil wahrnehmbar, vor allem auf der Hauptstraße zwischen U-Bahnhof Kleistpark und dem Richard-von-Weizsäcker-Platz. Auf Schöneberger Gebiet erstreckt sich außerdem der östliche Ausläufer eines Nebenarms der glazialen Rinne der Grunewaldseenkette, der im Rudolph-Wilde-Park gut sichtbar ist. Im Norden grenzt Schöneberg an den Ortsteil Tiergarten, im Osten an Kreuzberg und Tempelhof, im Süden an Steglitz, im Westen an Friedenau und Wilmersdorf sowie im Nordwesten an Charlottenburg. Geschichte Gründung und Namensherkunft Schöneberg wurde wahrscheinlich im ersten Drittel des 13. Jahrhunderts als breites Straßendorf durch deutsche Siedler gegründet. Der Siedlungskern Schönebergs lag entlang der Hauptstraße zwischen der heutigen Dominicus- und Akazienstraße. Die Dorfkirche Schöneberg lag auf der nördlichen Straßenseite der Dorfmitte. Das Dorf wurde urkundlich erstmals am 3. November 1264 erwähnt, als Markgraf Otto III. dem Nonnenkloster zu Spandau fünf Hufen Land im Dorf Schöneberg („villa sconenberch“) schenkte. Obwohl Schöneberg auf einer leichten Erhebung am Nordrand des Teltow liegt, geht der Name wahrscheinlich nicht auf diesen „Berg“ zurück, sondern ist ein sogenannter „Wunschname“. Anders als früher dargestellt war die deutsche Ostsiedlung nicht ausschließlich auf einen ostwärts drängenden Bevölkerungsüberschuss zurückzuführen. Um zum Zwecke der Herrschaftsbildung Siedler anzulocken, warben die Lokatoren für die zu gründenden Dörfer u. a. mit Wunschnamen. Typisch sind Ortsnamen mit Schön-, Licht-, Grün-, Rosen-, Sommer- und Reichen- in vielen Varianten. Eine Namensübertragung vom Heimatort der Zuzügler ist wenig wahrscheinlich, weil die Wunschnamen weit verbreitet waren. Im Landbuch Karls IV. (1375) wird Schonenberge/Schonenberch/Schonenberg mit 50 Hufen erwähnt, davon zwei Pfarrhufe und eine Kirchenhufe. Der Bürger Reiche (Ryke/Rike) aus Alt-Kölln und sein Bruder hatten zehn abgabenfreie Hufe, die sie selbst bewirtschaften, desgleichen der Köllner Bürger Parys mit zwölf Hufen. Die Rechte auf Abgaben und Leistungen waren unter zahlreichen Berechtigten stark aufgeteilt. Parys hatte offenbar die meisten Rechte. Es gab 13 Kossäten­höfe und einen Krug. In den Jahren 1591, 1652 und 1721 wurde ein Setzschulze erwähnt, zunächst mit vier, später mit drei Freihufen. 1652 endete die Grundherrschaft des Spandauer Nonnenklosters. Schöneberg von 1700 bis 1870 Um 1750 ließ Friedrich II. entgegen dem Willen der Schöneberger direkt anschließend an Schöneberg ein zweites Dorf für die Ansiedlung böhmischer Weber errichten. Dieses wurde Neu-Schöneberg genannt und erstreckte sich an der Hauptstraße bis zur heutigen Grunewaldstraße. Erst als im Siebenjährigen Krieg am 7. Oktober 1760 abziehende russische Truppen Schöneberg niederbrannten, kamen sich deutsche und böhmische Schöneberger näher, als zum Überleben nachbarschaftliche Hilfe notwendig war. Aber erst 1874 erfolgt unter Gemeindevorsteher Adolf Feurig der Zusammenschluss von Alt- und Neu-Schöneberg zu einer Gemeinde. Das große Feld war ein Gebiet östlich der heutigen Naumannstraße, auf dem Schöneberger Bauern Kartoffeln und Getreide anbauten. Es wurde 1828 vom preußischen Militär aufgekauft. 1830 wurde eine Pferderennbahn erbaut, die aber schon 1841 dem Eisenbahnbau weichen musste. In der Mitte des 19. Jahrhunderts wuchs die Stadt Berlin über ihre Grenzen in das Schöneberger Gebiet hinein. Trotz Protesten Schönebergs wurde auf Anordnung des Königs Wilhelm I. das Gebiet bis zum südlichen Ende der Potsdamer Straße zum 1. Januar 1861 nach Berlin eingemeindet und bildete dort fortan die Schöneberger Vorstadt. Die Einwohnerzahl Schönebergs sank durch diese Maßnahme von über 8.000 auf 2.700. Schöneberg im Kaiserreich Nach der Reichsgründung im Jahr 1871 stieg die Einwohnerzahl Schönebergs rasant an: 1871 waren es 4.555, im Jahr 1900 bereits 95.998 und im Jahr 1919 schon 175.093 Einwohner. Viele der ehemaligen Schöneberger Bauern wurden reich, indem sie ihre Felder in begehrtes Bauland umwandelten und verkauften. Man nannte sie die „Millionenbauern“. Innerhalb weniger Jahrzehnte wurde so aus einem märkischen Dorf eine Großstadt. Am 1. April 1898 bekam Schöneberg die lange ersehnten Stadtrechte verliehen. Exakt ein Jahr später schied es als Stadtkreis aus dem Landkreis Teltow aus. 1898 wurde Rudolph Wilde Bürgermeister (seit 1902 Oberbürgermeister). Unter Wilde gab es erste Planungen für den Bau des Schöneberger Rathauses auf der trockenen Fläche des Mühlenberges neben einem sumpfigen Fenn, das einige Jahre zuvor trockengelegt und zum „Stadtpark“ umgestaltet wurde. Zur Trockenlegung verwendeten die Ingenieure den Aushub aus den Baugruben der Schöneberger Untergrundbahn. Sie verlief als erste kommunale U-Bahn überhaupt mit fünf Stationen zwischen Nollendorf- und Innsbrucker Platz. Damit war Schöneberg nach Berlin die zweite Stadt in Deutschland mit einer U-Bahn. Die U-Bahn sollte die rasant wachsende Stadt und das gezielt für ein großbürgerliches Publikum konzipierte Bayerische Viertel vernetzen und die Attraktivität Schönebergs erhöhen. Sie wurde im Todesjahr Wildes 1910 fertiggestellt. Unter Wildes Nachfolger Alexander Dominicus kam 1914 der Rathausbau zum Abschluss, nachdem bereits zwei Jahre zuvor der Stadtpark fertiggestellt war. Der Rathausvorplatz bekam den Namen Rudolph-Wilde-Platz. Nach Entwürfen des langjährigen Stadtbaurats Paul Egeling und des Stadtbaurats Friedrich Gerlach entstanden zwischen 1895 und 1914 weitere bedeutende Bauten, darunter zahlreiche Schulen, Feuerwachen und Verwaltungsgebäude sowie das 1906 eröffnete Auguste-Viktoria-Krankenhaus (AVK). Im November 1910 wurde der Berliner Sportpalast des Architekten Hermann Dernburg an der Potsdamer Straße eröffnet, in dem ab 1911 die Sechstagerennen stattfanden. Die Halle wurde 1973 abgerissen. Stadt Berlin-Schöneberg Einen ersten Teil der Selbstverwaltungsrechte verlor Schöneberg wieder am 1. April 1912 mit der Einführung des Zweckverbandes Groß-Berlin, dessen Aufgabe die einheitliche Entwicklung von Verkehr, Bebauung und Erholungsfläche in seinem Gebiet war. Von 1912 bis 1920 lautete der amtliche Name der Stadt Berlin-Schöneberg. Zwischen den Weltkriegen Mit der Bildung von Groß-Berlin am 1. Oktober 1920 verlor Schöneberg seine Selbstständigkeit und bildete von da an gemeinsam mit Friedenau den 11. Berliner Verwaltungsbezirk „Schöneberg“. Die Berliner Gebietsreform mit Wirkung zum 1. April 1938 hatte zahlreiche Begradigungen der Bezirksgrenzen sowie einige größere Gebietsänderungen zur Folge. Das gesamte Gebiet südlich der Kurfürstenstraße gehörte nun wieder – wie schon bis 1861 – zu Schöneberg. Gleichzeitig wurde auch das bis dahin zu Charlottenburg gehörende Gebiet zwischen dem Nollendorfplatz und der Nürnberger Straße in den Bezirk Schöneberg eingegliedert. Von dem Schöneberger Gebiet östlich der Anhalter Bahn kam der Teil nördlich der Ringbahn, der seinerzeit bis etwa zur Gontermannstraße reichte, 1938 zu Tempelhof. Zweiter Weltkrieg Durch die alliierten Luftangriffe im Zweiten Weltkrieg wurden insbesondere der Norden und der Westen Schönebergs stark zerstört; rund ein Drittel des gesamten Wohnungsbestandes ging verloren. Historische Bekanntheit erlangte die berüchtigte Sportpalastrede von Propagandaminister Goebbels am 18. Februar 1943. In der Schlacht um Berlin wurde Schöneberg in den letzten Apriltagen 1945 von Truppen der Roten Armee eingenommen. Nachkriegszeit Schöneberg gehörte von 1945 bis 1990 zum amerikanischen Sektor von Berlin. Im Rathaus Schöneberg hatten während der Teilung Berlins das Berliner Abgeordnetenhaus und der Senat von West-Berlin ihren Sitz. Im Rathaus-Turm befindet sich die Freiheitsglocke, die von gesammelten Spenden der Zivilbevölkerung der USA für die Berliner gestiftet wurde. Das Rathaus, der Rudolph-Wilde-Platz und die darauf zulaufenden Straßen waren der Ort vieler Kundgebungen und des Staatsbesuches des US-Präsidenten John F. Kennedy. Dort hielt er am 26. Juni 1963 seine Rede mit dem berühmten Zitat „Ich bin ein Berliner“. Zu seinen Ehren wurde der Rudolph-Wilde-Platz im selben Jahr in ‚John-F.-Kennedy-Platz‘ umbenannt; der Stadtpark erhielt daraufhin den Namen Rudolph-Wilde-Park. Der Alliierte Kontrollrat für ganz Deutschland hatte seinen Sitz im Gebäude des Kammergerichts im Heinrich-von-Kleist-Park. Vom 8. Mai 1945 bis zur Gründung der beiden deutschen Staaten 1949 war dieser Kontrollrat die oberste Regierungsgewalt in Deutschland. Später war dort die „Alliierte Luftsicherheitszentrale“ untergebracht. Seit der deutschen Wiedervereinigung wird das Gebäude wieder für die höchsten Gerichte Berlins genutzt. Seit 1946 wurden aus Schöneberg die Rundfunkprogramme des RIAS Berlin (Rundfunk im Amerikanischen Sektor) gesendet. Zunächst als Drahtfunk aus dem Telegrafenamt in der Winterfeldtstraße, ab 1948 aus dem Funkhaus in der Kufsteiner Straße 69 am heutigen Hans-Rosenthal-Platz in der Nähe des Rudolph-Wilde-Parks. Bis 1990 war diese Informationsquelle für die DDR-Bevölkerung von großer Bedeutung und die Adresse sehr bekannt. Heute wird dort das Programm von Deutschlandradio Kultur produziert. Das Haus mit dem denkmalgeschützten „RIAS“-Schriftzug ist weit sichtbar. Bis 1959 befand sich an der Badenschen Straße in unmittelbarer Nähe zum Rathaus Schöneberg die Deutsche Hochschule für Politik, die jedoch mit ihrer Integration in das Otto-Suhr-Institut der Freien Universität Berlin nach Dahlem zog. Seit 1971 hat die neu gegründete Fachhochschule für Wirtschaft Berlin dort ihren Hauptsitz. Bis 1966 wurden mehr als 22.000 Wohnungen neu errichtet. Ende der 1970er Jahre sollten viele Altbauten entlang der Berlin-Potsdamer Eisenbahn dem geplanten Weiterbau der Westtangente weichen, was durch das Engagement der Anwohner verhindert werden konnte. Anfang der 1980er Jahre war die Gegend um den Winterfeldtplatz und die Potsdamer Straße einer der Hauptschauplätze der Auseinandersetzungen zwischen Hausbesetzern und der Berliner Polizei. Zwischen 1920 und Ende 2000 gab es einen eigenständigen Bezirk Schöneberg, der neben dem namensgebenden Ortsteil noch den Ortsteil Friedenau umfasste. Der Bezirk Schöneberg wurde am 1. Januar 2001 im Rahmen einer Verwaltungsreform mit dem damaligen Bezirk Tempelhof fusioniert. Da der Bezirk Tempelhof mehr Einwohner und eine größere Fläche als der Bezirk Schöneberg hatte, wurde Tempelhof bei der Wahl des Namens für den neu formierten Bezirk Tempelhof-Schöneberg an die erste Stelle des Namens gestellt. Bevölkerung Quelle: Statistischer Bericht A I 5. Einwohnerregisterstatistik Berlin. Bestand – Grunddaten. 31. Dezember. Amt für Statistik Berlin-Brandenburg (jeweilige Jahre) Sehenswürdigkeiten Stadtquartiere Schöneberg beheimatet mehrere Stadtquartiere und Ortslagen mit einer spezifischen Charakteristik oder Geschichte: Südöstliche City West In dem großstädtisch geprägten Quartier um den Wittenbergplatz und die Tauentzienstraße im Schöneberger Nordwesten dominiert der gehobene Einzelhandel, besonders in der Tauentzienstraße, mit zahlreichen Label-Stores und dem KaDeWe als deutschlandweit führendem Kaufhaus. Das Gebiet ist (ebenso wie die angrenzenden Teile von Tiergarten und Charlottenburg) Teil der Berliner City West. Der größte Teil der City West gehört allerdings zu Charlottenburg-Wilmersdorf. Die Bezeichnungen ‚Wittenbergplatz‘ und ‚Tauentzienstraße‘ erinnern an die Schlacht von Wittenberg unter General von Tauentzien während der napoleonischen Befreiungskriege. Erst mit der Berliner Gebietsreform zum 1. April 1938 wurde die Gegend um das KaDeWe zwischen Nürnberger Straße und Nollendorfplatz dem damaligen Bezirk Schöneberg zugeordnet. Vorher hatte sie zum Bezirk Charlottenburg gehört. Grund hierfür war eine Begradigung zahlreicher Bezirksgrenzen innerhalb Berlins. Bayerisches Viertel Im Schöneberger Westen liegt das Bayerische Viertel. Es wurde während der Amtszeit des Schöneberger Oberbürgermeisters Rudolph Wilde in den Jahren vor dem Ersten Weltkrieg erbaut. Schöneberg überließ die Entwicklung des Bayerischen Viertels der Berlinischen Bodengesellschaft, die 1890 von dem Unternehmer Salomon Haberland und seinem Sohn Georg gegründet wurde. In seinem Ursprungszustand prägten elegante Fassaden im süddeutschen Renaissancestil das Viertel, dessen Straßen teilweise nach bayerischen Städten benannt sind. Viele prominente Persönlichkeiten wie Albert Einstein lebten hier. Aufgrund seines hohen jüdischen Bevölkerungsanteils wurde das Bayerische Viertel auch „Jüdische Schweiz“ genannt. An die Verfolgung der Berliner Juden in der Zeit des Nationalsozialismus erinnert das Denkmal Orte des Erinnerns im Bayerischen Viertel, das seit 1993 an 80 Straßenbeleuchtungs­masten installiert ist. Das Bayerische Viertel wurde im Zweiten Weltkrieg stark zerstört und ist größtenteils im typischen Baustil der 1950er Jahre wiederaufgebaut worden. Kielgan-Viertel Das heute nur noch rudimentär erkennbare Kielgan-Viertel nördlich des Nollendorfplatzes war geprägt durch mehrere kleine Stichstraßen und eine Bebauung mit Landhäusern und Stadtvillen. Nach starken Kriegszerstörungen sind heute nur noch wenige der originalen Bauten erhalten, darunter die Villa Ahornstraße 4, in der sich die Botschaft von Kroatien befindet. Nollendorfkiez Im Nollendorfkiez um die Fuggerstraße, die Motzstraße und den Nollendorfplatz befinden sich zahlreiche Kneipen, Bars und Läden, die sich überwiegend an ein homosexuelles Publikum richten. Jährlich am dritten Wochenende im Juli findet in diesem Teil Berlins das homosexuelle „Motzstraßenfest“ statt, das mit einer Mischung aus Informationsständen gleichgeschlechtlicher Gruppen, Show-Bühnen sowie Imbiss- und Verkaufsbuden mittlerweile tausende Besucher anzieht und sich zu einer Touristenattraktion entwickelt hat. Die Gegend galt bereits in den Goldenen Zwanzigern als sogenanntes Schwulenviertel, eine Ortsteilgegend, die über eine dichte Infrastruktur und kulturelles Angebot für homo- und transsexuelle Menschen verfügt und auf diese Weise einen diskriminierungsarmen Raum für queere Menschen bieten soll. Einer der ersten Zeitzeugenberichte hierzu ist der autobiografische Roman Leb wohl, Berlin des britischen Autors Christopher Isherwood, der zweieinhalb Jahre in der Nollendorfstraße 17 wohnte, wo ein Großteil der Handlung des Buches spielt. Der Roman war unter anderem Vorlage für das Musical Cabaret. Die Gegend ist geprägt von teilweise komplett erhaltenen Straßenzügen der Gründerzeit und kaiserzeitlichen Schmuckplätzen, wie dem Winterfeldtplatz oder dem Viktoria-Luise-Platz. Hauptstraße und Akazienkiez Der Bereich der Hauptstraße zwischen Dominicusstraße und Grunewaldstraße ist der Bereich des ehemaligen Dorfes Schöneberg. Der dörfliche Charakter ist kaum noch erkennbar. An das ehemalige Dorf erinnern allerdings noch einige Häuser und insbesondere die Dorfkirche Schöneberg. Im Bereich des einstigen Dorfes Alt-Schöneberg fällt die große Konzentration von Kirchen und kirchlichen Gemeindezentren auf. Unmittelbar neben der evangelischen Dorfkirche befindet sich die ebenfalls evangelische Paul-Gerhardt-Kirche, dahinter wiederum (zur Dominicusstraße ausgerichtet) die katholische Kirche St. Norbert. Auf der anderen Seite der Hauptstraße angesiedelt ist das Gemeindezentrum der Baptisten Schöneberg sowie Gebäude der von den Baptisten Schöneberg getragenen Immanuel Diakonie. Die Gemeinden der genannten Kirchen arbeiten im Rahmen der Kleinen Ökumene Schöneberg zusammen. Die Hauptstraße ist – ebenso wie die Potsdamer Straße – eine stark befahrene Einkaufsstraße. Ein Schwerpunkt des Einkaufens liegt im Bereich des Richard-von-Weizsäcker-Platzes. Er wurde 2007 umgestaltet und mit einem neuen Brunnen ausgestattet. Auf dem Platz steht eine Gedenktafel für die Opfer der Konzentrationslager mit dem Titel „Orte des Schreckens, die wir niemals vergessen dürfen“ sowie den Namen von zwölf Konzentrationslagern. Der Akazienkiez rund um die von der Hauptstraße abzweigende Akazienstraße mit der Belziger Straße ist ein Kiez mit leicht alternativem Flair und vielen kleinen Läden, Kneipen und Cafés. Zusammen mit der sich nördlich anschließenden Goltzstraße und dem nördlich angrenzenden Winterfeldtplatz (mit dem großen Wochenmarkt) bildet der Akazienkiez dazu mit vielen Cafés und Kneipen sowie Kunsthandwerksbetrieben ein sehr vitales Gegenstück. Dieses Kiezzentrum reicht in östlicher Richtung über den Richard-von-Weizsäcker-Platz bis zur Roten Insel. Potsdamer Straße Die Stadtquartiere beiderseits der Potsdamer Straße gehören bis 1920 zur ehemaligen Schöneberger Vorstadt von Berlin. Der Bereich der Schöneberger Vorstadt südlich der Kurfürstenstraße ist Teil des Ortsteils Schöneberg. Während der Teilung Berlins, insbesondere seit dem Bau der Berliner Mauer im Jahr 1961, hat der Schöneberger Abschnitt der Potsdamer Straße als Einkaufsstraße an Bedeutung verloren. Gewerbetreibende der einstmals bedeutenden und in der Nachkriegszeit immer unattraktiver gewordenen Potsdamer Straße bemühen sich, das Image als Einkaufsstraße zu verbessern. Im Haus Potsdamer Straße 188–192 befand sich bis Ende August 2008 die Hauptverwaltung der Berliner Verkehrsbetriebe (BVG). Rote Insel Die Rote Insel hat sich – eingeschlossen von mehreren Bahnstrecken – im Schöneberger Osten herausgebildet und weist traditionell eine politisch „rote“ – also eine eher linke – Orientierung seiner Arbeiterbevölkerung auf. Die frühere Wohnbevölkerung der 1930er und 1940er Jahre leistete zum Teil erheblichen Widerstand gegen den Nationalsozialismus. Baugeschichtliche Bedeutung haben die Königin-Luise-Gedächtniskirche von 1912 und der markante Schöneberger Gasometer. Das Industriedenkmal auf dem EUREF-Campus im Südwesten der Insel überragt als architektonische Landmarke die gesamte Rote Insel. Der Alte Zwölf-Apostel-Kirchhof gehört zu den kunst- und kulturgeschichtlich bedeutendsten Begräbnisplätzen Berlins und ist unter anderem letzte Ruhestätte für Friedrich von Falz-Fein, dem Gründer des heute noch bestehenden Naturreservats Askanija-Nowa in der Ukraine. Der 2012 eröffnete Ost-West-Grünzug mit dem Alfred-Lion-Steg über die Gleisanlagen hinweg bindet die Insel an Tempelhof und die Schöneberger Schleife an den Park am Gleisdreieck an. Dominicusstraße An der Martin-Luther- und der Dominicusstraße dominiert rund um den John-F.-Kennedy-Platz die öffentliche Verwaltung mit dem Bezirksamt, den Senatsverwaltungen für Wirtschaft, Energie und Betriebe sowie Justiz (Nordsternhaus), am Heinrich-von-Kleist-Park, Landesverfassungsgericht und Kammergericht. Sachsendamm / Schöneberger Linse Dieser Bereich umfasst das Areal zwischen Wannseebahn und der Ortsteilgrenze zu Tempelhof sowie zwischen der Ringbahn und dem südlichen Stadtring einschließlich des Autobahnkreuzes Schöneberg. Das Gelände wird von Gewerbegebieten und Verkehrstrassen dominiert. Der Sachsendamm durchzieht das Gebiet als dominante Straße. Der Teilbereich nördlich des Sachsendamms wird auch „Schöneberger Linse“ genannt. Er bezeichnet das Gebiet der sich erweiternden und wieder schließenden Trassenführung der Ringbahn und des Sachsendamms. Gewerbegebiete befinden sich in der Alboinstraße, am Werdauer Weg, an der Naumannstraße und mit Möbel Höffner auf dem Gelände des ehemaligen Radstadions. Auf dem Gelände des ehemaligen Reichsbahnausbesserungswerk Berlin-Tempelhof (RAW Tempelhof) wurden große Filialen von Bauhaus und Ikea angesiedelt. Fördernd für die Erschließung des Gebietes der „Schöneberger Linse“ ist der 2006 eröffnete Bahnhof Südkreuz, ehemals Bahnhof Papestraße, sowie die Gründung einer Interessengemeinschaft der Grundstückseigentümer der „Schöneberger Linse“. Siedlung Ceciliengärten Beispielhaften Städtebau kann man in den Ceciliengärten anhand des – in den 1920er Jahren entstandenen und inzwischen denkmalgeschützten – Stadtquartiers begutachten. Der Fassadenschmuck der Gebäude mit den lebensnahen Darstellungen von kindlichem Alltag und dem seinerzeit modernen Verkehr sowie die Formensprache der Türgestaltungen machen die Ceciliengärten zu einem öffentlichen Freilichtmuseum des Art déco. Der als Gartenbaudenkmal ausgewiesene zentrale Platz mit dem großen Fontänen-Springbrunnen, dem kleinen Fuchsbrunnen von Max Esser und den zwei Frauenstandbildern Der Morgen und Der Abend des Künstlers Georg Kolbe vervollständigen die Anlage. Die im April und Mai jeden Jahres rosafarben blühenden japanischen Kirschbäume bilden ein ansehnliches Blütendach über der Straße und machen der stadtbekannten Britzer Baumblüte Konkurrenz. Um den S-Bahnhof Friedenau Im Bereich beiderseits des S-Bahnhofs Friedenau herrscht eine großzügige bürgerliche Bebauung aus der Zeit der Wende zum 20. Jahrhundert vor. Das Wohngebiet wird umgangssprachlich oft dem benachbarten Friedenau zugeordnet, wie etwa bei der Berichterstattung um die hier lebende Literaturnobelpreisträgerin Herta Müller. Der eigentliche Ortsteil Friedenau beginnt aber erst einige Straßen weiter westlich. Die Straßen östlich der Bahntrasse erhielten die Namen von bekannten Malern, weswegen die Gegend oft Malerviertel, oder nach dem zentralen Dürerplatz auch Dürerkiez, genannt wird. Quartier um den Grazer Platz Das Quartier um den Grazer Platz östlich des Malerviertels ist ein Wohngebiet. Direkt am Grazer Platz und am Grazer Damm ist eine Siedlung aus der Zeit des Nationalsozialismus erhalten. Südgelände Für das Schöneberger Südgelände zwischen dem Sachsendamm und der Grenze zu Steglitz existierten bereits zur Kaiserzeit Pläne für eine umfangreiche Bebauung. Diese wurden jedoch nicht realisiert; es wurde 1928 lediglich der S-Bahnhof Priesterweg fertiggestellt und während der Zeit des Nationalsozialismus am westlichen Rand die Siedlung Grazer Damm gebaut. Auf den unbebauten Flächen des Südgeländes entstand das bis heute größte zusammenhängende Kleingartengelände Berlins. Im Osten des Südgeländes erstreckten sich die weitläufigen Anlagen des Rangierbahnhofs Tempelhof entlang der Anhalter und Dresdener Bahn. Nach dem Zweiten Weltkrieg wurde ein großer Teil der Bahnanlagen stillgelegt und allmählich von der Natur zurückerobert. Auf diesen Flächen befindet sich heute der Natur-Park Schöneberger Südgelände. Direkt westlich der S-Bahn-Strecke Südkreuz – Priesterweg liegt der Hans-Baluschek-Park. Insulaner Südlich des Prellerweges in der Nähe des S-Bahnhofs Priesterweg liegt der Insulaner, ein in den Jahren nach dem Zweiten Weltkrieg aufgeschütteter Trümmerberg. An seinem Fuße befindet sich das 1965 eröffnete Planetarium am Insulaner und auf seinem Gipfel die 1963 eröffnete Wilhelm-Foerster-Sternwarte. Auf der Südseite liegt bereits auf Steglitzer Gebiet das „Sommerbad am Insulaner“. Siedlung Lindenhof Die Siedlung Lindenhof im äußersten Südosten Schönebergs ist ein Beispiel für den genossenschaftlichen Wohnungsbau der 1920er Jahre. Ihr Bau wurde durch den sozialdemokratischen Schöneberger Stadtbaurat Martin Wagner maßgeblich vorangetrieben. Die Siedlung sollte das Konzept der genossenschaftlichen Selbsthilfe mit städtebaulichen Anleihen aus der Gartenstadtidee verbinden. Die Martin-Wagner-Brücke über den Lindenhofsee ist die einzige Schöneberger Brücke, die über ein Gewässer führt. In der Nachbarschaft der Siedlung liegen das Gartendenkmal Alboinplatz und der II. Städtische Friedhof Eythstraße. Gebäude Rathaus Rathaus Schöneberg mit der Freiheitsglocke am John-F.-Kennedy-Platz (ehemals Rudolph-Wilde-Platz) Kirchen Evangelische Apostel-Paulus-Kirche an der Grunewaldstraße (1892–1894) von Franz Schwechten Evangelisch-freikirchliche Baptistenkirche an der Hauptstraße Evangelisch-freikirchliche Gemeinde (Brüdergemeinde) an der Hohenstaufenstraße Evangelische Dorfkirche Schöneberg an der Hauptstraße (1764–1766) von Johann Friedrich Lehmann Evangelische Königin-Luise-Gedächtniskirche auf dem Gustav-Müller-Platz auf der Roten Insel (1910–1912) von F. Berger Evangelische Lutherkirche auf dem Dennewitzplatz (1891–1894) von Johannes Otzen Evangelische Michaelskirche an der Bessemerstraße (1955–1956) Evangelische Nathanaelkirche auf dem Grazer Platz (1903) von Jürgen Kröger Evangelische Paul-Gerhardt-Kirche neben der Dorfkirche (1958–1962) von Hermann Fehling und Daniel Gogel, anstelle eines zerstörten Vorgängerbaus (1908–1910) von Richard Schultze Evangelische Silaskirche an der Großgörschenstraße Evangelische Kirche zum Heilsbronnen an der Heilbronner Straße im Bayerischen Viertel (1911/1912) von Ernst Deneke Evangelische Zwölf-Apostel-Kirche an der Kurfürstenstraße, entworfen von Friedrich August Stüler (1864), errichtet von Hermann Blankenstein und Julius Emmerich (1871–1874) Römisch-katholische St.-Elisabeth-Kirche an der Kolonnenstraße (1910/1911) vom Kölner Dombaumeister Bernhard Hertel Römisch-katholische St.-Konrad-Kirche an der Rubensstraße (1958) von Architekt Schaefers Römisch-katholische St.-Matthias-Kirche auf dem Winterfeldtplatz (1893–1896) von Engelbert Seibertz Römisch-katholische St.-Norbert-Kirche an der Dominicusstraße (1913–1918) von Carl Kühn, tiefgreifend umgebaut (1958–1962) von Hermann Fehling, Daniel Gogel und Peter Pfankuch Neuapostolische Kirche Berlin-Schöneberg in der Erfurter Straße am Innsbrucker Platz Moscheen Emir-Sultan-Moschee in der Hauptstraße 150 Semerkand Moschee in der Kurfürstenstraße 37 Botschaftsgebäude Kroatische Botschaft in der Ahornstraße 4 (Villa Geisberg) Botschaft der Republik Argentinien in der Kleiststraße 23–26 Sonstige Planetarium am Insulaner mit der Wilhelm-Foerster-Sternwarte und dem Bamberg-Refraktor Galerien In der Vergangenheit betrieb der Verkehrsmuseum Berlin e. V. mit Sitz am Halleschen Ufer 74–76 das Verkehrsmuseum Berlin. Die Ausstellungsräume befanden sich im Haus der deutschen Kulturgemeinschaft Urania an der Kreuzung An der Urania und Kleiststraße. Die Existenz lässt sich für die Jahre 1964 und 1970 nachweisen. Es gab die Abteilungen Eisenbahn, Luft- und Raumfahrt, Straßenverkehr und Städtischer Verkehr sowie Schifffahrt. Ausgestellt waren ein VW Käfer und ein Maurer-Union von 1902. Zum Bestand gehörten ferner ein Adler, ein Fahrzeug von Steyr Daimler Puch, ein Tatra und ein Wanderer. Die Verbindung zum Deutschen Technikmuseum ist ebenso unklar wie zum Deutschen Historischen Museum, die beide ebenfalls technische Dinge in Berlin ausstellen. Parks Rudolph-Wilde-Park – ausführlich zur Entwicklung Schönebergs und zum Bau der Berliner U-Bahn zu Beginn des 20. Jahrhunderts Alboinplatz – ausführlich zu den Naturdenkmälern „Blanke Helle“ und „Krummer Pfuhl“ (Toteislöcher) sowie zur denkmalgeschützten Wohnsiedlung Lindenhof Wartburgplatz – ausführlich zur innerstädtischen Grünanlage Wirtschaft und Infrastruktur Wirtschaft Im Ortsteil dominieren kleine und mittlere Unternehmen in den Bereichen Handel, Dienstleistungen sowie der Gastronomie und Hotellerie. Verkehr Eisenbahn Mit dem 2006 eröffneten Bahnhof Südkreuz hat Schöneberg eine direkte Anbindung an den Fern- und Regionalverkehr der Deutschen Bahn. Der Bahnhof wird unter anderem von der ICE-Linie Hamburg – Berlin – Leipzig – München bedient. S-Bahn Schöneberg wird von der Wannseebahn (Linie S1), der Dresdener Vorortbahn (Linie S2), der Anhalter Vorortbahn (Linien S25 und S26) sowie der Berliner Ringbahn (Linien S41, S42, S45 und S46) bedient. Wichtige Knotenpunkte sind die S-Bahnhöfe Schöneberg und Südkreuz. Insgesamt liegen sieben Haltestellen im Ortsteil. Im Zuge der neuen S-Bahn-Linie S21 soll Schöneberg ca. 2030 eine direkte S-Bahn-Anbindung zum Hauptbahnhof erhalten, die derzeit nur durch den Regionalverkehr ermöglicht wird. U-Bahn Schöneberg wird von den U-Bahn-Linien U1, U2, U3, U4 und U7 bedient. Wichtige Knotenpunkte und auch von besonderer architektonischer Bedeutung sind die U-Bahnhöfe Wittenbergplatz und Nollendorfplatz. Östlich des Nollendorfplatzes verläuft die U-Bahn-Linie U2 als Hochbahn. Die dadurch erforderlich gewordene Hausdurchfahrt am Dennewitzplatz war bis zur Zerstörung des „durchfahrenen“ Hauses im Zweiten Weltkrieg ein vielbeachtetes Kuriosum. Die Linie U4, hervorgegangen aus der Schöneberger Untergrundbahn, liegt vollständig auf Schöneberger Gebiet. Eine Besonderheit bildet der U-Bahnhof Rathaus Schöneberg, der oberirdisch liegt und Fenster zum Rudolph-Wilde-Park hat. Individualverkehr Die Stadtautobahnen A 100 (Stadtring) und A 103 (Westtangente) sind im Autobahnkreuz Schöneberg miteinander verbunden. Die A 100 unterquert westlich des Autobahnkreuzes in einem 270 Meter langen Tunnel den Innsbrucker Platz. Weitere wichtige Verkehrsachsen sind der sogenannte „Generalszug“ Tauentzienstraße – Kleiststraße – Bülowstraße, der Straßenzug An der Urania – Martin-Luther-Straße – Dominicusstraße – Sachsendamm sowie die Bundesstraße 1 auf dem Straßenzug Potsdamer Straße – Hauptstraße (– Dominicusstraße – A 103). Der Hobrechtplan sah ursprünglich eine gradlinige Weiterführung der Bülowstraße in Richtung Osten vor. Die Eisenbahnanlagen auf dem Gleisdreieck-Gelände dehnten sich jedoch so schnell aus, dass der „Generalszug“ nach Süden verschoben werden musste, um das Bahngelände unter den Yorckbrücken durchqueren zu können. Die so entstandene Kurve der Bülowstraße, der „Bülowbogen“, gab der ARD-Fernsehserie Praxis Bülowbogen ihren Namen. Die Aufweitung und der überbreite Grünstreifen im Kreuzungsbereich An der Urania/Lietzenburger Straße gehen auf mittlerweile aufgegebene Pläne für eine autobahnähnliche Hochstraße zurück. Im Rahmen des „Planwerks Innenstadt“ gibt es Überlegungen, diesen Bereich umzugestalten. Weitere Relikte der Verkehrsplanung der Nachkriegszeit findet man in der Hohenstaufenstraße und Pallasstraße. Dieser Straßenzug sollte nach einer mittlerweile aufgegebenen Planung durchgehend mehrstreifig ausgebaut werden. Zu diesem Zweck sollte auch das Haus Hohenstaufenstraße 22 abgerissen werden; es steht jedoch bis heute auf der geplanten Trasse der Hohenstaufenstraße und muss engkurvig umfahren werden. Von den unvollendeten Ausbauplänen für die Pallasstraße zeugt auch die vom Straßenverkehr nicht benutzte nördliche Unterfahrung des Pallasseums. Sport In Schöneberg ansässige Fußballvereine sind der FC Internationale Berlin, der sich gegen die Kommerzialisierung des Fußballspiels wendet sowie der 1. FC Schöneberg und der BSC Kickers 1900. Persönlichkeiten In Schöneberg geborene Persönlichkeiten Reinhold Begas (1831–1911), Bildhauer Karl Neunzig (1864–1944), Zeichner und Herausgeber Otto Colosser (1878–1948), Architekt und Politiker (Wirtschaftspartei, DStP) Martin Luserke (1880–1968), Reformpädagoge Wilhelm Furtwängler (1886–1954), Dirigent der Berliner Philharmoniker, in der Maaßenstraße 1 geboren (Gedenktafel) Erich Kuttner (1887–1942), Politiker (SPD), Widerstandskämpfer gegen den Nationalsozialismus Karl Schneider (1887–1969), Verwaltungsjurist Herman-Walther Frey (1888–1968), Musikwissenschaftler Ernst Hildebrand (1888–1962), evangelisch-lutherischer Pastor Werner Dehn (1889–1960), Ruderer Erich Schmidt-Schaller (1889–1980), Maler und Grafiker Hedda Korsch (1890–1982), Pädagogin und Hochschullehrerin Hans Schwarz (1890–1967), Dramatiker Nelly Sachs (1891–1970), Schriftstellerin, in der Maaßenstraße 12 geboren (Gedenktafel) Ernst Wetzel (1891–1966), SA-Führer, Kommandeur der Berliner SA Fritz Loewe (1895–1974), Meteorologe, Glaziologe und Polarforscher, Hochschullehrer Ilse Bois (1896–1960), Kabarettistin, Schauspielerin und Parodistin Charlotte Schultz-Ewerth (1898–unbekannt), Schriftstellerin Hans Schiftan (1899–1941), Widerstandskämpfer gegen den Nationalsozialismus Ilse Blumenthal-Weiss (1899–1987), Lyrikerin Herbert Schimkat (1900–1969), Schauspieler Marlene Dietrich (1901–1992), Schauspielerin, in der Leberstraße 65 geboren, lebte als Kind in der Potsdamer Straße 116 (Gedenktafeln) Heinrich Vogel (1901–1958), Agrarwissenschaftler und SS-Führer Arthur Georgi (1902–1970), Verlagsbuchhändler Harry Halm, eigentlich Harry Hahn (1902–1980), Schauspieler Reinhold Schmidt (1902–1974), Leichtathlet Wolfgang Langkau (1903–1991), Angehöriger des Bundesnachrichtendienstes Hermann Ehlers (1904–1954), Politiker (CDU), Bundestagspräsident, in der Gotenstraße 6 geboren (Gedenktafel) Karl Gaile (1905–1979), Parteifunktionär der SED Alice Treff (1906–2003), Schauspielerin Heinrich Wilhelmi (1906–2005), Ingenieur, Hochschullehrer für Mess- und Regelungstechnik Heinz Schulze, ab 1953 Heinz Schulze-Varell (1907–1985), Modedesigner Karl-Adolf Zenker (1907–1998), Marineoffizier Leonhard Berger (1908–1944), römisch-katholischer Geistlicher und Märtyrer Gisèle Freund (1908–2000), Fotografin Brigitte Helm (1908–1996), Schauspielerin Alfred Lion (1908–1987), Musikproduzent, in der Wielandstraße 22 geboren Dolly Raphael (1908–1989), Schauspielerin und Synchronsprecherin Elli Schmidt (1908–1980), Vorsitzende der DDR-Frauenorganisation DFD Alfred Neumann (1909–2001), Politiker (SED), in der Bülowstraße geboren Ernst Ludwig Heuss (1910–1967), Widerstandskämpfer gegen den Nationalsozialismus, Unternehmer Rupprecht von Keller (1910–2003), Diplomat Ferdinand von Lüdinghausen-Wolff (1910–1977), Jurist, Bürgermeister und Landrat Erika Raphael (1910–2006), Schauspielerin Ulrich Lauterbach (1911–1988), Theaterintendant, Regisseur und Hörspielleiter des Hessischen Rundfunks Béatrice du Vinage (1911–1993), deutsch-schwedische Fotografin und Malerin Willi Stoph (1914–1999), Politiker (SED), u. a. Vorsitzender des Ministerrats der DDR, in der damaligen Sedanstraße (heute: Leberstraße) geboren Richard Achenbach (1916–2003), Diplomat, Botschafter der Bundesrepublik Deutschland Heinz Spitzner (1916–1992), Schauspieler Oskar Kusch (1918–1944), Offizier der Kriegsmarine, wegen regimekritischer Äußerungen hingerichtet Helmut Newton (1920–2004), Fotograf, in der Innsbrucker Straße 24 geboren (Gedenktafel) Alfred Kardinal Bengsch (1921–1979), katholischer Bischof von Berlin, wohnte am Tempelhofer Weg 26 (Gedenktafel) Liane Berkowitz (1923–1943), Widerstandskämpferin gegen den Nationalsozialismus, wohnte am Viktoria-Luise-Platz 1 Peter Hartmann (1923–1984), Sprachwissenschaftler und Hochschullehrer Hildegard Hendrichs (1923–2013), Bildhauerin und Malerin Klaus Willerding (1923–1982), Politiker (SED) und Diplomat Horst Breitenfeld (1924–2010), Schauspieler, Hörspiel- und Synchronsprecher Konrad von Rabenau (1924–2016), Theologe und Einbandforscher Shlomo Shafir (1924–2013), Journalist Siegfried Leibholz (1925–2005), Offizier des Ministeriums für Staatssicherheits der DDR Dieter Ranspach (1926–2017), Schauspieler und Synchronsprecher Udo-Dieter Wange (1928–2005), Politiker (SED), Minister der DDR Ted Herold (1942–2021), Schlagersänger Hugo Egon Balder (* 1950), Entertainer, wuchs in der Semperstraße auf Corinna Rohn (* 1969), Bauforscherin Grischa Vercamer (* 1974), Historiker Tobias Schneider (* 1981), Eisschnellläufer Mit Schöneberg verbundene Persönlichkeiten Wilhelm Adolf Lette (1799–1868), Gründer der Bildungsanstalt Lette-Verein am Viktoria-Luise-Platz Friedrich Kiel (1821–1885), Kompositionslehrer, wohnte in der Potsdamer Straße Albert Dietrich, (1829–1908), Komponist und Dirigent, verbrachte seine letzten Lebensjahre in Schöneberg; starb dort in der Geisbergstraße 29. August Bebel (1840–1913), Mitbegründer der SPD, wohnte in der Hauptstraße 97 (Gedenktafel) Eduard Bernstein (1850–1932), Politiker (SPD), Stadtrat in Schöneberg, wohnte 1918–1932 in der Bozener Straße 18 (Gedenktafel) Karl Kautsky (1854–1938), Politiker (SPD), wohnte in der Saarstraße 14 (Gedenktafel) Hermann Ganswindt (1856–1934), Raketenpionier, Erstflug seines Hubschraubers in Schöneberg Wilhelm Wetekamp (1859–1945), Reformpädagoge, Rektor des Werner-Siemens-Realgymnasiums, wohnte in der Kyffhäuserstraße 3 Friedrich Naumann (1860–1919), Politiker (DDP), lebte in der Naumannstraße 24 (Gedenktafel) Rudolf Steiner (1861–1925), Begründer der Anthroposophie, lebte mit seiner Frau Marie von Sievers in der Motzstraße 30 (Gedenktafel) Arno Holz (1863–1929), Dichter, lebte in der Stübbenstraße 5 (Gedenktafel) Walter Leistikow (1865–1908), Maler, lebte in der Geisbergstraße 33 (zerstört) Ferruccio Busoni (1866–1924), Komponist, wohnte am Viktoria-Luise-Platz 11 (Gedenktafel) Else Lasker-Schüler (1869–1945), Lyrikerin, lebte in der Motzstraße 7 Hans Baluschek (1870–1935), Maler und Grafiker, lebte 1929–1933 im Atelierturm in den Ceciliengärten (Gedenktafel Semperstraße 5) Rosa Luxemburg (1871–1919), Sozialistin, wohnte 1902–1911 in der Cranachstraße 58 (Gedenktafel) Alexander Dominicus (1873–1945), 1911–1921 Oberbürgermeister der Stadt Schöneberg Rudolf Breitscheid (1874–1944), Politiker (SPD), wohnte in der Haberlandstraße 8a (Haus zerstört, Gedenkstein vor dem Neubau) Franz Czeminski (1876–1945), Stadtrat, Mitglied des Schöneberger Stadtparlaments Clemens August Graf von Galen (1878–1946), Bischof und Kardinal, war Kaplan und Pfarrer von St. Matthias (Gedenktafel an der Kirche) Karl Hofer (1878–1955), Maler, Gedenktafel am Haus Grunewaldstraße 44 Albert Einstein (1879–1955), Physiker und Nobelpreisträger, wohnte 1918–1933 in der Haberlandstraße 5 (heute Nr. 8, Haus zerstört, Gedenkstein vor dem Neubau an gleicher Stelle) Nanna Conti (1881–1951), „Reichshebammenführerin“, lebte 1905 bis um 1937 in der Kleiststraße 3 Paul Zech (1881–1946), Schriftsteller, wohnte 1925–1933 in der Naumannstraße 78 (Gedenktafel) Ernst Weiß (1882–1940), Arzt und Schriftsteller, wohnte in der Luitpoldstraße 34 (Gedenktafel) Albert Coppenrath (1883–1960), 1929–1941 Pfarrer an der Kirche St. Matthias Theodor Heuss (1884–1963), Politiker (FDP) und Bundespräsident, wohnte 1918–1930 in der Fregestraße 80 (Gedenktafel) Claire Waldoff (1884–1957), Chansonsängerin, lebte 1919–1933 in der Regensburger Straße 33 (Gedenktafel) Egon Erwin Kisch (1885–1948), Journalist, wohnte in den 1920er Jahren im Haus Hohenstaufenstraße 36 (Gedenktafel) Erich Klausener (1885–1934), katholischer Politiker und Widerstandskämpfer, lebte in der Keithstraße 8 (Gedenktafel) Gottfried Benn (1886–1956), Arzt und Dichter, wohnte 1937–1956 in der Bozener Straße 20 (Gedenktafel) Leon Hirsch (1886–1954), Kabarettist, hatte seine letzte Wohnung vor der Emigration 1933 in der Bozener Straße 10 Renée Sintenis (1888–1965), Bildhauerin und Grafikerin, wohnte in der Innsbrucker Straße 23a (Gedenktafel) Michael Hirschberg (1889–1937), Jurist und Widerstandskämpfer gegen den Nationalsozialismus, lebte in der Winterfeldtstraße 8 (Gedenktafel) Hans Fallada (1893–1947), Schriftsteller, verbrachte seine Kinderjahre in der Luitpoldstraße 11 (das Haus existiert nicht mehr) Erwin Piscator (1893–1966), Regisseur der Piscator-Bühne am Nollendorfplatz (Gedenktafel) Carl Zuckmayer (1896–1977), Schriftsteller und Dramatiker, wohnte in der Fritz-Elsas-Straße 18 (Gedenktafel) Sepp Herberger (1897–1977), Fußballtrainer, lebte 1937–1944 in der Bülowstraße 89 (Gedenktafel) Leonardo Conti (1900–1945), „Reichsärzteführer“, lebte ab 1905 während seiner Kindheit und Jugend in der Kleiststraße 37 Robert Uhrig (1903–1944), Widerstandskämpfer gegen den Nationalsozialismus, lebte in der Wartburgstraße 4 (Gedenktafel) Christopher Isherwood (1904–1986), englischer Schriftsteller, lebte zwischen 1930 und 1933 in der Nollendorfstraße 17 (Gedenktafel) Billy Wilder (1906–2002), Regisseur, lebte in seinen jungen Jahren am Viktoria-Luise-Platz 11 (Gedenktafel) Friedrich Luft (1911–1990), Theaterkritiker, wuchs in der Kaiserallee 74 auf, lebte später in der Maienstraße 4 (Gedenktafel) Walter Scheel (1919–2016), Politiker (FDP) und Bundespräsident, lebte bis 2008 in Schöneberg Hildegard Knef (1925–2002), Schauspielerin und Sängerin, wuchs auf der Roten Insel auf Klaus Kinski (1926–1991), Schauspieler, wohnte in der Wartburgstraße 3 Joachim Kemmer (1939–2000), Schauspieler und Synchronsprecher, lebte in der Crellestraße 41 (Gedenktafel) Joachim Gauck (* 1940), Bundespräsident, wohnte bis Juli 2012 in der Nymphenburger Straße Jörg Fauser (1944–1987), Schriftsteller, lebte 1981–1984 in der Goebenstraße 10 Edgar Froese (1944–2015), Musiker, startete seine Karriere in der Schwäbischen Straße David Bowie (1947–2016), britischer Musiker, wohnte 1976–1978 in der Hauptstraße 155 Iggy Pop (* 1947), Musiker, lebte in den 1970er Jahren in der Hauptstraße Gerhard Seyfried (* 1948), Comiczeichner und Schriftsteller, lebt in Schöneberg Herta Müller (* 1953), Schriftstellerin und Literaturnobelpreisträgerin, lebt in der Menzelstraße Graciano Rocchigiani (1963–2018), Boxweltmeister, wuchs in der Hauptstraße auf David Berger (* 1968), Publizist, wohnt in der Habsburgerstraße Alpa Gun (* 1980), Rapper, wuchs in der Steinmetzstraße auf Kevin Kühnert (* 1989), Politiker (SPD), lebt in Schöneberg Tex Morton (* 1961), Musiker, lebt in Schöneberg Siehe auch Liste der Straßen und Plätze in Berlin-Schöneberg Liste der Kulturdenkmale in Berlin-Schöneberg Liste der Gedenktafeln in Berlin-Schöneberg Liste der Stolpersteine in Berlin-Schöneberg Literatur Werner Bethsold: Schöneberg, eine Gegend in Berlin. Berlin 1977. (Fotodokumentation) Stefan Eggert: Spaziergänge in Schöneberg = Berlinische Reminiszenzen 78. Verlag Haude & Spener, Berlin 1997, ISBN 3-7759-0419-0. Christian Simon: „Es war in Schöneberg im Monat Mai …“ Schöneberg im Wandel der Geschichte. be.bra verlag, Berlin-Brandenburg 1998. Helmut Winz: Es war in Schöneberg. Aus 700 Jahren Schöneberger Geschichte. Haupt & Puttkammer, Berlin 1964. (Der Titel nimmt den alten Gassenhauer Das war in Schöneberg, im Monat Mai von Walter Kollo auf, als der Ort noch Ausflugsziel der Berliner Kleinbürger war.) Berliner Geschichtswerkstatt (Hrsg.): „Das war ’ne ganz geschlossene Gesellschaft hier“. Der Lindenhof: Eine Genossenschaftssiedlung in der Großstadt. Nishen Verlag, Berlin 1987, ISBN 3-88940-133-3. Gudrun Blankenburg: Das Bayerische Viertel in Berlin Schöneberg. Leben in einem Geschichtsbuch. Hendrik Bäßler Verlag, Berlin 2012, ISBN 978-3-930388-60-8. Weblinks Information zum Ortsteil Schöneberg. Bezirksamt Tempelhof-Schöneberg von Berlin Stadtteilzeitung Schöneberg mit Beiträgen über das historische Schöneberg Bildergalerie von Schöneberger Orten/Plätzen Einzelnachweise Schoneberg Schoneberg Ehemalige kreisfreie Stadt in Deutschland Ersterwähnung 1264 Stadtrechtsverleihung 1898 Gemeindeauflösung 1920
529
https://de.wikipedia.org/wiki/Brian%20Eno
Brian Eno
Brian Peter George St. John le Baptiste de la Salle Eno (* 15. Mai 1948 in Woodbridge, Suffolk) ist ein britischer Musiker, Musikproduzent, Musiktheoretiker und bildender Künstler. Er gilt als Innovator in vielen Bereichen der Musik. Leben Ausbildung Eno besuchte das St. Joseph’s College, Birkfield, Ipswich, die Ipswich Art School und die Winchester School of Art, die er 1969 abschloss. In der Kunstschule begann er damit, Kassettenrekorder als Musikinstrumente zu benutzen und spielte zum ersten Mal in Bands. Dazu wurde er von einem seiner Lehrer, dem Maler Tom Phillips, ermutigt. Dieser vermittelte ihm auch den Kontakt zu Cornelius Cardews Scratch Orchestra. Die erste veröffentlichte Aufnahme, an der Eno beteiligt war, entstand für die Deutsche Grammophon, die Cardews The Great Learning herausbrachte (aufgenommen 1971). Die 1970er und 1980er Jahre Eno begann seine Karriere 1971 als Mitbegründer von Roxy Music, für die der selbsternannte „Nicht-Musiker“ Keyboards spielte. Besonders auffällig war seine an den Glam-Rock-Chic angelehnte campige Aufmachung mit Federboa, Plateauschuhen und Glitzertüchern, die er mit exaltierten Bewegungen auf der Bühne kombinierte. Nach dem zweiten Album For Your Pleasure 1973 stieg er bei Roxy Music wieder aus. Zu dieser Zeit war Eno Mitglied der Portsmouth Sinfonia, einem ironisch-ernsthaften Projekt, bei dem Nichtmusiker Instrumente spielten und Musiker Instrumente, die sie nicht beherrschten. Eno spielte dort Klarinette. Enos Soloalben von 1973 bis 1977 (Here Come the Warm Jets, Taking Tiger Mountain (By Strategy), Another Green World und Before and After Science) zeigen ihn als experimentierfreudigen und innovativen Popmusiker, der beinahe keine Grenzen außerhalb seiner jungenhaften Stimme kennt. Die Erfindung der Ambient-Musik 1975 wurde Eno auf dem Weg vom Studio nach Hause von einem Taxi angefahren und wurde in ein Krankenhaus eingeliefert. Ihm wurden starke Schmerzmittel verabreicht. Später besuchte ihn eine Freundin und brachte einen Schallplattenspieler und eine LP mit Harfenmusik ins Krankenhaus. Da er die Musik nur leise hören konnte und es draußen regnete, vermischte sich die Musik mit der Geräuschkulisse von Regen und Krankenhaus. Mit seinen ersten Ambient-Arbeiten popularisierte er eine von Robert Fripp entwickelte und als Frippertronics bezeichnete Methode zur Klangerzeugung, mittels der Tonband-Aufnahmen diverser Musiker, vor allem aus der Minimal-Music-Szene, modifiziert wurden. Bei der Klangerzeugung mittels Frippertronics werden zwei Tonbandgeräte in einem Rückkopplungssystem wie ein Bandecho miteinander verbunden, wobei die Entfernung der Maschinen zueinander die Frequenz des Echoimpulses bestimmt. Zusammen mit Fripp veröffentlichte Eno die Alben (No Pussyfooting) (1973) und Evening Star (1975). Mit Ambient 1: Music for Airports (1978), die angeblich durch ein negatives Hörerlebnis am Flughafen Köln/Bonn inspiriert wurde, hat er den Ambient getauft und fortan geprägt. Viele seiner Arbeiten bis heute können dem Ambient zugeordnet werden. Kollaborationen Eno arbeitete als Musiker und Produzent mit verschiedenen anderen Künstlern. So ist er auf der „Berlin-Trilogie“ – Low (1977), Heroes (1977) und Lodger (1979) – von David Bowie zu hören und ist hier u. a. Co-Autor des Songs “Heroes”. 1978 produzierte er Devos Q: Are We Not Men? A: We Are Devo und die legendäre Kompilation der New-Yorker No-Wave-Szene, No New York. Er produzierte drei Alben der Talking Heads: More Songs About Buildings and Food (1978), Fear of Music (1979) und Remain in Light (1980) als Höhepunkt. Sein Album mit David Byrne (Talking Heads) mit dem Titel My Life in the Bush of Ghosts von 1981 ist eines der ersten Nicht-Rap-/Hip-Hop-Alben, das umfangreiches Sampling enthält. Im Jahr 1984 produzierte er U2s The Unforgettable Fire und arbeitete später weiter für die Band als Produzent von The Joshua Tree (1987), Achtung Baby (1991), Zooropa (1993), All That You Can’t Leave Behind (2000) und No Line on the Horizon (2009). 1990 veröffentlichte er gemeinsam mit John Cale das poporientierte Album Wrong Way Up. Die 1990er Jahre In den 1990er Jahren produzierte Eno so unterschiedliche Künstler wie den Real-World-Künstler Geoffrey Oryema bis zur Band James, ebenso die Sängerin Jane Siberry und die Performance-Künstlerin Laurie Anderson, mit der er auch die Ausstellung Self Storage (1995) gestaltete. 1994/1995 arbeitete Eno wieder mit David Bowie zusammen, dieses Mal an dessen Album 1. Outside. Seit dieser Zeit ist Eno auch Visiting Professor am Londoner Royal College of Art. 1994 wurde Eno von Entwicklern des Microsoft-Chicago-Projekts gebeten, die Startmelodie für Windows 95 zu komponieren. Dies geschah ironischerweise auf seinem Apple Macintosh. Im Jahr 1996 gehörte Brian Eno zu den Gründern der Long Now Foundation, die ein Bewusstsein für die Bedeutung langfristigen Denkens fördern will. Er trat 1998 eine Honorarprofessur an der Berliner Universität der Künste an. Im August des gleichen Jahres trat Eno anlässlich der Eröffnung einer Ausstellung Brian Eno: Future Light – Lounge Proposal in der Kunst- und Ausstellungshalle der Bundesrepublik Deutschland zweimal auf, und beide Auftritte wurden per Webcast live übertragen. Die 2000er Jahre Brian Eno gründete Anfang 2004 gemeinsam mit Peter Gabriel MUDDA, die Musikergewerkschaft Magnificent Union of Digitally Downloading Artists. Er ist außerdem Co-Produzent des 2006 erschienenen Albums Surprise von Paul Simon. 2006 veröffentlichte Brian Eno die DVD 77 Million Paintings, die mit einem generativen Computerprogramm erstellt wurde. Er nutzte den Computer, um – basierend auf realen Gemälden – 77 Millionen visuelle Darstellungen als „Originale“ mittels Überblendungen zu generieren und kombinierte diese mit aus Sound-Layern generierter Musik. Als Produzent begann er 2006 seine Arbeit am vierten Album Viva la Vida or Death and All His Friends der Band Coldplay, das von Eno zusammen mit Markus Dravs und Rik Simpson produziert wurde und im Frühjahr 2008 erschien. U2 teilten Anfang Juni 2007 auf ihrer offiziellen Website mit, dass sich Eno zusammen mit Daniel Lanois zur Aufnahme eines neuen U2-Albums im Studio in Marokko eingefunden habe. Das aus dieser Zusammenarbeit entstandene Album No Line on the Horizon wurde im Februar 2009 veröffentlicht. 2006 gestaltete Eno exklusiv für Nokia die Klingel- und Signaltöne des Mobiltelefons 8800 Sirocco Edition. Zusammen mit dem Musiker und Software-Designer Peter Chilvers entwickelte er die beiden Programme Bloom und Trope für das iPhone. Beide Programme sowie das von Chilvers auf Basis von Enos Ideen entwickelte Air erzeugen zufallsbasierte unendliche Musikstücke wie bereits 77 Million Paintings. Im selben Jahr schrieb er die Filmmusik zu dem Dokumentarfilm The Pervert’s Guide to Cinema von Sophie Fiennes über den Philosophen und Psychotherapeuten Slavoj Žižek. Im Mai und Juni 2009 gestaltete er das zweite Sound and Light Festival in dessen Rahmen unter anderem das Sydney Opera House angestrahlt wurde. 2009 lieferte er den Soundtrack zu Peter Jacksons Film In meinem Himmel (The Lovely Bones). 2010 veröffentlichte die Indietronic-Band MGMT ein Musikstück mit dem Titel Brian Eno. Im November 2010 erschien Enos Album Small Craft on a Milk Sea bei Warp Records. Anfang Juli 2011 erschien das in Zusammenarbeit mit dem britischen Dichter Rick Holland entstandene Album Drums Between the Bells ebenfalls bei Warp. Peter Gabriel coverte auf dem 2010 erschienenen Studioalbum mit dem Namen Scratch My Back das Lied Heroes von David Bowie und Brian Eno in einer orchestralen Fassung. Bowie lehnte es jedoch ab, an dem später im Jahr 2013 erschienenen Kompilations-Album des Folgeprojektes And I’ll Scratch Yours teilzunehmen. Stattdessen steuerte sein Co-Autor Brian Eno einen Beitrag bei und coverte das Lied Mother of Violence von Peter Gabriel. Im November 2012, wiederum bei Warp, erschien mit dem Album Lux Brian Enos erstes Solowerk nach sieben Jahren. Die knapp 75-minütige Komposition wurde im Rahmen einer Installation im Reggia di Venaria Reale nahe Turin konzipiert und war dort auch erstmals zu hören, ehe sie wenige Tage vor ihrer kommerziellen Veröffentlichung (und in Anspielung auf das Album Music for Airports) im Tokioter Flughafen Haneda uraufgeführt wurde. Das Album erhielt überwiegend positive Kritiken, und es wurde auf Parallelen zu Enos frühen Ambient-Werken, insbesondere Thursday Afternoon, hingewiesen. Brian Eno ist Mitglied der 2016 gegründeten Bewegung Demokratie in Europa 2025 (DIEM25) und engagiert sich für die als antisemitisch kritisierte BDS-Kampagne. 2023 war Brian Eno bei verschiedenen Titeln des in Einzeltiteln neu erscheinenden Albums i/o an der Musikproduktion sowie am Synthesizer (bei Panopticom, The Court, Four Kinds of Horses und This Is Home); an Glocken (bei Panopticom); an der Perkussion (bei The Court); mit Musikprogrammierung (bei Four Kinds of Horses und Road to Joy), an der manipulierten Gitarre und Ukulele (bei Road to Joy) und Dreamy Piano (bei This Is Home) beteiligt. Diskografie Mit Roxy Music Roxy Music (1972) For Your Pleasure (1973) Ausstellungen (Auswahl) Self Storage (Wembley, London 1995, mit Laurie Anderson) Filmografie (Auswahl) 1976: Sebastiane 2015: Ich und Earl und das Mädchen (Me and Earl and the Dying Girl) 2021: We Are As Gods (Dokumentarfilm) 2021: Wood and Water Bücher Brian Eno: A year with swollen appendices. Tagebucheinträge und Aufsätze, Faber and Faber, 1996, ISBN 0-571-17995-9. Jürgen Wanda: Re-Make/Re-Model – Die Geschichte von Roxy Music, Bryan Ferry & Brian Eno. Star-Cluster-Verlag, Balve 1997, ISBN 3-925005-45-5. Auszeichnungen 1994: Frankfurter Musikpreis 1998: 01 award (UdK-Berlin) 2007: Royal College of Art Award 2014: Giga-Hertz-Preis, verliehen vom ZKM | Institut für Musik und Akustik und dem Freiburger Experimentalstudio des SWR 2015: B3 BEN Hauptpreis der B3 Biennale des bewegten Bildes 2019: Benennung eines Asteroiden nach ihm: (81948) Eno. Weblinks Brian Eno bei Google Arts & Culture Brian-Eno-Fanpage (englisch) Autorenbeteiligungen und Produktionen bei austriancharts.at Einzelnachweise Popmusiker Elektronische Lounge- und Ambient-Musik Synthesizerspieler Roxy Music Musikproduzent Grammy-Preisträger Person als Namensgeber für einen Asteroiden Brite Geboren 1948 Mann