id
stringlengths 1
7
| revid
stringlengths 1
9
| url
stringlengths 37
43
| title
stringlengths 1
247
| text
stringlengths 0
465k
|
---|---|---|---|---|
730 | 217280 | https://de.wikipedia.org/wiki?curid=730 | Bootfähiges Medium | Ein bootfähiges oder startfähiges Medium (kurz "Startmedium;" booten von = [einen Computer] starten) ist ein Speichermedium, das für eine oder mehrere Computerplattformen sowohl den nötigen Inhalt als auch die notwendige Datenstruktur aufweist, um ein Starten des Computers mittels der auf dem Medium befindlichen Software zu ermöglichen.
Als primäres Startmedium nutzen Computersysteme üblicherweise einen internen Massenspeicher, auf dem das Betriebssystem installiert ist. Übliche Bezeichnungen sind auch "Bootlaufwerk", "Bootpartition" sowie "Startvolume". Es existieren jedoch auch Konfigurationen, die ohne ein lokales Startmedium auskommen, beispielsweise kann im BIOS (der System-Firmware), wenn implementiert, auch das Starten über das Netzwerk (z. B. via BOOTP oder PXE) konfiguriert werden.
Auswahl des Startmediums.
Ob ein Computer tatsächlich von einem bestimmten Speichermedium starten kann oder nicht, hängt zuallererst davon ab, ob das Medium bzw. dessen Lesegerät (z. B. Laufwerk) auch an den Computer angeschlossen werden kann. Weiters muss die integrierte System-Firmware des Computers das entsprechende Lesegerät (Laufwerk) und dessen Anbindung (z. B. über USB) auch als Startmedium unterstützen.
Bei IBM PCs mit BIOS als Firmware (bis ca. 2010 die meistgenutzte Firmware, abgelöst von UEFI) lässt sich beispielsweise meist im BIOS-Setup konfigurieren, welche Medien in welcher Reihenfolge probiert werden, genannt "Bootreihenfolge." Auf Macintosh-Systemen von Apple lässt sich das zu verwendende Startmedium über die Firmware einstellen oder einmalig durch Halten der Wahltaste (entspricht der Alt-Taste auf PC-Tastaturen) nach dem Einschalten des Computers auswählen. Andere Systeme bieten oft ähnliche Wahlmöglichkeiten oder sind per Design „“, z. B. mobile Betriebssysteme wie Android oder iOS auf Smartphones.
Eine weitere Voraussetzung für ein Startmedium ist der korrekte Inhalt: Je nach Computersystem wird z. B. ein benötigt, der in einem bestimmten Format vorhanden sein muss und an einer vordefinierten Stelle erwartet wird. Findet die einen solchen , lädt sie diesen und übergibt dann die Kontrolle, indem sie ihn ausführt. Die primäre Aufgabe eines ist das Starten eines Betriebssystems. Da also eine die nächste lädt und ausführt, wird dieser Prozess auch als bezeichnet: die lädt den Urlader, der wiederum einen weiteren von einem Startmedium lädt, der wiederum den für ein Betriebssystem lädt, das weitere Teile (wie den ) eines Betriebssystems startet.
Es ist auch möglich, mehr als eine Betriebssysteminstallation auf einem einzigen physischen Speichermedium unterzubringen: bei dieser als Multi-Boot-System bezeichneten Installation muss einer der im vorhandenen eine Auswahlmöglichkeit bieten, um das vom Anwender nach dem Einschalten des Computers gewünschte Betriebssystem starten zu können. Bei Systemen, die auf einen Bootloader angewiesenen sind (vor allem Computern mit BIOS), ist dann eine zusätzliche Konfiguration oder die Installation eines nötig, um das gewünschte Betriebssystem zum Starten auswählen zu können. Auf Systemen mit anderer System- (siehe BIOS#System-Firmware verschiedener Plattformen) kann das zu startende Betriebssystem meist direkt über die ausgewählt werden (Open Firmware, UEFI).
Beispiele für Startmedien.
Im Gegensatz zur Firmware, die nicht austauschbar ist bzw. die mehr oder minder fest mit dem Computersystem verbunden ist, ist ein Startmedium meist relativ einfach wechsel- oder austauschbar. Ein solches Medium kann z. B. sein:
Zur Reparatur, aber auch für andere Einsatzzwecke dienen Medien, die meist als Speicherabbild (z. B. als ) mehr oder weniger frei verfügbar sind. Auch Anwendungen, insbesondere in der Backup- und Computersicherheitsanwendung, bieten startfähige Medien an, die sich teils später erstellen lassen (), teils aber mit der Installations-CD identisch sind.
"→ Siehe auch: Einsatzmöglichkeiten von Live-Systemen" |
731 | 683007 | https://de.wikipedia.org/wiki?curid=731 | Birkengewächse | Die Birkengewächse (Betulaceae) sind eine Pflanzenfamilie in der Ordnung der Buchenartigen (Fagales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die 110 bis 200 Arten sind in den gemäßigten Gebieten der Nordhalbkugel und in den Bergregionen der Tropen verbreitet.
Beschreibung.
Erscheinungsbild und Blätter.
Die Arten der Birkengewächse sind laubabwerfende, verholzende Pflanzen und wachsen als Bäume oder Sträucher. Die wechselständig und spiralig, zwei- oder dreireihig an den Zweigen angeordneten, gestielten Laubblätter besitzen eine einfache Blattspreite. Die Blattränder sind (meistens doppelt) gesägt, gezähnt bis selten fast glatt. Die Nebenblätter fallen meist früh ab.
Blütenstände und Blüten.
Gemeinsam ist allen Arten der Betulaceae, dass sie einhäusig getrenntgeschlechtig (monözisch) sind. Auf einem Pflanzenexemplar kommen also weibliche und männliche Blütenstände vor – bei dieser Familie werden sie Kätzchen genannt. In den Blütenständen sitzen immer viele, sehr einfach gebaute Blüten, jeweils nur mit Staubblättern oder nur mit Fruchtknoten und Narben. Die männlichen Blütenstände sind hängende Kätzchen. Die weiblichen Blütenstände sind je nach Gattung unterschiedlich aufgebaut. Die weiblichen Blütenstände der Coryloideae haben laubblattähnliche Tragblätter (Brakteen), dagegen haben die Betuloideae holzige Blütenstände. In den weiblichen Blüten sind zwei Fruchtblätter zu einem unterständigen, zweikammerigen Fruchtknoten verwachsen und es sind zwei freie Griffel vorhanden. In jeder Fruchtknotenkammer hängen von fast der Spitze aus jeweils zwei, oder selten nur eine, Samenanlagen. Wie bei vielen windbestäubten Taxa sind die einzelnen Blütenteile reduziert.
Früchte und Samen.
Sie haben ungeflügelte Nüsse oder kleine, geflügelte Nussfrüchte mit jeweils nur einem Samen. Die Samen enthalten einen geraden Embryo mit zwei flachen oder verdickten Keimblättern (Kotyledone) und kein Endosperm.
Systematik und Verbreitung.
Die Familie Betulaceae wurde 1822 durch Asa Gray in "A Natural Arrangement of British Plants", 2, 222, 243 aufgestellt. Typusgattung ist "Betula"
Die Familie der Betulaceae enthält heute zwei Unterfamilien mit sechs Gattungen und insgesamt 110 bis 200 Arten, die hauptsächlich auf der Nordhalbkugel verbreitet sind. Alleine in China sind 89 Arten heimisch, davon kommen 56 nur dort vor. Die Arten der Haselnussgewächse, die früher als eine eigene Familie Corylaceae angesehen wurden, werden heute als Unterfamilie Coryloideae den Betulaceae zugeordnet.
Nutzung.
Von vielen Arten werden viele Pflanzenteile auf sehr vielfältige Weise genutzt, nachfolgend nur einige Beispiele.
Von vielen "Corylus"-Arten werden die Nussfrüchte roh oder gegart gegessen. Aus den Samen von einigen "Corylus"-Arten wird Öl für die Verwendung in der Küche gewonnen.
Besonders von "Betula"-Arten wird die Rinde sehr vielseitig verwendet und verarbeitet.
Das Holz einiger Arten wird genutzt.
Bei einigen Arten wurden die medizinischen Wirkungen untersucht.
Viele Arten und ihre Sorten werden als Zierpflanzen in Parks und Gärten verwendet.
Bilder.
Männliche Blütenkätzchen: |
732 | 218546464 | https://de.wikipedia.org/wiki?curid=732 | Berechenbarkeitstheorie | Die Berechenbarkeitstheorie (auch Rekursionstheorie) ist ein Teilgebiet der theoretischen Informatik und der mathematischen Logik, die sich mit dem Begriff der Berechenbarkeit befasst, insbesondere damit, welche Probleme mit Hilfe einer Maschine (genauer: eines mathematischen Modells einer Maschine) oder eines anderen mathematischen Modells der Berechenbarkeit lösbar sind. Sie ist eng verwandt mit der formalen Semantik, richtet aber die Aufmerksamkeit mehr auf die Terminiertheit von Programmen und Algorithmen.
Die zentrale Frage der Rekursionstheorie ist, welche Funktionen (bzw. Mengen) sich mit welchem Berechenbarkeitsmodell berechnen lassen. Es werden dazu Modelle für die Berechenbarkeit und deren Leistungsfähigkeit untersucht. Aus der Art der betrachteten Berechnungsmodelle ergibt sich eine unscharfe Abgrenzung zur Komplexitätstheorie, in der vor allem Berechnungsmodelle mit Ressourcenbeschränkung betrachtet werden. Schwerpunkt vieler Untersuchungen in der Rekursionstheorie ist die relative Berechenbarkeit von Funktionen, d. h., welche Funktionen lassen sich mit einer gegebenen Funktion unter Verwendung eines bestimmten Berechnungsmodells berechnen (siehe zum Beispiel unter Turinggrade).
Hauptfragen.
Wie kann man den Begriff der intuitiven Berechenbarkeit formalisieren? Als weitgehend anerkannte Antwort hat sich die Turingmaschine als mögliches Model durchgesetzt (Church-Turing-These). Es wurde erkannt, dass die Berechnungsfähigkeit der Turingmaschine gleichmächtig zu vielen anderen Berechnungsmodellen ist.
Welche Art Aufgaben kann welche Klasse von Maschinen lösen? Insbesondere werden deterministische und nichtdeterministische Varianten folgender Modelle untersucht:
Welche Art von Problemen benötigt leistungsfähigere Maschinen?
Welche Art Aufgaben kann eine Turingmaschine lösen?
Ein Problem heißt entscheidbar, wenn es durch einen Algorithmus, der nach endlich vielen Schritten terminiert, gelöst werden kann. Viele Probleme sind entscheidbar, es sind aber auch viele unentscheidbare Probleme bekannt. Beispielsweise sind nach dem Satz von Rice alle (nichttrivialen) semantischen Eigenschaften von Programmen unentscheidbar.
Zum Beispiel kann das Problem der Gültigkeit prädikatenlogischer Formeln nicht algorithmisch gelöst werden: Gegeben ist eine Aussage der Prädikatenlogik erster Stufe. Aufgabe ist es herauszubekommen, ob die Aussage wahr ist. Dieses Problem ist auch als das "Entscheidungsproblem" (im engeren Sinn) bekannt.
Church und Turing haben unabhängig voneinander nachgewiesen, dass dieses Problem nicht gelöst werden kann.
Ein weiteres Problem ist das Halteproblem. Es seien ein Algorithmus und eine Eingabe gegeben. Es wird gefragt, ob der Algorithmus für die Eingabe schließlich hält (terminiert). Turing wies die Unentscheidbarkeit dieser Frage nach.
Welche Aufgaben können durch weniger leistungsfähige Maschinen gelöst werden?
Die Chomsky-Hierarchie beschreibt diejenigen formalen Sprachen, die durch vier Klassen von Algorithmen erkannt werden können.
Sie alle setzen einen nichtdeterministischen endlichen Automaten voraus mit einem Speicher.
Wenn der Speicher unendlich groß ist, dann entspricht die Situation der Turingmaschine.
Wenn der Speicher proportional zur Größe der Eingabezeichenkette ist, dann können kontextabhängige Sprachen erkannt werden.
Wenn der Speicher nur einen Stapel umfasst, dann können kontextfreie Sprachen erkannt werden.
Wenn die Maschine nur einen endlichen Speicher hat, dann können nur Sprachen, die durch reguläre Ausdrücke definiert sind, erkannt werden.
Zusammenhang mit der Physik.
Dem Physiker Richard Feynman fiel auf, dass Computer ziemlich schlecht darin sind, Problemstellungen aus der Quantenmechanik zu berechnen. Ein wichtiger Vortrag von ihm hierzu aus dem Jahre 1981 hatte den Titel
Offenbar kann die Natur den Ausgang eines quantenmechanischen Experimentes schneller „ausrechnen“, als wir dies mit einem Computer können. Daher schlug er vor, einen besonderen Computer zu bauen, einen Quantenprozessor.
Dessen Rechenwerk sollte quantenmechanische Prozesse nutzen, um Ergebnisse für quantenmechanische Probleme effizienter zu berechnen. Dabei wurde dann irgendwann klar, dass die einfachen mathematischen Modelle der theoretischen Informatik eigentlich nur mit einer Teilklasse der realen Computer korrespondieren können, weil man nicht alle physikalischen Möglichkeiten ausgeschöpft hatte. Diese neue Klasse von Computern wird als Quantencomputer bezeichnet. Trotzdem sind Quantencomputer im Sinne der Berechenbarkeitstheorie nicht mächtiger als Turingmaschinen (sie können exakt die gleichen Probleme lösen), jedoch könnte sich eventuell ein erheblicher Geschwindigkeitsvorteil ergeben. |
733 | 23437 | https://de.wikipedia.org/wiki?curid=733 | Berechenbarkeit | Eine mathematische Funktion ist berechenbar (auch effektiv berechenbar oder rekursiv), wenn für sie eine Berechnungsanweisung (Algorithmus) formuliert werden kann (Berechenbarkeitstheorie). Die Funktion, die ein Algorithmus berechnet, ist gegeben durch die Ausgabe, mit der der Algorithmus auf eine Eingabe reagiert. Der Definitionsbereich der Funktion ist die Menge der Eingaben, für die der Algorithmus eine Ausgabe produziert. Wenn der Algorithmus nicht terminiert, dann ist die Eingabe kein Element der Definitionsmenge.
Dem Algorithmusbegriff liegt ein Berechnungsmodell zugrunde. Verschiedene Berechnungsmodelle sind entwickelt worden, es hat sich aber herausgestellt, dass die stärksten davon zum Modell der Turingmaschine gleich stark (Turing-mächtig) sind. Die Church-Turing-These behauptet daher, dass die Turingmaschinen den intuitiven Begriff der Berechenbarkeit wiedergeben. In der Berechenbarkeitstheorie heißen genau die Funktionen berechenbar, die Turing-berechenbar sind.
Zu den Turing-mächtigen Berechnungsmodellen gehören neben der Turingmaschine beispielsweise Zweikellerautomaten, WHILE-Programme, μ-rekursive Funktionen, Registermaschinen und der Lambda-Kalkül.
Zu den Berechnungsmodellen, die schwächer sind als Turingmaschinen, gehören zum Beispiel die LOOP-Programme. Diese können zum Beispiel die Turing-berechenbare Ackermannfunktion nicht berechnen.
Ein dem Begriff der Berechenbarkeit eng verwandter Begriff ist der der Entscheidbarkeit. Eine Teilmenge einer Menge (zum Beispiel eine Formale Sprache) heißt entscheidbar, wenn ihre charakteristische Funktion (im Wesentlichen das zugehörige Prädikat) berechenbar ist.
Formale Definition.
Angenommen wird: der Algorithmus formula_1 "berechnet" die Funktion formula_2 mit formula_3, wenn formula_1 bei Eingabe von formula_5 nach einer endlichen Zahl von Schritten den Wert formula_6 ausgibt
und bei Eingabe von formula_7 nicht terminiert.
Eine Funktion heißt "berechenbar", wenn es einen Algorithmus gibt, der sie berechnet.
Den Berechenbarkeitsbegriff kann man gleichwertig auf partielle Funktionen übertragen. Eine partielle Funktion formula_8 heißt berechenbar, wenn sie eingeschränkt auf ihren Definitionsbereich formula_9 eine berechenbare Funktion ist.
Zahlenfunktionen.
In der Berechenbarkeitstheorie werden meist nur Funktionen natürlicher Zahlen betrachtet.
Definition berechenbarer Funktionen mit Registermaschinen.
Eine Funktion
formula_10
ist berechenbar genau dann, wenn es eine formula_11-stellige Registermaschine
formula_12
gibt, deren Maschinenfunktion mit
formula_13
übereinstimmt, also
formula_14
gilt.
Z. B. ist die Funktion
(die für kein Argument terminiert) berechenbar, da es eine entsprechende Registermaschine gibt.
Definition mit WHILE-Programmen.
Eine Funktion formula_13 (wie oben) ist berechenbar genau dann, wenn es ein WHILE-Programm formula_1 gibt mit
Dabei ist formula_19 die Eingabecodierung, formula_20 die Ausgabecodierung und formula_21 die von formula_1 über die Semantik realisierte Maschinenfunktion.
Definition durch Rekursion.
Seien formula_23, Sub und Prk die Operationen der µ-Rekursion, der Substitution und primitiven Rekursion. Funktionen, die sich aus der Menge der primitiv-rekursiven Grundfunktionen durch wiederholtes Anwenden dieser Operatoren erzeugen lassen, heißen µ-rekursiv. Die Menge der formula_23-rekursiven Funktionen ist genau die Menge der berechenbaren Funktionen.
Übergang von einstelligen zu mehrstelligen Funktionen.
Über die cantorsche Paarungsfunktion wird der Begriff der Berechenbarkeit einer "k"-stelligen Funktion auf den der Berechenbarkeit von einstelligen Funktionen zurückgeführt. Insbesondere wird damit in natürlicher Weise definiert ob Funktionen von rationalen Zahlen berechenbar sind.
Wortfunktionen.
Die Berechenbarkeit von Wortfunktionen lässt sich etwa mit Hilfe von Turingmaschinen zeigen. Alternativ führt man eine Standardnummerierung über die Wörter über formula_25 ein und zeigt, dass die so erzeugten Zahlenfunktionen berechenbar sind.
Uniforme Berechenbarkeit.
Eine zweistellige Funktion "f"("x","y") mit der Eigenschaft, dass für jeden festen Wert "a" die durch "f""a"("y") = "f"("a","y") definierte einstellige Funktion "f""a" berechenbar ist, muss selbst nicht unbedingt berechenbar sein; für jeden Wert "a" gibt es zwar einen Algorithmus (also etwa ein
Programm für eine Turingmaschine) "Ta", der "f""a" berechnet, aber die Abbildung "a" → "T""a" ist im Allgemeinen nicht berechenbar.
Eine Familie ("f""a": "a"=0, 1, 2, …) von berechenbaren Funktionen heißt uniform berechenbar, wenn es einen Algorithmus gibt, der zu jedem "a" einen Algorithmus "Ta" liefert, welcher "f""a" berechnet. Man kann leicht zeigen, dass so eine Familie genau dann uniform berechenbar ist, wenn die zweistellige Funktion ("x", "y") → "f""x"("y") berechenbar ist. |
734 | 241745 | https://de.wikipedia.org/wiki?curid=734 | Bärlapppflanzen | Die Bärlapppflanzen ("Lycopodiopsida") sind eine Klasse von Gefäßpflanzen. Sie besteht rezent aus drei Familien mit krautigen Vertretern. Im Zeitalter des Karbon dominierten baumförmige Vertreter weite Gebiete der heute auf der Nordhalbkugel befindlichen Kontinente, sie waren die Grundlage für die heutigen Steinkohlevorkommen in diesen Gebieten.
Merkmale.
Wie auch bei den anderen Gefäßpflanzen ist hier der Sporophyt die dominierende Generation. Der Sporophyt ist meist gabelig (dichotom) verzweigt. Die Sprossachsen tragen einfache, nicht gegliederte Blätter, die klein und schmal sind (Mikrophylle). Vom Habitus ähneln die Bärlappe den Moosen, sind mit diesen jedoch nicht näher verwandt als die anderen Gefäßpflanzen auch. Die heutigen Vertreter sind in der Regel klein und krautig, unter den fossilen Vertretern waren aber auch 40 Meter hohe Bäume.
Die Sporangien stehen einzeln in den Achseln oder am Grund von Blättern (Sporophylle). Die Sporophylle stehen meist am Ende von Sprossabschnitten zu Sporophyllständen („Blüte“) vereinigt. Ausnahmen gibt es bei einigen fossilen Gruppen. Die meisten Gruppen sind isospor, sie bilden also nur gleich große Sporen aus. Einige Gruppen, die Moosfarne und Isoetales, sind heterospor, bilden also große weibliche und kleine männliche Sporen aus. Die Spermatozoiden sind in der Regel zweigeißelig, ein Unterscheidungsmerkmal zu den Farnen, der anderen Gruppe von Gefäßsporenpflanzen. Einzig "Isoetes" besitzt vielgeißelige Spermatozoiden.
Systematik.
Äußere Systematik.
Die Bärlapppflanzen sind die Schwestergruppe aller anderen Gefäßpflanzen, die Farne sind demnach näher mit den Samenpflanzen verwandt als mit den Bärlapppflanzen:
Innere Systematik.
Die rezenten Vertreter der Klasse werden in drei Ordnungen gegliedert, zu der rezent jeweils nur eine Familie gehört:
Daneben gibt es vier Ordnungen ausgestorbener Bärlapppflanzen:
Paläobotanik.
Die ältesten Vertreter der Bärlapppflanzen sind seit dem Silur bekannt, ab dem mittleren Devon lösten sie zusammen mit den Calamiten die Psilophyten als vorherrschende Gruppe ab. Bei den ursprünglichen Vertretern waren die Blätter und die Sporophylle noch gabelig. Einige baumartige Vertreter gehören zu den Hauptvertretern der Steinkohlenwälder des Karbons. Im Karbon hatten die Bärlapppflanzen ihre größte Mannigfaltigkeit, besonders in der Ordnung Lepidodendrales mit den „Schuppenbäumen“ der Familien Lepidodendraceae und Diaphorodendraceae, und den „Siegelbäumen“ (in der Familie Sigillariaceae). Einige baumförmige Arten reichen noch ins Rotliegend, seitdem gibt es nur mehr krautige Vertreter. |
735 | 45933 | https://de.wikipedia.org/wiki?curid=735 | Bettina (Vorname) | Bettina ist ein weiblicher Vorname.
Herkunft und Bedeutung des Namens.
Kurzform von Elisabeth (vermutlich aus dem Italienischen), hebräisch: „Gott ist mein Eid“, „Gott ist Vollkommenheit“.
Geht auch zurück auf den zweiten Buchstaben im hebräischen Alphabet Beth (Bet,ב) = Haus/Stätte.
Verbreitung.
Anfang des 20. Jahrhunderts war der Name Bettina in Deutschland ungebräuchlich. Ab Mitte der Vierziger stieg seine Popularität an. In den sechziger Jahren war der Name einige Male unter den zehn am häufigsten vergebenen weiblichen Vornamen des jeweiligen Jahres. Dann ging seine Beliebtheit mehr und mehr zurück. Seit Mitte der Neunziger werden kaum noch Kinder Bettina genannt.
Namenstag.
Der bekannteste Namenstag von Elisabeth/Bettina ist der 19. November.
Da es mehrere heilige Elisabeths gab, sind auch folgende Namenstage gebräuchlich: 20. Januar, 22. Januar, 5. Februar, 28. Februar, 3. April, 19. Juni, 4. Juli, 25. November.
Varianten.
Bethina, Bettine, Betti, Betty, Betzi, Betsy, Beth, Bez, Bezn, Betina, Bette, Bezl, Beddy, Beddo, Tina, Bettos usw.
Männliche Version: Bettino |
736 | 568 | https://de.wikipedia.org/wiki?curid=736 | Brachsenkräuter | Die Brachsenkräuter ("Isoetes", auch "Isoëtes" geschrieben) sind die einzige rezente Gattung der Pflanzenordnung Brachsenkrautartige (Isoetales) innerhalb der Klasse Bärlapppflanzen (Lycopodiopsida). Diese ausdauernden krautigen Pflanzen mit knolliger Sprossachse wachsen untergetaucht im Wasser oder auf feuchtem Boden und kommen fast weltweit vor.
Beschreibung.
Vegetative Merkmale.
Die Brachsenkräuter wachsen als ausdauernde krautige Pflanzen und besitzen einen binsenartigen Habitus; darin unterscheiden sie sich von allen anderen Bärlapppflanzen.
Sprossachse.
Die Brachsenkräuter besitzen eine kurze, fleischige, aufrechte Knolle als Sprossachse.
Die Sprossachse ist selten ein- oder zweimal dichotom verzweigt, diese Arten wurden früher in eine eigene Gattung "Stylites" gestellt. Die Knolle wächst unterirdisch. Das Meristem am oberen Ende ist unterdrückt. Die Knolle ist zwei-, seltener dreilappig, eher kugelig bis waagrecht spindelförmig.
Die Sprossachse verfügt über ein sekundäres Dickenwachstum. Dieses erfolgt über eine Kambiumzone aus mehr oder weniger isodiametrischen Zellen, die in der Knolle um das primäre Leitgewebe entsteht. Dieses Kambium bildet wenig Xylem- und Phloem, aber viel Rindengewebe. In Arten der temperaten Zonen ist das Kambium jahreszeiten-abhängig aktiv. Gleichzeitig mit der Bildung von neuem Gewebe wird die äußerste Gewebezone zusammen mit den Blattresten und Wurzeln abgestoßen. Die reife Knolle behält daher eine konstante Größe.
Das primäre Xylem besteht aus mehr oder weniger isodiametrischen Tracheiden. Am Unterende der Stele bilden sie eine ankerförmige Verzweigung, die in der gleichen Ebene liegt wie die Querspalte an der Unterseite der Knolle. Das vom Kambium nach innen abgegebene Gewebe differenziert sich zu einem Gemisch aus Tracheiden, Siebzellen und Parenchym. Das nach außen abgegebene Gewebe ist parenchymatisch. Eine das Leitgewebe abgrenzende Endodermis fehlt bei den Brachsenkräutern.
Wurzeln.
Das untere Meristem ist gleichfalls unterdrückt und liegt in der Querspalte der Knolle. Die Wurzeln entspringen der Unterseite der Knolle nahe dem Meristem. Die Wurzeln besitzen ein einzelnes Leitbündel, das von einer zweischichtigen Rinde umgeben ist: die äußere ist recht widerstandsfähig, die innere besteht aus zartwandigen Zellen und zahlreichen luftgefüllten Zellzwischenräumen.
Blätter.
Jeder der Seitenzweige trägt am oberen Ende ein Büschel von Federkiel-ähnlichen Blättern (Mikrophyllen). Die Mikrophylle tragen eine Ligula. Die Blätter sind 1 bis 70 Zentimeter lang und stehen bei jungen Pflanzen zunächst in zwei Reihen (distich), dies geht bald in eine dichte Spirale um das Meristem über.
Die Blätter sind von einem einzelnen Leitbündel durchzogen, das häufig sehr dünn ist. Um das Gefäßbündel liegen vier Luftkanäle, die in Abständen von Querwänden unterbrochen sind. Bei Wasserpflanzen sind die Luftkanäle besonders stark ausgeprägt. Die Blattbasis ist verbreitert und chlorophyllfrei. Die Basen überlappen sich und bilden einen Schopf.
Vermehrung und Gametophyten.
Die Isoëtales sind heterospor. Die Sporophylle unterscheiden sich nicht wesentlich von sterilen Blättern. Die in der Wachstumssaison zuerst gebildeten Blätter bilden Megasporangien, die späteren Mikrosporangien, die zuletzt gebildeten Blätter sind häufig steril. Das Sporangium entsteht zwischen Ligula und Achse. Ein Teil des Gewebes im Inneren des Sporangiums verbleibt steril und bildet Zwischenwände, sogenannte Trabeculae. Das reife Sporangium ist von einer dünnen Hülle, dem Velum eingeschlossen. Das Velum entsteht unterhalb der Ligula und wächst über das Sporangium, wobei eine zentrale Öffnung, das Foramen, freibleibt.
In einem Megasporangium werden etwa 100 Megasporen in der Größe von 0,2 bis fast 1 Millimetern gebildet. In den Mikrosporangien entstehen bis zu einer Million Mikrosporen von bis zu 40 Mikrometer Durchmesser. Die Mikrosporen sind monolet, besitzen nur eine Trennungsnarbe, während die Megasporen trilet sind, eine dreistrahlige Narbe besitzen. "Isoetes" ist damit die einzige rezente Gattung der Bärlapppflanzen, die monolete Sporen bilden, aber auch eine der ganz wenigen Pflanzen, die an einem Individuum sowohl mono- als auch trilete Sporen bilden.
Die Sporen werden erst im Zuge der Zersetzung des Sporophylls freigesetzt. Keimung und Entwicklung der Gameten ähneln der bei den Moosfarnen. Im Unterschied dazu verbleibt der männliche Gametophyt vollständig in der Spore (ist endospor). Aus dem einzigen Antheridium gehen vier Spermatozoide hervor, die im Gegensatz zu denen bei den Moosfarnen und bei "Lycopodium" vielgeißelig sind. Die Spermatozoide werden durch Aufreißen der Mikrosporen-Wand freigesetzt. Der weibliche Gametophyt ähnelt dem der Moosfarne. Die Zellbildung reicht bis weit in das Sporeninnere hinein, ein Diaphragma wie bei vielen Moosfarnen fehlt. Die Entwicklung des weiblichen Gametophyten verläuft zunächst endospor, der wachsende Gametophyt reißt allerdings die Megaspore auf entlang der dreistrahligen Narbe. Er bildet allerdings kein Chlorophyll. Die Archegonien ähneln ebenfalls denen der Moosfarne, ihr Hals besteht allerdings aus vier Zelllagen, nicht aus zwei.
Die erste Teilung der Zygote verläuft leicht schief. Es wird kein Suspensor gebildet, der Embryo ist dennoch endoskopisch, da die äußere Zelle den Fuß bildet, der gesamte restliche Embryo von der verbliebenen inneren Zelle abstammt. Der Embryo dreht sich im Laufe des Wachstums, sodass er schlussendlich zur Oberseite des Gametophyten weist. Er bricht aus dem Gametophyten hervor, die Jungpflanze verbleibt noch einige Zeit von einer Scheide aus Gametophyten-Gewebe umgeben.
Aus triploiden Arten von "Isoetes" ist Apogamie bekannt. Häufig kommt asexuelle Fortpflanzung mittels Knospenbildung anstelle des Sporangiums vor.
Systematik und Verbreitung.
"Isoetes" ist die einzige rezent vorkommende Gattung der Ordnung Isoëtales. Die früher zu "Stylites" gerechneten Arten werden heute zu Isoetes gerechnet.
Die Gattung "Isoetes" umfasst etwa 150 Arten. Nur das See-Brachsenkraut ("Isoetes lacustris") und das Igelsporiges Brachsenkraut ("Isoetes echinospora") kommen als Seltenheiten in Mitteleuropa vor. In Europa, Nordafrika und Vorderasien gibt es folgende Arten:
Weitere Arten sind (Auswahl): |
746 | 1716 | https://de.wikipedia.org/wiki?curid=746 | Butomaceae | |
749 | 332543 | https://de.wikipedia.org/wiki?curid=749 | Bergfilm | Der Begriff Bergfilm war ursprünglich die Bezeichnung für ein Filmgenre in der deutschen Filmgeschichte, wird aber heute auch im weiteren Sinne für Dokumentar- und Spielfilme rund um das Thema Berg gebraucht.
Historischer Bergfilm.
Das Filmgenre Bergfilm bildete sich in den 1920er-Jahren heraus und fand in dem Regisseur Arnold Fanck seinen Hauptvertreter.
Ebenfalls zu den bedeutendsten Regisseuren des Bergfilms gehörten Luis Trenker ("Der verlorene Sohn", 1934) und Leni Riefenstahl ("Das blaue Licht", 1932), die hier ihre Filmkarriere begann. In dem Genre arbeiteten auch Harald Reinl mit "Bergkristall" (1949) und Hans Ertl mit "Nanga Parbat" (1953). Der Bergfilm brachte für die Kameraleute ganz neue Anforderungen mit sich. Freiluftaufnahmen bei natürlichem Licht in all seinen Helligkeitsstufen sowie mitunter schwierige Gelände- und Wetterbedingungen erforderten geschickte Kameraleute, die zudem auch die Berglandschaft als natürliche Kulisse richtig ins Bild zu bringen hatten. Bedeutendste Kameraleute des Bergfilms waren Hans Schneeberger, Sepp Allgeier und Richard Angst, die allesamt kurz- oder längerfristig für Arnold Fanck arbeiteten.
Folgend einige bedeutende Beispiele des Genres Bergfilm:
Moderner Bergfilm.
Heute wird der Begriff Bergfilm oft weiter gefasst und umschließt neben Spielfilmen auch Kurzfilme und Dokumentationen, welche sich mit Natur, Sport und Kultur in den Bergen befassen. Der klassische Bergfilm erlebt eine Renaissance durch Spielfilme wie "In eisige Höhen" über das Höhenbergsteigen anhand des Unglücks am Mount Everest 1996, Joseph Vilsmaiers "Nanga Parbat" über die Geschichte der Messner-Brüder, "Cliffhanger" mit Motiven des Freeclimbing, "Nordwand" über das historische Alpinklettern, oder "Am Limit" über die modernsten Spielarten des Extremkletterns (Huber-Brüder).
Auch der Skifilm (siehe unten) ist eine Variante des modernen Bergfilms.
Dokumentarfilm und Heimatfilm.
Erzählerisch gestalten sich auch Filme, die das klassische Genre des alpenländischen "Heimatfilms" von Romantisierung und Verkitschung der Kriegs- und Nachkriegsjahre zu befreien suchen, dafür hat sich etwa „Neuer Heimatfilm“ als Begriff eingebürgert. In diesem Kontext finden sich Literaturverfilmungen, halbdokumentarische Filmwerke und Fernsehfilme, etwa Theo Maria Werners "Der gestohlene Himmel" (1974), Hans W. Geißendörfers "Sternsteinhof" (1975/76), Jo Baiers "Rauhnacht" 1984, Fredi M. Murers "Höhenfeuer" und Xavier Kollers "Der schwarze Tanner" (beide 1985), Joseph Vilsmaiers "Herbstmilch" und Xaver Schwarzenbergers "Krambambuli" (1998, nach der gleichnamigen Erzählung), Stefan Ruzowitzkys "Die Siebtelbauern" (1998), die Geierwallyverfilmungen von Walter Bockmayer (1988) und Peter Sämann (2005), in weiterem Sinne auch Vilsmaiers "Schlafes Bruder" (1995) und "Bergkristall" (2004), oder Hans Steinbichlers "Hierankl" (2003), Modernisierungen des Wildschützgenres wie Hans-Günther Bückings "Jennerwein" (2003) und Historienfilme wie Schwarzenbergers "Andreas Hofer – Die Freiheit des Adlers" (2002).
Zusätzlich zu den belletristischen Filmen sind in jüngerer Zeit auch zahlreiche Dokumentationen über die spezifische Kultur der Begräume getreten. Zu diesen gehören etwa preisgekrönte Schweizerische Produktionen in der Tradition Murers "Wir Bergler in den Bergen sind eigentlich nicht schuld, daß wir da sind" (1974), wie "Das Erbe der Bergler" (Erich Langjahr, 2006) oder "Bergauf, Bergab" (Hans Haldimann, 2008) und weitere Werke wie "Peak – Über allen Gipfeln" (Hannes Lang, 2011).
Skifilm.
Zum Genre Bergfilm gehört auch der "Skifilm". Seine Wurzeln liegen ebenfalls in den 1920er Jahren. Bedeutende Skifilme drehten zum Beispiel Willy Bogner, Arnold Fanck und Luis Trenker. Sepp Allgeier und Fanck führten Bergfilm und Sportfilm zu einem Genre zusammen; Bogner fand als Regisseur und skifahrender Kameramann für einige James-Bond-Filme neue Möglichkeiten zum Drehen rasanter Verfolgungsjagden auf Skiern. 1986 erschien sein Film "Feuer und Eis"; dieser ergänzte das Genre um die Bildsprache des Videoclips.
Bergfilm-Festivals.
International ist eine Reihe von Festivals entstanden, welche Bergfilme auszeichnen. Von den in der International Alliance for Mountain Film zusammengeschlossenen Festivals gehören das Banff Mountain Film Festival und das Bergfilmfestival in Trient zu den Bekanntesten. Auch in Deutschland gibt es seit 2003 ein mittlerweile international bekanntes Bergfilmfestival in Tegernsee. Zu den Gewinnern des Festivals zählten in den letzten Jahren Filme wie "Nordwand" und "Touching The Void". In Österreich sind das Berg- und Abenteuerfilmfestival Graz und das Bergfilmfestival Salzburg „Abenteuer Berg – Abenteuer Film“ zu nennen.
Sonstiges.
Das „Goldene Matterhorn“ für den besten Bergfilm im Jahr 2000 erhielt der Film "Glücklicher Ikarus". Toni Bender, einer der weltbesten Gleitschirmflieger, überquerte die Alpen mittels Gleitschirm und filmte dabei. |
750 | 3073404 | https://de.wikipedia.org/wiki?curid=750 | Busen | Busen steht für:
Geografie:
Busen ist der Familienname folgender Personen:
Siehe auch: |
751 | 95389 | https://de.wikipedia.org/wiki?curid=751 | Brustkrebs | Brustkrebs oder Mammakarzinom (von „Zitze, Brust; weibliche Brustdrüse“) ist der häufigste bösartige Tumor der Brustdrüse des Menschen. Er kommt hauptsächlich bei Frauen vor; nur etwa jede hundertste dieser Krebserkrankungen tritt bei Männern auf. In den westlichen Staaten ist Brustkrebs die häufigste Krebsart bei Frauen. Am Brustkrebs sterben mehr Frauen als an irgendeiner anderen Krebserkrankung. Die meisten Erkrankungen treten sporadisch (zufällig) auf, es gibt aber sowohl erbliche als auch erworbene Risikofaktoren. Neben der Heilung sind der Erhalt der betreffenden Brust und vor allem der Lebensqualität erklärtes Ziel der medizinischen Behandlung.
Die Therapie besteht in der Regel in einer an das Erkrankungsstadium angepassten Kombination aus Operation sowie Zytostatika-, Hormon- und Strahlentherapie. Neue Ansätze aus dem Gebiet der Krebsimmuntherapie werden außerdem durch monoklonale Antikörper (wie z. B. durch die Verabreichung von Trastuzumab oder Pertuzumab) ermöglicht. Das medizinische Vorgehen basiert in hohem Maß auf Erfahrungen aus Studien, folgt oft der evidenzbasierten Medizin und ist in weltweit akzeptierten Leitlinien standardisiert. Zahlreiche nationale und internationale Programme zur Früherkennung und zur strukturierten Behandlung sollen die Letalität (Sterblichkeit) künftig senken.
Epidemiologie.
Brustkrebs bei der Frau.
In Deutschland ist das Mammakarzinom mit einem Anteil von 32 % aller Krebsneuerkrankungen die häufigste Krebserkrankung bei Frauen. Das Lebenszeitrisiko wird mit 12,9 % angegeben, d. h. etwa jede achte Frau erkrankt im Laufe ihres Lebens an Brustkrebs. Dies sind in Deutschland etwa 71.900 Neuerkrankungen pro Jahr (2019) oder 171 Fälle pro 100.000 Einwohner und Jahr.
Die Weltgesundheitsorganisation (WHO) gab zum Weltkrebstag im April 2021 bekannt, dass im Jahr 2020 weltweit 19,3 Millionen Menschen an Krebs erkrankten. Als häufigste Krebsart sei Brustkrebs registriert worden, gefolgt von Lungenkrebs. Die Zahl von derzeit rund 20 Millionen Krebs-Neuerkrankungen könnte laut WHO bis 2040 auf etwa 30 Millionen weltweit ansteigen. Für Deutschland prognostizierte die Deutsche Krebshilfe einen Anstieg auf rund 600.000 Krebsfälle im Jahr 2030. Auf Basis von aktuellen Erkrankungszahlen und der erwarteten demografischen Entwicklung haben Wissenschaftler der Internationalen Agentur für Krebsforschung (IARC) und von anderen Instituten im Fachmagazin "The Breast" eine Prognose für die globale Häufigkeit der Erkrankung aufgestellt: Bis 2040 werde die Krankheitslast weiter zunehmen. Die Autoren gehen dann von über drei Millionen Neuerkrankungen (+40,8 % im Vergleich zu 2020) und einer Million Todesfällen (+51,9 %) pro Jahr aus – allein schon wegen der wachsenden und immer älter werdenden Weltbevölkerung.
Bei internationalen Vergleichen muss die unterschiedliche Altersverteilung der nationalen Bevölkerungen berücksichtigt werden. Die nach dem sogenannten "Europastandard (ESR)" altersstandardisierte Inzidenz (Neuerkrankungsrate) lag in Deutschland im Jahr 2010 für Frauen bei 119,6/100.000. Die brustkrebsbedingte Sterberate (Mortalität) betrug im selben Jahr altersstandardisiert 24,0/100.000 nach dem ESR. Seit 1970 haben sich die Erkrankungszahlen verdoppelt, während die Mortalität eher rückläufig ist.
Brustkrebs ist weltweit die häufigste invasive Tumorerkrankung bei Frauen. Weltweit gibt es nach Schätzungen der WHO (2003) etwa 1.050.000 neue Erkrankungsfälle pro Jahr, davon 580.000 in den Industriestaaten. Vergleichsweise seltener ist die Erkrankung in Afrika und Asien.
Weltweit starben 1998 circa 412.000 Frauen an Brustkrebs, das sind 1,6 % aller gestorbenen Frauen. Damit ist Brustkrebs weltweit die häufigste krebsbedingte Todesursache bei Frauen. In der westlichen Welt ist Brustkrebs bei Frauen zwischen dem 30. und 60. Lebensjahr die häufigste Todesursache überhaupt.
In Deutschland schätzt man etwa 17.460 brustkrebsbedingte Todesfälle pro Jahr und in den Vereinigten Staaten etwa 40.200. In Deutschland beträgt die durchschnittliche Fünfjahresüberlebensrate zurzeit 86–90 %. Während jedoch in den reichen Ländern die Sterberate sinkt, ist sie in den ärmeren Ländern hoch. Dies hängt zum einen mit der immer höheren Lebenserwartung zusammen, zum anderen mit den schlechteren diagnostischen und therapeutischen Möglichkeiten in den ärmeren Ländern. WHO-Angaben zufolge starben 2007 etwa 72 Prozent aller an Krebs erkrankten Menschen in Ländern mit mittlerem und niedrigem Einkommen. Dennoch gab es 2013 in den Vereinigten Staaten das Phänomen von steigenden Brustkrebsraten bei jungen Frauen, für die es bisher keine zufriedenstellende Erklärung gibt.
Brustkrebs beim Mann.
Männer erkranken seltener an Brustkrebs. In Uganda sind fünf Prozent aller Mammakarzinompatienten männlich, in Sambia liegt der Anteil sogar bei 15 Prozent. Nach aktueller Statistik 2019 sind es in Deutschland jährlich etwa 700 Männer. Das Verhältnis von Erkrankungen bei Männern zu Frauen liegt bei 1:100. Die standardisierten globalen Inzidenzraten für Brustkrebs betrug bei Männern 0,40 pro 105 Personenjahre (66,7 pro 105 bei Frauen). Die Diagnosestellung erfolgt bei Männern in einem höheren medianen Alter (69,6 Jahre). Männliche Patienten weisen zwar eine schlechtere relative 5-Jahres-Überlebensrate auf als Frauen (0,72 [95 % KI: 0,70–0,75] bzw. 0,78 [95 % KI: 0,78-0,78]), was einem relativen erhöhten Mortalitätsrisiko von 1,27 (95 % KI: 1,13–1,42) entspricht, sie zeigen jedoch nach Anpassung um Alter und Jahr der Diagnosestellung, Stadium und Therapie ein signifikant besseres relatives Brustkrebs-assoziiertes Überleben als Patientinnen. Die Mortalität bei Männern liegt bei rund 200 Todesfällen pro Jahr. Eine Studie der European Organisation for Research and Treatment of Cancer (EORTC) zusammen mit anderen Fachverbänden aus Europa und Nordamerika soll die Ursachen für diese Geschlechterdifferenz detailliert aufklären.
Risikofaktoren für Brustkrebs bei Männern.
Die Häufigkeit von Brustkrebs bei Männern wird durch demographische, genetische, umweltbedingte und endokrine Faktoren gesteigert:
Anmerkungen: CHEK2 ist an der DNA-Reparatur beteiligt. Das Gen kodiert eine Zellzyklus-Checkpoint-Kinase.
PALB2 wird Partner und Lokalisierer von BRCA2 genannt. Das Gen kodiert ein Protein, welches mit dem Brustkrebsrisikofaktor BRCA2 interagiert.
Den Aufbau und die Betreuung des 2010 in der Bundesrepublik gebildeten ersten Selbsthilfe-Netzwerks „Netzwerk Männer mit Brustkrebs e. V.“ hat die bundesweite Frauenselbsthilfe nach Krebs (FSH) in Bonn unter dem Patronat der Stiftung Deutsche Krebshilfe übernommen. Neben dem "Netzwerk Männer mit Brustkrebs" und dem Infonetz Krebs bietet auch der Krebsinformationsdienst Informationen zu diesem Thema.
Symptome für eine Erkrankung sind Flüssigkeitsabsonderung aus der Brustwarze, kleine Entzündungen oder Wunden, die nicht abheilen oder eine Einziehung der Brusthaut an einer Stelle oder der Brustwarze.
Zur Behandlung können in einer Operation sowohl tumorverdächtige Bereiche wie auch benachbarte Lymphknoten aus der Achselhöhle entnommen werden. Über solche Lymphknoten können sich Tumorzellen am ehesten im Körper ausbreiten. Möglich ist auch eine Strahlentherapie der Brustwand und eventuell eine Chemotherapie. Auch bei Männern kann eine antihormonelle Therapie sinnvoll sein, wenn ihr Tumor östrogenabhängig wächst, und/oder eine Therapie mit Antikörpern, die sich gegen besondere Merkmale mancher Brustkrebszellen richten. Männer bilden auch das Hormon Östrogen, jedoch in sehr viel geringerem Maße als Frauen.
Ursachen und Risikofaktoren.
Genetische Risikofaktoren.
Etwa 5 bis 10 % der Brustkrebserkrankungen können erblich bedingt sein. Nur bei einer kleinen Gruppe von Frauen (etwa 1 pro 500) findet man definierte, krankheitsverursachende Mutationen. Wesentlich häufiger sind genetische Veränderungen, die die Suszeptibilität (Empfänglichkeit) für Brustkrebs auf äußere Faktoren erhöhen.
Die höchste Wahrscheinlichkeit, an der erblichen Form des Brustkrebs zu erkranken, besteht bei Frauen mit Mutation in den Genen "BRCA1" und "BRCA2" ("BRCA1/2" = "Breast Cancer Gene 1/2"). Es kommt bereits bei einer Mutation in einem Allel dieser Gene zur Erkrankung (man spricht von sogenannten Tumorsuppressorgenen mit autosomal-dominantem Erbgang). Die Wahrscheinlichkeit, im Laufe des Lebens an Brustkrebs zu erkranken, wird für Trägerinnen des mutierten BRCA1 mit 65 %, für Trägerinnen des mutierten BRCA2 mit 45 % angegeben.
Mutationen im p53-Gen, einem der Tumorsuppressorgene, werden autosomal-dominant vererbt (Li-Fraumeni-Syndrom). Weitere Genveränderungen, die das Risiko erhöhen, betreffen Mutationen von PTEN (Cowden-Syndrom), STK11 (Peutz-Jeghers-Syndrom) und CDH1 (E-Cadherin); deren Häufigkeit und Risikoerhöhung für die Brustkrebserkrankung ist jedoch nicht genau bekannt. Mäßig erhöht ist die Wahrscheinlichkeit bei Bestehen der seltenen genetischen Veränderungen mit mittlerer Penetranz, diese betreffen unter anderem die folgenden Gene: ATM (Ataxia teleangiectatica), CHK2 "(checkpoint kinase 2)" und BRIP-1. Insgesamt lassen sich nicht mehr als fünf Prozent der Brustkrebserkrankungen auf diese Genveränderungen mit hohem oder mittlerem Risiko zurückführen.
Die wesentlich häufigeren Allelveränderungen mit geringer Penetranz erhöhen das Brustkrebsrisiko höchstens auf das 1,25-fache bei heterozygoten Veränderungen und auf das 1,65-fache bei homozygoten Veränderungen. Dazu gehören insbesondere Veränderungen von FGFR2 "(fibroblast growth factor receptor 2)" und auf dem Chromosom 2q. Es wird geschätzt, dass solche Mutationen mit geringer Penetranz bei 58 % der Brustkrebserkrankungen eine Rolle spielen.
Die Wahrscheinlichkeit, selbst zu erkranken, steigt statistisch nachweisbar ab zwei an Brustkrebs Erkrankten in der direkten Verwandtschaft an. Familien, in denen mehrere Personen an Brust- oder Eierstockkrebs erkrankt sind, wird eine tumorgenetische Beratung in einem Beratungszentrum, beispielsweise aus dem "Verbundprojekt familiärer Brustkrebs der Deutschen Krebshilfe" empfohlen.
Bei Frauen mit einer entsprechenden Prädisposition (hohe Wahrscheinlichkeit des Krankheitsauftretens) kann auf Wunsch eine beidseitige prophylaktische Mastektomie (Brustamputation) und/oder eine Eierstockentfernung vorgenommen werden: Einen gewissen Schutz vor einer Brustkrebserkrankung scheint die weitgehende Unterbindung der Östrogenproduktion durch die Entfernung beider Eierstöcke zu bieten. Verschiedene Autoren berichten von einer Verringerung des Erkrankungsrisikos von 50 bis 70 %, wenn in der Familie bereits Brustkrebs auftrat.
Hormonelle Faktoren.
Menschliche Körperzellen, auch Tumorzellen, tragen Rezeptoren für die Sexualhormon-Gruppen Estrogene und Gestagene. Mammakarzinome mit Estrogen- und/oder Gestagen-Rezeptoren können durch eine endokrine Therapie, z. B. Tamoxifen, in ihrem Wachstum gebremst werden. Es wird diskutiert, ob Estrogene und Gestagene die Entstehung von Brustkrebs beeinflussen. Durch eine Blockierung des Estrogen-Rezeptors mit Tamoxifen konnte die Häufigkeit von Brustkrebserkrankungen (Inzidenz) gesenkt werden. Es wurde nur die Häufigkeit von Mammakarzinomen mit Rezeptoren gesenkt. Rezeptor-negative Karzinome wurden nicht beeinflusst. Neben Tamoxifen könnten auch Raloxifen und Exemestane die Inzidenz von Brustkrebs senken. Für den klinischen Einsatz müssen Risiken und Nebenwirkungen sorgfältig abgewogen werden. Eine mehrjährige Hormonersatztherapie gegen Wechseljahresbeschwerden mittels östrogen- und gestagenhaltiger Medikamente kann das Erkrankungsrisiko um bis zu 45 % erhöhen. In der "Women’s Health"-Initiative war das relative Brustkrebsrisiko 1,26 (Vertrauensbereich 1,00-1,59) nach postmenopausaler Einnahme von Östrogenen und Gestagenen. Auch Frauen mit früher Menarche (erstes Auftreten der Regelblutung in der Pubertät) und später Menopause (Ende der Menstruation, „Wechseljahre“) tragen ein etwas höheres Erkrankungsrisiko. Frauen, die früh Kinder bekommen und lange stillen, haben dagegen ein niedrigeres Risiko.
Inwieweit die Antibabypille das Risiko erhöht, ist ebenso substanz- und dosisabhängig wie bei Hormonersatztherapien und daher nicht allgemein bezifferbar. Die Nurses’ Health Study und weitere Studien konnten jedoch eine typische Erhöhung des Risikos auf das 1,2- bis 1,4-fache nach einer Einnahme der Pille über mehr als fünf Jahre zeigen.
Schwangerschaftsabbrüche erhöhen das Brustkrebsrisiko einer Metaanalyse aus dem Jahr 2004 zufolge nicht. Auch in anderen Studien mit hohen Fallzahlen konnte man einen solchen Zusammenhang nicht nachweisen.
Linkshändigkeit.
Eine Studie, in der festgestellt wurde, dass Linkshänderinnen ein bis zu doppelt so hohes Risiko haben, vor der Menopause an Brustkrebs zu erkranken als Rechtshänderinnen, sorgte im September 2005 für erhöhtes öffentliches Interesse. Schon fünf Jahre zuvor war eine andere Studie zu einem ähnlichen Ergebnis gekommen (Risikozunahme +42 %). Eine Studie aus dem Jahr 2007 kommt sogar auf eine um den Faktor 2,59 erhöhte Brustkrebswahrscheinlichkeit bei Linkshänderinnen.
Die Mechanismen für das erhöhte Brustkrebsrisiko bei Linkshänderinnen sind noch weitgehend ungeklärt. Eine in Fachkreisen diskutierte Hypothese besagt, dass eine pränatale Einwirkung von erhöhten Dosen von Sexualhormonen auf den Embryo die Ursache ist. Die Sexualhormone bewirken dabei – so die Hypothese – zum einen, dass das Kind linkshändig wird und zum anderen, dass sich das Brustgewebe verändert und anfälliger für eine Krebserkrankung wird. Die Linkshändigkeit ist dabei gewissermaßen ein Indikator für erhöhte Konzentrationen an Steroiden in der Gebärmutter. Die Hypothese, dass die Grundlage für die Entstehung von Brustkrebs durch die Einwirkung von Sexualhormonen im embryonalen Stadium gebildet werden kann, wird schon seit 1990 diskutiert und basiert auf dem Geschwind-Behan-Gallura-Modell. Dass Sexualhormone – insbesondere Testosteron – "in utero" einen Einfluss auf die Ausbildung der Händigkeit haben können, wurde bereits 1985 gezeigt.
Linke Brust häufiger als rechte Brust.
Statistisch gesehen ist die linke Brust, sowohl bei Frauen als auch Männern, häufiger von Brustkrebs betroffen als die rechte. Davon sind alle Populationen betroffen. Mit zunehmendem Alter wird der Unterschied noch größer. Diese für die linke Brust erhöhte Rate trifft offensichtlich nicht für Tumoren zu, die ihren Entstehungsort im oberen äußeren Quadranten haben. Die Wahrscheinlichkeit, dass die linke Brust an Krebs erkrankt, ist – je nach Studie – um fünf bis sieben Prozent höher als bei der rechten. Bei Männern liegt dieser Wert sogar bei zehn Prozent.
Die Ursachen für dieses Phänomen sind noch weitgehend unklar. Diskutiert werden unter anderem Schlafgewohnheiten, Händigkeit, Unterschiede in der Brustgröße und den Gehirnstrukturen sowie Präferenzen beim Stillen. Eine andere Hypothese sieht in der embryonalen Entwicklung des auf der linken Körperseite befindlichen Herzens eine mögliche Ursache.
Bei anderen Organen, wie beispielsweise der Lunge und den Hoden, ist eine ähnliche statistische Häufung zu beobachten. Bei diesen beiden Organen ist die Wahrscheinlichkeit, dass die rechte Hälfte des Organs betroffen ist, um 13 % höher. In diesen Fällen erklärt man sich diesen Unterschied durch das meist kleinere Gewebevolumen der linken Organhälfte.
Weitere Faktoren.
Einige weitere Faktoren scheinen einen Effekt auf die Brustkrebsentwicklung zu haben:
Brustkrebsauslösung durch eine Infektion („Brustkrebsvirus“) wurde bisher nicht nachgewiesen. Brustimplantate verursachen keinen Brustkrebs, ebenso wenig wie das Tragen von Büstenhaltern.
Einfluss der Ernährung.
Deutlich übergewichtige Frauen erkranken 2,5 mal so häufig wie normalgewichtige.
Längere Beobachtungsstudien zeigten für Omega-3-Fettsäuren aus fetthaltigen Fischen zwar einen protektiven Effekt, in einer neuen Studie wird jedoch klar, dass die Protektion nur geringgradig ist.<ref name="DOI10.1136/bmj.f3706">J. S. Zheng, X. J. Hu u. a.: "Intake of fish and marine n-3 polyunsaturated fatty acids and risk of breast cancer: meta-analysis of data from 21 independent prospective cohort studies." In: "BMJ (Clinical research ed.)." Band 346, 2013, S. f3706. PMID 23814120. (Review).</ref>
Phytoöstrogene sind Pflanzeninhaltsstoffe mit östrogenartiger Wirkung. Es wurde daher spekuliert, ob Ernährungsformen, die reich an solchen Stoffen sind (etwa auf Sojabasis), das Erkrankungsrisiko beeinflussen. Es gibt verschiedene denkbare Wege, wie Isoflavone aus Soja schützend wirken könnten. Etwa indem sie den Menstruationszyklus verlängern, eine Veränderung des Hormonhaushaltes bewirken oder ein Einfluss auf Tumoren haben, die in Abhängigkeit zu Östrogenrezeptoren stehen. In Studien zeigte Sojakonsum sowohl einen präventiven Effekt als auch positive Auswirkungen nach einer Brustkrebsdiagnose. Eine Studie unter chinesischen Frauen zeigte dabei einen Dosiseffekt: 10 mg mehr Soja-Isoflavone am Tag reduzierten das Risiko an Brustkrebs zu erkranken um 3 %. Das Deutsche Krebsforschungszentrum sah 2019 keine ausreichende Grundlage, um von einer schützenden Wirkung von Soja gegenüber Brustkrebs sprechen zu können.
Frauen, die täglich mindestens 20 g Alkohol trinken, tragen ein um 30 % erhöhtes Risiko, an einem Mammakarzinom zu erkranken, möglicherweise wegen des höheren Sexualhormonspiegels.
Geringe Iodaufnahme könnte ebenfalls eine Rolle spielen. In Ländern mit hohem Iodgehalt in der Nahrung (z. B. Japan) kommt es zu erheblich weniger Brustkrebsfällen als in Iodmangelgebieten. Neben dieser Korrelation werden auch konkretere Stoffwechselzusammenhänge vermutet.
Ein weiterer Risikofaktor könnte Sonnen- bzw. Vitamin-D-Mangel sein. Wenn (postmenopausale) Frauen zur Vorbeugung gegen Knochenbrüche Calcium und Vitamin D einnehmen, scheint deren Erkrankungsrisiko stark zu sinken. Diese Studien werden sehr kontrovers diskutiert. In einigen Fällen scheint es klare Anzeichen eines Publikationsbias zu geben. In einer 2013 durchgeführten Metastudie konnte kein signifikanter Zusammenhang zwischen der Einnahme von Vitamin D und einem reduzierten Brustkrebsrisiko bei postmenopausalen Frauen festgestellt werden.
Auch wer im jungen Erwachsenenalter viel rotes Fleisch zu sich genommen hat, hat einer Kohortenstudie zufolge ein erhöhtes Brustkrebsrisiko.
Eine Metastudie aus dem Jahr 2017 kommt zu dem Schluss, dass der Konsum von gesättigten Fetten die Überlebenschance bei Brustkrebs negativ beeinflusst.
Früherkennung und Screening.
Etwa 80 bis 90 % aller Geschwulste in der weiblichen Brust wurden bisher von den Frauen selbst zufällig entdeckt. Diese tast- und sichtbaren Tumoren sind bei ihrer Entdeckung oft schon relativ groß und sind deshalb meist mit einer schlechten Prognose verbunden. Durch konsequente Früherkennung kleinerer, nicht tastbarer Tumoren könnte die Sterblichkeit großen Studien zufolge um 25 % gesenkt werden. Zur Früherkennung dienen Programme zur systematischen Selbstuntersuchung und der Mammasonographie sowie die Screening-Mammographie. Der medizinische Nutzen der Früherkennung ist umstritten. Eine 2013 veröffentlichte Meta-Studie in der Cochrane-Bibliothek von über 600 000 Frauen ergab keinen Überlebensvorteil für Frauen, die an der Früherkennung teilnahmen. Dies wurde auch in einer kanadischen Studie von 2014 an 45 000 Frauen, die 25 Jahre beobachtet wurden, bestätigt.
Selbstuntersuchung.
Systematische Schulungen der Frauen zur Brust-Selbstuntersuchung sind in ihrem Nutzen umstritten. Nicht jede Brustkrebserkrankung führt zu einer tastbaren Geschwulst. Umgekehrt ist nur etwa jede zwölfte selbst ertastete Veränderung bösartig. Studien zufolge senkt die systematische Selbstuntersuchung der Brust die Sterblichkeit nicht. Die US-amerikanische Preventive Services Task Force (USPSTF) gibt wegen der unzureichenden Datenlage keine Empfehlung für oder gegen die Brustselbstuntersuchung. Die kanadische Task Force on Preventive Health Services gab 2001 eine Empfehlung gegen die Selbstuntersuchung ab, weil die Entdeckungsrate schlecht und falsch positive Befunde häufig seien.
Zum Erlernen der Selbstuntersuchung gibt es Brustmodelle aus Silikon, die verschiedene Knotentypen enthalten; beigefügt sind Begleitvideo und Anleitung. Jedoch ist dies in Deutschland keine Leistung der gesetzlichen Kranken- oder Pflegeversicherung.
In Deutschland wird die Selbstuntersuchung von den medizinischen Fachgesellschaften empfohlen, weil sie zur Bewusstseinsbildung der Frauen beitrage und so die eigentliche Früherkennung durch apparative Verfahren begünstige. Die Selbstuntersuchung, die monatlich zirka fünf bis sieben Tage nach Einsetzen oder kurz nach dem Ende der Regelblutung durchgeführt werden soll, erfolgt nach einem bestimmten, sich immer wiederholenden Muster. Bei ertasteten Auffälligkeiten sollen Frauen einen Facharzt aufsuchen.
Ärztliche Krebsfrüherkennung.
Die klinische Untersuchung der Brust durch einen Arzt ist Bestandteil des gesetzlichen Krebs-Früherkennungsprogramms ab dem 30. Lebensjahr. Für die Aussagefähigkeit der ärztlichen Tastuntersuchung gilt im Prinzip dieselbe Einschränkung wie für die Selbstuntersuchung.
Brustkrebsfrüherkennung durch Blinde.
Blinde Menschen verfügen in der Regel über einen überdurchschnittlich trainierten Tastsinn. Diese besondere Fähigkeit wird für die Früherkennung von Brustkrebs genutzt. Im Rahmen des in Nordrhein-Westfalen angesiedelten Modellprojektes „Discovering hands“ "(Entdeckende Hände)" wurde der Ausbildungskurs der Medizinischen Tastuntersucherin geschaffen.
Bildgebende Verfahren.
Die Röntgen-Mammographie ist einer S3-Leitlinie von 2010 zufolge "zurzeit die einzige für die Erkennung von Brustkrebsvorstufen oder frühen Tumorstadien allgemein als wirksam anerkannte Methode." Die Mamma-Kernspintomographie ist möglicherweise überlegen, jedoch für ein Massenscreening zu teuer. In Deutschland wurde deshalb ein "qualitätsgesichertes" Mammographie-Screening-Programm auf der Grundlage der „Europäischen Leitlinien für die Qualitätssicherung des Mammographie-Screenings“ für Frauen von 50 bis 69 Jahren aufgebaut. Dazu wurde Deutschland in 94 Regionen aufgeteilt, für die jeweils eine Screening-Einheit verantwortlich ist. In den USA gab es 2002 die Empfehlung, das Mammographiescreening bereits mit 40 Jahren zu beginnen.
Durch Dreifachbefundung und weitere Diagnostik soll erreicht werden, dass möglichst wenige gutartige Mammatumoren biopsiert oder gar entfernt werden. Die EUREF-Richtlinie verlangt, dass in mindestens 50 % der genommenen Gewebeproben bösartige Tumoren nachgewiesen werden können; in manchen Untersuchungsprogrammen werden bis zu 80 % erreicht.
CAD-Systeme "(Computer-assisted Detection)" können den Radiologen bei der Auswertung der Mammographien unterstützen. Solche Untersuchungen können in den USA und den Niederlanden von den Krankenkassen bezahlt werden. Nach bisher veröffentlichten Studien verbessern die bislang verfügbaren Geräte die Erkennungsrate jedoch nicht. In den europäischen Screeningprogrammen wird daher die Doppelbefundung durch zwei Ärzte (und durch einen dritten bei Auffälligkeiten) bevorzugt.Die Mammographie ist bei Frauen mit dichtem Drüsengewebe in ihrer Aussagekraft begrenzt. Bei extrem dichtem Gewebe werden etwa 50 % der Brusttumoren mit der Mammographie nicht entdeckt. Dies betrifft in erster Linie jüngere Frauen, denen die Sonographie, im Einzelfall auch Kernspin-Mammographie, empfohlen wird. Nach systematischer Literaturrecherche bewertet der IGeL-Monitor (Initiator und Auftraggeber: MDS (Medizinischer Dienst des Spitzenverbandes Bund der Krankenkassen)) die Sonographie (Ultraschall) mit „unklar“, die Magnetresonanztomographie (MRT, Kernspin) mit „tendenziell negativ“. Die Wissenschaftler des IGeL-Monitors fanden in beiden Fällen keine Studien, die die Frage untersucht haben, ob die Untersuchungen Frauen tatsächlich davor bewahren können, an Brustkrebs zu sterben. Das gilt für die Untersuchungen zusätzlich zum Mammographie-Screening ebenso wie als Alternative zum Mammographie-Screening. Bei der MRT sind Schäden durch das Kontrastmittel möglich, das dabei gespritzt wird. Diese Bewertungen gelten für Frauen ab 40 Jahren, die kein erhöhtes Brustkrebs-Risiko haben.
Brust-Computertomographie ist eine alternative Untersuchungsmethode, die sowohl mit als auch ohne Kontrastmittel möglich ist. Die Untersuchung verläuft kompressionsfrei. Da bei der Untersuchung nur der Brust-Bereich umfasst wird, soll nach Bedarf der Bereich der Achseln zusätzlich durch Sonographie untersucht werden. Die Strahlenbelastung liegt etwa im Bereich von der Mammographie.
Früherkennung durch Biomarker (Liquid Biopsy).
Anfang 2019 wurde ein Liquid-Biopsy-Verfahren zur Brustkrebs-Frühdiagnostik durch die Universität Heidelberg veröffentlicht. Inzwischen hat die Staatsanwaltschaft Heidelberg hierzu Vorermittlungen aufgenommen. Uniklinikum und Spin-Off Heiscreen hatten den Test trotz fehlender Daten als „Meilenstein“ in der Brustkrebs-Frühdiagnostik bezeichnet. Finanzielle Verstrickungen von Ärzten, aber auch von Prominenten sollen die PR-Kampagne begünstigt haben.
Auf Basis des innovativen Liquid-Biopsy-Verfahrens sei es möglich, Brustkrebs nicht-invasiv zu diagnostizieren. Das neue Verfahren erkenne eine Krebserkrankung anhand von Biomarkern aus dem Blut. Der Test könne bei Frauen aller Altersgruppen durchgeführt werden; besonders profitieren jüngere Frauen unter 50 Jahren und Frauen mit familiärer Hochrisikosituation für eine Brustkrebserkrankung, bei denen eine Mammographie beispielsweise aufgrund des dichten Brustdrüsengewebes wenig Aussage liefert oder aufgrund anderer Risikofaktoren herkömmliche bildgebende Verfahren kontraindiziert sind. Aktuelle Ergebnisse hätten bei 500 Brustkrebspatientinnen insgesamt eine Sensitivität von 75 Prozent gezeigt. Die Arbeitsgemeinschaft Gynäkologische Onkologie (AGO) der Deutschen Krebsgesellschaft begrüßt ausdrücklich die Forschung zur Liquid-Biopsy-Technologie, warnt aber eindringlich vor einer verfrühten Anwendung des Testes. Eine wissenschaftliche Publikation liege noch nicht vor. Die klinischen Konsequenzen des Testes im Zusammenhang mit den Ergebnissen andere diagnostischer Verfahren, z. B. Mammographie und Sonographie müssen zunächst in Studien überprüft werden.
Diagnose.
Bei der Selbstuntersuchung oder bei der ärztlichen, klinischen Untersuchung kann ein neuer, unscharf begrenzter Tumor auffallen. Weitere Anzeichen sind Verhärtungen, Größen- und Umrissveränderungen der Brust im Seitenvergleich, verminderte Bewegung der Brust beim Heben der Arme, bleibende Hautrötung, Hauteinziehung oder Apfelsinenhaut (verdickte Haut mit eingezogenen Stellen), Einziehung oder Entzündung der Brustwarze, Absonderungen aus der Brustwarze. Knoten in der Achselhöhle können Lymphknoten-Metastasen entsprechen. Allgemeinsymptome bei weit fortgeschrittenen Erkrankungen sind u. a. Leistungsknick, ungewollter Gewichtsverlust oder Knochenschmerzen.
Ein lange Zeit unbehandeltes Mammakarzinom oder ein nicht kontrollierbares lokales Tumorrezidiv kann sich lymphangitisch oder subkutan infiltrierend soweit ausdehnen, dass die gesamte Brustwand panzerförmig ummauert erscheint; dieser Zustand wird als Cancer en cuirasse (Panzerkrebs) bezeichnet.
Bildgebende Diagnostik.
Werden bei der Tast- oder Ultraschalluntersuchung Auffälligkeiten gefunden, folgt als nächste Untersuchung üblicherweise die Mammographie: Die Röntgenaufnahmen werden aus zwei Blickrichtungen (von der Seite und von oben) gemacht, bestimmte Veränderungen erfordern manchmal zusätzliche Aufnahmen. Die Galaktographie wird nur durchgeführt, wenn die Brustwarzen Sekret absondern. Als Ergänzung steht bei einer solchen Sekretion an einigen Zentren die Duktoskopie, eine Spiegelung der Milchgänge, zur Verfügung.
Umgekehrt werden mit der Mammographie entdeckte Veränderungen immer sonographisch weiter untersucht. Dabei werden gutartige Zysten erkannt. Die Kassenärztliche Bundesvereinigung schrieb 2003 hierfür Schallköpfe mit mindestens 5 MHz Frequenz vor. Mittlerweile ist dieser Wert auf 7,5 MHz erhöht worden.
Die Kernspintomographie der Brust (MR-Mammographie, MRT) wird zurzeit nur empfohlen für das invasive lobuläre Mammakarzinom zur Bestimmung der Resektions-Grenzen und allgemein bei Verdacht auf das Vorliegen mehrerer Tumorherde, gegebenenfalls ist auch eine MRT-gesteuerte Biopsie möglich. Nach brusterhaltender Therapie kann die MRT eingesetzt werden, um zwischen narbigen Verdichtungen in der operierten Brust und neuem Tumorwachstum zu unterscheiden. Außerhalb der ambulanten Versorgung der gesetzlich krankenversicherten Patientinnen gibt es weitere Indikationen.
Die Positronen-Emissions-Tomographie ist derzeit keine Routinemethode, kann jedoch eingesetzt werden, um nach dem Primärtumor bzw. dessen Metastasen zu suchen, wenn dieser mit anderen Methoden nicht gefunden werden kann.
Knochenszintigramme, Computertomographien, Röntgenaufnahmen der Lunge, Sonographien der Leber und ggf. Kernspintomographien dienen dazu, nach Metastasen zu suchen, also die Ausbreitung der Erkrankung zu erkennen. Angesichts der Tatsache, dass die PET/CT bis auf die MRT-Hirn- und Brustuntersuchung genauer ist und zugleich auch andere Krebserkrankungen ausschließen kann, erscheint die PET/CT sinnvoller als Knochenszintigramme, Computertomographien, Röntgenaufnahmen der Lunge und Sonographien der Leber zusammen.
Bei der radiologischen Diagnostik kann zudem ein durch Exsudat entstandener Pleuraerguss, wie er beim Mammakarzinom auftreten kann, zuverlässiger als durch Perkussion erkannt werden.
Gewebeentnahmen.
Wurde mit dem Ultraschall und der Mammographie ein Tumor diagnostiziert, wird dieser auf seine Gut- oder Bösartigkeit untersucht. Dazu werden jedem Tumor mittels Stanzbiopsie, in seltenen Fällen mittels Vakuumbiopsie, mehrere Gewebeproben entnommen und unter dem Mikroskop auf Krebszellen untersucht. Methode der Wahl für die Probenentnahme tastbarer und sonografisch sichtbarer Befunde ist die Stanzbiopsie, für im Kernspintomogramm sichtbare Befunde und Mikrokalzifikationen die stereotaktisch gestützte Vakuumbiopsie. Wurde der Tumor als bösartig erkannt, wird das Karzinom durch weitere Untersuchungen des entnommenen Gewebes näher bestimmt. Hierzu gehören der Status der Hormon- und HER2/neu-Rezeptoren sowie der Entartungsgrad.
Nach der Operation wird das aus der Brustdrüse entfernte Operationspräparat in der histologischen Untersuchung auf seine exakte Größe gemessen und das Gewebe auf weiteren Befall untersucht. Die entfernten Lymphknoten werden auf Metastasen geprüft. Die Größe des Karzinoms und die Anzahl der befallenen Lymphknoten sind für die TNM-Klassifikation, Prognose und weitere Behandlung von Bedeutung. Das Operationspräparat wird auch daraufhin vermessen, ob der Abstand zwischen dem Karzinom und dem verbliebenen, gesunden Gewebe ausreichend groß ist. Sollte dies nicht der Fall sein, kann eine Nachoperation nötig werden, damit ein angemessener Sicherheitsabstand zwischen gesundem und erkranktem Gewebe erreicht wird.
Genexpressionstests.
Mittlerweile gibt es eine Reihe Genexpressionstests für Patientinnen, die an frühem und hormonrezeptorpositivem Brustkrebs erkrankt sind. Sie untersuchen die Aktivitäten von verschiedenen Genen (Genexpression) in Gewebeproben eines Brustkrebstumors und helfen damit, diejenigen Patientinnen, die von einer adjuvanten Chemotherapie profitieren können und diejenigen Patientinnen, denen diese nebenwirkungsreiche Therapie erspart werden kann, voneinander zu unterscheiden. Die wichtigsten Genexpressionstests für Brustkrebs sind der EndoPredict, Oncotype DX und MammaPrint.
Klassifikation.
Die Klassifikation eines Tumors ist dessen exakte Beschreibung auf der Grundlage der pathologischen Untersuchung einer Gewebeprobe oder des OP-Präparats und der entnommenen Lymphknoten.
Histologische Klassifikation.
Quelle:
Der häufigste Tumortyp des Mammakarzinoms ist mit etwa 70–80 % ein Adenokarzinom ohne besondere Merkmale; dieser Tumortyp wird als invasives duktales Karzinom (IDC) bezeichnet. Seltener (in etwa 10–15 %) sind das invasive lobuläre Karzinom (ILC), das invasive tubuläre, muzinöse, medulläre, papilläre Karzinom (je etwa 2 %), gemischte und andere Tumortypen. Diese Tumortypen unterscheiden sich in ihrer klinischen Präsentation, den Befunden bei bildgebenden Untersuchungen, dem histologischen Ausbreitungsmuster und in der Prognose. Bei fast allen Tumortypen liegt auch eine nicht invasive (duktale oder lobuläre) Tumorkomponente vor, aus der sie hervorgegangen sind und die für die Größe der Operation mitentscheidend ist. Seltener geht das Mammakarzinom direkt aus gutartigen Erkrankungen hervor (von denen einige bei Mammatumor genannt sind, es handelt sich hier aber nicht um bösartige Tumorerkrankungen).
Als "inflammatorisches Mammakarzinom" bezeichnet man keinen histologischen Tumortyp, sondern eine sicht- und tastbare Veränderung, nämlich eine Rötung von mindestens einem Drittel der Brusthaut und Schwellung der Brust durch Infiltration der Lymphbahnen. Meist liegt ein lokal fortgeschrittener Befall der Brust und des umgebenden Lymphsystems vor.
Die nicht-invasiven Karzinome sind definiert als Karzinome innerhalb der Brustdrüsengänge (duktales Carcinoma in situ, DCIS) oder -läppchen (lobuläres Carcinoma in situ, LCIS bzw. Lobuläre Neoplasie, LN) ohne Stromainvasion. Eine Sonderstellung nimmt der Morbus Paget der Brustwarze (Mamille) ein, der auf einer nicht-invasiven Tumorausbreitung in die Mamillenhaut beruht und in der Regel mit einem intraduktalen Mammakarzinom, seltener auch mit einem invasiven Mammakarzinom assoziiert ist. Dieses Paget-Karzinom der Brustwarze kann klinisch mit einem Ekzem oder gutartigen Geschwür verwechselt werden.
Differenzierungsgrad.
Die histologischen Tumortypen werden anhand struktureller und zellulärer Eigenschaften sowie ihrer Kernteilungsrate unterteilt in drei Differenzierungsgrade (synonym "Malignitätsgrad", englisch auch "Grading"). Die Einstufung des invasiven Karzinoms beruht auf den drei Kriterien "Tubulusbildung" (Ausbildung röhrenartiger Tumordrüsen), "Kernpolymorphie" (Vielgestaltigkeit der Zellkerne) und "Mitoserate" (Teilungsrate der Zellen) nach Elston und Ellis. Je höher das Grading, desto ungünstiger ist das Verhalten der Tumorzellen. Man unterscheidet Tumoren mit Differenzierungsgrad 1, 2 oder 3 (G1 = gut differenziert, G2 = mäßig differenziert, G3 = gering differenziert).
TNM-Klassifikation.
Die TNM-Klassifikation beschreibt die Größe des Tumors (T), die Anzahl der befallenen Lymphknoten (N) und
eine eventuelle Fernmetastasierung (M). Die tabellierte Kurzfassung der TNM-Klassifikation für Brustkrebs:
Stadieneinteilung.
Aus der TNM-Klassifikation (bzw. pTNM-Klassifikation, das „p“ steht für histologisch gesicherte Daten) des Mammakarzinoms ergibt sich die Stadiengruppierung nach UICC bzw. AJCC (TNM 6. Auflage. 2003) wie folgt:
Hormonrezeptor- und HER2-Status.
Der Östrogenrezeptor- und Progesteronrezeptorstatus (ER- und PgR-Expression) wird ebenfalls histologisch, genauer immunhistologisch untersucht. Man bestimmt den Prozentsatz derjenigen Tumorzellen, an denen sich die Rezeptoren nachweisen lassen und errechnet aus Prozentsatz und der Färbeintensität einen 12-stufigen Immunreaktiven Score (IRS), oder den international gebräuchlicheren 8-stufigen Allred-Score.
Beim HER2-Rezeptor, der für die Entscheidung, ob eine Nachbehandlung mit Trastuzumab (auch in Kombination mit Pertuzumab und Docetaxel) sinnvoll ist, wird ein 4-stufiger Score angewandt, der sich nach der immunhistochemischen Färbeintensität richtet (ASCO-Empfehlung 2007). Lassen sich keine Zellen anfärben, ist das Ergebnis negativ: Score 0. Auch der Score 1+ ist negativ, d. h. eine Behandlung mit Trastuzumab wäre ohne Effekt auf den Tumor. Bei einer mittleren Färbeintensität (Score 2) wird der Tumor mit dem FISH-Test nachuntersucht und anhand Vermehrung (Amplifikation) des HER2-Gens entschieden, ob es sich um einen HER2-positiven Tumor handelt.
Risikogruppen, Einteilung nach Ergebnissen der Konsensuskonferenzen in St. Gallen.
Die alle zwei Jahre in St. Gallen abgehaltene Konsensuskonferenz beschäftigt sich vor allem mit der adjuvanten Therapie. Um die Chemo- und Hormontherapie möglichst zielgerecht einsetzen zu können, werden der Empfehlung von 2007 folgend die operierten Patientinnen in drei Risiko-, besser "Behandlungsgruppen" eingeteilt:
Molekulare Tumorklassifikation.
Anhand des Genexpressionsprofils, welches mit DNA-Microarrays aus dem Tumorgewebe gewonnen werden kann, kann man fünf verschiedene Hauptgruppen des Mammakarzinoms unterscheiden: Hormonrezeptorpositive Tumoren mit geringer bzw. höherer Aggressivität (genannt "Luminal-A" und "Luminal-B", von "lumen" = Hohlraum der Milchgänge), HER2-positive Tumoren (erbB2-Phänotyp) und Hormonrezeptor- und HER2-negative Karzinome mit oder ohne Basalzell-Eigenschaften ("basal-like" und "normal-like" Phänotypen). Die zurzeit noch experimentelle molekulare Tumorklassifikation könnte in Zukunft eine bessere Abschätzung der Prognose und der voraussichtlichen Wirkung der adjuvanten Hormon- und Chemotherapie ermöglichen.
Genexpressionsanalysen.
Eine zentrale Frage bei der Behandlung des operablen Mammakarzinoms ist die Frage, wie hoch das Risiko eines Wiederauftretens der Erkrankung (Rezidivrisiko) ist. Patientinnen mit hohem Rezidivrisiko sollten eine adjuvante Chemotherapie erhalten, während Patientinnen mit niedrigem Risiko die nebenwirkungsreiche Chemotherapie erspart bleiben sollte. Die in der Vergangenheit gehandhabte, auf rein klinischen Faktoren wie Tumorgröße, Menopausestatus, Alter etc. beruhende Abschätzung des Rezidivrisikos hat sich als ungenau erwiesen. Einige Patientinnen, die als „Niedrigrisiko“ klassifiziert wurden, erleiden trotzdem ein Rezidiv. Andererseits wird davon ausgegangen, dass viele Chemotherapien überflüssigerweise gegeben werden, d. h. viele Patientinnen wären auch ohne eine solche geheilt.
Um eine genauere Vorhersage des Rezidivrisikos zu ermöglichen, wurden sogenannte "Gensignaturen" entwickelt, mit dem Ziel, das Risiko eines Wiederauftretens der Erkrankung genauer vorherzusagen. Dabei wird die Genexpression einer Reihe von Genen im Tumorgewebe gemessen und ein Punktwert (Risikoscore) berechnet, der das Risiko eines Rezidivs anzeigen soll. Ab einem gewissen Punktwert wird dann die Chemotherapie empfohlen.
Im Juli 2019 waren vier kommerzielle Genexpressionstests erhältlich. Alle vier Tests waren in klinischen Studien für Mammakarzinome im Frühstadium evaluiert worden.
Nach einer Entscheidung des Gemeinsamen Bundesausschusses (GBA) vom 20. Juni 2019 sollen die Kosten des Genexpressionstests "Oncotype DX" künftig durch die gesetzlichen Krankenkassen erstattet werden (Regelleistung).
Therapie.
Zur Vereinheitlichung und Verbesserung der Krankenversorgung gibt es in Deutschland seit 2003 im Auftrag der Deutschen Krebsgesellschaft und der Deutschen Gesellschaft für Senologie von "OnkoZert" zertifizierte Brustzentren an Krankenhäusern und seit 2004 ein Disease-Management-Programm für Brustkrebs, an dem sich auch niedergelassene Ärzte beteiligen können. Die gemeinsame Leitlinie der Stufe S3 der Deutschen Krebsgesellschaft und der medizinischen Fachgesellschaften ist für diese Programme die Orientierung zur Behandlung von Brustkrebs. Diese Leitlinie wird regelmäßig aktualisiert, zuletzt im Februar 2020.
Die Strategie zur Brustkrebsbehandlung wird meist im Rahmen einer "Tumorkonferenz" geplant, an der sich Gynäkologen, internistische Onkologen, Radiologen, Strahlentherapeuten und Pathologen beteiligen. Die Einbindung der Patientin in die Entscheidungsfindung ist wie bei jeder eingreifenden medizinischen Maßnahme von großer Bedeutung (siehe informierte Einwilligung). Auch der deutsche Gesetzgeber spricht in der DMP-Richtlinie deutlich vom Status der "aufgeklärten Patientin".
Die Therapie der Brustkrebserkrankung soll im Frühstadium eine Heilung, beim metastasierten Karzinom eine Lebenszeitverlängerung und im Spätstadium eine Linderung der Krankheitsbeschwerden erreichen. Bei der Wahl der konkreten Therapie steht die Erhaltung der Lebensqualität im Vordergrund. Darum wird neben den weiter oben beschriebenen Klassifikationen des Tumors auch die körperliche, psychosoziale und emotionale Situation der Patientin berücksichtigt. Eine „Standardtherapie“ gibt es nicht, die Berücksichtigung aller verschiedenen Faktoren führt zu einer individuellen Anpassung der Therapie an die Krankheit und an die jeweilige Patientin.
Brustkrebs kann sich sehr schnell im Körper ausbreiten und wird daher schon in frühen Stadien mit einer "systemischen" (im ganzen Körper wirksamen) Therapie behandelt. Diese nach dem amerikanischen Chirurgen Bernard Fisher benannte „Fisher-Doktrin“ ist die Grundlage der Chemo- und Hormontherapie beim Brustkrebs. Fast immer besteht die Behandlung heute aus einer Kombination verschiedener Therapieformen. Werden zusätzliche Maßnahmen vor einer Operation durchgeführt, werden sie als "neoadjuvant" bezeichnet, werden sie nach einer Operation eingesetzt, nennt man sie "adjuvant".
Neoadjuvante Therapie.
In einigen Fällen wird eine Chemotherapie oder antihormonelle Therapie schon vor der chirurgischen Entfernung des Tumors durchgeführt. Diese "primäre", oder "neoadjuvante" Therapie hat einerseits das Ziel, den Tumor zu verkleinern, um eine vollständige Entfernung des Tumors oder sogar eine brusterhaltende Operation zu ermöglichen, andererseits kann an der mit den neoadjuvanten Verfahren erreichbaren Veränderung der Erfolg einer weiteren, adjuvanten Behandlung abgeschätzt werden. Standard ist die neoadjuvante Therapie beim inflammatorischen Karzinom und bei zunächst inoperablen (T4-)Tumoren. Die Chemotherapieschemata sind die gleichen wie bei der postoperativen Behandlung (siehe unten).
Operation.
Mit der Operation der Brustkrebserkrankung werden zwei Ziele verfolgt: Einerseits soll durch möglichst vollständige Entfernung der entarteten Zellen eine Ausbreitung (Metastasierung) der Tumorzellen in andere Körperregionen verhindert werden, sofern das noch nicht geschehen ist, andererseits soll ein Wiederauftreten der Krankheitszeichen an Ort und Stelle (ein Rezidiv) verhindert werden.
Brusterhaltende Chirurgie vs. Mastektomie.
Eine brusterhaltende Therapie (BET) ist heute bei 60–70 % der Erkrankten möglich, wenn die Relation zwischen der Tumorgröße und dem Brustvolumen günstig und der Tumor noch nicht in die Muskulatur oder Haut eingedrungen ist. Bei dieser Operation wird entweder der Tumor mit dem umliegenden Gewebe (Lumpektomie), ein größeres Segment oder ein ganzer Quadrant (Quadrantektomie) entfernt. Um ein kosmetisch ansprechendes Ergebnis zu erhalten, wird bei größerer Gewebeentfernung vor allem aus beiden unteren Quadranten eine sogenannte "intramammäre Verschiebeplastik" vorgenommen. Dabei wird die Brustdrüse ganz oder teilweise von Haut und Muskulatur gelöst und so verschoben, dass nach der Operation trotz des Gewebeverlustes eine ausgeglichene Brustform erhalten bleibt. Ist eine Verschiebeplastik nicht möglich, kann die Brust entweder direkt nach der Tumorentfernung oder nach Abschluss aller Behandlungen rekonstruiert werden.
Sollte eine Brusterhaltung nicht möglich sein, wird der gesamte Brustdrüsenkörper und ein Teil der darüber liegenden Haut entfernt ("Ablatio", "Mastektomie"). Die Empfehlung zur Mastektomie wird ausgesprochen, wenn:
Die Empfehlung zur Mastektomie wird auch ausgesprochen, wenn ein "multizentrisches" (Tumorknoten in mehreren Quadranten) oder "multifokales" (mehrere Tumorknoten im selben Quadranten) Karzinom diagnostiziert wurde. Diese Empfehlung kann manchmal relativiert werden, wenn der Operateur alle Tumoren mit einem ausreichenden Sicherheitsabstand zum gesunden Gewebe entfernen kann.
Auch wenn eine Krebserkrankung schon in andere Organe metastasiert hat, kann der ursprüngliche Tumor schonender operiert werden, wenn das radikale chirurgische Vorgehen keinen Vorteil bringen würde.
Für die Versorgung von Frauen sowohl nach Brustamputation als auch nach brusterhaltender Operation (Chirurgie) oder auch nach Wiederaufbau mit unzureichendem kosmetischem Ergebnis werden Brustprothesen und Brustausgleichsteile aus Silikon eingesetzt. Frauen nach einer Brustoperation haben in der Regel Anspruch auf die Versorgung mit einer Brustprothese (auch Brustepithese genannt) bzw. einem Brustausgleichsteil, deren Kosten inkl. Beratung und Anpassung dann als medizinisches Hilfsmittel von den Krankenkassen übernommen wird. Als Halterung für die Prothese gibt es spezielle Prothesen-BHs und Prothesen-Badeanzüge mit eingearbeiteten Taschen, die zusammen mit dem Brustausgleich im Sanitätsfachgeschäft erhältlich sind.
Achsellymphknoten.
Die Lymphknoten der Achsel sind meist der erste Ort, an dem sich Metastasen bilden. Um diesen Befall zu erfassen, werden die Lymphknoten, zumindest einige von ihnen, bei der Operation oft mit entfernt.
Um die Folgeschäden (Lymphödem) so gering wie möglich zu halten, kann zunächst nur ein einzelner Lymphknoten entfernt und untersucht werden, wenn der Tumor in der Brust kleiner als 2 cm ist und die Achsellymphknoten nicht tastbar sind. Dazu wird in die betreffende Brust ein Farbstoff oder ein Radionuklid injiziert, um den Lymphabfluss darzustellen. Der erste Lymphknoten, in dem das eingespritzte Material nachgewiesen werden kann, wird herausoperiert und untersucht. Nur wenn dieser sogenannte Wächterlymphknoten "(sentinel node)" von Tumorzellen befallen ist, werden weitere Lymphknoten der Achselhöhle ebenfalls entfernt (teilweise oder komplette Axilladissektion).
Nicht-invasive Tumorzerstörung.
2013 wurde in Rom erstmals ein Verfahren getestet, bei dem noninvasiv mittels Ultraschallwellen bei einer ambulanten Behandlung Tumorgewebe zerstört werden kann. Bei der anschließenden Operation konnten bei 10 von 12 Patientinnen mit Tumoren kleiner als 2 cm keine Tumorreste mehr gefunden werden. Das Verfahren muss jedoch weiterhin getestet und optimiert werden.
Adjuvante Therapie.
Fast alle Patientinnen erhalten nach der Operation eine adjuvante (unterstützende) Behandlung.
Chemotherapie.
Nach der Operation folgt für viele Patientinnen mit höherem Rückfallrisiko eine Chemotherapie, um möglicherweise verbliebene Tumorzellen abzutöten. Die Notwendigkeit der Chemotherapie wird anhand des Tumortyps, des Stadiums und anderer Faktoren beurteilt.
Wenn der Tumor hormonabhängig, kleiner als 2 cm und die Lymphknoten frei von Metastasen sind, kann in den meisten Fällen auf eine Chemotherapie verzichtet werden. Bei dieser Konstellation können mit einer antihormonellen Therapie ähnliche Ergebnisse erzielt werden (St. Gallen 2007).
Welche Chemotherapie verabreicht wird, hängt vom Zustand der Patientin und von der Klassifikation des Tumors ab, vor allem von der Risikogruppe nach der St.-Gallen-Empfehlung. Die Behandlung wird in mehreren Zyklen durchgeführt, beispielsweise insgesamt viermal im Abstand von drei Wochen oder sechsmal in Abstand von zwei Wochen. Der Zeitabstand zwischen den einzelnen Gaben soll dem Körper einerseits die Gelegenheit zur Regeneration geben, andererseits hofft man darauf, dass Mikrometastasen (ruhende Tumorzellen) bzw. Krebsstammzellen in den Erholungsphasen mit der Teilung beginnen und mit der erneuten Zuführung der Zytostatika zerstört werden können.
In der Regel werden die Zytostatika als Kombinationen eingesetzt. Die häufigsten Schemata sind zurzeit AC oder EC, FAC oder FEC. Wenn die Lymphknoten mit Metastasen befallen waren, wird eine Ergänzung der jeweiligen Kombination mit Taxanen (Paclitaxel und Docetaxel) empfohlen (St. Gallen, 2007). Das ältere CMF-Schema wird kaum noch verwendet. "(A = Adriamycin, C = Cyclophosphamid, E = Epirubicin, F = Fluoruracil, M = Methotrexat, T = Taxane)" Inzwischen werden Chemotherapien auch mit weiteren Therapien wie der zielgerichteten Antiangiogenese („Therapie des metastasierten Mammakarzinoms“, siehe unten) erfolgreich kombiniert.
Seit dem Juli 2019 werden durch die gesetzlichen Krankenkassen auch die Kosten eines Genexpressionstests übernommen, mit dem die Frage beantwortet werden kann, ob eine adjuvante Chemotherapie im Frühstadium eines operierten Mammakarzinoms erforderlich ist (→ Genexpressionsanalysen).
HER2/neu positive Tumoren.
Um das Risiko eines erneuten Auftretens der Erkrankung (Rezidiv) zu senken, wird bei HER2/neu positiven Tumoren in der Regel im Anschluss an die Chemotherapie ein Jahr lang die Behandlung mit dem HER2-Antikörper Trastuzumab durchgeführt („Antikörper-Therapie“, siehe unten), seltener auch ohne vorherige Chemotherapie. Die Dauer und die Zusammensetzung der Chemotherapie wird vom Ausmaß der befallenen Lymphknoten mitbestimmt (St. Gallen 2007). Nach einer Trastuzumab Behandlung kann Neratinib für den gleichen Zweck eingesetzt werden.
Bestrahlung.
Nach der brusterhaltenden Operation sollte eine Strahlentherapie der Brust erfolgen. Sie senkt die Rezidivrate von 30 auf unter 5 %. Mikroskopisch kleine (nicht mit bloßem Auge erkennbare) Tumorreste können auch bei sorgfältigster Operation in der Brustdrüse verbleiben.
Auch nach einer Mastektomie wird zur Nachbestrahlung geraten, wenn der Tumor größer als 5 cm war (T3 oder T4), die Brustdrüse mehrere Tumoren enthielt oder der Tumor bereits in Haut oder Muskulatur eingedrungen war. Auch der Befall von Lymphknoten ist ein Anlass zur Nachbestrahlung der Brustwand, insbesondere bei mehr als drei befallenen Lymphknoten.
Das ehemalige Tumorgebiet soll bei Frauen unter 60 Jahren mit einer um 10–16 Gy höheren Dosis bestrahlt werden, damit sich an den Schnitträndern keine Rezidive ausbilden können.
Die Strahlentherapie beginnt zirka 4–6 Wochen nach der Operation und dauert sechs bis acht Wochen. Eine befürchtete Erhöhung koronarer Ereignisse als Langzeitfolge der Strahlenwirkung auf das Herz konnte nicht bestätigt werden, es gibt eine gewisse Risikoerhöhung, das absolute Risiko ist jedoch sehr gering und kann durch moderne Strahlentherapie eventuell weiter gesenkt werden.<ref name="DOI10.1056/NEJMoa1209825">S. C. Darby, M. Ewertz u. a.: "Risk of ischemic heart disease in women after radiotherapy for breast cancer." In: "The New England Journal of Medicine." Band 368, Nummer 11, März 2013, S. 987–998, . PMID 23484825.</ref>
Antihormonelle Therapie.
Ist das Karzinom hormonsensitiv, wird zusätzlich eine Therapie mit Hormonantagonisten durchgeführt. Es gibt verschiedene, vom menopausalen Status der Frau und dem genauen Tumortyp abhängige Varianten.
Vor der Menopause.
Ende des 19. Jahrhunderts wurde ein möglicher Zusammenhang zwischen Brustkrebs und der Ovarialfunktion erkannt. Dies veranlasste Beatson 1895 eine „therapeutische Kastration“ vorzunehmen. Eine chirurgische Ovariektomie oder radiotherapeutische Ausschaltung der Ovarfunktion wird nur noch selten vorgenommen. Studien zufolge genügt eine temporäre Ausschaltung der Hormonproduktion über zwei Jahre, die medikamentös erreicht werden kann.
Bei Frauen, die noch die Periode haben, wird schon durch Chemotherapie die Hormonfunktion der Eierstöcke gestört. Dieser Effekt richtet sich auch gegen die hormonabhängigen Tumorzellen und ist daher erwünscht. Frauen mit Kinderwunsch oder Frauen, denen das Risiko einer vorzeitigen Menopause zu groß ist, können ihre Eierstöcke mit GnRH-Analoga (die die ovariale Produktion von Östrogen und Progesteron unterdrücken) vor der schädigenden Wirkung schützen und gleichzeitig die Hormonausschaltung bewirken. GnRH-Analoga werden in der Regel über zwei Jahre gegeben.
Nach der Chemotherapie wird normalerweise ein Estrogen-Rezeptor-Modulator wie Tamoxifen, welcher die Anbindung des körpereigenen Östrogens an den Östrogen-Rezeptoren des Tumors verhindert, für 5 Jahre gegeben. Aromatasehemmer sind vor der Menopause nicht angezeigt.
Nach der Menopause.
Ist die Patientin postmenopausal, erhält sie für in der Regel fünf Jahre entweder Tamoxifen oder einen Aromatasehemmer, welcher durch eine Enzymblockade die Bildung von Östrogen im Muskel- und Fettgewebe unterbindet. Neuere Studienergebnisse deuten an, dass die Aromatasehemmer wirksamer sind als das Tamoxifen, das heißt, die krankheitsfreie Überlebenszeit steigt an. In Studien wird der Aromatasehemmer manchmal sofort verwendet "(upfront)", in der Regelbehandlung erst nach zwei bis drei Jahren unter Tamoxifen ("switch", dt. ‚Wechsel‘), oder nach fünf Jahren "(extended)". Die jeweiligen Nebenwirkungen der Substanzen müssen bei der Entscheidung berücksichtigt werden. Auf Grund der besseren Wirksamkeit sind Aromatasehemmer zu Therapiebeginn erste Wahl und werden entsprechend häufiger verordnet. Tamoxifen wird dagegen seit 2003 immer seltener verschrieben. Eine weitere Möglichkeit besteht in der Gabe eines reinen Estrogen-Rezeptor-Antagonisten (Fulvestrant; Handelsname Faslodex), der von den Arzneimittelbehörden jedoch bisher nur bei fortgeschrittenem Brustkrebs zugelassen ist.
Bei vielen Patientinnen mit hormonabhängigen Tumoren verliert Tamoxifen nach einigen Jahren seine Schutzwirkung (sogenannte "Tamoxifenresistenz"). Laborversuchen zufolge kann im Gegenteil sogar eine Beschleunigung des Zellwachstums eintreten. Betreffende Frauen sollten besser mit anderen Substanzen behandelt werden. Es ist bislang aber noch nicht möglich, das Verhalten eines individuellen Tumors in dieser Beziehung vorauszusagen. Ein Hinweis könnte das gleichzeitige Auftreten einer HER2/neu- und AIB1-Expression an einem ER-positiven Tumor sein.
Androgenrezeptorabhängige Tumortypen.
Die meisten Mamma-Karzinome besitzen auch Rezeptoren für das männliche Geschlechtshormon Testosteron und andere Androgene Hormone. Bei ER+ Tumortypen wird der Anteil der AR+ Tumoren mit über 80 % angegeben, bei den „dreifach-negativen“ Tumortypen ("Triple-negative breast cancer", TNBC) wird der Anteil mit etwa 10–50 % geschätzt.
Abhängig vom Estrogenrezeptorstatus kann Testosteron eine "wachstumshemmende" Wirkung bei ER+ Tumoren oder eine "wachstumstreibende" Wirkung bei ER-/PR-Tumortypen entfalten. Der Androgenrezeptor reagiert teilweise auch mit anderen Androgenhormonen und Progestinen.
Speziell für AR+/ER-/PR-Tumortypen in lokal fortgeschrittenem oder metastasiertem Stadium wurde zwischen 2007 und 2012 die Behandlung mit dem Antiandrogen Bicalutamid in einer Phase II Studie mit gutem Erfolg erprobt.
Da der Patentschutz von Bicalutamid (Casodex) ausgelaufen ist, wird inzwischen das neuere Enzalutamid für diesen Einsatzbereich getestet, bis jetzt sind jedoch nur in vitro Experimente bekannt.
Historisch belegt ist ferner der Einsatz von Testosteron bei ER+ Tumortypen, die erzielten Ergebnisse waren in etwa vergleichbar mit Tamoxifen, jedoch mit stärkeren Nebenwirkungen verbunden. Ein ähnlicher Wirkungsmechanismus wird teilweise bei der experimentellen Behandlung mit Progestinen vermutet.
Antikörper.
Etwa ein Viertel aller Mammakarzinome weisen eine Überexpression des HER2/neu-Rezeptors auf. Der Nachweis dieses Rezeptors steht für einen aggressiven Krankheitsverlauf und eine ungünstige Prognose, ist aber auch Bedingung für die Behandlung (Krebsimmuntherapie) mit dem Antikörper Trastuzumab. Neben der alleinigen Verabreichung von Trastuzumab wird dieser auch in Kombination mit dem monoklonalen Antikörper Pertuzumab und dem Zytostatikum Docetaxel eingesetzt.
1998 wurde der Wirkstoff (Handelsname: "Herceptin") in den USA und 2000 in der Europäischen Union zunächst für Patientinnen mit metastasiertem Brustkrebs zugelassen. Trastuzumab ist ein monoklonaler Antikörper gegen den Wachstumsrezeptor HER2/neu auf der Zelloberfläche von Krebszellen. Studien ergaben, dass mit dieser sogenannten gezielten Krebstherapie "(targeted therapy)" das Risiko eines Rezidivs (Wiederauftretens) um etwa 50 % gemindert werden konnte. Viele klinische Studien zeigen, dass auch Frauen ohne Metastasen profitieren. Die HER2-Antikörpertherapie kann Rückfälle verhindern und so zur Heilung beitragen. Seit 2006 ist Trastuzumab deshalb auch für die adjuvante Therapie zugelassen.
Therapie des metastasierten Mammakarzinoms.
Fernmetastasen verschlechtern die Prognose rapide, da in der Regel bei Vorliegen einer sichtbaren Fernmetastase multiple Mikrometastasen vorhanden sind. Deshalb richtet sich die Behandlung auf die Lebenszeitverlängerung und den Erhalt einer angemessenen Lebensqualität mit einer langfristigen Stabilisierung der körperlichen und psychischen Verfassung. Brustkrebs bildet ausgesprochen häufig Knochenmetastasen.
Rezidive und Metastasen können operativ entfernt oder mit Strahlentherapie behandelt werden. Trotz der Nebenwirkungen kann unter Umständen auch mit der Verabreichung einer Chemo-, Hormon- oder durch eine gezielte Krebstherapie eine Erhöhung der Lebensqualität und eine Verlängerung der Zeit bis zum Fortschreiten der Erkrankung (Progressionsfreies Überleben) erreicht werden. Das zur Gruppe der Taxane gehörende Paclitaxel-Albumin (Handelsname: "Abraxane") ist – in Monotherapie – indiziert für die Behandlung von metastasierendem Mammakarzinom bei erwachsenen Patienten, bei denen die Erstlinientherapie für metastasierende Krankheit fehlgeschlagen ist und für die eine standardmäßige Anthracyclin-enthaltende Therapie nicht angezeigt ist.
Zusätzlich zu den bei der adjuvanten Therapie eingesetzten Wirkstoffen kommt beim HER2/neu-positiven metastasierten Mammakarzinom auch der Tyrosinkinase-Inhibitor Lapatinib zum Einsatz. Metastasierte HER2/neu-negative Tumoren können seit 2007 mit dem Angiogenese-Hemmer Bevacizumab behandelt werden. Diese gezielte Krebstherapie kann in Kombination mit einer Chemotherapie aus Paclitaxel oder Docetaxel angewendet werden. Studien zu weiteren Kombinationsmöglichkeiten laufen zurzeit. Durch die Antiangiogenese wird die vom Tumor ausgelöste Neubildung von Blutgefäßen verhindert. Infolgedessen wird der Tumor nicht mehr ausreichend versorgt und die Tumorzellen sollen dadurch zugrunde gehen.
Eribulin (Handelsname: "Halaven") ist ein nichttaxanbasiertes, hochwirksames neues Zytostatikum (Zulassung in den USA im November 2010; in Europa im März 2011), das in Monotherapie für die Therapie von stark vorbehandelten Patientinnen mit lokal fortgeschrittenem oder metastasiertem Brustkrebs eingesetzt wird.
Wenn der Krebs in seiner Ausbreitung so weit fortgeschritten ist, dass er nicht mehr zurückgedrängt werden kann, richtet sich die Behandlung vor allem auf die Beherrschung von Schmerzen und anderen Krankheitsbeschwerden. Zur Palliativmedizin gehört die psychosoziale Betreuung und eine Schmerzbehandlung, die schnell und vollständig erfolgen sollte und eine frühzeitige und ausreichende Gabe von Opiaten einschließt, siehe WHO-Stufenschema.
Nachsorge.
Die Nachsorge der behandelten Patienten dauert in der Regel fünf Jahre und richtet sich zumeist nach den Leitlinien der Deutschen Krebsgesellschaft. Auf Nebenwirkungen der Strahlentherapie (Lymphödem, Lungen- oder Herzprobleme), der Chemotherapie (Blutbildveränderungen, Organschäden) und der Hormontherapie (Thrombosen, Osteoporose) muss besonders geachtet werden. Neben der Befragung und klinischen Untersuchung soll in den ersten drei Jahren, da hier die meisten Rezidive auftreten, alle sechs Monate eine Mammographie angefertigt werden. Ab dem vierten Jahr erfolgt die Mammographie – ebenso wie bei der zweiten, gesunden Brust von Anfang an – jährlich. Gemäß S3-Leitlinie kehrt die Patientin nicht mehr zu einem zweijährigen Intervall oder in das Screening Programm zurück. Zur Verlaufskontrolle können in der Blutuntersuchung die Tumormarker CA 15-3 und CEA bestimmt werden, was allerdings nicht in den Richtlinien vorgesehen ist und meistens eher bei konkretem Verdacht der Fall ist. Es muss bei jeder einzelnen Patientin sehr sorgfältig abgewogen werden, ob die Nachsorge in der hier angegebenen Form tatsächlich durchgeführt werden soll; jede kleine nachgewiesene Veränderung kann eine erhebliche psychische Belastung nach sich ziehen, die wiederum die Lebensqualität entscheidend beeinflussen kann.
Hilfreich, als begleitende Heilmethode, für die Rehabilitation nach einer Brustkrebserkrankung und anschließender erfolgreicher Behandlung, ist zudem körperliche Aktivität.
Für eine einheitliche Qualität bei der Nachbetreuung bieten die deutschen gesetzlichen Krankenkassen seit 2004 das Disease-Management-Programm „Brustkrebs“ an. Die teilnehmenden Ärzte orientieren sich bei der Therapie an den jeweils aktuellen Leitlinien zur Behandlung und Nachsorge des Brustkrebses. Eine Teilnahme ist bei allen Ärzten möglich, die sich diesen qualitätssichernden Programmen angeschlossen haben. Für die Patientinnen bedeutet die Teilnahme an diesem Programm eine Einschränkung der freien Arztwahl.
Geschichte.
Entzündliche Brustleiden wie Abszesse wurden bereits in frühester Zeit mit dem Messer gespalten. Die ersten Dokumentationen von Brustkrebserkrankungen stammen aus der Zeit von 2650 v. Chr. aus dem Alten Ägypten. Zu dieser Zeit wurden sie mit einem Brenneisen behandelt. Im Papyrus Edwin Smith (um 1600 v. Chr.) wurden acht Brustkrebserkrankungen beschrieben, auch die eines Mannes, welche ebenfalls durch Kauterisation behandelt wurden. Der Papyrus Ebers enthält eine Beschreibung von Brustkrebs. Die Krebserkrankungen der Brust galten zur damaligen Zeit als nicht heilbar.
Auch im Corpus Hippocraticum wurde der Fall eines Mammakarzinoms geschildert. Von einer chirurgischen Behandlung tiefliegender Tumorerkrankungen wurde dort abgeraten, da nicht operierte Patienten länger lebten.
Der griechische Arzt Galen sah Brustkrebs als Folge einer Säftestörung und damit als systemische Erkrankung, eine Krankheit des ganzen Organismus, an. Als Mittel zur Behandlung wurden bis in das Mittelalter unterschiedlichste Rezepturen genutzt, um den als Ursache angesehenen eingedickten Körpersaft „Galle“ zu verflüssigen und abzuführen. Bestandteile waren, unter anderem, Blei- und Zinkkarbonat, Rosenöl und Hirschkot. Die im Mittelalter durchgeführten Ätztherapien bei "Carcinoma mammae" oder dafür gehaltenen Brusterkrankungen wurden auch im 19. Jahrhundert noch durchgeführt, etwa mit Arsenik, Jod, Quecksilberpräpataten, Chlorzink und Chlorkalipräparaten.
Die erste Operation bei Brustkrebs soll Leonidas aus Alexandria um 100 n. Chr. durchgeführt haben. Zur Blutstillung und Entfernung von Tumorresten nutzte er ein Brenneisen. Andreas Vesalius empfahl um 1543 bei Brustkrebs eine Entfernung der Brust (Mastektomie), bei welcher er jedoch eine Blutstillung mit Nähten der Kauterisation vorzog.
Der französische Chirurg Jean-Louis Petit (1674–1750) legte das erste Konzept zur operativen Behandlung von Brustkrebs vor, welches jedoch erst 24 Jahre nach seinem Tode veröffentlicht wurde. Sein Kollege Henry François Le Dran (1685–1770) meinte 1757, dass der Brustkrebs zumindest am Anfang lokaler Natur wäre. Erst wenn er sich seinen Weg in die Lymphbahnen geschaffen habe, sei die Prognose für die Patientin schlecht. Er entfernte daher die komplette Brust mitsamt den Lymphknoten der Achselhöhle. Auch der schottische Chirurg Benjamin Bell (1749–1806) erkannte die Bedeutung einer Entfernung der Lymphknoten aus der Achselhöhle.
Rudolf Virchow (1821–1902) konnte 1840 nachweisen, dass sich die Erkrankung aus den Epithelzellen entwickelt und sich entlang der Faszien und Lymphbahnen ausbreitet. Damit wandelte sich die Sicht vom Brustkrebs, welcher jetzt eher als lokale Erkrankung betrachtet wurde.
Im Jahr 1867 stellte Charles H. Moore fest, dass die Ursache für ein Krebsrezidiv die unvollständige Entfernung des Primärtumors ist, und forderte daher bei Brustkrebs das benachbarte Gewebe (Haut, Lymphknoten, Fett, Pectoralismuskel) mitzuentfernen. Richard von Volkmann entfernte 1875 dementsprechend die Pectoralisfaszie mit.
Diesem Konzept folgte auch William Stewart Halsted (1852–1922), der 1882 die erste radikale Mastektomie mit Entfernung der Faszie, der Brustmuskeln (Musculus pectoralis major, später auch in Anlehnung an eine von Willy Mayer vor der New Yorker Medizinischen Akademie vorgetragenen Methode den Musculus pectoralis minor) und der Achsellymphknoten durchführte. Für die damaligen Verhältnisse konnte damit eine lokale Tumorkontrolle mit einer 5-Jahres-Lokalrezidivrate von sechs Prozent erreicht werden. Im deutschsprachigen Raum war Josef Rotter (1857–1924) Vorreiter dieser zum Standard gewordenen Methode, die er ab 1889 bei seinen Patientinnen durchführte.
1874 beschrieb der englische Chirurg James Paget (1814–1899) eine ekzemartige Veränderung der Brustwarze mit angrenzendem duktalen Adenokarzinom, welche später als Morbus Paget bezeichnet wurde.
Bis etwa 1884 glaubten manche Ärzte, dass Brustkrebs durch eine „Impfung“ mit Erysipelerregern erfolgreich behandelt werden könne. Albert Schinzinger empfahl 1889 zur Behandlung inoperabler Mammakarzinom die Kastration. Der schottische Chirurg George Thomas Beatson erkannte 1895, dass die Entfernung der Eierstöcke bei einer seiner Patientinnen den Brusttumor schrumpfen ließ. 1897 wurde Brustkrebs erstmals bestrahlt. Nachdem Hormone auch synthetisch hergestellt werden können, wurden auch endokrine Therapien vermehrt eingesetzt. Im Jahr 1927 wurde in Deutschland über die erste brusterhaltende Operation beim Mammakarzinom berichtet.
1948 veröffentlichten David H. Patey und W. H. Dyson eine etwas weniger radikale Operationsmethode als Rotter und Halsted mit gleich guten Ergebnissen, bei welcher die Brustmuskeln erhalten bleiben konnten.
Sie wird heute noch als modifiziert-radikale Mastektomie nach Patey bezeichnet. Ein weiterer Rückgang der operativen Radikalität begann mit Robert McWhirter, der 1948 nach einfacher Mastektomie eine Strahlentherapie durchführte. Einige Jahre nach der Entdeckung der Röntgenstrahlen wurden diese ab etwa 1900 auch zur Behandlung, von Brustkrebs eingesetzt, insbesondere zur (neoadjuvanten bzw. adjuvanten) Vor- oder Nachbestrahlung.
Mit den Arbeiten von Bernhard und E. R. Fisher setzte sich in den 1960er Jahren die Auffassung durch, dass das Mammakarzinom schon im Frühstadium eine im Körper gestreute Erkrankung sein kann und die Lymphknoten keine Barriere gegen eine Ausbreitung im Körper darstellen. Vielmehr wurde der Befall der Lymphknoten als Indikator für eine systemische Ausbreitung angesehen. Die Lymphknotenentfernung hätte folglich nur prognostische und keine therapeutische Bedeutung. Daher wurde das gängige Konzept der Operation und Strahlentherapie um eine anschließende Chemotherapie ergänzt, um auch Mikrometastasen zu vernichten. Ab 1969 erfolgte die Chemotherapie als Kombination mehrerer Präparate mit Verbesserung der Wirksamkeit.
Seit den 1970er Jahren werden Mammakarzinome zunehmend brusterhaltend operiert. Die Sentinel- oder auch Wächter-Lymphknoten-Entfernung erspart seit Ende des 20. Jahrhunderts oft die vollständige Entfernung der Lymphknoten aus der Achselhöhle. Damit wurde die operative Radikalität weiter reduziert.
Eine Forschergruppe um den US-Amerikaner J. M. Hall entdeckte 1990 das, später BRCA1 benannte, Brustkrebs-Gen. 1994 wurde mit BRCA2 ein zweites Brustkrebsgen erkannt.
Die 1985 von der American Cancer Society gestartete Initiative Brustkrebsmonat Oktober findet wachsende Beachtung in den Industrieländern. 2011 wurde der BRA Day ins Leben gerufen.
Brustkrebszeichen in der Kunst.
In der medizinischen Fachliteratur wurde wiederholt über Brustkrebsanzeichen in historischen Bildern diskutiert. Anzeichen wie ein sich andeutender Tumor, Größen- und Umrissveränderungen der Brust im Seitenvergleich, Hautrötung, Hauteinziehung oder Apfelsinenhaut finden sich beispielsweise in Werken von Raffael, Rembrandt van Rijn und Rubens. Ob es sich bei den dargestellten Veränderungen allerdings tatsächlich um Brustkrebs handelt, lässt sich jedoch nicht beweisen und wurde daher auch angezweifelt.
Literatur.
Leitlinien
Lehrbücher
Ratgeber
Dokumentationen |
752 | 36728 | https://de.wikipedia.org/wiki?curid=752 | Satz von Bayes | Der Satz von Bayes ("IPA:" [], ) ist ein mathematischer Satz aus der Wahrscheinlichkeitstheorie, der die Berechnung bedingter Wahrscheinlichkeiten beschreibt. Er ist nach dem englischen Mathematiker Thomas Bayes benannt, der ihn erstmals in einem Spezialfall in der 1763 posthum veröffentlichten Abhandlung "An Essay Towards Solving a Problem in the Doctrine of Chances" beschrieb. Er wird auch Formel von Bayes oder (als Lehnübersetzung) Bayes-Theorem genannt.
Formel.
Für zwei Ereignisse formula_1 und formula_2 mit formula_3 lässt sich die Wahrscheinlichkeit von
formula_1 unter der Bedingung, dass formula_2 eingetreten ist, durch die Wahrscheinlichkeit von
formula_2 unter der Bedingung, dass formula_1 eingetreten ist, errechnen:
Hierbei ist
Bei endlich vielen Ereignissen lautet der Satz von Bayes:
Wenn formula_19 eine Zerlegung der Ergebnismenge in disjunkte Ereignisse ist, gilt für die A-posteriori-Wahrscheinlichkeit formula_20
Den letzten Umformungsschritt bezeichnet man auch als Marginalisierung.
Da ein Ereignis formula_1 und sein Komplement formula_23 stets eine Zerlegung der Ergebnismenge darstellen, gilt insbesondere
Des Weiteren gilt der Satz auch für eine Zerlegung des Grundraumes formula_25 in abzählbar viele paarweise disjunkte Ereignisse.
Beweis.
Der Satz folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeit:
Die Beziehung
ist eine Anwendung des Gesetzes der totalen Wahrscheinlichkeit.
Interpretation.
Der Satz von Bayes erlaubt in gewissem Sinn das Umkehren von Schlussfolgerungen: Man geht von einem bekannten Wert formula_28 aus, ist aber eigentlich an dem Wert formula_29 interessiert. Beispielsweise ist es von Interesse, wie groß die Wahrscheinlichkeit ist, dass jemand eine bestimmte Krankheit hat, wenn ein dafür entwickelter Schnelltest ein positives Ergebnis zeigt. Aus empirischen Studien kennt man in der Regel die Wahrscheinlichkeit dafür, mit der der Test bei einer von dieser Krankheit befallenen Person zu einem positiven Ergebnis führt. Die gewünschte Umrechnung ist nur dann möglich, wenn man die Prävalenz der Krankheit kennt, das heißt die (absolute) Wahrscheinlichkeit, mit der die betreffende Krankheit in der Gesamtpopulation auftritt (siehe Rechenbeispiel 2).
Für das Verständnis kann ein Entscheidungsbaum oder eine Vierfeldertafel helfen. Das Verfahren ist auch als Rückwärtsinduktion bekannt.
Mitunter begegnet man dem Fehlschluss, direkt von formula_28 auf formula_29 schließen zu wollen, ohne die A-priori-Wahrscheinlichkeit formula_15 zu berücksichtigen, beispielsweise indem angenommen wird, die beiden bedingten Wahrscheinlichkeiten müssten ungefähr gleich groß sein (siehe Prävalenzfehler). Wie der Satz von Bayes zeigt, ist das aber nur dann der Fall, wenn auch formula_15 und formula_17 ungefähr gleich groß sind.
Ebenso ist zu beachten, dass bedingte Wahrscheinlichkeiten für sich allein nicht dazu geeignet sind, eine bestimmte Kausalbeziehung nachzuweisen.
Rechenbeispiel 1.
In den beiden Urnen formula_1 und formula_2 befinden sich jeweils zehn Kugeln. In formula_1 sind sieben rote und drei weiße Kugeln, in formula_2 eine rote und neun weiße. Es wird nun eine beliebige Kugel aus einer zufällig gewählten Urne gezogen. Anders ausgedrückt: Ob aus Urne formula_1 oder formula_2 gezogen wird, ist a priori gleich wahrscheinlich. Das Ergebnis der Ziehung ist: Die Kugel ist rot. Gesucht ist die Wahrscheinlichkeit, dass diese rote Kugel aus Urne formula_1 stammt.
Es sei:
Dann gilt:
formula_47 (beide Urnen sind a priori gleich wahrscheinlich)
formula_48 (in Urne A sind 10 Kugeln, davon 7 rote)
formula_49 (in Urne B sind 10 Kugeln, davon 1 rote)
formula_50 (totale Wahrscheinlichkeit, eine rote Kugel zu ziehen)
Damit ist formula_51 .
Die bedingte Wahrscheinlichkeit, dass die gezogene rote Kugel aus der Urne formula_1 gezogen wurde, beträgt also formula_53.
Das Ergebnis der Bayes-Formel in diesem einfachen Beispiel kann leicht anschaulich eingesehen werden: Da beide Urnen a priori mit der gleichen Wahrscheinlichkeit ausgewählt werden und sich in beiden Urnen gleich viele Kugeln befinden, haben alle Kugeln – und damit auch alle acht roten Kugeln – die gleiche Wahrscheinlichkeit, gezogen zu werden. Wenn man wiederholt eine Kugel aus einer zufälligen Urne zieht und wieder in dieselbe Urne zurücklegt, wird man im Durchschnitt in acht von 20 Fällen eine rote und in zwölf von 20 Fällen eine weiße Kugel ziehen (deshalb ist auch die totale Wahrscheinlichkeit, eine rote Kugel zu ziehen, gleich formula_54). Von diesen acht roten Kugeln kommen im Mittel sieben aus Urne formula_1 und eine aus Urne formula_2. Die Wahrscheinlichkeit, dass eine gezogene rote Kugel aus Urne formula_1 stammt, ist daher gleich formula_58.
Rechenbeispiel 2.
Eine bestimmte Krankheit tritt mit einer Prävalenz von 20 pro 100 000 Personen auf. Der Sachverhalt formula_59, dass ein Mensch diese Krankheit in sich trägt, hat also die Wahrscheinlichkeit formula_60.
Ist ein Screening der Gesamtbevölkerung ohne Rücksicht auf Risikofaktoren oder Symptome geeignet, Träger dieser Krankheit zu ermitteln? Es würden dabei weit überwiegend Personen aus dem Komplement formula_61 von formula_59 getestet, also Personen, die diese Krankheit nicht in sich tragen: Die Wahrscheinlichkeit, dass eine zu testende Person nicht Träger der Krankheit ist, beträgt formula_63.
formula_64 bezeichne die Tatsache, dass der Test bei einer Person „positiv“ ausgefallen ist, also die Krankheit anzeigt. Es sei bekannt, dass der Test formula_59 mit 95 % Wahrscheinlichkeit anzeigt (Sensitivität formula_66), aber manchmal auch bei Gesunden anspricht, d. h. ein falsch positives Testergebnis liefert, und zwar mit einer Wahrscheinlichkeit von formula_67 (Spezifität formula_68).
Nicht nur für die Eingangsfrage, sondern in jedem Einzelfall formula_64, insbesondere vor dem Ergebnis weiterer Untersuchungen, interessiert die positiver prädiktiver Wert genannte bedingte Wahrscheinlichkeit formula_70, dass positiv Getestete tatsächlich Träger der Krankheit sind.
Berechnung mit dem Satz von Bayes.
formula_71.
Berechnung mittels Baumdiagramm.
Probleme mit wenigen Klassen und einfachen Verteilungen lassen sich übersichtlich im Baumdiagramm für die Aufteilung der Häufigkeiten darstellen. Geht man von den Häufigkeiten über auf relative Häufigkeiten bzw. auf (bedingte) Wahrscheinlichkeiten, wird aus dem Baumdiagramm ein Ereignisbaum, ein Sonderfall des Entscheidungsbaums.
Den obigen Angaben folgend ergeben sich als absolute Häufigkeit bei 100 000 Personen 20 tatsächlich erkrankte Personen, 99 980 Personen sind gesund. Der Test diagnostiziert bei den 20 kranken Personen in 19 Fällen (95 Prozent Sensitivität) korrekt die Erkrankung; aber in einem Fall versagt der Test und zeigt die vorliegende Krankheit nicht an (falsch negativ). Bei 99 Prozent der 99 980 gesunden Personen (99 Prozent Spezifität) diagnostiziert der Test korrekt; aber bei 1 Prozent, also etwa 1000 der 99 980 gesunden Personen zeigt der Test fälschlicherweise eine Erkrankung an. Von den insgesamt etwa 1019 positiv getesteten Personen sind also nur 19 tatsächlich krank (denn formula_72).
Bedeutung des Ergebnisses.
Der Preis, 19 Träger der Krankheit zu finden, möglicherweise rechtzeitig genug für eine Behandlung oder Isolation, besteht nicht nur in den Kosten für 100 000 Tests, sondern auch in den unnötigen Ängsten und womöglich Behandlungen von 1000 falsch positiv Getesteten. Die Ausgangsfrage, ob bei diesen Zahlenwerten ein Massenscreening sinnvoll ist, ist daher wohl zu verneinen.
Die intuitive Annahme, dass eine – auf den ersten Blick beeindruckende – Sensitivität von 95 % bedeutet, dass eine positiv getestete Person auch tatsächlich mit hoher Wahrscheinlichkeit krank ist, ist also falsch. Dieses Problem tritt immer dann auf, wenn die tatsächliche Rate, mit der ein Merkmal in der untersuchten Gesamtmenge vorkommt, klein ist gegenüber der Rate der falsch positiven Ergebnisse.
Ohne Training in der Interpretation statistischer Aussagen werden Risiken oft falsch eingeschätzt oder vermittelt. Der Psychologe Gerd Gigerenzer spricht von Zahlenanalphabetismus im Umgang mit Unsicherheit und plädiert für eine breit angelegte didaktische Offensive.
Bayessche Statistik.
Die Bayessche Statistik verwendet den Satz von Bayes im Rahmen der induktiven Statistik zur Schätzung von Parametern und zum Testen von Hypothesen.
Problemstellung.
Folgende Situation sei gegeben: formula_73 ist ein unbekannter Umweltzustand (z. B. ein Parameter einer Wahrscheinlichkeitsverteilung), der auf der Basis einer Beobachtung formula_74 einer Zufallsvariable formula_75 geschätzt werden soll. Weiterhin ist Vorwissen in Form einer A-priori-Wahrscheinlichkeitsverteilung des unbekannten Parameters formula_73 gegeben. Diese A-priori-Verteilung enthält die gesamte Information über den Umweltzustand formula_73, die vor der Beobachtung der Stichprobe gegeben ist.
Je nach Kontext und philosophischer Schule wird die A-priori-Verteilung verstanden
Die bedingte Verteilung von formula_75 unter der Bedingung, dass formula_73 den Wert formula_80 annimmt, wird im Folgenden mit formula_81 bezeichnet. Diese Wahrscheinlichkeitsverteilung kann nach Beobachtung der Stichprobe bestimmt werden und wird auch als Likelihood des Parameterwerts formula_80 bezeichnet.
Die A-posteriori-Wahrscheinlichkeit formula_83 kann mit Hilfe des Satzes von Bayes berechnet werden. Im Spezialfall einer diskreten A-priori-Verteilung erhält man:
Falls die Menge aller möglichen Umweltzustände endlich ist, lässt sich die A-posteriori-Verteilung im Wert formula_80 als die Wahrscheinlichkeit interpretieren, mit der man nach Beobachtung der Stichprobe und unter Einbeziehung des Vorwissens den Umweltzustand formula_80 erwartet.
Als Schätzwert verwendet ein Anhänger der subjektivistischen Schule der Statistik in der Regel den Erwartungswert der A-posteriori-Verteilung, in manchen Fällen auch den Modalwert.
Beispiel.
Ähnlich wie oben werde wieder eine Urne betrachtet, die mit zehn Kugeln gefüllt ist, aber nun sei unbekannt, wie viele davon rot sind. Die Anzahl formula_73 der roten Kugeln ist hier der unbekannte Umweltzustand und als dessen A-priori-Verteilung soll angenommen werden, dass alle möglichen Werte von null bis zehn gleich wahrscheinlich sein sollen, d. h., es gilt formula_88 für alle formula_89.
Nun werde fünfmal mit Zurücklegen eine Kugel aus der Urne gezogen und formula_75 bezeichne die Zufallsvariable, die angibt, wie viele davon rot sind. Unter der Annahme formula_91 ist dann formula_75 binomialverteilt mit den Parametern formula_93 und formula_94, es gilt also
für formula_96.
Beispielsweise für formula_97, d. h., zwei der fünf gezogenen Kugeln waren rot, ergeben sich die folgenden Werte (auf drei Nachkommastellen gerundet)
Man sieht, dass im Gegensatz zur A-priori-Verteilung in der zweiten Zeile, in der alle Werte von formula_73 als gleich wahrscheinlich angenommen wurden, unter der A-posteriori-Verteilung in der dritten Zeile formula_99 die größte Wahrscheinlichkeit besitzt, das heißt, der A-posteriori-Modus ist formula_100.
Als Erwartungswert der A-posteriori-Verteilung ergibt sich hier: |
753 | 112 | https://de.wikipedia.org/wiki?curid=753 | Bayessche Wahrscheinlichkeitstheorie | |
754 | 234836433 | https://de.wikipedia.org/wiki?curid=754 | Cyanwasserstoff | Cyanwasserstoff (Blausäure) ist eine farblose bis leicht gelbliche, brennbare, sehr flüchtige und wasserlösliche Flüssigkeit. Die Bezeichnung "Blausäure" rührt von der früheren Gewinnung aus Eisenhexacyanidoferrat (Berliner Blau) her, einem lichtechten tiefblauen Pigment. Blausäure kann als Nitril der Ameisensäure angesehen werden (der Nitrilkohlenstoff hat die gleiche Oxidationsstufe wie der Carboxylkohlenstoff), daher rührt auch der Trivialname "Ameisensäurenitril".
Blausäure ist hochgiftig. Ihre tödliche Wirkung wurde in der Geschichte verschiedentlich gegen Menschen eingesetzt, vor allem bei den Massenmorden zur Zeit des Nationalsozialismus im KZ Auschwitz, und fand auch Eingang in die Literatur (Kriminalromane). Industriell wird Blausäure als Vorprodukt und Prozessstoff sowie zur Schädlingsbekämpfung eingesetzt.
Nach verbreiteter Auffassung geht von Blausäure ein charakteristischer Geruch nach Bittermandeln aus. Der tatsächliche Geruch der Substanz wird jedoch in der Literatur nicht einhellig so beschrieben und von manchen Menschen abweichend wahrgenommen, z. B. „dumpf“ oder „scharf“. Ein erheblicher Teil der Bevölkerung nimmt den Geruch von Blausäure überhaupt nicht wahr (siehe auch "Handhabung").
Eigenschaften.
Blausäure ist in hochreiner Form eine farblose, leichtbewegliche, mit Wasser und Alkohol in jedem Verhältnis mischbare Flüssigkeit. Der Siedepunkt liegt bei 26 °C. Die Substanz verdampft bei Raumtemperatur so schnell, dass ein Teil davon wegen der Verdunstungskälte erstarren kann.
Blausäure besitzt in verdünnter Form einen betäubend-dumpfen, an bittere Mandeln erinnernden Geruch, der sich aber signifikant von z. B. Bittermandelaroma unterscheidet. In konzentrierter Form riecht Blausäure unangenehm und nicht definierbar, intensiv stechend-scharf und kratzend, reizt die Schleimhäute und die Kehle und hinterlässt einen bitteren Geschmack und kurzzeitiges Brennen in der Nase. Allerdings lähmt die Substanz schon in sehr kleinen Mengen nach kurzer Zeit die Geruchs- und Geschmacksnerven.
Blausäure ist in Wasser eine sehr schwache Säure, die schon von Kohlensäure aus ihren Salzen, den Cyaniden, getrieben wird und nur zu einem kleinen Anteil dissoziiert:
Von den Salzen der Blausäure sind die der Alkali- und Erdalkalimetalle sowie das Quecksilber(II)-cyanid in Wasser leicht löslich, alle anderen sind schwer löslich.
Ihr p"K"S-Wert wird, je nach Quelle, mit 9,04 bis 9,31 angegeben. Die Dissoziationskonstante beträgt 4,0·10−10. Blausäure ist hochentzündlich, Gemische mit Luft sind im Bereich von 5,4–46,6 Vol.-% explosiv. Da Blausäure zudem mit Wasser in jedem Verhältnis mischbar ist, besteht beim Löschen von Bränden die Gefahr einer Kontamination des Grundwassers. Daher wird gegebenenfalls ein kontrolliertes Abbrennen in Betracht gezogen.
Blausäure kann in einer autokatalysierten Reaktion spontan polymerisieren oder in die Elemente zerfallen. Diese Reaktion ist stark exotherm und verläuft explosionsartig. Sie wird durch geringe Mengen an Basen initiiert und durch weitere Base, die sich dabei bildet, beschleunigt. Wasserhaltige Blausäure ist dabei instabiler als vollkommen wasserfreie. Es entsteht ein braunes Polymer. Aus diesem Grund wird Blausäure durch Zugabe geringer Mengen an Säuren, wie Phosphor- oder Schwefelsäure, stabilisiert. Die Säure neutralisiert die Basen und vermeidet eine Durchgehreaktion.
Geschichte.
Der Name "Blausäure" geht auf das Pigment Berliner Blau zurück, aus dem die Substanz zuerst hergestellt wurde. 1782 erschien eine Veröffentlichung von Carl Wilhelm Scheele, die die Herstellung von Blausäure sowohl aus gelbem Blutlaugensalz und Schwefelsäure als auch aus Berliner Blau und Schwefelsäure beschreibt. Die Versuche dazu hatte Scheele bereits 1768 begonnen. Die Silbe "Cyan" wurde von Joseph Louis Gay-Lussac eingeführt.
Giftwirkung.
Blausäure ist extrem giftig, schon 1–2 mg Blausäure pro kg Körpermasse wirken tödlich. Die Aufnahme kann, neben der direkten Einnahme, auch über die Atemwege und die Haut erfolgen. Letzteres wird durch Schweiß begünstigt, da Blausäure eine hohe Wasserlöslichkeit besitzt. In Deutschland wurde die Substanz vom Umweltbundesamt in die Wassergefährdungsklasse 3 (stark wassergefährdend) eingestuft.
Die primäre Giftwirkung besteht in der Blockade der Sauerstoff-Bindungsstelle in der Atmungskette der Körperzellen. Dabei bindet sich das Cyanid irreversibel an das zentrale Eisen(III)-Ion des Häm-"a"3-Kofaktors in der Cytochrom-"c"-Oxidase in den Mitochondrien. Durch die Inaktivierung des Enzyms kommt die Zellatmung zum Erliegen, die Zelle kann den Sauerstoff nicht mehr zur Energiegewinnung verwerten, und es kommt damit zur sogenannten „inneren Erstickung“. Der Körper reagiert auf den vermeintlichen Sauerstoffmangel mit einer Erhöhung der Atemfrequenz. Da der Sauerstoff im Blut nicht verwertet werden kann und sich in Folge auch im venösen Blut ansammelt, zeigt sich eine hellrote Färbung der Haut. Schließlich sterben die Zellen an Mangel an ATP, das normalerweise in der Zellatmung gebildet wird. Die Bindung des Cyanids an Eisen(II)-Ionen ist vergleichsweise schwach. Die Inaktivierung des Hämoglobins spielt daher bei Vergiftungen eine untergeordnete Rolle.
Gegengifte sind 4-Dimethylaminophenol (4-DMAP), Natriumthiosulfat, Hydroxycobalamin, Isoamylnitrit.
Der in vielen Nahrungsmitteln in geringen Konzentrationen enthaltene Cyanwasserstoff wird vom menschlichen Enzym Rhodanase zu dem wesentlich weniger gefährlichen Thiocyanat (Rhodanid) umgewandelt.
Natürliches Vorkommen.
Die Kerne einiger Steinobstfrüchte (Mandel, insbesondere Bittermandel, Aprikose, Pfirsich, Kirsche) und anderer Rosengewächse enthalten geringe Mengen an Blausäure; diese dient teilweise als Fraßschutz der Samen und auch als chemischer Keimungshemmer, indem die Atmung der Samen gehemmt wird. Erst nachdem die Fruchtwand (Endokarp) verrottet ist, kann die Blausäure entweichen und somit der Keimungsprozess einsetzen. Die in den Tropen vielfach als Nahrungsmittel genutzte Knolle des Maniok enthält ebenfalls als cyanogenes Glykosid gebundene Blausäure, die durch die Verarbeitung vor dem Verzehr der Pflanze entfernt wird. Weitere wichtige Nahrungsmittel mit toxikologisch relevanten Blausäuregehalten sind Yamswurzel, Süßkartoffel (gewisse Sorten), Zuckerhirse, Bambus, Leinsamen und Limabohne. Unreife Bambussprossen, die in östlichen Ländern als Delikatesse gelten, enthalten hohe Blausäuregehalte, Vergiftungsfälle sind bekannt. Durch Zubereitung (intensives Kochen) wird die Blausäure von den Glykosiden abgespalten und in die Luft abgegeben.
Cyanogene Giftpflanzen sind unter den höheren Pflanzen weit verbreitet und können bei Verletzung des Pflanzengewebes durch Pflanzenfresser HCN aus cyanogenen Glykosiden mittels des Enzyms Hydroxynitrillyase freisetzen. Einige Beispiele für cyanogene Pflanzen sind der tropische Goldtüpfelfarn ("Phlebodium aureum"), ein Mitglied der Tüpfelfarngewächse, oder der brasilianische Gummibaum ("Hevea brasiliensis"). Weiß-Klee enthält das Blausäureglyklosid Linamarin, das bei oraler Aufnahme von Pflanzenteilen für kleine Tiere (z. B. Schnecken) besonders giftig ist, da sich hieraus Blausäure abspalten kann. Einer der bekanntesten Stoffe, die Blausäure abspalten und in Kernen einiger Steinobstfrüchte vorkommen, ist Amygdalin.
Blausäure als Neuromodulator und endogene Bildung von Blausäure im menschlichen Organismus
Blausäure wird auch endogen im menschlichen Organismus gebildet und hat offenbar die Rolle eines Neuromodulators. Weiterhin wird Blausäure z. B. auch durch Gabe von Opioiden über die Aktivierung von µ-Opioidrezeptoren generiert. Die endogene Bildung von Blausäure ist auch in der Forensik von Bedeutung. So wird beim Aufbewahren von Leichen bei 4 °C nach etwa 2 Wochen durch Fäulnisprozesse und Autolyse Blausäure gebildet, wobei die Konzentration nach etwa 6 Wochen ihr Maximum erreicht und danach langsam geringfügig abfällt.
Lebensmittelrechtliche Regelung.
In der EU werden die Höchstmengen an Blausäure in Lebensmitteln durch die Verordnung (EG) Nr. 1881/2006 geregelt. So darf der Gehalt an Blausäure in Leinsamen 250 mg/kg und, wenn sie für den Endverbraucher bestimmt sind, 150 mg/kg nicht überschreiten. In für den Endverbraucher bestimmten Mandeln beträgt der Höchstwert 35 mg/kg, in Aprikosenkernen 20 mg/kg. In frischem Maniok darf maximal 50 mg/kg, in Maniok- oder Tapiokamehl maximal 10 mg/kg Blausäure enthalten sein.
Herstellung.
Industrielle Erzeugung.
Für die Herstellung von Cyanwasserstoff sind folgende Verfahren von Bedeutung:
Im Labor.
Werden im Labor geringe Mengen Cyanwasserstoff benötigt und steht keine entsprechende Gasdruckflasche zur Verfügung, so kann er leicht aus seinen Salzen durch Zugabe einer stärkeren Säure gewonnen werden:
oder
Auf Grund dieser leichten Freisetzung von Cyanwasserstoff ist beim Arbeiten mit seinen Salzen im Labor immer darauf zu achten, dass der pH-Wert der Lösung nicht sauer wird, da ansonsten eine (unbeabsichtigte) Freisetzung erfolgt.
Abfall- und Nebenprodukt.
Blausäure wird bei fehlerhafter Handhabung von Prozessschritten in der Galvanik frei.
Beim Verbrennen stickstoffhaltiger Polymere (Kunststoffe) kann in erheblichem Umfang Blausäure entstehen.
Beim Rauchen von Tabak und bei der Verbrennung von Esbit werden geringe Mengen Blausäure freigesetzt.
Handhabung.
Genetisch bedingte Wahrnehmungseinschränkung.
Mehr als ein Viertel der Bevölkerung kann den Geruch von Blausäure nicht wahrnehmen, häufig wird die Wahrnehmung durch Lähmung der Geruchsnervenzellen verhindert. Es müssen daher besondere Sicherheitsmaßnahmen beim Umgang mit Blausäure getroffen werden. Das Bayerische Landesamt für Gesundheit und Lebensmittelsicherheit berücksichtigt dies bei "Eignungsuntersuchungen von Befähigungsscheinbewerbern für Begasungen bzw. Schädlingsbekämpfung".
Lagerung.
Wasserfreie Blausäure muss gekühlt gelagert werden, und Gefäße mit Blausäure dürfen nur in stark gekühltem Zustand vorsichtig geöffnet werden. Anderenfalls stehen diese wegen des niedrigen Siedepunkts unter starkem Druck, wobei beim unvorsichtigen Öffnen schlagartig erhebliche Mengen davon gasförmig entweichen und schlimmstenfalls flüssige Substanz verspritzen kann.
Reinste, wasserfreie Blausäure ist einige Monate beständig. Allerdings darf sie nicht bedenkenlos gelagert werden, da Blausäure nach einer gewissen Zeit explosionsartig polymerisieren kann (Bildung der sogenannten Azulminsäure, ein brauner flockenartiger Feststoff). Die Polymerisierung kann durch Spuren von Alkalien (auch die Glasoberfläche ist hier von Bedeutung) oder Schwermetalloxiden – insbesondere in Kombination mit geringen Mengen Wasser – beschleunigt und durch Zusatz geringer Mengen Mineralsäuren oder Oxalsäure verzögert werden. Eine beginnende Gelb- oder später Braunfärbung ist ein Hinweis darauf, dass mit dieser spontanen Zersetzung bald zu rechnen ist.
Wässrige Lösungen der Blausäure sind nur eine sehr begrenzte Zeit haltbar, da langsame Hydrolyse unter Bildung von Ameisensäure und Ammoniak eintritt:
Transport.
Um den Transport dieses Gefahrstoffes zu vermeiden, wird Blausäure in der Regel sofort am Herstellungsort weiterverarbeitet.
Verwendung.
Gemäß EINECS, dem europäischen Verzeichnis der vor Inkrafttreten der REACH-Verordnung vorhandenen chemischen Stoffe, gehört Cyanwasserstoff zur Liste der Altstoffe und hat die Nummer 200-821-6. Das englische Synonym "prussic acid" ist ein Hinweis auf die historische Verwendung.
Als Biozid.
Blausäure wird zur Bekämpfung von Ungeziefer eingesetzt. Hierzu wird ein Trägermaterial, z. B. Kieselgur, mit Blausäure getränkt, und es werden Riechstoffe zur Warnung hinzugefügt.
Kampfmittel.
Als Giftgas wurde Blausäure erstmals durch die französische Armee am 1. Juli 1916 eingesetzt. Aufgrund seiner hohen Flüchtigkeit blieb der Einsatz aber wirkungslos. Nach anderen Angaben blieb die erhoffte Wirkung aus, weil der Plan den Deutschen durch Verrat bereits bekannt geworden war und der Gasmaskeneinsatz rechtzeitig verbessert werden konnte. 1918 wurde Blausäure auch von den USA und Italien eingesetzt.
Industrielle Verwendung.
Blausäure wird in vielen Prozessen in der Industrie und im Bergbau eingesetzt, beispielsweise für die Herstellung von Chlorcyan, Cyanurchlorid, Aminosäuren (besonders Methionin), Natriumcyanid und vieler weiterer Derivate sowie zum Auslaugen von Gold:
Die Gold-Lösung wird dann mit Zink reduziert. Der Cyanido-Komplex kann auch durch zugesetzte Kokosnussschalen-Aktivkohle absorptiv gebunden werden. Aus der so mit dem Cyanidokomplex beladenen Aktivkohle kann das Gold nach dem Verbrennen des organischen Anteils als „Asche“ gewonnen werden. In moderneren Anlagen wird der Cyanido-Komplex aus der abgetrennten beladenen Aktivkohle durch Eluieren mit heißer Natriumcyanid-Lösung in konzentrierter Form gewonnen (wegen der besseren Handhabung wird hierbei nicht flüssige Blausäure, sondern eine Natriumcyanid-Lösung eingesetzt). Dieses Verfahren führt, wie auch das alternativ nur noch sehr selten eingesetzte Quecksilber-Amalgamverfahren, zu den teilweise katastrophalen Gewässervergiftungen in den Goldfördergebieten der Dritten Welt.
Blausäure wird in großen Mengen zur Herstellung von Adiponitril und Acetoncyanhydrin, beides Zwischenprodukte der Kunststoffproduktion, verwendet. Bei der Adiponitrilherstellung wird Blausäure mittels eines Nickel-Katalysators an 1,3-Butadien addiert (Hydrocyanierung). Zur Acetoncyanhydrinherstellung wird Blausäure katalytisch an Aceton addiert. Aus Blausäure werden im industriellen Maßstab in mehrstufigen Verfahren auch die α-Aminosäure -Methionin (Verwendung in der Futtermittel-Supplementierung) und der Heterocyclus Cyanurchlorid hergestellt. Aus Cyanurchlorid werden Pflanzenschutzmittel und andere Derivate synthetisiert. |
757 | 178175 | https://de.wikipedia.org/wiki?curid=757 | Bundestagswahlrecht | Das Bundestagswahlrecht regelt die Wahl der Mitglieder des Deutschen Bundestages. Nach den in Abs. 1 Satz 1 Grundgesetz (GG) festgelegten Wahlrechtsgrundsätzen ist die Wahl "allgemein, unmittelbar, frei, gleich und geheim". Das konkrete Wahlsystem wird hingegen durch ein einfaches Gesetz, das Bundeswahlgesetz, bestimmt. Viele Bestimmungen des Bundeswahlgesetzes werden ihrerseits in der Bundeswahlordnung konkretisiert.
Typisch für das deutsche Bundestagswahlrecht ist die Verbindung von Wahlkreiswahl und Listenwahl. Wähler haben zwei Stimmen, eine für einen Direktkandidaten im Wahlkreis und eine für die Landesliste einer Partei. Die Zweitstimme ist entscheidend für den Anteil einer Partei an den Bundestagsmandaten. Gewonnene Wahlkreismandate werden damit verrechnet.
Rechtsgrundlagen.
Verfassungsrechtliche Grundlagen.
Der Bundestag wird für vier Jahre gewählt. Die Wahlperiode beginnt mit dem ersten Zusammentritt des neuen Bundestages spätestens 30 Tage nach der Wahl. Die Bundestagswahl muss frühestens 46 und spätestens 48 Monate nach Beginn der Wahlperiode stattfinden, im Fall einer Auflösung des Bundestages innerhalb von 60 Tagen.
Nach Abs. 1 GG werden „die Abgeordneten des Deutschen Bundestages […] in allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl gewählt.“ Diese fünf "Wahlrechtsgrundsätze" sind grundrechtsgleiche Rechte: Ihre Verletzung kann durch eine Verfassungsbeschwerde vor dem Bundesverfassungsgericht gerügt werden. Das Nähere ist durch Bundesgesetz zu regeln. Das Grundgesetz trifft keine Festlegungen für das Wahlsystem, während die meisten Verfassungen der Bundesländer Verhältniswahl vorschreiben und teilweise weitere Vorgaben enthalten.
Eine Wahl ist "allgemein", wenn grundsätzlich jeder Staatsbürger wählen und gewählt werden kann. Jedoch bestimmt das Grundgesetz in Art. 38 Abs. 2 Altersgrenzen für das Wahlrecht zum Bundestag. Danach sind Deutsche ab Vollendung des 18. Lebensjahres aktiv wahlberechtigt und ab dem Alter, mit dem die Volljährigkeit eintritt, passiv wahlberechtigt. Das im BGB festgelegte Volljährigkeitsalter liegt seit 1975 ebenfalls bei 18 Jahren.
Wahlberechtigt sind nur Deutsche im Sinne von Art. 116 Abs. 1 des Grundgesetzes, wozu neben deutschen Staatsangehörigen auch sogenannte Statusdeutsche zählen. Das Volk, von dem nach Abs. 2 GG alle Staatsgewalt ausgeht, die es in Wahlen und Abstimmungen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausübt, ist nach dem Urteil des Bundesverfassungsgerichts vom 31. Oktober 1990 nur das deutsche Volk.
Eine Wahl ist "unmittelbar", wenn der Wählerwille direkt das Wahlergebnis bestimmt. Eine Zwischenschaltung von Wahlmännern wie im preußischen Dreiklassenwahlrecht ist damit unzulässig. Die Listenwahl hingegen ist mit dem Grundsatz der unmittelbaren Wahl vereinbar.
Eine Wahl ist "frei", wenn der Staat den Bürger nicht zu einer bestimmten Wahlentscheidung drängt; auch das freie Wahlvorschlagsrecht (passives Wahlrecht) fällt unter die Wahlfreiheit.
Eine Wahl ist "geheim", wenn für niemanden nachvollziehbar ist, wie sich ein Wähler entschieden hat. Das Bundestagswahlrecht sieht sogar vor, dass kein Wähler im Wahllokal seine Entscheidung bekannt machen "darf". Problematisch ist die Briefwahl, die daher verfassungsrechtlich als Ausnahmefall gelten muss, da hier das Wahlgeheimnis nicht gesichert ist. Da aber ansonsten die als höherwertig betrachtete Allgemeinheit der Wahl beeinträchtigt würde, ist die Briefwahl mit den Wahlrechtsgrundsätzen vereinbar.
Eine Wahl ist "gleich", wenn jeder Wähler grundsätzlich das gleiche Stimmgewicht besitzt. Das Bundesverfassungsgericht legt bei Verhältniswahl und Mehrheitswahl, die es beide in ständiger Rechtsprechung für zulässig erachtet, unterschiedliche Maßstäbe an die Wahlgleichheit an. Bei Mehrheitswahl muss demnach lediglich die "Zählwertgleichheit" erfüllt werden, das heißt jede Stimme muss mindestens annähernd gleich viel zählen. Die Zählwertgleichheit ist beispielsweise verletzt, wenn in jedem Wahlkreis ein Abgeordneter gewählt wird und die Größe der Wahlkreise zu stark voneinander abweicht. Bei der Verhältniswahl wird zusätzlich die Einhaltung der "Erfolgswertgleichheit" verlangt, das heißt jede Stimme muss grundsätzlich gleichen Einfluss auf die Sitzverteilung haben. Die Erfolgswertgleichheit gilt jedoch nicht uneingeschränkt. So hat das Bundesverfassungsgericht die Einschränkung der Wahlgleichheit durch die derzeitige Sperrklausel im Bundestagswahlrecht von 5 % der Zweitstimmen oder drei Direktmandate für zulässig erachtet. Eine Sperrklausel von mehr als 5 % wäre nach der Rechtsprechung hingegen verfassungswidrig, es sei denn, sie wäre durch besondere und zwingende Gründe gerechtfertigt.
Gesetze und Verordnungen.
Die wesentlichen Bestimmungen des Bundestagswahlrechts enthält das Bundeswahlgesetz. Viele Detailregelungen sind in der Bundeswahlordnung enthalten, einer Rechtsverordnung aufgrund von § 52 Bundeswahlgesetz. Die Durchführung der repräsentativen Wahlstatistik ist im Wahlstatistikgesetz geregelt. Die Bundeswahlgeräteverordnung, Rechtsverordnung aufgrund von § 35 Bundeswahlgesetz, die die Stimmabgabe mit Wahlgeräten regelt, wurde 2009 für verfassungswidrig erklärt. Damit besteht keine Rechtsgrundlage für eine elektronische Stimmabgabe. Die Prüfung der Rechtmäßigkeit der Wahl regelt das Wahlprüfungsgesetz.
Wahlrecht.
Aktives Wahlrecht.
Aktives Wahlrecht ist das Recht, jemanden zu wählen. Aktiv wahlberechtigt sind nach § 12 des Bundeswahlgesetzes Deutsche, die am Wahltag
Auch im Ausland lebende Deutsche, die diese Bedingungen mit Ausnahme der Dreimonatsfrist erfüllen, sind wahlberechtigt, wenn sie
Verlegen aktiv wahlberechtigte Auslandsdeutsche ihren Wohnsitz nach Deutschland, gilt die Dreimonatsfrist nicht.
Vom Wahlrecht "ausgeschlossen" sind Deutsche, denen bei einer strafrechtlichen Verurteilung als Nebenfolge das aktive Wahlrecht aberkannt wurde. Dies ist nur bei bestimmten Straftaten möglich (Erster, Zweiter, Vierter und Fünfter Abschnitt des Besonderen Teils des StGB).
Passives Wahlrecht.
Passives Wahlrecht ist das Recht, gewählt zu werden. In den Bundestag wählbar ist, wer am Wahltag Deutscher und mindestens 18 Jahre alt ist.
Nicht wählbar ist jedoch, wer vom aktiven Wahlrecht ausgeschlossen ist oder infolge Richterspruchs die Wählbarkeit oder die Fähigkeit zur Bekleidung öffentlicher Ämter nicht besitzt. Nach § 45 des Strafgesetzbuches verliert, wer wegen eines Verbrechens rechtskräftig zu einer Freiheitsstrafe von mindestens einem Jahr verurteilt worden ist, damit für fünf Jahre seine Wählbarkeit. Bei anderen strafrechtlichen Verurteilungen kann das Gericht dem Verurteilten für zwei bis fünf Jahre die Wählbarkeit aberkennen, sofern das Gesetz diese Möglichkeit für die entsprechende Straftat ausdrücklich vorsieht.
Deutsche, die im Ausland leben, können auch wählbar sein, wenn sie das aktive Wahlrecht nicht besitzen. Wahlkreisbewerber brauchen nicht im Wahlkreis, Landeslistenbewerber nicht im Bundesland zu wohnen.
Wählerverzeichnis.
Die Eintragung ins Wählerverzeichnis ist – von in § 25 Absatz 2 Bundeswahlordnung geregelten seltenen Ausnahmefällen abgesehen – Voraussetzung für die Wahlteilnahme. Für jeden Wahlbezirk wird ein eigenes Wählerverzeichnis geführt.
Ins Wählerverzeichnis trägt die Gemeindebehörde die Wahlberechtigten ein, die am 42. Tag vor der Wahl (bis zur Bundestagswahl 2013: am 35. Tag) in der Gemeinde ihre Wohnung haben. Bei mehreren Wohnungen in Deutschland erfolgt die Eintragung im Ort der Hauptwohnung. Die Aufnahme von Wahlberechtigten ohne Wohnung in Deutschland (Auslandsdeutsche, Wohnungslose) erfolgt nur auf Antrag, der bis zum 21. Tag vor der Wahl zu stellen ist.
Im Wählerverzeichnis geführte Wahlberechtigte müssen bis zum 21. Tag vor der Wahl die Wahlbenachrichtigung erhalten. An den Werktagen im Zeitraum vom 20. bis zum 16. Tag vor der Wahl können Wahlberechtigte die Daten im Wählerverzeichnis einsehen, Daten anderer Wahlberechtigter aber nur, wenn sie mögliche Fehler im Wählerverzeichnis glaubhaft machen. Innerhalb der Einsichtsfrist kann Widerspruch gegen das Wählerverzeichnis eingelegt werden. Grundsätzlich kann nach Beginn der Einsichtsfrist das Wählerverzeichnis nur aufgrund eines rechtzeitigen Einspruchs berichtigt werden. Bei offenkundiger Unrichtigkeit ist eine Berichtigung von Amts wegen auch später noch möglich.
Stimmabgabe.
Den Wahltag legt der Bundespräsident fest. Die Stimmabgabe erfolgt im Regelfall am Wahltag zwischen 8 und 18 Uhr im Wahllokal des Wahlbezirkes, in dessen Wählerverzeichnis der Wahlberechtigte eingetragen ist. Auf Antrag erhält der Wahlberechtigte einen Wahlschein, mit dem Wahlschein werden regelmäßig auch Briefwahlunterlagen verschickt oder ausgegeben. Der Wahlschein kann bis zum zweiten Tag vor der Wahl, 18 Uhr, beantragt werden. Bei nachgewiesener plötzlicher Erkrankung endet die Antragsfrist am Wahltag um 15 Uhr, ebenso in den Fällen von § 25 Absatz 2 Bundeswahlordnung. Bei Wahlberechtigten, die einen Wahlschein erhalten, wird ein Sperrvermerk ins Wählerverzeichnis eingetragen. Sie können mit dem Wahlschein per Briefwahl oder in einem beliebigen Wahlbezirk ihres Wahlkreises wählen. Wähler dürfen nur einmal und nur persönlich wählen.
Wahlorganisation.
Zur ordnungsgemäßen Durchführung werden Wahlorgane gebildet, auf Bundesebene Bundeswahlleiter und Bundeswahlausschuss, in jedem Bundesland Landeswahlleiter und Landeswahlausschuss, für die Wahlkreise jeweils Kreiswahlleiter und Kreiswahlausschuss, für jeden Wahlbezirk Wahlvorsteher und Wahlvorstand. Der jeweilige Wahlleiter ist Vorsitzender des Ausschusses, der Wahlvorsteher Vorsitzender des Wahlvorstandes.
Die Wahlorgane sind Einrichtungen gesellschaftlicher Selbstorganisation und damit Organe eigener Art. Sie haben im weiteren Sinne die Stellung von Bundesbehörden. Das Bundesministerium des Innern ist für den Erlass der zur Vorbereitung und Durchführung der Bundestagswahl erforderlichen Vorschriften der Bundeswahlordnung zuständig, aber gegenüber den Wahlorganen nicht weisungsbefugt.
Der Bundeswahlleiter, in der Praxis regelmäßig der Präsident des Statistischen Bundesamtes, wird vom Bundesministerium des Innern ernannt. Die übrigen Wahlleiter und die Wahlvorsteher werden von der Landesregierung oder einer von ihr bestimmten Stelle ernannt. Die Beisitzer der Ausschüsse werden vom jeweiligen Wahlleiter ernannt. Grundsätzlich ernennt der Wahlvorsteher die Beisitzer des Wahlvorstandes, diese Befugnis kann aber den Gemeindebehörden zugewiesen werden, die in der Praxis weitgehend für die Besetzung der Wahlvorstände zuständig sind. Bei der Ernennung der Beisitzer in den Wahlorganen sollen die Parteien berücksichtigt werden. Die Mitglieder der Wahlorgane dürfen in Ausübung ihres Amtes ihr Gesicht nicht verhüllen.
Für die Wahlausschüsse und Wahlvorstände gilt das Prinzip der Öffentlichkeit. Sowohl zu den Sitzungen der Wahlausschüsse als auch zu den Wahllokalen (sowohl während der Wahlzeit als auch bei der Auszählung) hat grundsätzlich jeder Zutritt.
Die Gemeindebehörden, die keine Wahlorgane sind, nehmen eine Reihe organisatorischer Aufgaben wahr, unter anderem die Führung der Wählerverzeichnisse, Einteilung der Gemeinde in Wahlbezirke und Bereitstellung der Wahllokale.
Bestimmung der Kandidaten.
Vorschlagsrecht.
Kreiswahlvorschläge können von Parteien und von Wahlberechtigten, Landeslisten nur von Parteien eingereicht werden. Parteien, die nicht im Bundestag oder einem Landtag seit dessen letzter Wahl aufgrund eigener Wahlvorschläge ununterbrochen mit mindestens fünf Abgeordneten vertreten sind, müssen, um Wahlvorschläge einreichen zu können, dem Bundeswahlleiter bis zum 97. Tag vor dem Wahltag ihre Beteiligung an der Bundestagswahl angezeigt haben und vom Bundeswahlausschuss als Partei anerkannt worden sein. Spätestens am 69. Tag vor der Wahl müssen Landeslisten beim Landeswahlleiter und Kreiswahlvorschläge beim Kreiswahlleiter eingereicht werden. Im Falle einer Auflösung des Bundestages werden diese Fristen durch eine Rechtsverordnung des Bundesministeriums des Innern abgekürzt. Über die Zulassung der Kreiswahlvorschläge und Landeslisten wird am 58. Tag vor der Wahl entschieden. Seit 2023 können Kreiswahlvorschläge von Parteien nur zugelassen werden, wenn im Bundesland eine Landesliste dieser Partei zugelassen wurde.
Parteien, die ihre Beteiligung an der Wahl anzeigen müssen, benötigen außerdem Unterstützungsunterschriften für ihre Wahlvorschläge: Jeder Kreiswahlvorschlag muss von mindestens 200 Wahlberechtigten des Wahlkreises, jede Landesliste von mindestens einem Tausendstel der Zahl der Wahlberechtigten im Land bei der letzten Bundestagswahl, höchstens aber 2000 Wahlberechtigten, unterzeichnet sein. Der Kreiswahlvorschlag eines nicht für eine Partei auftretenden Bewerbers benötigt ebenfalls 200 Unterstützungsunterschriften. Für die Bundestagswahl 2021 ist die benötigte Zahl an Unterstützungsunterschriften jeweils auf ein Viertel der normalerweise erforderlichen Zahl reduziert. Parteien, die eine nationale Minderheit vertreten, benötigen keine Unterstützungsunterschriften. Jeder Wahlberechtigte darf nur jeweils einen Kreiswahlvorschlag und eine Landesliste unterzeichnen. Unterzeichnet ein Wahlberechtigter mehrere Kreiswahlvorschläge, so ist seine Unterschrift gemäß Abs. 4 Nr. 4 Bundeswahlordnung auf allen Kreiswahlvorschlägen ungültig; das gilt für Landeslisten entsprechend. Außerdem macht sich derjenige, der mehrere Kreiswahlvorschläge oder mehrere Landeslisten unterzeichnet, strafbar.
Kreiswahlvorschläge.
Die Bewerber einer Partei werden in einer demokratischen und geheimen Wahl durch die Versammlung der wahlberechtigten Mitglieder der Partei im Wahlkreis gewählt. Ebenfalls zulässig ist die Wahl des Bewerbers in einer Vertreterversammlung, die aus von den wahlberechtigten Parteimitgliedern in geheimer Wahl bestimmten Delegierten besteht. Jeder stimmberechtigte Teilnehmer der Mitglieder- oder Vertreterversammlung ist vorschlagsberechtigt; der Vorgeschlagene muss nicht Parteimitglied sein. Seit der Bundestagswahl 2009 darf eine Partei keinen Bewerber mehr aufstellen, der (auch) einer anderen Partei angehört (Änderung des BWahlG). Für die Aufstellungsversammlung muss eine Niederschrift erstellt werden, die mit dem Kreiswahlvorschlag einzureichen ist. Für die Bundestagswahl 2021 galten Sonderregeln, siehe Abschnitt Sonderregeln zur Bewerberaufstellung.
Wahlvorschläge von Parteien müssen vom Landesvorstand der Partei unterzeichnet werden. Der Landesvorstand kann gegen die Bewerberaufstellung Einspruch einlegen, woraufhin die Versammlung zu wiederholen ist. Ein erneuter Einspruch nach der Wiederholung ist nicht möglich.
Der Kreiswahlleiter prüft den Wahlvorschlag, benachrichtigt bei Feststellung von Mängeln die Vertrauensperson und fordert sie auf, behebbare Mängel rechtzeitig zu beseitigen. Mängel können längstens bis zur Entscheidung über die Zulassung des Wahlvorschlages behoben werden. Bei einigen Mängeln schließt § 25 Absatz 2 des Bundeswahlgesetzes die Mängelbeseitigung nach Ablauf der Einreichungsfrist aus.
Im Kreiswahlvorschlag sollen eine Vertrauensperson und ihr Stellvertreter benannt werden, die zur Abgabe von Erklärungen gegenüber dem Kreiswahlleiter berechtigt sind. Ein Kreiswahlvorschlag kann durch gemeinsame Erklärung der beiden Vertrauenspersonen oder durch Erklärung der Mehrheit der Unterzeichner des Wahlvorschlages zurückgezogen werden. Durch Erklärung der beiden Vertrauenspersonen kann die vorgeschlagene Person ausgetauscht werden, nach Ablauf der Einreichungsfrist aber nur, wenn der ursprünglich Vorgeschlagene verstorben ist oder seine Wählbarkeit verloren hat. Ist der Wahlvorschlag bereits zugelassen, so kann er weder zurückgezogen noch geändert werden.
Stirbt ein Direktkandidat vor dem Wahltermin, so wird die Wahl in dem Wahlkreis abgesagt. Spätestens sechs Wochen nach dem allgemeinen Wahltermin wird sie neu angesetzt ( BWahlG), damit die Partei des verstorbenen Direktkandidaten einen Ersatzkandidaten benennen kann. Sofern dies organisatorisch noch möglich ist, kann die Nachwahl gleichzeitig mit der Hauptwahl stattfinden. Die Nachwahl findet nach den gleichen Vorschriften statt wie die Hauptwahl; insbesondere können zwischen Haupt- und Nachwahl volljährig gewordene Deutsche "nicht" mitwählen.
Landeslisten.
Nach dem Bundeswahlgesetz erfolgt die Aufstellung der Landeslisten grundsätzlich analog zur Aufstellung von Kreiswahlvorschlägen. Zusätzlich ist festgelegt, dass die Reihenfolge der Bewerber der Landesliste in geheimer Wahl bestimmt werden muss.
Für die Mängelbeseitigung, die Benennung von Vertrauenspersonen, die Änderung oder Rücknahme der Landesliste und die Unterzeichnung durch den Landesvorstand gelten die Vorschriften für Kreiswahlvorschläge entsprechend.
Wahlsystem.
Es handelt sich um eine Personalisierte Verhältniswahl. Wähler haben zwei Stimmen: eine Erststimme und eine Zweitstimme. Diese Begriffe kennzeichnen kein Rangverhältnis. Die Zweitstimme ist die wichtigere Stimme.
Erststimme.
Mit der Erststimme wählt ein Wähler einen Direktkandidaten seines Wahlkreises. In jedem Wahlkreis ist grundsätzlich der Bewerber mit den meisten Stimmen gewählt. Bei Stimmengleichheit entscheidet das vom Kreiswahlleiter zu ziehende Los. Die Erststimme dient der Personalisierung der Wahl. Außerdem fördern die Direktmandate eine ausgewogene Vertretung aller Regionen im Bundestag. Derzeit gibt es 299 Wahlkreise. Mit der Erststimme wird nicht die Stärke der Parteien im Bundestag bestimmt. Für jedes Direktmandat in einem Bundesland erhält die Partei dort grundsätzlich ein Listenmandat weniger.
Ab der Wahl zum 21. Deutschen Bundestag werden in der Regel 630 Sitze vergeben, sodass die Zahl der Wahlkreise, die bei 299 bleibt, erstmals niedriger ist. Der Bewerber mit den meisten Stimmen ist nicht mehr in jedem Fall gewählt. Scheitert eine Partei an der Sperrklausel, kann sie auch kein Direktmandat erhalten. Erringt die Kreiswahlvorschläge einer Partei in mehr Wahlkreisen die größte Stimmenzahl, als der Partei im Bundesland Sitze zustehen, erhalten ihre Direktkandidaten mit den geringsten Stimmenanteilen im Wahlkreis keinen Sitz.
Die Abgrenzung der Wahlkreise wird durch eine Anlage zum Bundeswahlgesetz festgelegt. Die Wahlkreisgrenzen dürfen Landesgrenzen nicht durchschneiden, und die Zahl der deutschen Einwohner darf um höchstens 25 % vom Durchschnitt aller Wahlkreise abweichen. Ab 2026 ist nur noch eine Abweichung von höchstens 15 % zulässig.
Zweitstimme.
Die Zweitstimme ist die maßgebliche Stimme für die Sitzverteilung im Bundestag. Mit ihr wählt ein Wähler die Landesliste einer Partei. Die 630 Sitze (ab der Wahl zum 21. Deutschen Bundestag) im Bundestag werden gemäß der bundesweiten Zweitstimmenzahlen proportional auf die Parteien verteilt, die bundesweit mindestens 5 % der gültigen Zweitstimmen erringen (siehe Sperrklausel).
Der Anteil der Bundestagssitze einer Partei entspricht damit in etwa ihrem Anteil an den Wählerstimmen. Verzerrungen entstehen durch die Sperrklausel. Gemäß Abs. 1 Satz 2 BWahlG bleiben die Zweitstimmen der Wähler für die Sitzverteilung unberücksichtigt, die mit ihrer Erststimme für einen "erfolgreichen" Bewerber gestimmt haben, der entweder nicht von einer Partei aufgestellt wurde, die auch mit einer Landesliste kandidiert, oder (dies gilt erst seit 2011) von einer Partei aufgestellt wurde, die an der Sperrklausel gescheitert ist. Mit dieser Regelung soll eine faktisch zweifache Einflussnahme dieser Wähler auf die Zusammensetzung des Bundestages verhindert werden.
Die PDS errang 2002 in Berlin zwei Direktmandate, scheiterte aber mit 3,99 % an der Fünfprozenthürde. Die Zweitstimmen der Wähler dieser Direktkandidaten wurden trotzdem berücksichtigt, da beide Gewählte für eine Partei kandidierten, für die im Bundesland eine Landesliste zugelassen war. Nachdem das Bundesverfassungsgericht bereits in seinem Beschluss vom 23. November 1988 auf diese Regelungslücke hingewiesen hatte, wurde das Bundeswahlgesetz 2011 so geändert, dass seither die Zweitstimme nicht mehr zählt, wenn ein Wähler mit der Erststimme den erfolgreichen Bewerber einer Partei wählte, die an der Sperrklausel gescheitert ist.
Sperrklausel.
Gemäß § 4 Absatz 2 Bundeswahlgesetz werden Parteien Bundestagsmandate nur zugeteilt, wenn sie bundesweit mindestens 5 % der gültigen Zweitstimmen erreichen.
Alternativ genügt es bis 2023, dass eine Partei mindestens drei Direktmandate errang (Grundmandatsklausel). Die Grundmandatsklausel begünstigte unter den kleinen Parteien jene mit regional konzentrierter Wählerschaft, wie die PDS beziehungsweise Die Linke bei den Bundestagswahlen 1994 und 2023.
Die Sperrklausel soll eine Zersplitterung des Parlaments verhindern.
Parteien nationaler Minderheiten, wie etwa der SSW, sind von der Sperrklausel befreit. Als nationale Minderheit gelten nur angestammte Minderheiten wie Dänen und Sorben, nicht aber Zuwanderer.
Sitzverteilung 1956 bis 2011.
Grundsätzlich wurden alle Sitze proportional auf die Parteien verteilt gemäß ihren bundesweiten Zweitstimmenzahlen. Die auf die Partei entfallenen Sitze wurden anschließend proportional auf ihre Landeslisten verteilt. Die proportionalen Verteilungen erfolgten bis 1985 nach dem D’Hondt-Verfahren, danach nach dem Hare/Niemeyer-Verfahren und seit 2008 nach dem Sainte-Laguë/Schepers-Verfahren. Von der Anzahl der auf die Landesliste entfallenden Sitze wurde die Zahl der erfolgreichen Direktkandidaten der Partei in diesem Land abgezogen. Die verbleibenden Sitze wurden nach der Reihenfolge in der Landesliste besetzt, bereits im Wahlkreis gewählte Bewerber blieben dabei außer Betracht.
Von den insgesamt zu verteilenden Sitzen (598 Sitze seit der Wahl 2002) wurde die Zahl der Direktmandate abgezogen, die von Einzelbewerbern errungen wurden oder auf Parteien entfielen, die an der Sperrklausel scheiterten oder für die im Land keine Landesliste zugelassen war. Ein solcher Fall trat nur bei der Bundestagswahl 2002 ein, als die an der Sperrklausel gescheiterte PDS zwei Direktmandate errang.
Errang eine Partei in einem Land mehr Direktmandate, als ihr gemäß ihrem Zweitstimmenergebnis zustanden, behielt sie diese als Überhangmandate bezeichneten zusätzlichen Sitze; der Bundestag vergrößerte sich um deren Gesamtzahl. Ausgleichsmandate wurden nicht vergeben. Die Zahl der Überhangmandate war bis zur Wiedervereinigung gering (höchstens 5, mehrmals gab es gar keine), bei den Wahlen von 1990 bis 2009 schwankte sie zwischen 5 (2002) und 24 im Jahr 2009.
Reform der Sitzverteilung 2011.
Bei dem seit 1956 geltenden Sitzzuteilungsverfahren konnte negatives Stimmgewicht auftreten durch die Unterverteilung im Zusammenhang mit den Überhangmandaten. Das Urteil des Bundesverfassungsgerichts vom 3. Juli 2008 erklärte dies für verfassungswidrig: Abs. 3 Satz 2 i. V. m. Abs. 4 und 5 BWahlG verstießen gegen Abs. 1 Satz 1 GG, „soweit hierdurch ermöglicht wird, dass ein Zuwachs an Zweitstimmen zu einem Verlust an Sitzen der Landeslisten oder ein Verlust an Zweitstimmen zu einem Zuwachs an Sitzen der Landeslisten führen kann.“ Dem Gesetzgeber wurde eine Änderung des Bundeswahlgesetzes bis zum 30. Juni 2011 aufgegeben.
Eine nur von den Fraktionen von Union und FDP getragene Neuregelung trat erst am 3. Dezember 2011 in Kraft. Danach wurden die Sitze im Bundestag im ersten Schritt auf die Länder und erst im zweiten Schritt innerhalb der Länder auf die Parteien verteilt, also genau umgekehrt als bis dahin. Die Verteilung der Sitze auf die einzelnen Länder sollte nach der Anzahl der Wähler in den Ländern erfolgen. Überhangmandate konnten wie bis dahin entstehen. Weitere Sitze konnten Parteien bei der sogenannten "Reststimmenverwertung" nach dem neu eingeführten Abs. 2a BWahlG erhalten. Deren Zahl sollte so berechnet werden: Die Zweitstimmen, die bei den Landeslisten einer Partei nicht zum Gewinn eines (zusätzlichen) Sitzes führten, wurden bundesweit addiert, durch die „im Wahlgebiet für einen der zu vergebenden Sitze erforderliche Zweitstimmenzahl“ geteilt und zur ganzen Zahl abgerundet. Die zusätzlichen Sitze sollten an die Landeslisten mit den größten Stimmresten gehen, vorrangig aber an die Landeslisten mit Überhangmandaten. Da aus dem Gesetzestext die Berechnung der „im Wahlgebiet für einen der zu vergebenden Sitze erforderliche Zweitstimmenzahl“ nicht hervorging und die Berechnung der Reststimmen nicht eindeutig geregelt war, bestand hier erhebliche Unklarheit.
Auch dieses Zuteilungsverfahren erklärte das Bundesverfassungsgericht am 25. Juli 2012 für nichtig. Beanstandet wurde:
Das Bundesverfassungsgericht setzte im Gegensatz zum Urteil von 2008 keine Frist für eine Neuregelung, so dass es zunächst kein anwendbares Bundestagswahlrecht mehr gab.
Neben diesen umstrittenen Änderungen wurde eine Inkonsistenz beseitigt. Künftig bleiben bei der Sitzverteilung auch die Zweitstimmen derjenigen Wähler außer Betracht, die mit der Erststimme einen im Wahlkreis erfolgreichen Bewerber wählen, der zwar von einer mit einer Landesliste im Land auftretenden Partei aufgestellt wurde, dessen Partei aber an der Sperrklausel scheitert.
Sitzverteilung 2013 bis 2020.
Im Oktober 2012 einigten sich Union, SPD, FDP und Grüne auf eine Neuregelung der Sitzverteilung, die am 9. Mai 2013 in Kraft trat. Eine proportionale Sitzverteilung auf Bundesebene sollte durch die Einführung von Ausgleichsmandaten garantiert werden. Die Sitzverteilung erfolgte demnach so:
In zwei nicht eingetretenen Sonderfällen ergaben sich (im Wesentlichen unverändert) folgende Abweichungen von der beschriebenen Sitzverteilung:
Das neue Zuteilungsverfahren führte zu einer erheblichen Vergrößerung des Bundestages. Wäre bei der Bundestagswahl 2009 mit diesem Verfahren gewählt worden, hätte der Bundestag 671 statt 622 Mitglieder gehabt. Mit möglichen Überhangmandaten zusammenhängendes negatives Stimmgewicht konnte nicht mehr auftreten, allerdings waren vergleichbare Effekte möglich. Bei der Bundestagswahl 2009 hätten bei Anwendung des neuen Zuteilungsverfahrens 8000 Zweitstimmen mehr für Die Linke in Hamburg zu einem Sitz weniger für diese Partei geführt.
Sitzverteilung 2020 bis 2023.
Eine mögliche starke Vergrößerung des Bundestages führte wiederholt zu Forderungen nach einer erneuten Reform. Die Fraktionen der Regierungsparteien CDU/CSU und SPD legten am 15. September 2020 einen Gesetzentwurf zur Änderung des Bundeswahlgesetzes vor. Demnach sollte eine Vergrößerung des Bundestages dadurch begrenzt werden, dass es für bis zu drei Überhangmandate im Bundestag keine Ausgleichsmandate gibt, und bei Überhangmandaten einer Partei werden Listensitze der Partei in anderen Bundesländern zu knapp der Hälfte zur Kompensation von Überhangmandaten gestrichen. Die Verringerung der Zahl der Wahlkreise von 299 auf 280 war ebenfalls vorgesehen, sollte aber erst am 1. Januar 2024 in Kraft treten (was durch die spätere Wahlrechtsreform 2023 verhindert wird). Das Gesetz wurde im Oktober 2020 von Bundestag beschlossen und trat am 19. November 2020 in Kraft. Demnach ergab sich folgendes Zuteilungsverfahren (Änderungen gegenüber der zuvor bestehenden Rechtslage "kursiv"):
In Ausnahmefällen ergaben sich unverändert zur vorherigen Regelung folgende Abweichungen von der beschriebenen Sitzverteilung:
Gegenüber einer hypothetischen Wahl 2021 nach dem vorherigen Wahlrecht hatten die Parteien im 20. Bundestag folgende Sitzverluste: SPD −15 (206 statt 221), CDU −11 (152 statt 163), Grüne −9 (118 statt 127), FDP −7 (92 statt 99), AfD −6 (83 statt 89), Linke −3 (39 statt 42), SSW ± 0 (= 1). Die CSU verlor gegenüber einer Wahl nach altem Wahlrecht keinen Sitz (= 45) und erhielt so 6,1 % statt 5,7 % der Sitze.
Die damaligen Oppositionsfraktionen FDP, Grüne und Linke reichten wegen der bis zu drei nicht ausgeglichenen Überhangmandate beim Bundesverfassungsgericht eine
Normenkontrollklage ein. Sie wenden sich gegen die Nichtzuteilung mancher Überhangsmandate, die den Parteienproporz verzerre und so die im Grundgesetz festgelegten Prinzipien der Wahlrechtsgleichheit und der Chancengleichheit der Parteien verletze. Außerdem seien die Regelungen unklar formuliert.
Sitzverteilung ab 2023.
Am 24. Januar 2023 brachten die Fraktionen der Regierungsparteien SPD, Grüne und FDP einen Gesetzentwurf im Bundestag ein, nach dem die Zahl der Mandate auf 598 begrenzt werden sollte, indem Überhangmandate nicht mehr zugeteilt werden. Im März 2023 verständigten sich die Regierungsparteien auf Änderungen des Gesetzentwurfs. Demnach hat der Bundestag künftig im Regelfall 630 statt 598 Mitglieder und die Grundmandatsklausel entfällt. Die ursprünglich geplante Umbenennung von Erst- und Zweitstimme in Wahlkreis- und Hauptstimme unterbleibt. Die Reform wurde am 17. März 2023 vom Bundestag beschlossen und ist am 14. Juni 2023 in Kraft getreten.
Ein Wahlkreisbewerber einer Partei kann nach der Reform nur noch dann zugelassen werden, wenn für die Partei im Land eine Landesliste zugelassen wurde. Eine Kandidatur als Einzelbewerber bleibt möglich; er darf aber nicht in einer Landesliste benannt sein. Die zuvor für 2024 vorgesehene Reduzierung der Wahlkreise auf 280 findet nicht statt.
Die Sitze werden so verteilt:
In Sonderfällen ergeben sich analog zum vorherigen Wahlrecht folgende Abweichungen von der beschriebenen Zuteilung:
Sofort nach der Bekanntmachung der Gesetzesänderung im Bundesgesetzblatt reichte die Bayerische Staatsregierung einen Antrag auf Abstrakte Normenkontrolle beim Bundesverfassungsgericht ein und die CSU eine Verfassungsbeschwerde. Auch die CDU/CSU-Fraktion im Deutschen Bundestag beabsichtigt, eine abstrakte Normenkontrolle einzuleiten. Die Linke will ebenfalls beim Bundesverfassungsgericht klagen. Sie wenden sich gegen die mögliche Nichtzuteilung von Direktmandaten und die Abschaffung der Grundmandatsklausel, wodurch sich die CSU und Die Linke bedroht sehen. Bei der Bundestagswahl 2021 lag die CSU knapp über und Die Linke knapp unter 5 % der Zweitstimmen. Die Linke hätte bei Anwendung dieses Verfahrens keine Mandate erhalten, auch keine Direktmandate.
Feststellung des Wahlergebnisses.
Stimmenzählung im Wahlbezirk.
Die Stimmenzählung im Wahlbezirk durch den Wahlvorstand erfolgt sofort nach Ablauf der Wahlzeit im Wahllokal. Gleichzeitig beginnt die Auszählung der Briefwahl, die Wahlbriefe dürfen schon vor 18 Uhr geöffnet werden. Nach der Auszählung wird das festgestellte Ergebnis mit einer formularmäßigen Niederschrift beurkundet. Der Kreiswahlausschuss hat das Recht, die Feststellungen der Wahlvorstände zu überprüfen.
Ab der Bundestagswahl 2021 erfolgt die Auszählung durch den Wahlvorstand eines anderen Wahlbezirks, wenn im Wahlbezirk weniger als 50 Stimmen abgegeben wurden.
Ungültige Stimmen, Zurückweisung von Wahlbriefen.
In folgenden Fällen sind Stimmen ungültig:
Bei der Briefwahl sind außerdem gemäß Bundeswahlgesetz beide Stimmen ungültig, wenn der Stimmzettelumschlag leer ist, mehrere verschieden gekennzeichnete Stimmzettel enthält oder eigentlich zurückzuweisen gewesen wäre, da er in einer das Wahlgeheimnis gefährdenden Weise von den übrigen abweicht. Ausdrücklich gültig bleiben dagegen die per Briefwahl abgegebenen Stimmen von Wählern, die vor der Urnenwahl sterben oder ihr Wahlrecht verlieren.
Ungültige Stimmen haben auf die Sitzverteilung ebenso wenig Einfluss wie nicht abgegebene Stimmen.
Bei der Briefwahl ist ein Wahlbrief zurückzuweisen, wenn
Wird der Wahlbrief zurückgewiesen, ist die Stimme nicht ungültig, sondern gilt als nicht abgegeben. Der Absender zählt nicht als Wähler.
Vorläufiges Ergebnis.
Die am Wahlabend veröffentlichten vorläufigen Ergebnisse beruhen auf Schnellmeldungen, die die Wahlvorstände – in der Regel telefonisch – sofort nach der Auszählung an die Gemeinde übermitteln. Die Gemeindebehörde leitet die Ergebnisse in der Gemeinde zusammengefasst an den Kreiswahlleiter weiter, dieser wiederum über den Landeswahlleiter an den Bundeswahlleiter.
Endgültiges Ergebnis.
Die endgültigen Ergebnisse beruhen auf den von den Wahlvorständen erstellten Niederschriften.
Ergebnis im Wahlkreis.
Der Kreiswahlleiter stellt anhand der Niederschriften der Wahlvorstände das Ergebnis im Wahlkreis zusammen. Er prüft die Niederschriften der Wahlvorstände einschließlich Anlagen auf Vollständigkeit und Ordnungsmäßigkeit. Zu weiter gehender Prüfung ist der Kreiswahlleiter nur verpflichtet, wenn Anhaltspunkte für Unregelmäßigkeiten vorliegen. In seltenen Fällen kommt es zur Aufklärung von Unstimmigkeiten zu Nachzählungen. Bei der Bundestagswahl 2017 wurde in 195 von 88.499 Wahlbezirken neu ausgezählt, bei der Bundestagswahl 2013 geschah dies in 372 Wahlbezirken. Der Kreiswahlausschuss stellt in der Regel in der Woche nach der Wahl nach der Berichterstattung durch den Kreiswahlleiter das Ergebnis im Wahlkreis fest.
Ergebnis auf Landes- und Bundesebene.
Der Landeswahlausschuss stellt das Ergebnis im Bundesland fest und der Bundeswahlausschuss das Ergebnis auf Bundesebene. Der Landeswahlausschuss ist dabei an die Feststellungen der Kreiswahlausschüsse und der Bundeswahlausschuss an die Feststellungen der Landeswahlausschüsse gebunden. Nur rechnerische Berichtigungen sind zulässig. Der Bundeswahlausschuss stellt außerdem fest, welche Bewerber gewählt sind.
Erwerb und Verlust der Mitgliedschaft, Nachrücken.
Jeder gewählte Bewerber wird nach Feststellung des Wahlergebnisses durch den Bundeswahlausschuss automatisch Abgeordneter mit Eröffnung der ersten Sitzung des neuen Bundestages, es sei denn, dass er zuvor gegenüber dem Landeswahlleiter die Ablehnung des Mandats erklärt. Eine Erklärung unter Vorbehalt gilt als Ablehnung.
Außer durch Tod können Abgeordnete während der Wahlperiode ihren Sitz verlieren durch Verzicht, Neufeststellung des Wahlergebnisses infolge der Wahlprüfung, Feststellung der Ungültigkeit des Mitgliedschaftserwerbs im Wahlprüfungsverfahren, Verlust der Wählbarkeit oder Verbot der Partei, für die der Abgeordnete gewählt wurde oder deren Mitglied er im Zeitpunkt der Stellung des Verbotsantrages oder später war. In der Praxis scheiden Abgeordnete fast nur durch Verzicht oder Tod vorzeitig aus. Als bisher einziger Abgeordneter verlor Fritz Dorls 1952 seinen Sitz durch ein Parteiverbot. Noch nie verlor ein Abgeordneter seinen Sitz durch Neufeststellung des Wahlergebnisses.
Für einen ausscheidenden Abgeordneten rückt grundsätzlich der nächste Bewerber auf der Landesliste der Partei nach, für die der Ausscheidende gewählt worden ist. Außer Betracht bleiben dabei Bewerber, die ausgeschieden sind aus der Partei, für die sie kandidiert haben. Der Landeswahlleiter stellt den Nachfolger fest, benachrichtigt diesen und fordert ihn auf, binnen einer Woche schriftlich zu erklären, ob er die Wahl annimmt. Er erwirbt die Mitgliedschaft im Bundestag mit Eingang der schriftlichen Annahmeerklärung beim Landeswahlleiter. Gibt er bis zum Fristablauf keine formgerechte Erklärung ab, erwirbt er die Mitgliedschaft mit Ablauf der Frist automatisch. Nicht in den Bundestag nachrücken können Bewerber einer von einem Parteiverbot betroffenen Partei oder Bewerber, die dieser Partei nach Stellung des Verbotsantrags angehörten. Ist auf der Landesliste kein Bewerber mehr vorhanden, der in den Bundestag nachrücken kann, bleibt der Sitz unbesetzt und der Bundestag verkleinert sich entsprechend. Dies ist nur einmal geschehen nach dem Ausscheiden von Katherina Reiche 2015. Wer einen Sitz ablehnt oder während der Wahlperiode aus dem Bundestag ausscheidet, kann nicht später während dieser Wahlperiode in den Bundestag nachrücken.
Hat eine Partei in einem Bundesland mehr Wahlkreise gewonnen, als ihr im Bundesland Sitze zustehen und wurden deshalb Direktkandidaten keine Sitze zugeteilt, so kommen diese beim Nachrücken vor den nicht gewählten Listenbewerbern der Partei zum Zuge in der Reihenfolge ihrer Stimmenanteile in den Wahlkreisen (§ 48 Abs. 1 in Verbindung mit § 6 Abs. 1 und 4 Bundeswahlgesetz). Im Fall des 2021 gewählten Bundestags gibt es keinen Nachrücker, wenn durch das Ausscheiden des Abgeordneten ein nicht ausgeglichenes Überhangmandat fortfällt. Diese Regelung wurde mit der Wahlrechtsreform 2023 aufgehoben. Nach einem Urteil des Bundesverfassungsgerichts von 1997 rückte ebenfalls niemand nach, wenn ein direkt gewählter Abgeordneter ausschied und seine Partei im Bundesland Überhangmandate errungen hatte, solange noch Überhangmandate vorhanden waren. So sank während der 16. Wahlperiode (2005–2009) die Zahl der Abgeordneten von 614 auf 611. Da ab der Bundestagswahl 2013 für Überhangmandate Ausgleichsmandate zugeteilt wurden, entfiel diese Ausnahme nach Ablauf der 17. Wahlperiode (2009–2013).
Wenn ein im Wahlkreis gewählter Bewerber ausschied, der von einem Parteiverbot betroffen war oder als Bewerber einer Partei ohne Landesliste im Bundesland gewählt wurde, war bis 2023 eine Ersatzwahl im Wahlkreis vorgesehen, seit der Wahlrechtsreform 2023 bleibt der Sitz in solch einem Fall unbesetzt. Eine Ersatzwahl fand nie statt.
Anfechtung, Wahlprüfung.
Nach des Bundeswahlgesetzes können die Wahl selbst und unmittelbar mit ihr in Zusammenhang stehende Entscheidungen nur mit den in diesem Gesetz oder in der Bundeswahlordnung vorgesehenen Rechtsbehelfen und im Wahlprüfungsverfahren angefochten werden. Der Rechtsweg über die Verwaltungsgerichtsbarkeit ist damit ausgeschlossen.
Die Wahlprüfung erfolgt nur auf Einspruch, der innerhalb von zwei Monaten nach der Wahl beim Bundestag einzulegen ist. Hierüber entscheidet der Bundestag nach der Prüfung des Einspruchs im Wahlprüfungsausschuss. Nach ständiger Rechtsprechung des Bundesverfassungsgerichtes muss der Bundestag einen Einspruch ablehnen, wenn sich die Mandatsverteilung auch bei Annahme des Einspruches nicht ändern würde. Der Bundestag prüft nur die Einhaltung wahlrechtlicher Bestimmungen. Er prüft diese Vorschriften nicht auf Verfassungskonformität.
Lehnt der Bundestag den Einspruch ab, so kann binnen zwei Monate beim Bundesverfassungsgericht eine Wahlprüfungsbeschwerde erhoben werden. Ebenfalls beim Bundesverfassungsgericht klagen können Abgeordnete, die nach der Entscheidung des Bundestages ihr Mandat verlieren.
Wird die Wahl ganz oder teilweise für ungültig erklärt, wird sie – soweit ungültig – spätestens 60 Tage nach Rechtskraft der Entscheidung wiederholt und das Wahlergebnis anschließend neu festgestellt. Es gelten dieselben Vorschriften wie bei der Hauptwahl. Auch die Wahlvorschläge bleiben dieselben, wenn sich nicht aus der Wahlprüfungsentscheidung Abweichungen ergeben.
Bislang hat die Wahlprüfung nie zu einer Änderung der Sitzverteilung geführt. Jedoch hat das Bundesverfassungsgericht im Rahmen einer Wahlprüfungsbeschwerde 2008 das Bundeswahlgesetz in Teilen für verfassungswidrig erklärt.
Bestrebungen zur Einführung eines Graben- oder Mehrheitswahlrechts.
Es gab Versuche, das personalisierte Verhältniswahlrecht durch ein Grabenwahlsystem zu ersetzen, bei dem eine bestimmte Anzahl von Abgeordneten nach dem einen System und die restlichen unabhängig hiervon nach einem anderen System gewählt werden. Ende 1955 legte die CDU/CSU zusammen mit der Deutschen Partei den Entwurf eines Grabenwahlsystems vor. Danach hätten 60 % der Mandate durch das Mehrheitswahlrecht und nur noch 40 % durch Verhältniswahlrecht bestimmt werden sollen. Dieser Versuch scheiterte wie schon ein ähnlicher im Jahr 1953.
Zu Beginn der ersten Großen Koalition (1966–1969) gab es Bestrebungen innerhalb der Union und der SPD, vom Verhältniswahlrecht abzugehen und ein Mehrheitswahlrecht einzuführen; diese Absicht wurde im Koalitionsvertrag festgeschrieben. Die oppositionelle FDP, deren Existenz mit Einführung dieses Wahlrechts bedroht gewesen wäre, protestierte daher. Schließlich scheiterte das Mehrheitswahlrecht am Widerstand der SPD, die bei seiner Einführung eine strukturelle Benachteiligung befürchtete. Daraufhin trat Innenminister Paul Lücke (CDU) 1968 von seinem Amt zurück. Seither gab es keine Versuche mehr, ein Mehrheitswahlrecht in Deutschland einzuführen.
Geschichte des Bundestagswahlrechts.
Die wichtigsten bis heute fortgeltenden Wahlrechtsgrundsätze in Deutschland stammen bereits aus der Weimarer Republik (1918/1919–1933). Eine Verordnung des Rates der Volksbeauftragten vom November 1918 führte sowohl das Frauenwahlrecht als auch die Verhältniswahl ein.
Für die Bundestagswahlen 1949 und 1953 galt jeweils ein spezielles Bundeswahlgesetz, während mit dem Bundeswahlgesetz von 1956 eine dauerhafte Regelung eingeführt wurde.
Bundeswahlgesetz 1949.
Das Bundeswahlgesetz zur ersten Bundestagswahl 1949 wurde von den Ministerpräsidenten der Länder erlassen. Die gesetzliche Größe des Bundestages lag bei 400 Abgeordneten zuzüglich eventueller Überhangmandate. Das Bundesgebiet war in 242 Wahlkreise eingeteilt, in denen wie nach heutigem Recht je ein Direktkandidat nach dem Prinzip der relativen Mehrheitswahl gewählt wurde. Wegen zwei Überhangmandaten bestand der Bundestag aus 402 Abgeordneten.
Jedes Bundesland bildete ein eigenständiges Wahlgebiet; die Zahl der Vertreter eines Bundeslandes war also (abgesehen von Überhangmandaten) im Vorhinein festgelegt. Auch die Fünf-Prozent-Hürde und die Grundmandatsklausel (bereits ein Direktmandat genügte zum Einzug in den Bundestag) galt jeweils nur landesweit. Die Mandate wurden in jedem Land nach dem D’Hondt-Verfahren proportional verteilt. Für Überhangmandate gab es keine Ausgleichsmandate.
Die Wähler hatten eine Stimme. Mit dieser Stimme wählten sie gleichzeitig den Wahlkreisbewerber und (sofern vorhanden) die Landesliste der Partei. Wähler eines parteilosen Direktkandidaten hatten anders als beim heutigen Zweistimmensystem nicht die Möglichkeit, eine Partei zu wählen.
Im Falle des Ausscheidens eines im Wahlkreis gewählten Bewerbers aus dem Bundestag musste im Wahlkreis neu gewählt werden. Es fanden 14 Nachwahlen statt. Für gewählte Direktkandidaten, die ab dem 1. Oktober 1952 ausschieden, rückte ein Bewerber der Landesliste der Partei nach; diese Regelung gilt bis heute.
Die Zahl der Parteien war beschränkt, da bis zum 17. März 1950 Parteien eine Lizenz der jeweiligen Besatzungsmacht benötigten.
Bundeswahlgesetz 1953.
Zur Bundestagswahl 1953 wurde erstmals nach einem vom Bundestag selbst erlassenen Gesetz (Bundeswahlgesetz) gewählt. Dieses Gesetz enthielt einige bedeutende Neuerungen im Vergleich zum alten Wahlgesetz:
Das Zweistimmensystem mit der Möglichkeit des Stimmensplittings wurde eingeführt. Die Sperrklausel galt nicht mehr getrennt für jedes Land, sondern bundesweit. Das hatte für kleine Parteien große Auswirkungen. Schon bei der Wahl von 1953 beispielsweise gelang der Bayernpartei der Einzug in den Bundestag nicht mehr, da sie bundesweit nur auf 1,7 % der Zweitstimmen kam, in Bayern hingegen auf 9,2 %. Mit diesem Ergebnis wären ihr gemäß der alten Regelung neun Mandate zugeteilt worden. Bei der Wahl 1957 erreichte der BHE mit 4,6 Prozent der Zweitstimmen die Fünf-Prozent-Hürde bundesweit nicht. Da er aber in Schleswig-Holstein, Niedersachsen, Bayern und Hessen mehr als fünf Prozent hatte, hätte er nach der 1949 geltenden Regelung in diesen Ländern Sitze erhalten. Umgekehrt erhielt die FDP 1957 bundesweit 7,7 Prozent der Zweitstimmen, in Bayern jedoch nur 4,6 Prozent. Gemäß der alten Regelung hätte sie keine Sitze in Bayern erhalten.
Für Parteien nationaler Minderheiten galt die Sperrklausel nicht mehr; trotzdem gelang es dem SSW nicht, sein 1949 gewonnenes Bundestagsmandat zu halten, da er nicht mehr die für einen Sitz nötige Stimmenzahl erreichte.
Die reguläre Sitzzahl erhöhte sich von 400 auf 484 – unter Beibehaltung der Anzahl der Wahlkreise von 242, so dass der Anteil der Direktmandate unter Außerachtlassung von Vergrößerungen infolge von Überhangmandaten von 60 auf 50 % sank. Die Anzahl der Berliner Abgeordneten erhöhte sich von 19 auf 22.
Bundeswahlgesetz 1956.
Wesentliche Änderungen gegenüber 1953 waren die Einführung der Briefwahl, die Erhöhung der Grundmandatsklausel auf drei Direktmandate (statt ein Direktmandat) und die Einführung einer Oberverteilung der Sitze auf Bundesebene. Diese auf Bundesebene errungenen Sitze wurden auf die Landeslisten der Parteien verteilt, was in Kombination mit den bereits zuvor möglichen Überhangmandaten zu einem negativen Stimmgewicht führen konnte. Die Zahl der Sitze (ohne Berücksichtigung der Berliner Abgeordneten) blieb zunächst bei 484 und wurde bei Eingliederung des Saarlandes am 1. Januar 1957 um zehn auf 494 erhöht.
Änderungen seit 1957.
Seit dem Inkrafttreten ist das Bundeswahlgesetz vielfach geändert worden, wobei die meisten Änderungen von untergeordneter Bedeutung waren, wie Änderung von Fristen oder durch Änderung anderer Gesetze erforderliche Anpassungen. Wesentliche Änderungen gab es außer der Neuregelung der Sitzverteilung wegen der Urteile des Bundesverfassungsgerichts von 2008 und 2012 nicht. Im Folgenden werden die wichtigsten Änderungen dargestellt:
Wahlalter.
Ursprünglich legte das Grundgesetz die Altersgrenze für das aktive Wahlrecht auf 21 Jahre und für das passive Wahlrecht auf 25 Jahre fest. Durch eine Änderung von Abs. 2 GG wurde 1970 die Altersgrenze für das aktive Wahlrecht auf 18 Jahre herabgesetzt und die für das passive Wahlrecht auf das Alter, mit dem die Volljährigkeit eintritt. Damals erlangte man die Volljährigkeit mit 21 Jahren. Mit Inkrafttreten der Änderung des BGB zum 1. Januar 1975 wurde das Volljährigkeitsalter von 21 auf 18 Jahre gesenkt, so dass aktives und passives Wahlrecht seit der Bundestagswahl 1976 altersmäßig zusammenfallen.
Wahlrechtsausschluss.
Wiederholt eingeschränkt wurden die Gründe für den Ausschluss vom aktiven Wahlrecht. Nach der ursprünglichen Regelung von 1956 war vom Wahlrecht ausgeschlossen, wer entmündigt war, infolge Richterspruchs das Wahlrecht nicht besaß, unter vorläufiger Vormundschaft stand oder wegen geistigen Gebrechens unter Pflegschaft stand. Ferner ruhte das Wahlrecht für Personen, die wegen Geisteskrankheit oder Geistesschwäche in einer Heil- oder Pflegeanstalt untergebracht waren, und bei Personen im Vollzug einer gerichtlich angeordneten, mit Freiheitsentzug verbundenen Maßregel der Besserung und Sicherung. 1975 erfolgte die erste Neuregelung. Die Unterscheidung zwischen Ausschluss und Ruhen des Wahlrechts wurde aufgegeben. Der Wahlrechtsausschluss bei vorläufiger Vormundschaft entfiel, von den Maßregeln der Besserung und Sicherung führte nur noch die Unterbringung in einem psychiatrischen Krankenhaus wegen einer Straftat bei verminderter Schuldfähigkeit oder Schuldunfähigkeit zum Wahlrechtsausschluss; seit 1985 waren nur noch Taten im schuldunfähigen Zustand vom Ausschlusstatbestand erfasst.
Mit Inkrafttreten des Betreuungsgesetzes am 1. Januar 1992 trat die Betreuung in allen Angelegenheiten an die Stelle der Ausschlussgründe Entmündigung und Pflegschaft. Damit gab es von 1992 bis 2019 folgende Ausschlussgründe:
Durch Urteil des Bundesverfassungsgerichts vom 29. Januar 2019 wurden die beiden letztgenannten Ausschlussgründe für verfassungswidrig und nichtig erklärt und mit einer am 1. Juli 2019 in Kraft getretenen Änderung aus dem Bundeswahlgesetz gestrichen, so dass der Verlust des Wahlrechts infolge Richterspruchs der einzig verbliebene Ausschlussgrund ist.
Auslandsdeutsche.
Mehrfach geändert wurden die Bestimmungen über das aktive Wahlrecht für nicht in der Bundesrepublik Deutschland lebende Deutsche, während sie das passive Wahlrecht seit 1956 stets besaßen. Ursprünglich hatte ein Deutscher im Ausland nur das aktive Wahlrecht, wenn er sich als öffentlicher Bediensteter im Auftrag des Dienstherren im Ausland aufhielt oder Angehöriger seines Hausstandes war. 1985 erhielten zusätzlich diejenigen im Ausland lebenden Deutschen das Wahlrecht, die seit dem 23. Mai 1949 (Inkrafttreten des Grundgesetzes) mindestens drei Monate ununterbrochen in der Bundesrepublik Deutschland ihren Wohnsitz oder gewöhnlichen Aufenthalt hatten und entweder in einem Mitgliedsstaat des Europarates lebten oder seit ihrem Wegzug aus der Bundesrepublik Deutschland weniger als 10 Jahre vergangen waren. 1998 wurde die Frist von 10 auf 25 Jahre verlängert. 2008 entfiel diese 25-Jahre-Frist (Änderung des BWahlG). Diese Regelung wurde 2012 vom Bundesverfassungsgericht für nichtig erklärt, sodass Auslandsdeutsche vorerst kein aktives Wahlrecht mehr hatten.
Eine Neuregelung (Änderung des BWahlG) trat am 3. Mai 2013 in Kraft. Sie orientiert sich am Urteil des Bundesverfassungsgerichts. Danach sind im Ausland lebende Deutsche aktiv wahlberechtigt, die seit Vollendung ihres 14. Lebensjahres mindestens drei Monate ihren Wohnsitz oder gewöhnlichen Aufenthalt in Deutschland hatten und dieser Aufenthalt weniger als 25 Jahre zurückliegt oder die „aus anderen Gründen persönlich und unmittelbar Vertrautheit mit den politischen Verhältnissen in der Bundesrepublik Deutschland erworben haben und von ihnen betroffen sind“.
Größe des Bundestages.
Die reguläre Zahl der Abgeordneten wurde 1956 auf 506 festgelegt. Sie wurde mit dem Beitritt des Saarlandes am 1. Januar 1957 auf 516 erhöht, 1964 noch einmal um zwei Sitze auf 518. Wegen Vorbehalten der westlichen Besatzungsmächte in Berlin (West) konnte das Bundeswahlgesetz in Berlin nicht angewendet werden. Daher wurden 22 Berliner Abgeordnete vom Berliner Abgeordnetenhaus gewählt, sie hatten bis zum 7. Juni 1990 nur bei Geschäftsordnungs- und Entschließungsanträgen Stimmrecht. Die reguläre Zahl der tatsächlich vom Volk zu wählenden Abgeordneten lag entsprechend um 22 niedriger, bei den Bundestagswahlen 1957 und 1961 bei 494, bei den Wahlen von 1965 bis 1987 bei 496.
Nach der Wiedervereinigung 1990 betrug die reguläre Zahl der Abgeordneten 656. 1996 wurde der Bundestag auf 598 Sitze verkleinert, diese Änderung trat jedoch erst Ende 1998 in Kraft, so dass die Verkleinerung erst mit der Bundestagswahl 2002 eintrat. Mit der Wahlrechtsreform 2023 wird die Regelgröße auf 630 Sitze angehoben, Überhang- und Ausgleichsmandate gibt es jedoch bei künftigen Wahlen nicht mehr.
Von 1953 bis 2023 war die Zahl der Direktmandate durchgehend auf die Hälfte der Regelgröße des Bundestags festgelegt; durch regelmäßig auftretende Überhang- und (ab 2013) Ausgleichsmandate waren aber seit 1980 durchgehend weniger als 50 % der Mandate Direktmandate. Mit Erhöhung der Regelgröße auf 630 Mitglieder bei weiterhin 299 Wahlkreisen und Abschaffung von Überhang wird der Anteil auf etwa 47,5 % fixiert.
Sitzverteilung.
Die Bestimmungen zur Sitzverteilung wurden zwischen 1956 und 2011 so gut wie nicht geändert. Ausnahme war die Ersetzung des Sitzzuteilungsverfahrens nach D’Hondt durch das Hare/Niemeyer-Verfahren im Jahr 1985. Dieses wurde wiederum 2008 durch das Sainte-Laguë-Verfahren abgelöst.
Zu den bedeutenden Änderungen bei der Sitzverteilung ab 2011 siehe die Kapitel Reform der Sitzverteilung 2011, Sitzverteilung 2013 bis 2020, Sitzverteilung 2020 bis 2023 und Sitzverteilung ab 2023.
Sperrklausel.
Nur für die Bundestagswahl 1990 galt eine abweichende Sperrklausel wegen eines Urteils des Bundesverfassungsgerichts vom 28. September 1990, nach dem die Situation des gerade wiedervereinten Deutschlands einen besonderen Umstand darstelle, der eine Sperrklausel für das gesamte Wahlgebiet verfassungswidrig mache. Um in den Bundestag einzuziehen, genügte es, 5 % der Zweitstimmen entweder im alten Bundesgebiet einschließlich West-Berlin oder im Beitrittsgebiet zu erreichen.
2023 wurde die Grundmandatsklausel von drei Direktmandaten abgeschafft, so dass Parteien zwingend 5 % der Zweitstimmen bundesweit benötigen, abgesehen von Parteien nationaler Minderheiten.
Wahlvorschlagsrecht.
Seit 1964 können Parteien, die für ihre Wahlvorschläge Unterstützungsunterschriften benötigen, nur an der Wahl teilnehmen, wenn sie dem Bundeswahlleiter ihre Beteiligung angezeigt haben und der Bundeswahlausschuss ihre Parteieigenschaft festgestellt hat. Gegen diese Feststellung gab es bis einschließlich der Bundestagswahl 2009 keinen Rechtsbehelf außer im Wahlprüfungsverfahren nach der Wahl. Nach einer 2012 in Kraft getretenen Änderung des Grundgesetzes und des Bundeswahlgesetzes können Parteien, denen das Wahlvorschlagsrecht vom Bundeswahlausschuss nicht zuerkannt wurde, hiergegen schon vor der Wahl beim Bundesverfassungsgericht klagen.
Bewerber anderer Parteien.
Parteien dürfen seit einer am 21. März 2008 in Kraft getretenen Änderung des Bundeswahlgesetzes keine Bewerber mehr aufstellen, die einer anderen Partei angehören; dies hat zur Folge, dass Personen, die in mehreren Parteien Mitglied sind, nicht mehr für eine Partei kandidieren können. Anlass für diese Änderung war die Kandidatur vieler WASG-Mitglieder auf den Listen der Linkspartei.PDS bei der Bundestagswahl 2005.
Briefwahl.
Bis 2008 musste beim für die Nutzung der Briefwahl erforderlichen Wahlscheinantrag einer der in der Bundeswahlordnung aufgeführten Hinderungsgründe glaubhaft gemacht werden, das Wahllokal aufzusuchen, wie beispielsweise berufsbedingte Abwesenheit oder körperliche Gebrechen. Diese Bedingung wurde mit der Begründung abgeschafft, dass eine Prüfung des angegebenen Grundes bei der Vielzahl der Anträge nicht möglich sei.
Sonderregeln zur Bewerberaufstellung.
Durch Gesetz vom 28. Oktober 2020 wurde für den Fall einer „Naturkatastrophe oder eines ähnlichen Ereignisses höherer Gewalt“ befristet bis zum 31. Dezember 2021 die Möglichkeit eingeführt, mit Zustimmung des Bundestages eine Rechtsverordnung zu erlassen, die Abweichungen von der sonst einzig zulässigen Aufstellung von Parteibewerbern in einer Mitglieder- oder Vertreterversammlung zuließ, wenn der Bundestag feststellte, dass die Durchführung von Aufstellungsversammlungen ganz oder teilweise unmöglich sei.
Die Verordnung konnte abweichend von Bundeswahlgesetz, Bundeswahlordnung und Parteisatzung die Verringerung der satzungsmäßigen Zahl der Versammlungsteilnehmer ermöglichen, die Ausübung von Mitgliedsrechten mit Ausnahme der Schlussabstimmung über die Kandidaten in elektronischer Form zulassen und die Wahl der Bewerber durch reine Briefwahl oder Kombination aus Urnen- und Briefwahl erlauben. Außerdem konnten elektronisch zusammengeschaltete Versammlungen an verschiedenen Orten oder Versammlungen ausschließlich in Form elektronischer Kommunikation zugelassen werden.
Für die Bundestagswahl 2021 wurde eine Verordnung ("COVID-19-Wahlbewerberaufstellungsverordnung") erlassen, die diese Möglichkeiten ausschöpfte. |
758 | 175921 | https://de.wikipedia.org/wiki?curid=758 | Backen | Backen (von mittelhochdeutsch "backen" und althochdeutsch "backan" bzw. "bahhan" aus dem urgermanischen "*bakk-a-" bzw. "*bak-a-") ist ein Garverfahren. Man unterscheidet das "Backen im Ofen" (frz. " cuire au four") vom "Backen im Fettbad" (auch Frittieren).
Verfahren.
Allgemein bezeichnet man damit das Garen von Backwaren im Backofen bei 180 bis 250 °C in trockener Heißluft oder mit Schwaden mit dem Ziel einer gebräunten Kruste. Es wird für die Zubereitung von Gebäck aus Massen, Teigen und andere stärkehaltige Zubereitungen verwendet. Typische gebackene Speisen sind Brot, Kuchen, Torten, Kleingebäck, verschiedene Süßspeisen, Auflauf und Pasteten. Die Berufe in der Bäckerei dazu nennt man Bäcker und Konditor, ebenso gehört es zur Speisenherstellung in der Gastronomie.
Beim Backen werden durch die Hitze im Teig enthaltene Gase (CO2 aus Hefegärung oder Backtriebmitteln, eingearbeitete Luft, Aufschäumgase oder Flüssigkeitsdämpfe) ausgedehnt, die den Teig zunächst auflockern (siehe Triebmittel). Beim weiteren Backvorgang wird der Teig verfestigt. Beim Brotbacken entstehen so die Krume sowie die Kruste als Oberfläche. Das Backen von Fleisch, Fisch und Gemüse in einem Teigmantel hat den Vorteil, dass das Gargut im Teigmantel saftig bleibt, da es hermetisch eingepackt ist. Aromastoffe können schlecht entweichen und eine Kohlenhydratbeilage ist bereits gegeben. |
759 | 4149808 | https://de.wikipedia.org/wiki?curid=759 | Bundestagswahl 2002 | Die Bundestagswahl 2002 fand am 22. September 2002 statt. Bei der Wahl zum 15. Deutschen Bundestag waren etwa 61,4 Millionen Deutsche wahlberechtigt. Ungewöhnlich am Wahlausgang war die nur geringe Differenz von etwa 6.000 Zweitstimmen (0,01 %) zwischen SPD und CDU/CSU. Als Ergebnis der Wahl kam es zur Fortsetzung der seit 1998 regierenden rot-grünen Koalition: Gerhard Schröder blieb Bundeskanzler und bildete das Kabinett Schröder II.
Hintergrund.
24 Parteien nahmen mit Landeslisten an der Bundestagswahl teil:
Die SPD, Bündnis 90/Die Grünen, FDP, PDS und NPD waren in allen 16 Bundesländern mit Landeslisten vertreten, die CDU in allen Ländern außer Bayern, die CSU nur in Bayern.
Die Schill-Partei stellte sich in allen Ländern außer Sachsen-Anhalt zur Wahl.
Die Anzahl der Kandidaten, der Sitze im Bundestag sowie der Wahlkreise war im Vergleich zur Bundestagswahl 1998 geringer. 3542 Kandidaten (1998: 5062), von denen etwa 29 % Frauen waren, bewarben sich um ein Mandat für den auf 598 Abgeordnete (1998: 656) verkleinerten Bundestag. Die Zahl der Wahlkreise wurde um 29 auf 299 verringert.
Spitzenkandidaten.
Für die SPD trat Bundeskanzler Gerhard Schröder erneut als Kanzlerkandidat an.
Die Unionsparteien nominierten den CSU-Vorsitzenden und bayerischen Ministerpräsidenten Edmund Stoiber als Kanzlerkandidaten. Er war nach Franz Josef Strauß 1980 der zweite und bis heute letzte Kanzlerkandidat der CSU. Nach der Wahlniederlage von Helmut Kohl 1998 galt eigentlich Wolfgang Schäuble, ab 1998 CDU-Parteivorsitzender und Unions-Fraktionsvorsitzender, als designierter Kanzlerkandidat. Infolge der CDU-Spendenaffäre trat er 2000 jedoch von seinen beiden Spitzenämtern zurück. Die neue CDU-Parteichefin Angela Merkel gab im Januar 2002 jedoch Ambitionen auf eine Kanzlerkandidatur zugunsten Stoibers auf ("Wolfratshauser Frühstück").
Spitzenkandidat der Grünen war Joschka Fischer. Er war seit 1998 Vizekanzler und Außenminister im Kabinett Schröder I.
Die FDP nominierte zur Wahl 2002 – zum ersten Mal in ihrer Geschichte – ihren Spitzenkandidaten, Parteichef Guido Westerwelle, als Kanzlerkandidaten. Dies war Teil des „Projekt 18“, der Wahlkampfstrategie der FDP 2002. Sie wollte mit neuen Wählerschichten ihren Stimmanteil auf 18 Prozent steigern und als liberale Partei eine Äquidistanz zu Union und SPD schaffen, weswegen sie auch einmalig keine Koalitionsaussage machte. Der erhoffte Stimmenanteil konnte nicht erreicht werden. Dieses Auftreten war – auch innerparteilich – starker Kritik ausgesetzt.
Wahlkampf.
Wichtige Themen des Wahlkampfes waren die Positionierung zum sich abzeichnenden Irakkrieg, die Arbeit der Hartz-Kommission, Reformen im Bildungswesen vor dem Hintergrund der Ergebnisse der PISA-Studie 2000 sowie die Ökosteuer.
Die Parteien mussten mit diversen Affären kämpfen: die CDU mit der sich seit 1999 hinziehenden CDU-Spendenaffäre, die SPD mit der Kölner Spendenaffäre um Müllverbrennungsanlagen, die FDP mit der Flugblatt-Affäre um Jürgen Möllemann und insbesondere Grüne und PDS mit der Bonusmeilen-Affäre.
Weiteren Einfluss hatte die Bewertung des Krisenmanagements beim Elbhochwasser 2002: Als einer der Gründe für den knappen Wahlsieg der rot-grünen Regierung unter Kanzler Schröder gilt dessen gutes und medienwirksames Krisenmanagement; ihre Teilnahmslosigkeit kostete Unions-Kanzlerkandidat Edmund Stoiber und FDP-Spitzenkandidat Guido Westerwelle dagegen viel Sympathie.
Es gab zum ersten Mal zwei Fernsehduelle der Kanzlerkandidaten Schröder und Stoiber. Das Bundesverfassungsgericht wies eine Verfassungsbeschwerde der FDP auf eine Teilnahmeberechtigung ihres Kandidaten Westerwelle wegen nicht hinreichender Aussicht Westerwelles auf Wahl zum Kanzler ab.
In den Meinungsumfragen lag bis zum Sommer die Union noch weit vor der SPD und ein Regierungswechsel schien durchaus möglich. Erst in den letzten Wochen konnte die SPD (und die Grünen) aufholen und somit das Blatt doch noch wenden. Die FDP verlor im Jahresverlauf kontinuierlich an Zustimmung.
Wahlergebnis.
Amtliches Endergebnis.
Die Wahlbeteiligung betrug 79,1 %.
Wahlverlauf.
Nach Schließung der Wahllokale um 18:00 Uhr sah in der ersten Prognose die ARD Rot-Grün hinter Schwarz-Gelb, das ZDF beide gleich auf und RTL wiederum sah eine Mehrheit für Rot-Grün.
Am frühen Abend ging Edmund Stoiber davon aus, dass die beabsichtigte bürgerliche Koalition von CDU/CSU und FDP die Wahl gewonnen habe. In den Hochrechnungen der ARD war zu diesem Zeitpunkt tatsächlich Schwarz-Gelb vorne. Dies änderte sich im Verlauf des Abends jedoch mehr und mehr zugunsten eines knappen Wahlsieges für Rot-Grün.
Das "vorläufige" amtliche Wahlergebnis und die daraus folgende Sitzverteilung wurde noch in der Wahlnacht in Berlin im Reichstagsgebäude bekannt gegeben. Die SPD lag mit 6027 Zweitstimmen vor den Unionsparteien. Für die Regierungsbildung war der knappe Unterschied zwischen SPD und CDU/CSU allerdings nicht ausschlaggebend, da die Grünen deutlich vor der FDP landeten, so dass SPD und Grüne zusammen elf Sitze mehr als Union und FDP und aufgrund des Scheiterns der PDS an der Sperrklausel auch eine Mehrheit im Bundestag erreichten. Auf SPD und Grüne entfielen zusammen etwa 577.000 Zweitstimmen mehr als auf CDU/CSU und FDP zusammen.
Das "endgültige" amtliche Wahlergebnis wurde vom Bundeswahlausschuss am 9. Oktober festgestellt.
Wahlprüfungsbeschwerden.
Aufgrund einiger Wahlprüfungsbeschwerden beim Bundesverfassungsgericht gegen den Beschluss des Deutschen Bundestages über Wahleinsprüche gegen die Gültigkeit der Bundestagswahl 2002 fand Mitte Januar 2005 eine Neuauszählung in den beiden von den PDS-Kandidatinnen (Petra Pau und Gesine Lötzsch) gewonnenen Berliner Wahlkreisen statt. Sie sollte eine Mandatserheblichkeit der Zweitstimmen derjenigen Wähler überprüfen, die mit ihrer Erststimme die PDS-Kandidatinnen und mit ihrer Zweitstimme eine andere Landesliste gewählt haben. Damit erzielten sie einen doppelten Erfolgswert ihrer Stimmen. Eine Mandatserheblichkeit wurde jedoch nicht festgestellt.
Wenn das Bundesverfassungsgericht diese Stimmen vom Ergebnis der für die Sitzverteilung zu berücksichtigenden Stimmen der einzelnen Parteien abzöge, wäre die wahrscheinlichste mandatserhebliche Folge gewesen, dass die SPD durch Verlust von z. B. 54.000 Stimmen noch einen zusätzlichen Sitz erhalten hätte – eine Folge des von Wahlrechtlern kritisierten negativen Stimmgewichts des Bundestagswahlsystems.
Mögliche Koalitionen und Regierungsbildung.
Vor der Wahl sprachen sich SPD und Grüne für eine Fortsetzung ihrer amtierenden rot-grünen Koalition aus. Am Wahlabend schien diese Mehrheit nicht erreicht und die Union lag vor der SPD, deswegen war der Wahlausgang lange unklar. Im Laufe des Abends stellte sich heraus, dass die amtierende Regierung erneut die Mehrheit erlangt hatte. Bereits in der Wahlnacht trafen sich SPD und Grüne für erste Koalitionsverhandlungen. Am 16. Oktober stand der neue Koalitionsvertrag. Gerhard Schröder wurde am 22. Oktober zum Bundeskanzler gewählt. |
760 | 3331457 | https://de.wikipedia.org/wiki?curid=760 | Bayernpartei | Die Bayernpartei e. V. (Kurzbezeichnung: BP) ist eine Landespartei in Bayern und strebt die Wiedererlangung der Unabhängigkeit des Freistaates an.
Die BP beteiligt sich regelmäßig an Wahlen in Bayern sowie an Bundestags- und Europawahlen. Sie ist Mitglied der Europäischen Freien Allianz (EFA).
In der Politikwissenschaft wird die Bayernpartei als „regionalistisch-separatistische Partei mit wertkonservativem Programm“, „extrem-föderalistisch“ und als „liberale Partei mit konservativen Einschlägen“ beschrieben. Eines ihrer politischen Ziele – neben der Stärkung der Bürgerrechte und der Vereinfachung des Steuerrechtes – ist die Möglichkeit einer Volksabstimmung über den Austritt Bayerns aus dem deutschen Staatsverband.
Im 1. Deutschen Bundestag war die Bayernpartei mit 17 Abgeordneten vertreten. Von 1954 bis 1957 war sie im Rahmen der Viererkoalition und von 1962 bis 1966 durch eine Koalition mit der CSU an der Bayerischen Staatsregierung beteiligt. Mit ihrem Ausscheiden aus dem Bayerischen Landtag nach der Landtagswahl 1966 verlor sie an Einfluss und ist heute nur noch auf kommunaler Ebene und in drei Bezirkstagen vertreten.
Geschichte.
Gründung 1946 und Erfolge der ersten Jahre.
Die Bayernpartei wurde am 28. Oktober 1946 in München durch Ludwig Lallinger und Jakob Fischbacher gegründet. Als ihre Vorläufer können die Bayerische Volkspartei von 1918 und damit letztendlich auch die Bayerische Patriotenpartei von 1868 sowie der Bayerische Bauernbund von 1893 gelten. Die BP wurde erst nach der CSU gegründet, weil die amerikanische Besatzungsmacht ihr die Lizenz später erteilte. Zur Lizenzierung auf Landesebene kam es am 29. März 1948.
In der Folge sammelten sich in der BP bayerische Konservative, Monarchisten und Separatisten, darunter der Gründer des Harnier-Kreises, der ehemalige Widerstandskämpfer Heinrich Weiß. Hinzu kamen enttäuschte CSU-Mitglieder, darunter am prominentesten Joseph Baumgartner, der im Januar 1948 die eigentliche Führungsfigur wurde. Zwischen 1948 und 1950 konnte die Partei von einer inneren Krise der CSU profitieren.
In den Wahlkämpfen arbeitete die Bayernpartei mit kurzen, scharfen Slogans. Die mittelständische, bäuerliche und liberale Partei sah sich als einzige wirklich bayerische Partei und forderte die Eigenständigkeit des bayerischen Freistaates. Zunächst propagierte die BP die Idee eines völkerrechtlich unabhängigen Staates. Nachdem Bayern 1949 Mitglied der Bundesrepublik geworden war, setzte sie auf einen starken Föderalismus im Bund.
Die ersten Wahlen, an denen die Bayernpartei teilnahm, waren die Kommunalwahlen vom 30. Mai 1948. Sie stellte 153 Stadträte in kreisfreien Städten (CSU: 307) und 309 Kreisräte in Landkreisen (CSU: 2642). Bei den folgenden Kommunalwahlen, am 30. März 1952, konnte sie das Kräfteverhältnis zur CSU teilweise sogar verbessern, blieb aber doch immer deutlich hinter der CSU zurück.
Nach 1948 folgte die Bundestagswahl von 1949, bei der die BP bundesweit auf 4,2 % kam. Da die Fünf-Prozent-Hürde bei dieser Wahl aber nur pro Bundesland galt, ihr Stimmenanteil in Bayern 20,9 % ausmachte und sie außerdem mehrere Direktmandate gewann, zog sie mit 17 Mandaten in den Bundestag ein. Dort arbeitete sie mit anderen regionalen Parteien zusammen, um Fraktionsstatus zu erlangen (Föderalistische Union, 1951–1953). Danach gelangte die Partei nicht mehr in den Bundestag: 1953 hatte sie zwar 9,2 Prozent in Bayern, die Fünf-Prozent-Hürde galt aber bundesweit, 1957 waren es noch 3,2 % für die Föderalistische Union.
In der Landtagswahl 1950 erhielt die Bayernpartei knapp 18 Prozent der Stimmen.
Wahlverluste ab 1950.
Die Bayernpartei hatte ihren Schwerpunkt in Altbayern: in Niederbayern, Oberbayern und der Oberpfalz. Trotz ihres Slogans „Bayern den Bayern“ fand sie kaum Anerkennung als gesamtbayerische Staatspartei. In katholischen Kreisen wandte man sich gegen eine Aufsplitterung katholischer Stimmen auf CSU und BP. Der Klerus bevorzugte die CSU. Der Niedergang der BP begann bereits mit der Festigung der Bundesrepublik, welche den staats- und völkerrechtlichen Status Bayerns entschied. Die Bundes- und Landtagswahlen der 1950er Jahre waren von stetigen Stimmenrückgängen gekennzeichnet. Hinzu kam die angebliche Verwicklung der Bayernpartei in die sogenannte Spielbankenaffäre. Die Spielbankenaffäre wurde vor allem von der CSU vorangetrieben. Diese Affäre nutzte am Ende hauptsächlich der CSU und war ein Grund dafür, dass die CSU zur dominierenden politischen Kraft aufsteigen konnte.
Schon die 17,9 Prozent bei der Landtagswahl 1950 bedeuteten einen Verlust gegenüber der Bundestagswahl im vorangegangenen Jahr. Es folgten bei der Wahl 1954 13,4 und 1958 8,1 Prozent. Die Wahl 1962 war die letzte, bei der sie – mit 4,8 Prozent – noch Mandate erhielt. In Bayern war die Partei damit bis 1958 drittstärkste Kraft.
Die CSU entschied sich 1950 für eine Koalition mit der SPD, was die BP verbitterte. Als 1953 die CSU bei der Bundestagswahl starke Gewinne erzielte, die BP dagegen sämtliche Direktmandate verloren hatte und nicht mehr in den Bundestag gewählt worden war, traten viele konservative BP-Mitglieder zur CSU über. Die Folge war eine Stärkung der eher liberalen und zwar katholischen, aber antiklerikalen Kräfte in der BP, was die Partei wiederum für die SPD interessanter machte. Tatsächlich bildete sie mit der SPD, der Vertriebenenpartei BHE und der FDP von 1954 bis 1957 die Landesregierung. Baumgartner wurde stellvertretender Ministerpräsident. Dieses ideologisch und wirtschaftspolitisch sehr bunte Bündnis war nur möglich, weil damals die Kulturpolitik im Vordergrund stand und alle vier Parteien der CSU und der ihr nahestehenden katholischen Kirche gegenüberstanden. Hinzu kam, dass die BP-Politiker in die Regierung strebten und sich damit für die Abweisung durch die CSU 1950 revanchieren wollten. Das Bündnis zerbrach 1957, und die BP geriet ins Visier der Ermittlungen über die sogenannte "Spielbankenaffäre".
Spielbankenaffäre.
Nach 1958 teilte die strategische Haltung zur CSU die Anhängerschaft. Sollte sich die BP weiterhin von der CSU abgrenzen oder ihr ein Koalitionsangebot machen, eventuell sogar zur Wahl der CSU auf Bundesebene aufrufen?
1959 gelang der CSU ein entscheidender Schlag gegen die Konkurrenz der Bayernpartei. Ein Teil der Parteispitze der BP wurde am 8. August in der so genannten „Spielbankenaffäre“ wegen eidlicher Falschaussage zu erheblichen Zuchthausstrafen verurteilt, was die CSU medienwirksam für sich zu nutzen wusste. Aber selbst der ehemalige CSU-Ministerpräsident und Justizminister Hans Ehard nannte diesen Richterspruch später „ein barbarisches Urteil“: „Man hat die beiden Politiker im Untersuchungsausschuss in Nebensächlichkeiten drauflosschwören lassen. Es ist doch vergleichsweise ganz wurscht, ob einer gelbe Stiefel angehabt hat oder rote.“ Die CSU hatte vorher Belastungsmaterial gegen die BP gesammelt und war in die undurchsichtige Aufdeckung des Falls verwickelt.
Ein Zeuge berichtete unter Eid über ein Gespräch zwischen dem Spielbanken-Anwärter Karl Freisehner und dem damaligen CSU-Generalsekretär Friedrich Zimmermann, das er 1958 in einem Salzburger Hotel belauscht hatte: Zimmermann habe Freisehner damals Roulette-Konzessionen zugesagt, wenn dieser mit einer Selbstanzeige die Bayernpartei-Führer belaste. Zimmermann wurde kurze Zeit später ebenfalls wegen Meineids in erster Instanz zu einer (vergleichsweise geringen) Freiheitsstrafe von 4 Monaten verurteilt. Dieses Urteil wurde jedoch in zweiter Instanz aufgehoben, da Zimmermann in der entscheidenden Phase seiner Aussage gegen die Bayernpartei laut einem nachträglich beigebrachten Gutachter wegen Unterzuckerung einen Blackout gehabt hatte. In seiner Gesamtwürdigung der Verhandlung hielt das Gericht allerdings fest: „Es kann keine Rede davon sein, dass die Unschuld des Angeklagten erwiesen wäre…“. Zum Gutachter bemerkte Zimmermann laut dem "Spiegel" selbst: „Der ist von meiner Verteidigung benannt worden, den hab’ ich zum ersten mal im Gerichtssaal gesehen.“
Die Aufklärung der Affäre im Laufe der Jahre (insbesondere durch den "Spiegel") kam zu spät, um den Niedergang der Partei in den folgenden Jahren aufzuhalten. Nachdem die BP bei der Landtagswahl 1962 nur noch in Niederbayern knapp die damals gültige Hürde von 10 Prozent in einem Regierungsbezirk genommen hatte und mit acht Abgeordneten in den Landtag eingezogen war, schloss sie ein Regierungsbündnis mit der im Landtag mit einer knappen absoluten Mandatsmehrheit ausgestatteten CSU. In der Regierung war sie lediglich mit dem Staatssekretär im Innenministerium Robert Wehgartner vertreten. Wehgartner trat im Jahre 1966 zur CSU über. Auch durch andere Übertritte von Landtagsabgeordneten wurde die BP marginalisiert und zog 1966 nicht mehr in den Landtag ein (7,3 % in Niederbayern, 3,4 % im Land).
Der Weg zur Kleinpartei (1966–1978).
Mit dem Ausscheiden aus dem Bayerischen Landtag folgte der Verlust überregionaler politischer Bedeutung, wozu auch Abspaltungen von der BP beitrugen. 1967 verließ der Parteivorsitzende Kalkbrenner mit seinen Anhängern die Bayernpartei, nachdem er vergeblich versucht hatte, in der Partei einen Reformprozess einzuleiten. Er gründete die "Bayerische Staatspartei (BSP)".
Erstmals nach 1957 beteiligte sich die Bayernpartei im Jahr 1969 mit einer Landesliste an Bundestagswahlen, erzielte jedoch nur 0,9 Prozent der abgegebenen gültigen Stimmen in Bayern. In der Folge versuchte die Bayernpartei neue Wählerkreise zu erschließen. Bei der Landtagswahl 1970 traten verschiedene prominente Politiker anderer Parteien, die sich mit diesen überworfen hatten oder nicht mehr aufgestellt wurden, auf den Listen der Bayernpartei an. Aufgrund des hochgradig personalisierten Landtagswahlrechts in Bayern sollten so Persönlichkeitsstimmen gewonnen werden, die ebenfalls für die Liste zählen und somit für die Sitzverteilung entscheidend sind. Dies zeigte sich unter anderem darin, dass Plakate und Werbematerial in ungewöhnlich hohem Maße auf die Personen abzielten, während die Bayernpartei bei praktisch allen Wahlen davor und danach mit Themen zu punkten versuchte. Umgekehrt hofften diese Kandidaten, dass sie ihre Mandate behalten konnten. Diese Rechnung ging jedoch für beide Seiten nicht auf, die BP verpasste den Einzug in den Landtag mit 1,3 Prozent deutlich. Damit war der Stimmenanteil auf wenig mehr als ein Drittel des Wertes von 1966 gesunken. Einige der Bewerber gingen daher zu ihrer jeweiligen früheren Partei zurück. Allerdings blieb auch die abgesplitterte Konkurrenz von der Bayerischen Staatspartei mit 0,2 % völlig erfolglos.
Mehr ein Erfolg für den „politischen Familienverbund Volkholz“ "(Die Zeit)" als für die Bayernpartei war die Wahl von Paula Volkholz, Ehefrau von Ludwig Volkholz, 1970 zur Landrätin in Kötzting. Das Wahlergebnis sorgte bundesweit für Aufmerksamkeit, da Volkholz damit zur ersten Landrätin in Bayern wurde und als zweite Frau überhaupt in Deutschland auf den Chefsessel eines Kreises avancierte. Kandidiert hatte sie für die überparteiliche Wählergruppe „Gleiches Recht für alle“, die ihr Ehemann eigens für diese Wahl gegründet hatte. Nominiert wurde sie ebenfalls von der Bayernpartei, deren stellvertretender Landesvorsitzender Ludwig Volkholz zu dieser Zeit war. Ihr Amt erlosch aber schon 1972 mit der Gebietsreform, bei der der Landkreis aufgelöst wurde.
Die Kommunalwahlen von 1972 stellten bis dahin den absoluten Tiefpunkt in der Geschichte der Partei dar. Sie verlor alle Mandate in den kreisfreien Städten und konnte in ganz Bayern nur noch zwei Kreisräte stellen.
Die Landtagswahl 1974 verwies die BP mit einem Resultat von 0,8 % der Wählerstimmen nunmehr in den Bereich einer Splitterpartei.
Als der stellvertretende Landesvorsitzende Ludwig Volkholz beim Landesparteitag in Regensburg überraschend nicht zum Landesvorsitzenden gewählt wurde, trat er 1975 mit einer Anzahl weiterer Mitglieder aus der Bayernpartei aus, um anschließend die rechtsgerichtete "Christliche Bayerische Volkspartei (Bayerische Patriotenbewegung) (C.B.V.)" ins Leben zu rufen.
Kurz vor der Auflösung (1978/79).
Durch die Gründung der Bayerischen Staatspartei 1967 hatte die Bayernpartei ca. 30 % der Mitglieder verloren, weshalb bereits zu diesem Zeitpunkt über eine Liquidation der Partei nachgedacht wurde, doch die Hälfte der abgewanderten Mitglieder kehrte 1970 wieder zur Bayernpartei zurück. Nachdem das Ergebnis bei der Landtagswahl 1978 aber einen erneuten Verlust von ca. 15 000 Wählern und einen Stand von nur noch 0,4 % gebracht hatte und seit der Kommunalwahl 1978 zudem keine BP-Vertreter mehr in Kreistagen saßen, stand Anfang 1979 die Bayernpartei wieder kurz vor der Auflösung. Aktive Mitglieder waren kaum noch vorhanden. Die Wochenzeitung "Die Zeit" charakterisierte die Organisationsfähigkeit der Partei als „mickriger als bei einem Schuhplattlerverein“. Zudem drückten noch Schulden aus dem Landtagswahlkampf von 1970 von knapp 143.000 Mark. Der Beschluss zur Auflösung der Partei war für März 1979 vorgesehen. Der vom Parteivorsitzenden Rudolf Drasch gestellte Antrag zur Auflösung der Partei wurde beim Landesparteitag 1979 von der Mehrheit der Delegierten abgelehnt. Drasch stellte sein Amt zur Verfügung, zu seinem Nachfolger wurde Max Zierl gewählt, der übrige Vorstand blieb im Amt.
Bayernpartei ab 1980.
In den 1980er Jahren setzte eine gewisse Konsolidierung auf niedrigem Niveau ein, die sich auch in der Wiedereingliederung der C.B.V. und ihres Vorsitzenden Ludwig Volkholz im Jahr 1988 ausdrückte. Eine Beruhigung der Situation zeigte sich auch in der Kontinuität durch die langen Amtszeiten der Vorsitzenden Max Zierl (1979–1989) und Hubert Dorn (1989–1999). Von 2003 bis 2017 verzeichnete die BP bei allen Wahlen Stimmengewinne.
Streitpunkt Separatismus.
Für die Zeit nach 1979 stellt Uwe Kranenpohl fest, dass die „militante Verfechtung bayerischer Eigenstaatlichkeit“ ein Streitthema innerhalb der Bayernpartei ist. Im 1993 aktualisierten Grundsatzprogramm war erstmals die Forderung nach einem „selbständigen bayerischen Staat in einem europäischen Staatenbund“ festgeschrieben. 1994 trat der ehemalige Vorsitzende und Ehrenvorsitzende der Partei, Rudolf Drasch, aus der Partei aus. Auch wenn Drasch diesen Schritt unter anderem damit begründete, dass unter Dorn der „absolute bayerische Separatismus zur obersten politischen Leitlinie“ geworden sei, so war diese radikale Forderung bereits unter seinem Vorgänger Parteidoktrin. „Bayern muß wieder selbständig werden, weg von denen da in Bonn, die schuld sind an den miesen Preisen für Agrarprodukte, am Rauschgift, schuld an Hurerei und Arbeitslosigkeit“ zitierte "Die Zeit" im Juni 1981 den damaligen Parteivorsitzenden Zierl und notierte, dass sich der „weißblaue Zwerg noch immer auf einen Paukenschlag“ verstehe.
Zur deutschen Wiedervereinigung strebte die Bayernpartei eine Popularklage vor dem Bayerischen Verfassungsgerichtshof an, die jedoch abgelehnt wurde. Die Partei hatte dabei die Meinung vertreten, dass Bayern 1949 das Grundgesetz abgelehnt habe und damit nicht Teil der Bundesrepublik geworden sei.
Teilnahme an Wahlen 1980–2003.
Die Partei tritt regelmäßig zu den Wahlen zum bayerischen Landtag, seit 1987 zum deutschen Bundestag und seit 1984 zum Europäischen Parlament an. 1983 war eine Beteiligung an den vorgezogenen Bundestagswahlen geplant, jedoch konnten die benötigten Unterstützungsunterschriften nicht beigebracht werden.
Bei der Europawahl 1994 brachte es die BP im Freistaat auf einen Stimmenanteil von 1,6 Prozent. Dies war das beste Ergebnis bei Wahlen auf Landesebene seit 1966. Bei der Europawahl 2009 sorgte die Partei mit einem satirischen Werbeplakat, das nur außerhalb Bayerns Verwendung fand, für ein bundesweites Medienecho. Die zentrale Aussage „Wollt Ihr nicht auch die Bayern loswerden? Dann wählt die Bayernpartei“ provozierte die Medien im Freistaat eher zu Spott oder Wertungen wie „Skurrile Wahlwerbung“ und „bizarrstes Europawahlplakat“.
Der Zuspruch bei Wahlen auf Bundesebene war und ist deutlich geringer. Nachdem die Partei bei der Bundestagswahl 2002 mit knapp 10.000 Stimmen (0,1 % der gültigen Stimmen) ihr schlechtestes Ergebnis auf bayerischer Ebene seit ihrer Gründung erhalten hatte, konnte sie bei der vorgezogenen Bundestagswahl 2005 ihren Stimmenanteil in Bayern auf niedrigem Niveau wieder auf 0,5 % steigern und mit über 48.000 Zweitstimmen in der Bundestagswahl 2009 prozentual (0,7 %) wie absolut auf noch immer niedrigem Niveau immerhin das höchste Ergebnis bei Bundestagswahlen seit 1969 erzielen.
Bei den Landtagswahlen konnte sich die Partei noch am ehesten stabilisieren und lag ab den 90er Jahren bis 2003 bei Ergebnissen knapp unter oder über 1 %.
Gleichzeitig mit dem Landtag werden in Bayern die Bezirkstage gewählt. Dort gilt keine Sperrklausel, so dass die Bayernpartei von 1990 bis 2003 im Bezirkstag Oberbayern mit einem Abgeordneten vertreten war.
Auf kommunaler Ebene war die Partei seit 1984 wieder vereinzelt in Kreistagen vertreten und steigerte ihre parlamentarische Repräsentanz, wenn auch auf einem sehr niedrigen Stand, von 5 Kreisräten 1984 auf 15 im Jahre 2002.
Entwicklung seit 2003.
Bei der Kommunalwahl 2008 erreichte die – weiterhin nur vereinzelt antretende – Bayernpartei ein landesweites Ergebnis von 0,4 Prozent. Sie erhielt 15 Mandate in den Kreistagen und stellte erstmals seit 1966 wieder einen Stadtrat in München. In kreisabhängigen Gemeinden gelang es ihr, 13 Mandate über eigene Listen und neun über gemeinsame Wahlvorschläge zu erringen.
Bei der Landtagswahl 2008 wurde mit Erreichen der 1,1 Prozent die Teilnahme an der staatlichen Parteienfinanzierung ermöglicht. 2013 konnte die Bayernpartei ihre Stimmenzahl gegenüber 2008 mehr als verdoppeln und erzielte mit 2,1 % ihr bestes Wahlergebnis seit 1966. In der alten Hochburg Niederbayern kam sie auf 3,2 %.
Die Wahlen zu den Bezirkstagen verliefen für die BP 2013 ebenfalls sehr erfolgreich. Zusätzlich zu Oberbayern, wo sie mit einem Abgeordneten bereits vertreten war, entsandte sie nun Vertreter in drei weitere Bezirkstage. In Oberbayern erreichte sie 4,27 %, gewann 2 Sitze hinzu und erlangte im Bezirkstag mit 3 Sitzen Fraktionsstärke.
Die Bundestagswahl 2013 brachte der Partei, verglichen mit 2009, zwar einen Zugewinn von ca. 9000 Wählerstimmen und (bezogen auf Bayern) 0,2 Prozentpunkten und damit ein Resultat wie zuletzt 1969, jedoch entschieden sich weniger als die Hälfte der Wähler der eine Woche zuvor durchgeführten Landtagswahl auch in diesem Urnengang für die Partei.
Zur Kommunalwahl 2014 kandidierte die BP in zwölf Landkreisen und zwei kreisfreien Städten (München und Landshut) und zog in deren Parlamente ein. Das Stadtratsmandat in München wurde bei Verlusten knapp gehalten, in den anderen Gebieten gewann die BP zum Teil deutlich hinzu. Ihre Mandatszahl in Kreisen und kreisfreien Städten stieg von 16 auf 36 und ihr landesweiter Stimmenanteil auf 0,6 Prozent. Nach 54 Jahren errang die BP erstmals wieder Mandate in Unterfranken. Im März und April 2016 traten in München zwei Stadträte der CSU, einer der Freien Wähler sowie ein für die SPD gewählter, dann einige Zeit parteiloser Abgeordneter zur Bayernpartei über. Im Januar 2019 folgte ein LKR-Abgeordneter, sodass die BP-Stadtratsfraktion mit sechs Mitgliedern nach den Grünen die viertstärkste im Münchner Stadtrat wurde.
Bei der Bundestagswahl 2017 blieb die Anzahl der Zweitstimmen für die BP auf dem Stand der vorherigen Wahl 2013. Aufgrund der höheren Wahlbeteiligung sank der Stimmenanteil jedoch um 0,1 %-Punkte auf 0,8 % (bezogen auf Bayern).
Die Landtagswahl 2018 brachte der Partei Verluste; allerdings hielt sie sich mit 1,7 % der Gesamtstimmen auf einem Niveau, das die weitere staatliche Förderung sicherstellte. Auch bei den Wahlen zu den Bezirkstagen büßte die BP Stimmen ein; sie ist seit 2018 nur noch in drei statt bisher vier Bezirkstagen vertreten.
Bei der Kommunalwahl 2020 konnte die BP zwar in alle Gremien, in denen sie auch vorher vertreten war, wieder einziehen und sogar Sitze in einem weiteren Kreistag (Deggendorf) gewinnen, musste aber fast überall z. T. erhebliche Verluste verzeichnen und stellt nur noch 28 statt 36 Abgeordnete in den Räten der kreisfreien Städte und in den Kreistagen.
Inhaltliches Profil.
In den Anfangsjahren war die Bayernpartei in erster Linie anti-preußisch und bayerisch-partikularistisch orientiert, eine darüber hinausgehende politisch-ideologische Basis existierte nicht bzw. nur in widerstreitenden Parteiflügeln. In späteren Jahren galt die Partei als konservativ bis reaktionär, in jüngerer Zeit wird sie programmatisch eher als liberal mit konservativen Einschlägen, im Hinblick auf die bayerische Staatlichkeit als separatistisch eingeschätzt.
Programmatische Grundsätze.
In ihrem Grundsatzprogramm „Mut zur Freiheit“ – beschlossen 1981, aktualisiert 1994 – positioniert sich die Bayernpartei als Partei mit christlich-konservativem Gedankengut: „Es geht nicht an, grundsätzliche Normen unserer Rechtsordnung zu ‚liberalisieren‘, nur weil ein Teil der Bürger nicht mehr gewillt ist, diese zu akzeptieren.“ Vor allem in den Anfangsjahren prägte die Bayernpartei – im Gegensatz zur CSU – eine deutliche Distanz zu den christlichen Kirchen, während die CSU vor allem die Nähe zur römisch-katholischen Kirche suchte. Allerdings kritisierte die Partei bspw. die Ablehnung des Papstbesuches 2011 durch weite Teile des Bundestags als intolerant. Einige programmatische Aussagen (z. B. Sonntagsfahrverbot, Schutz christlicher Feiertage, Schutz des ungeborenen Lebens im Landtagswahlprogramm 2008) und die Wortwahl der Partei sind ebenfalls durch christliche Wertvorstellungen beeinflusst.
In ihren aktuellen „Weiß-Blauen Grundsätzen“ – beschlossen 2011, aktualisiert 2017 – positioniert sich die Bayernpartei als regionalistische Partei: „In tiefer Sorge und in voller Erkenntnis der immer stärker werdenden Aushöhlung der Eigenstaatlichkeit Bayerns und der föderativen Staats- und Gesellschaftsordnung in Deutschland und Europa sieht es die Bayernpartei als ihre vornehmste Aufgabe an, das bayerische Staatsbewusstsein und demokratische Prinzipien zu pflegen und gegen den aufkeimenden Zentralismus zu verteidigen.“
Angestrebter Staatsaufbau.
Die Bayernpartei fordert für den von ihr angestrebten unabhängigen Staat ein gewähltes Staatsoberhaupt: „Die Erfahrungen zeigen, dass ein Staatspräsident, der über der parteigebundenen Tagespolitik steht, oftmals vermittelnd eingreifen und allein durch sein Ansehen wichtige Impulse geben kann. Die Bayernpartei setzt sich daher für einen demokratisch gewählten Staatspräsidenten im Freistaat ein.“ Eine Rückkehr zur Erbmonarchie schließt die BP aus. Gleichwohl bestehen Kontakte zu Brauchtumsvereinen, die den Wittelsbachern nahestehen.
Der Ministerpräsident soll direkt durch das Volk gewählt werden, was einen Mittelweg zwischen parlamentarischer und präsidentieller Demokratie darstellt.
Des Weiteren möchte die Bayernpartei Bayern von einem in sich unitarischen zu einem föderalen Staat umbauen, in dem die (nach der Abtrennung der Rheinpfalz durch die Alliierten im Jahr 1946) verbliebenen drei Volksstämme der Baiern, Franken und Schwaben ein größeres Eigenleben zuerkannt bekommen sollen.
Regionalisierung.
Das dominierende politische Ziel der Bayernpartei ist die Wiedererlangung der vollen Souveränität des bayerischen Staates, ähnlich den Sezessionsbestrebungen in Schottland, Katalonien und Flandern. Bis dahin gelte es, „jeden Angriff und Übergriff auf die staatlichen Hoheitsrechte Bayerns mit allen Mitteln zu bekämpfen“. Die Forderungen nach Regionalisierung, die in fast allen Politikfeldern auftritt, ist unter dem Gesichtspunkt der allmählichen Abkoppelung von der Bundesrepublik zu sehen. Diese Forderung nach einer Regionalisierung ist in weiten Teilen Europas zurzeit sehr populär. Die Beispiele Schottland, Katalonien und Flandern führen zu einem gewissen Wiedererstarken der Bayernpartei. Auch die verschiedenen Affären der CSU nutzen der Bayernpartei. Zwischen Bundes- und Landespolitik unterscheidet die Bayernpartei nicht.
In vielen ihrer programmatischen Standpunkte plädiert die Bayernpartei für eine Stärkung der bayerischen Eigenverantwortung und die Rückführung wichtiger politischer Kompetenzen. In europäischer Hinsicht tritt sie für ein Europa der Regionen ein, sie ist Mitglied der Europäischen Freien Allianz, einer Partei des Europaparlaments.
Beteiligung an Volksbegehren und Volksentscheiden.
Austritt Bayerns aus der Bundesrepublik.
Hauptziel der Bayernpartei ist ein von der Bundesrepublik Deutschland unabhängiger Freistaat Bayern. In der Satzung (§ 9 Abs. 2 Nr. 2) ist festgelegt, dass ausgeschlossen werden muss, „wer gegen die Eigenstaatlichkeit und das staatliche Eigenleben Bayerns handelt oder spricht“. Auch Aussagen zur Tagespolitik enthalten Hinweise auf eine spätere Unabhängigkeit Bayerns oder beziehen sich auf diese. Der Vorsitzende Florian Weber kündigte 2009 in der Mittelbayerischen Zeitung ein Volksbegehren mit dem Ziel, Bayerns Unabhängigkeit bis zum Jahr 2020 herzustellen, an. Bis April 2015 waren 7.050 der für die Einleitung eines Volksbegehrens notwendigen 25.000 Unterschriften gesammelt. Der Austritt wird finanzpolitisch, aber auch historisch begründet. Nach einer Studie von 2011 wollen 39 % der Bayern – egal ob Altbayern, Franken oder Schwaben, Einheimische oder Zugezogene – mehr Unabhängigkeit für den Freistaat. Die Zahl der Befürworter eines von der Bundesrepublik unabhängigen Freistaats ist in den letzten Jahren sogar noch gestiegen.
Die Verfassungsbeschwerde der Bayernpartei über die Durchführung eines bayerischen Unabhängigkeitsreferendums wurde 2016 nicht zur Entscheidung angenommen. Das Bundesverfassungsgericht sieht die Länder nicht als „Herren des Grundgesetzes“. Für Sezessionsbestrebungen einzelner Länder sei daher kein Raum.
Ablehnung von Rauchverboten.
Im Jahr 2010 unterstützte die Bayernpartei als einzige Partei das hauptsächlich von Tabakindustrie und Tabakgroßhandel finanzierte „Aktionsbündnis ‚Bayern sagt nein!‘ für Freiheit und Toleranz“. Diese Initiative wollte eine Ablehnung des Volksbegehrens „Für echten Nichtraucherschutz!“ erreichen – ein Vorhaben, das deutlich scheiterte. Aus den Reihen der Partei wurde 2012 ein Volksbegehren „Ja zu ‚Wahlfreiheit für Gäste und Wirte‘“ initiiert, welches faktisch eine Rücknahme des 2010 erfolgreichen Volksentscheides zum Ziel hat. Die Bayernpartei begründet ihre ablehnende Haltung zum Nichtraucherschutz durch Rauchverbote in erster Linie mit dem Selbstbestimmungsrecht der Wirte und Gäste.
Petitionen an den Bayerischen Landtag.
Einführung eines Erziehungsgrundgehaltes.
Die Bayernpartei initiierte Anfang Juni 2012 eine Petition an den Bayerischen Landtag mit der Forderung nach Einführung eines Erziehungsgrundgehaltes. Es soll zusätzlich zum Kindergeld an Eltern ausgezahlt werden, die keine staatlichen Betreuungsangebote für Kinder nutzen. Das Erziehungsgrundgehalt ist abhängig von Einkommen und Alter des Kindes. Nach dem Modell der Bayernpartei soll der Elternteil, der für die Betreuung des Kindes auf ein Arbeitsverhältnis verzichtet, bis zu 100 Prozent des früheren Nettoeinkommens bei Vorschulkindern und bis zu 50 Prozent bei schulpflichtigen Kindern erhalten. Je höher das Nettoeinkommen ist, umso höher fällt das Erziehungsgrundgehalt aus. Eine Komponente für den sozialen Ausgleich ist nicht vorgesehen. Finanziert werden soll das Erziehungsgrundgehalt durch Wegfall der bisherigen Leistungen und Freibeträge für Kinder, auf die der Landtag allerdings keinerlei Einfluss hat. Bisher wurde die Petition nicht eingereicht.
ESM ohne Bayern.
Bereits Anfang Juli 2012 initiierte die Partei eine weitere Petition. In dieser wird der Bayerische Landtag aufgefordert, „eine Haftung Bayerns aus dem ESM mit allen zur Verfügung stehenden Mitteln zu bekämpfen“. Sie befürchtet, dass der Bund unbegrenzt für die Schulden anderer Staaten haftet und die daraus resultierenden Belastungen direkt und indirekt an die Bundesländer weitergegeben werden. Die Bayernpartei hatte sich bereits vorher mehrfach kritisch zum ESM geäußert und zur Teilnahme an einer Demonstration in München gegen den ESM aufgerufen. Bisher wurde die Petition noch nicht eingereicht.
Weitere politische Standpunkte.
Einen Überwachungs- und Verbotsstaat verhindern, Bürgerrechte schützen.
Die Bayernpartei spricht sich in ihrem Programm „Zehn Punkte in weiß-blau“ gegen einen totalen Überwachungsstaat aus. Nach Ansicht der BP sollen PC-, Video- und Telefonüberwachung nur bei begründetem, dringendem Verdacht möglich sein. Die Privatsphäre der Bürger darf nach Meinung der BP grundsätzlich nur dann verletzt werden, wenn sie als Schutzmantel für schwere Verbrechen missbraucht wird. In ihrem Programm lehnt die BP sowohl auf nationaler als auch auf europäischer Ebene die flächendeckende Erfassung und Speicherung von biometrischen Daten und Fingerabdrücken sowie ihre Weitergabe an andere Staaten (z. B. an die USA) ab. Ein großes Problem sieht die Bayernpartei in der „Tendenz [des Staates], das Verhalten der Bürger immer mehr zu regeln und einzuschränken“.
Finanz-, Wirtschafts- und Sozialpolitik.
Viele Forderungen der Bayernpartei zielen auf eine Abkoppelung Bayerns von den Wirtschafts-, Finanz- und Sozialsystemen des Bundes ab. Dazu zählt auch der Vorschlag einer Regionalisierung des Gesundheits- und Sozialsystems. Sowohl Solidaritätszuschlag als auch Länderfinanzausgleich sollen abgeschafft werden.
An Stelle der bisherigen Pendlerpauschale soll eine Entfernungskostenpauschale treten, die direkt von der Steuerschuld abgezogen wird. Damit soll eine Steuererleichterung erreicht werden, die unabhängig von der individuellen Steuerprogression ist. Bemessungsgrundlage für die Pauschale ist der durchschnittliche Spritpreis des Steuerjahres. Eine Aussage zur Gegenfinanzierung ist nicht vorhanden.
Sozialpolitische Aussagen der Bayernpartei betreffen hauptsächlich den Teilbereich Familie. Staatlichen Betreuungsangeboten steht die Partei ablehnend gegenüber. Sie setzt auf eine verstärkte Förderung elterlicher Erziehung in Form eines Erziehungsgrundgehaltes. Ein Betreuungsgeld in Höhe von 150 Euro monatlich wird als unzureichend betrachtet. Eine Erhöhung des Rentenalters wird abgelehnt, da dies lediglich zu Abschlägen bei den Bezügen führen würde.
„Eine Gleichsetzung von eheähnlichen Verhältnissen und Ehen“ lehnt die Bayernpartei als Widerspruch zur „natürliche[n] und sittliche[n] Grundlage der menschlichen Gemeinschaft“ ab.
Umwelt- und Agrarpolitik, Tierschutz.
Die Bayernpartei sieht Umweltschutz als eine der großen politischen Herausforderungen, um Heimat und Lebensgrundlagen zu erhalten. Kritisch wird dagegen die Einschränkung der bürgerlichen Freiheiten aus Umweltschutzgründen gesehen. Der Mensch solle als Teil der Umwelt und nicht als Eindringling in diese wahrgenommen werden.
Erneuerbare Energien sollen gefördert werden, wobei die Energiewende jedoch dezentral gesteuert werden soll. Die Ökosteuer und Umweltzonen in Innenstädten sollen abgeschafft werden.
Weitere Forderungen sind landwirtschaftliche Direktvermarktung, Verbraucherschutz durch Herkunftsbezeichnungen, Verbot von Tiermehl und Agrarfabriken. Stattdessen sollen bäuerliche Klein- und Mittelbetriebe unterstützt werden. Die BP fordert ein Verbot von Tiertransporten und „unsinnigen“ Tierversuchen.
Innenpolitik und Justiz.
Kostenloser Rechtsbeistand für Kriminalitätsopfer soll ermöglicht werden, ebenso die Förderung der europäischen und internationalen Zusammenarbeit. Der Föderalismus innerhalb Bayerns soll nach dem Leitmotiv der Subsidiarität gestärkt werden. Dies soll insbesondere durch Aufwertung der kommunalen Selbstverwaltung der Gemeinden und Landkreise geschehen; die Bezirke sollen eigene Gesetzgebungskompetenzen erhalten. Die Bayernpartei setzt sich für einen direkt gewählten Ministerpräsidenten und, obgleich es freundschaftliche Verbindungen auch zu monarchistischen Gruppierungen gibt, für einen demokratisch gewählten Staatspräsidenten ein.
Verteidigungs-, Außen- und Europapolitik.
Die Bayernpartei spricht sich gegen Auslandseinsätze der Bundeswehr aus. Im Vordergrund steht der finanzielle Aspekt solcher Einsätze. Die Bundeswehr taucht zudem bei der Argumentation für einen unabhängigen Staat Bayern als Kostenfaktor auf.
In der Außenpolitik wird eine Aufnahme der Türkei in die Europäische Union abgelehnt. In einer Pressemitteilung wurde dies vorwiegend mit einer finanziellen Überforderung der EU begründet.
Seit 1948 bekennt sich die Partei zu einem „Vereinten Europa“, definiert diesen Begriff allerdings nicht weiter. Gleichzeitig übt sie Kritik an der Verlagerung von Kompetenzen hin zu europäischen Institutionen. Sie betont den – juristisch umstrittenen – Vorrang der Grundrechte der nationalen Verfassungen vor EU-Recht. Beim Landesparteitag am 30. Oktober 2011 in Bamberg befürwortete die Bayernpartei den Ausstieg Deutschlands aus dem Euro. Nach der Einrichtung eines unabhängigen Staates Bayern soll eine eigene Währung eingeführt werden.
Kultur- und Bildungspolitik.
Die Partei spricht sich für den Ausbau der Bildungshoheit der Länder aus. Sie lehnt Einflussnahmen des Bundes, auch in Form von Zahlungen an die Länder, ab. Eine Angleichung der Schulsysteme innerhalb Deutschlands wird abgelehnt.
Das dreigliedrige Schulsystem soll erhalten bleiben, die Hauptschule jedoch durch berufliche Praktika aufgewertet werden. Eine wohnortnahe Schulbildung soll auch auf dem Land ermöglicht werden. Bayern soll für ein auf Gestaltungsfreiheit der Studierenden ausgelegtes Hochschulangebot sorgen. BAföG-Leistungen sollen elternunabhängig gezahlt werden, Studiengebühren werden abgelehnt.
Die Bayernpartei betont die „historisch gewachsenen kulturellen Unterschiede innerhalb Deutschlands“ und lehnt eine „deutsche Leitkultur“ ab. Die Vermittlung kultureller Kenntnisse durch Heimatkundeunterricht wird als Mittel der Integration verstanden. Die bayerischen Dialekte sollen erhalten und gepflegt werden.
Organisation.
Politische Leitung.
Parteitag
Das höchste politische Organ ist der Parteitag. In Publikationen der Partei wird er oft auch als Landesparteitag bezeichnet. Er wird als Mitgliederversammlung geführt. Die Teilnehmerzahl und die Zusammensetzung ist daher stark von Ort und Datum abhängig. Seine wichtigsten Aufgaben sind die Wahl des Landesvorstandes, die Ernennung von Ehrenmitgliedern und Entscheidungen über die politischen Grundsätze. Der Parteitag kann theoretisch jede Befugnis an sich ziehen.
Parteiausschuss
Der Parteiausschuss entspricht dem „kleinen Parteitag“ der meisten anderen Parteien. Gebildet wird er aus den Delegierten der Bezirksverbände und des Jungbayernbundes sowie die Mitglieder der Parteileitung. Der Parteiausschuss wählt einen eigenen Vorsitzenden und dessen Stellvertreter. Er ist das höchste Gremium zwischen den Parteitagen und übernimmt dessen Aufgaben, solange diese nicht explizit dem Parteitag vorbehalten sind.
Parteileitung
Die Parteileitung ist eine Besonderheit der Bayernpartei. Sie besteht aus dem Parteivorstand, den Ehrenvorsitzenden, den acht Delegierten der Bezirksverbände und einem Vertreter der Jugendorganisation. Sollten Fraktionen im Bundes-, Landtag oder in den Bezirkstagen bestehen, haben auch diese jeweils einen Sitz mit Stimme. Hauptaufgabe der Parteileitung ist die Koordination der politischen Arbeit der Untergliederungen und die Verabschiedung des Finanzhaushaltes.
Parteivorstand
Der Parteivorstand des Landesverbands besteht aus dem Vorsitzenden, seinen vier Stellvertretern, dem Schatzmeister, dem Schriftführer und dem Generalsekretär. Der Vorstand kann beliebig viele Mitglieder und Nichtmitglieder kooptieren. Diese haben allerdings kein Stimmrecht. Dem Landesvorstand obliegen die laufenden Parteigeschäfte. Er vertritt die Partei juristisch nach außen.
Parteivorsitzender
Ungewöhnlich ist die in der Satzung verankerte, starke Stellung des Parteivorsitzenden, in der Satzung "Landesvorsitzender" genannt. So legt § 52 fest „Der Landesvorsitzende ist der berufene Sprecher der Partei.“ und § 52 Abs. 1 konkretisiert „Zur Bekanntgabe parteiamtlicher Erklärungen, von Beschlüssen, Stellungnahmen oder Berichten zu aktuellen politischen oder parteiinternen Fragen an Presse, Rundfunk und Fernsehen oder an dritte Personen, die der Partei nicht angehören, ist der Landesvorsitzende zuständig.“ Diese Rechte stehen bei anderen Parteien normalerweise dem Vorstand in seiner Gesamtheit zu.
Regionale Gliederung.
Die Bayernpartei gliedert sich in insgesamt acht Bezirksverbände: Die Bezirksverbände Oberfranken, Mittelfranken, Unterfranken, Schwaben, Oberpfalz und Niederbayern sind deckungsgleich mit den jeweiligen bayerischen Regierungsbezirken. Der Bezirksverband "München" umfasst die Landeshauptstadt München, der Bezirksverband Oberbayern den restlichen gleichnamigen Regierungsbezirk. Darüber hinaus existieren Kreisverbände und Ortsverbände, von denen allerdings nicht alle aktiv sind.
Die Vorsitzenden der Bezirksverbände im Überblick:
Parteipresse.
Das Presseorgan "Freies Bayern" erscheint viermal im Jahr. Diese Zeitung wurde erstmals 1952 aufgelegt, erschien seither jedoch nicht durchgängig. Von 1949 bis 1954 erschien die „Bayerische Landeszeitung“ mit einer Auflage von zunächst 65.000 Exemplaren. Diese Wochenzeitung war vor allem als parteinahe Publikumszeitung, vergleichbar dem Bayernkurier der CSU, geplant, fuhr jedoch erhebliche Verluste ein, die schließlich zu ihrer Einstellung führten. Der „Bayernruf“, der von 1951 bis 1960 zweiwöchentlich erschien, wandte sich hingegen eher an die eigenen Mitglieder der Partei.
Soziale Medien.
In den sozialen Medien ist die Partei sehr aktiv, z. B. auf Facebook mit weit über 40.000 Followern. Hier liegt sie sogar an dritter Stelle unter den Parteien in Bayern, hinter CSU und AfD.
Jugendorganisation.
Die Jugendorganisation der Partei ist der "Jungbayernbund e. V. (JBB)" mit Sitz in München. Er wurde auf Landesebene 1950 gegründet, nachdem es seit 1948 bereits regionale Gründungen gegeben hatte, und versteht sich als „Vereinigung der fränkischen, schwäbischen und bairischen Jugend im Freistaat“. Der Jungbayernbund (JBB) ist Mitglied im "Ring Politischer Jugend" (RPJ) Bayern. Vorsitzender der Jungbayern ist seit 14. Juli 2019 Mario Gafus, sein Vorgänger, der Frasdorfer Helmut Freund, wurde am 14. Juli 2019 zum Ehrenvorsitzenden ernannt, dessen Vorgänger, der Münchner Richard Progl, bereits am 21. Februar 2015. Die Jungbayern sehen sich der bayerischen Verfassungstradition verpflichtet und sind bestrebt, den Grundsatz der Selbstbestimmung der Völker zu verwirklichen.
Beteiligung an Wahlen und Abstimmungen.
Beteiligung an Volksbegehren.
Neben der Beteiligung an Wahlen nutzt die Bayernpartei auch die Mittel der Volksgesetzgebung. 1988 versuchte sie ein Volksbegehren gegen die Atomare Wiederaufarbeitungsanlage in Wackersdorf in die Wege zu leiten, das sich jedoch als rechtswidrig herausstellte. 1991 unterstützte sie das Volksbegehren „Das bessere Müllkonzept“ und im Jahr 1995 das . Diese waren gegen Entscheidungen der CSU-Mehrheit im Landtag gerichtet. 1997 kämpfte die Bayernpartei zusammen mit der CSU gegen das Volksbegehren „Schlanker Staat ohne Senat“, um die Abschaffung der 2. Kammer in Bayern zu verhindern. 2008 unterstützte sie als einzige Partei das Aktionsbündnis „Bayern sagt Nein!“, das sich gegen das Volksbegehren „Für echten Nichtraucherschutz!“ wandte.
Mandate in Bezirkstagen.
Die Bayernpartei entsandte bzw. entsendet Vertreter in folgende Bezirkstage: |
761 | 3609534 | https://de.wikipedia.org/wiki?curid=761 | Bundesregierung (Deutschland) | Die Bundesregierung (BReg), auch "Bundeskabinett" genannt, ist ein Verfassungsorgan der Bundesrepublik Deutschland und übt die Exekutivgewalt auf Bundesebene aus. Sie besteht gemäß des Grundgesetzes für die Bundesrepublik Deutschland (GG) aus dem Bundeskanzler und den Bundesministern.
Der Bundeskanzler wird auf Vorschlag des Bundespräsidenten vom Deutschen Bundestag gewählt, vom Bundespräsidenten ernannt und vom Präsidenten des Deutschen Bundestages vereidigt. Der Bundeskanzler schlägt danach dem Bundespräsidenten die Bundesminister vor. Diese werden ebenfalls vom Bundespräsidenten ernannt und vom Bundestagspräsidenten vereidigt.
Sitz des Verfassungsorgans Bundesregierung ist die Bundeshauptstadt Berlin ( Abs. 1 Berlin/Bonn-Gesetz). Die Regierung hat Einfluss auf die Legislative, weil sie Gesetzesentwürfe in den Deutschen Bundestag einbringen und zu Gesetzesentwürfen des Bundesrates Stellung nehmen kann.
Regelungen.
Verfassungsrechtlich ist die Rolle der Bundesregierung in Teil VI in den des Grundgesetzes (GG) geregelt, wodurch sie zu den Verfassungsorganen zählt. GG erlaubt es der Bundesregierung, Gesetzesvorlagen in den Bundestag einzubringen. Abs. 2 GG schreibt vor, dass die Mitglieder der Bundesregierung bei der Amtsübernahme den Amtseid (gemäß GG) leisten. Ihre Arbeitsweise wird in der Geschäftsordnung der Bundesregierung (GOBReg) und in der Gemeinsamen Geschäftsordnung der Bundesministerien (GGO) geregelt.
Das Bundeskabinett muss unter anderem über jeden Gesetz- und Verordnungsentwurf der Bundesregierung, die Ernennung von hohen Beamten und Soldaten sowie weitere Angelegenheiten „von besonderer politischer“ oder „erheblicher finanzieller Bedeutung“ entscheiden, wobei vorab eine Beratung zwischen den beteiligten Bundesministerien stattfindet. Nur strittige Punkte werden dann noch im Bundeskabinett selbst debattiert. Das Bundeskabinett ist beschlussfähig, wenn mehr als die Hälfte ihrer Mitglieder anwesend sind und trifft seine Entscheidungen mit Mehrheitsbeschluss, die anschließend aber geschlossen nach außen vertreten werden (Kollegialprinzip). Beschließt die Bundesregierung in einer Frage von finanzieller Bedeutung gegen oder ohne die Stimme des Bundesministers der Finanzen, so kann dieser gegen den Beschluss ausdrücklich Widerspruch erheben. Entsprechendes gilt, wenn der Bundesminister der Justiz oder der Bundesminister des Innern gegen einen Gesetz- oder Verordnungsentwurf oder eine Maßnahme der Bundesregierung wegen ihrer Unvereinbarkeit mit geltendem Recht Widerspruch erhebt.
Der Bundeskanzler hat innerhalb der Bundesregierung die Richtlinienkompetenz (Kanzlerprinzip): Er bestimmt die Grundzüge der Politik und ist dafür verantwortlich. Die Bundesminister leiten ihre jeweiligen Aufgabenbereiche im Rahmen der (für sie verbindlichen) Richtlinien des Kanzlers eigenständig (Ressortprinzip), wobei sie ihm regelmäßig berichten müssen. Den Umfang ihrer Aufgabenbereiche bestimmt ebenfalls der Bundeskanzler. Sind zwei Bundesminister sich in einem Punkt uneinig, so entscheidet entweder der Bundeskanzler oder die Bundesregierung. Im politischen Alltag macht der Bundeskanzler aber üblicherweise nicht offiziell von seiner Richtlinienkompetenz Gebrauch, sondern stimmt seine Politik mit den Bundesministern ab. Da diese in der Regel auch aus verschiedenen Parteien bestehen (Koalition), ist dies auch politisch erforderlich, da sonst ein „Koalitionsbruch“ droht. Heutzutage werden die meisten Grundzüge der Regierungspolitik bereits zu Beginn der Legislaturperiode in einem Koalitionsvertrag festgehalten und bei Bedarf im Koalitionsausschuss erörtert, wobei es sich hier nur um informelle Übereinkünfte handelt.
Laut Bundesministergesetz hat ein ausgeschiedenes Mitglied der Bundesregierung Anspruch auf ein Ruhegehalt, „wenn es der Bundesregierung mindestens vier Jahre angehört hat; eine Zeit im Amt des Parlamentarischen Staatssekretärs bei einem Mitglied der Bundesregierung wird berücksichtigt“, ebenso wie eine „vorausgegangene Mitgliedschaft in einer Landesregierung, die zu keinem Anspruch auf Versorgung nach Landesrecht geführt haben“.
Beamtete Staatssekretäre und Parlamentarische Staatssekretäre bzw. Staatsminister sowie Bundesbeauftragte unterstützen die Bundesregierung bei ihren Aufgaben und können an Kabinettssitzungen teilnehmen. Gleiches gilt für den Chef des Bundespräsidialamtes, den Chef des Presse- und Informationsamtes der Bundesregierung, den persönlichen Referenten des Bundeskanzlers und die Schriftführer.
Das Bundeskabinett tagt in der Regel jeden Mittwoch um 9:30 Uhr im Bundeskanzleramt. Das amtliche Bekanntmachungsmedium ist das Gemeinsame Ministerialblatt (GMBl). Die administrativen Geschäfte der Bundesregierung leitet der Bundeskanzler, der diese an den Chef des Bundeskanzleramtes delegiert.
Zusammensetzung.
Das Bundeskabinett hat am 8. Dezember 2021 die Reihenfolge der Regierungsmitglieder beschlossen; daraus ergibt sich die folgende Reihenfolge der einzelnen Bundesministerien:
Vertretungsreihenfolge in der Bundesregierung.
Die Vertretungsreihenfolge bei Sitzungen der Bundesregierung regelt § 22 der Geschäftsordnung der Bundesregierung.
Bei Abwesenheit des Bundeskanzlers übernimmt der Stellvertreter des Bundeskanzlers den Vorsitz in der Bundesregierung. Ist auch dieser verhindert, so übernimmt derjenige Bundesminister den Vorsitz, der am längsten ununterbrochen der Bundesregierung angehört. Gibt es mehrere Bundesminister, die zur gleichen Zeit Bundesminister geworden sind, so übernimmt der an Lebensjahren älteste den Vorsitz. Diese Regelungen gelten nicht, wenn der Bundeskanzler eine gesonderte Reihenfolge bestimmt. Mit Ausnahme von Christian Lindner, der in Abwesenheit von Bundeskanzler und Vizekanzler den Vorsitz übernimmt, ist zurzeit keine weitere Sonderregelung bekannt.
Daraus ergibt sich derzeit folgende Vertretungsreihenfolge:
Anteil der Volljuristen.
Die bevorzugte Einstellung von Personen mit Befähigung zum Richteramt (Volljuristen) in die Laufbahn des höheren nichttechnischen Verwaltungsdienstes (sogenanntes Juristenprivileg) findet sich auch in der Bundesregierung wieder. Der Anteil der Volljuristen betrug immer mindestens 25 Prozent, mit Ausnahme des Zeitraums 1998 bis 2002 (Kabinett Schröder I).
Dauer der Regierungsbildung in Deutschland.
Im Durchschnitt wurde der Kanzler zwischen 1949 und 1976 nach 43 Tagen gewählt. Bei der Bundestagswahl 1976 war unabhängig von der Dauer von Koalitionsverhandlungen aufgrund der bis zu diesem Jahr gültigen Regelung im Grundgesetz über die Dauer der Wahlperiode eine Regierungsbildung erst über zwei Monate nach der Wahl möglich, seitdem ist sie immer spätestens 30 Tage nach der Wahl möglich. Seit 1980 wurde der Kanzler im Durchschnitt nach 54 Tagen gewählt.
Tag der offenen Tür.
Seit 1999 findet jeden Sommer ein Tag der offenen Tür der Bundesregierung statt. An diesem Tag können das Bundeskanzleramt, Bundespresseamt und 14 Ministerien besichtigt werden. Ein Blick in Büros von Referenten und Ministern soll einen Eindruck vom Arbeitsalltag der Politiker vermitteln.
Weitere Einrichtungen.
Seit 2007 ist Schloss Meseberg das Gästehaus der Bundesregierung. Hier finden traditionellerweise die Kabinettsklausuren statt, ferner bietet es oft den Rahmen für informelle Gespräche. Zuvor wurde ab 1990 das weiterhin in Bundesbesitz befindliche Gästehaus auf dem Petersberg in Königswinter bei Bonn in ähnlichem Rahmen durch die Verfassungsorgane der Bundesrepublik Deutschland genutzt, nach dem Regierungsumzug von 1999 in reduziertem Umfang. |
762 | 2458679 | https://de.wikipedia.org/wiki?curid=762 | Bafing | Der Bafing (Mande für „Schwarzer Fluss“) ist ein etwa 800 km langer Fluss in Guinea und Mali (Westafrika), der auf einem Flussabschnitt die Grenze zwischen beiden Staaten bildet. Er ist der längste Quellfluss des Senegal.
Verlauf.
Der Fluss entspringt in Guinea im bis 1537 m hohen Bergland von Fouta Djallon bei der Stadt Mamou. Er fließt dann nach Norden nach Mali und schließt sich bei Bafoulabé mit dem Bakoyé zum Senegal zusammen.
Hydrometrie.
Durchschnittliche monatliche Durchströmung des Bafing gemessen an der hydrologischen Station bei Makana in m³/s (Werte aus Diagramm abgelesen).
Wasserwirtschaft.
Zwischen 1982 und 1988 wurde bei Manantali in Mali die Manantali-Talsperre gebaut, die einen Stausee fast von der Größe des Bodensees aufstaut. Der See dient zur Regulierung des Wasserstandes im Fluss. Er staut das Wasser der Regenzeit und gibt es in der Trockenzeit kontinuierlich wieder ab, wodurch der Bafing und auch der Senegal ganzjährig schiffbar sind. Außerdem ist dadurch immer genug Wasser für die Bewässerung der Landwirtschaft am Fluss vorhanden. |
764 | 343610 | https://de.wikipedia.org/wiki?curid=764 | Biografie | Eine Biografie (auch Biographie; , Kompositum aus und Grafie, von , ‚malen‘, ‚schreiben‘, heißt soviel wie „Leben aufschreiben“) ist die Beschreibung des Lebens einer Person. Biografien können mündlich oder schriftlich die Lebensgeschichte eines Menschen nachzeichnen. Ein Sonderfall ist die vom Betreffenden selbst verfasste Autobiografie, eventuell mit Unterstützung eines Ghostwriters.
Manchmal werden Autobiografien dem Testament beigefügt; es soll vom Leben eine Spur übrig bleiben – die Nachkommen sollen wissen, was war. Um eine Art autobiografischen Kurzberichts handelt es sich beim Rapiarium.
Den Lebenslauf zu beschreiben, beinhaltet auch die Möglichkeit nachträglicher Konstruktion einer bestimmten Sinnhaftigkeit des beschriebenen Lebens. Dies führt zur Frage nach dem subjektiv verstandenen Leben. Jeder Mensch entwirft seine eigene Biografie in unterschiedlichen Lebenssituationen (beim Bewerbungsgespräch, bei der Aufnahme persönlicher Beziehungen oder allgemeiner bei der eigenen Lebensrückschau, z. B. beim Psychologen oder Psychiater). Biografien bilden auch ein wichtiges Instrument der Erinnerung an andere Personen. Sie sind daher Gegenstand der Literatur- und Geschichtswissenschaft, der Soziologie, der Pädagogik, der Psychologie, der Medizin und der Theologie. Die einzelnen Arbeitsfelder und Arbeitsgegenstände der Biografieforschung sind sehr heterogen und haben eigene Forschungstraditionen entwickelt.
Literaturgattung.
Als Literaturgattung behandelt die Biografie meist Personen des öffentlichen Lebens wie Politiker, Wissenschaftler, Sportler, Künstler oder Menschen, die durch ihr Wirken einen wichtigen gesellschaftlichen Beitrag geleistet haben. Wichtige literarische Biografen deutscher Sprache waren und sind etwa Karl August Varnhagen von Ense, Stefan Zweig, Emil Ludwig und Golo Mann. Viele biografische Texte vermischen die historischen Fakten mit freien Erfindungen (biografischer Roman, historischer Roman).
Ein frühes Beispiel für die heroisierende Lebensbeschreibung in Form einer Autobiographie eines politischen Herrschers aus der Antike sind die "Res Gestae Divi Augusti (auch: Monumentum Ancyranum)". Aber auch die Biografien mancher (bis dahin) unbekannter Personen sind verbreitet (z. B. Anna Wimschneider, "Herbstmilch").
Lebensbilder sind Kurzbiografien meist von Personen ohne historischen Rang. Sie werden oft von Genealogen, Familien- und Heimatforschern verfasst, Biografien hingegen von Biografen. Die beschriebenen Personen sind je nach Anspruch, historischer Bedeutung oder Auslegung Verwandte, einfache Mitmenschen oder historische, kulturelle oder bedeutende Persönlichkeiten. Umgangssprachlich wird manchmal auch der (stichwortartige) Lebenslauf eines Menschen als dessen Biografie (auch „Vita“) bezeichnet.
Die Auseinandersetzung mit der eigenen Biografie – dem eigenen Lebenslauf – ist u. a. Inhalt der psychoanalytisch ausgerichteten Biografiearbeit.
Geschichte.
Die Ursprünge der Biografie im antiken Griechenland.
Moderne Definitionen.
Nach Arnaldo Momigliano ist die Biografie schlichtweg die Darstellung des Lebens eines Menschen von der Geburt bis zum Tod, nach Friedrich Leo die chronologische Darstellung von Geburt bis zum Tod, Gruppierung der Geschehnisse um die Hauptperson, Erfassung des Lebens nach Rubriken, moralisch-didaktische Ausrichtung. Dies sind moderne Erfassungen der antiken Biografie, aber keine eigene in der Antike gefasste Literaturtheorie.
Nach Leo gibt es zwei Formen, von denen die erste, literarisch wenig anspruchsvolle, für Personen des Geisteslebens gedacht sei, die zweite, deutlich qualitätsvollere Form, für Politiker, Könige und Feldherren gedacht sei (Schule des Peripatos). Diese Anschauung wurde jedoch durch den Fund der Euripides-Biografie des Satyros von Kallatis in Dialogform erschüttert.
Entstehung im vierten Jahrhundert v. Chr..
Die Biografie entstand im vierten Jahrhundert v. Chr. als ein Produkt des Übergangs von der sich auflösenden Polis-Kultur der klassischen Zeit zur Monarchie der hellenistischen Zeit. In der demokratischen Polis herrschte das Ideal vor, dass sie nicht nur eine Summe von Individuen, sondern eine wirkliche Gemeinschaft war. Die nach dem peloponnesischen Krieg eingeleitete und durch Philipp II. von Makedonien und Alexander den Großen betriebene Entwicklung führte bei den Griechen zu einer stärkeren Herausstellung des Individuums. Kennzeichnend für die Polis-Ära ist die Historiographie, während die Biografie für die hellenistische Ära kennzeichnend ist.
Es keimten auch die Dichter- und Gelehrtenbiografien auf, da auch hier die Individualisierung Einzug hielt. Es genügte nicht mehr die Werke der Dichter zu haben, sondern man wollte auch die Viten lesen. Als Prototyp für die Dichter- und Gelehrtenbiografien gilt Platons "Apologie", die zahlreiche biografische Anmerkungen über das Leben des Sokrates enthält. Sie ist nur ein Teil einer ausgeprägten Sokrates-Literatur, die daneben vor allem in den platonischen und xenophontischen Dialogen besteht.
Die Biografie als Literaturgattung kann aufgrund der genannten Punkte als Indiz für bestimmte politisch-soziale Prozesse gewertet werden. Etwas ganz anderes ist der Lebenslauf oder gar der tabellarische Lebenslauf (die Vita) in einer schriftlichen Stellenbewerbung, der besonders auf die beruflichen Merkmale des Bewerbers eingeht und diesen möglichst positiv darstellen soll.
Die Biografie im Griechenland des fünften Jahrhunderts.
Aus dem Rahmen der im letzten Abschnitt geschilderten Prozesse fallen die biografischen Exkurse in den Werken der Historiker Herodot und Thukydides.
Herodot beschreibt in seinen Historien das Leben des Kyros in den bereits bekannten Kategorien (I, 107–130: Abstammung, Geburt, Kindheit und Jugend; I, 177–188: ausgewählte Taten und Leistungen; I, 201–214: letzter Feldzug und Tod) und des Kambyses (III, 1–66). Diese beiden Viten sind geprägt von Exkursen und vielen Erzählungen nebenbei. Diese für die Polis-Zeit außergewöhnlichen Biografien dürften zwei Gründe haben: zum einen sind beide porträtiert worden, gerade weil sie keine Griechen, sondern Exponenten eines monarchistischen Regimes waren, welches schon in Aischylos’ "Persern" eindrucksvoll skizziert wurde, zum anderen gab es durch die zahlreichen Quellen aus Inschriften über die Könige viel zu berichten. Der aus Kleinasien stammende Herodot vereinte die Eigenheiten der Kulturkreise, die sich hier berührten.
Thukydides beschreibt im Rahmen der Pentekontaetie, in den Kapiteln 135–138 des ersten Buchs seiner Geschichte des peloponnesischen Krieges, das Leben des Themistokles zwischen Verbannung und Tod und zuvor in den Kapiteln 128–134 das Schicksal des Spartaners Pausanias. Beide Episoden erzählen die Geschichte von verbannten Politikern, die sich um ihre Poleis verdient gemacht haben. Unter Berücksichtigung des Schicksals von Thukydides, der selbst verbannt wurde, darf man diese Passagen nicht so sehr als Charakterstudien und Betrachtungen zu den beiden Personen betrachten, sondern vielmehr als Kritik im Umgang mit verdienstreichen Persönlichkeiten in der Polis.
Als einzig komplette Biografie jener Zeit gilt das Werk des Skylax von Karyanda, der das Leben des Herakleides von Mylassa erzählt. Hier ist wiederum der bei Herodot relevante Punkt interessant, dass es sich um das Scharnier zwischen den Kulturkreisen handelt: Herakleides war Karer, stammte also aus Kleinasien.
Die Biografie in der klassischen Zeit Griechenlands.
Isokrates schuf aus den Gattungen des Enkomions, eines in Versen gedichteten Preisgesangs, der nie auf Politiker, sondern auf Personen aus künstlerisch-athletischen Kreisen gesungen wurde (z. B. Pindar und andere mit ihren Epinikien), und des Epitaphios, einer Grabrede auf die Kriegstoten, d. h. nicht auf Einzelpersonen, sondern auf das Kollektiv der Gefallenen (z. B. der Epitaphios des Perikles auf die Gefallenen des peloponnesischen Krieges bei Thukydides II, 34–46) das neue Genre eines Prosa-Enkomions in seiner Vita des Euagoras I. Dieselbe wurde vielleicht zwischen 370 und 365 v. Chr. abgefasst, in jedem Fall frühzeitig nach dem Tod des Euagoras 373 v. Chr. Im achten Kapitel seines Vorworts (cap. 1–11) beschreibt Isokrates, dass er beide Gattungen verbindet und ist sich somit der Innovation bewusst. In den Kapiteln 12–21 folgt sein Bericht über Herkunft und Familie des Euagoras, dann die Schilderung der Kindheit des Euagoras (cap. 22 f.), ab Kapitel 24 dann die politische Karriere des Euagoras. An den Schluss stellt Isokrates die Anweisung an den Sohn des Euagoras, dem Vater nachzueifern. Charakteristisch für dieses Werk ist die Erhebung des Euagoras über andere, ja die Erhebung in die Nähe der Götter. Isokrates postuliert so die hohe Individualität seines Gegenstandes.
Xenophon verfasste die Biografie des Agesilaos und die "Kyrupaideia". In der Agesilaos-Biografie, die deutlich kürzer ist als die des Isokrates über Euagoras, lobt er den spartanischen König Agesilaos. Xenophon hatte sich nach dem Feldzug des Kyros gegen seinen Bruder, den Perserkönig Artaxerxes, welchen er in der "Anabasis" verarbeitete, in Sparta niedergelassen und mit Agesilaos angefreundet. Diese Biografie schönt das Leben des Agesilaos deutlich und lässt Details weg. Beweis hierfür sind Xenophons "Hellenika", die Details aus dem Leben des Agesilaos berichten, welche offenbar nicht in die enkomiastische Stimmung seiner Biografie passen. (Gliederung: cap. 1,1–5: Einleitung, Lobes-Intention, Herkunft; 1,6–2,31: lobende Darstellung der Taten (unter Weglassung und Schönung); 3,1–10,4: Katalog der Aretai des Agesilaos; 11: Zusammenfassung. Besonderheit: Vergleichsmöglichkeit zwischen dem Biografen Xenophon und dem Historiografen Xenophon.)
Nicht eindeutig der Biografie zuzuordnen ist die "Kyrupaideia", welche mehrere Gattungen vereint (Geschichtsdarstellung, historischer Roman, didaktischer Roman, Erziehungsschrift, Militärhandbuch, Enkomion). Vieles ist Phantasie, Abschweifungen dienen als Zeugnis guter persönlicher Gestalt. Am Ende vergleicht Xenophon das aktuelle Persien mit dem Persien des Kyros und stellt ein vernichtendes Urteil über das Persien seiner Zeit auf.
Griechische Biografie im Hellenismus und in der frühen Kaiserzeit.
Die oben erwähnten Entwicklungen sind voll ausgereift, die hellenistische Monarchie hat das Poliswesen vollkommen verdrängt. Als Zeitalter des Individuums erforderte der Hellenismus geradezu Viten von Politikern, Feldherrn, Künstlern und Philosophen. Dies schlug sich vermutlich in einer sehr großen Menge an Texten nieder, die uns weitestgehend nicht erhalten sind, wie dies allgemein für den Hellenismus typisch ist. Es ist unbekannt, wie groß die biografische Produktion tatsächlich war.
Theophrasts Charaktere sind keine Biografien im eigentlichen Sinn, sondern stellen Verhaltensmuster dar. Sie können als empirische Studien für ein größeres Werk gedient haben. Theophrast gehörte dem Peripatos an, der einer biografischen Richtung immerhin den Namen gab. Die Charaktere lenken den Focus ganz stark auf das Individuum und auf den individuellen Charakter. Dies wird für die weitere hellenistische Biografie prägend.
Aristoxenos aus Tarent (* 370 v. Chr.; Tod unklar) hat zahlreiche Werke verfasst (insgesamt 453 Bücher), war Konkurrent des Theophrast für die Nachfolge des Aristoteles als Scholarch des Peripatos. Im Gegensatz zu anderen Peripatetikern war er nicht allgemein versiert, sondern auf Musik und Biografie spezialisiert. Er schrieb hauptsächlich Philosophen-Biografien, vielleicht auch eine Alexander-Biografie, da bei Plutarch auf eine Beschreibung Alexanders durch Aristoxenos hingewiesen wird.
Hermippos aus Smyrna (* zwischen 289 und 277 v. Chr.; † nach dem Tod des Chrysippos, welcher zwischen 208 und 204 v. Chr. gestorben ist) entwickelte die Biografie der Peripatetiker weiter. Er selbst gehörte dieser Schule nicht an, sondern lebte in Alexandria. Plutarch beruft sich an mehreren Stellen auf Hermippos. Er scheint zahlreiche Biografien verfasst zu haben. Sueton wird aus zwei Gründen eine Ähnlichkeit zu Hermippos nachgesagt: zum einen lassen beide Gerede und Anekdoten einfließen, zum anderen haben beide zahlreiches Quellenmaterial, denn Hermippos konnte auf die Bibliothek in Alexandria zugreifen, während Sueton das kaiserliche Archiv unter sich hatte.
Satyros wurde am Schwarzen Meer geboren. Seine Lebensdaten sind nicht näher zu bestimmen, sein Leben muss aber vor der Regierungszeit des Ptolemaios VI. Philometor (180–145 v. Chr.) gelegen haben oder in die Regierungszeit hineingereicht haben. Die Zeugnisse von Satyros sind nur spärlich. 1912 fand man in Oxyrhynchos einen Papyrus mit einem längeren Ausschnitt aus einer Euripides-Biografie. Historiker sehen hierin einen Beweis für das ungebrochene Interesse des Hellenismus für die großen Klassiker. Es gibt aber zwei Merkmale dieser Biografie: Satyros hat keine Quellenforschung betrieben, sondern die Fakten aus den Tragödien des Euripides selbst und aus den Komödien des Aristophanes, der Euripides sogar als Frauenfeind skizziert. Außerdem hat Satyros diese Biografie als Dialog verfasst, in dem der Autor selbst Gesprächspartner des Euripides ist. Belegt sind Biografien von Pythagoras, Empedokles, Platon, Diogenes, Alkibiades, Dionysios II. von Syrakus und Philipp II. von Makedonien, außerdem über die Sieben Weisen. Er schrieb auch ein Werk mit dem Titel "Über Charaktere".
Antigonos von Karystos (zweite Hälfte des dritten Jahrhunderts) schrieb ausschließlich Philosophenbiografien. Er schrieb nicht chronologisch oder nach System, sondern versuchte Charakterbilder zu zeichnen. Meist beschreiben seine Biografien den Weg zur Philosophie und den Tod, sind also nicht das Leben umfassend. Auf ihn bezog sich später im dritten Jahrhundert n. Chr. Diogenes Laertios.
Alkidamas (um 400 v. Chr.) verfasste das berühmte Certamen Homeri et Hesiodi, in dem Homer und Hesiod miteinander wettkämpfen. Es ist in Hexametern verfasst und enthält auch Biografisches.
In der römischen Literatur ist Cornelius Nepos ein bedeutender Vertreter dieser literarischen Gattung.
Die wohl berühmtesten Biografien unseres Kulturkreises finden sich jedoch im Neuen Testament und sind den Auswüchsen der hellenistischen Literatur zuzuordnen, da die kanonischen Evangelisten als hellenistische Gebildete gelten, festzustehen scheint dies bei Lukas.
Die Evangelien weisen biografische Merkmale auf, enthalten die Geburt (alle außer Mk), die Genealogie (Mt, Lk), die Taten Jesu, seinen Prozess und letztendlich den Tod, sowie als Zusatz und Novum der antiken Biographik die Wiederauferstehung. Am deutlichsten tritt dies bei Lukas hervor: Prooimion, Ankündigungen der Geburten Johannes des Täufers und Jesu, Geburten, Taufe, Stammbaum, Predigten/ Gleichnisse/ Wunder, Abendmahl, Verrat, Prozess, Tod, Wiederauferstehung, Himmelfahrt. Mit der Himmelfahrt endet die personalisierte Darstellung der Geschichte des Kerns des Christentums. Nun spielt für die weitere Geschichte nicht mehr die Person Jesus die große Rolle, sondern die Gemeinschaft der Jünger, was dazu führt, dass Lukas nach der Himmelfahrt auf die Historiografie umschwenkt. Dies ist geradezu der Prozess der Individualisierung, nur eben umgekehrt.
Plutarch.
Plutarch wurde 45 n. Chr. in Chaironeia in Böotien geboren. Seine Familie war wohlhabend. Da er finanziell unabhängig war, konnte er in Athen Philosophie studieren. Plutarch wurde Philosophie-Wissenschaftler, also er war kein Philosoph, der eine eigene Lehre formulierte. Nach dem Studium kehrte er nach Chaironeia zurück und blieb dort, von einigen Reisen abgesehen. In Rom lernte er den Kaiservertrauten Quintus Sosius Senecio kennen. Dem Lucius Mestrius Florus hatte er das Bürgerrecht zu verdanken, für das er den Namen Mestrius Plutarchus annahm. Er nahm einige Ämter in Chaironeia wahr und gehörte dem Priesterkollegium von Delphi an. 125 n. Chr. starb Plutarch. Den größten Teil seines Schaffens nahmen die "Moralia" ein, die aus 78 Einzelschriften bestanden und populärhistorische, philosophische und alltägliche Fragen behandeln.
Plutarch schrieb Biografien für die Kaiser von Augustus bis Vitellius. Die Biografien von Galba und Otho sind erhalten, bei Tiberius und Nero hat man noch Fragmente, der Rest ist verloren. Die Kaiserviten schildern fortlaufend die Geschichte und sind nicht als Einzelviten gearbeitet.
Die Parallelbiografien (gr. οἱ βίοι παράλληλοι, "hoi bíoi parállēloi", lat. vitae parallelae) des Plutarch zeigen jeweils einen Griechen und einen Römer, die durch besondere Leistungen, Eigenschaften oder Qualitäten verbunden waren. Die Parallelbiografien sind also nicht als Bezeichnung für Biografien gedacht, die die Viten parallel lebender Menschen beschreibt. Die Reihenfolge, in der Plutarch geschrieben hat, ist unbekannt, in den heutigen Editionen sind die Biografien nach den Daten der jeweils griechischen Person geordnet. In der Perikles-Vita erhalten wir den Hinweis, dass Plutarch die Viten nicht als Gesamtwerk geplant hat, sondern sie schrittweise geschrieben und herausgegeben hat. Bis auf ein Paar sind die Parallelbiografien erhalten: Epaminondas und Scipio Africanus sind verloren. Der Vermutung nach bildeten sie den Auftakt der Parallelbiografien. Die Paare: Theseus/ Romulus: Stadtgründer; Lykurg/ Numa Pompilius: Gesetzgeber; Solon/ Poplica: Reformer; Aristeides/ Cato der Ältere: herausragende sittenstrenge Politiker; Themistokles/ Camillus: herausragende militärische und strategische Leistungen; Kimon/ Lucullus: militärische Qualität; Perikles/ Fabius Maximus: zuerst verkannt, dann bestätigt und beide Zögerer; Nikias/ Crassus: große militärische Niederlage mit eigenem Tod; Alkibiades/ Coriolan: wechselten in Auseinandersetzungen die Seiten; Lysandros/ Sulla: militärische Verdienste; Agesilaos/ Pompeius: militärisches Talent; Pelopidas/ Marcellus: militärische Fähigkeiten; Dion/ Brutus: Kampf gegen Tyrannen; Timoleon/ Aemilius Paullus: „politische Organisatoren“; Demosthenes/ Cicero: herausragende Redner, stellten Fähigkeiten in den Dienst des Kampfes für die Freiheit; Phokion/ Cato der Jüngere: Kampf für Freiheit und Selbstbestimmung; Alexander/ Caesar: Feldherren; Eumenes/ Sertorius: als Ausländer Heerführer; Demetrios/ Antonius: Mischung positiver und negativer Eigenschaften; Pyrrhos/ Marius: militärische Qualitäten; Agis und Kleomenos/ Tiberius und Gaius Gracchus: Sozialreformer; Philopoimen/ Flaminius: Wohltäter der Griechen, Besonderheit: beide Zeitgenossen des Plutarch und hatten im Gegensatz zu allen anderen etwas miteinander zu tun.
Man fragt sich sicher, was Plutarch zum Schreiben solcher Biografien bewogen hat. Es mag das Streben gewesen sein, die großen Persönlichkeiten Griechenlands mit Römern zu vergleichen, um die Gleichwertigkeit von Römern und Griechen zu zeigen. Ferner herrschte in der Zeit, in der er die Parallelbiografien schrieb (1. Hälfte des 1. Jahrhunderts), eine ausgeprägte Griechenfreundlichkeit im kulturellen Bereich.
Tendenzen der Gegenwart.
Welche Klassen von Personen (Politiker, Denker, Künstler usw.) in der Öffentlichkeit Interesse erregen und daher Gegenstand von Biografien werden, hängt von der jeweiligen Kultur ab. Wie Ernst Peter Fischer aufgewiesen hat, besteht im deutschsprachigen Raum derzeit kaum Interesse an Biografien von Wissenschaftlern, aber umso größeres Interesse zum Beispiel an Biografien von Philosophen. Er nennt Beispiele von Biografien bedeutender deutscher Forscher, die in englischer Sprache geschrieben wurden, während entsprechende deutschsprachige Publikationen bis heute fehlen.
Autobiografie.
Eine Autobiografie („Selbstbeschreibung“) liegt vor, wenn die Biografie von der betreffenden Person selbst verfasst ist oder sie wenigstens als Verfasser gilt. Vielen Prominenten stand auch ein professioneller Ghostwriter hilfreich zur Seite.
Eine bedeutende Autobiographie ist das Monumentum Ancyranum des Kaisers Augustus aus dem Jahre 13 n. Chr., das als Inschrift fast vollständig erhalten ist.
Viel Autobiografisches enthält bereits die erste der "Selbstbetrachtungen" des römischen Kaisers Mark Aurel. Als erste Autobiografie im eigentlichen Sinne gelten die „Confessiones“ („Bekenntnisse“) des Aurelius Augustinus; er schrieb sie in den Jahren 397 und 398.
Zu den autobiografischen Texten gehören auch die Memoiren („Erinnerungen“). Bei ihnen liegt die Gewichtung oft mehr auf den herausragenden, für eine breite Öffentlichkeit interessanten Ereignissen und der Autor wirft einen erweiterten Blick auf alle daran beteiligten Personen.
Das Leben als Abfolge unterschiedlicher Ereignisse.
Arten von Ereignissen.
Ein Lebenslauf kann sich aus der Abfolge unterschiedlichster Ereignisse zusammensetzen. Einige sind "vorhersehbar" und für viele Personen einer Generation innerhalb eines Lebensabschnitts sehr wahrscheinlich = "normative Ereignisse"
Andere Ereignisse haben einen "zeitgeschichtlichen Charakter." Alle Lebenden in diesem Land haben davon gehört, es miterlebt. Die Bedeutung ist jedoch je nach Betroffenheit und Lebensalter sehr verschieden. (Beispiele: der Zweite Weltkrieg, der Fall der Mauer, der 11. September 2001)
"Kritische Lebensereignisse" können einem Lebenslauf eine Wende in eine unerwartete Richtung geben, dabei kann diese Lebenskrise später durchaus positive Folgen haben. Diese positive oder negative Wendung ist nicht sicher vorherzusehen (wird eher befürchtet).
Mit „brüchigen“ Lebensläufen sind Biografien gemeint, die vom Verlauf der meisten Personen in vergleichbarer sozialer Position mehrfach abweichen. Sie sind normalerweise in der Familiensaga selten vertreten. Es ist z. B. die Rolle des schwarzen Schafs.
Auch die Einteilung der Lebensabschnitte in den Biografien kann variieren – Beispiel Jugend und Kindheit haben heute eine andere Bedeutung als zur Zeit der Industriellen Revolution.
Beispiel für die Zusammensetzung einer „typischen“ Lebensgeschichte.
Es folgt eine „typische“ Lebensgeschichte, zusammengesetzt aus den oben genannten Ereignisformen.
Die biografische Methode in den Sozialwissenschaften.
Die Biografieforschung ist in der Soziologie ein Forschungsansatz der Qualitativen Sozialforschung und befasst sich mit der Rekonstruktion von Lebensverläufen und zugrunde liegender individuell vermittelter, gesellschaftlicher Sinnkonstruktionen auf der Basis biografischer Erzählungen oder persönlicher Dokumente. Das Textmaterial besteht in der Regel aus verschriftlichten Interviewprotokollen, die nach bestimmten Regeln ausgewertet und interpretiert werden.
Qualitativer Forschungsansatz.
Die Biografieforschung ist im Rahmen der qualitativen Forschungsansätze als Einzelfallstudie zu bewerten. Mit der Wahl, Einzelfallstudien durchzuführen, ist eine Herangehensweise an das Forschungsfeld bezeichnet und noch nicht eine Methode.
Die Biografieforschung bedient sich bei der Datenauswertung nicht einer einzelnen Methode, sondern ist als Forschungsansatz zu verstehen, in dem verschiedene Methoden angewendet werden. Dabei ist die am häufigsten verwendete Methode der Datenerhebung bei Lebenden das narrative Interview („erzählen“ lassen) und/oder das offene Leitfadeninterview (Befragung), sonst überwiegt die klassische (sozio)historische Quellenerschließung bis hin zur modernen Inhaltsanalyse.
In der Gerontologie wird „biographische Methode“ die systematische Erkundung des Lebenslaufs einer Person im Rahmen eines größeren Forschungsvorhabens genannt. Dabei müssen die zur Unterstützung der Erinnerung gestellten Fragen auf ihre Offen- bzw. Geschlossenheit hin überprüft werden, damit die erzählende Person nicht von vorneherein durch die Interviewer auf eine Blickrichtung hin eingeengt wird. Dazu ist ein "Leitfaden" zu erstellen und auf verschiedene Anforderungen zu überprüfen.
Lebensspanne.
Mit dem Durchschreiten der Lebensspanne geht ein stetiger Wandel von sozialen Rollen einher, die ein Individuum einnimmt und verliert (z. B. Fräulein Xyz, Mutter, empty nest, Pensionierung). Dabei ändert sich auch die persönliche Wahrnehmung der eigenen Rolle und der Aufgaben. Nach Ursula Lehr werden durchschnittlich 17,5 markante Einschnitte pro Biografie beobachtet. 2/3 davon als negativ, 1/3 positiv erlebt. Frauen berichten mehr Zwischenmenschliches, Männer mehr Sach-, Berufsorientiertes.
Lebenserfahrung kann aber kaum nur als Durchschreiten einer "Normalbiografie" betrachtet werden. Das Wort Wahlbiografie trifft die Lage besser, weil gesellschaftliche Modernisierung heute vor allem in der Ausdifferenzierung von Lebens- und Familienformen liegt.
Das mögliche Vorgehen in einer Studie.
Technisch bedeutet dieser Forschungsansatz den Vergleich verschiedener Biografien unter gemeinsamen Ordnungskategorien. Dazu werden die mündlich erfassten Biografien in die Schriftform übertragen werden (transkribiert). Anschließend werden die Interviews durch mindestens zwei Personen ausgewertet (engl.: rating /gesprochen: rähting, bzw. neudeutsch geratet).
Dies ermöglicht Vergleiche zwischen mehreren Biografien, z. B. ob sie Aussagen zum Forschungsthema enthalten. Zwei Analysten vergleichen danach ihre jeweilige Einschätzung, wie sehr ausgeprägt in der Biografie diese Ordnungskategorien in Erscheinung treten. (H. Thomae)
Dimensionen der Biografie.
Als zehn Dimensionen der "Altersbiografie" nach Hans Thomae sind zu berücksichtigen: genetische und Ernährungslage zu Beginn des Alternsprozesses, Veränderungen im biologischen System, Veränderungen im sozialen System, sozioökonomischer Status, ökologische Veränderungen, Veränderung des kognitiven Systems, Konstanz und Veränderung der Persönlichkeit, individueller Lebensraum, (subjektiv erlebte) Lebenszufriedenheit oder Grad der Balance zwischen Bedürfnissen und Situation, Fähigkeit, diese Balance herzustellen, und Sozialer Kompetenz (Fähigkeit, selbständig, verantwortungs- und aufgabenbezogen zu leben).
Altern und Biografie als Aufgabe.
Diverse Phasenlehren der Soziologie und Entwicklungspsychologie beschreiben Abschnitte und Aufgaben, die in diesem jeweiligen Alter(-sabschnitt) zu erfüllen sind; z. B. Selbstverwirklichung, Ordnung schaffen, Weisheit. Daraus entstand der psychologische Beschreibungsversuch von Entwicklungsaufgaben. Das Ziel kann Zufriedenheit mit der eigenen Geschichte, dem eigenen Leben, jedoch auch neue Aufgabenstellung an sich selbst heißen.
Während früher von den vier Abschnitten "Kindheit, Junger Erwachsener, Erwachsener, Großeltern" (mit nahtlosem Übergang in die Phase eines hochaltrigen Menschen/Greises) relativ klare Vorstellungen herrschten, kann heute bereits von sieben deutlich verschiedenen Lebensabschnitten gesprochen werden. Sie haben jeweils eigene Rollendefinitionen und Verhaltensmuster. Es sind die eigenen Abschnitte "Jugend, Rentner, hochaltriger Mensch" hinzugekommen.
Die Phase des Großelterndaseins beginnt gegenwärtig etwas später als zum Beginn des 20. Jahrhunderts und entspricht zeitlich etwa im Erwerbsleben dem Begriff „Ältere Arbeitnehmer“. Die Gerontologie weist auf eine zunehmende Ausdifferenzierung der Alternsphase hin. Der frühere stufenlose Übergang von hier ins Greisenalter ist durch die Lebensverlängerung entfallen. Hundertjährige sind zwar eine Besonderheit, aber sicher keine Ausnahmeerscheinung mehr. Neunzig- und Hundertjährige können sehr verschiedene Lebenswelten um sich herum errichtet haben.
Gerontologie und Biografie.
Gegen Ende ihres Lebens haben viele Menschen ein Bedürfnis nach einem Lebensrückblick; sie denken über ihr Leben nach und möchten es in seiner Gänze wertschätzen und als sinnvoll verstehen. In verschiedenen Settings werden Personen zu einem Lebensrückblick angeleitet, u. a. in der Lebensrückblickstherapie und in der Biografiearbeit (siehe Maercker & Forstmeier 2013). Man unterscheidet dabei eine "Äußere Biografie", die sich anhand von Daten und Zeiträumen objektiv strukturieren lässt, und eine "Innere Biografie", die Ereignisse und Entwicklungen subjektiv beurteilt.
In der professionellen Altenpflege bringt die Biografie Vorteile in einer „Persönlich-Machung“ der bis dahin relativ anonymen Patienten/Kunden im Heim. Denn viele Personen ziehen dort ein, ohne dass ihre Lebensgeschichte bekannt ist. Sie erscheinen zunächst als eine Ansammlung von Problemlagen und nicht unbedingt als eine über Jahrzehnte gereifte Persönlichkeit. Angehörige, die dazu befragt werden könnten, sind manchmal nicht bekannt. Die Biografie ist dort also zunächst wie ein Puzzle mit vielen Leer-Stellen, die erst allmählich mit den Ereignissen des individuellen Lebens ausgefüllt werden können.
Literatur.
Musikerbiographien.
"Deutsche Komponisten von Bach bis Wagner – Musikerbiographien des 19. Jahrhunderts", Digitale Bibliothek, Band 113, Directmedia Publishing, Berlin 2004, ISBN 3-89853-513-4. |
765 | 225369848 | https://de.wikipedia.org/wiki?curid=765 | B (Programmiersprache) | Die Programmiersprache B wurde 1969 von Ken Thompson und Dennis Ritchie entwickelt.
B ist stark beeinflusst von BCPL und ist Vorgänger der Programmiersprache C.
B ist vor allem aus sprachhistorischen Gründen interessant, da es die Entwicklung von BCPL zu C genauer dokumentiert. Es wurde für die Übersetzung auf einer DEC PDP-7 mit 8 kB RAM entwickelt. Später wurde es auf PDP-11-Maschinen und Honeywell-Großrechner portiert, wo es zum Beispiel für das bekannte AberMUD von Alan Cox bis in die 1990er-Jahre benutzt wurde.
Aufgrund der eingeschränkten Hardware-Ressourcen auf der Zielmaschine PDP-7 fehlen B einige BCPL-Merkmale, die die Übersetzung aufwendiger machen würden. Beispielsweise sind keine verschachtelten Funktionsdefinitionen möglich. Ebenso wegen der eingeschränkten Ressourcen erzeugte der B-Compiler auf der PDP-7 einen einfachen Zwischencode, der von einem Interpreter zur Laufzeit interpretiert werden muss.
In B gab es wie in BCPL oder Forth nur einen Datentyp, dessen Bedeutung sich erst durch die benutzten Operatoren und Funktionen ergab. B ist also typlos. Es gab bereits viele Spracheigenschaften, die man in C finden kann. Einige Programme sind noch mit heutigen C-Compilern übersetzbar.
Bei B wurde der Zuweisungsoperator wieder zu codice_1 wie in Heinz Rutishausers ursprünglicher Sprache Superplan, welche Algol 58 beeinflusst hatte, wobei Algol 58 mit codice_2 einen Doppelpunkt hinzufügte.
Code-Beispiel.
Nachfolgend ein Beispiel aus dem B-Benutzerhandbuch:
/* The following function will print a non-negative number, n, to
the base b, where 2<=b<=10. This routine uses the fact that
in the ASCII character set, the digits 0 to 9 have sequential
code values. */
printn(n,b) {
extrn putchar;
auto a;
if(a=n/b) /* assignment, not test for equality */
printn(a, b); /* recursive */
putchar(n%b + '0'); |
767 | 3495722 | https://de.wikipedia.org/wiki?curid=767 | Boolesche Algebra | In der Mathematik ist eine boolesche Algebra (oder ein boolescher Verband) eine spezielle algebraische Struktur, die die Eigenschaften der logischen Operatoren UND, ODER, NICHT sowie die Eigenschaften der mengentheoretischen Verknüpfungen Durchschnitt, Vereinigung, Komplement verallgemeinert. Gleichwertig zu booleschen Algebren sind "boolesche Ringe", die von UND und ENTWEDER-ODER (exklusiv-ODER) beziehungsweise Durchschnitt und symmetrischer Differenz ausgehen.
Die boolesche Algebra ist die Grundlage bei der Entwicklung von digitaler Elektronik und wird dort als Schaltalgebra, etwa bei der Erstellung von Schaltnetzen, angewandt. Sie wird in allen modernen Programmiersprachen zur Verfügung gestellt und ist auch in der Satztheorie und Statistik vertreten.
Geschichte.
Die boolesche Algebra ist nach George Boole benannt, da sie auf dessen Logikkalkül von 1847 zurückgeht, in dem er erstmals algebraische Methoden in der Klassenlogik und Aussagenlogik anwandte. Ihre heutige Form verdankt sie der Weiterentwicklung durch Mathematiker wie John Venn, William Stanley Jevons, Charles Peirce, Ernst Schröder und Giuseppe Peano. In Booles originaler Algebra entspricht die Multiplikation dem UND, die Addition dagegen weder dem exklusiven ENTWEDER-ODER noch dem inklusiven ODER („mindestens eines von beiden ist wahr“). Die genannten Boole-Nachfolger gingen dagegen vom inklusiven ODER aus: Schröder entwickelte 1877 das erste formale Axiomensystem einer booleschen Algebra in additiver Schreibweise. Peano brachte dessen System 1888 in die heutige Form (siehe unten) und führte dabei die Symbole formula_1 und formula_2 ein. Das aussagenlogische ODER-Zeichen formula_3 stammt von Russell 1906; Arend Heyting führte 1930 die Symbole formula_4 und formula_5 ein.
Den Namen "boolesche Algebra" () prägte Henry Maurice Sheffer erst 1913. Das exklusive ENTWEDER-ODER, das Booles originaler Algebra näher kommt, legte erst Ivan Ivanovich Žegalkin 1927 dem booleschen Ring zugrunde, dem Marshall Harvey Stone 1936 den Namen gab.
Definition.
Das redundante Axiomensystem von Peano (mit zusätzlichen ableitbaren Axiomen) charakterisiert eine boolesche Algebra als Menge mit Nullelement 0 und Einselement 1, auf der die zweistelligen Verknüpfungen formula_6 und formula_3 und eine einstellige Verknüpfung formula_8 definiert sind, durch folgende Axiome (originale Nummerierung von Peano):
Jede Formel in einer booleschen Algebra hat eine "duale Formel", die durch Ersetzung von 0 durch 1 und formula_6 durch formula_3 und umgekehrt entsteht. Ist die eine Formel gültig, dann ist es auch ihre duale Formel, wie im Peano-Axiomensystem jeweils (n) und (n').
Die Komplemente haben nichts mit inversen Elementen zu tun, denn die Verknüpfung eines Elementes mit seinem Komplement liefert das neutrale Element der jeweils "anderen" Verknüpfung.
Definition als Verband.
Eine "boolesche Algebra" ist ein distributiver komplementärer Verband.
Diese Definition geht nur von den Verknüpfungen formula_6 und formula_3 aus und umfasst die Existenz von 0, 1 und formula_8 und die unabhängigen Axiome (1)(1’)(2)(2’)(11)(11’)(4)(9)(9’) des gleichwertigen Axiomensystems von Peano. Auf einer booleschen Algebra ist wie in jedem Verband durch formula_14 eine partielle Ordnung definierbar; bei ihr haben je zwei Elemente ein Supremum und ein Infimum. Bei der mengentheoretischen Interpretation ist formula_15 gleichbedeutend zur Teilmengenordnung formula_16.
Definition nach Huntington.
Eine kompaktere Definition ist das Axiomensystem nach Huntington:
Eine "boolesche Algebra" ist eine Menge formula_17 mit zwei Verknüpfungen auf formula_17, so dass für alle Elemente formula_19, formula_20 und formula_21 gilt:
Auch aus diesen vier Axiomen lassen sich alle oben genannten Gesetze und weitere ableiten. Auch lässt sich aus dem Axiomensystem, das zunächst nur die Existenz neutraler und komplementärer Elemente fordert, deren Eindeutigkeit ableiten, d. h., es kann nur ein Nullelement, ein Einselement, und zu jedem Element nur ein Komplement geben.
Schreibweise.
Die Operatoren boolescher Algebren werden verschiedenartig notiert. Bei der logischen Interpretation als Konjunktion, Disjunktion und Negation schreibt man sie als formula_6, formula_3 und formula_8 und verbalisiert sie als UND, ODER, NICHT bzw. AND, OR, NOT. Bei der mengentheoretischen Interpretation als Durchschnitt, Vereinigung und Komplement werden sie als formula_1, formula_2 und formula_32 (formula_33) geschrieben. Zur Betonung der Abstraktion in der allgemeinen booleschen Algebra werden auch Symbolpaare wie formula_34, formula_35 oder formula_36, formula_37 benutzt.
Mathematiker schreiben gelegentlich „·“ für UND und „+“ für ODER (wegen ihrer entfernten Ähnlichkeit zur Multiplikation und Addition anderer algebraischer Strukturen) und stellen NICHT mit einem Überstrich, einer Tilde ~, oder einem nachgestellten Prime-Zeichen dar. Diese Notation ist auch in der Schaltalgebra zur Beschreibung der booleschen Funktion digitaler Schaltungen üblich; dort benutzt man oft die definierbaren Verknüpfungen NAND (NOT AND), NOR (NOT OR) und XOR (EXCLUSIVE OR).
In diesem Artikel werden die Operatorsymbole formula_6, formula_3 und formula_8 verwendet.
Beispiele.
Zweielementige boolesche Algebra.
Die wichtigste boolesche Algebra hat nur die zwei Elemente 0 und 1. Die Verknüpfungen sind wie folgt definiert:
Diese Algebra hat Anwendungen in der Aussagenlogik, wobei 0 als „falsch“ und 1 als „wahr“ interpretiert werden. Die Verknüpfungen formula_41 entsprechen den logischen Verknüpfungen UND, ODER, NICHT. Ausdrücke in dieser Algebra heißen "boolesche Ausdrücke".
Auch für digitale Schaltungen wird diese Algebra verwendet und als Schaltalgebra bezeichnet. Hier entsprechen 0 und 1 zwei Spannungszuständen in der Schalterfunktion von AUS und AN. Das Eingangs-Ausgangs-Verhalten jeder möglichen digitalen Schaltung kann durch einen booleschen Ausdruck modelliert werden.
Die zweielementige boolesche Algebra ist auch wichtig für die Theorie allgemeiner boolescher Algebren, da jede Gleichung, in der nur Variablen, 0 und 1 durch formula_42 formula_3 und formula_8 verknüpft sind, genau dann in einer beliebigen booleschen Algebra für jede Variablenbelegung erfüllt ist, wenn sie in der zweielementigen Algebra für jede Variablenbelegung erfüllt ist (was man einfach durchtesten kann). Zum Beispiel gelten die folgenden beiden Aussagen (Konsensusregeln, engl.: "Consensus Theorems") über jede boolesche Algebra:
In der Aussagenlogik nennt man diese Regeln Resolutionsregeln.
Mengenalgebra.
Die Potenzmenge einer Menge formula_47 wird mit Durchschnitt, Vereinigung und dem Komplement formula_48 zu einer booleschen Algebra, bei der 0 die leere Menge formula_49 und 1 die ganze Menge formula_47 ist. Der Sonderfall formula_51 ergibt die einelementige Potenzmenge mit 1 = 0. Auch jeder formula_47 enthaltende, bezüglich Vereinigung und Komplement abgeschlossene Teilbereich der Potenzmenge von formula_47 ist eine boolesche Algebra, die als "Teilmengenverband" oder Mengenalgebra bezeichnet wird. Der Darstellungssatz von Stone besagt, dass jede boolesche Algebra isomorph (s. u.) zu einer Mengenalgebra ist. Daraus folgt, dass die Mächtigkeit jeder endlichen booleschen Algebra eine Zweierpotenz ist.
Über die Venn-Diagramme veranschaulicht die Mengenalgebra boolesche Gesetze, beispielsweise Distributiv- und de-Morgansche-Gesetze. Darüber hinaus basiert auf ihrer Form als KV-Diagramm eine bekannte Methode der systematischen Vereinfachung boolescher Ausdrücke in der Schaltalgebra.
Weitere Beispiele für boolesche Mengenalgebren stammen aus der Topologie. Die Menge der abgeschlossenen offenen Mengen eines topologischen Raums bildet mit den üblichen Operationen für die Vereinigung, den Durchschnitt und das Komplement von Mengen eine boolesche Algebra. Die regulär abgeschlossenen Mengen und die regulär offenen Mengen stellen mit den jeweiligen regularisierten Mengenoperationen formula_54, formula_55 und formula_56 ebenfalls boolesche Algebren dar.
Andere Beispiele.
Die Menge aller endlichen oder koendlichen Teilmengen von formula_57 bildet mit Durchschnitt und Vereinigung eine boolesche Algebra.
Für jede natürliche Zahl "n" ist die Menge aller positiven Teiler von "n" mit den Verknüpfungen ggT und kgV ein distributiver beschränkter Verband. Dabei ist 1 das Nullelement und "n" das Einselement. Der Verband ist boolesch genau dann, wenn "n" quadratfrei ist. Dieser Verband heißt Teilerverband von "n".
Ist formula_58 ein Ring mit Einselement, dann definieren wir die Menge
aller idempotenten Elemente des Zentrums. Mit den Verknüpfungen
wird formula_61 zu einer booleschen Algebra.
Homomorphismen.
Ein Homomorphismus zwischen booleschen Algebren formula_62 ist ein Verbandshomomorphismus formula_63, der 0 auf 0 und 1 auf 1 abbildet, d. h., für alle formula_64 gilt:
Es folgt daraus, dass formula_68 für alle "a" aus "A". Die Klasse aller booleschen Algebren wird mit diesem Homomorphismenbegriff eine Kategorie. Ist ein Homomorphismus "f" zusätzlich bijektiv, dann heißt formula_69 "Isomorphismus", und formula_61 und formula_17 heißen "isomorph".
Boolesche Ringe.
Eine andere Sichtweise auf boolesche Algebren besteht in sogenannten "booleschen Ringen": Das sind Ringe mit Einselement, die zusätzlich idempotent sind, also das Idempotenzgesetz formula_72 erfüllen. Jeder idempotente Ring ist kommutativ. Die Addition im booleschen Ring entspricht bei der mengentheoretischen Interpretation der symmetrischen Differenz und bei aussagenlogischer Interpretation der Alternative ENTWEDER-ODER (exclusiv-ODER, XOR); die Multiplikation entspricht der Durchschnittsbildung beziehungsweise der Konjunktion UND.
Boolesche Ringe sind stets selbstinvers, d. h. es gilt formula_73 und folglich für das additive Inverse formula_74. Wegen dieser Eigenschaft besitzen sie auch, falls 1 und 0 verschieden sind, stets die Charakteristik 2. Der kleinste solche boolesche Ring ist zugleich ein Körper mit folgenden Verknüpfungstafeln:
Der Potenzreihen-Ring modulo formula_75 über diesem Körper ist ebenfalls ein boolescher Ring, denn formula_76 wird mit formula_77 identifiziert und liefert die Idempotenz. Diese Algebra benutzte bereits Žegalkin 1927 als Variante der originalen Algebra von Boole, der den Körper der reellen Zahlen zugrunde legte, welcher noch keinen booleschen Ring ergibt.
Jeder boolesche Ring formula_78 entspricht einer booleschen Algebra formula_79 durch folgende Definitionen:
Umgekehrt wird jede boolesche Algebra formula_83 zu einem booleschen Ring formula_84 durch folgende Definitionen:
Ferner ist eine Abbildung formula_63 genau dann ein Homomorphismus boolescher Algebren, wenn sie ein Ringhomomorphismus (mit Erhaltung der Eins) boolescher Ringe ist.
Darstellungssatz von Stone.
Für jeden topologischen Raum ist die Menge aller abgeschlossenen offenen Teilmengen eine boolesche Algebra mit Durchschnitt und Vereinigung. Der Darstellungssatz von Stone, bewiesen von Marshall Harvey Stone, besagt, dass umgekehrt für jede boolesche Algebra ein topologischer Raum (genauer ein Stone-Raum, das heißt ein total unzusammenhängender, kompakter Hausdorffraum) existiert, in dem sie als dessen boolesche Algebra abgeschlossener offener Mengen realisiert wird. Der Satz liefert sogar eine kontravariante Äquivalenz zwischen der Kategorie der Stone-Räume mit stetigen Abbildungen und der Kategorie der booleschen Algebren mit ihren Homomorphismen (die Kontravarianz erklärt sich dadurch, dass sich für formula_89 stetig die boolesche Algebra der abgeschlossenen offenen Mengen in formula_90 durch "Urbildbildung" aus der von formula_91 ergibt, nicht umgekehrt durch Bildung des Bildes). |
769 | 263607 | https://de.wikipedia.org/wiki?curid=769 | Betablocker | Betablocker oder Betarezeptorenblocker, auch "Beta-Rezeptorenblocker", "β-Blocker" oder "Beta-Adrenozeptor-Antagonisten", sind eine Reihe ähnlich wirkender Arzneistoffe, die sich im Körper mit β-Adrenozeptoren verbinden, diese blockieren und so die Wirkung des „Stresshormons“ Adrenalin und des Neurotransmitters Noradrenalin (kompetitiv) hemmen. Die wichtigsten Wirkungen von Betablockern sind die Senkung der Ruheherzfrequenz und damit des (arteriellen) Blutdrucks, weshalb sie bei der medikamentösen Therapie vieler Krankheiten, insbesondere von Bluthochdruck und Koronarer Herzkrankheit sowie Herzschwäche und tachykarden Herzrhythmusstörungen, eingesetzt werden.
Wegen der gut belegten Wirksamkeit und der großen Verbreitung der Krankheiten, bei denen Betablocker eingesetzt werden, zählen sie zu den am häufigsten verschriebenen Arzneimitteln: 2017 wurden in Deutschland 2,19 Milliarden definierte Tagesdosen (DDD) Betablocker verschrieben. Der bekannteste und am meisten verschriebene Wirkstoff ist "Metoprolol" (für das Jahr 2017: 863,7 Millionen DDD; ohne Berücksichtigung von Kombinationspräparaten).
In manchen Sportarten ist die Einnahme von β-Blockern ohne medizinische Indikation nicht erlaubt; sie stehen in Disziplinen, die eine hohe Konzentration und präzise Bewegungen erfordern, als leistungssteigernde Substanzen auf der Dopingliste.
Geschichte.
Eine die Seitenkettentheorie Paul Ehrlichs weiterentwickelnde Hypothese der Existenz inhibierender und stimulierender Rezeptoren im sympathischen Nervensystem formulierte bereits 1905 John N. Langley. Die Richtigkeit dieser Hypothese wurde 1906 durch George Barger und Henry H. Dale experimentell nachgewiesen. Ein dann 1948 ausgearbeitetes Konzept von Raymond P. Ahlquist zur Untergliederung der Adrenozeptoren in alpha- und beta-adrenerge Sympathikusrezeptoren wurde über 10 Jahre nicht anerkannt. Doch im Jahr 1958 knüpften C.E. Powell und Slater an diese These an, da sie den damaligen Marktführer Isoprenalin ablösen wollten. Dabei versuchten sie einen lang und spezifisch wirkenden Bronchodilatator zu entwickeln, wodurch das Dichlorisoprenalin (DCI) ausgehend von Isoprenalin entwickelt wurde. Dies war das erste Substrat, das eine spezifische Blockade von β-Rezeptoren aufzeigte. Das eigentliche Potential von DCI erkannte jedoch erst James Whyte Black, der auf der Suche nach einem Arzneimittel zur Behandlung der Angina Pectoris 1962 als weiteren Prototyp Pronethalol als ersten β-Adrenorezeptorblocker auf den Markt brachte. Dieses erwies sich allerdings durch Tierstudien als kanzerogen wirksam. Aus diesem Grund wurde es im Jahr 1964 durch Propranolol ersetzt. Nachfolger waren 1966 Alprenolol von Astra AB und Oxprenolol von der Ciba AG.
1967 entwarf Lands das Konzept der β1- und β2-Rezeptoren. Er teilte die von Ahlquist definierte β-Rezeptorenpopulation in zwei getrennte Gruppen mit unterschiedlichen Wirkungen auf: Die β1-Rezeptoren seien kardiospezifisch, die β2-Rezeptoren bronchospezifisch. Diese Hypothese konnte er durch Experimente mit Practolol und Salbutamol wenig später auch beweisen. Nun war man auf der Suche nach Substanzen, die kein Herzversagen als unerwünschte Arzneimittelwirkung aufwiesen. Man wollte keine Substrate mit nur einer β1-blockierenden Wirkung, sondern dualistisch wirkende (sog. partielle Agonisten).
In den späten 1960er Jahren entdeckte man neben Practolol noch Sotalol und Pindolol; 1973 wurde Timolol auf den Markt gebracht. In Deutschland wurden außerdem als β-Blocker Esmolol ("Brevibloc", 1991), Metoprolol ("Beloc", 1976), Tertatolol ("Prenalex", 1991) und Carvedilol ("Dilatrend", 1992) zugelassen und eingeführt. Später kam Landiolol ("Rapibloc", 2017) hinzu.
Neben der Entwicklung zur Selektivität für die speziellen Rezeptortypen spielen auch die Halbwertszeit sowie die Wirkdauer eines Betablockers eine immer größere Rolle. Während bei chronischen Patienten eine lange Wirkdauer in der Regel die Compliance erhöht, kann bei akuten und intensivmedizinischen Einsätzen eine möglichst kurze Wirkdauer von Vorteil sein. Die kurzwirksamsten Wirkstoffe derzeit sind die intravenösen Betablocker Esmolol und Landiolol.
Wirkstoffe, chemischer Aufbau und Einteilung.
Strukturell sind Betablocker Phenolether von vicinalen Diolen.
Für die Wirksamkeit von Betablockern entscheidend sind die Subtypen β1 und β2 des β-Adrenozeptors. Die verschiedenen Wirkstoffe unterscheiden sich in der Affinität für diese Rezeptoren. Der erste Betablocker, "Propranolol", wurde in den 1960er Jahren entwickelt. Dieser wirkt ungefähr gleich stark auf beide Typen des Rezeptors und wird daher als "nichtselektiver" Betablocker bezeichnet. In der Folge wurden selektivere Betablocker entwickelt, da vor allem die Blockade des β1-Adrenozeptors erwünscht ist. Ein Wirkstoff, der "ausschließlich" den β1-Adrenozeptor blockiert, ist nicht verfügbar. Wirkstoffe wie "Metoprolol" oder in noch ausgeprägterer Form "Bisoprolol" wirken aber stärker auf den β1-Subtyp und werden deshalb als "selektive" oder auch "kardioselektive" Betablocker bezeichnet.
Im Gegensatz zu Alphablockern haben Betablocker große strukturelle Ähnlichkeit zu β-Sympathomimetika. Deshalb haben manche der Betablocker eine geringfügige erregende (agonistische) Wirkung auf Beta-Rezeptoren. Diese Eigenschaft wird als "intrinsische sympathomimetische Aktivität" (ISA) oder "partielle agonistische Aktivität" (PAA) bezeichnet und ist meist unerwünscht.
Des Weiteren werden membranstabilisierende, nicht kompetitiv hemmende Betablocker abgegrenzt, deren Hemmwirkung als chinidin- oder lokalanästhetikumartig bezeichnet wird und sich in einem verzögerten Anstieg des Aktionspotentials zeigt. Hierzu gehören Propranolol, Alprenolol und Acebutolol.
Einige neuere Betablocker haben zusätzliche gefäßerweiternde (vasodilatierende) Eigenschaften: Carvedilol bewirkt eine Blockade des α1-Adrenozeptors, Nebivolol eine Stickstoffmonoxid-Freisetzung und Celiprolol hat eine "aktivierende" Wirkung am β2-Adrenozeptor.
Der Bedeutung der Enantiomerenreinheit der synthetisch hergestellten Wirkstoffe wird zunehmend Beachtung eingeräumt, denn die beiden Enantiomeren eines chiralen Arzneistoffes zeigen fast immer eine unterschiedliche Pharmakologie und Pharmakokinetik. In einer Übersicht wurden die stereospezifischen Wirkungen der Enantiomeren zahlreicher Betablocker beschrieben. Aus Unkenntnis der stereochemischen Zusammenhänge wurden derartige Unterschiede oft ignoriert. Arzneimittel enthalten Arzneistoffe häufig als Racemat (1:1-Gemisch der Enantiomere), wobei aus grundsätzlichen Überlegungen die Verwendung des besser bzw. nebenwirkungsärmer wirksamen Enantiomers zu bevorzugen wäre. Im Fall der β-Blocker ist deren pharmakologische Aktivität in der Regel praktisch vollständig auf das ("S")-Enantiomer zurückzuführen, das 10 bis 500 Mal aktiver als das Distomer, also ("R")-Enantiomer, ist. Timolol, Penbutolol, Levobunolol und Landiolol werden als enantiomerenreine ("S")-konfigurierte Arzneistoffe vermarktet, die meisten anderen β-Blocker werden als Racemate eingesetzt. Die internationalen Freinamen der einzelnen Betablocker enden auf "-olol".
Wirkmechanismus.
Betablocker hemmen die aktivierende Wirkung von Adrenalin und Noradrenalin auf die β-Adrenozeptoren, wodurch der stimulierende Effekt des Sympathikus auf die Zielorgane, vornehmlich das Herz, gedämpft wird. Die Wirkungen auf andere Organsysteme zeigen sich als gegengerichtet zu den Wirkungen von Adrenalin.
Zwei Typen von β-Adrenozeptoren spielen dabei eine Rolle: Über β1-Adrenozeptoren werden vor allem die Herzleistung (Herzkraft und -Frequenz) und direkt der Blutdruck angeregt. Eine Anregung der β2-Adrenozeptoren wirkt dagegen auf die glatten Muskeln der Bronchien, der Gebärmutter sowie der Blutgefäße. Eine Blockierung dieser Rezeptoren wirkt kontrahierend auf die glatte Muskulatur. So erhöht sich unter anderem auch der Tonus der Bronchialmuskulatur, was zu deren Verkrampfung führen kann. Das Asthma bronchiale stellt im Gegensatz zur COPD eine Kontraindikation für eine Therapie mit β2-wirksamen Betablockern dar.
Der β1-Adrenozeptor findet sich auch in der Niere, wo er die Ausschüttung des blutdrucksteigernden Enzyms Renin steuert. Wahrscheinlich ist das der Hauptgrund für die langfristige Wirksamkeit der Betablocker bei der Senkung des Blutdrucks. Hier sind die COPD so wie ein Asthma bronchiale mittlerweile keine Kontraindikationen mehr, da immer der Nettonutzen zu berücksichtigen ist.
Indikationen.
Bluthochdruck.
Bei der medikamentösen Therapie von arterieller Hypertonie werden Betablocker meist in Kombination mit anderen Antihypertensiva angewendet. Die Einstufung als ein Medikament der ersten Wahl wurde durch Studien in Frage gestellt. Nach den Leitlinien der Hypertoniebehandlung von 2008 gehören sie weiterhin zu den Medikamenten der ersten Wahl, da sie insbesondere bei Patienten mit koronarer Herzkrankheit und bei Herzinsuffizienz günstige Effekte haben. Nachteilig wirken sie sich jedoch aus auf das Risiko einer Gewichtszunahme, den Lipid- und den Glukosestoffwechsel. „Betablocker sollten daher vermieden werden bei Patienten mit metabolischem Syndrom oder seinen Komponenten, wie Bauchfettleibigkeit, hochnormalen oder erhöhten Plasmaglucosespiegeln und pathologischer Glucosetoleranz“ (Zitat Leitlinie).
Die Wirksamkeit von Betablockern zur Senkung des Blutdrucks ist zwar unbestritten, wie genau diese Senkung aber erreicht wird, ist nicht vollständig geklärt. Wahrscheinlich handelt es sich um eine Kombination von Wirkungen. So wird zu Beginn der Behandlung durch Minderung der Herzleistung eine Blutdrucksenkung erreicht. Langfristig spielen aber wohl auch die Hemmung der Sympathikusaktivität und die (damit über die β1-Wirkung am juxtaglomerulären Apparat der Niere vermittelte) Verminderung der Freisetzung von Renin eine Rolle.
Koronare Herzkrankheit und Herzinfarkt.
Durch die Betablocker wird eine Senkung der Herzfrequenz und damit längere Diastole bewirkt, was zu einer besseren Durchblutung der Herzkranzgefäße, welche nur während dieser Phase durchblutet werden, führt. Bei gleichbleibender physikalischer Herzleistung wird damit auch die Effizienz gesteigert und somit der Sauerstoffbedarf des Herzens gesenkt. Betablocker sind daher die wichtigsten Medikamente bei stabiler Angina Pectoris und werden – mit demselben Ziel – auch nach einem Herzinfarkt eingesetzt. Für beide Indikationen ist eine lebensverlängernde Wirkung von Betablockern eindeutig belegt.
Herzinsuffizienz.
Auch bei stabiler, chronischer Herzinsuffizienz belegen Studien eine Prognoseverbesserung durch Anwendung von Betablockern ab dem Stadium NYHA-II, bei Hypertonie und nach Herzinfarkt auch im Stadium NYHA-I. Hier steht die Minderung des Sympathikuseinflusses auf das Herz und die Ökonomisierung der Herzarbeit im Vordergrund, wobei der genaue Wirkmechanismus noch nicht geklärt ist. Wichtig ist bei der Behandlung der Herzinsuffizienz mit Betablockern, die Behandlung einschleichend zu gestalten, also mit niedrigen Dosen zu beginnen und die Dosis langsam zu steigern. Zugelassen zur Behandlung der Herzinsuffizienz sind die Betablocker Bisoprolol, Carvedilol, Metoprolol und Nebivolol.
Herzrhythmusstörungen.
Zur Behandlung tachykarder Herzrhythmusstörungen stehen verschiedene Klassen von Antiarrhythmika zur Verfügung. Betablocker werden daher auch als „Klasse II Antiarrhythmika“ bezeichnet. Im Gegensatz zu vielen anderen Antiarrhythmika ist die lebensverlängernde Wirkung der Betablocker nachgewiesen, sodass sie zu den wichtigsten Medikamenten der antiarrhythmischen Therapie gehören. Für die Wirksamkeit der Betablocker spielt ihre erregungshemmende Wirkung am Herzen die entscheidende Rolle.
Angststörungen und Lampenfieber.
Betablocker wie Propranolol werden ferner "off label" gegen die physischen Erscheinungen (z. B. Zittern), wie sie bei Angststörungen oder Lampenfieber auftreten, eingesetzt. Allerdings gibt es hier im direkten Gegensatz zu Benzodiazepinen oder Neuroleptika keinerlei psychische Remission, und positive Effekte sind nicht bei jedem Patienten wahrnehmbar. Auch kann der Einsatz von Betablockern aufgrund der Noradrenalinhemmung zu einer Verschlechterung des psychischen Zustands führen.
Benzodiazepin- und Alkoholentzug.
Als unterstützende medikamentöse Therapie, können Betablocker auch bei Benzodiazepin-, und Ethanolentzügen angewendet werden, wobei hier ebenfalls die Noradrenalinmodulation zu einer physischen Remission führen kann.
Weitere Indikationen.
Weitere Indikationen für Betablocker sind bzw. können sein:
Compliance.
Wichtig für die Wirksamkeit der Betablocker ist – wie bei anderen regelmäßig einzunehmenden Medikamenten – die Einnahmetreue (Compliance):
Bei einer Analyse der Compliance von etwa 31.500 Patienten, die einen Herzinfarkt mindestens 15 Monate überlebt hatten und denen unter anderem auch Betablocker verschrieben worden waren, wurde festgestellt, dass eine schlechte Einnahmetreue die Lebenserwartung senkt. Die Compliance wurde als gut beurteilt, wenn die Patienten mindestens 80 % der verordneten Medikamente einlösten, als mäßig, wenn sie 40–79 % einlösten. Die Mortalität der Patienten mit „mäßiger“ war im Vergleich zu denen mit „guter“ Compliance um 1 % (innerhalb von einem Jahr) bzw. 13 % (zwei Jahre) erhöht.
Kontraindikationen.
Wichtige relative und absolute Kontraindikationen, die grundsätzlich für alle Betablocker gelten, sind:
keine Kontraindikationen
Nebenwirkungen.
In der Regel sind Betablocker auch bei längerer Einnahme gut verträglich. Die bekannten Nebenwirkungen sind nach Absetzen des Medikaments oder Anpassung der Dosierung meist reversibel. Die wichtigsten Nebenwirkungen, die grundsätzlich für alle Betablocker gelten, sind: |
770 | 385814 | https://de.wikipedia.org/wiki?curid=770 | Bliss-Symbol | Bliss-Symbole sind eine von Charles K. Bliss in ihren Grundzügen in den 1940er Jahren entwickelte Pasigrafie, eine Sammlung von piktografischen und ideografischen Zeichen.
Jedes Zeichen steht für einen Begriff, und mehrere Symbole können kombiniert werden, um Sätze zu bilden oder Ideen auszudrücken.
Entstehung.
Charles Bliss war durch chinesische Schriftzeichen inspiriert, die es Sprechern unterschiedlicher Sprachen erlauben, miteinander zu kommunizieren. Über einen Zeitraum von 40 Jahren entwarf er sein konsequent logisch aufgebautes Kommunikationssystem einer Sonderschrift zur Unterstützung des gegenseitigen internationalen Verstehens und Verständnisses. Dieses grafische Medium sollte einen Beitrag zu besserer Zusammenarbeit und Verständigung auf internationaler Ebene zwischen Menschen verschiedener sprachlicher Herkunft leisten. Diese Absicht, einen Beitrag zur Verständigung zwischen Kulturen zu leisten, hat sich jedoch nicht erfüllt.
Nutzung.
Das Bliss-Symbol-System erhielt jedoch in einem ganz anderen Feld der Kommunikation seine Bedeutung und wurde damit weltweit bekannt. Es ist eines der ersten Systeme, die als Hilfsmittel im Rahmen der sonderpädagogischen Methode Unterstützte Kommunikation für Menschen eingesetzt wurden, die infolge von motorischen oder kognitiv bedingten Sprechstörungen nicht oder nur sehr eingeschränkt über die Lautsprache mit anderen kommunizieren können.
Seit seiner erstmaligen Verwendung 1971 im Ontario Crippled Children's Centre (Toronto, Kanada) erscheinen Bliss-Symbole als Möglichkeit der grafischen Darstellung von Kommunikationsinhalten auf den verschiedensten Arten von Kommunikationstafeln. Auch Computerprogramme und Programme für Sprachausgabegeräte bauen auf dem Bliss-Symbol-System auf.
Struktur.
Die Symbole sind im BCI-Standard (BCI = Blissymbolic Communication International) festgelegt, und werden aus knapp 120 Grundsymbolen („key symbols“) aufgebaut. Insgesamt werden knapp 4500 Symbole benutzt. Zur Kommunikation wird Bliss mit Hilfe von Symboltafeln eingesetzt. Der Benutzer kommuniziert, indem er der Reihe nach auf Bliss-Symbole zeigt (beispielsweise per elektronischer Auswahl). Der Kommunikationspartner liest die Bedeutungen der Symbole, die darüber in alphabetischer Schrift stehen. Erst vor kurzem wurde in Kanada ein Pilotprojekt zur Verwendung von Bliss im Internet gestartet. Bliss-Texte können nun als elektronische Post versendet werden.
Beispiele.
Beispielsatz.
Mit einem Beispiel soll hier die Funktionsweise der Bliss-Symbole veranschaulicht werden.
Fortbewegung.
Von dem Zeichen für Rad leiten sich andere Zeichen ab, wie: |
774 | 3596509 | https://de.wikipedia.org/wiki?curid=774 | Bundesstaat (föderaler Staat) | Als Bundesstaat wird ein Staat bezeichnet, der aus mehreren Teil- oder Gliedstaaten zusammengesetzt ist. Rechtlich besteht ein solcher Bundesstaat aus mehreren Staatsrechtssubjekten, das heißt politischen Ordnungen mit Staatsqualität, und vereint deshalb in der Regel verschiedene politische Ebenen in sich: eine Bundesebene und mindestens eine Ebene der Gliedstaaten. Damit unterscheidet sich der föderal organisierte Staat sowohl von einem locker gefügten Staatenbund als auch von einem zentralistischen Einheitsstaat.
Ein Bundesstaat ist demnach eine staatsrechtliche Verbindung von (nichtsouveränen oder zu teilsouveränen Gebilden degradierten) Staaten zu einem (souveränen) Gesamtstaat. Die Beziehungen zwischen diesem Bund und den Gliedstaaten und zwischen Letzteren untereinander sind staatsrechtlicher (nicht völkerrechtlicher) Art.
Im deutschen Verfassungsrecht ist der Begriff des Bundesstaates ein normativer Begriff und nicht vorgegeben (also nicht über der Rechtsordnung stehend).
Organisation.
Ein Staat oder Land kann zentralistisch oder föderativ "(bundesstaatlich)" organisiert sein. In diesem Sinne ist er entweder ein Einheitsstaat oder ein Bundesstaat (weitere Differenzierungen wie "unitarischer Bundesstaat" oder "föderaler" bzw. "kooperativer Bundesstaat" sind möglich, vgl. kooperativer Föderalismus). Ein traditionelles Beispiel für einen Einheitsstaat ist Frankreich. Dort verfügt allein die oberste, die nationale Ebene im Staatsaufbau über Souveränität und Staatlichkeit.
Im Gegensatz dazu besitzen föderale Systeme wie das der Vereinigten Staaten von Amerika oder der Bundesrepublik Deutschland neben einem souveränen Gesamtstaat – mit republikanischer Staatsform wird dieser häufig als "Bundesrepublik", ansonsten als föderale Republik bezeichnet – auch untergeordnete Einheiten mit staatlicher Qualität (Gliedstaaten/Bundesländer). Diese Gliedstaaten sind auf dem Gebiet ihrer staatlichen Zuständigkeit Teilstaaten. Sie haben das Recht, vieles selbstständig und ohne Einmischung der Bundesebene zu regeln, wobei dort angesiedelte Staatsorgane (vor allem "oberste Bundesorgane" wie das Bundesparlament oder oberste Bundesgerichte) ihnen – im hierarchischen Sinn – übergeordnet sind. Das Schulwesen in den USA und in Deutschland wird beispielsweise in den Gliedstaaten organisiert, während die nationale Ebene etwa die Verteidigung und Außenpolitik bestimmt.
In einem föderativen Staat besteht das Parlament typischerweise aus zwei Kammern. Die eine dient der direkten Volksvertretung und repräsentiert das Volk als Ganzes. Die andere vertritt grundsätzlich die Interessen der Gliedstaaten (Länderkammer).
Abgrenzung und Entwicklung.
Ein föderativer Staat oder "Föderation" (staatsrechtliche Staatenverbindung) ist nicht nur vom Einheitsstaat abzugrenzen, sondern ebenso vom Staatenbund (völkerrechtliche Staatenverbindung, ggf. "Konföderation"). Die Frage nach dem Sitz der Souveränität zur Abgrenzung staatlicher Organisationsverbände heißt: Bundesstaat oder Staatenbund? Dabei ist ein Staatenbund eine lose Verbindung von Einzelstaaten, die ihre Souveränität behalten, sodass die föderale Struktur ohne Preisgabe wesentlicher staatlicher Kompetenzen besteht. Der Staatenbund als solcher kann somit nur Entscheidungen treffen, wenn die Einzelstaaten diese gutheißen. Dementgegen sind die Gliedstaaten gegenüber dem Bundesstaat zur Bündnistreue verpflichtet.
Gegenüber einer Föderation fehlt den Landesteilen beispielsweise im Vereinigten Königreich, einem "Unionsstaat", wo an der Parlamentssouveränität festgehalten wird, die verfassungsrechtliche Sicherung der Autonomie. Man spricht hier von Devolution.
Deutschland.
In der deutschen Geschichte gilt der Deutsche Bund (1815–1866) als wichtigstes Beispiel für einen Staatenbund, der Norddeutsche Bund von 1867 bis 1871 hingegen war der erste deutsche Bundesstaat. Das Grundgesetz für die Bundesrepublik Deutschland spricht in Artikel 20 erstmals ausdrücklich von einem „Bundesstaat“ zur Verankerung des föderativen Prinzips.
Der Norddeutsche Bund entstand aus einem Verteidigungsbündnis Preußens mit weiteren Staaten. Die Regierungen einerseits und ein vom Volk gewähltes Gremium andererseits vereinbarten gemeinsam eine Verfassung für einen Bundesstaat. Diese Bundesverfassung trat am 1. Juli 1867 in Kraft. Diesem norddeutschen Bundesstaat traten zum 1. Januar 1871 die süddeutschen Staaten bei. Der gemeinsame Staat wurde in Deutsches Reich umbenannt (im Rückblick „Kaiserreich“ genannt).
Danach wurde der Bundesstaat zweimal erneuert: Nach dem Ersten Weltkrieg gab eine Nationalversammlung dem deutschen Staat die Weimarer Verfassung vom 11. August 1919. An ihrer Entstehung waren die Gliedstaaten nicht direkt beteiligt. Nach dem Zweiten Weltkrieg hingegen wählten die westzonalen Landtage den Parlamentarischen Rat. Die Länder der Ostzone bzw. der DDR traten der Bundesrepublik am 3. Oktober 1990 bei.
Die am 23. Mai 1949 in den drei westlichen Besatzungszonen gegründete Bundesrepublik bestand zunächst aus zwölf Ländern ("siehe auch" Berlin-Frage). Durch den Zusammenschluss der Länder Württemberg-Baden, Baden und Württemberg-Hohenzollern änderte sich die Zahl im Jahr 1952 auf zehn. 1957 kam durch Beitritt des Saarlandes ein elftes Bundesland hinzu. Aufgrund der durch Art. 4 Einigungsvertrag vorgenommenen „beitrittsbedingten“ Änderungen des Grundgesetzes am 3. Oktober 1990 bilden insgesamt 16 Bundesländer den gemeinsamen deutschen Staat.
Das Grundgesetz legt fest, welche Staatsaufgaben durch den Bundesstaat, welche durch die Länder und welche von beiden gemeinsam erledigt werden. Für die Zusammenarbeit mit der Bundesebene gibt es ein eigenes Bundesorgan, den Bundesrat. Dieser entscheidet über Bundesgesetze, die der Zustimmung durch die Länder bedürfen. Der Bundesrat arbeitet außerdem bei der Verwaltung des Bundes sowie in Angelegenheiten der Europäischen Union mit.
Österreich.
Österreich ist nach der Bundesverfassung von 1920 in der Fassung von 1929, die 1945 wieder in Kraft gesetzt wurde, eine föderale, parlamentarisch-demokratische Republik, bestehend aus neun Ländern.
Der Bundesrat als Vertretung der Länderinteressen hat nur in Fällen, in denen in die Rechte der Bundesländer eingegriffen wird, ein absolutes Vetorecht.
Schweiz.
Die Schweiz ist seit 1848 ein Bundesstaat. Die Kantone sind souverän, soweit ihre Souveränität nicht durch die Bundesverfassung beschränkt ist; sie üben alle Rechte aus, die nicht dem Bund übertragen sind.
Listen.
Grenzfälle.
Die folgenden Staaten weisen zwar eine föderalistische Struktur auf, die Befugnisse der Gliedstaaten sind aber so gering ausgestaltet, dass sie weder eindeutig als Bundesstaaten noch als Einheitsstaaten eingestuft werden können.
In Italien, Spanien und dem Vereinigten Königreich Großbritannien und Nordirland ist die "Devolution" hin zu den Regionen bzw. Landesteilen so stark ausgeprägt, dass sie ebenfalls eine „Kreuzung aus föderalen und einheitsstaatlichen Elementen“ darstellen. Spanien ist dem kanadischen Politikwissenschaftler Ronald L. Watts zufolge „praktisch ein Bundesstaat“ bzw. – wie Südafrika – eine „Quasi-Föderation“. |
775 | 2365622 | https://de.wikipedia.org/wiki?curid=775 | BID-Bereich | Die verwandten Bereiche der Bibliotheks-, Informations- und Dokumentationswissenschaft (BID) beschäftigen sich alle
im weitesten Sinne mit Information und Wissen. In der Dokumentationswissenschaft geht es vor allem um die Sammlung und Verarbeitung von Informationen zu deren Auffindbarmachung. Auch die Bibliothekswissenschaft widmet sich dieser Aufgabe, jedoch bereitet sie die Ergebnisse für die Nutzung in Bibliotheken auf. Das vielfältige Themenspektrum der Informationswissenschaft beinhaltet einen Schwerpunkt auf der allgemeinen Analyse von Informationsprozessen und weist eine größere Nähe zur Informatik auf als die anderen beiden Disziplinen. Während sich unter anderem im englischsprachigen Ausland die Library and Information Science eher als zusammenhängendes Sachgebiet versteht, ist in Deutschland noch immer eine Trennung in diese drei Bereiche festzustellen.
Weitere im Informationsbereich tätige Einrichtungen sind Nachrichten- und Presseagenturen und die Presse. Anstatt für die Informationssuche selbst diese Einrichtungen in Anspruch zu nehmen, kann man auch durch einen so genannten Informationsbroker oder Pressedienste suchen lassen.
Einrichtungen des BID-Bereiches.
Viele Facheinrichtungen unterhalten gleichzeitig Dokumentationszentrum, Bibliothek und Archiv und bieten ihre Bibliographien als Datenbank an.
Ob es zu einem Thema ein eigenes Dokumentationszentrum gibt, hängt vor allem davon ab, ob sich ein Geldgeber dafür findet. Dies wiederum wird u. a. von der wissenschaftlichen Relevanz des Themas und der Möglichkeit einer Abgrenzung gegenüber anderen Disziplinen bestimmt.
Vereinigungen.
"Vereinigungen aus dem Bibliothekarischen Bereich sind unter Bibliothekarische Vereinigungen zusammengefasst."
Die Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e. V. (DGI, bis 1999 DGD) ist eine Interessenvereinigung von Berufstätigen und Wissenschaftlern im Bereich Informations- und Dokumentationswissenschaft. Vergleichbare Vereinigungen sind die Österreichische Gesellschaft für Dokumentation und Information (ÖGDI) und die Schweizerische Vereinigung für Dokumentation (SVD/ASD).
Darüber hinaus gibt es Fachgesellschaften im Bereich der Informations- und Bibliothekswissenschaft und in verwandten Fachdisziplinen, z. B.:
Studium und Lehre.
Das Fach Bibliotheks- und Informationswissenschaft wird an deutschen Universitäten gelehrt und beforscht. Aktuell existieren an sieben Universitäten insgesamt zwölf Lehrstühle. Aufgrund der geringen Anzahl an Standorten und Lehrstühlen gilt die Bibliotheks- und Informationswissenschaft in der deutschen Hochschulpolitik als Kleines Fach.
Das Fach ist an folgenden Universitäten vertreten:
Eine Auflistung von Studiengängen aus dem BID-Bereich findet sich beispielsweise unter folgender Adresse: |
777 | 709919 | https://de.wikipedia.org/wiki?curid=777 | BMI | BMI steht für:
BMi steht für:
bmi steht für:
Siehe auch: |
778 | 237418 | https://de.wikipedia.org/wiki?curid=778 | Baden (Land) | Baden ist der westliche Teil des deutschen Bundeslandes Baden-Württemberg. Er ist aus dem Großherzogtum Baden (1806–1918) und der Republik Baden (1918–1945) hervorgegangen, deren Tradition wiederum auf die zum Heiligen Römischen Reich gehörende, im Hochmittelalter entstandene Markgrafschaft Baden zurückgeht.
Im Mittelalter und der Frühen Neuzeit existierten in Südwestdeutschland mehrere Fürstentümer mit dem Namensbestandteil Baden, die alle von verschiedenen Linien des gleichnamigen Hauses regiert wurden. Auf Betreiben Napoléon Bonapartes entstand bis 1806 unter deutlichem Gebietszuwachs das Großherzogtum Baden als souveräner Staat mit Karlsruhe als Hauptstadt. Zunächst Mitglied des französisch dominierten Rheinbunds, dann ab 1815 des Deutschen Bundes, wurde Baden mit der Reichsgründung 1871 zum Bundesstaat des Deutschen Reiches. Bis zur Novemberrevolution von 1918 war Baden eine konstitutionelle Monarchie, von 1918 bis 1933 eine demokratische Republik und von 1933 bis 1945 ein gleichgeschalteter Teil des NS-Staates. Seine Grenzen blieben bis zum Ende des Zweiten Weltkriegs bestehen.
Infolge der alliierten Besetzung Deutschlands fiel der Norden Badens 1945 an die amerikanische, der Süden dagegen an die französische Besatzungszone. In letzterer wurde 1947 ein ebenfalls Baden genanntes Land mit der Hauptstadt Freiburg im Breisgau ins Leben gerufen, das aber nur die Hälfte des historischen Territoriums umfasste. Nordbaden war in dieser Zeit Teil von Württemberg-Baden. 1952 gingen Baden, Württemberg-Baden und Württemberg-Hohenzollern im neu geschaffenen Bundesland Baden-Württemberg auf.
Obwohl der heutige Zuschnitt der baden-württembergischen Regierungsbezirke und Landkreise von den historischen Grenzen zwischen den ehemals eigenständigen Landesteilen abweicht, ist der Name Baden nach wie vor weithin als Regionalbezeichnung für das Gebiet des früheren Staates im Gebrauch. Zudem spiegelt sich die historische Abgrenzung von Württemberg bis heute in zahlreichen Organisationen wider, etwa in Sportverbänden, Kirchen und Sozialverbänden.
Bevölkerung und Fläche.
Baden hatte im Mai 1939 2.518.103 Einwohner auf 15.070 km².
Geographische Lage.
Baden liegt im Südwesten Deutschlands. Zentrale Landschaft Badens mit den meisten großen Städten ist die südöstliche Oberrheinische Tiefebene. Im Westen und Süden von Rhein und Bodensee begrenzt, erstreckt sich das Land rechtsrheinisch vom Linzgau über Lörrach, Freiburg und Karlsruhe bis Mannheim und weiter bis an Main und Tauber.
Es grenzt im Westen ans Elsass, im Süden an die Schweiz, im Nordwesten an die Pfalz, im Norden an Hessen und im Nordosten an Bayern. Die östliche Grenze nach Württemberg verläuft durch Kraichgau und Schwarzwald; von dort bis zum Rhein war Baden in der Mitte teilweise nur 30 Kilometer breit. Die engste Stelle („Wespentaille“) betrug nur 17,2 Kilometer (Abstand von der württembergischen Grenze im Bereich der Gemarkung Gaggenau-Michelbach bis zum Rhein).
Städte und Regionen.
Karlsruhe war ab 1715 Residenzstadt, zunächst der Markgrafen von Baden-Durlach, dann ab 1771 der vereinigten Markgrafschaften Baden-Durlach und Baden-Baden und später der Großherzöge von Baden sowie bis zum Ende des Zweiten Weltkriegs Hauptstadt der 1918 gegründeten "(Demokratischen) Republik Baden". Die Titel „Residenzstadt“ bzw. „Hauptstadt“ trug neben Karlsruhe auch damals Badens größte Stadt Mannheim.
"Großstädte" auf badischem Gebiet sind (von Nord nach Süd): Mannheim, Heidelberg, Karlsruhe, Pforzheim und Freiburg im Breisgau.
Größere "Mittelstädte" in Baden sind (von Nord nach Süd): Weinheim, Sinsheim, Mosbach, Bruchsal, Ettlingen, Rastatt, Baden-Baden, Kehl, Offenburg, Lahr, Emmendingen, Villingen-Schwenningen (badisch jedoch nur der westliche Stadtteil Villingen), Lörrach, Weil am Rhein, Rheinfelden, Singen (Hohentwiel), Radolfzell am Bodensee und Konstanz.
"Landschaften in Baden" (geordnet von Norden nach Süden):
Geschichte.
Markgrafschaft.
Der Name stammt von den "Markgrafen von Baden", einer im 12. Jahrhundert etablierten Adelsfamilie, die mit den Herzögen von Zähringen stammverwandt war. Baden war nie eine Mark; der Markgrafentitel war ursprünglich verbunden mit der Mark Verona, die ebenfalls von den Zähringern regiert wurde. Sie übertrugen den Titel und nannten sich fortan "Markgrafen von Baden". Hermann II. war der erste Zähringer, der sich nach dem neuen Stammsitz, der Burg Hohenbaden hoch über den Thermalbädern der damaligen Stadt Baden (heute Baden-Baden), Markgraf von Baden nannte.
Von 1535 bis 1771 war die Herrschaft in die Linien Baden-Durlach (evangelisch) und Baden-Baden (katholisch) geteilt. Markgraf Ludwig Wilhelm von Baden-Baden, der so genannte „Türkenlouis“ (von 1677 bis 1707), machte Rastatt zu seiner Residenz. Karl III. Wilhelm von Baden-Durlach wählte das 1715 erbaute Karlsruhe als neue Residenz. 1771 erbte Karl Friedrich von Baden-Durlach die Besitzungen der erloschenen Linie Baden-Baden, wodurch die beiden Markgrafschaften wieder vereinigt wurden.
Nahezu 300 Jahre lang (vom Beginn des 16. Jahrhunderts bis zu Beginn des 19. Jahrhunderts) gehörte die Markgrafschaft Baden dem Schwäbischen Reichskreis an und hatte hier sogar eine führende Position inne.
Kurfürstentum und Großherzogtum Baden in der napoleonischen Zeit.
Das moderne Land Baden entstand zu Beginn des 19. Jahrhunderts unter der Protektion Napoleons und durch die geschickte Diplomatie des badischen Gesandten Sigismund Freiherr von Reitzenstein, der als der eigentliche Schöpfer des modernen Baden gilt.
In der Folge der napoleonischen Neuordnungen erreichte Baden in den Jahren 1803 bis 1810 erhebliche Gebietsgewinne – rechtsrheinische Territorien vieler kleiner Fürstentümer, geistliche Gebiete, Gebiete Vorderösterreichs und Reichsstädte – von einem Vielfachen seiner bisherigen Größe:
Mit den Neuerwerbungen kam Baden, das bis dahin über keine eigene höhere Bildungsstätte verfügt hatte, auch in den Besitz der beiden Universitäten in Freiburg im Breisgau und Heidelberg. Mit der Ausweitung des Territoriums ging außerdem eine Rangerhöhung des Markgrafen einher. Im Reichsdeputationshauptschluss erhielt Karl Friedrich eine der vier freigewordenen Kurwürden. Bis zur Errichtung des Rheinbunds war Baden somit kurzzeitig das Kurfürstentum Baden. Im Pressburger Frieden erhielt Karl Friedrich innerhalb des Reiches die volle Souveränität in gleichem Umfang wie bis dahin nur Preußen und Österreich. Mit dem Beitritt zum Rheinbund schließlich wurde er zum Ausgleich für die damit hinfällige Kurwürde zum Großherzog erhoben. Damit war Baden ein souveräner Staat und hatte diejenige territoriale Ausdehnung, die im Wesentlichen bis 1945 Bestand haben sollte.
Das badische Rheinbundkontingent kämpfte anschließend an der Seite Frankreichs gegen Preußen, auf der Iberischen Halbinsel, gegen Österreich und im Russlandfeldzug 1812 mit. So wurde 1812 der Rückzug Napoleons aus Moskau über die Beresina von badischen sowie schweizerischen Truppen gedeckt. Von den 7000 Badenern in der Grande Armée kehrten nur wenige hundert zurück. Auch in der Völkerschlacht bei Leipzig stand Baden noch an der Seite Napoleons. Trotz Napoleons Niederlage bei Leipzig erreichte Großherzog Karl auf dem Wiener Kongress die Bestätigung seiner Neuerwerbungen, womit der Bestand des Landes als Mitglied des Deutschen Bundes gesichert war. 1819 erhielt Baden in Abwicklung der Wiener Kongressakte im Frankfurter Territorialrezess außerdem noch die inmitten seines Territoriums liegende Grafschaft Hohengeroldseck.
Großherzogtum Baden im 19. Jahrhundert.
Im 19. Jahrhundert konnten sich in Baden Demokratie und Parlamentarismus freier entwickeln als anderswo. 1818 erhielt das Großherzogtum eine für damalige Verhältnisse sehr fortschrittliche liberale Verfassung, die Baden zur konstitutionellen Monarchie machte. Sie sah mit der Badischen Ständeversammlung ein Zweikammernparlament vor, dessen zweite Kammer große politische Bedeutung erhielt. Diese wurde nicht ständisch gegliedert, sondern mit nach Bezirken gewählten Vertretern besetzt. Die Debatten wurden trotz der Zensur im vollen Wortlaut veröffentlicht, was eine starke Teilnahme der Bürger an politischen Fragen ermöglichte. Dies führte zu wiederholten Konflikten mit den konservativen Kräften im Deutschen Bund unter Führung des österreichischen Staatskanzlers Klemens Metternich, aber auch mit den eher konservativen Großherzögen Karl und Ludwig. Der liberale Großherzog Leopold gab 1832 den Forderungen nach unbeschränkter Pressefreiheit nach, musste das Gesetz aber auf Druck Metternichs noch im selben Jahr wieder zurücknehmen.
1835 trat Baden dem Deutschen Zollverein bei und erlebte in der Folge einen wirtschaftlichen Aufschwung. Große Infrastrukturprojekte wurden mit der Rheinkorrektur nach den Plänen von Johann Gottfried Tulla 1815 und dem Eisenbahnbau seit 1840 begonnen.
Nach dem Tod des liberalen Innenministers Ludwig Georg von Winter 1838 gewann Außenminister Blittersdorf maßgeblichen Einfluss auf die badische Politik. Erst jetzt konnte sich die seit 1833 im Deutschen Bund nach dem Hambacher Fest und dem Frankfurter Wachensturm vorherrschende konservativ-reaktionäre Strömung auch im Großherzogtum voll auswirken. Blittersdorf versuchte die Einflussmöglichkeiten der liberalen Zweiten Kammer zu beschneiden. Der Druck der Regierung erzeugte eine Politisierung der Bevölkerung und provozierte eine politische Lagerbildung, die aufgrund der größeren Freiheitsrechte ein höheres Unzufriedenheitspotential entstehen ließ als in vielen Staaten mit reaktionärerem Regierungssystem.
1843 organisierte der Abgeordnete Friedrich Daniel Bassermann im Rahmen des "Urlaubsstreits", bei dem die badische Regierung Beamten, die für die Opposition in die Zweite Kammer gewählt wurden, den Urlaub und damit die Wahrnehmung ihres Mandates verweigern wollte, die Ablehnung des Regierungsbudgets und erzwang mit dem ersten parlamentarischen Misstrauensantrag der deutschen Geschichte den Rücktritt des konservativen Ministeriums unter Blittersdorf. Als in den Wahlen von 1845/46 die Opposition eine klare Mehrheit erzielen konnte und die politische Stimmung durch den Streit um den Deutschkatholizismus noch verschärft wurde, berief Großherzog Leopold den Liberalen Johann Baptist Bekk zum Innenminister und Staatsminister.
Missernten und wirtschaftliche Schwierigkeiten in den Jahren 1846/47 verursachten zusätzlich soziale Spannungen, die die Unzufriedenheit über die fehlenden Mitbestimmungsrechte und die Zersplitterung Deutschlands noch steigerten.
Eine Volksversammlung in Offenburg, die am 12. September 1847 einen Forderungskatalog verabschiedete, war ein weiterer Auslöser für die Badische Revolution von 1848 und die Märzrevolution in den Staaten des Deutschen Bundes. Am 12. Februar 1848 forderte Bassermann in der Zweiten Kammer der Ständeversammlung eine vom Volk gewählte Vertretung beim Bundestag in Frankfurt am Main. Diese Forderung führte über die Heidelberger Versammlung und das Vorparlament schließlich zum ersten frei gewählten Parlament für Deutschland, der Frankfurter Nationalversammlung.
Ein erster republikanischer Umsturzversuch durch Friedrich Hecker, Gustav Struve und Georg Herwegh wurde noch von Bundestruppen und ein zweiter Aufstand um Gustav Struve durch badisches Militär niedergeschlagen. Nach dem Scheitern der Frankfurter Nationalversammlung schloss sich im Mai 1849 im Rahmen der Reichsverfassungskampagne in Baden auch das Militär den Republikanern an. Mit der Flucht des Großherzogs Leopold, der Bildung einer provisorischen Regierung und Neuwahlen wurde Baden faktisch Republik.
Durch vor allem preußisches sowie württembergisches Militär (Leopold kehrte in preußischer Uniform zurück) wurden die Badische Republik und die verbündete Pfälzische Republik schließlich mit Gewalt niedergeworfen. Im Juli mussten sich die letzten badischen Truppen nach dreiwöchiger Einschließung in der Festung Rastatt ergeben. In der Folge kam es zu Verhaftungen und 23 standrechtlichen Erschießungen. Auch die Auswanderung von ca. 80.000 Badenern (5 % der Bevölkerung), vor allem nach Amerika, kann neben der wirtschaftlichen Not der 1850er Jahre auf die Niederlage der Revolution zurückgeführt werden. Baden blieb bis 1851 durch die Preußische Armee besetzt.
Trotz Besatzung und der Berufung eines konservativen Ministeriums unter Friedrich Adolf Klüber fiel die Gegenreaktion im Bereich der Politik insgesamt vergleichsweise milde aus. Baden blieb ein Verfassungsstaat und die Bürokratie bis auf wenige Ausnahmen in den Händen der alten Beamtenschaft.
Die Streitigkeiten des Großherzogtums mit der katholischen Kirche im seit 1853 mit Unterbrechungen andauernden badischen Kulturkampf führten 1860 zur Bildung einer liberalen Regierung unter maßgeblicher Beteiligung von Abgeordneten der Zweiten Kammer unter der Führung von Anton von Stabel. Maßgeblich geprägt von Franz von Roggenbach, leitete die Regierung einen liberalen Kurswechsel ein und näherte ihre Arbeitsweise der eines demokratischen Parlaments an, indem sie Politik gemeinsam mit der Mehrheit der Zweiten Kammer der Ständeversammlung gestaltete. Mit der Errichtung von Verwaltungsgerichten durch Gesetz vom 5. Oktober 1863 war Baden das erste der deutschen Länder, das die Verwaltungsgerichtsbarkeit einführte.
Als einer der ersten deutschen Staaten gewährte Baden 1862 die fast vollständige formelle Gleichstellung der 24 000 badischen Juden mit Ausnahme von Armenpflege und Allmendenutzung, ein Jahr nach Hamburg. Schon 1868 wurde Moritz Ellstätter als badischer Finanzminister der erste Jude in Deutschland auf einem Ministerposten.
Ebenfalls 1862 wurde die Gewerbefreiheit, die Aufhebung der Zunftordnung und die bedingte Niederlassungsfreiheit verkündet.
Baden im Kaiserreich.
1871 trat Baden dem Deutschen Reich bei, an dessen Gründung Großherzog Friedrich I. maßgeblich beteiligt war: Nach Wilhelms Ausrufung zum Deutschen Kaiser gab der Großherzog im Spiegelsaal des Versailler Schlosses das erste Hurra auf den Kaiser aus. Im Deutschen Kaiserreich war Baden eine Hochburg der Liberalen und der Zentrumspartei. Nach der Niederlage des Kaiserreichs im Ersten Weltkrieg dankte der letzte Großherzog Friedrich II. am 22. November 1918 ab. Baden wurde Republik.
Mit der 70-kV-Leitung Mülhausen–Freiburg wurde 1913 eine der ersten Hochspannungsfreileitungen des Landes errichtet.
Republik Baden 1918–1945.
Am 8. November kam es zur Bildung von Soldatenräten in Lahr und Offenburg, einen Tag später formierten sich auch in Mannheim und Karlsruhe Arbeiter- und Soldatenräte, in Karlsruhe und Mannheim konstituierten sich Wohlfahrtsausschüsse. Der Karlsruher Wohlfahrtsausschuss und der dortige Soldatenrat bildeten am 10. November aus Parteienvertretern eine provisorische Regierung, welche die Regierungsgewalt übernahm. Dies wurde am 11. November durch eine Versammlung der badischen Arbeiter- und Soldatenräte bestätigt.
Die provisorische Regierung proklamierte am 14. November die "Freie Volksrepublik Baden" und setzte den Wahltermin für eine verfassunggebende Landesversammlung auf den 5. Januar 1919 fest.
Am 22. November 1918 verzichtete der Großherzog endgültig auf den Thron.
Am 5. Januar 1919 erfolgte die Wahl zur badischen verfassunggebenden Nationalversammlung, die auf den 15. Januar zu ihrer konstituierenden Sitzung einberufen wurde.
Am 21. März 1919 beschloss die badische "Nationalversammlung" einstimmig die neue badische Verfassung, die am 13. April in einer Volksabstimmung angenommen wurde. Der Landtag (= bisherige Nationalversammlung) bildete Anfang April 1919 eine Regierung aus den Parteien der Weimarer Koalition (Zentrum, SPD, DDP) die die Republik Baden bis 21. November 1929 regierte. Nach der Landtagswahl vom Oktober 1929 führten Zentrum und SPD die Regierung ohne die DDP weiter. Im November 1930 wurde die Basis der Regierungskoalition durch den Eintritt der DVP verbreitert. Im Streit um das Badische Konkordat verließ Ende November 1932 die SPD die Koalition.
Mit dem ersten Gleichschaltungsgesetz wurden die Länder zu Verwaltungseinheiten des Einheitsstaates. Am 8. März 1933 setzte der Reichsminister des Innern Robert Wagner (NSDAP) als Reichskommissar ein, die Landesregierung wurde abgesetzt und der Landtag durch einen ernannten Landtag ersetzt. Durch ein "Zweites Gesetz zur Gleichschaltung der Länder mit dem Reich („Reichsstatthaltergesetz“; „Altes Reichsstatthaltergesetz“) vom 7. April 1933" wurde das Amt des Staatspräsidenten aufgehoben und am 5. Mai 1933 wurde Wagner zum Reichsstatthalter für Baden ernannt.
Nachkriegszeit.
Nach dem Zweiten Weltkrieg wurde Baden durch eine Besatzungsgrenze geteilt.
Aufgehen im Südweststaat.
→ "Hinweis:" Die historischen Abläufe finden sich ausführlich auch im Abschnitt Die Entstehung Baden-Württembergs im Artikel "Württemberg-Hohenzollern".
Die Situation der durch die Besatzungszonen vorgegebenen Ländergrenzen wurde von einigen als unbefriedigend empfunden. Auch die Väter und Mütter des Grundgesetzes sahen den Zustand mit drei Bundesländern als Provisorium an, das nicht dauerhaft bestehen konnte.
So enthielt das Grundgesetz in Artikel 118 die Bestimmung:
"Die Neugliederung in dem die Länder Baden, Württemberg-Baden und Württemberg-Hohenzollern umfassenden Gebiete kann abweichend von den Vorschriften des Artikels 29 durch Vereinbarung der beteiligten Länder erfolgen. Kommt eine Vereinbarung nicht zustande, so wird die Neugliederung durch Bundesgesetz geregelt, das eine Volksbefragung vorsehen muss."
Damit wurde deutlich gemacht, dass eine Neugliederung stattfinden musste, auch wenn weder zeitliche Vorgaben gemacht wurden noch ein Vorschlag vorgelegt wurde, wie eine Lösung aussehen könnte.
Infolgedessen kamen erneut Überlegungen zur Gründung eines „Südweststaats“ aus den alten Ländern Baden, Württemberg und den Hohenzollernschen Landen auf. In Mittel- und Südbaden gab es hingegen viele, die im Falle eines Zusammenschlusses eine Dominanz des neuen Bundeslandes durch Württemberg befürchteten. Die Regierung des Landes Baden, das zur französischen Besatzungszone gehörte und in der 1947 verabschiedeten Verfassung die amtliche Bezeichnung „Freistaat Baden“ gewählt hatte, kämpfte für eine Wiederherstellung Badens in seinen historischen Grenzen. „Vom See bis an des Maines Strand die Stimme dir mein Badnerland“ war auf den Wahlplakaten von 1951 zu lesen.
Entscheidend war der Abstimmungsmodus. Durch eine Probeabstimmung wusste man, dass in Nordbaden nur eine dünne Mehrheit für den Südweststaat zu erwarten war, sich durch die starke Ablehnung in Südbaden jedoch eine gesamtbadische Ablehnung ergeben würde. Deshalb plädierten die Befürworter des Südweststaats für eine Auszählung nach Stimmbezirken, die Gegner forderten vergeblich eine Auszählung nach den alten Ländern. Das 1951 neu gegründete Bundesverfassungsgericht, das seinen Sitz in der ehemaligen badischen Residenzstadt Karlsruhe hat, konnte sich bei Stimmengleichheit nicht auf eine Haltung gegen die Modalitäten der Volksabstimmung (Mehrheit in drei von vier Abstimmungsbezirken) festlegen.
Bei der Volksabstimmung unterlagen die Befürworter eines selbstständigen Baden. Zwar votierten 52 % aller abgegebenen Stimmen im Vorkriegsbaden für die Wiederherstellung des Landes Baden; entscheidend war jedoch das Abstimmungsverhalten des bevölkerungsreichen Nordbaden, wo 57 % für den „Südweststaat“ votierten. Insbesondere der Stadt- und Landkreis Pforzheim sowie Regionen der alten Kurpfalz wie Mosbach, Sinsheim, Mannheim und Heidelberg, aber auch der Kreis Überlingen waren gegen Baden. Für die Vereinigung stimmte auch die Bevölkerung im Landesbezirk (Nord-)Württemberg und in Württemberg-Hohenzollern. Durch die Mehrheiten in drei von vier Teilgebieten wurde die Vereinigung zum „Südweststaat“ beschlossen, die 1952 erfolgte.
„Die endgültige Entscheidung wurde von den betroffenen Bevölkerungen selbst in einer Volksabstimmung gefällt, deren Gültigkeit die südbadische Regierung bestritt, die aus vor allem konfessionellen Gründen Hauptgegner des Südweststaates war. Sie befürchtete den Einfluß, den der württembergische Protestantismus in dem neuen Staat gewinnen könnte, während Südbaden mit seinen 70 % Katholiken unter einem ziemlich klerikal ausgerichteten Regime lebte.“
Aufgrund einer Klage des Heimatbundes Baden entschied das Bundesverfassungsgericht 1956, dass die badische Bevölkerung nochmals abstimmen dürfe, denn ihr Wille bei der Abstimmung 1951 sei durch die Trennung des Landes Baden nach 1945 „überspielt“ worden. Da die Abstimmung vor allem von Kurt Georg Kiesinger immer wieder verschleppt wurde, bedurfte es 1969 einer erneuten Entscheidung des Bundesverfassungsgerichtes, welches die Abstimmung bis spätestens 30. Juni 1970 anordnete. So kam es erst 1970 nochmals zu einer Volksabstimmung, an der sich diesmal die Württemberger nicht beteiligen durften. Den Zeitläufen entsprechend waren nur noch wenige für die Wiederherstellung eines historischen Landes zu begeistern; die überwältigende Mehrheit (81,9 %) der Bevölkerung von Baden stimmte am 7. Juni 1970 für den Verbleib in Baden-Württemberg.
Grenzen im Land Baden-Württemberg.
Die 1952 gebildeten Regierungsbezirke Nordbaden und Südbaden griffen die Grenzen des alten Landes Baden wieder auf: Im Norden an Hessen und Bayern grenzend, im Süden am Bodensee nur 30 km entfernt von Bayern und in der Mitte teilweise nur 30 km, an der engsten Stelle gar nur 17,2 km schmal, fasste die Ostgrenze des Landes das Territorium von Württemberg sichelartig ein.
Mit der Kreisreform, die zum 1. Januar 1973 vollzogen wurde, wurden die historischen Grenzen der Regierungsbezirke aufgehoben und die Namen der Landesteile verschwanden. Die Gebiete aller vier Regierungsbezirke Freiburg, Karlsruhe, Stuttgart und Tübingen wurden hauptsächlich nach geografischer Zweckmäßigkeit neu abgegrenzt, aber auch mit der politischen Absicht, die drei ehemaligen Landesteile miteinander zu verzahnen und damit auf lange Sicht die Einheit des Landes zu stärken. Dabei verschwanden die alten Grenzen auf der Verwaltungsebene endgültig: Der ehedem württembergische Teil des Schwarzwalds gehört seitdem zu den Regierungsbezirken Karlsruhe beziehungsweise Freiburg und ehemals badische Kreise gehören jetzt zu den Regierungsbezirken Stuttgart bzw. Tübingen.
Der Raum, für den das Oberlandesgericht Karlsruhe zuständig ist, deckt das Land Baden hingegen noch besser ab, auch wenn die Grenzen an die neuen Kreise angepasst worden sind.
Wappen.
Das Stammwappen Badens ist ein roter Schrägbalken auf gelbem (goldenem) Grund. Im Laufe der Geschichte des Landes wurden weitere Bestandteile, wie etwa Greife oder eine Krone, Teile des Wappens.
Baden im Land Baden-Württemberg.
Obwohl die heutigen Regierungsbezirke nicht mehr den alten Landesgrenzen entsprechen und offiziell nur nach dem Sitz des Regierungspräsidiums benannt sind, werden sie landläufig oft noch als Nord- bzw. Südbaden bezeichnet. Andererseits fühlen sich viele Bewohner von Orten, die heute zu den Regierungsbezirken Tübingen oder Stuttgart gehören (etwa am Bodensee), weiterhin landsmannschaftlich und traditionell als „badisch“. Die alte Grenzziehung ist im Gebietsumfang der Evangelischen Landeskirche in Baden fast exakt erhalten. Die Einteilung des katholischen Erzbistums Freiburg entspricht noch weitgehend den alten Grenzen, deckt darüber hinaus jedoch noch die so genannten Hohenzollernschen Lande mit ab. Die "alten Grenzen des Landes Baden" spiegeln sich auch noch darin wider, dass es zwei eigenständige badische Sportbünde (Badischer Sportbund Nord und Badischer Sportbund Freiburg), sowie zahlreiche eigenständige badische Sportfachverbände (z. B. Badischer Fußballverband (im Norden), Südbadischer Fußball-Verband und Badischer Turner-Bund) und eine eigenständige Evangelische Landeskirche in Baden gibt. Auch andere Verbände sind noch nach früheren Zugehörigkeiten getrennt. In der Organisation der Justiz haben sich die ehemaligen Grenzen ebenfalls erhalten. Manche Medien orientieren sich noch immer an den alten Grenzen von Baden und Württemberg: Zum Beispiel veranstaltet der SWR Hörfunk-Regionalprogramme wie „Baden Radio“ oder „Radio Südbaden“ im Programm SWR4 Baden-Württemberg oder auch der private Radiosender Radio Regenbogen. Ein starkes Regionalgefühl ist auch heute noch vorhanden oder sogar stärker geworden. Dies lässt sich auch an der Rolle des Badnerlieds erkennen, einer der beliebtesten Regionalhymnen in Süddeutschland überhaupt, welche ab Ende des 19. Jahrhunderts belegt ist.
Hintergründe einer eigenständigen badischen regionalen Identität.
Entstehung eines badischen Sonderbewusstseins.
Das Bewusstsein einer eigenständigen badischen Lebensart und regionalen Identität, die sich mit Redensarten wie „Schwôbe schaffe, Badner denke“ von Württemberg absetzt, ist erst seit dem späten 19. Jahrhundert ansatzweise zu beobachten. Mit Ethnizität wie auch Identitätsbildung geht grundsätzlich eine Abgrenzung einher, für Badener erfolgt diese bevorzugt gegenüber „Schwaben“ (in Württemberg), obwohl ethnisch und sprachgeschichtlich beide Regionen eine Einheit bilden, die geschichtlich zunächst im Herzogtum Alemannia, danach im Herzogtum Schwaben, im Schwäbischen Bund und im Schwäbischen Reichskreis bis 1806 deutlich ausgeprägt ist. Die oft ideologisch überhöhte Identitätssuche und erschwerte Abgrenzung gegenüber dem Ähnlichen lässt sich auch darauf zurückführen, dass beide Staaten, Württemberg und Baden, eigentlich napoleonische Schöpfungen sind, deren Monarchen die Identifikation eines Großteils der Bevölkerung mit den neuen Staatsgebilden erst erzeugen mussten. Der von Johann Peter Hebel 1803 initiierte Alemannendiskurs fungierte als ideologische Klammer des neugeschaffenen Großherzogtums Baden.
Für die andauernde Wahrnehmung von Unterschieden und lokalen Rivalitäten gibt es weitere historische Gründe. Die Konfession übte ab der Reformation eine besondere Prägekraft aus, da Württemberg pietistisch wurde und das spätere Land Südbaden katholisch war. Das Übergewicht der als „vorwiegend asketische Protestanten wahrgenommenen und als ungemein tüchtig (‚schaffig‘) eingestuften ‚Schwaben‘“ wurde und wird als bedrohlich wahrgenommen. Dabei zeigt sich aber auch eine Übergeneralisierung des badischen Württembergbildes auf alle Schwaben, da zum Beispiel das stark katholisch geprägte Oberschwaben zum „pietistischen Asketentum“ nicht passt. Dazu kam vor allem seit dem 19. Jahrhundert die unterschiedliche Entwicklung im wirtschaftlichen, kulturellen und politischen Bereich. Von nachhaltiger Bedeutung haben sich auch die unterschiedlichen Erbsitten erwiesen. So kannte Altwürttemberg fast ausschließlich die Realteilung, also die Aufteilung des gesamten Erbes zu gleichen Teilen unter allen Kindern. In anderen Teilen des Landes, in Hohenlohe, im Hochschwarzwald oder in Oberschwaben, bestand demgegenüber das Anerbenrecht. Hier ging der Besitz geschlossen an einen Erben über. Dies unterstützte in Altwürttemberg Eigenschaften wie Sparsamkeit und Fleiß.
Baden, nicht Württemberg, galt noch im 19. Jahrhundert als Musterländle und hatte naturräumlich durch die Oberrheinebene mit dem wärmsten Klima Deutschlands, mit fruchtbaren vulkanischen Böden, teilweise schon in der Römerzeit genutzten Heilquellen und Kurorten, ausgezeichneter Verkehrserschließung und der Nähe zu Frankreich und der Schweiz deutlich bessere Entwicklungsvoraussetzungen als Württemberg oder gar Bayern. Dies verkehrte sich durch die Situation nach dem Ersten Weltkrieg jedoch ins Gegenteil, als Baden durch die neue Grenzlage durch den Wegfall des Reichslandes Elsass-Lothringen, die Entmilitarisierung des Rheinlands, Reparationen und Arbeitslosigkeit härter getroffen wurde als Württemberg. Bereits im 19. Jahrhundert hatte die katholische Bevölkerungsmehrheit in Baden Ressentiments gegen erfolgreiche protestantische Aufsteiger im eigenen Land aufgebaut, die – ähnlich wie die Juden – an höheren Schulen und im Universitätsstudium deutlich überrepräsentiert waren. In den 1920er Jahren übertrugen sich diese antiprotestantischen Stereotypen auf die beneideten Schwaben.
Badische Küche.
Die badische Küche gilt als leichter und mehr durch die französische Küche beeinflusst als andere deutsche Regionalküchen. Baden weist die höchste regionale Dichte an Sterne-Restaurants in Deutschland auf, ähnlich wie das benachbarte Elsass in Frankreich. Mit dem Elsass teilt Baden auch Spezialitäten wie Baeckeoffe und Flammkuchen, feines Sauerkraut oder Schäufele, ohne die ansonsten typische übermäßige Fett- und Mehlzugabe. Typischerweise werden auch Gemüsespargel, Maroni, Innereien und Schnecken verarbeitet. Sonderkulturen wie Tabak, Wein-, Obst- und Gartenbau sowie Gemüsekulturen haben neben der kulinarischen auch eine überregional wirtschaftliche Bedeutung und bieten den Einwohnern, der Gastronomie wie auch einer Vielzahl von Touristen und Kurgästen eine breite Auswahl lokaler Produkte.
Badischer Liberalismus.
Eine spezifisch badische Fortschrittlichkeit, auch ausgedrückt durch den bis heute sprichwörtlichen badischen Liberalismus spiegelte sich auch in der frühen Aufhebung der Leibeigenschaft 1783, der ersten deutschen technischen Hochschule in Karlsruhe, der fortschrittlichen Verfassung von 1818 und dem ersten deutschen demokratischen Landesparlament überhaupt anno 1849 wider.
Wie Volker Rödel darstellt, sicherte die Verfassung von 1818 bald einen inneren Zusammenhang des Landes und wurde „der bedeutendste Grund zur Integration des geographisch wie historisch so verschiedenartig zusammengesetzten schmalleibigen Großherzogtums, dem im Gegensatz zu Württemberg ein größerer Traditionskern fehlte.“ Carl von Rotteck (1775–1840) nannte die Verfassung „Geburtsurkunde des badischen Volkes“.
Eine wichtige Rolle spielte dabei auch das Vereinswesen. Neben einer Vielzahl von Turnern und frühen Sportvereinen hat Baden auch eine intensive lokale Musiktradition mit einer überproportional hohen Anzahl von Chören und Orchestern.
Industrialisierung.
Die Industrialisierung – unter anderem begünstigt durch die bessere Kapitalausstattung durch Auslandsinvestoren aus Schweiz und Frankreich, die günstige Verkehrslage und – setzte spät und langsam ein, aber rascher und erfolgreicher als in Württemberg, denn nicht die Württemberger, sondern die Badener erbrachten bis zum Ersten Weltkrieg die höheren Sparleistungen. Schwerindustrie entstand hier wie dort jedoch nicht, aber in der Textilindustrie lag Baden 1858 auf Platz 4, einen Platz vor Württemberg.
Gemeindeordnung.
Die Eigenständigkeit der Städte und Gemeinden in Baden wurde durch die badische Gemeindeordnung von 1831 bestätigt. Sie zeichnet sich durch politische Besonderheiten wie die starke Rolle kommunaler Zweckverbände oder seit den 1980er Jahren die ersten „grünen“ Oberbürgermeister in Deutschland aus. Eine Vielzahl von regionalen Stadtfesten und lokalen Fastnachtstraditionen, bedeutende kulturelle Institutionen und auch als internationale Reiseziele bekannte Orte wie etwa Freiburg, Baden-Baden, Karlsruhe, Schwetzingen und Heidelberg stehen für das Selbstbewusstsein der Region.
Diese positive Entwicklung kehrte sich aber nach dem Ersten Weltkrieg radikal um – die Kriegsfolgen und die Weltwirtschaftskrise wirkten sich in Baden, das nun Grenzland war, stärker aus als in Württemberg. Dies spiegelte sich in der Entwicklung von Daimler-Benz – anfangs eine Fusion unter Gleichen, welche ab 1931 zu Gunsten der Württemberger ausging – genauso wider wie in Württembergs Metallbranche allgemein. Letztere profitierte von einer Wanderungsbewegung weg von der Grenze wie auch von Rüstungsprojekten hin zum Zweiten Weltkrieg. Die gravierenderen Zerstörungen vieler badischer Städte im Bombenkrieg wie auch die Reparationen der härteren französischen Besatzung in Südbaden ließen den badischen Landesteil weiter ins Hintertreffen geraten.
Die wirtschaftliche Notlage nach dem Krieg und die faktische Teilung des alten Landes Baden durch die Besatzungszonen ließen Pläne für die Gründung eines „Südweststaates“ reifen, die 1951 in einer Volksabstimmung – gegen die Stimmen der Bevölkerung in Südbaden, dessen Landesregierung unter Leo Wohleb die Gründung sogar vor dem neu gegründeten Bundesverfassungsgericht anfechten ließ – gebilligt wurden. 1952 wurde das neue Bundesland gegründet.
Die Ursache für den Zusammenschluss, die ursprüngliche Benachteiligung und Randlage Badens, ist heute durch die europäische wie deutsch-französische Einigung nicht mehr gegeben, in das benachbarte Elsass wie auch in die Nordwestschweiz bestehen vielfältige Kontakte. Lange nach dem Konflikt um den Südweststaat hat sich erneut eine starke regionale badische Identität und die damit einhergehende Abgrenzung gegenüber „den Schwaben“ und der Landesregierung in Stuttgart etabliert. Als eines der Schlüsselereignisse für eine wiedererstarkende Abgrenzung von der Landesregierung in Stuttgart kann unter anderem der Widerstand gegen das 1974 geplante, aber durch regionale Bürgerinitiativen verhinderte Kernkraftwerk im badischen Wyhl angesehen werden.
Neben dem 1977 gegründeten Netzwerk BFsBW mit stärker separatistischen Tendenzen setzt sich die 1992 ins Leben gerufene Landesvereinigung Baden in Europa insbesondere für Föderalismus innerhalb des Bundeslandes Baden-Württemberg ein und für dezentrale, regionale Strukturen anstatt einer "Elles, elles Stuckert zu"-Mentalität („Alles für Stuttgart“), welche Baden zur „württembergischen Kolonie“ herabstufe.
Traditionsbewusstsein und -pflege.
Deutlich wird besonders im Süden und im Raum Karlsruhe das vorhandene Bewusstsein, mit dem sich die Menschen als "Badener" oder "Badner" bezeichnen – oft schon allein, um sich von der Landesregierung im württembergischen Stuttgart abzugrenzen. In diesem Zusammenhang findet beispielsweise das Badnerlied Verwendung, das in Baden einen höheren Stellenwert und Bekanntheitsgrad besitzt als die anderen Landeshymnen. So ertönt es seit den 1990er Jahren in den Stadien des SC Freiburg, des Karlsruher SC und der TSG 1899 Hoffenheim vor Beginn der Spiele. Traditionell wurde es auch bei den internationalen Galopprennen in Iffezheim vor dem Hauptrennen gespielt. Bis heute sieht man gerade in Südbaden viele badische Flaggen, und auch der badische Wein trägt die Identität des Landes fort.
Ein Teil des badischen Regionalstolzes gründet sich auf die demokratische und revolutionäre Tradition der Bundschuh-Bewegung und des Bauernkriegs sowie der Badischen Revolution von 1848. Die badischen Forty-Eighters und Deutschamerikaner, allen voran die radikalen Republikaner Friedrich Hecker, Franz Sigel und Gustav Struve, wie auch der spätere amerikanische Innenminister Carl Schurz hatten einen bedeutenden Einfluss auf die amerikanische Geschichte wie auch die deutsch-amerikanischen Beziehungen.
Weiter werden von den Badenern diejenigen Einflüsse, die das Badener Gebiet kulturell bereichert haben, weiterhin bejaht und gepflegt. Beispiele sind die Beziehungen der ehemaligen Freien Reichsstädte untereinander, der Gedankenaustausch der Länder des alemannischen Kulturkreises und das grenzüberschreitende Gemeinschaftsgefühl innerhalb geographischer Einheiten (Bodensee, Schwarzwald, Hoch- und Oberrhein).
Die Bezeichnung der Einheimischen als „Badenser“ ist allgemein unbeliebt, obwohl sie gemäß Duden als korrekt gilt. Dem sich so Äußernden wird in der Regel umgehend (badisch-freundlich) die „richtige“ Aussprache beigebracht.
Das Wortspiel „'s gibt badische und es gibt unsymbadische“ unterstreicht das bisweilen differenzierte Verhältnis in der Eigenwahrnehmung.
Badische Traditionsvereine.
Ein Badischer Traditionsverein in der "Region des ehemaligen Landes Baden" ist der "Landesverein Badische Heimat e. V." von 1909. Er hat seinen Sitz in Freiburg und ist mit 13 Regionalgruppen von Mannheim bis Waldshut-Tiengen im ganzen alten Land Baden vertreten. Ferner gibt es die "Landesvereinigung Baden in Europa e. V." von 1992 in Karlsruhe mit über 11.000 Mitgliedern, den "Bund Freiheit statt Baden-Württemberg e. V. (BFsBW)" von 1977 in Karlsruhe sowie den Badischen Chorverband 1862 e. V. in Karlsruhe als Dachorganisation von 1.500 Vereinen in 22 Sängerkreisen.
Auch außerhalb der Region des ehemaligen Landes Baden gibt es Badener, die an ihrer Kultur und Lebensart festhalten. Badener-Vereine außerhalb der badischen Region sind der "Badener Verein München e. V." vom 10. Februar 1894 und der "Verein der Badener von Hamburg und Umgebung e. V." vom 15. Oktober 1913.
Dialekte.
Die in Baden zu findenden Dialekte der deutschen Sprache umfassen sehr unterschiedliche Mundarten, die zudem den verschiedenen Dialekthauptgruppen Mitteldeutsch und Oberdeutsch angehören:
Zwischen den rein fränkischen und rein alemannischen Mundartgebieten bestehen teils breitere Übergangsräume, so vor allem in den Regionen um Rastatt, Baden-Baden (jeweils südfränkisch-alemannisch) und Pforzheim (schwäbisch-südfränkisch).
Die in Baden beheimateten deutschen Dialekte sind im "Badischen Wörterbuch" dokumentiert.
Die in Mittel- und Südbaden gesprochenen alemannischen und teils auch manche südfränkischen Mundarten werden manchmal als "Badisch" bezeichnet. In sprachwissenschaftlicher Sicht gibt es einen „badischen Dialekt“ oder „badische Dialekte“ jedoch nicht, nur Dialekte in Baden.
Kultur.
Als Markenzeichen der badischen Volkstrachten gilt der Bollenhut, der allerdings nur in der Umgebung von Gutach im Schwarzwald beheimatet ist (wobei gerade dieser Ort im Entstehungszeitraum der Tracht bis 1810 zu Württemberg gehörte). Das Kartenspiel Cego oder Zego war noch in der ersten Hälfte des 20. Jahrhunderts nur in Baden und in einigen Grenzgebieten zu Württemberg und Hohenzollern das beliebteste Kartenspiel und ist somit typisch badisch. Große Bedeutung im Jahreslauf hat die Fasnacht, die vom Schmotzigen Donnerstag bis Aschermittwoch dauert. In dieser Zeit sind in vielen Gegenden Badens Büros und Geschäfte geschlossen, weil in jedem Ort Umzüge und Feste stattfinden. Umzüge und Fasnachtssitzungen sind aber auch schon ab dem Dreikönigstag üblich. Und selbst nach Aschermittwoch geht es weiter, in den Tiefen des Südschwarzwalds beginnt am Donnerstag danach die „Buurefaasned“, die traditionell mit einem „Schiibefüüer“ je nach Ortschaft bis zu vier Tage später endet.
Das Schiibefüüer (Scheibenfeuer) oder Funkenfeuer wird in den bergigen Regionen der Nordwestschweiz und Südbadens zum Vertreiben des Winters angezündet. Dabei wird in manchen Gegenden das so genannte Scheibenschlagen ausgeübt: Holzscheiben mit einer mittigen Bohrung, ähnlich einer Diskusscheibe, werden in einem großen Lagerfeuer erhitzt bzw. zum Glühen gebracht und auf Haselnussruten aufgespießt. Ziel der traditionellen Zeremonie ist es dann für die Gäste des Schauspiels, Jahr für Jahr über Holzrampen diese Scheiben ins Tal zu schleudern.
Bedeutende Schriftsteller:
Erfinder:
Politik.
Staatsoberhäupter.
Die Staatsoberhäupter (Markgrafen, Kurfürsten und Großherzöge) von Baden von 1738 bis zur Novemberrevolution 1918 waren:
Die Staatspräsidenten der Republik Baden 1918–1933:
Mit dem Gleichschaltungsgesetz verloren die Länder ihre Souveränität und es wurde am 11. März 1933 Robert Wagner (1895–1946, NSDAP) als Reichsstatthalter eingesetzt. Walter Köhler (1897–1989, NSDAP) amtierte vom 8. Mai 1933 bis April 1945 als Ernannter Ministerpräsident von Baden.
Leitende Staatsminister bis 1918.
Die Funktion des "Präsidenten des Staatsministeriums", die etwa der des heutigen "Ministerpräsidenten" entsprach, gab es offiziell lediglich in den Jahren 1820 bis 1842, 1844 bis 1846 und 1861 bis 1918. Von 1846 bis 1861 führte entweder der Großherzog selbst oder der dienstälteste Minister den Vorsitz im Staatsministerium. Außer in der Amtszeit Reitzensteins 1832 bis 1842 leitete der jeweilige "Präsident des Staatsministeriums" auch ein Fachressort (Ministerium).
Leitende "Staatsminister" in der Funktion eines Regierungschefs des Großherzogtums waren: |
779 | 804504 | https://de.wikipedia.org/wiki?curid=779 | Linearbandkeramische Kultur | Die Linearbandkeramische Kultur, auch Linienbandkeramische Kultur oder Bandkeramische Kultur, Fachkürzel LBK, ist die älteste bäuerliche mitteleuropäische Kultur der Jungsteinzeit (fachsprachlich "„Neolithikum“") mit permanenten Siedlungen. Diese Veränderung der Lebensgrundlagen wird als „Neolithisierung“ oder auch als „Neolithische Revolution“ bezeichnet. Die LBK fällt in das Frühneolithikum.
Die Träger der Linearbandkeramischen Kultur brachten eine Vielzahl technisch-instrumenteller und wirtschaftlicher Neuerungen mit, so eine Anpassung der Keramikproduktion, verbesserte Werkzeug- und Arbeitsmittelherstellung, Sesshaftigkeit und Dorf, Ackerbau und Viehhaltung, Haus- und Brunnenbau sowie den Bau von Grabenwerken. Es war eine Zeitspanne des wirtschaftlichen Wandels von der extraktiven Wirtschaft zur nahrungsproduzierenden Wirtschaftsweise, die mit dem Aufkommen immobilen Besitzes und der Vorratshaltung für die Gruppenmitglieder einherging.
Die Bezeichnung „Bandkeramik“ führte 1883 der Historiker Friedrich Klopfleisch in die wissenschaftliche Diskussion ein, abgeleitet von der charakteristischen Verzierung der keramischen Gefäße, die ein Bandmuster aus eckigen, spiral- oder wellenförmigen Linien aufweisen. In der angelsächsischen Literatur wird die Linearbandkeramik als oder als bezeichnet. Weitere Bezeichnungen, wenn auch mehr vom allgemeineren Typus sind: „erste europäische Bauernpopulation/Landwirte“ auch als und, bezogen auf ihre ursprüngliche Herkunft auch als „anatolische neolithische Landwirte“, .
Ausbreitung der Bandkeramiker.
Die letzte Phase der Ausbreitung der Linearbandkeramischen Kultur nach Mitteleuropa begann wahrscheinlich um 5700 v. Chr. – ausgehend von der Gegend um den Neusiedler See – und schuf innerhalb von etwa 200 Jahren einen kulturell ungewöhnlich einheitlichen und stabilen Siedlungs- und Kulturraum. Die Rekonstruktion dieser kulturellen Einheit beruht auf Bodenfunden in Gebieten der heutigen Länder Westungarn (Transdanubien), Rumänien, Ukraine, Österreich, Südwestslowakei, Mähren, Böhmen, Polen, Deutschland und Frankreich (hier unter der Bezeichnung : Pariser Becken, Elsass und Lothringen). Entsprechend gilt die LBK als größte Flächenkultur der Jungsteinzeit.
Eine mögliche Periodisierung der LBK im Sinne einer absoluten Chronologie ist:
Mit dem Ende der LBK wird in einer synthetischen Chronologie für Mitteleuropa der Übergang vom Frühneolithikum zum Mittelneolithikum angesetzt. Zu den bandkeramischen Kulturen oder zur Bandkeramik im weiteren Sinn wird auch die Alföld-Linearkeramik gezählt (östliche Bandkeramik in Ungarn: 5500–4900 v. Chr.), im weitesten Sinn auch die Stichbandkeramik in Mitteleuropa (4900–4500 v. Chr.).
Die Bandkeramiker stehen wahrscheinlich in enger Beziehung zum Starčevo-Körös-Criş-Kulturkomplex, die auf den Zeitraum von 6200 bis 5600 v. Chr. datiert wird. Im Donauraum gilt jene als eine der bedeutendsten Kulturen der frühen Jungsteinzeit und wird als eine östliche Vorläuferkultur der LBK angesehen (vergleiche Pișcolt-Kultur). Dabei war die Starčevo-Kultur am westlichsten hin zur Adria gelegen und am nächsten zur späteren LBK im Norden, etwas östlicher lag die Körös-Kultur und dicht an diese angrenzend weiter nach Osten die Criş-Kultur.
Auch die Starčevo-Kultur wird als eine Vorläuferkultur angesehen (Starčevo-Körös-Criş-Kultur). So will die ungarische Prähistorikerin Eszter Bánffy die LBK allein aus der Starčevo-Kultur herleiten. 2014 durchgeführte paläogenetische Analysen einer Gruppe um den deutschen Anthropologen Kurt W. Alt unterstützen diese Hypothese.
Zum Vorgang der Neolithisierung wurden lange zwei Modelle diskutiert:
Zwischen beiden Extremen bestehen integrative Modelle, die einen gewissen Grad der Mischung indigener mesolithischer, und zugewanderter neolithischer Bevölkerungsgruppen, vertreten. Dies könnte durch dominante Eliten, Einsickerung, sprunghafte Koloniegründungen () oder flexible Grenzen verursacht worden sein. Dabei sprangen die expandierenden Bauern von einem Besiedlungspunkt zu einem weiter entfernten nächsten und besiedelten anschließend die dazwischenliegenden Flächen.
Aufgrund von DNA-Analysen nach der Jahrtausendwende hat sich die Einwanderungstheorie durchgesetzt und wurde in Studien mehrfach bestätigt. Ob zunehmende Bevölkerungsdichte und das Knappwerden von Ressourcen neben anderen Faktoren die alleinigen Beweggründe für die Einwanderungen waren, ist nicht mit Belegen entscheidbar (Push-Pull-Modell der Migration).
Die Immigration bzw. „Besiedlung“ vollzog sich generationsübergreifend und über einen längeren Zeitraum, geografisch häufig entlang von Flüssen und Flusssystemen.
Auch konnte der Austausch materieller Güter zwischen den immigrierten Bauern ("ANFs") und den autochthonen Jägern und Sammlern ("HGs") dokumentiert werden.
Ursprung der Bandkeramik.
Die Bandkeramik erreichte die nördlichen Lössgrenzen in Mitteleuropa ab 5600 bis 5500 v. Chr. Nach einigen gängigen Lehrmeinungen ging sie aus dem Starčevo-Körös-Kulturkomplex hervor. So werden besonders die frühesten bandkeramischen Siedlungen in Transdanubien interpretiert. Die Gefäße der ältesten Bandkeramik zeichnen sich durch Flachbodigkeit und organische Magerung aus, sie ähneln stark der späten ungarischen Starčevo-Keramik. Etwa um 5200 v. Chr. setzt sich ein anderer Stil durch, die Keramiken sind nun rundbodig und anorganisch gemagert. Siedlungen dieser Übergangsstufe wurden z. B. in Szentgyörgyvölgy-Pityerdomb (Kleingebiet Lenti), Vörs-Máriaasszonysziget (Balaton) und Andráshida-Gébarti-tó (bei Zalaegerszeg) gefunden.
Die Forschungsgruppe um Barbara Bramanti (Johannes Gutenberg-Universität Mainz) untersuchte alte DNA aus bandkeramischen Skeletten. Die Befunde legen nah, dass die Träger der Bandkeramik vor ungefähr 7500 Jahren aus dem Karpatenbecken nach Mitteleuropa einwanderten. Von dort aus, so wird inzwischen allgemein anerkannt, breiteten sich die Bandkeramiker in zwei Richtungen aus, zum einen über Böhmen und Mähren entlang der Elbe bis nach Mitteldeutschland, zum anderen über Niederösterreich entlang der Donau bis nach Südwestdeutschland und weiter den Rhein entlang.
Nach dieser Immigrationshypothese besteht keine anthropologische Kontinuität von Europäern des späten Mesolithikums zu den Bandkeramikern. Auch sind dann weder jene noch die Bandkeramiker als Vorfahren der heutigen Bevölkerung Mitteleuropas zu sehen (siehe den Abschnitt Die Bandkeramiker und die Frage nach den Vorfahren der modernen Europäer). Eine Studie aus dem Jahre 2010 fand sogar Übereinstimmungen der DNA bandkeramischer Gräber aus Derenburg (Sachsen-Anhalt) mit der heutigen Bevölkerung des Vorderen Orients. Dort, am Ort der Neolithischen Revolution, wären also die Vorfahren der Bandkeramiker zu suchen.
Die Immigrationshypothese blieb zunächst nicht unwidersprochen: Claus-Joachim Kind führte 1998 aus, dass es sich bei den Bandkeramikern um eine autochthone Entwicklung im europäischen Neolithikum handeln könne. So deuteten in der ältesten Bandkeramik Silexartefakte auf mesolithische Traditionen hin. Auch seien die Ähnlichkeiten zwischen Keramiken aus der ältesten Bandkeramik und solchen aus dem Starčevo-Körös-Kulturkomplex gering; dies schließe eine Immigration aus jenen Kulturen aus.
Eine autochthone, dann wohl zum Teil multilokal entstandene bandkeramische Kultur könne durch vertikalen Kulturtransfer (also ein gewisses Verhältnis von Tradition und Innovation) am jeweiligen Ort etabliert worden sein; das aber passe kaum zur auffallenden Einheitlichkeit der Kultur in ihrem Verbreitungsgebiet. Diese Einheitlichkeit legt einen horizontalen Kulturtransfer durch Transmigration nahe, d. h. einheimische mesolithische Bevölkerungsgruppen könnten die neolithische Lebensweise von durchwandernden Gruppen übernommen haben (ohne deswegen untergegangen zu sein). Eine entsprechende weitere Lehrmeinung weist besonders auf die Kontinuität einiger Elemente der materiellen Kultur hin. So wiesen die Feuersteingeräte ältestbandkeramischer Siedlungen mesolithische Züge auf, was sich bei „facettierten Schlagflächenresten“ sowohl in bestimmten Formen (Querschneider, Trapeze etc.) als auch in der Präparation der Schlagflächen zeige. Auch löst sich die Bandkeramik aus einem anders gestalteten religiösen Hintergrund, wie Clemens Lichter (2010) feststellt. Beispielsweise gab es die neu auftretenden Kreisgrabenanlagen im Starčevo-Körös-Komplex nicht.
Unklar ist, welchen Anteil die sogenannte La-Hoguette-Gruppe hatte, die von der Normandie (in der der eponyme Fundort liegt) bis ins Main-Neckar-Gebiet verbreitet war. Man erwies für diese Kultur eine pastorale Lebensgrundlage, also nicht sesshafte Schaf- oder Ziegen-Hirten, die seit dem Kontakt mit den Linearbandkeramikern wirtschaftliche Beziehungen zu beider Vorteil unterhielten. Die La-Hoguette-Gruppe lässt sich aus der Cardial- oder Impresso-Kultur herleiten, einer frühneolithischen Kultur, die chronologisch vor dem Starčevo-Körös-Komplex einzuordnen ist und an den Küsten des westlichen Mittelmeeres verbreitet war. Von der Mündung der Rhone aus verbreitete sie sich um etwa 6500 v. Chr. nach Norden und erreichte etwa 300 Jahre vor der Bandkeramik den Rhein und seine Nebenflüsse bis zur Lippe. Der Anteil von Haustierknochen ist in den Funden der La-Hoguette-Kultur bedeutend größer als bei den Bandkeramikern, diese betrieben umgekehrt deutlich mehr Feldbau.
Beim weitgehenden Verschwinden der Mesolithiker in den Siedlungsgebieten der Linearbandkeramiker wird heute Zoonosen eine bedeutende Rolle zugewiesen. Dabei waren die Viehhalter an Tierkrankheiten gewöhnt, die für Mesolithiker in höchstem Maße tödlich waren. Dies entspricht Erfahrungen in historischer Zeit, wie etwa in Amerika.
Dennoch lebten die Mesolithiker in Rückzugsgebieten, die für den Landbau ungünstig waren, fort, so dass von „Parallelgesellschaften“ die Rede war. Pioniersiedlungen der Neolithiker wie Minden-Dankersen weisen dementsprechend häufiger Elemente mesolithischer Kulturen auf.
Ökologische Rahmenbedingungen und Wirtschaftsweise.
Für die Zeit der linearbandkeramischen Kultur wird für Mitteleuropa ein warmes, maritimes Klima mit relativ hohen Niederschlagsmengen angenommen.
Deren Interpretationen wurde anhand der dendrochronologischen Befunde von Hans J. Holm (2011) einer Revision unterzogen.
Das Wärmeoptimum namens "Atlantikum", auch „Holozänes Optimum“ genannt, währte in Nordeuropa etwa von 8000 bis 4000 v. Chr. Das "Atlantikum" war die wärmste und feuchteste Periode der Blytt-Sernander-Sequenz, nach einer anderen Deutung auch die wärmste Epoche der letzten 75.000 Jahre. Sowohl die durchschnittlichen Sommer- als auch die Wintertemperaturen lagen 1–2 °C höher als im 20. Jahrhundert; insbesondere die Winter waren sehr mild.
In Europa zeigte das Atlantikum regionale und zeitliche Unterschiede, es kam auch zu kurzzeitigen Unterbrechungen. Eine solche zeitlich scharf abgegrenzte Klimaveränderung ist die Misox-Schwankung rund 6200 Jahre v. Chr. Während dieser wurde es im mittelsteinzeitlichen Mitteleuropa innerhalb weniger Jahrzehnte um etwa 2 °C kälter. Die Misox-Schwankung fällt mit dem letzten Abfluss des Agassizsees in die Hudson Bay zusammen. Dieser enorme Süßwassereintrag in den Nordatlantik unterband weitgehend die Entstehung höhersalinaren Wassers, das wegen seiner höheren Dichte absinkt. Die resultierende Beeinträchtigung der thermohalinen Zirkulation (Konvektion) im Nordatlantik schwächte vor allem den Nordatlantikstrom als nördlichen Zweig des Golfstroms. Der nach Norden gerichtete Wärmetransport nahm ab, und in Nordeuropa setzte eine regional unterschiedliche, aber erhebliche Abkühlung und Austrocknung ein. Vergleichbares war gleichzeitig für den Vorderen Orient zu beobachten, insbesondere im Fruchtbaren Halbmond (siehe auch Präkeramisches Neolithikum). Die klimatischen Folgen der Misox-Schwankung sind in der Vegetationsentwicklung Europas für gut hundert Jahre nachweisbar. Eine Hydroklima-Rekonstruktion von Joachim Pechtl und Alexander Land (2019) zeigte eine außerordentlich hohe Häufigkeit schwerer Trocken- und Nassfrühlingssommersaisonen während der gesamten Epoche der Linearbandkeramik. Ferner konnte die Untersuchung einen besonders hohen jährlichen Schwankungsgrad in dem Zeitraum von 5400 bis 5101 v. Chr. und geringeren Schwankungen bis 4801 v. Chr. belegen. Die Autoren interpretierten dennoch zurückhaltend den signifikanten Einfluss des regionalen Klimas auf die Bevölkerungsdynamik, der etwa um das Jahr 4960 v. Chr. eingesetzt habe.
Mit der Ausprägung einer feucht-warmen Periode und einem Anstieg der Durchschnittstemperaturen breiteten sich dichte Eichen-Mischwälder mit anspruchsvollen Laubholzarten aus. Neben Eichen und Linden kamen nun Ulmen, verschiedene Ahorne, Weiden, Haseln sowie Waldgräser und -kräuter vor. Hainbuchen und Tannen besiedelten diese Gebiete erst vor nicht allzu langer Zeit erneut.
Es handelte sich nicht um einen undurchdringlichen Wald mit starkem Unterwuchs, sondern um einen Wald, der nur einen geringen Unterwuchs aufwies. Ulme und Linde, die neben der Eiche die Zusammenstellung des Baumbestandes bestimmten, zeichnen sich durch eine typische dichte, verzweigte Baumkrone aus, so dass sich nur am Anfang des Frühlings etwas Unterwuchs entwickeln konnte. Hingegen hat die Eiche eine viel offenere Baumkrone, so dass man sich unter ihr vermehrt halbschattenliebende Pflanzen vorzustellen hat.
Die Pollenanalyse von Bodenproben zeigt die mit der Bandkeramik verbundenen Veränderungen des Anteils der verschiedenen Gehölze im nördlichen Mitteleuropa. Die Eichen-Urwälder boten den Bandkeramikern günstige Voraussetzungen zur Siedlung und Waldweide. Sie gewannen Siedlungs- und Ackerflächen durch (partielle) Rodung und fällten Eichen, um Holz für Häuser oder Palisaden zu gewinnen. Sie bedienten sich anscheinend bereits der Ringelung und betrieben Schwendbau. Im Zeitverlauf sank die Zahl der Eichen- und Lindenpollen, während Birken-, Haselnuss- und Eschenpollen häufiger wurden; es wird angenommen, dass die genannten Rodungen zu diesem Wandel im Vegetationsbild beitrugen. Vor allem der Ulme kommt als Ernährungsquelle für das Vieh (Waldweide) eine große Bedeutung zu. Denn sie muss in den Tälern der Lössgebiete eine der führenden Holzarten gewesen sein, weil der höhere Feuchtigkeitsgrad des Bodens dieser Baumart dort noch etwas zuträglicher ist als der in den Lössebenen.
Multiple Analysen reliktischer Böden (Paläoboden) sowie der in diesen enthaltenen Ablagerungen ergeben Aussagen über paläoökologische Verhältnisse. Solche Untersuchungen zeigten, dass in vielen Fällen der neolithischen oder bandkeramischen Siedlung ein Steppenklima mit Schwarzerdenbildung (Tschernosem) vorausgegangen war. Besonders wichtig für eine ausreichende Pflanzenernährung sind in Schwarzerden enthaltene Huminsäuren und Humine, die die Grundlage der Ton-Humus-Komplexe des Bodens bilden, denn Huminstoffe können Ione sehr gut aufnehmen und speichern. Grau- und braunhuminsäurereiche Böden waren in Verbindung mit den kaltzeitlichen Lössablagerungen oder Schwarzerden ein wesentlicher Grund für den dauerhaften Ernteertrag. Das milde, sommerwarme Klima des Atlantikums mit seinen verlässlichen Witterungsverläufen war eine weitere Voraussetzung für die hohe agrarische Produktivität und die erfolgreiche Behauptung der jungsteinzeitlichen Kulturen in Mitteleuropa. Aber auch Parabraunerden wurden angetroffen.
Während dieses allgemeinen Klimawandels wurden durch neolithische Kulturen zunächst die tief liegenden Lössflächen besiedelt. Die bäuerlichen Siedlungsplätze der Bandkeramiker breiteten sich vor allem entlang der kleineren bis mittleren, verzweigten und mäandrierten Flussläufe aus, bei den kleineren Flussläufen oder Bächen wurden deren Oberlauf und Quellbereich bevorzugt. Bei den größeren Wasserläufen suchten die Bandkeramiker die Ränder der Niederterrassen auf, also Hanglagen (Reliefenergie) im Übergangsbereich zwischen Auenlandschaften und dem überschwemmungsgeschützten Hinterland; sie lebten dort in Langhäusern, zumeist in Gruppensiedlungen von fünf bis zu zehn Hofplätzen. Bevorzugt wurden anbaugünstige Lössböden, ebenso wie Gebiete oder Mikroklimata mit moderatem Niederschlag und größtmöglicher Wärme. Es gibt Hinweise darauf, dass es nicht die Wasserläufe an sich waren die sich siedlungsfördernd auswirkten, sondern andere, in den betreffenden Bereichen auftretende Faktoren wie eben der Lössboden, welche die Ansiedlung beeinflussten, denn umgekehrt wirkten sich die weitgehend mit Sandböden bedeckten Landschaften beiderseits des Flusses eher siedlungshemmend aus.
Der Hauptstrom der Flüsse wird im Flachland, bedingt durch die niedrige Fließgeschwindigkeit, in der Regel von vielen Nebenströmen begleitet und die umgebende Landschaft bis zu den natürlichen Hochufern der Talränder durch die Dynamik des Wasserstroms ständig verändert. In diesen Flussniederungen entstehen Überflutungsräume, die Flussauen, die durch den ständigen Wechsel von Überflutung und Trockenfallen geprägt sind.
Diese Präferenzen lassen sich auch gut mit den klimatischen Veränderungen während der Siedlungsgeschichte der Bandkeramiker in Zusammenhang bringen: In großen Teilen ihres Siedlungsraumes traten mikroklimatische Umschwünge von eher trocken-warmen zu feuchteren Verhältnissen auf. Nach solchen Veränderungen wählten die Menschen andere Siedlungsorte, denn vermehrte Regenfälle führten zu heftigeren und in kürzeren Zeiträumen auftretenden Überschwemmungen, vor denen die Siedlungen im oberen Drittel eines Hanges besser geschützt waren.
Typischerweise fanden sich auf den fruchtbaren Lössstandorten auch differenziertere Vegetationsgesellschaften wie etwa der Winterlinden-Eichen-Hainbuchen-Wald und der Waldmeister-Buchenwald. Hier wurden je nach Jahreszeit Waldweide (Hute) und Laubheugewinnung (Schneitelwirtschaft) betrieben. Die Viehweide im Wald war dabei vorwiegend der sommerlichen Futterwirtschaft vorbehalten, während die Laubheuproduktion nach Ulrich Willerding (1996) zur winterlichen Vorratshaltung diente. Insoweit sind bandkeramische Waldrodung und -weide zur Acker- und Viehwirtschaft der Beginn der anthropogenen Veränderung des dominierenden Ökosystems, der Waldgeschichte jener Epoche.
Zur Fauna gehörten waldtypische Säugetiere wie Wildschwein, Reh, Wisente, Elche und Rothirsch. Typische Raubtiere waren etwa Dachse, Luchse, Füchse, Wölfe und Braunbären. Der Anteil der Knochen von Wildtieren schwankt in den einzelnen Siedlungen stark, nimmt aber von den frühen agrarischen Kulturen zu den späteren ab.
Ackerbau oder Kulturpflanzenproduktion.
Mit paläo-botanischen Auswertungen der Bodenproben konnten die angebauten Pflanzen bestimmt werden. Nachgewiesen wurde:
Andere Autoren nennen darüber hinaus Dinkel ("Triticum aestivum subsp. spelta") und beschränkt den Lein-Anbau auf die Spezies "Linum usitatissimum" (Gemeiner Lein). Vereinzelte Funde belegen die Nutzung von Rauweizen (synonym: Nacktweizen; "Triticum turgidum L."), Rispenhirse ("Panicum miliaceum") und Hafer ("Avena spec.").
Alle aufgeführten Getreidearten können als Wintergetreide im Herbst oder als Sommergetreide im Frühling ausgesät werden. Die Ernte erfolgte dann zeitlich versetzt im Sommer. Nach Art der Kornhülle sind Spelz- (Emmer, Einkorn, Spelzgerste, Dinkel) und Nacktgetreide (Nacktweizen) zu unterscheiden. Beim Spelzgetreide sind die das Korn umschließenden Spelze mehr oder weniger fest mit diesem verwachsen. Beim Nacktgetreide dagegen liegen sie lose an und fallen beim Dreschen ab. Der Vorteil des Spelzgetreides liegt darin, dass es eine primitive Lagerung besser verträgt, der Nachteil ist, dass die Körner vor dem Mahlen entspelzt werden müssen; hierzu müssen sie aber völlig trocken sein.
Zusammenfassend und semiquantifizierend bauten die Bandkeramiker in den Lössböden am häufigsten die Spelzweizenarten Emmer und Einkorn an. Weniger verbreitet war die Kultivierung von Nackt- und Spelzgerste. Weitere Getreidearten so etwa Dinkel, Hafer, Roggen und Hirse konnten nur vereinzelt nachgewiesen werden.
Die Bandkeramiker kultivierten andere Pflanzen als die Cardial- oder Impressokultur (siehe oben den Abschnitt Ursprung der Bandkeramik). Erst als sich beide Strömungen später im Main-Neckar-Rhein-Raum trafen, erreichte der Mohnanbau die Linearkeramiker. Dies kann etwa seit der Älteren Bandkeramik angenommen werden. Erst in der späten Bandkeramik wird auch Dinkelweizen ("Triticum compactum") bedeutsam. Als Wildfrucht wurde die Haselnuss ("Corylus avellana") gesammelt.
Die Kenntnisse über die Nahrungsversorgung sind für die Rekonstruktion der Lebensumstände von zentraler Bedeutung; so wurden u. a. der Schwarze Holunder ("Sambucus nigra"), der Holzapfel ("Malus sylvestris"), die Brombeeren ("Rubus fruticosus"), Walderdbeeren ("Fragaria vesca"), Bucheckern also Früchte der Rotbuche ("Fagus sylvatica"), Schlehdorn ("Prunus spinosa"), Kornelkirschen ("Cornus mas"), oder auch Mohn ("Papaver somniferum") verkonsumiert.
Anbautechniken und Böden.
Wahrscheinlich waren die Bandkeramiker Hackbauern im Sinne Eduard Hahns (1914), wohingegen Jens Lüning die Verwendung des Pfluges vermutet. In Hackbau betreibenden Kulturen ist der Grabstock wichtigstes Werkzeug; dieser ist aber bisher lediglich für die spätere Egolzwiler Kultur belegt, also eine mehr als tausend Jahre spätere Phase. Mangels direkter Nachweise wurde die Zusammensetzung der Pollen untersucht, um indirekte Belege zu finden. Dabei erwiesen Pollendiagramme für das Frühneolithikum einen hohen Anteil von Nichtbaumpollen. Dies könnte damit zusammenhängen, dass insbesondere Ausdauernde Gräser und auch einjährige Unkräuter wie Gänsefußgewächse, ohne Pflug nicht effektiv beseitigt werden konnten.
Manfred Rösch konnte 1998 durch botanische Analyse von Bodenproben in verschiedenen süddeutschen Siedlungsplätzen eine Zunahme sowohl der Dichte als auch des Artenreichtums spontaner Begleitvegetation in den Kulturpflanzenbeständen (sogenannter „Unkräuter“) nachweisen. Diese Daten stehen in Einklang mit reinem Sommerfeldbau (Bezeichnung für eine jahreszeitlich gebundenen Feldbauweise der gemäßigten Zonen). Ob aber die Zunahme der Begleitvegetation für Brachen oder vielleicht nur für eine Beweidung sprechen, ist aus der Befundlage nicht auszumachen.
Das massenhafte Auftreten einiger Unkräuter und die Hinweise auf eine schlechtere Stickstoffversorgung der Böden lassen vermuten, dass sich die landwirtschaftlichen Produktionsbedingungen im Lauf der bandkeramischen Kultur verschlechterten.
Ackerbau und frühe Kalendersysteme.
Für den Ackerbau, mehr noch als zur Viehhaltung, war es wichtig, eine von den konkreten Wetterbedingungen unabhängige Bestimmung der Zeitpunkte für Aussaat und Ernte vornehmen zu können. Frühe Kalendersysteme beruhen im Allgemeinen auf Natur- und Wetterbeobachtungen.
Der Jahreslauf wird in sich wiederholende entsprechende Phänomene eingeteilt, ohne diese zu zählen. Ein Beobachtungkalender nimmt natürliche, meist astronomische Ereignisse zur Grundlage (etwa Sonnenstand, Mondphasen, Aufgang oder Stand bestimmter Sterne). Mit dem Eintritt eines bestimmten definierten Himmelsereignisses (etwa des Neumonds oder der Tag-und-Nacht-Gleiche im mitteleuropäischen Frühling) wird ein neuer Zyklus eingeleitet.
In Kulturen wie der bandkeramischen, die Ackerbau betreiben, wird die kalendarische Erfassung der Jahreszeiten notwendig. Daher wird parallel zum Übergang von einer mesolithischen zu einer neolithischen Gesellschaft oder von einer Jäger- und Sammlergesellschaft zu einer sesshaften Lebensweise ein Übergang vom Mond- zum Sonnenkalender vermutet (siehe hierzu die Stichbandkeramik und die Kreisgrabenanlage von Goseck).
Wild- oder Jagdtiere, Haustiere.
Wildtiere, Wildtiernutzung.
Das Verhältnis von Haus- zu gejagten Wildtieren in den Ansiedlungen war regional sehr unterschiedlich. Alle diese Nutztiere lieferten in unterschiedlicher Weise als Schlachttiere neben Fleisch auch Haut, Horn, Felle, Sehnen und Knochen als begehrte Rohstoffe.
In den ältesten bandkeramischen Siedlungen, etwa 5700/5500 bis um 5300, legte die Auswertung der Tierknochen, etwa durch Elisabeth Stephan (2003) nahe, dass die bandkeramischen Siedler in gewissen Bereichen durchaus auf den technologischen Traditionen der mesolithischen Jäger, Fischer und Sammler aufbauten. Bei Grabungen in einer frühbandkeramischen Siedlung in Rottenburg-Fröbelweg wurden die Tierknochen qualitativ und quantitativ erfasst. Neben den Haus- und Nutztieren, die den ab der Bandkeramik üblichen Artenbestand repräsentieren, so Rind, Schaf, Ziege, Schwein und Hund, zeigte sich jedoch, dass sie nur in geringen Häufigkeiten vertreten waren. Damit scheinen sie keinen großen Beitrag zur Fleischversorgung der Siedlungsbewohner geleistet zu haben. Auffallend große Bedeutung hatte dagegen die Jagd auf die damals häufig vorkommenden Wildsäuger Rothirsch, Reh und Wildschwein. Nach Stephan (2003) wurden hohe Wildtieranteile auch in anderen, wenn auch nicht in allen zeitgleichen Fundorten in Süddeutschland beobachtet.
Knochen von vier Arten Rothirsch, Reh, Wildschwein und Auerochse, machten laut Schmitzberger (2009) zusammen allein 89 % aller bisher tierartlich bestimmten Wildtierfunde aus. Hingegen waren Wildpferd, europäischer Wildesel, Elch und Wisent sicherlich ebenfalls begehrte Beutetiere, aufgrund der Seltenheit ihrer Knochen im Fundmaterial für die LBK-Jäger im untersuchten Terrain offenbar schwieriger zu erreichen.
Bandkeramische Haustiere.
Die Zusammensetzung der Knochenfunde von Haustieren in den frühen linearbandkeramischen Weilern gliederte sich im Durchschnitt relativ gleichförmig; etwa 55 % Hausrinder ("Bos taurus"), 33 % Schafe / Ziegen ("Capra aegagrus hircus") und 12 % Hausschweine ("Sus scrofa").
Die Immigrationshypothese zum Ursprung der Bandkeramiker legt nahe, dass die Nutztiere (und Saatpflanzen) nicht durch Domestikation oder Züchtung aus dem mitteleuropäischen Wildvorrat geschaffen, sondern mitgebracht wurden. Analysen mitochondrialer DNA zeigen, dass die Schweine in Mitteleuropa aus den Gebieten der heutigen Türkei und des Irans kamen. Auch kann als bestätigt gelten, dass alle europäischen Rinder von der eurasischen Subspezies des Auerochsen ("Bos primigenius taurus") abstammen, dessen Urheimat in Anatolien und dem Nahen Osten liegt; sie stammen also nicht etwa von gezähmten europäischen Auerochsen ab.
Hausrinder.
Die Domestizierung zum Hausrind erfolgte bereits vor dem 9. Jahrtausend v. Chr., d. h. im Epipaläolithikum. Als Beleg gilt, dass ab 8300 v. Chr. Rinder zusammen mit Ackerbauern auf das bis dahin rinderlose Zypern gelangten; auch zeigen Untersuchungen der mitochondrialen DNA rezenter Hausrinder, dass die aktuellen Haplotypen mitteleuropäischer Hausrindrassen denjenigen von anatolischen Rinderrassen gleichen.
Allerdings ist bislang ungewiss, ob das heutige Verbreitungsmuster der Hausrinder in Europa bis in die frühneolithische Epoche zurückreicht. Es besteht nachweislich ein Genfluss zwischen den nahöstlich-anatolischen Populationen in der Frühphase des europäischen Neolithikums, doch ist dieser auf die Zeit nach 5000 v. Chr. begrenzt. Dies wird als Hinweis auf weiträumigen Handel gedeutet. Demnach erreichten die ab Mitte des 9. Jahrtausends v. Chr. domestizierten östlichen Populationen Westanatolien und den Ägäisraum vor 7000 v. Chr., nach 6400 v. Chr. ging die genetische Diversität mit der Westwanderung zurück. Die neolithischen Siedler erreichten also den südlichen Mittelmeerraum, aber auch Südfrankreich, per Boot, allerdings zunächst nur mit sehr wenig (weiblichem) Vieh. Ohne nennenswerten Genfluss seitens der einheimischen Rinderartigen erreichten deren Nachkommen um 5500 v. Chr. Mitteleuropa, um 4100 v. Chr. Nordeuropa. Besonders bei der Einwanderung nach Mitteleuropa ging abermals genetische Diversität verloren.
Ferner ist belegt, dass Bandkeramiker ihre Stiere oftmals kastrierten. Ochsen sind weniger aggressiv und daher lenkbarer als Stiere, auch weniger muskulös als jene, aber muskulöser als Kühe. Da sich bei kastrierten Säugetieren die Wachstumsfugen später schließen, wachsen Ochsen deutlich länger als Stiere und werden größer als jene. Der verspätete Schluss der Wachstumsfuge betrifft auch die knöcherne Grundlage des Horns, den Hornzapfen ("Processus cornualis"), den das Stirnbein bei horntragenden Wiederkäuern bildet. Daher lassen sich Ochsen von Stieren an den Hornzapfen unterscheiden.
Die Bandkeramiker nutzten anscheinend die verkäste Milch ihrer Rinder. Allerdings unterschied sich die Höhe der Milchproduktion neolithischer Kühe deutlich von der neuzeitlicher Rinder. So tauchten an Fundplätzen kleine, trichterförmige Gefäße mit durchlochten Wandungen auf, die neuzeitlichen Geräten zur Käseherstellung stark ähneln. Auch konnte eine Arbeitsgruppe um Mélanie Salque (2013) Milchfett in Keramikscherben aus bandkeramischer Produktion nachweisen. Ebenso wird die Entstehung der Laktasepersistenz (die Fähigkeit Erwachsener, Milch zu verdauen) mit der bandkeramischen Kultur verbunden.
Der Unterwuchs der zeitgenössischen Eichen-Mischwälder bot Hausrindern eher spärliche Nahrung, so dass größere Waldflächen erforderlich waren, wenn die Tiere ihren laufenden Energiebedarf durch Beweidung decken sollten. Hieraus resultierte für die einzelnen bandkeramischen Siedlungen eine kritische Größe der gehaltenen Herden. Diese variierte mit dem Standort, aber auch mit der Wirtschaftsform wie etwa Fernweide mit winterlicher Laubfutternutzung oder aber siedlungsnahe, durch verbesserten Ackerbau ermöglichte Tierhaltung.
Bandkeramische Schafe.
Wahrscheinlich, so Jens Lüning et al., erbrachten die „bandkeramischen Schafe“ keinen ausreichenden Wollertrag als Sekundärprodukt. Denn die Entwicklung des schafenen Haarkleides von den Wildschafen hin zu einem wolligeren Fell mit weniger Stichelhaaren vollzog sich in über einen länger andauernden Zeitraum (gegen Ende des Neolithikums). Möglicherweise nutzten die Menschen des Neolithikums aber nach und nach die abgestoßenen Fellhaare, die beim saisonalen Fellwechsel anfielen, um Garn und Gewebe daraus herzustellen.
Bandkeramische Hausschweine.
Obgleich die Haltung von Schweinen, in einem Vergleich der bandkeramischen Haushöfen, eine geringere Bedeutung zu haben scheint, lassen die Funde (Knochen, Plastiken, Idole) in einigen Weilern auf eine höhere Nutzungsrate dieser Haustiere schließen.
Bandkeramische Hunde.
Bereits in den Siedlungen der bandkeramischen Kulturen Mitteleuropas gab es Hunde, die in Gräbern und Siedlungen, wie zum Beispiel im schwäbischen Vaihingen an der Enz, gefunden wurden. Bei bisherigen Funden waren diese Hunde nicht wolfsähnlich, sondern eher mittelgroß. Zum Beispiel wurde in der bandkeramischen Siedlung von Zschernitz in Sachsen im Jahre 2003 ein separat bestatteter Torfhund ("Canis palustris") gefunden. Er hatte eine Schulterhöhe von etwa 45 cm, also etwa Spitz-Größe. Es ist zu vermuten, dass die Hunderassen der Bandkeramiker schon zwischen zu schützenden Haus- und Nutztieren einerseits und dem jagdbaren Wild zu unterscheiden gelernt hatten. Auch vermutet die Autorin, dass bereits weitere Unterschiede zum Wolf herausgezüchtet waren, zum Beispiel der Verlust des (wölfischen) Fluchtverhaltens bei drohenden Gefahren und fehlendes Aggressionsverhalten trotz Räuber-Beute-Beziehung in den menschlichen Gemeinschaften. Seit der Mittelsteinzeit war der Hund domestiziert, so Raetzel-Fabian (2000).
Mögliche Viehseuchen und gesundheitliche Beeinträchtigungen.
Für Fragen der Hygiene erscheint bedeutsam, dass die Nutztierhaltung das Spektrum möglicher Krankheitserreger erweiterte. Eine Änderung des die Menschen umgebenden Mikrobioms setzte ein; infolge des engeren Zusammenlebens von LBK und ihren Nutztieren oder den entsprechenden Kulturfolgern. Die sogenannte Zoonose kann also vom Menschen auf ein Tier (Anthropozoonose) oder vom Tier auf den Menschen (Zooanthroponose) übertragen werden. So sind Rinder für bakterielle Zoonosen wie Tuberkulose, Salmonellose, Brucellose oder Milzbrand empfänglich und daher mögliche Überträger dieser Krankheiten. Der Fadenwurm ("Trichinella spiralis") kann Rinder, andere Säugetiere und auch Menschen besiedeln. Weitere Parasiten wie der Große Leberegel ("Fasciola hepatica") befallen ebenfalls neben Rindern auch Menschen; gleiches gilt für eukaryotische Einzeller wie etwa Kryptosporidien. Rinder sind sogar Zwischenwirte eines menschlichen Parasiten, des Rinderbandwurms ("Taenia saginata"). Die Rinderbrucellose ist eine sogenannte Deckseuche. Sie wird vom Bakterium "Brucella abortus" aus der Gattung "Brucella" verursacht, wenn es das Hausrind infiziert. Das Rind stellt den Hauptwirt, während fast alle Säugetiere inklusive des Menschen und Geflügel die Nebenwirte bilden. Die Hämorrhagische Septikämie des Rindes verursacht durch den Erreger "Pasteurella multocida" kann ebenfalls den Menschen, wenn auch unspezifisch betreffen. Hingegen kann die Leptospirose der Rinder, als Weil-Krankheit für den Menschen durchaus gefährlich sein.
Zu anderen gesundheitlichen Beeinträchtigungen fand eine Untersuchung von Susan Klingner (2016) an insgesamt 112 erwachsenen Individuen der LBK aus Wandersleben (Thüringen) skeletale Hinweise, die auf Erkrankungen im Zusammenhang mit der häuslichen Rauchgasentwicklung an den Feuerstellen hinwiesen; chronische Exposition mit Rauchgas. Aber auch für Fälle von Tuberkulose gab es in den Funden starke Anhaltspunkte.
Bestimmte Anteile der vegetarischen Ernährung begünstigten die Veränderung des Mikrobiom der Mundhöhle oder des dentalen Biofilms und waren mit dem gehäuften Auftreten von Zahnkaries verbunden.
Siedlungswesen.
Die bandkeramische Produktion beruhte auf Ackerbau und Viehhaltung. Das legte nahe, Siedlungen dort zu errichten, wo Wasser leicht zugänglich sowie Landschaft und Bodenverhältnisse zur bäuerlichen Arbeit und Lebensweise geeignet waren. Tatsächlich finden sich bandkeramische Siedlungen bevorzugt in den Niederungen größerer Flüsse mit Schwarzerde-Böden, allerdings nicht im Zentrum, sondern im (bis zu 300 m über dem Meeresspiegel gelegenen) Randbereich solcher Landschaften, etwa dem Rand einer Hochterrasse oder dem oberen Drittel einer zum Fluss hin abfallenden Hanglage. Siedlungen lagen oft in unmittelbarer Nähe zu Oberflächengewässern, aber auch bis zu einem Kilometer entfernt davon, wie beispielsweise in Kückhoven oder Arnoldsweiler. Die Wasserversorgung durch Brunnen erfolgte in allen Siedlungslagen und belegt den hohen Stellenwert, der einer Trinkwasserquelle unmittelbar in der Siedlung zukam. Die Entfernung zu einem fließenden Gewässer hätte in einigen Fällen nur wenige Hundert Meter betragen.
Wichtige Siedlungen sind Bylany, Olszanica, Hienheim, Langweiler 8, Köln-Lindenthal, Elsloo, Sittard, Wetzlar-Dalheim. In der frühen Bandkeramik fand sich in einer solchen Siedlung oft ein einziges Langhaus, in der späteren waren es auch drei bis zu zehn Langhäuser. Charakteristische Langhäuser der Bandkeramischen Kultur wurden bei Ausgrabungen der Bandkeramische Siedlung (Mühlengrund in Rosdorf) gefunden. In älteren Publikationen wurden größere Siedlungen angenommen; eng beieinanderliegende Funde von Hausgrundrissen scheinen jedoch zu unterschiedlichen Perioden zu gehören, und es ist zu vermuten, dass unbrauchbar gewordene Häuser in unmittelbarer Nähe neu aufgebaut wurden. Wahrscheinlich lebten Großfamilien in den Langhäusern.
Die zentralen (neolithischen) Neuerungen in einer mesolithischen Umgebung waren die Sesshaftigkeit und die unbeweglichen Besitztümer. Während sich (mesolithische) Wildbeuterkulturen eher durch eine weitgehend egalitäre Sozialstruktur ausgezeichnet haben dürften, wo der individuell zuzuordnende Besitz eine weniger dominierende Bedeutung einnahm, gewann dieser bei den sesshaften Kulturen durch Ungleichverteilung zunehmend an Bedeutung. Eine Ungleichverteilung spiegelt sich in den bandkeramischen Grabbeigaben wider. Für Gronenborn (1999) weisen die unterschiedlichen Grabbeigaben, so etwa Schmuck aus Spondylusmuscheln auf Beerdigungsstätten von privilegierten Individuen hin.
Der Weiler als typische Siedlungsform.
Siedlungen aus mehreren Langhäusern werden als "Weiler" bezeichnet; solche lagen um 3 km voneinander entfernt. Gelegentlich umgaben Gräben und Erdwälle die Weiler. Solche in den ältesten bandkeramischen Siedlungen nachgewiesenen Anlagen waren bis auf wenige Durchgänge geschlossen und stellten ein Annäherungshindernis sowohl für Tiere als auch andere Menschen dar. Sie sind daher als Befestigungen anzusehen, müssen aber nicht militärisch-strategischen Aufgaben gedient haben. Das Territorialgebiet eines Weilers umfasste ungefähr 700 ha. Zu jedem Langhaus gehörte eine Schwendbau-Ackerfläche von ungefähr 2,5 ha.
Langhäuser eines Weilers lagen etwa zwanzig Meter voneinander entfernt. Auf der Fläche zwischen ihnen finden sich Vorratsgruben, Schlitzgruben und Gruben mit Einbauten wie Grubenöfen. Nach Pechtl (2008) unterscheidet man konstruktionstechnisch zwischen Herden und Öfen. Herde als offene Feuerstellen können mit einer speziell hergerichteten Grundplatte versehen sein, weisen aber zur Seite allenfalls eine niedrige Begrenzung auf; Öfen hingegen verfügen über Wände. Grubenöfen sind durch Grabung ins Erdreich angelegte Öfen, deren Feuerraum durch die Wände der entstehenden Mulde begrenzt wird.
Zur Interpretation der Grabungen von Langweiler 8 schlug Ulrich Boelicke 1982 das „Hofplatzmodell“ vor. Dieses weist einem Langhaus alle Gruben zu, die in einem willkürlichen Radius von 25 m um seinen Grundriss liegen. Die Sprechweise vom "Hofplatz" als Wirtschaftsbereich eines bandkeramischen Hauses findet sich auch bei Jens Lüning. Das Modell wird jedoch nicht durch weitere Untersuchungen unterstützt.
Aufbau und Nutzung des Langhauses.
Laut Modderman können die LBK-Gebäude in Typen unterschiedlicher Größe eingeteilt werden.
Der Standardgrundriss eines LBK-Hauses ist rechteckig. Es besteht aus Pfosten und verschiedenen Arten von Dachbalken. Hin und wieder können an den Außenseiten doppelte Pfostenreihen auftreten. Fußböden oder Bodenbeläge konnten bisher nicht nachgewiesen werden, da die Bodenerosion der Lößflächen den Begehungshorizont zersetzt hat.
Für den Hausbau kann als eine erste eindeutig zu identifizierende Struktur im konstruktiven Aufbau der bandkeramischen Anwesen, ab deren frühen bis mittleren Phase, die zumeist fünf dachtragenden, parallel angeordneten Pfostenreihen ausgemacht werden. Sie dienten wahrscheinlich der Auflage von Pfetten. Dabei fand sich aber in vielen freigelegten Siedlungen dieses Zeitraumes nicht immer eine maßgleiche parallele Anordnung der Pfosten. Eine Pfettendachkonstruktion kann vermutet werden, deren parallel verlaufende Pfostenreihen Hinweise darauf geben, dass die Häuser vom Erdboden abgehobene, gleichförmig geneigte Dachflächen gehabt haben. Eine Y-Pfostenstellung, gibt einen Hinweis auf den Standort eines seitlichen Einganges bzw. einer möglichen Gaube für Licht und Lüftung.
Die Längsachse eines Langhauses lag in der Regel in Nord-Süd- bis Nordwest-Südost-Richtung. Die Häuser standen auf einer Grundfläche von 20 × 5 m bis 40 × 8 m; für Siedlungen im Rheinland wurden auch bis zu 255 m² berechnet. Tragende Elemente waren in 5 Reihen angeordnete Pfosten, auf der nordöstlichen Seite oft auch Holzpfähle. Die Anordnung der Pfosten ließ eine Aufgliederung des vierschiffigen Hauses in ein nördliches, ein zentrales und ein südliches Modul erkennen (siehe nebenstehende Schemazeichnung „Haustypen“). Es gab auch Langhäuser, die nur aus dem zentralen Modul oder nur aus diesem und dem nördlichen bestanden. Im zentralen Modul waren die Abstände zwischen den Pfosten größer. Eine besondere Pfostenanordnung, die sogenannte Y-Stellung, kam ausschließlich in einer früheren Form des zentralen Moduls vor. Im südlichen Modul enthielten die Pfosten zusätzliche Löcher.
Die äußeren Pfostenreihen waren mit lehmverputzten Rutengeflechten zu Wänden ergänzt, wobei die Erbauer längs der Seitenwände tiefe Entnahmegruben aushoben; im Pariser Becken wurde eine solche Grube sogar als Brunnen gedeutet. Der Holzverbrauch zum Bau von Langhäusern wie der bandkeramische Brunnenbau in Blockbohlenbauweise zeigt den hohen Aufwand bei der Holzbearbeitung. Im nördlichen Modul ging das Flechtwerk in eine geschlossene Spaltbohlenwand über. Das auf die Pfosten gestützte Satteldach war vermutlich mit Stroh, Schilf oder Rinde gedeckt. Angenommen wird, dass Schnüre das Dach zusammenhielten (siehe Kapitel zu Schnüren), obgleich die Werkzeuge der Bandkeramiker die Fertigung einfacher Steck- oder Zapfverbindungen ermöglicht hätten. Wegen der zusätzlichen Pfostenlöcher wird im südlichen Modul eine Zwischendecke vermutet.
Zur Nutzung des Langhauses lassen sich nur Spekulationen anstellen. Die Bohlenwand im nördlichen Modul könnte einer stärkeren Einwirkung der Witterung auf diese Hauswand geschuldet sein. Auch könnte das nördliche Modul der Schlafplatz gewesen sein. Für das zentrale Modul lassen zusätzliche Funde und der Nachweis von Feuerstätten an einen Wohn- und Arbeitsbereich denken. Im südlichen Modul wird wegen der möglichen Zwischendecke ein Speicher vermutet; demzufolge diente das Langhaus nicht nur als Unterkunft, sondern auch zur Vorratshaltung (etwa nach Jens Lüning). Dass das Langhaus außer Wohnung auch Stallung war, ist eher unwahrscheinlich; zumindest sind durch den Abbau von Tiermist erwartbare Phosphate nicht im Boden nachweisbar. Die während des Hausbaus bei der Lehmentnahme entstandenen Gruben wurden wahrscheinlich als Keller oder Mülldeponie genutzt. Die frühe Forschung bezeichnete sie als „Kurvenkomplexbauten“ und deutete sie fälschlich als eigentliche Behausungen der Bandkeramiker. Eine Nutzung als Wohnstallhaus kann also ausgeschlossen werden. Das Vieh wurde in angrenzenden Wäldern und Auen, kleinere Tiere wurden möglicherweise innerhalb von Umzäunungen (Pferche) nahe der Häuser gehalten.
Die Häuser wurden zumeist auf lössbedeckten Hochterrassen errichtet, das heißt auf dem oberen Drittel eines zum Wasserverlauf, Fluss, Bach hin abfallenden Geländerückens. Der Grund lag wahrscheinlich in den klimatischen Umständen des Frühneolithikums, so waren überdurchschnittliche Niederschläge häufig. Dafür sprechen folgende Indizien:
Oliver Rück schlug 2007 ein Langhausmodell mit einer teilweise vom Boden abgehobenen Wohnfläche vor. So könnte, anhand von Grabungen belegbar, der nordwestliche Teil der Gebäude vermutlich noch direkt auf dem abfallenden Gelände aufgelegen haben. Mit dem zunehmenden Gefälle der Hanglage und in Abhängigkeit von der Hauslänge selbst erhöhte sich der Abstand zum Boden im südöstlichen Hausteil kontinuierlich. Im Südwestteil der Langhäuser gab es zusätzliche Pfosten (Doppelpfostenstellungen), um die Statik der Holzkonstruktion aufrecht erhalten zu können. Wenn der Abstand zum Laufhorizont zu groß und damit die Last auf den Pfosten erhöht wurde, mussten zusätzliche Pfosten eingebaut werden. Im Nordwestteil der Gebäude fand sich immer ein kleiner Wandgraben. Angesichts der hohen saisonalen Niederschläge, könnte dieser eine Schutzfunktion für den Gebäudeteil gehabt haben, um so das Oberflächenwasser abzuleiten.
Nach Jens Lüning beherbergte ein Langhaus eine Familie von sechs bis acht Personen, seine Größe sei durch zusätzliche Speicherfunktionen bedingt. In einer jüngeren Publikation betrachtet Eric Biermann den außerordentlich hohen, kollektiven Arbeitsaufwand zu seiner Errichtung und folgert, dass es eher zwischen 20 und 40 Personen bewohnten. Auch könnten die unterschiedliche Größe und Gestaltung der Langhäuser unterschiedliche Herkunft oder den sozialen Rang ihrer Bewohner widerspiegeln.
Die Dauer einer Hausnutzung wurde nach dendrochronologischen Berechnungen auf circa 60 Jahre veranschlagt.
Erd- und Palisadenwerke.
Obgleich der bauliche Höhepunkt der Kreisgrabenanlagen auf die Zeit des Mittelneolithikums (4900–4500 v. Chr.) zu verlegen ist, waren solche ringförmigen Graben- und Wallkonstruktionen und vergleichbare Kreisgrabenanlagen schon in die Zeit des Altneolithikums (5500–4900 v. Chr.) einzuordnen. Sie sind den Kulturen der Linienbandkeramik sowie der späteren Trichterbecherkultur (etwa 4200–2800 v. Chr.) zugerechnet worden. Die ältesten Anlagen waren als annähernd kreisförmige, elliptische oder rechteckige Gruben-Wall-Kombinationen angelegt, kombinierten ausgehobene Gräben mit aufgeworfenen Wällen, und stammen aus dem Kontext der LBK im Altneolithikum. Seit dieser Zeit wurden tiefe und breite Gräben ausgehoben, deren Ausmaße als eine organisierte, gemeinschaftliche Arbeitsleistung gedeutet werden. Erdwerke dieser Art werden insgesamt in die Zeit zwischen 5500 und 3500 v. Chr. datiert.
Die archäologische Erkundung und Erfassung weist zusammenhängende Systeme von Gruben, Gräben, Wällen und Palisaden nach, die erstmals in der Bandkeramik auftreten und als Erdwerke bezeichnet werden. Diese können eine Siedlung umschließen oder nicht; einen Überblick bieten die Liste der Erd- und Palisadenwerke der Bandkeramischen Kultur sowie Meyer/Raetzel-Fabian. Erdwerke sind schon für die älteste Linearbandkeramik nachgewiesen, in der jüngeren jedoch häufiger.
Ein Erdwerk kann eine runde geschlossene Linie bilden, seine Längsachse nach den Haupthimmelsrichtungen orientiert sein. Olaf Höckmann wies 1990 darauf hin, dass sich bei den eindeutig definierten Graben- oder Palisadenstrecken eine auffällige Vorliebe für die Ausrichtung der Bauwerke in Nord-Ost nach Süd-West und Nord-Süd abzeichne, während die im Hausbau dominierende Nordwest-Südost-Achse hier keine Rolle spiele. Er interpretierte diese Ausrichtungen im Zusammenhang mit astronomischen Bezügen etwa von Sonnenbeobachtungen zur Kalenderregelung.
Der Begriff war zunächst auf Anlagen mit kontinuierlich angelegtem Grabenzug beschränkt, schließt inzwischen aber aufgrund der Beobachtungen in Herxheim und Rosheim im Elsass auch andere Anlagen ein. Bei letzteren kann wegen ihrer sukzessiven Entstehung und ihrer Bauweise als einzelne, einander überlagernde Langgruben eine Verteidigungsfunktion ausgeschlossen werden. Bisweilen finden sich in den Langgruben Skelette oder Teile von ihnen, ebenso wie Keramiken, Tierknochen, Feuerstein; sie könnten eine kultische Bedeutung gehabt haben.
In Esbeck wurde eine Befestigungs- und Siedlungsanlage (Erdwerk von Esbeck) freigelegt. Heege und Maier (1991) und andere konnten einen doppelten Graben nachweisen, der die neolithische Siedlung teilweise umschloss. Ein gleicher Graben und ein Flechtwerkzaun umgaben die Siedlungen von Eilsleben und Köln-Lindenthal. Ähnlich wie bei der Errichtung der Langhäuser waren diese Befestigungen auch nur in Gemeinschaftsarbeit wahrscheinlich.
Brunnenbau.
Ein Brunnen ist eine Konstruktion zur Wasserförderung aus einem Grundwasserleiter, damit eröffnete sich für die Siedlungen eine geregelte Wasserversorgung. Bandkeramische Brunnen bestanden aus bis zu 15 Meter tiefen Gruben. Es waren meist im Blockbau zusammengefügte Holzkonstruktionen (sog. Kastenbrunnen) sowie hohle oder ausgehöhlte Stammtrommeln (sog. Röhrenbrunnen) die von der Sohle bis zur Oberfläche aufgerichtet wurden. Jedoch ist es immer noch umstritten, ob ein Brunnen zwingend mit Holz ausgesteift sein musste, da im Lauf der Jahre immer wieder Brunnen ausgegraben worden sind, in denen die Befundsituation keine Rückschlüsse auf Holz zuließ. Im Verlauf der Bauarbeiten wurden die Gruben mit dem Aushub wieder randverfüllt. Bislang gibt es keine Hinweise auf einen sichernden Ausbau der Baugruben (die so genannte Pölzung). Offensichtlich besaßen die dicht gefügten und überdies in aller Regel auch kalfaterten Brunnenkästen zwei Funktionen: Sie bildeten einmal einen Vorratsbehälter für das Grundwasser und spielten zugleich die unverzichtbare Rolle einer Pölzung.
Das wichtigste Werkzeug zur Holzbearbeitung u. a. für den Brunnenbau war die auf einem Knieholm mit der Schneide quer zur Schlagrichtung geschäftete Dechsel. Parallel geschäftete symmetrische Beilklingen sind für die Linienbandkeramik nicht belegt und traten frühestens fallweise erst im spätesten Mittelneolithikum, regelhaft aber erst im Jungneolithikum auf. Experimente mit Nachbauten von bandkeramischen Dechseln haben deren Effektivität belegt.
Kulturtechniken, Bevölkerungsdichte und soziokulturelle Organisation.
Die Einführung der Landwirtschaft machte Kohlenhydrate für die menschliche Ernährung erheblich einfacher verfügbar. Mit der Nutztierhaltung schuf sie eine weitere Voraussetzung für eine Zunahme der Besiedlungsdichte. Die genannten neuen Techniken waren von weiteren begleitet, etwa dem bandkeramischen Brunnenbau zur Sicherung der Wasserversorgung, oder der Vorratswirtschaft. In bandkeramischen Siedlungen waren ferner Fragen der Land- und Besitzverteilung und -sicherung zu klären.
Die Besiedlungsdichte (einer beliebigen Bevölkerung) kann nicht weiter zunehmen, wenn die Ressourcen der natürlichen Umgebung dieser Bevölkerung erschöpft sind. Genauer wird als maximale Tragfähigkeit ( "= carrying capacity") eines Lebensraums diejenige Individuenzahl einer Gruppe von Menschen definiert, für die die Gruppe im betrachteten Lebensraum für unbegrenzte Zeit existieren könnte, ohne ihn dauerhaft zu schädigen. Beispiele für erschöpfbare Ressourcen sind Bauholz oder Energieträger wie Brennholz und Nahrung, die auf einer gegebenen Fläche langfristig nur in begrenzter Menge gewonnen werden können. Nach Andreas Zimmermann (2010) lag die geschätzte Bevölkerungsdichte der autochthonen mesolithischen Bevölkerung Mitteleuropas zum Zeitpunkt des Eintreffens der ersten neolithischen Zuwanderer bei circa 0,013 Einwohner/km². Im weiteren Verlauf der LBK-besiedlung stieg die Zahl auf circa 0,5 bis 0,7 Einwohner/km²; dabei befinden sich zwischen den einzelnen Siedlungsclustern unbewohnte oder nur temporär genutzte Areale.
Die Struktur der bandkeramischen Gesellschaften bleibt im Detail ungeklärt. Zumeist wird von einer segmentären, gering arbeitsteiligen und weitgehend egalitären Gesellschaftsform ohne größere soziale Differenzierung ausgegangen.
Dieser Standpunkt ist angesichts der Befundinterpretationen nicht unumstritten, zeigen doch archäologische Funde bei Ausgrabungen von Grabstellen, dass die Grabbeigaben hinsichtlich ihres Umfangs und Wertes unterschiedlich waren.
Das soziale Miteinander der frühen Linearbandkeramiker war durch weiträumig verbreitete Familienverbände gestaltet. Diese waren durch eigenständige, typische "Silex-Austausch-Netzwerke" verbunden geblieben, wie sich dies vor allem an der Rohmaterialversorgung mit Silex zeigen lässt.
Soziale Strukturen in bandkeramischen Siedlungen, Residenzformen.
Erich Claßen und Andreas Zimmermann (2016) sehen als soziale Grundeinheit der LBK den einzelnen, potentiell autarken Haushalt, der seinen Ausdruck in den mehr oder weniger großen Abständen der einzelnen Häuser bzw. Weiler oder Hofplätze (Gebäudecluster) findet. Wie Grabungsbelege des auf die anlagenbezogenen Abfälle zeigten, war jeder Haushalt eine Konsumtionseinheit. Das Haus wurde, so die Hypothese, von drei Generationen bewohnt. Ursula Eisenhauer (2003) nimmt unilineare-patrilokale Residenzregeln an.
Die Strontiumisotopenanalyse aus den weiblichen und männlichen Skelettfunden lässt eine patrilineare oder patrilokale Deszendenz annehmen. Das heißt, eine weibliche Folge (Residenzregel) zum Lebensort des Mannes. Die von R. Alexander Bentley et al. analysierten Muster weisen darauf hin, dass Frauen häufiger als Männer aus Gebieten außerhalb der bevorzugten Löss-Siedlungsgebiete stammten. Nach der (rituellen) Paarbildung oder Partnerschaft richtete sich die Gemeinschaft überwiegend am väterlichen Wohnsitz ein.
Dabei war die durchschnittliche Lebenserwartung der weiblichen Linearbandkeramiker niedriger als die der männlichen. Anhand von Untersuchungen der Oberarm- und Unterschenkelknochen männlicher und weiblicher Bandkeramiker zeigten sich ausgeprägte Veränderungen des Oberarms, die typisch für eine starke körperliche Belastung sind. Die bandkeramischen Bäuerinnen leisteten harte, physisch stark fordernde Arbeit. Die Männer gingen auf die Jagd, hüteten das Vieh, betrieben Handel und auswärtige Angelegenheiten, waren bei der Bewirtschaftung der Felder tätig, die Frauen steckten ihre Arbeitskraft unter anderem in das Mahlen des Getreides und in das Töpfern.
Werkstoffe und ihre Wege.
Es gibt einige deutliche Hinweise, dass Mitglieder bandkeramischer Siedlungen eine Form des Bergbaus betrieben. Dies gilt für den Rötel-Abbau ebenso wie für die Suche nach Feuerstein.
Werkstoffe wurden teilweise über große Entfernungen verbracht (mögliche Austauschsysteme). So gelangte Rijckholt-Feuerstein aus der niederländischen Provinz Limburg bis ins Rheinland. Als Rohmaterial bandkeramischer Schuhleistenkeile wurden bevorzugt Amphibolite verwendet, worunter metamorphe Gesteinsarten der Aktinolith-Hornblende-Schiefer-Gruppe (Kürzel: "AHS-Gruppe") zusammengefasst werden. Amphibolit gelangte wahrscheinlich aus dem heutigen Böhmen in westlichere Siedlungsräume, so dass von Kontakten zwischen Menschen in noch weiter voneinander entfernten Regionen auszugehen ist.
Im Rheinland, aber nicht nur dort, gab es größere Haupt- oder Zentralsiedlungen der Bandkeramiker wie Langweiler 8 sowie kleinere Nebensiedlungen. Von Siedlung zu Siedlung wurden nachweislich Artefakte aus Feuerstein (synonym: "Silexartefakte") weitergegeben, etwa Rohstücke und sogenannte Grundformen (Abschläge, Kerne etc.), aber auch halbfertige Geräte wie Klingen und fertiggestellte wie Bohrer oder Kratzer. Die Fundstücke aus kleineren Siedlungen stammen meist aus benachbarten größeren Ansiedlungen.
Nach Intra-Site-Analysen, d. h. Untersuchungen zu den Vorgängen innerhalb eines Fundplatzes, sind solche Weitergaben auch innerhalb je einer bandkeramischen Siedlung anzunehmen. Sie sind vermutlich auf soziale Differenzierungen innerhalb der Siedlung zurückzuführen.
Werkzeuge.
Im Umfeld der bandkeramischen Kulturen wurden verschiedenste Werkzeuge gefunden. Der Versuch einer vollständigen Rekonstruktion des bandkeramischen Werkzeuginventars stößt auf die Schwierigkeit, dass vermutbare Werkzeug(teil)e fehlen, wenn sie aus organischem Material gefertigt wurden und zersetzt sind.
Trennende oder schneidende Werkzeuge (lithisches Inventar).
Zunächst seien die (steinernen) Dechselklingen erwähnt. Eine Dechsel ist ein quergeschäftetes Hauwerkzeug, d. h. ihre Klinge ist so in einen Schaft eingefügt, dass deren Schneide rechtwinklig die Ebene eines Hiebs durchläuft. Seltener werden an den Fundplätzen durchbohrte Keulenköpfe gefunden. Die Artefakte der Bandkeramiker zeigen als Voll- oder Hohlbohrung ausgeführte echte Bohrungen; sie sind insofern komplexer gefertigt als die im Mesolithikum verwendeten.
Die Bandkeramiker verwendeten häufig einen schmal-hohen Dechseltyp, dessen Klinge in Anlehnung an die Form der Schuhmacherleiste als Schuhleistenkeil bezeichnet wird. Der Begriff beschreibt die flache Unter- und die gewölbte Oberseite der Klinge, die oft einen D-förmigen Querschnitt ergeben. Eine experimentelle archäologische Untersuchung, das „Ergerheimer Experiment“, wies nach, dass sich mit diesen Steinwerkzeugen unter einem gewissen Aufwand Bäume fällen lassen. Eine Klassifikation der Schuhleistenkeile nach Formtyp ist aber nur bedingt möglich, da Gebrauch und Nachschärfung einer Klinge ihre Form verändern können. Auch gab es neben Schuhleistenkeilen bereits in der Bandkeramik flache und breite Klingen; damit ausgestattete Dechseln heißen Flachbeile. Die Hauwerkzeuge wurden auch als Waffe verwendet, wie Verletzungsmuster an Skelettteilen, insbesondere Schädelkalotten, belegen.
Die Bandkeramiker verwendeten auch Sicheln, gefertigt aus einem leicht gekrümmten Stück Holz. In dessen konkave Seite wurden Kerben eingebracht und in den Kerben scharfkantige Klingenabschläge mit Birkenpech befestigt. Vielfach weisen die Funde Sichelglanz auf. Dieser entsteht durch intensiven Gebrauch einer Sichel beim Schneiden von Pflanzen, insbesondere Gräsern, die Kieselsäurepartikel enthalten, denn jene wirken wie ein Schleifmittel auf die Sichel.
Neben dem klassischen Silex wurden weitere Rohmaterialien zur Herstellung geschlagener Artefakte oder Werkzeuge in den Siedlungen verwendet. So fanden sich etwa bei Grabungen in Stephansposching nach Pechtl (2017) folgende mineralische Rohstoffe in dieser linearbandkeramischen Kultur Südbayerns: Jurahornstein, alpiner Radiolarit, Lydit, Quarzit, Rhyolith, Obsidian. Sowohl die sichelartigen als auch beil- und hammerartigen „Holz-Seil-Stein-Werkzeuge“ sind aus physikalischer Perspektive einfache Maschinen.
Fernwaffen.
In der bandkeramischen Kultur wurden Hornstein und Flint zur Herstellung von Pfeilspitzen oder Pfeilköpfen verwendet. So weisen Funde im Feuersteinbergwerk von Abensberg-Arnhofen darauf hin, dass besonders in der späten Bandkeramik der Abensberg-Arnhofen-Hornstein ein bevorzugtes Rohmaterial für die Werkzeugherstellung war. Die Pfeilspitzen waren oft relativ klein, ihr Umriss dreieckig, die seitlichen Kanten gerade. Ihre Herstellung war einfach: Von einem pyramidalen Kern wurden Klingen abgebaut, diese wurden gezielt zerbrochen und durch Retusche weiterverarbeitet. Der größte Nachteil von Flintspitzen ist deren Sprödigkeit, denn bei einem Fehlschuss zersplittert die Spitze oft. Bei Aufprall auf einen Knochen im Körper eines Beutetiers oder Feindes geschieht dies ebenfalls, jedoch sind auch die Splitter scharfkantig und glattflächig und werden kaum gebremst. Durch Verlagerung des Schwerpunkts nach vorne sowie durch größenbedingten geringen Luftwiderstand ermöglichen solche Pfeilspitzen hohe Treffsicherheit. Im europäischen Neolithikum wurden Pfeile bevorzugt aus den Schösslingen des Wolligen Schneeballs gefertigt, die wegen des faserigen Aufbaus sehr elastisch und bruchfest sind (Schäftung).
Fasern, Schnüre und Stoffe.
Fasern wurden aus pflanzlichem oder tierischem Material gewonnen, für den Alltagsgebrauch verarbeitet und meist nur auf Zugkraft belastet. Schnüre wurden wahrscheinlich aus Bastfaser gefertigt, wie in anderen neolithischen Kulturen auch. Neben Bast aus Lindenbäumen, der im Neolithikum sehr häufig verwendet wurde, konnten auch Baste anderer Bäume verarbeitet werden. Je nach Baumart mussten sie zuvor verschieden lange in Wasser „gerottet“ werden.
Auch Stängelfasern von Brennnesseln und Lein fanden vermutlich Anwendung, sind aber nicht eindeutig belegt.
Handspindel aus Ton wurden bei der Ausgrabung der Siedlung Rosdorf „Mühlengrund“ gefunden. Diese Spinnwirtel konnten zur Herstellung von Fäden dienen und damit zur Herstellung von Textilien. Einige Funde weisen darauf hin, dass durch das Spinnen und Weben von Nesseln oder Flachsfasern Stoffe gefertigt wurden. Tönerne Figurinen und figürlich geformte Gefäße lassen sich als Männer oder Frauen anhand der Unterschiede in Barthaar, Frisur, Kopfbedeckungen und Bekleidung identifizieren. Bei beiden Geschlechtern sind hosenartige Beinkleider und Überwürfe über den Oberkörper zu sehen; der Ausschnitt ist jedoch für Frauen spitz, für Männer rund dargestellt.
Ein Rindenbastbeutel wurde in einem Brunnen in Eythra südlich von Leipzig gefunden und in die Zeit um 5200 v. Chr. datiert. Aufgrund der Bedingungen im Grundwasserspiegel war der Beutel fast vollständig erhalten geblieben.
Haushalts- oder sonstige Werkzeuge.
Geerntetes Getreide wurde in Schiebemühlen geschrotet. Eine Schiebemühle besteht aus zwei Mahlsteinen, dem "Unterlieger" und dem Oberlieger oder "Läufer". Um Getreide zwischen den Mahlsteinen zu schroten, kniete eine Person vor dem Unterlieger, ergriff den Läufer und schob ihn vor und zurück. Der nicht unerhebliche Steinabrieb verblieb im Mahlgut. Die Betätigung einer Schiebemühle war eine körperlich anstrengende Arbeit. Da Schiebemühlen häufig als Grabbeigaben bei weiblichen Bandkeramikern gefunden wurden, wurde sie wahrscheinlich eher von Frauen durchgeführt.
Jens Lüning nimmt an, dass bereits die Linienbandkeramiker den Pflug nutzten.
Hölzerne Sitzmöbel und Haushaltsgeräte.
Jens Lüning vermutet, dass die auf den Figurinen abgebildeten Sitzmöbel, so eine Bank und Dreibeinschemel, auch im bandkeramischen Alltag Verwendung fanden.
Ausgrabungen aus einem Brunnen in Erkelenz-Kückhoven förderten u. a. drei aus Ahornholz gefertigte Artefakte zutage, ein becherförmiges Holzgefäß (10,5 × 13 cm), eine Kniehacke mit zungenförmigen Blatt aus einer Astgabel (51 cm Länge), eine massive Schöpfkelle sowie Bruchstücke eines Hackenblattes aus Eichenholz. Das harkenförmige Gerät wies ursprünglich sechs Zinken auf.
Bootsbau.
Dass die Bandkeramiker den Bootsbau beherrschten, ist aufgrund ihrer Siedlungsweise im flussnahen Raum wahrscheinlich, wenn sich auch hierfür nur indirekte Belege finden lassen. Dennoch waren die Voraussetzungen zur Herstellung von Einbäumen gegeben, denn man verfügte über Baumstämme und die handwerklichen Fähigkeiten sowie die Werkzeuge. So sind Korb- oder Fellboote oder eben Einbäume zu vermuten.
Feuerentzünden.
Die Feuererzeugung wurde wahrscheinlich durch Schlagfeuerzeuge (Perkussion) und nicht mit Reibefeuerzeugen (Friktion) bewirkt. Solche Schlagfeuerzeuge bestanden aus drei obligaten Bestandteilen: einem „Funkenspender“ aus einem feinkristallinen Schwefelkies (Pyrit/Markasit), einem „Funkenlöser“, also einem Feuerschlagstein aus einem harten Kieselgestein (Feuerstein, Hornstein, Quarzit oder ähnlichem) und einem „Funkenfänger“, zumeist Zunder aus einem Baumschwamm ("Fomes fomentarius").
Die Standardmethode des Feuerentzündens war das „Schwefelkies-Feuerzeug“, das an diversen Funden auch der bandkeramischen Kultur belegt werden kann. Man bezeichnet sie auch als „Markasit-Feuerzeuge“. Zum Funkenschlag wird ein Stück Pyrit oder Markasit mit einem anderen Stück Pyrit oder einem Feuerstein geschlagen. Die erzeugten Funken fallen dabei in ein leicht entflammbares Material. Der Pyrit mit seinem verbrennenden Schwefelanteil ist dabei der „Funkenspender“, der Feuerschlagstein der „Funkenschläger“. Als Zunderschwamm ("Fomes fomentarius") oder Baumschwamm eignet sich neben dem Zunder mit ähnlichen Eigenschaften auch der Birkenporling ("Piptoporus betulinus").
Keramik (keramisches Inventar).
Im sogenannten „offenen Feldbrand“ (Brennen) wurden aus Tonmineralen Keramiken hergestellt. Hierzu nutzte man Grubenöfen. Solche Grubenöfen finden sich häufig, es sind unterhalb des Bodenniveaus in ausgehobener Erde angelegte Öfen, deren Feuerraum aus dem anstehenden Erdmaterial herausgegraben wurde. Die zuvor an der Luft getrockneten Artefakte wurden in eine solche Grube über- und nebeneinander aufgereiht oder gestapelt; um diese herum erfolgte der Wärmeeintrag. Sobald sich die Keramiken gleichmäßig erwärmt hatten, wurden die zum Teil abgebrannten Holzscheite näher zu den Keramiken heran geschoben, bis das Ganze komplett bedeckt war und die Stücke zu glühen begannen. Hiernach wurde die Grube abgedeckt, so dass die Töpfereien im Reduktionsbrand weiter brennen konnten. Die Oberflächen der Keramiken wurden schon mittels Tonanguss geglättet. Obgleich die Öfen nicht sehr hohe Temperaturen erzeugten, waren sie ausreichend, um die Gefäße widerstandsfähig zu machen. In einem offenen Feldbrand werden Temperaturen um 800 °C erreicht. Per definitionem spricht man ab einer Brandtemperatur von 600 °C von einer . Ein Feldbrand dauerte circa 5–6 Stunden. Bei einer Reihe der bandkeramischen Keramiken fand man Vorrichtungen in Form von Knubben, Ösen oder Grifflappen, die, so die Vermutungen, zur Befestigung von Schnüren dienten. Die Färbungen des gebrannten Irdenguts reichten von gelblich-grau-beige über rotbraun bis hellgrau und dunkelgrau-schwarz. Solche fleckigen, verschiedene Farbtöne aufweisende Scherben oder Gefäße geben einen Hinweis auf Ungleichmäßigkeiten beim Brand. Prinzipiell gilt, dass oxidierend gebrannte Tonmineralien als Ergebnis helle bis rötliche Keramik ergeben, während reduzierend gebrannte Tone zu dunkleren bis schwarzen Farbmusterungen führen.
Inwieweit bei der Herstellung der Keramiken eine geschlechtsspezifische Arbeitsteilung bestand, kann man nicht direkt belegen. Ethnographische Studien deuten darauf hin, dass auch in den bandkeramischen Kulturen eine solche Arbeitsteilung bestanden haben könnte. Hierbei ist zu berücksichtigen, dass die Herstellung von Keramiken ein mehrteiliger Prozess ist, er umfasst eine Reihe von Arbeitsschritten. So steht die Gewinnung und möglicherweise der Transport des Rohmaterials am Anfang. Danach folgt die Aufbereitung des Rohmaterials zu einer gebrauchsfähigen plastischen Masse. Sodann werden die Gefäße mit der Hand geformt, luftgetrocknet und in lederhartem Zustand verziert. Nachdem die Objekte durchgetrocknet sind, werden sie in der oben beschriebenen Weise gebrannt. Für diese einzelnen Schritte sind unterschiedliche physische und manuelle Fertigkeiten oder Anforderungen zu erfüllen. Gewinnung, Transport und Vorbereitung der Rohmaterialien sind durchaus körperlich anstrengende Tätigkeiten, die neben Ausdauer auch Kraft erfordern. Für den offenen Feldbrand, das Anlegen der Brenngruben und den Brand selbst ist aber vor allem große Erfahrung nötig, ebenso beim Formen der Keramiken sowie dem Anlegen der Verzierung, wo (manuelle) Geschicklichkeit und Erfahrung grundlegend sind.
Formen und Stilphasen.
Die Standardformen bandkeramischer Keramik sind: Kumpf, Flasche, Butte (eine Flasche mit fünf Querhenkeln) und Schale. Es besteht eine große Ähnlichkeit zur Keramik der danubischen Starčevo-Kultur. Es lassen sich unterschiedliche Stile oder besser Stilphasen unterscheiden.
So zunächst einmal eine ältere Bandkeramik 5700–5300 v. Chr. und eine jüngere 5300–4900 v. Chr. Bei der letztgenannten westlichen Bandkeramik kann man im Wesentlichen die Stilphasen des Rubané du Nord-Ouest, Rubané de l'Alsace, Rubané du Neckar und die Rubané du Sud-Ouest unterscheiden. Die Gefäße der ältesten Bandkeramik waren dickwandig und stark organisch gemagert. Man verwendete eine Technik, die Keramiken ohne rotierende Töpferscheibe herzustellen, indem Tonstreifen spiralförmig aufgebaut oder geschichtet und die Stöße anschließend verstrichen wurden.
Es wird zwischen verzierten und unverzierten Keramiken unterschieden, was allerdings eine eher technische Einteilung darstellt, da unverzierte Keramiken z. T. auch Verzierungen (z. B. Randmuster) aufweisen. Die Gruppe der unverzierten Keramiken besteht hauptsächlich aus Vorratsgefäßen von grober Machart und größerer Wandstärke. Verzierte Keramiken sind hauptsächlich Kümpfe aus feinem Ton mit geringer Wandstärke.
Verzierung der Keramiken.
Die Verzierungen der Keramiken bestehen hauptsächlich aus den dieser Kultur ihren Namen gebenden Parallelbändern mit Ritzverzierungen. Solche Verzierungen mit linearen Mustern wurden in den noch weichen Ton rund um das Gefäß eingeritzt, gestochen und gerillt, um hiernach gebrannt zu werden. Daneben treten Motive auf, die in den Leerräumen zwischen den Bändern angebracht wurden, sogenannte Zwickelmotive (siehe Abbildung rechts: z. B. die drei waagerechten Linien auf dem Kumpf). Es ist anzunehmen, dass die Verzierungen, vor allem die Zwickelmotive, nicht nur einen dekorativen Zweck erfüllten, sondern vielmehr als Ausdruck der Zusammengehörigkeit oder als Zeichen für soziale Gruppen zu verstehen sind. Aus dem 1973 begonnenen Projekt „Siedlungsarchäologie der Aldenhovener Platte (SAP)“ (Rheinland) ging ein Merkmalskatalog hervor, der ein Aufnahmesystem für die Bearbeitung der Keramiken bietet und in jüngerer Zeit durch die AG Merkmalskatalog überarbeitet, ergänzt und online zur Verfügung gestellt wurde.
Zusammenfassend können als typische Verzierungen der Epoche die vielfältigen eingeritzten, gerillten, gestochenen und reliefartigen Muster gesehen werden sowie die Linien oder Linienbänder. Typische Motive sind auch Spiralen, Wellen- und Bogenmuster mit verschiedenen Zwickelmustern, Mäandern, Winkelmustern, Zickzackreichen, geraden Linien, kurzen Strichen, Kerben, Kreuzen, Dreiecksreihen und flügelartigen Motiven. In der jüngeren Phase (Zseliz-Ware) kommen auch tierkopfförmige Griffknubben vor (Draßburg, Burgenland).
Schmuck und künstlerische Darstellungen.
Die Bandkeramiker verwendeten Muschelschalen der Stachelauster ("Spondylus gaederopus," auch Lazarusklapper genannt), die im Schwarzen Meer, im Mittelmeer und im angrenzenden Atlantik vorkommt. Sie fertigten aus den Spondylusschalen Armringe, Gürtelschnallen und Anhänger. Sie finden sich vor allem in Gräberfeldern, hier sind Aiterhofen-Ödmühle in Bayern und Vedřovice in Mähren zu nennen. Die im Binnenland, weit von den Meeresküsten gefundenen Schmuckstücke zeigen die bestehenden Handelsnetze über große Entfernungen an.
Die anthropomorphe Plastik.
Typische Plastiken waren Tonfigurinen von Menschen, Tieren und Tier-Mensch-Mischwesen aber auch figürlich geformte Gefäße. Gefunden wurden sie nicht als Grabbeigaben, sondern ausschließlich im Siedlungsbereich. Viele wurden intentional zerstört, erkennbar daran, dass die zerschlagenen Artefakte nicht an den Schwachstellen des Materials zerbrochen sind. Ferner fanden sich Hackspuren etwa am Torso der Figurinen.
Schon bei den ältesten Bandkeramikern fanden sich die verschiedenartigsten Gattungen anthropomorpher Darstellungen. Oft sind es Voll- oder Hohlplastiken, geritzte menschliche Darstellungen und figürliche Funde aus Knochen. Die Plastiken sind stereotyp und leiten sich von der Kultur ab, aus der die LBK hervorging, der Starčevo-Kultur. Sie begleiten als Kulturerscheinung die Ausbreitung der Bandkeramik in Mitteleuropa, wobei sie sich auf das Siedlungsgebiet der ältesten Bandkeramik beschränken und sich Fundkonzentrationen im ostdeutschen, österreichisch-slowakischen und mainfränkisch-hessischen Raum abzeichnen. Insgesamt sind um die 160 Bruchstücke bekannt, die sich auf etwas mehr als 120 Fundorte verteilen. Innerhalb des bandkeramischen Spektrums zählt die Gruppe der Statuetten somit zu den seltenen Funden.
Figurale Kleinplastiken sind aus Ton gefertigt, von geringer Größe und wurden fast immer zerbrochen aufgefunden. Bandkeramischen Ursprungs sind die Darstellungen der runden Augenhöhlen, das Verzierungselement der ineinander gestellten Winkel, die oft in die Seiten gestemmten Arme und die Lockenfrisur einiger Statuetten. Während von den mittelneolithischen Kulturgruppen im Westen Deutschlands (Großgartacher Kultur, Rössener Kultur, Hinkelstein-Gruppe) keine anthropomorphe Plastik bekannt ist, gibt es einige Figurinen der Stichbandkeramik in Sachsen und Böhmen, sehr vielfältige und zahlreiche Figurinen dagegen in der gleichzeitigen östlichen Lengyelkultur.
Vielen Figuren, wie die sitzenden („thronenden“) und reich verzierten Plastiken der älteren LBK von Maiersch, fehlen eindeutige Geschlechtsmerkmale. Jens Lüning deutet diese Ritzverzierung – auch die der tiergestaltigen – als Kleidung, was zumindest bei der Darstellung von Gürteln und Halsausschnitten von Kleidungsstücken in verschiedenen Fällen plausibel ist. Hermann Maurer (1998) fokussiert hingegen stärker auf Ornamente, die an Skelettdarstellungen erinnern und von ihm im Sinne eines kulturübergreifenden „Röntgenstils“ verstanden werden.
Das Bruchstück des in die mittlere bis jüngere LBK datierenden „Adonis von Zschernitz“ stellt neben der Plastik aus Brunn-Wolfsholz die bisher älteste eindeutig männliche bandkeramische Tonfigur dar. Dieter Kaufmann ging 2001 davon aus, dass diese Figürchen absichtlich zerbrochen wurden, die als sogenannte Substitutopfer gedient haben könnten. Dafür spricht, dass die Plastiken nicht nur an herstellungsbedingten Schwachstellen (Kopf, Arme, Beine), sondern auch am Rumpf zerbrochen waren, etwa der besagte „Adonis von Zschernitz“. Alle Plastiken stammen – sofern es keine Lesefunde sind – aus Haus- oder Siedlungsgruben, was eine kultische oder rituelle Bedeutung im Haus nahelegt.
Figuralgefäße.
Neben der Plastik kommen auch menschen- und tierförmige Figuralgefäße vor. Manche Gefäße – etwa die flaschenförmigen der älteren Linearbandkeramik von Ulrichskirchen und Gneidingen – weisen Gesichtsdarstellungen auf, oder sie stehen auf menschlichen Füßen.
Kleidung (textiles Inventar), Kopfbedeckungen und Haartrachten abgeleitet aus Statuetten.
Für Jens Lüning (2005), (2006) stellen die figürlich-anthropomorphen Darstellungen aus Ton ein bedeutsames Quellenmaterial dar, um Haartrachten, Kopfbedeckungen aber auch Kleidungsstücke von Männern und Frauen der seinerzeitigen Kultur zu rekonstruieren. Die auch als Idole bezeichneten Figurinen sind zumeist zwischen 10 und 35 cm hoch und hätten, so die Arbeitshypothese, im Ahnenkult eine wichtige Rolle gespielt. Neben diesen Gegenständen bezeugen Funde aus bandkeramischen Siedlungen, wie etwa die Spinnwirtel und Webgewichte, dass man prinzipiell Fasern, wahrscheinlich Flachs oder Lein und wollartige Fasern verspann. Weitere Indizien sind Funde aus bandkeramischen Brunnen, die man als grobe bis feine Geflechte beschrieb. Ferner existiert der Abdruck eines Leinengewebes auf einem Hüttenlehmbrocken aus Hesserode, Landkreis Melsungen in Nordhessen. Die männlichen Tonfiguren der Bandkeramik weisen überaus häufig vielgestaltige Kopfbedeckungen auf. Lüning vermutet 2006, dass diese aus Leder (Gerben), Geflechten, Leinen oder Filz und auch aus Kombinationen jener Materialien bestanden haben könnten.
Für die Art und Weise, wie Haare getragen wurden, leitete man aus den Darstellungen an den Figurinen verschiedene Haartrachten ab; etwa die sogenannten „Oberkopf-Lockenfrisuren“ und „Hinterkopf-Lockenfrisuren“. Im ersten Falle säßen die Locken auf dem Oberkopfbereich, während im zweiten Falle die Locken am Hinterkopf angeordnet waren, am Vorderkopf hingegen wären dabei die Haare glatt angelegt gewesen. Als eine dritte Form konnte eine „Zopffrisur mit Haarkranz“ abgeleitet werden, sodann eine vierte sogenannte „Bänderhaubenfrisur“ – ein Band teilte die Haare vom Stirn-Oberkopfbereich zum Nacken – und eine fünfte „Schneckenhaubenfrisur“ sowie eine Sechste die (cornrow-ähnliche) „Ährenfrisur“. Inwieweit die auf den Tonfigurinen dargestellten Frisuren aber mit der (Alltags-)Haartracht der Bandkeramiker übereinstimmten bleibt hypothetisch.
Aufgrund der reichen Symbolik auf den Tonfiguren, den Unterschieden in der Form der Haartrachten und der Kopfbedeckungen sowie unterschiedlichen Mustern auf der (figurinen) Kleidung nimmt man an, dass es sich um den Ausdruck entsprechender Kennzeichen der Familien, Lineages und Clans gehandelt haben könnte.
Gräber und Spiritualität.
Die linearbandkeramische Kultur als eine schriftlose Kultur hinterließ keine Aufzeichnungen ihrer Glaubensvorstellungen und ihres Weltbildes. Obgleich schriftlose Kulturen in der Regel über komplexe mündliche Überlieferungen, mündliche Literatur und Erzählungen (Narrative) verfügten, stehen für die wissenschaftlichen Auswertungen aber nur die materiellen Hinterlassenschaften der Bandkeramiker zur Verfügung oder können nur so erschlossen werden. Grundlage einer Rekonstruktion der Religionen können aus diesem Grunde nur (hypothetische) Interpretationen der Ausgrabungsberichte sein. Eine Konstanz und Regelhaftigkeit, etwa bei der Graborientierung wäre ein Hinweis darauf, dass die symbolischen Signifikanten der Ausrichtung in Bezug auf die Himmelsrichtung bzw. Sonnenlauf, die als solche bekannt sein musste, einen signifikatorischen Gehalt haben könnte.
Umgang mit den Toten.
Für einen Totenkult bzw. ein Begräbnisritual sprechen die im Folgenden aufgeführten Handlungen. Im Zentrum der Trauernden stand der Verstorbene und die ihm mutmaßlich in unterschiedlicher Weise zugutekommenden kollektiven Aktionen.
Es gibt gehäuft auftretende Merkmale, die als charakteristisch für die Bandkeramiker anzusehen sind:
Die Linienbandkeramik kannte Brandbestattungen, Teil- und Körperbestattungen auf Gräberfeldern, in Siedlungen und an anderen Orten. Einzel- und Kollektivbestattungen wurden gefunden, bisweilen beide Bestattungsformen auf demselben Gräberfeld.
Bei den Körpergräbern wurde ein Leichnam zumeist in linker, seltener in rechter Seitenlage hockend gebettet (Hockergrab). Seine Längsachse (anatomisch: Longitudinalachse) entsprach zumeist der Nordost-Südwest-Richtung, die gedachte Blickrichtung oft der östlichen oder südlichen Himmelsrichtung.
Die Toten wurden in Tracht und mit Beigaben bestattet, dabei zeigen sich geschlechtsspezifische Unterschiede. Typische Trachtbestandteile waren Ketten und Kopfschmuck, Armringe und Gürtelschließen. Die Gräber konnten Perlen enthalten, die der Stachelauster ("Spondylus gaederopus") entstammten; diese Meeresmuschel ist in der Adria und der Ägäis verbreitet und wurde über weite Strecken gehandelt. Perlen wurden auch aus Stein und Knochen gefertigt. Schmuck aus Schnecken ist im Donauraum belegt, z. B. im großen Gräberfeld von Aiterhofen-Ödmühle. Im Hüft- und Beinbereich lagen oft Knochenknebel mit unklarer Funktion. Von weiteren Beigaben verblieben Mahlsteine, Schuhleistenkeile, Pfeilspitzen, Farbsteine (Rötel, Graphit), Tierknochen, Keramiken, Spondylus- und Quarzitperlen.
Eine zweite Form linienbandkeramischer Grablegungen könnte als Sekundärbestattung gedeutet werden. So fehlten in der Grubenanlage von Herxheim Hand- und Fußwurzelknochen fast vollständig. Scherben vorsätzlich zerstörter Tongefäße zeigten dort Bandmuster aus weit entfernten Siedlungsgebieten; Isotopen-Untersuchungen wiesen sogar menschlichen Zahnschmelz von Nicht-Bandkeramikern nach. Andere Knochenfunde aus Herxheim zeigten jedoch Spuren einer Bearbeitung wie bei Schlachtvieh. Auch die zerstreuten, kleinteiligen Knochenfunde aus der Jungfernhöhle bei Tiefenellern wurden zunächst als Kannibalismus gedeutet; nach detaillierten Untersuchungen ging Jörg Orschiedt für jene jedoch eher von einer Sekundärbestattung aus.
In einer 2021 veröffentlichten Studie wurde über Grabbeigaben – 400 Steinwerkzeuge aus der Zeit vor 7500 bis 7000 Jahren (cal BP) – berichtet, die in Gräbern von insgesamt 621 Verstorbenen gefunden worden waren. Die Autoren der Studie kamen zu dem Ergebnis, dass Männer mit Steinwerkzeugen begraben wurden, die für Holzarbeiten, die Jagd, das Zerlegen von Tieren oder als Waffen verwendet werden konnten, während Frauen mit Steinwerkzeugen begraben wurden, die für die Bearbeitung von Tierhäuten geeignet waren. Dies spiegele vermutlich eine Arbeitsteilung zwischen Männern und Frauen wider.
Toten- oder Opferritual (Graborientierung).
Nach Norbert Nieszery (1995) lassen sich vier Stufen bandkeramischen Toten- oder Opferrituals nachweisen, die teilweise chronologisch sind:
Dabei finden sich nur Belege (egal welcher Art) für etwa 20 % der zu erwartenden Toten einer Wohnbevölkerung; diese Gruppe hält Nieszery für einen privilegierten Teil der Gesellschaft (siehe Gräberfeld).
So sind unter den Bandkeramikern unterschiedliche Bestattungsformen bekannt, die sich auch hinsichtlich des Beigabeninventars unterscheiden. Durchgängig aber, ob Siedlungsbestattung oder Gräberfeld, weisen die meisten Körpergräber eine gemeinschaftliche Graborientierung oder -sitte auf. Üblicherweise wurden die Toten in linksseitiger Hockerbestattung in Ost-West-Ausrichtung, als in etwa West-Ost-Richtung orientiert und mit Blickrichtung nach Süden beigesetzt bestattet (Graborientierung).
Als Ausdruck dieses Kultes werden von Jörg Orschiedt die Funde aus der Jungfernhöhle, einer neolithischen Kultstätte im Landkreis Bamberg, interpretiert. Rätsel gaben die mindestens 40 meist weiblichen Skelette auf (mindestens 29 waren Kinder unter 14 Jahren), denn alle waren unvollständig. Es kann sich um keine Begräbnisstätte handeln, da die Skelette überdies auch noch verstreut lagen. Alle Schädel waren zertrümmert und einige Röhrenknochen zersplittert, wobei eine Entnahme des Knochenmarks vermutet wurde. In den Kiefern fehlten Zähne.
In der bandkeramischen Sepulkralkultur nahm der Rötelfarbstoff eine bedeutende Rolle ein. Rötelstreuungen innerhalb der Gräber, Einfärbungen der Toten oder Beigaben in Form von geschliffenen Farbsteinen oder mit Rötelpaste gefüllten Gefäßen waren Bestandteil ihres Totenkultes. Rötel taucht überwiegend in den reicher ausgestatteten bandkeramischen Gräbern auf.
So wurden auch am Fundort Herxheim zahlreiche unterschiedliche große Gräberfelder ausgegraben, in denen die Toten in einfachen Erdgruben bestattet worden waren. Wie an anderen Grabungsorten auch wurden die meisten der Leichname für die Bestattung seitlich gelagert, mit angezogenen Armen und Beinen. Insgesamt seltener ist die Anzahl der bestatteten Toten die auf dem Rücken liegend und ausgestreckt oder zuvor verbrannt wurden – wobei die verbrannten Knochenreste dann in eine Grabgrube gelegt wurden.
Die Grabbeigaben etwa am Gräberfeld von Stuttgart-Mühlhausen‚ Viesenhäuser Hof waren für die bestatteten Frauen und auch Kinder hinsichtlich ihres Beigabenspektrums vom ubiquitären Rötelfarbstoff abgesehen eher auf Keramiken beschränkt. Hingegen zeigten die Männergräber eine wesentlich variantenreichere Ausgestaltung: Neben Rötel und Keramiken fanden sich Speisebeigaben, Pfeilspitzen, geschliffene Steingeräte, Knochen- und Geweihwerkzeuge, aber auch Ausrüstungsgegenstände z. B. zum Feueranzünden, sowie Spondylusmuschelschmuck und Gewandknebel wurden freigelegt. Ferner gab es noch überdurchschnittlich reiche Grabausstattungen mit Rötelpackungen, Dechseln, Spondylus- und Quarzitperlen sowie Knochenknebeln.
Auffällig ist, dass bei der Untersuchung des Grabbeigabenspektrums in den bandkeramischen Gräberfeldern der Artefaktbestand von Spondylusmuschelschalen, der einem kleinen Kreis von Männern und Frauen vorbehalten schien. Ob diese Fundsituation zu religiösen Funktionsträgern passt, bleibt unbestimmt. Möglicherweise beschränkte sich das Tragen der Muschelschalen aber nicht nur auf eine Funktion als Körperschmuck, etwa aus Gründen des Prestiges, sondern er könnte zugleich als Träger magisch-spiritueller Kräfte und das Utensil ritueller Spezialisten gewesen sein.
Das im Jahr 2013 durch ein Grabungsteam des Landesamtes für Denkmalpflege und Archäologie Sachsen-Anhalt aufgefundene Massengrab in Halberstadt kann mit der Radiokarbonmethode (14C) auf den gleichen Zeitabschnitt datiert werden wie die bereits bekannten Gräber aus anderen Teilen Deutschlands und Österreichs. Umfassende Untersuchungen des im Block geborgenen Massengrabs brachten neue Aspekte von kollektiver, tödlicher Gewaltanwendung zum Vorschein. Die Verteilung der Verletzungen an den Schädelkalotten aus Halberstadt unterscheiden sich von denjenigen anderer gleichzeitiger Fundorte. Die Opfer wurden fast nur an einem bestimmten Bereich des Hinterkopfs verletzt, vor allem auf Hinterhauptbein und Scheitelbein. Mit einer Ausnahme handelt es sich um jüngere Männer, die außer den schwerwiegenden Verletzungen, die rund um den Zeitpunkt ihres Todes entstanden waren, kaum andere Gebrechen aufweisen. Kinder fehlen im Massengrab aus Halberstadt völlig. Es wird unter anderen die Hypothese vertreten, dass es sich hier um eine Gruppe von gefangenen Personen fremder Herkunft handelte, die gezielt getötet wurden.
Hinweise auf Kannibalismus (Herxheim).
Beim Fundort von Herxheim handelt es sich um eine Siedlung, umgeben von einem doppelten Graben. Die Grundformen der beiden parallelen Gräben sind lange, schmale Erdaushebungen mit teils unterschiedlicher Profilform, so u-förmig, v-förmig, muldenförmig. Zahlreiche dieser langen Gräben wurden, ausgehend von den Verfüllschichten und Fundkonzentrationen in den Gräben, gleichzeitig ausgehoben und fügen sich zu langen Grabensegmenten zusammen. Entgegen anderslautender Interpretationen handelt es sich bei der Anlage von Herxheim eindeutig nicht um ein Massengrab nach kollektiver Gewalt. Damit unterscheidet sich Herxheim auch von anderen jüngeren bandkeramischen Fundplätzen, sei es vom Massengrab von Wiederstedt, sei es von den Massengräbern in Talheim und Schöneck-Kilianstätten, zwei Orten, an denen eine größere Anzahl menschlicher Körper, offenbar Opfer von Gewaltanwendungen (tödliche Schädelverletzungen, Pfeile in Wirbeln etc.) geworden waren und die nicht in der üblichen Bestattungslage der LBK, sondern in Massengräbern beerdigt worden waren.
"„Als archäologische Kriterien für Kannibalismus gelten Knochenzertrümmerungen, Hack- und Schnittspuren, Längsspaltung der Röhrenknochen zur Mark- und Öffnung des Schädels zur Gehirnentnahme sowie Feuereinwirkung, die in gleicher oder ähnlicher Weise auch an Tierknochen vorkommen und auf die gleiche Behandlung von Mensch und Tier schließen lassen.“"
Ob es denn unter den Bandkeramikern zu einer irgendwie gearteten Form des Kannibalismus kam – Kannibalismus in Extremsituationen (etwa aus Nahrungsmangel) oder aber in seinen rituell oder religiös geprägten Erscheinungsformen – lässt sich aus dem jetzigen Fundmaterial nicht eindeutig belegen. Zwar stammen die Knochen von frisch Verstorbenen, sodass es naheliegt, eine Zerlegung der Körper vor Ort anzunehmen, und weiter deutet die Art der auf dem Knochen hinterlassenen Schnittspuren darauf hin, dass systematisch zerlegt und das Fleisch abgetrennt wurde. Diese Interpretation würde einer Zweitgrablegung im Wesentlichen widersprechen. So ist eine anschließende Ingestion im Sinne von kannibalischen Handlungen damit weder belegt noch nach heutigem Kenntnisstand bewiesen.
Hätte Kannibalismus stattgefunden, wäre zu klären, aus welchen Beweggründen dieser vorgenommen worden wäre. War er die Folge und Konsequenz aus kriegerischen Handlungen, Ausdruck einer krisenhaften Änderung im Verhältnis zwischen Mensch und Umwelt (im Sinne eines ökologischen Erklärungsmodells), war es die Demonstration von Handlungsweisen einer nur lokalen bandkeramischen Kultur, bewegten ausschließlich religiöse Vorstellungen die Menschen in ihrem Tun oder führten die unterschiedlichsten Arten, wie Invasionen, Katastrophen und Epidemien (im Sinne eines nicht-ökologischen Erklärungsmodells) die Bandkeramiker zu solchen Handlungen?
Eine Hypothese ist die der Sekundärbestattung, bei der die Verstorbenen an anderem Ort ein zweites Mal beigesetzt wurden. Einige Archäologen vermuten hierbei ein Totenritual, auf das auch diverse Schäden an den Skeletten hinweisen.
Im Übrigen finden sich nur wenige bandkeramische Fundstellen (Jungfernhöhle, Talheim, Kilianstädten, Halberstadt, Schletz, ohne Gewalteinwirkung das Massengrab von Wiederstedt), in denen anhand der menschlichen Skelette auf einen gewaltsamen Tod der Menschen geschlossen werden kann.
Hypothesen zu einem spirituellen System.
Wie bei allen schriftlosen Kulturen der Vor- und Frühgeschichte können über die Weltsicht oder die spirituellen (religiösen) Vorstellungen der Menschen keine gesicherten Aussagen getroffen werden. Hinweise liefern die menschengestaltigen Plastiken und Ritzzeichnungen, denen in der Forschung stets ein großes Interesse zukam. Sie werden von der Mehrzahl der fachwissenschaftlichen Publikationen in den religiösen Bereich der Bandkeramik eingeordnet (vergleiche Archaische Spiritualität in systematisierten Religionen). Aus den Grabbeigaben (Paraphernalien) schließen einige Autoren, dass die Handlung in einem religiös-spirituellen Narrativ eingebettet sein müsse; eine Position, die nicht unwidersprochen blieb.
Von diesen Erzählungen kann man vermuten, dass sie die natürliche mit einer übernatürlichen Welt verbanden und von Ritualen begleitet waren. Das Narrativ wird dabei nach Clive Gamble durch die Vorstellungskraft menschlicher Gemeinschaften getragen, die es ermöglicht, über das Hier und Jetzt hinaus zu imaginieren und die Inhalte versprachlicht untereinander zu tauschen. Gamble zufolge förderten diese Vorstellungssysteme als integraler Bestandteil des sozialen Lebens nicht nur das Gemeinschaftsgefühl einer einzelnen lokalen Gruppe, sondern schufen über eine größere territoriale Distanz hinweg eine Form von identischer (kultureller) Gemeinschaft.
Ferner sind die zugrundegelegten wissenschaftlichen Konstrukte oder Konzepte zum Matriarchat oder der (religiösen) Verehrung einer Muttergöttin in der wissenschaftlichen Diskussion zum Teil nur schwach belegt oder müssen in einen anderen Deutungsrahmen eingeordnet werden; auf jeden Fall geben sie vielfach Raum zu einer ideologisch gefärbten Diskussion. Hieraus leitet sich schlüssig ab, dass die Schlussfolgerungen, die sich als Fundinterpretation darstellen und eben jene hypothetischen Konstrukte zugrunde legen, nur mit hinreichender Kritik gelesen werden dürfen.
Fruchtbarkeitskult.
Die Jahreszeiten mit dem Ansteigen und Abfallen der Wasserstände in den Flüssen, und der Lauf der Gestirne wiederholen sich periodisch, ebenso damit verbunden die Saat und Ernte oder die Geburten der Haus- und Wildtiere. Einige Forscher bringen mit der neuen Produktionsweise (Ackerbau, Viehhaltung) und infolge der Beobachtung vom Werden und Vergehen in der Natur eine Verehrung der Fruchtbarkeit in Verbindung. Als deren Manifestation sei die Frau und ihre Gebärfähigkeit verstanden worden. Daher wird vermutet, dass die bandkeramischen Plastiken Frauen oder Göttinnen darstellten.
Ernst Carl Gustav Grosse teilte 1896 die Wirtschafts- oder Produktionsformen in fünf Kategorien ein, die Bandkeramiker bildeten die Kulturstufe des niederen oder frühen Ackerbaus. In diesen Kulturen hatten die Frauen oder das Weibliche eine auffallend hohe Position, was etwa in den bildlichen Darstellungen zutage tritt. Die Gruppen waren demnach matrilokal organisiert.
Svend Hansen ist dagegen der Auffassung, dass die Verbindung zwischen Frau und Fruchtbarkeit ein Konstrukt des 19. Jahrhunderts sei und keinesfalls auf das Neolithikum übertragen werden könne. Ein entwickelter Kult um eine weibliche Gottheit mit Tempelanlagen und dazugehöriger Priesterschaft lasse sich für das Neolithikum im archäologischen Fundinventar nicht feststellen. Seine Kritik stützt sich vor allem darauf, dass das Geschlecht bei vielen Statuetten nicht eindeutig bestimmbar sei. Daraus folgert er, dass die Zuweisung des weiblichen Geschlechts bei den Statuetten auf bloßer Interpolation beruhte. Mit der Infragestellung des weiblichen Geschlechts bricht seiner Auffassung nach die Theorie vom Kult um eine Fruchtbarkeitsgöttin zusammen.
Urmutter.
Auf den Keramiken gibt es recht häufig das Motiv von stilisierten Figuren mit erhobenen Armen und meist gespreizten Beinen. Auch wenn das Geschlecht meist nicht erkennbar ist, vertrat die Religionswissenschaftlerin Ina Wunn 2014 die Auffassung, dass es sich um Frauen in Empfängnis- oder Gebärhaltung handle und um ikonografische Darstellungen einer "Urmutter," wie sie beispielsweise auch in Çatalhöyük gefunden wurden. Sie soll mit Geburt oder Wiedergeburt und Tod verbunden gewesen sein. Ob es in der Bandkeramik einen Kult um eine „Urmutter“ gegeben hat, kann aus dem Fundgut nicht erschlossen werden. Wunn vermutete 1999, dass es keine „Fruchtbarkeitskulte“ gegeben habe. Kultdramen einer sich im Jahresverlauf wandelnden Gottheit, die mit dem Wandel der Natur in Verbindung gebracht wurde, seien viel späteren Datums und könnten für das Neolithikum nicht belegt werden. Wunn vermutet auch, dass die übrigen Frauenplastiken Ahnen- und Schutzgeister darstellen, einige auch als Amulette getragen worden seien.
Ahnenkult.
Die Interpretation der Plastiken und Ritzzeichnungen als Ahnenfiguren wurde ebenfalls aus der neolithischen Wirtschaftsweise abgeleitet. So wäre es für ackerbauende Gesellschaften notwendig gewesen, ihren Landbesitz durch die Existenz von Ahnen zu legitimieren. Auch Ina Wunn (2009) vermutet einen Hauskult mit seiner Verehrung der Vorfahren als Bestandteil im religiösen Leben der Bandkeramiker, wobei die Sekundärbestattungen zum einen den Ahnenkult bezeugten und anderseits in diesem Ritual die Feier des Todes als Transformations- und Übergangsstadium zum Ausdruck gekommen sei. Von Vertretern der Ahnenthese wie Jens Lüning wird hauptsächlich auf folgende archäologische Befunde hingewiesen:
Funde von Figurinen oder Idole die zumeist zwischen 10 und 35 cm hoch sind, werden in der Arbeitshypothese so gedeutet, dass sie eine wichtige Rolle im Ahnenkult (Idolatrie) spielten. Alles zusammen ist jedoch der bandkeramischen Kultur nicht explizit oder belegt zuzuordnen.
Substitutionsopfer.
Dieter Kaufmann deutete 1989 die anthropomorphen Tonstatuetten der Linienbandkeramik als Substitutopfer – als Ersatz für Menschenopfer. Ausgangspunkt seiner Überlegung ist ein von ihm untersuchter und dokumentierter Befund eines Menschenopfers im Graben des jüngstlinienbandkeramischen Erdwerks von Eilsleben, Landkreis Börde, westlich von Magdeburg. In einer Tiefe von 1,25 m (unter Planum) wurde etwa in der Mitte des Grabens eine Feuerstelle freigelegt, die Holzkohle, Lehmbewurf, kalzinierte Feuersteine und das Fragment einer Reibeplatte enthielt. Östlich davon lagen direkt daneben das Bruchstück einer Schleifplatte sowie sieben Fragmente von Reibeplatten, direkt darunter der Oberschädel einer Urkuh mit Schlagverletzung in der Stirn. Unter dem Schädel des Urrindes wurde in einer Tiefe von 1,37 m bis 1,50 m das Skelett einer 17– bis 19-jährigen Frau freigelegt, das derart extrem gehockt war, dass schon bei der Ausgrabung eine Fesselung der Extremitäten vermutet wurde. Der Kopf der Toten war stark nach hinten gedrückt, so dass die Halswirbel eine extreme Krümmung aufwiesen. Im Bereich des ONO (Kopf)- WSW ausgerichteten Skeletts fanden sich jüngst linienbandkeramische Scherben. Eine Holzkohle-Probe aus der Feuerstelle ergab folgendes 14C-Datum: Bln-1431:5903±60 BP; 1 Sigma (68,2 %) = 4900–4720 BC.
Kaufmann (1989, 2002, 2003) vertrat die Auffassung, dass diese Figürchen absichtlich zerbrochen wurden und dass sie als Substitutopfer – als Ersatz für Menschenopfer – gedient haben. Für die symbolische „Tötung“ dieser Plastiken spräche, dass die Tonstatuetten nicht nur an herstellungsbedingten Schwachstellen (Kopf, Arme, Beine), sondern auch am Rumpf zerbrochen wurden.
Die Reibeplatten, offensichtlich bewusst zerschlagen, verweisen auf das rituelle Zermahlen von Getreide. In diesem Kontext wird man ebenfalls den Urrindschädel mit Schlagverletzung in der Stirn kultisch deuten. Diese offensichtlich inszenierte Niederlegung mit der ursprünglich gefesselten Leiche einer jungen Frau im Mittelpunkt deutet Dieter Kaufmann als Menschenopfer, dargebracht im Rahmen einer Opferzeremonie vielleicht durch eine Dorfgemeinschaft, worauf auch die große Zahl von zerbrochenen Reibeplatten verweisen könnte. Seiner Meinung nach wurden anstelle solcher Menschenopfer in der Linienbandkeramik Substitutopfer in Form von anthropomorphen Tonstatuetten verwendet. Auffällig ist nämlich, dass diese Statuetten in der Regel zerbrochen aufgefunden werden, oftmals nicht an den Sollbruchstellen. Der Autor interpretiert den Vorgang als symbolische Tötung der Opfergaben anstelle des Menschenopfers, möglicherweise vorgenommen bei Hausopfern durch Familien oder Hausgemeinschaften.
Ende der Bandkeramik.
Der Übergang vom Mittel- zum Spätneolithikum (Saarbrücker Terminologie) wird durch den Wandel der Linienbandkeramischen Kultur in kleinräumigere Gruppen gekennzeichnet. Tatsächlich wird dieser Prozess als das Ergebnis regionaler Entwicklungen betrachtet. So ist die LBK schon ab ihrer 3. Stufe (sog. Jüngere LBK) in deutlich unterscheidbare Untergruppen zerfallen: Rhein-, Donau-, Elbe-, Oder-Gruppe (benannt nach den wichtigen Flusssystemen, an denen die LBK sich nach Mitteleuropa hineinentwickelt hat), was angesichts der enormen Größe des ursprünglichen Territoriums nicht verwundern kann.
Mögliche Ursachen.
Der Zerfall der linearbandkeramischen Kultur wurde von ansteigenden Temperaturen – dem Optimum 3 des Holozäns – im atlantischen Raum begleitet. Damit entfällt zumindest eine längerfristige Klimaverschlechterung als Ursache. Dennoch könnten, so schrieb Detlef Gronenborn 2007, klimatische Fluktuationen mit Trockenphasen zum Ende der bandkeramischen Kultur prekäre Lebensbedingungen hervorgebracht haben. Verschiedene Klimaproxydaten unterstützen eine solche Hypothese, denn phasenweise trockenere Umweltbedingungen mögen etwa die Ursache für das Aufsuchen von höheren und damit niederschlagsreicheren Siedlungsgebieten gewesen sein.
Teilweise wird über zunehmende Spannungen als Ursache spekuliert. Ein Fund aus Talheim deutet auf Konflikte am Ende der Bandkeramik hin. In Talheim fanden sich die Skelette von 18 Erwachsenen und 16 Kindern und Jugendlichen regellos in ein Massengrab geworfen. Das Fehlen von Grabbeigaben spricht gegen eine reguläre Bestattung; anthropologische Untersuchungen ergaben im Gegenteil, dass fast alle Individuen beim Massaker von Talheim von hinten erschlagen oder erschossen wurden. Bei den Tatwerkzeugen handelte es sich um quergeschäftete Steinbeile und Pfeile. Es ist also anzunehmen, dass die Täter ebenfalls Bandkeramiker waren. Weitere Belege für gewaltsam zu Tode gekommene Menschen innerhalb der Bandkeramik liegen u. a. vom Massaker von Schletz und aus Herxheim, vom Massaker von Kilianstädten und aus Vaihingen an der Enz vor.
Der Tübinger Ur- und Frühgeschichtler Jörg Petrasch versuchte methodenkritisch, die Rate der Gewalttätigkeiten auf die Gesamtpopulation in der Bandkeramik hochzurechnen und kam zu dem Schluss, dass solche Massaker keine singulären Ereignisse gewesen sein können. Demnach müssen Gewalttätigkeiten in den bandkeramischen Gesellschaften regelmäßig, wenn auch selten, vorgekommen sein.
Eine weitere Ursache der Spannungen wird in der Bevölkerungs- und Siedlungsdynamik der jüngeren Bandkeramischen Kultur gesehen, in der ein Auseinanderdriften anhand von exemplarischen Siedlungmustern nachgewiesen wurde. Nach Erich Claßen endete die „rheinische Bandkeramik“ um etwa 4950 v. Chr. mit einer Phase niedriger Besiedlungsdichte, so dass es zu einer teilweisen Wiederbewaldung der Siedlungsflächen kam; dies wird als „erste neolithische Krise“ charakterisiert. Nach Claßen handelte es sich jedoch nicht um ein abruptes, katastrophales, durch äußere (klimatische) Einflüsse verursachtes Ereignis, sondern vielmehr um das Ergebnis eines längeren innergesellschaftlichen Entwicklungsprozesses.
Die anhaltende Versorgung mit dem Rohstoff Silex war grundlegend für die Bandkeramiker, da sämtliche schneidenden, kratzenden, sägenden und schlagenden Werkzeuge aus diesem Material gefertigt wurden. In der Endphase der Bandkeramik um 5000 v. Chr. wurde Silex zur Mangelware. Offenbar kam es so Hermann Parzinger zu Störungen weitreichender Rohstoffnetzwerke.
Diskussion der Funde.
Eine hohe Anzahl von Gräberfelder aus der Epoche der LBK zeigt regelhaft ein Fehlen jeglicher Spuren von Traumata und damit physischer Gewalt. Somit wurden zahlreiche Individuen mit physischer Gewalt wahrscheinlich nicht konfrontiert. Deutliche Anzeichen für eine höhere Frequenz von Gewaltakten und dies auch in einem größeren Ausmaß liegen hingegen aus der Spätphase der LBK vor.
Manche Forscher sehen in ihnen Kennzeichen einer kollabierenden Gesellschaft, die durch die zunehmende Zersiedelung der Landschaft in eine Ressourcenverknappung geriet. Es wird auch die These vertreten, dass die Massakergräber heftige gesellschaftliche Auseinandersetzungen und Kämpfe um Land-, Weide- und Ackerrechte dokumentieren.
Die These der Ressourcenverknappung kann durch die immer kürzer werdenden Distanzen des importierten Feuersteins nachvollziehbar dokumentiert werden, d. h., die weitreichenden Handels- oder Transferkontakte nehmen zum Ende der LBK ab. Gleichzeitig setzt ein erstes „professionelles“ Ausbeuten der lokalen Lagerstätten ein (Feuersteinbergwerk von Abensberg-Arnhofen). Das kann als erfolgreiche Maßnahme gegen die „Verknappung“ gedeutet werden.
Auch eine gesteigerte Nutzung der Haustier-Ressourcen (von der „lebendigen Fleischkonserve“ zur spezialisierten Rinderzucht) ist zu bemerken; besonders drastisch in der Hinkelstein-Kultur (früher: LBK 5), was durch die mächtigen Fleischbeigaben, ganze Rinderviertel und mehr, in den Gräbern belegt ist. Auch hier ist keine „Verknappung“ festzustellen.
Vergleiche der späten LBK-Gefäße mit jenen Kulturen, die auf ihrem Gebiet direkt folgen (Hinkelstein- / Groß-Gartach, Stichbandkeramik, Lengyel), zeigen einen bruchlosen Übergang von der jeweiligen LBK-Gruppe in die Folgekultur.
Die größte LBK-Affinität zeigen jene Gebiete, die dem Ursprungsgebiet der LBK am nächsten liegen: Die Lengyel-Kultur hat einen besonders fließenden Übergang, wohingegen sich die westlichsten Nachfolgegruppen der LBK deutlicher abgrenzen lassen.
Nachfolgende Kulturen.
Die Linienbandkeramik ist die wichtigste Kultur des mitteleuropäischen Frühneolithikums. Ihr Ende markiert (nach der Chronologie von Jens Lüning) zugleich den Übergang zum Mittelneolithikum. Nachfolgekulturen der Linienbandkeramik sind
Überlegungen zur Sprache der Bandkeramiker.
Die neolithischen Kulturen waren schriftlose Kulturen. Oralität bezeichnet in diesem Zusammenhang die Weitergabe und Schaffung von narrativem Gruppenwissen und damit auch von Erklärungen zu technisch-instrumentellen Fertigkeiten (Hausbau, Töpfertechniken, Steinbearbeitung, Viehhaltung, Brunnenbau usw.), Vorgängen, welche die LBK, deren Gruppenstruktur sowie deren -identität formten.
Dass die Bandkeramiker eine entwickelte und anfangs wohl einheitliche Sprache gesprochen haben, scheint plausibel. Jens Lüning (2003) vermutet, dass zur Errichtung eines Langhauses ein differenziertes sprachliches Begriffssystem nötig gewesen sei, um die benötigten Gegenstände und Arbeitsschritte logistisch sinnvoll aufeinander abzustimmen und einzusetzen.
Zudem weist die LBK innerhalb ihrer weitgezogenen geographischen Grenzen und über die Zeit hinweg eine hohe Einheitlichkeit in ihrem Siedlungs- und Hausbau, in der Fertigung der Keramiken, aber auch in den genutzten Steinwerkzeugen auf. Hätte jede Mikroregion eine eigene Sprache (Dialekt) mit variierter Phonetik und eigenem Wortschatz entwickelt, dann wäre im vertikal-diachronen Kulturtransfer vermutlich auch das anfangs einheitliche Erscheinungsbild der früheren Bandkeramikkultur verloren gegangen. Diese Überlegungen lassen auf eine „einheitliche Sprache“ (vielleicht auch auf gemeinsames religiös-spirituelles Handeln) schließen.
Welcher Sprachfamilie die Bandkeramiker angehört haben, ist Gegenstand vieler Hypothesen. Ein Zusammenhang mit einem Derivat aus der indoeuropäischen Ursprache scheint angesichts der jeweiligen unterschiedlichen Zeitrahmen für die Migrationsbewegungen (Ausbreitung der Indoeuropäer gegenüber der Ausbreitung agrarischer Kulturtechniken) eher unwahrscheinlich. Dennoch werden Belege angeführt, um die Hypothese zu belegen. So sieht etwa Gerhard Jäger, dass die indoeuropäische Ursprache vor 9800 bis 7800 Jahren gesprochen wurde. Dies sei mit der sogenannten „anatolischen Theorie“ zum Ursprung des Indogermanischen kompatibel, wonach die ersten Indogermanen anatolische Bauern waren und die Ausbreitung des Indogermanischen mit der Verbreitung der Landwirtschaft verbunden gewesen sei.
Wenn die Bandkeramiker ihren Ursprung in der Starčevo-Körös-Kultur oder in einer anatolischen Kultur hatten, die sich sukzessive in nordwestlicher Richtung nach Mitteleuropa ausbreiteten – dabei ist die allgemeine, geringe Bevölkerungs- oder Besiedlungsdichte zu berücksichtigen –, so muss man mutmaßen, dass die mittelsteinzeitlichen Ortsansässigen mit ihrer mehr als 30.000 Jahre andauernden eigenständigen kulturellen Entwicklung und die der Einwanderer ihre jeweiligen Unterschiedlichkeiten aufrechterhielten. Ferner muss man annehmen, dass die Mitglieder der beiden Bevölkerungsgruppen unterschiedliche Sprachen sprachen.
Die verbliebenen Diffusionisten, die die Aneignung der Kulturtechniken durch die lokale spätmesolithische Bevölkerung verwirklicht sehen, räumen zwar eine vorderasiatische oder innereuropäische Migration ein, sehen aber in den Bandkeramikern die Nachkommen mesolithischer Jäger und Sammler, die das „Agrarpaket“ übernommen hätten. Dann hätten die verschiedenen miteinander in Berührung tretenden Sprachräume über einen Sprachkontakt den komplexen Kulturtransfer ermöglichen müssen. Ein solcher Austausch kann durch direkte Nah- oder Fernkontakte zwischen Vertretern der über die Agrartechniken verfügenden Volksgruppen erfolgt sein, wobei man unter Fernkontakten Beziehungen versteht, die nicht durch räumliche Nähe in der unmittelbaren Heimat erfolgen, sondern z. B. durch Handelsbeziehungen stattfinden. |
780 | 1010950 | https://de.wikipedia.org/wiki?curid=780 | Baar | Baar ist der Name folgender Örtlichkeiten:
Gemeinden:
Gemeindeteile:
sowie:
Baar ist der Familienname folgender Personen:
Baar, Weiteres:
Siehe auch: |
781 | 4091216 | https://de.wikipedia.org/wiki?curid=781 | Bildung | Bildung (von althochdeutsch "bilidōn" ‚bilden', ‚sich bilden', ‚gestalten', ‚erschaffen', ‚versinnbildlichen', ‚nachahmen'; Abstraktum: "bildunga" ‚Vorstellung, Vorstellungskraft‘) ist ein vielschichtiger, unterschiedlich definierter Begriff, den man im Kern als Maß für die Übereinstimmung des persönlichen Wissens und Weltbildes eines Menschen mit der Wirklichkeit verstehen kann. Je höher die Bildung ist, desto größer wird die Fähigkeit, Verständnis für Zusammenhänge zu entwickeln und wahre Erkenntnisse zu gewinnen. Der Ausdruck wird sowohl für den Bildungsvorgang („sich bilden“, „gebildet werden“) wie auch für den Bildungszustand („gebildet sein“) einer Person verwendet. Im Hinblick auf den innerhalb einer Bevölkerung gemeinhin erwartbaren Bildungsstand wird von Allgemeinbildung gesprochen.
Im weiteren Sinn bezeichnet "Bildung" die Entwicklung eines Menschen hinsichtlich seiner Persönlichkeit zu einem „Menschsein“, das weitgehend den geistigen, sozialen und kulturellen Merkmalen entspricht, die jeweils in der Gesellschaft als Ideal des voll entwickelten Menschen gelten können, wie zum Beispiel das humboldtsche Bildungsideal. Ein Merkmal von Bildung, das nahezu allen modernen Bildungstheorien entnehmbar ist, lässt sich umschreiben als das reflektierte Verhältnis zu sich, zu anderen und zur Welt.
Im Gegensatz zur beruflichen oder zweckbestimmten Ausbildung bezieht sich "Bildung" auf eine grundsätzliche und grundlegende kulturelle Formung des Menschen. Vorausgesetzt, wenn auch selten angesprochen, sind hierbei elementare Kulturtechniken wie Auswendiglernen, Lesen, Schreiben, Rechnen. Solche Kulturtechniken werden stets in einem sozialen Kontext vermittelt, dem Bildungswesen im weitesten Sinne. Zum Bildungswesen gehören spezielle Institutionen wie beispielsweise Schulen und Hochschulen, aber auch alle anderen Lehr- und Lernverhältnisse, etwa in Familie, Beruf oder aus eigener Initiative.
Der moderne, dynamische und ganzheitliche Bildungsbegriff steht für den lebensbegleitenden Entwicklungsprozess des Menschen zu der Persönlichkeit, die er sein kann, aber noch nicht ist. Diesem Prozess sind allerdings Grenzen gesetzt: durch persönliche Voraussetzungen – bezüglich Intellekt, Motivation, Konzentrationsfähigkeit, Grundfertigkeiten – sowie durch zeitliche, räumliche und soziale Bedingungen – Sachzwänge, Verfügbarkeit von Lehrmitteln und Lehrern. Doch ist ein Bildungsprozess nicht an Bildungseinrichtungen gebunden, sondern auch autodidaktisch möglich.
Die theoretische Beschäftigung mit Bildung stellt – neben der Beschäftigung mit Fragen der Erziehung – das zentrale Thema modernen pädagogischen Nachdenkens dar.
Begriffsbildung.
Bildung ist ein sprachlich, kulturell und historisch bedingter Begriff mit sehr komplexer Bedeutung. Eine präzise oder besser noch einheitliche Definition des Bildungsbegriffs zu finden, erweist sich daher als äußerst schwierig. Je nach Ausrichtung und Interessenlage variieren die Ansichten darüber, was unter „Bildung“ verstanden werden sollte, erheblich.
Der Begriff "Bildung" wurde von dem mittelalterlichen Theologen und Philosophen Meister Eckhart in die Deutsche Sprache eingeführt. Er bedeutete für ihn das „Erlernen von Gelassenheit“ und wurde als „Gottessache“ angesehen, „damit der Mensch Gott ähnlich werde“.
Seit der neuzeitlichen Aufklärung, der Begründung der Anthropologie als Wissenschaft und Lehre vom Menschen, dem "pädagogischen Jahrhundert" setzt sich eine Neubestimmung des Bildungsbegriffs durch. Danach ist der Mensch nicht mehr (nur) Geschöpf Gottes, sondern Werk seiner selbst: Selbstbildung, Selbstpraxis. Zugleich hängt der Prozess individueller Bildung von den Gelegenheiten ab, die eine Gesellschaft in materiellen (Bildungsökonomie), organisatorischen (Bildungssoziologie) und programmatischen (Lehrpläne, Curricula) Hinsichten bietet, damit Bildung gelingen kann.
Wolfgang Klafki bezeichnet Bildung als
Nach Bernward Hoffmann wird Bildung als die Entfaltung und Entwicklung der geistig-seelischen Werte und Anlagen eines Menschen durch Formung und Erziehung verstanden:
Nach Daniel Goeudevert ist Bildung . Bildung könne daher nicht auf Wissen reduziert werden; Wissen sei nicht das Ziel der Bildung, aber sehr wohl ein Hilfsmittel. Darüber hinaus setze Bildung Urteilsvermögen, Reflexion und kritische Distanz gegenüber dem Informationsangebot voraus. Dem gegenüber stehe die Halbbildung, oder wenn es um Anpassung im Gegensatz zur reflexiven Distanz gehe, auch die Assimilation.
Eine alternative Definition findet sich bei Kössler:
Um dem Theorie-Dilemma zu entgehen, einseitig die subjektive oder objektive Seite der Bildung zu erhöhen, kennzeichnet sie Tobias Prüwer als einen offenen Prozess, der sich insbesondere als ein sprachlich vermitteltes Situieren im Verhältnis von Ich, Welt und sozialer Mitwelt vollzieht. Er schlägt eine „postmoderne“ Variante vor:
Während in unserem Alltagsdenken und -handeln der Bildungsbegriff stark mit Begriffen wie „Belehrung“ und „Wissensvermittlung“ verbunden ist, wurde er seit Wilhelm von Humboldt in der Theorie und der Programmatik erweitert. Nach Hartmut von Hentig komme „dem Wort Bildung seither das Moment der Selbständigkeit, also des Sich-Bildens der Persönlichkeit“ zu. Humboldt selbst führte dazu aus:
Das Wort Bildung selbst ist ein typisch deutsches Wort, es steht in spezifischer Beziehung zu „Erziehung“ und „Sozialisation“. Diese in der deutschen Sprache unterschiedlich belegten Begriffe sind im Englischen und im Französischen als ' bzw. ' zusammengefasst, wobei dem Aspekt der "", der inneren Formbildung, besondere Bedeutung zukommt.
Der Begriff ist ferner abzugrenzen von Begriffen, mit denen er umgangssprachlich oft synonym verwendet wird: den Begriffen Wissen, Intellektualität und Kultiviertheit. Der Begriff Bildung schließt allerdings (je nach Interpretation des Bildungsbegriffs in unterschiedlichem Maße) Facetten aller unterschiedenen begrifflichen Aspekte mit ein. Außerdem besteht eine gewisse Nähe zum Begriff "Reife".
Die historische Entwicklung des Bildungsbegriffs.
Der Begriff der Bildung erfuhr während seiner Entwicklung mehrmals einen Bedeutungswandel.
Die Anfänge der Bildung.
Obwohl die Antike den Begriff Bildung noch nicht so verwendete, wie wir ihn kennen, waren die Ideen, die diesen Begriff prägen sollten, doch schon präsent. Im Griechischen ist der Begriff der "(Enkyklios) Paideia" dem Bildungsbegriff sehr verwandt. Erste Beispiele von Bildungstheorien sind um 500 v. Chr. der von Parmenides mit seiner „Auffahrt“ zur Göttin geschilderte Übergang vom bloßen Meinen zur Wahrheit sowie die von Heraklit formulierte Zugehörigkeit des Menschen zum „Logos“.
Häufig war die (Weiter-)Bildung eines der Hauptmotive für Reisen im römischen Reich, sei es im Zuge der Weiterbildung in Bibliotheken oder (Philosophen-)Schulen, im Zuge von Entdeckungsreisen oder in Form eines "Bildungstourismus", um zentrale Wirkungsstätten von Personen oder Handlungsorte wichtiger Ereignisse zu besichtigen und/oder nachzuerleben, beispielsweise das Orakel von Delphi oder die Schlacht bei den Thermopylen.
Der deutsche Begriff entstand im Mittelalter, wahrscheinlich als Begriffsschöpfung Meister Eckharts (13./14. Jahrhundert) im Rahmen der Imago-Dei-Lehre. Der Begriff ist also theologischen Ursprungs. Bilden wird in der Tradition der jüdisch-christlichen Imago-Dei-Lehre verstanden als gebildet zu werden durch die Gottheit, die Eckhart in der Linie des christlichen Neuplatonismus vom trinitarisch zu verstehenden Gott noch unterscheidet. Zwar ist das „Überbildetwerden“ durch die Gottheit dem Menschen unverfügbar, der Mensch kann aber die Voraussetzungen dafür schaffen. Daher Eckharts häufige „Aufforderungen, Distanz zur kreatürlichen Wirklichkeit zu erlangen, nämlich ‚Abgeschiedenheit‘ zu realisieren, [...] ‚ledig‘ zu werden, die Bilder zu lassen, sich aller fremden Bilder zu entledigen [...], sich als Mensch zu ‚entbilden‘ usw., um bereit zu werden für die (unverfügbare) Erfahrung der unio bzw. der ‚Gottesgeburt‘ im Seeleninnersten als ‚Einbildung‘ in Gott (als Gottheit bzw. deitas [...]) allein und als ‚Überbildung‘ des Menschen durch das schlechthinnige Eine“ oder die Gottheit.
Einen „Bildungsschub“ gab es in Europa in der Renaissance, in der die Neugier der Menschen erwachte und mit Hilfe der von Johannes Gutenberg entwickelten Buchdruckkunst erstmals Bildungsbücher eine weitere Verbreitung finden konnten. Einer der schreibfreudigsten „Bildner“ war zu dieser Zeit der Humanist Erasmus von Rotterdam, der über 100 Bildungsbücher schrieb und bereits früh erkannte: „Der Mensch wird nicht geboren, sondern erzogen!“ Mit seinen Büchern wollte er seinen Zeitgenossen und der Nachwelt Bildung vermitteln und machte deutlich:
Der Einzug des Begriffs „Bildung“ in die Pädagogik.
Angesichts der Zerstörungen während des Dreißigjährigen Krieges erhoffte sich Comenius eine friedliche Ordnung der Welt daraus, dass Menschen von Kindheit an zu menschlichem Verhalten angeleitet werden. So hielt der Begriff "Bildung" Einzug in die Pädagogik. Das damals verwendete lateinische Wort "eruditus" („gebildet“, „aufgeklärt“) bedeutet etymologisch ‚ent-roht‘. Solchen Ausgang des Menschen aus seiner ursprünglichen Rohheit erwartete Comenius von Sorgfalt beim Denken und Sprechen:
Das im 18. Jahrhundert entstandene neue Menschenbild eines aufgeklärten, in wissenschaftlichen Kategorien denkenden und handelnden Menschen formte auch den Begriff der Bildung um. Durch die Auseinandersetzung deutscher Autoren mit Shaftesbury wurde der Begriff säkularisiert. Die theologische Bedeutung wich einer Bedeutung, die sich der platonischen näherte. Der Mensch sollte sich nun nicht mehr zum Abbild Gottes entwickeln, sondern das Ziel sei die menschliche Vervollkommnung. Diese Idee findet sich unter anderem bei Pestalozzi "(Abendstunde eines Einsiedlers)", Herder "(Ideen)", Schiller und Goethe "(Wilhelm Meister)". Immanuel Kant präzisiert in seiner Schrift "Über Pädagogik" die Aufgabe von Bildung, wenn er schreibt:
Waren die Bildungsziele vor der Aufklärungsepoche noch durch einen Gott gegeben, so seien sie nun bestimmt durch die Notwendigkeit des Menschen, in einer Gesellschaft zu leben. Es gehe darum, die „Rohmasse“ Mensch so zu formen, dass er ein nützliches Mitglied der Gesellschaft werden könne. In diesem Formungsprozess würden vorhandene Anlagen entwickelt. Doch immer noch werden die Bildungsziele nicht durch das Individuum festgelegt, sondern sind Idealvorstellungen, die unabhängig vom Einzelnen ewige Geltung beanspruchen (vgl. Ideenlehre) und von außen an das Individuum herangetragen werden.
Vor allem im Zuge der Weimarer Klassik tritt die Thematik der Bildungsreise wieder in den Vordergrund. Goethe beschreibt in seiner Italienischen Reise seine Motive, Eindrücke und seine Weiterbildung, die er in Italien erfahren konnte. Das damalige Griechenland blieb den sich weiterbildenden Reisenden aufgrund der politischen Zugehörigkeit zum Osmanischen Reich verwehrt. Nichtsdestotrotz erfuhr die klassische, bzw. klassizistische Bildung und deren Rezeption einen neuen Aufschwung, was man an den zahlreichen Übersetzungen und Adaptionen antiker Autoren und Werke in der späten Aufklärung und im 19. Jahrhundert erkennen kann, so beispielsweise die Übersetzung der Ilias und der Odyssee Homers ins Deutsche von Johann Heinrich Voss oder die adaptiv-populäre Anthologie der Sagen des klassischen Altertums von Gustav Schwab.
Die Wende zur Subjektivität.
Der deutsche Idealismus – insbesondere die subjektive Variante (Descartes, Malebranche, Fichte) im Unterschied zum objektiven Idealismus (Platon, Schelling, Hegel) – wendet den Bildungsbegriff zum Subjektiven. Bildung wird verstanden als Bildung des Geistes, der sich selber schafft. Dieser bei Johann Gottlieb Fichte (1726–1814) beschriebene Prozess lässt sich in der Formel fassen: „Das Ich als Werk meiner Selbst.“ Es ist Fichte, der seinen Bildungsbegriff auf den autopoietischen (gr. "autos" ‚selbst‘, "poiein" ‚schaffen‘, ‚hervorbringen‘) Zusammenhang von Empfinden, Anschauen und Denken begründet. Ziel ist – wie bereits in der Aufklärung – die Genese einer vollkommenen Persönlichkeit. Vollkommen ist eine Person, wenn eine Harmonie zwischen „Herz, Geist und Hand“ besteht.
Die programmatische Wende.
Wilhelm von Humboldt schließlich erhebt Bildung zum Programm. Das Bedürfnis, sich zu bilden, sei im Inneren des Menschen angelegt und müsse nur geweckt werden. Jedem soll Bildung zugänglich gemacht werden. Humboldt erschafft ein mehrgliedriges Schulsystem, in dem jeder nach seinen Fähigkeiten und nach den Anforderungen, die die Gesellschaft an ihn stellt, gefördert wird. Allerdings geht es beim humboldtschen Bildungsideal nicht um empirisches Wissen, sondern immer noch um die Ausbildung/Vervollkommnung der Persönlichkeit und das Erlangen von Individualität. Dieses „Sich-Bilden“ wird nicht betrieben, um ein materielles Ziel zu erreichen, sondern um der eigenen Vervollkommnung willen.
Bürgerliches Statussymbol und messbares Gut, das am praktischen Leben orientiert sein muss, wird Bildung erst mit der Bürokratisierung in Form von Gymnasiallehrplänen. Bildung genügt sich nicht mehr allein, sondern soll Nutzen und möglichst auch Gewinn bringen. Damit wird Bildung zum Statussymbol der Gesellschaft und zum sozialen Abgrenzungskriterium. Friedrich Paulsen schreibt 1903:
Zur Bewertung von Bildung schreibt er weiter:
An der Geschichte des Bildungsbegriffs lässt sich verfolgen, dass dieser im Laufe der Zeit nicht eine, sondern mehrere Konnotationen erhalten hat, angefangen bei der religiösen Bedeutung über die Persönlichkeitsentwicklung bis hin zur Ware Bildung. Im Deutschen Kaiserreich (1871–1918) findet die entscheidende Wende von humboldtschen Bildungsinhalten hin zu moderneren Lehrinhalten statt.
An der Jahrtausendwende: Transformatorische und relationale Bildung.
Die Diskussion um den Bildungsbegriff seit den 1960er Jahren verläuft recht komplex. Es
Jürgen-Eckhart Pleines stellte um die Jahrtausendwende (2000) im Blick auf den Bildungsbegriff fest, es habe „wenig Sinn […], von ihm […] eine endgültige Befreiung oder eine Erlösung zu erwarten.“ Der Bildungsbegriff wurde „im Zuge des Problematisch-Werdens der ‚großen Erzählungen‘ als legitimatorische Basis von Wissen sehr grundsätzlich in Frage gestellt [...] Insbesondere ist die dem klassischen Bildungsbegriff verpflichtete Bildungstheorie (außer von systemtheoretischer Seite […]) durch Vertreter postmodernen Denkens großen Herausforderungen ausgesetzt u. a. hinsichtlich der Vorstellungen von allgemeiner und harmonischer Bildung und in Bezug auf das Vernunft- und Subjektverständnis“ (Meder (1987), Pongratz (1986), W. Fischer (1989), Schirlbauer (1990) und Ruhloff (1993), aber z. B. auch Meyer-Drawe (1991)).
Prinzipiell betrachtet „wurde fraglich, […] ob unter den Voraussetzungen der (Post-)Moderne überhaupt noch mit Sinn von ‚Bildung‘ gesprochen werden könne, wo doch die Bildungstheorie als pädagogische Variante jener Legitimationserzählungen (i.e.: der ‚großen Erzählungen‘) zur Legitimation des Wissens […] erscheint“ (Koller (1999: 16)).
Dabei sei festzuhalten, dass „der Bildungsbegriff von den der veritablen Postmoderne verpflichteten Wissenschaftlern vielfach lediglich in seiner traditionellen und auch seiner im Anschluss daran modifizierten Ausprägung abgelehnt [wird]. Weiter wurden verschiedene beachtete, wenngleich nicht allgemein akzeptierte […] Versuche einer ‚postmodernen‘ Transformation und Neubestimmung des Bildungskonzeptes unternommen. Diese haben zu in sich unterschiedlichen ersten Ansätzen eines ‚postmodernen Bildungsbegriffes‘ und einer ‚postmodernen Pädagogik‘ geführt[.]“ Zu nennen sind hier für die 1990er Jahre u. a. Jörg Ruhloff, Norbert Meder, Johannes Fromme, Hans-Christoph Koller und Roland Reichenbach.
Der Bildungsgedanke bleibt gleichwohl umstritten und umkämpft. Pleines konstatiert zur Jahrtausendwende, dass der Bildungsgedanke „um sein Überleben und um seine Anerkennung kämpft“. Dem stehe gegenüber „[d]ie Vereinnahmung des Bildungsbegriffes für politische und nationalökonomische Zwecke auf bildungspolitischer und -institutioneller, wirtschaftlicher und öffentlicher Seite – eine Vereinnahmung, die, solange nicht neu bestimmt wurde, was Bildung eigentlich sein kann, keineswegs verwunderlich ist“.
Trotz der Zweifel an seiner Operationalisierbarkeit und Empirieferne wurde der Bildungsbegriff beibehalten. So existiert „eine durchgehende Linie bildungstheoretischer Diskussion bis heute, die in der Hoffnung auf eine der Zusammenhanglosigkeit, Disparatheit und Unbegründbarkeit pädagogischen Denkens und Handelns wehrenden Orientierungsfunktion des Bildungsbegriffes begründet ist“; denn es zeigte sich, „dass der Bildungsbegriff als Kategorie für pädagogisches Denken und Handeln unverzichtbar ist, […] um die Aufgabe der Pädagogik unverkürzt und angemessen zu fassen“. Auch von „(transzendental-)skeptischen“ Autoren wie W. Fischer und J. Ruhloff wird „der Bildungsbegriff für nicht verzichtbar gehalten, insbesondere deswegen, weil er dem geltungsanalytischen Diskurs in systematischer Hinsicht innerhalb der Erziehungswissenschaft Raum gebe“.
Im Blick auf die für das bildungstheoretische Denken beklagte Empirieferne ist eine wichtige Entwicklung hervorzuheben: Zwischen der traditionell philosophischen Bildungstheorie und der empirischen Bildungsforschung steht seit den 1980er Jahren die bildungstheoretisch orientierte Biographieforschung. Sie will über die Kategorie der Biographie zwischen beiden Bereichen vermitteln. Ziel ist dabei, den Bildungsbegriff zu präzisieren und so die Bildungstheorie für die Bildungsforschung und Bildungspraxis anschlussfähig zu machen. Dieser Forschungsdiskurs orientiert sich am transformatorischen Bildungsbegriff in der Tradition von Wilhelm von Humboldt und ist seit den 1990er Jahren durch die Ansätze von Winfried Marotzki und Hans-Christoph Koller geprägt. Als Basisdefinition gilt: Bildung ist ein Transformationsprozess der Figuren des Welt- und Selbstverhältnisses einer Person aus Anlass von Krisenerfahrungen, welche die bestehenden Figuren in Frage stellen. Koller fordert bis ins Jahr 2012 eine theoretische Präzisierung der Begriffe Transformationsprozess und Welt- und Selbstverhältnis sowie eine genaue Bestimmung des Anlasses von Bildungsprozessen.
Aus der Diagnose der Stagnation dieser Rekonstruktionsversuche des transformatorischen Bildungsbegriffs wird von Beate Richter der Wechsel in der Methode vom interpretativen zum relationalen Paradigma vorgeschlagen und die sogenannte relationale Entwicklungslogik als methodische Basis einer Präzisierung eingeführt. Mit der Übertragung der Ergebnisse der informellen Axiomatisierung (Methode der Theoretischen Strukturalisten Wolfgang Stegmüller, Wolfgang Balzer) von Robert Kegans strukturaler Entwicklungstheorie auf den transformatorischen Bildungsbegriff wird unter Verwendung weiterer Referenztheorien aus dem Bereich der relationalen Kommunikationstheorien die Präzisierung des Begriffs möglich. Bildung wird von Richter als „Prozess der Transformation der Regel der Bedeutungsbildung einer Person unter Konfrontation mit der Regel der Bedeutungsbildung nächsthöherer Ordnung definiert und als eine Struktur der Übergänge zwischen Kontext-Regeln beschrieben, die ein Beobachter der Person im Interaktionsprozess zuschreibt“ (Richter 2014: IX).
Heute.
In heutigen gesellschaftlichen Debatten wird der Bildungsbegriff mit allen diesen Konnotationen zugleich oder in Teilen verwendet, je nachdem, in welchem Kontext die Äußerung steht. Mögliche Kontexte sind zum Beispiel: soziale Abgrenzung, wirtschaftliche Interessen oder politische Ziele. Verallgemeinernd kann eigentlich nur gesagt werden, dass die meisten Definitionen auf den Mündigkeitsaspekt des Begriffs „Bildung“ hinweisen. Zu den Begriffen und Begriffsschöpfungen, die im gemeinten Kontext zur Sprache kommen, gehören Bildungssystem, Bildungsmisere, Allgemeinbildung, Bildungspolitik, bildungsferne Schichten u. a. m. Wie nicht zuletzt die Diskussion um die Pisa-Studie zeigt, werden heute auch die allgemeinbildenden Schulen mit immer größerer Selbstverständlichkeit unter dem Gesichtspunkt der „Optimierung von Lernprozessen im Hinblick auf deren Relevanz für ökonomisch verwertbare Arbeit“ (Ribolits, 13) bewertet.
Die Paradoxie, die darin enthalten ist, dass die Fokussierung des selbstorganisierten Lernens und der Handlungskompetenz (und insbesondere die Betonung des – so Matthias Heitmann – „entmündigenden Zwangs“ zum lebenslangen Lernen) zu einer Entwertung dessen führt, was man früher Bildung nannte, wird von der Pädagogik bisher kaum diskutiert. Während es angesichts des rasanten Wandels der technischen und sozialen Umwelt als selbstverständlich erscheint, sich fortlaufend neues Wissen (im Sinne von parzellierten Fakten) aneignen zu müssen, wird die traditionelle Wissensvermittlung im curricularen Kontext immer weniger als Ziel von Schulen und Hochschulen akzeptiert und ist auch kaum eine wirksame Motivation für ein Lehramtsstudium. Das schlägt sich in den Curricula der Schulen und Hochschulen nieder.
Aspekte des Bildungsbegriffes.
Bildung ist im Gegensatz zu Ausbildung bzw. Berufsbildung nicht "unmittelbar" an ökonomische Zwecke gebunden. Zum Problem der Konkurrenz von Bildung und Ausbildung äußerte sich Johann Heinrich Pestalozzi folgendermaßen:
Johann Gottfried von Herders Gedanken ähneln denen von Pestalozzi:
Da allgemeine Schulpflicht (Deutschland) besteht, werden Bildungsprozesse wenigstens zunächst nicht freiwillig initiiert. Weil in unserer Gesellschaft Wissen verlangt wird, besteht lebenslang ein äußerer Druck, möglichst viele Informationen aufzunehmen. Wissen und Lernen allein ergeben jedoch noch keine Bildung. Friedrich Paulsen äußert sich im enzyklopädischen Handbuch der Pädagogik von 1903 zu diesem Thema folgendermaßen:
Elementare Aspekte der Bildung sind symbolisch als gleichseitiges Dreieck darstellbar, wobei jede Seite gleichberechtigt ist. Die drei Seiten stehen dabei symbolhaft für Wissen, Denken und Kommunikationsfähigkeit. Wissen umfasst dabei die Wissensinhalte (deklaratives Wissen), das Denken hingegen die unterschiedlichen Strategien des Erkenntnisgewinns wie Problemlösen, Beschreiben, Erklären, Interpretieren usw. Unter Kommunikationsfähigkeit kann in diesem Zusammenhang die Fähigkeit eines Menschen verstanden werden, seine Gedanken, Ideen, Thesen usw. anderen transparent zu machen und umgekehrt sich in die Gedankenwelt anderer aktiv hineinzuversetzen.
Wilhelm von Humboldt hingegen beschreibt einen Aspekt des Bildungsbegriffes als die „Verknüpfung von Ich und Welt“. Im Mittelpunkt steht der Mensch mit seinen Kräften, während Welt die Gesamtheit aller außerhalb des Menschen liegenden Gegenstände bezeichnet. Es besteht eine konstante Wechselwirkung zwischen dem Einfluss des Menschen auf die Welt und dem Einfluss der Welt auf den Menschen. Laut Humboldt sind die Kräfte beziehungsweise Fähigkeiten des Menschen von Natur aus gegeben und werden erst durch individuelles Lernen entfaltet. Diese Kräfte definiert Humboldt nicht nur als Wissen, sondern auch als geistiges und emotionales Denken und Lernen:
Humboldt sieht die Aufgabe der Bildung darin, die beiden Gegenstände Mensch und Welt einander ähnlicher zu machen, und nicht im Transport reinen Lernstoffes. Der Mensch sollte in der Schule für das Leben lernen und nicht auf einen spezifischen Beruf vorbereitet werden. Wilhelm von Humboldt wollte Schule allen zugänglich machen und jeder sollte die Möglichkeit haben, auf Wissen gleich zugreifen zu können. Er spricht sich für Bildung für alle aus.
Frühe Bildung.
Zunehmende Bedeutung, auch mit Rückwirkungen auf die Diskussion über schulische Bildung, gewinnt die frühe Bildung von Kindern in den ersten Lebensjahren. Während man noch in den 1950er und 60er Jahren vom „dummen ersten Jahr“ sprach und damit die Bildungsunfähigkeit kleiner Kinder beschreiben wollte, ist heute allgemeiner Kenntnisstand, dass Bildung spätestens mit der Geburt beginnt und dann in höchstem Tempo die wesentlichen Voraussetzungen aller späteren Bildungsprozesse gelegt werden. Wichtige Impulse hat dieser Prozess durch die Hirnforschung erfahren.
Bildung und soziale Ungleichheit.
„Schule ist eine Institution, die Lebenschancen verteilt.“
Die Bildungsanstrengung ist das Ergebnis der Einflüsse der Umwelt und der individuellen Entscheidung. Im Allgemeinen korrelieren in fast allen Gesellschaften sozialer Status der Eltern und formale Bildung der Kinder positiv miteinander. Das bedeutet, dass niedrige Bildungsabschlüsse (oder das Fehlen derselben) vor allem in den unteren Bevölkerungsschichten anzutreffen sind. Durch Erwerb von Bildung ist sozialer Aufstieg möglich.
Mit „Bildung“ und dem Ausbau des Bildungssystems war in der Vergangenheit häufig die Hoffnung verbunden, soziale Ungleichheiten abzubauen. Dass es sich bei der ersehnten „Chancengleichheit“ um eine Illusion handelt, haben die französischen Soziologen Pierre Bourdieu und Jean-Claude Passeron schon in den 1960er Jahren gezeigt. Dabei gibt es nationale Unterschiede. Im internationalen Vergleich bestimmt in Deutschland die soziale Herkunft in besonders hohem Maß den Bildungserfolg. Diverse Schulleistungs-Studien (LAU-Studie, IGLU-Studie, PISA-Studie) haben belegt, dass Kinder ungebildeter Eltern selbst dann häufig eine geringere Schulformempfehlung bekommen als Kinder von Eltern mit höherer Bildung, wenn die kognitive, die Lese- und Mathematikkompetenz gleich ist. Das Bildungswesen kann unter solchen Voraussetzungen dazu dienen, soziale Ungleichheit zu reproduzieren und zu legitimieren, da das „Versagen“ im Bildungssystem häufig als individuelle Unfähigkeit interpretiert und erlebt wird. In Deutschland sind gegenwärtig in besonderer Weise Kinder und Jugendliche aus Einwandererfamilien von Bildungsbenachteiligung betroffen. Darauf reagiert eine Fachdiskussion zu der Frage, was Erfordernisse einer angemessenen Bildungspolitik und Bildungspraxis in der Einwanderungsgesellschaft sind. Eine Studie der Universität Augsburg von 2007 weist zudem auf einen deutlichen Unterschied zwischen Land- und Stadtkindern hin. So wechseln in Schwaben (Bayern) auf dem Land nur 22 Prozent der Mädchen von der Grundschule auf das Gymnasium. In der Stadt dagegen gehen 44 Prozent der Mädchen auf die Oberschule – trotz gleicher Noten.
Einen Zusammenhang zwischen den landwirtschaftlichen Strukturen im 19. Jahrhundert, verschiedenen Bildungsniveaus und wirtschaftlichen Ungleichheiten haben Jörg Baten und Ralph Hippe (2017) für Europa gefunden. Sie argumentieren, dass die Größe der Betriebe ausschlaggebend war, welche wiederum von der Bodenbeschaffenheit beeinflusst wurde. In den kleineren Betrieben legten die Bauern größeren Wert darauf, dass ihre Kinder gebildet waren, da sie später den Hof übernehmen würden. Dies war u. a. typisch für Nord- und Nordwesteuropa um 1900. Waren Boden und Klima jedoch günstig für große Weizenfelder und somit Großgrundbesitz, entwickelten sich häufig politische Eliten. Diese wiederum verhinderten den Zugang zu Bildung für ländliche Arbeitnehmer. Die daraus resultierenden Bildungsunterschiede wirkten sich wiederum auf die allgemeine wirtschaftliche Entwicklung aus.
"Siehe auch: Bildungsparadox, soziale Reproduktion, Kritische Bildungstheorie, Arbeiterkinder, Bildungsgeographie, Bildungsbenachteiligung und DSW-Sozialerhebung"
Bildungsziele.
Bildungsziele der praktischen Bildung können gemäß Hans Lenk unter anderem sein:
Wissenschaftler wie Wolfgang Klafki oder Benjamin Jörissen beschäftigen sich mit theoretischen Ansätzen, um den Bildungsbegriff im Allgemeinen und Bildungsziele zu definieren.
Klafki (2007, S. 19–25) spricht von „Bildung als Befähigung zu vernünftiger Selbstbestimmung“ sowie von „Bildung als Subjektentwicklung im Medium objektiv-allgemeiner Inhaltlichkeit“. Die Begriffe „Selbstbestimmung, Freiheit, Emanzipation, Autonomie, Mündigkeit, Vernunft, Selbsttätigkeit“ bezeichnet Klafki (2007, S. 19) als Beschreibung für das erste Moment von Bildung. Durch Bildung soll sich das Individuum emanzipieren von Vorgaben durch andere, frei denken und eigene moralische Entscheidungen treffen können. Nach dieser Sicht können die oben genannten Begriffe als Ziele von Bildung gesehen werden. Nach Klafki ist Bildung nichts Individuelles oder Subjektives. Das Individuum erreicht die Ziele nur durch Auseinandersetzung mit Inhalten. Diese Inhalte sind durch die menschliche Kultur vorgegeben. Klafki (2017, S. 21) versteht darunter „zivilisatorische Errungenschaften der Bedürfnisbefriedigung, Erkenntnisse über die Natur und die menschliches, politische Verfassungen und Aktionen, sittliche Ordnungen, Normsysteme und sittliches Handeln, soziale Lebensformen, ästhetische Produkte bzw. Kunstwerke, Sinndeutungen der menschlichen Existenz in Philosophien, Religion, Weltanschauungen“.
Jörissen und Marotzki (2009, S. 21–26) beschreiben vier aufeinander aufbauende Ebenen. Die erste Ebene bezeichnen sie als „Lernen 1“ und beschreiben sie als die einfachste Form von Lernen, dem reizinduzierten Lernen. Die vierte Ebene ist die komplexeste Ebene und wird „Bildung 2“ genannt. Das Erreichen dieser Ebene kann als Bildungsziel definiert werden. Auf dieser Ebene ist das Individuum in der Lage, sich selbst bei der Konstruktion seiner Welt zu beobachten. Es schafft eigene Schemata und kann diese hinterfragen. Es lernt andere Ansichten nicht nur anzuerkennen oder zuzulassen, sondern alle Erfahrungsmodi bewusst zu sehen und aktiv zu nutzen. Sich auf dieser Ebene zu bewegen, ist dauerhaft nicht möglich. Im Alltag würde sich der Mensch in jeder Situation alle Handlungsmöglichkeiten aus allen denkbaren Perspektiven vor Augen führen. Wenn diese Ebene allerdings einmal erreicht wurde, ist es möglich, sie immer wieder zu betreten.
Bildungsziele besitzen keine einheitliche Definition. Neben den allgemeinen Bildungszielen, auf denen in Deutschland bundesweite Bildungsstandards basieren, gibt es auch konkrete Bildungs- und Erziehungsziele in Gestaltung der einzelnen Länder (B. Lohmar und T. Eckhardt, 2014, S. 25). So sollte z. B. nach einem bayrischen Gutachten des Aktionsrats Bildung (2015) erwähnt sein, dass Bildung als mehrdimensional betrachtet werden sollte. Damit müssen dementsprechend auch Bildungsziele mehrdimensional betrachtet werden. In der Bildung sollten die Bildungsziele und -kompetenzen, wie Wilhelm von Humboldt sie beschreibt, demzufolge verstärkt mit einbezogen werden: Bildungsziele sollen nicht auf die Aufnahme von fachlicher Kompetenz beschränkt sein, sondern auch nichtfachliche, übergeordnete Kompetenzen einschließen, wie z. B. erfolgreiche Bewältigung von komplexen Situationen, in denen auch soziale oder emotionale Kompetenzen eine Rolle spielen (Blossfeld, 2015, S. 19 ff.). Diese Thesen sind landesweit in den Schulgesetzen und Lehrplänen verankert (Blossfeld, 2015, S. 81).
Bildungswesen und -ziele in Deutschland
Im Allgemeinen wird das Bildungswesen in Deutschland durch die föderative Staatsstruktur bestimmt: Den Ländern obliegt, soweit nicht vom Grundgesetz anders befugt, die Gesetzgebung im Bereich des Bildungswesens. In abweichenden Fällen ist zumeist der Bund für die Gesetzgebung zuständig (B. Lohmar und T. Eckhardt, 2014, S. 11 ff., S. 25 ff.). Bildungs- und Erziehungsziele zählen zu den inneren Schulangelegenheiten und werden durch die Schulgesetze geregelt. Eine Konkretisierung wird schließlich durch die Lehrpläne des Kultusministeriums des Landes durchgeführt (B. Lohmar und T. Eckhardt, 2014, S. 25).
Die Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (Kultusministerkonferenz – KMK) ist eine ständige Zusammenarbeit der zuständigen Minister bzw. Senatoren der Länder für Bildung und Erziehung, Hochschulen und Forschung sowie kulturelle Angelegenheiten. Sie legen neben den allgemeinen Bildungszielen auch Bildungsstandards fest. Die KMK hat grundlegende Beschlüsse wie das „Hamburger Abkommen“ (1964) vereinbart, mit dem grundlegende Strukturen des Bildungswesens (Schulpflicht, Schularten etc.) festgelegt wurden. Das Hamburger Abkommen bildet die Basis für die Erarbeitung länderübergreifender Beschlüsse zu Weiterentwicklung des Schulwesens (B. Lohmar und T. Eckhardt, 2014, S. 44). Der „Konstanzer Beschluss“ (1997) wiederum sorgt für die Qualitätssicherung und Qualitätsentwicklung im Bildungswesen. In der KMK werden zudem qualitative Standards für das Bildungswesen erarbeitet, so z. B. die Standards für den mittleren Schulabschluss, den Primarbereich und für Hauptschulabschlüsse (2003 und 2004) sowie für die allgemeine Hochschulreife (2012), die landesweit gelten (B. Lohmar und T. Eckhardt, 2014, S. 44 ff.; Veröffentlichungen der Kultusministerkonferenz, Juni 2005a).
Standards sind im Bereich der Bildung als normative Vorgaben zur Steuerung des Bildungssystems zu verstehen. Sie bestimmen, welche Kompetenzen und wesentlichen Inhalte Schüler bis zu definierten Jahrgängen erwerben sollen (Veröffentlichungen der Kultusministerkonferenz, Juni 2005a, S. 10).
Bildungsstandards wurden bis dato für die Fächer Deutsch, Mathematik und die erste/fortgeführte Fremdsprache (sowohl Englisch als auch Französisch) und die naturwissenschaftlichen Fächer verfasst (Veröffentlichungen der Kultusministerkonferenz, Juni 2005a; Beschlüsse der Kultusministerkonferenz, Juni 2005b; B. Lohmar und T. Eckhardt, 2014). Der Aufbau von Bildungsstandards, festgehalten in den jeweiligen fachspezifischen Curricula, ist für alle Fächer gleich: Er beinhaltet zunächst den Beitrag des Faches zur Bildung, dann die Beschreibung und Definition der jeweiligen Kompetenzbereiche und schließt endlich mit Beispielaufgaben ab, die die verschiedenen Anforderungsbereiche veranschaulichen (Veröffentlichungen der Kultusministerkonferenz, Juni 2005a, S. 15).
Laut KMK fördern Bildungsstandards
Weiterentwicklung von Bildungszielen in Deutschland
Aufgrund des Wandels von der Industriegesellschaft zur Dienstleistungsgesellschaft rücken auch Weiterbildungen immer weiter in Fokus des Bildungswesens. So wurde z. B. die „Strategie für lebenslanges Lernen“ 2004 beschlossen und 2006 haben Bundesministerium für Bildung und Forschung (BMFB) und das KMK den deutschen Qualifikationsrahmen für lebenslanges Lernen angedacht. So heißt es: „Ziel der Strategie ist es darzustellen, wie das Lernen aller Bürgerinnen und Bürger in allen Lebensphasen und Lebensbereichen, an verschiedenen Lernorten und in vielfältigen Lernformen angeregt und unterstützt werden kann“ (B. Lohmar und T. Eckhardt, 2014, S. 26 ff., S. 45 ff.). Zudem rückt im Zuge der „digitalen Revolution“ auch die Überarbeitung vieler Bildungsziele in den Vordergrund. Die Lernumgebung sowie die Lehr- und Lernformen müssen neu betrachtet werden. 2016 wurde daher eine Strategie zur digitalen Bildung veröffentlicht (Strategie der Kultusministerkonferenz, 2016).
Der pädagogisch begleitete Bildungsprozess (Klafki).
Das von Wolfgang Klafki entwickelte Konzept der kategorialen Bildung basiert auf „dem Gedanken des wechselseitigen Aufeinanderbezogenseins von Welt und Individuum“. Er unterteilt den Begriff der Bildung in zwei Hauptgruppen, die materiale und die formale Bildung. In beiden Gruppen unterscheidet Klafki noch jeweils zwei weitere Grundformen: innerhalb der materialen Bildung den bildungstheoretischen Objektivismus und die Bildungstheorie des Klassischen, und als Varianten der formalen Bildung die funktionelle und die methodische Bildung.
Mit dem Begriff "Bildungstheoretischer Objektivismus" ist gemeint, dass es Bildungsziele gibt, die so wichtig sind, dass alle Schüler sie lernen müssen. Das impliziert auch die Auseinandersetzung mit dem Begriff des Allgemeinen, das als „uns alle Angehendes“ verstanden werden soll.
Klafkis "Bildungstheorie des Klassischen" versteht Bildung als Vorgang bzw. als Ergebnis eines Vorgangs, in dem sich der junge Mensch in der Begegnung mit dem Klassischen das geistige Leben, die Sinngebungen, Werte und Leitbilder seines Kulturkreises zu eigen macht und in diesen idealen Gestalten seine eigene geistige Existenz erst gewinnt. Welche Bildungsinhalte als „klassisch“ gelten könnten, könne nie ein für alle Mal festgeschrieben werden, sondern sei abhängig von historisch-kritischer Aneignung und einem fortdauernden Prozess der Herausbildung überzeugender Leitbilder.
Die "funktionale Bildungstheorie" als eine Grundform der formalen Bildung stellt nicht die Aufnahme und Aneignung von Inhalten in den Vordergrund, sondern die Formung, Entwicklung, Reifung von körperlichen, seelischen und geistigen Kräften und Verhaltensweisen, die für die Schüler wichtig sind, kurz: der Entfaltung ihrer humanen Fähigkeitsdimensionen.
Die zweite Grundform formaler Bildung nennt Klafki nach Lemensick "methodische Bildung". Bildung bedeutet hier Gewinnung und Beherrschung der Denkweisen, Gefühlskategorie, Wertmaßstäbe, kurz: der Methode.
Aus Klafkis Sicht zielt Bildung auf die Vermittlung und den Erwerb von drei grundlegenden Zielen:
Bildung solle in allen Grunddimensionen menschlicher Fähigkeiten vonstattengehen, das bedeutet "über kognitive Funktionen hinaus":
Im Bildungsprozess seien spezifische Einstellungen und Fähigkeiten zu vermitteln und zu erwerben:
Bildungsvergleiche international.
Abgesehen davon, dass verschiedene Kulturen unterschiedliche Bildungsideale verkörpern, gibt es weitgehende Einigkeit darüber, dass bestimmte Basiskompetenzen zur Allgemeinbildung gehören, z. B. Lesen, Schreiben, Textverständnis, grundlegende Kenntnisse der Mathematik, Geographie und Naturwissenschaften etc. Diese Kenntnisse werden in internationalen Vergleichsstudien länderübergreifend verglichen, z. B. den PISA-, IGLU- oder TIMSS-Studien. Allerdings geben diese Studien keinen Gesamtüberblick über den Bildungsstand in diesen Ländern, sondern bilden vor allem deren aktuelles Schulsystem ab. Die aktuellen PISA-Ergebnisse lassen z. B. keine Schlüsse zum Bildungsstand Erwachsener zu, die die Schule schon vor Jahren oder Jahrzehnten verlassen haben. Der Bildungsstand Erwachsener lässt sich bis zu einem gewissen Grad an den jeweiligen Abschlüssen innerhalb einer Bevölkerung ablesen, z. B. in Studien der OECD. Allerdings sind Abschlüsse nur bedingt vergleichbar, auch wenn es zunehmend Bestrebungen gibt, akademische Grade zu standardisieren und damit vergleichbar zu machen (z. B. mit dem Bologna-Prozess der Europäischen Union).
Bildungsstagnation in hochentwickelten Ländern.
Analysen des National Center for Education Statistics in den USA und der Brookings Institution zeigen, dass etwa seit 2011/14 die Leistungen in Mathematik, die sich jahrzehntelang positiv entwickelt hatten, stagnieren oder gar zurückgehen. Das gilt auch für die Lesefähigkeit. Am stärksten ließen die Leistungen von afroamerikanischen Jungen in den Großstädten nach, während die Leistungen an der Spitze noch anstiegen. Das wird auch auf die Weltfinanzkrise zurückgeführt, obwohl die Investitionen in die Bildung in den USA zunahmen.
In England stagnieren in der gleichen Zeit die Leistungen von 14- bis 19-Jährigen Sekundarstufenschülern. Hier würden insbesondere mittlere und lernschwache Schüler von den besseren abgehängt, was auch auf die konservativen Schulreformen zurückzuführen sei, durch die die angebliche inflation höherer Abschlüsse in der Periode von New Labour gestoppt werden sollten.
Auch andere entwickelte Länder weisen ähnliche Trend auf. So sei in kaum einem Land das Leistungsniveau in den letzten Jahren so stark abgefallen wie Finnland, das 15 Jahre zuvor noch Spitzenwerte erreichte.
Emmanuel Todd sieht einen Zusammenhang zwischen der Bildungsstagnation in den hochentwickelten westlichen Nationen mit der demographischen Überalterung, der Auflösung der paternalistischen Stammfamilie, wodurch die Akkumulation und Weitergabe von kulturellem Kapital behindert werde, und einem zunehmend radikalen Individualismus. Die „Dritte Bildungsrevolution“ (gemeint ist der Ausbau der Hochschulen nach der Einführung der Schulpflicht und dem Ausbau des Sekundarschulwesens) sei trotz steigender Zahl von Hochschulabsolventen qualitativ abgebrochen, die Ungleichheit kehre verstärkt in den Bildungsbereich zurück und gehe einher mit dem steilen Anstieg der Einkommen des reichsten 1 % der Amerikaner bei gleichzeitiger Stagnation der mittleren Einkommen seit den 1990er Jahren. Das Aufstiegsversprechen funktioniere daher nicht mehr.
Bildungskonzepte anderer Kulturen.
Der in diesem Artikel bis hierhin vorgestellte Bildungsbegriff ist im 18. Jahrhundert in Europa entstanden. Bildungstraditionen existieren jedoch nicht nur in der westlichen Welt, sondern auch in vielen anderen Kulturen und sind oftmals erheblich älter als die Humboldtschen Ideen.
China.
Die chinesische Bildungstradition entstand im 6. Jahrhundert v. Chr. mit dem Konfuzianismus, einer Philosophie, die in China nicht zufällig „Schule der Gelehrten“ heißt. Konfuzius und seine Schüler bemühten sich in dieser Zeit um eine Erneuerung der gesellschaftlichen und religiösen Werte und um eine grundlegende Verbesserung des Menschen, die zu einer Vervollkommnung der gesellschaftlichen Ordnung führen sollte. Den Schlüssel zur Verbesserung des Menschen sahen sie in der Erfüllung bestimmter sozialer Pflichten (Loyalität, Ehrung der Eltern, Schicklichkeit) und im Studium. Im Gefolge der konfuzianischen Bestrebungen um eine Meritokratie wurde unter der Sui-Dynastie im Jahre 606 n. Chr. die chinesische Beamtenprüfung eingeführt, ein Wettbewerbssystem, das Angehörigen der gebildeten Stände einen Aufstieg in gesellschaftliche Positionen ermöglichte, die bis dahin meist per Geburt eingenommen wurden. Das Prüfungssystem führte zur Entstehung einer sozialen Schicht von Gelehrten-Bürokraten (; vgl. Mandarin), die in Kalligrafie und im konfuzianischen Schrifttum geschult waren und die bis zum Untergang der Qing-Dynastie (1912) in der Politik Chinas großen Einfluss besaßen. Zu den Gebieten, auf denen chinesische Gelehrte () traditionell bewandert waren, zählen auch die chinesische Literatur, das Spielen von Musikinstrumenten, das Go- oder Schachspiel, das Malen mit Wasserfarben und die Teekunst. Nach der Gründung der Volksrepublik China und besonders in der Zeit der Kulturrevolution versuchte die chinesische Führung unter Mao Zedong eine Zerschlagung sämtlicher Bildungstraditionen der Kaiserzeit durchzusetzen; so gab es in der VR China von 1966 bis 1978 z. B. keinen normalen Universitätsbetrieb. Die außerordentliche hohe Bewertung von Bildung ist für große Teile der chinesischen Bevölkerung jedoch bis auf den heutigen Tag charakteristisch geblieben.
Da diese Bildungstradition sich unabhängig von der europäischen Geistesgeschichte entwickelt hat und in einer Zeit entstanden ist, in der das deutsche Wort „Bildung“ noch nicht einmal existierte, bestehen zwischen dem traditionellen chinesischen und dem modernen westlichen Bildungsbegriff neben manchen Gemeinsamkeiten auch signifikante Unterschiede. Besonders fern liegt der kollektivistischen Tradition Chinas die Humboldtsche Idee, dass der Mensch durch Bildung Individualität entfalten solle. Ähnlich wie das Humboldtsche zielt auch das konfuzianische Bildungsideal auf eine Verbesserung des Menschen, aber nicht mit der Absicht, aufgeklärte Weltbürger hervorzubringen, sondern um das Gemeinwesen in Harmonie zu bringen.
Islam.
Im Islam gilt der Prophet Mohammed als der erste Lehrer und geistige Erzieher der Gläubigen. Grundlegend für diese Vorstellung ist der Koranvers: „Gott hat den Gläubigen Gnade erwiesen, da er unter ihnen einen Gesandten von den ihren auftreten ließ, der ihnen seine Verse vorträgt, der sie läutert und der sie lehrt die Weisheit und das Buch. Sie waren ja zuvor in klarem Irrtum!“ (Sure 3:164). Der ismailitische Philosoph Nāsir-i Chusrau betrachtete Mohammed aufgrund dieses Verses sogar als den „Lehrer der Menschheit“ schlechthin.
Traditionelle islamische Bildung ist auf der elementaren Stufe vor allem auf das Auswendiglernen des Korans ausgerichtet. Dafür gibt es spezielle Koranschulen. Der dortige Unterricht beginnt mit dem Erlernen kurzer Korantexte (z. B. "al-Fātiha") für den Gebrauch beim Gebet und behandelt dann die Rituale für Gebet und Waschung selbst. Im weiteren Verlauf der Ausbildung werden die Namen für die Buchstaben und Zeichen der arabischen Schrift und das Buchstabieren arabischer Korantexte erlernt, und es wird das flüssige Rezitieren und Schreiben des arabischen Korantextes geübt. Höhere Bildung wird in der Madrasa vermittelt. Sie besteht aus dem Erwerb weiteren Wissens über die religiösen Pflichten und der Aneignung von Kenntnissen über die Glaubenslehre "(Tauhīd)", über Ethik und Moral, die arabische Grammatik, "Fiqh", "Hadith", Prophetenbiographie, Koranexegese und Rechnen.
In Nigeria hat in den letzten Jahrzehnten die Bedeutung islamischer Bildung stark zugenommen. Nach der 1976 erfolgten Einführung der Allgemeinen Grundschulbildung "()", die vor allem auf die Vermittlung westlicher Bildung ausgerichtet war, erlebte das private islamische Schulwesen einen enormen Ausbau. Mit der Organisation Boko Haram („Westliche Bildung ist verboten“) besteht seit 2004 eine islamistische Terrorgruppe, die sich den Kampf gegen westliche Bildung auf die Fahnen geschrieben hat.
Siehe auch.
Fragen zur Bildung
Literatur.
Vertiefende Lektüre.
Die chronologische Anordnung verdeutlicht Schwerpunktsetzungen einzelner Jahrzehnte.
1960 –
1970 –
1980 –
1990 –
2000 –
2010 -
Weblinks.
Externe Links |
782 | 430147 | https://de.wikipedia.org/wiki?curid=782 | Computer | Ein Computer (englisch; deutsche Aussprache []) oder Rechner ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Dementsprechend werden vereinzelt auch die abstrahierenden beziehungsweise veralteten, synonym gebrauchten Begriffe Rechenanlage, Datenverarbeitungsanlage oder elektronische Datenverarbeitungsanlage sowie Elektronengehirn verwendet.
Charles Babbage und Ada Lovelace (geborene Byron) gelten durch die von Babbage 1837 entworfene Rechenmaschine "Analytical Engine" als Vordenker des modernen universell programmierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945) in Berlin, John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte dieser Art. Bei der Klassifizierung eines Geräts als "universell programmierbarer Computer" spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hatte.
Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.
Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in „Fahrassistenten“ diverse Manöver selbst.
Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer (engl. für persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.
Begriffsgeschichte.
Rechner.
Der deutsche Begriff "Rechner" ist abgeleitet vom Verb "rechnen". Zur Etymologie siehe Rechnen#Etymologie.
Computer.
Das englische Substantiv ist abgeleitet von dem englischen Verb . Jenes ist abgeleitet von dem lateinischen Verb , was zusammenrechnen bedeutet.
Der englische Begriff "computer" war ursprünglich eine Berufsbezeichnung für Hilfskräfte, die immer wiederkehrende Berechnungen (z. B. für die Astronomie, für die Geodäsie oder für die Ballistik) im Auftrag von Mathematikern ausführten und damit Tabellen wie z. B. eine Logarithmentafel füllten. Dieser Beruf wurde vorwiegend von Frauen ausgeübt.
In der frühen Kirchengeschichte erfolgte eine Ablösung des jüdischen Kalenders durch den Julianischen Kalender. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit "Computus Ecclesiasticus". Doch finden sich noch weitere Titel, z. B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzen. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613. Der englische Autor Richard Brathwaite schrieb:
Die Bedeutung und der Kontext des Textes sind nicht eindeutig und lassen mehrere Interpretationen zu. Mit "computer" ist wohl ein sehr intelligenter Mann gemeint, allerdings kann im Mittelalter nur Gott die Lebenszeit des Menschen beeinflussen, so dass im zweiten Teil des Zitats auch Gott handeln könnte. "The daies of Man are threescore and ten" ist ein Zitat aus , der in der Einheitsübersetzung mit „Der ewige Gott – der vergängliche Mensch“ überschrieben ist.
In der Zeitung "The New York Times" tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der United States Navy mit dem Titel auf, in der Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt worden sind.
An der University of Pennsylvania in Philadelphia wurden im Auftrag der United States Army ballistische Tabellen berechnet. Das Ergebnis waren Bücher für die Artillerie, die für unterschiedliche Geschütze Flugbahnen unterschiedlicher Geschosse vorhersagten. Diese Berechnungen erfolgten größtenteils von Hand. Die einzige Hilfe war eine Tabelliermaschine, die zu multiplizieren und zu dividieren vermochte. Die Angestellten, die dort rechneten, wurden „computer“ (im Sinne eines menschlichen Computers) genannt. Erstmals wurde der Begriff 1946 bei der dort entwickelten elektronischen Rechenanlage Electronic Numerical Integrator and Computer (ENIAC) für ein technisches Gerät verwendet. Seit 1962 ist der Begriff in Deutschland belegt.
Grundlagen.
Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist ein Digitalrechner, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogrechner, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom).
Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die "Programmierung" des Computers beschreibt.
Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen "Speicher" bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die "Berechnung", der "Vergleich" und der "bedingte Sprung". Ein Digitalrechner kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die eingangs erwähnte Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.
Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als "Programm" bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.
Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten.
Mögliche Einsatzmöglichkeiten für Computer sind:
Hardwarearchitektur.
Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als "Von-Neumann-Architektur" bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:
In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).
Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren „Zellen“; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt.
Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von-Neumann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in der Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werden digitale Signalprozessoren häufig in Harvard-Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard-Architektur keine Programme überschreiben (Informationssicherheit).
In der Von-Neumann-Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig.
Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann.
Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.
Softwarearchitektur.
Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den „unbedingten Sprung“).
Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat).
In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.
Computersystem.
Als Computersystem bezeichnet man:
Zukunftsperspektiven.
Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer).
Ein Megatrend ist derzeit (2017) die Entwicklung künstlicher Intelligenz. Hier simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Daten trainiert werden ähnlich einem Gehirn. Den Zeitpunkt, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft, nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops. Vier Jahre später (Dezember 2020) besitzen bereits Videospielkonsolen für ca. 500 € vergleichbare Leistung.
Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.
Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den zehn Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.
Weltweite Marktanteile der Computerhersteller.
Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des Marktforschungsunternehmens Gartner Inc., basierend auf Verkaufszahlen von Desktop-Computer, Notebooks, Netbooks, aber ohne Tabletcomputer, an Endkonsumenten:
Literatur.
Allgemein
Geschichte (Quellen)
Geschichte (Darstellungen)
Computer und Gesellschaft
Weblinks.
Computermuseen |
783 | 2458679 | https://de.wikipedia.org/wiki?curid=783 | Cache | Cache ([], auch []) bezeichnet in der Informationstechnik einen schnellen Pufferspeicher, der (wiederholte) Zugriffe auf ein langsames Hintergrundmedium oder aufwendige Neuberechnungen zu vermeiden hilft. Daten, die bereits einmal geladen oder generiert wurden, verbleiben im Cache, so dass sie bei späterem Bedarf schneller aus diesem abgerufen werden können. Auch können Daten, die vermutlich bald benötigt werden, vorab vom Hintergrundmedium abgerufen und vorerst im Cache bereitgestellt werden ().
Caches können als Hardwarestruktur (beispielsweise als Hauptspeicherchips) oder Softwarestruktur (beispielsweise als temporäre Dateien oder reservierter Speicherplatz) ausgebildet sein.
Geschichte.
Das Konzept eines schnellen Zwischenspeichers, wie es hier beschrieben ist, wurde erstmals im April 1965 von M. V. Wilkes vorgestellt.
"Cache" ist ein Lehnwort, das in diesem Zusammenhang vermutlich erstmals bei IBM in Amerika aus dem Französischen entnommen wurde. Zumindest wird es bereits 1973 in einem Aufsatz von K. R. Kaplan, einem Mitarbeiter des Department of Computer Science am Livingston College der Rutgers University in New Jersey, verwendet. Seinen Ursprung hat es im französischen "cache", das eigentlich die Bedeutung "Versteck" hat. Der Name verdeutlicht den Umstand, dass dem Verwender in der Regel der Cache und seine Ersatzfunktion für das angesprochene Hintergrundmedium verborgen bleibt. Wer das Hintergrundmedium verwendet, muss Größe oder Funktionsweise des Caches prinzipiell nicht kennen, denn der Cache wird nicht direkt angesprochen. Der Verwender „spricht das Hintergrundmedium an“, stattdessen „antwortet“ jedoch der Cache – genau auf die Art und Weise, wie auch das Hintergrundmedium geantwortet, also Daten geliefert hätte. Wegen der Unsichtbarkeit dieser zwischengeschalteten Einheit spricht man auch von Transparenz. Praktisch ist er eine gespiegelte Ressource, die stellvertretend für das Original sehr schnell reagiert.
Randbedingungen.
Greifen außer dem den Cache verwendenden Gerät noch weitere auf das Hintergrundmedium zu, so kann es zu Inkonsistenzen kommen. Um auf ein identisches Datenabbild zugreifen zu können, ist es notwendig, vor dem Zugriff die Änderungen des Caches in das Hintergrundmedium zu übernehmen. Cachestrategien wie Write-Through oder Write-Back sind hier praktikabel. Im Extremfall muss ein kompletter „Cache Flush“ erfolgen.
Außerdem muss ggf. der Cache informiert werden, dass sich Daten auf dem Hintergrundmedium geändert haben und sein Inhalt nicht mehr gültig ist. Stellt die Cachelogik das nicht sicher, so ergibt sich als Nachteil, dass inzwischen im Hintergrundmedium oder im Rechenprogramm erfolgte Änderungen nicht erkannt werden. Bei Verdacht auf Änderungen, oder um sicherzugehen, dass der aktuelle Stand berücksichtigt wird, muss der Benutzer explizit eine Cache-Aktualisierung veranlassen.
Nutzen.
Die Ziele beim Einsatz eines Caches sind eine Verringerung der Zugriffszeit und/oder eine Verringerung der Anzahl der Zugriffe auf ein langsames Hintergrundmedium. Das bedeutet insbesondere, dass sich der Einsatz von Caches nur dort lohnt, wo die Zugriffszeit auch signifikanten Einfluss auf die Gesamtleistung hat. Während das z. B. beim Prozessorcache der meisten (skalaren) Mikroprozessoren der Fall ist, trifft es nicht auf Vektorrechner zu, wo die Zugriffszeit eine untergeordnete Rolle spielt. Deswegen wird dort üblicherweise auf Caches verzichtet, weil diese keinen oder nur wenig Nutzen bringen.
Ein weiterer wichtiger Effekt beim Einsatz von Caches ist die Verringerung der notwendigen Datenübertragungsrate an die Anbindung des Hintergrundmediums (siehe z. B. Speicherhierarchie); das Hintergrundmedium kann also „langsamer angebunden“ werden, was z. B. geringere Kosten ergeben kann. Weil oft der Großteil der Anfragen vom Cache beantwortet werden kann („Cache Hit“, s. u.), sinkt die Anzahl der Zugriffe und damit die notwendige Datenübertragungsrate. Zum Beispiel würde ein moderner Mikroprozessor ohne Cache selbst mit sehr kleiner Zugriffszeit des Hauptspeichers dadurch ausgebremst, dass nicht genügend Speicherbandbreite zur Verfügung steht, weil durch den Wegfall des Caches die Anzahl der Zugriffe auf den Hauptspeicher und damit die Anforderung an die Speicherbandbreite stark zunehmen würde.
Bei CPUs kann der Einsatz von Caches somit zum Verringern des Von-Neumann-Flaschenhalses der Von-Neumann-Architektur beitragen. Die Ausführungsgeschwindigkeit von Programmen kann dadurch im Mittel enorm gesteigert werden.
Ein Nachteil von Caches ist das schlecht vorhersagbare Zeitverhalten, da die Ausführungszeit eines Zugriffs aufgrund von Cache-Misses nicht immer konstant ist. Sind die Daten nicht im Cache, muss der Zugreifende warten, bis sie von dem langsamen Hintergrundmedium geladen wurden. Bei Prozessoren geschieht das oft bei Zugriffen auf bisher noch nicht verwendete Daten oder beim Laden des nächsten Programmbefehls bei (weiten) Sprüngen.
Cachehierarchie.
Da es technisch aufwändig und damit meist wirtschaftlich nicht sinnvoll ist, einen Cache zu bauen, der sowohl groß als auch schnell ist, kann man mehrere Caches verwenden – z. B. einen kleinen schnellen und einen deutlich größeren, jedoch etwas langsameren Cache (der aber immer noch viel schneller ist als der zu cachende Hintergrundspeicher). Damit kann man die konkurrierenden Ziele von geringer Zugriffszeit und großem Cacheumfang gemeinsam realisieren. Das ist wichtig für die Hit Rate.
Existieren mehrere Caches, so bilden diese eine "Cachehierarchie," die Teil der Speicherhierarchie ist. Die einzelnen Caches werden nach ihrer Hierarchieebene (engl. ) durchnummeriert, also Level‑1 bis Level‑n oder kurz L1, L2 usw. Je niedriger die Nummer, desto näher liegt der Cache am schnellen „Benutzer“; die niedrigste Nummer bezeichnet daher den Cache mit der schnellsten Zugriffszeit, dieser wird als erstes durchsucht. Enthält der L1-Cache die benötigten Daten nicht, wird der (meist etwas langsamere, aber größere) L2-Cache durchsucht usw. Das geschieht solange, bis die Daten entweder in einer Cacheebene gefunden (ein „Cache Hit“, s. u.) oder alle Caches ohne Erfolg durchsucht wurden (ein „Cache Miss“, s. u.). In letzterem Fall muss auf den langsamen Hintergrundspeicher zugegriffen werden.
Tritt ein Cache Hit z. B. im L3-Cache auf, so werden die angeforderten Daten dem Zugreifer geliefert und zugleich in den L1-Cache übernommen; dafür muss dort eine Cache-Line weichen, die in den L2-Cache „absinkt“.
Exklusive Cache-Hierarchien erzeugen deutlich mehr Datenverkehr zwischen den Caches. Dafür können so viele Cache-Lines bereitgehalten werden wie die Summe von L1-, L2- und L3-Cache-Größe, während beim inklusiven Cache nur die L3-Cache-Größe maßgebend ist.
Im Hardwarebereich weisen vor allem moderne CPUs zwei oder drei Cacheebenen auf; sonstige Geräte besitzen meist nur eine Cacheebene. Im Softwarebereich wird meist nur eine Cacheebene benutzt, eine prominente Ausnahme bilden Webbrowser, die zwei Ebenen nutzen (Arbeitsspeicher und Festplattenlaufwerk).
Strategien.
Cachegröße.
Um den Nutzen des meist um mehrere Zehnerpotenzen kleineren Caches im Vergleich zum Hintergrundspeicher zu maximieren, werden bei der Funktionsweise und Organisation eines Caches die Lokalitätseigenschaften der Zugriffsmuster ausgenutzt. Beobachtet man beispielsweise die Aktivität eines laufenden Programms auf einem Prozessor über ein kurzes Zeitintervall, so stellt man fest, dass wiederholt auf wenige und „immer dieselben“ kleinen Speicherbereiche (z. B. Code innerhalb von Schleifen, Steuervariablen, lokale Variablen und Prozedurparameter) zugegriffen wird. Deshalb können bereits kleine Caches mit einigen Kibibytes sehr wirksam sein.
Verarbeitet ein Algorithmus jedoch ständig neue Daten (z. B. Streaming-Daten), kann ein Cache keine Beschleunigung durch Mehrfach-Zugriffe bewirken, allenfalls geringfügig durch .
Lokalitätsausnutzung.
Da Caches schnell sein sollen, verwendet man für sie meist eine andere (schnellere) Speichertechnologie als für den zu cachenden Speicher (zum Beispiel SRAM gegenüber DRAM, DRAM gegenüber Magnetscheibe usw.). Daher sind Caches meist wesentlich teurer in Bezug auf das Preis-Bit-Verhältnis, weshalb sie deutlich kleiner ausgelegt werden. Das führt dazu, dass ein Cache nicht alle Daten gleichzeitig vorrätig haben kann. Um das Problem zu lösen, welche Daten im Cache gehalten werden sollen, werden die Lokalitätseigenschaften der Zugriffe ausgenutzt:
Zeitliche (temporale) Lokalität
Räumliche (spatiale) Lokalität
Wegen der räumlichen Lokalität speichern Caches nicht einzelne Bytes, sondern Datenblöcke („Cacheblock“ oder manchmal auch „Cache-Line“ genannt). Zusätzlich erleichtert das die Implementierung und verringert Speicheroverhead, da man nicht pro Datenbyte eine Adresse speichern muss, sondern nur für jeden Cacheblock. Die Wahl der Blockgröße ist ein wichtiger Designparameter für einen Cache, der die Leistung stark beeinflussen kann.
Organisation.
Ein Cache besteht aus einer (meist) festen Anzahl Einträgen, jeder Eintrag besteht aus:
Cache-Line
Address-Tag
Dirty-Tags
Valid-Tags
LRU-Tags
Siehe auch unten #Einträge im Cache.
Cache-Line/Cache-Zeile.
Eine Cache-Line ist die kleinste Verwaltungseinheit innerhalb des Caches von Prozessoren. Es handelt sich dabei um eine Kopie eines Speicherbereichs. Die Zugriffe vom Cache-Speicher zur CPU oder zum Hauptspeicher erfolgen somit in einem einzigen, blockweisen Transfer. Die Größe einer Cache-Line beträgt 16 Byte (Intel 80486), 32 Byte (Pentium P5 bis Pentium III) und 64 Byte (Pentium 4 bis aktuelle Core-i-/AMD ZEN-Prozessoren im Jahr 2018). Die Minimallänge ergibt sich aus der Speicher-Busbreite multipliziert mit der Prefetch-Tiefe des Hauptspeichers (RAM) und liegt heutzutage bei 64 Byte oder 128 Byte.
Blocknummer-Tags statt Adress-Tags.
Im Nachfolgenden wird davon ausgegangen, dass Cache-Lines immer nur von Adressen gelesen und geschrieben werden, deren Adresse durch die (Byte-)Länge der Cache-Line teilbar ist.
Beispiel.
Eine Cache-Line sei 64 Bytes groß. Es sei festgelegt, dass Daten nur gelesen und geschrieben werden können mit Startadressen z. B. 0, 64, 128, 192, 256, … Das Hintergrundmedium ist also aufgeteilt in Blöcke, die gerade so groß wie eine Cache-Line sind.
Dann muss in den Adress-Tags nicht mehr die gesamte (Start-)Adresse der Daten gespeichert werden, sondern nur noch, der wievielte Datenblock auf dem Hintergrundmedium gecachet ist. Durch die Wahl passender Zahlen (Zweierpotenzen) im Binärsystem lassen sich so die Tags platzsparender speichern; das beschleunigt das Prüfen, ob eine angefragte Adresse im Cache enthalten ist.
Block/Satz-Aufteilung der Tags.
Die Blöcke (Cache-Lines) eines Caches können in so genannte Sätze zusammengefasst werden. Für eine bestimmte Adresse ist dann immer nur einer der Sätze zuständig. Innerhalb eines Satzes bedienen alle Blöcke also nur einen Teil aller vorhandenen Adressen. Im Folgenden stehe die Variable formula_1 für die Gesamtanzahl der Cacheblöcke und formula_2 für die Anzahl der Blöcke pro Satz, die so genannte "Assoziativität." Dann besteht der Cache also aus formula_3 Sätzen.
Je nachdem, wie stark man diese Aufteilung vornimmt, spricht man von einer der drei Cache-Organisationsarten:
Direkt abgebildet (engl. , kurz "DM")
Vollassoziativ (engl. "fully associative," kurz "FA")
Satzassoziativ bzw. mengenassoziativ (engl. "set associative," kurz "SA")
Die ersten beiden sind ein Spezialfall des satzassoziativen Caches. Der direkt abgebildete und der vollassoziative Cache lassen sich somit vom satzassoziativen Cache ableiten: "n=1" führt zu einem direkt abgebildeten Cache, "n=m" zu einem vollassoziativen Cache.
Erklärung anhand eines Beispiels.
Die wesentlichen Größen eines Caches sind:
Der Cache besteht, unabhängig vom Aufbau, aus 64 KiB/64 Byte = 1024 Cache-Zeilen
Vollassoziativer Cache
Es gibt eine Cache-Gruppe, die alle 1024 Cache-Zeilen umfasst.
Jedes Hauptspeicher-Datenwort kann in jeder beliebigen der 1024 Cache-Zeilen der einen Cache-Gruppe gespeichert werden.
Es sind 1024 Komparatoren erforderlich, die log2(4 GiB/64 Byte) = log2(4 GiB)-log2(64 Byte) bits = 32-6 = 26 bits vergleichen müssen.
An jeder Cache-Zeile hängen diese 26 Bit als Adress-Tag.
Hardware-Aufwand:
Direct Mapped-Cache / Einfach- oder nicht assoziativer Cache
Es gibt 1024 Cache-Gruppen mit je einer Cache-Zeile.
Jedes Hauptspeicher-Datenwort kann nur in dieser zu seiner Adresse gehörenden Cache-Zeile gespeichert werden.
Die Cache-Gruppe ergibt sich aus den Bit 15 bis 6 der Adresse.
Es ist nur ein Komparator erforderlich, der log2(4 GiB)-log2(64 KiB) bits = 16 bits vergleichen muss.
An jeder Cache-Zeile hängen diese 16 Bit als Adress-Tag.
Hardware-Aufwand:
Zweifach assoziativer Cache
Es gibt 512 Cache-Gruppen mit je zwei Cache-Zeilen.
Jedes Hauptspeicher-Datenwort kann in einer der beiden zu seiner Adresse gehörenden Cache-Zeilen gespeichert werden.
Die Cache-Gruppe ergibt sich aus den Bit 14 bis 6 der Adresse.
Es sind zwei Komparatoren erforderlich, die log2(4 GiB)-log2(64 KiB)+1 bits = 17 bits vergleichen müssen.
An jeder Cache-Zeile hängen diese 17 Bit als Adress-Tag.
Hardware-Aufwand:
2^n-fach assoziativer Cache
Es gibt 1024/2^n Cache-Gruppen mit je 2^n Cache-Zeilen.
Jedes Hauptspeicher-Datenwort kann in einer der 2^n zu seiner Adresse gehörenden Cache-Zeilen gespeichert werden.
Die Cache-Gruppe ergibt sich aus den Bit 15-(n-1) bis 6 der Adresse.
Es sind 2^n Komparatoren erforderlich, die log2(4 GiB)-log2(64 KiB)+n bits = 16+(n-1) bits vergleichen müssen.
An jeder Cache-Zeile hängen diese 16+(n-1) Bit als Adress-Tag.
Hardware-Aufwand:
Cache Hits und Misses.
Den Vorgang, dass die Daten einer Anfrage an einen Cache in selbigem vorrätig sind, bezeichnet man als „Cache Hit“ (dt. Cachetreffer), den umgekehrten Fall als „Cache Miss“ (dt. „Cache-Verfehlen“).
Um quantitative Maßzahlen für die Bewertung der Effizienz eines Caches zu erhalten, definiert man zwei Größen:
Hit Rate
Miss Rate
Drei Arten von Cache Misses werden unterschieden:
Capacity
Conflict
Compulsory
Diese drei Typen bezeichnet man auch kurz als „Die drei C“. In Multiprozessorsystemen kann beim Einsatz eines Cache-Kohärenz-Protokolls vom Typ Write-Invalidate noch ein viertes „C“ hinzukommen, nämlich ein „Coherency Miss“: Wenn durch das Schreiben eines Prozessors in einen Cacheblock der gleiche Block im Cache eines zweiten Prozessors hinausgeworfen werden muss, so führt der Zugriff des zweiten Prozessors auf eine Adresse, die durch diesen entfernten Cacheblock abgedeckt war, zu einem Coherency Miss.
Arbeitsweise.
Bei der Verwaltung des Caches ist es sinnvoll, immer nur die Blöcke im Cache zu halten, auf die auch häufig zugegriffen wird. Zu diesem Zweck gibt es verschiedene Ersetzungsstrategien. Eine häufig verwendete Variante ist dabei die LRU-Strategie (engl. ), bei welcher immer der Block ausgetauscht wird, auf den am längsten nicht mehr zugegriffen wurde. Moderne Prozessoren (z. B. der AMD Athlon) implementieren meist eine Pseudo-LRU-Ersetzungsstrategie, die fast wie echtes LRU arbeitet, aber leichter in Hardware zu implementieren ist.
Verdrängungsstrategien.
FIFO (First In First Out)
LRU (Least Recently Used)
LFU (Least Frequently Used)
Random
CLOCK
Optimal
Schreibstrategie.
Bei einem Schreibzugriff auf einen Block, der im Cache vorhanden ist, gibt es prinzipiell zwei Möglichkeiten:
Zurückkopieren (write-back)
Durchgängiges Schreiben (write-through)
Analog zu Obigem gibt es bei einem Schreibzugriff auf einen Block, der "nicht" im Cache vorhanden ist, prinzipiell ebenso zwei Möglichkeiten:
write-allocate
non-write-allocate
Einige Befehlssätze enthalten Befehle, die es dem Programmierer ermöglichen, explizit anzugeben, ob zu schreibende Daten am Cache vorbeizuschreiben sind.
Normalerweise wird entweder die Kombination "write-back" mit "write-allocate" oder "write-through" mit "non-write-allocate" verwendet. Die erste Kombination hat den Vorteil, dass aufeinander folgende Schreibzugriffe auf denselben Block (Lokalitätsprinzip) komplett im Cache abgewickelt werden (bis auf den ersten Miss). Dies gibt im zweiten Fall keinen Vorteil, da sowieso jeder Schreibzugriff zum Hauptspeicher muss, weshalb die Kombination write-through mit write-allocate eher unüblich ist.
Cache Flush.
Ein "Cache Flush" („Pufferspeicher-Leerung“) bewirkt das komplette Zurückschreiben des Cacheinhaltes in den Hintergrundspeicher. Dabei bleibt der Cacheinhalt meist unangetastet. Ein solches Vorgehen ist nötig, um die Konsistenz zwischen Cache und Hintergrundspeicher wiederherzustellen. Notwendig ist das zum Beispiel immer dann, wenn Daten aus dem Hauptspeicher von externen Geräten benötigt werden, unter anderem bei Multiprozessor-Kommunikation oder bei der Übergabe eines als Ausgabepuffer benutzten Teils des Hauptspeichers an den DMA-Controller.
Sonstiges.
Einträge im Cache.
Für jeden Cacheblock wird im Cache folgendes gespeichert:
Heiße und kalte Caches.
Ein Cache ist „heiß“, wenn er optimal arbeitet, also gefüllt ist und nur wenige Cache Misses hat; ist das nicht der Fall, gilt der Cache als „kalt“. Nach Inbetriebnahme ist ein Cache zunächst kalt, da er noch keine Daten enthält und häufig zeitraubend Daten nachladen muss, und wärmt sich dann zunehmend auf, da die zwischengelagerten Daten immer mehr den angeforderten entsprechen und weniger Nachladen erforderlich ist. Im Idealzustand werden Datenzugriffe fast ausschließlich aus dem Cache bedient und das Nachladen kann vernachlässigt werden.
Beispiele.
Prozessor-Cache.
Bei CPUs kann der Cache direkt im Prozessor integriert oder extern auf der Hauptplatine (früher weiter verbreitet, heute eher untypisch) platziert sein. Oft gibt es mehrere Ebenen (Levels), die aufeinander aufbauen. Kleinere Level sind dabei typischerweise schneller, haben aber aus Kostengründen eine geringere Größe. Je nach Ort des Caches arbeitet dieser mit unterschiedlichen Taktfrequenzen: Der L1 (Level 1, am nächsten an der CPU) ist fast immer direkt im Prozessor (d. h. auf dem Die) integriert und arbeitet daher mit dem vollen Prozessortakt – also u. U. mehreren Gigahertz. Ein externer Cache hingegen wird oft nur mit einigen hundert Megahertz getaktet.
Aktuelle Prozessoren (z. B. AMD Ryzen, Intel-Core-i-Serie, IBM Power 9) besitzen überwiegend drei Cache-Level: L1, L2 und L3. Gängige Größen für L1-Caches sind 4 bis 320 KiB pro Prozessorkern (meist gibt es einen für Daten und einen für Befehle), der L2-Cache ist 64 KiB bis 32768 KiB (meist ebenfalls pro Kern), der L3-Cache 2 bis 768 MiB (für alle Kerne gemeinsam). Prozessorcache als Extra-Chip auf dem Mainboard wird heute nicht mehr gebaut, als Extra-Die im selben Chip-Gehäuse (siehe Multi Chip Package) nur noch selten.
In jedem Fall ist eine Protokollierung erforderlich, um die Kohärenz der Daten (z. B. zwischen Caches und Hauptspeicher) sicherzustellen. Dazu dienen Flags, die einen Speicherbereich (typischerweise eine ganze "line" von 64 Byte) als „dirty“, also geändert, markieren (s. o. bei Schreibstrategie). Das Problem verschärft sich bei mehreren Cache-Levels und mehreren Prozessoren oder Prozessorkernen.
Die Cachekonsistenz ist sowohl bei mehreren aktiven Geräten auf dem Datenbus, als auch bei mehreren zusammengeschalteten Prozessoren (Multiprozessorsysteme) zu beachten.
Bei Mehrprozessorsystemen unterscheidet man u. a. zwischen SIMD- und MIMD-Strukturen (Single/Multiple Instruction – Multiple Data). Bei MIMD-Systemen ist die Wahrscheinlichkeit hoch, dass verschiedene Prozessoren auf verschiedene Speicherbereiche zugreifen, bei SIMD dagegen kleiner. Danach lässt sich die Cache-Konfiguration einstellen.
Moderne Prozessoren haben getrennte L1-Caches für Programme und Daten (Lese- und Schreibcache), teilweise ist das auch noch beim L2 der Fall (Montecito). Man spricht hier von einer Harvard-Cachearchitektur. Das hat den Vorteil, dass man für die unterschiedlichen Zugriffsmuster für das Laden von Programmcode und Daten unterschiedliche Cachedesigns verwenden kann. Außerdem kann man bei getrennten Caches diese räumlich besser zu den jeweiligen Einheiten auf dem Prozessor-Die platzieren und damit die kritischen Pfade beim Prozessorlayout verkürzen. Des Weiteren können Instruktionen und Daten gleichzeitig gelesen/geschrieben werden, wodurch der Von-Neumann-Flaschenhals weiter verringert werden kann. Ein Nachteil ist, dass selbstmodifizierender Code gesondert behandelt werden muss, was seine Ausführung stark verlangsamt. Allerdings wird diese Technik aus Sicherheitsgründen und weil sie oft schwer verständlich, schwer prüfbar und daher nur schlecht zu warten ist, heute ohnehin nur noch sehr selten verwendet.
Laufwerks-Cache.
Bei Festplatten befindet sich der Cache auf der Steuerplatine (siehe Festplattencache) oder einer separaten Platine, dem Festplattenkontroller.
Die Größe beträgt bei aktuellen Festplatten – je nach vom Hersteller vorgesehenen Einsatzzweck der Festplatte – zwischen 8 und 64 MiB (Stand 2012).
Die meisten optischen Laufwerke besitzen Caches, um die oft im dreistelligen Millisekundenbereich liegenden Zugriffszeiten und Schwankungen im Datenstrom (z. B. durch Synchronisierungsprobleme) aufzufangen.
Software-Caches.
Caches können auch bei Software genutzt werden, dabei ist dasselbe Prinzip wie bei der Hardwareimplementierung gemeint: Daten werden für einen schnelleren Zugriff auf ein schnelleres Medium zwischengespeichert.
Beispiele:
Festplattencache (vom Betriebssystem verwaltet)
Anwendungsdaten ("Memoisation")
Browser-Cache
Webserver
Software-Caches, welche die Festplatte als schnelleres Medium verwenden, werden meist in Form von temporären Dateien angelegt.
Man spricht auch von Caching, wenn ein Betriebssystem gewisse Ressourcen – wie z. B. Funktionsbibliotheken oder Schriftarten – vorerst im Arbeitsspeicher belässt, obwohl sie nach Ende ihrer Benutzung nicht mehr gebraucht werden. Solange kein Speichermangel herrscht, können sie im Arbeitsspeicher verbleiben, um dann ohne Nachladen von der Festplatte sofort zur Verfügung zu stehen, wenn sie wieder gebraucht werden. Wenn allerdings die Speicherverwaltung des Betriebssystems einen Speichermangel feststellt, werden diese Ressourcen als erste gelöscht.
Suchmaschinen-Cache.
Der Suchmaschinen-Cache ist der Lesecache einer Suchmaschine. Eine Suchmaschine besitzt drei Kernkomponenten:
Die Inhalte aller Webseiten, die die Suchmaschine als Basisdaten für Benutzeranfragen berücksichtigt, werden im Suchmaschinen-Cache zwischengespeichert. Die Server einer Suchmaschine können nicht für jede Abfrage jede Webseite in Echtzeit auf die aktuellsten Inhalte durchsuchen; stattdessen wird in einem Index über dem Cache gesucht.
Im Allgemeinen kann ein Webseiten-Betreiber Änderungen seiner Webseiten an die Suchmaschine melden, dann fragt der Webcrawler die Seite baldmöglichst erneut ab; ansonsten prüft der Webcrawler jede Webseite in regelmäßigen Abständen – die Cache-Inhalte können also veraltet sein. Eine Webseite kann dem Crawler einen Hinweis geben, wie häufig sie sich im Allgemeinen ändert. Suchmaschinen gehen mit dieser Information mitunter verschieden um.
Die in Deutschland verbreitetste Suchmaschine ist Google; deren Cache-, Indizier- und Suchstrategien wird daher besonders hohes Interesse zuteil. Die Webcrawler-Frequenz, mit der Webseiten geprüft werden, liegt bei Google bei den meisten Webseiten zwischen einer und vier Wochen („[…] "Inhalt wird in der Regel alle 7 Tage aktualisiert"“). Gemeldete Webseiten untersucht der sogenannte Googlebot. |
784 | 154724 | https://de.wikipedia.org/wiki?curid=784 | Hauptprozessor | |
785 | 2234691 | https://de.wikipedia.org/wiki?curid=785 | Chemie | Chemie (bundesdeutsches Hochdeutsch: []; süddeutsch, Schweizerdeutsch, österreichisches Hochdeutsch: []) ist diejenige Naturwissenschaft, die sich mit dem Aufbau, den Eigenschaften und der Umwandlung von chemischen Stoffen (Substanzen) beschäftigt. Ein Stoff besteht aus Atomen, Molekülen oder beidem. Er kann außerdem Ionen enthalten. Die chemischen Reaktionen sind Vorgänge in den Elektronenhüllen der Atome, Moleküle und Ionen.
Zentrale Begriffe der Chemie sind chemische Reaktionen und chemische Bindungen. Durch chemische Reaktionen werden chemische Bindungen gebildet oder gespalten. Dabei verändert sich die Elektronenaufenthaltswahrscheinlichkeit in den Elektronenhüllen der beteiligten Stoffe und damit deren Eigenschaften. Die Herstellung von Stoffen ("Synthese") mit von der Menschheit benötigten Eigenschaften ist heute das zentrale Anliegen der Chemie.
Traditionell wird die Chemie in Teilgebiete unterteilt. Die wichtigsten davon sind die organische Chemie, die kohlenstoffhaltige Verbindungen untersucht, die anorganische Chemie, die alle Elemente des Periodensystems und deren Verbindungen behandelt, sowie die physikalische Chemie, die sich mit den grundlegenden Phänomenen, die der Chemie zu Grunde liegen, beschäftigt.
Die Chemie in ihrer heutigen Form als exakte Naturwissenschaft entstand im 17. und 18. Jahrhundert allmählich aus der Anwendung rationalen Schlussfolgerns, basierend auf Beobachtungen und Experimenten der Alchemie. Einige der ersten bedeutenden Chemiker waren Robert Boyle, Humphry Davy, Jöns Jakob Berzelius, Joseph Louis Gay-Lussac, Joseph Louis Proust, Marie und Antoine Lavoisier und im 19. Jahrhundert Justus von Liebig.
Die chemische Industrie zählt zu den wichtigsten Industriezweigen. Sie stellt Stoffe her, die zur Herstellung von Alltagsgegenständen (z. B. Grundchemikalien, Kunststoffe, Lacke), Lebensmitteln (auch als Hilfsmittel dazu wie Düngemittel und Pestizide) oder zur Verbesserung der Gesundheit (z. B. Pharmazeutika) benötigt werden.
Wortherkunft.
Die Bezeichnung "Chemie" entstand aus dem von χέω, „gießen“, abgeleiteten altgriechischen bzw. „[Kunst der Metall-]Gießerei“ im Sinne von „Umwandlung“. Die heutige Schreibweise "Chemie" wurde vermutlich erstmals von Johann Joachim Lange im Jahre 1750–1753 eingeführt und ersetzte zu Beginn des 19. Jahrhunderts das seit dem 17. Jahrhundert bestehende Wort "Chymie", das wahrscheinlich eine Vereinfachung und Umdeutung des seit dem 13. Jahrhundert belegten Ausdrucks "Alchemie" „Kunst des Goldherstellens“ war, welches wiederum selbst eine mehrdeutige Etymologie aufweist (zu den Konnotationen vergleiche die Etymologie des Wortes "Alchemie": Das Wort wurzelt wohl in arabisch , welches unter anderem „Stein der Weisen“ bedeuten kann, eventuell aus altgriechisch „Gießung“ oder aus koptisch/altägyptisch „schwarz[e Erden]“, vergleiche hierzu auch Kemet).
Bis zum Anfang des 19. Jahrhunderts galten die Begriffe „Scheidekunde“ und „Scheidekunst“ als Alternativen für das Wort Chemie.
Geschichte.
Die Chemie in der Antike bestand im angesammelten praktischen Wissen über Stoffumwandlungsprozesse und den naturphilosophischen Anschauungen der Antike. Die Chemie im Mittelalter entwickelte sich aus der Alchemie, die in China, Europa und Indien schon seit Jahrtausenden praktiziert wurde.
Die Alchemisten beschäftigten sich sowohl mit der erhofften Veredlung der Metalle (Herstellung von Gold aus unedlen Metallen, siehe auch Transmutation) als auch mit der Suche nach Arzneimitteln. Insbesondere für die Herstellung von Gold suchten die Alchemisten nach einem Elixier (Philosophen-Stein, Stein der Weisen), das die unedlen („kranken“) Metalle in edle („gesunde“) Metalle umwandeln sollte. Im medizinischen Zweig der Alchemie wurde ebenfalls nach einem Elixier gesucht, dem Lebenselixier, einem Heilmittel für alle Krankheiten, das schließlich auch Unsterblichkeit verleihen sollte. Kein Alchemist hat allerdings je den Stein der Weisen oder das Lebenselixier entdeckt.
Bis zum Ende des 16. Jahrhunderts basierte die Vorstellungswelt der Alchemisten in der Regel nicht auf wissenschaftlichen Untersuchungen, sondern auf Erfahrungstatsachen und empirischen Rezepten. Alchemisten führten eine große Auswahl Experimente mit vielen Substanzen durch, um ihre Ziele zu erreichen. Sie notierten ihre Entdeckungen und verwendeten für ihre Aufzeichnungen die gleichen Symbole, wie sie auch in der Astrologie üblich waren. Die mysteriöse Art ihrer Tätigkeit und die dabei oftmals entstehenden farbigen Flammen, Rauch oder Explosionen führten dazu, dass sie als Magier und Hexer bekannt und teilweise verfolgt wurden. Für ihre Experimente entwickelten die Alchemisten manche Apparaturen, die auch heute noch in der chemischen Verfahrenstechnik verwendet werden.
Ein bekannter Alchemist war Albertus Magnus. Er befasste sich als Kleriker mit diesem Themenkomplex und fand bei seinen Experimenten ein neues chemisches Element, das Arsen. Erst mit den Arbeiten von Paracelsus und Robert Boyle ("The Sceptical Chymist", 1661) wandelte sich die Alchemie von einer rein aristotelisch geprägten zu einer mehr empirischen und experimentellen Wissenschaft, die zur Basis der modernen Chemie wurde.
Die Chemie in der Neuzeit erhielt als Wissenschaft entscheidende Impulse im 18. und 19. Jahrhundert: Sie wurde auf die Basis von Messvorgängen und Experimenten gestellt, v. a. durch Gebrauch der Waage, sowie auf die Beweisbarkeit von Hypothesen und Theorien über Stoffe und Stoffumwandlungen.
Die Arbeiten von Justus von Liebig über die Wirkungsweise von Dünger begründeten die Agrarchemie und lieferten wichtige Erkenntnisse über die anorganische Chemie. Die Suche nach einem synthetischen Ersatz für den Farbstoff Indigo zum Färben von Textilien waren der Auslöser für die bahnbrechenden Entwicklungen der organischen Chemie und der Pharmazie. In beiden Gebieten hatte Deutschland bis zum Beginn des 20. Jahrhunderts eine absolute Vorrangstellung. Dieser Wissensvorsprung ermöglichte es beispielsweise, den zur Führung des Ersten Weltkrieges notwendigen Sprengstoff statt aus importierten Nitraten mithilfe der Katalyse aus dem Stickstoff der Luft zu gewinnen (siehe Haber-Bosch-Verfahren).
Die Autarkiebestrebungen der Nationalsozialisten gaben der Chemie als Wissenschaft weitere Impulse. Um von den Importen von Erdöl unabhängig zu werden, wurden Verfahren zur Verflüssigung von Steinkohle weiterentwickelt (Fischer-Tropsch-Synthese). Ein weiteres Beispiel war die Entwicklung von synthetischem Kautschuk für die Herstellung von Fahrzeugreifen.
In der heutigen Zeit ist die Chemie ein wichtiger Bestandteil der Lebenskultur geworden. Chemische Produkte umgeben uns überall, ohne dass wir uns dessen bewusst sind. Allerdings haben Unfälle der chemischen Großindustrie wie beispielsweise die von Seveso und Bhopal der Chemie ein sehr negatives Image verschafft, so dass Slogans wie „Weg von der Chemie!“ sehr populär werden konnten.
Die Forschung entwickelte sich um die Wende zum 20. Jahrhundert so weit, dass vertiefende Studien des Atombaus nicht mehr zum Bereich der Chemie gehörten, sondern zur Atomphysik bzw. Kernphysik. Diese Forschungen lieferten dennoch wichtige Erkenntnisse über das Wesen der chemischen Stoffwandlung und der chemischen Bindung. Weitere wichtige Impulse gingen dabei auch von Entdeckungen in der Quantenphysik aus (Elektronen-Orbitalmodell).
Allgemeines.
Die Chemie befasst sich mit den Eigenschaften der Elemente und Verbindungen, mit den möglichen Umwandlungen eines Stoffes in einen anderen, macht Vorhersagen über die Eigenschaften für bislang unbekannte Verbindungen, liefert Methoden zur Synthese neuer Verbindungen und Messmethoden, um die chemische Zusammensetzung unbekannter Proben zu entschlüsseln.
Obwohl alle Stoffe aus vergleichsweise wenigen „Bausteinsorten“, nämlich aus etwa 80 bis 100 der 118 bekannten Elemente aufgebaut sind, führen die unterschiedlichen Kombinationen und Anordnungen der Elemente zu einigen Millionen sehr unterschiedlichen Verbindungen, die wiederum so unterschiedliche Materieformen wie Wasser, Sand, Pflanzen- und Tiergewebe oder Kunststoff aufbauen. Die Art der Zusammensetzung bestimmt schließlich die chemischen und physikalischen Eigenschaften der Stoffe und macht damit die Chemie zu einer umfangreichen Wissenschaft. Neben den Schulkenntnissen können besonders Interessierte und Studenten der Chemie ihre Kenntnisse durch die chemische Literatur vertiefen.
Fortschritte in den verschiedenen Teilgebieten der Chemie sind oftmals die unabdingbare Voraussetzung für neue Erkenntnisse in anderen Disziplinen, besonders in den Bereichen Biologie und Medizin, aber auch im Bereich der Physik und der Ingenieurwissenschaften. Außerdem erlauben sie es häufig, die Produktionskosten für viele Industrieprodukte zu senken. Beispielsweise führen verbesserte Katalysatoren zu schnelleren Reaktionen und dadurch zur Einsparung von Zeit und Energie in der Industrie. Neu entdeckte Reaktionen oder Substanzen können alte ersetzen und somit ebenfalls von Interesse in der Wissenschaft und Industrie sein.
Wirtschaftliche Bedeutung der Chemie.
Die chemische Industrie ist – gerade auch in Deutschland – ein sehr bedeutender Wirtschaftszweig: In Deutschland lag der Umsatz der 20 umsatzstärksten deutschen Chemieunternehmen 2017 bei über 250 Milliarden Euro, die Zahl der Beschäftigten lag nach der Wiedervereinigung Deutschlands bei über 700.000 und ist Stand 2017 auf über 900.000 angewachsen. Sie stellt einerseits Grundchemikalien wie beispielsweise Schwefelsäure oder Ammoniak her, oft in Mengen von Millionen von Tonnen jährlich, die sie dann zum Beispiel zur Produktion von Düngemitteln und Kunststoffen verwendet. Andererseits produziert die chemische Industrie viele komplexe Stoffe, unter anderem pharmazeutische Wirkstoffe (Arzneistoffe) und Pflanzenschutzmittel (Pestizide), maßgeschneidert für spezielle Anwendungen. Auch die Herstellung von Computern, Kraft- und Schmierstoffen für die Automobilindustrie und vielen anderen technischen Produkten ist ohne industriell hergestellte Chemikalien unmöglich.
Ausbildung.
Schulunterricht.
Es ist Aufgabe des Chemieunterrichts, einen Einblick in stoffliche Zusammensetzung, Stoffgruppen und stoffliche Vorgänge der Natur zu geben. Stoffumwandlungen in der belebten und unbelebten Natur beruhen ebenfalls auf chemischen Reaktionen und sollten als solche erkannt werden können. Ebenso sollte aus der Vermittlung naturwissenschaftlicher Erkenntnisse Verständnis für die moderne Technik und eine positive Einstellung dazu aufgebaut werden, da gerade die Chemie durch Einführung neuer Produkte einen wesentlichen Beitrag zur Verbesserung der Lebensbedingungen des Menschen geleistet hat. Nicht zuletzt dient der Chemieunterricht auch dazu, die Schüler zu mündigen Verbrauchern zu erziehen. Er wird aus diesem Grund nach Lehrplänen (Curricula) und pädagogischen Konzepten gestaltet (Chemiedidaktik).
Beruf.
Es ist möglich als Chemielaborant in Betrieb und Berufsschule im so genannten Dualen System ausgebildet zu werden. Ein weiterer Ausbildungsberuf für die Arbeit im Chemielabor ist der Chemisch Technische Assistent (CTA). Der Chemikant (auch Chemie- und Pharmatechnologe oder früher Chemiefacharbeiter) ist ein Ausbildungsberuf für Mitarbeiter in der chemischen Industrie.
Viele Universitäten bieten einen Studiengang Chemie an. Ein Großteil der Chemiker schließt im Anschluss an das Studium eine Promotion an.
Ansehen.
Die öffentliche Wahrnehmung der Chemie hat sich im Laufe der Zeit gewandelt. Herrschte in den Industriestaaten des 19. Jahrhunderts noch Begeisterung für die technologischen Möglichkeiten, die die moderne Chemie eröffnete, trübte sich dieses Bild unter dem Eindruck des Ersten Weltkriegs mit seinem umfangreichen Einsatz an Explosivstoffen und chemischen Waffen. Im weiteren Verlauf des 20. Jahrhunderts fügten der Contergan-Skandal, die Katastrophe von Bhopal und Umweltprobleme dem öffentlichen Bild von der Chemie weiteren Schaden zu. Teilweise ging die chemische Industrie mit Schmutzkampagnen gegen kritische Wissenschaftler vor, etwa gegen Rachel Carson nach Veröffentlichung ihres Buches "Silent Spring" 1962 oder gegen Frank Sherwood Rowland und Mario J. Molina nach Veröffentlichung ihrer Studie zum Ozonloch 1974.
Die Chemie hat in der deutschen Öffentlichkeit ein relativ schlechtes Ansehen. Die auf Laien abgehoben wirkende, teils unverständliche Formelsprache für chemische Verbindungen sowie Reaktionsgleichungen und die Berichterstattung mit Fokus auf Chemiekatastrophen und Umweltskandalen hat womöglich zu einer negativen Konnotation geführt. Insbesondere in Europa ist heute unter anderem aufgrund der strikten Gesetzgebung (Chemikaliengesetz, Gefahrstoffverordnung) eine weitgehend sichere Handhabung von Chemikalien gewährleistet. Um das Ansehen der Chemie zu verbessern, wurde das Jahr 2003 von verschiedenen Trägerorganisationen zum „Jahr der Chemie“ erklärt. 2011 wurde von der UN (in Zusammenarbeit mit der UNESCO und der IUPAC) zum „Internationalen Jahr der Chemie“ erklärt.
Irrationale Ablehnung von Chemie wird in jüngerer Vergangenheit unter dem Schlagwort Chemophobie diskutiert. Diese richtet sich allerdings in erster Linie gegen chemische Stoffe, weniger gegen die Chemie als Wissenschaft oder die forschenden Chemiker selbst. Für das Vereinigte Königreich war eine Untersuchung der Royal Society of Chemistry 2015 zu dem überraschenden Ergebnis gekommen, dass die Chemie in der Öffentlichkeit einen weitaus weniger schlechten Ruf genießt, als dies von Chemikern selbst gemeinhin angenommen wird. Wesentlich hierfür ist eine assoziative Trennung zwischen Chemikern und der Chemie einerseits und chemischen Stoffen andererseits. Schädliche Auswirkungen der chemischen Industrie werden nicht den Chemikern zugeschrieben, sondern den Entscheidungsträgern in den Unternehmen. Während den Forschern eher noble Motive zugestanden und sie nur wenig mit den Endprodukten ihrer Arbeit in Verbindung gebracht werden, wird die Profitorientierung der Unternehmen, die potentiell schädlichen Entscheidungen zugrunde liegt, kritisch gesehen. Der Chemie als Wissenschaft standen die meisten Befragten neutral bis positiv, wenn auch distanziert gegenüber. 59 % gingen davon aus, dass der Nutzen der Chemie größer ist als mögliche schädliche Effekte, und 72 % erkannten die Bedeutung chemischer Forschung und Entwicklung zum Wirtschaftswachstum an.
Fachrichtungen.
Traditionell wird die Chemie in die "organische" und "anorganische" Chemie unterteilt, etwa um 1890 kam die "physikalische" Chemie hinzu.
Seit der Harnstoffsynthese 1828 von Friedrich Wöhler, bei der die organische Substanz Harnstoff aus der anorganischen Verbindung Ammoniumcyanat hergestellt wurde, verwischen sich die Grenzen zwischen Stoffen aus der unbelebten (den „anorganischen“ Stoffen) und der belebten Natur (den organischen Stoffen). So stellen Lebewesen auch eine Vielzahl anorganischer Stoffe her, während im Labor fast alle organischen Stoffe hergestellt werden können.
Die traditionelle, aber auch willkürliche Unterscheidung zwischen anorganischer und organischer Chemie wurde aber dennoch beibehalten. Ein Grund besteht darin, dass die organische Chemie stark vom Molekül bestimmt wird, die anorganische Chemie jedoch oft von Ionen, Kristallen, Komplexverbindungen und Kolloiden. Ein weiterer ist, dass sich die Reaktionsmechanismen und Stoffstrukturen in der Anorganik und Organik vielfach unterscheiden.
Eine weitere Möglichkeit ist es, die Chemie nach der Zielrichtung in die untersuchende, 'zerlegende' Analytische Chemie und in die aufbauende, produktorientierte Präparative- oder Synthetische Chemie aufzuspalten. In der Lehrpraxis der Universitäten ist die Analytische Chemie oft als Unterrichtsfach vertreten, während die Präparative Chemie im Rahmen der organischen oder anorganischen Chemie behandelt wird.
Es gibt noch weitere Fachgebiete (etwa die Forensische Chemie als Teilgebiet der angewandten Chemie).
Allgemeine Chemie.
Unter Allgemeiner Chemie werden die Grundlagen der Chemie verstanden, die in fast allen chemischen Teilgebieten von Bedeutung sind. Sie stellt somit das begriffliche Fundament der gesamten Chemie dar: den Aufbau des Atoms, das Periodensystem der Elemente (PSE), die Chemische Bindung, die Grundlagen der Stöchiometrie, Säuren, Basen und Salze und chemische Reaktionen.
Im Gegensatz zu anderen naturwissenschaftlichen Disziplinen gibt es in der Chemie den Terminus Technicus „Allgemeine Chemie“ (eine „Allgemeine Physik“ gibt es nicht). Insofern steht die Allgemeine Chemie am Anfang jeder näheren Beschäftigung mit der Chemie.
Anorganische Chemie.
Diese auch Anorganik genannte Richtung umfasst, einfach ausgedrückt, die Chemie aller Elemente und Verbindungen, die nicht ausschließlich Kohlenstoffketten enthalten, denn diese sind Gegenstände der organischen Chemie. Die anorganische Chemie beschäftigt sich beispielsweise mit den Mineralsäuren, Metallen, und anderen kohlenstofffreien Verbindungen, aber auch mit Kohlendioxid, den Säuren Cyanwasserstoff (Blausäure) und Kohlensäure sowie mit deren Salzen. Verbindungen, die sich nicht genau einteilen lassen fallen in den Bereich der Organometallchemie. Die Bioanorganische Chemie überschneidet sich hingegen thematisch mehr mit der Biochemie.
In der klassischen Anorganik geht es um kleine Moleküle oder überhaupt um Salze bzw. Metalle, daher reicht eine Summenformel meist aus. In der Komplexchemie, wo es dennoch Isomere gibt, werden verständlicherweise wie in der organischen Chemie systematische Namen und Strukturformeln benötigt. Oft orientieren sich diese dabei sogar an denen von ähnlich aufgebauten Substanzen in der organischen Chemie (siehe beispielsweise Silane). Die moderne anorganische Chemie befasst sich damit der Strukturbildung (Strukturchemie) von Molekülen und Festkörpern (Festkörperchemie), um zum Beispiel neue Werkstoffe mit speziellen physikalischen und chemischen zu erschaffen oder dem komplexen Verhalten von Teilchen in Lösungen (Kolloidchemie).
"Historische Definition:" Die Anorganische Chemie befasst sich mit den chemischen Elementen und Reaktionen der Stoffe, die nicht von organischem Leben (mithilfe der hypothetischen Lebenskraft) erzeugt werden.
Organische Chemie.
Die organische Chemie (auch Organik) ist die Chemie des Elementes Kohlenstoff und nur wenigen anderen Elementen, besitzt dennoch die größte Vielfalt an chemischen Verbindungen. Durch die Vielzahl an Strukturelementen enthält schon alleine die Chemie der Kohlenwasserstoffe eine gewaltige Zahl an unterschiedlichen Substanzen, die sich nur in unterschiedlichen Bindungsarten, Anordnungen (Isomerie) oder überhaupt nur an der Struktur (Stereochemie) unterscheiden. Hinzu kommt noch, dass häufig auch Fremdatome im Kohlenwasserstoffgerüst eingebaut sind. Um diese Unzahl an Verbindungen einwandfrei zu identifizieren, genügen keine Summenformeln mehr. Aus diesem Grund gibt es die IUPAC-Nomenklatur, die jeder Substanz (auch jeder anorganischen) einen eindeutigen, systematischen Namen zuweisen, obwohl gerade bei organischen Stoffen oft Trivialnamen (gewohnte Bezeichnungen; z. B.: Essigsäure) vorhanden sind. Die organische Chemie teilt daher ihre Verbindungen in funktionelle Gruppen mit ähnlichen chemischen Eigenschaften ein und wird anhand von vergleichbaren Reaktionsmechanismen gelehrt.
"Historische Definition": Früher wurde gedacht, dass organische Substanzen, wie schon das Wort „organisch“ sagt, nur von Lebewesen hergestellt werden können. Dies wurde einer so genannten „vis vitalis“, also einer „Lebenskraft“ zugeschrieben, die in diesen Substanzen verborgen sei. Diese Theorie war lange Zeit unangefochten, bis es Friedrich Wöhler 1828 gelang, erstmals eine anorganische Substanz im Labor in eine organische umzuwandeln. Wöhlers berühmte Harnstoffsynthese aus Ammoniumcyanat durch Erhitzen auf 60 °C.
Die Strukturaufklärung und Synthese von natürlichen Stoffen ist Bestandteil der Naturstoffchemie. Heutzutage ist der Erdölverarbeitende Sektor (Petrochemie) wirtschaftlich von Bedeutung, da er Ausgangsstoffe für zahlreiche großtechnische Synthese liefert.
Physikalische Chemie.
Bei der physikalischen Chemie handelt es sich um den Grenzbereich zwischen Physik und Chemie. Während in der präparativen Chemie (Organik, Anorganik) die Fragestellung zum Beispiel ist: „Wie kann ich einen Stoff erzeugen?“, beantwortet die physikalische Chemie stärker quantitative Fragen, zum Beispiel „Unter welchen Bedingungen findet eine Reaktion statt?“ (Thermodynamik), „Wie schnell ist die Reaktion?“ (Kinetik). Sie liefert auch die Grundlage für analytische Verfahren (Spektroskopie) oder technische Anwendungen (Elektrochemie, Magnetochemie und Nanochemie). In Überschneidung mit der Meteorologie auch Atmosphärenchemie.
Die an Bedeutung gewinnende theoretische Chemie, Quantenchemie oder Molekularphysik versucht, Eigenschaften von Stoffen, chemischer Reaktionen und Reaktionsmechanismen anhand von physikalischen Modellen, wie zum Beispiel der Quantenmechanik oder Quantenelektrodynamik und numerischen Berechnungen zu ergründen.
Die Physikalische Chemie wurde um 1890 vor allem von Svante Arrhenius, Jacobus Henricus van ’t Hoff und Wilhelm Ostwald begründet. Letzterer war auch erster Herausgeber der 1887 gemeinsam mit van ’t Hoff gegründeten Zeitschrift für physikalische Chemie und hatte in Leipzig den ersten deutschen Lehrstuhl für Physikalische Chemie inne.
Das erste eigenständige Institut für Physikalische Chemie wurde 1895 von Walther Nernst, der sich bei Ostwald habilitiert hatte, in Göttingen gegründet. Weitere spezifisch der Physikalischen Chemie gewidmete Institute folgten dann in rascher Folge in Leipzig (1897), Dresden (1900), Karlsruhe (1903), Breslau, Berlin (1905) und andernorts.
Chemiker und Physiker, die vorwiegend im Bereich der Physikalischen Chemie tätig sind, werden auch als Physikochemiker bezeichnet.
Biochemie.
Die Biochemie ist die Grenzdisziplin zur Biologie und befasst sich mit der Aufklärung von Stoffwechsel-Vorgängen, Vererbungslehre auf molekularer Ebene (Genetik) und der Strukturaufklärung und der Synthese (Molekulardesign) von großen Biomolekülen. Die Anwendung der Biochemie im technischen Bereich wird als Biotechnologie bezeichnet. Sie überschneidet sich mit den angrenzenden Disziplinen Pharmazeutische Chemie und Medizinische Chemie.
Theoretische Chemie.
Theoretische Chemie ist die Anwendung nichtexperimenteller (üblicherweise mathematischer oder computersimulationstechnischer) Methoden zur Erklärung oder Vorhersage chemischer Phänomene. Die Theoretische Chemie kann grob in zwei Richtungen unterteilt werden: Einige Methoden basieren auf Quantenmechanik (Quantenchemie), andere auf der statistischen Thermodynamik (Statistische Mechanik). Wichtige Beiträge zur theoretischen Chemie bzw. physikalischen Chemie leisteten Linus Carl Pauling, John Anthony Pople, Walter Kohn und John C. Slater.
Präparative Chemie.
Dieses Teilgebiet der Chemie ist gewissermaßen das Gegenteil der analytischen Chemie und befasst sich mit Synthesen von chemischen Verbindungen. Die anderen Teilbereiche sind im Wesentlichen präparativ ausgerichtet, da es eine Hauptaufgabe der Chemie ist, Verbindungen entweder im kleinen Maßstab oder in großen Mengen, wie im Rahmen der technischen Chemie, zu synthetisieren. Insofern ist die präparative Chemie ein wesentlicher Bestandteil der Chemikerausbildung. Sie spielt ebenfalls eine bedeutende Rolle in sich mit der Chemie überschneidenden Gebieten, wie der pharmazeutischen Chemie bzw. pharmazeutischen Technologie.
Analytische Chemie.
Die Analytische Chemie beschäftigt sich mit der qualitativen Analyse ("welche" Stoffe sind enthalten?) und der quantitativen Analyse ("wie viel" von der Substanz ist enthalten?) von Stoffen. Während die klassische analytische Chemie noch stark auf aufwendige Trennungsgänge, um verschiedene Substanzen zu isolieren und Nachweisreaktionen im Reagenzglas aufbaute, so werden heutzutage diese Fragestellungen in der instrumentellen Analytik mit hohem apparativen Aufwand bearbeitet.
Auch hier wird in Anorganische analytische Chemie und Organische analytische Chemie unterteilt. Hier haben sich zahlreiche Spezialgebiete herausgestellt, beispielsweise die klinische Chemie in Überschneidung mit der Medizin (vergleiche Labormedizin) und Toxikologie (als toxikologische Chemie)) oder die Lebensmittelchemie. Für manche Verfahren in der Mikrochemie und Spurenanalytik werden nur noch kleinste Substanzmengen benötigt.
Technische Chemie.
Die Technische Chemie beschäftigt sich mit der Umsetzung von chemischen Reaktionen im Labormaßstab auf großmaßstäbliche Industrieproduktion. Chemische Reaktionen aus dem Labor lassen sich nicht ohne weiteres auf die großindustrielle Produktion übertragen. Die technische Chemie beschäftigt sich daher mit der Frage, wie aus einigen Gramm Produkt im Labor viele Tonnen desselben Produktes in einer Fabrik entstehen.
Etwas abstrakter ausgedrückt: Die technische Chemie sucht nach den optimalen Bedingungen für die Durchführung technisch relevanter Reaktionen; dies geschieht empirisch oder mehr und mehr durch eine mathematische Optimierung auf der Grundlage einer modellhaften Beschreibung des Reaktionsablaufs und des Reaktors.
Nahezu jede Produktion in der chemischen Industrie lässt sich in diese drei Schritte gliedern. Zunächst müssen dabei die Edukte vorbereitet werden. Sie werden eventuell erhitzt, zerkleinert oder komprimiert. Im zweiten Schritt findet die eigentliche Reaktion statt. Im letzten Schritt wird schließlich das Reaktionsgemisch aufbereitet. Mit der Vorbereitung und der Aufbereitung beschäftigt sich die chemische Verfahrenstechnik. Mit der Reaktion im technischen Maßstab beschäftigt sich die Chemische Reaktionstechnik.
Kosmochemie.
Die Kosmochemie befasst sich mit chemischen Vorgängen im Weltraum. Ihr Gegenstand sind chemische Substanzen und Reaktionen, die im interstellaren Raum, auf interstellaren Staubkörnern und auf Himmelskörpern wie z. B. Planeten, Kometen, Planetoiden und Monden ablaufen können. |
787 | 219863 | https://de.wikipedia.org/wiki?curid=787 | Catherine Deneuve | Catherine Deneuve [] (* 22. Oktober 1943 in Paris als "Catherine Fabienne Dorléac") ist eine französische Filmschauspielerin. Sie erhielt für ihre Darstellung geheimnisvoller kühl erscheinender Schönheiten in Filmen von bedeutenden Regisseuren wie Roman Polański, Luis Buñuel und François Truffaut eine Vielzahl von Auszeichnungen. Seit ihrem Debüt 1957 war sie in mehr als 140 Filmen hauptsächlich im Kino zu sehen.
Leben und Werk.
Familie.
Catherine Deneuve stammt aus einer Schauspielerfamilie. Ihre Mutter Renée Deneuve (1911–2021) war Theaterschauspielerin; ihr Vater Maurice Dorléac (1901–1979) war Filmschauspieler sowie Leiter der Synchronstudios von Paramount. Ihre ältere Schwester, die Schauspielerin Françoise Dorléac, die Catherine ins Filmgeschäft brachte, verunglückte 1967 bei einem Autounfall tödlich. Deneuve brauchte nach eigenen Aussagen lange, um den Tod ihrer geliebten Schwester zu verarbeiten. Weitere Schwestern sind Sylvie Dorléac und Dabielle, eine Halbschwester, deren Vater Aimé Clariond war. Catherine ist das dritte der vier Geschwister. Ihre natürliche Haarfarbe ist brünett, doch ist sie seit den 1960er Jahren als Blondine bekannt.
Mit dem Schauspieler und Regisseur Roger Vadim bekam sie 1963 einen Sohn, Christian Vadim, der in einigen Kinofilmen auftrat, doch vor allem als Fernsehdarsteller tätig ist. Marcello Mastroianni ist der Vater von Deneuves 1972 geborener Tochter Chiara Mastroianni, die ebenfalls Schauspielerin ist. Von 1965 bis 1972 war Deneuve mit dem britischen Modefotografen David Bailey verheiratet. Heute sagt sie über die Ehe: „Wozu heiraten, wenn es die Möglichkeit der Scheidung gibt?“ Deneuve hält sich mit Auskünften über ihr Privatleben zurück, doch sagt sie von ihrer Kindheit, dass sie „sehr behütet aufgewachsen“ sei.
Filmkarriere.
Anfänge.
Deneuve, die keinen Schauspielunterricht nahm, arbeitete schon früh im Filmgeschäft. Ihre erste Rolle hatte sie 1957 als 13-Jährige, damals noch unter ihrem eigentlichen Namen, Catherine Dorléac, in "Les Collégiennes". Ihre Schwester Françoise hatte sie gebeten, in den Sommerferien darin mitzuspielen. 1960 spielte sie erneut mit Françoise Dorléac in "Die kleinen Sünderinnen".
Durchbruch.
Ihren Durchbruch erlangte Deneuve im Alter von 21 Jahren in dem Filmmusical "Die Regenschirme von Cherbourg" (1964) unter der Regie von Jacques Demy. Diesen Film bezeichnete der Regisseur Benoît Jacquot hinsichtlich ihres Typs und ihres Erscheinungsbildes als prägend – Demys Film sei „das Herz ihrer Kunst“. Ihr nächster Erfolg war Roman Polańskis Film "Ekel", in dem sie eine junge Frau spielt, die im Wahn zur Mörderin wird. 1967 übernahm sie abermals in einem Film von Demy die Hauptrolle, "Die Mädchen von Rochefort" – an der Seite ihrer Schwester Françoise und der damals 50-Jährigen Danielle Darrieux, die die Mutter der beiden spielte und auch 20 Jahre später als Deneuves Mutter in "Schauplatz des Verbrechens" und 35 Jahre später erneut als ihre Mutter in "8 Frauen" zu sehen war. In "Belle de Jour – Schöne des Tages" verkörperte Catherine Deneuve 1967 unter der Regie von Luis Buñuel eine bürgerliche Frau, die nachmittags als Prostituierte arbeitet. Der Film wurde ein internationaler Erfolg und gilt als eines von Buñuels bekanntesten Werken.
1969 spielte Deneuve an der Seite von Jean-Paul Belmondo in "Das Geheimnis der falschen Braut" eine Heiratsschwindlerin. Regie in dem international erfolgreichen Film führte François Truffaut. "Die letzte Metro" war 1980 der nächste international erfolgreiche Truffaut-Film, in dem Deneuve eine Theaterchefin im Paris der deutschen Besatzungszeit darstellte, die ihren jüdischen Ehemann, den eigentlichen Theaterleiter, im Keller unter der Bühne versteckt hält. Ihre Filmpartner waren dabei Gérard Depardieu als junger Kollege und Geliebter und Heinz Bennent als Ehemann. 1970 war Deneuve in dem ebenfalls von Kritikern und Publikum gelobten Buñuel-Film "Tristana" zu sehen. In den späten 1970er Jahren sollte sie in "The Short Night", dem letzten, unvollendeten Filmprojekt von Alfred Hitchcock, mitwirken.
An der Seite von Susan Sarandon und David Bowie spielte sie 1983 in "Begierde" eine bisexuelle Vampirin. Die beiden Schauspielerinnen wurden durch den Film nach eigenem Bekunden enge Freundinnen. 1993 wurde Deneuve für ihre Hauptrolle im Filmmelodram "Indochine", in dem sie eine Kautschuk-Plantagenbesitzerin verkörperte, für den Oscar nominiert. Régis Wargnier führte Regie. Zusammen mit Björk spielte sie 2000 in Lars von Triers "Dancer in the Dark" eine Fabrikarbeiterin. Nach eigenen Angaben will Deneuve von Trier per Brief – entgegen ihren Gepflogenheiten – um eine Rolle in einem seiner Filme gebeten haben, nachdem sein Film "Breaking the Waves" sie nachhaltig beeindruckt hatte. Der nächste Erfolg war "8 Frauen", in dem Regisseur François Ozon namhafte französische Schauspielerinnen zusammenbrachte, darunter auch Isabelle Huppert.
Bis heute spielte Catherine Deneuve in mehr als 130 Spielfilmen mit, davon mehr als 90 Kinofilme. Fast immer war sie dabei in einer der Hauptrollen zu sehen. 1988 war sie auch Produzentin des Films "Nächtliche Sehnsucht – Hemmungslos", in dem sie zusammen mit Gérard Depardieu die Hauptrolle innehatte. Aus den letzten Jahren stammen "Princesse Marie" von Benoît Jacquot (über Marie Bonaparte), "Das Leben ist seltsam" sowie André Téchinés Filmdrama "Changing Times", in dem unter anderem wieder Depardieu mitspielte, der zu einem ihrer Lieblingskollegen wurde. Zur Eröffnung der 79. Filmfestspiele von Venedig Ende August 2022 erhielt sie den Goldenen Löwen für ihr Lebenswerk aus den Händen von Regisseur Arnaud Desplechin. Mit ihm hatte sie an "Ein Weihnachtsmärchen" (2008) zusammengearbeitet.
Spiel mit sexuell mehrdeutigen Rollen.
Mit ihrer Rolle einer lesbischen Vampirin in "Begierde" erregte Deneuve die Aufmerksamkeit des lesbischen Publikums. Auch in einigen anderen Filmen spielte Deneuve mit sexuell mehrdeutigen Rollen: In "Zig Zig" spielte sie 1975 eine Prostituierte, die ihre Freundin küsst. In "Ecoute voir" stellte sie eine Privatdetektivin im Trenchcoat dar, teils Emma Peel, teils Humphrey Bogart inklusive der attraktiven Sekretärin. In "Diebe der Nacht" spielte sie eine Professorin, die eine Affäre mit einer Studentin hat. In "8 Frauen" kommt es zwischen ihr und Fanny Ardant zu einem Kuss, der auf Deneuves vorangegangene Rollen und ihr damit verbundenes Image anspielen soll.
Weitere Aktivitäten.
1965 posierte sie nackt für den "Playboy". Von 1969 bis 1977 war Deneuve in den USA das Chanel-Gesicht. Des Weiteren warb sie für Produkte von Yves Saint Laurent (1993), L’Oréal (2001), M•A•C (2006) und ihr eigenes Parfum "Deneuve" (1986). Sie betätigte sich zudem als Designerin diverser Konsumartikel wie Brillen, Schuhe, Schmuck, Grußkarten und Einrichtungsgegenstände.
Auch ihre Stimme setzte Catherine Deneuve erfolgreich ein, obwohl sie keinen Unterricht in Gesang genommen hatte. Sie las mehrere Hörbücher für die "Édition des femmes" und interpretierte diverse Chansons. Sie sang unter anderem Duette mit anderen Stars wie mit Bernadette Lafont (1975), Gérard Depardieu (1980), Malcolm McLaren (1993), Joe Cocker (1995) und Alain Souchon (1997). 1981 nahm sie ein ganzes Album mit Chansons von Serge Gainsbourg auf.
Deneuve war journalistisch tätig für Libération, Madame Figaro, France 5 und andere Medien. 2005 erschien ihr Tagebuch „A l’ombre de moi-même“ (Deutscher Buchtitel: „In meinem Schatten“; besser wäre jedoch die Übersetzung: „Im Schatten meiner selbst“ oder „In meinem eigenen Schatten“), in dem sie von den Dreharbeiten zu „Dancer in the Dark“ und „Indochine“ erzählt.
Im Jahr 2023 eröffnete Deneuve die 76. Filmfestspiele von Cannes an der Seite ihrer Tochter Chiara Mastroianni und zierte das offizielle Festivalplakat. Basis dafür war eine Fotografie von Jack Garofalo, die während der Dreharbeiten zum Spielfilm "La Chamade – Herzklopfen" (1968) entstand.
Soziales und politisches Engagement.
Catherine Deneuve engagiert sich seit den 1970er Jahren immer wieder für soziale und politische Themen. 1971 setzte sie sich dafür ein, die Abtreibung in Frankreich zu legalisieren. Sie unterzeichnete das "Manifest der 343" («le manifeste des 343»), ein Bekenntnis zur Abtreibung, das von Simone de Beauvoir verfasst wurde und am 5. April 1971 im Magazin Le Nouvel Observateur erschien.
2001 befürwortete sie eine Petition gegen die Todesstrafe in den USA von der französischen Gruppe "Together against the death penalty", die der US-Botschaft in Paris überreicht wurde. Darüber hinaus ist Deneuve beteiligt an Amnesty Internationals Programm zur Abschaffung der Todesstrafe. 1991 erinnerte sie in dem Amnesty-Film "Schreiben gegen das Vergessen" "(Contre l’Oubli / Against Oblivion)" an die salvadorianische Gewerkschaftsführerin Febe Elizabeth Velásquez, die 1989 mit ihren Kollegen durch einen Bombenanschlag ermordet wurde.
Deneuve wurde 1994 zum "Goodwill Ambassador" der UNESCO ernannt, um sich für die Bewahrung des Filmerbes einzusetzen. Am 12. November 2003 trat sie von ihrem Ehrenamt zurück, um gegen die Ernennung des französischen Geschäftsmanns Pierre Falcone als Angola-Repräsentanten zu protestieren, da diesem damit eine Rechtsimmunität in Bezug auf Untersuchungen von illegalem Waffenhandel verschafft wurde.
Ende 2003 warb Deneuve mit einer Radio-Werbesendung von „Douleur sans frontières“ um Spenden für die Opfer von Landminen.
Seit 2008 ist sie Mitglied der Waris Dirie Foundation, einer Stiftung, die sich gegen die Genitalverstümmelung von Frauen und Mädchen wendet.
Als Teil eines Kollektivs von 100 Frauen beteiligte sich Catherine Deneuve an einem offenen Brief, der am 9. Januar 2018 in der französischen Tageszeitung "Le Monde" erschien, in dem Auswirkungen der durch die #MeToo-Initiative hervorgerufenen Debatte kritisiert wurden. Da der Brief von vielen als Versuch verstanden wurde, die in der #MeToo-Debatte benannten Missstände in ihrer Bedeutung zu relativieren, löste er eine kontroverse Diskussion aus.
Auszeichnungen.
Nach Catherine Deneuves Abbild wurde 1985 eine Büste der französischen Nationalfigur Marianne geschaffen. Den Erlös aus dem Ankauf der Kommunen spendete sie Amnesty International. Vor ihr wurde diese Ehre bereits Brigitte Bardot (1970) und Mireille Mathieu (1978) zuteil, ihre Nachfolgerin wurde 1989 Inès de la Fressange.
Im Jahr 2000 wurde Catherine Deneuve auf dem Palm Springs Walk of Stars ein „Golden-Palm“-Stern gewidmet. |
788 | 135966 | https://de.wikipedia.org/wiki?curid=788 | Cher (Begriffsklärung) | Cher steht für:
Cher ist der Name folgender Personen: |
789 | 224232 | https://de.wikipedia.org/wiki?curid=789 | Claude Lelouch | Claude Barruck Joseph Lelouch [] (* 30. Oktober 1937 in Paris) ist ein französischer Filmregisseur, Kameramann, Drehbuchautor, Produzent und Schauspieler. Sein Markenzeichen sind betont ästhetische Kameraeinstellungen.
Leben.
Lelouch ist der Sohn eines aus Algerien eingewanderten jüdischen Maßschneiders, der bei Ausbruch des Zweiten Weltkrieges nach Algerien zurückkehrte. Nach Kriegsende besuchte er das Collège Sainte-Barbe, das er ohne Abschluss verließ. Er bezeichnete sich selbst als „Kinojournalist“, als er Mitte der 1950er Jahre erste kurze Dokumentarfilme drehte. Ende der 1950er Jahre bereiste er unter anderem die USA und die UdSSR, schnitt aus dem entstandenen Material mehrere Dokumentarfilme und verkaufte diese an das Fernsehen.
Im Jahr 1960 gründete er die Produktionsgesellschaft „Les Films 13“, mit der er über 200 Scopitones fertigte – kurze Musikfilme für den Einsatz in Musikboxen. Im selben Jahr drehte er auch den ersten seiner zahlreichen Spielfilme, in denen er meist Geschichten von Liebe, Abschieden und Enttäuschungen erzählt; von manchen als altmodische Romanzen bezeichnet, sahen andere Kritiker subtextuelle Bedeutungen in seinen meist einfachen, mit Warmherzigkeit inszenierten Geschichten.
Sein erster internationaler Erfolg war das Filmdrama "Ein Mann und eine Frau" (gespielt von Jean-Louis Trintignant und Anouk Aimée), für das er 1966 die Goldene Palme beim Filmfestival von Cannes und 1967 den Oscar für das beste Originaldrehbuch erhielt. Eine zweite Nominierung für den Oscar erhielt er als bester Regisseur. Eine weitere Oscarnominierung in der Kategorie Bestes Originaldrehbuch erhielt er 1976 für den Film "Ein Leben lang".
Lelouch war dreimal verheiratet, zuletzt mit der italienischen Filmschauspielerin Alessandra Martines, von der er sich 2008 trennte. Er hat sieben Kinder. Aus seiner Ehe mit der Schauspielerin Évelyne Bouix stammt die gemeinsame Tochter Salomé Lelouch (* 1983), die als Schauspielerin ebenfalls beim Film tätig ist.
Im Jahr 2018 war Lelouch in einer Folge von "Call My Agent!" als er selbst zu sehen. Am 13. Januar 2018 berichtete die Zeitung "Le Parisien" vom Diebstahl mehrerer Taschen beim Ausladen aus dem Auto bei seiner Urlaubsrückkehr. Verloren gingen dabei nicht nur während Jahrzehnten in „magischen Koffern“ angesammelte Notizen, sondern auch das einzige Exemplar des Drehbuchs zum geplanten Film "Oui et Non". Der Regisseur „wartet auf ein Wunder“ und hoffe auf eine Rückgabe. |
794 | 3609534 | https://de.wikipedia.org/wiki?curid=794 | Clint Eastwood | Clinton „Clint“ Eastwood Jr. (* 31. Mai 1930 in San Francisco, Kalifornien) ist ein US-amerikanischer Schauspieler, Regisseur, Produzent, Filmkomponist, Sänger und ehemaliger Politiker der Republikanischen Partei. Als wortkarger Western- und Actionheld avancierte er ab den 1960er-Jahren zu einem weltweit erfolgreichen Star; der Oscarpreisträger entwickelte sich darüber hinaus zu einem renommierten Filmregisseur und -produzenten.
Nachdem er 1959 durch die Westernserie "Tausend Meilen Staub" bekannt geworden war, brachte ihm die Rolle des namenlosen Revolverhelden in der "Dollar-Trilogie" von Sergio Leone Mitte der 1960er-Jahre den internationalen Durchbruch. Die Rolle des hemdsärmeligen Polizisten Harry Callahan in der Filmreihe "Dirty Harry" verschaffte ihm weitere Popularität. Eastwood konnte sich ab den 1970er-Jahren mit Filmen wie "Der Texaner", "Die Brücken am Fluß", "Gran Torino" und "American Sniper" als Filmemacher etablieren.
Eastwood gewann mit dem Western "Erbarmungslos" (1992) und dem Sportdrama "Million Dollar Baby" (2004) jeweils den Oscar für die Beste Regie und den Besten Film. Mitunter, vornehmlich für seine eigenen Filme, komponiert er auch Filmmusik. Neben seiner Filmkarriere war er von 1986 bis 1988 Bürgermeister der kalifornischen Kleinstadt Carmel und engagiert sich in der nationalen Politik.
Leben.
Clint Eastwood wurde als Sohn des Buchhalters Clinton Eastwood Sr. (1906–1970) und dessen Ehefrau Margaret Ruth Runner (1909–2006) geboren. Er hat schottische, englische, irische und niederländische Vorfahren. Während der Depressionszeit war der Vater gezwungen, als Tankwart zu arbeiten; auf der Suche nach Arbeit zog er mit seiner Familie durchs Land. Eastwood lebte zeitweise bei seiner Großmutter, die in Sunol eine Hühnerfarm betrieb. Schließlich ließ sich die Familie in Oakland nieder. Eastwood, der als schüchtern und introvertiert galt, besuchte zehn verschiedene Schulen und brach 1948 sein College-Studium ab. Er arbeitete unter anderem als Holzfäller, Heizer, Tankwart und Lagerarbeiter.
1951 wurde er ins Heer einberufen und nach Fort Ord versetzt, wo er zwei Jahre lang als Schwimmlehrer tätig war. Beim Militär lernte er David Janssen kennen, den späteren Darsteller des Richard Kimble in der Serie "Auf der Flucht". Janssen schlug dem gutaussehenden, athletischen Eastwood vor, es ihm gleichzutun und sich als Schauspieler in Hollywood zu versuchen.
In Carmel betreibt Eastwood ein Hotel namens Mission Ranch, in dem unter anderem Pale Rider Ale, ein nach dem gleichnamigen Film "Pale Rider" benanntes Bier, verkauft wird. Der Erlös dieser Biermarke wird an gemeinnützige Einrichtungen gespendet.
Er war zweimal verheiratet und hatte daneben eine größere Anzahl außerehelicher Beziehungen sowie kurzzeitiger Affären. Eastwood hat acht Kinder, die zwischen 1954 und 1996 geboren wurden. Von 1953 bis 1984 war er mit Maggie Johnson verheiratet, ihre gemeinsamen Kinder sind Kyle (* 1968) und Alison Eastwood (* 1972). Von Mitte der 1970er-Jahre bis 1989 lebte er mit der Schauspielerin und mehrmaligen Filmpartnerin Sondra Locke in einer langjährigen Beziehung, die schließlich auch zur Scheidung von Maggie Johnson führte. Locke und Eastwood heirateten allerdings nie. Aus einem Verhältnis mit der Flugbegleiterin Jacelyn Reeves stammen eine Tochter und ein Sohn, der Schauspieler Scott Eastwood (* 1986).
Aus einer etwa fünf Jahre währenden Beziehung mit der Schauspielerin Frances Fisher in den frühen 1990er-Jahren stammt die Tochter Francesca Eastwood. 1996 heiratete er die Nachrichtenmoderatorin Dina Ruiz, mit der er im selben Jahr eine Tochter bekam. Ende 2014 wurde die Scheidung zwischen dem Paar rechtskräftig.
Werk.
Nebenrollen und Fernsehserien.
Mitte der 1950er Jahre absolvierte Eastwood Testaufnahmen bei Universal Pictures und bekam zunächst einen Halbjahresvertrag inklusive Schauspielunterricht. Ab 1955 trat er in Kleinstrollen auf und war unter anderem in dem Monsterfilm "Die Rache des Ungeheuers" (1955) als Laborassistent zu sehen. In "Tarantula" (1955) spielte er einen der Jetpiloten, die die mutierte Riesenspinne mit Napalm bekämpfen. Er erhielt nun auch kleinere Fernsehrollen.
1957 wurde sein Vertrag von Universal nicht verlängert, weshalb er gezwungen war, wieder als Schwimmlehrer zu arbeiten. Da seine Frau ernsthaft erkrankte, kam er in finanzielle Schwierigkeiten. 1957 wurde er kurzzeitig von der Filmgesellschaft RKO Pictures unter Vertrag genommen, die sich jedoch bald darauf vom Filmgeschäft zurückzog. 1959 konnte er beim Fernsehen Fuß fassen und übernahm in der langlebigen Western-Serie "Rawhide" (in Deutschland: "Tausend Meilen Staub" oder "Cowboys") neben Hauptdarsteller Eric Fleming die Rolle des Cowboys Rowdy Yates. Bis 1965 spielte er diese Rolle in 217 Folgen, verteilt auf acht Staffeln.
Durchbruch im Italo-Western.
1964 bereitete der italienische Regisseur Sergio Leone seinen Western "Für eine Handvoll Dollar" vor, ein Remake von Akira Kurosawas "Yojimbo". Da er diesen Film mit einem geringen Budget realisieren musste, konnte er für die Hauptrolle keinen etablierten Hollywood-Star wie Henry Fonda oder James Coburn verpflichten. Auf der Suche nach einem bezahlbaren Ersatzmann wurde Leone auf den Fernsehschauspieler Eastwood aufmerksam, den er schließlich für 15.000 Dollar engagierte. Eastwood spielte in dem Film einen Abenteurer, der sich in einer Kleinstadt bei zwei verfeindeten Clans als Revolvermann verdingt, um beide gegeneinander auszuspielen.
"Für eine Handvoll Dollar" galt zunächst als obskur und wurde von den Kritikern entweder verrissen oder überhaupt nicht beachtet. Der Film entwickelte sich jedoch zu einem großen Kassenerfolg und löste die Italo-Western-Welle der 1960er Jahre aus, die mehrere hundert Filme hervorbrachte. In der Rolle des zynischen Fremden ohne Namen, der seinen Gegnern mit aufreizender Lässigkeit in einem Poncho gegenübertritt, avancierte Eastwood zu einer Ikone der Popkultur. Unzählige Westerndarsteller orientierten sich in den Folgejahren an dem von Eastwood und Leone geschaffenen Charaktertypus.
In dem Nachfolgefilm "Für ein paar Dollar mehr" (1965) trat der Schauspieler erneut als unrasierter Revolvermann in Erscheinung und spielte einen Kopfgeldjäger, der mit Lee van Cleef eine Verbrecherbande zur Strecke bringt. Der Erfolg des Films ermöglichte es Leone, 1966 den aufwändigen Western "Zwei glorreiche Halunken" zu realisieren. Eastwood war erneut als Kopfgeldjäger im Poncho zu sehen und jagte neben Lee van Cleef und Eli Wallach hinter einem Goldschatz her, der in den Wirren des Bürgerkriegs verlorengegangen war. Leones dritter Western wurde erneut zu einem Kassenerfolg und avancierte im Lauf der Jahrzehnte zu einem beliebten Kultfilm. In der Internet Movie Database (IMDb) rangiert er auf der Liste der besten Filme auf Platz 8 und gilt dort als bester Western aller Zeiten (Mai 2015).
Nach "Zwei glorreiche Halunken" galt die Beziehung von Leone und seinem Hauptdarsteller Eastwood als zerrüttet, weshalb der Regisseur für seinen nächsten Film "Spiel mir das Lied vom Tod" Charles Bronson als Hauptdarsteller engagierte. 1992 widmete Eastwood den von ihm inszenierten Western "Erbarmungslos" unter anderem Sergio Leone. Mit diesem Film, in dem er selbst auch die Hauptrolle spielte, gelang ihm sowohl eine Hommage an das Genre als auch eine kritische Auseinandersetzung und Abrechnung mit seinen Mythen und Verklärungen, also auch mit seiner eigenen erfolgreichen Rolle als Westernheld. Diese Leistung brachte Eastwood den Durchbruch in seiner zweiten Karriere als Filmregisseur.
Erste Erfolge in Hollywood.
Obwohl Eastwood durch seine Italowestern sehr populär geworden war, dauerte es einige Jahre, bis er auch in seinem Heimatland als Filmschauspieler Fuß fassen konnte. Der große Erfolg von "Zwei glorreiche Halunken", der in den USA zum Kassenhit geworden war, ermöglichte es Eastwood schließlich, sich auch in Hollywood durchzusetzen.
1968 spielte er in dem Western "Hängt ihn höher" einen vermeintlichen Viehdieb, der seine Hinrichtung überlebt. Im selben Jahr begann er seine erfolgreiche Zusammenarbeit mit Regisseur Don Siegel und stellte in dem Actionkrimi "Coogan’s großer Bluff" einen Provinzsheriff dar, der in New York für Unruhe sorgt. Komödiantische Akzente setzte Eastwood auch in dem Western "Ein Fressen für die Geier" (1970), wo er als widerwilliger Beschützer einer vermeintlichen Nonne (Shirley MacLaine) agierte. In dem Westernmusical "Westwärts zieht der Wind" trat Eastwood 1969 neben Lee Marvin sogar als singender Goldsucher in Erscheinung.
Obwohl Eastwood Ende der 1960er Jahre bereits als Star etabliert war, überließ er die Hauptrolle in dem Kriegsfilm "Agenten sterben einsam" (1968) seinem Kollegen Richard Burton. Eastwood akzeptierte, weil ihm die Produzenten – die unbedingt einen amerikanischen Star in dem Film haben wollten – die für damalige Verhältnisse enorme Gage von 800.000 Dollar zahlten. In dem actionbetonten Streifen müssen Eastwood und Burton einen kriegswichtigen Auftrag hinter den Frontlinien erfüllen. Auch in "Stoßtrupp Gold" (1970) profilierte sich Eastwood als Actionheld im Zweiten Weltkrieg. Beide Filme waren an den Kinokassen sehr erfolgreich. 1967 gründete Eastwood die Filmproduktionsgesellschaft Malpaso Productions.
"Dirty Harry" und die 1970er Jahre.
1971 gelang Eastwood in Hollywood der Durchbruch zum Superstar. Unter der Regie von Don Siegel spielte er die titelgebende Rolle des Polizeiinspektors Harry Callahan ("Dirty Harry"), der in San Francisco einen psychopathischen Serienmörder jagt. Der kontrovers diskutierte Film, in dem Eastwood mit zweifelhaften Methoden das Verbrechen bekämpft, wurde zu einem großen Erfolg und etablierte den Dirty-Harry-Charakter als neue Kultfigur. Allerdings war Eastwood keineswegs der Favorit für die Titelrolle gewesen, für die zunächst der berühmte Entertainer Frank Sinatra vorgesehen war. Nachdem dieser wegen einer Handverletzung ausgefallen war, waren zunächst noch Steve McQueen, Paul Newman und John Wayne für die Rolle im Gespräch gewesen.
Eastwood zählte nun jahrzehntelang zu den weltweit erfolgreichsten Filmschauspielern. Er war 1973 und 1976 erneut in der Rolle des Harry Callahan zu sehen und trat weiterhin in Actionfilmen ("Die Letzten beißen die Hunde", 1974) und Western ("Ein Fremder ohne Namen", 1973) auf. In der sehr erfolgreichen Actionkomödie "Der Mann aus San Fernando" (1978) hatte er einen unberechenbaren Orang-Utan zum Partner. Im Gefängnisthriller "Flucht von Alcatraz" spielte er 1979 zum letzten Mal unter der Regie von Don Siegel und stellte Frank Morris dar, den einzigen Häftling, dem wahrscheinlich die Flucht von der Gefängnisinsel Alcatraz gelang.
1971 debütierte Eastwood mit dem Psychothriller "Sadistico" als Filmregisseur. Er inszenierte danach unter anderem den Spätwestern "Der Texaner" (1975), in dem er als ehemaliger Farmer zu sehen ist, dessen Familie massakriert wurde und der auf der Suche nach Rache eine epische Odyssee durchlebt. Der Film gilt als Klassiker seines Genres. Eastwood inszenierte außerdem Actionfilme wie "Im Auftrag des Drachen" (1975) oder "Der Mann, der niemals aufgibt" (1977).
Die 1980er Jahre.
Auch in den 1980er Jahren war Eastwood – oft unter eigener Regie – in Western- und Actionfilmen zu sehen. Er spielte in "Firefox" (1982) einen US-Kampfjetpiloten, der einen sowjetischen Jet entführt. In dem Thriller "Der Wolf hetzt die Meute" (1984) jagte er einen Serienkiller in New Orleans (u. a. mit seiner damals zwölfjährigen Tochter Alison in einer der Hauptrollen). Im Western "Pale Rider – Der namenlose Reiter" (1985) trat er als mysteriöser Prediger auf, im Kriegsfilm "Heartbreak Ridge" als raubeiniger Sergeant der US-Marines (1986). Er war in zwei weiteren Dirty-Harry-Filmen zu sehen (1983 und 1988) und drehte Actionkomödien wie "Mit Vollgas nach San Fernando" (1980).
Als Filmregisseur war Eastwood während dieser Zeit zunehmend an künstlerisch ambitionierten Werken interessiert, die nicht auf ein Massenpublikum abzielten. Seine Erfolge als Action-Star gaben ihm die Freiheit, kleinere Filme wie "Bronco Billy" (1980) oder "Honkytonk Man" (1982) mit seinem Sohn Kyle und Alexa Kenin zu realisieren, in denen er den American Way of Life skeptisch reflektierte. "Bird" (1988), eine Filmbiographie über das Leben des legendären Jazzmusikers Charlie Parker, fand zwar nur ein kleines Publikum, wurde jedoch von der Kritik gelobt. Eastwood war zeitlebens ein großer Jazzfan und trägt seit 1980 gelegentlich als Komponist zu seinen Filmen bei. Seit den 1980er Jahren arbeitet er mit dem Filmeditor Joel Cox und der Kostümbildnerin Deborah Hopper zusammen. Ende der 1980er Jahre wurde Eastwood in Frankreich mit einem Ehren-César für sein Lebenswerk ausgezeichnet.
Die 1990er Jahre: Erster Regie-Oscar für "Erbarmungslos".
Zwischen 1988 und 1990 drehte Eastwood in kurzer Folge mehrere Kassenflops: "Das Todesspiel" (1988), "Pink Cadillac" (1989), "Weißer Jäger, schwarzes Herz" (1990) und "Rookie – Der Anfänger" (1990). Dann gelang es ihm, seine Karriere wieder zu stabilisieren, auch weil er damit begann, sein Rollenspektrum zu erweitern und in oft selbstironischer Weise sein fortgeschrittenes Alter zu thematisieren. Seither war Eastwood regelmäßig in kommerziell erfolgreichen Filmen zu sehen.
1993 spielte er in dem Thriller "In the Line of Fire – Die zweite Chance" (Regie: Wolfgang Petersen) einen alternden Secret-Service-Agenten, der ein Attentat auf den US-Präsidenten vereitelt. Der Film wurde zum größten Kassenerfolg für Eastwood. 1992 war er unter eigener Regie in dem pessimistischen Spätwestern "Erbarmungslos" als ehemaliger Revolverheld zu sehen und konnte bei Kritik und Publikum einen überragenden Erfolg verbuchen. Eastwood erhielt als Regisseur und Produzent zwei Oscars. Für sein Werk als Filmproduzent wurde er 1994 mit dem Irving G. Thalberg Memorial Award ausgezeichnet.
Von 1993 bis 2008 stand er nur noch unter eigener Regie vor der Kamera. In dem Kriminaldrama "Perfect World" (1993) war er neben Kevin Costner als Texas Ranger zu sehen. 1995 trat der 65-Jährige in "Die Brücken am Fluß" als romantischer Liebhaber von Meryl Streep auf und fand in dieser ungewohnten Rolle großen Zuspruch beim Publikum. Die Bestsellerverfilmung war an den Kassen sehr erfolgreich. In der zweiten Hälfte der 1990er Jahre inszenierte er die Thriller "Absolute Power" (1997) und "Ein wahres Verbrechen" (1999), von denen letzterer einer seiner größten Kassenflops wurde. 1997 erhielt der Regisseur gute Kritiken für das künstlerisch ambitionierte Drama "Mitternacht im Garten von Gut und Böse", das den Mord an einem Schwulen thematisierte. Im Februar 1996 erhielt er vom American Film Institute (AFI) den "Life Achievement Award" für sein Lebenswerk als Schauspieler, Regisseur und Produzent.
Zweiter Regie-Oscar für "Million Dollar Baby".
Mit 70 Jahren führte Eastwood im Jahr 2000 bei dem komödiantischen Film "Space Cowboys" über vier alternde Astronauten Regie, die auf eine letzte Weltraummission geschickt werden. Auch dieser Film, in dem er neben den bekannten Altstars Donald Sutherland, Tommy Lee Jones und James Garner auftrat, war ein großer kommerzieller Erfolg. 2002 folgte seine weniger erfolgreiche Verfilmung des Thrillers "Blood Work" nach einem Roman von Michael Connelly, in dem er ebenfalls Regie führte und auch die Hauptrolle spielte. Eastwood arbeitete seitdem in zahlreichen weiteren Produktionen mit dem Kameramann Tom Stern zusammen.
2003 konnte er mit dem düsteren Drama "Mystic River" nach dem Roman von Dennis Lehane, bei dem er ebenfalls Regie führte, bei Kritik und Publikum einen Erfolg verbuchen.
2005 war er der große Gewinner der Oscar-Verleihung und erhielt für sein auch kommerziell sehr erfolgreiches Drama über eine Boxerin, "Million Dollar Baby", seinen zweiten Regie-Oscar. Der Film wurde außerdem als "Bester Film des Jahres" ausgezeichnet, wobei Eastwood hier wie auch bei "Erbarmungslos" als Produzent einen weiteren Oscar erhielt. Außerdem gingen die Oscars für die beste Haupt- und für die beste Nebenrolle an Hilary Swank und Morgan Freeman. Im Jahr davor waren in gleicher Weise bereits Sean Penn und Tim Robbins für "Mystic River" ausgezeichnet worden.
Seit 2006.
2006 realisierte Eastwood ebenfalls ausschließlich als Regisseur zwei weitere ambitionierte Filmprojekte, indem er aus unterschiedlicher Perspektive zwei Filme über eine Schlacht im Pazifikkrieg drehte. "Flags of Our Fathers" schilderte dabei die Ereignisse aus amerikanischer Sicht, "Letters from Iwo Jima" aus der Perspektive der Japaner. Letzterer erhielt 2007 vier Oscar-Nominierungen.
2008 war er mit dem Spielfilm "Der fremde Sohn" im Wettbewerb der 61. Filmfestspielen von Cannes vertreten, womit er zum fünften Mal um die Goldene Palme konkurrierte. Dort erhielt er gemeinsam mit der französischen Schauspielerin Catherine Deneuve (für "Un conte de Noël") einen Ehrenpreis. Ende Februar 2009 erhielt Eastwood in einer nicht öffentlichen Zeremonie in Paris die Goldenen Palme von Cannes für sein Lebenswerk mit der Begründung, dass ihm wie keinem anderen die „Synthese des klassischen und des modernen amerikanischen Kinos“ gelungen wäre. Mit dem Filmdrama "Gran Torino" konnte er 2009 erneut einen großen Erfolg bei Kritik und Publikum verbuchen. Hierbei war er, neben der Regietätigkeit, nach einer längeren Pause auch wieder als Hauptdarsteller zu sehen.
Sein Film "Invictus – Unbezwungen" (2009), bei dem er als Regisseur und Produzent fungierte und für den er außerdem die Musik schrieb, beschreibt eine Episode aus Nelson Mandelas Leben. Nach der Befreiung aus 27-jähriger Gefangenschaft versucht Mandela, dargestellt von Morgan Freeman, als erster schwarzer Präsident Südafrika durch eine Rugby-Weltmeisterschaft zu mehr Ansehen und zur Gleichberechtigung zu verhelfen.
2012 trat Eastwood erstmals seit 19 Jahren wieder unter fremder Regie vor die Kamera und spielte in "Back in the Game" (Regie Robert Lorenz) einen alternden Baseball-Scout, der sich privat und beruflich neu orientieren muss. 2018 spielte er im Film "The Mule" die Hauptrolle, als seine Filmtochter sieht man seine Tochter Alison Eastwood. Clint Eastwood führte auch Regie und war an der Produktion beteiligt. 2021 spielte er in dem Film "Cry Macho" einen ehemaligen Rodeo-Star, der angeheuert wird, um einen jungen Mann in Mexiko zu seinem Vater in die USA zurückzubringen. Auch hier führte Clint Eastwood die Regie und war an der Produktion beteiligt.
Überblick über Eastwoods Gesamtwerk.
Clint Eastwood hat seit 1964 in 45 Spielfilmen die Hauptrolle gespielt. Seit 1968 tauchte er 21 Mal auf der Liste der zehn kommerziell erfolgreichsten Schauspieler auf, die einmal jährlich von Quigley Publications erstellt wird. Nur John Wayne wurde noch öfter von der Quigley-Liste erfasst (25 Mal). Laut Quigley war er zwischen 1972 und 1993 (was die Gesamteinnahmen seiner Filme betrifft) der kommerziell erfolgreichste Schauspieler.
Eastwood ist der bis dato älteste Regisseur, der je einen Oscar für die beste Regie erhalten hat – er war 74 Jahre alt, als er den Preis für "Million Dollar Baby" gewann. Er ist außerdem der einzige Hollywood-Star, der sowohl als Regisseur als auch als Produzent zweimal mit diesem Preis ausgezeichnet wurde (Warren Beatty, Robert Redford, Mel Gibson und Kevin Costner erhielten den Preis bisher je einmal als Regisseur). Insgesamt erhielt er also vier Oscars. Als Regisseur ist Eastwood für seine effiziente Arbeitsweise bekannt und beendet Dreharbeiten häufig schneller als geplant und stets im Rahmen des vorgesehenen Budgets. 2006 sei er mit 76 Jahren „experimentierfreudiger als je zuvor“, stellte Franz Everschor im "film-dienst" fest.
Insgesamt waren bislang elf verschiedene Schauspieler (neben Eastwood selbst Morgan Freeman, Gene Hackman, Meryl Streep, Matt Damon, Hilary Swank, Marcia Gay Harden, Sean Penn, Tim Robbins, Angelina Jolie, Bradley Cooper) unter seiner Regie für einen Oscar nominiert, darunter Morgan Freeman dreimal und Eastwood selbst zweimal. Fünf Schauspieler erhielten unter Eastwoods Regie einen Oscar für Haupt- bzw. Nebenrollen, Gene Hackman 1993 für "Erbarmungslos", Hilary Swank und Morgan Freeman 2005 für "Million Dollar Baby" sowie Tim Robbins und Sean Penn 2004 für "Mystic River".
Eastwood hat seit 1971 38 Spielfilme inszeniert und war seit 1968 als Produzent oder Co-Produzent an 53 Film- und TV-Produktionen beteiligt. Seit 1964 war er an 33 Filmen als Soundtrackkomponist, Songwriter oder Sänger beteiligt. 2021 trat der 91-Jährige als Regisseur, Hauptdarsteller und Produzent des Films "Cry Macho" in Erscheinung. Eastwood zählt damit zu den weltweit ältesten aktiven Filmemachern. Ob weitere Projekte mit ihm geplant sind, ist derzeit nicht bekannt (Stand 2022).
Der Schauspieler Eastwood.
Clint Eastwood wurde im Lauf der Jahrzehnte zu einem der populärsten Stars weltweit und ist generationenübergreifend als Kultfigur und Ikone anerkannt. Der 1,93 Meter große Star mit den markanten Zügen entwickelte in der Rolle des schweigsamen Actionhelden große Anziehungskraft. Er ist dafür bekannt, mit unbewegter Miene zynische Einzeiler von sich zu geben („Make my Day“, „‚Do I feel lucky?‘ Well, do ya, punk?“).
Eastwoods Image des harten Revolverhelden wurde vor allem in den 1970er Jahren kontrovers diskutiert. Die einflussreiche Filmkritikerin Pauline Kael griff Eastwood regelmäßig scharf an und warf seinen Filmcharakteren eine reaktionäre und menschenverachtende Ideologie vor, was der Schauspieler vehement zurückwies. Im Lauf der Jahrzehnte und mit zunehmendem Alter wurden seine Rollengestaltungen deutlich sanfter und selbstironischer. Nur in "Gran Torino", der als eine fulminante Abschiedsvorstellung gedacht war, spielt Eastwood eine verbitterte Figur von zynischer Ehrlichkeit und mit einer erbarmungslosen moralischen Überzeugung.
Eastwood als Sänger.
Mehrmals hat sich Eastwood auch als Sänger betätigt. Bereits zu Beginn seiner Karriere in den frühen 1960er Jahren nahm er wie viele junge aufstrebende Fernsehstars der Zeit Schallplatten auf, die sich vornehmlich an oftmals weibliche Teenager richteten. Die erste, eine Single namens "Unknown Girl", erschien 1961. Dieser folgten zwei weitere – "Rowdy" (1962), für die seine Rolle in der Serie "Tausend Meilen Staub" (Originaltitel: "Rawhide") titelgebend war, und "For You, For Me, For Evermore" – sowie 1963 eine Langspielplatte namens "Rawhide’s Clint Eastwood Sings Cowboy Favorites", auf der auch "Rowdy" enthalten ist. 1969 interpretierte er in dem Western-Musicalfilm "Westwärts zieht der Wind" die Lieder "Elisa", "I Talk to the Trees", "Gold Fever" und "Best Things" (Duett mit Lee Marvin).
Für den Soundtrack von "Bronco Billy" (1980) sang Eastwood einige Lieder, z. B. "Barroom Buddies" mit Merle Haggard, und auf dem Soundtrack für "Mit Vollgas nach San Fernando" (1980) singt er "Beers to You" mit Ray Charles. 1981 wurde die Single "Cowboy in a Three Piece Suit" veröffentlicht. In seinem Film "Honkytonk Man" (1982) spielt Eastwood einen Country-Sänger und singt die Lieder darin selbst, unter anderem das Lied "Honkytonk Man". Auf dem Soundtrack zu "Mitternacht im Garten von Gut und Böse" (1997) singt er das Jazz-Stück "Accentuate the Positive".
Ebenso hört man Eastwoods Stimme beim Abspann von "Gran Torino" (2008), wenn er den eigentlich von Jamie Cullum gesungenen Titelsong darbietet. Des Weiteren wirkte er an ein paar Country-Alben wie Randy Travis’ "Heroes and Friends" (1990, Lied "Smokin’ the Hive") mit. In T. G. Sheppards Hit-Single "Make My Day" für den Film "Dirty Harry kommt zurück" (1983) spricht er die bekannte Dirty-Harry-Zeile „Punk, go ahead, make my day“.
Politik.
Politische Ansichten.
Eastwood ist seit 1952 als Wähler für die Vorwahlen der Republikanischen Partei registriert. Seine politische Orientierung bezeichnete er in Interviews als libertär oder gemäßigt, wozu er sagte: „Ich glaube, ich war schon gesellschaftspolitisch links und wirtschaftspolitisch rechts, bevor das in Mode kam.“ sowie „Ich sehe mich nicht als konservativ, aber ich bin auch nicht ultra-links. […] Ich mag die libertäre Sichtweise, jeden in Ruhe zu lassen. Schon als Kind habe ich mich über Leute geärgert, die allen vorschreiben wollten, wie sie zu leben hätten.“ Er war und ist gegen die Beteiligung der Vereinigten Staaten an Kriegen in überseeischen Gebieten wie Korea, Vietnam, Irak und Afghanistan. Christopher Orr hielt 2012 fest, Eastwood habe zwar nach eigener Aussage nie einen demokratischen Präsidentschaftsbewerber gewählt, habe andererseits aber Ansichten, die nicht auf republikanischer Linie liegen: für das Recht auf Abtreibung und die Homo-Ehe und vor allen Dingen nachdrücklich für den Schutz der Umwelt.
Eastwood unterstützte unter anderem die republikanischen Präsidentschaftskandidaturen von Richard Nixon, John McCain und Mitt Romney, wenn auch eher durch einzelne Äußerungen als durch Wahlkampfauftritte. Er unterstützte aber auch demokratische Politiker wie den kalifornischen Gouverneur Gray Davis, für den er 2003 ein Spendendinner ausrichtete. Auf dem Parteitag der Republikanischen Partei zur US-Präsidentschaftswahl 2012 hielt er als Überraschungsgast eine kurze Rede und rief zur Wahl des republikanischen Kandidaten Mitt Romney auf. Dabei sprach Eastwood zu einem imaginären, auf einem leeren Stuhl neben ihm sitzenden US-Präsidenten Barack Obama, Romneys Gegenkandidaten. Er warf Obama unter anderem vor, nicht genug gegen die hohe Arbeitslosigkeit getan und seine Wahlversprechen nicht eingehalten zu haben, und fragte ihn, warum er so häufig das Flugzeug benutze, wo er doch gerne als Umweltschützer auftrete. Außerdem warf er ihm vor, für den Krieg in Afghanistan gewesen zu sein. Die Parteitagsdelegierten nahmen die Rede positiv auf. Viele Medien kommentierten die Rede kritisch; zum Beispiel nannte "Der Spiegel" die Rede einen „bizarren Auftritt“. US-amerikanische Medien nannten sie „weitschweifig“.
Vor der Präsidentschaftswahl des Jahres 2016 unterstützte er die Kandidatur Donald Trumps. Im Februar 2020 attackierte Eastwood Trump öffentlich; er schätze zwar manches an dessen Maßnahmen, die Politik in den USA sei jedoch „widerwärtig“ und die Innenpolitik „zu zankhaft“ geworden. Trump solle sich „auf vornehmere Weise verhalten, ohne zu twittern und die Leute zu beschimpfen“. Eastwood sprach sich für den Demokraten und ehemaligen New Yorker Bürgermeister Michael Bloomberg aus, den man ins Weiße Haus holen solle.
Öffentliche Ämter.
1986 wurde Eastwood in seinem Heimatort Carmel mit 72 % der abgegebenen Stimmen zum Bürgermeister gewählt. Er übte das Amt für eine Amtszeit bis 1988 aus. In dem Ort waren viele Dinge wie Straßenschilder und Telefonzellen verboten. Clint Eastwood löste ein Wahlversprechen ein, indem er den Verkauf von Speiseeis auf öffentlichem Grund wieder erlaubte.
Von 2001 bis 2008 war Eastwood Mitglied der "California State Park and Recreation Commission". In dieser Position kämpfte er gegen den Ausbau der California State Route 241, die unter anderem durch den San Onofre State Beach gebaut werden sollte.
Deutsche Synchronisation.
Von 1965 "(Für eine Handvoll Dollar)" bis 2000 "(Space Cowboys)" war Eastwoods deutsche Standardstimme Klaus Kindler. In Abwesenheit vertraten ihn beispielsweise Gert Günther Hoffmann (u. a. in "Zwei glorreiche Halunken" und in "Hängt ihn höher") oder Rolf Schult (u. a. in "Ein Fressen für die Geier" und in "Dirty Harry"). Nach Kindlers Tod 2001 bestimmte Eastwood selbst den Sprecher Joachim Höppner, der durch viele Dokumentationen, das Wissensmagazin "Galileo" und als Sprecher des Gandalf in der "Herr-der-Ringe-Trilogie" bekannt war, zu dessen Nachfolger. Dieser konnte Eastwood nur in zwei Filmen synchronisieren, da er 2006 an einem Herzinfarkt starb. Fred Maire sprach Eastwood einmalig in dem Film Back in the Game von 2012. Bei "Gran Torino" war, nachdem Fred Maire den Trailer gesprochen hatte, Jochen Striebeck Eastwoods deutsche Stimme. Dieser ist seitdem Eastwoods aktuelle Synchronstimme.
Auszeichnungen.
Academy Awards.
Prämierungen.
Der Irving G. Thalberg Memorial Award wird an besonders kreative Filmproduzenten vergeben, die sich durch langjähriges, konsequentes Bemühen um hohe künstlerische Qualität bei der Produktion von Filmen hervorgetan haben.
Weitere Auszeichnungen.
National Board of Review
Cannes Film Festival
César
Venedig Film Festival
American Film Institute
Hamburg Film Festival
Jupiter
Goldene Kamera
Screen Actors Guild
National Medal of Arts
Französische Ehrenlegion
Orden der Aufgehenden Sonne |
796 | 1347043 | https://de.wikipedia.org/wiki?curid=796 | Cadrage (Film) | Cadrage (von französisch "le cadre", der Rahmen), im Deutschen auch Kadrage, im Englischen framing, ist ein filmwissenschaftlicher Begriff, der die Auswahl des Bildausschnitts beschreibt. Das Bildfeld, das vom Bildformat eingeschlossen ist, heißt Kader, der Rahmen des Bildausschnitts Kadrierung. Die Begriffe werden häufig synonym verwendet. Vom Begriff "Cadrage" ist der Begriff "Einstellungsgröße" zu unterscheiden.
Die Cadrage bestimmt in der Planung einer Einstellung die Platzierung und Bewegung von Gegenständen und Personen innerhalb des vom Filmformat festgelegten Rahmens sowie die bildkompositorische Umsetzung der unbeweglichen dreidimensionalen Umgebung für das zweidimensionale Bild. Mittels eines dem Filmformat entsprechenden optischen Suchers (engl.: "Viewfinder") planen viele Regisseure den später im Film sichtbaren Bildbereich vor. Die Cadrage setzt die optischen Bildschwerpunkte und entspricht nicht zwangsläufig dem natürlichen Blick: Durch Raumnutzung, Lichtsetzung, Objektivwahl und andere Einflussnahmen können verzerrte Größenverhältnisse oder optische Detailbetonungen erzielt werden.
Eine unausgesprochene Vereinbarung zwischen Filmemacher und Filmrezipient ist, dass der filmisch gezeigte Raum außerhalb des sichtbaren Bereichs „weitergeht“. Im Normalfall geht der Zuschauer davon aus, dass er alle wichtigen Informationen im Bildausschnitt gezeigt bekommt. Das Geschehen außerhalb dieses Ausschnitts, also Off camera, ist von ihm nicht kontrollierbar und damit verunsichernd. Diese Wirkung visuell vorenthaltener Informationen machen sich manche Regisseure als Stilmittel zu Nutze, etwa Alfred Hitchcock in vielen seiner Filme.
Ziel des klassischen Hollywood-Kinos war es, nicht nur den Schnitt „unsichtbar“ zu machen, sondern auch die Begrenzung des Bildraums möglichst unauffällig und selbstverständlich zu gestalten. Daher fand Aktion häufig im Bildzentrum statt; die Randbereiche blieben oft rein dekorativ. Nach dem Ende der klassischen Hollywood-Ära wurde die Raumpräsentation für den Zuschauer komplexer: Die Einheitlichkeit der im Kopf des Zusehers entstehenden Gesamtsituation wurde als Illusionskonstrukt durch unterschiedlichste Filmtechniken befördert, etwa durch Schauspielerblicke ins Off, Reihung von Einzelperspektiven im Schnitt, subjektive Einstellungen mit sich bewegender Kamera, Raumillusion im Ton und vieles mehr. |
797 | 228512 | https://de.wikipedia.org/wiki?curid=797 | Ransprung | Ein Ransprung (englisch: "cut in") ist ein Filmschnitt mit Wechsel auf einen kleineren Bildausschnitt, von der gleichen Position aus aufgenommen. Gegenteilig wird der Begriff Cut Out verwendet.
Diese Technik des abgestuften Zoomens wird häufig angewandt, wenn man etwa von einer halbnahen Einstellung auf die Großaufnahme einer Person springt. Hierbei darf die Achse, auf der die Kamera mit dem gefilmten Objekt steht, nicht verlassen werden. So handelt es sich beispielsweise nicht um einen "Cut In" oder "Cut Out", wenn die erste Einstellung von rechts und die zweite von links neben einem Objekt gefilmt worden ist. |
798 | 627628 | https://de.wikipedia.org/wiki?curid=798 | Cut Out | |
800 | 568 | https://de.wikipedia.org/wiki?curid=800 | Charlie Chaplin | Sir Charles Spencer „Charlie“ Chaplin Jr., KBE, (* 16. April 1889 in London; † 25. Dezember 1977 in Corsier-sur-Vevey, Schweiz) war ein britischer Schauspieler, Regisseur, Drehbuchautor, Schnittmeister, Komponist, Filmproduzent und Komiker.
Chaplin gilt als erster Weltstar des Kinos und zählt zu den einflussreichsten Komikern der Filmgeschichte. Seine bekannteste Rolle ist die des „Tramps“. Die von ihm erfundene Figur mit Zweifingerschnurrbart (auch "Chaplinbart" genannt), übergroßer Hose und Schuhen, enger Jacke, Bambusstock in der Hand und zu kleiner Melone auf dem Kopf, mit den Manieren und der Würde eines Gentleman, wurde zu einer Filmikone. Charakteristisch für seine Filme wurde die enge Verbindung zwischen Slapstick-Komödie und ernsten bis tragischen Elementen. Das American Film Institute wählte Chaplin auf Platz 10 der größten männlichen US-amerikanischen Filmlegenden.
Er begann seine Karriere schon als Kind mit Auftritten in der Music Hall. Als Komiker in den frühen Stummfilmkomödien feierte er bald große Erfolge. Als beliebtester Stummfilmkomiker seiner Zeit erarbeitete er sich künstlerische und finanzielle Unabhängigkeit. 1919 gründete er zusammen mit Mary Pickford, Douglas Fairbanks und David Wark Griffith die Filmgesellschaft United Artists. Charlie Chaplin gehörte zu den Gründervätern der US-amerikanischen Filmindustrie – der sogenannten Traumfabrik Hollywood. Der Nähe zum Kommunismus verdächtigt, wurde ihm nach einem Auslandsaufenthalt 1952 während der McCarthy-Ära die Rückkehr in die USA verweigert. Er setzte seine Arbeit als Schauspieler und Regisseur in Europa fort. 1972 nahm er seinen zweiten Ehrenoscar entgegen: Den ersten hatte er 1929 für sein Wirken in dem Film "Der Zirkus" erhalten, den zweiten erhielt er für sein Lebenswerk. 1973 erhielt er den Oscar für die beste Filmmusik zu "Rampenlicht".
Leben.
Kindheit und Jugend.
Charles Chaplin wurde in London als Sohn von Charles Chaplin Sr. (1863–1901) und Hannah Harriet Chaplin (1865–1928) geboren. Beide waren Künstler an den britischen Music Halls, der Vater Sänger und Entertainer, die Mutter Tänzerin und Sängerin. Kurz nach Charles’ Geburt trennten sich seine Eltern. Charles und sein vier Jahre älterer Halbbruder Sydney (1885–1965) wuchsen bei der Mutter auf, die ihrem Beruf ab 1896 wegen psychischer Probleme nicht mehr nachgehen konnte. Da sich Chaplin Sr. regelmäßig den Unterhaltszahlungen entzog, lebte die Familie in großer Armut und musste immer wieder in den Armenhäusern Londons Zuflucht suchen. Charles Chaplin sprach als Kind Cockney, einen Londoner Dialekt.
Chaplin bekam 1894 erstmals die Chance, mit einer Gesangsdarbietung selbst vor Publikum aufzutreten. Als Neunjähriger wurde er auf Empfehlung seines Vaters für die Music-Hall-Gruppe "The Eight Lancashire Lads" engagiert. Chaplin erhielt während der Tourneen der "Lancashire Lads" Kost und Logis sowie eine einfache Schulbildung. Als sein Vater 1901 an den Folgen seiner Alkoholsucht starb, blieb den beiden Halbwaisen Chaplin und Sydney nur die Mutter als familiäre Bezugsperson, und in fast allen Biographien ist deshalb von „Dickens’scher Jugend“ die Rede. Und ähnlich wie bei den Kinderschicksalen, die Charles Dickens im 19. Jahrhundert beschrieben hatte, fand Charlie Chaplin doch seinen Weg. Sydney sorgte nun für den Unterhalt von Bruder und Mutter, die mehrfach in Irrenanstalten eingeliefert und 1905 für geisteskrank erklärt wurde. Chaplin war fast ganz auf sich allein angewiesen, wurde mit seinem Halbbruder als Sechsjähriger erstmals in ein Waisenhaus gesteckt, trieb sich später auf den Straßen herum und lernte das unterste soziale Milieu kennen, das er genau beobachtete. Bereits mit 13 Jahren verließ er endgültig die Schule. Er verdingte sich als Laufbursche, Zeitungsverkäufer, Drucker, Spielzeugmacher und Glasbläser, um seinen Lebensunterhalt zu bestreiten.
Nach Ende seiner Verpflichtung bei den "Lancashire Lads" fand Chaplin Engagements an den Londoner Bühnen. Im Sommer 1903 spielte er in dem wenig erfolgreichen Theaterstück "Jim, A Romance of Cockayne" seine erste größere Rolle. Es folgte die Rolle des Laufburschen Billy in der von William Gillette verfassten Bühnenversion von "Sherlock Holmes." Diese Inszenierung wurde ein großer Erfolg. Chaplin ging bis 1906 insgesamt vier Mal mit diesem Theaterstück auf Tournee. Auch Sydney Chaplin wirkte in dem Ensemble mit, verließ die Theatertruppe aber wieder, als er bei Fred Karno unter Vertrag genommen wurde. Charles folgte seinem Bruder und unterschrieb 1908 einen Zweijahresvertrag bei Karno.
Aufstieg zum Bühnenstar.
Bei Fred Karno, der mit seinen Theatertruppen die Tradition der komischen Pantomimenspiele fortführte, stieg Chaplin schnell zu einem der Hauptdarsteller auf. Sein erster Erfolg bei Karno war die Rolle des Trunkenbolds Swell in dem Stück "Mumming Birds." 1910 übernahm Chaplin die Hauptrolle in der Neuproduktion "Jimmy the Fearless," die ihm erstmals positive Kritiken in den Zeitungen einbrachte. So bezeichnete ihn die "Yorkshire Evening Star" als einen „aufstrebenden Schauspieler“, dessen Auftritt ihn als einen geborenen Komiker auswies.
Karno bot Chaplin daraufhin an, mit einem Ensemble auf eine Tournee durch Nordamerika zu gehen. Vom Juni 1910 bis Juni 1912 spielte Karnos Truppe in den Vereinigten Staaten und Kanada. Vor allem Chaplins Eskapaden in "A Night in an English Music Hall," einer Wiederaufführung von "Mumming Birds," begeisterten das Publikum und die Presse. Nach nur fünf Monaten in England schickte Karno sein Ensemble mit Chaplin für eine zweite Tournee nach Amerika.
Diese Tournee verlief allerdings nicht so erfolgreich wie die erste, weshalb Chaplin dankbar auf das Interesse der amerikanischen Filmindustrie reagierte. Im Mai 1913 nahmen Adam Kessel und Charles O. Baumann, die Inhaber der "New York Motion Picture Company", erstmals Kontakt zu Chaplin auf. Am 25. September 1913 unterschrieb Chaplin schließlich einen Vertrag, mit dem er sich für ein Jahr als Filmschauspieler bei Mack Sennetts "Keystone Studios," dem Komödienspezialisten der "New York Motion Picture Company", verpflichtete. Chaplin wurde ein Gehalt von 150 Dollar in der Woche zugesagt. Er verließ daraufhin am 28. November 1913 die Karno-Truppe.
Keystone Filmstudios.
Anfang Januar 1914 trat Chaplin seine neue Stelle in den "Keystone Pictures Studios" von Filmproduzent Mack Sennett an. In den ersten Wochen hatte er große Probleme, mit den chaotischen Arbeitsbedingungen bei Keystone zurechtzukommen. Chaplin war von seiner Zeit bei Karno monatelanges Proben an den Sketchen gewohnt, bis jede Geste und jede Pointe perfekt saß. Mack Sennett arbeitete dagegen meist ohne Drehbuch, seine Produktionen wurden schnell abgedreht. Sennetts Star war Ford Sterling, dessen wilde Grimassen in einem krassen Gegensatz zu Chaplins eher subtiler Komik standen.
Erst Ende des Monats wurde Chaplin in einem Film eingesetzt. Der Einakter "Making a Living" entstand unter der Regie von Henry Lehrman, der auch den Helden der Geschichte spielte. Chaplin war der Bösewicht, dessen Auftreten an den Charakter aus dem Karno-Stück "A Night in an English Music Hall" erinnerte.
Unzufrieden mit dieser Rolle, entwickelte Chaplin für die folgenden Filme eine neue Figur. Der Legende nach lieh er sich ein altes Paar Schuhe von Ford Sterling und eine übergroße Hose von Roscoe „Fatty“ Arbuckle, eine Melone von Arbuckles Schwiegervater, eine zu kleine Jacke von Charles Avery und den falschen Bart von Mack Swain. Ähnliche Kostümierungen fanden sich bereits bei den Komikern der englischen Music Halls. Der „Tramp“ trat erstmals Anfang Februar 1914 in den Filmen "Kid Auto Races at Venice" und "Mabel’s Strange Predicament" auf.
Nachdem Chaplin weder mit Henry Lehrman noch mit George Nichols zurechtgekommen war, versuchte Sennett, Chaplin in den von Mabel Normand inszenierten Filmen einzusetzen. Als es bei den Dreharbeiten von "Mabel at the Wheel" zu einem Eklat zwischen ihm und Normand kam, glaubte Chaplin bereits, dass seine Tage bei "Keystone" gezählt waren. Doch die große Nachfrage nach Filmen mit Chaplin zwang Sennett, ihm weiterhin freie Hand zu gewähren. Chaplin sollte probeweise bei einem Film Regie führen. Sein Regiedebüt "Caught in the Rain" wurde am 4. Mai 1914 veröffentlicht und avancierte zu einem der bis dahin erfolgreichsten Filme von Keystone. In den letzten sechs Monaten seines Vertrages mit Keystone führte Chaplin mit Ausnahme von "Tillies gestörte Romanze," Sennetts erstem abendfüllenden Spielfilm mit Chaplin in einer Schurkenrolle, bei allen seinen Auftritten selbst Regie.
Im Juni 1914 liefen die ersten "Keystone"-Filme mit Chaplin in Großbritannien an. Chaplin wurde von der heimischen Presse als „der geborene Leinwandkomiker“ gefeiert. Angesichts seines rasant gestiegenen Marktwertes forderte Chaplin von Sennett 1000 Dollar pro Woche bei einer Fortsetzung des Vertrages. Es kam allerdings zu keiner Einigung, sodass Chaplins Engagement bei "Keystone" Ende des Jahres 1914 nach 35 Filmen beendet wurde.
Der gefeierte Stummfilm-Komiker packte später das Rätsel um das Erfolgsrezept zu seiner Tramp-Figur in einfache Worte: „Alle meine Filme bauen auf der Idee auf, mich in Schwierigkeiten zu bringen, damit ich mich nachher verzweifelt ernsthaft darum bemühen kann, als normaler kleiner Gentleman aufzutreten.“ Zumindest nach holprigem Karrierestart wurde Chaplin, in seiner Rolle, immer als der Gute, der Nette, der Kleine wahrgenommen, der sich aber trotzdem nicht unterkriegen ließ und zum Schluss nichts hat, außer seiner Würde. Darin konnte sich auch der einfache Arbeiter mit seinen Alltagssorgen leicht wiederfinden. Die witzige Idee, sich selbst in Schwierigkeiten zu bringen, um dann mit dem Triumph über diese seine Würde und Ehrbarkeit zu beweisen, ist eine durchaus, im althergebrachten Sinn, närrische Vorgehensweise.
Essanay Filmgesellschaft.
Im November 1914 unterzeichnete Charles Chaplin einen Vertrag bei dem von den Filmpionieren George K. Spoor und Gilbert M. Anderson geführten Filmunternehmen "Essanay," der Chaplin neben einer wöchentlichen Gage von 1250 Dollar eine einmalige Zahlung über 10.000 Dollar garantierte.
Chaplin drehte im Januar 1915 seinen ersten Film, "Charlie gegen alle (His New Job)", in den veralteten Essanay-Studios in Chicago, zog danach aber zurück nach Kalifornien. Dort stellte er eine eigene Stammbesetzung zusammen, zu der Leo White, Billy Armstrong, Bud Jamison, John Rand und der spätere Regisseur Lloyd Bacon zählten. In wenigen Filmen waren zudem die später auch als Solokünstler bekannten Ben Turpin und Snub Pollard zu sehen. Auf der Suche nach einer weiblichen Hauptdarstellerin entdeckte Chaplin die 19-jährige Edna Purviance, die schließlich in 35 seiner Filme mitspielte und mit der er bis 1917 auch privat eine Beziehung hatte. Chaplin legte sich zunehmend auf die Rolle des Vagabunden fest, der in seinem sechsten Essanay-Film "Der Tramp (The Tramp)" sogar zum Titelhelden wurde. Überwog in den frühen Filmen Chaplins der Slapstick, zeigten sich in "Entführung (A Jitney Elopement)" und "Der Tramp" romantische Elemente, die in "Die Bank (The Bank)" sogar in einen traurigen Schluss mündeten.
Entstanden die ersten sieben Filme für Essanay in nur vier Monaten, versuchte Chaplin in den folgenden Monaten seine Unabhängigkeit als Filmschaffender durchzusetzen, indem er sich von der üblichen Fließbandmethode verabschiedete und sich deutlich mehr Zeit für die nächsten Projekte nahm. So wurden seine letzten beiden von insgesamt 14 Arbeiten für Essanay erst im Frühjahr 1916 veröffentlicht, als Chaplin bereits bei "Mutual Films" unter Vertrag stand.
Chaplins Popularität erreichte 1915 ihren ersten Höhepunkt:
Chaplin wurde (ohne dass er an den Einkünften beteiligt wurde) zum Mittelpunkt einer umfassenden Vermarktung, die Chaplin-Puppen, Zeitungscomics und Lieder über den kleinen Tramp beinhaltete. Das "Motion Picture Magazine" diagnostizierte für die gesamten Vereinigten Staaten einen schweren Fall von „Chaplinitis“. In Frankreich wurde der Tramp als "Charlot" verehrt. Um auch nach Chaplins Weggang von der „Chaplinitis“ zu profitieren, ließ Essanay Chaplins "Burlesque on Carmen" mit zuvor nicht verwendetem Filmmaterial auf die doppelte Laufzeit verlängern. Chaplin klagte erfolglos gegen die Veröffentlichung dieses Films.
„Der Spazierstock steht für die Würde des Menschen“, sagte Chaplin einmal zu seiner Idee des "Tramps," „der Schnurrbart für die Eitelkeit, und die ausgelatschten Schuhe für die Sorgen.“
In seiner offiziellen Biographie berichtet er, dass er sich zur Vorbereitung seines dritten Films "(Making a Living)" einen Schnurrbart angelegt habe, weil er älter wirken wollte. Klein sollte er sein, damit seine Mimik nicht verborgen bliebe. Seinem Sohn erzählte er, dass sein Trampkostüm auf einer Londoner Bühne entstand, als er für einen Komiker einspringen sollte, der viel größer als er war, und einfach dessen Kleider anzog. Sein typischer Gang war daher die Konsequenz seiner großen Schuhe.
Mutual Filmgesellschaft.
Der neue Vertrag mit "Mutual Films," der ihm ein wöchentliches Gehalt von 10.000 Dollar zuzüglich eines Bonus von 150.000 Dollar bei Vertragsabschluss garantierte, machte Chaplin zu einem der bestbezahlten Schauspieler. Seine Popularität blieb ungebrochen; als er Ende Februar 1916 zur Vertragsunterzeichnung mit dem Zug nach New York fuhr, warteten riesige Menschenmengen auf die Ankunft des Stars.
Für Chaplin wurde in Los Angeles ein neues Studio eingerichtet. Edna Purviance, Leo White und Lloyd Bacon folgten Chaplin von "Essanay" zu "Mutual". Roland Totheroh, der bereits bei einigen "Essanay"-Filmen die Kamera bedient hatte, wurde von Chaplin angeheuert. Er blieb bis 1952 Chaplins Chefkameramann. Das Ensemble vervollständigten Albert Austin und der hünenhafte Eric Campbell, der in den meisten "Mutual"-Filmen den Bösewicht spielte. Im Laufe des Jahres wurde die Crew durch Henry Bergman ergänzt, der Chaplin, als vielseitig einsetzbarer Nebendarsteller und Assistent, bis zu seinem Tod im Jahr 1946 begleiten sollte.
Chaplins Vertrag mit Mutual sah vor, dass innerhalb von zwölf Monaten zwölf Filme produziert wurden. Tatsächlich wurden die ersten acht Filme bis zum Ende des Jahres 1916 fertiggestellt, für die letzten vier benötigte Chaplin dann aber zehn Monate. Einige der "Mutual"-Filme werden heute zu Chaplins besten Filmen gezählt. Während Chaplin mit der Rollschuhbahn in "Die Rollschuhbahn (The Rink)" und einer Rolltreppe in "Der Ladenaufseher (The Floorwalker)" erneut das komische Potential ungewöhnlicher Schauplätze aufzeigte, gilt "Das Pfandhaus (The Pawnshop)" als ein Musterbeispiel für Chaplins „Komik der Transposition“, in der Gegenstände eine völlig neue Funktion einnehmen. Seine bekanntesten Filme aus der Zeit bei "Mutual" sind die 1917 fertiggestellten Zweiakter "Leichte Straße (Easy Street)," eine Parodie auf die viktorianischen Besserungs-Melodramen, und die Tragikomödie "Der Einwanderer (The Immigrant)." Chaplin bezeichnete im Rückblick diese Zeit als die glücklichste in seiner gesamten Karriere.
Für Aufsehen sorgte Ende des Jahres 1916 die nichtautorisierte Biografie "Charlie Chaplin’s Own Story," deren Erscheinen nur mit Hilfe der Gerichte verhindert werden konnte. Es setzte allerdings infolge der Auseinandersetzung in den britischen Zeitungen eine Kampagne gegen Chaplin ein, da ihm eine Klausel im Vertrag mit "Mutual Films" die freiwillige Meldung als Soldat im Ersten Weltkrieg untersagte. Chaplin sah sich genötigt, im August 1917 seine patriotische Gesinnung in einer Presseerklärung zu bekunden.
Gleichzeitig musste sich Chaplin gegen zahlreiche Nachahmer und Imitatoren wehren. So verklagte er im November 1917 mehrere Filmstudios, die mit Chaplin-Imitatoren zahlreiche Filme produziert hatten. Der bekannteste Imitator war Billy West, der in rund 50 Filmen auftrat. Auch Chaplins ehemaliger Kollege bei Karno, Stan Jefferson, der spätere Stan Laurel, trat auf der Bühne als "Tramp" auf.
First National Filmverleih und -produktion.
Nach Ablauf des Vertrags mit "Mutual" suchte Charles Chaplin einen neuen Partner, der ihm nicht nur die finanzielle, sondern auch die zeitliche Unabhängigkeit zur Vollendung seiner Filme ermöglichte. Sydney Chaplin, der seit dem Herbst 1915 die Geschäfte seines Halbbruders führte, fand diesen Partner in der First National, die mit der Verpflichtung Chaplins gegen die marktbeherrschende Position von "Paramount Pictures" antreten wollte. Es wurde ein Vertrag über acht Filme abgeschlossen, für die "First National" vorab mehr als eine Million Dollar zahlte. Chaplin wurde sein eigener Produzent, behielt die Rechte an seinen Filmen und ließ in Hollywood ein Studio nach seinen eigenen Vorstellungen errichten.
Am 15. Januar 1918 begannen die Dreharbeiten zu "Ein Hundeleben (A Dog’s Life)," die erst nach zwei Monaten beendet wurden. Direkt nach Abschluss ging der Filmschaffende gemeinsam mit Douglas Fairbanks und Mary Pickford auf eine Tournee durch die Vereinigten Staaten, um für den Kauf von Kriegsanleihen zu werben. Chaplins nächster Film sollte dann auch den Ersten Weltkrieg zum Thema haben: "Die Anleihe (The Bond)." Nach einigen Mühen, einen passenden Handlungsstrang zu finden (er arbeitete noch immer ohne Drehbuch), entstand dann auch "Gewehr über (Shoulder Arms)," der zu einem der größten finanziellen Erfolge in seiner Karriere wurde.
Privat hatte Chaplin weniger Glück. Anfang des Jahres 1918 hatte er die gerade 16 Jahre alte Schauspielerin Mildred Harris kennengelernt, mit der er eine skandalumwitterte Beziehung einging. Chaplin und Harris heirateten am 23. September 1918. Der unglückliche Verlauf der Ehe lähmte Chaplins Schaffenskraft, die Dreharbeiten für die nächsten beiden Filme "Auf der Sonnenseite (Sunnyside)" und "Charlie’s Picknick" verzögerten sich und wurden mehrmals unterbrochen. "Sunnyside" wurde schließlich im April 1919 fertiggestellt, "Charlie’s Picknick" blieb zunächst unvollendet. Am 7. Juli kam Chaplins Sohn Norman Spencer zur Welt, der aber drei Tage nach der Geburt starb.
Chaplins Schaffenskrise endete, als er in einem Theater den Vierjährigen Jackie Coogan entdeckte. Chaplin entwickelte ein neues Filmprojekt, in dem Coogan an seiner Seite spielen sollte. Chaplin erkannte, dass dieser Film deutlich länger als seine bisherigen werden sollte. Um den Wunsch von "First National" nach der baldigen Veröffentlichung eines neuen Chaplin-Films zu erfüllen, griff er während einer Produktionspause auf das Material von "Charlie’s Picknick" zurück, drehte einige neue Szenen und veröffentlichte schließlich im Dezember 1919 unter dem Titel "Vergnügte Stunden (A Day’s Pleasure)" einen Zweiakter, der in der Tradition seiner Filme bei "Essanay" und "Mutual" stand.
Voller Eifer setzte Chaplin die Arbeiten an dem Film mit Jackie Coogan, der nun seinen endgültigen Titel "The Kid" erhalten hatte, fort. Der ganz in die Arbeit versunkene Chaplin wurde von der Scheidungsanklage seiner Ehefrau überrascht. Da Mildred eine Abfindung über 100.000 Dollar ablehnte, drohte die Pfändung des nach einem Jahr endlich fertiggedrehten Films. Im August 1920 wurden daraufhin die gesamten Negative von "The Kid" heimlich nach Salt Lake City geschafft, wo Chaplin einen ersten Rohschnitt anfertigte. Kurz darauf begann der Scheidungsprozess, der am 19. November 1920 mit einer gütlichen Einigung endete. Der Premiere von "The Kid" am 6. Januar 1921 stand nun nichts mehr im Wege. Chaplins erster Langfilm wurde zu einem Riesenerfolg, der in den nächsten drei Jahren in rund 50 Ländern vertrieben wurde.
Da sich "First National" bei der Vergütung von "The Kid" wenig kooperativ gezeigt hatte, wollte Chaplin seine vertraglichen Verpflichtungen so schnell wie möglich erfüllen, zumal er inzwischen als Mitbegründer von "United Artists" einen eigenen Filmvertrieb besaß. Innerhalb von fünf Monaten entstand der Zweiakter "Die feinen Leute (The Idle Class)." Die Dreharbeiten zum nächsten Film, "Zahltag (Pay Day)," unterbrach Chaplin schon nach wenigen Tagen, um im September 1921 zu einer Europareise zu starten, die ihn erstmals seit neun Jahren wieder in seine Heimat führte. Chaplin wurde von der Begeisterung für seine Person überwältigt. Er hielt seine Erfahrungen in dem Buch "My Trip Abroad" fest.
Im November 1921 setzte er seine Arbeit an "Zahltag" fort, der sein letzter Zweiakter werden sollte. "Zahltag" wurde am 2. April 1922 uraufgeführt. Chaplins letzter Film für "First National," der Vierakter "Der Pilger (The Pilgrim)," wurde in nur 42 Drehtagen fertiggestellt. Erneute Streitigkeiten mit "First National" über die Vermarktung verzögerten aber die Premiere bis zum Februar 1923.
Erste Arbeiten mit United Artists.
Nachdem sein Vertrag bei der "First National" ausgelaufen war, konnte Chaplin endlich seinen ersten Beitrag für "United Artists" vorbereiten. Bereits im Januar 1919 beschlossen Chaplin, die Schauspieler Douglas Fairbanks und Mary Pickford sowie der Regisseur D. W. Griffith, einen unabhängigen Filmverleih zu gründen, um so einem drohenden Monopol der etablierten Studios entgegenzutreten. Am 5. Februar 1919 wurden die Verträge für die Gründung von "United Artists" unterzeichnet. Chaplin war nicht nur Gründungsmitglied, sondern auch einer der vier Teilhaber der noch nicht an der Börse notierten Firma.
Mit seinem ersten Projekt für "United Artists" erfüllte sich Chaplin den lang gehegten Wunsch, einen ernsten dramatischen Film zu drehen. Der Film sollte außerdem Edna Purviance in ihrer ersten eigenständigen Hauptrolle eine neue Karriere in reiferen Frauenrollen eröffnen, da Chaplin sie nicht mehr als eine ideale Komödienpartnerin betrachtete. Seine Bekanntschaft mit Peggy Hopkins Joyce, die durch ihre zahlreichen Ehen und Liebesaffären berühmt wurde, inspirierte Chaplin zu der in Paris angesiedelten Geschichte des Liebesdramas "Die Nächte einer schönen Frau (A Woman of Paris)," die er von November 1922 bis Juni 1923 mit Edna Purviance und Adolphe Menjou in den Hauptrollen drehte. Chaplin selbst stellte sich nur in einem wenige Sekunden dauernden Cameo-Auftritt dar, verkleidet als Gepäckträger.
Während der Dreharbeiten von "Die Nächte einer schönen Frau" stand Chaplins Beziehung zu Pola Negri im Mittelpunkt des öffentlichen Interesses. Er hatte die Schauspielerin während seiner Europareise in Berlin kennengelernt und traf sie im Oktober 1922 wieder, als sie sich auf ihr Hollywood-Debüt vorbereitete. Im Januar 1923 gaben beide ihre Verlobung bekannt, die Beziehung zerbrach jedoch bereits wenige Monate später.
Die Premiere von "Die Nächte einer schönen Frau" am 1. Oktober 1923 wurde von den Kritikern gefeiert; das von Chaplin mühsam erarbeitete zurückhaltende, subtile Spiel der Protagonisten wurde als „Abkehr der bisherigen Leinwandgewohnheiten“ verklärt und dadurch zum Vorbild zahlreicher Regisseure der späten 1920er Jahre. Das Publikum konnte sich aber mit dem für Chaplin untypischen Melodram nicht anfreunden. "Die Nächte einer schönen Frau" wurde zu seinem ersten Flop.
Um einen größeren gesellschaftlichen Skandal abzuwenden, heiratete er 1924 die sechzehnjährige Lita Grey, die für seine nächste Produktion "Goldrausch (The Gold Rush)" als seine Filmpartnerin vorgesehen war. Lita war zu diesem Zeitpunkt schwanger. Charles Chaplin junior wurde im Mai 1925 geboren. Der zweite Sohn Sydney Earle kam im März 1926 zur Welt, bevor die Ehe 1927 in einem aufsehenerregenden Prozess geschieden wurde. "Goldrausch," die Tragikomödie über die Strapazen von Goldsuchern auf der Jagd nach Reichtum, wurde im Jahre 1925 einer von Chaplins größten Erfolgen und er selbst sagte „[…] mit diesem Film möchte ich in Erinnerung bleiben.“ Im Jahre 1928 drehte Chaplin die Komödie "Der Zirkus," der als kleinerer Klassiker in seinem Werk gilt. Die Dreharbeiten von "Der Zirkus" waren von zahlreichen Problemen überschattet.
"Lichter der Großstadt" und "Moderne Zeiten".
Ende der 1920er Jahre erfolgte das Ende des Stummfilms in Hollywood, hinzu kamen die Folgen der Weltwirtschaftskrise. Das führte zu drastischen Veränderungen in Hollywood, so waren z. B. viele andere Slapstick-Komiker plötzlich nicht mehr gefragt. Trotz Warnungen seiner Kollegen drehte Chaplin mit "Lichter der Großstadt" im Jahre 1931 einen weiteren Stummfilm, da der Tramp seiner Meinung nach nur im Stummfilm funktionieren konnte. Der Film war aber nicht ganz stumm, es gab eine musikalische Tonspur, die Chaplin selbst komponierte, wodurch er nun auch erstmals zum Komponisten seiner Filme wurde. Abermals schlüpfte Chaplin in die Rolle des Tramps, der sich hier in einer gefühlskalten Stadt in ein blindes Blumenmädchen verliebt. Das Risiko lohnte sich und die romantische Komödie mit gesellschaftskritischen Untertönen wurde ein massiver Erfolg bei Kritikern und Publikum.
1931 wurde Charlie Chaplin während der Werbetour für "Lichter der Großstadt" bei der Ankunft am Bahnhof in Berlin begeistert empfangen. Doch am Bahnhof Friedrichstraße skandierten einige Dutzend Nazis lauthals „Nieder!“, wurden aber von den Hochrufen auf den Gast übertönt. Er gab Interviews mit linken Kreisen und wurde von ihnen stark vereinnahmt. Chaplin dementierte und bezeichnete sich als unpolitisch. Die rechte Presse machte daraufhin Front gegen ihn. Chaplin hielt die Weimarer Demokratie für stabil, sorgte sich aber trotzdem um politisch motivierte Aufführungsverbote seines neuen Films. Der Streifen wurde ein Erfolg und die Nazianfeindungen im Premierevorfeld schienen verhallt. In mehreren deutschen Städten versuchte die SA, Besucher von den Kinos fernzuhalten. Nach Hitlers Machtübernahme Ende Januar 1933 waren Chaplin-Filme zwölf Jahre lang im Deutschen Reich nicht mehr zu sehen.
Obwohl der Tonfilm nun bereits fest etabliert war, brachte Chaplin mit "Moderne Zeiten (Modern Times)" 1936 noch einen weiteren Stummfilm in die Kinos. Er arbeitete aber mit Toneffekten, auch um die beliebten Tonfilme zu parodieren, denen Chaplin skeptisch gegenüberstand. Er fürchtete, der Vagabund könnte an Beliebtheit einbüßen, wenn er in einer bestimmten Stimme sprechen würde. Erst am Ende des Films singt der Tramp ein Lied in einer Phantasiesprache, wie als Beleg dafür, dass es keiner Worte bedarf, um eine Geschichte zu erzählen. Der Erfolg an den Kinokassen bestätigte Chaplins herausragende Stellung als Filmkomiker. Da Chaplin in "Moderne Zeiten" die Auswüchse der Industrialisierung und des Kapitalismus kritisiert, warfen ihm konservative Kreise in den USA eine antikapitalistische und kommunistische Einstellung vor. Privat war er nun mit seiner Filmpartnerin Paulette Goddard liiert, die er 1936 heimlich heiratete.
1940: "Der große Diktator".
Am 15. Oktober 1940 war die Premiere von Chaplins erstem Tonfilm "Der große Diktator (The Great Dictator)." Chaplins satirische Parodie auf den Faschismus richtete sich symbolisch auch gegen die US-Staatsmacht und den Militarismus allgemein. Diesen Anti-Hitler-Film wollte die US-amerikanische Zensurbehörde zuerst nicht genehmigen. Die Enkeltochter Laura Chaplin gab als Grund an, die Deutschen hätten mit Wirtschaftssanktionen gedroht. Die Konservativen Amerikas unterschätzten anfangs Hitlers Machtwahn und sahen ihn als großartigen Politiker, als Verbündeten in Europa gegen den Bolschewismus Stalins. Chaplins Film passte ihnen nicht ins Konzept. Präsident Roosevelt selbst wollte den Film; für Chaplin wäre ein akut drohendes Verbot des Streifens letztlich zu riskant gewesen. Der Film war für Chaplin wirtschaftlich besonders erfolgreich. Berühmt ist die leidenschaftliche Rede Charlie Chaplins gegen Ende des Films, ein eindringlicher Appell an die Soldaten und an die ganze Welt für Demokratie, Frieden und Menschlichkeit.
Von den Nationalsozialisten wurde Chaplin irrtümlich für einen Juden gehalten. So bezeichnete Joseph Goebbels, wie ein Eintrag in seinem Tagebuch zeigt, ihn privat bereits 1928 als solchen. Spätestens seit 1931 wurde Chaplin von der NS-Presse offen als Jude tituliert. Chaplin verzichtete während der 1930er und 1940er Jahre aus Solidarität mit den Verfolgten des Nationalsozialismus darauf, diese Falschinformation zu dementieren, und stellte sie erst viel später richtig. Sein Freund Ivor Montagu meinte, dass diese Behauptung der Grund war, warum Chaplin "Der große Diktator" produzierte; denn er hatte ihn zuvor auf eine Nazischrift mit dem Satz: „Dieses kleine jüdische Stehaufmännchen ist so ekelhaft, wie es langweilig ist“, aufmerksam gemacht.
Anfang der 1940er Jahre hatte Chaplin die junge Schauspielerin Joan Barry (1920–2007) entdeckt und wollte mit ihr einen Film drehen. Sie begannen eine kurze Affäre miteinander. Nach Ende der Beziehung zeigte Barry zunehmend psychische Probleme und belästigte und bedrohte Chaplin. Nach der Geburt ihres Kindes 1943 gab sie an, dass Chaplin der Vater sei, und verklagte ihn. Ein Bluttest sprach gegen seine Vaterschaft, doch konnte Barrys Anwalt das Gericht von der Zweifelhaftigkeit der Tests überzeugen. Chaplin verlor den Prozess und musste Geld an Barry und ihr Kind zahlen. Der Skandal verschlechterte das Ansehen Chaplins in der amerikanischen Öffentlichkeit deutlich.
1942 wurde die Ehe mit Paulette Goddard geschieden. Kurz danach lernten Chaplin und Oona O’Neill (1925–1991), Tochter des Dramatikers Eugene O’Neill, einander kennen. Am 16. Juni 1943 heirateten Charlie Chaplin und die achtzehnjährige Oona O’Neill. 1944 wurde das älteste der acht gemeinsamen Kinder, die Tochter Geraldine geboren. 1946 folgte der Sohn Michael Chaplin.
1947–1952: Politische Verfolgung und Probleme bei der Wiedereinreise in die USA.
Im Oktober 1947 musste Chaplin wiederholt vor dem Komitee für unamerikanische Umtriebe "(House Un-American Activities Committee)" aussagen. Der FBI-Chef J. Edgar Hoover, ein erbitterter Gegner Chaplins, versuchte ihm die Aufenthaltsgenehmigung zu entziehen. Im Dezember 1947 veröffentlichte der Filmstar in der englischen Sonntagszeitung Reynold’s News den Artikel „Ich erkläre Hollywood und seinen Bewohnern den Krieg!“.
Obwohl Chaplin seine größten Erfolge in den USA errang, behielt er seine britische Staatsangehörigkeit. Er selbst sah sich als Weltbürger. Charles Chaplin war liberal, kritisch und später ein Pazifist und passte damit nicht in das gängige Bild, das die Regierung von einem Filmstar erwartete. Auch an seinem Lebenswandel nahm man Anstoß.
Chaplin parodierte hintergründig auch die amerikanische Gesellschaft und wurde dadurch dem Staatsapparat verdächtig. Ihm wurde mangelnde Verfassungstreue vorgeworfen. In den 1930er und 1940er Jahren konnte man sich in den USA bereits mit der spöttischen Hinterfragung der herrschenden Gesellschaftsordnung als marxistisch oder kommunistisch verdächtig machen. 1949 und 1951 bekamen die Chaplins zwei weitere Kinder: Josephine und Victoria.
Am 17. September 1952 verließ Chaplin die Vereinigten Staaten für einen Kurzbesuch in England. Anlass war die Weltpremiere seines dort spielenden Films "Rampenlicht (Limelight)." Es war die Zeit zu Beginn der McCarthy-Ära, und da das FBI unter Hoover ihn „unamerikanischer Umtriebe“ verdächtigte, erreichte der FBI-Chef beim Immigration and Naturalization Service einen Tag später, am 18. September, den Widerruf von Chaplins Wiedereinreisegenehmigung in die Vereinigten Staaten.
Zunächst erhielt er von den US-Behörden zwar noch eine Wiedereinreisegenehmigung. Doch dann wurde ihm ein Telegramm zugestellt, in dem stand, dass er bei seiner Rückkehr wie ein neuer Einwanderer zuerst nach Ellis Island zur Vernehmung müsse, wo über seine Einreise endgültig entschieden werde. Das Justizministerium stützte sich dabei auf einen Paragraphen, gemäß dem aus Gründen der „Moral, Gesundheit oder Geistesgestörtheit oder bei Befürwortung von Kommunismus oder der Verbindung mit Kommunisten oder pro-kommunistischen Organisationen“ die Einreise verweigert werden konnte.
Chaplin beschloss daraufhin, in Europa zu bleiben. Er zog im Dezember 1952 in die Schweiz und ließ sich im Anwesen Manoir de Ban oberhalb Corsier-sur-Vevey am Genfersee nieder, das er kurz darauf kaufte .
Sein früher vermuteter Geburtsort London wurde mit der Freigabe seiner britischen Geheimdienstakte als unbewiesen entlarvt. Der Abwehrchef des MI5 schrieb im Abschlussbericht an die Amerikaner: „Es ist merkwürdig, dass wir keinen Eintrag über Chaplins Geburt finden können, jedoch kann ich mir nur schwer vorstellen, dass dies für unsere Sicherheit signifikant ist.“
Erst im Jahr 1996, detaillierter 2003, wurde bekannt, dass George Orwell einer Bekannten zuliebe dem "Information Research Department (IRD)," einer 1948 gegründeten Sonderabteilung des Britischen Außenministeriums zur Bekämpfung kommunistischer Infiltration, 1949 eine Liste mit den Namen von 38 Schriftstellern und Künstlern übergeben hatte, die er prokommunistischer Tendenzen bezichtigte. Hauptsächlich enthielt diese Liste die Namen von Journalisten, jedoch stand unter anderem auch Chaplin darauf.
Philipp Bühler bescheinigt 2005 Chaplins Film "Moderne Zeiten," der „das ganze 20. Jahrhundert in einem Bild zusammenzufassen scheint“, „unverkennbar marxistische Vorzeichen“. Allerdings sei, so Bühler, Chaplin keinesfalls Kommunist gewesen. „Eher schon wollte Chaplin wissen, wie es in diesen Zeiten möglich ist, kein Kommunist zu werden.“ Bereits im Dezember 1935 meinte der Motion Picture Herald: „Er [Chaplin] ist sicher auch ein Philosoph, ein nicht allzu optimistischer, aber er ist zuallererst ein Showman – wie sein großes bürgerliches Vermögen beweist.“
Seine Hand- und Fußabdrücke von 1928 vor dem TCL Chinese Theatre wurden entfernt. Die Betonplatte mit seinen Abdrücken ist bis heute verschollen. Über die Verleihung eines Sternes für Chaplin auf dem "Hollywood Walk of Fame" gab es eine Kontroverse und aus politischen Gründen wurde ihm diese Ehrung bis 1972 verweigert.
1953–1957: "Ein König in New York".
1953 und 1957 wurden seine Kinder Eugene Anthony und Jane Cecil geboren.
1957 verarbeitete Chaplin in der Satire "Ein König in New York" "(A King in New York)" die bitteren Erfahrungen, die er im Umgang mit den USA gemacht hatte. In diesem Film prangerte er zugleich auch den frühen Obskurantismus in den USA an. Chaplin dazu: „America is so terribly grim in spite of all that material prosperity.“
In den USA wurde der Film erst 1973 gezeigt.
1959–1977: "Die Gräfin von Hongkong" und Chaplins letzte Jahre.
1959 und 1962 wurden Annette Emily Chaplin und Christopher James Chaplin geboren. 1967 drehte Chaplin den Film "Die Gräfin von Hongkong (A Countess from Hong Kong)," in dem er selbst in einer kleinen Nebenrolle als Schiffssteward zu sehen war. Der Film mit Marlon Brando und Sophia Loren in den Hauptrollen erhielt allerdings nur durchwachsene Kritiken. Nur der von Chaplin komponierte und geschriebene Filmsong "This Is My Song" wurde in der Version von Petula Clark zu einem internationalen Charterfolg. Bereits 1936 hatte Chaplin für "Moderne Zeiten" den Song "Smile" geschrieben, der über die Jahrzehnte vielfach gecovert und zum Evergreen wurde. 1970 veröffentlichte er "Der Zirkus" von 1928 mit neu komponierter und teilweise von ihm eingesungener Filmmusik erneut, 1971 folgte "The Kid" von 1921 ebenfalls mit neuer Filmmusik und neu geschnittener Fassung. Seine letzte Arbeit war 1976 eine Neukomposition für sein Stummfilm-Drama "Die Nächte einer schönen Frau" (1923).
1972 kehrte er anlässlich der Verleihung eines Ehrenoscars noch einmal kurzfristig in die Vereinigten Staaten zurück. Seine Tochter Geraldine erinnerte sich später: „Sie gaben ihm nur ein Visum für zehn Tage – wir konnten es einfach nicht fassen. Aber wir lagen falsch: Es hat ihm neuen Lebensmut gegeben. Er hat sogar ganz fröhlich erzählt: Die Amerikaner haben immer noch Angst vor mir.“ Bei der Oscarverleihung erhielt er einen zwölfminütigen Applaus vom Publikum, ein Rekord in der Oscar-Geschichte.
Nach Beendigung von "Die Gräfin von Hongkong" traten bei Chaplin ab Ende der 1960er Jahre immer häufiger körperliche Beschwerden auf; sein früherer robuster Gesundheitszustand wich in den letzten Jahren einer zunehmenden Gebrechlichkeit. Charlie Chaplin starb am 25. Dezember 1977 im Alter von 88 Jahren zu Hause in Corsier-sur-Vevey in der Schweiz.
Nach dem Tod.
In der Nacht vom 1. auf den 2. März 1978 wurde Chaplins Leichnam vom Friedhof in Corsier-sur-Vevey (Schweiz) gestohlen . Die Täter wollten von den Hinterbliebenen 600.000 Schweizer Franken erpressen. Der Plan scheiterte, sie wurden gefasst, und Chaplins sterbliche Überreste wurden erneut beerdigt.
„Es war surreal, hatte aber auch komische Seiten“, berichtete seine Tochter Geraldine. „Zur Geldübergabe sind wir mit dem Rolls Royce meiner Mutter gefahren. Im Fußraum war ein Polizist versteckt, so ein 007-Typ mit Waffe. Er neigte zur Reisekrankheit und hat sich mitten im Einsatz übergeben.“ „Ein Postbeamter hatte den Funkverkehr mitgehört. Er war in der Mittagspause und dachte: Action! Mit dem Postlaster hat er sich an uns drangehängt. Um uns herum waren überall Zivilpolizisten, die den Briefträger sofort aus dem Auto geholt haben. Besorgte Schweizer Bürger haben das dann für einen Postraub gehalten, die Nummern der Zivilstreife notiert und die örtliche Polizei auf ihre eigenen Kollegen gescheucht. Es war wie ein letzter Chaplin-Film.“
Seine Frau ließ danach eine 2 m dicke Betonschicht anbringen. Nach dem Tod seiner Witwe Oona hat man das Grab 1991 zubetoniert. Basierend darauf entstand 2008 das Theaterstück "Kidnappin’ Chaplin" von Martin Kolozs, das am 15. Juni desselben Jahres im Rahmen des 4. Tiroler Dramatikerfestivals in Österreich uraufgeführt wurde.
An der Seepromenade in Vevey am Genfersee steht eine Skulptur Chaplins , die der englische Bildhauer John Doubleday geschaffen hat.
2004 wurde in London ein Spazierstock Chaplins bei einer Auktion von Filmrequisiten für 47.800 Pfund versteigert. Ein Schnurrbart zum Film "Der große Diktator" erzielte knapp 12.000 Pfund, ein weiterer rund 18.000 Pfund.
Nach 66 Jahren Vergessenheit tauchte in der Cineteca di Bologna eine Romanvorlage mit dem Titel "Footlights" von Chaplin auf.
Der Stummfilmstar, der den Beginn der Tonfilmära lange ignorierte, war auch Filmkomponist. Heute hört man seine kurzen Stücke auch oft in Klassikkonzerten.
Das Herrenhaus in Corsier-sur-Vevey, Chaplins letztem Wohnort, zählt heute zum Schweizer Kulturerbe und ist seit April 2016 als Museum unter dem Namen Chaplin’s World (auch "Chaplin’s World by Grévin") für die Öffentlichkeit zugänglich.
Einordnung und Arbeitsweise.
Chaplin zählt mit Buster Keaton und Harold Lloyd zu den bekanntesten Komikern der Stummfilmzeit. Chaplin inszenierte gerne romantische Liebesgeschichten, bei denen die Frauen bewusst als idealisierte Sehnsuchtsobjekte in Szene gesetzt sind. Zudem mangelt es seinen Filmen nicht an Pathos. Charakteristisch ist ebenfalls Chaplins Einsatz zunächst einmal weitgehend unbekannter Schauspieler, auf deren Mitwirken er in vielen Fällen – z. B. Henry Bergman, Albert Austin und Al Ernest Garcia – teilweise über Jahrzehnte vertraute. Eine seiner längsten Partnerschaften hatte er mit seinem ständigen Kameramann Roland Totheroh, der ihn zwischen 1916 und 1947 bei fast allen Filmen begleitete.
Zu Kameraführung und Tricks in seinen Filmen bemerkte Chaplin: „Ich persönlich verabscheue alle Tricks: Eine Aufnahme durch das Kaminfeuer vom Blickpunkt eines Stücks Kohle aus oder die Fahraufnahme, mit der der Schauspieler durch die Hotelhalle begleitet wird, als wenn jemand mit dem Fahrrad hinter ihm herführe; mir kommt so etwas billig und zu dick aufgetragen vor.“ Solch „pompöse Effekte“ seien langweilig und würden fälschlicherweise mit dem viel strapazierten Wort „Kunst“ bezeichnet. Die Kamera dürfe sich nicht in den Vordergrund spielen, sondern müsse den Bewegungen des Schauspielers folgen. „Die Kardinaltugend beim Filmen ist immer noch die richtige Zeitökonomie“, also mit schnellen Schnitten und einer guten Auflösung einer Szene. Gegen die Kritik, seine Kameraführung sei altmodisch und gehe nicht mit der Zeit, wehrte sich Chaplin in seiner Autobiografie, dass die Technik das Ergebnis seines eigenen Nachdenkens über Logik und Auffassung sei. „Wenn Kunst mit der Zeit gehen muss, dann wäre Rembrandt nicht mehr als ein Vorläufer von Van Gogh“.
Chaplin gehörte zu den Gründervätern der Traumfabrik und auch der Filmkomödie im Allgemeinen, aber er war kein Hollywoodstar, als der er oft bezeichnet wird: Hollywood gab es noch gar nicht, während er schon ein Star war. Vom späteren Hollywood mit seinem Studiosystem distanzierte Chaplin sich beispielsweise in seiner Autobiografie stark. Ihm war als Filmemacher insbesondere eine künstlerische Unabhängigkeit wichtig, die es im Studiosystem kaum gab. Auch ist es nicht zutreffend, dass in seinen Filmen immer das „Gute im Menschen“ propagiert würde. In seinen frühen Werken gab es durchaus Brutalität und einen Charlie, der nicht der Nette war. In einem Film gibt er einem Kind ganz unbedarft eine Schusswaffe. Über die Schauspielerei äußerte er sich, dass ein großer Schauspieler – auch wenn das egozentrisch klinge – sich in dieser bestimmten Rolle lieben würde. Über Schauspieltechniken wie Method Acting äußerte sich Chaplin nicht grundsätzlich schlecht, kritisierte aber, dass so etwas nicht gelehrt werden könne: „Wenn es notwendig ist, an einem Schüler geistige Operationen vorzunehmen, dann beweist das, dass dieser Schüler die Schauspielerei aufgeben sollte.“
Chaplin setzte Meilensteine in der Filmgeschichte. So ist „The Kid“ eine zuvor noch nicht dagewesene Verknüpfung von Filmkomödie und Sozialdrama. Das Fernsehmagazin Prisma schreibt in seiner Chaplin-Kurzbiografie, dass er der erste „Weltstar des Films“ gewesen sei und in seiner Bedeutung für die Künste des 20. Jahrhunderts nur mit jener von Pablo Picasso vergleichbar sei.
Der Philosoph und Literaturkritiker Walter Benjamin hob bereits 1929 die besondere Rolle des Humors im Film, als Auslöser eines „Affekt des kollektiven Gelächters“, hervor: „Chaplin hat sich in seinen Filmen“, notierte Benjamin noch vor "Moderne Zeiten," „an den zugleich internationalsten und revolutionärsten Affekt der Massen gewandt, das Gelächter.“ Diesem Lachen kann seiner Theorie zufolge unter bestimmten Umständen durchaus heilende Wirkung zugeschrieben werden; besonders, wenn wie bei Chaplin eine Relativierung und Entlarvung vorhandener Konflikte in der Gesellschaft auf sinnlicher Ebene vorausgeht.
Romancier.
66 Jahre nach der Entstehung tauchte in einem Filmarchiv der "Cineteca di Bologna" eine Romanvorlage mit dem Titel "Footlights" von Chaplin auf. Die Story um eine Tänzerin und einen Clown bildete eine Grundlage für das Drehbuch von "Limelight."
Chaplin war bereits als Jugendlicher mit Gesangsdarbietungen im Stadtviertel Soho (London) aufgetreten, bevor er als Schauspieler auf Bühnen mit noch nicht elektrischer Bühnenbeleuchtung stand. Mit Beginn des zweiten Drittel des 19. Jahrhunderts wurden die Petroleum- und Gaslampen des Rampenlichts vielerorts durch Drummondsches Licht ergänzt oder ersetzt (englische Bezeichnung "Limelight," häufig mit „Rampenlicht“ übersetzt). Chaplin nannte seinen Roman im Entwurf "Footlight," für althergebrachte, gleißend helle „Kalklichter“: Fußlichter, die unten und an einer Bühne zur Beleuchtung stehen.
Nach Angaben des Filmhistorikers David Robinson ließ sich der Filmschaffende für den Handlungsstrang durch eine „kurze, aber entscheidende Begegnung mit dem russischen Choreografen Vaslav Nijinsky im Jahr 1916“ inspirieren. Laut der Kinemathek von Bologna erinnert der Schreibstil des Skripts an den Romanschreiber Charles Dickens, vor allem aufgrund der ausgefeilten Herausarbeitung der Roman-Charaktere.
Die Kinemathek von Bologna zählt zu den führenden Institutionen für Film-Rekonstruktionen weltweit. Ihr übergab die Familie des Verstorbenen seinen Nachlass mit der Maßgabe, das filmische Œuvre von Chaplin wiederherzustellen. Im Nachlass fanden sich mehrere getippte Manuskriptversionen. Die nun veröffentlichten Romanfragmente sind in dem Buch "Footlights with The world of limelight" mit Dokumenten und Fotos aus dem Nachlass des Künstlers illustriert. Robinson fungierte dabei als Mitautor, die "Cineteca di Bologna" als Herausgeber.
Theaterstücke.
2008: "Kidnappin' Chaplin" von Martin Kolozs, UA 15. Juni 2008, Auftragswerk für das 4. Tiroler Dramatikerfestival, Österreich. |
801 | 1765216 | https://de.wikipedia.org/wiki?curid=801 | Candela | </math>
Die Candela (lateinisch für ‚Kerze‘, Betonung auf der zweiten Silbe: []) ist die SI-Einheit der Lichtstärke, also des auf den Raumwinkel bezogenen Lichtstroms.
Der Wert der Einheit wurde so gewählt, dass eine Haushaltskerze eine Lichtstärke von etwa 1 cd hat. Daher rührt auch der aus der lateinischen Bezeichnung für Kerze abgeleitete Name "Candela". Diese Bezeichnung wurde 1948 eingeführt. Sie ersetzte ab 1967 vollständig den zuvor verwendeten Namen Neue Kerze.
Definition.
Zusammenhang mit dem Lumen.
Die Lichtstärke formula_1 in einer bestimmten Richtung ist der Quotient aus dem von der Lichtquelle in diese Richtung ausgesandten Lichtstrom formula_2, gemessen in der Einheit Lumen (lm), und dem durchstrahlten Raumwinkel formula_3, gemessen in Steradiant (sr). Für die Einheit gilt daher:
Eine Lichtquelle, die einen Lichtstrom von formula_5 erzeugt und dieses Licht in alle Richtungen (formula_6) mit gleichmäßiger Lichtstärke abstrahlt, hat in alle Richtungen die Lichtstärke formula_7.
Anbindung an das Watt.
Die Candela ist dadurch definiert, dass für Licht einer bestimmten Frequenz der Strahlungsfluss (gemessen in Watt) durch einen festen Faktor in den Lichtstrom (gemessen in Lumen) umgerechnet wird. Die Definition lautet:
Dies entspricht der Formel:
Diese Definition wurde 1979 beschlossen und gilt seitdem unverändert. Nur der Wortlaut wurde 2019 im Rahmen der Revision des Internationalen Einheitensystems angepasst. Die genannte Frequenz von 540 THz entspricht grünem Licht mit der Wellenlänge ≈ 555 nm.
Photometrischer Hintergrund.
Licht ist vom Auge wahrnehmbare elektromagnetische Strahlung. Das Auge ist jedoch für unterschiedliche Wellenlängen verschieden empfindlich. Um den von einer gegebenen Strahlung auf das Auge ausgeübten Lichtreiz zu ermitteln, muss für jede Wellenlänge des vorliegenden Wellenlängengemischs die Strahlungsleistung mit einem wellenlängenabhängigen Umrechnungsfaktor, dem photometrischen Strahlungsäquivalent, multipliziert werden. Auf diese Weise ergibt sich aus der radiometrischen Größe „Strahlungsleistung“, gemessen in Watt, die zugehörige photometrische Größe „Lichtstrom“, gemessen in Lumen. Einer in Watt durch Steradiant gemessenen Strahlstärke entspricht eine in Lumen durch Steradiant, also Candela, gemessene Lichtstärke. Der Verlauf der für die Umrechnung benötigten Kurve der spektralen Wahrnehmungsfähigkeit des menschlichen Auges ist durch Normung festgesetzt. Die Definition der Candela bestimmt den Maßstabsfaktor für diese Kurve, indem sie für einen Punkt auf der Kurve den oben genannten Zahlenwert festlegt.
Wahl der Wellenlänge.
Die Definition gibt die Frequenz der Referenzstrahlung an, nicht ihre Wellenlänge. Auf diese Weise erübrigt es sich, einen Brechungsindex für das umgebende Medium zu spezifizieren.
In Luft unter Normalbedingungen entspricht der genannten Frequenz von 540·1012 Hertz die Wellenlänge 555 nm (grünes Licht). Auf dieser Wellenlänge hat das menschliche Auge bei Tagsehen die höchste Empfindlichkeit. Zufälligerweise schneiden sich in unmittelbarer Nähe dieser Wellenlänge (nämlich bei ca. 555,80 nm) die Empfindlichkeitskurven des Auges für Tag- und Nachtsehen, "K"(λ) und "K′"(λ). Die Definition ist daher laut SI und DIN sowohl für Tag- als auch für Dämmerung- und Nachtsehen gültig.
Candela als Basiseinheit.
Die Wahl der Lichtstärke als photometrische Basisgröße und damit der Candela als Basiseinheit erscheint zunächst wenig nachvollziehbar, da der Lichtstrom durch seine Verknüpfung mit der Strahlungsleistung als die fundamentalere Größe anzusehen ist. Zur Anfangszeit der Photometrie jedoch, als der visuelle Vergleich von Lichtquellen im Vordergrund stand, war die Lichtstärke diejenige Eigenschaft der Quellen, die am einfachsten einem Vergleich zugänglich war und die daher als die fundamentale photometrische Größe eingeführt wurde. Die Internationale Beleuchtungskommission und das beratende Komitee "(Comité Consultatif de Photométrie et Radiométrie – CCPR)" des Internationalen Büros für Maß und Gewicht (BIPM) sprachen sich bei der Formulierung der neuen Definition 1979 dafür aus, dass das Lumen die Candela als Basiseinheit ablösen sollte. Dies wurde aber abgelehnt, weil man zu viele Änderungen befürchtete.
Geschichte.
Ursprünglich wurden Maßeinheiten für die Lichtstärke über standardisierte Referenzlichtquellen definiert, wie die Hefnerkerze. Mit deren Flammen konnte eine zu messende Lichtquelle als heller oder weniger hell verglichen werden.
Auf dem ersten internationalen Elektrizitätskongress 1881 schlug Jules Violle ein Eichmaß auf der Basis eines planckschen Strahlers (Schwarzer Körper) vor.
Nachdem das beratende Komitee für Photometrie bereits 1937 eine entsprechende Resolution beschlossen hatte, wurde die Candela 1946 eingeführt (vor der Ratifizierung durch die CGPM 1948 noch als „Neue Kerze“ bezeichnet) und war bis 1979 wie folgt definiert (offizielle deutsche Übersetzung des ab 1967 gültigen Wortlauts):
Diese Definition stellte einen Zusammenhang zwischen der radiometrischen Strahlstärke und der entsprechenden photometrischen Lichtstärke eines Schwarzen Strahlers bei einer Temperatur 2045 K her. Bei dieser Temperatur hat die spektrale Strahldichte ihr Maximum bei λ ≈ 1,4 μm, d. h. im nahen Infrarot.
Die experimentelle Realisierung dieser Definition war nur mit großem Aufwand zu erreichen. Sie erforderte Platin, das eine hohe Reinheit aufwies und während der Messung behielt, einheitlich gleiche Temperatur, genaue Messung von Raumwinkel und Einfluss der Linsenoptik sowie die genaue Berücksichtigung von Absorption durch Luft und Dampf. Nur wenige Laboratorien verfügten über entsprechende Messapparaturen, und die Ergebnisse waren nur zu ca. 1 % reproduzierbar. Überdies wiesen die meisten kommerziellen Lichtquellen deutlich höhere Farbtemperaturen auf, als erstarrendes Platin. Eine Verbesserung dieser Situation war nicht zu erwarten. Radiometrische Messungen, also direkte Messungen der Strahlungsleistung, konnten hingegen immer genauer durchgeführt werden. Daher wurde 1979 die neue Definition vorgenommen.
Durch die Wahl der genannten Frequenz und des Zahlenwertes 683 lm/W für das photometrische Strahlungsäquivalent bei dieser Frequenz schließt die neue Definition von 1979 unmittelbar an die vorhergehende Definition an. Sie ist aber nun nicht mehr von der schwierigen Realisierung eines Schwarzen Strahlers bei einer hohen Temperatur abhängig. Zudem trägt sie durch die Beschränkung auf monochromatische Strahlung den modernen Möglichkeiten zur Messung der optischen Strahlungsleistung Rechnung und führt außerdem die Messaufgabe auf den wesentlich fundamentaleren Fall monochromatischer Strahlung zurück. Die neue Definition ist auch allgemeiner: Sie erlaubt jetzt beispielsweise die Empfindlichkeitskurven des Auges unmittelbar zu "messen", während sie früher implizit in ihrem gesamten Verlauf Bestandteil der Definition waren. Die vorherige Definition lieferte einen exakten photometrischen Wert nur für einen Spezialfall mit einer komplexen breitbandigen Wellenlängenverteilung. |
802 | 878287 | https://de.wikipedia.org/wiki?curid=802 | Calcium | Calcium (eingedeutscht Kalzium geschrieben) ist ein chemisches Element mit dem Elementsymbol Ca und der Ordnungszahl 20. Im Periodensystem steht es in der zweiten Hauptgruppe, bzw. der 2. IUPAC-Gruppe und zählt daher zu den Erdalkalimetallen. Die Schreibweise "Calcium" entspricht der IUPAC-Norm und gilt als fachsprachlich.
Elementares Calcium ist ein glänzendes, silberweißes Metall. In der Erdhülle ist es, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff, Silicium, Aluminium und Eisen das fünfthäufigste Element. Aufgrund seiner starken Reaktivität kommt es nur chemisch gebunden als Bestandteil von Mineralien vor. Zu diesen gehören z. B. Calcit, Aragonit und Dolomit in Kalkstein, Marmor und Kreide sowie Gips (Calciumsulfat). Hydroxylapatit (Calciumphosphat) ist ein wesentlicher Bestandteil von Knochen und Zähnen.
Geschichte.
Der Name „Calcium“ ist vom lateinischen Wort "calx" abgeleitet. So bezeichneten die Römer Kalk, Kalkstein, Kreide und aus Kalk hergestellten Mörtel (Baukalk).
Elementares Calcium gewann erstmals Humphry Davy 1808 durch Abdampfen des Quecksilbers aus elektrolytisch gewonnenem Calciumamalgam.
Vorkommen.
In der Umwelt kommt Calcium nur in gebundener Form vor, zum Beispiel in Kalkstein, Marmor, Kreide, Gips und den Mineralien Calcit, Aragonit, Dolomit, Anhydrit, Fluorit und Apatit. Eine Ausnahme stellt vermutlich eine Fluorit-Varietät („Stinkspat“) dar, in dessen Kristallgitter wahrscheinlich kolloidales Calcium durch natürliche ionisierende Strahlung entstand. Calciumhaltige Minerale wie Calcit und Gips sind in großen Mengen vorhanden (z. B. bestehen in den Alpen gebirgsbegleitende Züge aus Kalkstein – Nördliche Kalkalpen bzw. Südliche Kalkalpen).
Calciumverbindungen sind wasserlöslich, wobei die Löslichkeit von Calcium im Grundwasser wesentlich vom Kohlensäure-Überschuss bestimmt wird (Kalksättigung). Daher ist die Frage, welche Calciumverbindung im Grundwasser stabil ist, im Wesentlichen abhängig vom pH-Wert des Grundwassers. Als Calciumverbindung überwiegen bei mittleren bis alkalischen pH-Werten Calcit (Ca[CO3]) und Gips (Ca[SO4] · 2H2O). Bei niedrigem pH-Wert tritt Calcium als Ca2+ auf.
Haupteintragsprozess von Calcium in das Grundwasser ist die Verwitterung calciumhaltiger Gesteine wie Kalkstein.
Als essentieller Bestandteil der belebten Materie ist Calcium am Aufbau von Blättern, Knochen, Zähnen und Muscheln beteiligt. Neben K+ und Na+ spielt Ca2+ eine wichtige Rolle bei der Reizübertragung in Nerven- und Muskelzellen. Aber auch in anderen Zellen spielen Calcium-Ionen eine wichtige Rolle bei der Signaltransduktion.
Eigenschaften.
Calcium ist ein leichtes, sehr duktiles, silbriges Metall, dessen Eigenschaften den schwereren Erdalkalimetallen Magnesium, Strontium, Barium und Radium sehr ähnlich sind. Es kristallisiert in der kubischen flächenzentrierten Anordnung wie Strontium. Oberhalb von 450 °C verwandelt es sich in eine hexagonale Kristallstruktur wie Magnesium.
Es ist ein guter elektrischer Leiter und Wärmeleiter. Beim Erhitzen geht es zuerst in einen flüssigen, dann in einen gasförmigen Zustand über und verliert seine metallischen Eigenschaften. Wenn es unter Druck gesetzt wird, beginnt es, seine metallischen Eigenschaften und seine elektrische Leitfähigkeit zu verlieren. Wenn der Druck jedoch weiter erhöht wird, werden die metallischen Eigenschaften wiederhergestellt und es zeigt die Eigenschaften eines Supraleiters, der andere Elemente in diesen Parametern um ein Vielfaches übertrifft.
Calcium ist weicher als Blei, lässt sich aber mit einem Messer nicht schneiden. In der Luft läuft es schnell an. Mit Wasser reagiert es heftig unter Bildung von Calciumhydroxid und Wasserstoff.
An der Luft verbrennt es zu Calciumoxid und – geringfügig – Calciumnitrid. Fein verteiltes Calcium ist selbstentzündlich (pyrophor).
Beim Erhitzen reagiert es mit Stickstoff, Wasserstoff, Kohlenstoff, Silicium, Bor, Phosphor, Schwefel und anderen Substanzen. Im Freien reagiert es sofort mit Sauerstoff und Kohlenstoffdioxid, sodass es mit einer grauen Beschichtung überzogen wird.
Es reagiert heftig mit Säuren und geht manchmal in Flammen auf. Aufgrund seiner hohen Reaktivität wird elementares Calcium im Labor in einem dunklen Glas mit fest geschlossenem Deckel und unter einer Schicht Paraffin oder Kerosin gelagert.
Calcium gehört zu den Erdalkalimetallen. Es liegt in chemischen Verbindungen fast nur in der Oxidationszahl +2 vor.
Herstellung.
Das Metall wird unter Vakuum durch Reduktion von gebranntem Kalk (Calciumoxid) mit Aluminiumpulver bei 1200 °C hergestellt. Aluminium hat zwar eine geringere Reaktivität und Enthalpie als Calcium, sodass das Gleichgewicht der Reaktion
eigentlich fast völlig auf der linken Seite dieser Gleichung liegt, trotzdem funktioniert dieser Herstellungsprozess, weil das entstehende Calcium bei dieser Temperatur ständig verdampft und so aus dem Gleichgewicht verschwindet. Eine Reinigung erfolgt durch Destillation des Calciums.
Verwendung.
"Metallisches Calcium" dient als Reduktionsmittel in der Metallurgie zur Herstellung von Metallen wie Thorium, Vanadium, Zirconium, Yttrium und anderen Metallen der Seltenen Erden, als Reduktionsmittel in der Stahl- und Aluminiumherstellung, als Legierungszusatz in Aluminium-, Beryllium-, Kupfer-, Blei- und Magnesiumlegierungen und als Ausgangsstoff für die Herstellung von Calciumhydrid.
Die technische Nutzung des Calciums erfolgt überwiegend in gebundener Form.
Kalkstein (überwiegend Calciumcarbonat, CaCO3) und Dolomit (CaMg(CO3)2) sind zwei der wichtigsten Rohstoffe der heutigen Industrie:
Aufgrund seiner Funktionen in Organismen wird Calcium auch als Medikament eingesetzt.
Nachweis.
Neben der bei Calcium orange-roten Flammenfärbung weist man Calcium-, Strontium- und Barium-Kationen mit Schwefelsäure oder Ammoniumsulfatlösung nach. Bei dieser Nachweisreaktion entstehen weiße, säure-unlösliche Niederschläge. Auch mit Carbonat-, Oxalat- und Dichromat-Anionen können Niederschläge unterschiedlich geringer Löslichkeit erzeugt werden. Deren genauere Untersuchung lässt dann eine Unterscheidung der Erdalkalimetall-Kationen zu (vgl. unter Kationentrenngang und Ammoniumcarbonatgruppe).
In der Routineanalytik (Klinische Chemie, Umweltchemie, Wasserchemie) wird Calcium bis in den Spurenbereich mit der Flammenphotometrie quantitativ bestimmt. Die Bestimmungsgrenze liegt bei 100 µg/l. In höheren Konzentrationen ist auch die Titration mit EDTA gegen Eriochromschwarz T möglich. Zur gravimetrischen Bestimmung von Calcium fällt man dieses mit Oxalat und glüht es bei 600 °C aus, um die Wägeform Calciumcarbonat zu erhalten.
Präanalytik.
Die Calcium-Konzentration wird in der Routine-Labordiagnostik in Blut und Urin bestimmt. Calcium ist ein wichtiger Parameter in der Diagnostik des Knochen- und Calciumstoffwechsels. Als Blutprobe kann sowohl Serum als auch heparinisiertes Plasma verwendet werden; entsprechend wird die Calcium-Konzentration im Blut kurz als Serumcalcium oder Plasmacalcium bezeichnet. Zu beachten ist bei Plasma, dass kein Calcium-bindendes Antikoagulans (wie Citrat oder EDTA) verwendet wird. Ein zu langes Stauen der Vene vor der Blutentnahme kann zu falsch erhöhten Werten führen.
Analytik.
Calcium liegt im Blut zu 50 % als Ca2+-Ionen, zu 35 % an Proteine (Albumin, Globuline) gebunden und zu 15 % komplexgebunden (Bicarbonat, Lactat, Citrat, Phosphat) vor. Der Serumwert des Calcium bewegt sich in engen Grenzen bei einem normalen "Gesamtcalcium" von 2,2 bis 2,6 mmol/L (9 bis 10,5 mg/dL) und einem normalen "ionisierten Calcium" von 1,1 bis 1,4 mmol/L (4,5 bis 5,6 mg/dL). Die biologischen Effekte von Calcium werden durch die Verfügbarkeit freier Calciumionen bestimmt, ausschlaggebend ist daher das ionisierte Calcium.
Die totale Calcium-Konzentration (Gesamtcalcium) im Blut ist von der Albumin-Konzentration abhängig und muss entsprechend korrigiert werden. Alternativ wird direkt die Konzentration des ionisierten Calciums gemessen. Das Gesamtcalcium im Serum wird mittels Absorptionsspektrometrie oder Flammenatomemissionspektrometrie bestimmt. Dabei werden die physikalischen Eigenschaften von Calcium ausgenutzt.
Ionisiertes Calcium wird mit ionenselektiven Elektroden bestimmt.
Interpretation.
Die Calciumkonzentration ist im Körper äußerst eng kontrolliert. Eine erhöhte Calciumkonzentration wird als Hyperkalzämie, eine erniedrigte Calciumkonzentration wird als Hypokalzämie bezeichnet. Spezifische Ursachen und Symptome finden sich dort.
Die genauen Werte sind abhängig vom Messverfahren, weshalb der vom Labor angegebene Referenzwert ausschlaggebend ist. Bei Kindern liegen die Werte etwas höher als bei Erwachsenen.
Funktionen im Organismus.
Calcium ist ein Mengenelement (Definition: Element mit mehr als 50 mg pro kg Körpergewicht) und gehört damit nicht zu den Spurenelementen. Mit einem Körperbestand von 1 bis 1,1 kg ist Calcium der mengenmäßig am stärksten vertretene Mineralstoff im menschlichen Organismus. 99 % des im Körper vorkommenden Calciums befinden sich gebunden in Knochen (über 90 %) und Zähnen – die calciumreiche Verbindung Hydroxylapatit (Ca5(PO4)3(OH)) verleiht ihnen Stabilität und Festigkeit. Gleichzeitig dienen die Knochen als Speicher für Calcium – bei Calciummangel kann ein Teil davon aus den Knochen gelöst und für andere Aufgaben zur Verfügung gestellt werden. Die Knochenentkalkung, Osteoporose, kommt vor allem bei älteren Menschen vor. Zur Prävention der Osteoporose trägt eine vermehrte Calcium-Aufnahme von etwa 1 g/Tag bei (Basistherapie DVO).
Innerhalb der Zellen ist Calcium entscheidend an der Erregung von Muskeln und Nerven, dem Glykogen-Stoffwechsel, der Zellteilung sowie an der Aktivierung einiger Enzyme und Hormone beteiligt. Wie erstmals Setsuro Ebashi nachwies, führt erst der Einstrom von Calcium-Ionen in die Muskelzellen zu einer Kontraktion der Muskulatur. Außerhalb der Zellen ist Calcium an der Blutgerinnung und der Aufrechterhaltung der Zellmembranen beteiligt. Im Blutserum muss ständig eine Konzentration von 2,1 bis 2,6 mmol/l Calcium gegeben sein, wobei etwa 1 bis 1,5 mmol/l in ionisierter Form vorliegen. Sie wird durch die Hormone Calcitriol, Calcitonin und Parathormon reguliert. Nur 0,1 % des im Körper vorhandenen Calciums findet sich im Extrazellularraum, davon sind 30 bis 55 % an Proteine gebunden, 5 bis 15 % liegen in Form von Komplexen vor (z. B. Calciumhydrogencarbonat, Calciumcitrat, Calciumsulfat, Calciumphosphat oder Calciumlactat). Nur ca. 50 % des extrazellulären Calciums liegt in frei ionisierter und damit in biologisch aktiver Form vor. Symptome der Hypokalzämie treten erst bei einem Mangel dieses ionisierten Calciumanteils auf.
Tagesbedarf.
DGE, ÖGE, SGE Referenzwerte.
Die D-A-CH Referenzwerte der Deutschen Gesellschaft für Ernährung, der Österreichischen Gesellschaft für Ernährung und der Schweizerischen Gesellschaft für Ernährung (2012); die tolerierbaren Höchstaufnahmemengen wurden von der Europäischen Behörde für Lebensmittelsicherheit (European Food Safety Authority, EFSA) 2006 herausgegeben:
Food and Nutrition Board (US) Referenzwerte.
Die Empfehlungen des US-amerikanischen Food and Nutrition Board (FNB) at the Institute of Medicine of the National Academies (November 2010):
Großbritannien.
In Großbritannien liegt die Empfehlung für die tägliche Kalziumaufnahme von Erwachsenen bei 700 mg.
Aufnahme.
Die Aufnahme (Resorption) findet sowohl über aktiven als auch passiven Stofftransport in der Schleimhaut des Dünn- und Dickdarms statt. Der aktive Transport, bei dem somit Energie benötigt wird, findet überwiegend im Zwölffingerdarm (Duodenum) statt und wird durch Calcitriol aktiviert. Der passive Transport, der wegen des Konzentrationsgradienten vonstattengeht, findet auch vor allem im Dünndarm statt. Der Mensch resorbiert zirka 30 % des Calciums aus der Nahrung, dieser Prozentsatz variiert aber je nach Nahrungszusammensetzung. Auch andere Faktoren nehmen Einfluss auf die Calciumresorption. Die Effizienz der Resorption nimmt bei steigender Calciumaufnahme ab. Bei Säuglingen und Kindern im Wachstum liegt die Resorptionsrate bei bis zu 60 %, da diese für den Knochenaufbau viel Calcium benötigen. Die Resorptionsrate fällt auf bis zu 15 bis 20 % bei Erwachsenen, wobei der Bedarf bei Frauen in der Schwangerschaft wieder ansteigt.
Risikogruppen für eine unzureichende Calciumzufuhr sind junge Frauen, Schwangere, Stillende und Senioren.
Voraussetzung dafür, dass Calcium in größeren Mengen vom Körper aufgenommen werden kann, ist eine ausreichende Versorgung mit Vitamin D3. Durch die gleichzeitige Zufuhr von Oxalsäure und Phytinsäure sowie deren Salze (Oxalate, Phytate) wird die Calciumresorption verringert. Ausgeschieden wird Calcium über den Urin, wobei unter anderem eine hohe Zufuhr von Proteinen, Speisesalz, Kaffee oder Alkohol die Calciumausscheidung erhöht.
Das spezifische Aminosäuren-Profil – besonders von schwefelhaltigen Aminosäuren – bestimmt den calciuretischen (die Calciumausscheidung über die Niere fördernden) Effekt der Nahrungsproteine. Sulfate, die im Stoffwechsel aus solchen Aminosäuren gebildet werden, erhöhen die Acidität des Urins, was zur Folge hat, dass größere Calciummengen in den Urin abgeschieden werden. Schwefelhaltige Aminosäuren finden sich sowohl in Nahrung tierischer Herkunft wie auch in Nahrungspflanzen, zum Beispiel Getreide.
Calciumquellen.
Ungefähre Calciumgehalte in mg pro 100 g Lebensmittel (verzehrbarer Anteil):
Gesundheitliche Risiken.
Im Gegensatz zum Nierengesunden kann ein Dialyse-Patient überflüssiges Calcium nicht über den Urin ausscheiden, und auch der Knochen nimmt in der Regel das angebotene Calcium nicht auf. So besteht die Gefahr, dass sich Calcium in Gefäßen und Weichteilen absetzt. Calciumcarbonat, angewendet als Phosphatbinder, kann zur kardiovaskulären Verkalkung beitragen. Eine über zwei Jahre durchgeführte Studie aus dem Jahr 2004 zeigte eine stetige Korrelation zwischen der Einnahme von Calciumcarbonat und voranschreitender Arterienverkalkung bei Hämodialyse-Patienten.
Im Jahre 2010 publizierten Bolland u. a. im "British Medical Journal" eine Metaanalyse, die behauptet, dass Calciumpräparate ohne Cholecalciferol (Vitamin D3) das Herzinfarktrisiko um bis zu 30 % steigern. Dieser Effekt soll dosisabhängig ab einer täglichen Supplementierung von 500 mg Calcium ohne Vitamin D3 auftreten. Auch Schlaganfälle und Todesfälle traten in der Calciumsupplementgruppe vermehrt auf. Diese Arbeit wurde bezüglich ihrer Methodik kritisiert. Die Arzneimittelkommission der deutschen Ärzteschaft erkannte in den von Bolland u. a. vorgelegten Daten keinen ausreichenden Beleg für ein erhöhtes Herzinfarktrisiko durch die Anwendung von Calciumsupplementen. In einer Stellungnahme verwies die Kommission zudem darauf, dass die in der Metaanalyse untersuchte alleinige Gabe von Calcium zur Korrektur einer osteoporotischen Stoffwechselstörung ohne zusätzliche Gabe von Vitamin D3 in den gültigen deutschen Leitlinien nicht empfohlen wird. Andererseits sei auch der Nutzen der kombinierten Substitution von Calcium und Vitamin D3 zur Prävention von Frakturen begrenzt und abhängig von Faktoren wie der Calciumzufuhr über die Nahrung, der Vitamin-D-Serumkonzentration, dem Lebensalter, einer Unterbringung in einem Pflegeheim und dem Ausgangsrisiko für Frakturen. Es gebe keine aussagekräftigen Daten, die belegen, dass eine Calciumsupplementierung bei Menschen mit normaler Calcium- und Vitamin-D3-Versorgung von Nutzen ist. Andererseits ließen sich negative Auswirkungen wie ein erhöhtes Risiko für Nierensteine nachweisen. Calciumsupplemente könnten deshalb nicht generell empfohlen werden. Es müssten vielmehr Risikogruppen identifiziert werden, die voraussichtlich von einer zusätzlichen Calciumgabe profitieren. Die Gesamtcalciumaufnahme (Nahrung plus Supplement) sollte nach Meinung der Kommission 1000 bis 1500 mg betragen.
Auch Studien aus dem Jahr 2013 weisen auf eine erhöhte Mortalität durch eine Über-Substitution von Calcium hin. Eine schwedische Studie zeigt, dass Frauen, die unnötigerweise mit Calcium substituiert wurden, obwohl genügend Calcium über die Nahrung aufgenommen wurde, eine erhöhte Mortalität aufwiesen. Für Männer wurde in einer anderen Studie ein erhöhtes Herz-Kreislauf-Risiko durch Calciumsubstitution festgestellt.
Zwei prospektive Kohortenstudien zeigten, dass der Konsum von Calciumdosen > 2000 mg pro Tag mit einem erhöhten Risiko für Prostatakrebs einhergeht. Zwei andere prospektive Kohortenstudien brachten keinen Zusammenhang für Calciumdosen von 1330 und 1840 mg pro Tag. Als Hintergrund für die Risikoerhöhung wird eine mangelhafte Produktion von Vitamin D3 verdächtigt. Eine hohe Calciumzufuhr vermindert die körpereigene Cholecalciferol-Produktion, und präklinische Studien zeigten mehrere potenziell nützliche Effekte des Vitamins bezüglich Prostatakrebs. In welchem Ausmaß der Calciumkonsum im Verhältnis zum Fettkonsum (aus Milch und Milchprodukten) zum Risiko beiträgt, ist unklar.
Verbindungen.
In Verbindungen kommt Calcium fast ausschließlich als zweiwertiges Kation mit dem Oxidationszustand 2 vor.
Oxide und Hydroxide.
Calciumoxid ist eine weiße kristalline Substanz, die mit Wasser unter starker Wärmeentwicklung reagiert. Es bildet Kristalle in der Natriumchlorid-Struktur. Gebrannter und anschließend mit Wasser gelöschter Kalk wird in der Bauindustrie als Beimischung zu Mörtel und Putzen verwendet, sowie zur industriellen Fertigung von Kalksandsteinen. Außerdem ist er ein untergeordneter Bestandteil von Zementklinker. In der Chemie nutzt man die Substanz außerdem als Trocknungsmittel und zur Absorption von Kohlenstoffdioxid.
Calciumperoxid ist ein starkes Oxidationsmittel und von mittlerer brandfördernder Wirkung, da es bei Erhitzung Sauerstoff abspaltet. Es liegt häufig als Octahydrat vor, das bei etwa 130 °C das Kristallwasser verliert. Das Octahydrat hat eine tetragonale Kristallstruktur in der . Es wird als Trocknungsbeschleuniger für Polysulfidelastomere, Antiseptikum in Zahnpasten und Kaugummi, als Stabilisator in der Gummiindustrie, in der Zahnheilkunde, als Teigverbesserer in der Backindustrie und als Saatgutdesinfektionsmittel verwendet.
Calciumhydroxid ist ein farbloses Pulver, welches sich nur wenig in Wasser löst, wobei die Lösung stark basisch reagiert. Es besteht aus trigonalen Kristallen mit dem Polytyp 2H der Kristallstruktur vom Cadmiumiodid-Typ in der . Es wird zur Herstellung von Mörtel im Bauwesen, als Desinfektionsmittel, Säureregulator in Lebensmitteln und Pflanzenschutzmittel im Obstbau verwendet.
Halogenide.
Calciumchlorid bildet in Reinform farblose Kristalle und ist in wasserfreiem Zustand stark hygroskopisch. Es nimmt leicht Wasser aus der Umgebung auf und bildet dabei einen Hydrat-Komplex. Es sind mehrere kristalline Hydrate bekannt. Wasserfreies Calciumchlorid ist aufgrund seiner Hygroskopie ein wichtiges Trocknungsmittel im Labor, beispielsweise im Exsikkator, und in der technischen Chemie für Gase und Flüssigkeiten. Außerdem findet es als Auftausalz, im Beton als Abbindebeschleuniger, als Streusalz, als Frostschutzmittel, als Komplexbildner, Geschmacksverstärker und Stabilisator in der Lebensmittelindustrie und als Elektrolyt in Sportgetränken Verwendung.
Calciumfluorid bildet farblose, in Wasser, Alkohol und verdünnten Säuren schwerlösliche Kristalle. Es kristallisiert im kubischen Kristallsystem in der höchstsymmetrischen Kristallklasse 4/"m" 3 2/"m" ("kubisch-hexakisoktaedrisch") beziehungsweise der . Natürlich vorkommendes Calciumfluorid heißt Fluorit oder Flussspat und ist meist durch Verunreinigungen gelb, grün, blau oder violett gefärbt.
Calciumbromid ist ein farbloser, an der Luft sich langsam gelb färbender Feststoff. Es kristallisiert wie Calciumchlorid und Strontiumchlorid in der Calciumchloridstruktur, die der Rutilstruktur ähnlich ist.
Calciumiodid ist ein hochschmelzender kristalliner Feststoff, der in einer typischen Schichtstruktur, der hexagonalen Cadmiumiodid-Struktur in der kristallisiert. Ist Calciumiodid-Hydrat im Kontakt mit Luft oder Licht, kann es Kohlenstoffdioxid aufnehmen bzw. Iod abgeben und verfärbt sich infolgedessen gelblich.
Weitere anorganische Verbindungen.
Calciumcarbonat ist ein farbloser, kristalliner Feststoff. Es ist eine der am weitesten verbreiteten Verbindungen auf der Erde, vor allem in Form von Kalkstein, Kreide, Marmor und Sedimentgesteinen. Es tritt vor allem in der Form des Minerals Calcit auf, das zu den häufigsten Mineralen der Erdkruste gehört. Kalkstein wird in großen Mengen als Rohstoff für die Baustoff-Industrie, als Zuschlagstoff in der Stahlindustrie, als mineralischer Dünger, als Futterkalk und als mineralischer Füllstoff in diversen industriellen Anwendungen verwendet, zum Beispiel in Papieren, Farben, Lacken, Putzen, Kunststoffen und Rückseitenbeschichtungen von Teppichen.
Calciumsulfat ist ein weißer Feststoff, der schwer löslich in Wasser ist und sich ab einer Temperatur über 1200 °C zersetzt, wobei Calciumoxid und Schwefeltrioxid entstehen. Es kommt natürlich in Form der Minerale Anhydrit, Gips (Ca[SO4] · 2H2O) und Bassanit (Ca[SO4] · ½H2O) in Evaporiten vor. Es wird als Baustoff verwendet.
Calciumnitrat ist ein weißer, hygroskopischer, oxidierender Feststoff, der sehr leicht löslich in Wasser ist. Es bildet eine Reihe von Hydraten. Es wird als Düngemittel und als Bestandteil von Kühlsolen und von Koagulierungsbädern von Latex eingesetzt.
Calciumcarbid (Calciumacetylid) ist in reinem Zustand ist eine farblose, kristalline Masse. Es existieren zwei Modifikationen, die tetragonale und eine kubisch flächenzentrierte Modifikation vom Pyrit-Typ, welche sich durch Erhitzen über 440 °C bildet. Es wird als Ausgangsstoff für chemische Synthesen und zur Herstellung von Kalkstickstoff-Dünger, für die Herstellung von Acetylen, bei der Entschwefelung von Eisen, als Brennstoff bei der Stahlherstellung und in Karbidlampen verwendet.
Organische Verbindungen.
Calciumgluconat wird als Säureregulator in der chemischen Industrie aber auch in der Lebensmittelindustrie verwendet. Es wird Lebensmitteln als Komplexbildner, Säureregulator oder Stabilisator zugesetzt. Außerdem hat es verschiedene medizinische Anwendungen.
Calciumstearat ist das Calciumsalz der Stearinsäure und gehört zu den Kalkseifen. Es besteht aus einem Calcium-Ion und zwei langkettigen Stearat-Ionen. Es wird zur Herstellung sogenannter "non-tox" Stabilisatoren von Kunststoffen, bevorzugt in Verbindung mit Zinkstearat, aber auch Bariumstearat oder Magnesiumstearat verwendet. Weiterhin dient es als Gleitmittel in pharmazeutischen Produkten und als Schmierstoff (Staufferfett) in der Papier- und Metall-verarbeitenden Industrie, als Hydrophobierungsmittel für Baustoffe sowie in der Sandaufbereitung. |
803 | 234749428 | https://de.wikipedia.org/wiki?curid=803 | Cadmium | Cadmium (selten auch Kadmium; von , und „Galmei“) ist ein chemisches Element mit dem Elementsymbol Cd und der Ordnungszahl 48. Es wird meist zu den Übergangsmetallen gezählt, obwohl es eine abgeschlossene d-Schale besitzt und damit eher den Hauptgruppenelementen, vor allem den Erdalkalimetallen ähnelt. Im Periodensystem steht es in der 5. Periode sowie der 2. Nebengruppe (Gruppe 12) oder Zinkgruppe.
Geschichte.
1817 entdeckten Friedrich Stromeyer und Carl Samuel Hermann unabhängig voneinander Cadmium in verunreinigtem Zinkcarbonat. Stromeyer bemerkte, dass sich verunreinigtes Zinkcarbonat beim Erhitzen verfärbte – ein Verhalten, das reines Zinkcarbonat nicht zeigte.
Plinius der Ältere berichtet in seiner um das Jahr 77 entstandenen Naturkunde "Naturalis historia" von Galmeifunden in Germanien: . Die Bezeichnung Cadmium wurde schon im Mittelalter verwendet, vermutlich für Zink oder sein Carbonaterz. Wie aus einer von Kaiser Friedrich II. im April 1226 in Ravenna ausgestellten Urkunde hervorgeht, räumt dieser dem Benediktiner-Kloster St. Paul im Lavanttal das Recht ein .
Trotz der Giftigkeit von Cadmium und seinen Verbindungen verzeichnete der "British Pharmaceutical Codex" von 1907 Cadmiumiodid als Mittel zur Behandlung von geschwollenen Gelenken (), skrofulösen Drüsen () und Frostbeulen ().
1907 definierte die Internationale Astronomische Union ein Ångström als das 1/6438,4696-fache der Wellenlänge einer roten Spektrallinie des Cadmiums in trockener Luft mit einem Kohlendioxidgehalt von 0,03 % bei einer Temperatur von 15 °C und einem Druck von 1 atm. Die General Conference on Weights and Measures akzeptierte im Jahr 1960 die 1.553.164,13-fache Wellenlänge einer roten Spektrallinie des Cadmiums als Sekundärdefinition eines Meters.
1942 benutzte Enrico Fermi Cadmiumbleche im weltweit ersten Kernreaktor. Die Bleche konnten in den Reaktor hinein- und hinausgeschoben werden, um die Kettenreaktion steuern zu können. Cadmium kann moderierte Spaltneutronen einfangen und so die Kritikalität des Reaktors beeinflussen.
Vorkommen.
Cadmium ist ein sehr seltenes Element. Sein Anteil an der Erdkruste beträgt nur etwa 3 · 10−5 %.
Gediegen, das heißt in elementarer Form, kommt Cadmium äußerst selten vor. Bisher sind nur fünf Fundorte in drei Ländern bekannt: Der Fluss Khann'ya im Wiljui-Becken, das Jana-Flussbecken nahe Werchojansk und die Billeekh Intrusion in der russischen Republik Sacha (Jakutien, Ostsibirien); die Goldstrike-Gruben bei Lynn im Eureka County des US-Bundesstaates Nevada sowie das Burabaiskii-Massiv im Gebiet Aqmola von Kasachstan.
Als cadmiumhaltige Erze sind vor allem die "Cadmiumblende" Greenockit (CdS) mit bis zu 77,81 % Cd und der "Cadmiumspat" Otavit (CdCO3) mit bis zu 65,20 % Cd bekannt, die allerdings zu selten für den kommerziellen Abbau sind. Beide sind fast immer mit verschiedenen Zinkerzen wie Sphalerit (ZnS) und Smithsonit (ZnCO3) vergesellschaftet.
Insgesamt sind bisher (Stand 2018) etwas mehr als 20 Cadmiumminerale bekannt. Das sehr seltene Cadmiumoxid Monteponit hat den höchsten Cd-Gehalt mit bis zu 87,54 %. Weitere Minerale sind unter anderem Hawleyit (77,81 % Cd), Cadmoselit (58,74 % Cd) und Drobecit (IMA 2002-034, 40,07 % Cd).
Cadmium als Mineral.
Natürlich vorkommendes Cadmium in seiner elementaren Form wurde erstmals 1979 durch B. V. Oleinikov, A. V. Okrugin und N. V. Leskova beschrieben und von der International Mineralogical Association (IMA) als eigenständige Mineralart anerkannt (Interne Eingangs-Nr. der IMA: "1980-086a").
Gemäß der Systematik der Minerale nach Strunz (9. Auflage) wird Cadmium unter der System-Nr. "1.AB.05" (Elemente – Metalle und intermetallische Verbindungen – Zink-Messing-Familie – Zink-Gruppe) eingeordnet. In der veralteten 8. Auflage der Strunz’schen Mineralsystematik ist Cadmium dagegen noch nicht aufgeführt. Nur im zuletzt 2018 aktualisierten „Lapis-Mineralienverzeichnis“, das sich aus Rücksicht auf private Sammler und institutionelle Sammlungen noch an dieser Form der System-Nummerierung orientiert, erhielt das Mineral die System- und Mineral-Nr. "I/A.04-40". Die vorwiegend im englischsprachigen Raum verwendete Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. "01.01.05.02".
Gewinnung und Darstellung.
Cadmium wird ausschließlich als Nebenprodukt bei der Zinkverhüttung, in kleinem Umfang auch bei der Blei- und Kupferverhüttung gewonnen. Kleinere Mengen fallen auch beim Recycling von Eisen und Stahl an.
Die Gewinnung von Cadmium hängt vom Verfahren ab, wie das Zink gewonnen wird. Bei der "trockenen" Zinkgewinnung wird zunächst das Cadmium mit dem Zink reduziert. Da Cadmium einen niedrigeren Siedepunkt als Zink besitzt, verdampft es leichter. Dadurch verdampft ein Cadmium-Zink-Gemisch aus dem Reduktionsgefäß und reagiert an anderer Stelle mit Sauerstoff zu Cadmium- und Zinkoxid. Anschließend wird dieses Gemisch in einem Destillationsgefäß mit Koks vermischt und das Cadmium vom Zink abdestilliert. Durch fraktionierende Destillation lassen sich höhere Reinheiten an Cadmium erreichen.
Bei der "nassen" Zinkgewinnung werden die gelösten Cadmiumionen mit Zinkstaub reduziert und ausgefällt. Das dabei entstehende Cadmium wird mit Sauerstoff zu Cadmiumoxid oxidiert und in Schwefelsäure gelöst. Aus der so entstandenen Cadmiumsulfat-Lösung wird durch Elektrolyse mit Aluminiumanoden und Bleikathoden besonders reines Elektrolyt-Cadmium gewonnen.
Die weltweite Gewinnung von Cadmium betrug im Jahr 2020 ca. 24.000 Tonnen. Der größte Produzent ist China, gefolgt von Südkorea. Eine zunehmende Rolle bei der Cadmiumgewinnung spielt auch das Recycling von NiCd Batterien
Eigenschaften.
Physikalische Eigenschaften.
Cadmium ist ein silbrig glänzendes Metall mit einer Dichte von 8,65 g/cm³. Es ist weich (Mohshärte 2), plastisch verformbar und lässt sich ebenso mit dem Messer anschneiden wie zu Drähten ziehen und zu Blättchen aushämmern.
Cadmium erstarrt ausschließlich im hexagonalen Kristallsystem in der in einer hexagonal dichtesten Kugelpackung (hcp, Magnesium-Typ). Die Gitterparameter von reinem Cadmium betragen "a" = 0,2979 nm (entspricht 2,98 Å) und "c" = 0,5617 nm (entspricht 5,62 Å) bei 2 Formeleinheiten pro Elementarzelle.
Ähnlich wie bei Zinn treten beim Verbiegen von Cadmium mittlerer Reinheit typische Geräusche auf (bei Zinn "Zinngeschrei" genannt). Poliertes Cadmium verliert an Luft nach einigen Tagen seinen Glanz, auch wenn es korrosionsbeständiger ist als Zink. In kohlensäurehaltiger Luft bildet es einen grauweißen, kohlendioxidhaltigen Überzug. Stark erhitzt verbrennt es mit rötlicher bis gelber Flamme zu bräunlich dampfendem Cadmiumoxid CdO.
CdO wurde wegen seiner hohen Toxizität im Zweiten Weltkrieg von den USA auf seine Verwendbarkeit als chemischer Kampfstoff untersucht.
Chemische Eigenschaften.
In chemischen Verbindungen liegt es meist zweiwertig vor. Chemisch gleicht es dem Zink, es neigt aber eher zur Bildung von Komplex-Verbindungen mit der Koordinationszahl 4. An der Luft bildet Cadmium durch die Oxidation eine Verdunklung der Oberfläche. In alkalischem Milieu ist die Oberfläche unlöslich, in Schwefelsäure und Salzsäure schwer und in Salpetersäure gut löslich.
Verwendung.
Wegen der hohen Toxizität von Cadmium nimmt dessen Bedeutung ab. Seit Dezember 2011 ist es in Schmuck, Legierungen zum Löten und in PVC in der Europäischen Union verboten.
Cadmium wird bzw. wurde eingesetzt:
Die Cadmium-Chalkogenide Cadmiumsulfid (gelb), Cadmiumselenid (rot) und Cadmiumtellurid (schwarz) sind wichtige II-VI-Halbleiter. Sie werden beispielsweise nanopartikulär als Quantenpunkte (engl. ")" hergestellt und u. a. in der Biochemie "in-vitro" eingesetzt.
Nachweis.
Als Vorprobe für Cadmium kann die sogenannte Glühröhrchenprobe dienen. Hierzu wird etwas Ursubstanz in einem hochschmelzenden Glühröhrchen erhitzt und das entstehende Sulfid-Oxid-Gemisch mit Natriumoxalat zu den Metallen reduziert. Als leichtflüchtiger Bestandteil verdampft Cadmium und scheidet sich als Metallspiegel am oberen Teil des Röhrchens ab.
Durch anschließende Zugabe von Schwefel und erneutem Glühen bildet sich aus dem Metallspiegel und Schwefeldampf Cadmiumsulfid, welches in der Hitze rot und bei Raumtemperatur gelb ist. Dieser Farbwechsel lässt sich einige Male wiederholen.
Als Nachweisreaktion für Cadmium-Kationen gilt die Ausfällung mit Sulfid-Lösung oder Schwefelwasserstoff-Wasser als gelbes Cadmiumsulfid. Andere Schwermetallionen stören diesen Nachweis, so dass zuvor ein Kationentrenngang durchzuführen ist.
Zur quantitativen Bestimmung von Cadmiumspuren bietet sich die Polarographie an. Cadmium(II)-Ionen geben in 1 M KCl eine Stufe bei −0,64 V (gegen SCE). Im Ultraspurenbereich kann die Inversvoltammetrie an Quecksilberelektroden eingesetzt werden. Sehr empfindlich ist auch die Graphitrohr-AAS von Cadmium. Hierbei können noch 0,003 µg/l nachgewiesen werden. Das relativ leicht flüchtige Element verträgt dabei keine hohe Pyrolysetemperatur. Ein Matrixmodifizierer wie Palladium-Magnesiumnitrat kann Abhilfe schaffen.
Sicherheitshinweise.
Cadmium ist als "sehr giftig" und seine Verbindungen von "gesundheitsschädlich" (wie Cadmiumtellurid) über "giftig" (z. B. Cadmiumsulfid) bis "sehr giftig" (so bei Cadmiumoxid) eingestuft; außerdem besteht begründeter Verdacht auf krebsauslösende Wirkung beim Menschen. Eingeatmeter cadmiumhaltiger Staub führt zu Schäden an Lunge, Leber und Niere.
In Arbeitsbereichen, in denen mit erhitzten Cadmiumverbindungen gearbeitet wird (Lötplätze und Cadmierbäder), ist für eine gute Durchlüftung oder Absaugung zu sorgen.
In der Europäischen Union gilt seit 10. Dezember 2011 für Cadmium ein Verbot der Verwendung und des Inverkehrbringens in vielen Kunststoffen, Farben, Stabilisierungsmitteln, Loten sowie bestimmten Metallerzeugnissen, insbesondere Bedarfsgegenständen wie etwa Schmuck Vorher war in Silberhartlot typischerweise 10 % bis 25 %, in Schmuck für Kinder bis zu 30 %, in PVC 0,2 % Cadmium enthalten. Oft wird für das Inverkehrbringen ein Grenzwert von 0,01 Gewichtsprozent (100 mg/kg) gesetzt, da man davon ausgeht, dass es sich bei einem Gehalt darunter um eine unbeabsichtigte, also unvermeidbare Verunreinigung handelt. Mit der Verordnung (EU) 2016/217 vom 16. Februar 2016 wurde das Verbot auf das Inverkehrbringen von Cadmium in bestimmten Anstrichfarben und Lacken – auch mit höherem Zinkgehalt – und in mit solchen Mitteln gestrichenen Erzeugnissen erweitert. Es gibt noch Ausnahmen etwa für bestimmte Baustoffe wie Zäune aus hartem PVC-Recyclat, sofern der Cadmiumgehalt im Kunststoff 0,1 Masseprozent nicht übersteigt und das Erzeugnis als Recycling-PVC gekennzeichnet ist, für besondere Anwendungen wie Luftfahrt oder Militär oder wegen der hohen Leistungsdichte für Ni-Cd-Akkus in Schnurloselektrogeräten.
Lebensmittelrechtliche Regelungen.
In der EU werden die Höchstmengen an Cadmium in Lebensmitteln durch die Verordnung (EG) Nr. 1881/2006 geregelt. Die jeweiligen Höchstgrenzen hängen dabei vom Erzeugnis ab und orientieren sich auch daran, was durch gute Herstellungspraxis oder gute landwirtschaftliche Praxis erreichbar ist. Der niedrigste Wert wird für flüssige Säuglingsnahrung, die aus Kuhmilchproteinen
oder aus Kuhmilchproteinhydrolysaten hergestellt sind, mit 0,005 mg/kg vorgeschrieben. 0,050 mg/kg ist der Grenzwert etwa für Fleisch, tropische Wurzel- und Knollen, Knoblauch, Roggen, Gerste und verschiedene Früchte und Kulturpilze. Für Krebstiere gilt ein Grenzwert von 0,50 mg/kg, für Muscheln ein Grenzwert von 1,0 mg/kg. In Mohnsamen sind maximal 1,2 mg/kg und in Nahrungsergänzungsmittel sogar bis zu 3,0 mg/kg erlaubt.
Die Höchstmenge an Cadmium im Trinkwasser in der EU wird durch die Richtlinie (EU) 2020/2184 auf 5 μmg/l festgelegt.
Toxikologie.
Cadmium ist in der chemischen Industrie ein unvermeidbares Nebenprodukt der Zink-, Blei- und Kupfergewinnung. Auch in Düngern und Pestiziden ist Cadmium zu finden.
Aufnahme und Gefahren.
Die Weltgesundheitsorganisation hat ihre Aussage zur tolerierbaren Aufnahmemenge für Cadmium in den letzten Jahren mehrfach nach unten angepasst, zuletzt 2013 auf eine tolerierbare monatliche Aufnahmemenge (TMI) von 25 µg je Kilogramm Körpergewicht. Die Europäische Behörde für Lebensmittelsicherheit hat 2009 einen wiederum deutlich niedrigeren Wert von 2,5 µg je Kilogramm Körpergewicht tolerierbare wöchentlich Aufnahmemenge (TWI) ausgegeben.
Cadmium wird vom Menschen hauptsächlich durch die Nahrung aufgenommen. Zu den cadmiumreichen Nahrungsmitteln zählen: Leber, Pilze, Muscheln und andere Schalentiere, Kakaopulver und getrockneter Seetang. Darüber hinaus enthalten Leinsamen viel Cadmium, weshalb empfohlen wird, täglich nicht mehr als 20 g Leinsamen zu sich zu nehmen. Zudem kommt es seit der Einführung von Kunstdüngern zu einer Anreicherung von Cadmium auf landwirtschaftlichen Flächen und somit in nahezu allen Lebensmitteln. Die Ressourcen von Phosphaten sind begrenzt, und die meisten Vorkommen sind belastet mit Cadmium oder radioaktiven Schwermetallen. Der Cadmiumgehalt der Phosphatlagerstätten ist sehr unterschiedlich. Viele Industrieländer haben bereits einen Grenzwert für Cadmium in Düngemitteln eingeführt. So gilt für das Inverkehrbringen von Düngemittel in Deutschland ein Grenzwert von 1,5 mg/kg und bei Düngemittel mit mehr als 5 % Phosphat bei 50 mg/kg, während diese Grenzwerte in Österreich bei 3 mg/kg und 75 mg/kg P2O5 liegen. In der Schweiz werden die Grenzwerte seit Jahren regelmäßig überschritten. Auch Tabakrauch transportiert relativ große Cadmiummengen in die Lungen, von wo aus es sich mit dem Blut im Körper verteilt.
Besonders Personen, die in Fabriken mit hohem Cadmiumausstoß arbeiten, sind erhöhten Gefahren ausgesetzt. Auch von wilden Müllplätzen, Metallwerken oder Bränden gehen Gefahren aus. Das Einatmen von Cadmium kann die Lungen ernsthaft schädigen und sogar zum Tod führen. Dokumentierte Folgen nach Unfällen in der Industrie – wie in der chinesischen Provinz Guangdong – oder nach jahrzehntelanger Emissionen – wie im Falle der Itai-Itai-Krankheit (bei Menschen) und der Gressenicher Krankheit (bei Weidevieh) – machen die realen Gefahren deutlich.
Schädigungen im Menschen.
Cadmium kann sich industrie- oder umweltbedingt allmählich im Körper anreichern und eine schwer erkennbare chronische Vergiftung hervorrufen.
Cadmium wird aus der Nahrung zu ungefähr 5 % im Darm resorbiert. Bei Eisen- und Calciummangel steigt die Resorptionsrate, was annehmen lässt, dass alle drei Metalle denselben Transportweg nutzen. Cadmium stimuliert zunächst in der Leber die Synthese von Metallothioneinen, mit denen es einen Komplex bildet und über den Blutkreislauf zu den Nierenglomeruli transportiert, dort filtriert und aus den Nierentubuli wieder aufgenommen wird. In den Tubuluszellen wird der Metallothionein-Cadmium-Komplex metabolisiert und Cd freigesetzt. Cd aktiviert hier wiederum eine vermehrte Metallothioneinsynthese, wodurch noch mehr Cadmium gebunden wird. Durch die Akkumulation in den Nieren kommt es zu Schädigungen dieses Organs mit der Folge einer Proteinurie. Durch diese Proteinbindung wird Cadmium nur extrem langsam ausgeschieden, die Halbwertszeit für den Verbleib im Körper beträgt bis zu 30 Jahren. Daher steigt der Cadmiumgehalt von Geburt an und fällt erst wieder bei einem Alter von 50–60 Jahren.
Cadmium schädigt auch die Knochen, da es letztendlich zur Mobilisierung des Calciums führt. Cd konkurriert im Darm mit dem Calcium um die Bindungsstellen am Ca-bindenden Protein in der Darmmukosa. Zusätzlich blockiert Cd die Neusynthese des 1,25-Dihydroxycholecalciferol (Calcitriol) in den Nierentubuluszellen. 1,25-Dihydroxycholecalciferol ist notwendig, um die Synthese des Calciumbindenden Proteins in der Darmmukosazelle zu aktivieren. In summa bewirkt Cadmium eine verminderte Rückresorption des Calciums in Darm und Niere sowie die erhöhte Ausscheidung mit dem Harn mit der Folge einer Calciumfreisetzung aus den Knochen und damit dem Abbau derselbigen.
Bei einer akuten Cadmiumvergiftung kann die biliäre Ausscheidung durch Gabe von Penicillamin oder Dimercaprol unterstützt werden. Eine effektive, darüber hinausgehende Therapie einer akuten Cadmiumvergiftung ist nicht bekannt. |
804 | 58286 | https://de.wikipedia.org/wiki?curid=804 | Cer | Cer ("IPA:" [], ; auch "Zer" bzw. "Cerium" genannt) ist ein chemisches Element mit dem Elementsymbol Ce und der Ordnungszahl 58. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden.
Geschichte.
Cer wurde 1803 von Jöns Jakob Berzelius und Wilhelm von Hisinger und gleichzeitig von Martin Heinrich Klaproth entdeckt. Es wurde nach dem Zwergplaneten Ceres benannt. Die Herstellung des Elements gelang Carl Gustav Mosander 1825 durch Reduktion des Chlorids mit Natrium.
Vorkommen.
In der Natur kommt Cer vergesellschaftet mit anderen Lanthanoiden in sogenannten Ceriterden vor, wie zum Beispiel im Allanit (Ca, Ce, La, Y)2(Al, Fe)3(SiO4)3(OH), im Monazit (Ce, La, Th, Nd, Y)PO4 sowie im Bastnäsit (Ce, La, Y)CO3F.
Cer ist das häufigste Element der Lanthanoide und steht in der Elementhäufigkeit auf Platz 28. In der Erdkruste, bis in eine Tiefe von 16 km gerechnet, ist es mit 68 g/t vertreten und kommt damit häufiger als Zinn oder Blei vor. Wichtige Lagerstätten befinden sich in Skandinavien, USA, Kongo, Südafrika und Indien. Die weltweit bekannten Cer-Reserven werden auf 40 Mio. Tonnen geschätzt.
Cer gehört zu den sogenannten leichten Seltenen Erden, die 2014 von der BGR als unkritisch bezüglich der Versorgungslage eingeschätzt wurden. Elementares („gediegenes“) Cer kommt auf der Erde wegen seiner hohen Reaktivität nicht vor. Es wurde jedoch in mikroskopischen Partikeln in Mondgestein gefunden. Wahrscheinlich entsteht es auf dem Mond durch Impaktereignisse.
Gewinnung und Herstellung.
Nach einer aufwendigen Abtrennung der Cer-Begleiter wird das Oxid mit Fluorwasserstoff zum Cerfluorid umgesetzt. Anschließend wird es mit Calcium unter Bildung von Calciumfluorid zum Cer reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum.
Die jährliche Weltproduktion liegt bei ca. 24.000 t.
Eigenschaften.
Physikalische Eigenschaften.
Von Cer sind vier Modifikationen bekannt:
Das silbrigweiß glänzende Metall ist hinter Europium das zweitreaktivste Element der Lanthanoide. Oberhalb von 150 °C verbrennt es unter heftigem Glühen zum Cerdioxid. Mit Wasser reagiert es zum Cer(III)-hydroxid.
Chemische Eigenschaften.
Cer kommt in Verbindungen als dreiwertiges farbloses oder vierwertiges gelbes bis orangefarbiges Kation vor.
Unter Wärmeeinfluss wird es durch Ethanol und Wasser sehr stark angegriffen. Auch in Laugen wird es unter Bildung von Cer-Hydroxiden stark angegriffen. In Säuren wird es zu Salzen gelöst.
Verwendung.
Da sich die chemischen Eigenschaften der Seltenen Erden ähneln, wird metallisches Cer selten in Reinform eingesetzt, sondern in der Mischung, in der es bei der Herstellung aus den Seltenerd-Mineralien anfällt, dem sogenannten Mischmetall.
Geringe Beimengungen von (mehr oder weniger reinen) Cer-Verbindungen verleihen anderen Materialien bestimmte Eigenschaften:
Biologische Bedeutung.
2013 wurde erstmals ein Enzym in Bakterien entdeckt, das Cer-Ionen für seine Funktion benötigt. Die Bakterien der Art "Methylacidiphilum fumariolicum" wurden aus vulkanischen Schlammtümpeln in Italien isoliert. Sie benötigen Cer zum Aufbau der Methanol-Dehydrogenase, eines Enzyms im Methan-Stoffwechsel. Das Ion hat dabei die Rolle, die in ähnlichen Enzymen in anderen Bakterien von Calciumionen übernommen wird.<ref name="DOI10.1111/1462-2920.12249">Arjan Pol, Thomas R.M. Barends u. a.: "Rare earth metals are essential for methanotrophic life in volcanic mudpots." In: "Environmental Microbiology." 2013, S. n/a–n/a, .</ref>
Sicherheitshinweise.
Cer ist, wie alle Lanthanoide, leicht giftig. Metallisches Cer kann sich schon ab 65 °C entzünden. Als fein verteiltes Metall kann es sich an der Luft ohne Energiezufuhr erhitzen und schließlich entzünden. Die Zündbereitschaft hängt u. a. sehr stark von der Korngröße und dem Verteilungsgrad ab. Cerbrände dürfen nicht mit Wasser gelöscht werden, da sich gasförmiger Wasserstoff entwickelt. |
805 | 96344 | https://de.wikipedia.org/wiki?curid=805 | Californium | Californium (selten auch "Kalifornium" geschrieben) ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Cf und der Ordnungszahl 98. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Benannt wurde es nach der Universität von Kalifornien und dem US-amerikanischen Bundesstaat Kalifornien, wo es entdeckt wurde. Bei Californium handelt es sich um ein radioaktives Metall. Es wurde im Februar 1950 erstmals aus dem leichteren Element Curium erzeugt. Es entsteht in geringen Mengen in Kernreaktoren. Anwendung findet es vor allem für mobile und tragbare Neutronenquellen, aber auch zur Erzeugung höherer Transurane und Transactinoide.
Geschichte.
So wie Americium (Ordnungszahl 95) und Curium (96) in den Jahren 1944 und 1945 nahezu gleichzeitig entdeckt wurden, erfolgte in ähnlicher Weise in den Jahren 1949 und 1950 die Entdeckung der Elemente Berkelium (97) und Californium (98).
Californium wurde zum ersten Mal am 9. Februar 1950 an der Universität von Kalifornien in Berkeley von Stanley G. Thompson, Kenneth Street, Jr., Albert Ghiorso und Glenn T. Seaborg erzeugt, indem sie Atomkerne des Curiums mit α-Teilchen beschossen. Es war das sechste Transuran, das entdeckt wurde. Die Entdeckung wurde gleichzeitig mit der des Berkeliums veröffentlicht.
Die Namenswahl für beide Elemente folgte demselben Muster: Während Berkelium zu Ehren der Universität von Berkeley seinen Namen erhielt, wählte man für das Element 98 den Namen "Californium" zu Ehren der Universität und des Staates Kalifornien:
Die Probenvorbereitung erfolgte zunächst durch Auftragen von Curiumnitratlösung (mit dem Isotop 242Cm) auf eine Platinfolie von etwa 0,5 cm2; die Lösung wurde eingedampft und der Rückstand dann zum Oxid (CmO2) geglüht.
Nun wurde diese Probe im 60-Zoll-Cyclotron mit beschleunigten α-Teilchen mit einer Energie von 35 MeV etwa 2–3 Stunden beschossen. Dabei entstehen in einer (α,n)-Kernreaktion 245Cf und freie Neutronen:
Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst, anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst.
Die weitere Trennung erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur.
Die chromatographische Trennung konnte nur aufgrund vorheriger Vergleiche mit dem chemischen Verhalten der entsprechenden Lanthanoide gelingen. So tritt bei einer Trennung das Dysprosium vor Terbium, Gadolinium und Europium aus einer Säule. Falls das chemische Verhalten des Californiums dem eines Eka-Dysprosiums ähnelt, sollte das fragliche Element 98 daher in dieser analogen Position zuerst erscheinen, entsprechend vor Berkelium, Curium und Americium.
Die Experimente zeigten ferner, dass nur die Oxidationsstufe +3 zu erwarten war. Entsprechende Oxidationsversuche mit Ammoniumperoxodisulfat beziehungsweise Natriumbismutat zeigten, dass entweder höhere Oxidationsstufen in wässrigen Lösungen nicht stabil sind oder eine Oxidation selbst zu langsam verläuft.
Die zweifelsfreie Identifikation gelang, als die vorherberechnete charakteristische Energie (7,1 MeV) des beim Zerfall ausgesandten α-Teilchens experimentell gemessen werden konnte. Die Halbwertszeit dieses α-Zerfalls wurde erstmals auf 45 Minuten bestimmt.
In der Erstveröffentlichung ging man zunächst davon aus, das Californiumisotop mit der Massenzahl 244 gemäß folgender Gleichung erzeugt zu haben:
Im Jahr 1956 wurde diese Hypothese korrigiert: Der 45-Minuten α-Strahler, der zunächst dem Isotop 244Cf zugeordnet wurde, wurde neu auf die Massenzahl 245 festgelegt, festgestellt unter anderem durch Langzeitbeschuss und Zerfallsstudien. 245Cf zerfällt sowohl durch die Emission von α-Teilchen (7,11 ± 0,02 MeV) (≈ 30 %) als auch durch Elektroneneinfang (≈ 70 %). Das neue Isotop 244Cf wurde auch ermittelt und dabei festgestellt, dass sein Zerfall durch die Emission eines α-Teilchens stattfindet (7,17 ± 0,02 MeV mit einer Halbwertszeit von 25 ± 3 Minuten). Die Massenzuordnung dieses Isotops ergab sich durch das Auffinden des Curiumisotops 240Cm. Das 244Cf entsteht durch (α,4n)-Reaktion aus 244Cm:
Im Jahr 1958 isolierten Burris B. Cunningham und Stanley G. Thompson erstmals wägbare Mengen eines Gemisches der Isotope 249Cf, 250Cf, 251Cf, 252Cf, die durch langjährige Neutronenbestrahlung von 239Pu in dem Testreaktor der "National Reactor Testing Station" in Idaho erzeugt wurden. 1960 isolierten B. B. Cunningham und James C. Wallmann die erste Verbindung des Elements, etwa 0,3 µg CfOCl, und anschließend das Oxid Cf2O3 und das Trichlorid CfCl3.
Isotope.
Von Californium gibt es 20 durchweg radioaktive Isotope und ein Kernisomer (Massenzahlen von 237 bis 256). Die langlebigsten sind 251Cf (Halbwertszeit 900 Jahre), 249Cf (351 Jahre), 250Cf (13 Jahre), 252Cf (2,645 Jahre) und 248Cf (334 Tage). Die Halbwertszeiten der restlichen Isotope liegen im Bereich von Millisekunden bis Stunden oder Tagen.
Nimmt man beispielhaft den Zerfall des langlebigsten Isotops 251Cf heraus, so entsteht durch α-Zerfall zunächst das langlebige 247Cm, das seinerseits durch erneuten α-Zerfall in 243Pu übergeht. Der weitere Zerfall führt dann über 243Am, 239Np, 239Pu zum 235U, dem Beginn der Uran-Actinium-Reihe (4 n + 3).
Das Isotop 252Cf zerfällt bei einer Halbwertszeit von 2,645 Jahren zu 96,908 % durch α-Zerfall, aber auch zu 3,092 % durch Spontanspaltung. Bei der Spontanspaltung werden pro zerfallendem Kern im Mittel 3,77 Neutronen emittiert. Es wird daher als Neutronenquelle verwendet.
Das Isotop 254Cf zerfällt bei einer Halbwertszeit von 60,5 Tagen fast ausschließlich durch Spontanspaltung.
Vorkommen.
Californiumisotope kommen auf der Erde wegen ihrer im Vergleich zum Alter der Erde zu geringen Halbwertszeit nicht natürlich vor.
In den Überresten der ersten amerikanischen Wasserstoffbombe wurden am 1. November 1952 auf dem Eniwetok-Atoll – neben der Erstentdeckung von Einsteinium und Fermium und dem Nachweis von Plutonium und Americium – auch Isotope von Curium, Berkelium und Californium gefunden: vor allem die Isotope 245Cm und 246Cm, in kleineren Mengen 247Cm und 248Cm, in Spuren 249Cm; ferner 249Bk, 249Cf, 252Cf, 253Cf und 254Cf. Die Menge des 249Cf stieg durch den β-Zerfall des 249Bk an (Halbwertszeit 330 Tage). Es wurde dagegen kein 250Cf gefunden. Dies lässt sich darauf zurückführen, dass die Halbwertszeit von 250Cm mit rund 8300 Jahren zu groß ist, als dass durch β-Zerfall (über 250Bk) detektierbare Mengen 250Cf hätten gebildet werden können. Zudem zerfällt 250Cm nur mit einer Wahrscheinlichkeit von rund 6 % im β-Zerfall zu 250Bk. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst im Jahr 1956 publiziert.
Es wurde in den 1950er Jahren vermutet, dass Californiumisotope im r-Prozess in Supernovae entstehen. Besonderes Interesse fand hierbei das Isotop 254Cf, welches zuvor in den Überresten der ersten amerikanischen Wasserstoffbombe gefunden wurde. Mit der damals gemessenen Halbwertszeit für die Spontanspaltung von 56,2 ± 0,7 Tagen (aktuell: 60,5 Tage) vermutete man eine Übereinstimmung mit dem Verlauf der Lichtkurve von Supernovae des Typs I von 55 ± 1 Tagen. Der Zusammenhang ist allerdings immer noch fraglich.
In Kernreaktoren entstehen vor allem die langlebigen α-strahlenden Isotope 249Cf und 251Cf. Sie zählen wegen ihrer langen Halbwertszeit zum Transuranabfall und sind bei der Endlagerung besonders problematisch.
Gewinnung und Darstellung.
Californium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist.
Gewinnung von Californiumisotopen.
Californium entsteht in Kernreaktoren aus Uran 238U oder Plutoniumisotopen durch zahlreiche nacheinander folgende Neutroneneinfänge und β-Zerfälle – unter Ausschluss von Spaltungen oder α-Zerfällen –, die über Berkelium zu den Californiumisotopen führen, so zuerst die Isotope mit den Massenzahlen 249, 250, 251 und 252.
Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das Plutoniumisotop 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt.
Letzteres wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein Vielfaches höher als in einem Kernreaktor. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu dem Americiumisotop 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm. Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächstschwereren Isotope.
Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind.
249Cf ist das erste Isotop des Californiums, das auf diese Weise gebildet werden kann. Es entsteht durch zweimaligen β-Zerfall aus 249Cm – das erste Curiumisotop, welches einen β-Zerfall eingeht (Halbwertszeit 64,15 min).
Das hier entstehende 249Bk bildet zudem durch Neutroneneinfang das 250Bk, welches mit einer Halbwertszeit von 3,212 Stunden durch β-Zerfall zum Californiumisotop 250Cf zerfällt.
Durch weitere Neutroneneinfänge werden die Isotope 251Cf, 252Cf und 253Cf aufgebaut. Nach einjähriger Bestrahlung stellt sich folgende Isotopenverteilung ein: 249Cf (2 %), 250Cf (15 %), 251Cf (4 %) und 252Cf (79 %). Das Isotop 253Cf zerfällt schon mit einer Halbwertszeit von 17,81 Tagen zu 253Es.
Californium steht (zumeist als Oxid Cf2O3) heute weltweit lediglich in sehr geringen Mengen zur Verfügung, weshalb es einen sehr hohen Preis besitzt. Dieser beträgt etwa 160 US-Dollar pro Mikrogramm 249Cf bzw. 50 US-Dollar für 252Cf.
Californium (244Cf und 246Cf) wurde erstmals 1951 auch aus Uran durch Beschuss mit Kohlenstoff gewonnen:
Die leichteren Isotope des Californiums (240Cf und 241Cf) wurden durch Beschuss von 235U, 234U und 233U mit Kohlenstoff im Jahr 1970 erzeugt.
Darstellung elementaren Californiums.
Californium erhält man durch Reduktion von Californium(III)-oxid mit Lanthan oder Thorium oder von Californium(III)-fluorid mit Lithium oder Kalium.
Im Jahr 1974 wurde berichtet, dass Californium erstmals in metallischer Form (wenige Mikrogramm) durch Reduktion von Californium(III)-oxid (Cf2O3) mit Lanthan gewonnen und das Metall in Form dünner Filme auf Trägern für die Elektronenmikroskopie aufgebracht wurde. Aufgrund der Messungen wurden zunächst eine f.c.c.-Struktur ("a" = 574,3 ± 0,6 pm) und eine hexagonale Struktur ("a" = 398,8 ± 0,4 pm und "c" = 688,7 ± 0,8 pm) beschrieben. Der Schmelzpunkt wurde erstmals mit 900 ± 30 °C gemessen. Diese Ergebnisse wurden allerdings im Folgejahr 1975 in Frage gestellt. Die beiden Phasen des Californiums wurden stattdessen als Verbindungen dieses Metalls beschrieben: die hexagonale Phase als Cf2O2S, die f.c.c.-Phase als CfS. In beiden Verbindungen wird eine Dreiwertigkeit des Californiums mit einem Atomradius bei 183–185 pm beschrieben. Noé und Peterson fassten jedoch im September 1975 die bisherigen Ergebnisse zusammen und stellten zudem eigene umfangreiche Ergebnisse vor, die die eindeutige Darstellung von metallischem Californium und dessen Eigenschaften aufzeigen.
Eigenschaften.
Im Periodensystem steht das Californium mit der Ordnungszahl 98 in der Reihe der Actinoide, sein Vorgänger ist das Berkelium, das nachfolgende Element ist das Einsteinium. Sein Analogon in der Reihe der Lanthanoide ist das Dysprosium.
Physikalische Eigenschaften.
Californium ist ein radioaktives Metall mit einem Schmelzpunkt von ca. 900 °C und einer Dichte von 15,1 g/cm3. Es tritt in drei Modifikationen auf: α-, β- und γ-Cf.
Das bei Standardbedingungen auftretende α-Cf (< 600 °C) kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 338 pm und "c" = 1102,5 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d. h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La.
Unter hohem Druck geht α-Cf allmählich in β-Cf über. Die β-Modifikation (600–725 °C) kristallisiert im kubischen Kristallsystem in der Raumgruppe mit dem Gitterparameter "a" = 494 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Oberhalb von 725 °C wandelt sich die β-Modifikation in die γ-Modifikation um. Die γ-Modifikation kristallisiert ebenfalls im kubischen Kristallsystem, jedoch mit einem größeren Gitterparameter von "a" = 575 pm.
Die Lösungsenthalpie von Californium-Metall in Salzsäure bei Standardbedingungen beträgt −576,1 ± 3,1 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (Δf"H"0) von Cf3+(aq) auf −577 ± 5 kJ·mol−1 und des Standardpotentials Cf3+ / Cf0 auf −1,92 ± 0,03 V.
Chemische Eigenschaften.
Das silberglänzende Schwermetall ist wie alle Actinoide sehr reaktionsfähig. Es wird von Wasserdampf, Sauerstoff und Säuren angegriffen; gegenüber Alkalien ist es stabil.
Die stabilste Oxidationsstufe ist die für die höheren Actinoide zu erwartende Stufe +3. Es bildet dabei zwei Reihen von Salzen: Cf3+- und CfO+-Verbindungen.
Auch die zweiwertige und vierwertige Stufe ist bekannt. Cf(II)-Verbindungen sind starke Reduktionsmittel. In Wasser setzen sie unter Oxidation zu Cf3+ Wasserstoff frei. Californium(IV)-Verbindungen sind starke Oxidationsmittel. Sie sind instabiler als die von Curium und Berkelium. In fester Form sind bisher nur zwei Verbindungen des Californiums in der Oxidationsstufe +4 bekannt: Californium(IV)-oxid (CfO2) und Californium(IV)-fluorid (CfF4). Californium(IV)-fluorid gibt beim Erhitzen elementares Fluor ab.
Wässrige Lösungen mit Cf3+-Ionen haben eine grüne Farbe, mit Cf4+-Ionen sind sie braun.
Cf4+-Ionen sind in wässriger Lösung im Unterschied zu den Cf3+-Ionen nicht stabil und können nur komplexstabilisiert vorliegen. Eine Oxidation des dreiwertigen Californiums (249Cf) gelang in Kaliumcarbonat-Lösung (K2CO3) an einer Platinanode. Während der Elektrolyse konnte die Zunahme einer Breitbandabsorption im Bereich von λ < 500 nm beobachtet werden (Gelbfärbung der Lösung); die Absorptionsbande des Californium(III) nahm entsprechend ab. Eine vollständige Oxidation konnte nicht erreicht werden.
Spaltbarkeit.
Generell sind alle Californium-Isotope mit Massenzahlen zwischen 249 und 254 in der Lage, eine Kettenreaktion mit Spaltneutronen aufrechtzuerhalten. Für die anderen Isotope ist die Halbwertszeit so kurz, dass bisher nicht ausreichend Daten zum Verhalten gegenüber Neutronen gemessen und öffentlich publiziert wurden. Somit kann nicht berechnet werden (Stand 1/2009), ob eine Kettenreaktion mit schnellen Neutronen möglich ist, auch wenn dies sehr wahrscheinlich ist. Mit thermischen Neutronen gelingt eine Kettenreaktion bei den Isotopen 249, 251, 252, 253 und evtl. 254. Bei letztgenanntem sind die Unsicherheiten der derzeitigen Daten für eine genaue Beurteilung zu groß (1/2009).
Das Isotop 251Cf verfügt über eine sehr kleine kritische Masse von lediglich 5,46 kg für eine reine Kugel, die mit Reflektor bis auf 2,45 kg reduziert werden kann. Dadurch wurden Spekulationen ausgelöst, dass es möglich wäre, enorm kleine Atombomben zu bauen. Erschwert wird dies aber neben der sehr geringen Verfügbarkeit und dem damit einhergehenden hohen Preis auch durch die kurze Halbwertszeit von 251Cf und der daraus resultierenden hohen Wärmeabgabe. Die kritische Masse von 254Cf liegt zwar mit etwa 4,3 kg noch unter der von 251Cf, allerdings ist die Herstellung dieses Isotops bedeutend aufwändiger und die Halbwertszeit von 60,5 Tagen zu kurz für eine Verwendung in Kernwaffen.
Weiterhin würden sich die Isotope 249Cf, 251Cf und 252Cf auch zum Betreiben eines Kernreaktors eignen. In wässriger Lösung mit Reflektor sinkt die kritische Masse von 249Cf auf etwa 51 g, die von 251Cf sogar auf lediglich rund 20 g. Alle drei Isotope könnten auch in einem schnellen Reaktor eingesetzt werden. Dieser könnte darüber hinaus auch mit 250Cf realisiert werden (kritische Masse: 6,55 kg unreflektiert). Dem stehen aber auch hier die geringe Verfügbarkeit und der hohe Preis entgegen, weshalb bislang keine Reaktoren auf Californiumbasis gebaut wurden. Dementsprechend wird Californium im deutschen Atomgesetz nicht als Kernbrennstoff geführt.
Sicherheitshinweise.
Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt.
Verwendung.
Neutronenquelle.
Am interessantesten ist das Isotop 252Cf. Es zerfällt zum Teil durch Spontanspaltung; 1 µg strahlt dabei pro Sekunde 2,314 Millionen Neutronen ab. Es wird daher ausschließlich für mobile, tragbare und dabei starke Neutronenquellen eingesetzt; hierzu wird es in Form von Californium(III)-oxid (Cf2O3) bereitgestellt.
Als Neutronenquelle wird es für Folgendes verwendet:
Herstellung anderer Elemente.
Durch Beschuss von 249Cf mit Kohlenstoff kann beispielsweise Nobelium erzeugt werden:
Im Oktober 2006 wurde bekanntgegeben, dass durch den Beschuss von 249Cf mit 48Ca das bisher schwerste Element Oganesson (Element 118) erzeugt wurde, nachdem eine früher bekanntgegebene Entdeckung wieder zurückgezogen worden war.
Verbindungen.
Oxide.
Von Californium existieren Oxide der Oxidationsstufen +3 (Cf2O3) und +4 (CfO2).
Californium(IV)-oxid (CfO2) entsteht durch Oxidation mit molekularem Sauerstoff bei hohem Druck und durch atomaren Sauerstoff. Es entsteht unter anderem implizit in Kernreaktoren beim Bestrahlen von Urandioxid (UO2) bzw. Plutoniumdioxid (PuO2) mit Neutronen. Es ist ein schwarzbrauner Feststoff und kristallisiert – wie die anderen Actinoiden(IV)-oxide – im kubischen Kristallsystem in der Fluorit-Struktur. Der Gitterparameter beträgt 531,0 ± 0,2 pm.
Californium(III)-oxid (Cf2O3) ist ein gelbgrüner Feststoff mit einem Schmelzpunkt von 1750 °C. Es gibt zwei Modifikationen; die Übergangstemperatur zwischen dem kubisch-raumzentrierten und dem monoklinen Cf2O3 beträgt etwa 1400 °C. Seine Anwendung findet es vor allem bei der Herstellung von 252Cf-Neutronenquellen. Dazu wird 252Cf(III) zunächst als Californiumoxalat (Cf2(C2O4)3) gefällt, getrocknet und anschließend zum dreiwertigen Oxid geglüht.
Übergangszusammensetzungen von Oxiden der Form CfOx (2,00 > x > 1,50) besitzen eine rhomboedrische Struktur.
Oxihalogenide.
Californium(III)-oxifluorid (CfOF) wurde durch Hydrolyse von Californium(III)-fluorid (CfF3) bei hohen Temperaturen dargestellt. Es kristallisiert wie das Californium(IV)-oxid (CfO2) im kubischen Kristallsystem in der Fluorit-Struktur, wobei hier die Sauerstoff- und Fluoratome in zufälliger Verteilung auf den Anionenpositionen zu finden sind. Der Gitterparameter beträgt 556,1 ± 0,4 pm.
Californium(III)-oxichlorid (CfOCl) wurde durch Hydrolyse des Hydrats von Californium(III)-chlorid (CfCl3) bei 280–320 °C dargestellt. Es besitzt eine tetragonale Struktur vom PbFCl-Typ.
Halogenide.
Halogenide sind für die Oxidationsstufen +2, +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil. Die zwei- und vierwertige Stufe ist nur in der festen Phase stabilisierbar.
Californium(III)-fluorid (CfF3) ist ein gelbgrüner Feststoff und besitzt zwei kristalline Strukturen, die temperaturabhängig sind. Bei niedrigen Temperaturen ist die orthorhombische Struktur vom YF3-Typ zu finden. Bei höheren Temperaturen bildet es ein trigonales System vom LaF3-Typ.
Californium(IV)-fluorid (CfF4) ist ein hellgrüner Feststoff und kristallisiert entsprechend dem monoklinen UF4-Typ. Californium(IV)-fluorid gibt beim Erhitzen elementares Fluor ab.
Californium(III)-chlorid (CfCl3) ist ein grüner Feststoff und bildet zwei kristalline Modifikationen: die hexagonale Form vom UCl3-Typ, wobei das Cf-Atom 9-fach koordiniert ist, sowie die orthorhombische Form vom PuBr3-Typ mit der Koordinationszahl 8.
Californium(III)-bromid (CfBr3) ist ein grüner Feststoff. Es konnte nur die monokline Struktur des AlCl3-Typs nachgewiesen werden. Bei zunehmenden Temperaturen zersetzt es sich teilweise zum Californium(II)-bromid (CfBr2):
Californium(II)-iodid (CfI2) und Californium(III)-iodid (CfI3) konnten in Mikrogramm-Mengen im Hochvakuum hergestellt werden. Diese Verbindungen wurden sowohl durch Röntgenbeugung als auch durch Spektroskopie im sichtbaren Bereich charakterisiert.
Pentelide.
Die Pentelide des Californiums des Typs CfX sind für die Elemente Stickstoff, Arsen und Antimon dargestellt worden. Sie kristallisieren im NaCl-Gitter mit den Gitterkonstanten 580,9 pm für CfAs und 616,6 pm für CfSb.
Metallorganische Verbindungen.
Tricyclopentadienylkomplexe der Elemente Berkelium (Cp3Bk) und Californium (Cp3Cf) sind aus der dreiwertigen Stufe erhältlich. Die hohe Radioaktivität bewirkt allerdings eine schnelle Zerstörung der Verbindungen. |
806 | 83039 | https://de.wikipedia.org/wiki?curid=806 | Chlor | Chlor [] ist ein chemisches Element mit dem Symbol Cl und der Ordnungszahl 17. Im Periodensystem der Elemente steht es in der 7. Hauptgruppe und gehört damit zusammen mit Fluor, Brom, Iod, Astat und Tenness zur 17. IUPAC-Gruppe, den Halogenen. Elementares Chlor liegt unter Normalbedingungen in Form des zweiatomigen Moleküls Cl2 gasförmig vor. Es ist eines der reaktivsten Elemente und reagiert mit fast allen anderen Elementen und vielen Verbindungen. Die hohe Reaktivität bedingt auch die Giftigkeit des elementaren Chlors. Der Name des Elementes leitet sich vom altgriechischen („hellgrün“) ab. Dieser Name wurde nach der typischen gelbgrünen Farbe des Chlorgases gewählt.
In der Natur kommt Chlor nicht elementar, sondern nur gebunden in verschiedenen Verbindungen vor. Die wichtigsten Verbindungen sind die Chloride, in denen Chlor in Form des Anions Cl− auftritt. Das bekannteste Chlorid ist Natriumchlorid, häufig auch als "Kochsalz" oder kurz "Salz" bezeichnet. Chlorid ist ein häufiger Bestandteil des Meerwassers und besitzt wichtige biologische Funktionen, vor allem bei der Steuerung des Wasserhaushaltes im Körper.
Das fast ausschließlich durch Elektrolyse gewonnene Chlor wird großteils für die Synthese chlorhaltiger Verbindungen wie des Vinylchlorids, eines Ausgangsprodukts für die Produktion des Kunststoffes PVC, eingesetzt.
Geschichte.
Elementares Chlor wurde erstmals 1774 von Carl Wilhelm Scheele dargestellt. Er ließ dabei Salzsäure mit Braunstein reagieren. Dabei erkannte er nicht, dass es sich bei dem dabei entstehenden Produkt um ein bisher unentdecktes Element handelt. Stattdessen wurde von den meisten Chemikern wie Antoine Laurent de Lavoisier angenommen, dass der Stoff „mit Sauerstoff angereicherte Muriumsäure“ sei. Der Grund für diese Annahme lag darin, dass die Salzsäure für eine sauerstoffhaltige Säure eines hypothetischen Elementes, des "Muriums", gehalten wurde. Durch den Kontakt mit dem Mangandioxid sollte diese dann weiteren Sauerstoff aufnehmen. Dies wurde scheinbar von Claude-Louis Berthollet bestätigt, der beobachtete, dass Chlorwasser bei Belichtung Sauerstoff abgibt, und es daher als „oxidierte Salzsäure“ bezeichnete.
Nachdem Versuche gescheitert waren, Sauerstoff, etwa durch Erhitzen mit Kohlenstoff, aus der Verbindung abzuspalten, erkannte Humphry Davy 1808, dass es sich bei der Substanz um ein neues Element und nicht um eine sauerstoffhaltige Verbindung handelte. Aufgrund seiner charakteristischen hellgrünen Farbe nannte er das neue Element „Chlor“, nach dem griechischen , ‚frisch‘. Unter dem Datum vom 21. Februar 1811 dokumentieren die "Philosophical transactions of the Royal Society of London" seine Erkenntnisse.
Zunächst wurde Chlor überwiegend nach einem von Walter Weldon entwickelten Verfahren aus Salzsäure und Mangandioxid gewonnen. Da dies nicht sehr effektiv war, wurde es 1866 durch das von Henry Deacon entwickelte Deacon-Verfahren ersetzt. Dabei diente billiger Luftsauerstoff als Oxidationsmittel und Kupfer(II)-chlorid als Katalysator. Chlor wurde zwar schon 1800 erstmals elektrolytisch hergestellt, jedoch spielte dies bis zur Entwicklung der nötigen Generatoren durch Werner von Siemens Ende des 19. Jahrhunderts keine große Rolle. Seitdem sind elektrochemische Herstellungsverfahren die weitaus wichtigsten Produktionsverfahren von Chlor.
Bleichmittel.
Die historisch wichtigste Verwendung von Chlor liegt in der Anwendung als Bleichmittel. Dazu konnte es entweder elementar eingesetzt werden oder durch Reaktion mit Calciumhydroxid zu Chlorkalk weiterverarbeitet werden.
Chlor als Giftgas (Waffe).
Im Ersten Weltkrieg wurde Chlorgas erstmals als chemische Waffe verwendet. Der erste größere Einsatz erfolgte am 22. April 1915 in der Nähe der Stadt Ypern in Flandern durch eine deutsche Spezialeinheit unter Beratung des späteren Nobelpreisträgers Fritz Haber. Da es eine höhere Dichte als Luft aufweist, sammelte sich das Gas vor allem in den Schützengräben an, wo sich die gegnerischen Soldaten aufhielten. Die Folge waren viele Tote und zahlreiche teilweise lebenslang Geschädigte. Während die deutsche Methode, das Chlorgas aus Stahlflaschen auszublasen, nur dann anzuwenden war, wenn der Wind in die richtige Richtung wehte, wurden von der französischen Seite etwa zeitgleich (z. B. am 25. April 1915 im Raum Mametz-Montauban) Granaten verwendet, die zielgenau in die gegnerischen Stellungen geschossen werden konnten. Diese Granaten bestanden aus zwei Schichten, einer gelben (Pikrinsäure) und einer weißen, ein Gemisch von Kaliumchlorat und einer wachsartigen organischen Substanz. Bei der Verbrennung entwickelte sich Chlorgas – genauer Chlorpikrin – das nach dem Einatmen zu Husten, Schnupfen und Magenschmerzen führte.
Unter militärischen Gesichtspunkten war das nicht besonders effizient. So kamen zum Beispiel bei dem Angriff vom 22. April 1915 trotz des Einsatzes von 150 Tonnen Chlorgas nach neueren Forschungen nur 1200 Franzosen ums Leben. Das heißt, unter optimalen Bedingungen, wenn der Gegner dicht gedrängt in tiefer gelegenen Schützengräben kauert, waren 125 Kilogramm Chlorgas nötig, um einen Soldaten zu töten. Daher wurde Chlor bald durch verletzungswirksamere Giftgase ersetzt, zum Beispiel Phosgen.
Neben durchaus häufigen Chlorgasunfällen in Schwimmbädern wird Chlor bis in die Gegenwart trotz seiner unbefriedigenden Verletzungswirksamkeit auch als chemischer Kampfstoff verwendet, vor allem weil es sich um eine weit verbreitete Industriechemikalie handelt, auf die im Prinzip jeder Bademeister Zugriff hat. Human Rights Watch sprach 2014 von „starken Hinweisen“, dass Regierungstruppen in Syrien Mitte Mai 2014 Chlorgas aus der Luft in „Fassbomben“ abgeworfen hätten.
Die UNO-Kommission zur Untersuchung von Menschenrechtsverletzungen in Syrien berichtete, die Regierung habe im Jahr 2017 bis im April bereits fünf Mal Giftgas eingesetzt. Auch im Januar 2018 gab es angeblich bereits wieder mindestens fünf Vorfälle mit Chlorgas.
Vorkommen.
Chlor kommt auf der Erde auf Grund seiner hohen Reaktivität nur in extrem geringen Mengen elementar vor, z. B. in Vulkangasen oder in der Ozonschicht. Hier wird es aus Fluorchlorkohlenwasserstoffen abgespalten und trägt hauptsächlich zur Bildung des Ozonlochs bei. Sein Anion, das Chlorid, liegt insbesondere in salzartigen Verbindungen auf der Erde relativ häufig vor. In der kontinentalen Erdkruste ist es mit einem Gehalt von 145 ppm in der Häufigkeit hinter Elementen wie Zirconium, Kohlenstoff oder Schwefel an 19. Stelle.
Viele Chloride sind in Wasser gut löslich. Daher ist im Meerwasser der Ozeane eine hohe Konzentration an Chloridionen enthalten. Mit einem Gehalt von 19,4 g Cl−/l sind diese nach Sauerstoff und Wasserstoff in Wassermolekülen am häufigsten im Meerwasser (zum Vergleich: 1,4 mg F−, 68 mg Br−, 0,06 mg I−). Außerdem bildet Natriumchlorid mit 18,1 g Cl−/l die Hälfte aller darin gelösten Salze. Hohe Gehalte an Chlorid haben viele abflusslose Seen, wie beispielsweise das Tote Meer, da bei diesen das von den Flüssen zugeführte Wasser verdunstet und das mitgeführte Salz zurückbleibt.
Die wichtigsten chlorhaltigen Minerale sind Halit (Hauptbestandteil: Natriumchlorid), häufig als Steinsalz bezeichnet, Sylvin (Kaliumchlorid), Carnallit (KMgCl3·6 H2O), Bischofit (MgCl2·6 H2O) und Kainit (KMgCl(SO4)·3 H2O). Es gibt große Lagerstätten, die beim Austrocknen von Meeresteilen entstanden sind. Da die geringer löslichen Natriumsalze zuerst ausfallen und sich bei fortschreitender Austrocknung die Kaliumsalze darüber ablagern, sind die Lager oft geschichtet. Größere Vorkommen an Halit befinden sich in Deutschland beispielsweise in Bad Friedrichshall und Bad Reichenhall, ein Vorkommen in Österreich liegt bei Hallein. Eine Übersicht über Chlorminerale liefert die .
Es ist eine Vielzahl natürlicher chlororganischer Verbindungen bekannt, im Februar 2002 zählte man 2200. Der größte Teil wird von Meereslebewesen, wie Seetang, Schwämmen, Manteltieren oder Korallen synthetisiert. Auf dem Land lebende Tiere und Pflanzen bilden in deutlich geringerem Umfang chlororganische Verbindungen. Auch bei Vulkanausbrüchen und der Verbrennung von Biomasse entstehen chlororganische Verbindungen.
Chlorradikale entstehen durch Zersetzung organischer Chlorverbindungen in der Stratosphäre. Viele dieser chlororganischen Verbindungen, vor allen die Fluorchlorkohlenwasserstoffe (FCKW), sind nicht oder nur in geringem Umfang natürlichen Ursprungs, sondern wurden vom Menschen freigesetzt. Chlorradikale können den Abbau von Ozon katalysieren und sind für das sogenannte Ozonloch, das vor allem im Bereich der Pole auftritt, verantwortlich.
Gewinnung und Darstellung.
Chlor ist eine der wichtigsten Grundchemikalien und zählt mit einer Menge von 58,9 Millionen Tonnen im Jahr 2006 zu den meistproduzierten Chemikalien. Technisch wird Chlor fast ausschließlich durch verschiedene elektrochemische Verfahren hergestellt, in kleinerem Maßstab kann es auch auf chemischem Weg gewonnen werden. Als Nebenprodukt fällt es bei der elektrochemischen Produktion von Natrium und Magnesium aus den entsprechenden Chloriden an.
Ausgangsstoff für die Chloralkalielektrolyse ist eine wässrige Natriumchloridlösung. Aus dieser werden in verschiedenen Verfahren, die sich im Aufbau der Elektrolysezelle unterscheiden, Natronlauge und als Zwangsnebenprodukte Chlor sowie Wasserstoff erzeugt.
Wichtig bei allen Verfahren zur Chlorproduktion ist, dass die Anode, an der das Chlor entsteht, von der Kathode, an der Wasserstoff und Hydroxidionen gebildet werden, getrennt ist. Wären diese in einem Gefäß vereinigt, würde sich das explosive Chlor-Wasserstoff-Gemisch Chlorknallgas bilden, sowie eine Reaktion von Chlor mit den Hydroxidionen zu Hypochlorit stattfinden.
Das in der Vergangenheit am häufigsten verwendete Verfahren ist das Diaphragmaverfahren (2001: 49 % Marktanteil; 2019 in Europa: 11,6 % Marktanteil). Die Trennung der Elektrodenräume erfolgt dabei durch ein Diaphragma aus Asbest, durch das zwar Natriumionen, nicht jedoch Chlorid- und Hydroxidionen diffundieren können. Allerdings lässt sich mit diesem Verfahren nur eine niedrig konzentrierte und nicht reine Natronlauge sowie mit Sauerstoff verunreinigtes Chlor erzeugen. Auch ist die Verwendung des krebserregenden Asbestes problematisch. Deswegen wird es für neue Produktionsanlagen vom Membranverfahren abgelöst (2001: 28 % Marktanteil; 2019 in Europa: 83,3 % Marktanteil). Dieses ist wegen der Verwendung einer Kunststoffmembran aus Nafion anstatt des Asbest-Diaphragmas vom Gesundheitsschutz her günstiger und bietet einige technische Vorteile. So ist durch die Membran eine bessere Trennung von Anoden- und Kathodenraum gegeben und ermöglicht damit die Produktion einer reineren und höher konzentrierten Natronlauge. Allerdings ist das Chlor wie beim Diaphragma-Verfahren durch Sauerstoff verunreinigt, der in einer Nebenreaktion an der Anode entsteht. Nachteile des Verfahrens sind die hohen Kosten für die Membranen und die nötigen hohen Reinheiten für die Ausgangssubstanzen.
Ein nur noch in geringem Maß eingesetztes Verfahren ist das Amalgamverfahren (2001: 18 % Marktanteil; 2019 in Europa: 5,1 % Marktanteil). Bei diesem werden Anoden- und Kathodenraum vollkommen getrennt. Dazu wird eine Quecksilber-Kathode eingesetzt, die auf Grund der hohen Überspannung ermöglicht, dass anstatt Wasserstoff zunächst Natrium gebildet wird, das als Natriumamalgam vorliegt. Das Amalgam wird in einer zweiten Zelle an Graphitkontakten mit Wasser umgesetzt. Dabei bilden sich Quecksilber, Natronlauge und Wasserstoff. Diese räumliche Trennung ermöglicht sehr reine Produkte. Der größte Nachteil ist die Verwendung des stark toxischen und umweltgefährlichen Quecksilbers, durch das aufwändige und teure Schutzmaßnahmen nötig werden.
Es sind verschiedene Verfahren bekannt, mit denen durch chemische Oxidation aus Chlorwasserstoff Chlor hergestellt werden kann (Weldon-Verfahren und Deacon-Verfahren). Diese spielen für die Chlorproduktion nur eine geringe Rolle. Ein weiteres Beispiel ist das KEL-Chlor-Verfahren, bei dem der Chlorwasserstoff mit Schwefelsäure und Nitrosylschwefelsäure umgesetzt wird und das 1975 von DuPont entwickelt wurde. Der entscheidende Reaktionsschritt hierbei ist die Oxidation von Chlorwasserstoff mit Stickstoffdioxid, das in mehreren Teilreaktionen aus der Nitrosylschwefelsäure freigesetzt wird. Nach Erprobung in einer Versuchsanlage wurde das Verfahren jedoch wegen geringer Wirtschaftlichkeit und Materialproblemen wieder eingestellt. Weitere Prozesse beruhen auf Kupfer(II)-chlorid- oder Chrom(III)-oxid-Katalysatoren.
Im Labormaßstab kann elementares Chlor unter anderem durch Ansäuern von Chlorkalk dargestellt werden, beispielsweise mit Schwefelsäure.
Eigenschaften.
Physikalische Eigenschaften.
Chlor ist bei Raumtemperatur ein gelbgrünes Gas, das mit einer Dichte von 3,214 g/l bei 0 °C etwa 2,5 mal so schwer wie Luft ist. Es kondensiert bei −34,6 °C zu einer gelben Flüssigkeit und erstarrt bei −101 °C. Da der kritische Punkt mit 143,9 °C, 77,1 bar und 0,67 g/cm³ relativ hoch ist, lässt sich Chlor leicht unter Druck verflüssigen. So ist es bei einem Druck von 6,7 bar bei 20 °C flüssig und lässt sich in Stahlflaschen oder Kesselwagen transportieren. Die Intensität der Farbe nimmt bei geringerer Temperatur ab, bei −195 °C ist Chlor fast farblos.
Wie die anderen Halogene liegt auch Chlor als zweiatomiges Molekül vor. Der Abstand zwischen den Chloratomen beträgt 199 pm. Chlor hat mit 242 kJ/mol die höchste Dissoziationsenthalpie aller Halogene. Ein weiterer Hinweis darauf ist die Temperatur, bei der 1 % aller Halogenmoleküle dissoziiert sind und die bei Chlor 975 °C, bei Brom 775 °C und Iod 575 °C beträgt. Auch Fluor hat mit 765 °C eine niedrigere Temperatur. Dass Chlor und nicht wie zu erwarten Fluor das Halogen mit der höchsten Dissoziationsenthalpie ist, liegt an der besonders kurzen Bindung des Fluors, bei der es zu Abstoßungen zwischen den freien Elektronenpaaren und damit zur Schwächung der Bindung kommt. Zwischen den weiter entfernten Chloratomen kommt es dagegen nicht zu einem solchen Effekt und daher trotz größerer Entfernung der Atome zu einer stärkeren Bindung.
Chlor kristallisiert im orthorhombischen Kristallsystem mit den Gitterkonstanten a = 624 pm, b = 448 pm und c = 826 pm. Dabei sind die Chlor-Moleküle ebenso wie diejenigen von Iod und Brom in Schichten angeordnet. Jedes Atom eines Cl2-Moleküls ist dabei in einem Abstand von 334 pm schwach mit jeweils zwei weiteren Atomen anderer Moleküle assoziiert. Zwischen den Schichten sind die Abstände dagegen größer mit einem minimalen Abstand von 369 pm. Dieser Schichtaufbau bedingt die plättchenförmige Gestalt und die leichte Spaltbarkeit von Chlorkristallen.
Die Löslichkeit ist in verschiedenen Lösungsmitteln unterschiedlich ausgeprägt. In Wasser ist es unter teilweiser Dissoziation mäßig löslich, in einem Liter Wasser lassen sich etwa 2,3 Liter Chlor lösen. Die entstandene Lösung wird als "Chlorwasser" bezeichnet. Dagegen löst es sich gut in flüssigen chlorhaltigen Verbindungen, etwa Dischwefeldichlorid, Siliciumtetrachlorid und organischen Chlorverbindungen wie Chloroform. Auch in einigen organischen Lösungsmitteln wie Benzol, Essigsäure und Dimethylformamid lösen sich größere Mengen Chlor.
Chemische Eigenschaften.
Chlor zählt neben Fluor zu den reaktivsten Elementen und reagiert mit fast allen Elementen. Keine direkte Reaktion findet lediglich mit Sauerstoff, Stickstoff und den Edelgasen statt. Viele Metalle, wie Mangan, Zink oder die Edelmetalle Gold, Silber und Platin reagieren allerdings erst bei erhöhten Temperaturen mit Chlor. Eine wichtige Rolle spielt mitunter die Anwesenheit von Wasser, so reagieren Kupfer und Eisen mit vollkommen trockenem Chlor erst bei Temperaturen oberhalb 200 °C, mit feuchtem Chlor dagegen schon bei deutlich niedrigeren Temperaturen.
Besonders stark ist die Neigung von Chlor zur Reaktion mit Wasserstoff. Nach einer nötigen Initiierung durch Spaltung eines ersten Chlormoleküls, die beispielsweise durch kurzwelliges blaues Licht ausgelöst werden kann, reagieren die Elemente in einer explosionsartig verlaufenden Kettenreaktion, der sogenannten Chlorknallgasreaktion. Durch die starke Neigung, Chlorwasserstoff zu bilden, reagiert Chlor auch mit anderen Wasserstoff enthaltenden Verbindungen wie Ammoniak, Ethin, Schwefelwasserstoff oder Wasser.
Chlor reagiert mit Alkanen über den Reaktionsmechanismus der radikalischen Substitution. Dabei bilden sich zunächst durch Hitze oder Bestrahlung einzelne Chlorradikale, die unter Bildung von Chlorwasserstoff die C-H-Bindung eines Alkans brechen können. Anschließend erfolgt eine Reaktion des entstandenen Radikals mit weiterem Chlor und eine weitere Kettenreaktion. Auf Grund der hohen Reaktivität ist Chlor bei der Reaktion mit Alkanen nur schwach regioselektiv, es kommt auch zu Mehrfachchlorierungen. Bei aromatischen Kohlenwasserstoffen ist ein radikalischer Reaktionsweg nicht möglich, eine Chlorierung erfolgt hier über die elektrophile aromatische Substitution unter Katalyse einer Lewis-Säure wie etwa Aluminiumchlorid.
Isotope.
Insgesamt sind 23 Isotope und zwei weitere Kernisomere zwischen 28Cl und 51Cl bekannt. Von diesen sind zwei, die Isotope 35Cl und 37Cl stabil. Natürliches Chlor besteht zu 75,77 % aus 35Cl und zu 24,23 % aus 37Cl. Dieses typische Verhältnis ist stets in Massenspektren organischer und anorganischer Substanzen zu beobachten.
36Cl.
Mit einer Halbwertszeit von 301.300 Jahren ist 36Cl das langlebigste der sonst innerhalb von Minuten oder noch kürzeren Zeiten zerfallenden instabilen Isotope, weshalb es zum Markieren verwendet wird.
36Cl entsteht in geringen Mengen durch Spallationsreaktionen von 40Ar und 36Ar mit kosmischer Strahlung in der Atmosphäre. Auch auf der Erdoberfläche kann 36Cl durch Neutronenadsorption, Reaktionen mit Myonen oder Spallation entstehen. Das Verhältnis von 36Cl zu 37Cl beträgt etwa 700 · 10−15:1. Durch die lange Halbwertszeit und konstante Atmosphärenkonzentration lässt sich die Konzentration an 36Cl zur Altersbestimmung für Grundwasser von bis zu einer Million Jahre nutzen.
Die Konzentration an 36Cl war zwischen 1954 und 1963 durch im Meer stattfindende Kernwaffentests, bei denen im Meerwasser enthaltenes 35Cl Neutronenstrahlung absorbiert und zu 36Cl reagiert, erhöht. Seit einem Vertrag zum Verbot dieser Art Tests nahm die Konzentration in der Atmosphäre zwar stetig ab und erreichte ab etwa 1980 das natürliche Verhältnis, jedoch können im Meerwasser nach wie vor erhöhte Konzentrationen des Isotops gefunden werden. Die 36Cl-Methode wird auch zu paläontologischen und vorgeschichtlichen Datierungen herangezogen.
38Cl und 37Cl.
38Cl ist ein kurzlebiges Isotop mit einer Halbwertszeit von 37 Minuten und kann zum Beispiel durch Neutronenadsorption aus in Meerwasser enthaltenem 37Cl entstehen. In Flüssigsalzreaktoren, welche mit Chloriden operieren (üblich sind allerdings Fluoride), kann die Reaktion von 37Cl zum radioaktive 38Cl problematisch sein, sodass für eine entsprechende Verwendung oft Isotopentrennung vorgeschlagen wird, um 35Cl anzureichern.
Verwendung.
Chlor wird vor allem zur Herstellung anderer Chemikalien verwendet. Mit 33 % im Jahr 1997 ist dabei Vinylchlorid, die Ausgangssubstanz für die Herstellung des Kunststoffs Polyvinylchlorid, das wichtigste Produkt. Auch andere einfache chlororganische Verbindungen werden durch Reaktion von Chlor und entsprechenden Kohlenwasserstoffen, zum Beispiel mittels Photochlorierung, hergestellt. Diese dienen vor allem als Zwischenprodukt, etwa für die Herstellung von Kunststoffen, Arzneistoffen oder Pestiziden. So wurden 1995 85 % aller Arzneistoffe unter Verwendung von Chlor hergestellt. Häufig wird das Chlor im Verlauf eines Herstellungsprozesses wieder abgespalten, um chlorfreie Endprodukte zu erhalten. Beispiele dafür sind die Herstellung von Glycerin über Allylchlorid und Epichlorhydrin oder das "Chlorhydrinverfahren" zur Herstellung von Propylenoxid.
Anorganische Chlorverbindungen werden häufig über die Reaktion mit Chlor hergestellt. Technisch wichtig sind dabei beispielsweise die Synthese von Chlorwasserstoff in hoher Reinheit durch Reaktion von Chlor und Wasserstoff oder die Synthese von Titantetrachlorid. Dieses wird entweder über den Kroll-Prozess zu elementarem Titan weiterverarbeitet oder dient als Zwischenprodukt bei der Reinigung des Weißpigmentes Titan(IV)-oxid. Weitere wichtige Chloride, die durch Reaktion des Elements mit Chlor dargestellt werden, sind Aluminiumtrichlorid und Siliciumtetrachlorid.
Wird Chlor in Wasser geleitet, disproportioniert es langsam unter Bildung von Hypochloriger Säure und Salzsäure. Erstere wirkt stark oxidierend und wirkt so bleichend und desinfizierend. Die bleichende Wirkung des Chlors wurde vor allem für die Produktion von weißem Papier ausgenutzt. Das Chlor ist in der Lage, die aromatischen Ringe des Lignins zu ersetzen oder zu oxidieren. Dadurch sind mögliche Chromophore zerstört und das Papier erscheint heller. Da jedoch bei der Chlorbleiche teilweise krebserzeugende chlororganische Verbindungen wie Polychlorierte Dibenzodioxine und Dibenzofurane oder Chlorphenole entstehen, wurde die Chlorbleiche häufig durch ungefährlichere Methoden wie die Bleiche mit Natriumdithionit ersetzt.
Die desinfizierende Wirkung des bei der Reaktion von Chlor und Wasser entstandenem Hypochlorits wird bei der Wasseraufbereitung in der sogenannten Chlorung ausgenutzt. Neben Trinkwasser wird vor allem Schwimmbadwasser auf diese Weise von Bakterien befreit. Da bei der Reaktion mit anderen Bestandteilen des Wassers auch unerwünschte und teilweise giftige oder krebserregende Stoffe, etwa Trihalogenmethane, entstehen können, wird Chlor für die Desinfektion von Trinkwasser zunehmend durch Chlordioxid oder Ozon ersetzt.
Auf Grund der Umweltschädlichkeit und Giftigkeit von Chlor und vielen chlorhaltigen Verbindungen wird gefordert und teilweise versucht, diese zu vermeiden und durch chlorfreie Verbindungen und Prozesse zu ersetzen. Auch das Recycling von chlorhaltigen Abfallstoffen ist eine Alternative, da so keine neuen derartigen Produkte hergestellt werden müssen. Das Verbrennen von chlororganischen Verbindungen, bei dem leicht giftige Verbrennungsprodukte entstehen können, kann so vermieden werden. Allerdings sprechen häufig höhere Preise und schlechtere Eigenschaften von Ersatzstoffen gegen den Einsatz von chlorfreien Produkten und Prozessen, und es wird weiterhin Chlor in großen Mengen in der Industrie eingesetzt.
Biologische Bedeutung.
Elementares Chlor wirkt oxidierend und kann mit pflanzlichem und tierischem Gewebe reagieren. Es ist dementsprechend toxisch und hat keine biologische Bedeutung. Ebenfalls stark oxidierend wirkend und damit ohne biologische Funktionen sind Chlorverbindungen in hohen Oxidationsstufen wie etwa Chloroxide und Chlorsauerstoffsäuren.
Von biologischer Bedeutung ist das Element in Form des Chlorid-Anions. Chlorid ist essentiell und eines der häufigeren Bestandteile des Körpers. So enthält ein durchschnittlicher menschlicher Körper von etwa 70 kg 95 g Chlorid. Der größte Teil des Chlorids befindet sich als Gegenion zu Natrium gelöst im Extrazellularraum, so besitzt Blutplasma eine Chloridkonzentration von 100–107 mmol/l. Chlorid beeinflusst maßgeblich den osmotischen Druck und damit den Wasserhaushalt des Körpers. Weiterhin dient Chlorid zum Ladungsausgleich bei Austausch von Ionen in Zellen hinein und aus diesen heraus. Dies spielt beispielsweise beim Transport von Kohlenstoffdioxid als Hydrogencarbonat eine Rolle. Für diesen Ausgleich und die Wiederherstellung des Ruhemembranpotentials dienen Chloridkanäle, durch die Chlorid-Ionen die Zellmembranen passieren können.
Eine besonders hohe Chloridkonzentration enthält der Magensaft; da dort neben den Chloridionen überwiegend Oxonium-Ionen vorliegen, ist die Magensäure eine Salzsäure mit einer Konzentration von etwa 0,1 mol/l.
Aufgenommen wird das Chlorid überwiegend als Natriumchlorid im Speisesalz. Die empfohlene tägliche Menge für die Aufnahme von Chlorid liegt bei 3,2 g für Erwachsene und 0,5 g für Säuglinge.
Nachweis.
Chlor besitzt eine typische grün-gelbe Farbe und ebenso einen charakteristischen Geruch, diese lassen jedoch keine genauere Bestimmung zu. Für den Nachweis von Chlor wird meist die oxidierende Wirkung ausgenutzt. So kann Chlor Iodide und Bromide zu den Elementen oxidieren, wodurch sich eine bromidhaltige Lösung braun beziehungsweise eine iodidhaltige Lösung violett färbt. Damit diese Farbe besser zu sehen ist, wird das Brom oder Iod mit Hexan extrahiert. Auch Reaktionen mit anderen Stoffen, etwa die Entfärbung von Methylorange kann als Nachweis für Chlor genutzt werden. Diese sind jedoch nicht spezifisch, da auch andere Oxidationsmittel in der Lage sind, in gleicher Weise zu reagieren.
Einen für Chlor spezifischen Nachweis, der etwa in Prüfröhrchen für Gase angewendet wird, liefert die Reaktion mit Tolidin. Dabei bildet sich ein gelber Farbstoff, der durch kolorimetrische Verfahren nachweisbar ist.
Chloride können in wässrigen Lösungen über die Reaktion mit Silberionen und die Bildung des schwerlöslichen Silberchlorids nachgewiesen werden. Dieses liegt als weißer Niederschlag vor und unterscheidet sich damit von den ebenfalls schwerlöslichen Silberbromid und Silberiodid, die eine gelbe Farbe besitzen. Über die Argentometrie lassen sich dadurch auch quantitative Messungen von Chloridgehalten durchführen.
Sicherheitshinweise.
Chlor wirkt als Gas vorwiegend auf die Atemwege. Bei der Inhalation reagiert es mit der Feuchtigkeit der Schleimhäute unter Bildung von hypochloriger Säure und Chlorwasserstoffsäure. Dadurch kommt es zu einer starken Reizung der Schleimhäute, bei längerer Einwirkung auch zu Bluthusten und Atemnot, sowie Erstickungserscheinungen. Bei höheren Konzentrationen kommt es zur Bildung von Lungenödemen und starken Lungenschäden. Ein Gehalt von 0,5–1 % Chlor in der Atemluft wirkt tödlich durch Atemstillstand. Die letalen Dosen über eine Stunde (LC50) liegen bei 293 ppm für Ratten und 137 ppm für Mäuse. Flüssiges Chlor wirkt stark ätzend auf die Haut. Bei chronischer Einwirkung von Chlor kann es zu chronischer Bronchitis, bei höheren Konzentrationen auch zu Herz- und Kreislaufschäden, sowie Magenbeschwerden kommen.
Chlor ist nicht brennbar (Chlordioxid entsteht auf anderem Weg), kann jedoch mit vielen Stoffen stark reagieren. So besteht beim Kontakt von Chlor mit Wasserstoff, Kohlenwasserstoffen, Ammoniak, Aminen, Diethylether und einigen anderen Stoffen Explosionsgefahr.
Eine spanische Studie kam zu dem Ergebnis, dass die durch die Chlorung des Wassers und die Reaktion mit organischen Verunreinigungen (Urin, Schweiß, Hautschuppen) entstehenden Desinfektionsnebenprodukte das Risiko für Blasenkrebs erhöhen. Dieses Risiko lässt sich durch angemessene hygienische Verhaltensweisen der Badegäste (vor dem Betreten des Beckens duschen, nicht ins Becken urinieren) deutlich verringern.
Verbindungen.
Chlor bildet Verbindungen in verschiedenen Oxidationsstufen von −1 bis +7. Die stabilste und häufigste Oxidationsstufe ist dabei −1, die höheren werden nur in Verbindungen mit den elektronegativeren Elementen Sauerstoff und Fluor gebildet. Dabei sind die ungeraden Oxidationsstufen +1, +3, +5 und +7 stabiler als die geraden. Einen Überblick über die Chlorverbindungen bietet die
Chlorwasserstoff und Chloride.
Anorganische Verbindungen, in denen das Chlor in der Oxidationsstufe −1 und damit als Anion vorliegt, werden Chloride genannt. Diese leiten sich von der gasförmigen Wasserstoffverbindung Chlorwasserstoff (HCl) ab. Diese ist eine starke Säure und gibt in wässrigen Lösungen leicht das Proton ab. Diese wässrige Lösung wird als Salzsäure bezeichnet. Salzsäure ist eine der technisch wichtigsten Säuren und wird in großen Mengen verwendet. Chloride sind in der Regel gut wasserlöslich, Ausnahmen sind Silberchlorid, Quecksilber(I)-chlorid und Blei(II)-chlorid.
Besonders bekannt sind die Chloride der Alkalimetalle, vor allem das Natriumchlorid. Dieses ist der Hauptbestandteil des Speisesalzes und damit wichtiger Bestandteil der Ernährung. Gleichzeitig ist das in großen Mengen als Halit vorkommende Natriumchlorid Ausgangsverbindung für die Gewinnung der meisten anderen Chlorverbindungen. Auch Kaliumchlorid wird in großen Mengen, vor allem als Dünger und zur Gewinnung anderer Kaliumverbindungen, verwendet.
Chloroxide.
Es ist eine größere Anzahl Verbindungen von Chlor und Sauerstoff bekannt. Diese sind nach den allgemeinen Formeln ClO"x" ("x" = 1–4) und Cl2O"x" ("x" = 1–7) aufgebaut. Chloroxide sind sehr reaktiv und zerfallen explosionsartig in die Elemente. Von technischer Bedeutung sind nur zwei der Chloroxide, Dichloroxid (Cl2O) und Chlordioxid (ClO2). Letztes ist unter Normalbedingungen gasförmig und eine der wenigen radikalisch aufgebauten Verbindungen. Beim Verfestigen dimerisiert es und ändert dabei die Magnetisierung von Para- zu Diamagnetismus.
Chlorsauerstoffsäuren.
Neben den Chloroxiden bilden Chlor und Sauerstoff – analog zu den Halogenen Brom und Iod – auch mehrere Säuren, bei denen ein Chloratom von einem bis vier Sauerstoffatomen umgeben sind. Diese zu den Halogensauerstoffsäuren zählenden Verbindungen sind die Hypochlorige Säure, die Chlorige Säure, die Chlorsäure und die Perchlorsäure. Die einzige dieser Säuren, die als Reinstoff stabil ist, ist die Perchlorsäure, die anderen sind nur in wässriger Lösung oder in Form ihrer Salze bekannt. Der pKs-Wert dieser Säuren sinkt mit der zunehmenden Anzahl an Sauerstoffatomen im Molekül. Während die Hypochlorige Säure eine nur schwache Säure ist, zählt Perchlorsäure zu den Supersäuren, den stärksten bekannten Säuren.
Interhalogenverbindungen.
Chlor bildet vorwiegend mit Fluor, zum Teil auch mit den anderen Halogenen eine Reihe von Interhalogenverbindungen. Chlorfluoride wie Chlorfluorid und Chlortrifluorid wirken stark oxidierend und fluorierend. Während Chlor in den Fluor-Chlor-Verbindungen als elektropositiveres Element in Oxidationsstufen bis +5 im Chlorpentafluorid vorliegt, ist es in Verbindungen mit Brom und Iod der elektronegativere Bestandteil. Mit diesen Elementen sind nur drei Verbindungen, Bromchlorid, Iodchlorid und Iodtrichlorid bekannt.
Organische Chlorverbindungen.
Eine Vielzahl von organischen Chlorverbindungen (auch "Organochlorverbindungen") wird synthetisch hergestellt. Wichtig sind in der Gruppe der Halogenkohlenwasserstoffe die Chloralkane, die Chloralkene sowie die Chloraromaten. Eingesetzt werden sie unter anderem als Lösungsmittel, Kältemittel, Hydrauliköle, Pflanzenschutzmittel oder Arzneistoffe.
Zu den Organochlorverbindungen gehören auch einige stark giftige, persistente und bioakkumulative Substanzen, wie etwa die polychlorierten Dibenzodioxine und Dibenzofurane. Die ersten zwölf in das der Schadstoffkontrolle dienenden Stockholmer Übereinkommen aufgenommenen Verbindungen beziehungsweise Stoffgruppen, das sogenannte Dreckige Dutzend, sind ausnahmslos organische Chlorverbindungen.
Außerdem gibt es in der Biosphäre eine Vielzahl von natürlichen organischen Chlorverbindungen, die von Organismen, wie z. B. Bodenbakterien, Schimmelpilze, Seetang und Flechten, synthetisiert werden können. Zu den Verbindungen gehören biogene Halogenkohlenwasserstoffe, wie Methylchlorid, das zu 70 % aus marinen Organismen stammt, und chlorierte Aromate, aber auch chlorhaltige Aminosäuren, wie -2-Amino-4-chlor-4-pentensäure, die in bestimmten Blätterpilzen vorkommt. Auffällig hoch ist auch der Anteil von chlorierten Huminstoffen in bestimmten Mooren.
Die Synthese dieser Verbindungen erfolgt über Haloperoxidasen in Gegenwart von Wasserstoffperoxid, über Direktchlorierung mit enzymatisch freigesetztem Chlor oder Hypochlorit, über Chlorradikale oder durch nucleophile Ringöffnung von Epoxiden mit Chloridionen. Da Chloridionen in der Natur häufig vorkommen, sind diese ausschließlich der Chlorlieferant für die biogenen organischen Chlorverbindungen. Der Anteil dieser Verbindungen in der Umwelt im Vergleich zu dem industriell verursachten Anteil von organischen Chlorverbindungen ist nicht unerheblich.
Chlorhydrate.
Wie von Faraday 1811 erstmals näher untersucht, bildet Chlorgas bei Abkühlung in Gegenwart von Wasser auskristallisierende „Chlorhydrate“, über deren Aufbau und Zusammensetzung lange Zeit Unklarheit herrschte. Nach einstweilen letztem Stand der Untersuchungen handelt es sich dabei um eine Verbindung der Summenformel Cl2·7H2O. |
807 | 2458679 | https://de.wikipedia.org/wiki?curid=807 | Curium | Curium ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Cm und der Ordnungszahl 96. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt zu den Transuranen. Curium wurde nach den Forschern Marie Curie und Pierre Curie benannt.
Bei Curium handelt es sich um ein radioaktives, silbrig-weißes Metall großer Härte. Es wird in Kernreaktoren gebildet, eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 20 g.
Curium wurde im Sommer 1944 erstmals aus dem leichteren Element Plutonium erzeugt, die Entdeckung wurde zunächst nicht veröffentlicht. Erst in einer amerikanischen Radiosendung für Kinder wurde durch den Entdecker Glenn T. Seaborg als Gast der Sendung die Existenz der Öffentlichkeit preisgegeben, indem er die Frage eines jungen Zuhörers bejahte, ob neue Elemente entdeckt worden seien.
Curium ist ein starker α-Strahler; es wird gelegentlich aufgrund der sehr großen Wärmeentwicklung während des Zerfalls in Radionuklidbatterien eingesetzt. Außerdem wird es zur Erzeugung von 238Pu für gammastrahlungsarme Radionuklidbatterien, beispielsweise in Herzschrittmachern, verwendet. Das Element kann weiterhin als Ausgangsmaterial zur Erzeugung höherer Transurane und Transactinoide eingesetzt werden. Es dient auch als α-Strahlenquelle in Röntgenspektrometern, mit denen u. a. die Mars-Rover Sojourner, Spirit und Opportunity auf der Oberfläche des Planeten Mars Gestein chemisch analysieren. Der Lander Philae der Raumsonde Rosetta sollte damit die Oberfläche des Kometen 67P/Tschurjumow-Gerassimenko untersuchen.
Geschichte.
Curium wurde im Sommer 1944 von Glenn T. Seaborg und seinen Mitarbeitern Ralph A. James und Albert Ghiorso entdeckt. In ihren Versuchsreihen benutzten sie ein 60-Inch-Cyclotron an der Universität von Kalifornien in Berkeley. Nach Neptunium und Plutonium war es das dritte seit dem Jahr 1940 entdeckte Transuran. Seine Erzeugung gelang noch vor der des in der Ordnungszahl um einen Platz tiefer stehenden Elements Americium.
Zur Erzeugung des neuen Elements wurden meistens die Oxide der Ausgangselemente verwendet. Dazu wurde zunächst Plutoniumnitratlösung (mit dem Isotop 239Pu) auf eine Platinfolie von etwa 0,5 cm2 aufgetragen, die Lösung danach eingedampft und der Rückstand dann zum Oxid (PuO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst und anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst. Die weitere Trennung erfolgte mit Ionenaustauschern. In diesen Versuchsreihen entstanden zwei verschiedene Isotope: 242Cm und 240Cm.
Das erste Isotop 242Cm erzeugten sie im Juli/August 1944 durch Beschuss von 239Pu mit α-Teilchen. Hierbei entsteht in einer sogenannten (α,n)-Reaktion das gewünschte Isotop und ein Neutron:
Die Identifikation gelang zweifelsfrei anhand der charakteristischen Energie des beim Zerfall ausgesandten α-Teilchens. Die Halbwertszeit dieses α-Zerfalls wurde erstmals auf 150 Tage bestimmt (162,8 d).
Das zweite, kurzlebigere Isotop 240Cm, das ebenfalls durch Beschuss von 239Pu mit α-Teilchen entsteht, entdeckten sie erst später im März 1945:
Die Halbwertszeit des anschließenden α-Zerfalls wurde erstmals auf 26,7 Tage bestimmt (27 d).
Auf Grund des andauernden Zweiten Weltkriegs wurde die Entdeckung des neuen Elements zunächst nicht veröffentlicht. Die Öffentlichkeit erfuhr erst auf äußerst kuriose Weise von dessen Existenz: In der amerikanischen Radiosendung "Quiz Kids" vom 11. November 1945 fragte einer der jungen Zuhörer Glenn Seaborg, der als Gast der Sendung auftrat, ob während des Zweiten Weltkriegs im Zuge der Erforschung von Nuklearwaffen neue Elemente entdeckt worden seien. Seaborg bejahte die Frage und enthüllte damit die Existenz des Elements gleichzeitig mit der des nächstniedrigeren Elements, Americium. Dies geschah noch vor der offiziellen Bekanntmachung bei einem Symposium der American Chemical Society.
Die Entdeckung von Curium (242Cm, 240Cm), ihre Produktion und die ihrer Verbindungen wurden später unter dem Namen "Element 96 and compositions thereof" patentiert, wobei als Erfinder nur Glenn T. Seaborg angegeben wurde.
Der Name Curium wurde in Analogie zu Gadolinium gewählt, dem Seltenerdmetall, das im Periodensystem genau über Curium steht. Die Namenswahl ehrte das Ehepaar Marie und Pierre Curie, dessen wissenschaftliche Arbeit für die Erforschung der Radioaktivität bahnbrechend gewesen war. Es folgte damit der Namensgebung von "Gadolinium", das nach dem berühmten Erforscher der Seltenen Erden, Johan Gadolin benannt wurde: "As the name for the element of atomic number 96 we should like to propose "curium", with symbol Cm. The evidence indicates that element 96 contains seven 5f electrons and is thus analogous to the element gadolinium with its seven 4f electrons in the regular rare earth series. On this basis element 96 is named after the Curies in a manner analogous to the naming of gadolinium, in which the chemist Gadolin was honored."
Die erste wägbare Menge Curium konnte 1947 in Form des Hydroxids von Louis B. Werner und Isadore Perlman hergestellt werden. Hierbei handelte es sich um 40 μg 242Cm, das durch Neutronenbeschuss von 241Am entstand. In elementarer Form wurde es erst 1951 durch Reduktion von Curium(III)-fluorid mit Barium dargestellt.
Vorkommen.
Das langlebigste Isotop 247Cm besitzt eine Halbwertszeit von 15,6 Millionen Jahren. Aus diesem Grund ist das gesamte primordiale Curium, das die Erde bei ihrer Entstehung enthielt, mittlerweile zerfallen. Curium wird zu Forschungszwecken in kleinen Mengen künstlich hergestellt. Weiterhin fällt es in geringen Mengen in abgebrannten Kernbrennstoffen an.
In der Umwelt vorkommendes Curium stammt größtenteils aus atmosphärischen Kernwaffentests bis 1980. Lokal gibt es höhere Vorkommen, bedingt durch nukleare Unfälle und andere Kernwaffentests. Zum natürlichen Hintergrund der Erde trägt Curium allerdings kaum bei.
Über die Erstentdeckung von Einsteinium und Fermium in den Überresten der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll hinaus wurden neben Plutonium und Americium auch Isotope von Curium, Berkelium und Californium gefunden: vor allem die Isotope 245Cm und 246Cm, in kleineren Mengen 247Cm und 248Cm, in Spuren 249Cm. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst später im Jahr 1956 publiziert.
Gewinnung und Darstellung.
Gewinnung von Curiumisotopen.
Curium fällt in geringen Mengen in Kernreaktoren an. Es steht heute weltweit lediglich in Mengen von wenigen Kilogramm zur Verfügung, worauf sein sehr hoher Preis von etwa 160 US-Dollar pro Mikrogramm 244Cm bzw. 248Cm beruht. In Kernreaktoren wird es aus 238U in einer Reihe von Kernreaktionen gebildet. Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das Plutoniumisotop 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt.
Zwei weitere (n,γ)-Reaktionen mit anschließendem β−-Zerfall liefern das Americiumisotop 241Am. Dieses ergibt nach einer weiteren (n,γ)-Reaktion mit folgendem β-Zerfall 242Cm.
Zu Forschungszwecken kann Curium auf effizienterem Wege gezielt aus Plutonium gewonnen werden, das im großen Maßstab aus abgebranntem Kernbrennstoff erhältlich ist. Dieses wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein Vielfaches höher als in einem Kernreaktor, so dass hier ein anderer Reaktionspfad als der oben dargestellte überwiegt. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu dem Americiumisotop 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm.
Diese Reaktion findet auch in Kernkraftwerken im Kernbrennstoff statt, so dass 244Cm auch bei der Wiederaufarbeitung abgebrannter Kernbrennstoffe anfällt und auf diesem Wege gewonnen werden kann.
Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächst schwereren Isotope. In der Forschung sind besonders die Isotope 247Cm und 248Cm wegen ihrer langen Halbwertszeiten beliebt. Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind. Dieses Isotop ist jedoch aus dem α-Zerfall von 254Cf zugänglich. Problematisch ist hierbei jedoch, dass 254Cf hauptsächlich durch Spontanspaltung und nur in geringem Maße durch α-Zerfall zerfällt. 249Cm zerfällt durch β−-Zerfall zu Berkelium 249Bk.
Durch Kaskaden von (n,γ)-Reaktionen und β-Zerfällen hergestelltes Curium besteht jedoch immer aus einem Gemisch verschiedener Isotope. Eine Auftrennung ist daher mit erheblichem Aufwand verbunden.
Zu Forschungszwecken wird auf Grund seiner langen Halbwertszeit bevorzugt 248Cm verwendet. Die effizienteste Methode zur Darstellung dieses Isotops ist durch den α-Zerfall von Californium 252Cf gegeben, das auf Grund seiner langen Halbwertszeit in größeren Mengen zugänglich ist. Auf diesem Wege gewonnenes 248Cm besitzt eine Isotopenreinheit von 97 %. Etwa 35–50 mg 248Cm werden auf diese Art derzeit pro Jahr erhalten.
Das lediglich zur Isotopenforschung interessante reine 245Cm kann aus dem α-Zerfall von Californium 249Cf erhalten werden, welches in sehr geringen Mengen als Tochternuklid des β−-Zerfalls des Berkeliumisotops 249Bk erhalten werden kann.
Darstellung elementaren Curiums.
Metallisches Curium kann durch Reduktion aus seinen Verbindungen erhalten werden. Zuerst wurde Curium(III)-fluorid zur Reduktion verwendet. Dieses wird hierzu in wasser- und sauerstofffreier Umgebung in Reaktionsapparaturen aus Tantal und Wolfram mit elementarem Barium oder Lithium zur Reaktion gebracht.
Auch die Reduktion von Curium(IV)-oxid mittels einer Magnesium-Zink-Legierung in einer Schmelze aus Magnesiumchlorid und Magnesiumfluorid ergibt metallisches Curium.
Eigenschaften.
Im Periodensystem steht das Curium mit der Ordnungszahl 96 in der Reihe der Actinoide, sein Vorgänger ist das Americium, das nachfolgende Element ist das Berkelium. Sein Analogon in der Reihe der Lanthanoiden ist das Gadolinium.
Physikalische Eigenschaften.
Curium ist ein radioaktives Metall. Dieses ist hart und hat ein silbrig-weißes Aussehen ähnlich dem Gadolinium, seinem Lanthanoidanalogon. Auch in seinen weiteren physikalischen und chemischen Eigenschaften ähnelt es diesem stark. Sein Schmelzpunkt von 1340 °C liegt deutlich höher als der der vorhergehenden Transurane Neptunium (637 °C), Plutonium (639 °C) und Americium (1173 °C). Im Vergleich dazu schmilzt Gadolinium bei 1312 °C. Der Siedepunkt von Curium liegt bei 3110 °C.
Von Curium existiert bei Standardbedingungen mit α-Cm nur eine bekannte Modifikation. Diese kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 365 pm und "c" = 1182 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La.
Oberhalb eines Drucks von 23 GPa geht α-Cm in β-Cm über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe mit dem Gitterparameter "a" = 493 pm, was einem kubisch flächenzentrierten Gitter "(fcc)" beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht.
Die Fluoreszenz angeregter Cm(III)-Ionen ist ausreichend langlebig, um diese zur zeitaufgelösten Laserfluoreszenzspektroskopie zu nutzen. Die lange Fluoreszenz kann auf die große Energielücke zwischen dem Grundterm 8S7/2 und dem ersten angeregten Zustand 6D7/2 zurückgeführt werden. Dies erlaubt die gezielte Detektion von Curiumverbindungen unter weitgehender Ausblendung störender kurzlebiger Fluoreszenzprozesse durch weitere Metallionen und organische Substanzen.
Chemische Eigenschaften.
Die stabilste Oxidationsstufe für Curium ist +3. Gelegentlich ist es auch in der Oxidationsstufe +4 zu finden. Sein chemisches Verhalten ähnelt sehr dem Americium und vielen Lanthanoiden. In verdünnten wässrigen Lösungen ist das Cm3+-Ion farblos, das Cm4+-Ion blassgelb. In höher konzentrierten Lösungen ist das Cm3+-Ion jedoch ebenfalls blassgelb.
Curiumionen gehören zu den harten Lewis-Säuren, weshalb sie die stabilsten Komplexe mit harten Basen bilden. Die Komplexbindung besitzt hierbei nur einen sehr geringen kovalenten Anteil und basiert hauptsächlich auf ionischer Wechselwirkung. Curium unterscheidet sich in seinem Komplexierungsverhalten von den früher bekannten Actinoiden wie Thorium und Uran und ähnelt auch hier stark den Lanthanoiden. In Komplexen bevorzugt es eine neunfache Koordination mit dreifach überkappter trigonal-prismatischer Geometrie.
Biologische Aspekte.
Curium besitzt keine biologische Bedeutung. Die Biosorption von Cm3+ durch Bakterien und Archäen wurde untersucht.
Spaltbarkeit.
Die ungeradzahligen Curiumisotope, insbesondere 243Cm, 245Cm und 247Cm eignen sich aufgrund der hohen Spaltquerschnitte prinzipiell auch als Kernbrennstoffe in einem thermischen Kernreaktor. Generell können alle Isotope zwischen 242Cm und 248Cm sowie 250Cm eine Kettenreaktion aufrechterhalten, wenn auch zum Teil nur mit schneller Spaltung. In einem schnellen Reaktor könnte also jede beliebige Mischung der genannten Isotope als Brennstoff verwendet werden. Der Vorteil liegt dann darin, dass bei der Gewinnung aus abgebranntem Kernbrennstoff keine Isotopentrennung durchgeführt werden müsste, sondern lediglich eine chemische Separation des Curiums von den anderen Stoffen.
Die unten stehende Tabelle gibt die kritischen Massen für eine reine Kugelgeometrie ohne Moderator und Reflektor an:
Mit Reflektor liegen die kritischen Massen der ungeradzahligen Isotope bei etwa 3–4 kg. In wässriger Lösung mit Reflektor lässt sich die kritische Masse für 245Cm bis auf 59 g reduzieren (243Cm: 155 g; 247Cm: 1,55 kg); diese Werte sind aufgrund von Unsicherheiten der für die Berechnung relevanten physikalischen Daten nur auf etwa 15 % genau, dementsprechend finden sich in unterschiedlichen Quellen teils stark schwankende Angaben. Aufgrund der geringen Verfügbarkeit und des hohen Preises wird Curium aber nicht als Kernbrennstoff eingesetzt und ist daher in Abs. 1 des Atomgesetzes in Deutschland auch nicht als solcher klassifiziert.
Die ungeradzahligen Curiumisotope, hier wiederum insbesondere 245Cm und 247Cm, könnten ebenso wie für den Reaktorbetrieb auch zum Bau von Kernwaffen eingesetzt werden. Bomben aus 243Cm wären aber aufgrund der geringen Halbwertszeit des Isotops mit einem erheblichen Wartungsaufwand verbunden. Außerdem müsste 243Cm als α-Strahler durch die beim radioaktiven Zerfall freiwerdende Energie glühend heiß sein, was die Konstruktion einer Bombe sehr erschweren dürfte. Da die kritischen Massen zum Teil sehr klein sind, ließen sich so vergleichsweise kleine Bomben konstruieren. Bisher sind allerdings keine Aktivitäten dieser Art publik geworden, was sich ebenfalls auf die geringe Verfügbarkeit zurückführen lässt.
Isotope.
Von Curium existieren nur Radionuklide und keine stabilen Isotope. Insgesamt sind 20 Isotope und 7 Kernisomere des Elements zwischen 233Cm und 252Cm bekannt. Die längsten Halbwertszeiten haben 247Cm mit 15,6 Mio. Jahren und 248Cm mit 348.000 Jahren. Daneben haben noch die Isotope 245Cm mit 8500, 250Cm mit 8300 und 246Cm mit 4760 Jahren lange Halbwertszeiten. 250Cm ist dabei eine Besonderheit, da sein radioaktiver Zerfall zum überwiegenden Teil (etwa 86 %) in spontaner Spaltung besteht.
Die am häufigsten technisch eingesetzten Curiumisotope sind 242Cm mit 162,8 Tagen und 244Cm mit 18,1 Jahren Halbwertszeit.
Die Wirkungsquerschnitte für induzierte Spaltung durch ein thermisches Neutron betragen: für 242Cm etwa 5 b, 243Cm 620 b, 244Cm 1,1 b, 245Cm 2100 b, 246Cm 0,16 b, 247Cm 82 b, 248Cm 0,36 b. Dies entspricht der Regel, nach der meist die Transuran-Nuklide mit ungerader Neutronenzahl "thermisch leicht spaltbar" sind.
"→ Liste der Curiumisotope"
Verwendung.
Radionuklidbatterien.
Da die beiden am häufigsten erbrüteten Isotope, 242Cm und 244Cm, nur kurze Halbwertszeiten (162,8 Tage bzw. 18,1 Jahre) und Alphaenergien von etwa 6 MeV haben, zeigt es eine viel stärkere Aktivität als etwa das in der natürlichen Uran-Radium-Zerfallsreihe erzeugte 226Ra. Aufgrund dieser Radioaktivität gibt es sehr große Wärmemengen ab; 244Cm emittiert 3 Watt/g und 242Cm sogar 120 Watt/g. Diese Curiumisotope können aufgrund der extremen Wärmeentwicklung in Form von Curium(III)-oxid (Cm2O3) in Radionuklidbatterien zur Versorgung mit Elektrischer Energie z. B. in Raumsonden eingesetzt werden. Dafür wurde vor allem die Verwendung von 244Cm untersucht. Als α-Strahler benötigt es eine wesentlich dünnere Abschirmung als die Betastrahler, jedoch ist seine Spontanspaltungsrate und damit die Neutronen- und Gammastrahlung höher als die von 238Pu. Es unterlag daher wegen der benötigten dicken Abschirmung und starken Neutronenstrahlung sowie seiner kürzeren Halbwertszeit (18,1 Jahre) dem 238Pu mit 87,7 Jahren Halbwertszeit.
242Cm wurde auch eingesetzt, um 238Pu für Radionuklidbatterien in Herzschrittmachern zu erzeugen. Im Reaktor erbrütetes 238Pu wird durch die (n,2n)-Reaktion von 237Np immer mit 236Pu verunreinigt, in dessen Zerfallsreihe der starke Gammastrahler 208Tl vorkommt. Ähnliches gilt auch für aus Uran unter Deuteronenbeschuss gewonnene 238Pu. Die anderen gewöhnlicherweise im Reaktor in relevanten Mengen erbrüteten Curium-Isotope führen in ihren Zerfallsreihen schnell auf langlebige Isotope, deren Strahlung für die Konstruktion von Herzschrittmachern dann nicht mehr relevant ist.
Röntgenspektrometer.
244Cm dient als α-Strahlenquelle in den vom Max-Planck-Institut für Chemie in Mainz entwickelten α-Partikel-Röntgenspektrometern (APXS), mit denen die Mars-Rover Sojourner, Spirit und Opportunity auf dem Planeten Mars Gestein chemisch analysierten. Auch der Lander Philae der Raumsonde Rosetta ist mit einem APXS ausgestattet, um die Zusammensetzung des Kometen Tschurjumow-Gerassimenko zu analysieren.
Außerdem hatten bereits die Mondsonden Surveyor 5–7 Alphaspektrometer an Bord. Diese arbeiteten jedoch mit 242Cm und maßen die von den α-Teilchen aus dem Mondboden herausgeschlagenen Protonen und zurückgeworfene α-Teilchen.
Herstellung anderer Elemente.
Weiterhin ist Curium Ausgangsmaterial zur Erzeugung höherer Transurane und Transactinoide. So führt zum Beispiel der Beschuss von 248Cm mit Sauerstoff (18O) beziehungsweise Magnesiumkernen (26Mg) zu den Elementen Seaborgium 265Sg beziehungsweise Hassium 269Hs und 270Hs.
Sicherheitshinweise.
Einstufungen nach der CLP-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen, die eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt.
Da von Curium nur radioaktive Isotope existieren, darf es selbst sowie seine Verbindungen nur in geeigneten Laboratorien unter speziellen Vorkehrungen gehandhabt werden. Die meisten gängigen Curiumisotope sind α-Strahler, weshalb eine Inkorporation unbedingt vermieden werden muss. Auch zerfällt ein Großteil der Isotope zu einem gewissen Anteil unter Spontanspaltung. Das breite Spektrum der hieraus resultierenden meist ebenfalls radioaktiven Tochternuklide stellt ein weiteres Risiko dar, das bei der Wahl der Sicherheitsvorkehrungen berücksichtigt werden muss.
Wirkung im Körper.
Wird Curium mit der Nahrung aufgenommen, so wird es größtenteils innerhalb einiger Tage wieder ausgeschieden und lediglich 0,05 % werden in den Blutkreislauf aufgenommen. Von hier werden etwa 45 % in der Leber deponiert, weitere 45 % werden in die Knochensubstanz eingebaut. Die verbleibenden 10 % werden ausgeschieden. Im Knochen lagert sich Curium insbesondere an der Innenseite der Grenzflächen zum Knochenmark an. Die weitere Verbreitung in die Kortikalis findet nur langsam statt.
Bei Inhalation wird Curium deutlich besser in den Körper aufgenommen, weshalb diese Art der Inkorporation bei der Arbeit mit Curium das größte Risiko darstellt. Die maximal zulässige Gesamtbelastung des menschlichen Körpers durch 244Cm (in löslicher Form) beträgt 0,3 µCi.
In Tierversuchen mit Ratten wurde nach einer intravenösen Injektion von 242Cm und 244Cm ein erhöhtes Auftreten von Knochentumoren beobachtet, deren Auftreten als Hauptgefahr bei der Inkorporation von Curium durch den Menschen betrachtet wird. Inhalation der Isotope führte zu Lungen- und Leberkrebs.
Kernreaktor-Abfallproblematik.
In wirtschaftlich sinnvoll (d. h. mit langer Verweildauer des Brennstoffs) genutzten Kernreaktoren entstehen physikalisch unvermeidlich Curiumisotope durch (n,γ)-Kernreaktionen mit nachfolgendem β−-Zerfall (siehe auch oben unter Gewinnung von Curiumisotopen). Eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 20 g verschiedener Curiumisotope. Darunter befinden sich auch die α-Strahler mit den Massenzahlen 245–248, die auf Grund ihrer relativ langen Halbwertszeiten in der Endlagerung unerwünscht sind und deshalb zum Transuranabfall zählen. Eine Verminderung der Langzeitradiotoxizität in nuklearen Endlagern wäre durch Abtrennung langlebiger Isotope aus abgebrannten Kernbrennstoffen möglich. Zur Beseitigung des Curiums wird derzeit die Partitioning-&-Transmutation-Strategie verfolgt. Geplant ist hierbei ein dreistufiger Prozess, in welchem der Kernbrennstoff aufgetrennt, in Gruppen aufgearbeitet und endgelagert werden soll. Im Rahmen dieses Prozesses sollen abgetrennte Curiumisotope durch Neutronenbeschuss in speziellen Reaktoren zu kurzlebigen Nukliden umgewandelt werden. Die Entwicklung dieses Prozesses ist Gegenstand der aktuellen Forschung, wobei die Prozessreife zum jetzigen Zeitpunkt noch nicht erreicht ist.
Verbindungen und Reaktionen.
Oxide.
Curium wird leicht von Sauerstoff angegriffen. Von Curium existieren Oxide der Oxidationsstufen +3 (Cm2O3) und +4 (CmO2). Auch das zweiwertige Oxid CmO ist bekannt.
Das schwarze Curium(IV)-oxid kann direkt aus den Elementen dargestellt werden. Hierzu wird metallisches Curium an Luft oder in einer Sauerstoffatmosphäre geglüht. Für Kleinstmengen bietet sich das Glühen von Salzen des Curiums an. Meistens werden hierzu Curium(III)-oxalat (Cm2(C2O4)3) oder Curium(III)-nitrat (Cm(NO3)3) herangezogen.
Aus Curium(IV)-oxid kann das weißliche Curium(III)-oxid durch thermische Zersetzung im Vakuum (ca. 0,01 Pa) bei 600 °C erhalten werden:
Ein weiterer Weg ist durch die Reduktion von Curium(IV)-oxid mit molekularem Wasserstoff gegeben:
Weiterhin ist eine Reihe ternärer oxidischer Curiumverbindungen des Typs M(II)CmO3 bekannt.
Der größte Teil des in freier Natur vorkommenden Curiums (s. Abschnitt "Vorkommen") liegt als Cm2O3 und CmO2 vor.
Halogenide.
Von den vier stabilen Halogenen sind Halogenide des Curiums bekannt.
Das farblose Curium(III)-fluorid (CmF3) kann durch Versatz von Cm(III)-haltigen Lösungen mit Fluoridionen erhalten werden. Das tetravalente Curium(IV)-fluorid (CmF4) ist nur durch die Umsetzung von Curium(III)-fluorid mit molekularem Fluor zugänglich:
Eine Reihe komplexer Fluoride der Form M7Cm6F31 (M = Alkalimetall) sind bekannt.
Das farblose Curium(III)-chlorid (CmCl3) kann durch die Reaktion von Curium(III)-hydroxid (Cm(OH)3) mit wasserfreiem Chlorwasserstoffgas dargestellt werden. Dieses kann genutzt werden, um die weiteren Halogenide, Curium(III)-bromid (hellgrün) und -iodid (farblos), zu synthetisieren. Hierzu wird Curium(III)-chlorid mit dem Ammoniumsalz des Halogenids umgesetzt:
Chalkogenide und Pentelide.
Von den Chalkogeniden sind das Sulfid und das Selenid bekannt. Sie sind durch die Reaktion von gasförmigem Schwefel oder Selen im Vakuum bei erhöhter Temperatur zugänglich.
Die Pentelide des Curiums des Typs CmX sind für die Elemente Stickstoff, Phosphor, Arsen und Antimon dargestellt worden. Ihre Herstellung kann durch die Reaktion von entweder Curium(III)-hydrid (CmH3) oder metallischem Curium mit diesen Elementen bei erhöhter Temperatur bewerkstelligt werden.
Metallorganische Verbindungen.
Analog zu Uranocen, einer Organometallverbindung, in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Neptunium, Plutonium und Americium dargestellt. Das MO-Schema legt nahe, dass eine entsprechende Verbindung (η8-C8H8)2Cm, ein "Curocen", synthetisiert werden kann, was jedoch bisher nicht gelang. |
809 | 178175 | https://de.wikipedia.org/wiki?curid=809 | Caesium | Caesium (nach IUPAC) [] , standardsprachlich Cäsium oder "Zäsium" (im amerikanischen Englisch "Cesium"), ist ein chemisches Element mit dem Elementsymbol Cs und der Ordnungszahl 55. Im Periodensystem steht es in der 1. Hauptgruppe, bzw. der 1. IUPAC-Gruppe und gehört zu den Alkalimetallen. Caesium ist das schwerste stabile Alkalimetall.
Caesium wurde 1861 von Robert Wilhelm Bunsen und Gustav Robert Kirchhoff im Dürkheimer Mineralwasser der Maxquelle entdeckt. Aufgrund der zwei blauen Spektrallinien, mit denen das Element nachgewiesen wurde, benannten sie es nach dem lateinischen "caesius" für himmelblau. Das Reinelement konnte erstmals 1881 von Carl Theodor Setterberg dargestellt werden.
Caesium ist ein extrem reaktives, sehr weiches, goldfarbenes Metall. Da es sofort und sehr heftig mit Luft reagiert, wird es in abgeschmolzenen Glasampullen unter Inertgas aufbewahrt.
Eine biologische Bedeutung des nicht toxischen Elements ist nicht bekannt. Aufgrund der Ähnlichkeit zu Kalium wird es allerdings im Magen-Darm-Trakt resorbiert und analog zu Kalium vorwiegend im Muskelgewebe gespeichert. Deshalb fand das radioaktive Isotop "Caesium-137" (137Cs), ein Produkt der Kernspaltung, in der Öffentlichkeit besondere Beachtung, als es infolge der Katastrophe von Tschernobyl am 26. April 1986 in größeren Mengen in die Umwelt gelangte. Durch die großflächige Verteilung – und damit vergleichsweise geringe Konzentration – im Falle Tschernobyl ist von akuter Radiotoxizität nicht auszugehen, jedoch können chronische Effekte, insbesondere durch Bioakkumulation, nicht ausgeschlossen werden. Unfälle mit größeren Mengen Caesium-137 aus unsachgemäß entsorgten Abfällen der Nuklearmedizin wie der Goiânia-Unfall haben mehrfach zu Todesfällen durch die Strahlenkrankheit geführt, da hierbei sehr hohe akute Dosen auftraten.
Geschichte.
Caesium wurde erstmals 1861 von Gustav Robert Kirchhoff und Robert Wilhelm Bunsen beschrieben. Sie untersuchten Mineralwasser aus Dürkheim und entdeckten nach der Abtrennung von Calcium, Strontium, Magnesium und Lithium zwei bisher unbekannte Linien im blauen Spektralbereich. Sie schlossen aus ihren Beobachtungen, dass es im untersuchten Mineralwasser ein weiteres, bisher unbekanntes Element geben müsse, das sie wegen der blauen Spektrallinien "Caesium", nach dem lateinischen "caesius" für „himmelblau“, nannten.
Bunsen versuchte ebenfalls Caesium von den anderen Alkalimetallen zu trennen, um weitere Eigenschaften des Elements zu erforschen. Dazu versetzte er die Lösung mit einer Platinchlorid-Lösung, um Kalium und die neuentdeckten schwereren Alkalimetalle Rubidium und Caesium als unlösliches Hexachloridoplatinat auszufällen. Das Kalium konnte durch mehrmaliges Aufkochen in wenig Wasser entfernt werden. Zur Gewinnung der reinen Chloride wurde das Platin mit Wasserstoff zum Element reduziert, so dass die nun wasserlöslichen Caesium- und Rubidiumchloride ausgelaugt werden konnten. Die Trennung von Caesium und Rubidium erfolgte unter Ausnutzung der unterschiedlichen Löslichkeit der Carbonate in absolutem Ethanol, worin Caesiumcarbonat im Gegensatz zur entsprechenden Rubidiumverbindung löslich ist. Caesiumchlorid diente Bunsen und Kirchhoff auch für eine erste Bestimmung der molaren Masse des neuen Elements, wofür sie den Wert von 123,35 g/mol fanden. Dieser Wert ist nach heutigen Erkenntnissen gut 10 Gramm zu niedrig.
Die beiden Forscher konnten kein elementares Caesium gewinnen, denn bei der Elektrolyse von geschmolzenem Caesiumchlorid entstand anstelle des Metalls eine blaue Verbindung, die sie als "Subchlorid" bezeichneten, bei der es sich aber wahrscheinlich um eine kolloide Mischung von Caesium und Caesiumchlorid handelte. Bei der Elektrolyse einer wässrigen Lösung mit einer Quecksilberanode bildete sich das leicht zersetzbare Caesiumamalgam.
Die Darstellung des elementaren Caesiums gelang schließlich 1881 Carl Theodor Setterberg, der die Probleme mit dem Chlorid vermied, indem er für die Schmelzflusselektrolyse Caesiumcyanid verwendete. Dabei störte zunächst die zum Schmelzen des Caesiumcyanids nötige relativ hohe Temperatur, die er jedoch durch das Eutektikum mit Bariumcyanid herabsetzen konnte.
Vorkommen.
Mit einem Gehalt von 3 ppm in der kontinentalen Erdkruste ist Caesium auf der Erde ein seltenes Element. Es ist nach dem instabilen Francium das seltenste Alkalimetall. Auf Grund seiner hohen Reaktivität kommt es nicht elementar, sondern immer nur in Form von Verbindungen vor. Meist ist Caesium ein seltenes Begleitelement in Kalium- oder anderen Alkalimetallsalzen wie Lepidolith, es sind jedoch auch einige Caesiumminerale bekannt. Das häufigste Caesiummineral ist Pollucit, (Cs,Na)2Al2Si4O12 · H2O, das in größeren Vorkommen vor allem am Bernic Lake in der Nähe von Lac du Bonnet in der kanadischen Provinz Manitoba in der Tanco-Mine vorkommt. Weitere größere Vorkommen liegen in Bikita, Simbabwe und in Namibia. Die Vorkommen in der Tanco Mine bei Lac du Bonnet sind die einzigen, in denen Caesium abgebaut wird. Seltenere Caesiumminerale sind beispielsweise Cesstibtantit (Cs,Na)SbTa4O12 und Pautovit CsFe2S3.
Auf Grund der Wasserlöslichkeit der meisten Caesiumverbindungen ist das Element im Meerwasser gelöst; ein Liter enthält dabei durchschnittlich 0,3 bis 4 Mikrogramm Caesium. In vergleichbaren Mengen finden sich dort auch häufigere, aber schlechter lösliche Elemente wie Nickel, Chrom oder Kupfer.
Gewinnung und Darstellung.
Caesium wird nur in geringem Umfang hergestellt. Im Jahr 1978 betrug die weltweit produzierte Menge an Caesium und Caesiumverbindungen etwa 20 Tonnen. Ausgangsmaterial für die Gewinnung des elementaren Caesiums und aller Caesiumverbindungen ist Pollucit, der mit Säuren oder Basen aufgeschlossen werden kann. Als Säuren können Salz-, Schwefel- oder Bromwasserstoffsäure genutzt werden. Dabei entsteht jeweils eine caesium- und aluminiumhaltige Lösung, aus der durch Fällung, Ionenaustausch oder Extraktion die reinen Caesiumsalze gewonnen werden. Eine weitere Möglichkeit ist es, Pollucit mit Calcium- oder Natriumcarbonat und den entsprechenden Chloriden zu erhitzen und anschließend mit Wasser auszulaugen. Dabei entsteht eine unreine Caesiumchloridlösung.
Caesiummetall kann chemisch durch Reduktion von Caesiumhalogeniden mit Calcium oder Barium gewonnen werden. Dabei destilliert das im Vakuum flüchtige Caesiummetall ab.
Weitere Möglichkeiten der Caesiummetallherstellung sind die Reduktion von Caesiumhydroxid mit Magnesium und die Reduktion von Caesiumdichromat mit Zirconium.
Hochreines Caesium lässt sich über die Zersetzung von Caesiumazid, das aus Caesiumcarbonat gewonnen werden kann, und anschließende Destillation darstellen. Die Reaktion erfolgt bei 380 °C an einem Eisen- oder Kupferkatalysator.
Eigenschaften.
Physikalische Eigenschaften.
Caesium ist ein Leichtmetall mit einer Dichte von 1,873 g/cm3, das, anders als die leichteren Alkalimetalle, goldfarben ist. Der Grund liegt in der geringeren Bandlücke und damit an der geringeren Anregungsfrequenz, die in den blau-violetten Teil des sichtbaren Lichtspektrums reicht. Der blaue Anteil wird absorbiert, dadurch ist Caesium komplementär dazu gelb beziehungsweise goldfarben. In vielen Eigenschaften steht es zwischen denen des Rubidiums und – soweit bekannt – denen des instabilen Franciums. Es besitzt mit 28,7 °C mit Ausnahme von Francium den niedrigsten Schmelzpunkt aller Alkalimetalle und hat zugleich nach Quecksilber und vergleichbar mit Gallium einen der niedrigsten Schmelzpunkte für Metalle überhaupt. Caesium ist sehr weich (Mohs-Härte: 0,2) und sehr dehnbar.
Wie die anderen Alkalimetalle kristallisiert Caesium bei Standardbedingungen im kubischen Kristallsystem mit einer kubisch-raumzentrierten Elementarzelle in der mit dem Gitterparameter "a" = 614 pm sowie zwei Formeleinheiten pro Elementarzelle. Unter einem Druck von 41 kbar erfolgt eine Phasenumwandlung in eine kubisch-flächenzentrierte Kristallstruktur mit dem Gitterparameter "a" = 598 pm.
Mit Ausnahme von Lithium lässt sich Caesium mit anderen Alkalimetallen beliebig mischen. Bei einem Verhältnis von 41 % Caesium, 12 % Natrium und 47 % Kalium entsteht eine eutektische Legierung mit dem bisher niedrigsten bekannten Schmelzpunkt für Metallische Materialien von −78 °C.
Das Caesiumatom und auch das Ion Cs+ besitzen einen großen Radius, sie sind – wiederum mit Ausnahme von Francium – die größten einzelnen Atome beziehungsweise Ionen. Dies hängt mit der besonders niedrigen effektiven Kernladung zusammen, wodurch vor allem das äußerste s-Elektron nur in geringem Maße an den Kern gebunden ist. Dies bewirkt neben dem großen Atomradius auch die geringe Ionisierungsenergie des Caesiumatoms und damit die hohe Reaktivität des Elements.
Gasförmiges Caesium hat einen ungewöhnlichen Brechungsindex kleiner als eins. Das bedeutet, dass die Phasengeschwindigkeit der elektromagnetischen Welle – in diesem Fall Licht – größer als im Vakuum ist, was aber nicht im Widerspruch zur Relativitätstheorie steht.
Chemische Eigenschaften.
Caesium ist das Element mit der niedrigsten Ionisierungsenergie. Für die Abspaltung des äußersten Elektrons weist es die niedrigste Elektronegativität auf. Caesium gibt dieses bei Kontakt mit anderen Elementen sehr leicht ab und bildet einwertige Caesiumsalze. Da durch die Abspaltung dieses einen Elektrons die Edelgaskonfiguration erreicht ist, bildet es keine zwei- oder höherwertigen Ionen.
Reaktionen mit Caesium verlaufen in der Regel sehr heftig, so entzündet es sich beim Kontakt mit Sauerstoff sofort und bildet wie Kalium und Rubidium das entsprechende Hyperoxid.
Auch mit Wasser reagiert es sehr heftig unter Bildung von Caesiumhydroxid, diese Reaktion findet sogar mit Eis bei Temperaturen von −116 °C statt.
Beim Erhitzen mit Gold bildet sich Caesiumaurid (CsAu), eine Verbindung, die – trotz Bildung aus zwei Metallen – keine Legierung ist, sondern ein Halbleiter; in flüssigem CsAu liegen Cs+- und Au−-Ionen vor.
Isotope.
Insgesamt sind 41 Isotope und 29 weitere Kernisomere des Caesiums bekannt. In der Natur kommt nur das Isotop 133Cs vor. Caesium ist daher ein Reinelement. Von den künstlichen Isotopen haben 134Cs mit 2,0644 Jahren, 135Cs mit 2,33 Millionen Jahren und 137Cs mit 30,05 Jahren mittlere bis sehr lange Halbwertszeiten, während die der anderen Isotope zwischen 1 µs bei 111Cs und 13,16 Tagen bei 136Cs liegen.
Ein wichtiges künstliches Isotop ist 137Cs, ein Betastrahler mit einer Halbwertszeit von 30,08 Jahren. 137Cs zerfällt mit einer Wahrscheinlichkeit von 94,6 % zuerst in das metastabile Zwischenprodukt 137mBa, das mit einer Halbwertszeit von 2,552 Minuten durch Gammazerfall in das stabile Barium-Isotop 137Ba übergeht (vgl. Cäsium-Barium-Generator). Bei den restlichen 5,4 % gibt es einen direkten Übergang zum stabilen Barium-Isotop 137Ba. Zusammen mit weiteren Caesiumisotopen entsteht es entweder direkt bei der Kernspaltung in Kernreaktoren oder durch den Zerfall anderer kurzlebiger Spaltprodukte wie 137I oder 137Xe.
137Cs ist neben dem Cobaltisotop 60Co eine wichtige Gammastrahlenquelle und wird in der Strahlentherapie zur Behandlung von Krebserkrankungen, zur Messung der Fließgeschwindigkeit in Röhren und zur Dickenprüfung etwa von Papier, Filmen oder Metall verwendet. Daneben dient es in der Qualitätskontrolle in der Nuklearmedizin als langlebiges Nuklid in Prüfstrahlern.
Größere Mengen des Isotops 137Cs gelangten durch oberirdische Kernwaffenversuche und durch die Reaktorunglücke von Tschernobyl und Fukushima in die Umwelt. Die bei allen oberirdischen Kernwaffentests freigesetzte Aktivität an 137Cs betrug 9,48·1017 Bq. Gemäß der spezifischen Aktivität von 137Cs von 3,215 TBq/g entspricht das etwas weniger als 300 Kilogramm. Die Gesamtmenge an 137Cs, das durch die Tschernobyl-Katastrophe freigesetzt wurde, hatte eine Aktivität von etwa 8,5·1016 Bq. Dies entspricht etwa 26 Kilogramm. Hinzu kam eine Aktivität von etwa 4,7·1016 Bq durch 134Cs (entspricht etwa 15 Gramm) und 3,6·1016 Bq durch 136Cs (etwa 200 Milligramm). Die Belastung durch die letzteren beiden Isotope ist noch im Verlaufe des Jahres 1986 (136Cs mit einer Halbwertszeit von 13,16 Tagen) bzw. binnen der folgenden Jahre (134Cs mit einer Halbwertszeit von 2,065 Jahren) auf nicht mehr nennenswerte Mengen abgeklungen. Nach 10 Halbwertszeiten liegt noch 1/2^10=1/1024 der ursprünglichen Menge vor, was sich mit jeder weiteren Halbwertszeit wiederum halbiert. Nach Masse – "nicht" nach Aktivität – dürfte eine vergleichbare Menge 135Cs wie 137Cs freigesetzt worden sein, da größenordnungsmäßig ähnlich häufig der Isobar mit Massezahl 137 wie jener mit Massezahl 135 bei der Spaltung von 235U entsteht. Dieser Isobar betazerfällt dann über kürzerlebige Zwischenprodukte zu den entsprechenden Caesium-Isotopen.
Durch den Fallout wurden viele Gebiete in Europa, auch in Deutschland, vor allem im Bayerischen Wald und südlich der Donau, mit radioaktivem Caesium in messbarem Ausmaß belastet. Besonders reichert sich 137Cs in Pilzen an, die Lignin zersetzen können und dadurch einen leichteren Zugang zu Kalium und damit auch zu dem chemisch sehr ähnlichen Caesium haben als Pflanzen. Insbesondere der Maronen-Röhrling ("Boletus badius") und der Flockenstielige Hexen-Röhrling ("Boletus erythropus") reichern Caesium an, während beispielsweise der verwandte Gemeine Steinpilz ("Boletus edulis") nur eine geringe Caesium-Anreicherung zeigt. Die Ursache für die hohe Caesium-Anreicherung der beiden erstgenannten Pilze ist durch deren Hutfarbstoffe Badion A und Norbadion A begründet, die Caesium komplexieren können.
Im Steinpilz sind diese beiden Derivate der Pulvinsäure nicht vorhanden.
Betroffen sind auch Wildtiere, die Pilze fressen. Die genaue Caesiumbelastung ist abhängig von der Menge an niedergegangenem Fallout und der Bodenbeschaffenheit, da Böden Caesium unterschiedlich stark binden und damit für Pflanzen verfügbar machen können. Auch saisonale Unterschiede sind – insbesondere bei Wildbret – messbar. Im Winter suchen die Tiere in tieferen Bodenschichten nach Nahrung, welche gegebenenfalls mehr Caesium enthalten als der Oberboden. Da die biologische Halbwertszeit von Caesium relativ gering ist, sind diese saisonalen Schwankungen auch bei Untersuchung des Fleisches messbar. Dieser saisonale Effekt ist bei Rehwild stärker als bei Wildschweinen. Auch in Menschen kann 137Cs durch Messungen mit Ganzkörperzählern nachgewiesen werden, wobei die Aktivität im Körper von den Verzehrsgewohnheiten, insbesondere dem Verzehr kontaminierter Wildpilze und von Wildscheinfleisch, abhängt. Typische Körperaktivitäten von 137Cs liegen im Berich weniger Becquerel bis einiger zehn Becquerel, bei Personen, die diese Lebensmittel regelmäßig verzehren, auch bei einigen hundert Becquerel.
Der in der EU geltende Grenzwert von 330 Bq/kg für Milch und Säuglingsnahrung und 600 Bq/kg für alle übrigen Lebensmittel ist vergleichsweise niedrig und führt immer wieder dazu, dass Wildbret, welches die Grenzwerte überschreitet, vernichtet werden muss. Werte von 5000 Bq/kg und mehr in Wildschwein kommen durchaus immer wieder vor. In Japan wurde der Grenzwert nach dem Unfall von Fukushima "gesenkt" und zwar auf den Wert von 100 Bq/kg. Die allermeisten getesteten Lebensmittel aus der Präfektur Fukushima halten diesen im internationalen Vergleich außerordentlich strengen Grenzwert ein, dennoch besteht nach wie vor ein Stigma gegen Produkte aus der Region, welche vor 2011 in Japan einen exzellenten Ruf genossen hatten.
Ein Vorfall, bei dem Menschen aufgrund der Strahlenexposition durch 137Cs starben, war der Goiânia-Unfall im Jahr 1987 in Brasilien, bei dem aus einer verlassenen Strahlenklinik zwei Müllsammler einen Metallbehälter entwendeten. Das darin enthaltene 137Cs wurde aufgrund der auffälligen fluoreszierenden Farbe an Freunde und Bekannte verteilt. Die insgesamt involvierte Menge von 93 Gramm Caesiumchlorid enthielt 19 Gramm oder 50,9 Terabecquerel 137Cs von denen über 80 % in die Umwelt gelangten bzw. von den Opfern des Unfalls inkorporiert wurden. Beim Nuklearunfall von Kramatorsk wurde eine 137Cs-Quelle mit rund 5,2*10^10 Bq 137Cs (entspricht etwa 16 Milligramm) versehentlich in die Betonwand eines Wohnhauses eingebaut.
Andere Radioisotope des Caesium sind im öffentlichen Bewusstsein weniger präsent, obwohl auch sie in nennenswerter Menge in die Umwelt abgegeben wurden. Hier ist zum einen Caesium-134 zu nennen, welches durch Neutroneneinfang aus stabilem Caesium-133 entsteht, aufgrund seiner relativ kurzen Halbwertszeit um die zwei Jahre allerdings mittelfristig weniger Relevanz hat – während 20 Jahre nach der Freisetzung noch mehr als die Hälfte des ursprünglichen Caesium-137 vorhanden ist, ist die Menge an Caesium-134 auf weniger als ein Tausendstel gesunken. Caesium-135 ist zwar relativ langlebig (Halbwertszeit über eine Million Jahre) jedoch aufgrund seiner geringen Radioaktivität weniger relevant. Das Verhältnis von Caesium-135 zu anderen Caesium-Isotopen kann auch genutzt werden um herauszufinden ob der Ursprung einer radioaktiven Kontamination eine Atombombe oder ein Kernkraftwerk ist. Caesium-135 entsteht bei der Kernspaltung nicht direkt, sondern als Tochternuklid von Xenon-135. Da Xenon-135 ein starkes Neutronengift ist, wird in einem Kernkraftwerk mit (genähert) konstantem Neutronenfluss ein erheblicher Teil des Xenon-135 durch Neutroneneinfang zu Xenon-136 umgewandelt, bevor es zu Caesium-135 zerfallen kann. In Atombomben ist das Xenon-135 noch gar nicht aus seinem „Vorgänger“ Iod-135 entstanden wenn durch die Explosion der Bombe der Neutronenfluss abreißt.
Verwendung.
Auf Grund der komplizierten Herstellung und hohen Reaktivität wird elementares Caesium nur in geringem Maße eingesetzt. Es hat seine Einsatzgebiete vorwiegend in der Forschung.
Raumfahrt.
Da Caesium eine kleine Austrittsarbeit hat, kann es als Glühkathode etwa zur Gewinnung freier Elektronen verwendet werden. Auch magnetohydrodynamische Generatoren werden mit Caesium als möglichem Plasmamaterial untersucht. In der Raumfahrt wird Caesium neben Quecksilber und Xenon auf Grund seiner hohen molaren Masse, die einen größeren Rückstoß als leichtere Elemente bewirkt, als Antriebsmittel in Ionenantrieben eingesetzt. Vorteilhaft im Vergleich zu Quecksilber ist die Ungiftigkeit von Caesium und die relative Unbedenklichkeit einer etwaigen Freisetzung (z. B. bei gescheiterten Startversuchen). Im Vergleich zu Xenon ist der niedrigere Preis als Vorteil zu nennen. Obwohl Caesium nur in geringen Mengen elementar gewonnen wird, ist es doch leichter verfügbar als das nur in Spuren in der Atmosphäre vorhandene Edelgas Xenon, welches mittels Luftverflüssigung gewonnen wird.
Zeitmessung.
Die Sekunde als Maßeinheit der Zeit ist seit 1967 über die Frequenz eines bestimmten atomaren Übergangs im Caesium-Isotop 133Cs definiert. Dazu passend ist Caesium das die Frequenz bestimmende Element in den Atomuhren, die die Basis für die koordinierte Weltzeit bilden. Die Wahl fiel auf Caesium, weil dies ein Reinelement ist und in den 1960er Jahren der Übergang zwischen den beiden Grundzuständen mit ca. 9 GHz mit den damaligen elektronischen Mitteln bereits detektierbar war. Die Breite dieses Übergangs und damit die Unsicherheit der Messung ist nicht durch Eigenschaften des Atoms bestimmt. Durch die niedrige Verdampfungstemperatur kann mit wenig Aufwand ein Atomstrahl mit geringer Geschwindigkeitsunsicherheit erzeugt werden.
Eine Wolke von Caesiumatomen kann in magneto-optischen Fallen in der Schwebe gehalten und mit Hilfe von Lasern bis auf wenige Mikrokelvin an den absoluten Nullpunkt abgekühlt werden. Mit dieser Technik war es möglich, die Frequenzstabilität und damit die Genauigkeit der Caesium-Atomuhr deutlich zu verbessern.
Als Getter.
Daneben wird Caesium in Vakuumröhren verwendet, da es mit geringen Restspuren an Gasen reagiert und so für ein besseres Vakuum (Getter) sorgt. Dabei wird das Caesium in situ durch die Reaktion von Caesiumdichromat mit Zirconium erzeugt.
Legierungsmetall.
Caesium ist – legiert mit Antimon und anderen Alkalimetallen – ein Material für Photokathoden, die etwa in Photomultipliern eingesetzt werden.
Radioaktive Anwendungen.
Radioaktive Isotope des Caesium (insbesondere 135Cs und 137Cs) sind leicht als Spaltprodukt zugänglich und finden vielfältige Anwendungen, unter anderem als Quelle für Gammastrahlung in Industrie und Medizin sowie für die Lebensmittelbestrahlung. 137Cs bietet für die meisten Anwendungen den besten Kompromiss zwischen hoher spezifischer Aktivität und Langlebigkeit, jedoch liegt in Caesium aus Kernspaltung immer ein Gemisch verschiedener Isotope vor. Neben Kernspaltung kann 134Cs auch durch Neutroneneinfang in natürlichem 133Cs gewonnen werden. Die ungünstigen chemischen Eigenschaften haben jedoch dazu geführt, dass 137Cs in einigen Anwendungen durch 60Co verdrängt wurde, welches weniger leicht in die Umwelt entweichen kann, wenn radioaktive Quellen unsachgemäß entsorgt oder bedient werden. Ein Einsatz in Atombatterien wäre zwar denkbar, ist jedoch aufgrund der entstehenden Gammastrahlung und der chemischen Eigenschaften des Caesiums selten und erscheint wenig lohnenswert.
Nachweis.
Zum Nachweis von Caesium können die Spektrallinien bei 455 und 459 nm im Blau genutzt werden. Quantitativ lässt sich dies in der Flammenphotometrie zur Bestimmung von Caesiumspuren nutzen.
In der Polarographie zeigt Caesium eine reversible kathodische Stufe bei −2,09 V (gegen eine Kalomelelektrode). Dabei müssen als Grundelektrolyt quartäre Ammoniumverbindungen (beispielsweise Tetramethylammoniumhydroxid) verwendet werden, da andere Alkali- oder Erdalkalimetallionen sehr ähnliche Halbstufenpotentiale besitzen.
Gravimetrisch lässt sich Caesium wie Kalium über verschiedene schwerlösliche Salze nachweisen. Beispiele hierfür sind das Perchlorat CsClO4 und das Hexachloridoplatinat Cs2[PtCl6].
Biologische Bedeutung.
Mit der Nahrung aufgenommenes Caesium wird auf Grund der Ähnlichkeit zu Kalium im Magen-Darm-Trakt resorbiert und analog zu Kalium vorwiegend im Muskelgewebe gespeichert. Die biologische Halbwertszeit, mit der Caesium vom menschlichen Körper wieder ausgeschieden wird, ist abhängig von Alter und Geschlecht und beträgt im Durchschnitt 110 Tage.
Caesium ist chemisch nur in sehr geringem Maß giftig. Typische LD50-Werte für Caesiumsalze liegen bei 1000 mg/kg (Ratte, oral). Von Bedeutung ist jedoch die Wirkung der ionisierenden Strahlung aufgenommener radioaktiver Caesiumisotope, die je nach Dosis die Strahlenkrankheit verursachen können. Wegen der guten Wasserlöslichkeit der meisten Caesiumsalze werden diese im Magen-Darm-Trakt vollständig resorbiert und vorwiegend im Muskelgewebe verteilt. Durch die Aufnahme von radioaktivem 137Cs nach der Katastrophe von Tschernobyl im Jahr 1986 ergab sich in den ersten drei Monaten eine durchschnittliche effektive Dosis von 0,6 μSv für einen Erwachsenen der Bundesrepublik Deutschland.
Sicherheitshinweise.
An Luft entzündet sich Caesium spontan, weshalb es in Ampullen unter reinem Argon oder im Vakuum aufbewahrt werden muss. Wegen seiner hohen Reaktionsfähigkeit reagiert es mit Wasser explosiv. Die Explosivität kann durch die Entzündung des dabei entstehenden Wasserstoffs verstärkt werden. Brennendes Caesium muss mit Metallbrandlöschern gelöscht werden. Bei kleinen Mengen (wenige Gramm), kann trockener Sand verwendet werden. Die Entsorgung erfolgt wie bei anderen Alkalimetallen durch vorsichtiges Zutropfen von Alkoholen wie 2-Pentanol, "tert"-Butanol oder Octanol und anschließende Neutralisation.
Verbindungen.
Als typisches Alkalimetall kommt Caesium ausschließlich in ionischen Verbindungen in der Oxidationsstufe +1 vor. Die meisten Caesiumverbindungen sind gut wasserlöslich.
Halogenide.
Caesium bildet mit allen Halogenen gut wasserlösliche Halogenide der Form CsX (X = Halogenid). Caesiumchlorid besitzt eine charakteristische Kristallstruktur, die einen wichtigen Strukturtyp bildet (Caesiumchloridstruktur). So kristallisieren mit Ausnahme von Caesiumfluorid auch die anderen Caesiumhalogenide. Caesiumchlorid ist Ausgangsstoff für die Gewinnung elementarem Caesiums. Da sich bei ausreichend langdauerndem Zentrifugieren automatisch ein Dichtegradient ausbildet, wird es zur Trennung und Reinigung von DNA in der Ultrazentrifuge verwendet. Hochreines Caesiumiodid und Caesiumbromid werden als transparentes Szintillationsmaterial in Szintillationszählern eingesetzt.
Sauerstoffverbindungen.
Caesium bildet eine ungewöhnlich große Zahl an Sauerstoffverbindungen. Dies hängt vor allem mit der niedrigen Reaktivität des Caesiumions zusammen, so dass die Bildung von Sauerstoff-Sauerstoff-Bindungen möglich ist. Bekannt sind mehrere Suboxide wie Cs11O3 und Cs3O, bei denen ein Überschuss an Caesium vorliegt und die dementsprechend elektrische Leitfähigkeit zeigen. Daneben sind mit steigenden Sauerstoffgehalten das Oxid Cs2O, das Peroxid Cs2O2, das Hyperoxid CsO2 und das Ozonid CsO3 bekannt. Alle diese Verbindungen sind im Gegensatz zu den meisten übrigen Caesiumverbindungen farbig, die Suboxide violett oder blaugrün, die übrigen gelb, orange oder rot.
Caesiumhydroxid ist ein stark hygroskopischer, weißer Feststoff, der sich gut in Wasser löst. In wässriger Lösung ist Caesiumhydroxid eine starke Base.
Weitere Caesiumverbindungen.
Caesiumcarbonat ist ein weißer Feststoff und löst sich in vielen organischen Lösungsmitteln. Es wird in verschiedenen organischen Synthesen als Base beispielsweise für Veresterungen oder für die Abspaltung spezieller Schutzgruppen eingesetzt.
Caesiumnitrat findet in großem Umfang Verwendung in militärischer Pyrotechnik, und zwar in NIR-Leuchtmunition und Infrarottarnnebeln, Während die Verwendung in NIR-Leuchtsätzen auf den intensiven Emissionslinien des Elements bei 852, 1359 und 1469 nm beruht, basiert der Einsatz in Tarnnebeln auf der leichten Ionisierbarkeit des Elements. Die beim Abbrand der pyrotechnischen Wirkmassen in der Flamme gebildeten Cs-Ionen wirken als Kondensationskeime und verstärken daher die für die Strahlungsabsorption wichtige Aerosolausbeute.
Caesiumchromat kann zusammen mit Zirconium als einfache Quelle für die Gewinnung elementaren Caesiums zur Beseitigung von Wasser- und Sauerstoffspuren in Vakuumröhren eingesetzt werden.
Einen Überblick über Caesiumverbindungen gibt die . |
810 | 2591346 | https://de.wikipedia.org/wiki?curid=810 | Chalkogene | Die Elemente der 6. Hauptgruppe des Periodensystems werden Chalkogene genannt (wörtlich „Erzbildner“, von „Erz, Metall, [speziell:] Kupfer, Bronze“ und „erzeugen“). Die Gruppe wird nach dem ersten Element auch als Sauerstoff-Gruppe bezeichnet. Nach der neueren Nummerierung der IUPAC der Gruppen ist es die Gruppe 16. Zu dieser Stoffgruppe gehören die Elemente Sauerstoff, Schwefel, Selen, Tellur, Polonium sowie das künstlich hergestellte Livermorium. Die 4 wichtigsten dieser Elemente (Sauerstoff, Schwefel, Selen und Tellur) fasste Jöns Jakob Berzelius schon früher als "corpora amphigenia" zusammen, womit ausgedrückt werden sollte, dass diese sowohl Säuren- als auch Basenbildner sein können.
Vorkommen.
Die Chalkogene kommen in der Natur meist in Form von Erzen und Mineralien vor. Unter den Metallchalkogeniden kommen die Oxide und die Sulfide am häufigsten vor. Beispiele für Oxide sind das gasförmige Kohlenstoffdioxid in der Erdatmosphäre und das feste Siliciumdioxid (z. B. kristallin als Quarz), das den Hauptbestandteil der Erdkruste bildet. Zu den Sulfiden gehören u. a. die Mineralien Bleiglanz, Zinnober, Pyrit, Zinksulfid und Kupferkies. Seltener sind die Selenide wie z. B. Kupferselenid und die Telluride wie z. B. Silbertellurid. Auch einige Polonide sind stabil, für Livermoride jedoch wurde eine stark abnehmende Stabilität vorausgesagt. Daneben gibt es weitere Metall-Chalkogen-Verbindungen wie z. B. die Sulfite, Sulfate und Selenate.
Sauerstoff und Schwefel kommen auch elementar vor (Sauerstoff als Bestandteil der Luft und gelöst in Wasser, Schwefel oft im Zusammenhang mit vulkanischen Exhalationen, die Schwefelwasserstoff und Schwefeldioxid enthalten und zu Schwefel reagieren, ferner auch Schwefelsäure).
Eigenschaften.
Physikalische Eigenschaften.
Die Chalkogene niedriger Ordnungszahl sind Nichtmetalle, wobei von Selen und Tellur auch metallische Modifikationen existieren: Selen und Tellur sind im Prinzip Halbmetalle, Polonium und Livermorium Metalle. Die physikalischen Eigenschaften sind nach steigender Atommasse abgestuft. So nehmen vom Sauerstoff zum Tellur die Dichte, Schmelz- und Siedepunkte zu.
Chemische Eigenschaften.
Chalkogene reagieren mit Metallen zu erdigen und zum Teil auch basischen Metallchalkogeniden (Oxide, Sulfide usw.). Mit Wasserstoff reagieren sie zu Chalkogenwasserstoffen: Wasser, Schwefelwasserstoff, Selenwasserstoff und Tellurwasserstoff, wobei die Verbindungen analoge Summenformeln, H2X, haben. Poloniumwasserstoff jedoch tendiert bereits dazu, ein Hydrid und kein Polonid zu sein und eine Bestätigung dieses Trends für Livermoriumwasserstoff wird vorausgesagt. Spätestens LvH2 muss als Hydrid anstatt als Livermorid angesehen werden.
Chalkogene bilden auch untereinander Verbindungen wie z. B. die Schwefeloxide oder die Selensulfide. Chalkogen-Oxide bilden mit Wasser zusammen Säuren: die Schweflige Säure, die Selenige Säure und die Tellurige Säure (denkbar wären auch Polonige Säure und Livermorige Säure) (Summenformel H2XO3) aus den Dioxiden und Schwefelsäure, Selensäure, Tellursäure, Poloniumsäure und Livermoriumsäure (Summenformel H2XO4) aus den Trioxiden. |
811 | 292800 | https://de.wikipedia.org/wiki?curid=811 | Coverband | Coverband ist die Bezeichnung für eine Musikgruppe, die hauptsächlich Stücke anderer, meist bekannter Gruppen covert, also nachspielt.
Ein gecovertes Stück kann dabei von originalgetreu dargeboten bis neu arrangiert und eigeninterpretiert klingen. Da erst in jüngerer Zeit der Interpret eine zentrale Rolle spielt, beschränkt sich das Phänomen der Coverbands weitgehend auf die Pop- und Rockmusik. Mit steigender Popularität von Coverbands haben sich neben der qualitätsorientierten Spielweise auch bestimmte Kategorien etabliert. Allgemein bekannt sind in diesem Genre Top-40-Coverbands, Revival-Bands und Tribute-Bands.
Die Aufführung von Stücken anderer Bands ist in der Regel vergütungspflichtig. Es muss (je nach Größe der Veranstaltung) ein entsprechender Betrag an die GEMA gezahlt werden. Bei Veröffentlichung auf einem Tonträger, muss, wenn das Material nicht 1 zu 1 nachgespielt, sondern interpretiert (bearbeitet) wird, eine Genehmigung des Verlags vorliegen.
Top-40-Coverband/Partyband.
Unter diesen Begriffen fallen die meisten Coverbands. Ihr Hauptaugenmerk liegt in der Masse an bekannten Liedern, die überwiegend bei Stadt- und Straßenfesten, Vereinsfeiern und Tanzabenden dargeboten werden. Hier wird musikalisch betrachtet nicht immer so stark auf Authentizität geachtet, wie es bei Tribute Bands und Revival Bands der Fall ist.
Revival- und Tributeband.
Unter die Bezeichnung Tribute-Band fallen alle Coverbands, die sich ausschließlich einem Thema oder einem Interpreten widmen. Mit möglichst authentischer musikalischer Darbietung, Bühnengarderobe, Instrumenten und Show-Einlagen versuchen solche Coverbands beim Publikum die Illusion zu erzeugen, ein Konzert der Originalformation zu besuchen. Der Unterschied zwischen Revival Bands und Tribute Bands liegt eigentlich darin, dass Revival Bands ausschließlich Interpreten nachspielen, die entweder verstorben sind oder die es als Formation nicht mehr gibt. Tribute Bands hingegen kopieren Interpreten, die selbst noch Konzerte geben. Die Grenzen der beiden Genres sind jedoch in der Umgangssprache fließend. Häufig lässt die Popularität der Originalgruppe auf eine entsprechend gute Vermarktungsfähigkeit der Coverband schließen.
Einige Tribute Bands haben darüber hinaus den Anspruch, eigene Improvisationen in ihre Konzerte mit einfließen zu lassen. Diese sind aber nicht, wie bei Coverbands, Ausdruck eines eigenen Stils. Vielmehr versuchen die eigenen Improvisationen der Tribute Band so zu klingen, als hätten sie auch von den Vorbildern selbst stammen können. |
812 | 81237 | https://de.wikipedia.org/wiki?curid=812 | Centimeter | Centimeter steht für: |
813 | 234379387 | https://de.wikipedia.org/wiki?curid=813 | Chain | Chain (englisch; deutsch „“) bzw. Kette ist eine Maßeinheit der Länge.
Angloamerikanisches Maßsystem.
Im angloamerikanischen Bereich wird eine "chain" mit dem Einheitenzeichen "ch." bezeichnet.
1 ch. = 4 rd. = 100 li. = 66 ft. = 20,1168 m
1 statute mile = 8 furlong = 80 chain = 320 rd. = 8000 link
Bis Mitte der 2010er Jahre wurde die "chain" noch von britischen Ingenieuren gebraucht, um Distanzen zwischen Bahnhöfen oder Brücken zu messen. In der Landvermessung ist sie in Großbritannien hingegen schon länger außer Gebrauch gekommen.
Die Flächeneinheit Acre (4046,86 m²) entspricht einem streifenförmigen Feld von 10 chain × 1 chain, das ein Ochsengespann in etwa einem Tag pflügen konnte. Ähnliche Dimensionen haben die Einheiten Morgen, Tagewerk und Joch, die in der bäuerlichen Bevölkerung geläufig waren.
Deutschland.
Im deutschsprachigen Raum war die Kette ein vergleichbares Maß. In der Maß- und Gewichtsordnung des Norddeutschen Bundes vom 17. August 1878 war festgelegt
Schweiz.
Die zur Zeit der Helvetischen Republik eingeführte und nur kurzlebige Schweizer "Kette" betrug zwischen 4,98 und 6,10 Meter je nach Kanton.
Andere Länder.
Andere Begriffe für das Maß Schnur oder Kette: |
814 | 65998 | https://de.wikipedia.org/wiki?curid=814 | Coulomb | Das Coulomb [] (Einheitenzeichen: C, früher Cb) ist die SI-Einheit der elektrischen Ladung (Formelzeichen "Q" oder "q"). Es ist nach dem französischen Physiker Charles Augustin de Coulomb benannt.
1 Coulomb ist die elektrische Ladung, die innerhalb einer Sekunde durch den Querschnitt eines Leiters transportiert wird, in dem ein elektrischer Strom der Stärke von einem Ampere fließt:
Das Coulomb wird daher auch als Amperesekunde (As) bezeichnet. Die zur Kennzeichnung der Batteriekapazität übliche Amperestunde (Ah) beträgt entsprechend 3600 As = 3600 C.
Definition.
Das Coulomb ist seit der Revision des SI im Jahr 2019 dadurch definiert, dass der Elementarladung "e" der Wert zugewiesen wurde. Dementsprechend sind näherungsweise Elementarladungen ein Coulomb.
Historisches.
Die beiden englischen Elektro-Ingenieure Josiah Latimer Clark und Charles Tilston Bright schlugen 1861 das "Farad" zur Ehre des englischen Physikers Michael Faraday als Einheit für die elektrische Ladung vor. 1881 legte der Internationale Elektrizitätskongress jedoch das Coulomb als Einheit für die elektrische Ladung und das Farad als Einheit für die elektrische Kapazität fest.
Die heutige Definition des Coulomb durch Festlegung der Elementarladung wurde am 16. November 2018 auf der 26. Generalkonferenz für Maß und Gewicht beschlossen und trat zum 20. Mai 2019 in Kraft. Zuvor war das Ampere über die Lorentzkraft des elektrischen Stroms definiert gewesen, und das Coulomb als eine Amperesekunde. |
816 | 213513841 | https://de.wikipedia.org/wiki?curid=816 | Curie (Einheit) | Curie ist die veraltete Einheit der Aktivität eines radioaktiven Stoffes mit dem Einheitenzeichen Ci; sie wurde übergangsweise noch bis 1985 gebraucht, dann durch die SI-Einheit Becquerel ersetzt. Heute wird sie nur noch in der Werkstoffprüfung gebraucht. 1 Curie wurde ursprünglich als die Aktivität von 1 g Radium-226 definiert, und später auf den annähernd gleichen Wert 3,7 · 1010 Becquerel (= 37 GBq) festgelegt. Bis zur 6. Auflage der SI-Broschüre (1991) – aber nicht mehr in der 7. Auflage (1998) – wurde das Curie noch als „temporär zugelassene Einheit“ gelistet.
Die Einheit wurde nach Marie und Pierre Curie benannt, die zusammen mit Antoine Henri Becquerel 1903 den Nobelpreis für die Entdeckung der Radioaktivität erhielten. |
817 | 568 | https://de.wikipedia.org/wiki?curid=817 | Chat | Chat ([]; von „plaudern, sich unterhalten“) oder Online-Chat bezeichnet die elektronische Kommunikation mittels geschriebenem Text in Echtzeit, meist über das Internet. Die erste Ausprägung des Online-Chats bot ab 1980 der US-amerikanische Internetdienstanbieter "Compuserve" in Form des „CB-Simulators“. Auch das Usenet und im weiteren Sinn der CB-Funk hatten Chat-Funktionen.
Arten.
Die ursprünglichste Form des Internet-Chats ist der reine Textchat, bei dem nur Zeichen ausgetauscht werden können. Mittlerweile kann – je nach System – eine Ton- und/oder Videospur dazukommen bzw. den Textchat ersetzen. Man spricht dann von „Audio-“ bzw. „Videochat“.
Heute werden, technisch gesehen, hauptsächlich drei Chatformen unterschieden:
"IRC" und "Instant Messaging" beinhaltet meistens weitere Funktionalitäten wie das Erstellen von Gesprächsprotokollen („chat logs“) oder das Übermitteln von Dateien und Hyperlinks. Allen drei Varianten ist gemeinsam, dass meistens nicht unter bürgerlichem Namen gechattet wird, sondern unter einem Pseudonym (Nickname). Im "IRC" und in "Web-Chats" ist der Austausch meistens in Chaträumen bzw. Channels organisiert, die sich speziellen Themen widmen. Chats mit mehr als zwei Chattern finden in Chaträumen statt.
Nach einer Erhebung des Statistischen Bundesamtes nutzten 2009 46 Prozent der 10- bis 15-jährigen Internetnutzer Chats, Blogs oder Internetforen als Kommunikationsmittel. Bei Studenten und Schülern beträgt dieser Anteil 89 Prozent.
Chatiquette.
Zu beachten ist die Chatiquette. Hierbei handelt es sich um spezielle Regeln für die Umgangsformen in einem Chat. Um Missverständnisse aufgrund der fehlenden visuellen Kommunikation zwischen den Teilnehmern zu vermeiden, sollten diese Regeln eingehalten werden.
Allgemeine Regeln für die Umgangsformen im Internet beschreibt die Netiquette.
Chatter-Treffen.
Da man sich in einem Chat nur „virtuell“ unterhalten kann, werden von manchen Chat-Communitys oder auch Privatpersonen sogenannte Chatter-Treffen (CT) organisiert. Hier treffen sich die Chatter dann auch im wirklichen Leben, um sich auszutauschen oder organisatorische Dinge zu besprechen. Treffen, bei denen sich Mitglieder eines Chat-Kanals (z. B. IRC-Channel) treffen, nennt man Channelparty.
Die ersten Chatter-Treffen Europas fanden schon 1987 statt und nannten sich "Relay-Partys" entsprechend dem Vorläufer von "IRC", Bitnet Relay.
Gefahren und Probleme.
Falsche Identitäten.
Nutzer können sich in Chats nie sicher sein, ob das Gegenüber auch wirklich das ist, wofür er oder sie sich ausgibt. Dies gilt auch für Chats, in denen die Benutzer Steckbriefe besitzen. Scheinbar persönliche Informationen und Fotos stimmen nicht unbedingt mit der realen Person überein, da die Registrierungsdaten üblicherweise nicht verifiziert werden. Chatter, die sich für etwas ausgeben, was sie nicht sind, nennt man Fakes oder Catfish. So kann es vorkommen, dass jemand mit einem Mann spricht, der sich als eine Frau ausgibt etc. Hierbei kann es auch zum "Romance Scam" (‚Liebesschwindel‘) kommen. Selbst wenn eine Verifizierung stattfindet, muss diese nicht zuverlässig sein. Nach Wolak et al. sollten gerade Kinder und Jugendliche auf diesen möglichen Unterschied zwischen „Online-Persönlichkeit“ und Realität hingewiesen werden, insbesondere in Bezug auf die Gefahr durch Sexualstraftäter („Online predator“).
Chatsucht.
Der Spaß am Chatten kann zu einer Chatsucht werden. Dies wird häufig bei Personen beobachtet, die gerade begonnen haben zu chatten. Vor allem bei Personen mit einem gestörten sozialen Umfeld kann sich dieses Problem verfestigen. Die Chatsucht kann in Verbindung mit einer Onlinesucht auftreten. Begünstigt wird dies durch die Anonymität, so dass man sich anderen Teilnehmern gegenüber als Persönlichkeit ausgeben kann, die man im tatsächlichen Leben nicht ist. Dies kann zu Realitätsverlust führen, da man sich auch außerhalb des Chatrooms für die im Chat erstellte Person halten kann.
Kommunikation im Chat.
Die Kommunikation im Chat findet fast gleichzeitig "(synchron)" statt und nicht über eine lange Zeit versetzt "(asynchron)," wie z. B. in der E-Mail-Kommunikation. Die teilnehmenden Chatter tippen ihre Gesprächsbeiträge in ein Eingabefeld und schicken sie durch eine Eingabe ab. Ab dem Zeitpunkt seiner Zustellung an die Adressatenrechner ist der Beitrag für alle im selben Chatraum präsenten Chat-Beteiligten fast sofort sichtbar; bis zum Zeitpunkt seiner Verschickung ist bei den meisten Chat-Systemen aber die Aktivität des Tippens für die Partner ersichtlich. Ferner können sich Beiträge überlappen. Die Kommunikation im Chat teilt – trotz ihrer medial schriftlichen Realisierung – mehr Merkmale mit dem mündlichen Gespräch als mit Texten, ihre charakteristischen Unterschiede zum mündlichen Gespräch bestehen aber in mehr als lediglich der Tatsache, dass Chat-Beiträge im Gegensatz zu Gesprächsbeiträgen getippt werden. Wegen der kommunikativen Rahmenbedingungen ist trotz der "synchronen" Präsenz der Kommunikationsbeteiligten vor ihren Rechnern keine "simultane" Verarbeitung von Verhaltensäußerungen zur Laufzeit ihrer Hervorbringung möglich; in diesem Punkt unterscheidet sich die Chat-Kommunikation vom mündlichen Gespräch (vgl. z. B. Beißwenger 2007).
Sprache im Chat.
Im Chat steht eine korrekte Verwendung der Sprache auf syntaktischer und orthographischer Ebene nicht im Vordergrund. Anakoluthe (Konstruktionsbrüche), Aposiopesen (Satzbrüche) sowie umgangssprachliche Kontraktionen, Ellipsen, Interjektionen, dialektale und soziolektale Ausdrücke verleihen der Sprache im Chat einen Slang-Charakter. Tippfehler und grammatikalische Fehler sind häufig, Satzzeichen spielen fast keine Rolle, und oft wird konsequent klein geschrieben. „Das Ökonomieprinzip steht […] eindeutig als Maxime der Äußerungsproduktion im Vordergrund.“ Die fehlenden parasprachlichen Mittel werden ersetzt durch Emoticons (etwa :-) als Smiley), Akronyme ("lol" = "laughing out loud" „lautes Lachen“) oder durch Abkürzungen.
Fremdsprachen lernen im Chat.
Möchte man als Lernender das Medium Chat nutzen, um seine Fremdsprachenkenntnisse zu verbessern, sollte man aufgrund der besonderen Kommunikations- und Sprachmerkmale von Chats Räume wählen, die extra dafür eingerichtet wurden, sogenannte Lernchats oder didaktische Chat-Räume.
Software und Protokolle.
Bekannte Chatsoftware und Protokolle sind:
Chatprogramme, die mehrere Protokolle unterstützen: |
819 | 2458679 | https://de.wikipedia.org/wiki?curid=819 | Computerlinguistik | Die Computerlinguistik (CL) oder linguistische Datenverarbeitung (LDV) untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann. „Sie erarbeitet die theoretischen Grundlagen der Darstellung, Erkennung und Erzeugung gesprochener und geschriebener Sprache durch Maschinen“ und ist Schnittstelle zwischen Sprachwissenschaft und Informatik. In der englischsprachigen Literatur und Informatik ist neben dem Begriff "" auch "computational linguistics (CL)" gebräuchlich"."
Geschichte.
Computerlinguistik lässt sich als Begriff in die 1960er Jahre zurückverfolgen. Mit den Anfängen der künstlichen Intelligenz war die Aufgabenstellung schon nahegelegt. Noam Chomskys "Syntactic Structures" von 1957 präsentierte eine Sprachauffassung, nach der die Sprache in einem formalen Rahmen beschreibbar wurde (Chomsky-Hierarchie der formalen Sprachen). Hinzu kamen die Sprachlogiken von Saul Kripke und Richard Montague. Die teilweise aus dem US-Verteidigungsbudget sehr hoch geförderten Forschungen brachten jedoch nicht die erhofften Durchbrüche. Besonders Chomsky und Joseph Weizenbaum dämpften die Erwartungen an Automatisierungen von Sprachübersetzung. Der Wende von behavioristischen Wissenschaftskonzeptionen zu mentalistischen (Chomsky) folgten umfassende Konzipierungen in den Kognitionswissenschaften.
In den siebziger Jahren erschienen zunehmend häufiger Publikationen mit dem Begriff "Computerlinguistik" im Titel. Es gab bereits finanziell aufwändige Versuche der Anwendungen (Konkordanzen, Wort- und Formstatistik), aber auch schon größere Projekte zur maschinellen Sprachanalyse und zu Übersetzungen. Die ersten Computerlinguistik-Studiengänge in Deutschland wurden in den 1980er Jahren an der Universität des Saarlandes und in Stuttgart eingerichtet. Die Computerlinguistik bekam mit der Verbreitung von Arbeitsplatzrechnern (Personal Computer) und mit dem Aufkommen des Internets neue Anwendungsgebiete. Im Gegensatz zu einer Internetlinguistik, die insbesondere menschliches Sprachverhalten und die Sprachformen im und mittels Internet untersucht, entstand in der Computerlinguistik eine stärker informatisch-praktische Ausrichtung. Dennoch gab das Fach die klassischen philosophisch-linguistischen Fragen nicht ganz auf und wird heute in theoretische und praktische Computerlinguistik unterschieden.
Funktionsweise.
Natural language processing (NLP) verwendet verschiedene Techniken, um gesprochene und geschriebene Sprache zu verarbeiten. Dazu zählen Interpretationen statistischer Daten, Datenmaterial aus sozialen Netzwerken, Suchergebnisse sowie Methoden des machine learning und von Regeln durchsetzte algorithmische Herangehensweisen. Methoden verschiedener Disziplinen wie Informatik, Künstliche Intelligenz, Linguistik und Datenwissenschaft werden genutzt, um Computern das Verständnis natürlicher Sprache zu ermöglichen. NLP gliedert sich in die Unterbereiche natural language understanding (NLU), and natural language generation (NLG). Künstliche Intelligenz wird auch in Übersetzungsprogrammen wie zum Beispiel DeepL verwendet, wodurch Sprachbarrieren reduziert werden können.
Mittels Computerlinguistik wird die digitale Transformation in Unternehmen und Gesellschaft beschleunigt, da Arbeitsprozesse durch Algorithmen ausgeführt werden. So nutzt zum Beispiel das Software-Unternehmen Nvidia NLP. Allerdings gibt es auch Gefahren durch inhaltliche Verzerrungen, die in den verarbeiteten sprachlichen Daten enthalten sind und durch Algorithmen dann verstärkt werden, z. B. eine Benachteiligung marginalisierter Bevölkerungsgruppen.
Das Saarbrücker Pipelinemodell.
Computer verarbeiten Sprache entweder in der Form von akustischer Information oder in der Form von Buchstabenketten (wenn die Sprache in Schriftform vorliegt). Um die Sprache zu analysieren, arbeitet man sich schrittweise von dieser Eingangsrepräsentation in Richtung Bedeutung vor und durchläuft dabei verschiedene sprachliche Repräsentationsebenen. In praktischen Systemen werden diese Schritte typischerweise sequentiell durchgeführt, daher spricht man vom Pipelinemodell, mit folgenden Schritten:
Es ist allerdings nicht so, dass sämtliche Verfahren der Computerlinguistik diese komplette Kette durchlaufen. Die zunehmende Verwendung von maschinellen Lernverfahren hat zu der Einsicht geführt, dass auf jeder der Analyseebenen statistische Regelmäßigkeiten existieren, die zur Modellierung sprachlicher Phänomene genutzt werden können. Beispielsweise verwenden viele aktuelle Modelle der maschinellen Übersetzung Syntax nur in eingeschränktem Umfang und Semantik so gut wie gar nicht; stattdessen beschränken sie sich darauf, Korrespondenzmuster auf Wortebene auszunutzen.
Am anderen Ende der Skala stehen Verfahren, die nach dem Prinzip "Semantics first, syntax second" arbeiten. So baut die auf dem MultiNet-Paradigma beruhende, kognitiv orientierte Sprachverarbeitung auf einem semantikbasierten Computerlexikon auf, das auf einem im Wesentlichen sprachunabhängigen semantischen Kern mit sprachspezifischen morphosyntaktischen Ergänzungen beruht. Dieses Lexikon wird beim Parsing von einer Wortklassen-gesteuerten Analyse zur unmittelbaren Erzeugung von semantischen Strukturen eingesetzt.
Anwendungen in der Praxis.
"Praktische Computerlinguistik" ist ein Begriff, der sich im Lehrangebot einiger Universitäten etabliert hat. Solche Ausbildungsgänge sind nahe an konkreten Berufsbildern um die informatisch-technische Wartung und Entwicklung von sprachverarbeitenden Maschinen und ihrer Programme. Dazu gehören zum Beispiel:
Studiengänge.
Computerlinguistik wird an mehreren Hochschulen im deutschsprachigen Raum als eigenständiger Studiengang angeboten. In der deutschen Hochschulpolitik ist die Computerlinguistik als Kleines Fach eingestuft. Es sind Bachelor- wie auch Master-Studienabschlüsse möglich. Zu den bekanntesten Angeboten zählen die Studiengänge der: |
820 | 2234691 | https://de.wikipedia.org/wiki?curid=820 | Chirurgie | Die Chirurgie (über von „Arbeiten mit der Hand, Handarbeit, Handwerk, Handwirkung“) ist das Teilgebiet der Medizin, das sich mit der operativen Behandlung von Krankheiten und Verletzungen beschäftigt. Eine die Chirurgie oder Teilgebiete der Chirurgie ausübende Person wird Chirurg (heutiges Synonym: "operativ tätiger Mediziner") genannt.
Dagegen wurde als "Chirurg" (von griechisch , wörtlich „Handwerker“) schon in der Antike – bis weit in die Neuzeit hinein – ein Arzt bezeichnet, der eine (nicht notwendigerweise "blutige") Manipulation am Körper des Patienten vornahm.
Die moderne Chirurgie entwickelte sich Ende des 19. Jahrhunderts, nachdem sich die Grundlagen der heutigen Asepsis und Antisepsis zur Verhütung von Wundinfektionen und Blutvergiftungen, sowie die der Anästhesie sowie ein tieferes Verständnis von Physiologie und Pathophysiologie entfaltet hatten.
Geschichte.
Steinzeit.
Schon aus der Steinzeit sind chirurgische Eingriffe nachgewiesen, die von den Patienten überlebt wurden. Diese Kunst war nicht nur auf den "Homo sapiens" beschränkt: Ein etwa 50.000 Jahre alter Skelettfund eines männlichen Neandertalers ("Homo neanderthalensis") in der Shanidr-Höhle im Irak belegt eine Armamputation unterhalb des rechten Ellenbogens. Der „Patient“ (Shanidar 1), dessen Skelett schon 1957 gefunden wurde, hatte mehrere schwere Verletzungen, war schwerhörig und erreichte ein Alter von über 40 Jahren. Seit 12.000 Jahren lassen sich überlebte [[Trepanation]en nachweisen. Das älteste akzeptierte Beispiel einer Amputation beim Menschen (Homo sapiens) – eine Amputation von Fuß und Unterschenkel an einem Kind, die verheilte – fand sich 2020 auf Borneo (Liang Teho Höhle) und ist 31.000 Jahre alt. Davor war das älteste akzeptierte Beispiel ein 7000 Jahre altes Skelett aus der Jungsteinzeit in Buthiers-Boulancourt in Frankreich, dem der linke Unterarm teilweise amputiert wurde, was teilweise verheilte.
Antike und Mittelalter.
Operationen wurden in der [[Antike]], besonders bei [[Ägypter (Volk)|Ägyptern]], [[Griechen]] (bereits bei [[Homer]] genannt) und [[Römer]]n, mit speziellen (meist metallischen) Werkzeugen durchgeführt. Über die Erfolge und Heilungen ist wenig bekannt. Zu den Aufgaben der Chirurgie gehören seit jeher die [[Blutstillung]] bei [[Trauma (Medizin)|Verletzungen]] sowie die Behandlung von Knochenbrüchen sowie von eiternden Wunden und chronischen [[Geschwür]]en.
Auch konservative chirurgische Therapiemethoden sind seit dem Altertum bekannt. So werden im etwa 1550 v. Chr. entstandenen [[Papyrus Edwin Smith]] (der Abschrift eines älteren Textes) die Reposition und anschließende Ruhigstellung von Unterkieferfrakturen mit Schienen und Binden beschrieben. Zu den antiken Zeugnissen für Schriften chirurgischen Inhalts gehören die im 5. Jahrhundert v. Chr. entstandenen Texte "Über das Einrenken der Gelenke" und "Über die Knochenbrüche" im [[Corpus Hippocraticum]]. Als erster namentlich bekannter Fachschriftsteller der operativen Chirurgie gilt der im 1. oder 2. Jahrhundert v. Chr. in Ägypten wirkende (Klaudios) Philoxenos. Er wird in den Schriften des [[Galenos]] als "cheirurgos" bezeichnet und [[Aulus Cornelius Celsus]] sah in ihm einen der bedeutendsten chirurgischen Fachautoren. Gemäß Celsus war die Chirurgie mit der Diätetik (Regelung der Lebensweise) und der Pharmakotherapie eines der drei Teile der (antiken) Medizin. Zu den weiteren Pionieren chirurgischer Texte gehört der [[Pneumatiker#Antike Ärzteschule|pneumatische]] Arzt [[Antyllos]], der um die Mitte des 2. Jahrhunderts (in einer Zeit der Blüte der Chirurgie) wirkte.
Vom Mittelalter bis in die frühe Neuzeit wurde die Chirurgie auch als Wundarznei (älter "wundartzney" usw.) bezeichnet, während heute damit ältere chirurgische Werke (insbesondere [[Wundarzt|wundärztliche]] Arzneimittel-[[Handbuch|Handbücher]]) benannt werden (Seit dem 10. Jahrhundert wurde – bei [[Richer von Reims]] – der "chirurgicus" bzw. "chirurgus" vom "medicus" unterschieden). Das Konzil von Tours verbot im Jahr 1163 den akademisch ausgebildeten, oftmals auch geistliche Ämter innehabenden, Mediziner die als riskant angesehenen chirurgische Eingriffe, welche somit den Wundärzten vorbehalten waren. Ein bedeutender Vertreter der orientalischen Chirurgie im 9./10. Jahrhundert war [[Abulcasis]].
Fachgebiet im Rahmen der Universitätsausbildung wurde die Chirurgie zunächst in Italien. Im 12. Jahrhundert lehrte der langobardisch-lombardische Chirurg [[Roger Frugardi]] an der Hochschule von Parma. Dessen mitgeschriebene Vorlesungen wurden 1170 von Guido d’Arezzo herausgegeben. Rogers chirurgisches Wissen gelangt dann an die medizinische Hochschulen von Salerno und Montpellier, und Rogers Urtext (die „Rogerina“, als später so genannte „Rolandina“ von Rogers Schüler [[Roland von Parma]] herausgegeben) war nach 1200 auch Grundlage der Ausbildungstätigkeit des vom [[Chirurg von der Weser]] überlieferten Wilhelm Burgensis. Mit Roger Frugardi und seiner "cyrurgia" begann die Tradition chirurgischer Lehrbücher. In Bologna wurde Chirurgie seit dem 13. Jahrhundert an der Universität gelehrt.
Im Jahr 1215 hatte das vierte Lateranische Konzil den im Rahmen der [[Klostermedizin]] oft medizinisch ausgebildeten Klerikern die Ausübung chirurgischer bzw. „handwerklicher“ ärztlicher Tätigkeiten untersagt ("Ecclesia abhorret a sanguine", "Inhonestum magistrum in medicina manu operari"). Kurz danach verbot die Medizinische Fakultät von Paris die Lehre und Ausübung von Chirurgie innerhalb der Fakultät.
Ein weiterer bedeutender Chirurg des 13. Jahrhunderts war [[Bruno von Longoburgo]], der sich wie Roger von Salerno und Roland von Parma wie die folgenden Chirurgen des 13. und 14. Jahrhunderts unter anderem mit der chirurgischen Therapie von [[Hernie|Bauchwandbrüchen]], vor allem dem [[Leistenbruch]], befasste. Einen bedeutenden Aufschwung erlebte die mittelalterliche Chirurgie vom 14. bis zum 15. Jahrhundert, etwa mit [[Jehan Yperman]] († um 1330) und [[Heinrich von Pfalzpaint]] sowie den Chirurgenfamilien Branca und Vianeo di Maida. Ab 1306 lehrte in Paris der zuvor in Montpellier Chirurgie unterrichtende Chirurg und Hofchirurg französischer Könige [[Heinrich von Mondeville]]. Der Chirurg [[Guy de Chauliac]], der den wie er im 14. Jahrhundert wirkenden [[Lanfrank von Mailand]] an Bedeutung noch übertraf, formulierte: „Die Chirurgie löst Zusammenhängendes, verbindet Getrenntes und entfernt, was überflüssig ist“. Zur Schmerzlinderung wurden beispielsweise mit Opium getränkte Schwämme dem Patienten vor Mund und Nase gehalten.
Feldscher und Handwerkschirurgen.
[[Datei:Acquapendente - Operationes chirurgicae, 1685 - 2984755.tif|mini|[[Hieronymus Fabricius]], "Operationes chirurgicae", 1685]]
Bis zum Aufkommen der akademischen Chirurgie führte der [[Bader]] (bzw. der [[Barbier]]) oder der [[Wundarzt]] mit handwerklicher Ausbildung (der [[Handwerkschirurg]]) Operationen durch. Die beim Militär tätigen Wundärzte wurden [[Feldscher]]e genannt. Die moderne Chirurgie wurde von Militärärzten, Wundärzten wie [[Felix Würtz]] und [[italien]]ischen Anatomen wie [[Hieronymus Fabricius]] (1537–1619) vorangetrieben. Etwa ab dem 16. Jahrhundert erweiterten [[Obduktion]]en die Kenntnisse der [[Anatomie]] und den chirurgischen Horizont ganz wesentlich (Obduktionen waren auch schon von einigen antiken griechischen Ärzten und [[Obduktion#Geschichte|vereinzelt im Mittelalter]] durchgeführt worden). Auch Henker übten gelegentlich chirurgische Tätigkeiten aus ([[Friedrich I. (Preußen)|Friedrich I. von Preußen]] hatte 1700 seinen Scharfrichter Coblenz, Sohn eines Scharfrichters, zum Leib- und Hofmedicus ernannt). Als Begründer der modernen Anatomie gilt [[Andreas Vesalius]] (1514–1564).
Für den Übergang vom Feldscher zum Chirurgen stehen [[Daniel Schwabe]] (* 1592), [[Johann Dietz (Feldscher)|Johann Dietz]] (1665–1738), [[Alexander Kölpin]] (1731–1801) und [[Heinrich Callisen]] (1740–1824). Bekanntester Handwerkschirurg war [[Johann Andreas Eisenbarth]] (1663–1727), der bedeutendste Chirurg der Renaissance war [[Ambroise Paré]]. Das erste gedruckte deutschsprachige Lehrbuch der Chirurgie stammt von [[Hieronymus Brunschwig]] (1497) und basiert größtenteils auf Guy de Chauliac. Ein weiteres frühes Chirurgielehrbuch in Deutschland stammt vom Ulmer Stadtphysikus [[Johannes Scultetus (Mediziner, 1595)|Johannes Scultetus]], das "Armamentarium chirurgicum", das auch von Nachfahren von Scultetus ins Deutsche übersetzt wurde (1666, "Wundarzneyisches Zeughaus").
[[Carl Caspar von Siebold|Carl Caspar Siebold]], der seine Ausbildung als Wundarzt begonnen hatte, wurde an der Würzburger Universitätsklinik, dem [[Juliusspital]], der erste Vertreter der akademischen Chirurgie.
18. Jahrhundert.
Vor allem der schottische Arzt [[John Hunter (Mediziner)|John Hunter]] gehörte zu den herausragendsten Vertretern der Chirurgie im Zeitalter des [[Vitalismus]]. In England wirkten zudem [[Percivall Pott]] und [[Benjamin Bell (Mediziner)|Benjamin Bell]]. Zu den bedeutendsten Chirurgen des 18. Jahrhunderts gehörten in Dänemark [[Heinrich Callisen]], in Frankreich [[Pierre-Joseph Desault]], [[François Chopart]], [[Guillaume Dupuytren]], [[Jean-Louis Petit (Mediziner)|Jean-Louis Petit]], [[Henry François Le Dran]] sowie [[Nicolas Andry de Boisregard]] und in Deutschland [[Lorenz Heister]].
19. Jahrhundert.
Die Chirurgie des letzten Drittels des 19. Jahrhunderts ist charakterisiert durch den Übergang von der Antisepsis zur Asepsis, den Ausbau der Inhalationsnarkose und der Lokalanästhesie, durch deutliche Verbesserungen der Operationstechnik und die schnell wachsende Bedeutung der Röntgendiagnostik. Zu Beginn des Jahrhunderts kannte man bereits die betäubende Wirkung von [[Lachgas]] und [[Diethylether|Äther]], und ab 1842/1844 wurden der „Ätherrausch“ und Lachgas auch zur Durchführung von chirurgischen und zahnärztlichen Eingriffen benutzt. Ab 1847 wurde dazu sowie bei Geburten auch Chloroform eingesetzt. Von etwa der Mitte des 19. Jahrhunderts bis um 1878 wurden zahlreiche neue Operationsverfahren wie die chirurgische Schielbehandlung, die erste gezielte Appendektomie, die [[Nephrektomie]], die Anwendung der Galvanokaustik (Thermokauter) und die subkutane Osteotomie. Zudem wurde die [[Transplantation]]schirurgie (etwa durch [[Jaques Louis Reverdin|Jacques Reverdin]] und [[Karl Thiersch]]) entwickelt und unter [[Louis Stromeyer]] wurden bedeutende Fortschritte in der operativen Orthopädie gemacht. Zu den bedeutenden englischen Chirurgen des 19. Jahrhunderts gehörte [[Astley Paston Cooper]], zu den französischen etwa [[Jacques Lisfranc]]; in Deutschland wirkten etwa [[August Gottlieb Richter]], [[Carl Ferdinand von Graefe]] und [[Johann Friedrich Dieffenbach]] wegweisend.
20. Jahrhundert (1900–1910).
Zu Beginn des 20. Jahrhunderts erfolgte ein Ausbau der Wiederherstellungs- und [[Transplantation]]schirurgie, ermöglicht durch Erkenntnisse aus der biologischen Erforschung von [[Regeneration (Physiologie)|Regenerationsvorgängen]]. Die diagnostischen und therapeutischen Möglichkeiten wurden durch Anwendung der Röntgen- und Radiumstrahlung erweitert. Weitere Fortschritte auf den Gebieten der Asepis und der Narkose wurden gemacht und neue Methoden ermöglichten die Förderung von Thoraxchirurgie und Hirnchirurgie. Zudem wurden nun häufiger auch konservative Methoden, etwa durch die [[Orthopädie]], statt operativer Eingriffe angewandt, da bessere Kenntnisse über natürliche Heil- und Ausgleichsvorgänge gewonnen wurden.
Antisepsis und Asepsis.
Aufgrund fehlenden Wissens über [[Infektion]]sgefahren wurden die Instrumente und die Hände des Arztes oft nicht ausreichend gereinigt. Die Kittel waren damals dunkel, damit Schmutz und Blut darauf schwerer zu erkennen waren und man die Kittel nicht so oft waschen musste. Die Folge solch unhygienischen Vorgehens waren Wund[[infektion]]en, [[Sepsis]] und Tod.
[[Ignaz Semmelweis]] erahnte Mitte des 19. Jahrhunderts die Ursache des [[Kindbettfieber]]s, ordnete ab 1847 erstmals strenge Hygienemaßnahmen an und leistete einen ersten wichtigen Beitrag zum Rückgang der Todesfälle. [[Joseph Lister, 1. Baron Lister|Joseph Lister]] experimentierte mit [[Karbol]], ließ Hände und Instrumente damit reinigen, versprühte es über dem Operationsfeld und schuf ab etwa 1865 damit bereits eine keimarme Atmosphäre während des Eingriffs. Somit hatten Semmelweis (1861) und Lister (1867) die für eine Umwälzung der Chirurgie grundlegende [[Antisepsis]] eingeführt. Der Durchbruch in der Chirurgie kam mit der Entdeckung der krankheitserregenden Keime durch das [[Mikroskop]], den Erkenntnissen von [[Louis Pasteur]] und [[Robert Koch]] und der darauffolgenden Entwicklung der [[Asepsis]]. Ihren Siegeszug zum heutigen Standard begründeten dann die Reinigung, [[Desinfektion]] und [[Sterilisation]] von medizinischen Werkzeugen und Materialien sowie die Einführung von sterilen Operationshandschuhen aus Gummi.
Chirurgische Pioniere der Antisepsis in Deutschland waren [[Richard von Volkmann]], [[Ernst von Bergmann (Mediziner)|Ernst von Bergmann]], „Listers Apostel“ [[Wilhelm Schultze (Mediziner)|Wilhelm Schultze]] und [[Friedrich Trendelenburg (Mediziner, 1844)|Friedrich Trendelenburg]], der Asepsis Ernst von Bergmann und seine Schüler (etwa [[Curt Schimmelbusch]] und [[Dietrich Nasse]]) sowie [[Gustav Adolf Neuber]].
Schmerzbetäubung.
Die heutige Chirurgie ist ohne die Emanzipation der [[Anästhesiologie]] nicht denkbar. Vor Einführung der Allgemeinnarkose (als Schwefeläther-[[Narkose]]) hatte der Chirurg wegen der starken Schmerzen des Patienten äußerst schnell zu arbeiten, Todesfälle durch Schmerz ([[Schock (Medizin)|Schock]]) waren, neben denen durch Infektionen und Blutungen, nicht selten. Von [[Dominique Jean Larrey]] (1766–1842), dem Leibarzt [[Napoleon Bonaparte]]s, wird berichtet, dass er über 200 [[Amputation]]en an einem Tag vornehmen konnte. Amputationen waren damals häufig [[Verstümmelung|verstümmelnde]] Maßnahmen, denn auf einen Wundverschluss wurde im Allgemeinen verzichtet. Mit sorgfältiger Stumpfbildung und Weichteildeckung dauern Amputationen heute zum Teil mehr als eine Stunde.
Am 16. Oktober 1846 wurde durch [[William Thomas Green Morton]] die [[Narkose#Entstehung der modernen Allgemeinanästhesie|Äthernarkose]] bei einer Operation am [[Massachusetts General Hospital]] in [[Boston]] angewendet. Der „Äthertag von Boston“ gilt heute als Geburtsstunde der modernen Anästhesie und damit als eine der Voraussetzungen für die moderne Chirurgie. Am 21. Dezember 1846 setzte [[Robert Liston]] als erster Arzt in Europa das neue Narkoseverfahren bei einer Beinamputation in London ein. 1847 folgte durch [[James Young Simpson]] die Einführung von [[Chloroform]] zur chirurgischen und geburtshilflichen Narkose. Aus Gewohnheit operierte er dennoch sehr schnell und amputierte das Bein in 28 Sekunden. Der Chirurg [[August Bier]] und sein Assistent wandten 1898 die [[Spinalanästhesie]] erstmals erfolgreich an (Veröffentlichung 1899).
Konservative Chirurgie.
Erkenntnisse der Anatomie, der Pathologischen Anatomie und der experimentellen Physiologie öffneten den Chirurgen im 19. Jahrhundert neue Wege in der Wundbehandlung. 1858 löste die [[Zellularpathologie]] von [[Rudolf Virchow]] die bis dahin angewandten Prinzipien der [[Humoralpathologie]] ab, was sich nicht nur auf die internistisch, sondern auch die chirurgische Therapien auswirkte. Arterielle Blutungen wurden erfolgreich unterbunden. Immer mehr Chirurgen vermieden Eingriffe in die Gewebestruktur und voreilige Amputationen. Mit seiner Arbeit über die Heilung von Extremitätenverletzungen ohne Amputation wurde der aus der Schweiz stammende [[Wehrmedizin|Kriegschirurg]] und preussische Leibarzt [[Johann Ulrich von Bilguer]] ab 1761 als Pionier der konservativen Chirurgie europaweit bekannt. In der Wundversorgung begann das konservative = erhaltende Vorgehen zu dominieren. Der schottische Chirurg [[William Fergusson]] (1808–1877) führte den Begriff „konservative Chirurgie“ in die Fachsprache ein.
Nach der [[Schlacht bei Waterloo]] behandelte der Göttinger Chirurg und Anatom [[Konrad Johann Martin Langenbeck]] im Lazarett von Antwerpen viele Schussverletzte. Seither riet er, jeden chirurgischen Eingriff als Eingriff in den komplexen Organismus sorgfältig abzuwägen. Zu den deutschen Begründern der konservativen Chirurgie zählen seine Schüler [[Friedrich von Esmarch]], [[Louis Stromeyer]], [[Nikolai Iwanowitsch Pirogow]] und [[Bernhard von Langenbeck]] (ein Neffe von Konrad Johann Martin Langenbeck). In Frankreich wurde [[Lucien Baudens]] (1804–1857) ihr Wegbereiter.
Vor dem [[Deutsch-Französischer Krieg|Deutsch-Französischen Krieg]] (1870–1871) hatten sich alle in die Lazarette gehenden Chirurgen mit den Grundzügen der konservativen Behandlung von Schusswunden eingehend vertraut gemacht. Wegweiser waren:
Noch während des Krieges konnten 18,8 % der Verwundeten (17.000) als geheilt und dienstfähig zu ihrem Truppenteil zurückkehren. Dank der Fortschritte der Medizin und ihrer Umsetzung durch die Militärärzte begann das Lazarett zur bedeutenden Quelle des Personalersatzes zu werden. Aufschluss über die Tätigkeit der deutschen Chirurgen im Deutsch-Französischen Krieg gibt der chirurgische Teil des fünfbändigen Berichtswerks, das die Medizinalabteilung des [[Preußisches Kriegsministerium|Preußischen Kriegsministeriums]] bald nach dem Krieg veröffentlichte. Die Redaktion hatte [[Richard von Volkmann]], der selbst die konservative Wundbehandlung propagiert und fortentwickelt hatte.
Operationen am Herzen.
Durch die Fortschritte auf den Gebieten der Anästhesie und Asepsis gelang es bis um die Wende zum 20. Jahrhundert mehr und mehr Organe des menschlichen Körpers für chirurgische Eingriffe zugänglich zu machen. Eine große Ausnahme stellte jedoch lange Zeit das Zentralorgan des Blutkreislaufs, das Herz dar. Als ein Meilenstein der frühen Herzchirurgie gilt [[Ludwig Rehn]]s 1896 erstmals geglückte Naht einer Herzwunde.
Doch mehr als solch äußere Eingriffe ließ sich vorerst nicht wagen. Die Herzwand zu durchtrennen, um im Herzinneren zu operieren schien noch im frühen 20. Jahrhundert undenkbar und war auch Jahrzehnte später noch unpraktikabel. Obwohl rein handwerklich durchaus zu bewerkstelligen, bestand das Hauptproblem intrakardialer Operationen schlicht in einem Mangel an Operationszeit. Um ein klares Sichtfeld herstellen und massive Blutverluste zu vermeiden, musste das Herz für die Dauer eines Eingriffs abgeklemmt, d. h. aus dem Blutkreislauf ausgegliedert werden, was binnen Minuten zu einem tödlichen Sauerstoffmangel im Gehirn führte. In der ersten Hälfte des 20. Jahrhunderts widmeten sich deshalb zahlreiche, sehr unterschiedliche Experimente der Verlängerung dieser Operationszeit. Nachhaltige Erfolge ließen sich erst in den 1950er Jahren unter Einsatz der induzierten [[Hypothermie#Therapeutische Hypothermie|Hypothermie]] und vor allem der [[Herz-Lungen-Maschine]] erzielen. Diese Methoden, später auch in Kombination angewendet, ermöglichten es erstmals mit kalkulierbarem Risiko im Inneren des blutleeren Herzens zur operieren und setzten das Feld der Herzchirurgie somit auf ein stabiles Fundament.
Endoskopie.
Von [[Kurt Semm]] 1967 in der [[Gynäkologie]] eingeführt, etablierte sich in den 1990er Jahren die [[minimalinvasive Chirurgie]]. Dabei werden die Patienten mit [[Endoskop]]en operiert, die über Stichinzisionen eingeführt sind. Der Chirurg sieht das Arbeitsfeld auf dem [[Bildschirm]] und bedient die Instrumente indirekt.
Die epochale Entwicklung der endoskopischen Chirurgie, von dem Chirurgen [[Ernst Kern (Mediziner)|Ernst Kern]] 1993 als „Zweite Wende der Chirurgie“ bezeichnet, wurde von [[Johann von Mikulicz]] (1850–1905) in [[Wien]] eingeleitet. Erst in der zweiten Hälfte des 20. Jahrhunderts wurde sie von [[Olympus]] in [[Japan]] vorangetrieben, wo das schwer zu erkennende [[Magenkarzinom]] so häufig wie sonst nirgends auf der Welt auftrat.
Chirurgische Operationen.
[[Datei:Surgery - preparation (1978).jpg|mini|Operationsvorbereitung (1978)]]
Qualitätssicherung.
Der Beginn der ärztlichen externen Qualitätssicherung in der Chirurgie geht auf die Bayerische Perinatalerhebung Ende der 1960er Jahre zurück. Sie wurde mit dem Tracer-Diagnosenkonzept von [[Wolfgang Schega]] (Krefeld) und Otto Scheibe (Stuttgart-Feuerbach) auf die Chirurgie übertragen. Den entscheidenden Impuls gab Schega in seiner Präsidentschaft 1977. Die [[Landesärztekammer Baden-Württemberg]] und die [[Ärztekammer Nordrhein]] führten das System als erste in die klinische Routine ein. Auf dieser Grundlage wurde später das bundeseinheitliche System der externen Qualitätssicherung umgesetzt und weiterentwickelt. Dafür ist heute der [[Gemeinsamer Bundesausschuss|Gemeinsame Bundesausschuss]] mit dem [[Institut für Qualitätssicherung und Transparenz im Gesundheitswesen]] zuständig. Um die [[Leistenhernie]] als inzwischen abgeschaffte Tracerdiagnose hatte sich [[Volker Schumpelick]] besonders verdient gemacht.
Facharztrichtungen.
Nach der (Muster-)Weiterbildungsordnung von 2008 umfasst die Chirurgie in Deutschland folgende [[Facharzt]]richtungen:
Weitere operative Fächer sind [[Frauenheilkunde]], [[Ophthalmologie]], [[Hals-Nasen-Ohren-Heilkunde]], [[Dermatologie]], [[Mund-Kiefer-Gesichtschirurgie]], [[Neurochirurgie]] und [[Urologie]]. Da jedes [[Land (Deutschland)|Land]] eine eigene Weiterbildungsordnung hat, ist diese Einteilung nicht allgemein gültig.
Bekannte Chirurgen aus dem deutschsprachigen Raum.
Im 19. Jahrhundert gewann die deutsche Chirurgie durch [[Johann von Mikulicz]] Weltgeltung. Der erste deutsche Chirurgenverein wurde durch Friedrich Ernst Baumgarten (1810–1869) gegründet. Über die schwierige Lage der Chirurgie in der [[Deutsche Demokratische Republik|Deutschen Demokratischen Republik]] berichtet [[Helmut Wolff (Mediziner)|Helmut Wolff]]. Einige bekannte Fachärzte für Chirurgie aus dem deutschsprachigen Raum sind:
[[Datei:Allenberg Portrait.jpg|mini|Jens-Rainer Allenberg (* 1942)]]
[[Datei:Georg Heberer.jpg|mini|hochkant|Georg Heberer (1920–1999)]]
[[Datei:Johann Mikulicz-Radecki.jpg|hochkant|mini|[[Johann von Mikulicz]] (1850–1905)]]
[[Datei:GFL-Stromeyer.jpg|mini|hochkant|Louis Stromeyer (1804–1876)]]
Nissen und Wachsmuth sind die wichtigsten Chirurgenbiografien des 20. Jahrhunderts zu verdanken. [[Peter Bamm]] veröffentlichte 1952 seinen berühmten Bericht über die Kriegschirurgie im [[Heer (Wehrmacht)|Heer der Wehrmacht]].
Fachzeitschriften.
"[[Die Chirurgie]]" (2022 umbenannt, vorher: "Der Chirurg") ist in Deutschland das wichtigste Publikationsorgan für Chirurgie. [[Langenbeck’s Archives of Surgery|"Langenbecks Archiv für Chirurgie"]] hatte Weltgeltung; es wurde 1860 gegründet und 1998 anglisiert. Weit verbreitet ist die "[[Chirurgische Allgemeine]]".
Einzelnachweise.
[[Kategorie:Chirurgie| ]]
[[Kategorie:Medizingeschichte]]
[[Kategorie:Medizinisches Fachgebiet]] |
823 | 2469414 | https://de.wikipedia.org/wiki?curid=823 | Catherine Zeta-Jones | Catherine Zeta-Jones, CBE (bürgerlich: Catherine Zeta-Jones-Douglas; * 25. September 1969 in Swansea, Wales) ist eine britische Schauspielerin und Oscar-Preisträgerin.
Leben.
Catherine Zeta-Jones wuchs im walisischen Mumbles auf. Ihr Vater Dai Jones besaß eine Süßwarenfabrik. Sie hat zwei Brüder, David Jones und Lyndon Jones, der für ihr Produktionsunternehmen arbeitet. Sie wurde nach ihren Großmüttern Zeta Jones (abgeleitet vom Namen eines Schiffes, auf dem ihr Urgroßvater segelte) und Catherine Fair benannt. Als Kind litt sie unter einer Atemwegserkrankung, die eine Luftröhrenoperation erforderlich machte; der Eingriff hinterließ eine dauerhafte Narbe.
Zeta-Jones, halb Irin, halb Waliserin, fühlte sich bereits im Kindesalter zum Showgeschäft berufen. Sie tanzte und sang unter anderem in einer katholischen Kirchengemeinde. Sie spielte in den Theaterstücken "Annie" und "Bugsy Malone" mit, ehe sie mit 15 nach London zog, um Schauspielerin zu werden. Mit 17 erhielt sie unter glücklichen Umständen eine tragende Rolle in der West-End-Produktion des Musicals "42nd Street". Damit gelang ihr der Durchbruch im Theater, zeitweise stand sie acht Mal pro Woche auf der Bühne.
1990 verbrachte Zeta-Jones ein ganzes Jahr in Frankreich, um die Titelrolle in dem Film "Sheherazade – Mit 1001 PS ins Abenteuer" zu spielen. Nach ihrer Rückkehr stellte sie in der Fernsehserie "The Darling Buds of May" die älteste Tochter einer Bauernfamilie dar. Die Serie war ein Erfolg und machte sie in Großbritannien zum Star.
Unterdessen versuchte sie, auch ihre Wunschkarriere als Sängerin und Tänzerin voranzutreiben. Ihre erste Single "For All Time" (1992) schaffte den Sprung unter die Top 40 der britischen Charts. Die Single "True Love Ways" (1994) im Duett mit David Essex schaffte es auf Platz 38 in den UK Top 75. Weitere Lieder wie "In the Arms of Love" und "I Can’t Help Myself" (1995) hatten kaum kommerziellen Erfolg.
Zeta-Jones konzentrierte sich nun auf ihre Schauspielkarriere. Es folgten Rollen in der Fernsehserie "Die Abenteuer des jungen Indiana Jones" sowie in dem Film "Christopher Columbus – Der Entdecker" im Jahr 1992. Durch ihren Auftritt in der Fernsehproduktion "Titanic" wurde auch Hollywood auf sie aufmerksam. Mit einer Hauptrolle in dem Kinofilm "Die Maske des Zorro" (neben Antonio Banderas und Anthony Hopkins, erschienen 1998) gelang ihr auch der Durchbruch im internationalen Filmgeschäft. Es folgten weitere erfolgreiche Produktionen, unter anderem "Das Geisterschloss" (1999), "Traffic – Macht des Kartells" (2000) und das Filmmusical "Chicago" (2002). Sie war u. a. mit dem Simply-Red-Frontmann Mick Hucknall liiert.
Am 13. Dezember 1999 verlobte sie sich mit dem genau 25 Jahre älteren Schauspieler Michael Douglas; sie heirateten am 18. November 2000. Mit ihm hat sie einen Sohn (Dylan Michael Douglas, * 2000) und eine Tochter (Carys Zeta Douglas, * 2003). Seit der Heirat heißt sie bürgerlich Catherine Zeta-Jones-Douglas. Für die Rolle der Velma Kelly in "Chicago" erhielt sie 2003 den Oscar in der Kategorie Beste Nebendarstellerin. Außerdem bekam sie für ihre Leistung in "Chicago" den British Academy Film Award. In die Rolle der Helena Ayala in "Traffic" musste eine Schwangerschaft eingebaut werden, da Zeta-Jones zu diesem Zeitpunkt mit ihrem Sohn schwanger war. Zeta-Jones hat auch erfolgreich Werbung betrieben: 2006 war sie dank eines Zweijahresvertrags mit T-Mobile über 16 Mio. US-Dollar der bestbezahlte Werbestar weltweit.
Seit 2017 ist sie verstärkt im Fernsehen zu sehen, so als Griselda Blanco in der Filmbiografie "Cocaine Godmother", als Olivia de Havilland in der Serie "Feud" und seit 2018 als Hauptdarstellerin in der Dramedy "Queen America".
Zeta-Jones ist Eigentümerin des Produktionsunternehmens "Milkwood Films".
Deutsche Synchronstimme.
Catherine Zeta-Jones wird überwiegend von der Schauspielerin und Synchronsprecherin Arianne Borbach gesprochen. |
824 | 15219 | https://de.wikipedia.org/wiki?curid=824 | Crowley (Familienname) | Crowley ist ein englischer Familienname. |
826 | 932725 | https://de.wikipedia.org/wiki?curid=826 | Cannstatter Volksfest | Das Cannstatter Volksfest (umgangssprachlich auch der "Cannstatter Wasen" oder kurz "Wasen" genannt) ist ein 17-tägiges Volksfest, das seit 1818 (mit Ausnahme von 1882 bis 1891, während der beiden Weltkriege, sowie 2020–2021) jährlich von Ende September bis Anfang Oktober auf dem Cannstatter Wasen im Neckarpark im Stuttgarter Stadtbezirk Bad Cannstatt veranstaltet wird. Das jahreszeitliche Pendant zum Volksfest im Herbst ist das Stuttgarter Frühlingsfest. 1994 wurde der Cannstatter Volksfestverein e.V. gegründet, der sich um Erhaltung und Förderung des Volksfestbrauchtums kümmert.
Daten und Fakten.
Die Freifläche auf dem Cannstatter Wasen beträgt rund 25 Hektar. Das schwäbische Volksfest beginnt normalerweise eine Woche später als das Münchner Oktoberfest. Das Cannstatter Volksfest beansprucht für sich aufgrund der Vielzahl der Schaustellerbetriebe den Titel „größtes Schaustellerfest Europas“. Laut Veranstalter Andreas Kroll, Geschäftsführer der „in.Stuttgart Veranstaltungsgesellschaft“, haben 2006 4,2 Millionen Menschen das 161. Cannstatter Volksfest besucht, was einer Steigerung gegenüber 2005 um 20 % entspricht. 2007 wurde mit 4,5 Millionen Besuchern eine erneute Steigerung erreicht.
Geschichte.
Erstmals gefeiert wurde das Cannstatter Volksfest 1818. Gedacht als „jährlich am 28. September zu Kannstadt abzuhaltendes landwirtschaftliches Fest“. Der indirekte Anlass des ersten Volksfestes liegt in Asien, wo 1815 der indonesische Vulkan Tambora explodierte. Gase und Staub sorgten jahrelang für Klimaveränderungen (Jahr ohne Sommer) und damit für die Missernten und Hungersnöte. So wurde ein landwirtschaftliches Fest und eine landwirtschaftliche Unterrichtsanstalt geschaffen, bekannt als Universität Hohenheim.
Bereits im ersten Jahr war das Volksfest ein großer Erfolg. Es wurde von weit mehr als 30.000 Gästen und Mitwirkenden berichtet. Mit der Zeit wurde das Cannstatter Volksfest größer und gewann an Bedeutung. Höhepunkte in der frühen Geschichte des Volksfestes waren die Feiern zum 25. Regierungsjubiläum König Wilhelms I. am 28. September 1841 (Festzug der Württemberger) und das französisch-russische Zweikaisertreffen mit Besuch auf dem Wasen am 28. September 1857. Am 28. September 1876 kamen Kaiser Wilhelm I. und sein Schwiegersohn Großherzog Friedrich I. zum Volksfest, ebenso im Jahre 1881. Im 19. Jahrhundert dauerte das Fest zunächst nur einen einzigen, später drei, dann vier, ab den 1920er Jahren schließlich fünf Tage. Zu Beginn der 1950er Jahre wurde der Wasen dann auf zunächst zehn, dann zwölf und schließlich 1972 auf 16 Festtage ausgedehnt. Seit 2007 dauert das Fest 17 Tage, da der Auftakt von Samstag auf Freitag vorverlegt wurde.
Zunächst gab es noch wenige „Volksfest-Buden“ mit Schaustellern und Bierausschank. Sie wurden zugunsten der königlichen Loge und der Honoratioren-Tribünen an den Rand des eigentlichen Festgeländes verbannt. Bereits 1860 kam es infolge der zunehmenden Schausteller-Zahlen zu der heute typischen Anordnung in drei Hauptstraßen und zahlreichen Nebenstraßen, um den von Jahr zu Jahr immer größer werdenden Besucherzahlen genügend Platz zu lassen.
Das Cannstatter Volksfest wurde bis 2006 am Samstag um den 27. September, dem Geburtstag von König Wilhelm I., zu dessen Ehren eröffnet; der früheste Termin ist der 22. September. Seit 2007 öffnet das Volksfest bereits am Freitag um 15 Uhr; am Freitagabend wird der Fassanstich durch den Stuttgarter Oberbürgermeister live im regionalen Fernsehen übertragen.
Das "Historische Volksfest" wurde vom 26. September bis 3. Oktober 2018 täglich von 11 bis 22 Uhr zusätzlich zum Jubiläum auf dem Schloßplatz in der Stuttgarter Innenstadt gefeiert. Im Jahr 2022 fand es zum zweiten Mal statt.
Die Volksfeste 2020 und 2021 fanden aufgrund der COVID-19-Pandemie nicht statt.
Festzelte.
Überblick.
Auf dem Cannstatter Volksfest finden sich neun Festzelte (sieben Bierzelte und zwei Weinzelte) sowie eine Vielzahl kleinerer gastronomischer Betriebe mit Biergärten. Mittelpunkt sind die drei Brauereizelte (das Festzelt "Klauss" der Brauerei Dinkelacker, das Festzelt "Wilhelmer's SchwabenWelt" der Brauerei Schwabenbräu und das Festzelt "Hans-Peter Grandl" der Brauerei Stuttgarter Hofbräu), die seit 1982 ihren traditionellen Platz nebeneinander vor der Fruchtsäule haben. Die Anordnung der drei Zelte wechselte dabei bis 2008 jährlich, das Zelt der federführenden Brauerei (deren Fass beim Anstich durch den Oberbürgermeister zum Zuge kommt) stand dabei immer ganz rechts. Seit 2009 bleibt die Anordnung gleich.
Vor 1982 gab es vier etwas kleinere Brauereizelte, die auf beiden Seiten der Fruchtsäule aufgebaut waren. Das vierte Zelt war das Festzelt der Brauerei Wulle, die 1971 von Dinkelacker übernommen wurde und wenig später als Marke nicht mehr existierte. Baurechtlich genehmigt waren in Stuttgart 26.000 überdachte Plätze, 2009 erhöhte sich diese Zahl durch diverse Um- und Ausbauten auf über 30.000. Als zehnten Großbetrieb gibt es auf dem Wasen das Almhüttendorf, das jedoch kein Festzelt ist, sondern aus einer Ansammlung von Hütten im alpenländischen Stil eine andere Form des Festbetriebs anbietet (Sitzplatzkapazität ca. 1500).
Ehemalige Zelte.
Auf dem Wasen hat es im Verlauf der Jahrzehnte viele Veränderungen gegeben, so besteht ein (unvollständiger) Überblick über nicht mehr existierende Festzelte.
Attraktionen.
Überblick.
Zu den großen Attraktionen gehören neben den Festzelten die Schaustellerbuden und Fahrgeschäfte. Aus 1054 Bewerbungen hat Volksfest-Chef Karl Kübler 2004 333 Attraktionen (Vorjahr: 302) ausgewählt. Zu den größten Attraktionen des Cannstatter Volksfestes gehörte bis einschließlich 2009 das seinerzeit größte transportable Riesenrad der Welt mit 60 Metern Durchmesser der Firma Steiger aus Bad Oeynhausen. Seit 2010 ist das Riesenrad – nachdem die Stadt Stuttgart erstmals die Lizenz an einen Wettbewerber vergab – nicht mehr auf dem Wasen vertreten (Anmerkung: Die Firma Steiger Riesenrad zog deswegen gegen die Stadt Stuttgart vor Gericht und gewann 2011 den Prozess. Seither ist das Unternehmen nicht mehr in Stuttgart auf dem Wasen präsent).
Allerdings fehlte seit 1998 eine Looping-Achterbahn. Diese war von 1984 bis 1997 die größte Fahrattraktion des Festes. Zum ersten Mal stand 2004 der „Imperator“ auf dem Wasen. Das größte Flugkarussell der Welt bietet 64 Passagieren Loopingfahrten bis in 35 Meter Höhe. Der 66 Meter hohe „Power Tower 2“ feierte Premiere. Seit 2009 kommt die Doppel-Looping-Achterbahn „Teststrecke“ (auch auf dem Frühlingsfest) zum Einsatz. Seit 2010 wird an Stelle des Steiger-60-Meter-Riesenrads das etwas kleinere Expo-Riesenrad (Mega Wheel Millenium Star) auf dem Cannstatter Volksfest aufgebaut.
Fruchtsäule.
Die "Fruchtsäule" ist eine mit Früchten dekorierte 26 Meter hohe und 3,5 Tonnen schwere Holzsäule, die das Wahrzeichen des Cannstatter Wasens ist. Sie wird allerdings heute von zahlreichen Fahrgeschäften überragt.
Schon beim ersten Volksfest 1818 gab es als Wahrzeichen eine Fruchtsäule, die vom damaligen württembergischen Hofbaumeister Nikolaus Friedrich von Thouret entworfen und erbaut worden war. Nach dem Ersten Weltkrieg, mit dem Beginn der ersten deutschen Republik, wurde die Fruchtsäule als „monarchistisches“ Überbleibsel vom Cannstatter Wasen verbannt. Seit dem 100. Jahrestag 1935 steht sie wieder auf ihrem angestammten Platz.
Das Design der Fruchtsäule wurde im Laufe der Jahre immer wieder geändert. Bis vor kurzem wurde sie alljährlich nach Abschluss des Volksfests demontiert und es wurde mitunter eine neue Fruchtsäule mit anderem Design errichtet. Ab 1995 wurde sie versuchsweise einige Zeit lang ganzjährig stehen gelassen und war somit auf dem Stuttgarter Frühlingsfest erstmals zu sehen. Seit ein paar Jahren wird nur noch die Spitze demontiert und der Unterbau stehen gelassen, in dem sich einige Informationsstände befinden und der während des Frühlingsfestes die Cannstatter Stadtkanne trägt.
Landwirtschaftliches Hauptfest.
Alle vier Jahre ist dem Volksfest das Landwirtschaftliche Hauptfest (LWH) angeschlossen – der ursprüngliche Auslöser des herbstlichen Trubels auf dem Wasen. Das Landwirtschaftliche Hauptfest dauert neun Tage (erste Volksfest-Woche) und kostet im Unterschied zum Volksfest Eintritt.
Fahrgeschäfte und Buden.
Zelte, Imbissstände sowie Fahrgeschäfte sind sonntags bis freitags von 11 Uhr bis 23 Uhr geöffnet. Samstags und vor Feiertagen dauert der Betrieb bis 24 Uhr, allerdings endet in den Festzelten um 23:30 Uhr die Musik. Viele Kinderkarussells und andere Fahrbetriebe für Kinder stellen häufig schon um 22 Uhr den Betrieb ein. 2007 standen auf dem Volksfest 73 sonstige Geschäfte: Schieß-, Los- und Wurfbuden und Schaugeschäfte, 95 Verkaufsgeschäfte für Essen, ein Krämermarkt mit 60 Marktständen und eine Boxshow. Zum Vergleich: Auf dem Münchner Oktoberfest gab es 2004 41 Fahrgeschäfte, 16 Kinderfahrgeschäfte, 17 Schau- und Belustigungsgeschäfte und 65 gastronomische Kleinbetriebe. Im Jahr 2009 gab es nach mehreren Jahren erstmals wieder eine Achterbahn mit Looping.
Zusammen mit dem Volksfest findet der Krämermarkt auf dem Cannstatter Wasen statt. Angeboten werden dort Hosenträger, Ledergürtel, Pfannen, Textilien, Gewürze und andere Kleinartikel. Jahrelang gehörte das "Französische Dorf" zum Cannstatter Volksfest, auf dem die Besucher bei landestypischer Musik französische Speisen und Getränke konsumieren konnten. 2004 war es mit 33 Ständen vertreten. 2007 wurde das Französische Dorf von dem Almhüttendorf abgelöst. Das bietet Themengastronomie ähnlich dem Französischen Dorf jedoch mit Ständen im Almhüttenstil.
Volksfestumzug.
Traditionell findet ein Festumzug zum Wasen statt – jeweils am ersten Sonntag des Festes. Ein wohl bis heute nicht überbotener Festumzugs-Rekord wurde 1954 aufgestellt, als über 300.000 Zuschauer zwischen Schlossplatz und Wasen die Straßen säumten. Nutztiere wie das Schwäbisch-Hällische Landschwein reihen sich in den Festzug ein. Für die Mitwirkenden gelten strenge Regeln: Historische Fußbekleidung, Kopfbedeckung. Bei Frauen keine langen, offenen Haare. Kein übermäßiges Makeup, lackierte Fingernägel, Sonnenbrillen, sichtbare Piercings und Tattoos. Musikkapellen und Spielmanns- und Fanfarenzüge können sich nur bewerben, wenn sie eine historische Tracht oder Uniform tragen. Bei Trachtenkapellen ist Voraussetzung, dass Männer in Männertracht und Frauen in Frauentracht gekleidet sind.
Krämermarkt.
Zum Cannstatter Volksfest gehört wie zu vielen anderen Volksfesten auch ein Krämermarkt. Er befindet sich am nordwestlichen Ende des Festplatzes. Eine Besonderheit des Krämermarktes des Cannstatter Volksfestes ist ein Bibelverkaufsstand.
Thementage und Sondertarife.
Um Familien mit Kindern anzulocken, werden seit mehreren Jahren zu bestimmten Terminen in manchen Zelten bzw. Fahrgeschäften spezielle Kinder- oder Familientarife angeboten. Mehrere Festzelte bieten tagsüber spezielle Ermäßigungen, so Mittagsangebote oder Rentnertarife an (das „Rentnerviertele“). Seit 2002 gibt es Schwulen-Abende, wie auf dem Münchner Oktoberfest. Seit 2002 veranstaltet das Festzelt „Wasenwirt“ eine „Gaydelight-Party“, seit 2005 findet im Festzelt „Göckelesmaier“ die „Gay-Chicken-Night“ statt.
Der Anfang Oktober gelegene Tag der Deutschen Einheit bietet den Betreibern seit 1990 einen zusätzlichen arbeitsfreien Tag während des Volksfestes. Anlässlich des Nationalfeiertags wurde die alte Tradition des Volksfest-Feuerwerks wiederbelebt. Zum Volksfestende findet am letzten Sonntag um 21.45 Uhr das 20-minütige Musikfeuerwerk statt.
Historisches Volksfest.
2018 fand anlässlich des 200. Jubiläums des Cannstatter Volksfestes parallel dazu auf dem Stuttgarter Schloßplatz erstmals das "Historische Volksfest" statt. Es bot ein Riesenrad Baujahr 1902, eine Illusionsshow, einen Flohzirkus, ein Festzelt, einige historische Fahrgeschäfte und Orgeln als Attraktionen. Außerdem fanden artistische Vorführungen statt. Eine Besonderheit waren mehrere Informationsstände zur Geschichte des Cannstatter Volksfestes.
Zukünftig soll es parallel zum Landwirtschaftlichen Hauptfest in einem festen Turnus stattfinden. Im Jahr 2022 wurde es demgemäß zum zweiten Mal veranstaltet. |
827 | 96411 | https://de.wikipedia.org/wiki?curid=827 | Catherine Oxenberg | Catherine Oxenberg, auch Catherine van Dien, (, * 22. September 1961 in New York City, New York) ist eine US-amerikanische Schauspielerin, Drehbuchautorin und Filmproduzentin. Sie ist die Tochter des US-amerikanischen Kleiderfabrikanten Howard Oxenberg (1919–2010), einem engen Freund der Familie Kennedy, und der ehemaligen Prinzessin Elisabeth von Jugoslawien.
Karriere.
Bekannt wurde Oxenberg durch die Fernsehserie "Der Denver-Clan", in der sie von 1984 bis 1986 die Rolle der "Amanda Carrington" spielte. Hierfür wurde ihr auch ein Bambi verliehen.
Im Kino war sie u. a. 1988 in der Bram-Stoker-Verfilmung "Der Biss der Schlangenfrau" von Ken Russell zu sehen. Sie wirkte in verschiedenen Fernsehproduktionen mit, so 2001 in "The Miracle of the Cards" mit Thomas Sangster, der Verfilmung der wahren Geschichte über den zehnjährigen krebskranken Craig Shergold. Außerdem spielte sie in zwei Fernsehfilmen die Rolle der Prinzessin Diana. 2008 war sie neben ihrem Mann Casper van Dien in "" in einer Gastrolle zu sehen.
Privates.
Am 12. Juli 1998 heiratete sie den Filmproduzenten Robert Evans, die Ehe wurde aber bereits neun Tage später annulliert. Am 8. Mai 1999 heiratete sie den Schauspieler Casper van Dien. Die Scheidung wurde im September 2015 eingereicht. Sie hat drei leibliche Töchter (* 1991, 2001, 2003), sowie zwei Stiefkinder (* 1993, 1996).
Im Juli 2007 erhielt Oxenberg einen serbischen Pass und besitzt jetzt neben der US-amerikanischen auch die serbische Staatsbürgerschaft. |
828 | 2318584 | https://de.wikipedia.org/wiki?curid=828 | Charlie Parker | Charlie „Bird“ Parker (* 29. August 1920 als Charles Parker Jr. in Kansas City, Kansas; † 12. März 1955 in New York City) war ein US-amerikanischer Musiker (Altsaxophonist und Komponist), der als einer der Schöpfer und herausragenden Interpreten des "Bebop" zu einem wichtigen und einflussreichen Musiker in der Geschichte des Jazz wurde. Seine Musik „hat den Jazz beeinflusst wie vor ihm nur die von Louis Armstrong, wie nach ihm die von John Coltrane und Miles Davis“.
Ab 1942 wirkte er an den legendären Jamsessions im "Monroe’s" und im "Minton’s Playhouse" in Harlem mit, wo er gemeinsam mit Dizzy Gillespie und Thelonious Monk entscheidende Grundlagen für den Modern Jazz legte. Er spielte dabei, für damalige Verhältnisse, kühne Dissonanzen und rhythmische Verschiebungen, die aber allesamt von seinem Gefühl für melodische Schlüssigkeit geprägt waren. Auch in sehr schnellen Stücken vermochte er prägnant und stimmig mit hoher Intensität zu improvisieren. Anfang der 1950er-Jahre verschlechterte sich der gesundheitliche Zustand des Saxophonisten, der seit seiner Jugend drogensüchtig war. Seinen letzten Auftritt hatte er am 5. März 1955 in dem nach ihm benannten New Yorker Jazzclub "Birdland".
Leben.
Anfänge in Kansas City.
Parker wurde in Kansas City geboren. Der Vater war Service-Steward beim Santa Fe Express. Die Mutter machte noch als Sechzigjährige eine Ausbildung zur Krankenschwester. Charlie Parker hatte einen älteren Bruder, der als Postangestellter beim Kansas City Post-Office arbeitete. Parker begann erst nach dem Besuch der Lincoln High School, Altsaxophon zu spielen. Zwar hatte seine Mutter es ihm 1933 geschenkt, doch Parker interessierte sich zunächst nicht dafür und verlieh das Saxophon zwei Jahre lang an einen Freund. Stattdessen spielte er Tenorhorn in der Brass Band der Highschool. So fragte ihn John Maher in einem Interview, bei dem auch Marshall Stearns anwesend war: „Haben Sie in der Marschkapelle Ihrer Oberschule … Tenorhorn gespielt?“ Darauf Parker: „… Sie hatten etwas, das sich Symphonisches Blasorchester nannte … Tenorhorn, ja richtig … Nein, nicht ganz so groß wie eine Tuba. Es besitzt drei Ventile. Zwischen einer Tuba und einem Althorn, ziemlich groß. Sie müssen es auf diese Art halten, Sie wissen schon, auf diese Art.“ – (Gelächter). Parker begann sich erst mit etwa 17 Jahren für das Altsaxophon zu interessieren. Parker spielte schon bald professionell mit diversen Bands, unter anderem mit Mary Colston Kirk, mit "George E. Lee and his Novelty Singing Orchestra", der Territory Band von Tommy Douglas oder mit den "Deans Of Swing". Bassist Gene Ramey wurde einer seiner Freunde, mit dem er später auch in der Band von Pianist Jay McShann spielte. Parker hörte zu dieser Zeit einige der damals bekanntesten Saxophonisten, darunter die Tenorsaxophonisten Herschel Evans, Coleman Hawkins und Lester Young.
Russells Biografie zufolge hatte Parker im späten Frühjahr 1936 auf einer Jam-Session mit Mitgliedern der Count-Basie-Bigband ein Schlüsselerlebnis: Er spielte damals so schlecht, dass Schlagzeuger Jo Jones vor Wut sein Schlagzeug-Becken auf den Fußboden warf. Danach ließ sich Parker während eines Engagements am Lake Taneycomo vom Gitarristen seiner Combo in Harmonielehre unterrichten. Augenzeugen zufolge war er danach wie verwandelt: Von einem wenig kompetenten Saxophonisten mit miserablem Ton hatte er sich in einen fähigen und ausdrucksstarken Musiker entwickelt, der es nun sogar mit weit erfahreneren Saxophonisten aufnehmen konnte.
Durchbruch als Musiker.
Nach Zwischenstationen in der Band von Jay McShann (1937 bis 1942), bei Noble Sissle (1942/43), in der Big Band von Earl Hines, in dessen Orchester er mit dem Trompeter und Arrangeur Dizzy Gillespie erstmals zusammenarbeitete, bei Cootie Williams, Andy Kirk und der innovativen Big Band von Billy Eckstine gründete Parker 1945 zusammen mit Gillespie die erste Bebop-Combo. Mit ihren energetischen Rhythmen und ihrer für den Jazz innovativen Harmonik stellte sie eine klare Absage an den etablierten Swing dar und wurde darum anfangs auch heftig kritisiert: Cab Calloway etwa nannte ihren Stil abfällig „chinese music“. Bis Ende der 1940er-Jahre hatte sich der Bebop jedoch als "der" definitive neue Jazz-Stil durchgesetzt und die Ära des modernen Jazz eingeleitet. Aus dieser Zeit stammen einige wichtige Aufnahmen, beispielsweise von "Billie’s Bounce", "Now’s the Time", "Donna Lee" – komponiert von Miles Davis – und "Koko". Dort übernahm jedoch Gillespie, der hohe Töne und schnelle Passagen sicherer beherrschte als Davis, den Trompeten-Part.
Nachdem Dizzy Gillespie die Band 1946 während eines Aufenthalts in Hollywood auflöste, blieb Parker als einziges Bandmitglied ein Jahr in Kalifornien, trat bei JATP-Konzerten mit Lester Young auf und stellte dort eine eigene Band zusammen, in der zuerst der junge Miles Davis, danach Howard McGhee – ein Schüler Gillespies – die Trompete übernahmen. Hier unterschrieb er auch einen ersten Plattenvertrag mit dem Jazz-Label Dial Records von Ross Russell, seinem späteren Biografen, und nahm eine Reihe seiner wichtigsten Stücke auf, darunter die "Yardbird Suite", "Moose The Mooche" und "A Night in Tunisia" mit dem berühmten Altsaxophon-Break "(famous alto break)" im ersten Take.
Nach einer Aufnahmesession, bei der er unter anderem "Lover Man" einspielte, erlitt Parker einen Nervenzusammenbruch und musste ins Camarillo State Hospital eingeliefert werden, wo er einige Monate blieb. Nach seiner Entlassung kehrte er wieder nach New York zurück und stellte dort ein neues Quintett unter anderem mit Miles Davis zusammen. Dieses erhielt ein festes Engagement im Three Deuces auf der damals berühmten 52nd Street. 1948 hatte das Charlie-Parker-Quintett unter anderem ein Engagement im Royal Roost, wo viele Auftritte live mitgeschnitten und später veröffentlicht wurden "(The Bird Returns)"; im Mai 1949 trat es auf dem Pariser Festival International 1949 de Jazz auf. Ab 1948 nahm Parker bis zu seinem Tode für Mercury Records, dann Verve Records auf, die Aufnahmen erschienen zusammengefasst unter dem Titel "".
1949 folgten einige Aufnahmen mit Streichern, Oboe, Waldhorn und Harfe, die unter dem Titel "Charlie Parker with Strings" auf Verve veröffentlicht wurden. Davon zählt "Just Friends" zu den herausragenden Aufnahmen Parkers, wie er selbst hervorhob. Er zeigt sich hier in solistischer Höchstform und erhält zudem durch ein Klaviersolo von Stan Freeman kongeniale Begleitung. Sie waren die kommerziell erfolgreichsten Aufnahmen in Parkers Karriere, aber schon bei ihrem Erscheinen wurden die Studio-Arrangements von vielen Jazzkritikern als Anbiederung an den Massengeschmack abgelehnt.
Im nächsten Parker-Quintett stand der junge weiße Trompeter Red Rodney in der „front line“, der zuvor mit so renommierten Bands wie dem Claude Thornhill Orchestra und bei Woody Herman gespielt hatte. Am Piano saß nun Al Haig, Bass spielte Tommy Potter, Schlagzeug einer der besten jungen Bebop-Drummer, Roy Haynes. Von dieser Band gibt es – abgesehen von einer Reihe von Studioaufnahmen – einen sehr aufschlussreichen Livemitschnitt, der als "Bird at St. Nick’s" veröffentlicht wurde. Dort sind – wie später auch von Dean Benedetti, einem ergebenen Parker-Fan der ersten Stunde – von den Soli nur Parkers Saxophon-Passagen zu hören. Diese offenbaren teilweise eine damals schon sehr „freie“ Spielweise.
Die Band tourte dann durch die Südstaaten der USA. Dort wurden damals noch keine gemischtrassigen Bands toleriert, so dass der weiße Pianist Al Haig durch den schwarzen Walter Bishop ersetzt und Red Rodney als „Albino Red“ – also weißhäutiger Schwarzer – angekündigt wurde. Wegen der miserablen hygienischen Bedingungen für schwarze Bands war dies Parkers letzte Tournee durch die Südstaaten. Russell beschreibt diese Episode ausführlich in seiner Biografie.
Aus dem Ende 1949 eröffneten und nach Parkers Spitznamen benannten „Birdland“ stammen noch einige interessante Livemitschnitte der 1950er-Jahre, wie auch weitere Live-Aufnahmen von "Charlie Parker with Strings". Ihren Abschluss bildet ein Konzert, das Parker 1953 in der „Massey Hall“ in Toronto gab und das Charles Mingus, sein damaliger Bassist, mitschnitt und später auf seinem eigenen Label Debut Records veröffentlichte. "Jazz at Massey Hall" gilt als eine Art „Schwanengesang“ des Bebop, da der Trend inzwischen zum von Miles Davis eingeleiteten Cool Jazz gegangen war.
Abstieg und Tod.
Parker war wahrscheinlich schon seit seinem fünfzehnten Lebensjahr heroinabhängig, so Ross Russell. Oft wurde er wegen seines unberechenbaren Verhaltens auf der Bühne aus laufenden Spielverträgen entlassen, so dass er immer seltener feste Engagements bekam. So sah er seinen Stern ab etwa 1950 langsam aber sicher sinken. Letzte Höhepunkte waren seine beiden Auftritte im März und September 1953 im Bostoner Club "Storyville".
Am 12. März 1955 starb Charlie Parker, geschwächt von Leberzirrhose, Magengeschwüren und einer Lungenentzündung, im New Yorker Hotel Stanhope in der Suite der Baroness Pannonica de Koenigswarter, einer Gönnerin schwarzer Jazzmusiker.
Die Musik Charlie Parkers.
Parkers Spielweise ist geprägt von einer äußerst lebhaften, beweglichen, ideenreichen und virtuosen Melodik, oft in Verbindung mit einer vibrierenden, unruhig wirkenden Rhythmik. Darum sind seine Melodielinien besonders auf alten Aufnahmen teilweise nur bruchstückhaft erkennbar.
Anfang der vierziger Jahre erschöpfte sich der damals nicht nur in den USA enorm populäre Swing immer mehr in klischeehaften Arrangements und stereotypen Harmonien. Die häufig schlagerartigen Themen produzierten Soli mit oft typischen, vorhersehbaren Wendungen im Rahmen weiter, gut nachvollziehbarer Spannungsbögen.
Gelangweilt suchte Parker mit anderen jungen Musikern nach neuen musikalischen Wegen, die mehr kreative Entfaltung zuließen. So „zerlegte“ er die großen, nachsingbaren Bögen der Swingmelodien in lauter kleinere, motivische Fragmente, eine Technik, die schon in der „Diminution“ des Hochbarock auftaucht. Die Tempi werden oft rasend schnell, die Soli bestehen daher oft aus geradezu halsbrecherisch schnellen Ton-Kaskaden. Diese sind jedoch harmonisch und rhythmisch immer schlüssig und verlieren nie den Bezug zu den zu Grunde liegenden Akkorden. Dies erreichte Parker durch spezielle Skalen, die er schon in Kansas – während seines Rückzugs aus den öffentlichen Sessions und heimlichen Übephase – entwickelte. Er erweiterte eine normale Tonleiter um „Leit“- oder „Gleittöne“, die im Swing als disharmonisch galten, aber seine Läufe und Phrasen auf rhythmischen Schwerpunkten enden ließen. Dazu gehörte auch das im Swing „unerlaubte“ Intervall der erhöhten Quarte, deren Abwärtssprung lautmalerisch „Be-Bop“ zu sagen scheint. Zugleich integriert er die Vitalität eines starken Bluesfeelings in seine Soli.
Parkers Improvisationsstil veränderte die übliche Formelsprache des Swing auch im Blick auf die Harmonien: Diese wurden mit mehr "tensions" (Zusatztönen im Akkord) angereichert und wechselten häufiger. Der hypnotische Sog seines Saxophonspiels erzeugte eine Wechselwirkung mit seinen Mitmusikern: So ließen sich etwa der Schlagzeuger Kenny Clarke zu großer rhythmischer, der Pianist Thelonious Monk zu großer harmonischer Komplexität inspirieren. Parker führte diese Elemente dann wiederum auf ganz eigene Weise zusammen und bewegte sich innerhalb dieses selbst geschaffenen musikalischen Idioms mit einer einzigartigen Gewandtheit und Eleganz.
Auch als Komponist ist Parker für die Jazzgeschichte maßgebend geworden. Seine Stücke entstanden oft aus Improvisationen über längst bekannte Themen. Er benutzte einfach das Harmoniegerüst eines Standards, um darüber – meist spontan und oft erst im Studio – ein völlig neues, wiederum in sich stimmiges Thema zu erfinden. Für die auf solche Art entwickelten Themen hat sich der Fachbegriff bebop head entwickelt. Er hielt sich in der Regel nicht damit auf, dieses zu notieren, so dass er zahllose begeisterte Musikerfans und Editoren mit dem „Heraushören“ beschäftigte. Einer seiner Wahlsprüche war: „Learn the damn changes to forget them!“ – „Lern die verdammten Akkorde, um sie zu vergessen!“
"Ornithology" etwa ist quasi ein elegantes Solo über "How High The Moon", das dessen Harmoniewechsel „beschleunigt“, "Bird of Paradise" eine Variation über "All the Things You Are".
Oft verwendete Parker auch harmonische Grundformen des Jazz wie die Rhythm Changes von George Gershwins Hit "I Got Rhythm" (so beispielsweise bei "Celebrity", "Chasing the Bird", "Kim", "Moose the Mooche", "Passport", "Steeplechase", "Anthropology", "Dexterity" und anderen) oder das Blues-Schema, wobei er diese Formen harmonisch erweiterte.
Beispiele für den harmonisch erweiterten sog. "Parker Blues" mit rhythmisch raffiniert „versetzter“ Themenphrasierung sind "Au Privave", "Confirmation" oder "Blues for Alice": Charakteristisch sind zum einen die Verwendung des Großen Septakkords (oder in der im Jazz international üblichen englischen Bezeichnung "Major Seventh") anstatt des Dominantseptakkords auf der I. Stufe, d. h. der Erweiterung des Durdreiklangs durch die große anstatt der kleinen Septime (s. erster Teil im Hörbeispiel), zum anderen kadenzartige Überleitungen zwischen den Hauptakkorden, insbesondere von der I. auf die IV. Stufe in den ersten 4 Takten (die z. B. in "Confirmation" oder "Blues for Alice" schon im 2. Takt beginnt). So gelang es Parker, Blues und funktionale Harmonik miteinander zu verschmelzen.
Zu Beginn wirkte sein Spiel brandneu, revolutionär und galt den Heroen der Swingära geradezu als Frevel. Er setzte ihrem eingängigen und tanzbaren Stil eine Musik entgegen, die der Erwartungshaltung des Publikums widersprach. Der Bebop war mit seinen wirbelnden Melodiekürzeln und rasanten Rhythmen als Tanzmusik ungeeignet und wurde als disharmonisch und chaotisch empfunden. Parker verstand sich anders als viele damalige schwarze und weiße Musiker nicht als Entertainer, der nur die Wünsche der Hörermasse zu bedienen hatte. Er spielte durchaus extrovertiert und reagierte oft unmittelbar auf Zurufe auf der Bühne, sah sich dabei aber als Künstler, der fortwährend seinen eigenen, individuellen musikalischen Ausdruck suchte. Dies brachte ihm anfangs nur wenige Fans und Musikerfreunde ein, während das breite Publikum ihn zunächst schroff ablehnte. So war der Bebop in seiner Blütezeit zwischen 1945 und 1950 noch keineswegs populär und setzte sich erst allmählich auch kommerziell durch.
Erst Charlie Parker gab dem Altsaxophon die dominante solistische Rolle im Combo-Jazz, die es in diesem Maße in den Big Bands der 1930er-Jahre noch nicht haben konnte. Damit gab er auch anderen Jazz-Instrumenten – vor allem Schlagzeug, Klavier, Gitarre und später der Hammond-Orgel – neue Impulse für größere solistische Freiheiten: Viele Trommler spielten fortan „melodischer“, die Harmonie-Geber rhythmischer. So definierte Parker den Jazz neu als gruppendynamisches Ereignis, das zu ungeahnten Abenteuern und Entdeckungen einlädt und dabei seine ursprüngliche Vitalität und Ausdruckskraft wiedergewinnt.
Er verfügte über einen klaren, scharf akzentuierten Ton ohne Vibrato und eine hoch virtuose Technik, was ihm bei seinen Musikerkollegen viel Bewunderung einbrachte. Der Saxophonist Paul Desmond sagte in einem Interview, bei dem Parker auch anwesend war: „Eine weitere Sache, die ein wesentlicher Faktor in Ihrem Spiel ist, ist diese phantastische Technik, der niemand ganz gleich kommt.“ Parker antwortete darauf: „Naja, Sie machen es mir so schwer, Ihnen zu antworten; Sie wissen schon, weil ich nicht erkenne, wo bei dem Ganzen etwas Phantastisches ist … Ich habe die Leute mit dem Saxophon verrückt gemacht. Ich habe da gewöhnlich mindestens 11 bis 15 Stunden täglich hineingesteckt.“
Noch heute gilt er als das überragende und unübertroffene Genie auf dem Altsaxophon, das schulbildend gewirkt hat und dem viele Jazzmusiker nacheifern. Er hat den Jazz aus den Zwängen der Unterhaltungsmusik herausgeführt und damit als eigenständige Kunstform des 20. Jahrhunderts wenn nicht „etabliert“, so doch emanzipiert. Er gilt bei Musikern, Fachwelt und Publikum als der alles überragende Gründervater des Modern Jazz. Trotzdem war Parker kein Dogmatiker und brachte viel Verständnis für neuere Entwicklungen auf. Gedanklich konnte er sogar die Anfänge einer frei improvisierten Jazzmusik nachvollziehen. Auf die Frage des Journalisten John McLellan, was Parker von Lennie Tristanos neuer Richtung halten würde, dieser kollektiven improvisierten Musik ohne Themen und Harmonien (er, McLellan, könne gar nicht verstehen wie das funktioniere) antwortete Parker: „Das sind, genau wie Sie sagen, Improvisationen, Sie wissen schon, und wenn Sie genau genug zuhören, dann können Sie die Melodie entdecken, die sich innerhalb der Akkorde weiterbewegt, jeder beliebigen Folge von Akkordstrukturen, Sie wissen schon, und anstatt die Melodie vorherrschen zu lassen. In dem Stil, den Lennie und die anderen darbieten, wird sie mehr oder weniger gehört oder gefühlt.“
Der Mensch Charlie Parker.
Zeitgenossen beschreiben Parker als hoch sensiblen und leidenschaftlichen, aber äußerst sprunghaften, zerrissenen und zu extremem Verhalten neigenden Menschen.
Parkers ganzes Leben war von seiner Heroinabhängigkeit beeinflusst, die letztlich auch zu seinem frühen Tod führte. Er unternahm mehrere Selbstmordversuche, einen davon 1954 mit Jodtinktur nach dem frühen Tod seiner Tochter Pree. Durch seine Abhängigkeit konnte er seine Karriere als professioneller Musiker oft nicht kontrollieren: Gelegentlich verkaufte er die Rechte an Plattenaufnahmen noch vor der Aufnahme für den Gegenwert einer Dosis Heroin. Seinem Dealer Emry Bird setzte er mit dem Stück "Moose The Mooche", das nach dessen Spitznamen betitelt war, ein musikalisches Denkmal. Die Aufnahmen vom 29. Juli 1946, bei denen "Loverman" und "The Gipsy" eingespielt wurden, gelten als ein tragisches Dokument seiner Sucht und seines Verfalls: Hier ist ein von schweren Entzugserscheinungen geplagter und offenbar völlig betrunkener Parker zu hören, der nur noch „lallend“ Saxophon spielen kann. Der Jazzclub Birdland erteilte ihm 1954 Hausverbot, nachdem er auf offener Bühne einen Streit mit dem ebenfalls drogenabhängigen Pianisten Bud Powell ausgetragen und anschließend seinen Auftritt abgebrochen hatte.
Parker war insgesamt dreimal verheiratet. 1936 heiratete er Rebecca Ruffin in Kansas City und 1943 die Nachtclubtänzerin Gerri Scott. 1945 heiratete er in dritter Ehe Doris Sydnor in Tijuana in Mexiko (wobei sich in den 1960er Jahren herausstellte, dass diese Ehe nach amerikanischem Recht nicht gültig war). Seit 1950 lebte er mit Chan Berg, die er als seine Ehefrau betrachtete, obwohl sie nicht offiziell heirateten. Mit ihr hatte er den Sohn Baird (1952–2014) und die Tochter Pree (1951–1954), deren Tod ihn schwer traf. Die unklaren Eheverhältnisse sorgten für Ärger bei seiner Beerdigung und später beim Streit um das Erbe. Beim Ort des Begräbnisses setzte sich Doris Parker durch, da die Ehe noch bestand, und auf Wunsch der Mutter und Doris Parker fand ein christliches Begräbnis statt (Parker war eigentlich Atheist) und er wurde auf Drängen der Mutter in ihrer Nähe bei Kansas City beerdigt. Nach seinem Testament wollte er eigentlich in New York City begraben werden. Vor seinem Begräbnis fand eine große Trauerfeier in der Abyssynian Baptist Church in Harlem statt unter Leitung des Geistlichen und Politikers Adam Clayton Powell junior. Er liegt auf dem Lincoln Cemetery in Blue Summit begraben.
Sonstiges.
Ihm zu Ehren findet seit 1992 in New York das Charlie Parker Festival statt.
Die Rockband Sparks veröffentlichte 1994 das Lied „When I Kiss You (I Hear Charlie Parker Playing)“.
Der Komponist Moondog hat auf seinen Tod hin das Stück "Bird’s Lament" geschrieben. Die Musiker hatten sich zu einer gemeinsamen Aufnahme verabredet, zu der es durch den Tod von Charlie Parker nicht mehr kam.
Weblinks.
Musikbeispiele |
829 | 519920 | https://de.wikipedia.org/wiki?curid=829 | Chick Corea | Armando Anthony „Chick“ Corea (* 12. Juni 1941 in Chelsea, Massachusetts; † 9. Februar 2021 in Tampa, Florida) war ein US-amerikanischer Musiker. Er zählt zu den bedeutendsten zeitgenössischen Jazz-Pianisten und -Komponisten und gilt als ein Gründervater des Jazzrock.
Corea gewann 25 Grammy Awards, nominiert war er für 67.
Leben und Werk.
Frühe Jahre (1941–1971).
Chick Corea wurde am 12. Juni 1941 in der Stadt Chelsea im US-Staat Massachusetts geboren. Bei seinem Vater, einem Bandleader, lernte er ab dem Alter von vier Jahren das Klavierspiel vor allem klassischer Komponisten. Schon früh entdeckte er auch den Jazz, insbesondere den Soul-Jazz, für sich. Als seine größten Einflüsse zu dieser Zeit nannte er neben den Jazz-Musikern Horace Silver und Bud Powell klassische Komponisten wie Mozart und Beethoven. Seine ersten größeren Auftritte absolvierte er mit Cab Calloway, Mongo Santamaría und Willie Bobo. Nach einigen Aufnahmen für andere Musiker nahm Chick Corea 1966 sein erstes Soloalbum auf, "Tones for Joan’s Bones". Zwei Jahre später folgte "Now He Sings, Now He Sobs" zusammen mit Miroslav Vitouš und Roy Haynes. Dieses zweite Album, das oft als Klassiker bezeichnet wird, machte Corea in der Jazz-Welt bekannt.
Im selben Jahr, 1968, ersetzte Chick Corea Herbie Hancock in der Band von Jazz-Trompeter Miles Davis und nahm mit ihm das Album "Filles de Kilimanjaro" auf. In den folgenden Jahren spielte er auch auf dessen Alben "In a Silent Way" und "Bitches Brew" sowie bei den Live-Aufnahmen zu "Live-Evil" und "".
1970 verließ Corea zusammen mit Bassist Dave Holland die Band von Miles Davis, um gemeinsam mit Schlagzeuger Barry Altschul und Saxophonist Anthony Braxton ein Quartett zu gründen. Mit dieser Gruppe nahm er drei Alben auf.
Mit Return to Forever (1971–1978).
→ "Siehe auch: Return to Forever"
1971 gründete Corea zusammen mit Bassist Stanley Clarke, Saxophonist Joe Farrell, Schlagzeuger Airto Moreira sowie dessen Frau, Sängerin Flora Purim, die Gruppe "Return to Forever". 1972 nahm diese Fusion-Formation ihr gleichnamiges Debüt-Album auf.
Im selben Jahr nahmen Corea, Clarke, Farrell und Schlagzeuger Tony Williams mit dem einflussreichen Saxophonisten Stan Getz dessen Album "Captain Marvel" auf. Im September des Jahres nahmen "Return to Forever" ihr zweites Studioalbum namens "Light as a Feather" auf, das auch eine der berühmtesten Kompositionen von Chick Corea enthielt: "Spain".
In neuer Besetzung folgten weitere Aufnahmen mit der Fusion-Formation, unter anderem mit Gitarrist Bill Connors und Schlagzeuger Lenny White. 1975 wurde das Album "No Mystery" aufgenommen, das einen Grammy gewann.
Zur gleichen Zeit nahm Chick Corea zwei Soloalben auf: "The Leprechaun" und "My Spanish Heart". An ihnen war bereits seine spätere Frau Gayle Moran beteiligt, bevor sie als Sängerin für "Return to Forever" engagiert wurde.
Solo-Projekte (1978–1986).
Nach der Auflösung von "Return to Forever" ging Corea zunächst zusammen mit Herbie Hancock auf eine Tour, auf der die beiden Duette am klassischen Klavier spielten. Es folgten das gemeinsame Album "Corea/Hancock" sowie der Live-Mitschnitt eines Konzertes im Jahr 1980 "(An Evening with Herbie Hancock and Chick Corea)".
Außerdem nahm Corea 1978 die Soloalben "The Mad Hatter", "Friends" und "Secret Agent" mit verschiedenen Größen des Jazz auf.
1981 folgte das Album "Three Quartets", das unter anderem zusammen mit Michael Brecker aufgenommen wurde. Später in diesem Jahr ging er auf Tour mit Saxophonist Joe Henderson, Bassist Gary Peacock und Schlagzeuger Roy Haynes.
Im selben Jahr kam es zu einem Wiedersehen mit dem Bassisten Miroslav Vitouš, mit dem er 13 Jahre zuvor "Now He Sings, Now He Sobs" aufgenommen hatte. Zusammen mit Haynes nahmen sie das Album "Trio Music" auf. 1982 war Corea Teil der R&B-Band "Echoes of an Era", neben seinen "Return to Forever"-Kollegen Stanley Clarke und Lenny White. Am 27. Juni 1982 spielte er zusammen mit dem österreichischen Pianisten Friedrich Gulda beim Münchner Klaviersommer. 1989 nahm er mit Gulda das Doppelkonzert von Mozart auf.
Elektric Band und Stretch Records (1986–2006).
Zusammen mit Dave Weckl und John Patitucci sowie den Gitarristen Scott Henderson und Carlos Rios gründete Corea Mitte der 1980er die Fusion-Formation "Elektric Band" für das gleichnamige Debütalbum, das 1986 erschien. Nach einer Umbesetzung mit dem Gitarristen Frank Gambale und dem Saxophonisten Eric Marienthal veröffentlichte die Gruppe in konstanter Besetzung zwischen 1987 und 1991 vier Alben. 1993 folgte das Album "Paint the World" mit teils neuen Musikern unter dem Namen "Elektric Band II".
Neben der "Elektric Band" formte Corea mit seinen beiden Bandkollegen Patitucci und Weckl auch die "Akoustic Band", die ausschließlich aus akustischen Instrumenten bestand. Das Trio nahm zwei Alben auf.
1992 gründete Corea das Label "Stretch Records", das sich bei der Auswahl seiner Künstler nicht nach Genre, sondern nach Kreativität richtete. Unter anderem veröffentlichte das Label Alben von John Patitucci, Bob Berg, Eddie Gomez und Robben Ford. Nachdem der Vertrag mit seinem alten Label, GRP Records, abgelaufen war, veröffentlichte er seine folgenden Alben über sein eigenes Label, das sich kurz vorher mit Concord Records zusammengeschlossen hatte.
In der Zeit bis 1998 folgten weitere Kollaborationen, zum Beispiel mit Roy Haynes oder Bobby McFerrin. Im Jahr 2000 nahm Corea gemeinsam mit dem London Philharmonic Orchestra das Album "corea.concerto" auf, auf dem neben einer dreisätzigen Orchesterfassung von "Spain" auch Coreas erstes Klavierkonzert zu hören ist.
Nachdem er im Jahr 2004 seine "Elektric Band" wiedervereinigt hatte, nahm er mit dieser ein neues Album "(To the Stars)" auf, für das er sich Inspiration beim Science-Fiction-Autor und Sektengründer L. Ron Hubbard holte. Für sein Hubbard-Tributalbums "The Ultimate Adventure" erhielt Corea 2007 zwei Grammys für die Interpretation und das Arrangement.
Neue Richtungen (2006–2008).
2006 führte Chick Corea sein zweites Klavierkonzert "The Continents" bei einem Auftritt mit dem Bayerischen Kammerorchester anlässlich des Mozartjahrs in der Wiener Staatsoper urauf. Darin eingebunden interpretierte er W. A. Mozarts Klavierkonzert Nr. 24.
Kurz darauf veröffentlichte er die Platte "Super Trio: Corea/Gadd/McBride" zusammen mit Steve Gadd und Christian McBride. Das Album, das nur in Japan erschien, wurde dort vom "Japan’s Swing Journal" als Jazz-Album des Jahres bezeichnet und erreichte Goldstatus.
Im Dezember des Jahres nahm Corea gemeinsam mit Banjo-Spieler Béla Fleck das Album "The Enchantment" auf. Die beiden kannten sich bereits von früheren Aufnahmen wie Flecks "Tales From The Acoustic Planet". Corea sagte über das Album, dass es ihn dazu gebracht habe, in unbekannte Territorien vorzudringen.
Rückkehr zum Jazzrock (2008–2021).
Nach einigen neuen Erfahrungen mit Künstlern wie Gary Burton oder Antonio Sánchez kehrte Chick Corea wieder zur Fusion zurück. So ging er 2008 mit "Return to Forever" auf Welttournee.
Nach dieser Tournee gründete er zusammen mit John McLaughlin die "Five Peace Band". Mit dieser Formation spielte er mehrere Konzerte und nahm das Livealbum "Five Peace Band Live" auf, für das Corea seinen insgesamt 16. Grammy gewann.
Nach einer Tour mit Christian McBride und Brian Blade durch die USA und durch Japan schloss Corea das Projekt "RTF IV" "(Return to Forever IV)" an, das neben Frank Gambale an der Gitarre den Violinisten Jean-Luc Ponty einschloss. Dann leitete er eine Band gemeinsam mit Steve Gadd, in der Lionel Loueke, Luisito Quintero, Steve Wilson und Carlitos del Puerto aktiv waren. Ausgehend vom Flamenco Jazz gründete er 2018 seine "Spanish Heart Band", mit der das mit einem Grammy 2020 prämierte Album "Antidote" entstand.
Tod.
Corea starb im Februar 2021 im Alter von 79 Jahren an einer seltenen Krebsart. Die Erkrankung war kurz vor seinem Tod festgestellt worden.
Scientology-Mitglied.
Corea war Mitglied der neuen religiösen Bewegung Scientology. Bei allen Veröffentlichungen seit seinem Album "To the Stars", das durch den Scientology-Gründer L. Ron Hubbard inspiriert war, findet sich dieser immer unter den Danksagungen. Chick Corea ist auf drei Liedern von Hubbards Album "Space Jazz: The Soundtrack of the Book Battlefield Earth" zu hören, das 1982 erschien. In einem Interview mit dem E-Zine "All About Jazz" sagte er über Hubbard:
1993 wurde Corea von einem Konzert, das im Zuge der Leichtathletik-Weltmeisterschaften in Stuttgart stattfinden sollte, vom Veranstalter ausgeschlossen. Der Grund dafür war, dass die Landesregierung Baden-Württembergs die Subventionen für die Veranstaltung streichen wollte, was mit Coreas Scientology-Mitgliedschaft begründet wurde. Corea erhob beim Mannheimer Verwaltungsgerichtshof Klage gegen Bekundungen der Landesregierung, die Förderung von Veranstaltungen, bei denen bekennende Scientologen auftreten, überprüfen zu wollen. Die Klage wurde abgewiesen.
Chick Corea lebte ab 1997 in Clearwater (Florida), wo sich das spirituelle Zentrum der Church of Scientology befindet. Dort unterhielt er in der Cleveland Street ein Studio mit Unterrichtsräumen für Workshops.
Grammys.
Von 1973 bis 2020 war Chick Corea 67 Mal für einen Grammy Award nominiert und gewann 25 Auszeichnungen:
Sein Album aus dem Jahr 1968 "Now He Sings, Now He Sobs" wurde 1999 in die "Grammy Hall of Fame" aufgenommen. |
830 | 192150440 | https://de.wikipedia.org/wiki?curid=830 | Computersystem | |
831 | 154724 | https://de.wikipedia.org/wiki?curid=831 | Computersicherheit | |
836 | 1010950 | https://de.wikipedia.org/wiki?curid=836 | Cham | Cham steht für:
Geografische Objekte:
Personen:
(botanisches Autorenkürzel) steht für:
Siehe auch: |
837 | 3379979 | https://de.wikipedia.org/wiki?curid=837 | Computerspiel | Ein Computerspiel oder Videospiel ist ein elektronisches Spiel, das durch Interaktion mit einer Benutzeroberfläche visuelles Feedback auf einem Videobildschirm, meist einem Fernsehgerät oder Computermonitor, generiert. Weitere wissenschaftliche Definitionen des Begriffs werden in der Ludologie, die sich beispielsweise auch mit der Einteilung in verschiedene Genres beschäftigt, gegeben.
Geschichte.
Die Computerspiele entwickelten sich innerhalb von ca. 50 Jahren von eher technischen Versuchen an Universitäten zu einer der einflussreichsten Freizeitgestaltungsformen des 21. Jahrhunderts.
Bereits auf den ersten Computern gab es Versuche, bekannte Spiele, wie etwa das Damespiel, umzusetzen. Als erstes Computerspiel, welches neue Möglichkeiten jenseits altbekannter Spiele bot, wird oft das 1958 von dem Amerikaner William Higinbotham entwickelte Tennis for Two angesehen. Die Entwicklung war stark abhängig vom technischen Fortschritt der Computertechnik. Spielte sie sich anfangs nur „nebenher“ auf eigentlich für andere Zwecke vorgesehenen Großrechnern an Universitäten ab, so wurde es in den 1970er Jahren durch die Kombination der inzwischen relativ kostengünstigen einfachen Logikchips mit der existierenden Fernsehtechnologie möglich, Spiele auch auf elektronischen Spielautomaten in der Öffentlichkeit zu spielen. Sehr erfolgreich war zum Beispiel Pong von Nolan Bushnell. Unternehmen wie Atari oder Magnavox brachten das Computerspiel in Form von Videospielkonsolen auch den Heimanwendern nahe. Es entwickelte sich ein rasant wachsender Massenmarkt.
Durch die Einführung der Heim- und Personal-Computer (PCs) in den 1980er Jahren entwickelten sich zunächst zwei technisch betrachtet unterschiedliche Arten des Computerspiels: zum einen das Videospiel (damals „Telespiel“), welches auf speziellen Spielkonsolen fußte, und das Computerspiel für Heimcomputer und später zunehmend für PCs. Im Jahr 1983 kam es zu einem Crash auf dem Videospielemarkt, vor allem durch die Überschwemmung des Marktes mit schlechten Videospielen und der wachsenden technischen Überlegenheit der Heimcomputer gegenüber den damaligen Spielkonsolen. In Japan, wo Heimcomputer noch nicht so erfolgreich waren, läutete Nintendo 1983 mit der Konsole "Nintendo Entertainment System" (kurz: NES) eine neue Ära der Videospiele ein, die etwa zwei Jahre später, 1985, auch Nordamerika und Europa erreichte.
Seit Mitte der 1990er Jahre werden die Bereiche für Spielekonsolen und PCs aus Vermarktungsgründen wieder zunehmend zusammengeführt. So bilden einheitliche Speichermedien (wie die CD-ROM oder DVD) und eine kompatible Hardware die Möglichkeit, Spiele für verschiedene Konsolen wie auch für PCs weitgehend parallel und somit kostengünstiger und für einen breiteren Markt zu entwickeln. Durch das Internet bekam die Entwicklung einen zusätzlichen Schub.
Computerspiele sind heute eine weit verbreitete Form der Unterhaltung. Sie zählen zu den produktivsten Bereichen erzählerischer Aktivität in den digitalen Medien. Sie haben den Bereich der "Interactive Fiction" um sensuelle Eindrücke erweitert und den Benutzern ermöglicht, in Echtzeit zu interagieren. In vielen Ländern hat sich eine eigene Industrie für ihre Entwicklung gebildet, deren Umsätze teilweise die der jeweiligen Filmindustrie übersteigen.
Gesellschaftliche Bedeutung.
Bedeutung.
Computerspiele beeinflussen Menschen moderner Gesellschaften ebenso wie andere Massenmedien. Besonders bei Jugendlichen ist zu beobachten, dass sich ihr Alltag durch die Nutzung des Computers stark verändert.
Die Bedeutung und Akzeptanz eines Computerspiels ist in den einzelnen Industriestaaten sehr unterschiedlich. In manchen Ländern führen Computerspiele gesellschaftlich und kulturell ein Nischendasein, wenn auch nicht zwingend wirtschaftlich. Dagegen hat sich beispielsweise in Südkorea eine bedeutende Kultur rund um Spiel und Spieler gebildet. Computerspiele nehmen dort einen hohen Stellenwert im Alltagsleben ein.
Das Computerspiel wird nur zögernd als Kunstform neben Film, Musik, bildender Kunst usw. akzeptiert. Das mag an der kurzen Geschichte und den oft sehr technologiebasierten und auf bloße Unterhaltung fixierten Inhalten liegen, wobei diese zudem bei neuen Titeln sehr oft bloße technisch verbesserte Wiederholungen älterer Versionen mit wenig neuen Inhalten sind.
Im Internet hat sich im Zusammenhang mit Computerspielen die Let’s-Play-Szene entwickelt. Dabei spielt ein sogenannter Let’s-Player ein Videospiel und kommentiert das Spielgeschehen. Let’s-Player genießen besonders auf YouTube große Beliebt- und Bekanntheit; so ist etwa der zweitmeistabonnierte YouTube-Kanal PewDiePie durch Let’s Plays bekannt geworden.
Nutzung.
Computerspiele werden in allen Altersschichten gespielt. Manche Kinder beginnen bereits im Vorschulalter damit. Im Allgemeinen interessieren sich vor allem männliche Jugendliche und junge Männer für Computerspiele. Der durchschnittliche Computerspieler war 2003 zwischen 18 und 23 Jahren alt.
Laut Digitalverband Bitkom spielte im Jahre 2021 die Hälfte der Deutschen (rund 50 Prozent) Computer- und Videospiele. Bei den 16- bis 29-Jährigen lag der Anteil bei 81 Prozent. In der Altersgruppe zwischen 30 und 49 Jahren waren es 67 Prozent, unter den 50- bis 64-Jährigen 40 Prozent und in der Generation der 65-Jährigen und Älteren spielen nur 18 Prozent. Die Entertainment Software Association, der Wirtschaftsverband, in dem die meisten Computerspiele Publisher engagiert sind, ging 2006 davon aus, dass jeder vierte US-amerikanische Bürger im Alter von über 50 Jahren regelmäßig am Computer spielt. Weibliche Jugendliche sind Computerspielen nicht abgeneigt, verbringen aber meist weniger Zeit damit. In Deutschland spielten 2011 der Studie GameStat nach 30,1 % der Männer und 20,9 % der Frauen Computer- oder Videospiele. 2015 konnte eine repräsentative Umfrage erstmals zeigen, dass in Deutschland der Anteil an Spielern bei Männern und Frauen mit 43 bzw. 42 Prozent in etwa gleich hoch ist. Dieser Befund hat sich seitdem verfestigt: 2021 war der Anteil an Spielern bei Männern und Frauen mit 53 bzw. 47 Prozent nahezu ausgeglichen. Insbesondere im E-Sport, dem wettbewerbsmäßigen Spielen von Computer- oder Videospielen, gibt es etliche sogenannte „all female“, also rein weibliche "Clans", die auch ihre eigenen Turniere bestreiten.
In der Regel richten Spielkonsolen sich an ein jüngeres Publikum und beinhalten deshalb mehr Action. Computerspiele für den PC können durch leistungsfähigere Hardware komplexere Simulationen erzeugen und sind daher auch bei Älteren beliebt: Die Hauptkäufergruppe sind nicht Jugendliche, sondern junge Erwachsene, da Jugendliche nicht über das erforderliche Geld verfügen und deswegen kommerzielle Software oft kopieren. Ein ähnliches Problem kennt die Musikindustrie. Eine Nutzung von Computerspielen zum Zweck der Ausbildung ist möglich. Sie entspricht aber nicht der strengen Definition eines Spiels als "zweckfrei", so dass man in solchen Fällen meist von Simulationen spricht.
Zudem gibt es eine zunehmende Zahl von Menschen, die Computerspiele nicht nur nutzen, sondern diese auch verändern und sogar neue Spiele daraus entwickeln. Sogenannte Mods (Kurzform von Modifikation) sind meist von den Spielern, selten von professionellen Spieleentwicklern erstellte Veränderungen oder Erweiterungen von Computerspielen. So werden zum Beispiel nach kurzer Zeit schon Fehler oder unerwünschte Beschränkungen in kommerziellen Spielen beseitigt, die Grafik verbessert oder zusätzliche Funktionen eingebaut. Viel bedeutender sind jedoch die Mods, die das ursprüngliche Spiel um neue Erlebnisse erweitern. Die bekannteste Modifikation ist "Counter-Strike", ursprünglich als Mehrspieler-Erweiterung zu "Half-Life" entstanden. Die Computerspiel-Industrie unterstützt diese Szene zunehmend aktiv, da es eine günstige Möglichkeit darstellt, fertige Spiele zu erweitern und dadurch noch attraktiver zu machen.
Computerspielen wird zunehmend auch zum Beruf. Bereits 2008 lebten 500.000 Menschen in Entwicklungsländern vom Computerspielen.
Wirkung.
Negative Effekte.
Bei übertriebenem Konsum von Computerspielen und dem damit verbundenen Schlafentzug kann es (wie bei übertriebener Computernutzung allgemein) zu Schlafstörungen, Halluzinationen, Konzentrationsschwächen, Haltungsschäden (hervorgerufen durch Bewegungsmangel), Nervenschäden (Karpaltunnelsyndrom), Augenschäden, Leistungsversagen und Nervosität kommen. Auch das Auftreten von Gaming Sickness "(siehe auch Simulator Sickness, Reisekrankheit)" ist möglich. In vielen Spielhandbüchern werden außerdem Epilepsiewarnungen ausgesprochen; diese sind in einigen Staaten gesetzlich vorgeschrieben. Eine am 10. November 2005 veröffentlichte Studie der Berliner Charité zeigte, dass etwa jeder zehnte Computerspieler Abhängigkeitskriterien erfüllt, vergleichbar mit denen von anderen Süchtigen wie beispielsweise Alkoholabhängigen. Ein Zusammenhang zwischen Aggressionen und Spielsucht wird in Politik und Medien kontrovers diskutiert.
Unabhängig davon scheint wohl auch für Computerspiele derselbe viel zitierte Satz zu gelten, der im Rahmen der Erforschung des Fernsehens entstand:
Der Berufsverband Deutscher Psychologinnen und Psychologen (BDP) warnte auf der Spielemesse Gamescom 2016 vor dem Einfluss von gewalthaltigen Spielen („Killerspielen“) auf die Gewaltbereitschaft von Menschen. Bei allen Effekten von Medienkonsum (z. B. Geschicklichkeit, Konzentration) gehe man selbstverständlich davon aus, dass ein Einfluss besteht, jedoch nicht bei „Killerspielen“. Hier werde die irrige Meinung verbreitet, dass diese keinen kausalen Einfluss auf die Gewaltbereitschaft hätten. „Genau wie die Produktwerbung im Fernsehen das Kaufverhalten im Supermarkt beeinflusst, wirkt sich das Töten und Verletzen im Rahmen von Killerspielen auf Gedanken, Gefühle und Verhaltensweisen im echten Leben aus. Gewalterfahrungen im realen Leben und in den Medien verstärken sich gegenseitig und führen nicht nur kurzfristig, sondern auch langfristig zu einer positiven Bewertung von Gewalt“. Laut einer Expertise der Mediengewaltkommission der Internationalen Gesellschaft für Aggressionsforschung ("International Society for Research on Aggression ISRA") gibt es wissenschaftliche Belege für einen Zusammenhang von Amoktaten und ähnlichen Formen extremer Gewalt und „Erfahrung von Gewalt in der virtuellen Realität, sei es durch Killerspiele oder durch Horrorvideos“.
Positive Effekte.
Zu den förderlichen Auswirkungen von Videospielen kann das Training von räumlicher Orientierung, Gedächtnisbildung, strategischem Denken sowie Feinmotorik gehören. Auch die Aufmerksamkeit und Wahrnehmung visueller Details kann verbessert werden. Doch Computerspiele sind nicht nur als reine Freizeitbeschäftigung für die Konsumenten selbst interessant; es gibt inzwischen gezielte Anwendungen durch die Medizin, beispielsweise zur Behandlung von Demenzerkrankungen, Schmerz- oder Schlaganfallpatienten, wobei teilweise speziell entwickelte und teilweise „normale“ Spiele erprobt werden.
Für die Behandlung einer Schwachsichtigkeit, vornehmlich im Kindesalter, wurde ein Spiel konzipiert, bei dem das seit Langem bekannte Anaglyph-Verfahren für 3D-Stereoskopie zweckentfremdet wird, um statt eines 3D-Eindrucks ein 2D-Bild zu erzeugen, das nur unter Benutzung beider Augen korrekt erkannt werden kann; ein Spielfortschritt ist nicht möglich, wenn nur das dominante Auge benutzt wird.
Wettbewerb und Meisterschaften.
E-Sport.
Beim "elektronischen Sport" "(E-Sport)" treten Spieler organisiert in Clans im Mehrspielermodus der einzelnen Computerspiele gegeneinander an, um sich sportlich zu messen oder zunehmend auch um finanzielle Interessen zu verfolgen. Wenn hauptsächlich Preisgelder aus den Turnierspielen und Sponsorenverträge angestrebt werden, spricht man vom "Progaming". Diese Mannschaften spielen dann auch häufig in Ligen mit. Die wohl bekannteste und größte Liga im deutschen Raum ist die ESL, die Electronic Sports League, bei der die Gewinner Prämien von bis zu 500.000 € gewinnen können. Inzwischen steigern sich aber die Preisgelder enorm, beispielsweise gibt es bei der CPL World Tour ein Preisgeld von 1.000.000 Dollar zu gewinnen. International weitaus prestige- und preisgeldträchtigere Turniere sind der Electronic Sports World Cup oder die World Cyber Games. Neben den Sportligen gibt es mittlerweile Meisterschaften in fast allen Genres der Videospielekultur (Ego-Shooter, Construction Games etc.).
Speedrunning.
Beim Speedrunnig spezialisiert sich der Wettbewerb darauf Computerspiele oder einzelne Segmente dieser in möglichst kurzer Zeit abzuschließen. Die Disziplin ist über alle Videospielgenre vertreten und ist nicht auf Einzel- oder Mehrspielererfahrungen begrenzt. Der Wettbewerb wird primär über Plattformen wie "Speedrun.com" ausgetragen, auf denen durch die Communitys je nach Spiel und Kategorie eigene Regelwerke erarbeiten werden und eingereichte Rekorde durch Freiwillige geprüft und inform von Ranglisten veröffentlicht werden. Aufnahmen und Livestreams von Speedruns werden für gewöhnlich auf Plattformen wie YouTube und Twitch geteilt und erreichen so primär ihre Zuschauerschaft. Ähnlich dem klassischen E-Sport werden auch gemeinschaftliche Wettbewerebe wie Marathons und Speedrun-Races abgehalten, diese zielen jedoch eher darauf ab Unterhaltung zu bieten, als Weltrekorde anzufechten.
Computerspiele als Industrie.
Geschichtliche Entwicklung.
Während in den frühen 1980er Jahren zur Zeit der Heimcomputer und Videospielkonsolen noch ein einzelner Programmierer nahezu alle Aufgaben der Produktion eines Spiels erledigen konnte, benötigt man heute für kommerzielle Computerspiele aufgrund der gestiegenen Komplexität (wie z. B. durch den technischen Fortschritt oder die höheren Ansprüche an das fertige Produkt im Allgemeinen) Teams aus Spezialisten für die einzelnen Bereiche.
Entwicklerszene.
Computerspiele/Videospiele werden von Spieleentwicklern erstellt. Das können zwar auch Einzelpersonen sein, sind jedoch meist sog. Studios (Developer), in denen mindestens ein Game Designer, Produzent, Autor, Grafikdesigner, Programmierer, Level-Designer, Tongestalter, Musiker und Spieltester in Teams an der Entwicklung von Computerspielen zusammenarbeiten. Zu den bekanntesten Entwicklern zählen John Carmack, Sid Meier, Peter Molyneux, Will Wright, Shigeru Miyamoto, Yū Suzuki, Geoff Crammond, Richard Garriott, Hideo Kojima, American McGee, Markus Persson, Chris Sawyer und Warren Spector. Die meisten Teams umfassen zwanzig bis fünfzig Entwickler, es können aber auch über hundert sein.
Die durchschnittliche Entwickleranzahl und auch die Entwicklungsdauer sind mit der wachsenden Bedeutung der Industrie und der zunehmend komplexeren Technologie angestiegen. Die Produktion eines modernen, kommerziellen Spiels dauert etwa ein bis drei Jahre. Die Produktionskosten werden oftmals von sogenannten Publishern (vergleichbar mit Buchverlagen) getragen, die das fertige Produkt später vertreiben und vermarkten.
Besonders in Japan unterscheidet sich die Spieleindustrie recht stark von der in Europa und den USA. Durch die Geschichte der Arcade-Spiele und der immer noch höheren Popularität von Konsolen- und Arcade-Spielen gegenüber PC-Spielen in Japan entwickelten sich dort andere Strukturen der Spielentwicklung. So produzieren viele Entwickler anonym oder unter Pseudonymen. Oft haben die Teams in Japan einen fest zugeordneten Designer ("Director" genannt) und sind wesentlich größer als bei vergleichbaren Spielen aus anderen Ländern. Da es auch schwieriger ist, ohne Publisher Spiele für Konsolen zu produzieren als beispielsweise für PCs, gibt es kaum unabhängige Produktionen aus Japan. In Europa und den USA haben sich dagegen etliche von Publishern unabhängige Studios gebildet.
Vor der Veröffentlichung eines Computerspiels wird es einer Prüfung durch die Unterhaltungssoftware Selbstkontrolle (USK) unterzogen. Diese Prüfung ist keine Pflicht, wird aber bei praktisch jeder Neuveröffentlichung vorgenommen, da das Videospiel sonst nur volljährigen Käufern zugänglich gemacht werden dürfte. Diese Einstufung wird durch einen deutlich sichtbaren Aufdruck auf der Verpackung und dem Datenträger gekennzeichnet. Sollte der Inhalt des Spiels gegen geltendes Recht verstoßen (zum Beispiel bei Kriegsverherrlichung oder der Darstellung von leidenden Menschen in einer die Menschenwürde verletzende Weise), kann das Spiel durch die Bundesprüfstelle für jugendgefährdende Medien (BPjM) indiziert werden. Um das zu verhindern, werden Spiele für den deutschen Markt oft in einer gegenüber der internationalen Version „geschnittenen“ Fassung verkauft.
Trotz der großen Popularität von Computerspielen ist eine Beschäftigung in dieser Industrie noch immer recht unsicher. Viele Entwicklerstudios entstehen, entwickeln einzelne Spiele und verschwinden schnell wieder vom Markt. Aus diesem Grund ist zu beobachten, dass sich die Entwickler verstärkt in bestimmten geografischen Gebieten ansammeln, um sich schnell wieder benachbarten Studios anzuschließen oder gar neue Teams zu gründen. Nur rund fünf Prozent aller Computerspiele erwirtschaften Profite. Etliche Produktionen werden nicht fertiggestellt und nie veröffentlicht. Deshalb kann es durchaus erfahrene Spieleentwickler geben, deren Arbeiten aber nie der Öffentlichkeit bekannt wurden.
Die Spieleentwickler organisieren sich auf internationaler Ebene in der International Game Developers Association (IGDA) und haben sich in Deutschland zum "Bundesverband der Entwickler von Computerspielen" (G.A.M.E.) zusammengeschlossen. Weitere Verbände zur Interessensvertretung sind die Entertainment Software Association in den Vereinigten Staaten und der Bundesverband Interaktive Unterhaltungssoftware in Deutschland.
Die größte Fachmesse ist die "E3 Media and Business Summit" (ehemals Electronic Entertainment Expo, auch E3), die jährlich in Los Angeles stattfindet. Der Besuch ist Fachbesuchern vorbehalten. In Europa war die Games Convention in Leipzig mit jährlich über 100.000 Besuchern die größte Messe für Computerspiele, seit 2009 wurde diese von der Gamescom auf dem Kölner Messegelände abgelöst. Spieleentwickler präsentieren jedes Jahr auf der Game Developers Conference die neuesten Entwicklungen und tauschen sich über kommende Technologien aus.
Verkaufszahlen und Umsätze in Deutschland.
Verkaufte Datenträger und Downloads und Umsätze für Computer- und Videospiele in Deutschland:
Der Markt für Computerspiele in Deutschland ist, nach Aussagen des Branchenverbands G.A.M.E., mit einem Umsatz in Höhe von 2,66 Milliarden im Jahre 2013 der größte in Europa.
Weltweiter Umsatz.
Die folgende Tabelle stellt die zehn größten Videospielmärkte nach geschätztem Umsatz für das Jahr 2018 dar.
Inhalte.
Fast alle Computerspiele definieren das Ziel des Spiels durch formalisierte Erfolgskriterien wie eine Punktzählung (Highscore) oder das Erreichen vordefinierter Siegkriterien. Einige Spiele bieten außerdem Spielmodi, in denen kein Ziel definiert wurde und das Spiel beliebig fortgesetzt werden kann oder nur durch einen Misserfolg beendet wird (Endlosspiel). Beispiele dafür sind Lebenssimulationen und Non-Games.
Motive.
Moderne Computerspiele beschäftigen sich mit sehr unterschiedlichen Inhalten; einige nehmen zudem Bezug auf andere Medien. So werden oft Elemente oder ganze Welten aus bekannten Filmen wie etwa aus Blade Runner, den James-Bond-, Star-Trek- und Star-Wars-Serien übernommen und immer häufiger aus Computerspielen auf andere Medien übertragen – wie etwa die Verfilmungen von Tomb Raider, Resident Evil und Doom.
Kategorien und Genres.
Obwohl es die unterschiedlichsten Arten von Computerspielen gibt, ist innerhalb der wissenschaftlichen Auseinandersetzung keine klar definierte Kategorisierung möglich. Man unterscheidet zwischen vielen Genres, die auf der einen Seite eher auf semiotischen Schemata basieren (wie etwa Action-Adventures), auf der anderen Seite die Mechaniken und die verwendete Schnittstelle beschreiben (zum Beispiel Ego-Shooter). So gibt es etliche Computerspiele, die mehreren Genres zugeordnet werden können und bei denen deshalb eine Eingliederung schwerfällt. Einige Genres sind sehr bekannt, andere weniger.
Zu den bekanntesten Genres zählt seit Mitte der 1990er Jahre der Ego-Shooter oder "First-Person-Shooter", bei dem die virtuelle Spielwelt aus der Ich-Perspektive dargestellt wird und der meistens das reaktionsschnelle Abschießen von virtuellen Gegnern zum Inhalt hat (siehe Frag). Weitere bedeutende Genres sind das Adventure, bei dem oft Rätsel in die Geschichte eingefasst sind und die Reaktionsschnelle gegenüber dem Nachdenken in den Hintergrund tritt; Strategiespiele, bei denen es darum geht, eine Basis aufzubauen, Rohstoffe zu sammeln, eine Armee oder Ähnliches aufzustellen und damit strategisch gegen seinen Gegner vorzugehen; Rollenspiele, in denen es vor allem um die spezifische Ausprägung der Fertigkeiten eines virtuellen Charakters ankommt und Jump-’n’-Run-Spiele, in denen sich die Spielfigur laufend und springend fortbewegt und das präzise Springen einen wesentlichen Teil der spielerischen Handlung darstellt. Ein weiteres Genre, das eng mit der Entwicklung von Computern verbunden ist, sind diverse Simulationen, wie Flugsimulationen, die teilweise auch professionell genutzt werden. Dazu zählen auch Wirtschaftssimulationen, in denen ein möglichst hoher Gewinn erwirtschaftet werden muss. In Sportspielen muss durch Geschicklichkeit an der Schnittstelle eine virtuelle Sportsituation gemeistert werden.
Interaktion.
Der Benutzer interagiert über einen Computer mit anderen Spielern oder künstlichen Spielfiguren durch Eingabe mittels Maus, Tastatur, Gamepad oder zunehmend per Gestensteuerung und erhält in der Regel über einen Bildschirm Reaktionen. Dabei steuert er häufig einen virtuellen Charakter als Stellvertreter durch eine vordefinierte Welt. In dieser kann er sich, je nach Spiel, in unterschiedlichem Maße frei bewegen. Der Spieleentwickler hat zuvor Regeln und Ziele definiert. Diese Regeln muss der Spieler einhalten "(siehe auch Cheat)", um das Ziel zu erreichen. Ein Qualitätsmerkmal für Computerspiele ist oft die Handlungsfreiheit.
Das wechselseitige aufeinander Einwirken des Spielers mit dem Computer im Einzelspielermodus oder über einen Computer mit anderen Spielern im Mehrspielermodus ist grundlegend für das Computerspiel, weshalb man es anders als zum Beispiel das Fernsehen, den Film oder das Buch als interaktives Medium bezeichnen kann. Dieses Eintauchen des Nutzers in die jeweilige virtuelle Welt, mit der er interagieren kann, wird als Immersion bezeichnet.
Einzelspieler.
Computerspiele werden überwiegend im sogenannten Einzelspieler-Modus gespielt. Dabei wird die Spielsituation nur durch den Spieler selbst und den Computer beeinflusst. Die Handlungen und Reaktionen der Gegner, oft Bots genannt, werden vom Computer berechnet. Das Niveau der künstlichen Intelligenz der Nichtspielercharaktere ist häufig Qualitätskriterium bei Spielen mit Einzelspieler-Modus und mit der Entwicklung der Computertechnik schreitet sie immer weiter fort. Spielstände können in Form von Savegames gespeichert werden, um sie später wieder aufzunehmen oder an andere zu verschicken.
Mehrspieler.
Viele Computerspiele unterstützen auch den sogenannten Mehrspielermodus, bei dem mehrere menschliche Spieler gegen- oder miteinander (z. B. Koop-Modus) spielen können. Gespielt wird entweder am selben Computer (bei gleichzeitigem Spiel oft mit Hilfe der Split-Screen-Technik oder abwechselnd per Hot-Seat-Modus) oder über vernetzte Geräte: Über das Internet oder ein lokales Netzwerk (in größerem Umfang auch auf LAN-Partys, wo viele Gleichgesinnte ihre Computer miteinander vernetzen). Der Mehrspieler-Modus lässt einen direkten Vergleich der Spielfertigkeiten zu und ermöglicht so das sportliche Messen der Leistungen. Diesen sportlichen Wettkampf mit Computerspielen nennt man E-Sport. Beispiele für solche Spiele sind: "League of Legends, Unreal Tournament, Warcraft 3, Counter-Strike" und "Fortnite".
Onlinespiele mit hoher Spielerzahl (MMO oder MMORPG).
Über das Internet ist es möglich, viele Spieler an einem Computerspiel zu beteiligen. Dabei läuft das eigentliche Spiel auf einem Server und jeder Benutzer kann von einem vernetzten Computer aus am Spielgeschehen teilnehmen. Die bedeutendste Form dieser Onlinespiele sind die Massively Multiplayer Online Role-Playing Games, kurz "MMORPGs", bei denen mehrere tausend Spieler ein Rollenspiel spielen. Dabei fallen oft neben dem Kaufpreis für das Spiel auch laufende Kosten für die Benutzung der Server an. Diese regelmäßigen Kosten sind eine wichtige Einnahmequelle für die Betreiber solcher Spiele. "MMORPGs" besitzen, laut einer Studie für den deutschsprachigen Raum, ein gewisses Suchtpotenzial, da der Spieler sein Spieltempo nicht mehr selbst bestimmen kann. Das führt oft zu einem enormen Zeitaufwand für die Entwicklung der virtuellen Spielfigur. Das bisher erfolgreichste "MMORPG" ist "RuneScape", welches 2012 weltweit die 200-Millionen-Account-Grenze überschritt.
Technik.
Computerspiele werden über Eingabegeräte gesteuert. Der Computer verarbeitet diese Daten und berechnet mithilfe der sogenannten Spiel-Engine Reaktionen, die über Ausgabegeräte ausgegeben werden.
Plattformen.
Als Spieleplattform bezeichnet man die Hard- und/oder Software, die als Grundlage für das jeweilige Computerspiel dient. Man kann zwischen statischen Plattformen wie extra entwickelten Spielkonsolen wie dem Nintendo Entertainment System oder der PlayStation und generischen Plattformen wie PCs und Mobiltelefonen unterscheiden, die sich mitunter stark verändern. Die erfolgreichste Spielkonsole aller Zeiten gemessen an Verkaufszahlen ist mit Stand 2020 die PlayStation 2 von Sony.
Aktuelle Spielkonsolen sind die PlayStation 5 von Sony, die Xbox Series X und Xbox Series S von Microsoft und die Switch von Nintendo. Daneben existiert ein Markt für tragbare Geräte wie beispielsweise die Nintendo Switch Lite. War früher das mobile Computerspiel ausschließlich die Domäne dieser Handheld-Konsolen, so bieten heute Smartphones zusätzlich zu ihren Kernfunktionen auch eine Spieleunterstützung an. Als Plattform für Computerspiele ist auch der PC beliebt.
Engines.
Spiel-Engines (englisch "Game Engines") sind Programme, die den Spieleentwicklern häufig benutzte Werkzeuge zur Verfügung stellen und als technischer Kern eines Computerspiels verstanden werden können. Sie ermöglichen die Darstellung von 3D-Objekten, Effekten wie Explosionen und Spiegelungen, die Berechnung des physikalischen Verhaltens von Objekten im Spiel, den Zugriff auf Eingabegeräte wie Maus und Tastatur und das Abspielen von Musik.
Bei der Produktion eines Computerspiels wird entweder eine neue Game-Engine programmiert – bis Mitte der 1990er war das fast immer der Fall – oder aber eine bereits bestehende lizenziert und evtl. modifiziert genutzt, wodurch die Produktionsdauer verkürzt werden kann. Bekannte kommerzielle Engines sind Unity, die Unreal Engine von Epic Games, die "CryEngine" des deutschen Entwicklerstudios Crytek und die Source-Engine von Valve. Bekannte freie Engines sind die Quake-Engine von id Software mit deren Abkömmlingen und Godot. Zu Spielen gibt es häufig passende "Level-Editoren" – Programme, mit denen ohne professionelle Programmierkenntnisse eigene Level erzeugt werden können. Diese werden vor allem zur Erweiterung und Modifikation von kommerziellen Spielen, siehe Mods, eingesetzt.
Eingabe.
Üblicherweise erfolgt die Eingabe per Hand mit der Tastatur und/oder der Maus oder – insbesondere bei Spielkonsolen – dem Gamepad. In den 1980er Jahren waren noch andere Eingabegeräte wie Paddles und Joysticks weiter verbreitet. Spiele mit Sprachsteuerung haben sich auf Grund der Fehleranfälligkeit der Spracherkennung bisher nicht durchgesetzt. Die Füße werden nur selten, vor allem bei Autorennspielen zur Steuerung von Gas und Bremse mit entsprechenden Pedalen genutzt. Außerdem sind noch einige weniger gebräuchliche Geräte wie das PC Dash und der Strategic Commander verwendbar. Es hat verschiedene Versuche gegeben, Spiele zu vermarkten, die auf die Körperbewegung des Spielers reagieren – beispielsweise durch Drucksensoren in Gummimatten oder durch Auswertung eines Kamerabildes. Diese Spiele stellten jedoch lange Zeit ein Nischenprodukt dar. Erst mit der hohen Verbreitung der Wii-Konsole von Nintendo etabliert sich diese Art von Steuerung. Der Controller verfügt über einen Bewegungssensor, der Position und Bewegung im Raum registriert, so kann durch Armbewegungen eine Spielfigur gesteuert werden.
Optische Ausgabe.
Man kann grob zwischen maschinellem Text im Textmodus, 2D- und 3D-Computergrafik unterscheiden.
Es hat sich eine eigene Ästhetik der Computerspiele entwickelt, eine eigene Bildsprache. Die ersten Computerspiele waren einfarbig und geprägt von Text oder Blockgrafik. Mit der Verfügbarkeit immer besserer Grafikprozessoren wurden die Bildwelten immer farbiger und komplexer.
Das typische Spieldisplay heute zeigt den Spieler als Avatar im Bild, oder direkt seine eigene Sicht, die "First-Person-Ansicht" (Egoperspektive) beispielsweise im Ego-Shooter, vergleichbar der subjektiven Kamera im Film. Dazu erscheinen alle möglichen Anzeigen, Punktestände, Meldungen wie Gesundheitszustand oder Missionsziele im Bild (meist in Form eines Head-up-Displays/HUD). Die visuelle Informationsausgabe kann per Monitor, Display oder Fernseher erfolgen und in Verbindung mit einer 3D-Brille kann sogar ein dreidimensionales Erlebnis erzeugt werden.
Einige Videospiel-Entwickler benutzen mittlerweile auch die Technologie Virtual Reality um den Spieler noch mehr in ihre Welten einbeziehen zu können. Die Ausgabe erfolgt über ein Headset, meist als Zubehör für entsprechende Plattformen erhältlich. Diese VR-Headsets sind Brillen bestehend aus zwei getrennten nicht-linearen Bildschirmen. Die Kamera-Perspektive in der virtuellen Welt wird durch den Spieler mittels seinen eigenen Kopfbewegungen selbst eingenommen. Häufig wird durch mehrere externe, selten auch eine integrierte Kamera, die Position in der virtuellen Welt bestimmt.
Akustische Ausgabe.
Akustische Signale, Effekte und gesprochener Text werden in zunehmendem Umfang und immer besser werdender Qualität bei Computerspielen eingesetzt. Von der ehemals überwiegend atmosphärischen Bedeutung haben sie sich zu einer wichtigen Informationsquelle für den Spieler entwickelt (zum Beispiel zur räumlichen Ortung und Orientierung innerhalb des Spiels). Besonders in Mehrspieler-Partien erlangen akustische Informationen durch die Anwendung von Headsets, die eine schnelle und einfache Kommunikation zwischen Teammitgliedern erlauben, eine immer größere Bedeutung. In Deutschland wird die Sprachausgabe importierter Computerspiele immer öfter ähnlich professionell synchronisiert wie bei Kinofilmen. Teilweise wird bei der Lokalisierung auch auf bereits aus anderen Medien bekannte Sprecherstimmen zurückgegriffen.
Besondere Bedeutung hat die Musik in Spielen: Anfänglich als reine Untermalung der Spielszene eingeführt, nimmt sie heute eine ähnliche Rolle wie bei Filmen ein: Sie dient der Steigerung der Dramatik und soll das Spielgeschehen szenisch führen. Dabei kommen oft kurze, einprägsame Melodiesätze zur Anwendung, die auch nach häufigerem Anhören nicht langweilig werden. Die Bandbreite bezüglich des Qualitätsanspruchs ist dabei groß: Professionelle Spieleentwickler beschäftigen heute eigene Komponisten, die sich ganz auf die Erstellung der Musik konzentrieren. Diese wird dem Projekt heute einfach als fertige Audiospur in üblichen Datenformaten zugefügt. PC-Spiele bieten dem Anwender bei frei zugänglichen Datenordnern die Möglichkeit, ungeliebte Musikstücke oder Geräusche auszutauschen und dem eigenen Geschmack anzupassen. Das ist nur dann möglich, wenn Standardformate wie Wave, MP3, MIDI oder andere zum Einsatz kommen und das Spiel von Programmiererseite nicht zu einer einzigen ausführbaren Datei zusammengefasst wurde.
Bei den ersten Telespielen der 1980er Jahre mussten die Musikentwickler auch über umfangreiches programmiertechnisches Fachwissen verfügen, um ihr Notenmaterial in das Programm integrieren zu können.
Mechanische Ausgabe.
Neben der optischen und akustischen Ausgabe bietet die mechanische eine weitere Interaktionsmöglichkeit. Die sogenannte Force-Feedback-Technologie ermöglicht die Ausgabe mechanischer Effekte als Reaktion auf Kräfte, die auf die Spielfigur einwirken. Diese Technik wird vor allem in Lenkrädern für Rennsimulationen, Joysticks für Flugsimulationen und in Gamepads sowie bei Maustasten eingesetzt. Wenn beispielsweise der Spieler mit dem Rennwagen gegen ein Hindernis fährt, spürt er am Lenkrad eine Gegenbewegung.
Überschneidung mit anderen Medien und Spielformen.
Das Computerspiel zeichnet sich durch wesentliche Unterschiede, aber auch durch wesentliche Gemeinsamkeiten anderen Spielformen gegenüber aus. Wesentliche Elemente eines Computerspiels sind das (bewegte) Bild und die Interaktivität. Dabei gibt es zum Beispiel Gemeinsamkeiten mit dem experimentellen Theater.
Es gibt jedoch einige grundsätzliche Unterschiede: Während bei einem realen Rollenspiel die Zahl der Teilnehmer schon aus praktischen Gründen begrenzt ist, gibt es theoretisch bei der Computerversion im Internet keine Begrenzung. Mehr und mehr ist auch die internationale Vernetzbarkeit von Computerspielen eine seiner wesentlichen Eigenschaften.
Oft entlehnt das Computerspiel anderen Medien weitere Elemente und entwickelt diese im eigenen Rahmen weiter, etwa die Geschichte, entlehnt vom Drama, dem Film und der Literatur oder die Musik. Ansätze dazu finden sich etwa in Black & White, Deus Ex, World of Warcraft, Die Sims, Dungeon Keeper, Baldur’s Gate 2, Fahrenheit und Monkey Island 3.
Umgekehrt fließen Computerspiel bzw. eGames auch in die Literatur ein: In Die drei Sonnen, einem Science-Fiction-Roman des chinesischen Autors Liu Cixi, spielt das Spiel "Threebody" eine Rolle, allerdings sind keine Aktivität oder Interaktivität der Spieler eingebaut, es handelt sich eher um eine parallele Möglichkeit, etwas zu erzählen. In SpielRaum von Alex Acht ist das Designen eines Computerspiels Teil der Handlung, die Interaktionen werden gut beschrieben, mit ihrer Hilfe kann der Kommissar am Ende den Fall lösen.
Im Februar 2008 sprach sich Olaf Zimmermann vom Deutschen Kulturrat dafür aus, dass auch Computerspiele-Entwickler als Künstler anzuerkennen wären. Hans-Joachim Otto, Vorsitzender des Ausschusses für Kultur und Medien des Deutschen Bundestages, pflichtete Zimmermann in einem Interview bei und erklärte, dass die Entwicklung von Spielen ein hohes Maß an kreativer und künstlerischer Arbeit erfordere.
Bei einer Indizierung durch die BPjM wird der Kunstbegriff oft als nicht so wichtig wie die Jugendgefährdung gewertet.
Kritik.
Soziale Auswirkungen.
Die Auswirkungen von Gewalt in Computerspielen sind Gegenstand kontroverser Diskussionen. Dabei geht es im Wesentlichen darum, wie Gewalt in Spielen eingesetzt und gezeigt wird, deren Auswirkungen auf die Persönlichkeitsentwicklung von computerspielenden Kindern und Jugendlichen, und einen möglichen Zusammenhang zwischen virtueller und realer Gewalt, d. h., ob Gewalt in Computerspielen Menschen mit einer dafür empfänglichen Persönlichkeitsstruktur auch im realen Leben aggressiver und/oder gewaltbereiter macht.
Durch diverse Studien, welche zum Teil schon seit Mitte der 1980er Jahre durchgeführt werden, versuchen Forscher zu untersuchen, ob der exzessive Konsum gewalthaltiger Computerspiele Auswirkungen auf die Gewaltbereitschaft der Konsumenten haben kann. Dabei spielen weitere Aspekte hinein, wie zum Beispiel der Rückhalt im sozialen Umfeld und die Beschaffenheit des Umfelds. Jüngste Analysen mittels funktioneller MRT deuten darauf hin, dass die Gehirnaktivität im linken unteren Frontallappen selbst noch nach einer Woche verminderte Reaktion im Stroop-Test auf Gewalt zeigt. Getestet wurde eine Gruppe von 14 Männern und eine gleich große Kontrollgruppe. Ein Mangel der Studie besteht allerdings darin, dass die Kontrollgruppe kein Computerspiel spielte. Es stellt sich die Frage ob bei einer realistischen Kontrollgruppe, die ein gewaltfreies Computerspiel gespielt hätte, nicht ähnliche Ergebnisse wie bei der mit gewalttätigen Computerspielen konfrontierten Gruppe entstanden wären.
Body-Mass-Index (BMI).
Aufgrund uneinheitlicher Ergebnisse hinsichtlich des Zusammenhangs zwischen der Intensität des Spielens von Videospielen und des Body-Mass-Index (BMI) wurde in einer Meta-Analyse überprüft, ob sich das Spielen von Videospielen negativ auf den BMI auswirkt und ob das Spielen einen Einfluss auf die Änderung von körperlicher Aktivität bei den Spielern hat. In die Analyse flossen die Ergebnisse von 20 Publikationen ein. Die Ergebnisse ergaben einen kleinen positiven Zusammenhang zwischen nicht-aktiven Videospielen und dem BMI. Dabei wiesen die miteinbezogenen Studien eine signifikante Heterogenität auf. Eine weitere Analyse potenzieller Moderator-Variablen konnte zeigen, dass der Zusammenhang bei Erwachsenen ausgeprägter war. Ein meta-analytisches Strukturgleichungsmodell ergab nur wenige Hinweise auf eine Änderung der körperlichen Aktivität durch die für Videospiele aufgewendete Zeit. Insgesamt konnte durch die Analyse die Annahme eines starken Zusammenhangs zwischen Videospielen und Körpermasse nicht bestätigt werden.
Schulische Leistungen.
In einer prospektiven Studie zum Einfluss des Spielens von Computer- und Videospielen auf die Schulleistungen konnte gezeigt werden, dass die Intensität des Spielens von Computerspielen eine signifikant schlechtere Schulleistung zwei Jahre später voraussagte. Dieser Effekt blieb auch unter Kontrolle des Einflusses der ursprünglichen Noten und des Denkvermögens signifikant. Zusätzlich zeigte sich, dass die mathematischen Kompetenzen und Lese-Fähigkeiten der Schüler nicht durch die Spielhäufigkeit beeinflusst wurden. Die Autoren schlossen daraus, dass das Computer- und Videospielen zwar zu einem, wenn auch kleinen Verlust an schulischen Erfolgen führt, basale Grundkompetenzen davon jedoch nicht beeinflusst würden.
Spielsucht.
Von Wissenschaftlern wird auf die Suchtgefahr bei exzessivem Computerspielen hingewiesen. In Computerspielen wird z. B. das Belohnungssystem im Gehirn ständig wieder aktiviert, um den Spieler am Spielen zu halten. In der Praxis müssen in einem Computerspiel oft viele kleine Aufgaben gelöst werden, die im Gegensatz zum realen Leben auch fast immer in sehr kurzer Zeit zur Zufriedenheit des Spielers erledigt werden können. Der Spieler erlebt dann beim Beenden des Spiels einen negativen emotionalen Zustand, den er durch Weiterspielen zu verhindern versucht.
In Südkorea kam es 2002 zum ersten bekannt gewordenen Todesfall infolge ununterbrochenen Computerspielens. Ein 24-Jähriger brach nach 86 Stunden ohne Schlaf und Nahrungsaufnahme vor einem Rechner in einem Internetcafé zusammen. Nachdem er sich scheinbar von dem Zusammenbruch erholt hatte, fand ihn wenig später die herbeigerufene Polizei tot auf der Toilette eines PC Bangs.
2018 erklärte die Weltgesundheitsorganisation Videospielsucht zu einer Krankheit.
Zensur und Verbote von Computer- und Videospielen.
Nach geltendem Recht dürfen Computer- und Videospiele in Deutschland keine Kriegsverherrlichung oder leidende Menschen in einer die Menschenwürde verletzende Weise darstellen. Aus diesen und anderen Gründen werden die deutschen Versionen mancher Spiele zensiert. So schießt der Spieler z. B. bei Ego-Shootern in der zensierten Version auf Außerirdische, während in der Originalversion des Spiels Menschen als Gegner zu sehen sind. Blut wird manchmal grün statt rot dargestellt.
International gab und gibt es Verbote auch aus anderen Gründen. So wurde "Pokémon Go" in Saudi-Arabien (Glücksspiel) und im Iran (Sicherheitsbedenken) verboten. Das Spiel "" ist in China verboten, da es in Hong Kong benutzt wurde, um Proteste zu organisieren.
Im Juli 2002 wurde in Griechenland ein Gesetz verabschiedet, das illegales Glücksspiel stoppen sollte. Stattdessen wurden aber alle elektronischen Spiele verboten und es gab Berichte über Verhaftungen wegen des Spielens von Counter-Strike und Schach in der Öffentlichkeit. Das Gesetz wurde im September 2002 dahingehend geändert, dass ein geldwerter Vorteil für den Spieler oder eine dritte Partei entscheidend ist. |
839 | 7542 | https://de.wikipedia.org/wiki?curid=839 | Christliche Demokratische Union | |
841 | 2469414 | https://de.wikipedia.org/wiki?curid=841 | Carl Schmitt | Carl Schmitt (zeitweise auch "Carl Schmitt-Dorotić") (* 11. Juli 1888 in Plettenberg; † 7. April 1985 ebenda) war ein deutscher Staatsrechtler, der auch als politischer Philosoph rezipiert wird. Er ist einer der bekanntesten, wirkmächtigsten und zugleich umstrittensten deutschen Staats- und Völkerrechtler des 20. Jahrhunderts.
Schmitt trat ab 1933 für das NS-Regime ein: Am 1. Mai 1933 wurde er Mitglied der NSDAP und gehörte ihr bis zum Ende der NS-Herrschaft an. Die Morde zur vorgeblichen Prävention des sogenannten Röhm-Putschs von 1934 rechtfertigte Schmitt durch sein juristisches Prinzip der „Führer-Ordnung“. Die antisemitischen Nürnberger Gesetze von 1935 nannte er eine „Verfassung der Freiheit“. Im Jahr 1936 wurde ihm aus Kreisen der SS Opportunismus vorgeworfen; er verlor daraufhin seine Parteiämter, blieb aber Mitglied der NSDAP. Dank der Protektion durch Hermann Göring blieb Schmitt Preußischer Staatsrat und behielt auch seine Professur in Berlin.
Schmitts Denken kreiste um Fragen der Macht, der Gewalt und der Rechtsverwirklichung. Neben dem Staats- und Verfassungsrecht streifen seine Veröffentlichungen zahlreiche weitere Disziplinen wie Politikwissenschaft, Soziologie, Theologie, Germanistik und Philosophie. Sein breitgespanntes Œuvre umfasst außer juristischen und politischen Arbeiten weitere Textgattungen wie Satiren, Reisenotizen, ideengeschichtliche Untersuchungen oder germanistische Textinterpretationen. Als Jurist prägte er eine Reihe von Begriffen und Konzepten, die in den wissenschaftlichen, politischen und allgemeinen Sprachgebrauch eingegangen sind, etwa „Verfassungswirklichkeit“, „Politische Theologie“, „Freund-Feind-Unterscheidung“ oder „dilatorischer Formelkompromiss“. Über seine Schüler und konservative Bewunderer hielt sich sein Einfluss in Westdeutschland auch nach dem Zweiten Weltkrieg.
Schmitt wird heute wegen seines staatsrechtlichen Einsatzes für den Nationalsozialismus als Gegner der parlamentarischen Demokratie und des Liberalismus und als „Prototyp des gewissenlosen Wissenschaftlers, der jeder Regierung dient, wenn es der eigenen Karriere nutzt“, weithin abgelehnt. Allerdings wird er aufgrund seiner indirekten Wirkung auf das Staatsrecht und die Rechtswissenschaft der frühen Bundesrepublik mitunter auch als „Klassiker des politischen Denkens“ bezeichnet.
Prägende Einflüsse für sein Denken bezog Schmitt von politischen Philosophen und Staatsdenkern wie Thomas Hobbes, Niccolò Machiavelli, Aristoteles, Jean-Jacques Rousseau, Juan Donoso Cortés oder Zeitgenossen wie Georges Sorel und Vilfredo Pareto. Sein antisemitisches Weltbild war von den Thesen Bruno Bauers geprägt.
Leben.
Kindheit, Jugend, Ehe.
Carl Schmitt entstammte einer katholisch-kleinbürgerlichen Familie im Sauerland. Er war das zweite von fünf Kindern des Krankenkassenverwalters Johann Schmitt (1853–1945) und dessen Frau Louise, geb. Steinlein (1863–1943). Der Junge wohnte im katholischen Konvikt in Attendorn und besuchte dort das staatliche Gymnasium. Nach dem Abitur wollte Schmitt zunächst Philologie studieren; auf dringendes Anraten eines Onkels hin studierte er dann aber Jura.
Sein Studium begann Schmitt zum Sommersemester 1907 in Berlin. In der Weltstadt traf er als „obskurer junger Mann bescheidener Herkunft“ aus dem Sauerland auf ein Milieu, von dem für ihn eine „starke Repulsion“ ausging. Zum Sommersemester 1908 wechselte er an die Universität München.
Ab dem Wintersemester 1908/09 setzte Schmitt sein Studium in Straßburg fort, wurde dort 1910 mit der strafrechtlichen Arbeit "Über Schuld und Schuldarten" von Fritz van Calker promoviert und absolvierte im Frühjahr 1915 das Assessor-Examen. Im Februar 1915 trat Schmitt als Kriegsfreiwilliger in das Bayerische Infanterie-Leibregiment in München ein, kam jedoch nicht zum Fronteinsatz, da er bereits Ende März 1915 "zur Dienstleistung beim Stellvertretenden Generalkommando des I. bayerischen Armee-Korps kommandiert" wurde.
Im selben Jahr heiratete Schmitt Pawla Dorotić, eine angebliche kroatische Adelstochter, die Schmitt zunächst für eine spanische Tänzerin hielt und die sich später – im Zuge eines für Schmitt peinlichen Skandals – als Hochstaplerin herausstellte. 1924 wurde die Ehe vom Landgericht Bonn annulliert. 1926 heiratete er eine frühere Studentin, die Serbin Duška Todorović. Da seine vorige Ehe allerdings nicht kirchlich annulliert worden war, blieb er als Katholik bis zum Tode seiner zweiten Frau im Jahre 1950 exkommuniziert. Aus der zweiten Ehe ging sein einziges Kind hervor, seine Tochter Anima (1931–1983).
Kunst und Bohème, Beginn der akademischen Karriere, erste Veröffentlichungen.
Bereits früh zeigte sich bei Schmitt eine künstlerische Ader. So trat er mit eigenen literarischen Versuchen hervor ("Der Spiegel", "Die Buribunken", "Schattenrisse", er soll sich sogar mit dem Gedanken an einen Gedichtzyklus mit dem Titel "Die große Schlacht um Mitternacht" getragen haben) und verfasste eine Studie über den bekannten zeitgenössischen Dichter Theodor Däubler "(Theodor Däublers ‚Nordlicht‘)". Er kann zu dieser Zeit als Teil der „Schwabinger Bohème“ betrachtet werden.
Seine literarischen Arbeiten bezeichnete der Staatsrechtler später als „Dada avant la lettre“. Mit einem der Gründerväter des Dadaismus, Hugo Ball, war er befreundet, ebenso mit dem Dichter und Herausgeber Franz Blei, einem Förderer Robert Musils und Franz Kafkas. Der ästhetisierende Jurist und die politisierenden Belletristen tauschten sich regelmäßig aus, und es sind wechselseitige Beeinflussungen feststellbar. Mit Lyrikern pflegte Schmitt zu dieser Zeit besonders enge Kontakte, etwa mit dem mittlerweile vergessenen Dichter des politischen Katholizismus, Konrad Weiß. Gemeinsam mit Hugo Ball besuchte Schmitt den Literaten Hermann Hesse – ein Kontakt, der sich jedoch nicht aufrechterhalten ließ. Später freundete sich Schmitt mit Ernst Jünger an sowie mit dem Maler und Schriftsteller Richard Seewald.
Schmitt habilitierte sich 1914 mit der Arbeit "Der Wert des Staates und die Bedeutung des Einzelnen" für Staats- und Verwaltungsrecht, Völkerrecht und Staatstheorie. Nach einer Lehrtätigkeit an der Handelshochschule München (1920) folgte Schmitt in kurzen Abständen Rufen nach Greifswald (1921), Bonn (1921), an die Handelshochschule Berlin (1928), Köln (1933) und wieder Berlin (Friedrich-Wilhelms-Universität 1933–1945). Der Habilitationsschrift folgten kurz nacheinander weitere Veröffentlichungen, etwa "Politische Romantik" (1919) oder "Die Diktatur" (1921) im Verlag Duncker & Humblot unter dem Lektorat von Ludwig Feuchtwanger. Seine erste akademische Anstellung in München sowie später den Ruf an die Handelshochschule Berlin verdankte Schmitt dem jüdischen Nationalökonomen Moritz Julius Bonn.
Auch unter Nichtjuristen wurde Schmitt durch seine sprachmächtigen und schillernden Formulierungen schnell bekannt. Sein Stil war neu und galt in weit über das wissenschaftliche Milieu hinausgehenden Kreisen als spektakulär. Er schrieb nicht wie ein Jurist, sondern inszenierte seine Texte poetisch-dramatisch und versah sie mit mythischen Bildern und Anspielungen.
Seine Schriften waren überwiegend kleine Broschüren, die in ihrer thesenhaften Zuspitzung zur Auseinandersetzung zwangen. Schmitt war überzeugt, dass „oft schon der erste Satz über das Schicksal einer Veröffentlichung entscheidet“. Viele Eröffnungssätze seiner Veröffentlichungen – etwa: „Es gibt einen antirömischen Affekt“, „Der Begriff des Staates setzt den Begriff des Politischen voraus“ oder „Souverän ist, wer über den Ausnahmezustand entscheidet“ – wurden schnell berühmt.
Von der Breite und Vielfältigkeit der Reaktionen, die Schmitt auslöste, zeugt insbesondere die umfangreiche Korrespondenz, die heute in seinem Nachlass – einem der größten in deutschen Archiven aufbewahrten Nachlässe überhaupt – einsehbar ist und sukzessive publiziert wird.
In Bonn pflegte der Staatsrechtler Kontakte zum Jungkatholizismus (er schrieb u. a. für Carl Muths Zeitschrift "Hochland") und zeigte ein verstärktes Interesse an kirchenrechtlichen Themen. Dies führte ihn 1924 mit dem evangelischen Theologen und späteren Konvertiten Erik Peterson zusammen, mit dem er bis 1933 eng befreundet war. Die Beschäftigung mit dem Kirchenrecht schlug sich in Schriften wie "Politische Theologie" (1922) und "Römischer Katholizismus und politische Form" (1923, in zweiter Auflage mit kirchlichem Imprimatur) nieder. Freundschaftlich verbunden war Schmitt in dieser Zeit auch mit einigen katholischen Theologen, allen voran Karl Eschweiler (1886–1936), den er als Privatdozenten für Fundamentaltheologie in Bonn Mitte der 20er Jahre kennengelernt hatte und mit dem er bis zu dessen Tod 1936 wissenschaftlich und persönlich in engem Kontakt blieb.
Politische Publizistik und Beratertätigkeit in der Weimarer Republik.
1924 erschien Schmitts erste explizit politische Schrift mit dem Titel "Die geistesgeschichtliche Lage des heutigen Parlamentarismus". Im Jahre 1928 legte er sein bedeutendstes wissenschaftliches Werk vor, die "Verfassungslehre", in der er die Weimarer Verfassung einer systematischen juristischen Analyse unterzog und eine neue wissenschaftliche Literaturgattung begründete: neben der klassischen Staatslehre etablierte sich seitdem die Verfassungslehre als eigenständige Disziplin des Öffentlichen Rechts.
Im Jahr des Erscheinens der "Verfassungslehre" wechselte er an die Handelshochschule in Berlin, auch wenn das in Bezug auf seinen Status als Wissenschaftler einen Rückschritt bedeutete. Dafür konnte er im politischen Berlin zahlreiche Kontakte knüpfen, die bis in Regierungskreise hinein reichten. Hier entwickelte er gegen die herrschenden Ansichten die Theorie vom „unantastbaren Wesenskern“ der Verfassung "(„Verfassungslehre“)".
Ordnungspolitisch trat der ökonomisch informierte Jurist für einen starken Staat ein, der auf einer „freien Wirtschaft“ basieren sollte. Hier traf sich Schmitts Vorstellung in vielen Punkten mit dem Ordoliberalismus oder späteren Neoliberalismus, zu deren Ideengebern er in dieser Zeit enge Kontakte unterhielt, insbesondere mit Alexander Rüstow. In einem Vortrag vor Industriellen im November 1932 mit dem Titel "Starker Staat und gesunde Wirtschaft" forderte er eine aktive „Entpolitisierung“ des Staates und einen Rückzug aus „nichtstaatlichen Sphären“:
Bei diesen Ausführungen spielte Schmitt auf einen Vortrag Rüstows an, den dieser zwei Monate zuvor unter dem Titel "Freie Wirtschaft, starker Staat" gehalten hatte. Rüstow hatte sich darin seinerseits auf Carl Schmitt bezogen: „Die Erscheinung, die Carl Schmitt im Anschluß an Ernst Jünger den ‚totalen Staat‘ genannt hat […], ist in Wahrheit das genaue Gegenteil davon: nicht Staatsallmacht, sondern Staatsohnmacht. Es ist ein Zeichen jämmerlichster Schwäche des Staates, einer Schwäche, die sich des vereinten Ansturms der Interessentenhaufen nicht mehr erwehren kann. Der Staat wird von den gierigen Interessenten auseinandergerissen. […] Was sich hier abspielt, staatspolitisch noch unerträglicher als wirtschaftspolitisch, steht unter dem Motto: ‚Der Staat als Beute‘.“
Den so aufgefassten Egoismus gesellschaftlicher Interessensgruppen bezeichnete Schmitt (in negativer Auslegung des gleichnamigen Konzeptes von Harold Laski) als Pluralismus. Dem Pluralismus partikularer Interessen setzte er die Einheit des Staates entgegen, die für ihn durch den vom Volk gewählten Reichspräsidenten repräsentiert wurde.
In Berlin erschienen "Der Begriff des Politischen" (1927 zunächst als Aufsatz), "Der Hüter der Verfassung" (1931) und "Legalität und Legitimität" (1932). Mit Hans Kelsen lieferte sich Schmitt eine vielbeachtete Kontroverse über die Frage, ob der „Hüter der Verfassung“ der Verfassungsgerichtshof oder der Reichspräsident sei. Zugleich näherte er sich reaktionären Strömungen an, indem er Stellung gegen den Parlamentarismus bezog.
Als Hochschullehrer war Schmitt wegen seiner Kritik an der Weimarer Verfassung zunehmend umstritten. So wurde er etwa von den der Sozialdemokratie nahestehenden Staatsrechtlern Hans Kelsen und Hermann Heller scharf kritisiert. Die Weimarer Verfassung, so meinte er, schwäche den Staat durch einen „neutralisierenden“ Liberalismus und sei somit nicht fähig, die Probleme der aufkeimenden „Massendemokratie“ zu lösen.
Liberalismus war für Schmitt im Anschluss an Cortés nichts anderes als organisierte Unentschiedenheit: „Sein Wesen ist Verhandeln, abwartende Halbheit, mit der Hoffnung, die definitive Auseinandersetzung, die blutige Entscheidungsschlacht könnte in eine parlamentarische Debatte verwandelt werden und ließe sich durch ewige Diskussion ewig suspendieren“. Das Parlament ist in dieser Perspektive der Hort der romantischen Idee eines „ewigen Gesprächs“. Daraus folge: „Jener Liberalismus mit seinen Inkonsequenzen und Kompromissen lebt […] nur in dem kurzen Interim, in dem es möglich ist, auf die Frage: Christus oder Barrabas, mit einem Vertagungsantrag oder der Einsetzung einer Untersuchungskommission zu antworten“. Die Garantien der Oppositionsrechte in den Geschäftsordnungen wirkten, so Schmitt, „wie eine überflüssige Dekoration, unnütz und sogar peinlich, als hätte jemand die Heizkörper einer modernen Zentralheizung mit roten Flammen angemalt, um die Illusion eines lodernden Feuers hervorzurufen.“
Die parlamentarische Demokratie hielt Schmitt für eine veraltete „bürgerliche“ Regierungsmethode, die gegenüber den aufkommenden „vitalen Bewegungen“ ihre Evidenz verloren habe. Der „relativen“ Rationalität des Parlamentarismus trete der Irrationalismus mit einer neuartigen Mobilisierung der Massen gegenüber. Der Irrationalismus versuche gegenüber der ideologischen Abstraktheit und den „Scheinformen der liberal-bürgerlichen Regierungsmethoden“ zum „konkret Existenziellen“ zu gelangen. Dabei stütze er sich auf einen „Mythus vom vitalen Leben“. Daher proklamierte Schmitt: „Diktatur ist der Gegensatz zu Diskussion“.
Als Vertreter des Irrationalismus identifizierte Schmitt zwei miteinander verfeindete Bewegungen: den revolutionären Syndikalismus der Arbeiterbewegung und den Nationalismus des italienischen Faschismus. „Der stärkere Mythus“ liegt ihm zufolge aber „im Nationalen“. Als Beleg führte er Mussolinis Marsch auf Rom an.
Den italienischen Faschismus verwendete Schmitt als eine Folie, vor deren Hintergrund er die Herrschaftsformen des „alten Liberalismus“ kritisierte. Dabei hatte er sich nie mit den realen Erscheinungsformen des Faschismus auseinandergesetzt. Sein Biograph Paul Noack urteilt: „[Der] Faschismus wird von [Schmitt] als Beispiel eines autoritären Staates (im Gegensatz zu einem totalitären) interpretiert. Dabei macht er sich kaum die Mühe, die Realität dieses Staates hinter dessen Rhetorik aufzuspüren. Hier wie in anderen Fällen genügt ihm die Konstruktionszeichnung, um sich das Haus vorzustellen. Zweifellos ist es der Anspruch von Größe und Geschichtlichkeit, der ihn in bewundernde Kommentare über Mussolinis neapolitanische Rede vor dem Marsch auf Rom ausbrechen läßt.“
Laut Schmitt bringt der Faschismus einen totalen Staat aus Stärke hervor, keinen totalen Staat aus Schwäche. Er ist kein „neutraler“ Mittler zwischen den Interessensgruppen, kein „kapitalistischer Diener des Privateigentums“, sondern ein „höherer Dritter zwischen den wirtschaftlichen Gegensätzen und Interessen“. Dabei verzichte der Faschismus auf die „überlieferten Verfassungsklischees des 19. Jahrhunderts“ und versuche eine Antwort auf die Anforderungen der modernen Massendemokratie zu geben.
Gegen ihre desintegrierende Wirkung kann man sich Schmitt zufolge nur schützen, wenn man im Sinne von Rudolf Smends Integrationslehre eine Rechtspflicht des einzelnen Staatsbürgers konstruiert, bei der geheimen Stimmabgabe nicht sein privates Interesse, sondern das Wohl des Ganzen im Auge zu haben – angesichts der Wirklichkeit des sozialen und politischen Lebens sei dies aber ein schwacher und sehr problematischer Schutz. Schmitts Folgerung lautet:
Nur zwei Staaten, das bolschewistische Russland und das faschistische Italien, hätten den Versuch gemacht, mit den überkommenen Verfassungsprinzipien des 19. Jahrhunderts zu brechen, um die großen Veränderungen in der wirtschaftlichen und sozialen Struktur auch in der staatlichen Organisation und in einer geschriebenen Verfassung zum Ausdruck zu bringen. Gerade nicht intensiv industrialisierte Länder wie Russland und Italien könnten sich eine moderne Wirtschaftsverfassung geben.
In hochentwickelten Industriestaaten ist die innenpolitische Lage nach Schmitts Auffassung von dem „Phänomen der ‚sozialen Gleichgewichtsstruktur‘ zwischen Kapital und Arbeit“ beherrscht: Arbeitgeber und Arbeitnehmer stehen sich mit gleicher sozialer Macht gegenüber und keine Seite kann der anderen eine radikale Entscheidung aufdrängen, ohne einen furchtbaren Bürgerkrieg auszulösen. Dieses Phänomen sei vor allem von Otto Kirchheimer staats- und verfassungstheoretisch behandelt worden. Aufgrund der Machtgleichheit seien in den industrialisierten Staaten „auf legalem Wege soziale Entscheidungen und fundamentale Verfassungsänderungen nicht mehr möglich, und alles, was es an Staat und Regierung gibt, ist dann mehr oder weniger eben nur der neutrale (und nicht der höhere, aus eigener Kraft und Autorität entscheidende) Dritte“ (Positionen und Begriffe, S. 127). Der italienische Faschismus versuche demnach, mit Hilfe einer geschlossenen Organisation diese Suprematie des Staates gegenüber der Wirtschaft herzustellen. Daher komme das faschistische Regime auf Dauer den Arbeitnehmern zugute, weil diese heute das Volk seien und der Staat nun einmal die politische Einheit des Volkes.
Die Kritik bürgerlicher Institutionen war es, die Schmitt in dieser Phase für junge sozialistische Juristen wie Ernst Fraenkel, Otto Kirchheimer und Franz Neumann interessant machte. Umgekehrt profitierte Schmitt von den unorthodoxen Denkansätzen dieser linken Systemkritiker. So hatte Schmitt den Titel einer seiner bekanntesten Abhandlungen (Legalität und Legitimität) von Otto Kirchheimer entliehen. Ernst Fraenkel besuchte Schmitts staatsrechtliche Arbeitsgemeinschaften und bezog sich positiv auf dessen Kritik des destruktiven Misstrauensvotums (Fraenkel, Verfassungsreform und Sozialdemokratie, Die Gesellschaft, 1932). Franz Neumann wiederum verfasste am 7. September 1932 einen euphorisch zustimmenden Brief anlässlich der Veröffentlichung des Buches "Legalität und Legitimität" (abgedruckt in: Rainer Erd, Reform und Resignation, 1985, S. 79 f.). Kirchheimer urteilte über die Schrift im Jahre 1932: „Wenn eine spätere Zeit den geistigen Bestand dieser Epoche sichtet, so wird sich ihr das Buch von Carl Schmitt über "Legalität und Legitimität" als eine Schrift darbieten, die sich aus diesem Kreis sowohl durch ihr Zurückgehen auf die Grundlagen der Staatstheorie als auch durch ihre Zurückhaltung in den Schlussfolgerungen auszeichnet.“ (Verfassungsreaktion 1932, Die Gesellschaft, IX, 1932, S. 415ff.) In einem Aufsatz von Anfang 1933 mit dem Titel "Verfassungsreform und Sozialdemokratie" (Die Gesellschaft, X, 1933, S. 230ff.), in dem Kirchheimer verschiedene Vorschläge zur Reform der Weimarer Verfassung im Sinne einer Stärkung des Reichspräsidenten zu Lasten des Reichstags diskutierte, wies der SPD-Jurist auch auf Anfeindungen hin, der die Zeitschrift "Die Gesellschaft" aufgrund der positiven Anknüpfung an Carl Schmitt von kommunistischer Seite ausgesetzt war: „In Nr. 24 des "Roten Aufbaus" wird von ‚theoretischen Querverbindungen‘ zwischen dem ‚faschistischen Staatstheoretiker‘ Carl Schmitt und dem offiziellen theoretischen Organ der SPD, der "Gesellschaft" gesprochen, die besonders anschaulich im Fraenkelschen Aufsatz zutage treten sollen.“ Aus den fraenkelschen Ausführungen, in denen dieser sich mehrfach auf Schmitt bezogen hatte, ergebe sich in der logischen Konsequenz die Aufforderung zum Staatsstreich, die Fraenkel nur nicht offen auszusprechen wage. In der Tat hatte Fraenkel in der vorherigen Ausgabe der „Gesellschaft“ unter ausdrücklicher Anknüpfung an Carl Schmitt geschrieben: „Es hieße, der Sache der Verfassung den schlechtesten Dienst zu erweisen, wenn man die Erweiterung der Macht des Reichspräsidenten bis hin zum Zustande der faktischen Diktatur auf den Machtwillen des Präsidenten und der hinter ihm stehenden Kräfte zurückführen will. Wenn der Reichstag zur Bewältigung der ihm gesetzten Aufgaben unfähig wird, so muß vielmehr ein anderes Staatsorgan die Funktion übernehmen, die erforderlich ist, um in gefährdeten Zeiten den Staatsapparat weiterzuführen. Solange eine Mehrheit grundsätzlich staatsfeindlicher, in sich uneiniger Parteien im Parlament, kann ein Präsident, wie immer er auch heißen mag, gar nichts anderes tun, als den destruktiven Beschlüssen dieses Parlaments auszuweichen. Carl Schmitt hat unzweifelhaft recht, wenn er bereits vor zwei Jahren ausgeführt hat, daß die geltende Reichsverfassung einem mehrheits- und handlungsfähigen Reichstag alle Rechte und Möglichkeiten gibt, um sich als den maßgebenden Faktor staatlicher Willensbildung durchzusetzen. Ist das Parlament dazu nicht im Stande, so hat es auch nicht das Recht, zu verlangen, daß alle anderen verantwortlichen Stellen handlungsunfähig werden.“
Schmitt war ab 1930 für eine autoritäre Präsidialdiktatur eingetreten und pflegte Bekanntschaften zu politischen Kreisen, etwa dem späteren preußischen Finanzminister Johannes Popitz. Auch zur Reichsregierung selbst gewann er Kontakt, indem er enge Beziehungen zu Mittelsmännern des Generals, Ministers und späteren Kanzlers Kurt von Schleicher unterhielt. Schmitt stimmte sogar Publikationen und öffentliche Vorträge im Vorfeld mit den Mittelsmännern des Generals ab. Für die Regierungskreise waren einige seiner politisch-verfassungsrechtlichen Arbeiten, etwa die erweiterten Ausgaben von „Der Hüter der Verfassung“ (1931) oder „Der Begriff des Politischen“ (1932), von Interesse. Trotz seiner Kritik an Pluralismus und parlamentarischer Demokratie stand Schmitt vor der Machtergreifung 1933 den Umsturzbestrebungen von KPD und NSDAP gleichermaßen ablehnend gegenüber. Er unterstützte die Politik Schleichers, die darauf abzielte, das „Abenteuer Nationalsozialismus“ zu verhindern.
In seiner im Juli 1932 abgeschlossenen Abhandlung "Legalität und Legitimität" forderte der Staatsrechtler eine Entscheidung für die Substanz der Verfassung und gegen ihre Feinde. Er fasste dies in eine Kritik am neukantianischen Rechtspositivismus, wie ihn der führende Verfassungskommentator Gerhard Anschütz vertrat. Gegen diesen Positivismus, der nicht nach den Zielen politischer Gruppierungen fragte, sondern nur nach formaler Legalität, brachte Schmitt – hierin mit seinem Antipoden Heller einig – eine Legitimität in Stellung, die gegenüber dem Relativismus auf die Unverfügbarkeit politischer Grundentscheidungen verwies.
Die politischen Feinde der bestehenden Ordnung sollten klar als solche benannt werden, andernfalls führe die Indifferenz gegenüber verfassungsfeindlichen Bestrebungen in den politischen Selbstmord. Zwar hatte Schmitt sich hier klar für eine Bekämpfung verfassungsfeindlicher Parteien ausgesprochen, was er jedoch mit einer „folgerichtigen Weiterentwicklung der Verfassung“ meinte, die an gleicher Stelle gefordert wurde, blieb unklar. Hier wurde vielfach vermutet, es handele sich um einen konservativ-revolutionären „Neuen Staat“ Papen’scher Prägung, wie ihn etwa Heinz Otto Ziegler beschrieben hatte (Autoritärer oder totaler Staat, 1932). Verschiedene neuere Untersuchungen argumentieren dagegen, Schmitt habe im Sinne Schleichers eine Stabilisierung der politischen Situation erstrebt und Verfassungsänderungen als etwas Sekundäres betrachtet. In dieser Perspektive war die geforderte Weiterentwicklung eine faktische Veränderung der Mächteverhältnisse, keine Etablierung neuer Verfassungsprinzipien.
1932 war Schmitt auf einem vorläufigen Höhepunkt seiner politischen Ambitionen angelangt: Er vertrat die Reichsregierung unter Franz von Papen zusammen mit Carl Bilfinger und Erwin Jacobi im Prozess um den sogenannten Preußenschlag gegen die staatsstreichartig abgesetzte preußische Regierung Otto Braun vor dem Staatsgerichtshof. Als enger Berater im Hintergrund wurde Schmitt in geheime Planungen eingeweiht, die auf die Ausrufung eines Staatsnotstands hinausliefen. Schmitt und Personen aus Schleichers Umfeld wollten durch einen intrakonstitutionellen „Verfassungswandel“ die Gewichte in Richtung einer konstitutionellen Demokratie mit präsidialer Ausprägung verschieben. Dabei sollten verfassungspolitisch diejenigen Spielräume genutzt werden, die in der Verfassung angelegt waren oder zumindest von ihr nicht ausgeschlossen wurden. Konkret schlug Schmitt vor, der Präsident solle gestützt auf Artikel 48 regieren, destruktive Misstrauensvoten oder Aufhebungsbeschlüsse des Parlaments sollten mit Verweis auf ihre fehlende konstruktive Basis ignoriert werden. In einem Positionspapier für Schleicher mit dem Titel: „Wie bewahrt man eine arbeitsfähige Präsidialregierung vor der Obstruktion eines arbeitsunwilligen Reichstages mit dem Ziel, ’die Verfassung zu wahren'“ wurde der „mildere Weg, der ein Minimum an Verfassungsverletzung darstellt“, empfohlen, nämlich: „die authentische Auslegung des Art. 54" [der das Misstrauensvotum regelt] "in der Richtung der naturgegebenen Entwicklung (Mißtrauensvotum gilt nur seitens einer Mehrheit, die in der Lage ist, eine positive Vertrauensgrundlage herzustellen)“. Das Papier betonte: „Will man von der Verfassung abweichen, so kann es nur in der Richtung geschehen, auf die sich die Verfassung unter dem Zwang der Umstände und in Übereinstimmung mit der öffentlichen Meinung hin entwickelt. Man muß das Ziel der Verfassungswandlung im Auge behalten und darf nicht davon abweichen. Dieses Ziel ist aber nicht die Auslieferung der Volksvertretung an die Exekutive (der Reichspräsident beruft und vertagt den Reichstag), sondern es ist Stärkung der Exekutive durch Abschaffung oder Entkräftung von Art. 54 bezw. durch Begrenzung des Reichstages auf Gesetzgebung und Kontrolle. Dieses Ziel ist aber durch die authentische Interpretation der Zuständigkeit eines Mißtrauensvotums geradezu erreicht. Man würde durch einen erfolgreichen Präzedenzfall die Verfassung gewandelt haben.“
Wie stark Schmitt bis Ende Januar 1933 seine politischen Aktivitäten mit Kurt v. Schleicher verbunden hatte, illustriert sein Tagebucheintrag vom 27. Januar 1933: „Es ist etwas unglaubliches Geschehen. Der Hindenburg-Mythos ist zu Ende. Der Alte war schließlich auch nur ein Mac Mahon. Scheußlicher Zustand. Schleicher tritt zurück; Papen oder Hitler kommen. Der alte Herr ist verrückt geworden.“ Auch war Schmitt, wie Schleicher, zunächst ein Gegner der Kanzlerschafts Hitlers. Am 30. Januar verzeichnet sein Tagebuch den Eintrag: „Dann zum Cafe Kutscher, wo ich hörte, daß Hitler Reichskanzler und Papen Vizekanzler geworden ist. Zu Hause gleich zu Bett. Schrecklicher Zustand.“ Einen Tag später hieß es: „War noch erkältet. Telefonierte Handelshochschule und sagte meine Vorlesung ab. Wurde allmählich munterer, konnte nichts arbeiten, lächerlicher Zustand, las Zeitungen, aufgeregt. Wut über den dummen, lächerlichen Hitler.“
Deutungsproblem 1933: Zäsur oder Kontinuität?
Nach dem Ermächtigungsgesetz vom 24. März 1933 präsentierte sich Schmitt als überzeugter Anhänger der neuen Machthaber. Ob er dies aus Opportunismus oder aus innerer Überzeugung tat, ist umstritten. Während einige Beobachter bei Schmitt einen „unbändigen Geltungsdrang“ sehen, der ihn dazu bewog, sich allen Regierungen seit Hermann Müller im Jahre 1930 als Berater anzudienen (nach 1945 habe er sogar versucht, sich Sowjets und US-Amerikanern zur Verfügung zu stellen), sehen andere in Schmitt einen radikalen Kritiker des Liberalismus, dessen Denken im Kern eine „allen rationalen Deduktionen vorausliegende, politische Option“ für den Nationalsozialismus aufgewiesen habe. Kurz, die Frage lautet, ob Schmitts Engagement für den Nationalsozialismus ein Problem der Theorie oder ein Problem des Charakters ist. Dieses ungelöste Forschungsproblem wird heute vorwiegend an der Frage diskutiert, ob das Jahr 1933 in der Theorie Schmitts einen Bruch darstelle oder eine Kontinuität. Dass diese sich widersprechenden Thesen bis heute vertreten werden, ist dem Umstand geschuldet, dass Schmitt in seinen Schriften mehrdeutig formulierte und sich als „Virtuose der retrospektiven, jeweils wechselnden Rechtfertigungsbedürfnissen angepaßten Selbstauslegung“ (Wilfried Nippel) erwies. Daher können sich auch Vertreter beider Extrempositionen (Bruch versus Kontinuität) zur Stützung ihrer These auf Selbstauskünfte Schmitts berufen.
Henning Ottmann bezeichnet die Antithese: „occasionelles Denken oder Kontinuität“ als die Grundfrage aller Schmitt-Deutung. Offen ist also, ob Schmitts Denken einer inneren Logik folgte (Kontinuität), oder ob es rein von äußeren Anlässen (Occasionen) getrieben war, denen innere Konsistenz und Folgerichtigkeit geopfert wurden. Eine Antwort auf diese Frage ist laut Ottmann nicht leicht zu finden: Wer bloße Occasionalität behaupte, müsse die Leitmotive schmittschen Denkens bis zu einem Dezisionismus verflüchtigen, der sich für alles und jedes entscheiden kann; wer dagegen reine Kontinuität erkennen wolle, müsse einen kurzen Weg konstruieren, der vom Antiliberalismus oder Antimarxismus zum nationalsozialistischen Unrechtsstaat führt. Ottmann spricht daher von „Kontinuität "und" Wandlung“ bzw. auch von teilweise „mehr Wandel als Kontinuität“. Mit Blick auf Schmitts Unterstützung des Regierungskurses Kurt von Schleichers sprechen einige Historiker in Bezug auf das Jahr 1933 von einer Zäsur. Andere erkennen aber auch verborgene Kontinuitätslinien, etwa in der sozialen Funktion seiner Theorie oder seinem Katholizismus. Hält man sich die Abruptheit des Seitenwechsels im Februar 1933 vor Augen, so scheint die Annahme einer opportunistischen Grundhaltung naheliegend. Gleichwohl gab es durchaus auch inhaltliche Anknüpfungspunkte, etwa den Antiliberalismus oder die "Bewunderung des Faschismus", so dass Schmitts Wechsel zum Nationalsozialismus nicht nur als Problem des Charakters, sondern auch als „Problem der Theorie“ zu begreifen ist, wie Karl Graf Ballestrem betont.
Zeit des Nationalsozialismus.
Nach Angaben Schmitts spielte Popitz bei seiner Kontaktaufnahme zu nationalsozialistischen Regierungsstellen eine entscheidende Rolle. Der Politiker war Minister ohne Geschäftsbereich im Kabinett Schleicher und war im April 1933 preußischer Finanzminister geworden. Popitz vermittelte Schmitt erste Kontakte zu nationalsozialistischen Funktionären während der Arbeiten für das Reichsstatthaltergesetz, an denen Schmitt ebenso wie sein Kollege aus der Prozessvertretung im Preußenprozess, Carl Bilfinger, beteiligt wurde.
Auch wenn die Gründe nicht abschließend geklärt werden können, so gilt als unzweifelhaft, dass Schmitt voll auf die neue Linie umschwenkte. Er bezeichnete das Ermächtigungsgesetz als „Vorläufiges Verfassungsgesetz des neuen Deutschland“ und trat am 1. Mai 1933 als sogenannter „Märzgefallener“ in die NSDAP (Mitgliedsnummer 2.098.860) ein. Am 31. Mai 1933 verfluchte er im "Westdeutschen Beobachter" „die deutschen Intellektuellen“, die vor dem beginnenden Naziterror geflohen waren: „Aus Deutschland sind sie ausgespien für alle Zeiten.“
Zum Sommersemester 1933 kam er einer Berufung aus dem Jahr 1932 nach und wechselte als Nachfolger für Fritz Stier-Somlo an die Universität zu Köln, wo er binnen weniger Wochen die Wandlung in die Rolle eines Staatsrechtlers im Sinne der neuen nationalsozialistischen Herrschaft vollzog. Hatte er zuvor zahlreiche persönliche Kontakte zu jüdischen Kollegen unterhalten, die auch großen Anteil an seiner raschen akademischen Karriere hatten, so begann er nach 1933 seine jüdischen Professorenkollegen zu denunzieren und antisemitische Kampfschriften zu veröffentlichen. Zum Beispiel versagte Schmitt Hans Kelsen, der sich zuvor dafür eingesetzt hatte, Schmitt an die Universität zu Köln zu berufen, jede Unterstützung, als Kollegen eine Resolution gegen dessen Amtsenthebung verfassten. Diese Haltung zeigte Schmitt jedoch nicht allen jüdischen Kollegen gegenüber. So verwendete er sich etwa in einem persönlichen Gutachten für Erwin Jacobi. Gegenüber Kelsen formulierte Schmitt noch nach 1945 antisemitische Invektiven. In der Zeit des Nationalsozialismus bezeichnete er ihn stets als den „Juden Kelsen“.
Am 11. Juli 1933 berief ihn der preußische Ministerpräsident Hermann Göring in den Preußischen Staatsrat – ein Titel, auf den er zeitlebens besonders stolz war. Noch 1972 soll er gesagt haben, er sei dankbar, Preußischer Staatsrat geworden zu sein und nicht Nobelpreisträger. Zudem wurde er Herausgeber der "Deutschen Juristenzeitung" (DJZ) und Mitglied der Akademie für Deutsches Recht. Schmitt erhielt sowohl die Leitung der Gruppe der Universitätslehrer als auch die Fachgruppenleitung Hochschullehrer im NS-Rechtswahrerbund. Im Juli 1934 wurde Schmitt zum Mitglied der Hochschulkommission der NSDAP ernannt.
In seiner Schrift "Staat, Bewegung, Volk: Die Dreigliederung der politischen Einheit" (1933) betonte Schmitt die Legalität der „deutschen Revolution“: Die Machtübernahme Hitlers bewege sich „formal korrekt in Übereinstimmung mit der früheren Verfassung“, sie entstamme „Disziplin und deutschem Ordnungssinn“. Der Zentralbegriff des nationalsozialistischen Staatsrechts sei „Führertum“, unerlässliche Voraussetzung dafür „rassische“ Gleichheit von Führer und Gefolge.
Indem Schmitt die Rechtmäßigkeit der „nationalsozialistischen Revolution“ betonte, verschaffte er der Führung der NSDAP eine juristische Legitimation. Aufgrund seines juristischen und verbalen Einsatzes für den Staat der NSDAP wurde er von Zeitgenossen, insbesondere von politischen Emigranten (darunter Schüler und Bekannte), als „Kronjurist des Dritten Reiches“ bezeichnet. Den Begriff prägte der "Interpret des politischen Katholizismus" und frühere Schmitt-Intimus Waldemar Gurian im Jahr 1934 als Reaktion auf dessen Rechtfertigung der "Röhmmorde".
Im Herbst 1933 wurde Schmitt aus „staatspolitischen Gründen“ an die Friedrich-Wilhelms-Universität Berlin berufen und entwickelte dort die Lehre vom "konkreten Ordnungsdenken", der zufolge jede Ordnung ihre institutionelle Repräsentanz im Entscheidungsmonopol eines Amtes mit Unfehlbarkeitsanspruch findet. Diese amtscharismatische Souveränitätslehre mündete in einer Propagierung des Führerprinzips und der These einer Identität von Wille und Gesetz („Der Wille des Führers ist Gesetz“). Damit konnte Schmitt seinen Ruf bei den neuen Machthabern weiter festigen. Zudem diente der Jurist als Stichwortgeber, dessen Wendungen wie "totaler Staat – totaler Krieg" oder "geostrategischer Großraum mit Interventionsverbot für raumfremde Mächte" enormen Erfolg hatten, wenngleich sie nicht mit seinem Namen verbunden wurden. Von 1934 bis 1935 war Bernhard Ludwig von Mutius Schmitts wissenschaftlicher Assistent.
Schmitts Einsatz für das neue Regime war bedingungslos. Als Beispiel kann seine Instrumentalisierung der Verfassungsgeschichte zur Legitimation des NS-Regimes dienen. Viele seiner Stellungnahmen gingen weit über das hinaus, was von einem linientreuen Juristen erwartet wurde. Schmitt wollte sich offensichtlich durch besonders schneidige Formulierungen profilieren. In Reaktion auf die Morde des NS-Regimes vom 30. Juni 1934 während der Röhm-Affäre – unter den Getöteten war auch der ihm politisch nahestehende ehemalige Reichskanzler Kurt von Schleicher – rechtfertigte er die Selbstermächtigung Hitlers mit den Worten:
Der wahre Führer sei immer auch Richter, aus dem Führertum fließe das Richtertum. Wer beide Ämter trenne, so Schmitt, mache den Richter „zum Gegenführer“ und wolle „den Staat mit Hilfe der Justiz aus den Angeln heben“. Verfechtern der Gewaltenteilung warf Schmitt „Rechtsblindheit“ vor. Diese behauptete Übereinstimmung von „Führertum“ und „Richtertum“ gilt als Zeugnis einer besonderen Perversion des Rechtsdenkens. Schmitt schloss den Artikel mit dem politischen Aufruf:
Öffentlich trat Schmitt wiederum als Rassist und Antisemit hervor, als er die Nürnberger Rassengesetze von 1935 in selbst für nationalsozialistische Verhältnisse grotesker Stilisierung als "Verfassung der Freiheit" bezeichnete (so der Titel eines Aufsatzes in der Deutschen Juristenzeitung). Mit dem sogenannten "Gesetz zum Schutze des deutschen Blutes und der deutschen Ehre", das Beziehungen zwischen Juden (in der Definition der Nationalsozialisten) und „Deutschblütigen“ unter Strafe stellte, trat für Schmitt „ein neues weltanschauliches Prinzip in der Gesetzgebung“ auf. Diese „von dem Gedanken der Rasse getragene Gesetzgebung“ stößt, so Schmitt, auf die Gesetze anderer Länder, die ebenso grundsätzlich rassische Unterscheidungen nicht kennen oder sogar ablehnen. Dieses Aufeinandertreffen unterschiedlicher weltanschaulicher Prinzipien war für Schmitt Regelungsgegenstand des Völkerrechts. Höhepunkt der Schmittschen Parteipropaganda war die im Oktober 1936 unter seiner Leitung durchgeführte Tagung "Das Judentum in der Rechtswissenschaft". Hier bekannte er sich ausdrücklich zum nationalsozialistischen Antisemitismus und forderte, jüdische Autoren in der juristischen Literatur nicht mehr zu zitieren oder jedenfalls als Juden zu kennzeichnen.
Etwa zur selben Zeit gab es eine nationalsozialistische Kampagne gegen Schmitt, die zu seiner weitgehenden Entmachtung führte. Reinhard Mehring schreibt dazu: „Da diese Tagung aber Ende 1936 zeitlich eng mit einer nationalsozialistischen Kampagne gegen Schmitt und seiner weitgehenden Entmachtung als Funktionsträger zusammenfiel, wurde sie – schon in nationalsozialistischen Kreisen – oft als opportunistisches Lippenbekenntnis abgetan und nicht hinreichend beachtet, bis Schmitt 1991 durch die Veröffentlichung des „Glossariums“, tagebuchartiger Aufzeichnungen aus den Jahren 1947 bis 1951, auch nach 1945 noch als glühender Antisemit dastand, der kein Wort des Bedauerns über Entrechtung, Verfolgung und Vernichtung fand. Seitdem ist sein Antisemitismus ein zentrales Thema. War er katholisch-christlich oder rassistisch-biologistisch begründet? … Die Diskussion ist noch lange nicht abgeschlossen.“
In dem der SS nahestehenden Parteiblatt "Schwarzes Korps" wurde Schmitt „Opportunismus“ und eine fehlende „nationalsozialistische Gesinnung“ vorgeworfen. Hinzu kamen Vorhaltungen wegen seiner früheren Unterstützung der Regierung Schleichers sowie Bekanntschaften zu Juden: „An der Seite des Juden Jacobi focht Carl Schmitt im Prozess Preußen-Reich für die reaktionäre Zwischenregierung Schleicher [sic! recte: Papen].“ In den "Mitteilungen zur weltanschaulichen Lage" des Amtes Rosenberg hieß es, Schmitt habe „mit dem Halbjuden Jacobi gegen die herrschende Lehre die Behauptung aufgestellt, es sei nicht möglich, dass etwa eine nationalsozialistische Mehrheit im Reichstag auf Grund eines Beschlusses mit Zweidrittelmehrheit nach dem Art. 76 durch verfassungsänderndes Gesetz grundlegende politische Entscheidungen der Verfassung, etwa das Prinzip der parlamentarischen Demokratie, ändern könne, denn eine solche Verfassungsänderung sei dann Verfassungswechsel, nicht Verfassungsrevision.“ Ab 1936 bemühten sich demnach nationalsozialistische Organe Schmitt seiner Machtposition zu berauben, ihm eine nationalsozialistische Gesinnung abzusprechen und ihm Opportunismus nachzuweisen.
Durch die Publikationen im "Schwarzen Korps" entstand ein Skandal, in dessen Folge 1936 das NSDAP-Mitglied Schmitt alle Ämter in den Parteiorganisationen verlor, aber im Preußischen Staatsrat blieb, den Göring im selben Jahr zum letzten Mal einberufen sollte.
Bis zum Ende des Nationalsozialismus arbeitete Schmitt als Professor an der Friedrich-Wilhelms-Universität in Berlin hauptsächlich auf dem Gebiet des Völkerrechts, versuchte aber auch hier, zum Stichwortgeber des Regimes zu avancieren. Das zeigt etwa sein 1939 zu Beginn des Zweiten Weltkriegs entwickelter Begriff der „völkerrechtlichen Großraumordnung“, den er als deutsche Monroe-Doktrin verstand. Dies wurde später zumeist als Versuch gewertet, die Expansionspolitik Hitlers völkerrechtlich zu fundieren. So war Schmitt etwa an der sogenannten Aktion Ritterbusch beteiligt, mit der zahlreiche Wissenschaftler die nationalsozialistische Raum- und Bevölkerungspolitik beratend begleiteten.
Nach 1945.
Das Kriegsende erlebte Schmitt in Berlin. Am 30. April 1945 wurde er von sowjetischen Truppen verhaftet, nach kurzem Verhör aber wieder auf freien Fuß gesetzt. Am 26. September 1945 verhafteten ihn die Amerikaner und internierten ihn bis zum 10. Oktober 1946 in verschiedenen Berliner Lagern. Ein halbes Jahr später wurde er erneut verhaftet, nach Nürnberg verbracht und dort anlässlich der Nürnberger Prozesse vom 29. März bis zum 13. Mai 1947 in Einzelhaft arretiert. Während dieser Zeit wurde er vom stellvertretenden Hauptankläger Robert M. W. Kempner als "possible defendant" (potentieller Angeklagter) bezüglich seiner „Mitwirkung direkt und indirekt an der Planung von Angriffskriegen, von Kriegsverbrechen und Verbrechen gegen die Menschlichkeit“ verhört. Zu einer Anklage kam es jedoch nicht, weil eine Straftat im juristischen Sinne nicht festgestellt werden konnte: „Wegen was hätte ich den Mann anklagen können?“, begründete Kempner diesen Schritt später. „Er hat keine Verbrechen gegen die Menschlichkeit begangen, keine Kriegsgefangenen getötet und keine Angriffskriege vorbereitet.“ Schmitt selbst hatte sich in einer schriftlichen Stellungnahme als reinen Wissenschaftler beschrieben, der allerdings ein „intellektueller Abenteurer“ gewesen sei und für seine Erkenntnisse einige Risiken auf sich genommen habe. Kempner entgegnete: „Wenn aber das, was Sie Erkenntnissuchen nennen, in der Ermordung von Millionen von Menschen endet?“ Schmitt zeigte sich jedoch auch hier unbelehrbar und antwortete mit einer klassischen Holocaust-Relativierung: „Das Christentum hat auch in der Ermordung von Millionen von Menschen geendet. Das weiß man nicht, wenn man es nicht selbst erfahren hat.“
Während seiner circa siebenwöchigen Einzelhaft im Nürnberger Kriegsverbrechergefängnis schrieb Schmitt verschiedene kürzere Texte, u. a. das Kapitel "Weisheit der Zelle" seines 1950 erschienenen Bandes "Ex Captivitate Salus". Darin erinnerte er sich der geistigen Zuflucht, die ihm während seines Berliner Semesters die Werke Max Stirners geboten hatten. So auch jetzt wieder: „Max ist der Einzige, der mich in meiner Zelle besucht.“ Ihm verdanke er, „dass ich auf manches vorbereitet war, was mir bis heute begegnete, und was mich sonst vielleicht überrascht hätte.“ Daneben erstellte er auf Wunsch Kempners verschiedene Gutachten, etwa über die Stellung der Reichsminister und des Chefs der Reichskanzlei sowie über die Frage, warum das Beamtentum Adolf Hitler gefolgt war.
Ende 1945 war Schmitt ohne jegliche Versorgungsbezüge aus dem Staatsdienst entlassen worden. Um eine Professur bewarb er sich nicht mehr; dies wäre wohl auch aussichtslos gewesen. Stattdessen zog er sich in seine Heimatstadt Plettenberg zurück, wo er weitere Veröffentlichungen – zunächst unter einem Pseudonym – vorbereitete, etwa eine Rezension des Bonner Grundgesetzes als „Walter Haustein“, die in der "Eisenbahnerzeitung" erschien. Er veröffentlichte eine Reihe von Werken, u. a. "Der Nomos der Erde", "Theorie des Partisanen" und "Politische Theologie II". 1952 konnte er sich eine Rente erstreiten, aus dem akademischen Leben blieb er aber ausgeschlossen. Eine Mitgliedschaft in der Vereinigung der Deutschen Staatsrechtslehrer wurde ihm verwehrt.
Obwohl Schmitt unter dieser Isolation litt, verzichtete er auf eine Rehabilitation, die möglich gewesen wäre, wenn er – wie zum Beispiel die NS-Rechtstheoretiker Theodor Maunz oder Otto Koellreutter – sich von seinem Wirken im "Dritten Reich" distanziert und sich um seine Entnazifizierung bemüht hätte. In seinem Tagebuch notierte er am 1. Oktober 1949: „Warum lassen Sie sich nicht entnazifizieren? Erstens: weil ich mich nicht gern vereinnahmen lasse und zweitens, weil Widerstand durch Mitarbeit eine Nazi-Methode aber nicht nach meinem Geschmack ist.“ Das einzige öffentlich überlieferte Bekenntnis seiner Scham stammt aus den Verhörprotokollen von Kempner, die später veröffentlicht wurden. Kempner: „Schämen Sie sich, daß Sie damals [1933/34] derartige Dinge [wie „Der Führer schützt das Recht“] geschrieben haben?“ Schmitt: „Heute selbstverständlich. Ich finde es nicht richtig, in dieser Blamage, die wir da erlitten haben, noch herumzuwühlen.“ Kempner: „Ich will nicht herumwühlen.“ Schmitt: „Es ist schauerlich, sicherlich. Es gibt kein Wort darüber zu reden.“
Zentraler Gegenstand der öffentlichen Vorwürfe gegen Schmitt in der Nachkriegszeit war seine Verteidigung der Röhm-Morde („Der Führer schützt das Recht…“) zusammen mit den antisemitischen Texten der von ihm geleiteten „Judentagung“ 1936 in Berlin. Beispielsweise griff der Tübinger Jurist Adolf Schüle Schmitt 1959 deswegen heftig an.
Zum Holocaust hat Schmitt auch nach dem Ende des nationalsozialistischen Regimes nie ein bedauerndes Wort gefunden, wie die posthum publizierten Tagebuchaufzeichnungen "(Glossarium)" zeigen. Stattdessen relativierte er auch hier das Verbrechen: „Genozide, Völkermorde, rührender Begriff.“ Der einzige Eintrag, der sich explizit mit der Shoa befasst, lautet:
Auch nach 1945 wich Schmitt nicht von seinem Antisemitismus ab. Als Beleg hierfür gilt ein Eintrag in sein Glossarium vom 25. September 1947, in dem er den „assimilierten Juden“ als den „wahren Feind“ bezeichnete: „Denn Juden bleiben immer Juden. Während der Kommunist sich bessern und ändern kann. Das hat nichts mit nordischer Rasse usw. zu tun. Gerade der assimilierte Jude ist der wahre Feind. Es hat keinen Zweck, die Parole der Weisen von Zion als falsch zu beweisen.“
Schmitt flüchtete sich in Selbstrechtfertigungen und stilisierte sich als „christlicher Epimetheus“. Die Selbststilisierung wurde zu seinem Lebenselixier. Er erfand verschiedene, immer anspielungs- und kenntnisreiche Vergleiche, die seine Unschuld illustrieren sollten. So behauptete er etwa, er habe in Bezug auf den Nationalsozialismus wie der Chemiker und Hygieniker Max von Pettenkofer gehandelt, der vor Studenten eine Kultur von Cholera-Bakterien zu sich nahm, um seine Resistenz zu beweisen. So habe auch er, Schmitt, das Virus des Nationalsozialismus freiwillig geschluckt und sei nicht infiziert worden.
An anderer Stelle verglich Schmitt sich mit Benito Cereno, einer Figur Herman Melvilles aus der gleichnamigen Erzählung von 1856, in der ein Kapitän auf dem eigenen Schiff von Meuterern gefangen gehalten wird. Bei Begegnung mit anderen Schiffen wird der Kapitän von den aufständischen Sklaven gezwungen, nach außen hin Normalität vorzuspielen – eine absurde Tragikomödie, die den Kapitän als gefährlich, halb verrückt und völlig undurchsichtig erscheinen lässt. Auf dem Schiff steht der Spruch: „Folgt eurem Führer“ („Seguid vuestro jefe“).
Sein Haus in Plettenberg titulierte Schmitt als „San Casciano“, in Anlehnung an den Rückzugsort Machiavellis.
Schmitt wurde fast 97 Jahre alt. Seine Krankheit, Zerebralsklerose, brachte in Schüben immer länger andauernde Wahnvorstellungen mit sich. Schmitt, der auch schon früher durchaus paranoide Anwandlungen gezeigt hatte, fühlte sich nun von Schallwellen und Stimmen regelrecht verfolgt. Wellen wurden seine letzte Obsession. Einem Bekannten soll er gesagt haben: „Nach dem Ersten Weltkrieg habe ich gesagt: ‚Souverän ist, wer über den Ausnahmezustand entscheidet‘. Nach dem Zweiten Weltkrieg, angesichts meines Todes, sage ich jetzt: ‚Souverän ist, wer über die Wellen des Raumes verfügt.‘ “ Seine geistige Umnachtung ließ ihn überall elektronische Wanzen und unsichtbare Verfolger befürchten. Am 7. April 1985, einem Ostersonntag, starb Schmitt im Evangelischen Krankenhaus in Plettenberg. Den in der Friedhofskapelle befindlichen Sarg ließ Niklas Frank, der Sohn Hans Franks, kurz vor der Beisetzung öffnen, da er in Schmitt seinen leiblichen Vater vermutete und diesen sehen wollte. Schmitts Grab befindet sich auf dem katholischen Friedhof in Plettenberg-Eiringhausen. Sein erster Testamentsvollstrecker war sein Schüler Joseph H. Kaiser, heutiger Verwalter seines wissenschaftlichen Nachlasses ist der Staatsrechtler Florian Meinel.
Denken.
Die Etikettierungen Schmitts sind vielfältig. Er gilt als Nationalist, Gegner des Pluralismus und Liberalismus, Verächter des Parlamentarismus, Kontrahent des Rechtsstaats, des Naturrechts und Neo-Absolutist im Gefolge eines Machiavelli und Thomas Hobbes. Zweifellos hatte sein Denken reaktionäre Züge: Er bewunderte den italienischen Faschismus, war in der Zeit des Nationalsozialismus als Antisemit hervorgetreten und hatte Rechtfertigungen für nationalsozialistische Verbrechen geliefert. Schmitts Publikationen enthielten zu jeder Zeit aktuell-politische Exkurse und Bezüge, zwischen 1933 und 1945 waren diese aber eindeutig nationalsozialistisch geprägt. Für die Übernahme von Rassismus und nationalsozialistischer Blut-und-Boden-Mythologie musste er ab 1933 seine in der Weimarer Republik entwickelte Politische Theorie nur graduell modifizieren.
Trotz dieser reaktionären Aspekte und eines offenbar zeitlebens vorhandenen, wenn auch unterschiedlich ausgeprägten Antisemitismus wird Schmitt auch heutzutage ein originelles staatsphilosophisches Denken attestiert. Im Folgenden sollen seine grundlegenden Konzepte zumindest überblicksartig skizziert werden, wobei die zeitbezogenen Aspekte in den Hintergrund treten.
Schmitt als Kulturkritiker.
Schmitt war von einem tiefen Pessimismus gegenüber Fortschrittsvorstellungen, Fortschrittsoptimismus und Technisierung geprägt. Vor dem Hintergrund der Ablehnung wertneutraler Denkweisen und relativistischer Konzepte entwickelte er eine spezifische Kulturkritik, die sich in verschiedenen Passagen durch seine Arbeiten zieht. Insbesondere das Frühwerk enthält zum Teil kulturpessimistische Ausbrüche. Das zeigt sich vor allem in einer seiner ersten Publikationen, in der er sich mit dem Dichter Theodor Däubler und seinem Epos "Nordlicht" (1916) auseinandersetzte. Hier trat der Jurist vollständig hinter den kunstinteressierten Kulturkommentator zurück. Auch sind gnostische Anspielungen erkennbar, die Schmitt – er war ein großer Bewunderer Marcions – wiederholt einfließen ließ. Ebenso deutlich wurden Hang und Talent zur Typisierung.
Der junge Schmitt zeigte sich als Polemiker gegen bürgerliche „Sekurität“ und saturierte Passivität mit antikapitalistischen Anklängen. Diese Haltung wird vor allem in seinem Buch über Theodor Däublers "Nordlicht" deutlich:
Die Betrieb und Organisation gewordene Gesellschaft, dem bedingungslosen Diktat der Zweckmäßigkeit gehorchend, lässt demzufolge „keine Geheimnisse und keinen Überschwang der Seele gelten“. Die Menschen sind matt und verweltlicht und können sich zu keiner transzendenten Position mehr aufraffen:
Bei Däubler erschien der Fortschritt als Werk des "Antichristen", des "großen Zauberers". In seine Rezeption nahm Schmitt antikapitalistische Elemente auf: Der Antichrist, der „unheimliche Zauberer“, macht die Welt Gottes nach. Er verändert das Antlitz der Erde und macht die Natur sich untertan: „Sie dient ihm; wofür ist gleichgültig, für irgendeine Befriedigung künstlicher Bedürfnisse, für Behagen und Komfort.“ Die getäuschten Menschen sehen nach dieser Auffassung nur den fabelhaften Effekt. Die Natur scheint ihnen überwunden, das „Zeitalter der Sekurität“ angebrochen. Für alles sei gesorgt, eine „kluge Voraussicht und Planmäßigkeit“ ersetze die Vorsehung. Die Vorsehung macht der „große Zauberer“ wie „irgendeine Institution“:
Sehr viel später, nach dem Zweiten Weltkrieg, notierte Schmitt, diese apokalyptische Sehnsucht nach Verschärfung aufgreifend, in sein Tagebuch:
Ebenso wie Däublers Kampf gegen Technik, Fortschritt und Machbarkeit faszinierte Schmitt das negative Menschenbild der Gegenrevolution. Das Menschenbild Donoso Cortés’ charakterisierte er etwa 1922 mit anklingender Bewunderung in seiner "Politischen Theologie" als universale Verachtung des Menschengeschlechts:
In der "Politischen Romantik" weitete Schmitt 1919 die Polemik gegen den zeitgenössischen Literaturbetrieb aus den bereits 1913 erschienenen "Schattenrissen" zu einer grundsätzlichen Kritik des bürgerlichen Menschentyps aus. Die Romantik ist für ihn „psychologisch und historisch ein Produkt bürgerlicher Sekurität“. Der Romantiker, so Schmitts Kritik, will sich für nichts mehr entscheiden, sondern nur "erleben" und sein Erleben stimmungsvoll umschreiben:
Hier zieht sich eine Linie durch das schmittsche Frühwerk. Das „Zeitalter der Sekurität“ führt für ihn zu Neutralisierung und Entpolitisierung und damit zu einer Vernichtung der staatlichen Lebensgrundlage. Denn dem Romantiker ist „jede Beziehung zu einem rechtlichen oder moralischen Urteil disparat“. Jede Norm erscheint ihm als „antiromantische Tyrannei“. Eine rechtliche oder moralische Entscheidung ist dem Romantiker also sinnlos:
Daher gibt es nach Schmitt keine politische Produktivität im Romantischen. Es wird vielmehr völlige Passivität gepredigt und auf „mystische, theologische und traditionalistische Vorstellungen, wie Gelassenheit, Demut und Dauer“ verwiesen.
In seiner Schrift "Römischer Katholizismus und politische Form" (1923) analysierte Schmitt die Kirche als eine "Complexio Oppositorum", also eine alles umspannende Einheit der Widersprüche. Schmitt diagnostiziert einen „anti-römischen Affekt“. Dieser Affekt, der sich Schmitt zufolge durch die Jahrhunderte zieht, resultiert aus der Angst vor der unfassbaren politischen Macht des römischen Katholizismus, der „päpstlichen Maschine“, also eines ungeheuren hierarchischen Verwaltungsapparats, der das religiöse Leben kontrollieren und die Menschen dirigieren will. Bei Dostojewski und seinem „Großinquisitor“ erhebt sich demnach das anti-römische Entsetzen noch einmal zu voller säkularer Größe.
Zu jedem Weltreich, also auch dem römischen, gehöre ein gewisser Relativismus gegenüber der „bunten Menge möglicher Anschauungen, rücksichtslose Überlegenheit über lokale Eigenarten und zugleich opportunistische Toleranz in Dingen, die keine zentrale Bedeutung haben“. In diesem Sinne sei die Kirche Complexio Oppositorum: „Es scheint keinen Gegensatz zu geben, den sie nicht umfasst“. Dabei wird das Christentum nicht als Privatsache und reine Innerlichkeit aufgefasst, sondern zu einer „sichtbaren Institution“ gestaltet. Ihr Formprinzip sei das der Repräsentation. Dieses Prinzip der Institution sei der Wille zur Gestalt, zur politischen Form.
Die hier anklingenden strukturellen Analogien zwischen theologischen und staatsrechtlichen Begriffen verallgemeinerte Schmitt 1922 in der "Politischen Theologie" zu der These:
Schon im Frühwerk wird erkennbar, dass Schmitt bürgerliche und liberale Vorstellungen von Staat und Politik zurückwies. Für ihn war der Staat nicht statisch und normativ, sondern vital, dynamisch und faktisch. Daher betonte er das Element der Dezision gegenüber der Deliberation und die Ausnahme gegenüber der Norm. Schmitts Staatsvorstellung war organisch, nicht technizistisch. Der politische Denker Schmitt konzentrierte sich vor allem auf soziale Prozesse, die Staat und Verfassung seiner Meinung nach vorausgingen und beide jederzeit gefährden oder aufheben konnten. Als Rechtsphilosoph behandelte er von verschiedenen Perspektiven aus das Problem der Rechtsbegründung und die Frage nach der Geltung von Normen.
Schmitt als politischer Denker.
Schmitts Auffassung des Staates setzt den Begriff des Politischen voraus. Anstelle eines Primats des Rechts postuliert er einen Primat der Politik. Der Rechtsordnung, d. h. der durch das Recht gestalteten und definierten Ordnung, geht für Schmitt immer eine andere, nämlich eine staatliche Ordnung voraus. Es ist diese vor-rechtliche Ordnung, die es dem Recht erst ermöglicht, konkrete Wirklichkeit zu werden. Mit anderen Worten: Das Politische folgt einer konstitutiven Logik, das Rechtswesen einer regulativen. Die Ordnung wird bei Schmitt durch den Souverän hergestellt, der unter Umständen zu ihrer Sicherung einen Gegner zum existentiellen Feind erklären kann, den es zu bekämpfen, womöglich zu vernichten gelte. Um dies zu tun, dürfe der Souverän die Schranken beseitigen, die mit der Idee des Rechts gegeben sind.
Der Mensch ist für den Katholiken Schmitt nicht von Natur aus gut, allerdings auch nicht von Natur aus böse, sondern unbestimmt – also fähig zum Guten wie zum Bösen. Damit wird er aber (zumindest potentiell) gefährlich und riskant. Weil der Mensch nicht vollkommen gut ist, bilden sich Feindschaften. Derjenige Bereich, in dem zwischen Freund und Feind unterschieden wird, ist für Schmitt die Politik. Der Feind ist in dieser auf die griechische Antike zurückgehenden Sicht immer der öffentliche Feind ("hostis" bzw. "πολέμιος"), nie der private Feind ("inimicus" bzw. "εχθρός"). Die Aufforderung „Liebet eure Feinde“ aus der Bergpredigt (nach der Vulgata: "diligite inimicos vestros", Matthäus 5,44 und Lukas 6,27) beziehe sich dagegen auf den privaten Feind. In einem geordneten Staatswesen gibt es somit für Schmitt eigentlich keine Politik, jedenfalls nicht im existentiellen Sinne einer radikalen Infragestellung, sondern nur sekundäre Formen des Politischen (z. B. Polizei).
Unter Politik versteht Schmitt einen Intensitätsgrad der Assoziation und Dissoziation von Menschen "(„Die Unterscheidung von Freund und Feind hat den Sinn, den äußersten Intensitätsgrad einer Verbindung oder Trennung, einer Assoziation oder Dissoziation zu bezeichnen“)". Diese dynamische, nicht auf ein Sachgebiet begrenzte Definition eröffnete eine neue theoretische Fundierung politischer Phänomene. Für Schmitt war diese Auffassung der Politik eine Art Grundlage seiner Rechtsphilosophie. Ernst-Wolfgang Böckenförde führt in seiner Abhandlung "Der Begriff des Politischen als Schlüssel zum staatsrechtlichen Werk Carl Schmitts" (Abdruck in: Recht, Staat, Freiheit, 1991) dazu aus: Nur wenn die Intensität unterhalb der Schwelle der offenen Freund-Feind-Unterscheidung gehalten werde, besteht Schmitt zufolge eine Ordnung. Im anderen Falle drohen Krieg oder Bürgerkrieg. Im Kriegsfall hat man es in diesem Sinne mit zwei souveränen Akteuren zu tun; der Bürgerkrieg stellt dagegen die innere Ordnung als solche in Frage. Eine Ordnung existiert nach Schmitt immer nur vor dem Horizont ihrer radikalen Infragestellung. Die Feind-Erklärung ist dabei ausdrücklich immer an den extremen Ausnahmefall gebunden "(extremis neccessitatis causa)".
Schmitt selbst gibt keine Kriterien dafür an die Hand, unter welchen Umständen ein Gegenüber als Feind zu beurteilen ist. Im Sinne seines Denkens ist das folgerichtig, da sich das Existenzielle einer vorgängigen Normierung entzieht. Als (öffentlichen) Feind fasst er denjenigen auf, der per autoritativer Setzung durch den Souverän zum Feind erklärt wird. Diese Aussage ist zwar anthropologisch realistisch, gleichwohl ist sie theoretisch problematisch. In eine ähnliche Richtung argumentiert Günther Jakobs mit seinem Konzept des Feindstrafrechts zum Umgang mit "Staatsfeinden". In diesem Zusammenhang wird häufig auf Carl Schmitt verwiesen, auch wenn Jakobs Schmitt bewusst nicht zitiert hat. So heißt es bei dem Publizisten Thomas Uwer 2006: „An keiner Stelle zitiert Jakobs Carl Schmitt, aber an jeder Stelle scheint er hervor“. Auch die vom damaligen Innenminister Wolfgang Schäuble ausgehende öffentliche Debatte um den Kölner Rechtsprofessor Otto Depenheuer und dessen These zur Selbstbehauptung des Staates bei terroristischer Bedrohung gehören in diesen Zusammenhang, da Depenheuer sich ausdrücklich auf Schmitt beruft.
Dabei bewegt sich eine politische Daseinsform bei Schmitt ganz im Bereich des Existenziellen. Normative Urteile kann man über sie nicht fällen "(„Was als politische Größe existiert, ist, juristisch betrachtet, wert, dass es existiert“)". Ein solcher Relativismus und Dezisionismus bindet eine politische Ordnung nicht an Werte wie Freiheit oder Gerechtigkeit, im Unterschied z. B. zu Montesquieu, sondern sieht den höchsten Wert axiomatisch im bloßen Vorhandensein dieser Ordnung selbst. Diese und weitere irrationalistische Ontologismen, etwa sein Glaube an einen „Überlebenskampf zwischen den Völkern“, machten Schmitt aufnahmefähig für die Begriffe und die Rhetorik der Nationalsozialisten. Das illustriert die Grenze und zentrale Schwäche von Schmitts Begriffsbildung.
Schmitts Rechtsphilosophie.
Schmitt betonte, er habe als Jurist eigentlich nur „zu Juristen und für Juristen“ geschrieben. Neben einer großen Zahl konkreter verfassungs- und völkerrechtlicher Gutachten legte er auch eine Reihe systematischer Schriften vor, die stark auf konkrete Situationen hin angelegt waren. Trotz der starken fachjuristischen Ausrichtung ist es möglich, aus der Vielzahl der Bücher und Aufsätze eine mehr oder weniger geschlossene Rechtsphilosophie zu rekonstruieren. Eine solche geschlossene Lesart legte der Luxemburger Rechtsphilosoph Norbert Campagna vor. Dieser Interpretation soll hier gefolgt werden.
Schmitts rechtsphilosophisches Grundanliegen ist das Denken des Rechts vor dem Hintergrund der Bedingungen seiner Möglichkeit. Das abstrakte Sollen setzt demnach immer ein bestimmtes geordnetes Sein voraus, das ihm erst die Möglichkeit gibt, sich zu verwirklichen. Schmitt denkt also in genuin rechtssoziologischen Kategorien. Ihn interessiert vor allem die immer gegebene Möglichkeit, dass Rechtsnormen und Rechtsverwirklichung auseinanderfallen. Zunächst müssen nach diesem Konzept die Voraussetzungen geschaffen werden, die es den Rechtsgenossen ermöglichen, sich an die Rechtsnormen zu halten. Da die „normale“ Situation aber für Schmitt immer fragil und gefährdet ist, kann seiner Ansicht nach die paradoxe Notwendigkeit eintreten, dass gegen Rechtsnormen verstoßen werden muss, um die Möglichkeit einer Geltung des Rechts herzustellen. Damit erhebt sich für Schmitt die Frage, wie das Sollen sich im Sein ausdrücken kann, wie also aus dem gesollten Sein ein existierendes Sein werden kann.
Verfassung, Souveränität und Ausnahmezustand.
Der herrschenden Meinung der Rechtsphilosophie, vor allem aber dem Liberalismus, warf Schmitt vor, das selbständige Problem der Rechtsverwirklichung zu ignorieren. Dieses Grundproblem ist für ihn unlösbar mit der Frage nach Souveränität, Ausnahmezustand und einem "Hüter der Verfassung" verknüpft. Anders als liberale Denker, denen er vorwarf, diese Fragen auszublenden, definierte Schmitt den Souverän als diejenige staatliche Gewalt, die in letzter Instanz, also ohne die Möglichkeit Rechtsmittel einzulegen, entscheidet. Den Souverän betrachtet er als handelndes Subjekt und nicht als Rechtsfigur. Laut Schmitt ist er nicht juristisch geformt, aber durch ihn entsteht die juristische Form, indem der Souverän die Rahmenbedingungen des Rechts herstellt. „Die Ordnung muss hergestellt sein, damit die Rechtsordnung einen Sinn hat.“ Wie Campagna betont, hängt damit allerdings auch das Schicksal der Rechtsordnung von der sie begründenden Ordnung ab.
Als erster entwickelte Schmitt keine Staatslehre, sondern eine "Verfassungslehre". Die Verfassung bezeichnete er in ihrer positiven Substanz als „eine konkrete politische Entscheidung über Art und Form der politischen Existenz“. Diesen Ansatz grenzt er mit der Formel „Entscheidung aus dem normativen Nichts“ positivistisch gegen naturrechtliche Vorstellungen ab. Erst wenn der souveräne Verfassungsgeber bestimmte Inhalte als Kern der Verfassung hervorhebt, besitzt die Verfassung demnach einen substanziellen Kern.
Zum politischen Teil der modernen Verfassung gehören für Schmitt etwa die Entscheidung für die Republik, die Demokratie und den Parlamentarismus, wohingegen das Votum für die Grundrechte und die Gewaltenteilung den rechtsstaatlichen Teil der Verfassung ausmacht. Während der politische Teil das Funktionieren des Staates konstituiert, zieht der rechtsstaatliche Teil, so Schmitt, diesem Funktionieren Grenzen. Eine Verfassung nach dieser Definition hat immer einen politischen Teil, nicht unbedingt aber einen rechtsstaatlichen. Damit Grundrechte überhaupt wirksam sein können, muss es für Schmitt zunächst einen Staat geben, dessen Macht sie begrenzen. Mit diesem Konzept verwirft er implizit den naturrechtlichen Gedanken universeller Menschenrechte, die für jede Staatsform unabhängig von durch den Staat gesetztem Recht gelten, und setzt sich auch hier in Widerspruch zum Liberalismus.
Jede Verfassung steht in ihrem Kern, argumentiert Schmitt, nicht zur Disposition wechselnder politischer Mehrheiten, das Verfassungssystem ist vielmehr unveränderlich. Es sei nicht der Sinn der Verfassungsbestimmungen über die Verfassungsrevision, ein Verfahren zur Beseitigung des Ordnungssystems zu eröffnen, das durch die Verfassung konstituiert werden soll. Wenn in einer Verfassung die Möglichkeit einer Verfassungsrevision vorgesehen ist, so solle das keine legale Methode zu ihrer eigenen Abschaffung etablieren.
Durch die politische Verfassung, also die Entscheidung über Art und Form der Existenz, entsteht demzufolge eine Ordnung, in der Normen wirksam werden können "(„Es gibt keine Norm, die auf ein Chaos anwendbar wäre“)". Im eigentlichen Sinne politisch ist eine Existenzform nur dann, wenn sie kollektiv ist, wenn also ein vom individuellen Gut eines jeden Mitglieds verschiedenes kollektives Gut im Vordergrund steht. In der Verfassung, so Schmitt, drücken sich immer bestimmte Werte aus, vor deren Hintergrund unbestimmte Rechtsbegriffe wie die „öffentliche Sicherheit“ erst ihren konkreten Inhalt erhalten. Die Normalität könne nur vor dem Hintergrund dieser Werte überhaupt definiert werden. Das wesentliche Element der Ordnung ist dabei für Schmitt die Homogenität als Übereinstimmung aller bezüglich der fundamentalen Entscheidung hinsichtlich des politischen Seins der Gemeinschaft. Dabei ist Schmitt bewusst, dass es illusorisch wäre, eine weitreichende gesellschaftliche Homogenität erreichen zu wollen. Er bezeichnet die absolute Homogenität daher als „idyllischen Fall“.
Seit dem 19. Jahrhundert besteht für Schmitt die Substanz der Gleichheit vor allem in der Zugehörigkeit zu einer bestimmten Nation. Homogenität in der modernen Demokratie ist aber nie völlig zu verwirklichen, sondern es liegt stets ein „Pluralismus“ partikularer Interessen vor, daher sei die „Ordnung“ immer gefährdet. Die Kluft von Sein und Sollen kann jederzeit aufbrechen. Der für Schmitt zentrale Begriff der Homogenität ist zunächst nicht ethnisch oder gar rassistisch gedacht, sondern vielmehr positivistisch: Die Nation verwirklicht sich in der Absicht, gemeinsam eine Ordnung zu bilden. Nach 1933 stellte Schmitt sein Konzept allerdings ausdrücklich auf den Begriff der „Rasse“ ab.
Der Souverän schafft und garantiert in Schmitts Denken die Ordnung. Hierfür hat er das Monopol der letzten Entscheidung. Souveränität ist für Schmitt also juristisch von diesem Entscheidungsmonopol her zu definieren "(„Souverän ist, wer über den Ausnahmezustand entscheidet“)", nicht von einem Gewalt- oder Herrschaftsmonopol aus. Die im Ausnahmezustand getroffenen Entscheidungen (Verurteilungen, Notverordnungen etc.) lassen sich aus seiner Sicht hinsichtlich ihrer Richtigkeit nicht anfechten („Dass es die zuständige Stelle war, die eine Entscheidung fällt, macht die Entscheidung "[…]" unabhängig von der Richtigkeit ihres Inhaltes“). Souverän ist immer derjenige, der den Bürgerkrieg vermeiden oder wirkungsvoll beenden kann.
Die Ausnahmesituation hat daher den Charakter eines heuristischen Prinzips:
Repräsentation, Demokratie und Homogenität.
Der moderne Staat ist für Schmitt demokratisch legitimiert. Demokratie in diesem Sinne bedeutet die „Identität von Herrscher und Beherrschten, Regierenden und Regierten, Befehlenden und Gehorchenden“. Zum Wesen der Demokratie gehört die „Gleichheit“, die sich allerdings nur nach innen richtet und daher nicht die Bürger anderer Staaten umfasst. Innerhalb eines demokratischen Staatswesens sind alle Staatsangehörigen gleich. Demokratie als Staatsform setzt laut Schmitt immer ein „politisch geeintes Volk“ voraus. Die demokratische Gleichheit verweist damit auf eine Gleichartigkeit bzw. Homogenität. In der Zeit des Nationalsozialismus bezeichnete Schmitt dieses Postulat nicht mehr als „Gleichartigkeit“, sondern als „Artgleichheit“.
Die Betonung der Notwendigkeit einer relativen Homogenität teilt Schmitt mit seinem Antipoden Hermann Heller, der die Homogenität jedoch sozial und nicht politisch verstand. Heller hatte sich im Jahre 1928 brieflich an Schmitt gewandt, da er eine Reihe von Gemeinsamkeiten im verfassungspolitischen Urteil bemerkt hatte. Neben der Frage der politischen Homogenität betraf das vor allem die Nutzung des Notverordnungsparagraphen Art. 48 in der Weimarer Verfassung, zu der Schmitt 1924 ein Referat auf der Versammlung der Staatsrechtslehrer gehalten hatte, mit dem Heller übereinstimmte. Der Austausch brach jedoch abrupt wieder ab, nachdem Heller Schmitts Begriff des Politischen Bellizismus vorgeworfen hatte. Schmitt hatte diesem Urteil vehement widersprochen.
In der Frage der politischen Homogenität hat sich auch das Bundesverfassungsgericht in dem berühmten Maastricht-Urteil 1993 auf eine relative politische Homogenität berufen:
Dabei bezog es sich ausdrücklich auf Hermann Heller, obwohl der Sachverhalt inhaltlich eher Schmitt hätte zugeordnet werden müssen. Dazu schreibt der Experte für Öffentliches Recht Alexander Proelß 2003: „Die Benennung Hellers zur Stützung der Homogenitätsvoraussetzung des Staatsvolkes geht jedenfalls fehl […]. Das Gericht dürfte primär das Ziel verfolgt haben, der offenbar als wenig wünschenswert erschienenen Zitierung des historisch belasteten Schmitt auszuweichen.“
In seinem Essay "Die geistesgeschichtliche Lage des heutigen Parlamentarismus" (1923) äußerte sich Schmitt über den Umgang mit dem als nicht homogen Erachteten:
Hinter den bloß partikularen Interessen muss es, davon geht Schmitt im Sinne Rousseaus aus, eine "volonté générale" geben, also ein gemeinsames, von allen geteiltes Interesse. Diese „Substanz der Einheit“ ist eher dem Gefühl als der Rationalität zugeordnet. Wenn eine starke und bewusste Gleichartigkeit und damit die politische Aktionsfähigkeit fehlt, bedarf es nach Schmitt der Repräsentation. Wo das Element der Repräsentation in einem Staat überwiege, nähere sich der Staat der Monarchie, wo indes das Element der Identität stärker sei, nähere sich der Staat der Demokratie. In dem Moment, in dem in der Weimarer Republik der Bürgerkrieg als reale Gefahr am Horizont erschien, optierte Schmitt daher für einen souveränen Reichspräsidenten als Element der „echten Repräsentation“. Den Parlamentarismus bezeichnete er dagegen als „unechte Fassade“, die sich geistesgeschichtlich überholt habe. Das Parlament lehnte er als „Hort der Parteien“ und „Partikularinteressen“ ab. In Abgrenzung dazu unterstrich er, dass der demokratisch legitimierte Präsident die Einheit repräsentiere. Als Repräsentant der Einheit ist aus dieser Sicht der Souverän der „Hüter der Verfassung“, der politischen Substanz der Einheit.
Diktatur, Legalität und Legitimität.
Das Instrument, mit dem der Souverän die gestörte Ordnung wiederherstellt, ist Schmitt zufolge die „Diktatur“, die nach seiner Auffassung das Rechtsinstitut der Gefahrenabwehr darstellt (vgl. Artikel Ausnahmezustand). Eine solche Diktatur, verstanden in der altrömischen Grundbedeutung als Notstandsherrschaft zur „Wiederherstellung der bedrohten Ordnung“, ist nach Schmitts Beurteilung zwar durch keine Rechtsnorm gebunden, trotzdem bildet das Recht immer ihren Horizont. Zwischen dieser Diktatur und der „Rechtsidee“ besteht dementsprechend nur ein relativer, kein absoluter Gegensatz.
Die Diktatur, so Schmitt, sei ein bloßes Mittel, um einer gefährdeten „Normalität“ wieder diejenige Stabilität zu verleihen, die für die Anwendung und die Wirksamkeit des Rechts erforderlich ist. Indem der Gegner sich nicht mehr an die Rechtsnorm hält, wird die Diktatur als davon abhängige Antwort erforderlich. Die Diktatur stellt somit die Verbindung zwischen Sein und Sollen (wieder) her, indem sie die Rechtsnorm vorübergehend suspendiert, um die „Rechtsverwirklichung“ zu ermöglichen. Schmitt:
Das „Wesen der Diktatur“ sieht er im Auseinanderfallen von Recht und Rechtsverwirklichung:
Schmitt moniert, dass die „liberale Rechtsphilosophie“ diesem selbständigen bedeutenden „Problem der Rechtsverwirklichung“ mit Ignoranz begegne, da ihre Vertreter auf den „Normalfall“ fixiert seien und den Ausnahmefall ausblendeten. Campagna fasst diese Schmittsche Position wie folgt zusammen:
Analog können nach Schmitt auch Legalität und Legitimität auseinanderfallen. Dies diagnostizierte er etwa in der Endphase der Weimarer Republik. Ein nur noch funktionalistisches Legalitätsystem, so Schmitt 1932, drohe, sich gegen sich selbst zu wenden und damit die eigene Legalität und Legitimität letztlich selbst aufzuheben: Bei Richard Thoma „ist wenigstens noch das bürgerlich-rechtliche System selbst mit seinem Gesetzes- und Freiheitsbegriff heilig, die liberale Wertneutralität wird als ein Wert angesehen und der politische Feind – Faschismus und Bolschewismus – offen genannt. Anschütz dagegen geht die Wertneutralität eines nur noch funktionalistischen Legalitätssystems bis zur absoluten Neutralität gegen sich selbst und bietet den legalen Weg zur Beseitigung der Legalität selbst, sie geht also in ihrer Neutralität bis zum Selbstmord.“ Diese Kritik an dem Wertrelativismus der herrschenden Lehre verdichtete Schmitt in einer berühmten Formulierung:
Legal ist eine Handlung, wenn sie sich restlos einer allgemeinen Norm des positiven Rechts subsumieren lässt. Die Legitimität hingegen ist für Schmitt nicht unbedingt an diese Normen gebunden. Sie kann sich auch auf Prinzipien beziehen, die dem positiven Recht übergeordnet sind, etwa das „Lebensrecht des Staates“ oder die Staatsräson. Die Diktatur beruft sich dementsprechend auf die Legitimität. Sie ist nicht an positive Normierungen gebunden, sondern nur an die Substanz der Verfassung, also ihre Grundentscheidung über Art und Form der politischen Existenz. Gemäß Schmitt muss sich die Diktatur selbst überflüssig machen, d. h. sie muss die Wirklichkeit so gestalten, dass der Rückgriff auf eine außerordentliche Gewalt überflüssig wird. Die Diktatur ist bei Vorliegen einer Verfassung notwendig kommissarisch, da sie keinen anderen Zweck verfolgen kann, als die Verfassung wieder in Gültigkeit zu bringen. Der Diktator ist somit eine konstituierte Gewalt "(pouvoir constitué)", die sich nicht über den Willen der konstituierenden Gewalt "(pouvoir constituant)" hinwegsetzen kann. In Abgrenzung davon gibt es laut Schmitt eine „souveräne Diktatur“, bei der der Diktator erst eine Situation herstellt, die sich aus seiner Sicht zu bewahren lohnt. Hier hatte Schmitt vor allem den souveränen Fürsten vor Augen. Dies bedeutet in der Konsequenz, was Schmitt auch formulierte: Souveräne Diktatur und Verfassung schließen einander aus.
Krieg, Feindschaft, Völkerrecht.
Homogenität, die für Schmitt zum Wesenskern der Demokratie gehört, setzt auf einer höheren Ebene immer Heterogenität voraus. Einheit gibt es nur in Abgrenzung zu einer Vielheit. Jedes sich demokratisch organisierende Volk kann dies folglich nur im Gegensatz zu einem anderen Volk vollziehen. Es existiert für dieses Denken also immer ein „Pluriversum“ verschiedener Völker und Staaten. Wie das staatliche Recht, so setzt für Schmitt auch das internationale Recht („Völkerrecht“) eine konkrete Ordnung voraus.
Diese konkrete Ordnung war seit dem Westfälischen Frieden von 1648 die internationale "Staaten"ordnung als Garant einer internationalen Rechtsordnung. Da Schmitt den Untergang dieser "Staaten"ordnung konstatiert, stellt sich für ihn jedoch die Frage nach einem neuen konkreten Sein internationaler Rechtssubjekte, das eine „seinswirkliche“ Grundlage für eine internationale Rechtsordnung garantieren könne.
Historisch wurde laut Schmitt eine solche Ordnung immer durch Kriege "souveräner Staaten" hergestellt, die ihre politische Idee als "Ordnungsfaktor" im Kampf gegen andere durchsetzen wollten. Erst wenn die Ordnungsansprüche an eine Grenze gestoßen sind, etabliere sich in einem Friedensschluss ein stabiles Pluriversum, also eine "internationale Ordnung" "(„Sinn jedes nicht sinnlosen Krieges besteht darin, zu einem Friedensschluss zu führen“)". Es muss erst eine als „normal“ angesehene Teilung des Raumes gegeben sein, damit es zu einer wirksamen internationalen "Rechtsordnung" kommen kann.
Durch ihre politische Andersartigkeit sind die pluralen Gemeinwesen füreinander immer potentielle Feinde, solange keine globale Ordnung hergestellt ist. Schmitt hält jedoch entschieden an einem eingeschränkten Feindbegriff fest und lässt damit Platz für die "Idee des Rechts". Denn nur mit einem Gegenüber, der als (potentieller) Gegner und nicht als absoluter Feind betrachtet wird, ist ein Friedensschluss möglich. Hier stellt Schmitt die Frage nach der „Hegung des Krieges“. Das "ethische Minimum der Rechtsidee" ist für ihn dabei das Prinzip der "Gegenseitigkeit". Dieses Element dürfe in einem Krieg niemals wegfallen, das heißt, es müssten auch dem Feind im Krieg immer dieselben Rechte zuerkannt werden, die man für sich selbst in Anspruch nimmt.
Schmitt unterscheidet dabei folgende Formen der Feindschaft: "konventionelle Feindschaft", "wirkliche Feindschaft" und "absolute Feindschaft". Zur "absoluten Feindschaft" komme es paradoxerweise etwa dann, wenn sich eine Partei den Kampf für den Humanismus auf ihre Fahne geschrieben habe. Denn wer zum Wohle oder gar zur Rettung der gesamten Menschheit kämpfe, müsse seinen Gegner als „Feind der gesamten Menschheit“ betrachten und damit zum „Unmenschen“ deklarieren. In Anlehnung an Pierre-Joseph Proudhon heißt es bei Schmitt: „Wer Menschheit sagt, will betrügen“.
Die Verallgemeinerung dieser These vollzog Schmitt 1960 in einem Privatdruck mit dem Titel "Die Tyrannei der Werte". Hier lehnte er den gesamten Wertediskurs ab:
Den konventionellen Krieg bezeichnete Schmitts als "gehegten Krieg" (ius in bello), an dem Staaten und ihre regulären Armeen beteiligt sind, sonst niemand. Auf diesem Prinzip basieren, so Schmitt, auch die nach dem Zweiten Weltkrieg abgeschlossenen vier Genfer Konventionen, da sie eine souveräne Staatlichkeit zugrunde legen. Schmitt würdigte diese Konventionen als „Werk der Humanität“, stellt aber zugleich fest, dass sie von einer "Wirklichkeit" ausgingen, die als solche nicht mehr existiere. Daher könnten sie ihre eigentliche Funktion, eine wirksame Hegung des Krieges zu ermöglichen, nicht mehr erfüllen. Denn mit dem Verschwinden des zugrundeliegenden "Seins" habe auch das "Sollen" keine Grundlage mehr.
Den Gedanken, dass Frieden nur durch Krieg möglich ist, da nur der echte Friedensschluss nach einem Krieg eine konkrete Ordnung herbeiführen kann, formulierte Schmitt zuerst im Zusammenhang der Auseinandersetzung mit dem Ausgang des Ersten Weltkrieges. Auf der Grundlage dieser Vorstellung proklamierte er die provozierende Alternative: „Frieden oder Pazifismus“. Als Beispiel für einen Friedensschluss, der keine neue Ordnung im Sinne eines Friedensschlusses brachte, betrachtete Schmitt den Versailler Vertrag und die Gründung des Genfer Völkerbunds 1920. Der Völkerbund führte, aus Schmitts Perspektive, nur die Situation des Krieges fort. Er erschien ihm daher wie eine Fortsetzung dieses Krieges mit anderen Mitteln. Dazu schrieb er während des Zweiten Weltkriegs 1940:
Konkret bezog sich Schmitt auf die Ruhrbesetzung durch französische und belgische Truppen im Januar 1923, mit der beide Länder auf einen Streit um die Höhe der deutschen Reparationen reagierten, um sich eine Schlüsselstellung in Bezug auf die noch unbesetzten Teile des Ruhrgebiets sowie die wichtigsten Handelszentren zu verschaffen. Begründet wurde diese Aktion mit der Sicherung der „Heiligkeit der Verträge“. Dies geißelte Schmitt als ideologische Verschleierung handfester Interessenpolitik. Eine solche Juridifizierung der Politik, die nur die Machtansprüche der starken Staaten bemäntele, bezeichnete er als Hauptgefahr für den Frieden. Sie sei eine Art verdeckter Fortsetzung des Krieges, die durch den gewollten Mangel an Sichtbarkeit des Feindes zu einer Steigerung der Feindschaft im Sinne des absoluten Feindbegriffs und letztlich zu einem diskriminierenden Kriegsbegriff führe. Eine konkrete Ordnung werde durch einen solchen „unechten“ Frieden nicht geschaffen. Statt einer Ordnung entstehe die Fassade einer Ordnung, hinter der die politischen Ziele changieren:
Großraumordnung.
Schmitt diagnostiziert ein Ende der Staatlichkeit "(„Die Epoche der Staatlichkeit geht zu Ende. Darüber ist kein Wort mehr zu verlieren“)". Das Verschwinden der Ordnung souveräner Staatlichkeit sieht er in folgenden Faktoren: Erstens lösen sich die Staaten auf, es entstehen neuartige Subjekte internationalen Rechts; zweitens ist der Krieg "ubiquitär" – also allgegenwärtig und allverfügbar – geworden und hat damit seinen konventionellen und gehegten Charakter verloren.
An die Stelle des Staates treten Schmitt zufolge mit der Monroe-Doktrin 1823 neuartige „Großräume“ mit einem Interventionsverbot für raumfremde Mächte. Hier habe man es mit neuen Rechtssubjekten zu tun: Die USA zum Beispiel sind laut Schmitt seit der Monroe-Doktrin kein gewöhnlicher Staat mehr, sondern eine führende und tragende Macht, deren politische Idee in ihren Großraum, nämlich die westliche Hemisphäre ausstrahlt. Damit ergibt sich eine Einteilung der Erde in mehrere durch ihre geschichtliche, wirtschaftliche und kulturelle Substanz erfüllte Großräume. Der „Zusammenhang von Reich, Großraum und Nichtinterventionsprinzip“ war für Schmitt „grundlegend“. Sobald dieses Prinzip völkerrechtlich anerkannt sei, werde „ein abgrenzbares Nebeneinander auf einer sinnvoll aufgeteilten Erde denkbar [sein] und kann der Grundsatz der Nichtintervention seine ordnende Wirkung in einem neuen Völkerrecht entfalten“. 1939 schrieb er, „Großraum“ und der „Universalismus“ der westlichen Gesellschaften stünden für den „Gegensatz einer klaren, auf dem Grundsatz der Nichtintervention raumfremder Mächte beruhenden Raumordnung gegen eine universalistische Ideologie, die die ganze Erde in das Schlachtfeld ihrer Interventionen verwandelt und sich jedem natürlichen Wachstum lebendiger Völker in den Weg stellt“. Den seit 1938 entwickelten Begriff des Großraums füllte Schmitt 1941 nationalsozialistisch; die politische Idee des deutschen Reiches sei die Idee der „Achtung jedes Volkes als einer durch Art und Ursprung, Blut und Boden bestimmten Lebenswirklichkeit“. An die Stelle eines Pluriversums von Staaten tritt für Schmitt also ein "Pluriversum von Großräumen".
Vor dem Primat einer unbedingten Wahrung der nationalen Souveränität vor allem autoritärer Staaten gegenüber den Forderungen der Demokratie lehnte Schmitt internationale Sanktionen ab. Sie galten ihm als Ausdruck doktrinärer Menschenrechtspolitik und als „indirekte Gewalt“, die im Gegensatz zum offenen Krieg eine diskriminierende Maßnahme darstellte und „auf Grund einer übervölkischen, moralischen oder rechtlichen Autorität“ anmaßende Entscheidungen über fremde Politik treffe. Schmitt zufolge ist der universelle Anspruch auf Wahrung der Menschenrechte eine Gefahr für die Souveränität von „Volk“ und „Raum“.
Gleichzeitig gehe den Staaten das Monopol der Kriegsführung (ius ad bellum) verloren. Es treten neue, nichtstaatliche Kombattanten hervor, die als "kriegsführende Parteien" auftreten. Im Zentrum dieser neuen Art von Kriegsführung sieht Schmitt Menschen, die sich "total" mit dem Ziel ihrer Gruppe identifizieren und daher keine einhegenden Grenzen für die Verwirklichung dieser Ziele kennen. Sie sind bereit, Unbeteiligte, Unschuldige, ja sogar sich selbst zu opfern. Damit werde die Sphäre der Totalität betreten und damit auch der Boden der "absoluten Feindschaft".
Theorie des Partisanen.
Nach Schmitt hat man es nach dem Verlust des staatlichen Kriegsführungsmonopols mit einem neuen Typus zu tun, dem Partisan, der sich durch vier Merkmale auszeichnet: Irregularität, starkes politisches Engagement, Mobilität und „tellurischen Charakter“ (Ortsgebundenheit). Der Partisan ist nicht mehr als regulärer Kombattant erkennbar, er trägt keine Uniform, er verwischt bewusst den Unterschied zwischen Kämpfern und Zivilisten, der für das Kriegsrecht konstitutiv ist. Durch sein starkes politisches Engagement unterscheidet sich der Partisan vom Piraten. Dem Partisan geht es in erster Linie darum, für politische Ziele zu kämpfen, mit denen er sich restlos identifiziert. Der lateinische Ursprung des Wortes Partisan sei, was oft vergessen werde, „Anhänger einer Partei“.
Der Partisan ist durch seine "Irregularität" hochgradig "mobil". Anders als stehende Heere kann er rasch und unerwartet zuschlagen und sich ebenso schnell zurückziehen. Er agiert nicht hierarchisch und zentral, sondern dezentral und in Netzwerken. Sein "tellurischer Charakter" zeigt sich nach Schmitt darin, dass der Partisan sich an einen konkreten Ort gebunden fühle, den er verteidige. Der verortete oder ortsgebundene Partisan führt primär einen Verteidigungskrieg. Dieses letzte Merkmal beginnt der Partisan, so Schmitt, aber zu verlieren. Der Partisan wird zu einem „Werkzeug einer mächtigen Weltpolitik treibenden Zentrale, die ihn im offenen oder im unsichtbaren Krieg einsetzt und nach Lage der Dinge wieder abschaltet“.
Während der "konventionelle Feind" im Sinne des gehegten Krieges einen bestimmten Aspekt innerhalb eines von allen Seiten akzeptierten Rahmens in Frage stellt, stelle der "wirkliche Feind" den Rahmen als solchen in Frage. Der nicht mehr ortsgebundene Partisan verkörpert die Form der "absoluten Feindschaft" und markiert somit den Übergang zu einem "totalen Krieg". Für Schmitt erfolgte der Übergang vom „autochthonen zum weltaggressiven Partisan“ historisch mit Lenin. Es geht, betont Schmitt, in den neuen Kriegen, die von der "absoluten Feindschaft" der Partisanen geprägt sind, nicht mehr darum, neue Gebiete zu erobern, sondern eine Existenzform wegen ihrer angeblichen Unwertigkeit zu vernichten. Aus einer kontingent definierten Feindschaft wird eine ontologisch oder intrinsisch bestimmte. Mit einem solchen Feind ist kein gehegter Krieg und auch kein Friedensschluss mehr möglich. Schmitt nennt das im Unterschied zum „paritätisch geführten Krieg“ den „diskriminierend geführten Krieg“. Sein diskriminierender Kriegsbegriff bricht mit der Reziprozität und beurteilt den Feind in Kategorien des Gerechten und Ungerechten. Wird der Feindbegriff in einem solchen Sinne total, wird die "Sphäre des Politischen" verlassen und die des "Theologischen" betreten, also die Sphäre der letzten, nicht mehr verhandelbaren Unterscheidung. Der Feindbegriff des Politischen ist nach Schmitt ein durch die "Idee des Rechts" begrenzter Begriff. Es ist demzufolge gerade die Abwesenheit einer ethischen Bestimmung des Kriegsziels, welche eine „Hegung des Krieges“ erst ermöglicht, weil ethische Postulate, da sie grundsätzlich nicht verhandelbar sind, zur „theologischen Sphäre“ gehören.
Der Nomos der Erde.
Nach dem Wegfall der Ordnung des Westfälischen Friedens stellt sich für Schmitt die Frage nach einer neuen "seins"mäßigen Ordnung, die das Fundament eines abstrakten "Sollens" werden kann. Für ihn ist dabei klar, dass es keine „One World Order“ geben kann. Die Entstaatlichung der internationalen Ordnung dürfe nicht in einen Universalismus münden. Laut Schmitt ist allein eine Welt der Großräume mit Interventionsverbot für andere Großmächte in der Lage, die durch die Westfälische Ordnung garantierte Hegung des Krieges zu ersetzen.
Er konstruiert 1950 einen „Nomos der Erde“, der – analog zur souveränen Entscheidung – erst die Bedingungen der Normalität schafft, die für die Verwirklichung des Rechts notwendig sind. Somit ist dieser räumlich verstandene Nomos der Erde für Schmitt die Grundlage für jede völkerrechtliche Legalität. Ein wirksames Völkerrecht wird nach seiner Auffassung immer durch eine solche konkrete Ordnung begründet, niemals durch bloße Verträge. Sobald auch nur ein Element der Gesamtordnung diese Ordnung in Frage stelle, sei die Ordnung als solche in Gefahr.
Der erste Nomos war für Schmitt lokal, er betraf nur den europäischen Kontinent. Nach der Entdeckung Amerikas sei der Nomos global geworden, da er sich nun auf die ganze Welt ausgedehnt habe. Für den "neuen Nomos" der Erde, der sich für Schmitt noch nicht herausgebildet hat, sieht die Schmittsche Theorie drei prinzipielle Möglichkeiten: a) eine alles beherrschende Macht unterwirft sich alle Mächte, b) der Nomos, in dem sich souveräne Staaten gegenseitig akzeptieren, wird wiederbelebt, c) der Raum wird zu einem neuartigen Pluriversum von Großmächten.
Die Verwirklichung der zweiten Variante hält Schmitt für unwahrscheinlich. Die erste Variante lehnt er entschieden ab („Recht durch Frieden ist sinnvoll und anständig; Friede durch Recht ist imperialistischer Herrschaftsanspruch“). Es dürfe nicht sein, dass „egoistische Mächte“, womit er vor allem die Vereinigten Staaten im Blick hat, die Welt unter ihre Machtinteressen stellen. Das "Ius belli" dürfe nicht zum Vorrecht einer einzigen Macht werden, sonst höre das Völkerrecht auf, paritätisch und universell zu sein. Somit bleibt gemäß Schmitt nur das Pluriversum einiger weniger Großräume. Voraussetzung dafür wäre in der Konsequenz des Schmittschen Denkens allerdings ein globaler Krieg, da nur eine kriegerische Auseinandersetzung geeignet ist, einen neuen Nomos der Erde zu begründen.
Rezeption.
Gesamtausgabe.
Eine Gesamtausgabe der Werke Carl Schmitts existiert nicht. 1988 plädierte der Politikwissenschaftler Bernard Willms dafür, Schmitt als „jüngsten Klassiker politischen Denkens“ aufzufassen und forderte u. a.: „Alle Werke zugänglich machen, ohne eine seiner Denkebenen auszulassen, eine kritische Gesamtausgabe vorbereiten, Studienausgaben edieren, eine Carl-Schmitt-Zeitschrift herausgeben.“ Im Jahr 1990 gründete sich um den Historiker Wolfgang J. Mommsen ein am Kulturwissenschaftlichen Institut Essen angesiedelter Arbeitskreis, dessen Ziel die Vorbereitung einer historisch-kritischen Gesamtausgabe war. Den Vorsitz hatte Reinhart Koselleck inne. Das Projekt sollte von der Fritz Thyssen-Stiftung finanziert werden. Neben dem Historiker Lothar Gall wurde der Politikwissenschaftler Wilhelm Hennis von der Stiftung um ein Gutachten zu diesem Vorhaben gebeten. Letzterer kam zu dem Schluss, dass es keinen Anlass für eine Schmitt-Gesamtausgabe gäbe, da seine Schriften „in einer ‚unverdorbenen‘, von ‚Missverständnissen‘ freien Fassung“ vorlägen und auch Schmitt zu Lebzeiten stets um die Pflege seines Nachruhms bemüht gewesen sei. Der Arbeitskreis erbrachte „keine editorisch greifbaren Resultate“ und das Vorhaben scheiterte letztlich aus nicht näher bekannt gewordenen Gründen.
Nachkriegszeit und Frankfurter Schule.
Nach 1945 war Schmitt wegen seines Engagements für den Nationalsozialismus vom liberalen und linksintellektuellen Standpunkt gesehen akademisch und publizistisch isoliert. Er wurde neben Ernst Jünger, Arnold Gehlen, Hans Freyer und Martin Heidegger als intellektueller Wegbereiter und Stütze des NS-Regimes angesehen.
Abgesehen davon hatte er jedoch zahlreiche Schüler, die das juristische Denken der frühen Bundesrepublik mitprägten. Dazu gehören Ernst Rudolf Huber, Ernst Forsthoff, Werner Weber, Roman Schnur, Hans Barion und Ernst Friesenhahn, die alle außer Friesenhahn und Schnur selbst durch längeres nationalsozialistisches Engagement belastet waren. Diese Schüler widmeten dem Jubilar jeweils zum 70. und 80. Geburtstag eine Festschrift, um ihm öffentlich ihre Reverenz zu erweisen ("Festschrift zum 70. Geburtstag für Carl Schmitt", 1959 und "Epirrhosis. Festgabe für Carl Schmitt zum 80. Geburtstag", 1968). Weitere Schüler Schmitts waren etwa der als Kanzlerberater bekannt gewordene politische Publizist Rüdiger Altmann oder der einflussreiche Publizist Johannes Gross. Jüngere Verfassungsjuristen wie Ernst-Wolfgang Böckenförde oder Josef Isensee wurden nachhaltig von Carl Schmitt beeinflusst und lassen sich der von ihm begründeten Denktradition zuordnen, die gelegentlich auch als "Schmitt-Schule" bezeichnet wird. Bekannt ist das an Schmitt angelehnte sogenannte Böckenförde-Diktum, wonach der freiheitliche, säkularisierte Staat von Voraussetzungen lebe, die er selbst nicht garantieren könne. Verschiedene öffentliche Persönlichkeiten suchten in der Frühzeit der Bundesrepublik den Rat oder die juristische Expertise Schmitts, darunter etwa der Spiegel-Herausgeber Rudolf Augstein 1952.
Jürgen Habermas fasst die Wirkung Schmitts in der frühen Bundesrepublik in seiner Studie „Carl Schmitt in der politischen Geistesgeschichte der Bundesrepublik“ so zusammen:
Weitere Anknüpfungspunkte gab es in – auch für Zeitgenossen – überraschenden Zusammenhängen. Beispielsweise berichtete der jüdische Religionsphilosoph Jacob Taubes, der mit Schmitt in Kontakt stand, dass dessen Verfassungslehre in der Diskussion um eine mögliche israelische Verfassung herangezogen worden sei. Dies habe er als Research-Fellow 1949 zufällig durch eine erfolglose Bestellung des Buches in der Bibliothek der Jerusalemer Hebräischen Universität festgestellt: „Einen Tag, nachdem ich Carl Schmitts Verfassungslehre angefordert hatte, kam ein dringender Anruf vom Justizministerium, der Justizminister Pinchas Rosen (früher Rosenblüth) brauche Carl Schmitts Verfassungslehre zur Ausarbeitung einiger schwieriger Probleme in den Entwürfen zur Verfassung des Staates Israel“. Taubes, damals Professor an der FU Berlin, war eine wichtige Bezugsfigur für die westdeutsche Studentenbewegung. Er hatte etwa ein Flugblatt der Kommunarden Rainer Langhans und Fritz Teufel, das indirekt zu Brandanschlägen aufrief, in einem gerichtlichen Gutachten in die Tradition der „europäischen Avantgarde“ gestellt und damit zu einem Freispruch beigetragen. Die Anschlussfähigkeit Schmitts für Taubes illustriert die Inhomogenität der Rezeption.
Schmitt wirkte aber auch in andere Disziplinen hinein. Aus der Geschichtswissenschaft gelten vor allem Reinhart Koselleck "(Kritik und Krise)" und Christian Meier "(Die Entstehung des Politischen bei den Griechen)" als von Schmitt beeinflusst, aus der Soziologie Hanno Kesting "(Geschichtsphilosophie und Weltbürgerkrieg)." In der Philosophie rezipierten Odo Marquard "(Individuum und Gewaltenteilung)", Hermann Lübbe "(Der Streit um Worte: Sprache und Politik)" und Alexandre Kojève "(Hegel, eine Vergegenwärtigung seines Denkens)" schmittsche Theoreme. Auch Hans Blumenberg "(Legitimität der Neuzeit)" beschäftigte sich in seinem Werk an verschiedenen Stellen teils kritisch, teils anerkennend mit Schmitt. In der Religionswissenschaft war es vor allem Jacob Taubes "(Abendländische Eschatologie)", der an Schmitts "Politischer Theologie" anknüpfte. Eine Analyse vom Gesichtspunkt der politischen Ontologie legte Hans Buchheim vor, Ernst Vollrath leitete den Begriff des Politischen in Anlehnung an Hannah Arendt aus der Urteilskraft ab.
Eine besonders diffizile Frage in der Wirkungsgeschichte Carl Schmitts ist dessen Rezeption in der intellektuellen und politischen Linken. Sie war Gegenstand scharfer Kontroversen. Auf der einen Seite galt Schmitt als eine Art intellektueller Hauptgegner – Ernst Bloch bezeichnete ihn etwa als eine der „Huren des völlig mortal gewordenen, des nationalsozialistischen Absolutismus“ –, auf der anderen Seite gab es argumentative Übereinstimmungen und inhaltliche Bezugnahmen.
In einem breit diskutierten Aufsatz über Schmitt und die Frankfurter Schule argumentierte Ellen Kennedy 1986, dass Jürgen Habermas in seiner Parlamentarismuskritik Schmittsche Argumentationsfiguren verwendet habe. In Iring Fetschers Frankfurter Seminaren um 1968 spielte Schmitt – wie Eike Hennig berichtet – eine große Rolle. Reinhard Mehring schrieb dazu 2006:
Der Politikwissenschaftler Wilhelm Hennis hatte in seiner Freiburger Antrittsrede im Juli 1968 mit dem an Schmitt anknüpfenden Titel "Verfassung und Verfassungswirklichkeit" das Verfassungsdenken der „Linken“ – genauer: die Unterscheidung zwischen den formalen Organisationsformen und den materiellen Prinzipien der Grundrechte – als „reinen Carl Schmitt frankfurterisch“ bezeichnet. Schmitt, dem Hennis die Schrift zugesandt hatte, antwortete im Dezember 1968 mit einer lobenden Bemerkung in Richtung der Autoren der "Frankfurter Schule":
Neben Anknüpfungspunkten von Schmitt mit Protagonisten der Frankfurter Schule gab es Elemente einer „problematischen Solidarität“ (Friedrich Balke) zwischen der politischen Philosophin Hannah Arendt und Carl Schmitt. In ihrem Werk "Elemente und Ursprünge totaler Herrschaft" von 1951 postulierte Arendt, es habe eine relativ kleine Zahl „wirklicher Künstler und Gelehrter“ gegeben, die sich „in Nazideutschland nicht nur gleichgeschaltet hatten, sondern überzeugte Nazis waren“ […]. „Zur Illustration sei an die Karriere Carl Schmitts erinnert, der zweifellos der bedeutendste Mann in Deutschland auf dem Gebiet des Verfassungs- und Völkerrechts war und sich die allergrößte Mühe gegeben hat, es den Nazis recht zu machen. Es ist ihm nie gelungen.“ Vielmehr sei er von den Nationalsozialisten „schleunigst durch zweit- und drittrangige Begabungen wie Theodor Maunz, Werner Best, Hans Frank, Gottfried Neesse und Reinhold Hoehn "[sic! recte: Reinhard Höhn]" ersetzt und an die Wand gespielt [worden].“ Arendt verwendete einige Schmittsche Begriffe wie „politische Romantik“ (nach der Ausgabe von 1925) und bezieht sich in diesem Zusammenhang auf dessen Thesen über die Verbindung von Philistern und politischen Romantikern. Sogar seiner 1934 erschienenen nationalsozialistisch geprägten Schrift "Staat, Bewegung, Volk" entnahm sie Gedankengänge. In ihre umfangreiche Bibliographie am Schluss des Werkes nahm sie neben diese beiden Bücher auch Schmitts Arbeiten "Totaler Feind, totaler Krieg, totaler Staat" (1937) und "Völkerrechtliche Großraumordnung für raumfremde Mächte" (1941) auf. Mit ihrem Konzept einer auf pluraler öffentlicher politischer Kommunikation beruhenden Rätedemokratie war Arendt jedoch im Grundsätzlichen weit von Schmitts Auffassungen entfernt.
Ein Bindeglied zwischen Schmitt und der Frankfurter Schule war der Politologe Franz Neumann, der als junger Jurist Schmitt rezipiert hatte. Die auch bei Neumann anklingende Parlamentarismuskritik lässt sich von Neumann über Arendt bis zu Habermas verfolgen. Carl J. Friedrich, der mit Arendt, Fraenkel und Neumann die Totalitarismustheorie begründete, war in jungen Jahren ebenfalls ein Bewunderer von Schmitt und besonders dessen Theorie der Diktatur. Auch im philosophischen Umfeld bestanden Kontakte zu sozialistischen Theoretikern. Neben Walter Benjamin ist hier vor allem der marxistische Philosoph Georg Lukács zu nennen, der Schmitts "Politische Romantik" rühmte, wofür dieser sich durch ein Zitat „des bekannten kommunistischen Theoretikers“ im "Begriff des Politischen" von 1932 revanchierte. Benjamin hatte Schmitt am 9. Dezember 1930 einen Brief geschrieben, in dem er diesem sein Buch "Ursprung des deutschen Trauerspiels" übersandte.
Studentenbewegung und 68er-Bewegung.
In der Bundesrepublik wurden die Verbindungen einiger Protagonisten der Studentenbewegung, etwa Hans Magnus Enzensbergers – Hans Mathias Kepplinger nennt sie „rechte Leute von links“ – zu Carl Schmitt diskutiert. Der Politologe Wolfgang Kraushaar vom Hamburger Institut für Sozialforschung – ehemals selbst Teil der Studentenbewegung – vertrat die Auffassung, Hans-Jürgen Krahl müsse Carl Schmitts "Theorie des Partisanen" rezipiert haben, wie sich aus den Kriterien und Abgrenzungen zur Definition des Guerilleros ergebe, die dieser gemeinsam mit Rudi Dutschke 1967 auf einer berühmten SDS-Delegiertentagung entwickelt hatte (sog. Organisationsreferat). Diese Orientierung linker Theoretiker an der von Schmitt 1963 publizierten Partisanentheorie ist in der Tat nicht unwahrscheinlich, hatte doch z. B. der damalige Maoist Joachim Schickel in seinem 1970 edierten Buch "Guerilleros, Partisanen – Theorie und Praxis" ein „Gespräch über den Partisanen“ mit Carl Schmitt veröffentlicht und diesen als „einzig erreichbaren Autor“ bezeichnet, „der sich kompetent zum Thema geäußert hat“. In einem anderen Zusammenhang stellte Kraushaar die These auf, aus der Parlamentarismuskritik Johannes Agnolis, einem der wesentlichen Impulsgeber der Studentenrevolte, sprächen Gedanken rechter Denker wie Carl Schmitt, Gaetano Mosca und Vilfredo Pareto.
Auch der linke Studentenführer Jens Litten, Mitglied des SHB, führte im Jahre 1970 – zusammen mit Rüdiger Altmann – für den Norddeutschen Rundfunk ein Gespräch mit Schmitt, über das er in der protestantischen Wochenzeitung Deutsches Allgemeines Sonntagsblatt berichtete. Wenn Schmitt von seinen Schülern spreche, so Litten, dann tauchten Namen auf, die „bei der Linken Autorität genießen“. Für Schmitt sei dies selbstverständlich gewesen, denn: „links und rechts sind ihm Begriffe der politischen Vulgärsprache“.
Vor diesem Hintergrund wurde ein möglicher Einfluss Schmitts auf die 68er-Bewegung diskutiert, obwohl der Staatsrechtler bei linken Denkern gemeinhin als zentraler Antipode gesehen wird. Auch gibt es in den wenigsten Fällen direkte Bezugnahmen. Die Beeinflussung erfolgte in der Regel über linke Vordenker wie Fraenkel, Neumann oder Kirchheimer, die zeitweise stark von Schmitt beeinflusst waren. Der gemeinsame Anknüpfungspunkt war zumeist die Parlamentarismuskritik. Dieses Thema verband konservative Antiliberale mit einigen Theoretikern der sogenannten „Außerparlamentarischen Opposition“ (APO). Der Politikwissenschaftler Heinrich Oberreuter betonte 2002: „Die radikale Systemkritik ging über die von Carl Schmitt und Jürgen Habermas begründeten Systemzweifel gegenüber einem Parlamentarismus, der seine geistigen Grundlagen und seine moralische Wahrheit verloren habe, hinaus.“ Bereits 1983 hatte der Jurist Volker Neumann geschrieben: „Carl Schmitts Werk ist für die Linken attraktiv geblieben – bis heute. Das Interesse für ähnliche Problemlagen und eine vergleichbare Radikalität der Fragestellung lieferten das Material für eine liberale Kritik, die am Beispiel Schmitts und der Studentenbewegung die ‚Übereinstimmung der Extreme‘ konstatierte. Angesetzt hatte sie an der für das politische Selbstverständnis der Studentenbewegung wichtigen Parlamentarismuskritik Johannes Agnolis, die in die Kontinuität des von Schmitt geprägten Antiliberalismus und -Parlamentarismus gerückt wurde.“ Leonard Landois behauptete in seinem 2008 erschienenen Buch "Konterrevolution von links: Das Staats- und Gesellschaftsverständnis der '68er' und dessen Quellen bei Carl Schmitt", dass die Ursprünge des Staats- und Gesellschaftsverständnisses der Studentenbewegung bei Schmitt gesucht werden müssten. Zwar konnte Landois tatsächlich verschiedene Parallelen zwischen Schmitt und den 68ern aufzeigen, er musste allerdings konzedieren, dass Vertreter der 68er mit Schmitt allenfalls indirekt Kontakt aufnahmen. Ebenso 2008 erschien Götz Alys sehr persönlich gefärbte Aufarbeitung der Studentenrevolte unter dem provokanten Titel "Unser Kampf – 1968". Er argumentiert, die 68er hätten „im Geiste des Nazi-Juristen Carl Schmitt“ den Pluralismus verachtet.
Ein Beispiel für einen direkten Schnittpunkt zwischen Schmitt und der 68er-Bewegung war eine Tagung des Sozialistischen Deutschen Studentenbundes (SDS) in Berlin. Der bekannte Hegel-Forscher Alexandre Kojève, der sich selbst als „einzigen echten Sozialisten“ bezeichnete, hatte im Rahmen der Veranstaltung mitgeteilt, sein nächstes Reiseziel sei Plettenberg: „Wohin soll man denn in Deutschland fahren? Carl Schmitt ist doch der Einzige, mit dem zu reden sich lohnt“. Aus dem engsten Umfeld Schmitts wird berichtet, dieser sei der Studentenrevolte gegenüber durchaus aufgeschlossen gewesen. Schmitt habe gemerkt: da bricht etwas auf. Das habe ihm gefallen. In diesem Sinne suchte er auch die konstruktive Auseinandersetzung mit Veröffentlichungen der 68er-Bewegung. So soll er etwa Texte des linken Literaturwissenschaftlers Helmut Lethen mit besonderem Interesse gelesen haben. Zudem habe er sich selbst nie als Konservativen betrachtet. Er habe eine Vorliebe für schillernde und extreme Figuren gleich welcher politischen Ausrichtung gehabt, solange sie ihm geistreich und unvoreingenommen erschienen. Dazu gehörte etwa auch Günter Maschke, der seine politische Sozialisierung beim SDS erlebte, dann politisches Asyl im Kuba Fidel Castros suchte und heute der Neuen Rechten zugeordnet wird.
Zuletzt gab es Kontroversen über das Werk des italienischen Philosophen Giorgio Agamben, der sich neben dem Poststrukturalisten Michel Foucault und dem Vordenker der Kritischen Theorie, Walter Benjamin, in zentralen Elementen auf Carl Schmitt und dessen Theorie des Ausnahmezustands stützt. Agambens Guantánamo-Kritik, die Gefangenen würden als „irreguläre Kombattanten“ „außerhalb der internationalen Ordnung der zivilisierten Welt gestellt“ ("hors la loi", wie Schmitt sagen würde), bedient sich Schmittscher Argumentationsmuster.
Jürgen Habermas erwähnt in einer Rezension der englischen Übersetzung zweier Schmitt-Werke „… Linke in der Bundesrepublik und, heute vor allem, in Italien, die den Teufel mit dem Beelzebub austreiben, indem sie das Loch der fehlenden marxistischen Demokratietheorie mit Carl Schmitts faschistischer Demokratiekritik stopfen“. Er konstatiert seit 1989 eine Schmitt-Renaissance: „Vorbereitet durch die ‚postmoderne‘ Rezeption der achtziger Jahre, hat Carl Schmitt seit 1989 erst recht Konjunktur: Nachholbedarf im Osten, freie Bahn im Westen für die Einstiegsdroge in den Traum vom starken Staat und von der homogenen Nation“.
Ein marxistischer Autor, der eine vielfach bemängelte Nähe zu Carl Schmitt aufweist, ist der französische Philosoph und langjähriges Mitglied der französischen Kommunistischen Partei, Étienne Balibar. Balibar hatte unter anderem den französischen Neudruck des Schmitt-Buches "Der Leviathan in der Staatslehre des Thomas Hobbes" – einer Publikation aus der NS-Zeit – mit einem Vorwort versehen. Daraufhin wurde ihm vorgeworfen, Schmitt in gefährlicher Weise zu verharmlosen.
Die Verwendung von Schmittschen Kategorien durch postmarxistische Theoretiker wie Michael Hardt, Antonio Negri, Giorgio Agamben, Chantal Mouffe, Gopal Balakrishnan oder auch die Rezeption durch das Theorie-Organ „Telos“ (eine zur Popularisierung der Ideen der Frankfurter Schule in den USA 1968 gegründete Zeitschrift) illustrieren die Anknüpfung an die frühe linke Rezeption Schmitts durch Benjamin, Fraenkel, Kirchheimer und Neumann. Vor allem die Interventionspolitik der Vereinigten Staaten (siehe etwa Irakkrieg) oder die Rolle der Vereinten Nationen als eine Art „Weltregierung“ werden häufig unter Rückgriff auf Schmittsche Theoreme abgelehnt. Teilweise wurden Schmitts Argumente gegen den Völkerbund auf US-amerikanische Politik übertragen und den Vereinigten Staaten eine ökonomische Interessenpolitik unter dem Schleier demokratischer Ziele zugeschrieben. Andererseits können sich die Befürworter von mit Natur- oder Menschenrechten begründeter Interventionen auf Schmitts Postulat der „absoluten Feindschaft“ bzw. „Tyrannei der Werte“ beziehen, die das Prinzip der Gegenseitigkeit im Völkerrecht aufhebe.
Das Projekt der Demaskierung bürgerlicher Strukturen als (ökonomische) Interessenpolitik durch Schmitt ist ein Punkt, den Linke wie Rechte aufgriffen. Auch Antiparlamentarismus, Antiliberalismus, Etatismus, Antiimperialismus und Antiamerikanismus stießen auf beiden Seiten des politischen Spektrums auf Interesse.
Volker Weiß bemerkt, dass Schmitt dem Prinzip der von ihm beschriebenen „absoluten Feindschaft“ ablehnend gegenübergestanden habe, da sie für ihn in seiner "Theorie des Partisanen" vor allem ein Merkmal der Siegermächte von 1945 gewesen sei. Die Nürnberger Prozesse seien für ihn ein Mittel zur endgültigen moralischen Vernichtung der Deutschen gewesen. Dabei habe Schmitt schlichtweg unterschlagen, dass die deutsche Seite „lange vor Nürnberg selbst alle Formen der ‚absoluten Feindschaft‘ praktiziert hatte“, da sie in ihrem Vorgehen gegen Juden und andere als „Feinde“ markierten Kräfte „vom Drang zur vollständigen Dehumanisierung und Vernichtung bestimmt“ gewesen sei. Auch Schmitts eigener Antisemitismus habe ebenfalls alle Züge „absoluter Feindschaft“ getragen. Schmitts Definition des „Großraums“ und sein Grundsatz der Nichtintervention fänden sich in der zustimmenden Haltung der deutschen und europäischen Neuen Rechten gegenüber Putins Russland wieder.
„Neue Rechte“.
Für die politische Rechte sind darüber hinaus vor allem Ethnopluralismus, Nationalismus, Kulturpessimismus und die Bewunderung für den italienischen Faschismus anschlussfähig. Hinzu kommt Schmitts Option für Ausnahmezustand und Diktatur zur Wahrung der politischen Ordnung, auch unter Verletzung des positiven Rechts. Daher stoßen Schmitts Werke auch heute noch auf ein reges Interesse in konservativen Kreisen (s. etwa die Rezeption durch die Frankfurter Allgemeine Zeitung) und im Umfeld der sogenannten Neuen Rechten (s. vor allem Junge Freiheit, Etappe, Staatsbriefe oder Criticón, selbiges gilt für die Nouvelle Droite in Frankreich). Führende Theoretiker der Neuen Rechten/Nouvelle Droite beschäftigten sich intensiv mit Carl Schmitt, allen voran Alain de Benoist, Günter Maschke und Armin Mohler (der sich selbst als seinen „Schüler“ bezeichnete). Aufgrund der aktualisierenden Rezeption aus neurechtem und rechtsextremistischem Umfeld taucht Schmitt regelmäßig in Publikationen des Verfassungsschutzes als Ahnherr revisionistischer Bestrebungen auf. So vermerkte etwa der Verfassungsschutz Mecklenburg-Vorpommern im Jahre 2003, die Zeitschrift Nation und Europa, das „bedeutendste rechtsextremistische Strategie- und Theorieorgan“, habe in antiamerikanischer Absicht auf völkerrechtliche Theoreme Schmitts Bezug genommen: „Die Forderungen nach einem Ausschluss ‚raumfremder Mächte‘ aus Europa knüpfen an die Auffassungen des Staatsrechtlers Carl Schmitt an, welcher zu Zeiten des ‚Dritten Reiches‘ für die Vorherrschaft Deutschlands in einem von den USA nicht beeinflussten Europa eintrat. Eine Trennung von Amerika soll im revisionistischen Sinn mit einer politisch motivierten Korrektur von Geschichtsauffassungen verbunden sein.“
Europäische Integration.
Im Zusammenhang mit dem europäischen Integrationsprozess wurde die Frage erörtert, ob die Großraumtheorie Carl Schmitts oder seine „Verfassungslehre des Bundes“ (1928) als Grundlage für das europäische Gemeinschaftskonzept bezeichnet werden kann. So wurde darauf hingewiesen, dass die von Schmitt angeführten Gründe für die Entstehung von Großräumen – grenzüberschreitende Anforderungen an Verkehr und Kommunikationstechnik, Berücksichtigung wirtschaftlicher Abhängigkeiten zwischen verschiedenen Volkswirtschaften – auch bei der Schaffung der Europäischen Gemeinschaften eine wichtige Rolle gespielt hätten. Auch sei Schmitts Beschreibung des Großraums als eine faktisch und rechtlich hinter dem Staat zurückbleibende völkerrechtliche Einheit für die Europäische Union zutreffend. Die These, die EU sei ein Großraum im Sinne Carl Schmitts, wurde aber auch zurückgewiesen. Europa sei, anders als bei Carl Schmitt, kein Raum, in dem sich Wirtschaft, Technik und Verwaltung einem supranationalen Primat unterzuordnen hätten; auch sei der Staat im Prozess der europäischen Integration keineswegs überflüssig, sondern geradezu entscheidende Integrationsvoraussetzung. Dagegen äußerte der Europarechtler Hans-Peter Folz 2006 die Auffassung, dass die Europäische Gemeinschaft geradezu ein Modellfall von Schmitts „Verfassungslehre des Bundes“ sei. Schmitt habe nämlich in seiner Verfassungslehre der traditionellen Unterscheidung von Bundesstaat und Staatenbund, die sich in der Analyse als unzureichend erwiesen habe, eine dritte Kategorie hinzugefügt: die nicht-konsolidierte Staatenverbindung. Mit dieser Kategorie sei es besser möglich, sich entwickelnde multistaatliche Gebilde wie die Europäische Union zu beschreiben. Als das Wesen des Bundes hatte Schmitt den unaufgelösten Konflikt zwischen dem Bund – als Zentrum einer auf Dauer angelegten Staatenverbindung – und den Gliedstaaten definiert. Der Bund lebt demnach von dem gleichberechtigten Nebeneinander zweier politischer Existenzen und der Unklarheit der Souveränitätsfrage. Die in einem Bund organisierten Einheiten können nach Schmitts Auffassung sogar auf miteinander unvereinbaren Prinzipien beruhen, solange es gelingt, existenzbedrohende Konflikte zu vermeiden. Diese Charakteristika ließen sich, so die These, auch bei der Europäischen Union beobachten. Dies zeige sich etwa an der unklaren Rechtsnatur der Europäischen Gemeinschaft und dem Fehlen einer abschließenden juristischen Definition des die Eigenständigkeit des Integrationsansatzes betonenden Begriffs der „Supranationalität“. Zwar hätten sich in der Rechtsprechung des Europäischen Gerichtshofs drei Wesensmerkmale der Supranationalität der Gemeinschaft herauskristallisiert – Supranationalität des Entscheidungsprozesses, Normative Supranationalität, Ausstattung der Gemeinschaft mit eigenen Rechtsetzungskompetenzen –, alle diese Merkmale seien aber umstritten geblieben. Daher seien Konfliktvermeidungsstrategien entwickelt worden, die trotz grundsätzlich unterschiedlicher Positionen das Bestehen der Gemeinschaft sichern sollten (z. B. Streit um Beschlussfassungsregeln im Ministerrat gem. Art. 148 EGV, Luxemburger Kompromiss vom 29. Januar 1966, Grundrechtskonflikt zwischen EuGH und BVerfG, Justizkonflikt um die Bananen-Marktordnung). Folz urteilt daher: „Zusammenfassend können wir feststellen, dass die Gemeinschaft in all ihren wesentlichen supranationalen Merkmalen von Konflikten zwischen der Gemeinschaft und ihren Mitgliedsstaaten geprägt worden ist. Das Modell des Bundes im Schmittschen Sinne ist deshalb auf die Gemeinschaft übertragbar und hervorragend geeignet, das Verhältnis zwischen der Gemeinschaft und ihren Mitgliedsstaaten zu beschreiben.“
„Schmitt-Renaissance“.
Seit etwa drei bis vier Jahrzehnten ist international ein neues Interesse an Schmitts Denken zu verzeichnen. Trotz seines Rufes als „Kronjurist des Dritten Reiches“ und seines vielfach dokumentierten Antisemitismus wird es zunehmend rezipiert, etwa wenn über seinen Einfluss auf die amerikanischen Neokonservativen diskutiert oder der bewaffnete Terrorismus als „Partisanenstrategie“ analysiert wird.
Heinrich Meier hebt den Umstand hervor, dass mit Leo Strauss – bei all dessen kritischer Auseinandersetzung mit Schmitts Begriff des Politischen – eine führende Persönlichkeit der frühen Neokonservativen in den USA stark von dem umstrittenen Staatsrechtslehrer beeinflusst war. In einem Interview mit dem österreichischen Magazin Profil im Februar 2017 sagte der deutsche Historiker Heinrich August Winkler über den damaligen Berater des US-Präsidenten Donald Trump Steve Bannon:
Auch die Theorien des Politikwissenschaftlers und Machiavelli-Experten Herfried Münkler zu „asymmetrischen Kriegen“ und zum „Imperium“ knüpfen an Thesen Carl Schmitts an. Der postmoderne Philosoph und Begründer des Dekonstruktivismus Jacques Derrida setzte sich in seinem Buch "Politik der Freundschaft" (2000) sehr ausführlich mit Schmitt auseinander und proklamierte bereits in einem Interview 1994 die Notwendigkeit einer neuen Rezeption: „Kurz gesagt, ich glaube, man muß Schmitt, wie Heidegger, neu lesen – und auch das, was sich zwischen ihnen abspielt. Wenn man die Wachsamkeit und den Wagemut dieses entschieden reaktionären Denkers ernst nimmt, gerade da, wo es auf Restauration aus ist, kann man seinen Einfluß auf die Linke ermessen, aber auch zugleich die verstörenden Affinitäten – zu Leo Strauss, Walter Benjamin und einigen anderen, die das selbst nicht ahnen.“
Volksrepublik China.
Schmitts Bedeutung in der chinesischen Politischen Theorie ist im 21. Jahrhundert gewachsen, vor allem seit Xi Jinpings Machtübernahme im Jahre 2012. In einem einführenden Artikel unterstrich die Sinologin Flora Sapio das Interesse insbesondere für Schmitts Unterscheidung zwischen Freund und Feind: „Since Xi Jinping became China’s top leader in November 2012, the friend-enemy distinction so crucial to Carl Schmitt’s philosophy has found ever wider applications in China, in both 'Party theory' and academic life.“ Bekannte chinesische Schmittianer sind zum Beispiel der Theologe Liu Xiaofeng, der Politikwissenschaftler Wang Shaoguang und der Rechtswissenschaftler und Regierungsberater Jiang Shigong.
Die erste bedeutende Rezeptionswelle von Schmitt in China fing mit Liu Xiaofengs Schriften am Ende der 1990er Jahre an. In dieser Phase des Übergangs wurde Schmitt sowohl für liberale, als auch für nationalistische und konservative Intellektuelle zu einem wichtigen Bezugspunkt, um Antworten auf aktuelle Probleme Chinas und der chinesischen Regierungspolitik zu finden. Wie damals wird die Rezeption auch noch im 21. Jahrhundert dominiert vom Thema zentralstaatlicher Machtentfaltung und von der Frage, inwiefern ein „starker Staat“ nötig ist, um Chinas Modernisierung anzuleiten. In dieser Hinsicht sehen manche Autoren Schmitt als einen Gewährsmann gegen den Liberalismus während andere die Meinung vertreten, dass Schmitts Theorien Chinas Aufstieg unterstützen könnten.
Die Verwendung von Schmitts Denken im chinesischen Kontext ist aber auch Gegenstand kritischer Analysen. Diese unterschiedlichen Rezeptionslinien hängen mit unterschiedlichen Interpretationen von Schmitts Verhältnis zum Faschismus und Nationalsozialismus zusammen. Während einige Autoren Schmitt als treuen Gefolgsmann darstellen, versuchen andere, wie zum Beispiel Liu Xiaofeng, Schmitts Rolle als eine bloß instrumentale herunterzuspielen und seine Schriften von ihrem geschichtlichen Entstehungskontext zu trennen. Nach dieser Lesart war Schmitt eigentlich auf der Suche nach einem alternativen, einem "eigenen" deutschen Weg zur Moderne – was genau der Grund dafür sei, warum sein Denken für China interessant sein könne. Allgemein betrachtet ist die chinesische Rezeption ambivalent: sie ist vielfältig und dynamisch, aber auch ideologisch geprägt. Obwohl andere Akademiker vorsichtiger hinsichtlich Schmitts Verteidigung der staatlichen Macht sind, weil die Gefahr des Totalitarismus noch nicht vergessen ist, akzeptieren trotzdem fast alle die Notwendigkeit bzw. die Idee einer starken Staatsmacht in dieser neuerlichen Übergangsperiode, während ein „dogmatischer Glaube“ an den Liberalismus für China ungeeignet wäre. Indem sie die Gefahr sozialer Unordnung besonders betonen, teilen letztendlich viele – trotz aller Unterschiede – Schmitts Plädoyer für den starken Staat.
Schriften (Auswahl).
Der umfangreiche Nachlass Schmitts wird im Landesarchiv Nordrhein-Westfalen Abteilung Rheinland verwahrt und ist derzeit Basis zahlreicher Quelleneditionen.
Literatur.
Diese Literaturliste umfasst nur aktuellere und synoptische Arbeiten. Für eine umfangreichere Literaturliste siehe Biographisch-Bibliographisches Kirchenlexikon. Eine kommentierte Übersicht über die internationale Sekundärliteratur (auf 528 Seiten) bei de Benoist (2010).
Übersicht Primär- und Sekundärliteratur:
Leben.
Monographien
Aufsätze:
Tagebücher:
Briefwechsel:
Gespräche |
842 | 7564 | https://de.wikipedia.org/wiki?curid=842 | Charlotte De Corday De'Armont | |
845 | 211087 | https://de.wikipedia.org/wiki?curid=845 | Caligula | Gaius Caesar Augustus Germanicus (* 31. August 12 in Antium als Gaius Iulius Caesar; † 24. Januar 41 in Rom), postum bekannt als Caligula, war von 37 bis 41 römischer Kaiser. Caligulas Jugend war von den Intrigen des ehrgeizigen Prätorianerpräfekten Seianus geprägt. Nach hoffnungsvollem Regierungsbeginn, der durch persönliche Schicksalsschläge getrübt wurde, übte der Kaiser seine Herrschaft zunehmend als autokratischer Monarch aus und ließ in Hochverratsprozessen zahlreiche Senatoren in willkürlicher Ausschöpfung seiner Amtsgewalt zum Tode verurteilen. Seine Gewaltherrschaft endete mit seiner Ermordung durch die Prätorianergarde und Einzelmaßnahmen zur Vernichtung des Andenkens an den Kaiser.
Da die antiken Quellen Caligula praktisch einhellig als wahnsinnigen Gewaltherrscher beschreiben und sich zahlreiche Skandalgeschichten um die Person des Kaisers ranken, ist er wie kaum eine zweite Herrscherpersönlichkeit der Antike zum Gegenstand belletristischer und populärwissenschaftlicher Bearbeitungen geworden. Einige Beiträge der jüngeren Forschung diskutieren allerdings alternative Ansichten und gelangen so zu einer differenzierteren Darstellung.
Anfänge.
Herkunft.
Geboren als Sohn des Germanicus und Agrippina der Älteren mit dem Namen Gaius Iulius Caesar, war Caligula durch die Mutter Urenkel von Kaiser Augustus, durch den Vater Urenkel von Augustus’ Frau Livia (siehe Julisch-claudische Dynastie). Der Name "Caligula" (lateinisch: „Soldatenstiefelchen“, Diminutiv zu "caliga") ist von den genagelten Soldatenstiefeln der Legionäre abgeleitet, den "caligae", welche die Rheinlegionen für den mitreisenden Sohn ihres Oberbefehlshabers Germanicus anfertigen ließen, und war zu Lebzeiten ungebräuchlich. Sein vollständiger Titel zum Zeitpunkt seines Todes war "Gaius Caesar Augustus Germanicus, Pontifex maximus, Tribunicia potestate IV, Consul IV, Imperator, Pater patriae".
Jugend.
Schon als Kleinkind begleitete Caligula seine Eltern 14 bis 16 n. Chr. nach Germanien, wo er zum Liebling der Truppen wurde, und anschließend in den Orient. Als Caligula sieben Jahre alt war, verstarb sein Vater Germanicus im Jahr 19 während dieser Orientreise, wobei der Statthalter Syriens Gnaeus Calpurnius Piso beschuldigt wurde, ihn vergiftet zu haben. Caligulas Mutter kehrte mit ihm nach Rom zurück. Der Hof von Caligulas Großonkel Tiberius war zu dieser Zeit von der intriganten Politik des mächtigen Prätorianerpräfekten Seianus geprägt, der den Plan fasste, durch systematische Ausschaltung der natürlichen Erben des Tiberius seine eigene Nachfolge durchzusetzen. Diesem Plan kam der Tod des Drusus im Jahre 23, den Seianus’ Frau später als geplanten Giftmord ihres Gatten darstellte, sehr gelegen. Seianus denunzierte Caligulas Mutter, Agrippina die Ältere, bei Tiberius mit Verschwörungsvorwürfen, woraufhin Agrippina und Caligulas ältester Bruder Nero Caesar im Jahre 29 in die Verbannung gehen mussten, während derer beide in den Tod gedrängt wurden. Nur ein Jahr später wurde unter ähnlichen Umständen der zweitälteste Bruder, Drusus Caesar, in den Kerker geworfen, wo er durch Nahrungsentzug getötet wurde. Damit war Caligula der einzige überlebende Thronfolger.
Das Sorgerecht für den jungen Caligula war bereits im Jahr 27 an Livia, die Mutter des Tiberius und Witwe des Augustus, übergegangen. Nach ihrem Tod wurde Caligula der Obhut seiner Großmutter Antonia übergeben. Wohl um ihn als einzig verbliebenen männlichen Erben des Tiberius vor Mordversuchen zu schützen, wuchs der jugendliche Caligula isoliert im Umfeld seiner drei Schwestern Agrippina, Drusilla und Iulia Livilla auf, unter denen er eine besondere Zuneigung zu Drusilla entwickelte. Dass Tiberius an seiner Regierungsfähigkeit zweifelte und ihn deshalb vom politischen Leben ausschloss, ist vermutlich eine spätere Konstruktion, da die Quellen sonst von der allgemeinen Beliebtheit des jungen Caligula berichten: Vorsicht und Intelligenz hätten den späteren Kaiser die Zeit bis zur Hinrichtung des Seianus im Jahre 31 überleben lassen, allerdings in späteren Jahren eine ständige Angst vor vermeintlichen oder realen Verschwörungen mitverursacht. Vermutlich von dem engen Umgang Caligulas mit seinen Schwestern motiviert, der später zur propagandistischen Erhöhung der Frauen führte, wird vom Inzest der Geschwister berichtet. Aus dynastischen Gründen – Kindszeugungen in engen Verwandtenverhältnissen waren in der Kaiserfamilie nicht ungewöhnlich – kann ein Inzest allerdings nicht ausgeschlossen werden.
Tiberius rief Caligula noch im Jahr 31 an seinen Alterssitz auf Capri. Dort gelang es dem jungen Mann, das Vertrauen des amtierenden Kaisers zu gewinnen. Sueton berichtet, dass dieses Vertrauensverhältnis auf dem gemeinsamen Interesse an Folterungen und sexuellen Ausschweifungen beruhte. Es dürfte sich hierbei jedoch um einen zumindest tendenziösen Passus des anekdotenreichen Biographen handeln, der ähnliche Berichte auch anderen Kaisern zuschreibt, ebenso bei dem überlieferten Gerücht, Caligula habe den kranken Tiberius mit einem Kissen erstickt: Besonders bei Todesfällen von Herrschern kamen häufig unbestätigte Gerüchte auf.
„Der Kaiser“.
Regierungsantritt.
Mit dem Tod des Tiberius am 16. März 37 war die Nachfolge Caligulas weit sicherer als noch bei den mehrfach wechselnden Nachfolgekandidaten unter Augustus. Zwar hatte Tiberius in seinem Testament seinen leiblichen Enkel, Caligulas Cousin Tiberius Gemellus, zum Miterben eingesetzt, der Senat erklärte es aber auf Initiative des Prätorianerpräfekten und Nachfolgers des Seianus, Macro, für ungültig. Die von Augustus geschaffene Prätorianergarde mit ihrem Präfekten hatte traditionell ein enges Verhältnis zum Kaiser und mag daher gehofft haben, den jungen Caligula als Marionette zu gebrauchen. Jedenfalls ließ sie ihn am 18. März zum Kaiser ausrufen. Nach feierlichem Einzug in Rom übertrug der Senat am 28. März beinahe sämtliche Amtsfunktionen und Privilegien, die Augustus und Tiberius über die Zeit auf sich vereinigt hatten, an Caligula. Der übergangene Tiberius Gemellus wurde zunächst mit der Adoption durch Caligula entschädigt, die ihm Hoffnung auf Teilhabe an der Herrschaft sowie eine spätere Nachfolge machen konnte.
Nach den unruhigen letzten Regierungsjahren des Tiberius, die durch den Putschversuch des Seianus und die anschließenden Prozesse geprägt waren, wurden mit Caligulas Herrschaftsantritt große Hoffnungen verbunden, unter anderem wegen der Popularität seines Vaters Germanicus, der als Wunschnachfolger des Augustus gegolten hatte.
Die ersten zwei Jahre (37–38 n. Chr.).
In den ersten Monaten seiner Regentschaft machte sich Caligula bei den herrschaftstragenden Gruppen beliebt: Er beschloss Steuersenkungen, setzte die unter Tiberius ausufernden Hochverratsprozesse aus und gewährte den bereits mit der Verbannung bestraften Senatoren die Rückkehr. Auch mit der Ausweisung einer Gruppe von Lustknaben distanzierte er sich von Tiberius, der deren Dienste in Anspruch genommen haben soll. Der Prätorianergarde ließ er erstmals bei Regierungsantritt ein Geldgeschenk zukommen und erkaufte sich damit die Gunst dieser als kaiserliche Leibgarde dienenden Elitetruppe. Der Tempel des vergöttlichten Augustus wurde symbolträchtig zu Beginn seiner Herrschaft eingeweiht, um Abstammung und Verbundenheit zum ersten Kaiser zum Ausdruck zu bringen. Diese Maßnahmen brachten Caligula allerdings an den Rand des Ruins. Kostspielig waren auch die von Caligula veranstalteten aufwändigen Wagenrennen, Tierhetzen und Gladiatorenkämpfe, die während seiner Regierungszeit grausamer wurden und dabei dem Geschmack der Zeit entgegenkamen: Blutige Gladiatorenkämpfe wurden in der Antike, soweit bekannt, zumindest nicht nachhaltig kritisiert. Viele Grausamkeiten des Kaisers sind im Zusammenhang mit Spielen oder öffentlichen Spektakeln überliefert.
Möglicherweise aus Überanstrengung litt Caligula nach 6 Monaten Herrschaft an einer schweren Krankheit. Ihre Folgen kleidete Sueton in die Worte: "Bis hierhin vom Kaiser, jetzt muss über das Scheusal berichtet werden". Dieser Periodisierung liegt ein gängiges Erzählmuster der antiken Biographie zugrunde, die das Leben eines Menschen möglichst in Kategorien aufzuteilen bestrebt war. Tatsächlich begannen in der Zeit nach Caligulas Genesung die ersten Hochverratsprozesse: Der Kaiser ließ seinen ehemaligen Miterben und Adoptivsohn Tiberius Gemellus, seinen Schwiegervater Silanus, den Vater seiner ersten, bereits 36 oder 37 im Kindbett verstorbenen Frau Iunia Claudilla, und den einflussreichen Prätorianerpräfekten Macro unter dem Vorwurf einer Verschwörung verhaften und zum Selbstmord zwingen. Caligula hatte damit seine Herrschaft abgesichert und gegen Einflussnahme geschützt.
Außenpolitik.
Caligulas kurze Regierungszeit sah nur vergleichsweise kleine militärische Unternehmungen, deren Chronologie weitgehend unklar ist. Im Herbst 39 überschritt er mit einem Heer die Alpen, um in der Tradition seiner Vorfahren die als noch nicht abgeschlossen angesehene Expansion in Germanien und Britannien fortzuführen. Seine Ambitionen in Germanien waren indes nicht von Erfolg gekrönt: Weder konnte der Kaiser nach Abzug der Truppen signifikante territoriale Gewinne verzeichnen noch erhielten die provisorischen Militärterritorien des ober- und niedergermanischen Heeres vor 85 n. Chr. den Status einer Provinz mit der hierzu notwendigen Infrastruktur. Im Zusammenhang mit dem Britannienfeldzug berichten die Quellen ausschließlich von großenteils grotesk anmutenden Aktionen des Kaisers. So ließ er Seemuscheln an den Stränden des Ärmelkanals sammeln, die als exotische Beutestücke den Erfolg der Operation suggerieren sollten. Pläne zu einem aufwendigen Triumph, bei dem eigens angeworbene gallische Gladiatoren mit rot gefärbten Haaren als germanische Kriegsgefangene aufgeführt werden sollten, wurden in diesem Umfang nicht verwirklicht. Die Münzprägung des Caligula betont indes die militärische Größe des Kaisers und steht damit im Widerspruch zur literarischen Überlieferung.
Außerhalb militärischer Führungsstellen war Caligulas Politik erfolgreicher. Es gelang ihm 37, den im Umkreis der kaiserlichen Familie aufgewachsenen, romfreundlichen Herodes Agrippa I. als König von Judäa einzusetzen und sein Herrschaftsgebiet zwei Jahre später zu erweitern. Außerdem ließ Caligula unter unbekannten Umständen im Jahre 40 Ptolemaios, den König von Mauretania, zunächst nach Rom einladen, anschließend ermorden und sein Gebiet annektieren. Die Quellen berichten von Neidgefühlen des Caligula, welche der eindrucksvolle Auftritt des Königs im Amphitheater auslöste. Politische Motive für die Ermordung, die zur Expansion des Reiches beitrug, sind jedoch anzunehmen.
Kunstraub.
Caligula ist auch als Liebhaber und Räuber nichtitalischer Kunstschätze, bevorzugt aus dem opulenten Bestand griechischer Tempel, in die Geschichte eingegangen. So wollte er die Zeus-Statue des Phidias, ein Weltwunder der Antike, nach Rom bringen lassen. Dieses Vorhaben scheiterte der Überlieferung nach daran, dass die Statue durch einen Abbau zerstört worden wäre und sich mächtige Wunderzeichen ereignet hätten. Seit Fortschreiten der Expansion und administrativer Einteilung des Reiches in Provinzen war Kunstraub durch Statthalter und Verwaltungsbeamte keine Seltenheit, was sich in den zahlreichen Belegen diesbezüglicher Anklagen spiegelt, die vermutlich bei weitem nicht das tatsächliche Ausmaß zum Ausdruck bringen. Da Caligula sich nur kurzfristig im Osten des Reiches aufhielt, mag die Initiative zum Kunstraub im Einzelfall eher beim verantwortlichen Statthalter als beim Kaiser gelegen haben. Caligula wird diese Missstände zumindest nicht unterbunden haben, da es gerade in seinem Interesse lag, seine Herrschaft mit hellenistischen Symbolen auszuschmücken. Als Augenzeuge berichtet Philon von Alexandria über die luxuriöse Ausstattung der Privatgemächer des Kaisers mit Kunstwerken aus aller Welt.
Bautätigkeiten.
Caligulas freizügiger Umgang mit Geld schlug sich in bisweilen spektakulären Bauvorhaben nieder: Archäologisch nachweisbar sind ein Leuchtturm bei Boulogne in Nordfrankreich, der Wiederaufbau des Palastes des Polykrates in Samos, der Baubeginn zweier stadtrömischer Aquädukte, Reparaturen an der Stadtmauer und von Tempeln in Syrakus sowie eines Bades in Bologna. Literarische Belege existieren für ehrgeizige Projekte zum Bau eines Kanals über den Isthmus von Korinth, von Straßenverbindungen über die Alpen, den Ausbau des Hafens von Rhegium sowie der zwei sogenannten Nemi-Schiffe, zweier riesiger Schiffe, die sowohl kultischen Zwecken als auch zum Privatgebrauch des Kaisers dienten. Die Schiffe waren mit zwei im Lago di Nemi bereits 1446 entdeckten und 1929–31 von Archäologen geborgenen Schiffswracks aufgrund eindeutiger Inschriften identifiziert worden. 1944 wurden sie allerdings bei einem Brand im eigens für sie gebauten Museum zerstört.
In Rom wurde an den Abhängen des Vatikanhügels ein Circus errichtet, das Theater des Pompeius renoviert, ein aufwendiges Amphitheater aus Holzbalken aufgestellt, das Staatsgefängnis (Carcer Tullianus), das der Hinrichtung politischer Gegner diente, ausgebaut sowie die Privatgemächer und Lustgärten des Kaisers luxuriös ausgestaltet (die sogenannten Gärten der Kaisermutter). Als besonders spektakulär und Zeichen der Eitelkeit des Kaisers wird eine mehr als fünf Kilometer lange Schiffsbrücke über die Bucht von Neapel zwischen Puteoli und Baiae beschrieben. Archäologische Überreste von Bauten an der Residenz des Caligula wurden 2003 auf dem Gelände des Forum Romanum gefunden.
Ehen.
In erster Ehe war Caligula mit Iunia Claudilla verheiratet. Die Hochzeit wurde 33 n. Chr. noch vom Kaiser Tiberius ausgerichtet. Etwa vier Jahre später starb sie, vermutlich bei der Geburt ihres ersten Kindes. Ein weiterer Schicksalsschlag traf den Kaiser am 10. Juni 38 mit dem Tod seiner Lieblingsschwester Drusilla, für die er Ehrungen beschloss, die in Rom nur bei männlichen Herrscherpersönlichkeiten üblich waren. Bald nach dem Todesfall heiratete Caligula die vornehme Römerin Livia Orestilla; ihre Eheschließung mit Gaius Calpurnius Piso ließ Caligula noch während der Zeremonie wieder annullieren, nur um sie am selben Tag selbst zu heiraten. Bereits wenige Tage später erfolgte die Scheidung. Später schickte er Livia ins Exil, weil er sie verdächtigte, die Beziehung zu Piso wieder aufgenommen zu haben. Seine dritte Ehefrau war Lollia Paulina, die ebenfalls bereits verheiratet war (mit Publius Memmius Regulus) und von der er sich auch nach kurzer Zeit wieder trennte. In vierter Ehe war Caligula mit Milonia Caesonia verheiratet, mit der er Ende 39 oder Anfang 40 eine Affäre begonnen haben soll. Da diese in einem moralisch fragwürdigen Ruf stand, soll die römische Öffentlichkeit von der Eheschließung nicht sehr angetan gewesen sein. Nur einen Monat nach der Hochzeit – laut Sueton sogar am Tag der Vermählung – gebar Milonia eine Tochter, die ihren Namen Iulia Drusilla nach Caligulas verstorbener Schwester erhielt.
„Das Scheusal“.
Ermordung.
Nach nur vier Jahren der Herrschaft fand Caligula den Tod durch die Hand der Prätorianergarde. Initiator war ihr Offizier Cassius Chaerea, wobei die Verschwörung von einem Teil des Senatorenstandes und anderen einflussreichen Persönlichkeiten am Kaiserhof mitorganisiert wurde. Antike Todesdarstellungen sind üblicherweise stark stilisiert: Laut den antiken Berichten erfolgte das Attentat im unterirdischen Korridor eines Theaters, wobei Caligula nach der Art einer rituellen Opferung abgeschlachtet wurde, um so den Personenkult des Caligula in einer symbolischen Rollenumkehrung zu vergelten.
Caligulas Ermordung erfolgte, nachdem er den Senat durch demonstrative Ausschöpfung der verfassungsrechtlichen Möglichkeiten des Prinzipats brüskiert hatte. Über die Gründe und den genauen Ablauf der Verschwörung gibt Flavius Josephus den ausführlichsten Bericht, über die Chronologie der vorausgegangenen Vorgänge lässt sich allerdings wenig Sicheres sagen, da die Darstellung des Sueton für diese Zeit ungeordnet, diejenige des Cassius Dio teilweise verloren und in den erhaltenen Teilen nicht widerspruchsfrei ist. Laut dessen Zeugnis begann Caligulas radikaler Regierungswechsel mit einer im Laufe des Jahres 39 vor dem Senat gehaltenen Rede. Die wörtliche Wiedergabe dieser Rede ist höchstwahrscheinlich eine unhistorische Ausgestaltung des Geschichtsschreibers, doch liegt ein in diesem Jahr erfolgter Umbruch auch durch andere Quellenaussagen nahe.
Gewalt.
Hauptgrund der Verschwörung war Caligulas ausufernde Anwendung von Gewalt, vor allem gegen Senatoren: Der Kaiser ließ die Hochverratsprozesse, die nach dem Tod des Tiberius vorübergehend ausgesetzt wurden, etwa gegen Mitte der Regierungszeit in großem Umfang wieder aufnehmen. Mindestens 36 Fälle teils grausamer Hinrichtungen oder anderer schwerer Bestrafungen wie der Verbannung sind literarisch unter Angabe des Namens belegt, wobei es sich bei diesen Opfern in der Regel um Angehörige der Oberschicht, teilweise auch um Soldaten oder Bühnendarsteller handelte. In einigen Fällen ließ Caligula Senatoren foltern, die rechtlich grundsätzlich vor der Folter immun waren. Hierzu boten allerdings die Hochverratsgesetze einen gewissen rechtlichen Spielraum. Sueton erwähnt die Ermordung von Verbannten, ohne allerdings konkrete Fälle anzuführen. Caligula mag durch seine Jugenderfahrungen ein übertriebenes Bedrohungspotenzial wahrgenommen haben. Durch die Prozesse wuchs tatsächlich die Gefahr eines Mordanschlages.
Dem Kaiser wird daher das Motto "oderint, dum metuant" (zu dt.: "Sollen sie mich doch hassen, solange sie mich fürchten") zugeschrieben, das auf ein Zitat einer Tragödie des Lucius Accius zurückgeht. Hierin spiegelt sich der politische Stil der autokratischen Herrschaft, die Widerstand durch Gewalt oder zumindest deren demonstrative Zurschaustellung bekämpft, anstatt durch Konsensbildung ein derartiges Risiko zu verringern sucht. In ähnlicher Weise soll Caligula geäußert haben: „Hätte das Volk von Rom doch nur einen einzigen Nacken! [… damit ich es mit einem Mal erwürgen kann]“. Wörtliche Zitate in der antiken Literatur sind allerdings in ihrer Historizität fragwürdig; sie dienten dazu, den Charakter einer Person pointiert zum Ausdruck zu bringen.
Hinrichtungen von Senatoren werden beinahe ausnahmslos als Willkürakte des Kaisers beschrieben, der entweder aus sadistischer Mordlust oder in Reaktion auf geringfügige Vergehen (wie Kritik an der Kleidung des Kaisers) handelte. Das Gleiche gilt für grausame Tötungen, besonders im Umfeld des nichtaristokratischen Kaiserhofs, bei denen der Kaiser seinen Anspruch auf totale Ermessensfreiheit zynisch zum Ausdruck brachte. Abweichend davon lässt sich aus der allgemeinen Regierungsrichtung vermuten, dass es Caligula letztlich mehr oder weniger um eine systematische Entmachtung des Senats ging, indem er einige Senatoren beseitigen ließ und die übrigen einschüchterte. Für diese Annahme sprechen Auffälligkeiten seiner Regierung, die im Folgenden diskutiert werden.
Es finden sich außerdem überlieferte Berichte von Zwangsprostitution und Vergewaltigungen seitens des Kaisers, denen Angehörige der Oberschicht zum Opfer fielen. In der Forschung werden jedoch einige Berichte über Caligula (und andere Kaiser) in ihrer Historizität angezweifelt und dem Bereich der Tyrannentopik zugewiesen, da sich auch bei anderen negativ bewerteten Herrschern der römischen und vorrömischen Antike vergleichbare Berichte in auffälliger Weise wiederholen. Unbestätigte Gerüchte sowie literarische Bearbeitungen, z. B. im Rahmen von Tragödien, oder Bezugnahmen auf typologisch vergleichbare Herrscherpersönlichkeiten finden oft als historische Berichte Eingang in die Literatur. So geben einige Geschichtsschreiber in methodischen Abschnitten darüber Auskunft, dass fiktionale Elemente zur nachdrücklichen Charakterisierung einer Person legitim seien. Nur selten lässt sich allerdings mit letzter Sicherheit entscheiden, was zu diesem Bereich zu zählen ist, so dass sich gerade im Falle Caligulas eine Reihe historischer Probleme ergeben.
Caligula und der Senat.
Durch demonstrative Gesten der Demütigung, die oft an Hofzeremonielle orientalischer Despoten erinnern, zielte Caligula auf eine politische Ausschaltung des hohen Standes. Bei der Ämtervergabe überging der Kaiser gezielt unerwünschte Bewerber und machte sich auch dadurch unbeliebt. Die Quellen berichten unter den zahllosen Extravaganzen des Kaisers, dass er sein Lieblingspferd Incitatus mit dem Konsulat bestallen wollte. Sollte Caligula sich tatsächlich in dieser Richtung geäußert haben, so wohl mit der Absicht, dem Senat seine alleinige Entscheidungsgewalt und seine Allmacht, auch über die Senatsaristokratie, zu demonstrieren.
Caligula stand einem orientalischen Herrschaftsverständnis nahe, was eine demonstrativ extravagante Lebensweise sowie die Verehrung im Staatskult schon zu Lebzeiten, nicht erst nach dem Ableben, mit einschloss (obwohl sich im Westen des Reiches heute keine Belege in Form von Tempelanlagen, Inschriften oder Münzen finden, die Caligula eindeutig in Zusammenhang mit einer persönlichen Verehrung bringen; siehe auch Cäsaropapismus). Die öffentliche Darstellung seiner Verbundenheit zu seinen Schwestern und besonders zu Drusilla könnte von ägyptischen Geschwisterherrschaften inspiriert sein. Ein solcher Herrschaftsstil, dem sich etwa auch Gaius Iulius Caesar und besonders Marcus Antonius verbunden fühlten, war der römischen Oberschicht von jeher suspekt. Der Kaiser brachte dieses Herrschaftsverständnis durch Ersetzung von Götterbildern mit dem eigenen Porträt oder dem von Verwandten zum Ausdruck sowie durch hellenistischen Kleidungsstil. Soweit Gründe für Hinrichtungen genannt sind, stehen diese zumeist mit einer Kritik an dieser Herrschaftsauffassung in Zusammenhang. Auch sind Tendenzen einer Alexander-Imitatio erkennbar.
Wie im Falle des Antonius berichten die Quellen von den Plänen des Kaisers, die Hauptstadt des Reiches von Rom nach Alexandria zu verlegen, was einer endgültigen Entmachtung des Senats gleichgekommen wäre. Darin mögen sich Überlegungen zu einer radikalen Reichsreform spiegeln, basierend auf der Erkenntnis, dass sich ein Imperium von der Größe des römischen Reiches nicht mehr mit dem Personalbestand einer mittelitalienischen Stadt verwalten ließ, sondern nur mit Hilfe einer entwickelten Bürokratie und Hierarchie wie im hellenistisch-ptolemäischen Ägypten. Caligula mag gehofft haben, unter Übergehung des Senatorenstandes seine Regierung zunehmend auf Teile des Ritterstandes zu stützen, der einerseits durch Degradierungen, andererseits durch die Förderung loyaler Mitglieder personell umstrukturiert und dem Kaiser botmäßig gemacht werden sollte.
Gruppen außerhalb der Oberschicht.
Die Gewaltherrschaft des Caligula erstreckte sich in erster Linie auf den Senat, der ihn deshalb hasste. Da nach Caligulas Tod Reaktionen gegen die Attentäter weitgehend ausblieben, scheint der Kaiser allerdings auch bei anderen herrschaftslegitimierenden Gruppen, wie dem Heer oder der stadtrömischen Bürgerschaft, trotz der Freigebigkeit seiner ersten Regierungsmonate teilweise unbeliebt geworden zu sein. Mitunter drastische Steuererhöhungen infolge der erhöhten Ausgaben könnten hierfür ein Grund gewesen sein. Caligula hat dabei auch ungewöhnliche Maßnahmen getroffen, wie die öffentliche Förderung und Besteuerung der Prostitution. Pro Bordellbesuch musste als Abgabe der Mindestpreis entrichtet werden, der für eine Umarmung verlangt wurde. Diese Steuer blieb als eine der wenigen Maßnahmen nach dem Tod des Kaisers bestehen und wurde erst in christlicher Zeit abgeschafft.
Es gibt Berichte über Willkürakte und Gewalttaten gegenüber der stadtrömischen Bevölkerung bei Spielen, die gewöhnlich als öffentliche Plattform für Forderungen zum Beispiel nach Getreidespenden dienten und insofern als Ausgangspunkte für Volksaufstände Gefahrenpotential besaßen. Flavius Josephus spricht allerdings auch davon, dass Caligula bei Teilen der Bevölkerung, die an aufwendigen Spielen interessiert war, bis zu seinem Tod beliebt geblieben war, ebenso bei dem Teil des Heeres, der seine Soldzahlungen pünktlich erhalten hatte. Auch andere Quellen lassen auf relative Beliebtheit des Kaisers beim Volk in Rom beziehungsweise Italien schließen, vermutlich jedoch nicht in den Provinzen des griechischen Ostens, wo Caligula sich durch Kunstraub und Tempelplünderungen unbeliebt gemacht hatte: Tilgungen des Kaisernamens in Inschriften, die vermutlich auf lokal begrenzte Reaktionen nach Caligulas Tod zurückgehen, sind ausschließlich im Osten des Reiches belegt (s. u.).
Juden.
Während von Caligulas Politik und seiner Einschätzung in den Provinzen kaum systematische Informationen überliefert sind, gibt es hauptsächlich aufgrund der Darstellungen des Flavius Josephus sowie des Philon von Alexandria Berichte über Caligulas Interventionen in Zentren des jüdischen Glaubens. Diese lassen jedoch nur sehr bedingt Rückschlüsse auf die Bewertungen des Kaisers in anderen Bevölkerungsgruppen zu, da der jüdische Monotheismus unvereinbar mit der von Caligula forcierten hellenistischen Herrscherverehrung der griechischen Bevölkerung war, die mit den Juden auf engstem Raum zusammenlebte. Insofern trug Caligula neben anderen Ursachen zur späteren dramatischen Entwicklung, der Zerstörung des Tempels durch Titus sowie der endgültigen Diaspora unter Hadrian, bei.
Alexandria war seit dem Hellenismus multikulturell geprägt und besaß neben hellenisierten Ägyptern und Griechen eine starke jüdische Minderheit. Religiöse Auseinandersetzungen kamen wiederholt vor. Während der Anwesenheit des Herodes Agrippa I. verschärften sich Hassgefühle der griechischen Bevölkerung, die zu einem lokalen Pogrom führten. Der römische Statthalter Aulus Avillius Flaccus hatte bereits im Vorfeld Sanktionen einseitig nur gegen die jüdische Bevölkerung angeordnet und gab dieser nun die Hauptschuld an den Vorfällen, mit der Folge, dass die Juden in getrennte Wohnorte innerhalb der Stadt zwangsumgesiedelt wurden. Es handelt sich dabei um das erste historisch belegte jüdische Ghetto. Diese Zustände gaben Anlass zu einer Gesandtschaftsreise, an der Philon teilnahm und die er ausführlich beschreibt. Noch vor der Audienz mit Caligula, der die aus Griechen und Juden bestehende Gesandtschaft versetzt hatte, trafen im Jahre 40 aus Jerusalem schockierende Nachrichten ein, der Kaiser habe die Umwandlung des jüdischen Tempels in ein Zentrum des Kaiserkults in Auftrag gegeben. Die Gespräche endeten ergebnislos.
Caligulas Versuch, den Kaiserkult gewaltsam durchzusetzen, erfolgte als Vergeltungsmaßnahme auf Übergriffe von Juden gegen den Kaiserkult praktizierende Griechen in Judäa. Sie verursachte weitere Unruhen in Antiochia, dem Verwaltungssitz von Syria, deren Statthalter Publius Petronius mit Anfertigung und Aufstellung einer Kaiserstatue im Tempel von Jerusalem beauftragt wurde, diese aber mit Rücksicht auf die mobilisierte jüdische Bevölkerung hinauszögerte. Die folgenden Ereignisse lassen sich alternativ so rekonstruieren, dass Caligula entweder auf Fürsprache des Herodes Agrippa von seinem ursprünglichen Befehl absah oder auf seinem Entschluss beharrte und Petronius die Aufforderung zum Selbstmord übersandte, die den Empfänger allerdings erst nach der Nachricht von Caligulas Tod erreichte. Aufgrund der Ereignisse wurde die Nachricht vom Tode des Caligula bei der jüdischen Reichsbevölkerung mit Freude aufgenommen, daraus resultierende Verschärfungen der Anspannungen mussten von Claudius beschwichtigt werden.
Caligula als Präzedenzfall.
Der kurze Prinzipat des Caligula zeigte die Gefahren auf, die sich aus der unscharfen Stellung des Kaisers innerhalb der grundsätzlich fortbestehenden Verfassung der römischen Republik ergaben. Es wird heute vielfach davon ausgegangen, dass Caligula bei Amtsantritt ein ähnliches Bündel an Vollmachten erhalten hatte, wie dies für Vespasian inschriftlich überliefert ist (Lex de imperio Vespasiani). Einige Forscher erkennen darin die praktische Übertragung der völligen Ermessensfreiheit. Zumindest bei Wahlen brauchte der Kaiser auf den Senat formal keine Rücksicht zu nehmen; die republikanische Verfassung sah allerdings das Prinzip der Kollegialität vor, das unter Augustus und in der Anfangszeit des Tiberius zumindest propagandistisch aufrechterhalten wurde. Das aus republikanischer Zeit stammende Hochverratsgesetz (Lex maiestatis) war unscharf und ließ willkürliche Prozesse und Verurteilungen sowie Folter und Hinrichtungen, unabhängig von Statusgrenzen, zu. Da Caligula in seinen letzten beiden Regierungsjahren hiervon rücksichtslos Gebrauch machte, konnte die so ausgeübte Autokratie nur durch Tod und Damnatio memoriae („Verdammung des Andenkens“) beendet werden. Das Beispiel des Caligula wies daher auf spätere Kaiserherrschaften voraus: Performative Ritualisierung eines Konsenses mit der Senatsaristokratie durch den Kaiser war Bedingung für dessen Würdigung in der senatorisch geprägten römischen Geschichtsschreibung (und der zu großen Teilen auf dieser basierenden Rezeption späterer Jahrhunderte). Trotzdem blieb Caligula kein Einzelfall in der römischen Kaiserzeit.
Historische Probleme.
Maßnahmen nach Caligulas Tod.
Mit Caligula wurden am 24. Januar 41 auch seine Gattin Milonia Caesonia und die gemeinsame Tochter Iulia Drusilla getötet. Sein Andenken sollte ausgelöscht werden. Schon nach dem Tod des Tiberius wurden vereinzelt Kaiserstatuen umgeworfen sowie die Schändung des Leichnams gefordert. Nach Caligulas Tod diskutierte der Senat zeitweise sogar die kollektive Verdammung aller Vorgänger sowie die Wiederherstellung der Republik, die allerdings allein durch den Senat nicht durchsetzbar gewesen wäre. Caligulas Nachfolger Claudius ließ schließlich mit Rücksicht auf den Senat sämtliche Regierungsmaßnahmen seines Vorgängers für ungültig erklären, Schriften über seine Regierung vernichten, Statuen zerstören und Münzen mit dem Bildnis des Caligula aus dem Verkehr ziehen. Einzelne archäologische Zeugnisse für eine Tilgung von Kaisernamen oder Verstümmelung von Statuen, besonders in den Provinzen, könnten allerdings von spontanen, nicht öffentlich angeordneten Einzelaktionen verursacht sein. Eine damnatio memoriae des Caligula kann somit nicht belegt werden, und Claudius dürfte auch angesichts der Ermordung seines Neffen keinen Präzedenzfall zu schaffen gewünscht haben.
Diese Vorgänge könnten die literarische Darstellung beeinflusst haben: Da der Bericht des Tacitus für die Regierungszeit Caligulas verloren ist, ist neben dem viel späteren Cassius Dio sowie Flavius Josephus der Kaiserbiograph Sueton die literarische Hauptquelle. Etwa das erste Drittel der Caligula-Vita des Sueton, das überwiegend Jugend und Regierungsbeginn des Kaisers darstellt, bezieht sich auf positive oder neutrale Bewertungen oder auf außerliterarisch überprüfbare Fakten (politische Ämter, Bauten). Aus der zweiten Hälfte der Regierung sind hauptsächlich nur noch solche Informationen überliefert, die von den Untaten des Kaisers berichten. Sueton vertritt das senatorische Geschichtsbild, seine Darstellung lässt daher überwiegend nur Rückschlüsse auf das Verhältnis zwischen Caligula und dem Senat zu und sagt wenig über die Bewertung Caligulas bei anderen herrschaftstragenden Gruppen aus. Die Biographie trägt deutlich Züge der Ideologie der Adoptivkaiser, die sich von den Kaisern der julisch-claudischen Dynastie mit Ausnahme des Augustus distanzieren wollten. Als kaiserlicher Archivar hatte der Biograph Zugriff auf Dokumente der Regierung Caligulas, gibt aber kaum Informationen über Herkunft, Historizität oder Tendenz einer Quelle. Einige Argumentationen erscheinen aus heutiger Sicht unsachlich. Viele Beschreibungen des Sueton, besonders solche, die willkürliche Gewalthandlungen gegen Senatoren zum Inhalt haben, werden von Josephus bestätigt, der zur Zeit der Flavier schrieb.
Angeblicher Wahnsinn.
Die antiken Quellen bezeichnen die Herrschaft des Caligula beziehungsweise die Person selbst häufig und praktisch einhellig als „wahnsinnig“. Fraglich ist jedoch, ob es sich bei dieser Bezeichnung regelmäßig um eine psychopathologische Kategorie im modernen Sinne handelt: Das vielleicht authentischste Zeugnis des Philon von Alexandria über seine Gesandtschaftsreise schildert den Kaiser als arrogant und zynisch, jedoch nicht als psychotisch. Trotzdem finden sich bei demselben Autor erste Hinweise auf den Wahnsinn des Kaisers. Seneca überliefert, hauptsächlich während seiner von Caligula mitverschuldeten Verbannung, Bilder grausamer Folterungen und Hinrichtungen des Kaisers, die ihn als Sadisten beschreiben. Seneca definiert außerdem den Begriff des Wahnsinns als Entartung eines Tyrannen, ohne dabei Caligula namentlich zu erwähnen. Flavius Josephus gebraucht den Begriff des Wahnsinns zur Charakterisierung des Kaisers mehrere Male, jedoch ist nicht genau zu unterscheiden, ob er damit auf eine tatsächliche psychische Störung anspielt oder eher die Willkürhandlungen des Kaisers pejorativ bezeichnet. Sueton, der in der Tradition antiker Biographie steht, den Charakter einer Person aus ihrer Herrschaft zu konstruieren, schildert Caligula ein halbes Jahrhundert später explizit als geisteskrank, indem er seine Darstellung mit pathologischen Auffälligkeiten Caligulas verbindet. Spätere Quellen argumentieren ähnlich (Cassius Dio; Eutropius, Breviarium ab urbe condita 7,12).
Die für künstlerische Bearbeitungen des Tyrannen-Stoffes wegweisende Theorie des Cäsarenwahnsinns ist erstmals in einem 1894 erschienenen Essay von Ludwig Quidde dargelegt: Caligula sei im Verlauf seiner Herrschaft größenwahnsinnig und geisteskrank geworden, was ein Resultat der praktisch inzestuösen Familienpolitik der julisch-claudischen Kaiserfamilie sei. Obwohl auch antike Autoren von einer Degeneration sprechen, ist ihnen eine genetische Ursache völlig unbekannt: Die römische Gesellschaft berief sich auf das Konzept des "mos maiorum" (der Sitten der Vorfahren), das die Verdienste einer angesehenen Ahnenreihe automatisch auf Nachgeborene übertrug. Quidde ließ sich also vom naturwissenschaftlichen Fortschritt und nicht zuletzt vom darwinistischen Ansatz seiner Zeit inspirieren. Der Essay war außerdem als indirekte Kritik an Wilhelm II. gedacht.
Als Indikation einer psychopathologischen Störung können nach heutigem Verständnis angeblich irrationale Handlungen gelten (z. B. die geplante Beförderung von Incitatus, Maßnahmen während und nach dem Germanien- und Britannienfeldzug), ebenso die Selbstinszenierung Caligulas als lebender Gott. Diese Personenverehrung steht allerdings in Kontinuität zum Kaiserkult des Augustus. Augustus hatte es zwar in der Stadt Rom noch vermieden, zu Lebzeiten persönlich als Gott verehrt zu werden, nicht jedoch im Osten des Reiches, wo es bereits seit dem Hellenismus einen Herrscherkult gab. Verschiedene Abstufungen des Herrscherkultes pflegten ebenfalls die Nachfolger im Kaiseramt oder andere hochrangige Personen am Kaiserhof. Grundsätzlich war in der paganen Antike ein Personenkult akzeptiert. Daher schließen ausschließlich Autoren mit monotheistischem Glauben (Philo, Flavius Josephus) hieraus auf den Wahnsinn des Kaisers. Vor allem in der neueren Forschung wird eine psychopathologische Störung bisweilen bezweifelt oder die Frage gar nicht erst diskutiert, da man sie als historisch nicht relevant oder unzulässig ansieht.
Vor allem Aloys Winterling (2003) stellt Caligulas Geisteskrankheit vehement in Frage: Der Kaiser sei ein zynischer Machtmensch gewesen, der im Laufe seiner Regierungszeit das von Augustus eingeführte Konzept der „doppelbödigen Kommunikation“ gegenüber dem Senat aufgekündigt habe. Die sich hieraus ergebenden Konsequenzen, die in ihrer Bedeutungsbreite heute nur noch schwer nachzuvollziehen seien, hätten vor allem in der modernen Rezeption zum Bild des irrational handelnden Kaisers beigetragen: gelobte man, sein Leben für die Genesung des Kaisers zu geben, so forderte der genesene Caligula die Einhaltung des Gelübdes. Entscheidend für die Legendenbildung in der Antike seien Selbstschutzgründe des Senats, der den Vorwurf der Geisteskrankheit erfunden habe, um erlittene, letztlich aber akzeptierte Demütigungen des autokratischen Kaisers historisch zu rechtfertigen. Es sei schließlich der Senat gewesen, der eine zu diesem Zeitpunkt noch präzedenzlose Gewaltenübertragung zumindest formal auf freiwilliger Basis bewilligt habe und daher nach der einvernehmlichen erfolgten Ermordung in Erklärungsnot geraten sei. Dies spiegele sich in der Entwicklung der literarischen Überlieferung wider, bei der sich das Verdikt des Wahnsinns im Sinne einer psychischen Störung graduell entwickelt finde.
Eine Legendenbildung des „wahnsinnigen“ Kaisers aus der Kommunikation zwischen Kaiser und Senat zu erklären, ist einerseits auch deshalb schlüssig, da für Caligula schon als Kind die Nachfolgefrage erstmals weitgehend sicher war. Er brauchte daher den Prinzipat nicht mit den gleichen Konsensritualen zu legitimieren, wie es der Senat unter Augustus und in der Anfangszeit des Tiberius gewohnt war. Die Aristokratie benötigte darüber hinaus eine Erklärung für die Degeneration des Nachkommen des populären Germanicus, ohne dabei das sie legitimierende Konzept der Vererbung von Verdiensten in Frage zu stellen. Ob Caligula andererseits gerade durch diese ungeheure Machtfülle pathologische Züge von Größenwahn entwickelte, ist letztlich eine spekulative Frage. Es kann nicht zuverlässig entschieden werden, inwieweit Beschreibungen von Caligulas Krankheit des Jahres 37/38 sowie weitere Schilderungen gesundheitlicher Auffälligkeiten (z. B. Schlafstörungen) Produkt der antiken Polemik sind oder, sollten diese historisch akkurat sein, eine psychotische Störung indizieren.
Bewertungen.
Die Verurteilung zumindest der zweiten Regierungshälfte des Caligulas als grausame Tyrannenherrschaft ist in den antiken Quellen, auch solchen aus späterer Zeit, einhellig. Es ist keine Gegendarstellung überliefert, und es gibt keine Gründe anzunehmen, dass Tacitus in dem verlorenen Textabschnitt eine alternative Ansicht zu Caligula vertreten haben sollte.
In der modernen Forschung wurden aufgrund der problematischen Überlieferungslage bis in die 80er-Jahre hinein vergleichsweise wenige monographische Untersuchungen zu Caligula geschrieben. Trotz der möglicherweise einseitigen Überlieferung gilt Caligula als politisch konzeptionsloser, willkürlicher Gewaltherrscher, dessen Regierung nur aufgrund der inneren Stabilität des Reiches ohne negative Folgen blieb. Die letzten drei größeren Caligula-Biographien spiegeln die Bandbreite der heutigen Lehrmeinung wider: Arther Ferrill (1991) beschreibt das in den Quellen dargestellte Bild des wahnsinnigen und irrational grausamen Tyrannen als historisch, Anthony A. Barrett (1989) diskutiert umfangreich Alternativen zur überlieferten Darstellung, Aloys Winterling (2003) rehabilitiert den Kaiser insofern, als er seine Regierung aus den zeitgenössischen Rahmenbedingungen verständlich macht. Die beiden letztgenannten Arbeiten sind in der Forschung breit rezipiert und aufgrund der vorbildlichen Darstellungsweise überwiegend positiv aufgenommen worden. Damit hat sich jedoch keine Revision des traditionellen Geschichtsbildes in dem Sinne vollzogen, dass die Herrschaft des Caligula als in irgendeiner Hinsicht erfolgreich oder für spätere Entwicklungen wegweisend gedeutet werden könnte.
Caligula-Rezeption.
Das in den antiken Quellen überlieferte Bild des grausamen Tyrannen sowie Quiddes Bild des Wahnsinns bei Kaisern der julisch-claudischen Dynastie bestimmen die zahlreichen populärwissenschaftlichen, belletristischen und literarischen Darstellungen Caligulas, die sich aus dem reichlich überlieferten anekdotischen Material zur Person des Kaisers bedienen, und insofern nicht als historisch schlecht recherchiert gelten können, jedoch bisweilen zur Wirkungssteigerung weniger Wert auf quellenkritische Vorbehalte legen.
In Anspielung an die totalitären Regime seiner Zeit verfasste der erst 25-jährige Albert Camus 1938 das Drama "Caligula". Historisch setzt es nach dem Tod der Drusilla und der damit verbundenen Krise des Kaisers ein, der die Sinnlosigkeit des Lebens erkennt und damit Camus’ philosophische Konzeption des Existentialismus versinnbildlicht. Der deutsche Komponist Detlev Glanert verfasste eine frei auf Camus’ Drama beruhende Oper, die am 7. Oktober 2006 an der Oper Frankfurt uraufgeführt wurde.
Tinto Brass setzte 1979 den Skandalfilm "Caligula" (dt. Untertitel "Aufstieg und Fall eines Tyrannen") in Szene, das Drehbuch stammte von Gore Vidal. Malcolm McDowell gab den Kaiser, Peter O’Toole den Tiberius. Der ursprünglichen Verfilmung folgten weitere Produktionen, die den historischen Stoff als Fassade für die Darstellung von Sex- und Gewaltorgien benutzten.
Im Rahmen des New York Musical Theatre Festivals wurde am Broadway 2004 das Musical "Caligula: An Ancient Glam Epic" uraufgeführt. Die Inszenierung, die ebenfalls die Skandalgeschichten um den Kaiser thematisiert, avancierte zum Publikumsliebling und wurde in der Presse überwiegend positiv rezensiert. Eine politisch gefärbte Singleauskopplung diente der Mobilisierung von Wählern in der bevorstehenden Präsidentenwahl. |
846 | 388554 | https://de.wikipedia.org/wiki?curid=846 | Cent (Musik) | Das Cent (von lat. "centum" „hundert“) ist eine additive Maßeinheit (genauer: Hilfsmaßeinheit), mit der ein sehr genauer Vergleich der Größen musikalischer Intervalle möglich ist.
Definition.
Das Cent ist definiert durch:
Da eine Oktave zwölf Halbtöne umfasst, gilt auch:
Das Cent ist genormt in DIN 13320 (siehe unten).
Anwendung.
Aus der additiven Struktur der Intervallgrößen folgt:
Bekanntermaßen sind zum Beispiel 12 gleichstufige Quinten = 7 Oktaven, also umfasst 1 gleichstufige Quinte 700 Cent (in reiner Stimmung dagegen – siehe unten – ungefähr 702 Cent.)
Da dies dem additiven Intervall-Empfinden des Gehörs (Hörereignisses) entspricht, ist der Vergleich von Tonhöhen, Tonsystemen und Stimmungen mittels der Einheit Cent praxisnäher als Angaben zu Frequenz-Verhältnissen, bei denen ein Größenvergleich nicht unmittelbar möglich ist.
Centangaben ermöglichen einerseits eine höhere Anschaulichkeit beim Größenvergleich verschiedener Intervalle; andererseits können aber rationale Zahlen, die ja vielen Stimmungssystemen zu Grunde liegen, und alle Centangaben (bis auf die Vielfachen von 1200) "immer nur näherungsweise gleichgesetzt" werden.
Entstehung.
Die Bezeichnung "Cent" wurde 1875 von Alexander John Ellis (1814–1890) im Anhang zu seiner Übersetzung von Hermann von Helmholtz’ "Lehre von den Tonempfindungen" als Einheit zum Größenvergleich von Intervallen vorgeschlagen.
Die Cent-Einheit ist so gewählt, dass wahrnehmbare Tonhöhenunterschiede hinreichend genau als ganzzahlige Vielfache von Cents ausgedrückt werden können. Grob kann angenommen werden, dass der kleinste erkennbare Frequenzunterschied für nacheinander erklingende Sinustöne beim Menschen bei Frequenzen ab 1000 Hz bei etwa drei bis sechs Cent liegt; bei gleichzeitigem Erklingen sind durch Schwebungseffekte noch wesentlich geringere Intervallunterschiede hörbar.
Bei größeren Tonabständen lassen sich Intervallgrößen durch Schwebungen der harmonischen Obertöne, die in musikalisch verwendeten Tönen meistens vorhanden sind, sehr genau bestimmen. Hingegen steigt bei tiefen Sinustönen mit geringer empfundener Lautstärke (trotz hohem Schalldruckpegel) die Unterscheidungsschwelle auf über 100 Cent, also mehr als einen Halbton.
Die Messung der Intervallgröße.
Die Größe von Intervallen wird mit Hilfe der Maßeinheit Oktave und deren Untereinheit Cent gemessen. Das Oktavmaß und Centmaß ist proportional zur Intervallgröße. Der Maßeinheit "Oktave" entspricht das Frequenzverhältnis p=2:1.
Werden Intervalle hintereinander ausgeführt, so kann man ihre Größen addieren, während ihre Frequenzverhältnisse (Proportionen) "multipliziert" werden müssen.
Anwendungen in der musikalischen Praxis.
Mit der Einheit Cent lassen sich die feinen Unterschiede der Intervalle in den verschiedenen mitteltönigen und wohltemperierten Stimmungen gut darstellen, z. B. die leichten Verstimmungen gegenüber reinen Quinten und Terzen, die in Kauf genommen werden müssen, um möglichst viele Tonarten (bei einer zwölfstufigen Skala der Oktave) spielbar zu machen:
Tabellen der mehr oder weniger reinen Terzen und Quinten in verschiedenen Stimmungssystemen: siehe Stimmung.
Umrechnung.
Frequenzverhältnis in Cent.
Gegeben sei das Frequenzverhältnis (die Proportion) formula_1 eines beliebigen Intervalls.
Das Intervallmaß formula_2 errechnet sich dann nach der Definitionsformel logarithmisch:
Mit
erhalten wir:
Nach Umrechnung des Zweier-Logarithmus in einen Zehner-Logarithmus über formula_6 entsteht eine für Taschenrechner bequem handhabbare Gleichung:
Bei den Dreiklangsintervallen erhält man folgende Umrechnung:
Cent in Frequenzverhältnis.
Die umgekehrte Umrechnung eines beliebigen in Cent angegebenen Intervalls formula_2 in das Frequenzverhältnis formula_9 wird seltener benötigt. Dafür löst man die Gleichung formula_10 nach formula_9 auf, indem man beide Seiten durch 1200 Cent dividiert und anschließend zur Basis 2 potenziert (dadurch wird auf der einen Seite der Logarithmus entfernt):
Bei den Dreiklangsintervallen erhält man folgende Umrechnung:
Berechnung von Frequenzen.
Der oben genannte Faktor formula_15 ist das Frequenzverhältnis eines Tonunterschieds von einem Cent. Die Frequenzberechnung erfolgt daher mit dieser Zahl als "Basis" und dem Intervall in Cent im Exponenten.
Beispiele einiger als Stimmton a’ verwendeter Frequenzen, ausgehend von 440 Hz:
Beispiel aus der Musiktheorie.
Der Ton "a’" hat die Frequenz von 440 Hz. Der Ton "c’’" liegt eine kleine Terz darüber.
Der Ton "c’’" hat demnach
DIN-Norm.
Nach DIN 13320 „Akustik; Spektren und Übertragungskurven; Begriffe, Darstellung“ bezeichnet „Cent“ ein Frequenzmaßintervall, dessen Frequenzverhältnis formula_22 beträgt. Das Cent kann wie eine Einheit benutzt werden; somit kann das Frequenzmaßintervall der Frequenzen f1 und f2 > f1 bezeichnet werden als formula_23.
Absolutes Cent.
Man kann auch dem gesamten Frequenzbereich eine Skala fester Cent-Werte zuordnen. Dieses "absolute Cent" ist dann eine Maßeinheit der Tonhöhe, nicht der Intervallgröße. Es wird 1 Hz = 0 Cent gesetzt. Daraus ergeben sich: 2 Hz = 1200 Cent, 4 Hz = 2400 Cent usw. mit den entsprechenden Zwischenwerten. |
848 | 235056508 | https://de.wikipedia.org/wiki?curid=848 | Commodus | Commodus (* 31. August 161 in Lanuvium; † 31. Dezember 192 in Rom) war ein römischer Kaiser der von 180 bis 192 regierte.
Als Mark Aurel am 17. März 180 verstarb, wurde sein Sohn Commodus im selben Jahr zum Kaiser erhoben. Als Alleinherrscher war er am Anfang relativ beliebt beim Volk, da er für genügend Brot und Spiele sorgte. Als er die Staatsfinanzen durch eine höhere Besteuerung der Senatoren sanieren wollte und den Prätorianerpräfekten viel Einfluss gab, machte er sich jedoch beim Senat unbeliebt.
Dadurch kam es zu einem Attentat auf ihn, das jedoch fehlschlug und die Spannungen zwischen ihm und dem Senat erhöhten. Gegen Ende seiner knapp zwölfjährigen Herrschaft kam es zu immer mehr Misstrauen zwischen Commodus und dem Senat, mit dem er sich dann endgültig überwarf. Nachdem es ein weiteres Attentat auf ihn gab, kam es im Jahr 192 zu einer neuen Verschwörung gegen ihn, die er nicht überlebte. Nach seinem Tod kam es zum zweiten Vierkaiserjahr und der Senat verhängte eine Damnatio memoriae, die jedoch später durch den Kaiser Septimius Severus aufgehoben wurde.
Commodus wurde von den senatorischen Geschichtsschreibern sehr negativ dargestellt. Durch die Geschichtsschreiber und der "Historia Augusta" ranken sich um ihn, wie bei Caligula und Nero, viele Skandalgeschichten, beispielsweise die Darstellung von Commodus als Gladiator oder Sadist. Dazu kommt die relativ ungünstige Anzahl an Quellen, was durch die unzuverlässige "Historia Augusta" verschärft wird. Diese Umstände machen eine historische Beurteilung von Commodus sehr schwer.
Leben vor der Herrschaft.
Kindheit und Jugend.
Commodus wurde zusammen mit einem früh gestorbenen Zwillingsbruder als Sohn Faustinas der Jüngeren und ihres Cousins und Ehemannes, des Kaisers Mark Aurel, geboren. Als er auf die Welt kam, war sein Vater seit einigen Monaten Kaiser, es handelte sich also um eine Purpurgeburt – in Rom war das bisher nur bei Britannicus vorgekommen, der jedoch nicht zur Herrschaft gelangte.
Nachdem sein Zwillingsbruder Antonius gestorben war, versuchte Mark Aurel seinen Sohn Commodus so gut wie möglich zu erziehen. Er beauftragte die verschiedensten Lehrer und Erzieher, die zu den größten und besten zählten. Als Lehrer für die griechische Literatur hatte er Onesicrates, in Latein Antistius Capella und in Rhetorik Ateius Sanctus. Neben seiner eigenen Lehrer hatte er auch einen eigenen Arzt namens Galen, der viele der Krankheiten des jungen Commodus behandelte.
Anders als spätere Quellen teilweise suggerieren, scheint Mark Aurel nie erwogen zu haben, Commodus nicht als Erben einzusetzen, im Gegenteil: Bereits im Alter von fünf Jahren wurde ihm zusammen mit seinem jüngeren Bruder Annius Verus der Titel "Caesar" verliehen, womit er als Nachfolgekandidat und formal sogar bereits als Unterkaiser seines Vaters gekennzeichnet war, bevor er schließlich drei Jahre vor dem Tod seines Vaters zu dessen Mitherrscher ("Augustus") erhoben wurde und damit alle kaiserlichen Vollmachten innehatte (siehe unten). Einen Teil seiner Jugend verbrachte er an der Seite Mark Aurels während der Markomannenkriege an der Donau. Nach der gescheiterten Usurpation des Avidius Cassius im Jahr 175 begleitete er seinen Vater auf eine lange Reise in den Osten des Reiches, wo er unter anderem mit führenden Vertretern der Zweiten Sophistik zusammentraf.
Herrschaftsübernahme.
Seit dem besagten Aufstand des Avidius Cassius wurde Commodus verstärkt und zunehmend an die Regierungsaufgaben herangeführt und als designierter Nachfolger aufgebaut. Bereits 175 wurde er "princeps iuventutis", im November 176 folgte erstmals eine Akklamation zum "Imperator"; kurz darauf führte er gemeinsam mit Mark Aurel einen Triumphzug durch Rom durch, und im Sommer 177 wurde er schließlich zum formal gleichberechtigten Kaiser ("Augustus") neben seinem Vater ausgerufen. Juni/Juli 178 heiratete Commodus Bruttia Crispina und zog mit seinem Vater im August desselben Jahres an die Donau, um dort erneut gegen Germanen zu kämpfen und militärisches Prestige zu sammeln.
Am 17. März 180 starb sein Vater in einem Militärlager an der Donau. Commodus war damit Alleinherrscher. Er bereitete das Begräbnis seines Vaters vor und schloss zügig Frieden mit den Germanen. Ob er damit von Plänen seines Vaters abwich, der einigen Quellen zufolge geplant hatte, eine neue Provinz zu errichten, ist unklar und wohl eher unwahrscheinlich. Am 22. Oktober 180 zog er erneut im Triumph in Rom ein.
Beim römischen Volk war Commodus zunächst offenbar beliebt, zumal er sich freigiebig zeigte und für genügend Brot und Spiele "(panem et circenses)" sorgte. Da er die durch die Kriege seines Vaters strapazierten Staatsfinanzen auch durch erhöhte Besteuerung der Senatoren zu sanieren suchte und den Befehlshabern der Prätorianergarde (den Prätorianerpräfekten) viel Einfluss gab, kam es offenbar zu Spannungen mit dem Senat.
Herrschaft des Commodus.
Finanzpolitik und Beliebtheit beim Volk.
Nach seinem Amtsantritt wertete Commodus die römische Währung ab. Er reduzierte das Gewicht des Denars von 96 pro römischem Pfund auf 105 pro römischem Pfund (3,85 Gramm auf 3,35 Gramm). Außerdem reduzierte er den Reinheitsgrad des Silbers von 79 Prozent auf 76 Prozent – das Gewicht des Silbers sank von 2,57 Gramm auf 2,34 Gramm. Im Jahr 186 verringerte er den Feingehalt und das Gewicht des Silbers weiter auf 74 Prozent bzw. 2,22 Gramm, d. h. 108 pro römisches Pfund. Diese Herabsetzung war die größte Abwertung seit der Herrschaft des Nero.
Trotz der Tatsache das Commodus bei den Senatoren unbeliebt war, schaffte er es bei der Armee und beim römischen Volk beliebt zu sein. Ein Grund dafür liefern seine sehr großzügigen Geschenke an dem römischen Volk in Form von Gladiatorenkämpfe bei denen er selbst auch mitwirkte. Wenn er gegen Tiere kämpfte, tötete er sie mit dem Bogen wenn er außerhalb der Arena war. Wenn er in der Arena als Gladiator kämpfte, ließ er sie immer so ausliegen das er immer im Vorteil war.
Das missglückte Attentat auf Commodus.
Am Anfang seiner Herrschaft übernahm Commodus viele Berater seines Vaters und Vorgängers Mark Aurel. Dazu zählte: Tiberius Claudius Pompeianus (der zweite Ehemann von Commodus' ältester Schwester Lucilla), seinen Schwiegervater Gaius Bruttius Praesens und Titus Fundanius Vitrasius Pollio und Aufidius Victorinus, der Präfekt der Stadt Rom. Er hatte auch vier Schwestern die alle verheiratet waren und dadurch zu potenziellen Rivalen werden könnten. Lucilla war über zehn Jahre älter als er und bekleidete als Witwe ihres ersten Mannes, Lucius Verus, den Rang einer Augusta.
Zum ersten Attentat auf Commodus kam es um das Jahr 182. Als treibende Kraft agierte Lucilla, die das Attentat mit ihrem Mann Claudius Pompeianus, Publius Tarrutenius Paternus und Ummidius Quadratus plante. Das Attentat verlief jedoch nicht nach Plan. Als Commodus auf dem Weg zum Amphitheater war tauchte Pompeianus auf, zog sein Schwert und rief: „Siehe! Das hat dir der Senat geschickt“. Durch diesen Ausruf wurden die Wachen aufmerksam und überwältigten ihn bevor er Commodus überhaupt verletzten konnte. Nach dem missglückten Attentat wurden Pompeianus und sein Mitverschwörer Quadratus ermordet und Lucillla wurde zusammen mit Crispina nach Capri verbannt und später ermordet. Commodus ließ jedoch Crispina nicht wegen einer Beteiligung an dem Attentat ermorden, sondern wegen eines Ehebruchs.
Cleanders Aufstieg.
Der Prätorianerpräfekt Publius Tarrutenius Paternus, war auch an der Verschwörung beteiligt. Allerdings wurde seine Beteiligung erst später entdeckt. In dieser Zeit gelang es ihm und seinem Helfer Sextus Tigidius Perennis, die Ermordung des verhassten Kammerherrn Saoterus zu veranlassen. Diese Ermordung soll laut der Historia Augusta Commodus noch mehr erzürnt haben als der Attentatsversuch auf ihn. Cassius Dio berichtet jedoch das bei der Ermordung von Saoterus der Freigelassene Cleander verantwortlich war. Als der Prätorianerpräfekt Tigidius Perennis, der Nachfolger des Paternus, im Jahr 185 hingerichtet wurde, wurde Cleander die einflussreichste Person um Commodus. Dazu wurde er der neue Kammerherr und Günstling des Kaisers. Als Paternus starb, übernahm auch Cleander die Regierungsgeschäfte.
Britannien und Dakien.
Als Commodus im Jahr 183 zusammen mit Aufidius Victorinus zum Konsul wurde und den Titel des „Pius“ annahm, brach wenig später ein Krieg in Dakien aus. Es liegen jedoch nur Einzelheiten vor, aber es scheint das die Feldherren Clodius Albinus und Pescennius Niger es auf den Kaiserthron abgesehen haben. In Britanien schafte es im Jahr 184 n. Chr. auch der Stadthalter Ulpius Marcellus, die Grenzen Roms bis zu den Antoninischen Mauern im Norden auszudehnen. Jedoch rebellierten die Legionäre gegen seine stenge Disziplin und ernannten Priscus zum Kaiser.
Allerdings verweigerte dieser die Ausrufung zu Kaiser und ließ daraufhin alle Legionäre in Britannien ausbezahlen. Während den Kapitolinischen Spielen am 15, Oktober 184, prangerte ein zynischer Philosoph Perennis vor Commodus öffentlich an. Doch seine Anprangerungen wurden als falsch wahrgenommen und er wurde getötet. Cassius Dio beschrieb Perennis als einen sehr unbestechlichen Menschen der als fähiger Verwalter galt, trotz seiner Rücksichtslosigkeit und seinem Ehrgeiz.
Im Jahr darauf denunzierte eine Truppe von Soldaten, die aus Britannien kam (sie waren nach Italien abkommandiert worden, um Briganten zu bekämpfen) Perennis. Sie behaupteten das er seinen Sohn zum Kaiser machen will. Die Soldaten waren von Cleander dazu angestiftet worden, weil er seine Rivalen beseitigen wollte. Commodus gab ihnen dann die Erlaubnis Perennis, seine zwei Söhne, seine zwei Schwestern und seine Frau hinzurichten. Der Fall von Perennis brachte eine neue Welle von Hinrichtungen mit sich: Aufidius Victorinus beging Selbstmord. Ulpius Marcellus wurde als Stadthalter von Britannien durch Pertinax ersetzt. Marcellus wurde nach Rom gebracht und wegen Hochverrats angeklagt, entging aber nur knapp dem Tod.
Cleanders Untergang.
Nachdem Cleander es schafte die Regierungsgeschäfte an sich zu binden, fing er an sich zu bereichern. Er verkaufte „alle Privilegien“ wie Cassius Dio es schilderte. Er verkaufte sowohl Senatorenschiffe, Militärkommandos, Prokuratorenschiffe und Gouverneursschiffe. Aber er verkaufte auch Senatsitze an diejenigen die viel boten. In einem Jahr soll er fünfundzwanzig Konsule ernannt haben, darunter auch den späteren Kaiser Septimius Severus. Da er in seiner Position alles finanziell ausschöpfte, wurde er bald sehr reich und gab es z.B für Häuser und Bäder aus oder ließ es Einzelpersonen zugutekommen.
Trotz seiner Machtposition geriet er in den Tod. Als in Rom eine Hungersnot ausbrach, wurde diese von Papirius Dionysius, dem Getreidekommissar, verschlimmert. Ziel war es den Hass der Bürger auf Cleander zu richten. Durch seine Diebstähle war er für die Hungersnot verantwortlich. Es kam zu Aufständen von denen Commodus anfangs nichts wusste. Als die Aufstände immer größer wurden und Commodus dann von ihnen erfuhr, bekam er Angst. Wegen seiner Angst ließ er Cleander und seinen Sohn töten. Die Bürger schändeten später den Leichnam und töteten auch Leute die unter Cleander große Macht genossen.
Verhältnis zum Senat.
Die Regierung des Kaisers wurde gegen Ende immer stärker von Misstrauen und Justizmorden geprägt, insbesondere nach einem erneuten Attentat auf ihn. Fest steht, dass der Kaiser sich recht früh mit dem Senat überwarf, sich demonstrativ allein auf das Heer und die "plebs urbana" stützte und damit das System des Prinzipats in Frage stellte, das auf der Fiktion beruhte, wonach der Senat nach wie vor Zentrum des Reiches sei. Das brachte dem Kaiser den Hass vieler Aristokraten ein; er vernachlässigte laut den – ihm freilich feindlich gesinnten – Quellen die Staatsgeschäfte, übertrug sie Männern, die keine Senatoren, sondern Ritter und Freigelassene waren, und gefiel sich zuletzt insbesondere in der Rolle des Hercules, der sich in der Arena dem Volk zeigte. So wurde er zum Gegenstand des Spotts der Senatoren, die ihm aber dennoch öffentlich zujubelten.
Selbstdarstellung.
Es sind vor allem die letzten Herrschaftsjahre, in denen Commodus eine exaltierte Politik und Selbstinszenierung betrieb, die sein Bild bei der Nachwelt geprägt haben. War schon zuvor ein Monat zu Ehren des Commodus umbenannt worden, so benannte er 192 alle Monate des Jahres nach seinen verschiedenen Ehrennamen um (mit "Commodus" für April, auch die anderen Monate erhielten neue Namen nach Commodus, wie "Lucius", "Aelius" usw.), die römischen Legionen und andere militärische Einheiten erhielten den Beinamen "Commodianae", die Stadt Rom wurde in "Colonia felix Commodiana" umbenannt.
Ermordung.
Im Dezember 192 formierte sich aus unklaren Gründen im engsten Umfeld des Kaisers eine Verschwörung gegen ihn (die Motive, die die Quellen nennen, sind stereotyp, und zudem wird deren Glaubwürdigkeit in Zweifel gezogen). Am letzten Tag des Jahres 192 wurde er bei einer Verschwörung an seinem Hof, unter Führung des Eclectus und unter Beteiligung seiner Konkubine Marcia, in seinem Bad von einem Athleten namens Narcissus erdrosselt.
Mit ihm endete die von Antoninus Pius begründete Antoninische Dynastie. Commodus verfiel der "damnatio memoriae", die Vergöttlichung wurde ihm verweigert und die von ihm veranlasste Umbenennung sämtlicher zwölf Monate nach seinen eigenen Namen wurde zurückgenommen. Es folgte das zweite Vierkaiserjahr (mitunter auch als „Fünfkaiserjahr“ oder – irreführend – gar als „Sechskaiserjahr“ bezeichnet), denn seine Nachfolger Pertinax und Didius Julianus wurden nach kurzer Zeit ermordet, und außerdem kämpften Septimius Severus, Pescennius Niger und später auch Clodius Albinus um die Kaiserwürde. Da sich Septimius Severus, der schließlich als Sieger hervorging, zum Zwecke seiner Legitimierung durch eine fiktive Adoption selbst zum Sohn Mark Aurels machte, wurde die "damnatio" seines „Bruders“ Commodus konsequenterweise wieder aufgehoben.
Persönlichkeit.
Charakter und Motivation.
Der Zeitzeuge und Geschichtsschreiber Cassius Dio war unter Commodus Senator und konnte ihn aus nächster Nähe erleben. Er beschrieb Commodus und seine Persönlichkeit so:
Nach den Attentaten auf sein Leben ließ er oft römische Bürger töten, die ihn seiner Meinung nach verärgerten. Er ließ beispielsweise die Brüder Condianus und Maximus hinrichten. Beide gehören zu der Familie Quinctilii. Beide hatten den Ruf sehr lernfähig, militärisch geschickt, reich und liebevoll zueinander zu sein. Wegen dieser Eigenschaften kam der Verdacht auf, das sie mit der Lage Roms unzufrieden seien, obwohl sie keinen Anschlag planten. Laut der Historia Augusta soll Commodus seinen Diener in einen Ofen werfen lassen, weil das Badewasser für ihn zu kalt wäre.
Änderung seines Namens.
Commodus’ vollständiger Name wechselte mehrmals; geboren wurde er als "Lucius Aurelius Commodus", seit der Erhebung zum Mitkaiser 177 hieß er "Imperator Caesar Lucius Aelius Aurelius Commodus Augustus", bei der Übernahme der Alleinherrschaft im März 180 nahm er den Namen Antoninus und im Oktober desselben Jahres auch das Pränomen seines verstorbenen Vaters Mark Aurel an. Er hieß nun Imperator Caesar Marcus Aurelius Commodus Antoninus Augustus. Im Laufe seiner Herrschaft nahm er eine Reihe von Sieges- und Beinamen an. Schon 172 erhielt er den Siegesnamen "Germanicus", 175 nahm er gemeinsam mit seinem Vater den Siegestitel "Sarmaticus" an, 177 wurde er "Pater Patriae", 182 "Germanicus Maximus" und schließlich 184 "Britannicus". 183 erscheint in der Titulatur erstmals der Beiname "Pius" und 185 "Felix". 191 legte er die Namensbestandteile seines Vaters wieder ab, übernahm dafür aber den Gentilnamen Hadrians. Nun lautete sein Name Imperator Caesar Lucius Aelius Aurelius Commodus Pius Felix Augustus.
Commodus und Herkules.
Commodus waren die philosophischen Gedanken seines Vater Mark Aurel sehr zuwider. Er war eher auf seine körperliche Kraft stolz. Der Geschichtsschreiber Herodian, der wie Cassius Dio auch ein Zeitzeuge war, beschrieb Commodus als einen attraktiven Mann. Commodus sah sich als Reinkarnation des Herkules und ließ zahlreiche Statuen und Büsten errichten, die ihn im Gewand des Herkules darstellten. Es wurden auch mehrere Münzen geprägt, die ihn als römischen und kaiserlichen Hercules darstellen und die Umschrift HERCVLI ROMANO AVG tragen.
Commodus als Gladiator.
Laut Herodian und der "Historia Augusta" trat Commodus selbst öffentlich als Gladiator auf, was oft auch von modernen Autoren übernommen wurde. Der Zeit- und Augenzeuge Cassius Dio, zugleich eine der zuverlässigsten Quellen, berichtet hingegen, der Kaiser sei zwar als Wagenlenker aufgetreten und habe auch an Tierhetzen teilgenommen. Als Gladiator gekämpft habe Commodus aber nur privat und ohne Publikum, er sei so niemals in die Öffentlichkeit getreten: „Gerne kämpfte er als Gladiator, und zwar zu Hause bei sich und in einer Art und Weise, dass er ab und zu einen Gegner tötete […]. In der Öffentlichkeit hingegen verzichtete Commodus auf Eisen und Menschenblut.“ Allenfalls mit einem Holzschwert bewaffnet kämpfte der Kaiser im Circus öffentlich gegen Menschen.
Rezeption.
Antike.
Schon wenig nach seiner Ermordung galt Commodus der senatorischen Elite als drittes Monster nach Caligula und Nero auf dem römischen Kaiserthron. Diese Sichtweise setzte sich bis in die Neuzeit fort und wurde erst in der neueren Forschung etwas revidiert, in der Commodus trotz persönlicher Defizite durchaus als fähiger Staatsmann wahrgenommen wurde. Nach neuerer Sicht war es Commodus, der letztlich erkannt hatte, dass die alte Ordnung, in der der römische Senat in der Theorie das höchste Staatsgremium war, was in der Praxis schon lange nicht mehr der Realität entsprach, nicht mehr stimmig war.
Mit der Art und Weise, wie er die Grenzen erweitert hatte, war er seiner Zeit jedoch voraus und musste auch aufgrund seiner Persönlichkeitsfehler scheitern. Der römische Senatsadel konnte sich nach der Regierungszeit des Commodus jedoch nicht mehr von den Wunden erholen, die dieser geschlagen hatte. Spätestens Diokletian konnte die Früchte ernten, die Commodus gesät hatte.
Filme und Belletristik.
Commodus wurde als Figur bzw. Gegenstand in einigen Spielfilmen aufgegriffen und verarbeitet.
Zudem taucht er in der Buchreihe Die Abenteuer des Apollo von Rick Riordan als Antagonist auf.
Quellen.
Die Quellen zum Leben und Wirken des Commodus sind recht gering. Die Hauptquellen sind die Historia Augusta als auch die „Römische Geschichte “ von Cassius Dio. Jedoch ist die Historia Augusta sehr umstritten, da sie als unzuverlässig gilt. Bei Cassius Dio handelt es sich um einen Zeitzeugen, da er während der Herrschaft des Commodus zum Senator wurde und somit die Chance hatte Commodus aus nächster Nähe zu erleben. Daneben behandeln die Geschichtsschreiber Eutropius und Aurelius Victor in ihren Werken Commodus. |
849 | 3863798 | https://de.wikipedia.org/wiki?curid=849 | Caracalla | Caracalla (geboren als "Lucius Septimius Bassianus"; * 4. April 188 in Lugdunum, dem heutigen Lyon; † 8. April 217 in Mesopotamien) war von 211 bis zu seinem Tod römischer Kaiser. Sein offizieller Kaisername war – in Anknüpfung an den beliebten Kaiser Mark Aurel – Marcus Aurel(l)ius Severus Antoninus.
Caracallas Vater Septimius Severus, der Begründer der severischen Dynastie, erhob ihn 197 zum Mitherrscher. Nach dem Tod des Vaters am 4. Februar 211 trat er zusammen mit seinem jüngeren Bruder Geta die Nachfolge an, doch schon im Dezember ließ er Geta ermorden. Anschließend befahl er ein reichsweites Massaker an Getas Anhängern. Fortan regierte er unangefochten als Alleinherrscher.
Caracalla kümmerte sich vor allem um militärische Belange und begünstigte die Soldaten. Damit setzte er einen schon von seinem Vater eingeschlagenen Kurs fort, der auf die Epoche der Soldatenkaiser vorauswies. Wegen des Mordes an Geta und dessen Parteigängern sowie der allgemeinen Brutalität seines Vorgehens gegen jede tatsächliche oder vermeintliche Opposition wurde er von der zeitgenössischen senatorischen Geschichtsschreibung sehr negativ beurteilt. Bei den Soldaten hingegen erfreute er sich offenbar großer Beliebtheit, die über seinen Tod hinaus anhielt und zum Scheitern seines Nachfolgers beitrug.
Bei der Vorbereitung eines Feldzugs gegen die Parther wurde Caracalla von einer kleinen Gruppe von Verschwörern ermordet. Da er kinderlos war, starb mit ihm die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus. Später wurden jedoch die Neffen seiner Mutter, die Kaiser Elagabal und Severus Alexander kontrafaktisch als uneheliche Söhne Caracallas ausgegeben.
Die Maßnahmen, mit denen Caracalla in erster Linie der Nachwelt in Erinnerung blieb, waren der Bau der Caracalla-Thermen und die Constitutio Antoniniana, ein Erlass von 212, mit dem er fast allen freien Reichsbewohnern das römische Bürgerrecht verlieh. Die moderne Forschung folgt weitgehend der ungünstigen Beurteilung seiner Regierungszeit durch die antiken Quellen, rechnet aber bei den Angaben der ihm feindlich gesinnten Geschichtsschreiber mit Übertreibungen.
Leben bis zum Herrschaftsantritt.
Kindheit.
Caracalla wurde am 4. April 188 im heutigen Lyon geboren, dem Verwaltungssitz der Provinz Gallia Lugdunensis. Er war der ältere der beiden Söhne des aus der Provinz Africa stammenden späteren Kaisers Septimius Severus, dem damaligen Statthalter von Lugdunensis. Nur elf Monate später kam sein Bruder Geta zur Welt. Seine Mutter Julia Domna, die zweite Frau des Septimius Severus, stammte aus einer sehr vornehmen Familie; ihre Heimatstadt war Emesa in der Provinz Syria (das heutige Homs in Syrien). Caracalla erhielt den Namen "Bassianus" nach seinem Großvater mütterlicherseits, einem Priester des in Emesa verehrten Sonnengottes Elagabal.
Einen erheblichen Teil seiner Kindheit verbrachte Caracalla in Rom. Sein Vater war ab 191 Statthalter der Provinz Oberpannonien. Die Kinder der Provinzstatthalter mussten auf Anordnung des Kaisers Commodus in Rom bleiben, denn der misstrauische Kaiser wollte sich gegen das Risiko von Aufständen der Statthalter absichern, indem er ihre Kinder in seinem unmittelbaren Machtbereich behielt. Als Kind soll sich Caracalla durch angenehme Eigenschaften ausgezeichnet haben. Er war fünf Jahre alt, als sein Vater am 9. April 193 von den Donaulegionen zum Kaiser ausgerufen wurde. Von Mitte 193 bis 196 hielt er sich mit seinem Vater im Osten des Reichs auf, dann kehrte er über Pannonien nach Rom zurück.
Septimius Severus gab sich ab Frühjahr 195 zum Zweck der Legitimierung seiner Herrschaft als Adoptivsohn des 180 gestorbenen Kaisers Mark Aurel aus. Mit dieser Fiktion wollte er sich in die Tradition der Adoptivkaiser stellen, deren Epoche als Glanzperiode der römischen Geschichte galt. Daher erhielt auch Caracalla als fiktiver Enkel Mark Aurels ab 195/196 den Namen dieses beliebten Herrschers: Er hieß fortan "Marcus Aurel(l)ius Antoninus", wurde also wie sein Vater als Angehöriger von Mark Aurels Familie, des Kaisergeschlechts der Antonine, betrachtet. An dieser Fiktion hielt er stets fest. Geta hingegen wurde nicht umbenannt, also nicht fiktiv in das Geschlecht der Antonine aufgenommen. Darin zeigte sich schon damals eine Bevorzugung seines ein Jahr älteren Bruders. Entweder schon Mitte 195 oder spätestens 196 wurde Caracalla der Titel "Caesar" verliehen, womit er zum künftigen Kaiser designiert wurde. Dieser Schritt markierte den Bruch zwischen Septimius Severus und dessen Rivalen Clodius Albinus, der Britannien unter seiner Kontrolle hatte. Albinus hatte sich im Jahr 193 Hoffnungen auf die Kaiserwürde gemacht, war aber von Severus mit dem Caesartitel und der Aussicht auf die Nachfolge abgefunden worden. Diese Regelung war mit Caracallas Erhebung zum "Caesar" hinfällig. Daher brach der 193 noch vermiedene Bürgerkrieg zwischen Severus und Albinus nun aus. Nach dem Sieg des Severus in diesem Krieg, in dem Albinus den Tod fand, stand Caracallas Anspruch auf die Nachfolge seines Vaters nichts mehr im Wege.
Als Kaisersohn erhielt Caracalla eine sorgfältige Erziehung. Daher war er nicht ungebildet; als Kaiser war er offenbar in der Lage, sich an intellektuellen Gesprächen zu beteiligen, und schätzte rhetorische Fähigkeiten.
197 begleitete Caracalla zusammen mit seinem Bruder Geta den Vater auf dessen zweitem Feldzug gegen das Partherreich. Schon im Frühjahr 197 wurde er offiziell als designierter Kaiser und Teilhaber der Herrschaft bezeichnet. Im Herbst 197 oder spätestens 198 wurde er zum "Augustus" erhoben und mit den kaiserlichen Vollmachten ausgestattet; fortan nannte man ihn "Marcus Aurel(l)ius Severus Antoninus Augustus". Wohl gleichzeitig wurde Geta zum "Caesar" erhoben. Die Kaiserfamilie blieb noch einige Zeit im Orient; 199 reiste sie nach Ägypten, wo sie sich bis 200 aufhielt. Erst 202 kehrte sie nach Rom zurück. In diesem Jahr war Caracalla zusammen mit seinem Vater ordentlicher Konsul.
Heirat und Konflikte der Jugendzeit.
Im April 202 wurde Caracalla, mit 14 Jahren nunmehr mündig, von seinem Vater gegen seinen Willen mit Publia Fulvia Plautilla verheiratet, die den Titel "Augusta" erhielt. Sie war die Tochter des Prätorianerpräfekten Gaius Fulvius Plautianus. Plautianus stammte aus Leptis Magna in Libyen, der Heimatstadt des Septimius Severus. Er hatte dank der Gunst des Kaisers eine außerordentliche Machtstellung errungen, die er durch die Verschwägerung mit dem Kaiserhaus absichern wollte. Seine Machtfülle wurde aber von der Kaiserin Julia Domna als Bedrohung wahrgenommen und brachte ihn mit ihr in Konflikt. Caracalla, der Plautianus als Rivalen sah, hasste seine Frau und seinen Schwiegervater und wollte beide beseitigen. Mit einer Intrige führte er 205 den Sturz des Plautianus herbei, wobei er sich der Hilfe seines Erziehers, des Freigelassenen Euodus, bediente. Euodus veranlasste drei Centurionen, Plautianus eines Mordplans gegen Severus und Caracalla zu bezichtigen; sie behaupteten, der Präfekt habe sie zu einem Attentat angestiftet. Severus schenkte ihnen Glauben und lud Plautianus vor, doch erhielt der Beschuldigte keine Gelegenheit zur Rechtfertigung, da Caracalla ihn nicht zu Wort kommen ließ. Nach der Darstellung des zeitgenössischen Geschichtsschreibers Cassius Dio versuchte Caracalla seinen Feind in Anwesenheit des Kaisers eigenhändig umzubringen, wurde aber von Severus daran gehindert. Darauf ließ er Plautianus von einem seiner Begleiter töten, offenbar mit Billigung des Kaisers. Plautilla wurde auf die Insel Lipari verbannt. Nach seinem Regierungsantritt ordnete Caracalla ihre Beseitigung an; über sie wurde die "damnatio memoriae" verhängt. Auch Euodus wurde später auf Befehl Caracallas hingerichtet.
Schon in früher Jugend war es zu einer ausgeprägten Rivalität der beiden Brüder Caracalla und Geta gekommen, die sich im weiteren Verlauf ihres Lebens beständig verschärfte und in tödlichen Hass verwandelte. Vergeblich bemühte sich Septimius Severus, die Feindschaft zwischen seinen Söhnen zu mildern und gegenüber der Öffentlichkeit zu vertuschen, etwa durch die Prägung von Münzen der "Concordia" (Eintracht), zweimaliges gemeinsames Konsulat Caracallas und Getas in den Jahren 205 und 208 und die Fernhaltung der Söhne von Rom. Am Britannienfeldzug des Kaisers, den er 208–211 gegen die im heutigen Schottland lebenden Kaledonier und Mäaten unternahm, nahmen beide Söhne teil. 209 erhielt Geta die Würde eines "Augustus", wurde also rangmäßig seinem bisher bevorzugten Bruder gleichgestellt. Da die Kämpfe sich hinzogen und Septimius Severus bereits bei schlechter Gesundheit war, betraute er 210 Caracalla mit der alleinigen Leitung der militärischen Operationen; Geta erhielt kein Kommando. Ab 210 führte Caracalla den Siegernamen "Britannicus maximus", den auch sein Vater und sein Bruder annahmen. Er soll versucht haben, den Tod des Kaisers zu beschleunigen, indem er dessen Ärzte und Bedienstete unter Druck setzte, dem Kranken etwas anzutun. Septimius Severus starb am 4. Februar 211 in Eboracum.
Regierungszeit.
Herrschaftsantritt und Machtkampf mit Geta.
Wie Septimius Severus es vorgesehen hatte, traten seine beiden Söhne zunächst gemeinsam die Herrschaft an. Sie schlossen mit den Kaledoniern und Mäaten Frieden und verzichteten damit auf die vielleicht ursprünglich geplante Besetzung von Gebieten im heutigen Schottland. Somit wurde der Hadrianswall wieder die nördliche Grenze des römischen Territoriums in Britannien. Der Frieden scheint stabil geblieben zu sein; anscheinend unterließen die freien Stämme des Nordens in den folgenden Jahrzehnten Einfälle in das Reichsgebiet.
Caracalla und Geta kehrten mit getrenntem Hofstaat nach Rom zurück. Dort schützten sich beide durch sorgfältige Bewachung voreinander. Als Vorbild für ein Doppelkaisertum konnte zwar die gemeinsame Herrschaft von Mark Aurel und dessen Adoptivbruder Lucius Verus im Zeitraum 161–169 dienen, doch bestanden wesentliche Unterschiede zur damaligen Situation: Verus war einst von Mark Aurel zum Mitherrscher erhoben worden, Caracalla und Geta hatten hingegen beide schon unter ihrem Vater den "Augustus"-Rang erlangt, und ihre Rangordnung und Befugnisse waren ungeklärt. Es gab keine anerkannte Erbfolgeregelung, insbesondere keine Primogenitur. Ein Nebeneinander zweier weitgehend gleichberechtigter Herrscher hätte theoretisch allenfalls durch eine Reichsteilung umgesetzt werden können. Der Geschichtsschreiber Herodian behauptet, es sei tatsächlich erwogen worden, das Römische Reich zu teilen und Geta den Osten zuzuweisen, doch sei dieser Plan verworfen worden, denn Julia Domna, die Mutter der beiden Kaiser, habe sich dem Vorhaben nachdrücklich widersetzt. Dieser Bericht wird aber in neueren Untersuchungen oft als unglaubwürdig beurteilt. Versuche, in epigraphischem Material eine Bestätigung für Herodians Darstellung zu finden, sind gescheitert.
Um beide Brüder hatte sich ein Kreis von Anhängern gebildet; Geta war zumindest bei einem Teil der Soldaten beliebt. Daher wagte Caracalla vorerst nicht, offen gegen ihn vorzugehen. Die römische Stadtbevölkerung, der Hof, der Senat, die Prätorianer und die in der Hauptstadt und ihrer Umgebung stationierten Truppen waren gespalten oder unschlüssig, so dass ein großer Bürgerkrieg bevorzustehen schien.
Schließlich gelang es Caracalla im Dezember 211, den Bruder in einen Hinterhalt zu locken. Er veranlasste seine Mutter, ein Gespräch im kaiserlichen Palast zu arrangieren. Leichtsinnigerweise folgte Geta der Einladung der Mutter, denn er meinte wohl, in ihrer Anwesenheit vor seinem Bruder sicher zu sein. Der Ablauf der tödlichen Begegnung ist unklar. Nach der Schilderung des zeitgenössischen Geschichtsschreibers Cassius Dio, die als die glaubwürdigste gilt, hatte Caracalla Mörder bestellt, die seinen Bruder in den Armen der Mutter töteten, wobei diese an der Hand verletzt wurde. Offenbar hat er aber auch selbst zugeschlagen, denn später weihte er das dabei von ihm verwendete Schwert im Serapeion von Alexandria der dort verehrten Gottheit Serapis. Anschließend wurde über Geta die "damnatio memoriae" verhängt und die Tilgung seines Namens in allen öffentlichen Denkmälern und Schriftstücken mit größter Gründlichkeit betrieben; sogar seine Münzen wurden eingeschmolzen.
Der nunmehrige Alleinherrscher rechtfertigte den Mord mit der Behauptung, selbst nur einem Anschlag Getas zuvorgekommen zu sein. Am Tag nach der Tat hielt er im Senat eine Rede, in der er seine Sichtweise darlegte und zugleich mit der Ankündigung einer Amnestie für Verbannte Sympathie zu gewinnen versuchte. Für die Öffentlichkeit und insbesondere für die Senatoren war die Mordtat aber ein unerhörter Tabubruch, von dem sich Caracallas Ansehen niemals erholen sollte. Die Prätorianer gewann er mit einer Solderhöhung und Geldgeschenken für sich, und auch das Einkommen der Soldaten wurde zur Sicherung ihrer Loyalität beträchtlich angehoben. Nach der Darstellung der "Historia Augusta", deren Glaubwürdigkeit allerdings umstritten ist, konnte Caracalla die in der Nähe von Rom stationierte "Legio II Parthica", die stark mit Geta sympathisiert hatte, nur mit einem reichlichen Geldgeschenk besänftigen.
Innenpolitik.
Terrorherrschaft.
Sogleich nach der Ermordung Getas ließ Caracalla zahlreiche Männer und Frauen, die als Anhänger seines Bruders galten, töten; damals sollen etwa 20.000 Menschen aus diesem Grund ermordet worden sein. Nach einer umstrittenen These hat man in York im Jahr 2004 vielleicht die enthaupteten Opfer einer damit zusammenhängenden Massenhinrichtung entdeckt. Auch später noch wurden viele umgebracht, denen Caracalla unterstellte, Sympathien für den unterlegenen Rivalen gehegt zu haben oder ihm nachzutrauern. Zu den prominenten Opfern des Terrors gehörten der Kaisersohn Pertinax Caesar sowie zwei Nachkommen des allseits verehrten Kaisers Mark Aurel: seine Tochter Cornificia und ein Enkel. Der berühmte Jurist Papinian, der ein Freund und Vertrauter des Septimius Severus gewesen war und sich im Auftrag des verstorbenen Kaisers um einen Ausgleich zwischen den verfeindeten Brüdern bemüht hatte, wurde auf Befehl Caracallas ermordet, nachdem Prätorianer Vorwürfe gegen ihn erhoben hatten. Unter den Opfern waren zwar auch Senatoren, doch der Herrscher scheint ein erträgliches Verhältnis zum Senat angestrebt zu haben; die Repression richtete sich in erster Linie gegen Personen niedrigen Ranges. Es wurde üblich, persönliche Gegner mit erfundenen Behauptungen in anonymen Anzeigen aus dem Weg zu räumen. Die zahlreichen Soldaten und Prätorianer in Rom dienten Caracalla als Spitzel und Informanten.
Eine aufschlussreiche Episode war Caracallas im Frühjahr 212 unternommener Versuch, den populären Senator und ehemaligen Stadtpräfekten Lucius Fabius Cilo umzubringen. Den Anlass dazu bot wohl, dass Cilo versucht hatte, zwischen Caracalla und Geta zu vermitteln. Caracalla erteilte Soldaten – offenbar handelte es sich um Prätorianer – den Befehl, gegen den Senator vorzugehen. Sie plünderten das Haus Cilos und führten ihn unter Misshandlungen zum Kaiserpalast. Daraufhin kam es zu einem Aufruhr; die Bevölkerung und in der Stadt stationierte Soldaten "(urbaniciani)", die früher unter Cilos Befehl gestanden hatten, griffen zugunsten des Verhafteten ein, um ihn zu befreien. Caracalla schätzte die Lage als so gefährlich ein, dass er aus dem Palast herbeieilte und vorgab, Cilo beschützen zu wollen. Er ließ die Prätorianer, die mit der Festnahme beauftragt gewesen waren, und ihren Befehlshaber hinrichten, angeblich zur Strafe für ihr Vorgehen gegen Cilo, in Wirklichkeit jedoch, weil sie bei der Durchführung des Befehls versagt hatten. Der Vorgang zeigt eine zumindest zeitweilige Schwäche des Kaisers. Er musste vor dem Widerstand von Teilen der Stadtbevölkerung und der städtischen Soldaten, auf deren Loyalität er angewiesen war, zurückweichen.
Generell ging Caracalla gegen Individuen und Gruppen, die seinen Zorn oder Verdacht erregten, mit großer Härte vor. Ein Merkmal seines Terrors war, dass er nicht nur gezielt Verdächtige hinrichten ließ, sondern auch kollektive Strafmaßnahmen ergriff, denen neben Oppositionellen auch zahlreiche harmlose Personen und Unbeteiligte zum Opfer fielen. Aufsehen erregte das Massaker von Alexandria in Ägypten. Dort richtete Caracalla bei seinem Aufenthalt in der Stadt, der von Dezember 215 bis März/April 216 dauerte, ein großes Blutbad unter der Bevölkerung an. Als Anlass gibt Cassius Dio an, dass sich die Alexandriner über den Kaiser lustig gemacht hatten. Die Stadtbevölkerung war als spottlustig bekannt, doch hatte ihre Aufsässigkeit auch einen ernsten Hintergrund: In der Stadt war – vermutlich aus wirtschaftlichen Gründen – eine kaiserfeindliche Stimmung entstanden, die sich in einem Aufruhr entlud. Dem Gemetzel in Alexandria, das tagelang angedauert haben soll, fielen auch auswärtige Besucher zum Opfer, die sich zufällig in der Stadt aufhielten. Außerdem wurde die Stadt von Caracallas Soldaten geplündert. Wahrscheinlich stellen Cassius Dio und der ebenfalls zeitgenössische Geschichtsschreiber Herodian das Ausmaß des Massakers übertrieben dar, doch dürfte die Schilderung Cassius Dios in den Grundzügen stimmen. Als der Kaiser bei einem Wagenrennen in Rom glaubte, eine aufsässige Menge wolle ihn durch Verspottung eines von ihm favorisierten Wagenlenkers beleidigen, befahl er seinen Soldaten, die Unruhestifter zu töten, was mit einem wahllosen Massaker endete.
Thermenbau und Ausdehnung des römischen Bürgerrechts.
Caracallas Name ist für die Nachwelt bis heute vor allem mit zwei spektakulären Maßnahmen verbunden: dem Bau der Caracalla-Thermen in Rom, einer Gesamtanlage von 337 mal 328 Metern, und der "Constitutio Antoniniana" von 212. Mit dem Thermenbau wollte sich der Kaiser bei der Stadtbevölkerung beliebt machen. Es war damals die größte derartige Anlage in Rom. Die "Constitutio Antoniniana" war eine Verfügung, die allen freien Bewohnern des Reiches mit Ausnahme der "dediticii" das römische Bürgerrecht verlieh. Die Abgrenzung des mit "dediticii" gemeinten Personenkreises ist unklar. Mit diesem Ausdruck bezeichnete man ursprünglich Angehörige von Völkern oder Staaten, die sich den Römern bedingungslos unterworfen hatten, entweder im Krieg im Sinne einer Kapitulation oder im Frieden, um römischen Schutz zu erhalten. Juristisch bedeutete die "Constitutio Antoniniana" nicht, wie man früher glaubte, die Aufhebung örtlicher Rechtsgewohnheiten und ihre Ersetzung durch römisches Privatrecht; örtliches Recht wurde weiterhin angewendet, soweit es dem römischen nicht widersprach. Daraus ergaben sich im juristischen Alltag Rechtsunsicherheiten ("ius praetorium"); eine umfassende, allgemeingültige Regelung wurde offenbar noch nicht angestrebt.
Die Zwecke und die Tragweite der "Constitutio Antoniniana" sind bis heute nicht befriedigend geklärt. Flankierende Maßnahmen zur Integration der Neubürger scheint Caracalla nicht getroffen zu haben, ein umfassendes, langfristiges Gesamtkonzept war mit der Bürgerrechtsverleihung anscheinend nicht verbunden. Caracalla gibt an, er habe sich zu dem Schritt entschlossen, weil er den Göttern für seine Rettung aus einer Gefahr danken wollte. Vermutlich meinte er damit einen angeblichen Mordanschlag Getas, doch sind auch andere Deutungen möglich. Cassius Dio gibt die Meinung der oppositionellen senatorischen Kreise wieder, der zufolge die Ausdehnung des Bürgerrechts vor allem den Zweck hatte, die Steuereinnahmen zu erhöhen; die von dem Erlass Betroffenen wurden Steuern unterworfen, die nur von römischen Bürgern zu entrichten waren. Solche Steuern waren eine Abgabe auf die Freilassung von Sklaven und die Erbschaftsteuer, die Caracalla damals von 5 auf 10 Prozent verdoppelte. Die Erhöhung der Steuereinnahmen war aber nur eines der Motive Caracallas. Außerdem wollte er die Neubürger wohl als ihm persönlich ergebene Anhängerschaft gewinnen, um auf diese Art die Feindschaft der traditionellen Elite, bei der er wegen seiner Terrorherrschaft verhasst war, zu kompensieren und so seine Machtbasis zu stärken. Zahlreiche Neubürger nahmen den Namen des Kaisers (Aurelius) an, der dadurch außerordentlich häufig wurde.
Verwaltung, Finanzen, Wirtschaft und Militär.
Da Caracalla sich durch seinen Terror unzählige Feinde schuf, besonders in der Oberschicht, war er zur Erhaltung seiner Macht ganz auf das Heer angewiesen und für seine persönliche Sicherheit auf seine skythischen und germanischen Leibwächter. Die Unterstützung der Soldaten gewann er, indem er ihren Sold stark erhöhte und sie mit häufigen üppigen Sonderzuwendungen (Donativen) beschenkte. Das Ausmaß der Solderhöhung betrug 50 Prozent, wobei der schon von Septimius Severus deutlich erhöhte Sold die Berechnungsgrundlage bildete. Nach einer von Cassius Dio mitgeteilten Schätzung betrug der dafür erforderliche jährliche Mehraufwand 280 Millionen Sesterzen (70 Millionen Denare). Diese Steigerung der militärischen Personalkosten war jedoch finanzpolitisch verhängnisvoll. Die Bevorzugung des Militärs war nur auf Kosten des wirtschaftlich produktiven Teils der Bevölkerung und der Geldwertstabilität möglich und erzeugte bei den so verwöhnten Soldaten maßlose Erwartungen. Spätere Herrscher konnten diese Entwicklung nicht mehr umkehren, ohne ihren sofortigen Sturz zu riskieren. Somit stellte Caracalla die Weichen für das künftige Soldatenkaisertum. Seine Politik trug dazu bei, dass später die mit dem modernen Schlagwort „Reichskrise des 3. Jahrhunderts“ bezeichneten Entwicklungen eintraten. Unter ihm verstärkten sich problematische Faktoren, welche die Wirtschaft im weiteren Verlauf des 3. Jahrhunderts stark belasteten. Allerdings bestanden schon vor seinem Regierungsantritt gravierende strukturelle Probleme.
Caracalla teilte große Provinzen auf, wohl um eine gefährliche Machtzusammenballung in der Hand der Provinzstatthalter zu verhindern. Kein Statthalter sollte mehr als zwei Legionen unter seinem Kommando haben. Britannien teilte er in die zwei Provinzen Britannia superior und Britannia inferior. In Hispanien trennte er von der großen Provinz Hispania citerior oder Tarraconensis eine neue Provinz ab, die er "Hispania nova citerior Antoniniana" nannte. Sie befand sich im Nordwesten der Halbinsel nördlich des Duero. Ihre Existenz ist nur aus Inschriften erschlossen und ihre Ausdehnung ist nicht genau bekannt, denn sie wurde bereits spätestens in den dreißiger Jahren des 3. Jahrhunderts wieder mit der Tarraconensis vereinigt.
Caracalla führte 214/215 eine Münzreform durch, die der Finanzierung des geplanten Partherkriegs dienen sollte. Er schuf eine neue Silbermünze, die später nach seinem offiziellen Namen Antoninus als "Antoninian" bezeichnet wurde. Der Antoninian, der im 3. Jahrhundert zur geläufigsten römischen Münze wurde, entsprach zwei Denaren, sein Gewicht jedoch nur etwa dem von anderthalb Denaren. Faktisch handelte es sich also um eine Geldverschlechterung. Diese führte zur Hortung des alten Geldes, die aus zahlreichen Schatzfunden ersichtlich ist. Außerdem wurde das Gewicht der Goldmünze "Aureus" um rund 9 Prozent reduziert (von 7,20 auf 6,55 g). Schon 212 hatte Caracalla den Silbergehalt des Denars um rund 8 Prozent verringert (von 1,85 g auf 1,70 g), offenbar wegen der Kosten der Solderhöhungen nach dem Mord an Geta. Noch drastischer war die Geldverschlechterung im Osten des Reichs, wo die syrische Drachme und die Tetradrachme die Hälfte ihres Silbergehalts einbüßten (Verringerung von 2 g Silber im Jahr 213 auf 0,94 g im Jahr 217). Dies bewirkte einen massiven Verlust an Vertrauen in den Geldwert.
Trotz der Härte, mit der Caracalla gegen jede Kritik vorging, soll die Steuerlast zu einer deutlichen Unmutsbekundung der Menge bei einem Pferderennen geführt haben.
Religion.
Caracallas Verhältnis zur Religion war, wie Cassius Dio berichtet, vor allem von seinem Bedürfnis bestimmt, von den Göttern Heilung von seinen Krankheiten zu erlangen. Zu diesem Zweck soll er allen bedeutenderen Gottheiten Opfer und Weihegaben dargebracht und eifrig gebetet haben. Zu den Göttern, von denen er Hilfe erhoffte, gehörten der griechische Heilgott Asklepios, der ägyptische Serapis und Apollon, der mit dem keltischen Heilungsgott Grannus identifiziert und als Apollo Grannus verehrt wurde. Wahrscheinlich besuchte der Kaiser den Apollo-Grannus-Tempel in Faimingen, das damals Phoebiana hieß und zur Provinz Raetia gehörte. Seine besondere Verehrung galt Sarapis, in dessen Tempelbezirk er während seines Aufenthalts in Alexandria wohnte. Auf dem römischen Hügel Quirinal ließ er einen Sarapis-Tempel errichten, der inschriftlich bezeugt ist, aber bisher nicht lokalisiert werden konnte.
Außenpolitik.
Germanenfeldzug.
Im Sommer 213 unternahm Caracalla einen kurzen Feldzug gegen Germanen. Nach einer fragmentarisch erhaltenen inschriftlichen Quelle, den "Acta Fratrum Arvalium", überschritt der Kaiser am 11. August 213 die rätische Grenze im Kampf gegen die Germanen. In der Forschung des In- und Auslandes wurde dieser Grenzübergang mehrfach mit dem Limestor Dalkingen in Verbindung gebracht. Laut byzantinischen Auszügen aus einem verlorenen Teil von Cassius Dios Geschichtswerk handelte es sich bei den Germanen um Alamannen. Das ist die erste namentliche Bezeugung der Alamannen. Die Zuverlässigkeit dieser Angabe, die in der älteren Forschung allgemein akzeptiert worden war, ist seit 1984 wiederholt bestritten worden, da der Alamannenname erst ein späterer Zusatz sei und nicht von Dio stamme; sie hat aber auch weiterhin Befürworter und wird ausführlich gegen die Kritik verteidigt. Zunächst errang der Kaiser einen größeren Sieg am Main, woraufhin er den Siegernamen "Germanicus maximus" annahm. Die anschließenden Kämpfe scheinen aber für ihn weniger günstig verlaufen zu sein, denn er sah sich zu Zahlungen an germanische Gruppen veranlasst. Insgesamt war sein Vorgehen aber offenbar erfolgreich, denn die Lage an der Nordgrenze blieb für zwei Jahrzehnte stabil.
Expansionspolitik im Osten.
Nach der Befriedung der Nordgrenze begab sich Caracalla in den Osten des Reichs, von wo er nicht mehr zurückkehren sollte. Zunächst scheint er im Gebiet der Stadt Tyras (heute Bilhorod-Dnistrowskyj in der Südukraine) die Karpen besiegt zu haben, dann zog er nach Kleinasien. Den Winter 214/215 verbrachte er in Nikomedeia, von dort brach er im Frühjahr 215 nach Antiocheia auf. Hatte er sich schon früher auch in Äußerlichkeiten in die Nachfolge Alexanders des Großen gestellt – er soll bei einem Besuch des Alexandergrabes auf den Sarkophag eine Chlamys, einen Ring und einen Gürtel gelegt haben –, so erreichte die Alexander-Nachahmung in seinen letzten Lebensjahren ihren Höhepunkt. Er soll eine Streitmacht von 16.000 Mann als „makedonische Phalanx“ mit makedonischer Kleidung und Bewaffnung aufgestellt haben. In einem Brief an den Senat behauptete er, eine Reinkarnation des Makedonenkönigs zu sein. Damit deutete er das Programm einer Wiederherstellung von Alexanders Weltreich, zumindest einer ruhmreichen Expansion nach Osten an. Schon vor seinem Aufbruch in den Osten hatte er König Abgar IX. von Osrhoene nach Rom gelockt und dort gefangengesetzt, worauf er das Königreich annektierte. Auch den arsakidischen König von Armenien und dessen Familie hatte er mit List in seine Gewalt gebracht, doch im Reich dieses Herrschers stießen die Römer auf hartnäckigen Widerstand. Ein römischer Vorstoß nach Armenien, dessen Durchführung der Kaiser seinem Vertrauten Theokritos übertragen hatte, scheiterte.
Die Anknüpfung an das Vorbild Alexanders des Großen und an dessen Weltherrschaftsidee bedeutete Konfrontation mit dem Partherreich, das Caracalla ins Römische Reich eingliedern wollte. Angeblich verfolgte er sein Ziel zunächst auf friedlichem Weg oder versuchte zumindest diesen Anschein zu erwecken: Er soll dem Partherkönig Artabanos IV. ein Heiratsprojekt vorgeschlagen haben. Artabanos sollte ihm seine Tochter zur Frau geben und damit den Weg zu einer künftigen Vereinigung der beiden Reiche ebnen. Dieses Projekt fällt ganz aus dem Rahmen der traditionellen römischen Außenpolitik; römische Kaiser gingen nie Heiratsverbindungen mit auswärtigen Herrscherhäusern ein. Die Historizität der von Cassius Dio und Herodian mitgeteilten, bei Herodian mit phantastischen Elementen ausgeschmückten Episode ist in der Forschung umstritten; überwiegend wird angenommen, dass die Überlieferung zumindest einen historischen Kern hat. Auch dabei spielte das Vorbild Alexanders eine Rolle; der Makedone hatte Stateira, eine Tochter des Perserkönigs Dareios III., geheiratet. Erst als Artabanos den phantastisch anmutenden Vorschlag ablehnte, begann Caracalla im Frühjahr 216 den Feldzug gegen die Parther.
Begünstigt wurden die Römer durch den Umstand, dass bei den Parthern damals ein Bürgerkrieg zwischen den Brüdern Artabanos IV. und Vologaeses VI. herrschte, in welchem allerdings Caracallas Gegner Artabanos deutlich die Oberhand hatte. Die römischen Truppen rückten kampflos bis nach Arbela vor. Dort plünderten sie die Gräber der Könige der Adiabene, einer vom Partherreich abhängigen Dynastie. Danach zog sich Caracalla nach Edessa zurück. Dort verbrachte er den Winter, während Artabanos den parthischen Gegenangriff vorbereitete, der dann aber erst Caracallas Nachfolger Macrinus mit voller Wucht traf. Cassius Dio behauptet, die Disziplin des römischen Heeres sei wegen Caracallas Verwöhnung der Soldaten mangelhaft gewesen.
Tod und Nachfolge.
Bevor es zu Kämpfen mit den Parthern kam, fand Caracallas Herrschaft ein gewaltsames Ende. Die detaillierte Schilderung der Vorgeschichte und der Umstände seines Todes bei Cassius Dio gilt in der Forschung als glaubwürdig, sie wird im Wesentlichen in modernen Darstellungen übernommen.
Zu den Personen nichtsenatorischer Herkunft, die Caracalla in Schlüsselstellungen gebracht hatte, gehörte der militärisch unerfahrene Prätorianerpräfekt Macrinus. Wie Cassius Dio mitteilt, befand sich Macrinus im Frühjahr 217 in einer akuten Notlage: Prophezeiungen hatten ihm die Kaiserwürde verheißen, und dies war Caracalla zu Ohren gekommen; außerdem war ein schriftlicher Bericht an den Kaiser unterwegs, und Macrinus war vor der ihm infolgedessen drohenden Lebensgefahr gewarnt worden. Das war wohl eine Intrige, doch hatte der Präfekt jedenfalls Anlass, darin eine tödliche Bedrohung zu sehen. Daher organisierte er mit einigen Unzufriedenen die Ermordung Caracallas. An dem Anschlag waren drei Männer beteiligt: der "evocatus" Julius Martialis, der den Kaiser wegen einer persönlichen Zurücksetzung hasste, und zwei Prätorianertribunen. Martialis führte das Attentat am 8. April 217 aus, als der Kaiser sich auf dem Weg von Edessa nach Carrhae befand, wo er ein berühmtes Heiligtum des Mondgottes Sin aufsuchen wollte. Als Caracalla unterwegs vom Pferd stieg, um seine Notdurft zu verrichten, näherte sich ihm Martialis, scheinbar um ihm etwas zu sagen, und versetzte ihm einen Dolchstoß. Ein skythischer Leibwächter Caracallas tötete darauf den flüchtenden Attentäter mit seiner Lanze. Die beiden Prätorianertribunen eilten zum Kaiser, als wollten sie ihm helfen, und vollendeten die Mordtat. Mit Caracalla starb die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus.
Erst nach tagelangem Zögern ließen sich die Soldaten überreden, Macrinus am 11. April zum Kaiser auszurufen. Caracalla wurde in Rom im Mausoleum Hadriani beigesetzt.
Aussehen und Ikonographie.
Nach Herodians Angaben war Caracalla von kleiner Statur, aber robust. Er bevorzugte germanische Kleidung und trug eine blonde, nach germanischer Art frisierte Perücke. Cassius Dio erwähnt, dass der Kaiser gern einen wilden Gesichtsausdruck annahm.
Eine Vorstellung von seinem Aussehen und vor allem von dem Eindruck, den er erwecken wollte, vermitteln insbesondere die zahlreichen erhaltenen Plastiken. Auch die Münzbildnisse sind aussagekräftig. Darstellungen des jungen Caracalla sind kaum von denen Getas zu unterscheiden. Zahlreiche Porträts aus der Zeit seiner Alleinherrschaft zeigen den Kaiser mit zusammengezogenen Stirnmuskeln und Augenbrauen; mit der grimmigen Miene sollten seine Willensstärke und Gewaltbereitschaft demonstriert werden. Offenbar zielte diese Selbstdarstellung auf Einschüchterung. Zugleich sollten damit die soldatischen Qualitäten des Kaisers betont werden.
Heinz Bernhard Wiggers hat bei der Rundplastik fünf Haupttypen unterschieden, die bei ihm meist nach den Fundorten der typbestimmenden Leitstücke benannt sind. Die spätere Forschung ist ihm hinsichtlich dieser Gruppierung gefolgt, benennt und datiert aber zum Teil anders. Die Typen sind:
Auf Münzen sind mehr Porträttypen unterscheidbar, was an der besseren Fundlage der Münzen gegenüber der Plastik liegen dürfte. Der erste Typ zeigt Caracalla als kindlichen "Caesar" ohne Lorbeerkranz. Es folgen sechs durch den zunehmenden Bartwuchs unterscheidbare Typen aus der Zeit zwischen 197 und der Ermordung Getas Ende 211. Die Münzbildnisse sollten wohl nach dem Willen des Vaters die Ähnlichkeit der beiden Brüder betonen und sie damit als gleichberechtigte künftige Nachfolger präsentieren. Nach Getas Tod folgt zunächst der durch dramatische Stirnfalten charakterisierte achte Porträttyp und schließlich in den letzten Regierungsjahren der neunte und letzte Typ mit entspannteren Gesichtszügen. Diese beiden Typen entsprechen dem ersten bzw. zweiten Alleinherrschertypus der Plastik.
Rezeption.
Zeitgenössische Urteile und Darstellung in den Hauptquellen.
Caracallas Ansehen bei den Soldaten beruhte nicht nur auf seiner finanziellen Großzügigkeit, sondern auch auf seiner Nähe zu ihrer Lebensweise: Auf den Feldzügen nahm er freiwillig die gleichen Strapazen auf sich wie ein einfacher Soldat. Seine körperliche Ausdauer verschaffte ihm Respekt. Noch lange nach seinem Tod hielt seine Beliebtheit im Heer an. Vielleicht schon während der kurzen Herrschaft des Macrinus setzten die Soldaten durch, dass der Senat ihn widerwillig im Rahmen des Kaiserkults zum Gott erhob. Spätestens ab dem ersten Regierungsjahr von Macrinus’ Nachfolger Elagabal wurde er als "divus Magnus Antoninus" verehrt. Elagabal verdankte seinen Aufstieg zur Macht dem Umstand, dass er als unehelicher Sohn Caracallas ausgegeben wurde, was ihm die Sympathie der Soldaten verschaffte; in Wirklichkeit war er nur sehr entfernt mit dem ermordeten Kaiser verwandt. Auch Elagabals Nachfolger Severus Alexander trat als unehelicher Sohn Caracallas auf, um sich bei den Soldaten beliebt zu machen.
Die Nachrichten über Caracallas Ansehen in der hauptstädtischen Bevölkerung sind widersprüchlich. Im Senat war er verhasst, daher wurde sein Tod dort bejubelt. Da er sich auf die senatorischen Familien nicht verlassen konnte, stützte er sich auf Aufsteiger ritterlicher Herkunft. Deren Bevorzugung steigerte die Erbitterung der zurückgesetzten Senatoren.
Die extrem caracallafeindliche Stimmung in der senatorischen Führungsschicht spiegelt sich in den Hauptquellen, den Darstellungen der zeitgenössischen Geschichtsschreiber Cassius Dio und Herodian, sowie in der weit später entstandenen und als Quelle weniger wertvollen "Historia Augusta". Cassius Dio hielt Caracalla für geistesgestört. Er legte fast alles, was der Kaiser tat, zu dessen Ungunsten aus. Seine "Römische Geschichte", die aus der Perspektive der senatorischen Opposition geschrieben ist, gilt trotz dieser sehr parteiischen Haltung als die beste Quelle und als relativ zuverlässig. Allerdings ist der Caracallas Zeit behandelnde Teil dieses Werks nur fragmentarisch überliefert; er ist hauptsächlich in Auszügen erhalten, die den Text in stark verkürzter Form und teilweise paraphrasierend wiedergeben. Herodians "Geschichte des Kaisertums nach Mark Aurel" ist im Original erhalten. Er hat wahrscheinlich Dios Werk benutzt, doch ist das Verhältnis der beiden Quellen unklar und umstritten. Der Quellenwert von Herodians Darstellung wird wesentlich niedriger veranschlagt als der von Dios "Römischer Geschichte". Die spätantike "Historia Augusta" hängt teilweise von den beiden älteren Werken ab, doch muss ihr Verfasser auch Zugang zu Material aus mindestens einer weiteren, heute verlorenen Quelle gehabt haben.
Außerhalb des Kreises seiner Anhänger wurde der Kaiser mit Spitznamen benannt. Wohl erst in der Zeit seiner Alleinherrschaft nannte man ihn nach seinem Kapuzenmantel "Caracalla". Dabei handelte es sich um eine vom Kaiser persönlich entworfene modifizierte Luxusausführung eines keltischen Kleidungsstücks. Ein weiterer Spitzname, den Cassius Dio überliefert, war "Tarautas"; unter diesem Namen war ein kleinwüchsiger, hässlicher und brutaler Gladiator bekannt, der offenbar ähnlich wie der Kaiser aussah, zumindest nach der Ansicht von dessen Gegnern.
Antike Caracalla-Legenden.
Schon zu Caracallas Lebzeiten kursierten anscheinend Gerüchte über eine sexuelle Beziehung zwischen ihm und seiner Mutter Julia Domna nach dem Tod seines Vaters. Dies war eine Verleumdung, die sich im Lauf der Zeit zu einer Legende auswuchs. Der Chronograph von 354 teilt sie wie eine Tatsache mit. In Wirklichkeit war das Verhältnis zwischen Mutter und Sohn nach dem Mord an Geta schlecht, obwohl Julia Domna offiziell geehrt wurde. Inzest war ein Topos der Tyrannendarstellung und wurde schon Nero unterstellt.
Quellen des 4. Jahrhunderts und der Folgezeit, darunter die "Historia Augusta", Aurelius Victor, Eutropius und die "Epitome de Caesaribus", machen aus Julia Domna die Stiefmutter Caracallas und behaupten, er habe sie geheiratet. Diese phantastische Darstellung findet sich auch bei christlichen Autoren der patristischen Zeit (Orosius, Hieronymus) und prägte im Mittelalter das Bild Caracallas als eines hemmungslosen Unholds. Der tatsächlich verübte Brudermord an Geta hingegen geriet in Vergessenheit.
Mittelalter.
Eine mittelalterliche Caracalla-Legende überliefert Geoffrey von Monmouth, der im 12. Jahrhundert das Geschichtswerk "De gestis Britonum" verfasste, das später unter dem Titel "Historia regum Britanniae" bekannt wurde und eine sehr starke Nachwirkung erzielte. Nach Geoffreys Darstellung waren Geta und Caracalla, den er Bassianus nennt, nur Halbbrüder; Geta stammte von einer römischen Mutter, Caracalla von einer britischen. Caracalla wurde von den Briten, da er mütterlicherseits zu ihnen gehörte, zum König gewählt, Geta von den Römern. Es kam zur Schlacht, in der Caracalla siegte und Geta fiel. Später wurde Caracalla von Carausius besiegt und getötet. In dieser Darstellung vermischte Geoffrey verschiedene Epochen, denn in Wirklichkeit war Carausius ein römischer Befehlshaber, der sich 286 zum Kaiser ausrufen ließ und ein kurzlebiges Sonderreich in Britannien und nördlichen Küstengebieten Galliens begründete.
Frühe Neuzeit.
Um die Wende vom 16. zum 17. Jahrhundert verfasste ein unbekannter englischer Dichter das lateinische Universitätsdrama "Antoninus Bassianus Caracalla" in jambischen Senaren. Er thematisierte neben dem Brudermord insbesondere die angebliche Ehe Caracallas mit Julia Domna, wobei er Julia nicht als Stiefmutter, sondern als leibliche Mutter Caracallas darstellte. Er schilderte also die Verbindung als wirklichen Inzest.
Im Jahr 1762 fertigte der französische Maler Jean-Baptiste Greuze ein Ölgemälde an, das Septimius Severus und Caracalla in Britannien zeigt. Der Kaiser wirft seinem Sohn vor, er habe versucht ihn zu ermorden. Die Szene fußt auf einer von Cassius Dio mitgeteilten legendenhaften Überlieferung, der zufolge Caracalla nach einem Attentatsversuch auf seinen Vater zur Rede gestellt, aber nicht bestraft wurde.
Moderne.
Die Einschätzungen der modernen Historiker orientieren sich generell – trotz Kritik an Einzelheiten der Überlieferung – weitgehend am Caracallabild der antiken Geschichtsschreibung. In der älteren Forschung pflegte man in Caracalla einen typischen Repräsentanten einer Verfallszeit zu sehen. Cassius Dios nicht überprüfbare Behauptung, der Kaiser sei geisteskrank gewesen, wirkt bis in die Gegenwart nach. Das früher populäre Schlagwort Cäsarenwahnsinn wird aber in der Fachliteratur vermieden, da es unwissenschaftlich ist und zur Erhellung der historischen Realität nichts beiträgt.
Zwei führende Kunsthistoriker des 19. Jahrhunderts, Anton Springer und Jacob Burckhardt, meinten aus Caracallas Porträt einen zutiefst verbrecherischen Charakter herauslesen zu können.
Für Theodor Mommsen war Caracalla „ein geringfügiger, nichtswürdiger Mensch, der sich ebenso lächerlich wie verächtlich machte“; zum Partherkrieg habe ihn seine „wahnsinnige Ruhmsucht“ veranlasst und dabei sei er „glücklicherweise“ ums Leben gekommen. Ernst Kornemann schrieb, er sei „voll Größenwahnsinn“ gewesen; im Heer und im Staate habe überall „der gemeine, unwissende Haufe“ geherrscht. Alfred Heuß meinte, Caracalla sei zu „sachlichen Leistungen“ unfähig gewesen, „ein roher, hemmungsloser und moralisch minderwertiger Mensch, der schon vor der Thronbesteigung stark verbrecherische Neigungen verriet“; zum Partherkrieg sei er von seiner „kindischen Phantasie“ veranlasst worden. Ähnlich ist das Urteil von Karl Christ ausgefallen: Caracalla habe seine „Grausamkeit, Hinterlist und innere Labilität“ nicht verborgen, habe an einer Nervenkrankheit gelitten und „in jeder Beziehung extrem und überreizt“ reagiert. Er sei „brutal, von unheimlicher Willenskraft“ gewesen; in den überlieferten Anekdoten habe sich „wohl die historische Wahrheit verdichtet“. Mit seiner Selbstdarstellung habe er vor allem Furcht erregen wollen. Die "Constitutio Antoniniana" erscheine zwar aus dem Rückblick als bedeutende Maßnahme, habe aber politisch an den bereits vorhandenen Strukturen kaum etwas geändert. Géza Alföldy war der Ansicht, das Urteil Cassius Dios sei „im Grunde genommen richtig“, eine „Ehrenrettung“ Caracallas entbehre jeder Grundlage.
In der neueren Forschung wird allerdings auch betont, dass die zeitgenössischen erzählenden Quellen von leidenschaftlichen Gegnern des Kaisers stammen und die Haltung der oppositionellen Senatskreise spiegeln und dass bei den Schilderungen seiner Missetaten, seiner abstoßenden Charakterzüge und seiner Unbeliebtheit mit Übertreibungen zu rechnen ist. Es wird darauf hingewiesen, dass Caracalla bei großen Teilen der Reichsbevölkerung möglicherweise weniger verhasst war als bei der hauptstädtischen Oberschicht. Unstrittig ist, dass er bei den Soldaten sogar lange über seinen Tod hinaus in höchstem Ansehen stand. Anthony R. Birley meint, man müsse zwar die Voreingenommenheit Cassius Dios in Rechnung stellen, doch lasse sich wenig zur Entlastung Caracallas vorbringen.
1907 vollendete Lawrence Alma-Tadema nach fast zweijähriger Arbeit das Ölgemälde „Caracalla and Geta“. Es zeigt die kaiserliche Familie – Caracalla mit seinem Bruder und seinen Eltern – im Kolosseum.
Quellen.
Die Quellenlage bei Caracalla ist recht dürftig. Die Hauptquellen sind die spätantike Historia Augusta und die Beschreibungen der Geschichtsschreiber Cassius Dio und Herodian. Die Historia Augusta ist jedoch sehr umstritten da sie oft übertriebene oder fiktive Angaben hat, was sie als Quelle sehr problematisch macht. Als zuverlässiger gelten Dio und Herodian, da beide jeweils Zeitzeugen waren. Jedoch gilt Herodian im Vergleich zu Cassius Dio als unzuverlässiger.
Literatur.
Allgemeines
Ikonographie
Hilfsmittel |
850 | 3582408 | https://de.wikipedia.org/wiki?curid=850 | Curl (Programmiersprache) | Curl ist eine Multiparadigmen-Programmiersprache, die entwickelt wurde, um bessere Internetanwendungen schreiben zu können. Es fließen Elemente aus Markupsprache, Skript- und objektorientierter Sprache ein.
Curl wird seit 1995 entwickelt. Die erste öffentliche Version erschien im Jahr 2000. Inzwischen liegt Curl in der Version 8.0.13 vor und wird von den Mitarbeitern der Firma "Curl, Inc." weiterentwickelt. "Curl, Inc." ist eine hundertprozentige Tochtergesellschaft des japanischen Unternehmens "Sumisho Computer Systems".
Curl-Anwendungen gehören in der Regel zur Gruppe der Rich Internet Applications. Anwendungen, die direkt aus dem Internet geladen oder lokal installiert wurden, werden in der gleichen sicheren Sandbox ausgeführt. Sie können online oder offline ausgeführt werden.
Es wird ein Plug-In (Curl Surge RTE) benötigt, das auf der Webseite des Herstellers zum Herunterladen zur Verfügung gestellt wird. Außerdem stellt das Unternehmen einen Curl-Editor (Curl Surge Lab IDE) für die Programmierung zur Verfügung, der eine umfangreiche Dokumentation in englischer Sprache enthält.
Curl ist nicht zu verwechseln mit dem gleichnamigen cURL, einem Download-Manager. |
851 | 52132 | https://de.wikipedia.org/wiki?curid=851 | Charles Babbage | Charles Babbage (* 26. Dezember 1791 in Walworth, Grafschaft Surrey, England; † 18. Oktober 1871 in London) war ein englischer Mathematiker, Philosoph, Erfinder und Politischer Ökonom. Babbage initiierte zahlreiche wissenschaftliche und soziale Reformen und ist vor allem für die von ihm entwickelte Rechenmaschine Analytical Engine bekannt. Diese gilt als Vorläufer des modernen Computers. 1854 gelang ihm als Erstem die Entzifferung einer Vigenère-Chiffre. Nach Babbage sind der Asteroid (11341) Babbage und der Mondkrater Babbage benannt.
Leben.
Der aus zwei alten Familien aus Devonshire stammende Babbage begann im Jahr 1810 ein Studium am Trinity College in Cambridge; Schwerpunkte waren Mathematik und Chemie. 1812 gründete er zusammen mit John Herschel die "Analytical Society", deren Ziel die Reformierung der britischen Mathematik und die Verbreitung fortschrittlicher Methoden vom europäischen Festland (wie etwa des Leibnizschen Differentialkalküls) war. 1814 machte er seinen Abschluss am Peterhouse in Cambridge. Am 2. Juli desselben Jahres heiratete er Georgiana Whitmore.
Im Jahre 1815 hielt Babbage eine Vorlesungsreihe über Astronomie an der Royal Institution, am 14. März 1816 ernannte man ihn für seine Verdienste auf dem Gebiet der Mathematik zum Mitglied der "Royal Society" und 1817 erreichte er den Magister der Philosophie. Am 26. Januar 1820 wurde er auch zum Fellow der "Royal Society of Edinburgh". Im gleichen Jahr gründete Babbage zusammen mit John Herschel und George Peacock die "Royal Astronomical Society", deren Schriftführer er bis 1824 wurde. Erster Präsident wurde Sir William Herschel, Babbage wurde am 18. Februar 1824 zum Vizepräsidenten gewählt. Am 18. November 1823 wählte man Babagge zum Ehrenmitglied der "Society of Art for Scotland".
Bis 1822 hatte Babbage ein funktionierendes Modell einer Rechenmaschine (zur Erstellung fehlerfreier Zahlentafeln) fertiggestellt. Mit Unterstützung der britischen Regierung begann 1823 die Arbeit an der "difference engine no. 1".
1826 veröffentlichte Babbage eine Schrift, in der er das Geschäft mit Lebensversicherungen mit Hilfe von Sterbetabellen auf eine statistische Grundlage stellte. Er erkannte die Abhängigkeit der Sterblichkeit von der sozialen Klasse und schlug deshalb vor, für die unteren Schichten andere Sterbetafeln als für die oberen Schichten zu verwenden.
Nach dem Tod des Vaters Benjamin Babbage (1753–1827) (wodurch Charles Babbage zu einem Erbe kam, welches ihm für den Rest seines Lebens ein sicheres Auskommen garantierte) und dem Ableben zweier Söhne und der Ehefrau innerhalb von sieben Monaten, trat er 1827 eine einjährige Europareise durch die Niederlande, Deutschland, Österreich und Italien an. Unter anderem bestieg er dabei den Krater des damals aktiven Vesuvs, traf mehrere Mitglieder der Familie Bonaparte, untersuchte den Serapistempel in Pozzuoli und besuchte Alexander von Humboldt in Berlin. Nach seiner Rückkehr war er bis 1834 politisch aktiv und unterstützte mit mäßigem Erfolg mehrere liberale Lokalpolitiker.
Babbage wurde 1828 Professor für Mathematik am Lucasischen Lehrstuhl für Mathematik an der Universität Cambridge (bis 1839), hielt aber keine Vorlesungen. Sein Bericht "Reflections on the decline of science in England, and on some of its causes" von 1830, in denen sich seine Unzufriedenheit mit dem Zustand der "Royal Society" widerspiegelte, führte 1831 zur Gründung der "British Association for the Advancement of Science".
Sein Buch "On the Economy of Machinery and Manufactures" erschien 1832. Dieses ist eine Analyse der Technologie und Organisation des Industriekapitalismus seiner Zeit, in der er unter anderem über die Senkung von Lohnkosten durch die Aufspaltung ganzheitlich-zusammenhängender Arbeit in mehrere, insgesamt weniger anspruchsvolle Tätigkeiten schrieb, was heute auch als „Babbage-Prinzip“ bekannt ist. Im selben Jahr wurde ein erstes Modul der "difference engine" aus etwa 2.000 von insgesamt projektierten 25.000 Teilen durch den Feinmechaniker Joseph Clement fertiggestellt. 1832 wurde Babbage in die American Academy of Arts and Sciences gewählt.
Im Jahr 1833 begann er die Arbeit an der "analytical engine" auf eigene Kosten. 1834 gründete er die Gesellschaft für Statistik in London.
1842 stellte die britische Regierung das Projekt "difference engine no.1" endgültig ein, 1846 beendete Babbage die Entwicklung der "analytical engine". Ab 1847 arbeitete er an detaillierten Plänen für eine "difference engine no.2" (bis etwa 1849), die mit bedeutend weniger Bauteilen als "no.1" auskam.
1854 gelang Babbage als Erstem die Entzifferung einer Vigenère-Chiffre, indem er beschrieb, wie man den passenden Schlüssel aus dem chiffrierten Text filtert. Er veröffentlichte sein Verfahren jedoch nie, so dass Wissenschaftler auf seine Erkenntnisse erst nach seinem Tod aufmerksam wurden.
Ehrungen.
1824 wurde er mit der Goldmedaille der Royal Astronomical Society ausgezeichnet. 1830 wurde er zum auswärtigen Mitglied der Bayerischen Akademie der Wissenschaften ernannt. Im Dezember 1832 wurde er als auswärtiges korrespondierendes Mitglied in die Russische Akademie der Wissenschaften aufgenommen. 1832 wurde Babbage die Ritterstufe des Guelphen-Ordens verliehen.
In Anerkennung seiner Verdienste in der Versicherungsmathematik wurde er Ehrenmitglied des "Institutes der Actuarien", das Mitte des 19. Jahrhunderts in Österreich-Ungarn vom "Verein für volkswirthschaftlichen Fortschritt" gegründet wurde.
Nach Babbage sind der Asteroid (11341) Babbage und der Mondkrater Babbage benannt.
Zitate.
„Eines Abends saß ich in den Räumen der Analytischen Gesellschaft in Cambridge, den Kopf in einer Art Wachtraum auf den Tisch gestützt und eine Logarithmentafel aufgeschlagen vor mir. Ein anderes Mitglied kam in den Raum, sah mich im Halbschlaf, und rief: ‚Babbage sag, wovon träumst du?‘, worauf ich erwiderte: ‚Ich denke daran, dass all diese Tafeln (worauf ich auf die Logarithmen deutete) von einer Maschine berechnet werden könnten‘.“
Wissenschaftliches Werk.
Babbage entwickelte mit der "difference engine" und der "analytical engine" zwei mechanische Rechenmaschinen, von denen er zu Lebzeiten zwar kein funktionstüchtiges Exemplar fertigstellen konnte, deren letztere aber als Vorläufer des modernen Computers gilt. Seine Interessen und Aktivitäten gehen aber weit über die Pionierleistung auf diesem Gebiet hinaus.
Seine unter dem Titel "Economy of machinery and manufactures" erschienene Analyse des Fabrikkapitalismus wurde eine wichtige Quelle für Karl Marx, der dieses Buch umfassend rezipierte. Nach Babbage ist das Babbage-Prinzip benannt, das sich mit Lohnkosten befasst.
Er stellte das Lebensversicherungsgeschäft auf eine mathematische Grundlage, beschäftigte sich mit Kryptologie, der Navigation von Unterwasserfahrzeugen und stellte eine Theorie zur Gletscherbildung auf. Zu seinen zahlreichen Erfindungen neben den Rechenmaschinen gehört angeblich auch ein Augenspiegel (Ophthalmoskop), den er unabhängig von Helmholtz entwickelt haben soll, und ein an der Stirnseite von Lokomotiven befestigter Schienenräumer, der „Kuhfänger“. Ebenso erkannte er, dass die Breite des Jahresringes eines Baumes vom Wetter beeinflusst wird und somit Rückschlüsse auf das Klima vergangener Zeiten zulässt.
Der Anlass zur Entwicklung von Rechenautomaten war für den Mathematiker Babbage die mangelnde Zuverlässigkeit numerischer Tabellen mathematischer Funktionen, die damals z. B. für die Schiffsnavigation erstellt wurden und bei deren Berechnung häufig Fehler auftraten. Er ging dieses Problem mit den Methoden der Industrialisierung an: Teilung der Arbeit in Einzelschritte (Algorithmisierung) und deren Übertragung auf Maschinen (Automatisierung). Er wusste durch die Verfahren des Franzosen Gaspard de Prony, der nach der Französischen Revolution beauftragt worden war, mathematische Tafeln im neuen Dezimalsystem zu berechnen, dass auch solche geistig-intellektuellen Aufgaben wie manuelle Tätigkeiten durch Arbeitsteilung effektiv organisiert werden können. Babbage nahm sich zum Ziel, auch den zweiten Schritt zu vollziehen und Maschinen zu konstruieren, die die Arbeitsschritte automatisch ausführen.
Seine Rechenmaschine wurde von Luigi Federico Menabrea beschrieben und in englischer Übersetzung von Ada Lovelace, der Tochter von Lord Byron, mit Anmerkungen versehen. Beide Schriften gelten als frühe Pionierwerke zur Programmierung. Lovelace erkannte, dass die "analytical engine" nicht nur als Rechenmaschine verwendet werden könnte. Ihre unter dem Kürzel A.A.L. publizierte Beschreibung mit ausführlichen Anmerkungen erhielt in wissenschaftlichen Kreisen Anerkennung und enthielt die Darstellung eines Algorithmus zur Berechnung von Bernoulli-Zahlen.
Sonstiges.
Charles Babbages "Difference Engine" wurde zu seinen Lebzeiten nie fertig. Erst zwischen 1989 und 1991 wurde im Londoner Science Museum die "Difference Engine No. 2" funktionsfähig nachgebaut. Später haben auch Bastler diese Maschine mit modernen, präzisen Spielzeugbausätzen wie Lego und Meccano nachgebaut.
Britische Forscher wollen mit Hilfe von Babbages Entwürfen auch die "analytical engine" in einem auf zehn Jahre berechneten Projekt nachbauen und damit auf ihre Funktionstüchtigkeit prüfen.
Babbage beschäftigte sich 1830 in „Reflections on the Decline of Science in England“ mit wissenschaftlichem Betrug. Er fasste zusammen, wie Forschungsresultate geschönt werden mittels
Im Jahre 1854 schlug er eine Verbesserung von Leuchttürmen vor. Um eine Verwechslung untereinander bzw. mit zufälligen Lichtsignalen zu verhindern, sollte jeder Leuchtturm seine Nummer mittels codierter Lichtsignale anzeigen (z. B. für die Nummer 243: zwei, vier und drei Lichtblitze, jeweils unterbrochen von einer kurzen Pause).
Charles Babbage vermachte sein Gehirn der Wissenschaft. Es ist heute in einem Glas neben dem Nachbau seiner Maschinen im Science Museum in London ausgestellt.
Babbage hatte eine besondere Leidenschaft für Feuer. So verweilte er bei 130 °C für einige Minuten in einem Ofen. Außerdem ließ er sich auf seiner Europareise in den Krater des Vesuv abseilen, um die geschmolzene Lava zu betrachten.
Ihm zu Ehren ist der Charles Babbage Award der IEEE Computer Society benannt. |
852 | 385814 | https://de.wikipedia.org/wiki?curid=852 | Clyde Tombaugh | Clyde William Tombaugh (* 4. Februar 1906 in Streator, Illinois; † 17. Januar 1997 in Las Cruces, New Mexico) war ein US-amerikanischer Astronom. Er entdeckte 1930 den Zwergplaneten Pluto, der bis 2006 als neunter Planet des Sonnensystems galt.
Leben.
Tombaugh wurde als Sohn einer Familie von Landwirten geboren. Seine Hoffnungen, das College von Streator zu besuchen, wurden zerschlagen, als ein Hagelsturm das Anwesen der Eltern zerstörte. Die Familie zog 1922 nach Kansas um und baute sich nahe der Ortschaft Burdett eine neue Existenz auf. Der junge Clyde lernte auf eigene Faust und brachte sich Geometrie und Trigonometrie bei. Im Alter von 20 baute er sein erstes Teleskop. Er beobachtete den Mars und den Jupiter und sandte Zeichnungen seiner Beobachtungen an das Lowell-Observatorium in Flagstaff (Arizona). Eigentlich bat er nur um Hilfe und Anregungen, aber Vesto M. Slipher, der Direktor von Lowell, bot ihm 1929 eine Position als Forschungsassistent ("junior astronomer"). Tombaugh akzeptierte und blieb für 14 Jahre dort.
Hier erhielt er den Auftrag, eine systematische Suche nach einem transneptunischen Planeten (auch Planet X genannt) durchzuführen, der von Percival Lowell auf der Grundlage der Berechnungen der Mathematikerin Elizabeth Williams und William Pickering vorhergesagt worden war. Am 18. Februar 1930 machte er die Entdeckung seines Lebens, indem er ein bewegtes Objekt als das lange gesuchte trans-neptunische Objekt erkannte. Es war die insgesamt dritte, noch 1916 von Percival Lowell finanzierte systematische Suchaktion. Der unbekannte Himmelskörper wurde später nach dem römischen Gott der Unterwelt Pluto benannt, der sich unsichtbar machen konnte (entscheidend sollen auch Lowells Initialen PL gewesen sein). In den Folgejahren entdeckte Tombaugh Hunderte neuer Asteroiden und zwei neue Kometen.
Am 18. Februar 1980 wurde der Asteroid (1604) Tombaugh nach ihm benannt. Die Aberkennung des Planetenstatus von Pluto im Jahr 2006 erlebte Tombaugh nicht mehr.
Tombaugh hatte 1925 die Burdett High School abgeschlossen und konnte schließlich 1932 mit einem Stipendium sein Astronomiestudium an der University of Kansas aufnehmen. 1936 erwarb er ein Bachelor- und 1938 ein Master-Diplom. Ab 1943 war er Dozent für Physik am Arizona State Teachers College, der heutigen Northern Arizona University, und war später Ausbilder für Navigationsaufgaben. 1945 arbeitete er als Gastprofessor für Astronomie an der University of California, Los Angeles.
Aus Geldmangel konnte er nach dem Zweiten Weltkrieg seine alte Stelle am Lowell-Observatorium nicht wieder aufnehmen. Stattdessen entwickelte er ab 1946 an den White Sands Proving Grounds optische Bahnverfolgungsteleskope für die A4-Raketen, die dort getestet wurden.1955 wechselte er an die New Mexico State University in Las Cruces, wo er das Astronomy Department aufbaute und bis zu seiner Emeritierung im Jahr 1973 Astronomie lehrte. In dieser Zeit lernte er einen jungen Mann in der Nachbarschaft kennen: Jaron Lanier. Lanier lernte von Tombaugh das Schleifen von Linsen, was ihm später beim Entwickeln der ersten VR-Brillen zugutekam.
Am 19. Januar 2006 startete die Raumsonde New Horizons zur Erforschung des Zwergplaneten Pluto. Mit an Bord befindet sich auch Asche von Clyde Tombaugh.
Tombaugh war ab 1934 mit Patricia (Patsy) Edson (1912–2012) verheiratet. Aus der Verbindung gingen zwei Kinder hervor; nach seinem Sohn Alden ist der Asteroid des inneren Hauptgürtels (2941) Alden benannt. Seit 1974 ist er Namensgeber für die Tombaugh-Kliffs auf der Alexander-I.-Insel in der Antarktis. |
853 | 2234691 | https://de.wikipedia.org/wiki?curid=853 | Christentum | Das Christentum ist eine Weltreligion, die aus dem Judentum hervorging und sich ab etwa 60 n. Chr. über Palästina hinaus ausbreitete. Ihre Anhänger werden "Christen" genannt, die Gesamtheit der Christen wird auch als die Christenheit bezeichnet.
Von zentraler Bedeutung für das Christentum ist Jesus von Nazaret, ein jüdischer Wanderprediger, der etwa in den Jahren 28–30 n. Chr. auftrat und in Jerusalem hingerichtet wurde. Seine Jünger erkannten gemäß christlicher Vorstellung in ihm nach seiner Kreuzigung und Auferstehung den Sohn Gottes und den vom Judentum erwarteten Messias. In ihren Bekenntnissen nennen sie ihn Jesus Christus. Der Glaube an ihn ist in den Schriften des Neuen Testaments grundgelegt. Die weitaus meisten Christen glauben an "einen" Gott (Monotheismus) als eine Trinität, das heißt eine Wesenseinheit aus Vater, Sohn und Heiligem Geist. Daneben existieren innerhalb des Christentums kleinere antitrinitarische Gruppierungen.
Die zahlreichen Konfessionen bzw. Kirchen innerhalb des Christentums lassen sich in fünf Hauptgruppen zusammenfassen: die römisch-katholische Kirche, die orthodoxen Kirchen, die protestantischen Kirchen, die anglikanischen Kirchen und die Pfingstbewegung. Mit rund 2,5 Milliarden (2022) Mitgliedern ist das Christentum vor dem Islam (2 Milliarden) und dem Hinduismus (1,2 Milliarden) die weltweit am weitesten verbreitete Religion.
Überblick.
Bezeichnung.
Der Begriff „Christentum“ (von griech. Χριστιανισμός, "Christianismós") wird erstmals in einem Brief des syrischen Bischofs Ignatius von Antiochien im 2. Jahrhundert erwähnt und ist den älteren Begriffen Ἰουδαισμός ("Ioudaismós", Judentum) und Ἑλληνισμός ("Hellēnismós", Hellenismus) nachgebildet. Nach der Apostelgeschichte wurden die Jünger Jesu Christi zuerst von den Bewohnern der zum Römischen Reich gehörenden syrischen Stadt Antiochia am Orontes Χριστιανόι ("Christianói", Christen) genannt, in welche die Christen nach den ersten Verfolgungen in Palästina geflohen waren. Man sah offenbar das Christusbekenntnis der Anhänger Jesu als charakteristisch für ihren Glauben an. Die Christen übernahmen diese Bezeichnung bald auch für sich selbst (vgl. , ). Das deutsche Wort "Kristentûm" ist erstmals bei Walther von der Vogelweide belegt.
Ursprung.
Die Wurzeln des Christentums liegen im Judentum im römisch beherrschten Palästina zu Beginn des 1. Jahrhunderts. Es geht zurück auf die Anhänger des jüdischen Wanderpredigers Jesus von Nazaret. Mit dem Judentum ist das Christentum insbesondere durch den ersten Teil seiner Bibel verbunden, der den jüdischen heiligen Schriften des Tanach entspricht und im Christentum Altes Testament genannt wird. Ohne das Alte Testament wäre der christliche Glaube geschichtslos und bliebe unverständlich. Christen lesen die Texte des Alten Testaments allerdings von Jesus Christus her und auf ihn hin (christologische Interpretation). Das Christentum verbreitete sich in kurzer Zeit im Mittelmeerraum. Dabei übte der Hellenismus erheblichen Einfluss auf das christliche Denken aus.
Selbstverständnis.
Der Kern der christlichen Religion rührt nach ihrem Selbstverständnis aus der bedingungslosen Liebe Gottes gegenüber den Menschen und der gesamten Schöpfung. In dieser Liebe, in der sich Gott in der Gestalt des Menschen Jesus von Nazaret offenbart und selbst erschließt, wird die Beziehung Mensch-Welt-Gott geklärt. Sie betrifft alle Daseinsbereiche des Menschen und alle Dimensionen des Menschseins. Die Heilszusage gilt den Menschen aller Nationen, unabhängig von ethnischer Zugehörigkeit, Geschlecht oder gesellschaftlicher Stellung (vgl. ). Das Christentum versteht sich somit als universale Religion und gleichzeitig als der unüberbietbare Ort, an dem sich Gott den Menschen in der Geschichte zugewandt hat und erfahrbar ist. Diesem Verständnis bzw. dem Sendungsauftrag Christi entspricht der missionarische Charakter des Christentums.
Lehre.
Jesus ist nach vorherrschendem christlichen Glaubensverständnis zugleich "wahrer Gott und wahrer Mensch". Die christliche Lehre, die auf dem biblischen Zeugnis basiert, hat folgenden zentralen Inhalt: Gott wandte sich in der Menschwerdung („Inkarnation“) in seinem Sohn Jesus Christus der in Sünde verstrickten Menschheit zu; der Tod Jesu Christi am Kreuz bewirkte die Erlösung durch Beseitigung von Schuld und Sünde der Menschheit.
Die Glaubensgewissheit lag für die ersten Christen in den Ereignissen zu Ostern begründet, dem dritten Tag nach der Kreuzigung Jesu. Damals – so die Überzeugung der Christen – bewirkte Gott an Jesus als erstem von allen Menschen die Auferstehung bzw. Auferweckung und bestätigte somit die Botschaft Jesu vom kommenden Reich Gottes . Die Anhänger Jesu machten die Erfahrung, dass ihnen der auferstandene Jesus erschien und seine bleibende Gegenwart zusagte . Auf diese Oster- bzw. Auferstehungserfahrung gründet sich die christliche Gemeinschaft (Kirche), die an Pfingsten durch den Heiligen Geist die Befähigung zur Erfüllung des Missionsauftrags erhielt.
Dieser Glaube wurde, zusammen mit der Erinnerung an das Wirken Jesu von Nazaret als dem Verkünder der Botschaft Gottes, in Form von gottesdienstlichen Hymnen sowie Bekenntnisformeln ausgedrückt und in Predigten entfaltet. Kern des Bekenntnisses waren auf Jesus übertragene, zum Teil alttestamentliche Hoheitstitel wie „Herr“, Gesalbter (griech. "Christus", hebr. "Messias"), „Sohn Gottes“ und andere. Schrittweise entstanden die Schriften des Neuen Testaments, die im Laufe der ersten Jahrhunderte – gemeinsam mit der Bibel der Juden – im biblischen Kanon festgehalten sowie bewahrt wurden – als einheitliche Grundlage der christlichen Lehre. In Bezug auf die Anerkennung der weiteren Lehrentwicklung gibt es konfessionelle Unterschiede.
Verbreitung.
Das Christentum ist die zahlenmäßig bedeutendste Weltreligion, der schätzungsweise ungefähr ein Drittel aller Menschen auf der Welt angehören. Die meisten staatlichen Statistiken werden auf Selbstbezeichnungen der einzelnen Staatsbürger oder Hochrechnungen zurückzuführen sein, manchmal auch auf amtliche Listen. In vielen Ländern der Erde werden Christen verfolgt, so dass von dort nur ungewisse Zahlen vorliegen.
Oben angeführt sind die Bevölkerungszahlen der UNO von 1998. Zahlen über Religionszugehörigkeit aus "Gebet für die Welt", Ausgabe 2003 (siehe unten). Die Daten stammen aus den Jahren 1998–2000. Die Wachstumsraten betreffen das durchschnittliche Wachstum von 1995 bis 2000, beruhen jedoch zum Teil auf einem Wechsel der Datenbasis. Das Christentum wuchs in dieser Zeit in den meisten Erdteilen der Welt, wobei sich sein Wachstum vom „alten“ Kontinent Europa hin zu den „neuen“ Erdteilen verschob; besonders stark wuchs es in Asien und Afrika. Dieses Wachstum verteilt sich gleichermaßen auf die katholische Kirche, evangelikale Gemeinschaften und Kirchen der Pfingstbewegung. Der Anteil der Lutheraner geht somit langsam zurück. In Europa kann man aufgrund des allgemeinen Geburtenrückganges und der Kirchenaustritte bei gleichzeitiger Migration einen Rückgang der Gesamtzahl der Christen verzeichnen.
Zusammenhalt, Organisation und Richtungen.
Die gesamte Christenheit wird als Ekklesia angesehen, als Leib Christi mit Christus als Haupt. Jeder einzelne Christ stellt ein Glied dieses mystischen Leibes dar. Manche christlichen Theologen unterscheiden zwischen der „unsichtbaren Kirche“, die alle gläubigen Christen aller Konfessionen umfasst, und der sichtbaren Kirche, deren Mitglieder mehr oder weniger gläubig sein können.
Innerhalb des Christentums entstanden bald mehrere Gruppierungen bzw. Strömungen, manchmal durch politische Motive oder geographische Gegebenheiten, aber auch durch abweichende Lehrmeinungen. Grob lassen sich diese Richtungen nach ihren Merkmalen in Konfessionen und Denominationen einteilen. Zu einer Konfession oder Denomination gehören eine oder mehrere Kirchen oder Gemeinden. Der einzelne Christ ist Mitglied einer bestimmten Kirche oder Gemeinde. Neben den Konfessionen gibt es auch konfessionsübergreifende theologische Richtungen, beispielsweise liberal, evangelikal oder charismatisch.
Viele Kirchen stehen in einer mehr oder weniger lockeren Gemeinschaft mit anderen Kirchen, die in beiderseits anerkannten Lehren begründet ist, ohne deshalb ihre spezifischen Lehren und ihr Brauchtum aufzugeben. Beispiele für solche Gemeinschaften sind der Ökumenische Rat der Kirchen, die Evangelische Allianz und die Leuenberger Konkordie. Daneben gibt es auch Kirchengemeinschaften, die die vollständige gegenseitige Anerkennung von Sakramenten, Kirchenmitgliedschaft und Ämtern beinhalten. Beispiele für solche Kirchengemeinschaften sind die Anglikanische Gemeinschaft, die orthodoxen Kirchen und die evangelischen Unierten Kirchen.
Da man den Christen die Taufe nicht angesehen hatte, wollten sie dennoch untereinander und nach außen hin identifizierbar sein. Da das Vaterunser einfache, für jeden wiederholbare Akte aufgewiesen hatte, erfüllte dieses alle Voraussetzungen für ein verbindendes und nach außen abgrenzendes Merkmal.
Historische Entwicklung.
In der antiken Welt gab es fünf christliche Patriarchate, denen jeweils die lokalen Metropoliten, Erzbischöfe und Bischöfe unterstellt waren: Rom, Konstantinopel, Alexandrien, Antiochien und Jerusalem. Sollte über wesentliche Lehrfragen entschieden werden, wurde ein Konzil (eine Versammlung von Bischöfen) einberufen. Das höchste Ansehen genossen die ökumenischen Konzile, in denen Bischöfe aus allen Patriarchaten zusammenkamen. Mehreren Konzilien, die sich selbst als „ökumenisch“ betrachteten, wurde dieser Status wegen mangelnder Zustimmung der Ortskirchen allerdings später aberkannt. Insgesamt gab es von 325 bis 787 sieben ökumenische Konzile, die bis heute von der katholischen, den orthodoxen, den anglikanischen und den meisten evangelischen Kirchen anerkannt werden; einige protestantische Kirchen lehnen allerdings das Zweite Konzil von Nicäa wegen seiner Aussagen über die Bilderverehrung ab.
Nach dem Konzil von Ephesos 431 n. Chr. kam es zu einer ersten Spaltung, nämlich der Abspaltung der Apostolischen Kirche des Ostens („Nestorianer“). Auf dem folgenden ökumenischen Konzil von Chalcedon wurde die Natur Christi als zugleich menschlich und göttlich definiert. Die miaphysitischen Kirchen, zu denen unter anderen die koptische Kirche, die syrisch-orthodoxe Kirche und die armenische apostolische Kirche gehören, betonen die Einigung (Enosis) der menschlichen und der göttlichen Natur Christi und lehnen die Lehre eines „zweifachen Christus“ ab, wie er im Nestorianismus vertreten wird. Die Reichskirche rezipierte die gemäßigte Zweinaturenlehre des Chalcedonense, so dass sie Bestandteil der Dogmatik der meisten heute existierenden Konfessionen ist.
In den folgenden Jahrhunderten vertiefte sich in der Reichskirche die Entfremdung zwischen der östlichen und westlichen Tradition bis zum Bruch. Die westliche Tradition entwickelte sich in der Spätantike und im frühen Mittelalter im weströmischen Reich, während die östliche Tradition in Konstantinopel, Kleinasien, Syrien und Ägypten entstand (Byzantinisches Reich). Die eigentlich dogmatischen Unterschiede bleiben zwar gering, aber die lateinische Kirche hatte in dieser Zeit Lehren entwickelt, die nicht von ökumenischen Konzilien abgesegnet worden waren (z. B. Erbsündenlehre, Fegefeuer, Filioque, päpstlicher Primat des Papstes). Weitere Unterschiede bestanden seit langem bezüglich politischer Umgebung, Sprache und Fragen des Ritus und der Liturgie (Samstagsfasten, Azyma). Die Situation spitzte sich im 11. Jahrhundert zu, so dass es 1054 zu einer gegenseitigen Exkommunikation zwischen dem Papst und dem Patriarchen von Konstantinopel kam. Dieses Datum gilt üblicherweise als Beginn des morgenländischen Schismas.
Die Westkirche erfuhr durch die Reformation des 16. Jahrhunderts eine tiefgreifende Spaltung. Die Anliegen der Reformatoren betrafen vor allem das Kirchen- und Sakramentenverständnis und die Rechtfertigungslehre. Die reformatorische Bewegung führte zu mehreren parallelen Kirchenbildungen, von denen sich im weiteren Verlauf neue Gruppierungen lösten, die in den folgenden Jahrhunderten zum Teil zu Kirchengemeinschaften zusammenfanden.
Nach ersten Ansätzen im 19. Jahrhundert (z. B. Bonner Unionskonferenzen) kam es im 20. Jahrhundert zu einer Annäherung zwischen den Konfessionen und zu Formen des Dialogs und der Zusammenarbeit, die sich unter dem Stichwort ökumenische Bewegung zusammenfassen lassen. So sehen sich heutzutage Kirchen, die die zentralen Elemente der christlichen Lehre bejahen, als Schwesterkirchen, oder sie engagieren sich in ökumenischen Foren, wie beispielsweise dem Weltkirchenrat oder der Arbeitsgemeinschaft Christlicher Kirchen in Deutschland.
Östliche Tradition.
Die Patriarchate von Konstantinopel, Alexandrien, Antiochien und Jerusalem und einige seither neu dazugekommene nationale Kirchen, haben bis heute die gleiche Theologie und Spiritualität, die sich kaum verändert hat, und sehen sich als Teil der ursprünglichen, von Christus gegründeten Kirche. Allen ist gemeinsam, dass sie die Liturgie in der jeweiligen Landessprache feiern. Die größte orthodoxe Kirche ist heute die russisch-orthodoxe Kirche. Faktisch hat seit dem Untergang des Weströmischen Reiches der Patriarch von Konstantinopel den Ehrenvorrang unter den orthodoxen Patriarchen inne. Heute haben die orthodoxen Patriarchate oft auch Kirchen im Ausland, die ihnen unterstellt sind. Es gibt signifikante Unterschiede zwischen den orthodoxen und den westlichen Kirchen – dazu gehören z. B. der Stellenwert des Heiligen Geistes im Hinblick auf die Heiligung der Gläubigen und der zu konsekrierenden Materie, die Spiritualität, die Ikonen und die Lehre von der Kirche. Die orthodoxen Kirchen haben ihre historischen Schwerpunkte in Südost- und Osteuropa, im Nahen Osten, in Indien und in Nordostafrika und sind heute als Auswandererkirchen in allen Teilen der Welt zu finden.
Orthodoxe Christen erkennen dem Bischof von Rom einen Ehrenvorrang im Rahmen der Pentarchie zu, sofern darunter nicht ein juristischer Primat verstanden wird. Dazu bedarf es, dass der Papst rechtgläubig im Sinne der Orthodoxie ist und er sich als „primus inter pares“ sieht.
In den orthodoxen Kirchen werden die drei Sakramente der Eingliederung (Taufe, Myronsalbung und Erstkommunion) in einer einzigen Feier gespendet. Der Zölibat ist in den orthodoxen Kirchen wie auch in den mit Rom unierten katholischen Ostkirchen nur für das Bischofsamt, für Ordensleute und geweihte Jungfrauen vorgeschrieben. Die Lehre basiert auf dem Verständnis, dass die Tradition unter der Führung des Heiligen Geistes fortschreiten kann, wobei eine „traditio constitutiva“ (unveränderbar) und eine „traditio divino-apostolica“, zu denen die Adiaphora zählen, zu unterscheiden ist. Die Orthodoxie beschränkt die „traditio constitutiva“ auf die von ihnen anerkannten ökumenischen Konzilien.
Orientalisch-Orthodoxe Kirchen.
Innerhalb des östlichen Christentums bilden die Orientalisch-Orthodoxen Kirchen (auch bekannt als altorientalische Kirchen) eine eigene Gruppe. Die Bezeichnung Orientalisch-Orthodoxe Kirchen hat für jene Kirchen Gültigkeit, welche die Beschlüsse des Konzils von Chalcedon (451) nicht angenommen haben. Federführend bezüglich der starken Opposition gegen die Beschlüsse des Konzils von Chalcedon waren vor allem die Kopten und die Syrisch-Orthodoxen Assyrer. Die Armenier und Äthiopier waren hingegen kaum in die Auseinandersetzungen um die chalcedonische Christologie involviert, sondern übernahmen einfach später die Position der Kopten und Syrisch-Orthodoxen Assyrer. Zur Gruppe der Orientalisch-orthodoxen Kirchen zählen heute die folgenden Kirchen:
Westliche Tradition.
Ab der Spätantike entwickelte sich die Lehre, dass der Bischof von Rom eine Autorität besitzt, die direkt auf den Apostel Petrus zurückgeführt werden kann und die ihn zum Stellvertreter Christi und damit Inhaber des obersten Jurisdiktions-, Lehr- und Hirtenamts in der christlichen Kirche macht.
Um die Mitte des zweiten Jahrtausends forderten Theologen an verschiedenen Orten in Europa (Martin Luther und Ulrich Zwingli im deutschen Sprachraum, Johannes Calvin im französischen, und Thomas Cranmer im englischen) aus Protest gegen Missbräuche Reformen in der katholischen Kirche. Daraus entstand die Trennung der westlichen Kirche in eine römische Tradition, die in der Reformation bei Rom blieb, und eine reformatorische Tradition, die sich von Rom löste.
Die Unfehlbarkeit des Papstes bei ex cathedra verkündeten Glaubensaussagen und dessen Jurisdiktionsprimat über die Gesamtkirche wurden 1870 im Ersten Vatikanischen Konzil mit der dogmatischen Konstitution Pastor Aeternus zu verbindlichen Glaubenssätzen der Römisch-katholischen Kirche erhoben. Nach diesem Konzil trennten sich die Unfehlbarkeitsgegner von Rom bzw. wurden exkommuniziert und bildeten fortan eigene altkatholische Kirchen, die sich in der Utrechter Union der Altkatholischen Kirchen zusammenschlossen. Weil ihre historische Tradition zwischen dem 16. und dem 19. Jahrhundert der römisch-katholischen Kirche parallel lief, sie aber gemäß ihrem Selbstverständnis eine reformorientierte Ausrichtung haben, die sie in Kirchengemeinschaft mit den Anglikanern und in ökumenische Verbundenheit zum Protestantismus gebracht hat, ist ihre Klassifizierung schwierig.
Römisch-katholische Tradition.
Der römisch-katholischen Kirche gehören weltweit etwa 1,1 Milliarden Gläubige an. Nach ihrem Verständnis ist die „eine heilige katholische Kirche“ (Nicäno-Konstantinopolitanisches Glaubensbekenntnis) das wandernde „Volk Gottes“, das unter Leitung des Papstes als dem Nachfolger des Apostels Petrus und Stellvertreter Christi auf Erden „unzerstörbare Keimzelle der Einheit, der Hoffnung und des Heils“ ist (vgl. Lumen gentium, Apostolicae curae und Dominus Jesus). Das Zweite Vatikanische Konzil ergänzte das Dogma der päpstlichen Unfehlbarkeit (1870) um die Aussage: „Die Gesamtheit der Gläubigen, welche die Salbung von dem Heiligen haben (vgl. ), kann im Glauben nicht irren.“
Die drei Sakramente der Eingliederung in die katholische Kirche sind die Taufe, die Firmung und der Empfang der Eucharistie.
Die apostolische Sukzession sieht die Kontinuität mit der Urkirche dadurch gewährleistet, dass sie eine Kette von Handauflegungen (Weihe), ausgehend von den Aposteln über viele Bischöfe vergangener Tage bis hin zu den heutigen Bischöfen, annimmt. Nur in apostolischer Sukzession stehende Bischöfe können daher das Weihesakrament gültig spenden.
Römisch-katholische Gottesdienste sind für alle zugänglich; der Empfang der Kommunion ist jedoch nur Katholiken sowie Angehörigen orthodoxer und orientalischer Kirchen erlaubt, sofern diese in rechter Weise disponiert sind. Mitgliedern anderer Kirchen darf in Todesgefahr die Wegzehrung gereicht werden, sofern sie bezüglich dieses Sakraments den katholischen Glauben bekunden. Interkommunion ist untersagt.
Evangelische Tradition.
Die evangelischen Kirchen verstehen sich als allein aus der biblischen Schrift heraus begründet (Sola scriptura), während die römisch-katholische Kirche sich durch die Schrift "und" die Überlieferung begründet sieht. Dennoch erkennen die evangelischen Kirchen die frühen kirchlichen Traditionen an, damit die Beschlüsse ihrer Synoden und Konzile, und die aus ihr stammenden Bekenntnisse (Apostolisches Glaubensbekenntnis und Nizäisches Glaubensbekenntnis). Diese beziehen ihre Autorität jedoch nur aus ihrem Einklang mit dem evangelischen Verständnis der Schrift und nicht aufgrund der Ämter ihrer Autoren.
Die öffentliche Auseinandersetzung Martin Luthers mit der römisch-katholischen Tradition begann – nach einer mehrjährigen theologischen Entwicklung – mit den 95 Thesen; seine Lehre ist in zwei von ihm verfassten Katechismen (Großer und Kleiner Katechismus) und anderen Schriften festgehalten. Luther selbst war Verfechter der Kindstaufe, der Beichte und der Marienverehrung, wandte sich aber entschieden gegen den Zölibat und heiratete 1525 Katharina von Bora.
Der als Augustinermönch ausgebildete Theologe verfasste eine neue, auf Augustinus von Hippo fußende Rechtfertigungslehre, die besagt, dass der „Glaube allein“ (Sola fide) den Menschen „coram Deo“ (vor Gott) gerecht mache und ihn so vor der gerechten Strafe Gottes errette. Basierend auf dieser Rechtfertigungslehre, sowie dem Prinzip der Sola scriptura, erkennen die meisten evangelische Christen als Sakramente nur zwei Handlungen an: die Taufe, bei der Jesus selbst nicht Handelnder gewesen ist, sondern Johannes der Täufer, und das Abendmahl oder Herrenmahl, das Jesus selbst begründete. Für beide Handlungen sind ein Wort und ein Element konstitutiv, die in der biblischen Überlieferung mit dem Gebot Jesu zu deren Durchführung verbunden sind. In der evangelischen Tradition gibt es unterschiedliche Abendmahlsverständnisse, die jedoch von den Mitgliedskirchen der Leuenberger Konkordie für nicht kirchentrennend gehalten werden. Die reformierte Tradition versteht das Abendmahl dabei als rein symbolisches Gedächtnismahl, während in der lutherischen Tradition der Gedanke der Realpräsenz Jesu „in, mit und unter“ den Elementen "Brot und Wein" betont wird (Konsubstantiation), ohne allerdings deren Wandlung (Transsubstantiation) wie im katholischen Verständnis. Es ist weiterhin möglich, die Beichte abzulegen und Absolution zu empfangen, aber dies sei weder notwendig, noch sei es ein Sakrament. In den taufgesinnten evangelischen Kirchen (nicht jedoch in den deutschen Landeskirchen, die in der Evangelischen Kirche in Deutschland (EKD) vereint sind) wurde die Taufe unmündiger Kinder durch die Gläubigentaufe ersetzt, da diese Kirchen davon ausgehen, dass ein persönlicher Glaube des Täuflings eine neutestamentliche Voraussetzung für den Empfang der Taufe "(sola fide)" sei. Die vielfältigen evangelischen Konfessionen sind institutionell autonom und haben keine offizielle gemeinsame Lehre, die über die Schrift hinausgeht, und kein gemeinsames Oberhaupt außer Christus.
Die gemeinsamen Grundgedanken der evangelischen Kirchen lassen sich durch die „vier Soli“ zusammenfassen:
Ein besonderer Fall ist die anglikanische Kirche, die an der apostolischen Sukzession, an vielen katholischen Bräuchen in der Liturgie und an der Realpräsenz Christi in den eucharistischen Gaben festhält.
Bezüglich des Verhältnisses von Tradition und Bibel gibt es alle Zwischenstufen von der Anglikanischen Kirche bis zu den calvinistisch-reformierten Kirchen, die jede Kirchentradition außerhalb der Bibel ablehnen.
Über Lehre und Praxis wird in den meisten Konfessionen durch Synoden oder Konferenzen auf internationaler Ebene entschieden, in anderen Konfessionen auf der Ebene der lokalen Kirche.
Heute sind die Unterschiede zwischen liberalen und konservativen Flügeln innerhalb einer Konfession oft größer als die Unterschiede zwischen einzelnen Liberalen bzw. zwischen einzelnen Konservativen aus verschiedenen Konfessionen.
Während die evangelischen Konfessionen früher sehr stark die Unterschiede betonten, gibt es heute einige Ansätze zur Annäherung: Viele evangelische Konfessionen in Europa haben sich in der Leuenberger Konkordie zusammengeschlossen, evangelikale Konfessionen arbeiten in der evangelischen Allianz zusammen. In einigen Fällen ist es sogar zu Wiedervereinigungen gekommen (United Church of Canada aus Lutheranern, Methodisten und Presbyterianern; Uniting Church of Australia aus Presbyterianern, Kongregationalisten und Methodisten; United Church of Christ aus sieben Konfessionen). Mit dem Weltkirchenrat gibt es auch ein Gremium der ökumenischen Zusammenarbeit, das nicht nur auf den Dialog zwischen den verschiedenen evangelischen Kirchen beschränkt ist, sondern in dem auch die altkatholischen, orthodoxen und altorientalischen Kirchen vertreten sind.
Tradition evangelischer Freikirchen.
Die 1525 in Zürich entstandene radikal-reformatorische Täuferbewegung wird von vielen Freikirchen zu ihrer Vorgeschichte gerechnet. Die Mennoniten (Taufgesinnte) und Hutterer stehen in direktem historischen Zusammenhang damit. Ebenfalls in der Reformationszeit verwurzelt sind die Schwenkfeldianer und die Unitarier. Die erste Baptistengemeinde wurde 1609 in unter englischen Puritanern und unter Einfluss niederländischer Mennoniten in Amsterdam gegründet. Im 18. Jahrhundert folgte in England die Gründung der Methodisten. Im Pietismus entstanden im deutschsprachigen Raum weitere Kirchen wie die Schwarzenau Brethren und die Herrnhuter, die zum Teil auf die früheren Böhmischen Brüder zurückgehen. Im 19. Jahrhundert folgte schließlich die Bildung der Heilsarmee, der Freien evangelischen Gemeinden und der Siebenten-Tags-Adventisten. Anfang des 20. Jahrhunderts entwickelte sich dann von Nordamerika aus die Pfingstbewegung.
Die meisten dieser Bewegungen verstehen sich als taufgesinnt und sind der Überzeugung, dass die Wassertaufe ein Ausdruck der bereits zuvor erlebten Neugeburt eines Menschen sein soll. Die Täuferbewegung wurde jahrhundertelang verfolgt. Auch die später entstandenen Freikirchen erfuhren Verfolgung und Diskriminierung. Sie waren getrennt von der jeweiligen Staats- oder Landeskirche und somit „Freikirchen“, die für die Trennung von Kirche und Staat eintraten. Diese verschiedenen freikirchlichen Zweige zeigen heute weltweit in Bezug auf Mitgliederzahlen ein starkes Wachstum.
In Deutschland arbeiten viele evangelische Freikirchen in der Vereinigung Evangelischer Freikirchen zusammen, in der Schweiz im Verband Evangelischer Freikirchen und Gemeinden in der Schweiz. In Österreich kam es zu einem Zusammenschluss mehrerer Bünde (Pfingstler, Evangelikale, Baptisten, Mennoniten) zu den Freikirchen in Österreich; dieser Zusammenschluss ist dort eine rechtlich anerkannte Kirche.
Andere Konfessionen.
Apostolische Gemeinschaften.
Als apostolische Gemeinschaften werden christliche Gemeinschaften bezeichnet, deren Ursprünge in den Erweckungsbewegungen zwischen 1820 und 1830 sowie in der daraus hervorgegangenen katholisch-apostolischen Gemeinschaft liegen. Hauptanliegen dieser Erweckungsbewegungen war eine Wiederbesetzung des Apostelamtes. Vor allem in den Anfangsjahren wurden die Lehre und Praxis der apostolischen Gemeinschaften sowohl vom Protestantismus als auch vom Katholizismus beeinflusst und geprägt. Es entwickelten sich – neben der Lehre vom Apostelamt – weitere exklusive Lehrvorstellungen, beispielsweise im Bereich der Eschatologie und des Entschlafenenwesens. Eine theologische Besonderheit aller dieser Gemeinschaften stellt auch das Sakrament der Heiligen Versiegelung dar, das laut Lehrmeinung notwendig sei, um vollständiges Heil zu erlangen (wobei sich die Aussagen hierüber unterscheiden).
Heute zählen zu den bedeutendsten Vertretern die Neuapostolische Kirche (NAK) und die Vereinigung Apostolischer Gemeinden (VAG), deren Gemeinden hauptsächlich als Abspaltungen von der NAK entstanden. Außerdem existieren das "Apostelamt Jesu Christi", das "Apostelamt Juda" und die "Old Apostolic Church". Einige der Gemeinschaften beteiligen sich an der Ökumenischen Bewegung und sind trotz theologischer Vorbehalte in die Arbeitsgemeinschaften Christlicher Kirchen aufgenommen worden.
Neureligiöse Gemeinschaften.
Verschiedene andere Konfessionen sehen sich weder in der orthodoxen, katholischen noch in der evangelischen Tradition. Gruppen, die sich selbst so einordnen, sind beispielsweise die Quäker, die Kirche Jesu Christi der Heiligen der Letzten Tage und andere Gemeinschaften der Mormonen, Die Christengemeinschaft, die Vereinigungskirche, die Ernsten Bibelforscher, die Freien Bibelgemeinden und die Zeugen Jehovas. Viele dieser neureligiösen Gemeinschaften haben von den oben skizzierten Konfessionen abweichende Auslegungen. Beispielsweise haben sie Ansichten über die Trinität, die nicht mit den ökumenischen Konzilen übereinstimmen, oder gleichwertige Schriften neben der Bibel oder bestimmte sogenannte „Sonderlehren“, die sich bei den anderen Konfessionen bzw. in der Bibel in dieser Form nicht finden oder ihnen sogar offen widersprechen. Wegen dieser Abweichungen ist es umstritten, ob jene oft auch als „(christliche bzw. religiöse) Sondergruppen oder -gemeinschaften“ oder „Sekten“ bezeichneten Gruppen überhaupt zu den christlichen Konfessionen gezählt werden können. Einige der besagten Gruppen haben die (allerdings unterschiedlich stark ausgeprägte) Tendenz, ihre eigene Sicht des Christentums als „absolut“ zu setzen. Der Begriff Unitarier umfasst heute sowohl antitrinitarisch-christliche Gruppen (Unitarier im traditionellen Sinne) als auch Vertreter einer pantheistisch-humanistisch ausgerichteten Religion, in der Christus keine zentrale Rolle mehr spielt.
Lehre.
Für die christliche Lehre sind die Menschwerdung Gottes, der Kreuzestod und die Auferstehung Jesu Christi zentral. Die Mehrheit der Christen glaubt, dass diese Ereignisse die Basis von Gottes Werk bilden, das die Menschheit mit ihm aussöhnt; sein Tod am Kreuz wird als Erlösungstat verstanden. Die Menschwerdung und der freiwillige Opfertod gelten als Ausdruck äußerster Liebe Gottes zur verlorenen Menschheit. Entsprechend zentral für das christliche Handeln ist die Liebe (griechisch "Αγάπη"; lateinisch "caritas") zu Gott (Gottesliebe) und zum Mitmenschen (Nächstenliebe).
Der großen Mehrheit der verschiedenen Konfessionen sind folgende Glaubensaussagen gemeinsam:
Ursprung und Einflüsse.
Die ersten Christen waren Juden, die zum Glauben an Jesus Christus fanden. In ihm erkannten sie den bereits durch die biblische Prophetie verheißenen Messias (hebräisch: "maschiach", griechisch: "Christos", latinisiert "Christus"), auf dessen Kommen die Juden bis heute warten. Die Urchristen übernahmen aus der jüdischen Tradition sämtliche heiligen Schriften (den Tanach), wie auch den Glauben an einen Messias oder Christus ("christos": Gesalbter). Von den Juden übernommen wurden die Art der Gottesverehrung, das Gebet der Psalmen u. v. a. m. Eine weitere Gemeinsamkeit mit dem Judentum besteht in der Anbetung desselben Schöpfergottes. Jedoch sehen fast alle Christen Gott als "einen" dreieinigen Gott an: den Vater, den Sohn (Christus) und den Heiligen Geist. Darüber, wie der dreieinige Gott konkret gedacht werden kann, gibt es unter den christlichen Konfessionen und Gruppierungen unterschiedliche Auffassungen bis hin zur Ablehnung der Dreieinigkeit Gottes (Antitrinitarier). Der Glaube an Jesus Christus führte zu Spannungen und schließlich zur Trennung zwischen Juden, die diesen Glauben annahmen, und Juden, die dies nicht taten, da diese es unter anderem ablehnten, einen Menschen anzubeten, denn sie sahen in Jesus Christus nicht den verheißenen Messias und erst recht nicht den Sohn Gottes. Die heutige Zeitrechnung wird vom traditionellen Geburtsjahr Christi aus gezählt. Anno Domini (A. D.) bedeutet „im Jahr des Herrn“.
Heilige Schrift und weitere Quellen.
Die zentrale Quelle für Inhalt und Wesen des christlichen Glaubens ist die Bibel, wobei Stellenwert und Auslegung variieren. Sie besteht aus zwei Teilen, dem Alten und dem Neuen Testament. Das Alte Testament entspricht inhaltlich bis auf Details dem jüdischen Tanach und wurde von Jesus und den Urchristen ebenso wie von den Juden als Heilige Schrift gesehen. Das Neue Testament enthält Berichte vom Leben Jesu (Evangelien), der frühen Kirche (Apostelgeschichte für die Jahre 30 bis etwa 62), Briefe der Apostel, sowie die Offenbarung des Johannes. Die Begriffe „Alt“ und „Neu“ für die Testamente bezeichnen den Tatbestand, dass es aus Sicht der Christen einen alten und einem neuen Bund zwischen Gott und den Menschen gibt. Das Alte Testament ist ursprünglich auf Hebräisch verfasst und wurde später (allerdings noch in vorchristlicher Zeit) unter der Bezeichnung Septuaginta ins Altgriechische übersetzt. Das Neue Testament ist hingegen in einer speziellen Variante des Altgriechischen, der Koine, verfasst. Später wurden beide Testamente ins Lateinische übersetzt (Vetus Latina, Vulgata), dem folgten sehr viel später verschiedene, teilweise konfessionsgebundene, Übersetzungen (aus dem Urtext) in die jeweiligen Volks- und/oder Landessprachen (etwa Lutherbibel, Zürcher Bibel, Einheitsübersetzung, King-James-Bibel).
Der Umfang des Alten Testaments wird von den Konfessionen unterschiedlich bestimmt, da die griechische Überlieferung der Septuaginta auch mehrere Texte enthält, die in der hebräischen Überlieferung nicht enthalten sind. Die Teile, die nur in der Septuaginta stehen, werden als deuterokanonische bzw. apokryphe Schriften bezeichnet. (Siehe auch Kanon des Alten Testaments.)
Über den Inhalt des Neuen Testaments besteht bei allen großen Konfessionen ein Konsens, der sich im Laufe der ersten vier Jahrhunderten entwickelt hat. (Siehe auch Kanon des Neuen Testaments.)
Durch zahlreiche Funde von Kodizes und Papyri in den letzten zwei Jahrhunderten kann der ursprüngliche Text des Neuen Testaments heute mit großer Genauigkeit wissenschaftlich rekonstruiert werden. Damit befasst sich die Textgeschichte des Neuen Testaments. Wie sich dieser rekonstruierte Text am besten in die Sprachen der Gegenwart übersetzen lässt, wird intensiv diskutiert (siehe Bibelübersetzung).
Auch in Bezug auf Exegese (Auslegung) der biblischen Texte und ihrer praktischen Anwendung auf das tägliche Leben (Ethik) gibt es eine große Bandbreite von Meinungen.
Bei den meisten Konfessionen beeinflussen neben der Bibel auch andere Texte wie Glaubensbekenntnisse, Katechismus, Tradition, Liturgie und christliche Vorbilder wie Heilige die Ausformung der kirchlichen und persönlichen Praxis.
Beziehung zu anderen Weltanschauungen.
Das Christentum hat andere Religionen beeinflusst, deren Anhänger sich zwar nicht als Christen sehen, aber Jesus als Propheten Gottes anerkennen. Im Koran erscheint Jesus als Isa ibn Maryam, das heißt als Sohn Marias, seine Gottessohnschaft wird indessen bestritten. Scharf zurückgewiesen werden im Koran jede Anbetung Jesu sowie nach Sure 112 die Dreieinigkeit. Andererseits trägt Jesus im Koran positive Titel wie Messias, Wort Gottes und auch Geist Gottes; ebenso gehört er zu den Propheten des Islam. Die Kreuzigung Christi wird in Sure 4, Vers 157 und entsprechend in der islamischen Koranexegese verneint:
Dem Christentum wird generell unter Nichtchristen Positives wie Negatives zugesprochen. Positiv wird meist die Lehre der Nächstenliebe gesehen. Auch setzen sich weltweit viele Christen für den Frieden und für barmherzige Konzepte gegen die Armut ein. Negativ wird die Geschichte des Christentums mit Kreuzzügen, Hexenverfolgungen, Inquisition und Antijudaismus gesehen. Die Positionen zu ethischen Reizthemen wie künstlicher Empfängnisverhütung, Homosexualität und Schwangerschaftsabbruch sind auch innerchristlich umstritten.
Der spätere König von Thailand Mongkut hatte um 1825 herum als buddhistischer Abt intensiven Kontakt mit dem katholischen Bischof Jean-Baptiste Pallegoix. Er kommentierte: „Was Ihr die Menschen zu tun lehrt, ist bewundernswert. Aber was Ihr sie zu glauben lehrt, ist töricht.“
Es ist ein Anliegen vieler christlicher Kirchen, sich untereinander zu versöhnen und eine gemeinsame Basis zu schaffen (Ökumene). Außerdem führen einige das Gespräch mit anderen Religionen (interreligiöser Dialog). Ziel ist ein friedliches Zusammenleben der Religionsgemeinschaften.
In den ersten nachchristlichen Jahrhunderten kam es zu teils heftigen Christenverfolgungen im Römischen Reich. Auch heute, gerade in kommunistischen und islamischen Ländern, findet eine starke Christenverfolgung statt.
Dem Christentum wird teilweise der Vorwurf gemacht, eine Mitschuld an der Judenverfolgung gehabt zu haben, da z. B. im Mittelalter Juden verfolgt wurden, weil man ihnen die Schuld am Kreuzestod Jesu gab. Ursache für diese Verfolgung war die Vermischung der historischen und der theologischen Schuldfrage, die dazu führte, dass gegenwärtig lebende Juden für die (historische) Schuld am Tod Jesu haftbar gemacht wurden und beispielsweise als „Gottesmörder“ bezeichnet wurden. Die heutige theologische Forschung unterscheidet zwischen der Frage nach der historischen Schuld für einen Justizmord, die gleichberechtigt für Jesus ebenso wie für jeden anderen Justizmord der Weltgeschichte gestellt werden kann und muss, und der theologischen Frage nach der Bedeutung des Todes Jesu Christi für jeden Einzelnen. Die historische Frage nach der Schuld am Tode Jesu wird heute relativ einhellig so beantwortet, dass hier die römische Besatzungsmacht die Verantwortung trug, da die jüdischen Autoritäten gar keine Befugnis zur Hinrichtung von Menschen hatten. Die theologische Frage wird im christlichen Glaubensverständnis so beantwortet, dass ein jeder Sünder selber die Schuld am Kreuzestod Jesu trägt.
Kultureller Einfluss des Christentums.
In der Geschichte des Abendlandes haben sich Glaube, Kultur und Kunst wechselseitig beeinflusst. Eine entscheidende Station war beispielsweise der Bilderstreit im frühen Mittelalter. Im Abendland beschäftigte sich Kunst oft mit christlichen Themen, obwohl seit der Renaissance stärker auch Rückgriff auf nichtchristliche Motive aus der Antike genommen wurde.
Musik gehört von jeher zur liturgischen Ausdrucksform des christlichen Glaubens. Große Bedeutung hatte der einstimmige unbegleitete "cantus choralis sive ecclesiasticus", der ab dem 9. Jahrhundert als "cantus gregorianus" ("gregorianischer Gesang") bezeichnet wird. In allen Epochen der Musikgeschichte schufen die bedeutendsten Musiker ihrer Zeit Werke auch für die Kirchenmusik, so beispielsweise Georg Friedrich Händel, Wolfgang Amadeus Mozart, Felix Mendelssohn Bartholdy; an herausragender Stelle aber vor allem Johann Sebastian Bach. Dichter wie Martin Luther oder Paul Gerhardt schufen im deutschsprachigen Raum Texte von hohem Rang und beeinflussten die weitere Entwicklung der Kirchenmusik maßgeblich. Der Einfluss des christlichen Glaubens ist dabei nicht auf die so genannte klassische oder E-Musik beschränkt: So greift beispielsweise die Gospelmusik vor allem im amerikanischen Kulturraum unterschiedliche Stilrichtungen des 20. Jahrhunderts auf und entwickelt diese weiter.
Auch im Bereich der Sprache und Schulbildung hat das Christentum in vielen Ländern maßgeblich gewirkt. Im deutschsprachigen Raum hatte Martin Luther durch seine Bibelübersetzung prägenden Einfluss auf die Entwicklung und Verbreitung der hochdeutschen Sprache. Die Bibel als meistübersetztes Buch der Weltliteratur machte es insbesondere in kleineren Sprachräumen z. T. überhaupt erst einmal erforderlich, eine Schriftsprache zu entwickeln, wodurch kleinere Sprachen häufig in ihrem Wert und ihrer Identität gestärkt wurden.
Naturbeobachtung, Arbeit und Technik spielten bei den westlichen Mönchen eine wichtige Rolle, sie gehörten zum geregelten Tagesablauf im Kloster, dem "Ora et labora" (deutsch: "bete und arbeite"). So erfand Gregor von Tours (538–594) die Wassermühle, Wilhelm von Auvergne (1228–1249) die mechanische Uhr und erfanden Mönche in Pisa oder Lucca 1280 die Brillengläser. Im sechzehnten Jahrhundert förderten die Reformatoren durch verständliche Bibelübersetzungen in die Volkssprachen auch eine vermehrte Einrichtung von öffentlichen Schulen und das Lesen der Bibel in der Familie, was zu einem größeren Engagement und Verantwortungsbewusstsein in Beruf und Gesellschaft führte. Die meisten der frühen Naturwissenschaftler waren Christen, weil sie von einem vernünftigen, gesetzmäßig aufgebauten Kosmos überzeugt waren, der entdeckt, erforscht und beschrieben werden konnte. Um 1830 entwickelten der Presbyterianer Cyrus McCormick und der Quäker Obed Hussey erste Mähmaschinen, um den Bauern in den USA die harte Erntearbeit zu erleichtern und die Erträge zu erhöhen.
Wurde der christlichen Mission früher teilweise der Vorwurf gemacht, zugleich mit dem christlichen Glauben auch die Kultur des Abendlandes (z. B. in Form von Kleiderordnungen) zu exportieren, ist das Selbstverständnis von Mission heute eher auf Inkulturation ausgerichtet. Zu den wesentlichen kulturellen Einflüssen des Christentums ist zudem die Etablierung der christlichen Zeitrechnung im Abendland zu zählen.
Literatur.
Lexika.
Siehe vor allem: "Theologische Realenzyklopädie," "Religion in Geschichte und Gegenwart" [4. Aufl.], "Lexikon für Theologie und Kirche" [3. Aufl.] und "Biographisch-Bibliographisches Kirchenlexikon". |
856 | 2234691 | https://de.wikipedia.org/wiki?curid=856 | Zytologie | Zytologie („Zelllehre“) bedeutet:
Siehe auch: |
857 | 1393159 | https://de.wikipedia.org/wiki?curid=857 | Coburg | Coburg (außerhalb des Herzogtums im 19. Jahrhundert auch "Koburg") ist eine kreisfreie Mittelstadt im bayerischen Regierungsbezirk Oberfranken und Sitz des Landratsamtes Coburg. Sie zählt zur Metropolregion Nürnberg. Vom 16./17. Jahrhundert bis 1918 war sie Residenzstadt der Herzöge von Sachsen-Coburg, von der Mitte des 19. bis Ende des 20. Jahrhunderts Garnisonsstadt. Seit 1971 ist Coburg Standort einer Fachhochschule. Seit 2005 führt Coburg den Beinamen "Europastadt". Über der Stadt erhebt sich mit der Veste Coburg eine der größten Burganlagen Deutschlands.
Geografie.
Lage und Überblick.
Coburg liegt zwischen dem südlichen Vorland des Thüringer Waldes, den Langen Bergen und dem Maintal und wird von der Itz durchflossen, in die innerhalb des Stadtgebietes bei der Heiligkreuzkirche die Lauter mündet. Diese vereinigt sich im Stadtteil Neuses mit der Sulz und wird in Coburg noch vom Rottenbach gespeist. Der von Cortendorf kommende Hahnfluss, ein 1967 verrohrter Mühlbach der Itz, mündet am Rand der Innenstadt bei der Judenbrücke in die Itz.
20 Brücken überspannen die Itz im Stadtgebiet. Mit dem Einzugsgebiet der Itz oberhalb Coburgs von ungefähr 346 km² kam es bis zur Errichtung des Hochwasserrückhaltebeckens Froschgrundsee im Jahre 1986 öfters zu größeren Überschwemmungen in der Stadt, insbesondere im tiefer gelegenen Bahnhofsviertel, dem ehemaligen Überschwemmungsgebiet der Itz. Letztmals trat die Itz 2003 in Coburg über die Ufer. Zur Verhinderung solcher Ereignisse wurde 2010 das Hochwasserrückhaltebecken Goldbergsee für Sulz und Lauter angestaut.
Die nächsten Großstädte sind Erfurt, etwa 80 km Luftlinie nördlich, Würzburg, etwa 90 km südwestlich, sowie Erlangen und Nürnberg, etwa 75 bzw. 90 km südlich. Die Höhenlage des Marktplatzes ist , die der Veste .
Stadtgliederung.
Coburg besteht aus der Kernstadt und zwölf weiteren Stadtteilen.
Zwei Drittel der Bevölkerung wohnen in der Kernstadt im Itztal. Insbesondere die äußeren Stadtteile Rögen sowie Neu- und Neershof haben noch einen stark dörflichen Charakter.
Nachbargemeinden.
Folgende Gemeinden des Landkreises Coburg grenzen im Uhrzeigersinn, beginnend im Norden, an die Stadt Coburg: Lautertal, Dörfles-Esbach, Rödental, Ebersdorf bei Coburg, Grub am Forst, Niederfüllbach, Untersiemau, Ahorn, Weitramsdorf und Meeder.
Klima.
Das Klima Coburgs ist durch die Lage zwischen dem oberen Maintal im Süden und dem Thüringer Wald im Norden gekennzeichnet. Zusätzlich wird es durch die Tallage beeinflusst. Die Sommer sind verhältnismäßig warm, milde Winter verhindert dagegen die Nähe zum Thüringer Wald.
Die Jahresmitteltemperatur liegt bei etwa 8,9 °C, die mittlere Tagestemperatur beträgt im Januar −1,4 °C und im Juli 17,2 °C. Im Mittel gibt es pro Jahr fünf heiße Tage, 36 Sommertage und 28 Eistage. Pro Jahr fallen, relativ gleichmäßig über die Monate verteilt, durchschnittlich 747 mm Niederschlag. Maxima gibt es im Juni mit 82 mm und im Dezember mit 73 mm. Niederschlag über 1,0 mm gibt es im Schnitt an jedem dritten Tag.
Geschichte.
11. bis 18. Jahrhundert.
Erstmals urkundlich erwähnt wurde Coburg 1056 in einer Schenkungsurkunde der exilierten Polenkönigin Richeza an den Erzbischof Anno von Köln über das Land um Coburg. 1331 verlieh Kaiser Ludwig der Bayer Coburg das Stadtrecht und das Recht der eigenen Gerichtsbarkeit. 22 Jahre später, im Jahr 1353, erbte Markgraf Friedrich III. von Meißen und somit das Haus Wettin von dem Henneberger Grafen Heinrich die Herrschaft Coburg (Pflege Coburg). Während die Hussiten im Jahr 1430 Bereiche des Coburger Landes plünderten, wurde die Stadt Coburg nicht angegriffen. Im Stadtwappen erschien 1430 der heilige Mauritius.
1485 gehörte Coburg nach der Leipziger Teilung den Ernestinern. Da die sächsischen Kurfürsten die Reformation unterstützten, konnte diese schon bis 1524 in Coburg eingeführt werden. Im Jahr 1530 hielt sich Martin Luther ein halbes Jahr auf der Veste Coburg auf, weil er wegen der über ihn verhängten "Acht" nicht am Reichstag zu Augsburg teilnehmen konnte.
Von 1586 bis 1633 war Coburg erstmals Residenz und Hauptstadt des selbständigen Herzogtums Sachsen-Coburg. In dieser Zeit entstanden in Coburg unter Herzog Johann Casimir einige Renaissancebauten, die noch heute das Stadtbild prägen. Nach einer Periode von 1680 bis 1699 unter Herzog Albrecht wurde Coburg 1735 abermals Residenzstadt, diesmal der Herzöge von Sachsen-Coburg-Saalfeld und ab 1826 von Sachsen-Coburg und Gotha.
Ab 1532 kam es in Coburg zu einzelnen Hexenprozessen. Während der Regierungszeit Herzog Johann Casimirs (1586–1633) sind etwa 178 Hexenprozesse nachweisbar mit intensiven Verfolgungen von 1612 bis 1619 und von 1628 bis 1632. Insgesamt gab es in Coburg und Umgebung im 16. und 17. Jahrhundert mindestens 228 Hexenprozesse.
19. bis 20. Jahrhundert.
Anfang des 19. Jahrhunderts wurde unter Herzog Ernst I. das Residenzschloss Ehrenburg neu gestaltet. Der Schlossplatz erhielt mit dem neuen Hoftheater, den Arkaden und dem erweiterten Hofgarten sein heutiges Aussehen.
Wichtig für die Stadtentwicklung war das Jahr 1858 mit dem ersten Eisenbahnanschluss an die Werrabahn. Die Eisenbahnverbindung führte unter anderem dazu, dass in den folgenden 60 Jahren Kaiser, Zaren, Könige und Fürsten oft zum Besuch ihrer Verwandtschaft nach Coburg kamen. Unter der Regentschaft und dem Patronat des liberalen Herzogs Ernst II. wurde die Stadt um 1860 Zentrum der in Vereinen organisierten deutschen Nationalbewegung.
Am 14. November 1918 endete mit dem Rücktritt des Herzogs Carl Eduard die Monarchie. Am 30. November 1919 stimmten in einer der ersten demokratischen Volksbefragungen in Deutschland 9402 Einwohner der Stadt Coburg gegen den Zusammenschluss des Freistaates Coburg mit dem Land Thüringen und 1624 dafür. Somit kam Coburg am 1. Juli 1920 zum Freistaat Bayern.
Ab 1922 entwickelte sich Coburg zu einer Hochburg des Nationalsozialismus.
Schon 1929 erhielt die NSDAP zum ersten Mal in einer deutschen Stadt bei den Stadtratswahlen die absolute Mehrheit der Sitze. Coburg verlieh 1932 als erste deutsche Stadt Adolf Hitler die Ehrenbürgerwürde. Ab 1939 durfte Coburg den Ehrentitel „Erste nationalsozialistische Stadt Deutschlands“ führen.
Im Jahr 1925 hatte Coburg 316 jüdische Einwohner. Bei einer Einwohnerzahl von 25.707 waren es 1933 noch 233 jüdische Bürger. Das Gedenkbuch des Bundesarchivs für die Opfer der nationalsozialistischen Judenverfolgung in Deutschland verzeichnet namentlich 65 jüdische Einwohner Coburgs, die deportiert und größtenteils ermordet wurden.
Im Zweiten Weltkrieg wurde Coburg gegen Kriegsende durch Luftangriffe und Artilleriebeschuss zu 4,1 % zerstört, insgesamt wurden 402 Wohnungen vollständig zerstört und 639 beschädigt. Die Stadt wurde am 11. April 1945 von der 11. US-Panzerdivision besetzt. Die Entscheidung für Bayern im Jahr 1919 gewann rückblickend noch einmal an Gewicht. Coburg wurde Teil der Amerikanischen Besatzungszone, während das thüringische Hinterland zur Sowjetischen Besatzungszone gehörte und bis 1989 durch die Zonengrenze bzw. ab 1949 innerdeutsche Grenze von Coburg abgeschnitten blieb. Coburg lag somit im Zonenrandgebiet.
Im Jahr 1950 verlegte die "Haftpflicht-Unterstützungs-Kasse kraftfahrender Beamter Deutschlands a. G., Erfurt," die heutige Versicherungsgruppe HUK-Coburg, ihren Sitz nach Coburg. Sie ist mit rund 5.500 vor Ort tätigen Mitarbeitern (Stand 2015) größter Arbeitgeber und Gewerbesteuerzahler Coburgs, was die höchsten Gewerbesteuereinnahmen bezogen auf die Einwohnerzahl in Bayern und die fünfthöchsten in Deutschland zur Folge hat.
Im 21. Jahrhundert.
Coburgs Bedeutung für die Region hat, insbesondere durch die Wiedervereinigung Deutschlands, weiter zugenommen. Die Stadt ist Oberzentrum mit wichtiger Infrastruktur, wie Landestheater, Landesbibliothek, Klinikum und vielen verschiedenartigen Schulen, darunter vier Gymnasien. Seit dem 30. Mai 2005 führt Coburg den Beinamen "Europastadt". Mit diesem Beinamen bezeichnen sich Städte, die sich dem Gedanken der europäischen Verständigung besonders verschreiben. 2014 wurde Coburg der Ehrentitel „Reformationsstadt Europas“ durch die Gemeinschaft Evangelischer Kirchen in Europa verliehen.
Eingemeindungen.
Am 1. Juli 1934 wurden Ketschendorf, Wüstenahorn, Cortendorf (mit dem zugehörigen Forstbezirk Coburg I Bausenberg) und Neuses bei Coburg eingemeindet, wodurch Coburg wieder Garnisonsstandort werden konnte (dafür war eine Einwohnerzahl von 30.000 notwendig). Ende der 1930er Jahre folgte die Zuordnung des rund 20 Hektar großen Geländes der Hindenburg-Kaserne auf Dörfleser Flur. Die 1970er Jahre waren durch eine größere Zahl von Eingemeindungen im Rahmen der Gemeindegebietsreform gekennzeichnet. Am Jahresanfang 1972 waren es Lützelbuch, Rögen und Seidmannsdorf (mit Löbelstein), sowie am 1. Juli Beiersdorf bei Coburg (bekannt für das Schloss Callenberg), Creidlitz und Scheuerfeld. Am 1. Juli 1976 kamen die ehemalige Gemeinde Neu- und Neershof und das Gut Neudörfles aus der Gemeinde Dörfles-Esbach dazu, sowie am 1. Januar 1977 Bertelsdorf und das 1868 dorthin eingemeindete Glend. 1993 erwarb Coburg von Lautertal 105 Hektar für ein neues Baugebiet. Die Fläche der Stadt hat sich damit seit 1900 von 11,4 auf über 48 Quadratkilometer mehr als vervierfacht.
Schreibweise.
Außerhalb von Coburg wurde auch die Schreibweise "Koburg" verwendet. Ein Präsidialerlass der Regierung von Oberfranken vom 30. Oktober 1920 legte als Schreibweise des Namens der Stadt "Coburg" fest.
Religion.
Historischer Überblick.
Der Coburger Raum gehörte seit der Christianisierung Frankens und Thüringens, wohl erstmals um 768, bis zur Einführung der Reformation 1524 zum Bistum Würzburg.
Danach war die Stadt über vier Jahrhunderte eine fast ausschließlich protestantische Stadt. Vorherrschend war das lutherische Bekenntnis. 1910 waren über 96 Prozent der Bevölkerung Mitglied der evangelischen Landeskirche. Oberhaupt der Landeskirche war der jeweilige Herzog von Sachsen-Coburg als „summus episcopus“. Er ernannte unter anderem die Kirchenregierungen. Die geistliche Leitung hatten die Superintendenten mit Sitz in Coburg. Nach der Vereinigung Coburgs mit Bayern schloss sich 1921 die Evangelische Landeskirche Coburg der Evangelischen-Lutherischen Landeskirche Bayerns an. Coburg ist Sitz eines Dekanats, das mit über 76.129 Mitgliedern (2008) zu den größten in Bayern zählt.
Römisch-katholische Gemeindeglieder zogen spätestens im 18. Jahrhundert wieder in die Stadt. Ab 1802 war es ihnen gestattet, Gottesdienste abzuhalten, zuerst in einem Zimmer in der Ketschengasse 1, ab 1806 in der Nikolaus-Kapelle. 1860 erhielten die zirka 600 Katholiken unter der Protektion von Prinz August von Sachsen-Coburg-Koháry den Kirchenneubau St. Augustin als eigene Kirche. 1826 wurde die Pfarrei aus dem Bistum Würzburg in das Erzbistum Bamberg eingegliedert.
Neben den beiden großen Kirchen gibt es heute auch Gemeinden, die zu Freikirchen gehören, darunter die Evangelisch-Freikirchliche Gemeinde (Baptisten), die Adventgemeinde (Siebenten-Tags-Adventisten) und die Christengemeinschaft. Ferner sind eine neuapostolische Gemeinde, eine alt-katholische Pfarrgemeinde in der St.-Nikolaus-Kapelle, die Kirche Jesu Christi der Heiligen der Letzten Tage und die Zeugen Jehovas in Coburg vertreten. Schon 1321 wurde die "villa Judaeorum" (jüdische Vorstadt) erstmals vermerkt. Eine jüdische Gemeinde mit Synagoge gibt es seit 1941 nicht mehr. Im Jahr 2006 bestanden in Coburg drei Gebetshäuser muslimischer Gemeinden.
Konfessionsstatistik.
Gemäß dem Zensus 2011 waren 53,3 % der Einwohner evangelisch, 19,8 % römisch-katholisch; 26,9 % gehörten einer anderen oder keiner öffentlich-rechtlichen Religionsgesellschaft an, oder es lag keine Angabe zu einer öffentlich-rechtlichen Religionsgesellschaft vor. Ende 2019 waren von 41.206 Einwohnern 17.638 (42,8 %) evangelisch, 7.288 (17,7 %) römisch-katholisch und 16.280 (39,5 %) Sonstige.
Bevölkerungsentwicklung.
Im Jahr 1480 lebten in der Stadt 2.000 Einwohner. Erst im Laufe des 19. Jahrhunderts nahm die Einwohnerzahl stärker zu und erreichte 1843 10.000. Von 1864 bis 1875 wuchs die Stadt um fast 4.000 Einwohner auf 14.570, was einem Wachstum von 37 Prozent entsprach. Anfang 1900 betrug die Anzahl der Bürger 20.460. Trotz eines Rückgangs der Einwohnerzahl um etwa 10 Prozent nach dem Ersten Weltkrieg lebten 1927 über 25.000 Personen in der Stadt. Durch die ersten Eingemeindungen 1934 ergab sich ein Sprung um ungefähr 10 Prozent auf 29.000 Einwohner; der Höchststand war 1946 mit 50.000 Einwohnern erreicht, davon waren ungefähr 15.000 Flüchtlinge. Seit dem Ende des 20. Jahrhunderts (42.800) ist die Einwohnerzahl stetig leicht gesunken. 2009 war die Einwohnerzahl erstmals seit 1990 wieder etwas gestiegen und betrug 41.450. Ende 2018 hatte die Stadt 41.249 Einwohner.
2.634 Ausländer 6,4 % der Gesamteinwohner, lebten im Jahr 2008 in der Stadt. Zum 31. Dezember 2019 waren von insgesamt 41.206 Einwohnern 4.780 Ausländer, d. h. 11,5 %.
Für die Bevölkerungsentwicklung wurden bis zum Jahr 2020 (Ausgangspunkt 2008) bei zunehmenden Wanderungsverlusten als unterer Wert eine Einwohnerzahl von 37.500 und unter Annahme einer ausgeglichenen Wanderungsbilanz und steigender Geburtenrate als oberer Wert eine Einwohnerzahl von 40.000 vorhergesagt.
Politik.
Stadtrat.
Der Stadtrat Coburgs besteht aus dem Oberbürgermeister und der von der Gemeindeordnung vorgeschriebenen Anzahl von 40 Stadtratsmitgliedern. Der Oberbürgermeister wird direkt und wie der Stadtrat auf die Dauer von sechs Jahren gewählt.
Nach der Kommunalwahl vom 2. März 2008 stellte die SPD 16 Stadträte, die CSU hatte noch 9 Vertreter, nachdem am 17. Februar 2009 ein Stadtrat die Fraktion verließ. Am 13. April 2007 gaben sieben CSU-Stadträte bekannt, die Fraktion wegen unüberwindbarer Differenzen zu verlassen und eine eigene Fraktion zu gründen: Die Wählervereinigung Christlich-Soziale Bürger stellte nach der Wahl 2008 vier Stadträte. Drei Vertreter stellten Bündnis 90/Die Grünen, mit je zwei Mandaten waren die "Freie Wählergemeinschaft Coburg" sowie die FDP vertreten. Je ein Stadtrat kam von der ÖDP und den neuen Gruppierungen "JUnge COburger" (getragen von der Jungen Union Coburg-Stadt) sowie "Bürger bewegen Coburg". Die "Freie Wählergemeinschaft" benannte sich im September 2009 in "Wählergemeinschaft Pro Coburg e. V." um.
Nach der Kommunalwahl vom 16. März 2014 stellte die SPD 14 Stadträte, die CSU 10, Bündnis 90/Die Grünen und die Christlich-Sozialen Bürger Coburg je 4, die "Wählergemeinschaft Pro Coburg" 3 und "JUnge COburger" je 2 und die FDP, DIE LINKE und die ÖDP je 1 Stadtrat. Am 13. Februar 2015 gaben drei SPD-Räte bekannt, aus ihrer Fraktion auszutreten und sich mit dem Stadtrat der Linken zur neuen Fraktion „Sozial und Bürgernah für Coburg“ zusammenschließen. Am 6. März 2015 wurde bekannt, dass sich die beiden Stadträte der Jungen Coburger der CSU-Fraktion anschließen, die nunmehr zwölf Mitglieder zählte und somit zu stärksten wurde.
Die Sitzverteilung lautete nunmehr CSU/JUCO: 12, SPD: 11, Bündnis 90/Die Grünen: 4, CSB: 4, SBC: 4, WPC: 3, FDP: 1, ÖDP: 1.
Die Kommunalwahl am 15. März 2020 führte zum rechts dargestellten Ergebnis und daraus zu folgender Sitzverteilung im Coburger Stadtrat:
Siegel, Wappen, Motto.
Im Juni 2020 initiierten zwei Aktivistinnen eine Petition an Oberbürgermeister Dominik Sauerteig mit der Forderung nach einer Änderung des Stadtwappens mit der Darstellung des Coburger Mohren, die sie als rassistisches Relikt der Kolonialzeit beschrieben. Der Kultur- und Museumswissenschaftler und ehemalige Stadtheimatpfleger Coburgs, Hubertus Habel, bezeichnete die Übernahme des Kopfes des Heiligen Mauritius ins Stadtwappen als Zeichen einer immensen Hochachtung und keiner Abwertung.
Seit den 1990er Jahren hat Coburg den Leitspruch „Werte und Wandel“.
Städtepartnerschaften.
Coburg hat sechs aktive Partnerschaften mit Orten in Westeuropa und Nordamerika:
Kultur und Sehenswürdigkeiten.
Theater und Kinos.
Das Gebäude des Landestheaters Coburg wurde in den 1840ern von Herzog Ernst II. als Hoftheater erbaut. Ein nahezu gleiches Theater wurde zur selben Zeit in Gotha errichtet (im Zweiten Weltkrieg zerstört). Das Landestheater steht im Gebäudeensemble des Schlossplatzes. Das mehrteilige klassizistische Bauwerk enthält neben dem Zuschauerraum auch einen Spiegelsaal. Aufgrund der Mitfinanzierung (40 %) durch den Freistaat Bayern kann es auch als drittes bayerisches Staatstheater bezeichnet werden. Es ist ein Drei-Sparten-Theater (Oper/Operette, Schauspiel, Ballett) und hat im Großen Haus 550 und in der ehemaligen Reithalle 99 Sitzplätze. Als Ersatzspielstätte für den mehrjährigen Zeitraum von Umbau- und Sanierungsmaßnahmen wird bis 2023 die Kulturstätte Globe errichtet.
Die Stadt hatte zwischen 1920 und 1975 bis zu sieben Lichtspielhäuser ("Union-Theater", "Atelier im UT" (Eröffnung am 2. Mai 1974), "Central-Lichtspiele", "Passage-Lichtspiele" unter Leitung von Werner Gutmann, "Burgtheater", "Casino", "Kali" unter Leitung der Familie Heublein). Heute gibt es das Multiplexkino "Utopolis" mit neun Sälen. Es ersetzte 2001 das frühere "Union-Theater", das 1919 im Saalbau der ehemaligen Vereinsbrauerei eröffnet worden war. Das im Jahr 1900 errichtete Jugendstilgebäude wurde Anfang der 1930er Jahre umgebaut und auf 600 Sitzplätze erweitert. Eine der Auflagen für den Neubau des Kinocenters war die Beibehaltung der großzügigen Freitreppenanlage.
Lokale Medien.
Coburg hat zwei Tageszeitungen, das 1886 gegründete "Coburger Tageblatt", seit 2003 eine Regionalausgabe der Zeitung "Fränkischer Tag" aus Bamberg, und die 1946 gegründete "Neue Presse", die seit 1986 mehrheitlich zur Mediengruppe Süddeutscher Verlag gehört. Die beiden lokalen Radiosender sind "Radio 1" und "Radio Galaxy Coburg". Letzterer ist eine lokale Station des jugendorientierten Radios Galaxy. Der lokale Internet-TV-Sender ITV-Coburg stellt nahezu täglich Beiträge ins Netz.
Bauwerke.
Überblick.
Coburg hat eine gut erhaltene Altstadt, die durch noch vorhandene Teile der Stadtmauer mit Juden-, Ketschen- und Spitaltor begrenzt ist. Die Stadt ist reich an sehenswerten Bauwerken, Brunnen, Gedächtnisstätten und historischen Ensembles, Bodendenkmälern, Flurdenkmälern und Gartendenkmälern. Repräsentative Villen stehen unter anderem auf den angrenzenden Berghängen.
Veste Coburg.
Die Veste Coburg erhebt sich 170 Meter über der Stadt und gehört zu den größten und am besten erhaltenen Burganlagen Deutschlands. Sie wurde 1225 erstmals urkundlich erwähnt, im 17. Jahrhundert mit einem dreifachen Mauerring zur Landesfestung ausgebaut und beherbergt die Kunstsammlungen der Veste Coburg.
Schlossplatz und Schloss Ehrenburg.
Am Fuße des Festungsberges liegt der Schlossplatz, in dessen Mitte ein Denkmal von Herzog Ernst I. steht. Der Platz wurde 1830 bis 1837 gestaltet. Er wird begrenzt vom ehemaligen Residenzschloss Ehrenburg, von den Arkaden mit dem Hofgarten, vom Palais Edinburgh und vom Landestheater. Den Grundstein von Schloss Ehrenburg legte 1543 Herzog Johann Ernst von Sachsen, und von 1623 bis 1627 erweiterte Herzog Johann Casimir die Residenz zu einem Renaissanceschloss. Im Westflügel befindet sich die 1701 fertiggestellte barocke Schlosskirche. Im 19. Jahrhundert ließ Herzog Ernst I. das Schloss mit einer Fassade im Stil der englischen Neugotik versehen. Die Ehrenburg beherbergt die Landesbibliothek Coburg und ist Museum.
Rathaus und Stadthaus.
In der Nachbarschaft des Schlossplatzes liegt der Marktplatz, eingerahmt von Rathaus und Stadthaus. In seiner Mitte steht das Prinz-Albert-Denkmal, ein Geschenk der Königin Victoria an die Heimatstadt ihres verstorbenen Gatten. Der feierlichen Enthüllung des Denkmals wohnte Königin Victoria am 26. August 1865 während ihres fünften Besuches in Coburg bei. Zwischen 2004 und 2005 erfolgte eine Neugestaltung des Platzes mit Begrünung, neuer Beleuchtung und Wasserfontänen rund um das Prinz-Albert-Denkmal. Das neue Rathaus mit dem zweigeschossigen Coburger Erker und einem 27 Meter langen und 13 Meter breiten Ratssaal errichtete ab 1577 der Baumeister Hans Schlachter, 1750 und 1903 wurden größere Umbauten durchgeführt. Das gegenüberliegende Stadthaus ließ Herzog Johann Casimir 1601 als herzogliche "Cantzley" errichten. Es ist ein Gebäude der Spätrenaissance mit einer reichverzierten Fassade und vielfarbigen Wandmalereien. Die Hofapotheke aus dem 15. Jahrhundert ist ein spätgotischer Steinbau mit einem kleinen Chor und einer Madonna mit Kind an einer Fassadenecke sowie einer Christophorusskulptur an der Steingasse.
Kirchen.
Die Morizkirche in der Innenstadt ist die älteste Kirche Coburgs. Sie wurde von 1320 bis 1586 errichtet und ist die Hauptkirche der evangelischen Stadtgemeinde. Der älteste Teil der Kirche, der Ostchor, stammt von 1330. Das Westportal mit den beiden ungleichen Türmen wurde um 1420 gebaut. Wiederum etwa hundert Jahre später erfolgte die Aufrichtung des Kirchenschiffes. In der Osterwoche 1530 predigte Martin Luther in der Kirche.
Die katholische Stadtpfarrkirche St. Augustin steht hinter dem Landestheater. Sie ist ein neugotisches Gotteshaus mit einer Fürstengruft, das nach Entwürfen von Vincenz Fischer-Birnbaum zwischen 1855 und 1860 errichtet wurde.
Die Salvatorkirche steht unweit der Morizkirche etwas versteckt an der Unteren Anlage. Es ist die evangelisch-lutherische Friedhofskirche des 1494 angelegten Salvatorfriedhofs. Die Kirche, ein Saalbau mit dreiseitig geschlossenem Chor, wurde von 1660 bis 1662 gebaut.
Die am südlichen Altstadtrand gelegene Kapelle St. Nikolaus wurde 1442 als Siechenkapelle für Leprakranke erbaut und ist im Besitz der Stadt. Sie war ab 1529 Kapelle der evangelischen, ab 1806 der katholischen Gemeinde und von 1873 bis 1932 Synagoge. Die Stadt kündigte der jüdischen Gemeinde zum Ende des Jahres 1932 das Nutzungsrecht. Ab 1945 war sie Kirche der freikirchlichen Gemeinde und seit 1962 ist sie Kapelle der altkatholischen Gemeinde.
Nördlich vor den ehemaligen Stadttoren, an der Itz, befindet sich die Heilig-Kreuz-Kirche. Der Chor der evangelisch-lutherischen Pfarrkirche wurde im gotischen Stil in den Jahren 1401 bis 1407 gebaut, das Langhaus ab 1413. In den Jahren 1735 bis 1739 wurde die Kirche zu einer Saalkirche mit einem barocken Innenraum umgestaltet. Aus dieser Zeit stammen auch die Stuckdecke und der Orgelprospekt.
Weitere Bauwerke in der Innenstadt.
Neben der Morizkirche steht das Gymnasium Casimirianum; das Renaissance-Gebäude wurde 1605 eingeweiht. Auch das Zeughaus in der Herrngasse zwischen Schlossplatz und Marktplatz stammt aus dieser Zeit; es wurde 1621 als Waffenlager errichtet. Später wurde es im Stil der Spätrenaissance erweitert und erfüllte wechselnde Aufgaben. Heute dient es als Staatsarchiv.
Denkmalgeschützte Fachwerkgebäude sind die Hahnmühle von 1323 sowie das Münzmeisterhaus. Letzteres war ehemaliger Hof des Geschlechtes der Münzmeister, genannt von Rosenau, die 1288 urkundlich erwähnt wurden. Es besteht seit 1444 und ist eines der bedeutendsten Bürgerhäuser der Stadt.
Schlösser.
Aufgrund der langen Geschichte als Residenzstadt befinden sich in Coburg neben dem Schloss Ehrenburg noch eine Vielzahl kleinerer Schlösser.
In der Nachbarschaft zum Landestheater steht das Bürglaß-Schlösschen. Es gehörte einst Friedrich Josias von Sachsen-Coburg-Saalfeld und diente später Zar Ferdinand von Bulgarien nach seiner Abdankung als zweiter Wohnsitz; heute befindet sich darin das Coburger Standesamt. Nordöstlich davon steht am Rittersteich das Rosenauschlösschen, ein Fachwerkgebäude mit Teilen aus dem Jahre 1435. Auf der Ernsthöhe oberhalb der Callenberger Straße erhebt sich seit 1840 Schloss Hohenfels. Es wurde zeit- und stilgleich mit dem Landestheater von dessen Baumeister errichtet.
In den eingemeindeten Vororten befinden sich weitere Schlösser:
Im Stadtteil Ketschendorf steht inmitten eines ausgedehnten Parks das neugotische Schloss Ketschendorf der Baronin von Stolzenau vom Beginn des 19. Jahrhunderts. Es war von 1956 bis 2010 die Coburger Jugendherberge.
Schloss Falkenegg oberhalb des Stadtteils Neuses gehört zu den romantischen Bauten des Historismus aus dem beginnenden 19. Jahrhundert. Falkenegg besitzt auch einen kleinen Bergpark mit einem Obelisken zum Andenken an Moritz August von Thümmel.
Schloss Callenberg im Stadtteil Beiersdorf wurde 1122 erstmals urkundlich erwähnt und war ab 1825 Sommerresidenz der Coburger Herzöge. Die dreiflügelige Schlossanlage ist ein Beispiel der Neugotik in Bayern. Seit 1998 beherbergt das Schloss die private Sammlung Herzoglicher Kunstbesitz, seit 2004 wird dort das Deutsche Schützenmuseum aufgebaut.
Schloss Neuhof aus dem 14. Jahrhundert steht in Neu- und Neershof, dem östlichsten Coburger Stadtteil. Generalfeldmarschall Graf Albrecht von Roon war 1873 bis 1879 prominenter Eigentümer des von einem englischen Landschaftspark umgebenen Schlosses.
Schloss Eichhof im Stadtteil Dörfles des Stadtteils Scheuerfeld, urkundlich erstmals 1440 erwähnt, gehörte bis 1979 dem Haus Coburg und wird noch als Hofgut bewirtschaftet.
Neudörfles in der Neustadter Straße stammt in seinen Ursprüngen ebenfalls aus dem 15. Jahrhundert und ist ein denkmalgeschütztes Ensemble mit Herrenhaus und dem zweitgrößten Privatpark der Stadt.
Neugotischer Bebauungsring.
Wurde unter der Regentschaft von Herzog Johann Casimir mit seinem Hausarchitekten Peter Sengelaub das Coburger Stadtbild durch Renaissance-Baudenkmäler geprägt, wie zum Beispiel durch das ehemalige Regierungsgebäude, heute Stadthaus, das Zeughaus und das Gymnasium Casimirianum, so griffen in der ersten Neubauepoche des 19. Jahrhunderts Baumeister wie Julius Martinet als Hommage an das britische Königshaus, das damals noch "Saxe-Coburg and Gotha" hieß, einen für damalige Verhältnisse revolutionären, dem gründerzeitlichen Historismus zuzurechnenden Baustil auf, nämlich die Neogotik.
Das griechische Affix "neo" weist darauf hin, dass es sich dabei – im Zuge des im 18. Jahrhundert von England ausgehenden "Gothic Revival" – um die Neuauflage einer die Gotik nachahmenden Stilrichtung (Merkmale unter anderem Spitzbogen, Fialen) handelt. In seltener städtebaulicher Qualität wandte man in Coburg diesen Baustil an. Die Ehrenburg verrät nach ihrer neugotischen Fassadengestaltung durch Karl Friedrich Schinkel die architektonische Verwandtschaft mit dem weltweit bekanntesten neugotischem Baudenkmal, dem Palace of Westminster in London.
Der in Coburg entstandene neugotische Bebauungsring gilt als ein städtebauliches Juwel, das als eine Coburger Sonderentwicklung in die Baugeschichte einging und in Architekturkreisen als „einzigartig auf dem europäischen Kontinent“ apostrophiert wird. In Coburg zeichnet ein nahezu geschlossenes Ensemble von neugotischen Bauwerken zum großen Teil den Verlauf der einstigen ringförmigen Stadtmauer nach. Dass die alten Stadtmauerreste einigen neugotischen Bürgerhäusern später als Fundament dienten, stellt eine weitere Besonderheit dar.
Ein Reiz der Coburger Neugotik besteht darin, dass sich das Coburger Ensemble nicht wie in anderen Städten nur auf wenige Einzeldenkmäler oder ein kleines Stadtareal beschränkt; vielmehr umschließen die neugotischen Straßenzüge gleich einem Gürtel (vom Ernstplatz über Albertsplatz, Ausläufer im Bereich Ketschentor, Untere/Obere Anlage, Schlossplatz, Schwarze Allee bis zur Rosenauer Straße mit Ausläufern in der Bahnhofstraße) über insgesamt fast zwei Kilometer den größten Teil der Altstadt. Dabei gewährt der neugotische Promenadenring ausnahmslos den Blick auf parallel verlaufende Grünanlagen (an Stelle des früheren Stadtgrabens) oder auf baumbestandene Plätze (Albertsplatz, Ernstplatz, Schlossplatz und Rittersteich). Dem ansonsten eher kleingliedrigen Coburger Altstadtbild wird durch das „überdimensionierte“, völlig intakte Neugotik-Ensemble ein städtebaulich großzügiger Charakter verliehen. So ist der neugotische Bebauungsring in Coburg für internationale Fachkreise ein mustergültiges Anschauungsobjekt geworden, da sich vergleichbare neugotische Ensembles in solcher Geschlossenheit selbst im Ursprungsland Großbritannien kaum finden lassen.
Jugendstilbauten.
Coburg gehört zu den Orten Deutschlands mit einem bedeutenden Bestand an Jugendstilbauten. Dazu zählen insbesondere das Sonnenhaus des Baumeisters Carl Otto Leheis aus dem Jahr 1902, die Heiligkreuz-Volksschule am Schleifanger, das ehemalige Kaufhaus M. Conitzer & Söhne in der Spitalgasse, das Ernst-Alexandrinen-Volksbad und das Bankgebäude der ehemaligen Creditkasse des Spar- und Hülfevereins im Steinweg (heute Filiale der Unicredit Bank) von Max Böhme aus den Jahren 1906 bis 1912, das Eichmüllersche Haus in der Judengasse von Paul Schaarschmidt aus dem Jahr 1903 sowie das Wohn- und Geschäftshaus in der Bahnhofstraße 10/12 von August Berger aus dem Jahr 1910.
Parks.
Der Hofgarten zwischen Schlossplatz und Festungsberg wurde 1680 durch Herzog Albrecht als großer Herrengarten im niederländischen Stil angelegt. Seine heutige Gestalt als englischer Landschaftspark mit einer Vielzahl heimischer wie auch seltener Baumarten erhielt er mit der Erweiterung bis zur Veste 1857 unter Herzog Ernst II. Heute hat der Park aufgrund seiner zentralen Lage eine wichtige Erholungsfunktion für die Bevölkerung und ist gleichzeitig die Frischluftschneise der Stadt. Im Stil eines Landschaftsgartens ist auch der Friedhof am Glockenberg gestaltet, mit dem Jüdischen Friedhof am östlichen Rand. Dort steht ein Gedenkstein, der unter der Überschrift „Opfer des Faschismus 1941–1945“ die Namen von 48 Coburger Juden aufführt. (Die Aufzählung ist jedoch unvollständig.)
Die untere Anlage, eine Grünanlage mit dem aufgelassenen Salvatorfriedhof, die bei der Einebnung der östlichen Wallgräben Anfang des 18. Jahrhunderts entstand, verbindet den Hofgarten mit dem Rosengarten am Kongresshaus. Der Rosengarten geht auf die außerhalb der Stadt liegende Zollbauernwiese zurück. Auf diesem Gelände wurde 1929 die Deutsche Rosenschau mit fast 200.000 Besuchern veranstaltet. Der Ende der 1980er Jahre umgestaltete Garten hat unter anderem ungefähr 70 verschiedene Sorten von Rosen und Volieren für exotische Vögel. Außerdem ist im Rosengarten der Sintflutbrunnen des Coburger Künstlers Ferdinand Lepcke aufgestellt.
Weitere kleine Anlagen sind die Josiasanlage am Bürglaßschlösschen, der Schnürsgarten am Adamiberg sowie ein Weg entlang der Itz. In den äußeren Stadtteilen sind insbesondere der Rückert-Park im Stadtteil Neuses, der Schlosspark des Ketschendorfer Schlosses und die Hans-Blümlein-Anlage im Lehengraben (Stadtteil Creidlitz) erwähnenswert.
Am Himmelsacker, einem westlichen Hügel der Stadt, befindet sich seit 2000 das Grüne Labor. Es wurde vom ehemaligen Stadtrat Horst Schunk initiiert, von Karl-Heinz Walzer von der ISA Austria aus Wien geplant und von der ISA Germany/Austria angelegt. Das Projekt erforscht Bäume für den urbanen Bereich. Dazu gehört der erste Coburger „Hochzeitswald“; ein zweiter entstand in Coburg-Neuses. Südlich der Kläranlage an der Itz wurde zudem ein „Auwald“ angelegt, dem eine hohe ökologische Bedeutung zugesprochen wird.
Museen.
Kunstsammlungen der Veste Coburg.
Das bedeutendste Museum Coburgs sind die Kunstsammlungen der Veste Coburg, hervorgegangen aus den Sammlungen der Coburger Herzöge. Kunst und Kunsthandwerk aus neun Jahrhunderten können dort besichtigt werden. Es sind unter anderem 26 Gemälde von Lucas Cranach dem Älteren ausgestellt. Außerdem gibt es ein Kupferstichkabinett, eine Sammlung von Rüstungen, Kriegswaffen und Jagdwaffen sowie eine Glassammlung.
Naturkundemuseum.
Das Naturkundemuseum geht auf das 1844 gegründete "Herzogliche Kunst- und Naturaliencabinet" zurück und erhielt 1914 im Hofgarten sein heutiges Domizil. Unter anderem sind auf 4800 m² Fläche Exponate zu den Themen Mineralogie, Geologie, Paläontologie, Archäologie, Völkerkunde und Evolution ausgestellt.
Bildende Kunst.
Im Pavillon des Kunstvereins Coburg am Hofgarten finden seit 1950 Wechselausstellungen mit Kunst der Gegenwart statt. Der Kunstverein ist ein gemeinnütziger und eingetragener Verein, der sich der Vermittlung zeitgenössischer Kunst widmet und als Forum für junge Künstler versteht. Er entstand 1981 aus dem Zusammenschluss des 1824 gegründeten Kunst- und Gewerbevereins Coburg sowie des Coburger Kunstvereins. Der Verein gehört zu den ältesten Kunstvereinen in Deutschland und ist mit etwa 1700 Mitgliedern der größte Kunstverein in Bayern.
Weitere Museen.
Weiterhin sind zu nennen das Friedrich-Rückert-Museum im Stadtteil Neuses sowie das Grabungsmuseum Kirchhof, welches neben St. Moriz unter dem Ämtergebäude liegt und seit 1994 Ausgrabungen einer ehemaligen Benediktiner-Propstei aus dem 13. Jahrhundert mit Keramikgegenständen zeigt. Das Puppen-Museum bei der Ehrenburg mit seinen 4600 Objekten wurde Ende 2022 geschlossen.
Im Schloss Callenberg im Stadtteil Beiersdorf wird seit 1998 die "Sammlung Herzoglicher Kunstbesitz" von Mobiliar, Gemälde, Porzellan und kunstgewerbliche Gegenstände aus vier Jahrhunderten gezeigt. Auch ein Uhrenkabinett kann besichtigt werden. Seit 2004 ist dort das Deutsche Schützenmuseum beheimatet.
Aquarium.
Im Coburger Stadtteil Neuses lag das privat betriebene "Sea Star Aquarium". Das Aquarium bestand seit 2001 und war ursprünglich eine Quarantäne- und Zuchtstation für verschiedene Fischarten wie Haie und Rochen. Im Jahr 2002 wurde es als "Sea Star Aquarium" der Öffentlichkeit zugänglich gemacht. Auf 1000 m² Ausstellungsfläche lebten in mehr als 50 Aquarien von 30 bis 130.000 Litern über 650 verschiedene Tierarten. Im September 2011 wurde das Aquarium geschlossen.
Sport.
Fußball wird in Coburg in 16 Vereinen angeboten. Die traditionsreiche DVV Coburg, deren Vorgängerverein "VfB Coburg 07" im 20. Jahrhundert in höheren Amateurklassen spielte, wurde 2012 aufgrund von Insolvenz aufgelöst. Der infolgedessen gegründete FC Coburg stieg 2023 erstmals in die Bayernliga auf. Traditionell hat der Schießsport eine besondere Bedeutung in Coburg. Hier gibt es vier Vereine. Die Schützengesellschaft Coburg 1354 ist mit einer Luftgewehrmannschaft in der 1. Bundesliga vertreten und gewann 2008, 2009 und 2015 die deutsche Meisterschaft.
Zu den etwas ungewöhnlicheren Sportarten gehört der Gardetanz, den die Tanzsportgarde Coburger Mohr e. V. seit vielen Jahren erfolgreich in ganz Deutschland vertritt. Nach vier deutschen Meistertiteln und vielen oberfränkischen, fränkischen und süddeutschen Meistertiteln veranstaltete die Tanzsportgarde im Jahr 2006 die Süddeutschen Meisterschaften, allerdings wegen der zu kleinen Angersporthalle nicht in Coburg, sondern in Bayreuth.
Viele Anhänger hat auch der HSC 2000 Coburg, dessen 1. Herrenmannschaft in der Saison 2016/17 in der Handball-Bundesliga spielte. Die 1. Männermannschaft des Volleyballvereins VSG Coburg/Grub stieg 2011 in die 2. Deutsche Volleyball-Bundesliga auf und gelangte 2013 in die Deutsche Volleyball-Bundesliga. 2016 folgten der Abstieg und die Insolvenz des Vereins. Dem Basketballverein BBC Coburg gelang bis 2017 innerhalb von sechs Jahren der Aufstieg von der Bezirksliga in die ProB, die dritthöchste nationale Spielklasse. Auch Orientierungslauf gewinnt in Coburg immer mehr an Bedeutung; so wurden 2005 erstmals in Coburg eine Deutsche Mannschaftsmeisterschaft und ein Bundesranglistenlauf ausgerichtet.
Der größte Verein Coburgs ist die Sektion Coburg des Deutschen Alpenvereins mit rund 4.080 Mitgliedern (Stand: 31. Dezember 2021).
2021 bewarb sich die Stadt zusammen mit dem Landkreis Coburg als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeberin für Special Olympics Togo ausgewählt. Damit wurde sie Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns.
Regelmäßige Veranstaltungen.
In Coburg findet jedes Jahr das größte Samba-Festival außerhalb Brasiliens statt, das seit 1992 alljährlich im Juli an drei Tagen rund 200.000 Besucher anzieht. Über 80 Sambagruppen mit mehr als 2200 Sambistas aus acht Nationen traten beispielsweise vom 7. bis zum 9. Juli 2006 auf neun Bühnen in der Innenstadt auf.
Im August findet auf dem Schlossplatz jährlich der von der HUK-COBURG gesponserte „Open-Air-Sommer“ mit mehreren Konzerten verschiedener Musikrichtungen, Gruppen und Solisten statt. So traten 2007 unter anderem die Pop-Rock-Sängerin Pink und die Reggae/Dancehall/Hip-Hop-Gruppe Seeed auf. Auch die Oper "Die Zauberflöte" wurde aufgeführt.
Seit 2004 findet am letzten Feriensamstag im September die Museumsnacht Coburg, auch Nacht der Kontraste genannt, statt. Jährlich besuchen rund 10.000 Personen die Kulturveranstaltung der Coburger Landesstiftung, welche über die Stadt verteilt stattfindet.
Coburg ist Austragungsort des Coburger Pfingstkongresses des Coburger Convents (CC), eines Verbandes von Turnerschaften und Landsmannschaften, der jedes Jahr zu Pfingsten seinen Kongress mit Tagungen, Festkommers, Fackelzug und Sportveranstaltungen ausrichtet.
Mehrmals jährlich werden klassische Konzerte in der St.-Moriz-Kirche durch den Coburger Bachchor veranstaltet.
Mitte Juli wird das Schlossplatzfest, das sich als „Größte Gourmet-Party Nordbayerns“ bezeichnet, zwischen Ehrenburg und Landestheater gefeiert.
Auf der Freifläche Anger findet im Frühjahr das Frühlingsfest und Anfang August das Vogelschießen (Schützenfest) statt. Dieses wird von der Schützengesellschaft Coburg 1354 e. V. veranstaltet und zieht viele Besucher an.
Neben dem Weihnachtsmarkt im Dezember finden weitere traditionelle Märkte statt. Der Coburger Flohmarkt, der sich zweimal im Jahr über das gesamte Innenstadtgebiet erstreckt, dauert vom Samstagabend bis Sonntag. Erstmals wurde im Jahr 2006 der Coburger Kloßmarkt veranstaltet.
Alle drei Jahre finden die „Deutschen Johann-Strauss-Tage“ (bis 2009 „Johann-Strauss-Musiktage“) statt. Damit soll an den Walzerkönig erinnert werden, der 1887 Coburger Bürger wurde (und es bis zu seinem Tod blieb). Diese Tage wurden zuletzt im September 2015 veranstaltet. Der bis 2009 zu den Johann-Strauss-Musiktagen gehörende „Internationale Gesangswettbewerb Alexander Girardi“ findet vorerst nicht mehr statt, weil die (finanzielle) Unterstützung durch die Stadtverwaltung eingestellt wurde.
Seit 2002 findet im Juli auf der Veste auch die „Zeitreise“, eine der größten deutschen „Living History“-Veranstaltungen, in Zusammenarbeit mit den Kunstsammlungen statt. Mehr als 100 Darsteller zeigen thematisch Ausschnitte aus dem Leben vergangener Zeiten mit historischer Genauigkeit und ergänzen so das „Ausstellungsstück“ Veste und die Exponate der Kunstsammlungen und füllen sie mit Leben.
Seit 1989 finden im Mai die Coburger Designtage statt.
Seit 2003 veranstaltet der Motor-Sport-Club Coburg e. V. MSC in jedem Jahr Anfang Mai ein großes Young- und Oldtimertreffen für Kraftfahrzeuge und Motorräder auf dem Schlossplatz. Zu diesen Treffen kommen regelmäßig Teilnehmer aus dem gesamten süddeutschen und thüringischen Raum, gelegentlich auch aus Norddeutschland und dem europäischen Ausland.
Wirtschaft und Infrastruktur.
Überblick.
Coburg war in der Vergangenheit robust gegenüber wirtschaftlichen Schwankungen des Umlandes. Obwohl die Stadt jahrzehntelang durch die Zonenrandlage während der deutschen Teilung benachteiligt war, ist sie heute eines der wirtschaftlichen Oberzentren Nordbayerns. Das hat die Stadt vor allem ihrer Mischung verschiedener Betriebsgrößen aus unterschiedlichsten Branchen zu verdanken. Coburg gehört – vor allem aufgrund der hohen Gewerbesteuerzahlungen der Versicherungsgruppe HUK-Coburg – gemessen an den Einnahmen aus Gewerbe-, Grund- und Einkommensteuer pro Einwohner zu den reichsten Kommunen Deutschlands. Im Jahr 2017 betrug die gemeindliche Steuerkraft 2919 Euro je Einwohner, der höchste Wert aller kreisfreien Städte bundesweit. Im Gesamtranking aller 397 kreisfreien Städte und Landkreise in Deutschland lag die Stadt Coburg damit auf Platz 2. Nur der Landkreis München wies eine höhere Steuerkraft pro Einwohner auf.
Die Gesamtsumme der Verschuldung der Stadt Coburg belief sich zum Jahresende 2012 auf 59,7 Millionen Euro. Das sind 1458 Euro pro Einwohner. Von den 103 kreisfreien Städten in Deutschland hatte Coburg zu diesem Zeitpunkt die drittgeringste Pro-Kopf-Verschuldung.
Im Jahre 2016 erbrachte Coburg, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 3,437 Milliarden Euro. Das BIP pro Kopf lag im selben Jahr bei 83.501 Euro (Bayern: 44.215 Euro, Deutschland 38.180 Euro) und damit deutlich über dem regionalen und nationalen Durchschnitt. Unter den kreisfreien Städten in Deutschland hatte Coburg damit das sechsthöchste BIP pro Kopf (hinter Wolfsburg, Ingolstadt, Schweinfurt, Erlangen und Frankfurt am Main). In der Stadt arbeiteten 2016 rund 42.600 erwerbstätige Personen. Die Arbeitslosenquote lag im Dezember 2018 bei 5,0 %.
Im Zukunftsatlas 2016 belegte die Stadt Coburg Platz 23 von 402 Landkreisen und kreisfreien Städten in Deutschland und zählt damit zu den Orten mit „sehr hohen Zukunftschancen“. In der Ausgabe von 2019 lag sie auf Platz 106 von 401.
Statistische Daten der Wirtschaft.
Am 30. Juni 2014 waren in Coburg 33.369 sozialversicherungspflichtige Arbeitnehmer beschäftigt. Ungefähr 49 % der Erwerbstätigen waren im Dienstleistungssektor, 34 % im produzierenden Gewerbe und 16 % im Bereich Handel und Verkehr beschäftigt. Rund 20.000 Personen pendelten täglich in die Stadt zur Arbeit, was die im Verhältnis zum bayerischen Landesdurchschnitt relativ hohe Arbeitslosenquote erklärt. In den Behörden und öffentlichen Institutionen sind zirka 3.000 Arbeitsplätze vorhanden.
Am 30. Juni 2021 waren in Coburg 33.845 sozialversicherungspflichtige Arbeitnehmer beschäftigt. Ungefähr 57 % der Erwerbstätigen waren im Dienstleistungssektor, 30 % im produzierenden Gewerbe und 13 % im Bereich Handel, Verkehr und Gastgewerbe beschäftigt. Rund 24.000 Personen pendelten täglich in die Stadt zur Arbeit. Die Arbeitslosenquote lag 2021 im Jahresdurchschnitt bei 3,1 %.
Ansässige Unternehmen.
Bekanntestes Unternehmen und größter Arbeitgeber Coburgs ist die Versicherungsgruppe HUK-Coburg. Die über 5700 am Ort Beschäftigten der seit 1950 in der Stadt ansässigen Versicherung sind hauptsächlich auf einen Verwaltungskomplex in der Innenstadt am Bahnhof sowie einen größeren auf der Bertelsdorfer Höhe an der Anschlussstelle Coburg der A 73 verteilt.
Daneben ist das produzierende Gewerbe mit den im Folgenden genannten größten Unternehmen wichtigstes Standbein der Wirtschaft in Coburg. Das Familienunternehmen Brose produziert seit 1919 in der Stadt und hat in Coburg seinen Hauptsitz. Es ist ein bedeutender Zulieferer der Automobilindustrie und hat vor Ort rund 3600 Mitarbeiter, welche in zwei Werken arbeiten, die im Süden der Stadt liegen. Weltweit beschäftigt das Unternehmen über 26.000 Mitarbeiter.
Die Kaeser Kompressoren SE, 1919 von Carl Kaeser in Coburg gegründet, gehört zu den führenden Anbietern von Kompressoren und Produkten der Drucklufttechnik. Von den insgesamt fast 6000 Beschäftigten arbeiten über 1600 im Stadtteil Bertelsdorf.
Die Sagasser-Vertriebs GmbH gehört zu den größten Getränkemärkten im Bereich Nordbayern und Südthüringen und hat ihren Sitz in Coburg.
Stark vertreten ist in Coburg der Werkzeugmaschinenbau mit den Firmen Waldrich Coburg, Kapp und Lasco. Im Großwerkzeugmaschinenbau ist Waldrich Coburg Hersteller von Präzisionsbearbeitungszentren und -maschinen, hat rund 800 Mitarbeiter und wurde 1920 von Adolf Waldrich gegründet. Dessen Schwiegersohn Bernhard Kapp legte 1953 den Grundstein für seine eigene Firma, die heute in Coburg mit etwa 500 Beschäftigten Schleifmaschinen zur Weich- und Hartfeinbearbeitung von Verzahnungen und Profilen produziert. Lasco wurde schon 1863 als Eisengießerei und Maschinenfabrik gegründet und fertigt mit 340 Mitarbeitern Fertigungsanlagen für Umformaufgaben.
Ein weiterer Schwerpunkt ist mit den Firmen Gaudlitz, Hermann Koch und Ros die kunststoffverarbeitende Industrie. Gaudlitz wurde 1937 gegründet und produziert heute mit zirka 260 Beschäftigten (Stand: 2019) hochpräzise Formteile aus duro- und thermoplastischen Rohstoffen. Das Unternehmen Hermann Koch gibt es seit 1914 in Coburg. Mit 280 Mitarbeitern werden Kunststoffverpackungen entwickelt und hergestellt. Die Firma Ros, 1926 gegründet, ist heute mit rund 180 Beschäftigten in Coburg im Formenbau und Spritzguss tätig und hat sich auf komplexe Bauteile für die Automobil- und Elektroindustrie spezialisiert.
Auch das seltene Handwerk der Gebildsticker ist in der Stadt seit über 150 Jahren vertreten. Die Thüringer Fahnenfabrik, die 1857 von Christian Heinrich Arnold gegründet wurde, zählt zu den ältesten Fahnenfabriken in Europa. Das Familienunternehmen fertigt heute noch „handgestickte“ Vereinsfahnen in Coburg.
In öffentlicher Hand sind unter anderem das Klinikum Coburg, welches auf das 1862 gegründete Landkrankenhaus Coburg zurückgeht, das 1903 an seinen heutigen Standort im Stadtteil Ketschendorf verlegt wurde. Es ist ein Haus der Schwerpunktversorgung (Versorgungsstufe III) und hat 522 Betten bei insgesamt rund 1800 Mitarbeitern. Die Sparkasse Coburg – Lichtenfels mit etwa 700 Mitarbeitern in der Region hat in Coburg ihre Wurzeln in der 1822 eröffneten Stadtsparkasse. Alleiniges Eigentum der Stadt sind die Städtischen Werke Überlandwerke Coburg mit etwa 350 Mitarbeitern, die unter anderem aus dem 1854 eröffneten Gaswerk hervorgegangen sind.
Gewerbegebiet Lauterer Höhe.
Jahrelange Auseinandersetzungen, Diskussionen und zwei Bürgerentscheide drehten sich um ein im Norden der Stadt an der Bundesautobahn 73 gelegenes, erschlossenes Gewerbegebiet, dessen Fläche teils aus Lautertal eingemeindet wurde. Die Stadt plante dort Ende der 1990er Jahre ein 48.000 m² großes Einkaufs- und Freizeitzentrum. Vorgesehen waren in den Projektentwürfen verschiedener Investoren Fachmärkte und gastronomische Einrichtungen, ein Spaßbad, eine künstliche Parkanlage mit See, ein kleiner Freizeitpark sowie eine Multifunktions- und Eislaufhalle für etwa 6000 Besucher.
Viele Geschäftsleute der Innenstadt befürchteten eine Abwanderung der Käufer an den Stadtrand. Deshalb kam es im Jahr 2000 zum Bürgerentscheid, bei dem mit einer knappen Mehrheit von 27 Stimmen gegen den Bebauungsplan entschieden wurde.
In den folgenden Jahren wurde die Bebauung des Geländes neu geplant, unter anderem mit einer neuen Multifunktionshalle. Ab 2005 folgte die Errichtung verschiedener Lebensmittel- und Fachmärkte; auch ließen sich verschiedene Dienstleistungsanbieter und Gastronomiebetriebe nieder. Einkaufs- und Fachmärkte ohne innenstadtrelevantes Sortiment mit 14.000 m² Verkaufsfläche waren genehmigt worden. Am 23. Oktober 2008 beschloss der Stadtrat den Bau einer Ballsporthalle, der heutigen HUK-Coburg arena auf der Lauterer Höhe. Die Halle für insgesamt 3530 Zuschauer wurde im August 2011 eröffnet. Bis 2021 wurden etwa 30 Einrichtungen, vorrangig aus dem Bereich Einzelhandel, verwirklicht.
Neues Innenstadtkonzept (NIK).
Im Herbst 2006 präsentierte der Unternehmer Michael Stoschek mit anderen Coburger Geschäftsleuten das selbst entwickelte "Neue Innenstadtkonzept". Es sah im Wesentlichen vor, Coburg als Kongressort attraktiver zu machen. Dazu sollen die geplante Multifunktionshalle statt auf der Lauterer Höhe auf dem innenstadtnahen Schützenanger und ein Tagungshotel errichtet sowie das bestehende Kongresshaus Rosengarten ausgebaut werden. Der Anger wird bisher als Park- und Festplatz genutzt und ist mit einer Dreifach-Turnhalle sowie Sportanlagen bebaut. Diese Sportstätten sollen laut NIK in den Norden der Stadt verlegt werden. Kritiker des Konzeptes führten unter anderem eine höhere Lärmbelästigung, mehr Verkehr, eine nicht ins historische Stadtbild passende Arena und die weite Entfernung der neuen Sportstätten zu den Schulen als Hauptargumente an. Im Dezember 2006 wollte der Stadtrat zur Umsetzung des NIK mit einem Ratsbegehren die Bürger über den Multifunktionshallen-Standort entscheiden lassen. Gleichzeitig starteten die NIK-Initiatoren ein Bürgerbegehren mit gleichem Inhalt, worauf das Ratsbegehren zurückgezogen wurde. Einige Wochen vor dem Bürgerentscheid im April 2007 stellten der Oberbürgermeister Norbert Kastner und die Coburger SPD eigene Planungen namens AHA-Konzept (AHA = Arena + Halle am Anger) vor. In diesem Konzept war geplant, die Multifunktionshalle auf die Lauterer Höhe zu bauen, gleichzeitig jedoch eine neue Dreifachturnhalle mit kleinerem Kultur- und Kongresssaal und Hotel auf dem Schützenanger zu errichten. Der größte Teil der Sportstätten wäre auf dem Anger verblieben. Mit rund 52 Prozent der Stimmen votierten die Bürger beim Bürgerentscheid für den Schützenanger als Standort der Multifunktionshalle. Während die NIK-Initiatoren meinten, dass die Bürger mit ihrem "Ja" auch ihren Willen zur Umsetzung der restlichen NIK-Planungen ausdrückten, musste nun der Stadtrat entscheiden, welche Maßnahmen ausgeführt werden. Der erste Schritt war im Oktober 2007 die Ausschreibung eines städtebaulichen Wettbewerbes "Coburgs neuer Süden," dessen Ergebnis Ende April 2008 vorgestellt wurde. Im nächsten Schritt sollte ein Realisierungswettbewerb folgen. Am 25. Juni 2009 beschloss schließlich der Stadtrat ein neues Grundkonzept, da nach dem Bau einer Ballsporthalle auf der Lauterer Höhe eine Multifunktionshalle auf dem Anger nicht mehr benötigt wird. Das Konzept sah im ersten Schritt an der Ecke Bamberger Straße / Karchestraße den Bau einer neuen Dreifachturnhalle vor, die 2017 eröffnet wurde. Nach Abriss der alten Halle sollen dann eine Stadthalle und ein Hotel errichtet werden. Zu den größeren innerstädtischen Baumaßnahmen gehörte die Städtebauliche Neugestaltung der Ketschenvorstadt (Sanierungsgebiet VI).
Trinkwasserversorgung und Abwasserentsorgung.
Die Gewinnung, Aufbereitung und Verteilung des Trinkwassers erfolgt durch die SÜC. Es stammt größtenteils aus Tiefbrunnen, sieben nahe der Rödentaler Stadtteile Fischbach und Mittelberg sowie sieben weitere zwischen Mönchröden und Neustadt bei Coburg. Die Aufbereitung des Grundwassers erfolgt im 1986 gebauten Wasserwerk Cortendorf. .
Der Bereich Coburg-West erhält ein Mischwasser aus Grundwasser der SÜC-Tiefbrunnen und aus Oberflächenwasser der Fernwasserversorgung Oberfranken (Ködeltalsperre, Anteil ca. 20 %).
Nach der Aufbereitung wird das Wasser in das Leitungsnetz eingespeist. Hier sind 14 Hochbehälter mit einem Gesamtvolumen von 11.000 m³ zwischengeschaltet, die der Druckerhaltung dienen und Verbrauchsspitzen abdecken. Der Anschlussgrad an das Trinkwassernetz liegt in Coburg bei 100 Prozent.
Mit einer Gesamthärte von 11,5 °dH fällt das Wasser in den Härtebereich „mittel“. Der Brutto-Verbrauchspreis liegt bei 1,99 Euro je Kubikmeter. (Stand: 2021)
Die Ableitung und Reinigung des Abwassers fällt in den Zuständigkeitsbereich des Coburger Entsorgungs- und Baubetriebs. 99,8 % der Stadtbewohner waren 2016 an die Kanalisation angeschlossen. Sie hat im Ortsgebiet eine Länge von 400 Kilometern und ist überwiegend im Trennsystem aufgebaut. Lediglich in den Ortsteilen Scheuerfeld, Wüstenahorn, Creidlitz und Neu- und Neershof gibt es eine Mischkanalisation.
Das Abwasser von Coburg und der Gemeinden Dörfles-Esbach und Lautertal sowie der Milchwerke Wiesenfeld wird in der zentralen Kläranlage Coburg gereinigt. Das Abwasser der Coburger Stadtteile Neu- und Neershof fließt aus topographischen Gründen nach Rödental und wird dort gereinigt. Die Coburger Anlage behandelt jährlich etwa 5 Mio. m³ Abwasser im Belebtschlammverfahren. Das gereinigte Wasser wird in die Itz eingeleitet. Der anfallende Klärschlamm wird verfault, das dabei entstehende Klärgas wird zur Strom- und Wärmeerzeugung verwendet.
Verkehr.
Öffentlicher Personennah- und -regionalverkehr auf der Straße.
Der öffentliche Personennahverkehr wird in Coburg durch die Verkehrsgemeinschaft Coburg (VGC), einen Zusammenschluss der SÜC Bus und Aquaria GmbH (SÜC) und des Omnibusverkehrs Franken GmbH (OVF), betrieben. Im Stadtgebiet gab es im Jahr 2010 neun Stadtbuslinien mit zusammen etwa 100 km Streckenlänge, die tagsüber im Halb-Stunden-Takt mit 40 Bussen bedient werden. Das Umland wird mit elf Linien erschlossen, die im Regelfall den Coburger Bahnhof anlaufen. Daneben gibt es seit Mai 2021 die Buslinie 8300, die Coburg mit dem hessischen Gersfeld verbindet – täglich im 2-Stunden-Takt.
Zentrale Umsteigehaltestelle ist seit Dezember 2007 der Theaterplatz. Die Rendezvoushaltestelle, die auch ein Dynamisches Fahrgastinformationssystem erhalten hat, ist für elf Busse ausgelegt und wird nur von Linien der SÜC angefahren. Im Herbst 2009 wurde am Bahnhof nach zweijähriger Bauzeit der zentrale Omnibusbahnhof (ZOB) mit zwölf Halteplätzen und drei Warteplätzen eröffnet. Dort halten die Busse des Omnibusverkehrs Franken GmbH, der OVG Sonneberg und der SÜC.
Schienenverkehr.
In der Vergangenheit hatte der Schienenverkehr eine größere Bedeutung. So existierte von 1858 bis 1945 mit der Werrabahn von Coburg über Meiningen nach Eisenach eine durchgehende Ost-West-Verbindung über die thüringische Landesgrenze hinweg mit 15 Zugverbindungen am Tag im Jahre 1939. Im Jahr 1892 wurde eine Zweigstrecke nach Bad Rodach eröffnet. Zusätzlich gab es von 1900 bis 1984 mit der Itzgrundbahn eine Nebenbahn nach Rossach sowie von 1901 bis 1945 die durchgehende Steinachtalbahn über Ebersdorf–Sonnefeld–Fürth am Berg (bis 1975) nach Neustadt bei Coburg.
Im Jahr 2021 gab es fünf Bahnhöfe in Coburg und einen Güterbahnhof.
Auf dem Streckenteil der Werrabahn nach Lichtenfels verkehren Regionalexpresszüge, die über Bamberg nach Nürnberg fahren. Die Strecke wird im Zweistundentakt vom Franken-Thüringen-Express und im Stundentakt von der Privatbahn Agilis bedient. Die Strecke nach Sonneberg, die 1991 wieder eröffnet wurde, befährt im Stundentakt der Franken-Thüringen-Express. Außerdem verkehrt nach Bad Rodach Agilis im Stundentakt.
Über eine Verbindungskurve besteht Anschluss zur Neubaustrecke Nürnberg–Erfurt. Seit Dezember 2019 halten Montag bis Freitag – morgens, nachmittags und abends – insgesamt vier ICE-Zugpaare der Linie Berlin–München in Coburg. Am Wochenende entfallen teilweise die Züge am Morgen. Der nächstgelegene ICE-Systemhalt ist in Bamberg.
Straßenverkehr.
Das Stadtzentrum ist zum großen Teil eine Fußgängerzone. Für den innerstädtischen Straßenverkehr gibt es zentrumsnah die kommunal betriebenen Parkhäuser Mauer, Post, Albertsplatz und Zinkenwehr sowie, sofern keine Veranstaltungen darauf stattfinden, den Großparkplatz Anger und einige kleinere Parkplätze. Durch das Stadtgebiet verlaufen die beiden europäischen Fernwanderwege E3 (Santiago de Compostela–Nessebar) und E6 (Kilpisjärvi–Dardanellen). Diese sind dort allerdings nicht als solche ausgeschildert. Radwege sind in Coburg kaum vorhanden.
Der Fernstraßenverkehr wird geprägt durch die Bundesstraßen 4, die als Nord-Süd-Achse den Nürnberger Raum mit Thüringen, und 303, die als West-Ost-Achse Schweinfurt mit Tschechien verbindet, sowie die Bundesautobahn 73. Während die B 4 die Stadt durchquert, tangiert die B 303 nur den Stadtkern. Aufgrund der Grenzlage war das bis 1990 ausreichend, da kaum Durchgangsverkehr zu bewältigen war.
Erst die deutsche Einheit brachte Coburg einen Autobahnanschluss. Im Rahmen des Verkehrsprojekts Deutsche Einheit wurde die Verlängerung der Bundesautobahn 73 Nürnberg–Bamberg über Lichtenfels und Coburg nach Suhl beschlossen. Die neue Strecke bildet den östlichen Ast der Thüringer-Wald-Autobahn 71 und ist seit dem 5. September 2008 durchgehend befahrbar.
Luftverkehr.
Der Verkehrslandeplatz Coburg-Brandensteinsebene (ICAO-Code: EDQC) wurde als Flugstützpunkt Coburg im Jahr 1913 eröffnet. Er befindet sich im Eigentum der Stadt. Betreiberschaft und Halterschaft liegen seit 2001 beim Aero Club Coburg e. V.
Des Weiteren existiert im Süden Coburgs der Sonderlandeplatz Coburg-Steinrücken (ICAO-Code: EDQY). Er verfügt über eine Gras-Landepiste mit einer Länge von 700 m und einer Tragfähigkeit von bis zu zwei Tonnen. Besitzer und Betreiber des Flugplatzes auf dem Steinrücken ist die Flugtechnische Arbeitsgemeinschaft Coburg e. V.
Die nächsten internationalen Flughäfen sind in Nürnberg im Süden und Erfurt im Norden, jeweils ca. 90 km von Coburg entfernt.
Institutionen und Einrichtungen.
Neben den Behörden der Stadtverwaltung bestehen die folgenden Institutionen und Einrichtungen:
Feuerwehr und Rettungsdienst.
Feuerwehr.
Die Freiwillige Feuerwehr der Stadt Coburg umfasst drei Löschzüge, die in der Stadtmitte, in Ketschendorf und in Wüstenahorn stationiert sind. Des Weiteren gibt es in Bertelsdorf, in Creidlitz und in Löbelstein jeweils Stadtteilwehren.
Rettungsdienst.
Die präklinische medizinische Notfallversorgung im Stadtgebiet wird hauptsächlich durch das Bayerische Rote Kreuz gewährleistet. Insgesamt sind auf den Rettungswachen Coburg Nord in der Stadtmitte, Coburg Süd in Schorkendorf sowie der Rettungswache in Bad Rodach sieben Rettungsfahrzeuge stationiert. In Fällen der Spitzenabdeckung stehen sowohl eine Schnelleinsatzgruppe (SEG) der BRK-Bereitschaft Coburg als auch eine SEG des ASB zur Verfügung.
Die zuständige Integrierte Leitstelle (ILS) für die Feuerwehr und den Rettungsdienst liegt in Ebersdorf bei Coburg.
Bildungseinrichtungen.
Bibliotheken und Archive.
Die Landesbibliothek Coburg wurde 1919 in der Nachfolge der seit 1547 bestehenden Hof- und Staatsbibliothek des Herzogtums Sachsen-Coburg gegründet und ist in Schloss Ehrenburg untergebracht. Es ist eine wissenschaftliche Regionalbibliothek mit über 400.000 Bänden, wovon ungefähr 85.000 Bände zum Altbestand des 17. bis 19. Jahrhunderts gehören. Die Stadtbücherei in der Herrngasse 17 ist aus der Volksbibliothek des Coburger Kunst- und Gewerbevereins von 1874 hervorgegangen.
Im Staatsarchiv im Zeughaus sind über 300.000 Archivalieneinheiten über Coburg und den Landkreis sowie den Freistaat Bayern, das Herzogtum Sachsen-Coburg und dessen Vorläufer gelagert. Im Stadtarchiv in der Steingasse reichen 18.000 Akteneinheiten bis in das 13. Jahrhundert.
Hochschulen.
Die Hochschule für angewandte Wissenschaften Coburg entstand in ihrer heutigen Form 1971. Sie führt ihre Tradition auf die 1814 durch den herzoglich-sächsischen Architekten Friedrich Streib in Coburg gegründete Handwerkerschule zurück. Ende der 1950er Jahre wurde die damalige Ingenieurschule für Hoch- und Tiefbau um die beiden neuen Abteilungen Maschinenbau und Elektrotechnik zum Polytechnikum erweitert. Das heutige Fächerangebot ist sehr vielseitig und umfasst die vier Bereiche Technik, Bauen/Gestalten/Design, Wirtschaft und Sozialwesen. Im Wintersemester 2021/22 waren 5060 Studierende an der Hochschule eingeschrieben. Der Hauptcampus liegt westlich der Innenstadt auf dem Judenberg. Daneben gibt es einen weiteren Campus am ehemaligen Hofbrauhaus, der die Design-Fakultät beheimatet, sowie einen auswärtigen Campus in Kronach.
1894 wurde mit dem Technischen Verein, der sich später in Landsmannschaft im CC Franco-Borussia zu Coburg umbenannte, die erste Coburger Studentenverbindung gegründet. Ihr folgten die Technische Vereinigung Coburgia, die Alte Brünner Burschenschaft Suevia, die Katholische Studentenverbindung Thuringia und die Ingenieur-Verbindung Hildburgia.
Die Fachhochschule Schloss Hohenfels war eine staatlich anerkannte private Hochschule für Fachtherapien im Gesundheitswesen. Sie wurde 2004 vom Klinikum Coburg und der Medau-Schule, unterstützt von der Fachhochschule Coburg, gegründet. An der Hochschule konnten ab 2005 die Bachelorstudiengänge Physiotherapie und Logopädie studiert werden. 2010 verlegte die Hochschule ihren Sitz nach Bamberg und wurde in Hochschule für angewandte Wissenschaften Bamberg – Private Hochschule für Gesundheit umbenannt.
Schulen.
In Coburg gibt es 25 öffentliche und 16 private Schulen für ungefähr 11.000 Schüler. Für die Stadt und das Umland sind vier Gymnasien vorhanden, in der Innenstadt das Albertinum, ein musisches und sprachliches Gymnasium, und das Casimirianum, ein sprachliches, humanistisches und naturwissenschaftlich-technologisches Gymnasium mit 400-jähriger Tradition. Am Glockenberg befinden sich die beiden anderen Schulen, das Alexandrinum, ein naturwissenschaftlich-technologisches, sprachliches sowie wirtschafts- und sozialwissenschaftliches Gymnasium, und das Ernestinum (gegründet 1848), ein mathematisch-naturwissenschaftliches, wirtschaftswissenschaftliches und europäisches Gymnasium.
Neben der Regiomontanus-Schule, einer staatlichen Fachoberschule und Berufsoberschule, sind in der Stadt zwei Berufsschulen, dreizehn Berufsfachschulen (für Wirtschaft, Hauswirtschaft, Kinderpflege, Kranken- und Kinderkrankenpflege), eine Landwirtschaftsschule und die Wirtschaftsschule Coburg angesiedelt.
Die beiden staatlichen Realschulen Coburg I und Coburg II sowie zwölf Grund- und Hauptschulen runden das Angebot staatlicher Schulen ab.
Schulen mit privater Trägerschaft sind die Medau-Schule, eine Fachschule für Gymnastik, Physiotherapie und Logopädie, die Rudolf-Steiner-Schule, eine Waldorfschule, sowie die ASCO-Sprachenschule Coburg (staatlich anerkannte Berufsfachschule für Fremdsprachenberufe) und die Musikschule Coburg e. V. Außerdem unterhalten die Stadt und der Landkreis eine Volkshochschule. Der Unterricht an der Sing- und Musikschule im Landkreis Coburg wurde aufgrund unzureichender finanzieller Mittel eingestellt. Eine weitere Privatschule ist die Heilpraktikerschule Coburg im Stadtteil Creidlitz.
Garnison.
Von der Mitte des 19. bis zum Ende des 20. Jahrhunderts war Coburg Garnisonsstadt für Truppen des Herzogtums Sachsen-Coburg und Gotha bzw. der Preußischen Armee, Wehrmacht, US Army und des Bundesgrenzschutzes.
Schutzgebiete.
In Coburg gibt es ein Naturschutzgebiet, drei Landschaftsschutzgebiete, vier Fauna-Flora-Habitat-Gebiete und zwei ausgewiesene Geotope (Stand März 2016).
Siehe auch:
Persönlichkeiten.
Zu den Persönlichkeiten, die mit Coburg in Verbindung gebracht werden, zählt Martin Luther, der im Jahr 1530 ein halbes Jahr auf der Veste verweilte, weil er am Reichstag in Augsburg wegen der über ihn verhängten Acht nicht teilnehmen konnte.
Weiterhin ist insbesondere der Dichter, Übersetzer und Orientalist Friedrich Rückert erwähnenswert, der von 1848 bis zu seinem Tode im Jahre 1866 im Coburger Stadtteil Neuses lebte und dort seine letzte Ruhestätte fand. Zu seinen Ehren hat die Stadt Coburg den Coburger Rückert-Preis ins Leben gerufen, der seit 2008 verliehen wird. Auch der Kapellmeister und Komponist Johann Strauss (Sohn), der 1887 Bürger von Coburg wurde, ist mit dem Namen der Stadt eng verbunden. |
858 | 2764991 | https://de.wikipedia.org/wiki?curid=858 | CSS | CSS steht als Abkürzung für:
IT/EDV:
Technik:
Militär:
Medizin:
Musik:
Unternehmen:
Schulen:
CS:S, auch CSS, steht für:
Siehe auch: |
859 | 556709 | https://de.wikipedia.org/wiki?curid=859 | Cascading Style Sheets | Cascading Style Sheets (e Aussprache []; für ‚gestufte Gestaltungsbögen‘; "kurz:" CSS) ist eine Stylesheet-Sprache für elektronische Dokumente und zusammen mit HTML und JavaScript eine der Kernsprachen des World Wide Webs. Sie ist ein sogenannter und wird vom World Wide Web Consortium (W3C) beständig weiterentwickelt. Mit CSS werden Gestaltungsanweisungen erstellt, die vor allem zusammen mit den Auszeichnungssprachen HTML und XML (zum Beispiel bei SVG) eingesetzt werden.
Grundlagen.
CSS wurde entworfen, um Darstellungsvorgaben weitgehend von den Inhalten zu trennen. Wenn diese Trennung konsequent vollzogen wird, werden nur noch die inhaltliche Gliederung eines Dokumentes und die Bedeutung seiner Teile in HTML oder XML beschrieben, während mit CSS gesondert davon, vorzugsweise in separaten CSS-Dateien, die Darstellung der Inhalte festgelegt wird (z. B. Layout, Farben und Typografie). Gab es anfangs nur einfache Darstellungsanweisungen, so wurden im Verlauf komplexere Module hinzugefügt, mit denen z. B. Animationen und für verschiedene Ausgabemedien verschiedene Darstellungen definiert werden können.
Elemente eines Dokumentes können aufgrund verschiedener Eigenschaften identifiziert werden. Dazu zählen neben dem Elementnamen (z. B. codice_1 für alle Hyperlinks), ihrer ID und ihrer Position innerhalb des Dokumentes (z. B. alle Bildelemente innerhalb von Linkelementen) auch Details wie Attribute (z. B. alle Linkelemente, deren codice_2-Attribut mit "www.example.com" beginnen) oder die Position in einer Menge von Elementen (z. B. jedes ungerade Element einer Liste). Mit CSS-Anweisungen können für jede solcher Elementgruppen Vorgaben für die Darstellung festgelegt werden. Diese Festlegungen können zentral erfolgen, auch in separaten Dateien, sodass sie leichter für andere Dokumente wiederverwendet werden können. Außerdem enthält CSS ein Vererbungsmodell für Auszeichnungsattribute, das die Anzahl erforderlicher Definitionen vermindert.
Mit CSS können für verschiedene Ausgabemedien (Bildschirm, Papier, Projektion, Sprache) unterschiedliche Darstellungen vorgegeben werden. Das ist nützlich, um z. B. die Verweisadressen von Hyperlinks beim Drucken aufzuführen, und um für Geräte wie PDAs und Mobiltelefone, die kleine Displays oder eine geringe Bildauflösung haben, Darstellungen anzubieten, die schmal genug und nicht zu hoch sind, um auf solchen Geräten lesbar zu bleiben.
CSS ist die Standard-Stylesheet-Sprache im World Wide Web. Früher übliche, darstellungsorientierte HTML-Elemente wie codice_3 oder codice_4 gelten als „veraltet“ (), das heißt, sie sollen in Zukunft aus dem HTML-Standard entfernt werden. So gelten diese unter anderem seit HTML 4 (1997) als „unerwünscht“ und mit HTML5 als missbilligt ().
Geschichte und Versionen.
Anfänge.
Einen ersten Vorschlag für Web-Stylesheets gab es 1993, mehrere weitere folgten bis 1995. Am 10. Oktober 1994 veröffentlichte Håkon Wium Lie, ein Mitarbeiter von Tim Berners-Lee am CERN, den ersten Vorschlag für „Cascading HTML style sheets“, die er später abgekürzt als „CHSS“ bezeichnet. Bert Bos arbeitete zu dieser Zeit an der Implementierung eines Browsers namens "Argo", der seine eigene Stylesheet-Sprache benutzte. Die beiden entschieden sich, CSS gemeinsam zu entwickeln. Es gab zu dieser Zeit auch andere Sprachen mit dem gleichen Ziel, die Erfinder von CSS brachten aber als erste die Idee auf, Regeln zu definieren, die über mehrere Stylesheets hinweg und innerhalb eines einzigen Stylesheets darüber entscheiden, welche CSS-Formatierung auf das betreffende Element angewendet werden sollen.
Nach der Präsentation von CSS durch Lie auf der Konferenz „Mosaic and the Web“ in Chicago 1994 und später mit Bos 1995 wurde das World Wide Web Consortium (W3C) auf CSS aufmerksam. Lie und Bos arbeiteten mit anderen Mitgliedern in diesem Rahmen an CSS weiter. Im Dezember 1996 wurde die "CSS Level 1 Recommendation" publiziert.
CSS2.
"CSS Level 2" (CSS2) wurde im Mai 1998 veröffentlicht. Bis Anfang 2010 wurde diese Empfehlung allerdings von keinem verbreiteten Webbrowser vollständig umgesetzt. Bereits ab 2002 hat das W3C an der überarbeiteten Version "CSS Level 2 Revision 1" (CSS 2.1) gearbeitet. Die Erfahrungen mit CSS2 wurden hier aufgenommen, Unstimmigkeiten korrigiert und manche Teiltechniken gestrichen, die in verschiedenen Browsern nicht korrekt umgesetzt worden waren. Grundlegend neue Fähigkeiten wurden nicht eingebaut. Am 7. Juni 2011 wurde CSS 2.1 als fertige Empfehlung "(Recommendation)" veröffentlicht. 2014 verarbeiteten die meisten Webbrowser CSS 2.1 weitgehend korrekt, nur wenige Teiltechniken wurden nicht vollständig unterstützt. Im April 2016 wurde der erste öffentliche Arbeitsentwurf von CSS 2.2 veröffentlicht.
CSS3.
Seit 2000 ist "CSS Level 3" in der Entwicklung. Hier werden die Entwicklungen weiter vorangetrieben, die bereits mit CSS2 begonnen wurden. CSS3 wird im Gegensatz zu den Vorgängern modular aufgebaut sein, womit einzelne Teiltechniken (beispielsweise Steuerung der Sprachausgabe oder Selektoren) in eigenen Versionsschritten entwickelt werden können. So nähert sich CSS bei seinen Fähigkeiten mehr dem etablierten DSSSL (für SGML) an und wird wohl auch in Zukunft noch eine Alternative zu XML-basierten Stylesheet-Sprachen wie XSL-FO sein. Derzeit veröffentlichte und breit unterstützte Standards sind unter anderem "CSS Color Level 3", "CSS Namespaces", "Selectors Level 3" und "Media Queries". Neben diesen Modulen stehen weitere Elemente zur Diskussion, etwa ein Layout-Modul und verschiedene Grafikfilter. Moderne Browser unterstützten im Jahr 2014 bereits viele CSS3-Module, obwohl nur für wenige Teile bereits eine Empfehlung "(Recommendation)" durch das W3C vorgelegen hatte. Im Laufe der Zeit gab es immer mehr Funktionen für CSS, sowie Empfehlungen vom W3C.
Im Frühjahr 2012 wurde berichtet, das W3C arbeite bereits an einem Nachfolger von CSS3, der mit der Versionsnummer 4 veröffentlicht werden solle. Im September 2012 haben Vertreter der CSS-Arbeitsgruppe des W3C jedoch klargestellt, dass es keine Versionsnummer 4 geben soll: . Vielmehr soll die künftige Entwicklung des Standards darin bestehen, dass die einzelnen CSS-Module unter eigenen Versionsnummern weiterentwickelt werden können, während der Gesamtstandard den Namen CSS3 oder einfach CSS behalten soll.
Syntax.
Der Aufbau von CSS-Anweisungen.
Selektor1 [, Selektor2 [, …] ] {
Eigenschaft-1: Wert-1;
Eigenschaft-n: Wert-n[;]
/* Kommentar */
/* In eckigen Klammern stehen optionale Angaben */
Eine CSS-Anweisung () gibt an, dass für festgelegte Teile eines Dokuments eine Kombination von bestimmten Eigenschaften gelten soll. Geschrieben wird sie als eine durch Kommata getrennte Aufzählung von Selektoren "(„Für diese Typen von Teilen …“)", gefolgt in geschweiften Klammern von einer semikolongetrennten Liste von Eigenschafts-Deklarationen "(„… nimm die folgenden Eigenschaften!“)". Jede Eigenschaftsdeklaration besteht aus der Bezeichnung der Eigenschaft, einem Doppelpunkt und dem Wert, den sie annehmen soll. Nach der letzten Eigenschaftsdeklaration ist vor der schließenden geschweiften Klammer ein abschließendes Semikolon erlaubt, aber nicht notwendig.
Um diese Teile einer Anweisung herum ist Leerraum frei verwendbar. Häufig schreibt man den Doppelpunkt ohne Zwischenraum hinter den Eigenschaftsnamen, jede Eigenschaftsdeklaration in eine eigene Zeile und schließt auch die letzte Eigenschaft mit einem Semikolon. So kommt es bei späteren Änderungen weniger leicht zu Syntaxfehlern. Sollte es dennoch zu Syntaxfehlern kommen, eignet sich ein CSS-Validator, um Fehler zu beheben.
Ein Stylesheet darf beliebig viele solcher Anweisungen enthalten. Die folgende Tabelle enthält eine vollständige Übersicht aller Selektoren, mit denen Elemente (meist HTML-Elemente) ausgewählt werden können.
Selektoren.
Ein Selektor nennt die Bedingungen, die auf ein Element zutreffen müssen, damit der nachfolgende Satz an CSS-Deklarationen mit seinen Darstellungsvorgaben auf das Element angewendet wird. Solche Bedingungen beschreiben eindeutig, welche Eigenschaften (Typ, Klasse, ID, Attribut oder Attributwert) Elemente haben müssen oder in welchem Kontext sie im Dokument stehen müssen (Existenz eines bestimmten übergeordneten Elementes oder eines Vorgängerelementes bestimmten Typs), damit die Darstellungsvorgaben für sie gelten sollen. In einem Selektor können mehrere Auswahlkriterien verknüpft sein.
Beispiel.
CSS-Code:
p.info {
font-family: arial, sans-serif;
line-height: 150%;
margin-left: 2em;
padding: 1em;
border: 3px solid red;
background-color: #f89;
display: inline-block;
p.info span {
font-weight: bold;
p.info span::after {
content: ": ";
HTML-Code:
<p class="info">
<span>Hinweis</span>
Sie haben sich erfolgreich angemeldet.
</p>
Die HTML-Tags codice_5 und codice_6 definieren den dazwischen stehenden Text als einen Absatz. Diesem wird die Klasse „info“ mit ihren CSS-Darstellungsvorgaben zu Schrifttyp, Rahmen etc. zugewiesen. Von einem CSS-kompatiblen Browser wird der Absatz daher folgendermaßen dargestellt:
Hier werden die Deklarationen allen codice_7-Elementen zugewiesen, die das codice_8-Attribut mit dem Wert codice_9 besitzen. Ohne das codice_7 im Selektor wären alle Elemente der Klasse codice_9 betroffen, ohne das codice_12 wären alle codice_7-Elemente betroffen. codice_14-Elemente innerhalb solcher Absätze werden in Fettschrift dargestellt; dahinter wird mit dem Pseudoelement codice_15 ein Doppelpunkt erzeugt.
Ein wichtiges Prinzip von CSS ist die Vererbung der Eigenschaftswerte an untergeordnete Elemente und das Kombinieren verschiedener Stylesheets, wobei die letzte Eigenschaftsdeklaration für ein Element vorher getroffene Deklarationen der gleichen Eigenschaft mit anderem Wert für dieses Element überschreibt. Diese können aus verschiedenen Quellen stammen: vom Autor des Stylesheets, vom Browser (User Agent) oder vom Benutzer. Hierbei werden zuerst die Angaben vom Browser, dann die vom Benutzer und schließlich die vom Autor umgesetzt.
Layouts mit CSS erstellen.
In den Anfängen der Web-Entwicklung wurden komplexe Layouts häufig mithilfe des codice_16-Elements umgesetzt. Dabei wird die ganze Website als Tabelle strukturiert, deren Spalten, Zeilen und Zellen den eigentlichen Inhalt enthalten. Auch können Tabellen in sich verschachtelt werden. Nachteile dieser Methode sind vor allem eine geringe Gestaltungsfreiheit und ungünstige Darstellung auf Geräten mit kleinem Display (siehe Responsive Webdesign).
Mittlerweile unterstützen alle gängigen Webbrowser ausgefeiltere Möglichkeiten und CSS-Anweisungen um weitaus kreativere Layouts umzusetzen. Im Kontext von HTML E-Mails findet diese Methode jedoch immer noch Anwendung, da unter anderem Microsoft Outlook viele gängige CSS-Eigenschaften nicht unterstützt.
Auf modernen Webseiten werden mittlerweile vor allem zwei Eigenschaften verwendet:
Browserkompatibilität.
Die verschiedenen Browser unterscheiden sich stark im Umfang der unterstützten Eigenschaften und den Standarddarstellungen verschiedener HTML-Elemente. Dadurch entstehen Probleme für den Entwickler, da er nicht alle Funktionen im vollen Ausmaß nutzen kann und darauf achten muss, dass sich die Website nicht zu stark unterscheidet zwischen den einzelnen Browsern. Es gibt verschiedene Möglichkeiten dieses Problem zu lösen:
Eine weitere Methode sind CSS-Hacks. Diese verwenden CSS-Syntax, um Schwächen der Browser bei der Gestaltung von Weblayouts auszunutzen.
CSS-Hacks.
CSS-Hacks werden benutzt, um Unterschiede bei der Darstellung von Weblayouts in verschiedenen Browsern auszugleichen oder CSS-Anweisungen für bestimmte Webbrowser gesondert zuzuweisen oder auszuschließen. Der Begriff Hack bezeichnet dabei nichtstandardisierte CSS-Befehle, mit denen die Interpretationsschwäche eines Webbrowsers ausgenutzt wird, der diese Anweisungen entweder interpretiert oder ignoriert. Damit können Schwachstellen von Webbrowsern ausgeglichen werden, um möglichst in jedem Webbrowser das gleiche Ergebnis angezeigt zu bekommen.
Ein CSS-Hack kombiniert z. B. fehlerhaft angegebene Selektoren mit zusätzlichen Zeichen oder enthält Anweisungen, die bestimmte Webbrowser nicht kennen. Ein bekanntes Beispiel für einen CSS-Hack ist der sogenannte Star-HTML-Hack. Das codice_19-Zeichen dient als Universal-Selektor und ist vor dem Selektor codice_20 sinnlos.
CSS-Code-Beispiel:
In diesem Fall würden zunächst alle Browser die codice_7-Elemente mit einem blauen Hintergrund darstellen. Lediglich der Internet Explorer vor Version 7 interpretiert auch die zweite Zeile und färbt die Absätze rot, obwohl codice_22 kein Eltern-Element besitzt, auf das codice_19 zutreffen könnte.
Kombination mit HTML oder XHTML.
Am häufigsten wird CSS mit HTML oder XHTML kombiniert. Dies kann an mehreren Orten geschehen, hier einige Beispiele:
<link rel="stylesheet" type="text/css" href="beispiel.css" />
<?xml-stylesheet type="text/css" href="beispiel.css" ?>
<head>
<title>Dokument mit Formatierungen</title>
<style type="text/css">
</style>
</head>
<span style="font-size: small;">Text</span>
Die Einbindung als externes Stylesheet ist dabei die am häufigsten verwendete Methode. Sie bietet den Vorteil, dass für mehrere Dokumente, die denselben Regelsatz benutzen, das Stylesheet nur einmal heruntergeladen werden muss. Auch vermeidet man so sich wiederholenden Code. CSS selbst ermöglicht durch den codice_27-Befehl das Einbinden von weiteren externen Stylesheets.
<head>
<title>Beispiel</title>
<style type="text/css">
@import url(url_des_stylesheets);
</style>
</head>
Es gibt drei Varianten, Stylesheets mit einem codice_24-Element einzubinden. Sie unterscheiden sich darin, wie zwingend die Stylesheets berücksichtigt werden:
<link rel="stylesheet" type="text/css" href="beispiel.css" />
Wenn man ein Stylesheet so einbindet, wird es auf jeden Fall verwendet.
<link rel="stylesheet" type="text/css" href="beispiel.css" title="IrgendeinTitel" />
Sollte man diese Einbindung verwenden, wird das Stylesheet verwendet, bis der Benutzer ein anderes auswählt.
<link rel="alternate stylesheet" type="text/css" href="beispiel.css" title="IrgendeinTitel" />
Wird das Stylesheet so mit dem HTML-Dokument verknüpft, muss der Benutzer ausdrücklich wählen, es zu verwenden. Das wirkt sich in den meisten Browsern aus (z. B. Internet Explorer, Firefox, Opera und Konqueror). Somit wird diese Funktion von den meist benutzten Browsern implementiert. Außerdem sollte ein „alternate stylesheet“ nur in Verbindung mit einem anderen, fest eingebundenen verwendet werden, damit es auch nur eine echte Alternative ist.
Alternativ ist es auch möglich, das Stylesheet dynamisch mittels JavaScript einzubinden, dabei kann es jedoch passieren, dass der Inhalt während des Ladevorgangs für kurze Zeit noch ohne den Stil dargestellt wird, was als Flash of Unstyled Content störend auffallen kann.
Spezifische Stylesheets.
Um spezifische Geräte oder Eigenschaften anzusprechen, gibt es in CSS besondere Attribute. Seit CSS2 können ausgewählte Geräte angesprochen werden mit medienspezifischen Stylesheets und seit CSS3 nur Geräte mit bestimmten Eigenschaften, beispielsweise der Bildschirmbreite, mit eigenschaftsspezifischen Stylesheets (Media Queries). Media Queries sind vor allem für responsives Webdesign wichtig.
Medienspezifische Stylesheets.
Es ist möglich, verschiedene Stylesheets für verschiedene Medien einzubinden, um zum Beispiel die Gestaltung beim Drucken oder auf Handy-Displays zu regulieren. Diesen Zweck erfüllt das Attribut codice_29. In diesem Attribut werden die Parameter notiert, die für dieses Stylesheet gelten sollen.
@media print {
body {
color: black;
background-color: white;
h1 {
font-size: 14pt;
.navigation {
display: none;
Durch mehrere codice_30-Befehle lassen sich innerhalb einer CSS-Datei oder eines codice_32-Blocks verschiedene Ausgabegeräte ansprechen.
<link rel="stylesheet" type="text/css" href="beispiel.css" media="print" />
<style type="text/css" media="print">
body {
color: black;
background-color: white;
h1 {
font-size: 14pt;
.navigation {
display: none;
</style>
Da viele moderne Smartphones den Typ "handheld" nicht unterstützen und stattdessen die Stilvorgaben von "screen" nutzen, ist man hier auf „Eigenschaftsspezifische Stylesheets“ "(Media Queries)" angewiesen.
Eigenschaftsspezifische Stylesheets (Media Queries).
Bei Media Queries handelt es sich um ein Konzept, welches mit CSS3 eingeführt wurde und das Prinzip des Medientyps in CSS2 erweitert. Anstatt starr zu definieren, welches Medium das Zielmedium ist, können mit Media Queries die Eigenschaften des aktuellen Gerätes direkt abgefragt werden. Verfügbare Geräteeigenschaften sind zum Beispiel:
Vor allem im Bereich der mobilen Webprogrammierung werden Media Queries bereits jetzt häufig eingesetzt, um die Webseite ideal an das aktuell verwendete Gerät anzupassen.
Im folgenden Beispiel werden Elemente mit CSS-Anweisungen versehen. Diese Anweisungen gelten für das gesamte Dokument. Anschließend wird eine Media Query eingesetzt, die greift, sobald die Breite des Browserfensters kleiner als 1025 Pixel ist. In diesem Fall ändern sich die Eigenschaften, die vorher allgemein definiert wurden, bzw. es gelten zusätzliche Eigenschaften.
width: 800px;
@media screen and (max-width: 1024px) {
#inhalt {
width: 600px;
aside {
display: none;
Sicherheitsrisiken durch CSS.
Es ist möglich, CSS auch ohne zusätzliche Verwendung von JavaScript oder anderen Skriptsprachen zum Tracken von Nutzern oder zum Abfangen von Daten, die in Webformulare eingetragen werden (beispielsweise Passwörter), zu verwenden. Software-Keylogger, die nur aus CSS-Anweisungen bestehen, sind mit wenigen Zeilen Code realisierbar. |
863 | 36246 | https://de.wikipedia.org/wiki?curid=863 | Clara Zetkin | Clara Josephine Zetkin, geborene "Eißner" (* 5. Juli 1857 in Wiederau; † 20. Juni 1933 in Archangelskoje bei Moskau) war eine sozialistisch-kommunistische deutsche Politikerin, Friedensaktivistin und Frauenrechtlerin. Sie war bis 1917 aktiv in der SPD und in dieser Partei eine markante Vertreterin der revolutionär-marxistischen Fraktion. 1917 schloss sie sich der SPD-Abspaltung USPD an. Dort gehörte sie zum linken Flügel bzw. zur Spartakusgruppe, die während der Novemberrevolution 1918 in Spartakusbund umbenannt wurde. Dieser wiederum ging zusammen mit anderen linksrevolutionären Gruppierungen in der zum Jahreswechsel 1918/1919 neu gegründeten Kommunistischen Partei Deutschlands (KPD) auf. Als einflussreiches Mitglied der KPD war Zetkin von 1920 bis 1933 Reichstagsabgeordnete und 1932 Alterspräsidentin des Parlaments.
Auf übernationaler Ebene gehörte Zetkin als Beteiligte am Internationalen Arbeiterkongress von 1889 in Paris zu den Gründern der Zweiten Internationale der sozialistischen Arbeiterbewegung. In der Arbeit für die Internationale gilt sie als prägende Initiatorin des Internationalen Frauentags. Als Angehörige der Zentrale bzw. des später als Zentralkomitee bezeichneten Vorstandsgremiums der KPD war sie von 1921 bis 1933 Mitglied im Exekutivkomitee der Kommunistischen Internationale (EKKI), wo sie in ihren letzten Lebensjahren zur Minderheit der Kritiker der letztlich von Stalin vorgegebenen Sozialfaschismusthese gehörte.
Leben.
Herkunft und Bildungsweg.
Clara Zetkin war die älteste Tochter von Gottfried Eißner (auch Eisner) und seiner Frau Josephine, geborene Vitale. Gottfried Eißner war der Sohn eines Tagelöhners und Dorfschullehrers in Wiederau im Königreich Sachsen. Der Vater von Josephine Vitale, Jean Dominique, war durch die Französische Revolution 1789 und seine Teilnahme an Napoleons Kriegen geprägt. Ihre Mutter stand mit Pionierinnen der damals entstandenen bürgerlichen Frauenbewegung in Kontakt, insbesondere Louise Otto-Peters und Auguste Schmidt, las Bücher von George Sand und gründete in Wiederau einen Verein für Frauengymnastik. Ihr Vater war Lehrer, Kirchenorganist und gläubiger Protestant.
Die Familie siedelte 1872 nach Leipzig über, um ihren Kindern eine bessere Ausbildung zu ermöglichen. Clara Zetkin ließ sich dort in Privatseminaren zur Volksschullehrerin ausbilden. 1879 war sie in Zschopau bei der Unternehmerfamilie Bodemer als Hauslehrerin tätig.
Politisches Engagement in der frühen Sozialdemokratie und erstes Exil.
Ab 1874 hatte Clara Eißner Kontakte zur Frauen- und Arbeiterbewegung. Sie trat 1878 der Sozialistischen Arbeiterpartei Deutschlands bei, die 1890 in SPD (Sozialdemokratische Partei Deutschlands) umbenannt wurde. Wegen des Sozialistengesetzes (1878–1890), das sozialdemokratische Aktivitäten außerhalb der Landtage und des Reichstags verbot, ging sie 1882 zuerst nach Zürich, dann nach Paris ins Exil. Dort nahm sie den Namen ihres Lebenspartners, des russischen Revolutionärs Ossip Zetkin an, mit dem sie zwei Söhne hatte, Maxim Zetkin (1883–1965) und Kostja Zetkin (1885–1980).
In ihrer Zeit in Paris hatte sie 1889 während des Internationalen Arbeiterkongresses einen bedeutenden Anteil an der Gründung der Sozialistischen Internationale.
Im Herbst 1890 kehrte die Familie nach Deutschland zurück und ließ sich in Sillenbuch bei Stuttgart nieder. Dort arbeitete Zetkin als Übersetzerin für den Dietz-Verlag und seit 1892 als Chefredakteurin der sozialdemokratischen Frauenzeitschrift "Die Gleichheit".
Nach dem Tode Ossip Zetkins 1889 heiratete sie 1899 42-jährig in Stuttgart den 24-jährigen Kunstmaler Friedrich Zundel aus Wiernsheim. Nach zunehmender Entfremdung wurde die Ehe 1927 geschieden.
1907 lernte Zetkin anlässlich des Internationalen Sozialistenkongresses in Stuttgart den russischen Revolutionär Wladimir Iljitsch Lenin kennen. In der SPD gehörte sie zusammen mit Rosa Luxemburg wortführend zum revolutionären linken Flügel der Partei und wandte sich mit ihr um die Jahrhundertwende zum 20. Jahrhundert in der Revisionismusdebatte entschieden gegen die reformorientierten Thesen Eduard Bernsteins.
Die Frauenrechtlerin.
Einer ihrer politischen Schwerpunkte war die Frauenpolitik. Hierzu hielt sie beim Gründungskongress der Zweiten Internationale am 19. Juli 1889 ein berühmt gewordenes Referat, in dem sie die Forderungen der bürgerlichen Frauenbewegung nach Frauenwahlrecht, freier Berufswahl und besonderen Arbeitsschutzgesetzen für Frauen, wie sie um Helene Lange und Minna Cauer vertreten wurden, im Rahmen des herrschenden Systems kritisierte:
Damit erklärte Zetkin das Ziel der Gleichberechtigung der Geschlechter für sekundär gegenüber der sozialen Revolution. Ihre Verschiebung der formalpolitischen Emanzipation der Frau auf die Zeit danach machte die Ausbildung einer sozialistischen Frauenbewegung mit eigenem Programm und mit taktischer Unabhängigkeit von der Partei unmöglich. Zudem erschwerte diese Haltung die Zusammenarbeit mit der bürgerlichen Frauenbewegung, die Zetkin als „frauenrechtliche Harmonieduselei“ ablehnte. Auf dem SPD-Parteitag, der 1896 in Gotha stattfand, setzte Zetkin eine Resolution durch, die die Bedeutung der Emanzipation je nach Klasse differenzierte: Die kleine und mittlere Bourgeoisie schüre damit „den wirtschaftlichen Interessenkampf zwischen Männern und Frauen“, wohingegen der Emanzipationskampf der Proletarierinnen nicht ein Kampf gegen die Männer der eigenen Klasse sei, sondern nur mit ihnen gemeinsam geführt werden müsse. Zetkin zog daraus den Schluss: „Die Emanzipation der proletarischen Frauen kann deshalb nicht das Werk sein der Frauen aller Klassen, sondern ist allein das Werk des gesamten Proletariats ohne Unterschied des Geschlechts“. Auch auf dem ersten Internationalen Frauenkongress, der 1896 in Berlin stattfand, erklärte Zetkin, dass die sozialistische Frauenpolitik eigenständig bleiben müsse, was einen heftigen Zusammenstoß mit den Vertreterinnen der bürgerlichen Frauenbewegung auslöste.
Mit der bürgerlichen Frauenbewegung stimmte Zetkin gleichwohl in der Annahme überein, es gäbe naturgegebene Unterschiede zwischen den Geschlechtern. 1907 widersprach sie explizit der „Ansicht gewisser frauenrechtlerischer Kreise, daß Frauen und Männer gleiche Rechte haben müssen, weil sie geistig-sittlich gleich seien. Wie körperlich, so sind die Geschlechter auch in ihrem Geistes- und Seelenleben verschieden. Aber verschieden sein, anders sein, heißt für das weibliche Geschlecht nicht niedriger sein als das männliche“. Eine Frau würde auf Grund ihrer „weiblichen Eigenart zum Teil anders fühlen, denken und handeln als der Mann“, doch seien dies „Anderssein“ eine „Bereicherung der Gesellschaft“ anzusehen. Die Forderung nach einem Frauenwahlrecht machte Zetkin später zu einem Schwerpunkt der sozialdemokratischen Agitation unter den Frauen, da sie es als Kampfmittel gegen den Kapitalismus ansah: „Wir verlangen gleiche politische Rechte mit dem Manne, damit wir ungehemmt durch gesetzliche Schranken mitarbeiten, mitkämpfen können, um diese Gesellschaft zu stürzen.“ Das Frauenwahlrecht war seit 1891 Bestandteil des Parteiprogramms der SPD gewesen.
Zetkin war von 1891 bis 1917 Chefredakteurin der SPD-Frauenzeitung "Die Gleichheit" (bzw. deren Vorläuferin "Die Arbeiterin"), in deren programmatischer Eröffnungsnummer sie sich erneut gegen die reformistische Vorstellung wandte, durch rechtliche Gleichstellung mit den Männern unter Beibehaltung des Kapitalismus einen Fortschritt für die Frauen erreichen zu wollen:
1907 wurde ihr die Leitung des neu gegründeten Frauensekretariats der SPD übertragen. Beim „Internationalen Sozialistenkongress“, der im August 1907 in Stuttgart stattfand, wurde die Gründung der Sozialistischen Fraueninternationale beschlossen – mit Zetkin als internationaler Sekretärin. Auf der "Zweiten Internationalen Sozialistischen Frauenkonferenz" am 27. August 1910 in Kopenhagen initiierte sie gegen den Willen ihrer männlichen Parteikollegen, gemeinsam mit Käte Duncker, den Internationalen Frauentag, der erstmals im folgenden Jahr am 19. März 1911 begangen werden sollte (ab 1921 am 8. März).
Während des Ersten Weltkriegs.
Zusammen mit Franz Mehring, Rosa Luxemburg und weiteren prominenten SPD-Politikern gehörte Zetkin kurz vor Beginn des Ersten Weltkrieges 1914 zur Minderheit der Gegner einer Bewilligung der Kriegskredite in den Gremien der eigenen Partei. Sie blieb damit dem Grundsatz der II. Internationale treu, keinen Angriffskrieg zu unterstützen, und stand fortan im Widerspruch zur Mehrheit der im Reichstag vertretenen SPD. Entsprechend lehnte sie ab Beginn des Ersten Weltkriegs die Burgfriedenspolitik ihrer Partei ab. Im Reichstag selbst war Karl Liebknecht im Dezember 1914 der erste Abgeordnete, der mit der Fraktionsdisziplin brach und gegen die Bewilligung der Kriegskredite stimmte.
Neben anderen Aktivitäten gegen den Krieg organisierte Zetkin 1915 in Bern, der Hauptstadt der neutralen Schweiz, die Internationale Konferenz sozialistischer Frauen gegen den Krieg. In diesem Zusammenhang entstand das maßgeblich von ihr ausformulierte Antikriegs-Flugblatt „Frauen des arbeitenden Volkes!“, dessen Verbreitung außerhalb der Schweiz, insbesondere in den Mittelmächten Österreich-Ungarn und dem Deutschen Reich polizeilich verboten wurde. Aufgrund ihrer Antikriegshaltung wurde Zetkin während des Krieges mehrfach inhaftiert, ihre Post beschlagnahmt, ihre Söhne, beide Ärzte im Militärdienst, wurden schikaniert.
Von der SPD zur KPD.
Sie war ab 1916 an der ursprünglich von Rosa Luxemburg gegründeten revolutionären innerparteilichen Oppositionsfraktion der SPD, der "Gruppe Internationale" bzw. "Spartakusgruppe" beteiligt, die am 11. November 1918 in Spartakusbund umbenannt wurde. 1917 schloss sich Zetkin der USPD – unmittelbar nach deren Konstituierung – an. Diese neue linkssozialdemokratische Partei hatte sich aus Protest gegen die kriegsbilligende Haltung der SPD von der Mutterpartei abgespalten, nachdem die größer gewordene Gruppe der Kriegsgegner aus der SPD-Reichstagsfraktion und der Partei ausgeschlossen worden war.
Nach der Oktoberrevolution in Russland kam es zum Streit innerhalb des Spartakusbundes über die Politik der Bolschewiki. Im Januar 1918 hatten sie die Russische konstituierende Versammlung mit Gewalt auseinanderjagen lassen, weil seine Partei dort keine Mehrheit hatte. Luxemburg kritisierte scharf, dass es im Anschluss keine Neuwahlen gab, und formulierte in diesem Zusammenhang ihr Diktum von der Freiheit, die „immer Freiheit des anders Denkenden“ sei. Zetkin dagegen befürwortete Lenins „Januarputsch“ (Heinrich August Winkler) uneingeschränkt: Eine Hinnahme des demokratischen Wahlergebnisses wäre „ein Verbrechen gewesen, gepaart mit Narrheit“.
Nach der Novemberrevolution in Deutschland wurde – ausgehend vom Spartakusbund und anderen linksrevolutionären Gruppen – am 1. Januar 1919 die Kommunistische Partei Deutschlands (KPD) gegründet, der auch Zetkin beitrat. Von 1919 bis 1920 war Zetkin Mitglied der Verfassunggebenden Landesversammlung Württembergs und dort eine unter den ersten 13 weiblichen Abgeordneten. Sie beteiligte sich ab dem 25. Juli 1919 am Sonderausschuss für den Entwurf eines Jugendfürsorgegesetzes. Am 25. September 1919 stimmte Zetkin gegen die Annahme der Verfassung des freien Volksstaates Württemberg.
Von 1920 bis 1933 war sie für die KPD im Reichstag der Weimarer Republik als Abgeordnete vertreten. Ab 1919 gab Zetkin die Zeitschrift "Die Kommunistin" heraus. Von 1921 bis zu ihrem Tode war sie Präsidentin der Internationalen Arbeiterhilfe (IAH). In der KPD war Zetkin bis 1924 Angehörige der Zentrale, und von 1927 bis 1929 des Zentralkomitees der Partei. Des Weiteren war sie von 1921 bis 1933 Mitglied des Exekutivkomitee der Kommunistischen Internationale (EKKI).
1925 wurde Zetkin außerdem zur Vorsitzenden der Roten Hilfe Deutschlands gewählt.
In der KPD saß Zetkin im Lauf ihrer politischen Tätigkeit, während der die dominierenden innerparteilichen Flügel mehrfach wechselten, oft zwischen den Stühlen, behielt jedoch zeitlebens einen bedeutenden Einfluss in der Partei. Im Allgemeinen wird sie von namhaften Historikern wie beispielsweise Heinrich August Winkler eher dem „rechten“ Flügel der KPD zugeordnet, vor allem, weil sie trotz ihrer Mitgliedschaft im EKKI den ideologischen Vorgaben der Komintern und aus der Sowjetunion teilweise kritisch gegenüberstand.
So lehnte sie 1921 – nach der Vereinigung der KPD mit dem großen linken Flügel der USPD zur zeitweilig unter dem Alternativkürzel VKPD firmierenden Partei – zusammen mit dem damaligen von März 1919 bis Februar 1921 amtierenden innerparteilich umstrittenen KPD-Vorsitzenden Paul Levi (Parteiausschluss Mitte 1921) die vom Komintern-Chef Grigori Jewsejewitsch Sinowjew befürwortete „Offensivstrategie“ als „Putschismus“ ab. Bei der entsprechenden von der KPD mehrheitlich unterstützten Kampagne war eine revolutionär ausgerichtete Arbeiterrevolte, die "Märzaktion" in der Provinz Sachsen, blutig gescheitert, wobei über hundert Menschen ums Leben gekommen waren. Anders als die Parteivorsitzenden Levi und Ernst Däumig blieb sie jedoch in der KPD und schloss sich nicht der Kommunistischen Arbeitsgemeinschaft (KAG) an.
In einem Moskauer Schauprozess gegen Sozialrevolutionäre fungierte Zetkin 1922 als Anklägerin und publizierte dazu eine „Kampfschrift“ im Komintern-Verlag. In ihrer Anklageschrift bezeichnete Zetkin den Prozess ausdrücklich als politisch: Ein „Revolutionsgericht“ sei keinerlei kodifierten Freiheits- oder Prozessrechten verpflichtet, wie sie in der bürgerlichen Rechtsprechung üblich seien. Abzuurteilen sei die „Bewußtseinstat“ der Angeklagten, stellvertretend werde damit das Urteil gefällt über Sozialdemokraten und andere Reformisten in der europäischen Arbeiterbewegung. Dass das Urteil nur auf Todesstrafe lauten könne, „darüber kann es nicht einmal eine Diskussion geben,“ schrieb sie. Noch bevor es verhängt wurde, plädierte sie aber in einem Schreiben an das ZK der KPdSU dafür, die Vollstreckung auszusetzen, weil sie erwartete, dass die Hinrichtungen in der internationalen Öffentlichkeit negativ aufgenommen würden. Humanitäre Gründe spielten bei dieser Eingabe keine Rolle.
Nach Mussolinis „Marsch auf Rom“, der Machtergreifung der italienischen Faschisten im Oktober 1922, entwickelte Zetkin in Abgrenzung von der Theoriebildung etwa Sinowjews, die innerhalb der Kommunistischen Partei Russlands (Bolschewiki) vorherrschte, eine differenzierte Faschismustheorie: Die Bolschewiki subsumierten unter Faschismus nämlich jegliche gewalttätige und antikommunistische reaktionäre Bewegung. Zetkin lebte in den 1920er Jahren überwiegend in Moskau. Dort erklärte sie auf der Tagung des Exekutivkomitees der Komintern dagegen im Juni 1923, der Faschismus sei keineswegs als „bloßer bürgerlicher Terror“ und als Rache der Bourgeoisie für die Bedrohung durch die Oktoberrevolution zu verstehen. Zwar würden die Kapitalisten den Faschismus nach Kräften fördern, doch seien dessen Träger „breite soziale Schichten, große Massen, die selbst bis in das Proletariat hineinreichen“. Diese seien enttäuscht über den „Verrat der reformistischen Führer der Arbeiterbewegung“, die vor der Weltrevolution zurückgeschreckt seien und insofern verantwortlich für die Machtergreifung der Faschisten in Italien seien. Deshalb müsse man nun „den Kampf aufnehmen nicht nur um die Seelen der Proletarier, die dem Faschismus verfallen sind, sondern auch um die Seelen der Klein- und Mittelbürger“. Um diese auf die eigene Seite zu ziehen oder um zumindest zu verhindern, dass sie auf Seiten der Bourgeoisie kämpften, müsse die kommunistische Propaganda und Agitation sie in ihrer jeweils eigenen Sprache ansprechen: „Wir brauchen eine besondere Literatur für die Agitation unter den Bauern, wir brauchen eine besondere Literatur für die Beamten, Angestellten, Klein- und Mittelbürger jeder Art und wieder eine eigene Literatur für die Arbeit unter den Intellektuellen“. Doch genüge es nicht, den Faschismus ideologisch und politisch zu überwinden. Vielmehr sei Gewalt gegen die Faschisten als „Notwehr“ legitim: „Gewalt gegen Gewalt! Nicht etwa Gewalt als individueller Terror – das bliebe erfolglos. Aber Gewalt als die Macht des revolutionären organisierten proletarischen Klassenkampfes.“ Mit ihrem Aufruf zu einer defensiven Einheitsfront der Arbeiterklasse konnte sich Zetkin indes nicht durchsetzen. Vielmehr setzte sich in der Komintern die pauschale Identifizierung aller Nichtkommunisten einschließlich der Sozialdemokraten als (Sozial-)Faschisten durch sowie in der Folge die Dimitroff-These, die ab 1933 unter Faschismus „die terroristische Diktatur der am meisten reaktionären, chauvinistischen und imperialistischen Elemente des Finanzkapitals“ verstand.
Am 21. Januar 1923, kurz nach dem Beginn der Besetzung des Ruhrgebietes durch französische und belgische Truppen infolge der von Deutschland nicht erfolgten Reparationszahlungen laut den Bestimmungen des Versailler Vertrags von 1919, warf Zetkin unter der Überschrift "Um das Vaterland" der Großbourgeoisie vor, ihr „Verrat“ sei schuld an der krisenhaften Zuspitzung der Situation der Weimarer Republik infolge von Hyperinflation und Reparationen. Mit dem Flugblatt „Zur Befreiung des deutschen Vaterlandes“ rief sie zum Sturz der Regierung Cuno und zur Bildung einer Arbeiterregierung auf. Diese nationalistisch anmutenden Töne, die kurzzeitig dazu führten, dass Zetkin von einigen Parteigenossen der Versuch vorgeworfen wurde, die bürgerlichen Parteien mit nationalen Parolen rechts überholen zu wollen, wurden zwei Tage später von der Parteizentrale korrigiert. Mit der Parole „Schlagt Poincaré an der Ruhr und Cuno an der Spree“ rief die KPD zur Solidarität der Proletarier in Deutschland und in Frankreich auf.
Im April 1925 polemisierte Zetkin auf einer weiteren EKKI-Tagung in Moskau gegen die zu der Zeit aktuelle KPD-Führung unter Ruth Fischer und Arkadi Maslow, denen sie „sektiererische Politik“ vorwarf. Damit half sie deren Absetzung vorzubereiten. Nachfolger wurde im Herbst 1925 Ernst Thälmann, den Stalin protegierte.
Zetkin bezeichnete die parlamentarische Demokratie der Weimarer Republik als „Klassendiktatur der Bourgeoisie“ und lehnte sie strikt ab. Zugleich stand sie jedoch auch der stalinschen Sozialfaschismusthese kritisch gegenüber, die ein Bündnis mit der Sozialdemokratie gegen den Nationalsozialismus verhinderte. Dies bedeutete jedoch keine grundsätzliche Kritik an der Kommunistischen Internationale und der sowjetrussischen Diktatur unter Stalin. Sie übte parteiintern Kritik an dem Kurs der KPD unter Ernst Thälmann, den sie für verhängnisvoll hielt, und forderte mehrfach eine freie Aussprache in der Partei. Doch zugleich hielt sie sich eisern an die Parteidisziplin, um Geschlossenheit nach außen zu vermitteln.
Zetkin gehörte dem Reichstag der Weimarer Republik während der gesamten Zeit seines Bestehens ohne Unterbrechung an (1920 bis 1933; 1. bis 7. Wahlperiode). Der langjährige Reichstagspräsident Paul Löbe erinnert sich an ihre rednerische Gewandtheit, im Parlament formvollendet und frei zu sprechen. Außerdem hebt er anerkennend hervor, dass sich Zetkin an den häufig von der KPD-Fraktion veranstalteten Tumulten und Rüpelszenen im Reichstag nicht beteiligte, wenngleich sie als überzeugte Kommunistin die parlamentarische Demokratie ablehnte. Seit Ende der 1920er Jahre lebte sie nur noch in Moskau.
Am 30. August 1932 eröffnete Zetkin, eigens zu diesem Zweck nach Berlin gereist, die konstituierende Sitzung des 6. Reichstages als Alterspräsidentin. Sie war zu diesem Zeitpunkt bereits schwer krank und lebte zumindest zeitweise in einem sowjetischen Sanatorium. Ihre Eröffnungsrede im Reichstag widmete sie dem Kampf gegen den Faschismus. Der SPD warf sie vor, Schrittmacherin der Präsidialkabinette gewesen zu sein, die sie als reaktionär und faschismusfreundlich kennzeichnete. Trotz des vorausgehenden Wahlerfolgs für die KPD erkannte sie gleichwohl die Gefahr, die von der inzwischen stärksten Fraktion des Reichstags, der NSDAP, ausging. Sie schloss die Rede mit dem Ausdruck ihrer Hoffnung, sie werde auch noch „das Glück […] erleben, als Alterspräsidentin den ersten Rätekongreß Sowjetdeutschlands zu eröffnen“. Den Pflichten einer Alterspräsidentin entsprechend leitete sie die Wahl Hermann Görings (NSDAP) zum Reichstagspräsidenten und übergab anschließend die Sitzungsleitung an ihn. Die NSDAP hörte ebenso wie alle anderen Fraktionen Zetkins Rede ohne Zwischenrufe oder sonstige Störungen an. Diese Sitzung ist die einzige erhaltene Tonaufnahme aus dem Reichstag, in der Zetkin zu hören ist.
In ihrem Handbuch "Deutsche Kommunisten" würdigten Hermann Weber und Andreas Herbst Zetkin so:
Tod.
Ende Januar 1933, zur Zeit der Machtergreifung durch die NSDAP unter Adolf Hitler und dem Ausschluss der KPD aus dem Reichstag infolge der Reichstagsbrandverordnung, befand sich Zetkin wieder in der Sowjetunion. Nach Angaben von Maria Reese, einer KPD-Abgeordneten des Reichstags, die sie dort unter Schwierigkeiten besuchte, lebte sie bereits parteipolitisch isoliert. Sie starb wenig später am 20. Juni 1933 im Alter von fast 76 Jahren. Ihre Urne wurde in der Nekropole an der Kremlmauer in Moskau auf der rechten Seite im Grab Nummer 44 beigesetzt. Stalin selbst trug die Urne zur Beisetzung. Sie ist neben Otto Strupat (1893–1921), Oskar Hellbrück (1884–1921) und Fritz Heckert (1884–1936) eine der wenigen Deutschen, die an der Kremlmauer bestattet wurden. Ihr Gehirn wurde wie das Lenins und Majakowskis im Moskauer Institut für Hirnforschung aufbewahrt.
Ehrungen.
Clara Zetkin wurde 1927 mit dem Rotbannerorden und 1932 mit dem Leninorden ausgezeichnet.
In der DDR wurde Zetkin zu einer der historischen Leitfiguren der SED-Propaganda, in der besonders ihre Rolle als Frauenrechtlerin und Verbündete der Sowjetunion herausgestellt wurde. Der Demokratische Frauenbund Deutschland widmete ihr zum XI. Bundeskongress eine Paradefahne mit Ehrenbanner. Straßen und Schulen trugen ihren Namen. In Ost-Berlin hieß seit 1951 die auf das Reichstagsgebäude zulaufende Parallelstraße zu Unter den Linden nach ihr. Nach der deutschen Wiedervereinigung setzte der Berliner Verkehrssenator Herwig Haase (CDU) im August 1993 eine "Unabhängige Kommission zur Umbenennung von Straßen" ein, die empfahl, keine Straßen mehr nach Zetkin zu benennen: Sie sei eine „überzeugte Anhängerin Lenins“ gewesen, habe „die Parteidiktatur der Bolschewiki“ verteidigt und Stalins Sowjetunion als „das politische und gesellschaftliehe Vorbild Deutschlands“ angesehen. 1995 wurde die Clara-Zetkin-Straße in Dorotheenstraße zurückbenannt. In Tübingen ordnete im Januar 2023 eine Kommission zur Überprüfung von Straßennamen die dortige Clara-Zetkin-Straße als „in der Kritik stehend“ ein und empfahl, die Straße mit einer entsprechenden Markierung („Knoten“) zu versehen. Daraufhin bildete sich das Aktionsbündnis „Kein Knoten für Zetkin“, das überregionale Unterstützung erfährt und durch Öffentlichkeitsarbeit und kreativen Protest versucht, den „Knoten“ zu verhindern. |
870 | 681808 | https://de.wikipedia.org/wiki?curid=870 | Kallisto (Mond) | Kallisto (auch "Callisto" oder "Jupiter IV") ist der vierte Mond des Riesenplaneten Jupiter. Sie ist der zweitgrößte der vier großen Jupitermonde und ist mit einem Durchmesser von 4820 km der drittgrößte Mond des Sonnensystems, nur geringfügig kleiner als der (allerdings viel massereichere) Planet Merkur.
Kallisto gehört zum Typ der Eismonde. Sie ist der kraterreichste Körper des Sonnensystems.
Kallisto ist der äußerste der großen Monde I–IV, die alle so hell sind, dass man sie bereits mit einem Fernglas beobachten kann.
Sie ist 5-mal so weit von Jupiter entfernt wie der Erdmond von der Erde, hat aber durch die gewaltige Masse des Planeten nur 16 Tage Umlaufzeit. Beim nächstinneren Mond III (Ganymed) beträgt sie 7,2 Tage.
Entdeckung und Benennung.
Kallisto wurde im Jahre 1610 von dem italienischen Gelehrten Galileo Galilei mit Hilfe eines relativ einfachen Fernrohrs entdeckt. Weil er alle vier großen Monde (Io, Europa, Ganymed und Kallisto) entdeckt hat, werden diese daher auch als die Galileischen Monde bezeichnet.
Benannt wurde der Mond nach der Nymphe Kallisto (, abgeleitet von „die Schönste“), einer Geliebten des Zeus aus der griechischen Mythologie. Der Sage nach wurden Kallisto und ihr Sohn Arkas später in Bären verwandelt und an den Sternenhimmel versetzt. Kallisto ist demnach gleich zweimal am Himmel zu sehen, als Sternbild Großer Bär (Großer Wagen) und als Mond des Jupiter.
Der Name Kallisto wurde von Simon Marius bereits kurz nach der Entdeckung vorgeschlagen, konnte sich jedoch über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden Monde üblicherweise nur mit römischen Ziffern nummeriert und Kallisto mit "Jupitermond IV" bezeichnet, da die Nummerierung ursprünglich nach der Größenfolge der Umlaufbahnen vorgenommen wurde.
Kallisto ist kein offizielles oder allgemein verwendetes astronomisches Symbol zugeordnet (wie auch sonst keinem Trabanten im Sonnensystem außer dem Erdmond).
Umlaufbahn und Rotation.
Kallisto umkreist Jupiter in einem mittleren Abstand von 1.882.700 km in 16 Tagen 16 Stunden und 32 Minuten. Ihre Bahn weist eine Exzentrizität von 0,007 auf und ist 0,19° gegenüber der Äquatorebene des Jupiter geneigt.
Als der äußerste der Galileischen Monde ist Kallisto von der Umlaufbahn des nächstinneren und etwas größeren Ganymed über 800.000 km entfernt. Im Verhältnis zu dessen Umlaufzeit bewegt sich Kallisto in einer 3:7-Bahnresonanz, im Unterschied zu den 1:2-Resonanzen zwischen den jeweils benachbarten drei inneren großen Monden.
Kallisto rotiert während ihres Umlaufs (16,689 Tage) genau ein Mal und hat damit, wie der Erdmond und die inneren Jupitermonde, eine gebundene Rotation.
Physikalische Eigenschaften.
Kallisto hat einen mittleren Durchmesser von 4821 km und ist damit fast genauso groß wie der Planet Merkur (4878 km). Ihre Dichte ist mit etwa 1,83 g/cm³ etwas kleiner als die von Ganymed, aber deutlich kleiner als die der beiden anderen Galileischen Monde Europa und Io.
Sie hat im Vergleich zu den drei anderen Galileischen Monden eine dunklere Oberfläche mit einer Albedo von 0,2 (nur 20 % des eingestrahlten Sonnenlichts werden reflektiert). Daher hat sie mit 5,7 mag die geringste Helligkeit, weniger als die um 35 % kleinere Europa.
Die Oberflächentemperatur beträgt im Schnitt −139 Grad Celsius.
Oberflächenstrukturen.
Kallisto weist nach dem Saturnmond Phoebe die zweithöchste Dichte an Einschlagkratern im bekannten Sonnensystem auf. Neben den Kratern prägen nur einige bei den Einschlägen entstandene konzentrisch-ringförmige Erhebungen die Oberfläche; größere Gebirgszüge sind nicht vorhanden. Daraus schließt man, dass Kallistos Oberfläche überwiegend aus Wassereis mit nur wenig Gesteinsanteil zusammengesetzt ist. Die Eiskruste hat über geologische Zeiträume hinweg nachgegeben, wobei ältere Krater und Gebirgszüge eingeebnet wurden. Der größte benannte und anerkannte Krater "Heimdall" misst im Durchmesser 210 km und befindet sich im Norden am Zentralmeridian der dem Jupiter zugewandten Hemisphäre.
Die auffälligsten Strukturen auf Kallisto sind zwei riesige Einschlagsbecken, umgeben von konzentrischen Ringwällen. "Valhalla" hat einen Durchmesser von 600 km, eine helle Zentralregion und Ringe, die sich über 3000 km ausdehnen. Das etwas kleinere Becken "Asgard" erstreckt sich über 1600 km. Eine ungewöhnliche Struktur ist "Gipul Catena," eine Kette von Impaktkratern, die als gerade Linie über die Oberfläche verläuft. Verursacht wurde sie offensichtlich von einem Himmelskörper, der wie der Komet Shoemaker-Levy 9 vor dem Einschlag durch die Gezeitenkräfte des Jupiter zerrissen wurde. Ähnliche Catena-Strukturen finden sich auf dem Nachbarmond Ganymed, deren größte "Enki Catena" aus 13 Kratern besteht und 160 km lang ist.
Das Alter der Oberfläche Kallistos wird auf 4 Milliarden Jahre datiert. Sie war seit der Frühzeit des Sonnensystems keinen größeren Veränderungen unterworfen, was bedeutet, dass der Mond seit dieser Zeit geologisch nicht mehr aktiv war. Anders als der benachbarte Ganymed mit seiner auffälligen Oberfläche weist Kallisto keine Anzeichen von Plattentektonik auf, obwohl sie fast gleich groß ist. Ihre geologische Entwicklung war offensichtlich wesentlich einfacher verlaufen und schon nach relativ kurzer Zeit abgeschlossen, während in den übrigen Galileischen Monden komplexere Vorgänge stattfanden.
Eisvorkommen und Ozean.
Die sichtbare Oberfläche liegt auf einer Eisschicht, die eine geschätzte Mächtigkeit von 200 km aufweist. Darunter befindet sich vermutlich ein 10 km tiefer Ozean aus flüssigem Salzwasser, worauf magnetische Messungen der Raumsonde Galileo hinweisen. Ein weiteres Indiz für flüssiges Wasser ist die Tatsache, dass auf der entgegengesetzten Seite des Kraters Valhalla keine Brüche und Verwerfungen sichtbar sind, wie sie auf massiven Körpern, wie dem Erdmond oder dem Planeten Merkur beobachtet werden können. Eine Schicht flüssigen Wassers hat möglicherweise die seismischen Schockwellen gedämpft, bevor sie sich durch das Mondinnere bewegten.
Innerer Aufbau.
Das Innere Kallistos ist demnach aus etwa 60 % silikatischem Gestein und 40 % Wassereis aufgebaut, wobei mit zunehmender Tiefe der Silikatanteil ansteigt. Von ihrer Zusammensetzung her ähnelt Kallisto dem Saturnmond Titan und dem Neptunmond Triton. Ihre Masse beträgt daher trotz ihrer Größe nur knapp ein Drittel der Masse des Merkur und ist etwa 30 % größer als die Masse des Erdmondes.
Atmosphäre.
Aktuelle Beobachtungen weisen darauf hin, dass Kallisto eine äußerst dünne Atmosphäre aus Kohlendioxid besitzt.
Magnetfeld.
Die Sonde Galileo hatte bei ihren Vorbeiflügen ein schwaches Magnetfeld bei Kallisto gemessen, dessen Stärke variiert, während sich der Mond durch die extrem starke Magnetosphäre des Jupiter bewegt. Dies deutet auf das Vorhandensein einer elektrisch leitenden Flüssigkeit, wie Salzwasser, unterhalb Kallistos Eiskruste hin.
Erkundung durch Sondenmissionen.
Die Erkundung der Kallisto durch Raumsonden begann in den Jahren 1973 und 1974 mit den Jupiter-Vorbeiflügen von "Pioneer 10" und "Pioneer 11." 1979 konnten "Voyager 1" und "Voyager 2" erstmals genauere Beobachtungen des Mondes vornehmen. Der Großteil des Wissens über Kallisto stammt jedoch vom "Galileo-"Orbiter, der 1995 das Jupitersystem erreichte und während der darauffolgenden acht Jahre mehrere Vorbeiflüge am Jupitermond vollführte.
Für das Jahr 2020 hatten die Raumfahrtbehörden NASA und ESA die gemeinsame Europa Jupiter System Mission "Laplace" vorgeschlagen, die mindestens zwei Orbiter vorsah, die jeweils in einen Orbit um Europa und Ganymed eintreten und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollten.
Die NASA, die den "Jupiter Europa Orbiter" bauen wollte, stieg jedoch aus dem Projekt aus. Die ESA verwirklicht indes den "Jupiter Ganymede Orbiter" mit leicht abgewandelter Missionsplanung als JUICE. JUICE soll nach ihrer Ankunft am Jupiter im Jahr 2030 und zwei Vorbeiflügen an Europa und 12 Vorbeiflügen an Kallisto 2032 in einen Orbit um Ganymed einschwenken. Da die NASA-Sonde entfällt, wurden die beiden Vorbeiflüge an Europa in den Missionsplan für JUICE aufgenommen.
Mögliche bemannte Missionen.
Spätestens seit den 1980er Jahren gilt Kallisto als mögliches Ziel der bemannten Raumfahrt für die Zeit nach einem bemannten Marsflug, da sie außerhalb des Strahlungsgürtels um den Jupiter liegt.
Im Jahr 2003 veröffentlichte die NASA eine Studie mit dem Titel "Revolutionary Concepts for Human Outer Planet Exploration" (deutsch etwa "Revolutionäre Konzepte zur Erkundung der äußeren Planeten durch Menschen"), die eine solche Mission – mit Start ab 2045 – in verschiedenen Varianten diskutiert. Als Gründe für die Wahl von Kallisto als Ziel wurden zum einen die stabile Geologie und die vergleichsweise geringe Entfernung zur Erde genannt. Weiterhin könne das Eis auf der Oberfläche zur Gewinnung von Wasser und Treibstoff genutzt werden. Als weiterer Vorteil wurde die geringe Distanz zu Europa bezeichnet, dies ermögliche es der Besatzung, Roboter auf diesem wissenschaftlich äußerst interessanten Mond mit geringer Latenz fernzusteuern, ohne der Strahlung des Jupiters ausgesetzt zu sein.
Als Voraussetzung für die Durchführung der Mission nennt die Studie eine intensive Erkundung durch unbemannte Sonden ab etwa 2025. Je nach gewähltem und verfügbarem Antrieb würde die eigentliche Mission mit ein bis drei Raumschiffen starten, wobei jeweils eines die Besatzung und die übrigen die Bodenstation, eine Anlage zur Wassergewinnung ("In-situ Resource Utilization") und einen Reaktor zur Energieerzeugung transportieren. Die Missionsdauer liegt zwischen zwei und fünf Jahren mit einer Aufenthaltsdauer von 32 bis 123 Tagen auf dem Mond, wobei aufgrund der unterschiedlichen Antriebstechniken kein Zusammenhang zwischen der Flug- und der Aufenthaltsdauer besteht.
Die Studie kommt zu dem Schluss, dass eine bemannte Kallisto-Mission ab dem Jahr 2045 grundsätzlich möglich sei und benennt eine Reihe von Technologien, die bis dahin entwickelt werden müssten. Die Autoren weisen jedoch darauf hin, dass diese Technologien teilweise auch für Missionen zum Erdmond und Mars benötigt werden oder zumindest von Vorteil seien. |
871 | 10934 | https://de.wikipedia.org/wiki?curid=871 | Carus (Kaiser) | Marcus Aurelius Carus (* um 223 in Narbo; † 283 in Mesopotamien) war von 282 bis 283 römischer Kaiser.
Leben.
Für die kurze Regierungszeit des Carus stehen uns nur wenige Quellen zur Verfügung. In erster Linie sind dies verschiedene spätantike "Breviarien" (z. B. Aurelius Victors "Caesares", das Werk Eutrops und die "Epitome de Caesaribus"), deren Berichten für das 3. Jahrhundert offenbar eine gemeinsame Quelle zugrunde liegt, die sogenannte "Enmannsche Kaisergeschichte". Die Kaisergeschichte des Eusebios, der nicht zu verwechseln ist mit dem Kirchenhistoriker Eusebius von Caesarea, die bis in die Zeit des Carus reichte, ist nicht erhalten. Die Carusbiographie in der "Historia Augusta", die das Werk eines anonymen heidnischen Autors um 400 ist, beinhaltet nur wenige verlässliche Informationen. Hinzu kommen weitere spätere Autoren wie Zosimos, der "Anonymus post Dionem" (wohl mit Petros Patrikios gleichzusetzen) sowie byzantinische Autoren wie Johannes Zonaras, der auf heute verlorene Quellen zurückgreifen konnte (siehe auch "Leoquelle"). Hinzu kommen Münzen und andere nicht-literarische Zeugnisse.
Der aus Südgallien stammende Carus durchlief eine militärische Karriere. Obwohl Kaiser Probus ihn zum Prätorianerpräfekten ernannt hatte, wurde Carus von den rätischen und norischen Truppen im Jahr 282 zum Gegenkaiser ausgerufen; unklar ist, ob die Usurpation von ihm selbst ausging oder ihm von den Truppen aufgedrängt wurde. Carus fand aber nach der Ermordung des Probus im selben Jahr allgemeine Anerkennung. Der tote Probus wurde von Carus sogar unter die Götter erhoben. Ende 282 erhob Carus seinen ältesten Sohn Carinus, kurz darauf auch seinen jüngeren Sohn Numerianus zum "Caesar". Über weitere innenpolitische Maßnahmen des Carus sowie über seine Beziehungen zum Senat ist nur wenig bekannt.
Carus kämpfte mit Erfolg gegen den an der pannonischen Donau und in der ungarischen Tiefebene lebenden sarmatischen Reiterkriegerstamm der Jazygen und errang Anfang 283 einen Sieg über sie. Carus zog anschließend mit seinem Sohn Numerianus in den Krieg gegen Persien, während Carinus als Verwalter im Westen des Reiches zurückblieb. Carinus wurde im Frühjahr 283, wohl zur Sicherung seiner Autorität während der Abwesenheit des Vaters im Osten und aufgrund von Erfolgen gegen die Germanen, zum "Augustus" erhoben.
Carus kam bei seinem Persienfeldzug zugute, dass der damalige Sassanidenkönig Bahram II. mit einer Revolte im Osten seines Reiches zu kämpfen hatte, wo sich dessen Bruder Hormizd erhoben hatte. Offenbar war der Persienfeldzug eine Offensivmaßnahme, denn von vorhergehenden persischen Angriffen auf römisches Gebiet ist nichts bekannt (abgesehen wohl von kleineren Raubzügen). Dies kann als Anzeichen dafür gesehen werden, dass sich die Lage im Imperium nach der vorhergehenden Krisenzeit entspannt hatte. Details über den Feldzug sind kaum bekannt; möglicherweise kann er auch als Racheaktion für die demütigende Niederlage des Valerian gegen die Perser über 20 Jahre zuvor betrachtet werden. Ein siegreicher Feldzug im Osten konnte dem Kaiser zudem neben Beute auch Prestige einbringen. Carus eroberte im Juni/Juli 283 die persische Hauptresidenz Ktesiphon und nahm dann den Ehrentitel "Persicus Maximus" an. Dennoch hatten weitere Vorstöße der Römer nach Osten keinen Erfolg. Ende Juli 283 fand man den Kaiser tot in seinem Zelt im Feldlager auf. Angeblich wurde er durch einen Blitzschlag getötet, plausibler erscheint aber, dass er an einer Krankheit starb oder ermordet wurde. Seine Söhne traten gemeinsam die Nachfolge an.
Literarisch verarbeitet wurde der Tod des Carus u. a. in einer Ballade August von Platens. |
872 | 0 | https://de.wikipedia.org/wiki?curid=872 | Carolus Linnaeus | |
874 | 234543894 | https://de.wikipedia.org/wiki?curid=874 | Carl von Linné | Carl von Linné (latinisiert Carolus Linnaeus; vor der Erhebung in den Adelsstand 1756 Carl Nilsson Linnæus; * 23. Mai 1707 in Råshult bei Älmhult; † 10. Januar 1778 in Uppsala) war ein schwedischer Naturforscher, der mit der binären Nomenklatur die Grundlagen der modernen botanischen und zoologischen Taxonomie schuf. Sein offizielles botanisches Autorenkürzel lautet „“. In der Zoologie werden „“, „“ und „“ als Autorennamen verwendet.
Linné setzte sich als Student in seinem Manuskript "Praeludia Sponsaliorum Plantarum" mit der noch neuen Idee von der Sexualität der Pflanzen auseinander und legte mit diesen Überlegungen den Grundstein für sein späteres Wirken. Während seines Aufenthaltes in Holland entwickelte er in Schriften wie "Systema Naturae", "Fundamenta Botanica", "Critica Botanica" und "Genera Plantarum" die theoretischen Grundlagen seines Schaffens. Während seiner Tätigkeit für George Clifford in Hartekamp konnte Linné zum ersten Mal viele seltene Pflanzen direkt studieren und schuf mit "Hortus Cliffortianus" das erste nach seinen Prinzipien geordnete Pflanzenverzeichnis. Nach der Rückkehr aus dem Ausland arbeitete Linné für kurze Zeit als Arzt in Stockholm. Er gehörte hier zu den Gründern der Schwedischen Akademie der Wissenschaften und war deren erster Präsident. Mehrere Expeditionen führten ihn durch die Provinzen seiner schwedischen Heimat und trugen zu seiner Anerkennung bei.
Ende 1741 wurde Linné Professor an der Universität Uppsala und neun Jahre später deren Rektor. In Uppsala führte er seine enzyklopädischen Anstrengungen weiter, alle bekannten Mineralien, Pflanzen und Tiere zu beschreiben und zu ordnen. Seine beiden Werke "Species Plantarum" (1753) und "Systema Naturæ" (in der zehnten Auflage von 1758) begründeten die bis heute verwendete wissenschaftliche Nomenklatur in der Botanik und der Zoologie.
Leben.
Kindheit und Schule.
Carl Linnæus wurde am 23. Mai 1707 in der ersten Stunde nach Mitternacht im kleinen Ort Råshult im Kirchspiel Stenbrohult in der südschwedischen Provinz Småland geboren. Er war das älteste von fünf Kindern des Geistlichen Nils Ingemarsson Linnæus und dessen Frau Christina Brodersonia.
Sein Vater interessierte sich sehr für Pflanzen und kultivierte in seinem Garten einige ungewöhnliche Pflanzen aus Deutschland. Diese Faszination übertrug sich auf seinen Sohn, der jede Gelegenheit nutzte, um Streifzüge in die Umgebung zu unternehmen und sich die Namen der Pflanzen von seinem Vater nennen zu lassen. Seine schulische Ausbildung begann im Alter von sieben Jahren durch einen Privatlehrer, der ihn zwei Jahre lang unterrichtete. 1716 schickten ihn seine Eltern auf die neu errichtete Domschule in Växjö mit dem Ziel, dass er später wie sein Vater und Großvater Pfarrer werden sollte. Der junge Linné litt unter den strengen Erziehungsmethoden der Schule. Das änderte sich erst, als er 1719 die Bekanntschaft des Studenten Gabriel Höök machte, der ihn privat unterrichtete. 1724 wechselte er an das Gymnasium.
1726 reiste sein Vater nach Växjö, um den Arzt Johan Stensson Rothman in einer medizinischen Angelegenheit zu konsultieren und sich über die Leistungen seines Sohnes zu informieren. Er musste erfahren, dass sein Sohn in den für das Pfarramt notwendigen Fächern Griechisch, Hebräisch, Theologie, Metaphysik und Rhetorik nur mäßige Leistungen erbrachte und ihnen wenig Interesse entgegenbrachte. Hingegen glänzte sein Sohn in Mathematik und den Naturwissenschaften, aber auch in Latein. Rothman, der das Talent Linnés für eine medizinische Laufbahn erkannte, bot dem schockierten Vater an, seinen Sohn unentgeltlich in sein Haus aufzunehmen und ihn in Botanik und Physiologie zu unterrichten. Rothman machte Linné mit dem Klassifizierungssystem der Pflanzen von Joseph Pitton de Tournefort bekannt und wies ihn auf Sébastien Vaillants Schrift zur Sexualität der Pflanzen hin.
Studium.
Im August 1727 ging Linné nach Lund, um an der dortigen Universität zu studieren. Am Ende seiner Schulzeit hatte er vom Rektor des Gymnasiums Nils Krok ein nicht sehr schmeichelhaftes Schreiben für seine Bewerbung in Lund erhalten. Sein alter Freund Gabriel Höök, mittlerweile Magister der Philosophie in Lund, riet ihm, das Schreiben nicht zu verwenden. Er stellte dem Rektor der Universität Lund Linné stattdessen als seinen Privatschüler vor und erreichte so die Immatrikulation an der Universität Lund. Höök überzeugte Professor Kilian Stobæus, Linné in sein Haus aufzunehmen. Stobæus besaß neben einer reichhaltigen Naturaliensammlung eine sehr umfangreiche Bibliothek, die Linné jedoch nicht benutzen durfte. Durch den deutschen Studenten David Samuel Koulas, der zeitweise als Sekretär von Stobæus beschäftigt war, erhielt er dennoch Zugriff auf die Bücher, die er bis spät in die Nacht studierte. Im Gegenzug vermittelte er Koulas seine bei Rothman erlernten Kenntnisse in Physiologie. Verwundert über die nächtlichen Aktivitäten seines Zöglings trat Stobæus eines Nachts unvermittelt in das Zimmer Linnés und fand ihn zu seiner Überraschung in das Studium der Werke von Andrea Cesalpino, Caspar Bauhin und Joseph Pitton de Tournefort vertieft. Fortan hatte Linné freien Zugriff auf die Bibliothek.
Während seines Aufenthaltes in Lund unternahm Linné regelmäßig Exkursionen in die Umgebung. So auch an einem warmen Tag Ende Mai 1728, als er mit seinem Kommilitonen Mattias Benzelstierna die Natur in Fågelsång erkundete und von einem kleinen, unscheinbaren Tier, der „Höllenfurie“, gebissen wurde. Die Wunde entzündete sich und konnte nur mit Mühe behandelt werden. Linné entging nur knapp dem Tod. Zur Erholung fuhr Linné im Sommer in seine Heimat. Hier traf er seinen Lehrer Rothman wieder, dem er von seinen Erfahrungen an der Universität Lund berichtete. Durch diesen Bericht gelangte Rothman, der an der Universität Uppsala studiert hatte, zu der Überzeugung, dass Linné sein Medizinstudium besser in Uppsala fortsetzen sollte. Linné folgte diesem Rat und brach am 3. September 1728 nach Uppsala auf.
Die Zustände, die Linné an der dortigen Universität vorfand, waren desolat. Olof Rudbeck der Jüngere hielt einige wenige Vorlesungen über Vögel und Lars Roberg philosophierte über Aristoteles. Es gab keine Vorlesungen über Medizin und Chemie, es wurden keine Obduktionen durchgeführt und im alten Botanischen Garten wuchsen kaum zweihundert Arten. Im März 1729 machte Linné die Bekanntschaft von Peter Artedi, mit dem ihn bis zu dessen frühem Tod eine feste Freundschaft verband. Artedis Hauptinteresse galt der Chemie, aber er war auch Botaniker und Zoologe. Die beiden Freunde versuchten sich gegenseitig mit ihren Forschungen zu übertrumpfen. Sie merkten bald, dass es besser wäre, wenn sie die verschiedenen Gebiete der drei Naturreiche entsprechend ihren Interessen unter sich aufteilen würden. Artedi übernahm die Amphibien, Reptilien und Fische, Linné die Vögel und Insekten sowie, mit Ausnahme der Doldenblütler, die gesamte Botanik. Gemeinsam bearbeiteten sie die Säugetiere und die Mineralien.
Etwa zu dieser Zeit nahm ihn Olof Celsius der Ältere in sein Haus auf. Linné half Celsius bei der Fertigstellung von dessen Werk "Hierobotanicon". Die finanzielle Situation Linnés besserte sich. Im Juni 1729 erhielt er ein Königliches Stipendium (II. Klasse), das im Dezember 1729 (I. Klasse) noch einmal erhöht wurde. Zum Ende des Jahres 1729 entstand seine erste bedeutende Schrift "Praeludia Sponsaliorum Plantarum", in der er sich zum ersten Mal mit der Sexualität der Pflanzen auseinandersetzte und die Wegbereiter für sein weiteres Lebenswerk war. Die Schrift wurde schnell bekannt und Olof Rudbeck suchte die persönliche Bekanntschaft Linnés. Zunächst verschaffte er Linné, gegen den Widerstand Robergs, die Stelle des Demonstrators des Botanischen Gartens und stellte ihn als Lehrer seiner drei jüngsten Söhne ein. Mitte Juni zog Linné in Rudbecks Haus.
1730/31 arbeitete Linné an einem Katalog der Pflanzen des Botanischen Gartens von Uppsala ("Hortus Uplandicus", späterer Titel "Adonis Uplandicus"), von dem mehrere Fassungen entstanden. Die Pflanzen waren anfangs noch nach dem Tournefortschen System für die Klassifizierung der Pflanzen angeordnet, an dessen Gültigkeit Linné jedoch immer mehr Zweifel kamen. In der endgültigen Fassung vom Juli 1731, die er in Stockholm beendete, ordnete er die Pflanzen nach seinem eigenen aus 24 Klassen bestehenden System. Während dieser Zeit entstanden die ersten Entwürfe zu seinen frühen Werken, die in Amsterdam veröffentlicht wurden. Ende 1731 sah sich Linné veranlasst, Rudbecks Haus zu verlassen, da die Frau des Universitätsbibliothekars Andreas Norrelius (1679–1750), die in dieser Zeit ebenfalls dort wohnte, Gerüchte über ihn verbreitete, die das gute Verhältnis zu Rudbecks Familie untergruben. Er verbrachte den Jahreswechsel bei seinen Eltern.
Reise durch Lappland.
In einem Brief vom 26. Dezember 1731 empfahl sich Linné der Königlichen Gesellschaft der Wissenschaften in Uppsala für eine Expedition in das weitgehend unerforschte Lappland und bat um die notwendige finanzielle Unterstützung. Als er keine Antwort erhielt, unternahm er Ende April 1732 einen weiteren Versuch und senkte den für die Reise notwendigen Geldbetrag um ein Drittel. Dieses Mal wurde ihm der Betrag gewährt und er begann am 23. Mai seine erste große Expedition.
Die beschwerliche Reise dauerte knapp fünf Monate. Während der Reise hielt er alle seine Erlebnisse und Entdeckungen in einem Tagebuch fest. Am 21. Oktober 1732 traf er wieder in Uppsala ein. Zu den Strapazen der Reise und den Schulden, die Linné zusätzlich auf sich genommen hatte, kam noch die Enttäuschung, dass die Akademie nur wenige Seiten seiner Ergebnisse publizierte. Sein Buch über die lappländische Pflanzenwelt, "Flora Lapponica", wurde erst 1737 in Amsterdam veröffentlicht.
Von dieser Reise brachte er erstmals Spielregeln und Spielbrett des zur Wikingerzeit weit verbreiteten Spiels Tablut mit.
Falun und die Reise durch Dalarna.
Im Frühjahrssemester 1733 hielt Linné private Kurse in Dokimastik und schrieb eine kurze Abhandlung über das für ihn neue Thema. Er katalogisierte seine Vogel- und Insektensammlung und arbeitete an zahlreichen Manuskripten. Von Clas Sohlberg, einem seiner Studenten, erhielt er eine Einladung, den Jahreswechsel 1733/1734 bei dessen Familie in Falun zu verbringen. Clas’ Vater, Eric Nilsson Sohlberg, war Inspektor der dortigen Minen, und so ergab sich für Linné die Möglichkeit, die Arbeit in den Minen ausgiebig zu studieren. Er kehrte erst im März 1734 nach Uppsala zurück und gab weiter Privatunterricht in Mineralogie, Botanik und Diätetik.
Während des Aufenthaltes in Falun machte Linné die Bekanntschaft von Johan Browall, der die Kinder des Gouverneurs der Provinz Dalarna, Nils Reutersholm, unterrichtete. Reutersholm war beeindruckt von den Berichten über Linnés Lapplandreise und plante, eine solche Erkundungsreise in der von ihm verwalteten Provinz durchzuführen. Es fanden sich genügend Geldgeber für das Unternehmen, und die aus acht Mitgliedern bestehende "Societas Itineraria Reuterholmiana" (Reuterholm-Reise-Gesellschaft), der Linné als Präsident vorstand, wurde gegründet. Die Reise durch die Provinz Dalarna begann am 3. Juli 1734 und dauerte bis zum 18. August 1734. Linnés Reisebericht "Iter Dalecarlicum" wurde erst posthum veröffentlicht.
Linné blieb in Falun und übernahm den Unterricht von Reutersholms Söhnen. Browall überzeugte ihn, ins Ausland zu gehen, um dort seinen Doktorgrad zu erhalten, der ihm bisher aufgrund seiner angespannten finanziellen Situation verwehrt geblieben war. Es fand sich schließlich eine Lösung für die Reisekosten. Linné sollte Clas Sohlberg nach Holland begleiten und unterrichten und dort promovieren. Er kehrte nach Uppsala zurück, um seine Reisevorbereitungen zu treffen, und traf nach einem kürzeren Aufenthalt in Stockholm Ende des Jahres wieder in Falun ein. Zum Jahreswechsel 1734/35 lernte er Sara Elisabeth Moraea kennen, eine Tochter des Stadtarztes von Falun, und machte ihr einen Heiratsantrag. Dieser wurde von ihrem Vater, der auf die wirtschaftliche Unabhängigkeit seiner Tochter bedacht war, unter der Bedingung akzeptiert, dass Linné seinen Doktorgrad erwerben und die Hochzeit innerhalb der nächsten drei Jahre stattfinden würde.
Drei Jahre in Holland.
Linnés Reise südwärts führte ihn über Växjö und Stenbrohult. Am 15. April 1735 brach er von Stenbrohult nach Deutschland auf. Anfang Mai erreichte er Travemünde und begab sich sogleich nach Lübeck, von wo er am nächsten Morgen mit der Postkutsche nach Hamburg reiste. Hier lernte er Johann Peter Kohl kennen, den Herausgeber der Zeitschrift "Hamburgische Berichte von Neuen Gelehrten Sachen". Er besuchte den umfangreichen Garten des Juristen Johann Heinrich von Spreckelsen, in dem er unter anderem 45 Aloe- und 56 Mittagsblumen-Arten zählte. Auch der Bibliothek von Johann Albert Fabricius stattete er einen Besuch ab. Als Linné unvorsichtigerweise eine siebenköpfige Hydra, die zu einem hohen Preis zum Verkauf stand und dem Bruder des Hamburger Bürgermeisters Johann Anderson gehörte, als Fälschung entlarvte, riet ihm der Arzt Gottfried Jacob Jänisch, Hamburg zügig zu verlassen, um möglichem Ärger aus dem Weg zu gehen. So brach Linné schon am 27. Mai von Altona nach Holland auf.
Am 13. Juni kam Linné in Amsterdam an. Hier hielt er sich nur wenige Tage auf und segelte am Abend des 16. Juni nach Harderwijk, um endlich den lang erwarteten Abschluss als Doktor der Medizin zu erhalten. Noch am selben Tag schrieb er sich in das "Album Studiosorum" der Universität Harderwijk ein. Zwei Tage später bestand er bei Johannes de Gorter seine Prüfung als "Candidatus Medicinae" und übergab diesem seine Dissertation "Hypothesis Nova de Febrium Intermittentium Causa", die er schon in Schweden fertiggestellt hatte. Die verbleibenden Tage bis zu seiner Prüfung verbrachte er botanisierend mit David de Gorter, dem Sohn seines Prüfers. Am Mittwoch, den 23. Juni 1735, bestand er sein Examen und kehrte, nachdem ihm sein Diplom ausgehändigt wurde, schon am nächsten Tag nach Amsterdam zurück. Hier verweilte er nur kurz, denn er wollte unbedingt Herman Boerhaave kennenlernen, der in Leiden wirkte. Das Treffen auf Boerhaaves Landsitz Oud Poelgeest kam erst aufgrund der Unterstützung von Jan Frederik Gronovius zustande, der ihm ein Empfehlungsschreiben ausstellte. Zuvor hatte Linné Gronovius und Isaac Lawson einige seiner Manuskripte gezeigt, darunter einen ersten Entwurf von "Systema Naturae". Beide waren von der Originalität des Linnéschen Ansatzes, die drei Naturreiche Mineralien, Pflanzen und Tiere zu klassifizieren, so beeindruckt, dass sie beschlossen, das Werk auf eigene Kosten herauszugeben. Gronovius und Lawson wirkten als Korrektoren für dieses und weitere in Holland entstandene Werke Linnés und überwachten die Fortschritte der Drucklegung.
Auf Boerhaaves Empfehlung fand Linné Arbeit und Unterkunft bei Johannes Burman, dem er bei der Zusammenstellung seines "Thesaurus Zeylanicus" half. In Burmans Haus stellte Linné sein Werk "Bibliotheca Botanica" fertig und lernte dort auf Empfehlung von Gronovius den Bankier George Clifford kennen. Gronovius hatte Clifford vorgeschlagen, Linné als Kurator seiner Sammlung in Hartekamp einzustellen und von ihm seinen Garten, den "Hortus Hartecampensis", beschreiben zu lassen. Am 24. September 1735 begann Linné seine Arbeit in Hartekamp. Nur fünf Tage später erhielt er die Botschaft, dass sein Freund Peter Artedi, den er erst wenige Wochen vorher zufällig in Amsterdam wiedergetroffen hatte, in einem Amsterdamer Kanal ertrunken war. Linné erfüllte das wechselseitige Versprechen der Freunde, das Werk des anderen fortzuführen und zu veröffentlichen, und bearbeitete und verlegte während seiner Zeit in Holland die Werke von Artedi.
Bald nach Linnés Ankunft in Hartekamp traf dort der deutsche Pflanzenzeichner Georg Dionysius Ehret ein, der von Clifford eine Zeitlang als Zeichner eingestellt wurde. Linné erklärte ihm sein neues Klassifizierungssystem für Pflanzen, woraufhin Ehret, zunächst für seinen privaten Gebrauch, eine Zeichnung mit den Unterscheidungsmerkmalen der 24 Klassen anfertigte. Die Tafel mit dem Titel "Caroli Linnaei classes sive literae" wurde gelegentlich mit der Erstausgabe von Linnés "Systema Naturae" zusammengebunden und war Bestandteil einiger weiterer seiner Werke. In Hartekamp arbeitete Linné an mehreren Projekten gleichzeitig. So entstanden hier seine Werke "Fundamenta Botanica", "Flora Lapponica", "Genera Plantarum" und "Critica Botanica" und gingen Seite für Seite nach der Korrektur zum Drucker. Nebenher gelang es ihm, mit Hilfe des deutschen Gärtners Dietrich Nietzel die in einem der Warmhäuser Cliffords wachsende Bananenpflanze zu Blüte und Fruchtansatz zu bringen. Dieses Ereignis war der Anlass für ihn, die Abhandlung "Musa Cliffortiana" zu schreiben. Das Werk ist die erste Monografie über eine Pflanzengattung.
England und Frankreich.
Im Sommer 1736 wurde Linnés Arbeit in Holland durch eine Reise nach England unterbrochen. In London studierte er Hans Sloanes Sammlung und erhielt von Philip Miller aus dem Chelsea Physic Garden seltene Pflanzen für Cliffords Garten. Während des einmonatigen Aufenthaltes traf er mit Peter Collinson und John Martyn zusammen. Bei einem Kurzaufenthalt in Oxford lernte er Johann Jacob Dillen kennen. Zurück in Hartekamp arbeitete Linné unter dem zunehmenden Druck von Clifford am "Hortus Cliffortianus" weiter, dessen Fertigstellung sich aber insbesondere aufgrund von Problemen mit den Kupferstichen bis 1738 verzögerte.
Im Sommer 1737 wurde ihm von Boerhaave der Posten eines Arztes der WIC, der Niederländischen Westindien-Kompanie in Niederländisch-Guayana angeboten. Er lehnte jedoch ab und empfahl Boerhaave stattdessen den Arzt Johann Bartsch, der ihm bei der Bearbeitung seiner "Flora Lapponica" geholfen hatte. Zu dieser Zeit hatte Linné bereits Pläne, Holland wieder zu verlassen, und schlug alle Angebote Cliffords aus, auf dessen Kosten zu bleiben. Erst als Adriaan van Royen ihn bat, den Botanischen Garten in Leiden nach seinem System neu zu ordnen und wenigstens noch über den Winter zu bleiben, gab Linné nach. Seine Reisepläne indes standen fest. Über Frankreich und Deutschland, wo er unter anderem Albrecht von Haller in Göttingen zu treffen hoffte, wollte er endgültig nach Schweden zurückkehren. Ein schweres Fieber, an dem er Anfang 1738 mehrere Wochen litt, verzögerte die Abreise jedoch immer weiter.
Im Mai 1738 hatte sich Linné so weit erholt, dass er die Reise nach Frankreich antreten konnte. Von Leiden aus reiste er über Antwerpen, Brüssel, Mons, Valenciennes und Cambrai nach Paris. Van Royen hatte ihm ein Empfehlungsschreiben an Antoine de Jussieu mitgegeben. Dieser vertraute ihn aus Zeitmangel der Obhut seines Bruders Bernard de Jussieu an, der zu dieser Zeit den Lehrstuhl für Botanik am Jardin du Roi innehatte. Gemeinsam besichtigten sie den Königlichen Garten, die Herbarien von Joseph Pitton de Tournefort, Sébastien Vaillant und Joseph Donat Surian sowie die Büchersammlung von Antoine-Tristan Danty d’Isnard und unternahmen botanische Exkursionen in die Umgebung von Paris.
Während einer Sitzung der Pariser Akademie der Wissenschaften wurde Linné aufgrund eines Vorschlags von Bernard de Jussieu korrespondierendes Mitglied der Akademie. Der Superintendant des Jardin du Roi Charles du Fay versuchte vergeblich, Linné von einem Verbleib in Frankreich zu überzeugen. Linné wollte jedoch endlich in seine Heimat zurückkehren. Er gab den Plan auf, nach Deutschland zu reisen, und schiffte sich nach einem Monat Aufenthalt in Frankreich in Rouen nach Schweden ein.
Rückkehr nach Schweden und Heirat.
Über das Kattegat kam Linné in Helsingborg an. Nach einem kurzen Aufenthalt bei seiner Familie in Stenbrohult reiste er nach Falun weiter, wo kurz darauf die Verlobung mit Sara Elisabeth Moraea stattfand. Um sich seinen Lebensunterhalt zu verdienen, ließ er sich im September 1738 in Stockholm als Arzt nieder. Nach anfänglichen Schwierigkeiten erlangte er durch die Bekanntschaft mit Carl Gustaf Tessin recht schnell Zugang zur Stockholmer Gesellschaft. Gemeinsam mit Mårten Triewald, Anders Johan von Höpken, Sten Carl Bielke, Carl Wilhelm Cederhielm und Jonas Alströmer gründete er im Mai 1739 die Königlich Schwedische Akademie der Wissenschaften und wurde ihr erster Präsident. Die Präsidentschaft gab er satzungsgemäß Ende September 1739 bereits wieder ab.
Ebenfalls im Mai 1739 wurde er Nachfolger von Triewald am Königlichen Bergwerkskollegium Stockholm, an dem er Vorlesungen über Botanik und Mineralogie hielt, sowie aufgrund einer Empfehlung des Admirals Theodor Ankarcrona Arzt der schwedischen Admiralität.
Derart finanziell abgesichert konnte er am 26. Juni 1739 seine Verlobte Sara Elisabeth Moraea heiraten. Aus der Ehe gingen mit Carl, Elisabeth Christina, Sara Magdalena, Lovisa, Sara Christina, Johannes und Sofia sieben Kinder hervor. Sara Magdalena und Johannes starben bereits im Kindesalter. Linnés gleichnamiger Sohn Carl wurde wie sein Vater Botaniker, konnte das Werk des Vaters jedoch nur kurze Zeit fortführen und starb im Alter von 42 Jahren.
Reise durch Öland und Gotland.
Einen Monat nach seiner Hochzeit kehrte Linné nach Stockholm zurück. Im Januar 1741 erhielt er vom Ständereichstag das Angebot, die Inseln Öland und Gotland zu erkunden. Linné und seine sechs Begleiter, darunter Johan Moraeus, ein Bruder seiner Frau, brachen am 26. Mai 1741 von Stockholm aus auf. Sie waren zweieinhalb Monate unterwegs und erregten durch ihre Tätigkeit im Vorfeld des Russisch-Schwedischen Kriegs manchmal den Verdacht russischer Spionageaktivitäten. Mit der Veröffentlichung des Reiseberichtes "Öländska och Gothländska Resa" 1745 hatte Linné zum ersten Mal ein Werk in seiner schwedischen Muttersprache verfasst. Bemerkenswert ist der Index des Werkes, in dem die Pflanzen verkürzt in zweiteiliger Weise benannt waren. Außerdem wurde mit einem numerischen Index auf die Arten in dem im gleichen Jahr erschienenen Werk "Flora Suecica" verwiesen.
Professor in Uppsala.
Im Frühjahr 1740 starb Olof Rudbeck, und dessen Lehrstuhl für Botanik an der Universität Uppsala musste neu besetzt werden. Lars Roberg, Inhaber des Lehrstuhls für Medizin, wollte sich bald zur Ruhe setzen, so dass dieser Lehrstuhl ebenfalls neu zu vergeben war. Neben Linné gab es mit Nils Rosén von Rosenstein und Johan Gottschalk Wallerius zwei weitere Anwärter. In Absprache mit dem schwedischen Kanzler Carl Gyllenborg sollte Rosén die Stelle Rudbecks erhalten und Linné die freiwerdende Position von Roberg. Später sollten sie dann die Lehrstühle tauschen. Linnés offizielle Ernennung zum Professor für Medizin erfolgte am 16. Mai 1741. In seiner „Rede von der Bedeutung, in seinem eigenen Land zu reisen“ anlässlich der Übernahme das Lehrstuhls, die er am 8. November 1741 hielt, betonte er den ökonomischen Nutzen, der sich aus einer Kartierung der schwedischen Natur ergäbe. Jedoch sei es nicht nur wichtig, die Natur zu studieren, sondern auch lokale Krankheiten, deren Heilmethoden und die verschiedenartigen landwirtschaftlichen Methoden. Seine erste öffentliche Vorlesung fand knapp eine Woche später statt.
Ende des Jahres tauschten Linné und Rosén die Lehrstühle. Linné unterrichtete Botanik, Diätetik, Materia Medica und hatte die Aufsicht über den Alten Botanischen Garten. Rosén lehrte Praktische Medizin, Anatomie und Physiologie. Für die Gebiete Pathologie und Chemie waren sie gemeinsam verantwortlich. Linné begann mit der Umgestaltung des Botanischen Gartens und beauftragte damit Carl Hårleman. Das zum Garten gehörende Haus von Olof Rudbeck dem Älteren wurde renoviert und Linné zog mit seiner Familie dort ein. Im Garten wurden neue Gewächshäuser errichtet und Pflanzen aus der ganzen Welt angesiedelt. In seinem Werk "Hortus Upsaliensis" beschrieb Linné 1748 etwa 3000 verschiedene Pflanzenarten, die in diesem Garten kultiviert wurden. In seiner "Materia medica", einem 1749 erschienenen Handbuch für Ärzte und Apotheker, beschrieb er Heilpflanzen und ihre praktische Verwendung. 1750 wurde er Rektor der Universität Uppsala. Diese Position übte er bis wenige Jahre vor seinem Tod aus.
Vor seinem Amtsantritt als Rektor hatte Linné noch zwei weitere Reisen durch Schweden unternommen. Vom 23. Juni bis 22. August 1746 bereiste er gemeinsam mit Erik Gustaf Lidbeck, der später Professor in Lund wurde, die Provinz Västergötland. Linnés Aufzeichnungen erschienen ein Jahr später unter dem Titel "Västgöta Resa". Eine letzte Reise führte Linné vom 10. Mai bis 24. August 1749 durch die südlichste schwedische Provinz Schonen. Sein Student Olof Andersson Söderberg, der im Vorjahr bei ihm promoviert hatte und später Professor in Halle war, ging ihm während der Reise als sein Sekretär zur Hand. Die "Skånska Resa" wurde 1751 veröffentlicht. Mitte Dezember 1772 hielt er seine Abschiedsrede über „Die Freuden der Natur“.
Species Plantarum.
Linnés Reisen durch Schweden ermöglichten es ihm, in den Werken "Flora Suecica" (1745) und "Fauna Suecica" (1746) die Pflanzen- und Tierwelt Schwedens ausführlich zu beschreiben. Sie waren wichtige Schritte zur Vollendung seiner beiden bedeutsamsten Werke "Species Plantarum" (erste Auflage 1753) und "Systema Naturae" (zehnte Auflage 1759). Linné ermutigte seine Schüler, die Natur unerforschter Regionen selbst zu erkunden, und verschaffte ihnen auch die Möglichkeiten dazu. Die auf Entdeckungsreise gegangenen Schüler nannte er „seine Apostel“.
1744 schickte ihm der dänische Apotheker August Günther fünf Bände des von Paul Hermann von 1672 bis 1677 in Ceylon angefertigten Herbariums und bat Linné, ihm bei der Identifizierung der Pflanzen zu helfen. Linné konnte etwa 400 der zirka 660 herbarisierten Pflanzen verwenden und in sein Klassifizierungssystem einordnen. Seine Ergebnisse veröffentlichte er 1747 als "Flora Zeylanica".
Ein schwerer Gichtanfall zwang Linné 1750, seinem Schüler Pehr Löfling den Inhalt von "Philosophia Botanica" (1751) zu diktieren. Das auf seinen in "Fundamenta Botanica" formulierten 365 Aphorismen aufbauende Werk war als Lehrbuch der Botanik konzipiert. Er stellte darin sein System zu Unterscheidung und Benennung von Pflanzen dar und erläuterte es durch knappe Kommentare. Von Mitte 1751 bis 1752 arbeitete Linné intensiv an der Fertigstellung von "Species Plantarum". In der Mitte 1753 erschienenen zwei Bänden beschrieb er auf 1200 Seiten mit ungefähr 7300 Arten alle ihm bekannten Pflanzen der Erde. Besondere Bedeutung hat das Epitheton, das er als Marginalie zu jeder Art am Seitenrand vermerkte und das eine Neuerung gegenüber seinen früheren Werken war. Der Gattungsname und das Epitheton bilden zusammen den zweiteiligen Namen der Art, so wie er in der modernen botanischen Nomenklatur noch heute verwendet wird.
Systema Naturae.
Im Veröffentlichungsjahr von "Species Plantarum" erschien mit "Museum Tessinianum" eine Aufstellung der Objekte der Mineralien- und Fossiliensammlung von Carl Gustaf Tessin, die Linné angefertigte hatte. Das Sammeln von naturhistorischen Kuriositäten war zu dieser Zeit auch in Schweden sehr verbreitet. Adolf Friedrich hatte in Schloss Drottningholm eine Sammlung seltener Tierarten zusammengetragen und beauftragte Linné mit deren Inventarisierung. Linné verbrachte dafür in den Jahren 1751 bis 1754 insgesamt neun Wochen auf dem Schloss des Königs. Der erste Band von "Museum Adolphi Friderici" (1754) enthielt 33 Zeichnungen (zwei von Affen, neun von Fischen und 22 von Schlangen). Es ist das erste Werk, in dem die binäre Nomenklatur durchgängig in der Zoologie angewendet wurde.
In der 10. Auflage von "Systema Naturae" übernahm Linné die binäre Nomenklatur endgültig für die Tierarten, die im ersten Band beschrieben sind. Im zweiten Band von "Systema Naturae" behandelte er die Pflanzen. Ein ursprünglich geplanter dritter Band, der die Mineralien zum Inhalt haben sollte, erschien nicht. 1758, das Erscheinungsjahr von "Systema Naturae", markiert damit den Beginn der modernen zoologischen Nomenklatur.
Die schwedische Königin Luise Ulrike hatte in ihrem Schloss Ulriksdal ebenfalls eine naturhistorische Sammlung angelegt, die aus 436 Insekten, 399 Muscheln und 25 weiteren Mollusken bestand und in der Abhandlung "Museum Ludovicae Ulricae" (1764) durch Linné beschrieben wurde. Den Anhang bildete der zweite Band der Beschreibung des Museums ihres Mannes mit 156 Tierarten.
Letzte Jahre.
In seinen letzten Lebensjahren war Linné damit beschäftigt, die zwölfte Auflage von "Systema Naturae" (1766–1768) zu bearbeiten. Es entstanden die als Anhang dazu gedachten Werke "Mantissa Plantarum" (1767) und "Mantissa Plantarum Altera" (1771). In ihnen beschrieb er neue Pflanzen, die er von seinen Korrespondenten aus der ganzen Welt erhalten hatte.
Im Mai 1774 erlitt er während einer Vorlesung im Botanischen Garten der Universität Uppsala einen Schlaganfall. Ein zweiter Schlaganfall 1776 lähmte seine rechte Seite und schränkte seine geistigen Fähigkeiten ein. Carl von Linné starb am 10. Januar 1778 an einem Geschwür an der Harnblase und wurde im Dom zu Uppsala begraben.
Rezeption und Nachwirkung.
Der im 20. Jahrhundert wirkende britische Botaniker William Thomas Stearn fasste Linnés Bedeutung folgendermaßen zusammen:
Lebenswerk.
Mit seinen Verzeichnissen "Species Plantarum" (für Pflanzen, 1753) und "Systema Naturae" (für Pflanzen, Tiere und Mineralien, 1758/1759 beziehungsweise 1766–1768) schuf Linné die Grundlagen der modernen botanischen und zoologischen Nomenklatur. In diesen beiden Werken gab er zu jeder beschriebenen Art zusätzlich ein Epitheton an. Gemeinsam mit dem Namen der Gattung diente es als Abkürzung des eigentlichen Artnamens, der aus einer langen beschreibenden Wortgruppe (Phrase) bestand. Aus "Canna foliis ovatis utrinque acuminatis nervosis" entstand so die leicht zu merkende Bezeichnung "Canna indica". Das Ergebnis der Einführung zweiteiliger Namen ist die konsequente Trennung der Beschreibung einer Art von ihrer Benennung. Durch diese Trennung konnten neu entdeckte Pflanzenarten unproblematisch in seine Systematik aufgenommen werden. Linnés Systematik umfasste die drei Naturreiche Mineralien (einschließlich der Fossilien), Pflanzen und Tiere. Im Gegensatz zu seinen Beiträgen zur Botanik und Zoologie, deren fundamentale Bedeutung für die biologische Systematik schnell anerkannt wurde, blieben seine mineralogischen Untersuchungen bedeutungslos, da ihm die dafür notwendigen chemischen Kenntnisse fehlten. Die erste chemisch begründete Klassifizierung der Mineralien wurde 1758 von Axel Frederic von Cronstedt aufgestellt.
In grundsätzlicher Opposition zu der von Linné vertretenen Auffassung, dass die ganze Natur in eine Taxonomie erfasst werden kann, stand der zeitgenössische Naturforscher Georges-Louis Leclerc de Buffon. Buffon war der Ansicht, dass die Natur zu unterschiedlich und zu reich sei, um sich einem so strengen Rahmen anzupassen. Der Philosoph Michel Foucault beschrieb Linnés Vorgehensweise des Klassifizierens so, dass es ihm darum gegangen sei, „systematisch wenige Dinge zu sehen“. Ihm sei es insbesondere darum gegangen, die Ähnlichkeiten der Dinge in der Welt aufzulösen. So schrieb Linné in seiner "Philosophia Botanica": „Alle dunklen Ähnlichkeiten sind nur zur Schande der Kunst eingeführt worden“. Linné ging zudem von der Konstanz der Arten aus: „Es gibt so viele Arten, als Gott am Anfang als verschiedene Gestalten geschaffen hat.“ Er unterteilte die Arten bewusst anhand künstlich ausgewählter Merkmale wie Anzahl, Form, Größenverhältnis und Lage in Klassen und Ordnungen, um ein einfach zu handhabendes und leicht erlernbares System für die Einordnung der Arten zu schaffen. Bei den Pflanzen verwandte er beispielsweise Merkmale der Staubblätter, um die Klasse zu bestimmen, und Merkmale der Stempel, um die Ordnung einer Pflanzenart festzulegen. Auf diese Weise entstand ein „künstliches System“, da es die natürlichen Verwandtschaftsverhältnisse der Arten untereinander nicht berücksichtigte. Die Gattungen und Arten hielt er für natürlich und ordnete sie daher unter Verwendung einer Vielzahl von Kennzeichen entsprechend ihrer Ähnlichkeit. Linné war bestrebt, ein „natürliches System“ zu schaffen, kam jedoch über Ansätze wie "Ordines Naturales" in der sechsten Auflage von "Genera Plantarum" (1764) nicht hinaus. Für die Pflanzen gelang es erst Antoine-Laurent de Jussieu, ein solches natürliches System aufzustellen.
Auszeichnungen und Würdigung.
Linné wurde am 30. Januar 1747 zum Archiater (Leibarzt) des Königs ernannt. Am 27. April 1753 wurde ihm der Nordstern-Orden verliehen. Ende 1756 wurde Carl Linnaeus vom schwedischen König Adolf Friedrich geadelt und erhielt den Namen Carl von Linné. Den auf den 20. April 1757 datierten Adelsbrief unterzeichnete der König im November 1761. Die Erhebung in den Adelsstand wurde erst Ende 1762 mit der Bestätigung durch das Riddarhuset wirksam.
Linné war Mitglied zahlreicher wissenschaftlicher Akademien und Gelehrtengesellschaften. Hierzu zählten unter anderem die Deutsche Akademie der Naturforscher Leopoldina, der er ab dem 3. Oktober 1736 (Matrikel-Nr. 464) unter dem akademischen Beinamen "Dioscorides II." angehörte, die Königliche Gesellschaft der Wissenschaften in Uppsala, die Société Royale des Sciences de Montpellier, die Königlich-Preußische Akademie der Wissenschaften, die Royal Society, die Académie royale des Sciences, Inscriptions et Belles-Lettres de Toulouse, die Pariser Akademie der Wissenschaften, die Russische Akademie der Wissenschaften in Sankt Petersburg und die Königliche Großbrittannische Churfürstliche Braunschweigische Lüneburgische Landwirthschaftsgesellschaft Celle.
Jan Frederik Gronovius benannte Linné zu Ehren die Gattung "Linnaea" (Moosglöckchen) der Pflanzenfamilie der Linnaeaceae. Ebenso sind nach ihm der Mondkrater Linné im Mare Serenitatis, der Asteroid Linnaeus sowie das Mineral Linneit benannt. Ferner ist er Namensgeber für die Linnaeus Terrace in der Antarktis.
Der Botaniker William Thomas Stearn schlug 1959 das im Dom von Uppsala bestattete Skelett von Carl von Linné zum Lectotypus für die Art "Homo sapiens" vor. "Homo sapiens" wurde dadurch nach den zoologischen Nomenklaturregeln gültig als diejenige Tierart definiert, zu der Carl von Linné gehörte.
Die Banknote zu 100 Kronen der Schwedischen Krone führte von 2001 bis zum 30. Juni 2017 das Bildnis Carl von Linnés.
Nachlass und Briefwechsel.
Nach dem Tod Linnés und dem Tod seines Sohnes Carl bot seine Frau Sara den gesamten Nachlass Joseph Banks für 3000 Guineen zum Kauf an. Dieser lehnte jedoch ab und überzeugte James Edward Smith, die Sammlung zu erwerben. Im Oktober 1784 kam Linnés Sammlung in London an und wurde in Chelsea öffentlich ausgestellt. Linnés Nachlass ist heute im Besitz der Londoner Linné-Gesellschaft, deren höchste Auszeichnung die jährlich vergebene Linné-Medaille ist.
Linné unterhielt bis zu seinem Tod einen umfangreichen Briefwechsel mit Partnern in der ganzen Welt. Davon stammten ungefähr 200 aus Schweden und 400 aus anderen Ländern. Über 5000 Briefe sind erhalten geblieben. Allein sein Briefwechsel mit Abraham Bäck, seinem engen Freund und Vertrauten, umfasst weit über 500 Briefe.
Wichtige botanische und zoologische Briefpartner waren Herman Boerhaave, Johannes Burman, Jan Frederik Gronovius und Adriaan van Royen in Holland, Joseph Banks, Mark Catesby, Peter Collinson, Philip Miller, James Petiver und Hans Sloane in England, Johann Reinhold Forster, Johann Gottlieb Gleditsch, Johann Georg Gmelin und Albrecht von Haller in Deutschland, Nikolaus Joseph von Jacquin in Österreich, sowie Antoine Nicolas Duchesne und Bernard de Jussieu in Frankreich.
Kritiker.
Die von Linné schon 1729 als Student in "Praeludia Sponsaliorum Plantarum" verwendete Analogie von Pflanzen und Tieren hinsichtlich ihrer Sexualität provozierte etliche seiner Zeitgenossen zur Kritik.
Eine erste Kritik zu Linnés Sexualsystem der Pflanzen schrieb Johann Georg Siegesbeck 1737 in einer Anlage zu seiner Schrift "Botanosophiae": „[Wenn] acht, neun, zehn, zwölf oder gar zwanzig und mehr Männer in demselben Bett mit einer Frau gefunden werden [oder wenn] dort, wo die Betten der wirklichen Verheirateten einen Kreis bilden, auch die Betten der Dirnen einen Kreis beschließen, so dass die von verheirateten Männern begattet werden […] Wer möchte glauben, dass von Gott solche verabscheuungswürdige Unzucht im Reiche der Pflanzen eingerichtet worden ist? Wer könnte solch unkeusches System der akademischen Jugend darlegen, ohne Anstoß zu erregen?“
Julien Offray de La Mettrie spottete in "L’Homme Plante" (1748, kurz danach Bestandteil von "L’Homme Machine") über Linnés System, indem er darin die Menschheit anhand der von Linné eingeführten Begriffe klassifizierte. Die Menschheit bezeichnete er als "Dioecia" (d. h. männliche und weibliche Blüten auf verschiedenen Pflanzen). Männer gehören zur Ordnung "Monandria" (ein Staubblatt) und Frauen zur Ordnung "Monogyna" (ein Stempel). Die Kelchblätter interpretierte er als Kleidung, die Kronblätter als Gliedmaßen, die Nektarien als Brüste und so fort.
Selbst Johann Wolfgang von Goethe, der bekannte, „dass nach Shakespeare und Spinoza auf mich die größte Wirkung von Linné ausgegangen [ist], und zwar gerade durch den Widerstreit, zu welchem er mich aufforderte“, urteilte: „Wenn unschuldige Seelen, um durch eigenes Studium weiter zu kommen, botanische Lehrbücher in die Hand nehmen, können sie nicht verbergen, dass ihr sittliches Gefühl beleidigt sei; die ewigen Hochzeiten, die man nicht los wird, wobei die Monogamie, auf welche Sitte, Gesetz und Religion gegründet sind, ganz in vage Lüsternheit sich auflöst, bleibt dem reinen Menschensinn unerträglich.“
Schriften.
Werke (Auswahl).
Linné hat zahlreiche Bücher verfasst, von denen viele in mehreren Auflagen erschienen. Einige davon sind in digitalisierter Form bei verschiedenen Anbietern wie dem Gallica-Projekt der Französischen Nationalbibliothek, der Online Library of Biological Books, der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, der Botanicus Digital Library und der Google Buchsuche im Volltext verfügbar. Zu den wichtigsten Werken Linnés zählen:
Zeitschriftenartikel.
Für folgende Zeitschriften hat Linné Artikel verfasst:
Dissertationen.
Unter dem Vorsitz von Linné sind von 1743 bis 1776 insgesamt 185 Dissertationen entstanden, die ihm häufig direkt zugeschrieben werden. Die Dissertationen seiner Doktoranden wurden im zehnbändigen "Amoenitates Academicae" (Stockholm bzw. Erlangen, 1751–1790) veröffentlicht. |
875 | 2458679 | https://de.wikipedia.org/wiki?curid=875 | CD-ROM | Compact Disc Read-Only Memory (CD-ROM) bezeichnet ein Permanentspeichermedium für digitale Daten. Sie ist nach der Compact Disc Digital Audio (Audio-CD) die zweite Anwendung der Compact Disc und wird etwa zum Verteilen von Software verwendet.
Die Speicherkapazität einer CD-ROM liegt bei 650 bzw. 700 MiB. Bei der Speicherung auf der CD-ROM entspricht diese Datenmenge etwa der Datenmenge von 74 bzw. 80 Minuten Musik auf einer Audio-CD. Beschreibbare CDs fassen sogar bis zu 879 MiB (100-Minuten-CDs); sie können aber nicht in allen CD-Brennern beschrieben und nicht in allen CD-Laufwerken gelesen werden. Je nach Art und Qualität des Rohlings sowie nach Brenner kann auch noch außerhalb des standardisierten Bereichs gebrannt werden („überbrennen“). Dies kann jedoch zu Fehlern oder Verlust der Daten in diesem Bereich führen.
Zur Formatierung der Daten auf einer CD-ROM können unterschiedliche Dateisysteme zum Einsatz kommen. CD-ROMs entsprechend der Norm ISO 9660 können von verschiedenen Computersystemen gelesen werden. Andere verbreitete Spezifikationen bieten erweiterte Möglichkeiten (zum Beispiel in Bezug auf die Länge von Dateinamen) und basieren auf dieser Norm; Beispiele sind die Dateisysteme Rockridge (UNIX) und Joliet (Windows) sowie die El-Torito-Spezifikation, um bootfähige CD-ROMs zu machen.
Die CD-ROM ist eines der in den „Bunten Büchern“ ("Rainbow Books") spezifizierten CD-Formate, im Falle von CD-ROM im „“ (= Daten-CDs) und „“ (= beschreibbare CD-Formate mit Multisession-Fähigkeit). Bei Einhaltung der dort beschriebenen Spezifikationen darf die CD-ROM das von Philips vergebene Compact Disc-Logo tragen. Daneben existieren spezielle Formate wie CD-ROM XA (XA steht hierbei für eXtended Architecture), CD-Extra, CD-i usw. Bei der Herstellung von CD-ROMs und deren Derivaten sind Patente von Philips und Sony zu beachten.
Aufbau des Datenträgers.
Als Trägermedium verwendet man hier nur eine Kunststoffscheibe (aus Polycarbonat) mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm. Auf dieser Scheibe befindet sich, analog zur Schallplatte, eine spiralförmig verlaufende Datenspur. Die Informationsträger sind auch hier kleine Vertiefungen, die sogenannten „Pits“ und „Lands“, welche im Maßstab gegenüber der Schallplatte jedoch um ein Vielfaches verkleinert wurden, unterschiedlich lang sind und so konzipiert wurden, dass sie mit Hilfe eines Laserstrahls ausgelesen werden können. Der Wechsel von „Pit/Land“ bzw. „Land/Pit“ bildet eine 1, gleich bleibende Struktur „Land/Land“ oder „Pit/Pit“ eine 0. Da die „Pits“ und „Lands“ bei aufeinanderfolgenden Einsen zu kurz würden, muss dieser Fall ausgeschlossen werden.<ref name="CD Pits/Lands"></ref> Daher ist eine Umkodierung notwendig, welche mit der 8-zu-14-Modulation realisiert wird. (Mit weiteren drei Merge-Channelbits getrennt ergeben sich 17 Kanalbits für ein Datenbyte.) Die „Tonspur“ (Datenspur) verläuft hier von innen nach außen. Am Anfang der Datenspur ist ein Inhaltsverzeichnis gespeichert. Bei Musik-CDs gibt dieses Inhaltsverzeichnis die Anzahl der Musiktitel, die Einspieldauer und die Gesamtspieldauer an. Bei Daten-CDs sind dort nicht die Positionen der Dateien und Verzeichnisse gespeichert, sondern nur die Positionen der Tracks, welche ihrerseits normalerweise ein Dateisystem (mit Positionen der Dateien und Verzeichnisse) enthalten. (Siehe auch Dateisystem oder CDFS.)
Die Drehzahl wird abhängig von der Stellung des Abtastsystems auf der spiralförmigen Spur reguliert, um eine gleich bleibende Datenabtastung zu gewährleisten. So wird bei 1-facher Lesegeschwindigkeit vom Abtastsystem innen die Drehzahl etwa auf 520/min und außen etwa auf 210/min eingestellt. Dabei werden Nutzdaten mit einer Geschwindigkeit von etwa 153,6 kB/s (CD-ROM Mode 1) bis 176,4 kB/s (Audio-CD) ausgelesen. Bei der maximalen 72-fachen Lesegeschwindigkeit ist eine Datenrate von bis zu 11,06 MB/s möglich. Dazu kommen noch Zusatzinformationen für Fehlerkorrektur, Codierung und Synchronisation.
Lebensdauer.
Wie lange eine CD lesbar bleibt, hängt von vielen Faktoren ab. Das sind die Lagerbedingungen (Licht, Temperatur, Luftfeuchtigkeit), das verwendete Material für die Reflektionsschicht (Aluminium, Silber oder Gold) und die Disk selbst (Polykarbonat, bei manchen Disks auch Glas). Weiterhin spielt die Schutzlackierung sowie Beschriftungen der CD eine Rolle, ungeeignete Lacke, Farben oder Beschriftungen (Permanent Marker, Kugelschreiber) können die Reflektionsschicht von CDs nach kurzer Zeit (wenige Monate bis wenige Jahre) ruinieren.
Die meisten CDs aus den 1980er und 1990er Jahren sind bei nicht zu ungünstiger Lagerung heutzutage noch problemlos lesbar. Als optimale Lagerbedingungen werden in verschiedenen Quellen mit −10 °C bis +23 °C bei 20 % bis 50 % RH sehr unterschiedliche Werte angegeben, allerdings häufig mit sehr geringen zeitlichen Änderungen (bis hinab zu 0,6 K/24 h bzw. 5 % RH/24 h). Licht soll im Allgemeinen vermieden werden, gleiches gilt für mechanische Belastungen und Kratzer. Für die Aufbewahrung werden Jewel Cases empfohlen.
Für Langzeit-Speicherung war in den 1980er Jahren eine Century-CD vorgesehen, als Trägermaterial war Glas und als Beschichtung Gold vorgesehen. Die garantierte Haltbarkeit sollte mindestens 100 Jahre betragen bei einer wahrscheinlichen Haltbarkeit von mehr als 1000 Jahren. Heutzutage ist über diese Idee so gut wie nichts mehr zu finden.
Allerdings spielt auch die Produktqualität eine große Rolle, so können schlecht produzierte CDs durchaus nach einigen Jahren Leseprobleme aufweisen.
Für Langzeitspeicherung sind nach heutigem Erkenntnisstand DVDs besser geeignet, da die Informationsschicht im Inneren der DVD besser geschützt ist.
Neben dem Medium selbst spielt für spätere Generationen auch die Verfügbarkeit von Lesegeräten, die Interpretierbarkeit des Datensystems sowie die Interpretierbarkeit der Daten eine extrem große Rolle.
Herstellung.
Eine CD-ROM besteht aus einem Kunststoffträgermaterial mit Aluminiumbeschichtung. Die digitale Information wird auf einer spiralförmigen Spur aufgebracht. Es werden stellenweise Vertiefungen in die Beschichtung gepresst, sogenannte Pits (engl. pit = Grube). Diese reflektieren etwas früher als die unbeschädigten reflektierenden Stellen, die Land genannt werden, da die CD-ROM von der Oberseite gepresst werden und von der Unterseite gelesen werden. Somit sind die Pits von der Leseseite nicht als Vertiefungen sichtbar, sondern als Hügel. Die Übergänge von Land zu Pit, und umgekehrt, reflektieren das Licht nicht. Beim Lesen tastet ein schwacher Laserstrahl die gespeicherte Information ab.
Die industrielle Herstellung einer CD-ROM beginnt mit dem "Premastering". Dabei werden die auf einer CD-ROM zu speichernden Daten zusammengestellt, der dazugehörige Fehlererkennungscode (EDC/Fehlerkorrektur) wird berechnet.
Der Fehlererkennungscode dient zum Beseitigen von Fehlern beim Lesen einer CD-ROM durch ein spezielles Korrekturverfahren (Cross-interleaved Reed-Solomon Code, CIRC).
Beim Premastering werden den eigentlichen Nutzdaten auch noch Synchronisationsbytes und Header-Informationen vorangestellt.
Beim nächsten Produktionsschritt, dem "Mastering", werden mit Hilfe eines starken Laserstrahles die Daten vom Premastering auf eine photoresistente Schicht übertragen, ausgewaschen und versilbert.
Das Negativ einer CD-ROM, ein sogenannter Glasmaster, entsteht.
In den meisten Fällen wird der Glasmaster vor der CD-ROM-Herstellung mit Nickel galvanisiert, der so genannte „Vater“ entsteht.
Die eigentliche CD-ROM-Herstellung ("Pressung") erfolgt in einem Spritzgussverfahren (genau: Spritzprägen).
Das Ausgangsmaterial, flüssiges Polycarbonat, wird mit Hilfe des Masters in eine Form gepresst, anschließend mit Aluminium beschichtet und versiegelt.
Meist wird noch ein CD-Label im Siebdruckverfahren auf die Oberseite der CD-ROM aufgetragen.
Spezielle Arten und Formate.
Verschiedene Arten von Medien:
Verschiedene Formate und Dateisysteme respektive mögliche Inhalte auf den genannten Medien:
Multimedia-Computerspiele.
1991 erschienen die ersten Multimedia-Computerspiele auf CD-ROM, zuvor wurden mehrere Disketten für ein Spiel benötigt. Das erste derartige Spiel für den PC war . Die ersten Spielkonsolen mit CD-ROM-Laufwerk waren "FM Towns Marty" von Fujitsu (1991, eingebautes Laufwerk) und die PC Engine (ab 1988, jedoch externes Gerät). Frühe Spiele waren oft identisch mit den Diskettenversionen oder hatten zusätzlich erweiterte Zwischensequenzen und Musik, die während des Spiels direkt von der CD abgespielt wurde.
Multimedia-CD-ROM.
Seit Mitte der 1990er Jahre kamen mit der Verbreitung von CD-ROM-Laufwerken in PCs eine Fülle von Lexika und anderen Bildungs-, Unterhaltungs- und Edutainment-Medien unter dem Schlagwort Multimedia auf den Markt, häufig mit der Software Director von Macromedia erstellt, seltener auch auf der Basis von HTML. Es verbreiteten sich nun auch Anwendungen der CD-ROM als Ausstellungs- und Museumsmedium: Vielfach wurden nun sog. Info-Terminals mit eigens dafür produzierten CD-ROMs bestückt, um Besuchern Informationen multimedial zu vermitteln. Die "interaktive Multimedia-CD-ROM" galt noch Anfang der 2000er als technisch und konzeptionell aktuellstes Medium, bis sie dann schließlich einerseits von der DVD-ROM und dem USB-Stick mit mehr Kapazität, und andererseits vom zunehmend multimedialen und schnelleren World Wide Web abgelöst wurde. Sie trat danach eher in Billigsegmenten und speziellen Nischen auf, in denen sie bis heute existiert: So werden z. B. etwa einige jährlich aktualisierte, professionelle Datenbanken weiterhin exklusiv auf CD-ROM vertrieben. Häufig werden auch Printmedien von einer CD-ROM mit weiteren Daten begleitet. Die Kopierbarkeit digitaler Daten ist ein Problem bei der Vermarktung – digitale Abbilder von CD-ROMs können wie alle anderen Daten kopiert und verbreitet werden, virtuelle CD-ROM-Laufwerke gaukeln dem Rechner dann physisch vorhandene CD-ROMs vor.
Sonstiges.
Ursprünglich sollte die Kapazität nach Planung der Erfinder 60 Minuten Musik betragen und somit einen Durchmesser von genau 10 Zentimetern haben, die CD-ROM könnte somit in die Brusttasche eines Hemdes gesteckt werden. Die willkürlich erscheinenden 74 Minuten entstanden aber nicht, weil der Chef des Entwicklungsunternehmens gerne die 9. Sinfonie von Ludwig van Beethoven hörte, die 74 Minuten lang ist, und deshalb nicht auf einer Audio-CD Platz gefunden hätte. Vielmehr wurde der für die Spieldauer entscheidende CD-Durchmesser durch die Philips-Führung folgendermaßen begründet: Die Compact Cassette war ein großer Erfolg, die CD sollte nicht viel größer sein. Die Kompaktkassette hatte eine Diagonale von 11,5 cm, die Ingenieure machten die CD 0,5 cm größer.
Das Loch in der Mitte der CD-ROM hat seinen Ursprung in der Größe einer alten niederländischen 10-Cent-Münze. Diese hatten die Entwickler von Philips ständig in ihrem Geldbeutel. Die Größe des Durchmessers dieser Münze schien für die Anwendung ideal zu sein. |
877 | 204203 | https://de.wikipedia.org/wiki?curid=877 | CO2 | |
878 | 559270 | https://de.wikipedia.org/wiki?curid=878 | Charles Messier | Charles Messier (* 26. Juni 1730 in Badenweiler (Lothringen); † 12. April 1817 in Paris) war ein französischer Astronom. Er wirkte unter anderem als Astronom der französischen Marine und später im Bureau des Longitudes und gilt als erster systematischer "Kometenjäger". Insgesamt dürfte er etwa 20 Kometen entdeckt haben. Im Zuge dessen schuf er mit dem Messier-Katalog ein später nach ihm benanntes Verzeichnis von astronomischen Objekten wie Galaxien, Sternenhaufen und Nebel.
Leben.
Messier wurde 1730 in Badenweiler, der Hauptstadt des Fürstentums Salm, als zehntes von zwölf Kindern des Verwaltungsbeamten Nicolas Messier geboren. Er stammte aus wohlhabenden Verhältnissen. Sechs seiner Geschwister starben noch als Kinder. Sein Interesse an Astronomie wurde bereits 1744 geweckt, als er den großen sechs-schwänzigen Kometen C/1743 X1 beobachten konnte. Er ging mit 21 Jahren nach Paris und wurde von dem "Astronomen der Marine", Nicholas Delisle, angestellt. 1754 wurde er Schreiber bei der Marine, wo er unter anderem Karten zu zeichnen hatte. Delisle lehrte ihn die Grundzüge der Astronomie und hielt ihn an, von sämtlichen Beobachtungen genaue Positionsangaben zu machen. Von 1764 an widmete er sich hauptsächlich der Suche nach Kometen. Er korrespondierte mit Fachleuten in England, Deutschland und Russland. 1770, im Alter von 40 Jahren, heiratete er Marie-Françoise de Vermauchampt. Eineinhalb Jahre später starben seine Frau und ihr gemeinsamer Sohn elf Tage nach dessen Geburt.
1771 wurde er zum Astronomen der Marine und damit zum Nachfolger von Delisle ernannt. Zehn Jahre später erlitt er bei einem Sturz schwere Verletzungen, von denen er sich mit seinen bereits 51 Jahren nur langsam erholte. Während der Französischen Revolution verlor er seine Stellung und verarmte. 1796 fand er jedoch eine Anstellung im Bureau des Longitudes. 1806 verlieh Napoleon ihm das Kreuz der Ehrenlegion. Da seine Sehkraft nachließ, beobachtete er, hochbetagt, immer seltener. Der letzte Komet, den er gesehen hat (mit der Hilfe anderer), war der Große Komet von 1807. 1815 erlitt er einen Schlaganfall; zwei Jahre später starb er in Paris im Alter von fast 87 Jahren.
Entdeckungen.
Seit 1757 suchte er im Auftrag von Delisle den bereits erwarteten Halleyschen Kometen, fand ihn aufgrund eines Rechenfehlers von Delisle aber erst am 21. Januar 1759 und damit vier Wochen nach der Wiederentdeckung durch Johann Georg Palitzsch. 1761 beobachtete er den Venusdurchgang, drei Jahre später gelang ihm die erste Neuentdeckung eines Kometen. Insgesamt gelangen ihm bis zum Jahr 1801 zwanzig Entdeckungen, darunter vierzehn eigenständige sowie sechs Co-Entdeckungen. Auf seiner Suche nach neuen Kometen stieß er auf eine Vielzahl anderer Objekte wie Galaxien, Sternenhaufen oder Nebel. Das erste dieser Gebilde – später Messier 1 oder M 1 genannt – hatte er bereits 1758 beobachtet. Um seine Arbeit zu vereinfachen, suchte er gezielt nach weiteren Exemplaren. Dabei benutzte er auch die Kataloge von Edmond Halley, Nicolas Louis de Lacaille, Jacopo Filippo Maraldi und Jean-Baptiste Le Gentil.
Schließlich listete er diese zunächst 45 Objekte im später nach ihm benannten Messier-Katalog auf, dessen erste Fassung 1771 veröffentlicht wurde. Im Jahr 1774 machte Jérôme Lalande, der damals führende Astronom Frankreichs, ihn mit Pierre Méchain bekannt. Dies führte zu einer fruchtbaren Zusammenarbeit. Bereits 1780 war der Katalog auf 68 Einträge angewachsen. Im September 1782 entdeckte Méchain das 107. Messier-Objekt. Von da an stellte Messier seine Suche nach weiteren Nebeln ein und konzentrierte sich wieder auf Kometen – wohl deshalb, weil Wilhelm Herschel mit überlegenem Gerät die Beobachtungen begonnen hatte. Die letzte Fassung seines Katalogs mit 103 Objekten wurde 1781 in "Connaissance des temps" für das Jahr 1784 veröffentlicht.
Messier benutzte eine Reihe sehr unterschiedlicher Teleskope, darunter Fernrohre mit Brennweiten von bis zu sieben Metern und Reflektoren mit Spiegeldurchmessern von bis zu 20 cm Öffnung.
Ehrungen.
Messier war Mitglied einer Vielzahl von wissenschaftlichen Akademien, darunter derer von England, Schweden, Deutschland, Frankreich und Russland. Der Mondkrater Messier sowie der Asteroid (7359) Messier sind nach ihm benannt. Der Messier-Kanal, eine Meerenge im Süden Chiles zwischen der riesigen Wellington-Insel und dem Festland, trägt ebenfalls seinen Namen. |
879 | 556709 | https://de.wikipedia.org/wiki?curid=879 | Christian Morgenstern | Christian Otto Josef Wolfgang Morgenstern (* 6. Mai 1871 in München; † 31. März 1914 in Untermais, Tirol, Österreich-Ungarn) war ein deutscher Dichter, Schriftsteller und Übersetzer. Besondere Bekanntheit erreichte seine komische Lyrik, die jedoch nur einen Teil seines Werkes ausmacht.
Leben.
Herkunft.
Christian Morgenstern wurde 1871 in der Theresienstraße 12 in München im Stadtteil Maxvorstadt unweit der Universität geboren. Seine Mutter war Charlotte Morgenstern, geborene Schertel, sein Vater Carl Ernst Morgenstern, Sohn des Malers Christian Morgenstern. Wie der berühmte Großvater, von dem Morgenstern seinen Rufnamen "Christian" erhielt, waren auch der Vater und der Vater der Mutter Landschaftsmaler. Die Vornamen "Otto" und "Josef" gehen auf weitere Verwandte zurück, "Wolfgang" auf die Verehrung der Mutter für Wolfgang Amadeus Mozart.
Kindheit und Jugend.
Im Jahre 1881 starb Morgensterns Mutter Charlotte an Tuberkulose. Er, Morgenstern, hatte sich offenbar bei ihr angesteckt. Bald darauf wurde er, ohne in der frühen Kindheit regelmäßigen Schulunterricht erhalten zu haben, seinem Paten Arnold Otto Meyer, einem Kunsthändler in Hamburg, zur Erziehung anvertraut, worunter er jedoch litt. Ein Jahr später kehrte er nach München zurück und kam in ein Internat in Landshut. Dort wurde Körperstrafe eingesetzt, und er wurde von seinen Mitschülern gemobbt.
Der Vater heiratete Amélie von Dall’Armi und wurde 1883 an die Königliche Kunstschule in Breslau berufen. Christian ging mit nach Breslau und besuchte das Maria-Magdalenen-Gymnasium. Hier schrieb er im Alter von 16 Jahren das Trauerspiel "Alexander von Bulgarien" und "Mineralogia popularis", eine Beschreibung von Mineralien. Beide Texte sind nicht erhalten. Zudem entwarf er eine Faustdichtung und beschäftigte sich mit Arthur Schopenhauer. Mit 18 Jahren lernte er auf dem Magdalenen-Gymnasium Friedrich Kayssler und Fritz Beblo kennen. Daraus entwickelten sich lebenslange enge Freundschaften.
Vom Herbst 1889 an besuchte Morgenstern eine Militär-Vorbildungsschule, da der Vater für ihn eine Offizierslaufbahn wünschte. Nach einem halben Jahr verließ Morgenstern die Schule jedoch wieder und besuchte fortan ein Gymnasium in Sorau. Hier begann eine Freundschaft mit Marie Goettling, die später nach Amerika auswanderte. Mit ihr korrespondierte er noch während seines Studiums der Nationalökonomie in Breslau. Hier gehörten Felix Dahn und Werner Sombart zu seinen bedeutendsten Dozenten. Mit Freunden gründete Morgenstern die Zeitschrift "Deutscher Geist" unter dem Motto „Der kommt oft am weitesten, der nicht weiß, wohin er geht“, einem Oliver Cromwell zugeschriebenen Zitat.
1893 verfasste er "Sansara", eine humoristische Studie. Das erste Sommersemester verbrachte er mit Kayssler in München. Er vertrug jedoch wegen seiner Tuberkulose das Klima dort nicht und begab sich zur Kur nach Bad Reinerz. Als er nach Breslau zurückkehrte, hatte sich der Vater von seiner zweiten Frau getrennt. Es folgte eine Erholungszeit in Sorau. Da er sein Studium nicht fortsetzen konnte, wären Freunde bereit gewesen, einen Kuraufenthalt in Davos zu bezahlen. Das wies der Vater aber zurück, genau wie ein Angebot Dahns, das Studium bis zum Referendar zu finanzieren. Morgenstern entschied sich nun, als Schriftsteller zu leben. Nach der dritten Heirat seines Vaters zerbrach das Verhältnis zu diesem weitgehend.
Umzug nach Berlin.
Im April 1894 zog Morgenstern nach Berlin, wo er mit Hilfe des zum Teil Versöhnung suchenden Vaters eine Stellung an der Nationalgalerie fand. Er beschäftigte sich mit Friedrich Nietzsche und Paul de Lagarde und arbeitete für die Zeitschriften "Tägliche Rundschau" und "Freie Bühne" und schrieb Beiträge für die Zeitschriften "Der Kunstwart" und "Der Zuschauer".
Im Frühjahr 1895 erschien das erste Buch Morgensterns, der Gedichtzyklus "In Phanta’s Schloss". Er segelte auf dem Müggelsee und bereiste 1895 und 1896 Helgoland, Sylt und Salzburg. In Auftragsarbeit übersetzte er im Sommer 1897 (aus der französischen Übersetzung) die autobiografischen Aufzeichnungen "Inferno" von August Strindberg. Im Oktober 1897 unterzeichnete Morgenstern einen Vertrag mit dem S. Fischer Verlag, der die Übersetzung von Werken Henrik Ibsens betraf, obwohl er die norwegische Sprache noch nicht beherrschte. Bereits im Februar 1898 sollte "Das Fest auf Solhaug" fertig übersetzt sein. Von Mai 1898 bis Herbst 1899 bereiste Morgenstern Norwegen, hauptsächlich zum Erlernen der Sprache, wobei er auch mehrmals Ibsen traf.
1900 folgte eine Kur in Davos, anschließend bereiste Morgenstern den Vierwaldstättersee, Zürich, Arosa, Mailand, Rapallo, Portofino, Florenz, Wolfenschiessen und Heidelberg. Im Dezember 1902 besuchte er Rom und kehrte Mai 1903 nach Berlin zurück. In dieser Zeit übersetzte er Knut Hamsun und Bjørnstjerne Bjørnson.
Ab 1903 war er literarischer Lektor im Verlag von Bruno Cassirer, mit dem er freundschaftlich verbunden war. Er betreute und förderte dort u. a. Robert Walser. Zuvor war er Dramaturg bei Felix Bloch Erben. 1905 reiste er nach Wyk und hatte einen Sanatoriumsaufenthalt in Birkenwerder, der nicht zum gewünschten Erfolg führte. Zudem erschienen in diesem Jahr seine "Galgenlieder" und er las Fjodor Michailowitsch Dostojewski. Ein Jahr später reiste er aus gesundheitlichen Gründen in Kurorte in bayerischer, Tiroler und Schweizer Alpenlandschaft, nach Bad Tölz, Längenfeld, Obergurgl, Meran, Obermais, St. Vigil und Tenigerbad und beschäftigte sich mit Jakob Böhme, Fechner, Fichte, Hegel, Eckhart von Hochheim und Tolstoi. Spinoza und Fritz Mauthner las er in dieser Zeit ebenfalls, hielt zu ihnen aber im Licht seiner antisemitischen Einstellung Distanz.
Margareta Gosebruch von Liechtenstern.
Im Juli 1908 lernte Morgenstern in Bad Dreikirchen Margareta Gosebruch von Liechtenstern (1879–1968) kennen. Nach deren Abreise blieb er mit ihr in regem Briefverkehr. Als Margareta im Oktober erkrankte, begab Morgenstern sich zu ihr nach Freiburg im Breisgau. Da aber der Aufenthalt eines Verlobten bei einer kranken Frau den gesellschaftlichen Sitten widersprach, wich er nach Straßburg aus. Im November begab er sich wie die gesundete Margareta nach Berlin.
Kontakt zur Theosophie und Anthroposophie.
Im Januar 1909 schloss er bei Berliner Vorträgen Rudolf Steiners mit diesem eine enge und dauerhafte Freundschaft. Um Steiners Vorträge zu hören, reiste er noch im selben Jahr nach Düsseldorf, Koblenz, Kristiania, Kassel und München. Im Mai trat er einen Monat nach Margareta der von Steiner geführten Deutschen Sektion der Theosophischen Gesellschaft bei. Bei der folgenden Spaltung dieser Körperschaft 1912/1913 blieb er auf der Seite Steiners und wurde Mitglied der Anthroposophischen Gesellschaft. 1909 übersetzte er auch Knut Hamsun, besuchte den Internationalen Theosophischen Kongress in Budapest und seinen Vater in Wolfshau, er reiste mit Margareta in den Schwarzwald und nach Obermais. Dort erkrankte er, wohl auch infolge der zahlreichen Reisen, an einer schweren Bronchitis. Ein Arzt deutete bereits auf den kurz bevorstehenden Tod hin. Morgensterns Zustand verbesserte sich jedoch wieder, und so heirateten er und Margareta am 7. März 1910.
Italien und Schweiz.
Von Mai bis August hielt er sich in Bad Dürrenstein in den Dolomiten auf, bis er sich zu einem Vortrag Steiners nach Bern begab. Vorträge in Basel besuchte lediglich Morgensterns Frau, von denen sie ihm nachher berichtete. Nach Aufenthalt in München reiste er im Oktober über Verona, Mailand und Genua nach Palermo und schließlich nach Taormina. Im selben Jahr begann auch seine Zusammenarbeit mit dem Verleger Reinhard Piper, die bis zu seinem Lebensende anhielt. Christian Morgenstern hatte vorher mit vier anderen Verlegern zusammengearbeitet, nämlich mit Richard Taendler, Schuster & Loeffler, Samuel Fischer und Bruno Cassirer. Eine dauerhafte Geschäftsverbindung war aber nicht zustande gekommen.
Eigentlich wollte Morgenstern mit Margareta ein halbes Jahr in Taormina verbringen; da er aber erneut schwer erkrankte, begab er sich, sobald er im Frühjahr 1911 dazu imstande war, in das Deutsche Krankenhaus nach Rom und dann in das Waldsanatorium Arosa, wo er seinen Vater und die Mutter Margaretas sah, die anfangs nicht mit der Ehe einverstanden war. Nach mehreren Monaten Liegekur konnte er das Sanatorium verlassen und zog mit Margareta in eine Wohnung in Arosa.
1912 erhielt er eine Spende der Deutschen Schillerstiftung in Höhe von eintausend Mark. Bald darauf begab er sich nach Davos. Margareta besuchte für ihn Vorträge Steiners in München. Noch immer krank, verließ er das Sanatorium und begab sich mit Margareta nach Zürich, wo er im Oktober mit Steiner zusammentraf. Anschließend kehrte er nach Arosa zurück. Er verfasste einen Brief, in dem er Rudolf Steiner für den Friedensnobelpreis vorschlagen wollte, schickte diesen jedoch nicht ab.
Ab Frühjahr 1913 hielt er sich in Portorose auf, wo er Gedichte Friedrichs des Großen aus dem Französischen übersetzte und Michael Bauer, der ebenfalls lungenkrank war, zum Freund gewann. Nach einer Reise nach Bad Reichenhall, wo er Friedrich und Helene Kayßler traf, hörte er in München Vorträge Steiners, dem er im November nach Stuttgart und im Dezember nach Leipzig folgte. Sowohl in Stuttgart als auch in Leipzig rezitierte Marie von Sivers, die spätere Frau Steiners, Werke Morgensterns, der den letzten der beiden Vorträge am Silvesterabend als den höchsten Ehrentag seines Lebens empfand.
Tod.
In München konnten die Morgensterns ihren Arzt nicht erreichen und suchten daher ein Sanatorium in Arco (Trentino) auf, das Morgenstern jedoch nicht aufnahm, um sterbende Patienten zu vermeiden. Nach einem kurzen Aufenthalt in einem Sanatorium bei Bozen zog er in die Villa Helioburg in Untermais (seit 1924 nach Meran eingemeindet), wo er noch an dem Druckbogen der Sammlung "Wir fanden einen Pfad" arbeitete. Michael Bauer hatte er geschrieben: Bauer fuhr nach Meran zu Morgenstern, der am 31. März 1914, gegen fünf Uhr morgens, betreut von seinem Arzt Christoph Hartung von Hartungen in der Villa Helioburg starb. Am 4. April wurde er in Basel eingeäschert. Die Urne bewahrte Rudolf Steiner auf, bis sie im neuen Goetheanum aufgestellt wurde. Seit 1992 ist die Urne auf dem Goetheanum-Gelände beigesetzt.
Nachlass.
Ein Teil von Morgensterns Nachlass liegt im Deutschen Literaturarchiv Marbach. Teile davon sind im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen, insbesondere die Originale der "Galgenlieder".
Nachwirkung und Rezeption.
Nach dem Tod des Dichters gab seine Witwe zahlreiche seiner Werke heraus, die sie teilweise neu ordnete und mit bisher unveröffentlichten Teilen des Nachlasses ergänzte (nur etwa die Hälfte seines Werks war zu Lebzeiten Morgensterns veröffentlicht worden). Seine sogenannte ernste Dichtung fand nie die Resonanz, die sich Morgenstern stets erhofft hatte, und blieb auch von der Forschung weitgehend unbeachtet. Einem größeren Leserkreis bekannt (und beliebt) wurde Morgenstern praktisch nur mit seiner humoristischen Dichtung. Besonders in seinen "Galgenliedern" entfaltet Morgenstern seinen liebenswürdigen, scharfsinnigen Sprachwitz, dessen Sinnentschlüsselung oft „eines zweiten und dritten Blicks“ bedarf. Die in der Forschung oft als literarischer Nonsens verkannten Morgenstern’schen Humoresken sind keineswegs bloße Spielerei, sondern, mit den Worten des Dichters gesprochen, „Spiel- und Ernst-Zeug“.
Drei Beispiele der besonderen Sprachkomik Christian Morgensterns:
Zum geflügelten Wort wurde der Schluss des Gedichts "Die unmögliche Tatsache" (aus "Palmström"):
<poem style="margin-left:3em;">
Und er kommt zu dem Ergebnis:
Nur ein Traum war das Erlebnis.
Weil, so schließt er messerscharf,
nicht sein kann, was nicht sein darf.
</poem>
Sein Nasobēm inspirierte den Zoologen Gerolf Steiner zur Schöpfung der (fiktiven) Ordnung der Rhinogradentia, ein wissenschaftlich-satirischer Scherz, der sich international verbreitete und später seine bekannteste Nachahmung in Loriots Steinlaus fand.
In Deutschland tragen Schulen verschiedenen Orten den Namen des Dichters, siehe Christian-Morgenstern-Schule.
Am 8. Dezember 1998 wurde der Asteroid (9764) Morgenstern nach Christian Morgenstern benannt.
Zum 100. Todestag des Dichters im März 2014 eröffnete das Christian Morgenstern Literatur-Museum auf dem sogenannten Galgenberg in Werder (Havel) bei Potsdam, wo die Galgenlieder entstanden sein sollen. Auf der Bismarckhöhe in Werder hat auch die Christian-Morgenstern-Gesellschaft (CMG e.V.) ihren Sitz. Ebenfalls zu seinem 100. Todestag stellten die Münchner Germanisten Markus May und Waldemar Fromm am 25. Oktober 2014 im Lyrik Kabinett in München neuere Ergebnisse der Morgensternforschung vor, insbesondere über die Vorläuferrolle Morgensterns für die großen Humoristen des 20. Jahrhunderts wie Robert Gernhardt und Ernst Jandl. Was ihre „Bürokratie-Kritik“ anbelangt, so Fromm, seien Franz Kafka und Morgenstern Brüder im Geiste: „Morgenstern baut bereits vor-kafkaeske Welten, um die Absurdität eines verwalteten Lebens zu zeigen.“
Ein Beispiel:
<poem style="margin-left:3em;">
Die Behörde
Korf erhält vom Polizeibüro
ein geharnischt Formular,
wer er sei und wie und wo.
Welchen Orts er bis anheute war,
welchen Stands und überhaupt,
wo geboren, Tag und Jahr.
Ob ihm überhaupt erlaubt,
hier zu leben und zu welchem Zweck,
wieviel Geld er hat und was er glaubt.
Umgekehrten Falls man ihn vom Fleck
in Arrest verführen würde, und
drunter steht: Borowsky, Heck.
Korf erwidert darauf kurz und rund:
„Einer hohen Direktion
stellt sich, laut persönlichem Befund,
untig angefertigte Person
als nichtexistent im Eigen-Sinn
bürgerlicher Konvention
vor und aus und zeichnet, wennschonhin
mitbedauernd nebigen Betreff,
Korf. (An die Bezirksbehörde in –.)“
Staunend liest’s der anbetroffne Chef.
</poem>
Werke.
Digitale Werkausgabe.
Digitale Werkausgabe
Vollständige und kommentierte Werkausgabe.
"Stuttgarter Ausgabe" des Verlags Urachhaus, Stuttgart, hrsg. unter der Leitung von Reinhardt Habel.
Vertonungen.
Morgensternsche Gedichte wurden von vielen Komponisten vertont. Ausführliche Übersichten sind im "Lied, Art Song, and Choral Texts Archive" zu finden.
Einige Beispiele: |
883 | 2937641 | https://de.wikipedia.org/wiki?curid=883 | Catjangbohne | Die Catjangbohne ("Vigna unguiculata" subsp. "cylindrica"), auch Katjangbohne oder Angolabohne, ist eine Nutzpflanze aus der Unterfamilie der Schmetterlingsblütler (Faboideae). Sie ist eng mit der Kuhbohne und der Spargelbohne verwandt. Taxonomisch wird sie entweder als Unterart "cylindrica" oder "catjang" oder als Sortengruppe 'Biflora' von "Vigna unguiculata" geführt.
Merkmale.
Sie ähnelt stark der Nominatform der Art, der Augenbohne. Sie wächst strauchig bis 80 cm hoch oder kriechend-windend 30 cm hoch. Die dreifiedrigen Blätter stehen an langen Stielen. Das endständige Fiederblättchen ist 6 bis 16 cm lang. Die Blütentrauben stehen aufrecht und tragen paarig 4 bis 12 Blüten. Die Blütenfarbe ist variabel und reicht von Weiß bis Lila und Hellblau. Die jungen Hülsen stehen zunächst aufrecht, später können sie sich bis in eine waagrechte Position senken. Sie sind 7 bis 13 cm lang bei einem Durchmesser von 5 bis 7 mm, walzenförmig und gerade bis leicht gebogen. Zur Reifezeit färben sie sich von Grün über Gelb nach Braun.
Die Samen sind 5 bis 6, selten bis 12 mm lang, 3 bis 8 mm breit und 4 bis 6 mm dick. Die Farbe ist meist dunkel, häufig rot, schwarzbraun bis schwarz oder schwarz gepunktet. Häufig haben sie einen dreieckigen, weißen Nabel. Ihre Inhaltsstoffe sind denen der Augenbohne sehr ähnlich.
Die Chromosomenzahl beträgt 2n = 22.
Anbau.
Die Catjangbohne stammt ursprünglich aus Afrika, kam aber sehr früh nach Asien. Hier liegt heute ihr Anbauschwerpunkt, wo sie als Trockenbohne und Gemüsepflanze genutzt wird. Statistiken fehlen.
Sie wird vorwiegend in den Tiefländern der Tropen und Subtropen angebaut, in den Tropen gedeiht sie bis in Höhenlagen von 2000 Meter. Der Niederschlag soll zwischen 700 und 1700 mm liegen, wobei der Anbau so erfolgt, dass die Ernte nach der Regenzeit stattfindet. Zu hohe Niederschläge führen zu hohen Blattmassen und geringer Samenbildung. Die Temperatur soll zwischen 12 und 28 °C liegen, der Boden-pH zwischen 5 und 7,5. Die Pflanzen gedeihen auch auf leichten Böden, mittlere und schwere Böden führen zu höheren Erträgen. Die Erträge liegen meist unter einer Tonne Samen pro Hektar.
Nutzung.
Dunkle Samen werden häufig als Tierfutter verwendet, die hellen werden eher vom Menschen gegessen. Ihnen wird eine bessere Verdaulichkeit zugesprochen. Blätter und junge Hülsen werden als Gemüse oder Salat verzehrt. Die ganzen Pflanzen werden auch als Grünfutter verwertet und liefern dann 20 bis 40 Tonnen Grünmasse pro Hektar. |
884 | 364492 | https://de.wikipedia.org/wiki?curid=884 | Charles Darwin | Charles Robert Darwin [] (* 12. Februar 1809 in Shrewsbury; † 19. April 1882 in Down House/Grafschaft Kent) war ein britischer Naturforscher. Er gilt wegen seiner Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler.
Die Ende 1831 begonnene und fast fünf Jahre andauernde zweite Reise mit der HMS "Beagle", die den jungen Darwin einmal um die Welt führte, war zugleich Schlüsselerlebnis und Grundlage für sein späteres Werk. Der breiten Öffentlichkeit wurde Darwin erstmals durch seinen 1839 herausgegebenen Reisebericht bekannt. Mit seiner Theorie über die Entstehung der Korallenriffe und weiteren geologischen Schriften erlangte er in wissenschaftlichen Kreisen die Anerkennung als Geologe. Seine Untersuchungen an den Rankenfußkrebsen (Cirripedia) verschafften ihm Mitte der 1850er Jahre zusätzlich einen Ruf als angesehener Zoologe und Taxonom.
Bereits 1838 entwarf Darwin seine Theorie der Anpassung an den Lebensraum durch Variation und natürliche Selektion und erklärte so die phylogenetische Entwicklung aller Organismen und ihre Aufspaltung in verschiedene Arten. Über 20 Jahre lang trug er Belege für diese Theorie zusammen. 1842 und 1844 verfasste Darwin kurze Abrisse seiner Theorie, die er jedoch nicht veröffentlichte. Ab 1856 arbeitete er an einem umfangreichen Manuskript mit dem Titel "Natural Selection." Durch einen Brief von Alfred Russel Wallace, der dessen Ternate-Manuskript mit ähnlichen Gedanken zur Evolution enthielt, kam es im Sommer 1858 schließlich zu einer Veröffentlichung der Theorien über die Evolution durch beide. Ein Jahr später folgte Darwins Hauptwerk "On the Origin of Species" "(Über die Entstehung der Arten)," das als streng naturwissenschaftliche Erklärung für die Diversität des Lebens die Grundlage der modernen Evolutionsbiologie bildet und einen entscheidenden Wendepunkt in der Geschichte der modernen Biologie darstellt.
1871 diskutierte Darwin in "The Descent of Man, and Selection in Relation to Sex" "(Die Abstammung des Menschen und die geschlechtliche Zuchtwahl)" mit der sexuellen Selektion einen zweiten Selektionsmechanismus und nutzte seine Theorie, um die Abstammung des Menschen zu erklären. In seinem letzten Lebensjahrzehnt untersuchte Darwin Kletterpflanzen, Orchideen und fleischfressende Pflanzen und leistete wichtige Beiträge zur Botanik. Sein offizielles botanisches Autorenkürzel lautet „“.
Leben und Werk.
Kindheit und Studium.
Charles Robert Darwin wurde am 12. Februar 1809 auf dem in Shrewsbury gelegenen Anwesen Mount House geboren. Er war das fünfte von sechs Kindern des Arztes Robert Darwin und dessen Ehefrau Susannah, geborene Wedgwood (1765–1817). Seine Großväter waren der Naturforscher und Dichter Erasmus Darwin und der Keramikfabrikant Josiah Wedgwood.
Am 15. Juli 1817, als Charles Darwin acht Jahre alt war, starb seine Mutter. Seine drei älteren Schwestern Marianne (1798–1858), Caroline (1800–1888) und Susan (1803–1866) übernahmen seine Betreuung. Seit dem Frühjahr 1817 besuchte er die Tagesschule der Unitarier-Gemeinde. Seine Mutter war gläubige Unitarierin, sein Vater galt als ungläubig, Charles war hingegen in der anglikanischen Kirche getauft. Im Juni 1818 wechselte er an die von Samuel Butler geleitete private Internatsschule von Shrewsbury, auf der er sieben Jahre blieb. Dem konventionellen, auf alte Sprachen und Literatur ausgerichteten Unterricht konnte Darwin jedoch nicht viel abgewinnen. Das Durchdringen komplexer Sachverhalte wie Euklids Geometrie, in der ihn ein Privatlehrer unterrichtete, oder die Feineinstellung eines Barometers, die ihm sein Onkel Samuel Tertius Galton (1783–1844) erläuterte, bereiteten ihm hingegen Freude. Schon zu dieser Zeit sammelte Darwin Muscheln, Siegel, Münzen und Mineralien, und seine unablässigen Streifzüge durch die Natur, bei denen er die Verhaltensweisen von Vögeln untersuchte, schärften seine Beobachtungsgabe. Angeregt durch Experimente seines älteren Bruders Erasmus (1804–1881), die dieser in einem selbstgebauten Labor im elterlichen Geräteschuppen durchführte und bei denen Darwin mithelfen durfte, beschäftigte er sich intensiv mit Chemie. Charles sollte wie sein Vater Arzt werden und hatte bereits in dessen Praxis hospitiert.
Im Oktober 1825 begann Darwin wie zuvor sein Bruder Erasmus an der Universität Edinburgh mit dem Medizinstudium. Die Vorlesungen, mit Ausnahme der Chemievorlesungen von Thomas Charles Hope, langweilten ihn. Er beschäftigte sich vornehmlich mit naturwissenschaftlichen Themen. Einflussreichster Lehrer in seiner Edinburgher Zeit war Robert Edmond Grant, ein Freidenker und Anhänger der Lamarckschen Evolutionslehre. Bei ihm lernte er Meereszoologie, wissenschaftliches Beobachten und die Bedeutung von genauen Aufzeichnungen. Er beschäftigte sich ebenfalls mit dem Präparieren von Vögeln, das er von John Edmonstone, einem ehemaligen schwarzen Sklaven, erlernte. Darwin war Mitglied der Royal Medical Society und der Studenten-Gesellschaft Plinian Society, in der er seinen ersten wissenschaftlichen Vortrag über die Selbstbeweglichkeit der Eier von "Flustra" (ein Moostierchen) hielt.
Als Darwins Vater bemerkte, dass sich sein Sohn mit dem Studium der Medizin schwertat, schlug er ihm vor, Geistlicher der Kirche von England zu werden und ein Studium der Theologie zu beginnen. Nach kurzer Bedenkzeit willigte Darwin ein und begann im Januar 1828 mit dem Studium in Cambridge, nachdem er im Privatunterricht sein Griechisch aufgefrischt hatte. Zwar absolvierte Darwin seine theologischen Studien ohne Begeisterung und schätzte sie als Zeitverschwendung ein, jedoch bezeichnete er später seine Zeit in Cambridge als die glücklichste in seinem Leben.
Er verschob auf Anraten seines Tutors John Graham (1794–1865), des späteren Bischofs von Chester, seine erste Vorprüfung, das sogenannte „Little Go“. Nach zweimonatiger Vorbereitungszeit bestand er im März 1830 das Little Go schließlich mit Leichtigkeit. Zur Vorbereitung für die Abschlussprüfung gehörten auch Werke von William Paley, einem Hauptvertreter der damals in England vorherrschenden Naturtheologie. Besonders Paleys Werk "Natural Theology" beeindruckte Darwin; Paleys Logik, Art der Beweisführung und Sprache sollten ihn auch später noch prägen. Am 22. Januar 1831 bestand er als zehntbester von 178 Studenten seine Abschlussprüfung, die Fragen zu Paley, Euklid sowie den griechischen und lateinischen Klassikern umfasste. Die Urkunde für den ersten akademischen Grad "Baccalaureus Artium" konnte er erst am 26. April 1831 entgegennehmen, da er aufgrund der am Anfang des Studiums versäumten Zeit noch zwei Semester in Cambridge bleiben musste.
Zu Beginn seines Studiums am Christ’s College in Cambridge traf Darwin seinen Großcousin William Darwin Fox, der ihn in die Insektenkunde einführte und durch den er zu einem leidenschaftlichen Sammler von Käfern wurde. In den Sommermonaten unternahm er zahlreiche entomologische Exkursionen, die ihn meist nach Nord-Wales führten, und begleitete dabei unter anderen Frederick William Hope (1797–1862), George Leonard Jenyns (1763–1848) sowie Thomas Campbell Eyton und dessen Vater Thomas Eyton. Eine weitere kleine wissenschaftliche Anerkennung wurde ihm zuteil, als sein Name in dem im Juli 1829 erschienenen Werk "Illustrations of British Entomology" von James Francis Stephens genannt wurde.
Hohe Wertschätzung brachte Darwin den Botanikvorlesungen von John Stevens Henslow entgegen. Durch seinen Großcousin Fox erhielt er Einladungen zu den regelmäßig in Henslows Haus stattfindenden Abenden, die dieser für Studenten durchführte, die noch keinen Abschluss hatten. Zwischen beiden entwickelte sich eine Freundschaft, die lebenslang anhielt und die Darwin als einflussreichste seines gesamten Werdeganges charakterisierte.
Während seines letzten Jahres in Cambridge las er John Herschels "Einführung in das Studium der Naturphilosophie" und Alexander von Humboldts "Reise in die Aequinoctial-Gegenden des neuen Continents." Aus Humboldts Werk machte er sich zahlreiche Notizen zur Kanarischen Insel Teneriffa und begann im April 1831, eine Reise dorthin zu planen. Er fing an, Spanisch zu lernen, was ihm Mühe bereitete. Er holte Informationen über Kosten und Termine von Passagen nach Teneriffa ein und musste enttäuscht feststellen, dass er die Reise nicht vor Juni 1832 antreten könnte.
Bereits im Frühjahr 1831 hatte Henslow ihn überzeugt, sich mit Geologie zu beschäftigen, und ihn mit Adam Sedgwick, Professor für Geologie in Cambridge, bekannt gemacht. Im August 1831 unternahmen Darwin und Sedgwick eine geologische Exkursion nach Nord-Wales, auf der sie etwa eine Woche gemeinsam verbrachten. Nach seiner Rückkehr nach Shrewsbury am 29. August 1831 fand Darwin einen Brief Henslows vor. Dieser teilte Darwin darin mit, dass Kapitän Robert FitzRoy für seine nächste Fahrt mit der HMS "Beagle" einen standesgemäßen und naturwissenschaftlich gebildeten Begleiter suche und er ihn für diese Position empfohlen habe. FitzRoy befürchtete, ohne einen solchen Begleiter das Schicksal des ersten Kapitäns der HMS "Beagle" Pringle Stokes zu erleiden, der 1828 Suizid verübt hatte. Das Ziel der von FitzRoy geleiteten Expedition waren Patagonien und Feuerland an der Südspitze Südamerikas, um dort kartographische Messungen durchzuführen. Ebenso sollten die Küsten Chiles, Perus und einiger Südseeinseln vermessen werden. Nachdem sich Darwin und FitzRoy zur gegenseitigen Zufriedenheit kennengelernt hatten und er die Zustimmung seines Vaters zum geplanten Unternehmen erhalten hatte, reiste Darwin nach London.
Die Reise mit der HMS "Beagle".
Stürme verzögerten den Beginn der Vermessungsfahrt der HMS "Beagle" immer wieder. Erst am 27. Dezember 1831 stach die HMS "Beagle" von Devonport aus in See. Die Fahrt begann für Darwin unerfreulich. Er wurde sofort seekrank und sein Traum, die von Humboldt geschilderte artenreiche subtropische Vegetation auf der kanarischen Insel Teneriffa zu erkunden, scheiterte an einer Quarantäne, die aufgrund eines Choleraausbruchs in England über die Besatzung verhängt wurde. Die erste Zeit auf dem Schiff verbrachte Darwin damit, die in einem selbstkonstruierten, engmaschigen Schleppnetz gefangenen Organismen (die später als Plankton bezeichnet wurden) mikroskopisch zu untersuchen. Er begann sein erstes Notizbuch, dem zahlreiche weitere folgten, die er während der Reise zu unterschiedlichen Zwecken anlegte. Es gab Notizbücher, die er ausschließlich während der Exkursionen an Land benutzte. In seinen geologischen und zoologischen Notizbüchern ordnete er die an Land gewonnenen Eindrücke. In weitere Notizbücher trug er seine gesammelten Proben sorgsam nummeriert ein.
Am 16. Januar 1832 konnte er bei Praia auf der kapverdischen Insel Santiago zum ersten Mal an Land gehen. Henslow hatte Darwin geraten, sich mit dem ersten Band von Charles Lyells "Principles of Geology" zu beschäftigen, und FitzRoy hatte ihm diesen vor der Abfahrt geschenkt. Während des gut dreiwöchigen Aufenthalts entdeckte er in den Klippen der Küste ein in 15 Meter Höhe verlaufendes waagerechtes Muschelschalenband und fand zum ersten Mal eine Bestätigung für Lyells Theorie der langsamen, graduellen, geologischen Formung der Erde.
Fast genau zwei Monate nach der Abreise erreichte die HMS "Beagle" am 28. Februar 1832 die südamerikanische Ostküste und ankerte vor Salvador da Bahia in der Allerheiligenbucht. Darwin genoss den Tropischen Regenwald, beobachtete aber auch die Auswirkungen der Sklaverei, die er aufgrund seiner Erziehung ablehnte und über die er mit FitzRoy in Streit geriet. Zwei Monate später erhielt er in Rio de Janeiro die erste Post von zu Hause. Während die HMS "Beagle" die Vermessung der Küste fortsetzte, blieb Darwin mit einigen Besatzungsmitgliedern in Rio und unternahm geologische Untersuchungen entlang der Küste. In der zweiten Augusthälfte schickte er von Montevideo aus die ersten Proben, hauptsächlich geologische, an Henslow in Cambridge. Bis Ende Juni 1835 folgten sieben weitere Sendungen mit pflanzlichen, tierischen, fossilen und geologischen Fund- und Sammelstücken.
Am 22. September 1832 entdeckte Darwin in der Nähe von Bahía Blanca in Punta Alta seine ersten Fossilien. Besser ausgerüstet konnte er am nächsten Tag den Schädel eines "Megatheriums" und ein gut erhaltenes Skelett eines "Scelidotheriums," beides Riesenfaultiere, freilegen. Aus dem Fundort, einer Muschelschicht, schloss er, dass sich die beiden ausgestorbenen Tiere zeitgleich mit den sie umgebenden Muscheln entwickelt haben müssten.
Über den Jahreswechsel hielt sich die HMS "Beagle" im Gebiet von Feuerland auf, wo für Reverend Richard Matthews und die drei in England erzogenen Feuerländer, die FitzRoy bei seiner ersten Fahrt nach England gebracht hatte, eine Missionsstation errichtet wurde. Als die HMS "Beagle" ein gutes Jahr später die Missionsstation erneut aufsuchte, war diese verlassen. Nach einem einmonatigen Aufenthalt auf den Falklandinseln setzte die HMS "Beagle" ihre Vermessungsarbeiten vor der südamerikanischen Ostküste fort. Darwin unternahm währenddessen von April bis November 1833 Exkursionen in das Landesinnere von Uruguay und Argentinien. Anfang Dezember verließ die HMS "Beagle" Montevideo, vermaß unter anderem Teile der Magellanstraße und erreichte am 11. Juni 1834 den Pazifischen Ozean.
Über Chiloé, Valdivia und Concepción segelte die HMS "Beagle" nach Valparaíso, wo sie am 23. Juli 1834 eintraf und mehrere Wochen blieb. Darwin unternahm vom 14. August bis 27. September 1834 seine erste Expedition durch die Anden, die ihn ein erstes Mal bis nach Santiago führte. Während die HMS "Beagle" den Chonos-Archipel kartographierte, erkundete Darwin die geologische Beschaffenheit der Insel Chiloé. Am 20. Februar 1835 wurde er Zeuge des schweren, dreiminütigen Erdbebens bei Valdivia. Sechs Wochen später sahen er und FitzRoy bei einem Ritt zur schwer zerstörten Stadt Concepción die Auswirkungen dieses Bebens. Als Darwin Anfang März 1835 die Insel Quiriquina bei Talcahuano untersuchte, fand er marine Ablagerungen, die infolge des Erdbebens um einige Fuß gehoben worden waren, worin er eine weitere Bestätigung für Lyells Theorie und das Alter der Erde sah. Bei einer zweiten Anden-Expedition im März und April entdeckte er, dass das weit von der Küste entfernte Gebirge hauptsächlich aus submariner Lava bestand. Er fand fossile und versteinerte Bäume und begann, erste eigene geologische Theorien zu entwickeln. Bis zum Sommer unternahm er zwei weitere Expeditionen, bei denen er Untersuchungen in den Anden durchführte.
Nach den bis zum 7. September 1835 andauernden Vermessungsarbeiten vor Chile und Peru verließ die HMS "Beagle" die südamerikanische Westküste endgültig und brach in Richtung Galapagosinseln auf. Am 18. September betrat Darwin auf San Cristóbal zum ersten Mal eine der zahlreichen Inseln. Die Vermessungsarbeiten dauerten gut einen Monat. Darwin konnte auf den Inseln Floreana, San Salvador sowie Isabela Untersuchungen vornehmen und Tier- und Pflanzenproben sammeln. Nicholas Lawson, der Direktor des Strafgefangenenlagers auf der Insel Floreana, machte ihn darauf aufmerksam, dass sich die auf den Galápagos-Inseln lebenden Schildkröten anhand ihrer Panzer bestimmten Inseln zuordnen ließen. Darwin schenkte zu diesem Zeitpunkt weder dieser Bemerkung noch den Galapagosfinken besonders viel Aufmerksamkeit.
Am 20. Oktober 1835 brach die HMS "Beagle" zur Durchquerung des Pazifischen Ozeans auf. Gut drei Wochen später wurde das Atoll Puka-Puka im Tuamotu-Archipel gesichtet und am Abend des 15. November Tahiti erreicht, wo das Schiff zehn Tage ankerte. In Papeete trafen Darwin und FitzRoy mit der tahitianischen Königin Pomaré IV. zusammen. Während der Weiterfahrt nach Neuseeland vervollständigte Darwin seine Theorie über die Entstehung der Korallenriffe, die er bereits an der Westküste Südamerikas begonnen hatte. Den zehntägigen Aufenthalt im Norden der neuseeländischen Nordinsel nutzte Darwin erneut zu Exkursionen in das Landesinnere. Er besuchte die Missionare der Te Waimate Mission und untersuchte bei Kaikohe eigentümliche Formationen aus Kalkstein.
Als die HMS "Beagle" am 12. Januar 1836 die Sydney Cove im Port Jackson vor Sydney in Australien erreichte, war Darwin erleichtert, endlich wieder in einer großen, kultivierten Stadt zu sein. Auf einem seiner Ausflüge begegnete er einigen Aborigines, die ihm – für einen Shilling – ihre Fähigkeiten im Speerwurf demonstrierten. In Hobart genoss Darwin, den es immer mehr nach Hause zog, die Gastfreundschaft des Generalvermessungsinspektors George Frankland (1800–1838). Er feierte seinen 27. Geburtstag, fing Skinke und Schlangen, sammelte Plattwürmer und zahlreiche Insekten, darunter Mistkäfer, die er in Kuhfladen fand. Die letzte Station des zweimonatigen Aufenthaltes in Australien war Albany.
Die weitere Fahrt führte ihn auf die Kokosinseln sowie nach Mauritius und an der Südspitze von Madagaskar vorbei nach Südafrika. Am 31. Mai 1836 warf die HMS "Beagle" bei Simon’s Town in der "Simons Bay" die Anker. Darwin eilte auf dem Landweg nach Kapstadt, wo er sich mit John Herschel traf. Am 29. Juni querte die HMS "Beagle" den Südlichen Wendekreis. Auf St. Helena untersuchte er die Geologie der Insel und auf Ascension bestieg er den 859 Meter hohen Vulkan Green Mountain. Das heimatliche England rückte näher, doch am 23. Juni entschied sich Kapitän FitzRoy, noch einmal nach Salvador da Bahia an der Küste von Südamerika zurückzukehren, um fehlerhafte Messungen auszuschließen. Am 17. August 1836 ging die HMS "Beagle" endgültig auf Heimatkurs. Nochmals wurde Praia angesteuert und ein Zwischenstopp bei der Azoren-Insel Terceira eingelegt. Am 2. Oktober gegen 9 Uhr morgens lief das Schiff in den englischen Hafen Falmouth ein. Darwin machte sich sofort auf den Weg zu seiner Familie in Shrewsbury.
Während der Rückreise hatte Darwin seine Notizen geordnet und mit Unterstützung seines Gehilfen Syms Covington insgesamt zwölf Kataloge seiner Sammlungen erstellt. Seine zoologischen Notizen umfassten 368 Seiten, die über Geologie waren mit 1383 Seiten etwa viermal so umfangreich. Zusätzlich hatte er 770 Seiten seines Reisetagebuchs beschrieben. 1529 in Spiritus konservierte Arten sowie 3907 Häute, Felle, Knochen, Pflanzen etc. waren das Ergebnis seiner fast fünfjährigen Reise.
Rückblickend resümierte Darwin später in seiner Autobiographie:
Zurück in England – Anfänge der Evolutionstheorie.
Darwins Name war bereits vor seiner Rückkehr im Oktober 1836 in wissenschaftlichen Kreisen bekannt, da Henslow, ohne dass Darwin davon wusste, einige seiner Briefe als "Letters on Geology" veröffentlicht hatte. Für kurze Zeit weilte Darwin in Cambridge, wo er an seiner Sammlung und am Manuskript des "Journal" arbeitete. Im März 1837 ließ er sich in London nieder. Hier schloss er bald Freundschaft mit Charles Lyell und Richard Owen. Der freundschaftliche Umgang mit Owen kühlte in späteren Jahren jedoch ab.
In die Zeit nach der Rückkehr fallen Darwins erste Gedanken über den Artwandel, auch wenn Darwin selbst später diesen Zeitpunkt auf die Zeit in Südamerika vorverlegte. Sein Glaube an die Konstanz der Arten wurde vor allem durch die Arbeiten von John Gould im März 1837 über die Vögel der Galápagos-Inseln erschüttert. Darwin hatte den Vögeln auf der Reise kaum Aufmerksamkeit geschenkt, die gesammelten Exemplare auch nicht den einzelnen Inseln zugeordnet. Gould zeigte nicht nur, dass alle Arten eng verwandt (heute als Darwin-Finken zusammengefasst) sind, sondern dass bei diesen Vögeln keine klare Trennung zwischen Arten und Varietäten möglich ist, also keine klaren Artgrenzen bestehen.
Darwins Überlegungen zur Entstehung der Arten waren begleitet von einer breit gefächerten Lektüre in den Bereichen Medizin, Psychologie, Naturwissenschaften, Philosophie, Theologie und politische Ökonomie. Das Ziel Darwins war es, die Entstehung von Arten auf naturwissenschaftliche Grundlagen zu stellen. Insbesondere lehnte er inzwischen die Naturtheologie Paleys ab, in deren Tradition er in Cambridge ausgebildet worden war. Viele von Darwins späteren Experimenten und Argumenten dienten dazu, Paleys "argument from design" zu widerlegen und Anpassungen auf natürliche Ursachen, nicht göttliches Wirken zurückzuführen. Dabei verwendete Darwin häufig die gleichen Beispiele wie Paley und ähnliche Argumente. Philosophisch war Darwin vor allem geprägt durch den englisch-schottischen Empirismus in der Tradition David Humes, aber auch durch Adam Smith, etwa dessen Theorie der moralischen Gefühle. Wissenschaftstheoretisch hatten John Herschel und William Whewell großen Einfluss auf ihn mit ihrer Betonung der Bedeutung von Induktion und Deduktion für die Naturwissenschaften.
Darwin war spätestens im Sommer 1837 von der Veränderlichkeit der Arten überzeugt und begann, Informationen zu diesem Thema zu sammeln. In den folgenden 15 Monaten entstand langsam und schrittweise die Theorie, die er erst 1858/1859 veröffentlichen sollte. Im März 1837 begann Darwin mit der Niederschrift seiner Überlegungen in Notizbüchern, den "Notebooks on Transmutation." Auf S. 36 des ersten Notizbuches, „B“, entwarf er unter der Überschrift "I think" eine erste Skizze von der Entstehung der Arten durch Aufspaltung. Eine wichtige Grundlage für seine Überlegungen war der Gradualismus, wie er ihn aus Lyells "Principles of Geology" kannte. Die Veränderlichkeit der Arten und den Auslesemechanismus "(künstliche Selektion)" kannte Darwin aus der Tier- und Pflanzenzucht.
Als Kristallisationspunkt für die Ausformulierung seiner Selektionstheorie erwies sich das Wachstumsgesetz, wie es Thomas Robert Malthus in seinem "Essay on the Principle of Population" formuliert hatte und den Darwin im September 1838 las. Die Theorie von Malthus geht von der Beobachtung aus, dass die Bevölkerungszahl (ohne Kontrolle oder äußere Beschränkung) exponentiell wächst, während die Nahrungsmittelproduktion nur linear wächst. Somit kann das exponentielle Wachstum nur für eine beschränkte Zeit aufrechterhalten werden und irgendwann kommt es zu einem Kampf um die beschränkten Ressourcen. Darwin erkannte, dass sich dieses Gesetz auch auf andere Arten anwenden ließ und ein solcher Konkurrenzkampf dazu führen würde, dass vorteilhafte Variationen erhalten blieben und unvorteilhafte Variationen aus der Population verschwänden. Dieser Mechanismus der Selektion erklärte die Veränderung und auch die Entstehung von neuen Arten. Damit hatte Darwin eine „Theorie, mit der ich arbeiten konnte“.
Die Zeit in London war die arbeitsreichste in Darwins Leben. Neben seinen umfangreichen Studien zur Evolution gab er die mehrbändige "The Zoology of the Voyage of H.M.S. Beagle" (1838–1843) heraus. Sein zunächst als 3. Band von "The narrative of the voyages of H.M. Ships Adventure and Beagle" (1839) veröffentlichtes Reisebuch war derart erfolgreich, dass es unter dem Titel "Journal of Researches" noch im selben Jahr separat veröffentlicht wurde. Es ist heute noch neben den "Origins" sein meistgelesenes Buch. Darwin verfasste die auf seinen Beobachtungen während der Reise beruhenden geologischen Arbeiten über den Aufbau der Korallenriffe (1842) und Vulkane (1844), die wesentlich zu seiner Reputation als Wissenschaftler beitrugen. Wie sehr Darwin in der Gesellschaft verankert war, zeigen seine Aufnahme in die Royal Society und den Athenaeum Club sowie seine Berufung zum Rat der Geological Society of London und zum Rat der Royal Geographical Society.
Am 29. Januar 1839 heirateten Darwin und seine Cousine Emma Wedgwood (1808–1896), die Tochter seines Onkels Josiah Wedgwood II. Das gemeinsame Vermögen, das sowohl von seinem eigenen Vater als auch vom Vater der Braut stammte, ermöglichte Darwin ein Leben als Privatier. Er investierte das Vermögen in Grundbesitz und später vor allem in Eisenbahnaktien. In der Londoner Zeit kamen die Kinder William Erasmus (1839–1914), Anne (1841–1851) und Mary Eleanor (1842–1842) zur Welt. Mary Eleanor verstarb jedoch bereits nach wenigen Wochen. An William studierte Darwin die Ausdrucksformen des Säuglings, die er später veröffentlichen sollte.
Rückzug nach Down House.
Im November 1842 zog sich die Familie Darwin in das "Down House" in die kleine, südlich von London gelegene Ortschaft Downe zurück. Hier erhoffte sich Darwin mehr Ruhe für seine angeschlagene Gesundheit. Bereits seit seiner Rückkehr von der Beagle-Reise, verstärkt seit 1839, hatten sich immer wieder Krankheitssymptome eingestellt, über deren Ursachen bis heute spekuliert wird. Die Symptome waren Schwächeanfälle, Magenschmerzen, Übelkeit und Erbrechen, erhöhter Puls und Atemprobleme. Darwin lebte daher sehr zurückgezogen, begab sich selten auf Reisen und verließ die Britische Insel zeit seines Lebens nicht mehr. Im September 1843 kam Tochter Henrietta zur Welt, der noch weitere sechs Kinder folgten: George Howard (1845–1912), Elizabeth (1847–1926), Francis (1848–1925), Leonard (1850–1943), Horace (1851–1928) und Charles Waring (1856–1858).
1843 begann seine Freundschaft mit dem Botaniker Joseph Dalton Hooker, der neben Lyell und Thomas Henry Huxley zu seinem stärksten Verbündeten werden sollte. In einem Brief am 11. Januar 1844 gab ihm Darwin erste Hinweise auf seine Evolutionstheorie und schrieb ihm, dass er „entgegen seiner ursprünglichen Auffassung nun beinahe überzeugt [sei], dass die Arten (es ist wie einen Mord zu gestehen) nicht unveränderlich“ seien. Hooker antwortete, dass seiner Meinung nach „eine graduelle Veränderung der Arten“ stattfinde und er, Hooker, auf Darwins Ansatz gespannt sei, da er bisher noch keine zufriedenstellende Erklärung gehört habe. Darwin hatte seine Überlegungen bereits 1842 in einer 35-seitigen Skizze dargelegt und arbeitete diese 1844 zu einem rund 230-seitigen Essay aus, den jedoch nur seine Frau Emma zu lesen bekam und den sie im Falle seines Todes veröffentlichen sollte. Beide Texte stimmten in Inhalt und Grundstruktur bereits mit dem 1859 veröffentlichten Buch überein. War die Transmutationslehre bis jetzt vorwiegend auf sozialistische, revolutionäre und teilweise medizinische Kreise beschränkt geblieben, hielt sie ab 1844 Einzug in bürgerliche Kreise: mit dem von Robert Chambers anonym publizierten Werk "Vestiges of the Natural History of Creation," das – brillant, aber journalistisch geschrieben – rasch zum Bestseller wurde, in wissenschaftlichen Kreisen jedoch nicht ernst genommen wurde.
Die nächsten Werke, die Darwin veröffentlichte, waren die Geologie der Vulkaninseln "(Geological observations on the volcanic islands visited during the voyage of H.M.S. Beagle)" 1844 und die Geologischen Beobachtungen in Südamerika "(Geological observations on South America)" 1846. Damit waren die Sammlungen seiner Weltreise nach zehn Jahren aufgearbeitet, mit Ausnahme eines seltsamen Exemplars der Rankenfußkrebse. Aus der Beschreibung dieser Art entwickelte sich eine acht Jahre dauernde Bearbeitung aller bekannten lebenden und fossilen Arten der gesamten Teilklasse Cirripedia. Diese Arbeit, die er in zwei dicken Bänden über die lebenden und zwei schmalen Bänden über die fossilen Vertreter publizierte, machte ihn zu einem anerkannten Taxonomen und brachtem im 1853 die Royal Medal ein. Er erhielt Sammlungen aus ganz Europa, den USA und allen britischen Kolonien. Darwin selbst erkannte während der Arbeit die Bedeutung der Variation und des Individuums. In dieser Zeit entwickelte sich Hooker zum einzigen Ansprechpartner zum Thema Evolution und 1847 gab Darwin ihm seinen Essay zu lesen.
1849 begab sich Darwin zu einer 16-wöchigen Wasserkur nach Malvern in die Behandlung des Arztes James Gully, die seine Gesundheit wieder wesentlich besserte. In den folgenden Jahren benötigte Darwin immer wieder Kuren, um sich zu erholen, und er setzte die kalten Waschungen auch zu Hause fort. 1851 erkrankte seine Lieblingstochter Annie schwer und starb am 23. April 1851. Ihr Tod zerstörte die letzten Reste seines Glaubens an eine moralische, gerechte Welt, der seit seiner Rückkehr von der Beagle-Reise bereits stark geschwunden war. Darwin bezeichnete sich in seinem späteren Leben als Agnostiker.
Nach Beendigung der Arbeit an den Rankenfußkrebsen nahm Darwin 1854 die Arbeit an der Evolutionstheorie wieder auf. In diesen Jahren führte er unzählige Experimente durch. Unter anderem versuchte er, eine Lösung für das Problem der Besiedlung von Inseln zu finden. Dafür untersuchte er beispielsweise die Überlebensfähigkeit von Pflanzensamen in Salzwasser und zog Vogelkot und Gewölle von Greifvögeln als Ausbreitungsmedien in Betracht. Für das Thema der Variation wandte er sich den Tierzüchtern zu, sammelte von diesen Informationen und begann selbst, Tauben zu züchten, um künstliche Selektion in der Praxis zu untersuchen.
Charles Lyell, dem Darwin vieles über seine Ansichten mitteilte, drängte Darwin 1856 dazu, seine Erkenntnisse zu publizieren, damit ihm nicht jemand anders zuvorkomme. Grund für dieses Drängen war ein Aufsatz von Alfred Russel Wallace, "On the Law which has regulated the introduction of New Species" (1855), dessen Tragweite Darwin selbst aufgrund der verklausulierten Sprache Wallace’ verkannte. Darwin begann nun, seine Erkenntnisse in einem Manuskript niederzuschreiben, das den Titel "Natural Selection" trug. Die Arbeit zog sich aufgrund des umfangreichen Materials hin, im März 1858 waren zehn Kapitel, rund zwei Drittel des geplanten Umfangs, fertig. In der Zwischenzeit hatte er in Asa Gray in Harvard einen weiteren Korrespondenzpartner gefunden und ihm in einem Brief vom 5. September 1857 eine Zusammenfassung seiner Theorie dargelegt. Im Juli 1857 wurde Darwin zum Friedensrichter gewählt und im selben Jahr von der Deutschen Akademie der Naturforscher Leopoldina zum Mitglied ernannt.
1859 hatte Darwin abgeschätzt, dass es etwas mehr als 300 Millionen Jahre gedauert haben müsse, bis ein 500 Fuß hohes Kalkstein-Kliff im Süden Englands durch das Meer abgetragen wurde. Das Gestein selbst musste also wesentlich älter sein. Dies wurde von Lord Kelvin kontrovers als „vage Beobachtungen“ bezeichnet, da Kelvin mittels thermodynamischer Berechnungen aus Abkühlungszeiträumen der Erde – noch vor der Entdeckung der Radioaktivität – auf ein Erdalter von 20 bis 400 Millionen Jahre schloss.
Über die Entstehung der Arten.
Wie berechtigt Lyells Drängen auf Publikation war, zeigte sich, als Darwin im Juni 1858 Post von Wallace von der Molukken-Insel Ternate bekam mit einem Manuskript namens "On the Tendency of Varieties to depart indefinitely from the Original Type," das im Wesentlichen die gleichen Erklärungsmuster wie Darwins eigene Arbeit enthielt. Es verwendete den Begriff "struggle for existence" und stützte sich auf die Arbeiten von Lyell, Malthus, Lamarck und die "Vestiges" von Robert Chambers. Wallace bat Darwin um Weiterleitung des Manuskripts an Lyell, ohne jedoch eine mögliche Veröffentlichung zu erwähnen. Obwohl Darwin um seine Priorität bei der Veröffentlichung fürchtete, leitete er das Manuskript weiter. Da sein jüngster Sohn Charles Waring am 23. Juni an Scharlach erkrankte und wenige Tage später starb, überließ Darwin die Angelegenheit seinen Freunden Lyell und Hooker. Diese fanden die Lösung in einem "gentlemanly agreement," das eine gemeinsame Vorstellung der Arbeiten Wallaces und Darwins beinhaltete, die am 1. Juli 1858 in einer Sitzung der Linnean Society stattfand. Weder die Verlesung noch der folgende Druck des Vortrages führte zu wesentlichen Reaktionen.
Anstatt sein Buch "Natural Selection" zu beenden, was zu lange gedauert hätte, entschloss sich Darwin, eine Zusammenfassung des Buches zu publizieren. Aus dem geplanten Aufsatz wurde letztendlich wiederum ein Buch von rund 155.000 Wörtern. Hooker las und korrigierte das Manuskript. Der Verleger John Murray akzeptierte auf Vermittlung Lyells das Manuskript ungesehen und übernahm sogar die Kosten von 72 Pfund, die allein Darwins Änderungen in den Korrekturfahnen verursachten. Die Erstauflage wurde von den ursprünglich geplanten 500 auf 1250 erhöht. Am 22. November 1859 ging die vollständig vorbestellte Auflage von "On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life" "(Die Entstehung der Arten)" an den Handel und kam am 24. November in den Verkauf. Im Buch legte Darwin im Wesentlichen fünf voneinander unabhängige Theorien dar:
Die Tatsache der Evolution wurde in den nächsten Jahren in Wissenschaftskreisen praktisch universell akzeptiert, sehr viel weniger allerdings die natürliche Selektion, mit der sich selbst Darwins Freunde Lyell und Asa Gray nicht anfreunden konnten. John Herschel kritisierte sie scharf als „law of the higgledy-piggledy“ („Regel von Kraut und Rüben“). Karl Ernst von Baer stellte sie sogar in die Nähe eines Wissenschaftsmärchens. Darwins väterlicher Freund Henslow lehnte die Evolution ab, blieb Darwin aber freundschaftlich verbunden. Sedgwick und Richard Owen veröffentlichten hingegen ablehnende Rezensionen. Darwins Freunde unterstützten das Buch mit mehreren Rezensionen, so Huxley in der "Times."
Im Juni 1860 kam es an der Universität Oxford während einer Sitzung der British Association for the Advancement of Science zwischen dem Unterstützer der Evolutionsgedanken Thomas Huxley und einem ihrer erklärten Gegner, dem Bischof von Oxford Samuel Wilberforce, in Abwesenheit von Darwin zu einem erbitterten Streitgespräch. In dessen Verlauf argumentierten Wilberforce und Darwins ehemaliger Kapitän Robert FitzRoy gegen, Huxley sowie Joseph Dalton Hooker für die Theorie. Beide Seiten beanspruchten den Sieg in der Debatte für sich.
Die weiteren Bücher nach "Über die Entstehung der Arten".
In den nächsten Jahren veröffentlichte Darwin noch drei bedeutsame Bücher, in denen er Aspekte der Evolutionstheorie wesentlich detaillierter ausarbeitete als im Buch "Über die Entstehung der Arten."
In "The Variation of Animals and Plants under Domestication" („Das Variieren der Thiere und Pflanzen im Zustande der Domestication“), das Ende Januar 1868 erschien, legte er all das von ihm in den letzten Jahrzehnten gesammelte Material vor, das die Variation, die Veränderlichkeit, von Tieren und Pflanzen unter dem Einfluss des Menschen zeigt. In diesem Buch präsentierte er auch seine Spekulationen über einen Vererbungsmechanismus, nämlich die Pangenesistheorie. Sie stieß selbst bei seinen Freunden auf Ablehnung und stellte sich als falsch heraus.
Die Abstammung des Menschen zu erörtern, hatte Darwin bis zu diesem Zeitpunkt immer vermieden. Erst in dem 1871 erschienenen Buch "The Descent of Man, and Selection in Relation to Sex (Die Abstammung des Menschen und die geschlechtliche Zuchtwahl)" legte Darwin dar, was zu diesem Zeitpunkt bereits weithin diskutiert wurde und was bereits Huxley ("Evidence as to Man’s Place in Nature," 1863) und Ernst Haeckel öffentlich vertreten hatten: die Verwandtschaft des Menschen mit dem Affen, mit dem er gemeinsame Vorfahren teilt. Die von Darwin als Erstem ausgesprochene Vermutung, der Mensch habe sich in Afrika entwickelt, erwies sich viel später als richtig. Darwin führte auch die geistigen Eigenschaften des Menschen auf evolutionäre Vorgänge zurück. Weiterhin betonte er die Einheit des Menschen als eine einzige Art und sprach sich dagegen aus, die Rassen (oder Subspezies) des Menschen als unterschiedliche Arten aufzufassen (im 7. Kapitel: „Über die Rassen des Menschen“). Die Entstehung dieser Menschenrassen erklärte er durch sexuelle Selektion. Im zweiten Teil des Buches konzentrierte er sich auf die sexuelle Selektion, die Auswahl von Partnern durch das andere Geschlecht. Mit dieser Theorie konnte Darwin Phänomene wie das Hirschgeweih erklären, die es aufgrund der natürlichen Selektion nicht geben dürfte. Das Buch war ebenfalls eine Antwort auf das Buch "The Reign of Law" des liberalen Duke of Argyll, in dem dieser, von Owen beeinflusst, Darwins natürliche Selektion angegriffen und den Ursprung der Naturgesetze auf Gott zurückgeführt hatte.
1872 folgte "On the Expression of the Emotions in Man and Animals (Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren)," in dem Darwin darlegte, dass auch die Gefühle und deren Ausdrucksweise bei Mensch und Tieren gleich und wie äußere Merkmale durch Evolution entstanden sind. Das Buch war zugleich eine Argumentation gegen Charles Bell und dessen Buch "Anatomy and Physiology of Expression," in dem dieser die Meinung vertrat, dass die Gesichtsmuskeln des Menschen zu dem Zweck geschaffen wurden, seine Gefühle auszudrücken. Im selben Jahr kam noch die sechste und zugleich letzte Auflage von "Entstehung der Arten" heraus. In jeder Auflage hatte Darwin zahlreiche Änderungen durchgeführt, Fehler korrigiert und war auf Kritik eingegangen.
1874 wurde Darwin in die American Academy of Arts and Sciences gewählt.
Das letzte Jahrzehnt: Botanik.
In seinem letzten Lebensjahrzehnt konzentrierte sich Darwins Publikationstätigkeit auf botanische Themen. Darwin führte zu diesem Zweck zahlreiche Versuche durch, bei denen ihn besonders sein Sohn Francis unterstützte.
"The Movements and Habits of Climbing Plants (Über die Bewegungen der Schlingpflanzen)" von 1867 (erweiterte 2. Auflage 1875) und das mit 592 Seiten sehr umfangreiche Buch "The Power of Movement in Plants (Das Bewegungsvermögen der Pflanzen)" von 1880 sind grundlegende Werke der Pflanzenphysiologie. Bei der Beobachtung der Reizbarkeit von Hafer-Koleoptilen postulierte er einen Botenstoff (Hormon), der Jahrzehnte später als Auxin identifiziert werden sollte. Er untersuchte die Reaktion der Wurzelspitzen auf Reize und setzte dabei die Wurzelspitze der Pflanzen in Analogie zu den Gehirnen von Niederen Tieren, ein Gedanke, der im 21. Jahrhundert als "Pflanzenintelligenz" im Umkreis der kontrovers diskutierten Pflanzenneurobiologie wieder zu Ehren kam. Darwin entdeckte die Circumnutation, die endogen gesteuerte Kreisbewegung vieler Pflanzen. In seinem Buch "Insectivorous Plants (Insectenfressende Pflanzen)" von 1875 konnte er nachweisen, dass manche Pflanzen tatsächlich fleischfressend sind.
In drei Arbeiten beschäftigte er sich mit Blütenbiologie: In "On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing (Über die Einrichtungen zur Befruchtung Britischer und ausländischer Orchideen durch Insekten und über die günstigen Erfolge der Wechselbefruchtung)" (1862) zeigte er, dass der Blütenbau der Orchideen dazu dient, eine möglichst hohe Rate an Fremdbestäubung zu erreichen. Er beschrieb die Täuschblumen wie etwa der Fliegen-Ragwurz, die Grabwespenweibchen nachahmt und damit die Männchen anlockt. Für die madagassische Orchidee "Angraecum sesquipedale" mit einem 25 cm langen Nektarsporn sagte er einen bestäubenden Schmetterling mit einem ebenso langen Rüssel vorher, der erst Jahre später entdeckt werden sollte. Seine Veröffentlichung "The effects of cross and self fertilisation in the vegetable kingdom (Die Wirkungen der Kreuz- und Selbst-Befruchtung im Pflanzenreich)" (1876) war das Ergebnis umfangreicher Bestäubungsexperimente seit 1866, die er teilweise über zehn Pflanzengenerationen hinweg durchführte. Fremdbestäubung führte in den meisten Fällen zu stärkeren Nachkommen als Selbstbestäubung. In "The different forms of flowers on plants of the same species (Die verschiedenen Blüthenformen an Pflanzen der nämlichen Art)" (1877) zeigte er, dass die unterschiedlichen Blütenformen mancher Pflanzen ebenfalls dazu dienen, Fremdbestäubung sicherzustellen, etwa bei Heterostylie. Das Buch war eines der wenigen, die Darwin einer Person widmete: Asa Gray.
Das letzte Buch Darwins behandelte ein Thema, das ihn über 40 Jahre beschäftigt hatte: die Tätigkeit der Regenwürmer. "The formation of vegetable mould, through the action of worms, with observations on their habits (Die Bildung der Ackererde durch die Tätigkeit der Würmer)" kam 1881 heraus, wenige Monate vor Darwins Tod. Er postulierte hier eine zentrale Rolle der Regenwürmer in der Boden- und Humusbildung. In einem 30 Jahre dauernden Freilandexperiment zeigte er, dass durch die Arbeit der Regenwürmer Kalkstückchen von der Oberfläche bis 18 cm tief in den Boden eingearbeitet werden. Er widerlegte auch die damals weit verbreitete Meinung, Regenwürmer seien schädlich für den Pflanzenbau. Mit diesem Werk war Darwin einer der Wegbereiter der Bodenbiologie.
Auf Darwins Initiative hin wurde der "Index Kewensis" geschaffen, dessen weitere Finanzierung er testamentarisch regelte.
Charles Darwin starb am 19. April 1882 im Alter von 73 Jahren in seinem Haus in Downe. Er wurde am 26. April in der Westminster Abbey beigesetzt, zu Füßen des Monuments für Sir Isaac Newton und neben Sir John Herschel. Einer seiner Sargträger war Alfred Russel Wallace. Die Errichtung einer Statue im neuen Natural History Museum musste bis 1885 warten, bis zur Pensionierung Richard Owens.
Rezeption und Nachwirkung.
Charles Darwin gilt durch seine wesentlichen Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler überhaupt und ist durch diese Leistung auch im Bewusstsein der Öffentlichkeit immer noch stark präsent. So wurde Darwin 1992 in einer Liste der einflussreichsten Personen in der Geschichte auf dem 16. Platz gereiht, und in Großbritannien wurde er auf den vierten Platz der 100 Greatest Britons gewählt.
Heute stellt die von Darwin mitbegründete und seitdem ständig weiterentwickelte Evolutionstheorie für die Biologie das grundlegende Paradigma dar: Durch sie werden alle biologischen Teildisziplinen, wie Zoologie, Botanik, Verhaltensforschung, Embryologie und Genetik, „unter einem einheitlichen Dach“ versammelt. Theodosius Dobzhansky formulierte dies 1973 prägnant in dem vielzitierten Satz:
Darwins Werke, allen voran "Entstehung der Arten" und "Abstammung des Menschen," lösten schon kurz nach ihrem Erscheinen eine Flut von Rezensionen und Reaktionen aus. Darwins Theorien berührten nicht nur biologische Fragestellungen, sie hatten auch „weitreichende Implikationen für Theologie, Philosophie und andere Geisteswissenschaften sowie für den Bereich des Politischen und Sozialen“. Darwins Theorien wurden nicht nur in Wissenschaftskreisen, sondern auch vom Klerus und der breiten Öffentlichkeit diskutiert. Themen waren beispielsweise das Teleologieproblem, die Rolle eines Schöpfers, das Leib-Seele-Problem oder die Stellung des Menschen in der Natur. Dass der Mensch keine eigenständige Schöpfung ist, sondern ein Evolutionsprodukt wie Millionen anderer Arten, steht im Widerspruch zur christlichen Lehre sowie vielen philosophischen Schulen. Sigmund Freud bezeichnete die Evolutionstheorie als eine der drei Kränkungen der Eigenliebe der Menschheit.
Wichtige Teile seiner Theorie hatten sich rasch durchgesetzt: die Tatsache der Evolution an sich und die gemeinsame Abstammung. Der Mechanismus der Selektion blieb jedoch lange umstritten und nur einer von mehreren diskutierten Mechanismen. Beim ersten großen Jubiläum anlässlich Darwins 100. Geburtstag 1909 gab es fast niemanden, der die Selektionstheorie unterstützte. Diese Zeit wurde später von Julian Huxley als „Finsternis des Darwinismus“ "(eclipse of Darwinism)" bezeichnet. Erst die synthetische Evolutionstheorie, auch als "zweite darwinsche Revolution" bezeichnet, verhalf auch der Selektionstheorie zum Durchbruch. Im 20. Jahrhundert entstanden unter dem Einfluss Darwins neue Disziplinen wie die Verhaltensforschung und die Soziobiologie, deren Anwendung auf den Menschen in der Philosophie als „evolutionäre Ethik“ diskutiert wird. Die Evolutionäre Erkenntnistheorie geht letzten Endes auf Darwin zurück und wichtige Elemente der Evolutionsökonomik wurden von seinem Werk beeinflusst.
Eine missbräuchliche Umdeutung und Übertragung ins Politische erfuhren Darwins Theorien in der Ideologie des Sozialdarwinismus. Diese unter anderem auf einem naturalistischen Fehlschluss beruhende Übertragung lässt sich weder zwangsläufig aus Darwins Werk ableiten, noch entspricht sie im Entferntesten Darwins Welt- und Menschenbild.
Ehrungen.
Nach Darwin wurden u. a. die Darwinfinken, die eozäne Primatengattung "Darwinius," der Nasenfrosch "Rhinoderma darwinii" und die südamerikanische Berberitze "Berberis darwinii" benannt. Außerdem tragen folgende Orte seinen Namen: Charles-Darwin-Nationalpark (Australien), Charles Darwin University (Australien), Darwin College in Cambridge (England), Darwin (Falklandinseln), Darwin (Australien), Darwin-Gletscher und Mount Darwin (Kalifornien), Isla Darwin, Darwin Island (Antarktis), Darwin Sound (Kanada), Darwin Sound (Feuerland), Monte Darwin (Feuerland), Mount Darwin (Tasmanien), Cordillera Darwin (Chile) sowie Kap Darwin (Ostantarktis).
Der Asteroid (1991) Darwin, der Mondkrater Darwin und ein Marskrater sind ebenfalls nach ihm benannt.
Der Zoo Rostock eröffnete 2012 das "Darwineum," eine Mischung aus Zoo und Museum, in welchem die Evolution erläutert wird. |
885 | 233869238 | https://de.wikipedia.org/wiki?curid=885 | Codex Manesse | Der Codex Manesse (auch Manessische Liederhandschrift oder Manessische Handschrift, nach dem jeweiligen Aufbewahrungsort auch als Große Heidelberger Liederhandschrift oder Pariser Handschrift bezeichnet) ist die umfangreichste und berühmteste deutsche Liederhandschrift des Mittelalters. So benannt wurde sie von dem Schweizer Gelehrten Johann Jakob Bodmer nach einer umfangreichen Liedersammlung der Schweizer Patrizierfamilie Manesse. Von Germanisten wird die Sammlung seit Karl Lachmann kurz mit dem Sigel "C" bezeichnet. Seit 1888 wird sie wieder in der Universitätsbibliothek Heidelberg aufbewahrt (Signatur: UB Heidelberg, Cod. Pal. germ. bzw. cpg 848).
Der Kodex besteht aus 426 beidseitig beschriebenen Pergamentblättern im Format 35,5 × 25 cm, die von späterer Hand paginiert wurden. Insgesamt befinden sich in ihr 140 leere und zahlreiche nur zum Teil beschriebene Seiten. Der Text wurde nicht nur mehrfach in verbesserten historisch-kritischen Ausgaben herausgegeben, sondern – im Unterschied zu anderen Handschriften – auch zeichengenau abgedruckt (s. Bibliographie).
Die Manessische Liederhandschrift enthält dichterische Werke in mittelhochdeutscher Sprache. Ihr Grundstock wurde um 1300 in Zürich hergestellt, wahrscheinlich im Zusammenhang mit der Sammeltätigkeit der Zürcher Patrizierfamilie Manesse. Mehrere Nachträge kamen bis zirka 1340 hinzu. Der Text stammt von 10–12 verschiedenen Schreibern, vielleicht aus dem Umfeld des Großmünsters in Zürich. Der Kodex gilt als repräsentative Summe des mittelalterlichen Laienliedes und bildet zudem für den „nachklassischen“ Minnesang die Haupt- und weithin die einzige Quelle. Die insgesamt 138 Miniaturen, die die Dichter in idealisierter Form bei höfischen Aktivitäten darstellen oder auch bestimmte schon damals bekanntere Stellen aus ihrem Werk illustrieren (wie etwa Walthers von der Vogelweide Reichston „Ich saz ûf eime steine und dahte bein mit beine“), gelten als bedeutendes Dokument oberrheinischer gotischer Buchmalerei. Eine weitere Miniatur ohne Text ist nur vorgezeichnet. Ohne Miniatur blieb Walther von Breisach. Für das Werk lieferten insgesamt vier Künstler die Miniaturen: 110 Illustrationen entfallen auf den Maler des Grundstocks, 20 auf den ersten Nachtragsmaler, vier auf den zweiten und drei (plus eine Vorzeichnung) auf den dritten.
Inhalt und Aufbau.
Die Handschrift beginnt mit einem vom Grundstockschreiber in einer Kolumne bis Nr. CXIIII geschriebenen Inhaltsverzeichnis, das teilweise durch Nachtragschreiber mit seitlichen Ergänzungen versehen wurde.
Die in gotischer Buchschrift (von mehreren Händen) geschriebene Handschrift überliefert die mittelhochdeutsche Lyrik in ihrer gesamten Gattungs- und Formenvielfalt (Lieder, Leichs, Sangsprüche) von den Anfängen weltlicher Liedkunst (Der Kürenberger um 1150/60) bis zur Zeit der Entstehung der Handschrift (Johannes Hadlaub um 1300 und darüber hinaus). Melodienotationen zu den Texten fehlen. Der Kodex enthält 140 Dichtersammlungen, die jeweils durch ganzseitige Autorbilder (oft mit Wappen und Helmzier, vgl. Abbildung) eingeleitet werden und, geordnet nach Tönen, insgesamt rund 6000 Strophen umfassen. Dabei handelt es sich sowohl um Minne- als auch um didaktische und religiöse Lyrik. Die Anordnung der Liedkorpora orientiert sich anfangs, wie in der Weingartner Liederhandschrift und in der (verlorenen) gemeinsamen Vorlage *BC, am sozialen Stand der Autoren: An der Spitze thronen, als vornehmste Sänger, die staufischen Herrscher Kaiser Heinrich VI. und König Konrad IV., es folgen Fürsten, "herren" (unter anderen Walther von der Vogelweide) und schließlich "meister".
Der Codex Manesse ist das Resultat eines komplexen, nie förmlich abgeschlossenen Sammelvorgangs: Weder die Texte noch die 138 Bilder wurden in einem Zug eingetragen, und manches ist später neu geordnet worden; innerhalb der Autorenkorpora sind Lücken geblieben, etwa ein Sechstel der Seiten ist für Nachträge freigelassen. Unterschieden werden der Grundstock von etwa 110 Autoren (niedergeschrieben zu Beginn des 14. Jahrhunderts) und mehrere Nachtragsschichten, die bis zur Mitte des Jahrhunderts weitere 30 Autoren hinzufügten. Unverkennbar ist die Absicht, die Liedkunst, auch die zeitgenössische, möglichst vollständig zu sammeln, jedenfalls, soweit sie mit Namen verbunden war oder sich verbinden ließ. Es gab auch Texteinbußen durch Blattverlust. Die Strophenanfänge sind mit lied- und tonweise wechselnden blauen und roten Initialen geschmückt; teilweise finden sich Randverzierungen.
Abweichend vom Standardverfahren der Handschrift, jeweils ein Textkorpus einem Autor und einer Miniatur zuzuordnen, finden sich bei „Klingesor von vngerlant“ nicht nur dessen Gedichte (freilich gab es den Zauberer Klingsor aus Ungarn nicht wirklich, und seine Strophen sind fingiert), sondern anthologieartig auch Gedichte von fünf weiteren Minnesängern (die aber auch ihren eigenen Haupteintrag haben). Dies geschah deshalb, weil hier der Sängerkrieg auf der Wartburg (vermutlich 1206) dargestellt werden sollte: Das Gastgeber-Ehepaar, Landgraf Hermann I. von Thüringen und seine Frau Sophie, die Schwiegereltern der Heiligen Elisabeth, thronen über den sechs auftretenden Sängern.
Entstehung.
Einblick in die Vorstufen bzw. in die Entstehung der Handschrift gibt der Zürcher Dichter Johannes Hadlaub (Hauskauf: 4. Januar 1302; † 16. März, vermutlich vor 1340). Er gehörte zum Bekanntenkreis der Patrizierfamilie Manesse, die sich durch antiquarische Sammelleidenschaft und ein Interesse für den staufischen Minnesang auszeichnete.
In seinem in der Handschrift enthaltenen "Lobpreis der Manessen" (fol. 372r) besingt der Dichter die auf Vollständigkeit angelegte Sammlung von Liederbüchern durch Rüdiger Manesse d. Ä. (volljährig 1252, † 1304), eines der einflussreichsten Zürcher Ratsmitglieder, und durch dessen Sohn Johannes, den Kustos der Propstei († 1297). Wenn auch eine unmittelbare Beteiligung Rüdiger Manesses an der Herstellung der „Manessischen Handschrift“ nicht explizit bezeugt ist, so dürften doch die von Hadlaub erwähnten "liederbuochen" der Familie Manesse die Grundlage des berühmten Kodex darstellen. Möglicherweise hat Hadlaub auch selbst maßgeblich an der Vorbereitung und Ausführung des Grundstocks mitgewirkt. Hierauf deutet die exponierte Stellung seines Œuvres in C hin, die durch eine Prunkinitiale markiert wird.
Hadlaub erwähnt in anderen Liedern mehrere führende Zürcher Stadtbürger, so die Fürstäbtissin Elisabeth von Wetzikon, den Grafen von Toggenburg, den Bischof von Konstanz sowie die Äbte von Einsiedeln und Petershausen. Man nahm früher an, dass dieser Personenkreis wegen seines Interesses an Literatur oder der Teilnahme am „literarischen Leben“ möglicherweise als eine Art Förderzirkel im Umfeld der Manessefamilie anzusehen sei, der bei der Entstehung der Sammlung eine Rolle gespielt haben könnte. Vermutlich ist dieser sog. „literarische Manessekreis“ aber eine Fiktion. Nach Max Schiendorfer fingiert Hadlaub idealtypische Lyrik-Situationen und benutzt die prominenten politischen Namen, um dem Inhalt seiner Lieder einen Anschein von Realität zu verleihen.
Besitzgeschichte.
Der Codex Manesse hatte eine sehr wechselvolle Geschichte.
In wessen Besitz die Handschrift im Jahrhundert ihrer Entstehung war, ist nicht bekannt. Möglicherweise befand sie sich schon in der ersten Hälfte des 15. Jahrhunderts nicht mehr in Zürich, sonst hätte damals im Elsass oder in Württemberg kaum eine (Gesamt?-)Kopie angefertigt werden können.
Wenn Gottfried Keller 1877 in der Novelle "Der Narr auf Manegg" eine mögliche Gefahr für die Handschrift beim Brand der Burg Manegg von 1409 schildert, ist dies reine literarische Fiktion.
Immerhin beachtenswert erscheint ein Hinweis von Johann Jakob Rüeger (1548–1606) in seiner Chronik von Schaffhausen, er habe das "alt pergamentin Buch" auf Schloss Randegg gesehen und auch ausgeliehen; seine Beschreibung passt jedenfalls genau, ist dennoch bis heute nicht als Beschreibung des Kodex mit letzter Sicherheit nachgewiesen.
Um 1575/80 muss der Kodex im Besitz eines flämischen Sammlers gewesen sein, der sich vor allem für die Adelswappen interessierte, denn er ließ Wappen und Helmzierden heraldisch fachkundig abzeichnen, möglicherweise auch aus Anlass des Verkaufs der Handschrift. Wenig später erscheint das Liederbuch in der Schweiz im Nachlass des Freiherrn Johann Philipp von Hohensax († 1596), der von 1576 bis 1588 Ämter in den Niederlanden innegehabt hatte und den Kodex in dieser Zeit erworben haben könnte. Seine engen Verbindungen zum Pfalzgrafenhof in Heidelberg lassen es jedoch auch möglich erscheinen, dass Hohensax den Kodex dort vor 1594 entliehen und in die Schweiz mitgenommen hatte. Sicher ist nur, dass der Pfalzgraf von Zweibrücken und der Heidelberger Gelehrte Marquard Freher nach dem Tod des Freiherrn jahrelang nichts unversucht ließen, um (wieder?) in den Besitz des Liederbuchs zu gelangen.
1607 kam die Handschrift – unter anderem auf Betreiben des Schweizer Humanisten Melchior Goldast – nach Heidelberg zurück. Goldast war auch der erste wissenschaftliche Benutzer; er veröffentlichte 1604 mehrere didaktische Gedichte aus dem Kodex. 15 Jahre lang gehörte die Handschrift nun zur berühmten Büchersammlung am kurfürstlichen Heidelberger Hof, der Bibliotheca Palatina. 1622 während des Dreißigjährigen Krieges konnte die Handschrift vor der Eroberung Heidelbergs durch die Truppen der Katholischen Liga unter Tilly offensichtlich in Sicherheit gebracht werden, da sie nicht wie der Großteil der Bibliotheca Palatina als Kriegsbeute nach Rom verbracht wurde. Es ist zu vermuten, dass der „Winterkönig“ Friedrich V. sie zusammen mit den wertvollsten Familienschätzen in sein Exil nach Den Haag mitnahm. Seine Witwe Elisabeth Stuart geriet nach 1632 jedoch mehr und mehr in wirtschaftliche Bedrängnis, so dass womöglich der Verkauf des Erbstücks den Kodex einige Jahrzehnte später in die Privatbibliothek des französischen Gelehrten Jacques Dupuy († 17. November 1656) brachte. Dieser vermachte seine Sammlung dem König von Frankreich.
Somit befand sich die Liederhandschrift seit 1657 im Besitz der Königlichen Bibliothek in Paris (der heutigen Bibliothèque nationale de France), wo sie Jacob Grimm 1815 entdeckte. Seit diesem Fund gab es vielfältige Bemühungen, die Handschrift wieder nach Deutschland zurückzuholen. Aufgrund eingetretener Verjährung des Eigentumsanspruchs der Bibliotheca Palatina war dies nur durch einen Kauf oder Tausch möglich. Letzteren bewerkstelligte 1888 der Straßburger Buchhändler Karl Ignaz Trübner, so dass die berühmteste deutsche Handschrift unter großer Anteilnahme der Bevölkerung nach Heidelberg zurückkehren konnte, wo sie bis heute verwahrt wird. Der Erwerb von der Pariser Bibliothek unter ihrem Direktor Léopold Delisle erfolgte im Tausch gegen eine größere Zahl französischer Handschriften, die in den 1840er Jahren aus französischen Bibliotheken entwendet worden waren und die Trübner von Lord Bertram Ashburnham, 5. Earl of Ashburnham (1840–1913), kaufte, der die teilweise unrechtmäßig erworbene Handschriftensammlung seines Vaters veräußern wollte. Den Codex Manesse erhielt zunächst die Berliner Reichsregierung, die die Handschrift dann wieder der Universitätsbibliothek Heidelberg zuwies. Zur Abwicklung des Erwerbs hatte ein kaiserlicher Dispositionsfonds Trübner die erhebliche Summe von 400.000 Goldmark (zirka 7 Mio. Euro) zur Verfügung gestellt.
Ausstellungen und Faksimiles.
Der Original-Kodex kann aus konservatorischen Gründen nur sehr selten im Rahmen von Ausstellungen gezeigt werden. Nachdem bereits 1887 Franz Xaver Kraus anlässlich der 500-Jahr-Feier der Heidelberger Universität (1886) in nur 84 Exemplaren eine rasch vergriffene Faksimileausgabe im Lichtdruck herausgegeben hatte, edierte 1925 bis 1927 der Leipziger Insel-Verlag (Lichtdruck der Kunstanstalt Albert Fritsch, Berlin) ein Faksimile in 320 Exemplaren, wozu das Original mit einem Sonderzug nach Leipzig gebracht wurde; ein Exemplar dieses Faksimiledrucks wird ständig im Foyer des Obergeschosses der Heidelberger Universitätsbibliothek präsentiert.
Ein neues, ebenfalls komplettes Faksimile des Kodex erschien 1974 bis 1979 in 750 Exemplaren, wiederum im Insel-Verlag als mehrfarbiger Lichtdruck von Ganymed – Graphische Anstalt für Kunst und Wissenschaft –, Berlin/Hannover und Kunstanstalt Max Jaffe, Wien. Vorlage war hier nicht das Original, sondern das Faksimile von 1927. 1934 erschienen, herausgegeben von Anton Kippenberg, 12 faksimilierte Blätter der Handschrift in einer eigens dafür hergestellten Leinenmappe unter dem Titel "Die Minnesinger" im Insel-Verlag zu Leipzig. In der Insel-Bücherei erschienen erstmals 1933 (IB 450) und 1945 (IB 560) je 24 Bilder der Handschrift in verkleinertem Format auch für ein breiteres Publikum, 1988 legte der Insel-Verlag einen Bildband mit allen Miniaturen auf.
1988 veranstaltete die Universität Heidelberg auch eine umfassende Ausstellung zum Codex Manesse. Der Katalog zur Ausstellung dokumentiert die Handschrift selbst, ihre Entstehung, Geschichte und Bedeutung äußerst detailliert.
Im Jahre 1991 kehrte der Codex Manesse für kurze Zeit zu seinen Zürcher Wurzeln zurück (Ausstellung "Die Manessische Liederhandschrift in Zürich" im schweizerischen Landesmuseum Zürich). Erst 2006 ging das Original wieder auf Reisen, um in der 29. Ausstellung des Europarates "Heiliges Römisches Reich Deutscher Nation" im Kulturhistorischen Museum Magdeburg gezeigt zu werden. Anlässlich dieser öffentlichen Präsentation des Werkes veröffentlichte die Capella Antiqua Bambergensis 2006 ein Musik-Hörspiel, das die Entstehungsgeschichte des Codex Manesse in fiktionalisierter Form erzählt. Anlässlich des 625-jährigen Bestehens der Heidelberger Universität fand vom 25. Oktober 2010 bis zum 20. Februar 2011 in der Universitätsbibliothek eine Ausstellung statt, in der die Liederhandschrift erstmals seit 2006 wieder im Original und als Faksimile zu sehen war.
Seit 2008 steht eine digitalisierte Fassung frei zugänglich zur Ansicht und zum Download auf den Seiten der Universitätsbibliothek Heidelberg im Netz.
Vom 9. September bis Ende Oktober 2020 wurde der Codex im Landesmuseum Mainz in der großen rheinland-pfälzischen Landesausstellung „Die Kaiser und die Säulen ihrer Macht“ ausgestellt.
Weltdokumentenerbe.
Im Mai 2023 nahm die UNESCO den Codex Manesse in ihrer Liste des Weltdokumentenerbes auf.
Miniaturen auf Briefmarken.
Miniaturen aus dem Codex Manesse zierten Briefmarkenserien des Fürstentums Liechtenstein (1961–1963 und 1970), der Deutschen Bundespost (1970) und der Deutschen Bundespost Berlin (1970), von Österreich (1958) sowie der Schweiz (1988). |
886 | 234603265 | https://de.wikipedia.org/wiki?curid=886 | Christiane von Goethe | Christiane von Goethe (* 1. Juni 1765 in Weimar als "Johanna Christiana Sophia Vulpius"; † 6. Juni 1816 in Weimar) war seit 1806 Johann Wolfgang von Goethes Ehefrau.
Leben.
Christiane Vulpius verbrachte ihre Kindheit in der Luthergasse, einem der ältesten Teile Weimars. Ihre Vorfahren väterlicherseits waren über mehrere Generationen Akademiker. Mütterlicherseits stammte sie aus einer Handwerkerfamilie. Ihr Vater Johann Friedrich Vulpius, Amtsarchivar in Weimar, d. h. Aktenkopist, hatte einige Semester Rechtswissenschaften studiert, das Studium jedoch abgebrochen. Seine Stelle war schlecht bezahlt, die Familie lebte in sehr bedrängten Verhältnissen, zumal der Vater alles tat, um dem ältesten Sohn Christian August ein Studium zu ermöglichen. Christiane war gezwungen, eine Stelle als Putzmacherin in einer kleinen Weimarer Manufaktur bei Caroline Bertuch anzunehmen; es handelte sich hierbei um ein Zweigunternehmen von Friedrich Justin Bertuch, der nicht nur im Verlagsgeschäft tätig war. Dies war umso nötiger, als der Vater vorzeitig aus dem Dienst entlassen wurde, weil ihm eine Unregelmäßigkeit zur Last gelegt wurde. Sie war aber keine Arbeiterin, sondern gehörte zu den dort angestellten „unbeschäftigten Mädchen der mittleren Classen“. Von ihren sechs Geschwistern wurde später ihr Bruder Christian August als Autor von Unterhaltungsromanen bekannt.
Aufgrund verschiedener Hilfsgesuche und Anträge kannte Goethe die Lage der Familie. Am 13. Juli 1788 lernte er Christiane Vulpius selbst im Park an der Ilm kennen, wo sie ihm eine Bittschrift für ihren Bruder Christian August überreichte. In der Tat setzte sich Goethe später mehrfach für seinen künftigen Schwager ein.
In jenem Sommer entwickelte sich zwischen Goethe und Christiane Vulpius rasch ein leidenschaftliches Liebesverhältnis. Bereits im Jahr darauf, am 25. Dezember 1789, wurde das erste Kind, der Sohn August, geboren. Vier weitere Kinder folgten, die alle sehr früh starben: ein Sohn, tot geboren 14. Oktober 1791; Caroline, 21. November.-3. Dezember 1793; Carl, 30. Oktober – 16. November 1795; Katharina, 16.–19. Dezember 1802. Das glückliche Leben und Lieben in dieser Gewissensehe regte Goethe zu seinen heitersten und erotischsten Gedichten an, beginnend mit den "Römischen Elegien" – die nicht nur die amourösen Abenteuer seiner ersten Italienreise verarbeiteten, sondern indirekt auch Christiane besangen – bis hin zum 1813 seiner Frau gewidmeten Gedicht "Gefunden" („Ich ging im Walde so für mich hin …“).
Goethe nahm die junge Frau zusammen mit ihrer Halbschwester Ernestine und ihrer Tante Juliane in sein Haus auf; die Wirkungsbereiche der beiden Frauen blieben vollständig auf Haus und Garten beschränkt. Der Weimarer Hof und die Gesellschaft lehnten die illegitime und unstandesgemäße Verbindung ab, so dass Goethe auf Anraten des Herzogs das Haus am Frauenplan im Zentrum Weimars verlassen und vorübergehend ins „Jägerhaus“ in der Marienstraße ziehen musste. Seiner Mutter verschwieg Goethe die Beziehung fünf Jahre lang. Während eines Besuchs im Jahre 1793 erzählte er ihr von der Verbindung und dem bereits dreieinhalb Jahre alten Enkel. Der Sieg der Napoleonischen Truppen nach der Schlacht bei Jena und Auerstedt am 14. Oktober 1806 traf Weimar schwer. Als die Stadt von französischen Soldaten geplündert wurde, war auch das Haus am Frauenplan bedroht: Christiane trat eindringenden Soldaten energisch entgegen und konnte die Plünderung so lange aufhalten, bis Goethe den offiziellen Schutz durch den französischen Kommandanten erreicht hatte. Wenige Tage später, am 19. Oktober 1806, ließen sich Goethe und Christiane in der Sakristei der Jakobskirche durch Goethes Freund Wilhelm Christoph Günther trauen.
Auch nach ihrer Eheschließung wurde Christiane als „Geheimrätin von Goethe“ von der Weimarer Gesellschaft nur widerstrebend und zögernd akzeptiert. Um die gesellschaftliche Zurückweisung seiner Frau zu verändern, bat Goethe die vermögende Witwe Johanna Schopenhauer, Mutter des Philosophen Arthur Schopenhauer, die Barriere mit einer offiziellen Einladung zum Tee zu durchbrechen. Sie tat es mit der Bemerkung: „Wenn Goethe ihr seinen Namen gibt, werden wir ihr wohl eine Tasse Tee geben können.“
Christianes Briefe an ihren Mann zeigen einen natürlichen und gesunden Menschenverstand, aber auch ihre Bildungslücken. Lebensfroh, praktisch veranlagt und energisch nahm sie sich des umfangreichen Hausstandes an. So regelte sie etwa nach dem Tod von Goethes Mutter Frau Aja in Frankfurt am Main die Erbschaftsangelegenheiten. Sie besuchte gern gesellige Zusammenkünfte, tanzte gern und besuchte häufig Theatervorstellungen in Weimar, aber auch in anderen Orten wie z. B. Bad Lauchstädt, wo die Weimarer Theatergesellschaft den Sommer über gastierte. Auch einem harmlosen Flirt war sie nicht abgeneigt. Der Briefwechsel mit Goethe belegt, dass er auch gelegentliches „Äugelchenmachen“ tolerierte. Christiane besaß ästhetisches Empfinden und Differenzierungsvermögen und konnte Goethe zuweilen beraten. So gestand Goethe, er könne und wolle ohne sie das Theaterwesen in Bad Lauchstädt gar nicht weiterführen. Das waren freilich Seiten, die vielen, auch engen Bekannten, verborgen blieben. Nicht ganz blieb es aber der Nachwelt verborgen, was sich unter anderem darin zeigt, dass eine von dem Weimarer Hofbildhauer Carl Gottlieb Weisser gefertigte Büste Christiane von Goethes Ende des 19. Jahrhunderts im eigens dazu errichteten Pavillon des Kurparks Bad Lauchstädt als Bronze-Kopie aufgestellt wurde.
Mit zunehmendem Alter wurde der Gesundheitszustand Christianes, die wie ihr Gatte und der gemeinsame Sohn August dem Alkoholkonsum wohl übermäßig zugetan war, instabil. 1815 erlitt sie einen Schlaganfall. Im folgenden Jahr kam unter starken Schmerzen ein Nierenversagen hinzu. Nach einer Woche qualvollen Leidens starb sie am 6. Juni 1816. Es hatte Goethes Kraft überstiegen, an ihrem Krankenlager zu verweilen. Die Beisetzung, an der Goethe nicht teilnahm, fand auf dem Jacobsfriedhof Weimar statt. In einem Brief an Boisserée schrieb Goethe: „Leugnen will ich Ihnen nicht, … daß mein Zustand an die Verzweiflung grenzt“. Ihr Grab war lange Zeit verschollen und wurde erst 1888 wieder ausfindig gemacht und mit einer Grabplatte versehen. Sie trägt Goethes Abschiedsverse:
Rezeption.
Bis Mitte des 20. Jahrhunderts wurde Christiane von Goethe kaum als eigenständige Person wahrgenommen. Stattdessen sind zahlreiche abfällige Bemerkungen von Zeitgenossen und später überliefert. Ab 1916 wurde durch Hans Gerhard Gräf der Briefwechsel zwischen den Eheleuten Goethe herausgegeben und Etta Federn-Kohlhaas setzte sich in ihrem Buch als eine der ersten ernsthaft mit ihr auseinander. 1949 verfasste der Vulpius-Nachfahre Wolfgang Vulpius eine Biografie, die 1957 erweitert wurde. Weitere Quellen zu ihrem Leben wurden von Sigrid Damm im Rahmen ihrer 1997 erschienenen Biografie erschlossen. |
887 | 234900439 | https://de.wikipedia.org/wiki?curid=887 | Concorde | Die Aérospatiale-BAC Concorde, kurz "Concorde" ( für "Eintracht", "Einigkeit"; ), war das zweite Überschall-Passagierflugzeug im Linienflugdienst: Es wurde von Air France und British Airways über den Zeitraum von 1976 bis 2003 betrieben. Die Flugzeit auf ihren wichtigsten Strecken über den Atlantik zwischen Paris beziehungsweise London und New York betrug mit etwa 3 bis 3,5 Stunden rund die Hälfte im Vergleich zu modernen Unterschallflugzeugen, ihre Flughöhe lag bei bis zu 18.000 m (60.000 ft).
Die Concorde wurde von der französischen und britischen Luftfahrtindustrie auf Basis eines Regierungsabkommens vom 29. November 1962 gemeinsam entwickelt und erreichte maximal Mach 2,23 (2405 km/h). Die Zelle wurde von Aérospatiale (heute Airbus) und der British Aircraft Corporation (heute BAE Systems) entwickelt und gebaut, die Triebwerke Olympus 593 von Rolls-Royce (Bristol Siddeley) und SNECMA. Die Sowjetunion baute mit der Tupolew Tu-144 ein ähnliches Modell.
Geschichte.
Nachdem schon eine Dekade lang über Ideen zu einem überschallschnellen Verkehrsflugzeug gebrütet worden war, hatten im Jahr 1955 die Wissenschaftler des Forschungsstandortes Royal Aircraft Establishment Farnborough den Überschall-Passagierflug als machbar eingeschätzt; an jenem Standort war am 25. September 1954 formell begonnen worden, überschallschnellen Passagierflug in Erwägung zu ziehen. Am 1. Oktober 1956 wurde in London das "Supersonic Transport Aircraft Committee" (STAC) gegründet. Bei der Konzeption des Flugzeugs waren 200 verschiedene Auslegungen bewertet worden. Im Jahr 1959 empfahl das Komitee zwei Formen, wobei nur eine für Mach 2 tauglich war. In einem nächsten Schritt kam es zur Festlegung der Höchstgeschwindigkeit, wobei die Variante „Mach 2,7“ deshalb verworfen wurde, weil sie aufgrund der Temperaturen, welche durch die Luftreibung entstehen, nicht mit Aluminiumlegierungen zu erreichen war. Das Versuchsflugzeug Bristol 188 bestätigte später die Probleme mit Edelstahl, der für einen Flug mit Mach 2,7 als Material vorgeschlagen worden war. Zur Erforschung des Langsamflugs bei extremer Pfeilung des Deltaflügels wurde ein weiteres Versuchsflugzeug, die Handley Page HP.115, gebaut, welche im August 1961 erstmals flog. Die Briten wollten die USA für eine Zusammenarbeit gewinnen.
1959 wurde in Frankreich ein Pflichtenheft für ein Vorprojekt mit den Eckpunkten 60 bis 80 Passagiere, 3500 Kilometer Reichweite und mehr als Mach 1 Geschwindigkeit für Sud Aviation, Nord Aviation und Dassault Aviation ausgeschrieben, erste Entwürfe gelangten zu einer Auslegung mit Canardflügeln.
Im gleichen Jahr begann die Zusammenarbeit mit Großbritannien. Bei den Briten war die internationale Zusammenarbeit eine Hauptforderung der Projektvereinbarung mit der Regierung aus dem Jahr 1960.
Zunächst war geplant, das Flugzeug entlang der Anforderungen der beiden Länder in zwei Varianten zu bauen, wobei das für die Briten erforderliche transatlantikfähige Flugzeug (Type 198) in den Planungen vor 1961 noch über sechs Triebwerke verfügen sollte. Das erste formelle Treffen auf Ministerebene fand am 7. Dezember 1961 statt, am 29. November 1962 wurde vom Britischen Verkehrsminister Julian Amery und dem Französischen Botschafter in Großbritannien, Geoffroy Chodron de Courcel, die Vereinbarung unterzeichnet, welche die Entwicklung des kleineren britischen Flugzeugs "Bristol Type 223" mit dem ähnlichen Flugzeug, das die Franzosen "Super-Caravelle" genannt hatten und auf dem Pariser Luftfahrtsalon 1961 vorgestellt worden war, zusammenlegte.
Die Kosten zur Entwicklung bis zur Zertifizierung, ohne Produktion, wurden zu jenem Zeitpunkt mit rund 135 Millionen britischen Pfund angegeben, je nach Quelle 170 Millionen, sie stiegen bis zum Abschluss der Entwicklung auf 1000 Millionen Pfund. Die Pläne der französischen Bauteile wurden auf Französisch erstellt, diejenigen der Briten in Englisch – für die Mitarbeiter gab es Sprachkurse. Die Aufteilung der Arbeiten sollte exakt je 50 Prozent betragen; weil aber klar war, dass die Briten beim Triebwerk einen höheren Anteil um 60 Prozent haben würden, wurde den Franzosen bei der Flugzeugzelle ein etwas höherer Anteil zugestanden.
Beim Namen setzte sich Frankreich durch; die Briten nannten das Projekt bis 1967 "Concord". Harold Wilson echauffierte sich, als Präsident de Gaulle das „e“ an den Namen anfügte.
Das Projekt war von Beginn an politisiert, ökonomisch unsicher und nur für die Ingenieure ein Traum.
Als 1964 in Großbritannien eine Labour-Regierung ihre Arbeit antrat, zeichnete sich ein Ende für die Concorde ab. Nur aus Furcht vor französischen Schadenersatzforderungen ließ Harold Wilson das Programm weiterlaufen: Die Vereinbarung von 1962 enthielt «drakonische» Ausstiegsklauseln, es wurde aber davon ausgegangen, dass Staatspräsident de Gaulle auch einen Alleingang gewagt hätte. Nach der Erklärung der Briten, das Projekt abbrechen zu wollen, herrschte „diplomatische Eiszeit“. Der britische Luftfahrtminister Roy Jenkins verkündete am 20. Januar 1965 die weitere Mitarbeit der Briten trotz finanzieller und ökonomischer Bedenken. Auch Edward Heath, der konservative Britische Premierminister ab 1970, hätte das Projekt gerne gestoppt, eine Verärgerung der Franzosen passte nun aber nicht zur Absicht der Regierung, dem Europäischen Wirtschaftsraum beizutreten.
Im Jahr 1964 hatten 91 Optionen zum Kauf des Konkurrenzmusters Boeing 2707 bestanden. Das Concorde-Konsortium reagierte daraufhin auf die Kritik, die Reichweite der Concorde sei zu knapp bemessen. Die Länge des Flugzeugs wurde von 51,80 auf 56,10 Meter vergrößert, die Spannweite von 23,40 auf 25,56 Meter. Damit ging eine Vergrößerung der Flügeloberfläche um 15 Prozent einher.
Die geplante Startmasse stieg um 18 auf 148 Tonnen bei einer von gut 9 auf 11,8 Tonnen vergrößerten Nutzlast. Möglich wurden diese Änderungen vor allem aufgrund erfolgreicher Tests der Triebwerke, die eine höhere Triebwerksleistung ergaben. Es wurde dabei verlautet, die Erhöhung des Gewichts alleine würde den Überschallknall zwar verstärken, dies würde aber durch eine verringerte Flächenbelastung wieder wettgemacht. Es wurde mitgeteilt, dass der Entwurf nun festläge.
Schon im Oktober 1964 liefen am Flughafen Filton Ermüdungsversuche an drei 7 Meter langen Rumpfabschnitten und auch das Forschungsflugzeug BAC-221 stand, nach einem Umbau auf einen Flügel mit einer der Concorde entsprechenden Form, für Testflüge zur Verfügung.
Das Triebwerk der Concorde, eine neue Version des Rolls-Royce Olympus mit Nachbrenner, ging erstmals im September 1966 in die Luft und zwar unter dem Rumpf eines Vulcan-Bombers mit jenen Olympus-Triebwerken, aus welchen die Concorde-Triebwerke weiterentwickelt worden waren. Auch die Entwicklung des Triebwerks führte zu unvorhergesehenen Mehrkosten, da die Tests im Concorde-Projekt nach der Einstellung des militärischen TSR.2-Programms ausgeweitet werden mussten. Es konnte demnach nicht wie vorgesehen auf Hunderte von Teststunden im militärischen Programm zurückgegriffen werden.
Beim Rollout im Jahr 1967 waren ein Dutzend Fluggesellschaften mit Piloten und Stewardessen zugegen und die Briten und Franzosen waren zuversichtlich, 200 Flugzeuge verkaufen zu können. Auch die Lufthansa war 1967 mit 3 Maschinen unter den Bestellern. Am 1. Januar 1968 vermeldete das Konsortium Vorbestellungen über 76 Maschinen. Ab dem ersten Februar 1969 fanden die Rollversuche der Concorde statt.
Die Flugzeuge wurden nach dem Erstflug im März 1969 in einem umfassenden Testprogramm während insgesamt 5495 Flugstunden erprobt, bevor der Passagierverkehr aufgenommen wurde. Die Concorde ist damit das bisher am ausgiebigsten erprobte Flugzeug.
Im Jahr 1972 flog die Concorde auf einer Verkaufstour via Griechenland, Iran, Bahrain, Bombay, Bangkok, Singapur und Manila nach Tokio. Noch während der Tour stornierten die Japaner ihre drei Bestellungen. Der folgende Überschall-Überflug über Australien führte zu Protesten.
In den USA hatten 1964 Messflüge zur Erhebung der Lärm-Toleranz der Bevölkerung stattgefunden. Über Oklahoma City waren im Auftrag der Federal Aviation Agency vom 3. Februar bis 29. Juli täglich 8 Überschallflüge über der Stadt durchgeführt worden. Diese insgesamt 1253 Flüge der Air Force fanden frühestens um 7 Uhr morgens statt und endeten am Nachmittag. Laut Befragungen hätten sich 73 oder 75 Prozent der Befragten an acht Flüge pro Tag gewöhnen können. Ziviler Überschallflug über den USA wurde trotzdem 1973 verboten.
Während der Entwicklungszeit im Zeitraum von 1962 bis 1975 hatten sich die Kosten für das Programm von 160 auf 1200 Mio. GBP mehr als versiebenfacht.
BOAC / British Airways.
Auf britischer Seite war die British Overseas Airways Corporation (BOAC) als halbstaatliche Gesellschaft zuständig für den Langstreckenbereich und damit Ansprechpartner der Regierung und der Concorde-Entwickler für operationelle Fragen. Deren Direktor Emile Beaumont Baron d’Erlanger hatte im Juni 1960 Unterstützung zugesagt, sofern ein kommerziell verantwortbarer Flugbetrieb absehbar würde.
Am 10. Juli 1962 waren formelle Gespräche der britischen Regierung mit BOAC angelaufen. Die BOAC war keinesfalls begeistert vom Druck aus dem Ministerium, sich an der Entwicklung zu beteiligen. Der Verwaltungsrat sah zu viele Unwägbarkeiten aus kommerzieller Sicht und machte klar, dass es keine festen Bestellungen gäbe: In einer ersten Vereinbarung um den 25. Oktober 1962 gab es eine bedingungslose Ausstiegsklausel bis 1966. Im Verlaufe des Jahres 1964 begannen sich Probleme aufgrund des Lärms der Concorde abzuzeichnen. Zudem wurde als Neuigkeit in der Luftfahrt das Mitführen von Gratis-Gepäckstücken erwogen, was einen zusätzlichen Nachteil gegenüber einem Großraumflugzeug bedeutete; BOAC rechnete mit insgesamt um 32 Prozent höheren Betriebskosten im Vergleich zur Boeing 707. Der Umweltschützer Richard Wiggs gründete mit einem offenen Brief in der Times vom 13. Juli 1967 das Anti-Concorde-Projekt, um die öffentliche Meinung gegen die Fortführung des Projekts zu mobilisieren.
Im Januar 1972 war absehbar, dass die Concorde nicht alle Flugplätze würde anfliegen dürfen und einige Länder den Überflug mit Überschallgeschwindigkeit nicht zulassen würden. So gesehen war der Abbruch des amerikanischen SST-Projekts für BOAC ein Desaster, da dadurch der Druck fehlte, Überschall-Überflüge zuzulassen. Noch im Februar 1973 gab es viele offene Fragen, obschon Verkehrsminister Michael Heseltine schon am 25. Mai 1972 vor dem Parlament verkündet hatte, dass BOAC fünf Maschinen kaufen würde bei einer gleichzeitigen Kapitalaufstockung durch die Regierung.
Im Jahr 1982 strich die Regierung Thatcher die Unterstützung für British Airways. Die daraufhin durchgeführte Marktforschung ergab, dass viele Passagiere der Concorde den Preis ihres Fluges gar nicht kannten. Die Preise wurden daraufhin markant auf jenen Betrag erhöht, den sie meinten, ungefähr bezahlt zu haben.
Meilensteine.
Der Treibstoffverbrauch war zwar schon zuvor, aber natürlich vor allem nach der Ölkrise von 1973 ein Problem: Pro Treibstoffeinheit generierte die Concorde bereits nur die Hälfte der Passagierkilometer einer damaligen Boeing 707. Gegenüber der neuen Boeing 747 war es nur ein Drittel. Die US-Bundesluftfahrtbehörde FAA verbot zudem anfangs mit Wirkung vom 27. April 1973 das Überfliegen des Hoheitsgebietes der USA mit zivilen Überschallflugzeugen im Überschallflug. Pan Am und TWA zogen sich aufgrund ihrer großen Defizite im Frühjahr 1973 zurück, Qantas im Mai 1973. Die Kaufoptionen fast aller Fluggesellschaften außer der Air France und British Airways wurden schon bis 1973 storniert: Air Canada (4), Air India (2), American Airlines (10), Braniff International Airways (3), CAAC (4), Continental Airlines (3), Eastern Air Lines (8), Iran Air (3), Japan Airlines (3), Lufthansa (3), Middle East Airlines (2), Pan American World Airways (8), Qantas (6), Sabena (2), Trans World Airlines (10), United Airlines (6).
Lediglich die Fluggesellschaften Air France und British Airways, im Staatsbesitz der beiden Herstellerländer, übernahmen wenig erfreut ihre bestellten Concorde. Mindestens auf der britischen Seite war es ein Geschenk der Regierung; die Flugzeuge wurden laut Michael Heseltine erst bei Gewinn bezahlt, der Staat erhielt also gewissermaßen nicht mehr als eine Gewinnbeteiligung. 1979 wurde der Bau der Concorde nach zwei Prototypen, zwei Vorserienmodellen und 16 Serienflugzeugen eingestellt.
Der amerikanische Verkehrsminister William Thaddeus Coleman war von Bürgern dazu aufgefordert worden, der Concorde keine Landerechte zu erteilen. Am 5. Januar 1976 fand ein öffentliches Hearing statt, welches das Ende der Concorde hätte bedeuten können, falls das Flugzeug nicht auf der Route hätte eingesetzt werden können, für welche sie konzipiert worden war. Nachdem sich gezeigt hatte, dass die Concorde nicht lauter war als die Boeing 707 des Präsidenten, wurde entschieden, dass eine Landeerlaubnis erteilt, diese in den USA jedoch ausschließlich den 16 produzierten Flugzeugen zustünde. Eine Weiterentwicklung der Concorde wäre somit ein unabsehbares Risiko gewesen so wie auch eine Produktion für weitere Kunden aussichtslos.
Im Jahr 1981 übernahmen die British Airways und Air France alle Flugzeuge und alle Ersatzteile.
Einsatz im Liniendienst.
Die Flüge aufgenommen hatten die Flugzeuge gleichzeitig am 21. Januar 1976 mit Flügen nach Rio de Janeiro via Dakar durch die Air France sowie nach Bahrain durch British Airways. Im Mai 1976 konnte die Destination Washington aufgenommen werden, diese Flüge waren 1976/1977 zu 90 Prozent ausgelastet.
Erst am 20. November 1977 konnte der Betrieb auf den künftigen Stammstrecken von den Flughäfen Paris-Charles-de-Gaulle und London-Heathrow zum John F. Kennedy International Airport in New York aufgenommen werden.
Bis zur Betriebseinstellung am 13. August 2003 gab es zudem wöchentlich samstags einen Flug von London-Heathrow nach Barbados. Nur im Sommer 2000 wurden darüber hinaus auch Flüge zwischen New York und Barbados angeboten, die ebenfalls immer samstags stattfanden. Im Charterbetrieb hatte die Concorde über 250 Flughäfen angeflogen, davon 76 in den USA.
Diverse weitere weltweite Ziele wurden mit der Concorde in den 1970er- und frühen 1980er-Jahren angeflogen, zu Beginn beispielsweise Rio de Janeiro und Singapur. Ende der 1970er-Jahre flog die Concorde kurzfristig auch auf Routen von Singapore Airlines (in Kooperation mit British Airways) und Braniff International Airways (in Kooperation mit Air France). Eine Maschine der British Airways trug zu diesem Zweck auf ihrer Backbordseite die Lackierung von Singapore Airlines.
Neben der Wirtschaftlichkeit scheiterte der Betrieb zu mehr und anderen Zielen auch an der mit rund 6000 Kilometern für längere Direktflüge zu geringen Reichweite sowie der Tatsache, dass die Concorde aufgrund ihres hohen Geräuschpegels auf vielen Flughäfen keine Landegenehmigung erhielt. Sie wurde in der Presse trotzdem oft als die „Königin der Lüfte“ bezeichnet.
Industriespionage.
Die sowjetische Tupolew Tu-144 glich in ihrer Auslegung der Concorde, weshalb sie bei ihrer Vorstellung 1965 umgehend den Spitznamen "Konkordski" erhielt.
Im Rahmen der mutmaßlichen Industriespionage während der Entwicklung der Concorde wurden ab 1964 mehrere Personen verhaftet, welche der Sowjetunion zugearbeitet hatten. Da es sich nicht um eine militärische Entwicklung handelte, wurde bei der Weitergabe oder beim Verkauf von Informationen auch nicht zwingend gegen Geheimhaltungsvorschriften verstoßen. Unklar ist, ob diese Spionage den Bau der Tu-144 tatsächlich vorangebracht hatte. Teils wurde argumentiert, dass sich Ähnlichkeiten auch mit einer normalen technologischen Evolution erklären ließen. Tatsächlich aber ähnelten die Entwürfe der US-Flugzeugbauer Boeing, Lockheed und North American der Concorde deutlich weniger als die Tu-144.
Die Concorde in Deutschland, Österreich und der Schweiz.
Am 22. April 1972 landete erstmals eine Concorde auf deutschem Boden. Anlässlich der Internationalen Luft- und Raumfahrtausstellung auf dem Flughafen Hannover präsentierte die British Aircraft Corporation dem Publikum den britischen Prototyp. Am 22. und 23. April war die Concorde dort sowohl am Boden als auch bei mehreren Präsentationsflügen in der Luft zu sehen.
In den frühen 1980er-Jahren begann British Airways, gefolgt von Air France, regelmäßig Charterflüge von Deutschland aus anzubieten. Ausgangspunkt waren anfangs die Flughäfen Hannover und Köln/Bonn, später auch Berlin-Tegel, Hamburg und Frankfurt. Auf dem Flughafen München-Riem landete sie ein einziges Mal am 10. August 1983, der Flughafen München wurde am 26. Oktober 1996 ebenfalls ein einziges Mal besucht. Auch Flughäfen in Österreich wurden angeflogen. Nach Graz-Thalerhof flog man am 29. März 1981. Linz-Hörsching wurde 1981 (BA), 1983 (AF) und letztmals 1989 (BA) besucht. Der Flughafen Salzburg wurde am 23. April 1984 (AF) und der Flughafen Klagenfurt am 31. August 1984 angeflogen. Am 19. Juli 1986 landete die Concorde in Nürnberg. Zusätzlich gab es bis in die späten 1990er-Jahre regelmäßige Sonderflüge zu Großveranstaltungen wie der Hannover Messe. Zu einem besonderen Zweck war eine Concorde der Air France mit Kapitän Yves Pecresse 1999 in Berlin. Vom Flughafen Schönefeld aus waren am 19., 20., und 21. März 1999 insgesamt vier Benefizflüge zum Polarkreis und zurück geplant. Bei einem Ticketpreis von 2222 Mark ließen sich jedoch nur genug Tickets für drei Flüge verkaufen, so dass der vierte ausfiel. Die Aktion wurde von einem großen Menschenauflauf am Flughafen begleitet. Sie führte allerdings wegen der ungewöhnlich hohen Lärmbelästigung auch zu Protesten in der Region. Aufgrund der spektakulären Ansicht der Concorde in Abflug- und Landekonfiguration kam der Autoverkehr auf Zubringerstraßen punktuell zum Erliegen.
Am 18. März 1986 landete erstmals eine Concorde in der DDR. Anlässlich des an diesem Tage auf der Leipziger Messe stattfindenden Frankreich-Tages flog eine Concorde der Air France (F-BVFF) den Flughafen Leipzig-Schkeuditz an. Einen Tag später landete auch eine Concorde der British Airways in Leipzig. Dabei flogen die Maschinen einen Umweg über Nord- und Ostsee, einerseits um den Passagieren einen Überschallflug zu ermöglichen, andererseits weil der Überflug der innerdeutschen Grenze aus politischen Gründen nicht möglich war. Normalerweise war der Flug mit Überschallgeschwindigkeit über dem europäischen Festland nicht gestattet, doch beim ersten Einflug in die DDR durfte die Concorde der Air France über dem nördlichen Teil der DDR mit Mach 1,5 fliegen. Dieses Gebiet wurde auch sonst von Militärflugzeugen regelmäßig mit Überschallgeschwindigkeit durchflogen.
Die Concorde war in den folgenden Jahren ein regelmäßiger Gast im Leipziger Messeflugverkehr.
Am 1. Mai 1998 war die Concorde F-BVFA anlässlich des 35. Jahrestages der Unterzeichnung der Élysée-Verträge auf dem Stuttgarter Flughafen zu bewundern. Nur etwa einen Monat vor ihrem Absturz gastierte die Concorde F-BTSC anlässlich der Flugshow „Hahn in Motion“ unter dem Kommando von Christian Marty, dem Kapitän des Unglücksflugs AF 4590, auf dem Flughafen Hahn im rheinland-pfälzischen Lautzenhausen.
Die letzte Flugbewegung auf deutschem Boden war die Landung der F-BVFB auf dem Flughafen Karlsruhe/Baden-Baden am 24. Juni 2003 anlässlich der Überführung in das Technikmuseum Sinsheim, wo das Flugzeug nun besichtigt werden kann.
Am 31. August 1976 landete eine Concorde erstmals in der Schweiz, auf dem Flughafen Genf. Am 28. April 1979 landete eine Maschine der Air France auf dem trinationalen Flughafen Basel-Mülhausen. Zum letzten Mal in die Schweiz kam eine Concorde im August 1998, als eine Air-France-Maschine mit Ausnahmegenehmigung zum Jubiläum «50 Jahre Flughafen Zürich» eingeladen worden war.
Ende der Concorde.
Das Ende der Concorde nahte mit dem Absturz der Maschine F-BTSC am 25. Juli 2000.
Beim Start der Maschine des Air-France-Flugs 4590 auf dem Flughafen Paris-Charles-de-Gaulle wurde ein Reifen von einem auf der Startbahn liegenden Metallteil zerfetzt, das vom Triebwerk einer kurz vorher gestarteten DC-10 der Continental Airlines abgefallen war. Hochgeschleuderte Gummiteile des platzenden Reifens durchtrennten ein stromführendes Kabel des linken Hauptfahrwerks, bevor sie mit großer Wucht auf die Unterseite der linken Tragfläche aufschlugen. Diese Teile durchschlugen nicht die Tragfläche, sondern verursachten durch die hohe Aufprallgeschwindigkeit eine Druckwelle im Tank, die zu einem Leck an der Tragfläche führte. Der auslaufende Treibstoff entzündete sich am erwähnten Kabel sowie am direkt daneben laufenden Jet-Triebwerk und setzte den Treibstofftank der linken Tragfläche in Brand.
Ein Startabbruch war zu diesem Zeitpunkt nicht mehr möglich. Den von Tower und Instrumenten alarmierten Piloten blieb als einzige Option der Versuch einer Notlandung auf dem nur 8 Kilometer voraus liegenden Flughafen Le Bourget. Aufgrund der Schäden an Trag- und Ruderflächen sowie fehlender Triebwerksleistung war die Maschine nicht mehr steuerbar und stürzte rund eine Minute nach dem Start in Gonesse ab. Alle 109 Menschen an Bord und vier Bewohner eines Hotels kamen ums Leben.
Die Air France stellte den Flugbetrieb der Concorde ein, die britische Luftfahrtbehörde entzog der Concorde die Flugtauglichkeitsbescheinigung. Es wurde eine Verstärkung der Tanks aus eingelegten Matten aus Kevlar entwickelt, während der französische Reifenhersteller Michelin einen stabileren Reifen entwarf, der nun auch beim Airbus A380 zum Einsatz kommt. Durch diese Veränderungen, die weit über hundert Millionen Euro kosteten, wurde die Concorde kaum schwerer (BA entwickelte neue, leichtere Passagiersitze, zudem wurde die maximale Passagierkapazität geringfügig verringert). Ermittlungen ergaben, dass auch bei anderen Verkehrsflugzeugen ein Unfall wie der vom 25. Juli 2000 möglicherweise zu einem katastrophalen Ausgang hätte führen können. Die Ermittlungen zur Unfallursache wurden am 16. Januar 2002 abgeschlossen.
Ausgerechnet am 11. September 2001 fand ein Versuchsflug der British Airways über dem Atlantik statt; die Terroranschläge in den USA an diesem Tag ließen den Flugverkehr weltweit einbrechen.
Am 7. November 2001 wurde der Linienbetrieb zwischen Paris bzw. London und New York wieder aufgenommen. Anders als über 20 Jahre zuvor, als sich New York gegen die Concorde sträubte, begrüßte der Bürgermeister Rudy Giuliani die Passagiere des ersten Fluges persönlich. Aufgrund ausbleibender Passagiere erklärten Air France und British Airways am 10. April 2003, dass der Linienflugbetrieb mit der Concorde im Laufe des Jahres 2003 eingestellt würde. Der letzte Flug einer Air-France-Concorde fand am 27. Juni 2003 statt. British Airways beendete die Concorde-Flüge am 24. Oktober 2003. Der allerletzte Concorde-Flug fand mit der Maschine mit dem Kennzeichen G-BOAF am 26. November 2003 unter der Leitung des Chefpiloten Mike Bannister von London-Heathrow zum Herstellerwerk in Filton statt.
Die meisten Maschinen waren durch Demontage von Teilen nach der Außerdienststellung nicht mehr flugfähig. Im Mai 2010 teilte die britische Gruppe „Rettet die Concorde“ (Save Concorde Group SCG) mit, dass sieben Jahre nach dem Dienstende der Concorde französische Luftfahrtexperten die Triebwerke auf dem Flughafen Paris-Le Bourget testeten. Neue Flüge würden laut SCG für kulturelle Zwecke geplant. 2013/2014 gab es eine letzte Petition zur Wiederaufnahme eines Concorde-Betriebs.
Spezielle Flüge.
In die Schlagzeilen kam der Flug vom 17. Juni 1974, als die vierte Concorde in Boston nach Paris startete, wo gleichzeitig eine Boeing 747 abhob. Nach einem über einstündigen Aufenthalt in Paris und Betankung machte sie sich auf den Rückweg und landete noch vor der Ankunft der Boeing wieder in Boston.
Am 22. August 1978 hatte der einstige Air-France-Flugkapitän Fernand Andreani in einer Concorde die Strecke Paris – New York mit einer Durchschnittsgeschwindigkeit von 1669 km/h in 3 Stunden, 30 Minuten und 11 Sekunden geschafft. Der bis heute bestehende Streckenrekord mit einer Durchschnittsgeschwindigkeit von 1763 km/h wurde am 1. April 1981 von Pierre Chanoine aufgestellt.
Vom 15. bis 17. August 1995 gelang einer Concorde der Air France, Flugnummer AF1995, mit 31 Stunden, 27 Minuten und 49 Sekunden der schnellste Flug mit Passagieren um die Welt. Der Flug wurde vom US-amerikanischen Rechtsanwalt Donald Pevsner organisiert und im Rahmen einer Werbeaktion zusammen mit einer Brauerei durchgeführt. Gemessen wurde hierbei die gesamte Zeit, die vom Start in New York bis zur Landung auf dem Ausgangsflughafen vergangen war, inklusive sämtlicher Zwischenstopps in Toulouse, Dubai, Bangkok, Guam, Honolulu und Acapulco. Auf der 36.784 Kilometer langen Flugreise konnten die Passagiere je zwei Sonnenauf- und -untergänge miterleben.
Am 7. Februar 1996 legte eine Concorde der British Airways die Strecke New York – London in 2 Stunden, 52 Minuten und 59 Sekunden zurück. Dies ist bis heute Rekord für die schnellste Atlantiküberquerung in der zivilen Luftfahrtgeschichte.
Im Frühjahr 1996 wurde der Rumpf einer Concorde von Air France (Luftfahrzeugkennzeichen: "F-BTSB") in blau gestrichen. Damit wurden zwischen 31. März und 9. April insgesamt 16 Werbe- und Promotionsflüge für Pepsi Cola durchgeführt. Da die blaue Farbe sich stärker aufheizte, als weiß, mussten die Tragflächen weiß bleiben, zudem durfte das Flugzeug mit dieser Lackierung nur maximal 20 Minuten lang mit zweifacher Überschallgeschwindigkeit fliegen, ehe das Tempo, und damit die Reibungshitze reduziert werden musste. Unmittelbar nach Ende dieser Aktion wurde die vorherige Lackierung wiederhergestellt.
Am 11. August 1999 flogen zwei British-Airways- und eine Air-France-Concorde während der totalen Sonnenfinsternis mit zweifacher Schallgeschwindigkeit mit dem Mondschatten über den Nordatlantik. So konnten die rund 300 Passagiere eine 3 bis 4 Mal längere totale Sonnenfinsternis sehen als die Betrachter am Boden (siehe auch: Werner Raffetseder – „Festival de la Concorde“). Ein ähnliches Unternehmen gab es zuvor bereits während einer Sonnenfinsternis 1973. Auch wurden Flüge zum Jahreswechsel angeboten, bei denen man zweimal Silvesterabend feiern konnte: Einmal in Paris und wenige Stunden später nochmals in New York.
Phil Collins konnte mit Hilfe der Concorde beim Live-Aid-Konzert am 13. Juli 1985 beiderseits des Atlantiks auftreten – zuerst im Londoner Wembley-Stadion und anschließend im John-F.-Kennedy-Stadium in Philadelphia.
Das Flugzeug mit dem Kennzeichen G-BOAD flog erstmals am 25. August 1976 und erreichte bis zum 10. November 2003 eine Flugdauer von 23.397 Stunden, wobei sie 7010 Mal die Schallmauer durchbrach. Sie erreichte von allen Concordes die größte Anzahl Flugstunden und flog mit höchster Wahrscheinlichkeit länger mit Mach 2 als jedes andere Flugzeug der Luftfahrtgeschichte.
Bedeutung für Luftfahrt und Staat.
Die Entwicklung der Concorde wurde ausschließlich durch die staatliche Finanzierung der hohen Entwicklungskosten ermöglicht. Im laufenden Betrieb flog die Concorde nur teilweise Gewinne ein. Neben den Rekordleistungen, die durch Überschallflüge erzielt wurden, ist vor allem der Fortschritt, der in der Luftfahrttechnologie durch die Entwicklung der Concorde erzielt wurde, so bedeutend, dass bis heute viele Flugzeughersteller hiervon profitieren.
Im industriell-wirtschaftlichen Sektor war das Concorde-Projekt eine Fortsetzung der Zusammenarbeit, welche sich mit dem identischen Vorderrumpf der Comet- und den Caravelle-Flugzeugen geäußert hatte und welche für die zukünftige Zusammenarbeit etwa im Airbus-Bereich den Weg bereitete. Die Briten hatten sich von der Zusammenarbeit einen Beitritt zur Europäischen Wirtschaftsgemeinschaft erhofft, was De Gaulle jedoch jahrelang verhinderte.
Technik der Concorde.
Bei der Concorde handelt es sich um ein vierstrahliges Verkehrsflugzeug mit Deltaflügel in schwanzloser Tiefdecker-Auslegung. Die Concorde hatte im Vergleich zu anderen Verkehrsflugzeugen aufgrund ihrer hohen Geschwindigkeit und der damit einhergehenden Anforderungen einige konstruktive Besonderheiten aufzuweisen.
Struktur und Steuersysteme.
Die Concorde ist zum großen Teil aus einer Aluminiumlegierung konstruiert und im geringeren Teil aus einer hitzebeständigen Nickellegierung sowie Edelstahl und Titan in kritischen Bereichen. Die Tragflächen bestehen aus einem Torsionskasten, in dem sich viele Holme befinden, während der Rumpf in einer konventionellen Halbschalenbauweise ausgeführt ist.
Da die Concorde als Deltaflügler und schwanzloses Flugzeug über kein Höhenleitwerk verfügt, befinden sich die Höhenruder- und Querruder-Steuerflächen ausschließlich an der Hinterkante der Tragflächen, während an der Seitenflosse ein konventionelles Seitenruder vorhanden ist. Roll- und Nicksteuerung erfolgen durch die kombinierten Höhen- und Querruder (Elevons). Diese erstrecken sich über die gesamte Breite der Tragflächenhinterkante und sind insgesamt in sechs einzeln angelenkte Segmente aufgeteilt, drei auf jeder Seite. Je zwei dieser Steuerflächen befinden sich pro Seite an den Außenflügeln, je ein Ruder befindet sich zwischen Triebwerksgondel und Rumpf. Zur Höhensteuerung werden alle sechs Elevons gleichsinnig nach oben oder unten ausgeschlagen, die Rollsteuerung (Querruder) erfolgt durch überlagerte entgegengesetzte Ausschläge der vier äußeren Elevons; dabei summieren sich an diesen vier einzelnen Rudern die jeweiligen Werte für den Höhen- und Querruderanteil.
Das gesamte Hydrauliksystem der Flugsteuerung war gegen mögliche Ausfälle mehrfach abgesichert und alle vier Triebwerke standen in verschiedenen Kombinationen für die Erzeugung des Hydraulikdrucks zur Verfügung. Primär wurden alle Steuersignale erstmals bei einem Verkehrsflugzeug elektrisch übertragen. Dieses analoge fly-by-wire-System bestand aus zwei separaten Kanälen (im Cockpit blau und grün). Im Notfall konnten die Steuerbefehle über ein drittes, mechanisches System (im Cockpit gelb) übertragen werden. Bei der Rippe 24 des linken Flügels befand sich zwischen Holm 68 und 70 eine Ram-Air-Turbine, damit konnte im Notfall das grüne und das gelbe System betrieben werden. Die für den Piloten spürbaren Steuerkräfte wurden künstlich elektro-hydraulisch erzeugt. Neben den gesteuerten Druckzylindern erzeugte ein Federsystem Minimalkräfte.
Zur Anpassung der Schwerpunktlage an die unterschiedlichen Anforderungen von Über- und Unterschallflug wurden Trimm-Treibstofftanks verwendet. Durch Umpumpen von Kraftstoff von den an der vorderen Flächenwurzel gelegenen "Trim Transfer Tanks" Nr. 9 und 10 in den im Rumpfheck gelegenen Tank Nr. 11 verschob sich der Schwerpunkt des Flugzeugs um etwa 1,8 m nach hinten. Für den Sinkflug und den Landeanflug wurde der Schwerpunkt durch Umpumpen in die vorderen Trimmtanks wieder nach vorne verschoben. Für Start und Landung war die hintere Schwerpunktlage vorteilhafter, weil sie die nutzbare Flügelfläche durch geringeren Ruderausschlag anwachsen ließ. Die Roll-Trimmung erfolgte durch die Verwendung der Tanks 1 und 4 in den Flügeln.
Eine Besonderheit war, dass die Concorde aufgrund der im Flug erreichten Temperaturen in der Struktur nicht nur eine Ausdehnung des ganzen Flugzeugs um bis zu 25 Zentimeter erfuhr, sondern auch Wasser verdunstet wurde, was zur Folge hatte, dass die Korrosion im Vergleich zu herkömmlichen Verkehrsflugzeugen geringer war. Diverse Bereiche des Flügels verfügten über ein Drainage-System.
Das Steuerbord-Bugrad verfügte über eine Bremsscheibe, um das Drehen der Räder beim Fahrwerkeinzug zu verhindern. Die Hauptfahrwerke mit je vier Rädern verfügten über Magnesium-Bremsscheiben, später wurden diese durch effizientere Carbon-Bremsscheiben ersetzt. Die zwei Prototypen F-WTSS und G-BSST verfügten über einen Bremsschirm, der in einem nach oben öffnenden Heckkonus untergebracht war. Dank dem Antiskitsystem benötigten die Serienmaschinen der Concorde keine Bremsschirme mehr.
Ausstattung und Reisekomfort.
Speziell war, dass für die Klimatisierung der Kabine keine Außenluft gezapft werden konnte: Eine Kühlung wäre damit im Überschallflug nicht möglich gewesen. Zur Kühlung wurden stattdessen die Treibstofftanks verwendet, in denen sich Wärmetauscher befanden.
Die Concorde wurde für die Aufnahme von maximal 128 Passagieren zertifiziert, nach dem Unglück im Jahr 2000 und den folgenden Modifikationen betrug die maximale Passagierzahl 100 (British Airways) bzw. 92 (Air France). Die Sitze konnten unterschiedlich in Viererreihen angeordnet werden. Die Kabine war mit Toiletten und zwei Küchen ausgestattet. Unter dem vorderen und hinteren Kabinenboden gab es Stauräume für Gepäck. Die Passagierkabinentüren befinden sich auf der Backbordseite, die Versorgungskabinentüren auf der Steuerbordseite. British Airways hatte die Concorde mit einer 40-sitzigen Vorderkabine und einer 60-sitzigen Hinterkabine betrieben, die von einer sechsköpfigen Besatzung betreut wurde. Es gab nur eine Klasse; die Tickets waren etwa 20 % teurer als Tickets für die First Class in Unterschallflugzeugen. Den naturgemäß engeren Platzverhältnissen standen bequeme Sessel mit Lederpolstern, eine ausgezeichnete Küche mit erlesenem Porzellan und Champagner gegenüber. Allerdings bezeichneten in den letzten Jahren viele Passagiere das Geräusch- und Schwingungsverhalten als besonders unangenehm; die Concorde war in dieser Hinsicht nicht mehr zeitgemäß und erlaubte auch nur wenig konstruktive Verbesserungen.
Flugbahn und Flughöhe.
Auf dem Flug von London nach New York flog die Concorde bis zu einer Höhe von 8400 m mit Unterschallgeschwindigkeit, bevor sie südlich von Bristol die Nachbrenner einschaltete und weiter stieg, um auf Überschallgeschwindigkeit zu beschleunigen, die etwa über der Insel Lundy erreicht wurde. So konnten die Schallwellen und der Überschallknall von bewohnten Gebieten ferngehalten werden. Die Concorde beschleunigte weiter auf Mach 1,7, schaltete den Nachbrenner ab und erreichte auf einer Höhe von 15.000 m Mach 2. Während des Reisefluges stieg sie langsam weiter bis auf etwa 17.700 m (cruise climb), die kurz vor dem Beginn des Sinkfluges zur Landung erreicht wurden. Dabei variierte diese Höhe jedoch abhängig von der Außentemperatur und der Zuladung. Konventionelle strahlgetriebene Flugzeuge fliegen im Vergleich hierzu auf einer Flughöhe von etwa 10.000 bis maximal 13.500 m. Die Concorde verlängerte sich erwärmungsbedingt beim Mach-Flug um etwa 14 cm, die Fenster fühlten sich warm an. Im Cockpit gab es beispielsweise während eines Mach-Fluges zwischen den Instrumententafeln des Flugingenieurs einen fingerbreiten Spalt, der nach der Landung nicht mehr vorhanden war.
Cockpit und Visier.
Die Spitze der Concorde bildet eine hydraulisch absenkbare Nase mit versenkbarem, verglastem Visier. Bei Geschwindigkeiten von über 460 km/h wurden die Nase und der Schutzschild aus Gründen der Aerodynamik vollständig hochgezogen. In Höhen unter 3000 m, also im Landeanflug, wurde bei einer Geschwindigkeit von etwa 460 km/h das Visier ganz sowie die Nase um 5° abgesenkt, was eine gute Sicht nach vorne gewährleistete. Im Endanflug wurde die Nase auf 12° abgesenkt und ermöglichte dem Piloten eine optimale Sicht auf die Landebahn.
Die Sitzposition der Piloten der Concorde liegt 11,4 m vor dem Bugrad, so dass beim Einlenken auf die Start- und Landebahn die Pilotenkanzel weit über die effektive Piste hinausragt. Kapitän und Copilot sitzen nebeneinander im Cockpit, während der Flugingenieur auf einem Drehstuhl hinter dem Copiloten sitzt. Die beengten Platzverhältnisse im Cockpit erforderten eine ungewöhnliche Gestaltung der Steuerhörner, um zu vermeiden, dass eine Drehbewegung am Horn durch die Beine der Piloten behindert wird. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.