id
stringlengths
1
7
url
stringlengths
31
285
title
stringlengths
1
185
text
stringlengths
2
554k
849
https://de.wikipedia.org/wiki/Caracalla
Caracalla
Caracalla (geboren als Lucius Septimius Bassianus; * 4. April 188 in Lugdunum, dem heutigen Lyon; † 8. April 217 in Mesopotamien) war von 211 bis zu seinem Tod römischer Kaiser. Sein offizieller Kaisername war – in Anknüpfung an den beliebten Kaiser Mark Aurel – Marcus Aurel(l)ius Severus Antoninus. Caracallas Vater Septimius Severus, der Begründer der severischen Dynastie, erhob ihn 197 zum Mitherrscher. Nach dem Tod des Vaters am 4. Februar 211 trat er zusammen mit seinem jüngeren Bruder Geta die Nachfolge an, doch schon im Dezember ließ er Geta ermorden. Anschließend befahl er ein reichsweites Massaker an Getas Anhängern. Fortan regierte er unangefochten als Alleinherrscher. Caracalla kümmerte sich vor allem um militärische Belange und begünstigte die Soldaten. Damit setzte er einen schon von seinem Vater eingeschlagenen Kurs fort, der auf die Epoche der Soldatenkaiser vorauswies. Wegen des Mordes an Geta und dessen Parteigängern sowie der allgemeinen Brutalität seines Vorgehens gegen jede tatsächliche oder vermeintliche Opposition wurde er von der zeitgenössischen senatorischen Geschichtsschreibung sehr negativ beurteilt. Bei den Soldaten hingegen erfreute er sich offenbar großer Beliebtheit, die über seinen Tod hinaus anhielt und zum Scheitern seines Nachfolgers beitrug. Bei der Vorbereitung eines Feldzugs gegen die Parther wurde Caracalla von einer kleinen Gruppe von Verschwörern ermordet. Da er kinderlos war, starb mit ihm die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus. Später wurden jedoch die Neffen seiner Mutter, die Kaiser Elagabal und Severus Alexander kontrafaktisch als uneheliche Söhne Caracallas ausgegeben. Die Maßnahmen, mit denen Caracalla in erster Linie der Nachwelt in Erinnerung blieb, waren der Bau der Caracalla-Thermen und die Constitutio Antoniniana, ein Erlass von 212, mit dem er fast allen freien Reichsbewohnern das römische Bürgerrecht verlieh. Die moderne Forschung folgt weitgehend der ungünstigen Beurteilung seiner Regierungszeit durch die antiken Quellen, rechnet aber bei den Angaben der ihm feindlich gesinnten Geschichtsschreiber mit Übertreibungen. Leben bis zum Herrschaftsantritt Kindheit Caracalla wurde am 4. April 188 im heutigen Lyon geboren, dem Verwaltungssitz der Provinz Gallia Lugdunensis. Er war der ältere der beiden Söhne des aus der Provinz Africa stammenden späteren Kaisers Septimius Severus, dem damaligen Statthalter von Lugdunensis. Nur elf Monate später kam sein Bruder Geta zur Welt. Seine Mutter Julia Domna, die zweite Frau des Septimius Severus, stammte aus einer sehr vornehmen Familie; ihre Heimatstadt war Emesa in der Provinz Syria (das heutige Homs in Syrien). Caracalla erhielt den Namen Bassianus nach seinem Großvater mütterlicherseits, einem Priester des in Emesa verehrten Sonnengottes Elagabal. Einen erheblichen Teil seiner Kindheit verbrachte Caracalla in Rom. Sein Vater war ab 191 Statthalter der Provinz Oberpannonien. Die Kinder der Provinzstatthalter mussten auf Anordnung des Kaisers Commodus in Rom bleiben, denn der misstrauische Kaiser wollte sich gegen das Risiko von Aufständen der Statthalter absichern, indem er ihre Kinder in seinem unmittelbaren Machtbereich behielt. Als Kind soll sich Caracalla durch angenehme Eigenschaften ausgezeichnet haben. Er war fünf Jahre alt, als sein Vater am 9. April 193 von den Donaulegionen zum Kaiser ausgerufen wurde. Von Mitte 193 bis 196 hielt er sich mit seinem Vater im Osten des Reichs auf, dann kehrte er über Pannonien nach Rom zurück. Septimius Severus gab sich ab Frühjahr 195 zum Zweck der Legitimierung seiner Herrschaft als Adoptivsohn des 180 gestorbenen Kaisers Mark Aurel aus. Mit dieser Fiktion wollte er sich in die Tradition der Adoptivkaiser stellen, deren Epoche als Glanzperiode der römischen Geschichte galt. Daher erhielt auch Caracalla als fiktiver Enkel Mark Aurels ab 195/196 den Namen dieses beliebten Herrschers: Er hieß fortan Marcus Aurel(l)ius Antoninus, wurde also wie sein Vater als Angehöriger von Mark Aurels Familie, des Kaisergeschlechts der Antonine, betrachtet. An dieser Fiktion hielt er stets fest. Geta hingegen wurde nicht umbenannt, also nicht fiktiv in das Geschlecht der Antonine aufgenommen. Darin zeigte sich schon damals eine Bevorzugung seines ein Jahr älteren Bruders. Entweder schon Mitte 195 oder spätestens 196 wurde Caracalla der Titel Caesar verliehen, womit er zum künftigen Kaiser designiert wurde. Dieser Schritt markierte den Bruch zwischen Septimius Severus und dessen Rivalen Clodius Albinus, der Britannien unter seiner Kontrolle hatte. Albinus hatte sich im Jahr 193 Hoffnungen auf die Kaiserwürde gemacht, war aber von Severus mit dem Caesartitel und der Aussicht auf die Nachfolge abgefunden worden. Diese Regelung war mit Caracallas Erhebung zum Caesar hinfällig. Daher brach der 193 noch vermiedene Bürgerkrieg zwischen Severus und Albinus nun aus. Nach dem Sieg des Severus in diesem Krieg, in dem Albinus den Tod fand, stand Caracallas Anspruch auf die Nachfolge seines Vaters nichts mehr im Wege. Als Kaisersohn erhielt Caracalla eine sorgfältige Erziehung. Daher war er nicht ungebildet; als Kaiser war er offenbar in der Lage, sich an intellektuellen Gesprächen zu beteiligen, und schätzte rhetorische Fähigkeiten. 197 begleitete Caracalla zusammen mit seinem Bruder Geta den Vater auf dessen zweitem Feldzug gegen das Partherreich. Schon im Frühjahr 197 wurde er offiziell als designierter Kaiser und Teilhaber der Herrschaft bezeichnet. Im Herbst 197 oder spätestens 198 wurde er zum Augustus erhoben und mit den kaiserlichen Vollmachten ausgestattet; fortan nannte man ihn Marcus Aurel(l)ius Severus Antoninus Augustus. Wohl gleichzeitig wurde Geta zum Caesar erhoben. Die Kaiserfamilie blieb noch einige Zeit im Orient; 199 reiste sie nach Ägypten, wo sie sich bis 200 aufhielt. Erst 202 kehrte sie nach Rom zurück. In diesem Jahr war Caracalla zusammen mit seinem Vater ordentlicher Konsul. Heirat und Konflikte der Jugendzeit Im April 202 wurde Caracalla, mit 14 Jahren nunmehr mündig, von seinem Vater gegen seinen Willen mit Publia Fulvia Plautilla verheiratet, die den Titel Augusta erhielt. Sie war die Tochter des Prätorianerpräfekten Gaius Fulvius Plautianus. Plautianus stammte aus Leptis Magna in Libyen, der Heimatstadt des Septimius Severus. Er hatte dank der Gunst des Kaisers eine außerordentliche Machtstellung errungen, die er durch die Verschwägerung mit dem Kaiserhaus absichern wollte. Seine Machtfülle wurde aber von der Kaiserin Julia Domna als Bedrohung wahrgenommen und brachte ihn mit ihr in Konflikt. Caracalla, der Plautianus als Rivalen sah, hasste seine Frau und seinen Schwiegervater und wollte beide beseitigen. Mit einer Intrige führte er 205 den Sturz des Plautianus herbei, wobei er sich der Hilfe seines Erziehers, des Freigelassenen Euodus, bediente. Euodus veranlasste drei Centurionen, Plautianus eines Mordplans gegen Severus und Caracalla zu bezichtigen; sie behaupteten, der Präfekt habe sie zu einem Attentat angestiftet. Severus schenkte ihnen Glauben und lud Plautianus vor, doch erhielt der Beschuldigte keine Gelegenheit zur Rechtfertigung, da Caracalla ihn nicht zu Wort kommen ließ. Nach der Darstellung des zeitgenössischen Geschichtsschreibers Cassius Dio versuchte Caracalla seinen Feind in Anwesenheit des Kaisers eigenhändig umzubringen, wurde aber von Severus daran gehindert. Darauf ließ er Plautianus von einem seiner Begleiter töten, offenbar mit Billigung des Kaisers. Plautilla wurde auf die Insel Lipari verbannt. Nach seinem Regierungsantritt ordnete Caracalla ihre Beseitigung an; über sie wurde die damnatio memoriae verhängt. Auch Euodus wurde später auf Befehl Caracallas hingerichtet. Schon in früher Jugend war es zu einer ausgeprägten Rivalität der beiden Brüder Caracalla und Geta gekommen, die sich im weiteren Verlauf ihres Lebens beständig verschärfte und in tödlichen Hass verwandelte. Vergeblich bemühte sich Septimius Severus, die Feindschaft zwischen seinen Söhnen zu mildern und gegenüber der Öffentlichkeit zu vertuschen, etwa durch die Prägung von Münzen der Concordia (Eintracht), zweimaliges gemeinsames Konsulat Caracallas und Getas in den Jahren 205 und 208 und die Fernhaltung der Söhne von Rom. Am Britannienfeldzug des Kaisers, den er 208–211 gegen die im heutigen Schottland lebenden Kaledonier und Mäaten unternahm, nahmen beide Söhne teil. 209 erhielt Geta die Würde eines Augustus, wurde also rangmäßig seinem bisher bevorzugten Bruder gleichgestellt. Da die Kämpfe sich hinzogen und Septimius Severus bereits bei schlechter Gesundheit war, betraute er 210 Caracalla mit der alleinigen Leitung der militärischen Operationen; Geta erhielt kein Kommando. Ab 210 führte Caracalla den Siegernamen Britannicus maximus, den auch sein Vater und sein Bruder annahmen. Er soll versucht haben, den Tod des Kaisers zu beschleunigen, indem er dessen Ärzte und Bedienstete unter Druck setzte, dem Kranken etwas anzutun. Septimius Severus starb am 4. Februar 211 in Eboracum. Regierungszeit Herrschaftsantritt und Machtkampf mit Geta Wie Septimius Severus es vorgesehen hatte, traten seine beiden Söhne zunächst gemeinsam die Herrschaft an. Sie schlossen mit den Kaledoniern und Mäaten Frieden und verzichteten damit auf die vielleicht ursprünglich geplante Besetzung von Gebieten im heutigen Schottland. Somit wurde der Hadrianswall wieder die nördliche Grenze des römischen Territoriums in Britannien. Der Frieden scheint stabil geblieben zu sein; anscheinend unterließen die freien Stämme des Nordens in den folgenden Jahrzehnten Einfälle in das Reichsgebiet. Caracalla und Geta kehrten mit getrenntem Hofstaat nach Rom zurück. Dort schützten sich beide durch sorgfältige Bewachung voreinander. Als Vorbild für ein Doppelkaisertum konnte zwar die gemeinsame Herrschaft von Mark Aurel und dessen Adoptivbruder Lucius Verus im Zeitraum 161–169 dienen, doch bestanden wesentliche Unterschiede zur damaligen Situation: Verus war einst von Mark Aurel zum Mitherrscher erhoben worden, Caracalla und Geta hatten hingegen beide schon unter ihrem Vater den Augustus-Rang erlangt, und ihre Rangordnung und Befugnisse waren ungeklärt. Es gab keine anerkannte Erbfolgeregelung, insbesondere keine Primogenitur. Ein Nebeneinander zweier weitgehend gleichberechtigter Herrscher hätte theoretisch allenfalls durch eine Reichsteilung umgesetzt werden können. Der Geschichtsschreiber Herodian behauptet, es sei tatsächlich erwogen worden, das Römische Reich zu teilen und Geta den Osten zuzuweisen, doch sei dieser Plan verworfen worden, denn Julia Domna, die Mutter der beiden Kaiser, habe sich dem Vorhaben nachdrücklich widersetzt. Dieser Bericht wird aber in neueren Untersuchungen oft als unglaubwürdig beurteilt. Versuche, in epigraphischem Material eine Bestätigung für Herodians Darstellung zu finden, sind gescheitert. Um beide Brüder hatte sich ein Kreis von Anhängern gebildet; Geta war zumindest bei einem Teil der Soldaten beliebt. Daher wagte Caracalla vorerst nicht, offen gegen ihn vorzugehen. Die römische Stadtbevölkerung, der Hof, der Senat, die Prätorianer und die in der Hauptstadt und ihrer Umgebung stationierten Truppen waren gespalten oder unschlüssig, so dass ein großer Bürgerkrieg bevorzustehen schien. Schließlich gelang es Caracalla im Dezember 211, den Bruder in einen Hinterhalt zu locken. Er veranlasste seine Mutter, ein Gespräch im kaiserlichen Palast zu arrangieren. Leichtsinnigerweise folgte Geta der Einladung der Mutter, denn er meinte wohl, in ihrer Anwesenheit vor seinem Bruder sicher zu sein. Der Ablauf der tödlichen Begegnung ist unklar. Nach der Schilderung des zeitgenössischen Geschichtsschreibers Cassius Dio, die als die glaubwürdigste gilt, hatte Caracalla Mörder bestellt, die seinen Bruder in den Armen der Mutter töteten, wobei diese an der Hand verletzt wurde. Offenbar hat er aber auch selbst zugeschlagen, denn später weihte er das dabei von ihm verwendete Schwert im Serapeion von Alexandria der dort verehrten Gottheit Serapis. Anschließend wurde über Geta die damnatio memoriae verhängt und die Tilgung seines Namens in allen öffentlichen Denkmälern und Schriftstücken mit größter Gründlichkeit betrieben; sogar seine Münzen wurden eingeschmolzen. Der nunmehrige Alleinherrscher rechtfertigte den Mord mit der Behauptung, selbst nur einem Anschlag Getas zuvorgekommen zu sein. Am Tag nach der Tat hielt er im Senat eine Rede, in der er seine Sichtweise darlegte und zugleich mit der Ankündigung einer Amnestie für Verbannte Sympathie zu gewinnen versuchte. Für die Öffentlichkeit und insbesondere für die Senatoren war die Mordtat aber ein unerhörter Tabubruch, von dem sich Caracallas Ansehen niemals erholen sollte. Die Prätorianer gewann er mit einer Solderhöhung und Geldgeschenken für sich, und auch das Einkommen der Soldaten wurde zur Sicherung ihrer Loyalität beträchtlich angehoben. Nach der Darstellung der Historia Augusta, deren Glaubwürdigkeit allerdings umstritten ist, konnte Caracalla die in der Nähe von Rom stationierte Legio II Parthica, die stark mit Geta sympathisiert hatte, nur mit einem reichlichen Geldgeschenk besänftigen. Innenpolitik Terrorherrschaft Sogleich nach der Ermordung Getas ließ Caracalla zahlreiche Männer und Frauen, die als Anhänger seines Bruders galten, töten; damals sollen etwa 20.000 Menschen aus diesem Grund ermordet worden sein. Nach einer umstrittenen These hat man in York im Jahr 2004 vielleicht die enthaupteten Opfer einer damit zusammenhängenden Massenhinrichtung entdeckt. Auch später noch wurden viele umgebracht, denen Caracalla unterstellte, Sympathien für den unterlegenen Rivalen gehegt zu haben oder ihm nachzutrauern. Zu den prominenten Opfern des Terrors gehörten der Kaisersohn Pertinax Caesar sowie zwei Nachkommen des allseits verehrten Kaisers Mark Aurel: seine Tochter Cornificia und ein Enkel. Der berühmte Jurist Papinian, der ein Freund und Vertrauter des Septimius Severus gewesen war und sich im Auftrag des verstorbenen Kaisers um einen Ausgleich zwischen den verfeindeten Brüdern bemüht hatte, wurde auf Befehl Caracallas ermordet, nachdem Prätorianer Vorwürfe gegen ihn erhoben hatten. Unter den Opfern waren zwar auch Senatoren, doch der Herrscher scheint ein erträgliches Verhältnis zum Senat angestrebt zu haben; die Repression richtete sich in erster Linie gegen Personen niedrigen Ranges. Es wurde üblich, persönliche Gegner mit erfundenen Behauptungen in anonymen Anzeigen aus dem Weg zu räumen. Die zahlreichen Soldaten und Prätorianer in Rom dienten Caracalla als Spitzel und Informanten. Eine aufschlussreiche Episode war Caracallas im Frühjahr 212 unternommener Versuch, den populären Senator und ehemaligen Stadtpräfekten Lucius Fabius Cilo umzubringen. Den Anlass dazu bot wohl, dass Cilo versucht hatte, zwischen Caracalla und Geta zu vermitteln. Caracalla erteilte Soldaten – offenbar handelte es sich um Prätorianer – den Befehl, gegen den Senator vorzugehen. Sie plünderten das Haus Cilos und führten ihn unter Misshandlungen zum Kaiserpalast. Daraufhin kam es zu einem Aufruhr; die Bevölkerung und in der Stadt stationierte Soldaten (urbaniciani), die früher unter Cilos Befehl gestanden hatten, griffen zugunsten des Verhafteten ein, um ihn zu befreien. Caracalla schätzte die Lage als so gefährlich ein, dass er aus dem Palast herbeieilte und vorgab, Cilo beschützen zu wollen. Er ließ die Prätorianer, die mit der Festnahme beauftragt gewesen waren, und ihren Befehlshaber hinrichten, angeblich zur Strafe für ihr Vorgehen gegen Cilo, in Wirklichkeit jedoch, weil sie bei der Durchführung des Befehls versagt hatten. Der Vorgang zeigt eine zumindest zeitweilige Schwäche des Kaisers. Er musste vor dem Widerstand von Teilen der Stadtbevölkerung und der städtischen Soldaten, auf deren Loyalität er angewiesen war, zurückweichen. Generell ging Caracalla gegen Individuen und Gruppen, die seinen Zorn oder Verdacht erregten, mit großer Härte vor. Ein Merkmal seines Terrors war, dass er nicht nur gezielt Verdächtige hinrichten ließ, sondern auch kollektive Strafmaßnahmen ergriff, denen neben Oppositionellen auch zahlreiche harmlose Personen und Unbeteiligte zum Opfer fielen. Aufsehen erregte das Massaker von Alexandria in Ägypten. Dort richtete Caracalla bei seinem Aufenthalt in der Stadt, der von Dezember 215 bis März/April 216 dauerte, ein großes Blutbad unter der Bevölkerung an. Als Anlass gibt Cassius Dio an, dass sich die Alexandriner über den Kaiser lustig gemacht hatten. Die Stadtbevölkerung war als spottlustig bekannt, doch hatte ihre Aufsässigkeit auch einen ernsten Hintergrund: In der Stadt war – vermutlich aus wirtschaftlichen Gründen – eine kaiserfeindliche Stimmung entstanden, die sich in einem Aufruhr entlud. Dem Gemetzel in Alexandria, das tagelang angedauert haben soll, fielen auch auswärtige Besucher zum Opfer, die sich zufällig in der Stadt aufhielten. Außerdem wurde die Stadt von Caracallas Soldaten geplündert. Wahrscheinlich stellen Cassius Dio und der ebenfalls zeitgenössische Geschichtsschreiber Herodian das Ausmaß des Massakers übertrieben dar, doch dürfte die Schilderung Cassius Dios in den Grundzügen stimmen. Als der Kaiser bei einem Wagenrennen in Rom glaubte, eine aufsässige Menge wolle ihn durch Verspottung eines von ihm favorisierten Wagenlenkers beleidigen, befahl er seinen Soldaten, die Unruhestifter zu töten, was mit einem wahllosen Massaker endete. Thermenbau und Ausdehnung des römischen Bürgerrechts Caracallas Name ist für die Nachwelt bis heute vor allem mit zwei spektakulären Maßnahmen verbunden: dem Bau der Caracalla-Thermen in Rom, einer Gesamtanlage von 337 mal 328 Metern, und der Constitutio Antoniniana von 212. Mit dem Thermenbau wollte sich der Kaiser bei der Stadtbevölkerung beliebt machen. Es war damals die größte derartige Anlage in Rom. Die Constitutio Antoniniana war eine Verfügung, die allen freien Bewohnern des Reiches mit Ausnahme der dediticii das römische Bürgerrecht verlieh. Die Abgrenzung des mit dediticii gemeinten Personenkreises ist unklar. Mit diesem Ausdruck bezeichnete man ursprünglich Angehörige von Völkern oder Staaten, die sich den Römern bedingungslos unterworfen hatten, entweder im Krieg im Sinne einer Kapitulation oder im Frieden, um römischen Schutz zu erhalten. Juristisch bedeutete die Constitutio Antoniniana nicht, wie man früher glaubte, die Aufhebung örtlicher Rechtsgewohnheiten und ihre Ersetzung durch römisches Privatrecht; örtliches Recht wurde weiterhin angewendet, soweit es dem römischen nicht widersprach. Daraus ergaben sich im juristischen Alltag Rechtsunsicherheiten (ius praetorium); eine umfassende, allgemeingültige Regelung wurde offenbar noch nicht angestrebt. Die Zwecke und die Tragweite der Constitutio Antoniniana sind bis heute nicht befriedigend geklärt. Flankierende Maßnahmen zur Integration der Neubürger scheint Caracalla nicht getroffen zu haben, ein umfassendes, langfristiges Gesamtkonzept war mit der Bürgerrechtsverleihung anscheinend nicht verbunden. Caracalla gibt an, er habe sich zu dem Schritt entschlossen, weil er den Göttern für seine Rettung aus einer Gefahr danken wollte. Vermutlich meinte er damit einen angeblichen Mordanschlag Getas, doch sind auch andere Deutungen möglich. Cassius Dio gibt die Meinung der oppositionellen senatorischen Kreise wieder, der zufolge die Ausdehnung des Bürgerrechts vor allem den Zweck hatte, die Steuereinnahmen zu erhöhen; die von dem Erlass Betroffenen wurden Steuern unterworfen, die nur von römischen Bürgern zu entrichten waren. Solche Steuern waren eine Abgabe auf die Freilassung von Sklaven und die Erbschaftsteuer, die Caracalla damals von 5 auf 10 Prozent verdoppelte. Die Erhöhung der Steuereinnahmen war aber nur eines der Motive Caracallas. Außerdem wollte er die Neubürger wohl als ihm persönlich ergebene Anhängerschaft gewinnen, um auf diese Art die Feindschaft der traditionellen Elite, bei der er wegen seiner Terrorherrschaft verhasst war, zu kompensieren und so seine Machtbasis zu stärken. Zahlreiche Neubürger nahmen den Namen des Kaisers (Aurelius) an, der dadurch außerordentlich häufig wurde. Verwaltung, Finanzen, Wirtschaft und Militär Da Caracalla sich durch seinen Terror unzählige Feinde schuf, besonders in der Oberschicht, war er zur Erhaltung seiner Macht ganz auf das Heer angewiesen und für seine persönliche Sicherheit auf seine skythischen und germanischen Leibwächter. Die Unterstützung der Soldaten gewann er, indem er ihren Sold stark erhöhte und sie mit häufigen üppigen Sonderzuwendungen (Donativen) beschenkte. Das Ausmaß der Solderhöhung betrug 50 Prozent, wobei der schon von Septimius Severus deutlich erhöhte Sold die Berechnungsgrundlage bildete. Nach einer von Cassius Dio mitgeteilten Schätzung betrug der dafür erforderliche jährliche Mehraufwand 280 Millionen Sesterzen (70 Millionen Denare). Diese Steigerung der militärischen Personalkosten war jedoch finanzpolitisch verhängnisvoll. Die Bevorzugung des Militärs war nur auf Kosten des wirtschaftlich produktiven Teils der Bevölkerung und der Geldwertstabilität möglich und erzeugte bei den so verwöhnten Soldaten maßlose Erwartungen. Spätere Herrscher konnten diese Entwicklung nicht mehr umkehren, ohne ihren sofortigen Sturz zu riskieren. Somit stellte Caracalla die Weichen für das künftige Soldatenkaisertum. Seine Politik trug dazu bei, dass später die mit dem modernen Schlagwort „Reichskrise des 3. Jahrhunderts“ bezeichneten Entwicklungen eintraten. Unter ihm verstärkten sich problematische Faktoren, welche die Wirtschaft im weiteren Verlauf des 3. Jahrhunderts stark belasteten. Allerdings bestanden schon vor seinem Regierungsantritt gravierende strukturelle Probleme. Caracalla teilte große Provinzen auf, wohl um eine gefährliche Machtzusammenballung in der Hand der Provinzstatthalter zu verhindern. Kein Statthalter sollte mehr als zwei Legionen unter seinem Kommando haben. Britannien teilte er in die zwei Provinzen Britannia superior und Britannia inferior. In Hispanien trennte er von der großen Provinz Hispania citerior oder Hispania Tarraconensis eine neue Provinz ab, die er Hispania nova citerior Antoniniana nannte. Sie befand sich im Nordwesten der Halbinsel nördlich des Duero. Ihre Existenz ist nur aus Inschriften erschlossen und ihre Ausdehnung ist nicht genau bekannt, denn sie wurde bereits spätestens in den dreißiger Jahren des 3. Jahrhunderts wieder mit der Tarraconensis vereinigt. Caracalla führte 214/215 eine Münzreform durch, die der Finanzierung des geplanten Partherkriegs dienen sollte. Er schuf eine neue Silbermünze, die später nach seinem offiziellen Namen Antoninus als Antoninian bezeichnet wurde. Der Antoninian, der im 3. Jahrhundert zur geläufigsten römischen Münze wurde, entsprach zwei Denaren, sein Gewicht jedoch nur etwa dem von anderthalb Denaren. Faktisch handelte es sich also um eine Geldverschlechterung. Diese führte zur Hortung des alten Geldes, die aus zahlreichen Schatzfunden ersichtlich ist. Außerdem wurde das Gewicht der Goldmünze Aureus um rund 9 Prozent reduziert (von 7,20 auf 6,55 g). Schon 212 hatte Caracalla den Silbergehalt des Denars um rund 8 Prozent verringert (von 1,85 g auf 1,70 g), offenbar wegen der Kosten der Solderhöhungen nach dem Mord an Geta. Noch drastischer war die Geldverschlechterung im Osten des Reichs, wo die syrische Drachme und die Tetradrachme die Hälfte ihres Silbergehalts einbüßten (Verringerung von 2 g Silber im Jahr 213 auf 0,94 g im Jahr 217). Dies bewirkte einen massiven Verlust an Vertrauen in den Geldwert. Trotz der Härte, mit der Caracalla gegen jede Kritik vorging, soll die Steuerlast zu einer deutlichen Unmutsbekundung der Menge bei einem Pferderennen geführt haben. Religion Caracallas Verhältnis zur Religion war, wie Cassius Dio berichtet, vor allem von seinem Bedürfnis bestimmt, von den Göttern Heilung von seinen Krankheiten zu erlangen. Zu diesem Zweck soll er allen bedeutenderen Gottheiten Opfer und Weihegaben dargebracht und eifrig gebetet haben. Zu den Göttern, von denen er Hilfe erhoffte, gehörten der griechische Heilgott Asklepios, der ägyptische Serapis und Apollon, der mit dem keltischen Heilungsgott Grannus identifiziert und als Apollo Grannus verehrt wurde. Wahrscheinlich besuchte der Kaiser den Apollo-Grannus-Tempel in Faimingen, das damals Phoebiana hieß und zur Provinz Raetia gehörte. Seine besondere Verehrung galt Sarapis, in dessen Tempelbezirk er während seines Aufenthalts in Alexandria wohnte. Auf dem römischen Hügel Quirinal ließ er einen Sarapis-Tempel errichten, der inschriftlich bezeugt ist, aber bisher nicht lokalisiert werden konnte. Außenpolitik Germanenfeldzug Im Sommer 213 unternahm Caracalla einen kurzen Feldzug gegen Germanen. Nach einer fragmentarisch erhaltenen inschriftlichen Quelle, den Acta Fratrum Arvalium, überschritt der Kaiser am 11. August 213 die rätische Grenze im Kampf gegen die Germanen. In der Forschung des In- und Auslandes wurde dieser Grenzübergang mehrfach mit dem Limestor Dalkingen in Verbindung gebracht. Laut byzantinischen Auszügen aus einem verlorenen Teil von Cassius Dios Geschichtswerk handelte es sich bei den Germanen um Alamannen. Das ist die erste namentliche Bezeugung der Alamannen. Die Zuverlässigkeit dieser Angabe, die in der älteren Forschung allgemein akzeptiert worden war, ist seit 1984 wiederholt bestritten worden, da der Alamannenname erst ein späterer Zusatz sei und nicht von Dio stamme; sie hat aber auch weiterhin Befürworter und wird ausführlich gegen die Kritik verteidigt. Zunächst errang der Kaiser einen größeren Sieg am Main, woraufhin er den Siegernamen Germanicus maximus annahm. Die anschließenden Kämpfe scheinen aber für ihn weniger günstig verlaufen zu sein, denn er sah sich zu Zahlungen an germanische Gruppen veranlasst. Insgesamt war sein Vorgehen aber offenbar erfolgreich, denn die Lage an der Nordgrenze blieb für zwei Jahrzehnte stabil. Expansionspolitik im Osten Nach der Befriedung der Nordgrenze begab sich Caracalla in den Osten des Reichs, von wo er nicht mehr zurückkehren sollte. Zunächst scheint er im Gebiet der Stadt Tyras (heute Bilhorod-Dnistrowskyj in der Südukraine) die Karpen besiegt zu haben, dann zog er nach Kleinasien. Den Winter 214/215 verbrachte er in Nikomedeia, von dort brach er im Frühjahr 215 nach Antiocheia auf. Hatte er sich schon früher auch in Äußerlichkeiten in die Nachfolge Alexanders des Großen gestellt – er soll bei einem Besuch des Alexandergrabes auf den Sarkophag eine Chlamys, einen Ring und einen Gürtel gelegt haben –, so erreichte die Alexander-Nachahmung in seinen letzten Lebensjahren ihren Höhepunkt. Er soll eine Streitmacht von 16.000 Mann als „makedonische Phalanx“ mit makedonischer Kleidung und Bewaffnung aufgestellt haben. In einem Brief an den Senat behauptete er, eine Reinkarnation des Makedonenkönigs zu sein. Damit deutete er das Programm einer Wiederherstellung von Alexanders Weltreich, zumindest einer ruhmreichen Expansion nach Osten an. Schon vor seinem Aufbruch in den Osten hatte er König Abgar IX. von Osrhoene nach Rom gelockt und dort gefangengesetzt, worauf er das Königreich annektierte. Auch den arsakidischen König von Armenien und dessen Familie hatte er mit List in seine Gewalt gebracht, doch im Reich dieses Herrschers stießen die Römer auf hartnäckigen Widerstand. Ein römischer Vorstoß nach Armenien, dessen Durchführung der Kaiser seinem Vertrauten Theokritos übertragen hatte, scheiterte. Die Anknüpfung an das Vorbild Alexanders des Großen und an dessen Weltherrschaftsidee bedeutete Konfrontation mit dem Partherreich, das Caracalla ins Römische Reich eingliedern wollte. Angeblich verfolgte er sein Ziel zunächst auf friedlichem Weg oder versuchte zumindest diesen Anschein zu erwecken: Er soll dem Partherkönig Artabanos IV. ein Heiratsprojekt vorgeschlagen haben. Artabanos sollte ihm seine Tochter zur Frau geben und damit den Weg zu einer künftigen Vereinigung der beiden Reiche ebnen. Dieses Projekt fällt ganz aus dem Rahmen der traditionellen römischen Außenpolitik; römische Kaiser gingen nie Heiratsverbindungen mit auswärtigen Herrscherhäusern ein. Die Historizität der von Cassius Dio und Herodian mitgeteilten, bei Herodian mit phantastischen Elementen ausgeschmückten Episode ist in der Forschung umstritten; überwiegend wird angenommen, dass die Überlieferung zumindest einen historischen Kern hat. Auch dabei spielte das Vorbild Alexanders eine Rolle; der Makedone hatte Stateira, eine Tochter des Perserkönigs Dareios III., geheiratet. Erst als Artabanos den phantastisch anmutenden Vorschlag ablehnte, begann Caracalla im Frühjahr 216 den Feldzug gegen die Parther. Begünstigt wurden die Römer durch den Umstand, dass bei den Parthern damals ein Bürgerkrieg zwischen den Brüdern Artabanos IV. und Vologaeses VI. herrschte, in welchem allerdings Caracallas Gegner Artabanos deutlich die Oberhand hatte. Die römischen Truppen rückten kampflos bis nach Arbela vor. Dort plünderten sie die Gräber der Könige der Adiabene, einer vom Partherreich abhängigen Dynastie. Danach zog sich Caracalla nach Edessa zurück. Dort verbrachte er den Winter, während Artabanos den parthischen Gegenangriff vorbereitete, der dann aber erst Caracallas Nachfolger Macrinus mit voller Wucht traf. Cassius Dio behauptet, die Disziplin des römischen Heeres sei wegen Caracallas Verwöhnung der Soldaten mangelhaft gewesen. Tod und Nachfolge Bevor es zu Kämpfen mit den Parthern kam, fand Caracallas Herrschaft ein gewaltsames Ende. Die detaillierte Schilderung der Vorgeschichte und der Umstände seines Todes bei Cassius Dio gilt in der Forschung als glaubwürdig, sie wird im Wesentlichen in modernen Darstellungen übernommen. Zu den Personen nichtsenatorischer Herkunft, die Caracalla in Schlüsselstellungen gebracht hatte, gehörte der militärisch unerfahrene Prätorianerpräfekt Macrinus. Wie Cassius Dio mitteilt, befand sich Macrinus im Frühjahr 217 in einer akuten Notlage: Prophezeiungen hatten ihm die Kaiserwürde verheißen, und dies war Caracalla zu Ohren gekommen; außerdem war ein schriftlicher Bericht an den Kaiser unterwegs, und Macrinus war vor der ihm infolgedessen drohenden Lebensgefahr gewarnt worden. Das war wohl eine Intrige, doch hatte der Präfekt jedenfalls Anlass, darin eine tödliche Bedrohung zu sehen. Daher organisierte er mit einigen Unzufriedenen die Ermordung Caracallas. An dem Anschlag waren drei Männer beteiligt: der evocatus Julius Martialis, der den Kaiser wegen einer persönlichen Zurücksetzung hasste, und zwei Prätorianertribunen. Martialis führte das Attentat am 8. April 217 aus, als der Kaiser sich auf dem Weg von Edessa nach Carrhae befand, wo er ein berühmtes Heiligtum des Mondgottes Sin aufsuchen wollte. Als Caracalla unterwegs vom Pferd stieg, um seine Notdurft zu verrichten, näherte sich ihm Martialis, scheinbar um ihm etwas zu sagen, und versetzte ihm einen Dolchstoß. Ein skythischer Leibwächter Caracallas tötete darauf den flüchtenden Attentäter mit seiner Lanze. Die beiden Prätorianertribunen eilten zum Kaiser, als wollten sie ihm helfen, und vollendeten die Mordtat. Mit Caracalla starb die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus. Erst nach tagelangem Zögern ließen sich die Soldaten überreden, Macrinus am 11. April zum Kaiser auszurufen. Caracalla wurde in Rom im Mausoleum Hadriani beigesetzt. Aussehen und Ikonographie Nach Herodians Angaben war Caracalla von kleiner Statur, aber robust. Er bevorzugte germanische Kleidung und trug eine blonde, nach germanischer Art frisierte Perücke. Cassius Dio erwähnt, dass der Kaiser gern einen wilden Gesichtsausdruck annahm. Eine Vorstellung von seinem Aussehen und vor allem von dem Eindruck, den er erwecken wollte, vermitteln insbesondere die zahlreichen erhaltenen Plastiken. Auch die Münzbildnisse sind aussagekräftig. Darstellungen des jungen Caracalla sind kaum von denen Getas zu unterscheiden. Zahlreiche Porträts aus der Zeit seiner Alleinherrschaft zeigen den Kaiser mit zusammengezogenen Stirnmuskeln und Augenbrauen; mit der grimmigen Miene sollten seine Willensstärke und Gewaltbereitschaft demonstriert werden. Offenbar zielte diese Selbstdarstellung auf Einschüchterung. Zugleich sollten damit die soldatischen Qualitäten des Kaisers betont werden. Heinz Bernhard Wiggers hat bei der Rundplastik fünf Haupttypen unterschieden, die bei ihm meist nach den Fundorten der typbestimmenden Leitstücke benannt sind. Die spätere Forschung ist ihm hinsichtlich dieser Gruppierung gefolgt, benennt und datiert aber zum Teil anders. Die Typen sind: „Typus Argentarierbogen“, auch „erster Thronfolgertypus“ genannt (Zeitraum ca. 197–204): Caracalla wird teils als Kind, teils schon als Jugendlicher dargestellt. Er hat fülliges, lockiges Haar und noch keinen Bartwuchs. Der Typus ist sehr häufig. Die Stirnfrisur erinnert mitunter an Knabenbildnisse Marc Aurels, dessen fiktiver Adoptivenkel Caracalla war. „Typus Gabii“, auch „zweiter Thronfolgertypus“ oder „Consulatstypus“ genannt (Zeitraum ca. 205–211): Caracalla wird als junger Mann mit unterschiedlich fortgeschrittenem Bartwuchs dargestellt. Neu sind ein dreieckförmiger Stirnwulst mit Spitze nach unten und zwei waagrechte Stirnfalten. „Typus Vestalinnenhaus“: Dieser Typus war anscheinend wenig verbreitet. Der Stirnwulst ist flach, die horizontalen Stirnfalten sind lang; hinzu kommen zwei von der Nasenwurzel ausgehende Steilfalten. Wiggers datiert den Typus um 210, Klaus Fittschen setzt seine Entstehung in die Zeit der Alleinherrschaft Caracallas. „Erster Alleinherrschertypus“ (Fittschen) oder „Typus Alleinherrscher“ (Wiggers): Dieser wohl im Jahr 212 geschaffene Typus ist sehr häufig, er ist der charakteristische Bildnistyp der Alleinherrscherzeit und wurde in der Frühen Neuzeit oft nachgeahmt. Das Haar ist in Lockenreihen angeordnet. Der Gesichtsausdruck ist angespannt. Zu den horizontalen und vertikalen Stirnfalten kommen zwei Diagonalfalten hinzu, die den Stirnwulst seitlich abgrenzen. Gerunzelte, zusammengezogene Brauen verstärken den finsteren Eindruck, den die faltige Stirn erzeugt. Neu ist eine Quetschfalte bei der Nasenwurzel. Eine Variante mit gebogener Nase kommt nur bei Funden aus dem Osten vor; vermutlich handelt es sich dabei um einen realistischen Aspekt, den die stadtrömischen Bildhauer aus ästhetischem Grund wegließen. „Zweiter Alleinherrschertypus“ (Fittschen) oder „Typus Tivoli“ (Wiggers): Die Gesichtszüge sind deutlich entspannter als beim ersten Alleinherrschertypus. Wiggers datierte diesen Typus um 211–214, Fittschen – dessen Auffassung sich durchsetzt – hat seine Entstehung ins Jahr 215 gesetzt. Auf Münzen sind mehr Porträttypen unterscheidbar, was an der besseren Fundlage der Münzen gegenüber der Plastik liegen dürfte. Der erste Typ zeigt Caracalla als kindlichen Caesar ohne Lorbeerkranz. Es folgen sechs durch den zunehmenden Bartwuchs unterscheidbare Typen aus der Zeit zwischen 197 und der Ermordung Getas Ende 211. Die Münzbildnisse sollten wohl nach dem Willen des Vaters die Ähnlichkeit der beiden Brüder betonen und sie damit als gleichberechtigte künftige Nachfolger präsentieren. Nach Getas Tod folgt zunächst der durch dramatische Stirnfalten charakterisierte achte Porträttyp und schließlich in den letzten Regierungsjahren der neunte und letzte Typ mit entspannteren Gesichtszügen. Diese beiden Typen entsprechen dem ersten bzw. zweiten Alleinherrschertypus der Plastik. Rezeption Zeitgenössische Urteile und Darstellung in den Hauptquellen Caracallas Ansehen bei den Soldaten beruhte nicht nur auf seiner finanziellen Großzügigkeit, sondern auch auf seiner Nähe zu ihrer Lebensweise: Auf den Feldzügen nahm er freiwillig die gleichen Strapazen auf sich wie ein einfacher Soldat. Seine körperliche Ausdauer verschaffte ihm Respekt. Noch lange nach seinem Tod hielt seine Beliebtheit im Heer an. Vielleicht schon während der kurzen Herrschaft des Macrinus setzten die Soldaten durch, dass der Senat ihn widerwillig im Rahmen des Kaiserkults zum Gott erhob. Spätestens ab dem ersten Regierungsjahr von Macrinus’ Nachfolger Elagabal wurde er als divus Magnus Antoninus verehrt. Elagabal verdankte seinen Aufstieg zur Macht dem Umstand, dass er als unehelicher Sohn Caracallas ausgegeben wurde, was ihm die Sympathie der Soldaten verschaffte; in Wirklichkeit war er nur sehr entfernt mit dem ermordeten Kaiser verwandt. Auch Elagabals Nachfolger Severus Alexander trat als unehelicher Sohn Caracallas auf, um sich bei den Soldaten beliebt zu machen. Die Nachrichten über Caracallas Ansehen in der hauptstädtischen Bevölkerung sind widersprüchlich. Im Senat war er verhasst, daher wurde sein Tod dort bejubelt. Da er sich auf die senatorischen Familien nicht verlassen konnte, stützte er sich auf Aufsteiger ritterlicher Herkunft. Deren Bevorzugung steigerte die Erbitterung der zurückgesetzten Senatoren. Die extrem caracallafeindliche Stimmung in der senatorischen Führungsschicht spiegelt sich in den Hauptquellen, den Darstellungen der zeitgenössischen Geschichtsschreiber Cassius Dio und Herodian, sowie in der weit später entstandenen und als Quelle weniger wertvollen Historia Augusta. Cassius Dio hielt Caracalla für geistesgestört. Er legte fast alles, was der Kaiser tat, zu dessen Ungunsten aus. Seine Römische Geschichte, die aus der Perspektive der senatorischen Opposition geschrieben ist, gilt trotz dieser sehr parteiischen Haltung als die beste Quelle und als relativ zuverlässig. Allerdings ist der Caracallas Zeit behandelnde Teil dieses Werks nur fragmentarisch überliefert; er ist hauptsächlich in Auszügen erhalten, die den Text in stark verkürzter Form und teilweise paraphrasierend wiedergeben. Herodians Geschichte des Kaisertums nach Mark Aurel ist im Original erhalten. Er hat wahrscheinlich Dios Werk benutzt, doch ist das Verhältnis der beiden Quellen unklar und umstritten. Der Quellenwert von Herodians Darstellung wird wesentlich niedriger veranschlagt als der von Dios Römischer Geschichte. Die spätantike Historia Augusta hängt teilweise von den beiden älteren Werken ab, doch muss ihr Verfasser auch Zugang zu Material aus mindestens einer weiteren, heute verlorenen Quelle gehabt haben. Außerhalb des Kreises seiner Anhänger wurde der Kaiser mit Spitznamen benannt. Wohl erst in der Zeit seiner Alleinherrschaft nannte man ihn nach seinem Kapuzenmantel Caracalla. Dabei handelte es sich um eine vom Kaiser persönlich entworfene modifizierte Luxusausführung eines keltischen Kleidungsstücks. Ein weiterer Spitzname, den Cassius Dio überliefert, war Tarautas; unter diesem Namen war ein kleinwüchsiger, hässlicher und brutaler Gladiator bekannt, der offenbar ähnlich wie der Kaiser aussah, zumindest nach der Ansicht von dessen Gegnern. Antike Caracalla-Legenden Schon zu Caracallas Lebzeiten kursierten anscheinend Gerüchte über eine sexuelle Beziehung zwischen ihm und seiner Mutter Julia Domna nach dem Tod seines Vaters. Dies war eine Verleumdung, die sich im Lauf der Zeit zu einer Legende auswuchs. Der Chronograph von 354 teilt sie wie eine Tatsache mit. In Wirklichkeit war das Verhältnis zwischen Mutter und Sohn nach dem Mord an Geta schlecht, obwohl Julia Domna offiziell geehrt wurde. Inzest war ein Topos der Tyrannendarstellung und wurde schon Nero unterstellt. Quellen des 4. Jahrhunderts und der Folgezeit, darunter die Historia Augusta, Aurelius Victor, Eutropius und die Epitome de Caesaribus, machen aus Julia Domna die Stiefmutter Caracallas und behaupten, er habe sie geheiratet. Diese phantastische Darstellung findet sich auch bei christlichen Autoren der patristischen Zeit (Orosius, Hieronymus) und prägte im Mittelalter das Bild Caracallas als eines hemmungslosen Unholds. Der tatsächlich verübte Brudermord an Geta hingegen geriet in Vergessenheit. Mittelalter Eine mittelalterliche Caracalla-Legende überliefert Geoffrey von Monmouth, der im 12. Jahrhundert das Geschichtswerk De gestis Britonum verfasste, das später unter dem Titel Historia regum Britanniae bekannt wurde und eine sehr starke Nachwirkung erzielte. Nach Geoffreys Darstellung waren Geta und Caracalla, den er Bassianus nennt, nur Halbbrüder; Geta stammte von einer römischen Mutter, Caracalla von einer britischen. Caracalla wurde von den Briten, da er mütterlicherseits zu ihnen gehörte, zum König gewählt, Geta von den Römern. Es kam zur Schlacht, in der Caracalla siegte und Geta fiel. Später wurde Caracalla von Carausius besiegt und getötet. In dieser Darstellung vermischte Geoffrey verschiedene Epochen, denn in Wirklichkeit war Carausius ein römischer Befehlshaber, der sich 286 zum Kaiser ausrufen ließ und ein kurzlebiges Sonderreich in Britannien und nördlichen Küstengebieten Galliens begründete. Frühe Neuzeit Um die Wende vom 16. zum 17. Jahrhundert verfasste ein unbekannter englischer Dichter das lateinische Universitätsdrama Antoninus Bassianus Caracalla in jambischen Senaren. Er thematisierte neben dem Brudermord insbesondere die angebliche Ehe Caracallas mit Julia Domna, wobei er Julia nicht als Stiefmutter, sondern als leibliche Mutter Caracallas darstellte. Er schilderte also die Verbindung als wirklichen Inzest. Im Jahr 1762 fertigte der französische Maler Jean-Baptiste Greuze ein Ölgemälde an, das Septimius Severus und Caracalla in Britannien zeigt. Der Kaiser wirft seinem Sohn vor, er habe versucht ihn zu ermorden. Die Szene fußt auf einer von Cassius Dio mitgeteilten legendenhaften Überlieferung, der zufolge Caracalla nach einem Attentatsversuch auf seinen Vater zur Rede gestellt, aber nicht bestraft wurde. Moderne Die Einschätzungen der modernen Historiker orientieren sich generell – trotz Kritik an Einzelheiten der Überlieferung – weitgehend am Caracallabild der antiken Geschichtsschreibung. In der älteren Forschung pflegte man in Caracalla einen typischen Repräsentanten einer Verfallszeit zu sehen. Cassius Dios nicht überprüfbare Behauptung, der Kaiser sei geisteskrank gewesen, wirkt bis in die Gegenwart nach. Das früher populäre Schlagwort Cäsarenwahnsinn wird aber in der Fachliteratur vermieden, da es unwissenschaftlich ist und zur Erhellung der historischen Realität nichts beiträgt. Zwei führende Kunsthistoriker des 19. Jahrhunderts, Anton Springer und Jacob Burckhardt, meinten aus Caracallas Porträt einen zutiefst verbrecherischen Charakter herauslesen zu können. Für Theodor Mommsen war Caracalla „ein geringfügiger, nichtswürdiger Mensch, der sich ebenso lächerlich wie verächtlich machte“; zum Partherkrieg habe ihn seine „wahnsinnige Ruhmsucht“ veranlasst und dabei sei er „glücklicherweise“ ums Leben gekommen. Ernst Kornemann schrieb, er sei „voll Größenwahnsinn“ gewesen; im Heer und im Staate habe überall „der gemeine, unwissende Haufe“ geherrscht. Alfred Heuß meinte, Caracalla sei zu „sachlichen Leistungen“ unfähig gewesen, „ein roher, hemmungsloser und moralisch minderwertiger Mensch, der schon vor der Thronbesteigung stark verbrecherische Neigungen verriet“; zum Partherkrieg sei er von seiner „kindischen Phantasie“ veranlasst worden. Ähnlich ist das Urteil von Karl Christ ausgefallen: Caracalla habe seine „Grausamkeit, Hinterlist und innere Labilität“ nicht verborgen, habe an einer Nervenkrankheit gelitten und „in jeder Beziehung extrem und überreizt“ reagiert. Er sei „brutal, von unheimlicher Willenskraft“ gewesen; in den überlieferten Anekdoten habe sich „wohl die historische Wahrheit verdichtet“. Mit seiner Selbstdarstellung habe er vor allem Furcht erregen wollen. Die Constitutio Antoniniana erscheine zwar aus dem Rückblick als bedeutende Maßnahme, habe aber politisch an den bereits vorhandenen Strukturen kaum etwas geändert. Géza Alföldy war der Ansicht, das Urteil Cassius Dios sei „im Grunde genommen richtig“, eine „Ehrenrettung“ Caracallas entbehre jeder Grundlage. In der neueren Forschung wird allerdings auch betont, dass die zeitgenössischen erzählenden Quellen von leidenschaftlichen Gegnern des Kaisers stammen und die Haltung der oppositionellen Senatskreise spiegeln und dass bei den Schilderungen seiner Missetaten, seiner abstoßenden Charakterzüge und seiner Unbeliebtheit mit Übertreibungen zu rechnen ist. Es wird darauf hingewiesen, dass Caracalla bei großen Teilen der Reichsbevölkerung möglicherweise weniger verhasst war als bei der hauptstädtischen Oberschicht. Unstrittig ist, dass er bei den Soldaten sogar lange über seinen Tod hinaus in höchstem Ansehen stand. Anthony R. Birley meint, man müsse zwar die Voreingenommenheit Cassius Dios in Rechnung stellen, doch lasse sich wenig zur Entlastung Caracallas vorbringen. 1907 vollendete Lawrence Alma-Tadema nach fast zweijähriger Arbeit das Ölgemälde „Caracalla and Geta“. Es zeigt die kaiserliche Familie – Caracalla mit seinem Bruder und seinen Eltern – im Kolosseum. Quellen Die Quellenlage bei Caracalla ist recht dürftig. Die Hauptquellen sind die spätantike Historia Augusta und die Beschreibungen der Geschichtsschreiber Cassius Dio und Herodian. Die Historia Augusta ist jedoch sehr umstritten da sie oft übertriebene oder fiktive Angaben hat, was sie als Quelle sehr problematisch macht. Als zuverlässiger gelten Dio und Herodian, da beide jeweils Zeitzeugen waren. Jedoch gilt Herodian im Vergleich zu Cassius Dio als unzuverlässiger. Antike Quellen Cassius Dio: Römische Geschichte. 5 Bde., übers. von Otto Veh, Artemis, München 1985–1987. (Sonderausgabe: Artemis & Winkler, Düsseldorf 2007, ISBN 978-3-538-03103-6). Für Caracalla sind die Bücher 78 und 79 wichtig. Historia Augusta: Das Leben des Caracalla Herodian: Charles R. Whittaker (Hrsg.): Herodian (Loeb Classical Library). 2 Bände, Heinemann, London 1969–1970 (griechischer Text mit ausgezeichneter Einleitung, englischer Übersetzung und Kommentar). Für Caracalla ist Buch 4 relevant. Quellenausgaben und Kommentare Herbert Baldwin Foster, Earnest Cary (Hrsg.): Dio’s Roman History, Band 9, Harvard University Press, Cambridge (Massachusetts) 1961 (Nachdruck der kritischen Ausgabe von 1927) Peter Alois Kuhlmann (Hrsg.): Die Gießener literarischen Papyri und die Caracalla-Erlasse. Edition, Übersetzung und Kommentar (= Berichte und Arbeiten aus der Universitätsbibliothek und dem Universitätsarchiv Gießen, Bd. 46). Universitätsbibliothek Gießen, Gießen 1994, S. 215–255 (enthält: Constitutio Antoniniana; Der Amnestie-Erlass; Die Vertreibung der Ägypter aus Alexandria. Digitalisat) Carlo M. Lucarini (Hrsg.): Herodianus: Regnum post Marcum. Saur, München 2005, ISBN 3-598-71282-0 (kritische Ausgabe) Michael Louis Meckler (Hrsg.): Caracalla and his late-antique biographer: a historical commentary on the Vita Caracalli in the Historia Augusta. Dissertation, University of Michigan, Ann Arbor 1994 (Einleitung, kritische Ausgabe, englische Übersetzung und Kommentar) Literatur Allgemeines Gregor Berghammer: Caracalla. Die Militärautokratie des Kaisers Severus Antoninus. Computus, Gutenberg 2022, ISBN 978-3-940598-51-6. Julia Gräf (Hrsg.): Caracalla. Kaiser, Tyrann, Feldherr. Von Zabern, Darmstadt/Mainz 2013, ISBN 978-3-8053-4611-5 (Bildband; Sammlung von Beiträgen mehrerer Autoren) David S. Potter: The Roman Empire at Bay, AD 180–395. London/New York 2004, ISBN 0-415-10057-7, S. 110–124, 133–151 Ilkka Syvänne: Caracalla. A Military Biography. Pen & Sword Military, Barnsley 2017, ISBN 978-1-4738-9524-9 Gerhard Wirth: Caracalla in Franken. Zur Verwirklichung einer politischen Ideologie. In: Jahrbuch für Fränkische Landesforschung 34/35, 1975, S. 37–74 (enthält auch eine allgemeine Untersuchung von Caracallas Herrschaft) Ikonographie Klaus Fittschen, Paul Zanker: Katalog der römischen Porträts in den Capitolinischen Museen und den anderen kommunalen Sammlungen der Stadt Rom. Band 1, 2., überarbeitete Auflage, Philipp von Zabern, Mainz 1994, ISBN 3-8053-0596-6, Textband S. 98–100, 102–112, Tafelband Tafeln 105–116 Nr. 86, 88–94. Heinz Bernhard Wiggers, Max Wegner: Caracalla, Geta, Plautilla. Macrinus bis Balbinus (= Max Wegner (Hrsg.): Das römische Herrscherbild, Abteilung 3 Band 1). Gebrüder Mann, Berlin 1971, ISBN 3-7861-2147-8, S. 9–92 Hilfsmittel Attilio Mastino: Le titolature di Caracalla e Geta attraverso le iscrizioni (indici). Editrice Clueb, Bologna 1981 (Zusammenstellung der inschriftlichen Belege für die Titulatur) Weblinks Englische Übersetzung der Lebensbeschreibung in der Historia Augusta bei LacusCurtius Anmerkungen Kaiser (Rom) Septimier Severer Herrscher (3. Jahrhundert) Pontifex Römer Geboren 188 Gestorben 217 Mann
850
https://de.wikipedia.org/wiki/Curl%20%28Programmiersprache%29
Curl (Programmiersprache)
Curl ist eine Multiparadigmen-Programmiersprache, die entwickelt wurde, um bessere Internetanwendungen schreiben zu können. Es fließen Elemente aus Markupsprache, Skript- und objektorientierter Sprache ein. Curl wird seit 1995 entwickelt. Die erste öffentliche Version erschien im Jahr 2000. Inzwischen liegt Curl in der Version 8.0.13 vor und wird von den Mitarbeitern der Firma Curl, Inc. weiterentwickelt. Curl, Inc. ist eine hundertprozentige Tochtergesellschaft des japanischen Unternehmens Sumisho Computer Systems. Curl-Anwendungen gehören in der Regel zur Gruppe der Rich Internet Applications. Anwendungen, die direkt aus dem Internet geladen oder lokal installiert wurden, werden in der gleichen sicheren Sandbox ausgeführt. Sie können online oder offline ausgeführt werden. Es wird ein Plug-In (Curl Surge RTE) benötigt, das auf der Webseite des Herstellers zum Herunterladen zur Verfügung gestellt wird. Außerdem stellt das Unternehmen einen Curl-Editor (Curl Surge Lab IDE) für die Programmierung zur Verfügung, der eine umfangreiche Dokumentation in englischer Sprache enthält. Curl ist nicht zu verwechseln mit dem gleichnamigen cURL, einem Download-Manager. Siehe auch Smart Client Weblinks Homepage von Curl Incorporated Download Curl RTE Homepage von Curl International Corporation Ausführliche Erläuterung von tecchannel Skriptsprache World Wide Web
851
https://de.wikipedia.org/wiki/Charles%20Babbage
Charles Babbage
Charles Babbage (* 26. Dezember 1791 in Walworth, Grafschaft Surrey, England; † 18. Oktober 1871 in London) war ein englischer Mathematiker, Philosoph, Erfinder und Politischer Ökonom. Babbage initiierte zahlreiche wissenschaftliche und soziale Reformen und ist vor allem für die von ihm entwickelte Rechenmaschine Analytical Engine bekannt. Diese gilt als Vorläufer des modernen Computers. 1854 gelang ihm als Erstem die Entzifferung einer Vigenère-Chiffre. Nach Babbage sind der Asteroid (11341) Babbage und der Mondkrater Babbage benannt. Leben Der aus zwei alten Familien aus Devonshire stammende Babbage begann im Jahr 1810 ein Studium am Trinity College in Cambridge; Schwerpunkte waren Mathematik und Chemie. 1812 gründete er zusammen mit John Herschel die Analytical Society, deren Ziel die Reformierung der britischen Mathematik und die Verbreitung fortschrittlicher Methoden vom europäischen Festland (wie etwa des Leibnizschen Differentialkalküls) war. 1814 machte er seinen Abschluss am Peterhouse in Cambridge. Am 2. Juli desselben Jahres heiratete er Georgiana Whitmore. Im Jahre 1815 hielt Babbage eine Vorlesungsreihe über Astronomie an der Royal Institution, am 14. März 1816 ernannte man ihn für seine Verdienste auf dem Gebiet der Mathematik zum Mitglied der Royal Society und 1817 erreichte er den Magister der Philosophie. Am 26. Januar 1820 wurde er auch zum Fellow der Royal Society of Edinburgh. Im gleichen Jahr gründete Babbage zusammen mit John Herschel und George Peacock die Royal Astronomical Society, deren Schriftführer er bis 1824 wurde. Erster Präsident wurde Sir William Herschel, Babbage wurde am 18. Februar 1824 zum Vizepräsidenten gewählt. Am 18. November 1823 wählte man Babagge zum Ehrenmitglied der Society of Art for Scotland. Bis 1822 hatte Babbage ein funktionierendes Modell einer Rechenmaschine (zur Erstellung fehlerfreier Zahlentafeln) fertiggestellt. Mit Unterstützung der britischen Regierung begann 1823 die Arbeit an der difference engine no. 1. 1826 veröffentlichte Babbage eine Schrift, in der er das Geschäft mit Lebensversicherungen mit Hilfe von Sterbetabellen auf eine statistische Grundlage stellte. Er erkannte die Abhängigkeit der Sterblichkeit von der sozialen Klasse und schlug deshalb vor, für die unteren Schichten andere Sterbetafeln als für die oberen Schichten zu verwenden. Nach dem Tod des Vaters Benjamin Babbage (1753–1827) (wodurch Charles Babbage zu einem Erbe kam, welches ihm für den Rest seines Lebens ein sicheres Auskommen garantierte) und dem Ableben zweier Söhne und der Ehefrau innerhalb von sieben Monaten, trat er 1827 eine einjährige Europareise durch die Niederlande, Deutschland, Österreich und Italien an. Unter anderem bestieg er dabei den Krater des damals aktiven Vesuvs, traf mehrere Mitglieder der Familie Bonaparte, untersuchte den Serapistempel in Pozzuoli und besuchte Alexander von Humboldt in Berlin. Nach seiner Rückkehr war er bis 1834 politisch aktiv und unterstützte mit mäßigem Erfolg mehrere liberale Lokalpolitiker. Babbage wurde 1828 Professor für Mathematik am Lucasischen Lehrstuhl für Mathematik an der Universität Cambridge (bis 1839), hielt aber keine Vorlesungen. Sein Bericht Reflections on the decline of science in England, and on some of its causes von 1830, in denen sich seine Unzufriedenheit mit dem Zustand der Royal Society widerspiegelte, führte 1831 zur Gründung der British Association for the Advancement of Science. Sein Buch On the Economy of Machinery and Manufactures erschien 1832. Dieses ist eine Analyse der Technologie und Organisation des Industriekapitalismus seiner Zeit, in der er unter anderem über die Senkung von Lohnkosten durch die Aufspaltung ganzheitlich-zusammenhängender Arbeit in mehrere, insgesamt weniger anspruchsvolle Tätigkeiten schrieb, was heute auch als „Babbage-Prinzip“ bekannt ist. Im selben Jahr wurde ein erstes Modul der difference engine aus etwa 2.000 von insgesamt projektierten 25.000 Teilen durch den Feinmechaniker Joseph Clement fertiggestellt. 1832 wurde Babbage in die American Academy of Arts and Sciences gewählt. Im Jahr 1833 begann er die Arbeit an der analytical engine auf eigene Kosten. 1834 gründete er die Gesellschaft für Statistik in London. 1842 stellte die britische Regierung das Projekt difference engine no.1 endgültig ein, 1846 beendete Babbage die Entwicklung der analytical engine. Ab 1847 arbeitete er an detaillierten Plänen für eine difference engine no.2 (bis etwa 1849), die mit bedeutend weniger Bauteilen als no.1 auskam. 1854 gelang Babbage als Erstem die Entzifferung einer Vigenère-Chiffre, indem er beschrieb, wie man den passenden Schlüssel aus dem chiffrierten Text filtert. Er veröffentlichte sein Verfahren jedoch nie, so dass Wissenschaftler auf seine Erkenntnisse erst nach seinem Tod aufmerksam wurden. Ehrungen 1824 wurde er mit der Goldmedaille der Royal Astronomical Society ausgezeichnet. 1830 wurde er zum auswärtigen Mitglied der Bayerischen Akademie der Wissenschaften ernannt. Im Dezember 1832 wurde er als auswärtiges korrespondierendes Mitglied in die Russische Akademie der Wissenschaften aufgenommen. 1832 wurde Babbage die Ritterstufe des Guelphen-Ordens verliehen. In Anerkennung seiner Verdienste in der Versicherungsmathematik wurde er Ehrenmitglied des Institutes der Actuarien, das Mitte des 19. Jahrhunderts in Österreich-Ungarn vom Verein für volkswirthschaftlichen Fortschritt gegründet wurde. Nach Babbage sind der Asteroid (11341) Babbage und der Mondkrater Babbage benannt. Zitate „Eines Abends saß ich in den Räumen der Analytischen Gesellschaft in Cambridge, den Kopf in einer Art Wachtraum auf den Tisch gestützt und eine Logarithmentafel aufgeschlagen vor mir. Ein anderes Mitglied kam in den Raum, sah mich im Halbschlaf, und rief: ‚Babbage sag, wovon träumst du?‘, worauf ich erwiderte: ‚Ich denke daran, dass all diese Tafeln (worauf ich auf die Logarithmen deutete) von einer Maschine berechnet werden könnten‘.“ Wissenschaftliches Werk Babbage entwickelte mit der difference engine und der analytical engine zwei mechanische Rechenmaschinen, von denen er zu Lebzeiten zwar kein funktionstüchtiges Exemplar fertigstellen konnte, deren letztere aber als Vorläufer des modernen Computers gilt. Seine Interessen und Aktivitäten gehen aber weit über die Pionierleistung auf diesem Gebiet hinaus. Seine unter dem Titel Economy of machinery and manufactures erschienene Analyse des Fabrikkapitalismus wurde eine wichtige Quelle für Karl Marx, der dieses Buch umfassend rezipierte. Nach Babbage ist das Babbage-Prinzip benannt, das sich mit Lohnkosten befasst. Er stellte das Lebensversicherungsgeschäft auf eine mathematische Grundlage, beschäftigte sich mit Kryptologie, der Navigation von Unterwasserfahrzeugen und stellte eine Theorie zur Gletscherbildung auf. Zu seinen zahlreichen Erfindungen neben den Rechenmaschinen gehört angeblich auch ein Augenspiegel (Ophthalmoskop), den er unabhängig von Helmholtz entwickelt haben soll, und ein an der Stirnseite von Lokomotiven befestigter Schienenräumer, der „Kuhfänger“. Ebenso erkannte er, dass die Breite des Jahresringes eines Baumes vom Wetter beeinflusst wird und somit Rückschlüsse auf das Klima vergangener Zeiten zulässt. Der Anlass zur Entwicklung von Rechenautomaten war für den Mathematiker Babbage die mangelnde Zuverlässigkeit numerischer Tabellen mathematischer Funktionen, die damals z. B. für die Schiffsnavigation erstellt wurden und bei deren Berechnung häufig Fehler auftraten. Er ging dieses Problem mit den Methoden der Industrialisierung an: Teilung der Arbeit in Einzelschritte (Algorithmisierung) und deren Übertragung auf Maschinen (Automatisierung). Er wusste durch die Verfahren des Franzosen Gaspard de Prony, der nach der Französischen Revolution beauftragt worden war, mathematische Tafeln im neuen Dezimalsystem zu berechnen, dass auch solche geistig-intellektuellen Aufgaben wie manuelle Tätigkeiten durch Arbeitsteilung effektiv organisiert werden können. Babbage nahm sich zum Ziel, auch den zweiten Schritt zu vollziehen und Maschinen zu konstruieren, die die Arbeitsschritte automatisch ausführen. Seine Rechenmaschine wurde von Luigi Federico Menabrea beschrieben und in englischer Übersetzung von Ada Lovelace, der Tochter von Lord Byron, mit Anmerkungen versehen. Beide Schriften gelten als frühe Pionierwerke zur Programmierung. Lovelace erkannte, dass die analytical engine nicht nur als Rechenmaschine verwendet werden könnte. Ihre unter dem Kürzel A.A.L. publizierte Beschreibung mit ausführlichen Anmerkungen erhielt in wissenschaftlichen Kreisen Anerkennung und enthielt die Darstellung eines Algorithmus zur Berechnung von Bernoulli-Zahlen. Sonstiges Charles Babbages Difference Engine wurde zu seinen Lebzeiten nie fertig. Erst zwischen 1989 und 1991 wurde im Londoner Science Museum die Difference Engine No. 2 funktionsfähig nachgebaut. Später haben auch Bastler diese Maschine mit modernen, präzisen Spielzeugbausätzen wie Lego und Meccano nachgebaut. Britische Forscher wollen mit Hilfe von Babbages Entwürfen auch die analytical engine in einem auf zehn Jahre berechneten Projekt nachbauen und damit auf ihre Funktionstüchtigkeit prüfen. Babbage beschäftigte sich 1830 in „Reflections on the Decline of Science in England“ mit wissenschaftlichem Betrug. Er fasste zusammen, wie Forschungsresultate geschönt werden mittels Trimming (Nivellieren von Unregelmäßigkeiten); Cooking (Zitieren von Ergebnissen, die zu einer Theorie passen; Weglassen von Ergebnissen, die der Theorie widersprechen); Forging (Erfinden aller Forschungsergebnisse, die in gängige Lehrmeinungen eingepasst oder auf ein erwünschtes Ziel hin dargestellt werden; das Fälschen mit der Absicht längerfristiger Täuschung unterscheidet er zusätzlich zum Hoax). Im Jahre 1854 schlug er eine Verbesserung von Leuchttürmen vor. Um eine Verwechslung untereinander bzw. mit zufälligen Lichtsignalen zu verhindern, sollte jeder Leuchtturm seine Nummer mittels codierter Lichtsignale anzeigen (z. B. für die Nummer 243: zwei, vier und drei Lichtblitze, jeweils unterbrochen von einer kurzen Pause). Charles Babbage vermachte sein Gehirn der Wissenschaft. Es ist heute in einem Glas neben dem Nachbau seiner Maschinen im Science Museum in London ausgestellt. Babbage hatte eine besondere Leidenschaft für Feuer. So verweilte er bei 130 °C für einige Minuten in einem Ofen. Außerdem ließ er sich auf seiner Europareise in den Krater des Vesuv abseilen, um die geschmolzene Lava zu betrachten. Ihm zu Ehren ist der Charles Babbage Award der IEEE Computer Society benannt. Schriften (Auswahl) A Comparative View of the Various Institutions for the Assurance of Lives. J. Mawman u. a., London 1826, (Digitalisat). deutsche Ausgabe: Reflections on the Decline of Science in England and on some of its Causes. B. Fellowes u. a., London 1830, (Digitalisat). On the Economy of Machinery and Manufactures. Charles Knight, London 1832, (Digitalisat). deutsche Erstausgabe: deutsche erweiterte und redigierte Ausgabe: Die Ökonomie der Maschine. Erweiterte und redigierte Fassung auf Grundlage der Übersetzung von G. Friedenberg aus dem Jahr 1833. Kulturverlag Kadmos, Berlin 1999, ISBN 3-931659-11-9. Observations on the Temple of Serapis at Pozzuoli, near Naples; with Remarks on certain Causes which may produce Geological Cycles of great Extent. 1834 The Ninth Bridgewater Treatise. A Fragment. John Murray, London 1837, (Digitalisat). Passages from the Life of a Philosopher. Longman, Green, Longman, Roberts & Green, London 1864 (Autobiographie; Digitalisat). deutsche Ausgabe: Passagen aus einem Philosophenleben. Kulturverlag Kadmos, Berlin 1997, ISBN 3-931659-07-0. Henry Babbage (Hrsg.): Babbage’s calculating engines. Being a collection of papers relating to them, their history, and construction. E. and F. N. Spon, London 1889, (Cambridge University Press, Cambridge 2010, ISBN 978-1-108-00096-3). Philip Morrison, Emily Morrison (Hrsg.): Charles Babbage and his calculating engines. Selected writings by Charles Babbage and others. Dover Publications, New York NY 1961. Literatur Harry W. Buxton: Memoir of the life and labours of the late Charles Babbage Esq. F.R.S. (= The Charles Babbage Institute reprint series for the history of computing. 13). MIT Press u. a., Cambridge u. a. 1988, ISBN 0-262-02269-9. John M. Dubbey: The mathematical work of Charles Babbage. Cambridge University Press, Cambridge u. a. 1978, ISBN 0-521-21649-4. Anthony Hyman: Charles Babbage. Pioneer of the Computer. Oxford University Press, Oxford 1984. Anthony Hyman: Charles Babbage. 1791–1871. Philosoph, Mathematiker, Computerpionier. Klett-Cotta, Stuttgart 1987, ISBN 3-608-93095-7. Kurt Jäger, Friedrich Heilbronner: Lexikon der Elektrotechniker. 2., überarbeitete und ergänzte Auflage. VDE, Berlin u. a. 2010, ISBN 978-3-8007-2903-6, S. 33. Evelyne Keitel: Lyrik, Inzest und die Liebe zur Mathematik: Ein schwieriges Erbe für Lord Byrons Töchter. In: Luise F. Pusch (Hrsg.): Töchter berühmter Männer: Neun biographische Portraits (= Insel TB. 979). Frankfurt am Main 1988, ISBN 3-458-32679-0, S. 155–208, hier: S. 168–176. Denis Roegel: A reconstruction of Charles Babbage’s table of logarithms (1827). 2010, (hal.inria.fr PDF). Weblinks Autoren-Profil in der Datenbank zbMATH Charles Babbage. In: B. V. Bowden (Hrsg.) Faster Than Thought. A Symposium on Digital Computing Machines. Pitman & Sons, 1953, S. 7–18 (). Abbildung der Differenzmaschine. In: B. V. Bowden (Hrsg.): Faster Than Thought. S. 29 ( – Ziffern sind besser zu erkennen). deutschlandfunk.de, Kalenderblatt, 26. Dezember 2016, Mathias Schulenburg: Erfinder der ersten modernen Rechenmaschine Science Museum London: Charles Babbage (englisch) Wolfgang Burgmer: 26.12.1791 - Geburtstag von Charles Babbage WDR ZeitZeichen vom 26. Dezember 2016. (Podcast) Charles Babbage Eintrag bei der Königlichen Akademie der Wissenschaften und Schönen Künste von Belgien Videos 300 Jahre Mechanische Intelligenz. Von Rechenmaschinen und Denkfabriken. KITopen 2019, (doi:10.5445/IR/1000118108). Beitrag zum Wissenschaftsjahr der Künstlichen Intelligenz 2019. Text: Christian Vater, Kamera, Schnitt & Animation: Christoph Bertolo. Einzelnachweise Mathematiker (19. Jahrhundert) Ökonom (19. Jahrhundert) Erfinder Logiker Kryptoanalytiker Mitglied der Bayerischen Akademie der Wissenschaften Mitglied der Royal Society Mitglied der Royal Society of Edinburgh Mitglied der Royal Astronomical Society Mitglied der Ungarischen Akademie der Wissenschaften Korrespondierendes Mitglied der Russischen Akademie der Wissenschaften Lucasischer Professor für Mathematik Mitglied der American Academy of Arts and Sciences Mitglied der Königlichen Akademie der Wissenschaften und Schönen Künste von Belgien Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Ada Lovelace Absolvent der University of Cambridge Brite Geboren 1791 Gestorben 1871 Mann
852
https://de.wikipedia.org/wiki/Clyde%20Tombaugh
Clyde Tombaugh
Clyde William Tombaugh (* 4. Februar 1906 in Streator, Illinois; † 17. Januar 1997 in Las Cruces, New Mexico) war ein US-amerikanischer Astronom. Er entdeckte 1930 den Zwergplaneten Pluto, der bis 2006 als neunter Planet des Sonnensystems galt. Leben Tombaugh wurde als Sohn einer Familie von Landwirten geboren. Seine Hoffnungen, das College von Streator zu besuchen, wurden zerschlagen, als ein Hagelsturm das Anwesen der Eltern zerstörte. Die Familie zog 1922 nach Kansas um und baute sich nahe der Ortschaft Burdett eine neue Existenz auf. Der junge Clyde lernte auf eigene Faust und brachte sich Geometrie und Trigonometrie bei. Im Alter von 20 baute er sein erstes Teleskop. Er beobachtete den Mars und den Jupiter und sandte Zeichnungen seiner Beobachtungen an das Lowell-Observatorium in Flagstaff (Arizona). Eigentlich bat er nur um Hilfe und Anregungen, aber Vesto M. Slipher, der Direktor von Lowell, bot ihm 1929 eine Position als Forschungsassistent (junior astronomer). Tombaugh akzeptierte und blieb für 14 Jahre dort. Hier erhielt er den Auftrag, eine systematische Suche nach einem transneptunischen Planeten (auch Planet X genannt) durchzuführen, der von Percival Lowell auf der Grundlage der Berechnungen der Mathematikerin Elizabeth Williams und William Pickering vorhergesagt worden war. Am 18. Februar 1930 machte er die Entdeckung seines Lebens, indem er ein bewegtes Objekt als das lange gesuchte trans-neptunische Objekt erkannte. Es war die insgesamt dritte, noch 1916 von Percival Lowell finanzierte systematische Suchaktion. Der unbekannte Himmelskörper wurde später nach dem römischen Gott der Unterwelt Pluto benannt, der sich unsichtbar machen konnte (entscheidend sollen auch Lowells Initialen PL gewesen sein). In den Folgejahren entdeckte Tombaugh Hunderte neuer Asteroiden und zwei neue Kometen. Am 18. Februar 1980 wurde der Asteroid (1604) Tombaugh nach ihm benannt. Die Aberkennung des Planetenstatus von Pluto im Jahr 2006 erlebte Tombaugh nicht mehr. Tombaugh hatte 1925 die Burdett High School abgeschlossen und konnte schließlich 1932 mit einem Stipendium sein Astronomiestudium an der University of Kansas aufnehmen. 1936 erwarb er ein Bachelor- und 1938 ein Master-Diplom. Ab 1943 war er Dozent für Physik am Arizona State Teachers College, der heutigen Northern Arizona University, und war später Ausbilder für Navigationsaufgaben. 1945 arbeitete er als Gastprofessor für Astronomie an der University of California, Los Angeles. Aus Geldmangel konnte er nach dem Zweiten Weltkrieg seine alte Stelle am Lowell-Observatorium nicht wieder aufnehmen. Stattdessen entwickelte er ab 1946 an den White Sands Proving Grounds optische Bahnverfolgungsteleskope für die A4-Raketen, die dort getestet wurden.1955 wechselte er an die New Mexico State University in Las Cruces, wo er das Astronomy Department aufbaute und bis zu seiner Emeritierung im Jahr 1973 Astronomie lehrte. In dieser Zeit lernte er einen jungen Mann in der Nachbarschaft kennen: Jaron Lanier. Lanier lernte von Tombaugh das Schleifen von Linsen, was ihm später beim Entwickeln der ersten VR-Brillen zugutekam. Tombaugh war ab 1934 mit Patricia (Patsy) Edson (1912–2012) verheiratet. Aus der Verbindung gingen zwei Kinder hervor; nach seinem Sohn Alden ist der Asteroid des inneren Hauptgürtels (2941) Alden benannt. Seit 1974 ist er Namensgeber für die Tombaugh-Kliffs auf der Alexander-I.-Insel in der Antarktis. Am 19. Januar 2006 startete die Raumsonde New Horizons zur Erforschung des Zwergplaneten Pluto. An Bord befindet sich auch ein Gefäß mit etwa 30 Gramm Asche von Tombaugh. Literatur David H. Levy: Clyde Tombaugh – discoverer of planet Pluto. Sky Publ.Corp., Cambridge 2006, ISBN 1-931559-33-3. Weblinks Veröffentlichungen von C.W. Tombaugh im Astrophysics Data System Nachrufe auf C.W. Tombaugh im Astrophysics Data System Clyde W. Tombaugh, 90, Discoverer of Pluto Nachruf, The New York Times, 20. Jänner 1997 (abgerufen am 26. August 2010) Clyde W. Tombaugh Collection New Mexico State University Library Einzelnachweise Astronom (20. Jahrhundert) Hochschullehrer (Las Cruces) Hochschullehrer (Northern Arizona University) Hochschullehrer (University of California, Los Angeles) US-Amerikaner Geboren 1906 Gestorben 1997 Mann Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Marskrater
853
https://de.wikipedia.org/wiki/Christentum
Christentum
Das Christentum ist eine Weltreligion, die aus dem Judentum hervorging und sich ab etwa 60 n. Chr. über Palästina hinaus ausbreitete. Ihre Anhänger werden Christen genannt, die Gesamtheit der Christen wird auch als die Christenheit bezeichnet. Von zentraler Bedeutung für das Christentum ist Jesus von Nazaret, ein jüdischer Wanderprediger, der etwa in den Jahren 28–30 n. Chr. auftrat und in Jerusalem hingerichtet wurde. Seine Jünger erkannten gemäß christlicher Vorstellung in ihm nach seiner Kreuzigung und Auferstehung den Sohn Gottes und den vom Judentum erwarteten Messias. In ihren Bekenntnissen nennen sie ihn Jesus Christus. Der Glaube an ihn ist in den Schriften des Neuen Testaments grundgelegt. Die weitaus meisten Christen glauben an einen Gott (Monotheismus) als eine Trinität, das heißt eine Wesenseinheit aus Vater, Sohn und Heiligem Geist. Daneben existieren innerhalb des Christentums kleinere antitrinitarische Gruppierungen. Die zahlreichen Konfessionen bzw. Kirchen innerhalb des Christentums lassen sich in fünf Hauptgruppen zusammenfassen: die römisch-katholische Kirche, die orthodoxen Kirchen, die protestantischen Kirchen, die anglikanischen Kirchen und die Pfingstbewegung. Mit rund 2,5 Milliarden (2022) Mitgliedern ist das Christentum vor dem Islam (2 Milliarden) und dem Hinduismus (1,2 Milliarden) die weltweit am weitesten verbreitete Religion. Überblick Bezeichnung Der Begriff „Christentum“ (von griech. Χριστιανισμός, Christianismós) wird erstmals in einem Brief des syrischen Bischofs Ignatius von Antiochien im 2. Jahrhundert erwähnt und ist den älteren Begriffen Ἰουδαισμός (Ioudaismós, Judentum) und Ἑλληνισμός (Hellēnismós, Hellenismus) nachgebildet. Nach der Apostelgeschichte wurden die Jünger Jesu Christi zuerst von den Bewohnern der zum Römischen Reich gehörenden syrischen Stadt Antiochia am Orontes Χριστιανόι (Christianói, Christen) genannt, in welche die Christen nach den ersten Verfolgungen in Palästina geflohen waren. Man sah offenbar das Christusbekenntnis der Anhänger Jesu als charakteristisch für ihren Glauben an. Die Christen übernahmen diese Bezeichnung bald auch für sich selbst (vgl. , ). Das deutsche Wort Kristentûm ist erstmals bei Walther von der Vogelweide belegt. Ursprung Die Wurzeln des Christentums liegen im Judentum im römisch beherrschten Palästina zu Beginn des 1. Jahrhunderts. Es geht zurück auf die Anhänger des jüdischen Wanderpredigers Jesus von Nazaret. Mit dem Judentum ist das Christentum insbesondere durch den ersten Teil seiner Bibel verbunden, der den jüdischen heiligen Schriften des Tanach entspricht und im Christentum Altes Testament genannt wird. Ohne das Alte Testament wäre der christliche Glaube geschichtslos und bliebe unverständlich. Christen lesen die Texte des Alten Testaments allerdings von Jesus Christus her und auf ihn hin (christologische Interpretation). Das Christentum verbreitete sich in kurzer Zeit im Mittelmeerraum. Dabei übte der Hellenismus erheblichen Einfluss auf das christliche Denken aus. Selbstverständnis Der Kern der christlichen Religion rührt nach ihrem Selbstverständnis aus der bedingungslosen Liebe Gottes gegenüber den Menschen und der gesamten Schöpfung. In dieser Liebe, in der sich Gott in der Gestalt des Menschen Jesus von Nazaret offenbart und selbst erschließt, wird die Beziehung Mensch-Welt-Gott geklärt. Sie betrifft alle Daseinsbereiche des Menschen und alle Dimensionen des Menschseins. Die Heilszusage gilt den Menschen aller Nationen, unabhängig von ethnischer Zugehörigkeit, Geschlecht oder gesellschaftlicher Stellung (vgl. ). Das Christentum versteht sich somit als universale Religion und gleichzeitig als der unüberbietbare Ort, an dem sich Gott den Menschen in der Geschichte zugewandt hat und erfahrbar ist. Diesem Verständnis bzw. dem Sendungsauftrag Christi entspricht der missionarische Charakter des Christentums. Lehre Jesus ist nach vorherrschendem christlichen Glaubensverständnis zugleich wahrer Gott und wahrer Mensch. Die christliche Lehre, die auf dem biblischen Zeugnis basiert, hat folgenden zentralen Inhalt: Gott wandte sich in der Menschwerdung („Inkarnation“) in seinem Sohn Jesus Christus der in Sünde verstrickten Menschheit zu; der Tod Jesu Christi am Kreuz bewirkte die Erlösung durch Beseitigung von Schuld und Sünde der Menschheit. Die Glaubensgewissheit lag für die ersten Christen in den Ereignissen zu Ostern begründet, dem dritten Tag nach der Kreuzigung Jesu. Damals – so die Überzeugung der Christen – bewirkte Gott an Jesus als erstem von allen Menschen die Auferstehung bzw. Auferweckung und bestätigte somit die Botschaft Jesu vom kommenden Reich Gottes . Die Anhänger Jesu machten die Erfahrung, dass ihnen der auferstandene Jesus erschien und seine bleibende Gegenwart zusagte . Auf diese Oster- bzw. Auferstehungserfahrung gründet sich die christliche Gemeinschaft (Kirche), die an Pfingsten durch den Heiligen Geist die Befähigung zur Erfüllung des Missionsauftrags erhielt. Dieser Glaube wurde, zusammen mit der Erinnerung an das Wirken Jesu von Nazaret als dem Verkünder der Botschaft Gottes, in Form von gottesdienstlichen Hymnen sowie Bekenntnisformeln ausgedrückt und in Predigten entfaltet. Kern des Bekenntnisses waren auf Jesus übertragene, zum Teil alttestamentliche Hoheitstitel wie „Herr“, Gesalbter (griech. Christus, hebr. Messias), „Sohn Gottes“ und andere. Schrittweise entstanden die Schriften des Neuen Testaments, die im Laufe der ersten Jahrhunderte – gemeinsam mit der Bibel der Juden – im biblischen Kanon festgehalten sowie bewahrt wurden – als einheitliche Grundlage der christlichen Lehre. In Bezug auf die Anerkennung der weiteren Lehrentwicklung gibt es konfessionelle Unterschiede. Verbreitung Das Christentum ist die zahlenmäßig bedeutendste Weltreligion, der schätzungsweise ungefähr ein Drittel aller Menschen auf der Welt angehören. Die meisten staatlichen Statistiken werden auf Selbstbezeichnungen der einzelnen Staatsbürger oder Hochrechnungen zurückzuführen sein, manchmal auch auf amtliche Listen. In vielen Ländern der Erde werden Christen verfolgt, so dass von dort nur ungewisse Zahlen vorliegen. Oben angeführt sind die Bevölkerungszahlen der UNO von 1998. Zahlen über Religionszugehörigkeit aus Gebet für die Welt, Ausgabe 2003 (siehe unten). Die Daten stammen aus den Jahren 1998–2000. Die Wachstumsraten betreffen das durchschnittliche Wachstum von 1995 bis 2000, beruhen jedoch zum Teil auf einem Wechsel der Datenbasis. Das Christentum wuchs in dieser Zeit in den meisten Erdteilen der Welt, wobei sich sein Wachstum vom „alten“ Kontinent Europa hin zu den „neuen“ Erdteilen verschob; besonders stark wuchs es in Asien und Afrika. Dieses Wachstum verteilt sich gleichermaßen auf die katholische Kirche, evangelikale Gemeinschaften und Kirchen der Pfingstbewegung. Der Anteil der Lutheraner geht somit langsam zurück. In Europa kann man aufgrund des allgemeinen Geburtenrückganges und der Kirchenaustritte bei gleichzeitiger Migration einen Rückgang der Gesamtzahl der Christen verzeichnen. Zusammenhalt, Organisation und Richtungen Die gesamte Christenheit wird als Ekklesia angesehen, als Leib Christi mit Christus als Haupt. Jeder einzelne Christ stellt ein Glied dieses mystischen Leibes dar. Manche christlichen Theologen unterscheiden zwischen der „unsichtbaren Kirche“, die alle gläubigen Christen aller Konfessionen umfasst, und der sichtbaren Kirche, deren Mitglieder mehr oder weniger gläubig sein können. Innerhalb des Christentums entstanden bald mehrere Gruppierungen bzw. Strömungen, manchmal durch politische Motive oder geographische Gegebenheiten, aber auch durch abweichende Lehrmeinungen. Grob lassen sich diese Richtungen nach ihren Merkmalen in Konfessionen und Denominationen einteilen. Zu einer Konfession oder Denomination gehören eine oder mehrere Kirchen oder Gemeinden. Der einzelne Christ ist Mitglied einer bestimmten Kirche oder Gemeinde. Neben den Konfessionen gibt es auch konfessionsübergreifende theologische Richtungen, beispielsweise liberal, evangelikal oder charismatisch. Viele Kirchen stehen in einer mehr oder weniger lockeren Gemeinschaft mit anderen Kirchen, die in beiderseits anerkannten Lehren begründet ist, ohne deshalb ihre spezifischen Lehren und ihr Brauchtum aufzugeben. Beispiele für solche Gemeinschaften sind der Ökumenische Rat der Kirchen, die Evangelische Allianz und die Leuenberger Konkordie. Daneben gibt es auch Kirchengemeinschaften, die die vollständige gegenseitige Anerkennung von Sakramenten, Kirchenmitgliedschaft und Ämtern beinhalten. Beispiele für solche Kirchengemeinschaften sind die Anglikanische Gemeinschaft, die orthodoxen Kirchen und die evangelischen Unierten Kirchen. Da man den Christen die Taufe nicht angesehen hatte, wollten sie dennoch untereinander und nach außen hin identifizierbar sein. Da das Vaterunser einfache, für jeden wiederholbare Akte aufgewiesen hatte, erfüllte dieses alle Voraussetzungen für ein verbindendes und nach außen abgrenzendes Merkmal. Historische Entwicklung In der antiken Welt gab es fünf christliche Patriarchate, denen jeweils die lokalen Metropoliten, Erzbischöfe und Bischöfe unterstellt waren: Rom, Konstantinopel, Alexandrien, Antiochien und Jerusalem. Sollte über wesentliche Lehrfragen entschieden werden, wurde ein Konzil (eine Versammlung von Bischöfen) einberufen. Das höchste Ansehen genossen die ökumenischen Konzile, in denen Bischöfe aus allen Patriarchaten zusammenkamen. Mehreren Konzilien, die sich selbst als „ökumenisch“ betrachteten, wurde dieser Status wegen mangelnder Zustimmung der Ortskirchen allerdings später aberkannt. Insgesamt gab es von 325 bis 787 sieben ökumenische Konzile, die bis heute von der katholischen, den orthodoxen, den anglikanischen und den meisten evangelischen Kirchen anerkannt werden; einige protestantische Kirchen lehnen allerdings das Zweite Konzil von Nicäa wegen seiner Aussagen über die Bilderverehrung ab. Nach dem Konzil von Ephesos 431 n. Chr. kam es zu einer ersten Spaltung, nämlich der Abspaltung der Apostolischen Kirche des Ostens („Nestorianer“). Auf dem folgenden ökumenischen Konzil von Chalcedon wurde die Natur Christi als zugleich menschlich und göttlich definiert. Die miaphysitischen Kirchen, zu denen unter anderen die koptische Kirche, die syrisch-orthodoxe Kirche und die armenische apostolische Kirche gehören, betonen die Einigung (Enosis) der menschlichen und der göttlichen Natur Christi und lehnen die Lehre eines „zweifachen Christus“ ab, wie er im Nestorianismus vertreten wird. Die römische Reichskirche rezipierte die gemäßigte Zweinaturenlehre des Chalcedonense, so dass sie Bestandteil der Dogmatik der meisten heute existierenden Konfessionen ist. In den folgenden Jahrhunderten vertiefte sich in der Reichskirche die Entfremdung zwischen der östlichen und westlichen Tradition bis zum Bruch. Die westliche Tradition entwickelte sich in der Spätantike und im frühen Mittelalter im Weströmischen Reich, während die östliche Tradition in Konstantinopel, Kleinasien, Syrien und Ägypten entstand (Oströmisches/Byzantinisches Reich). Die eigentlich dogmatischen Unterschiede blieben zwar gering, aber die lateinische Kirche hatte in dieser Zeit Lehren entwickelt, die nicht von ökumenischen Konzilien abgesegnet worden waren (z. B. Erbsündenlehre, Fegefeuer, Filioque, päpstlicher Primat des Papstes). Weitere Unterschiede bestanden seit langem bezüglich politischer Umgebung, Sprache und Fragen des Ritus und der Liturgie (Samstagsfasten, Azyma). Die Situation spitzte sich im 11. Jahrhundert zu, so dass es 1054 zu einer gegenseitigen Exkommunikation zwischen dem Papst und dem Patriarchen von Konstantinopel kam. Dieses Datum gilt üblicherweise als Beginn des morgenländischen Schismas. Die Westkirche erfuhr durch die Reformation des 16. Jahrhunderts eine tiefgreifende Spaltung. Die Anliegen der Reformatoren betrafen vor allem das Kirchen- und Sakramentenverständnis und die Rechtfertigungslehre. Die reformatorische Bewegung führte zu mehreren parallelen Kirchenbildungen, von denen sich im weiteren Verlauf neue Gruppierungen lösten, die in den folgenden Jahrhunderten zum Teil zu Kirchengemeinschaften zusammenfanden. Nach ersten Ansätzen im 19. Jahrhundert (z. B. Bonner Unionskonferenzen) kam es im 20. Jahrhundert zu einer Annäherung zwischen den Konfessionen und zu Formen des Dialogs und der Zusammenarbeit, die sich unter dem Stichwort ökumenische Bewegung zusammenfassen lassen. So sehen sich heutzutage Kirchen, die die zentralen Elemente der christlichen Lehre bejahen, als Schwesterkirchen, oder sie engagieren sich in ökumenischen Foren, wie beispielsweise dem Weltkirchenrat oder der Arbeitsgemeinschaft Christlicher Kirchen in Deutschland. Östliche Tradition Die Patriarchate von Konstantinopel, Alexandrien, Antiochien und Jerusalem und einige seither neu dazugekommene nationale Kirchen, haben bis heute die gleiche Theologie und Spiritualität, die sich kaum verändert hat, und sehen sich als Teil der ursprünglichen, von Christus gegründeten Kirche. Allen ist gemeinsam, dass sie die Liturgie in der jeweiligen Landessprache feiern. Die größte orthodoxe Kirche ist heute die russisch-orthodoxe Kirche. Faktisch hat seit dem Untergang des Weströmischen Reiches der Patriarch von Konstantinopel den Ehrenvorrang unter den orthodoxen Patriarchen inne. Heute haben die orthodoxen Patriarchate oft auch Kirchen im Ausland, die ihnen unterstellt sind. Es gibt signifikante Unterschiede zwischen den orthodoxen und den westlichen Kirchen – dazu gehören z. B. der Stellenwert des Heiligen Geistes im Hinblick auf die Heiligung der Gläubigen und der zu konsekrierenden Materie, die Spiritualität, die Ikonen und die Lehre von der Kirche. Die orthodoxen Kirchen haben ihre historischen Schwerpunkte in Südost- und Osteuropa, im Nahen Osten, in Indien und in Nordostafrika und sind heute als Auswandererkirchen in allen Teilen der Welt zu finden. Orthodoxe Christen erkennen dem Bischof von Rom einen Ehrenvorrang im Rahmen der Pentarchie zu, sofern darunter nicht ein juristischer Primat verstanden wird. Dazu bedarf es, dass der Papst rechtgläubig im Sinne der Orthodoxie ist und er sich als „primus inter pares“ sieht. In den orthodoxen Kirchen werden die drei Sakramente der Eingliederung (Taufe, Myronsalbung und Erstkommunion) in einer einzigen Feier gespendet. Der Zölibat ist in den orthodoxen Kirchen wie auch in den mit Rom unierten katholischen Ostkirchen nur für das Bischofsamt, für Ordensleute und geweihte Jungfrauen vorgeschrieben. Die Lehre basiert auf dem Verständnis, dass die Tradition unter der Führung des Heiligen Geistes fortschreiten kann, wobei eine „traditio constitutiva“ (unveränderbar) und eine „traditio divino-apostolica“, zu denen die Adiaphora zählen, zu unterscheiden ist. Die Orthodoxie beschränkt die „traditio constitutiva“ auf die von ihnen anerkannten ökumenischen Konzilien. Orientalisch-Orthodoxe Kirchen Innerhalb des östlichen Christentums bilden die Orientalisch-Orthodoxen Kirchen (auch bekannt als altorientalische Kirchen) eine eigene Gruppe. Die Bezeichnung Orientalisch-Orthodoxe Kirchen hat für jene Kirchen Gültigkeit, welche die Beschlüsse des Konzils von Chalcedon (451) nicht angenommen haben. Federführend bezüglich der starken Opposition gegen die Beschlüsse des Konzils von Chalcedon waren vor allem die Kopten und die Syrisch-Orthodoxen Assyrer. Die Armenier und Äthiopier waren hingegen kaum in die Auseinandersetzungen um die chalcedonische Christologie involviert, sondern übernahmen einfach später die Position der Kopten und Syrisch-Orthodoxen Assyrer. Zur Gruppe der Orientalisch-orthodoxen Kirchen zählen heute die folgenden Kirchen: Koptisch-Orthodoxe Kirche Syrisch-Orthodoxe Kirche von Antiochien Äthiopisch-Orthodoxe Tewahedo-Kirche Eritreisch-Orthodoxe Tewahedo-Kirche Malankara Orthodox-Syrische Kirche Armenische Apostolische Kirche Westliche Tradition Ab der Spätantike entwickelte sich die Lehre, dass der Bischof von Rom eine Autorität besitzt, die direkt auf den Apostel Petrus zurückgeführt werden kann und die ihn zum Stellvertreter Christi und damit Inhaber des obersten Jurisdiktions-, Lehr- und Hirtenamts in der christlichen Kirche macht. Um die Mitte des zweiten Jahrtausends forderten Theologen an verschiedenen Orten in Europa (Martin Luther und Ulrich Zwingli im deutschen Sprachraum, Johannes Calvin im französischen, und Thomas Cranmer im englischen) aus Protest gegen Missbräuche Reformen in der katholischen Kirche. Daraus entstand die Trennung der westlichen Kirche in eine römische Tradition, die in der Reformation bei Rom blieb, und eine reformatorische Tradition, die sich von Rom löste. Die Unfehlbarkeit des Papstes bei ex cathedra verkündeten Glaubensaussagen und dessen Jurisdiktionsprimat über die Gesamtkirche wurden 1870 im Ersten Vatikanischen Konzil mit der dogmatischen Konstitution Pastor Aeternus zu verbindlichen Glaubenssätzen der Römisch-katholischen Kirche erhoben. Nach diesem Konzil trennten sich die Unfehlbarkeitsgegner von Rom bzw. wurden exkommuniziert und bildeten fortan eigene altkatholische Kirchen, die sich in der Utrechter Union der Altkatholischen Kirchen zusammenschlossen. Weil ihre historische Tradition zwischen dem 16. und dem 19. Jahrhundert der römisch-katholischen Kirche parallel lief, sie aber gemäß ihrem Selbstverständnis eine reformorientierte Ausrichtung haben, die sie in Kirchengemeinschaft mit den Anglikanern und in ökumenische Verbundenheit zum Protestantismus gebracht hat, ist ihre Klassifizierung schwierig. Römisch-katholische Tradition Der römisch-katholischen Kirche gehören weltweit etwa 1,1 Milliarden Gläubige an. Nach ihrem Verständnis ist die „eine heilige katholische Kirche“ (Nicäno-Konstantinopolitanisches Glaubensbekenntnis) das wandernde „Volk Gottes“, das unter Leitung des Papstes als dem Nachfolger des Apostels Petrus und Stellvertreter Christi auf Erden „unzerstörbare Keimzelle der Einheit, der Hoffnung und des Heils“ ist (vgl. Lumen gentium, Apostolicae curae und Dominus Jesus). Das Zweite Vatikanische Konzil ergänzte das Dogma der päpstlichen Unfehlbarkeit (1870) um die Aussage: „Die Gesamtheit der Gläubigen, welche die Salbung von dem Heiligen haben (vgl. ), kann im Glauben nicht irren.“ Die drei Sakramente der Eingliederung in die katholische Kirche sind die Taufe, die Firmung und der Empfang der Eucharistie. Die apostolische Sukzession sieht die Kontinuität mit der Urkirche dadurch gewährleistet, dass sie eine Kette von Handauflegungen (Weihe), ausgehend von den Aposteln über viele Bischöfe vergangener Tage bis hin zu den heutigen Bischöfen, annimmt. Nur in apostolischer Sukzession stehende Bischöfe können daher das Weihesakrament gültig spenden. Römisch-katholische Gottesdienste sind für alle zugänglich; der Empfang der Kommunion ist jedoch nur Katholiken sowie Angehörigen orthodoxer und orientalischer Kirchen erlaubt, sofern diese in rechter Weise disponiert sind. Mitgliedern anderer Kirchen darf in Todesgefahr die Wegzehrung gereicht werden, sofern sie bezüglich dieses Sakraments den katholischen Glauben bekunden. Interkommunion ist untersagt. Evangelische Tradition Die evangelischen Kirchen verstehen sich als allein aus der biblischen Schrift heraus begründet (Sola scriptura), während die römisch-katholische Kirche sich durch die Schrift und die Überlieferung begründet sieht. Dennoch erkennen die evangelischen Kirchen die frühen kirchlichen Traditionen an, damit die Beschlüsse ihrer Synoden und Konzile, und die aus ihr stammenden Bekenntnisse (Apostolisches Glaubensbekenntnis und Nizäisches Glaubensbekenntnis). Diese beziehen ihre Autorität jedoch nur aus ihrem Einklang mit dem evangelischen Verständnis der Schrift und nicht aufgrund der Ämter ihrer Autoren. Die öffentliche Auseinandersetzung Martin Luthers mit der römisch-katholischen Tradition begann – nach einer mehrjährigen theologischen Entwicklung – mit den 95 Thesen; seine Lehre ist in zwei von ihm verfassten Katechismen (Großer und Kleiner Katechismus) und anderen Schriften festgehalten. Luther selbst war Verfechter der Kindstaufe, der Beichte und der Marienverehrung, wandte sich aber entschieden gegen den Zölibat und heiratete 1525 Katharina von Bora. Der als Augustinermönch ausgebildete Theologe verfasste eine neue, auf Augustinus von Hippo fußende Rechtfertigungslehre, die besagt, dass der „Glaube allein“ (Sola fide) den Menschen „coram Deo“ (vor Gott) gerecht mache und ihn so vor der gerechten Strafe Gottes errette. Basierend auf dieser Rechtfertigungslehre, sowie dem Prinzip der Sola scriptura, erkennen die meisten evangelische Christen als Sakramente nur zwei Handlungen an: die Taufe, bei der Jesus selbst nicht Handelnder gewesen ist, sondern Johannes der Täufer, und das Abendmahl oder Herrenmahl, das Jesus selbst begründete. Für beide Handlungen sind ein Wort und ein Element konstitutiv, die in der biblischen Überlieferung mit dem Gebot Jesu zu deren Durchführung verbunden sind. In der evangelischen Tradition gibt es unterschiedliche Abendmahlsverständnisse, die jedoch von den Mitgliedskirchen der Leuenberger Konkordie für nicht kirchentrennend gehalten werden. Die reformierte Tradition versteht das Abendmahl dabei als rein symbolisches Gedächtnismahl, während in der lutherischen Tradition der Gedanke der Realpräsenz Jesu „in, mit und unter“ den Elementen Brot und Wein betont wird (Konsubstantiation), ohne allerdings deren Wandlung (Transsubstantiation) wie im katholischen Verständnis. Es ist weiterhin möglich, die Beichte abzulegen und Absolution zu empfangen, aber dies sei weder notwendig, noch sei es ein Sakrament. In den taufgesinnten evangelischen Kirchen (nicht jedoch in den deutschen Landeskirchen, die in der Evangelischen Kirche in Deutschland (EKD) vereint sind) wurde die Taufe unmündiger Kinder durch die Gläubigentaufe ersetzt, da diese Kirchen davon ausgehen, dass ein persönlicher Glaube des Täuflings eine neutestamentliche Voraussetzung für den Empfang der Taufe (sola fide) sei. Die vielfältigen evangelischen Konfessionen sind institutionell autonom und haben keine offizielle gemeinsame Lehre, die über die Schrift hinausgeht, und kein gemeinsames Oberhaupt außer Christus. Die gemeinsamen Grundgedanken der evangelischen Kirchen lassen sich durch die „vier Soli“ zusammenfassen: „sola fide“: Allein der Glaube rechtfertigt vor Gott. „sola gratia“: Allein die Gnade Gottes bringt Erlösung. „sola scriptura“: Allein die Bibel ist Regel und Richtschnur des Glaubens („regula fidei“). „solus Christus“: Allein die Person, das Wirken und die Lehre Jesu ist Grundlage des Glaubens. Ein besonderer Fall ist die anglikanische Kirche, die an der apostolischen Sukzession, an vielen katholischen Bräuchen in der Liturgie und an der Realpräsenz Christi in den eucharistischen Gaben festhält. Bezüglich des Verhältnisses von Tradition und Bibel gibt es alle Zwischenstufen von der Anglikanischen Kirche bis zu den calvinistisch-reformierten Kirchen, die jede Kirchentradition außerhalb der Bibel ablehnen. Über Lehre und Praxis wird in den meisten Konfessionen durch Synoden oder Konferenzen auf internationaler Ebene entschieden, in anderen Konfessionen auf der Ebene der lokalen Kirche. Heute sind die Unterschiede zwischen liberalen und konservativen Flügeln innerhalb einer Konfession oft größer als die Unterschiede zwischen einzelnen Liberalen bzw. zwischen einzelnen Konservativen aus verschiedenen Konfessionen. Während die evangelischen Konfessionen früher sehr stark die Unterschiede betonten, gibt es heute einige Ansätze zur Annäherung: Viele evangelische Konfessionen in Europa haben sich in der Leuenberger Konkordie zusammengeschlossen, evangelikale Konfessionen arbeiten in der evangelischen Allianz zusammen. In einigen Fällen ist es sogar zu Wiedervereinigungen gekommen (United Church of Canada aus Lutheranern, Methodisten und Presbyterianern; Uniting Church of Australia aus Presbyterianern, Kongregationalisten und Methodisten; United Church of Christ aus sieben Konfessionen). Mit dem Weltkirchenrat gibt es auch ein Gremium der ökumenischen Zusammenarbeit, das nicht nur auf den Dialog zwischen den verschiedenen evangelischen Kirchen beschränkt ist, sondern in dem auch die altkatholischen, orthodoxen und altorientalischen Kirchen vertreten sind. Tradition evangelischer Freikirchen Die 1525 in Zürich entstandene radikal-reformatorische Täuferbewegung wird von vielen Freikirchen zu ihrer Vorgeschichte gerechnet. Die Mennoniten (Taufgesinnte) und Hutterer stehen in direktem historischen Zusammenhang damit. Ebenfalls in der Reformationszeit verwurzelt sind die Schwenkfeldianer und die Unitarier. Die erste Baptistengemeinde wurde 1609 in unter englischen Puritanern und unter Einfluss niederländischer Mennoniten in Amsterdam gegründet. Im 18. Jahrhundert folgte in England die Gründung der Methodisten. Im Pietismus entstanden im deutschsprachigen Raum weitere Kirchen wie die Schwarzenau Brethren und die Herrnhuter, die zum Teil auf die früheren Böhmischen Brüder zurückgehen. Im 19. Jahrhundert folgte schließlich die Bildung der Heilsarmee, der Freien evangelischen Gemeinden und der Siebenten-Tags-Adventisten. Anfang des 20. Jahrhunderts entwickelte sich dann von Nordamerika aus die Pfingstbewegung. Die meisten dieser Bewegungen verstehen sich als taufgesinnt und sind der Überzeugung, dass die Wassertaufe ein Ausdruck der bereits zuvor erlebten Neugeburt eines Menschen sein soll. Die Täuferbewegung wurde jahrhundertelang verfolgt. Auch die später entstandenen Freikirchen erfuhren Verfolgung und Diskriminierung. Sie waren getrennt von der jeweiligen Staats- oder Landeskirche und somit „Freikirchen“, die für die Trennung von Kirche und Staat eintraten. Diese verschiedenen freikirchlichen Zweige zeigen heute weltweit in Bezug auf Mitgliederzahlen ein starkes Wachstum. In Deutschland arbeiten viele evangelische Freikirchen in der Vereinigung Evangelischer Freikirchen zusammen, in der Schweiz im Verband Evangelischer Freikirchen und Gemeinden in der Schweiz. In Österreich kam es zu einem Zusammenschluss mehrerer Bünde (Pfingstler, Evangelikale, Baptisten, Mennoniten) zu den Freikirchen in Österreich; dieser Zusammenschluss ist dort eine rechtlich anerkannte Kirche. Andere Konfessionen Apostolische Gemeinschaften Als apostolische Gemeinschaften werden christliche Gemeinschaften bezeichnet, deren Ursprünge in den Erweckungsbewegungen zwischen 1820 und 1830 sowie in der daraus hervorgegangenen katholisch-apostolischen Gemeinschaft liegen. Hauptanliegen dieser Erweckungsbewegungen war eine Wiederbesetzung des Apostelamtes. Vor allem in den Anfangsjahren wurden die Lehre und Praxis der apostolischen Gemeinschaften sowohl vom Protestantismus als auch vom Katholizismus beeinflusst und geprägt. Es entwickelten sich – neben der Lehre vom Apostelamt – weitere exklusive Lehrvorstellungen, beispielsweise im Bereich der Eschatologie und des Entschlafenenwesens. Eine theologische Besonderheit aller dieser Gemeinschaften stellt auch das Sakrament der Heiligen Versiegelung dar, das laut Lehrmeinung notwendig sei, um vollständiges Heil zu erlangen (wobei sich die Aussagen hierüber unterscheiden). Heute zählen zu den bedeutendsten Vertretern die Neuapostolische Kirche (NAK) und die Vereinigung Apostolischer Gemeinden (VAG), deren Gemeinden hauptsächlich als Abspaltungen von der NAK entstanden. Außerdem existieren das Apostelamt Jesu Christi, das Apostelamt Juda und die Old Apostolic Church. Einige der Gemeinschaften beteiligen sich an der Ökumenischen Bewegung und sind trotz theologischer Vorbehalte in die Arbeitsgemeinschaften Christlicher Kirchen aufgenommen worden. Neureligiöse Gemeinschaften Verschiedene andere Konfessionen sehen sich weder in der orthodoxen, katholischen noch in der evangelischen Tradition. Gruppen, die sich selbst so einordnen, sind beispielsweise die Quäker, die Kirche Jesu Christi der Heiligen der Letzten Tage und andere Gemeinschaften der Mormonen, Die Christengemeinschaft, die Vereinigungskirche, die Ernsten Bibelforscher, die Freien Bibelgemeinden und die Zeugen Jehovas. Viele dieser neureligiösen Gemeinschaften haben von den oben skizzierten Konfessionen abweichende Auslegungen. Beispielsweise haben sie Ansichten über die Trinität, die nicht mit den ökumenischen Konzilen übereinstimmen, oder gleichwertige Schriften neben der Bibel oder bestimmte sogenannte „Sonderlehren“, die sich bei den anderen Konfessionen bzw. in der Bibel in dieser Form nicht finden oder ihnen sogar offen widersprechen. Wegen dieser Abweichungen ist es umstritten, ob jene oft auch als „(christliche bzw. religiöse) Sondergruppen oder -gemeinschaften“ oder „Sekten“ bezeichneten Gruppen überhaupt zu den christlichen Konfessionen gezählt werden können. Einige der besagten Gruppen haben die (allerdings unterschiedlich stark ausgeprägte) Tendenz, ihre eigene Sicht des Christentums als „absolut“ zu setzen. Der Begriff Unitarier umfasst heute sowohl antitrinitarisch-christliche Gruppen (Unitarier im traditionellen Sinne) als auch Vertreter einer pantheistisch-humanistisch ausgerichteten Religion, in der Christus keine zentrale Rolle mehr spielt. Geschichte Lehre Für die christliche Lehre sind die Menschwerdung Gottes, der Kreuzestod und die Auferstehung Jesu Christi zentral. Die Mehrheit der Christen glaubt, dass diese Ereignisse die Basis von Gottes Werk bilden, das die Menschheit mit ihm aussöhnt; sein Tod am Kreuz wird als Erlösungstat verstanden. Die Menschwerdung und der freiwillige Opfertod gelten als Ausdruck äußerster Liebe Gottes zur verlorenen Menschheit. Entsprechend zentral für das christliche Handeln ist die Liebe (griechisch Αγάπη; lateinisch caritas) zu Gott (Gottesliebe) und zum Mitmenschen (Nächstenliebe). Der großen Mehrheit der verschiedenen Konfessionen sind folgende Glaubensaussagen gemeinsam: Es ist nur ein einziger Gott, und Gott ist dreieinig – ein einziges ewiges Wesen, das sich in drei „Personen“ offenbart: Vater (Schöpfer), Sohn (Mittler, Erlöser) und Heiliger Geist (Kraft, „Tröster“ = Beistand, Vollender). Jesus Christus ist der Sohn Gottes und der verheißene Messias. Jesus Christus ist zugleich wahrer Gott und wahrer Mensch (Zwei-Naturen-Lehre). Jesus Christus hat das kommende Gottesreich verkündet, das mit seinem Auftreten begonnen hat. Richtschnur für das Leben als Christ ist die Einheit von Gottes- und Nächstenliebe einschließlich der Feindesliebe. Jesus konnte nicht sündigen. Durch sein Opfer am Kreuz ist allen Menschen ihre Schuld der Erbsünde vergeben, die ihnen seit ihrer Geburt anhaftet, und sie sind durch das Blut Christi mit Gott versöhnt, sofern sie dies annehmen. Täuflinge werden mit Wasser und nach der trinitarischen Taufformel getauft. Durch den Glauben werden sie vom Tod in ein ewiges Leben auferweckt, sofern sie an dieses Erlösungswerk Gottes für sich glauben. Menschen empfangen durch den Glauben an Christus den Heiligen Geist, der Hoffnung bringt und sie bzw. die Kirche in Gottes Wahrheit und gemäß Gottes Absichten führt. Der auferstandene Jesus sitzt zur Rechten Gottes. Er wird wiederkehren, um die Gläubigen in die ewige Anschauung Gottes zu führen. Bis zu dieser Wiederkehr hat die Kirche den Auftrag, allen Menschen und Völkern die frohe Botschaft zu verkünden. Die Bibel ist als Wort Gottes von Gott inspiriert. In ihr ist die Botschaft über Jesus und Gott sowie die Richtschnur für das gottesbewusste Verhalten der Menschen niedergelegt. Maria, die Mutter Jesu, gebar den Sohn Gottes, der durch das Wirken des Heiligen Geistes gezeugt wurde. Ursprung und Einflüsse Die ersten Christen waren Juden, die zum Glauben an Jesus Christus fanden. In ihm erkannten sie den bereits durch die biblische Prophetie verheißenen Messias (hebräisch: maschiach, griechisch: Christos, latinisiert Christus), auf dessen Kommen die Juden bis heute warten. Die Urchristen übernahmen aus der jüdischen Tradition sämtliche heiligen Schriften (den Tanach), wie auch den Glauben an einen Messias oder Christus (christos: Gesalbter). Von den Juden übernommen wurden die Art der Gottesverehrung, das Gebet der Psalmen u. v. a. m. Eine weitere Gemeinsamkeit mit dem Judentum besteht in der Anbetung desselben Schöpfergottes. Jedoch sehen fast alle Christen Gott als einen dreieinigen Gott an: den Vater, den Sohn (Christus) und den Heiligen Geist. Darüber, wie der dreieinige Gott konkret gedacht werden kann, gibt es unter den christlichen Konfessionen und Gruppierungen unterschiedliche Auffassungen bis hin zur Ablehnung der Dreieinigkeit Gottes (Antitrinitarier). Der Glaube an Jesus Christus führte zu Spannungen und schließlich zur Trennung zwischen Juden, die diesen Glauben annahmen, und Juden, die dies nicht taten, da diese es unter anderem ablehnten, einen Menschen anzubeten, denn sie sahen in Jesus Christus nicht den verheißenen Messias und erst recht nicht den Sohn Gottes. Die heutige Zeitrechnung wird vom traditionellen Geburtsjahr Christi aus gezählt. Anno Domini (A. D.) bedeutet „im Jahr des Herrn“. Heilige Schrift und weitere Quellen Die zentrale Quelle für Inhalt und Wesen des christlichen Glaubens ist die Bibel, wobei Stellenwert und Auslegung variieren. Sie besteht aus zwei Teilen, dem Alten und dem Neuen Testament. Das Alte Testament entspricht inhaltlich bis auf Details dem jüdischen Tanach und wurde von Jesus und den Urchristen ebenso wie von den Juden als Heilige Schrift gesehen. Das Neue Testament enthält Berichte vom Leben Jesu (Evangelien), der frühen Kirche (Apostelgeschichte für die Jahre 30 bis etwa 62), Briefe der Apostel, sowie die Offenbarung des Johannes. Die Begriffe „Alt“ und „Neu“ für die Testamente bezeichnen den Tatbestand, dass es aus Sicht der Christen einen alten und einem neuen Bund zwischen Gott und den Menschen gibt. Das Alte Testament ist ursprünglich auf Hebräisch verfasst und wurde später (allerdings noch in vorchristlicher Zeit) unter der Bezeichnung Septuaginta ins Altgriechische übersetzt. Das Neue Testament ist hingegen in einer speziellen Variante des Altgriechischen, der Koine, verfasst. Später wurden beide Testamente ins Lateinische übersetzt (Vetus Latina, Vulgata), dem folgten sehr viel später verschiedene, teilweise konfessionsgebundene, Übersetzungen (aus dem Urtext) in die jeweiligen Volks- und/oder Landessprachen (etwa Lutherbibel, Zürcher Bibel, Einheitsübersetzung, King-James-Bibel). Der Umfang des Alten Testaments wird von den Konfessionen unterschiedlich bestimmt, da die griechische Überlieferung der Septuaginta auch mehrere Texte enthält, die in der hebräischen Überlieferung nicht enthalten sind. Die Teile, die nur in der Septuaginta stehen, werden als deuterokanonische bzw. apokryphe Schriften bezeichnet. (Siehe auch Kanon des Alten Testaments.) Über den Inhalt des Neuen Testaments besteht bei allen großen Konfessionen ein Konsens, der sich im Laufe der ersten vier Jahrhunderten entwickelt hat. (Siehe auch Kanon des Neuen Testaments.) Durch zahlreiche Funde von Kodizes und Papyri in den letzten zwei Jahrhunderten kann der ursprüngliche Text des Neuen Testaments heute mit großer Genauigkeit wissenschaftlich rekonstruiert werden. Damit befasst sich die Textgeschichte des Neuen Testaments. Wie sich dieser rekonstruierte Text am besten in die Sprachen der Gegenwart übersetzen lässt, wird intensiv diskutiert (siehe Bibelübersetzung). Auch in Bezug auf Exegese (Auslegung) der biblischen Texte und ihrer praktischen Anwendung auf das tägliche Leben (Ethik) gibt es eine große Bandbreite von Meinungen. Bei den meisten Konfessionen beeinflussen neben der Bibel auch andere Texte wie Glaubensbekenntnisse, Katechismus, Tradition, Liturgie und christliche Vorbilder wie Heilige die Ausformung der kirchlichen und persönlichen Praxis. Beziehung zu anderen Weltanschauungen Das Christentum hat andere Religionen beeinflusst, deren Anhänger sich zwar nicht als Christen sehen, aber Jesus als Propheten Gottes anerkennen. Im Koran erscheint Jesus als Isa ibn Maryam, das heißt als Sohn Marias, seine Gottessohnschaft wird indessen bestritten. Scharf zurückgewiesen werden im Koran jede Anbetung Jesu sowie nach Sure 112 die Dreieinigkeit. Andererseits trägt Jesus im Koran positive Titel wie Messias, Wort Gottes und auch Geist Gottes; ebenso gehört er zu den Propheten des Islam. Die Kreuzigung Christi wird in Sure 4, Vers 157 und entsprechend in der islamischen Koranexegese verneint: Dem Christentum wird generell unter Nichtchristen Positives wie Negatives zugesprochen. Positiv wird meist die Lehre der Nächstenliebe gesehen. Auch setzen sich weltweit viele Christen für den Frieden und für barmherzige Konzepte gegen die Armut ein. Negativ wird die Geschichte des Christentums mit Kreuzzügen, Hexenverfolgungen, Inquisition und Antijudaismus gesehen. Die Positionen zu ethischen Reizthemen wie künstlicher Empfängnisverhütung, Homosexualität und Schwangerschaftsabbruch sind auch innerchristlich umstritten. Der spätere König von Thailand Mongkut hatte um 1825 herum als buddhistischer Abt intensiven Kontakt mit dem katholischen Bischof Jean-Baptiste Pallegoix. Er kommentierte: „Was Ihr die Menschen zu tun lehrt, ist bewundernswert. Aber was Ihr sie zu glauben lehrt, ist töricht.“ Es ist ein Anliegen vieler christlicher Kirchen, sich untereinander zu versöhnen und eine gemeinsame Basis zu schaffen (Ökumene). Außerdem führen einige das Gespräch mit anderen Religionen (interreligiöser Dialog). Ziel ist ein friedliches Zusammenleben der Religionsgemeinschaften. In den ersten nachchristlichen Jahrhunderten kam es zu teils heftigen Christenverfolgungen im Römischen Reich. Auch heute, gerade in kommunistischen und islamischen Ländern, findet eine starke Christenverfolgung statt. Dem Christentum wird teilweise der Vorwurf gemacht, eine Mitschuld an der Judenverfolgung gehabt zu haben, da z. B. im Mittelalter Juden verfolgt wurden, weil man ihnen die Schuld am Kreuzestod Jesu gab. Ursache für diese Verfolgung war die Vermischung der historischen und der theologischen Schuldfrage, die dazu führte, dass gegenwärtig lebende Juden für die (historische) Schuld am Tod Jesu haftbar gemacht wurden und beispielsweise als „Gottesmörder“ bezeichnet wurden. Die heutige theologische Forschung unterscheidet zwischen der Frage nach der historischen Schuld für einen Justizmord, die gleichberechtigt für Jesus ebenso wie für jeden anderen Justizmord der Weltgeschichte gestellt werden kann und muss, und der theologischen Frage nach der Bedeutung des Todes Jesu Christi für jeden Einzelnen. Die historische Frage nach der Schuld am Tode Jesu wird heute relativ einhellig so beantwortet, dass hier die römische Besatzungsmacht die Verantwortung trug, da die jüdischen Autoritäten gar keine Befugnis zur Hinrichtung von Menschen hatten. Die theologische Frage wird im christlichen Glaubensverständnis so beantwortet, dass ein jeder Sünder selber die Schuld am Kreuzestod Jesu trägt. Kultureller Einfluss des Christentums In der Geschichte des Abendlandes haben sich Glaube, Kultur und Kunst wechselseitig beeinflusst. Eine entscheidende Station war beispielsweise der Bilderstreit im frühen Mittelalter. Im Abendland beschäftigte sich Kunst oft mit christlichen Themen, obwohl seit der Renaissance stärker auch Rückgriff auf nichtchristliche Motive aus der Antike genommen wurde. Musik gehört von jeher zur liturgischen Ausdrucksform des christlichen Glaubens. Große Bedeutung hatte der einstimmige unbegleitete cantus choralis sive ecclesiasticus, der ab dem 9. Jahrhundert als cantus gregorianus (gregorianischer Gesang) bezeichnet wird. In allen Epochen der Musikgeschichte schufen die bedeutendsten Musiker ihrer Zeit Werke auch für die Kirchenmusik, so beispielsweise Georg Friedrich Händel, Wolfgang Amadeus Mozart, Felix Mendelssohn Bartholdy; an herausragender Stelle aber vor allem Johann Sebastian Bach. Dichter wie Martin Luther oder Paul Gerhardt schufen im deutschsprachigen Raum Texte von hohem Rang und beeinflussten die weitere Entwicklung der Kirchenmusik maßgeblich. Der Einfluss des christlichen Glaubens ist dabei nicht auf die so genannte klassische oder E-Musik beschränkt: So greift beispielsweise die Gospelmusik vor allem im amerikanischen Kulturraum unterschiedliche Stilrichtungen des 20. Jahrhunderts auf und entwickelt diese weiter. Auch im Bereich der Sprache und Schulbildung hat das Christentum in vielen Ländern maßgeblich gewirkt. Im deutschsprachigen Raum hatte Martin Luther durch seine Bibelübersetzung prägenden Einfluss auf die Entwicklung und Verbreitung der hochdeutschen Sprache. Die Bibel als meistübersetztes Buch der Weltliteratur machte es insbesondere in kleineren Sprachräumen z. T. überhaupt erst einmal erforderlich, eine Schriftsprache zu entwickeln, wodurch kleinere Sprachen häufig in ihrem Wert und ihrer Identität gestärkt wurden. Naturbeobachtung, Arbeit und Technik spielten bei den westlichen Mönchen eine wichtige Rolle, sie gehörten zum geregelten Tagesablauf im Kloster, dem Ora et labora (deutsch: bete und arbeite). So erfand Gregor von Tours (538–594) die Wassermühle, Wilhelm von Auvergne (1228–1249) die mechanische Uhr und erfanden Mönche in Pisa oder Lucca 1280 die Brillengläser. Im sechzehnten Jahrhundert förderten die Reformatoren durch verständliche Bibelübersetzungen in die Volkssprachen auch eine vermehrte Einrichtung von öffentlichen Schulen und das Lesen der Bibel in der Familie, was zu einem größeren Engagement und Verantwortungsbewusstsein in Beruf und Gesellschaft führte. Die meisten der frühen Naturwissenschaftler waren Christen, weil sie von einem vernünftigen, gesetzmäßig aufgebauten Kosmos überzeugt waren, der entdeckt, erforscht und beschrieben werden konnte. Um 1830 entwickelten der Presbyterianer Cyrus McCormick und der Quäker Obed Hussey erste Mähmaschinen, um den Bauern in den USA die harte Erntearbeit zu erleichtern und die Erträge zu erhöhen. Wurde der christlichen Mission früher teilweise der Vorwurf gemacht, zugleich mit dem christlichen Glauben auch die Kultur des Abendlandes (z. B. in Form von Kleiderordnungen) zu exportieren, ist das Selbstverständnis von Mission heute eher auf Inkulturation ausgerichtet. Zu den wesentlichen kulturellen Einflüssen des Christentums ist zudem die Etablierung der christlichen Zeitrechnung im Abendland zu zählen. Siehe auch Christianisierung Christliche Erziehung Christliche Literatur Zeittafel Geschichte des Christentums Liste christlicher Konfessionen Liste religiöser Amts- und Funktionsbezeichnungen Literatur Einführungen Micha Brumlik: Entstehung des Christentums. Verlagshaus Jacoby & Stuart, Berlin 2010, ISBN 978-3-941787-14-8. David Bentley Hart: Die Geschichte des Christentums: Glaube, Kirche, Tradition. National Geographic, 2010, ISBN 978-3-86690-189-6 (Übersetzung: Ute Mareik). Hans-Peter Hasenfratz: Das Christentum – eine kleine Problemgeschichte. Theologischer Verlag, Zürich 1992, ISBN 3-290-10151-7. Werner Heinz: Der Aufstieg des Christentums. Geschichte und Archäologie einer Weltreligion. Konrad-Theiss-Verlag, Stuttgart 2005, ISBN 3-8062-1934-6. Klaus Koschorke, Johannes Meier u. a.: Christentum. In: Religion in Geschichte und Gegenwart. 4. Aufl. Bd. 2, 1999, Sp. 183–246, ISBN 3-16-146942-9. Hans Küng: Das Christentum. Wesen und Geschichte. Piper, München 1995, ISBN 3-492-03747-X. Joseph Ratzinger: Einführung in das Christentum – Vorlesungen über das apostolische Glaubensbekenntnis. dtv, München 1971, ISBN 3-423-04094-7. Geschichte (umfangreiche Darstellungen) Cambridge History of Christianity. Mehrere Hrsg. 9 Bände. Cambridge 2005ff. (Gesamtdarstellung, die den neueren Forschungsstand miteinbezieht.) Die Geschichte des Christentums. Religion Politik Kultur. Herausgegeben von Jean-Marie Mayeur, Charles und Luce Pietri, André Vaucher, Marc Venard. Deutsche Ausgabe herausgegeben von Norbert Brox, Odilo Engels, Georg Kretschmar, Kurt Meier, Heribert Smolinsky, 14 Bde., Verlag Herder, Freiburg i. Br. 1991ff. (Aktuelle Gesamtdarstellung: Besprechung) Handbuch der Kirchengeschichte. Hrsg.: Hubert Jedin u. a., 7 Bde., Freiburg 1962–1979, ISBN 3-451-20454-1 (Standardwerk zur Geschichte des Christentums aus dem Blickwinkel der katholischen Kirche und teils überholt.) Lexika Siehe vor allem: Theologische Realenzyklopädie, Religion in Geschichte und Gegenwart [4. Aufl.], Lexikon für Theologie und Kirche [3. Aufl.] und Biographisch-Bibliographisches Kirchenlexikon. Metzler Lexikon christlicher Denker: 700 Autorinnen und Autoren von den Anfängen des Christentums bis zur Gegenwart. Hrsg.: Markus Vinzent. Metzler, Stuttgart u. a. 2000 Philosophische Deutungen Ludwig Feuerbach: Das Wesen des Christentums. Otto Wiegand, Leipzig 1841. René Girard: Ich sah den Satan vom Himmel fallen wie einen Blitz. Eine kritische Apologie des Christentums. Hanser, München 2002. Georg Wilhelm Friedrich Hegel: Frühe Schriften. Werke in zwanzig Bänden, Band 1. Suhrkamp, Frankfurt am Main 1971. Michel Henry: Inkarnation: Eine Philosophie des Fleisches. 2. Aufl. Alber, Freiburg 2004. Jean-Luc Nancy: Dekonstruktion des Christentums. Diaphanes, Zürich / Berlin 2008. Slavoj Žižek: Das Reale des Christentums. Suhrkamp, Frankfurt am Main 2006, ISBN 3-518-06860-1. Sonstige Literatur Bruce Bawer: Stealing Jesus: How Fundamentalism Betrays Christianity. Three Rivers Press, New York 1997, ISBN 0-609-80222-4 (Kritik an fundamental-dogmatischen Tendenzen.) Karl-Heinrich Ostmeyer: Das Vaterunser. Gründe für seine Durchsetzung als ‚Urgebet’ der Christenheit; New Testament Studies 50, 2004, S. 320–336. Weblinks Christentum-Dossier – Weltreligionen bei wdr.de Anmerkungen Abrahamitische Religion Weltreligion Offenbarungsreligion Universalismus (Religionswissenschaft) Jesus als Namensgeber
856
https://de.wikipedia.org/wiki/Zytologie
Zytologie
Zytologie („Zelllehre“) bedeutet: in der Biologie die allgemeine Lehre von den Zellen, siehe Zellbiologie in der Medizin umgangssprachlich die zytologische Untersuchung, siehe Zytodiagnostik Siehe auch:
857
https://de.wikipedia.org/wiki/Coburg
Coburg
Coburg (außerhalb des Herzogtums im 19. Jahrhundert auch Koburg) ist eine kreisfreie Mittelstadt im bayerischen Regierungsbezirk Oberfranken und Sitz des Landratsamtes Coburg. Sie zählt zur Metropolregion Nürnberg. Vom 16./17. Jahrhundert bis 1918 war sie Residenzstadt der Herzöge von Sachsen-Coburg, von der Mitte des 19. bis Ende des 20. Jahrhunderts Garnisonsstadt. Seit 1971 ist Coburg Standort einer Fachhochschule. Seit 2005 führt Coburg den Beinamen Europastadt. Über der Stadt erhebt sich mit der Veste Coburg eine der größten Burganlagen Deutschlands. Geografie Lage und Überblick Coburg liegt zwischen dem südlichen Vorland des Thüringer Waldes, den Langen Bergen und dem Main­tal und wird von der Itz durchflossen, in die innerhalb des Stadtgebietes bei der Heiligkreuzkirche die Lauter mündet. Diese vereinigt sich im Stadtteil Neuses mit der Sulz und wird in Coburg noch vom Rottenbach gespeist. Der von Cortendorf kommende Hahnfluss, ein 1967 verrohrter Mühlbach der Itz, mündet am Rand der Innenstadt bei der Judenbrücke in die Itz. 20 Brücken überspannen die Itz im Stadtgebiet. Mit dem Einzugsgebiet der Itz oberhalb Coburgs von ungefähr 346 km² kam es bis zur Errichtung des Hochwasserrückhaltebeckens Froschgrundsee im Jahre 1986 öfters zu größeren Überschwemmungen in der Stadt, insbesondere im tiefer gelegenen Bahnhofsviertel, dem ehemaligen Überschwemmungsgebiet der Itz. Letztmals trat die Itz 2003 in Coburg über die Ufer. Zur Verhinderung solcher Ereignisse wurde 2010 das Hochwasserrückhaltebecken Goldbergsee für Sulz und Lauter angestaut. Die nächsten Großstädte sind Erfurt, etwa 80 km Luftlinie nördlich, Würzburg, etwa 90 km südwestlich, sowie Erlangen und Nürnberg, etwa 75 bzw. 90 km südlich. Die Höhenlage des Marktplatzes ist , die der Veste . Stadtgliederung Coburg besteht aus der Kernstadt und zwölf weiteren Stadtteilen. Zwei Drittel der Bevölkerung wohnen in der Kernstadt im Itztal. Insbesondere die äußeren Stadtteile Rögen sowie Neu- und Neershof haben noch einen stark dörflichen Charakter. Nachbargemeinden Folgende Gemeinden des Landkreises Coburg grenzen im Uhrzeigersinn, beginnend im Norden, an die Stadt Coburg: Lautertal, Dörfles-Esbach, Rödental, Ebersdorf bei Coburg, Grub am Forst, Niederfüllbach, Untersiemau, Ahorn, Weitramsdorf und Meeder. Klima Das Klima Coburgs ist durch die Lage zwischen dem oberen Maintal im Süden und dem Thüringer Wald im Norden gekennzeichnet. Zusätzlich wird es durch die Tallage beeinflusst. Die Sommer sind verhältnismäßig warm, milde Winter verhindert dagegen die Nähe zum Thüringer Wald. Die Jahresmitteltemperatur liegt bei etwa 8,9 °C, die mittlere Tagestemperatur beträgt im Januar −1,4 °C und im Juli 17,2 °C. Im Mittel gibt es pro Jahr fünf heiße Tage, 36 Sommertage und 28 Eistage. Pro Jahr fallen, relativ gleichmäßig über die Monate verteilt, durchschnittlich 747 mm Niederschlag. Maxima gibt es im Juni mit 82 mm und im Dezember mit 73 mm. Niederschlag über 1,0 mm gibt es im Schnitt an jedem dritten Tag. Geschichte 11. bis 18. Jahrhundert Erstmals urkundlich erwähnt wurde Coburg 1056 in einer Schenkungsurkunde der exilierten Polenkönigin Richeza an den Erzbischof Anno von Köln über das Land um Coburg. 1331 verlieh Kaiser Ludwig der Bayer Coburg das Stadtrecht und das Recht der eigenen Gerichtsbarkeit. 22 Jahre später, im Jahr 1353, erbte Markgraf Friedrich III. von Meißen und somit das Haus Wettin von dem Henneberger Grafen Heinrich die Herrschaft Coburg (Pflege Coburg). Während die Hussiten im Jahr 1430 Bereiche des Coburger Landes plünderten, wurde die Stadt Coburg nicht angegriffen. Im Stadtwappen erschien 1430 der heilige Mauritius. 1485 gehörte Coburg nach der Leipziger Teilung den Ernestinern. Da die sächsischen Kurfürsten die Reformation unterstützten, konnte diese schon bis 1524 in Coburg eingeführt werden. Im Jahr 1530 hielt sich Martin Luther ein halbes Jahr auf der Veste Coburg auf, weil er wegen der über ihn verhängten Acht nicht am Reichstag zu Augsburg teilnehmen konnte. Von 1586 bis 1633 war Coburg erstmals Residenz und Hauptstadt des selbständigen Herzogtums Sachsen-Coburg. In dieser Zeit entstanden in Coburg unter Herzog Johann Casimir einige Renaissancebauten, die noch heute das Stadtbild prägen. Nach einer Periode von 1680 bis 1699 unter Herzog Albrecht wurde Coburg 1735 abermals Residenzstadt, diesmal der Herzöge von Sachsen-Coburg-Saalfeld und ab 1826 von Sachsen-Coburg und Gotha. Ab 1532 kam es in Coburg zu einzelnen Hexenprozessen. Während der Regierungszeit Herzog Johann Casimirs (1586–1633) sind etwa 178 Hexenprozesse nachweisbar mit intensiven Verfolgungen von 1612 bis 1619 und von 1628 bis 1632. Insgesamt gab es in Coburg und Umgebung im 16. und 17. Jahrhundert mindestens 228 Hexenprozesse. 19. bis 20. Jahrhundert Anfang des 19. Jahrhunderts wurde unter Herzog Ernst I. das Residenzschloss Ehrenburg neu gestaltet. Der Schlossplatz erhielt mit dem neuen Hoftheater, den Arkaden und dem erweiterten Hofgarten sein heutiges Aussehen. Wichtig für die Stadtentwicklung war das Jahr 1858 mit dem ersten Eisenbahnanschluss an die Werrabahn. Die Eisenbahnverbindung führte unter anderem dazu, dass in den folgenden 60 Jahren Kaiser, Zaren, Könige und Fürsten oft zum Besuch ihrer Verwandtschaft nach Coburg kamen. Unter der Regentschaft und dem Patronat des liberalen Herzogs Ernst II. wurde die Stadt um 1860 Zentrum der in Vereinen organisierten deutschen Nationalbewegung. Am 14. November 1918 endete mit dem Rücktritt des Herzogs Carl Eduard die Monarchie. Am 30. November 1919 stimmten in einer der ersten demokratischen Volksbefragungen in Deutschland 9402 Einwohner der Stadt Coburg gegen den Zusammenschluss des Freistaates Coburg mit dem Land Thüringen und 1624 dafür. Somit kam Coburg am 1. Juli 1920 zum Freistaat Bayern. Ab 1922 entwickelte sich Coburg zu einer Hochburg des Nationalsozialismus. Schon 1929 erhielt die NSDAP zum ersten Mal in einer deutschen Stadt bei den Stadtratswahlen die absolute Mehrheit der Sitze. Coburg verlieh 1932 als erste deutsche Stadt Adolf Hitler die Ehrenbürgerwürde. Ab 1939 durfte Coburg den Ehrentitel „Erste nationalsozialistische Stadt Deutschlands“ führen. Im Jahr 1925 hatte Coburg 316 jüdische Einwohner. Bei einer Einwohnerzahl von 25.707 waren es 1933 noch 233 jüdische Bürger. Das Gedenkbuch des Bundesarchivs für die Opfer der nationalsozialistischen Judenverfolgung in Deutschland verzeichnet namentlich 65 jüdische Einwohner Coburgs, die deportiert und größtenteils ermordet wurden. Im Zweiten Weltkrieg wurde Coburg gegen Kriegsende durch Luftangriffe und Artilleriebeschuss zu 4,1 % zerstört, insgesamt wurden 402 Wohnungen vollständig zerstört und 639 beschädigt. Die Stadt wurde am 11. April 1945 von der 11. US-Panzerdivision besetzt. Die Entscheidung für Bayern im Jahr 1919 gewann rückblickend noch einmal an Gewicht. Coburg wurde Teil der Amerikanischen Besatzungszone, während das thüringische Hinterland zur Sowjetischen Besatzungszone gehörte und bis 1989 durch die Zonengrenze bzw. ab 1949 innerdeutsche Grenze von Coburg abgeschnitten blieb. Coburg lag somit im Zonenrandgebiet. Im Jahr 1950 verlegte die Haftpflicht-Unterstützungs-Kasse kraftfahrender Beamter Deutschlands a. G., Erfurt, die heutige Versicherungsgruppe HUK-Coburg, ihren Sitz nach Coburg. Sie ist mit rund 5.500 vor Ort tätigen Mitarbeitern (Stand 2015) größter Arbeitgeber und Gewerbesteuerzahler Coburgs, was die höchsten Gewerbesteuereinnahmen bezogen auf die Einwohnerzahl in Bayern und die fünfthöchsten in Deutschland zur Folge hat. Im 21. Jahrhundert Coburgs Bedeutung für die Region hat, insbesondere durch die Wiedervereinigung Deutschlands, weiter zugenommen. Die Stadt ist Oberzentrum mit wichtiger Infrastruktur, wie Landestheater, Landesbibliothek, Klinikum und vielen verschiedenartigen Schulen, darunter vier Gymnasien. Seit dem 30. Mai 2005 führt Coburg den Beinamen „Europastadt“. Mit diesem Beinamen bezeichnen sich Städte, die sich dem Gedanken der europäischen Verständigung besonders verschreiben. 2014 wurde Coburg der Ehrentitel „Reformationsstadt Europas“ durch die Gemeinschaft Evangelischer Kirchen in Europa verliehen. Eingemeindungen Am 1. Juli 1934 wurden Ketschendorf, Wüstenahorn, Cortendorf (mit dem zugehörigen Forstbezirk Coburg I Bausenberg) und Neuses bei Coburg eingemeindet, wodurch Coburg wieder Garnisonsstandort werden konnte (dafür war eine Einwohnerzahl von 30.000 notwendig). Ende der 1930er Jahre folgte die Zuordnung des rund 20 Hektar großen Geländes der Hindenburg-Kaserne auf Dörfleser Flur. Die 1970er Jahre waren durch eine größere Zahl von Eingemeindungen im Rahmen der Gemeindegebietsreform gekennzeichnet. Am Jahresanfang 1972 waren es Lützelbuch, Rögen und Seidmannsdorf (mit Löbelstein), sowie am 1. Juli Beiersdorf bei Coburg (bekannt für das Schloss Callenberg), Creidlitz und Scheuerfeld. Am 1. Juli 1976 kamen die ehemalige Gemeinde Neu- und Neershof und das Gut Neudörfles aus der Gemeinde Dörfles-Esbach dazu, sowie am 1. Januar 1977 Bertelsdorf und das 1868 dorthin eingemeindete Glend. 1993 erwarb Coburg von Lautertal 105 Hektar für ein neues Baugebiet. Die Fläche der Stadt hat sich damit seit 1900 von 11,4 auf über 48 Quadratkilometer mehr als vervierfacht. Schreibweise Außerhalb von Coburg wurde auch die Schreibweise Koburg verwendet. Ein Präsidialerlass der Regierung von Oberfranken vom 30. Oktober 1920 legte als Schreibweise des Namens der Stadt Coburg fest. Religion Historischer Überblick Der Coburger Raum gehörte seit der Christianisierung Frankens und Thüringens, wohl erstmals um 768, bis zur Einführung der Reformation 1524 zum Bistum Würzburg. Danach war die Stadt über vier Jahrhunderte eine fast ausschließlich protestantische Stadt. Vorherrschend war das lutherische Bekenntnis. 1910 waren über 96 Prozent der Bevölkerung Mitglied der evangelischen Landeskirche. Oberhaupt der Landeskirche war der jeweilige Herzog von Sachsen-Coburg als „summus episcopus“. Er ernannte unter anderem die Kirchenregierungen. Die geistliche Leitung hatten die Superintendenten mit Sitz in Coburg. Nach der Vereinigung Coburgs mit Bayern schloss sich 1921 die Evangelische Landeskirche Coburg der Evangelischen-Lutherischen Landeskirche Bayerns an. Coburg ist Sitz eines Dekanats, das mit über 76.129 Mitgliedern (2008) zu den größten in Bayern zählt. Römisch-katholische Gemeindeglieder zogen spätestens im 18. Jahrhundert wieder in die Stadt. Ab 1802 war es ihnen gestattet, Gottesdienste abzuhalten, zuerst in einem Zimmer in der Ketschengasse 1, ab 1806 in der Nikolaus-Kapelle. 1860 erhielten die zirka 600 Katholiken unter der Protektion von Prinz August von Sachsen-Coburg-Koháry den Kirchenneubau St. Augustin als eigene Kirche. 1826 wurde die Pfarrei aus dem Bistum Würzburg in das Erzbistum Bamberg eingegliedert. Neben den beiden großen Kirchen gibt es heute auch Gemeinden, die zu Freikirchen gehören, darunter die Evangelisch-Freikirchliche Gemeinde (Baptisten), die Adventgemeinde (Siebenten-Tags-Adventisten) und die Christengemeinschaft. Ferner sind eine neuapostolische Gemeinde, eine alt-katholische Pfarrgemeinde in der St.-Nikolaus-Kapelle, die Kirche Jesu Christi der Heiligen der Letzten Tage und die Zeugen Jehovas in Coburg vertreten. Schon 1321 wurde die villa Judaeorum (jüdische Vorstadt) erstmals vermerkt. Eine jüdische Gemeinde mit Synagoge gibt es seit 1941 nicht mehr. Im Jahr 2006 bestanden in Coburg drei Gebetshäuser muslimischer Gemeinden. Konfessionsstatistik Gemäß dem Zensus 2011 waren 53,3 % der Einwohner evangelisch, 19,8 % römisch-katholisch; 26,9 % gehörten einer anderen oder keiner öffentlich-rechtlichen Religionsgesellschaft an, oder es lag keine Angabe zu einer öffentlich-rechtlichen Religionsgesellschaft vor. Ende 2019 waren von 41.206 Einwohnern 17.638 (42,8 %) evangelisch, 7.288 (17,7 %) römisch-katholisch und 16.280 (39,5 %) Sonstige. Bevölkerungsentwicklung Im Jahr 1480 lebten in der Stadt 2.000 Einwohner. Erst im Laufe des 19. Jahrhunderts nahm die Einwohnerzahl stärker zu und erreichte 1843 10.000. Von 1864 bis 1875 wuchs die Stadt um fast 4.000 Einwohner auf 14.570, was einem Wachstum von 37 Prozent entsprach. Anfang 1900 betrug die Anzahl der Bürger 20.460. Trotz eines Rückgangs der Einwohnerzahl um etwa 10 Prozent nach dem Ersten Weltkrieg lebten 1927 über 25.000 Personen in der Stadt. Durch die ersten Eingemeindungen 1934 ergab sich ein Sprung um ungefähr 10 Prozent auf 29.000 Einwohner; der Höchststand war 1946 mit 50.000 Einwohnern erreicht, davon waren ungefähr 15.000 Flüchtlinge. Seit dem Ende des 20. Jahrhunderts (42.800) ist die Einwohnerzahl stetig leicht gesunken. 2009 war die Einwohnerzahl erstmals seit 1990 wieder etwas gestiegen und betrug 41.450. Ende 2018 hatte die Stadt 41.249 Einwohner. 2.634 Ausländer 6,4 % der Gesamteinwohner, lebten im Jahr 2008 in der Stadt. Zum 31. Dezember 2019 waren von insgesamt 41.206 Einwohnern 4.780 Ausländer, d. h. 11,5 %. Für die Bevölkerungsentwicklung wurden bis zum Jahr 2020 (Ausgangspunkt 2008) bei zunehmenden Wanderungsverlusten als unterer Wert eine Einwohnerzahl von 37.500 und unter Annahme einer ausgeglichenen Wanderungsbilanz und steigender Geburtenrate als oberer Wert eine Einwohnerzahl von 40.000 vorhergesagt. Politik Stadtrat Der Stadtrat Coburgs besteht aus dem Oberbürgermeister und der von der Gemeindeordnung vorgeschriebenen Anzahl von 40 Stadtratsmitgliedern. Der Oberbürgermeister wird direkt und wie der Stadtrat auf die Dauer von sechs Jahren gewählt. Nach der Kommunalwahl vom 2. März 2008 stellte die SPD 16 Stadträte, die CSU hatte noch 9 Vertreter, nachdem am 17. Februar 2009 ein Stadtrat die Fraktion verlassen hatte. Am 13. April 2007 gaben sieben CSU-Stadträte bekannt, die Fraktion wegen unüberwindbarer Differenzen zu verlassen und eine eigene Fraktion zu gründen: Die Wählervereinigung Christlich-Soziale Bürger stellte nach der Wahl 2008 vier Stadträte. Drei Vertreter stellten Bündnis 90/Die Grünen, mit je zwei Mandaten waren die Freie Wählergemeinschaft Coburg sowie die FDP vertreten. Je ein Stadtrat kam von der ÖDP und den neuen Gruppierungen JUnge COburger (getragen von der Jungen Union Coburg-Stadt) sowie Bürger bewegen Coburg. Die Freie Wählergemeinschaft benannte sich im September 2009 in Wählergemeinschaft Pro Coburg e. V. um. Nach der Kommunalwahl vom 16. März 2014 stellte die SPD 14 Stadträte, die CSU 10, Bündnis 90/Die Grünen und die Christlich-Sozialen Bürger Coburg je 4, die Wählergemeinschaft Pro Coburg 3 und JUnge COburger je 2 und die FDP, DIE LINKE und die ÖDP je 1 Stadtrat. Am 13. Februar 2015 gaben drei SPD-Räte bekannt, aus ihrer Fraktion auszutreten und sich mit dem Stadtrat der Linken zur neuen Fraktion „Sozial und Bürgernah für Coburg“ zusammenschließen. Am 6. März 2015 wurde bekannt, dass sich die beiden Stadträte der Jungen Coburger der CSU-Fraktion anschließen, die nunmehr zwölf Mitglieder zählte und somit zur stärksten Fraktion wurde. Die Sitzverteilung lautete nunmehr CSU/JUCO: 12, SPD: 11, Bündnis 90/Die Grünen: 4, CSB: 4, SBC: 4, WPC: 3, FDP: 1, ÖDP: 1. Die Kommunalwahl am 15. März 2020 führte zum rechts dargestellten Ergebnis und daraus zu folgender Sitzverteilung im Coburger Stadtrat: Erste Bürgermeister, Oberbürgermeister 1846–1865: Leopold Oberländer 1865–1896: Rudolf Muther 1897–1924: Gustav Hirschfeld 1924–1931: Erich Unverfähr, parteilos 1931–1934: Franz Schwede, NSDAP 1934–1937: Otto Schmidt, NSDAP 1937–1938: Wilhelm Rehlein, NSDAP 1938–1945: August Greim, NSDAP 1945, kommissarisch: Alfred Sauerteig 1945, kommissarisch: Eugen Bornhauser 1945–1948: Ludwig Meyer, SPD 1948–1970: Walter Langer, FDP 1970–1978: Wolfgang Stammberger, SPD 1978–1990: Karl-Heinz Höhn, parteilos (unterstützt von der CSU) 1990–2014: Norbert Kastner, SPD (1990 mit 30 Jahren jüngster OB Deutschlands) 2014–2020: Norbert Tessmer, SPD seit 2020: Dominik Sauerteig, SPD Siegel, Wappen, Motto Im Juni 2020 initiierten zwei Aktivistinnen eine Petition an Oberbürgermeister Dominik Sauerteig mit der Forderung nach einer Änderung des Stadtwappens mit der Darstellung des Coburger Mohren, die sie als rassistisches Relikt der Kolonialzeit beschrieben. Der Kultur- und Museumswissenschaftler und ehemalige Stadtheimatpfleger Coburgs, Hubertus Habel, bezeichnete die Übernahme des Kopfes des Heiligen Mauritius ins Stadtwappen als Zeichen einer immensen Hochachtung und keiner Abwertung. Seit den 1990er Jahren hat Coburg den Leitspruch „Werte und Wandel“. Städtepartnerschaften Coburg hat sechs aktive Partnerschaften mit Orten in Westeuropa und Nordamerika: Im Jahr 1951 wurde Garden City im Bundesstaat New York die erste Partnerstadt, nachdem es dazu die Initiative aus Gründen der Völkerverständigung ergriffen hatte. Die Städtepartnerschaft wurde zum 31. März 2017 aufgelöst, da im Zeitraum von eineinhalb Jahren kein Kontakt mit Vertretern der Stadt und des Partnerschaftsvereins zustande kam. Die zweite Partnerschaft entstand 1972 mit Oudenaarde in Belgien. Erste Partnerschaftsbestrebungen mit der Stadt Niort in Frankreich 1971 waren zunächst vergebens, aber drei Jahre später erfolgreich. 1977 wurde Gais in Südtirol, das seit 1971 eine Patenschaft mit dem späteren Stadtteil Lützelbuch hatte, nach dessen Eingemeindung Partnergemeinde von Coburg. Die Isle of Wight (Vereinigtes Königreich) folgte 1983 als fünfte Partnerschaft. Die sechste Partnerschaft wurde 1997 mit dem kanadischen Namensvetter Cobourg eingegangen, nachdem Coburg schon 1972 die ersten Vorschläge dafür gemacht hatte. 2019 schloss Coburg mit der US-amerikanischen Stadt Toledo eine weitere Städtepartnerschaft. Kultur und Sehenswürdigkeiten Theater und Kinos Das Gebäude des Landestheaters Coburg wurde in den 1840ern von Herzog Ernst II. als Hoftheater erbaut. Ein nahezu gleiches Theater wurde zur selben Zeit in Gotha errichtet (im Zweiten Weltkrieg zerstört). Das Landestheater steht im Gebäudeensemble des Schlossplatzes. Das mehrteilige klassizistische Bauwerk enthält neben dem Zuschauerraum auch einen Spiegelsaal. Aufgrund der Mitfinanzierung (40 %) durch den Freistaat Bayern kann es auch als drittes bayerisches Staatstheater bezeichnet werden. Es ist ein Drei-Sparten-Theater (Oper/Operette, Schauspiel, Ballett) und hat im Großen Haus 550 und in der ehemaligen Reithalle 99 Sitzplätze. Als Ersatzspielstätte für den mehrjährigen Zeitraum von Umbau- und Sanierungsmaßnahmen wurde bis 2023 das Globe Coburg errichtet. Seit Juni 2023 ist das Landestheater für die Zeit der Sanierung geschlossen. Die Stadt hatte zwischen 1920 und 1975 bis zu sieben Lichtspielhäuser (Union-Theater, Atelier im UT (Eröffnung am 2. Mai 1974), Central-Lichtspiele, Passage-Lichtspiele unter Leitung von Werner Gutmann, Burgtheater, Casino, Kali unter Leitung der Familie Heublein). Heute gibt es das Multiplexkino Utopolis mit neun Sälen. Dafür wurde 2001 das frühere Union-Theater abgerissen, das 1919 im Saalbau der ehemaligen Vereinsbrauerei eröffnet worden war. Das im Jahr 1900 errichtete Jugendstilgebäude wurde Anfang der 1930er Jahre umgebaut und auf 600 Sitzplätze erweitert. Eine der Auflagen für den Neubau des Kinocenters war die Beibehaltung der großzügigen Freitreppenanlage, wobei die aufwendigen Sandsteinumfassungen der ehemaligen Treppe verloren gingen. Lokale Medien Coburg hat zwei Tageszeitungen, das 1886 gegründete Coburger Tageblatt, seit 2003 eine Regionalausgabe der Zeitung Fränkischer Tag aus Bamberg, und die 1946 gegründete Neue Presse, die seit 1986 mehrheitlich zur Mediengruppe Süddeutscher Verlag gehört. Die beiden lokalen Radiosender sind Radio 1 und Radio Galaxy Coburg. Letzterer ist eine lokale Station des jugendorientierten Radios Galaxy. Der lokale Internet-TV-Sender ITV-Coburg stellt nahezu täglich Beiträge ins Netz. Bauwerke Überblick Coburg hat eine gut erhaltene Altstadt, die durch noch vorhandene Teile der Stadtmauer mit Juden-, Ketschen- und Spitaltor begrenzt ist. Die Stadt ist reich an sehenswerten Bauwerken, Brunnen, Gedächtnisstätten und historischen Ensembles, Bodendenkmälern, Flurdenkmälern und Gartendenkmälern. Repräsentative Villen stehen unter anderem auf den angrenzenden Berghängen. Veste Coburg Die Veste Coburg erhebt sich 170 Meter über der Stadt und gehört zu den größten und am besten erhaltenen Burganlagen Deutschlands. Sie wurde 1225 erstmals urkundlich erwähnt, im 17. Jahrhundert mit einem dreifachen Mauerring zur Landesfestung ausgebaut und beherbergt die Kunstsammlungen der Veste Coburg. Schlossplatz und Schloss Ehrenburg Am Fuße des Festungsberges liegt der Schlossplatz, in dessen Mitte ein Denkmal von Herzog Ernst I. steht. Der Platz wurde 1830 bis 1837 gestaltet. Er wird begrenzt vom ehemaligen Residenzschloss Ehrenburg, von den Arkaden mit dem Hofgarten, vom Palais Edinburgh und vom Landestheater. Den Grundstein von Schloss Ehrenburg legte 1543 Herzog Johann Ernst von Sachsen, und von 1623 bis 1627 erweiterte Herzog Johann Casimir die Residenz zu einem Renaissanceschloss. Im Westflügel befindet sich die 1701 fertiggestellte barocke Schlosskirche. Im 19. Jahrhundert ließ Herzog Ernst I. das Schloss mit einer Fassade im Stil der englischen Neugotik nach Entwürfen von Karl Friedrich Schinkel versehen. Die Ehrenburg beherbergt die Landesbibliothek Coburg und ist Museum. Rathaus und Stadthaus In der Nachbarschaft des Schlossplatzes liegt der Marktplatz, eingerahmt von Rathaus und Stadthaus. In seiner Mitte steht das Prinz-Albert-Denkmal, ein Geschenk der Königin Victoria an die Heimatstadt ihres verstorbenen Gatten. Der feierlichen Enthüllung des Denkmals wohnte Königin Victoria am 26. August 1865 während ihres fünften Besuches in Coburg bei. Zwischen 2004 und 2005 erfolgte eine Neugestaltung des Platzes mit Begrünung, neuer Beleuchtung und Wasserfontänen rund um das Prinz-Albert-Denkmal. Das neue Rathaus mit dem zweigeschossigen Coburger Erker und einem 27 Meter langen und 13 Meter breiten Ratssaal errichtete ab 1577 der Baumeister Hans Schlachter, 1750 und 1903 wurden größere Umbauten durchgeführt. Das gegenüberliegende Stadthaus ließ Herzog Johann Casimir 1601 als herzogliche Cantzley errichten. Es ist ein Gebäude der Spätrenaissance mit einer reichverzierten Fassade und vielfarbigen Wandmalereien. Die Hofapotheke aus dem 15. Jahrhundert ist ein spätgotischer Steinbau mit einem kleinen Chor und einer Madonna mit Kind an einer Fassadenecke sowie einer Christophorusskulptur an der Steingasse. Kirchen Die Morizkirche in der Innenstadt ist die älteste Kirche Coburgs. Sie wurde von 1320 bis 1586 errichtet und ist die Hauptkirche der evangelischen Stadtgemeinde. Der älteste Teil der Kirche, der Ostchor, stammt von 1330. Das Westportal mit den beiden ungleichen Türmen wurde um 1420 gebaut. Wiederum etwa hundert Jahre später erfolgte die Aufrichtung des Kirchenschiffes. In der Osterwoche 1530 predigte Martin Luther in der Kirche. Die katholische Stadtpfarrkirche St. Augustin steht hinter dem Landestheater. Sie ist ein neugotisches Gotteshaus mit einer Fürstengruft, das nach Entwürfen von Vincenz Fischer-Birnbaum zwischen 1855 und 1860 errichtet wurde. Die Salvatorkirche steht unweit der Morizkirche etwas versteckt an der Unteren Anlage. Es ist die evangelisch-lutherische Friedhofskirche des 1494 angelegten Salvatorfriedhofs. Die Kirche, ein Saalbau mit dreiseitig geschlossenem Chor, wurde von 1660 bis 1662 gebaut. Die am südlichen Altstadtrand gelegene Kapelle St. Nikolaus wurde 1442 als Siechenkapelle für Leprakranke erbaut und ist im Besitz der Stadt. Sie war ab 1529 Kapelle der evangelischen, ab 1806 der katholischen Gemeinde und von 1873 bis 1932 Synagoge. Die Stadt kündigte der jüdischen Gemeinde zum Ende des Jahres 1932 das Nutzungsrecht. Ab 1945 war sie Kirche der freikirchlichen Gemeinde und seit 1962 ist sie Kapelle der altkatholischen Gemeinde. Nördlich vor den ehemaligen Stadttoren, an der Itz, befindet sich die Heilig-Kreuz-Kirche. Der Chor der evangelisch-lutherischen Pfarrkirche wurde im gotischen Stil in den Jahren 1401 bis 1407 gebaut, das Langhaus ab 1413. In den Jahren 1735 bis 1739 wurde die Kirche zu einer Saalkirche mit einem barocken Innenraum umgestaltet. Aus dieser Zeit stammen auch die Stuckdecke und der Orgelprospekt. Weitere Bauwerke in der Innenstadt Neben der Morizkirche steht das Gymnasium Casimirianum; das Renaissance-Gebäude wurde 1605 eingeweiht. Auch das Zeughaus in der Herrngasse zwischen Schlossplatz und Marktplatz stammt aus dieser Zeit; es wurde 1621 als Waffenlager errichtet. Später wurde es im Stil der Spätrenaissance erweitert und erfüllte wechselnde Aufgaben. Heute dient es als Staatsarchiv. Denkmalgeschützte Fachwerkgebäude sind die Hahnmühle von 1323 sowie das Münzmeisterhaus. Letzteres war ehemaliger Hof des Geschlechtes der Münzmeister, genannt von Rosenau, die 1288 urkundlich erwähnt wurden. Es besteht seit 1444 und ist eines der bedeutendsten Bürgerhäuser der Stadt. Schlösser Aufgrund der langen Geschichte als Residenzstadt befinden sich in Coburg neben dem Schloss Ehrenburg noch eine Vielzahl kleinerer Schlösser. In der Nachbarschaft zum Landestheater steht das Bürglaß-Schlösschen. Es gehörte einst Friedrich Josias von Sachsen-Coburg-Saalfeld und diente später Zar Ferdinand von Bulgarien nach seiner Abdankung als zweiter Wohnsitz; heute befindet sich darin das Coburger Standesamt. Nordöstlich davon steht am Rittersteich das Rosenauschlösschen, ein Fachwerkgebäude mit Teilen aus dem Jahre 1435. Auf der Ernsthöhe oberhalb der Callenberger Straße erhebt sich seit 1840 Schloss Hohenfels. Es wurde zeit- und stilgleich mit dem Landestheater von dessen Baumeister errichtet. In den eingemeindeten Vororten befinden sich weitere Schlösser: Im Stadtteil Ketschendorf steht inmitten eines ausgedehnten Parks das neugotische Schloss Ketschendorf der Baronin von Stolzenau vom Beginn des 19. Jahrhunderts. Es war von 1956 bis 2010 die Coburger Jugendherberge. Schloss Falkenegg oberhalb des Stadtteils Neuses gehört zu den romantischen Bauten des Historismus aus dem beginnenden 19. Jahrhundert. Falkenegg besitzt auch einen kleinen Bergpark mit einem Obelisken zum Andenken an Moritz August von Thümmel. Schloss Callenberg im Stadtteil Beiersdorf wurde 1122 erstmals urkundlich erwähnt und war ab 1825 Sommerresidenz der Coburger Herzöge. Die dreiflügelige Schlossanlage ist ein Beispiel der Neugotik in Bayern. Seit 1998 beherbergt das Schloss die private Sammlung Herzoglicher Kunstbesitz, seit 2004 wird dort das Deutsche Schützenmuseum aufgebaut. Schloss Neuhof aus dem 14. Jahrhundert steht in Neu- und Neershof, dem östlichsten Coburger Stadtteil. Generalfeldmarschall Graf Albrecht von Roon war 1873 bis 1879 prominenter Eigentümer des von einem englischen Landschaftspark umgebenen Schlosses. Schloss Eichhof im Stadtteil Dörfles des Stadtteils Scheuerfeld, urkundlich erstmals 1440 erwähnt, gehörte bis 1979 dem Haus Coburg und wird noch als Hofgut bewirtschaftet. Neudörfles in der Neustadter Straße stammt in seinen Ursprüngen ebenfalls aus dem 15. Jahrhundert und ist ein denkmalgeschütztes Ensemble mit Herrenhaus und dem zweitgrößten Privatpark der Stadt. Neugotischer Bebauungsring Wurde unter der Regentschaft von Herzog Johann Casimir mit seinem Hausarchitekten Peter Sengelaub das Coburger Stadtbild durch Renaissance-Baudenkmäler geprägt, wie zum Beispiel durch das ehemalige Regierungsgebäude, heute Stadthaus, das Zeughaus und das Gymnasium Casimirianum, so griffen in der ersten Neubauepoche des 19. Jahrhunderts Baumeister wie Julius Martinet als Hommage an das britische Königshaus, das damals noch Saxe-Coburg and Gotha hieß, einen für damalige Verhältnisse revolutionären, dem gründerzeitlichen Historismus zuzurechnenden Baustil auf, nämlich die Neogotik. Das griechische Affix neo weist darauf hin, dass es sich dabei – im Zuge des im 18. Jahrhundert von England ausgehenden Gothic Revival – um die Neuauflage einer die Gotik nachahmenden Stilrichtung (Merkmale unter anderem Spitzbogen, Fialen) handelt. In seltener städtebaulicher Qualität wandte man in Coburg diesen Baustil an. Die Ehrenburg verrät nach ihrer neugotischen Fassadengestaltung durch Karl Friedrich Schinkel die architektonische Verwandtschaft mit dem weltweit bekanntesten neugotischem Baudenkmal, dem Palace of Westminster in London. Der in Coburg entstandene neugotische Bebauungsring gilt als ein städtebauliches Juwel, das als eine Coburger Sonderentwicklung in die Baugeschichte einging und in Architekturkreisen als „einzigartig auf dem europäischen Kontinent“ apostrophiert wird. In Coburg zeichnet ein nahezu geschlossenes Ensemble von neugotischen Bauwerken zum großen Teil den Verlauf der einstigen ringförmigen Stadtmauer nach. Dass die alten Stadtmauerreste einigen neugotischen Bürgerhäusern später als Fundament dienten, stellt eine weitere Besonderheit dar. Ein Reiz der Coburger Neugotik besteht darin, dass sich das Coburger Ensemble nicht wie in anderen Städten nur auf wenige Einzeldenkmäler oder ein kleines Stadtareal beschränkt; vielmehr umschließen die neugotischen Straßenzüge gleich einem Gürtel (vom Ernstplatz über Albertsplatz, Ausläufer im Bereich Ketschentor, Untere/Obere Anlage, Schlossplatz, Schwarze Allee bis zur Rosenauer Straße mit Ausläufern in der Bahnhofstraße) über insgesamt fast zwei Kilometer den größten Teil der Altstadt. Dabei gewährt der neugotische Promenadenring ausnahmslos den Blick auf parallel verlaufende Grünanlagen (an Stelle des früheren Stadtgrabens) oder auf baumbestandene Plätze (Albertsplatz, Ernstplatz, Schlossplatz und Rittersteich). Dem ansonsten eher kleingliedrigen Coburger Altstadtbild wird durch das „überdimensionierte“, völlig intakte Neugotik-Ensemble ein städtebaulich großzügiger Charakter verliehen. So ist der neugotische Bebauungsring in Coburg für internationale Fachkreise ein mustergültiges Anschauungsobjekt geworden, da sich vergleichbare neugotische Ensembles in solcher Geschlossenheit selbst im Ursprungsland Großbritannien kaum finden lassen. Jugendstilbauten Coburg gehört zu den Orten Deutschlands mit einem bedeutenden Bestand an Jugendstilbauten. Dazu zählen insbesondere das Sonnenhaus des Baumeisters Carl Otto Leheis aus dem Jahr 1902, die Heiligkreuz-Volksschule am Schleifanger, das ehemalige Kaufhaus M. Conitzer & Söhne in der Spitalgasse, das Ernst-Alexandrinen-Volksbad und das Bankgebäude der ehemaligen Creditkasse des Spar- und Hülfevereins im Steinweg (heute Filiale der Unicredit Bank) von Max Böhme aus den Jahren 1906 bis 1912, das Eichmüllersche Haus in der Judengasse von Paul Schaarschmidt aus dem Jahr 1903 sowie das Wohn- und Geschäftshaus in der Bahnhofstraße 10/12 von August Berger aus dem Jahr 1910. Parks Der Hofgarten zwischen Schlossplatz und Festungsberg wurde 1680 durch Herzog Albrecht als großer Herrengarten im niederländischen Stil angelegt. Seine heutige Gestalt als englischer Landschaftspark mit einer Vielzahl heimischer wie auch seltener Baumarten erhielt er mit der Erweiterung bis zur Veste 1857 unter Herzog Ernst II. Heute hat der Park aufgrund seiner zentralen Lage eine wichtige Erholungsfunktion für die Bevölkerung und ist gleichzeitig die Frischluftschneise der Stadt. Im Stil eines Landschaftsgartens ist auch der Friedhof am Glockenberg gestaltet, mit dem Jüdischen Friedhof am östlichen Rand. Dort steht ein Gedenkstein, der unter der Überschrift „Opfer des Faschismus 1941–1945“ die Namen von 48 Coburger Juden aufführt. (Die Aufzählung ist jedoch unvollständig.) Die untere Anlage, eine Grünanlage mit dem aufgelassenen Salvatorfriedhof, die bei der Einebnung der östlichen Wallgräben Anfang des 18. Jahrhunderts entstand, verbindet den Hofgarten mit dem Rosengarten am Kongresshaus. Der Rosengarten geht auf die außerhalb der Stadt liegende Zollbauernwiese zurück. Auf diesem Gelände wurde 1929 die Deutsche Rosenschau mit fast 200.000 Besuchern veranstaltet. Der Ende der 1980er Jahre umgestaltete Garten hat unter anderem ungefähr 70 verschiedene Sorten von Rosen und Volieren für exotische Vögel. Außerdem ist im Rosengarten der Sintflutbrunnen des Coburger Künstlers Ferdinand Lepcke aufgestellt. Weitere kleine Anlagen sind die Josiasanlage am Bürglaßschlösschen, der Schnürsgarten am Adamiberg sowie ein Weg entlang der Itz. In den äußeren Stadtteilen sind insbesondere der Rückert-Park im Stadtteil Neuses, der Schlosspark des Ketschendorfer Schlosses und die Hans-Blümlein-Anlage im Lehengraben (Stadtteil Creidlitz) erwähnenswert. Am Himmelsacker, einem westlichen Hügel der Stadt, befindet sich seit 2000 das Grüne Labor. Es wurde vom ehemaligen Stadtrat Horst Schunk initiiert, von Karl-Heinz Walzer von der ISA Austria aus Wien geplant und von der ISA Germany/Austria angelegt. Das Projekt erforscht Bäume für den urbanen Bereich. Dazu gehört der erste Coburger „Hochzeitswald“; ein zweiter entstand in Coburg-Neuses. Südlich der Kläranlage an der Itz wurde zudem ein „Auwald“ angelegt, dem eine hohe ökologische Bedeutung zugesprochen wird. Museen Das bedeutendste Museum Coburgs sind die Kunstsammlungen der Veste Coburg, hervorgegangen aus den Sammlungen der Coburger Herzöge. Kunst und Kunsthandwerk aus neun Jahrhunderten können dort besichtigt werden. Es sind unter anderem 26 Gemälde von Lucas Cranach dem Älteren ausgestellt. Außerdem gibt es ein Kupferstichkabinett, eine Sammlung von Rüstungen, Kriegswaffen und Jagdwaffen sowie eine Glassammlung. Das Naturkundemuseum geht auf das 1844 gegründete Herzogliche Kunst- und Naturaliencabinet zurück und erhielt 1914 im Hofgarten sein heutiges Domizil. Unter anderem sind auf 4800 m² Fläche Exponate zu den Themen Mineralogie, Geologie, Paläontologie, Archäologie, Völkerkunde und Evolution ausgestellt. Im Pavillon des Kunstvereins Coburg am Hofgarten finden seit 1950 Wechselausstellungen mit Kunst der Gegenwart statt. Der Kunstverein ist ein gemeinnütziger und eingetragener Verein, der sich der Vermittlung zeitgenössischer Kunst widmet und als Forum für junge Künstler versteht. Er entstand 1981 aus dem Zusammenschluss des 1824 gegründeten Kunst- und Gewerbevereins Coburg sowie des Coburger Kunstvereins. Der Verein gehört zu den ältesten Kunstvereinen in Deutschland und ist mit etwa 1700 Mitgliedern der größte Kunstverein in Bayern. Weiterhin sind zu nennen das Friedrich-Rückert-Museum im Stadtteil Neuses sowie das Grabungsmuseum Kirchhof, welches neben St. Moriz unter dem Ämtergebäude liegt und seit 1994 Ausgrabungen einer ehemaligen Benediktiner-Propstei aus dem 13. Jahrhundert mit Keramikgegenständen zeigt. Das Puppen-Museum bei der Ehrenburg mit seinen 4600 Objekten wurde Ende 2022 geschlossen. Im Schloss Callenberg im Stadtteil Beiersdorf wird seit 1998 die Sammlung Herzoglicher Kunstbesitz von Mobiliar, Gemälde, Porzellan und kunstgewerbliche Gegenstände aus vier Jahrhunderten gezeigt. Auch ein Uhrenkabinett kann besichtigt werden. Seit 2004 ist dort das Deutsche Schützenmuseum beheimatet. Aquarium Im Coburger Stadtteil Neuses lag das privat betriebene Sea Star Aquarium. Das Aquarium bestand seit 2001 und war ursprünglich eine Quarantäne- und Zuchtstation für verschiedene Fischarten wie Haie und Rochen. Im Jahr 2002 wurde es als Sea Star Aquarium der Öffentlichkeit zugänglich gemacht. Auf 1000 m² Ausstellungsfläche lebten in mehr als 50 Aquarien von 30 bis 130.000 Litern über 650 verschiedene Tierarten. Im September 2011 wurde das Aquarium geschlossen. Sport Fußball wird in Coburg in 16 Vereinen angeboten. Die traditionsreiche DVV Coburg, deren Vorgängerverein VfB Coburg 07 im 20. Jahrhundert in höheren Amateurklassen spielte, wurde 2012 aufgrund von Insolvenz aufgelöst. Der infolgedessen gegründete FC Coburg stieg 2023 erstmals in die Bayernliga auf. Traditionell hat der Schießsport eine besondere Bedeutung in Coburg. Hier gibt es vier Vereine. Die Schützengesellschaft Coburg 1354 ist mit einer Luftgewehrmannschaft in der 1. Bundesliga vertreten und gewann 2008, 2009 und 2015 die deutsche Meisterschaft. Zu den etwas ungewöhnlicheren Sportarten gehört der Gardetanz, den die Tanzsportgarde Coburger Mohr e. V. seit vielen Jahren erfolgreich in ganz Deutschland vertritt. Nach vier deutschen Meistertiteln und vielen oberfränkischen, fränkischen und süddeutschen Meistertiteln veranstaltete die Tanzsportgarde im Jahr 2006 die Süddeutschen Meisterschaften, allerdings wegen der zu kleinen Angersporthalle nicht in Coburg, sondern in Bayreuth. Viele Anhänger hat auch der HSC 2000 Coburg, dessen 1. Herrenmannschaft in der Saison 2016/17 in der Handball-Bundesliga spielte. Die 1. Männermannschaft des Volleyballvereins VSG Coburg/Grub stieg 2011 in die 2. Deutsche Volleyball-Bundesliga auf und gelangte 2013 in die Deutsche Volleyball-Bundesliga. 2016 folgten der Abstieg und die Insolvenz des Vereins. Dem Basketballverein BBC Coburg gelang bis 2017 innerhalb von sechs Jahren der Aufstieg von der Bezirksliga in die ProB, die dritthöchste nationale Spielklasse. Auch Orientierungslauf gewinnt in Coburg immer mehr an Bedeutung; so wurden 2005 erstmals in Coburg eine Deutsche Mannschaftsmeisterschaft und ein Bundesranglistenlauf ausgerichtet. Der größte Verein Coburgs ist die Sektion Coburg des Deutschen Alpenvereins mit rund 4.080 Mitgliedern (Stand: 31. Dezember 2021). 2021 bewarb sich die Stadt zusammen mit dem Landkreis Coburg als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeberin für Special Olympics Togo ausgewählt. Damit wurde sie Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns. Regelmäßige Veranstaltungen In Coburg findet jedes Jahr das größte Samba-Festival außerhalb Brasiliens statt, das seit 1992 alljährlich im Juli an drei Tagen rund 200.000 Besucher anzieht. Über 80 Sambagruppen mit mehr als 2200 Sambistas aus acht Nationen traten beispielsweise vom 7. bis zum 9. Juli 2006 auf neun Bühnen in der Innenstadt auf. Im August findet auf dem Schlossplatz jährlich der von der HUK-COBURG gesponserte „Open-Air-Sommer“ mit mehreren Konzerten verschiedener Musikrichtungen, Gruppen und Solisten statt. So traten 2007 unter anderem die Pop-Rock-Sängerin Pink und die Reggae/Dancehall/Hip-Hop-Gruppe Seeed auf. Auch die Oper Die Zauberflöte wurde aufgeführt. Seit 2004 findet am letzten Feriensamstag im September die Museumsnacht Coburg, auch Nacht der Kontraste genannt, statt. Jährlich besuchen rund 10.000 Personen die Kulturveranstaltung der Coburger Landesstiftung, welche über die Stadt verteilt stattfindet. Coburg ist Austragungsort des Coburger Pfingstkongresses des Coburger Convents (CC), eines Verbandes von Turnerschaften und Landsmannschaften, der jedes Jahr zu Pfingsten seinen Kongress mit Tagungen, Festkommers, Fackelzug und Sportveranstaltungen ausrichtet. Mehrmals jährlich werden klassische Konzerte in der St.-Moriz-Kirche durch den Coburger Bachchor veranstaltet. Mitte Juli wird das Schlossplatzfest, das sich als „Größte Gourmet-Party Nordbayerns“ bezeichnet, zwischen Ehrenburg und Landestheater gefeiert. Parallel findet am Güterbahnhof das Outside Rodeo-Festival mit Punkrock statt. Auf der Freifläche Anger findet im Frühjahr das Frühlingsfest und Anfang August das Vogelschießen (Schützenfest) statt. Dieses wird von der Schützengesellschaft Coburg 1354 e. V. veranstaltet und zieht viele Besucher an. Neben dem Weihnachtsmarkt im Dezember finden weitere traditionelle Märkte statt. Der Coburger Flohmarkt, der sich zweimal im Jahr über das gesamte Innenstadtgebiet erstreckt, dauert vom Samstagabend bis Sonntag. Erstmals wurde im Jahr 2006 der Coburger Kloßmarkt veranstaltet. Alle drei Jahre finden die „Deutschen Johann-Strauss-Tage“ (bis 2009 „Johann-Strauss-Musiktage“) statt. Damit soll an den Walzerkönig erinnert werden, der 1887 Coburger Bürger wurde (und es bis zu seinem Tod blieb). Diese Tage wurden zuletzt im September 2015 veranstaltet. Der bis 2009 zu den Johann-Strauss-Musiktagen gehörende „Internationale Gesangswettbewerb Alexander Girardi“ findet vorerst nicht mehr statt, weil die (finanzielle) Unterstützung durch die Stadtverwaltung eingestellt wurde. Seit 2002 findet im Juli auf der Veste auch die „Zeitreise“, eine der größten deutschen „Living History“-Veranstaltungen, in Zusammenarbeit mit den Kunstsammlungen statt. Mehr als 100 Darsteller zeigen thematisch Ausschnitte aus dem Leben vergangener Zeiten mit historischer Genauigkeit und ergänzen so das „Ausstellungsstück“ Veste und die Exponate der Kunstsammlungen und füllen sie mit Leben. Seit 1989 finden im Mai die Coburger Designtage statt. Seit 2003 veranstaltet der Motor-Sport-Club Coburg e. V. MSC in jedem Jahr Anfang Mai ein großes Young- und Oldtimertreffen für Kraftfahrzeuge und Motorräder auf dem Schlossplatz. Zu diesen Treffen kommen regelmäßig Teilnehmer aus dem gesamten süddeutschen und thüringischen Raum, gelegentlich auch aus Norddeutschland und dem europäischen Ausland. Kulinarische Spezialitäten Die bekannteste Spezialität aus Coburg ist die Coburger Bratwurst, das Coburger „Nationalgericht“. Sie besteht aus Schweine- und Rindfleisch, enthält keinen Majoran, dafür aber bis zu fünf Prozent Ei. Eine Besonderheit ist die Art des Grillens, wozu weder Holz noch Holzkohle, sondern gut getrocknete Kiefernzapfen, im Coburger Volksmund auch „Kühle“ genannt, verwendet werden. Die Länge der Bratwurst soll 30 bis 32 Zentimeter betragen, entsprechend der Länge des Marschallstabes, den die Figur des Stadtheiligen Mauritius auf dem Rathausgiebel in der Hand hält. Einen ganzjährig täglich geöffneten Bratwurststand gibt es auf dem Marktplatz. Die „Coburger Schmätzchen“ werden von der Bayerischen Lebkuchen- und Feingebäck-Manufaktur Wilhelm Feyler hergestellt. Sie bestehen aus Honigteig und enthalten Nüsse, Mandeln, Orangeat, Zitronat und Gewürze. Die „Coburger Goldschmätzchen“ erhalten zusätzlich nach dem Backen einen feinen Schokoladenüberzug und einen Tupfer Blattgold. Die Plätzchen wurden früher am Gregoriustag, der letztmals am 13. Juli 1971 in Coburg gefeiert wurde, an die Coburger Grundschüler verteilt. Eine weitere Spezialität sind die Coburger Klöße, im Volksmund auch „Rutscher“ genannt. Das sind Kartoffelklöße je zur Hälfte aus rohen (wie die Thüringer) und gekochten Kartoffeln (wie die Fränkischen); gelegentlich ist das Mischverhältnis auch 1/3 roh zu 2/3 gekocht. Im Inneren sollte jeder Kloß geröstete Weißbrotwürfel („Bröckla“) enthalten. Der „Hof-Likör“ wird in der Hofapotheke nach einem geheimen Rezept hergestellt. Die „Coburger Rolle“ ist ein Weichkäse in verschiedenen Geschmacksrichtungen. Wirtschaft und Infrastruktur Überblick Coburg war in der Vergangenheit robust gegenüber wirtschaftlichen Schwankungen des Umlandes. Obwohl die Stadt jahrzehntelang durch die Zonenrandlage während der deutschen Teilung benachteiligt war, ist sie heute eines der wirtschaftlichen Oberzentren Nordbayerns. Das hat die Stadt vor allem ihrer Mischung verschiedener Betriebsgrößen aus unterschiedlichsten Branchen zu verdanken. Coburg gehört – vor allem aufgrund der hohen Gewerbesteuer­zahlungen der Versicherungsgruppe HUK-Coburg – gemessen an den Einnahmen aus Gewerbe-, Grund- und Einkommensteuer pro Einwohner zu den reichsten Kommunen Deutschlands. Im Jahr 2017 betrug die gemeindliche Steuerkraft 2919 Euro je Einwohner, der höchste Wert aller kreisfreien Städte bundesweit. Im Gesamtranking aller 397 kreisfreien Städte und Landkreise in Deutschland lag die Stadt Coburg damit auf Platz 2. Nur der Landkreis München wies eine höhere Steuerkraft pro Einwohner auf. Die Gesamtsumme der Verschuldung der Stadt Coburg belief sich zum Jahresende 2012 auf 59,7 Millionen Euro. Das sind 1458 Euro pro Einwohner. Von den 103 kreisfreien Städten in Deutschland hatte Coburg zu diesem Zeitpunkt die drittgeringste Pro-Kopf-Verschuldung. Im Jahre 2016 erbrachte Coburg, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 3,437 Milliarden Euro. Das BIP pro Kopf lag im selben Jahr bei 83.501 Euro (Bayern: 44.215 Euro, Deutschland 38.180 Euro) und damit deutlich über dem regionalen und nationalen Durchschnitt. Unter den kreisfreien Städten in Deutschland hatte Coburg damit das sechsthöchste BIP pro Kopf (hinter Wolfsburg, Ingolstadt, Schweinfurt, Erlangen und Frankfurt am Main). In der Stadt arbeiteten 2016 rund 42.600 erwerbstätige Personen. Die Arbeitslosenquote lag im August 2023 bei 6,7 %. Im Zukunftsatlas 2016 belegte die Stadt Coburg Platz 23 von 402 Landkreisen und kreisfreien Städten in Deutschland und zählt damit zu den Orten mit „sehr hohen Zukunftschancen“. In der Ausgabe von 2019 lag sie auf Platz 106 von 401. Statistische Daten der Wirtschaft Am 30. Juni 2014 waren in Coburg 33.369 sozialversicherungspflichtige Arbeitnehmer beschäftigt. Ungefähr 49 % der Erwerbstätigen waren im Dienstleistungssektor, 34 % im produzierenden Gewerbe und 16 % im Bereich Handel und Verkehr beschäftigt. Rund 20.000 Personen pendelten täglich in die Stadt zur Arbeit, was die im Verhältnis zum bayerischen Landesdurchschnitt relativ hohe Arbeitslosenquote erklärt. In den Behörden und öffentlichen Institutionen sind zirka 3.000 Arbeitsplätze vorhanden. Am 30. Juni 2021 waren in Coburg 33.845 sozialversicherungspflichtige Arbeitnehmer beschäftigt. Ungefähr 57 % der Erwerbstätigen waren im Dienstleistungssektor, 30 % im produzierenden Gewerbe und 13 % im Bereich Handel, Verkehr und Gastgewerbe beschäftigt. Rund 24.000 Personen pendelten täglich in die Stadt zur Arbeit. Die Arbeitslosenquote lag 2021 im Jahresdurchschnitt bei 3,1 %. Ansässige Unternehmen Bekanntestes Unternehmen und größter Arbeitgeber Coburgs ist die Versicherungsgruppe HUK-Coburg. Die über 5700 am Ort Beschäftigten der seit 1950 in der Stadt ansässigen Versicherung sind hauptsächlich auf einen Verwaltungskomplex in der Innenstadt am Bahnhof sowie einen größeren auf der Bertelsdorfer Höhe an der Anschlussstelle Coburg der A 73 verteilt. Daneben ist das produzierende Gewerbe mit den im Folgenden genannten größten Unternehmen wichtigstes Standbein der Wirtschaft in Coburg. Das Familienunternehmen Brose produziert seit 1919 in der Stadt und hat in Coburg seinen Hauptsitz. Es ist ein bedeutender Zulieferer der Automobilindustrie. 2500 Beschäftigte, davon 1100 in der Fertigung und 1400 in der Verwaltung, arbeiten unter anderem in zwei Werken, die im Süden der Stadt liegen. Das Unternehmen beschäftigt weltweit über 32.000 Mitarbeiter (Stand: 2023). Die Kaeser Kompressoren SE, 1919 von Carl Kaeser in Coburg gegründet, gehört zu den führenden Anbietern von Kompressoren und Produkten der Drucklufttechnik. Von den insgesamt fast 6000 Beschäftigten arbeiten über 1600 im Stadtteil Bertelsdorf. Die Sagasser-Vertriebs GmbH gehört zu den größten Getränkemärkten im Bereich Nordbayern und Südthüringen und hat ihren Sitz in Coburg. Stark vertreten ist in Coburg der Werkzeugmaschinenbau mit den Firmen Waldrich Coburg, Kapp und Lasco. Im Großwerkzeugmaschinenbau ist Waldrich Coburg Hersteller von Präzisionsbearbeitungszentren und -maschinen, hat rund 800 Mitarbeiter und wurde 1920 von Adolf Waldrich gegründet. Dessen Schwiegersohn Bernhard Kapp legte 1953 den Grundstein für seine eigene Firma, die heute in Coburg mit etwa 500 Beschäftigten Schleifmaschinen zur Weich- und Hartfeinbearbeitung von Verzahnungen und Profilen produziert. Lasco wurde schon 1863 als Eisengießerei und Maschinenfabrik gegründet und fertigt mit 340 Mitarbeitern Fertigungsanlagen für Umformaufgaben. Ein weiterer Schwerpunkt ist mit den Firmen Gaudlitz, Hermann Koch und Ros die kunststoffverarbeitende Industrie. Gaudlitz wurde 1937 gegründet und produzierte 2023 mit zirka 115 Beschäftigten hochpräzise Formteile aus duro- und thermoplastischen Rohstoffen. Das Unternehmen Hermann Koch gibt es seit 1914 in Coburg. Mit 280 Mitarbeitern werden Kunststoffverpackungen entwickelt und hergestellt. Die Firma Ros, 1926 gegründet, ist heute mit rund 180 Beschäftigten in Coburg im Formenbau und Spritzguss tätig und hat sich auf komplexe Bauteile für die Automobil- und Elektroindustrie spezialisiert. Auch das seltene Handwerk der Gebildsticker ist in der Stadt seit über 150 Jahren vertreten. Die Thüringer Fahnenfabrik, die 1857 von Christian Heinrich Arnold gegründet wurde, zählt zu den ältesten Fahnenfabriken in Europa. Das Familienunternehmen fertigt heute noch „handgestickte“ Vereinsfahnen in Coburg. In öffentlicher Hand sind unter anderem das Klinikum Coburg, welches auf das 1862 gegründete Landkrankenhaus Coburg zurückgeht, das 1903 an seinen heutigen Standort im Stadtteil Ketschendorf verlegt wurde. Es ist ein Haus der Schwerpunktversorgung (Versorgungsstufe III) und hat 522 Betten bei insgesamt rund 1800 Mitarbeitern. Die Sparkasse Coburg – Lichtenfels mit etwa 700 Mitarbeitern in der Region hat in Coburg ihre Wurzeln in der 1822 eröffneten Stadtsparkasse. Alleiniges Eigentum der Stadt sind die Städtischen Werke Überlandwerke Coburg mit etwa 350 Mitarbeitern, die unter anderem aus dem 1854 eröffneten Gaswerk hervorgegangen sind. Gewerbegebiet Lauterer Höhe Jahrelange Auseinandersetzungen, Diskussionen und zwei Bürgerentscheide drehten sich um ein im Norden der Stadt an der Bundesautobahn 73 gelegenes, erschlossenes Gewerbegebiet, dessen Fläche teils aus Lautertal eingemeindet wurde. Die Stadt plante dort Ende der 1990er Jahre ein 48.000 m² großes Einkaufs- und Freizeitzentrum. Vorgesehen waren in den Projektentwürfen verschiedener Investoren Fachmärkte und gastronomische Einrichtungen, ein Spaßbad, eine künstliche Parkanlage mit See, ein kleiner Freizeitpark sowie eine Multifunktions- und Eislaufhalle für etwa 6000 Besucher. Viele Geschäftsleute der Innenstadt befürchteten eine Abwanderung der Käufer an den Stadtrand. Deshalb kam es im Jahr 2000 zum Bürgerentscheid, bei dem mit einer knappen Mehrheit von 27 Stimmen gegen den Bebauungsplan entschieden wurde. In den folgenden Jahren wurde die Bebauung des Geländes neu geplant, unter anderem mit einer neuen Multifunktionshalle. Ab 2005 folgte die Errichtung verschiedener Lebensmittel- und Fachmärkte; auch ließen sich verschiedene Dienstleistungsanbieter und Gastronomiebetriebe nieder. Einkaufs- und Fachmärkte ohne innenstadtrelevantes Sortiment mit 14.000 m² Verkaufsfläche waren genehmigt worden. Am 23. Oktober 2008 beschloss der Stadtrat den Bau einer Ballsporthalle, der heutigen HUK-Coburg arena auf der Lauterer Höhe. Die Halle für insgesamt 3530 Zuschauer wurde im August 2011 eröffnet. Bis 2021 wurden etwa 30 Einrichtungen, vorrangig aus dem Bereich Einzelhandel, verwirklicht. Neues Innenstadtkonzept (NIK) Im Herbst 2006 präsentierte der Unternehmer Michael Stoschek mit anderen Coburger Geschäftsleuten das selbst entwickelte Neue Innenstadtkonzept. Es sah im Wesentlichen vor, Coburg als Kongressort attraktiver zu machen. Dazu sollen die geplante Multifunktionshalle statt auf der Lauterer Höhe auf dem innenstadtnahen Schützenanger und ein Tagungshotel errichtet sowie das bestehende Kongresshaus Rosengarten ausgebaut werden. Der Anger wird bisher als Park- und Festplatz genutzt und ist mit einer Dreifach-Turnhalle sowie Sportanlagen bebaut. Diese Sportstätten sollen laut NIK in den Norden der Stadt verlegt werden. Kritiker des Konzeptes führten unter anderem eine höhere Lärmbelästigung, mehr Verkehr, eine nicht ins historische Stadtbild passende Arena und die weite Entfernung der neuen Sportstätten zu den Schulen als Hauptargumente an. Im Dezember 2006 wollte der Stadtrat zur Umsetzung des NIK mit einem Ratsbegehren die Bürger über den Multifunktionshallen-Standort entscheiden lassen. Gleichzeitig starteten die NIK-Initiatoren ein Bürgerbegehren mit gleichem Inhalt, worauf das Ratsbegehren zurückgezogen wurde. Einige Wochen vor dem Bürgerentscheid im April 2007 stellten der Oberbürgermeister Norbert Kastner und die Coburger SPD eigene Planungen namens AHA-Konzept (Arena + Halle am Anger) vor. In diesem Konzept war geplant, die Multifunktionshalle auf die Lauterer Höhe zu bauen, gleichzeitig jedoch eine neue Dreifachturnhalle mit kleinerem Kultur- und Kongresssaal und Hotel auf dem Schützenanger zu errichten. Der größte Teil der Sportstätten wäre auf dem Anger verblieben. Mit rund 52 Prozent der Stimmen votierten die Bürger beim Bürgerentscheid für den Schützenanger als Standort der Multifunktionshalle. Während die NIK-Initiatoren meinten, dass die Bürger mit ihrem Ja auch ihren Willen zur Umsetzung der restlichen NIK-Planungen ausdrückten, musste nun der Stadtrat entscheiden, welche Maßnahmen ausgeführt werden. Der erste Schritt war im Oktober 2007 die Ausschreibung eines städtebaulichen Wettbewerbes „Coburgs neuer Süden“, dessen Ergebnis Ende April 2008 vorgestellt wurde. Im nächsten Schritt sollte ein Realisierungswettbewerb folgen. Am 25. Juni 2009 beschloss schließlich der Stadtrat ein neues Grundkonzept, da nach dem Bau einer Ballsporthalle auf der Lauterer Höhe eine Multifunktionshalle auf dem Anger nicht mehr benötigt wird. Das Konzept sah im ersten Schritt an der Ecke Bamberger Straße/Karchestraße den Bau einer neuen Dreifachturnhalle vor, die 2017 eröffnet wurde. Nach Abriss der alten Halle sollen dann eine Stadthalle und ein Hotel errichtet werden. Zu den größeren innerstädtischen Baumaßnahmen gehörte die städtebauliche Neugestaltung der Ketschenvorstadt (Sanierungsgebiet VI). Trinkwasserversorgung und Abwasserentsorgung Die Gewinnung, Aufbereitung und Verteilung des Trinkwassers erfolgt durch die SÜC. Es stammt größtenteils aus Tiefbrunnen, sieben nahe der Rödentaler Stadtteile Fischbach und Mittelberg sowie sieben weitere zwischen Mönchröden und Neustadt bei Coburg. Die Aufbereitung des Grundwassers erfolgt im 1986 gebauten Wasserwerk Cortendorf. . Der Bereich Coburg-West erhält ein Mischwasser aus Grundwasser der SÜC-Tiefbrunnen und aus Oberflächenwasser der Fernwasserversorgung Oberfranken (Ködeltalsperre, Anteil ca. 20 %). Nach der Aufbereitung wird das Wasser in das Leitungsnetz eingespeist. Hier sind 14 Hochbehälter mit einem Gesamtvolumen von 11.000 m³ zwischengeschaltet, die der Druckerhaltung dienen und Verbrauchsspitzen abdecken. Der Anschlussgrad an das Trinkwassernetz liegt in Coburg bei 100 Prozent. Mit einer Gesamthärte von 11,5 °dH fällt das Wasser in den Härtebereich „mittel“. Der Brutto-Verbrauchspreis liegt bei 1,99 Euro je Kubikmeter. (Stand: 2021) Die Ableitung und Reinigung des Abwassers fällt in den Zuständigkeitsbereich des Coburger Entsorgungs- und Baubetriebs. 99,8 % der Stadtbewohner waren 2016 an die Kanalisation angeschlossen. Sie hat im Ortsgebiet eine Länge von 400 Kilometern und ist überwiegend im Trennsystem aufgebaut. Lediglich in den Ortsteilen Scheuerfeld, Wüstenahorn, Creidlitz und Neu- und Neershof gibt es eine Mischkanalisation. Das Abwasser von Coburg und der Gemeinden Dörfles-Esbach und Lautertal sowie der Milchwerke Wiesenfeld wird in der zentralen Kläranlage Coburg gereinigt. Das Abwasser der Coburger Stadtteile Neu- und Neershof fließt aus topographischen Gründen nach Rödental und wird dort gereinigt. Die Coburger Anlage behandelt jährlich etwa 5 Mio. m³ Abwasser im Belebtschlammverfahren. Das gereinigte Wasser wird in die Itz eingeleitet. Der anfallende Klärschlamm wird verfault, das dabei entstehende Klärgas wird zur Strom- und Wärmeerzeugung verwendet. Verkehr Öffentlicher Personennah- und -regionalverkehr auf der Straße Der öffentliche Personennahverkehr wird in Coburg durch die Verkehrsgemeinschaft Coburg (VGC), einen Zusammenschluss der SÜC Bus und Aquaria GmbH (SÜC) und des Omnibusverkehrs Franken GmbH (OVF), betrieben. Im Stadtgebiet gab es im Jahr 2010 neun Stadtbuslinien mit zusammen etwa 100 km Streckenlänge, die tagsüber im Halb-Stunden-Takt mit 40 Bussen bedient werden. Das Umland wird mit elf Linien erschlossen, die im Regelfall den Coburger Bahnhof anlaufen. Daneben gibt es seit Mai 2021 die Buslinie 8300, die Coburg mit dem hessischen Gersfeld verbindet – täglich im 2-Stunden-Takt. Zentrale Umsteigehaltestelle ist seit Dezember 2007 der Theaterplatz. Die Rendezvoushaltestelle, die auch ein Dynamisches Fahrgastinformationssystem erhalten hat, ist für elf Busse ausgelegt und wird nur von Linien der SÜC angefahren. Im Herbst 2009 wurde am Bahnhof nach zweijähriger Bauzeit der zentrale Omnibusbahnhof (ZOB) mit zwölf Halteplätzen und drei Warteplätzen eröffnet. Dort halten die Busse des Omnibusverkehrs Franken GmbH, der OVG Sonneberg und der SÜC. Schienenverkehr In der Vergangenheit hatte der Schienenverkehr eine größere Bedeutung. So existierte von 1858 bis 1945 mit der Werrabahn von Coburg über Meiningen nach Eisenach eine durchgehende Ost-West-Verbindung über die thüringische Landesgrenze hinweg mit 15 Zugverbindungen am Tag im Jahre 1939. Im Jahr 1892 wurde eine Zweigstrecke nach Bad Rodach eröffnet. Zusätzlich gab es von 1900 bis 1984 mit der Itzgrundbahn eine Nebenbahn nach Rossach sowie von 1901 bis 1945 die durchgehende Steinachtalbahn über Ebersdorf–Sonnefeld–Fürth am Berg (bis 1975) nach Neustadt bei Coburg. Im Jahr 2021 gab es fünf Bahnhöfe in Coburg und einen Güterbahnhof. Auf dem Streckenteil der Werrabahn nach Lichtenfels verkehren Regionalexpresszüge, die über Bamberg nach Nürnberg fahren. Die Strecke wird im Zweistundentakt vom Franken-Thüringen-Express und im Stundentakt von der Privatbahn Agilis bedient. Die Strecke nach Sonneberg, die 1991 wieder eröffnet wurde, befährt im Stundentakt der Franken-Thüringen-Express. Außerdem verkehrt nach Bad Rodach Agilis im Stundentakt. Über eine Verbindungskurve besteht Anschluss zur Neubaustrecke Nürnberg–Erfurt. Seit Dezember 2019 halten Montag bis Freitag – morgens, nachmittags und abends – insgesamt vier ICE-Zugpaare der Linie Berlin–München in Coburg. Am Wochenende entfallen teilweise die Züge am Morgen. Der nächstgelegene ICE-Systemhalt ist in Bamberg. Straßenverkehr Das Stadtzentrum ist zum großen Teil eine Fußgängerzone. Für den innerstädtischen Straßenverkehr gibt es zentrumsnah die kommunal betriebenen Parkhäuser Mauer, Post, Albertsplatz und Zinkenwehr sowie, sofern keine Veranstaltungen darauf stattfinden, den Großparkplatz Anger und einige kleinere Parkplätze. Durch das Stadtgebiet verlaufen die beiden europäischen Fernwanderwege E3 (Santiago de Compostela–Nessebar) und E6 (Kilpisjärvi–Dardanellen). Diese sind dort allerdings nicht als solche ausgeschildert. Radwege sind in Coburg kaum vorhanden. Der Fernstraßenverkehr wird geprägt durch die Bundesstraßen 4, die als Nord-Süd-Achse den Nürnberger Raum mit Thüringen, und 303, die als West-Ost-Achse Schweinfurt mit Tschechien verbindet, sowie die Bundesautobahn 73. Während die B 4 die Stadt durchquert, tangiert die B 303 nur den Stadtkern. Aufgrund der Grenzlage war das bis 1990 ausreichend, da kaum Durchgangsverkehr zu bewältigen war. Erst die deutsche Einheit brachte Coburg einen Autobahnanschluss. Im Rahmen des Verkehrsprojekts Deutsche Einheit wurde die Verlängerung der Bundesautobahn 73 Nürnberg–Bamberg über Lichtenfels und Coburg nach Suhl beschlossen. Die neue Strecke bildet den östlichen Ast der Thüringer-Wald-Autobahn 71 und ist seit dem 5. September 2008 durchgehend befahrbar. Luftverkehr Der Verkehrslandeplatz Coburg-Brandensteinsebene (ICAO-Code: EDQC) wurde als Flugstützpunkt Coburg im Jahr 1913 eröffnet. Er befindet sich im Eigentum der Stadt. Betreiberschaft und Halterschaft liegen seit 2001 beim Aero Club Coburg e. V. Des Weiteren existiert im Süden Coburgs der Sonderlandeplatz Coburg-Steinrücken (ICAO-Code: EDQY). Er verfügt über eine Gras-Landepiste mit einer Länge von 700 m und einer Tragfähigkeit von bis zu zwei Tonnen. Besitzer und Betreiber des Flugplatzes auf dem Steinrücken ist die Flugtechnische Arbeitsgemeinschaft Coburg e. V. Die nächsten internationalen Flughäfen sind in Nürnberg im Süden und Erfurt im Norden, jeweils ca. 90 km von Coburg entfernt. Institutionen und Einrichtungen Neben den Behörden der Stadtverwaltung bestehen die folgenden Institutionen und Einrichtungen: Die Coburger Landesstiftung verwaltet die herzoglichen Kulturgüter, welche der Freistaat Coburg 1919 durch den Abfindungsvertrag mit Herzog Carl Eduard erhielt. Das sind die Veste mit den Kunstsammlungen und das Naturkundemuseum. Seit 1941 ist die Stiftung auch als Außenstelle der Bayerischen Verwaltung der staatlichen Schlösser, Gärten und Seen tätig. Die Einrichtung eines Landgerichtes wurde Coburg bei der Vereinigung mit Bayern zugesagt. Es wurde am 1. April 1921 eröffnet. Der zugehörige Gerichtsbezirk umfasste die coburgischen Amtsgerichtsbezirke Coburg, Neustadt, Rodach und Sonnefeld sowie die bayerischen Kronach und Lichtenfels. Im Jahr 2020 gehören zum Landgerichtsbezirk die Bezirke der Amtsgerichte Coburg, Kronach und Lichtenfels mit insgesamt rund 280.000 Einwohnern. Das Landgericht wurde im Gebäude des Herzoglichen Staatsministeriums, mit dem Sitzungssaal des Coburger Landtags, am Ketschentor untergebracht. 1945 wurde dieses zerstört und 1957 als neues Justizgebäude eingeweiht. Das Amtsgericht Coburg ist seit dem Jahr 2000 als Zentrales Mahngericht für alle automatisierten gerichtlichen Mahnverfahren in Bayern zuständig. Daneben sind zu nennen das Forst- und Domänenamt, das Amt für Ernährung, Landwirtschaft und Forsten, das Gewerbeaufsichtsamt, die Handwerkskammer und die Industrie- und Handelskammer. Die Industrie- und Handelskammer zu Coburg ist nur zuständig für die Stadt und den Landkreis Coburg und somit die kleinste in Deutschland. Diese Institutionen gibt es vor allem noch aufgrund der 1920 von Bayern gegebenen Bestandszusage. Das Landratsamt des Landkreises Coburg ist in der Stadt angesiedelt. Die Deutsche Johann-Strauss-Gesellschaft hat ihren Vereinssitz in Coburg. Die Kraftfahrzeug-Zulassung erfolgt gemeinsam mit dem Landkreis Coburg im Zweckverband Zulassungsstelle Coburg. Feuerwehr und Rettungsdienst Feuerwehr Die Freiwillige Feuerwehr der Stadt Coburg umfasst drei Löschzüge, die in der Stadtmitte, in Ketschendorf und in Wüstenahorn stationiert sind. Des Weiteren gibt es in Bertelsdorf, in Creidlitz und in Löbelstein jeweils Stadtteilwehren. Rettungsdienst Die präklinische medizinische Notfallversorgung im Stadtgebiet wird hauptsächlich durch das Bayerische Rote Kreuz gewährleistet. Insgesamt sind auf den Rettungswachen Coburg Nord in der Stadtmitte, Coburg Süd in Schorkendorf sowie der Rettungswache in Bad Rodach sieben Rettungsfahrzeuge stationiert. In Fällen der Spitzenabdeckung stehen sowohl eine Schnelleinsatzgruppe (SEG) der BRK-Bereitschaft Coburg als auch eine SEG des ASB zur Verfügung. Die zuständige Integrierte Leitstelle (ILS) für die Feuerwehr und den Rettungsdienst liegt in Ebersdorf bei Coburg. Bildungseinrichtungen Bibliotheken und Archive Die Landesbibliothek Coburg wurde 1919 in der Nachfolge der seit 1547 bestehenden Hof- und Staatsbibliothek des Herzogtums Sachsen-Coburg gegründet und ist in Schloss Ehrenburg untergebracht. Es ist eine wissenschaftliche Regionalbibliothek mit über 400.000 Bänden, wovon ungefähr 85.000 Bände zum Altbestand des 17. bis 19. Jahrhunderts gehören. Die Stadtbücherei in der Herrngasse 17 ist aus der Volksbibliothek des Coburger Kunst- und Gewerbevereins von 1874 hervorgegangen. Im Staatsarchiv im Zeughaus sind über 300.000 Archivalieneinheiten über Coburg und den Landkreis sowie den Freistaat Bayern, das Herzogtum Sachsen-Coburg und dessen Vorläufer gelagert. Im Stadtarchiv in der Steingasse reichen 18.000 Akteneinheiten bis in das 13. Jahrhundert. Hochschulen Die Hochschule für angewandte Wissenschaften Coburg entstand in ihrer heutigen Form 1971. Sie führt ihre Tradition auf die 1814 durch den herzoglich-sächsischen Architekten Friedrich Streib in Coburg gegründete Handwerkerschule zurück. Ende der 1950er Jahre wurde die damalige Ingenieurschule für Hoch- und Tiefbau um die beiden neuen Abteilungen Maschinenbau und Elektrotechnik zum Polytechnikum erweitert. Das heutige Fächerangebot ist sehr vielseitig und umfasst die vier Bereiche Technik, Bauen/Gestalten/Design, Wirtschaft und Sozialwesen. Im Wintersemester 2021/22 waren 5060 Studierende an der Hochschule eingeschrieben. Der Hauptcampus liegt westlich der Innenstadt auf dem Judenberg. Daneben gibt es einen weiteren Campus am ehemaligen Hofbrauhaus, der die Design-Fakultät beheimatet, sowie einen auswärtigen Campus in Kronach. 1894 wurde mit dem Technischen Verein, der sich später in Landsmannschaft im CC Franco-Borussia zu Coburg umbenannte, die erste Coburger Studentenverbindung gegründet. Ihr folgten die Technische Vereinigung Coburgia, die Alte Brünner Burschenschaft Suevia, die Katholische Studentenverbindung Thuringia und die Ingenieur-Verbindung Hildburgia. Die Fachhochschule Schloss Hohenfels war eine staatlich anerkannte private Hochschule für Fachtherapien im Gesundheitswesen. Sie wurde 2004 vom Klinikum Coburg und der Medau-Schule, unterstützt von der Fachhochschule Coburg, gegründet. An der Hochschule konnten ab 2005 die Bachelorstudiengänge Physiotherapie und Logopädie studiert werden. 2010 verlegte die Hochschule ihren Sitz nach Bamberg und wurde in Hochschule für angewandte Wissenschaften Bamberg – Private Hochschule für Gesundheit umbenannt. Schulen In Coburg gibt es 25 öffentliche und 16 private Schulen für ungefähr 11.000 Schüler. Für die Stadt und das Umland sind vier Gymnasien vorhanden, in der Innenstadt das Albertinum, ein musisches und sprachliches Gymnasium, und das Casimirianum, ein sprachliches, humanistisches und naturwissenschaftlich-technologisches Gymnasium mit 400-jähriger Tradition. Am Glockenberg befinden sich die beiden anderen Schulen, das Alexandrinum, ein naturwissenschaftlich-technologisches, sprachliches sowie wirtschafts- und sozialwissenschaftliches Gymnasium, und das Ernestinum (gegründet 1848), ein mathematisch-naturwissenschaftliches, wirtschaftswissenschaftliches und europäisches Gymnasium. Neben der Regiomontanus-Schule, einer staatlichen Fachoberschule und Berufsoberschule, sind in der Stadt zwei Berufsschulen, dreizehn Berufsfachschulen (für Wirtschaft, Hauswirtschaft, Kinderpflege, Kranken- und Kinderkrankenpflege), eine Landwirtschaftsschule und die Wirtschaftsschule Coburg angesiedelt. Die beiden staatlichen Realschulen Coburg I und Coburg II sowie zwölf Grund- und Hauptschulen runden das Angebot staatlicher Schulen ab. Schulen mit privater Trägerschaft sind die Medau-Schule, eine Fachschule für Gymnastik, Physiotherapie und Logopädie, die Rudolf-Steiner-Schule, eine Waldorfschule, sowie die ASCO-Sprachenschule Coburg (staatlich anerkannte Berufsfachschule für Fremdsprachenberufe) und die Musikschule Coburg e. V. Außerdem unterhalten die Stadt und der Landkreis eine Volkshochschule. Der Unterricht an der Sing- und Musikschule im Landkreis Coburg wurde aufgrund unzureichender finanzieller Mittel eingestellt. Eine weitere Privatschule ist die Heilpraktikerschule Coburg im Stadtteil Creidlitz. Garnison Von der Mitte des 19. bis zum Ende des 20. Jahrhunderts war Coburg Garnisonsstadt für Truppen des Herzogtums Sachsen-Coburg und Gotha bzw. der Preußischen Armee, Wehrmacht, US Army und des Bundesgrenzschutzes. Schutzgebiete In Coburg gibt es ein Naturschutzgebiet, drei Landschaftsschutzgebiete, vier Fauna-Flora-Habitat-Gebiete und zwei ausgewiesene Geotope (Stand März 2016). Siehe auch: Liste der Naturschutzgebiete in der Stadt Coburg Liste der Landschaftsschutzgebiete in Coburg Liste der FFH-Gebiete in der Stadt Coburg Liste der Geotope in Coburg Persönlichkeiten Zu den Persönlichkeiten, die mit Coburg in Verbindung gebracht werden, zählt Martin Luther, der im Jahr 1530 ein halbes Jahr auf der Veste verweilte, weil er am Reichstag in Augsburg wegen der über ihn verhängten Acht nicht teilnehmen konnte. Weiterhin ist insbesondere der Dichter, Übersetzer und Orientalist Friedrich Rückert erwähnenswert, der von 1848 bis zu seinem Tode im Jahre 1866 im Coburger Stadtteil Neuses lebte und dort seine letzte Ruhestätte fand. Zu seinen Ehren hat die Stadt Coburg den Coburger Rückert-Preis ins Leben gerufen, der seit 2008 verliehen wird. Auch der Kapellmeister und Komponist Johann Strauss (Sohn), der 1887 Bürger von Coburg wurde, ist mit dem Namen der Stadt eng verbunden. Namensgeber Coburg Weitere Orte: Coburg ist auch der Name zahlreicher Orte in der „Neuen Welt“, die meist von Auswanderern aus der Region gegründet wurden. Dies sind die kanadische Stadt Cobourg, ein Vorort der australischen Stadt Melbourne (Coburg (Victoria)) und US-amerikanische Dörfer in Indiana, Iowa, Kentucky und Oregon. Coburg-Insel: Die Coburg-Insel liegt in der Baffin Bay im Territorium Nunavut im nördlichen Kanada; sie wurde nach dem deutschen Prinzen Leopold von Sachsen-Coburg benannt, der mit Prinzessin Charlotte, der Tochter König Georg IV. von Großbritannien, verheiratet war. Schiff Coburg: Unter dem Namen „Coburg“ fuhren verschiedene Schiffe. Es waren unter anderem ein Postdampfer des Norddeutschen Lloyd, der 1910 seine Jungfernreise hatte und 1917 von der brasilianischen Regierung beschlagnahmt wurde. Ab 1938 hießen ein Motorschiff des Norddeutschen Lloyd und ein Fischtrawler aus Geestemünde „Coburg“. Im Zweiten Weltkrieg wurde der Trawler zur Wetterbeobachtung eingesetzt und ging 1944 im Packeis verloren. Das Motorschiff versenkte sich 1941 im Indischen Ozean selbst. Ab 1953 trug ein Motorschiff (ex MS „Hamburg“) der Hapag, der erste Nachkriegsneubau, den Namen der Stadt. Unter dem Namen „Coburg“ fuhr von 1968 bis 1991 bei der Bundesmarine ein Versorgungsschiff (A1412) der Lüneburg-Klasse, auch Trossschiff genannt. 2005 wurde ein Frachtschiff der Universal Africa Lines auf den Namen „UAL Coburg“ und 2007 ein Containerschiff der Reederei Leonhardt & Blumberg auf den Namen „Hansa Coburg“ getauft. Außerdem fährt seit 2011 ein in Klingenberg am Main registriertes Binnenschiff unter dem Namen Coburg. Flugzeug Coburg: 1968 und 1981 wurde Coburg Patenstadt einer Boeing 737 der Lufthansa. Seit 1994 fliegt bei der Lufthansa unter der Registriernummer D-AIRD ein Airbus A321-131, der auf den Namen „Coburg“ getauft wurde. Triebzug Coburg: Ein Triebzug der Baureihe 411 (1115) der Deutschen Bahn trägt seit 2003 den Namen der Stadt. Coburger Marsch: Der Komponist Johann Michael Haydn widmete dem Prinzen Friedrich Josias von Sachsen-Coburg-Saalfeld einen Präsentiermarsch, der heute unter dem Namen Coburger Marsch bekannt ist. Er ist Bestandteil der Armeemarschsammlung der Bundeswehr (AM I, 26) und seit 1986 Bataillonsmarsch des Panzerbataillons 344. Sender Coburg: Bis zirka 1990 befand sich in der Nähe von Coburg auf dem zur Gemeinde Lautertal gehörenden Lauterberg ein Sender für das DECCA-Funknavigationssystem. Auf Stadtgebiet befindet sich der Sender Coburg-Eckardtsberg des Bayerischen Rundfunks. Coburger Hütte: Die Coburger Hütte der Sektion Coburg des Deutschen Alpenvereins in der Mieminger Kette in Tirol wurde 1901 eröffnet. Talort ist Ehrwald. Literatur Rainer Axmann, Christian Boseckert: Art. Coburg. In: Harm von Seggern (Hrsg.): Residenzen im Alten Reich (1300–1800). Ein Handbuch. Abteilung I: Analytisches Verzeichnis der Residenzstädte. Teil 1: Nordosten (= Residenzenforschung. Neue Folge: Stadt und Hof. Handbuch I, 1). Ostfildern 2019, S. 89–93 (, Niedersächsische Akademie der Wissenschaften zu Göttingen). Hubertus Habel: Kleine Coburger Stadtgeschichte. Verlag Friedrich Pustet, Regensburg 2009, ISBN 978-3-7917-2170-5. Heinz Pellender: Chronik der Stadt und der Veste Coburg der Herren und Herrscher über Coburg und das Coburger Land. 7. Auflage. Fiedler-Verlag, Coburg 1989, ISBN 3-923434-08-1. Renate Reuther: Villen in Coburg. Coburg 2011, ISBN 978-3-925431-31-9. Horst Schunk: Über den Tag hinaus – Leben mit Bäumen. Die Geschichte des Baumschutzes in Coburg. Veste-Verlag-Roßteutscher, Coburg 2011, ISBN 978-3-925431-32-6. Werner A. Widmann: Das ist Coburg. Seewald Verlag, Stuttgart 1983, ISBN 3-512-00663-9. Hellmut Worch: Goldenes Coburg: Die fränkische Krone, Stadt und Land. Jan Thorbecke Verlag, 3., erweiterte Auflage, Sigmaringen 1992, ISBN 3-7995-1163-6. Weblinks Leben in Coburg. Videobericht. Reihe Unter unserem Himmel vom BR (Stand: 24. Juli 2017) Website der Stadt Coburg Stadtentwicklung in Coburg Einzelnachweise Kreisfreie Stadt in Bayern Ehemalige deutsche Landeshauptstadt Ehemaliger Residenzort in Bayern Ehemalige Herzogsresidenz Kreisstadt in Bayern Ort an der Itz Ersterwähnung 1056 Stadtrechtsverleihung 1331
858
https://de.wikipedia.org/wiki/CSS
CSS
CSS steht als Abkürzung für: Catalina Sky Survey, eine astronomische Himmelsdurchmusterung China Space Station, siehe Chinesische Raumstation ComputerSchach und Spiele, Fachzeitschrift für Computerschach Computational Social Science, ein interdisziplinäres Feld, das computergestützt menschliches Verhalten untersucht Congregatio sancti Stigmati, siehe Ordensgemeinschaft der Stigmatiner IT/EDV: Cascading Style Sheets, Stylesheet-Sprache für elektronische Dokumente Client-Side-Scanning, Durchsuchung von Dateien auf einem Endgerät Closed Source Software, siehe proprietäre Software Computerized Support Systems, engl. für computerbasierte Unterstützungssysteme, siehe Entscheidungsunterstützungssystem Content Scramble System, Schutzverfahren gegen das unlizenzierte Abspielen von DVDs Technik: , ein Einkabelstandard zum Satellitenempfang, siehe Unicable Chirp Spread Spectrum oder Zirpenfrequenzspreizung in der Funktechnik , eine Technik in der Öl-/Gasförderung, siehe Ölsand #In-situ-Verfahren Militär: Central Security Service, ein Nachrichtendienst des US-Verteidigungsministeriums China Surface-to-Surface, der NATO-Code für eine Serie chinesischer Atomraketen, siehe Liste von nuklearen Boden-Boden-Raketen #Volksrepublik China Combat Service Support, in der Bundeswehr englisch für Einsatzunterstützung bzw. dort im Speziellen für Heereslogistiktruppen_(Bundeswehr)#Aktive_Truppenteile Confederate States Ship, Namenspräfix von Kriegsschiffen, siehe Konföderierte Staaten von Amerika Medizin: carotis sinus syndrome (english), (deutsch:) Karotis-sinus-Syndrom Centrale Sanitaire Suisse, eine Schweizer Ärzteorganisation Churg-Strauss-Syndrom, eine Autoimmunerkrankung Cultured Skin Substitutes, ein künstlicher Hautersatz, siehe Tissue Engineering Musik: Cansei de Ser Sexy, brasilianische Elektro/Rock-Band Casanovas Schwule Seite, deutsche Punkrock-Band Cheap Suit Serenaders, US-amerikanische Oldtime-Stringband Unternehmen: CSS (Versicherung), ein Schweizer Versicherungsunternehmen Chicago South Shore and South Bend Railroad, eine amerikanische Bahngesellschaft SF Airlines, eine chinesische Fluggesellschaft (ICAO-Code) Schulen: Carl-Schurz-Schule, ein Gymnasium in Frankfurt am Main Carl-Strehl-Schule, ein Gymnasium in Marburg CS:S, auch CSS, steht für: Counter-Strike: Source, ein Computerspiel Siehe auch: Abkürzung
859
https://de.wikipedia.org/wiki/Cascading%20Style%20Sheets
Cascading Style Sheets
Cascading Style Sheets (e Aussprache []; für ‚gestufte Gestaltungsbögen‘; kurz: CSS) ist eine Stylesheet-Sprache für elektronische Dokumente und zusammen mit HTML und JavaScript eine der Kernsprachen des World Wide Webs. Sie ist ein sogenannter und wird vom World Wide Web Consortium (W3C) beständig weiterentwickelt. Mit CSS werden Gestaltungsanweisungen erstellt, die vor allem zusammen mit den Auszeichnungssprachen HTML und XML (zum Beispiel bei SVG) eingesetzt werden. Grundlagen CSS wurde entworfen, um Darstellungsvorgaben weitgehend von den Inhalten zu trennen. Wenn diese Trennung konsequent vollzogen wird, werden nur noch die inhaltliche Gliederung eines Dokumentes und die Bedeutung seiner Teile in HTML oder XML beschrieben, während mit CSS gesondert davon, vorzugsweise in separaten CSS-Dateien, die Darstellung der Inhalte festgelegt wird (z. B. Layout, Farben und Typografie). Gab es anfangs nur einfache Darstellungsanweisungen, so wurden im Verlauf komplexere Module hinzugefügt, mit denen z. B. Animationen und für verschiedene Ausgabemedien verschiedene Darstellungen definiert werden können. Elemente eines Dokumentes können aufgrund verschiedener Eigenschaften identifiziert werden. Dazu zählen neben dem Elementnamen (z. B. a für alle Hyperlinks), ihrer ID und ihrer Position innerhalb des Dokumentes (z. B. alle Bildelemente innerhalb von Linkelementen) auch Details wie Attribute (z. B. alle Linkelemente, deren href-Attribut mit www.example.com beginnen) oder die Position in einer Menge von Elementen (z. B. jedes ungerade Element einer Liste). Mit CSS-Anweisungen können für jede solcher Elementgruppen Vorgaben für die Darstellung festgelegt werden. Diese Festlegungen können zentral erfolgen, auch in separaten Dateien, sodass sie leichter für andere Dokumente wiederverwendet werden können. Außerdem enthält CSS ein Vererbungsmodell für Auszeichnungsattribute, das die Anzahl erforderlicher Definitionen vermindert. Mit CSS können für verschiedene Ausgabemedien (Bildschirm, Papier, Projektion, Sprache) unterschiedliche Darstellungen vorgegeben werden. Das ist nützlich, um z. B. die Verweisadressen von Hyperlinks beim Drucken aufzuführen, und um für Geräte wie PDAs und Mobiltelefone, die kleine Displays oder eine geringe Bildauflösung haben, Darstellungen anzubieten, die schmal genug und nicht zu hoch sind, um auf solchen Geräten lesbar zu bleiben. CSS ist die Standard-Stylesheet-Sprache im World Wide Web. Früher übliche, darstellungsorientierte HTML-Elemente wie font oder center gelten als „veraltet“ (), das heißt, sie sollen in Zukunft aus dem HTML-Standard entfernt werden. So gelten diese unter anderem seit HTML 4 (1997) als „unerwünscht“ und mit HTML5 als missbilligt (). Geschichte und Versionen Anfänge Einen ersten Vorschlag für Web-Stylesheets gab es 1993, mehrere weitere folgten bis 1995. Am 10. Oktober 1994 veröffentlichte Håkon Wium Lie, ein Mitarbeiter von Tim Berners-Lee am CERN, den ersten Vorschlag für „Cascading HTML style sheets“, die er später abgekürzt als „CHSS“ bezeichnet. Bert Bos arbeitete zu dieser Zeit an der Implementierung eines Browsers namens Argo, der seine eigene Stylesheet-Sprache benutzte. Die beiden entschieden sich, CSS gemeinsam zu entwickeln. Es gab zu dieser Zeit auch andere Sprachen mit dem gleichen Ziel, die Erfinder von CSS brachten aber als erste die Idee auf, Regeln zu definieren, die über mehrere Stylesheets hinweg und innerhalb eines einzigen Stylesheets darüber entscheiden, welche CSS-Formatierung auf das betreffende Element angewendet werden sollen. Nach der Präsentation von CSS durch Lie auf der Konferenz „Mosaic and the Web“ in Chicago 1994 und später mit Bos 1995 wurde das World Wide Web Consortium (W3C) auf CSS aufmerksam. Lie und Bos arbeiteten mit anderen Mitgliedern in diesem Rahmen an CSS weiter. Im Dezember 1996 wurde die CSS Level 1 Recommendation publiziert. CSS2 CSS Level 2 (CSS2) wurde im Mai 1998 veröffentlicht. Bis Anfang 2010 wurde diese Empfehlung allerdings von keinem verbreiteten Webbrowser vollständig umgesetzt. Bereits ab 2002 hat das W3C an der überarbeiteten Version CSS Level 2 Revision 1 (CSS 2.1) gearbeitet. Die Erfahrungen mit CSS2 wurden hier aufgenommen, Unstimmigkeiten korrigiert und manche Teiltechniken gestrichen, die in verschiedenen Browsern nicht korrekt umgesetzt worden waren. Grundlegend neue Fähigkeiten wurden nicht eingebaut. Am 7. Juni 2011 wurde CSS 2.1 als fertige Empfehlung (Recommendation) veröffentlicht. 2014 verarbeiteten die meisten Webbrowser CSS 2.1 weitgehend korrekt, nur wenige Teiltechniken wurden nicht vollständig unterstützt. Im April 2016 wurde der erste öffentliche Arbeitsentwurf von CSS 2.2 veröffentlicht. CSS3 Seit 2000 ist CSS Level 3 in der Entwicklung. Hier werden die Entwicklungen weiter vorangetrieben, die bereits mit CSS2 begonnen wurden. CSS3 wird im Gegensatz zu den Vorgängern modular aufgebaut sein, womit einzelne Teiltechniken (beispielsweise Steuerung der Sprachausgabe oder Selektoren) in eigenen Versionsschritten entwickelt werden können. So nähert sich CSS bei seinen Fähigkeiten mehr dem etablierten DSSSL (für SGML) an und wird wohl auch in Zukunft noch eine Alternative zu XML-basierten Stylesheet-Sprachen wie XSL-FO sein. Derzeit veröffentlichte und breit unterstützte Standards sind unter anderem CSS Color Level 3, CSS Namespaces, Selectors Level 3 und Media Queries. Neben diesen Modulen stehen weitere Elemente zur Diskussion, etwa ein Layout-Modul und verschiedene Grafikfilter. Moderne Browser unterstützten im Jahr 2014 bereits viele CSS3-Module, obwohl nur für wenige Teile bereits eine Empfehlung (Recommendation) durch das W3C vorgelegen hatte. Im Laufe der Zeit gab es immer mehr Funktionen für CSS, sowie Empfehlungen vom W3C. Im Frühjahr 2012 wurde berichtet, das W3C arbeite bereits an einem Nachfolger von CSS3, der mit der Versionsnummer 4 veröffentlicht werden solle. Im September 2012 haben Vertreter der CSS-Arbeitsgruppe des W3C jedoch klargestellt, dass es keine Versionsnummer 4 geben soll: . Vielmehr soll die künftige Entwicklung des Standards darin bestehen, dass die einzelnen CSS-Module unter eigenen Versionsnummern weiterentwickelt werden können, während der Gesamtstandard den Namen CSS3 oder einfach CSS behalten soll. Syntax Der Aufbau von CSS-Anweisungen Selektor1 [, Selektor2 [, …] ] { Eigenschaft-1: Wert-1; … Eigenschaft-n: Wert-n[;] } /* Kommentar */ /* In eckigen Klammern stehen optionale Angaben */ Eine CSS-Anweisung () gibt an, dass für festgelegte Teile eines Dokuments eine Kombination von bestimmten Eigenschaften gelten soll. Geschrieben wird sie als eine durch Kommata getrennte Aufzählung von Selektoren („Für diese Typen von Teilen …“), gefolgt in geschweiften Klammern von einer semikolongetrennten Liste von Eigenschafts-Deklarationen („… nimm die folgenden Eigenschaften!“). Jede Eigenschaftsdeklaration besteht aus der Bezeichnung der Eigenschaft, einem Doppelpunkt und dem Wert, den sie annehmen soll. Nach der letzten Eigenschaftsdeklaration ist vor der schließenden geschweiften Klammer ein abschließendes Semikolon erlaubt, aber nicht notwendig. Um diese Teile einer Anweisung herum ist Leerraum frei verwendbar. Häufig schreibt man den Doppelpunkt ohne Zwischenraum hinter den Eigenschaftsnamen, jede Eigenschaftsdeklaration in eine eigene Zeile und schließt auch die letzte Eigenschaft mit einem Semikolon. So kommt es bei späteren Änderungen weniger leicht zu Syntaxfehlern. Sollte es dennoch zu Syntaxfehlern kommen, eignet sich ein CSS-Validator, um Fehler zu beheben. Ein Stylesheet darf beliebig viele solcher Anweisungen enthalten. Die folgende Tabelle enthält eine vollständige Übersicht aller Selektoren, mit denen Elemente (meist HTML-Elemente) ausgewählt werden können. Selektoren Ein Selektor nennt die Bedingungen, die auf ein Element zutreffen müssen, damit der nachfolgende Satz an CSS-Deklarationen mit seinen Darstellungsvorgaben auf das Element angewendet wird. Solche Bedingungen beschreiben eindeutig, welche Eigenschaften (Typ, Klasse, ID, Attribut oder Attributwert) Elemente haben müssen oder in welchem Kontext sie im Dokument stehen müssen (Existenz eines bestimmten übergeordneten Elementes oder eines Vorgängerelementes bestimmten Typs), damit die Darstellungsvorgaben für sie gelten sollen. In einem Selektor können mehrere Auswahlkriterien verknüpft sein. Beispiel CSS-Code: p.info { font-family: arial, sans-serif; line-height: 150%; margin-left: 2em; padding: 1em; border: 3px solid red; background-color: #f89; display: inline-block; } p.info span { font-weight: bold; } p.info span::after { content: ": "; } HTML-Code: <p class="info"> <span>Hinweis</span> Sie haben sich erfolgreich angemeldet. </p> Die HTML-Tags <p> und </p> definieren den dazwischen stehenden Text als einen Absatz. Diesem wird die Klasse „info“ mit ihren CSS-Darstellungsvorgaben zu Schrifttyp, Rahmen etc. zugewiesen. Von einem CSS-kompatiblen Browser wird der Absatz daher folgendermaßen dargestellt: Hier werden die Deklarationen allen p-Elementen zugewiesen, die das class-Attribut mit dem Wert info besitzen. Ohne das p im Selektor wären alle Elemente der Klasse info betroffen, ohne das .info wären alle p-Elemente betroffen. span-Elemente innerhalb solcher Absätze werden in Fettschrift dargestellt; dahinter wird mit dem Pseudoelement ::after ein Doppelpunkt erzeugt. Ein wichtiges Prinzip von CSS ist die Vererbung der Eigenschaftswerte an untergeordnete Elemente und das Kombinieren verschiedener Stylesheets, wobei die letzte Eigenschaftsdeklaration für ein Element vorher getroffene Deklarationen der gleichen Eigenschaft mit anderem Wert für dieses Element überschreibt. Diese können aus verschiedenen Quellen stammen: vom Autor des Stylesheets, vom Browser (User Agent) oder vom Benutzer. Hierbei werden zuerst die Angaben vom Browser, dann die vom Benutzer und schließlich die vom Autor umgesetzt. Layouts mit CSS erstellen In den Anfängen der Web-Entwicklung wurden komplexe Layouts häufig mithilfe des <table>-Elements umgesetzt. Dabei wird die ganze Website als Tabelle strukturiert, deren Spalten, Zeilen und Zellen den eigentlichen Inhalt enthalten. Auch können Tabellen in sich verschachtelt werden. Nachteile dieser Methode sind vor allem eine geringe Gestaltungsfreiheit und ungünstige Darstellung auf Geräten mit kleinem Display (siehe Responsive Webdesign). Mittlerweile unterstützen alle gängigen Webbrowser ausgefeiltere Möglichkeiten und CSS-Anweisungen um weitaus kreativere Layouts umzusetzen. Im Kontext von HTML E-Mails findet diese Methode jedoch immer noch Anwendung, da unter anderem Microsoft Outlook viele gängige CSS-Eigenschaften nicht unterstützt. Auf modernen Webseiten werden mittlerweile vor allem zwei Eigenschaften verwendet: Flexbox (display: flex) erlaubt es, HTML-Elemente innerhalb eines Elements beliebig zu positionieren und nebeneinander liegende Elemente auf z. B. mobilen Geräten umzubrechen. Grid (display: grid) erlaubt es, HTML-Elemente in Bereiche zu unterteilen; diese Bereiche in ihrer Größe und Position zu definieren und innenliegende Elemente in diesen beliebig zu platzieren. Browserkompatibilität Die verschiedenen Browser unterscheiden sich stark im Umfang der unterstützten Eigenschaften und den Standarddarstellungen verschiedener HTML-Elemente. Dadurch entstehen Probleme für den Entwickler, da er nicht alle Funktionen im vollen Ausmaß nutzen kann und darauf achten muss, dass sich die Website nicht zu stark unterscheidet zwischen den einzelnen Browsern. Es gibt verschiedene Möglichkeiten dieses Problem zu lösen: Ein Reset-Stylesheet kann genutzt werden, um die verschiedenen CSS-Standardeinstellungen zurückzusetzen und danach eigene Regeln für die Elemente zu deklarieren. Conditional Comments sind HTML-Kommentare, die nur vom Internet Explorer verstanden werden. Dies erleichtert die Optimierung für diesen Browser enorm, da dieser viele Funktionen und Eigenschaften nicht unterstützt. Browserpräfixe werden genutzt, um Funktionen bei älteren Versionen der Browser zu verwenden. Diese wurden in den entsprechenden Versionen nur getestet und erst später als Standard implementiert. Zudem gibt es Funktionen, die nur in den einzelnen Browsern verfügbar sind. Eine weitere Methode sind CSS-Hacks. Diese verwenden CSS-Syntax, um Schwächen der Browser bei der Gestaltung von Weblayouts auszunutzen. CSS-Hacks CSS-Hacks werden benutzt, um Unterschiede bei der Darstellung von Weblayouts in verschiedenen Browsern auszugleichen oder CSS-Anweisungen für bestimmte Webbrowser gesondert zuzuweisen oder auszuschließen. Der Begriff Hack bezeichnet dabei nichtstandardisierte CSS-Befehle, mit denen die Interpretationsschwäche eines Webbrowsers ausgenutzt wird, der diese Anweisungen entweder interpretiert oder ignoriert. Damit können Schwachstellen von Webbrowsern ausgeglichen werden, um möglichst in jedem Webbrowser das gleiche Ergebnis angezeigt zu bekommen. Ein CSS-Hack kombiniert z. B. fehlerhaft angegebene Selektoren mit zusätzlichen Zeichen oder enthält Anweisungen, die bestimmte Webbrowser nicht kennen. Ein bekanntes Beispiel für einen CSS-Hack ist der sogenannte Star-HTML-Hack. Das *-Zeichen dient als Universal-Selektor und ist vor dem Selektor html sinnlos. CSS-Code-Beispiel: p { background-color: blue; } * html p { background-color: red; } In diesem Fall würden zunächst alle Browser die p-Elemente mit einem blauen Hintergrund darstellen. Lediglich der Internet Explorer vor Version 7 interpretiert auch die zweite Zeile und färbt die Absätze rot, obwohl <html> kein Eltern-Element besitzt, auf das * zutreffen könnte. Kombination mit HTML oder XHTML Am häufigsten wird CSS mit HTML oder XHTML kombiniert. Dies kann an mehreren Orten geschehen, hier einige Beispiele: Als externes Stylesheet für eine (X)HTML-Datei (link-Element) <link rel="stylesheet" type="text/css" href="beispiel.css" /> Als externes Stylesheet für eine XHTML-Datei (xml-stylesheet-Verarbeitungsanweisung) <?xml-stylesheet type="text/css" href="beispiel.css" ?> Als internes Stylesheet in einer (X)HTML-Datei (style-Element) <head> <title>Dokument mit Formatierungen</title> <style type="text/css"> body { color: purple; background-color: #d8da3d; } </style> </head> Innerhalb von (X)HTML-Tags (style-Attribut) <span style="font-size: small;">Text</span> Die Einbindung als externes Stylesheet ist dabei die am häufigsten verwendete Methode. Sie bietet den Vorteil, dass für mehrere Dokumente, die denselben Regelsatz benutzen, das Stylesheet nur einmal heruntergeladen werden muss. Auch vermeidet man so sich wiederholenden Code. CSS selbst ermöglicht durch den @import-Befehl das Einbinden von weiteren externen Stylesheets. <head> <title>Beispiel</title> <style type="text/css"> @import url(url_des_stylesheets); </style> </head> Es gibt drei Varianten, Stylesheets mit einem link-Element einzubinden. Sie unterscheiden sich darin, wie zwingend die Stylesheets berücksichtigt werden: Dauerhafte Stylesheets (persistent) <link rel="stylesheet" type="text/css" href="beispiel.css" />Wenn man ein Stylesheet so einbindet, wird es auf jeden Fall verwendet. Bevorzugte Stylesheets (preferred) <link rel="stylesheet" type="text/css" href="beispiel.css" title="IrgendeinTitel" />Sollte man diese Einbindung verwenden, wird das Stylesheet verwendet, bis der Benutzer ein anderes auswählt. Alternative Stylesheets (alternate) <link rel="alternate stylesheet" type="text/css" href="beispiel.css" title="IrgendeinTitel" /> Wird das Stylesheet so mit dem HTML-Dokument verknüpft, muss der Benutzer ausdrücklich wählen, es zu verwenden. Das wirkt sich in den meisten Browsern aus (z. B. Internet Explorer, Firefox, Opera und Konqueror). Somit wird diese Funktion von den meist benutzten Browsern implementiert. Außerdem sollte ein „alternate stylesheet“ nur in Verbindung mit einem anderen, fest eingebundenen verwendet werden, damit es auch nur eine echte Alternative ist. Alternativ ist es auch möglich, das Stylesheet dynamisch mittels JavaScript einzubinden, dabei kann es jedoch passieren, dass der Inhalt während des Ladevorgangs für kurze Zeit noch ohne den Stil dargestellt wird, was als Flash of Unstyled Content störend auffallen kann. Spezifische Stylesheets Um spezifische Geräte oder Eigenschaften anzusprechen, gibt es in CSS besondere Attribute. Seit CSS2 können ausgewählte Geräte angesprochen werden mit medienspezifischen Stylesheets und seit CSS3 nur Geräte mit bestimmten Eigenschaften, beispielsweise der Bildschirmbreite, mit eigenschaftsspezifischen Stylesheets (Media Queries). Media Queries sind vor allem für responsives Webdesign wichtig. Medienspezifische Stylesheets Es ist möglich, verschiedene Stylesheets für verschiedene Medien einzubinden, um zum Beispiel die Gestaltung beim Drucken oder auf Handy-Displays zu regulieren. Diesen Zweck erfüllt das Attribut media. In diesem Attribut werden die Parameter notiert, die für dieses Stylesheet gelten sollen. Beispiel für einen @media-Befehl innerhalb einer CSS-Datei @media print { body { color: black; background-color: white; } h1 { font-size: 14pt; } .navigation { display: none; } } Durch mehrere @media-Befehle lassen sich innerhalb einer CSS-Datei oder eines <style>-Blocks verschiedene Ausgabegeräte ansprechen. Beispiel für ein media-Attribut beim Einbinden einer CSS-Datei <link rel="stylesheet" type="text/css" href="beispiel.css" media="print" /> Beispiel für ein media-Attribut eines <style>-Blocks <style type="text/css" media="print"> body { color: black; background-color: white; } h1 { font-size: 14pt; } .navigation { display: none; } </style> Da viele moderne Smartphones den Typ handheld nicht unterstützen und stattdessen die Stilvorgaben von screen nutzen, ist man hier auf „Eigenschaftsspezifische Stylesheets“ (Media Queries) angewiesen. Eigenschaftsspezifische Stylesheets (Media Queries) Bei Media Queries handelt es sich um ein Konzept, welches mit CSS3 eingeführt wurde und das Prinzip des Medientyps in CSS2 erweitert. Anstatt starr zu definieren, welches Medium das Zielmedium ist, können mit Media Queries die Eigenschaften des aktuellen Gerätes direkt abgefragt werden. Verfügbare Geräteeigenschaften sind zum Beispiel: Breite und Höhe des Browserfensters Breite und Höhe des Gerätes Orientierung (Quer- oder Hochformat) Bildschirmauflösung Vor allem im Bereich der mobilen Webprogrammierung werden Media Queries bereits jetzt häufig eingesetzt, um die Webseite ideal an das aktuell verwendete Gerät anzupassen. Im folgenden Beispiel werden Elemente mit CSS-Anweisungen versehen. Diese Anweisungen gelten für das gesamte Dokument. Anschließend wird eine Media Query eingesetzt, die greift, sobald die Breite des Browserfensters kleiner als 1025 Pixel ist. In diesem Fall ändern sich die Eigenschaften, die vorher allgemein definiert wurden, bzw. es gelten zusätzliche Eigenschaften. #inhalt { width: 800px; } @media screen and (max-width: 1024px) { #inhalt { width: 600px; } aside { display: none; } } Sicherheitsrisiken durch CSS Es ist möglich, CSS auch ohne zusätzliche Verwendung von JavaScript oder anderen Skriptsprachen zum Tracken von Nutzern oder zum Abfangen von Daten, die in Webformulare eingetragen werden (beispielsweise Passwörter), zu verwenden. Software-Keylogger, die nur aus CSS-Anweisungen bestehen, sind mit wenigen Zeilen Code realisierbar. Siehe auch Sass Literatur Weblinks CSS-Tutorial für einen kurzen Einstieg in CSS CSS3-Tutorial mit allen CSS-Grundlagen und weiterführenden Themen zu CSS3 SELFHTML: weitere Informationen zu CSS Browserkompatibilität – Ausführliche Tabelle zur Unterstützung von CSS-Eigenschaften und Selektoren gängiger Webbrowser CSS-Framework – Enthält ein reaktionsschnelles, mobiles erstes Fluid-Grid-System, das mit zunehmender Größe des Geräts oder des Ansichtsfensters bis zu 12 Spalten angemessen skaliert Einzelnachweise Stylesheet-Sprache
863
https://de.wikipedia.org/wiki/Clara%20Zetkin
Clara Zetkin
Clara Josephine Zetkin, geborene Eißner (* 5. Juli 1857 in Wiederau; † 20. Juni 1933 in Krasnogorsk-Archangelskoje bei Moskau) war eine sozialistisch-kommunistische deutsche Politikerin, Friedensaktivistin und Frauenrechtlerin. Sie war bis 1917 aktiv in der SPD und in dieser Partei eine markante Vertreterin der revolutionär-marxistischen Fraktion. 1917 schloss sie sich der SPD-Abspaltung USPD an. Dort gehörte sie zum linken Flügel bzw. zur Spartakusgruppe, die während der Novemberrevolution 1918 in Spartakusbund umbenannt wurde. Dieser wiederum ging zusammen mit anderen linksrevolutionären Gruppierungen in der zum Jahreswechsel 1918/1919 neu gegründeten Kommunistischen Partei Deutschlands (KPD) auf. Als einflussreiches Mitglied der KPD war Zetkin von 1920 bis 1933 Reichstagsabgeordnete und 1932 Alterspräsidentin des Parlaments. Auf übernationaler Ebene gehörte Zetkin als Beteiligte am Internationalen Arbeiterkongress von 1889 in Paris zu den Gründern der Zweiten Internationale der sozialistischen Arbeiterbewegung. In der Arbeit für die Internationale gilt sie als prägende Initiatorin des Internationalen Frauentags. Als Angehörige der Zentrale bzw. des später als Zentralkomitee bezeichneten Vorstandsgremiums der KPD war sie von 1921 bis 1933 Mitglied im Exekutivkomitee der Kommunistischen Internationale (EKKI), wo sie in ihren letzten Lebensjahren zur Minderheit der Kritiker der letztlich von Stalin vorgegebenen Sozialfaschismusthese gehörte. Leben Herkunft und Bildungsweg Clara Zetkin war die älteste Tochter von Gottfried Eißner (auch Eisner) und seiner Frau Josephine, geborene Vitale. Gottfried Eißner war der Sohn eines Tagelöhners und Dorfschullehrers in Wiederau im Königreich Sachsen. Der Vater von Josephine Vitale, Jean Dominique, war durch die Französische Revolution 1789 und seine Teilnahme an Napoleons Kriegen geprägt. Ihre Mutter stand mit Pionierinnen der damals entstandenen bürgerlichen Frauenbewegung in Kontakt, insbesondere Louise Otto-Peters und Auguste Schmidt, las Bücher von George Sand und gründete in Wiederau einen Verein für Frauengymnastik. Ihr Vater war Lehrer, Kirchenorganist und gläubiger Protestant. Die Familie siedelte 1872 nach Leipzig über, um ihren Kindern eine bessere Ausbildung zu ermöglichen. Clara Zetkin ließ sich dort in Privatseminaren zur Volksschullehrerin ausbilden. 1879 war sie in Zschopau bei der Unternehmerfamilie Bodemer als Hauslehrerin tätig. Politisches Engagement in der frühen Sozialdemokratie und erstes Exil Ab 1874 hatte Clara Eißner Kontakte zur Frauen- und Arbeiterbewegung. Sie trat 1878 der Sozialistischen Arbeiterpartei Deutschlands bei, die 1890 in SPD (Sozialdemokratische Partei Deutschlands) umbenannt wurde. Wegen des Sozialistengesetzes (1878–1890), das sozialdemokratische Aktivitäten außerhalb der Landtage und des Reichstags verbot, ging sie 1882 zuerst nach Zürich, dann nach Paris ins Exil. Dort nahm sie den Namen ihres Lebenspartners, des russischen Revolutionärs Ossip Zetkin an, mit dem sie zwei Söhne hatte, Maxim Zetkin (1883–1965) und Kostja Zetkin (1885–1980). In ihrer Zeit in Paris hatte sie 1889 während des Internationalen Arbeiterkongresses einen bedeutenden Anteil an der Gründung der Sozialistischen Internationale. Im Herbst 1890 kehrte die Familie nach Deutschland zurück und ließ sich in Sillenbuch bei Stuttgart nieder. Dort arbeitete Zetkin als Übersetzerin für den Dietz-Verlag und seit 1892 als Chefredakteurin der sozialdemokratischen Frauenzeitschrift Die Gleichheit. Nach dem Tode Ossip Zetkins 1889 heiratete sie 1899 42-jährig in Stuttgart den 24-jährigen Kunstmaler Friedrich Zundel aus Wiernsheim. Nach zunehmender Entfremdung wurde die Ehe 1927 geschieden. 1907 lernte Zetkin anlässlich des Internationalen Sozialistenkongresses in Stuttgart den russischen Revolutionär Wladimir Iljitsch Lenin kennen. In der SPD gehörte sie zusammen mit Rosa Luxemburg wortführend zum revolutionären linken Flügel der Partei und wandte sich mit ihr um die Jahrhundertwende zum 20. Jahrhundert in der Revisionismusdebatte entschieden gegen die reformorientierten Thesen Eduard Bernsteins. Die Frauenrechtlerin Einer ihrer politischen Schwerpunkte war die Frauenpolitik. Hierzu hielt sie beim Gründungskongress der Zweiten Internationale am 19. Juli 1889 ein berühmt gewordenes Referat, in dem sie die Forderungen der bürgerlichen Frauenbewegung nach Frauenwahlrecht, freier Berufswahl und besonderen Arbeitsschutzgesetzen für Frauen, wie sie um Helene Lange und Minna Cauer vertreten wurden, im Rahmen des herrschenden Systems kritisierte: Damit erklärte Zetkin das Ziel der Gleichberechtigung der Geschlechter für sekundär gegenüber der sozialen Revolution. Ihre Verschiebung der formalpolitischen Emanzipation der Frau auf die Zeit danach machte die Ausbildung einer sozialistischen Frauenbewegung mit eigenem Programm und mit taktischer Unabhängigkeit von der Partei unmöglich. Zudem erschwerte diese Haltung die Zusammenarbeit mit der bürgerlichen Frauenbewegung, die Zetkin als „frauenrechtliche Harmonieduselei“ ablehnte. Auf dem SPD-Parteitag, der 1896 in Gotha stattfand, setzte Zetkin eine Resolution durch, die die Bedeutung der Emanzipation je nach Klasse differenzierte: Die kleine und mittlere Bourgeoisie schüre damit „den wirtschaftlichen Interessenkampf zwischen Männern und Frauen“, wohingegen der Emanzipationskampf der Proletarierinnen nicht ein Kampf gegen die Männer der eigenen Klasse sei, sondern nur mit ihnen gemeinsam geführt werden müsse. Zetkin zog daraus den Schluss: „Die Emanzipation der proletarischen Frauen kann deshalb nicht das Werk sein der Frauen aller Klassen, sondern ist allein das Werk des gesamten Proletariats ohne Unterschied des Geschlechts“. Auch auf dem ersten Internationalen Frauenkongress, der 1896 in Berlin stattfand, erklärte Zetkin, dass die sozialistische Frauenpolitik eigenständig bleiben müsse, was einen heftigen Zusammenstoß mit den Vertreterinnen der bürgerlichen Frauenbewegung auslöste. Mit der bürgerlichen Frauenbewegung stimmte Zetkin gleichwohl in der Annahme überein, es gäbe naturgegebene Unterschiede zwischen den Geschlechtern. 1907 widersprach sie explizit der „Ansicht gewisser frauenrechtlerischer Kreise, daß Frauen und Männer gleiche Rechte haben müssen, weil sie geistig-sittlich gleich seien. Wie körperlich, so sind die Geschlechter auch in ihrem Geistes- und Seelenleben verschieden. Aber verschieden sein, anders sein, heißt für das weibliche Geschlecht nicht niedriger sein als das männliche“. Eine Frau würde auf Grund ihrer „weiblichen Eigenart zum Teil anders fühlen, denken und handeln als der Mann“, doch seien dies „Anderssein“ eine „Bereicherung der Gesellschaft“ anzusehen. Die Forderung nach einem Frauenwahlrecht machte Zetkin später zu einem Schwerpunkt der sozialdemokratischen Agitation unter den Frauen, da sie es als Kampfmittel gegen den Kapitalismus ansah: „Wir verlangen gleiche politische Rechte mit dem Manne, damit wir ungehemmt durch gesetzliche Schranken mitarbeiten, mitkämpfen können, um diese Gesellschaft zu stürzen.“ Das Frauenwahlrecht war seit 1891 Bestandteil des Parteiprogramms der SPD gewesen. Zetkin war von 1891 bis 1917 Chefredakteurin der SPD-Frauenzeitung Die Gleichheit (bzw. deren Vorläuferin Die Arbeiterin), in deren programmatischer Eröffnungsnummer sie sich erneut gegen die reformistische Vorstellung wandte, durch rechtliche Gleichstellung mit den Männern unter Beibehaltung des Kapitalismus einen Fortschritt für die Frauen erreichen zu wollen: 1907 wurde ihr die Leitung des neu gegründeten Frauensekretariats der SPD übertragen. Beim „Internationalen Sozialistenkongress“, der im August 1907 in Stuttgart stattfand, wurde die Gründung der Sozialistischen Fraueninternationale beschlossen – mit Zetkin als internationaler Sekretärin. Auf der Zweiten Internationalen Sozialistischen Frauenkonferenz am 27. August 1910 in Kopenhagen initiierte sie gegen den Willen ihrer männlichen Parteikollegen, gemeinsam mit Käte Duncker, den Internationalen Frauentag, der erstmals im folgenden Jahr am 19. März 1911 begangen werden sollte (ab 1921 am 8. März). Während des Ersten Weltkriegs Zusammen mit Franz Mehring, Rosa Luxemburg und weiteren prominenten SPD-Politikern gehörte Zetkin kurz vor Beginn des Ersten Weltkrieges 1914 zur Minderheit der Gegner einer Bewilligung der Kriegskredite in den Gremien der eigenen Partei. Sie blieb damit dem Grundsatz der II. Internationale treu, keinen Angriffskrieg zu unterstützen, und stand fortan im Widerspruch zur Mehrheit der im Reichstag vertretenen SPD. Entsprechend lehnte sie ab Beginn des Ersten Weltkriegs die Burgfriedenspolitik ihrer Partei ab. Im Reichstag selbst war Karl Liebknecht im Dezember 1914 der erste Abgeordnete, der mit der Fraktionsdisziplin brach und gegen die Bewilligung der Kriegskredite stimmte, die sie als moralischen Bankrott der Sozialdemokratie empfand. Neben anderen Aktivitäten gegen den Krieg organisierte Zetkin 1915 in Bern, der Hauptstadt der neutralen Schweiz, die Internationale Konferenz sozialistischer Frauen gegen den Krieg. In diesem Zusammenhang entstand das maßgeblich von ihr ausformulierte Antikriegs-Flugblatt „Frauen des arbeitenden Volkes!“, dessen Verbreitung außerhalb der Schweiz, insbesondere in den Mittelmächten Österreich-Ungarn und dem Deutschen Reich polizeilich verboten wurde. Aufgrund ihrer Antikriegshaltung wurde Zetkin während des Krieges mehrfach inhaftiert, ihre Post beschlagnahmt, ihre Söhne, beide Ärzte im Militärdienst, wurden schikaniert. Von der SPD zur KPD Sie war ab 1916 an der ursprünglich von Rosa Luxemburg gegründeten revolutionären innerparteilichen Oppositionsfraktion der SPD, der Gruppe Internationale bzw. Spartakusgruppe beteiligt, die am 11. November 1918 in Spartakusbund umbenannt wurde. 1917 schloss sich Zetkin der USPD – unmittelbar nach deren Konstituierung – an. Diese neue linkssozialdemokratische Partei hatte sich aus Protest gegen die kriegsbilligende Haltung der SPD von der Mutterpartei abgespalten, nachdem die größer gewordene Gruppe der Kriegsgegner aus der SPD-Reichstagsfraktion und der Partei ausgeschlossen worden war. Nach der Oktoberrevolution in Russland kam es zum Streit innerhalb des Spartakusbundes über die Politik der Bolschewiki. Im Januar 1918 hatten sie die Russische konstituierende Versammlung mit Gewalt auseinanderjagen lassen, weil seine Partei dort keine Mehrheit hatte. Luxemburg kritisierte scharf, dass es im Anschluss keine Neuwahlen gab, und formulierte in diesem Zusammenhang ihr Diktum von der Freiheit, die „immer Freiheit des anders Denkenden“ sei. Zetkin dagegen befürwortete Lenins „Januarputsch“ (Heinrich August Winkler) uneingeschränkt: Eine Hinnahme des demokratischen Wahlergebnisses wäre „ein Verbrechen gewesen, gepaart mit Narrheit“. Nach der Novemberrevolution in Deutschland wurde – ausgehend vom Spartakusbund und anderen linksrevolutionären Gruppen – am 1. Januar 1919 die Kommunistische Partei Deutschlands (KPD) gegründet, der auch Zetkin beitrat. Von 1919 bis 1920 war Zetkin Mitglied der Verfassunggebenden Landesversammlung Württembergs und dort eine unter den ersten 13 weiblichen Abgeordneten. Sie beteiligte sich ab dem 25. Juli 1919 am Sonderausschuss für den Entwurf eines Jugendfürsorgegesetzes. Am 25. September 1919 stimmte Zetkin gegen die Annahme der Verfassung des freien Volksstaates Württemberg. In der Weimarer Republik Von 1920 bis 1933 war Zetkin für die KPD im Reichstag der Weimarer Republik als Abgeordnete vertreten. Ab 1919 gab sie die Zeitschrift Die Kommunistin heraus. Von 1921 bis zu ihrem Tode war sie Präsidentin der Internationalen Arbeiterhilfe (IAH). In der KPD war Zetkin bis 1924 Angehörige der Zentrale, und von 1927 bis 1929 des Zentralkomitees der Partei. Des Weiteren war sie von 1921 bis 1933 Mitglied des Exekutivkomitee der Kommunistischen Internationale (EKKI). Sie hielt sich daher häufig in Moskau auf und hatte eine eigene Wohnung im Kreml. Später pflegte sie unweit davon im Hotel Metropol abzusteigen. 1925 wurde sie außerdem zur Vorsitzenden der Roten Hilfe Deutschlands gewählt. Über Clara Zetkins Arbeitsstil sagte ihre spätere Sekretärin Hertha Gordon-Walcher: In der KPD saß Zetkin im Lauf ihrer politischen Tätigkeit, während der die dominierenden innerparteilichen Flügel mehrfach wechselten, oft zwischen den Stühlen, behielt jedoch zeitlebens einen bedeutenden Einfluss in der Partei. Im Allgemeinen wird sie von namhaften Historikern wie beispielsweise Heinrich August Winkler eher dem „rechten“ Flügel der KPD zugeordnet, vor allem, weil sie trotz ihrer Mitgliedschaft im EKKI den ideologischen Vorgaben der Komintern und aus der Sowjetunion teilweise kritisch gegenüberstand. Diese Kritik äußerte sie aber nur selten öffentlich, sondern wahrte Parteidisziplin. So wehrte sie sich nicht gegen die Funktionalisierung ihrer Person, als KPD und EKKI ihren siebzigsten Geburtstag am 5. Juli 1927 groß begingen. An Wilhelm Pieck schrieb sie wenige Wochen vor den Feierlichkeiten, sie „ekle sich bis zum Erbrechen vor der konventionellen Heuchelei Derer, mit denen ich in Kampfgemeinschaft verbunden bin.“ Ihre Biographin Tânia Ünlüdağ deutet dies als Ausfluss eines Autoritarismus, der ihr gesamtes politisches Denken und Verhalten geprägt habe. 1921 lehnte sie – nach der Vereinigung der KPD mit dem großen linken Flügel der USPD zur zeitweilig unter dem Alternativkürzel VKPD firmierenden Partei – zusammen mit dem damaligen von März 1919 bis Februar 1921 amtierenden innerparteilich umstrittenen KPD-Vorsitzenden Paul Levi (Parteiausschluss Mitte 1921) die vom Komintern-Chef Grigori Jewsejewitsch Sinowjew befürwortete „Offensivstrategie“ als „Putschismus“ ab. Bei der entsprechenden von der KPD mehrheitlich unterstützten Kampagne war eine revolutionär ausgerichtete Arbeiterrevolte, die Märzaktion in der Provinz Sachsen, blutig gescheitert, wobei über hundert Menschen ums Leben gekommen waren. Anders als die Parteivorsitzenden Levi und Ernst Däumig blieb sie jedoch in der KPD und schloss sich nicht der Kommunistischen Arbeitsgemeinschaft (KAG) an. In einem Moskauer Schauprozess gegen Sozialrevolutionäre fungierte Zetkin 1922 als Anklägerin und publizierte dazu eine „Kampfschrift“ im Komintern-Verlag. In ihrer Anklageschrift bezeichnete Zetkin den Prozess ausdrücklich als politisch: Ein „Revolutionsgericht“ sei keinerlei kodifierten Freiheits- oder Prozessrechten verpflichtet, wie sie in der bürgerlichen Rechtsprechung üblich seien. Abzuurteilen sei die „Bewußtseinstat“ der Angeklagten, stellvertretend werde damit das Urteil gefällt über Sozialdemokraten und andere Reformisten in der europäischen Arbeiterbewegung. Dass das Urteil nur auf Todesstrafe lauten könne, „darüber kann es nicht einmal eine Diskussion geben,“ schrieb sie. Noch bevor es verhängt wurde, plädierte sie aber in einem Schreiben an das ZK der KPdSU dafür, die Vollstreckung auszusetzen, weil sie erwartete, dass die Hinrichtungen in der internationalen Öffentlichkeit negativ aufgenommen würden. Humanitäre Gründe spielten bei dieser Eingabe keine Rolle. Nach Mussolinis „Marsch auf Rom“, der Machtergreifung der italienischen Faschisten im Oktober 1922, entwickelte Zetkin in Abgrenzung von der Theoriebildung etwa Sinowjews, die innerhalb der Kommunistischen Partei Russlands (Bolschewiki) vorherrschte, eine differenzierte Faschismustheorie: Die Bolschewiki subsumierten unter Faschismus nämlich jegliche gewalttätige und antikommunistische reaktionäre Bewegung. Im Juni 1923 erklärte sie auf der Tagung des Exekutivkomitees der Komintern dagegen, der Faschismus sei keineswegs als „bloßer bürgerlicher Terror“ und als Rache der Bourgeoisie für die Bedrohung durch die Oktoberrevolution zu verstehen. Zwar würden die Kapitalisten den Faschismus nach Kräften fördern, doch seien dessen Träger „breite soziale Schichten, große Massen, die selbst bis in das Proletariat hineinreichen“. Diese seien enttäuscht über den „Verrat der reformistischen Führer der Arbeiterbewegung“, die vor der Weltrevolution zurückgeschreckt seien und insofern verantwortlich für die Machtergreifung der Faschisten in Italien seien. Deshalb müsse man nun „den Kampf aufnehmen nicht nur um die Seelen der Proletarier, die dem Faschismus verfallen sind, sondern auch um die Seelen der Klein- und Mittelbürger“. Um diese auf die eigene Seite zu ziehen oder um zumindest zu verhindern, dass sie auf Seiten der Bourgeoisie kämpften, müsse die kommunistische Propaganda und Agitation sie in ihrer jeweils eigenen Sprache ansprechen: „Wir brauchen eine besondere Literatur für die Agitation unter den Bauern, wir brauchen eine besondere Literatur für die Beamten, Angestellten, Klein- und Mittelbürger jeder Art und wieder eine eigene Literatur für die Arbeit unter den Intellektuellen“. Doch genüge es nicht, den Faschismus ideologisch und politisch zu überwinden. Vielmehr sei Gewalt gegen die Faschisten als „Notwehr“ legitim: „Gewalt gegen Gewalt! Nicht etwa Gewalt als individueller Terror – das bliebe erfolglos. Aber Gewalt als die Macht des revolutionären organisierten proletarischen Klassenkampfes.“ Mit ihrem Aufruf zu einer defensiven Einheitsfront der Arbeiterklasse konnte sich Zetkin indes nicht durchsetzen. Vielmehr setzte sich in der Komintern die pauschale Identifizierung aller Nichtkommunisten einschließlich der Sozialdemokraten als (Sozial-)Faschisten durch sowie in der Folge die Dimitroff-These, die ab 1933 unter Faschismus „die terroristische Diktatur der am meisten reaktionären, chauvinistischen und imperialistischen Elemente des Finanzkapitals“ verstand. Am 21. Januar 1923, kurz nach dem Beginn der Besetzung des Ruhrgebietes durch französische und belgische Truppen infolge der von Deutschland nicht erfolgten Reparationszahlungen laut den Bestimmungen des Versailler Vertrags von 1919, warf Zetkin unter der Überschrift Um das Vaterland der Großbourgeoisie vor, ihr „Verrat“ sei schuld an der krisenhaften Zuspitzung der Situation der Weimarer Republik infolge von Hyperinflation und Reparationen. Mit dem Flugblatt „Zur Befreiung des deutschen Vaterlandes“ rief sie zum Sturz der Regierung Cuno und zur Bildung einer Arbeiterregierung auf. Diese nationalistisch anmutenden Töne, die kurzzeitig dazu führten, dass Zetkin von einigen Parteigenossen der Versuch vorgeworfen wurde, die bürgerlichen Parteien mit nationalen Parolen rechts überholen zu wollen, wurden zwei Tage später von der Parteizentrale korrigiert. Mit der Parole „Schlagt Poincaré an der Ruhr und Cuno an der Spree“ rief die KPD zur Solidarität der Proletarier in Deutschland und in Frankreich auf. Beim Reichsparteitag der KPD im April 1924 in Frankfurt am Main erhielt sie nur fünf Stimmen und schied aus der Zentrale aus. Im April 1925 polemisierte Zetkin auf einer weiteren EKKI-Tagung in Moskau gegen die zu der Zeit aktuelle KPD-Führung unter Ruth Fischer und Arkadi Maslow, denen sie „sektiererische Politik“ vorwarf. Damit half sie deren Absetzung vorzubereiten. Nachfolger wurde im Herbst 1925 Ernst Thälmann, den Stalin protegierte. In dieser Zeit schwankte der Kurs der Partei zwischen einem ultralinken und einem gemäßigten Kurs. Zetkin schrieb 1926, sie biete das Bild eines „Trümmerhaufens“. 1927 attestierte sie Thälmann, sein Kurs „pendelt hin und her zwischen Moechte-gern und Kann-doch-nicht“, er sei „kenntnislos und theoretisch ungeschult“ und gebe sich einer „Selbsttaeuschung und Selbstverblendung“ hin, „die an Größenwahn grenzt und der Selbstbeherrschung ermangelt“. Die Parteiführung insgesamt sei inkompetent und verstricke sich in Intrigen und Machtkämpfe, für die die angeblichen Gegensätze zwischen links und rechts „nur welke Feigenblaetter, nicht lebendige Kraefte“ seien. Die parlamentarische Demokratie der Weimarer Republik lehnte sie als „Klassendiktatur der Bourgeoisie“ strikt ab. Zugleich stand sie auch der stalinschen Sozialfaschismusthese kritisch gegenüber, die ein Bündnis mit der Sozialdemokratie gegen den Nationalsozialismus verhinderte. Dies bedeutete jedoch keine grundsätzliche Kritik an der Internationale und der sowjetrussischen Diktatur unter Stalin. Sie übte parteiintern Kritik an dem Kurs der KPD unter Thälmann, den sie für verhängnisvoll hielt, und forderte mehrfach eine freie Aussprache in der Partei. Doch zugleich hielt sie sich eisern an die Parteidisziplin, um Geschlossenheit nach außen zu vermitteln. Als 1926 Sinowjew von Stalin als Oppositioneller bezeichnet und aus der Leitung der Komintern ausgebootet wurde, trat Zetkin gemeinsam mit Thälmann in Moskau gegen ihn auf. Nachdem er im Jahr darauf auch noch aus der KPdSU ausgeschlossen worden war, erklärte sie kühl, für Trotzki und ihn könne es trotz ihrer Verdienste in der Oktoberrevolution keine mildernden Umstände geben. Ihr Ausschluss sei „eine Episode, keine Katastrophe“: Im März 1927 wurde Zetkin ins Zentralkomitee der KPD gewählt, was die Komintern bereits 1925 verlangt hatte. In den Machtkämpfen und Intrigen, die die KPD in den 1920er Jahren prägten, betrieb Zetkin laut dem Historiker Ilko-Sascha Kowalczuk eine „Nebeninnenpolitik“: In zahlreichen Briefen legte sie ihren Anhängern in der Partei, aber auch der Parteispitze hinter den Kulissen ihre Sicht der Dinge dar. Walter Ulbricht, damals Politischer Leiter des KPD-Bezirks Berlin-Brandenburg, war davon zunehmend irritiert und unterband am 2. März 1929, dass einer ihrer Briefe weitergeleitet wurde. Stattdessen schrieb er ans ZK, mit diesem Briefeschreiben müsse „Schluss gemacht werden, die Minderheit hat sich der Mehrheit unterzuordnen“. Ulbricht fürchtete, dass Zetkin, die sowohl in Moskau als auch in Deutschland über großen moralischen Kredit verfügte, ihm schaden könne. Beim Weddinger Parteitag im Juni 1929 wurde Zetkin nicht mehr ins ZK gewählt. Von Oktober 1929 bis März 1930 verfasste Zetkin ein ausführliches Memorandum Zur Krise in der KPD, das sie der EKKI und der sowjetische Delegation daselbst zuschickte: Seit 1924 seien die Nebenorganisationen der KPD wie die Rote Hilfe Deutschlands zunehmend gleichgeschaltet und gemaßregelt worden, was mit „schmutzigen Verleumdungen“ einhergegangen sei. Die Parteiführung sei in Marxismus-Leninismus und Geschichte ungebildet und ermangele „des sicheren Kompasses marxistischen Forschens, Denkens und Feststellens“, ihr Bolschewismus sei „bloße Nachäfferei des russischen Vorbilds“. Die Folge seien eine Zersplitterung der Kräfte, wie sie zum Beispiel der Ausschluss der KPO mit sich gebracht habe, den Zetkin kritisierte, und eine Isolierung der KPD von den werktätigen Massen, die an „Phrasendrescherei“ und Dogmatismus kein Interesse hätten. Zetkin stellte den Führungsanspruch der KPdSU innerhalb der Komintern nicht in Frage, bemängelte aber, dass sie eine regelrechte Diktatur ausübe und ihre „Fraktionskämpfe in die übrigen Sektionen folgenschwer übertragen“ würde. Zetkin verlangte, die Parteiausschlüsse rückgängig zu machen, die seit 1928 wegen Opposition gegen Auffassungen und Beschlüsse der EKKI erfolgt seien und eine vorurteilsfreie, rein sachliche Diskussion der strittigen Punkte: „Volle Diskussionsfreiheit für alle, die sich zu den Grundsätzen der Kommunistischen Internationale bekennen“. Mit diesen Forderungen konnte sich Zetkin nicht durchsetzen. Zetkin gehörte dem Reichstag der Weimarer Republik während der gesamten Zeit seines Bestehens ohne Unterbrechung an (1920 bis 1933; 1. bis 7. Wahlperiode). Der langjährige Reichstagspräsident Paul Löbe erinnert sich an ihre rednerische Gewandtheit, im Parlament formvollendet und frei zu sprechen. Außerdem hebt er anerkennend hervor, dass sich Zetkin an den häufig von der KPD-Fraktion veranstalteten Tumulten und Rüpelszenen im Reichstag nicht beteiligte. Seit Ende der 1920er Jahre lebte sie nur noch in Moskau. Am 30. August 1932 eröffnete Zetkin, eigens zu diesem Zweck nach Berlin gereist, die konstituierende Sitzung des 6. Reichstages als Alterspräsidentin. Sie hatte kurz zuvor einen schweren Malaria-Anfall überstanden und war noch stark geschwächt: Von ihrer Reichstagsrede abgesehen, für den sie ihr Sohn Maxim fitgespritzt hatte, verbrachte sie die meiste Zeit im Bett. Die Eröffnungsrede im Reichstag widmete sie dem Kampf gegen den Faschismus. Der SPD warf sie vor, Schrittmacherin der Präsidialkabinette gewesen zu sein, die sie als reaktionär und faschismusfreundlich kennzeichnete. Trotz des vorausgehenden Wahlerfolgs für die KPD erkannte sie gleichwohl die Gefahr, die von der inzwischen stärksten Fraktion des Reichstags, der NSDAP, ausging. Sie schloss die Rede mit dem Ausdruck ihrer Hoffnung, sie werde auch noch „das Glück […] erleben, als Alterspräsidentin den ersten Rätekongreß Sowjetdeutschlands zu eröffnen“. Den Pflichten einer Alterspräsidentin entsprechend leitete sie die Wahl Hermann Görings (NSDAP) zum Reichstagspräsidenten und übergab anschließend die Sitzungsleitung an ihn. Die NSDAP hörte ebenso wie alle anderen Fraktionen Zetkins Rede ohne Zwischenrufe oder sonstige Störungen an. Diese Sitzung ist die einzige erhaltene Tonaufnahme aus dem Reichstag, in der Zetkin zu hören ist. In ihrem Handbuch Deutsche Kommunisten würdigten Hermann Weber und Andreas Herbst Zetkin so: Tod Ende Januar 1933, zur Zeit der Machtergreifung durch die NSDAP unter Adolf Hitler und dem Ausschluss der KPD aus dem Reichstag infolge der Reichstagsbrandverordnung, befand sich Zetkin wieder in der Sowjetunion. Nach Angaben von Maria Reese, einer KPD-Abgeordneten des Reichstags, die sie dort unter Schwierigkeiten besuchte, lebte sie bereits parteipolitisch isoliert. Sie starb wenig später am 20. Juni 1933 im Alter von fast 76 Jahren. Ihre Urne wurde in der Nekropole an der Kremlmauer in Moskau auf der rechten Seite im Grab Nummer 44 beigesetzt. Stalin selbst trug die Urne zur Beisetzung. Sie ist neben Otto Strupat (1893–1921), Oskar Hellbrück (1884–1921) und Fritz Heckert (1884–1936) eine der wenigen Deutschen, die an der Kremlmauer bestattet wurden. Ihr Gehirn wurde wie das Lenins und Majakowskis im Moskauer Institut für Hirnforschung aufbewahrt. Ehrungen Clara Zetkin wurde 1927 mit dem Rotbannerorden und 1932 mit dem Leninorden ausgezeichnet. In der DDR wurde Zetkin zu einer der historischen Leitfiguren der SED-Propaganda, in der besonders ihre Rolle als Frauenrechtlerin und Verbündete der Sowjetunion herausgestellt wurde. Der Demokratische Frauenbund Deutschland widmete ihr zum XI. Bundeskongress eine Paradefahne mit Ehrenbanner. Straßen und Schulen trugen ihren Namen. In Ost-Berlin hieß seit 1951 die auf das Reichstagsgebäude zulaufende Parallelstraße zu Unter den Linden nach ihr. Nach der deutschen Wiedervereinigung setzte der Berliner Verkehrssenator Herwig Haase (CDU) im August 1993 eine Unabhängige Kommission zur Umbenennung von Straßen ein, die empfahl, keine Straßen mehr nach Zetkin zu benennen: Sie sei eine „überzeugte Anhängerin Lenins“ gewesen, habe „die Parteidiktatur der Bolschewiki“ verteidigt und Stalins Sowjetunion als „das politische und gesellschaftliehe Vorbild Deutschlands“ angesehen. 1995 wurde die Clara-Zetkin-Straße in Dorotheenstraße zurückbenannt. In Tübingen ordnete im Januar 2023 eine Kommission zur Überprüfung von Straßennamen die dortige Clara-Zetkin-Straße als „in der Kritik stehend“ ein und empfahl, um u. a. auf Zetkins „Mitwirkung an Justizverbrechen“ hinzuweisen, die Straße mit einer entsprechenden Markierung („Knoten“) zu versehen. Nach einer öffentlichen Kontroverse verwarf im Gemeinderat am 26. Oktober 2023 eine Mehrheit aus den Fraktionen von Die Linke, SPD und AL/Grünen den Vorschlag. Die DDR richtete in dem Haus in Birkenwerder nördlich von Berlin, wo sie von 1929 bis 1932 gelebt hatte, ein Museum über ihr Leben ein, das noch heute existiert und nach Anmeldung zugänglich ist. Ab 1971 zeigten die 10-Mark-Scheine der DDR ihr Konterfei. Eine bedeutende Kulturstätte der Stuttgarter Arbeiterbewegung, das Waldheim Sillenbuch, trägt den Namen Clara-Zetkin-Haus. Der Clara-Zetkin-Park in Leipzig trug ab 1955 ihren Namen. Seit 2011 heißen nur noch der ehemalige Albertpark und der Volkspark im Scheibenholz Clara-Zetkin-Park. Die übrigen Teile erhielten ihre alten Bezeichnungen Johannapark, Klingerhain, Palmengarten und Richard-Wagner-Hain zurück. In der Gemeinde Niepars erhielt 1973 die neu erbaute Schule den Namen Clara Zetkins. Außerdem schuf der Bildhauer Hans-Peter Jäger (* 1941) an der Schule ein 3,30 × 7,90 m großes Beton-Relief mit dem Thema Clara Zetkin. Der Name wurde 1990 getilgt. Über das Schicksal des Reliefs wurden keine Informationen gefunden. Die Deutsche Post der DDR gab 1987 zu ihren Ehren eine Sondermarke in der Serie Persönlichkeiten der deutschen Arbeiterbewegung heraus. In Berlin wurde zum 750-jährigen Stadtjubiläum 1987 eine Wohngebiets-Grünanlage im Ortsteil Marzahn in Clara-Zetkin-Park benannt. 1997 verlieh das Bezirksamt von Marzahn-Hellersdorf einem neu gestalteten Platz den Namen Clara-Zetkin-Platz. 1998 benannte die Stadt Hannover einen Weg in der Innenstadt am Fluss Leine nach Clara Zetkin. In ihrem Geburtsort Wiederau, wo sie bis zum 15. Lebensjahr mit ihren Eltern wohnte, befindet sich in der ehemaligen Schule eine Gedenkstätte im Museum in der alten Dorfschule. Dort wurde auch eine Gedenktafel der Initiative Frauenorte Sachsen angebracht. Die IG-Metall-Frauen in Heidenheim verleihen seit 2007 in zweijährigem Turnus, jeweils am 8. März, dem Internationalen Frauentag, einen Clara-Zetkin-Preis an eine Frau, die einen „nachhaltigen Beitrag für die Frauenarbeit geleistet“ hat (z. B. 2009 an Andrea Ypsilanti). Die Partei Die Linke benannte ihren Fraktionssaal im Reichstagsgebäude nach ihr und vergibt seit 2011 einen mit 3000 Euro dotierten Clara-Zetkin-Frauenpreis, „um herausragende Leistungen von Frauen in Gesellschaft und Politik zu würdigen“ (erste Preisträgerin war Florence Hervé). Anlässlich des Internationalen Frauentags 2012 schlug der Fraktionsvorsitzende der Partei Die Linke, Gregor Gysi, dem Bundestagspräsidenten Norbert Lammert vor, den Bundestags-Neubau in der Wilhelmstraße 65 nach Clara Zetkin zu benennen, was jedoch nicht erfolgte. Seit 1985 findet sich die Clara-Zetkin-Straße im Tübinger Stadtteil Lustnau. Weitere Darstellungen Clara Zetkins in der bildenden Kunst (Auswahl) Heinrich Apel: Clara Zetkin (Holzschnitt, aus der Mappe „Bildnisse - Porträts von Persönlichkeiten“, 1985) Walter Arnold: Klara Zetkin (Porträtbüste, Bronze, 1959; Brandenburgisches Landesmuseum für moderne Kunst, Frankfurt/Oder) Sandor Ek: Clara Zetkin (Druckgrafik) Karl-Ludwig Hartig (* 1878): Clara Zetkin (Kreidezeichnung auf Leinwand, 1952/1953) Heinz Lohmar: Clara Zetkin (Öl) Grete Tschaplowitz-Seifert: Clara Zetkin (Porträtbüste, um 1953; Marmor) Heinz Wagner: Clara Zetkin, Lehrerin des Volkes (Öl, ausgestellt 1962/1963 auf der Fünften Deutschen Kunstausstellung) Veröffentlichungen (Auswahl) Die Arbeiterinnen- und Frauenfrage der Gegenwart. Verlag der Berliner Volks-Tribüne, Berlin 1889, fes.de (PDF; 1 MB) Friedrich-Ebert-Stiftung. Der Student und das Weib. Verlag der Sozialistischen Monatshefte, Berlin 1899 Der Student und das Weib. (DjVu, Commons). Die Schulfrage. Referat, gehalten auf der dritten Frauenkonferenz in Bremen. Expedition der Buchhandlung Vorwärts, Berlin 1904. Digitalisat HUB Berlin Zur Frage des Frauenwahlrechts. Bearbeitet nach dem Referat auf der Konferenz sozialistischer Frauen zu Mannheim. Buchhandlung Vorwärts, Berlin 1907 , Zur Frage des Frauenwahlrechts. (PDF; 6,7 MB) Friedrich-Ebert-Stiftung. Das Frauenstimmrecht [Begründung zur Resolution: Das Frauenstimmrecht]. In: Internationaler Sozialisten-Kongreß zu Stuttgart 18. bis 24. August 1907. Berlin 1907, S. 40–48. () Karl Marx und sein Lebenswerk. Molkenbuhr, Elberfeld 1913. Rosa Luxemburg und Karl Liebknecht. Rote Fahne, Berlin 1919. Wir klagen an! Ein Beitrag zum Prozess der Sozial-Revolutionäre. Verlag der Kommunistischen Internationale, Hamburg 1922. Im befreiten Kaukasus. Verlag für Literatur und Politik, Wien/Berlin 1926. Die Bedeutung der aufbauenden Sowjetunion für die deutsche Arbeiterklasse. Vereinigung Internationaler Verlagsanstalten, Berlin 1926.MDZ Reader Erinnerungen an Lenin. Verlag für Literatur und Politik, Wien/Berlin 1929. Hungermai, Blutmai, roter Mai! Carl Hoym, Hamburg/ Berlin 1932. Angeklagter Hitler. Protokolle, Augenzeugen- und Tatsachenberichte aus den faschistischen Folterhöllen Deutschlands Clara Zetkin ruft zur Internationale Hilfswoche der IRH (17.–25. Juni 1933). Mopr-Verlag, Zürich 1933. Posthum herausgegebene Gesammelte Werke Ausgewählte Reden und Schriften. Drei Bände. Dietz Verlag, Berlin 1957–1960. Ich will dort kämpfen, wo das Leben ist. Eine Auswahl von Schriften und Reden. Dietz-Verlag, Berlin 1955. Zur Theorie und Taktik der kommunistischen Bewegung. Hrsg. v. Katja Haferkorn und Heinz Karl. Philipp Reclam jun., Leipzig 1974. (=Reclams Universalbibliothek Band 549) Die Briefe 1914 bis 1933. Band 1: Die Kriegsbriefe (1914-1918) von Clara Zetkin. Die Briefe 1914–1933, herausgegeben von Marga Voigt. Karl Dietz Verlag, Berlin 2016, ISBN 978-3-320-02323-2. Die Briefe 1914 bis 1933. Band 2: Die Revolutionsbriefe (1919-1923), hrsg. v. Jörn Schütrumpf und Marga Voigt. Karl Dietz Verlag, Berlin 2023, ISBN 978-3-320-02412-3. als Übersetzerin Edward Bellamy: Ein Rückblick aus dem Jahre 2000 auf das Jahr 1887. J. H. W. Dietz Nachf., Stuttgart 1914. Weitere Werke Erinnerungen an Lenin. Gespräche zur Frauenfrage. Verlag Wiljo Heinen, Berlin und Böklund 2019, ISBN 978-3-95514-038-0. Zur Geschichte der proletarischen Frauenbewegung Deutschlands. 3. Aufl. Verlag Marxistische Blätter, Frankfurt am Main 1984, ISBN 3-88012-532-5. Kunst und Proletariat. 2. Aufl. Dietz-Verlag, Berlin 1979. Für die Sowjetmacht: Artikel, Reden und Briefe; 1917–1933. Verlag Marxistische Blätter, Frankfurt am Main 1977, ISBN 3-88012-494-9. Revolutionäre Bildungspolitik und marxistische Pädagogik. Ausgewählte Reden und Schriften. Verlag Volk und Wissen, Berlin 1983. Erinnerungen an Lenin. Mit einem Anhang. Aus dem Briefwechsel Clara Zetkins mit W. I. Lenin und N. K. Krupskaja. Dietz Verlag, Berlin 1957. Literatur Biographien Gilbert Badia: Clara Zetkin. Eine neue Biographie. Dietz Verlag, Berlin 1994. Zetkin, Clara. In: Hermann Weber, Andreas Herbst: Deutsche Kommunisten. Biographisches Handbuch 1918 bis 1945. 2., überarb. und stark erw. Aufl. Karl Dietz Verlag, Berlin 2008, ISBN 978-3-320-02130-6. Florence Hervé (Hrsg.): Clara Zetkin oder: Dort kämpfen, wo das Leben ist. 4., akt. u. erw. Aufl. Karl Dietz Verlag, Berlin 2020, ISBN 978-3-320-02372-0 (zuerst 2007). Tânia Puschnerat: Clara Zetkin. Bürgerlichkeit und Marxismus. Eine Biographie. Klartext-Verlagsgesellschaft, Essen 2003, ISBN 3-89861-200-7. Lou Zucker: Clara Zetkin: Eine rote Feministin. Geschichte im Brennpunkt. Das neue Berlin, Berlin 2021, ISBN 978-3-360-01348-4. Aufsätze, Artikel und Quellen Mascha Riepl-Schmidt: Clara Zetkin, das Frauenwahlrecht und ihre „Parteikarrieren“ in der SPD, der USPD und der KPD. In: Sabine Holtz, Sylvia Schraut (Hg.): 100 Jahre Frauenwahlrecht im deutschen Südwesten. Eine Bilanz. Stuttgart 2020, ISBN 978-3-17-039338-7, S. 187–202. Martin Grass: Briefe Clara Zetkins in Archiv und Bibliothek der Arbeiterbewegung in Stockholm. In: Jahrbuch für Forschungen zur Geschichte der Arbeiterbewegung. Heft III/2011. Ulla Plener (Hrsg.): Clara Zetkin in ihrer Zeit – neue Fakten, Erkenntnisse, Wertungen (= Manuskripte. Band 76). Karl Dietz Verlag, Berlin 2008, ISBN 978-3-320-02160-3, rosalux.de (PDF; 1,2 MB) Gisela Notz: Clara Zetkin und die internationale sozialistische Frauenbewegung. In: JahrBuch für Forschungen zur Geschichte der Arbeiterbewegung. Heft III/2007. Setsu Ito: Clara Zetkin in ihrer Zeit – für eine historisch zutreffende Einschätzung ihrer Frauenemanzipationstheorie. In: JahrBuch für Forschungen zur Geschichte der Arbeiterbewegung. Heft III/2007. Jens Becker: Zetkin, Clara Josephine geb. Eißner. In: Manfred Asendorf, Rolf von Bokel (Hrsg.): Demokratische Wege. Deutsche Lebensläufe aus fünf Jahrhunderten. J. B. Metzler, Stuttgart / Weimar 1997, ISBN 3-476-01244-1, S. 706–708. Mascha Riepl-Schmidt: Progromstimmung vor den Toren der Hauptstadt. Clara Zetkin in ihrer Sillenbucher Zeit. In: Herrmann G. Abmayr (Hrsg.): Sillenbuch & Riedenberg. Zwei Stadt-Dörfer erzählen aus ihrer Geschichte. Stuttgart 1995, ISBN 3-926369-08-6, S. 104–113. Ina Hochreuther: Frauen im Parlament. Südwestdeutsche Abgeordnete seit 1919. Im Auftrag des Landtags herausgegeben von der Landeszentrale für politische Bildung. Theiss-Verlag, Stuttgart 1992, ISBN 3-8062-1012-8. Marta Globig, H. Karl: Zetkin, Clara Josephine geb. Eißner. In: Geschichte der deutschen Arbeiterbewegung. Biographisches Lexikon. Dietz Verlag, Berlin 1970, S. 497–501. Fernsehdokumentation Clara Zetkin – die Unbestechliche. Ein Film von Ernst-Michael Brandt im Rahmen der Reihe „Deutsche Lebensläufe“. Erstsendung am 1. Juni 2008 im MDR. Clara Zetkin. TV-Dokumentarspiel. DDR 1975, mit Barbara Dittus Beate Thalberg: Universum History: Die Unbeugsamen – Drei Frauen und ihr Weg zum Wahlrecht. Österreich 2019, mit Anna Brüggemann (Clara Zetkin), Katharina Haudum (Adelheid Popp) und Marie-Luise Stockinger (Hildegard Burjan) Weblinks Literatur von und über Clara Zetkin Staatsbibliothek Berlin Biografie beim Hauptstaatsarchiv Stuttgart Reden und Schriften Zetkins im Marxists Internet Archive Clara Zetkin auf FemBio mit ausführlicher Link- und Literaturliste 150. Geburtstag von Clara Zetkin Bundesarchiv Tonaufnahme der Reichstagssitzung vom 30. August 1932 mit der vollständigen Rede der Alterspräsidentin Clara Zetkin"Clara Zetkin träumt von "Sowjetdeutschland"" - Beitrag von SWR2-Archivradio in der Reihe "Der Reichstag vor Hitler" Website der Clara-Zetkin-Gendenkstätte in Birkenwerder Nachlass BArch NY 4005 Einzelnachweise Mitglied der Verfassunggebenden Landesversammlung (Württemberg) Träger des Rotbannerordens Frauenrechtler (Deutschland) Politische Literatur Reichstagsabgeordneter (Weimarer Republik) Emigrant aus dem Deutschen Reich zur Zeit des Nationalsozialismus Mitglied der Zentrale der KPD Mitglied des Zentralkomitees der KPD EKKI-Mitglied USPD-Mitglied SPD-Mitglied Mitglied der Roten Hilfe Marxistischer Theoretiker (Deutschland) Person (Stuttgart) Person der Friedensbewegung Träger des Leninordens Namensgeber für ein Schiff Deutscher Geboren 1857 Gestorben 1933 Frau
870
https://de.wikipedia.org/wiki/Kallisto%20%28Mond%29
Kallisto (Mond)
Kallisto (auch Callisto oder Jupiter IV) ist der vierte (äußerste) und zweitgrößte der vier großen Monde des Riesenplaneten Jupiter. Sie ist mit einem Durchmesser von 4820 km der drittgrößte Mond des Sonnensystems, nur geringfügig kleiner als der (allerdings viel massereichere) Planet Merkur. Kallisto gehört zum Typ der Eismonde. Sie ist der kraterreichste Körper des Sonnensystems. Kallisto ist der äußerste der großen Monde I–IV, die alle so hell sind, dass man sie bereits mit einem Fernglas beobachten kann. Sie ist 5-mal so weit von Jupiter entfernt wie der Erdmond von der Erde, hat aber durch die gewaltige Masse des Planeten nur 16 Tage Umlaufzeit. Beim nächstinneren Mond III (Ganymed) beträgt sie 7,2 Tage. Entdeckung und Benennung Kallisto wurde im Jahre 1610 von dem italienischen Gelehrten Galileo Galilei mit Hilfe eines relativ einfachen Fernrohrs entdeckt. Weil er alle vier großen Monde (Io, Europa, Ganymed und Kallisto) entdeckt hat, werden diese daher auch als die Galileischen Monde bezeichnet. Benannt wurde der Mond nach der Nymphe Kallisto (, abgeleitet von „die Schönste“), einer Geliebten des Zeus aus der griechischen Mythologie. Der Sage nach wurden Kallisto und ihr Sohn Arkas später in Bären verwandelt und an den Sternenhimmel versetzt. Kallisto ist demnach gleich zweimal am Himmel zu sehen, als Sternbild Großer Bär (Großer Wagen) und als Mond des Jupiter. Der Name Kallisto wurde von Simon Marius bereits kurz nach der Entdeckung vorgeschlagen, konnte sich jedoch über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden Monde üblicherweise nur mit römischen Ziffern nummeriert und Kallisto mit Jupitermond IV bezeichnet, da die Nummerierung ursprünglich nach der Größenfolge der Umlaufbahnen vorgenommen wurde. Kallisto ist kein offizielles oder allgemein verwendetes astronomisches Symbol zugeordnet (wie auch sonst keinem Trabanten im Sonnensystem außer dem Erdmond). Umlaufbahn und Rotation Kallisto umkreist Jupiter in einem mittleren Abstand von 1.882.700 km in 16 Tagen 16 Stunden und 32 Minuten. Ihre Bahn weist eine Exzentrizität von 0,007 auf und ist 0,19° gegenüber der Äquatorebene des Jupiter geneigt. Als der äußerste der Galileischen Monde ist Kallisto von der Umlaufbahn des nächstinneren und etwas größeren Ganymed über 800.000 km entfernt. Im Verhältnis zu dessen Umlaufzeit bewegt sich Kallisto in einer 3:7-Bahnresonanz, im Unterschied zu den 1:2-Resonanzen zwischen den jeweils benachbarten drei inneren großen Monden. Kallisto rotiert während ihres Umlaufs (16,689 Tage) genau ein Mal und hat damit, wie der Erdmond und die inneren Jupitermonde, eine gebundene Rotation. Physikalische Eigenschaften Kallisto hat einen mittleren Durchmesser von 4821 km und ist damit fast genauso groß wie der Planet Merkur (4878 km). Ihre Dichte ist mit etwa 1,83 g/cm³ etwas kleiner als die von Ganymed, aber deutlich kleiner als die der beiden anderen Galileischen Monde Europa und Io. Sie hat im Vergleich zu den drei anderen Galileischen Monden eine dunklere Oberfläche mit einer Albedo von 0,2 (nur 20 % des eingestrahlten Sonnenlichts werden reflektiert). Daher hat sie mit 5,7 mag die geringste Helligkeit, weniger als die um 35 % kleinere Europa. Die Oberflächentemperatur beträgt im Schnitt −139 Grad Celsius. Oberflächenstrukturen Kallisto weist nach dem Saturnmond Phoebe die zweithöchste Dichte an Einschlagkratern im bekannten Sonnensystem auf. Neben den Kratern prägen nur einige bei den Einschlägen entstandene konzentrisch-ringförmige Erhebungen die Oberfläche; größere Gebirgszüge sind nicht vorhanden. Daraus schließt man, dass Kallistos Oberfläche überwiegend aus Wassereis mit nur wenig Gesteinsanteil zusammengesetzt ist. Die Eiskruste hat über geologische Zeiträume hinweg nachgegeben, wobei ältere Krater und Gebirgszüge eingeebnet wurden. Der größte benannte und anerkannte Krater Heimdall misst im Durchmesser 210 km und befindet sich im Norden am Zentralmeridian der dem Jupiter zugewandten Hemisphäre. Die auffälligsten Strukturen auf Kallisto sind zwei riesige Einschlagsbecken, umgeben von konzentrischen Ringwällen. Valhalla hat einen Durchmesser von 600 km, eine helle Zentralregion und Ringe, die sich über 3000 km ausdehnen. Das etwas kleinere Becken Asgard erstreckt sich über 1600 km. Eine ungewöhnliche Struktur ist Gipul Catena, eine Kette von Impaktkratern, die als gerade Linie über die Oberfläche verläuft. Verursacht wurde sie offensichtlich von einem Himmelskörper, der wie der Komet Shoemaker-Levy 9 vor dem Einschlag durch die Gezeitenkräfte des Jupiter zerrissen wurde. Ähnliche Catena-Strukturen finden sich auf dem Nachbarmond Ganymed, deren größte Enki Catena aus 13 Kratern besteht und 160 km lang ist. Das Alter der Oberfläche Kallistos wird auf 4 Milliarden Jahre datiert. Sie war seit der Frühzeit des Sonnensystems keinen größeren Veränderungen unterworfen, was bedeutet, dass der Mond seit dieser Zeit geologisch nicht mehr aktiv war. Anders als der benachbarte Ganymed mit seiner auffälligen Oberfläche weist Kallisto keine Anzeichen von Plattentektonik auf, obwohl sie fast gleich groß ist. Ihre geologische Entwicklung war offensichtlich wesentlich einfacher verlaufen und schon nach relativ kurzer Zeit abgeschlossen, während in den übrigen Galileischen Monden komplexere Vorgänge stattfanden. Eisvorkommen und Ozean Die sichtbare Oberfläche liegt auf einer Eisschicht, die eine geschätzte Mächtigkeit von 200 km aufweist. Darunter befindet sich vermutlich ein 10 km tiefer Ozean aus flüssigem Salzwasser, worauf magnetische Messungen der Raumsonde Galileo hinweisen. Ein weiteres Indiz für flüssiges Wasser ist die Tatsache, dass auf der entgegengesetzten Seite des Kraters Valhalla keine Brüche und Verwerfungen sichtbar sind, wie sie auf massiven Körpern, wie dem Erdmond oder dem Planeten Merkur beobachtet werden können. Eine Schicht flüssigen Wassers hat möglicherweise die seismischen Schockwellen gedämpft, bevor sie sich durch das Mondinnere bewegten. Innerer Aufbau Das Innere Kallistos ist demnach aus etwa 60 % silikatischem Gestein und 40 % Wassereis aufgebaut, wobei mit zunehmender Tiefe der Silikatanteil ansteigt. Von ihrer Zusammensetzung her ähnelt Kallisto dem Saturnmond Titan und dem Neptunmond Triton. Ihre Masse beträgt daher trotz ihrer Größe nur knapp ein Drittel der Masse des Merkur und ist etwa 30 % größer als die Masse des Erdmondes. Atmosphäre Aktuelle Beobachtungen weisen darauf hin, dass Kallisto eine äußerst dünne Atmosphäre aus Kohlendioxid besitzt. Magnetfeld Die Sonde Galileo hatte bei ihren Vorbeiflügen ein schwaches Magnetfeld bei Kallisto gemessen, dessen Stärke variiert, während sich der Mond durch die extrem starke Magnetosphäre des Jupiter bewegt. Dies deutet auf das Vorhandensein einer elektrisch leitenden Flüssigkeit, wie Salzwasser, unterhalb Kallistos Eiskruste hin. Erkundung durch Sondenmissionen Die Erkundung der Kallisto durch Raumsonden begann in den Jahren 1973 und 1974 mit den Jupiter-Vorbeiflügen von Pioneer 10 und Pioneer 11. 1979 konnten Voyager 1 und Voyager 2 erstmals genauere Beobachtungen des Mondes vornehmen. Der Großteil des Wissens über Kallisto stammt jedoch vom Galileo-Orbiter, der 1995 das Jupitersystem erreichte und während der darauffolgenden acht Jahre mehrere Vorbeiflüge am Jupitermond vollführte. Für das Jahr 2020 hatten die Raumfahrtbehörden NASA und ESA die gemeinsame Europa Jupiter System Mission Laplace vorgeschlagen, die mindestens zwei Orbiter vorsah, die jeweils in einen Orbit um Europa und Ganymed eintreten und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollten. Die NASA, die den Jupiter Europa Orbiter bauen wollte, stieg jedoch aus dem Projekt aus. Die ESA verwirklicht indes den Jupiter Ganymede Orbiter mit leicht abgewandelter Missionsplanung als JUICE. JUICE soll nach ihrer Ankunft am Jupiter im Jahr 2030 und zwei Vorbeiflügen an Europa und 12 Vorbeiflügen an Kallisto 2032 in einen Orbit um Ganymed einschwenken. Da die NASA-Sonde entfällt, wurden die beiden Vorbeiflüge an Europa in den Missionsplan für JUICE aufgenommen. Mögliche bemannte Missionen Spätestens seit den 1980er Jahren gilt Kallisto als mögliches Ziel der bemannten Raumfahrt für die Zeit nach einem bemannten Marsflug, da sie außerhalb des Strahlungsgürtels um den Jupiter liegt. Im Jahr 2003 veröffentlichte die NASA eine Studie mit dem Titel Revolutionary Concepts for Human Outer Planet Exploration (deutsch etwa Revolutionäre Konzepte zur Erkundung der äußeren Planeten durch Menschen), die eine solche Mission – mit Start ab 2045 – in verschiedenen Varianten diskutiert. Als Gründe für die Wahl von Kallisto als Ziel wurden zum einen die stabile Geologie und die vergleichsweise geringe Entfernung zur Erde genannt. Weiterhin könne das Eis auf der Oberfläche zur Gewinnung von Wasser und Treibstoff genutzt werden. Als weiterer Vorteil wurde die geringe Distanz zu Europa bezeichnet, dies ermögliche es der Besatzung, Roboter auf diesem wissenschaftlich äußerst interessanten Mond mit geringer Latenz fernzusteuern, ohne der Strahlung des Jupiters ausgesetzt zu sein. Als Voraussetzung für die Durchführung der Mission nennt die Studie eine intensive Erkundung durch unbemannte Sonden ab etwa 2025. Je nach gewähltem und verfügbarem Antrieb würde die eigentliche Mission mit ein bis drei Raumschiffen starten, wobei jeweils eines die Besatzung und die übrigen die Bodenstation, eine Anlage zur Wassergewinnung (In-situ Resource Utilization) und einen Reaktor zur Energieerzeugung transportieren. Die Missionsdauer liegt zwischen zwei und fünf Jahren mit einer Aufenthaltsdauer von 32 bis 123 Tagen auf dem Mond, wobei aufgrund der unterschiedlichen Antriebstechniken kein Zusammenhang zwischen der Flug- und der Aufenthaltsdauer besteht. Die Studie kommt zu dem Schluss, dass eine bemannte Kallisto-Mission ab dem Jahr 2045 grundsätzlich möglich sei und benennt eine Reihe von Technologien, die bis dahin entwickelt werden müssten. Die Autoren weisen jedoch darauf hin, dass diese Technologien teilweise auch für Missionen zum Erdmond und Mars benötigt werden oder zumindest von Vorteil seien. Weblinks Einzelnachweise Kallisto Astronomisches Objekt (entdeckt 1610)
871
https://de.wikipedia.org/wiki/Carus%20%28Kaiser%29
Carus (Kaiser)
Marcus Aurelius Carus (* um 223 in Narbo; † 283 in Mesopotamien) war von 282 bis 283 römischer Kaiser. Leben Für die kurze Regierungszeit des Carus stehen uns nur wenige Quellen zur Verfügung. In erster Linie sind dies verschiedene spätantike Breviarien (z. B. Aurelius Victors Caesares, das Werk Eutrops und die Epitome de Caesaribus), deren Berichten für das 3. Jahrhundert offenbar eine gemeinsame Quelle zugrunde liegt, die sogenannte Enmannsche Kaisergeschichte. Die Kaisergeschichte des Eusebios, der nicht zu verwechseln ist mit dem Kirchenhistoriker Eusebius von Caesarea, die bis in die Zeit des Carus reichte, ist nicht erhalten. Die Carusbiographie in der Historia Augusta, die das Werk eines anonymen heidnischen Autors um 400 ist, beinhaltet nur wenige verlässliche Informationen. Hinzu kommen weitere spätere Autoren wie Zosimos, der Anonymus post Dionem (wohl mit Petros Patrikios gleichzusetzen) sowie byzantinische Autoren wie Johannes Zonaras, der auf heute verlorene Quellen zurückgreifen konnte (siehe auch Leoquelle). Hinzu kommen Münzen und andere nicht-literarische Zeugnisse. Der aus Südgallien stammende Carus durchlief eine militärische Karriere. Obwohl Kaiser Probus ihn zum Prätorianerpräfekten ernannt hatte, wurde Carus von den rätischen und norischen Truppen im Jahr 282 zum Gegenkaiser ausgerufen; unklar ist, ob die Usurpation von ihm selbst ausging oder ihm von den Truppen aufgedrängt wurde. Carus fand aber nach der Ermordung des Probus im selben Jahr allgemeine Anerkennung. Der tote Probus wurde von Carus sogar unter die Götter erhoben. Ende 282 erhob Carus seinen ältesten Sohn Carinus, kurz darauf auch seinen jüngeren Sohn Numerianus zum Caesar. Über weitere innenpolitische Maßnahmen des Carus sowie über seine Beziehungen zum Senat ist nur wenig bekannt. Carus kämpfte mit Erfolg gegen den an der pannonischen Donau und in der ungarischen Tiefebene lebenden sarmatischen Reiterkriegerstamm der Jazygen und errang Anfang 283 einen Sieg über sie. Carus zog anschließend mit seinem Sohn Numerianus in den Krieg gegen Persien, während Carinus als Verwalter im Westen des Reiches zurückblieb. Carinus wurde im Frühjahr 283, wohl zur Sicherung seiner Autorität während der Abwesenheit des Vaters im Osten und aufgrund von Erfolgen gegen die Germanen, zum Augustus erhoben. Carus kam bei seinem Persienfeldzug zugute, dass der damalige Sassanidenkönig Bahram II. mit einer Revolte im Osten seines Reiches zu kämpfen hatte, wo sich dessen Bruder Hormizd erhoben hatte. Offenbar war der Persienfeldzug eine Offensivmaßnahme, denn von vorhergehenden persischen Angriffen auf römisches Gebiet ist nichts bekannt (abgesehen wohl von kleineren Raubzügen). Dies kann als Anzeichen dafür gesehen werden, dass sich die Lage im Imperium nach der vorhergehenden Krisenzeit entspannt hatte. Details über den Feldzug sind kaum bekannt; möglicherweise kann er auch als Racheaktion für die demütigende Niederlage des Valerian gegen die Perser über 20 Jahre zuvor betrachtet werden. Ein siegreicher Feldzug im Osten konnte dem Kaiser zudem neben Beute auch Prestige einbringen. Carus eroberte im Juni/Juli 283 die persische Hauptresidenz Ktesiphon und nahm dann den Ehrentitel Persicus Maximus an. Dennoch hatten weitere Vorstöße der Römer nach Osten keinen Erfolg. Ende Juli 283 fand man den Kaiser tot in seinem Zelt im Feldlager auf. Angeblich wurde er durch einen Blitzschlag getötet, plausibler erscheint aber, dass er an einer Krankheit starb oder ermordet wurde. Seine Söhne traten gemeinsam die Nachfolge an. Literarisch verarbeitet wurde der Tod des Carus u. a. in einer Ballade August von Platens. Literatur Klaus Altmayer: Die Herrschaft des Carus, Numerianus und Carinus als Vorläufer der Tetrarchie (= Historia. Einzelschriften. Bd. 230). Steiner, Stuttgart 2014, ISBN 978-3-515-10621-4. Moisés Antiqueira: La muerte del emperador Caro y la historiografía pagana latina del siglo IV: historias más allá de la historia. In: Classica et Christiana 12 (2017), S. 9–32. Udo Hartmann: Der Blitzschlag am Tigris. Überlegungen zum rätselhaften Tod des Carus in Persien. In: Andreas Goltz, Heinrich Schlange-Schöningen (Hrsg.): Das Zeitalter Diokletians und Konstantins. Bilanz und Perspektiven der Forschung. Festschrift für Alexander Demandt. Böhlau, Wien/Köln 2022, ISBN 978-3412525187, S. 21 ff. Gerald Kreucher: Probus und Carus. In: Klaus-Peter Johne (Hrsg.): Die Zeit der Soldatenkaiser. Krise und Transformation des Römischen Reiches im 3. Jahrhundert n.Chr. (235–284). Akademie-Verlag, Berlin 2008, ISBN 978-3-05-004529-0, S. 395–423, speziell S. 415ff. Weblinks Biografie aus der Historia Augusta (englisch) bei LacusCurtius Anmerkungen Kaiser (Rom) Prätorianerpräfekt Herrscher (3. Jahrhundert) Geboren im 3. Jahrhundert Gestorben 283 Mann
874
https://de.wikipedia.org/wiki/Carl%20von%20Linn%C3%A9
Carl von Linné
Carl von Linné (latinisiert Carolus Linnaeus; vor der Erhebung in den Adelsstand 1756 Carl Nilsson Linnæus; * 23. Mai 1707 in Råshult bei Älmhult; † 10. Januar 1778 in Uppsala) war ein schwedischer Naturforscher, der mit der binären Nomenklatur die Grundlagen der modernen botanischen und zoologischen Taxonomie schuf. Sein offizielles botanisches Autorenkürzel lautet „“. In der Zoologie werden „“, „“ und „“ als Autorennamen verwendet. Linné setzte sich als Student in seinem Manuskript Praeludia Sponsaliorum Plantarum mit der noch neuen Idee von der Sexualität der Pflanzen auseinander und legte mit diesen Überlegungen den Grundstein für sein späteres Wirken. Während seines Aufenthaltes in Holland entwickelte er in Schriften wie Systema Naturae, Fundamenta Botanica, Critica Botanica und Genera Plantarum die theoretischen Grundlagen seines Schaffens. Während seiner Tätigkeit für George Clifford in Hartekamp konnte Linné zum ersten Mal viele seltene Pflanzen direkt studieren und schuf mit Hortus Cliffortianus das erste nach seinen Prinzipien geordnete Pflanzenverzeichnis. Nach der Rückkehr aus dem Ausland arbeitete Linné für kurze Zeit als Arzt in Stockholm. Er gehörte hier zu den Gründern der Schwedischen Akademie der Wissenschaften und war deren erster Präsident. Mehrere Expeditionen führten ihn durch die Provinzen seiner schwedischen Heimat und trugen zu seiner Anerkennung bei. Ende 1741 wurde Linné Professor an der Universität Uppsala und neun Jahre später deren Rektor. In Uppsala führte er seine enzyklopädischen Anstrengungen weiter, alle bekannten Mineralien, Pflanzen und Tiere zu beschreiben und zu ordnen. Seine beiden Werke Species Plantarum (1753) und Systema Naturæ (in der zehnten Auflage von 1758) begründeten die bis heute verwendete wissenschaftliche Nomenklatur in der Botanik und der Zoologie. Leben Kindheit und Schule Carl Linnæus wurde am 23. Mai 1707 in der ersten Stunde nach Mitternacht im kleinen Ort Råshult im Kirchspiel Stenbrohult in der südschwedischen Provinz Småland geboren. Er war das älteste von fünf Kindern des Geistlichen Nils Ingemarsson Linnæus und dessen Frau Christina Brodersonia. Sein Vater interessierte sich sehr für Pflanzen und kultivierte in seinem Garten einige ungewöhnliche Pflanzen aus Deutschland. Diese Faszination übertrug sich auf seinen Sohn, der jede Gelegenheit nutzte, um Streifzüge in die Umgebung zu unternehmen und sich die Namen der Pflanzen von seinem Vater nennen zu lassen. Seine schulische Ausbildung begann im Alter von sieben Jahren durch einen Privatlehrer, der ihn zwei Jahre lang unterrichtete. 1716 schickten ihn seine Eltern auf die neu errichtete Domschule in Växjö mit dem Ziel, dass er später wie sein Vater und Großvater Pfarrer werden sollte. Der junge Linné litt unter den strengen Erziehungsmethoden der Schule. Das änderte sich erst, als er 1719 die Bekanntschaft des Studenten Gabriel Höök machte, der ihn privat unterrichtete. 1724 wechselte er an das Gymnasium. 1726 reiste sein Vater nach Växjö, um den Arzt Johan Stensson Rothman in einer medizinischen Angelegenheit zu konsultieren und sich über die Leistungen seines Sohnes zu informieren. Er musste erfahren, dass sein Sohn in den für das Pfarramt notwendigen Fächern Griechisch, Hebräisch, Theologie, Metaphysik und Rhetorik nur mäßige Leistungen erbrachte und ihnen wenig Interesse entgegenbrachte. Hingegen glänzte sein Sohn in Mathematik und den Naturwissenschaften, aber auch in Latein. Rothman, der das Talent Linnés für eine medizinische Laufbahn erkannte, bot dem schockierten Vater an, seinen Sohn unentgeltlich in sein Haus aufzunehmen und ihn in Botanik und Physiologie zu unterrichten. Rothman machte Linné mit dem Klassifizierungssystem der Pflanzen von Joseph Pitton de Tournefort bekannt und wies ihn auf Sébastien Vaillants Schrift zur Sexualität der Pflanzen hin. Studium Im August 1727 ging Linné nach Lund, um an der dortigen Universität zu studieren. Am Ende seiner Schulzeit hatte er vom Rektor des Gymnasiums Nils Krok ein nicht sehr schmeichelhaftes Schreiben für seine Bewerbung in Lund erhalten. Sein alter Freund Gabriel Höök, mittlerweile Magister der Philosophie in Lund, riet ihm, das Schreiben nicht zu verwenden. Er stellte dem Rektor der Universität Lund Linné stattdessen als seinen Privatschüler vor und erreichte so die Immatrikulation an der Universität Lund. Höök überzeugte Professor Kilian Stobæus, Linné in sein Haus aufzunehmen. Stobæus besaß neben einer reichhaltigen Naturaliensammlung eine sehr umfangreiche Bibliothek, die Linné jedoch nicht benutzen durfte. Durch den deutschen Studenten David Samuel Koulas, der zeitweise als Sekretär von Stobæus beschäftigt war, erhielt er dennoch Zugriff auf die Bücher, die er bis spät in die Nacht studierte. Im Gegenzug vermittelte er Koulas seine bei Rothman erlernten Kenntnisse in Physiologie. Verwundert über die nächtlichen Aktivitäten seines Zöglings trat Stobæus eines Nachts unvermittelt in das Zimmer Linnés und fand ihn zu seiner Überraschung in das Studium der Werke von Andrea Cesalpino, Caspar Bauhin und Joseph Pitton de Tournefort vertieft. Fortan hatte Linné freien Zugriff auf die Bibliothek. Während seines Aufenthaltes in Lund unternahm Linné regelmäßig Exkursionen in die Umgebung. So auch an einem warmen Tag Ende Mai 1728, als er mit seinem Kommilitonen Mattias Benzelstierna die Natur in Fågelsång erkundete und von einem kleinen, unscheinbaren Tier, der „Höllenfurie“, gebissen wurde. Die Wunde entzündete sich und konnte nur mit Mühe behandelt werden. Linné entging nur knapp dem Tod. Zur Erholung fuhr Linné im Sommer in seine Heimat. Hier traf er seinen Lehrer Rothman wieder, dem er von seinen Erfahrungen an der Universität Lund berichtete. Durch diesen Bericht gelangte Rothman, der an der Universität Uppsala studiert hatte, zu der Überzeugung, dass Linné sein Medizinstudium besser in Uppsala fortsetzen sollte. Linné folgte diesem Rat und brach am 3. September 1728 nach Uppsala auf. Die Zustände, die Linné an der dortigen Universität vorfand, waren desolat. Olof Rudbeck der Jüngere hielt einige wenige Vorlesungen über Vögel und Lars Roberg philosophierte über Aristoteles. Es gab keine Vorlesungen über Medizin und Chemie, es wurden keine Obduktionen durchgeführt und im alten Botanischen Garten wuchsen kaum zweihundert Arten. Im März 1729 machte Linné die Bekanntschaft von Peter Artedi, mit dem ihn bis zu dessen frühem Tod eine feste Freundschaft verband. Artedis Hauptinteresse galt der Chemie, aber er war auch Botaniker und Zoologe. Die beiden Freunde versuchten sich gegenseitig mit ihren Forschungen zu übertrumpfen. Sie merkten bald, dass es besser wäre, wenn sie die verschiedenen Gebiete der drei Naturreiche entsprechend ihren Interessen unter sich aufteilen würden. Artedi übernahm die Amphibien, Reptilien und Fische, Linné die Vögel und Insekten sowie, mit Ausnahme der Doldenblütler, die gesamte Botanik. Gemeinsam bearbeiteten sie die Säugetiere und die Mineralien. Etwa zu dieser Zeit nahm ihn Olof Celsius der Ältere in sein Haus auf. Linné half Celsius bei der Fertigstellung von dessen Werk Hierobotanicon. Die finanzielle Situation Linnés besserte sich. Im Juni 1729 erhielt er ein Königliches Stipendium (II. Klasse), das im Dezember 1729 (I. Klasse) noch einmal erhöht wurde. Zum Ende des Jahres 1729 entstand seine erste bedeutende Schrift Praeludia Sponsaliorum Plantarum, in der er sich zum ersten Mal mit der Sexualität der Pflanzen auseinandersetzte und die Wegbereiter für sein weiteres Lebenswerk war. Die Schrift wurde schnell bekannt und Olof Rudbeck suchte die persönliche Bekanntschaft Linnés. Zunächst verschaffte er Linné, gegen den Widerstand Robergs, die Stelle des Demonstrators des Botanischen Gartens und stellte ihn als Lehrer seiner drei jüngsten Söhne ein. Mitte Juni zog Linné in Rudbecks Haus. 1730/31 arbeitete Linné an einem Katalog der Pflanzen des Botanischen Gartens von Uppsala (Hortus Uplandicus, späterer Titel Adonis Uplandicus), von dem mehrere Fassungen entstanden. Die Pflanzen waren anfangs noch nach dem Tournefortschen System für die Klassifizierung der Pflanzen angeordnet, an dessen Gültigkeit Linné jedoch immer mehr Zweifel kamen. In der endgültigen Fassung vom Juli 1731, die er in Stockholm beendete, ordnete er die Pflanzen nach seinem eigenen aus 24 Klassen bestehenden System. Während dieser Zeit entstanden die ersten Entwürfe zu seinen frühen Werken, die in Amsterdam veröffentlicht wurden. Ende 1731 sah sich Linné veranlasst, Rudbecks Haus zu verlassen, da die Frau des Universitätsbibliothekars Andreas Norrelius (1679–1750), die in dieser Zeit ebenfalls dort wohnte, Gerüchte über ihn verbreitete, die das gute Verhältnis zu Rudbecks Familie untergruben. Er verbrachte den Jahreswechsel bei seinen Eltern. Reise durch Lappland In einem Brief vom 26. Dezember 1731 empfahl sich Linné der Königlichen Gesellschaft der Wissenschaften in Uppsala für eine Expedition in das weitgehend unerforschte Lappland und bat um die notwendige finanzielle Unterstützung. Als er keine Antwort erhielt, unternahm er Ende April 1732 einen weiteren Versuch und senkte den für die Reise notwendigen Geldbetrag um ein Drittel. Dieses Mal wurde ihm der Betrag gewährt und er begann am 23. Mai seine erste große Expedition. Die beschwerliche Reise dauerte knapp fünf Monate. Während der Reise hielt er alle seine Erlebnisse und Entdeckungen in einem Tagebuch fest. Am 21. Oktober 1732 traf er wieder in Uppsala ein. Zu den Strapazen der Reise und den Schulden, die Linné zusätzlich auf sich genommen hatte, kam noch die Enttäuschung, dass die Akademie nur wenige Seiten seiner Ergebnisse publizierte. Sein Buch über die lappländische Pflanzenwelt, Flora Lapponica, wurde erst 1737 in Amsterdam veröffentlicht. Von dieser Reise brachte er erstmals Spielregeln und Spielbrett des zur Wikingerzeit weit verbreiteten Spiels Tablut mit. Falun und die Reise durch Dalarna Im Frühjahrssemester 1733 hielt Linné private Kurse in Dokimastik und schrieb eine kurze Abhandlung über das für ihn neue Thema. Er katalogisierte seine Vogel- und Insektensammlung und arbeitete an zahlreichen Manuskripten. Von Clas Sohlberg (1711–1773), einem seiner Studenten, erhielt er eine Einladung, den Jahreswechsel 1733/1734 bei dessen Familie in Falun zu verbringen. Clas’ Vater, Eric Nilsson Sohlberg, war Inspektor der dortigen Minen, und so ergab sich für Linné die Möglichkeit, die Arbeit in den Minen ausgiebig zu studieren. Er kehrte erst im März 1734 nach Uppsala zurück und gab weiter Privatunterricht in Mineralogie, Botanik und Diätetik. Während des Aufenthaltes in Falun machte Linné die Bekanntschaft von Johan Browall, der die Kinder des Gouverneurs der Provinz Dalarna, Nils Reutersholm, unterrichtete. Reutersholm war beeindruckt von den Berichten über Linnés Lapplandreise und plante, eine solche Erkundungsreise in der von ihm verwalteten Provinz durchzuführen. Es fanden sich genügend Geldgeber für das Unternehmen, und die aus acht Mitgliedern bestehende Societas Itineraria Reuterholmiana (Reuterholm-Reise-Gesellschaft), der Linné als Präsident vorstand, wurde gegründet. Die Reise durch die Provinz Dalarna begann am 3. Juli 1734 und dauerte bis zum 18. August 1734. Linnés Reisebericht Iter Dalecarlicum wurde erst posthum veröffentlicht. Linné blieb in Falun und übernahm den Unterricht von Reutersholms Söhnen. Browall überzeugte ihn, ins Ausland zu gehen, um dort seinen Doktorgrad zu erhalten, der ihm bisher aufgrund seiner angespannten finanziellen Situation verwehrt geblieben war. Es fand sich schließlich eine Lösung für die Reisekosten. Linné sollte Clas Sohlberg nach Holland begleiten und unterrichten und dort promovieren. Er kehrte nach Uppsala zurück, um seine Reisevorbereitungen zu treffen, und traf nach einem kürzeren Aufenthalt in Stockholm Ende des Jahres wieder in Falun ein. Zum Jahreswechsel 1734/35 lernte er Sara Elisabeth Moraea kennen, eine Tochter des Stadtarztes von Falun, und machte ihr einen Heiratsantrag. Dieser wurde von ihrem Vater, der auf die wirtschaftliche Unabhängigkeit seiner Tochter bedacht war, unter der Bedingung akzeptiert, dass Linné seinen Doktorgrad erwerben und die Hochzeit innerhalb der nächsten drei Jahre stattfinden würde. Drei Jahre in Holland Linnés Reise südwärts führte ihn über Växjö und Stenbrohult. Am 15. April 1735 brach er von Stenbrohult nach Deutschland auf. Anfang Mai erreichte er Travemünde und begab sich sogleich nach Lübeck, von wo er am nächsten Morgen mit der Postkutsche nach Hamburg reiste. Hier lernte er Johann Peter Kohl kennen, den Herausgeber der Zeitschrift Hamburgische Berichte von Neuen Gelehrten Sachen. Er besuchte den umfangreichen Garten des Juristen Johann Heinrich von Spreckelsen, in dem er unter anderem 45 Aloe- und 56 Mittagsblumen-Arten zählte. Auch der Bibliothek von Johann Albert Fabricius stattete er einen Besuch ab. Als Linné unvorsichtigerweise eine siebenköpfige Hydra, die zu einem hohen Preis zum Verkauf stand und dem Bruder des Hamburger Bürgermeisters Johann Anderson gehörte, als Fälschung entlarvte, riet ihm der Arzt Gottfried Jacob Jänisch, Hamburg zügig zu verlassen, um möglichem Ärger aus dem Weg zu gehen. So brach Linné schon am 27. Mai von Altona nach Holland auf. Am 13. Juni kam Linné in Amsterdam an. Hier hielt er sich nur wenige Tage auf und segelte am Abend des 16. Juni nach Harderwijk, um endlich den lang erwarteten Abschluss als Doktor der Medizin zu erhalten. Noch am selben Tag schrieb er sich in das Album Studiosorum der Universität Harderwijk ein. Zwei Tage später bestand er bei Johannes de Gorter seine Prüfung als Candidatus Medicinae und übergab diesem seine Dissertation Hypothesis Nova de Febrium Intermittentium Causa, die er schon in Schweden fertiggestellt hatte. Die verbleibenden Tage bis zu seiner Prüfung verbrachte er botanisierend mit David de Gorter, dem Sohn seines Prüfers. Am Mittwoch, den 23. Juni 1735, bestand er sein Examen und kehrte, nachdem ihm sein Diplom ausgehändigt wurde, schon am nächsten Tag nach Amsterdam zurück. Hier verweilte er nur kurz, denn er wollte unbedingt Herman Boerhaave kennenlernen, der in Leiden wirkte. Das Treffen auf Boerhaaves Landsitz Oud Poelgeest kam erst aufgrund der Unterstützung von Jan Frederik Gronovius zustande, der ihm ein Empfehlungsschreiben ausstellte. Zuvor hatte Linné Gronovius und Isaac Lawson einige seiner Manuskripte gezeigt, darunter einen ersten Entwurf von Systema Naturae. Beide waren von der Originalität des Linnéschen Ansatzes, die drei Naturreiche Mineralien, Pflanzen und Tiere zu klassifizieren, so beeindruckt, dass sie beschlossen, das Werk auf eigene Kosten herauszugeben. Gronovius und Lawson wirkten als Korrektoren für dieses und weitere in Holland entstandene Werke Linnés und überwachten die Fortschritte der Drucklegung. Auf Boerhaaves Empfehlung fand Linné Arbeit und Unterkunft bei Johannes Burman, dem er bei der Zusammenstellung seines Thesaurus Zeylanicus half. In Burmans Haus stellte Linné sein Werk Bibliotheca Botanica fertig und lernte dort auf Empfehlung von Gronovius den Bankier George Clifford kennen. Gronovius hatte Clifford vorgeschlagen, Linné als Kurator seiner Sammlung in Hartekamp einzustellen und von ihm seinen Garten, den Hortus Hartecampensis, beschreiben zu lassen. Am 24. September 1735 begann Linné seine Arbeit in Hartekamp. Nur fünf Tage später erhielt er die Botschaft, dass sein Freund Peter Artedi, den er erst wenige Wochen vorher zufällig in Amsterdam wiedergetroffen hatte, in einem Amsterdamer Kanal ertrunken war. Linné erfüllte das wechselseitige Versprechen der Freunde, das Werk des anderen fortzuführen und zu veröffentlichen, und bearbeitete und verlegte während seiner Zeit in Holland die Werke von Artedi. Bald nach Linnés Ankunft in Hartekamp traf dort der deutsche Pflanzenzeichner Georg Dionysius Ehret ein, der von Clifford eine Zeitlang als Zeichner eingestellt wurde. Linné erklärte ihm sein neues Klassifizierungssystem für Pflanzen, woraufhin Ehret, zunächst für seinen privaten Gebrauch, eine Zeichnung mit den Unterscheidungsmerkmalen der 24 Klassen anfertigte. Die Tafel mit dem Titel Caroli Linnaei classes sive literae wurde gelegentlich mit der Erstausgabe von Linnés Systema Naturae zusammengebunden und war Bestandteil einiger weiterer seiner Werke. In Hartekamp arbeitete Linné an mehreren Projekten gleichzeitig. So entstanden hier seine Werke Fundamenta Botanica, Flora Lapponica, Genera Plantarum und Critica Botanica und gingen Seite für Seite nach der Korrektur zum Drucker. Nebenher gelang es ihm, mit Hilfe des deutschen Gärtners Dietrich Nietzel die in einem der Warmhäuser Cliffords wachsende Bananenpflanze zu Blüte und Fruchtansatz zu bringen. Dieses Ereignis war der Anlass für ihn, die Abhandlung Musa Cliffortiana zu schreiben. Das Werk ist die erste Monografie über eine Pflanzengattung. England und Frankreich Im Sommer 1736 wurde Linnés Arbeit in Holland durch eine Reise nach England unterbrochen. In London studierte er Hans Sloanes Sammlung und erhielt von Philip Miller aus dem Chelsea Physic Garden seltene Pflanzen für Cliffords Garten. Während des einmonatigen Aufenthaltes traf er mit Peter Collinson und John Martyn zusammen. Bei einem Kurzaufenthalt in Oxford lernte er Johann Jacob Dillen kennen. Zurück in Hartekamp arbeitete Linné unter dem zunehmenden Druck von Clifford am Hortus Cliffortianus weiter, dessen Fertigstellung sich aber insbesondere aufgrund von Problemen mit den Kupferstichen bis 1738 verzögerte. Im Sommer 1737 wurde ihm von Boerhaave der Posten eines Arztes der WIC, der Niederländischen Westindien-Kompanie in Niederländisch-Guayana angeboten. Er lehnte jedoch ab und empfahl Boerhaave stattdessen den Arzt Johann Bartsch, der ihm bei der Bearbeitung seiner Flora Lapponica geholfen hatte. Zu dieser Zeit hatte Linné bereits Pläne, Holland wieder zu verlassen, und schlug alle Angebote Cliffords aus, auf dessen Kosten zu bleiben. Erst als Adriaan van Royen ihn bat, den Botanischen Garten in Leiden nach seinem System neu zu ordnen und wenigstens noch über den Winter zu bleiben, gab Linné nach. Seine Reisepläne indes standen fest. Über Frankreich und Deutschland, wo er unter anderem Albrecht von Haller in Göttingen zu treffen hoffte, wollte er endgültig nach Schweden zurückkehren. Ein schweres Fieber, an dem er Anfang 1738 mehrere Wochen litt, verzögerte die Abreise jedoch immer weiter. Im Mai 1738 hatte sich Linné so weit erholt, dass er die Reise nach Frankreich antreten konnte. Von Leiden aus reiste er über Antwerpen, Brüssel, Mons, Valenciennes und Cambrai nach Paris. Van Royen hatte ihm ein Empfehlungsschreiben an Antoine de Jussieu mitgegeben. Dieser vertraute ihn aus Zeitmangel der Obhut seines Bruders Bernard de Jussieu an, der zu dieser Zeit den Lehrstuhl für Botanik am Jardin du Roi innehatte. Gemeinsam besichtigten sie den Königlichen Garten, die Herbarien von Joseph Pitton de Tournefort, Sébastien Vaillant und Joseph Donat Surian sowie die Büchersammlung von Antoine-Tristan Danty d’Isnard und unternahmen botanische Exkursionen in die Umgebung von Paris. Während einer Sitzung der Pariser Akademie der Wissenschaften wurde Linné aufgrund eines Vorschlags von Bernard de Jussieu korrespondierendes Mitglied der Akademie. Der Superintendant des Jardin du Roi Charles du Fay versuchte vergeblich, Linné von einem Verbleib in Frankreich zu überzeugen. Linné wollte jedoch endlich in seine Heimat zurückkehren. Er gab den Plan auf, nach Deutschland zu reisen, und schiffte sich nach einem Monat Aufenthalt in Frankreich in Rouen nach Schweden ein. Rückkehr nach Schweden und Heirat Über das Kattegat kam Linné in Helsingborg an. Nach einem kurzen Aufenthalt bei seiner Familie in Stenbrohult reiste er nach Falun weiter, wo kurz darauf die Verlobung mit Sara Elisabeth Moraea stattfand. Um sich seinen Lebensunterhalt zu verdienen, ließ er sich im September 1738 in Stockholm als Arzt nieder. Nach anfänglichen Schwierigkeiten erlangte er durch die Bekanntschaft mit Carl Gustaf Tessin recht schnell Zugang zur Stockholmer Gesellschaft. Gemeinsam mit Mårten Triewald, Anders Johan von Höpken, Sten Carl Bielke, Carl Wilhelm Cederhielm und Jonas Alströmer gründete er im Mai 1739 die Königlich Schwedische Akademie der Wissenschaften und wurde ihr erster Präsident. Die Präsidentschaft gab er satzungsgemäß Ende September 1739 bereits wieder ab. Ebenfalls im Mai 1739 wurde er Nachfolger von Triewald am Königlichen Bergwerkskollegium Stockholm, an dem er Vorlesungen über Botanik und Mineralogie hielt, sowie aufgrund einer Empfehlung des Admirals Theodor Ankarcrona Arzt der schwedischen Admiralität. Derart finanziell abgesichert konnte er am 26. Juni 1739 seine Verlobte Sara Elisabeth Moraea heiraten. Aus der Ehe gingen mit Carl, Elisabeth Christina, Sara Magdalena, Lovisa, Sara Christina, Johannes und Sofia sieben Kinder hervor. Sara Magdalena und Johannes starben bereits im Kindesalter. Linnés gleichnamiger Sohn Carl wurde wie sein Vater Botaniker, konnte das Werk des Vaters jedoch nur kurze Zeit fortführen und starb im Alter von 42 Jahren. Reise durch Öland und Gotland Einen Monat nach seiner Hochzeit kehrte Linné nach Stockholm zurück. Im Januar 1741 erhielt er vom Ständereichstag das Angebot, die Inseln Öland und Gotland zu erkunden. Linné und seine sechs Begleiter, darunter Johan Moraeus, ein Bruder seiner Frau, brachen am 26. Mai 1741 von Stockholm aus auf. Sie waren zweieinhalb Monate unterwegs und erregten durch ihre Tätigkeit im Vorfeld des Russisch-Schwedischen Kriegs manchmal den Verdacht russischer Spionageaktivitäten. Mit der Veröffentlichung des Reiseberichtes Öländska och Gothländska Resa 1745 hatte Linné zum ersten Mal ein Werk in seiner schwedischen Muttersprache verfasst. Bemerkenswert ist der Index des Werkes, in dem die Pflanzen verkürzt in zweiteiliger Weise benannt waren. Außerdem wurde mit einem numerischen Index auf die Arten in dem im gleichen Jahr erschienenen Werk Flora Suecica verwiesen. Professor in Uppsala Im Frühjahr 1740 starb Olof Rudbeck, und dessen Lehrstuhl für Botanik an der Universität Uppsala musste neu besetzt werden. Lars Roberg, Inhaber des Lehrstuhls für Medizin, wollte sich bald zur Ruhe setzen, so dass dieser Lehrstuhl ebenfalls neu zu vergeben war. Neben Linné gab es mit Nils Rosén von Rosenstein und Johan Gottschalk Wallerius zwei weitere Anwärter. In Absprache mit dem schwedischen Kanzler Carl Gyllenborg sollte Rosén die Stelle Rudbecks erhalten und Linné die freiwerdende Position von Roberg. Später sollten sie dann die Lehrstühle tauschen. Linnés offizielle Ernennung zum Professor für Medizin erfolgte am 16. Mai 1741. In seiner „Rede von der Bedeutung, in seinem eigenen Land zu reisen“ anlässlich der Übernahme das Lehrstuhls, die er am 8. November 1741 hielt, betonte er den ökonomischen Nutzen, der sich aus einer Kartierung der schwedischen Natur ergäbe. Jedoch sei es nicht nur wichtig, die Natur zu studieren, sondern auch lokale Krankheiten, deren Heilmethoden und die verschiedenartigen landwirtschaftlichen Methoden. Seine erste öffentliche Vorlesung fand knapp eine Woche später statt. Ende des Jahres tauschten Linné und Rosén die Lehrstühle. Linné unterrichtete Botanik, Diätetik, Materia Medica und hatte die Aufsicht über den Alten Botanischen Garten. Rosén lehrte Praktische Medizin, Anatomie und Physiologie. Für die Gebiete Pathologie und Chemie waren sie gemeinsam verantwortlich. Linné begann mit der Umgestaltung des Botanischen Gartens und beauftragte damit Carl Hårleman. Das zum Garten gehörende Haus von Olof Rudbeck dem Älteren wurde renoviert und Linné zog mit seiner Familie dort ein. Im Garten wurden neue Gewächshäuser errichtet und Pflanzen aus der ganzen Welt angesiedelt. In seinem Werk Hortus Upsaliensis beschrieb Linné 1748 etwa 3000 verschiedene Pflanzenarten, die in diesem Garten kultiviert wurden. In seiner Materia medica, einem 1749 erschienenen Handbuch für Ärzte und Apotheker, beschrieb er Heilpflanzen und ihre praktische Verwendung. 1750 wurde er Rektor der Universität Uppsala. Diese Position übte er bis wenige Jahre vor seinem Tod aus. Vor seinem Amtsantritt als Rektor hatte Linné noch zwei weitere Reisen durch Schweden unternommen. Vom 23. Juni bis 22. August 1746 bereiste er gemeinsam mit Erik Gustaf Lidbeck, der später Professor in Lund wurde, die Provinz Västergötland. Linnés Aufzeichnungen erschienen ein Jahr später unter dem Titel Västgöta Resa. Eine letzte Reise führte Linné vom 10. Mai bis 24. August 1749 durch die südlichste schwedische Provinz Schonen. Sein Student Olof Andersson Söderberg, der im Vorjahr bei ihm promoviert hatte und später Professor in Halle war, ging ihm während der Reise als sein Sekretär zur Hand. Die Skånska Resa wurde 1751 veröffentlicht. Mitte Dezember 1772 hielt er seine Abschiedsrede über „Die Freuden der Natur“. Species Plantarum Linnés Reisen durch Schweden ermöglichten es ihm, in den Werken Flora Suecica (1745) und Fauna Suecica (1746) die Pflanzen- und Tierwelt Schwedens ausführlich zu beschreiben. Sie waren wichtige Schritte zur Vollendung seiner beiden bedeutsamsten Werke Species Plantarum (erste Auflage 1753) und Systema Naturae (zehnte Auflage 1759). Linné ermutigte seine Schüler, die Natur unerforschter Regionen selbst zu erkunden, und verschaffte ihnen auch die Möglichkeiten dazu. Die auf Entdeckungsreise gegangenen Schüler nannte er „seine Apostel“. 1744 schickte ihm der dänische Apotheker August Günther fünf Bände des von Paul Hermann von 1672 bis 1677 in Ceylon angefertigten Herbariums und bat Linné, ihm bei der Identifizierung der Pflanzen zu helfen. Linné konnte etwa 400 der zirka 660 herbarisierten Pflanzen verwenden und in sein Klassifizierungssystem einordnen. Seine Ergebnisse veröffentlichte er 1747 als Flora Zeylanica. Ein schwerer Gichtanfall zwang Linné 1750, seinem Schüler Pehr Löfling den Inhalt von Philosophia Botanica (1751) zu diktieren. Das auf seinen in Fundamenta Botanica formulierten 365 Aphorismen aufbauende Werk war als Lehrbuch der Botanik konzipiert. Er stellte darin sein System zu Unterscheidung und Benennung von Pflanzen dar und erläuterte es durch knappe Kommentare. Von Mitte 1751 bis 1752 arbeitete Linné intensiv an der Fertigstellung von Species Plantarum. In der Mitte 1753 erschienenen zwei Bänden beschrieb er auf 1200 Seiten mit ungefähr 7300 Arten alle ihm bekannten Pflanzen der Erde. Besondere Bedeutung hat das Epitheton, das er als Marginalie zu jeder Art am Seitenrand vermerkte und das eine Neuerung gegenüber seinen früheren Werken war. Der Gattungsname und das Epitheton bilden zusammen den zweiteiligen Namen der Art, so wie er in der modernen botanischen Nomenklatur noch heute verwendet wird. Systema Naturae Im Veröffentlichungsjahr von Species Plantarum erschien mit Museum Tessinianum eine Aufstellung der Objekte der Mineralien- und Fossiliensammlung von Carl Gustaf Tessin, die Linné angefertigte hatte. Das Sammeln von naturhistorischen Kuriositäten war zu dieser Zeit auch in Schweden sehr verbreitet. Adolf Friedrich hatte in Schloss Drottningholm eine Sammlung seltener Tierarten zusammengetragen und beauftragte Linné mit deren Inventarisierung. Linné verbrachte dafür in den Jahren 1751 bis 1754 insgesamt neun Wochen auf dem Schloss des Königs. Der erste Band von Museum Adolphi Friderici (1754) enthielt 33 Zeichnungen (zwei von Affen, neun von Fischen und 22 von Schlangen). Es ist das erste Werk, in dem die binäre Nomenklatur durchgängig in der Zoologie angewendet wurde. In der 10. Auflage von Systema Naturae übernahm Linné die binäre Nomenklatur endgültig für die Tierarten, die im ersten Band beschrieben sind. Im zweiten Band von Systema Naturae behandelte er die Pflanzen. Ein ursprünglich geplanter dritter Band, der die Mineralien zum Inhalt haben sollte, erschien nicht. 1758, das Erscheinungsjahr von Systema Naturae, markiert damit den Beginn der modernen zoologischen Nomenklatur. Die schwedische Königin Luise Ulrike hatte in ihrem Schloss Ulriksdal ebenfalls eine naturhistorische Sammlung angelegt, die aus 436 Insekten, 399 Muscheln und 25 weiteren Mollusken bestand und in der Abhandlung Museum Ludovicae Ulricae (1764) durch Linné beschrieben wurde. Den Anhang bildete der zweite Band der Beschreibung des Museums ihres Mannes mit 156 Tierarten. Letzte Jahre In seinen letzten Lebensjahren war Linné damit beschäftigt, die zwölfte Auflage von Systema Naturae (1766–1768) zu bearbeiten. Es entstanden die als Anhang dazu gedachten Werke Mantissa Plantarum (1767) und Mantissa Plantarum Altera (1771). In ihnen beschrieb er neue Pflanzen, die er von seinen Korrespondenten aus der ganzen Welt erhalten hatte. Im Mai 1774 erlitt er während einer Vorlesung im Botanischen Garten der Universität Uppsala einen Schlaganfall. Ein zweiter Schlaganfall 1776 lähmte seine rechte Seite und schränkte seine geistigen Fähigkeiten ein. Carl von Linné starb am 10. Januar 1778 an einem Geschwür an der Harnblase und wurde im Dom zu Uppsala begraben. Rezeption und Nachwirkung Der im 20. Jahrhundert wirkende britische Botaniker William Thomas Stearn fasste Linnés Bedeutung folgendermaßen zusammen: Lebenswerk Mit seinen Verzeichnissen Species Plantarum (für Pflanzen, 1753) und Systema Naturae (für Pflanzen, Tiere und Mineralien, 1758/1759 beziehungsweise 1766–1768) schuf Linné die Grundlagen der modernen botanischen und zoologischen Nomenklatur. In diesen beiden Werken gab er zu jeder beschriebenen Art zusätzlich ein Epitheton an. Gemeinsam mit dem Namen der Gattung diente es als Abkürzung des eigentlichen Artnamens, der aus einer langen beschreibenden Wortgruppe (Phrase) bestand. Aus Canna foliis ovatis utrinque acuminatis nervosis entstand so die leicht zu merkende Bezeichnung Canna indica. Das Ergebnis der Einführung zweiteiliger Namen ist die konsequente Trennung der Beschreibung einer Art von ihrer Benennung. Durch diese Trennung konnten neu entdeckte Pflanzenarten unproblematisch in seine Systematik aufgenommen werden. Linnés Systematik umfasste die drei Naturreiche Mineralien (einschließlich der Fossilien), Pflanzen und Tiere. Im Gegensatz zu seinen Beiträgen zur Botanik und Zoologie, deren fundamentale Bedeutung für die biologische Systematik schnell anerkannt wurde, blieben seine mineralogischen Untersuchungen bedeutungslos, da ihm die dafür notwendigen chemischen Kenntnisse fehlten. Die erste chemisch begründete Klassifizierung der Mineralien wurde 1758 von Axel Frederic von Cronstedt aufgestellt. In grundsätzlicher Opposition zu der von Linné vertretenen Auffassung, dass die ganze Natur in eine Taxonomie erfasst werden kann, stand der zeitgenössische Naturforscher Georges-Louis Leclerc de Buffon. Buffon war der Ansicht, dass die Natur zu unterschiedlich und zu reich sei, um sich einem so strengen Rahmen anzupassen. Der Philosoph Michel Foucault beschrieb Linnés Vorgehensweise des Klassifizierens so, dass es ihm darum gegangen sei, „systematisch wenige Dinge zu sehen“. Ihm sei es insbesondere darum gegangen, die Ähnlichkeiten der Dinge in der Welt aufzulösen. So schrieb Linné in seiner Philosophia Botanica: „Alle dunklen Ähnlichkeiten sind nur zur Schande der Kunst eingeführt worden“. Linné ging zudem von der Konstanz der Arten aus: „Es gibt so viele Arten, als Gott am Anfang als verschiedene Gestalten geschaffen hat.“ Er unterteilte die Arten bewusst anhand künstlich ausgewählter Merkmale wie Anzahl, Form, Größenverhältnis und Lage in Klassen und Ordnungen, um ein einfach zu handhabendes und leicht erlernbares System für die Einordnung der Arten zu schaffen. Bei den Pflanzen verwandte er beispielsweise Merkmale der Staubblätter, um die Klasse zu bestimmen, und Merkmale der Stempel, um die Ordnung einer Pflanzenart festzulegen. Auf diese Weise entstand ein „künstliches System“, da es die natürlichen Verwandtschaftsverhältnisse der Arten untereinander nicht berücksichtigte. Die Gattungen und Arten hielt er für natürlich und ordnete sie daher unter Verwendung einer Vielzahl von Kennzeichen entsprechend ihrer Ähnlichkeit. Linné war bestrebt, ein „natürliches System“ zu schaffen, kam jedoch über Ansätze wie Ordines Naturales in der sechsten Auflage von Genera Plantarum (1764) nicht hinaus. Für die Pflanzen gelang es erst Antoine-Laurent de Jussieu, ein solches natürliches System aufzustellen. Auszeichnungen und Würdigung Linné wurde am 30. Januar 1747 zum Archiater (Leibarzt) des Königs ernannt. Am 27. April 1753 wurde ihm der Nordstern-Orden verliehen. Ende 1756 wurde Carl Linnaeus vom schwedischen König Adolf Friedrich geadelt und erhielt den Namen Carl von Linné. Den auf den 20. April 1757 datierten Adelsbrief unterzeichnete der König im November 1761. Die Erhebung in den Adelsstand wurde erst Ende 1762 mit der Bestätigung durch das Riddarhuset wirksam. Linné war Mitglied zahlreicher wissenschaftlicher Akademien und Gelehrtengesellschaften. Hierzu zählten unter anderem die Deutsche Akademie der Naturforscher Leopoldina, der er ab dem 3. Oktober 1736 (Matrikel-Nr. 464) unter dem akademischen Beinamen Dioscorides II. angehörte, die Königliche Gesellschaft der Wissenschaften in Uppsala, die Société Royale des Sciences de Montpellier, die Königlich-Preußische Akademie der Wissenschaften, die Royal Society, die Académie royale des Sciences, Inscriptions et Belles-Lettres de Toulouse, die Pariser Akademie der Wissenschaften, die Russische Akademie der Wissenschaften in Sankt Petersburg und die Königliche Großbrittannische Churfürstliche Braunschweigische Lüneburgische Landwirthschaftsgesellschaft Celle. Jan Frederik Gronovius benannte Linné zu Ehren die Gattung Linnaea (Moosglöckchen) der Pflanzenfamilie der Linnaeaceae. Ebenso sind nach ihm der Mondkrater Linné im Mare Serenitatis, der Asteroid Linnaeus sowie das Mineral Linneit benannt. Ferner ist er Namensgeber für die Linnaeus Terrace in der Antarktis. Der Botaniker William Thomas Stearn schlug 1959 das im Dom von Uppsala bestattete Skelett von Carl von Linné zum Lectotypus für die Art Homo sapiens vor. Homo sapiens wurde dadurch nach den zoologischen Nomenklaturregeln gültig als diejenige Tierart definiert, zu der Carl von Linné gehörte. Die Banknote zu 100 Kronen der Schwedischen Krone führte von 2001 bis zum 30. Juni 2017 das Bildnis Carl von Linnés. Nachlass und Briefwechsel Nach dem Tod Linnés und dem Tod seines Sohnes Carl bot seine Frau Sara den gesamten Nachlass Joseph Banks für 3000 Guineen zum Kauf an. Dieser lehnte jedoch ab und überzeugte James Edward Smith, die Sammlung zu erwerben. Im Oktober 1784 kam Linnés Sammlung in London an und wurde in Chelsea öffentlich ausgestellt. Linnés Nachlass ist heute im Besitz der Londoner Linné-Gesellschaft, deren höchste Auszeichnung die jährlich vergebene Linné-Medaille ist. Linné unterhielt bis zu seinem Tod einen umfangreichen Briefwechsel mit Partnern in der ganzen Welt. Davon stammten ungefähr 200 aus Schweden und 400 aus anderen Ländern. Über 5000 Briefe sind erhalten geblieben. Allein sein Briefwechsel mit Abraham Bäck, seinem engen Freund und Vertrauten, umfasst weit über 500 Briefe. Wichtige botanische und zoologische Briefpartner waren Herman Boerhaave, Johannes Burman, Jan Frederik Gronovius und Adriaan van Royen in Holland, Joseph Banks, Mark Catesby, Peter Collinson, Philip Miller, James Petiver und Hans Sloane in England, Johann Reinhold Forster, Johann Gottlieb Gleditsch, Johann Georg Gmelin und Albrecht von Haller in Deutschland, Nikolaus Joseph von Jacquin in Österreich, sowie Antoine Nicolas Duchesne und Bernard de Jussieu in Frankreich. Kritiker Die von Linné schon 1729 als Student in Praeludia Sponsaliorum Plantarum verwendete Analogie von Pflanzen und Tieren hinsichtlich ihrer Sexualität provozierte etliche seiner Zeitgenossen zur Kritik. Eine erste Kritik zu Linnés Sexualsystem der Pflanzen schrieb Johann Georg Siegesbeck 1737 in einer Anlage zu seiner Schrift Botanosophiae: „[Wenn] acht, neun, zehn, zwölf oder gar zwanzig und mehr Männer in demselben Bett mit einer Frau gefunden werden [oder wenn] dort, wo die Betten der wirklichen Verheirateten einen Kreis bilden, auch die Betten der Dirnen einen Kreis beschließen, so dass die von verheirateten Männern begattet werden […] Wer möchte glauben, dass von Gott solche verabscheuungswürdige Unzucht im Reiche der Pflanzen eingerichtet worden ist? Wer könnte solch unkeusches System der akademischen Jugend darlegen, ohne Anstoß zu erregen?“ Julien Offray de La Mettrie spottete in L’Homme Plante (1748, kurz danach Bestandteil von L’Homme Machine) über Linnés System, indem er darin die Menschheit anhand der von Linné eingeführten Begriffe klassifizierte. Die Menschheit bezeichnete er als Dioecia (d. h. männliche und weibliche Blüten auf verschiedenen Pflanzen). Männer gehören zur Ordnung Monandria (ein Staubblatt) und Frauen zur Ordnung Monogyna (ein Stempel). Die Kelchblätter interpretierte er als Kleidung, die Kronblätter als Gliedmaßen, die Nektarien als Brüste und so fort. Selbst Johann Wolfgang von Goethe, der bekannte, „dass nach Shakespeare und Spinoza auf mich die größte Wirkung von Linné ausgegangen [ist], und zwar gerade durch den Widerstreit, zu welchem er mich aufforderte“, urteilte: „Wenn unschuldige Seelen, um durch eigenes Studium weiter zu kommen, botanische Lehrbücher in die Hand nehmen, können sie nicht verbergen, dass ihr sittliches Gefühl beleidigt sei; die ewigen Hochzeiten, die man nicht los wird, wobei die Monogamie, auf welche Sitte, Gesetz und Religion gegründet sind, ganz in vage Lüsternheit sich auflöst, bleibt dem reinen Menschensinn unerträglich.“ Schriften Werke (Auswahl) Linné hat zahlreiche Bücher verfasst, von denen viele in mehreren Auflagen erschienen. Einige davon sind in digitalisierter Form bei verschiedenen Anbietern wie dem Gallica-Projekt der Französischen Nationalbibliothek, der Online Library of Biological Books, der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, der Botanicus Digital Library und der Google Buchsuche im Volltext verfügbar. Zu den wichtigsten Werken Linnés zählen: Praeludia Sponsaliorum Plantarum. Uppsala, 1729; digitalisierte Fassung Florula Lapponica. In Acta Literaria et Scientiarum Sueciae. Band 3, S. 46–58, 1732 Systema Naturae. Johan Wilhelm de Groot, Leiden 1735; digitalisierte Fassung Bibliotheca Botanica. Salomon Schouten, Amsterdam 1735; digitalisierte Fassung, Volltext Fundamenta Botanica. Salomon Schouten, Amsterdam 1735; digitalisierte Fassung Musa Cliffortiana. Leiden 1736; digitalisierte Fassung Flora Lapponica. Salomon Schouten, Amsterdam 1737; digitalisierte Fassung Genera Plantarum. Conrad Wishoff, Leiden 1737; digitalisierte Fassung der 2. Auflage Critica Botanica. Conrad Wishoff, Leiden 1737; digitalisierte Fassungen: Google-Bücher, ULB Düsseldorf Hortus Cliffortianus, Amsterdam 1738; digitalisierte Fassung Classes Plantarum. Conrad Wishoff, Leiden 1738; digitalisierte Fassungen: Gallica, ULB Düsseldorf Öländska och Gothländska Resa. Gottfried Kiesewetter: Stockholm und Uppsala 1745; digitalisierte Fassung Flora Suecica. Lars Salvius: Stockholm 1745; digitalisierte Fassung Fauna Suecica. Lars Salvius: Stockholm 1746; digitalisierte Fassung Västgöta Resa. Lars Salvius: Stockholm 1747; digitalisierte Fassung Flora Zeylanica. Lars Salvius: Stockholm 1747; digitalisierte Fassungen: Stueber, Bayerische Staatsbibliothek Hortus Upsaliensis. Lars Salvius: Stockholm 1748; digitalisierte Fassung Materia Medica. Lars Salvius: Stockholm 1749; digitalisierte Fassung Skånska Resa. Lars Salvius: Stockholm 1751; digitalisierte Fassung Philosophia Botanica. Gottfried Kiesewetter: Stockholm 1751; digitalisierte Fassung Species Plantarum. Lars Salvius: Stockholm 1753; digitalisierte Fassung Museum Tessinianum. Lars Salvius: Stockholm 1753; digitalisierte Fassung Museum S. R. M. Adolphi Friderici. Lars Salvius: Stockholm 1754; digitalisierte Fassung Systema Naturae. 10. Auflage, Lars Salvius: Stockholm 1758; digitalisierte Fassung Museum S. R. M. Ludovicae Ulricae. Lars Salvius: Stockholm 1764; digitalisierte Fassung Mantissa Plantarum. Lars Salvius: Stockholm 1767; digitalisierte Fassungen: Google-Books, Bayerische Staatsbibliothek Mantissa Plantarum Altera. Lars Salvius: Stockholm 1771; digitalisierte Fassungen: Gallica, Bayerische Staatsbibliothek Zeitschriftenartikel Für folgende Zeitschriften hat Linné Artikel verfasst: Acta Societatis Regiae Scientiarum Upsaliensis Kongliga Svenska Vetenskaps Academiens Handlingar Memoires de l’Academie Royale des Sciences de Paris Nova Acta Regiae Societatis Scientiarum Upsaliensis Novi Commentarii Academiae Scientiarum Imperialis Petropolitanae Post- och Inrikes Tidningar Dissertationen Unter dem Vorsitz von Linné sind von 1743 bis 1776 insgesamt 185 Dissertationen entstanden, die ihm häufig direkt zugeschrieben werden. Die Dissertationen seiner Doktoranden wurden im zehnbändigen Amoenitates Academicae (Stockholm bzw. Erlangen, 1751–1790) veröffentlicht. Literatur Biografien Wilfrid Blunt: The Compleat Naturalist: A Life of Linnaeus. 2001, ISBN 0-7112-1841-2. Cecilia Lucy Brightwell: A life of Linnaeus. London 1858. Florence Caddy: Through the fields with Linnaeus. 2 Bände, London 1887. Theodor Magnus Fries: Linné: Lefnadsteckning. 2 Bände, Stockholm 1903. Heinz Goerke: Linné. Arzt – Naturforscher – Systematiker. Stuttgart 1966. Edward Lee Greene: Carolus Linnaeus. Philadelphia 1912. Benjamin D. Jackson: Linnaeus. London 1923. Lisbet Koerner: Linnaeus: Nature and Nation. Harvard University Press, 1999, ISBN 0-674-00565-1. Richard Pulteney: A General View of the Writings of Linnaeus. London 1781 (online). Dietrich Heinrich Stöver: Leben des Ritters Carl von Linné. Hoffman, Hamburg 1792 (online). Englische Ausgabe: The Life of Sir Charles Linnaeus. London 1794 (online). Bibliografien seiner Schriften Basil Harrington Soulsby: A catalogue of the works of Linnaeus (and publications more immediately thereto) preserved in the libraries of the British Museum (Bloomsbury) and the British Museum (Natural History – South Kensington). 2. Auflage, London 1933 Johan Markus Hulth: Bibliographia linnaeana. Materiaux pour servir a une bibliographie linnéenne. Uppsala 1907 Felice Bryk: Bibliographia Linnaeana ad Species plantarum pertinens. In: Taxon. Band 2, Nr. 3, Mai 1953, S. 74–84. Felice Bryk: Bibliographia Linnaeana ad Genera plantarum pertinens. In: Taxon. Band 3, Nr. 6, Sept. 1954, S. 174–183. Briefwechsel Theodor Magnus Fries, Johan Markus Hulth (Herausgeber): Bref och skrifvelser af och till Carl von Linné. 8 Bände, Stockholm 1907–1922 James Edward Smith (Herausgeber): A Selection of the Correspondence of Linnaeus. 2 Bände, London 1821 Briefwechsel von Carl von Linné Zur Rezeption seines Werkes A. J. Boerman: Carolus Linnaeus. A Psychological Study. In: Taxon. Band 2, Nr. 7, Oktober 1953, S. 145–156 (doi:10.2307/1216487). Felix Bryk: Promiskuitat der Gattungen als artbildender Faktor. Zur zweihundertsten Wiederkehr des Erscheinungsjahres der fünften Auflage von Linnés Genera plantarum (1754). In: Taxon. Band 3, Nr. 6, September 1954, S. 165–173 (doi:10.2307/1215954). Carl Johan Clemedson: Semiotik und Krankheitsdiagnostik in den Vorlesungen Carl von Linné’s über sein Systema Morborum. In: Christa Habrich, Frank Marguth, Jörn Henning Wolf (Hrsg.) unter Mitarbeit von Renate Wittern: Medizinische Diagnostik in Geschichte und Gegenwart. Festschrift für Heinz Goerke zum sechzigsten Geburtstag. München 1978 (= Neue Münchner Beiträge zur Geschichte der Medizin und Naturwissenschaften: Medizinhistorische Reihe. Band 7/8), ISBN 3-87239-046-5, S. 255–268. John Lewis Heller: Linnaeus’s Hortus Cliffortianus. In: Taxon. Band 17, Nr. 6, Dezember 1968, S. 663–719 (doi:10.2307/1218012). John Lewis Heller: Linnaeus’s Bibliotheca Botanica. In: Taxon. Band 19, Nr. 3, Juni 1970, S. 363–411 (doi:10.2307/1219065). Otto E. A. Hjelt: Carl von Linné als Arzt und seine Bedeutung für die medicinische Wissenschaft. Ein Beitrag zur Geschichte der Medicin. Wilhelm Engelmann, Leipzig 1882 (online). James L. Larson: Linnaeus and the Natural Method. In: Isis. Band 58, Nr. 3, Herbst 1967, S. 304–320. James L. Larson: The Species Concept of Linnaeus. In: Isis. Band 59, Nr. 3, Herbst 1968, S. 291–299. E. G. Linsley, R. L. Usinger: Linnaeus and the Development of the International Code of Zoological Nomenclature. In: Systematic Zoology. Band 8, Nr. 1, März 1959, S. 39–47 (doi:10.2307/2411606). Karl Mägdefrau: Geschichte der Botanik. Gustav Fischer Verlag, Stuttgart 1992, ISBN 3-437-20489-0, S. 61–77. Staffan Müller-Wille, Karen Reeds: A translation of Carl Linnaeus’s introduction to Genera plantarum. In: Studies in History and Philosophy of Science, Part C: Studies in History and Philosophy of Biological and Biomedical Sciences. Band 38, Nr. 3, September 2007, S. 563–572 (doi:10.1016/j.shpsc.2007.06.003). Staffan Müller-Wille: Collection and collation: theory and practice of Linnaean botany. In: Studies in History and Philosophy of Science, Part C: Studies in History and Philosophy of Biological and Biomedical Sciences. Band 38, Nr. 3, September 2007, S. 541–562 (doi:10.1016/j.shpsc.2007.06.010). Sven-Erik Sandermann Olsen: Bibliographia Discipuli Linnaei: Bibliographies of the 331 Pupils of Linnaeus. Bibliotheca Linnaeana Danica, 1997, ISBN 87-986457-0-6. Peter Seidensticker: Pflanzennamen: Überlieferung, Forschungsprobleme, Studien. Franz Steiner Verlag, 1999, ISBN 3-515-07486-4. William Thomas Stearn: The Background of Linnaeus’s Contributions to the Nomenclature and Methods of Systematic Biology. In: Systematic Zoology. Band 8, Nr. 1, März 1959, S. 4–22 (doi:10.2307/2411603). Sonstiges Tagebuch der Reise durch Lappland Iter Lapponicum dt. Lappländische Reise. Aus den Schwedischen übersetzt von H. C. Artmann. Insel Verlag, Frankfurt am Main 1964 Tagebuch der Reise durch Dalarna Iter Dalekarlicum Auslandstagebuch Iter ad exteros Carl Linné: Des Herrn Archiaters und Ritters von Linné Reisen durch einige schwedische Provinzen. Curt: Halle 1764 Band 1, Westgothland Band 2 Nemesis Divina (auf Schwedisch vollständig ediert 1968; auf Deutsch 1983, von Wolf Lepenies, Lars Gustafsson, Ullstein: Frankfurt/M.) Weblinks Lebensdaten der Vorfahren und Nachkommen The Linnaeus Server u. a. mit Museum Adolphi Friderici (englisch) Werke in der Königlichen Bibliothek zu Stockholm u. a. Systema Naturae. 1. Auflage (schwedisch) The Linnean Collections The Linnaean Plant Name Typification Project Einzelnachweise Botaniker (18. Jahrhundert) Mediziner (18. Jahrhundert) Ichthyologe Arachnologe Hochschullehrer (Universität Uppsala) Rektor (Universität Uppsala) Samische Studien Nobilitierter (Schweden) Mitglied der Königlich Schwedischen Akademie der Wissenschaften Mitglied der Königlichen Gesellschaft der Wissenschaften in Uppsala Mitglied der Leopoldina (18. Jahrhundert) Mitglied der Preußischen Akademie der Wissenschaften Mitglied der Royal Society Mitglied der Königlich Dänischen Akademie der Wissenschaften Mitglied der Kongelige Norske Videnskabers Selskab Mitglied der Académie des sciences Ehrenmitglied der Russischen Akademie der Wissenschaften Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Namensgeber für eine Pflanzengattung Träger des Nordstern-Ordens Absolvent der Universität Uppsala Gärtner Schwede Geboren 1707 Gestorben 1778 Mann
875
https://de.wikipedia.org/wiki/CD-ROM
CD-ROM
Compact Disc Read-Only Memory (CD-ROM) bezeichnet ein Permanentspeichermedium für digitale Daten. Sie ist nach der Compact Disc Digital Audio (Audio-CD) die zweite Anwendung der Compact Disc und wird etwa zum Verteilen von Software verwendet. Die Speicherkapazität einer CD-ROM liegt bei 650 bzw. 700 MiB. Bei der Speicherung auf der CD-ROM entspricht diese Datenmenge etwa der Datenmenge von 74 bzw. 80 Minuten Musik auf einer Audio-CD. Beschreibbare CDs fassen sogar bis zu 879 MiB (100-Minuten-CDs); sie können aber nicht in allen CD-Brennern beschrieben und nicht in allen CD-Laufwerken gelesen werden. Je nach Art und Qualität des Rohlings sowie nach Brenner kann auch noch außerhalb des standardisierten Bereichs gebrannt werden („überbrennen“). Dies kann jedoch zu Fehlern oder Verlust der Daten in diesem Bereich führen. Zur Formatierung der Daten auf einer CD-ROM können unterschiedliche Dateisysteme zum Einsatz kommen. CD-ROMs entsprechend der Norm ISO 9660 können von verschiedenen Computersystemen gelesen werden. Andere verbreitete Spezifikationen bieten erweiterte Möglichkeiten (zum Beispiel in Bezug auf die Länge von Dateinamen) und basieren auf dieser Norm; Beispiele sind die Dateisysteme Rockridge (UNIX) und Joliet (Windows) sowie die El-Torito-Spezifikation, um bootfähige CD-ROMs zu machen. Die CD-ROM ist eines der in den „Bunten Büchern“ (Rainbow Books) spezifizierten CD-Formate, im Falle von CD-ROM im „Yellow Book“ (= Daten-CDs) und „Orange Book“ (= beschreibbare CD-Formate mit Multisession-Fähigkeit). Bei Einhaltung der dort beschriebenen Spezifikationen darf die CD-ROM das von Philips vergebene Compact Disc-Logo tragen. Daneben existieren spezielle Formate wie CD-ROM XA (XA steht hierbei für eXtended Architecture), CD-Extra, CD-i usw. Bei der Herstellung von CD-ROMs und deren Derivaten sind Patente von Philips und Sony zu beachten. Aufbau des Datenträgers Als Trägermedium verwendet man hier nur eine Kunststoffscheibe (aus Polycarbonat) mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm. Auf dieser Scheibe befindet sich, analog zur Schallplatte, eine spiralförmig verlaufende Datenspur. Die Informationsträger sind auch hier kleine Vertiefungen, die sogenannten „Pits“ und „Lands“, welche im Maßstab gegenüber der Schallplatte jedoch um ein Vielfaches verkleinert wurden, unterschiedlich lang sind und so konzipiert wurden, dass sie mit Hilfe eines Laserstrahls ausgelesen werden können. Der Wechsel von „Pit/Land“ bzw. „Land/Pit“ bildet eine 1, gleich bleibende Struktur „Land/Land“ oder „Pit/Pit“ eine 0. Da die „Pits“ und „Lands“ bei aufeinanderfolgenden Einsen zu kurz würden, muss dieser Fall ausgeschlossen werden. Daher ist eine Umkodierung notwendig, welche mit der 8-zu-14-Modulation realisiert wird. (Mit weiteren drei Merge-Channelbits getrennt ergeben sich 17 Kanalbits für ein Datenbyte.) Die „Tonspur“ (Datenspur) verläuft hier von innen nach außen. Am Anfang der Datenspur ist ein Inhaltsverzeichnis gespeichert. Bei Musik-CDs gibt dieses Inhaltsverzeichnis die Anzahl der Musiktitel, die Einspieldauer und die Gesamtspieldauer an. Bei Daten-CDs sind dort nicht die Positionen der Dateien und Verzeichnisse gespeichert, sondern nur die Positionen der Tracks, welche ihrerseits normalerweise ein Dateisystem (mit Positionen der Dateien und Verzeichnisse) enthalten. (Siehe auch Dateisystem oder CDFS.) Die Drehzahl wird abhängig von der Stellung des Abtastsystems auf der spiralförmigen Spur reguliert, um eine gleich bleibende Datenabtastung zu gewährleisten. So wird bei 1-facher Lesegeschwindigkeit vom Abtastsystem innen die Drehzahl etwa auf 520/min und außen etwa auf 210/min eingestellt. Dabei werden Nutzdaten mit einer Geschwindigkeit von etwa 153,6 kB/s (CD-ROM Mode 1) bis 176,4 kB/s (Audio-CD) ausgelesen. Bei der maximalen 72-fachen Lesegeschwindigkeit ist eine Datenrate von bis zu 11,06 MB/s möglich. Dazu kommen noch Zusatzinformationen für Fehlerkorrektur, Codierung und Synchronisation. Lebensdauer Wie lange eine CD lesbar bleibt, hängt von vielen Faktoren ab. Das sind die Lagerbedingungen (Licht, Temperatur, Luftfeuchtigkeit), das verwendete Material für die Reflektionsschicht (Aluminium, Silber oder Gold) und die Disk selbst (Polykarbonat, bei manchen Disks auch Glas). Weiterhin spielt die Schutzlackierung sowie Beschriftungen der CD eine Rolle, ungeeignete Lacke, Farben oder Beschriftungen (Permanent Marker, Kugelschreiber) können die Reflektionsschicht von CDs nach kurzer Zeit (wenige Monate bis wenige Jahre) ruinieren. Die meisten CDs aus den 1980er und 1990er Jahren sind bei nicht zu ungünstiger Lagerung heutzutage noch problemlos lesbar. Als optimale Lagerbedingungen werden in verschiedenen Quellen mit −10 °C bis +23 °C bei 20 % bis 50 % RH sehr unterschiedliche Werte angegeben, allerdings häufig mit sehr geringen zeitlichen Änderungen (bis hinab zu 0,6 K/24 h bzw. 5 % RH/24 h). Licht soll im Allgemeinen vermieden werden, gleiches gilt für mechanische Belastungen und Kratzer. Für die Aufbewahrung werden Jewel Cases empfohlen. Für Langzeit-Speicherung war in den 1980er Jahren eine Century-CD vorgesehen, als Trägermaterial war Glas und als Beschichtung Gold vorgesehen. Die garantierte Haltbarkeit sollte mindestens 100 Jahre betragen bei einer wahrscheinlichen Haltbarkeit von mehr als 1000 Jahren. Heutzutage ist über diese Idee so gut wie nichts mehr zu finden. Allerdings spielt auch die Produktqualität eine große Rolle, so können schlecht produzierte CDs durchaus nach einigen Jahren Leseprobleme aufweisen. Für Langzeitspeicherung sind nach heutigem Erkenntnisstand DVDs besser geeignet, da die Informationsschicht im Inneren der DVD besser geschützt ist. Neben dem Medium selbst spielt für spätere Generationen auch die Verfügbarkeit von Lesegeräten, die Interpretierbarkeit des Datensystems sowie die Interpretierbarkeit der Daten eine extrem große Rolle. Herstellung Eine CD-ROM besteht aus einem Kunststoffträgermaterial mit Aluminiumbeschichtung. Die digitale Information wird auf einer spiralförmigen Spur aufgebracht. Es werden stellenweise Vertiefungen in die Beschichtung gepresst, sogenannte Pits (engl. pit = Grube). Diese reflektieren etwas früher als die unbeschädigten reflektierenden Stellen, die Land genannt werden, da die CD-ROM von der Oberseite gepresst werden und von der Unterseite gelesen werden. Somit sind die Pits von der Leseseite nicht als Vertiefungen sichtbar, sondern als Hügel. Die Übergänge von Land zu Pit, und umgekehrt, reflektieren das Licht nicht. Beim Lesen tastet ein schwacher Laserstrahl die gespeicherte Information ab. Die industrielle Herstellung einer CD-ROM beginnt mit dem Premastering. Dabei werden die auf einer CD-ROM zu speichernden Daten zusammengestellt, der dazugehörige Fehlererkennungscode (EDC/Fehlerkorrektur) wird berechnet. Der Fehlererkennungscode dient zum Beseitigen von Fehlern beim Lesen einer CD-ROM durch ein spezielles Korrekturverfahren (Cross-interleaved Reed-Solomon Code, CIRC). Beim Premastering werden den eigentlichen Nutzdaten auch noch Synchronisationsbytes und Header-Informationen vorangestellt. Beim nächsten Produktionsschritt, dem Mastering, werden mit Hilfe eines starken Laserstrahles die Daten vom Premastering auf eine photoresistente Schicht übertragen, ausgewaschen und versilbert. Das Negativ einer CD-ROM, ein sogenannter Glasmaster, entsteht. In den meisten Fällen wird der Glasmaster vor der CD-ROM-Herstellung mit Nickel galvanisiert, der so genannte „Vater“ entsteht. Die eigentliche CD-ROM-Herstellung (Pressung) erfolgt in einem Spritzgussverfahren (genau: Spritzprägen). Das Ausgangsmaterial, flüssiges Polycarbonat, wird mit Hilfe des Masters in eine Form gepresst, anschließend mit Aluminium beschichtet und versiegelt. Meist wird noch ein CD-Label im Siebdruckverfahren auf die Oberseite der CD-ROM aufgetragen. Normen und Standards ISO/IEC 10149, und der identische Standard ECMA-130. Eine Datenmenge von maximal 359849 Extents (je 2048 Bytes) bzw. 79:59,74 Minuten bleibt gerade noch innerhalb der maximal zulässigen Toleranzwerte für die CD-Norm. Spezielle Arten und Formate Verschiedene Arten von Medien: CD-ROM (Compact Disc Read-Only Memory) – die industriell hergestellte, also „gepresste“ und unzählig vervielfältigte, klassische Compact Disc CD-R (Compact Disc Recordable) – einmal beschreibbare CD CD-RW (Compact Disc ReWritable) – mehrfach lösch- und wiederbeschreibbare CD DVD (Digital Versatile Disc) – Nachfolger der CD mit vielfacher Speicherkapazität HD-ROM (High-Density-ROM) ist eine Weiterentwicklung der CD-ROM von Norsam Technologies und IBM. Verschiedene Formate und Dateisysteme respektive mögliche Inhalte auf den genannten Medien: CD-DA (Compact Disc Digital-Audio) – klassische Audio-CD CD-i (Compact Disc Interactive) – inzwischen veraltetes Multimedia-Format MiniDVD – Standard-CD, die mit DVD-konformen Daten beschrieben wurde GD-ROM – Giga Disc Read Only Memory Diese CD besteht aus zwei Datenbereichen und einem Trennbereich. CD-MRW (Compact Disc Mount Rainier Read/Write) – Verwendung von Standard-CD-R(W)-Medien zum Beschreiben in MRW-fähigen Laufwerken ISO 9660 – bei der CD-ROM übliches Dateisystem UDF (Universal Disk Format) – plattformunabhängiges Dateisystem für optische Medien, welches ISO 9660 ergänzt oder ersetzt Multimedia-Computerspiele 1991 erschienen die ersten Multimedia-Computerspiele auf CD-ROM, zuvor wurden mehrere Disketten für ein Spiel benötigt. Das erste derartige Spiel für den PC war Sherlock Holmes: Consulting Detective. Die ersten Spielkonsolen mit CD-ROM-Laufwerk waren FM Towns Marty von Fujitsu (1991, eingebautes Laufwerk) und die PC Engine (ab 1988, jedoch externes Gerät). Frühe Spiele waren oft identisch mit den Diskettenversionen oder hatten zusätzlich erweiterte Zwischensequenzen und Musik, die während des Spiels direkt von der CD abgespielt wurde. Multimedia-CD-ROM Seit Mitte der 1990er Jahre kamen mit der Verbreitung von CD-ROM-Laufwerken in PCs eine Fülle von Lexika und anderen Bildungs-, Unterhaltungs- und Edutainment-Medien unter dem Schlagwort Multimedia auf den Markt, häufig mit der Software Director von Macromedia erstellt, seltener auch auf der Basis von HTML. Es verbreiteten sich nun auch Anwendungen der CD-ROM als Ausstellungs- und Museumsmedium: Vielfach wurden nun sog. Info-Terminals mit eigens dafür produzierten CD-ROMs bestückt, um Besuchern Informationen multimedial zu vermitteln. Die interaktive Multimedia-CD-ROM galt noch Anfang der 2000er als technisch und konzeptionell aktuellstes Medium, bis sie dann schließlich einerseits von der DVD-ROM und dem USB-Stick mit mehr Kapazität, und andererseits vom zunehmend multimedialen und schnelleren World Wide Web abgelöst wurde. Sie trat danach eher in Billigsegmenten und speziellen Nischen auf, in denen sie bis heute existiert: So werden z. B. etwa einige jährlich aktualisierte, professionelle Datenbanken weiterhin exklusiv auf CD-ROM vertrieben. Häufig werden auch Printmedien von einer CD-ROM mit weiteren Daten begleitet. Die Kopierbarkeit digitaler Daten ist ein Problem bei der Vermarktung – digitale Abbilder von CD-ROMs können wie alle anderen Daten kopiert und verbreitet werden, virtuelle CD-ROM-Laufwerke gaukeln dem Rechner dann physisch vorhandene CD-ROMs vor. Sonstiges Ursprünglich sollte die Kapazität nach Planung der Erfinder 60 Minuten Musik betragen und somit einen Durchmesser von genau 10 Zentimetern haben, die CD-ROM könnte somit in die Brusttasche eines Hemdes gesteckt werden. Die willkürlich erscheinenden 74 Minuten entstanden aber nicht, weil der Chef des Entwicklungsunternehmens gerne die 9. Sinfonie von Ludwig van Beethoven hörte, die 74 Minuten lang ist, und deshalb nicht auf einer Audio-CD Platz gefunden hätte. Vielmehr wurde der für die Spieldauer entscheidende CD-Durchmesser durch die Philips-Führung folgendermaßen begründet: Die Compact Cassette war ein großer Erfolg, die CD sollte nicht viel größer sein. Die Kompaktkassette hatte eine Diagonale von 11,5 cm, die Ingenieure machten die CD 0,5 cm größer. Das Loch in der Mitte der CD-ROM hat seinen Ursprung in der Größe einer alten niederländischen 10-Cent-Münze. Diese hatten die Entwickler von Philips ständig in ihrem Geldbeutel. Die Größe des Durchmessers dieser Münze schien für die Anwendung ideal zu sein. Literatur Weblinks Lexikon-Eintrag beim Elektronik-Kompendium Einzelnachweise CD-Variante Abkürzung
878
https://de.wikipedia.org/wiki/Charles%20Messier
Charles Messier
Charles Messier (* 26. Juni 1730 in Badenweiler (Lothringen); † 12. April 1817 in Paris) war ein französischer Astronom. Er wirkte unter anderem als Astronom der französischen Marine und später im Bureau des Longitudes und gilt als erster systematischer Kometenjäger. Insgesamt dürfte er etwa 20 Kometen entdeckt haben. Im Zuge dessen schuf er mit dem Messier-Katalog ein später nach ihm benanntes Verzeichnis von astronomischen Objekten wie Galaxien, Sternenhaufen und Nebel. Leben Messier wurde 1730 in Badenweiler, der Hauptstadt des Fürstentums Salm, als zehntes von zwölf Kindern des Verwaltungsbeamten Nicolas Messier geboren. Er stammte aus wohlhabenden Verhältnissen. Sechs seiner Geschwister starben noch als Kinder. Sein Interesse an Astronomie wurde bereits 1744 geweckt, als er den großen sechs-schwänzigen Kometen C/1743 X1 beobachten konnte. Er ging mit 21 Jahren nach Paris und wurde von dem Astronomen der Marine, Nicholas Delisle, angestellt. 1754 wurde er Schreiber bei der Marine, wo er unter anderem Karten zu zeichnen hatte. Delisle lehrte ihn die Grundzüge der Astronomie und hielt ihn an, von sämtlichen Beobachtungen genaue Positionsangaben zu machen. Von 1764 an widmete er sich hauptsächlich der Suche nach Kometen. Er korrespondierte mit Fachleuten in England, Deutschland und Russland. 1770, im Alter von 40 Jahren, heiratete er Marie-Françoise de Vermauchampt. Eineinhalb Jahre später starben seine Frau und ihr gemeinsamer Sohn elf Tage nach dessen Geburt. 1771 wurde er zum Astronomen der Marine und damit zum Nachfolger von Delisle ernannt. Zehn Jahre später erlitt er bei einem Sturz schwere Verletzungen, von denen er sich mit seinen bereits 51 Jahren nur langsam erholte. Während der Französischen Revolution verlor er seine Stellung und verarmte. 1796 fand er jedoch eine Anstellung im Bureau des Longitudes. 1806 verlieh Napoleon ihm das Kreuz der Ehrenlegion. Da seine Sehkraft nachließ, beobachtete er, hochbetagt, immer seltener. Der letzte Komet, den er gesehen hat (mit der Hilfe anderer), war der Große Komet von 1807. 1815 erlitt er einen Schlaganfall; zwei Jahre später starb er in Paris im Alter von fast 87 Jahren. Entdeckungen Seit 1757 suchte er im Auftrag von Delisle den bereits erwarteten Halleyschen Kometen, fand ihn aufgrund eines Rechenfehlers von Delisle aber erst am 21. Januar 1759 und damit vier Wochen nach der Wiederentdeckung durch Johann Georg Palitzsch. 1761 beobachtete er den Venusdurchgang, drei Jahre später gelang ihm die erste Neuentdeckung eines Kometen. Insgesamt gelangen ihm bis zum Jahr 1801 zwanzig Entdeckungen, darunter vierzehn eigenständige sowie sechs Co-Entdeckungen. Auf seiner Suche nach neuen Kometen stieß er auf eine Vielzahl anderer Objekte wie Galaxien, Sternenhaufen oder Nebel. Das erste dieser Gebilde – später Messier 1 oder M 1 genannt – hatte er bereits 1758 beobachtet. Um seine Arbeit zu vereinfachen, suchte er gezielt nach weiteren Exemplaren. Dabei benutzte er auch die Kataloge von Edmond Halley, Nicolas Louis de Lacaille, Jacopo Filippo Maraldi und Jean-Baptiste Le Gentil. Schließlich listete er diese zunächst 45 Objekte im später nach ihm benannten Messier-Katalog auf, dessen erste Fassung 1771 veröffentlicht wurde. Im Jahr 1774 machte Jérôme Lalande, der damals führende Astronom Frankreichs, ihn mit Pierre Méchain bekannt. Dies führte zu einer fruchtbaren Zusammenarbeit. Bereits 1780 war der Katalog auf 68 Einträge angewachsen. Im September 1782 entdeckte Méchain das 107. Messier-Objekt. Von da an stellte Messier seine Suche nach weiteren Nebeln ein und konzentrierte sich wieder auf Kometen – wohl deshalb, weil Wilhelm Herschel mit überlegenem Gerät die Beobachtungen begonnen hatte. Die letzte Fassung seines Katalogs mit 103 Objekten wurde 1781 in Connaissance des temps für das Jahr 1784 veröffentlicht. Messier benutzte eine Reihe sehr unterschiedlicher Teleskope, darunter Fernrohre mit Brennweiten von bis zu sieben Metern und Reflektoren mit Spiegeldurchmessern von bis zu 20 cm Öffnung. Ehrungen Messier war Mitglied einer Vielzahl von wissenschaftlichen Akademien, darunter derer von England, Schweden, Belgien, Deutschland, Frankreich und Russland. Der Mondkrater Messier sowie der Asteroid (7359) Messier sind nach ihm benannt. Der Messier-Kanal, eine Meerenge im Süden Chiles zwischen der riesigen Wellington-Insel und dem Festland, trägt ebenfalls seinen Namen. Liste der von Messier entdeckten Kometen 1P/Halley (1758 Y1), Halleyscher Komet: 21. Januar 1759 (Co-Entdeckung) C/1758 K1: August 1758 (ein nicht nach ihm benannter Komet, Delisle hatte die Veröffentlichung unterbunden) C/1760 A1 (Großer Komet): 8. Januar 1759 (Co-Entdeckung) C/1760 B1 (Messier): 26. Januar 1759 C/1763 S1 (Messier): 28. September 1763, 1-Fuß-Teleskop C/1764 A1 (Messier): 3. Januar 1764, freisichtig C/1766 E1 (Messier): 8. März 1766, 5-Fuß-Teleskop D/1766 G1 (Helfenzrieder 1): April 1766 (Co-Entdeckung) C/1769 P1 (Messier): 8. August 1769, kleines Teleskop D/1770 L1 (Lexell): 14. Juni 1770 (benannt nach Anders Johan Lexell, dem Berechner der Bahndaten) C/1771 A1 (Großer Komet): Januar 1771 (Co-Entdeckung) C/1771 G1 (Messier): 1. April 1771, freisichtig C/1773 T1 (Messier): 12. Oktober 1773, 2-Fuß-Teleskop C/1779 A1 (Bode): Januar 1779 (Co-Entdeckung) C/1780 U2 (Messier): 27. Oktober 1780, 3,5-Fuß-Teleskop C/1785 A1 (Messier-Méchain): 7. Januar 1785 (Co-Entdeckung) C/1788 W1 (Messier): 25. November 1788 C/1793 S2 (Messier): 26. September 1793 C/1798 G1 (Messier): 12. April 1798 C/1801 N1 (Pons): 12. Juli 1801 (Co-Entdeckung) Schriften Messier, Charles (1730–1817), “Observations célestes faites à Paris à l'Hôtel de Cluny par Charles Messier” Bibliothèque numérique - Observatoire de Paris. Messier, Charles (1730–1817), “Messier. Table des positions de la comète de 1770” Bibliothèque numérique - Observatoire de Paris Charles Messier - Himmelskarten & Zeichnungen aus der Zeit von 1759 bis 1807, 24 Blätter A 3 mit Begleitbroschüre. Albireo Verlag Köln, 2019, ISBN 978-3-9816040-6-1 Literatur Delambre, Jean-Baptiste (1749–1822), “Biographie de Charles Messier par Delambre” Bibliothèque numérique - Observatoire de Paris Isaac Asimov: Biographische Enzyklopädie der Naturwissenschaften und der Technik, Herder, Freiburg/Basel/Wien 1974, ISBN 3-451-16718-2, S. 151 Concise Dictionary of Scientific Biography, Charles Scribner's Sons, New York 1981, ISBN 0-684-16650-X, S. 472 Weblinks Biographie mit Aufnahmen sämtlicher Messier-Objekte Biographie (englisch) von Charles Messier (SEDS) Charles Messiers Erläuterungen zu seiner Zeichnung des Orionnebels M42 Biographie von Charles Messier (von SEDS; berücksichtigt Forschung von Jean-Paul Philbert) Quellen !Messier Astronom (18. Jahrhundert) Mitglied der Ehrenlegion Mitglied der Académie des sciences Mitglied der Preußischen Akademie der Wissenschaften Ehrenmitglied der Russischen Akademie der Wissenschaften Mitglied der Royal Society Mitglied der Königlich Schwedischen Akademie der Wissenschaften Mitglied der Königlichen Akademie der Wissenschaften und Schönen Künste von Belgien Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Franzose Geboren 1730 Gestorben 1817 Mann
879
https://de.wikipedia.org/wiki/Christian%20Morgenstern
Christian Morgenstern
Christian Otto Josef Wolfgang Morgenstern (* 6. Mai 1871 in München; † 31. März 1914 in Untermais, Tirol, Österreich-Ungarn) war ein deutscher Dichter, Schriftsteller und Übersetzer. Besondere Bekanntheit erreichte seine komische Lyrik, die jedoch nur einen Teil seines Werkes ausmacht. Leben Herkunft Christian Morgenstern wurde 1871 in der Theresienstraße 12 in München im Stadtteil Maxvorstadt unweit der Universität geboren. Seine Mutter war Charlotte Morgenstern, geborene Schertel, sein Vater Carl Ernst Morgenstern, Sohn des Malers Christian Morgenstern. Wie der berühmte Großvater, von dem Morgenstern seinen Rufnamen Christian erhielt, waren auch der Vater und der Vater der Mutter Landschaftsmaler. Die Vornamen Otto und Josef gehen auf weitere Verwandte zurück, Wolfgang auf die Verehrung der Mutter für Wolfgang Amadeus Mozart. Kindheit und Jugend Im Jahre 1881 starb Morgensterns Mutter Charlotte an Tuberkulose. Er, Morgenstern, hatte sich offenbar bei ihr angesteckt. Bald darauf wurde er, ohne in der frühen Kindheit regelmäßigen Schulunterricht erhalten zu haben, seinem Paten Arnold Otto Meyer, einem Kunsthändler in Hamburg, zur Erziehung anvertraut, worunter er jedoch litt. Ein Jahr später kehrte er nach München zurück und kam in ein Internat in Landshut. Dort wurde Körperstrafe eingesetzt, und er wurde von seinen Mitschülern gemobbt. Der Vater heiratete Amélie von Dall’Armi und wurde 1883 an die Königliche Kunstschule in Breslau berufen. Christian ging mit nach Breslau und besuchte das Maria-Magdalenen-Gymnasium. Hier schrieb er im Alter von 16 Jahren das Trauerspiel Alexander von Bulgarien und Mineralogia popularis, eine Beschreibung von Mineralien. Beide Texte sind nicht erhalten. Zudem entwarf er eine Faustdichtung und beschäftigte sich mit Arthur Schopenhauer. Mit 18 Jahren lernte er auf dem Magdalenen-Gymnasium Friedrich Kayssler und Fritz Beblo kennen. Daraus entwickelten sich lebenslange enge Freundschaften. Vom Herbst 1889 an besuchte Morgenstern eine Militär-Vorbildungsschule, da der Vater für ihn eine Offizierslaufbahn wünschte. Nach einem halben Jahr verließ Morgenstern die Schule jedoch wieder und besuchte fortan ein Gymnasium in Sorau. Hier begann eine Freundschaft mit Marie Goettling, die später nach Amerika auswanderte. Mit ihr korrespondierte er noch während seines Studiums der Nationalökonomie in Breslau. Hier gehörten Felix Dahn und Werner Sombart zu seinen bedeutendsten Dozenten. Mit Freunden gründete Morgenstern die Zeitschrift Deutscher Geist unter dem Motto „Der kommt oft am weitesten, der nicht weiß, wohin er geht“, einem Oliver Cromwell zugeschriebenen Zitat. 1893 verfasste er Sansara, eine humoristische Studie. Das erste Sommersemester verbrachte er mit Kayssler in München. Er vertrug jedoch wegen seiner Tuberkulose das Klima dort nicht und begab sich zur Kur nach Bad Reinerz. Als er nach Breslau zurückkehrte, hatte sich der Vater von seiner zweiten Frau getrennt. Es folgte eine Erholungszeit in Sorau. Da er sein Studium nicht fortsetzen konnte, wären Freunde bereit gewesen, einen Kuraufenthalt in Davos zu bezahlen. Das wies der Vater aber zurück, genau wie ein Angebot Dahns, das Studium bis zum Referendar zu finanzieren. Morgenstern entschied sich nun, als Schriftsteller zu leben. Nach der dritten Heirat seines Vaters zerbrach das Verhältnis zu diesem weitgehend. Umzug nach Berlin Im April 1894 zog Morgenstern nach Berlin, wo er mit Hilfe des zum Teil Versöhnung suchenden Vaters eine Stellung an der Nationalgalerie fand. Er beschäftigte sich mit Friedrich Nietzsche und Paul de Lagarde und arbeitete für die Zeitschriften Tägliche Rundschau und Freie Bühne und schrieb Beiträge für die Zeitschriften Der Kunstwart und Der Zuschauer. Im Frühjahr 1895 erschien das erste Buch Morgensterns, der Gedichtzyklus In Phanta’s Schloss. Er segelte auf dem Müggelsee und bereiste 1895 und 1896 Helgoland, Sylt und Salzburg. In Auftragsarbeit übersetzte er im Sommer 1897 (aus der französischen Übersetzung) die autobiografischen Aufzeichnungen Inferno von August Strindberg. Im Oktober 1897 unterzeichnete Morgenstern einen Vertrag mit dem S. Fischer Verlag, der die Übersetzung von Werken Henrik Ibsens betraf, obwohl er die norwegische Sprache noch nicht beherrschte. Bereits im Februar 1898 sollte Das Fest auf Solhaug fertig übersetzt sein. Von Mai 1898 bis Herbst 1899 bereiste Morgenstern Norwegen, hauptsächlich zum Erlernen der Sprache, wobei er auch mehrmals Ibsen traf. 1900 folgte eine Kur in Davos, anschließend bereiste Morgenstern den Vierwaldstättersee, Zürich, Arosa, Mailand, Rapallo, Portofino, Florenz, Wolfenschiessen und Heidelberg. Im Dezember 1902 besuchte er Rom und kehrte Mai 1903 nach Berlin zurück. In dieser Zeit übersetzte er Knut Hamsun und Bjørnstjerne Bjørnson. Ab 1903 war er literarischer Lektor im Verlag von Bruno Cassirer, mit dem er freundschaftlich verbunden war. Er betreute und förderte dort u. a. Robert Walser. Zuvor war er Dramaturg bei Felix Bloch Erben. 1905 reiste er nach Wyk und hatte einen Sanatoriumsaufenthalt in Birkenwerder, der nicht zum gewünschten Erfolg führte. Zudem erschienen in diesem Jahr seine Galgenlieder und er las Fjodor Michailowitsch Dostojewski. Ein Jahr später reiste er aus gesundheitlichen Gründen in Kurorte in bayerischer, Tiroler und Schweizer Alpenlandschaft, nach Bad Tölz, Längenfeld, Obergurgl, Meran, Obermais, St. Vigil und Tenigerbad und beschäftigte sich mit Jakob Böhme, Fechner, Fichte, Hegel, Eckhart von Hochheim und Tolstoi. Spinoza und Fritz Mauthner las er in dieser Zeit ebenfalls, hielt zu ihnen aber im Licht seiner antisemitischen Einstellung Distanz. Margareta Gosebruch von Liechtenstern Im Juli 1908 lernte Morgenstern in Bad Dreikirchen Margareta Gosebruch von Liechtenstern (1879–1968) kennen. Nach deren Abreise blieb er mit ihr in regem Briefverkehr. Als Margareta im Oktober erkrankte, begab Morgenstern sich zu ihr nach Freiburg im Breisgau. Da aber der Aufenthalt eines Verlobten bei einer kranken Frau den gesellschaftlichen Sitten widersprach, wich er nach Straßburg aus. Im November begab er sich wie die gesundete Margareta nach Berlin. Kontakt zur Theosophie und Anthroposophie Im Januar 1909 schloss er bei Berliner Vorträgen Rudolf Steiners mit diesem eine enge und dauerhafte Freundschaft. Um Steiners Vorträge zu hören, reiste er noch im selben Jahr nach Düsseldorf, Koblenz, Kristiania, Kassel und München. Im Mai trat er einen Monat nach Margareta der von Steiner geführten Deutschen Sektion der Theosophischen Gesellschaft bei. Bei der folgenden Spaltung dieser Körperschaft 1912/1913 blieb er auf der Seite Steiners und wurde Mitglied der Anthroposophischen Gesellschaft. 1909 übersetzte er auch Knut Hamsun, besuchte den Internationalen Theosophischen Kongress in Budapest und seinen Vater in Wolfshau, er reiste mit Margareta in den Schwarzwald und nach Obermais. Dort erkrankte er, wohl auch infolge der zahlreichen Reisen, an einer schweren Bronchitis. Ein Arzt deutete bereits auf den kurz bevorstehenden Tod hin. Morgensterns Zustand verbesserte sich jedoch wieder, und so heirateten er und Margareta am 7. März 1910. Italien und Schweiz Von Mai bis August hielt er sich in Bad Dürrenstein in den Dolomiten auf, bis er sich zu einem Vortrag Steiners nach Bern begab. Vorträge in Basel besuchte lediglich Morgensterns Frau, von denen sie ihm nachher berichtete. Nach Aufenthalt in München reiste er im Oktober über Verona, Mailand und Genua nach Palermo und schließlich nach Taormina. Im selben Jahr begann auch seine Zusammenarbeit mit dem Verleger Reinhard Piper, die bis zu seinem Lebensende anhielt. Christian Morgenstern hatte vorher mit vier anderen Verlegern zusammengearbeitet, nämlich mit Richard Taendler, Schuster & Loeffler, Samuel Fischer und Bruno Cassirer. Eine dauerhafte Geschäftsverbindung war aber nicht zustande gekommen. Eigentlich wollte Morgenstern mit Margareta ein halbes Jahr in Taormina verbringen; da er aber erneut schwer erkrankte, begab er sich, sobald er im Frühjahr 1911 dazu imstande war, in das Deutsche Krankenhaus nach Rom und dann in das Waldsanatorium Arosa, wo er seinen Vater und die Mutter Margaretas sah, die anfangs nicht mit der Ehe einverstanden war. Nach mehreren Monaten Liegekur konnte er das Sanatorium verlassen und zog mit Margareta in eine Wohnung in Arosa. 1912 erhielt er eine Spende der Deutschen Schillerstiftung in Höhe von eintausend Mark. Bald darauf begab er sich nach Davos. Margareta besuchte für ihn Vorträge Steiners in München. Noch immer krank, verließ er das Sanatorium und begab sich mit Margareta nach Zürich, wo er im Oktober mit Steiner zusammentraf. Anschließend kehrte er nach Arosa zurück. Er verfasste einen Brief, in dem er Rudolf Steiner für den Friedensnobelpreis vorschlagen wollte, schickte diesen jedoch nicht ab. Ab Frühjahr 1913 hielt er sich in Portorose auf, wo er Gedichte Friedrichs des Großen aus dem Französischen übersetzte und Michael Bauer, der ebenfalls lungenkrank war, zum Freund gewann. Nach einer Reise nach Bad Reichenhall, wo er Friedrich und Helene Kayßler traf, hörte er in München Vorträge Steiners, dem er im November nach Stuttgart und im Dezember nach Leipzig folgte. Sowohl in Stuttgart als auch in Leipzig rezitierte Marie von Sivers, die spätere Frau Steiners, Werke Morgensterns, der den letzten der beiden Vorträge am Silvesterabend als den höchsten Ehrentag seines Lebens empfand. Tod In München konnten die Morgensterns ihren Arzt nicht erreichen und suchten daher ein Sanatorium in Arco (Trentino) auf, das Morgenstern jedoch nicht aufnahm, um sterbende Patienten zu vermeiden. Nach einem kurzen Aufenthalt in einem Sanatorium bei Bozen zog er in die Villa Helioburg in Untermais (seit 1924 nach Meran eingemeindet), wo er noch an dem Druckbogen der Sammlung Wir fanden einen Pfad arbeitete. Michael Bauer hatte er geschrieben: Bauer fuhr nach Meran zu Morgenstern, der am 31. März 1914, gegen fünf Uhr morgens, betreut von seinem Arzt Christoph Hartung von Hartungen in der Villa Helioburg starb. Am 4. April wurde er in Basel eingeäschert. Die Urne bewahrte Rudolf Steiner auf, bis sie im neuen Goetheanum aufgestellt wurde. Seit 1992 ist die Urne auf dem Goetheanum-Gelände beigesetzt. Nachlass Ein Teil von Morgensterns Nachlass liegt im Deutschen Literaturarchiv Marbach. Teile davon sind im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen, insbesondere die Originale der Galgenlieder. Nachwirkung und Rezeption Nach dem Tod des Dichters gab seine Witwe zahlreiche seiner Werke heraus, die sie teilweise neu ordnete und mit bisher unveröffentlichten Teilen des Nachlasses ergänzte (nur etwa die Hälfte seines Werks war zu Lebzeiten Morgensterns veröffentlicht worden). Seine sogenannte ernste Dichtung fand nie die Resonanz, die sich Morgenstern stets erhofft hatte, und blieb auch von der Forschung weitgehend unbeachtet. Einem größeren Leserkreis bekannt (und beliebt) wurde Morgenstern praktisch nur mit seiner humoristischen Dichtung. Besonders in seinen Galgenliedern entfaltet Morgenstern seinen liebenswürdigen, scharfsinnigen Sprachwitz, dessen Sinnentschlüsselung oft „eines zweiten und dritten Blicks“ bedarf. Die in der Forschung oft als literarischer Nonsens verkannten Morgenstern’schen Humoresken sind keineswegs bloße Spielerei, sondern, mit den Worten des Dichters gesprochen, „Spiel- und Ernst-Zeug“. Drei Beispiele der besonderen Sprachkomik Christian Morgensterns: Zum geflügelten Wort wurde der Schluss des Gedichts Die unmögliche Tatsache (aus Palmström): Und er kommt zu dem Ergebnis: Nur ein Traum war das Erlebnis. Weil, so schließt er messerscharf, nicht sein kann, was nicht sein darf. Sein Nasobēm inspirierte den Zoologen Gerolf Steiner zur Schöpfung der (fiktiven) Ordnung der Rhinogradentia, ein wissenschaftlich-satirischer Scherz, der sich international verbreitete und später seine bekannteste Nachahmung in Loriots Steinlaus fand. In Deutschland tragen Schulen verschiedenen Orten den Namen des Dichters, siehe Christian-Morgenstern-Schule. Am 8. Dezember 1998 wurde der Asteroid (9764) Morgenstern nach Christian Morgenstern benannt. Zum 100. Todestag des Dichters im März 2014 eröffnete das Christian Morgenstern Literatur-Museum auf dem sogenannten Galgenberg in Werder (Havel) bei Potsdam, wo die Galgenlieder entstanden sein sollen. Auf der Bismarckhöhe in Werder hat auch die Christian-Morgenstern-Gesellschaft (CMG e.V.) ihren Sitz. Ebenfalls zu seinem 100. Todestag stellten die Münchner Germanisten Markus May und Waldemar Fromm am 25. Oktober 2014 im Lyrik Kabinett in München neuere Ergebnisse der Morgensternforschung vor, insbesondere über die Vorläuferrolle Morgensterns für die großen Humoristen des 20. Jahrhunderts wie Robert Gernhardt und Ernst Jandl. Was ihre „Bürokratie-Kritik“ anbelangt, so Fromm, seien Franz Kafka und Morgenstern Brüder im Geiste: „Morgenstern baut bereits vor-kafkaeske Welten, um die Absurdität eines verwalteten Lebens zu zeigen.“ Ein Beispiel: Die Behörde Korf erhält vom Polizeibüro ein geharnischt Formular, wer er sei und wie und wo. Welchen Orts er bis anheute war, welchen Stands und überhaupt, wo geboren, Tag und Jahr. Ob ihm überhaupt erlaubt, hier zu leben und zu welchem Zweck, wieviel Geld er hat und was er glaubt. Umgekehrten Falls man ihn vom Fleck in Arrest verführen würde, und drunter steht: Borowsky, Heck. Korf erwidert darauf kurz und rund: „Einer hohen Direktion stellt sich, laut persönlichem Befund, untig angefertigte Person als nichtexistent im Eigen-Sinn bürgerlicher Konvention vor und aus und zeichnet, wennschonhin mitbedauernd nebigen Betreff, Korf. (An die Bezirksbehörde in –.)“ Staunend liest’s der anbetroffne Chef. Werke Zu Lebzeiten Morgensterns erschienen In Phanta’s Schloß. Ein Cyklus humoristisch-phantastischer Dichtungen. Taendler, Berlin 1895. Auf vielen Wegen. Gedichte. Schuster & Loeffler, Berlin 1897. Horatius Travestitus. Ein Studentenscherz. (Spätere Auflagen mit Einbandzeichnung von Karl Walser.) Schuster & Loeffler, Berlin 1897. Ich und die Welt. Gedichte. Schuster & Loeffler, Berlin 1898. Ein Sommer. Verse. S. Fischer, Berlin 1900. Und aber ründet sich ein Kranz. S. Fischer, Berlin 1902. Galgenlieder (mit Umschlagzeichnung von Karl Walser). Bruno Cassirer, Berlin 1905. Melancholie. Neue Gedichte. Bruno Cassirer, Berlin 1906. Osterbuch (Einbandtitel: ‚Hasenbuch‘). Kinderverse mit 16 Bildtafeln von K. F. Edmund von Freyhold. Bruno Cassirer, Berlin 1908; Neuauflagen: Inselbuch 1960 und Nomos Verlagsgesellschaft, Baden-Baden 1978, ISBN 3-937801-16-2. Palmström (mit Umschlagzeichnung von Karl Walser). Bruno Cassirer, Berlin 1910. Einkehr. Gedichte. Piper, München 1910. Ich und Du. Sonette, Ritornelle, Lieder. Piper, München 1911. Wir fanden einen Pfad. Neue Gedichte. Piper, München 1914. Digitale Werkausgabe Digitale Werkausgabe Aus dem Nachlass herausgegebene, erweiterte oder veränderte Ausgaben Palma Kunkel (mit Umschlagzeichnung von Karl Walser). Bruno Cassirer, Berlin 1916. Margareta Morgenstern, Michael Bauer (Hrsg.): Stufen. Eine Entwickelung in Aphorismen und Tagebuch-Notizen. Piper, München 1918. Der Gingganz (mit Umschlagzeichnung von Karl Walser). Bruno Cassirer, Berlin 1919. Margareta Morgenstern (Hrsg.): Epigramme und Sprüche. Piper, München 1919. Horatius travestitus: Ein Studentenscherz. 4. Auflage. Piper Verlag, München 1919, . Der Melderbaum (Gedicht). Die Geschichte des „Melderbaums“. Zwei Schuljahre aus dem Leben des Christian Morgenstern (Essay von „Ger. Trud“, d. i. Gertrud Isolani). A. R. Meyer, Berlin-Wilmersdorf 1920. Auf vielen Wegen (3., erweiterte und mit Ich und die Welt vereinigte Ausgabe). Piper, München 1920. Über die Galgenlieder. Mit Anmerkungen von Dr. Jeremias Müller. Bruno Cassirer, Berlin 1921. Ein Kranz (2., mit Ein Sommer vereinigte Ausgabe). Piper, München 1921. Klein Irmchen. Ein Kinderliederbuch. Mit Zeichnungen von Josua Leander Gampp. Bruno Cassirer, Berlin 1921. Margareta Morgenstern, Michael Bauer (Hrsg.): Mensch Wanderer. Gedichte aus den Jahren 1887–1914. Mit zwei Fotoporträts. Piper, München 1927. Die Schallmühle. Grotesken und Parodien. Mit vier Scherenschnitten von Christian Morgensterns Hand. Piper, München 1928. Auswahl. 113 Gedichte mit einem Nachwort von Michael Bauer. Piper, München 1929. Alle Galgenlieder (= Galgenlieder, Palmström, Palma Kunkel und Gingganz). Durch 14 Gedichte aus dem Nachlass erweitert und hrsg. von Margareta Morgenstern. Bruno Cassirer, Berlin 1932. Meine Liebe ist groß wie die weite Welt. Ausgewählte Gedichte (erw. Neu-Ausgabe von Auswahl). Hrsg. von Margareta Morgenstern. Mit einer Einleitung von Michael Bauer. Piper, München 1936. Böhmischer Jahrmarkt (neue vermehrte und veränderte Ausgabe der Schallmühle). Piper, München 1938. Wer vom Ziel nicht weiß, kann den Weg nicht haben. Für jeden Tag des Jahres ein Geleitwort. Zusammengestellt von Margareta Morgenstern. Piper, München 1939. Zeit und Ewigkeit. Ausgewählte Gedichte (z. T. bisher unveröffentlicht). Hrsg. von Margareta Morgenstern. Insel (Insel-Bücherei, Band 112), Leipzig 1940. Das aufgeklärte Mondschaf. 28 Galgenlieder und deren gemeinverständliche Deutung durch Jeremias Mueller. Hrsg. von Margareta Morgenstern. Insel, Leipzig 1941. Klaus Burrmann, der Tierweltphotograph. Mit Bildern von Fritz Beblo. Gerhard Stalling, Oldenburg 1941. Alle Galgenlieder. Insel-Verlag, Leipzig 1941. Liebe Sonne, liebe Erde. Ein Kinderliederbuch. Mit Bildern von Elsa Eisgruber (veränderte Neu-Ausgabe von Klein Irmchen). Gerhard Stalling, Oldenburg 1943. Ostermärchen. Mit farbigen Bildern von Willi Harwerth. Gerhard Stalling, Oldenburg 1945. Stilles Reifen. Neue Auswahl. Hrsg. von Margareta Morgenstern. Piper, München 1946. Man muß aus einem Licht fort in das andre gehn. Ein Spruchbuch. Hrsg. von Margareta Morgenstern. Piper, München 1948. Egon und Emilie. Neuausgabe der Grotesken und Parodien. Mit einem Vorwort von Margareta Morgenstern. Piper, München 1950. Sausebrand und Mausbarbier. Ein Kinderliederbuch (abermals veränderte Neuausgabe von Klein Irmchen). Mit Bildern von Martin Koser und Ruth Koser-Michaëls. Gerhard Stalling, Oldenburg 1951. Quellen des Lebens hör ich in mir singen. Der ausgewählten Gedichte zweiter Teil. Hrsg. von Margareta Morgenstern. Piper, München 1951. Ein Leben in Briefen. Hrsg. von Margareta Morgenstern. Insel, Wiesbaden 1952. Vom offenbaren Geheimnis. Aphorismen. Ausgewählt aus Stufen von Margareta Morgenstern. Piper (Piper-Bücherei 73), München 1954. Der Spielgeist. Vers und Prosa. Mit Zeichnungen von Hanns Erich Köhler. Fackelträger Verlag / Schmidt-Küster-Verlag, Hannover 1960 Gesammelte Werke in einem Band. Hrsg. von Margareta Morgenstern. Piper, München 1965. Die Versammlung der Nägel. Hrsg. von Margareta Morgenstern. Piper, München 1969. Palmström. Mit Holzstichen von Hans Peter Willberg. Sigbert Mohn Verlag, Gütersloh um 1970. Ausgewählte Werke. Hrsg. von Klaus Schuhmann. Insel-Verlag, Leipzig 1975. Alle Galgenlieder. Mit farbigen Zeichnungen von Dieter Kliesch. Büchergilde Gutenberg, Frankfurt am Main / Wien / Zürich 1984. Sämtliche Galgenlieder. Mit einem Nachwort von Leonard Forster und einer editorischen Notiz von Jens Jessen. Manesse Verlag, Zürich 1985, ISBN 3-7175-1696-5. O Greul! O Greul! O ganz abscheul! Beil und Hufeisen der Scharfrichter und Galgenbrüder. Hrsg. und mit einem Nachwort versehen von Karl Riha. Verlag Urachhaus, Stuttgart 1989, ISBN 3-87838-607-9. Gedichte in einem Band. Hrsg. von Reinhardt Habel. Insel, Frankfurt am Main 2003, ISBN 978-3-458-17169-0. Die Enten laufen Schlittschuh. Verse von Christian Morgenstern und Marianne Garff, Bilder von Ute Gerstenmaier. Verlag freies Geistesleben & Urachhaus, Stuttgart 2003, ISBN 3-8251-7446-8 Gedichte & Lieder. Ausgewählt und illustriert von Lisbeth Zwerger, Michael Neugebauer Verlag, Gossau Zürich 2003, ISBN 3-85195-324-X. Die Mausefalle. Mit Bildern von Peter Schössow. Carl Hanser Verlag, München/Wien 2006, ISBN 978-3-446-20695-3. Das Morgenstern-Lesebuch. Mit Illustrationen von Karsten Teich. Weltbild Buchverlag, Augsburg 2009, einschließlich CD mit 76 ausgewählten Gedichten, Sprecher Armin Berger, ISBN 978-3-86800-142-6. Morgenstern zum Vergnügen. Mit 9 Abbildungen. Hrsg. von Frank Möbus. Reclams Universalbibliothek Nr. 18929. Philipp Reclam, Stuttgart 2009, 2014, ISBN 978-3-15-018929-0. Lebenslust mit Christian Morgenstern, ausgewählt von Thomas Kluge, Insel Verlag, Berlin 2010, ISBN 978-3-458-35326-3. Ein Wiesel saß auf einem Kiesel und weitere Gedichte von Christian Morgenstern. Illustriert von Christine Sormann. Lappan Verlag, Oldenburg 2011, ISBN 978-3-8303-1181-2. Sämtliche Gedichte. Sonderausgabe zum 100. Geburtstag nach der Stuttgarter Ausgabe der Werke und Briefe. Hrsg. von Martin Kießig. 3 Bände. Urachhaus, Stuttgart 2013, ISBN 978-3-8251-7872-7. Christian Morgenstern für Große und Kleine. Gedichte. Hrsg. und illustriert von Reinhard Michl. Deutscher Taschenbuch Verlag, München 2014, ISBN 978-3-423-28024-2. Alle Galgenlieder. Grafiken von Hans Ticha. Büchergilde Gutenberg, Frankfurt am Main / Wien / Zürich 2014, ISBN 978-3-7632-6652-4. Die drei Spatzen. Illustriert von Anke am Berg. Eulenspiegel Kinderbuchverlag, Berlin 2011, ISBN 978-3-359-02336-4. Das Mondschaf steht auf weiter Flur. Gedichte und Sprüche. marixverlag, Wiesbaden 2014, ISBN 978-3-86539-351-7. Liebesgedichte. Ausgewählt und hrsg. von Jean-Claude Lin. 2. Auflage. Verlag Urachhaus, Stuttgart 2014, ISBN 978-3-8251-7886-4. Der Nachtschelm und das Siebenschwein, mit 13 Bildern von Daniela Drescher, Verlag Urachhaus, Stuttgart, 2. Auflage, ISBN 978-3-8251-7878-9. Das große Lalula. Illustriert von Ann Cathrin Raab. Prestel Verlag, München / London / New York 2016, ISBN 978-3-7913-7248-8. Als Gott den lieben Mond erschuf. Die schönsten Gedichte. Ausgewählt von Kim Landgraf, Anaconda Verlag, Köln 2017, ISBN 978-3-7306-0533-2. Osterbuch, bebildert von Konrad Ferdinand Edmund von Freyhold, Walde + Graf Verlagsagentur und Verlag GmbH, Berlin 2019, 1. Auflage, ISBN 978-3-946896-40-1. Übertragungen in andere Sprachen Das Mondschaf – The Moon Sheep. Eine Auswahl aus den Galgenliedern. Authorized English Version by A.E.W. Eitzen. Insel (Insel-Bücherei 696), Wiesbaden 1953. Palmstroem e altri Galgenlieder. Übersetzt von Anselmo Turazza. Libreria Antiquaria Palmaverde, Bologna 1955. The Gallows Songs. A selection. Transl., with an introd., by Max Knight, University of California Press, Berkeley, Los Angeles 1964, . Gallows Songs. Translated by W.D. Snodgrass and Lore Segal. Michigan Press, Ann Arbor 1967. Galgenlieder und andere Gedichte. Gallows Songs and other Poems, ausgewählt und ins Englische übertragen von Max Knight. Piper, München 1972. Cantares patibularios. Übersetzt von J. Francisco Elvira-Hernandez. Ediciones Sexifirmo, 1977. Songs from the Gallows: Galgenlieder. Translated by Walter Arndt. Yale University Press, New Haven 1993. Christian Morgenstern sechssprachig. Dreißig heitere Gedichte mit Übertragungen ins Englische, Französische, Hebräische, Italienische und Spanische. Mit 30 Grafiken von Igael Tumarkin. Hrsg. von Niels Hansen. Urachhaus, Stuttgart 2004, ISBN 3-8251-7476-X. Ich und Du (Toi et Moi) – Wir fanden einen Pfad (Nous trouvâmes un sentier). Zwei Christian-Morgenstern-Bände ins Französische übertragen von D. Blumenstihl-Roth, Peleman Verlag, 2014, ISBN 2-9522261-1-3. De Galgenliederen en andere groteske gedichten. Zweisprachige Ausgabe aller Galgenlieder, übersetzt von Bèr Wilbers. Uitgeverij Ijzer, Utrecht 2006, ISBN 90-74328-97-0. Palmŝtrojmo de Kristiano Morgenŝterno. Übersetzung von Rikardo Ŝulco. Esperanto-Centro Paderborn, Paderborn 1983, ISBN 3-922570-36-4. Carmina lunovilia – Das Mondschaf. Ausgewählt, ins Lateinische übertragen von Peter Wiesmann, Patmos Verlagsgruppe, Albatros Verlag, Mannheim 2010, ISBN 978-3-538-07601-3. Wij vonden een pad: gedichten, Uitgeverij Christofoor, Zeist 1999, ISBN 978-9-062383-57-3. Übersetzungen durch Christian Morgenstern August Strindberg: Inferno. Georg Bondi, Berlin 1898. Knut Hamsun: Abendröte. Schauspiel in drei Aufzügen. Langen, München 1904. Björnstjerne Björnson: Gedichte. In deutscher Übertragung von Max Bamberger, Ludwig Fulda, Cläre Mjöen, Christian Morgenstern und Roman Woerner, hrsg. von Julius Elias. Langen, München 1908. Henrik Ibsen: Sämtliche Werke in deutscher Sprache. Durchgesehen und eingeleitet von Georg Brandes, Julius Elias, Paul Schlenther. Übersetzt von Christian Morgenstern (u. a.), 10 Bände. S. Fischer, Berlin 1898–1904. Die grossen Dramen. Übersetzt von Christian Morgenstern und Emma Klingenfeld. Nachwort von A. Viviani. Artemis & Winkler, Zürich 2006, ISBN 978-3-538-06311-2. Vollständige und kommentierte Werkausgabe Stuttgarter Ausgabe des Verlags Urachhaus, Stuttgart, hrsg. unter der Leitung von Reinhardt Habel. Band 1: Lyrik 1887–1905, hrsg. von Martin Kiessig, 1988, ISBN 3-87838-501-3. Band 2: Lyrik 1906–1914, hrsg. von Martin Kiessig, 1992, ISBN 3-87838-502-1. Band 3: Humoristische Lyrik, hrsg. von Maurice Cureau, 1990, ISBN 3-87838-503-X. Band 4: Episches und Dramatisches, hrsg. von Reinhardt Habel und Ernst Kretschmer, 2001, ISBN 3-87838-504-8. Band 5: Aphorismen, hrsg. von Reinhardt Habel, 1987, ISBN 3-87838-505-6. Band 6: Kritische Schriften, hrsg. von Helmut Gumtau, 1987, ISBN 3-87838-506-4. Band 7: Briefwechsel 1878–1903, hrsg. von Katharina Breitner, 2005, ISBN 3-87838-507-2. Band 8: Briefwechsel 1905–1908, hrsg. von Katharina Breitner, 2011, ISBN 978-3-87838-508-0. Band 9: Briefwechsel 1909–1914, hrsg. von Agnes Harder, 2018, ISBN 978-3-87838-509-7. Morgensterns Werke auf Tonträgern (Auswahl) Morgenstern am Abend. Gert Fröbe rezitiert Christian Morgenstern. Kein & Aber Records, Eichborn, Frankfurt am Main 2000, ISBN 3-906547-31-0. Die Mitternachtsmaus. Christian Morgenstern, präsentiert von Monica Bleibtreu und Uwe Ochsenknecht. Patmos Verlag, Düsseldorf 2006, ISBN 3-491-24123-5. Lyrical Christian Morgenstern. Eine Komposition aus Musik und Poesie mit Christian Kaiser & Hans Kemner. L & M Literatur und Musik, Leuberg Edition, 1988. Der Papagei verrät dir nicht ein Wort. Katharina Thalbach spricht Christian Morgenstern, Audiobuch Verlag OHG, Freiburg 2014, ISBN 978-3-89964-771-6. Vertonungen Morgensternsche Gedichte wurden von vielen Komponisten vertont. Ausführliche Übersichten sind im Lied, Art Song, and Choral Texts Archive zu finden. Einige Beispiele: Paul Graener: Nacht- und Spukgesänge, Opus 79, 2 Hefte, Bote & Bock, Berlin, Wiesbaden, 1927 u. 1955. Yrjö Kilpinen: Lieder um den Tod, Opus 62, Bote und Bock, Berlin, Wiesbaden, 1934 u. 1962. Yrjö Kilpinen: Lieder der Liebe, Opus 60/61, Bote & Bock, Berlin, Wiesbaden, 1934 u. 1962. Franz Tischhauser (Komponist): Das Nasobem, für gemischten Chor a cappella, 1950, Uraufführung St. Gallen 1951. Wolfgang König (Komponist): „Morgensternlieder oder Das Kind im Menschen“, Beckum, im Oktober 2009 Vojtěch Saudek (1951–2003): Das große Lalula und andere Galgenlieder. Lieder für eine Singstimme und einen Schlagzeuger (Stephanie und Christoph Haas gewidmet). Paris 1999. Literatur (Neu aufgelegt 1985 durch Urachhaus, Stuttgart) Ueli Haldimann (Hrsg.): Hermann Hesse, Thomas Mann und andere in Arosa – Texte und Bilder aus zwei Jahrhunderten. AS Verlag und Buchkonzept, Zürich 2001, ISBN 3-905111-67-5, S. 65–71. Anthony T. Wilson: Über die Galgenlieder Christian Morgensterns. Königshausen und Neumann (= Epistemata – Würzburger wissenschaftliche Schriften. Reihe Literaturwissenschaft, Bd. 448), 2003, ISBN 978-3-8260-2490-0. Weblinks Christian Morgenstern im Internet Archive Leben und Werk von Christian Morgenstern Biografie, Interpretationen, Kurzinhalte, Bibliographie Wir fanden einen Pfad. Neue Gedichte (1914) (UB Bielefeld) Gedichte auf zgedichte.de Vertonungen im The LiederNet Archive Nachweise von Vertonungen Morgensternscher Gedichte Christian-Morgenstern-Literaturmuseum Einzelnachweise Autor Übersetzer aus dem Französischen Übersetzer aus dem Norwegischen Übersetzer ins Deutsche Literatur (19. Jahrhundert) Literatur (20. Jahrhundert) Literatur (Deutsch) Kinder- und Jugendliteratur Lyrik Aphoristiker Verlagslektor Theosoph (Theosophische Gesellschaft) Anthroposoph Schriftsteller (Berlin) Person als Namensgeber für einen Asteroiden Deutscher Geboren 1871 Gestorben 1914 Mann
883
https://de.wikipedia.org/wiki/Catjangbohne
Catjangbohne
Die Catjangbohne (Vigna unguiculata subsp. cylindrica), auch Katjangbohne oder Angolabohne, ist eine Nutzpflanze aus der Unterfamilie der Schmetterlingsblütler (Faboideae). Sie ist eng mit der Kuhbohne und der Spargelbohne verwandt. Taxonomisch wird sie entweder als Unterart cylindrica oder catjang oder als Sortengruppe 'Biflora' von Vigna unguiculata geführt. Merkmale Sie ähnelt stark der Nominatform der Art, der Augenbohne. Sie wächst strauchig bis 80 cm hoch oder kriechend-windend 30 cm hoch. Die dreifiedrigen Blätter stehen an langen Stielen. Das endständige Fiederblättchen ist 6 bis 16 cm lang. Die Blütentrauben stehen aufrecht und tragen paarig 4 bis 12 Blüten. Die Blütenfarbe ist variabel und reicht von Weiß bis Lila und Hellblau. Die jungen Hülsen stehen zunächst aufrecht, später können sie sich bis in eine waagrechte Position senken. Sie sind 7 bis 13 cm lang bei einem Durchmesser von 5 bis 7 mm, walzenförmig und gerade bis leicht gebogen. Zur Reifezeit färben sie sich von Grün über Gelb nach Braun. Die Samen sind 5 bis 6, selten bis 12 mm lang, 3 bis 8 mm breit und 4 bis 6 mm dick. Die Farbe ist meist dunkel, häufig rot, schwarzbraun bis schwarz oder schwarz gepunktet. Häufig haben sie einen dreieckigen, weißen Nabel. Ihre Inhaltsstoffe sind denen der Augenbohne sehr ähnlich. Die Chromosomenzahl beträgt 2n = 22. Anbau Die Catjangbohne stammt ursprünglich aus Afrika, kam aber sehr früh nach Asien. Hier liegt heute ihr Anbauschwerpunkt, wo sie als Trockenbohne und Gemüsepflanze genutzt wird. Statistiken fehlen. Sie wird vorwiegend in den Tiefländern der Tropen und Subtropen angebaut, in den Tropen gedeiht sie bis in Höhenlagen von 2000 Meter. Der Niederschlag soll zwischen 700 und 1700 mm liegen, wobei der Anbau so erfolgt, dass die Ernte nach der Regenzeit stattfindet. Zu hohe Niederschläge führen zu hohen Blattmassen und geringer Samenbildung. Die Temperatur soll zwischen 12 und 28 °C liegen, der Boden-pH zwischen 5 und 7,5. Die Pflanzen gedeihen auch auf leichten Böden, mittlere und schwere Böden führen zu höheren Erträgen. Die Erträge liegen meist unter einer Tonne Samen pro Hektar. Nutzung Dunkle Samen werden häufig als Tierfutter verwendet, die hellen werden eher vom Menschen gegessen. Ihnen wird eine bessere Verdaulichkeit zugesprochen. Blätter und junge Hülsen werden als Gemüse oder Salat verzehrt. Die ganzen Pflanzen werden auch als Grünfutter verwertet und liefern dann 20 bis 40 Tonnen Grünmasse pro Hektar. Literatur Walter H. Schuster, Joachim Alkämper, Richard Marquard & Adolf Stählin: Leguminosen zur Kornnutzung : Kornleguminosen der Welt, Justus-Liebig-Universität Gießen, 1998. : Joachim Alkämper: Informationen zur Catjang-Bohne (Vigna unguiculata (L.) Walp. ssp. cylindrica (L.) Eseltine). (deutsch) Einzelnachweise Vigna (Pflanze) Fruchtgemüse Blattgemüse Futterpflanze Bohne
884
https://de.wikipedia.org/wiki/Charles%20Darwin
Charles Darwin
Charles Robert Darwin [] (* 12. Februar 1809 in Shrewsbury; † 19. April 1882 in Down House/Grafschaft Kent) war ein britischer Naturforscher. Er gilt wegen seiner Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler. Die Ende 1831 begonnene und fast fünf Jahre andauernde zweite Reise mit der HMS Beagle, die den jungen Darwin einmal um die Welt führte, war zugleich Schlüsselerlebnis und Grundlage für sein späteres Werk. Der breiten Öffentlichkeit wurde Darwin erstmals durch seinen 1839 herausgegebenen Reisebericht bekannt. Mit seiner Theorie über die Entstehung der Korallenriffe und weiteren geologischen Schriften erlangte er in wissenschaftlichen Kreisen die Anerkennung als Geologe. Seine Untersuchungen an den Rankenfußkrebsen (Cirripedia) verschafften ihm Mitte der 1850er Jahre zusätzlich einen Ruf als angesehener Zoologe und Taxonom. Bereits 1838 entwarf Darwin seine Theorie der Anpassung an den Lebensraum durch Variation und natürliche Selektion und erklärte so die phylogenetische Entwicklung aller Organismen und ihre Aufspaltung in verschiedene Arten. Über 20 Jahre lang trug er Belege für diese Theorie zusammen. 1842 und 1844 verfasste Darwin kurze Abrisse seiner Theorie, die er jedoch nicht veröffentlichte. Ab 1856 arbeitete er an einem umfangreichen Manuskript mit dem Titel Natural Selection. Durch einen Brief von Alfred Russel Wallace, der dessen Ternate-Manuskript mit ähnlichen Gedanken zur Evolution enthielt, kam es im Sommer 1858 schließlich zu einer Veröffentlichung der Theorien über die Evolution durch beide. Ein Jahr später folgte Darwins Hauptwerk On the Origin of Species (Über die Entstehung der Arten), das als streng naturwissenschaftliche Erklärung für die Diversität des Lebens die Grundlage der modernen Evolutionsbiologie bildet und einen entscheidenden Wendepunkt in der Geschichte der modernen Biologie darstellt. 1871 diskutierte Darwin in The Descent of Man, and Selection in Relation to Sex (Die Abstammung des Menschen und die geschlechtliche Zuchtwahl) mit der sexuellen Selektion einen zweiten Selektionsmechanismus und nutzte seine Theorie, um die Abstammung des Menschen zu erklären. In seinem letzten Lebensjahrzehnt untersuchte Darwin Kletterpflanzen, Orchideen und fleischfressende Pflanzen und leistete wichtige Beiträge zur Botanik. Sein offizielles botanisches Autorenkürzel lautet „“. Leben und Werk Kindheit und Studium Charles Robert Darwin wurde am 12. Februar 1809 auf dem in Shrewsbury gelegenen Anwesen Mount House geboren. Er war das fünfte von sechs Kindern des Arztes Robert Darwin und dessen Ehefrau Susannah, geborene Wedgwood (1765–1817). Seine Großväter waren der Naturforscher und Dichter Erasmus Darwin und der Keramikfabrikant Josiah Wedgwood. Am 15. Juli 1817, als Charles Darwin acht Jahre alt war, starb seine Mutter. Seine drei älteren Schwestern Marianne (1798–1858), Caroline (1800–1888) und Susan (1803–1866) übernahmen seine Betreuung. Seit dem Frühjahr 1817 besuchte er die Tagesschule der Unitarier-Gemeinde. Seine Mutter war gläubige Unitarierin, sein Vater galt als ungläubig, Charles war hingegen in der anglikanischen Kirche getauft. Im Juni 1818 wechselte er an die von Samuel Butler geleitete private Internatsschule von Shrewsbury, auf der er sieben Jahre blieb. Dem konventionellen, auf alte Sprachen und Literatur ausgerichteten Unterricht konnte Darwin jedoch nicht viel abgewinnen. Das Durchdringen komplexer Sachverhalte wie Euklids Geometrie, in der ihn ein Privatlehrer unterrichtete, oder die Feineinstellung eines Barometers, die ihm sein Onkel Samuel Tertius Galton (1783–1844) erläuterte, bereiteten ihm hingegen Freude. Schon zu dieser Zeit sammelte Darwin Muscheln, Siegel, Münzen und Mineralien, und seine unablässigen Streifzüge durch die Natur, bei denen er die Verhaltensweisen von Vögeln untersuchte, schärften seine Beobachtungsgabe. Angeregt durch Experimente seines älteren Bruders Erasmus (1804–1881), die dieser in einem selbstgebauten Labor im elterlichen Geräteschuppen durchführte und bei denen Darwin mithelfen durfte, beschäftigte er sich intensiv mit Chemie. Charles sollte wie sein Vater Arzt werden und hatte bereits in dessen Praxis hospitiert. Im Oktober 1825 begann Darwin wie zuvor sein Bruder Erasmus an der Universität Edinburgh mit dem Medizinstudium. Die Vorlesungen, mit Ausnahme der Chemievorlesungen von Thomas Charles Hope, langweilten ihn. Er beschäftigte sich vornehmlich mit naturwissenschaftlichen Themen. Einflussreichster Lehrer in seiner Edinburgher Zeit war Robert Edmond Grant, ein Freidenker und Anhänger der Lamarckschen Evolutionslehre. Bei ihm lernte er Meereszoologie, wissenschaftliches Beobachten und die Bedeutung von genauen Aufzeichnungen. Er beschäftigte sich ebenfalls mit dem Präparieren von Vögeln, das er von John Edmonstone, einem ehemaligen schwarzen Sklaven, erlernte. Darwin war Mitglied der Royal Medical Society und der Studenten-Gesellschaft Plinian Society, in der er seinen ersten wissenschaftlichen Vortrag über die Selbstbeweglichkeit der Eier von Flustra (ein Moostierchen) hielt. Als Darwins Vater bemerkte, dass sich sein Sohn mit dem Studium der Medizin schwertat, schlug er ihm vor, Geistlicher der Kirche von England zu werden und ein Studium der Theologie zu beginnen. Nach kurzer Bedenkzeit willigte Darwin ein und begann im Januar 1828 mit dem Studium in Cambridge, nachdem er im Privatunterricht sein Griechisch aufgefrischt hatte. Zwar absolvierte Darwin seine theologischen Studien ohne Begeisterung und schätzte sie als Zeitverschwendung ein, jedoch bezeichnete er später seine Zeit in Cambridge als die glücklichste in seinem Leben. Er verschob auf Anraten seines Tutors John Graham (1794–1865), des späteren Bischofs von Chester, seine erste Vorprüfung, das sogenannte „Little Go“. Nach zweimonatiger Vorbereitungszeit bestand er im März 1830 das Little Go schließlich mit Leichtigkeit. Zur Vorbereitung für die Abschlussprüfung gehörten auch Werke von William Paley, einem Hauptvertreter der damals in England vorherrschenden Naturtheologie. Besonders Paleys Werk Natural Theology beeindruckte Darwin; Paleys Logik, Art der Beweisführung und Sprache sollten ihn auch später noch prägen. Am 22. Januar 1831 bestand er als zehntbester von 178 Studenten seine Abschlussprüfung, die Fragen zu Paley, Euklid sowie den griechischen und lateinischen Klassikern umfasste. Die Urkunde für den ersten akademischen Grad Baccalaureus Artium konnte er erst am 26. April 1831 entgegennehmen, da er aufgrund der am Anfang des Studiums versäumten Zeit noch zwei Semester in Cambridge bleiben musste. Zu Beginn seines Studiums am Christ’s College in Cambridge traf Darwin seinen Großcousin William Darwin Fox, der ihn in die Insektenkunde einführte und durch den er zu einem leidenschaftlichen Sammler von Käfern wurde. In den Sommermonaten unternahm er zahlreiche entomologische Exkursionen, die ihn meist nach Nord-Wales führten, und begleitete dabei unter anderen Frederick William Hope (1797–1862), George Leonard Jenyns (1763–1848) sowie Thomas Campbell Eyton und dessen Vater Thomas Eyton. Eine weitere kleine wissenschaftliche Anerkennung wurde ihm zuteil, als sein Name in dem im Juli 1829 erschienenen Werk Illustrations of British Entomology von James Francis Stephens genannt wurde. Hohe Wertschätzung brachte Darwin den Botanikvorlesungen von John Stevens Henslow entgegen. Durch seinen Großcousin Fox erhielt er Einladungen zu den regelmäßig in Henslows Haus stattfindenden Abenden, die dieser für Studenten durchführte, die noch keinen Abschluss hatten. Zwischen beiden entwickelte sich eine Freundschaft, die lebenslang anhielt und die Darwin als einflussreichste seines gesamten Werdeganges charakterisierte. Während seines letzten Jahres in Cambridge las er John Herschels Einführung in das Studium der Naturphilosophie und Alexander von Humboldts Reise in die Aequinoctial-Gegenden des neuen Continents. Aus Humboldts Werk machte er sich zahlreiche Notizen zur Kanarischen Insel Teneriffa und begann im April 1831, eine Reise dorthin zu planen. Er fing an, Spanisch zu lernen, was ihm Mühe bereitete. Er holte Informationen über Kosten und Termine von Passagen nach Teneriffa ein und musste enttäuscht feststellen, dass er die Reise nicht vor Juni 1832 antreten könnte. Bereits im Frühjahr 1831 hatte Henslow ihn überzeugt, sich mit Geologie zu beschäftigen, und ihn mit Adam Sedgwick, Professor für Geologie in Cambridge, bekannt gemacht. Im August 1831 unternahmen Darwin und Sedgwick eine geologische Exkursion nach Nord-Wales, auf der sie etwa eine Woche gemeinsam verbrachten. Nach seiner Rückkehr nach Shrewsbury am 29. August 1831 fand Darwin einen Brief Henslows vor. Dieser teilte Darwin darin mit, dass Kapitän Robert FitzRoy für seine nächste Fahrt mit der HMS Beagle einen standesgemäßen und naturwissenschaftlich gebildeten Begleiter suche und er ihn für diese Position empfohlen habe. FitzRoy befürchtete, ohne einen solchen Begleiter das Schicksal des ersten Kapitäns der HMS Beagle Pringle Stokes zu erleiden, der 1828 Suizid verübt hatte. Das Ziel der von FitzRoy geleiteten Expedition waren Patagonien und Feuerland an der Südspitze Südamerikas, um dort kartographische Messungen durchzuführen. Ebenso sollten die Küsten Chiles, Perus und einiger Südseeinseln vermessen werden. Nachdem sich Darwin und FitzRoy zur gegenseitigen Zufriedenheit kennengelernt hatten und er die Zustimmung seines Vaters zum geplanten Unternehmen erhalten hatte, reiste Darwin nach London. Die Reise mit der HMS Beagle Stürme verzögerten den Beginn der Vermessungsfahrt der HMS Beagle immer wieder. Erst am 27. Dezember 1831 stach die HMS Beagle von Devonport aus in See. Die Fahrt begann für Darwin unerfreulich. Er wurde sofort seekrank und sein Traum, die von Humboldt geschilderte artenreiche subtropische Vegetation auf der kanarischen Insel Teneriffa zu erkunden, scheiterte an einer Quarantäne, die aufgrund eines Choleraausbruchs in England über die Besatzung verhängt wurde. Die erste Zeit auf dem Schiff verbrachte Darwin damit, die in einem selbstkonstruierten, engmaschigen Schleppnetz gefangenen Organismen (die später als Plankton bezeichnet wurden) mikroskopisch zu untersuchen. Er begann sein erstes Notizbuch, dem zahlreiche weitere folgten, die er während der Reise zu unterschiedlichen Zwecken anlegte. Es gab Notizbücher, die er ausschließlich während der Exkursionen an Land benutzte. In seinen geologischen und zoologischen Notizbüchern ordnete er die an Land gewonnenen Eindrücke. In weitere Notizbücher trug er seine gesammelten Proben sorgsam nummeriert ein. Am 16. Januar 1832 konnte er bei Praia auf der kapverdischen Insel Santiago zum ersten Mal an Land gehen. Henslow hatte Darwin geraten, sich mit dem ersten Band von Charles Lyells Principles of Geology zu beschäftigen, und FitzRoy hatte ihm diesen vor der Abfahrt geschenkt. Während des gut dreiwöchigen Aufenthalts entdeckte er in den Klippen der Küste ein in 15 Meter Höhe verlaufendes waagerechtes Muschelschalenband und fand zum ersten Mal eine Bestätigung für Lyells Theorie der langsamen, graduellen, geologischen Formung der Erde. Fast genau zwei Monate nach der Abreise erreichte die HMS Beagle am 28. Februar 1832 die südamerikanische Ostküste und ankerte vor Salvador da Bahia in der Allerheiligenbucht. Darwin genoss den Tropischen Regenwald, beobachtete aber auch die Auswirkungen der Sklaverei, die er aufgrund seiner Erziehung ablehnte und über die er mit FitzRoy in Streit geriet. Zwei Monate später erhielt er in Rio de Janeiro die erste Post von zu Hause. Während die HMS Beagle die Vermessung der Küste fortsetzte, blieb Darwin mit einigen Besatzungsmitgliedern in Rio und unternahm geologische Untersuchungen entlang der Küste. In der zweiten Augusthälfte schickte er von Montevideo aus die ersten Proben, hauptsächlich geologische, an Henslow in Cambridge. Bis Ende Juni 1835 folgten sieben weitere Sendungen mit pflanzlichen, tierischen, fossilen und geologischen Fund- und Sammelstücken. Am 22. September 1832 entdeckte Darwin in der Nähe von Bahía Blanca in Punta Alta seine ersten Fossilien. Besser ausgerüstet konnte er am nächsten Tag den Schädel eines Megatheriums und ein gut erhaltenes Skelett eines Scelidotheriums, beides Riesenfaultiere, freilegen. Aus dem Fundort, einer Muschelschicht, schloss er, dass sich die beiden ausgestorbenen Tiere zeitgleich mit den sie umgebenden Muscheln entwickelt haben müssten. Über den Jahreswechsel hielt sich die HMS Beagle im Gebiet von Feuerland auf, wo für Reverend Richard Matthews und die drei in England erzogenen Feuerländer, die FitzRoy bei seiner ersten Fahrt nach England gebracht hatte, eine Missionsstation errichtet wurde. Als die HMS Beagle ein gutes Jahr später die Missionsstation erneut aufsuchte, war diese verlassen. Nach einem einmonatigen Aufenthalt auf den Falklandinseln setzte die HMS Beagle ihre Vermessungsarbeiten vor der südamerikanischen Ostküste fort. Darwin unternahm währenddessen von April bis November 1833 Exkursionen in das Landesinnere von Uruguay und Argentinien. Anfang Dezember verließ die HMS Beagle Montevideo, vermaß unter anderem Teile der Magellanstraße und erreichte am 11. Juni 1834 den Pazifischen Ozean. Über Chiloé, Valdivia und Concepción segelte die HMS Beagle nach Valparaíso, wo sie am 23. Juli 1834 eintraf und mehrere Wochen blieb. Darwin unternahm vom 14. August bis 27. September 1834 seine erste Expedition durch die Anden, die ihn ein erstes Mal bis nach Santiago führte. Während die HMS Beagle den Chonos-Archipel kartographierte, erkundete Darwin die geologische Beschaffenheit der Insel Chiloé. Am 20. Februar 1835 wurde er Zeuge des schweren, dreiminütigen Erdbebens bei Valdivia. Sechs Wochen später sahen er und FitzRoy bei einem Ritt zur schwer zerstörten Stadt Concepción die Auswirkungen dieses Bebens. Als Darwin Anfang März 1835 die Insel Quiriquina bei Talcahuano untersuchte, fand er marine Ablagerungen, die infolge des Erdbebens um einige Fuß gehoben worden waren, worin er eine weitere Bestätigung für Lyells Theorie und das Alter der Erde sah. Bei einer zweiten Anden-Expedition im März und April entdeckte er, dass das weit von der Küste entfernte Gebirge hauptsächlich aus submariner Lava bestand. Er fand fossile und versteinerte Bäume und begann, erste eigene geologische Theorien zu entwickeln. Bis zum Sommer unternahm er zwei weitere Expeditionen, bei denen er Untersuchungen in den Anden durchführte. Nach den bis zum 7. September 1835 andauernden Vermessungsarbeiten vor Chile und Peru verließ die HMS Beagle die südamerikanische Westküste endgültig und brach in Richtung Galapagosinseln auf. Am 18. September betrat Darwin auf San Cristóbal zum ersten Mal eine der zahlreichen Inseln. Die Vermessungsarbeiten dauerten gut einen Monat. Darwin konnte auf den Inseln Floreana, San Salvador sowie Isabela Untersuchungen vornehmen und Tier- und Pflanzenproben sammeln. Nicholas Lawson, der Direktor des Strafgefangenenlagers auf der Insel Floreana, machte ihn darauf aufmerksam, dass sich die auf den Galápagos-Inseln lebenden Schildkröten anhand ihrer Panzer bestimmten Inseln zuordnen ließen. Darwin schenkte zu diesem Zeitpunkt weder dieser Bemerkung noch den Galapagosfinken besonders viel Aufmerksamkeit. Am 20. Oktober 1835 brach die HMS Beagle zur Durchquerung des Pazifischen Ozeans auf. Gut drei Wochen später wurde das Atoll Puka-Puka im Tuamotu-Archipel gesichtet und am Abend des 15. November Tahiti erreicht, wo das Schiff zehn Tage ankerte. In Papeete trafen Darwin und FitzRoy mit der tahitianischen Königin Pomaré IV. zusammen. Während der Weiterfahrt nach Neuseeland vervollständigte Darwin seine Theorie über die Entstehung der Korallenriffe, die er bereits an der Westküste Südamerikas begonnen hatte. Den zehntägigen Aufenthalt im Norden der neuseeländischen Nordinsel nutzte Darwin erneut zu Exkursionen in das Landesinnere. Er besuchte die Missionare der Te Waimate Mission und untersuchte bei Kaikohe eigentümliche Formationen aus Kalkstein. Als die HMS Beagle am 12. Januar 1836 die Sydney Cove im Port Jackson vor Sydney in Australien erreichte, war Darwin erleichtert, endlich wieder in einer großen, kultivierten Stadt zu sein. Auf einem seiner Ausflüge begegnete er einigen Aborigines, die ihm – für einen Shilling – ihre Fähigkeiten im Speerwurf demonstrierten. In Hobart genoss Darwin, den es immer mehr nach Hause zog, die Gastfreundschaft des Generalvermessungsinspektors George Frankland (1800–1838). Er feierte seinen 27. Geburtstag, fing Skinke und Schlangen, sammelte Plattwürmer und zahlreiche Insekten, darunter Mistkäfer, die er in Kuhfladen fand. Die letzte Station des zweimonatigen Aufenthaltes in Australien war Albany. Die weitere Fahrt führte ihn auf die Kokosinseln sowie nach Mauritius und an der Südspitze von Madagaskar vorbei nach Südafrika. Am 31. Mai 1836 warf die HMS Beagle bei Simon’s Town in der Simons Bay die Anker. Darwin eilte auf dem Landweg nach Kapstadt, wo er sich mit John Herschel traf. Am 29. Juni querte die HMS Beagle den Südlichen Wendekreis. Auf St. Helena untersuchte er die Geologie der Insel und auf Ascension bestieg er den 859 Meter hohen Vulkan Green Mountain. Das heimatliche England rückte näher, doch am 23. Juni entschied sich Kapitän FitzRoy, noch einmal nach Salvador da Bahia an der Küste von Südamerika zurückzukehren, um fehlerhafte Messungen auszuschließen. Am 17. August 1836 ging die HMS Beagle endgültig auf Heimatkurs. Nochmals wurde Praia angesteuert und ein Zwischenstopp bei der Azoren-Insel Terceira eingelegt. Am 2. Oktober gegen 9 Uhr morgens lief das Schiff in den englischen Hafen Falmouth ein. Darwin machte sich sofort auf den Weg zu seiner Familie in Shrewsbury. Während der Rückreise hatte Darwin seine Notizen geordnet und mit Unterstützung seines Gehilfen Syms Covington insgesamt zwölf Kataloge seiner Sammlungen erstellt. Seine zoologischen Notizen umfassten 368 Seiten, die über Geologie waren mit 1383 Seiten etwa viermal so umfangreich. Zusätzlich hatte er 770 Seiten seines Reisetagebuchs beschrieben. 1529 in Spiritus konservierte Arten sowie 3907 Häute, Felle, Knochen, Pflanzen etc. waren das Ergebnis seiner fast fünfjährigen Reise. Rückblickend resümierte Darwin später in seiner Autobiographie: Zurück in England – Anfänge der Evolutionstheorie Darwins Name war bereits vor seiner Rückkehr im Oktober 1836 in wissenschaftlichen Kreisen bekannt, da Henslow, ohne dass Darwin davon wusste, einige seiner Briefe als Letters on Geology veröffentlicht hatte. Für kurze Zeit weilte Darwin in Cambridge, wo er an seiner Sammlung und am Manuskript des Journal arbeitete. Im März 1837 ließ er sich in London nieder. Hier schloss er bald Freundschaft mit Charles Lyell und Richard Owen. Der freundschaftliche Umgang mit Owen kühlte in späteren Jahren jedoch ab. In die Zeit nach der Rückkehr fallen Darwins erste Gedanken über den Artwandel, auch wenn Darwin selbst später diesen Zeitpunkt auf die Zeit in Südamerika vorverlegte. Sein Glaube an die Konstanz der Arten wurde vor allem durch die Arbeiten von John Gould im März 1837 über die Vögel der Galápagos-Inseln erschüttert. Darwin hatte den Vögeln auf der Reise kaum Aufmerksamkeit geschenkt, die gesammelten Exemplare auch nicht den einzelnen Inseln zugeordnet. Gould zeigte nicht nur, dass alle Arten eng verwandt (heute als Darwin-Finken zusammengefasst) sind, sondern dass bei diesen Vögeln keine klare Trennung zwischen Arten und Varietäten möglich ist, also keine klaren Artgrenzen bestehen. Darwins Überlegungen zur Entstehung der Arten waren begleitet von einer breit gefächerten Lektüre in den Bereichen Medizin, Psychologie, Naturwissenschaften, Philosophie, Theologie und politische Ökonomie. Das Ziel Darwins war es, die Entstehung von Arten auf naturwissenschaftliche Grundlagen zu stellen. Insbesondere lehnte er inzwischen die Naturtheologie Paleys ab, in deren Tradition er in Cambridge ausgebildet worden war. Viele von Darwins späteren Experimenten und Argumenten dienten dazu, Paleys argument from design zu widerlegen und Anpassungen auf natürliche Ursachen, nicht göttliches Wirken zurückzuführen. Dabei verwendete Darwin häufig die gleichen Beispiele wie Paley und ähnliche Argumente. Philosophisch war Darwin vor allem geprägt durch den englisch-schottischen Empirismus in der Tradition David Humes, aber auch durch Adam Smith, etwa dessen Theorie der moralischen Gefühle. Wissenschaftstheoretisch hatten John Herschel und William Whewell großen Einfluss auf ihn mit ihrer Betonung der Bedeutung von Induktion und Deduktion für die Naturwissenschaften. Darwin war spätestens im Sommer 1837 von der Veränderlichkeit der Arten überzeugt und begann, Informationen zu diesem Thema zu sammeln. In den folgenden 15 Monaten entstand langsam und schrittweise die Theorie, die er erst 1858/1859 veröffentlichen sollte. Im März 1837 begann Darwin mit der Niederschrift seiner Überlegungen in Notizbüchern, den Notebooks on Transmutation. Auf S. 36 des ersten Notizbuches, „B“, entwarf er unter der Überschrift I think eine erste Skizze von der Entstehung der Arten durch Aufspaltung. Eine wichtige Grundlage für seine Überlegungen war der Gradualismus, wie er ihn aus Lyells Principles of Geology kannte. Die Veränderlichkeit der Arten und den Auslesemechanismus (künstliche Selektion) kannte Darwin aus der Tier- und Pflanzenzucht. Als Kristallisationspunkt für die Ausformulierung seiner Selektionstheorie erwies sich das Wachstumsgesetz, wie es Thomas Robert Malthus in seinem Essay on the Principle of Population formuliert hatte und den Darwin im September 1838 las. Die Theorie von Malthus geht von der Beobachtung aus, dass die Bevölkerungszahl (ohne Kontrolle oder äußere Beschränkung) exponentiell wächst, während die Nahrungsmittelproduktion nur linear wächst. Somit kann das exponentielle Wachstum nur für eine beschränkte Zeit aufrechterhalten werden und irgendwann kommt es zu einem Kampf um die beschränkten Ressourcen. Darwin erkannte, dass sich dieses Gesetz auch auf andere Arten anwenden ließ und ein solcher Konkurrenzkampf dazu führen würde, dass vorteilhafte Variationen erhalten blieben und unvorteilhafte Variationen aus der Population verschwänden. Dieser Mechanismus der Selektion erklärte die Veränderung und auch die Entstehung von neuen Arten. Damit hatte Darwin eine „Theorie, mit der ich arbeiten konnte“. Die Zeit in London war die arbeitsreichste in Darwins Leben. Neben seinen umfangreichen Studien zur Evolution gab er die mehrbändige The Zoology of the Voyage of H.M.S. Beagle (1838–1843) heraus. Sein zunächst als 3. Band von The narrative of the voyages of H.M. Ships Adventure and Beagle (1839) veröffentlichtes Reisebuch war derart erfolgreich, dass es unter dem Titel Journal of Researches noch im selben Jahr separat veröffentlicht wurde. Es ist heute noch neben den Origins sein meistgelesenes Buch. Darwin verfasste die auf seinen Beobachtungen während der Reise beruhenden geologischen Arbeiten über den Aufbau der Korallenriffe (1842) und Vulkane (1844), die wesentlich zu seiner Reputation als Wissenschaftler beitrugen. Wie sehr Darwin in der Gesellschaft verankert war, zeigen seine Aufnahme in die Royal Society und den Athenaeum Club sowie seine Berufung zum Rat der Geological Society of London und zum Rat der Royal Geographical Society. Am 29. Januar 1839 heirateten Darwin und seine Cousine Emma Wedgwood (1808–1896), die Tochter seines Onkels Josiah Wedgwood II. Das gemeinsame Vermögen, das sowohl von seinem eigenen Vater als auch vom Vater der Braut stammte, ermöglichte Darwin ein Leben als Privatier. Er investierte das Vermögen in Grundbesitz und später vor allem in Eisenbahnaktien. In der Londoner Zeit kamen die Kinder William Erasmus (1839–1914), Anne (1841–1851) und Mary Eleanor (1842–1842) zur Welt. Mary Eleanor verstarb jedoch bereits nach wenigen Wochen. An William studierte Darwin die Ausdrucksformen des Säuglings, die er später veröffentlichen sollte. Rückzug nach Down House Im November 1842 zog sich die Familie Darwin in das Down House in die kleine, südlich von London gelegene Ortschaft Downe zurück. Hier erhoffte sich Darwin mehr Ruhe für seine angeschlagene Gesundheit. Bereits seit seiner Rückkehr von der Beagle-Reise, verstärkt seit 1839, hatten sich immer wieder Krankheitssymptome eingestellt, über deren Ursachen bis heute spekuliert wird. Die Symptome waren Schwächeanfälle, Magenschmerzen, Übelkeit und Erbrechen, erhöhter Puls und Atemprobleme. Darwin lebte daher sehr zurückgezogen, begab sich selten auf Reisen und verließ die Britische Insel zeit seines Lebens nicht mehr. Im September 1843 kam Tochter Henrietta zur Welt, der noch weitere sechs Kinder folgten: George Howard (1845–1912), Elizabeth (1847–1926), Francis (1848–1925), Leonard (1850–1943), Horace (1851–1928) und Charles Waring (1856–1858). 1843 begann seine Freundschaft mit dem Botaniker Joseph Dalton Hooker, der neben Lyell und Thomas Henry Huxley zu seinem stärksten Verbündeten werden sollte. In einem Brief am 11. Januar 1844 gab ihm Darwin erste Hinweise auf seine Evolutionstheorie und schrieb ihm, dass er „entgegen seiner ursprünglichen Auffassung nun beinahe überzeugt [sei], dass die Arten (es ist wie einen Mord zu gestehen) nicht unveränderlich“ seien. Hooker antwortete, dass seiner Meinung nach „eine graduelle Veränderung der Arten“ stattfinde und er, Hooker, auf Darwins Ansatz gespannt sei, da er bisher noch keine zufriedenstellende Erklärung gehört habe. Darwin hatte seine Überlegungen bereits 1842 in einer 35-seitigen Skizze dargelegt und arbeitete diese 1844 zu einem rund 230-seitigen Essay aus, den jedoch nur seine Frau Emma zu lesen bekam und den sie im Falle seines Todes veröffentlichen sollte. Beide Texte stimmten in Inhalt und Grundstruktur bereits mit dem 1859 veröffentlichten Buch überein. War die Transmutationslehre bis jetzt vorwiegend auf sozialistische, revolutionäre und teilweise medizinische Kreise beschränkt geblieben, hielt sie ab 1844 Einzug in bürgerliche Kreise: mit dem von Robert Chambers anonym publizierten Werk Vestiges of the Natural History of Creation, das – brillant, aber journalistisch geschrieben – rasch zum Bestseller wurde, in wissenschaftlichen Kreisen jedoch nicht ernst genommen wurde. Die nächsten Werke, die Darwin veröffentlichte, waren die Geologie der Vulkaninseln (Geological observations on the volcanic islands visited during the voyage of H.M.S. Beagle) 1844 und die Geologischen Beobachtungen in Südamerika (Geological observations on South America) 1846. Damit waren die Sammlungen seiner Weltreise nach zehn Jahren aufgearbeitet, mit Ausnahme eines seltsamen Exemplars der Rankenfußkrebse. Aus der Beschreibung dieser Art entwickelte sich eine acht Jahre dauernde Bearbeitung aller bekannten lebenden und fossilen Arten der gesamten Teilklasse Cirripedia. Diese Arbeit, die er in zwei dicken Bänden über die lebenden und zwei schmalen Bänden über die fossilen Vertreter publizierte, machte ihn zu einem anerkannten Taxonomen und brachte ihm 1853 die Royal Medal ein. Er erhielt Sammlungen aus ganz Europa, den USA und allen britischen Kolonien. Darwin selbst erkannte während der Arbeit die Bedeutung der Variation und des Individuums. In dieser Zeit entwickelte sich Hooker zum einzigen Ansprechpartner zum Thema Evolution und 1847 gab Darwin ihm seinen Essay zu lesen. 1849 begab sich Darwin zu einer 16-wöchigen Wasserkur nach Malvern in die Behandlung des Arztes James Gully, die seine Gesundheit wieder wesentlich besserte. In den folgenden Jahren benötigte Darwin immer wieder Kuren, um sich zu erholen, und er setzte die kalten Waschungen auch zu Hause fort. 1851 erkrankte seine Lieblingstochter Annie schwer und starb am 23. April 1851. Ihr Tod zerstörte die letzten Reste seines Glaubens an eine moralische, gerechte Welt, der seit seiner Rückkehr von der Beagle-Reise bereits stark geschwunden war. Darwin bezeichnete sich in seinem späteren Leben als Agnostiker. Nach Beendigung der Arbeit an den Rankenfußkrebsen nahm Darwin 1854 die Arbeit an der Evolutionstheorie wieder auf. In diesen Jahren führte er unzählige Experimente durch. Unter anderem versuchte er, eine Lösung für das Problem der Besiedlung von Inseln zu finden. Dafür untersuchte er beispielsweise die Überlebensfähigkeit von Pflanzensamen in Salzwasser und zog Vogelkot und Gewölle von Greifvögeln als Ausbreitungsmedien in Betracht. Für das Thema der Variation wandte er sich den Tierzüchtern zu, sammelte von diesen Informationen und begann selbst, Tauben zu züchten, um künstliche Selektion in der Praxis zu untersuchen. Charles Lyell, dem Darwin vieles über seine Ansichten mitteilte, drängte Darwin 1856 dazu, seine Erkenntnisse zu publizieren, damit ihm nicht jemand anders zuvorkomme. Grund für dieses Drängen war ein Aufsatz von Alfred Russel Wallace, On the Law which has regulated the introduction of New Species (1855), dessen Tragweite Darwin selbst aufgrund der verklausulierten Sprache Wallace’ verkannte. Darwin begann nun, seine Erkenntnisse in einem Manuskript niederzuschreiben, das den Titel Natural Selection trug. Die Arbeit zog sich aufgrund des umfangreichen Materials hin, im März 1858 waren zehn Kapitel, rund zwei Drittel des geplanten Umfangs, fertig. In der Zwischenzeit hatte er in Asa Gray in Harvard einen weiteren Korrespondenzpartner gefunden und ihm in einem Brief vom 5. September 1857 eine Zusammenfassung seiner Theorie dargelegt. Im Juli 1857 wurde Darwin zum Friedensrichter gewählt und im selben Jahr von der Deutschen Akademie der Naturforscher Leopoldina zum Mitglied ernannt. 1859 hatte Darwin abgeschätzt, dass es etwas mehr als 300 Millionen Jahre gedauert haben müsse, bis ein 500 Fuß hohes Kalkstein-Kliff im Süden Englands durch das Meer abgetragen wurde. Das Gestein selbst musste also wesentlich älter sein. Dies wurde von Lord Kelvin kontrovers als „vage Beobachtungen“ bezeichnet, da Kelvin mittels thermodynamischer Berechnungen aus Abkühlungszeiträumen der Erde – noch vor der Entdeckung der Radioaktivität – auf ein Erdalter von 20 bis 400 Millionen Jahre schloss. Über die Entstehung der Arten Wie berechtigt Lyells Drängen auf Publikation war, zeigte sich, als Darwin im Juni 1858 Post von Wallace von der Molukken-Insel Ternate bekam mit einem Manuskript namens On the Tendency of Varieties to depart indefinitely from the Original Type, das im Wesentlichen die gleichen Erklärungsmuster wie Darwins eigene Arbeit enthielt. Es verwendete den Begriff struggle for existence und stützte sich auf die Arbeiten von Lyell, Malthus, Lamarck und die Vestiges von Robert Chambers. Wallace bat Darwin um Weiterleitung des Manuskripts an Lyell, ohne jedoch eine mögliche Veröffentlichung zu erwähnen. Obwohl Darwin um seine Priorität bei der Veröffentlichung fürchtete, leitete er das Manuskript weiter. Da sein jüngster Sohn Charles Waring am 23. Juni an Scharlach erkrankte und wenige Tage später starb, überließ Darwin die Angelegenheit seinen Freunden Lyell und Hooker. Diese fanden die Lösung in einem gentlemanly agreement, das eine gemeinsame Vorstellung der Arbeiten Wallaces und Darwins beinhaltete, die am 1. Juli 1858 in einer Sitzung der Linnean Society stattfand. Weder die Verlesung noch der folgende Druck des Vortrages führte zu wesentlichen Reaktionen. Anstatt sein Buch Natural Selection zu beenden, was zu lange gedauert hätte, entschloss sich Darwin, eine Zusammenfassung des Buches zu publizieren. Aus dem geplanten Aufsatz wurde letztendlich wiederum ein Buch von rund 155.000 Wörtern. Hooker las und korrigierte das Manuskript. Der Verleger John Murray akzeptierte auf Vermittlung Lyells das Manuskript ungesehen und übernahm sogar die Kosten von 72 Pfund, die allein Darwins Änderungen in den Korrekturfahnen verursachten. Die Erstauflage wurde von den ursprünglich geplanten 500 auf 1250 erhöht. Am 22. November 1859 ging die vollständig vorbestellte Auflage von On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life (Die Entstehung der Arten) an den Handel und kam am 24. November in den Verkauf. Im Buch legte Darwin im Wesentlichen fünf voneinander unabhängige Theorien dar: die Evolution als solche, die Veränderlichkeit der Arten; die gemeinsame Abstammung aller Lebewesen; den Gradualismus, die Änderung durch kleinste Schritte; Vermehrung der Arten beziehungsweise Artbildung in Populationen und die natürliche Selektion als wichtigsten, wenn auch nicht einzigen Mechanismus der Evolution. Die Tatsache der Evolution wurde in den nächsten Jahren in Wissenschaftskreisen praktisch universell akzeptiert, sehr viel weniger allerdings die natürliche Selektion, mit der sich selbst Darwins Freunde Lyell und Asa Gray nicht anfreunden konnten. John Herschel kritisierte sie scharf als „law of the higgledy-piggledy“ („Regel von Kraut und Rüben“). Karl Ernst von Baer stellte sie sogar in die Nähe eines Wissenschaftsmärchens. Darwins väterlicher Freund Henslow lehnte die Evolution ab, blieb Darwin aber freundschaftlich verbunden. Sedgwick und Richard Owen veröffentlichten hingegen ablehnende Rezensionen. Darwins Freunde unterstützten das Buch mit mehreren Rezensionen, so Huxley in der Times. Im Juni 1860 kam es an der Universität Oxford während einer Sitzung der British Association for the Advancement of Science zwischen dem Unterstützer der Evolutionsgedanken Thomas Huxley und einem ihrer erklärten Gegner, dem Bischof von Oxford Samuel Wilberforce, in Abwesenheit von Darwin zu einem erbitterten Streitgespräch. In dessen Verlauf argumentierten Wilberforce und Darwins ehemaliger Kapitän Robert FitzRoy gegen, Huxley sowie Joseph Dalton Hooker für die Theorie. Beide Seiten beanspruchten den Sieg in der Debatte für sich. Die weiteren Bücher nach Über die Entstehung der Arten In den nächsten Jahren veröffentlichte Darwin noch drei bedeutsame Bücher, in denen er Aspekte der Evolutionstheorie wesentlich detaillierter ausarbeitete als im Buch Über die Entstehung der Arten. In The Variation of Animals and Plants under Domestication („Das Variieren der Thiere und Pflanzen im Zustande der Domestication“), das Ende Januar 1868 erschien, legte er all das von ihm in den letzten Jahrzehnten gesammelte Material vor, das die Variation, die Veränderlichkeit, von Tieren und Pflanzen unter dem Einfluss des Menschen zeigt. In diesem Buch präsentierte er auch seine Spekulationen über einen Vererbungsmechanismus, nämlich die Pangenesistheorie. Sie stieß selbst bei seinen Freunden auf Ablehnung und stellte sich als falsch heraus. Die Abstammung des Menschen zu erörtern, hatte Darwin bis zu diesem Zeitpunkt immer vermieden. Erst in dem 1871 erschienenen Buch The Descent of Man, and Selection in Relation to Sex (Die Abstammung des Menschen und die geschlechtliche Zuchtwahl) legte Darwin dar, was zu diesem Zeitpunkt bereits weithin diskutiert wurde und was bereits Huxley (Evidence as to Man’s Place in Nature, 1863) und Ernst Haeckel öffentlich vertreten hatten: die Verwandtschaft des Menschen mit dem Affen, mit dem er gemeinsame Vorfahren teilt. Die von Darwin als Erstem ausgesprochene Vermutung, der Mensch habe sich in Afrika entwickelt, erwies sich viel später als richtig. Darwin führte auch die geistigen Eigenschaften des Menschen auf evolutionäre Vorgänge zurück. Weiterhin betonte er die Einheit des Menschen als eine einzige Art und sprach sich dagegen aus, die Rassen (oder Subspezies) des Menschen als unterschiedliche Arten aufzufassen (im 7. Kapitel: „Über die Rassen des Menschen“). Die Entstehung dieser Menschenrassen erklärte er durch sexuelle Selektion. Im zweiten Teil des Buches konzentrierte er sich auf die sexuelle Selektion, die Auswahl von Partnern durch das andere Geschlecht. Mit dieser Theorie konnte Darwin Phänomene wie das Hirschgeweih erklären, die es aufgrund der natürlichen Selektion nicht geben dürfte. Das Buch war ebenfalls eine Antwort auf das Buch The Reign of Law des liberalen Duke of Argyll, in dem dieser, von Owen beeinflusst, Darwins natürliche Selektion angegriffen und den Ursprung der Naturgesetze auf Gott zurückgeführt hatte. 1872 folgte On the Expression of the Emotions in Man and Animals (Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren), in dem Darwin darlegte, dass auch die Gefühle und deren Ausdrucksweise bei Mensch und Tieren gleich und wie äußere Merkmale durch Evolution entstanden sind. Das Buch war zugleich eine Argumentation gegen Charles Bell und dessen Buch Anatomy and Physiology of Expression, in dem dieser die Meinung vertrat, dass die Gesichtsmuskeln des Menschen zu dem Zweck geschaffen wurden, seine Gefühle auszudrücken. Im selben Jahr kam noch die sechste und zugleich letzte Auflage von Entstehung der Arten heraus. In jeder Auflage hatte Darwin zahlreiche Änderungen durchgeführt, Fehler korrigiert und war auf Kritik eingegangen. 1874 wurde Darwin in die American Academy of Arts and Sciences gewählt. Das letzte Jahrzehnt: Botanik In seinem letzten Lebensjahrzehnt konzentrierte sich Darwins Publikationstätigkeit auf botanische Themen. Darwin führte zu diesem Zweck zahlreiche Versuche durch, bei denen ihn besonders sein Sohn Francis unterstützte. The Movements and Habits of Climbing Plants (Über die Bewegungen der Schlingpflanzen) von 1867 (erweiterte 2. Auflage 1875) und das mit 592 Seiten sehr umfangreiche Buch The Power of Movement in Plants (Das Bewegungsvermögen der Pflanzen) von 1880 sind grundlegende Werke der Pflanzenphysiologie. Bei der Beobachtung der Reizbarkeit von Hafer-Koleoptilen postulierte er einen Botenstoff (Hormon), der Jahrzehnte später als Auxin identifiziert werden sollte. Er untersuchte die Reaktion der Wurzelspitzen auf Reize und setzte dabei die Wurzelspitze der Pflanzen in Analogie zu den Gehirnen von Niederen Tieren, ein Gedanke, der im 21. Jahrhundert als Pflanzenintelligenz im Umkreis der kontrovers diskutierten Pflanzenneurobiologie wieder zu Ehren kam. Darwin entdeckte die Circumnutation, die endogen gesteuerte Kreisbewegung vieler Pflanzen. In seinem Buch Insectivorous Plants (Insectenfressende Pflanzen) von 1875 konnte er nachweisen, dass manche Pflanzen tatsächlich fleischfressend sind. In drei Arbeiten beschäftigte er sich mit Blütenbiologie: In On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing (Über die Einrichtungen zur Befruchtung Britischer und ausländischer Orchideen durch Insekten und über die günstigen Erfolge der Wechselbefruchtung) (1862) zeigte er, dass der Blütenbau der Orchideen dazu dient, eine möglichst hohe Rate an Fremdbestäubung zu erreichen. Er beschrieb die Täuschblumen wie etwa der Fliegen-Ragwurz, die Grabwespenweibchen nachahmt und damit die Männchen anlockt. Für die madagassische Orchidee Angraecum sesquipedale mit einem 25 cm langen Nektarsporn sagte er einen bestäubenden Schmetterling mit einem ebenso langen Rüssel vorher, der erst Jahre später entdeckt werden sollte. Seine Veröffentlichung The effects of cross and self fertilisation in the vegetable kingdom (Die Wirkungen der Kreuz- und Selbst-Befruchtung im Pflanzenreich) (1876) war das Ergebnis umfangreicher Bestäubungsexperimente seit 1866, die er teilweise über zehn Pflanzengenerationen hinweg durchführte. Fremdbestäubung führte in den meisten Fällen zu stärkeren Nachkommen als Selbstbestäubung. In The different forms of flowers on plants of the same species (Die verschiedenen Blüthenformen an Pflanzen der nämlichen Art) (1877) zeigte er, dass die unterschiedlichen Blütenformen mancher Pflanzen ebenfalls dazu dienen, Fremdbestäubung sicherzustellen, etwa bei Heterostylie. Das Buch war eines der wenigen, die Darwin einer Person widmete: Asa Gray. Das letzte Buch Darwins behandelte ein Thema, das ihn über 40 Jahre beschäftigt hatte: die Tätigkeit der Regenwürmer. The formation of vegetable mould, through the action of worms, with observations on their habits (Die Bildung der Ackererde durch die Tätigkeit der Würmer) kam 1881 heraus, wenige Monate vor Darwins Tod. Er postulierte hier eine zentrale Rolle der Regenwürmer in der Boden- und Humusbildung. In einem 30 Jahre dauernden Freilandexperiment zeigte er, dass durch die Arbeit der Regenwürmer Kalkstückchen von der Oberfläche bis 18 cm tief in den Boden eingearbeitet werden. Er widerlegte auch die damals weit verbreitete Meinung, Regenwürmer seien schädlich für den Pflanzenbau. Mit diesem Werk war Darwin einer der Wegbereiter der Bodenbiologie. Auf Darwins Initiative hin wurde der Index Kewensis geschaffen, dessen weitere Finanzierung er testamentarisch regelte. Charles Darwin starb am 19. April 1882 im Alter von 73 Jahren in seinem Haus in Downe. Er wurde am 26. April in der Westminster Abbey beigesetzt, zu Füßen des Monuments für Sir Isaac Newton und neben Sir John Herschel. Einer seiner Sargträger war Alfred Russel Wallace. Die Errichtung einer Statue im neuen Natural History Museum musste bis 1885 warten, bis zur Pensionierung Richard Owens. Rezeption und Nachwirkung Charles Darwin gilt durch seine wesentlichen Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler überhaupt und ist durch diese Leistung auch im Bewusstsein der Öffentlichkeit immer noch stark präsent. So wurde Darwin 1992 in einer Liste der einflussreichsten Personen in der Geschichte auf dem 16. Platz gereiht, und in Großbritannien wurde er auf den vierten Platz der 100 Greatest Britons gewählt. Heute stellt die von Darwin mitbegründete und seitdem ständig weiterentwickelte Evolutionstheorie für die Biologie das grundlegende Paradigma dar: Durch sie werden alle biologischen Teildisziplinen, wie Zoologie, Botanik, Verhaltensforschung, Embryologie und Genetik, „unter einem einheitlichen Dach“ versammelt. Theodosius Dobzhansky formulierte dies 1973 prägnant in dem vielzitierten Satz: Darwins Werke, allen voran Entstehung der Arten und Abstammung des Menschen, lösten schon kurz nach ihrem Erscheinen eine Flut von Rezensionen und Reaktionen aus. Darwins Theorien berührten nicht nur biologische Fragestellungen, sie hatten auch „weitreichende Implikationen für Theologie, Philosophie und andere Geisteswissenschaften sowie für den Bereich des Politischen und Sozialen“. Darwins Theorien wurden nicht nur in Wissenschaftskreisen, sondern auch vom Klerus und der breiten Öffentlichkeit diskutiert. Themen waren beispielsweise das Teleologieproblem, die Rolle eines Schöpfers, das Leib-Seele-Problem oder die Stellung des Menschen in der Natur. Dass der Mensch keine eigenständige Schöpfung ist, sondern ein Evolutionsprodukt wie Millionen anderer Arten, stand im Widerspruch zur kirchlichen Lehre sowie vielen philosophischen Schulen. Sigmund Freud bezeichnete die Evolutionstheorie als eine der drei Kränkungen der Eigenliebe der Menschheit. Wichtige Teile seiner Theorie hatten sich rasch durchgesetzt: die Tatsache der Evolution an sich und die gemeinsame Abstammung. Der Mechanismus der Selektion blieb jedoch lange umstritten und nur einer von mehreren diskutierten Mechanismen. Beim ersten großen Jubiläum anlässlich Darwins 100. Geburtstag 1909 gab es fast niemanden, der die Selektionstheorie unterstützte. Diese Zeit wurde später von Julian Huxley als „Finsternis des Darwinismus“ (eclipse of Darwinism) bezeichnet. Erst die synthetische Evolutionstheorie, auch als zweite darwinsche Revolution bezeichnet, verhalf auch der Selektionstheorie zum Durchbruch. Im 20. Jahrhundert entstanden unter dem Einfluss Darwins neue Disziplinen wie die Verhaltensforschung und die Soziobiologie, deren Anwendung auf den Menschen in der Philosophie als „evolutionäre Ethik“ diskutiert wird. Die Evolutionäre Erkenntnistheorie geht letzten Endes auf Darwin zurück und wichtige Elemente der Evolutionsökonomik wurden von seinem Werk beeinflusst. Eine missbräuchliche Umdeutung und Übertragung ins Politische erfuhren Darwins Theorien in der Ideologie des Sozialdarwinismus. Diese unter anderem auf einem naturalistischen Fehlschluss beruhende Übertragung lässt sich weder zwangsläufig aus Darwins Werk ableiten, noch entspricht sie im Entferntesten Darwins Welt- und Menschenbild. Ehrungen Nach Darwin wurden u. a. die Darwinfinken, die eozäne Primatengattung Darwinius, der Nasenfrosch Rhinoderma darwinii und die südamerikanische Berberitze Berberis darwinii benannt. Außerdem tragen folgende Orte seinen Namen: Charles-Darwin-Nationalpark (Australien), Charles Darwin University (Australien), Darwin College in Cambridge (England), Darwin (Falklandinseln), Darwin (Australien), Darwin-Gletscher und Mount Darwin (Kalifornien), Isla Darwin, Darwin Island (Antarktis), Darwin Sound (Kanada), Darwin Sound (Feuerland), Monte Darwin (Feuerland), Mount Darwin (Tasmanien), Cordillera Darwin (Chile) sowie Kap Darwin (Ostantarktis). Der Asteroid (1991) Darwin, der Mondkrater Darwin und ein Marskrater sind ebenfalls nach ihm benannt. Der Zoo Rostock eröffnete 2012 das Darwineum, eine Mischung aus Zoo und Museum, in welchem die Evolution erläutert wird. Werke Englische Erstausgaben The Zoology of the Voyage of H.M.S. Beagle. Smith, Elder & Co., London 1838–1843 (als Herausgeber); digitalisierte Fassung Journal and remarks. 1832–1836. Bd. 3 von P. Parker King, Robert FitzRoy, Charles Darwin: The narrative of the voyages of H.M. Ships Adventure and Beagle. Henry Colburn, London 1838–1839; digitalisierte Fassung; als eigenständige Veröffentlichung: Journal of researches into the geology and natural history of the various countries visited by H.M.S. Beagle Henry Colburn, London 1839. Geology of the Voyage of the Beagle. 3 Bände, Smith, Elder & Co, London 1842–1846: The structure and distribution of coral reefs. Being the first part of the geology of the voyage of the Beagle, under the command of Capt. FitzRoy, R.N. during the years 1832 to 1836. Smith, Elder & Co., London 1842; digitalisierte Fassung Geological observations on the volcanic islands visited during the voyage of H.M.S. Beagle, together with some brief notices of the geology of Australia and the Cape of Good Hope. Being the second part of the geology of the voyage of the Beagle, under the command of Capt. FitzRoy, R.N. during the years 1832 to 1836. Smith, Elder & Co., London 1844; digitalisierte Fassung Geological observations on South America. Being the third part of the geology of the voyage of the Beagle, under the command of Capt. FitzRoy, R.N. during the years 1832 to 1836. Smith, Elder & Co., London 1846; digitalisierte Fassung Living Cirripedia. 2 Bände, The Ray Society, London 1852–1854 Living Cirripedia, A monograph on the sub-class Cirripedia, with figures of all the species. The Lepadidae; or, pedunculated cirripedes. London: The Ray Society 1852; digitalisierte Fassung Living Cirripedia, The Balanidae, (or sessile cirripedes); the Verrucidae. The Ray Society, London 1854; digitalisierte Fassung Fossil Cirripedia of Great Britain. 2 Bände, Palaeontographical Society, London 1851–1855 Fossil Cirripedia of Great Britain: A monograph on the fossil Lepadidae, or pedunculated cirripedes of Great Britain. London: Palaeontographical Society 1851; digitalisierte Fassung A monograph on the fossil Balanidae and Verrucidae of Great Britain. Palaeontographical Society, London 1855; digitalisierte Fassung On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. John Murray, London 1859; digitalisierte Fassung On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing. John Murray, London 1862; digitalisierte Fassung On the movements and habits of climbing plants. In: Journal of the Linnean Society of London (Botany). Bd. 9, S. 1–118; digitalisierte Fassung The variation of animals and plants under domestication. John Murray, London 1868; digitalisierte Fassungen The descent of man, and selection in relation to sex. John Murray, London 1871; digitalisierte Fassungen The expression of the emotions in man and animals. John Murray, London 1872; digitalisierte Fassung Insectivorous Plants. John Murray, London 1875; digitalisierte Fassung The effects of cross and self fertilisation in the vegetable kingdom. John Murray, London 1876; digitalisierte Fassung The different forms of flowers on plants of the same species. John Murray, London 1877; digitalisierte Fassung The power of movement in plants. John Murray, London 1880; digitalisierte Fassung The formation of vegetable mould, through the action of worms, with observations on their habits. John Murray, London 1881 digitalisierte Fassung Deutsche Erstausgaben Charles Darwin’s Naturwissenschaftliche Reisen nach den Inseln des grünen Vorgebirges, Südamerika, dem Feuerlande, den Falkland-Inseln, Chiloé-Inseln, Galápagos-Inseln, Otaheiti, Neuholland, Neuseeland, Van Diemen’s Land, Keeling-Inseln, Mauritius, St. Helena, den Azoren ec. Deutsch und mit Anmerkungen von Ernst Dieffenbach. Fr. Vieweg und Sohn, Braunschweig 1844, Digitalisat. Über die Entstehung der Arten im Thier- und Pflanzen-Reich durch natürliche Züchtung, oder Erhaltung der vervollkommneten Rassen im Kampfe um’s Daseyn. Nach der zweiten [englischen] Auflage mit einer geschichtlichen Vorrede und anderen Zusätzen des Verfassers für diese deutsche Ausgabe aus dem Englischen übersetzt und mit Anmerkungen versehen von Dr. H. G. Bronn. E. Schweizerbart’sche Verlagshandlung und Druckerei, Stuttgart 1860; digitalisierte Fassung Über die Einrichtungen zur Befruchtung Britischer und ausländischer Orchideen durch Insekten und über die günstigen Erfolge der Wechselbefruchtung. Mit Nachträgen und Verbesserungen des Verfassers aus dem Englischen übersetzt von H. G. Bronn. E. Schweizerbart’sche Verlagshandlung und Druckerei, Stuttgart 1862. Über die Bewegungen der Schlingpflanzen. Auszugsweise nach einer Abhandlung enthalten in dem „Journal of the Linnean Society, IX, S. 1–118. Referat von A.W. Eichler.“ In: Flora oder allgemeine botanische Zeitung. Neue Reihe, Bd. 24, S. 241–252, S. 273–282, S. 321–325, S. 337–345, S. 375–378, S. 385–398. Das Variieren der Thiere und Pflanzen im Zustande der Domestication. 2 Bände. Aus dem Englischen übersetzt von J. Victor Carus. Mit den Berichtigungen und Zusätzen des Verfassers zur 2. englischen Ausgabe und mit einem Register. E. Schweizerbart’sche Verlagshandlung (E. Koch), Stuttgart 1868 Die Abstammung des Menschen und die geschlechtliche Zuchtwahl. 2 Bände. Aus dem Englischen übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung (E. Koch), Stuttgart 1871; Digitalisat der 3. Auflage von 1875 = Übersetzung von Darwins Neubearbeitung von 1874 Der Ausdruck der Gemüthsbewegungen bei dem Menschen und den Thieren. Aus dem Englischen übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung (E. Koch), Stuttgart 1872 Ch. Darwin’s gesammelte Werke. Aus dem Englischen übersetzt von J. Victor Carus. Autorisirte deutsche Ausgabe. 16 Bände. E. Schweizerbart’sche Verlagshandlung (E. Koch), Stuttgart 1874–1888 Reise eines Naturforschers um die Welt. Aus den Englischen übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung (E. Koch), Stuttgart 1875. Insectenfressende Pflanzen. Übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung und Druckerei (E. Koch), Stuttgart 1876; , digitalisierte Fassung Die verschiedenen Blüthenformen an Pflanzen der nämlichen Art. Übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung und Druckerei (E. Koch), Stuttgart 1877; digitalisierte Fassung Die Wirkungen der Kreuz- und Selbst-Befruchtung im Pflanzenreich. Übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung und Druckerei (E. Koch), Stuttgart 1877; digitalisierte Fassung Das Bewegungsvermögen der Pflanzen. Übersetzt von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung und Druckerei (E. Koch), Stuttgart 1881; digitalisierte Fassung Die Bildung der Ackererde durch die Thätigkeit der Würmer. Aus dem Englischen von J. Victor Carus. E. Schweizerbart’sche Verlagshandlung und Druckerei (E. Koch), Stuttgart 1882; digitalisierte Fassung. Über den Instinkt. In: G. John Romanes: Die geistige Entwicklung im Tierreich. Nebst einer nachgelassenen Arbeit: ‚Über den Instinkt‘ von Charles Darwin. Ernst Günthers Verlag, Leipzig 1885 (Volltext bei archive.org). Moderne Ausgaben (Auswahl) Der Ursprung der Arten durch natürliche Selektion oder Die Erhaltung begünstigter Rassen im Existenzkampf. Klett-Cotta, Stuttgart 2018, übersetzt von Eike Schönfeld, ISBN 978-3-608-96115-7. P. H. Barrett, R. B. Freeman (Hrsg.): The Works of Charles Darwin. 29 Bände, The Pickering Masters, London 1986–1989. P. H. Barrett: The Collected Papers of Charles Darwin. 2 Bände, Chicago, London 1977. P. H. Barrett, P. J. Gautrey, S. Herbert, D. Kohn, S. Smith (Hrsg.): Charles Darwin’s Notebooks, 1836–1844. New York 1987, ISBN 0-521-35055-7. F. Burkhardt, S. Smith u. a. (Hrsg.): The Correspondence of Charles Darwin. Bd. 1 ff., Cambridge 1985 ff. Gesammelte Werke. Nach der Übers. aus dem Englischen von: J. Victor Carus, Zweitausendeins, Frankfurt am Main 2006, ISBN 3-86150-773-0. P. Wrede, S. Wrede (Hrsg.): Charles Darwin: Die Entstehung der Arten. Kommentierte und illustrierte Ausgabe, Wiley-VCH, Weinheim 2012, ISBN 978-3-527-33256-4. Weiterführende Literatur Peter J. Bowler: Darwin Deleted. Imagining a World Without Darwin. University of Chicago Press, Chicago 2013, ISBN 978-0-226-06867-1. Janet Browne: Charles Darwin. The Power of Place. 2 Bände, Knopf, New York 2002. Eve-Marie Engels (Hrsg.): Charles Darwin und seine Wirkung. Suhrkamp, Frankfurt am Main 2009, ISBN 978-3-518-29503-8. Johannes Hemleben: Charles Darwin: Mit Selbstzeugnissen und Bilddokumenten. 14. Auflage. Rowohlt Taschenbuch Verlag, Reinbek 2004, ISBN 3-499-50137-6. S. Herbert: Charles Darwin, Geologist. Cornell University Press, Ithaca 2005, ISBN 0-8014-4348-2. Rebecca Stott: Darwin and the Barnacle. Faber and Faber, London 2003, ISBN 0-571-20966-1. Charles Darwin – Die Fahrt der Beagle. Druck: Clausen & Bosse, Leck, marebuchverlag, Hamburg 2006, ISBN 978-3-936384-95-6. Weblinks The Complete Work of Charles Darwin Online – Gesamtedition von Darwins Schriften The Darwin Correspondence Project – Darwins Briefe The Darwin Digital Library of Evolution beim American Museum of Natural History Nachweise Literatur Nora Barlow (Hrsg.): The Autobiography of Charles Darwin 1809–1882. With the Original Omissions Restored. Edited and with Appendix and Notes by his Grand-daughter Nora Barlow. 1958 online (deutsch zuletzt Insel Verlag, Frankfurt, ISBN 978-3-458-35070-5) Janet Browne: Charles Darwin: Voyaging. Jonathan Cape, London 1995, Princeton UP 1996 Janet Browne: Charles Darwin: The Power of Place. Jonathan Cape, London 2002 Adrian Desmond, James R. Moore: Darwin. List Verlag, München/Leipzig 1991, ISBN 3-471-77338-X. Eve-Marie Engels: Charles Darwin. C. H. Beck, München 2007, ISBN 978-3-406-54763-8. Franz Wuketits: Darwin und der Darwinismus. C. H. Beck, München 2005, ISBN 3-406-50881-2. Einzelnachweise Autor Evolutionsbiologe Evolutionspsychologe Zoologe Botaniker (19. Jahrhundert) Mitglied der Accademia dei Lincei Mitglied der Leopoldina (19. Jahrhundert) Träger der Copley-Medaille Träger des Pour le Mérite (Friedensklasse) Mitglied der Royal Society Mitglied der Royal Society of Edinburgh Mitglied der Königlich Schwedischen Akademie der Wissenschaften Mitglied der American Philosophical Society Mitglied der Ungarischen Akademie der Wissenschaften Mitglied der Königlich Niederländischen Akademie der Wissenschaften Korrespondierendes Mitglied der Académie des sciences Mitglied der Preußischen Akademie der Wissenschaften Mitglied der Bayerischen Akademie der Wissenschaften Mitglied der American Academy of Arts and Sciences Korrespondierendes Mitglied der Russischen Akademie der Wissenschaften Mitglied der Königlichen Akademie der Wissenschaften und Schönen Künste von Belgien Mitglied der Accademia delle Scienze di Torino Charles Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Marskrater Person als Namensgeber für einen Mondkrater Namensgeber für eine Pflanzenart Weltumsegler Person (Unitarismus) Brite Geboren 1809 Gestorben 1882 Mann
885
https://de.wikipedia.org/wiki/Codex%20Manesse
Codex Manesse
Der Codex Manesse (auch Manessische Liederhandschrift oder Manessische Handschrift, nach dem jeweiligen Aufbewahrungsort auch als Große Heidelberger Liederhandschrift oder Pariser Handschrift bezeichnet) ist die umfangreichste und berühmteste deutsche Liederhandschrift des Mittelalters. So benannt wurde sie von dem Schweizer Gelehrten Johann Jakob Bodmer nach einer umfangreichen Liedersammlung der Schweizer Patrizierfamilie Manesse. Von Germanisten wird die Sammlung seit Karl Lachmann kurz mit dem Sigel C bezeichnet. Seit 1888 wird sie wieder in der Universitätsbibliothek Heidelberg aufbewahrt (Signatur: UB Heidelberg, Cod. Pal. germ. bzw. cpg 848). Der Kodex besteht aus 426 beidseitig beschriebenen Pergamentblättern im Format 35,5 × 25 cm, die von späterer Hand paginiert wurden. Insgesamt befinden sich in ihr 140 leere und zahlreiche nur zum Teil beschriebene Seiten. Der Text wurde nicht nur mehrfach in verbesserten historisch-kritischen Ausgaben herausgegeben, sondern – im Unterschied zu anderen Handschriften – auch zeichengenau abgedruckt (s. Bibliographie). Die Manessische Liederhandschrift enthält dichterische Werke in mittelhochdeutscher Sprache. Ihr Grundstock wurde um 1300 in Zürich hergestellt, wahrscheinlich im Zusammenhang mit der Sammeltätigkeit der Zürcher Patrizierfamilie Manesse. Mehrere Nachträge kamen bis zirka 1340 hinzu. Der Text stammt von 10–12 verschiedenen Schreibern, vielleicht aus dem Umfeld des Großmünsters in Zürich. Der Kodex gilt als repräsentative Summe des mittelalterlichen Laienliedes und bildet zudem für den „nachklassischen“ Minnesang die Haupt- und weithin die einzige Quelle. Die insgesamt 138 Miniaturen, die die Dichter in idealisierter Form bei höfischen Aktivitäten darstellen oder auch bestimmte schon damals bekanntere Stellen aus ihrem Werk illustrieren (wie etwa Walthers von der Vogelweide Reichston „Ich saz ûf eime steine und dahte bein mit beine“), gelten als bedeutendes Dokument oberrheinischer gotischer Buchmalerei. Eine weitere Miniatur ohne Text ist nur vorgezeichnet. Ohne Miniatur blieb Walther von Breisach. Für das Werk lieferten insgesamt vier Künstler die Miniaturen: 110 Illustrationen entfallen auf den Maler des Grundstocks, 20 auf den ersten Nachtragsmaler, vier auf den zweiten und drei (plus eine Vorzeichnung) auf den dritten. Inhalt und Aufbau Die Handschrift beginnt mit einem vom Grundstockschreiber in einer Kolumne bis Nr. CXIIII geschriebenen Inhaltsverzeichnis, das teilweise durch Nachtragschreiber mit seitlichen Ergänzungen versehen wurde. Die in gotischer Buchschrift (von mehreren Händen) geschriebene Handschrift überliefert die mittelhochdeutsche Lyrik in ihrer gesamten Gattungs- und Formenvielfalt (Lieder, Leichs, Sangsprüche) von den Anfängen weltlicher Liedkunst (Der Kürenberger um 1150/60) bis zur Zeit der Entstehung der Handschrift (Johannes Hadlaub um 1300 und darüber hinaus). Melodienotationen zu den Texten fehlen. Der Kodex enthält 140 Dichtersammlungen, die jeweils durch ganzseitige Autorbilder (oft mit Wappen und Helmzier, vgl. Abbildung) eingeleitet werden und, geordnet nach Tönen, insgesamt rund 6000 Strophen umfassen. Dabei handelt es sich sowohl um Minne- als auch um didaktische und religiöse Lyrik. Die Anordnung der Liedkorpora orientiert sich anfangs, wie in der Weingartner Liederhandschrift und in der (verlorenen) gemeinsamen Vorlage *BC, am sozialen Stand der Autoren: An der Spitze thronen, als vornehmste Sänger, die staufischen Herrscher Kaiser Heinrich VI. und König Konrad IV., es folgen Fürsten, herren (unter anderen Walther von der Vogelweide) und schließlich meister. Der Codex Manesse ist das Resultat eines komplexen, nie förmlich abgeschlossenen Sammelvorgangs: Weder die Texte noch die 138 Bilder wurden in einem Zug eingetragen, und manches ist später neu geordnet worden; innerhalb der Autorenkorpora sind Lücken geblieben, etwa ein Sechstel der Seiten ist für Nachträge freigelassen. Unterschieden werden der Grundstock von etwa 110 Autoren (niedergeschrieben zu Beginn des 14. Jahrhunderts) und mehrere Nachtragsschichten, die bis zur Mitte des Jahrhunderts weitere 30 Autoren hinzufügten. Unverkennbar ist die Absicht, die Liedkunst, auch die zeitgenössische, möglichst vollständig zu sammeln, jedenfalls, soweit sie mit Namen verbunden war oder sich verbinden ließ. Es gab auch Texteinbußen durch Blattverlust. Die Strophenanfänge sind mit lied- und tonweise wechselnden blauen und roten Initialen geschmückt; teilweise finden sich Randverzierungen. Abweichend vom Standardverfahren der Handschrift, jeweils ein Textkorpus einem Autor und einer Miniatur zuzuordnen, finden sich bei „Klingesor von vngerlant“ nicht nur dessen Gedichte (freilich gab es den Zauberer Klingsor aus Ungarn nicht wirklich, und seine Strophen sind fingiert), sondern anthologieartig auch Gedichte von fünf weiteren Minnesängern (die aber auch ihren eigenen Haupteintrag haben). Dies geschah deshalb, weil hier der Sängerkrieg auf der Wartburg (vermutlich 1206) dargestellt werden sollte: Das Gastgeber-Ehepaar, Landgraf Hermann I. von Thüringen und seine Frau Sophie, die Schwiegereltern der Heiligen Elisabeth, thronen über den sechs auftretenden Sängern. Entstehung Einblick in die Vorstufen bzw. in die Entstehung der Handschrift gibt der Zürcher Dichter Johannes Hadlaub (Hauskauf: 4. Januar 1302; † 16. März, vermutlich vor 1340). Er gehörte zum Bekanntenkreis der Patrizierfamilie Manesse, die sich durch antiquarische Sammelleidenschaft und ein Interesse für den staufischen Minnesang auszeichnete. In seinem in der Handschrift enthaltenen Lobpreis der Manessen (fol. 372r) besingt der Dichter die auf Vollständigkeit angelegte Sammlung von Liederbüchern durch Rüdiger Manesse d. Ä. (volljährig 1252, † 1304), eines der einflussreichsten Zürcher Ratsmitglieder, und durch dessen Sohn Johannes, den Kustos der Propstei († 1297). Wenn auch eine unmittelbare Beteiligung Rüdiger Manesses an der Herstellung der „Manessischen Handschrift“ nicht explizit bezeugt ist, so dürften doch die von Hadlaub erwähnten liederbuochen der Familie Manesse die Grundlage des berühmten Kodex darstellen. Möglicherweise hat Hadlaub auch selbst maßgeblich an der Vorbereitung und Ausführung des Grundstocks mitgewirkt. Hierauf deutet die exponierte Stellung seines Œuvres in C hin, die durch eine Prunkinitiale markiert wird. Hadlaub erwähnt in anderen Liedern mehrere führende Zürcher Stadtbürger, so die Fürstäbtissin Elisabeth von Wetzikon, den Grafen von Toggenburg, den Bischof von Konstanz sowie die Äbte von Einsiedeln und Petershausen. Man nahm früher an, dass dieser Personenkreis wegen seines Interesses an Literatur oder der Teilnahme am „literarischen Leben“ möglicherweise als eine Art Förderzirkel im Umfeld der Manessefamilie anzusehen sei, der bei der Entstehung der Sammlung eine Rolle gespielt haben könnte. Vermutlich ist dieser sog. „literarische Manessekreis“ aber eine Fiktion. Nach Max Schiendorfer fingiert Hadlaub idealtypische Lyrik-Situationen und benutzt die prominenten politischen Namen, um dem Inhalt seiner Lieder einen Anschein von Realität zu verleihen. Besitzgeschichte Der Codex Manesse hatte eine sehr wechselvolle Geschichte. In wessen Besitz die Handschrift im Jahrhundert ihrer Entstehung war, ist nicht bekannt. Möglicherweise befand sie sich schon in der ersten Hälfte des 15. Jahrhunderts nicht mehr in Zürich, sonst hätte damals im Elsass oder in Württemberg kaum eine (Gesamt?-)Kopie angefertigt werden können. Wenn Gottfried Keller 1877 in der Novelle Der Narr auf Manegg eine mögliche Gefahr für die Handschrift beim Brand der Burg Manegg von 1409 schildert, ist dies reine literarische Fiktion. Immerhin beachtenswert erscheint ein Hinweis von Johann Jakob Rüeger (1548–1606) in seiner Chronik von Schaffhausen, er habe das alt pergamentin Buch auf Schloss Randegg gesehen und auch ausgeliehen; seine Beschreibung passt jedenfalls genau, ist dennoch bis heute nicht als Beschreibung des Kodex mit letzter Sicherheit nachgewiesen. Um 1575/80 muss der Kodex im Besitz eines flämischen Sammlers gewesen sein, der sich vor allem für die Adelswappen interessierte, denn er ließ Wappen und Helmzierden heraldisch fachkundig abzeichnen, möglicherweise auch aus Anlass des Verkaufs der Handschrift. Wenig später erscheint das Liederbuch in der Schweiz im Nachlass des Freiherrn Johann Philipp von Hohensax († 1596), der von 1576 bis 1588 Ämter in den Niederlanden innegehabt hatte und den Kodex in dieser Zeit erworben haben könnte. Seine engen Verbindungen zum Pfalzgrafenhof in Heidelberg lassen es jedoch auch möglich erscheinen, dass Hohensax den Kodex dort vor 1594 entliehen und in die Schweiz mitgenommen hatte. Sicher ist nur, dass der Pfalzgraf von Zweibrücken und der Heidelberger Gelehrte Marquard Freher nach dem Tod des Freiherrn jahrelang nichts unversucht ließen, um (wieder?) in den Besitz des Liederbuchs zu gelangen. 1607 kam die Handschrift – unter anderem auf Betreiben des Schweizer Humanisten Melchior Goldast – nach Heidelberg zurück. Goldast war auch der erste wissenschaftliche Benutzer; er veröffentlichte 1604 mehrere didaktische Gedichte aus dem Kodex. 15 Jahre lang gehörte die Handschrift nun zur berühmten Büchersammlung am kurfürstlichen Heidelberger Hof, der Bibliotheca Palatina. 1622 während des Dreißigjährigen Krieges konnte die Handschrift vor der Eroberung Heidelbergs durch die Truppen der Katholischen Liga unter Tilly offensichtlich in Sicherheit gebracht werden, da sie nicht wie der Großteil der Bibliotheca Palatina als Kriegsbeute nach Rom verbracht wurde. Es ist zu vermuten, dass der „Winterkönig“ Friedrich V. sie zusammen mit den wertvollsten Familienschätzen in sein Exil nach Den Haag mitnahm. Seine Witwe Elisabeth Stuart geriet nach 1632 jedoch mehr und mehr in wirtschaftliche Bedrängnis, so dass womöglich der Verkauf des Erbstücks den Kodex einige Jahrzehnte später in die Privatbibliothek des französischen Gelehrten Jacques Dupuy († 17. November 1656) brachte. Dieser vermachte seine Sammlung dem König von Frankreich. Somit befand sich die Liederhandschrift seit 1657 im Besitz der Königlichen Bibliothek in Paris (der heutigen Bibliothèque nationale de France), wo sie Jacob Grimm 1815 entdeckte. Seit diesem Fund gab es vielfältige Bemühungen, die Handschrift wieder nach Deutschland zurückzuholen. Aufgrund eingetretener Verjährung des Eigentumsanspruchs der Bibliotheca Palatina war dies nur durch einen Kauf oder Tausch möglich. Letzteren bewerkstelligte 1888 der Straßburger Buchhändler Karl Ignaz Trübner, so dass die berühmteste deutsche Handschrift unter großer Anteilnahme der Bevölkerung nach Heidelberg zurückkehren konnte, wo sie bis heute verwahrt wird. Der Erwerb von der Pariser Bibliothek unter ihrem Direktor Léopold Delisle erfolgte im Tausch gegen eine größere Zahl französischer Handschriften, die in den 1840er Jahren aus französischen Bibliotheken entwendet worden waren und die Trübner von Lord Bertram Ashburnham, 5. Earl of Ashburnham (1840–1913), kaufte, der die teilweise unrechtmäßig erworbene Handschriftensammlung seines Vaters veräußern wollte. Den Codex Manesse erhielt zunächst die Berliner Reichsregierung, die die Handschrift dann wieder der Universitätsbibliothek Heidelberg zuwies. Zur Abwicklung des Erwerbs hatte ein kaiserlicher Dispositionsfonds Trübner die erhebliche Summe von 400.000 Goldmark (zirka 7 Mio. Euro) zur Verfügung gestellt. Ausstellungen und Faksimiles Der Original-Kodex kann aus konservatorischen Gründen nur sehr selten im Rahmen von Ausstellungen gezeigt werden. Nachdem bereits 1887 Franz Xaver Kraus anlässlich der 500-Jahr-Feier der Heidelberger Universität (1886) in nur 84 Exemplaren eine rasch vergriffene Faksimileausgabe im Lichtdruck herausgegeben hatte, edierte 1925 bis 1927 der Leipziger Insel-Verlag (Lichtdruck der Kunstanstalt Albert Fritsch, Berlin) ein Faksimile in 320 Exemplaren, wozu das Original mit einem Sonderzug nach Leipzig gebracht wurde; ein Exemplar dieses Faksimiledrucks wird ständig im Foyer des Obergeschosses der Heidelberger Universitätsbibliothek präsentiert. Ein neues, ebenfalls komplettes Faksimile des Kodex erschien 1974 bis 1979 in 750 Exemplaren, wiederum im Insel-Verlag als mehrfarbiger Lichtdruck von Ganymed – Graphische Anstalt für Kunst und Wissenschaft –, Berlin/Hannover und Kunstanstalt Max Jaffe, Wien. Vorlage war hier nicht das Original, sondern das Faksimile von 1927. 1934 erschienen, herausgegeben von Anton Kippenberg, 12 faksimilierte Blätter der Handschrift in einer eigens dafür hergestellten Leinenmappe unter dem Titel Die Minnesinger im Insel-Verlag zu Leipzig. In der Insel-Bücherei erschienen erstmals 1933 (IB 450) und 1945 (IB 560) je 24 Bilder der Handschrift in verkleinertem Format auch für ein breiteres Publikum, 1988 legte der Insel-Verlag einen Bildband mit allen Miniaturen auf. 1988 veranstaltete die Universität Heidelberg auch eine umfassende Ausstellung zum Codex Manesse. Der Katalog zur Ausstellung dokumentiert die Handschrift selbst, ihre Entstehung, Geschichte und Bedeutung äußerst detailliert. Im Jahre 1991 kehrte der Codex Manesse für kurze Zeit zu seinen Zürcher Wurzeln zurück (Ausstellung Die Manessische Liederhandschrift in Zürich im schweizerischen Landesmuseum Zürich). Erst 2006 ging das Original wieder auf Reisen, um in der 29. Ausstellung des Europarates Heiliges Römisches Reich Deutscher Nation im Kulturhistorischen Museum Magdeburg gezeigt zu werden. Anlässlich dieser öffentlichen Präsentation des Werkes veröffentlichte die Capella Antiqua Bambergensis 2006 ein Musik-Hörspiel, das die Entstehungsgeschichte des Codex Manesse in fiktionalisierter Form erzählt. Anlässlich des 625-jährigen Bestehens der Heidelberger Universität fand vom 25. Oktober 2010 bis zum 20. Februar 2011 in der Universitätsbibliothek eine Ausstellung statt, in der die Liederhandschrift erstmals seit 2006 wieder im Original und als Faksimile zu sehen war. Seit 2008 steht eine digitalisierte Fassung frei zugänglich zur Ansicht und zum Download auf den Seiten der Universitätsbibliothek Heidelberg im Netz. Vom 9. September bis Ende Oktober 2020 wurde der Codex im Landesmuseum Mainz in der großen rheinland-pfälzischen Landesausstellung „Die Kaiser und die Säulen ihrer Macht“ ausgestellt. Weltdokumentenerbe Im Mai 2023 nahm die UNESCO den Codex Manesse in ihrer Liste des Weltdokumentenerbes auf. Miniaturen auf Briefmarken Miniaturen aus dem Codex Manesse zierten Briefmarkenserien des Fürstentums Liechtenstein (1961–1963 und 1970), der Deutschen Bundespost (1970) und der Deutschen Bundespost Berlin (1970), von Österreich (1958) sowie der Schweiz (1988). Siehe auch Kleine Heidelberger Liederhandschrift Weingartner Liederhandschrift Donaueschinger Liederhandschrift () Literatur Vollständige Textausgabe: Die Große Heidelberger Liederhandschrift (Codex Manesse). In getreuem Textabdruck [ursprünglich in Lieferungen zwischen 1899 und 1909] herausgegeben von Fridrich Pfaff. Titelausgabe der zweiten, verbesserten und ergänzten Auflage bearbeitet von Hellmut Salowsky. Universitätsverlag C. Winter, Heidelberg 1984, ISBN 3-533-03525-5. Anna Kathrin Bleuler: Der Codex Manesse: Geschichte, Bilder, Lieder (= C.H. Beck Wissen; 2882). Beck, München 2018, ISBN 978-3-406-72134-2. Der Codex Manesse und die Entdeckung der Liebe. Hrsg. von Maria Effinger, Carla Meyer und Christian Schneider unter Mitarbeit von Andrea Briechle, Margit Krenn und Karin Zimmermann (= Schriften der Universitätsbibliothek Heidelberg, Band 11). Universitätsverlag Winter, Heidelberg 2010, ISBN 978-3-8253-5826-6. Friedrich Heinrich von der Hagen (Hrsg.): Minnesinger. Deutsche Liederdichter des zwölften, dreizehnten und vierzehnten Jahrhunderts. Theil 1. Manessische Sammlung aus der Pariser Urschrift. Barth, Leipzig 1838 (). Arthur Haseloff: Die kunstgeschichtliche Stellung der Manessischen Liederhandschrift. In: Die Manessische Liederhandschrift. Faksimile-Ausgabe. Leipzig 1929, S. 99–133. Christiane Henkes-Zin: Überlieferung und Rezeption in der Großen Heidelberger Liederhandschrift (Codex Manesse). Aachen, Technische Hochschule, Dissertation, 2004 (online; PDF): Gisela Kornrumpf: Die Heidelberger Liederhandschrift C. In: K. Ruh (Hrsg.): Die deutsche Literatur des Mittelalters. Verfasserlexikon. 2. Aufl., Bd. 3 (1981), Sp. 584–597. Walter Koschorreck, Wilfried Werner (Hrsg.): Codex Manesse. Die Große Heidelberger Liederhandschrift. Kommentar zum Faksimile des Cod. Pal. Germ. 848 der Universitätsbibliothek Heidelberg. Insel, Frankfurt am Main / Graphische Anstalt für Kunst und Wissenschaft Ganymed, Kassel 1981 (online; PDF-Datei; 18,6 MB) Elmar Mittler, Wilfried Werner (Hrsg.): Codex Manesse – Die Große Heidelberger Liederhandschrift – Texte Bilder Sachen – Katalog. Katalog zur Ausstellung 1988 in der Universitätsbibliothek Heidelberg. Edition Braus, Heidelberg 1988, ISBN 3-925835-20-2. Herta-Elisabeth Renk: Der Manessekreis, seine Dichter und die Manessische Handschrift. Kohlhammer, Stuttgart 1974, ISBN 3-17-001190-1. Max Schiendorfer: Ein regionalpolitisches Zeugnis bei Johannes Hadlaub (SMS 2). In: Zeitschrift für deutsche Philologie 112, 1993, S. 37–65 (zum „Manessekreis“). Barbara Stühlmeyer: Klangvoll und farbenreich. Der Codex Manesse. In: Karfunkel Nr. 142, Wald-Michelbach 2020, ISSN 0944-2677, S. 31–34. Lothar Voetz: Der Codex Manesse. Die berühmteste Liederhandschrift des Mittelalters. Lambert Schneider, Darmstadt 2015, ISBN 978-3-650-40042-0. Ingo F. Walther: Codex Manesse. Die Miniaturen der Großen Heidelberger Liederhandschrift. Insel, Frankfurt am Main 1988, ISBN 3-458-14385-8. Karl Zangemeister: Die Wappen, Helmzierden und Standarten der Grossen Heidelberger Liederhandschrift (Manesse-Codex). Görlitz 1892 (Digitalisat) Eberhard Graf von Zeppelin: Zur Frage der großen Heidelberger Liederhandschrift, fälschlich „Manesse-Kodex“ genannt. In: Schriften des Vereins für Geschichte des Bodensees und seiner Umgebung, 28. Jg. 1899, S. 33–52 (Digitalisat) Weblinks Vollständiges digitales Faksimile des Codex Manesse (Universitätsbibliothek Heidelberg) (Universitätsbibliothek Heidelberg) Virtuelle Ausstellung: Der Codex Manesse und die Entdeckung der Liebe (Universitätsbibliothek Heidelberg) Einzelnachweise Bilderhandschrift (13. Jahrhundert) Bilderhandschrift (14. Jahrhundert) Literatur (Mittelhochdeutsch) Minnesang Spruchdichtung Wappenbuch Manesse Gotische Buchmalerei Kunstwerk der Gotik Weltdokumentenerbe (Deutschland)
886
https://de.wikipedia.org/wiki/Christiane%20von%20Goethe
Christiane von Goethe
Christiane von Goethe (* 1. Juni 1765 in Weimar als Johanna Christiana Sophia Vulpius; † 6. Juni 1816 in Weimar) war seit 1806 Johann Wolfgang von Goethes Ehefrau. Leben Christiane Vulpius verbrachte ihre Kindheit in der Luthergasse, einem der ältesten Teile Weimars. Ihre Vorfahren väterlicherseits waren über mehrere Generationen Akademiker. Mütterlicherseits stammte sie aus einer Handwerkerfamilie. Ihr Vater Johann Friedrich Vulpius, Amtsarchivar in Weimar, d. h. Aktenkopist, hatte einige Semester Rechtswissenschaften studiert, das Studium jedoch abgebrochen. Seine Stelle war schlecht bezahlt, die Familie lebte in sehr bedrängten Verhältnissen, zumal der Vater alles tat, um dem ältesten Sohn Christian August ein Studium zu ermöglichen. Christiane war gezwungen, eine Stelle als Putzmacherin in einer kleinen Weimarer Manufaktur bei Caroline Bertuch anzunehmen; es handelte sich hierbei um ein Zweigunternehmen von Friedrich Justin Bertuch, der nicht nur im Verlagsgeschäft tätig war. Dies war umso nötiger, als der Vater vorzeitig aus dem Dienst entlassen wurde, weil ihm eine Unregelmäßigkeit zur Last gelegt wurde. Sie war aber keine Arbeiterin, sondern gehörte zu den dort angestellten „unbeschäftigten Mädchen der mittleren Classen“. Von ihren sechs Geschwistern wurde später ihr Bruder Christian August als Autor von Unterhaltungsromanen bekannt. Aufgrund verschiedener Hilfsgesuche und Anträge kannte Goethe die Lage der Familie. Am 13. Juli 1788 lernte er Christiane Vulpius selbst im Park an der Ilm kennen, wo sie ihm eine Bittschrift für ihren Bruder Christian August überreichte. In der Tat setzte sich Goethe später mehrfach für seinen künftigen Schwager ein. In jenem Sommer entwickelte sich zwischen Goethe und Christiane Vulpius rasch ein leidenschaftliches Liebesverhältnis. Bereits im Jahr darauf, am 25. Dezember 1789, wurde das erste Kind, der Sohn August, geboren. Vier weitere Kinder folgten, die alle sehr früh starben: ein Sohn, tot geboren 14. Oktober 1791; Caroline, 21. November.-3. Dezember 1793; Carl, 30. Oktober – 16. November 1795; Katharina, 16.–19. Dezember 1802. Das glückliche Leben und Lieben in dieser Gewissensehe regte Goethe zu seinen heitersten und erotischsten Gedichten an, beginnend mit den Römischen Elegien – die nicht nur die amourösen Abenteuer seiner ersten Italienreise verarbeiteten, sondern indirekt auch Christiane besangen – bis hin zum 1813 seiner Frau gewidmeten Gedicht Gefunden („Ich ging im Walde so für mich hin …“). Goethe nahm die junge Frau zusammen mit ihrer Halbschwester Ernestine und ihrer Tante Juliane in sein Haus auf; die Wirkungsbereiche der beiden Frauen blieben vollständig auf Haus und Garten beschränkt. Der Weimarer Hof und die Gesellschaft lehnten die illegitime und unstandesgemäße Verbindung ab, so dass Goethe auf Anraten des Herzogs das Haus am Frauenplan im Zentrum Weimars verlassen und vorübergehend ins „Jägerhaus“ in der Marienstraße ziehen musste. Seiner Mutter verschwieg Goethe die Beziehung fünf Jahre lang. Während eines Besuchs im Jahre 1793 erzählte er ihr von der Verbindung und dem bereits dreieinhalb Jahre alten Enkel. Der Sieg der Napoleonischen Truppen nach der Schlacht bei Jena und Auerstedt am 14. Oktober 1806 traf Weimar schwer. Als die Stadt von französischen Soldaten geplündert wurde, war auch das Haus am Frauenplan bedroht: Christiane trat eindringenden Soldaten energisch entgegen und konnte die Plünderung so lange aufhalten, bis Goethe den offiziellen Schutz durch den französischen Kommandanten erreicht hatte. Wenige Tage später, am 19. Oktober 1806, ließen sich Goethe und Christiane in der Sakristei der Jakobskirche durch Goethes Freund Wilhelm Christoph Günther trauen. Auch nach ihrer Eheschließung wurde Christiane als „Geheimrätin von Goethe“ von der Weimarer Gesellschaft nur widerstrebend und zögernd akzeptiert. Um die gesellschaftliche Zurückweisung seiner Frau zu verändern, bat Goethe die vermögende Witwe Johanna Schopenhauer, Mutter des Philosophen Arthur Schopenhauer, die Barriere mit einer offiziellen Einladung zum Tee zu durchbrechen. Sie tat es mit der Bemerkung: „Wenn Goethe ihr seinen Namen gibt, werden wir ihr wohl eine Tasse Tee geben können.“ Christianes Briefe an ihren Mann zeigen einen natürlichen und gesunden Menschenverstand, aber auch ihre Bildungslücken. Lebensfroh, praktisch veranlagt und energisch nahm sie sich des umfangreichen Hausstandes an. So regelte sie etwa nach dem Tod von Goethes Mutter Frau Aja in Frankfurt am Main die Erbschaftsangelegenheiten. Sie besuchte gern gesellige Zusammenkünfte, tanzte gern und besuchte häufig Theatervorstellungen in Weimar, aber auch in anderen Orten wie z. B. Bad Lauchstädt, wo die Weimarer Theatergesellschaft den Sommer über gastierte. Auch einem harmlosen Flirt war sie nicht abgeneigt. Der Briefwechsel mit Goethe belegt, dass er auch gelegentliches „Äugelchenmachen“ tolerierte. Christiane besaß ästhetisches Empfinden und Differenzierungsvermögen und konnte Goethe zuweilen beraten. So gestand Goethe, er könne und wolle ohne sie das Theaterwesen in Bad Lauchstädt gar nicht weiterführen. Das waren freilich Seiten, die vielen, auch engen Bekannten, verborgen blieben. Nicht ganz blieb es aber der Nachwelt verborgen, was sich unter anderem darin zeigt, dass eine von dem Weimarer Hofbildhauer Carl Gottlieb Weisser gefertigte Büste Christiane von Goethes Ende des 19. Jahrhunderts im eigens dazu errichteten Pavillon des Kurparks Bad Lauchstädt als Bronze-Kopie aufgestellt wurde. Mit zunehmendem Alter wurde der Gesundheitszustand Christianes, die wie ihr Gatte und der gemeinsame Sohn August dem Alkoholkonsum wohl übermäßig zugetan war, instabil. 1815 erlitt sie einen Schlaganfall. Im folgenden Jahr kam unter starken Schmerzen ein Nierenversagen hinzu. Nach einer Woche qualvollen Leidens starb sie am 6. Juni 1816. Es hatte Goethes Kraft überstiegen, an ihrem Krankenlager zu verweilen. Die Beisetzung, an der Goethe nicht teilnahm, fand auf dem Jacobsfriedhof Weimar statt. In einem Brief an Boisserée schrieb Goethe: „Leugnen will ich Ihnen nicht, … daß mein Zustand an die Verzweiflung grenzt“. Ihr Grab war lange Zeit verschollen und wurde erst 1888 wieder ausfindig gemacht und mit einer Grabplatte versehen. Sie trägt Goethes Abschiedsverse: Rezeption Bis Mitte des 20. Jahrhunderts wurde Christiane von Goethe kaum als eigenständige Person wahrgenommen. Stattdessen sind zahlreiche abfällige Bemerkungen von Zeitgenossen und später überliefert. Ab 1916 wurde durch Hans Gerhard Gräf der Briefwechsel zwischen den Eheleuten Goethe herausgegeben und Etta Federn-Kohlhaas setzte sich in ihrem Buch als eine der ersten ernsthaft mit ihr auseinander. 1949 verfasste der Vulpius-Nachfahre Wolfgang Vulpius eine Biografie, die 1957 erweitert wurde. Weitere Quellen zu ihrem Leben wurden von Sigrid Damm im Rahmen ihrer 1997 erschienenen Biografie erschlossen. Film 1999: Die Braut, mit Veronica Ferres als Christiane Vulpius, Herbert Knaup als Johann Wolfgang von Goethe. Literatur Effi Biedrzynski: Goethes Weimar. Das Lexikon der Personen und Schauplätze. Artemis und Winkler, München und Zürich 1993, Seite 123, ISBN 3-7608-1064-0 Sigrid Damm (Hrsg.): Christiane Goethe. Tagebuch. Tagebuch 1816 und Briefe. Nach der Handschrift herausgegeben von Sigrid Damm. Mit zahlreichen Abbildungen. Insel-Taschenbuch 2561. Insel Verlag, Frankfurt a. M./Leipzig 1999, ISBN 3-458-34261-3. Sigrid Damm: Christiane und Goethe. Insel Verlag, Frankfurt a. M. und Leipzig 1998, ISBN 3-458-16912-1. Sigrid Damm (Auswahl und Nachwort): Christianes und Goethes Ehebriefe. Behalte mich ja lieb!. Insel Verlag, Frankfurt a. M. und Leipzig 1998 – Insel-Bücherei 1190, ISBN 3-458-19190-9 Wolfgang Frühwald: Goethes Hochzeit. Insel-Bücherei 1294. Insel Verlag, Frankfurt a. M./Leipzig 2007, ISBN 978-3-458-19294-7. Hans Gerhard Gräf (Hrsg.): Goethes Briefwechsel mit seiner Frau. 2 Bde., Rütten & Loening, Frankfurt a. M. 1916 Eckart Kleßmann: Christiane – Goethes Geliebte und Gefährtin. Artemis und Winkler, München und Zürich 1992, ISBN 3-7608-1076-4. Erweiterte Neuauflage: TvR Medienverlag Jena 2016, ISBN 978-3-940431-57-8. Lore Mallachow: Du bist mir nah. Mitteldeutscher Verlag, Halle (Saale) 1957 Ulrike Müller-Harang: Das Theater zur Zeit Goethes. Verlag der Klassikerstätten, Weimar 1999, ISBN 3-7443-0099-4 Wolfgang W. Parth: Goethes Christiane – Ein Lebensbild. Kindler, München 1980, ISBN 3-463-00796-7 Wolfgang Vulpius: Christiane. Lebenskunst und Menschlichkeit in Goethes Ehe. Kiepenheuer Verlag, Weimar 1953 Sophien- oder Weimarer Ausgabe (WA): Goethes Werke. Herausgegeben im Auftrage der Großherzogin Sophie von Sachsen. Abtlg. I–IV. 133 Bände in 143 Teilen. H. Böhlau, Weimar 1887–1919 Annette Seemann: Christiane von Goethe: Dichtung und Wahrheit. Mitteldeutscher Verlag, Halle (Saale) 2018. ISBN 978-3-96311-095-5. Weblinks Kerstin Patzelt: Christiane Vulpius: „Die Chocolade fangt an zu fehlen …“ Über Sigrid Damms aufwendige Recherche „Christiane und Goethe“. Das Ostpreußenblatt der Landsmannschaft Ostpreußen e. V., 29. April 2000 Jutta Assel, Georg Jäger. Goethes Familie im Bild. Das Goethezeitportal, Stand Februar 2015 Rita Dadder: Christianes Grab: Die Grabstätte der Christiane von Goethe, geb. Vulpius, auf dem Jakobskirchhof. Weimar-Lese Ulrike Müller-Harang: Die vertauschten Gesichter – Christiane von Goethe und Friedrike Vohs. Blog der Klassik-Stiftung Weimar, 9. Juni 2015. Über die Doppelgängerin von Christiane Vulpius Einzelnachweise Ehepartner einer berühmten Person Familienmitglied (Johann Wolfgang von Goethe) Person (Weimar) Brief (Literatur) Deutscher Geboren 1765 Gestorben 1816 Frau
887
https://de.wikipedia.org/wiki/Concorde
Concorde
Die Aérospatiale-BAC Concorde, kurz Concorde ( für Eintracht, Einigkeit; ), war das zweite Überschall-Passagierflugzeug im Linienflugdienst: Es wurde von Air France und British Airways über den Zeitraum von 1976 bis 2003 betrieben. Die Flugzeit auf ihren wichtigsten Strecken über den Atlantik zwischen Paris beziehungsweise London und New York betrug mit etwa 3 bis 3,5 Stunden rund die Hälfte im Vergleich zu modernen Unterschallflugzeugen, ihre Flughöhe lag bei bis zu 18.000 m (60.000 ft). Die Concorde wurde von der französischen und britischen Luftfahrtindustrie auf Basis eines Regierungsabkommens vom 29. November 1962 gemeinsam entwickelt und erreichte maximal Mach 2,23 (2405 km/h). Die Zelle wurde von Aérospatiale (heute Airbus) und der British Aircraft Corporation (heute BAE Systems) entwickelt und gebaut, die Triebwerke Olympus 593 von Rolls-Royce (Bristol Siddeley) und SNECMA. Die Sowjetunion baute mit der Tupolew Tu-144 ein ähnliches Modell. Geschichte Nachdem schon eine Dekade lang über Ideen zu einem überschallschnellen Verkehrsflugzeug gebrütet worden war, hatten im Jahr 1955 die Wissenschaftler des Forschungsstandortes Royal Aircraft Establishment Farnborough den Überschall-Passagierflug als machbar eingeschätzt; an jenem Standort war am 25. September 1954 formell begonnen worden, überschallschnellen Passagierflug in Erwägung zu ziehen. Am 1. Oktober 1956 wurde in London das Supersonic Transport Aircraft Committee (STAC) gegründet. Bei der Konzeption des Flugzeugs waren 200 verschiedene Auslegungen bewertet worden. Im Jahr 1959 empfahl das Komitee zwei Formen, wobei nur eine für Mach 2 tauglich war. In einem nächsten Schritt kam es zur Festlegung der Höchstgeschwindigkeit, wobei die Variante „Mach 2,7“ deshalb verworfen wurde, weil sie aufgrund der Temperaturen, welche durch die Luftreibung entstehen, nicht mit Aluminiumlegierungen zu erreichen war. Das Versuchsflugzeug Bristol 188 bestätigte später die Probleme mit Edelstahl, der für einen Flug mit Mach 2,7 als Material vorgeschlagen worden war. Zur Erforschung des Langsamflugs bei extremer Pfeilung des Deltaflügels wurde ein weiteres Versuchsflugzeug, die Handley Page HP.115, gebaut, welche im August 1961 erstmals flog. Die Briten wollten die USA für eine Zusammenarbeit gewinnen. 1959 wurde in Frankreich ein Pflichtenheft für ein Vorprojekt mit den Eckpunkten 60 bis 80 Passagiere, 3500 Kilometer Reichweite und mehr als Mach 1 Geschwindigkeit für Sud Aviation, Nord Aviation und Dassault Aviation ausgeschrieben, erste Entwürfe gelangten zu einer Auslegung mit Canardflügeln. Im gleichen Jahr begann die Zusammenarbeit mit Großbritannien. Bei den Briten war die internationale Zusammenarbeit eine Hauptforderung der Projektvereinbarung mit der Regierung aus dem Jahr 1960. Zunächst war geplant, das Flugzeug entlang der Anforderungen der beiden Länder in zwei Varianten zu bauen, wobei das für die Briten erforderliche transatlantikfähige Flugzeug (Type 198) in den Planungen vor 1961 noch über sechs Triebwerke verfügen sollte. Das erste formelle Treffen auf Ministerebene fand am 7. Dezember 1961 statt, am 29. November 1962 wurde vom Britischen Verkehrsminister Julian Amery und dem Französischen Botschafter in Großbritannien, Geoffroy Chodron de Courcel, die Vereinbarung unterzeichnet, welche die Entwicklung des kleineren britischen Flugzeugs Bristol Type 223 mit dem ähnlichen Flugzeug, das die Franzosen Super-Caravelle genannt hatten und auf dem Pariser Luftfahrtsalon 1961 vorgestellt worden war, zusammenlegte. Die Kosten zur Entwicklung bis zur Zertifizierung, ohne Produktion, wurden zu jenem Zeitpunkt mit rund 135 Millionen britischen Pfund angegeben, je nach Quelle 170 Millionen, sie stiegen bis zum Abschluss der Entwicklung auf 1000 Millionen Pfund. Die Pläne der französischen Bauteile wurden auf Französisch erstellt, diejenigen der Briten in Englisch – für die Mitarbeiter gab es Sprachkurse. Die Aufteilung der Arbeiten sollte exakt je 50 Prozent betragen; weil aber klar war, dass die Briten beim Triebwerk einen höheren Anteil um 60 Prozent haben würden, wurde den Franzosen bei der Flugzeugzelle ein etwas höherer Anteil zugestanden. Beim Namen setzte sich Frankreich durch; die Briten nannten das Projekt bis 1967 Concord. Harold Wilson echauffierte sich, als Präsident de Gaulle das „e“ an den Namen anfügte. Das Projekt war von Beginn an politisiert, ökonomisch unsicher und nur für die Ingenieure ein Traum. Als 1964 in Großbritannien eine Labour-Regierung ihre Arbeit antrat, zeichnete sich ein Ende für die Concorde ab. Nur aus Furcht vor französischen Schadenersatzforderungen ließ Harold Wilson das Programm weiterlaufen: Die Vereinbarung von 1962 enthielt «drakonische» Ausstiegsklauseln, es wurde aber davon ausgegangen, dass Staatspräsident de Gaulle auch einen Alleingang gewagt hätte. Nach der Erklärung der Briten, das Projekt abbrechen zu wollen, herrschte „diplomatische Eiszeit“. Der britische Luftfahrtminister Roy Jenkins verkündete am 20. Januar 1965 die weitere Mitarbeit der Briten trotz finanzieller und ökonomischer Bedenken. Auch Edward Heath, der konservative Britische Premierminister ab 1970, hätte das Projekt gerne gestoppt, eine Verärgerung der Franzosen passte nun aber nicht zur Absicht der Regierung, dem Europäischen Wirtschaftsraum beizutreten. Im Jahr 1964 hatten 91 Optionen zum Kauf des Konkurrenzmusters Boeing 2707 bestanden. Das Concorde-Konsortium reagierte daraufhin auf die Kritik, die Reichweite der Concorde sei zu knapp bemessen. Die Länge des Flugzeugs wurde von 51,80 auf 56,10 Meter vergrößert, die Spannweite von 23,40 auf 25,56 Meter. Damit ging eine Vergrößerung der Flügeloberfläche um 15 Prozent einher. Die geplante Startmasse stieg um 18 auf 148 Tonnen bei einer von gut 9 auf 11,8 Tonnen vergrößerten Nutzlast. Möglich wurden diese Änderungen vor allem aufgrund erfolgreicher Tests der Triebwerke, die eine höhere Triebwerksleistung ergaben. Es wurde dabei verlautet, die Erhöhung des Gewichts alleine würde den Überschallknall zwar verstärken, dies würde aber durch eine verringerte Flächenbelastung wieder wettgemacht. Es wurde mitgeteilt, dass der Entwurf nun festläge. Schon im Oktober 1964 liefen am Flughafen Filton Ermüdungsversuche an drei 7 Meter langen Rumpfabschnitten und auch das Forschungsflugzeug BAC-221 stand, nach einem Umbau auf einen Flügel mit einer der Concorde entsprechenden Form, für Testflüge zur Verfügung. Das Triebwerk der Concorde, eine neue Version des Rolls-Royce Olympus mit Nachbrenner, ging erstmals im September 1966 in die Luft und zwar unter dem Rumpf eines Vulcan-Bombers mit jenen Olympus-Triebwerken, aus welchen die Concorde-Triebwerke weiterentwickelt worden waren. Auch die Entwicklung des Triebwerks führte zu unvorhergesehenen Mehrkosten, da die Tests im Concorde-Projekt nach der Einstellung des militärischen TSR.2-Programms ausgeweitet werden mussten. Es konnte demnach nicht wie vorgesehen auf Hunderte von Teststunden im militärischen Programm zurückgegriffen werden. Beim Rollout im Jahr 1967 waren ein Dutzend Fluggesellschaften mit Piloten und Stewardessen zugegen und die Briten und Franzosen waren zuversichtlich, 200 Flugzeuge verkaufen zu können. Auch die Lufthansa war 1967 mit 3 Maschinen unter den Bestellern. Am 1. Januar 1968 vermeldete das Konsortium Vorbestellungen über 76 Maschinen. Ab dem ersten Februar 1969 fanden die Rollversuche der Concorde statt. Die Flugzeuge wurden nach dem Erstflug im März 1969 in einem umfassenden Testprogramm während insgesamt 5495 Flugstunden erprobt, bevor der Passagierverkehr aufgenommen wurde. Die Concorde ist damit das bisher am ausgiebigsten erprobte Flugzeug. Im Jahr 1972 flog die Concorde auf einer Verkaufstour via Griechenland, Iran, Bahrain, Bombay, Bangkok, Singapur und Manila nach Tokio. Noch während der Tour stornierten die Japaner ihre drei Bestellungen. Der folgende Überschall-Überflug über Australien führte zu Protesten. In den USA hatten 1964 Messflüge zur Erhebung der Lärm-Toleranz der Bevölkerung stattgefunden. Über Oklahoma City waren im Auftrag der Federal Aviation Agency vom 3. Februar bis 29. Juli täglich 8 Überschallflüge über der Stadt durchgeführt worden. Diese insgesamt 1253 Flüge der Air Force fanden frühestens um 7 Uhr morgens statt und endeten am Nachmittag. Laut Befragungen hätten sich 73 oder 75 Prozent der Befragten an acht Flüge pro Tag gewöhnen können. Ziviler Überschallflug über den USA wurde trotzdem 1973 verboten. Während der Entwicklungszeit im Zeitraum von 1962 bis 1975 hatten sich die Kosten für das Programm von 160 auf 1200 Mio. GBP mehr als versiebenfacht. BOAC / British Airways Auf britischer Seite war die British Overseas Airways Corporation (BOAC) als halbstaatliche Gesellschaft zuständig für den Langstreckenbereich und damit Ansprechpartner der Regierung und der Concorde-Entwickler für operationelle Fragen. Deren Direktor Emile Beaumont Baron d’Erlanger hatte im Juni 1960 Unterstützung zugesagt, sofern ein kommerziell verantwortbarer Flugbetrieb absehbar würde. Am 10. Juli 1962 waren formelle Gespräche der britischen Regierung mit BOAC angelaufen. Die BOAC war keinesfalls begeistert vom Druck aus dem Ministerium, sich an der Entwicklung zu beteiligen. Der Verwaltungsrat sah zu viele Unwägbarkeiten aus kommerzieller Sicht und machte klar, dass es keine festen Bestellungen gäbe: In einer ersten Vereinbarung um den 25. Oktober 1962 gab es eine bedingungslose Ausstiegsklausel bis 1966. Im Verlaufe des Jahres 1964 begannen sich Probleme aufgrund des Lärms der Concorde abzuzeichnen. Zudem wurde als Neuigkeit in der Luftfahrt das Mitführen von Gratis-Gepäckstücken erwogen, was einen zusätzlichen Nachteil gegenüber einem Großraumflugzeug bedeutete; BOAC rechnete mit insgesamt um 32 Prozent höheren Betriebskosten im Vergleich zur Boeing 707. Der Umweltschützer Richard Wiggs gründete mit einem offenen Brief in der Times vom 13. Juli 1967 das Anti-Concorde-Projekt, um die öffentliche Meinung gegen die Fortführung des Projekts zu mobilisieren. Im Januar 1972 war absehbar, dass die Concorde nicht alle Flugplätze würde anfliegen dürfen und einige Länder den Überflug mit Überschallgeschwindigkeit nicht zulassen würden. So gesehen war der Abbruch des amerikanischen SST-Projekts für BOAC ein Desaster, da dadurch der Druck fehlte, Überschall-Überflüge zuzulassen. Noch im Februar 1973 gab es viele offene Fragen, obschon Verkehrsminister Michael Heseltine schon am 25. Mai 1972 vor dem Parlament verkündet hatte, dass BOAC fünf Maschinen kaufen würde bei einer gleichzeitigen Kapitalaufstockung durch die Regierung. Im Jahr 1982 strich die Regierung Thatcher die Unterstützung für British Airways. Die daraufhin durchgeführte Marktforschung ergab, dass viele Passagiere der Concorde den Preis ihres Fluges gar nicht kannten. Die Preise wurden daraufhin markant auf jenen Betrag erhöht, den sie meinten, ungefähr bezahlt zu haben. Meilensteine Der Treibstoffverbrauch war zwar schon zuvor, aber natürlich vor allem nach der Ölkrise von 1973 ein Problem: Pro Treibstoffeinheit generierte die Concorde bereits nur die Hälfte der Passagierkilometer einer damaligen Boeing 707. Gegenüber der neuen Boeing 747 war es nur ein Drittel. Die US-Bundesluftfahrtbehörde FAA verbot zudem anfangs mit Wirkung vom 27. April 1973 das Überfliegen des Hoheitsgebietes der USA mit zivilen Überschallflugzeugen im Überschallflug. Pan Am und TWA zogen sich aufgrund ihrer großen Defizite im Frühjahr 1973 zurück, Qantas im Mai 1973. Die Kaufoptionen fast aller Fluggesellschaften außer der Air France und British Airways wurden schon bis 1973 storniert: Air Canada (4), Air India (2), American Airlines (10), Braniff International Airways (3), CAAC (4), Continental Airlines (3), Eastern Air Lines (8), Iran Air (3), Japan Airlines (3), Lufthansa (3), Middle East Airlines (2), Pan American World Airways (8), Qantas (6), Sabena (2), Trans World Airlines (10), United Airlines (6). Lediglich die Fluggesellschaften Air France und British Airways, im Staatsbesitz der beiden Herstellerländer, übernahmen wenig erfreut ihre bestellten Concorde. Mindestens auf der britischen Seite war es ein Geschenk der Regierung; die Flugzeuge wurden laut Michael Heseltine erst bei Gewinn bezahlt, der Staat erhielt also gewissermaßen nicht mehr als eine Gewinnbeteiligung. 1979 wurde der Bau der Concorde nach zwei Prototypen, zwei Vorserienmodellen und 16 Serienflugzeugen eingestellt. Der amerikanische Verkehrsminister William Thaddeus Coleman war von Bürgern dazu aufgefordert worden, der Concorde keine Landerechte zu erteilen. Am 5. Januar 1976 fand ein öffentliches Hearing statt, welches das Ende der Concorde hätte bedeuten können, falls das Flugzeug nicht auf der Route hätte eingesetzt werden können, für welche sie konzipiert worden war. Nachdem sich gezeigt hatte, dass die Concorde nicht lauter war als die Boeing 707 des Präsidenten, wurde entschieden, dass eine Landeerlaubnis erteilt, diese in den USA jedoch ausschließlich den 16 produzierten Flugzeugen zustünde. Eine Weiterentwicklung der Concorde wäre somit ein unabsehbares Risiko gewesen so wie auch eine Produktion für weitere Kunden aussichtslos. Im Jahr 1981 übernahmen die British Airways und Air France alle Flugzeuge und alle Ersatzteile. Einsatz im Liniendienst Die Flüge aufgenommen hatten die Flugzeuge gleichzeitig am 21. Januar 1976 mit Flügen nach Rio de Janeiro via Dakar durch die Air France sowie nach Bahrain durch British Airways. Im Mai 1976 konnte die Destination Washington aufgenommen werden, diese Flüge waren 1976/1977 zu 90 Prozent ausgelastet. Erst am 20. November 1977 konnte der Betrieb auf den künftigen Stammstrecken von den Flughäfen Paris-Charles-de-Gaulle und London-Heathrow zum John F. Kennedy International Airport in New York aufgenommen werden. Bis zur Betriebseinstellung am 13. August 2003 gab es zudem wöchentlich samstags einen Flug von London-Heathrow nach Barbados. Nur im Sommer 2000 wurden darüber hinaus auch Flüge zwischen New York und Barbados angeboten, die ebenfalls immer samstags stattfanden. Im Charterbetrieb hatte die Concorde über 250 Flughäfen angeflogen, davon 76 in den USA. Diverse weitere weltweite Ziele wurden mit der Concorde in den 1970er- und frühen 1980er-Jahren angeflogen, zu Beginn beispielsweise Rio de Janeiro und Singapur. Ende der 1970er-Jahre flog die Concorde kurzfristig auch auf Routen von Singapore Airlines (in Kooperation mit British Airways) und Braniff International Airways (in Kooperation mit Air France). Eine Maschine der British Airways trug zu diesem Zweck auf ihrer Backbordseite die Lackierung von Singapore Airlines. Neben der Wirtschaftlichkeit scheiterte der Betrieb zu mehr und anderen Zielen auch an der mit rund 6000 Kilometern für längere Direktflüge zu geringen Reichweite sowie der Tatsache, dass die Concorde aufgrund ihres hohen Geräuschpegels auf vielen Flughäfen keine Landegenehmigung erhielt. Sie wurde in der Presse trotzdem oft als die „Königin der Lüfte“ bezeichnet. Industriespionage Die sowjetische Tupolew Tu-144 glich in ihrer Auslegung der Concorde, weshalb sie bei ihrer Vorstellung 1965 umgehend den Spitznamen Konkordski erhielt. Im Rahmen der Industriespionage während der Entwicklung der Concorde wurden ab 1964 mehrere Personen verhaftet, welche der Sowjetunion zugearbeitet hatten. Da es sich nicht um eine militärische Entwicklung handelte, wurde bei der Weitergabe oder beim Verkauf von Informationen auch nicht zwingend gegen Geheimhaltungsvorschriften verstoßen. Unklar ist, ob diese Spionage den Bau der Tu-144 tatsächlich vorangebracht hatte. Teils wurde argumentiert, dass sich Ähnlichkeiten auch mit einer normalen technologischen Evolution erklären ließen. Tatsächlich aber ähnelten die Entwürfe der US-Flugzeugbauer Boeing, Lockheed und North American der Concorde deutlich weniger als die Tu-144. Die Concorde in Deutschland, Österreich und der Schweiz Am 22. April 1972 landete erstmals eine Concorde auf deutschem Boden. Anlässlich der Internationalen Luft- und Raumfahrtausstellung auf dem Flughafen Hannover-Langenhagen präsentierte die British Aircraft Corporation dem Publikum den britischen Prototyp. Am 22. und 23. April war die Concorde dort sowohl am Boden als auch bei mehreren Präsentationsflügen in der Luft zu sehen. In den frühen 1980er-Jahren begann British Airways, gefolgt von Air France, regelmäßig Charterflüge von Deutschland aus anzubieten. Ausgangspunkt waren anfangs die Flughäfen Hannover und Köln/Bonn, später auch Berlin-Tegel, Hamburg und Frankfurt. Auf dem Flughafen München-Riem landete sie ein einziges Mal am 10. August 1983, der Flughafen München wurde am 26. Oktober 1996 ebenfalls ein einziges Mal besucht. Auch Flughäfen in Österreich wurden angeflogen. Nach Graz-Thalerhof flog man am 29. März 1981. Linz-Hörsching wurde 1981 (BA), 1983 (AF) und letztmals 1989 (BA) besucht. Der Flughafen Salzburg wurde am 23. April 1984 (AF) und der Flughafen Klagenfurt am 31. August 1984 angeflogen. Am 19. Juli 1986 landete die Concorde in Nürnberg. Zusätzlich gab es bis in die späten 1990er-Jahre regelmäßige Sonderflüge zu Großveranstaltungen wie der Hannover Messe. Zu einem besonderen Zweck war eine Concorde der Air France mit Kapitän Yves Pecresse 1999 in Berlin. Vom Flughafen Schönefeld aus waren am 19., 20., und 21. März 1999 insgesamt vier Benefizflüge zum Polarkreis und zurück geplant. Bei einem Ticketpreis von 2222 Mark ließen sich jedoch nur genug Tickets für drei Flüge verkaufen, so dass der vierte ausfiel. Die Aktion wurde von einem großen Menschenauflauf am Flughafen begleitet. Sie führte allerdings wegen der ungewöhnlich hohen Lärmbelästigung auch zu Protesten in der Region. Aufgrund der spektakulären Ansicht der Concorde in Abflug- und Landekonfiguration kam der Autoverkehr auf Zubringerstraßen punktuell zum Erliegen. Am 18. März 1986 landete erstmals eine Concorde in der DDR. Anlässlich des an diesem Tage auf der Leipziger Messe stattfindenden Frankreich-Tages flog eine Concorde der Air France (F-BVFF) den Flughafen Leipzig-Schkeuditz an. Einen Tag später landete auch eine Concorde der British Airways in Leipzig. Dabei flogen die Maschinen einen Umweg über Nord- und Ostsee, einerseits um den Passagieren einen Überschallflug zu ermöglichen, andererseits weil der Überflug der innerdeutschen Grenze aus politischen Gründen nicht möglich war. Normalerweise war der Flug mit Überschallgeschwindigkeit über dem europäischen Festland nicht gestattet, doch beim ersten Einflug in die DDR durfte die Concorde der Air France über dem nördlichen Teil der DDR mit Mach 1,5 fliegen. Dieses Gebiet wurde auch sonst von Militärflugzeugen regelmäßig mit Überschallgeschwindigkeit durchflogen. Die Concorde war in den folgenden Jahren ein regelmäßiger Gast im Leipziger Messeflugverkehr. Am 1. Mai 1998 war die Concorde F-BVFA anlässlich des 35. Jahrestages der Unterzeichnung der Élysée-Verträge auf dem Stuttgarter Flughafen zu bewundern. Nur etwa einen Monat vor ihrem Absturz gastierte die Concorde F-BTSC anlässlich der Flugshow „Hahn in Motion“ unter dem Kommando von Christian Marty, dem Kapitän des Unglücksflugs AF 4590, auf dem Flughafen Hahn im rheinland-pfälzischen Lautzenhausen. Die letzte Flugbewegung auf deutschem Boden war die Landung der F-BVFB auf dem Flughafen Karlsruhe/Baden-Baden am 24. Juni 2003 anlässlich der Überführung in das Technikmuseum Sinsheim, wo das Flugzeug nun besichtigt werden kann. Am 31. August 1976 landete eine Concorde erstmals in der Schweiz, auf dem Flughafen Genf. Am 28. April 1979 landete eine Maschine der Air France auf dem trinationalen Flughafen Basel-Mülhausen. Zum letzten Mal in die Schweiz kam eine Concorde im August 1998, als eine Air-France-Maschine mit Ausnahmegenehmigung zum Jubiläum «50 Jahre Flughafen Zürich» eingeladen worden war. Ende der Concorde Das Ende der Concorde nahte mit dem Absturz der Maschine F-BTSC am 25. Juli 2000. Beim Start der Maschine des Air-France-Flugs 4590 auf dem Flughafen Paris-Charles-de-Gaulle wurde ein Reifen von einem auf der Startbahn liegenden Metallteil zerfetzt, das vom Triebwerk einer kurz vorher gestarteten DC-10 der Continental Airlines abgefallen war. Hochgeschleuderte Gummiteile des platzenden Reifens durchtrennten ein stromführendes Kabel des linken Hauptfahrwerks, bevor sie mit großer Wucht auf die Unterseite der linken Tragfläche aufschlugen. Diese Teile durchschlugen nicht die Tragfläche, sondern verursachten durch die hohe Aufprallgeschwindigkeit eine Druckwelle im Tank, die zu einem Leck an der Tragfläche führte. Der auslaufende Treibstoff entzündete sich am erwähnten Kabel sowie am direkt daneben laufenden Jet-Triebwerk und setzte den Treibstofftank der linken Tragfläche in Brand. Ein Startabbruch war zu diesem Zeitpunkt nicht mehr möglich. Den von Tower und Instrumenten alarmierten Piloten blieb als einzige Option der Versuch einer Notlandung auf dem nur 8 Kilometer voraus liegenden Flughafen Le Bourget. Aufgrund der Schäden an Trag- und Ruderflächen sowie fehlender Triebwerksleistung war die Maschine nicht mehr steuerbar und stürzte rund eine Minute nach dem Start in Gonesse ab. Alle 109 Menschen an Bord und vier Bewohner eines Hotels kamen ums Leben. Die Air France stellte den Flugbetrieb der Concorde ein, die britische Luftfahrtbehörde entzog der Concorde die Flugtauglichkeitsbescheinigung. Es wurde eine Verstärkung der Tanks durch eingelegte Matten aus Kevlar entwickelt, während der französische Reifenhersteller Michelin einen stabileren Reifen entwarf, der inzwischen auch beim Airbus A380 zum Einsatz kommt. Durch diese Veränderungen, die weit über hundert Millionen Euro kosteten, wurde die Concorde kaum schwerer (BA entwickelte neue, leichtere Passagiersitze, zudem wurde die maximale Passagierkapazität geringfügig verringert). Ermittlungen ergaben, dass auch bei anderen Verkehrsflugzeugen ein Unfall wie der vom 25. Juli 2000 möglicherweise zu einem katastrophalen Ausgang hätte führen können. Die Ermittlungen zur Unfallursache wurden am 16. Januar 2002 abgeschlossen. Ausgerechnet am 11. September 2001 fand ein Versuchsflug der British Airways über dem Atlantik statt; die Terroranschläge in den USA an diesem Tag ließen anschließend den Flugverkehr weltweit einbrechen. Am 7. November 2001 wurde der Linienbetrieb zwischen Paris bzw. London und New York wieder aufgenommen. Anders als über 20 Jahre zuvor, als sich New York gegen die Concorde sträubte, begrüßte der Bürgermeister Rudy Giuliani die Passagiere des ersten Fluges persönlich. Aufgrund ausbleibender Passagiere erklärten Air France und British Airways am 10. April 2003, dass der Linienflugbetrieb mit der Concorde im Laufe des Jahres 2003 eingestellt würde. Der letzte Flug einer Air-France-Concorde fand am 27. Juni 2003 statt. British Airways beendete die Concorde-Flüge am 24. Oktober 2003. Der allerletzte Concorde-Flug fand mit der Maschine mit dem Kennzeichen G-BOAF am 26. November 2003 unter der Leitung des Chefpiloten Mike Bannister von London-Heathrow zum Herstellerwerk in Filton statt. Die meisten Maschinen waren durch Demontage von Teilen nach der Außerdienststellung nicht mehr flugfähig. Im Mai 2010 teilte die britische Gruppe „Rettet die Concorde“ (Save Concorde Group SCG) mit, dass sieben Jahre nach dem Dienstende der Concorde französische Luftfahrtexperten die Triebwerke auf dem Flughafen Paris-Le Bourget testeten. Neue Flüge würden laut SCG für kulturelle Zwecke geplant. 2013/2014 gab es eine letzte Petition zur Wiederaufnahme eines Concorde-Betriebs. Spezielle Flüge In die Schlagzeilen kam der Flug vom 17. Juni 1974, als die vierte Concorde in Boston nach Paris startete, wo gleichzeitig eine Boeing 747 abhob. Nach einem über einstündigen Aufenthalt in Paris und Betankung machte sie sich auf den Rückweg und landete noch vor der Ankunft der Boeing wieder in Boston. Am 22. August 1978 hatte der einstige Air-France-Flugkapitän Fernand Andreani in einer Concorde die Strecke Paris – New York mit einer Durchschnittsgeschwindigkeit von 1669 km/h in 3 Stunden, 30 Minuten und 11 Sekunden geschafft. Der bis heute bestehende Streckenrekord mit einer Durchschnittsgeschwindigkeit von 1763 km/h wurde am 1. April 1981 von Pierre Chanoine aufgestellt. 1985 wurde der NATO ein Werksflug einer Concorde als Übungsmöglichkeit für Abfangjäger angeboten. Jäger der Typen F-15, F-16, F-14 oder Starfighter blieben erfolglos, nur eine Lightning konnte die Concorde einholen. Vom 15. bis 17. August 1995 gelang einer Concorde der Air France, Flugnummer AF1995, mit 31 Stunden, 27 Minuten und 49 Sekunden der schnellste Flug mit Passagieren um die Welt. Der Flug wurde vom US-amerikanischen Rechtsanwalt Donald Pevsner organisiert und im Rahmen einer Werbeaktion zusammen mit einer Brauerei durchgeführt. Gemessen wurde hierbei die gesamte Zeit, die vom Start in New York bis zur Landung auf dem Ausgangsflughafen vergangen war, inklusive sämtlicher Zwischenstopps in Toulouse, Dubai, Bangkok, Guam, Honolulu und Acapulco. Auf der 36.784 Kilometer langen Flugreise konnten die Passagiere je zwei Sonnenauf- und -untergänge miterleben. Am 7. Februar 1996 legte eine Concorde der British Airways die Strecke New York – London in 2 Stunden, 52 Minuten und 59 Sekunden zurück. Dies ist bis heute Rekord für die schnellste Atlantiküberquerung in der zivilen Luftfahrtgeschichte. Im Frühjahr 1996 wurde der Rumpf einer Concorde von Air France (Luftfahrzeugkennzeichen: F-BTSB) in blau gestrichen. Damit wurden zwischen 31. März und 9. April insgesamt 16 Werbe- und Promotionsflüge für Pepsi Cola durchgeführt. Da die blaue Farbe sich stärker aufheizte als die sonst übliche weiße Farbe, mussten die Tragflächen weiß bleiben, zudem durfte das Flugzeug mit dieser Lackierung nur maximal 20 Minuten lang mit zweifacher Überschallgeschwindigkeit fliegen, ehe das Tempo, und damit die Reibungshitze reduziert werden musste. Unmittelbar nach Ende dieser Aktion wurde die vorherige Lackierung wiederhergestellt. Am 11. August 1999 flogen zwei British-Airways- und eine Air-France-Concorde während der totalen Sonnenfinsternis mit zweifacher Schallgeschwindigkeit mit dem Mondschatten über den Nordatlantik. So konnten die rund 300 Passagiere eine 3 bis 4 Mal längere totale Sonnenfinsternis sehen als die Betrachter am Boden (siehe auch: Werner Raffetseder – „Festival de la Concorde“). Ein ähnliches Unternehmen gab es zuvor bereits während einer Sonnenfinsternis 1973. Auch wurden Flüge zum Jahreswechsel angeboten, bei denen man zweimal Silvesterabend feiern konnte: Einmal in Paris und wenige Stunden später nochmals in New York. Phil Collins konnte mit Hilfe der Concorde beim Live-Aid-Konzert am 13. Juli 1985 beiderseits des Atlantiks auftreten – zuerst im Londoner Wembley-Stadion und anschließend im John-F.-Kennedy-Stadium in Philadelphia. Das Flugzeug mit dem Kennzeichen G-BOAD flog erstmals am 25. August 1976 und erreichte bis zum 10. November 2003 eine Flugdauer von 23.397 Stunden, wobei sie 7010 Mal die Schallmauer durchbrach. Sie erreichte von allen Concordes die größte Anzahl Flugstunden und flog mit höchster Wahrscheinlichkeit länger mit Mach 2 als jedes andere Flugzeug der Luftfahrtgeschichte. Bedeutung für Luftfahrt und Staat Die Entwicklung der Concorde wurde ausschließlich durch die staatliche Finanzierung der hohen Entwicklungskosten ermöglicht. Im laufenden Betrieb flog die Concorde nur teilweise Gewinne ein. Neben den Rekordleistungen, die durch Überschallflüge erzielt wurden, ist vor allem der Fortschritt, der in der Luftfahrttechnologie durch die Entwicklung der Concorde erzielt wurde, so bedeutend, dass bis heute viele Flugzeughersteller hiervon profitieren. Im industriell-wirtschaftlichen Sektor war das Concorde-Projekt eine Fortsetzung der Zusammenarbeit, welche sich mit dem identischen Vorderrumpf der Comet- und den Caravelle-Flugzeugen geäußert hatte und welche für die zukünftige Zusammenarbeit etwa im Airbus-Bereich den Weg bereitete. Die Briten hatten sich von der Zusammenarbeit einen Beitritt zur Europäischen Wirtschaftsgemeinschaft erhofft, was De Gaulle jedoch jahrelang verhinderte. Technik der Concorde Bei der Concorde handelt es sich um ein vierstrahliges Verkehrsflugzeug mit Deltaflügel in schwanzloser Tiefdecker-Auslegung. Die Concorde hatte im Vergleich zu anderen Verkehrsflugzeugen aufgrund ihrer hohen Geschwindigkeit und der damit einhergehenden Anforderungen einige konstruktive Besonderheiten aufzuweisen. Struktur und Steuersysteme Die Concorde ist zum großen Teil aus einer Aluminiumlegierung konstruiert und im geringeren Teil aus einer hitzebeständigen Nickellegierung sowie Edelstahl und Titan in kritischen Bereichen. Die Tragflächen bestehen aus einem Torsionskasten, in dem sich viele Holme befinden, während der Rumpf in einer konventionellen Halbschalenbauweise ausgeführt ist. Da die Concorde als Deltaflügler und schwanzloses Flugzeug über kein Höhenleitwerk verfügt, befinden sich die Höhenruder- und Querruder-Steuerflächen ausschließlich an der Hinterkante der Tragflächen, während an der Seitenflosse ein konventionelles Seitenruder vorhanden ist. Roll- und Nicksteuerung erfolgen durch die kombinierten Höhen- und Querruder (Elevons). Diese erstrecken sich über die gesamte Breite der Tragflächenhinterkante und sind insgesamt in sechs einzeln angelenkte Segmente aufgeteilt, drei auf jeder Seite. Je zwei dieser Steuerflächen befinden sich pro Seite an den Außenflügeln, je ein Ruder befindet sich zwischen Triebwerksgondel und Rumpf. Zur Höhensteuerung werden alle sechs Elevons gleichsinnig nach oben oder unten ausgeschlagen, die Rollsteuerung (Querruder) erfolgt durch überlagerte entgegengesetzte Ausschläge der vier äußeren Elevons; dabei summieren sich an diesen vier einzelnen Rudern die jeweiligen Werte für den Höhen- und Querruderanteil. Das gesamte Hydrauliksystem der Flugsteuerung war gegen mögliche Ausfälle mehrfach abgesichert und alle vier Triebwerke standen in verschiedenen Kombinationen für die Erzeugung des Hydraulikdrucks zur Verfügung. Primär wurden alle Steuersignale erstmals bei einem Verkehrsflugzeug elektrisch übertragen. Dieses analoge fly-by-wire-System bestand aus zwei separaten Kanälen (im Cockpit blau und grün). Im Notfall konnten die Steuerbefehle über ein drittes, mechanisches System (im Cockpit gelb) übertragen werden. Bei der Rippe 24 des linken Flügels befand sich zwischen Holm 68 und 70 eine Ram-Air-Turbine, damit konnte im Notfall das grüne und das gelbe System betrieben werden. Die für den Piloten spürbaren Steuerkräfte wurden künstlich elektro-hydraulisch erzeugt. Neben den gesteuerten Druckzylindern erzeugte ein Federsystem Minimalkräfte. Zur Anpassung der Schwerpunktlage an die unterschiedlichen Anforderungen von Über- und Unterschallflug wurden Trimm-Treibstofftanks verwendet. Durch Umpumpen von Kraftstoff von den an der vorderen Flächenwurzel gelegenen Trim Transfer Tanks Nr. 9 und 10 in den im Rumpfheck gelegenen Tank Nr. 11 verschob sich der Schwerpunkt des Flugzeugs um etwa 1,8 m nach hinten. Für den Sinkflug und den Landeanflug wurde der Schwerpunkt durch Umpumpen in die vorderen Trimmtanks wieder nach vorne verschoben. Für Start und Landung war die hintere Schwerpunktlage vorteilhafter, weil sie die nutzbare Flügelfläche durch geringeren Ruderausschlag anwachsen ließ. Die Roll-Trimmung erfolgte durch die Verwendung der Tanks 1 und 4 in den Flügeln. Eine Besonderheit war, dass die Concorde aufgrund der im Flug erreichten Temperaturen in der Struktur nicht nur eine Ausdehnung des ganzen Flugzeugs um bis zu 25 Zentimeter erfuhr, sondern auch Wasser verdunstet wurde, was zur Folge hatte, dass die Korrosion im Vergleich zu herkömmlichen Verkehrsflugzeugen geringer war. Diverse Bereiche des Flügels verfügten über ein Drainage-System. Das Steuerbord-Bugrad verfügte über eine Bremsscheibe, um das Drehen der Räder beim Fahrwerkeinzug zu verhindern. Die Hauptfahrwerke mit je vier Rädern verfügten über Magnesium-Bremsscheiben, später wurden diese durch effizientere Carbon-Bremsscheiben ersetzt. Die zwei Prototypen F-WTSS und G-BSST verfügten über einen Bremsschirm, der in einem nach oben öffnenden Heckkonus untergebracht war. Dank dem Antiskitsystem benötigten die Serienmaschinen der Concorde keine Bremsschirme mehr. Ausstattung und Reisekomfort Speziell war, dass für die Klimatisierung der Kabine keine Außenluft gezapft werden konnte: Eine Kühlung wäre damit im Überschallflug nicht möglich gewesen. Zur Kühlung wurden stattdessen die Treibstofftanks verwendet, in denen sich Wärmetauscher befanden. Die Concorde wurde für die Aufnahme von maximal 128 Passagieren zertifiziert, nach dem Unglück im Jahr 2000 und den folgenden Modifikationen betrug die maximale Passagierzahl 100 (British Airways) bzw. 92 (Air France). Die Sitze konnten unterschiedlich in Viererreihen angeordnet werden. Die Kabine war mit Toiletten und zwei Küchen ausgestattet. Unter dem vorderen und hinteren Kabinenboden gab es Stauräume für Gepäck. Die Passagierkabinentüren befinden sich auf der Backbordseite, die Versorgungskabinentüren auf der Steuerbordseite. British Airways hatte die Concorde mit einer 40-sitzigen Vorderkabine und einer 60-sitzigen Hinterkabine betrieben, die von einer sechsköpfigen Besatzung betreut wurde. Es gab nur eine Klasse; die Tickets waren etwa 20 % teurer als Tickets für die First Class in Unterschallflugzeugen. Den naturgemäß engeren Platzverhältnissen standen bequeme Sessel mit Lederpolstern, eine ausgezeichnete Küche mit erlesenem Porzellan und Champagner gegenüber. Allerdings bezeichneten in den letzten Jahren viele Passagiere das Geräusch- und Schwingungsverhalten als besonders unangenehm; die Concorde war in dieser Hinsicht nicht mehr zeitgemäß und erlaubte auch nur wenig konstruktive Verbesserungen. Flugbahn und Flughöhe Auf dem Flug von London nach New York flog die Concorde bis zu einer Höhe von 8400 m mit Unterschallgeschwindigkeit, bevor sie südlich von Bristol die Nachbrenner einschaltete und weiter stieg, um auf Überschallgeschwindigkeit zu beschleunigen, die etwa über der Insel Lundy erreicht wurde. So konnten die Schallwellen und der Überschallknall von bewohnten Gebieten ferngehalten werden. Die Concorde beschleunigte weiter auf Mach 1,7, schaltete den Nachbrenner ab und erreichte auf einer Höhe von 15.000 m Mach 2. Während des Reisefluges stieg sie langsam weiter bis auf etwa 17.700 m (cruise climb), die kurz vor dem Beginn des Sinkfluges zur Landung erreicht wurden. Dabei variierte diese Höhe jedoch abhängig von der Außentemperatur und der Zuladung. Konventionelle strahlgetriebene Flugzeuge fliegen im Vergleich hierzu auf einer Flughöhe von etwa 10.000 bis maximal 13.500 m. Die Concorde verlängerte sich erwärmungsbedingt beim Mach-Flug um etwa 14 cm, die Fenster fühlten sich warm an. Im Cockpit gab es beispielsweise während eines Mach-Fluges zwischen den Instrumententafeln des Flugingenieurs einen fingerbreiten Spalt, der nach der Landung nicht mehr vorhanden war. Cockpit und Visier Die Spitze der Concorde bildet eine hydraulisch absenkbare Nase mit versenkbarem, verglastem Visier. Bei Geschwindigkeiten von über 460 km/h wurden die Nase und der Schutzschild aus Gründen der Aerodynamik vollständig hochgezogen. In Höhen unter 3000 m, also im Landeanflug, wurde bei einer Geschwindigkeit von etwa 460 km/h das Visier ganz sowie die Nase um 5° abgesenkt, was eine gute Sicht nach vorne gewährleistete. Im Endanflug wurde die Nase auf 12° abgesenkt und ermöglichte dem Piloten eine optimale Sicht auf die Landebahn. Die Sitzposition der Piloten der Concorde liegt 11,4 m vor dem Bugrad, so dass beim Einlenken auf die Start- und Landebahn die Pilotenkanzel weit über die effektive Piste hinausragt. Kapitän und Copilot sitzen nebeneinander im Cockpit, während der Flugingenieur auf einem Drehstuhl hinter dem Copiloten sitzt. Die beengten Platzverhältnisse im Cockpit erforderten eine ungewöhnliche Gestaltung der Steuerhörner, um zu vermeiden, dass eine Drehbewegung am Horn durch die Beine der Piloten behindert wird. Technische Daten Verbleib der Concordes Air France British Airways Vergleichbare Flugzeuge Beendete Konkurrenzentwicklungen Tupolew Tu-144 mit Liste der Rekorde der Tu-144 Abgebrochene Konkurrenzentwicklungen Boeing 2707 Lockheed L-2000 Douglas 2229 Convair Modell 58-9 North American NAC-60 Tupolew Tu-244 Literatur Brian Calvert: Flying Concorde: The Full Story. The Crowood Press, Ramsbury 2002, ISBN 1-84037-352-0. Christopher Orlebar: The Concorde Story. Osprey Publishing, Wellingborough 2004, ISBN 1-85532-667-1. Hans-Jürgen Becker: Concorde: Geschichte – Technik – Triumph und Tragödie. Motorbuch Verlag, Stuttgart 2002, ISBN 3-613-02250-8. Luftfahrt: Adieu Concorde. In: Geo. 3/1977, Verlag Gruner + Jahr, Hamburg, S. 112–130. David Leney, David Macdonald: Aerospatiale/BAC Concorde. Verlag Haynes Publishing UK, 2018, ISBN 978-1-78521-576-6. Dokumentationsfilme zdf.de (2020): Mythos Concorde: Wettlauf am Himmel (42 Minuten) Mythos Concorde: Triumph und Tragödie Trivia Lego plant die Concorde im September 2023 als Set mit über 2000 Teilen. Weblinks Celebrating Concorde auf britishairways.com (englisch) Heritage Concorde – Technical Section Seite mit ausführlichen technischen Detailinformationen zu allen Systemen, englische Sprache, abgerufen am 2. Juni 2018 Einzelnachweise Vierstrahliges Flugzeug Überschallflugzeug Air France British Airways Erstflug 1969 Langstreckenflugzeug
888
https://de.wikipedia.org/wiki/Charlemagne%20%28Begriffskl%C3%A4rung%29
Charlemagne (Begriffsklärung)
Charlemagne steht für: Charlemagne, französisch und englisch für Karl der Große (747/748–814), König des Fränkischen Reiches und römischer Kaiser Charlemagne (Québec), Stadt in der Provinz Québec, Kanada Charlemagne (Weinlage), Weinlage im Weinbaugebiet Burgund, Frankreich Centre Charlemagne, Geschichtsmuseum in Aachen, Nordrhein-Westfalen Lycée Charlemagne, Gymnasium in Paris, Frankreich 33. Waffen-Grenadier-Division der SS „Charlemagne“, Division der Waffen-SS Charlemagne ist der Familienname folgender Personen: Adolf Iossifowitsch Charlemagne (1826–1901), französischer Maler in Russland Diane Charlemagne (1964–2015), britische Dance-Sängerin Jean Baptiste Charlemagne-Baudet (1734–1789), französisch-russischer Bildhauer Joseph Emmanuel Charlemagne (1949–2017), haitianischer Musiker, siehe Manno Charlemagne Lidija Iwanowna Charlemagne (1915–1963), russisch-sowjetische Malerin Ludwig Iwanowitsch Charlemagne (1784–1845), russischer Architekt des Empire
889
https://de.wikipedia.org/wiki/Charles%20Lindbergh
Charles Lindbergh
Charles Augustus Lindbergh, Jr. (* 4. Februar 1902 in Detroit, Michigan; † 26. August 1974 in Kīpahulu, Maui, Hawaii) war ein US-amerikanischer Flugpionier, Schriftsteller und isolationistischer Politiker der America First-Bewegung Als Pilot gelang ihm am 20. und 21. Mai 1927 die erste Alleinüberquerung des Atlantiks durch einen Nonstopflug von New York nach Paris. Für die Tat, die ihn zu einer der bekanntesten Personen der Luftfahrtgeschichte machte, erhielt er den 1919 gestifteten Orteig-Preis und die Medal of Honor. Für sein Buch The Spirit of St. Louis, eines von mehreren, die er über seinen Atlantikflug schrieb, wurde ihm 1954 der Pulitzer-Preis verliehen. Nach Beginn des Zweiten Weltkrieges wurde der Antisemit und NS-Sympathisant Lindbergh zu einem exponierten Vertreter des Isolationismus. Er setzte sich öffentlich dagegen ein dass die USA die europäischen Demokratien gegen Hitler-Deutschland unterstützen oder gar selbst in den Krieg eintreten sollten. Daher erlaubte ihm die US-Regierung später nur bedingt, sich am Krieg gegen Japan zu beteiligen. Leben Herkunft, Schule, Ausbildung Charles Augustus Lindbergh, Jr., wurde in Detroit als Sohn des Rechtsanwalts und Kongressabgeordneten für Minnesota Charles August Lindbergh (1859–1924) geboren; seine Mutter Evangeline Lodge Land war Chemielehrerin. Sein Großvater väterlicherseits war Ola Månsson (1808–1893), ein einflussreicher schwedischer Politiker, der 1859 aufgrund von Korruptionsvorwürfen seine Heimat verlassen und bei seiner Einwanderung in die Vereinigten Staaten den Namen August Lindbergh angenommen hatte. Lindberghs Großvater mütterlicherseits war der Zahnarzt Charles Henry Land (1847–1922), der die Jacketkrone (Mantelkrone) erfand und als „Vater der Porzellanzahnheilkunde“ gilt. Schon als Kind interessierte sich Lindbergh für Motoren und Maschinen. Er begann ein Maschinenbaustudium, das er allerdings 1922, nach knapp zwei Jahren, aufgrund schlechter Leistungen abbrach. Anschließend absolvierte er eine Pilotenausbildung bei der Nebraska Aircraft Corporation, die eine Mechanikerausbildung mit einschloss. Da aber kein festes Kursprogramm festgelegt worden war, kam er nur auf wenige Flugstunden. Den abschließenden Alleinflug durfte er nicht absolvieren, da er die 500 Dollar Sicherheitskaution für mögliche Beschädigungen des Flugzeugs nicht aufbringen konnte. Einige Monate lang tat sich Lindbergh für Flugvorführungen mit einem anderen Piloten zusammen, wobei er jedoch nicht selbst flog, sondern nur Fallschirmsprünge unternahm. Danach kaufte er sich ein eigenes Flugzeug, eine Curtiss JN-4 „Jenny“, mit der er die noch fehlende Erfahrung erwarb und bis 1924 als Kunstflieger durchs Land zog. In diesem Jahr trat er den US-amerikanischen Heeresfliegern (United States Army Air Service) bei, wo er eine gute Flugausbildung bekam. Nach anfänglichen Schwierigkeiten machte er im März 1925 seinen Abschluss als Jahrgangsbester. Da zu jener Zeit für Militärpiloten wenig Bedarf bestand, wurde Lindbergh Postflieger auf der Strecke St. Louis – Chicago. Freimaurer Am 9. Juni 1926 wurde Charles Lindbergh in die Freimaurerloge Keystone Lodge No. 243 in St. Louis aufgenommen, wo er am 20. Oktober zum Gesellen befördert und am 15. Dezember zum Meister erhoben wurde. Während seines Atlantikflugs trug er das Freimaurersymbol als Glücksbringer auf seiner Jacke. Auch sein Flugzeug, die Spirit of St. Louis, trug das Zeichen seiner Loge. Der Atlantik-Flug Ab 1926 beschäftigte er sich mit der Idee des Nonstopflugs von New York nach Paris. Im Mai 1919 hatte Raymond Orteig – ein in Frankreich geborener US-Amerikaner, der es vom Busschaffner zum wohlhabenden Hotelbesitzer gebracht hatte – einen Preis über 25.000 US-Dollar für den ersten Nonstopflug zwischen den beiden Städten, egal in welcher Richtung, ausgesetzt. Einige Piloten waren bereits an dieser Aufgabe gescheitert. Lindbergh kontaktierte den ziemlich unbekannten Flugzeughersteller Ryan Aeronautical in San Diego und fragte an, ob Ryan eine einmotorige Maschine für diese Strecke bauen könne. Ryan nahm die Herausforderung an, und bereits am 28. April 1927 war das Flugzeug nach nur zwei Monaten Entwicklungs- und Bauzeit fertig. Die Maschine wurde Spirit of St. Louis getauft. Schon die Überführung des Flugzeugs von Küste zu Küste geschah in Rekordzeit. Am 20. Mai 1927 um 7:54 Uhr schließlich startete Lindbergh vom Roosevelt Field in New York zu seinem Alleinflug, dessen Strecke 5.808,5 km (3.610 Meilen) betrug. Aus Gewichtsgründen hatte Lindbergh zugunsten maximaler Treibstoffzuladung auf Funkgerät und Sextant verzichtet und musste sich deshalb mit Koppelnavigation mittels Armbanduhr, Karten und Kompass begnügen. Größte Probleme bereiteten ihm ein Schneesturm bei Neufundland, das er nach New York und Nova Scotia überflog, sowie die Überwindung der Müdigkeit auf seinem Weg über Südirland und Südengland auf den europäischen Kontinent. Die Navigation gelang ihm allerdings besonders gut, denn als er die Küste von Irland erreichte, war er nur 5 km vom Kurs abgewichen. Es war dann für ihn relativ leicht, an der Küste von Irland und England entlang zu fliegen und über den Ärmelkanal Frankreich zu erreichen. Paris schließlich fand Lindbergh durch die weithin sichtbare Beleuchtung des Eiffelturms mit dem Reklame-Schriftzug CITROEN. In seiner Autobiografie schreibt Lindbergh, dass er mit dem Gedanken spielte, nach Rom weiterzufliegen, weil noch reichlich Treibstoff vorhanden war, er dort bei Tageslicht hätte landen können, und weil er sich nicht darüber klar war, wie sehr die Franzosen ihn erwarteten. Nach 33,5 Stunden landete er doch auf dem Flughafen Le Bourget in Paris unter dem Jubel einer begeisterten Menschenmenge und gewann damit das Preisgeld. Als „Flying Fool“ (Fliegender Narr) von der Presse tituliert, fand zu seinen Ehren sogar eine Konfettiparade in New York statt – Lindbergh war ein Nationalheld geworden. Lindbergh war jedoch nicht, wie oft behauptet, der Erste überhaupt, der den Atlantik überflog. Tatsächlich war er der 67. Mensch, der dies vollbrachte, denn die erste Nonstop-Atlantiküberquerung per Flugzeug gelang bereits 1919 John Alcock und Arthur Whitten Brown. Wenige Tage später fuhr das englische Luftschiff R34 nonstop von England nach Mineola/New York und nach einer Landung nonstop zurück. Lindbergh gelang jedoch der erste Nonstopflug von New York nach Paris und die erste Alleinüberquerung des Atlantiks. Der erste Alleinflug über den Atlantischen Ozean von Ost nach West gelang am 18. August 1932 dem Schotten Jim Mollison. Heirat, Entführung des Sohnes 1929 heiratete Lindbergh Anne Spencer Morrow, die Tochter des Geschäftsmanns und Politikers Dwight Morrow, der er ebenfalls das Fliegen beibrachte. Anne begleitete später ihren Mann auf seinen Flügen als Kopilotin und Funkerin. Aus der Ehe gingen sechs Kinder hervor, die zwischen 1930 und 1945 geboren wurden (zu den Kindern siehe Anne Morrow Lindbergh). Am 22. Juni 1930 wurde der Sohn Charles III. geboren. Knapp zwei Jahre später, am 1. März 1932, wurde er von Unbekannten entführt, die 50.000 Dollar Lösegeld verlangten. Am 12. Mai wurde die bereits stark verweste Kinderleiche etwa fünf Meilen von Lindberghs Anwesen entfernt gefunden. Durch Lindberghs Berühmtheit erregte der Fall großes Aufsehen. Für die Tat wurde Bruno Richard Hauptmann verurteilt und 1936 hingerichtet. Dieser bestritt stets die Tat, und bis heute gibt es Zweifel an seiner Schuld. Kritisiert wird dabei auch Lindberghs Aussage, die Stimme Hauptmanns zweifelsfrei als die des Lösegeldempfängers erkannt zu haben, obwohl er bei der Lösegeldübergabe 70 Meter entfernt in einem Auto saß. Die Tötung des Entführungsopfers trotz Lösegeldzahlung hat Agatha Christie zu ihrem im Januar 1934 erschienenen Roman Mord im Orient-Express inspiriert. Aufenthalt in Europa Im August 1932, wenige Monate nach dem Tod von Charles III., war der zweite Sohn Jon geboren worden. Charles Lindbergh fühlte sich durch die ständige Anteilnahme der Öffentlichkeit nach dem Tod seines ersten Sohnes zunehmend erschöpft und war um die Sicherheit des zweiten Kindes besorgt. Auf der Suche nach Ruhe und Sicherheit reiste das Ehepaar Lindbergh mit dem dreijährigen Kind Jon im Dezember 1935 heimlich von den USA nach England aus: Als einzige Passagiere an Bord eines Frachtschiffs, unter falschem Namen und ausgestattet mit Diplomatenpässen, fuhren sie von Manhattan nach Liverpool, wo sie am 31. Dezember 1935 ankamen. Die Familie besuchte zunächst Verwandte in Südwales und lebte dann in dem kleinen Dorf Sevenoaks Weald in der Grafschaft Kent. 1937 wurde der Sohn Land geboren. Im März 1938 kaufte Lindbergh für 16.000 US-Dollar eine kleine Insel vor der bretonischen Küste: die Île Illiec bei Penvénan. Auf der nur 1,6 Hektar großen Insel wohnte die Familie von Juni bis Anfang Dezember 1938. Auf Ersuchen des US-Militärs und in seiner Funktion als Oberst des U.S. Army Air Corps reiste Lindbergh mehrmals nach Deutschland, um über die deutsche Luftrüstung zu berichten. Dabei traf er sich auch mit hochrangigen NS-Größen wie Hermann Göring, von dem er im Oktober 1938 das Großkreuz des Deutschen Adlerordens verliehen bekam. Im April 1939 kehrte das Ehepaar Lindbergh wieder in die Vereinigten Staaten zurück. Unterstützung des America First Committee Nach der Gründung des America First Committee (AFC), einer isolationistischen Bewegung, die die Teilnahme der USA am Zweiten Weltkrieg zu verhindern suchte, wurde Lindbergh bald der bekannteste Sprecher dieser Organisation. In den Jahren 1940 und 1941 hielt er viel beachtete Radioansprachen und Reden vor Versammlungen mit tausenden von Zuhörern, in denen er – wie zum Beispiel in einer am 4. August 1940 ausgestrahlten Radioansprache – dafür eintrat, dass die USA sich aus dem europäischen Krieg heraushalten und sich mit den neuen Machtverhältnissen in Europa abfinden müssten: Ferner erklärte er: Lindbergh war, wie sein Biograf Scott Berg schreibt, überzeugt davon, dass die mächtigen USA, von blindem Idealismus geleitet, nicht erkennen könnten, dass die Vernichtung Hitlers Europa der Barbarei Stalins ausliefere und dadurch möglicherweise der westlichen Zivilisation eine tödliche Wunde geschlagen würde. Nachdem Präsident Roosevelt am 25. April 1941 auf einer Pressekonferenz im Weißen Haus angekündigt hatte, dass Lindbergh wegen seiner politischen Ansichten nicht wieder zum Aktivdienst in den Streitkräften einberufen werde, legte dieser am 28. April „mit tiefstem Bedauern“ seinen Rang als Oberst der Luftwaffe nieder. Am 11. September 1941 hielt Lindbergh auf einer AFC-Versammlung in Des Moines, Iowa, seine berüchtigte Rede Who are the War Agitators?, in der er erklärte, die drei wichtigsten Gruppen, die die USA in den Krieg treiben wollten, seien „die Briten, die Juden und die Regierung Roosevelt“. Er sagte zwar, dass die Verfolgung der „jüdischen Rasse“ im Deutschen Reich von niemandem, „dem etwas an der Würde des Menschen liege“, gutgeheißen werden könne, richtete aber gleichzeitig eine deutliche Warnung an die Juden: Schließlich wies er seine Zuhörer auch auf die angeblich von den Juden ausgehende „Gefahr“ für die Vereinigten Staaten hin: Die Des-Moines-Rede trug Lindbergh heftige Kritik von der Presse, jüdischen Organisationen, Politikern aller Parteien und sogar aus den Reihen des AFC ein. Lindbergh wurde als Sympathisant der Nationalsozialisten und als Antisemit kritisiert. Die Zeitung Des Moines Register schrieb beispielsweise, dass diese Rede „ihn [Lindbergh] für jeden Führungsanspruch in politischen Angelegenheiten in dieser Republik untauglich“ mache. Lindberghs öffentliches Ansehen schwand nach dieser Rede enorm, die ferner dazu führte, dass das FBI Nachforschungen über ihn und sein Privatleben anzustellen begann. Zeitungen und Rundfunk in Deutschland wurden hingegen von Goebbels angewiesen, Lindberghs Reden nicht zu positiv zu kommentieren, da er der Ansicht war, Lob aus Nazi-Deutschland könne für Lindbergh in den USA kontraproduktiv sein und die erhoffte Wirkung von Lindberghs öffentlichen Auftritten beeinträchtigen. Das endgültige Aus für seine Tätigkeit als AFC-Redner kam schließlich mit dem japanischen Angriff auf Pearl Harbor und dem Eintritt der USA in den Zweiten Weltkrieg, der die Selbstauflösung des AFC zur Folge hatte. Kriegsteilnahme Nach Kriegsbeginn beantragte Lindbergh seine Wiederaufnahme in die United States Army Air Forces, stieß dabei aber auf Widerstand seitens wichtiger Mitglieder des Kabinetts Roosevelts und bei der Presse. Auch mehrere Versuche, eine Position in der US-Luftfahrtindustrie zu finden, scheiterten zunächst. Schließlich gelang es ihm, mit Billigung der US-Regierung eine Stelle als Berater des Ford-Bomberentwicklungsprogramms in Detroit zu bekommen. In den Folgejahren bildete er Piloten für das Kampfflugzeug Corsair aus und war selbst auch als Testpilot tätig. 1944 erhielt er die Genehmigung zum pazifischen Kriegsschauplatz zu reisen, um die Corsair im Einsatz zu beobachten. Dort beteiligte er sich auch an von Neuguinea ausgehenden Einsätzen gegen japanische Ziele, zunächst noch als Bordbeobachter, schließlich aber auch als Pilot mit einem eigenen Kampfflugzeug. Im Zuge seines Einsatzes bei der 475th FG unterrichtete er am 3. Juli 1944 die Jagdfliegerpiloten der Staffel in seiner Art des spritsparenden Fliegens. Hintergrund war die Feststellung, dass er nach seinem ersten sechsstündigen Flug mit der Staffel mit 790 Liter mehr Treibstoff in den Tanks zurückkehrte als seine Kameraden. Dieses war gleichbedeutend mit einem 30-prozentigen Zugewinn an Reichweite. Nach rund 50 Kampfeinsätzen und dem Abschuss eines japanischen Kampfflugzeugs im Juli 1944 kehrte er wieder in die USA zurück, wo er fortan für ein US-Luftfahrtunternehmen arbeitete. 1953 veröffentlichte Lindbergh den autobiografischen Bericht The Spirit of St. Louis über seinen Pionierflug und dessen Vorbereitung ab September 1926. Für das Buch erhielt er 1954 den Pulitzer-Preis in der Kategorie Biographie und Autobiographie. Im gleichen Jahr wurde er auf Empfehlung von US-Präsident Dwight D. Eisenhower als Brigadegeneral in die Reserve der United States Air Force aufgenommen. Wissenschaftliche Betätigungen Im Jahr 1930 starb Lindberghs Schwägerin an einer Herzerkrankung. Der zu diesem Zeitpunkt 28-jährige Lindbergh wunderte sich, dass es nicht möglich war, seine Schwägerin durch ein künstliches Herz zu retten. Er wandte sich deshalb an Alexis Carrel, welcher zu diesem Zeitpunkt experimenteller Chirurg am Rockefeller Institute for Medical Research war. Carrel versuchte damals, Organe außerhalb des Körpers am Leben zu erhalten, um sie dort zu behandeln oder zu untersuchen. Lindbergh begann 1931 am Rockefeller Institut an der Perfusion von Organen außerhalb des Körpers zu forschen und führte diese Studien auch die nächsten Jahre in Frankreich fort. Obwohl die beiden überraschende Erfolge dabei erzielten, Organe außerhalb des Körpers am Leben zu erhalten, zeigten sich regelmäßig innerhalb von wenigen Tagen fortschreitende degenerative Veränderungen an den Organen. Trotzdem begann Lindbergh eine Maschine zu bauen, mit der die Organe gerettet werden sollten. Nach vier Jahren hatte er zusammen mit Carrel ein Gerät fertiggestellt, mit dem es möglich war, eine Niere, eine Schilddrüse, einen Eierstock oder ein Herz wochenlang im Labor am Leben zu halten. Diesem Durchbruch in der medizinischen Forschung verdankten Carrel und Lindbergh 1938 auch eine Platzierung auf dem Cover der amerikanischen Zeitschrift Time. Später wurde Lindberghs Pumpe von anderen Wissenschaftlern weiterentwickelt, was letztlich zur Entwicklung der ersten Herz-Lungen-Maschine führte. Sowohl Lindbergh als auch Carrel waren zumindest während ihrer Zusammenarbeit Anhänger der Eugenik. Lindbergh berichtete nach dem Zweiten Weltkrieg, dass er bestürzt von den Eindrücken aus den Konzentrationslagern in Deutschland war und dass er sich im Bezug auf seine Ansichten zur Eugenik geirrt hat. Die zweite, dritte und vierte Familie Von 1957 bis zu seinem Tode im Jahr 1974 hatte Lindbergh ein Verhältnis mit der 24 Jahre jüngeren Hutmacherin Brigitte Hesshaimer († 2001) aus München. Sie hatten drei gemeinsame Kinder: zwei Söhne und eine Tochter. Die Beziehung blieb bis zum Schluss geheim. Die Kinder kannten die wahre Identität ihres Vaters nicht, der nur selten zu Besuch kam; für sie hieß er „Careu Kent“. Die Tochter Astrid Bouteuil fand später einen Zeitschriftenartikel über Lindbergh, entdeckte Fotografien und etwa 150 Briefe von ihm an ihre Mutter. Zwei Jahre nach deren Tod (also im Jahr 2003) trat sie mit ihrem Wissen an die Öffentlichkeit. Ein postumer Vaterschaftstest (DNA-Analyse an der Universität München) im November 2003 bestätigte die Richtigkeit der Vermutungen. Darüber hinaus pflegte Lindbergh eine Beziehung zu Brigitte Hesshaimers Schwester Marietta (daraus gingen zwei Söhne hervor) und zu seiner Privatsekretärin Valeska, deren Nachname nicht bekannt ist (daraus gingen ein Sohn und eine Tochter hervor, ihre Namen sind nicht bekannt). Die sieben Kinder aus diesen Beziehungen wurden in den Jahren 1958 bis 1967 geboren: Dyrk (1958–2015), Sohn von Brigitte Hesshaimer N. N. (* 1959), Sohn von Valeska Astrid (* 1960), Tochter von Brigitte Hesshaimer N. N. (* 1961), Tochter von Valeska Vago (* 1962), Sohn von Marietta Hesshaimer Christoph (* 1966), Sohn von Marietta Hesshaimer David (* 1967), Sohn von Brigitte Hesshaimer Tod und Grabstätte Am 26. August 1974 um 7:15 Uhr starb Lindbergh im Alter von 72 Jahren in seinem Haus auf der Hawaii-Insel Maui an Lymphdrüsenkrebs. Sein Grab befindet sich in der Palapala Hoʻomau Church in Kīpahulu, Maui. Auf seinem Grabstein steht ein Vers aus Psalm 139 : Gedanklich ist hier die Auflösung im nächsten Vers des Psalms zu ergänzen: „… auch dort würde deine Hand mich leiten und deine Rechte mich fassen.“ Ehrungen 1927 wurde Lindbergh durch Beschluss des US-Kongresses mit der Medal of Honor, der höchsten militärischen Tapferkeitsauszeichnung der USA, ausgezeichnet. 1927 war er Mann des Jahres des Magazins Time. 1933 gab Lauge Koch einer Ansammlung von Nunataks in Ostgrönland den Namen Lindbergh Fjelde, nachdem Lindbergh mit seiner Frau den Grönländischen Eisschild überflogen und Koch auf Ella Ø getroffen hatte. 1938 erhielt er das von Adolf Hitler gestiftete Großkreuz des Deutschen Adlerordens. 1954 erhielt er für seine Autobiographie The Spirit of St. Louis den Pulitzer-Preis in der Kategorie Biographie und Autobiographie. 1976 wurde der Mondkrater Lindbergh nach ihm benannt. Schriften (Auswahl) 1927: We. Deutsch: Wir zwei. Im Flugzeug über den Atlantik. F.A. Brockhaus, Leipzig 1927, in der Reihe „Reisen und Abenteuer“. 1953: The Spirit of St. Louis. Deutsch: Mein Flug über den Ozean. S. Fischer, Berlin/Frankfurt am Main 1954 (). 1978: Autobiography of Values (unvollendetes Werk, postum veröffentlicht). Deutsch (übersetzt von Johannes Eidlitz): Stationen meines Lebens. Memoiren. Molden, Wien/München/Zürich/New York 1980, ISBN 3-217-00945-2; 1984 Goldmann-TB 6710, ISBN 3-442-06710-3. Rezeption Filme Lindbergh – Mein Flug über den Ozean (Originaltitel: The Spirit of St. Louis), USA 1957, Regie: Billy Wilder Kamenz und das Lindbergh-Baby. Spiegel TV Hörspiel 1963: Mein Flug über den Ozean (6 Teile). Autor: Charles Lindbergh, Regie: Heinz Dieter Köhler. Sprecher: Hansjörg Felmy (Charles Lindbergh), Kurt Lieck (Vater Lindbergh), Wolfgang Wahl (Ben John), Hermann Lenschau (Bill Robertson), Heinz von Cleve (Harold Bixby), Alwin Joachim Meyer (Harry Knight). Produktion: WDR. Sonstige Rezeption In Plane Crazy, dem ersten Micky-Maus -Stummfilm von 1928, versucht Micky, das Vorbild Lindbergh zu imitieren. In Puerto Rico existiert ein gefrorenes Fruchteis namens „Limber“ (In Anlehnung an Lindbergh), das er am 4. Februar 1928 bei seiner Landung in Puerto Rico angeboten bekommen haben soll. Ein von Bertolt Brecht 1929 verfasstes „Radiolehrstück für Knaben und Mädchen“ mit dem Titel Der Flug der Lindberghs hat die Atlantiküberquerung zum Thema. Mit dem Hörspiel soll aufgezeigt werden, dass der Atlantikflieger seinen Ozeanflug nicht alleine bewältigte, sondern wie jeder große Erfinder, Forscher und Herrscher Helfer hatte. Der Tanz Lindy Hop aus den 1930er Jahren trägt seinen Namen angeblich in Anlehnung an eine Schlagzeile zu Lindberghs Flug. Auf dem von Johnny Bruck geschaffenen Titelbild des 1962 veröffentlichten Perry-Rhodan-Heftromans Nr. 19, Der Unsterbliche, wurde die Figur Perry Rhodan abgebildet. Sie trägt die Gesichtszüge Charles Lindberghs. Die Entführung des Kindes von Charles Lindbergh wurde 1988 in dem dänischen Film Emmas Schatten thematisiert. Auf dem Album Mesner Tracks veröffentlicht das deutsche Musikprojekt Wumpscut 1991 den Titel Lindbergh. Philip Roth entwirft 2004 in seinem Roman Verschwörung gegen Amerika ein alternativweltgeschichtliches Szenario, in dem Lindbergh 1940 zum amerikanischen Präsidenten gewählt wird, woraufhin die USA nicht in den Zweiten Weltkrieg eintreten. Die Hard-Rock-Band Crystal Ball veröffentlichte 2005 auf ihrem Album Timewalker das Musikstück Powerflight, in dem Lindberghs Atlantikflug thematisiert wird. Torben Kuhlmann, Suzanne Levesque: Lindbergh – Die abenteuerliche Geschichte einer fliegenden Maus, Graphic Novel, NordSüd, Zürich 2014, ISBN 978-3-314-10210-3. Diverse Auszeichnungen, u. a. laut Stiftung Buchkunst „eines der schönsten deutschen Bücher 2014“. Im Phantasialand eröffnete 2020 ein Hotel namens Charles Lindbergh. Detlef Michelers: Charles Lindbergh, Flieger, Feature, NDR 2002 und CD mit Booklet in Der Audio Verlag, 2002, ISBN 3-89813-187-4. Mit Wolf-Dietrich Sprenger, Jens Wawrczeck, Brigitte Röttgers und Wolfgang Kaaven. Siehe auch Liste bekannter Personen der Luftfahrt Literatur Thomas Kessner: The Flight of the Century: Charles Lindbergh and the Rise of American Aviation. Oxford University Press, New York 2012, ISBN 978-0-19-993117-0. Rudolf Schröck, u. a.: Das Doppelleben des Charles A. Lindbergh. Der berühmteste Flugpionier aller Zeiten; seine wahre Geschichte. Heyne, München 2005, ISBN 3-453-12010-8. Mark Benecke: Mordmethoden. Ermittlungen des bekanntesten Kriminalbiologen der Welt. Bastei Lübbe, Bergisch Gladbach 2002, ISBN 3-404-60545-4. Andrew Scott Berg: Charles Lindbergh. Ein Idol des 20. Jahrhunderts. Blessing, München 2001, ISBN 3-89667-089-1. Tim Healey, Andreas Held (Übers.): Entdecker und Abenteurer. Reihe: Unser 20. Jahrhundert. Verlag Reader’s Digest – Das Beste, Stuttgart 1999, ISBN 3-87070-830-1 (mit zahlr. Abb. – Aus dem Englischen) Joyce Milton: Die Lindberghs, eine Biographie. (Originaltitel: Loss of Eden, übersetzt von Brigitte Jakobeit und Jörn Ingwersen), Hoffmann und Campe, Hamburg 1995, ISBN 3-455-08574-1; Taschenbuchausgabe: Piper, München 1997, ISBN 3-492-22425-3. Weblinks charleslindbergh.com lindberghfoundation.org Featured Subject: Charles A. Lindbergh – With Articles From the Archives of The New York Times (sehr umfassend; mit zahlreichen Originalartikeln) Charles Lindbergh: Doppelleben hinterm Doppelleben, FAZ, 27. August 2003 Solveig Grothe: Das Jahrhundertverbrechen. In: einestages vom 28. Februar 2012 Einzelnachweise Luftfahrtpionier Pulitzer-Preisträger Militärperson (United States Army Air Forces) Brigadegeneral (United States Air Force) Pilot (Vereinigte Staaten) Träger der Medal of Honor Träger der Goldenen Ehrenmedaille des Kongresses Träger des Distinguished Flying Cross (Vereinigte Staaten) Träger des Verdienstorden vom Deutschen Adler Person als Namensgeber für einen Mondkrater Ehrenbürger von London Freimaurer (20. Jahrhundert) Freimaurer (Vereinigte Staaten) Verkehrsgeschichte (Atlantischer Ozean) Person des Antisemitismus US-Amerikaner Geboren 1902 Gestorben 1974 Mann Wikipedia:Artikel mit Video
890
https://de.wikipedia.org/wiki/Chinesische%20Sprachen
Chinesische Sprachen
Die chinesischen oder sinitischen Sprachen () bilden einen der beiden Primärzweige der sinotibetischen Sprachfamilie, der andere Primärzweig sind die tibetobirmanischen Sprachen. Chinesische Sprachen werden heute von ca. 1,3 Milliarden Menschen gesprochen, von denen die meisten in der Volksrepublik China und in der Republik China (Taiwan) leben. In vielen Ländern, vor allem in Südostasien, gibt es größere chinesischsprachige Minderheiten. Die chinesische Sprache mit der größten Anzahl an Sprechern ist Mandarin. Auf ihm basiert das Hochchinesische, das auch einfach als „das Chinesische“ bzw. „Chinesisch“ bezeichnet wird. Mehrere chinesische Sprachen, eine chinesische Schrift In der Regel bezeichnet der Begriff „chinesische Sprache“ die Standardsprache Hochchinesisch ( in China, in Taiwan), die auf der größten sinitischen Sprache, dem Mandarin (), basiert und im Wesentlichen dem Mandarin-Dialekt von Peking () entspricht. Daneben gibt es neun weitere chinesische Sprachen, die ihrerseits in viele Einzeldialekte zerfallen. Diese Sprachen werden in Europa oft als „Dialekte“ bezeichnet, obwohl der Grad ihrer Abweichungen untereinander nach westlichem Maßstab eine Klassifikation als Sprache rechtfertigt. In der traditionellen chinesischen Terminologie werden sie Fangyan () genannt. Selbst innerhalb einer großen sinitischen Sprache ist die Verständigung von Sprechern unterschiedlicher Dialekte nicht immer möglich, insbesondere der nordöstliche Dialekt (, ) und die südlichen Dialekte (, ) des Mandarin sind untereinander nicht verständlich. Für die Verständigung über Sprachgrenzen hinaus wird in China überwiegend das von den meisten Chinesen gesprochene Hochchinesisch angewendet; regional begrenzter dienen auch andere Sprachen wie das Kantonesische als Verständigungsmittel. Die chinesische Schrift fungiert auch in eingeschränktem Maß als dialektübergreifendes Verständigungsmittel, da etymologisch verwandte Morpheme trotz unterschiedlicher Aussprache im Allgemeinen in allen Dialekten mit dem gleichen chinesischen Schriftzeichen geschrieben werden. Das folgende Beispiel möge dies illustrieren: Im Altchinesischen war das gewöhnliche Wort für „Essen“ *Ljɨk, das mit dem Zeichen geschrieben wurde. Die heutige Aussprache für das Wort „Essen“ shí (Hochchinesisch), sɪk˨ (Yue, kantonesischer Dialekt, Jyutping sik6), st˥ (Hakka, Meixian-Dialekt), sit˦ (Südliches Min, Xiamen-Dialekt) stammen alle davon ab und werden daher ebenfalls geschrieben. Somit dient die logographische chinesische Schrift – jedes Zeichen steht im Prinzip für ein Wort – als einigendes Band, das die Sprecher der sehr unterschiedlichen chinesischen Sprachvarianten zu einer großen kulturellen Gemeinschaft mit einer Jahrtausende alten schriftlichen Tradition verbindet. Bei einer Alphabetschrift oder einer anderen Lautschrift wäre diese einigende Funktion nicht vorhanden. Das bedeutet jedoch nicht, dass sich die chinesischen Dialekte nur phonologisch unterscheiden. So wird für „essen“ im Hochchinesischen gewöhnlich nicht shí, sondern chī benutzt, das nicht von *Ljɨk stammt und daher mit einem eigenen Zeichen, , geschrieben wird. Die Dialekte des Chinesischen verfügen, sofern sie geschrieben werden, für viele Wörter über eigene Zeichen, wie das Kantonesische , mou˩˧, „nicht haben“. Daher, aber auch aufgrund grammatikalischer Abweichungen, sind auch geschriebene Texte dialektübergreifend nur eingeschränkt verständlich. Bis zum Beginn des 20. Jahrhunderts übte aber die Verwendung des klassischen Chinesisch, dessen schriftliche Form dialektunabhängig war und in ganz China und auch Japan, Korea und Vietnam verwendet wurde, auf der Ebene der Schriftsprache eine einigende Funktion aus. Chinesische Sprachen und ihre geographische Verbreitung Das ursprüngliche Verbreitungsgebiet der chinesischen Sprache ist schwer zu rekonstruieren, da die Sprachen der Nachbarn des antiken Chinas fast unbekannt sind und somit sich nicht entscheiden lässt, ob chinesische Sprachen außerhalb derjenigen chinesischen Staaten verbreitet waren, die Schriftzeugnisse hinterlassen haben; vor allem weite Teile Südchinas scheinen noch im 1. Jh. n. Chr. außerhalb des chinesischen Sprachgebiets gelegen zu haben. Bereits in der Zeit der Zhou-Dynastie (11. bis 3. Jh. v. Chr.) finden sich Hinweise auf eine dialektale Gliederung des Chinesischen, die sich in den folgenden Jahrhunderten wesentlich verstärkte. Heute werden meist acht chinesische Sprachen oder Dialektbündel unterschieden, die jeweils aus einer Vielzahl lokaler Einzeldialekte bestehen. Die folgende Tabelle gibt die acht chinesischen Sprachen oder Dialektbündel mit ihren Sprecherzahlen und Hauptverbreitungsgebieten an. Die Sprecherzahlen stammen aus Ethnologue und anderen aktuellen Quellen. Eine detaillierte Auflistung lokaler Dialekte bietet der Artikel Liste der chinesischen Sprachen und Dialekte. Die nordchinesischen Dialekte (, ), fachsprachlich auch Mandarin () genannt, sind die bei Weitem größte Dialektgruppe; sie umfasst das gesamte chinesische Sprachgebiet nördlich des Yangzi und in den Provinzen Guizhou, Yunnan, Hunan und Guangxi auch Gebiete südlich des Yangzi. Der Dialekt Pekings, die Grundlage des Hochchinesischen, gehört zu den Mandarin-Dialekten. Das Wu wird von etwa 80 Millionen Sprechern südlich der Mündung des Yangzi gesprochen, der Dialekt von Shanghai nimmt hier eine wichtige Stellung ein. Südwestlich daran grenzt das Gan vor allem in der Provinz Jiangxi mit 21 Millionen Sprechern und westlich davon, in Hunan, das Xiang mit 36 Millionen Sprechern. An der Küste, in der Provinz Fujian, im Osten Guangdongs sowie auf Taiwan und Hainan sowie in Singapur werden die Min-Dialekte gesprochen, zu denen insgesamt etwa 60 Millionen Sprecher gehören. In Guangxi, Guangdong und Hongkong wird von etwa 70 Millionen Menschen das Yue gesprochen, dessen wichtigster Dialekt das Kantonesische mit den Zentren Guangzhou und Hongkong ist. Die übliche Klassifikation ist in erster Linie phonologisch motiviert, als wichtigstes Kriterium gilt die Entwicklung ursprünglich stimmhafter Konsonanten. Doch es finden sich auch deutliche lexikalische Unterschiede. So gelten das Pronomen der dritten Person tā (so die entsprechende hochchinesische Form), die Attributpartikel de und die Negation bù als typische Merkmale nördlicher Dialekte, besonders des Mandarin, teilweise aber auch von den Xiang-, Gan und Wu-Dialekten südlich des unteren Yangzi, die vom Mandarin beeinflusst sind. Typische Merkmale vor allem südlicher Dialekte sind dagegen die ausschließliche Verwendung von Negationen mit nasalem Anlaut (etwa kantonesisch m21), Kognata des altchinesischen qú (kantonesisch kʰɵy˩˧) oder yī (Shanghaiisch ɦi˩˧) als Pronomen der dritten Person sowie einige Wörter, die sich weder in nördlichen Dialekten noch im Alt- oder Mittelchinesischen finden, wie „Schabe“, Xiamen ka˥˥-tsuaʔ˥˥, Kantonesisch kaːt˧˧-tsaːt˧˧, Hakka tshat˦˦ und „vergiften“, Fuzhou thau1˧, Yue tou˧˧, Kejia theu˦˨. Die folgende Gegenüberstellung etymologisch zusammengehöriger Wörter aus Vertretern der große Dialektgruppen verdeutlicht genetische Zusammengehörigkeit, aber auch den Grad der Diversität der chinesischen Sprachen: Zur Bezeichnung Im Chinesischen selbst ist eine Reihe unterschiedlicher Begriffe für die chinesische Sprache gebräuchlich. Zhōngwén () ist ein allgemeiner Begriff für die chinesische Sprache, der sowohl für die gesprochene als auch die geschriebene Sprache verwendet wird. Da die geschriebene Sprache weitgehend unabhängig vom Dialekt ist, umfasst dieser Begriff auch die meisten chinesischen Dialekte. Hànyǔ () ist unter Muttersprachlern im heutigen Sprachgebrauch größtenteils austauschbar mit zhōngwén, aber weniger verbreitet. Da das Wort hàn für die Han-Nationalität steht, umfasst der Begriff ursprünglich alle Dialekte, die von Han-Chinesen gesprochen werden. Umgangssprachlich bezeichnet Hànyǔ allerdings eher das Hochchinesische, für das es einen eigenen Fachbegriff, das Pǔtōnghuà (), gibt. Huáyǔ () hingegen wird meist als Begriff von Auslandschinesen in der Diaspora außerhalb Chinas benutzt. Das Zeichen huá leitet sich vom historischen Begriff Huáxià () für das antike China ab. Während die Bezeichnung Tángwén () bzw. Tánghuà () für die chinesische Sprache sich vom Wort táng , das alte China der Tang-Dynastie, ableitet. Beziehungen zu anderen Sprachen Dieser Abschnitt gibt einen kurzen Überblick über genetische Verwandtschaft des Chinesischen mit anderen Sprachen. Ausführlich wird dieses Thema im Artikel Sinotibetische Sprachen behandelt. Genetische Verwandtschaft Tibeto-Birmanisch Das Chinesische wird heute allgemein als Primärzweig der sinotibetischen Sprachfamilie angesehen, die etwa 350 Sprachen mit 1,3 Mrd. Sprechern in China, dem Himalaya-Gebiet und Südostasien umfasst. Die meisten Klassifikationen des Sinotibetischen stellen das Chinesische dem Rest der tibetobirmanischen Sprachfamilie gegenüber, einige wenige Forscher betrachten das Sinitische als eine Untereinheit des Tibetobirmanischen, gleichrangig mit den vielen anderen Untergruppen dieser Einheit. Das Chinesische hat zahllose Lexeme seines Grundwortschatzes mit anderen sinotibetischen Sprachen gemeinsam: Außer dem gemeinsamen Basiswortschatz verbindet das Sinitische und Tibetobirmanische die ursprünglich gleiche Silbenstruktur (wie sie etwa im klassischen Tibetischen weitgehend erhalten ist und für das Altchinesische rekonstruiert werden kann) und eine weitverbreitete Derivationsmorphologie, die in gemeinsamen konsonantischen Präfixen und Suffixen mit bedeutungsändernder Funktion zum Ausdruck kommt. Eine relationale Morphologie (Veränderung der Nomina und Verben im Sinne einer Flexion) haben das Proto-Sinotibetische wie auch die modernen sinitischen Sprachen nicht ausgebildet, diese Form der Morphologie ist eine Innovation vieler tibetobirmanischer Sprachgruppen, die durch gebietsübergreifende Kontakte mit Nachbarsprachen und durch Überlagerung älterer Substratsprachen entstanden ist. Andere Sprachen Genetische Verwandtschaft des Chinesischen mit Sprachen außerhalb des Tibetobirmanischen wird von der Linguistik nicht allgemein anerkannt, es existieren jedoch einige Versuche, das Chinesische in weit über die traditionellen Sprachfamilien hinausgehende Makrofamilien einzuordnen. Einige Forscher vertreten beispielsweise eine genetische Verwandtschaft mit den austronesischen Sprachen, den jenisseischen Sprachen oder sogar den kaukasischen oder den indogermanischen Sprachen, wofür Wortgleichungen wie chinesisch < *kwjəl „wer“ = lateinisch quis „wer“ herangezogen werden. Keiner dieser Versuche hat jedoch bisher die Zustimmung einer Mehrheit der Sprachwissenschaftler gewinnen können. Lehnbeziehungen Aufgrund der jahrtausendelangen Koexistenz mit anderen, genetisch nicht verwandten Sprachen haben sich das Chinesische und verschiedene südost- und ostasiatische Sprachen gegenseitig stark beeinflusst. So finden sich in ihnen Hunderte von chinesischen Lehnwörtern, oft Bezeichnungen chinesischer Kulturgüter: > Koreanisch čhäk, Bai tshua˧˧. Diese Einflüsse haben sich in besonders hohem Maße auf Korea, Vietnam und Japan ausgewirkt, wo zudem auch die chinesische Schrift Anwendung findet und das klassische Chinesisch über Jahrhunderte als Schriftsprache benutzt wurde. Auch das Chinesische selbst weist eine große Anzahl fremder Einflüsse auf. So sind einige wesentliche typologische Züge des modernen Chinesisch vermutlich auf Fremdeinfluss zurückzuführen, darunter die Ausbildung eines Tonsystems, die Aufgabe ererbter morphologischer Bildungsmittel und die obligatorische Anwendung von Zählwörtern. Fremdeinfluss zeigt sich auch in der Aufnahme nicht weniger Lehnwörter. Schon in sehr früher Zeit muss das Wort (altchinesisch *xlaʔ) aus den austroasiatischen Sprachen entlehnt worden sein, vgl. Mon klaʔ, Mundari kula. Das Wort , das während der Han-Dynastie (206 v. Chr. bis 220 n. Chr.) das ältere verdrängte, wurde wohl während der Zeit der Zhou-Dynastie (um 1100–249 v. Chr.) aus dem Miao-Yao entlehnt. Auch aus nördlichen Nachbarsprachen wurden in vorgeschichtlicher Zeit Wörter übernommen, so beispielsweise , das sich in altaischen Sprachen wiederfindet: Mongolisch tuɣul, Mandschurisch tukšan. Besonders groß wurde die Zahl von Lehnwörtern im Chinesischen während der Han-Dynastie, als auch aus westlichen und nordwestlichen Nachbarsprachen Wörter übernommen wurden, beispielsweise aus einer iranischen Sprache, vgl. Persisch باده bāda. Schwer nachweisbar sind Entlehnungen aus der Sprache der Xiongnu; hier ist mutmaßlich einzuordnen. Durch den starken Einfluss des Buddhismus während des 1. nachchristlichen Jahrtausends drang eine Vielzahl indischer Lehnwörter ins Chinesische ein: aus dem Sanskrit candana, aus dem Sanskrit śramaṇa. Nur wenige Lehnwörter hinterließ die mongolische Herrschaft der Yuan-Dynastie (1279–1368), beispielsweise aus dem Mongolischen moku. Im 16. Jahrhundert setzte ein starker europäischer Einfluss ein, der sich auch im chinesischen Wortschatz niederschlug. So wurden in dieser Zeit christliche Termini ins Chinesische entlehnt: aus dem spätlateinischen . Seit dem 19. Jahrhundert wurden auch Bezeichnungen für Errungenschaften der europäischen Technik übernommen, wobei sich das Chinesische jedoch gegenüber Entlehnungen als wesentlich resistenter erwies als etwa das Japanische. Beispiele hierfür sind: aus dem Englischen , aus dem Englischen . In manchen Fällen fanden Lehnwörter über Dialekte den Weg ins Hochchinesische: z. B. aus dem Shanghaiischen safa vom Englischen . Eine besondere Erscheinung bildet eine Gruppe von Lehnwörtern insbesondere aus Japan, bei denen nicht die Aussprache, sondern die Schreibung entlehnt wird. Dies wird dadurch ermöglicht, dass das entlehnte Wort in der Ursprungssprache selbst mit chinesischen Schriftzeichen geschrieben wird. Über diese Route gelangten auch westliche Fachtermini aus der Medizin, die in Japan mit chinesischen Zeichen eingebürgert waren, nach China: > Hochchinesisch > Hochchinesisch Niederländisch slagader > > Hochchinesisch Niederländisch zenuw > > Hochchinesisch Verschriftlichung und soziokultureller Status Traditionelle Schrift Das Chinesische wird seit den frühesten bekannten Schriftzeugnissen aus dem 2. vorchristlichen Jahrtausend mit der chinesischen Schrift geschrieben. In der chinesischen Schrift wird – von Ausnahmen abgesehen – jedes Morphem mit einem eigenen Zeichen wiedergegeben. Da die chinesischen Morpheme einsilbig sind, lässt sich so jedem Zeichen ein einsilbiger Lautwert zuordnen. Entgegen einem weit verbreiteten Missverständnis werden synonyme, aber nicht homophone Wörter mit unterschiedlichen Zeichen geschrieben. So bedeuten sowohl das historisch ältere Zeichen quǎn als auch das historisch jüngere Schriftzeichen gǒu „Hund“, werden aber mit völlig anderen Zeichen geschrieben. Einige Zeichen gehen dabei auf piktographische Darstellungen des entsprechenden Wortes zurück, auch andere rein semantisch basierte Typen kommen vor. Etwa 85 % der heutigen Zeichen enthalten aber phonologische Information und sind aus zwei Komponenten zusammengesetzt, von denen eine die Bedeutung angibt und die andere ein Morphem mit ähnlicher Aussprache darstellt. So besteht das Zeichen aus „Frau“ als Bedeutungskomponente (Radikal) und als Aussprachekomponente. In einigen Fällen stellt ein Zeichen mehrere Morpheme dar, insbesondere etymologisch verwandte. Die Zahl aller chinesischen Zeichen ist aufgrund des morphemischen Prinzips verhältnismäßig hoch; bereits das Shuowen Jiezi () von 100 n. Chr. verzeichnet knapp 10.000 Zeichen; das Yitizi Zidian () von 2004 enthält 106.230 Zeichen, von denen sehr viele aber nicht mehr in Gebrauch sind oder lediglich seltene Schreibvarianten anderer Zeichen darstellen. Die durchschnittliche Zahl der Zeichen, die ein Chinese mit Universitätsabschluss beherrscht, beträgt aber weniger als 5000; etwa 2000 gelten für das Lesen einer hochchinesischen Zeitung als erforderlich. Die chinesische Schrift ist nicht einheitlich. Seit der Schriftreform vom Jahre 1958 werden in der Volksrepublik China (und später auch in Singapur) offiziell die vereinfachten Zeichen (Kurzzeichen, ) verwendet, in Taiwan, Hongkong und Macau dagegen werden weiterhin die sogenannten „traditionellen Zeichen“ (Langzeichen, oder ), benutzt. Auch auf die Verschriftlichung anderer Sprachen, die chinesische Schriftzeichen nutzen, wie des Japanischen wurde die chinesische Schriftreform nicht angewendet; in Japan wurden aber bereits 1946 unabhängig vereinfachte Zeichenformen, auch Shinjitai genannt, eingeführt. Neben der chinesischen Schrift waren in China auch einige andere Schriften in Gebrauch. Dazu zählt insbesondere die Nüshu, eine seit dem 15. Jahrhundert in der Provinz Hunan verwendete Frauenschrift. Unter der Yuan-Dynastie (1279–1368) wurde auch die phonetisch basierte Phagspa-Schrift für das Chinesische verwendet. Anmerkung Transkriptionen Neben der chinesischen Schrift gibt es zahlreiche auf dem lateinischen Alphabet basierende Transkriptionssysteme für Hochchinesisch und die einzelnen Dialekte beziehungsweise Sprachen. In der Volksrepublik China wird Hanyu Pinyin (kurz: Pinyin) als offizielle Romanisierung für das Hochchinesische verwendet; ein weiteres, besonders vor der Einführung von Pinyin sehr weit verbreitetes Transkriptionssystem ist das Wade-Giles-System. Für die verschiedenen Dialekte bzw. Sprachen existieren keine allgemein anerkannten Transkriptionssysteme. Daher ist es für chinesisch nicht bewanderte Personen leicht verwirrend, wenn es zu einem chinesischen Begriff oder Namen historisch mehrere lateinisierte (romanisierte) Schreibweisen gibt. So beispielsweise die Schreibweisen der Name Mao Zedong (heute amtlich nach Pinyin) oder Mao Tse-tung (historisch nach W.G.), die Begriffe Dao (Pinyin) Tao (W.G.), Taijiquan (Pinyin) bzw. Tai Chi Chuan (W.G.) oder Gong fu (Pinyin) bzw. Kung Fu (W.G.), selten auch Gung Fu (inoffizielle kantonesische Umschrift). Frühere Formen des Chinesischen werden üblicherweise wie das Hochchinesische, folglich in Pinyin transkribiert, obwohl dies die Phonologie früherer Formen des Chinesischen nicht adäquat wiedergeben kann. Muslimische Chinesen haben ihre Sprache auch in der arabisch-basierten Schrift Xiao’erjing geschrieben. Einige, die nach Zentralasien auswanderten, sind im 20. Jahrhundert zur kyrillischen Schrift übergegangen, siehe Dunganische Sprache. Soziokultureller und offizieller Status Ursprünglich unterschieden sich die gesprochene und die geschriebene Sprache in China nicht wesentlich voneinander; die schriftliche Sprache folgte den Entwicklungen der gesprochenen Sprache. Seit der Qin-Dynastie (221–207 v. Chr.) wurden jedoch Texte aus der Spätzeit der Zhou-Dynastie für die geschriebene Sprache maßgeblich, sodass das klassische Chinesisch als Schriftsprache von der gesprochenen Sprache unabhängig wurde und in geschriebener Form allgemeines Verständigungsmedium über Dialektgrenzen hinaus bildete. Das klassische Chinesisch diente jedoch ausschließlich als geschriebene Sprache einer kleinen Elite, als gesprochene Sprache wurde spätestens seit der Qing-Dynastie (1644–1911) selbst von den hochgestellten Beamten der Dialekt der Hauptstadt benutzt. Beim Lesen von Texten in klassischem Chinesisch wurde der jeweilige lokale Dialekt angewendet, einige Dialekte besaßen dafür eigene phonologische Subsysteme, die sich von der gesprochenen Sprache unterschieden. Vor allem im Zusammenhang mit der Ausbreitung des Buddhismus in China wurde volkstümliche Literatur zunehmend in der Volkssprache Baihua () abgefasst, die bei der schriftlichen Anwendung innerhalb Chinas bis zu einem gewissen Grad normiert war und sich mit wenigen Ausnahmen, wie dem im südlichen Min geschriebenen Lijingji aus dem 16. Jahrhundert, an frühen Formen der Mandarin-Dialekte orientierte. Möglicherweise kam es auch in der gesprochenen Sprache des 1. nachchristlichen Jahrtausends zu einer Standardisierung. Erst gegen Ende des chinesischen Kaiserreiches, zu Beginn des 20. Jahrhunderts, schwand die Bedeutung des klassischen Chinesisch; als Amtssprache und als literarische Sprache wurde es bis zur Mitte des 20. Jahrhunderts vom Hochchinesischen abgelöst, das sich in Grammatik, Lexikon und insbesondere der Phonologie stark an den modernen Dialekt von Peking anlehnt. Auch für andere Dialektformen des Chinesischen wurden Verschriftlichungsversuche gemacht, jedoch verfügt nur das Kantonesische über eine etablierte Literatur in chinesischer Schrift. In einigen Dialekten wurde auch eine Verschriftlichung mittels lateinischer Schrift versucht. Auch außerhalb der geschriebenen Sprache verdrängt das Hochchinesische zunehmend lokale Idiome, da das Hochchinesische landesweit an den Schulen gelehrt wird, wenngleich es die Dialekte als Umgangssprachen wohl nur stellenweise ersetzt. Homophonie und Homonymie Da die chinesische Schrift über 10.000 verschiedene Logogramme umfasst, das gesprochene Hochchinesisch aber weniger als 1.700 verschiedene Sprechsilben, hat das Chinesische wesentlich mehr homophone Morpheme, also unterschiedliche Bedeutung tragende Wortbestandteile mit gleicher Aussprache, als irgendeine europäische Sprache. Daher entsprechen weder gesprochene Sprache noch lateinische Umschriften exakt den in chinesischen Zeichen geschriebenen Texten. Vereinfachte Umschriften, die die Töne nicht markieren, lassen die Homophonie noch ausgeprägter erscheinen, als sie tatsächlich ist. Zudem gibt es im Chinesischen auch Homonyme, also unterschiedliche Begriffe, die mit demselben Wort bezeichnet werden. Trotz der sehr vielen verschiedenen Logogramme existieren auch einige Homographen, das heißt Wörter, die mit denselben Zeichen geschrieben werden. Obwohl die meisten chinesischen Homographen gleich ausgesprochen werden, gibt es auch einige mit unterschiedlicher Aussprache. Periodisierung Das Chinesische ist eine der wenigen noch gesprochenen Sprachen mit einer mehr als dreitausendjährigen schriftlichen Tradition. Die Sprachentwicklung lässt sich unter syntaktischen und phonologischen Gesichtspunkten in mehrere Phasen unterteilen. Die älteste durch schriftliche Überlieferung fassbare Form des Chinesischen ist die Sprache der Orakelknocheninschriften aus der Spätzeit der Shang-Dynastie (16.–11. Jahrhundert v. Chr.). Sie bilden den Vorläufer der Sprache der Zhou-Dynastie (11.–3. Jahrhundert v. Chr.), die als Altchinesisch () bezeichnet wird und deren Spätform als Klassisches Chinesisch bis in die Neuzeit als Schriftsprache konserviert wurde. Nach der Zhou-Dynastie entfernte sich die gesprochene Sprache allmählich vom klassischen Chinesisch; erste grammatische Innovationen finden sich schon im 2. Jahrhundert v. Chr. Sie kennzeichnen das Mittelchinesische (), das vor allem die Sprache der volkstümlichen Literatur beeinflusste. Die Zeit seit dem 15. Jahrhundert umfasst das moderne Chinesisch () und das zeitgenössische Chinesisch (; 1840–1949), das als Oberbegriff für die modernen chinesischen Sprachen dient. Typologie In typologischer Hinsicht zeigt das moderne Chinesisch relativ wenige Übereinstimmungen mit den genetisch verwandten tibeto-birmanischen Sprachen, während sich wesentlich mehr Übereinstimmungen mit den über Jahrhunderte direkt benachbarten südostasiatischen Sprachen zeigen. Insbesondere ist das moderne Chinesische sehr stark isolierend und zeigt nur wenig Flexion; die syntaktischen Zusammenhänge werden demzufolge überwiegend durch die Satzstellung und freie Partikeln ausgedrückt. Jedoch kennt auch das moderne Chinesisch morphologische Prozesse zur Wort- und Formenbildung. Phonologie Segmente Das Phoneminventar der verschiedenen chinesischen Sprachen weist eine große Diversität auf; einige Merkmale haben sich jedoch weit verbreitet; beispielsweise das Vorhandensein aspirierter Plosive und Affrikaten sowie in einem großen Teil der Dialekte der Verlust der stimmhaften Konsonanten. Die Min-Dialekte im Süden Chinas sind aus historischer Sicht sehr untypisch, da sie sehr konservativ sind, aus typologischer Sicht jedoch geben sie einen guten Querschnitt durch das Konsonanteninventar des Chinesischen, weshalb im Folgenden das Konsonantensystem des Min-Dialektes von Fuzhou (Min Dong) dargestellt ist: Diese Konsonanten finden sich in nahezu allen modernen chinesischen Sprachen; die meisten haben verschiedene zusätzliche Phoneme. So gibt es beispielsweise im Yue Labiovelare, in einigen Dialekten einen palatalen Nasal (ɲ) und im Mandarin und Wu palatale Frikative und Affrikaten. Das Hochchinesische hat folgende Konsonantenphoneme (in Klammern die Pinyin-Umschrift): Silbenbau Traditionell wird die chinesische Silbe in einen konsonantischen Anlaut () und einen Auslaut () aufgeteilt. Der Auslaut besteht aus einem Vokal, bei dem es sich auch um einen Di- oder Triphthong handeln kann, sowie einem optionalen Endkonsonanten (). So lässt sich die Silbe xiang in den Anlaut x und den Auslaut iang zerlegen, dieser wiederum wird in den Diphthong ia und den Endkonsonanten ng analysiert. Der Anlaut besteht in allen modernen chinesischen Sprachen immer – abgesehen von Affrikaten – aus einem einzelnen Konsonanten (oder ∅); es wird jedoch davon ausgegangen, dass das Altchinesische auch Konsonantencluster im Anlaut besaß. Im Auslaut lassen die modernen chinesischen Sprachen nur wenige Konsonanten zu; im Hochchinesischen beispielsweise nur n und ŋ; auch hier war jedoch die Freiheit im Altchinesischen vermutlich wesentlich größer. Aufgrund dieser stark eingeschränkten Möglichkeiten zur Silbenbildung ist die Homonymie im modernen Chinesisch sehr stark ausgeprägt. Tonalität Das wohl offensichtlichste Merkmal der chinesischen Phonologie ist, dass die chinesischen Sprachen – wie viele genetisch nicht verwandte Nachbarsprachen – Tonsprachen sind. Die Anzahl der Töne, meist handelt es sich um Konturtöne, variiert in den verschiedenen Sprachen untereinander sehr stark. Um 800 n. Chr. besaß das Chinesische acht Töne (bzw. Tonhöhenverläufe), wobei jedoch nur drei Oppositionen tatsächlich phonemische Bedeutung hatten. In den verschiedenen modernen chinesischen Sprachen hat sich das antike Tonsystem stark verändert, das Hochchinesische etwa zeigt nur noch vier Töne, die aber alle phonemisch sind, wie die folgenden Beispiele zeigen (vergleiche den Artikel Töne des Hochchinesischen): Der kantonesische Dialekt des Yue dagegen hat das antike System besser bewahrt und besitzt neun Töne (bzw. Tonverläufe), die in bestimmte Kategorien eingeteilt werden: Es wird im Allgemeinen davon ausgegangen, dass das chinesische Tonsystem hauptsächlich unter dem Einfluss von erodierten Konsonanten am Silbenende entstanden ist; das Altchinesische war demzufolge nach der Meinung der Mehrzahl der Forscher noch keine Tonsprache. Morphologie Wortbildung Grundlage der chinesischen Morphologie ist das einsilbige Morphem, dem in der geschriebenen Form der Sprache ein Zeichen entspricht. Beispiele sind im Hochchinesischen die selbstständigen Lexeme , , und Affixe wie das Pluralsuffix -. Ausnahmen sind Gruppen zweier aufeinanderfolgender Morpheme, die eine einzelne Silbe bilden. In einigen Fällen ist dies auf phonologische Veränderungen beim Zusammentreffen zweier Morpheme (sogenanntes Sandhi) zurückzuführen, wie in Hochchinesisch nà-ér > nàr „dort“, klassisches Chinesisch yě-hū > , Kantonesisch 嘅呀 kɛː˧˧ aː˧˧ > 嘎 kaː˥˥. Da die Affixe der altchinesischen Wortbildungsmorphologie keine eigene Silbe bildeten, gehören auch die unten besprochenen Derivate zu diesen Ausnahmen. Ob das Altchinesische auch mehrsilbige Morpheme besaß, die nur mit einem Zeichen geschrieben wurden, lässt sich bislang nicht klären. Im Altchinesischen entsprachen die Morphemgrenzen in der bei weitem überwiegenden Mehrzahl der Fälle den Wortgrenzen. Seit der Zeit der Han-Dynastie wurden durch Zusammensetzung einsilbiger Wörter neue, zweisilbige und bimorphemische Lexeme gebildet. Viele solcher Zusammensetzungen weisen syntaktische Strukturen auf, die sich ebenso in Phrasen und Sätzen finden, weshalb die Trennung von Syntax und Morphologie problematisch ist. So sind viele Substantive wie Nominalphrasen mit einem Attribut und folgendem Kern gebildet: wörtlich: „Deutschland – Mensch“ = „Deutscher“, wörtlich: „derjenige, der aufzeichnet“ = „Journalist“. Ebenso können Verben durch eine Kombination eines Verbs mit einem Objekt gebildet werden: aus und . Andere Zusammensetzungen sind schwieriger zu analysieren, beispielsweise aus und dem Synonym . Ein weiteres Bildungsmittel zur Wortderivation des alten wie des modernen Chinesisch stellen Affixe dar. Das Altchinesische verfügte über eine Vielzahl an Prä-, In- und Suffixen, die jedoch vielfach nur schwer nachzuweisen sind, da sie in der Schrift keine oder nur unzureichende Spuren hinterlassen. Besonders häufig findet sich ein Suffix *-s, mit dem sowohl Substantive als auch Verben gebildet werden konnten ( (*trje) „wissen“ > / zhì (*trjes) „Weisheit“; (*wjang) „König“ > (*wjangs) „herrschen“). Auch verschiedene In- und Präfixe lassen sich rekonstruieren. Auch das moderne Chinesisch verfügt über einige Suffixe zur Derivation (Beispiele aus dem Hochchinesischen): Das Pluralsuffix –men vorrangig in der Bildung von Personalpronomina: wǒmen „wir“, nǐmen „ihr“, tāmen „sie“ Nominalsuffixe: -„“ -zi in , -„“ -tou in , -„“ -jia in , In verschiedenen chinesischen Dialekten finden sich auch Präfixe, wie das im Hakka vertretene Präfix ʔa˧˧- zur Bildung von Verwandtschaftsbezeichnungen: ʔa˧˧ kɔ˧˧ „älterer Bruder“ = Hochchinesische . Derivation oder Flexion durch Tonwechsel spielt im modernen Chinesisch eine eher geringe Rolle, beispielsweise bei der Bildung des perfektiven Aspekts im Kantonesischen: sek˧˥ „aß, hat gegessen“ zu sek˨˨ „essen“. Pronomina Die Personalpronomina haben in verschiedenen Formen des Chinesischen die folgenden Formen: Das frühe Altchinesisch unterschied bei den Personalpronomina die Numeri Singular und Plural sowie verschiedene syntaktische Funktionen; so diente in der 3. Person um 900 v. Chr. *kot (heute: jué) als Attribut, *tə (heute: zhī) als Objekt und möglicherweise *gə (heute: qí) als Subjekt. Im Klassischen Chinesisch wurde die Unterscheidung der Numeri aufgegeben, seit der Han-Zeit verschwand auch die syntaktische Unterscheidung. Dafür entwickelten sich seit der Tang-Dynastie neue Plurale, die nun durch Affixe wie děng, cáo, bèi gebildet wurden. Dieses System ist in seinen Grundzügen bislang unverändert geblieben und findet sich in den modernen chinesischen Sprachen wieder. Chinesische Wörter unterscheiden generell nicht nach grammatischem Geschlecht. Wie die meisten nichtindogermanischen Sprachen hat das Chinesisch weder in Substantiven noch in Pronomen Genus. Bei den Personalpronomen gibt es erst seit der moderner Zeit die drei Unterscheidungen zwischen den dritten Personen der Sigularform, er, sie und es. Die zwei Pronomen "", "", die der weiblichen Form und der neutralen Form im Englisch und im Deutsch entsprechen, wurden von den Missionaren für die Übersetzung der Bibel ins Chinesisch erfunden. Ähnlich funktioniert die Wortbildung durch Präfixe oder Infixe "", "" vor bzw. zwischen den Nomen, um spezifisch die Geschlechterklarheit zu schaffen. Bei den vielen Substantiven wie Nominalphrasen mit einem Attribut und folgendem Kern werden dann "", "" davor hinzugefügt: wörtlich: „Deutschland – Mann – Mensch“ = „ein Deutscher“ oder "deutsche Männer", wörtlich: „weibliche aufzeichnende Person“; sinngemäß: „diejenige, die aufzeichnet“ = „Journalistin“. Syntax Allgemeines Da die chinesischen Sprachen in großem Maße isolierend sind, werden Beziehungen der Wörter untereinander vorrangig durch die vergleichsweise feste Satzstellung zum Ausdruck gebracht. Kongruenz ist nicht vorhanden; von den Personalpronomina des Alt- und Mittelchinesischen abgesehen werden auch keine Kasus markiert. In allen historischen und modernen Formen des Chinesischen ist die Stellung Subjekt – Verb – Objekt (SVO) vorherrschend, nur dass bei Subjekten Pro-Drop auftritt: In bestimmten Fällen wie Topikalisierung und in negierten Sätzen kann das Objekt auch präverbal stehen. Die Satzstellung SOV findet sich in verschiedenen Formen des chinesischen vor allem in negierten Sätzen. So standen im Altchinesischen pronominale Objekte oft vor negierten Verben: Die Satzstellung SOV ist seit etwa dem 6. Jahrhundert auch in anderen Kontexten möglich, wenn das Objekt mit einer Partikel (, und andere) eingeleitet wird: In den meisten historischen und den nördlichen modernen Varianten des Chinesischen steht das indirekte Objekt vor dem direkten; in einigen heutigen südlichen Sprachen steht hingegen das direkte voran: Eine wichtige Rolle in der chinesischen Syntax nimmt das Phänomen der Topikalisierung ein, bei der eine pragmatisch hervorgehobene Nominalphrase aus ihrer kanonischen Position an den Satzanfang gestellt wird. Im Altchinesischen wurden bei der Extraktion von Objekten und Attributen Resumptiva verwendet; im modernen Chinesisch sind diese nicht mehr vorhanden. Typisch für das moderne Chinesisch sind auch Topics, die hinter dem Subjekt stehen sowie solche, die keinen direkten syntaktischen Bezug zum folgenden Satz haben: In Ergänzungsfragen stehen die Frageausdrücke im Chinesischen in situ. Markierung von Fragen mit Interrogativa durch finale Fragepartikeln ist in einigen antiken und modernen Varianten des Chinesischen möglich: Ja-nein-Fragen werden meist mit finalen Partikeln markiert; seit dem 1. Jahrtausend n. Chr. finden sich auch Fragen der Form „A – nicht – A“: Aspekt, Tempus, Aktionsart und Diathese Aspekt, Tempus und Aktionsart können unmarkiert bleiben oder durch Partikeln oder Suffixe, manchmal auch durch Hilfsverben, zum Ausdruck gebracht werden. Im frühen Altchinesisch waren diese Morpheme ausschließlich präverbal; im späteren Altchinesisch waren die wichtigsten Aspektpartikeln dagegen das vermutlich stativisch-durativische yě und das perfektivische yǐ, die am Satzende standen: Seit dem Ende des 1. Jahrtausends n. Chr. sind auch Aspektpartikeln belegt, die zwischen Verb und Objekt stehen; diese Stellung ist in allen modernen chinesischen Sprachen weit verbreitet. Auch am Satzende und, vor allem im Min, vor dem Verb können weiterhin bestimmte Aspektpartikeln stehen. Die folgende Tabelle zeigt die Verhältnisse im Hochchinesischen: Wenngleich alle chinesischen Sprachen äußerlich ähnliche Systeme besitzen, weisen die benutzten Morpheme große Divergenzen auf. Das Hakka etwa benutzt die präverbalen Aspektpartikeln ∅ (Imperfektiv), ʔɛ˧˨ (Perfektiv), tɛn˧˨ (Kontinuativ), kuɔ˦˥ („Erfahrungs-Perfektiv“). Während das Aktiv im Chinesischen unmarkiert ist, stehen zur Markierung des Passivs unterschiedliche Möglichkeiten zur Verfügung. Im Altchinesischen blieb es ursprünglich ebenfalls unmarkiert und konnte nur indirekt durch Angabe des Agens in einer Präpositionalphrase angedeutet werden. Seit dem Ende der Zeit der Zhou-Dynastie bildeten sich Konstruktionen mit verschiedenen Hilfsverben wie , , , und , die das unmarkierte Passiv aber nicht verdrängten. Verbserialisierung Ein wichtiges und produktives Merkmal der Syntax der jüngeren chinesischen Sprachen ist die Verbserialisierung, die seit dem frühen 1. Jahrtausend n. Chr. belegt ist. In diesen Strukturen folgen zwei Verbalphrasen, die in einer bestimmten semantischen Relation stehen, ohne formale Trennung aufeinander. In vielen Fällen ist das Verhältnis der beiden Verbalphrasen resultativ, die zweite gibt also das Ergebnis der ersten an: Ebenfalls häufig sind serialisierte Verben, bei denen das zweite Verb die Richtung der Handlung ausdrückt: Eine ähnliche Konstruktion liegt bei den sogenannten Koverben vor. Hierbei handelt es sich um transitive Verben, die nicht nur als selbstständige Verben auftreten können, sondern auch die Funktion von Präpositionen übernehmen können und andere Verben modifizieren: Eine besondere Rolle nehmen verschiedene Serialverbkonstruktionen mit dem Morphem oder dessen Entsprechungen in anderen Sprachen ein. In einer Konstruktion, die als Komplement des Grades bekannt ist, markiert de ein Adjektiv, das ein Verb modifiziert. Hat das Verb ein Objekt, wird das Verb hinter dem Objekt wiederholt, oder das Objekt wird topikalisiert: In manchen Dialekten wie dem Kantonesischen kann das Objekt auch hinter gestellt werden. Außerdem können und die Negation oder deren dialektale Entsprechungen die Möglichkeit bzw. Unmöglichkeit markieren. Der Partikel folgt dabei ein Verb, das Resultat oder Richtung der Handlung angibt: Nominalphrasen Attribute Im Chinesischen steht der Kopf einer Nominalphrase stets am Ende, Pronomina, Numeralia und Attribute stehen vor ihm und können von diesem durch eine Partikel getrennt werden. Diese Partikel hat in verschiedenen Dialekten unterschiedliche Formen; im Altchinesischen lautet sie beispielsweise , im Hochchinesischen . Bei dem Attribut kann es sich um eine eigene Nominalphrase handeln: klassisches Chinesisch „wessen – subordiniertes Partikel – Land“, modernes Chinesisch „hier – Attributpartikel – Menschen“, Moiyen (Hakka) ŋaɪ̯˩˩-ɪ̯ɛ˥˥ su˧˧ „mein Buch“. Ist diese durch ein Attribut erweitert, können auch komplizierte Ketten von Attributen entstehen, die als für das Chinesische typisch gelten können. Häufig handelt es sich bei dem Attribut aber nicht um ein Substantiv, sondern um ein nominalisiertes Verb, optional auch mit Ergänzungen wie Subjekt, Objekt und adverbialen Bestimmungen. Derartige Attribute erfüllen ähnliche semantische Funktionen wie Relativsätze europäischer Sprachen. Im folgenden Beispiel aus dem Hochchinesischen ist der Kern der Nominalphrase koreferent mit dem Subjekt des nominalisierten Verbs: Der Kopf der Nominalphrase kann aber auch mit anderen Ergänzungen des nominalisierten Verbs, wie seinem Objekt, koreferent sein. In den meisten Dialekten ist dies nicht formal markiert, teilweise finden sich aber Resumptiva: Das Altchinesische konnte in Fällen, wo der Kopf nicht mit dem Subjekt des Verbs koreferent ist, die Morpheme (präklassisch), (klassisch) einsetzen: „was abgeschnitten wurde“. Zählwörter Ein wesentliches typologisches Merkmal, welches das moderne Chinesische mit anderen südostasiatischen Sprachen teilt, ist die Anwendung von Zählwörtern. Während im Altchinesischen Zahlen und Demonstrativpronomina direkt vor Substantiven stehen können (; ), muss in den modernen chinesischen Sprachen zwischen beiden Wörtern ein Zählwort stehen, dessen Wahl vom Substantiv abhängt: Hochchinesisch , . In den Yue- und Xiang-Dialekten werden Zählwörter auch zur Determination eines Substantives sowie zur Markierung eines Attributs benutzt: Kantonesisch „kʰɵy˨˧ puːn˧˥ syː˥˥“, „tsiː˥˥ pɐt˥˥“. Die Wahl des Zählwortes wird durch die Semantik des Substantivs bedingt: steht im Hochchinesischen bei Substantiven, die ein Ding bezeichnen, das einen Griff besitzt; mit werden Substantive konstruiert, die ein Gebäude bezeichnen usw. Eine Übersicht über wichtige Zählwörter des Hochchinesischen bietet der Artikel Liste chinesischer Zählwörter. Sprachcode nach ISO 639 Die ISO-Norm ISO 639 definiert Codes für die Auszeichnung von Sprachmaterialien. Die chinesischen Sprachen werden in der Norm unter den Sprachcodes zh (ISO 639-1) und zho/chi (ISO 639-2/T und /B) subsumiert. Die Norm ISO 639-3 führt den Sprachcode zho als sog. Makrosprache ein – ein Konstrukt, welches für eine Gruppe von Sprachen angewandt wird, wenn diese als Einheit behandelt werden kann. Im Falle der chinesischen Sprachen ist dieser Faktor durch die gemeinsame geschriebene Form gegeben. Die subsumierten Einzelsprachen sind im Einzelnen: gan (Gan), hak (Hakka), czh (Hui), cjy (Jin), cmn (Mandarin inkl. Standardchinesisch), mnp (Min Bei), cdo (Min Dong), nan (Min Nan), czo (Min Zhong), cpx (Pu-Xian), wuu (Wu), hsn (Xiang), yue (Yue – Kantonesisch). Auch lzh (klassisches Chinesisch) zählt zu dieser Makrosprache, nicht aber dng (Dunganisch). Zur Bezeichnung der gesamten Sprachgruppe führt die Norm ISO 639-5 den Code zhx. Literatur Allgemeines John DeFrancis: The Chinese Language: Fact and Fantasy. University of Hawaii Press, Honolulu 1984 Bernhard Karlgren: Schrift und Sprache der Chinesen. 2. Aufl., Springer, 2001, ISBN 3-540-42138-6. Jerry Norman: Chinese. Cambridge University Press, 1988, ISBN 0-521-22809-3, ISBN 0-521-29653-6. S. Robert Ramsey: The Languages of China. 2. Auflage. Princeton University Press, Princeton 1987. ISBN 0-691-06694-9, ISBN 0-691-01468-X. Graham Thurgood und Randy J. LaPolla: The Sino-Tibetan Languages. Routledge, London 2003. (zum Chinesischen: Seite 57-166) Sprachgeschichte und historische Sprachen William H. Baxter: A Handbook of Old Chinese Phonology. Trends in Linguistics, Studies and monographs No. 64 Mouton de Gruyter, Berlin / New York 1992. ISBN 3-11-012324-X. W. A. C. H. Dobson: Early Archaic Chinese. A Descriptive Grammar. University of Toronto Press, Toronto 1962 (behandelt die Sprache des 11. und 10. Jahrhunderts v. Chr.) И. С. Гуревич. И. Т. Зограф: Хрестоматия по истории китайского языка III-XV вв. (Chrestomatie für die Geschichte der chinesischen Sprache vom 3. bis 15. Jahrhundert), Moskau 1984 Robert H. Gassmann, Wolfgang Behr: Antikchinesisch – Ein Lehrbuch in zwei Teilen. (= Schweizer Asiatische Studien 19). 3. durchgesehene und korrigierte Auflage, Peter Lang, Bern 2011, ISBN 978-3-0343-0637-9. Alain Peyraube: Recent issues in chinese historical syntax. In: C.-T. James Huang und Y.-H. Audrey Li: New Horizons in Chinese Linguistics, 161-214. Kluwer, Dordrecht 1996 Edwin G. Pulleyblank: Outline of a Classical Chinese Grammar (Vancouver, University of British Columbia Press 1995); ISBN 0-7748-0505-6, ISBN 0-7748-0541-2. Wang Li (): (Skizze der Geschichte des Chinesischen). Peking 1957. Dan Xu: Typological change in Chinese syntax. Oxford University Press, Oxford 2007, ISBN 0-19-929756-8. Yang Bojun () und He Leshi (): (Die Grammatik und Entwicklung des antiken Chinesisch). Yuwen Chubanshe, Peking 2001 Moderne Sprachen Chales N. Li und Sandra A. Thompson: Mandarin Chinese. A Functional Reference Grammar. University of California Press, Berkeley 2003 Huang Borong () (Hrsg.): (Kompendium der Grammatik der chinesischen Dialekte). Qingdao Chubanshe, Qingdao 1996, ISBN 7-5436-1449-9. Mataro J. Hashimoto: The Hakka Dialect. A linguistic study of Its Phonology, Syntax and Lexicon. University Press, Cambridge 1973, ISBN 0-521-20037-7. Nicholas Bodman: Spoken Amoy Hokkien. 2 Bände, Charles Grenier, Kuala Lumpur 1955–1958 (behandelt das südliche Min) Ping Chen: Modern Chinese. History and Sociolinguistics. Cambridge University Press, Cambridge 1999 Stephen Matthews und Virginia Yip: Cantonese. A Comprehensive Grammar. Routledge, London/New York 1994 Yinji Wu: A synchronic and diachronic study of the grammar of the Chinese Xiang dialects. Mouton de Gruyter, Berlin 2005 Yuan Jiahua (): (Abriss der chinesischen Dialekte). Wenzi gaige chubanshe, Peking 1960 Anne O. Yue-Hashimoto: Comparative Chinese Dialectal Grammar – Handbook for Investigators (Collection des Cahiers de Linguistique d'Asie Orientale, Band 1). Ecole des Hautes Etudes en Sciences Sociales, Paris 1993, ISBN 978-2-910216-00-9. Yuen Ren Chao: A grammar of spoken Chinese. University of California Press, Berkeley 1968 (behandelt den Mandarin-Dialekt von Peking) Lexika Instituts Ricci (Hrsg.): Le Grand Dictionnaire Ricci de la langue chinoise. Desclée de Brouwer, Paris 2001, ISBN 2-220-04667-2. Robert Henry Mathews: Mathews’ Chinese-English dictionary. China Inland Mission, Shanghai 1931; Nachdrucke: Harvard University Press, Cambridge 1943 etc. Werner Rüdenberg, Hans Otto Heinrich Stange: Chinesisch-deutsches Wörterbuch. Cram, de Gruyter & Co., Hamburg 1963. Li Rong (): (Großes Wörterbuch der modernen chinesischen Dialekte.). Jiangsu jiaoyu chubanshe, Nanjing 2002, ISBN 7-5343-5080-8. Siehe auch Liste von Wörterbüchern zur chinesischen Sprache Liste von Transkriptionssystemen für die chinesischen Sprachen Weblinks Allgemeines Ethnologue China inklusive Taiwan Sinitische Sprachen im World Atlas of Language Structures Wörterbücher Deutsch-chinesisches Wort- und Satzlexikon (Online-Wörterbuch DeHanCi) auf dehanci.com, DeHanCi Chinesisch-Deutsches Wörterbuch auf handedict.de, HanDeDict Chinesische etymologische Datenbank auf starlingdb.org (englisch) auf www-personal.umich.edu (englisch) William Baxter und Laurent Sagart: Rekonstruktion der altchinesischen Aussprache (PDF; 2,7 MB) auf ocbaxtersagart.lsait.lsa.umich.edu (englisch) Chinesisch-Deutsches Wörterbuch mit Fokus auf einzelnen (Lang-)Zeichen auf sintext.de Online-Wörterbuch mit Audio, Vokabeltrainer usw. auf leo.org Online-Wörterbuch einschließlich Training der Aussprache auf woerterbuch.hantrainerpro.de Chinesisches Wörterbuch auf tspweb.com (chinesisch) Einzelnachweise Sprachgruppe Tonsprache
891
https://de.wikipedia.org/wiki/Carl%20Barks
Carl Barks
Carl Barks (* 27. März 1901 in der Nähe von Merrill, Oregon; † 25. August 2000 in Grants Pass, Oregon) war ein US-amerikanischer Comicautor und -zeichner sowie Cartoonist und Maler. Er gilt als der bekannteste Disneyzeichner und erschuf zahlreiche Comic-Figuren des Disney-Kosmos wie Dagobert Duck. Aufgrund seiner Comics gilt er auch als Kultur- und Politikkritiker, wenngleich er dies stets abstritt. Bedeutung Barks war der bekannteste Zeichner und Autor der US-amerikanischen Disney-Comics, insbesondere der Geschichten um die Familie Duck. Die zum Teil noch recht eindimensionalen Charaktere aus den Trickfilmen und den Zeitungscomics von Al Taliaferro differenzierte er und fügte neue Figuren hinzu. Er ist der geistige Vater des reichsten Manns der Welt Dagobert Duck (Scrooge McDuck), des genialen Erfinders Daniel Düsentrieb (Gyro Gearloose) und der Panzerknacker (Beagle Boys). Auch der amerikanische Name der Heimatstadt der Ducks, Entenhausen (Duckburg), stammt von Barks. Vor seinem Wirken war außer Donald Duck nur dessen Freundin Daisy Duck vorhanden. Donalds Neffen Tick, Trick und Track (Huey, Dewey & Louie) hatten ihren ersten Auftritt in dem Disney-Kurztrickfilm Donald's Nephews von 1938, der in wesentlichen Teilen von Barks stammt, der vor seiner Comic-Karriere einige Jahre als Trickfilmzeichner und -schreiber in den Disney-Studios arbeitete. Carl Barks hat dazu noch viele weitere Enten-Figuren erfunden. Einige dieser Figuren, die ursprünglich nur für einen bestimmten Comic entworfen worden waren, wurden so populär, dass sie später ihre eigene Comic-Serie erhielten, z. B. Oma Duck. In den 1950er Jahren waren seine Comics in den USA so beliebt, dass er von den Lesern der Disney-Comics „the good artist“ (dt. "der gute Künstler") genannt wurde. Damals kannte noch niemand seinen Namen, weil alle Hefte der Disney-Verlage als Autorenvermerk nur die Marke „Walt Disney“ trugen. Erst mit Beginn der 1960er Jahre gelang es hartnäckigen Fans, seinen Namen herauszufinden und den Meister, der längst in Rente war, zu kontaktieren und besuchen. Mit Erika Fuchs fanden die Comics von Carl Barks eine kongeniale Übersetzerin ins Deutsche. Bekannte Sprüche wie „Wo man hinschaut, nichts als Gegend“ oder „Dem Ingenieur ist nichts zu schwör“ stammen aus ihrer Feder. Ihre Sprache war weitaus feiner differenziert als das US-amerikanische Original, in dem Barks auch viele Slang-Worte verwendete. Biographie Kindheit und Jugend Carl Barks wurde am 27. März des Jahres 1901 als zweiter Sohn des Landwirtes William Barks und von dessen Frau Arminta im US-Bundesstaat Oregon, unweit des Ortes Merrill auf einer Farm geboren. Bereits in jungen Jahren halfen Carl und sein zwei Jahre älterer Bruder Clyde nach der Schule ihrem Vater bei Farmarbeiten. 1911 verpachtete William Barks seine Farm und zog mit der Familie nach Santa Rosa in Kalifornien, um mit einer Pflaumenplantage sein Glück zu versuchen. Der Erfolg blieb jedoch aus, und als bei Carl Barks’ Mutter Krebs diagnostiziert wurde und sein Vater einen Nervenzusammenbruch erlitt, zog die Familie zurück in die bis dahin verpachtete Farm nach Merrill. Im Jahr 1916 starb seine Mutter im Alter von 56 Jahren. Carl Barks, der zu diesem Zeitpunkt gerade 15 Jahre alt war, brach daraufhin die Schule in der achten Klasse ab. Sein Gehör begann sich bereits in dieser Zeit deutlich zu verschlechtern. Im selben Jahr begann er einen Fernkurs an der Landon School of Cartooning, er brach ihn jedoch nach nur vier Unterrichtsstunden wieder ab. Barks half vermehrt auf den Feldern mit, da aufgrund des Ersten Weltkrieges ein Arbeitskräftemangel herrschte und er sich mit den deshalb gezahlten, höheren Löhnen rasch seinen Auszug aus der elterlichen Farm finanzieren konnte. Nichtsdestoweniger habe er, nach eigener Aussage, aus dem kurzen Fernkurs und dem Studieren von Comicstrips in der täglichen Zeitung viel für seine spätere Karriere mitnehmen können. Im Dezember 1918 ging Carl Barks mit seinen Ersparnissen nach San Francisco, wo er als Laufbursche für eine Druckerei arbeitete. Mit Zeichnungen, die er in seiner Freizeit anfertigte, bewarb er sich bei lokalen Zeitungen, sie lehnten ihn jedoch allesamt ab. Schließlich kehrte er 1920 nach 18 Monaten ohne nennenswerte Erfolge zu seinem Vater auf die Farm nach Oregon zurück. Frühe Berufserfahrungen und erste Heirat Carl Barks ging nun, wie schon vor seiner Abreise nach San Francisco, seinem Vater auf der Farm zur Hand. 1921 heiratete Barks Pearl Turner, die Tochter eines Sägewerksbesitzers, mit der er in den darauffolgenden Jahren die Töchter Peggy (* 23. Januar 1923) und Dorothy (* 26. November 1924) bekam. Carl Barks arbeitete in dieser Zeit auch im Sägewerk seines Schwiegervaters, weil auf der Farm nicht immer genug Arbeit vorhanden war, um die junge Familie zu versorgen. Da dies jedoch nur im Sommer möglich war, suchte er weiterhin eine feste Anstellung mit dauerhaften Einkommen. Diese fand er schließlich als Hilfsarbeiter in einer Reparaturwerkstatt für Eisenbahnen der Gesellschaft Pacific Fruit Express in Roseville. Die Familie zog in die Stadt nahe Sacramento und blieb dort bis 1930. In dieser Zeit zog sich Barks in seiner Freizeit immer mehr an den Zeichentisch zurück, was seiner Frau zunehmend missfiel. Obwohl er mit dem Verkauf erster Zeichnungen etwas Geld dazuverdiente, trennten sie sich 1930. Carl Barks kam kurzfristig bei seinen Schwiegereltern in Oregon unter und verkaufte nun regelmäßiger Zeichnungen an das Männermagazin Calgary Eye-Opener, sodass er bald ein kleines Haus in Medford mieten konnte. Lange blieb er dort nicht, denn im November 1931 nahm er eine Festanstellung beim Calgary Eye-Opener an und zog nach Minneapolis, um in der Redaktion zu arbeiten. Bis 1935 steuerte er nicht nur Zeichnungen und Karikaturen für das Magazin bei, sondern auch kurze Geschichten und Gedichte. Arbeit bei Disney 1935 bewarb sich Carl Barks bei den Disney-Studios in Los Angeles, die für ihren ersten spielfilmlangen Zeichentrickfilm Schneewittchen und die sieben Zwerge noch Zeichner suchten. Seine Bewerbung hatte Erfolg, und so reiste er mit Clara Balken, die er in Minneapolis kennengelernt hatte, nach Los Angeles, wo er nach einer einmonatigen Ausbildung als Zwischenphasenzeichner übernommen wurde. In den Disney Studios kam Barks das erste Mal mit Donald Duck in Kontakt, für den er eine Slapstick-Szene mit einem automatischen Friseurstuhl entwarf, um von den mühseligen Zwischenphasenzeichnungen loszukommen und sich trotz seiner Schwerhörigkeit im Studio zu bewähren. Walt Disney gefiel diese Szene, und er versetzte ihn daraufhin in die Abteilung für Geschichtenentwicklung. 1938 heiratete Carl Barks zum zweiten Mal und erwarb drei Jahre später mit seiner Frau Clara eine kleine Farm in San Jacinto. Am 9. November 1942 kündigte er seine Anstellung bei Disney, um sich mit einer Hühnerzucht und der Aussicht, ein hauptberuflicher Comiczeichner zu werden, selbstständig zu machen. Die Anfänge als Comiczeichner Carl Barks bewarb sich nach seiner Kündigung bei Disney Ende 1942 als Zeichner bei Western Publishing, jenem Verlag, der einige Monate zuvor bereits zwei Comics veröffentlicht hatte, an denen Barks mitgewirkt hatte. Die Antwort fiel positiv aus, und Barks erhielt das Skript zu The Victory Garden (deutsch Gesundheitsgemüse), aus dem er einen zehnseitigen Comic mit Donald zeichnen sollte. Weitere Geschichten für Zehnseiter und auch längere Donald-Duck-Abenteuer schrieb Barks in den nächsten Jahren selber. Als der Verlag 1947 mit dem Wunsch nach einer Weihnachtsgeschichte an Barks herantrat, entwarf er einen reichen Onkel für Donald: Scrooge McDuck (deutsch Dagobert Duck) trat das erste Mal im Dezember 1947 in der Geschichte Christmas On Bear Mountain (deutsch Die Mutprobe) auf. Ihm folgten weitere, von Barks erfundene Figuren wie Gustav Gans, Daniel Düsentrieb und später die Panzerknacker sowie Gundel Gaukeley. Dagobert Duck bekam 1953 beim gleichen Verlag seine eigene Comicreihe mit dem Titel Uncle Scrooge, für die hauptsächlich Carl Barks die Abenteuer lieferte. Zweite Scheidung und dritte Ehe Seine zweite Frau Clara verfiel zunehmend dem Alkohol und wurde dann aggressiv. Als ihr 1950 bei einer Krebsoperation ein Bein bis zum Knie abgenommen werden musste, versuchte Carl Barks sich als Pfleger. Doch auch dieser Einsatz konnte die Ehe nicht mehr retten, zumal sie weiterhin zur Flasche griff. Im Dezember 1951 wurden sie geschieden, und Barks musste mit 51 Jahren von vorne anfangen, denn ihm blieb nichts außer „zwei Decken, seiner Kleidung, dem Zeichenbrett und den National-Geographic-Ausgaben“. Doch Barks fühlte sich wie von einer Last befreit, fuhr durch das Land, sammelte Inspirationen und besuchte Ausstellungen. Auf einer solchen traf er 1952 auch Margaret Williams wieder, die sich bereits zehn Jahre zuvor bei ihm als Assistentin beworben hatte. Garé, wie Margaret von allen genannt wurde, hatte ebenfalls schon eine Scheidung hinter sich und war Landschaftsmalerin. Die beiden bezogen ein Haus im südkalifornischen Hemet und heirateten am 26. Juli 1954. Garé Barks unterstützte ihren Mann fortan bei seiner Arbeit, zeichnete Hintergründe, letterte und tuschte einige seiner Zeichnungen. „Der gute Künstler“ 1959 begann Barks vermehrt auch Auftragsarbeiten von Western Publishing zu zeichnen, wie etwa die Geschichten in den Reihen Daisy Duck’s Diary oder Grandma Duck’s Farm Friends, um sich selber keine neuen Handlungen mehr ausdenken zu müssen. Vom Jahr 1960 an erreichten ihn die ersten Fanbriefe, die sein Verlag, der auch Barks’ Adresse geheim hielt, bis dahin nicht weitergeleitet hatte. Da seine Geschichten stets nur mit Walt Disney signiert waren und nicht mit Carl Barks, wusste lange Zeit niemand, wer der Autor war, den die Fans mit dem Ehrennamen The good artist (dt. Der gute Künstler) bedachten. Berichte in der Lokalpresse in Barks’ Wohnorten über den einheimischen Comickünstler Ende der 1940er und Anfang der 1950er Jahre sowie ein längerer Artikel „The Comic World“ des Schriftstellers Charles Beaumont (1929–1967), der Barks bewunderte, in dem kurzlebigen amerikanischen Westküstenmagazin Fortnight 1955 fanden keinen größeren Widerhall. Einige Ideen, die ihm seine Fans seit Anfang der 1960er Jahre in Briefen schilderten, setzte er in den nächsten Jahren in seinen Comicgeschichten um. Am 30. Juni 1966 ging Carl Barks als Comiczeichner für Western Publishing offiziell in den Ruhestand, was ihn jedoch nicht davon abhielt, weitere Skripte an den Verlag zu schicken, die dann von anderen Zeichnern fertiggestellt wurden. Die Ducks in Öl Carl Barks versuchte sich wie seine Frau Garé immer wieder an Landschaftsbildern mit Ölfarben. Kommerziell hatten seine Gemälde wenig Erfolg, doch Fans, die diese Bilder sahen, baten ihn, doch auch die Ducks in Öl zu verewigen. 1971 fragte Barks offiziell bei Disney an und war der erste Künstler, der eine Genehmigung dafür erhielt. Er malte seitdem für seine wachsende Fangemeinde auf Anfrage Titelbildmotive oder Szenen aus seinen Comics als Ölbilder nach und verkaufte diese. Einige besonders gefragte Motive wurden in Varianten mehrfach von ihm gemalt. Als 1976 auf der Comicmesse in San Diego ein Händler illegale Nachdrucke eines seiner Gemälde verkaufte, entzog Disney Carl Barks die Lizenz, die Ducks in Öl malen zu dürfen. Barks beschränkte sich danach auf Ölgemälde ohne Disneyfiguren, die jedoch längst nicht soviel Anklang bei den Fans fanden. Siehe: Liste der Gemälde von Carl Barks Die letzten Jahre In den folgenden Jahren war Carl Barks vor allem damit beschäftigt, seine Fanpost zu beantworten und jenen Verlegern mit Rat und Tat zur Seite zu stehen, die Sammelbände mit Nachdrucken seiner Comics oder Ölbilder herausgeben wollten. 1983 zog das Ehepaar Barks nach Grants Pass in Oregon, um etwas Abstand von den immer zudringlicheren Fans in Kalifornien zu bekommen. Garé Barks verstarb dort mit 75 Jahren am 10. März 1993. Im Sommer des darauffolgenden Jahres begab sich Barks zum 60. Geburtstag Donald Ducks auf Europareise und besuchte neben dem Egmont-Ehapa-Verlagshaus in Stuttgart auch Erika Fuchs in München, die alle seine Comics ins Deutsche übertragen hatte. Im Juli 1999 wurde bei ihm chronische lymphatische Leukämie diagnostiziert und Barks wurde – teilweise wegen der Chemotherapie – zunehmend schwächer. Fast ein Jahr später, im Juni 2000, entschloss er sich, seine medizinische Behandlung zu beenden. In der Nacht auf den 25. August 2000 starb Carl Barks im Alter von 99 Jahren in seinem Haus in Grants Pass im Schlaf. Privates Carl Barks war dreimal verheiratet. Seine erste Frau Pearl, von der er sich 1930 scheiden ließ, verstarb 1987. Mit ihren gemeinsamen Töchtern Peggy und Dorothy hatte Barks nur wenig Kontakt: Peggy, die einen Sohn und zwei Töchter hatte, starb 1963 an Lungenkrebs; Dorothy hatte einen Sohn, lebte im US-Bundesstaat Washington und starb 2014. Seine zweite Frau Clara verstarb 1964, 13 Jahre nach ihrer Scheidung von Barks, der ihr bis zu ihrem Tode Alimente zahlte. Sein Bruder Clyde betrieb in Tulelake (Kalifornien) ein Hotel und starb 1983. Er hinterließ die Kinder William und Maxine sowie seine Frau Zena May Dillard, die 1986 starb. Meilensteine Das Lebenswerk von Carl Barks ist groß, als Produkt einer jahrzehntelangen Schaffenszeit schuf der Comic-Künstler im Auftrag verschiedener Verlage zwischen 1942 und 1966 Geschichten um die Duck-Familie, die im Gedächtnis der Nachwelt unvergessen blieben. Der Inducks-Katalog listet über 850 Disney-Comics für Western Publishing, an denen Barks beteiligt war, Cover und Illustrationen nicht mitgezählt. Der Bogen spannt sich dabei von seinem Erstling Piratengold (Pirate Gold, 1942) bis zu seinen nach Abschluss seiner Karriere als Comic-Künstler vorerst letzten Zeichnungen in der Kurzgeschichte Genau der richtige Job (The Dainty Daredevil, 1968). Als künstlerischer Höhepunkt gelten weithin die Jahre um 1950, also nach der Einführung der Figur des Onkel Dagobert. Dieser war zunächst als eher unsympathische Figur im Stil seines literarischen Vorbilds Ebenezer Scrooge von Charles Dickens angelegt, doch gestaltete Barks seinen Charakter später milder und gelegentlich mit weichem Herz unter rauer Schale. Barks selber nannte in Interviews häufig als seine Lieblingsgeschichten Im Land der viereckigen Eier (Lost in the Andes! 1948) und Im alten Kalifornien (In Old California! 1951). Von vielen Fans wird als ihre Lieblingsgeschichte oft Weihnachten für Kummersdorf (A Christmas for Shacktown, 1952) genannt. Unter den zahlreichen Nutzern der Inducks-Datenbank können Noten für sämtliche dort eingetragene Geschichten abgegeben werden. Hierbei belegt derzeit Barks Klassiker Wiedersehen mit Klondike den ersten Platz von über 25.000 gelisteten Storys. Auch die Plätze 2 bis 16 hält im Moment Barks, wobei sich die Geschichten immer wieder gegenseitig von den Spitzenpositionen verdrängen. Insgesamt stammen 42 von den Top-100-Geschichten von Barks. Barks zeichnete auch einige nicht in Entenhausen angesiedelte Comics, unter anderem für die Reihen Barney Bear und Benny Burro (in Deutschland 1991/92 zum Teil erschienen in der nach zwei Bänden eingestellten Reihe Barks Classics) oder Droppy. Auszeichnungen 1970: Shazam Award der Academy of Comic Book Arts (ACBA) als Best Humor Writer 1973: Hall of Fame Auszeichnung der ACBA 1977: Inkpot-Auszeichnung der San Diego Comic-Con 1985: Aufnahme in die Hall of Fame des Kirby Award 1987: Aufnahme in die Hall of Fame des Eisner Award 1991: Disney Legends Auszeichnung in der Kategorie Animation & Publishing Der 1981 entdeckte Asteroid (2730) Barks wurde 1983 nach Carl Barks benannt. Peter Thomas von der Cornell University schlug seinen Namen vor, weil Barks mit seinen Weltraumabenteuern viele Wissenschaftler inspiriert habe. Barks-Comics im deutschsprachigen Raum Bereits in den ersten deutschsprachigen Micky-Maus-Heften (seit September 1951) sowie in den Micky-Maus-Sonderheften (Nr. 3, 8, 10, 16, 18, 21, 23, 24 und 31) ab 1952 fanden sich Barks-Geschichten, deren Nachdrucke zuerst ab Mai 1965 vor allem in den Heften der Reihe Die tollsten Geschichten von Donald Duck – Sonderheft erschienen (diese sind auch als Nachdruck in 2. Auflage erschienen). Die Zeitschrift Goofy brachte ab 1979 regelmäßig Barks’ Ten Pagers (zehnseitige Geschichten) in der Rubrik Nostalgoofy. Umfassend wurde sein Werk neu aufgelegt in Die besten Geschichten mit Donald Duck (58 Alben von 1984 bis 1999), auch bekannt unter dem Titel Donald Duck Klassik Album, und – im deutschsprachigen Raum erstmals systematisch – in der zwischen 1992 und 2004 erschienenen Barks Library, die 133 Alben in mehreren Teilserien umfasst und inzwischen überwiegend vergriffen ist. Die 51 Alben der Hauptserie erschienen auch in 17 gebundenen 3er-Bänden als Barks Comics & Stories, seit Mai 2009 werden die 38 Alben der Barks-Library-Reihe Barks – Onkel Dagobert in 13 gebundenen 3er-Bänden neu aufgelegt; als gebundene Bände erschienen seitdem in gleicher Aufmachung die weiteren Werke von Carl Barks unter den Reihentiteln Barks – Donald Duck, Barks – Fähnlein Fieselschweif und Barks – Daisy & Oma Duck. Als hochwertige 30-bändige Sammlerausgabe erschien seit Sommer 2005 im deutschsprachigen Raum und in einigen anderen nordeuropäischen Ländern die auf 10 Schuber mit jeweils drei gebundenen Halbleinenbänden großformatig angelegte Carl Barks Collection, die sämtliche von Barks geschriebenen und gezeichneten Disney-Comics neben vielen kommentierenden Aufsätzen sowie weiteren Dokumenten über Barks enthält und im Dezember 2008 abgeschlossen wurde. Sie gilt zurzeit als die ultimative Edition von Carls Barks’ Œuvre im deutschsprachigen Raum. Der Kulturkritiker Barks beobachtete die Entwicklung der Massenmedien in den USA mit großem Unbehagen. Wiederholt wies er in Interviews, die er seinen Anhängern und Journalisten gab, auf die Gefahren des Fernsehkonsums – besonders in Formen, wie er in den USA auftritt – hin. Diese Haltung macht sich auch in einigen seiner Comicgeschichten bemerkbar, so zum Beispiel in dem Zehnseiter Die Zugkatastrophe. Hintergründe seiner Werke Barks stritt zwar jegliche politische oder gesellschaftliche Intention seiner Werke ab, trotzdem fällt es bei manchen Geschichten wie Die Stadt der goldenen Dächer schwer, die Kritik am (US-)Imperialismus zu übersehen. Des Weiteren gibt er auch in manchen Werken die Berufe der Psychologen, Anwälte, Geheimdienstler usw. der Lächerlichkeit preis oder integriert Hitlers Mein Kampf in die Abbildung einer Müllkippe. Auch den Vietnamkrieg behandelte Barks kritisch in Der Schatz des Marco Polo. Die Geschichte ist zwar durchgehend antikommunistisch, andererseits kommt auch Entenhausen, das die USA repräsentiert, nicht gut weg. Diese Art von Kritik sorgte dafür, dass einige Werke Barks‘ stark zensiert oder lange gar nicht erst veröffentlicht wurden, weil sie den Walt Disney Studios als politisch unerwünscht galten. Ein anderes Beispiel ist die Geschichte Im Land der Zwergindianer, in der Barks auf Umweltprobleme und die Probleme indigener Völker aufmerksam macht. Filmografie Folgende Filme wurden unter Beteiligung von Carl Barks fertiggestellt: Filmdokumentation Entenhausen ist überall – Die Welt des Carl Barks. Dokumentarfilm von Michael Maschke und Joachim Müller, Deutschland, 43 Minuten Literatur Thomas Andrae: Carl Barks and the Disney Comic Book. Unmasking the Myth of Modernity. University Press of Mississippi, Jackson (Mississippi) 2006, ISBN 1-57806-857-6. Michael Barrier: Carl Barks. Die Biographie. Brockmann und Reichelt, Mannheim 1994, ISBN 3-923801-99-8. Michael Barrier: Funnybooks. The Improbable Glories of the Best American Comic Books. University of California Press, Oakland (Kalifornien) 2015, ISBN 978-0-520-24118-3. Donald Ault (Hrsg.): Carl Barks conversations (Conversation with Comic Artists Series). University Press of Mississippi, Jackson (Mississippi) 2003, ISBN 1-57806-501-1 (zahlreiche Interviews mit Barks) Uwe Anton und Ronald M. Hahn: Donald Duck – Ein Leben in Entenhausen. München 1994, ISBN 3-910079-55-5. Johnny A. Grote: Carl Barks. Werkverzeichnis der Comics. Egmont-Ehapa, Stuttgart 1995, ISBN 3-7704-1898-0. Gottfried Helnwein: Wer ist Carl Barks. Neff, Bayreuth 1993, ISBN 3-8118-5341-4. Gottfried Helnwein und Carsten Laqua: Donald Duck …und die Ente ist Mensch geworden. Das zeichnerische und poetische Werk von Carl Barks. Karikaturmuseum Krems, 2007, ISBN 3-902407-04-2. Michael F. Walz et al.: Carl Barks, der Vater der Ducks (OT: Carl Barks – l’uomo dei paperi). Ehapa Comic Collection, Berlin 2002, ISBN 3-7704-2792-0. David Kunzle: Carl Barks. Dagobert und Donald Duck. Welteroberung aus Entenperspektive. Frankfurt am Main 2002, ISBN 3-596-23949-4. Klaus Strzyz und Andreas C. Knigge: Disney von innen. Gespräche über das Imperium der Maus. (Mit einem Vorwort von Carl Barks). Ullstein, Frankfurt am Main und Berlin 1988, ISBN 3-548-36551-5. Autorenkollektiv: Thanks, Carl! In memoriam Carl Barks 1901–2000. Egmont-Ehapa-Verlag / Ehapa-Comic-Collection, Berlin 2001, ISBN 3-7704-0434-3. Henner Löffler: Wie Enten hausen – die Ducks von A–Z. Beck, München 2004, ISBN 3-406-51608-4. Weblinks Ausführliche Fakten zu Carl Barks in der Duckipedia The HTML Barks Base carlbarks.de – umfassende Informationen Daniel Kothenschulte: Der Schnabel der Welt. Zum Tod des „guten Zeichners“ Carl Barks. Nachruf in Die Zeit Einzelnachweise Autor Disney-Zeichner Comic-Zeichner (Vereinigte Staaten) Künstler (Vereinigte Staaten) Comic-Szenarist Träger des Disney Legend Award Donald Duck Kinder- und Jugendliteratur Person als Namensgeber für einen Asteroiden US-Amerikaner Geboren 1901 Gestorben 2000 Mann Person (Klamath County)
892
https://de.wikipedia.org/wiki/Charles%20de%20Gaulle
Charles de Gaulle
Charles André Joseph Marie de Gaulle (; * 22. November 1890 in Lille, Département Nord; † 9. November 1970 in Colombey-les-Deux-Églises, Département Haute-Marne) war ein französischer General und Staatsmann. Im Zweiten Weltkrieg führte er den Widerstand des Freien Frankreichs gegen die deutsche Besatzung an. Danach war er von 1944 bis 1946 Präsident der Provisorischen Regierung. Im Zuge des Algerienkriegs wurde er 1958 mit der Bildung einer Regierung als Ministerpräsident beauftragt und setzte eine Verfassungsreform durch, mit der die Fünfte Republik begründet wurde, deren Präsident er von Januar 1959 bis April 1969 war. Die auf ihn zurückgehende politische Ideologie des Gaullismus beeinflusst die französische Politik bis heute. Herkunft und Bildung De Gaulle wuchs in einer katholisch-konservativ geprägten und gleichzeitig sozial fortschrittlichen Intellektuellenfamilie in Lille auf: Sein Großvater war Historiker, seine Großmutter Schriftstellerin. Sein Vater, Henri Charles Alexandre de Gaulle (1848–1932), der an verschiedenen katholischen Privatschulen lehrte, bevor er seine eigene gründete, ließ ihn die Werke von Barrès, Bergson, Péguy und Maurras entdecken. Schließlich hatte er auch eine Vorliebe für den nordfranzösischen Dichter Albert Samain. Väterlicherseits hatte de Gaulle Vorfahren, die zum alten Landadel der Normandie und Burgunds gehörten. Seine Mutter, Jeanne Caroline Marie Maillot (1860–1940), stammte aus einer Familie reicher Unternehmer aus Lille mit französischen, irischen (MacCartan), schottischen (Fleming) und deutschen (Kolb) Vorfahren. Während der Dreyfus-Affäre distanzierte sich die Familie von reaktionär-nationalistischen Kreisen und unterstützte den aus antisemitischen Gründen verurteilten Alfred Dreyfus. 1908 trat de Gaulle in die Militärschule Saint-Cyr ein, die er 1912 mit Diplom und Beförderung zum Sous-lieutenant (dt.: Leutnant) verließ. Dort lernte er auch Deutsch. Anschließend wurde er in die französische Armee übernommen. Er wurde dem 33e régiment d’infanterie (dt.: 33. Infanterieregiment) in Arras zugeteilt, dessen Kommandeur seit 1910 Colonel (dt.: Oberst) Philippe Pétain war. Erster Weltkrieg Zu Beginn des Ersten Weltkriegs stieg er vom Lieutenant zum Capitaine auf. Bereits im ersten Gefecht bei Dinant erlitt de Gaulle am 15. August 1914 eine Verwundung. Er kehrte dann als Chef der 7. Kompanie zum 33e régiment d’infanterie an die Champagne-Front zurück. Am 10. März 1915 wurde er erneut im Gefecht verwundet. Er war entschlossen, weiterzukämpfen, und widersetzte sich seinen Vorgesetzten, indem er auf die feindlichen Gräben feuern ließ. Wegen dieses Akts des Ungehorsams enthob man ihn für acht Tage seiner Funktionen. Dennoch hatte sich de Gaulle als fähiger Offizier hervorgetan und der Kommandant des 33e régiment d’infanterie bot ihm an, sein Adjutant zu werden. Am 2. März 1916 wurde sein Regiment in der Schlacht um Verdun bei der Verteidigung des Dorfes Douaumont in der Flanke des Forts von Douaumont von den Deutschen attackiert. De Gaulles Kompanie war schließlich fast vollständig vernichtet, die Überlebenden in einer Ruine eingeschlossen. Laut offiziellem Bericht versuchte de Gaulle daraufhin einen Ausbruch, wurde durch einen Bajonettstich schwer verwundet und ohne Bewusstsein aufgefunden. Nach anderer Darstellung mehrerer Beteiligter ergab sich de Gaulle einer deutschen Einheit, ohne einen Ausbruchsversuch unternommen zu haben. In deutscher Gefangenschaft erholte er sich von seiner Verwundung. Während der Internierung in Deutschland – zunächst in Osnabrück und Neisse – brachte man ihn nach zwei erfolglosen Fluchtversuchen von der Festung Rosenberg in Kronach in ein speziell für aufsässige Offiziere vorgesehenes Lager in der Festung Ingolstadt. In der Gefangenschaft lernte er Michail Tuchatschewski kennen. Er versuchte auch von dort zu fliehen. Einmal kam er bis in die Nähe von Ulm, ehe man ihn erneut fasste. 1918 kam de Gaulle schließlich auf die Wülzburg bei Weißenburg in Bayern. Ein „jämmerliches Exil“ („lamentable exile“), mit diesem Ausdruck beschrieb er seiner Mutter sein Schicksal eines Gefangenen. Um die Langeweile zu ertragen, organisierte de Gaulle für seine Mitgefangenen umfangreiche Exposés über den Stand des laufenden Krieges. De Gaulles fünf Fluchtversuche scheiterten nicht zuletzt an seiner Körpergröße von 1,95 m, mit der er schnell auffiel. Darüber hinaus unterstützte er mehrere teilweise erfolgreiche Fluchtversuche anderer inhaftierter Kameraden. Nach dem Waffenstillstand im November 1918 wurde er von der Wülzburg entlassen. Von den zweieinhalb Jahren der Gefangenschaft behielt er eine bittere Erinnerung und schätzte sich selbst als „Heimkehrer“ und Soldat ein, der seinem Land nichts genützt hatte. Zwischenkriegszeit Während des Polnisch-Sowjetischen Krieges 1919/1920 meldete sich de Gaulle freiwillig für den Dienst in der französischen Militärmission in Polen und fungierte ab dem 17. April 1919 als Infanterieausbilder der neugeschaffenen polnischen Armee. Er wollte durch den Einsatz an diesem entlegenen Kriegsschauplatz seiner militärischen Karriere einen Schub geben, da er sich infolge der Kriegsgefangenschaft während des Ersten Weltkrieges kaum hatte Verdienste erwerben können. Da ihm in Frankreich lediglich ein untergeordneter Posten als Referent beim Premierminister angeboten wurde, bei dem er Soldaten und Offiziere für Auszeichnungen vorschlagen sollte, verlängerte de Gaulle seinen Dienst in Polen und nahm im Mai 1920 an dem Angriff der polnischen Armee auf Kiew teil (polnisch-sowjetischer Krieg). Er wurde zum Stabschef General Henri Albert Niessels in Warschau befördert und erhielt die höchste polnische Militärauszeichnung Virtuti Militari. Einige Historiker nahmen fälschlich an, dass die Erfahrungen in Polen de Gaulles Ansichten in Bezug auf den Einsatz von Panzern und Flugzeugen und den Verzicht auf die traditionelle Kriegsführung mittels Schützengräben beeinflussten. Sein Biograph Eric Roussel (* 1951) weist demgegenüber darauf hin, dass das Konzept, Panzer für schnelle Vorstöße unabhängig von der Infanterie zu verwenden, erst 1927 durch den französischen General Aimé Doumenc entwickelt wurde. Nach seiner Rückkehr aus Polen heiratete de Gaulle im April 1921 Yvonne Vendroux und nahm einen Posten als Lehrer an der renommierten Militärschule Saint-Cyr in Paris an, der Kaderschmiede der französischen Armee. De Gaulle war damit materiell gut abgesichert, geriet aber bald in Konflikt mit seinen Vorgesetzten aufgrund seines selbstbewussten Verhaltens und unkonventioneller Ansichten, die er in seinem Unterricht vertrat. Infolgedessen wurde er nicht befördert und wechselte 1925 in den persönlichen Stab des Marschalls Philippe Pétain. Gegenüber einem Freund soll er geäußert haben, dass er die Militärschule St.-Cyr nicht wieder betreten würde, außer als Direktor. De Gaulles wichtigste Aufgabe bestand fortan darin, zwei Bücher vorzubereiten, die unter dem Namen des berühmten Marschalls erscheinen sollten, jedoch kam es mit Pétain zu Auseinandersetzungen über den Inhalt der Bücher und zu einer deutlichen Abkühlung in dem zuvor freundschaftlichen Verhältnis. Dennoch förderte Pétain de Gaulles Karriere: Im September 1927 übernahm de Gaulle als Bataillonschef ein aktives Kommando bei den französischen Besatzungstruppen in Trier. Ebenfalls setzte Pétain durch, dass de Gaulle im April 1927 eine Reihe von Vorträgen an der Militärschule St.-Cyr halten durfte, gegen den Willen des Schulleiters, General Pierre Héring. 1932 veröffentlicht de Gaulle den Inhalt dieser Vorträge in seinem Buch Le fil de l'épée. Darin vertrat er die Ansicht, die französische Armee müsse das Amt eines Oberkommandierenden schaffen, der im Fall eines Krieges in alleiniger Verantwortung und mittels diktatorischer Vollmachten das Schicksal des Landes bestimmen solle. Diese Auffassung konnte sich wegen der Rivalität der Generäle im Generalstab und der traditionellen Feindschaft zwischen den Waffengattungen der französischen Streitkräfte nicht durchsetzen. Von 1929 bis 1931 übernahm de Gaulle ein Kommando im französischen Mandatsgebiet Libanon. Dieser Posten, weit entfernt vom Hauptquartier in Paris, diente kaum seiner Karriere und widersprach zudem seinen persönlichen Ansichten, wonach die Kolonialarmeen bei der Verteidigung Frankreichs nur eine untergeordnete Rolle spielten. Wegen des Zerwürfnisses mit Pétain wurde ihm jedoch kein besseres Kommando angeboten. Von 1932 bis 1937 bekleidete de Gaulle eine untergeordnete Rolle im Nationalen Verteidigungsrat (Conseil supérieur de la défense nationale), dessen Aufgabe unter der Leitung von Marschall Pétain darin bestand, die französischen Streitkräfte auf einen möglichen Krieg vorzubereiten und über Kriegsstrategien, Bewaffnung und Aufstellung zu entscheiden. De Gaulles Rolle beschränkte sich darauf, Denkschriften für die Sitzungen des Verteidigungsrates vorzubereiten. Da er für eine offensive Kriegführung eintrat, die den Ansichten der meisten Generäle entgegenlief, blieben seine Entwürfe weitgehend unbeachtet. Im Jahr 1934 veröffentlichte de Gaulle sein bis dahin bedeutendstes Buch, eine Sammlung von Aufsätzen unter dem Titel Vers l’Armée de Métier („In Richtung auf eine Berufsarmee“), und forderte darin eine Reorganisation der französischen Armee, die von einer schlecht ausgebildeten Freiwilligenarmee in eine Berufsarmee umgewandelt werden sollte. Allein diese sei in der Lage, im Falle eines Krieges das Land ausreichend zu schützen und moderne Waffen wie Flugzeuge und Panzer wirkungsvoll einzusetzen. Diese Schrift forderte auch zum ersten Mal die Schaffung von Panzerverbänden, die in der Lage wären, mit schnellen, motorisierten Verbänden ins Territorium des Feindes einzudringen, statt hinter der Maginot-Linie defensiv auf dessen Angriff zu warten. Nur so könne Frankreich seine momentane qualitative Überlegenheit nutzen und seine quantitative Unterlegenheit gegenüber Deutschland kompensieren. Diese Forderungen verband de Gaulle erneut mit der Idee, im Falle eines Krieges sämtliche Streitkräfte dem Kommando eines einzelnen Oberbefehlshabers zu unterstellen. Für diesen Posten sah er einen Mann vor, der „stark genug sei, seine Rolle auszufüllen, geschickt darin, die Zustimmung der Menschen zu gewinnen, groß genug für eine große Aufgabe“ – eine Art Diktator, der die Macht im Land übernehmen würde. Nach Ansicht des Historikers Eric Roussel bedeutete diese extreme Forderung einen schweren Fehler, denn dadurch wurde es schwierig, für die als dringlich empfundenen Militärreformen eine Mehrheit im Parlament zu gewinnen: Der sozialistische Ministerpräsident, Léon Blum, etwa befürchtete 1936, durch die Bildung einer Berufsarmee werde die Basis für einen künftigen Staatsstreich geschaffen. Da de Gaulle kaum Unterstützung von Seiten des Generalstabs erwarten konnte, erschien sein Projekt nicht durchführbar. Unterdessen nahmen ausländische Militärs, insbesondere Heinz Guderian im deutschen Generalstab, de Gaulles Ideen interessiert zur Kenntnis und sahen sich in ihren eigenen Bestrebungen bestärkt, eine moderne Panzerwaffe zu schaffen; de Gaulles Gegner im französischen Generalstab dagegen, besonders die Generäle Maxime Weygand, Maurice Gamelin und Louis Maurin, lehnten den Plan entschieden ab, woraufhin auch Marschall Pétain im März 1935 verlauten ließ, dass er die Reformpläne seines ehemaligen Schützlings nicht unterstützen würde. De Gaulle entfaltete daraufhin in den folgenden Jahren eine politische Kampagne in der Presse und im Parlament, die ihm den Spitznamen Colonel Motors einbrachte, und gewann in allen politischen Lagern Befürworter, sodass am 15. März 1935 zumindest Teile der Reform im französischen Abgeordnetenhaus beschlossen und sechs motorisierte Verbände aufgestellt wurden, deren Angehörige Berufssoldaten sein sollten. Am 25. Dezember 1936 übertrug man de Gaulle das Kommando über einen dieser neuen Panzerverbände, das 507. Panzerregiment in Metz. Im Generalstab wurde die Reform jedoch verwässert, und es wurde bestimmt, dass diese Verbände ausschließlich der Defensive dienen und gemeinsam mit den (langsamen) Infanterieverbänden operieren sollten. Viele Militärhistoriker sehen darin eine wichtige Ursache für die Niederlage der französischen Armee im Mai 1940 gegenüber den schnellen deutschen Panzerarmeen. Obwohl de Gaulle mit seinem Reformkonzept letztlich scheiterte, hatte die politische Kampagne doch den Effekt, ihn bekannt zu machen; sie öffnete ihm den Weg in die Politik und damit auch in seine künftige Rolle eines Führers des französischen Widerstands im Zweiten Weltkrieg (siehe Forces françaises libres, Résistance). Zweiter Weltkrieg Als der Zweite Weltkrieg ausbrach, war de Gaulle Colonel. Bei der Verteidigung gegen die deutsche Offensive erhielt er am 14. Mai 1940 das Kommando über die neue 4e division cuirassée (4. Panzerdivision). Am 17. Mai führte er mit 200 Panzern ohne Luftunterstützung einen Gegenangriff auf Montcornet nordöstlich von Laon. Er griff von der Aisne her nach Norden an und überrollte deutsche Fahrzeugkolonnen. Erst am Ortsrand von Montcornet gelang es Panzerabwehrkanonen und 8,8-cm-Geschützen, sie zu stoppen. Die Division de Gaulles musste sich nach Luftangriffen, einem Gegenangriff der deutschen 10. Panzer-Division und eigenen schweren Verlusten zurückziehen. Zwei Tage später kam sie nochmals bei Crécy-sur-Serre zum Einsatz. Dort wurde das Gefecht vor allem durch den Einsatz der Luftwaffe entschieden. De Gaulle warf man später vor, keine Luftunterstützung angefordert zu haben. Am 28. Mai hatte er mehr Erfolg, als seine Panzerdivision die Wehrmacht bei Caumont zum Rückzug zwang. Er war in der Phase der deutschen Invasion in Frankreich der einzige französische befehlshabende Offizier, dem es gelang, die Deutschen zu einem Rückzug zu zwingen. Am 1. Juni hatte er den temporären Dienstgrad eines Général de brigade (Brigadegeneral). Am 6. Juni ernannte Ministerpräsident Paul Reynaud ihn zum Unterstaatssekretär für nationale Verteidigung und zum Verantwortlichen für die Koordination mit Großbritannien. Als Kabinettsmitglied lehnte er den Waffenstillstand von Compiègne (1940) ab und reiste am 15. Juni nach Großbritannien. Dort vereinbarte er mit Winston Churchill am 16. Juni eine Fortsetzung der britisch-französischen Kooperation gegen Deutschland. Als er am Abend nach Bordeaux zurückkehrte, dem provisorischen Sitz der französischen Regierung, schickte sich Marschall Pétain an, legal die Macht zu übernehmen. De Gaulle missbilligte die Politik Pétains, der den kapitulationsähnlichen Waffenstillstand mit dem Deutschen Reich zu unterzeichnen bereit war, und lehnte Pétains Tun als illegitim ab. Mit 100.000 Goldfranken aus einem Geheimfonds Paul Reynauds flog er am Morgen des 17. Juni 1940 von Bordeaux zurück nach London. Appell vom 18. Juni Während Pétain ankündigte, mit Deutschland einen Waffenstillstand zu vereinbaren, erlaubte der britische Premierminister Churchill de Gaulle, über den Hörfunk der BBC zum französischen Volk zu sprechen. De Gaulle rief darin französische Offiziere und Soldaten, Ingenieure und Facharbeiter der Waffenindustrie im Vereinigten Königreich auf, ihm zu folgen, und beschwor, dass die Niederlage nicht endgültig sei („Was auch immer geschehen mag, die Flamme des französischen Widerstandes darf nicht erlöschen und wird auch nicht erlöschen“). Er betonte die Bedeutung der Unterstützung durch Großbritannien und der Vereinigten Staaten. In Frankreich konnte man den Appell zuerst am 18. Juni 1940 um 19 Uhr hören. Er wurde zudem in den Zeitungen des noch unbesetzten südlichen Landesteils abgedruckt und in den folgenden Tagen von der BBC wiederholt ausgestrahlt. Der Appell gilt als de Gaulles größte Rede; Régis Debray schreibt, auch wenn de Gaulles Appell „das Gesicht der Welt nicht verändert habe, so habe dank ihm immerhin Frankreich das seine gewahrt.“ Das britische Kabinett hatte im Vorfeld der Rede dem französischen Innenminister, Georges Mandel, vorgeschlagen, nach England zu kommen und einen Appell an die Franzosen zu richten. Im Gegensatz zu Blum, seinem Ministerpräsidenten, hatte Mandel zuvor in mahnenden Reden von der Bedrohung durch das Deutsche Reich staatsmännische Weitsicht bewiesen, doch hatte er es abgelehnt, Frankreich zu verlassen, um sich nicht dem Vorwurf der Fahnenflucht auszusetzen (ebenso wie Blum war er Jude), und stattdessen empfohlen, die führende Aufgabe in London de Gaulle zu übertragen. Freies Frankreich Am 25. Juni 1940 gründete de Gaulle in London das Komitee Freies Frankreich (France libre) und wurde Chef der „Freien Französischen Streitkräfte“ (Forces françaises libres, FFL) und des „Nationalen Verteidigungskomitees“. Daraufhin wurde er vom Kriegsrat der Vichy-Regierung im August 1940 wegen Hochverrats in Abwesenheit zum Tode verurteilt. Die meisten Staaten erkannten das Vichy-Regime Marschall Pétains als die legitime Regierung Frankreichs an. Churchill bemühte sich zwar anfangs diplomatisch um das Vichy-Regime, unterstützte dann aber de Gaulle und ließ die in Nordafrika in Mers-el-Kébir unter dem Kommando von Pétains Marineminister, Admiral François Darlan, vor Anker liegende französische Kriegsflotte am 3. Juli 1940 in der Operation Catapult zerstören. Im Juni 1940 rief de Gaulle die französischen Kolonien auf, ihn zu unterstützen. Französisch-Äquatorialafrika und Kamerun schlossen sich im August 1940 unter Félix Éboué dem France Libre an. Ab 1942 unterstellten sich auch Diego Suarez auf Madagaskar und Dakar in Französisch-Westafrika dem Freien Frankreich, das vom Comité National Français regiert wurde. De Gaulle sorgte insbesondere dafür, dass Frankreich im Lager der Alliierten durch die Freien Französischen Streitkräfte (FFL), die an verschiedenen Fronten den Kampf fortsetzten, stets präsent war. Unter anderem förderte er mittels André Dewavrin (Colonel Passy), Pierre Brossolette und besonders Jean Moulin die Résistance. Mit der Transformation zur France combattante (Kämpfendes Frankreich) strich er die politische Einheit des France libre mit der Résistance intérieure heraus. Der Libanon (damals Großlibanon) wurde im September 1941 als eines der ersten französischen Protektorate durch alliierte Truppenverbände der Kontrolle des Vichy-Regimes entzogen. Bei der anschließenden Machtübernahme durch das Freie Frankreich kamen de Gaulle seine Kontakte aus seiner Dienstzeit in Beirut 1929–1931 zugute. General Fuad Schihab, der spätere Staatspräsident, bildete einen Freiwilligenverband von 20.000 Mann, der zu Beginn der Kampagne des Freien Frankreichs einen erheblichen Teil des Truppenkontingents bildete. De Gaulle konnte Churchill zur Unterzeichnung des Accord de Chequers (7. August 1940) bewegen, demzufolge Großbritannien die Integrität aller französischen Besitzungen und die „integrale Restauration und Unabhängigkeit und die Größe Frankreichs“ erhalten sollte. Außerdem erbot sich die Kriegsregierung Churchill, die Ausgaben des Freien Frankreichs zu finanzieren; de Gaulle bestand aber darauf, dass die Summen rückzahlbare Vorschüsse und keine Spenden seien, die später einen Schatten auf ihn und die Unabhängigkeit seiner Organisation geworfen hätten. Die Vorschüsse wurden noch vor Ende des Krieges zurückgezahlt. Trotz der Verträge zwischen Churchill und de Gaulle waren die Beziehungen der beiden Männer angespannt. Mit Blick auf die Nachkriegsordnung bezeichnete Churchill de Gaulle in Telegrammen als „größten einzelnen Feind für den Frieden in Europa“ und „schlimmsten Feind Frankreichs“. Churchill kritisierte, dass de Gaulle „sich als Retter Frankreichs aufspielen will, ohne einen einzigen Soldaten zur Operation beizusteuern“ und sein Verhalten und seine Persönlichkeit das größte Hindernis für gute Beziehungen zwischen Frankreich und den Angloamerikanern seien. Über die Invasion in der Normandie informierte Churchill de Gaulle erst fünf Tage vor der Landung. Auch die Beziehungen de Gaulles zum US-amerikanischen Präsidenten Franklin D. Roosevelt waren belastet – Roosevelt misstraute de Gaulle. De Gaulle seinerseits beklagte amerikanische Arroganz und sagte: „Ich bin zu arm, um mich zu beugen.“ Roosevelt unterstellte de Gaulle diktatorische Absichten. Roosevelts langjähriger Intimus, Admiral William Daniel Leahy, war vom 8. Januar 1941 bis zum 1. Mai 1942 US-Botschafter in Vichy-Frankreich. Frankreich als Siegmacht Trotz de Gaulles Ausschlusses von der anglo-amerikanischen Landung in Nordafrika (Operation Torch) und vor allem trotz Roosevelts Unterstützung für Admiral François Darlan und General Henri Giraud, die nach der Landung in Nordafrika das Vichy-Regime mit US-amerikanischer Duldung in Algier fortzusetzen suchten, gelang es de Gaulle im Mai 1943, in Algier Fuß zu fassen. Er schuf von dort das Französische Komitee für die nationale Befreiung (CFLN), um die politischen Strömungen im befreiten Frankreich zu einen, und stand alsbald an dessen Spitze. Das CFLN bezeichnete sich vom Juni 1944 an als provisorische Regierung der Französischen Republik (Gouvernement provisoire de la République Française, GPRF) und zog am 25. August 1944 in das befreite Paris ein, wo tags darauf auf der Avenue des Champs-Élysées ein von de Gaulle angeführter öffentlicher Triumphzug durchgeführt wurde. Danach gelang es de Gaulle, eine alliierte Militärregierung für die besetzten Gebiete in Frankreich zu verhindern und schnell den Forces françaises libres die Regierungsgewalt zu übertragen. In weiten Teilen der Bevölkerung wurde er als Befreier gefeiert, obwohl er bei der Landung in der Normandie und dem folgenden Vormarsch der Alliierten militärisch keine Rolle gespielt hatte. Als de Gaulle sich nach dem Einzug in Paris nicht zuerst bei den Forces françaises de l’intérieur (FFI) für ihre Unterstützung bedankte, sondern bei der Gendarmerie, die erst tags zuvor die Seiten gewechselt und sich von Deutschland losgesagt hatte, verstörte er damit viele Widerständler. Doch wollte er mit dieser Geste jedwede Auseinandersetzung unter den bewaffneten Franzosen vermeiden, die den Alliierten einen Anlass für die Errichtung eines Besatzungsregimes hätte liefern können. Zugleich betonte er mit seiner Rückkehr in das Kriegsministerium die Kontinuität der Dritten Französischen Republik und die Illegitimität der Vichy-Regierung. So erklärte de Gaulle, als der Vorsitzende des Conseil National de la Résistance, Georges Bidault, ihn nach seinem Einzug in Paris aufforderte, die Republik auszurufen: Das Vichy-Regime floh, als die Besatzungstruppen der Wehrmacht sich infolge der Operation Dragoon zurückziehen mussten, nach Sigmaringen. Gleichzeitig setzte de Gaulle kompromisslos die Autorität der provisorischen Regierung gegenüber den Organisationen der Résistance durch; er löste deren Einheiten am 28. August 1944 auf und erklärte ihren Kommandanten, sie hätten nun ins zivile Leben zurückzukehren. De Gaulle wollte die Säuberung des Staates von Kollaborateuren nicht den Siegermächten überlassen, sondern betrachtete dies als originäre Aufgabe der Franzosen selbst. Am 4. April 1944 nahm das CFLN zwei kommunistische Kommissare auf. Am 27. November 1944 amnestierte de Gaulle den bei Kriegsbeginn in die Sowjetunion desertierten Generalsekretär der KPF, Maurice Thorez. Im Februar 1945 erreichte er auf der Konferenz von Jalta die Anerkennung Frankreichs durch die drei großen Alliierten als eine der zukünftigen Besatzungsmächte Deutschlands. Anfang Dezember 1944 unterzeichnete er einen auf 20 Jahre abgeschlossenen Hilfs- und Freundschaftsvertrag mit der Sowjetunion. Im Januar 1945 kam es zwischen de Gaulle und den USA zu Unstimmigkeiten bezüglich der Verteidigung Straßburgs während des Unternehmens Nordwind. De Gaulle stellte seine Vision von der politischen Organisation eines demokratischen französischen Staates am 16. Juni 1946 in Bayeux vor. Die projektierten Reformen beinhalteten insbesondere eine Modernisierung des staatlichen Sozialsicherungssystems und das Frauenwahlrecht. Vierte Republik Unmittelbare Nachkriegszeit und Vierte Republik Bereits am 16. Mai 1945 hatte de Gaulle die Aufnahme Frankreichs als ständiges Mitglied im Weltsicherheitsrat der Vereinten Nationen (UNO) durchgesetzt. Nach dem Krieg wurde er am 13. November 1945 zum Präsidenten der provisorischen französischen Regierung ernannt. Bereits am 20. Januar 1946 trat er jedoch nach Differenzen mit den seit den Wahlen im Oktober im Parlament (der Verfassunggebenden Versammlung) dominierenden Sozialdemokraten und Kommunisten zurück, weil er deren Verfassungsentwurf ablehnte, der die Macht beim Ein-Kammer-Parlament konzentriert hätte. Nachdem der erste Verfassungsentwurf im Referendum im Mai 1946 abgelehnt worden war, warb de Gaulle in seiner Rede von Bayeux am 16. Juni 1946 für seinen eigenen Entwurf einer politischen Ordnung mit einer stärkeren Stellung des Präsidenten. Dieser konnte sich aber auch in der zweiten Verfassunggebenden Versammlung nicht durchsetzen, die die Verfassung der Vierten Republik beschloss, die zwar eine zweite Parlamentskammer, aber ebenfalls ein rein parlamentarisches Regierungssystem vorsah. Im Jahr 1947 gründete de Gaulle das Rassemblement du peuple français (RPF), eine politische Bewegung, die ihm helfen sollte, seine Vorstellungen von einer neuen Verfassung durchzusetzen. Im selben Jahr hielt er zwei als bedeutend geltende Reden: am 7. April 1947 in Straßburg und am 27. Juli 1947 in Rennes. Das RPF hatte bei den Kommunalwahlen im Oktober 1947 einen ersten Erfolg und stellte anschließend in mehreren großen Städten den Bürgermeister, de Gaulles Bruder Pierre wurde Vorsitzender des Gemeinderats von Paris. Die Forderung nach einer vorgezogenen Parlamentswahl, bei der sich das RPF gute Chancen ausrechnete, lehnten die Regierungsparteien (Sozialisten, Christdemokraten und Liberale) aber ab. Bei der Parlamentswahl 1952 schnitten die Gaullisten, auch aufgrund des zuvor zugunsten der Koalitionsparteien geänderten Wahlrechts, schwächer ab als erwartet. Nachdem seine Partei auch bei der Kommunalwahl im folgenden Jahr viele Bürgermeisterämter und Gemeinderatssitze wieder verloren hatte, gab de Gaulle am 6. Mai 1953 seine politischen Aktivitäten vorerst auf und zog sich nach Colombey-les-Deux-Églises zurück. Die folgende Phase im politischen Abseits bezeichnete er selbst später als traversée du désert („Gang durch die Wüste“). Er schrieb in dieser Zeit drei Bände seiner Memoiren. Gründung der Fünften Republik (1958) Nach dem Scheitern der Vierten Republik in Französisch-Indochina kam es im Zuge des Algerienkrieges 1958 zu einer konstitutionellen Krise: Da sie den Verbleib Algeriens bei Frankreich bedroht sahen, begannen führende Militärs am 13. Mai den Militärputsch in Algier, in dem bald die Rückkehr de Gaulles an die Macht gefordert wurde. Dessen Umfeld stand im Kontakt zu den Putschisten, und am 19. Mai gab er selbst öffentlich bekannt, für ein politisches Amt zur Verfügung zu stehen. Nachdem die Putschisten in der Opération Résurrection am 24. Mai die Insel Korsika besetzt hatten und damit das französische Mutterland bedrohten, willigten Präsident René Coty und das Parlament in de Gaulles Bedingungen ein: Am 1. Juni 1958 wurde er Ministerpräsident mit weitreichenden Notstandsbefugnissen für die Dauer von sechs Monaten, unter Suspension des Parlaments und mit dem Recht, den Entwurf zu einer neuen Verfassung auszuarbeiten. Im September nahm das Volk in einem Referendum die neue Verfassung mit dem von de Gaulle favorisierten Präsidialsystem mit 83 % an – die Fünfte Republik entstand. Alle Kolonien (Algerien wurde nicht als Kolonie, sondern als Bestandteil der Republik betrachtet) konnten wählen, ob sie an der Abstimmung teilnehmen oder ihre sofortige Unabhängigkeit wählen wollten – unter Fortfall aller weiteren französischen Unterstützung. Mit Ausnahme Guineas nahmen alle Kolonien an dem Referendum teil. Im November gewann de Gaulle die Parlamentswahlen und erhielt eine komfortable Mehrheit. Am 21. Dezember wurde er in indirekter Wahl mit 78 % der Stimmen zum Präsidenten der Französischen Republik gewählt. Präsidentschaft De Gaulle übernahm das Amt des Staatspräsidenten am 8. Januar 1959. Er ergriff einschneidende Maßnahmen, um das Land zu revitalisieren, besonders die Einführung des neuen Franc, der 100 alten Francs entsprach. Er lehnte die Dominanz der USA und der Sowjetunion auf internationaler Ebene ab und behauptete mit dem Aufbau der Atomstreitmacht (erster Kernwaffentest am 13. Februar 1960) Frankreich als unabhängige Großmacht, die mit einer eigenen Nuklearschlagkraft ausgestattet wurde, die letztlich die Großbritanniens, der anderen westeuropäischen Atommacht, noch übertraf. Jedoch ging es de Gaulle nicht nur um Politik, sondern auch um das nationale Bewusstsein am Ende einer Zeit der Krisen (Weltkrieg, Kolonialkriege etc.). Um die Franzosen zu begeistern, auch den Unpolitischen die nationale Größe vorzuführen und die Identifikation mit den nationalen Herausforderungen und Zielen zu stärken, ließ er z. B. den Spitzensport reorganisieren, setzte mit dem berühmten Bergsteiger Maurice Herzog ein nationales Symbol für erfolgreiche sportliche Leistung als Sportminister ein, zentralisierte die Talentauswahl und Spitzensportförderung, ließ Spitzensportler wie Staatsamateure finanzieren und sorgte für die Übereinstimmung von gesellschaftlichem Anspruch und Spitzensportorganisation. Als Gründungsmitglied der Europäischen Wirtschaftsgemeinschaft (EWG) legte de Gaulle zweimal – am 14. Januar 1963 und am 19. Dezember 1967 – sein Veto gegen den Beitritt Großbritanniens ein. Im April 1962 ersetzte de Gaulle den Premierminister, Michel Debré, durch Georges Pompidou. Im September 1962 schlug de Gaulle vor, die Verfassung dahingehend zu ändern, den Präsidenten der Republik per Direktwahl durch die Bevölkerung zu bestimmen. Die Reform der Verfassung trat gegen den Widerstand des Parlaments in Kraft. Im Oktober stellte das Parlament einen Misstrauensantrag gegen die Regierung Pompidou, aber de Gaulle lehnte den vom Premierminister selbst angebotenen Rücktritt ab und entschied, das Parlament aufzulösen. Aus der Neuwahl im November 1962 ging die gaullistische Parlamentsmehrheit gestärkt hervor. Die direkten Präsidentschaftswahlen fanden am 5. und 19. Dezember 1965 statt; in der Stichwahl de Gaulles gegen François Mitterrand erhielt Ersterer 55,2 % der abgegebenen Stimmen. Seine Gegner warfen ihm seinen Nationalismus und die abgeschwächte Wirtschaftskonjunktur in Frankreich vor. Außenpolitik De Gaulle hatte sich zunächst für die Einheit des Mutterlandes und seiner Überseegebiete ausgesprochen; so sah die maßgeblich von ihm geprägte Verfassung der Fünften Republik eine Unabhängigkeit der Kolonialgebiete nicht vor. Unter dem Eindruck des Algerienkriegs ermöglichte jedoch im September 1959 eine Verfassungsänderung den Kolonien Unabhängigkeit unter fortbestehendem französischen Einfluss im Rahmen der Communauté française. Am 18. März 1962 schloss de Gaulle die Verträge von Évian, die auch Algerien ein Recht auf eine Volksabstimmung über seine Unabhängigkeit zusicherten. Diese fand am 8. April 1962 statt. Die Politik der „nationalen Unabhängigkeit“ („l’indépendance nationale“) und der Lösung von „amerikanischer Bevormundung“ wurden von da an verstärkt. Auf internationalem Parkett stärkte de Gaulle die Unabhängigkeit Frankreichs weiterhin: Er trat 1960 nachdrücklich für ein „Europa der Vaterländer“ (siehe auch Intergouvernementalismus, Souveränismus) unter der Führung Frankreichs ein, für das er neben den EWG-Staaten auch Länder wie Polen, die Tschechoslowakei, Ungarn, Rumänien, Bulgarien und Griechenland gewinnen wollte. Dafür nahm er 1962 den Rücktritt von Premierminister Michel Debré in Kauf. In seiner Deutschlandpolitik setzte de Gaulle 1945 die Ruhrfrage, die 1948/1949 zur Einrichtung des Ruhrstatuts führte, auf die Tagesordnung der internationalen Politik. Nachdem seine Regierung zunächst das Ziel verfolgt hatte, das Saarland sowie das Rheinland und Westfalen einschließlich des Ruhrgebiets von Deutschland zu lösen, nahm er zusammen mit den anderen Westalliierten großen Einfluss auf die Bildung einer in den Westen zu integrierenden Bundesrepublik Deutschland. Am 9. September 1962 hielt er in Ludwigsburg auf Deutsch eine vielbeachtete Rede an die deutsche Jugend. Sie gilt als ein Meilenstein in den deutsch-französischen Beziehungen und als ein entscheidender Schritt auf dem Weg zum deutsch-französischen Freundschaftsvertrag (Élysée-Vertrag, Januar 1963). De Gaulle verurteilte die Militärhilfe der USA an Südvietnam und forderte die USA im Interesse eines dauerhaften Friedens zum Abzug ihrer Truppen auf. Er verurteilte 1967 den israelischen Schlag gegen die ägyptische Blockade der Meerenge von Tiran (Sechstagekrieg) und die dauerhafte Besetzung des Gazastreifens und des Westjordanlands durch Israel. Unter de Gaulle näherte sich Frankreich, einst engster Verbündeter Israels, der arabischen Welt, insbesondere Ägypten, aber auch Syrien und dem Libanon an, verhängte ein Waffenembargo gegen Israel, ließ die bereits bezahlten Mirage-Kampfflugzeuge nicht an Israel ausliefern und überließ es von da an den Amerikanern, Israel zu bewaffnen. Zur Haltung de Gaulles trugen auch die zunehmenden israelischen Operationen im bis dahin prowestlichen Libanon bei. De Gaulle hatte 1929–1931 (s. o.) im damals als Völkerbundsmandat französisch verwalteten Libanon gelebt und fühlte sich zahlreichen Persönlichkeiten der frankophonen Oberschicht des Landes verbunden, die ihn auch zum Teil im Kampf des Freien Frankreichs im Zweiten Weltkrieg unterstützt hatten. Bis zur Präsidentschaft von Jacques Chirac (1995–2007) war die israelkritische, proarabische Orientierung französischer Außenpolitik eine gaullistische Konstante. 1958 lehnte de Gaulle die Unterstellung der französischen Mittelmeerflotte unter das NATO-Kommando ab. 1964 beendete er das amerikanische Projekt einer multilateralen Atomstreitmacht (MLF). Zwei Jahre später forderte de Gaulle Strukturänderungen der NATO und drohte mit dem Austritt Frankreichs. Nach Auslaufen eines Ultimatums, in dem er den Abzug von NATO-Truppen aus Frankreich bzw. ihre Unterstellung unter französisches Kommando gefordert hatte, zog sich Frankreich 1966 aus der integrierten militärischen Kommandostruktur der NATO zurück, blieb aber NATO-Mitglied. Gleichzeitig wurde das europäische NATO-Hauptquartier SHAPE von Rocquencourt nach Mons in Belgien verlegt. Am 14. Dezember 1965 erklärte de Gaulle: „Selbstverständlich kann man auf den Stuhl wie ein Zicklein springen und rufen: ‚Europa, Europa, Europa!‘ Aber das führt zu gar nichts und bedeutet gar nichts.“ Dennoch war es Europa, das den Rahmen seiner Ambitionen festlegte, ein Europa, das selbst vom „Atlantik bis zum Ural“ reichte und den Eisernen Vorhang überwand. Tatsächlich war die Hauptstütze der französischen Außenpolitik die Annäherung an den anderen Schwerpunkt des Kontinents, die Bundesrepublik Deutschland, während man den „Angelsachsen“ den Rücken kehrte. Sein vertrauensvolles Verhältnis zum Bundeskanzler, Konrad Adenauer, und seine strategische Ausrichtung verhinderten eine Wiederholung der Politik Georges Clemenceaus, die das schwierige Verhältnis Frankreichs zu Deutschland nach dem Ersten Weltkrieg zusätzlich vergiftet hatte. Gemeinsam betrieben de Gaulle und Adenauer die deutsch-französische Aussöhnung, die mit einem deutsch-französischen Jugendwerk und zahlreichen Begegnungen gefördert wurde. Die Annäherung gipfelte im Élysée-Vertrag vom 22. Januar 1963. Den Beitritt des Vereinigten Königreichs zur Europäischen Wirtschaftsgemeinschaft versuchte de Gaulle systematisch zu verhindern. Neben der Befürchtung, Großbritanniens „special relationship“ zu den USA könne es zu einem „trojanischen Pferd“ der USA in Europa machen, sollen auch der mögliche Verlust der französischen Hegemonie in der europäischen Gemeinschaft und die Ablösung des Französischen als Arbeitssprache der europäischen Institutionen eine Rolle gespielt haben. Noch beim Begräbnis Adenauers musste de Gaulle vom deutschen Bundespräsidenten zum Händedruck mit dem amerikanischen Präsidenten bewegt werden, nachdem beide sich zuvor demonstrativ aus dem Weg gegangen waren. De Gaulle war antikommunistisch eingestellt. Allerdings ging er seit seiner Rückkehr an die Macht im Jahr 1958 davon aus, dass keine Bedrohung durch eine russische Invasion bestehe. Er propagierte die Normalisierung der Beziehungen zu den von ihm als „vergänglich“ empfundenen östlichen Regimen. Die Anerkennung der Volksrepublik China (27. Januar 1964) ging in diese Richtung, wie auch seine Reise in die Sowjetunion im Juni 1966. De Gaulle schuf mit der Communauté française ein Gegenstück zum britischen Commonwealth of Nations, wobei die Communauté Française die Außen-, Verteidigungs- und Währungspolitik bestimmte. Alle ehemaligen Kolonien führten Referenden durch, in denen die Gründung der Communité bestätigt wurde. Lediglich in Guinea entschied die Bevölkerungsmehrheit anders. Mitglieder wurden Dahomey, die Elfenbeinküste, Gabun, Kongo, Madagaskar, Mauretanien, Niger, Obervolta, der Tschad, Senegal, Mali, Togo und Kamerun. Dabei spielte auch die Communauté Financière d’Afrique des CFA-Franc eine Rolle, bei der die französische Zentralbank die Parität des CFA zum französischen Franc jahrzehntelang stabil hielt. Durch Kooperationsabkommen sicherte sich de Gaulle starke französische Einflussmöglichkeiten. Ein Teil der Communauté Française schloss sich zur Westafrikanischen Zollunion (UDAO) zusammen, die 1966 zur Zoll- und Wirtschaftsunion UDEAO ausgebaut wurde. Weitere Einflussmöglichkeiten schuf de Gaulle seinem Land auch mit der Gründung der staatlichen Vorläufergesellschaft von Elf Aquitaine, ERAP, die unter dem Einfluss ihres langjährigen Chefs, des ehemaligen französischen Verteidigungsministers und Gründers des Auslandsgeheimdiensts DGSS, Pierre Guillaumat, dem französischen Nachrichtendienst eine Tarnung sowie finanzielle Ressourcen für Frankreichs Aktivitäten in Afrika bot. Hauptsächlich in der Außenpolitik kam das gaullistische Denken vom Wesen der Nation zum Ausdruck: „eine gewisse Idee Frankreichs“. De Gaulle schöpfte seine Stärke aus dem Wissen über die Geschichte Frankreichs. Nach ihm war das Gewicht dieser Geschichte derart, dass sie Frankreich eine besondere Position im Konzert der Nationen schenkte. Für ihn und zahlreiche Franzosen waren England und die USA nur Sprösslinge Frankreichs. Gleichfalls bewertete er die Institution der Vereinten Nationen als lächerlich und nannte sie „das Ding“ („le machin“), was ihn jedoch nicht daran hinderte, den ständigen Sitz Frankreichs im Weltsicherheitsrat einzunehmen und für Frankreichs politische Zwecke zu nutzen. Attentate auf de Gaulle Im Jahr 1962 kommt es zu einem Attentat auf den Staatspräsidenten. Jean Bastien-Thiry, ein von de Gaulle persönlich zum Oberstleutnant beförderter Soldat der französischen Armee, war mit der französischen Algerienpolitik nicht länger einverstanden und beschloss daher, mit Unterstützung der Organisation de l’armée secrète (OAS) den Staatspräsidenten zu entführen oder, falls sich eine Entführung als unmöglich erwies, ihn zu töten. Der Angriff fand am 22. August 1962 auf einer Straßenkreuzung in Clamart bei Paris statt. Der Anschlag scheiterte, da die elf Attentäter das für den Beginn der Aktion verabredete Zeichen in der Dunkelheit nicht sahen und das Feuer auf das Fahrzeug des Präsidenten zu spät eröffneten. Der Citroën DS wurde von mehreren Kugeln getroffen, doch das Präsidentenpaar wurde um wenige Zentimeter verfehlt. „Dies hätte ein schönes, sauberes Ende gemacht“, kommentierte de Gaulle später, als er sich das Einschussloch im Wagen ansah. Die OAS setzte ihre Aktivitäten nach dem gescheiterten Attentat fort. Bis heute ist de Gaulles Algerienpolitik teilweise umstritten. Bastien-Thiry wurde gefasst, zum Tode verurteilt und am 11. März 1963 hingerichtet. Seine Komplizen kamen mit zum Teil geringeren Strafen davon. De Gaulle hatte eine Begnadigung Bastien-Thirys abgelehnt. Das Attentat von Petit-Clamart diente Frederick Forsyth als Vorlage für seinen 1971 erschienenen Roman Der Schakal, der zwei Jahre später verfilmt wurde. Bereits etwa ein Jahr vor dem Zwischenfall in Clamart, am 8. September 1961, war mit dem Attentat von Pont-sur-Seine ein Mordanschlag auf de Gaulle gescheitert. Die Attentäter hatten sich ebenfalls der OAS zugehörig erklärt. Atomstreitmacht Frankreich Überzeugt von der strategischen Bedeutung der Atomwaffe, engagierte de Gaulle das Land unter Protest der Opposition für die kostspielige Entwicklung der Force de frappe, von Spöttern, die sie für ein zu klein geratenes „Bömbchen“ („bombinette“) hielten, mitunter als „farce de frappe“ bezeichnet. De Gaulle antwortete ihnen: „In zehn Jahren werden wir etwas haben, womit wir 80 Millionen Russen töten können. Ich glaube nicht, dass man ein Volk angreift, welches die Fähigkeit hat, 80 Millionen Russen zu töten, selbst wenn man 800 Millionen Franzosen töten könnte, vorausgesetzt, es gäbe 800 Millionen Franzosen.“ 1960/61 veranlasste er in der algerischen Wüste vier oberirdische Kernwaffentests; Tausende trugen auf Dauer Gesundheitsschäden davon. Von 1966 bis zum Ende seiner Amtszeit im Jahr 1969 veranlasste er auf Atollen im Pazifik zehn weitere Atomtests, acht davon auf dem Mururoa- und drei auf dem Fangataufa-Atoll. Für französische Unterstützung in der Berlin-Krise und der Kubakrise versprach der US-amerikanische Präsident, John F. Kennedy, Frankreich Hilfe in der Nuklearfrage, doch löste er sein Versprechen bis zu seiner Ermordung nicht ein. Die Nuklearfrage belastete die franko-amerikanischen Beziehungen während der ganzen 1960er Jahre. Erst mit Richard Nixon gab es ab 1969 erstmals einen amerikanischen Präsidenten, der frankreichfreundlich eingestellt war. Mit ihm teilte de Gaulle seine Geringschätzung für Ideologien, multilaterale Verträge und Institutionen. Nixon umschiffte zunächst den in der Nuklearfrage verpflichtenden Weg über die amerikanische Legislative, bevor er der nuklearen Zusammenarbeit mit Frankreich offiziell den Weg öffnete. Jedoch war das Gros der Arbeit französischerseits bereits geleistet: Am 24. August 1968 war es Frankreich ohne US-Hilfe gelungen, eine Wasserstoffbombe zur Detonation zu bringen (Operation Canopus). Die Briten, deren Nuklearstreitmacht eng mit der der Amerikaner verknüpft war, fassten es als Ohrfeige auf, dass de Gaulle Frankreich zur dritten Atommacht des Westens machte. Deren Atomstreitkräfte verfügten über landgestützte Mittelstreckenraketen auf dem Plateau d’Albion (mittlerweile geschlossen), seegestützte Mittelstreckenraketen auf U-Booten und Atombomben, die von Flugzeugen abgeworfen werden konnten. Nicht zuletzt um auch auf diesem Gebiet von den beiden anderen Atommächten unabhängig zu sein, forcierte de Gaulle den Bau französischer Kampf- und Zivilflugzeuge (Dassault Mirage III bzw. Sud Aviation Caravelle) und unterzeichnete mit der Bundesrepublik Deutschland einen Vertrag zur Entwicklung des Airbus A300. Auch die europäische Trägerraketentechnik, deren ziviler Zweig die European Launcher Development Organisation (Europa-Rakete) war, wurde von de Gaulle in diesem Zusammenhang vorangetrieben. Während François Mitterrand sich gegen das Atomprogramm sperrte, übertrug de Gaulle die Aufsicht des Projekts seinem Bruder, Jacques Mitterrand. Mitterrand vollzog in seiner Politik später einen Richtungswechsel: Während seiner Amtszeit als Präsident (ab 1981) führte er die Neutronenbombe ein. Konversion des Dollarschatzes in Goldreserven Auf Anregung des französischen Ökonomen Jacques Rueff (1896–1978) war die Währungspolitik unter de Gaulle stark auf Gold ausgerichtet, um Frankreich von anderen nationalen Währungen unabhängig zu machen. Im Februar 1965 kündigte er an, Währungsreserven in US-Dollar im Rahmen des Bretton-Woods-Systems in Gold umzutauschen. Bis zum Sommer 1966 erhöhte Frankreich so den Goldanteil seiner Reserven auf 86 Prozent. Im Unterschied zu anderen Ländern, die im gleichen Zeitraum Dollar in Gold tauschten, darunter auch die Bundesrepublik Deutschland, beließ Frankreich das Gold nicht in den Tresoren der Federal Reserve, sondern bestand darauf, die Goldbarren nach Frankreich zu verschiffen, damit sie nicht „dem Zugriff einer fremden Macht preisgegeben“ seien. Sein Ziel, zum Goldstandard zurückzukehren, erreichte de Gaulle indes nicht. Die Affaire des „Québec Libre“ 1967 hielt sich de Gaulle in Kanada auf, um an der 100-Jahr-Feier des Landes und der Weltausstellung Expo 67 teilzunehmen. Dabei provozierte er einen diplomatischen Skandal, als er zum Abschluss einer emotionsgeladenen Rede vor 100.000 Menschen in Montréal, der größten Stadt der überwiegend französischsprachigen Provinz Québec, ausrief: „Vive le Québec libre!“ („Es lebe das freie Québec!“). Bei den Zuschauern auf den Straßen der Stadt lösten seine Worte großen Beifall aus. „Ich werde euch ein Geheimnis verraten, das ihr niemandem weitererzählen sollt“, hatte er zuvor vor dem Bürgern Montréals formuliert, „unterwegs hierher habe ich eine Atmosphäre erlebt, die mich an die Befreiung [Frankreichs am Ende des Zweiten Weltkriegs] erinnerte.“ Lester Pearson, Kanadas Premierminister, nannte de Gaulles Äußerungen „inakzeptabel“; de Gaulle antwortete ihm, dass das Wort „inakzeptabel“ selbst inakzeptabel sei, sagte den vorgesehenen Besuch in der kanadischen Hauptstadt, Ottawa, ab und flog nach Frankreich zurück. De Gaulle erklärte, mit seiner Rede den Frankokanadiern zu helfen, „sich selbst zu befreien“, da „nach einem Jahrhundert der Unterdrückung, das für sie nach der englischen Eroberung folgte, ihnen nunmehr auch das zweite Jahrhundert […] in ihrem eigenen Land weder Freiheit noch Gleichheit noch Brüderlichkeit brachte“. Die New York Times bewertete dies als „groben Akt gaullistischer Einmischung in die inneren Angelegenheiten Kanadas“ und als „Eskalation des Streites, der während des Besuchs General de Gaulles in Kanada begann“; laut einer Umfrage des französischen Magazins L’Express verurteilten 56 Prozent der befragten Pariser das Auftreten ihres Präsidenten. Die Maiunruhen von 1968 Die Unruhen im Mai 1968 in Frankreich waren eine weitere Herausforderung für de Gaulle. Am 24. Mai, zwei Wochen nach Beginn der Unruhen, nahm er erstmals in Rundfunk und Fernsehen Stellung zu den Forderungen der Demonstranten und versprach vage, ein Referendum über Reformen auf den Weg zu bringen. Unterdessen forderten die Demonstranten de Gaulle zum Rücktritt auf. Am 29. Mai reiste de Gaulle heimlich ins deutsche Baden-Baden; der Zweck dieser Reise bleibt unklar. Ein als mögliche Erklärung oft genanntes Treffen mit General Jacques Massu hält der Historiker Norbert Frei für unwahrscheinlich, sondern geht davon aus, dass „die Staatskrise in diesem Moment in eine Nervenkrise übergegangen war“ und de Gaulle Abstand brauchte. Nach seiner Rückkehr nach Colombey-les-Deux-Églises kündigte de Gaulle am 30. Mai 1968 in einer Rundfunkrede Neuwahlen an: „Als Inhaber der Legitimität, die mir die Nation und die Republik verliehen haben, habe ich in den zurückliegenden 24 Stunden alle Eventualitäten erwogen, die es mir ermöglichen würden, diese Legitimität zu erhalten. Ich habe meine Entschlüsse gefasst. Unter den gegenwärtigen Umständen werde ich mich nicht zurückziehen. Ich werde nicht den Premierminister wechseln, der die Anerkennung von uns allen verdient. Ich löse heute die Nationalversammlung auf und beauftrage die Präfekten [...], die Subversion zu jeder Zeit und an jedem Ort zu verhindern. Was die Legislativwahlen angeht, so werden sie in den von der Verfassung vorgesehenen Fristen stattfinden, zumindest bis zu dem Zeitpunkt, an dem man hört, dass das ganze französische Volk mundtot gemacht wurde und man es davon abhält, seinem Willen Ausdruck zu verleihen, es davon abhält zu leben, durch dieselben Maßnahmen, durch die man versucht, die Studenten vom Studieren abzuhalten, die Lehrer vom Lehren, die Arbeiter vom Arbeiten. Die [von den Demonstranten ergriffenen] Mittel sind Einschüchterung, Vergiftung und Tyrannei, seit langem ausgeübt von organisierten Gruppen und einer Partei, die ein durch und durch totalitäres Projekt ist.“ (Hiermit meinte er die Kommunistische Partei Frankreichs.) In dieser Rede erkannten seine Anhänger den de Gaulle der großen Tage wieder. Am 30. Mai 1968 hielten sie eine Demonstration ab, an der nach Angaben der Organisatoren eine Million, nach Angaben der Polizei 300.000 Menschen teilnahmen. Kurz darauf, im Juni 1968, erwiesen sich die Parlamentswahlen als großer Erfolg für die Gaullisten, die 358 von 487 Sitzen in der Nationalversammlung erhielten. Am 13. Juli 1968 wurde Georges Pompidou im Amt des Premierministers von Maurice Couve de Murville abgelöst. Referendum zur Regionalreform und Rücktritt de Gaulles Im Februar 1969 kündigte de Gaulle an, noch im Frühjahr desselben Jahres ein Referendum über die Reform der Regionalverwaltung und des Senats abzuhalten. Wie 1962 sollte eine Verfassungsänderung ohne Beteiligung des Parlaments durchgesetzt werden. Im April kündigte de Gaulle an, dass er im Falle einer Ablehnung zurücktreten werde. Valéry Giscard d’Estaing mit seiner Partei, den Républicains indépendants, schloss sich mit den Sozialisten zusammen, die de Gaulles Vorhaben ablehnten. Obwohl das eigentliche Ziel einer Regionalreform beim Stimmvolk des traditionell zentralistisch regierten französischen Staates populär war, wurde das Referendum mit 52,46 % der Stimmen abgelehnt, und de Gaulle löste sein Versprechen ein und gab am 28. April 1969 kurz nach Mitternacht seinen Rücktritt vom Amt des Präsidenten der Republik bekannt. Als Interimspräsident bis zur Neuwahl im Juni 1969 fungierte ordnungsgemäß der Präsident des Senats, Alain Poher. Am 20. Juni 1969 trat der Gaullist Georges Pompidou, der am 15. Juni die Stichwahl für das Präsidentenamt gegen den sozialen Christdemokraten Alain Poher gewonnen hatte, die Nachfolge Charles de Gaulles an. Tod und Begräbnis Nach seinem Rücktritt hielt sich de Gaulle einen Monat in Irland auf, von wo aus er per Brief wählte, und zog sich dann nach Colombey-les-Deux-Églises zurück, wo er an seinem (unvollendeten) Buch Mémoires d’espoir arbeitete. Nach einer Reise nach Spanien im Juni 1970 starb Charles de Gaulle am 9. November 1970 in Colombey-les-Deux-Églises an der Ruptur eines Aortenaneurysmas. Sein Testament hatte er zur Zeit des Begräbnisses von General Jean de Lattre de Tassigny (1952) abgefasst. Dieser war nach seinem Tod vom offiziellen Frankreich in einer Art und Weise vereinnahmt worden, die de Gaulle verabscheute. Deshalb regelte de Gaulle die Modalitäten seines eigenen Begräbnisses in allen Einzelheiten und bestimmte: „Ich möchte in Colombey beerdigt werden.“ „Bei meiner Beisetzung weder Politiker noch Minister, nur meine Weggefährten aus der Zeit der Befreiung!“ (Dies schloss Jacques Chaban-Delmas und André Malraux ein. Dennoch nahm auch Finanzminister Valéry Giscard d’Estaing an der Beisetzung teil und begründete dies damit, dass er nicht als Minister, sondern als einfacher Franzose komme.) „Auf meinem Grab: Charles de Gaulle, 1890–19…. Nichts anderes“ Am 12. November 1970 wurde de Gaulle in Colombey an der Seite seiner Tochter, Anne, beigesetzt. Vom Familienanwesen in die Kirche des Ortes wurde der Sarg auf einem Panzerwagen des Typs Panhard EBR überführt. Der Zeremonie wohnten etwa 350 Compagnons de la Libération bei. Ebenfalls am 12. November 1970 fand zu Ehren des Verstorbenen in der Kathedrale Notre-Dame de Paris ein großes Requiem für ausländische Staatschefs statt. Anwesend waren US-Präsident Richard Nixon, der sowjetische Präsident Nikolai Podgorny, der britische Premierminister Edward Heath, Josip Broz Tito (Jugoslawien), Indira Gandhi (Indien), Fidel Castro (Kuba), Olof Palme (Schweden), Kaiser Haile Selassie (Äthiopien), Schah Mohammad Reza Pahlavi (Iran), König Bhumibol (Thailand), Königin Juliana (Niederlande), König Baudouin (Belgien), der britische Thronfolger, Prinz Charles, der Fürst von Monaco und der Großherzog von Luxemburg. Neben dem deutschen Bundespräsidenten, Gustav Heinemann, nahmen auch die früheren Bundeskanzler Ludwig Erhard und Kurt Georg Kiesinger teil. Erinnerung Zahlreiche öffentliche Straßen und Gebäude in Frankreich sind nach Charles de Gaulle benannt. Im Besonderen die Place Charles-de-Gaulle (Place de l’Étoile) in Paris und der Flughafen Paris-Roissy – Charles de Gaulle. Sein Name wurde auch dem gegenwärtig letzten französischen Flugzeugträger, der Charles de Gaulle, gegeben. Sein Wohnhaus in Colombey, die Boisserie, ist heute ein Museum, ebenso sein Geburtshaus in Lille. De Gaulle im Urteil von Zeitgenossen und der Nachwelt Churchill beschrieb de Gaulle als eine „Figur von echter Größe“. In seinem Nachruf in der Wochenzeitung Die Zeit schrieb Theo Sommer, de Gaulle sei ein Mann des 17. oder 18. Jahrhunderts gewesen, der die Zukunft verfehlte, weil er „Vergangenheit restaurieren“ wollte. Innenpolitisch sei er den Problemen des Landes allein mit „altfränkischer Mythologie“ nicht beigekommen, seine Außenpolitik habe sich als eine unstete Folge leerer Gesten entpuppt, sein exzentrischer Auftritt in Québec (Kanada) könne nur belächelt werden. „Alles in allem hat Charles de Gaulle nicht viel Bleibendes bewirkt. Sein Anspruch war größer als seine Kraft, und es lag etwas Manisches in der Art, wie er diesen Anspruch verfocht. (…) Daß er voll verfehlter Ideen war, ist offenkundig. Niemand jedoch bestreitet, daß auch seine Fehler Format besaßen.“ Der linke Revolutionstheoretiker und Philosoph Régis Debray bezeichnete de Gaulle als „super-scharfsichtig“, da viele seiner Vorhersagen (vom Fall des Kommunismus bis zur Wiedervereinigung Deutschlands) sich nach seinem Tod bewahrheiteten. Der deutsche Historiker Ernst Weisenfeld sah eine große Wertbeständigkeit sämtlicher wichtiger Entscheidungen de Gaulles in seinen zehn Regierungsjahren. Von der Direktwahl des Staatspräsidenten über die Atomwaffen, den Austritt aus der NATO bis hin zur unabhängigen Außenpolitik seien die großen Entscheidungen de Gaulles auch nach seinem Abtritt von der politischen Bühne Bestandteil des Programms aller großen Parteien Frankreichs geworden. Der Historiker Wilfried Loth unterstreicht die historischen Verdienste de Gaulles, die jedoch von seiner Selbststilisierung als „Retter der Nation“ und der Kritik daran überschattet worden seien: „Er hat dem vielfältigen Widerstand gegen die Integration Frankreichs in Hitlers Europa einen Kristallisationspunkt geboten und damit an führender Stelle dazu beigetragen, dass sich mit der Befreiung Frankreichs ein neuer demokratischer Konsens bilden konnte. Er hat die Handlungsfähigkeit des politischen Systems gestärkt und die Modernisierung der Wirtschaft entschieden vorangetrieben. […] Schließlich hat er wichtige Impulse zur Entwicklung eines unabhängigen Europas und zur Überwindung kommunistischer Parteiherrschaft in seinem östlichen Teil gegeben“. Nach Umfragen betrachten 70 Prozent der französischen Bevölkerung de Gaulle als die wichtigste Gestalt der gesamten französischen Geschichte. Als bleibende Leistungen de Gaulles werden vor allem der entschlossene Widerstand gegen das nationalsozialistische Deutschland und die Verfassung der Fünften Republik genannt. Familie Charles de Gaulle hatte drei Brüder und eine Schwester: Xavier de Gaulle (1887–1955), Kriegsgefangener, Résistant während des Zweiten Weltkriegs; er ist der Vater von Geneviève de Gaulle-Anthonioz. Marie-Agnès de Gaulle (1889–1982) Jacques de Gaulle (1893–1946), von 1926 an behindert infolge einer Gehirnentzündung. Pierre de Gaulle (1897–1959), Résistant, Politiker, Unternehmensverwalter. Charles de Gaulle heiratete am 7. April 1921 Yvonne Vendroux (* 22. Mai 1900 in Calais; † 8. November 1979 in Paris). Der Ehe entstammen drei Kinder: Philippe de Gaulle (* 28. Dezember 1921 in Paris), Admiral, danach Senator. Élisabeth de Gaulle (* 15. Mai 1924 in Paris; † 2. April 2013). Anne de Gaulle (* 1. Januar 1928 in Trier; † 6. Februar 1948 in Colombey-les-Deux-Églises) wurde mit dem Down-Syndrom geboren und starb im Alter von 20 Jahren an einer Lungenentzündung. Der Front-National-Politiker Charles de Gaulle (* 25. September 1948 in Dijon) ist sein Enkel. Sonstiges Als Präsident Frankreichs war Charles de Gaulle von Amts wegen auch Kofürst von Andorra. Schriften La discorde chez l’ennemi. 1924. Histoire des troupes du Levant. Geschrieben von den Majoren de Gaulle und Yvon, bei der finalen Fassung in Zusammenarbeit mit dem Colonel de Mierry. 1931. Le fil de l’épée. 1932. Die Schneide des Schwertes. Aus d. Franz. von Leo Schmidl. Athenäum Verlag, Frankfurt u. Bonn 1961. (Neuübersetzung von Carlo Schmidt: Insel Verlag, Frankfurt 1981, ISBN 3-458-04879-0.) Vers l’armée de métier. 1934. Frankreichs Stoßarmee: Das Berufsheer, die Lösung von morgen. Voggenreiter, Potsdam 1935. La France et son Armée. 1938. Trois études (Rôle historique des places fortes; Mobilisation économique à l’étranger; Comment faire une armée de métier) suivi par le Mémorandum du 26 janvier 1940. 1945. Mémoires de Guerre. Volume I – L’Appel, 1940–1942. 1954. Volume II – L’Unité, 1942–1944. 1956. Volume III – Le Salut, 1944–1946. 1959. Mémoires d’Espoir. Volume I – Le Renouveau, 1958–1962. 1970. Volume II – L’effort, 1962… 1971. Discours et Messages. 1970. Volume I – Pendant la Guerre, 1940–1946. Volume II – Dans l’attente, 1946–1958. Volume III – Avec le Renouveau, 1958–1962. Volume IV – Pour l’Effort, 1962–1965. Volume V – Vers le Terme, 1966–1969. Literatur Johannes Willms: Der General. Charles de Gaulle und sein Jahrhundert. Beck, München 2019, ISBN 978-3-406-74130-2. Wilfried Loth: Charles de Gaulle. Kohlhammer, Stuttgart 2015. ISBN 978-3-17-023616-5. Albrecht Rothacher: Charles de Gaulle, die inszenierte Inkarnation Frankreichs. In: Das Unglück der Macht. Frankreichs Präsidenten von de Gaulle bis Macron. Berliner Wissenschaftsverlag, Berlin 2020. ISBN 978-3-8305-3959-9. S. 229–294. Felix de Taillez: »Amour sacré de la Patrie« – de Gaulle in Neufrankreich. Symbolik, Rhetorik und Geschichtskonzept seiner Reden in Québec 1967 (= Geschichtswissenschaften, Band 25), Utz, München 2011, ISBN 978-3-8316-4073-7. Jacques Boissay: De Gaulle en campagne – 1959–1969. Cherche Midi, Paris 2011, ISBN 978-2-7491-2174-1. Sudhir Hazareesingh: Le Mythe gaullien. Gallimard, Paris 2010, ISBN 978-2-07-012851-8. Matthias Waechter: Der De-Gaulle-Mythos. Erinnerung und Politik in der modernen Demokratie. In: Historisches Jahrbuch. 129, 2009, S. 131–144. Philippe de Gaulle: De Gaulle, mon père: entretiens avec Michel Tauriac. Band 1. Plon, Paris 2003, ISBN 2-259-20150-4. Paul-Marie Coûteaux: Le génie de la France. Band I: De Gaulle philosophe. Jean-Claude Lattès, Paris 2002, ISBN 2-7096-2067-7. Vincent Jouvert: L’Amérique contre De Gaulle. Seuil, Paris 2000, ISBN 2-02-037380-7. Thomas Nicklas: Charles de Gaulle: Held im demokratischen Zeitalter (= Persönlichkeit und Geschichte, Band 158/159). Muster-Schmidt, Göttingen 2000, ISBN 3-7881-0151-2. Knut Linsel: Charles de Gaulle und Deutschland. (Beihefte der Francia, 44). Thorbecke, Sigmaringen 1998, ISBN 3-7995-7346-1. perspectivia.net Peter Schunk: Charles de Gaulle. Ein Leben für Frankreichs Größe. Propyläen, Berlin 1998, ISBN 3-549-05699-0. Jean-Louis Crémieux-Brilhac: La France Libre. Gallimard, Paris 1996, ISBN 2-07-073032-8. Jean Lacouture: De Gaulle. 3 Bände. Éditions du Seuil, Paris 1 – Le Rebelle (1890–1944). 1984, ISBN 2-02-008577-1. 2 – Le Politique (1944–1959). 1985, ISBN 2-02-008933-5. 3 – Le Souverain (1959–1970). 1986, ISBN 2-02-009351-0. Filme Charles de Gaulle – Ich bin Frankreich! (OT: Le Grand Charles.) TV-Spielfilm in 2 Teilen, Frankreich, 103 Min. und 105 Min., Buch und Regie: Bernard Stora, Produktion: Arte, dt. Erstsendung: 9. Mai 2008, Hintergründe und Inhaltsangabe von arte. Wolfgang Schoen: Vier Kriegsherren gegen Hitler – Charles de Gaulle: Verpflichtet zum Kampf. TV Schoenfilm, D 2001. Weblinks Website der Fondation Charles de Gaulle (französisch, mit deutschsprachiger Version) Fußnoten Namensgeber für ein Schiff Bestsellerautor (Deutschland) Colombey les Deux Églises Mitglied der Paneuropa-Union Staatspräsident (Frankreich) Premierminister (Frankreich) Verteidigungsminister (Frankreich) Brigadegeneral (Frankreich) Mitglied der Ehrenlegion (Großkreuz) Träger des französischen Nationalverdienstordens (Großkreuz) Träger der Royal Victorian Chain Opfer eines Attentats Person im Ersten Weltkrieg (Frankreich) Person im Polnisch-Sowjetischen Krieg Person im Zweiten Weltkrieg (Frankreich) Französischer Kriegsgefangener von Deutschland Mitglied des Rassemblement du peuple français Person (deutsch-französische Beziehungen) Zum Tode verurteilte Person Franzose Geboren 1890 Gestorben 1970 Mann
893
https://de.wikipedia.org/wiki/Chemnitz%20%28Familienname%29
Chemnitz (Familienname)
Chemnitz ist ein deutscher Familienname. Namensträger Aage Chemnitz (1927–2006), grönländischer Kaufmann Aaja Chemnitz (* 1977), grönländische Politikerin (Inuit Ataqatigiit) Asii Chemnitz Narup (* 1954), grönländische Politikerin Bogislaw Philipp von Chemnitz (1605–1678), deutsch-schwedischer Rechtswissenschaftler und Historiker Carsten Chemnitz (* 1989), deutscher Rapper, siehe Felix Kummer Christian Chemnitz (1615–1666), deutscher Theologe Franciscus Chemnitz (1609–1656), deutscher Militärarzt Franz von Chemnitz (1656–1715), deutscher Jurist und Richter Gudrun Chemnitz (1928–2004), grönländische Frauenrechtlerin, Lehrerin, Radiojournalistin und Übersetzerin Guldborg Chemnitz (1919–2003), grönländische Dolmetscherin, Politikerin und Frauenrechtlerin Hellmuth Chemnitz (1903–1969), deutscher Bildhauer Jacob Chemnitz (* 1984), dänischer Badmintonspieler Jens Chemnitz (1853–1929), grönländischer Pastor Jens Christian Chemnitz (1935–2005), grönländischer Geistlicher Joachim Chemnitz (1600–1663), kurbrandenburgischer Kammergerichtsrat und Konsistorialpräsident Karl Chemnitz (1884–1965), grönländischer Pastor Kathrine Chemnitz (1894–1978), grönländische Frauenrechtlerin Lars Chemnitz (1925–2006), grönländischer Politiker und Lehrer Matthäus Friedrich Chemnitz (1815–1870), deutscher Jurist und Dichter Matthias Chemnitz (1537–1599), deutscher Jurist, Vizekanzler und Konsistorialpräsident im Kurfürstentum Brandenburg Siehe auch Chemnitz (Gelehrtenfamilie) Familienname Deutscher Personenname
895
https://de.wikipedia.org/wiki/Castel%20del%20Monte
Castel del Monte
Das Castel del Monte (ursprünglich castrum Sancta Maria de Monte) ist ein Bauwerk aus der Zeit des Staufer­kaisers Friedrich II. in Apulien im Südosten Italiens. Das Schloss wurde von 1240 bis um 1250 errichtet, wahrscheinlich aber nie vollendet. Insbesondere der Innenausbau ist anscheinend nicht beendet worden. Lage und Architektur Das Castel del Monte liegt im Gemeindegebiet von Andria, einer Stadt in der Umgebung von Bari. Sein Grundriss ist achteckig. An jeder der Ecken steht ein Turm mit ebenfalls achteckigem Grundriss. Das Hauptachteck ist 25 Meter hoch, die Türme 26 Meter. Die Länge der Seiten des Hauptachtecks beträgt 16,50 Meter, die der Türme je 3,10 Meter. Je sechs Seiten der Turm-Achtecke sind ausgeführt, zwei entfallen durch die Verbindung mit dem Hauptgebäude. Der Haupteingang ist nach Osten ausgerichtet. Der Durchmesser des Innenhofs beträgt, jeweils zwischen gegenüberliegenden Wänden gemessen, 17,63 bis 17,86 Meter. Bemerkenswert sind die Abweichungen der Wandbreiten im Innenhof, diese liegen zwischen 6,96 und 7,92 Metern. Deutungen der Funktion und Form des Kastells Über die Funktion der Burg ist gerätselt worden, wobei die achteckige Grundrissfigur phantastische Gedanken beflügelte. Die eher sachlichen Deutungen reichen von einem Jagdschloss bis hin zu einem Gebäude zur Aufbewahrung des Staatsschatzes. Besonders in den 1930er bis 1950er Jahren beliebt war die Deutung als Steinerne Krone Apuliens (Willemsen), als welche Castel del Monte angeblich die Macht Friedrichs II. symbolisieren sollte. Das Castel del Monte wird häufig auch als der Wehrbau und der Lieblingssitz Friedrichs II. bezeichnet. Ursache für die zahlreichen Vermutungen ist nicht zuletzt die spärliche Datenlage. Sicher ist, dass Friedrich II. mit einem Schreiben vom 28. Januar 1240 Richard von Montefuscolo, Justitiar der Capitanata, befahl, Vorbereitungen für den Bau eines castrum zu treffen. Der Bau sollte bei der Kirche Santa Maria del Monte erfolgen. Am Bau existieren jedoch keine Einrichtungen wie Gräben, Arsenale, Schießscharten oder Mannschaftsräume, die auf die Verwendung als Festung schließen lassen. Stattdessen wurde das Gebäude mit Schmuck am Hauptportal und den Fenstern, aufwändigen Sanitäreinrichtungen und Kaminen ausgestattet. Unregelmäßigkeiten in den Abmessungen – zum Beispiel bei den Wandbreiten des Innenhofes – haben zu Überlegungen geführt, ob diese absichtlich so geplant wurden, um bestimmte Effekte hervorzurufen. So entspricht die Länge des Schattens am Tag der Herbst-Tagundnachtgleiche der Hofbreite, einen Monat später der Summe aus Hof- und Saalbreite und einen weiteren Monat später erstreckt er sich bis zur Außenkante der Türme. Bau Der Baustein des Mauermantels ist heller gelblicher oder grauweißer in der Umgebung gebrochener Kalkstein. Das Material des Eingangsportals und einiger ausgewählter Bauelemente ist Breccia rossa (= rote Brekzie), ein Konglomeratgestein, einige der Säulen in den Innenräumen sind aus grau-orangefarbenem Marmor. Der ursprüngliche Fußboden aus farbigem Mosaik ist nur noch in Spuren erhalten. Die Räume sind in zwei Geschossen um den achtseitigen Innenhof angeordnet. Die äußeren Ecken des Oktogons sind wiederum mit acht Türmen besetzt, die jeweils mit zwei Seiten in die Mauer eingebunden sind, sodass sechs Seiten freiliegen. Nur drei enthalten Wendeltreppen, in den anderen fünf sind Räume verschiedener Zweckbestimmung, u. a. Bäder und Toiletten, untergebracht. Jeder Raum im Erdgeschoss verfügt über ein einfaches Monoforium, im Obergeschoss über ein gotisch beeinflusstes Biforium. Ausnahme davon ist der Saal Richtung Andria, der über ein Triforium verfügt. Die Gewölbe sind durch kräftige Kreuzrippen betont, die auf Halbsäulen auslaufen und an deren Kreuzungspunkt sich in fast allen Räumen ein verzierter Schlussstein befindet. Eingangsportal Dem Eingangsportal hat der Bauherr besondere Aufmerksamkeit gewidmet, wie auch in seinen anderen Bauten. Hier wird dem Besucher der Herrschaftsanspruch des Kaisers schon am Eingang vermittelt: Die schon von weitem sichtbare plastische Betonung des Portals, also seine Pilasterrahmung, der Architrav dazwischen und der Flachgiebel zitieren die Antike, die Kapitelle erinnern an die Zisterziensergotik und die flache Rechteckumfassung des oberen Portalbereiches ist von islamischer Architektur beeinflusst. Auch der farbige Prunk des Portals mutet fast orientalisch an. Die Löwen auf den Säulen gehören zur apulischen Romanik. All das wird hier in der Portalarchitektur in eine neue Einheit gebracht, genauso wie Friedrich II. selbst von Anfang an das Imperium unter seiner Herrschaft in neuem Glanz vereinen wollte. Es gibt einen schmalen Schlitz im Mauerwerk zwischen der äußeren Schale und der dadurch entstehenden inneren Portalzone. Hier konnte früher ein Fallgitter herabgelassen werden, um unerwünschten Besuch abzuhalten. Solche Sicherungsmaßnahmen gegen Feinde bestimmten – einer älteren Theorie zufolge – auch die Struktur des Gangsystems im Innern der Burg. Gänge und Zimmer Castel del Monte wird von einem äußerst raffinierten Gangsystem durchzogen. Man konnte durchaus nicht von jedem Eingang aus in jeden Raum gelangen, zwei Räume sind nur durch einen einzigen Zugang zu erreichen. So gelangt man vom Eingangsraum, in dem heute der Eintritt zu bezahlen ist, ausschließlich in den rechts davon liegenden Raum (heute ein Souvenirladen) und von dort ausschließlich in den Innenhof. Letzteres Portal, wie alle anderen aus Breccia rossa, ist auf der Innenseite verziert, außen, zum Innenhof hin, dagegen schmucklos. Bei den beiden anderen, unterschiedlich gestalteten Portalen zum Innenhof ist es umgekehrt, dort befindet sich die verzierte Seite außen. Dadurch ist dem Besucher auf dem vorgegebenen Weg immer die verzierte Seite zugewandt. Die Räume ohne Portal haben nur schmucklose Monoforien oder Okuli. Die beiden Räume, die nur einen Zugang haben, verfügen nicht nur über einen Kamin, sondern außerdem über Sanitäranlagen im angrenzenden Turm. In einem der beiden Räume sind geringe Reste eines Mosaikfußbodens erhalten. Das Obergeschoss ist durch Spitzblendbögen und Pilaster gegliedert. Hier treten besonders drei Rundbogenfenster, ebenfalls aus Breccia rossa, hervor, von denen sich nur eines über einem Portal des Erdgeschosses befindet. Da es im Obergeschoss einen umlaufenden Holzbalkon gab, dienten sie wohl auch als Zugang zum Balkon. Die übrigen Räume haben als Fenster nur einfache Monoforien. Die Wände sind teilweise mit Opus reticulatum verziert, die Marmorverkleidungen wurden während der Plünderungen des 18. Jh. entfernt. Früher glaubte man, dass der Kaiser Grund hatte, vor Attentaten auf der Hut zu sein, und dass er sich in seinem angeblichen „Jagdschloss“ dadurch sicherte, dass jeder, der ihn in seinen Räumen aufsuchen wollte, nicht anders konnte, als vorher nacheinander eine festgelegte Reihe von anderen Räumen zu passieren, in denen man ihn auf Waffen etc. untersuchen konnte. De Tommasi weist aber darauf hin, dass die verschiedenen Räume einfach verschiedene Funktionen hatten und der Gesichtspunkt der sozialen Rangfolge hier eine Rolle spielte und nicht die unbewiesene Hypothese eines Labyrinths zum Schutz des Kaisers. In den Türmen gingen die Gänge in Wendeltreppen über, die sorgfältig aus Stein gebaut waren. In anderen Pfalzanlagen und auch in den Treppentürmen der Kirchen hat man in solchen Fällen meistens Holz verwendet. Oben war der Turm mit einem kleinen Kreuzrippengewölbe abgeschlossen, dessen Kragsteine die Form von Köpfen hatten. Es handelt sich also um ein in allen Einzelheiten genau durchdachtes und in mancher Hinsicht bis heute geheimnisvolles Bauwerk. Neuere Geschichte Von 1522 bis 1876 gehörte das Schloss der Familie Carafa, die 1552 zu Herzögen von Andria und Castel del Monte erhoben wurden. Nach Jahrhunderten in relativer Vergessenheit begann die kulturelle und baugeschichtliche Wiederentdeckung des Kastells nach ersten Erwähnungen durch Pacichelli (1690) mit einer ersten systematischen Baubeschreibung durch Troyli (1749). Erst Henry Swinburne (1743–1803), der sich in seinen Reisebeschreibungen mit dem rätselhaften Bau beschäftigte, löste ein breiteres Interesse aus, das auch den Beginn der wissenschaftlichen Bearbeitungen und Auseinandersetzung mit diesem Bau europaweit markiert. Zwei jungen deutschen Architekten, Heinrich Wilhelm Schulz (1808–1855) aus Dresden und Anton Hallmann (1812–1845) aus Hannover, kommt das Verdienst zu, 1831 die erste architektonische Aufmessung und historische Dokumentation des Bauwerks vorgenommen zu haben. Ziel ihrer Arbeiten war dabei „die Bestandsaufnahme mit Vermessung und Baubeschreibung sowie die historische Verortung des Bauwerks auf dem Wege systematischer Urkundenstudien“ zu leisten, deren Ergebnisse erst postum 1860 im Druck erschienen. Ihre Berichte, die Schulz und Hallmann noch im Winter 1835/36 in Rom vortrugen, bildeten die Grundlage und Hinweise für zwei Franzosen, den Historiker Huillard-Bréholles (1817–1871) und den Architekten Baltard (1805–1874), die auf den Spuren der beiden Deutschen ihre eigene Dokumentation des Castel mit detaillierten Plänen des Bauwerks erstellen und bereits 1844 in Paris veröffentlichen konnten. Honoré Théodoric d’Albert, Herzog von Luynes, förderte dieses Projekt finanziell. 1876 wurde das Castel nach vielen Jahrzehnten des Leerstands und der Plünderung vom italienischen Staat für 25.000 Lire erworben. Um 1900 begannen Restaurierungsarbeiten, die im damaligen Geschmack der Zeit ausgeführt wurden: Alle beschädigten Steine wurden durch Nachbildungen ersetzt, der ursprüngliche Bauzustand wurde mit modernen Materialien nachgebildet, die zwischenzeitliche Geschichte des Baus überdeckt und zugetüncht. Am Ende stand das Castel äußerlich wieder „wie neu“ da. Seit 1936 ist das Bauwerk ein Nationaldenkmal Italiens. Als exemplarisch für die ideologisierte Rezeption des Stauferkaisers Friedrich II. und seiner Bauwerke im faschistischen Italien und im nationalsozialistischen Deutschland kann der Auftrag der Dienststelle Ribbentrop und der Deutsch-Italienischen Gesellschaft, Walther Wüster u. a. gesehen werden, 1940 ein Modell Castel del Montes im Maßstab von 1:50 anzufertigen, das Adolf Hitler zum Jahreswechsel 1941 persönlich in Berlin übergeben wurde. Zu Beginn der ersten Restaurierungsarbeiten (weitere folgten in den 1970er und 1980er Jahren) war – wie ältere Fotografien belegen – rund um das Castel noch ein Schuttkegel von über zwei Metern Höhe vorhanden. Um die Hauptzugangstreppe freizulegen, wurde dieser Schuttberg damals ohne weitere bautechnische Untersuchung abtransportiert. Dieser Schuttkegel enthielt – wie die damaligen Akten vermerken – viele skulptierte Elemente und zerbrochene Mauerquader. Moderne Vermessungen unter Wulf Schirmer 1990–1996 haben die Basis für eine sachliche Beschäftigung mit dem Bauwerk Castel del Monte geschaffen. Castel del Monte ist seit 1996 UNESCO-Welterbe und seit 2001 auf der Rückseite der italienischen 1-Cent-Münze abgebildet. In dem Film Der Name der Rose ist nach dem Vorbild des Castel del Monte in noch gesteigerter Höhe das geheimnisvolle Ädificium gebaut worden, das die Bibliothek enthält, um die sich die Handlung des Romans von Umberto Eco dreht. Literatur Alexander Knaak: Prolegomena zu einem Corpuswerk der Architektur Friedrichs II. von Hohenstaufen im Königreich Sizilien (1220–1250). Marburg 2001 [Phil. Diss. Tübingen 1998], ISBN 3-89445-278-1 (zu Castel del Monte S. 110–139 mit einem Überblick zum Forschungsstand und Thesen zur Interpretation des Gebäudes). Heinz Götze: Castel del Monte. Gestalt und Symbol der Architektur Friedrichs II. München: Prestel 1984, 1991, ISBN 3-7913-0693-6. Erweiterte englische Ausgabe Castel del Monte. Geometric Marvel of the Middle Ages, Prestel 1998. Hanno Hahn: Hohenstaufenburgen in Süditalien. (Bildtafeln: Albert Renger-Patzsch). C.H. Boehringer, Ingelheim 1961. Ferdinand Gregorovius: Wanderjahre in Italien. Castel del Monte – Schloss der Hohenstaufen in Apulien. Beck, München 1997, ISBN 3-406-42803-7 (Projekt Gutenberg). Rolf Legler: Apulien. DuMont Kunst-Reiseführer. DuMont, Köln 1989, ISBN 3-7701-1986-X. Rolf Legler: Das Geheimnis von Castel del Monte. 10 Jahre Weltkulturerbe. Kunst- und Textwerk-Verlag, München 2008, ISBN 978-3-937000-06-0. Dankwart Leistikow: Castel del Monte im Lichte der Forschung. In: Mamoun Fansa, Karen Ermeto (Hrsg.): Kaiser Friedrich II (1194–1215). Welt und Kultur des Mittelmeerraumes (= Schriftenreihe des Landesmuseums Natur und Mensch. Bd. 55). Philipp Von Zabern, Mainz 2008, ISBN 3-8053-3869-4, S. 142–157. Dankwart Leistikow: Castel del Monte - Urkunden, Beobachtungen, Fragestellungen, Burgen und Schlösser 4/2001, S. 209–220, pdf Wulf Schirmer: Castel del Monte. Forschungsergebnisse der Jahre 1990 bis 1996. Mainz 2000, ISBN 3-8053-2657-2. Birgit Wagner: Die Bauten des Stauferkaisers Friedrichs II. Monumente des Heiligen Römischen Reiches (= Dissertation.de. Bd. 1079). dissertation.de, Berlin 2005, ISBN 3-89825-979-X. Carl A. Willemsen (Hrsg.): Castel del Monte. Das vollendetste Baudenkmal Kaiser Friedrichs des Zweiten (= Insel-Bücherei Bd. 619/1). Insel, Frankfurt am Main, 1955, 2., überarb. Aufl. 1982. Birgit Wagner: Castel del Monte. Ein Monument des Heiligen Römischen Reiches? In: ARX. Bd. 28, Nr. 1, 2006, , S. 3–9. Ekkehart Rotter: Apulien. Byzantinische Grottenkirchen – Normannische Kathedralen – Staufische Kastelle – Lecceser Barock (= DuMont Kunst Reiseführer). 6. Auflage. Dumont Reise Verlag, Ostfildern 2012, ISBN 3-7701-4314-0. Hubert Houben: Hundert Jahre deutsche Kastellforschung in Süditalien. In: Quellen und Forschungen aus italienischen Archiven und Bibliotheken. Bd. 84 (2004), S. 103–136 (Digitalisat). Demetrio Salazaro: Notizie storiche sul palazzo di Federico II. a Castel del Monte, Napoli 1870. Ubaldo Occhinegro, Giuseppe Fallacara: Nuova ipotesi comparata sull'identicà del monumento Castel del Monte – New comparative theory of the identity of the monument Castel del Monte, Politecnico di Bari, Gangemi Editore International Publishing, Bari 2011 (eingeschränkte Vorschau, mit Bildern) Weblinks Offizielle Internetpräsenz (italienisch, englisch) Castel del Monte bei Schätze der Welt Rätsel um die achteckige Mittelalter-Burg Castel del Monte gelöst? bei Terra X Einzelnachweise Welterbestätte in Europa Welterbestätte in Italien Weltkulturerbestätte Monte Friedrich II. (HRR) Oktogon Erbaut im 13. Jahrhundert Andria Monte Zentralbau in Italien Carafa (Adelsgeschlecht)
896
https://de.wikipedia.org/wiki/ISO-Container
ISO-Container
ISO-Container sind genormte Großraumbehälter (Seefracht-Container, engl. freight containers) aus Stahl, die ein einfaches und schnelles Verladen, Befördern, Lagern und Entladen von Gütern ermöglichen. Die einschlägigen Normen (zum Beispiel Maße, Halterungen, Stapelbarkeit) wurden koordiniert von der Internationalen Seeschifffahrts-Organisation (IMO) beschlossen und sind in der ISO-Norm 668 festgelegt. Container für Luftfracht sind nach den Standards der International Civil Aviation Organization (ICAO) genormt und unterliegen anderen Regeln. Wechselaufbauten haben ähnliche Befestigungsecken in den gleichen Längsabständen wie 20-Fuß-ISO-Container, sind jedoch etwas breiter und damit innen europalettengerecht weit. Die am weitesten verbreiteten ISO-Container haben eine Breite von 8 Fuß (2,4384 m), eine Höhe von 8 Fuß 6 Zoll = 8½ Fuß (2,591 Meter) und sind entweder 20 Fuß (6,058 m) oder 40 Fuß (12,192 m) lang. Daraus ergeben sich die als Beladungs-Maßeinheiten verwendeten Abkürzungen „TEU“ (Twenty-foot Equivalent Unit) und „FEU“ (Forty-foot Equivalent Unit); es wird beispielsweise zur Benennung der Ladefähigkeit von Containerschiffen, von Umschlagsmengen in Häfen oder von Güterbahnhöfen verwendet. Allgemeines Container für Seefracht können eine Transportkette über Land und Wasser durchlaufen, ohne dass einzelne Gebinde in Häfen oder Bahnhöfen umgeladen werden müssen. Die Container mit stabilem Rahmen, festen Wänden und wasserdichten Türen können in mehr als fünf Lagen übereinander und in mehr als zwanzig Stapeln dicht nebeneinander gestaut werden. Diese Stapel werden für den Seetransport durch Laschen gezurrt. Im Landverkehr auf der Straße oder im Bahnverkehr sind diese Vorteile der Container gegenüber Sattelaufliegern und Wechselbehältern nicht bedeutsam. Man unterscheidet zwischen FCL-Verladung (Full Container Load), bei welcher der Versender den Container selbst belädt und der Empfänger selbst entlädt, sowie LCL-Verladung (Less than a Container Load), bei welcher der Versender die Ware per Stückgut an den Transporteur sendet, der diese zusammen mit Stückgut-Sendungen anderer Versender in den Container verlädt, im Zielhafen wieder entlädt und per Stückgut an die Empfänger verteilt. „Nach ISO-Minimalanforderungen können sechs voll beladene Container übereinander gestapelt werden. Viele Container sind allerdings auf eine Stapelhöhe von neun und mehr vollen Behältern ausgelegt.“ Je nachdem ob im Laderaum oder an Deck des Containerschiffs gelagert wird, sind weitere Einflüsse wie Wind und Wellenschlag zu beachten, die zu den Schiffsbewegungen (Quer- und Längsbeschleunigung) hinzu kommen. An Deck werden die Container mit Twistlocks und Laschstangen/Spannschrauben gesichert, im Laderaum meistens durch Zellgerüste beziehungsweise Cellguides. Da zwei 20′-Container zusammen 76 mm kürzer sind als ein 40′-Container, die Cellguides aber vielfach für 40′-Container bemessen sind, kommen in solchen Fällen zwischen zwei 20′-Containern Staustücke (Twist Stacker) zum Einsatz, um ein Verrutschen zu verhindern. Bauformen Es gibt verschiedene Spezialversionen der Container, so zum Beispiel Kühlcontainer für verderbliche Fracht, Tankcontainer für flüssige und gasförmige Substanzen, Auto-Container für den Pkw-Transport, Wohncontainer für provisorische Unterkünfte sowie Container für die Beförderung lebender Tiere. Kennzeichen Jeder einzelne Container besitzt eine eigene Nummer. Sie besteht aus vier Großbuchstaben, dem Präfix, der für den Eigentümer des Containers steht, und sechs Ziffern plus einer Kontrollziffer. Diese Nummern sind lediglich in Klarschrift auf den fünf Außenseiten aufgebracht. Maschinenlesbare Codes werden nicht verwendet, so dass zum automatischen Identifizieren Beleuchtungs- und Kamerasysteme verwendet werden müssen. Durch stets wiederholtes Lesen und Weitermelden von Identität und Standort bei jedem Durchgang oder Umschlag können Weg und Transportfortschritt jedes einzelnen Containers auf seiner Reise verfolgt werden. Schiffsgrößen Vollcontainerschiffe werden nach ihrer Transportkapazität in Schiffsgrößen und Wasserstraßen eingeteilt. 2018 hatten die größten Containerschiffe der 2. Generation der Triple-E-Klasse eine Kapazität von rund 20.586 TEU, die der OOCL G-Klasse 21.100 TEU. Die 2019 zuerst gelieferten MSC Megamax-24 Schiffe haben eine Kapazität von rund 23.800 TEU. Geschichte Als Urheber der Maße des ISO-Containers gilt der US-Amerikaner Malcom P. McLean, der 1956 zum ersten Mal Großbehälter für den Transport auf Lkw und Schiffen einsetzte. Um das übliche Umladen im Hafen einsparen zu können, soll er als junger Fuhrunternehmer im Jahr 1937 die Idee gehabt haben, zuerst ganze Lastwagen auf Schiffe zu verladen, später nur die Anhänger beziehungsweise Sattelauflieger mitsamt ihren geladenen Behältnissen und schließlich nur noch die Behältnisse selbst. McLean gründete die Reederei Sea-Land Corporation und ließ alte Öltanker so umbauen, dass an Deck zusätzlich Container geladen werden konnten. Die erste Fahrt führte die so umgebaute Ideal X am 26. April 1956 mit 58 Containern von Newark (New Jersey) nach Houston (Texas). Es dauerte jedoch noch zehn Jahre, bis am 2. Mai 1966 ein Schiff mit Containern, die Fairland, in einem europäischen Hafen (Rotterdam) anlegte; vier Tage später erreichte das Schiff Bremen. Den Durchbruch hatte der Unternehmer McLean schließlich mit der Frachtversorgung des US-Militärs während des Vietnamkriegs, der von 1955 bis 1975 dauerte. Container wurden damals noch ausschließlich nach amerikanischen Normen gebaut. Da deren Maße nicht auf europäische Straßenverhältnisse anwendbar waren, wurden nach langen Verhandlungen die bis heute genutzten ISO-Normcontainer eingeführt. Das erste deutsche Containerschiff, die Bell Vanguard, lief 1966 bei der Hamburger Werft J. J. Sietas vom Stapel. 1981 war die Frankfurt Express der Hapag-Lloyd mit einer Stellplatzkapazität von 3420 TEU das bis dahin größte Containerschiff der Welt. Aufbau Container bestehen zum Großteil aus Stahl (meist dem widerstandsfähigen COR-TEN-Stahl). Die Herstellung eines Standardcontainers erfolgt in mehreren Schritten: Zuerst wird die Superstructure, das Grundgerüst des Containers aus besonders stabilen Stahlteilen, geschweißt. An deren Ecken befinden sich die Stahlguss-Containerecken, im Fachjargon auch corner-castings oder schlicht corners genannt. Anschließend werden am Boden in Längsrichtung Streben eingezogen. Auf diesen Streben wird der Containerboden montiert, der aus mehreren Lagen von mit Schutzmitteln behandeltem Holz besteht. Da der Boden sehr tragfähig und widerstandsfähig sein muss, bestehen die verwendeten Sperrholzplatten meist aus tropischen Harthölzern. Inzwischen wird auch Material aus Bambus für die Containerböden benutzt, deren Pflanzen zehnmal schneller nachwachsen als tropische Hartholzbäume. Auch die Benutzung von Kompositwerkstoffen mit recyceltem Kunststoff wird untersucht (Wood Plastic Composit Floorboards für Maersk Container Industry (MCI)). Die Wände des Containers bestehen aus Trapez-Stahlblech (Corrugation) oder seltener glattem Stahlblech. Zuletzt werden das Containerdach und die Türen montiert. Danach wird der Container mit einer schützenden Lackierung versehen und erhält seine Containernummer. Für die Reederei Hapag-Lloyd wurde 2015 ein neuer Container-Typ mit Stahlboden statt des Holzbodens konstruiert. Durch die spezielle Konstruktion der Sicken im Stahl ist dieser Steel Floor Container bis zu 150 kg leichter als ältere Container. Zur Qualitätskontrolle werden mehrere Container jeder Baureihe stichprobenartig von einer Klassifikationsgesellschaft geprüft. Entsprechen die Container den Anforderungen, erhält die Baureihe die CSC-Zulassung. Die meisten Container werden heute in China produziert. Der Preis für Seecontainer schwankt aufgrund der volatilen Stahlpreise und Dollarkurse. In der Regel bewegte sich der Preis lange Zeit zwischen 1950 und 2300 US-Dollar. Infolge der weltweiten Corona-Pandemie, gestiegenen Stahlpreisen und erhöhter Nachfrage lag der Preis für einen Neucontainer mit Liefertermin Sommer 2021 bei 6200 US-$. Optional können an Containern Zusatzelemente angebracht werden, darunter Gabelstaplertaschen seitlich im Unterboden gesetzte Löcher mit Verstärkungen, bei 20′-Containern können Gabelstapler so einen leeren Container sicher auf ihrer Gabel heben und transportieren Goosenecktunnel zusätzliche Führungen unter dem Container beginnend an der Blindwand, so dass Lkw für Wechselladebehälter den Container sicher halten können. Plombenbohrung die Türverriegelung enthält ein zusätzliches Loch, das insbesondere für das Durchstecken von zugelassenen einmal verwendbaren Zollplomben geeignet ist. Containertypen Standardcontainer Für den Transport von in Faltschachteln oder Kisten beziehungsweise auf Transportpaletten gepackten Gütern mit gewöhnlichen Abmessungen werden Standardcontainer in den Größen 20 ft, 40 ft und 45 ft High-Cube eingesetzt. Auf dem nordamerikanischen Markt werden zunehmend High-Cube-Container (HC) mit 45′, 48′ und sogar 53′ (16,15 m) Länge eingesetzt. Für schwere Güter (zum Beispiel schwere Maschinenteile) stehen 20′-heavy-tested-Container (HT) zur Verfügung, die dasselbe maximale Gesamtgewicht aufweisen wie normale 40′- und 45′-Container, das heißt 30 US-Tonnen (27,21554 ISO-Tonnen [t]). Um ISO-Container (außen ca. 244 cm, innen ca. 235 cm breit) effizient zu füllen wurde das Containermaß für Paletten entwickelt: 1140 × 1140 mm. Neben zwei dieser Paletten verbleibt nur 7 cm Innenbreite als Rangierspielraum. Für den europäischen Markt gibt es Container mit etwas breiterem Innenraum, die es erlauben, zwei Europaletten quer nebeneinander einzustellen; diese werden als Binnencontainer oder Pallet Wide (PW) bezeichnet. Außerdem erlaubt auch der im nordamerikanischen Binnenverkehr sehr gebräuchliche 53′-Container dank seiner Innenbreite von 2,515 m den Transport von zwei Europaletten quer nebeneinander. Bei Einsatz von Lang-LKW des Typs „verlängerter Sattelauflieger“ (auch als „Eurotrailer“ bezeichnet) können auch 48'-Container mit bis zu 36 Euro-Paletten im europäischen Straßennetz bewegt werden, da die zulässige Gesamtlänge von 16,50 m auf 17,88 m steigt. Entsprechende Fahrzeuge dürfen zunächst befristet bis zum 31. Dezember 2023 getestet werden; Spediteure und die DEKRA fordern mit Verweis auf den Klimaschutz jedoch die unbefristete Freigabe. Die in der Tabelle angegebenen Werte für Abmessungen und Gewichte beziehen sich auf Normwerte. In der Praxis können die Daten bedingt durch verschiedene Baureihen geringfügig abweichen. Standardcontainer sind 8 Fuß und 6 Zoll hoch (2,59 m). Weiterhin gibt es für den Großteil der Containerarten auch die Ausführung „High-Cube“ (HC, auch als HQ High-Quantity bezeichnet). Diese Container haben eine Höhe von 9 Fuß und 6 Zoll (2,90 m). Die Abmessungen sind immer so gewählt, dass Container auch mit Lkw, Eisenbahn und Binnenschiff befördert werden können. Tara und Wiegen Das Leergewicht des Standardcontainers liegt bei 2300 Kilogramm (kg) für einen 20-Fuß-Container und 3900 kg für einen 40-Fuß-Container. Die Zuladung beträgt bei 20-Fuß-Containern rund 21,7 Tonnen (t) bei 33 Kubikmeter (m³) Volumen. Ein 40-Fuß-Container fasst 26,5 t bei 67,6 m³ Volumen. Dies sind Standard-Angaben. Jedoch sollte bei der Beladung von Containern beachtet werden, dass in vielen Ländern für den Straßentransport ein Maximalgewicht inklusive Fahrzeug gilt. Ein 40-Fuß-Container, der mit 26,5 t Ladungsgewicht gepackt ist, kann in Deutschland und Österreich beispielsweise auf der Straße befördert werden, weil im kombinierten Verkehr (d. h. Schiene – Straße – Wasserweg) 44 t Gesamtgewicht zulässig sind. Ein Container, sowohl 40-Fuß- als auch 45-Fuß-HC, darf ein Bruttogewicht von 30.480 kg haben. Für den Transport von ISO-Containern mit Seeschiffen gilt seit Sommer 2016 eine Verpflichtung, das Gewicht der einzelnen Container vor oder bei der Verladung festzustellen (durch Wiegen) und festzuhalten (als Bestandteil der Schiffspapiere). Hintergrund ist das Internationale Übereinkommen zur Sicherheit auf See (SOLAS). Bei der Lagerung im Freien können üblicherweise bis zu sechs Container übereinandergestapelt werden. Sondergrößen Auch im ISO-System gibt es eine Vielzahl an Sondermaßen: Es gibt weitere Höhenabmessungen der Container. Üblich sind Höhen, die beim Straßentransport ohne Beschränkungen gefahren werden können. Es gibt weitere Längenmaße, die eine bessere Raumausnutzung im Land-, aber nicht im Seetransport unterstützen. Insbesondere auf dem amerikanischen Markt werden immer mehr 45 Fuß (13,72 m) lange Container eingeführt. Diese bieten mehr Laderaum, was besonders bei voluminösen Transportgütern vorteilhaft ist. 45-Fuß-Container können auch regulär auf Lkw-Containerchassis befördert werden, sie halten dabei die in Europa maximal erlaubte Gesamtlänge des Lkw-Sattelzuges ein. Der 45-Fuß-Container ist eine direkte Konkurrenz zu den in Europa üblichen Sattelaufliegern. So sollen 45-Fuß-Container aus Sicht der Reedereien konventionelle Sattelauflieger ersetzen. Längere Container erhöhen noch nicht die Packungsdichte mit Euro-Paletten (von 120 cm × 80 cm). Diese können darin nur mit einer Querreihe und einer Längsreihe nebeneinander gestaut werden, nützen also von rund 235 cm Innenbreite nur 200 cm oder 85 % aus. Das ist, zusammen mit seiner hohen Tara-Masse, ein gewichtiger Nachteil des Containers gegenüber dem Transport als Paletten direkt im Sattelauflieger oder Hängerzug. Breite: Einige Reedereien haben daher die vorwiegend im europäischen Raum eingesetzten breiteren (palettenbreite, englisch: Pallet Wide, PW) Binnencontainer eingeführt, die bei etwas vergrößerter Außenbreite von 248–250 cm noch in das ISO-Verlade-Raster passen und doch bei 244 cm Innenbreite gerade drei Paletten nebeneinander längs oder zwei Paletten quer (zusammen je 240 cm) mit etwas Luft aufnehmen. In einen Container 45′ PW mit 13,556 m Innenlänge passen 33 Paletten (30 quer, und die letzten 3 längs) genau wie in einen klassischen Sattelauflieger fast identischer Innenmaße. Nur wenige besonders ausgestaltete Container und Ladeplattformen bieten allerdings eine Ablademöglichkeit zur Seite oder nach oben. Auch in Australien werden Container eingesetzt, welche optimal auf den Transport von Ware auf Europoolpaletten abgestimmt sind; Beispiel ist hier der Einsatz von 48'-Containern, die bei Außenmaßen von 14.630 mm × 2.500 mm × 2.896 mm und Innenmaßen von 14.470 mm × 2.422 mm × 2.698 mm (jeweils L×B×H) bis zu 36 Europoolpaletten fassen können. Für den doppelstöckigen Bahntransport wurden in China und Indien höhenreduzierte und dabei eventuell etwas verbreiterte Container entwickelt. In Indien gibt es den Begriff Dwarf Container (Zwerg). Kühlcontainer (Reefer) Kühlcontainer (engl. reefer container) werden in zwei Kategorien eingeteilt: Container, die mit Kaltluft aus der schiffsfesten Ladungskühlanlage gekühlt werden (Conair-Container, Porthole-Container), und Container mit integrierter Kälteanlage (Integralcontainer, Integral-Reefer). Conair-Container sind doppelwandige, mit einer Wärmedämmung versehene Container, die auf einer Stirnseite zwei übereinanderliegende kreisrunde Öffnungen (Portholes) besitzen, die von Federverschlüssen geschützt werden. Diese Öffnungen dienen der Zu- und Abfuhr von Frischluft. Wird der Conair-Container in ein mit Conair-Kühlanlage ausgerüstetes Schiff geladen, öffnen sich die Verschlüsse, und Kühlluft, die von der zentralen Kühlanlage erzeugt wird, kann im Container zirkulieren. Diese Container wurden inzwischen von Integralcontainern abgelöst, da sie aufgrund der fehlenden Eigenständigkeit nur schwer im Inland und auf nicht präparierten Schiffen genutzt werden konnten (Clip-On-Unit notwendig, siehe unten). Integralcontainer verfügen über eine eigene Kühleinheit, die in der der Tür gegenüberliegenden Stirnwand eingebaut ist und mit elektrischem Strom betrieben wird. Jeder Container kann separat auf eine Kühl- oder Heiztemperatur eingestellt werden, die von der eingebauten Elektronik laufend überwacht und aufgezeichnet wird. Beim Inlandstransport benötigt der Container keine Clip-On-Unit (siehe unten), sondern kann mittels eines am Lkw-Chassis montierten Gensets (Generator) mit Strom versorgt werden. Die Gesamtzahl aller Kühlcontainer betrug Ende 2012 rund 2,2 Mio. TEU. Um das zusätzliche Gewicht der Kühlanlage zu kompensieren, werden bei Integral-Reefern häufig Wände aus Aluminium verbaut. Bei den Kühlcontainern unterscheidet sich bedingt durch die Isolation des Weiteren die Innenbreite/-länge/-höhe von der eines normalen ISO-Containers. Tankcontainer Bei Tankcontainern (englisch: tanktainer) handelt es sich um einen Tank für flüssige oder gasförmige Stoffe, der in einen Rahmen eingebettet ist, der der Superstructure einer TEU oder FEU entspricht. Je nach Transportgut können Kühl-, Heiz- oder Rühraggregate eingebaut sein. Insbesondere bei Stoffen mit hoher Dichte muss das Gesamtgewicht für die Ladeposition im Schiff beziehungsweise das Transportmittel berücksichtigt werden. Tankcontainer erhöhen massiv die Umschlagsgeschwindigkeit gegenüber Tankwagen. Weitere Containerarten Air/Surface container Collapsible Iso-Container zerlegbare Seecontainer, OpenSeaContainer Conair container Isoliercontainer ohne eigenes Kühlaggregat, der jedoch durch Zuführung gekühlter Luft durch eine stationäre (z. B. zentrale Schiffskühlanlage) oder mobile (Clip-On Unit) Kühlanlage genau temperiert werden kann. (Werden auch als porthole units bezeichnet, im Gegensatz dazu: Kühlcontainer mit eigenem Kühlaggregat: integrated units) Double doors Container mit Türen an beiden Enden Dry bulk container Schüttgutcontainer, die in der Decke eine Beladeöffnung und im unteren Bereich der Tür eine Schüttöffnung zum Entladen besitzen (englisch dry bulk Schüttgut) Flatracks container Container, die keine Seiten und Decke besitzen, jedoch Stirnseiten Folding (collapsible) containers Container mit klappbaren Seiten Fullside access containers Container mit vollkommen zu öffnender Seite General purpose container with ventilation aktiv belüftete Vielzweckcontainer General purpose container without ventilation unbelüftete Vielzweckcontainer Insulated container Isoliercontainer Named cargo container Viehtransport, Automobile etc. Offshore/Office container Container mit speziellem Innenausbau, oft explosionsgeschützt mit Mess- oder Labortechnik oder Büroausstattung Openside container Container mit einer Seitentür Open-top container Container mit einer Plane anstatt eines soliden Daches Pallet wide container verbreiteter Dry Container, um eine optimale Auslastung mit Europaletten zu erreichen Platform (container) Platform-based containers Container mit superstructure Thermal container (refrigerated, refrigerated and/or heated) temperierte Container Auf der Grundlage der ISO-Container haben sich weitere Containertypen entwickelt. Die wichtigsten sind: Lagercontainer leichtere Bauweise, in folgenden Hauptgrößen erhältlich: 6′, 8′, 10′, 15′, 20′ Containergebäude (auch Bürocontainer) haben an Gemeinsamkeit mit ISO-Containern nur die Abmessungen (meist 20′) sowie die Arretierungen an den vier Ecken der Bodenplatte, meist auch die Arretierungen auf dem Dach. Es handelt sich um voll isolierte Container, die bereits fertig installiert sind und ursprünglich nur auf Baustellen als Baustellencontainer zum Einsatz kamen. Mittlerweile werden diese von Büros bis hin zu Kindergärten eingesetzt. Die Belastbarkeit (Stapellast) liegt jedoch weit unterhalb derjenigen von ISO-Containern; es können keine oder nur wenige ebenfalls leichte Bürocontainer übereinander gestapelt werden. Dank der Standardmaße können sie leicht mit einem zum Containertransport geeigneten Lkw zur Baustelle gebracht werden, wo ein Baustellenkran sie von der Ladefläche hebt und auf ihren Platz stellt. Neuere Projekte nutzen die stärkere Belastbarkeit von tatsächlichen gebrauchten oder neuen ISO-Containern für den Bau von größeren Gebäuden (bis zu neun Etagen) sowie für Gebäude mit längerer Lebensdauer (Hotels, Studentenwohnheime). Dabei tritt der temporäre Charakter zurück gegenüber den Vorteilen des schnellen und kostengünstigen Aufbaus der Gebäude. Eingesetzt werden voll isolierte und eingerichtete 20′- und 40′-Container. Zerlegbare Seecontainer Die unausgeglichenen Handelsströme zwischen Osten und Westen machen es erforderlich, leere Container zu repositionieren, also an einen Ort zu bringen, an dem diese wieder Ladung aufnehmen können. Weltweit werden ca. 30 % aller Seecontainer ohne Ladung umgeschlagen. Leere Container verursachen hohe Kosten für den Transport, Lagerung und Verladung. Der Containerverkehr wächst weltweit um ca. 7 % pro Jahr. Damit steigen der Leertransport- und Lagerflächenbedarf erheblich, was zu nicht unerheblichen Kosten führt. Ein Ansatz, um das Leercontainer-Problem zu verringern, ist, die Container zusammenzuklappen. So können mehrere leere Container auf einem Stellplatz (= Slot) transportiert und gelagert werden. In der Vergangenheit hat es eine Reihe von Versuchen gegeben, die Logistikkette mit klappbaren Seecontainern zu verbessern. Diese Systeme sind jedoch alle gescheitert. Gründe hierfür: die Container verloren die Zulassung während des Betriebs die Container waren mechanisch anfällig es besteht Unfallrisiko beim Aufbau bzw. beim Zerlegen hohe Kosten entstehen bei der Montage und Demontage Klappcontainer-Projekte: Fallpac Foltainer OpenSeaContainer SIO „Six-In-One“ „6-in-1“ Das OpenSeaContainer-Projekt greift den Ansatz des Unternehmens Leanbox auf, die einen Container entwickelt hat, den man mit der Hilfe einer speziellen Maschine zerlegen und remontieren kann. Die Rechte an diesem See-Container sind an die Peer Engineering Plattform PeerToProduct.com übergegangen. PeerToProduct hat die Konstruktionsdaten und Testresultate unter einer speziellen GNU General Public License für physische Produkte veröffentlicht. Weitere Container Sanitärcontainer – ausgestattet mit Duschen, Toiletten, Urinalen, Handwaschbecken oder Ähnlichem. Diese sind nur noch mit Wasserzulauf und Abwasserablauf sowie mit Strom zu versorgen und dann sofort einsatzbereit. Containerkläranlagen – ausgestattet mit der gesamten Technik einer Kleinkläranlage, wird bei Festivals, Volksfesten in unerschlossenen Gebieten und ähnlichen Gegebenheiten eingesetzt, bei denen keine Möglichkeit besteht, Fäkalien in die Abwasserkanäle einzuspeisen. Hier können beispielsweise Sanitärcontainer angeschlossen werden. Das Endprodukt der Containerkläranlage sind gereinigte Abwässer, die in die Umwelt entlassen werden können. Notstromaggregate – ausgestattet mit einem Aggregat zu Stromerzeugung und einem integrierten Tank für den benötigten Dieselkraftstoff. Serverfarm – ausgestattet mit einer kompletten IT-Infrastruktur aus Standardkomponenten um im Fall des Totalverlustes eines IT-Standortes schnell einen operablen Ersatz für verlorene Hardware im Rahmen eines Disaster Recovery herzustellen. Militär, Feuerwehren und der Katastrophenschutz verwenden ebenfalls Containersysteme im ISO-Format um Module für einen bestimmten Zweck an einen bestimmten Einsatzort zu versetzen und das Ladefahrzeug anderweitig verwenden zu können, in der Regel zum Transport weiterer Module: Feuerwehren und der Katastrophenschutz verwenden Container mit jeweils speziellem Material zur Abwehr und Bekämpfung spezifischer Gefahren. Beim Militär werden Container als absetzbare, komplett eingerichtete Basis für die Telekommunikation (Funk) eingesetzt. Ferner findet bei der Bundeswehr der ISO-Container Einsatz als mobiles Postamt (Feldpost) oder aus mehreren Sanitätscontainern in Kombination mit Zelten als Feldlazarett. Bei großen Telekommunikationsanbietern (z. B. der Deutschen Telekom) werden ISO-Container im Rahmen des Disaster Recovery z. B. bei Überschwemmungen und anderen Großlagen eingesetzt. Hier können ganze Vermittlungsstellen auf Basis des ISO-Containers aufgebaut werden. Kennzeichnung Die großen, offen sichtbaren und visuell/optisch lesbaren Kennzeichen gemäß ISO 6346 für Container in Bauformen gemäß ISO 668 dienen der Transportabwicklung. Diese Kennzeichen dienen allenfalls mittelbar der Transportsicherheit oder dem Schutz der Ladung oder des Transportfahrzeugs. Die Container tragen verschiedene Kennzeichen als Herstellerkennzeichnung Eigentumsbezeichnung oder Besitzerbezeichnung (Zuordnung zu einem Behälterpool) Klassifizierung für den Gebrauch eindeutige Identifizierung unter Registrierung des BIC Gefahrgutkennzeichnung gemäß UN-Regeln Referenzinformation zur Steuerung der Transportvorgänge Referenzinformation für die Ladungspapiere Kontrollinformation für die Transportsicherheit Für alle Zwecke wird bisher ein Kennzeichen des Herstellers auf dem Typenschild und eine Klarschriftkennzeichnung auf fünf der Oberflächen (Unterseite ohne Kennzeichen) verwendet. Optisch besser lesbare Codes und/oder elektronisch lesbare Kennzeichen wurden bisher nicht standardisiert. Die Kennzeichnung von Containern in Klarschrift ist nach ISO 6346 international einheitlich genormt. Diese Norm beschreibt lediglich optisch lesbare Kennzeichen in Klarschrift. Gemäß ISO 15459-2 ist die herausgebende Stelle (issuing agency) für diese Kennzeichen das Internationale Containerbüro Bureau International des Containers et du Transport Intermodal (BIC) mit Sitz in Paris. Jeder Container erhält dort bei der Registrierung seine weltweit eindeutige Containernummer, die an beiden Stirnfronten deutlich sichtbar angebracht wird. Sie besteht aus vier Standardbuchstaben (jeweils A–Z, an vierter Stelle bisher jedoch nur bis U), sechs Ziffern sowie einer aus allen 10 Zeichen und Stellen errechneten Prüfziffer, die eine fehlerhafte Erfassung durch Zahlendreher nahezu ausschließt. Eine Online-Überprüfung ist in einer Eingabemaske auf der Website der BIC möglich. Die Berechnung der Prüfziffer wird in der Norm EN 13044-1 Anlage A beschrieben. Die Containernummer des ganz oben abgebildeten 40-Fuß-Containers ist an der dritten Stelle ungenau lesbar und bietet daher ein gutes Beispiel: weder ein Q noch ein G führen hier zum Ziel (Prüfziffer jeweils 3), erst die korrekte Eingabe „LSCU 107737“ gibt die 9 zurück. Das Beispiel zeigt jedoch auch, dass Nummern mit den ähnlichen Buchstaben G und Q verwechselt werden können (oder auch andere Buchstaben mit 10 Positionen Abstand im Alphabet, wie zum Beispiel H und R). Die Standardisierung der Container und ihrer Kennzeichen wird in der ISO-Kommission JTC1, einer gemeinsamen Kommission der TC104 und TC122, betrieben, die von Reedereien und Verladern dominiert wird. Weitere, aber nur in einzelnen Relationen verbreitete Kennzeichen nach dem Stand der Technik sind solche mit RTLS-Tags nach ISO/IEC 18000 und mit optischen Codes, auch mit Data Matrix Codes nach ISO/IEC 16022. Die Standardisierung dieser Kennzeichen entwickelt sich allmählich weiter. Im Zuge der Verbreitung der pallet-wide-Container in Europa wurde die Intermodal Loading Unit (ILU) Initiative der EU gestartet. Diese zeigte Vorteile, wenn der Transport per Container und Wechselbehälter vereinheitlicht wird. Dies führte zur Einführung des ILU-Codes per Standard EN 13044, der das gleiche Format wie der bei ISO-Containern verwendete BIC-Code hat – das Internationale Containerbüro BIC verpflichtete sich, für ISO-Container nur Eigentümercodes zu vergeben, die an vierter Stelle ein U, J oder Z haben. Die neugeschaffene Vergabestelle der UIRR (Internationale Vereinigung der Gesellschaften für den Kombinierten Verkehr Schiene-Straße) wird für Wechselbehälter nur Eigentümercodes vergeben, die an vierter Stelle ein A, B, C, D oder K enthalten – Inhaber eines BIC-U können die Ausgabe eines ILU-K mit gleicher voranstehender Ziffernfolge beantragen. Seit Juli 2011 begann die Vergabe der ILU-Codes, seit Juli 2014 werden im intermodalen Verkehr nur noch Wechselbehälter mit ILU-Code akzeptiert und ab Juli 2019 müssen alle Behälter ein standardkonformes Schild tragen. Transportsicherheit und Schutz Die Transportsicherheit der Container wird im Grundsatz nach denselben Kriterien organisiert wie vor deren Einführung (ca. seit 1968) bereits im europäischen und US-amerikanischen Eisenbahnverkehr üblich. Neu eingeführt und ebenfalls international einheitlich genormt sind gegenüber anderen Transportformen die genormten Eckbeschläge für die Handhabung. Neu gegenüber den seinerzeit üblichen Standards im Eisenbahnverkehr (um 1968) haben die Container Verschluss als Schutz gegen Seewasser und gegen Schlagregen (nicht druckfest) Verriegelung gegen zufälliges Öffnen beim Transport Versiegelung im Interesse des Zolls und des Frachtführers Anders als im europäischen Eisenbahnverkehr für Güterwagen üblich tragen die Container keine Information über Herkunftsort und Zielort des Transports keine Information über den Inhalt am Behälter (eine Ausnahme stellt Gefahrgut dar; in diesem Fall muss eine Kennzeichnung über die Art des Gefahrgutes außen am Container angebracht werden, ab 4000 Kilogramm außerdem die UN-Nummer) Weitere technisch aufwändige Sicherheitseinrichtungen sind in einzelnen Fällen in Gebrauch, wie: Detektions- und Signaleinrichtung für Öffnungsalarme Mess- und Signaleinrichtung für Standortmeldungen Mess- und Signaleinrichtung für Transportbedingungen (Kühltemperatur, Feuchte, Schock) Verschlusszustand und Sicherheitsinformation Der Container wird durch den Versender gepackt. Dieser trägt auch die Gewähr für die ordnungsgemäße Deklaration des Inhalts (nur in den Begleitpapieren) und dessen sichere Befestigung (zur Vermeidung von Schwerpunktsänderungen). In der weiteren Handhabung durch den Frachtführer (Spediteur, Reeder) und durch den Verladebetrieb gibt es weltweit keinerlei Gebrauch von Einrichtungen, die feststellen können: wer den Container gepackt hat, wer den Container geöffnet hat, wer den Container transportiert hat. Daher werden alle erweiterten Maßnahmen zur Containersicherheit allein auf die Unversehrtheit des Verschlusszustandes abgestellt. Ein erkennbar geöffneter Container bleibt daher so lange stehen, bis die Unbedenklichkeit des Verschlusszustandes erneut geprüft und bescheinigt wurde. Die Transportsicherheit wird jeweils vorlaufend zum physischen Transport dokumentiert und wiederholt durch zertifizierte Transportunternehmen geprüft. Spätestens 24 Stunden vor dem Verladen wird eine verlässliche Sicherheitsinformation durch den Zoll festgestellt oder der Container bleibt stehen, bis diese Information mit demselben Zeitabstand zur Verladung verfügbar ist. Einzelheiten zum Kontrollverfahren werden fortlaufend den Risikoanalysen der Sicherheitsbehörden und des Zolls angepasst. Für Luftfrachtcontainer gibt es keinen vergleichbaren Verschlusszustand. ISO-Container und Arbeitsschutz Öffnen und Entladen von ISO-Containern für Kontrollzwecke oder zum Warenumschlag bergen vielfältige Gefährdungen und Gesundheitsrisiken. Davon betroffen sind etwa Beschäftigte im Hafen, die Frachtcontainer für Kontrollzwecke oder zum Umladen der Ware öffnen. Aus Studien ergibt sich, dass etwa jeder fünfte Import-Frachtcontainer gesundheitsgefährdende Schadstoffkonzentrationen aufweist. Die durch Begasungsmittelrückstände, Industriechemikalien oder Schimmel belastete Containerluft kann beim Einatmen zu einer Gesundheitsgefährdung der Beschäftigten führen. Darüber hinaus bestehen auch mechanische Unfallgefahren, zum Beispiel durch herabfallendes oder umstürzendes Ladegut. Für begaste Frachtcontainer gibt es Kennzeichnungsvorschriften mit Warnhinweisen. Häufig fehlen diese Kennzeichnungen jedoch oder weisen Mängel auf, sodass unerwartete gefährliche Situationen entstehen können. Als „begast“ geltende Container dürfen nach der Gefahrstoffverordnung nur durch sach- oder fachkundige Personen geöffnet werden. Entsprechende Regelungen fehlen jedoch für Industriechemikalien und biologische Agenzien. Im Rahmen der Gefährdungsbeurteilung müssen alle möglichen Gefährdungen und Belastungen beim Umgang mit ISO-Containern und geeignete Schutzmaßnahmen vorab abgeklärt werden. Aufgrund der geringen Umwelt-Stabilität von Coronaviren erscheint eine Übertragung des Erregers beim Umgang mit Containern in den meisten Fällen unwahrscheinlich. ISO-Container als Geldanlage Investments in ISO-Container galten für lange Zeit als lukrativ, zeigten sich aber Mitte der 2010er Jahre nach Insolvenzen der Hamburger Magellan-Gruppe sowie Subunternehmen der P&R-Gruppe tendenziell als Fehlinvestition. Ab 2019 waren nach COVID-19-Pandemie und tagelanger Blockade des Suezkanals aufgrund einer Schiffshavarie ISO-Container sehr knapp. Siehe auch Behältertransport Containerbegasung – Behandlung mit gasförmigen Insektenschutzmitteln Kühlcontainerüberwachung Literatur Marc Levinson: The Box. How the Shipping Container Made the World Smaller and the World Economy Bigger. Princeton University Press, Princeton 2006, ISBN 0-691-12324-1. Hans Jürgen Witthöft: Container. Die Mega-Carrier kommen. Koehler, Hamburg 2004, ISBN 3-7822-0882-X (zur Geschichte und Entwicklung der Containerschifffahrt) (1. Auflage unter dem Titel Container. Eine Kiste macht Revolution.) Heinrich Hecht, Thomas Pawlik: Containerseeschifffahrt. Verlag Heel, Königswinter 2007, ISBN 978-3-89880-873-6. Olaf Preuß: Eine Kiste erobert die Welt. Der Siegeszug einer einfachen Erfindung. Murmann-Verlag, Hamburg 2007, ISBN 978-3-86774-031-9 (die Bedeutung des Schiffscontainers für die moderne Globalisierung) Alexander Klose: Das Container-Prinzip. Wie eine Box unser Denken verändert. Verlag Mare, Hamburg 2009, ISBN 978-3-86648-115-2. Jakob Boerner: Boxen ohne Beulen. In: Deutsche Seeschifffahrt, Heft 5/2013, S. 36–41, Verband Deutscher Reeder e.V., Hamburg 2013. Johannes March: Halbhohe Boxen für effiziente Leercontainerlogistik. In: Hansa, Heft 7/2019, S. 34/35, Schiffahrts-Verlag »Hansa«, Hamburg 2019 Weblinks Umfangreiche Informations-Website des Gesamtverbands der Deutschen Versicherungswirtschaft e.V. (GDV) 3sat: Die Container-Story – Im April 2006 feiert eine revolutionäre Box ihren 50. Geburtstag Transport-Informations-Service: Informationen rund um den Container Friederike Nagel (2006): Legosteine der Weltwirtschaft, stern.de Alternative zum Silofahrzeug Kurzfilm zur Herstellung eines Containers Container-Revolution – Welterfolg mit der Wunderkiste auf einestages.spiegel.de Kühlladung und Container (228) – Website des Hochhaus-Schiffsbetriebs Einzelnachweise Container Containerverkehr Förderhilfsmittel
898
https://de.wikipedia.org/wiki/Carotine
Carotine
Carotine (Plural zu Carotin, von lateinisch carota „Karotte“) sind zu den Terpenen zählende ungesättigte Kohlenwasserstoffe mit der Summenformel C40Hx, die als rotgelbe Naturfarbstoffe in vielen Pflanzen vorkommen, besonders in deren farbigen Früchten, Wurzeln und Blättern. Die Carotine gehören zu den sekundären Pflanzenstoffen; sie werden von Pflanzen aufgebaut – Tiere können dies im Allgemeinen nicht – und stellen Pigmente dar, die teils als akzessorisches Pigment bei der Photosynthese mitwirken, indem Doppelbindungen ihrer Kohlenstoffkette Licht bestimmter Wellenlängen absorbieren. Chemisch handelt es sich um Tetraterpene, deren Enden als Jonon-Ringe vorliegen können. Carotine sind unpolar, daher lipophil und kaum wasserlöslich. Sie enthalten neben Kohlenstoff- nur Wasserstoffatome und treten in zahlreichen Varianten auf. Die Xanthophylle enthalten dagegen außerdem Sauerstoff; Carotine und Xanthophylle bilden die beiden Hauptgruppen der Carotinoide. Das bekannteste Carotin ist das β-Carotin (beta-Carotin). Es ist die wichtigste Vorstufe von Vitamin A und wird deswegen auch als Provitamin A bezeichnet. Neben β-Carotin können auch α- (alpha-) und γ-Carotin (gamma-Carotin) sowie β-Cryptoxanthin in Vitamin A umgewandelt werden. Die verschiedenen Vorstufen haben jedoch auch von Vitamin A unabhängige Wirkungen. In Pflanzen haben Carotine eine Funktion bei der Photosynthese und schützen vor den schädlichen Auswirkungen der UV-Strahlen. In den Wurzeln von Pflanzen gebildet, übernehmen sie dort den Schutz vor Infektionen. Der Mensch nimmt mit seiner Nahrung in größeren Mengen α- und β-Carotin, α- und β-Cryptoxanthin sowie Lycopin auf. Die Funktionen und Wirkungen der Carotine im menschlichen Körper werden mehr und mehr bekannt, sind aber teils umstritten. So lassen etwa neuere Studien Zweifel an der krebshemmenden Wirkung aufkommen. Eine generell zellschützende Wirkung als Antioxidantien kann ihnen jedoch zugeschrieben werden. Natürliches Vorkommen α-Carotin (Alpha-Carotin) ist mit β-Carotin der Farbstoff der Karotte und mit Lycopin das Rot der Tomate. Auch die gelben bis roten Farbstoffe in Spinat, Salat, Orangen, Bohnen, Broccoli und Paprika sind Carotine. β-Carotin (Beta-Carotin, INN: Betacaroten) ist die wichtigste Vorstufe von Retinol (Vitamin A) und wird deshalb auch als Provitamin A bezeichnet. Die besten Quellen von Beta-Carotin sind Grünkohl, tiefgelbe bis orange Früchte und Gemüse, aber auch dunkelgrüne Gemüsesorten. Grünkohl hat mit 8,68 mg β-Carotin/100 g den höchsten Gehalt an Beta-Carotin von allen Lebensmitteln. Beispiele: gelbe bis orange Gemüse: Karotten, Süßkartoffeln, Kürbisse gelbe bis orange Früchte: Kakis, Aprikosen, Papayas, Mangos, Nektarinen, Pfirsiche, Birnen, Sanddorn dunkelgrünes Gemüse: Grünkohl, Spinat, Broccoli, Endivien, Chicorée, Kresse, Rucola, Blätter von Roter Beete oder Löwenzahn, hoher Gehalt in Blättern von Wiesen-Sauerampfer (0,15 %) und Portulak (0,45 %). auch mögliche Quellen von β-Carotin sind: Tomaten, Spargel, Erbsen, Kohl, Mais, Sauerkirschen, Pflaumen Nomenklatur Die IUPAC empfiehlt abweichend eine Nomenklatur der Carotine entsprechend deren Endgruppen, wobei β oder ε für Jononringe enthaltende und ψ für offenkettige Endstrukturen stehen. Somit heißt α-Carotin auch β,ε-Carotin, β-Carotin auch β,β-Carotin, γ-Carotin auch β,ψ-Carotin, δ-Carotin auch ε,ψ-Carotin und Lycopin nach IUPAC-konformer Nomenklatur auch ψ,ψ-Carotin. Die vorgenannten Verbindungen haben alle die gleiche Summenformel C40H56, ebenso wie ε-Carotin (epsilon-Carotin, ε,ε-Carotin), anders als beispielsweise ζ-Carotin (zeta-Carotin, Tetrahydro-ψ,ψ-carotin; C40H60), eine aus Phytoen (Octahydro-ψ,ψ-carotin; C40H64) gebildete Vorstufe von Neurosporin (Dihydro-ψ,ψ-carotin; C40H58) wie darüber von Lycopin bei der Biosynthese von Carotinoiden in Pflanzen und in einigen Schlauchpilzen, beispielsweise Neurospora crassa. Analytik Zur zuverlässigen qualitativen und quantitativen Bestimmung der Carotine in humanen Blut-/Plasmaproben eignet sich nach angemessener Probenvorbereitung die Kopplung der HPLC mit der Massenspektrometrie. Die analytische Technik eignet sich ebenfalls nach spezifischer Probenvorbereitung zur Bestimmung der Carotine in pflanzlichem Material. Auch zur Analytik von Ölen ist die Methodik einsetzbar. Verwendung als Lebensmittelfarbstoff Aus Pflanzen extrahiertes oder synthetisch hergestelltes Beta-Carotin wird als Lebensmittelfarbstoff (, siehe Lebensmittelzusatzstoff) sowie als Beigabe zu Vitaminpräparaten verwendet. Beta-Carotin wird vielen Lebensmitteln wie zum Beispiel Butter, Margarinen, Süßwaren, Molkereiprodukten und Limonaden in teilweise sehr hohen Mengen zugesetzt, um dem Verbraucher das von ihm erwartete Bild der Ware (Farbe) zu bieten. Ansonsten wären beispielsweise Margarinen mehr oder weniger weiß bis hellgrau. Die meisten Fette sind im reinen Zustand weiß – die üblicherweise mit Fetten assoziierten Farben kommen von entsprechenden Spurenstoffen. Der gelbliche Ton von menschlichem Körperfett (z. B. Talg) und Butter basiert auf natürlicherweise enthaltenem Carotin und kann je nach Ernährung variieren. Resorption im menschlichen Darm Die Aufnahme von β-Carotin ist schlechter als von Vitamin A. Es muss etwa sechsmal so viel β-Carotin aufgenommen werden, um dem Körper die gleiche Menge Vitamin A zur Verfügung zu stellen. Die beiden Stoffe sind frei kombinierbar. Die Deutsche Gesellschaft für Ernährung (DGE) empfiehlt für gesunde Erwachsene eine tägliche Zufuhr von 0,8 bis 1,1 mg Vitamin A. Gesundheitliche Aspekte Anders als bei Vitamin A kann es beim Menschen nach übermäßiger Zufuhr von Carotinen mit Provitamin-A-Aktivität nicht zu einer Hypervitaminose kommen. Dies liegt an der geringeren Resorptionsrate für Carotine (20–35 % für β-Carotin) sowie an der begrenzten Kapazität zur Umwandlung in Vitamin A. Die enzymatisch gesteuerte Konversion zu Vitamin A hängt von der Höhe der β-Carotin- und Proteinzufuhr, der Vitamin-E-Versorgung und der gleichzeitigen Fettzufuhr ab. Auch der Vitamin-A-Status spielt eine große Rolle: Je besser die Vitamin-A-Versorgung, desto geringer die Enzymaktivität. Der Mensch transportiert einen Großteil aufgenommener Carotinoide in unveränderter Form, während die Ratte Carotinoide nahezu vollständig konvertiert. Carotinoide finden sich in verschiedenen Organen des Menschen. Die höchsten Konzentrationen lassen sich in der Leber, der Nebenniere, den Hoden und dem Gelbkörper feststellen. Niere, Lunge, Muskeln, Herz, Gehirn oder Haut weisen dagegen geringere Carotinoidspiegel auf. Ein Überschuss an Carotinoiden als Folge der langandauernden, übermäßigen Zufuhr macht sich beim Menschen optisch als Gelbfärbung der Haut bemerkbar („Carotinodermie“, „Karottenikterus“, Carotinämie). Betroffen sind zunächst der Bereich der Nasolabialfalten, die Palmarseite der Hände und die Fußsohlen. Die Gelbfärbung geht zurück, wenn die Überversorgung eingestellt wird. Teratogene Effekte des β-Carotin sind nicht bekannt. Sogar hohe supplementierte Tagesdosen (20–30 mg) oder eine überaus carotinreiche Ernährung über lange Zeiträume sind nicht mit einer Toxizität verbunden. Allerdings steht die mehrjährige Supplementierung von β-Carotin im Verdacht, bei Rauchern und Trinkern das Inzidenzrisiko für Lungenkrebs und Darmkrebs zu erhöhen. So wurde in einer australischen Studie im Journal of the National Cancer Institute vom 21. Mai 2003, die den Effekt als Sonnenschutzmittel untersuchen wollte, bei Rauchern und Personen, die regelmäßig mehr als ein alkoholisches Getränk pro Tag zu sich nahmen, eine doppelte Anzahl von Adenomen des Dickdarms – den Vorstufen von Darmkrebs – gefunden. Bei Nichtrauchern und Nichttrinkern reduzierte sich stattdessen deren Auftreten um 44 %. Die American Cancer Society verlangt Warnschilder auf β-Carotin-haltigen Waren, um Raucher auf ein möglicherweise gesteigertes Lungenkrebsrisiko hinzuweisen. Nach Anordnung des Bundesinstituts für Arzneimittel müssen seit Mai 2006 alle Arzneimittel, die zwischen 2 mg und 20 mg β-Carotin enthalten, mit dem Warnhinweis versehen werden, dass „starke Raucher“ („20 oder mehr Zigaretten“ täglich) diese Arzneimittel nicht über einen längeren Zeitraum einnehmen sollten. Arzneimittel mit mehr als 20 mg β-Carotin müssen nach dieser Anordnung unter „Gegenanzeigen“ erwähnen, dass das Arzneimittel von starken Rauchern nicht eingenommen werden darf. Auf das in klinischen Studien festgestellte, erhöhte Risiko für das Auftreten von Lungenkrebserkrankungen bei Rauchern muss jeweils zusätzlich hingewiesen werden. Für Arzneimitteln, die β-Carotin nur als Hilfsstoff enthalten und bei deren Anwendung mehr als 2 mg β-Carotin pro Tag eingenommen werden, wurde die Zulassung zum 1. Juli 2006 widerrufen. Durch die Studien kann keine Aussage darüber getroffen werden, ob durch den Konsum von naturbelassenen Lebensmitteln mit natürlichem Carotingehalt eine Gefahr bestehen könnte; allerdings ist der Anteil von β-Carotin in naturbelassenen Lebensmitteln und Säften oftmals merklich geringer als in künstlich damit angereicherten. Im Rahmen der sogenannten CARET-Studie wurde in den 1990er Jahren der Effekt einer Supplementierung von täglich 30 mg β-Carotin in Kombination mit 25.000 I.E. Retinylpalmitat auf das Inzidenzrisiko für verschiedene Krebserkrankungen sowie die Mortalität untersucht. Es nahmen 18.314 Personen teil, deren Inzidenzrisiko für Lungenkrebs erhöht war, weil sie entweder eine langjährige Raucherkarriere hinter sich hatten oder Asbeststaub ausgesetzt waren. Die Forscher fanden als mutmaßliche Supplementierungsfolge neben der weiteren Risikoerhöhung für Lungenkrebs auch eine erhöhte Sterblichkeit infolge einer Herz-Kreislauf-Erkrankung. Historisches Carotin wurde zuerst von Ferdinand Wackenroder entdeckt, der es aus Karotten isolierte. William Christopher Zeise erkannte, dass es sich um einen Kohlenwasserstoff handelt. Paul Karrer, der 1937 für seine Untersuchungen an Carotinoiden, Flavinen und Vitaminen den Nobelpreis für Chemie erhielt, hatte 1930 die korrekte Konstitutionsformel des beta-Carotins aufgestellt. Zur Strukturaufklärung nutzte er Abbaureaktionen mit Ozon, Kaliumpermanganat oder Chromsäure. Die genaue Anordnung der Atome von β-Carotin wurde mit Hilfe der Röntgenstrukturanalyse bestimmt und 1964 bekanntgegeben. Einzelnachweise Pflanzenfarbstoff Stoffgruppe Lebensmittelfarbstoff Pigment (Biologie) Lebensmittelzusatzstoff (EU) Futtermittelzusatzstoff (EU)
899
https://de.wikipedia.org/wiki/Chemisches%20Element
Chemisches Element
Ein chemisches Element ist ein Reinstoff, der mit chemischen Methoden nicht mehr in andere Stoffe zerlegt werden kann. Die Elemente sind die Grundstoffe der chemischen Reaktionen. Die kleinste mögliche Menge eines Elements ist das Atom. Alle Atome eines Elements haben dieselbe Anzahl an Protonen im Atomkern (die Ordnungszahl). Daher haben sie den gleichen Aufbau der Elektronenhülle und verhalten sich folglich auch chemisch gleich. Ein Element wird durch ein Elementsymbol bezeichnet, eine Abkürzung, die meist vom lateinischen Namen des Elements (beispielsweise Pb von plumbum, Fe von ferrum) abgeleitet ist. Die Elemente werden im Periodensystem nach steigender Kernladungszahl angeordnet. Insgesamt sind bis heute 118 Elemente nachgewiesen worden. Davon kommen die Elemente mit Ordnungszahl von 1 bis 94 auf der Erde natürlich vor, allerdings oft in Form von chemischen Verbindungen und zum Teil nur in äußerst geringen Spuren, z. B. als kurzlebige Zwischenprodukte im radioaktiven Zerfall. 80 der 118 bekannten chemischen Elemente haben mindestens ein stabiles Nuklid. Geschichte Begriffsgeschichte Der Begriff chemisches Element (von lateinisch elementum im Sinne eines aristotelischen Elements als „nicht weiter Teilbares“) entstand ab dem 17. Jahrhundert, als zunehmend erkannt wurde, dass der Elementbegriff der Alchemie untauglich für eine wissenschaftliche Aufklärung der vielfältigen Eigenschaften von Stoffen und ihren Reaktionen miteinander ist. Einen maßgeblichen Schritt tat Etienne de Clave, der 1641 die Definition gab, Elemente seien „einfache Stoffe, aus denen die gemischten Stoffe zusammengesetzt sind und in welche die gemischten Stoffe letztlich wieder zerlegt werden können“. Robert Boyle veröffentlichte 1661 unter dem Titel The Sceptical Chymist eine einflussreiche Kritik an den Unzulänglichkeiten der Alchemie. Darin führte er aus, dass man unter chemischen Elementen diejenigen primitiven Stoffe verstehen sollte, „die weder aus anderen Substanzen noch auseinander entstanden sind, sondern die Bestandteile bilden, aus denen gemischte Stoffe bestehen“. Beide Forscher stellten sich damit einerseits in Gegensatz zur herrschenden Vier-Elemente-Lehre der Alchemisten, die alle Stoffe durch unterschiedliche Mischungen von Feuer, Wasser, Luft und Erde zu erklären suchte, und machten den Begriff Element überhaupt der näheren experimentellen Erforschung zugänglich. Andererseits blieben sie der Alchemie verhaftet, indem sie annahmen, einzeln könnten diese Elemente nicht in der Wirklichkeit vorkommen, vielmehr sei jeder reale Stoff eine Mischung sämtlicher Elemente gleichzeitig. Boyle bezweifelte, dass es solche Elemente überhaupt gibt. Ganz im Geist der damals aufkommenden Mechanik nahm er an, die einheitlich erscheinenden Stoffe bestünden aus einheitlichen kleinen Teilchen, die ihrerseits in jeweils wohlbestimmter Weise aus kleinsten Korpuskeln zusammengesetzt sind. Die Vielfalt der Stoffe und ihrer Reaktionen erklärte er durch die unzähligen möglichen Arten, in denen sich die Korpuskeln zu diesen, für jeden Stoff charakteristischen Teilchen verbinden können. Als Folge einer Umlagerung der Korpuskel sah er auch die in der Alchemie gesuchte Transmutation als möglich an, d. h. die Umwandlung eines Elements (z. B. Blei) in ein anderes (z. B. Gold). Doch war Boyle damit der Wegbereiter für Antoine Laurent de Lavoisier, der zwar die Korpuskeln als metaphysische Spekulation abtat, aber 1789 die chemischen Elemente dadurch charakterisierte, dass sie nicht in andere Substanzen zerlegt werden konnten. Genauer: Alle Stoffe sollten als elementar, d. h. nicht zusammengesetzt, gelten, solange keine Methoden zur weiteren Abtrennung einzelner Bestandteile gefunden wären. Auf diese Definition gestützt, eröffneten Lavoisiers außerordentlich genaue Beobachtungen an chemischen und physikalischen Stoffumwandlungen den Weg zur modernen Chemie. Insbesondere entdeckte er die Erhaltung der Gesamtmasse bei allen Stoffumwandlungen und bestimmte die genauen Massenverhältnisse, in denen reine Elemente miteinander reagieren. So wurde John Dalton auf das Gesetz der multiplen Proportionen geführt, das er 1803 durch die Annahme der Existenz unveränderlicher und unzerstörbarer kleinster Materieteilchen, der Atome, wissenschaftlich begründen konnte. Nach Dalton wird ein Element durch eine Sorte einheitlicher Atome definiert, die sich nach festen Regeln mit anderen Atomen verbinden können. Das unterschiedliche Verhalten der Elemente wird dadurch erklärt, dass ihre Atomsorten sich in Masse, Größe und Bindungsmöglichkeiten zu anderen Atomen unterscheiden. Daraus entsteht u. a. die Möglichkeit, die relativen Atommassen der verschiedenen Elemente untereinander zu bestimmen, wodurch die Atome erstmals zum Gegenstand der experimentellen Naturwissenschaft wurden. Daltons Ansatz erwies sich in der Interpretation der chemischen Reaktionen und Verbindungen als außerordentlich erfolgreich. Seine Definitionen von Element und Atom wurden daher beibehalten, auch als die Annahmen der Unveränderlichkeit der Atome (insbesondere ihrer Unteilbarkeit) und der Gleichheit aller Atome desselben Elements durch Beobachtungen an den 1896 entdeckten radioaktiven Elementen endgültig widerlegt wurden: 1902 erklärte Ernest Rutherford in seiner Transmutationstheorie die radioaktiven Zerfallsreihen als Folge von Teilungen der Atome und weiteren Elementumwandlungen. 1910 entdeckte Frederick Soddy, dass Atome desselben radioaktiven Elements in verschiedenen Zerfallsreihen mit verschiedener Masse auftreten können (Isotopie). Ab 1920 wurden diese Erscheinungen dann bei allen Elementen gefunden. In der ersten Hälfte des 20. Jahrhunderts wurde der Atombau dahingehend geklärt, dass das chemische Verhalten weitestgehend von der negativ geladenen Elektronenhülle des Atoms bestimmt wird, die ihrerseits durch die positive Ladung des Atomkerns bestimmt ist. Daher geht der heutige Begriff des chemischen Elements von der elektrischen Ladung des Atomkerns aus. Sie ist durch die Anzahl der im Kern vorhandenen Protonen gegeben, die daher als chemische Ordnungszahl des Atoms bzw. des Elements bezeichnet wird. Rückblickend auf die ursprünglichen Definitionen für den Begriff Element von Clave, Boyle und Lavoisier (s. o.) und auch auf die Boyleschen Korpuskeln scheint es, dass die besten Realisierungen dieser seinerzeit hypothetischen Vorstellungen nicht durch die heutigen chemischen Elemente und Atome, sondern durch die Atombausteine Proton, Neutron, Elektron gegeben sind. Entdeckungsgeschichte In der Antike und bis weit ins Mittelalter war man der Auffassung, dass die Welt aus den vier Elementen Erde, Wasser, Luft und Feuer aufgebaut ist. Von den Elementen im heutigen Sinne waren in der Antike nur zehn Elemente in Reinform bekannt, die entweder natürlich (d. h. gediegen) vorkamen oder aus Erz geschmolzen werden konnten: Kohlenstoff, Schwefel, Eisen, Kupfer, Zink, Silber, Zinn, Gold, Quecksilber und Blei. Im Laufe der mittelalterlichen Bergbaugeschichte wurden dann, vor allem im Erzgebirge, in Erzen geringe Mengen an Beimengungen unbekannter Metalle entdeckt und nach Berggeistern benannt (Cobalt, Nickel). Die Entdeckung des Phosphors 1669 durch Hennig Brand läutete schließlich das Zeitalter der Entdeckung der meisten Elemente ein, einschließlich des Urans aus Pechblende durch Martin Heinrich Klaproth 1789. Vor dem Jahre 1751 waren folgende 9 Nebengruppenelemente bekannt: Eisen, Cobalt, Nickel, Kupfer, Zink, Silber, Platin, Gold sowie Quecksilber, ferner die 8 Hauptgruppenelemente Kohlenstoff, Phosphor, Schwefel, Arsen, Zinn, Antimon, Blei und Bismut. Im Jahr 1751 waren also insgesamt 17 Elemente bekannt. Vom Jahre 1751 bis zum Jahre 1800 kamen noch 13 weitere Elemente hinzu: Wasserstoff, Titan, Chrom, Mangan, Yttrium, Zirconium, Molybdän, Wolfram, Uran, Stickstoff, Sauerstoff, Chlor und Tellur. In der Zeit vom Jahre 1800 bis zum Jahre 1830 wurden insgesamt 22 neue Elemente entdeckt: die Nebengruppenelemente Vanadium, Tantal, Rhodium, Palladium, Cadmium, Osmium, Iridium und die seltene Erde Thorium, ferner die Hauptgruppenelemente Lithium, Beryllium, Natrium, Magnesium, Kalium, Calcium, Strontium, Barium, Bor, Aluminium, Silicium, Selen, Iod und Brom. Elf weitere Elemente traten zwischen dem Jahre 1830 bis 1869 hinzu. Sie waren auch ein Marker für den technisch-wissenschaftlichen Entwicklungszustand, denn es wurden auch schwer auffindbare und seltene Elemente entdeckt und beschrieben. Es waren Helium, Rubidium, Caesium, Indium, Thallium, Niob, Ruthenium, Lanthan, Cer, Terbium, Erbium. Somit waren bis zum Jahr 1869 63 Elemente entdeckt worden. Im Laufe des 19. Jahrhunderts wurden die Metalle der Seltenen Erden entdeckt, womit fast alle natürlich vorkommenden Elemente bekannt waren. In dieser Zeit wurden auch viele hypothetische Elemente postuliert, die später wieder verworfen wurden, so etwa das Nebulium. Im 20. und dem begonnenen 21. Jahrhundert wurden viele in der Natur nicht vorkommende Elemente – die Transurane – künstlich erzeugt, teils in Kernreaktoren, teils in Teilchenbeschleunigern. Allen diesen Elementen ist gemeinsam, dass sie instabil sind, d. h., dass sie sich unterschiedlich schnell in andere Elemente umwandeln. Mit der Entdeckung weiterer solcher kurzlebiger Elemente ist zu rechnen; sie entstehen jeweils in nur äußerst geringen Mengen. Ihren Namen erhielten die Elemente jeweils von ihrem Entdecker, was im 20. Jahrhundert zu einer Elementnamensgebungskontroverse führte. Elemente, die noch nicht erzeugt oder benannt wurden, tragen Systematische Elementnamen. Ordnungssystem Die Elemente ordnet man nach ihrer Kernladungszahl (Ordnungszahl) und der Elektronenkonfiguration ihrer Atome im Periodensystem der Elemente (PSE) in Gruppen und Perioden an. Dieses System wurde vom russischen Gelehrten Dmitri Iwanowitsch Mendelejew zeitgleich mit dem deutschen Arzt und Chemiker Lothar Meyer 1869 begründet. Eigenschaften Identifiziert werden chemische Elemente mittels Nachweisreaktionen der Analytischen Chemie. Viele Eigenschaften der Elemente lassen sich aus dem Aufbau ihrer Atome ableiten. Diverse historisch gewachsene Atommodelle, insbesondere das erfolgreiche Bohrsche Schalenmodell, liefern dazu die theoretischen Grundlagen. Alle Atome eines Elements haben im elektrisch ungeladenen Zustand ebenso viele Elektronen in der Elektronenhülle wie Protonen im Atomkern. Ordnet man die Elemente gemäß wachsender Protonenzahl (Ordnungszahl) im sogenannten Periodensystem an, ergeben sich periodisch wiederkehrende Eigenschaften (siehe Hauptgruppe, Nebengruppe). Bei chemischen Reaktionen werden nur die Elektronen auf den Außenschalen der Reaktionspartner umgeordnet, der Atomkern bleibt hingegen unverändert. Atome „suchen“ primär die sogenannte Edelgaskonfiguration (Stabilität wegen abgeschlossener Außenschale) zu erreichen, auch wenn das zu Lasten der elektrischen Neutralität geht, und streben nur sekundär nach Ladungsausgleich der Gesamtkonfiguration. Beschrieben wird dieses „Bestreben“ durch die Elektronegativität. Edelgase, also Elemente mit im neutralen Zustand abgeschlossener Außenschale, sind reaktionsarm und bilden nur unter drastischen Bedingungen Verbindungen. Eine eindeutige „Identifizierung“ der Elektronen eines Elements liefert das Quantenzahlenquartett: Hauptquantenzahl, Nebenquantenzahl, Magnetquantenzahl, Spinquantenzahl, also quantenphysikalische Elementeigenschaften. Isotope, Nuklide Alle Atome desselben Elements haben dieselbe Anzahl Protonen, sie können aber verschieden viele Neutronen enthalten. Diese nur in ihrer Neutronenzahl verschiedenen Arten sind die Isotope des betreffenden Elements. Die allgemeine Bezeichnung für eine durch Protonenzahl und Neutronenzahl festgelegte Atomart ist Nuklid. Vom Wasserstoff existieren in natürlichen Vorkommen beispielsweise drei Isotope: Protium (keine Neutronen), Deuterium (1 Neutron), Tritium (2 Neutronen). Der Kern des häufigsten Wasserstoffisotops (Protium, 99,9851 %) besteht aus einem einzelnen Proton. Deuterium tritt in natürlichem Wasserstoff nur mit einem Anteil von 0,0149 % auf, Tritium mit < 10−10 %. Der häufigste Heliumatomkern besteht aus zwei Protonen und zwei Neutronen. Es gibt in natürlichen Vorkommen mit einem Anteil von nur 0,000137 % aber auch das Isotop , Helium-3, dessen Kern nur ein Neutron enthält. Natürliches Chlor (17 Protonen) besteht aus einer Mischung aus Isotopen mit 18 Neutronen (75,8 %) und 20 Neutronen (24,2 %). Masse Die Atommassen der Isotope sind annähernd, aber nicht genau ganzzahlige Vielfache der Masse des Wasserstoffatoms. Die Ursache für diese unter 0,9 Prozent liegenden Abweichungen sind: Die Bindungsenergie der Atomkern-Bestandteile zeigt sich als Massendefekt, so dass die Kernmasse stets etwas kleiner als die Summe der Massen der Kernbestandteile ist. Dieser Effekt erreicht sein Maximum in Bereich von Eisen- und Nickelkernen mit 0,945 Prozent. Atomkerne bestehen aus Protonen und Neutronen. Neutronen sind 0,138 Prozent schwerer als Protonen. Protonen kommen im elektrisch neutralen Atom nur zusammen mit ebenso vielen Elektronen vor, die 0,055 Prozent der Protonenmasse haben. Die letzten beiden Effekte kompensieren einander nur teilweise. Rein- und Mischelemente Chemische Elemente, die in ihren natürlichen Vorkommen nur eine Sorte von Atomen aufweisen, heißen Reinelemente; wenn sie dagegen aus zwei oder mehr Isotopen bestehen, heißen sie Mischelemente. Die meisten Elemente sind Mischelemente. Es existieren 19 stabile und drei langlebige instabile Reinelemente (Bismut, Thorium und Plutonium), insgesamt also 22 Reinelemente. Im Periodensystem steht für Mischelemente die durchschnittliche Atommasse gemäß den relativen Häufigkeiten der Isotope. Das natürliche Mischverhältnis ist bei einem Element meist konstant, kann bei einigen Elementen aber lokal schwanken. Blei zum Beispiel zeigt je nach Herkunft (Lagerstätte) unterschiedliche durchschnittliche Atommassen. 2010 beschloss die IUPAC, dass zukünftig für die Elemente Wasserstoff, Bor, Lithium, Kohlenstoff, Stickstoff, Sauerstoff, Silicium, Schwefel, Chlor und Thallium im Periodensystem die Masse als Massenbereich anzugeben ist. Die Begriffe Reinstoff und Reinelement sowie Stoffgemisch und Mischelement sind strikt zu unterscheiden. Aggregatzustand, Dichte Die meisten Elemente sind bei Standardbedingungen fest (und/oder) dichter als Wasser ja sogar Schwermetall, also dichter als 5000 kg/m³. Die Atommasse-leichtesten 2, nämlich H und He, weiters N und O und die zwei leichtesten Halogene sind gasförmig. Flüssig sind nur Brom und – bei erstaunlich großer Atommasse – nur noch Hg Quecksilber. Die Dichte korreliert oft mit der Atommasse, bei Gasen sehr genau mit der Molekülmasse. Lithium hat etwa die halbe Dichte von Wasser, die schwersten Elemente (Au, Os, W) haben etwa die 20-fache Dichte von Wasser. Chemische Bindungen Chemische Elemente können, bis auf einige Edelgase, chemische Bindungen eingehen. Dabei sind mehrere der elementaren Atome zu Molekülen, Ionenkristallen, Komplexen oder metallischen Verbindungen zusammengeschlossen. Bilden Elemente chemische Bindungen mit sich selbst, so nennt man den Reinstoff ebenfalls Element: Bei vielen Gasen wie Chlor Cl oder Fluor F bilden zwei Atome desselben Elements eine kovalente Bindung aus und werden zu einem Elementmolekül, hierbei Cl2 und F2. Sauerstoff bildet neben O2 auch weniger stabile dreiatomige O3-Moleküle aus, Schwefel bildet ringförmige aus sechs bis acht Atomen. Wenn Elemente eine chemische Bindung mit anderen Elementen eingehen, entstehen chemische Verbindungen. Wasser mit der Summenformel H2O ist beispielsweise eine Verbindung aus den Elementen Wasserstoff H (2 Atome pro Molekül) und Sauerstoff (1 Atom pro Molekül). Grundsätzlich gibt es vier Arten von chemischen Verbindungen zwischen den Atomen unterschiedlicher Elemente: Molekulare Verbindungen entstehen in der Regel aus Nichtmetall und Nichtmetall – sie sind Nichtleiter (elektrisch nicht leitfähig) mit zumeist relativ niedrigem Siedepunkt (diamantartige oder kunststoffartige Verbindungen mit Riesenmolekülen ausgenommen). Beispiele für molekulare Verbindungen sind neben Wasser auch Methan, Zucker. Ionische Verbindungen oder Salze entstehen häufig aus Metall(kation) und Nichtmetall(anion). Sie sind spröde, oft von hohem Schmelzpunkt und in Schmelze oder Lösung elektrisch leitfähig. Beispiele für Ionenverbindungen sind Eisen(II)-oxid und Kochsalz (Natriumchlorid). Komplexe bestehen aus einem Zentralteilchen, das von Liganden umgeben ist. So handelt es sich beispielsweise bei Chlorophyllen um Komplexverbindungen. Metallische Verbindungen entstehen aus zwei oder mehr Metallen. Die Metallatome sind hier durch metallische Bindungen sowie nicht selten durch zusätzliche ionische oder kovalente Bindungsanteile verbunden. Sie sind nicht zu verwechseln mit Legierungen, die zu den Gemischen gezählt werden. Die Entstehung von Elementen Bereits beim Urknall entstanden die leichten Elemente Wasserstoff (ca. 75 %) und Helium (ca. 25 %), zusammen mit geringen Mengen Lithium und Beryllium. Am Anfang der Kosmochemie steht daher der Wasserstoff mit einer relativen Atommasse von ca. 1,0 u (ein Proton). Schwerere Elemente entstehen im Universum durch Kernreaktionen in den Sternen. In Hauptreihen-Sternen, wie unserer Sonne, verschmelzen unter hoher Temperatur (mehrere Millionen Grad Celsius) und hohem Druck beispielsweise vier Wasserstoffatomkerne über mehrere Zwischenstufen zu einem Heliumatomkern (relative Atommasse ca. 4,0 u). Dieser ist ein wenig leichter als die vier Protonen zusammen, die Massendifferenz wird als Energie frei. Diese Fusion (Atome mit geringerer Protonenzahl verschmelzen zu höheren) geht in den meisten Sternen bis zur Entstehung von Kohlenstoff, in massereichen bis zur Bildung von Eisen weiter, dem am dichtesten gepackten Atomkern. Dies erfolgt immer unter Abgabe von Energie, wobei die Energieausbeute mit zunehmender Ordnungszahl der gebildeten Elemente bis zum Eisen immer geringer wird. Die Fusionsreaktionen zu schwereren Kernen würden eine Zufuhr von Energie erfordern. Schwerere Elemente als Eisen entstehen deshalb nicht durch Kernfusion, sondern durch Neutroneneinfang bestehender Atome, die dabei in Elemente höherer Ordnungszahl umgewandelt werden. Dies geschieht bei massearmen Sternen im sogenannten s-Prozess, bei massereichen am Ende der Lebenszeit von Sternen während einer Supernova im r-Prozess. Die entstandenen Elemente gelangen (kontinuierlich durch Sonnenwind oder explosiv in einer Supernova) in das interstellare Medium und stehen für die Bildung der nächsten Sterngeneration oder anderen astronomischen Objekten zur Verfügung. Jüngere Sternensysteme enthalten daher bereits von Anfang an geringe Mengen schwererer Elemente, die Planeten wie in unserem Sonnensystem bilden können. Statistik der chemischen Elemente Von den 118 bekannten Elementen (Stand 2015) sind 80 stabil. Alle stabilen Elemente kommen auf der Erde natürlich vor, ebenso 14 radioaktive (siehe Elementhäufigkeit). Weitere radioaktive Elemente wurden künstlich hergestellt, ihre Zahl wird vermutlich weiter steigen. Die Elemente lassen sich nach verschiedenen Kriterien unterteilen. Am häufigsten ist die Unterteilung in solche Elemente, die Metalle bilden und den Großteil der Elemente ausmachen, sowie in Nichtmetalle und die Zwischenstufe Halbmetalle. Zur Gruppe der Nichtmetalle gehören nur 17 aller Elemente, diese bilden bei Standardbedingungen keine Metalle. Davon liegen die sechs Edelgase einatomig vor, weil deren Atome keine Moleküle bilden, d. h. nicht miteinander reagieren. Dagegen verbinden sich andere mit Atomen des gleichen Elements zu Molekülen. Dazu zählen die weiteren fünf unter Normalbedingungen gasförmigen Elemente: Wasserstoff (H2), Stickstoff (N2), Sauerstoff (O2), Fluor (F2) und Chlor (Cl2) sowie das flüssige Brom (Br2) und das feste Iod (I2). Häufigkeit der chemischen Elemente Die Häufigkeit der chemischen Elemente unterscheidet sich je nach dem betrachteten Bereich. Im Universum ist sie eng verknüpft mit den Entstehungsprozessen im kosmologischen Zeitrahmen (Nukleosynthese). Dort ist das weitaus häufigste Element der Wasserstoff, gefolgt von seinem einfachsten Fusionsprodukt Helium, die beide schon bald nach dem Urknall entstanden. Die nächsthäufigsten Elemente sind Kohlenstoff und Sauerstoff. Lithium, Beryllium und Bor entstanden ebenfalls beim Urknall, jedoch in wesentlich geringeren Mengen. Helium, Kohlenstoff und Sauerstoff sowie alle anderen Atomsorten wurden durch Kernfusion in Sternen oder durch andere astrophysikalische Vorgänge gebildet. Dabei entstanden häufiger Atome mit gerader Protonenzahl, wie Sauerstoff, Neon, Eisen oder Schwefel, während Elemente mit ungerader Protonenzahl seltener sind. Diese Regel wird nach dem US-amerikanischen Chemiker William Draper Harkins (1873–1951) Harkinssche Regel genannt. Markant ist die besondere Häufigkeit des Eisens als Endpunkt der möglichen Kernfusion in Sternen. Die Verteilung auf der Erde unterscheidet sich von derjenigen, die im gesamten Universum vorherrscht. Insbesondere sind auf der Erde vergleichsweise geringe Mengen Wasserstoff und Helium vorhanden, weil diese Gase vom Schwerefeld der Erde nicht festgehalten werden können; im Sonnensystem befinden sie sich vor allem in den Gasplaneten wie Jupiter und Neptun. Auf Gesteinsplaneten wie der Erde überwiegen die schwereren Elemente, vor allem Sauerstoff, Silicium, Aluminium und Eisen. Organismen bestehen hauptsächlich aus Wasserstoff, Sauerstoff, Kohlenstoff und Stickstoff. In dem jeweils betrachteten Bereich sehr häufig vorkommende Elemente bezeichnet man als Mengenelemente, sehr seltene als Spurenelemente. Siehe auch Liste der chemischen Elemente Literatur Harry H. Binder: Lexikon der chemischen Elemente – das Periodensystem in Fakten, Zahlen und Daten. Hirzel, Stuttgart 1999, ISBN 3-7776-0736-3. Lucien F. Trueb: Die chemischen Elemente – Ein Streifzug durch das Periodensystem. S. Hirzel Verlag, Stuttgart 2005, ISBN 3-7776-1356-8. Theodore Gray: Die Elemente. Fackelträger-Verlag, Köln 2009, ISBN 978-3-7716-4435-2. Ulf von Rauchhaupt: Die Ordnung der Stoffe. Ein Streifzug durch die Welt der chemischen Elemente. Fischer Taschenbuch Verlag, Frankfurt am Main 2009, ISBN 978-3-596-18590-0. Alexander C. Wimmer: Die chemischen Elemente. SMT, Leoben 2011, ISBN 978-3-200-02434-2. Philip Ball: Die Elemente. Entdeckung und Geschichte der Grundstoffe. Haupt, Bern 2022, ISBN 978-3-258-08268-4. Weblinks www.chemieseite.de enthält ausführliche Beschreibungen der Hauptelemente www.pse-mendelejew.de enthält viele Fotografien von reinen Elementen www.pse.merck.de enthält eine reiche Auswahl an atomaren Eigenschaften in einer interaktiven Tabelle Umfangreiche Übersicht Einzelnachweise
902
https://de.wikipedia.org/wiki/Chemiker
Chemiker
Ein Chemiker ist ein Naturwissenschaftler, der sich mit Themen der Chemie befasst. Die Tätigkeitsbezeichnung Chemiker ist nicht geschützt. Hingegen ist der früher vergebene akademische Grad Diplom-Chemiker (Dipl.-Chem.) staatlich geschützt und setzte ein Hochschulstudium mit erfolgreich bestandenem Diplom voraus. Mit der Abschaffung der Diplomstudiengänge im Zuge des Bologna-Prozesses ersetzte der Bachelor- bzw. der Master-Grad den Diplom-Grad bei neu erworbenen Abschlüssen als Berufsbezeichnung. Studium zum Chemiker in Deutschland Im Zuge des Bologna-Prozesses gingen die Diplomstudiengänge sowohl an Universitäten wie an Fachhochschulen weitgehend in den sechssemestrigen Bachelor-Studiengang mit anschließendem, optionalem viersemestrigem Master-Studium über. Daneben haben sich mehrere Ingenieurstudiengänge mit Schwerpunkt Chemie, speziell an Fachhochschulen, etabliert. Wenn die Bachelorstudien so akkreditiert sind, dass 180 Credits erzielt werden, können Absolventen von Fachhochschulen an Universitäten (und umgekehrt) ein Masterstudium beginnen; hat ein Masterstudium 120 Credits, können auch Absolventen einer Fachhochschule eine Promotion beginnen. Im Jahr 2018 boten in der Bundesrepublik Deutschland 54 Universitäten und 24 Fachhochschulen ein Studium der Chemie an. Ein Chemiestudium besteht sowohl im Bachelor- wie im Masterstudium aus Vorlesungen, Seminaren und Übungen, Klausuren und mündlichen Prüfungen sowie den regelmäßigen lehrveranstaltungsbegleitenden Praktika im Labor. In den Praktika werden handwerkliche Fähigkeiten und das wissenschaftliche, systematische Arbeiten erlernt. Die Leistungsnachweise (im Jargon „Scheine“ genannt) werden vor allem durch Klausuren, mündliche Prüfungen und Testaten für bestandene Praktika erbracht. Nach dem Bachelorstudium schließen Studierende von Universitäten nahezu vollständig und Studierende der Fachhochschulen zu rund 70 Prozent ein Masterstudium an. Nach dem Masterstudium beginnen Absolventen einer Universität zu rund 85 Prozent mit einer Promotion, Absolventen von Fachhochschulen zu rund 10 Prozent. Bis zur Einführung des Bologna-Prozesses begann ein Diplomstudium Chemie an einer Universität mit einem viersemestrigen Grundstudium, das mit der nicht berufsqualifizierenden Vordiplom-Prüfung abgeschlossen wurde. An das Grundstudium schloss ein dreisemestriges Hauptstudium an, in dem eine Spezialisierung stattfand. Die häufigsten waren Organische Chemie, Anorganische Chemie und Physikalische Chemie. Es folgten die meist mündlichen Diplomprüfungen und eine sechs- bis neunmonatige Diplomarbeit. An Fachhochschulen folgte auf ein sechssemestriges Studium, meist ohne Vordiplom eine einsemestrige Diplomarbeit. Promotion der Chemiker in Deutschland Nach einem Masterabschluss kann nach einer meist drei- bis vierjährigen Doktorarbeit die Promotion zum Doktor der Naturwissenschaften (Dr. rer. nat.) erfolgen. Bei technischer Ausrichtung des Promotionsthemas und einer entsprechend absolvierten Masterausbildung ist auch der Doktor der Ingenieurwissenschaften (Dr.-Ing.) möglich. Die Dauer richtet sich vor allem danach, ob der Doktorand während seiner Tätigkeit nur seine Promotionsziele verfolgen kann oder, was an Hochschulen die Regel ist, durch zusätzliche Verpflichtungen eingebunden wird, wie die Einbeziehung in das Schreiben von Drittmittelanträgen für neue Projekte, den Einsatz in der Lehre oder die Übernahme von Verwaltungsaufgaben am Lehrstuhl des betreuenden Professors. Schwer vergleichbar wird die Promotionsdauer auch dadurch, dass ein Teil der Doktoranden die erfolgreichen Aufgabenstellungen von vorherigen Doktoranden nach deren Promotion weiterbearbeitet und dabei Konzept und Aufbau ihrer Vorgänger weiterbenutzt, während ein anderer Teil der Doktoranden absolut neue Themen erstmals zu bearbeiten versucht. Die Bezahlung des Doktoranden erfolgt in der Regel nach dem TV-L (bei Promotion an Hochschulen/Universitäten) bzw. nach dem TVöD (bei Promotion an Forschungseinrichtungen, z. B. der Fraunhofer-Gesellschaft) Max-Planck-Gesellschaft oder anderen Großforschungseinrichtungen. Meist wird eine Doktorandenstelle mit einem 50 %-Vertrag eines wissenschaftlichen Mitarbeitenden doriert, seltener mit einer 2/3-Stelle. Stipendien sind eine weitere Möglichkeit der Finanzierung. Zweck und Ziele der Promotion Die abgeschlossene Promotion soll den Nachweis zur selbständigen Forschungstätigkeit, also der wissenschaftlichen Erarbeitung und Bearbeitung eines Themas erbringen. Das beinhaltet eine weitestgehend individuelle Versuchsplanung, den Versuchsaufbau und die Versuchsdurchführung einschließlich der Ergebnisauswertung bis zur Ergebnispublikation (Dissertationsschrift) mit Einordnung in den wissenschaftlichen Kontext. Die Promotion ist erforderlich für Tätigkeiten in der Forschung an Universitäten, in der Industrie oder in Forschungsinstituten wie der Helmholtz-Gemeinschaft Deutscher Forschungszentren, der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft oder auch der Leibniz-Gemeinschaft. Beschäftigung Die drei wichtigsten Arbeitgeber von Chemikern sind akademische Einrichtungen, die Industrie, insbesondere die chemische Industrie und die pharmazeutische Industrie, sowie staatliche Laboratorien. Die Chemie ist in der Regel in mehrere große Teildisziplinen unterteilt. Es gibt mehrere interdisziplinäre und spezialisiertere Hauptbereiche der Chemie. Es gibt große Überschneidungen zwischen verschiedenen Zweigen der Chemie sowie mit anderen wissenschaftlichen Bereichen wie Biologie, Medizin, Physik, Radiologie und mehreren Ingenieurdisziplinen. Analytische Chemie ist die Analyse von Materialproben, um ein Verständnis ihrer chemischen Zusammensetzung und Struktur zu erlangen. Die analytische Chemie beinhaltet standardisierte experimentelle Methoden in der Chemie. Diese Methoden können in allen Teildisziplinen der Chemie angewendet werden, mit Ausnahme der rein theoretischen Chemie. Biochemie ist das Studium der Chemikalien, chemischen Reaktionen und chemischen Wechselwirkungen, die in lebenden Organismen stattfinden. Biochemie und organische Chemie sind zum Beispiel in der medizinischen Chemie eng miteinander verwandt. Anorganische Chemie ist das Studium der Eigenschaften und Reaktionen anorganischer Verbindungen. Die Unterscheidung zwischen organischen und anorganischen Disziplinen ist nicht absolut und es gibt viele Überschneidungen, vor allem in der Teildisziplin der metallorganischen Chemie. Die Anorganische Chemie ist auch das Studium der atomaren und molekularen Struktur und Bindung. Medizinische Chemie ist die Wissenschaft, die mit dem Design, der Synthese und der Entwicklung pharmazeutischer Arzneimittel befasst ist. Die medizinische Chemie umfasst die Identifizierung, Synthese und Entwicklung neuer chemischer Substanzen, die für therapeutische Zwecke geeignet sind. Es umfasst auch die Untersuchung bestehender Medikamente, ihrer biologischen Eigenschaften und ihrer quantitativen Struktur-Wirkungs-Beziehungen. Organische Chemie ist das Studium der Struktur, Eigenschaften, Zusammensetzung, Mechanismen und chemischen Reaktion von Kohlenstoffverbindungen. Physikalische Chemie ist das Studium der physikalischen Grundlagen chemischer Systeme und Prozesse. Insbesondere die Energetik und Dynamik solcher Systeme und Prozesse sind für physikalische Chemiker von Interesse. Wichtige Studiengebiete sind chemische Thermodynamik, chemische Kinetik, Elektrochemie, Quantenchemie, statistische Mechanik und Spektroskopie. Die physikalische Chemie hat eine große Überschneidung mit der theoretischen Chemie und der Molekülphysik. Physikalische Chemie beinhaltet die Verwendung von Kalkül bei der Ableitung von Gleichungen. Theoretische Chemie ist das Studium der Chemie durch theoretisches Denken (normalerweise innerhalb der Mathematik oder Physik). Insbesondere die Anwendung der Quantenmechanik auf die Chemie wird als Quantenchemie bezeichnet. Seit dem Ende des Zweiten Weltkriegs hat die Entwicklung von Computern eine systematische Entwicklung der Computerchemie ermöglicht, die die Kunst der Entwicklung und Anwendung von Computerprogrammen zur Lösung chemischer Probleme ist. Die theoretische Chemie hat große Überschneidungen mit der Physik der kondensierten Materie und der Molekülphysik. Siehe Reduktionismus. Auf die Promotion aufbauende Qualifikationen Promovierte Diplom-Chemiker mit dem Berufsziel des Hochschullehrers schließen in der Regel eine bis zu sechs Jahren andauernde Juniorprofessur oder eine Habilitation an die Promotion an. Eine weitere Möglichkeit zum Erlangen von zusätzlichen Erfahrungen und zur Erweiterung der Publikationsliste bieten Post-Doc-Stellen im In- und Ausland. Sie dienen vor allem dem Sammeln der von den Einstellenden der Industrie gewünschten „Auslandserfahrung“ und zum „Sprachkenntnis-“ und „Flexibilitätsnachweis“. Chemiker-Gesellschaften im deutschsprachigen Raum Die Gesellschaft Deutscher Chemiker (GDCh), die Fachorganisation der Chemiker in Deutschland, hat über 27.000 Mitglieder. Die Gesellschaft Österreichischer Chemiker (GÖCH) verfügt über etwa 1.900 Mitglieder. Die Schweizerische Chemische Gesellschaft (SCG) hatte Anfang 2016 2.700 Mitglieder. Historisches Historische Bezeichnungen für den Chemiker Für diejenigen, die sich mit der Chemie beschäftigten, die früher auch Chymie genannt wurde, wurden verschiedene Begriffe nebeneinander und synonym verwendet: Im 17. Jahrhundert waren das die Bezeichnungen Chymicus, Chemicus, Chemiker und Chemist. Auch im 18. Jahrhundert und in der ersten Hälfte des 19. Jahrhunderts wurden die Begriffe Chymicus, Chymiker, Chymist, Chemicus und Chemist benutzt und in der Regel mit „Misch- und Scheidekünstler“ erklärt. Johann Wolfgang von Goethe nutzte die Begriffe Chemist, Chemiker und – seltener – Chemicus; ebenso verwendete Johann Bartholomäus Trommsdorff abwechselnd Chemiker oder Chemist/Chemisten. Im Laufe des 19. Jahrhunderts setzte sich die Bezeichnung „Chemiker“ durch. Das hängt damit zusammen, dass sich in vielen analogen Fällen (wie Akademiker und Botaniker) die Bildungen mit der Endung -iker durchgesetzt haben und dass bei den Formen mit -ist Endbetonungen vorliegen, während die Bildungen mit -iker auf der vorletzten Silbe betont werden. Herausbildung des Chemikerberufs In Deutschland führte Johann Bartholomäus Trommsdorff nach 1800 einen systematischen Chemieunterricht durch, der sich aber vor allem an Pharmazeuten richtete. 1824 erhielt Justus Liebig eine Professur in Gießen und bildete dort systematisch Chemiker aus. 1877 erschien in Deutschland die erste Ausgabe der Chemiker-Zeitung, 1887 in Österreich die Österreichische Chemiker-Zeitung, was zeigt, dass der Beruf des Chemikers zu diesem Zeitpunkt etabliert war. Bedeutende Chemiker Bedeutende Chemiker chronologisch nach Geburtsdatum sortiert Bedeutende Chemiker alphabetisch sortiert Bedeutende Chemiker nach Fachgebieten geordnet und alphabetisch sortiert Liste der Nobelpreisträger für Chemie Liste von Chemikerinnen Historische Einordnung im Buch: Biographisch-litterarisches Handwörterbuch der wissenschaftlich bedeutenden Chemiker / hrsg. von Carl Schaedler. – Berlin : Friedländer, 1891. Digitalisierte Ausgabe der Universitäts- und Landesbibliothek Düsseldorf Weblinks Einzelnachweise Beruf (Chemie) Hochschulberuf
905
https://de.wikipedia.org/wiki/Chinook
Chinook
Chinook steht für: Chinook (Volk), nordamerikanischer Indianerstamm Chinook, indigene nordamerikanische Sprache, siehe Chinook-Sprachen Chinook Wawa, Pidgin-Sprache im amerikanisch-kanadischen Pazifikraum Chinook (Wind), föhnartiger Fallwind in den östlichen Rocky Mountains Chinook (Hunderasse), US-amerikanisch Chinook (Software), damespielendes KI-Programm Chinook, US-amerikanischer Transporthubschrauber, siehe Boeing-Vertol CH-47 Orte in den Vereinigten Staaten: Chinook (Montana), Stadt im Blaine County Chinook (Washington)
906
https://de.wikipedia.org/wiki/Carl%20Friedrich%20Gau%C3%9F
Carl Friedrich Gauß
Johann Carl Friedrich Gauß (latinisiert Carolus Fridericus Gauss; * 30. April 1777 in Braunschweig, Fürstentum Braunschweig-Wolfenbüttel; † 23. Februar 1855 in Göttingen, Königreich Hannover) war ein deutscher Mathematiker, Statistiker, Astronom, Geodät, Elektrotechniker und Physiker. Wegen seiner überragenden wissenschaftlichen Leistungen galt er bereits zu seinen Lebzeiten als Princeps mathematicorum (Fürst der Mathematiker). Seine Tätigkeit erstreckte sich neben der Reinen Mathematik auch auf angewandte Gebiete, zum Beispiel war er mit der Landesvermessung des Königreichs Hannover beauftragt, er erfand zusammen mit Wilhelm Eduard Weber als einer der Ersten elektromagnetische Telegrafie und beide wandten sie als Erste über längere Strecken an, er entwickelte Magnetometer und er initiierte ein weltweites Netz von Stationen zur Erforschung des Erdmagnetismus. Epochale Bedeutung Mit 18 Jahren entwickelte Gauß die Grundlagen der modernen Ausgleichungsrechnung und der mathematischen Statistik (Methode der kleinsten Quadrate), mit der er 1801 die Wiederentdeckung des ersten Asteroiden Ceres ermöglichte. Auf Gauß gehen die nichteuklidische Geometrie, zahlreiche mathematische Funktionen, Integralsätze, die Normalverteilung, erste Lösungen für elliptische Integrale und die gaußsche Krümmung zurück. 1807 wurde er zum Universitätsprofessor und Sternwartendirektor in Göttingen berufen und später mit der Landesvermessung des Königreichs Hannover betraut. Neben der Zahlentheorie und der Potentialtheorie erforschte er u. a. das Erdmagnetfeld. Bereits 1856 ließ der König von Hannover Medaillen mit dem Bild von Gauß und der Inschrift (dem Fürsten der Mathematiker) prägen. Da Gauß nur einen Bruchteil seiner Entdeckungen veröffentlichte, erschlossen sich die Tiefgründigkeit und die Reichweite seines Werks der Nachwelt in vollem Umfang erst, als 1898 sein Tagebuch entdeckt und der Nachlass bekannt wurde. Nach Gauß sind viele mathematisch-physikalische Phänomene und Lösungen benannt, mehrere Vermessungs- und Aussichtstürme, zahlreiche Schulen, außerdem Forschungszentren und wissenschaftliche Ehrungen wie die seit 1949 verliehene Carl-Friedrich-Gauß-Medaille der Braunschweigischen Wissenschaftlichen Gesellschaft und die festliche Gauß-Vorlesung, die seit 2001 in jedem Semester an einer anderen deutschen Hochschule stattfindet. Leben Eltern, Kindheit und Jugend Carl Friedrich kam am 30. April 1777 als Sohn der Eheleute Gauß in Braunschweig zur Welt. Sein Geburtshaus am Wendengraben in der Wilhelmstraße 30 – in dessen Erdgeschoss später das Gauß-Museum eingerichtet wurde – überstand den Zweiten Weltkrieg nicht. Dort wuchs er als einziges gemeinsames Kind seiner Eltern auf; aus einer früheren Ehe des Vaters gab es noch einen älteren Stiefbruder. Sein Vater Gebhard Dietrich Gauß (1744–1808) übte verschiedene Berufe aus, er war unter anderem Gärtner, Schlachter, Maurer, Kaufmannsassistent und Schatzmeister einer kleinen Versicherungsgesellschaft. Die ein Jahr ältere Dorothea Bentze (1743–1839) arbeitete vor der Heirat als Dienstmädchen und wurde dessen zweite Frau. Sie war die Tochter eines Steinmetzen aus Velpke, der früh starb, und wird als klug, von heiterem Sinn und festem Charakter geschildert. Gauß’ Beziehung zu seiner Mutter blieb zeitlebens eng; zuletzt wohnte die 96-Jährige bei ihm in Göttingen. Anekdoten besagen, dass bereits der dreijährige Carl Friedrich seinen Vater bei der Lohnabrechnung korrigiert hätte. Später sagte Gauß von sich selbst scherzhaft, er habe das Rechnen vor dem Sprechen gelernt. Die Gabe, als Rechenkünstler auch komplizierteste Rechnungen im Kopf durchzuführen, hatte er noch in hohem Alter. Nach einer Erzählung von Wolfgang Sartorius von Waltershausen fiel das mathematische Talent des kleinen Carl Friedrich auf, als er nach zwei Jahren Elementarunterricht in die Rechenklasse der Catherinen-Volksschule kam: Dort pflegte der Lehrer Büttner seine Schüler mit längeren Rechenaufgaben zu beschäftigen, während er mit einer Karbatsche in der Hand auf und ab ging. Eine Aufgabe war die Summation einer arithmetischen Reihe; wer fertig war, legte seine Tafel mit den Rechnungen für die Lösung auf das Pult. Mit den Worten „ligget se“ in Braunschweiger Plattdeutsch legte der neunjährige Gauß verblüffend rasch seine auf den Tisch, die nur eine einzige Zahl trug. Nachdem Gauß’ außergewöhnliche Begabung erkannt war, beschaffte man zunächst ein anderes Rechenbuch aus Hamburg, bevor der Assistent Martin Bartels brauchbare mathematische Bücher zum gemeinsamen Studium besorgte und dafür sorgte, dass Gauß 1788 das Martino-Katharineum Braunschweig besuchen konnte. Das elegante Verfahren, mit dem „der kleine Gauß“ die Lösung so rasch im Kopf errechnete, wird heute Gaußsche Summenformel genannt. Um die Summe einer arithmetischen Reihe, beispielsweise der natürlichen Zahlen von 1 bis 100, zu berechnen, werden hierbei Paare gleicher Teilsumme gebildet, zum Beispiel 50 Paare mit der Summe 101 (1 + 100, 2 + 99, …, 50 + 51), womit 5050 als Ergebnis rasch zu erhalten ist. Als der „Wunderknabe“ Gauß vierzehn Jahre alt war, wurde er dem Herzog Karl Wilhelm Ferdinand von Braunschweig vorgestellt. Dieser unterstützte ihn sodann finanziell. So konnte Gauß 1792–1795 am Collegium Carolinum in Braunschweig studieren, das zwischen höherer Schule und Hochschule anzusiedeln ist und der Vorgänger der heutigen Technischen Universität in Braunschweig ist. Dort war es der Professor Eberhard August Wilhelm von Zimmermann, der sein mathematisches Talent erkannte, ihn förderte und ihm ein väterlicher Freund wurde. Studienjahre Im Oktober 1795 wechselte Gauß an die Georg-August-Universität Göttingen. Dort hörte er bei Christian Gottlob Heyne Vorlesungen über Klassische Philologie, die ihn damals genauso wie die Mathematik interessierte. Letztere wurde durch Abraham Gotthelf Kästner, der zugleich Dichter war, repräsentiert. Bei Georg Christoph Lichtenberg hörte er im Sommersemester 1796 Experimentalphysik und sehr wahrscheinlich im folgenden Wintersemester Astronomie. In Göttingen schloss er Freundschaft mit Wolfgang Bolyai. Im Alter von 18 Jahren gelang es Gauß als Erstem, die Möglichkeit zur Konstruktion mit Zirkel und Lineal des regelmäßigen Siebzehnecks zu beweisen, und zwar auf Basis einer rein algebraischen Überlegung – eine sensationelle Entdeckung; denn seit der Antike hatte es auf diesem Gebiet kaum noch Fortschritte gegeben. Danach konzentrierte er sich auf das Studium der Mathematik, das er 1799 mit seiner Doktorarbeit an der Universität Helmstedt abschloss. Die Mathematik war vertreten durch Johann Friedrich Pfaff, der sein Doktorvater wurde. Und der Herzog von Braunschweig legte Wert darauf, dass Gauß nicht an einer „ausländischen“ Universität promoviert werden sollte. Ehen, Familie und Kinder Im November 1804 verlobte er sich mit der von ihm länger umworbenen Johanna Elisabeth Rosina Osthoff (* 8. Mai 1780; † 11. Oktober 1809), der Tochter eines Weißgerbers aus Braunschweig, und heiratete sie am 9. Oktober 1805. Am 21. August 1806 wurde in Braunschweig ihr erstes Kind geboren, Joseph Gauß († 4. Juli 1873). Seinen Vornamen bekam der Sohn nach Giuseppe Piazzi, dem Entdecker der Ceres, eines Kleinplaneten, dessen Wiederauffindung 1801 Gauß’ Bahnberechnung ermöglicht hatte. Schon bald nach dem Umzug der Familie nach Göttingen wurde am 29. Februar 1808 die Tochter Wilhelmine, genannt Minna, geboren, im folgenden Jahr am 10. September 1809 der Sohn Louis. Einen Monat danach, am 11. Oktober 1809, starb Johanna Gauß im Kindbett, Louis wenige Monate später am 1. März 1810. Durch den Tod Johannas fiel Gauß eine Zeit lang in eine Depression; aus dem Oktober 1809 stammt eine von Gauß verfasste bewegende Klage, die in seinem Nachlass gefunden wurde. Der Finder Carl August Gauß (1849–1927) war sein einziger in Deutschland geborener Enkel, Sohn von Joseph und Besitzer des Guts Lohne bei Hannover. Wilhelmine heiratete den Orientalisten Heinrich Ewald, der später als einer der Göttinger Sieben das Königreich Hannover verließ und Professor an der Universität Tübingen wurde. Am 4. August 1810 heiratete der Witwer, der zwei kleine Kinder zu versorgen hatte, Friederica Wilhelmine Waldeck (genannt Minna; * 15. April 1788; † 12. September 1831), Tochter des Göttinger Rechtswissenschaftlers Johann Peter Waldeck, die die beste Freundin seiner verstorbenen Frau gewesen war. Mit ihr hatte er drei Kinder. Eugen Gauß zerstritt sich als Student der Rechte mit seinem Vater und wanderte 1830 nach Amerika aus, wo er als Kaufmann lebte und die „First National Bank“ von St. Charles gründete. Wilhelm Gauß folgte Eugen 1837 in die Vereinigten Staaten und brachte es ebenfalls zu Wohlstand. Seine jüngste Tochter Therese Staufenau führte ihrem Vater nach dem Tod der Mutter bis zu seinem Tod den Haushalt. Minna Gauß war nach 13-jähriger Leidenszeit an Tuberkulose verstorben. Spätere Jahre Nach seiner Promotion lebte Gauß in Braunschweig von dem kleinen Gehalt, das ihm der Herzog zahlte, und arbeitete an seinen Disquisitiones Arithmeticae. Einen Ruf an die Petersburger Akademie der Wissenschaften lehnte Gauß aus Dankbarkeit gegenüber dem Herzog von Braunschweig ab, wohl auch in der Hoffnung, dass dieser ihm eine Sternwarte in Braunschweig bauen würde. Nach dem plötzlichen Tod des Herzogs nach der Schlacht bei Jena und Auerstedt wurde Gauß im November 1807 Professor an der Georg-August-Universität Göttingen und Direktor der Sternwarte Göttingen. Dort musste er Lehrveranstaltungen halten, gegen die er eine Abneigung entwickelte. Die praktische Astronomie wurde dort durch Karl Ludwig Harding vertreten, den mathematischen Lehrstuhl hatte Bernhard Friedrich Thibaut inne. Mehrere seiner Studenten wurden einflussreiche Mathematiker, darunter Richard Dedekind und Bernhard Riemann sowie der Mathematikhistoriker Moritz Cantor. In fortgeschrittenem Alter beschäftigte er sich zunehmend mit Literatur und war ein eifriger Zeitungsleser. Seine Lieblingsschriftsteller waren Jean Paul und Walter Scott. Er sprach fließend Englisch und Französisch und las, neben seiner Vertrautheit mit den klassischen Sprachen der Antike aus seiner Jugendzeit, mehrere moderne europäische Sprachen (Spanisch, Italienisch, Dänisch, Schwedisch), wobei er zuletzt noch Russisch lernte und sich versuchsweise mit Sanskrit befasste, das ihm aber nicht zusagte. Seit 1804 war er korrespondierendes Mitglied der Académie des sciences und ab 1820 associé étranger der Akademie. Ebenfalls 1804 wurde er Fellow der Royal Society und 1820 der Royal Society of Edinburgh. 1808 wurde er zum korrespondierenden und 1820 zum auswärtigen Mitglied der Bayerischen Akademie der Wissenschaften sowie 1822 in die American Academy of Arts and Sciences gewählt. Die Acadérnie royale de Bruxelles nahm ihn im Dezember 1841 als auswärtiges korrespondierendes Mitglied auf. 1838 erhielt er die Copley-Medaille der Royal Society. 1842 wurde er in die Friedensklasse des Ordens Pour le Mérite aufgenommen. Im selben Jahr lehnte er einen Ruf an die Universität Wien ab. 1845 wurde er Geheimer Hofrat und 1846 zum dritten Mal Dekan der Philosophischen Fakultät. 1849 feierte er sein Goldenes Doktorjubiläum und wurde Ehrenbürger von Braunschweig und Göttingen. Sein letzter wissenschaftlicher Austausch war über eine Verbesserung des Foucaultschen Pendels in einem Brief an Alexander von Humboldt 1853. Er sammelte numerische und statistische Daten aller Art und führte zum Beispiel Listen über die Lebenserwartung berühmter Männer (in Tagen gerechnet). So schrieb er am 7. Dezember 1853 an seinen Freund und Kanzler seines Ordens Alexander von Humboldt u. a.: „Es ist übermorgen der Tag, wo Sie, mein hochverehrter Freund, in ein Gebiet übergehen, in welches noch keiner der Koryphäen der exacten Wissenschaften eingedrungen ist, der Tag, wo Sie dasselbe Alter erreichen, in welchem Newton seine durch 30.766 Tage gemessene irdische Laufbahn geschlossen hat. Und Newtons Kräfte waren in diesem Stadium gänzlich erschöpft: Sie stehen zur höchsten Freude der ganzen wissenschaftlichen Welt noch im Vollgenuss Ihrer bewundernswürdigen Kraft da. Mögen Sie in diesem Genuss noch viele Jahre bleiben.“ Gauß interessierte sich für Musik, besuchte Konzerte und sang viel. Ob er ein Instrument spielte, ist nicht bekannt. Er befasste sich mit Aktienspekulation und hinterließ bei seinem Tod ein beträchtliches Vermögen von 170.000 Talern (bei einem Professoren-Grundgehalt von 1000 Talern jährlich) überwiegend in Wertpapieren, darunter vielfach von Eisenbahnen. Hierzu findet sich eine der wenigen Stellen im Briefwechsel, in denen er sich kritisch zur Politik und zu mit dieser kooperierenden Banken äußert; denn von ihm erworbene Eisenbahnaktien von Hessen-Darmstadt verloren drastisch an Wert, als bekannt wurde, dass die Eisenbahn jederzeit verstaatlicht werden konnte. Er war noch gegen Ende seines Lebens wissenschaftlich aktiv und hielt 1850/51 Vorlesungen über die Methode der kleinsten Quadrate. Zwei seiner bedeutendsten Schüler, Bernhard Riemann (der bei Gauß 1851 promoviert wurde und Gauß 1854 mit seinem Habilitationsvortrag über die Grundlagen der Riemannschen Geometrie stark beeindruckte) und Richard Dedekind, hatte er erst gegen Ende seiner Laufbahn. Gauß war sehr konservativ und monarchistisch eingestellt, die Deutsche Revolution 1848/1849 hieß er nicht gut. Tod Gauß litt in seinen letzten Jahren an Herzinsuffizienz (diagnostiziert als Wassersucht) und an Schlaflosigkeit. Im Juni 1854 reiste er mit seiner Tochter Therese Staufenau zur Baustelle der Eisenbahn von Hannover nach Göttingen, wobei die vorüberfahrende Eisenbahn die Pferde scheuen ließ und die Kutsche umwarf, der Kutscher wurde schwer verletzt, Gauß und seine Tochter blieben unverletzt. Gauß nahm noch an der Einweihung der Eisenbahnlinie am 31. Juli 1854 teil, danach war er durch Krankheit zunehmend auf sein Haus eingeschränkt. Er starb am 23. Februar 1855 morgens um 1:05 Uhr in Göttingen in seinem Lehnstuhl. Das Granitgrabmal im neugotischen Stil auf dem Göttinger Albani-Friedhof wurde erst im Januar 1859 aufgestellt und entstand nach einem Entwurf von 1856 des hannoverschen Architekten Heinrich Köhler durch den hannoverschen Bildhauer Carl Dopmeyer; das Bronzemedaillon schuf der Bildhauer Heinrich Hesemann. Das Grab galt bald und bis heute als Göttinger Sehenswürdigkeit, auch noch nachdem 1899 auf dem Stadtwall das Gauß-Krüger-Denkmal des Bildhauers Ferdinand Hartzer eingeweiht worden war. Leistungen Begründung und Beiträge zur nicht-euklidischen Geometrie Gauß misstraute bereits mit zwölf Jahren der Beweisführung in der elementaren Geometrie und ahnte mit sechzehn Jahren, dass es neben der Euklidischen Geometrie noch eine Nichteuklidische Geometrie geben musste. Diese Arbeiten vertiefte er in den 1820er Jahren: Unabhängig von János Bolyai und Nikolai Iwanowitsch Lobatschewski bemerkte er, dass Euklids Parallelenaxiom nicht denknotwendig ist. Seine Gedanken zur nichteuklidischen Geometrie veröffentlichte er jedoch nicht, nach den Berichten seiner Vertrauten vermutlich aus Furcht vor dem Unverständnis der Zeitgenossen. Als ihm sein Studienfreund Wolfgang Bolyai, mit dem er korrespondierte, allerdings von den Arbeiten seines Sohnes János Bolyai berichtete, lobte er ihn zwar, konnte es aber nicht unterlassen zu erwähnen, dass er selbst schon sehr viel früher darauf gekommen war („[die Arbeit Deines Sohnes] loben hiesse mich selbst loben“). Er habe darüber nichts veröffentlicht, da er „das Geschrei der Böotier scheue“. Lobatschewskis Arbeiten fand Gauß so interessant, dass er noch in fortgeschrittenem Alter die Russische Sprache lernte, um sie zu studieren. Primzahlverteilung und Methode der kleinsten Quadrate Mit 18 Jahren entdeckte er einige Eigenschaften der Primzahlverteilung und fand die Methode der kleinsten Quadrate, bei der es darum geht, die Summe der Quadrate von Abweichungen zu minimieren. Er sah vorläufig von einer Veröffentlichung ab. Nachdem Adrien-Marie Legendre 1805 seine „Méthode des moindres carrés“ in einer Abhandlung veröffentlicht hatte und Gauß seine Ergebnisse erst 1809 bekannt machte, entstand daraus ein Prioritätsstreit. Nach dieser Methode lässt sich etwa das wahrscheinlichste Ergebnis für eine neue Messung aus einer genügend großen Zahl vorheriger Messungen ermitteln. Auf dieser Basis untersuchte er später Theorien zur Berechnung von Flächeninhalten unter Kurven (numerische Integration), die ihn zur gaußschen Glockenkurve gelangen ließen. Die zugehörige Funktion ist bekannt als die Dichte der Normalverteilung und wird bei vielen Aufgaben zur Wahrscheinlichkeitsrechnung angewandt, wo sie die (asymptotische, das heißt für genügend große Datenmengen gültige) Verteilungsfunktion der Summe von zufällig um einen Mittelwert streuenden Daten ist. Gauß selbst machte davon unter anderem in seiner erfolgreichen Verwaltung der Witwen- und Waisenkasse der Göttinger Universität Gebrauch. Er stellte über mehrere Jahre eine gründliche Analyse an, in der er zu dem Schluss kam, dass die Pensionen leicht erhöht werden konnten. Damit legte Gauß auch Grundlagen in der Versicherungsmathematik. Einführung der elliptischen Funktionen Als 19-Jähriger führte er 1796, bei Betrachtungen über die Bogenlänge auf einer Lemniskate in Abhängigkeit von der Entfernung des Kurvenpunktes zum Ursprung, mit den lemniskatischen Sinusfunktionen die historisch ersten, heute so genannten elliptischen Funktionen ein. Seine Notizen darüber hat er jedoch nie veröffentlicht. Diese Arbeiten stehen in Zusammenhang mit seiner Untersuchung des arithmetisch-geometrischen Mittels. Die eigentliche Entwicklung der Theorie der elliptischen Funktionen, den Umkehrfunktionen der schon länger bekannten elliptischen Integrale, erfolgte durch Niels Henrik Abel (1827) und Carl Gustav Jacobi. Fundamentalsatz der Algebra, Beiträge zur Verwendung komplexer Zahlen Gauß erfasste früh den Nutzen komplexer Zahlen, so in seiner Doktorarbeit von 1799, die einen Beweis des Fundamentalsatzes der Algebra enthält. Dieser Satz besagt, dass jede algebraische Gleichung mit Grad größer als null mindestens eine reelle oder komplexe Lösung besitzt. Den älteren Beweis von Jean-Baptiste le Rond d’Alembert kritisierte Gauß als ungenügend, aber auch sein eigener Beweis erfüllt noch nicht die späteren Ansprüche an topologische Strenge. Gauß kam auf den Beweis des Fundamentalsatzes noch mehrfach zurück und gab neue Beweise 1815 und 1816. Gauß kannte spätestens 1811 die geometrische Darstellung komplexer Zahlen in einer Zahlenebene (gaußsche Zahlenebene), die schon Jean-Robert Argand 1806 und Caspar Wessel 1797 gefunden hatten. In dem Brief an Bessel, in dem er dies mitteilt, wurde auch deutlich, dass er weitere wichtige Konzepte der Funktionentheorie wie das Kurvenintegral im Komplexen und den Cauchyschen Integralsatz kannte und erste Ansätze zu Perioden von Integralen. Er veröffentlichte darüber aber nichts bis 1831, als er in seinem Aufsatz zur Zahlentheorie Theoria biquadratorum den Namen komplexe Zahl einführte. In der Veröffentlichung der Begründung der komplexen Analysis war ihm inzwischen Augustin-Louis Cauchy (1821, 1825) zuvorgekommen. 1849 veröffentlicht er zu seinem Goldenen Doktorjubiläum eine verbesserte Version seiner Dissertation zum Fundamentalsatz der Algebra, in der er im Gegensatz zur ersten Version explizit komplexe Zahlen benutzt. Beiträge zur Zahlentheorie Am 30. März 1796, einen Monat vor seinem neunzehnten Geburtstag, bewies er die Konstruierbarkeit des regelmäßigen Siebzehnecks und lieferte damit die erste nennenswerte Ergänzung euklidischer Konstruktionen seit 2000 Jahren. Dies war aber nur ein Nebenergebnis bei der Arbeit für sein zahlentheoretisch viel weiterreichendes Werk Disquisitiones Arithmeticae. Eine erste Ankündigung dieses Werkes fand sich am 1. Juni 1796 im Intelligenzblatt der Allgemeinen Literatur-Zeitung in Jena. Die 1801 erschienenen Disquisitiones wurden grundlegend für die weitere Entwicklung der Zahlentheorie, zu der einer seiner Hauptbeiträge der Beweis des quadratischen Reziprozitätsgesetzes war, das die Lösbarkeit von quadratischen Gleichungen „mod p“ beschreibt und für das er im Laufe seines Lebens fast ein Dutzend verschiedene Beweise fand. Neben dem Aufbau der elementaren Zahlentheorie auf modularer Arithmetik findet sich eine Diskussion von Kettenbrüchen und der Kreisteilung, mit einer berühmten Andeutung über ähnliche Sätze bei der Lemniskate und anderen elliptischen Funktionen, die später Niels Henrik Abel und andere anregten. Einen Großteil des Werks nimmt die Theorie der quadratischen Formen ein, deren Geschlechtertheorie er entwickelt. Es finden sich aber noch viele weitere tiefliegende Resultate, oft nur kurz angedeutet, in diesem Buch, die die Arbeit späterer Generationen von Zahlentheoretikern in vielfältiger Weise befruchteten. Der Zahlentheoretiker Peter Gustav Lejeune Dirichlet berichtete, er habe die Disquisitiones sein Leben lang bei der Arbeit stets griffbereit gehabt. Das Gleiche gilt für die beiden Arbeiten über biquadratische Reziprozitätsgesetze von 1825 und 1831, in denen er die gaußschen Zahlen einführt (ganzzahliges Gitter in komplexer Zahlenebene). Die Arbeiten sind wahrscheinlich Teil einer geplanten Fortsetzung der Disquisitiones, die aber nie erschien. Beweise für diese Gesetze gab dann Gotthold Eisenstein 1844. André Weil regte die Lektüre dieser Arbeiten (und einiger Stellen im Tagebuch, wo es in versteckter Form um Lösung von Gleichungen über endlichen Körpern geht) nach seinen eigenen Angaben zu seinen Arbeiten über die Weil-Vermutungen an. Gauß kannte zwar den Primzahlsatz, veröffentlichte ihn aber nicht. Gauß förderte auf diesem Gebiet eine der ersten Mathematikerinnen der Neuzeit, Sophie Germain. Gauß korrespondierte mit ihr ab 1804 über Zahlentheorie, wobei sie sich erst eines männlichen Pseudonyms bediente. Erst 1806 gab sie ihre weibliche Identität preis, als sie sich nach der Besetzung Braunschweigs bei dessen französischem Kommandanten für seine Sicherheit verwendete. Gauß lobte ihre Arbeit und ihr tiefes Verständnis der Zahlentheorie und bat sie, ihm für sein Preisgeld, das er mit dem Lalande-Preis erhielt, 1810 in Paris eine genaue Pendeluhr zu besorgen. Beiträge zur Astronomie Nach der Fertigstellung der Disquisitiones wandte sich Gauß der Astronomie zu. Anlass hierfür war die Entdeckung des Zwergplaneten Ceres durch Giuseppe Piazzi am 1. Januar 1801, dessen Position am Himmel der Astronom kurz nach seiner Entdeckung wieder verloren hatte. Der 24-jährige Gauß schaffte es, die Bahn mit Hilfe einer neuen indirekten Methode der Bahnbestimmung und seiner Ausgleichsrechnungen auf Basis der Methode der kleinsten Quadrate so zu berechnen, dass Franz Xaver von Zach ihn am 7. Dezember 1801 und – bestätigt – am 31. Dezember 1801 wiederfinden konnte. Heinrich Wilhelm Olbers bestätigte dies unabhängig von Zach durch Beobachtung am 1. und 2. Januar 1802. Das Problem der Wiederauffindung der Ceres als solches lag darin, dass durch die Beobachtungen weder der Ort, ein Stück der Bahn, noch die Entfernung bekannt sind, sondern nur die Richtungen der Beobachtung. Dies führt auf die Suche einer Ellipse und nicht nach einem Kreis, wie ihn Gauß’ Konkurrenten ansetzten. Einer der Brennpunkte der Ellipse ist bekannt (die Sonne selbst), und die Bögen der Bahn der Ceres zwischen den Richtungen der Beobachtung werden nach dem zweiten Keplerschen Gesetz durchlaufen, das heißt, die Zeiten verhalten sich wie die vom Leitstrahl überstrichenen Flächen. Außerdem ist für die rechnerische Lösung bekannt, dass die Beobachtungen selbst von einem Kegelschnitt im Raum ausgehen, der Erdbahn selbst. Im Grundsatz führt das Problem auf eine Gleichung achten Grades, deren triviale Lösung die Erdbahn selbst ist. Durch umfangreiche Nebenbedingungen und die von Gauß entwickelte Methode der kleinsten Quadrate gelang es dem 24-Jährigen, für die Bahn der Ceres für den 25. November bis 31. Dezember 1801 den von ihm berechneten Ort anzugeben. Damit konnte Zach am letzten Tag der Vorhersage Ceres wiederfinden. Der Ort lag nicht weniger als 7° (d. h. 13,5 Vollmondbreiten) östlich der Stelle, wo die anderen Astronomen Ceres vermutet hatten, was nicht nur Zach, sondern auch Olbers gebührend würdigte. Diese Arbeiten, die Gauß noch vor seiner Ernennung zum Sternwarten-Direktor in Göttingen unternahm, machten ihn mehr noch als seine Zahlentheorie in Europa mit einem Schlag bekannt und verschafften ihm unter anderem eine Einladung an die Akademie nach Sankt Petersburg, deren korrespondierendes Mitglied er 1802 wurde. Die in diesem Zusammenhang von Gauß gefundene iterative Methode wird noch heute angewandt, weil sie es einerseits ermöglicht, alle bekannten Kräfte ohne erheblichen Mehraufwand in das physikalisch-mathematische Modell einzubauen, und andererseits computertechnisch einfach handhabbar ist. Gauß beschäftigte sich danach noch mit der Bahn des Asteroiden Pallas, auf deren Berechnung die Pariser Akademie ein Preisgeld ausgesetzt hatte, konnte die Lösung jedoch nicht finden. Seine Erfahrungen mit der Bahnbestimmung von Himmelskörpern mündeten jedoch 1809 in seinem Werk Theoria motus corporum coelestium in sectionibus conicis solem ambientium. Beiträge zur Potentialtheorie In der Potentialtheorie und Physik ist der gaußsche Integralsatz (1835, veröffentlicht erst 1867) grundlegend. Er identifiziert in einem Vektorfeld das Integral der Divergenz (Ableitungsvektor angewandt auf das Vektorfeld) über ein Volumen mit dem Integral des Vektorfeldes über die Oberfläche dieses Volumens. Landvermessung und Erfindung des Heliotrops Auf dem Gebiet der Geodäsie sammelte Gauß zwischen 1797 und 1801 die ersten Erfahrungen, als er dem französischen Generalquartiermeister Lecoq bei dessen Landesvermessung des Herzogtums Westfalen als Berater zur Seite stand. 1816 wurde sein ehemaliger Schüler Heinrich Christian Schumacher vom König von Dänemark mit der Durchführung einer Breiten- und Längengradmessung in dänischem Gebiet beauftragt. Im Anschluss daran erhielt Gauss von 1820 bis 1826 die Leitung der Landesvermessung des Königreichs Hannover („gaußsche Landesaufnahme“), wobei ihm zeitweise sein Sohn Joseph assistierte, der in der Hannoverschen Armee als Artillerieoffizier tätig war. Diese Vermessung setzte die dänische auf hannoverschem Gebiet nach Süden fort, wobei Gauß die von Schumacher gemessene Braaker Basis mitbenutzte. Durch die von ihm erfundene Methode der kleinsten Quadrate und die systematische Lösung umfangreicher linearer Gleichungssysteme (gaußsches Eliminationsverfahren) gelang ihm eine erhebliche Steigerung der Genauigkeit. Auch für die praktische Durchführung interessierte er sich: Er erfand als Messinstrument das über Sonnenspiegel beleuchtete Heliotrop. Gaußsche Krümmung und Geodäsie In diesen Jahren beschäftigte er sich – angeregt durch die Geodäsie und die Karten-Theorie – mit der Theorie der Differentialgeometrie der Flächen, führte unter anderem die gaußsche Krümmung ein und bewies sein Theorema egregium. Dieses besagt, dass die gaußsche Krümmung, die durch die Hauptkrümmungen einer Fläche im Raum definiert ist, allein durch Maße der inneren Geometrie, d. h. durch Messungen innerhalb der Fläche, bestimmt werden kann. Daher ist die gaußsche Krümmung unabhängig von der Einbettung der Fläche in den dreidimensionalen Raum, sie ändert sich also bei längentreuen Abbildungen von Flächen aufeinander nicht. Aus diesem Grund kann keine maßstabsgetreue Weltkarte erstellt werden. Wolfgang Sartorius von Waltershausen berichtet, Gauß habe bei Gelegenheit der Hannoverschen Landesvermessung empirisch nach einer Abweichung der Winkelsumme besonders großer Dreiecke vom euklidischen Wert 180° gesucht – wie etwa bei dem von Gauß gemessenen planen Dreieck, das vom Brocken im Harz, dem Inselsberg im Thüringer Wald und dem Hohen Hagen bei Dransfeld gebildet wird. Max Jammer schrieb über diese gaußsche Messung und ihr Ergebnis: Der Winkelexzess in diesem Dreieck beträgt aufgrund der Größe der Erde nur 0,25 Winkelminuten. Die oben erwähnte Vermutung zur Motivation ist Gegenstand von Spekulationen. Magnetismus, Elektrizität und Telegrafie Zusammen mit Wilhelm Eduard Weber arbeitete er ab 1831 auf dem Gebiet des Magnetismus. Weber erfand mit Gauß 1833 eine elektromagnetische Telegraphenanlage mit einem Relais ähnlichen Prinzip, die seine Sternwarte mit dem physikalischen Institut über eine Entfernung von 1100 Metern verband. Dabei verwendeten sie der Telegrafie angepasste Galvanometer und Magnetometer und entwickelten mehrere Versionen. Der Leiter bestand aus zwei Kupferdrähten (später Eisendrähte), die jeweils zwei Spulen miteinander verbanden: eine in Webers Kabinett und eine in der Sternwarte von Gauß. Beide Spulen waren locker um einen Magnetstab gewickelt und konnten entlang des Stabes bewegt werden. Das zwei Jahre zuvor entdeckte Prinzip der elektromagnetischen Induktion löste bei einer Bewegung der Sender-Spule, die um einen Stabmagneten gewickelt war, einen Stromstoß aus, der über den Draht zur anderen Spule geleitet und dort wieder in Bewegung übersetzt wurde. Das Ausschlagen des in einem Holzrahmen befestigten Stabmagneten mit Spule beim Empfänger (das ein Relais oder Magnetometer bzw. Spiegelgalvanometer ähnliches Prinzip darstellte) wurde dabei durch ein System von Spiegeln und Fernrohren vergrößert und sichtbar gemacht. Buchstaben wurden über einen Binärcode dargestellt, der der Stromrichtung entsprach (der Spiegel im Empfänger wurde jeweils nach links oder rechts gedreht). Die erste Nachricht war wahrscheinlich Wissen vor meinen, Sein vor scheinen – diese Nachricht fand sich in den Aufzeichnungen von Gauß in Binärcode. Nach anderen Quellen kündigten sie die Ankunft eines Dieners an, der sonst die Botschaften überbrachte (Michelmann kommt). Bereits zwei Jahre vor Gauß und Weber entwickelte Joseph Henry und ein Jahr vor Gauß und Weber entwickelte Paul Ludwig Schilling von Cannstatt eine elektromagnetische Telegrafieapparatur, es kam bei beiden aber zu keiner Anwendung über längere Strecken und er fand auch keine größere Aufmerksamkeit. 1845 wurde die Anlage von Gauß und Weber durch einen Blitzschlag zerstört, wobei auch der Hut einer Dame in Brand geriet. Ein Stall, an dem die Leitung vorbeiging, blieb aber verschont, was ansonsten einen möglichen Stadtbrand ausgelöst haben könnte. Die kommerzielle Anwendung erfolgte aber durch andere, insbesondere durch Samuel Morse in den USA einige Jahre nach der Erfindung von Gauß und Weber. Gauß sah aber die Möglichkeiten der Anwendung zum Beispiel im großräumigen russischen Reich und für die Eisenbahn und sie verfassten ein entsprechendes Memorandum, was sich in Deutschland aber damals wegen der Kosten für die Leitungen nicht realisierte. Obwohl sie darüber auch veröffentlichten, geriet auch die Telegrafenerfindung von Gauß und Weber in den Jahren darauf fast in Vergessenheit und andere reklamierten die Erfindung für sich. Mit Weber zusammen entwickelte er das CGS-Einheitensystem, das 1881 auf einem internationalen Kongress in Paris zur Grundlage der elektrotechnischen Maßeinheiten bestimmt wurde. Er organisierte ein weltweites Netz von Beobachtungsstationen (Magnetischer Verein), um das erdmagnetische Feld zu vermessen. Gauß fand bei seinen Experimenten zur Elektrizitätslehre 1833 vor Gustav Robert Kirchhoff (1845) die Kirchhoffschen Regeln für Stromkreise. Sonstiges Von ihm stammt die Gaußsche Osterformel zur Berechnung des Osterdatums, und er entwickelte auch eine Pessach-Formel. Arbeitsweise von Gauß Gauß arbeitete auf vielen Gebieten, veröffentlichte seine Ergebnisse jedoch erst, wenn eine Theorie seiner Meinung nach vollständig war. Dies führte dazu, dass er Kollegen gelegentlich darauf hinwies, dieses oder jenes Resultat schon lange bewiesen zu haben, es wegen der Unvollständigkeit der zugrundeliegenden Theorie oder der ihm fehlenden, zum schnellen Arbeiten nötigen Unbekümmertheit nur noch nicht präsentiert zu haben. Bezeichnenderweise besaß Gauß ein Petschaft, das einen von wenigen Früchten behangenen Baum mit dem Motto Pauca sed Matura („Weniges, aber Reifes“) zeigte. Einer Anekdote zufolge lehnte er es gegenüber Bekannten, die um Gauß’ umfangreiche Arbeiten wussten, ab, diesen Wahlspruch zu ersetzen, z. B. durch Multa nec immatura („Vieles, aber nicht Unreifes“), da er nach seinem Bekunden lieber eine Entdeckung einem anderen überließ, als sie nicht vollständig ausgearbeitet unter seinem Namen zu veröffentlichen. Das ersparte ihm Zeit in den Bereichen, die Gauß eher als Randthemen betrachtete, so dass er diese Zeit auf seine originäre Arbeit verwenden konnte. Gauß’ wissenschaftlicher Nachlass wird in den Spezialsammlungen der Niedersächsischen Staats- und Universitätsbibliothek Göttingen aufbewahrt. Sonstiges Nach seinem Tod wurde das Gehirn entnommen. Es wurde mehrfach, zuletzt 1998, mit verschiedenen Methoden untersucht, aber ohne einen besonderen Befund, der seine mathematischen Fähigkeiten erklären würde. Es befindet sich heute separat, in Formalin konserviert, in der Abteilung für Ethik und Geschichte der Medizin der Medizinischen Fakultät der Universität Göttingen. Im Herbst 2013 wurde an der Universität Göttingen eine Verwechslung aufgedeckt: Die zu diesem Zeitpunkt über 150 Jahre alten Gehirnpräparate des Mathematikers Gauß und des Göttinger Mediziners Conrad Heinrich Fuchs sind – wahrscheinlich schon bald nach der Entnahme – vertauscht worden. Beide Präparate wurden in der Anatomischen Sammlung der Göttinger Universitätsklinik in Gläsern mit Formaldehyd aufbewahrt. Das Originalgehirn von Gauß befand sich im Glas mit der Aufschrift „C. H. Fuchs“, und das Fuchs-Gehirn war etikettiert mit „C. F. Gauss“. Damit sind die bisherigen Untersuchungsergebnisse über das Gehirn von Gauß obsolet. Die Wissenschaftlerin Renate Schweizer befasste sich wegen der vom vermeintlichen Gehirn von Gauß angefertigten MRT-Bilder, die eine seltene Zweiteilung der Zentralfurche zeigten, erneut mit den Präparaten und entdeckte, dass diese Auffälligkeit in Zeichnungen, die kurz nach Gauß’ Tod erstellt worden waren, fehlte. Gauß als Namensgeber Von Gauß entwickelte Methoden oder Ideen, die seinen Namen tragen, sind: Gaußsches Eliminationsverfahren zur Diagonalisierung und Invertierung von Matrizen und damit zur Lösung von linearen Gleichungssystemen Fehlerfortpflanzung, eine Aussage über die Auswirkung von Unsicherheiten einwirkender auf abgeleitete Größen Fehlerintegral, das Integral der gaußschen Normalverteilung Gaußscher Integralsatz, der einen Zusammenhang zwischen der Divergenz eines Vektorfelds und dem durch das Feld vorgegebenen Fluss durch eine geschlossene Oberfläche herstellt Gaußsches Gesetz der Elektrostatik, nach dem der elektrische Fluss durch eine geschlossene Oberfläche proportional zur umschlossenen Ladung ist Gaußsche Krümmung, ein zentraler Krümmungsbegriff in der Differentialgeometrie Gaußsche Osterformel zur Berechnung des Osterdatums Gaußsche Pessach-Formel zur Berechnung des Datums des jüdischen Pessach-Festes Gaußsche Wochentagsformel zur Berechnung eines Wochentages anhand eines Datums Gaußsche Trapezformel zur Berechnung einer Fläche aus Koordinaten durch Zerlegung in Dreiecke bzw. Trapeze Prinzip des kleinsten Zwanges in der Mechanik, nach dem sich ein mechanisches System so bewegt, dass der Zwang minimiert wird. Gauß-Quadratur, ein numerisches Integrationsverfahren, bei dem die Stützstellen (Gaußpunkte) und Gewichte optimal gewählt werden Normalengleichungen, ein quadratisches Gleichungssystem, deren Lösung die Kleinste-Quadrate-Lösung darstellt Normalverteilung, auch gaußsche Glockenkurve, oder Gauß-Verteilung genannt (die Glockenkurve schmückte, neben dem Porträt von Carl Friedrich Gauß platziert, von 1989 bis 2001 die letzte 10-DM-Banknote der Bundesrepublik Deutschland) Gaußsche Zahl, eine Erweiterung der ganzen Zahlen auf die komplexen Zahlen Gaußsche Zahlenebene als geometrische Deutung der Menge der komplexen Zahlen Gaußklammer, eine Funktion, die Zahlen auf die nächstkleinere ganze Zahl abrundet Gauß-Prozess, ein stochastischer Prozess, deren endlichdimensionale Verteilungen Normalverteilungen sind Lemma von Gauß, ein Schritt in einem seiner Beweise des Quadratischen Reziprozitätsgesetzes Gaußsche Summenformel, auch „kleiner Gauß“ genannt, eine Formel für die Summe der ersten natürlichen Zahlen Gaußsche Summe, ein bestimmter Typ einer endlichen Summe von Einheitswurzeln Satz von Gauß-Markow über die Existenz eines besten linearen erwartungstreuen Schätzers innerhalb der Klasse der linearen erwartungstreuen Schätzfunktionen Methoden und Ideen, die teilweise auf seinen Arbeiten beruhen, sind: Satz von Gauß-Bonnet in der Differentialgeometrie Gauß-Elling-Verfahren, ein Verfahren zur Flächenberechnung nach Koordinaten Gauß-Jordan-Algorithmus, eine Weiterentwicklung des gaußschen Eliminationsverfahrens Gauß-Helmert-Modell, der Allgemeinfall der Ausgleichungsrechnung Gaußsche hypergeometrische Funktion, die Lösung der hypergeometrischen Differentialgleichung ist. Gauß-Krüger-Koordinatensystem und die Gauß-Krüger-Projektion Gaußsche Optik, eine mathematische Beschreibung der Ausbreitung von Laserlicht Gauß-Newton-Verfahren, ein Verfahren zur Lösung nichtlinearer Gleichungen Gauß-Seidel-Verfahren, ein Verfahren zur Lösung von linearen Gleichungssystemen Gauß-Laplace-Pyramide, auch Burt-Adelson-Pyramiden oder Gauß- und Laplacepyramide Gauß-Weingarten-Gleichungen, System partieller Differentialgleichungen aus der Differentialgeometrie Gaußgewehr, Geschütz, das ein ferromagnetisches Projektil mittels (Elektro-)Magneten beschleunigt, ähnlich Linearmotor Zu seinen Ehren benannt sind: Wissenschaft und Technik Gauß (Einheit), die veraltete cgs-Einheit der magnetischen Flussdichte im gaußschen Einheitensystem Gaußsches Einheitensystem Gaußsche Gravitationskonstante Gaußsche Polaritätszone Forschungsschiffe Gauß (Schiff, 1901) Gauss (Schiff, 1941) Gauss (Schiff, 1980) Gauß-Professur an der Georg-August-Universität Göttingen Carl-Friedrich-Gauß-Fakultät für Mathematik, Informatik, Wirtschafts- und Sozialwissenschaften der TU Braunschweig Gauss Centre for Supercomputing, Zusammenschluss von drei deutschen Supercomputing-Zentren (FZJ, LRZ, HLRZ) Natur Gaußberg im Kaiser-Wilhelm-II.-Land in der Antarktis Mount Gauss im Viktorialand in der Antarktis Gaußberg (Braunschweig), Grünanlage Gauss (Mondkrater) (1001) Gaussia, Asteroid Gaussia (Gattung) aus der Familie der Palmen (Arecaceae) Gebäude Gauß-Museum, umgestaltetes Geburtshaus in Braunschweig Gaußturm auf dem Hohen Hagen bei Dransfeld zahlreiche Schulen in Deutschland und aller Welt Gauß IT Zentrum der TU Braunschweig Gauß-Haus auf dem Hainberg bei Göttingen Haus Gauß der Berliner Hochschule für Technik Software GAUSS (Software), Numerikprogramm GAUSSIAN, Computerchemieprogramm Ehrungen Carl-Friedrich-Gauß-Medaille der Braunschweigischen Wissenschaftlichen Gesellschaft Gauß-Medaille der Akademie der Wissenschaften der DDR Gauß-Vorlesung der Deutschen Mathematiker-Vereinigung zu Facetten der Mathematik aus historischer und aktueller Perspektive (einmal pro Semester seit 2001 an wechselndem Ort) Schriften Demonstratio nova theorematis omnem functionem algebraicam rationalem integram unius variabilis in factores reales primi vel secundi gradus resolvi posse (Neuer Beweis des Satzes, dass jede algebraische rationale ganze Funktion einer Veränderlichen in reelle Faktoren des ersten oder zweiten Grades zerlegt werden kann). C. G. Fleckeisen, Helmstadii (Helmstedt) 1799 (lateinisch; Doktorarbeit über den Fundamentalsatz der Algebra; bei der HU Berlin; auch in: Gauß: Werke. Band 3. S. 3–30, dito, dito). Disquisitiones Arithmeticae (Arithmetische Untersuchungen). Gerhard Fleischer jun., Lipsiae (Leipzig) 1801 (lateinisch; auch in: Gauß: Werke. Band 1. Zweiter Abdruck; ). Theoria motus corporum coelestium in sectionibus conicis solem ambientium (Theorie der Bewegung der Himmelskörper, die in Kegelschnitten die Sonne umlaufen). F. Perthes und I. H. Besser, Hamburgi (Hamburg) 1809 (lateinisch; auch in: Gauß: Werke. Band 7. S. 1–261). Carl Friedrich Gauss, Disquisitio de elementis ellipticis Palladis, 1810. Disquisitiones generales circa seriem infinitam etc. Pars I. (Allgemeine Untersuchungen über die unendliche Reihe 1+… Teil I; 30. Januar 1812), Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 2 (classis mathematicae), 1813, S. 3–46 (lateinisch; auch in: Gauß: Werke. Band 3. S. 123–162, dito, dito). Theoria combinationis observationum erroribus minimis obnoxiae (Theorie der den kleinsten Fehlern unterworfenen Kombination der Beobachtungen). Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 5 (classis mathematicae), 1823, und Dieterich, Gottingae (Göttingen) 1823 (lateinisch; bei Google Books). Pars prior. (Erster Teil; 15. Februar 1821), S. 33–62 (auch in: Gauß: Werke. Band 4. S. 3–26). Pars posterior. (Zweiter Teil; 2. Februar 1823), S. 63–90 (auch in: Gauß: Werke. Band 4. S. 27–53). Theoria residuorum biquadratorum (Theorie der biquadratischen Reste). Lateinisch. Commentatio prima. (Erste Abhandlung; 5. April 1825), Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 6 (classis mathematicae), 1828, S. 27–56 (auch in: Gauß: Werke. Band 2. S. 67–92). Commentatio secunda. (Zweite Abhandlung; 15. April 1831), Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 7 (classis mathematicae), 1832, S. 89–148 (auch in: Gauß: Werke. Band 2. S. 95–148; . Anzeige von Theoria residuorum biquadraticorum, commentatio secunda. In: Göttingische gelehrte Anzeigen. 23. April 1831, S. 169–178. Digitalisat und Volltext im Deutschen Textarchiv). Supplementum theoriae combinationis observationum erroribus minimis obnoxiae. (Ergänzung zur Theorie der den kleinsten Fehlern unterworfenen Kombination der Beobachtungen). 16. September 1826, Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 6 (classis mathematicae), 1828, S. 57–98 (lateinisch; auch in: Gauß: Werke. Band 4. S. 55–93). Disquisitiones generales circa superficies curvas. (Allgemeine Untersuchungen über gekrümmte Flächen). 8. Oktober 1827, Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 6 (classis mathematicae), 1828, S. 99–146, und Dieterich, Gottingae (Göttingen) 1828 (lateinisch; mit dem Theorema egregium auf S. 120 oder S. 24; bei Google Books; auch in: Gauß: Werke. Band 4. S. 219–258). Principia generalia theoriae figurae fluidorum in statu aequilibrii. (Allgemeine Grundlagen einer Theorie der Gestalt von Flüssigkeiten im Zustand des Gleichgewichts). 28. September 1829, Commentationes Societatis Regiae Scientiarum Gottingensis recentiores 7 (classis mathematicae), 1832, S. 39–88, und Dieterich, Gottingae (Göttingen) 1830 (lateinisch; bei Google Books; auch in: Gauß: Werke. Band 5. S. 31–77). Mit Wilhelm Weber (Hrsg.): Resultate aus den Beobachtungen des magnetischen Vereins im Jahre 1836–1841. Weidmannsche Buchhandlung, Leipzig 1837–1843. 1836–1838: / 1839–1841: . Mit Wilhelm Weber (Hrsg.): Atlas des Erdmagnetismus. Nach den Elementen der Theorie entworfen. Weidmann’sche Buchhandlung, Leipzig 1840 (bei Google Books; auch in: Gauß: Werke. Band 12. S. 335–408). Dioptrische Untersuchungen. (10. Dezember 1840), Abhandlungen der Mathematischen Classe der Königlichen Gesellschaft der Wissenschaften zu Göttingen 1, 1843, S. 1–34 (bei Google Books), und Dieterich, Göttingen 1841 (bei Gallica; auch in: Gauß: Werke. Band 5. S. 245–276). Allgemeine Lehrsätze in Beziehung auf die im verkehrten Verhältnis des Quadrats der Entfernung wirkenden Anziehungs- und Abstoßungskräfte. Leipzig 1840. Digitalisat und Volltext im Deutschen Textarchiv. Untersuchungen über Gegenstände der höhern Geodaesie. Erste Abhandlung. (23. Oktober 1843), Abhandlungen der Mathematischen Classe der Königlichen Gesellschaft der Wissenschaften in Göttingen 2, 1845, S. 3–34 (auch in: Gauß: Werke. Band 4. S. 261–290). Untersuchungen über Gegenstände der höhern Geodäsie. Zweite Abhandlung. (1. September 1846), Abhandlungen der Mathematischen Classe der Königlichen Gesellschaft der Wissenschaften in Göttingen 3, 1847, S. 3–35 (auch in: Gauß: Werke. Band 4. S. 303–334). Theodor Wittstein (Hrsg.); Allgemeines Koordinaten-Verzeichniss als Ergebnis der Hannoverschen Landesvermessung aus den Jahren 1821 bis 1844. Abgedruckt zum Zwecke der Benutzung bei den Vermessungsarbeiten zur Vorbereitung der anderweiten Regelung der Grundsteuer. Druck von Wilh. Riemschneider, Hannover 1868; Digitalisat der SUB Göttingen Briefwechsel und Tagebuch Christian August Friedrich Peters (Hrsg.): Briefwechsel zwischen C. F. Gauss und H. C. Schumacher. Gustav Esch, Altona 1860–1865 (bei Google Books: Band 1, 1+2, 2, 3+4, 3+4, 5+6). Karl Christian Bruhns (Hrsg.): Briefe zwischen A. v. Humboldt und Gauss. Wilhelm Engelmann, Leipzig 1877 (im Internet-Archiv, dito, dito, dito). Arthur Auwers (Hrsg.): Briefwechsel zwischen Gauss und Bessel. Wilhelm Engelmann, Leipzig 1880 (im Internet-Archiv). Franz Schmidt, Paul Stäckel (Hrsg.): Briefwechsel zwischen Carl Friedrich Gauss und Wolfgang Bolyai. B. G. Teubner, Leipzig 1899 (bei der University of Michigan; im Internet-Archiv). Briefwechsel zwischen Olbers und Gauss, in: Carl Schilling (Hrsg.): Wilhelm Olbers. Sein Leben und seine Werke. Zweiter Band, (2 Abteilungen), Julius Springer, Berlin 1900–1909 (im Internet-Archiv: Abtheilung 1, 2, 2). Clemens Schaefer (Hrsg.): Briefwechsel zwischen Carl Friedrich Gauß und Christian Ludwig Gerling. Otto Elsner, Berlin 1927. Mathematisches Tagebuch 1796–1814. (5. Auflage), Harri-Deutsch-Verlag, Frankfurt am Main 2005, ISBN 3-8171-3402-9 (mit Anmerkungen von Hans Wußing und Olaf Neumann). Faksimile des Tagebuchs. Jeremy Gray: A commentary on Gauss’s mathematical diary, 1796–1814. Expositiones Mathematicae 2, 1984, S. 97–130 (englisch). Von Johann Georg von Soldner sind aus dem Nachlass von Carl Friedrich Gauß in der Niedersächsischen Staats- und Universitätsbibliothek in Göttingen zehn Schreiben aus der Zeit vom 15. Dezember 1814 bis zum 26. Dezember 1823 erhalten. Gesamtausgabe Carl Friedrich Gauß: Werke. Herausgegeben von der (Königlichen) Gesellschaft der Wissenschaften zu Göttingen. Band 1 bis 6, Dieterich, Göttingen 1863–1874 (bei Google Books: Band 2, 3, 3, 3, 5; im Internet-Archiv: Band 4, 4, 6), zweiter Abdruck 1870–1880 (im Internet-Archiv: Band 1, 2, 2, 3, 3, 4, 5, 5). Band 7 bis 12, B. G. Teubner, Leipzig 1900–1917, Julius Springer, Berlin 1922–1933 (im Internet-Archiv: Band 7, 9, 10.2(1+5), 10.2(4)). In den Bänden 10 und 11 finden sich ausführliche Kommentare von Paul Bachmann (Zahlentheorie), Ludwig Schlesinger (Funktionentheorie), Alexander Ostrowski (Algebra), Paul Stäckel (Geometrie), Oskar Bolza (Variationsrechnung), Philipp Maennchen (Gauß als Rechner), Harald Geppert (Mechanik, Potentialtheorie), Andreas Galle (Geodäsie), Clemens Schaefer (Physik) und Martin Brendel (Astronomie). Herausgeber war zuerst Ernst Schering, dann Felix Klein. Übersetzungen Recherches générales sur les surfaces courbes. Bachelier, Paris 1852 (französische Übersetzung von Disquisitiones generales circa superficies curvas. 1828; bei Gallica). Méthode des moindres carrés. Mallet-Bachelier, Paris 1855 (französische Übersetzung von Theoria combinationis observationum erroribus minimis obnoxiae. 1823/1828, und weiteren von Joseph Bertrand; bei Google Books, dito). Theory of the Motion of the Heavenly Bodies Moving about the Sun in Conic Sections. Little, Brown and Company, Boston 1857 (englische Übersetzung von Theoria motus corporum coelestium in sectionibus conicis solem ambientium. 1809, von Charles Henry Davis); Google Books / Google Books – / / . Carl Haase (Hrsg.): Theorie der Bewegung der Himmelskörper, welche in Kegelschnitten die Sonne umlaufen. Carl Meyer, Hannover 1865 (deutsche Übersetzung von Theoria motus corporum coelestium in sectionibus conicis solem ambientium. 1809, von Carl Haase; . Faksimile-Reprint: Verlag Kessel, 2009, ISBN 978-3-941300-13-2). Anton Börsch, Paul Simon (Hrsg.): Abhandlungen zur Methode der kleinsten Quadrate von Carl Friedrich Gauss. P. Stankiewicz, Berlin 1887 (deutsche Übersetzung von Theoria combinationis observationum erroribus minimis obnoxiae. 1823/1828, und weiteren; im Internet-Archiv). Heinrich Simon (Hrsg.): Allgemeine Untersuchungen über die unendliche Reihe u.s.w. Julius Springer, Berlin 1888 (deutsche Übersetzung von Disquisitiones generales circa seriem infinitam 1+… 1813, von Heinrich Simon; ). Hermann Maser (Hrsg.): Carl Friedrich Gauss’ Untersuchungen über höhere Arithmetik. Julius Springer, Berlin 1889 (deutsche Übersetzung von Disquisitiones Arithmeticae. 1801, und weiteren; im Internet-Archiv); Faksimile-Reprint Verlag Kessel, 2009, ISBN 978-3-941300-09-5. Albert Wangerin (Hrsg.): Allgemeine Flächentheorie (Disquisitiones generales circa superficies curvas). Wilhelm Engelmann, Leipzig 1889 (deutsche Übersetzung; bei der University of Michigan; im Internet-Archiv, dito). Eugen Netto (Hrsg.): Die vier Gauss’schen Beweise für die Zerlegung ganzer algebraischer Funktionen in reelle Factoren ersten oder zweiten Grades (1799–1849). Wilhelm Engelmann, Leipzig 1890 (deutsche Übersetzung der Doktorarbeit, 1799, und weiterer Arbeiten; bei der University of Michigan; im Internet-Archiv, dito, dito). Eugen Netto (Hrsg.): Sechs Beweise des Fundamentaltheorems über quadratische Reste von Carl Friedrich Gauss. Wilhelm Engelmann, Leipzig 1901 (deutsche Übersetzung aus Disquisitiones Arithmeticae. 1801, und weiteren mit Anmerkungen; bei der University of Michigan; im Internet-Archiv, dito, dito, dito). General investigations of curved surfaces of 1827 and 1825. The Princeton University Library, 1902 (englische Übersetzung von Disquisitiones generales circa superficies curvas. 1828, und Neue allgemeine Untersuchungen über die krummen Flächen. 1900, von James Caddall Morehead und Adam Miller Hiltebeitel; bei der University of Michigan; im Internet-Archiv, dito). Heinrich Weber (Hrsg.): Allgemeine Grundlagen einer Theorie der Gestalt von Flüssigkeiten im Zustand des Gleichgewichts. Wilhelm Engelmann, Leipzig 1903 (deutsche Übersetzung von Principia generalia theoriae figurae fluidorum in statu aequilibrii. 1830, von Rudolf Heinrich Weber; im Internet-Archiv, dito). Kartenwerke August Papen: Topographischer Atlas des Königreichs Hannover und Herzogthums Braunschweig, nach einem Maasstabe von 1/100.000 der wahren Länge, auf den Grund der von dem Geheimen Hofrath Gauss geleiteten vollständigen Triangulirung, aus den grossen topographischen Landes Aufnahmen und mehreren anderen Vermessungen reducirt und bearbeitet von A. Papen. Hannover 1832–1847. Denkmäler Statuen und Plastiken Gauß-Denkmal von 1879 für Braunschweig am Gaußberg nach Entwurf von Fritz Schaper, ausgeführt von Hermann Heinrich Howaldt. Gauß-Weber-Denkmal in Göttingen (Wallanlage/Bürgerstraße) von 1899, das Gauß zusammen mit Wilhelm Weber zeigt und deren Beteiligung an der Erfindung des elektrischen Telegraphen 1833 (der Draht des Telegraphen in der Hand von Gauß ist heute nicht mehr vorhanden). Künstler war Ferdinand Hartzer. Gauß-Statuette aus Gips, im Besitz der Sternwarte Göttingen. Am 12. September 2007 wurde eine von Georg Arfmann geschaffene Gauß-Büste in der Gedenkstätte Walhalla enthüllt. Gauß-Denkmal in Berlin, Bronze-Sitzbild, Künstler Gerhard Janensch, 1898 (ehemals auf der Viktoria-Brücke (heute Potsdamer Brücke) in Tiergarten, Kriegsverlust, nicht erneuert). Schriftliche Erinnerungskultur Auf der Vorderseite der 10-DM-Banknote der vierten Serie der Deutschen Mark von 1993 ist eine Abbildung Gauß’ zusammen mit einer Darstellung der Glockenkurve und wichtiger Gebäude Göttingens zu finden. Auf der Rückseite sieht man den von ihm erfundenen Vize-Heliotrop sowie einen Ausschnitt der von ihm durchgeführten Triangulation des Gebietes um die Wesermündung, Butjadingens, des Jadebusens und Wangerooges. An ihn erinnern ebenso zwei Sondermünzen, die 1977 aus Anlass seines 200. Geburtstages in der Bundesrepublik Deutschland (5 DM) und in der DDR (20 M) herausgegeben wurden. In Deutschland erinnern drei Briefmarken an Gauß: 1955 gab die Deutsche Bundespost aus Anlass seines 100. Todestages eine 10-Pf-Briefmarke heraus; 1977 erinnerte die DDR mit einer 20-Pf-Briefmarke an den 200. Geburtstag, ebenso die Deutsche Bundespost mit einer 40-Pf-Briefmarke. Gedenktafel am Standort des Geburtshauses Wilhelmstraße 30 in Braunschweig. Drei Göttinger Gedenktafeln. Zwei Gedenktafeln am ehemaligen Wohnhaus von Gauß’ Doktorvater Johann Friedrich Pfaff in Helmstedt. 1977 auf einer 5 DM Gedenkmünze zum 200. Geburtstag Carl Friedrich Gauss, Auflage 8.000.000 Stck, 250.000 Stck in Spiegelglanz Ausgabe April 1977 Gaußsteine Zu den zahlreichen auf Anleitung von Gauß aufgestellten Vermessungssteinen gehören: Gauß-Stein auf dem Göttinger Lauseberg als Erinnerung an die hannoversche Landvermessung von 1828 bis 1844 Gauß-Stein auf dem Kleperberg Gauß-Stein auf der Höhe 92,2 m, der höchsten Erhebung des Brelinger Berges (nördlich Hannover, Wedemark), die Gauß als Messpunkt diente die Gaußsteine am Rand des Dasseler Beckens Bildnisse Von Gauß gibt es relativ viele Bildnisse, unter anderem: 17?? Silhouette aus den Jugendjahren 1803 Porträt (Ölgemälde) von Johann Christian August Schwarz (1755/56–1814) 1810 Büste von Friedrich Künkler 18?? Zeichnung von Johann Benedict Listing (1808–1882) 1828 Lithografie von Siegfried Detlev Bendixen (1786–1864) 1840 Ölgemälde des dänischen Malers Christian Albrecht Jensen. Ort: Sternwarte Pulkowa in St. Petersburg 18?? Lithografie von Eduard Ritmüller (1805–1869) Gauss auf der Terrasse der Göttinger Sternwarte 1850 Altersbildnis 1 (Stahlstich?) 1854 Altersbildnis 2 (Stahlstich?) 1855 Daguerreotypie auf dem Totenbett von Philipp Petri (1800–1868) 1887 Kopie des Porträts von Jensen (1840) von Gottlieb Biermann (1824–1908). Ort: Hörsaal der Göttinger Sternwarte Belletristische und filmische Darstellungen Daniel Kehlmann: Die Vermessung der Welt. (Roman), Rowohlt, Reinbek bei Hamburg 2005, ISBN 3-498-03528-2. Marco Theuerkauf: Meilensteine der Geowissenschaften. DVD. Drehbuch Jens Jacobsen. Kamera: Peter Bartos. Sprecher: Gert Heidenreich; 60 Min. Hrsg. P. M. Die Wissensedition Reihe: Meilensteine, 9. München 2007. Detlev Buck: Die Vermessung der Welt. 2012 (Verfilmung des gleichnamigen Romans von Daniel Kehlmann). Literatur Wolfgang Sartorius von Waltershausen: Gauss zum Gedächtniss. S. Hirzel, Leipzig 1856; . Neuauflage: Edition am Gutenbergplatz Leipzig, Leipzig 2012, ISBN 978-3-937219-57-8 (Hrsg. Karin Reich). Felix Klein: Gauß. Erstes Kapitel der Vorlesungen über die Entwicklung der Mathematik im 19. Jahrhundert. Julius Springer, Berlin 1926, S. 6–62 (Reprint: Springer-Verlag, Berlin / Heidelberg / New York 1979, ISBN 3-540-09234-X). Ludwig Bieberbach: Carl Friedrich Gauß. Ein deutsches Gelehrtenleben. Keil-Verlag, Berlin 1938. Wilhelm Blaschke: Über die Differenzialgeometrie von Gauß. In: Jahresbericht der DMV, 52, 1942, S. 61–71. Waldo Dunnington, Jeremy Gray, Fritz-Egbert Dohse: Gauß – Titan of Science. The Mathematical Association of America, 2004. (Engl.) ISBN 978-0-88385-547-8. (Ursprünglich von Dunnington 1955 veröffentlicht. Dunnington trug viel Material zusammen.) Hans Reichardt (Hrsg.): C. F. Gauß: Gedenkband anläßlich des 100. Todestages am 23. Februar 1955. B. G. Teubner, Leipzig 1957 (mit Beiträgen von Kähler, H. Salié, Georg Johann Rieger, Kochendörffer, Blaschke, Klingenberg, Markuschewitsch, K. Schröder, Gnedenko und Falkenhagen). Mitteilungen der Gauß-Gesellschaft Göttingen. seit 1964, Inhaltsverzeichnis. Elmar Mittler (Hrsg.): „Wie der Blitz einschlägt, hat sich das Räthsel gelöst“ Carl Friedrich Gauß in Göttingen. Niedersächsische Staats- und Universitätsbibliothek, Göttingen 2005; gwdg.de (PDF; 2,1 MB) Hans Wußing: Carl Friedrich Gauß. BSB B. G. Teubner Verlagsgesellschaft, Leipzig 1973 (Biographien hervorragender Naturwissenschaftler, Techniker und Mediziner, Band 15); 5. Auflage 1989, ISBN 3-322-00682-4; 6., bearbeitete und erweiterte Auflage 2011, ISBN 978-3-937219-51-6 (mit 60-seitigem Kapitel über C. F. Gauß und B. G. Teubner in Leipzig anlässlich des 200. Jahrestages der Firmengründung von B. G. Teubner am 21. Februar 1811 in Leipzig). Rudolf Wagner: Gespräche mit Carl Friedrich Gauß in den letzten Monaten seines Lebens. (Hrsg. von Heinrich Rubner). Nachrichten der Akademie der Wissenschaften in Göttingen, Philologisch-Historische Klasse. Jahrgang 1975, Nr. 6. S. 145–171. Vandenhoeck und Ruprecht, Göttingen 1975. Karin Reich: Gauß 1777–1977. Moos, München 1977. Joseph Weinberger: Carl Friedrich Gauß 1777–1855 und seine Nachkommen. In: Archiv für Sippenforschung und alle verwandten Gebiete, Jahrgang 43/44, 1977/1978, Heft 66, Seite 73–98. Walter Kaufmann Bühler: Gauß – eine biographische Studie. Springer-Verlag, 1987. Kurt-R. Biermann (Hrsg.): Gauß in Gesprächen und Briefen. Urania Verlag und Beck Verlag, 1990. Hubert Mania: Gauß. Eine Biografie. Rowohlt, Reinbek bei Hamburg 2008, ISBN 3-498-04506-7 (rororo-Taschenbuch 62531; Rowohlt, Reinbek bei Hamburg 2009; ISBN 3-499-62531-8). Dieter Lelgemann: Gauß und die Messkunst. Primus Verlag, Darmstadt 2011, ISBN 978-3-89678-710-1. Donald Teets, Karen Whitehead: Discovery of Ceres. How Gauß became famous. In: Mathematics Magazine. Band 72, 1999, S. 83–91 (erhielt den Allendoerfer Award). Weblinks mp4-Video-Feature über Leben und Werk Carl Friedrich Gauß’ mit populärwissenschaftlicher Erklärung der Gaußschen Verteilungskurve auf Mediathek www.br.de Abteilung Wissen; Vortrag von Wissenschaftshistoriker Ernst Peter Fischer; abgerufen am 18. April 2014. Veröffentlichungen von C. F. Gauß im Astrophysics Data System. Biographie an der Universität Göttingen. Akademie der Wissenschaften zu Göttingen und SUB Göttingen: Der komplette Briefwechsel von Carl Friedrich Gauß Heinz Klaus Strick: Der Fürst der Mathematiker in Spektrum.de vom 1. Dezember 2008 Einzelnachweise Mathematiker (19. Jahrhundert) Physiker (19. Jahrhundert) Statistiker (19. Jahrhundert) Erfinder Astronom (19. Jahrhundert) Geodät Hochschullehrer (Georg-August-Universität Göttingen) Persönlichkeit der Elektrotechnik Mitglied der Niedersächsischen Akademie der Wissenschaften zu Göttingen Mitglied der American Academy of Arts and Sciences Mitglied der Bayerischen Akademie der Wissenschaften Mitglied der Königlich Niederländischen Akademie der Wissenschaften Mitglied der Königlich Schwedischen Akademie der Wissenschaften Mitglied der Preußischen Akademie der Wissenschaften Mitglied der Royal Society Mitglied der Royal Society of Edinburgh Ehrenmitglied der Russischen Akademie der Wissenschaften Mitglied der Ungarischen Akademie der Wissenschaften Mitglied der Académie des sciences Mitglied der Königlichen Akademie der Wissenschaften und Schönen Künste von Belgien Mitglied der Accademia delle Scienze di Torino Carl Friedrich Träger des Pour le Mérite (Friedensklasse) Träger des Bayerischen Maximiliansordens für Wissenschaft und Kunst Träger der Copley-Medaille Ehrenbürger von Braunschweig Ehrenbürger von Göttingen Person als Namensgeber für einen Asteroiden Person als Namensgeber für einen Mondkrater Namensgeber für ein Schiff Walhalla Literatur (Neulatein) Absolvent der Universität Helmstedt Deutscher Geboren 1777 Gestorben 1855 Mann
908
https://de.wikipedia.org/wiki/Containerschiff
Containerschiff
Ein Containerschiff ist ein Schiffstyp, der für den Transport von ISO-Containern ausgelegt ist. Die Ladungskapazität von Containerschiffen wird in TEU (Twenty-foot Equivalent Units, vgl. Tonnage) angegeben und entspricht der Anzahl von 20-Fuß-Containern, die geladen werden können. Üblich sind auch 40-Fuß-Container (gemessen in FEU wie Forty-foot Equivalent Unit), seit Mitte der 1990er Jahre ebenso 45-, 48- und 53-Fuß-Container sowie die seltener anzutreffenden 30-Fuß-Container, die allerdings an Deck geladen werden müssen, da die Cellguides (Führungsschienen in der Vertikalen) nur für 40-Fuß-Container ausgelegt sind. Für sehr große bzw. schwere Stückgüter existieren auch so genannte Flat Racks, Open-Top-Container oder platforms, die im Verbund mit Standard-Containern geladen werden können. Bis zu einer Ladungskapazität von 3400 TEU besitzen Containerschiffe teilweise eigenes Ladegeschirr, Schiffe mit höheren Kapazitäten benötigen für den Containerumschlag entsprechende Suprastruktur im Hafen. Dies sind üblicherweise Containerbrücken an Containerterminals. Die Tendenz hin zu immer größeren Containerschiffen bewirkt eine steigende Konzentration der möglichen Anlaufpunkte für Containerschiffe auf relativ wenige, zentrale Containerhäfen, über die ein Großteil des Seehandels abläuft. Diese Häfen werden zu Hubs; von und nach dort fahren kleinere Containerschiffe, z. B. Feederschiffe (siehe auch Umladeproblem – ein Optimierungsproblem aus dem Bereich der Logistik). Geschichte Das Containerschiff entstand in den 1950er Jahren in den Vereinigten Staaten. Nach der 1955 in Dienst gestellten Clifford J. Rogers mit noch sehr kleinen Containern folgte 1956 der umgebaute Tanker Ideal X des Speditionsunternehmers Malcolm McLean. Dieser fing damit an, die Aufliegergehäuse von Sattelschleppern ohne Fahrgestell über größere Seestrecken mit dem Schiff zu befördern. 1960 gründete McLean die Reederei Sea-Land Corporation. Schon in der ersten Hälfte der 1960er Jahre entstanden als Semicontainerschiffe geplante Neubauten, wie die 1963 in Dienst gestellte Tobias Mærsk, 1964 wurde in Australien mit der Kooringa der erste als Vollcontainerschiff für ISO-Container geplante Neubau in Betrieb genommen. Die Schiffe sind so eingerichtet, dass Container „längs“ zur Schiffsachse in Ladebuchten oder auf Deck gestapelt werden. Cellguides sind vertikale Schienen zur Führung und Befestigung der Container. In eine Zelle passt genau ein Stapel aus 40-Fuß-Containern. Wird ein Platz mit zwei längs aneinandergestellten 20-Fuß-Container genutzt, wird dieses Paar am Stoß mit Schraubarmaturen verbunden. Mitte der 1960er Jahre gab es in den Vereinigten Staaten bereits 171 (allerdings nahezu alles umgebaute) Containerschiffe. 1966 lief erstmals in Deutschland das Containerschiff Fairland der Reederei Sea-Land in Bremen ein. Schon am 31. Juli 1968 waren weltweit 102 Semi- oder Vollcontainerschiffe beauftragt oder in Bau. Ab 1968 begann die Umstellung der wichtigsten Liniendienste auf den Containerverkehr, zunächst im Nordatlantikverkehr (zwischen USA/Ostküste und Westeuropa), ab Oktober 1968 der Transpazifikdienst zwischen Japan–USA/Westküste. Hier wurde von der NYK Line die Hakone Maru eingesetzt. Ende 1968 wurden vom Bremer Vulkan mit der Weser Express für den Norddeutschen Lloyd sowie von Blohm + Voss, Hamburg, mit der Elbe Express für die HAPAG die ersten Containerschiffe (je 750 TEU) in Deutschland gebaut. Sie kamen mit den Schwesterschiffen Rhein Express und Mosel Express auf der Nordatlantik-Route in Betrieb. Ebenfalls 1968 setzte die Hamburger Reederei August Bolten mit der Bärbel Bolten (140 TEU) ein weiteres Vollcontainerschiff unter deutscher Flagge ein. Am 1. Juli 1970 betrug der weltweite Bestand an Semi- und Vollcontainerschiffen 201 Einheiten (davon 154 Vollcontainerschiffe), im Jahr darauf betrug der Bestand an Vollcontainerschiffen 231 Einheiten. 1969 erfolgte die Umstellung des Liniendienstes Europa–Australien/Neuseeland auf den Containerverkehr, Ende 1971 Europa–Fernost, im Mai 1977 Europa–Südafrika sowie Europa–Karibik / Golf von Mexiko. 1981 folgte die Route Südafrika–Fernost (Safari-Dienst). Damit war die Umstellung der wichtigsten Linienverbindungen auf den Containerverkehr abgeschlossen. 1984 bot die Reederei United States Lines erstmals einen in östliche Richtung laufenden Round the World Service an. Dieser mit zwölf Schiffen der American-New-York-Klasse betriebene Dienst endete nach sechs Monaten mit dem Konkurs der Reederei. Ein im gleichen Jahr von der Evergreen Marine aus Taiwan via Panamakanal und Sueskanal mit jeweils zwölf Schiffen in beiden Richtungen gestarteter Dienst wurde etwa 1999 wieder aufgegeben, da ein Linienverkehr von Punkt A nach B effizienter ist. In den 1990er Jahren ging auch die deutsche Senator Lines mit einem Round the World Service an den Start, stellte ihn jedoch zu Gunsten eines Pendulum Service ein. Als Containermaße haben sich 20 bzw. 40 ft Länge, 8 ft Breite und 8 ft 6 in Höhe international durchgesetzt. Das alte von Sea Land eingeführte Containermaß von 35 ft ist weggefallen, vielmehr werden heute vermehrt auch 40-ft- und 45-ft-High-Cube-Container eingesetzt, innerhalb der USA auch 53-Fuß-Container, da dort längere Sattelzüge als in Europa zulässig sind. Anfang 2020 waren die Frachtraten wegen der Auswirkungen der COVID-19-Pandemie auf die Weltwirtschaft stark eingebrochen, ein Container von China nach Europa kostete nur noch rund 800 Dollar statt davor 1000 Dollar, Schiffe mit einer Gesamtkapazität von 2,4 Millionen Standardcontainern (TEU) waren als Auflieger vorübergehend unbeschäftigt. Doch schon im August 2020 belebte sich der weltweite Schiffsverkehr deutlich, die Größe der inaktiven Flotte sank auf unter eine Million TEU. Im vierten Quartal 2020 setzte ein regelrechter Boom in der Container-Schifffahrt ein. Die Zahl der Neubestellungen von Schiffen der HMM Megamax-Klasse erreichte mit einer Gesamtkapazität von 673.500 TEU das höchste Niveau seit dem dritten Quartal 2015. Für den Zeitraum bis 2024 rechnet DHL mit jährlichen Steigerungsraten im weltweiten Containerverkehr zwischen drei und vier Prozent, beim Verkehr von Asien nach Europa wird eine Zunahme um 3,7 % vorhergesagt, von Asien nach Nordamerika ein Plus von 3,9 %. Die Frachtraten von Shanghai nach Hamburg und Los Angeles sind im Januar 2021 förmlich explodiert, auf bis zu 9520 Dollar pro Container, die Umsätze und Gewinne der Reedereien sind 2020 gegenüber 2019 enorm gestiegen, bei Hapag-Lloyd um 82 %, bei Maersk um 181 %, bei CMA CGM um 803 %. Nach den statistischen Erhebungen des Branchendienstes Alphaliner waren im Februar 2021 weltweit 6220 Containerschiffe mit einer Ladekapazität von 24,35 Millionen TEU im Einsatz. Die größten drei Reedereien nach Marktanteil waren demnach A. P. Møller-Mærsk (16,9 %), Mediterranean Shipping Company (15,9 %) und die COSCO Group (12,5 %). Größte deutsche Gesellschaft ist Hapag-Lloyd auf Platz 5 mit 7,2 %. Technische Entwicklung Containerschiffe wurden zunächst in Generationen eingeteilt, dann fanden von Wasserstraßen abgeleitete Schiffsgrößen wie Panamax Verwendung, schließlich Klassifizierungen wie VLCS and ULCS. Erste und zweite Generation Die ersten Containerschiffe Anfang der 1960er Jahre waren umgebaute Massengutfrachter oder Tanker. Der Umbau bestehender Schiffe war kostengünstiger und weniger riskant, da Container erst langsam Verbreitung fanden. Diese Schiffe hatten Kräne an Bord, da die meisten Hafenterminals noch nicht für den Containerumschlag ausgerüstet waren. Außerdem waren sie mit einer Geschwindigkeit von etwa 18 bis 20 Knoten relativ langsam und konnten Container nur auf den umgerüsteten Decks und nicht im Bauchraum befördern. Schließlich wurden auch Neubauten dieses Types in Auftrag gegeben, der die erste Generation von Containerschiffen bildet, die bis zu 1.000 TEU transportieren konnten. Die Größe der 1968 gebauten Containerschiffe war die Maßeinheit für ein Schiff der ersten Generation. Mit der massiven Verbreitung des Containers Anfang der 1970er Jahre begann der Bau der zu der zweiten Generation gehörenden Vollcontainerschiffe (engl. fully cellular containership). Zu den ersten ausschließlich für den Containerumschlag gebauten Schiffsklassen gehören die Typ-C7-Klasse mit der American Lancer (1968) oder die Encounter-Bay-Klasse (1969). Die Zellen, in denen Container übereinander gestapelt werden, bieten den großen Vorteil, dass auch die Schiffskapazität unter Deck genutzt werden kann, was zu einer Verdopplung der TEU-Menge führte. Zur Erhöhung der Kapazität wurden zudem die Kräne aus der Schiffskonstruktion entfernt, da mittlerweile spezialisierte Containerterminals diese Aufgabe übernahmen. Diese Vollcontainerschiffe waren mit einer Geschwindigkeit von 20 bis 24 Knoten auch erheblich schneller als ihre Vorgängergeneration. Panamax-Schiffe Lange Zeit lag die Obergrenze der Abmessungen von Containerschiffen bei 275 m Länge und 32,3 m Breite, damit sie den (alten) Panamakanal durchfahren konnten. Schiffe dieser Größe wurden früher als 3. Generation bezeichnet. Seit etwa 1988 bezeichnet man als Panamax die Schiffe, die auch die maximale Länge von Panamakanal-Schleusen (294 Meter) nutzen (und nicht nur die Breite). In der Anfangsphase (etwa 1972) waren maximal 3000 TEU die Obergrenze des technisch Umsetzbaren, 1988 waren es 4300 TEU. Spätere „Panamax“-Neubauten konnten bis zu 5060 TEU laden. Für größere Schiffstypen mit mehr als 32,3 m Breite ist der Name Post-Panamax gebräuchlich. Schiffe mit über 7000 TEU werden (Stand 2011) als Super-Post-Panamax- oder Post-Panamax-Plus-Schiffe bezeichnet, die über 11.000 TEU als New Panamax. Post-Panamax-Schiffe Die ersten Containerschiffe, die breiter als 32,3 m (Panamakanal-Schleusen) waren, sind die fünf Schiffe der President-Truman-Klasse der American President Lines (APL, USA). Sie wurden 1988 von der Werft Bremer Vulkan (Vegesack) und HDW (Kiel) gebaut und nur im Trans-Pazifik-Dienst der Reederei eingesetzt. Sie waren 275,0 m ü. a. lang und 38,5 m breit bei 61.296 BRZ, 53.613 tdw und konnten maximal 4400 TEU befördern. An Deck wurden maximal 15 Container nebeneinander gestaut. 1991 wurde von der Daewoo Heavy Industries die CGM Normandie für die französische CGM (heutige CMA CGM) gebaut. Sie hatte eine Kapazität von 4410 TEU und war das erste Post-Panamax-Schiff im Europa–Fernost-Dienst. Auch hier konnten bei einer Schiffsbreite von 38,0 m 15 Container nebeneinander an Deck platziert werden. 1992 folgte die Bunga Pelangi für die Reederei MISC (Malaysia International Shipping Corporation Berhad) mit ähnlichen Abmessungen. 1994/1995 folgten die Nedlloyd Hongkong und Nedlloyd Honshu als erste und einzige Post-Panamax-Open-Top-Schiffe für Royal Nedlloyd. Aus Japan folgten ab Dezember 1994 drei Schiffe der NYK-Altair-Klasse für die NYK Line, fünf baugleiche Schiffe für die Mitsui O.S.K. Lines und die OOCL-California-Klasse der Reederei OOCL (Hongkong), die erstmals mit 40 Metern Breite auf Deck 16 Container nebeneinander stauen konnten. 1995 wurden für American President Lines (APL) weitere sechs Post-Panamax-Schiffe (C11-Klasse) gebaut, jeweils drei bei HDW (Kiel) und Daewoo Heavy Industries. APL hatte zu dieser Zeit (bis Anfang 1999) mit insgesamt elf solchen Schiffen die größte Post-Panamax-Flotte. Die ersten über 300 Meter langen Containerschiffe wurden ab 1996 mit dem Regina-Mærsk-Typ von der dänischen Odense Staalskibsværft gebaut. Mit einer Breite von 42,8 Metern können sie 17 Containerreihen nebeneinander stauen. Die Stellplatzkapazität von 7000 TEU war über 50 % größer als die der bisherigen Rekordhalter – einen solchen Größensprung hatte es bis dahin noch nicht gegeben. Projekte und fertige Konstruktionsentwürfe von Klassifizierungsgesellschaften oder/und Bauwerften für einen als Suezmax-Containerschiff bezeichneten Typ für bis zu 14.000 TEU gibt es seit etwa 1996. Seit dem Ausbau des Suezkanals können jedoch auch größere Schiffe wie die Emma-Mærsk-Klasse den Suezkanal passieren. Auch sind Entwürfe für ein Malaccamax-Containerschiff für 21.000 TEU bereits durchgerechnet. Hierbei blieben jedoch die Begrenzungen bei den Abfertigungskapazitäten und die Tiefgangsbeschränkungen in den Containerhäfen unberücksichtigt. Die deutsche Hapag-Lloyd AG hielt sehr lange ausschließlich am Panamax-Schiffstyp fest und begann als letzte der größeren Container-Reedereien erst im Jahr 2001 mit dem Neubau eines ersten Post-Panamax-Schiffs, der Hamburg Express. 2005 wurde mit der MSC Pamela das erste Containerschiff mit 45,6 m Breite in Dienst gestellt, hier können erstmals 18 Container nebeneinander gestaut werden. Very Large Container Ships (VLCS) Die Odense-Werft realisierte ab September 2006 mit der Emma-Mærsk-Klasse einen sehr großen Containerschiffstyp mit einer Tragfähigkeit von 14.770 TEU. Er kommt trotz seiner Größe mit einer Schiffsschraube aus; sie wird angetrieben von einem 14-Zylinder-Wärtsilä-RT-flex-96-C-B-Zweitakt-Motor mit weit über 80 MW Leistung. Die acht Schiffe der Emma-Mærsk-Klasse, die einheitlich mit „E“ beginnende Mærsk-Namen tragen, können bei 56,4 m Breite 22 Container nebeneinander auf Deck laden. Sie sind 397 m lang und haben einen Maximaltiefgang von 16 m. Bis zu elf Containerlagen übereinander werden im Rumpf des Schiffes, darüber maximal neun Lagen an Deck gestapelt. Es gibt Anschlüsse für 1000 Kühlcontainer. 2016 wurde begonnen, die Containerkapazität der Schiffe durch Erhöhung der Deckshäuser und Laschbrücken bei Beihai Shipbuilding in Qingdao um etwa 3.100 TEU zu vergrößern. Die Umbauten sollen 2018 abgeschlossen werden. Die Containerkapazität erhöht sich auf 17.816 TEU. Im Jahr 2008 wurde die MSC Daniela in Dienst genommen. Sie ist im Dienst der Mediterranean Shipping Company. Mit einer Länge von 366 m und Breite von 51,2 m ist der vom Germanischen Lloyd klassifizierte „Megaboxer“ für den neuen Schleusenkanal des Panamakanals ausgelegt und kann 13.800 TEU transportieren. Das Typschiff der MSC-Daniela-Klasse leitete den Bau einer Serie von Schwesterschiffen ein, zu der auch die – allerdings anders motorisierte – CMA CGM Christophe Colomb gehört. Ultra Large Container Ships (ULCS) Maersk bestellte im Februar 2011 zehn 18.270-TEU-Schiffe der Triple-E-Klasse mit einer Option auf 20 weitere Schiffe. Im Juni 2011 wurde die Option auf den Bau von weiteren zehn Schiffen eingelöst, wodurch sich die Bauorder auf 20 Schiffe erhöhte. Sie sind mit zwei Hauptmaschinen ausgestattet. Ihre Maximalgeschwindigkeit beträgt 23 Knoten (die der Emma-Maersk-Klasse 25 Knoten). Auch sind die Schiffe darauf ausgelegt, bei niedrigerer Geschwindigkeit treibstoffsparend betrieben zu werden (Slow steaming). „Triple E“ steht für „economy of scale, energy efficiency and environmentally improved“, also für wirtschaftlich durch Größe, energieeffizient und umweltfreundlicher. Ende 2012 fuhren weltweit 163 Containerschiffe mit einer Kapazität von mehr als 10.000 TEU, inklusive der 20 Triple-E von Maersk waren 120 weitere bestellt. Das erste dieser Schiffe hatte am 23. Februar 2013 in Korea seinen semi-launch. Anfang März 2015 gab die japanische Reederei Mitsui O.S.K. Lines die ersten Einheiten mit über 20.000 Stellplätzen in Auftrag. Der MOL 20.000-TEU-Typ kam 2017 in Fahrt. Nach Auffassung von Schifffahrtsexperten war damit das „Ende der Fahnenstange“ erreicht, andere Experten erwarteten bereits innerhalb weniger Jahre Schiffe mit 22.000 TEU und mehr. Eine Studie der OECD ergab 2015, dass die Kostenersparnis in der Ultra-Large-Klasse sehr gering ist. Außerdem sei das wirtschaftliche Risiko enorm hoch, da sich die größten Schiffe nur rechnen, wenn sie wirklich voll beladen sind. Letztlich profitierten nur noch „koreanische Werften“ von „XXL-Schiffen“. Seit 2019 werden Schiffe der 24.000-TEU-Klasse in Dienst gestellt. Inzwischen wird die ökologische und ökonomische Sinnhaftigkeit der übergroßen Containerschiffe infrage gestellt. Entwicklung der Schiffsgröße Anmerkungen Die zur jeweiligen Zeit größten Containerschiffe der Welt. Bei den Schiffen einer baugleichen Baureihe wird nur das erste Schiff der Baureihe aufgelistet. Aktueller Rekordhalter sowie die aktuellen Höchstwerte in Fettschrift Kühlcontainerschiffe Containerschiffe mit mehr als 50 Kühlcontainern wurden häufig auch als Kühlcontainerschiffe bezeichnet. Der Markt der Kühlcontainer nimmt stark zu und stellt eine ernsthafte Konkurrenz zu den Kühlschiffen dar. 1972 begann United Fruit (heute Chiquita) mit dem Befördern von Bananen in Kühlcontainern. Einer der Gründe dafür ist, dass schnelleres Löschen des Schiffes im Hafen möglich wird. Dafür werden auch lukenlose Schiffe eingesetzt, um direkt mit einem Kran an die Container zu gelangen. Die ersten lukenlosen Kühlcontainerschiffe wurden im Jahr 1999 von HDW hergestellt und boten Stellplätze für 990 TEU Kühlcontainer sowie 33 TEU ungekühlte Container. Diese Schiffe sind für Dole im Einsatz und bedienen den Fruchttransport von Mittelamerika in die USA. Heute gehört Hamburg Süd zu einer der größten Reedereien, die sich auf den Transport von Kühlcontainern von und nach Südamerika spezialisiert haben. Die Schiffe der „Monte“-Klasse mit 5500 TEU und „Rio“-Klasse mit 5905 TEU der Hamburg Süd sind die Containerschiffe mit der größten Kühlkapazität. Sie haben 1365 Anschlüsse für Kühlcontainer, das sind Stellplätze für rund 2500 TEU Kühlcontainer an und unter Deck. Lukendeckellose Containerschiffe Seit 1990 werden lukendeckellose Containerschiffe gebaut. Das sind Schiffe, deren Laderäume keine Lukendeckel (bzw. nur auf erstem und zweitem Laderaum hinter dem Wellenbrecher) haben, wodurch die Be- und Entladezeiten verringert werden sowie das Gewicht der Lukendeckel eingespart wird. Ein spezieller Bug gegen hohe Wellen und ein leistungsfähiges Pumpsystem sind dafür nötig. Das weltweit erste Schiff dieser Bauart war die Bell Pioneer. Die bisher einzigen großen Containerschiffe in dieser Bauweise betrieb Nedlloyd, später Royal P&O Nedlloyd NV, jetzt Mærsk mit den fünf 1991/1992 gebauten Panamax-Schiffen vom Ultimate-Container-Carrier-Typ, sowie den zwei weltweit ersten Postpanamax-Open-Top-Schiffen Nedlloyd Hongkong und Nedlloyd Honshu, Baujahr 1994. Aus Gründen der Schiffsfestigkeit (Torsion), der Schiffssicherheit und der Wirtschaftlichkeit ist man jedoch wieder davon abgekommen, Open-Top-Schiffe mit mehr als 1000 TEU zu bauen. Dadurch, dass die Lukendeckel fehlen, muss höherfester Stahl eingesetzt und zusätzlich die Gurtung versteift werden, was aus wirtschaftlicher Sicht zu teuer ist. Außerdem ist ein hoher Freibord nötig, um eindringendes Seewasser zu minimieren. (Siehe die Feederschiffe der Werft Sietas, die auch nur im mittleren Laderaum keine Deckel mehr haben, dafür aber hochgezogene Lukenkumminge.) Antrieb Die Containerschiffe der ersten und zweiten Generation hatten Einschraubenantrieb (Dampfturbine oder Dieselmotor). Die Schiffe der dritten Generation (Baujahre 1971–1981) waren anfangs für 27–28 Knoten konzipiert. Dafür waren Zweischraubenantriebe (Turbine oder Diesel) bzw. sogar Dreischraubenantriebe mit drei Dieselmotoren notwendig. Ein weiteres Konzept, das in dieser Generation von Containerschiffen erstmals umgesetzt wurde, waren die Gasturbinenschiffe des Euroliner-Typs. Dieser Antrieb, bisher nur von Militärschiffen bekannt, stellte sich jedoch, insbesondere nach der Ölkrise Anfang der 1970er Jahre, schnell als unwirtschaftlich heraus. Erste große Panamaxschiffe mit Einschraubenantrieb wurden ab Ende 1980 in Dienst gestellt, als erstmals leistungsfähige Dieselmotoren mit 50.000 PS zur Verfügung standen und somit auf die teureren Mehrschraubenantriebe verzichtet werden konnte. Seit Ende der 1970er Jahre wurden wegen der hohen Rohölpreise und des Verzichts auf die sehr hohe Geschwindigkeit von 28 Knoten fast alle turbinenangetriebenen Containerschiffe auf Dieselmotorantrieb umgebaut, da diese erheblich weniger Brennstoff verbrauchen. Auch gab es Umbauten hinsichtlich des Antriebs von 2 Turbinen / 2 Propellern auf 1 Turbine / 1 Propeller, wie zum Beispiel die vier Hapag-Lloyd-Schiffe vom Typ „Hamburg Express“. Die gängige Dienstgeschwindigkeit fast aller großen Containerschiffe lag dann bei 24, Ende der 2000er Jahre bei 25 Knoten. Die im Mai 2006 von der Volkswerft Stralsund gelieferte Mærsk Boston als Typschiff von sieben sehr schnellen Panamax-Containerschiffen, erreicht mit einem Zwölfzylinder-Sulzer-Dieselmotor eine Dienstgeschwindigkeit von 29,2 Knoten und ist das schnellste Containerschiff der Welt. Die bis zum Jahr 2005 größten eingebauten Dieselmotoren waren Zwölfzylinder-Zweitakt-Reihenmotoren der Typen MAN-B&W 12K98ME/MC mit 69,1 MW bei 94–104/min bzw. von Wärtsilä-Sulzer 12RT-flex96C Common Rail mit 68,7 MW bei 100/min. Ein Problem bei der Verwirklichung der über 12.000-TEU-Containerschiffe ist die Antriebsanlage. Die Reeder wollten bis zur Krise im Jahr 2008 nur Containerschiffe mit einer Dauergeschwindigkeit von 25 Knoten (plus Reserven), um die Schiffe (besonders wenn sie im Liniendienst fahren) in bestehende Umläufe integrieren zu können. Dafür wurde bei der Emma-Mærsk-Klasse statt eines bisher weit verbreiteten Zwölfzylinder-Reihen-Dieselmotors mit 90.000 oder 93.000 PS ein 14-Zylinder-Dieselmotor des Typs Wärtsilä/Sulzer 14RT-flex96C mit 108.908 PS Leistung eingebaut. Der Propeller hat circa 10,0 m Durchmesser und wiegt etwa 130 Tonnen, um die größere Motorkraft bei gleicher Drehzahl des Motors (94–104/min) in Vortrieb umzusetzen. Angesichts hoher Kraftstoffkosten und einer seit Mitte 2008 andauernden Schifffahrtskrise fahren die meisten Schiffe inzwischen deutlich langsamer als vor Beginn der Krise („Slow steaming“). Bei den neu in Auftrag gegebenen, größten Containerschiffen der Maersk Line mit einer Kapazität von 18.000 TEU wurde die Maximalgeschwindigkeit auf 23 Knoten herabgesetzt und ein Zweischraubenantrieb verbaut. Bei bereits in Betrieb befindlichen Schiffen konnte es sich sogar rentieren, die Bugwulst umzubauen und durch eine Form zu ersetzen, die für eine geringere Geschwindigkeit optimiert ist. Die neuen Nasen sollen 1–2 % Kraftstoff sparen. Die Schiffe der UASC-A19-Klasse, die zu den größten Containerschiffen der Welt zählen, ist für eine Betriebsgeschwindigkeit (operation speed) von nur noch 12 bis 18 Knoten ausgelegt. Wirtschaftlichkeit von Großcontainerschiffen Seit ca. 2007 befassen sich verschiedene Untersuchungen und Simulationsstudien mit der Analyse des Einflusses des Größenwachstums von Containerschiff-Neubauten auf deren Wirtschaftlichkeit. Teils wird befürchtet, dass Grenznutzen des raschen Wachstums der Schiffsgrößen (gemessen in TEU) abnimmt oder gar negativ wird, so dass es dann zu einer plötzlichen Abwrackaktion kommen könnte wie sie bei Großtankern erfolgte. 1981 wiesen die größten Neubauten eine Kapazität von 3.800 TEU auf. 1988 wurde die Breitenbegrenzung des Panamakanals durchbrochen. Mit dem rapiden Wirtschaftswachstum in China in den 1990er Jahren kam es zu einem Entwicklungssprung: 1995 betrug die maximale Kapazität ca. 5.000, 2008 ca. 10.000 und 2016 sogar schon 19.000 TEU; d. h. durchschnittlich alle zehn Jahre verdoppelte sich die Transportkapazität der jeweils größten Schiffe. Während sich jedoch die Fixkosten unterproportional zur Schiffsgröße entwickelten und noch weiter sinken, stellt die Hafenlogistik ein Nadelöhr dar, das die Liegezeiten für die größten Schiffe überproportional verlängert. Außerdem können diese Schiffe bei voller Ladung nur noch ca. 10 Seehäfen weltweit anlaufen. Bei Schiffen von über 13.000 TEU steigen die Hafenliegzeiten sprunghaft auf bis zu fünf Tage an. Diese Nachteile sind auch nicht durch Feederverkehr zu kompensieren, da das mehrfache Umschlagen zu zeitraubend und teuer ist. Als Risiko wird auch der erstmals 2023 über längere Zeit herrschende Wassermangel im Panamakanal gesehen, der die Transportzeiten und -kosten erhöht und infolge der Erderwärmung zum Dauerproblem werden konnte. Die Studie des HWWI und der Berenberg Bank geht davon aus, dass in Zukunft das Volumen der Transporte von Fertigprodukten abnehmen wird, während die Bedeutung des Rohstoff- und Energietransport relativ wieder zunehmen dürfte. (Der Anteil der Tankschiffe an der Gesamtladung hatte sich von 1980 bis 2017 fast halbiert.) Mit der Digitalisierung und Vernetzung der Schiffe und Häfen ergeben sich jedoch neue Möglichkeiten zur Steigerung der Wirtschaftlichkeit der Containerschifffahrt. Umweltaspekte Die Treibhausgasemissionen durch die Seeschifffahrt in der EU haben zwischen 1990 und 2008 um 48 Prozent zugenommen und machten so im Jahr 2015 rund 13 Prozent der gesamten Emissionen des Verkehrs in der EU aus. Es steht in der Kritik, dass es in Hafenstädten Fahrverbote für Dieselautos gibt, während Schiffe im Hafen mit laufender Diesel-Energieversorgung die Luft belasten. Eine Lösung soll ein Pilotprojekt anbieten, bei dem Schiffe mit einem externen Aggregat auf LNG-Basis versorgt werden. Der Generator hat die Maße eines 40-Fuß-Containers und kann damit einfach auf einem Containerschiff geladen werden. Problematisch sind (Stand 2018) die noch fehlende Normung der Schiffs-Anschlusstechnik und die vielerorts nicht vorhandene LNG-Infrastruktur. Werften Große Containerschiffe mit über 7000 TEU wurden unter anderem auf folgenden Werften gebaut: Europa Odense Staalskibsværft (Odense Steel Shipyard), Dänemark (2012 geschlossen) Ostasien Hyundai Heavy Industries, Ulsan/Südkorea Hyundai Heavy Industries, Samho Yard/Südkorea Samsung Heavy Industries, Koje Island/Südkorea Daewoo Shipbuilding & Marine Engineering Doosan, Okpo Yard/Südkorea Hanjin Heavy Industries, Busan/Südkorea IHI, Kure/Japan Imabari Zōsen, Marugame/Japan Imabari Zōsen, Saijō/Japan Imabari Zōsen, Mihara/Japan Mitsubishi Heavy Industries, Kōbe/Japan Mitsubishi Heavy Industries, Nagasaki/Japan Kawasaki Heavy Industries, Sakaide/Japan China Shipbuilding Corp., Kaoshiung/Taiwan Nantong COSCO KHI, Nantong/China Hudong Shipyard, Shanghai/China Containerschiffe deutscher Werften In der Anfangsphase der Containerisierung von 1968 bis 1977 wurde eine beträchtliche Zahl an großen Containerschiffen der 1. bis 3. Generation von deutschen Werften gebaut, die damals auf diesem Sektor führend waren: Blohm + Voss, Hbg. (Reparaturwerft und Spezial- und Marineschiffbau) A.G. Weser, Bremen (Konkurs in den 1980er Jahren) Bremer Vulkan, Bremen-Vegesack (1997 letztes (Container-)Schiff gebaut, dann Konkurs) Howaldtswerke-Deutsche Werft (HDW), Werk Hamburg-Finkenwerder (Werk aufgegeben) HDW, Werk Kiel (baute von 1989 bis 1993 19 Exemplare der Bonn-Express-Klasse) Flenderwerft, Lübeck Nordseewerke, Emden Peene-Werft, Wolgast (zahlreiche Containerschiffe bis 1800 TEU) Meyer Werft, Papenburg, 2005 wurden vier Open-Top-Schiffe der Eilbek-Klasse (je 1600 TEU) gebaut Die bisher größten gebauten Containerschiffe (Warnow CV 5500) haben eine Kapazität von 5468 TEU und wurden von Aker MTW, Wismar und Aker Kvaerner Warnowwerft, Warnemünde 1999/2000 an P&O Nedlloyd geliefert. Die derzeit größten bei einer deutschen Werft gebauten Containerschiffe wurden ab Herbst 2005 bei der Volkswerft Stralsund, Stralsund gebaut. Das Typschiff, die Mærsk Boston wurde am 24. März 2006 getauft und im Mai 2006 abgeliefert. Sie sind vom Typ VWS 4000 und maßen 294,1 m Länge ü.a. und 32,18 m Breite bei einer Kapazität von 4250 TEU. Der Antrieb besteht aus einem Sulzer 12 RTA 96C Diesel mit 93.400 PS. Dadurch wird eine Dienstgeschwindigkeit von 29,2 Knoten erreicht, es sind die schnellsten Containerschiffe der Welt. Containerschiffe der Größe 2500/2700 TEU (Typ CV 2500/2700) bauten HDW in Kiel, SSW in Bremerhaven, Nordseewerke in Emden, Blohm + Voss in Hamburg, Volkswerft in Stralsund, Aker Werften in Wismar und Rostock-Warnemünde. Die Werft J. J. Sietas in Hamburg war eine Zeitlang führend in Konstruktion und Bau von Containerschiffen bis 1200 TEU Größe (Feederschiffe). Sietas baute von 2001 bis 2007 zwölf Einheiten des Sietas Typ 170. Das erste abgelieferte 1700-TEU-Schiff war die Safmarine Mbashe. Im November 2011 meldete Sietas Insolvenz an. Reedereien Die größten Containerschiff-Reedereien der Welt Stand: Juni 2019 Die 20 größten Containerschiffs-Reedereien beherrschen etwa 89 % des Marktes. Die deutsche Reederei Hapag-Lloyd AG, von 1976 bis 1983 noch größte Containerschiffsreederei der Welt, war seit vielen Jahren nicht mehr unter den „Top 10“ der Rangliste. Im August 2005 wurde die Übernahme von CP Ships durch Hapag-Lloyd bekanntgegeben. Hierzu bedurfte es einer Kapitalerhöhung von einer Milliarde Euro. Hapag-Lloyd rückte damit auf Platz 6 der großen Container-Reedereien. Am 11. Mai 2005 wurde offiziell bekanntgegeben, dass Mærsk-Sealand für 2,96 Milliarden US-Dollar (entspr. 2,3 Mrd. Euro) P&O Nedlloyd übernehmen wollte. Die P&O-Nedlloyd-Aktie war am 10. Mai mit 41 US-Dollar bewertet, Mærsk-Sealand bot den Aktionären in einem bis zum 5. August 2005 terminierten Übernahmeangebot 57 US-Dollar pro Aktie. Mitte August 2005 war die Übernahme abgeschlossen. Die P&O Nedlloyd existiert seit Februar 2006 nicht mehr. Sie wurde vollständig in die „Mærsk Line“ integriert. Durch die Übernahme erhöhte der Marktführer Mærsk seinen Marktanteil von 12 auf 18 Prozent am Weltcontainerverkehr. Linien- und Containerreedereien: Fusionen und Übernahmen 1. September 1970: Hapag und NDL fusionierten rückwirkend zum 1. Januar 1970 zur Hapag-Lloyd AG, Hamburg/Bremen 1971: Zusammenschluss der vier größten holländischen Reedereien zur Royal Nedlloyd 1. Januar 1987: P & O übernahm die Overseas Container Limited komplett 1988: Sealand Corp. übernahm die in Konkurs gegangene United States Lines 1988: Hanjin Container Lines und Korea Shipping Corp. fusionierten zur Hanjin Shipping 1993: Ben Line/Det Østasiatiske Kompagni wurden von Mærsk Line übernommen 1994: Senator Lines, Bremen und DSR, Rostock fusionierten 1995: CP Ships übernahm CAST, London 1996: Safmarine übernahm die CMBT, Antwerpen 1996: CMA übernahm CGM, jetzt CMA CGM Dezember 1996: Nedlloyd und P&O Container Line fusionierten zur P&O Nedlloyd 1997: CP Ships übernahm Lykes Lines, Boston und Contship Containerlines, London 1997: Hanjin Shipping übernahm DSR-Senator Line, Bremen 1998: Neptune Orient Lines übernahm die American President Lines 1998: CP Ships übernahm die Australia-New Zealand Direct Lines, Wellington 1998: CMA-CGM übernahm die Australian National Line 1998: Evergreen Marine übernahm Lloyd Triestino 1998: P&O Nedlloyd übernahm die Blue Star Line 1999: Safmarine Container Line wurde von Mærsk Line übernommen November 1999: Sea-Land Corp. wurde von Mærsk Line übernommen 2000: CP Ships übernahm TMM, Mexiko 2000: P & O Nedlloyd übernahm Farrell Lines, USA 2002: CP Ships übernahm Italia S.A.N., Genua August 2005: P&O Nedlloyd wurde von Mærsk Line übernommen Dezember 2005: Farrell Lines wurde von Mærsk Line übernommen 15. Dezember 2005: CP Ships, Canada wurden von Hapag-Lloyd übernommen 5. Januar 2006: CMA-CGM übernahm Delmas 1. Dezember 2007: Hamburg Süd übernahm die Liniendienste der Costa Container Lines S.p.A. (CCL) April 2014: Die Containerreederei Hapag-Lloyd und der chilenische Konkurrent CSAV gingen zusammen 2016: Fusion von Hapag-Lloyd mit dem arabischen Konkurrenten United Arab Shipping Company 2016: Fusion von COSCO und China Shipping zu COSCOCS Dezember 2017: Maersk übernahm Hamburg Süd April 2018: Die japanischen Reedereien MOL, K-Line und NYK fusionierten zum Ocean Network Express (ONE) Allianzen 1969 erfolgte auf der Route Europa–Australien/Neuseeland die Umstellung des Liniendienstes auf Containerverkehr mit Schiffen der zweiten Generation (ANZECS-Dienst). Er wurde durch Hapag-Lloyd, Deutschland, der Overseas Containers Limited (OCL), Großbritannien (ein Zusammenschluss von fünf bedeutenden englischen Linienreedereien), der Associated Container Transportation (ACT), Großbritannien, der Nedlloyd, Niederlande, der Australian National Line und der New Zealand Shipping Company gegründet. Die wichtigste und ladungsstärkste Schifffahrtsverbindung ist die Europa–Fernost-Route. 1968 wurde von den großen Linienreedereien die Umstellung auf den Containerverkehr beschlossen. Hier gab es ab 1971 die erste große Allianz, den TRIO-Dienst (von Reedereien aus drei Ländern gegründet). Die Umstellung auf Containerverkehr bedeutete für die damalige Zeit ein solch großes Investitionsvolumen, dass keine Reederei es allein finanzieren konnte oder wollte. Es wurden hier die damals größten und schnellsten Containerschiffe der 3. Generation in der Zeit von November 1971 bis Juli 1973 in Fahrt gesetzt. Der TRIO-Dienst wurde durch die Reedereien NYK Line / Japan (3, ab 1976 4 Schiffe), Mitsui O.S.K. Lines / Japan (2, ab 1977 3 Schiffe), Hapag-Lloyd / Deutschland (4, ab 1981 5 Schiffe), Overseas Container Line (OCL) / Großbritannien (5, ab 1989 7 Schiffe; wurde später von P&O übernommen) und Ben Line-Ellerman / Großbritannien (3 Schiffe) gebildet. Der TRIO-Dienst wurde Anfang 1991 aufgelöst, wobei jedoch die Hapag-Lloyd AG und die NYK Line weiterhin mit anderen Reedereien zusammenarbeiten. Die zweite Gruppe war ab 1972 der Scandutch Service der Reedereien Wilh. Wilhelmsen / Norwegen, Det Østasiatiske Kompagni (EAC) / Dänemark, Broström / Schweden und Nedlloyd / Niederlande. CGM / Frankreich trat 1973 bei und Malaysian Intern. Shipping Co. (MISC) 1977. Auch diese Allianz wurde 1991 beendet. Die dritte Allianz wurde 1975 gegründet mit dem ACE-Dienst (Asian Container Europe) der Reedereien K-Line / Japan, Orient Overseas Container Line (OOCL) / Hongkong, Neptune Orient Lines (NOL) / Singapur und Compagnie Maritime Belge (CMB) / Belgien. Von 1991 bis 1996 gab es eine Allianz zwischen Mærsk Line und P&O. Von 1996 an arbeitete Marktführer Mærsk Line aber mit der amerikanischen Sea Land Corp. global zusammen. Die Ergänzung war so günstig, dass Mærsk die US-Reederei 1999 fast komplett übernommen hat. 1991 begannen die drei skandinavischen Reedereien sowie Ben Line und Ellermann den BEN-EAC-Dienst. Der BEN-EAC-Dienst wurde 1993 komplett von Mærsk-Line übernommen. Von 1996 bis 2001 gab es die Global Alliance der Reedereien Hapag-Lloyd AG, NYK Line, NOL und P&O. Royal Nedlloyd trat nach der Fusion mit P&O 1997 bei. 1977 begann der Containerverkehr auf der Route Europa–Südafrika, genannt SAECS-Dienst, gegründet durch die Reedereien Deutsche Afrika Linien (Hamburg), Compagnie Maritime Belge, Royal Nedlloyd, Overseas Container Line (später P&O) und Safmarine, Südafrika. Hier wurden neun moderne 2400 TEU Zweischrauben-Containerschiffe eingesetzt. Dieser Dienst wird auch heute noch von Mærsk Line, Safmarine, CGM (nur bis Ende der 1990er Jahre), und Deutsche Afrika Linie bedient, seit Februar 2006 ist Mitsui-OSK Lines noch hinzugetreten. Inzwischen werden moderne 4500–5000-TEU-Schiffe (Sling 1) sowie 1800-TEU-Schiffe (Sling 2) eingesetzt. Derzeitige Allianzen Reederei-Allianzen müssen von der amerikanischen Federal Maritime Commission anerkannt werden, außerdem gibt es die Wettbewerbsbehörde in Singapur. Die drei größten Allianzen waren Mitte 2017: Ocean Alliance der Reedereien CMA CGM (3), Cosco (4), Evergreen (5) und OOCL (10) mit zusammen 350 Schiffen, 37 % Marktanteil The Alliance der Reedereien Hapag-Lloyd (6), „K Line“ (16), MOL (13), NYK Line (9) und Yang Ming (8) mit zusammen 244 Schiffen 2M der Reedereien Mærsk Line (1), MSC (2), HMM (15, als strategischer Partner) mit zusammen 223 Schiffen (ohne HMM) Die Zahlen in Klammern geben den Stellenwert der jeweiligen Reederei im weltweiten Ranking an. Sonstiges Containerschiffe im deutschen Management mit Stand 2004 bis zu einer Größe von 7500 TEU wurden in einer illustrierten Flottenliste als Buch mit Schiffsliste und Federzeichnungen veröffentlicht. Der Dokumentarfilm Stählerne Einsamkeit von Gabriel Pielke zeigt die Arbeits- und Lebensbedingungen der Schiffsbesatzung an Bord der 300 m langen und 40 m breiten MS EVER CONQUEST mit einer Ladekapazität von ca. 8.000 TEU als eines der größten und modernsten Containerschiffe der NSB Niederelbe Schiffahrtsgesellschaft in 2006–2007 im EVERGREEN–Liniendienst zwischen der Volksrepublik China und Europa und veranschaulichte somit u. a. auch die an Land eher unbekannte Arbeits- und Lebensumgebung von Seeleuten als insbesondere der Internationalen Seeschiffahrts-Organisation IMO allgemein bekannten „Entstehungsort“ auch von Seafarer Fatigue in der modernen Berufsschifffahrt. 2008 (in diesem Jahr endete eine Blütezeit und eine mehrjährige Schifffahrtskrise begann) wurde ein Containerschiff durchschnittlich nach 27 Jahren verschrottet. 2015 wurde ein Containerschiff durchschnittlich nach 22 Jahren verschrottet. Literatur Thomas Pawlik, Heinrich Hecht: Containerseeschifffahrt. Heel-Verlag 2007, ISBN 978-3-89880-873-6. Hans Jürgen Witthöft: Container – Die Mega-Carrier kommen. 2. Auflage. Köhlers Verlagsanstalt, Herford 2004, ISBN 3-7822-0882-X. Vorerst letzte Containerschiffe von deutschen Werften. In: Hansa, Heft 7/2011, S. 24–27. Flotte weltweit auf über 5100 Containerschiffe gewachsen. In: Täglicher Hafenbericht, 29. Mai 2013, S. 1. Ralf Witthohn: Kapazität nähert sich 20 000 TEU. In: Schiff & Hafen, Heft 10/2013, S. 28–33. Ulrich Malchow: Der Fluch der »Economics of Scale«. In: Hansa, Heft 8/2015, S. 30–33. Michael Tasto: Fortlaufende Grenzerfahrungen. Nach dem Order-Boom 2015 sind die Nachbestellungen 2016 implodiert. In: Hansa, Heft 2/2017, S. 30. Filme Containerschiffe. Frachter im XXL Format (Online), Dokumentarfilm, Deutschland, 2006, 42 Min., Buch und Regie: Rob Kerr, Produktion: Southern Star Singapore PTE Ltd., National Geographic Channel, deutsche Erstsendung: 27. Juni 2006 beim ZDF, Inhaltsangabe (archive.org) von phoenix. Der am 25. Februar 2005 auf OOCL Atlanta getaufte Frachter der Samsung-Werft in Südkorea wurde von mehr als 8000 Arbeitern in neun Monaten für die Orient Overseas Container Line gebaut. Das Containerschiff hat eine Länge von 323 Metern und eine Breite von über 40 Metern und kostete 150 Millionen Dollar. Schmutzige Schifffahrt () Dokumentarfilm, Deutschland, 2014, 29 Min., Hilde Buder-Monath und Halim Hosny, ZDF, Inhaltsangabe (Link tot, 19. März 2019) von ZDFzoom. Weblinks Übersicht über die Entwicklung von Containerschiffen. tis-gdv.de (etwas veraltet) containership-info.com Illustrierte Containerschiff-Datenbank und wöchentlicher Newsletter (englisch) Containership Register Containerschiffe verdrängen Kühlschiffe. daily news. linervision.wordpress.com (englisch) Interaktive Grafik eines Containerschiffes. Go-Maritime.net (englisch) Einzelnachweise Frachtschiffstyp (Seeschifffahrt)
909
https://de.wikipedia.org/wiki/C%20%28Programmiersprache%29
C (Programmiersprache)
C ist eine imperative und prozedurale Programmiersprache, die der Informatiker Dennis Ritchie in den frühen 1970er Jahren an den Bell Laboratories entwickelte. Seitdem ist sie eine der am weitesten verbreiteten Programmiersprachen. Die Anwendungsbereiche von C sind sehr verschieden. Sie wird zur System- und Anwendungsprogrammierung eingesetzt. Die grundlegenden Programme aller Unix-Systeme und die Systemkernel vieler Betriebssysteme sind in C programmiert. Zahlreiche Sprachen, wie C++, Objective-C, C#, D, Java, JavaScript, LSL, PHP, Vala oder Perl, orientieren sich an der Syntax und anderen Eigenschaften von C. Geschichte Entstehung C wurde 1969–1973 von Dennis Ritchie in den Bell Laboratories für die Programmierung des damals neuen Unix-Betriebssystems entwickelt. Er stützte sich dabei auf die Programmiersprache B, die er mit Ken Thompson in den Jahren 1969/70 geschrieben hatten – der Name C entstand als Weiterentwicklung von B. B wiederum geht auf die von Martin Richards Mitte der 1960er-Jahre entwickelte Programmiersprache BCPL zurück. Ursprünglich war der Name NB („New B“) vorgesehen, daraus wurde schließlich C. Ritchie schrieb auch den ersten Compiler für C. 1973 war die Sprache so weit ausgereift, dass man nun den Unix-Kernel für die PDP-11 neu in C schreiben konnte. Weitere Entwicklung K&R C erweiterte die Sprache um neue Schlüsselwörter wie long oder unsigned und führte die von Mike Lesk entwickelte I/O-Standardbibliothek und auf Empfehlung von Alan Snyder den Präprozessor ein. Standards C ist eine Programmiersprache, die auf fast allen Computersystemen zur Verfügung steht. Um den Wildwuchs zahlreicher Dialekte einzudämmen, wurde C mehrfach standardisiert (C89/C90, C99, C11). Abgesehen vom Mikrocontrollerbereich, wo eigene Dialekte existieren, sind die meisten aktuellen PC-/Server-Implementierungen eng an den Standard angelehnt; eine vollständige Implementierung aktueller Standards ist aber selten. In den meisten C-Systemen mit Laufzeitumgebung steht auch die genormte C-Standard-Bibliothek zur Verfügung. Dadurch können C-Programme, die keine sehr hardwarenahe Programmierung enthalten, in der Regel gut auf andere Zielsysteme portiert werden. Das Normungsgremium von C ist die ISO/IEC – Arbeitsgruppe JTC1/SC22/WG14 – C, kurz als WG14 bekannt. Die nationalen Standardisierungsorganisationen übernehmen die Veröffentlichungen des internationalen Standards in an ihre Bedürfnisse angepasster Form. K&R C Bis ins Jahr 1989 gab es keinen offiziellen Standard der Sprache. Seit 1978 galt hingegen das Buch The C Programming Language als informeller De-facto-Standard, welches Brian W. Kernighan und Dennis Ritchie im selben Jahr veröffentlicht hatten. Bezeichnet wird diese Spezifikation als K&R C. Da in den folgenden Jahren die Zahl an Erweiterungen der Sprache ständig wuchs, man sich nicht auf eine gemeinsame Standard-Bibliothek einigen konnte und nicht einmal die UNIX-Compiler K&R C vollständig implementierten, wurde beschlossen, einen offiziellen Standard festzulegen. Nachdem dieser schließlich im Jahr 1989 erschienen war, blieb K&R C zwar noch für einige Jahre De-facto-Standard vieler Programmierer, verlor dann aber rasch an Bedeutung. ANSI C Im Jahr 1983 setzte das American National Standards Institute (ANSI) ein Komitee namens X3J11 ein, das 1989 seine Arbeit abschloss und die Norm ANSI X3.159-1989 Programming Language C verabschiedete. Diese Version der Sprache C wird auch kurz als ANSI C, Standard C oder C89 bezeichnet. Ein Jahr später übernahm die International Organization for Standardization (ISO) den bis dahin rein amerikanischen Standard auch als internationale Norm, die ISO/IEC 9899:1990, kurz auch als C90 bezeichnet. Die Namen C89 und C90 beziehen sich also auf dieselbe Version von C. Nach der ersten Entwicklung durch ANSI und ISO wurde der Sprachstandard für einige Jahre kaum geändert. Erst 1995 erschien das Normative Amendment 1 zu C90. Es hieß ISO/IEC 9899/AMD1:1995 und wird auch kurz als C95 bezeichnet. Neben der Korrektur einiger Details wurden mit C95 internationale Schriftsätze besser unterstützt. C99 Nach einigen kleineren Revisionen erschien im Jahr 1999 der neue Standard ISO/IEC 9899:1999, kurz C99. Er war größtenteils mit C90 kompatibel und führte einige neue, teilweise von C++ übernommene Features ein, von denen einige bereits zuvor von verschiedenen Compilern implementiert worden waren. C99 wurde im Lauf der Jahre durch drei Technical Corrigendas ergänzt. C11 Im Jahr 2007 begann die Entwicklung eines neuen Standards mit dem inoffiziellen Arbeitstitel C1X. Er wurde im Dezember 2011 veröffentlicht und ist in der Kurzform als C11 bekannt. Neben einer besseren Kompatibilität mit C++ wurden der Sprache wiederum neue Features hinzugefügt. C18 Diese Norm entspricht der von C11 mit der Ausnahme von Fehlerkorrekturen und einem neuen Wert von __STDC_VERSION__ und wird daher im selben Umfang wie C11 unterstützt. Der Standard wurde im Juni 2018 unter der Norm ISO/IEC 9899:2018 freigegeben. Verwendung Trotz des eher hohen Alters ist die Sprache C auch heute weit verbreitet und wird sowohl im Hochschulbereich als auch in der Industrie und im Open-Source-Bereich verwendet. System- und Anwendungsprogrammierung Das Haupteinsatzgebiet von C liegt in der Systemprogrammierung, insbesondere von eingebetteten Systemen, Treibern und Betriebssystemkernen. Der Grund liegt in der Kombination von erwünschten Charakteristiken wie Portabilität und Effizienz mit der Möglichkeit, Hardware direkt anzusprechen und dabei niedrige Anforderungen an eine Laufzeitumgebung zu haben. Auch Anwendungssoftware wird oft in C erstellt, wobei die Relevanz der Sprache hier hinter andere zurückfiel, das ist besonders deutlich auf mobilen Plattformen. Viele Programmierschnittstellen für Anwendungsprogramme und Betriebssystem-APIs werden in Form von C-Schnittstellen implementiert, zum Beispiel Win32. Implementierung anderer Sprachen Wegen der hohen Ausführungsgeschwindigkeit und geringen Codegröße werden Compiler, Programmbibliotheken und Interpreter anderer höherer Programmiersprachen (wie z. B. die Java Virtual Machine) oft in C implementiert. C wird als Zwischencode einiger Implementierungen höherer Programmiersprachen verwendet. Dabei wird diese zuerst in C-Code übersetzt, der dann kompiliert wird. Dieser Ansatz wird verwendet, um ohne maschinenspezifische Entwicklung für den Codegenerator die Portabilität zu erhöhen (C-Compiler existieren für nahezu jede Plattform). Einige Compiler, die C auf diese Art benutzen, sind Chicken, EiffelStudio, Esterel, PyPy, Sather, Squeak und Vala. C wurde allerdings als Programmiersprache und nicht als Zielsprache für Compiler entworfen. Als Zwischensprache ist es daher eher schlecht geeignet. Das führte zu C-basierten Zwischensprachen wie C−−. C wird oft für die Erstellung von Anbindungen (englisch bindings) genutzt (zum Beispiel Java Native Interface). Diese Anbindungen erlauben es Programmen, die in einer anderen Hochsprache geschrieben sind, Funktionen aufzurufen, die in C implementiert wurden. Der umgekehrte Weg ist oft ebenfalls möglich und kann verwendet werden, um in C geschriebene Programme mit einer anderen Sprache zu erweitern (z. B. mod perl). Syntax C ist case-sensitiv. Außerdem besitzt C eine sehr kleine Menge an Schlüsselwörtern. Die Anzahl der Schlüsselwörter ist so gering, weil fast alle Aufgaben, welche in anderen Sprachen über eigene Schlüsselwörter realisiert werden, über Funktionen der C-Standard-Bibliothek realisiert werden (zum Beispiel die Ein- und Ausgabe über Konsole oder Dateien, dynamische Speicherverwaltung usw.). In C89 gibt es 32 Schlüsselwörter: Mit C99 kamen fünf weitere dazu: Mit C11 kamen sieben weitere hinzu: Hallo-Welt-Programm Eine einfache Version des Hallo-Welt-Programms in C ist diejenige, die Ritchie und Kernighan selbst in der zweiten Auflage ihres Buches The C Programming Language verwendet haben. Zu beachten ist, dass im älteren ANSI C Standard kein Rückgabetyp angegeben werden muss, da der Compiler von einem impliziten int als Rückgabetyp ausgeht. #include <stdio.h> main() { printf("hello, world\n"); } Datentypen char Zum Speichern eines Zeichens (sowie von kleinen Zahlen) verwendet man in C üblicherweise den Datentyp Character, geschrieben als char. Vom Computer tatsächlich gespeichert wird nicht das Zeichen (wie zum Beispiel „A“), sondern eine gleichbedeutende mindestens acht Bit lange Binärzahl (z. B. 01000001). Diese Binärzahl steht im Speicher und kann anhand einer Tabelle jederzeit automatisch in den entsprechenden Buchstaben umgewandelt werden, wobei der aktuelle Zeichensatz bzw. die Codepage der Systemumgebung entscheidend ist. Zum Beispiel steht 01000001 gemäß der ASCII-Tabelle für das Zeichen „A“. Um auch Zeichen aus Zeichensätzen aufnehmen zu können, die mehr Zeichen umfassen als der relativ kleine ASCII-Zeichensatz, wurde mit wchar_t bald ein zweiter für Zeichen konzipierter Datentyp eingeführt. // gespeichert wird nicht das Zeichen „A“, sondern meist ein Byte ("01000001") char zeichen = 'A'; // gibt das Zeichen mit der Ordnungszahl 65 aus (in ASCII ein „A“) printf("%c", 65); int Zum Speichern einer Ganzzahl (wie zum Beispiel 3) verwendet man eine Variable vom Datentyp Integer, geschrieben als int. Die Größe eines Integers beträgt heutzutage (je nach Prozessorarchitektur und Betriebssystem) meist 32 Bit, oft aber auch schon 64 und manchmal noch 16 Bit. In 16 Bit lassen sich 65536 verschiedene Werte speichern. Um die Verwendung von negativen Zahlen zu ermöglichen, reicht der Wertebereich bei 16 Bit gewöhnlich von -32768 bis 32767. Werden keine negativen Zahlen benötigt, kann der Programmierer mit unsigned int aber einen vorzeichenlosen Integer verwenden. Bei 16 Bit großen Integern ergibt das einen Wertebereich von 0 bis 65535. Um den Wertebereich eines Integers zu verkleinern oder zu vergrößern, stellt man ihm einen der Qualifizierer short, long oder long long voran. Das Schlüsselwort int kann dann auch weggelassen werden, so ist long gleichbedeutend mit long int. Um zwischen vorzeichenbehafteten und vorzeichenlosen Ganzzahlen zu wechseln, gibt es die beiden Qualifizierer signed und unsigned. Für einen vorzeichenbehafteten Integer kann der Qualifizierer aber auch weggelassen werden, so ist signed int gleichbedeutend mit int. Die C-Standard-Bibliothek ergänzt diese Datentypen über die plattformunabhängige Header-Datei <stdint.h>, in der ein Set von Ganzzahltypen mit fester Länge definiert ist. Obwohl der Datentyp char für Textzeichen vorgesehen ist, können dessen Werte auch als ganze Zahlen mit einem Wertebereich von 0 bis 255 (unsigned) oder von -128 bis +127 (signed) verwendet werden. char ganzzahl = 1; // mindestens 8 Bit, also 256 mögliche Werte short ganzzahl = 2; // mindestens 16 Bit, also 65536 mögliche Werte int ganzzahl = 3; // mindestens 16 Bit, also 65536 mögliche Werte long ganzzahl = 4; // mindestens 32 Bit, also 4294967296 mögliche Werte long long ganzzahl = 5; // mindestens 64 Bit, also 18446744073709551616 mögliche Werte float und double Zahlen mit Nachkommastellen werden in einem der drei Datentypen float, double und long double gespeichert. In den meisten C-Implementierungen entsprechen die Datentypen float und double dem international gültigen Standard für binäre Gleitpunktarithmetiken (IEC 559, im Jahr 1989 aus dem älteren amerikanischen Standard IEEE 754 hervorgegangen). Ein float implementiert das „einfach lange Format“, ein double das „doppelt lange Format“. Dabei umfasst ein float 32 Bit, ein double 64 Bit. doubles sind also genauer. Floats werden aufgrund dieses Umstands nur noch in speziellen Fällen verwendet. Die Größe von long doubles ist je nach Implementierung unterschiedlich, ein long double darf aber auf keinen Fall kleiner sein als ein double. Die genauen Eigenschaften und Wertebereiche auf der benutzten Architektur können über die Headerdatei <float.h> ermittelt werden. // Genauigkeit ist jeweils implementierungsabhängig float kommazahl = 0.000001f; double kommazahl = 0.000000000000002; long double kommazahl = 0.3l; void Der Datentyp void wird im C-Standard als „unvollständiger Typ“ bezeichnet. Man kann keine Variablen von diesem Typ erzeugen. Verwendet wird void erstens, wenn eine Funktion keinen Wert zurückgeben soll, zweitens wenn explizit eine leere Parameterliste für eine Funktion verlangt wird und drittens, wenn ein Zeiger auf „Objekte beliebigen Typs“ zeigen soll. // Deklaration einer Funktion, die keinen Wert zurückgibt void funktionsname(); // Deklaration einer Funktion, die int zurückgibt und keine Parameter akzeptiert int funktionsname(void); // Zeiger auf ein Objekt von beliebigem Typ void* zeigername; Zeiger Wie in anderen Programmiersprachen sind Zeiger in C Variablen, die statt eines direkt verwendbaren Wertes (wie das Zeichen „A“ oder die Zahl 5) eine Speicheradresse (wie etwa die Adresse 170234) speichern. Die Adressen im Speicher sind durchnummeriert. An der Speicheradresse 170234 könnte zum Beispiel der Wert 00000001 gespeichert sein (Binärwert der Dezimalzahl 1). Zeiger ermöglichen es, auf den Wert zuzugreifen, der an einer Speicheradresse liegt. Dieser Wert kann wiederum eine Adresse sein, die auf eine weitere Speicheradresse zeigt. Bei der Deklaration eines Zeigers wird zuerst der Datentyp des Objekts angegeben, auf das gezeigt wird, danach ein Asterisk, danach der gewünschte Name des Zeigers. char* zeiger; // kann die Adresse eines Characters speichern double* zeiger; // kann die Adresse eines Doubles speichern Felder Wie in anderen Programmiersprachen verwendet man Arrays in C um mehrere Werte desselben Datentyps zu speichern. Die Werte eines Arrays haben aufeinanderfolgende Speicheradressen. Die Anzahl der verschiedenen Werte eines Arrays ist als Index des Feldes festgelegt. Da es in C keinen eigenen Datentyp für Strings gibt, werden Arrays auch verwendet, um Zeichenfolgen zu speichern. // Definition eines Arrays mit 3 ganzzahligen Werten int zahlen[] = { 17, 0, 3 }; // Array, das zur Speicherung eines Strings verwendet wird char string[] = "Hallo, Welt!\n"; struct Um verschiedenartige Daten in einer Variable zu speichern, verwendet man Structures, geschrieben als struct. Auf diese Weise können Variablen verschiedenen Datentyps zusammengefasst werden. struct person { char* vorname; char nachname[20]; int alter; double groesse; }; enum Wie in anderen Programmiersprachen dient ein Enum in C dazu, mehrere konstante Werte zu einem Typ zu kombinieren. enum Temperatur { WARM, KALT, MITTEL }; enum Temperatur heutige_temperatur = WARM; if (heutige_temperatur == KALT) printf("Warm anziehen!"); // wird nicht ausgegeben, da es heute „WARM“ ist typedef Das Schlüsselwort typedef wird zur Erstellung eines Alias für einen Datentyp verwendet. // legt den Alias "Ganzzahl" für den Datentyp "int" an typedef int Ganzzahl; // ist jetzt gleichbedeutend zu: int a, b; Ganzzahl a, b; _Bool Bis zum C99-Standard gab es keinen Datentyp zum Speichern eines Wahrheitswerts. Erst seit 1999 können Variablen als _Bool deklariert werden und einen der beiden Werte 0 (falsch) oder 1 (wahr) aufnehmen. _Bool a = 1; // seit C99 Durch explizite Verwendung des Headers stdbool.h ist die verbreitete Verwendung des logischen Datentyps bool mit den zwei möglichen Ausprägungen true bzw. false möglich: #include <stdbool.h> bool a = true; // seit C99 _Complex und _Imaginary Seit C99 gibt es drei Gleitkomma-Datentypen für komplexe Zahlen, welche aus den drei Gleitkommatypen abgeleitet sind: float _Complex, double _Complex und long double _Complex. Ebenfalls in C99 eingeführt wurden Gleitkomma-Datentypen für rein imaginäre Zahlen: float _Imaginary, double _Imaginary und long double _Imaginary. Funktionen Ein C-Programm besteht aus der main-Funktion und optional aus weiteren Funktionen. Weitere Funktionen können entweder selbst definiert werden oder vorgefertigt aus der C-Standard-Bibliothek übernommen werden. main Jedes C-Programm muss eine Funktion mit dem Namen main haben, anderenfalls wird das Programm nicht kompiliert. Die main-Funktion ist der Einsprungpunkt eines C-Programms, das heißt die Programmausführung beginnt immer mit dieser Funktion. // das kürzeste mögliche standardkonforme C89-Programm main(){return 0;} // das kürzeste mögliche standardkonforme C99-Programm int main(){} Außer der main-Funktion müssen in einem C-Programm keine weiteren Funktionen enthalten sein. Sollen andere Funktionen ausgeführt werden, müssen sie in der main-Funktion aufgerufen werden. Die main-Funktion wird deshalb auch als Hauptprogramm bezeichnet, alle weiteren Funktionen als Unterprogramme. Selbstdefinierte Funktionen In C lassen sich beliebig viele Funktionen selbst definieren. Eine Funktionsdefinition besteht erstens aus dem Datentyp des Rückgabewerts, zweitens dem Namen der Funktion, drittens einer eingeklammerten Liste von Parametern und viertens einem eingeklammerten Funktionsrumpf, in welchem ausprogrammiert wird, was die Funktion tun soll. // Datentyp des Rückgabewerts, Funktionsname und zwei Parameter int summe(int x, int y) { // Funktionsrumpf, hier wird die Summe berechnet und zurückgegeben return x + y; } int main() { // die Funktion wird mit den Werten 2 und 3 aufgerufen, der Rückgabewert // wird in der Variable „ergebnis“ gespeichert int ergebnis = summe(2, 3); // main gibt den Wert von „ergebnis“ zurück return ergebnis; } Für die Definition einer Funktion, die nichts zurückgeben soll, verwendet man das Schlüsselwort void. Ebenso falls der Funktion keine Parameter übergeben werden sollen. #include <stdio.h> void begruessung() { puts("Hi!"); return; } Funktionen der C-Standard-Bibliothek Die Funktionen der Standard-Bibliothek sind nicht Teil der Programmiersprache C. Sie werden bei jedem standardkonformen Compiler im hosted environment mitgeliefert und können verwendet werden, sobald man die jeweils entsprechende Header-Datei eingebunden hat. Beispielsweise dient die Funktion printf zur Ausgabe von Text. Sie kann verwendet werden, nachdem man die Header-Datei stdio.h eingebunden hat. #include <stdio.h> int main() { printf("hello world!\n"); return 0; } Anweisungen Eine Funktion besteht aus Anweisungen. Wie in den meisten Programmiersprachen sind die wichtigsten Anweisungen: Deklarationen und Definitionen, Zuweisungen, bedingte Anweisungen, Anweisungen die Schleifen umsetzen sowie Funktionsaufrufe. Im folgenden, eher sinnlosen Programm finden sich Beispiele. // Unterprogramme void funktion_die_nichts_tut() { // Definition return; // Return-Anweisung } int plus_eins_funktion(int argument) { // Definition return argument + 1; // Return-Anweisung } // Hauptprogramm int main() { // Definition int zahl; // Definition funktion_die_nichts_tut(); // Funktionsaufruf zahl = 5; // Zuweisung zahl = plus_eins_funktion(zahl); // Funktionsaufruf und Zuweisung if (zahl > 5) // bedingte Anweisung zahl -= 1; // Zuweisung: der Wert von „zahl“ ist wieder „5“ return 0; // Return-Anweisung } Namensgebung Beim Benennen von eigenen Variablen, Konstanten, Funktionen und Datentypen muss man sich an einige Regeln zur Namensgebung halten. Erstens muss das erste Zeichen eines Bezeichners ein Buchstabe oder Unterstrich sein. Zweitens dürfen die folgenden Zeichen nur die Buchstaben A bis Z und a bis z, Ziffern und der Unterstrich sein. Und drittens darf der Name keines der Schlüsselwörter sein. Seit C95 sind auch Zeichen aus dem Universal Coded Character Set in Bezeichnern erlaubt, sofern die Implementierung es unterstützt. Die erlaubten Zeichen sind in Anhang D des ISO-C-Standards aufgelistet. Vereinfacht gesagt, sind es all jene Zeichen, die in irgendeiner Sprache als Buchstabe oder buchstabenähnliches Zeichen Verwendung finden. Ab C99 lassen sich diese Zeichen plattformunabhängig über eine Escape-Sequenz wie folgt ersetzen: \uXXXX (wobei X für eine Hexadezimalziffer steht) für Zeichen mit einem Code von 00A0hex bis FFFFhex. \UXXXXXXXX für alle Zeichen mit einem Code ≥00A0hex. Bestimmte Bezeichner sind außerdem für die Implementierung reserviert: Bezeichner, die mit zwei aufeinanderfolgenden Unterstrichen beginnen Bezeichner, die mit Unterstrich gefolgt von einem Großbuchstaben anfangen. Erweiterungen am Sprachkern, die neue Schlüsselwörter erfordern, verwenden dafür ebenfalls Namen aus diesem reservierten Bereich, um zu vermeiden, dass sie mit Bezeichnern in existierenden C-Programmen kollidieren, z. B. _Complex, _Generic, _Thread_local. Standardbibliothek Die C-Standard-Bibliothek ist integraler Bestandteil einer gehosteten (engl. ) C-Implementierung. Sie enthält unter anderem Makros und Funktionen, die mittels der Standard-Header-Datei verfügbar gemacht werden. Auf freistehenden (englisch ) Implementationen dagegen kann der Umfang der Standardbibliothek eingeschränkt sein. Die Standardbibliothek ist aufgeteilt in mehrere Standard-Header-Dateien, die hinzugelinkte Bibliothek ist jedoch oft eine einzige große Datei. „Gehostet“: C-Compiler und Programm befinden sich in einer Betriebssystem-Umgebung, welche übliche Dienste bietet (z. B. ein Dateisystem, textuelle Ein- und Ausgabekanäle, Speichermanagement). „Freistehend“: Das C-Programm läuft nicht unter einem Betriebssystem, sondern muss alle Gerätefunktionen selbst implementieren. Häufig stehen dennoch zumindest einige Bibliotheken vorab zur Verfügung. Hier finden häufig Cross-Compiler (auch „Target-Compiler“) Verwendung. Module Eine Modularisierung in C erfolgt auf Dateiebene. Eine Datei bildet eine Übersetzungseinheit; intern benötigte Funktionen und Variablen können so vor anderen Dateien verborgen werden. Die Bekanntgabe der öffentlichen Funktionsschnittstellen erfolgt mit sogenannten Header-Dateien. Damit verfügt C über ein schwach ausgeprägtes Modulkonzept. Das globale Sprachdesign sieht vor, dass ein Programm aus mehreren Modulen bestehen kann. Für jedes Modul existiert eine Quellcode-Datei (mit der Endung .c) und eine Header-Datei (mit der Endung .h). Die Quellcode-Datei enthält im Wesentlichen die Implementierung, die Header-Datei das Interface nach außen. Beide Dateien konsistent zu halten, ist bei C (wie auch bei C++, aber nicht mehr in C#) Aufgabe des Programmierers. Module, die Funktionen aus anderen Modulen benutzen, inkludieren deren Header-Dateien und geben dem Compiler damit die notwendigen Informationen über die vorhandenen Funktionen, Aufrufkonventionen, Typen und Konstanten. Jedes Modul kann für sich übersetzt werden und erzeugt eine Object-Datei. Mehrere Object-Dateien können zu einer Bibliothek zusammengefasst oder einzeln verwendet werden. Mehrere Object-Dateien sowie Bibliotheken (die auch nur eine Sammlung von Objekt-Dateien sind) können mittels Linker (deutsch: Binder) zu einem ausführbaren Programm gebunden werden. Undefiniertes Verhalten Undefiniertes Verhalten (undefined behavior) ist nach der Definition des C-Standards „Verhalten bei Verwendung eines nicht portablen oder fehlerhaften Programmkonstrukts oder von fehlerhaften Daten, an die diese internationale Norm keine Anforderungen stellt“. Dies kann beispielsweise die Dereferenzierung eines Nullzeigers, die Division durch Null, der Zugriff auf Variablen durch Zeiger eines falschen Typs oder ein Überlauf bei vorzeichenbehafteten Ganzzahlen sein. Unter der Annahme, dass undefiniertes Verhalten in einem korrekten Programm nicht vorkommt, optimieren bestimmte Compiler solche Konstrukte in einer Weise, die das beobachtbare Verhalten verändern kann, etwa durch Entfernen von Code, der als nicht erreichbar eingestuft wird. Allgemein kann diese Art der Optimierung dazu führen, dass getestete Programme mit anderen Optimierungsstufen oder neueren Compilerversionen fehlerhaftes Verhalten zeigen. Dieses Compilerverhalten wird teilweise kontrovers diskutiert. Auch kann in der hardwarenahen Programmierung mit C die Verwendung von z. B. Überläufen oder uninitialisierten Variablen zur Laufzeitoptimierung des Codes genutzt werden. Geht der Compiler z. B. bei einer Schleife for (int i=n; i<n+10; i++) davon aus, dass kein Überlauf auftritt und sie daher höchstens zehnmal durchlaufen wird, kann dies ihn dazu veranlassen, eine vorherige Überprüfung auf Überlauf if (n < n + 10) als unnötigen Code entfernen. Solche Optimierungen können ihrerseits zu unerwünschtem Verhalten einschließlich registrierter Sicherheitslücken führen (siehe z. B.: CVE) führen. Compiler Am weitesten verbreitet ist der seit 1987 bestehende freie C-Compiler der GNU Compiler Collection. Unter Windows ist auch der seit 1993 entwickelte Compiler Visual C++ weit verbreitet. Neben diesen beiden stehen zahlreiche weitere Compiler zur Verfügung. Da es in C vergleichsweise wenige Schlüsselwörter gibt, ergibt sich der Vorteil eines sehr einfachen, kleinen Compilers. Auf neuen Computersystemen ist C deshalb oft die erste verfügbare Programmiersprache (nach Maschinencode und Assembler). Beziehung zu Assembler, Portierbarkeit Die Programmiersprache C wurde mit dem Ziel entwickelt, eine echte Sprachabstraktion zur Assemblersprache zu implementieren. Es sollte eine direkte Zuordnung zu wenigen Maschineninstruktionen geben, um die Abhängigkeit von einer Laufzeitumgebung zu minimieren. Als Resultat dieses Designs ist es möglich, C-Code auf einer sehr hardwarenahen Ebene zu schreiben, analog zu Assemblerbefehlen. Die Portierung eines C-Compilers auf eine neue Prozessorplattform ist, verglichen mit anderen Sprachen, wenig aufwändig. Bspw. ist der freie GNU-C-Compiler (gcc) für eine Vielzahl unterschiedlicher Prozessoren und Betriebssysteme verfügbar. Für den Entwickler bedeutet das, dass unabhängig von der Zielplattform fast immer auch ein C-Compiler existiert. C unterstützt damit wesentlich die Portierbarkeit von Programmen, sofern der Programmierer auf Assemblerteile im Quelltext und/oder hardwarespezifische C-Konstrukte verzichten kann. In der Mikrocontroller-Programmierung ist C die mit Abstand am häufigsten verwendete Hochsprache. Sicherheit Konzeptionell ist C auf eine einfache Kompilierbarkeit der Quelltexte und für den schnellen Ablauf des Programmcodes ausgelegt. Die Compiler erzeugen in der Regel aber nur wenig Code zur Gewährleistung der Datensicherheit und Betriebssicherheit während der Laufzeit der Programme. Daher wird zunehmend versucht, diese Mängel durch formale Verifikation aufzudecken und zu korrigieren beziehungsweise durch zusätzliche vom Programmierer zu erstellende Quelltexte zu beheben. C schränkt direkte Speicherzugriffe kaum ein. Dadurch kann der Compiler (anders als zum Beispiel in Pascal) nur sehr eingeschränkt bei der Fehlersuche helfen. Aus diesem Grund ist C für sicherheitskritische Anwendungen (Medizintechnik, Verkehrsleittechnik, Raumfahrt) weniger geeignet. Wenn in diesen Bereichen dennoch C eingesetzt wird, so wird in der Regel versucht, die Qualität der erstellten Programme durch zusätzliche Prüfungen wie Softwaretests mit hoher Testabdeckung zu erhöhen. C enthält einige sicherheitskritische Funktionen; so überschreibt zum Beispiel gets(), in alten Standards eine Funktion der Standardbibliothek, fremde Speicherbereiche (Pufferüberlauf), wenn es auf eine unpassende (zu lange) Eingabe stößt. Der Fehler ist innerhalb von C weder bemerk- noch abfangbar. Um den großen Vorteil von C – die Existenz zahlreicher älterer Quellcodes – nicht zu verlieren, unterstützen auch aktuelle Implementierungen weiterhin diese und ähnliche Funktionen, warnen jedoch in der Regel, wenn sie beim Übersetzen im Quelltext benutzt werden. gets() wurde mit C11 endgültig aus der Sprachspezifikation entfernt. C ist nicht typsicher, da verschiedene Datentypen zuweisungskompatibel gehandhabt werden können. Literatur Einführungen Helmut Erlenkötter: C. Programmieren von Anfang an. 22. Auflage. Rowohlt, Reinbek bei Hamburg 2015, ISBN 978-3-499-60074-6. Joachim Goll: C als erste Programmiersprache. Mit den Konzepten von C11. 8., überarbeitete und erweiterte Auflage. Springer Vieweg, Wiesbaden 2014, ISBN 978-3-8348-1858-4. Robert Klima, Siegfried Selberherr: Programmieren in C. 3. Auflage. Springer, Wien 2010, ISBN 978-3-7091-0392-0. Peter Prinz, Ulla Kirch: C. Lernen und professionell anwenden. 3. Auflage. mitp, Heidelberg 2013, ISBN 978-3-8266-9504-9. Thomas Theis: Einstieg in C. Für Programmiereinsteiger geeignet. 1. Auflage. Galileo, Bonn 2014, ISBN 978-3-8362-2793-3. Jürgen Wolf: Grundkurs C. 2., aktualisierte und überarbeitete Auflage. Rheinwerk, Bonn 2016, ISBN 978-3-8362-4114-4. Fortgeschritten Andrew Koenig: Der C-Experte: Programmieren ohne Pannen. Addison-Wesley, 1989, ISBN 3-89319-233-6 (deutsche Übersetzung von: C Traps and Pitfalls. Addison-Wesley, 1989.) Peter van der Linden: Expert-C-Programmierung. Verlag Heinz Heise, 1995, ISBN 3-88229-047-1 (deutsche Übersetzung von: Expert C Programming. Prentice Hall, 1994.) Handbücher Rolf Isernhagen, Hartmut Helmke: Softwaretechnik in C und C++. Das Kompendium. Modulare, objektorientierte und generische Programmierung. ISO-C90, ISO-C99, ISO-C++98, MS-C++.NET. 4., vollständig überarbeitete Auflage, Hanser, München/Wien 2004, ISBN 3-446-22715-6. Jürgen Wolf: C von A bis Z. Das umfassende Handbuch. 3. aktualisierte und erweiterte Auflage 2009, 4., korrigierter Nachdruck 2015, Rheinwerk, Bonn 2015, ISBN 978-3-8362-1411-7. K&R C Brian Kernighan, Dennis Ritchie: The C Programming Language. Prentice Hall, Englewood Cliffs NJ 1978, ISBN 0-13-110163-3. (Deutsche Übersetzung: Brian Kernighan, Dennis Ritchie: Programmieren in C. Mit dem reference manual in deutscher Sprache. Hanser, München/Wien 1983) K&R2 Brian Kernighan, Dennis Ritchie: The C Programming Language. 2. Auflage, Prentice Hall, Englewood Cliffs NJ 1988, ISBN 0-13-110362-8. (Deutsche Übersetzung: Brian Kernighan, Dennis Ritchie: Programmieren in C. Mit dem C-Reference Manual in deutscher Sprache. 2. Auflage. Hanser, München/Wien 1990, ISBN 3-446-15497-3) Weblinks C-Sprachübersicht (sowie Vergleich mit BASIC). Coding Programmer Page / C Library Reference and Examples. (englisch). C Library Reference and Examples (more formal) (englisch). David Straker: C Style: Standards and Guidelines. 1991 erschienenes Buch (englisch). Mike Banahan, Declan Brady, Mark Doran: The C Book. 1991 (englisch). Einfaches C-Tutorial für Einsteiger (englisch). Einzelnachweise Imperative Programmiersprache Programmiersprache mit einem ISO-Standard Unix
910
https://de.wikipedia.org/wiki/Claire%20Danes
Claire Danes
Claire Catherine Danes (* 12. April 1979 in New York City) ist eine US-amerikanische Schauspielerin. Leben und Karriere Danes wurde in New York City als Tochter eines Künstlerpaares geboren. Ihre Mutter Carla Danes ist Bildhauerin und Grafikerin und agierte von 1993 bis 1999 auch als Managerin ihrer Tochter, ihr Vater Christopher Danes ist Architekturfotograf. Sie wuchs mit ihrem älteren Bruder Asa (* 1972), der heute als Anwalt arbeitet, in SoHo auf. Im Alter von sechs Jahren begann Danes mit Unterricht in Modern Dance und mit elf Jahren nahm sie am Lee Strasberg Theatre and Film Institute Schauspielunterricht. Woraufhin sie auf die Junior High School Professional Performing Arts School wechselte. Danes erzählt, dass sich ihr Fokus im Alter von neun Jahren vom Tanzen mehr hin zur Schauspielerei verlagerte. 1992 spielte sie in einer Episodenrolle in der Fernsehserie Law & Order. Als Zwölfjährige bekam sie ein Angebot für eine Rolle in Steven Spielbergs Schindlers Liste. Als man ihr jedoch für die Zeit der Dreharbeiten in Polen keinen Privatlehrer zusagen konnte, lehnten ihre Eltern die Rolle ab. 1994 spielte sie an der Seite von Winona Ryder in der Filmadaption Betty und ihre Schwestern Beth March. Sie besuchte die New York City Lab School for Collaborative Studies und ging für ein Jahr in die Dalton School, bevor sie mit ihren Eltern nach Santa Monica umzog, um die Rolle in My So-Called Life zu spielen. Ihre Hauptrolle in der Fernsehserie Willkommen im Leben (1994–1995) brachte Danes ihren ersten Golden Globe und eine Emmy-Nominierung ein und machte sie und ihren TV-Partner Jared Leto zu Filmstars. Ihr nun höherer Bekanntheitsgrad führte zu weiteren Filmrollen wie der Film Familienfest und andere Schwierigkeiten von Jodie Foster. 1996 folgte I Love You, I Love You Not und Schatten einer Liebe (To Gillian on Her 37th Birthday). Ihre erste Hauptrolle im Kino hatte sie 1996 mit einer modernen Variante von William Shakespeares Romeo + Julia neben Leonardo DiCaprio. Der Film bedeutete ihren internationalen Durchbruch als Filmschauspielerin. Danes wurde unter anderem mit dem London Critics’ Circle Film Award und dem MTV Movie Award ausgezeichnet. Für den Film Titanic wurde Claire Danes die Hauptrolle der Rose angeboten. Sie lehnte jedoch ab, weil sie kurz zuvor in Romeo & Julia schon mit Leonardo DiCaprio zusammen gespielt hatte und befürchtete, nicht mehr „von ihm loszukommen“. 1997 spielte sie in Der Regenmacher von Francis Ford Coppola neben Matt Damon und Danny DeVito und in Oliver Stones Film U-Turn – Kein Weg zurück war sie neben Sean Penn, Nick Nolte und Joaquin Phoenix zu sehen. 1997 machte Danes am Lycée Français de Los Angeles ihren Abschluss. 1998 begann sie nach 13 Filmen in fünf Jahren ein Psychologiestudium an der Yale University, mit einem von Oliver Stone verfassten Empfehlungsschreiben. Nach zwei Jahren brach sie das Studium ab um sich wieder auf ihre Filmkarriere zu konzentrieren. So war sie 2002 in Igby und dem Oscar-Nominierten The Hours – Von Ewigkeit zu Ewigkeit zu sehen. 2003 folgte Terminator 3 – Rebellion der Maschinen, für die Rolle Danes erst einen Tag vor Beginn der Dreharbeiten engagiert wurde. 2004 spielte sie in der Filmkomödie Stage Beauty. Für ihre Darstellung 2005 in Shopgirl und Die Familie Stone – Verloben verboten! wurde sie von Kritikern gelobt. In dem Fantasyfilm Der Sternwanderer von Regisseur Matthew Vaughn war sie 2007 neben Michelle Pfeiffer und Charlie Cox zu sehen. 2008 in Ich & Orson Welles mit Zac Efron. Für die Titelrolle der autistischen Tierwissenschaftlerin Temple Grandin in dem HBO-Fernsehfilm Du gehst nicht allein erhielt sie den Emmy, ihren zweiten Golden Globe und den Screen Actors Guild Award. Der Film wurde gut aufgenommen und Grandin selbst war von Danes Darstellung begeistert. Von 2011 bis 2020 spielte sie über acht Staffeln die Hauptrolle der Carrie Mathison in der Showtime-Serie Homeland, für die sie 2012 und 2013 mit zwei Golden Globes sowie zwei Emmys ausgezeichnet wurde. Im September 2015 bekam sie den 2559. Stern auf dem Hollywood Walk of Fame. 2018 war sie neben Jim Parsons und Octavia Spencer in dem Filmdrama Ein Kind wie Jake zu sehen. Privates Claire Danes hatte Beziehungen mit dem Schauspieler Matt Damon, dem australischen Musiker Ben Lee sowie mit dem Schauspieler Billy Crudup. Seit September 2009 ist Claire Danes mit ihrem Schauspielkollegen Hugh Dancy verheiratet, den sie 2006 bei den Dreharbeiten zum Film Spuren eines Lebens kennengelernt hat. Die beiden haben zwei Söhne (* 2012, * 2018) und eine Tochter (* 2023). Filmografie 1990: Dreams of Love (Kurzfilm) 1992: Law & Order (Fernsehserie, Folge 3x01 Vater-Mutter-Kind) 1993: No Room for Opal (Fernsehfilm) 1993: Geoffrey Beene 30 (Kurzfilm) 1994: Lifestories: Families in Crisis (Fernsehserie, Folge 1x08 More Than Friends) 1994: Betty und ihre Schwestern (Little Women) 1994–1995: Willkommen im Leben (My So-Called Life, Fernsehserie) 1995: The Pesky Suitor (Kurzfilm) 1995: Dead Man’s Jack (Kurzfilm) 1995: Ein amerikanischer Quilt (How to Make an American Quilt) 1995: Familienfest und andere Schwierigkeiten (Home for the Holidays) 1996: I Love You, I Love You Not 1996: Schatten einer Liebe (To Gillian on Her 37th Birthday) 1996: William Shakespeares Romeo + Julia (William Shakespeare’s Romeo + Juliet) 1997: Prinzessin Mononoke (Mononoke-hime, Sprechrolle) 1997: U-Turn – Kein Weg zurück (U-Turn) 1997: Saturday Night Live (Comedy-Show, Gastgeberin, 1 Folge) 1997: Der Regenmacher (The Rainmaker) 1998: Gestern war ich noch Jungfrau (Polish Wedding) 1998: Les Misérables 1999: Mod Squad – Cops auf Zeit (The Mod Squad) 1999: Brokedown Palace 2002: Igby (Igby Goes Down) 2002: The Hours – Von Ewigkeit zu Ewigkeit (The Hours) 2003: It’s All About Love 2003: The Rage in Placid Lake 2003: Terminator 3 – Rebellion der Maschinen (Terminator 3: Rise of the Machines) 2004: Stage Beauty 2005: Shopgirl 2005: Die Familie Stone – Verloben verboten! (The Family Stone) 2007: Spuren eines Lebens (Evening) 2007: The Flock – Dunkle Triebe (The Flock) 2007: Der Sternwanderer (Stardust) 2008: Ich & Orson Welles (Me and Orson Welles) 2010: Du gehst nicht allein (Temple Grandin, Fernsehfilm) 2011: A Child’s Garden of Poetry (Fernsehfilm, Sprechrolle) 2011–2020: Homeland (Fernsehserie, 96 Folgen) 2013: As Cool as I Am 2015: Master of None (Fernsehserie, Folge 1x05 The Other Man) 2017: Die Abenteuer von Brigsby Bär (Brigsby Bear) 2017: Portlandia (Fernsehserie, Folge The Storytellers) 2018: Ein Kind wie Jake (A Kid Like Jake) 2022: Die Schlange von Essex (The Essex Serpent, Miniserie, 6 Folgen) 2022: Fleishman Is in Trouble (Fernsehserie, 8 Folgen) Bühne 2000: The Vagina Monologues (Westside Theatre, New York City) 2005: Christina Olson: American Model (Rolle: Christina Olson, Performance Space 122, New York City) 2007: Edith and Jenny (Rolle Edith, Performance Space 122, New York City) 2007: Pygmalion (Rolle: Eliza Doolittle, American Airlines Theatre, New York City) 2016: Dry Powder (Rolle: Jenny, The Public Theater, New York City) Auszeichnungen Golden Globe Awards 1995: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Willkommen im Leben 2011: Auszeichnung als Beste Hauptdarstellerin in einem Fernsehfilm für Du gehst nicht allein 2012: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2013: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2015: Nominierung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2023: Nominierung als Beste Nebendarstellerin Serie/Fernsehfilm für ''Fleishman is in Trouble'' Screen Actors Guild Awards 2003: Nominierung für das Beste Schauspiel-Ensemble in einem Kinofilm für The Hours – Von Ewigkeit zu Ewigkeit 2011: Auszeichnung als Beste Hauptdarstellerin in einem Fernsehfilm für Du gehst nicht allein 2013: Nominierung für das Beste Schauspiel-Ensemble in einer Drama-Serie für Homeland 2013: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2014: Nominierung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland Emmy Awards 1995: Nominierung als Beste Hauptdarstellerin in einer Drama-Serie für Willkommen im Leben 2010: Auszeichnung als Beste Hauptdarstellerin in einem Fernsehfilm für Du gehst nicht allein 2012: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2013: Auszeichnung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland 2014: Nominierung als Beste Hauptdarstellerin in einer Drama-Serie für Homeland MTV Movie Awards 1997: Nominierung für den Besten Filmkuss (mit Leonardo DiCaprio) für Romeo + Julia 1997: Nominierung als Bestes Filmpaar (mit Leonardo DiCaprio) für Romeo + Julia 1997: Auszeichnung als Beste Schauspielerin für Romeo + Julia Weblinks Claire Danes Biografie bei WHO’S WHO Porträt von Claire Danes in: Die Süddeutsche Einzelnachweise Filmschauspieler Kinderdarsteller Emmy-Preisträger Golden-Globe-Preisträger Darstellender Künstler (New York City) US-Amerikaner Geboren 1979 Frau Absolvent der Yale University
911
https://de.wikipedia.org/wiki/C
C
C bzw. c (gesprochen: []) ist der dritte Buchstabe des klassischen und modernen lateinischen Alphabets. Er bezeichnete zunächst die velaren Verschlusslaute /k/ und /g/ (letzterer seit dem 3. Jh. v. Chr. durch das neugeschaffene G vertreten); infolge der seit dem Spätlateinischen bezeugten Assibilierung vor Vorderzungenvokal bezeichnet c in den meisten romanischen und noch vielen anderen Sprachen auch eine (post-)alveolare Affrikate (ital. , dt., poln., tschech. ) oder einen dentalen oder alveolaren Reibelaut (engl., franz. , span. []). Der Buchstabe C hat in deutschsprachigen Texten eine durchschnittliche Häufigkeit von 3,06 %. Das Fingeralphabet für Gehörlose bzw. Schwerhörige stellt den Buchstaben C dar, indem der Daumen und restliche Finger einen offenen Halbkreis bilden. Aussprache In den meisten romanischen Sprachen sowie verbreitet in der mittelalterlichen und neuzeitlichen Aussprache des Lateins und zahlreicher daraus entlehnter Wörter steht c vor Konsonanten und hinteren Vokalen (einschließlich /a/) für den stimmlosen velaren Plosiv /k/, vor ursprünglichen Vorderzungenvokalen e, i (auch vor lat. ae, oe, y) dagegen für einen Zischlaut (je nach Sprache und Sprachstufe eine Affrikate , oder ein reiner Frikativ /s/, , ; vgl. Romanische Palatalisierung). Die Verteilung dieser Allophone nach darauffolgendem Vokal wird gelegentlich in sprachspezifischer Lautschrift durch die Reihe ka – ce/ze – ci/zi – ko – ku (sogenannte Ka-ze-zi-ko-ku-Regel) wiedergegeben oder einen Merkspruch folgender Art zusammengefasst: „Vor a, o, u sprich c wie k, vor e und i sprich c wie z.“ Wo ein solcher Zischlaut vor einem hinteren Konsonanten wie /a/, /o/, /u/ (oder einem erst später daraus entstandenen Vorderzungenvokal, etwa frz. [y] < lat. /u/) steht, wird er oft durch ç, z, oder (im Italienischen) den Digraphen ci bezeichnet. Umgekehrt tritt für den Velaren vor vorderem Vokal k, im Französischen regelmäßig qu, im Italienischen ch ein. Darüber hinaus wird der Buchstabe c zum Teil auch allgemein durch z bzw. k ersetzt, z. B. im heutigen Deutsch bei lateinischen Lehnwörtern: Zirkus statt Circus. Außerhalb des Italienischen steht der Digraph ch in vielen romanischen Sprachen ebenfalls für einen Zischlaut, im Deutschen und im Gälischen für einen velaren oder palatalen Reibelaut. Meist dient die Kombination ck im Deutschen als Variante von k zur Kennzeichnung eines Silbengelenks, steht also nach kurzen geschlossenen Silben; es findet sich aber bei norddeutschen Orts- und Familiennamen teilweise ein ck auch nach offenen Silben bzw. langen Vokalen (z. B. Mecklenburg (ˈmeː-), Buddenbroock); der Trigraph sch stellt den Laut [] dar (wie in Schule). Herkunft Die aus der protosinaitischen Schrift stammende Urform des Buchstabens stellt einen Fuß dar. Im phönizischen Alphabet wurde diese Bedeutung beibehalten. Der Buchstabe erhielt den Namen Gimel (Kamel) und hatte den Lautwert [g]. Die Griechen übernahmen den Buchstaben als Gamma. Zu Beginn wurde das Gamma in einer Form geschrieben, die wie ein Dach aussah (ähnlich dem späteren Lambda). Bis zur klassischen Zeit entwickelte sich das Gamma zu Γ weiter. Mit dafür verantwortlich war wahrscheinlich neben dem Wechsel der Schreibrichtung von rechts-nach-links auf links-nach-rechts auch der notwendige Wechsel der Schreibwerkzeuge zum Beschreiben von organischen Stoffen. Als die Etrusker das frühgriechische Alphabet übernahmen, hatten sie keine Verwendung für das Gamma, da im Etruskischen stimmhafte Verschlusslaute wie [g] nicht vorkamen. Allerdings hatte die etruskische Sprache drei k-Laute. Die Etrusker veränderten daher den Lautwert des Buchstabens, um den stimmlosen Verschlusslaut [k] vor [e] oder [i] wiederzugeben. Mit eben dem Lautwert wanderte das Zeichen C dann in das lateinische Alphabet und wurde von den Römern, die durchaus zwischen der Tenuis K und der Media G unterschieden, so ursprünglich für die Laute [g] und [k], genauer, für die Silben [ge]; [gi] und [ke]; [ki] gesetzt. Wenn auch in archaischer Zeit in der lateinischen Schriftpraxis drei von ihren nachfolgenden Lauten unterschiedlich gefärbte [k]-Laute zeichenmäßig noch nicht konsequent unterschieden wurden, so setzte doch eine Differenzierung ein, nämlich C vor [e], [i], K vor [a] und Liquiden, Q vor [o], [u], von denen der Erstere auch noch für unser heutiges G verantwortlich ist. Bereits im 4. Jahrhundert v. Chr. kam dieser Prozess zum Abschluss, indem der Buchstabe Q nur noch vor das konsonantische [u] gestellt, während der Buchstabe K ab dem 3. Jahrhundert v. Chr. nur noch in formelhaften Abkürzungen, wie Kal. = Kalendae und dem Brandmal K. = Kalumniator vorkam. Beide Buchstaben wurden zugunsten des C verdrängt. Zunächst wurde das C auch noch für den [g]-Laut verwendet. Nach Plutarch (Quest. Rom. 54) war es 230 v. Chr. der Schreibschulen-Betreiber Spurius Carvilius Ruga, der durch Hinzufügung eines Striches das G als eigenständigen Buchstaben schuf und ihn an die Stelle ins Alphabet einfügte, welche der [ts]-Laut, also das griechische Zeta, im griechischen Alphabet einnahm. Der entsprechende Buchstabe Z an dieser Stelle war im Lateinischen zuvor durch den Censor Appius Claudius Caecus seit 312 v. Chr. (Marc. Capella: 1,3) obsolet geworden, da er im Lateinischen außer als Zahlzeichen keinen wirklichen Nutzen hatte. Im Unterschied dazu wurde bei der späteren Einfügung des griechischen Y und der erneuten Übernahme des Z aus dem Griechischen das lateinische Alphabet am Ende ergänzt. Erhalten blieb das Zeichen C als [ge]-Laut nur in den Abkürzungen C. ≙ Gaius und CN. ≙ Gnaeus. Zitat Da wir, gleich den Griechen und Slaven, die tenuis des gutturallauts mit K ausdrücken, so ist dafür das aus dem lateinischen Alphabet entnommene C ganz überflüssig, fehlt darum auch der gothischen und altnordischen schrift, die Slaven verwenden es für S, die Polen und Böhmen für Z. (…) unentbehrlich aber bleibt, solange wir für die kehlaspirata kein einfaches Zeichen, wie die Gothen das gr. X, annehmen, C in CH. (aus dem Grimmschen Wörterbuch) Siehe auch das griechische Sigma, insbesondere dessen Glyphen ς (finales Sigma) und Ϲ, ϲ (Unzialen) – dort auch weitere Verweise. der kyrillische Buchstabe Es, С, с , ⱅ, Semma, ein Buchstabe des koptischen Alphabets, siehe koptische Schrift Unicode-Zeichen, die vom lateinischen C, c abgeleitet sind: ¢, das Cent-Zeichen; ₡, das Colón-Zeichen; ₵, das Cedi-Zeichen ℃, Grad Celsius (statt dieses einen Zeichens sollte besser die Kombination aus ° und C verwendet werden.) Römisches Zahlzeichen 100: Ⅽ, ⅽ ℅, (care of, engl.) zu Händen; ℆, (cada una, span.) im Einzelnen gestreckt: ʗ (früher auch IPA-Zeichen; hochgestellt: ͨ; Kapitälchen: ᴄ; Fraktur: ℭ) gedreht: Kleinbuchstabe ↄ; römisches Zahlzeichen Ↄ umkreistes C: Ⓒ; Copyrightzeichen ⓒ; Copyleftzeichen 🄯 geklammertes kleines c: ⒞ C*: Bremsenkennwert Weblinks http://www.wam.umd.edu/~rfradkin/alphapage.html http://www.weikopf.de/Sprache/Schrift/Alphabet/body_alphabet.html Quellen Lateinischer Buchstabe
912
https://de.wikipedia.org/wiki/C4
C4
C4, C 4 oder C-4 steht für: Besoldungsgruppe C 4, historische deutsche Besoldungsgruppe, siehe Besoldungsordnung C #Besoldungsgruppe C 4 C-4, Teleskop des Herstellers Celestron, siehe Celestron #Produktreihe C4 model, (context, containers, components, and code), grafische Notationstechnik zur Modellierung der Architektur von Softwaresystemen C4 (Neuseeland), Channel Four, ein ehemaliger neuseeländischer Fernsehsender C4 (Sprengstoff), Composition Compound 4, Sprengstoff C4, Controlled Collapsed Chip Connection, Technologie der Halbleiterproduktion, siehe Flip Chip #C4-Technologie C4, zeitweise Modellbezeichnung Schweizer Straßenbahnwagen, siehe Schweizer Standardwagen C4, Bezeichnung einer Bootsklasse im Kanurennsport, siehe Vierer-Canadier C4, Bezeichnung des vierten Halswirbels, siehe Halswirbelsäule C4, Cybercrime Competence Center beim Bundeskriminalamt (Österreich) C4, militärisches Akronym für Command and Control, Communications, Computers, siehe C4ISR C4-Pflanzen, bestimmte Gruppe Pflanzen mit einer Stoffwechselbesonderheit, siehe C4-Pflanze DIN C4, Papierformat und Standard-Größe für Briefumschläge, siehe Papierformat #Übersicht und Briefumschlag #Größen Caldwell 4, offener Sternhaufen und Nebel Architektengemeinschaft C4, Vorarlberger Architektengruppe (von 1960 bis 1979) Kraftfahrzeuge: Audi 100 C4, obere Mittelklasse Audi A6 C4, obere Mittelklasse Citroën C4, Kompaktklasse Citroën C4 Aircross, Kompaktklasse Citroën C4 Cactus, Kompaktklasse Citroën C4 Picasso, Kompaktvanklasse Coloni C4, Formel-1-Rennwagen Corvette C4, Sportwagenklasse C.4 steht für: Cierva C.4, Tragschrauber C4
913
https://de.wikipedia.org/wiki/Chemische%20Waffe
Chemische Waffe
Chemische Waffen (auch Chemiewaffen) sind toxisch wirkende feste, flüssige oder (als Giftgas) gasförmige Substanzen oder Gemische, die – in Verbindung mit der notwendigen Waffentechnik zur Ausbringung (Granaten, Sprühvorrichtungen) – ursprünglich hergestellt wurden, um Menschen in kriegerischen Auseinandersetzungen sowie bei Terror- und Sabotageakten zeitweilig kampf- bzw. handlungsunfähig zu machen oder zu töten. In der 1997 in Kraft getretenen Chemiewaffenkonvention wird die Verwendung auf jede Chemikalie in Waffen erweitert, deren toxische Eigenschaften Menschen oder Tieren zeitweiligen oder permanenten Schaden zufügen, und auch die zu ihrer Produktion verwendeten Vorgängerstoffe werden, sofern sie nicht für eine andere Form der Weiterverarbeitung vorgesehen sind, zu den chemischen Waffen gezählt. Im erweiterten Sinn werden auch Brand- (Napalm), Nebel- und Rauchstoffe sowie Entlaubungsmittel (Herbizide) und Nesselstoffe zu den chemischen Waffen gerechnet. Chemische Waffen gehören zu den Massenvernichtungswaffen (CBRN-Waffen). Geschichte Bereits im Peloponnesischen Krieg 431 bis 404 v. Chr. setzten die Spartaner Brandkörper ein, die hohe Luftkonzentrationen von Schwefeldioxid verursachten. Bei der Eroberung von Dura Europos setzten die Sassaniden 256 n. Chr. gegen die Römer auch Naphtha ein. In der Schlacht bei Liegnitz (1241) wurden die christlichen Ritter von den Mongolen durch „dampfausstoßende Kriegsmaschinen“ in Schrecken versetzt. Die ersten modernen chemischen Waffen sind im Ersten Weltkrieg eingesetzt worden. Es handelte sich um unmittelbar einsatzbereite unitäre Kampfstoffe, die zunächst auf Substanzen basierten, die bereits in der chemischen Industrie verwendet wurden, also in ausreichend großen Mengen vorhanden waren; das waren Gase wie Chlor, Phosgen, Cyanwasserstoff (Blausäure) oder Arsin. Diese hatten jedoch zwei große Nachteile: Zum einen waren sie durch wechselnde Windrichtungen unberechenbar (so konnte eine Gaswolke auf die eigene Stellung zurückgeweht werden), und andererseits verflüchtigte sich das Gas relativ schnell. Daher sind die meisten späteren chemischen Kampfstoffe Flüssigkeiten, die als Aerosole versprüht werden. Das hat zur Folge, dass die Substanzen an Boden, Kleidung, Haut und Gasmasken klebenbleiben und auch in die Filter eindringen können. Deshalb ist die Verweildauer viel länger als bei Gas. Das Hauptziel der neueren Kampfstoffe ist nicht allein die Lunge, sondern auch die Haut. Ein solcher Kampfstoff diffundiert durch die Haut hindurch in die Blutbahn und wird so schnell im ganzen Organismus verteilt. Daher stellen nur Ganzkörperschutzanzüge einen ausreichenden Schutz gegen Kampfstoffe dar. Ein bekannter und wichtiger Kampfstoff dieser Gruppe ist Schwefellost, auch bekannt unter dem Namen Senfgas. Dass bereits 21 Jahre vor dem Ersten Weltkrieg die Entwicklung von Chemiewaffen politisch relevant war, zeigt ein Artikel der Times von 1893, in dem das War Office Explosives Committee die Unmöglichkeit thematisierte, Tests der neuen Waffen geheim zu halten: „Die Experimente müssen teilweise in den eigenen Labors durchgeführt werden, die an öffentliche Einrichtungen angegliedert sind, an deren Angestellte kein offizieller Anspruch auf Geheimhaltung gestellt werden kann; teilweise im Gebäude des War Department Chemical Establishments, wo Angestellte verschiedenster Grade arbeiten und wo laufend Beamte aller Art vorbeischauen, sowie Privatpersonen; gleichzeitig muss die Einrichtung ihre praktischen Experimente im Freien auf dem Gelände des Waffenlagers ausführen, wozu die Zeitungsreporter und ihre Agenten freien Zugang haben.“ Erster Weltkrieg Im Ersten Weltkrieg kam es zum ersten Einsatz von chemischen Kampfstoffen im August 1914 durch französische Truppen, die Xylylbromid – ein für die Pariser Polizei entwickeltes Tränengas – gegen deutsche Truppen einsetzten. Erste Versuche beider Seiten mit Stoffen wie Bromessigsäureethylester (durch Frankreich im März 1915) und o-Dianisidinchlorsulfonat, einem feinkristallinen Pulver, das Schleimhäute der Augen und Nase reizte (durch Deutschland am 27. Oktober 1914 bei Neuve-Chapelle), verliefen nicht zufriedenstellend, da die Stoffe sich beim Abschuss durch die entstehende Hitze zersetzten. In großem Umfang setzte zuerst das deutsche Heer Kampfgase ein, als Ende Januar 1915 an der Ostfront bei Bolimów in Polen bei einer Offensive der 9. Armee mit Xylylbromid gefüllte Geschosse gegen russische Truppen abgefeuert wurden. 18.000 Gasgranaten waren bereitgestellt worden, deren Wirkung aber durch Kälte und Schnee nahezu aufgehoben wurde. Ungleich bekannter wurde jedoch der erste wirkungsvolle Einsatz von chemischen Waffen an der Westfront vom 22. April 1915 in der Zweiten Flandernschlacht bei Ypern. Das deutsche XV. Armee-Korps unter General der Infanterie von Deimling ließ 150 Tonnen Chlorgas nach dem so genannten Haberschen Blasverfahren aus Flaschen entweichen. Eingeatmetes Chlorgas führt zu einem lebensbedrohlichen toxischen Lungenödem. Da Chlor schwerer als Luft ist, sank das Gas in die französischen Schützengräben und forderte dort angeblich rund 5000 Tote und 10.000 Verletzte; heute geht man von 1.200 Toten und 3.000 Verwundeten aus. Frankreich setzte als erste der kriegführenden Nationen am 22. Februar 1916 Phosgen (COCl2) in Reinform ein, nachdem deutsche Gastruppen eine Mischung aus Chlorgas mit einem etwa fünfprozentigen Zusatz von Phosgen bereits Ende Mai 1915 an der Ostfront in Bolimów an der Bzura gegen russische Truppen sowie an der Westfront am 31. Mai 1915 bei Ypern gegen französische Truppen verwendet hatten. Phosgen wird der größte Anteil an allen Gasverletzten zugeschrieben. Später wurden die Kampfstoffe mittels Giftgasgranaten verschossen, bei denen durch farbige Kreuze (Blaukreuz, Gelbkreuz, Grünkreuz und Weißkreuz) erkennbar war, welche Art von Kampfstoff sie enthielten. An der Westfront wurde verstärkt „Gelbkreuz“ eingesetzt, das für Hautkampfstoffe stand. Buntschießen Während des Ersten Weltkrieges wurden Kampfstoffe in der Spätphase häufig kombiniert eingesetzt. Stark reizend wirkende Kampfstoffe in Aerosol- oder Pulverform wie Blaukreuz konnten die Filter der Gasmasken durchdringen und zwangen die Träger, die Gasmaske abzunehmen. Gleichzeitig mit diesen Maskenbrechern wurden lungenschädigende Kampfstoffe wie Grünkreuz eingesetzt. Der kombinierte Einsatz verschiedener Kampfstoffe zu diesem Zweck wurde als „Buntschießen“ oder „Buntkreuz“ bezeichnet. Bei der Offensive deutscher und österreichisch-ungarischer Verbände im Raum Flitsch-Tolmein (Schlacht von Karfreit oder auch Zwölfte Isonzoschlacht) am 24. Oktober 1917 wurde der Angriff durch „Buntschießen“ von Gasbatterien vorbereitet. Die italienischen Soldaten verfügten nur über ungenügende oder gar keine Schutzbekleidung – in diesem Abschnitt starben durch den Gasangriff über 5.000 Italiener. Die angreifenden Verbände hatten es dadurch erheblich leichter, den Durchbruch durch die italienische Front zu erreichen. Auch die psychische Wirkung auf die Italiener war verheerend. Sehr viele Soldaten ergaben sich den Angreifern, die Kampfmoral sank drastisch. Die italienische Front musste bis an den Piave zurückgenommen werden; zur Verstärkung wurden französische und britische Verbände an diese Front verlegt. Die Italiener konnten die Lage nach einer Reorganisation später selbst wieder stabilisieren. Im Juni 1918 versuchte Österreich-Ungarn in einer letzten Offensive, den Piave zu überschreiten. Der Angriff war jedoch nicht erfolgreich, da zum einen die Italiener besser gegen Gasangriffe gerüstet waren und zum anderen ein Teil der chemischen Waffen zu lange gelagert worden war und damit seine Wirksamkeit verloren hatte. Ein weiterer militärisch erfolgreicher Fall von Buntschießen, wie von Oberst Georg Bruchmüller erfunden, erfolgte bei der Deutschen Frühjahrsoffensive vom 21. März bis 17. Juli 1918 an der Westfront in Nordfrankreich. Dabei lag das Augenmerk nicht auf einer langen Artillerievorbereitung und einem schwerfälligen Angriff auf breiter Front, sondern auf einem kurzen, aber zusätzlich durch gemischten Einsatz von Gasgranaten effektiven Artillerieschlag. Danach sollten die sogenannten Sturmbataillone nachrücken und verbliebene Widerstandsnester ausräumen. Der gemischte Gaseinsatz lähmte dabei die Widerstandskraft des Gegners entscheidend. Bewertung von chemischen Kampfstoffen als Kriegswaffe Chemische Kampfstoffe werden heute allgemein als die schrecklichsten Waffen des Ersten Weltkrieges angesehen. Sie verursachten kurzzeitig große Ausfälle, wobei allerdings im Vergleich zu anderen damaligen Waffen die Todesraten sehr gering waren. Trotz der teilweise qualvollen Verletzungen waren die Heilungschancen besser als im Vergleich zu Verwundungen durch Schussverletzungen oder Artillerie; abgesehen von den Spätfolgen wie zum Beispiel Hautkrebs im Falle von S-Lost, die zum Teil erst nach Jahrzehnten eintraten. Chemische Waffen verursachten im Ersten Weltkrieg auf beiden Seiten insgesamt etwa 90.000 Tote und 1,2 Millionen Verwundete, wobei aufgrund mangelhafter Schutzausrüstung allein auf Russland mehr als die Hälfte dieser Toten entfiel. An der Westfront hatten die Alliierten etwa doppelt so hohe Verluste wie die Deutschen. Deutschland und Österreich-Ungarn rüsteten ihre Soldaten mit wirksameren Gasmasken aus und konnten so höhere Verluste bei Gasangriffen vermeiden. Aufgrund der verhältnismäßig niedrigen Todesrate (ca. 90.000 Tote; manche Historiker nehmen an, dass insgesamt nur 18.000 Mann an der Westfront durch Gasangriffe starben) und der teilweise unkalkulierbaren Wirkung infolge von nicht vorhersehbaren Faktoren wie bspw. wechselnde Windrichtungen gilt Giftgas im Ersten Weltkrieg als eine wenig effektive Waffe. Zwischen den Weltkriegen (1918 bis 1939) Im Ersten Weltkrieg hatte die Flugzeugtechnik deutliche Fortschritte gemacht: Reichweite, Zuverlässigkeit, Geschwindigkeit und maximale Zuladung hatten stark zugenommen. Auch hatten alle Seiten die Nützlichkeit von Aufklärungsflugzeugen erkannt. Ab 1919 wurde das Konzept der kolonialen Herrschaft und Kontrolle aus der Luft von Winston Churchill erstmals umgesetzt. Die Royal Air Force sollte dabei die Kontrolle über die Kolonien im Nahen Osten übernehmen und ausführen. Neben konventionellen Waffen wurden dabei auch Giftgaseinsätze aus der Luft erwogen und von Churchill ausdrücklich gefordert. Aufgrund von technischen Problemen wurde Giftgas nur mit den bereits im Ersten Weltkrieg erprobten Methoden gegen die arabische Bevölkerung im Irak angewandt. Dabei kam es auch zu Giftgaseinsätzen gegen die Kurden in Sulaimaniyya im heutigen Irak. Vorbehalte britischer Militärs wies Churchill zurück und erklärte: „Ich verstehe die Zimperlichkeit bezüglich des Einsatzes von Gas nicht. Ich bin sehr dafür, Giftgas gegen unzivilisierte Stämme einzusetzen“, ließ er verlauten. Das eingesetzte Gas müsse ja nicht tödlich sein, sondern nur „große Schmerzen hervorrufen und einen umfassenden Terror verbreiten“. Ein Verband der sowjetischen Armee, zusammengesetzt vorwiegend aus Einheiten der Tscheka, setzte während des Bauernaufstands von Tambow 1920/21 chemische Kampfstoffe zur Bekämpfung der aufständischen Bauern ein. Im Rifkrieg in Nordmarokko setzte Spanien ab 1924 chemische Waffen gegen die aufständischen Rifkabylen, einen Berber-Stamm, ein. Dabei wurde Spanien von Frankreich und in einem Geheimvertrag von der deutschen Reichswehr unterstützt. Ein weiteres Mal wurde Giftgas vom faschistischen Italien im Zweiten Italienisch-Libyschen Krieg sowie im Abessinienkrieg verwendet. Italien setzte Giftgasbomben in Äthiopien ein, nachdem die äthiopische Weihnachtsoffensive erfolgreich italienische Truppen zurückgedrängt und Versorgungslinien unterbrochen hatte. Die äthiopischen Truppen waren sehr schlecht ausgerüstet und viele Krieger kämpften noch mit Speeren. Die Krieger trugen traditionelle Kleidung und verfügten über keine Schutzausrüstung, so dass besonders das hautschädigende Senfgas zu hohen Verlusten führte. Laut sowjetischen Schätzungen kamen durch den Einsatz von Giftgas 15.000 bis 50.000 Äthiopier ums Leben. Der deutschen Reichswehr waren die Entwicklung und der Besitz von chemischen Waffen durch den Versailler Vertrag verboten. Um das Verbot zu umgehen, kooperierte Deutschland ab 1923 mit der Sowjetunion (siehe: Vertrag von Rapallo) und erprobte auf dem Testgelände Tomka chemische Waffen. Eine Zusammenarbeit fand auch mit Spanien statt. In den USA wurden Chemiewaffen zwischen den Weltkriegen weiterentwickelt. Zuständig dafür war neben der American Chemical Society (Institut für Chemie an der Northwestern University) eine Militärbehörde, die National Association for Chemical Defense. Deren Leiter H. Edmund Bullis empfahl 1928 sogar den Polizeibehörden den Einsatz dieser „höchst effektiven und zugleich humansten aller Waffen“, eben Chemiewaffen. In Cleveland und Chicago testeten Polizisten in dem Jahr „erfolgreich“ aus „genialen“ Füllfederhalter-großen oder aus normalen Pistolen abgefeuerte neuartige Gase, die „gezeigt haben, dass man drei oder vier Männer, die zusammen nicht weiter als fünf Meter entfernt stehen, mit einem einzigen Schuss nachhaltig ausschalten kann“. Auch Kneipen, die illegal Alkohol ausschenkten (Speakeasys), könne man mit Chemiewaffen „mindestens einen Monat lang unbewohnbar“ machen. Bullis setzte sich vehement gegen ein weltweites Verbot von chemischen Waffen im Krieg ein, mit der Begründung: „Wir sollten uns nicht die Hände durch eine internationale Übereinkunft binden lassen, deren Einhaltung man nicht sicherstellen kann.“ Er nannte als Beispiel den Austritt toxischen Phosgengases aus einem Kesselwagen bei der Chemischen Fabrik Stoltzenberg in Hamburg. Das Deutsche Reich durfte eigentlich solche Giftgase gar nicht herstellen und lagern. Die englische Öffentlichkeit diskutierte nach dem Ersten Weltkrieg über eine stärkere Zusammenlegung von ziviler und militärischer Forschung, wozu auch die Entwicklung neuer Chemiewaffen gehörte. „Die ganze Zukunft der chemischen Kriegführung hängt von der Farbstoffindustrie ab“, schrieb 1920 der Kriegskorrespondent der Londoner Times. Genfer Protokoll Die Verwendung von vergiftenden Waffen war schon vor dem Ersten Weltkrieg durch die Haager Landkriegsordnung geächtet, deren Formulierung bot jedoch ausreichend Spielraum zu verschiedenen Auslegungen, so dass der Einsatz von Giftgas nicht eindeutig verboten war. Angesichts der Gräuel im Ersten Weltkrieg wurde 1925 im Genfer Protokoll die Anwendung von Giftgasen und bakteriologischen Mitteln ausdrücklich verboten. Die Ratifizierung erfolgte zögerlich: 1926: Frankreich, 1928: Italien, Sowjetunion (Erklärung), 1929: Deutschland, 1930: Großbritannien, 1970: Japan, 1975: USA. Viele der Unterzeichnerstaaten behielten sich bestimmte Handlungen vor, namentlich den C-Waffeneinsatz gegen Nichtvertragsstaaten und Gegenangriffe, falls sie mit solchen Waffen angegriffen werden sollten (⇒ Abschreckung/Vergeltung) Der Vertrag ist nur ein Verbot des Ersteinsatzes von B- und C-Waffen. Zweiter Weltkrieg Bereits 1935 erschien das Lehrbuch Schulversuche zur Chemie der Kampfstoffe: ein Experimentierbuch zum Gas- und Luftschutz in Berlin. Der Autor Kintoff leitet zu einfachen Versuchen an und erläutert die Funktion der Gasmaske. Während des Zweiten Weltkrieges setzte das Kaiserreich Japan als einzige Nation chemische Waffen ein. Diese wurden zusammen mit biologischen Waffen in der Republik China gegen chinesische Truppen und auch zur gezielten Massentötung von Zivilisten eingesetzt. Nach Erkenntnissen der Historiker Yoshiaki Yoshimi und Seiya Matsuno erhielt Okamura Yasuji vom Kaiser Hirohito die Erlaubnis, chemische Waffen während dieser Gefechte einzusetzen. Zum Beispiel ermächtigte der Kaiser den Einsatz von Giftgas während der Schlacht um Wuhan von August bis Oktober 1938 in 375 verschiedenen Einsätzen gegen die 1,1 Millionen chinesischen Soldaten, von denen 400.000 während der Schlacht starben. Artikel 23 der Haager Landkriegsordnung und Artikel 5 des Vertrages in Bezug auf die Nutzung von U-Booten und Schadgasen in der Kriegführung vom 6. Februar 1921 verurteilten jedoch bereits den Einsatz von Giftgas. Während der Schlacht um Changsha im Herbst 1939 setzte die Kaiserlich Japanische Armee ebenfalls große Mengen Giftgas gegen chinesische Positionen ein. Ein weiteres Beispiel ist die Schlacht von Yichang im Oktober 1941, in der das 19. Artillerieregiment die 13. Brigade der 11. Armee durch Beschuss der chinesischen Streitkräfte mit 1.000 gelben Gasgranaten und 1.500 roten Gasgranaten unterstützte. Das Gebiet war mit chinesischen Zivilisten, deren Evakuierung durch die japanische Armee untersagt wurde, überfüllt. Von den rund 3.000 chinesischen Soldaten in dem Gebiet waren 1.600 von der Wirkung des Gases erheblich betroffen. Während der Schlacht um Changde im November und Dezember 1943 versuchten Truppen der Kaiserlich Japanischen Armee, darunter die Einheit 516, zusammen mit der Versprühung von biologischen Kampfstoffen von Flugzeugen aus, durch den massiven Einsatz von Giftgas, welches hauptsächlich mit Artilleriegranaten sowohl auf chinesische Stellungen im Umland als auch in die Stadt abgeschossen wurde, den Widerstand der Verteidiger zu brechen. Bei dem eingesetzten Gas handelte es sich neben anderen Arten zur Hauptsache höchstwahrscheinlich um Senfgas und Lewisit. Im Laufe der Schlacht starben 50.000 chinesische Soldaten und 300.000 Zivilisten. Wie viele davon durch die biologischen und chemischen Waffen gestorben sind, ist ungeklärt. Sowohl die Einsätze von biologischen als auch von chemischen Waffen durch die Kaiserlich Japanische Armee werden zu den japanischen Kriegsverbrechen gezählt. Zu den zahllosen Menschenexperimenten der japanischen Armee, darunter der Einheit 731, gehörte auch das Testen von Giftgas an gefangenen chinesischen Zivilisten. Im Jahr 2004 entdeckten Yuki Tanaka und Yoshimi im australischen Nationalarchiv Dokumente, die belegen, dass Zyanidgas im November 1944 auf den Kai-Inseln (Indonesien) an australischen und niederländischen Kriegsgefangenen getestet wurde. Das Verbot der Anwendung von vergiftenden, chemischen und biologischen Waffen wurde im Zweiten Weltkrieg zumindest auf dem europäischen Kriegsschauplatz weitgehend beachtet, obwohl nicht alle beteiligten Länder dem Protokoll beigetreten waren. Ein weiterer wichtiger Aspekt war auch die gegenseitige Abschreckung, vergleichbar mit der atomaren Abschreckung im Kalten Krieg: Hätte eine der kriegführenden Parteien Giftgas eingesetzt, wurde als Folge eine Bombardierung des eigenen Territoriums mit chemischen Waffen durch Gegner befürchtet. Für den Fall, dass Deutschland an der Ostfront Kampfstoffe einsetzen sollte, hatte der britische Premierminister Churchill bereits im Mai 1942 mit einem Großeinsatz von Kampfstoffen gedroht. Ein amerikanischer Plan vom April 1944 sah für den Fall des Kampfstoffeinsatzes durch Deutschland einen Vergeltungsangriff gegen 30 große deutsche Städte vor. Innerhalb von 14 Tagen sollten in diesem Fall die Städte mit einer Gesamtfläche von 217 km² angegriffen und über ihnen insgesamt 15.345 t Senfgas (Lost) und 21.176 t Phosgen abgeworfen werden. Wegen der extrem hohen Kampfstoffkonzentration in diesem Fall (168 Gramm je Quadratmeter) gingen Schätzungen von 5,6 Millionen unmittelbar durch den Einsatz Getöteten und weiteren 12 Millionen an den Folgen des Angriffs Gestorbenen und Verletzten aus. Auch wäre der Einsatz meist unvorteilhaft gewesen, da die eigenen Soldaten in der Offensive verseuchtes Gelände eingenommen hätten und daher selbst Vergiftungen zu fürchten gehabt hätten. An den europäischen Fronten sind während des ganzen Zweiten Weltkriegs nur vier Fälle bekannt geworden, in denen Menschen durch Kampfstoffe getötet oder verletzt wurden, dabei handelte es sich um einen gezielten Kampfstoffeinsatz sowie drei Unfälle: Vermutlich aufgrund der Entscheidung eines einzelnen Offiziers verwendeten polnische Truppen Lostbomben zur Sprengung einer Brücke und zur Verminung einer Straßensperre in der Nähe von Jaslo. Dabei wurden am 8. September 1939 zwei deutsche Soldaten getötet und zwölf verwundet. Am 11. September 1939 wurden drei deutsche Soldaten bei Ostrowiec (Polen) durch Gas verletzt, als sie einen auffälligen Behälter öffneten. Am 2. Dezember 1943 bombardierte die deutsche Luftwaffe den italienischen Hafen von Bari. Dabei wurde der unter anderem mit 100 t Stickstoff-Lost beladene US-Frachter John Harvey getroffen und versenkt. Ein Teil der Ladung lief ins Wasser, ein anderer Teil wurde durch die Explosionen und die Brände in der Luft verteilt. Da auf Grund der Geheimhaltung nur wenige Personen in Bari von der Existenz dieser Ladung wussten und diese allesamt durch das Gas getötet wurden, konnten die Verwundeten zunächst nicht richtig behandelt werden. Genaue Zahlen über die Opfer existieren nicht; es wird geschätzt, dass über 600 Soldaten und Angehörige der Handelsmarine verätzt wurden, wovon etwa 100 starben. Die Zahl der getöteten Zivilisten dürfte um die 1.000 betragen. Dieser Vorfall hätte beinahe eine weitere Eskalation des Krieges ausgelöst. Eine im Hafenbecken gefundene Gasbombe wurde aber noch rechtzeitig als amerikanisches Modell identifiziert, so dass Vergeltungsschläge mit Giftgas gegen die deutschen Truppen unterblieben. Am 8. April 1945 griffen amerikanische Jagdbomber den Bahnhof Lossa (zwischen Sömmerda und Naumburg) an. Dabei wurden einige mit Tabun gefüllte Bomben beschädigt, die im Rahmen der Verlagerung eines Luftwaffen-Munitionslagers während ihres Transportes dort standen. Genaue Verluste sind nicht bekannt geworden. Im nationalsozialistischen Deutschen Reich wurde im Dezember 1936 bei I.G. Farben im Werk Leverkusen durch den Chemiker Gerhard Schrader der Nervenkampfstoff Tabun entdeckt. Im Dezember 1939 synthetisierte er den in seiner Wirkung noch stärkeren Giftstoff Sarin. Ab Frühjahr 1942 produzierte I.G. Farben in ihrem Werk in Dyhernfurth in Schlesien Tabun. 1944 entdeckte der Nobelpreisträger Richard Kuhn mit seinem Mitarbeiter, Konrad Henkel, den Kampfstoff Soman in einer vom Heereswaffenamt unterhaltenen Abteilung des Kaiser-Wilhelm-Instituts für medizinische Forschung in Heidelberg. Diese Nervengifte wurden aufgrund der Furcht vor einem Gegenschlag nicht eingesetzt. Da sie in gasförmiger Zubereitung – oft als Aerosol – eingesetzt werden sollten, werden diese Stoffe auch als Nervengase bezeichnet. Deutschland hatte Ende der dreißiger Jahre als erste Nation die großtechnische (industrielle) Produktion von Nervenkampfstoffen entwickelt, war also als einzige Kriegspartei zur Herstellung von Nervenkampfstoffen im Kilogramm- und Tonnenbereich in der Lage. Dieser Umstand, gekoppelt mit der Verfügbarkeit modernster Trägersysteme wie der V-2, hätte die politische Führung in die Lage versetzt, einen strategischen Gaskrieg zu entfesseln, der unter Umständen von der Tragweite her ähnlich gravierend hätte sein können wie die Atombombenabwürfe auf Hiroshima und Nagasaki. Die verantwortliche Führung des deutschen Kampfgasentwicklungsprogramms verheimlichte Hitler gegenüber bewusst die tatsächlichen Möglichkeiten, denn eine Eskalation zum Gaskrieg wurde befürchtet, falls Hitler klar werden sollte, welche Wirkung beispielsweise ein mit Tabungefechtsköpfen bestückter V-2-Angriff auf London hätte haben können. Für den taktischen Einsatz waren bereits als Träger Werferwaffen (sog. Nebelwerfer) hergestellt und die entsprechenden Truppen (Nebeltruppe) geschult worden. Die oft geäußerte Vermutung, dass die Erfahrungen Hitlers im Ersten Weltkrieg ihn davon abgehalten haben sollen, chemische Kampfstoffe einsetzen zu lassen, entbehrt jeder Grundlage, da er selbst die Produktion dieser befahl und die Vorbereitungen für den Beginn eines Gaskrieges anordnete. Die Gründe dafür, dass die ab 1942 in großem Umfang produzierten Nervenkampfstoffe nicht zum Einsatz kamen, waren größtenteils logistischer (Rohstoffknappheit) und militärstrategischer Art. Ebenfalls von Bedeutung waren sowohl die deutsche Fehleinschätzung, die Alliierten würden ebenfalls über Nervenkampfstoffe verfügen, als auch die alliierte Androhung massiver Gegenschläge im Falle eines deutschen Ersteinsatzes chemischer Kampfstoffe. In einer Besprechung am 15. Mai 1943 im Führerhauptquartier hatte der Chemiker Otto Ambros erklärt, dass Tabun seit 1902 in der Literatur behandelt werde und Sarin sogar patentiert sei, und die Substanzen in den Patentschriften stünden. Daher sei er überzeugt, dass andere Länder diese Gase nicht nur rasch nachmachen können, sondern auch in weitaus größeren Mengen produzieren können. In den Gaskammern der deutschen Vernichtungslager Auschwitz-Birkenau, Belzec, Sobibor, Mauthausen, Treblinka und Lublin-Majdanek wurden viele Opfer des Holocaust mit dem blausäurehaltigen Insektizid Zyklon B und in Gaswagen mit Motorabgasen (Kohlenstoffmonoxid) ermordet. Nach 1945 Nach dem Zweiten Weltkrieg wurden umfangreiche deutsche Bestände – zwischen 30.000 und 40.000 Tonnen chemischer Waffen – in der Nord- und Ostsee in der von US-amerikanischen Streitkräften geleiteten Operation Davy Jones’ Locker mitsamt ihren Transportschiffen versenkt, so vor der norwegischen Hafenstadt Arendal 1946. Die Versenkung der Schiffe erfolgte durch Sprengung oder Beschuss durch Bordwaffen begleitender britischer Kriegsschiffe. 1955/56 wurden Restbestände, die von der Royal Air Force gebunkert worden waren, in der Operation Sandcastle nordwestlich von Irland im Atlantik versenkt, so auch die SS Kotka. Von 1944 bis 1970 wurden von Seiten der United States Army in 26 so genannten Versenkungszonen (dump zones) an der Ostküste der USA chemische Kampfstoffe versenkt, von denen aufgrund mangelnder oder unzureichender Dokumentation unklar ist, wo sie sich exakt befinden und welche Chemikalien in welcher Menge dort lagern. Gesichert ist, dass Ägypten chemische Waffen im Jemen eingesetzt hat. Die Technologie dazu stammte aus der Sowjetunion, welche diese auch an andere mit ihr verbündete Staaten des Nahen Ostens – wie dem Irak – weitergegeben hatte. Während anfangs von Frankreich und den USA noch konventionelle Brandbomben wie Napalm gegen die Nordvietnamesen und die FNL verwendet wurden, startete die Regierung Kennedy 1961 den systematischen Einsatz von Chemikalien gegen Nordvietnam. Die im Zuge der Operation Ranch Hand als Entlaubungsmittel eingesetzten Herbizide (vor allem Agent Orange) sollten dem Gegner die Deckung durch die Vegetation nehmen sowie seine Ernte vernichten. Agent Orange war mit 2,3,7,8-Tetrachlordibenzodioxin verunreinigt und verursachte dadurch schwere gesundheitliche Schäden unter der Bevölkerung und den Soldaten beider Seiten. Erste Verhandlungen zu einem Chemiewaffenübereinkommen (CWÜ, auch Chemiewaffenkonvention genannt) begannen 1968 mit der Working Group on Chemical Weapons bei der Eighteen Nations Conference on Disarmament (ENCD) der UN in Genf, die seit 1962 bestand. 1969 nahm eine Conference of the Committee on Disarmament of the UN (CCD) ihre Tätigkeit auf. Der angebliche Einsatz von Sarin gegen eigene Kräfte (Deserteure) in der Operation Tailwind im September 1970 in Laos entpuppte sich als politisch motivierte Falschmeldung. 1975 gab es 30 Teilnehmerstaaten für ein CWÜ; darunter waren auch die Bundesrepublik und die DDR. 1976 fanden bilaterale Verhandlungen von USA und UdSSR statt. Die Verhandlungen wurden im selben Jahr unterbrochen. Erst 1979 einigten sich die USA und UdSSR weitgehend über die Grundstruktur des Vertrags und weitgehend auch über Verifikationsmaßnahmen; ungelöst blieb aber die Frage von Ad-hoc-Verdachtskontrollen vor Ort. 1979 gab es ein Committee on Disarmament of the United Nations (CD); es hatte 40 Teilnehmerstaaten. 1980 bildete sich ein Ad Hoc Committee on Chemical Weapons. 1981 beschuldigte der US-amerikanische Außenminister Alexander Haig die UdSSR und die von ihr unterstützte Vietnamesische Volksarmee, im Zweiten Laotischen Bürgerkrieg (1963–73) Mykotoxine eingesetzt zu haben, um Tausende von Hmong zu töten. Diese Vorwürfe konnten nicht bewiesen werden. Ende der 1980er Jahre erkannte das US-Militär, dass die bisherigen, lange gelagerten Chemiewaffen bis spätestens 1990 zum Großteil zersetzt und damit militärisch unbrauchbar sein würden; daher unterschrieb Präsident Ronald Reagan 1987 ein Gesetz, um die alten chemischen Kampfstoffe zu zerstören und gegen neue, binäre Kampfstoffe zu ersetzen. Bei diesen wird nicht der endgültige und wirksame chemische Kampfstoff bereitgehalten, sondern verschiedene, stabilere und weniger korrosive Komponenten, die beim Einsatz der binären Waffen dann erst zum Wirkstoff reagieren. Chemiewaffenübereinkommen (1992/1997) Nach dem Ende des Kalten Krieges um 1990 änderte sich die geostrategische Lage deutlich. Es kam zu zahlreichen Abrüstungsverhandlungen zwischen westlichen Staaten und Nachfolgestaaten der Sowjetunion. Chemische Waffen (oft lagerten sie in inzwischen rostigen Tanks) galten vielen inzwischen als Altlast. Schon Ende der 1980er Jahre verkündete der sowjetische Präsident Michail Gorbatschow auf Chemiewaffen künftig zu verzichten und diese vernichten zu wollen und lud 1987 internationale Beobachter in bis dahin geheime Chemiewaffenlabore ein. Schon 1990 kam es zu einem bilateralen Abkommen mit den USA (Chemiewaffenabkommen) über die Vernichtung von Chemiewaffen. Am 3. September 1992 wurde das CWÜ von den Mitgliedstaaten der Genfer Abrüstungskonferenz (UNCD) verabschiedet. Seit 13. Januar 1993 kann es unterzeichnet werden. Eine Unterzeichnung erfolgte durch etwa 150 Staaten, darunter USA und Russland. Deutschland hat die Konvention 1994 ratifiziert, Österreich und die Schweiz 1995. Am 29. April 1997 trat das Chemiewaffenübereinkommen in Kraft. 1997 erfolgte die Ratifizierung auch durch die USA und Russland. Die ratifizierenden Staaten haben sich durch das CWÜ unter anderem dazu verpflichtet, bis zum Jahr 2012 sämtliche Chemiewaffen unter internationaler Aufsicht zu vernichten. Stand Juni 2018 sind 193 Staaten der Konvention beigetreten. Als jüngstes Ratifizierungsland ist Palästina der Konvention am 16. Juni 2018 beigetreten. Im Januar 1993 unterzeichnet, aber bis heute noch nicht ratifiziert wurde der Vertrag von Israel und Myanmar. Vier Staaten haben die Konvention bisher weder unterzeichnet noch ratifiziert: Ägypten, Angola, Nordkorea und Südsudan. Die Einhaltung des Abkommens wird durch die Organisation für das Verbot chemischer Waffen, OVCW (englisch Organisation for the Prohibition of Chemical Weapons, OPCW) überwacht. Die OVCW ist eine internationale Organisation mit Sitz in Den Haag. Erster Golfkrieg Schon zu Beginn des Ersten Golfkriegs setzte die irakische Armee auf Weisung Saddam Husseins chemische Waffen gegen den Iran ein. So warf die irakische Luftwaffe bereits 1980 speziell dafür entwickelte Kanister mit chemischen Kampfstoffen über iranischen Stellungen ab. Bekanntheit erlangte der Giftgasangriff auf die Fernverkehrsstraße am 9. August 1983 Rawanduz–Piranschahr. Insgesamt wurden etwa 100.000 iranische Soldaten Opfer von Gasangriffen. Viele davon wurden durch Senfgas, das von einer mit deutscher Unterstützung gebauten Insektizid-Fabrik in Samarra in größerem Maße ab 1983 hergestellt wurde, verwundet. Etwa 20.000 davon wurden während des Einsatzes sofort hauptsächlich durch die Nervenkampfstoffe Tabun und VX getötet. Diese Zahlen schließen allerdings keine Zivilisten ein. Da Giftgas während der Kämpfe auch auf Stellungen und Posten abgeworfen wurde, die sich in oder um Dörfer befanden und deren Einwohner keine Möglichkeit hatten, sich gegen die Gase zu schützen, gab es auch unter der Zivilbevölkerung sehr viele Opfer. Außerdem wurden durch den Einsatz verschiedener Gase Gebiete mit gefährlichen chemischen Schadstoffen kontaminiert. Der Irak setzte chemische Waffen auch gezielt ein, um Zivilisten zu töten. Tausende wurden bei Giftgasangriffen auf Dörfer, Städte und Frontkrankenhäuser getötet, so auch beim Giftgasangriff auf Sardasht vom 28. Juni 1987. Bekanntestes Beispiel ist der Giftgasangriff auf Halabdscha am 16. März 1988, bei dem etwa 5.000 irakische Kurden getötet und 7.000 bis 10.000 so schwer verletzt wurden, dass viele von ihnen später starben. Die irakischen Streitkräfte setzten mehrere verschiedene Gase gleichzeitig ein. Dazu gehören Nervenkampfstoffe wie Tabun, Sarin und möglicherweise VX, aber auch Senfgas und ein Cyanidkampfstoff. Im Rahmen der Vorbereitung auf den Ersten und Zweiten Irakkrieg kam es zu Auseinandersetzungen zwischen den USA und Deutschland über die Herkunft der irakischen Chemiewaffentechnologie. Terrorismus 1995 kam es beim Terror-Anschlag der japanischen Aum-Sekte zur Freisetzung des Nervengifts Sarin in der U-Bahn von Tokyo. Es gab 13 Tote und 6.252 Verletzte. Ein früherer Anschlag der Sekte mit 7 Toten und 500 Verletzten wurde erst im Nachhinein bekannt. Im Oktober 2002 verwendeten russische Sicherheitskräfte in Moskau vermutlich das Opioid Carfentanyl und das Anästhetikum Halothan in Form eines Aerosol-Gas-Gemischs, um Terroristen kampfunfähig zu machen, die in einem Musical-Theater 800 Geiseln festhielten. Alle Geiselnehmer und über 129 Geiseln kamen ums Leben, die meisten aufgrund des Gases. Viele erlagen im Krankenhaus ihren Vergiftungen, wozu möglicherweise auch die fehlende Zusammenarbeit der Sicherheitskräfte mit den Ärzten beigetragen hat. Der Einsatz von Carfentanyl wurde offiziell nie bestätigt, möglicherweise im Hinblick auf die von Russland ratifizierte Chemiewaffenkonvention. Während des Irakkrieges setzte eine Terrororganisation, bei der es sich Berichten zufolge um die al-Qaida handelte, chemische Waffen hauptsächlich gegen Zivilisten ein, aber auch gegen US-Soldaten und irakische Soldaten und Polizisten. Bei dem eingesetzten Gas handelte es sich um Chlorgas. Da die Anschläge alle unter freiem Himmel durchgeführt wurden, war die Zahl der Todesopfer meistens gering, die Zahl der Verletzten betrug jedoch oft mehrere hundert. Zu den am meisten wahrgenommenen Giftgasanschlägen im Irak zählen der Anschlag auf eine Polizeiwache am 6. April 2007 mit 27 Toten und der Anschlag auf einen Dorfmarkt in Abu Sayda am 15. Mai 2007 mit 45 Toten. Bürgerkrieg Syrien Im Umland von Damaskus sind laut Chemiewaffeninspektoren der UNO in mehreren Dörfern Kampfmittel mit Sarin zum Einsatz gekommen. Der mögliche Einsatz von chemischen Waffen in drei weiteren Orten (Chan al-Asal und Scheich Maksud in der Provinz Aleppo sowie Sarakib, einer Kleinstadt nahe der Provinzhauptstadt Idlib,) soll untersucht werden. Ein Untersuchungsbericht der Vereinten Nationen meldete im August 2016, man könne die Nutzung der weltweit geächteten Massenvernichtungswaffen in drei Fällen eindeutig belegen und zuordnen. In zwei Fällen habe die syrische Armee die Giftbomben abgeworfen, in einem Fall die Miliz Islamischer Staat (IS). Diese Fälle waren der Einsatz von Chlorgas und eventuell anderer giftiger Substanzen, die am 21. April 2014 und am 16. März 2015 in zwei Dörfern in der nordwestlichen Provinz Idlib aus Hubschraubern der syrischen Luftwaffe abgeworfen wurden. Die IS-Miliz verwendete am 21. August 2015 im Ort Marea nahe Aleppo Senfgas. Vernichtung (bis 2023) Nachdem die USA von allen Mitgliedsstaaten der Organisation für das Verbot von Chemiewaffen (OPCW) als Letzte ihre Bestände von Chemiewaffen bis zum Jahr 2023 vernichtet hatten, gab die OPCW bekannt, dass damit alle weltweit deklarierten chemischen Waffen irreversibel zerstört wurden. Vier Staaten, nämlich Nordkorea, Ägypten, Südsudan und Israel, machen keine Angaben über ihre Bestände, da sie nicht Teil der Konvention zum Verbot von Chemiewaffen sind. Chemische Waffen Chemische Kampfmittel Als chemische Kampfmittel bezeichnet man jede Art von Gegenständen (Munition, Schweltöpfe, aber auch im strengen Sinne z. B. einfache Flaschen), die es ermöglichen, einen chemischen Kampfstoff zu transportieren. Sie lassen sich nach ihrem Angriffsgebiet am menschlichen Körper beziehungsweise ihrer Wirkung einordnen. Eine Grenzziehung zwischen den einzelnen Gruppen ist dabei aber nicht immer eindeutig möglich. Auch ist bei manchen dieser Gruppen bereits die bloße Zuordnung zu den chemischen Kampfstoffen umstritten. Detaillierte Übersichtsarbeiten wurden von V. Pitschmann und von K. Ganesan u. a. vorgelegt. Die chemischen Kampfmittel an sich werden in folgende Kategorien unterteilt: Chemische Kampfstoffe im klassischen Sinn: Lungenkampfstoffe, Blutkampfstoffe, Hautkampfstoffe, Nervenkampfstoffe, Psychokampfstoffe. Reizstoffe: Reizen die Augen oder die Atemwege. Ein Beispiel ist das CS-Gas, das von der Polizei und zur Selbstverteidigung eingesetzt wird. Reizstoffe unterscheiden sich von anderen Hautkampfstoffen durch ihre weniger starke Wirkung. In sehr hohen Dosen oder bei empfindlichen Personen (z. B. Asthmapatienten) können die so genannten „Tränengase“ ebenfalls zu Hautreizungen, Atemnot oder Augen- und Lungenschäden führen und in ausreichender Konzentration tödlich sein. Ein weiteres Beispiel sind sogenannte Maskenbrecher. Sie führen zu Übelkeit und sollten ihre Opfer dazu bringen, ihre Atemschutzmasken abzunehmen. Meist wurden diese Substanzen mit anderen chemischen Kampfstoffen in Kombination eingesetzt, um deren toxische Wirkung voll zum Einsatz zu bringen. Nebelkampfstoffe: Diese Stoffe erzeugen in der Luft dichte, undurchdringliche Nebelschwaden und sollen somit dem Gegner die Sicht nehmen. In diese Kategorie fallen z. B. Rauchgranaten. Chemische Kampfstoffe Die chemischen Kampfstoffe im klassischen Sinn können erneut in verschiedene Kampfstoffklassen unterteilt werden, je nach Art und Ort ihrer Wirkung: Lungenkampfstoffe: Greifen direkt die Lunge an. Dadurch wird die Sauerstoffzufuhr des Körpers unterbrochen, was zum Tode führt. Darunter fallen zum Beispiel Chlor, Phosgen, Diphosgen (Perstoff) und Chlorpikrin. Blutkampfstoffe: Auch hier wird die Sauerstoffzufuhr des Körpers blockiert. Allerdings wird bei diesen Kampfstoffen die Zellatmung oder das Blut angegriffen, das den Sauerstoff zu den einzelnen Organen transportiert. Darunter fallen unter anderem Cyanwasserstoff, Arsenwasserstoff und Chlorcyan. Hautkampfstoffe: Hier wird die Haut des Körpers angegriffen. Dies kann tödlich sein, wenn die angegriffene Hautfläche groß genug ist. Hautkampfstoffe werden dazu eingesetzt, den Gegner kampfunfähig zu machen und ihn dabei nicht unbedingt zu töten. Darunter fallen u. a. Stickstofflost, Schwefellost (Senfgas), Lewisit und Phosgenoxim. Nervenkampfstoffe: Hier wird ein Enzym des Nervensystems des Menschen blockiert (Acetylcholinesterase), so dass wichtige Teile des Körpers (z. B. Zwerchfell) durch Dauerkontraktion gelähmt werden. Außerdem werden starke Muskelkrämpfe ausgelöst. Darunter fallen Diisopropylfluorphosphat (DFP), Sarin (GB), Tabun (GA), Soman (GD), Cyclosarin, VX und Nowitschok. Antimetabolite sind Gifte, die den Zellstoffwechsel behindern und tödliche Wirkungen hervorrufen können. Insbesondere die Fluoressigsäure sowie ihre Salze und Ester kommen als chemische Kampfstoffe in Betracht. Im zivilen Bereich wird ihr Natriumsalz in Form von Ködern zur Bekämpfung von Säugetieren eingesetzt. Psychokampfstoffe: Hier wird die Psyche des Menschen angegriffen mit starken Rauschmitteln, um ihn vorübergehend kampfunfähig zu machen. Langzeitwirkungen und Spätfolgen sind jedoch nicht unerheblich. Darunter fallen u. a. Lysergsäurediethylamid (LSD) und 3-Chinuclidinylbenzilat (BZ). Augenkampfstoffe: Zu dieser Gruppe werden alle chemischen Substanzen gezählt, die Reizungen oder Verletzungen der Augen hervorrufen. Die Stoffe sind meistens in hohen Dosen nicht tödlich. Beispiele sind unter anderem Benzylbromid, Xylylbromid oder Chloraceton. Nasen- und Rachenkampfstoffe: Diese Kampfstoffe greifen die Schleimhäute der oberen Atemwege an. Dabei treten oft Reizungen der Haut und der Augen auf. Diese Stoffe sollen nicht töten, sondern den Gegner kampfunfähig machen und werden häufig mit anderen Kampfstoffen zusammen eingesetzt. Beispiele sind unter anderem Adamsit, Clark I (Diphenylarsinchlorid) oder Clark II (Diphenylarsincyanid). (Buntschießen) Viele chemische Kampfstoffe werden bevorzugt als Binärkampfstoffe eingesetzt, etwa die Nervenkampfstoffe Sarin, Soman und VX. Dabei werden zwei oder mehr im Vergleich zum Endstoff relativ ungefährliche Substanzen voneinander getrennt in einem Geschoss gelagert. Der eigentliche Kampfstoff entsteht erst nach dem Abschuss meist durch einfaches Vermischen der Komponenten, teilweise unter Zuhilfenahme eines geeigneten Reaktionsbeschleunigers. Vorteile sind die relativ gefahrlose Lagerung und Handhabung, da die verwendeten Chemikalien meist weniger giftig sowie besser lagerfähig als die Kampfstoffe selbst sind, das heißt, es tritt keine oder nur geringe Zersetzung der Chemikalien oder Korrosion der Geschosse auf. Modernes Einsatzkonzept Der Einsatz von chemischen Waffen erfolgt in der Regel massiv und überraschend um möglichen Schutzmaßnahmen zuvorzukommen. Ein Einsatz ist lohnend, wenn mit minimalem Aufwand große Verluste erzielt werden können, wenn der Einsatz militärische Operationen erleichtert oder beschleunigt und wenn mangelnde Ausbildung und Schutzausrüstung einen Einsatz wirkungsvoll machen. So ist auch ein Einsatz als Terrorwaffe gegen zivile Infrastruktur denkbar. Der Einsatz von chemischen Waffen soll im Zielgebiet Verluste von mindestens 30–50 % verursachen, kritische Funktionen verlangsamen oder verunmöglichen und/oder die Nutzung von Gelände und Einrichtungen wie Flughäfen oder Seehäfen als verkehrstechnische Einrichtungen längerfristig unmöglich machen, ohne diese wie bei atomaren Einsatzmitteln zu zerstören. Eine Entgiftung ist aufwendig und zeitintensiv. Im Gegensatz zu den frühen Kampfstoffen, die gasförmig waren, werden heute überwiegend flüssige Kampfstoffe (selten auch Feststoffe) verwendet. Diese werden als Aerosol eingesetzt. Man unterscheidet hierbei nach der Tropfengröße zwischen den zwei Einsatzarten flüchtig und sesshaft, je nach gewünschter Dauer der Sperrung von Gelände oder Einrichtungen. Einsatz flüchtig Beim flüchtigen Einsatz werden sehr kleine Tropfen verwendet, die größtenteils augenblicklich verdampfen, so dass sehr schnell eine hohe Konzentration des Kampfstoffes wirksam werden kann (50 % als Dampf und 50 % als Feinaerosol). Dabei besteht die Gefahr der Kampfstoffausbreitung in der Windrichtung. Generell wird der flüchtige Einsatz zur Unterstützung von militärischen Operationen eingesetzt, was aber einen Einsatz gegen die Zivilbevölkerung nicht ausschließt. Die Belegungsdichte wird so gewählt, dass ein Atemzug in den meisten Fällen tödliche Mengen des Kampfstoffes enthält. Durch die rasche Verdampfung sollte das Gebiet nach maximal vier Stunden wieder ohne Schutzausrüstung passierbar sein. Ziel des Angriffes ist es, den Gegner im angegriffenen Gebiet stark zu schwächen, um das Durchbrechen feindlicher Linien zu erleichtern, jedoch ohne die eigenen Truppen durch Schutzanzüge zu behindern. Am besten für einen flüchtigen Einsatz geeignet sind die Kampfstoffe Sarin, Soman und Tabun (zusammengefasst unter dem Begriff G-Stoffe oder Trilone) sowie Blausäure. Letztere stellt eine Ausnahme dar, da sie äußerst leichtflüchtig und schon nach wenigen Minuten nicht mehr nachzuweisen ist (maximal 15 Minuten); man spricht hierbei von einem superflüchtigen Kampfstoff. Allerdings erfordert Blausäure einen sehr großen Munitionsaufwand, um die nötige Kampfstoffkonzentration im Zielgebiet zu erreichen. Wahrscheinlichste Einsatzmittel für den flüchtigen Einsatz sind Mehrfachraketenwerfer, Fliegerbomben und Streubomben, da diese eine sehr hohe Belegungsdichte ermöglichen. Einsatz sesshaft Beim sesshaften Einsatz werden vergleichsweise große Tropfen (0,1 mm bis 1 mm Durchmesser) eingesetzt. Aufgrund der Größe fallen die Tropfen schneller, die Dampfkonzentration ist wesentlich geringer (20 % Dampf, 80 % Tropfen), und ein Großteil des Kampfstoffes erreicht den Boden, wo er je nach Art des Kampfstoffes und der Witterung bis zu mehreren Wochen verbleiben kann. Ziel des Angriffes ist nicht die unmittelbare Vernichtung des Feindes, sondern die Einschränkung seiner Handlungsfreiheit. Schutz- und Dekontaminationsmaßnahmen kosten Zeit, kontaminiertes Gebiet ist nur mühsam zu durchqueren, und die Moral der Truppe leidet erheblich. Des Weiteren müssen kontaminierte Truppenteile evakuiert und ersetzt werden, bevor die Schutzanzüge gesättigt sind (normalerweise nach spätestens 12 Stunden). Die wahrscheinlichsten Ziele sind gegnerische Flankenstellungen (um deren Gegenangriff zu erschweren oder zu verhindern), Artilleriestellungen (Ausschalten der Feuerunterstützung), Kommandostände, taktische Reserven und Nachschubwege. Am besten für diese Einsatzart geeignet sind Loste (Senfgas/Yperit) und V-Stoffe (namentlich VX). Die möglichen Einsatzmittel sind vielfältig, da nicht auf die Belegungsdichte geachtet werden muss (Artillerie, Bomben, Kampfflugzeuge, Raketen, Marschflugkörper etc.). Eine Sonderform des sesshaften Einsatzes ist der Einsatz verdickter Kampfstoffe: Dem Kampfstoff werden hierbei Verdickungsmittel beigemischt, um dessen Viskosität und damit die Tropfengröße weiter zu erhöhen. Die Kampfstoffe erhalten dadurch eine honig- bis gummiartige Konsistenz. Dies führt wiederum zu einer geringeren Verdunstungsrate und damit größerer Sesshaftigkeit. Solche Kampfstoffe haben eine große Haftwirkung und können nur langsam in poröse Materialien eindringen. An geeigneten Stellen können verdickte Kampfstoffe wochenlang wirksam bleiben. Des Weiteren wird die Dekontamination stark erschwert. Hauptziele sind z. B. Flugplätze, um deren Benutzung langfristig zu unterbinden. Einsatzmittel Obwohl die Vereinigten Staaten sowie Russland ihre Bestände an chemischen Waffen vernichtet haben sollen, sind die Technologien zum Ausbringen von Kampfstoffen weltweit bekannt und zum Teil auch verfügbar. Für chemische Kampfstoffe sind keine besondere Einsatzmittel nötig; es können Artilleriegeschütze, Raketenwerfer, ballistische Raketen, Lenkwaffen und Flugzeuge verwendet werden. Das Abblasen von chemischen Kampfstoffen aus Druckflaschen wie im Ersten Weltkrieg gilt heute als obsolet. Artilleriegeschütze Seit dem Ersten Weltkrieg werden Mörser und Artilleriegeschütze als Einsatzmittel für chemische Kampfstoffe verwendet. Moderne Artilleriegeschütze erreichen bei einer Kadenz von 3–6 Schuss/Minute Schussdistanzen von 30–40 km. Mit Artilleriegeschützen kann zudem ein rascher Zielwechsel mit einer hohen Treffergenauigkeit erfolgen. Weiter können mit der Artillerie sowohl Einzel- wie auch Flächenziele bekämpft werden. In Abhängigkeit zum verwendeten Kaliber fasst ein Artilleriegeschoss 2–5 kg Kampfstoff. So war z. B. das 155 mm NATO-Geschoss M122 mit 2,9 kg Sarin befüllt. Mehrfachraketenwerfer Mehrfachraketenwerfer eignen sich besonders gut als Einsatzmittel für chemische Kampfstoffe. Mit ihnen wird im Zielgebiet innerhalb kurzer Zeit eine sehr hohe Belegungsdichte mit einer hohen Kampfstoffkonzentration erzielt. Moderne Mehrfachraketenwerfer erreichen bei einer Kadenz von 30–50 Schuss/Minute Schussdistanzen von 20–70 km. In Abhängigkeit zum verwendeten Kaliber fasst eine Artillerierakete 2–25 kg Kampfstoff. So war z. B. der 9N519-Sprengkopf der 220 mm Rakete 9M27 für den sowjetischen Mehrfachraketenwerfer 9P140 Uragan mit 20 kg Soman befüllt. Eine Batterie mit vier Uragan-Werfern deckt mit insgesamt 64 Raketen eine Zielfläche von 650 × 650 m ein. Auf dieser Fläche werden so innerhalb von rund 20 Sekunden 1280 kg Nervenkampfstoff freigesetzt. Ballistische Raketen Ballistische Raketen eignen sich zur Bekämpfung von Zielen weit hinter der Frontlinie wie z. B. Flugplätze, Nachschubdepots, Flugabwehrstellungen sowie militärische und zivile Infrastruktur. Solche Ziele werden mit Kurz- und Mittelstreckenraketen mit einer Reichweite von 50–1000 km bekämpft. Vorzugsweise erfolgt der Einsatz mit sesshaften Kampfstoffen, um die Zielgebiete für längere Zeit (Tage bis Wochen) zu verseuchen. Um den chemischen Kampfstoff effektiv im Zielgebiet zu verteilen, erfolgt die Detonation des Raketengefechtskopfes in der Regel durch Luftzündung einige 100 m über Zielgebiet. So werden aus dem flüssigen Kampfstoff Tropfen und Aerosole gebildet, welche sich in Abhängigkeit von Windgeschwindigkeit und -richtung über dem Zielgebiet verteilten. Die sowjetische Kurzstreckenrakete 9K72 Elbrus (NATO-Codename: SS-1c Scud-B) konnte einen Gefechtskopf mit 555 kg verdicktem VX über eine Distanz von 300 km ins Ziel bringen; durch Luftzündung verteilte sich der flüssige Kampfstoff über ein Gebiet von 0,6 × 4,0 km. Weiter eignen sich ballistische Raketen auch zur Beladung mit Streumunition. Zum Beispiel konnte die US-amerikanische Kurzstreckenrakete MGM-52 Lance mit dem E27-Gefechtskopf für chemische Streumunition bestückt werden. Dieser Gefechtskopf fasste 1137 M139-Bomblets mit je 0,58 kg Sarin. Die Bomblets wurden in einer vorselektierten Höhe über dem Ziel ausgestoßen und gingen daraufhin in einem kreisförmigen Gebiet mit einem Radius von 200–250 m nieder. Kampfflugzeuge Kampfflugzeuge eignen sich besonders für massive und überraschende Angriffe mit chemischen Kampfstoffen. Kampfflugzeuge können diese in einem Radius von mehreren 100 km, mit hoher Geschwindigkeit in verschiedenen Flughöhen zum Einsatz bringen. Die mitgeführte Kampfstoffmenge steht in Abhängigkeit zur Beladung des Kampfflugzeuges. Die Kampfstoffe können mit Fliegerbomben, Streubomben, Raketen oder durch versprühen ins Ziel gebracht werden. Fliegerbomben mit chemischen Kampfstoffen sind sehr flexibel einsetzbar; sie können sowohl aus großer Höhe wie auch aus dem Tiefflug abgeworfen werden. Chemische Kampfstoffe können ebenso in Splitterbomben gefüllt werden, was zu einer kombinierten Wirkungsweise führt. Ein solches Beispiel stellt die sowjetische Fliegerbombe ChAB-500 (9A1-483) dar: Bei einem Gesamtgewicht von rund 300 kg enthielt diese Bombe 175 kg der Kampfstoffmischung HL (russische Bezeichnung RK-7), welche aus Schwefellost und Lewisit bestand. Bei der Detonation erzeugte sie neben dem Kampfstoffaerosol auch eine große Anzahl Stahlsplitter, welche mit hoher Energie freisetzt wurden. Kampfstofftanks, z. B. Abwurfbehälter, wie sie auch für Napalm verwendet werden, können ebenso mit chemischen Kampfstoffen befüllt werden. Diese Tanks zerplatzen beim Aufschlag auf der Erdoberfläche und der Kampfstoff wird verspritzt. Gegenüber Fliegerbomben mit einer Spreng- oder Zerlegladung wird in diesem Fall der Kampfstoff nur wenig verteilt (kein Aerosol, wenige Tropfen), und die Wirkung beschränkt sich auf ein sehr kleines Gebiet. Solche Kampfstofftanks setzte der Irak während des Ersten Golfkriegs ein. Streubomben und Streumunitionsbehälter eignen sich zum Ausbringen von chemischen Kampfstoffen aus mittlerer Flughöhe wie aus dem Tiefflug. Mit Streumunition wird in einem großen Zielgebiet innerhalb kurzer Zeit eine sehr hohe Belegungsdichte mit einer hohen Kampfstoffkonzentration erzielt. Die United States Air Force hatte in den 1970er-Jahren den Streumunitionsbehälter CBU-15 im Bestand. Bei einem Gesamtgewicht von rund 340 kg war dieser mit 40 BLU-19-Bomblets beladen, die je 1,8 kg Sarin enthielten. Die Bomblets konnten sowohl im Reihenwurf oder auch alle zeitgleich abgeworfen werden. Die F-4 Phantom II konnte z. B. vier CBU-15-Behälter transportieren. Sprühtanks für chemische Kampfstoffe eignen sich zum Ausbringen von chemischen Kampfstoffen aus mittlerer Flughöhe wie aus dem Tiefflug. Der flüssige Kampfstoff wird so primär als Aerosol über ein großes Gebiet verteilt. Die Sowjetunion hatte unter anderem den Sprühtank WAP-1000 (BATT) im Bestand, welcher 700 kg Cyanwasserstoff fasste. Dagegen besaßen die USA den Sprühtank TMU-28, welcher mit 595 kg VX befüllt war. Beide Sprühtanks konnten im Tiefflug und bei hoher Geschwindigkeit eingesetzt werden. Sprüheinsätze von Kampfstoffen in Form von Agrarflugzeugen sowie das Abregnen aus großer Flughöhe gelten heute als überholt. Marschflugkörper Während des Kalten Krieges wurden Versuche mit Marschflugkörpern zum Ausbringen von Kampfstoffen durchgeführt. Obwohl vermutlich keine solchen Gefechtsköpfe fertig entwickelt wurden, ist dieses Einsatzmittel durchaus denkbar. Antipersonenminen Antipersonenminen mit chemischen Kampfstoffen werden zum anhaltenden Sperren von Geländeabschnitten, auf dem Rückzug sowie bei Verzögerungsgefechten eingesetzt. Während des Kalten Krieges hatten sowohl die Sowjetunion wie auch die Vereinigten Staaten Antipersonenminen mit chemischen Kampfstoffen in ihren Arsenalen. Die Sowjetunion hatte unter anderem die Kampfstoffmine ChF-2 mit der Kampfstoffmischung HL (Schwefellost und Lewisit) im Bestand. In den Vereinigten Staaten war dies die Mine M23. Diese wog 10,3 kg und hatte eine 0,37 kg wiegende Sprengstoffladung. Als Kampfstoff wurden 4,8 kg VX verwendet. Einfluss von Landform, Wetter und Vegetation Die Landform, das Wetter sowie die Vegetation haben einen entscheidenden Einfluss auf Ausbreitung, Wirksamkeit und Wirkungsdauer von chemischen Kampfstoffen. Landform und Vegetation Berg- und Talwind-Zirkulationen sowie das Land-See-Windsystem können die Ausbreitung von Kampfstoffwolken beeinflussen. In Senken und Tälern können sich Kampstoffwolken ansammeln und ihre Wirksamkeit länger beibehalten. Weiters beeinflusst auch die Vegetation die Wirkungsweise und -dauer von chemischen Kampfstoffen: Gelände mit niedriger Vegetation (Weide, Gras) kann nach einem Einsatz flüchtig, in der Regel nach 12–24 Stunden ohne große Gefahr wieder betreten werden; bei hoher und üppiger Vegetation (Felder, Hecken, Unterholz) bleiben chemische Kampfstoffe wesentlich länger wirksam. Auch in Wäldern und in überbauten Gebieten (Dörfer, Städte) behalten chemische Kampfstoffe wesentlich länger ihre Wirksamkeit bei. Wetter Temperatur, Wind und Sonnenstrahlung haben entscheidenden Einfluss auf Ausbreitung, Wirksamkeit und Wirkungsdauer von chemischen Kampfstoffen. Bei hohen Temperaturen verdampft insbesondere der sesshaft eingesetzte Kampfstoff rascher. So tendierten die während des Ersten Golfkriegs eingesetzten Lost-Kampfstoffe bei den dortigen hohen Temperaturen zum raschen Verdampfen. Diese vermehrten Dämpfe führten entsprechend bei den Opfern zu einer überaus starken Schädigung der Hautoberflächen sowie der Atemwege. Dagegen können sehr tiefe Temperaturen zu einem Verfestigen des flüssigen Kampfstoffes führen. Hohe Windgeschwindigkeiten verdünnen die Kampfstoffwolke schneller, niedrige Windgeschwindigkeiten verteilen den Kampfstoff hingegen zu wenig und zu langsam. Ideal ist eine Windgeschwindigkeit von 5–20 km/h. Durch Sonneneinstrahlung können Aufwinde entstehen, die eine Kampfstoffwolke zu rasch verdünnen. Dagegen können bei geringer oder fehlender Sonneneinstrahlung nur schwache Aufwinde entstehen, was die Wirksamkeit einer Kampfstoffwolke verbessert. Regen kann flüssigen Kampfstoff in den Boden schwemmen, wobei der Kampfstoff weiterhin wirksam bleibt. Die idealen Verhältnisse für den Einsatz von chemischen Kampfstoffen in Mitteleuropa herrschen während klaren Nächten, kurz vor Sonnenuntergang oder kurz vor Sonnenaufgang. Internationale Ächtung Seit 1997 sind chemische Waffen durch die Chemiewaffenkonvention international offiziell geächtet; auch die Entwicklung, Herstellung und Lagerung sind verboten. Vernichtung Albanien Mitte Juli 2007 wurde mitgeteilt, dass Albanien als weltweit erster Staat seine sämtlichen Bestände an chemischen Waffen nachweislich vernichtet hat. Die Finanzierung des Projektes erfolgte mit insgesamt 48 Millionen US-Dollar. Die Vernichtung der Kampfstoffe Schwefellost, Lewisit, Adamsit und Chloracetophenon dauerte von Februar bis Juli 2007. Deutschland In Deutschland wurden chemische Kampfstoffe im Zweiten Weltkrieg unter anderem bei der Firma ORGACID in Ammendorf und in beiden Weltkriegen in Munster hergestellt. Nach Ende des Krieges verblieben beträchtliche Mengen an Waffen in den Produktionsstätten. Sie wurden von den Alliierten beschlagnahmt und während der Operation Davy Jones’ Locker auf diverse Schiffe geladen, die dann im Skagerrak versenkt wurden. Aus heutiger Sicht wäre dies eine Umweltstraftat, war aber damals erlaubt. Danach war an den ehemaligen Produktionsstandorten nur noch verseuchter Boden übrig, der in zwei Entsorgungsanlagen der Gesellschaft zur Entsorgung von chemischen Kampfstoffen und Rüstungsaltlasten mbH (GEKA) kontrolliert vernichtet wird. In den Anlagen der bundeseigenen Gesellschaft wird kontaminierter Boden zuerst „gewaschen“, um die hochkontaminierten Bereiche abzutrennen. Diese werden mit Kalk vermischt und in einer Plasmaanlage bei 1350 bis 1550 °C im Lichtbogen geschmolzen. Es entsteht dabei nach dem Abkühlen glasartige Schlacke, in der nichtbrennbare Stoffe gebunden sind sowie Verbrennungsgase. Mit Chemikalien befüllte Munition wird vorher in einem so genannten Sprengofen gesprengt. In beiden Fällen werden die Gase ausgewaschen und anschließend die Salze ausgefällt. Heute besitzt Deutschland nur noch Kampfstoffmunition die nach dem Krieg in diverse Müllkippen, wie zum Beispiel dem Dethlinger Teich, entsorgt wurden. Russland Russland übernahm von der ehemaligen Sowjetunion rund 40.000 Tonnen Chemiewaffen. Die erste C-Waffen-Vernichtungsanlage wurde im Dezember 2002 in der Kleinstadt Gorny im Gebiet Saratow am Mittellauf der Wolga gebaut. Außerhalb von Potschep, im Gebiet Brjansk, lagern abgefüllt in über 67.000 Fliegerbomben rund 7.500 t der Nervenkampfstoffe VX, Sarin und Soman. Im April 2006 wurde die zweite russische Anlage zur Vernichtung von Chemiewaffen in Kambarka, Republik Udmurtien in Betrieb genommen. In der Anlage, die mit deutscher Hilfe finanziert wurde, wurden 6350 t arsenhaltiger Hautkampfstoff beseitigt, deren Vernichtungskosten über 270 Millionen Euro betragen. Deutschland trug davon 90 Millionen Euro. In einem ersten Schritt wurden die Kampfstoffe von russischer Seite waffenuntauglich gemacht und ab 2009 eine Anlage mit Hochturbulenzreaktoren zur thermischen Entsorgung der Kampfstoffe in Betrieb genommen. Die etwa 400 km östlich von Moskau gelegene Stadt Dserschinsk wurde 2006, 2007 und 2013 vom amerikanischen Blacksmith Institute zu einem der zehn am stärksten verseuchten Orte der Welt „nominiert“. Wasser und Böden sind hier hochgradig mit Chemikalien aus der Zeit der Chemiewaffenproduktion im Kalten Krieg verseucht, da neben Leckagen und anderen Unfällen in den Jahren 1930 bis 1998 etwa 300.000 Tonnen chemischer Abfälle unsachgemäß entsorgt wurden. Über laufende Sanierungsmaßnahmen ist bislang nichts bekannt. Im September 2017 wurde bekanntgegeben, dass der letzte chemische Sprengkopf in der Entsorgungsanlage Kisner in Udmurtien vernichtet wurde. Die Organisation für das Verbot chemischer Waffen bestätigte die Vernichtung aller russischen Chemiewaffen und gratulierte Russland, das somit chemiewaffenfrei ist. Der russische Präsident Wladimir Putin beobachtete den Vorgang per Videozuschaltung und forderte nun auch die USA auf, das Abkommen zu achten und die amerikanischen Chemiewaffen ebenfalls rasch zu vernichten. Vereinigte Staaten Die USA nutzten ab Ende der 1980er Jahre bis Ende der 1990er Jahre eine Anlage für die Vernichtung von chemischen Kampfstoffen auf dem Johnston-Atoll im Pazifik. Die Vernichtung von 90 % der C-Waffen der USA (31.000 Tonnen waren insgesamt deklariert worden) in den letzten zwei Jahrzehnten durch Verbrennung hat 35 Milliarden US-Dollar gekostet, nach anderen Angaben 28 Milliarden Dollar. Die Reste des US-Chemiewaffenarsenals befanden sich in zwei Armeelagern in den Bundesstaaten Colorado und Kentucky. Die vollständige Vernichtung aller chemischen Kampfstoffe in den USA wurde 2023 abgeschlossen. Syrien Russland schlug im September 2013 vor, Syrien möge seine Chemiewaffen unter westlicher Aufsicht zerstören. Die USA, die zuerst mit einem militärischen Schlag gedroht hatten, setzten dann auf eine diplomatische Lösung. Syrien hat nunmehr am 14. September 2013 den Beitritt zur OPCW ratifiziert, welcher 30 Tage später vertragsgemäß in Kraft trat. Alle Anlagen zur Produktion der Waffen und zum Abfüllen von Munition sollen nach Angaben der OPCW unmittelbar danach zerstört worden sein. 600 Tonnen Chemikalien wurden dabei auf dem US-Spezialschiff MV Cape Ray (T-AKR-9679) auf dem Mittelmeer neutralisiert. Die neutralisierten Chemikalien wurden in Deutschland und Finnland entsorgt. In Deutschland erfolgte die Verbrennung 340 t Hydrolysats und 30 t sonstiger kontaminierter Abfälle ab September 2014 bei der GEKA. Chemikalien-Lieferungen für Waffenproduktion? Die britische Boulevard-Zeitung Daily Mail behauptete am 7. September 2013, dass von 2004 bis 2010 die britische Regierung fünfmal zwei britischen Firmen die Lieferung der Chemikalie Natriumfluorid bewilligt habe, die zur Synthese von fluorhaltigem Sarin verwendet werden kann. Auf Anfrage der Fraktion Die Linke gab die deutsche Regierung am 18. September 2013 bekannt, dass zwischen 2002 und 2006 insgesamt 137 Tonnen Fluorwasserstoff, Ammoniumhydrogendifluorid, Natriumfluorid sowie Zubereitungen mit Kalium- und Natriumcyanid nach Syrien exportiert worden sind. Syrien hat eine geplante Verwendung dieser Dual-Use-Güter für zivile Zwecke plausibel dargestellt. Die Ausfuhrgenehmigung sei erst nach „sorgfältiger Prüfung aller eventueller Risiken, einschließlich von Missbrauchs- und Umleitungsgefahren im Hinblick auf mögliche Verwendungen in Zusammenhang mit Chemiewaffen“ erteilt worden, so das Wirtschaftsministerium. Stellungnahme der Gesellschaft Deutscher Chemiker 2022 Die Gesellschaft Deutscher Chemiker veröffentlichte 2022 eine umfangreiche Stellungnahme zum Thema Chemische Kampfstoffe. Siehe auch Liste chemischer Kampfstoffe Liste von Terroranschlägen Uranmunition Literatur Joachim Badelt: Chemische Kriegführung – Chemische Abrüstung. Die Bundesrepublik Deutschland und das Pariser Chemiewaffenübereinkommen. (= Militärpolitik und Rüstungsbegrenzung. 5). Berlin-Verlag Spitz, Berlin 1994, ISBN 3-87061-269-X. Christoph Bundscherer: Deutschland und das Chemiewaffenübereinkommen. Wirtschaftsverwaltungsrecht als Instrument der Rüstungskontrolle. (= Europäische Hochschulschriften Reihe 2; Rechtswissenschaft. 2213). Lang, Frankfurt am Main u. a. 1997, ISBN 3-631-32353-0. (Zugleich: Greifswald, Univ., Diss., 1997) Walter Böttger: Kultur im alten China. Urania-Verlag, Leipzig u. a. 1977, . Jochen Gartz: Chemische Kampfstoffe. Der Tod kam aus Deutschland. (= Der Grüne Zweig. Band 243). Pieper und The Grüne Kraft, Löhrbach 2003, ISBN 3-922708-28-5. Günther W. Gellermann: Der Krieg, der nicht stattfand. Möglichkeiten, Überlegungen und Entscheidungen der deutschen obersten Führung zur Verwendung chemischer Kampfstoffe im Zweiten Weltkrieg. Bernard & Graefe, Bonn 1986, ISBN 3-7637-5804-6. Olaf Groehler: Der lautlose Tod. Rowohlt TB, Reinbek 1990, ISBN 3-499-18738-8. Gerhard Grümmer: Giftküchen des Teufels. 3. Auflage. Brandenburger Verlagshaus, Berlin 1990, ISBN 3-327-00647-4. Ludwig F. Haber: The Poisonous Cloud. Chemical Warfare in the First World War. Oxford University Press, Oxford u. a. 1986, ISBN 0-19-858142-4. L. Huber, J. Bailey, A. Ochsenbein: ABC-Waffen: Einsatz und Schutz auf einem europäischen Gefechtsfeld. DTIG – Defense Threat Informations Group, 1995. Robert Harris, Jeremy Paxman: Eine höhere Form des Tötens. Die geheime Geschichte der B- und C-Waffen. Econ, Düsseldorf u. a. 1986, ISBN 3-430-14052-8. Reinhard Klimmek, Ladislaus Szinicz, Nikolaus Weger: Chemische Gifte und Kampfstoffe – Wirkung und Therapie. Hippokrates Verlag, Stuttgart 1983, ISBN 3-7773-0608-8. Dan Kaszeta: Toxic. A History of Nerve Agents, From Nazi Germany to Putin’s Russia. Hurst & Company, London 2020, ISBN 978-1-78738-306-7. Thilo Marauhn: Der deutsche Chemiewaffenverzicht. Rechtsentwicklungen seit 1945. (= Beiträge zum ausländischen öffentlichen Recht und Völkerrecht. 116). Springer, Berlin u. a. 1994, ISBN 3-540-58352-1. (Zugleich: Heidelberg, Univ., Diss., 1993–1994). Dieter Martinetz: Der Gaskrieg 1914–1918. Entwicklung, Herstellung und Einsatz chemischer Kampfstoffe. Das Zusammenwirken von militärischer Führung, Wissenschaft und Industrie. Bernard & Graefe, Bonn 1996, ISBN 3-7637-5952-2. Gerhard Peters (LS-Oberführer): Kampfstoff– und Luftschutz–Chemie – Eigenschaften Gefahren und Abwehr der chemischen Kampfstoffe, Ferdinand Enke Verlag, Stuttgart 1939. DNB-Link Florian Schmaltz: Kampfstoff-Forschung im Nationalsozialismus. Zur Kooperation von Kaiser-Wilhelm-Instituten, Militär und Industrie. (= Geschichte der Kaiser-Wilhelm-Gesellschaft im Nationalsozialismus. 11). Wallstein, Göttingen 2005, ISBN 3-89244-880-9. Jonathan B. Tucker: War of nerves. Chemical warfare from World War I to al-Qaeda. Pantheon Books, New York NY 2006, ISBN 0-375-42229-3. Gertrud Woker: Der kommende Gift- und Brandkrieg und seine Auswirkungen gegenüber der Zivilbevölkerung. Ernst Oldenburg Verlag, Leipzig 1932, . Weblinks Chemische Kampfstoffe (PDF; 427 kB), auf cci.ethz.ch, abgerufen am 4. April 2017. Organization for the Prohibition of Chemical Weapons (PDF; 124 kB) DTIG.org Fotoaufnahmen vom Gaseinsatz während des Ersten Weltkriegs Deutsches Merkblatt für den Gaskampf (1917) Beschreibung der deutschen Produktionsanlagen in Munster auf geschichtsspuren.de Giftgas ins Meer. deutscher Wochenschaubericht über die Versenkung von Transportschiffen mit Giftgas 1946 in der Nordsee Gas Ship Towed To Sea And Sunk. Dokumentarfilmaufnahme der British Pathé von der Versenkung der Alco Banner (vermutlich richtige Schreibweise Alcoa Banner) angeblich 1946 vor Norwegen Stefanie Kalb: Wilhelm Neumann 1898–1965. Leben und Werk unter besonderer Berücksichtigung seiner Rolle in der Kampfstoff-Forschung. Diss. med., Julius-Maximilians-Universität Würzburg, 2005, Zusammenfassung. Printausgabe im Franz Steiner Verlag The Deadliness Below. Weapons of mass destruction thrown into the sea years ago present danger now – and the Army doesn’t know where they all are. In: CommonDreams, 30. Oktober 2005 Liste mit deutschen und ausländischen Schiffen, die von 1945 bis 1956 mit chemischen Waffen in nordeuropäischen Gewässern bzw. im Atlantik versenkt wurden Norwegischer Forschungsbericht über die Untersuchung von mit chemischen Waffen versenkten Schiffen vor der norwegischen Küste bzw. im Skagerrak ab 1989. (englisch: Investigation and Risk Assessment of Ships Loaded with Chemical Ammunition Scuttled in Skagerrak) Einzelnachweise Militärtechnik (Erster Weltkrieg) Militärtechnik (Zweiter Weltkrieg)
915
https://de.wikipedia.org/wiki/Clipboard
Clipboard
Clipboard steht für: Zwischenablage in der elektronischen Datenverarbeitung, d. h. ein virtueller Zwischenspeicher Klemmbrett
916
https://de.wikipedia.org/wiki/Lake%20Champlain
Lake Champlain
Der Lake Champlain (‚Champlainsee‘, frz. Lac Champlain) ist das neuntgrößte Binnengewässer in den Vereinigten Staaten. Er liegt südlich von Montreal zwischen den Green Mountains und den Adirondack Mountains an der Grenze der US-Staaten Vermont und New York und hat im Norden noch geringen Anteil in der kanadischen Provinz Québec. Er ist nach Samuel de Champlain benannt, der ihn 1609 erforschte und ab dem 4. Juli des Jahres befuhr. Zu diesem Zeitpunkt galt er als Grenze zwischen den Stämmen der Algonkin im Osten und den Irokesen im Westen, was sich auch in den Namen ausdrückte, die die Urbewohner dem See gegeben hatten: Pe-Tonbonque (etwa: „Wasser, das zwischen ihnen [den Stämmen] liegt“) bei den Algonkin, Caniaderi-Guarunte (etwa: „See, der das Tor zum Land ist“) bei den Irokesen. Im etwa 180 km langen und bis zu 19 km breiten Champlainsee liegen etwa 80 Inseln, von denen eine ein eigenes County im US-Staat Vermont bildet. Nach den fünf Großen Seen im Mittleren Westen, dem Großen Salzsee in Utah, dem Iliamnasee in Alaska und dem Okeechobeesee in Florida steht er an neunter Stelle der nach Wasserfläche größten Seen der Vereinigten Staaten. Geschichte Nach Entdeckung des Sees durch Samuel de Champlain 1609 gehörte dieser mit dem umliegenden Gebieten zu Neufrankreich, bis dieses im Verlaufe des Siebenjährigen Krieges (1754–1763) von den Briten erobert wurde. Die Franzosen erbauten mehrere Forts entlang des Sees von denen das bedeutendste Fort Carillon war, welches 1755 zu Beginn des Siebenjährigen Krieges am Südende des Sees errichtet wurde. Das Fort war mehrfach der Schauplatz militärischer Auseinandersetzungen zunächst zwischen Franzosen und Briten und dann zwischen Briten und Amerikanern. Während des Amerikanischen Unabhängigkeitskrieges (1775–1783) kam es auf dem Lake Champlain am 11. Oktober 1776 zum Seegefecht bei Valcour Island, der ersten Seeschlacht der United States Navy. Sie endete mit einem Sieg der Briten. Am 11. September 1814 erstritt die amerikanische Flotte unter Commodore Thomas Macdonough einen Sieg gegen die anrückenden Briten, als diese von Kanada aus eine Invasion des Staates New York versuchten (Schlacht bei Plattsburgh). Im 19. Jahrhundert wurde der Champlainsee durch ein Kanalsystem mit dem Hudson River verbunden. Die Häfen Burlington, Port Henry und Plattsburgh sind nur noch von geringem kommerziellen Interesse. Bekannt wurde das Gewässer durch ein angebliches Seeungeheuer, das nach seinem Entdecker de Champlain Champ genannt wird. Tatsächlich notierte de Champlain lediglich die Sichtung eines ihm unbekannten Fisches, dessen Beschreibung den im See lebenden Stör passt. Seit 1982 steht Champ unter gesetzlichem Schutz, da er zu einer wichtigen Touristenattraktion geworden ist. Inseln Der Champlainsee umfasst ungefähr 80 Inseln, einschließlich eines ganzen Countys in Vermont. Isle La Motte Grand Isle (Vermont), einschließlich South Hero (Vermont) North Hero Valcour Three Sisters Two Brothers Burton Island Cloak Island Garden Island – „Gunboat Island“ Crab Island (New York) Damon Island Hen Island Leuchttürme Historischer gemauerter Leuchtturm am Cumberland Head. Rosa Leuchtturm am Nordende der Isle La Motte. Historischer Leuchtturm in Privatbesitz am Point Au Roche, Beekmantown, New York. Infrastruktur Fähren Die Lake Champlain Transportation Company bietet nördlich von Ticonderoga drei Fährverbindungen an: Charlotte, Vermont – Essex, New York Burlington, Vermont – Port Kent, New York Grand Isle, Vermont – Plattsburgh, New York Brücke An der Engstelle zwischen Crown Point, New York und Chimney Point, Vermont wird der See von der Lake Champlain Bridge überquert. Weblinks Jack Share: Champlain Thrust Fault at Lone Rock, Blogeintrag des Geologen im Blog Written in Stone seen through my lens, 23. Oktober 2011 (Zur Geologie der Gegend) (englisch) Einzelnachweise See in Vermont See in New York See in Québec See in Nordamerika SChamplainsee Grenze zwischen Kanada und den Vereinigten Staaten Samuel de Champlain
918
https://de.wikipedia.org/wiki/Cha-Cha-Cha
Cha-Cha-Cha
Der Cha-Cha-Cha [] ist ein moderner, paarweise getanzter Gesellschaftstanz kubanischen Ursprungs. Der Cha-Cha-Cha in seiner weltweit verbreiteten westlichen Variante gehört zu den lateinamerikanischen Tänzen des Tanzsports und wird als Bestandteil des Welttanzprogramms in Tanzschulen unterrichtet. Die ursprüngliche kubanische Form des Cha-Cha-Chas unterscheidet sich in Technik und Figurenrepertoire stark vom heutigen Turniertanz und ist in der spanischen Schreibweise Cha-cha-chá [] in der modernen Salsa-Szene anzutreffen. Entstehung Die Geschichte des Cha-Cha-Chas wurde nur mündlich überliefert und wird leicht unterschiedlich wiedergegeben. Der Rhythmus des Cha-Cha-Chas wurde zwischen 1948 und 1951 von Enrique Jorrín erfunden, einem kubanischen Komponisten und Violinisten, der damals in der kubanischen Charanga Orquesta América spielte. Jorrín variierte in seinen Kompositionen seit 1948 beständig den kubanischen Tanzrhythmus Danzón: Unter anderem reduzierte er die für die kubanische Musik typische Synkopierung und fügte dem ursprünglich rein instrumentalen Musikstil rhythmische Gesangseinlagen hinzu. 1951 führte Jorrín den Cha-Cha-Cha-Rhythmus unter dem von ihm gewählten Namen neodanzón (span. „neuer Danzón“) auf den kubanischen Tanzflächen ein. 1953 nahm die Orquesta América Jorríns Hits La Engañadora und Silver Star auf. Der neue Rhythmus kam beim Publikum sehr gut an und inspirierte die Tänzer zu einem Tanzschritt, der den Grundschritt des Mambo um einen schnellen Wechselschritt ergänzt. Dieser schnelle Wechselschritt verursachte laut Jorrín ein scharrendes Geräusch, das für ihn wie cha cha chá klang, und das er als rhythmische Gesangseinlage in einige seiner Lieder einbaute. Dieses Geräusch und die daraus resultierende rhythmische Zählweise 2 3 Cha-Cha-Cha waren letztendlich namensgebend für den Tanz. Der Cha-Cha-Cha verbreitete sich sehr schnell über die kubanische Grenze hinweg nach Mexiko und in die Vereinigten Staaten. In den Vereinigten Staaten avancierte der Cha-Cha-Cha über Nacht zum Modetanz des Jahres 1955, gestützt durch die legendären Mambo- und Cha-Cha-Cha-Orchester des Tanzsalons Palladium in New York City. Möglicherweise lag der große Erfolg des Cha-Cha-Cha im Entfernen der Synkopierung begründet, denn diese rhythmische Besonderheit erschwert westlichen Hörern das Tanzen und gilt als Mitursache für den schnellen Niedergang des Mambo. Der Tanz erfuhr sehr früh technische Anpassungen an die Rumba. 1962 wurde er offiziell zu den Turniertänzen hinzugenommen und wies bereits damals die Grundform der heutigen Turniervariante auf. Einen großen Beitrag zur technischen Entwicklung lieferte Walter Laird, der mit seiner Tanzpartnerin Lorraine Reynolds in den Jahren 1962, 1963 und 1964 Latein-Weltmeister wurde und mehrere Tanzbücher verfasste. 1963 wurde der Cha-Cha-Cha als lateinamerikanischer Tanz in das Welttanzprogramm aufgenommen und gehört seither weltweit zum Grundstock allgemeiner Tanzschulen. Charakteristik Cha-Cha-Cha-Musik ist heiter und unbeschwert. Der Tanz ist ein amüsanter und koketter Flirt zwischen den Tanzpartnern, die in frechen offenen und geschlossenen Figuren miteinander spielen. Er ist vorwitziger als die verträumt-erotische Rumba, aber weniger aufreizend als der überschäumende Samba. Die kubanische Variante ist insgesamt ruhiger und weicher. Rhythmus und Musik Der Cha-Cha-Cha wird im Viervierteltakt notiert, hat die Hauptbetonung auf dem ersten Taktschlag und wird auf Turnieren in einem Tempo von 30 bis 32 Takten pro Minute gespielt und getanzt. Cha-Cha-Cha ist in vielerlei Hinsicht ungewöhnlich für eine kubanische Musikform: Er wurde von Anfang an im Viervierteltakt notiert, während die meisten anderen kubanischen Musikformen ursprünglich im Zweivierteltakt-Takt notiert und erst im Laufe der Zeit von Exilkubanern an die westliche Vierviertelnotation angepasst wurden. Trotz seiner Wurzeln im Danzón hat er keinen Bezug zur Clave, dem aus Afrika stammenden Rhythmusschema, das fast alle kubanische Musik prägt. Schließlich weist er keine Synkopierung auf und steht damit unter anderem im Gegensatz zum Mambo, bei dem die Hauptbetonung vom ersten auf den vierten Taktschlag verschoben ist. Seit Jorríns Tagen hat sich die Musik, auf die Cha-Cha-Cha getanzt wird, ständig verändert. Spielte das Orquesta América noch in der klassischen Charanga-Besetzung des Danzóns mit Perkussion, Klavier, Bass, Flöte und Cuerdas, setzten sich bereits im Palladium fetzige Bläserbegleitungen durch. Zur nachhaltigen Beliebtheit des Cha-Cha-Cha trug auch bei, dass er problemlos mit der Metrik der westlichen Musik vereinbar ist. So wird Cha-Cha-Cha in Tanzschulen heute auf aktuelle Chart-Hits der Popmusik und des Latin Rock gelehrt. Technik Der Cha-Cha-Cha ist ein stationärer Tanz, wird also weitgehend am Platz getanzt. Wie die Rumba lebt auch der Cha-Cha-Cha von Hüftbewegungen. Die Schritte sollten eher klein ausfallen, da sonst die Hüftbewegung unnötig erschwert würde. Charakteristisch für den Cha-Cha-Cha ist das Chassé auf „4 und 1“. Der ursprüngliche kubanische Cha-Cha-Cha und die moderne Turniervariante unterscheiden sich in allen weiteren Punkten so sehr, dass sie im Folgenden getrennt dargestellt werden. Kubanische Variante Die ursprüngliche Form des Cha-Cha-Cha ist dem Mambo sehr ähnlich und heute nur noch beim Freizeittanz in der Salsa-Szene anzutreffen. Der kubanische Cha-Cha-Cha wird klein und „erdig“ getanzt, das heißt, die Schritte werden stets auf dem ganzen Fuß angesetzt und die Füße kaum vom Boden gehoben. Beim Chassé schleifen die Füße über das Parkett, als wollte der Tänzer ein Blatt Papier über den Boden schieben. Die Hüftbewegung beim Chassé entsteht dadurch, dass die Schritte mit gebeugtem Knie angesetzt werden, wodurch sich die Hüfte wechselseitig absenkt. Der Grundschritt zeichnet sich durch eine leichte Vorwärts-Rückwärts-Bewegung aus: Die lockere Tanzhaltung ist flexibel, was den Abstand der Partner zueinander betrifft, ausladende Armbewegungen gibt es keine. Das Figurenrepertoire ist durch den Platzwechsel Cross Body Lead und einfache Drehungen geprägt und etwa dem Basisrepertoire der modernen Salsa im geradlinigen Stil vergleichbar. Westliche Variante Die westliche Variante ist durch die Technik der lateinamerikanischen Tänze geprägt. Ähnlichkeiten zur Rumba sind in Grundschritt und Basic-Figuren zu finden, die Hüftbewegung hat jedoch durch das höhere Tempo und den schnellen Wechselschritt einen anderen Charakter, rotierende Anteile treten zurück. Die Füße sind in den Check- und Lockstep-Schritten wie in allen „echten“ lateinamerikanischen Tänzen (Salsa, Mambo, Rumba, eingeschränkt: Samba) leicht nach außen gedreht, die Schritte werden stets auf dem Fußballen angesetzt. Bei den langen Schritten auf den Taktschlägen 1, 2 und 3 wird das Bein ganz durchgestreckt und die Ferse flach aufgesetzt. Um die Musik besser rhythmisch akzentuieren zu können, erfolgen die Schrittansätze immer am Ende des ihnen jeweils zustehenden Zeitintervalls, dann aber sehr schnell ausgeführt. Die Betonungen auf „1“ und noch stärker „3“ sind deutlich zu machen; am Ende des Seitwärts-Chassés rotiert das gestreckte Spielbein aus, und zwar reaktiv durch das Senken in die Hüfte. Die Schrittgröße und die Intensität der die Schritte einleitenden Hüftbewegungen korrelieren, was bei Betrachtung von Anfängern fälschlicherweise den Eindruck erwecken kann, man würde sich kaum bewegen. Beim Guapachá-Timing, einer rhythmischen Variante, belastet man nach einem Chassé den nächsten Vorwärts- bzw. Rückwärtsschritt erst auf der zweiten Hälfte des zweiten Taktschlages, so dass „4 und 1, und 3“ gezählt wird. Cha-Cha-Cha-Folgen (oder Choreographien) zeigen häufig offene Figuren auf, d. h. die Partner tanzen ohne Berührung; ansonsten wird mehr in halboffener als in geschlossener Tanzhaltung getanzt. Da die Hüftbewegungen schnell sind, ist eine Kontrolle des Oberkörpers nötig, die nicht zu einer Versteifung führen darf. Die Arme unterstützen den Spannungsaufbau im Schultergürtel und dienen der Balance wie auch der optischen Vergrößerung der Figuren als Mittel der Präsentation. Walter Lairds The Technique of Latin Dancing oder Latin American Cha Cha Cha (herausgegeben von der ISTD) fassen Grundschritte und Basic-Figuren (also keine Posen, Fall- und Hebefiguren) sowie weitere Hinweise zu Rhythmik und Ausführung zusammen, lassen aber weiten Raum für eine individuelle Interpretation jenseits der „bloßen“ Schritte. Die für Salsa und Mambo so typischen Figuren Cross Body Lead und alle darauf aufbauenden Figuren werden in diesen Werken nicht aufgeführt. Der Anfänger sollte die Figuren in etwa in der in den genannten Werken vorgesehenen Reihenfolge erlernen, wobei die Damendrehung, der New Yorker, Hip Twist, Fan, Hockeystick, Alemana, Opening Out, Three Chachas (Locksteps vor und zurück) als erster Einstieg und typische Figuren dienen können. Trivia Die typische Musik für den Tanz, mit der der Tanz noch heute assoziiert wird, ist Tommy Dorseys Version von Tea For Two Cha, Cha vom September 1958. Der Cha-Cha-Cha war Tanz des Jahres 2007. Zu diesem Anlass wurde von 323 deutschen und zwei österreichischen Tanzschulen am 3. November 2007 ein neuer Weltrekord im Cha-Cha-Cha-Massensimultantanzen mit 50.419 Teilnehmern aufgestellt. Der Tanz begann zeitgleich um 21:12 Uhr und dauerte ca. sechs Minuten. Literatur Walter Laird: Technique of Latin Dancing. Sportshelf & Soccer Association, 4. Auflage, Dezember 1983. Weblinks Deutscher Tanzmusik-Index: Cha-Cha-Cha. Tanzmusik Online – Liste von Cha-Cha-Cha-Musiktiteln Einzelnachweise Gesellschaftstanz Paartanz Turniertanz Tanz des westlichen Kulturkreises Kubanischer Tanz Lateinamerikanischer Tanz
919
https://de.wikipedia.org/wiki/Computerprogramm
Computerprogramm
Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw. Aufgaben oder Probleme mithilfe eines Computers zu bearbeiten oder zu lösen. Überblick Ein Computerprogramm gehört zur Software eines Computers. Es liegt meist auf einem Datenträger als ausführbare Programmdatei, häufig im sogenannten Maschinencode, vor, die zur Ausführung in den Arbeitsspeicher des Rechners geladen wird. Das Programm wird als Abfolge von Maschinen-, d. h. Prozessorbefehlen von dem oder den Prozessoren des Computers verarbeitet und damit ausgeführt. Computerprogramme entstehen im Rahmen der Softwareentwicklung. Die dabei direkt auf einzelne Programme bezogenen Aktivitäten bezeichnet man im allgemein als Programmierung oder auch als Implementierung. Dabei entsteht zunächst für jedes Programm ein sog. Quelltext, den Programmierer in einer Programmiersprache abgefasst haben. Er besteht aus einer Abfolge von (zumeist der englischen Sprache entnommenen) Anweisungen, die (für Programmierer) im Allgemeinen verständlicher sind (z. B. ADD, SUB, AND, OR) und durch menschliche Benutzer einfacher bearbeitbar sind als der später daraus entstehende Maschinencode. Damit ein in einer Hochsprache geschriebenes Programm ausgeführt werden kann, muss sein Quellcode in Maschinencode übersetzt werden. Eine Anweisung einer höheren Programmiersprache wird im Allgemeinen in mehrere Maschinenbefehle übersetzt. Der Übersetzungsvorgang wird Kompilierung genannt. Um aus dem Quelltext den Maschinencode zu generieren, wird ein Assembler, Compiler oder Interpreter benötigt. Dieser übersetzt die Anweisungen der Programmiersprache in die semantisch entsprechenden Befehle der Maschinensprache des zu verwendenden Computers. Der Programmcode kann in Dateien gespeichert werden, die meist durch eine Dateiendung gekennzeichnet sind. Quelltextdateien weisen damit auf die verwendete Hochsprache hin (<programm>.c: ein in C formuliertes Programm). Sie können im Allgemeinen mit einem einfachen Texteditor bearbeitet werden. Eine Datei, die dagegen Maschinencode enthält, besitzt keine oder eine betriebssystemspezifische Endung, die lediglich auf ihre Ausführbarkeit hinweist (<programm>.exe bei MS-DOS und Windows; <programm> bei unixoiden Systemen). Sie kann oft als Kommando in einem Terminal (Eingabeaufforderung) aufgerufen werden. Siehe auch Programmbibliothek. Im Sprachgebrauch wird Computerprogramm meist zu Programm verkürzt oder der Begriff Software verwendet. Allerdings ist Computerprogramm kein Synonym zu Software; vielmehr ist ‚Software‘ ein IT-Sammelbegriff für Nicht-Hardware, zum Beispiel für Betriebssystem, Datenbank oder für eine komplette, für den Benutzer fertige IT-Anwendung – die Komponenten wie Grafik- und Audiodateien, Schriftarten, Hilfetexte usw. umfassen kann. Ein größeres Computerprogramm besteht meist aus mehreren Modulen – die entweder zum Programm selbst gehören oder die als Bausteine (Unterprogramme) aus bereits bestehenden Programmbibliotheken bei der Ausführung des Programms benutzt werden. Im umgekehrten Fall können Computerprogramme Teil eines übergeordneten, ein größeres Aufgabengebiet abdeckenden Anwendungssystems sein; Beispiel: Gehaltsabrechnung, Finanzbuchhaltung, Meldewesen. Die Anweisungen, die (als Teil von Programmen) einen konkreten Lösungsweg repräsentieren, werden als Algorithmus bezeichnet; Beispiel: Berechnen der Mehrwertsteuer. Die Entwicklung von Computerprogrammen ist das Gebiet der Softwaretechnik. Je nach Komplexität der zu entwickelnden Computerprogramme geschieht dies im Rahmen von Projekten. Die Aktivitäten der Beteiligten werden dabei meist unter Anwendung von Vorgehensmodellen, speziellen Methoden und Werkzeugen zur Softwareentwicklung ausgeführt. In den Anfängen der Programmierung wurde – bis zur Entwicklung von Programmiersprachen – ausschließlich in Maschinencode programmiert. Später kamen höhere Programmiersprachen zum Einsatz. Je komplexer ein Computerprogramm ist, desto anspruchsvoller ist die vorbereitende Planung und desto wichtiger die Erfahrung der ausführenden Programmierer. Bei größeren Programmen kommt es aufgrund mangelnder Planung und Erfahrung der Programmierer oft zu unnötig komplexen und/oder ineffizienten Programmen oder Programmteilen (siehe auch Bloatware). Klassifizierungsmöglichkeiten Neben den für Software im Allgemeinen geltenden Unterscheidungsmerkmalen lassen sich Computerprogramme (als Untervariante von Software) nach den folgenden, beispielhaft genannten Kriterien unterscheiden: Quellprogramme (in einer bestimmten Programmiersprache) oder Maschinenprogramme (ausführbar auf bestimmten Plattformen) oder Programme in einem Zwischencode Hauptprogramme (aufgerufen über Betriebssystem-Kommandos) oder Unterprogramme (aufgerufen durch andere Programme). Sonderformen treten auf, wenn Programme z. B. über technische Steuerungskomponenten aufgerufen werden, z. B. über serviceorientierte Architekturen, automatisiertes Workflow-Management. Stapelprogramme (verarbeiten ‚Stapel‘ von Daten) bzw. Shellskripte oder Dialogprogramme (stehen in Interaktion mit Benutzern, z. B. über Dialoge) Nach dem Ort der Speicherung und Programmausführung unterschieden können Programme lokal (auf einem Arbeitsplatzrechner) gespeichert und ausgeführt werden oder auf einem Server installiert sein und trotzdem lokal (nach dem Laden über eine Online-Verbindung) ausgeführt werden oder nur auf dem Server gespeichert und dort auch ausgeführt werden. Bei verteilten Anwendungen werden Programmteile auf unterschiedlichen Rechnern ausgeführt, z. B. die Geschäftslogik und Datenhaltung im Server, Funktionen der Benutzeroberfläche am lokalen Rechner; im rein technischen Sinn stehen hierbei verschiedene Programme miteinander in Verbindung. Geschichte Die Analytische Maschine von Charles Babbage Charles Babbage stellte bereits 1832 einen Demonstrator seiner Differenzmaschine No. 1 vor, verfolgte ab 1834 jedoch das Konzept einer per Dampfkraft betriebenen Rechenmaschine für die allgemeine Anwendung, die er nannte, „Analytische Maschine“. Diese hätte per Lochkarten programmiert werden können, unterschiedliche Rechnungen durchzuführen, sodass die Auswertung polynomialer Funktionen (die alleinige Funktion der Differenzmaschine) nur ein Programm unter vielen gewesen wäre. Für die Entwicklung seiner universellen Rechenmaschine brachte Charles Babbage zwischen 1837 und 1840 insgesamt 27 Programme zu Papier. Einige der Designentscheidungen für die Analytischen Maschine lassen sich direkt im Quelltext der Programme nachvollziehen. So hat die Analytische Maschine bereits eine Trennung zwischen Speicher und Rechenwerk, was charakteristische für Computer seit den 1940er Jahren ist. Obwohl nie gebaut, gilt die damit als der erste Computer der Geschichte, oder zumindest als dessen Vorläufer nach der Definition einer Universellen Rechenmaschine () nach Alan Turing. Seine Notizen, die auch die Programme beinhalten, blieben unveröffentlicht und wurden 1937 wiederentdeckt. Die Quelltexte der Programme selbst wurden erst 1982 erstmals untersucht. Die Notizen von Charles Babbage zur sind in den ‚‘ des Science Museums von London frei, als Open Access, abrufbar. Das erste Programm trägt den 4. August 1837 als Datum und befasst sich mit Simultangleichungen der Cramerschen Regel. Einige der späteren Programme sind relativ komplex, wie z. B. die Multiplikation von zwei Polynomen. Der Code enthält bereits Indirekte Adressierung und den bedingten Sprung (IF-THEN-ELSE-Befehle). Das erste veröffentlichte Computerprogramm von Ada Lovelace Ada Lovelace, Tochter des britischen Dichters Lord Byron, traf Charles Babbage 1833 und unterhielt mit ihm bis zu ihrem Tod 1852 eine Freundschaft. Ab ca. 1841 arbeitete sie mit ihm zusammen an der Analytischen Maschine. 1843 übersetzte sie ein Manuskript des italienischen Ingenieurs Luigi Federico Menabrea über die ins Englische, versah die Übersetzung jedoch mit zahlreichen zusätzlichen Anmerkungen zum konzeptionellen Unterschied zwischen Babbage’s Differenzmaschine und der Analytischen Maschine. Dazu schrieb sie auch ein Programm, das die Bernoulli-Zahlen berechnet. Es ist die weltweit erste Publikation eines Computerprogramms, wodurch Ada Lovelace als die erste Programmiererin gilt. Die 1980 veröffentlichte Programmiersprache Ada ist nach Ada Lovelace benannt. Erste Programme auf Lochstreifen In den Jahren 1936 bis 1941 entwarf Konrad Zuse die Rechner Z1 und Z3, die lange Befehlsfolgen auf einem Lochstreifen verarbeiteten, die ersten Computerprogramme, die auf realen Maschinen ausgeführt werden konnten. Die Rechner beherrschten die vier Grundrechenarten und Quadratwurzelberechnungen auf binären Gleitkommazahlen, der Lochstreifen enthielt jeweils eine Rechenoperation und eine Speicheradresse. Auf Zuse geht auch die erste höhere Programmiersprache Plankalkül zurück. Damit lassen sich Probleme maschinenunabhängig formulieren und später in eine maschinenlesbare Form überführen. Programme im Arbeitsspeicher Der EDVAC-Rechner, der auf einem Entwurf von John von Neumann aus dem Jahre 1945 basiert, hatte einen Quecksilber-Verzögerungsspeicher für 1024 Fest- oder Gleitkommazahlen mit jeweils 44 Bit. Jede Speicherzelle konnte statt einer Zahl auch einen Befehl aufnehmen. Bei diesem Rechnerkonzept war es möglich, die Befehle eines Computerprogramms vor der Ausführung zuerst in den Arbeitsspeicher zu übertragen. Das ist heute noch üblich. EDVAC wurde jedoch erst im Jahr 1951 teilweise fertiggestellt. Der Demonstrationsrechner Manchester SSE und der auf dem EDVAC aufbauende EDSAC-Rechner hatten schon vorher Programme aus dem Arbeitsspeicher ausgeführt. Höhere Programmiersprachen und Compiler Ende der 1950er-Jahre wurden Computer so leistungsfähig, dass spezielle Programme, Compiler genannt, Quelltexte in höheren Programmiersprachen automatisch in Maschinenbefehle, also ausführbare Programme, übersetzen konnten. Ausführbare Programme können dann, wie beim EDVAC, in den Speicher geladen und abgearbeitet werden. Mit Fortran, COBOL, ALGOL und LISP entstanden in den späten 1950er-Jahren die ersten standardisierten höheren Programmiersprachen. Programme in diesen Sprachen laufen, durch einen entsprechenden Compiler übersetzt, auf unterschiedlichen Rechnern. Sie können teilweise auch noch auf modernen Computern eingesetzt werden. Vom Algorithmus zum Programm Berechnung des größten gemeinsamen Teilers Es soll ein Programm zur Bestimmung des größten gemeinsamen Teilers (ggT) zweier Zahlen erstellt werden. Zunächst muss ein geeigneter Algorithmus gefunden werden. Der Euklidische Algorithmus, der bereits um 300 v. Chr. beschrieben wurde, ermittelt den größten gemeinsamen Teiler (ggT) zweier natürlicher Zahlen a und b: Sei a die größere der beiden Zahlen a und b.Wenn a kleiner als b ist, dann vertausche die Zahlen. Setze a auf den Wert a - b. Wenn a und b ungleich sind, dann fahre mit Schritt 1 fort.Wenn a und b gleich sind, dann ist der Algorithmus beendet.Diese Zahl ist der größte gemeinsame Teiler. Verwendung einer Programmiersprache Sobald eine formale Beschreibung eines Algorithmus, also eine genau definierte Verarbeitungsvorschrift, vorliegt, kann der Algorithmus umgesetzt (implementiert) werden. Dazu wird eine geeignete Programmiersprache ausgewählt. Zur Umsetzung wird heute meist eine höhere Programmiersprache verwendet, die von einem Computer eventuell nicht direkt ausgeführt werden kann, sondern zuerst kompiliert oder interpretiert werden muss. In Sprachen wie Pascal dienen Variablen, Ausdrücke, Vergleiche, Zuweisungen und Kontrollstrukturen zur Umsetzung des ggT-Algorithmus: while a <> b do // Schritt 3: solange a ungleich b begin if b > a then // Schritt 1: falls b größer als a begin temp := a; // a und b vertauschen a := b; b := temp; end; a := a - b; // Schritt 2: a durch a - b ersetzen end; Berücksichtigung aller Sonderfälle Bei der Umsetzung wird mit der Prüfung von Schritt 3 begonnen. Der ursprüngliche Algorithmus berücksichtigt nicht den Fall, dass a und b bereits zu Beginn gleich sein können. Wäre es die Aufgabe, den größten Teiler von 103 und 103 zu finden, würde ein Mensch sofort das Ergebnis 103 nennen, er würde den Algorithmus gar nicht bemühen. Der originale Algorithmus würde aber null ergeben. Die Umsetzung auf einem Rechner muss auch alle Sonderfälle berücksichtigen. Durch das Vorziehen von Schritt 3 wird der Sonderfall hier korrekt behandelt. Elementare Schritte Pascal und andere Programmiersprachen besitzen keine Operation zum Vertauschen von Zahlen. Dies muss daher in elementarere Schritte umgesetzt werden. Die zusätzliche Variable temp, eine sogenannte Hilfsvariable, erlaubt die Vertauschung mit Hilfe von drei Zuweisungen: temp := a; // Wert von a in der Hilfsvariablen temp retten a := b; // a mit dem Wert von b überschreiben b := temp; // b mit dem Wert von temp überschreiben Auch dies ist ein kleiner Algorithmus. Ein vollständiges Programm Damit daraus ein korrektes Programm wird, muss der Algorithmus noch um Ein- bzw. Ausgabeanweisungen, oft jedoch auch um Variablen und eine Programmstruktur ergänzt werden. Diese sind nicht Teil des eigentlichen Algorithmus: program Ggt; // Programmkopf var a, b, temp: Integer; // Variablendefinition begin ReadLn(a, b); // Eingabe von a und b while a <> b do // Euklidischer Algorithmus begin if b > a then begin temp := a; a := b; b := temp; end; a := a - b; end; WriteLn(a); // Ausgabe von a end. // Programmende Übersetzung und Ausführung Ein solches Programm wird unter Verwendung eines Texteditors erstellt und als Quellcode in einer Datei oder Programmbibliothek (für Quellcode) gespeichert. Anschließend kann der Quellcode zu einer festen Ablaufanweisung für den Computer 'übersetzt’ werden. Hierzu ist ein Compiler erforderlich, der den Code aus der jeweiligen Programmiersprache in die Maschinensprache übersetzt und als Ergebnis ein ausführbares Programm erstellt, welches als Datei oder in einer Programmbibliothek (für ausführbare Programme) abgelegt wird. Dieses Programm kann dann über ein Betriebssystem als Prozess gestartet werden, und zwar beliebig oft (ohne neue Übersetzung). Solch ein einzelner laufender Prozess eines Programms wird auch Programminstanz genannt. Einige Programmiersprachen verwenden keinen Compiler, sondern einen Interpreter, der Programme erst zur Laufzeit in Maschinensprache übersetzt. Eine weitere Möglichkeit besteht in der Verwendung von Zwischencode (Bytecode), der vom Compiler an Stelle des Maschinencodes generiert wird. Ein Beispiel dafür ist Java: Der Java-Compiler erzeugt Bytecode, welcher dann auf der sogenannten virtuellen Maschine ausgeführt wird. Die virtuelle Maschine interpretiert oder übersetzt dann den Bytecode für das darunterliegende Betriebssystem. Ebenso muss in manchen Rechnerumgebungen, in der Regel bei Großrechnern, der vom Compiler erstellte Maschinencode noch mit einem Systemprogramm ('Linkage Editor' o. ä.) nachbearbeitet werden, wobei ggf. weitere Unterprogramme und Systemroutinen 'eingebunden' werden können. Erst so ist das entstandene Programm ausführbar. Mittels spezieller Programme, sogenannter Decompiler, ist es in begrenztem Maße möglich, aus dem Maschinencode wieder einen in Hochsprache lesbaren Quelltext zu erzeugen. Lebensphasen Programme haben mindestens zwei klar getrennte Lebensphasen: Der Zeitraum bis zum Zeitpunkt der Kompilierung (inklusive) wird Compilezeit genannt, welche im Gegensatz zur Laufzeit steht. In der Compilezeit-Phase hat das Programm statische Eigenschaften, gegeben nur durch den festen Quellcode. Nach der Kompilierung und mit der Ausführung besitzt das binäre Programm dynamische Eigenschaften und Verhalten in zusätzlicher Abhängigkeit der jeweiligen Laufzeitumgebung (variierende Hardware, User-Interaktion etc.). In umfassenderen Sinn lassen sich Lebensphasen von Programmen auch als Software-Lebenszyklus verstehen. Demnach gehören zur inhaltlich präzisen Festlegung des Programm-Inhalts die Projektphasen Problemstellung, Analyse und Entwurf, anschließend folgt die technische Implementierung, in der das Programm in Form von Quelltext entsteht. Danach befindet es sich in der Phase Einführung. Nach diesen Entstehungsphasen von Programmen folgt deren produktive Nutzung, bei Bedarf werden Anpassungen und Erweiterungen (Wartungs-/Pflegephase) vorgenommen. Aus betriebswirtschaftlicher Sicht lassen sich auch Computerprogramme nach dem allgemeinen Produktlebenszyklus klassifizieren. Urheberschutz Ein Computerprogramm wird urheberrechtlich geschützt, wenn es individuelles Ergebnis einer eigenen geistigen Schöpfung ihres Urhebers ist ( Abs. 3 UrhG). Mit Umsetzung der Urheberrechtsrichtlinie aus dem Jahre 2001 wurde die Schutzschwelle für Computerprogramme in den EG-Mitgliedsstaaten harmonisiert. Es genügt ein Minimum an Individualität für den Schutz (Kleine Münze). Es wird vermutet, dass sich die Individualität des Urhebers im Programm niedergeschlagen hat, wenn Spielraum dazu bestand. Geistiger Gehalt wird vermutet, wenn das Programm von einem menschlichen Urheber geschaffen wurde. Entwicklung In der Bundesrepublik erfolgte die gesetzliche Anerkennung des Urheberrechtsschutzes 1985; die Rechtsprechung hielt ihn schon vorher für möglich. 1991 folgte die Richtlinie 91/250/EWG über den Rechtsschutz von Computerprogrammen, 1993 gesetzliche Regelungen in Österreich und der Schweiz sowie 1996 in Liechtenstein. In der DDR hatte die Rechtsprechung 1979 die urheberrechtliche Schutzfähigkeit verneint, jedoch konnte in Wirtschaftsverträgen über wissenschaftlich-technische Leistungen die Vergabe von Software durch andere Partner als die erarbeitende Wirtschaftseinheit ausgeschlossen werden. Siehe auch Anwendungssoftware Dienstprogramm Literatur John von Neumann: First Draft of a Report on the EDVAC. (PDF; 0,4 MB) 1945 Martín Abadi, Takayasu Itō: Theoretical Aspects of Computer Software. 1997 Masami Hagiya, John C. Mitchell: Theoretical Aspects of Computer Software. 1994 Weblinks Einzelnachweise Softwaretechnik Programmierung
920
https://de.wikipedia.org/wiki/Chemische%20Energie
Chemische Energie
Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Der Begriff geht auf Wilhelm Ostwald zurück, der ihn 1893 in seinem Lehrbuch „Chemische Energie“ (im Begriffspaar „Chemische und innere Energie“) neben andere Energieformen („Mechanische Energie“, „Wärme“, „Elektrische und magnetische Energie“ sowie „strahlende Energie“) stellte. Der Ausdruck Chemische Energie beschreibt makroskopisch die Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist, soweit sie sich in chemischen Reaktionen auswirkt. Sie kann unterteilt werden in kinetische Energie der Elektronen und potentielle Energie der elektromagnetischen Wechselwirkung von Elektronen und Atomkernen. Sie ist eine Innere Energie, wie die thermische Energie und die Kernenergie. Verwendung des Begriffs chemische Energie In der Fachwissenschaft Chemie wird der Ausdruck „chemische Energie“ nicht verwendet. Er ist nur unter Angabe der Umgebungsbedingungen eindeutig definiert – dafür existiert dann jeweils eine andere etablierte Bezeichnung. Oft ist mit chemischer Energie die Energie gemeint, die durch eine Verbrennung eines Stoffes (bei konstantem Druck) freigesetzt wird, also die Verbrennungsenthalpie. Der Satz von Hess ermöglicht die Berechnung der Energien bei Stoffumwandlungen aus den exakt definierten Bildungsenthalpien der beteiligten Verbindungen. Ähnliche Begriffe sind Heizwert und Brennwert, die jeweils auf die bei einer Verbrennung maximal nutzbare Wärmemenge abzielen. Die chemische Energie darf nicht mit der chemischen Bindungsenergie verwechselt werden. Die chemische Bindungsenergie beschreibt die Festigkeit einer bestimmten chemischen Bindung, gibt also an, wie viel Energie dem Molekül zur Auflösung der Bindung zugeführt werden muss. In anderen Naturwissenschaften, den Ingenieurwissenschaften usw. wird der Begriff der chemischen Energie in seiner teilweise unscharfen Form oft verwendet. Obwohl manche Physikdidaktiker die Verwendung des Begriffs kritisieren („Der Begriff ist nützlich, wenn es um eine grobe Orientierung geht, erweist sich aber als widerspenstig, wenn man ihn streng zu fassen sucht. Im physikalischen Jargon ist er brauchbar, im physikalischen Kalkül überflüssig, zum physikalischen Verständnis hinderlich.“), kommt er in den meisten Didaktik-Veröffentlichungen und Schulbüchern vor. Verwendung Chemischer Energie in technischen Systemen Aus technischer Sicht ist in Treibstoffen chemische Energie gespeichert, die durch deren Verbrennung, etwa beim Antrieb von Fahrzeugen, in mechanische Energie umgewandelt wird. Brennstoffzellen erlauben den Wandel von chemischer Reaktionsenergie einer Verbrennung direkt in elektrische Energie. Bei Nutzung von Batterien wird über elektrochemische Redoxreaktionen chemische Energie direkt in elektrische Energie gewandelt. Ein Akkumulator verhält sich bei der Nutzung der Energie ähnlich wie eine Batterie, kann aber auch umgekehrt elektrische Energie in chemische wandeln und so speichern. Verwendung chemischer Energie in biologischen Systemen Aus biologischer Sicht ist in organischer Nahrung chemische Energie gespeichert, die in ATP-Moleküle als Energieträger umgewandelt wird. Grüne Pflanzen beziehen ihre chemische Energie nicht aus organischer Nahrung, sondern aus dem Energiegehalt der Sonnenstrahlung, und manche Bakterien aus der Oxidationsenergie reduzierter Verbindungen (z. B. Fe2+ oder CH4). Die ATP-Moleküle innerhalb der biologischen Zellen erlauben, chemische, osmotische und mechanische Arbeit zu leisten. Literatur Wilhelm Ostwald: Lehrbuch der allgemeinen Chemie. II. Band, I. Teil: Chemische Energie. 2., umgearbeite Auflage. W. Engelmann, Leipzig 1893. (Nachdruck: ) – Kapitel 6.6.8 „Chemische Energie“ Einzelnachweise Thermodynamik Energieform Biochemie Zellbiologie
923
https://de.wikipedia.org/wiki/Cosimo%20de%E2%80%99%20Medici
Cosimo de’ Medici
Cosimo de’ Medici (genannt il Vecchio ‚der Alte‘; * 10. April 1389 in Florenz; † 1. August 1464 in Careggi bei Florenz) war ein Staatsmann, Bankier und Mäzen, der jahrzehntelang die Politik seiner Heimatstadt Florenz lenkte und einen wesentlichen Beitrag zu ihrem kulturellen Aufschwung leistete. Wegen seiner Zugehörigkeit zur Familie der Medici (deutsch auch „Mediceer“) wird er „de’ Medici“ genannt; es handelt sich nicht um ein Adelsprädikat, die Familie war bürgerlich. Als Erbe der von seinem Vater Giovanni di Bicci de’ Medici gegründeten, stark expandierenden Medici-Bank gehörte Cosimo von Haus aus zur städtischen Führungsschicht. Der geschäftliche Erfolg machte ihn zum reichsten Bürger von Florenz. Den Rahmen für seine politische Betätigung bot die republikanische Verfassung der Stadt, die er im Prinzip respektierte, aber mit Hilfe seiner großen Anhängerschaft umgestaltete. Dabei setzte er sich gegen heftige Opposition einiger bisher tonangebender Familien durch. Sein maßgeblicher Einfluss auf die Politik beruhte nicht auf den Ämtern, in die er gewählt wurde, sondern auf dem geschickten Einsatz seiner finanziellen Ressourcen und einem ausgedehnten Netzwerk persönlicher Beziehungen im In- und Ausland. Es gelang ihm, ein dauerhaftes Bündnis mit Mailand, einer zuvor feindlichen Stadt, zuwege zu bringen und damit außenpolitische Stabilität zu schaffen, die nach seinem Tode anhielt. Cosimos politische Erfolge, seine umfangreiche Förderung von Kunst und Bildungswesen und seine imposante Bautätigkeit verschafften ihm eine einzigartige Autorität. Dennoch konnte er Entscheidungen in heiklen Fragen nicht eigenmächtig treffen, sondern blieb stets auf Konsensbildung in der Führungsschicht angewiesen. Er achtete darauf, nicht wie ein Herrscher aufzutreten, sondern wie ein Bürger unter Bürgern. Das außerordentliche Ansehen, das Cosimo genoss, spiegelte sich in der posthumen Verleihung des Titels Pater patriae („Vater des Vaterlandes“) wider. Mit seinem Vermögen ging die informelle Machtstellung, die er errungen hatte, auf seine Nachkommen über, die seine mäzenatische Tätigkeit in großem Stil fortsetzten. Bis 1494 spielten die Medici in der florentinischen Politik und im kulturellen Leben eine dominierende Rolle. In der modernen Forschung werden Cosimos Leistungen überwiegend positiv beurteilt. Seine staatsmännische Mäßigung und Weitsicht, seine unternehmerische Kompetenz und sein kulturelles Engagement finden viel Anerkennung. Andererseits wird auch auf das große Konfliktpotenzial hingewiesen, das sich aus der massiven, andauernden Dominanz einer übermächtigen Familie in einem republikanischen, traditionell antiautokratischen Staat ergab. Längerfristig erwies sich Cosimos Konzept der indirekten Staatslenkung mittels eines Privatvermögens als nicht tragfähig; im letzten Jahrzehnt des 15. Jahrhunderts brach das von ihm etablierte System zusammen. Die politischen Verhältnisse Nach dem Zusammenbruch des staufischen Kaisertums im 13. Jahrhundert war in Nord- und Mittelitalien, dem sogenannten Reichsitalien, ein Machtvakuum entstanden, das niemand auszufüllen vermochte. Wenngleich die römisch-deutschen Könige im 14. und 15. Jahrhundert weiterhin Italienzüge unternahmen (wie Heinrich VII., Ludwig IV. und Friedrich III.), gelang es ihnen nicht, die Reichsgewalt in Reichsitalien dauerhaft durchzusetzen. Die traditionelle Tendenz zur Zersplitterung der politischen Landschaft setzte sich im Spätmittelalter allgemein durch. Es bildete sich eine Vielzahl von lokalen und regionalen Machtzentren heraus, die einander fortwährend in wechselnden Konstellationen bekämpften. Die wichtigsten unter ihnen waren die großen Städte, die keine übergeordnete Gewalt akzeptierten und nach der Bildung größerer von ihnen kontrollierter Territorien strebten. Nördlich des Kirchenstaats waren die Hauptakteure das autokratisch regierte Mailand, die bürgerliche Republik Florenz und die Adelsrepublik Venedig, die nicht zu Reichsitalien gehörte. Die Politik war in erster Linie von den scharfen Gegensätzen zwischen benachbarten Städten geprägt. Oft bestand zwischen ihnen eine Erbfeindschaft; die größeren versuchten, die kleineren niederzuhalten oder völlig zu unterwerfen, und stießen dabei auf erbitterten Widerstand. Die Kosten der immer wieder aufflackernden militärischen Konflikte führten häufig zu einer gravierenden wirtschaftlichen Schwächung der beteiligten Kommunen, was jedoch die Kriegslust kaum dämpfte. Überdies wurden in den Städten heftige Machtkämpfe zwischen einzelnen Sippen und politischen Gruppierungen ausgetragen, die gewöhnlich zur Hinrichtung oder Verbannung der Anführer und namhaften Parteigänger der unterlegenen Seite führten. Ein Hauptziel der meisten politischen Akteure war die Wahrung und Vermehrung der Macht und des Ansehens der eigenen Familie. Manche Kommunen wurden von Alleinherrschern regiert, die eine Gewaltherrschaft errichtet oder geerbt hatten. Diese von Republikanern als Tyrannis gebrandmarkte Regierungsform wird in der Fachliteratur als Signorie bezeichnet (nicht zu verwechseln mit signoria als Bezeichnung für einen Stadtrat). Sie war gewöhnlich mit Dynastiebildung verbunden. Andere Stadtstaaten hatten eine republikanische Verfassung, die einer relativ breiten Führungsschicht direkte Machtbeteiligung ermöglichte. In Florenz, der Heimat der Medici, bestand traditionell eine republikanische Staatsordnung, die fest verankert war und von einem breiten Konsens getragen wurde. Es herrschte das in Gilden und Zünften organisierte, überwiegend kommerziell oder gewerblich tätige Bürgertum. Man hatte ein ausgeklügeltes System der Gewaltenteilung ersonnen, das gefährlicher Machtzusammenballung vorbeugen sollte. Das wichtigste Regierungsorgan war die neunköpfige Signoria, eine Ratsversammlung, deren Mitglieder sechsmal im Jahr neu bestimmt wurden. Die Kürze der zweimonatigen Amtszeit sollte tyrannischen Bestrebungen den Boden entziehen. Die Stadt, die 1427 etwa 40.000 Einwohner hatte, war in vier Bezirke geteilt, von denen jeder zwei priori (Mitglieder der Signoria) stellte. Zu den acht priori kam als neuntes Mitglied der gonfaloniere di giustizia (Bannerträger der Gerechtigkeit) hinzu. Er war der Vorsitzende des Gremiums und genoss daher unter allen städtischen Amtsträgern das höchste Ansehen, hatte aber nicht mehr Macht als seine Kollegen. Zur Regierung gehörten noch zwei weitere Organe: der Rat der dodici buonomini, der „zwölf guten Männer“, und die sechzehn gonfalonieri (Bannerträger), vier für jeden Bezirk. Diese beiden Gremien, in denen die Mittelschicht stark vertreten war, nahmen zu politischen Fragen Stellung und konnten Gesetzesentwürfe blockieren. Zusammen mit der Signoria bildeten sie die Gruppe der tre maggiori, der drei führenden Institutionen, die den Staat lenkten. Die tre maggiori schlugen neue Gesetze vor, doch konnten diese erst in Kraft treten, wenn sie von zwei größeren Gremien, dem dreihundertköpfigen Volksrat (consiglio del popolo) und dem zweihundert Mitglieder zählenden Gemeinderat (consiglio del comune), mit Zweidrittelmehrheit gebilligt worden waren. In diesen beiden Räten betrug die Amtszeit vier Monate. Ferner gab es Kommissionen, die für besondere Aufgaben zuständig waren und der Signoria unterstanden. Die bedeutendsten von ihnen waren der achtköpfige Sicherheitsausschuss (otto di guardia), der für die innere Staatssicherheit zu sorgen hatte und die Geheimdienstaktivitäten lenkte, und die dieci di balìa („zehn Bevollmächtigte“), ein Gremium mit sechsmonatiger Amtszeit, das sich mit Außen- und Sicherheitspolitik befasste und im Kriegsfall die militärischen Aktionen plante und überwachte. Die dieci di balìa hatten die Fäden der Diplomatie weitgehend in den Händen. Daher wurden sie für die Medici, als diese die Staatslenkung übernahmen, ein zentrales Instrument bei der Steuerung der Außenpolitik. Das in Florenz herrschende tiefe Misstrauen gegen übermächtige Personen und Gruppen war der Grund dafür, dass die meisten Amtsträger, vor allem die Mitglieder der tre maggiori, weder durch Mehrheitsbeschluss gewählt noch aufgrund einer Qualifikation ernannt wurden. Sie wurden vielmehr aus der Menge aller als amtstauglich anerkannten Bürger – etwa zweitausend Personen – durch das Los ermittelt. Man legte die Zettel mit den Namen in Losbeutel (borse), aus denen dann die Zettel der künftigen Amtsträger blind gezogen wurden. Für die Signoria galt ein Verbot aufeinanderfolgender Amtszeiten. Man durfte nur einmal in drei Jahren amtieren, und es durfte niemand aus derselben Familie im vorigen Jahr dem Gremium angehört haben. Die Berechtigung zur Teilnahme an den Auslosungen musste in bestimmten Zeitabständen – theoretisch alle fünf Jahre, faktisch etwas unregelmäßiger – überprüft werden. Diesem Zweck diente das squittinio, ein Verfahren, mit dem festgestellt wurde, wer die Anforderungen der Amtstauglichkeit erfüllte. Zu diesen zählten Freiheit von Steuerschulden und Zugehörigkeit zu mindestens einer der Zünfte. Es gab „größere“ (das heißt angesehenere und mächtigere) und „kleinere“ Zünfte, und sechs der acht Priorensitze in der Signoria waren den größeren vorbehalten. Das Ergebnis des squittinio war jeweils eine neue Liste der politisch vollberechtigten Bürger. Wer einer der größeren Zünfte (arti maggiori) angehörte und im squittinio für tauglich befunden worden war, konnte sich zum Patriziat der Stadt zählen. Da das squittinio Manipulationsmöglichkeiten bot und über den sozialen Rang der am politischen Leben beteiligten Bürger entschied, war seine Durchführung politisch heikel. Das System der Ämterbesetzung durch Losentscheid hatte den Vorteil, dass zahlreiche Angehörige der städtischen Führungsschicht Gelegenheit erhielten, ehrenvolle Ämter zu bekleiden und so ihren Ehrgeiz zu befriedigen. Jedes Jahr wurden die Hauptorgane der Stadtverwaltung mit 1650 neuen Leuten besetzt. Ein Nachteil des häufigen Führungswechsels war die Unberechenbarkeit; eine neue Signoria konnte einen ganz anderen Kurs steuern als ihre Vorgängerin, wenn sich die Mehrheitsverhältnisse durch den Zufall des Losentscheids geändert hatten. Für besondere Krisensituationen war der Zusammentritt eines parlamento vorgesehen. Das war eine Versammlung aller männlichen Bürger, die über 14 Jahre alt waren, mit Ausnahme der Kleriker. Das parlamento konnte eine Kommission für Notfälle, eine balìa, wählen und mit Sondervollmachten zur Bewältigung der Krise ausstatten. Leben Herkunft, Jugend und Bewährung im Bankgeschäft (1389–1429) Cosimo wurde am 10. April 1389 in Florenz geboren. Sein Vater war Giovanni di Bicci de’ Medici (1360–1429), seine Mutter Piccarda de’ Bueri. Es war damals üblich, zwecks Unterscheidung von gleichnamigen Personen den Namen des Vaters anzugeben; daher nannte man Giovanni „di Bicci“ (Sohn des Bicci) und seinen Sohn Cosimo „di Giovanni“. Cosimo hatte einen Zwillingsbruder namens Damiano, der bald nach der Geburt starb. Die Brüder erhielten ihre Namen nach Cosmas und Damian, zwei antiken Märtyrern, die ebenfalls Zwillinge waren und als Heilige verehrt wurden. Daher feierte Cosimo später seinen Geburtstag nicht am 10. April, sondern am 27. September, der damals der Festtag des heiligen Brüderpaares war. Cosimos Vater war bürgerlicher Herkunft. Er gehörte der weitverzweigten Sippe der Medici an. Schon im späten 13. Jahrhundert waren in Florenz Medici im Bankgewerbe tätig, doch in den 1360er und 1370er Jahren war die Sippe größtenteils noch nicht reich; die meisten ihrer Haushalte waren sogar relativ minderbemittelt. Dennoch spielten die Medici in der Politik bereits eine wichtige Rolle; im 14. Jahrhundert waren sie in der Signoria häufig vertreten. In ihrem Kampf um Ansehen und Einfluss erlitten sie jedoch einen schweren Rückschlag, als ihr Wortführer Salvestro de’ Medici 1378 beim Ciompi-Aufstand ungeschickt taktierte: Er ergriff zunächst für die Aufständischen Partei, änderte aber später seine Haltung. Dies brachte ihm den Ruf der Wankelmütigkeit ein. Er wurde des Strebens nach Tyrannenherrschaft verdächtigt, schließlich musste er 1382 ins Exil gehen. In der Folgezeit galten die Medici als unzuverlässig. Um 1400 waren sie so diskreditiert, dass ihnen die Bekleidung öffentlicher Ämter untersagt war. Allerdings waren zwei Zweige der Sippe von dem Verbot ausgenommen; einem der beiden gehörten Cosimos Vater und Großvater an. Die Erfahrung der Jahre 1378–1382 war für die Medici ein einschneidendes Erlebnis, das zur Vorsicht mahnte. Um 1380 betätigte sich Giovanni als kleiner Geldverleiher. Dieses Gewerbe wurde damals verachtet; im Gegensatz zum großen Bankgeschäft war es der Öffentlichkeit suspekt, da die Geldverleiher auf offensichtliche Weise das kirchliche Zinsverbot missachteten, während die Bankiers besser in der Lage waren, die Verzinsung ihrer Darlehen zu vertuschen. Später trat Giovanni in den Dienst des Bankiers Vieri di Cambio, des damals reichsten Angehörigen der Medici-Sippe. Ab 1385 leitete er die römische Filiale von Vieris Bank. Nach der Auflösung von Vieris Bank 1391/1392 machte sich Giovanni selbständig und übernahm die römische Filiale. Mit diesem Schritt gründete er die Medici-Bank. Obwohl Rom der weitaus attraktivste Standort in ganz Italien war, verlegte Giovanni 1397 den Hauptsitz seines Unternehmens nach Florenz. Ausschlaggebend war dabei sein Wunsch, in seine Heimatstadt zurückzukehren. Dort schuf er in der Folgezeit zielstrebig ein Netzwerk von Verbindungen, von denen manche vor allem geschäftlich vorteilhaft waren, andere in erster Linie dazu dienten, sein Ansehen und seinen politischen Einfluss zu vergrößern. Seine beiden Söhne, Cosimo und der sechs Jahre jüngere Lorenzo, erhielten ihre Ausbildung in der väterlichen Bank und wurden dann an der Gestaltung der Geschäftspolitik beteiligt. Zu den Allianzen, die Giovanni di Bicci einging, gehörte seine Verbindung mit dem traditionsreichen adligen Geschlecht der Bardi. Die Bardi hatten in der ersten Hälfte des 14. Jahrhunderts zu den bedeutendsten Bankiers Europas gezählt. Ihre Bank war zwar 1345 spektakulär zusammengebrochen, doch betätigten sie sich später wieder mit Erfolg im Finanzbereich. Um 1413/1415 wurde das Bündnis der beiden Familien durch eine Heirat bekräftigt: Cosimo schloss die Ehe mit Contessina de’ Bardi di Vernio. Solche Heiraten waren ein wesentlicher Bestandteil der politischen und geschäftlichen Netzwerkbildung. Sie hatten gewichtige Auswirkungen auf den sozialen Status und den Einfluss einer Familie und wurden daher reiflich überlegt. Verschwägerung schuf Loyalitäten. Allerdings war nur ein Teil der Bardi-Sippe an dem Bündnis beteiligt, manche ihrer Zweige zählten zu den Gegnern der Medici. Die ersten Jahrzehnte des 15. Jahrhunderts waren für die Medici-Bank eine Phase zielstrebig vorangetriebener Expansion. Sie hatte Zweigstellen in Rom, Venedig und Genf, zeitweilig auch in Neapel. Im Zeitraum von 1397 bis 1420 wurde ein Reingewinn von 151.820 Florin (fiorini) erwirtschaftet. Davon blieben nach Abzug des Anteils, der einem Partner zustand, für die Medici 113.865 Florin übrig. Mehr als die Hälfte des Gewinns stammte aus Rom, wo die wichtigsten Geschäfte getätigt wurden, nur ein Sechstel aus Florenz. Seinen größten Erfolg errang Giovanni 1413, als ihn der in Rom residierende Gegenpapst Johannes XXIII., mit dem er befreundet war, zu seinem Hauptbankier machte. Zugleich wurde sein Zweigstellenleiter in Rom päpstlicher Generaldepositar (depositario generale), das heißt, er übernahm die Verwaltung des größten Teils der Kircheneinkünfte gegen eine Provision. Als sich Johannes XXIII. im Herbst 1414 nach Konstanz begab, um an dem dorthin einberufenen Konzil teilzunehmen, gehörte Cosimo angeblich zu seinem Gefolge. Doch im folgenden Jahr erlitten die Medici einen herben Rückschlag, als das Konzil Johannes XXIII. absetzte. Damit verlor die Medici-Bank ihre fast monopolartige Stellung im Geschäft mit der Kurie; in den folgenden Jahren musste sie mit anderen Banken konkurrieren. Den Vorrang konnte sie sich erst wieder sichern, nachdem 1420 ein Hauptkonkurrent, die Spini-Bank, in die Insolvenz gegangen war. Als sich Giovanni di Bicci 1420 aus der Leitung der Bank zurückzog, übernahmen seine Söhne Cosimo und Lorenzo gemeinsam die Führung des Unternehmens. Im Jahr 1429 starb Giovanni. Nach seinem Tod wurde das Familienvermögen nicht aufgeteilt; Cosimo und Lorenzo traten zusammen das Erbe an, wobei Cosimo als dem älteren die Entscheidungsgewalt zufiel. Das Vermögen bestand aus etwa 186.000 Florin, von denen zwei Drittel in Rom, jedoch nur ein Zehntel in Florenz erwirtschaftet worden waren – selbst die Zweigstelle in Venedig erwirtschaftete mehr. Neben der Bank gehörte der Familie umfangreicher Grundbesitz im Umland von Florenz, vor allem im Mugello, der Gegend, aus der die Familie ursprünglich stammte. Fortan erhielten die beiden Brüder zwei Drittel des Profits der Bank, der Rest ging an ihre Partner. Angeblich hat Giovanni auf dem Totenbett seinen Söhnen geraten, diskret zu agieren. Sie sollten in der Öffentlichkeit zurückhaltend auftreten, um möglichst wenig Neid und Missgunst zu erregen. Beteiligung am politischen Prozess war für einen Bankier existenznotwendig, da er sonst damit rechnen musste, von Feinden und Rivalen ausmanövriert zu werden. Wegen der Heftigkeit und Unberechenbarkeit der politischen Auseinandersetzungen in der Stadt war aber eine zu starke Profilierung sehr gefährlich, wie der Ciompi-Aufstand gezeigt hatte. Konflikte waren daher möglichst zu vermeiden. Machtkampf und Verbannung (1429–1433) Mit dem wirtschaftlichen Erfolg und sozialen Aufstieg der Medici wuchs ihr Anspruch auf politischen Einfluss. Damit stießen sie trotz ihres zurückhaltenden Auftretens bei einigen traditionell tonangebenden Sippen, die sich zurückgedrängt sahen, auf Widerstand. So kam es zur Bildung zweier großer Gruppierungen, die einander lauernd gegenüberstanden. Auf der einen Seite standen die Medici mit ihren Verbündeten und der breiten Klientel derer, die von ihren Geschäften, ihren Aufträgen und ihrem Einfluss direkt oder indirekt profitierten. Im gegnerischen Lager versammelten sich die Sippen, die ihre herkömmliche Machtstellung behalten und die Aufsteiger in die Schranken weisen wollten. Unter ihnen war die Familie Albizzi die bedeutendste; deren Oberhaupt Rinaldo degli Albizzi wurde zum Wortführer der Medici-Gegner. In dieser Spaltung der Bürgerschaft spiegelten sich nicht nur persönliche Gegensätze zwischen führenden Politikern, sondern auch unterschiedliche Mentalitäten und Grundeinstellungen. Bei der Albizzi-Gruppe handelte es sich um die konservativen Kreise, deren Dominanz 1378 durch den Ciompi-Aufstand, eine von benachteiligten Arbeitern getragene Erhebung der unteren Volksschichten (popolo minuto), bedroht worden war. Seit dieser schockierenden Erfahrung bemühten sie sich, ihren Status abzusichern, indem sie das Eindringen von suspekten Cliquen in die maßgeblichen Gremien zu hemmen trachteten. Aufruhr, Umsturz und diktatorische Gelüste sollten im Keim erstickt werden. Die zeitweilige Unterstützung der Medici für die aufständischen Arbeiter war nicht vergessen. Die Albizzi-Gruppe war aber keine Partei mit einer einheitlichen Führung und einem gemeinsamen Kurs, sondern ein lockerer, informeller Zusammenschluss einiger etwa gleichrangiger Clans. Außer der Gegnerschaft zu potentiell gefährlichen Außenseitern verband die Mitglieder dieser Allianz wenig. Ihre Grundhaltung war defensiv. Die Medici-Gruppe hingegen war vertikal strukturiert. Cosimo war ihr unangefochtener Anführer, der die wesentlichen Entscheidungen traf und die finanziellen Ressourcen, die den gegnerischen weit überlegen waren, zielbewusst einsetzte. Aufsteigerfamilien (gente nuova) zählten zu den natürlichen Verbündeten der Medici, doch beschränkte sich deren Anhängerschaft nicht auf Kräfte, die von erhöhter sozialer Mobilität profitieren konnten. Die Medici-Gruppe umfasste auch angesehene Patriziergeschlechter, die sich in ihr Netzwerk hatten eingliedern lassen, unter anderem durch Verschwägerung. Offenbar hatten die Albizzi in der Oberschicht stärkeren Rückhalt, während die Medici beim Mittelstand – den Handwerkern und Ladenbesitzern – größere Sympathien genossen. Die Zugehörigkeit eines großen Teils von Cosimos Parteigängerschaft zur traditionellen Elite zeigt aber, dass die früher gelegentlich vertretene Deutung des Konflikts als Kampf zwischen Klassen oder Ständen verfehlt ist. Die Verhärtung des Gegensatzes ließ einen offenen Machtkampf als unvermeidlich erscheinen, doch musste dieser in Anbetracht der vorherrschenden Loyalität zur verfassungsmäßigen Ordnung im Rahmen der Legalität ausgetragen werden. Ab 1426 spitzte sich der Konflikt zu. Die Propaganda beider Seiten zielte auf die Verfestigung von Feindbildern ab. Für die Medici-Anhänger war Rinaldo degli Albizzi der arrogante Wortführer volksferner, oligarchischer Kräfte, der vom Ruhm seines Vaters zehrte und infolge seiner Unbesonnenheit Führungsqualitäten vermissen ließ. Die Albizzi-Gruppe stellte Cosimo als potentiellen Tyrannen dar, der seinen Reichtum nutze, um die Verfassung auszuhebeln und sich durch Bestechung und Korruption den Weg zur Alleinherrschaft zu bahnen. Indizien deuten darauf, dass die Vorwürfe beider Seiten einen beträchtlichen wahren Kern enthielten: Rinaldo stieß durch seine Schroffheit einflussreiche Sympathisanten wie die Familie Strozzi vor den Kopf und zerstritt sich sogar mit seinem Bruder Luca so sehr, dass dieser die Familienloyalität aufkündigte und zur Gegenseite überlief, was für damalige Verhältnisse ein ungewöhnlicher Schritt war. Auch die Polemik gegen die Medici fußte, wenngleich sie wohl überzogen war, auf Tatsachen: Die Medici-Gruppe infiltrierte die Verwaltung, verschaffte sich dadurch geheime Informationen, schreckte vor Dokumentenfälschung nicht zurück und manipulierte das squittinio in ihrem Sinn. Anlass zu Polemik bot die Einführung des catasto, eines umfassenden Verzeichnisses aller steuerpflichtigen Güter und Einkommen, im Mai 1427. Das Verzeichnis bildete die Grundlage der Erhebung einer neu eingeführten Vermögenssteuer, die zur Reduzierung der dramatisch gestiegenen Staatsschulden benötigt wurde. Dieser Schritt bewirkte eine gewisse Verlagerung der Steuerlast von der indirekt besteuerten Mittelschicht zu den wohlhabenden Patriziern. Die besonders zahlungskräftigen Medici konnten die neue Last besser verkraften als manche ihrer weniger vermögenden Gegner, für die der catasto einen harten Schlag bedeutete. Zwar hatte Giovanni di Bicci die Einführung der Vermögenssteuer anfangs abgelehnt und später nur zögerlich unterstützt, doch gelang es den Medici, sich als Befürworter der in der Bevölkerung populären Maßnahme darzustellen. Sie konnten sich damit als Patrioten profilieren, die zu ihrem eigenen Nachteil für die Sanierung des Staatshaushalts eintraten und selbst einen gewichtigen Beitrag dazu leisteten. Weiter angeheizt wurde der Konflikt durch den Krieg gegen Lucca, den Florenz Ende 1429 begann. Die militärischen Auseinandersetzungen endeten im April 1433 mit einem Friedensschluss, ohne dass die Angreifer ihr Kriegsziel erreicht hatten. Die beiden verfeindeten Cliquen in Florenz hatten den Krieg einhellig befürwortet, nutzten dann aber seinen ungünstigen Verlauf als Waffe in ihrem Machtkampf. Rinaldo hatte als Kriegskommissar am Feldzug teilgenommen, daher konnte er für dessen Misserfolg mitverantwortlich gemacht werden. Er seinerseits gab die Schuld dem für die Koordinierung der Kriegführung zuständigen Zehnerausschuss, in dem Anhänger der Medici stark vertreten waren; der Ausschuss habe seine Bemühungen sabotiert. Cosimo konnte sich bei dieser Gelegenheit in ein günstiges Licht rücken: Er hatte dem Staat 155 887 Florin geliehen, einen Betrag, der mehr als ein Viertel des kriegsbedingten Sonder-Finanzbedarfs ausmachte. Damit konnte der Mediceer seinen Patriotismus und seine einzigartige Bedeutung für das Schicksal der Republik propagandawirksam demonstrieren. Insgesamt stärkte der Kriegsverlauf somit die Stellung der Medici-Gruppe in der öffentlichen Meinung. Die Strategie der Albizzi-Gruppe zielte darauf ab, die Gegner – vor allem Cosimo persönlich – verfassungsfeindlicher Umtriebe anzuklagen und sie so mit strafrechtlichen Mitteln außer Gefecht zu setzen. Eine Handhabe bot den Feinden der Medici ein von ihnen im Dezember 1429 durchgebrachtes Gesetz, das staatsschädliche Protektion unterbinden und den inneren Frieden sichern sollte. Es richtete sich gegen Aufsteiger, die sich durch ihre Beziehungen zu Mitgliedern der Signoria unerlaubte Vorteile verschafften, und gegen Große, die Unruhe stifteten. Diese Gesetzgebung zielte somit auf Cosimo und seine sozial und politisch mobile Klientel. Ab 1431 wurde den führenden Köpfen der Medici-Gruppe zunehmend mit Aberkennung der Bürgerrechte und Verbannung gedroht. Zu diesem Zweck sollte eine Sonderkommission gebildet und zu entsprechenden Maßnahmen bevollmächtigt werden. Nach dem Ende des Krieges gegen Lucca wurde die Gefahr für Cosimo akut, da er nun nicht mehr als Kreditgeber des Staats benötigt wurde. Daraufhin leitete er im Frühjahr 1433 den Transfer seines Kapitals ins Ausland ein. Einen großen Teil ließ er nach Venedig und Rom schaffen, einiges Geld versteckte er in Florenz in Klöstern. Damit sicherte er das Bankvermögen gegen das Risiko einer Enteignung, die im Fall einer Verurteilung wegen Hochverrats zu befürchten war. Die Auslosung der Posten in der Signoria für die Amtszeit September und Oktober 1433 ergab eine Zweidrittelmehrheit der Medici-Gegner. Diese Gelegenheit ließen sie sich nicht entgehen. Cosimo, der sich außerhalb der Stadt aufhielt, wurde von der Signoria zu einer Beratung eingeladen. Bei seinem Eintreffen im Stadtpalast am 5. September wurde er sofort festgenommen. Mit der Mehrheit von sechs zu drei beschloss die Signoria seine Verbannung und eine Sonderkommission bestätigte das Urteil, da er ein Zerstörer des Staats und Verursacher von Skandalen sei. Fast alle Angehörigen der Medici-Sippe wurden für zehn Jahre von den Ämtern der Republik ausgeschlossen. Cosimo wurde nach Padua, sein Bruder Lorenzo nach Venedig verbannt; dort sollten sie zehn Jahre bleiben. Falls sie die ihnen zugewiesenen Aufenthaltsorte vorzeitig verließen, drohte ihnen ein weiteres Urteil, das die Heimkehr für immer ausschloss. Die lange Dauer der angeordneten Abwesenheit sollte das Netzwerk der Medici dauerhaft lahmlegen und zerreißen. Cosimo musste als Garantie für sein künftiges Wohlverhalten eine Kaution von 20.000 Florin hinterlegen. Er akzeptierte das Urteil, wobei er seine Loyalität zur Republik hervorhob, und ging Anfang Oktober 1433 ins Exil. Umschwung und Heimkehr (1433–1434) Bald zeigte sich, dass das Netzwerk der Medici nicht nur in Florenz intakt blieb, sondern sogar im fernen Ausland effizient funktionierte. Cosimos Abschied und seine Reise nach Padua wurden zu einer triumphalen Demonstration seines Einflusses im In- und Ausland. Schon unterwegs erhielt er eine Vielzahl von Sympathiekundgebungen, Treuebezeugungen und Hilfsangeboten prominenter Persönlichkeiten und ganzer Städte. In Venedig, zu dessen Territorium der Verbannungsort Padua damals gehörte, war die Unterstützung besonders stark, was mit dem Umstand zusammenhing, dass die Medici-Bank dort seit Jahrzehnten eine Filiale unterhielt. Als Cosimos Bruder Lorenzo in Venedig eintraf, wurde er vom Dogen Francesco Foscari persönlich sowie vielen Adligen empfangen. Die Republik Venedig ergriff klar für die Verfolgten Partei und schickte einen Gesandten nach Florenz, der sich um die Aufhebung des Urteils bemühen sollte. Dieser erreichte immerhin, dass Cosimo gestattet wurde, sich in Venedig anzusiedeln. Kaiser Sigismund, den die Venezianer informiert hatten, äußerte seine Missbilligung der Verbannung, die er für eine Dummheit der Florentiner hielt. Sigismund hatte auf seinem Italienzug, von dem er im Oktober 1433 heimkehrte, unter anderem eine Regelung seines Verhältnisses zur Republik Florenz angestrebt, aber keinen Verhandlungserfolg erzielen können. Den Umschwung brachte schließlich ein neuer Geldbedarf der Republik Florenz. Da die Lage der Staatsfinanzen prekär war und die Medici-Bank als Kreditgeber nicht mehr zur Verfügung stand, zeichnete sich eine Steuererhöhung ab. Dies führte zu solcher Unzufriedenheit, dass im Lauf des Frühlings und Sommers 1434 die Stimmung in der Führungsschicht kippte. Anhänger der Medici und Befürworter einer Versöhnung bekamen zunehmend Oberwasser. Die neue Stimmungslage spiegelte sich in der für die Amtszeit September und Oktober 1434 ausgelosten Signoria, die teils dezidiert medicifreundlich, teils versöhnungsbereit war. Der neue gonfaloniere di giustizia war ein entschlossener Gefolgsmann Cosimos. Er setzte am 20. September die Aufhebung des Verbannungsurteils durch. Nun drohte den Anführern der Albizzi-Gruppe das Schicksal, das sie im Vorjahr ihren Feinden bereitet hatten. Um dem zuvorzukommen, planten sie für den 26. September einen Staatsstreich und zogen Bewaffnete zusammen. Da aber die Gegenseite rechtzeitig ihre Kräfte mobilisiert hatte, wagten sie den Angriff nicht, denn ohne das Überraschungsmoment hätte er einen Bürgerkrieg mit geringen Erfolgschancen bedeutet. Schließlich griff Papst Eugen IV. als Vermittler ein. Der Papst war von einem Volksaufstand aus Rom vertrieben worden und lebte seit einigen Monaten in Florenz im Exil. Als Venezianer war Eugen tendenziell medicifreundlich gesinnt, und vor allem konnte er auf künftige Darlehen der Medici-Bank hoffen. Es gelang ihm, Rinaldo zur Aufgabe zu bewegen. Am 29. September brach Cosimo zur Heimkehr auf, die sich ebenso wie seine Abreise triumphal gestaltete. Am 2. Oktober wurde die Verbannung Rinaldos und einiger seiner Weggefährten verfügt. Damit hatte die Medici-Gruppe den Machtkampf endgültig zu ihren Gunsten entschieden. Als Sieger gab sich Cosimo versöhnlich und agierte wie gewohnt vorsichtig. Allerdings hielt er es zur Sicherung seiner Stellung für erforderlich, 73 feindliche Bürger ins Exil zu schicken. Viele von ihnen durften später zurückkehren und sich sogar wieder für die Signoria qualifizieren. Die Ursachen für den Ausgang des Machtkampfs wurden im frühen 16. Jahrhundert von Niccolò Machiavelli analysiert. Er zog daraus allgemeine Lehren, darunter seine berühmte Forderung, dass ein Eroberer der Macht unmittelbar nach der Inbesitznahme des Staates alle unvermeidlichen Grausamkeiten auf einen Schlag begehen müsse. Machiavellis Einschätzung, wonach der Albizzi-Gruppe ihre Unentschlossenheit und Halbherzigkeit zum Verhängnis wurde, wird von der modernen Forschung geteilt. Weitere Faktoren, die den Medici-Gegnern schadeten, waren das Fehlen innerer Geschlossenheit und einer über Autorität verfügenden Führung. Hinzu kam ihr Mangel an Rückhalt im Ausland, wo Cosimo mächtige Verbündete hatte. Tätigkeit als Staatsmann (1434–1464) Nach seiner triumphalen Heimkehr wurde Cosimo faktisch der Lenker des florentinischen Staates und blieb bis zu seinem Tod in dieser informellen Stellung. Dabei respektierte er äußerlich die Institutionen der republikanischen Verfassung, ein Amt mit Sondervollmachten strebte er für sich nicht an. Er agierte aus dem Hintergrund mittels seines weitgespannten in- und ausländischen Netzwerks. Das Bankgeschäft als materielle Basis Cosimo und seinen Zeitgenossen stand stets die Tatsache vor Augen, dass die Grundlage seiner politischen Machtentfaltung sein kommerzieller Erfolg war. Der Zusammenhalt seines Netzwerks hing in erster Linie von den Geldflüssen ab, die nicht versiegen durften. In Nord- und Mittelitalien florierte das Bankgeschäft, und niemand war darin erfolgreicher als er. Auch in der Kunst des Einsatzes finanzieller Ressourcen für politische Ziele war er zu seiner Zeit unübertroffen. Unter seiner Leitung expandierte die Medici-Bank weiter; neue Zweigstellen wurden in Pisa, Mailand, Brügge, London und Avignon eröffnet, die Genfer Filiale wurde nach Lyon verlegt. Eine Haupteinnahmequelle der großen, überregional operierenden Banken, insbesondere der Medici-Bank, war die Kreditvergabe an Machthaber und geistliche Würdenträger. Besonders groß war der Kreditbedarf der Päpste, die zwar über gewaltige Einkünfte aus der gesamten katholischen Welt verfügten, aber wegen kostspieliger militärischer Unternehmungen immer wieder in Engpässe gerieten. Darlehen an Machthaber waren lukrativ, aber mit beträchtlichen Risiken verbunden. Es musste mit der Möglichkeit gerechnet werden, dass solche Schuldner die Rückzahlung verweigerten oder nach einem verlustreichen Krieg, den sie mit Fremdkapital finanziert hatten, zumindest zeitweilig nicht mehr zahlungsfähig waren. Ein weiteres Risiko bestand im gewaltsamen Tod des Schuldners durch einen Mordanschlag oder auf einem Feldzug. Durch solche Ereignisse bedingte Zahlungsausfälle konnten auch bei großen Banken zur Insolvenz führen. Die Einschätzung der Chancen und Risiken derartiger Geschäfte gehörte zu den wichtigsten Aufgaben Cosimos. Ein Bankier des 15. Jahrhunderts benötigte politische Begabung und großes diplomatisches Geschick, denn Geschäft und Politik waren verschmolzen und mit vielfältigen familiären Interessen verknüpft. Darlehensgewährung war häufig auch faktische Parteinahme in den erbitterten Konflikten zwischen Machthabern, Städten oder auch Parteien innerhalb einer Bürgerschaft. Entscheidungen über die Vergabe, Begrenzung oder Verweigerung von Krediten oder Unterstützungsgeldern hatten weitreichende politische Konsequenzen; sie schufen und bewahrten Bündnisse und Netzwerke oder erzeugten gefährliche Feindschaften. Auch militärisch wirkten sie sich aus, denn die zahlreichen Kriege unter den nord- und mittelitalienischen Städten wurden mit dem kostspieligen Einsatz von Söldnerführern (Condottieri) ausgetragen. Diese standen mit ihren Truppen nur zur Verfügung, solange der Auftraggeber zahlungskräftig war; wenn dies nicht mehr der Fall war, ließen sie sich vom Feind abwerben oder plünderten auf eigene Rechnung. Die Entscheidungen, die Cosimo als Bankier traf, waren zum Teil nur politisch, nicht kommerziell sinnvoll. Manche seiner Zahlungen waren politisch unumgänglich, aber ökonomisch reine Verlustgeschäfte. Sie dienten der Pflege seines Ansehens oder der Sicherung der Loyalität von Verbündeten. Dazu zählten die Belohnungen für geleistete politische Dienste und die Erfüllung von Aufgaben, die als patriotische Pflichten galten. In Florenz waren die Haupteinnahmequellen der Medici-Bank der Geldwechsel und die Kreditvergabe an Angehörige der Oberschicht, die in finanzielle Bedrängnis geraten waren. Insbesondere zur Bezahlung von Steuerschulden wurden Darlehen benötigt, denn säumige Steuerschuldner durften keine Ämter ausüben. Weitaus bedeutender war jedoch das Kreditgeschäft mit auswärtigen Machthabern. Der wichtigste Geschäftspartner der Bank war der Papst, als dessen Hauptbankier Cosimo fungierte. Vor allem dank der Verbindung mit der Kurie waren die römischen Geschäfte der Bank die lukrativsten. Die dortigen Zinseinnahmen und die Provisionen auf die getätigten Transaktionen boten eine hohe Gewinnspanne und die Geschäfte waren wegen des ständigen Geldbedarfs der Kurie sehr umfangreich. Daher erwirtschaftete die Filiale in Rom den größten Teil der Gewinne. Außerdem wirkte sich die enge Beziehung zur Kurie auch politisch vorteilhaft aus. Wenn der Papst Rom verließ, folgte ihm die römische Filiale; sie war stets dort zu finden, wo sein Hof sich aufhielt. Neben der politischen und ökonomischen Kompetenz war der wichtigste Faktor, von dem der Erfolg eines Bankiers abhing, seine Menschenkenntnis. Er musste in der Lage sein, die Kreditwürdigkeit seiner Kunden und die Zuverlässigkeit seiner auswärtigen Zweigstellenleiter, die viele Gelegenheiten zum Betrug hatten, richtig einzuschätzen. Cosimo verfügte ebenso wie sein Vater in hohem Maße über diese Fähigkeiten. Seine Verschwiegenheit, Nüchternheit und Voraussicht und sein geschickter Umgang mit Geschäftspartnern verschafften ihm Respekt. Auch die moderne Forschung würdigt diese Qualitäten des Mediceers, die maßgeblich zu seinem kommerziellen und politischen Erfolg beitrugen. Aus Cosimos Korrespondenz mit dem Leiter der Filiale der Medici-Bank in Venedig geht hervor, dass die Bank systematisch Steuern hinterzog und dass Cosimo persönlich Anweisungen zur Bilanzfälschung erteilte. Der Zweigstellenleiter, Alessandro Martelli, versicherte ihm, dass auf die Verschwiegenheit des Personals Verlass sei. Innenpolitische Konsolidierung (1434–1455) Der entscheidende Schritt, der nach dem Sieg von 1434 die Stellung Cosimos dauerhaft absicherte, war eine Änderung des Auslosungsverfahrens zur Bestimmung der Mitglieder der Signoria. Die Gesamtmenge der Namen auf den Loszetteln, die in die Beutel gelegt wurden, wurde von rund zweitausend auf eine Mindestzahl von 74 reduziert, für den Beutel des gonfaloniere di giustizia wurde eine Mindestzahl von vier festgelegt. Damit wurde die Anzahl der Kandidaten überschaubar und die Rolle des Zufalls im Auslosungsprozess stark vermindert. Mit der Füllung der Losbeutel waren traditionell von der Signoria ernannte Männer betraut, die accoppiatori genannt wurden. Sie sorgten fortan dafür, dass nur noch Namen von Bewerbern, die Cosimo genehm waren, in die Beutel kamen. So blieb es zwar beim Prinzip des Losentscheids, doch war nun ein wirksamer Filter eingebaut, der überraschende Änderungen der Machtverhältnisse verhinderte. Dieses Verfahren wurde imborsazione a mano („Handverlesung“) genannt. Es konnte zwar von Cosimo durchgesetzt werden, war aber in der Bürgerschaft tendenziell unbeliebt, da es offensichtlich manipulativ war und für viele den Zugang zu den prestigereichen Ämtern erschwerte oder verunmöglichte. Immer wieder wurde die Forderung nach Rückkehr zum offenen Losverfahren erhoben. Mit diesem Anliegen konnte man auf harmlose Art Unzufriedenheit mit der Machtfülle des Mediceers ausdrücken. Das Ausmaß des Widerstands gegen die Handverlesung wurde zum Gradmesser für die Unbeliebtheit des Herrschaftssystems. Dies hatte für Cosimo auch Vorteile: Er erhielt dadurch die Möglichkeit, flexibel zu reagieren, wenn sich in der Bürgerschaft Ärger aufstaute oder wenn er den Eindruck hatte, dass eine relativ entspannte Lage ihm Konzessionen gestattete. Je nach der Entwicklung der innen- und außenpolitischen Verhältnisse setzte er reine Handverlesung durch oder ließ freie Auslosung zu. Zeitweilig wurde ein Mischverfahren praktiziert, bei dem die Namen des gonfaloniere di giustizia und dreier weiterer Ratsmitglieder aus handverlesenen Beuteln gezogen und die übrigen fünf Mitglieder der Signoria frei ausgelost wurden. Den vielen Bürgern, die keine Gelegenheit erhielten, Mitglied der Signoria zu werden, bot Cosimos System Gelegenheit, ihren Ehrgeiz dennoch teilweise zu befriedigen. Ansehen verschaffte nicht nur die Ausübung eines Regierungsamts, sondern schon die Anerkennung der Tatsache, dass man als ehrbarer Bürger die persönlichen Voraussetzungen dafür erfüllte. In die Beutel legte man daher auch Loszettel von Personen, gegen die keine persönlichen Einwände bestanden, die aber aus einem äußerlichen Grund nicht in Betracht kamen, etwa weil sie mit einem Amtsinhaber zu nahe verwandt waren oder infolge des Quotensystems ausscheiden mussten, da sie zur falschen Zunft gehörten oder im falschen Bezirk wohnten. Wenn dann ein solcher Zettel gezogen wurde, wurde festgestellt, dass der Betreffende als Ausgeloster „gesehen“ wurde (veduto), aber wegen eines formalen gesetzlichen Hindernisses seinen Sitz im Stadtrat nicht einnehmen konnte. Ein veduto konnte aus dem Umstand, dass ihm die theoretische Amtsfähigkeit bescheinigt wurde, Prestige ziehen. Im Lauf der Zeit wurden immer wieder temporäre Gremien mit legislativen und finanzpolitischen Sondervollmachten geschaffen. Die Einrichtung von Kommissionen zur Erledigung besonderer Aufgaben, auch in Notstandslagen, war an sich keine Neuerung und stand mit der republikanischen Verfassung in Einklang. Ein Unterschied zu den früheren Verhältnissen bestand aber darin, dass solche Gremien früher nach einigen Tagen oder wenigen Wochen wieder aufgelöst wurden, während nun ihre Vollmachten für längere Zeiträume erteilt wurden. Damit nahm ihr politisches Gewicht zu, was Cosimos Absicht entsprach; für ihn waren die Kommissionen wichtige Machtinstrumente. Durch diese Entwicklung kam es jedoch zu Reibungen mit den fortbestehenden alten Institutionen, dem Volksrat und dem Gemeinderat. Diese verteidigten ihre herkömmlichen Rechte, waren aber im Machtkampf dadurch benachteiligt, dass ihre Amtsperiode nur vier Monate betrug. Die Abgrenzung der Zuständigkeiten zwischen den ständigen und den temporären Gremien war kompliziert und umkämpft, es ergaben sich Überschneidungen und Kompetenzstreitigkeiten. Dabei war die Steuergesetzgebung ein besonders heikles Feld. Hier war Cosimo darauf angewiesen, den Konsens mit der Führungsschicht der Bürgerschaft zu suchen. Da er keine diktatorische Macht besaß, waren die Gremien keineswegs gleichgeschaltet. Sowohl der Volks- und der Gemeinderat als auch die Kommissionen fassten Beschlüsse gemäß den Interessen und Überzeugungen ihrer Mitglieder, die nicht immer mit Cosimos Wünschen übereinstimmten. Die Räte waren in der Lage, seinen Absichten hinhaltenden Widerstand zu leisten. Die Abstimmungen in den Gremien waren frei, wie die manchmal knappen Mehrheiten zeigen. Krisenjahre (1455–1458) Nur einmal geriet Cosimos Regierungssystem in eine ernste Krise. Dies geschah erst im letzten der drei Jahrzehnte, in denen er die Herrschaft ausübte. Als die italienischen Mächte im Februar 1455 einen allgemeinen Frieden schlossen, kam es zu einer außenpolitischen Entspannung, die so weitgehend war, dass das unpopuläre System der Handverlesung nicht mehr mit einem äußeren Notstand begründet werden konnte. In der Öffentlichkeit wurde die Forderung nach Wiedereinführung des offenen Losverfahrens lauter denn je. Cosimo gab nach: Die alte Ordnung trat wieder in Kraft, die Handverlesung wurde verboten, der Volksrat und der Gemeinderat erhielten den früheren Umfang ihrer legislativen und finanzpolitischen Entscheidungsgewalt zurück. Damit wurde die Medici-Herrschaft wieder von Zufällen und von der Gunst der öffentlichen Meinung abhängig. In dieser labilen Lage verschärfte sich ein Problem, das für das Regierungssystem eine ernste Bedrohung darstellte: Die öffentlichen Finanzen waren wegen langjähriger hoher Rüstungsaufwendungen und wiederholter Epidemien so zerrüttet, dass die Erhöhung der direkten Steuer, die von der wohlhabenden Oberschicht zu entrichten war, unumgänglich schien. Dieses Vorhaben stieß aber auf anhaltenden Widerstand, neue Steuergesetze wurden in den Räten blockiert. Im September 1457 entlud sich der Unmut in einer Verschwörung, die auf einen Umsturz abzielte. Das Komplott wurde entdeckt und sein Anführer Piero de’ Ricci hingerichtet. Die Spannungen nahmen weiter zu, als die Räte schließlich im Januar 1458 ein neues, von Cosimo befürwortetes Steuergesetz billigten, das sich auf die gesamte wohlhabende Schicht auswirkte. Das Gesetz entlastete die Minderbemittelten und erhöhte den Steuerdruck auf die Reichen. Der seit Jahrzehnten unverändert gültige catasto, das Verzeichnis der steuerpflichtigen Vermögen und Einkommen, sollte auf den aktuellen Stand gebracht werden. Das wurde von denjenigen, deren Besitz seit der letzten Veranlagung stark zugenommen hatte, als harter Schlag empfunden. Infolgedessen schwand im Patriziat die Zustimmung zum herrschenden System. Im April 1458 wurde ein Gesetz eingeführt, das die Schaffung bevollmächtigter Kommissionen stark erschwerte und ihnen die Durchführung eines squittinio verbot. Da Kommissionen für Cosimo ein wichtiges Instrument waren, mit dem er seinen Einfluss auf den squittinio und damit auf die Kandidaturen ausübte, richtete sich diese Maßnahme gegen ein Hauptelement seines Herrschaftssystems. Das neue Gesetz wurde im Volksrat und im Gemeinderat mit überwältigenden Mehrheiten gebilligt. Cosimos Schwächung war unübersehbar. Die Lockerung der Medici-Herrschaft seit der Verfassungsreform von 1455 und die allgemeine Verunsicherung angesichts der sozialen Spannungen und fiskalischen Probleme führten zu einer grundsätzlichen Debatte über die Verfassungsordnung. Über das Ausmaß und die Ursachen der Übelstände sowie mögliche Abhilfen wurde offen und kontrovers diskutiert. Eine zentrale Frage war, wie der Personenkreis, der für wichtige Ämter in Betracht kam, festgelegt werden sollte. Cosimo wünschte einen kleinen Kreis potentieller Amtsträger, er erstrebte die Rückkehr zur Handverlesung. Auf der Gegenseite standen Geschlechter, die für Auslosung aus einem großen Kandidatenkreis eintraten, weil sie der Dominanz Cosimos überdrüssig waren und sein Regierungssystem beseitigen wollten. Die Signoria neigte einige Zeit zu einer Kompromisslösung, doch gewannen die Befürworter der Handverlesung zunehmend an Boden. Außerdem plädierten Anhänger der Medici-Herrschaft für die Einführung eines neuen ständigen Gremiums mit sechsmonatiger Amtszeit, das weitreichende Vollmachten erhalten sollte. Begründet wurde dies mit der Notwendigkeit der Effizienzverbesserung. Dieser Vorschlag war jedoch, wie seine Befürworter einräumten, im Volksrat und im Gemeinderat chancenlos. Daher wurde nicht einmal versucht, ihn dort durchzubringen. Im Sommer 1458 kam es zu einer Verfassungskrise. In der Signoria, die im Juli und August amtierte, dominierte Cosimos Gefolgschaft, die entschlossen war, diese Gelegenheit zur Rückeroberung der Macht zu nutzen. Der Volksrat, in dem Gegner der Medici die Oberhand hatten, wies jedoch die Vorschläge der Signoria hartnäckig zurück. Die Medici-Gruppe versuchte, eine offene Abstimmung im Volksrat durchzusetzen, um Druck auf einzelne Ratsmitglieder ausüben zu können. Damit stieß sie aber auf den energischen Widerstand des Erzbischofs von Florenz, Antonino Pierozzi, der die geheime Abstimmung als Gebot der „natürlichen Vernunft“ bezeichnete und eine andere Verfahrensweise mit Androhung der Exkommunikation verbot. Da unklar war, welche Seite ab September in der Signoria die Mehrheit haben würde, geriet die Medici-Gruppe unter Zeitdruck. Schließlich berief die Signoria, wie es die Verfassung für schwere Krisen vorsah, eine Volksversammlung (parlamento) ein. Eine solche Versammlung konnte verbindliche Beschlüsse fassen und eine Kommission mit Sondervollmachten zur Lösung der Krise einsetzen. Zuletzt war dies 1434 bei Cosimos Rückkehr geschehen, zuvor bei seiner Verbannung. Das parlamento von Florenz war in der Theorie als demokratisches Verfassungselement konzipiert; es sollte das Organ sein, das den Volkswillen zum Ausdruck brachte und in Notstandslagen eine Entscheidung herbeiführte, wenn der reguläre Gesetzgebungsprozess blockiert war. In der Praxis pflegte aber die Patriziergruppe, die das parlamento einberufen ließ, durch Einschüchterung dafür zu sorgen, dass die Beschlussfassung im gewünschten Sinn erfolgte. So war es auch diesmal. Cosimo, der sich nach außen hin zurückhielt, hatte am 1. August erstmals mit dem mailändischen Gesandten über militärische Unterstützung von außen verhandelt. Er war sich seiner Sache sicher; spätestens am 5. August fiel die Entscheidung, die Volksversammlung für den 11. August einzuberufen, obwohl noch keine Hilfszusage aus Mailand vorlag. Am 10. August ordnete die Signoria das parlamento für den folgenden Tag an. Als die Bürger zum Versammlungsort strömten, fanden sie ihn von einheimischen Bewaffneten und mailändischen Söldnern bewacht. Nach einem Augenzeugenbericht verlas ein Notar den Text, der zu genehmigen war, so leise, dass nur wenige in der Menge ihn verstanden und ihre Zustimmung äußerten. Dies wurde aber als ausreichend betrachtet. Die Versammlung billigte alle Vorschläge der Signoria und löste sich dann auf. Damit war die Krise beendet. Der Weg zur Verwirklichung einer Verfassungsreform, die Cosimos Herrschaft zementierte, war frei. Neue Festigung der Macht (1458–1464) Die Sieger ergriffen die Maßnahmen, die ihnen zur Sicherung der Macht erforderlich schienen. Mehr als 1500 politisch unzuverlässigen Bürgern wurde die Qualifikation zur Kandidatur für Führungsämter aberkannt. Viele von ihnen verließen die Stadt, in der sie keine Zukunft mehr für sich sahen. Eine Reihe von Verbannungsurteilen sollte der erneuten Entstehung einer organisierten Opposition vorbeugen. Die Befugnisse des Geheimdienstes, der otto di guardia, wurden vergrößert. Die Beschlüsse zum Umbau der Verfassung wurden teils schon von der Volksversammlung gefasst, teils von der neuen Sonderkommission, die zu diesem Zweck eingesetzt wurde. Der wichtigste Schritt neben der Rückkehr zur Handverlesung war die Schaffung eines ständigen Gremiums, das der Medici-Gruppe als dauerhaftes Herrschaftsinstrument dienen und die temporären Kommissionen der Zeit vor 1455 ablösen sollte. Dies war der „Rat der Hundert“, dessen Amtszeit auf sechs Monate festgelegt wurde. Ihm wurde die Aufgabe übertragen, als erster Rat über die Gesetze, welche die Ämterbesetzung, das Steuerrecht und die Einstellung von Söldnern betrafen, zu beraten und sie dann an den Volksrat und den Gemeinderat weiterzuleiten. Außerdem erhielt er ein Vetorecht bei allen nicht von ihm selbst ausgehenden Gesetzesinitiativen. Somit wurde für jedes neue legislative Vorhaben die Zustimmung aller drei Räte erforderlich, denn die alten Räte behielten das Recht, jede Gesetzgebung zu blockieren. Die Schonung der beiden alten Räte, die Hochburgen der Opposition gewesen waren, lässt erkennen, dass Cosimo beim Ausbau seiner Machtstellung vorsichtig vorging. Damit nahm er auf die Bedürfnisse des republikanisch gesinnten Patriziats Rücksicht. Für die Bestimmung der Mitglieder des Rats der Hundert wurde ein gemischtes Wahl- und Losverfahren mit komplizierten Regeln festgelegt. Qualifiziert sollten nur Bürger sein, deren Namen schon früher bei der Auslosung für die herkömmlichen Führungsämter (tre maggiori) gezogen worden waren. Diese Bestimmung sollte gewährleisten, dass nur bewährte Patrizier, deren Haltung bereits hinreichend bekannt war, in das neue Gremium gelangten. Die Handverlesung für die Signoria wurde 1458 nur als Provisorium für fünf Jahre eingeführt. 1460 wurde das Provisorium nach der Aufdeckung einer Verschwörung um weitere fünf Jahre verlängert. Das lässt erkennen, dass dieses Verfahren weiterhin unbeliebt war und dem Patriziat nur aus besonderem Anlass und mit Befristung akzeptabel schien. Unzufriedenheit machte sich in Florenz auch in den letzten Lebensjahren Cosimos noch bemerkbar, ernsthaft gefährdet wurde seine Stellung nach 1458 jedoch nicht mehr. In seinen letzten Jahren hielt er sich seltener im Palast der Signoria auf, er lenkte die Politik nun meist von seinem eigenen Palast in der Via Larga aus. Dorthin verlagerte sich das Machtzentrum. Außenpolitik Die Außenpolitik der Republik Florenz war zu Cosimos Zeit von einer Konstellation geprägt, in der neben Florenz die bedeutenden Regionalmächte Mailand, Venedig, Neapel und der Kirchenstaat die Hauptrollen spielten. Von diesen fünf Vormächten der italienischen Staatenwelt, die in der Forschung auch als Pentarchie bezeichnet werden, war Florenz die politisch und militärisch schwächste, aber durch das Bankwesen und den Fernhandel wirtschaftlich bedeutend. Zwischen Mailand und Florenz bestand eine traditionelle Feindschaft, die zu den bestimmenden Faktoren des Staatensystems im späten 14. Jahrhundert und in der ersten Hälfte des 15. Jahrhunderts gehörte. Die Florentiner sahen sich vom Expansionsdrang der Mailänder Herzöge aus dem Geschlecht der Visconti bedroht. Die Auseinandersetzung mit den Visconti betrachteten sie nicht als bloßen Konflikt zwischen zwei Staaten, sondern auch als Kampf zwischen ihrer republikanischen Freiheit und tyrannischer Gewaltherrschaft. Im Zeitraum 1390–1402 führte Florenz drei Abwehrkriege gegen Herzog Giangaleazzo Visconti, der Mailand zur Hegemonialmacht Italiens machen wollte und seinen Machtbereich nach Mittelitalien ausdehnte. Mailand war nicht nur militärisch überlegen, sondern hatte auch die Unterstützung der kleineren Städte der Toskana, die sich gegen die Unterwerfung unter florentinische Herrschaft wehrten. Florenz war auf sehr kostspielige Söldnertruppen angewiesen und litt daher unter den hohen Kriegskosten. Der dritte Krieg gegen Giangaleazzo verlief für die Florentiner ungünstig; am Ende standen sie 1402 ohne Verbündete da und mussten mit einer Belagerung rechnen. Nur der plötzliche Tod des Herzogs im Sommer 1402 rettete sie vor der existenziellen Gefahr. Im Jahr 1424 führte die Expansionspolitik des Herzogs Filippo Maria Visconti zu einem neuen Krieg zwischen den beiden Städten, der bis 1428 dauerte. In diesem Kampf gegen Mailand war Florenz mit Venedig verbündet. Danach versuchten die Florentiner von Dezember 1429 bis April 1433 vergeblich, die toskanische Stadt Lucca militärisch zu unterwerfen. Lucca war theoretisch mit Florenz verbündet, stand aber faktisch auf der Seite Mailands. Cosimo, der die Aussichten auf einen Sieg über Lucca schon 1430 skeptisch beurteilt hatte, war im April 1433 maßgeblich an den Friedensverhandlungen beteiligt, die zur Beendigung der Feindseligkeiten führten. Der Krieg gegen Lucca war für die Republik Florenz ein finanzielles Desaster, während die Medici-Bank als Kreditgeber des Staates davon profitierte. Daher gehörte zu den Anschuldigungen, die nach Cosimos Verhaftung 1433 gegen ihn erhoben wurden, auch die Behauptung, er habe den Krieg angezettelt und dann durch politische Intrigen unnötig verlängert, um daraus den größtmöglichen Profit zu schlagen. Die Glaubwürdigkeit der detaillierten Vorwürfe ist aus heutiger Sicht schwer zu beurteilen; auf jeden Fall ist mit polemischer Verzerrung zu rechnen. Unzweifelhaft ist, dass Cosimos Rivale Rinaldo degli Albizzi zu den profiliertesten Befürwortern des Krieges zählte. Nach dem Fehlschlag spielte die Schuldfrage in den innenpolitischen Machtkämpfen der Florentiner Patriziergeschlechter offenbar eine wichtige Rolle. Das politische Gewicht der Medici zeigte sich in den Verhandlungen, die 1438 über die Verlagerung des in Ferrara tagenden Konzils nach Florenz geführt wurden. Cosimo hielt sich damals als Gesandter der Republik Florenz monatelang in Ferrara auf und verhandelte mit Papst Eugen IV. und dessen Mitarbeitern. Auch sein Bruder Lorenzo gehörte zu den maßgeblichen Akteuren. Die Florentiner erhofften sich von den guten Beziehungen der Medici zur Kurie eine wirksame Unterstützung ihres Anliegens. Tatsächlich kam eine Vereinbarung über den Umzug nach Florenz zustande, die einen bedeutenden Erfolg der florentinischen Diplomatie darstellte. Auch nachdem Cosimo den innenpolitischen Machtkampf 1434 gewonnen hatte, blieb die Auseinandersetzung mit Filippo Maria Visconti eine zentrale Herausforderung für die auswärtige Politik der Republik Florenz. Der Konflikt wurde wiederum militärisch ausgetragen. Verbannte Florentiner Gegner der Medici, darunter Rinaldo degli Albizzi, hatten sich nach Mailand begeben; sie hofften, Filippo Maria werde ihnen die Heimkehr mit Waffengewalt ermöglichen. Florenz war mit Papst Eugen IV. und Venedig verbündet. In der Schlacht von Anghiari besiegten im Jahr 1440 Truppen dieser Koalition das mailändische Heer. Damit war der Versuch der exilierten Feinde Cosimos, ihn mit ausländischer Hilfe zu stürzen, endgültig gescheitert. Im folgenden Jahr wurde ein für Florenz vorteilhafter Friedensvertrag geschlossen, der zur Festigung von Cosimos Herrschaft beitrug. Die Feindschaft zwischen Mailand und Florenz dauerte aber an, bis Filippo Maria 1447 ohne männlichen Erben starb und damit die Dynastie der Visconti erlosch. Cosimo betrachtete das Bündnis mit Venedig und den Kampf gegen Mailand nicht als naturgegebene, zwangsläufige Konstellation, sondern nur als Folge der unvermeidlichen Konfrontation mit dem Geschlecht der Visconti. Sein langfristiges Ziel war eine Allianz mit Mailand, die der bedrohlichen Ausweitung des venezianischen Machtbereichs auf dem Festland entgegentreten sollte. Dies setzte einen Dynastiewechsel in Mailand voraus. Nach dem Tod Filippo Marias drohte dort ein Machtvakuum. Als Folge war aus Cosimos Sicht die Auflösung des Herrschaftsbereichs der erloschenen Familie Visconti und damit eine Hegemonie Venedigs in Norditalien zu befürchten. Daher war es ein zentrales Anliegen des Florentiner Staatsmanns, dass in Mailand ein neues, ihm freundlich gesinntes Geschlecht von Herzögen an die Macht kam. Sein Kandidat war der Condottiere Francesco Sforza, der mit Filippo Marias unehelicher Tochter und Erbin Bianca Maria verheiratet war. Sforzas Ehrgeiz, die Nachfolge des letzten Visconti anzutreten, war seit langem bekannt. Diese Konstellation hatte eine bewegte Vorgeschichte. Ab 1425 stand Sforza im Dienst Filippo Marias, der ihn zu seinem Schwiegersohn machen wollte, um ihn an sich zu binden. Im Jahr 1430 trug er zur Rettung Luccas vor einem Angriff der Florentiner bei. Im März 1434 ließ er sich aber von Eugen IV. für die Gegenseite, die Allianz der Visconti-Gegner, anwerben. Darauf belagerte er 1437 Lucca, das die Florentiner weiterhin unterwerfen wollten. Dies hinderte ihn aber nicht daran, erneut mit Filippo Maria über die geplante Ehe mit dessen Erbin zu verhandeln. Schließlich kam im März 1438 eine Einigung zustande: Die Heirat wurde beschlossen und die Mitgift festgelegt. Sforza durfte im Dienst der Florentiner bleiben, verpflichtete sich aber, nicht gegen Mailand zu kämpfen. Florenz und Mailand schlossen einen Waffenstillstand. Doch schon im Februar 1439 vollzog Sforza einen neuen Wechsel: Er nahm den Vorschlag der Florentiner und Venezianer an, das Kommando der Truppen der antimailändischen Liga zu übernehmen. Als Filippo Maria nach verlustreichen Kämpfen in eine schwierige Lage geraten war, sah er sich 1441 gezwungen, der Heirat endgültig zuzustimmen. Sforza musste dieses Zugeständnis des Herzogs, das ihn zu dessen präsumptivem Nachfolger machte, nicht mit einem neuen Allianzwechsel erkaufen; er blieb auch nach der Hochzeit Befehlshaber der Streitkräfte der Liga. Sein Verhältnis zu seinem Schwiegervater schwankte in der Folgezeit weiterhin zwischen Bündnis und militärischer Konfrontation. In dieser Zeit schnell wechselnder Verbindungen entstand zwischen Francesco Sforza und Cosimo de’ Medici eine dauerhafte Freundschaft. Die beiden Männer schlossen ein persönliches Bündnis als Grundlage für eine künftige florentinisch-mailändische Allianz nach dem geplanten Machtwechsel in Mailand. Die Medici-Bank half dem Condottiere mit umfangreicher Kreditgewährung; als er 1466 starb, schuldete er ihr mehr als 115.000 Dukaten. Überdies stellte ihm die Republik Florenz auf Veranlassung Cosimos beträchtliche finanzielle Mittel zur Verfügung. Dieser Kurs war allerdings bei den Florentiner Patriziern – auch in Cosimos Anhängerschaft – umstritten. Es gab beträchtliche Vorbehalte gegen Sforza, die von der republikanischen Abneigung gegen Alleinherrscher genährt wurden. Außerdem entfremdete Cosimos Strategie ihm den Papst, der mit Sforza in einem Territorialstreit lag und sich daher gegen den Condottiere mit Filippo Maria verbündete. Eugen IV. wurde zu einem Gegner Cosimos, mit dem er zuvor erfolgreich zusammengearbeitet hatte. Ab 1443 residierte er nicht mehr in Florenz, wohin er 1434 geflohen war, sondern wieder in Rom. Seine neue Haltung zeigte sich sogleich darin, dass er dem Leiter der römischen Filiale der Medici-Bank das einträgliche Amt des päpstlichen Generaldepositars entzog. Als der Erzbischof von Florenz starb, ernannte Eugen den Dominikaner Antonino Pierozzi, der Cosimo sehr distanziert gegenüberstand, zum Nachfolger. Der Mediceer seinerseits unterstützte offen einen erfolglosen Versuch Sforzas, sich Roms zu bemächtigen. Nach dem Tod Eugens, der 1447 starb, gelang es Cosimo jedoch, zum Nachfolger Nikolaus V. ein gutes Verhältnis aufzubauen. Sein Vertrauensmann in Rom, Roberto Martelli, wurde wieder Generaldepositar. In Mailand setzten sich nach Filippo Marias Tod zunächst republikanische Kräfte durch, doch gelang es Sforza im Jahr 1450, dort die Macht zu übernehmen. Nun konnte das von Cosimo gewünschte mailändisch-florentinische Bündnis verwirklicht werden, das eine tiefgreifende Änderung der politischen Verhältnisse bewirkte. Es wurde zu einer „Hauptachse der italienischen Politik“ und erwies sich damit als bedeutender außenpolitischer Erfolg des Florentiner Staatsmanns. Allerdings führte es zum Bruch der traditionellen Allianz der Republiken Florenz und Venedig. Die Venezianer, die gehofft hatten, vom Untergang der Visconti zu profitieren, waren die Verlierer der neuen Konstellation. Im Juni 1451 verbannte Venedig die florentinischen Kaufleute aus seinem Territorium. Im folgenden Jahr begann der Krieg zwischen Venedig und Mailand, Florenz blieb diesmal verschont. Die Feindseligkeiten endeten im April 1454 mit dem Frieden von Lodi, in dem Venedig Sforza als Herzog von Mailand anerkannte. Es folgte die Gründung der Lega italica, eines Pakts, dem alle fünf Regionalmächte beitraten. Diese Vereinbarung garantierte den Besitzstand der Staaten und schuf ein stabiles Gleichgewicht der Mächte. Außerdem richtete sie sich implizit gegen Frankreich; die Vertragsmächte wollten einem militärischen Eingreifen der Franzosen auf italienischem Boden vorbeugen. Dieses insbesondere von Sforza angestrebte Ziel akzeptierte Cosimo nur zögernd. Er wollte zwar auch französische Truppen von Italien fernhalten, glaubte aber, dass Venedig für Florenz die größere Gefahr sei und daher die Option eines Bündnisses mit Frankreich erhalten bleiben solle. Schließlich schloss er sich aber Sforzas Auffassung an. Dank der Stabilität, die von der Lega italica ausging, wurde Cosimos letztes Lebensjahrzehnt zu einer Friedenszeit. Als sein Sohn Piero 1461 das Amt des gonfaloniere di giustizia antrat, konnte er erklären, der Staat befinde sich in einem Zustand des Friedens und des Glücks, „dessen weder die Bürger von heute noch ihre Vorfahren Zeugen waren oder sich erinnern konnten“. Kulturelle Aktivität Als Staatsmann und Bürger begnügte sich Cosimo bewusst mit einem niedrigen Profil und kultivierte seine Bescheidenheit, um möglichst wenig Neid und Verdacht zu erregen. Er vermied ein prunkvolles, herrscherähnliches Auftreten und achtete darauf, mit seinem Lebensstil die anderen angesehenen Bürger nicht zu übertreffen. Als Mäzen hingegen stellte er sich gezielt in den Vordergrund. Er nutzte seine Bautätigkeit und seine Stellung als Auftraggeber von Künstlern, um sich in Szene zu setzen und sein Ansehen und den Ruhm seiner Familie zu mehren. Religiöse Motivation Seine Spenden für den Bau und die Ausstattung sakraler Gebäude betrachtete Cosimo als Investitionen, die ihm Gottes Gnade verschaffen sollten. Er fasste sein Verhältnis zu Gott als Abhängigkeitsbeziehung im Sinne des Klientelismus auf: Ein Klient empfängt von seinem Patron Wohltaten und zeigt sich dafür durch Loyalität und tätige Dankbarkeit erkenntlich. Gegenüber seiner Anhängerschaft trat Cosimo als gütiger Patron auf, gegenüber Gott sah er sich als Klient. Wie sein Biograph Vespasiano da Bisticci berichtet, antwortete er auf die Frage nach dem Grund seiner großen Freigebigkeit und Fürsorge gegenüber Mönchen, er habe von Gott so viel Gnade empfangen, dass er nun sein Schuldner sei. Niemals habe er Gott einen Grosso (eine Silbermünze) gegeben, ohne von ihm dafür bei diesem „Tauschhandel“ (iscambio) einen Florin (eine Goldmünze) zu bekommen. Außerdem war Cosimo der Meinung, er habe mit seinem Geschäftsgebaren gegen ein göttliches Gebot verstoßen. Er befürchtete, Gott werde ihm zur Strafe seine Besitztümer wegnehmen. Um dieser Gefahr vorzubeugen und sich weiterhin das göttliche Wohlwollen zu sichern, bat er Papst Eugen IV. um Rat. Der Papst befand, eine Spende von 10.000 Florin für einen Klosterbau sei zur Bereinigung der Angelegenheit ausreichend. So wurde dann verfahren. Als der Bau vollendet war, bestätigte der Papst mit einer Bulle den Ablass, der dem Bankier für die Spende gewährt wurde. Humanismus Cosimo lebte in der Blütezeit des Renaissance-Humanismus, dessen bedeutendstes Zentrum seine Heimatstadt Florenz war. Das Ziel des humanistischen Bildungsprogramms, die Befähigung des Menschen zu einer optimalen Lebensführung und staatsbürgerlichen Pflichterfüllung durch Verbindung von Wissen und Tugend, fand damals im Florentiner Patriziat viel Anklang. Den Weg zur Verwirklichung des humanistischen Tüchtigkeitsideals sah man in der Aneignung antiker Bildungsgüter, die zur Nachahmung klassischer Vorbilder anspornen sollte. Cosimos Vater hatte sich dieser Auffassung angeschlossen; er ließ seinem Sohn eine humanistische Erziehung zukommen. Wie viele seiner gebildeten Mitbürger öffnete sich Cosimo der Gedankenwelt und den Wertvorstellungen der Humanisten. Er schätzte den Umgang mit ihnen, erwies ihnen Wohltaten und erhielt dafür seinerseits viel Anerkennung. Sein Leben lang zeigte er großes Interesse an Philosophie – insbesondere Ethik – und literarischen Werken. Dank seiner guten Schulbildung konnte er lateinische Texte lesen; seine eigenhändigen Vermerke in seinen Codices bezeugen, dass er Bücher nicht nur sammelte, sondern auch las. Wahrscheinlich war er aber nicht imstande, sich in gutem Latein auszudrücken. Cosimos Wertschätzung für die Humanisten hing auch mit dem Umstand zusammen, dass sein gesellschaftlicher Status als erfolgreicher Bankier, Mäzen und republikanischer Staatsmann mit ihren moralischen Werten sehr gut vereinbar war. Bei seinen humanistischen Freunden konnte er mit vorbehaltloser Anerkennung rechnen, denn sie hatten ein unbefangenes Verhältnis zum Reichtum und verherrlichten seine Freigebigkeit. Großzügigkeit galt im humanistischen Milieu als eine der wertvollsten Tugenden. Dabei konnte man sich auf Aristoteles berufen, der in seiner Nikomachischen Ethik die Großzügigkeit oder Hochherzigkeit gepriesen und Reichtum als deren Voraussetzung bezeichnet hatte. Diese humanistische Haltung stand im Gegensatz zur Gesinnung konservativer Kreise, die das Bankwesen verdammten und Reichtum für moralisch suspekt hielten, wobei sie sich auf traditionelle christliche Wertvorstellungen beriefen. Außerdem widersprach die egalitäre Tendenz des Renaissance-Humanismus der mittelalterlichen Neigung, politische Führungspositionen denen vorzubehalten, die sich durch vornehme Abstammung auszeichneten. An die Stelle der herkömmlichen starren sozialen Ordnung, die Cosimos politische Gegner in der Albizzi-Gruppe bevorzugten, trat bei den Humanisten ein Konzept, das soziale Mobilität förderte; humanistische Bildung und persönliche Tüchtigkeit sollten als Qualifikationskriterien für die Staatslenkung ausreichen. Diese Einstellung kam Cosimo, dessen Familie zu den Aufsteigern (gente nuova) zählte und manchen alteingesessenen Geschlechtern suspekt war, zugute. Besonders großzügig förderte Cosimo den humanistischen Philosophen Marsilio Ficino, dessen Vater Diotifeci d’Agnolo di Giusto sein Leibarzt war. Als väterlicher Freund verschaffte er Ficino die materielle Basis für ein ganz der Wissenschaft gewidmetes Leben. Er schenkte ihm ein Haus in Florenz und ein Landhaus in Careggi, wo er selbst eine prächtige Villa besaß. Ficino war ein begeisterter Platoniker und Bewunderer seines Gönners. Er schrieb in einem Brief an dessen Enkel Lorenzo, Platon habe ihm die platonische Idee der Tugenden einmal vor Augen gestellt, Cosimo habe sie jeden Tag in die Tat umgesetzt; daher habe er seinem Wohltäter nicht weniger zu verdanken als dem antiken Denker. Mehr als zwölf Jahre habe er glücklich mit ihm philosophiert. Im Auftrag Cosimos fertigte Ficino die erste lateinische Gesamtübersetzung der Werke Platons an, womit er maßgeblich zur Verbreitung platonischen Gedankenguts beitrug. Daraus lässt sich allerdings nicht folgern, dass Cosimo ebenso wie Ficino den Platonismus anderen philosophischen Schulrichtungen vorzog. Das Ausmaß seiner Hinwendung zum Platonismus wurde früher überschätzt; er scheint eher zum Aristotelismus geneigt zu haben. Bis gegen Ende des 20. Jahrhunderts glaubte man, Cosimo habe eine Platonische Akademie gegründet und deren Leitung Ficino übertragen. Diese Annahme ist jedoch von der neueren Forschung als falsch erwiesen worden. Es handelte sich nicht um eine Institution, sondern nur um einen informellen Kreis von Schülern Ficinos. Auch zwei weitere namhafte Humanisten, Poggio Bracciolini und Johannes Argyropulos, beschenkte Cosimo mit Häusern. Hilfreich waren für seine humanistischen Freunde nicht nur seine Zuwendungen aus eigenen Mitteln; sie profitierten auch von seinem großen Einfluss im In- und Ausland, den er nutzte, um ihnen Gehör und Anstellungen zu verschaffen. Er sorgte dafür, dass zwei Humanisten, die er schätzte, Carlo Marsuppini und Poggio Bracciolini, das prestigereiche Amt des Kanzlers der Republik Florenz erhielten. Eng befreundet war Cosimo mit dem Geschichtsschreiber und späteren Kanzler Bartolomeo Scala und mit dem humanistisch gesinnten Mönch Ambrogio Traversari, einem angesehenen Altertumswissenschaftler. Ihn bewog er dazu, das Werk des antiken Philosophiehistorikers Diogenes Laertios über Leben und Lehren der Philosophen aus dem Griechischen ins Lateinische zu übersetzen und damit einer breiteren Öffentlichkeit zugänglich zu machen. Traversaris Kloster Santa Maria degli Angeli war der Treffpunkt einer Gruppe von Gelehrten, in deren Kreis Cosimo verkehrte. Unter ihnen war Niccolò Niccoli, ein eifriger Sammler von Handschriften antiker Werke, dem Cosimo Bücher und Geld schenkte. Poggio Bracciolini und Niccolò Niccoli betätigten sich im Konflikt mit der Albizzi-Gruppe als eifrige Anhänger des Mediceers. Zeitweilig problematisch war Cosimos Verhältnis zu Leonardo Bruni, einem einflussreichen humanistischen Politiker und Staatstheoretiker, der sich als maßgeblicher Wortführer des florentinischen Republikanismus profilierte. Cosimo verschaffte Bruni, der aus Arezzo stammte und in Florenz eine neue Heimat gefunden hatte, 1416 das florentinische Bürgerrecht, und 1427 wurde der Humanist mit Billigung der Medici-Gruppe Staatskanzler. Dennoch pflegte Bruni auch Beziehungen zur Albizzi-Gruppe und vermied es, im Machtkampf von 1433–1434 für Cosimo Partei zu ergreifen. Trotz dieses Mangels an Loyalität zu den Medici durfte er nach 1434 das Amt des Kanzlers bis zu seinem Tod behalten und wichtigen Gremien angehören. Offenbar hielt es Cosimo für unzweckmäßig, diesen namhaften Theoretiker des republikanischen Staatskonzepts zu verärgern. Die hohen Erwartungen, die Cosimos Wohlwollen bei den Humanisten weckte, zeigen sich darin, dass sie ihm mehr als vierzig Schriften widmeten. Dabei handelte es sich teils um Werke, die sie selbst verfasst hatten, teils um Übersetzungen. Die weite Verbreitung humanistischer Schriften, deren Widmungstexte Cosimo lobten, trug seinen Ruhm in alle Bildungsstätten West- und Mitteleuropas. Seine Bewunderer idealisierten und verherrlichten ihn auch in zahlreichen Gedichten, Briefen und Reden; sie verglichen ihn mit berühmten Staatsmännern der Antike. Erkennbar ist dabei – verstärkt in seinen letzten Lebensjahren – die Bemühung dieser Autoren, der Familie Medici dynastische Züge zu verleihen. Schon nach Cosimos Rückkehr aus dem Exil im Jahr 1434 feierten ihn seine Anhänger als Pater patriae („Vater des Vaterlandes“). Einhellig war das Lob, das Cosimo zu seinen Lebzeiten bei den Humanisten fand, allerdings nicht. Einen erbitterten Gegner hatte er in dem namhaften humanistischen Gelehrten Francesco Filelfo. Dieser war 1429 mit Billigung Cosimos als Universitätslehrer nach Florenz geholt worden, überwarf sich dann aber mit dem Mediceer und nahm dezidiert für die Albizzi-Gruppe Partei. Die Medici-Gruppe versuchte seine Entlassung zu erwirken, konnte ihn aber nur vorübergehend aus der Universität vertreiben. Als 1433 ein Anschlag auf ihn verübt wurde, bei dem er eine Verletzung erlitt, verdächtigte er Cosimo, hinter dem Attentat zu stecken. Während Cosimos Exil 1433–1434 schrieb Filelfo eine heftige Satire gegen die Medici. Nach dem Umsturz von 1434, der zu Cosimos Rückkehr führte, verließ er Florenz, um der drohenden Rache der Sieger zu entgehen. In der Folgezeit bekämpfte er die Medici aus der Ferne. Im Herbst 1436 schloss er sich einer Gruppe an, die vergeblich versuchte, Cosimo von einem gedungenen Mörder umbringen zu lassen. Auf Filelfos literarische Angriffe reagierten Cosimos humanistische Verteidiger mit Entgegnungen. Ein wichtiges Betätigungsfeld für Cosimos Mäzenatentum auf dem Gebiet der Bildungsförderung war das Bibliothekswesen. Er gründete mehrere klösterliche Bibliotheken. Die bedeutendste von ihnen befand sich im Florentiner Dominikanerkonvent San Marco. Sie war – anders als früher üblich – der Öffentlichkeit zugänglich. Bildende Kunst Noch stärker als im literarischen Bereich engagierte sich Cosimo auf dem Gebiet der bildenden Kunst. Er ließ auf eigene Kosten Kirchen und Klöster erbauen und künstlerisch ausstatten. Damit betätigte er sich, obwohl er formal nur ein einfacher Bürger war, auf einem Gebiet, das traditionell weltlichen und geistlichen Machthabern vorbehalten war. Im 14. und frühen 15. Jahrhundert wäre eine ganz aus privater Initiative entfaltete Bautätigkeit solchen Umfangs in Florenz noch undenkbar gewesen. Erst der gesellschaftliche Wandel, der mit der fortschreitenden Entfaltung des Humanismus zusammenhing, machte derartige Vorhaben möglich. Eine humanistisch geprägte Mentalität zeigte sich auch im Willen zur Selbstdarstellung. Cosimo legte Wert darauf, dass seine Funktion als Auftraggeber sichtbaren Ausdruck fand. So ließ er an einer Kirche in Jerusalem, die mit seinen Mitteln restauriert wurde, sein Wappen anbringen, das fortan den Pilgern, die ins Heilige Land zogen und die Kirche aufsuchten, ins Auge fiel. Auch in Florenz weisen die von ihm gestifteten Bauten überall das Familienwappen der Medici auf. Nicht nur an Fassaden und Portalen, sondern auch an Kapitellen, Konsolen, Schluss-Steinen und Friesen ließ er es anbringen. Zwar waren Familienwappen in Kirchen damals in Florenz üblich, doch die Häufigkeit, mit der Cosimo das seinige überall ins Blickfeld der Öffentlichkeit rückte, war einzigartig und fiel auf. Auch Wandgemälde mit biblischen Szenen, die im Auftrag der Medici gemalt wurden, dienten Cosimos Selbstdarstellung. Auf einem Fresko im Kloster San Marco erhielt einer der Heiligen Drei Könige die idealisierten Gesichtszüge des Mediceers. Er trägt Instrumente zur Erforschung der Gestirne. Auch auf einem um 1459 entstandenen Fresko der Heiligen Drei Könige an der Ostwand der Kapelle des Medici-Palastes befindet sich ein Porträt Cosimos. Dort ist er mit seinen Söhnen Piero und Giovanni und den Enkeln Lorenzo – später als Lorenzo il Magnifico bekannt – und Giuliano abgebildet. Im Grünen Kreuzgang von Santa Maria Novella ist Cosimo auf einer Lünette mit einer Szene aus der Sintfluterzählung zu sehen; anscheinend erscheint er dort als Personifikation der Weisheit. Für dieses Werk von Paolo Uccello war er wohl nicht selbst der Auftraggeber. Ab 1437 entstand der Neubau des Klosters San Marco, das der Papst 1436 den Dominikaner-Observanten, einem Zweig des Dominikanerordens, übertragen hatte. Die bisherigen Klostergebäude wurden durch Neubauten ersetzt, von der Kirche wurde nur der Chor erneuert. Die Weihe der Kirche fand 1443 in Anwesenheit des Papstes statt, die Konventsgebäude wurden erst 1452 komplett fertiggestellt. Ursprünglich hatte Cosimo dafür mit Kosten von 10.000 Florin gerechnet, schließlich musste er insgesamt über 40.000 ausgeben. Für den Neubau der Basilica di San Lorenzo, einer bedeutenden Kirche, stellte er über 40.000 Florin bereit. An der Finanzierung dieses Großprojekts hatte sich schon sein Vater beteiligt. Im Mugello nördlich von Florenz, der Gegend, aus der die Medici ursprünglich stammten, förderte er den Bau des Franziskanerklosters San Francesco al Bosco (Bosco ai Frati). Bei der Franziskanerkirche Santa Croce ließ er einen Trakt für die Novizen bauen. Unter den weiteren kirchlichen Bauvorhaben, die er finanzierte, war das bedeutendste die Badia di Fiesole, das Kloster der Augustiner-Eremiten unterhalb von Fiesole. Dort ließ Cosimo ab 1456 das gesamte Klostergebäude einschließlich der Kirche neu errichten und mit einer Bibliothek ausstatten. Die Bauarbeiten waren bei seinem Tod noch nicht abgeschlossen. Außer den Sakralbauten ließ Cosimo auch ein imposantes privates Gebäude errichten, den neuen Medici-Palast. Zuvor wohnte er in einem vergleichsweise bescheidenen älteren Palast, der Casa Vecchia. Erst 1445/1446, nachdem er bereits mit Kirchen- und Klosterbauten seine Großzügigkeit im Dienst des Gemeinwesens unter Beweis gestellt hatte, begann er mit dem aufwendigen Neubau des Familienpalastes an der damaligen Via Larga, der heutigen Via Cavour. In erster Linie ging es ihm dabei nicht um seinen eigenen Wohnkomfort, sondern um das Ansehen der Familie. Damit folgte er einer damals herrschenden sozialen Norm; die Wahrung und Mehrung des Ruhms der Familie war generell für Angehörige der Oberschicht eine zentrale Aufgabe. Der neue palazzo der Medici übertraf alle älteren Familienpaläste in Florenz an Größe und Ausstattung. Seine außergewöhnliche architektonische Qualität setzte einen neuen Maßstab für den Palastbau der Renaissance. Die Kapelle wurde von Benozzo Gozzoli mit Fresken geschmückt. An der Ausstattung des Palastes mit kostbaren Bildern waren auch die damals sehr geschätzten Maler Fra Angelico, Domenico Veneziano und Filippo Lippi beteiligt. Es wurde eine Umgebung geschaffen, in der prominente auswärtige Gäste repräsentativ empfangen werden konnten. Papst Pius II. meinte, dieses Bauwerk sei eines Königs würdig. Nach seinem Eindruck verfügte Cosimo über einen Reichtum, der vielleicht den des sprichwörtlichen Königs Krösus übertraf. Die Schätzungen der Baukosten schwanken zwischen 60.000 und 100.000 Florin. Das Staunen der Zeitgenossen spiegelt sich in den Worten des Architekten und Architekturtheoretikers Filarete, der sich in seinem 1464 vollendeten Trattato di architettura äußerte. Filarete hob besonders die Würde (dignitade) der neuen Gebäude hervor. Er verglich Cosimo mit bedeutenden antiken Bauherren wie Marcus Vipsanius Agrippa und Lucius Licinius Lucullus. Diese seien allerdings keine bloßen Privatleute gewesen, sondern hätten große Provinzen regiert und seien dadurch zu ihrem Reichtum gekommen. Cosimo hingegen sei ein einfacher Bürger, der sein Vermögen durch seine unternehmerische Tatkraft erworben habe. Daher sei seine Leistung als Bauherr einzigartig. Cosimos Neubauten veränderten das zuvor ganz vom Mittelalter geprägte Stadtbild. Sie trugen maßgeblich zur Einführung eines neuen Architekturtyps bei, mit dem Florenz zu einem Muster für ganz Italien wurde. Der neue Stil verband Zweckmäßigkeit mit antiker Proportionalität und antikisierendem Schmuck. Diese Stilrichtung hatte schon Filippo Brunelleschi, ein führender Architekt der Frührenaissance, eingeführt. Er hatte 1420 den Neubau von San Lorenzo begonnen und wurde dann 1442 von Cosimo beauftragt, das Werk zu vollenden. Ansonsten zog der Mediceer aber einen anderen Architekten, Michelozzo, vor, dessen Entwürfe weniger grandios waren als die Brunelleschis. Ob der Medici-Palast von Brunelleschi oder von Michelozzo entworfen wurde, ist in der Forschung umstritten; vermutlich waren beide beteiligt. In den lobenden Beschreibungen von Zeitgenossen wurden an Cosimos Bauten vor allem die Ordnung, die Würde, die Weite, die Schönheit der Proportionen und des architektonischen Schmucks und die Helligkeit hervorgehoben. Anerkennung fand ferner die leichte Begehbarkeit der Treppen. Sie stellte eine Neuerung dar, denn mittelalterliche Treppen waren gewöhnlich eng und steil. Die breiten Treppen mit niedrigen Stufen wurden sehr geschätzt, da sie ein bequemes und zugleich würdevolles Treppensteigen ermöglichten. Die aufwendige Bautätigkeit des Mediceers, die an Umfang diejenige jedes anderen Privatmanns im 15. Jahrhundert übertraf, wurde von den Bürgern nicht nur wohlwollend und dankbar aufgenommen. Es wurde auch Kritik an der damit verbundenen Selbstdarstellung des reichsten Bürgers der Stadt laut. Die unterschiedlichen Ansichten und Bewertungen der Zeitgenossen sind aus einer Verteidigungsschrift ersichtlich, die der Theologe und Humanist Timoteo Maffei kurz vor 1456 zur Rechtfertigung des angegriffenen Mäzens verfasste. Maffei wählte für seine Darstellung die Form eines Dialogs, in dem er als Fürsprecher Cosimos einen Kritiker (detractor) widerlegt und schließlich überzeugt. Auf den Vorwurf, der Medici-Palast sei zu luxuriös, erwidert er, Cosimo habe sich dabei nicht nach dem gerichtet, was für ihn persönlich angemessen sei, sondern nach dem, was für eine so bedeutende Stadt wie Florenz passend sei. Da er von der Stadt weit größere Wohltaten empfangen habe als die anderen Bürger, habe er sich genötigt gesehen, sie entsprechend üppiger zu schmücken als jeder andere, um sich nicht als undankbar zu erweisen. Zur Entkräftung der Kritik an dem überall angebrachten Medici-Wappen bringt Maffei vor, der Zweck des Wappenzeichens bestehe darin, auf ein Vorbild aufmerksam zu machen, das zur Nachahmung anspornen solle. Auch der Bildhauer Donatello arbeitete für Cosimo oder vielleicht für dessen Sohn Piero. Im Auftrag der Medici schuf er zwei berühmte Bronzeskulpturen, den David und die Judith. Beide Werke hatten einen politischen Hintergrund; die dargestellten biblischen Gestalten versinnbildlichten den Sieg über einen scheinbar übermächtigen Feind. Es ging um Ermutigung zur Verteidigung der Freiheit des Vaterlandes und der republikanischen Verfassung gegen Gefährdungen von außen. Privatleben Als Privatmann war Cosimo für seine Bescheidenheit und seinen Grundsatz des Maßhaltens bekannt. Seinen Palast und seine Villen gestaltete er zwar repräsentativ, doch achtete er darauf, in seiner Lebensführung unnötigen Aufwand, der Anstoß erregen konnte, zu vermeiden. So begnügte er sich mit einfachen Speisen und trug keine prächtige Kleidung. Dazu passte seine Betätigung in der Landwirtschaft, in der er sich gut auskannte. Auf seinen Besitzungen außerhalb der Stadt leistete er Landarbeit, er pfropfte Bäume und beschnitt Weinstöcke. Im Umgang mit den Bauern demonstrierte er Volksnähe; er fragte sie gern, wenn sie nach Florenz auf den Markt kamen, nach ihren Früchten und deren Herkunft. Der Buchhändler Vespasiano da Bisticci verfasste eine verherrlichende Biographie Cosimos, mit dem er befreundet war. Darin trug er unter anderem Anekdoten aus dem Privatleben zusammen, für deren Authentizität er sich verbürgte. Er schilderte seinen Freund als Menschen von ernsthafter Wesensart, der sich mit gelehrten, würdevollen Männern umgeben habe. Er habe über ein vorzügliches Gedächtnis verfügt, sei ein geduldiger Zuhörer gewesen und habe niemals schlecht über jemanden geredet. Dank seiner umfassenden Kenntnis unterschiedlicher Wissensgebiete habe er mit jedem ein Thema gefunden. Er sei überaus freundlich und bescheiden gewesen, habe darauf geachtet, niemanden zu beleidigen, und nur wenige hätten ihn je erregt gesehen. Alle seine Antworten seien „mit Salz gewürzt“ gewesen. Cosimo war für seine humorvollen und geistreichen, teils rätselhaften Bemerkungen bekannt, die im 15. und 16. Jahrhundert in einer Reihe von Anekdoten verbreitet wurden. Krankheit, Tod und Nachfolge Cosimo litt an der Gicht. Die Anfälligkeit für diese Krankheit war in seiner Familie erblich. Ab 1455 scheint das Leiden ihn erheblich behindert zu haben. Er starb am 1. August 1464 in seiner Villa in Careggi und wurde am folgenden Tag in San Lorenzo beigesetzt. Pompöse Begräbnisfeierlichkeiten hatte er untersagt. Ein Testament hinterließ er nicht. Für die Gestaltung des Grabmals setzte die Signoria eigens eine zehnköpfige Kommission ein. Andrea del Verrocchio gestaltete die Grabplatte, für die ein zentraler Ort innerhalb der Kirche gewählt wurde, wie es bei Stiftergräbern üblich war. Dort wurde auf Beschluss der Stadt die Inschrift Pater patriae („Vater des Vaterlandes“) eingemeißelt, die an eine antike Ehrung außergewöhnlich verdienter Bürger anknüpfte. Nach der Fertigstellung des Grabmals wurden die Gebeine am 22. Oktober 1467 an ihre endgültige Stätte in der Krypta gebracht. Mit seiner Gattin hatte Cosimo zwei Söhne, Piero (1416–1469) und Giovanni (1421–1463). Hinzu kam ein unehelicher Sohn namens Carlo, dessen Mutter eine tscherkessische Sklavin war. Carlo wurde zusammen mit seinen Halbbrüdern erzogen und schlug später eine kirchliche Karriere ein. Giovanni starb schon am 1. November 1463, neun Monate vor Cosimo, und hinterließ keine Kinder. Piero fiel das ganze väterliche Erbe zu, sowohl das Vermögen und die Führung der Bank als auch die Stellung des leitenden Staatsmanns von Florenz. Dank der Autorität seines verstorbenen Vaters konnte Piero dessen Rolle im Staat problemlos übernehmen. Er litt aber schwer an der Gicht, die seine Aktivitäten stark behinderte, und starb schon fünf Jahre nach Cosimo. Pieros Nachfolge als informeller Machthaber trat im Dezember 1469 sein Sohn Lorenzo il Magnifico an. Wiederum verlief der Übergang ohne Komplikationen. Das neue Oberhaupt der Familie setzte die Tradition der großzügigen Kulturförderung fort und mehrte damit den Ruhm der Medici. Die von seiner Führung geprägten 22 Jahre der Geschichte von Florenz waren eine kulturell außerordentlich glanzvolle Epoche. Lorenzo verfügte aber nicht über das geschäftliche Talent seines Großvaters Cosimo. Es gelang ihm nicht, die finanzielle Basis der politischen Macht und des Mäzenatentums der Medici zu bewahren. Die Bank erlebte einen dramatischen Niedergang, der sie an den Rand des Zusammenbruchs brachte. Rezeption Mittelalter Ein scharfer Kritiker Cosimos war der zeitgenössische Geschichtsschreiber Giovanni Cavalcanti. Er gehörte einem alteingesessenen Patriziergeschlecht an und missbilligte den Aufstieg einer Schicht von Emporkömmlingen, für den er Cosimo verantwortlich machte. Vor allem verübelte er dem Mediceer das rigorose Vorgehen gegen die Steuerschuldner, zu denen er selbst zählte. Allerdings äußerte er sich stellenweise positiv über die Medici und hielt die Aufhebung von Cosimos Verbannung für gerecht. Zeitgenössische medicifreundliche Autoren priesen Cosimo rückblickend als Retter der Unabhängigkeit der Republik Florenz. So befand der Humanist Benedetto Accolti der Ältere in seinem Dialogus de praestantia virorum sui aevi, einem in Cosimos letzten Lebensjahren verfassten und ihm gewidmeten Werk, die Machtverhältnisse seien nach dem Tod von Filippo Maria Visconti für Venedig so günstig gewesen, dass die Venezianer ganz Italien hätten unterwerfen können, wenn Cosimo dies nicht durch das Bündnis mit Mailand verhindert hätte. Er allein sei der Urheber des Allianzwechsels, den er gegen starken Widerstand in Florenz durchgesetzt habe. In diesem Sinn äußerte sich auch der Geschichtsschreiber Benedetto Dei. Er verfasste in den 1470er Jahren ein gegen Venedig gerichtetes Pamphlet, in dem er Cosimos Außenpolitik rückblickend als weitsichtig und erfolgreich darstellte. Nach seiner Einschätzung hätte Venedig in Italien eine beherrschende Stellung errungen, wenn Cosimo nicht die Allianz mit Francesco Sforza zuwege gebracht hätte. Im Zeitraum 1469–1475 schuf Sandro Botticelli im Auftrag des Bankiers G(u)aspar(r)e di Zanobi del Lama ein Gemälde, das die Anbetung der Heiligen Drei Könige zeigt. Der älteste der Könige trägt die Gesichtszüge Cosimos, auch weitere Angehörige der Familie Medici sind abgebildet. Somit soll das Werk der Familie huldigen, Cosimo erscheint als „Heiliger“. Der Humanist Bartolomeo Platina schrieb den Dialog De optimo cive (Über den besten Bürger), den er 1474 Cosimos Enkel Lorenzo il Magnifico widmete. Mit dem „besten Bürger“ ist der leitende republikanische Staatsmann gemeint. Der Ort der Handlung ist die Villa der Medici in Careggi, den Inhalt bildet ein fiktives Gespräch zwischen dem bereits alten und gebrechlichen Cosimo als Hauptperson, Platina und dem Knaben Lorenzo. Der Vorrede zufolge wollte der Autor mit seiner Darstellung von Cosimos politischen Maximen den patriotischen Eifer der Leser anfeuern. Platina präsentierte ein Regierungsprogramm, das er dem alten Staatsmann in den Mund legte. Seine Dialogfigur Cosimo tritt für „Freiheit“ – die traditionelle republikanische Lebensform – ein, warnt vor Hochmut, Anmaßung und Luxus, kritisiert Übelstände und fordert Einschreiten gegen Männer, die nach der Tyrannis streben. Sie sollen verbannt werden; hinzurichten sind sie nur, wenn sie der Beteiligung an einer Verschwörung überführt worden sind. Neben der humanistischen Verherrlichung Cosimos in lateinischer Sprache, die sich an Gebildete richtete, gab es auch eine volkstümliche in italienischen Gedichten. In dieser für eine breitere Öffentlichkeit bestimmten Dichtung erscheint er als gütige Vaterfigur, Förderer des religiösen Lebens und des Wohlstands und heldenhafter Verteidiger der Freiheit gegen Angriffe von außen. Frühe Neuzeit Im letzten Jahrzehnt des 15. Jahrhunderts zerbrach der Konsens, der die informelle Herrschaft der Medici in der Republik Florenz ermöglicht hatte. Die Familie wurde im November 1494 aus der Stadt verjagt. Dies führte zu einer Neubewertung von Cosimos Rolle. Der Mönch Girolamo Savonarola, der für die Florentiner damals die maßgebliche Autorität war, verdammte die Medici-Herrschaft als monströs und äußerte zu der Cosimo zugeschriebenen Bemerkung, der Staat werde nicht mit Vaterunser-Beten regiert, dies sei ein Tyrannenwort. Am 22. November 1495 beschloss die Signoria, die Inschrift „Vater des Vaterlandes“ am Grabmal zu tilgen. Doch 1512 brachte ein spanisches Heer die Medici zurück nach Florenz und wieder an die Macht. Daraufhin wurde die Inschrift wiederhergestellt. Im Jahr 1527 mussten die Medici aber ein weiteres Mal dem Volkszorn weichen. Nach der erneuten Vertreibung der Familie beschlossen die nunmehr regierenden Republikaner 1528 wiederum die Beseitigung der Inschrift. Diesen Schritt begründeten sie damit, dass Cosimo nicht Vater des Vaterlandes gewesen sei, sondern Tyrann des Vaterlandes. Die medicilose Republik erwies sich jedoch als kurzlebig; im August 1530 wurde die Stadt von Truppen Kaiser Karls V. gestürmt, worauf die Medici wieder an die Macht kamen. Aus der Republik wurde eine Monarchie, deren Herrscher ihre Legitimation aus der Rolle ihrer Ahnen im 15. Jahrhundert bezogen. Der Historiker Francesco Guicciardini behandelte die Zeit bis 1464 im ersten Kapitel seiner 1508/1509 verfassten Storie fiorentine. Er befand, Cosimo und sein berühmter Enkel Lorenzo il Magnifico seien vielleicht die beiden angesehensten Privatleute seit dem Untergang des Römischen Reichs gewesen. Der Großvater sei dem Enkel an Beharrlichkeit und Urteilskraft sowie im Umgang mit Geld überlegen gewesen. Wenn man alle Aspekte bedenke, komme man zum Ergebnis, dass Cosimo der tüchtigere der beiden großen Mediceer gewesen sei. Insbesondere lobte Guicciardini das Bündnis mit Mailand, in dem er eine bedeutende historische Leistung Cosimos sah. Die Mehrheit der Florentiner sei für die Fortsetzung der alten Allianz mit Venedig gewesen, doch habe Cosimo seine Mitbürger überzeugen können, sich mit Francesco Sforza zu verbünden. Damit habe er die Freiheit nicht nur der Republik Florenz, sondern ganz Italiens gerettet. Nach Guicciardinis Meinung hätten die Venezianer erst Mailand und dann alle übrigen italienischen Staaten unterworfen, wenn Cosimo dies nicht verhindert hätte. Niccolò Machiavelli urteilte in seinen 1520–1525 verfassten Istorie fiorentine, Cosimo habe alle seine Zeitgenossen nicht nur an Autorität und Reichtum, sondern auch an Freigebigkeit und Klugheit übertroffen. Niemand sei ihm zu seiner Zeit in der Staatskunst ebenbürtig gewesen. Er habe in Florenz eine fürstliche Stellung eingenommen und sei dennoch so klug gewesen, die Grenzen bürgerlicher Mäßigung nie zu überschreiten. Alle seine Werke und Taten seien königlich gewesen. Entstehende Übel habe er frühzeitig erkannt; daher habe er genug Zeit gehabt, sie nicht wachsen zu lassen oder sich gegen sie zu wappnen. Er habe nicht nur den Ehrgeiz seiner bürgerlichen Rivalen zu Hause bezwungen, sondern auch den vieler Fürsten. Das Regierungssystem Cosimos missbilligte Machiavelli allerdings. Er hielt die Verbindung einer zentralisierten, quasi monarchischen Entscheidungsstruktur mit der Notwendigkeit, dennoch weiterhin wie in der vormediceischen Republik einen breiten Konsens zu finden, für verfehlt. In der Instabilität eines solchen Konstrukts sah er eine fundamentale Schwäche. Im Jahr 1537 erlangte der Mediceer Cosimo I. die Würde eines Herzogs der Toskana. Der Herzog, der bis 1574 regierte (ab 1569 als Großherzog), war ein Nachkomme Lorenzos, des jüngeren Bruders von Cosimo il Vecchio. Er ließ im Palazzo della Signoria (Palazzo Vecchio) einen „Saal von Cosimo il Vecchio“ zu Ehren des Begründers von Ruhm und Macht der Medici einrichten. Die Sala di Cosimo il Vecchio wurde von Giorgio Vasari und seinen Gehilfen ausgemalt. Dabei wurde das Kirchenbauprogramm des berühmten Mäzens besonders hervorgehoben. Eines der Gemälde stellt seine Rückkehr aus dem venezianischen Exil als Triumph dar. Im Zeitalter der Aufklärung wurde Cosimo wegen seiner Förderung des Humanismus geschätzt. Voltaire äußerte sich in seinem 1756 veröffentlichten Essai sur les mœurs et l’esprit des nations mit Begeisterung. Er urteilte, die frühen Medici hätten ihre Macht durch Wohltaten und Tugenden erlangt, daher sei sie legitimer als die jedes Herrschergeschlechts. Cosimo habe seinen Reichtum dazu genutzt, den Armen zu helfen, sein Vaterland mit Bauten zu schmücken und die aus Konstantinopel vertriebenen griechischen Gelehrten nach Florenz zu holen. Mit seinen Wohltaten habe er sich die Autorität verschafft, die bewirkt habe, dass seine Empfehlungen drei Jahrzehnte lang wie Gesetze befolgt worden seien. Edward Gibbon rühmte Cosimo im 1788 erschienenen sechsten Band seiner History of the Decline and Fall of the Roman Empire mit den Worten, er habe seine Reichtümer in den Dienst der Menschheit gestellt; der Name Medici sei fast gleichbedeutend mit der Wiederherstellung der Bildung. Johann Wolfgang von Goethe würdigte Cosimo im Anhang zu seiner 1803 veröffentlichten Übersetzung der Autobiographie des Benvenuto Cellini. Dort beschrieb er die Patronage des Mediceers als „allgemeine Spende, die an Bestechung gränzt“. Als „großer Handelsmann“, der „das Zaubermittel zu allen Zwecken in Händen trägt“, sei er „an und für sich ein Staatsmann“ gewesen. Zu Cosimos kulturellen Aktivitäten bemerkte Goethe: „Selbst vieles, was er für Literatur und Kunst gethan, scheint in dem großen Sinne des Handelsmanns geschehen zu sein, der köstliche Waaren in Umlauf zu bringen und das Beste davon selbst zu besitzen sich zur Ehre rechnet.“ Moderne Kulturgeschichtliche Aspekte Georg Voigt veröffentlichte 1859 seine für die Erforschung des Frühhumanismus wegweisende Schrift Die Wiederbelebung des classischen Alterthums. In diesem Werk, das 1893 in dritter Auflage erschien, konstatierte Voigt, die Literatur- und Kunstgeschichte habe Cosimo „mit einer Art von Heiligenschein umkleidet“. Er sei „der leibhaftigste Typus des florentinischen Edelmanns als großartiger Kaufherr, als kluger und überschauender Staatsmann, als Repräsentant der feinen Modebildung, als mäcenatischer Geist im fürstlichen Sinne“ gewesen. Seinen Blick habe er „auf das Weite und Allgemeine gerichtet“, seine Macht habe er in einer „kalt berechneten und geräuschlosen Weise“ gefestigt. Jedes wissenschaftliche Verdienst habe er nach Gebühr anerkannt, die Talente herangezogen, ihnen Stellung und Besoldung angewiesen. Jacob Burckhardt zeichnete in der 1869 erschienenen zweiten Auflage seiner einflussreichen Schrift Die Kultur der Renaissance in Italien ein heute teilweise überholtes Bild von Cosimo. Er betonte die „Führerschaft auf dem Gebiete der damaligen Bildung“, die dem Mediceer zugekommen sei. Dieser besitze den „speziellen Ruhm, in der platonischen Philosophie die schönste Blüte der antiken Gedankenwelt erkannt“ und seine Umgebung mit dieser Erkenntnis erfüllt zu haben. So habe er „innerhalb des Humanismus eine zweite und höhere Neugeburt des Altertums ans Licht gefördert“. In kulturgeschichtlichen Darstellungen dominierte bis gegen Ende des 20. Jahrhunderts Burckhardts Sichtweise: Cosimo wurde vielfach als Gründer einer platonischen Akademie gewürdigt. So schrieb beispielsweise Agnes Heller 1982, die Gründung der Akademie in Florenz sei epochemachend gewesen. Es handle sich um die erste philosophische Schule, die „von den alten kirchlichen und universitären Rahmenbedingungen unabhängig und insofern vollkommen weltlich und ‚offen‘“ gewesen sei. Patron dieser Akademie sei „der im traditionellen Sinn (aus dem Blickwinkel der offiziellen Bildung der Zeit) unstudierte Cosimo“ gewesen. Ähnlich schilderte noch 1995 Manfred Lentzen die Rolle des Mediceers. Erst die Forschungen von James Hankins entzogen in den 1990er Jahren dem Bild von Cosimo als Akademiegründer die Grundlage. Politische Aspekte Im verfassungsgeschichtlichen Diskurs wird die Frage erörtert, inwiefern Cosimos dominante Rolle den Rahmen der republikanischen Verfassung sprengte und seine Bezeichnung als Herrscher von Florenz daher berechtigt ist. Zur Unterscheidung von einer offenen Alleinherrschaft wird Cosimos System als „Kryptosignorie“ (versteckte Herrschaft) bezeichnet. Damit ist eine Regierungsform gemeint, die sich erst später allmählich zu einer unverhüllten Signorie, der Staatslenkung durch einen einzelnen Machthaber mit erblicher Stellung, entwickelt hat. Anthony Molho bringt die Zwiespältigkeit des Systems auf die griffige Formel „Cosimo de’ Medici – Pater patriae (Vater des Vaterlandes) oder Padrino (Pate)?“ Damit wird angedeutet, dass der Patron des Klientelsystems eine „politische Maschine“ geschaffen habe und vielleicht sogar in die Nähe von Mafia-Paten zu rücken sei. Letzteres entspricht der Auffassung von Lauro Martines und Jacques Heers. Martines sieht in der „Palette unverblümter und umfassender Kontrollmaßnahmen der mediceischen Republik“ das Instrumentarium, mit dem Cosimo die Verfassung unterminiert und die Herrschaft der „Medici-Oligarchie“, der „an der Regierung befindlichen Clique“, gesichert habe. Allerdings habe sich die republikanische Verfassung nicht so stark beugen lassen, dass sie den Medici totale Macht garantiert hätte. Die Oligarchie sei ein Team gewesen, „keine Ein-Mann-Show“, und habe ihre wichtigen Entscheidungen kollektiv gefällt. Jacques Heers zeichnet das Bild einer finsteren, brutalen Tyrannei, die Cosimo errichtet habe. Werner Goez urteilt, Florenz habe sich unter Cosimo zweifellos auf dem Weg zu fürstlicher Alleinherrschaft befunden, auch wenn alles getan worden sei, diesen Tatbestand zu verschleiern. Volker Reinhardt befindet, ab 1434 sei es zu einer „eigentümlichen Vermischung“ von Signorie und Republik gekommen; rein republikanisch sei nur noch die Fassade gewesen. Michele Luzzati hält die Entwicklung für unausweichlich; es sei Cosimos wahre und große Einsicht gewesen, dass politische Stabilität in Florenz nur noch mit einem System erreichbar gewesen sei, das unter Wahrung der freiheitlichen Tradition auf dem Vorrang eines Mannes und einer Familie beruhte. Dieser Ansicht ist auch Ferdinand Schevill. Nach seiner Einschätzung führten die Verfassungsbestimmungen, die sehr kurze Amtszeiten und Auswahl der höchsten Amtsträger durch das Los aus einer großen Menge von Kandidaten vorschrieben, zu unhaltbaren Zuständen, denn sie bewirkten, dass ein hoher Prozentsatz von offenkundig Inkompetenten in Führungsstellungen gelangte und eine durchdachte, beständige Politik unmöglich war. Schevill meint, dieses System habe die elementarsten Forderungen der Vernunft missachtet; daher sei seine Umgehung und Umgestaltung unumgänglich gewesen. Das verbreitete Bild von Cosimo als faktisch unumschränktem Herrscher wird allerdings von manchen Historikern für irreführend gehalten. Spezialuntersuchungen haben gezeigt, dass er seinen Willen keineswegs mühelos durchsetzen konnte und auch nach der Jahrhundertmitte weiterhin auf beträchtlichen, offenen Widerstand stieß. Nicolai Rubinsteins Analyse der Krise von 1455–1458 lässt das Ausmaß der zeitweiligen innenpolitischen Schwächung des Mediceers erkennen. Rubinstein kommt zum Ergebnis, dass Cosimo keineswegs Gehorsam als selbstverständlich voraussetzen konnte, auch nicht in seiner eigenen Anhängerschaft und nicht einmal bei der machtpolitisch zentralen Regelung der Ämterbesetzung. Es blieb ihm nicht erspart, Überzeugungsarbeit zu leisten. Rubinstein meint, auswärtige Zeitgenossen hätten Cosimos Macht wahrscheinlich überschätzt, sie werde wohl in Quellen wie den mailändischen Gesandtschaftsberichten teils übertrieben dargestellt. Dies führt er unter anderem darauf zurück, dass in despotisch regierten Staaten das nötige Verständnis der republikanischen Mentalität gefehlt habe; daher habe man dort die Bedeutung von Beratung und Konsens in einer Republik wie Florenz nicht angemessen berücksichtigt. Dale Kent schließt sich aufgrund eigener Forschungsergebnisse Rubinsteins Auffassung an. Auch Paolo Margaroli weist auf die Grenzen von Cosimos Macht hin. Als Beispiel nennt er die Friedensverhandlungen in Rom, bei denen 1453 die florentinischen Unterhändler so agierten, dass sie es nach Cosimos Ansicht, wie er dem Herzog von Mailand schrieb, nicht schlechter hätten machen können. Diese Gesandtschaft war in Florenz von oppositionellen Kräften vorbereitet worden. Michele Luzzati betont das Gewicht der seit Generationen kritischen öffentlichen Meinung, die Cosimo nicht habe missachten können. Nach der Darstellung von Daniel Höchli waren die meisten Patrizier nicht bereit, sich den Medici zu unterwerfen. Sie konnten dank eigener Patronage-Netzwerke ihre politische Unabhängigkeit bis zu einem gewissen Grad bewahren. Die Führungsrolle der Medici akzeptierten sie nur, solange sie ihre eigenen Interessen gewahrt sahen. Mit der Debatte über die Natur der Kryptosignorie hängt die Frage zusammen, inwieweit das dezidiert republikanische, antiautokratische Gedankengut des Florentiner „Bürgerhumanismus“ – ein von Hans Baron geprägter Begriff – mit Cosimos Stellung im Staat vereinbar war. Die ältere Forschung – vor allem Hans Baron und Eugenio Garin – ging von einem fundamentalen Spannungsverhältnis aus. Man nahm an, der manipulative Charakter der Medici-Herrschaft habe das Grundprinzip des Bürgerhumanismus, die Ermutigung der Bürger zu einer aktiven und verantwortungsvollen Beteiligung am politischen Leben, unterminiert. Die Verbreitung eines unpolitischen Neuplatonismus nach der Jahrhundertmitte sei als Ausdruck der Abkehr der Humanisten von einer echt republikanischen Gesinnung zu deuten. Diese Sichtweise ist von der neueren Forschung, insbesondere unter dem Eindruck der Ergebnisse von James Hankins, aufgegeben worden. Es wird u. a. darauf hingewiesen, dass Leonardo Bruni als profilierter Theoretiker und Wortführer des Bürgerhumanismus keinen Gegensatz zwischen seiner Überzeugung und seiner Zusammenarbeit mit Cosimo sah. Nach der neueren Interpretation ist das Verhältnis zwischen Bürgerhumanismus und Medici-Herrschaft eher als Symbiose auf der Basis bedeutender Gemeinsamkeiten zu verstehen. Als Ursache für Cosimos Erfolge wird in der Forschung insbesondere seine geschickte Finanzpolitik hervorgehoben, die ihm in den innenpolitischen Kämpfen bedeutende Vorteile verschafft habe. So konstatieren Werner Goez, Lauro Martines und Jacques Heers, Cosimo habe seine politische Macht vor allem dazu eingesetzt, die mit den Medici rivalisierenden Clans und Banken niederzuhalten. Mittels der Steuergesetzgebung habe er die Vermögen seiner Rivalen und missliebiger Personen belastet, um sich ihrer zu entledigen. Es gibt aber keinen Beleg dafür, dass er versuchte, politische Gegner durch direkte kommerzielle Angriffe auf ihre Unternehmen zu schädigen. Jacques Heers bestreitet, dass Cosimo durch seinen Reichtum an die Macht gelangte. Vielmehr sei es umgekehrt der Machtbesitz gewesen, den er zur Anhäufung der Reichtümer genutzt habe. Als zentraler Faktor, der die Macht des Mediceers in Florenz befestigte, gilt in der Forschung sein Ansehen im Ausland und insbesondere sein Einfluss an der Kurie. Große Bedeutung wird auch seinem propagandistischen Geschick beigemessen. Dale Kent charakterisiert Cosimo als Meister der Selbstdarstellung, der sein Image sorgfältig kultiviert habe. Nach Kents Einschätzung ist sein einzigartiger Erfolg darauf zurückzuführen, dass er das war oder zumindest zu sein schien, was den Wünschen seiner Mitbürger entsprach: ein Wortführer, der ihre Wertvorstellungen artikulierte, und zugleich ein scharfsichtiger, abwägender Staatsmann, der nach außen als Stimme der Republik auftreten konnte und durch seine Führungsrolle den in der Verfassung angelegten Mangel an politischer Konsistenz kompensierte. Als bedeutende außenpolitische Leistung Cosimos wird das Bündnis mit Mailand gegen Venedig beurteilt. Für Hans Baron handelt es sich um einen meisterhaften Schachzug. Nicolai Rubinstein meint, dieser Erfolg habe wohl mehr als jedes andere Ereignis nach 1434 das Ansehen des Mediceers im In- und Ausland gefestigt. Volker Reinhardt befindet, Cosimo habe „vorausschauend wie immer“ in die Karriere Sforzas viel Geld investiert, das sich dann als politische Rendite amortisiert habe. Die von ihm herbeigeführte Allianz zwischen Florenz und Mailand habe sich „als tragfähige Achse der italienischen Politik insgesamt“ erwiesen. Vincent Ilardi teilt diese Einschätzung der Allianz, merkt aber kritisch an, Cosimo habe die von Frankreich ausgehende Gefahr unterschätzt. Seine Neigung zu einem Bündnis mit Frankreich gegen Venedig sei ein Fehler gewesen. Sforza habe diesbezüglich mehr staatsmännische Voraussicht gezeigt. Quellen Die Quellen zu Cosimos Leben, seiner Rolle als Staatsmann und Mäzen und zur Rezeptionsgeschichte sind sehr reichhaltig. Aus seiner Zeit sind etwa dreißigtausend von den Medici verfasste oder an sie gerichtete Briefe erhalten. Eine Fülle von einschlägigen Briefen und Dokumenten befindet sich im Staatsarchiv von Florenz in der Sammlung „Medici avanti il Principato“ (MAP), deren Grundstock Cosimos Privatarchiv bildet, sowie im Mailänder Staatsarchiv und anderen Archiven und Bibliotheken. Diese Archivalien geben sowohl über politische und geschäftliche Angelegenheiten als auch über Privates Aufschluss. Informativ sind auch die ausführlichen Steuerunterlagen, die im Staatsarchiv von Florenz aufbewahrt werden, sowie Unterlagen der Medici-Bank in verschiedenen Archiven. Hinzu kommen Aufzeichnungen über Sitzungen und Debatten, an denen die Medici und ihre Freunde teilnahmen und das Wort ergriffen. Gut dokumentiert sind die diplomatischen Aktivitäten; Gesandtschaftsberichte und Instruktionen, die den Gesandten erteilt wurden, erhellen Cosimos Rolle in der italienischen Politik. Hohen Quellenwert hat sein Briefwechsel mit Francesco Sforza. Zahlreiche erzählende Quellen in lateinischer und italienischer Sprache beleuchten das Bild Cosimos bei seinen Zeitgenossen und in den Jahrzehnten nach seinem Tod. Zu den wichtigsten edierten Quellen zählen: Antonio Benivieni: Antonii Benivienii ἐγκώμιον Cosmi ad Laurentium Medicem, hrsg. von Renato Piattoli. Gonnelli, Firenze 1949 Vespasiano da Bisticci: Le Vite, hrsg. von Aulo Greco, Bd. 2. Istituto Nazionale di Studi sul Rinascimento, Firenze 1976, S. 167–211 (kritische Ausgabe) Giovanni Cavalcanti: Istorie fiorentine, hrsg. von Guido di Pino. Martello, Milano 1944 Giovanni Cavalcanti: Nuova opera (Chronique florentine inédite du XVe siècle), hrsg. von Antoine Monti. Université de la Sorbonne Nouvelle, Paris 1989, ISBN 2-900478-16-2 (kritische Edition) Francesco Guicciardini: Storie fiorentine dal 1378 al 1509, hrsg. von Roberto Palmarocchi. Laterza, Bari 1968 (Nachdruck der Ausgabe Bari 1931) Niccolò Machiavelli: Istorie fiorentine. In: Niccolò Machiavelli: Opere, Bd. 2: Istorie fiorentine e altre opere storiche e politiche, hrsg. von Alessandro Montevecchi. UTET, Torino 1986, ISBN 978-88-02-07680-5, S. 275–847 Cosimo de’ Medici: Ricordi. In: Angelo Fabroni: Magni Cosmi Medicei vita, Bd. 2: Adnotationes et monumenta ad Magni Cosmi Medicei vitam pertinentia. Pisa 1788, S. 96–104 Matteo Palmieri: Annales, hrsg. von Gino Scaramella. In: Rerum Italicarum Scriptores, Bd. 26/1. Lapi, Città di Castello 1906–1915, S. 131–194 Pagolo di Matteo Petriboni, Matteo di Borgo Rinaldi: Priorista (1407–1459), hrsg. von Jacqueline A. Gutwirth. Edizioni di Storia e Letteratura, Rom 2001, ISBN 88-87114-95-1 Janet Ross (Übersetzerin): Lives of the Early Medici as told in their correspondence. Chatto & Windus, London 1910, S. 7–81 (englische Übersetzung von Briefen) Literatur Übersichtsdarstellungen und Einführungen Dale Kent: Medici, Cosimo de’. In: Dizionario Biografico degli Italiani. Bd. 73, Istituto della Enciclopedia Italiana, Rom 2009, S. 36–43 Volker Reinhardt: Die Medici. Florenz im Zeitalter der Renaissance. 4., durchgesehene Auflage, Beck, München 2007, ISBN 978-3-406-44028-1, S. 20–70 Aufsatzsammlung Francis Ames-Lewis (Hrsg.): Cosimo ‘il Vecchio’ de’ Medici, 1389–1464. Essays in Commemoration of the 600th Anniversary of Cosimo de’ Medici’s Birth. Clarendon Press, Oxford 1992, ISBN 0-19-817394-6 Innenpolitik Dale Kent: The Rise of the Medici. Faction in Florence 1426–1434. Oxford University Press, Oxford 1978, ISBN 0-19-822520-2 John M. Najemy: A History of Florence 1200–1575. Blackwell, Malden 2006, ISBN 978-1-4051-1954-2, S. 250–300 John F. Padgett, Christopher K. Ansell: Robust Action and the Rise of the Medici, 1400–1434. In: American Journal of Sociology 98, 1992/1993, S. 1259–1319 Volker Reinhardt: Geld und Freunde. Wie die Medici die Macht in Florenz eroberten. Primus, Darmstadt 2009, ISBN 978-3-89678-396-7 Nicolai Rubinstein: The Government of Florence under the Medici (1434 to 1494). 2., überarbeitete Auflage, Clarendon Press, Oxford 1997, ISBN 0-19-817418-7 (wichtiges Standardwerk, aber nicht als Einführung geeignet) Bankwesen Richard A. Goldthwaite: The Medici Bank and the World of Florentine Capitalism. In: Past & Present 114, 1987, S. 3–31 Raymond de Roover: The Rise and Decline of the Medici Bank 1397–1494. Harvard University Press, Cambridge (Massachusetts)/London 1963, ISBN 0-674-77145-1 Kurt Weissen: Machtkämpfe und Geschäftsbeziehungen in Florenz im 15. Jahrhundert. Wie Cosimo de’ Medici seine Bank im Kampf gegen seine inneren Gegner einsetzte. In: Mark Häberlein, Christof Jeggle (Hrsg.): Praktiken des Handels. Geschäfte und soziale Beziehungen europäischer Kaufleute in Mittelalter und früher Neuzeit. UVK, Konstanz 2010, ISBN 978-3-86764-203-3, S. 175–189 Außenpolitik Vincent Ilardi: The Banker-Statesman and the Condottiere-Prince: Cosimo de’ Medici and Francesco Sforza (1450–1464). In: Craig Hugh Smyth, Gian Carlo Garfagnini (Hrsg.): Florence and Milan: Comparisons and Relations. Bd. 2, La Nuova Italia, Florenz 1989, ISBN 88-221-0718-7, S. 217–239 Heinrich Lang: Cosimo de’ Medici, die Gesandten und die Condottieri. Diplomatie und Kriege der Republik Florenz im 15. Jahrhundert. Schöningh, Paderborn 2009, ISBN 978-3-506-76597-0 Kulturelle Bedeutung und Privatleben Alison Brown: The Medici in Florence. The exercise and language of power. Olschki, Florenz 1992, ISBN 88-222-3959-8, S. 3–72 Dale Kent: Cosimo de’ Medici and the Florentine Renaissance. The Patron’s Oeuvre. Yale University Press, New Haven/London 2000, ISBN 0-300-08128-6 Tobias Leuker: Bausteine eines Mythos. Die Medici in Dichtung und Kunst des 15. Jahrhunderts. Böhlau, Köln/Weimar/Wien 2007, ISBN 978-3-412-33505-2 Joachim Poeschke: Virtù fiorentina: Cosimo de’ Medici als erster Bürger von Florenz. In: Gerd Althoff (Hrsg.): Zeichen – Rituale – Werte. Rhema, Münster 2004, ISBN 3-930454-45-9, S. 409–434 Rezeption Heinrich Lang: Das Gelächter der Macht in der Republik. Cosimo de’ Medici il vecchio (1389–1464) als verhüllter Herrscher in Fazetien und Viten Florentiner Autoren. In: Christian Kuhn, Stefan Bießenecker (Hrsg.): Valenzen des Lachens in der Vormoderne (1250–1750). University of Bamberg Press, Bamberg 2012, ISBN 978-3-86309-098-2, S. 385–408 Weblinks Mediceo avanti il Principato (MAP), Sammlung von Dokumenten zur Geschichte der Medici vor 1537 Anmerkungen Cosimo Cosimo #Medici Bankier Mäzen Unternehmer (Italien) Unternehmer (15. Jahrhundert) Geboren 1389 Gestorben 1464 Mann
925
https://de.wikipedia.org/wiki/Christiaan%20Huygens
Christiaan Huygens
Christiaan Huygens [] () (* 14. April 1629 in Den Haag; † 8. Juli 1695 ebenda), auch Christianus Hugenius, war ein niederländischer Astronom, Mathematiker und Physiker. Huygens gilt, obwohl er sich niemals der noch zu seinen Lebzeiten entwickelten Infinitesimalrechnung bediente, als einer der führenden Mathematiker und Physiker des 17. Jahrhunderts. Er ist der Begründer der Wellentheorie des Lichts, formulierte in seinen Untersuchungen zum elastischen Stoß ein Relativitätsprinzip und konstruierte die ersten Pendeluhren. Mit von ihm verbesserten Teleskopen gelangen ihm wichtige astronomische Entdeckungen. Leben und Wirken Herkunft und Ausbildung Huygens wurde als Sohn von Constantijn Huygens geboren, der Sprachgelehrter, Diplomat, Komponist und der damals führende Dichter Hollands war. Durch seinen Vater kam Christiaan schon früh mit bedeutenden Persönlichkeiten in Kontakt, unter anderem mit Rembrandt, Peter Paul Rubens und René Descartes. Christiaan wurde als Kind von seinem Vater unterrichtet. Später studierte er an der Universität Leiden zunächst Rechtswissenschaften, wechselte dann aber bald zu Mathematik und Naturwissenschaften. Seine erste veröffentlichte Arbeit (1651) befasste sich mit der Quadratur von Kegeln und zeigte einen Fehler in einem angeblichen Beweis der Quadratur des Kreises. Weiter beschäftigte er sich mit der Kreiszahl π (pi), Logarithmen und leistete wichtige Vorarbeiten für die Infinitesimalrechnung, auf denen dann Leibniz und Newton aufbauen konnten. 1657 veröffentlichte er die erste Abhandlung über die Theorie des Würfelspiels (De ludo aleae), wodurch er heute als einer der Begründer der Wahrscheinlichkeitsrechnung gilt. Vorausgegangen waren Briefwechsel zwischen Blaise Pascal und Pierre de Fermat, über deren Inhalt Huygens, wie er behauptete, jedoch nichts bekannt war. Analysiert man die Lösungen der fünf am Ende seiner Abhandlung aufgeführten Probleme, muss man vermuten, dass er Pascals Vorstellungen wohl gekannt hat, nicht aber die kombinatorischen Wege von Fermat. Beiträge zu den Naturwissenschaften Zunehmend interessierte sich Huygens auch für die damals modernen Bereiche der Naturwissenschaften, Optik und die Astronomie mit Teleskopen. Er hatte Kontakt zu Antoni van Leeuwenhoek, dem Entdecker der Mikroorganismen, und dem Philosophen Baruch de Spinoza, der mit Linsenschleifen seinen Lebensunterhalt bestritt. Kurzzeitig untersuchte auch Huygens kleine Objekte unter dem Mikroskop. Er begann aber bald selbst, Linsen für Teleskope zu schleifen und konstruierte zusammen mit seinem Bruder Constantijn Huygens Junior sein erstes Fernrohr. Huygens entwickelte die Wellentheorie des Lichts, die es ihm ermöglichte, Linsen mit geringeren Abbildungsfehlern (Aberration) zu schleifen und so bessere Teleskope zu bauen; seine Entdeckungen bewirkten auch eine Steigerung der Bildschärfe bei der Camera obscura und der Laterna magica. Er formulierte als erster das nach ihm benannte Huygenssche Prinzip, das als Grundlage der Wellenoptik gilt. Wie manch anderer Physiker seiner Zeit entwickelte auch Huygens eine eigene Theorie zu einem Äther für Licht und Gravitation. Huygens entdeckte mit seinem selbstgebauten Teleskop 1655 erstmals den Saturnmond Titan. Damit war der Saturn der zweite Planet nach dem Jupiter (von der Erde abgesehen), bei dem ein Mond nachgewiesen werden konnte (Galileo Galilei hatte schon 1610 die vier größten Jupitermonde entdeckt). Außerdem erkannte er, dass das, was Galilei als Ohren des Saturns bezeichnet hatte, in Wirklichkeit die Saturnringe waren. Er fand heraus, dass diese Ringe keine Verbindung zum Planeten hatten und ihr geheimnisvolles Verschwinden alle 14 Jahre dadurch zustande kam, dass man sie dann genau von der Seite sah, sie aber zu dünn waren, um von der Erde aus noch wahrgenommen werden zu können. Viele Wissenschaftler schreiben Huygens Entdeckung nicht seinem fortschrittlichen Teleskop zu, sondern seinen mathematischen Fähigkeiten. Weitere astronomische Leistungen Huygens’ waren die Entdeckung der Rotationsbewegung des Mars und die Berechnung der Rotationsperiode (Marstag) mit ungefähr 24 Stunden sowie die Auflösung der hellsten Region des Orionnebels als ausgedehnten leuchtenden Bereich. Diese wird ihm zu Ehren auch Huygenssche Region genannt. Er entdeckte ferner weitere Nebel und Doppelsternsysteme und äußerte die Vermutung, dass die Venus von einer dichten Wolkenhülle verhangen sei. Mechanik, Pendeluhr und Exoplaneten Neben der Astronomie interessierte sich Huygens besonders für Mechanik. Seit seiner Jugend wurde er, durch die Vermittlung seiner Vaters, von Marin Mersenne gefördert, der ihn an seinen damals neuartigen Aufgaben und Problemstellungen teilhaben ließ. Huygens reformulierte die Stoßgesetze und befasste sich mit Fliehkräften. Beide Bereiche der Mechanik spielten in der damals vielbeachteten Cartesischen Physik eine grundlegende Rolle. In der Anwendung des Trägheitsprinzips gelang es zuerst Huygens, den Betrag der wirkenden Fliehkraft auf eine rotierende, träge Masse durch mathematische Proportionen anzugeben. Dabei handelt es sich in moderner Zusammenfassung um das Zentrifugalgesetz , wobei m die Masse des Körpers, v die konstante Bahngeschwindigkeit auf seiner Kreisbahn von Radius r ist. Seine Untersuchungen von Schwingungen und Pendelbewegungen konnte er zum Bau von Pendeluhren nutzen. Schon Galilei hatte eine solche entworfen, aber nicht gebaut. Huygens konnte seine Uhr hingegen zum Patent anmelden. Die in seinem Auftrag von Salomon Coster gebauten Uhren wiesen eine Ganggenauigkeit von zehn Sekunden pro Tag auf, eine Präzision, die erst hundert Jahre danach überboten werden konnte. Später konstruierte er auch Taschenuhren mit Spiralfedern und Unruh. Christiaan Huygens veröffentlichte 1673 in seiner Abhandlung Horologium Oscillatorium eine ganggenaue Pendeluhr mit einem Zykloidenpendel, bei dem er sich die Tatsache zunutze machte, dass die Evolute der Zykloide selber wieder eine Zykloide ist. Der Vorteil in der Ganggenauigkeit wird jedoch durch den Nachteil der erhöhten Reibung wieder ausgeglichen. Von ihm stammt auch die früheste bekannte Uhr zur Bestimmung des Längengrades, die mehrere revolutionäre Techniken aufwies, und als deren Urheber er erst vor einiger Zeit wieder erkannt wurde. In seiner letzten wissenschaftlichen Abhandlung 1690 formulierte Huygens den Gedanken, dass es noch viele andere Sonnen und Planeten im Universum geben könnte, und spekulierte bereits über außerirdisches Leben. Von Huygens stammt auch die korrekte Ableitung der Gesetze des Elastischen Stoßes, wobei er von einem Relativitätsprinzip Gebrauch macht (siehe Galilei-Transformation). Er veröffentlichte seine Ergebnisse, die aus den 1650er Jahren stammten und die falsche Behandlung bei René Descartes korrigierten, 1669 (Philosophical Transactions of the Royal Society, Journal des Savants) und in seinem postum erschienenen Buch De motu corporum ex percussione von 1703. Christiaan Huygens und Samuel Sorbière (1617–1670) waren die ersten beiden ausländischen Wissenschaftler, die im Juni 1663 in die Royal Society aufgenommen wurden. 1666 wurde Huygens der erste Direktor der in diesem Jahr gegründeten französischen Akademie der Wissenschaften. Was seine Behandlung der Mechanik betrifft, so besaß Huygens das Talent, ursprüngliche und intuitiv für richtig erkannte Ideen aus seiner frühen Schaffensphase in späteren gereiften Schriften mit mathematisch-deduktiver Strenge auszubauen. Einzelne mechanische Gesetze nach Galilei oder Descartes konnte er auf diese Weise erweitern und korrigieren sowie durch eigene experimentelle Ergebnisse bestätigen. Er musste seine Grundsätze niemals verändern oder revidieren. Huygens zeigte keine Eile bei der Veröffentlichung seiner Schriften, viele blieben über Jahrzehnte und bis zu seinem Lebensende liegen. Eine Besonderheit der wissenschaftlichen Methode Huygens’ ist, dass er allgemeine Konzeptionen nur auf das einzelne zu erklärende Phänomen ausrichtet und begrenzt. In dieser Hinsicht wird er heute noch von Historikern als ein „perfekter Wissenschaftler“ bezeichnet. Huygens’ Überzeugung in seine Verfahrensweisen ging so weit, dass er sich von Ratschlägen und Vorarbeiten seiner Lehrer (Mersenne und van Schooten) und Kollegen abwandte und stattdessen eigene mechanische Prinzipien errichtete (etwa das o. g. Relativitätsprinzip für Stoßvorgänge oder eine Erweiterung des Prinzips von Torricelli), um damit Gesetzmäßigkeiten aus vorrangigen Forschungsthemen seiner Zeit – das waren vor allem die Theorie der Stoßvorgänge und der Massenschwingungen – zu entdecken und zu beweisen. Bezogen auf den Schwingungsmittelpunkt schreibt er: Huygens’ originelles Vorgehen hat ihm zu Lebzeiten nicht nur große Anerkennung, sondern auch Zweifel und Kritik unter Fachkollegen eingebracht. Newton bezeichnete ihn als den elegantesten Mathematiker seiner Zeit. Ernst Mach beschreibt die besondere Leistung Huygens’ für die klassische Mechanik folgendermaßen: Akustik (Musik) Huygens entdeckte die Beziehungen zwischen Schallgeschwindigkeit, Länge und Tonhöhe einer Pfeife. Er beschäftigte sich intensiv mit der mitteltönigen Stimmung und berechnete 1691 die Teilung der Oktave in 31 gleiche Stufen, um den Fehler des pythagoreischen Kommas im Tonsystem der Musik zu beheben. Lebensabend In den 1680er Jahren verschlechterte sich Huygens’ Gesundheitszustand, so dass er sein Familienhaus nicht mehr häufig verließ. In den letzten Jahren seines Lebens beschäftigte sich der Wissenschaftler mit der Musiktheorie. Am 8. Juli 1695 starb Christiaan Huygens mit 66 Jahren in Den Haag (Voorburg) unverheiratet und kinderlos. Ehrungen Huygens-Okular Mons Huygens Cassini-Huygens-Mission (2801) Huygens Er ist zusammen mit seinem Vater Constantijn Huygens Namensgeber des Huygens-Institut für die Geschichte der Niederlande. Schriften (Auswahl) Einzelne Schriften (Auswahl) De ratiociniis in ludo aleae, 1657 (über Wahrscheinlichkeitstheorie); holländische Übersetzung von Frans van Schooten: Van reeckening in spelen van geluck. De vis centrifuga, 1673; deutsch: Über die Zentrifugalkraft, herausgegeben von Felix Hausdorff, 1903. Horologium oscillatorium sive de motu pendularium, 1673 (über die Pendeluhr; auch in Band 18 der Gesammelten Werke); deutsch: Die Pendeluhr. Ostwalds Klassiker, 1913. Traité de la lumière, 1690 (Abhandlung über Reflexion und Refraktion, Wellentheorie des Lichts); deutsch: Abhandlung über das Licht. W. Engelmann, Leipzig 1890 (Digitalisat). Lettre touchant le cycle harmonique, Rotterdam 1691 (über sein Tonsystem). Postume Veröffentlichungen Cosmotheoros. 1698 (mit Spekulationen über außerirdisches Leben; die Schrift wurde im Todesjahr 1695 vollendet) Weltbeschauer, oder vernünftige Muthmaßungen, daß die Planeten nicht weniger geschmükt und bewohnet seyn, als unsere Erde. Zürich 1767 (Digitalisat); eine weitere deutsche Übersetzung von v. Wurzelbau erschien 1703 sowie 1743 in Leipzig. Opuscula posthuma. Lyon 1703, Darin enthalten: De motu corporum ex percussione (Erstveröffentlichung der von Huygens 1656 verfassten Abhandlung über die elastischen Stoßgesetze. De Vi Centrifuga (Erstveröffentlichung der 1659 verfassten Gesetze über die Zentrifugalkraft). Descriptio automati planetarii (der Beschreibung des Baus von Planetarien). Weblink: https://dlc.mpg.de/!metadata/868445207/1/-/ ); (abgerufen am 3. November 2022). Christian Huygens’ nachgelassene Abhandlungen: Über die Bewegung der Körper durch den Stoss; Über die Centrifugalkraft, herausgegeben von Felix Hausdorff. W. Engelmann, Leipzig 1903. (Erste deutschsprachige Ausgabe der Abhandlungen De motu corporum ex percussione und De Vi Centrifuga aus den Opuscula posthuma von 1703, mit vielen Anmerkungen versehen. Digitalisat). Korrespondenz Korrespondenz zwischen Johannes Hevelius und Christiaan Huygens (Digitalisat). Französische Gesamtausgabe Oeuvres complètes, 22 Bände. Den Haag 1888 bis 1950. Herausgeber: D. Bierens de Haan, Johannes Bosscha, Diederik Johannes Korteweg, Albertus Antonie Nijland, J. A. Vollgraf. Tome I: Correspondance 1638–1656 (1888). Tome II: Correspondance 1657–1659 (1889). Tome III: Correspondance 1660–1661 (1890). Tome IV: Correspondance 1662–1663 (1891). Tome V: Correspondance 1664–1665 (1893). Tome VI: Correspondance 1666–1669 (1895). Tome VII: Correspondance 1670–1675 (1897). Tome VIII: Correspondance 1676–1684 (1899). Tome IX: Correspondance 1685–1690 (1901). Tome X: Correspondance 1691–1695 (1905). Tome XI: Travaux mathématiques 1645–1651 (1908). Tome XII: Travaux mathématiques pures 1652–1656 (1910). Tome XIII, Fasc. I: Dioptrique 1653, 1666 (1916). Tome XIII, Fasc. II: Dioptrique 1685–1692 (1916). Tome XIV: Calcul des probabilités. Travaux de mathématiques pures 1655–1666 (1920). Tome XV: Observations astronomiques. Système de Saturne. Travaux astronomiques 1658–1666 (1925). Tome XVI: Mécanique jusqu’à 1666. Percussion. Question de l’existence et de la perceptibilité du mouvement absolu. Force centrifuge (1929). Tome XVII: L’horloge à pendule de 1651 à 1666. Travaux divers de physique, de mécanique et de technique de 1650 à 1666. Traité des couronnes et des parhélies (1662 ou 1663) (1932). Tome XVIII: L’horloge à pendule ou à balancier de 1666 à 1695. Anecdota (1934). Tome XIX: Mécanique théorique et physique de 1666 à 1695. Huygens à l’Académie royale des sciences (1937). Tome XX: Musique et mathématique. Musique. Mathématiques de 1666 à 1695 (1940). Tome XXI: Cosmologie (1944). Tome XXII: Supplément à la correspondance. Varia. Biographie de Chr. Huygens. Catalogue de la vente des livres de Chr. Huygens (1950). Literatur Hugh Aldersey-Williams: Die Wellen des Lichts. Christiaan Huygens und die Erfindung der modernen Naturwissenschaft. Hanser Verlag, München 2021, ISBN 978-3-446-27170-8. V. I. Arnold: Newton and Barrow, Huygens and Hooke. Pioneers in Mathematical Analysis and Catastrophe Theory from Evolvents to Quasicrystals. Birkhäuser, Basel u. a. 1990, ISBN 3-7643-2383-3. Arthur Ernest Bell: Christian Huygens and the development of Science in the 17. century. Edward Arnold, London 1947. Henk J. M. Bos: Christiaan Huygens. Charles Coulston Gillispie (Hrsg.): Dictionary of Scientific Biography, Band 6: Jean Hachette – Joseph Hyrtl. Scribner, New York NY 1972, ISBN 0-684-10117-3, S. 597–613. Henk J. M. Bos: Christiaan Huygens. In: Henk J. M. Bos (Hrsg.): Lectures in the History of Mathematics (= History of Mathematics. Band 7). American Mathematical Society u. a., Providence RI 1993, ISBN 0-8218-9001-8, S. 59–81. Henri L. Brugmans: Le Séjour de Christian Huygens à Paris et ses relations avec les milieux scientifiques français, suivi de son Journal de voyage à Paris et à Londres. Droz, Paris 1935. Eduard Jan Dijksterhuis: Christiaan Huygens. Bij de voltooiing van zijn oeuvres complètes (= Haarlemse voordrachten. Band 10). Vordracht gehoude in de Algemene Vergadering van 13 Mei 1950. Bohn, Haarlem, 1951. Fokko Jan Dijksterhuis: Lenses and Waves. Christiaan Huygens and the Mathematical Science of Optics in the Seventeenth Century (= Archimedes. Band 9). Kluwer Academic, Dordrecht u. a. 2004, ISBN 1-4020-2697-8. Christiaan Huygens: Horologium. Reprint der Ausgabe Hagae Comitum 1658. Herausgegeben und ins Deutsche übersetzt von Karl-Ernst Becker. Eigenverlag des Herausgebers, Düsseldorf 1977. Jan Smit: Dirck Rembrantsz van Nierop, 1610–1682. Het leven en werk van een beroemd sterrenkundige, meester in de wiskonst en een uitmuntend onderwijzer voor schippers en stuurlieden. Smit, Winkel 1992. Dirk J. Struik: The land of Stevin and Huygens. A Sketch of Science and Technology in the Dutch Republic during the Golden Century (= Studies in the History of modern Science. Band 7). Reidel, Dordrecht u. a. 1981, ISBN 90-277-1236-0. Christiane Vilain: La mécanique de Christian Huygens. La relativité de mouvement au XVIIe siècle. Blanchard, Paris 1996, ISBN 2-85367-201-8. Joella G. Yoder: Unrolling time. Christiaan Huygens and the mathematization of nature. Cambridge University Press, Cambridge u. a. 1988, ISBN 0-521-34140-X. Joella G. Yoder: Christian Huygens, Book on the pendulum clock (1673). In: Ivor Grattan-Guinness (Hrsg.) Landmark Writings in Western Mathematics 1640–1940. Elsevier, Amsterdam u. a. 2005, ISBN 0-444-50871-6, S. 33–45. Einzelnachweise Weblinks Digitalisierte Werke von Huygens – SICD der Universitäten von Strasbourg Digitalisate bei Google Bücher Leibniz: Briefwechsel – Briefe von und an Huygens in Reihe 3 der Akademieausgabe (online zugänglich sind die Bände 5 und 6) Astronom (17. Jahrhundert) Physiker (17. Jahrhundert) Mathematiker (17. Jahrhundert) Statistiker (17. Jahrhundert) Auswärtiges Mitglied der Royal Society Mitglied der Académie des sciences Musiktheoretiker Persönlichkeit der Lichtmikroskopie Niederländer Geboren 1629 Gestorben 1695 Mann Person als Namensgeber für einen Marskrater
927
https://de.wikipedia.org/wiki/Claus%20Schenk%20Graf%20von%20Stauffenberg
Claus Schenk Graf von Stauffenberg
Claus Philipp Maria Schenk Graf von Stauffenberg (* 15. November 1907 auf Schloss Jettingen, Jettingen, Königreich Bayern; † 21. Juli 1944 in Berlin) war ein deutscher Berufsoffizier der Wehrmacht. Stauffenberg begrüßte 1933 die Ernennung Adolf Hitlers zum Reichskanzler und unterstützte die nationalistischen und revisionistischen Bestrebungen des Nationalsozialismus. Mit zunehmender Dauer des Zweiten Weltkriegs erkannte er den verbrecherischen Charakter der nationalsozialistischen Diktatur. Angesichts der Aussichtslosigkeit der militärischen Gesamtlage nach der deutschen Niederlage von Stalingrad entschloss er sich zur Teilnahme am aktiven Widerstand. Stauffenberg entwickelte sich neben Henning von Tresckow zu einer der zentralen Persönlichkeiten des militärischen Widerstandes innerhalb der Wehrmacht. Als Chef des Stabes beim Befehlshaber des Ersatzheeres verübte er das Attentat vom 20. Juli 1944 auf Adolf Hitler und war entscheidend an dem anschließenden Unternehmen Walküre, dem Versuch eines Staatsstreiches, beteiligt. Nach dessen Scheitern wurde Stauffenberg gemeinsam mit seinen Vertrauten Albrecht Mertz von Quirnheim, Friedrich Olbricht und Werner von Haeften in der Nacht auf den 21. Juli 1944 im Hof des Berliner Bendlerblocks standrechtlich erschossen. Kindheit und Jugend Claus Philipp Maria Schenk von Stauffenberg wurde am 15. November 1907 auf Schloss Jettingen im bayerischen Jettingen geboren; sein Zwillingsbruder Konrad Maria verstarb bereits am nächsten Tag. Er war der jüngste Sohn von Graf Alfred Schenk von Stauffenberg (1860–1936) und dessen Ehefrau Caroline geb. Gräfin von Üxküll-Gyllenband (1875–1957). Die Ahnenreihe des schwäbisch-fränkischen Adelsgeschlechts der Grafen Stauffenberg ist bis ins 13. Jahrhundert urkundlich nachweisbar, der Grundbesitz lag im bayerischen Schwaben, Württemberg und in Oberfranken. Zahlreiche Familienmitglieder hatten eine Laufbahn im Militär, als hohe Beamte oder Politiker eingeschlagen. Mutter Caroline entstammte der deutsch-baltischen Familie Üxküll-Gyllenband. Mit Alexander und Berthold hatte er zwei ältere Brüder, die ebenfalls Zwillinge waren. Der bedeutende preußische Heeresreformer August Neidhardt von Gneisenau war sein Urgroßvater mütterlicherseits, Caesar von Hofacker war Stauffenbergs Cousin. Der Vater diente dem württembergischen König Wilhelm II. als Oberhofmarschall, die Mutter war Hofdame und Gesellschafterin der Königin. Daher bewohnte die Familie eine Dienstwohnung im Stuttgarter Alten Schloss. Die Sommerfrische verbrachte sie regelmäßig in Lautlingen auf der Schwäbischen Alb. Der politische Umschwung der Novemberrevolution 1918 tangierte die Stauffenbergs wenig: Auch nach der Abdankung des Monarchen stand der Vater als Präsident der herzoglich-württembergischen Hofkammer bis zu seiner Pensionierung 1928 weiter im Dienst des Hauses Württemberg. Getreu der Familientradition wurden die Stauffenberg-Kinder im katholischen Glauben erzogen, obwohl die Mutter der evangelischen Konfession angehörte. Insgesamt spielte die Beschäftigung mit religiösen Fragen in der Erziehung eine zentrale Rolle. Als Erwachsener war Stauffenberg der Konfession, in der er erzogen worden war, allerdings nur noch sehr lose verbunden und betrachtete sie nicht als maßgeblich für seine politischen und geistigen Vorstellungen, wie sein Bruder Berthold im Gestapo-Verhör angab: Das Elternhaus war durch eine tolerante Geisteshaltung und eine aufgeklärt-liberale Atmosphäre gekennzeichnet. Mutter Caroline sorgte für eine umfassende Bildung und legte Wert auf eine gründliche Beschäftigung ihrer Söhne mit Literatur, Musik und Theater. Der musisch vielseitige Stauffenberg spielte Violoncello und entwickelte sich trotz seiner in der Jugend zarten Gesundheit zu einem passionierten Reiter. Seine Schullaufbahn begann Stauffenberg 1913 mit dem Besuch einer Stuttgarter Privatschule für Elementarunterricht, ehe er im Herbst 1916 seinen Brüdern an das traditionsreiche Eberhard-Ludwigs-Gymnasium folgte. Während der Zeit am Gymnasium schloss sich Stauffenberg dem Bund Deutscher Neupfadfinder, einer Gruppierung der Bündischen Jugend, an. Die Bewegung pflegte ritterliche Ideale, hing der mittelalterlichen Romantik nach und verehrte den symbolistischen Lyriker Stefan George. Nachdem im Frühjahr 1923 zunächst die Zwillingsbrüder und kurz darauf Stauffenberg selbst dem „Meister“ vorgestellt wurden, gehörten sie fortan zum engsten Freundeskreis in Georges elitär-platonischem „Staat“ (George-Kreis). Stauffenbergs älterem Bruder Berthold widmete George zwei Gedichte in seinem letzten Lyrikband Das Neue Reich (1928) mit dem bereits 1922 entstandenen Poem Geheimes Deutschland. Innerhalb des nationalkonservativen Kreises galt Stauffenberg als Tat-Charakter und für ihn spielte die Gedankenwelt Georges, insbesondere die Begrifflichkeit des Geheimen Deutschland, eine zentrale Rolle. Er fühlte sich dem Vermächtnis des Dichters zeitlebens verpflichtet und verehrte ihn bis an sein Lebensende vorbehaltlos. Am 5. März 1926 legte Stauffenberg das Abitur ab. Trotz regem Interesse an Architektur und zur Überraschung seiner Umgebung entschied sich der lange Zeit kränkelnde Stauffenberg für eine militärische Karriere. Werdegang in der Reichswehr Am 1. April 1926 trat Stauffenberg als Fahnenjunker in das 17. Bayerische Reiter-Regiment in Bamberg ein. Die Entscheidung für eine Laufbahn in der Reichswehr begründete er später mit seinem Tatendrang sowie dem Wunsch, dem Staat zu dienen. Angesichts der militärischen Tradition der Familie wurde diese Berufswahl insbesondere vom Vater unterstützt und begrüßt. Stauffenberg diente zunächst in Bamberg, bevor er ab Oktober 1927 den obligatorischen zehnmonatigen Fahnenjunker-Lehrgang an der Infanterieschule der Reichswehr in Dresden-Albertstadt belegte, den alle Offiziersanwärter sämtlicher Truppengattungen absolvieren mussten. Diesen schloss er am 1. August 1928 als Fähnrich ab und er wechselte umgehend an die Kavallerieschule der Reichswehr nach Hannover. Auch der dortige Lehrgang war für Offiziersanwärter verpflichtend. Die abschließende Offiziersprüfung bestand Stauffenberg als Sechstbester seines Jahrgangs und zugleich als Jahrgangsbester der Kavallerie ab, wobei er für seine hervorragenden Leistungen einen Ehrensäbel empfing. Unter Beförderung zum Leutnant erhielt Stauffenberg am 1. Januar 1930 sein Offizierspatent und übernahm anschließend den Befehl über den Minenwerfer-Zug seines Bamberger Reiter-Regiments. Dort diente er gemeinsam mit dem Offizier Peter Sauerbruch und freundete sich mit dem Sohn des berühmten Chirurgen Ferdinand Sauerbruch an. Zeit seines Lebens war Stauffenberg an Politik interessiert. Als Angehörigem der Reichswehr war ihm allerdings jede politische Demonstration oder Parteizugehörigkeit verboten und konkrete Äußerungen aus jener Zeit sind nur sehr wenige überliefert. Ebenso wie sein Bruder Berthold stand Stauffenberg in der Zeit der Weimarer Republik, der sie grundsätzlich misstrauten, der sogenannten Konservativen Revolution nahe und war ein national gesinnter, begeisterungsfähiger Patriot. Etwa seit Anfang der 1930er Jahre sympathisierte Leutnant von Stauffenberg wie viele gleichgesinnte Offiziere mit Adolf Hitler, den er als Mann der Tat mit dem Potenzial ansah, das Volk über Klassen- und Parteigrenzen hinweg hinter sich zu einen. Vor der Reichspräsidentenwahl im April 1932 sprach sich Stauffenberg für Hitler und gegen den konservativ-monarchistischen Amtsinhaber Paul von Hindenburg aus, da er im politischen Denken zahlreiche Gemeinsamkeiten sah: Obgleich die Offiziere aus Stauffenbergs Generation, darunter auch viele seiner Kameraden aus dem späteren Widerstand, den Zukunftsversprechen der nationalsozialistischen Bewegung und ihrem Führer aufgeschlossen gegenüberstanden, behielten sie aufgrund ihres elitären Selbstverständnisses auch eine bis in die Zeit des Nationalsozialismus hinein wirksame Distanz gegenüber der NSDAP und ihren Parteiorganisationen wie etwa der SA aufrecht. Dennoch erfasste die nationale Aufbruchstimmung des Jahres 1933 auch Stauffenberg, der die Ernennung Hitlers zum Reichskanzler und die anschließende Gleichschaltung ausdrücklich begrüßte. Ein Brief an Stefan George aus dem Juni 1933 verrät eine aristokratische Gesinnung und zeigt zugleich, dass er die „nationale Erhebung“ durchaus positiv sah. Am 1. Mai 1933 folgte Stauffenbergs Beförderung zum Oberleutnant. Ehe und Nachkommen Am 26. September 1933 heiratete Graf Stauffenberg in Bamberg seine langjährige Verlobte Nina Freiin von Lerchenfeld. Ihr Vater war als kaiserlicher Konsularbeamter unter anderem in Kowno und Shanghai stationiert gewesen. Die Familie Lerchenfeld gehörte zum altbayerischen Uradel. Aus der Ehe gingen fünf Kinder hervor: Berthold Maria (* 3. Juli 1934), später Generalmajor der Bundeswehr ⚭ Mechthild Gräfin von Bentzel-Sturmfeder-Horneck Heimeran (* 9. Juli 1936; † 20. Oktober 2020) Franz Ludwig (* 4. Mai 1938), Mitglied des Bundestages und des EU-Parlaments (CSU) ⚭ Elisabeth Freiin von und zu Guttenberg Valerie (* 15. November 1940; † 4. Juni 1966) ⚭ Heino von L’Estocq Konstanze (* 27. Januar 1945) ⚭ Dietrich von Schulthess-Rechberg Zuletzt lebte Stauffenbergs Witwe in der Nähe von Bamberg und engagierte sich sehr für das alte Bamberg. Sie verstarb am 2. April 2006 im Alter von 92 Jahren im bayerischen Kirchlauter (Landkreis Haßberge). Zeit des Nationalsozialismus Nach dem Tod des Reichspräsidenten Paul von Hindenburg leistete die Reichswehr am 2. August 1934 den Führereid auf die Person Adolf Hitlers. Die machtpolitische Konzentration auf einen „Führer und Reichskanzler“ entsprach grundsätzlich Stauffenbergs Verständnis von der herausragenden Rolle des Individuums in der Geschichte. Ab dem 1. September 1934 folgte für Stauffenberg eine zweijährige Verwendung als Bereiter-Offizier an der Kavallerieschule Hannover, die vornehmlich unter sportlichen Gesichtspunkten Erfüllung brachten. Neben seiner Ausbildungsverantwortung zeigte sich seine überdurchschnittliche Befähigung als Reiter und er erzielte hervorragende Ergebnisse in Dressur- und Military-Wettkämpfen. Am 1. Oktober 1936 gehörte Stauffenberg zu den ersten 100 ausgewählten Offizieren, die zur Generalstabsausbildung an die Kriegsakademie nach Berlin-Moabit abkommandiert wurden. Die von Hitler betriebene Aufrüstung der Wehrmacht erhöhte den Bedarf an Generalstabsoffizieren und die Ausbildung war mit Blick auf die schnelle Heeresvermehrung auf zwei Jahre verkürzt worden. Die Kerninhalte umfassten Taktik, Kriegsgeschichte, Heeresversorgung, Heerestransportwesen, Heeresorganisation, Wehrwirtschaft, Pionierdienst, Landbefestigung und Kartenkunde. Parallel absolvierte Stauffenberg eine Dolmetscherausbildung in Englisch und besuchte Abendvorträge der Deutschen Gesellschaft für Wehrpolitik und Wehrwissenschaften. An der Kriegsakademie lernte er Albrecht Mertz von Quirnheim und Eberhard Finckh kennen, die später ebenfalls dem militärischen Widerstand angehörten. 1937 verfasste Stauffenberg, der am 1. Januar 1937 zum Rittmeister befördert worden war, eine Arbeit über „Gedanken zur Abwehr feindlicher Fallschirmeinheiten im Heimatgebiet“, mit der er ein Preisausschreiben der Deutschen Gesellschaft für Wehrpolitik und Wehrwissenschaften gewann. Die Arbeit wurde in der Militärfachzeitschrift Wissen und Wehr veröffentlicht. Eine zweite wissenschaftliche Studie beschäftigte sich mit dem Zusammenwirken von Heereskavallerie und Panzerverbänden und hob die Bedeutung einer operativen Beweglichkeit der Kampfführung hervor. Hierbei sei die Verwendung einer Kavallerie neben Panzerverbänden ausschlaggebend: Nach erfolgreicher Absolvierung der Kriegsakademie führte Stauffenbergs erste Stabsverwendung zur 1. Leichten Division nach Wuppertal. Dort trat er am 1. Juli 1938 den Posten als Zweiter Generalstabsoffizier (1b) an und war damit für die Divisionsversorgung zuständig. Sein Vorgesetzter war Generalleutnant Erich Hoepner. Stauffenberg bescheinigte man „großes Organisationstalent“ und er entwickelte anerkannte Qualitäten im Planen, Beschaffen und Versorgen. Die Division beteiligte sich nach dem Münchner Abkommen im Oktober 1938 am deutschen Einmarsch in das Sudetenland. Zweiter Weltkrieg Überfall auf Polen Im August 1939 erfolgte die Mobilmachung und Verlegung der 1. Leichten Division nach Schlesien. Dort unterstand sie als Teil der Heeresgruppe Süd der 10. Armee unter General der Artillerie Walter von Reichenau, die mit ihren motorisierten Verbänden den Hauptangriff auf die polnische Hauptstadt Warschau führen sollte. Den folgenden Kriegsausbruch am 1. September 1939 empfand der Berufssoldat Stauffenberg als „Erlösung“ und mit seiner Division marschierte er im Südwesten Polens ein. Nach der Besetzung Wieluńs am 2. September überschritt sie die Warthe und stieß bis zum 12. September nach Radom vor. Der im Tempo des Blitzkrieges vorgetragene schnelle Vormarsch bereitete der Wehrmacht und auch Stauffenberg als verantwortlichem Quartiermeister logistische Schwierigkeiten. Während des Feldzugs ließ Stauffenberg einen deutschen Offizier vor ein Militärgericht stellen, der zwei polnische Frauen hatte erschießen lassen. In einem Brief an seine Frau schilderte Stauffenberg seine Fronterfahrungen und Eindrücke aus Polen: Der Historiker Heinrich August Winkler führt das Briefzitat als Beleg dafür an, dass Stauffenberg zu dieser Zeit die nationalsozialistische Rassenpolitik grundsätzlich bejahte, wenn er sie auch für überspitzt hielt. Auch der israelische Historiker Saul Friedländer nimmt an, dass sich Stauffenbergs Haltung gegenüber dem Judentum nur graduell, aber nicht prinzipiell vom Antisemitismus der Nationalsozialisten unterschieden habe. Der Stauffenberg-Biograf Peter Hoffmann lehnt den Begriff „Antisemit“ für Stauffenberg dagegen ab und will den Feldpostbrief im Zusammenhang interpretiert haben. Auch seine Enkelin Sophie von Bechtolsheim sieht hier Stauffenberg auch als ein Kind seiner Zeit, aber lehnt es ab, aus diesem einen Zitat zentrale Aspekte der Persönlichkeit ihres Großvaters abzuleiten. Zum Ende der Kampfhandlungen in Polen stand Stauffenbergs Division zwischen Modlin und Warschau. Anschließend wurde die 1. Leichte Division an den Standort Wuppertal zurückgeführt und am 18. Oktober 1939 zur 6. Panzer-Division umgegliedert. Unter dem Befehl von Generalmajor Werner Kempf wurde sie sodann in ihren Bereitstellungsraum an der Westfront verlegt. Stauffenberg behielt seine Stellung als 1b im Divisionsstab. Westfeldzug Im Westen verharrte die Front in der passiven Phase des Sitzkrieges. Der Oberbefehlshaber des Heeres Walther von Brauchitsch und Generalstabschef Franz Halder hielten den von Hitler angekündigten militärischen Konflikt mit den Westmächten für nicht vertretbar. Kurzzeitig näherten sie sich der militärischen Opposition an und erklärten sich um die Jahreswende 1939/40 bereit, Hitler zu verhaften, sobald er den Angriffsbefehl geben würde. Peter Graf Yorck von Wartenburg und Ulrich Wilhelm Graf Schwerin von Schwanenfeld, die dem militärischen Widerstand bereits seit der Septemberverschwörung angehörten, baten Stauffenberg, sich zum Adjutanten Brauchitschs ernennen zu lassen, um an einem geplanten Umsturzversuch teilnehmen zu können. Stauffenberg, seit Januar 1940 Hauptmann i. G., lehnte die Bitte seines weitläufig Verwandten Yorck von Wartenburg mit Verweis auf den Führereid ab. Auch Brauchitsch und Halder ordneten sich Hitler schließlich unter und nahmen von einem Putsch Abstand. Stauffenbergs 6. Panzer-Division unterstand der Panzergruppe Kleist (Heeresgruppe A) und bildete nach Beginn der deutschen Offensive am 10. Mai 1940 einen Stoßkeil des Vormarschs durch die Ardennen. Dieser Angriff durch das vermeintlich verkehrshemmende Waldgebirge kam für die französische Heeresleitung unerwartet und war der Ausgangspunkt des kriegsentscheidenden Sichelschnittplans. Während der anschließenden Schlacht bei Sedan überquerte die Division bei Monthermé die Maas und stieß nahezu ungehindert bis zum Ärmelkanal vor. In einem Feldpost-Brief vom 19. Mai 1940 zeigte sich Stauffenberg von dem sich abzeichnenden militärischen Sieg über Frankreich tief beeindruckt: Noch vor Abschluss der Westoffensive wurde Stauffenberg von seiner Panzer-Division abgezogen und am 27. Mai 1940 zum Oberkommando des Heeres (OKH) versetzt. Für seine militärischen Leistungen erhielt er am 31. Mai 1940 das Eiserne Kreuz 1. Klasse. Im Oberkommando des Heeres Innerhalb des OKH übernahm Stauffenberg die Leitung der Gruppe II der Organisationsabteilung („Organisation im Frieden und Kriegsspitzengliederung“). Er war in eine Schlüsselstellung eingerückt, die ihm Einsichten gewährte, die dem normalen Generalstabsoffizier versagt blieben. In der Abteilung wurden die organisatorischen Angelegenheiten des Feldheeres bearbeitet: Bewaffnung, Ausrüstung, Kommandostruktur, Spitzengliederung, Neuaufstellungen, Planung und Materialhaltung. In Erwartung einer Invasion Großbritanniens (Unternehmen Seelöwe) verblieb die Kommandobehörde nach dem Sieg über Frankreich zunächst im Westen. Nach Hitlers Entschluss die Sowjetunion anzugreifen (Weisung Nr. 21), kehrte das OKH in das Hauptquartier nach Wünsdorf zurück. Stauffenbergs Referat arbeitete an der organisatorischen Vorbereitung des Unternehmens Barbarossa mit. Seine Beförderung zum Major i. G. erging im April 1941. Nach dem deutschen Angriff auf die Sowjetunion bezog das Oberkommando am 23. Juni 1941 das OKH Mauerwald in Ostpreußen. Im Dezember 1941 hieß von Stauffenberg die Vereinheitlichung der Befehlsgewalt des Oberbefehlshabers des Heeres und des Obersten Befehlshabers der Wehrmacht in Hitlers Händen gut. Als Gruppenleiter im Oberkommando des Heeres gehörte er zu den maßgebenden Offizieren, die bewusst auf einen Wandel der Politik in den besetzten Gebieten hinarbeiteten. Besonders im Zusammenhang mit der Kampfführung der in den Kaukasus vordringenden Heeresgruppe A hatte er sich den Fragen der Freiwilligen in den sogenannten Ostlegionen zugewandt. Es ging um die Gewinnung von entlassenen Kriegsgefangenen und Überläufern für den Kampf auf deutscher Seite. Hierzu gab seine Abteilung am 2. Juni 1942 Richtlinien für die Behandlung turkestanischer und kaukasischer Soldaten heraus und steuerte im August 1942 die Organisation wie auch den Einsatz der Ostlegionen. Am 1. Januar 1943 wurde Stauffenberg zum Oberstleutnant i. G. befördert. Nordafrika Nach über zwei Jahren im Stabsdienst bat Stauffenberg um eine Frontverwendung und er wurde im März 1943 als Erster Generalstabsoffizier (Ia) zur 10. Panzer-Division versetzt. Diese lag in Nordafrika und unterstand der 5. Panzerarmee, die den Rückzug von Erwin Rommels Panzergruppe Afrika gegen die Alliierten abdeckte. Bei Stauffenbergs Ankunft auf dem tunesischen Kriegsschauplatz war die deutsche Strategie bereits gescheitert. Ohne Nachschub und mit ständig abnehmender Kampfkraft war die Lage der Achsenmächte aussichtslos und sie hatten der alliierten Übermacht letztlich nichts entgegenzusetzen. Mit seinem neuen Kommandeur, Generalmajor Friedrich von Broich, verband Stauffenberg gleich ein Vertrauensverhältnis und seine herausragenden militärischen Fähigkeiten machten ihn zu einem geschätzten Offizier. Während des Rückzugs seiner Division nach Mezzouna geriet Stauffenbergs Kübelwagen am 7. April 1943 unter Beschuss britischer Jagdflieger und er wurde schwer verwundet. Man brachte Stauffenberg in ein Feldlazarett bei Sfax und dort mussten seine zerschossene rechte Hand sowie Ring- und Kleinfinger der linken Hand amputiert werden. Weil ein Geschoss bis in den Schädelknochen gelangt war, verlor er sein linkes Auge. Wenig später wurde Stauffenberg in das Kriegslazarett 950 nach Tunis-Carthago überführt und gelangte von dort am 21. April in das Reservelazarett München 1, wo er in der chirurgischen Abteilung von Max Lebsche behandelt wurde, mit dem er über eine bayerisch-österreichische Nachkriegslösung sprach. Ungeachtet zusätzlicher Kniegelenk- und Mittelohr-Operationen lehnte Stauffenberg die Einnahme von Schmerzmitteln ab und mit der linken Hand, soweit noch gebrauchsfähig, lernte er schreiben. Zahlreiche Besucher strömten an Stauffenbergs Krankenbett, der aus den Händen des Generalstabschefs Kurt Zeitzler das Goldene Verwundetenabzeichen und am 8. Mai 1943 das Deutsche Kreuz in Gold erhielt. In München wurde Stauffenberg durch seinen Onkel Nikolaus Graf von Üxküll-Gyllenband betreut, der große Hoffnungen in seinen Neffen setzte und ihn beschwor, aktiv in den Widerstand einzutreten. Stauffenberg reiste auch zu dem berühmten Chirurgen Ferdinand Sauerbruch nach Berlin. Nach zehnwöchigem Aufenthalt im Lazarett kehrte Stauffenberg am 3. Juli 1943 zu seiner Familie nach Lautlingen zurück. Abkehr von Hitler Während der Stabsoffizier Henning von Tresckow sich bereits im Herbst 1941 der Berliner Widerstandsgruppe um Ludwig Beck, Carl Friedrich Goerdeler und Hans Oster angeschlossen hatte, fühlte sich von Stauffenberg wie viele andere Militärs zunächst weiter durch seinen Treueid an Hitler gebunden. Erst im Herbst 1943 ließ er sich nach Berlin versetzen und suchte dort bewusst Kontakt zu den Hitlergegnern um General der Infanterie Friedrich Olbricht, dem Leiter des Allgemeinen Heeresamtes, und von Tresckow. Er war sich bewusst, dass nur die Wehrmacht als einzige von der Geheimen Staatspolizei (Gestapo) und vom Sicherheitsdienst (SD) kaum infiltrierte Organisation über die nötigen Machtmittel zum Umsturz verfügte. Gemeinsam mit seinem Bruder Berthold und mit den Mitgliedern des Kreisauer Kreises war er an den Entwürfen zu Regierungserklärungen für die Zeit nach dem Umsturz beteiligt. Die Verschwörer legten ihre Ziele auf die Beendigung des Krieges und der Judenverfolgung und auf die Wiederherstellung des Rechtsstaates fest, wie er bis 1933 bestanden hatte. Auf eine angestrebte Staatsform konnten sie sich nicht einigen. Ein Großteil der aus den konservativen Kreisen von Bürgertum, Adel und Militär stammenden Verschwörer lehnte die parlamentarische Demokratie ab, so auch von Stauffenberg. Andererseits scheint Stauffenberg trotz (oder sogar wegen) teils elitär-paternalistischer Wertvorstellungen auch eine Sympathie für einen „Preußischen Sozialismus“ gehabt zu haben. Er forderte die Aufnahme von Sozialdemokraten wie Julius Leber in die neu zu bildende Regierung, den er zeitweise sogar für das Amt des Reichskanzlers favorisiert haben soll. Durch Vermittlung seines Cousins Peter Graf Yorck von Wartenburg hatte er Leber kennengelernt. Es entstand ein enges Vertrauensverhältnis. Laut dem Mitverschwörer Hans Bernd Gisevius erstrebte der engere Kreis um von Stauffenberg ab 1944 ein Bündnis mit den Kommunisten, um eine möglichst breite Unterstützung für den Umsturz und eine danach zu erschaffende Neuordnung des Staates zu erlangen. Am 22. Juni 1944 kam es in Absprache mit von Stauffenberg zu einem Gespräch zwischen den Sozialdemokraten Julius Leber und Adolf Reichwein und den Kommunisten Anton Saefkow und Franz Jacob, die in Berlin an der Spitze des kommunistischen Widerstandes standen. Weitere Treffen sollten folgen, da das Gespräch äußerst konstruktiv verlief. Doch von Stauffenbergs Vertrauter Julius Leber wurde infolge des Treffens mit den Vertretern der Saefkow-Jacob-Bästlein-Organisation verhaftet, bei dem auch ein Spitzel der Gestapo (Ernst Rambow) anwesend war. Die Bestrebungen, die Kommunisten in die Planungen des Umsturzes enger einzubinden, scheiterten insofern in erster Linie an der Repression der Verfolger. Nach der Verhaftung Lebers Anfang Juli 1944 soll von Stauffenberg gegenüber Adam von Trott zu Solz immer wieder erklärt haben: „Ich hole ihn heraus.“ Für Lebers Rettung schien aus Sicht von Stauffenberg kein Preis zu hoch zu sein. Schließlich vertrat er die Ansicht, das Wichtigste sei zunächst die Beseitigung des NS-Regimes, alles andere werde sich dann finden. Innerlich stand Stauffenberg auch Fritz-Dietlof Graf von der Schulenburg sehr nahe, der ein möglichst breites Netzwerk der Verschwörung schrittweise ausbaute. Im Juli 1944 traf der engere Verschwörerkreis in Berlin-Wannsee im Haus Bertholds zusammen. Sie legten einen von Rudolf Fahrner und Berthold entworfenen Eid ab, in dem sie sich auf ein gemeinsames Handeln nach dem Staatsstreich, selbst im Falle der Besetzung Deutschlands, verpflichteten. Wegen dieser elitären, als „antidemokratisch“ und „nationalistisch“ interpretierten Haltung, die bis in die Formulierungen hinein dem Denken des George-Kreises verpflichtet war, glaubt der britische Historiker Richard J. Evans, dass von Stauffenberg an zukunftsweisendem politischen Gedankengut „nichts zu bieten“ hatte. „Als Vorbild für künftige Generationen“ sei er „schlecht geeignet“. Operation „Walküre“ Die Planung Aus Schonungsgründen stellte Generalstabschef Zeitzler den schwerverwundeten Stauffenberg bis auf weiteres dem Befehlshaber des Ersatzheeres in Berlin zur Verfügung. Diese Versetzung kam General Friedrich Olbricht, dem Leiter des Allgemeinen Heeresamtes und führenden Kopf der militärischen Verschwörung, gelegen, weil er um Stauffenbergs innere Wende wusste. Mitte September 1943 zog Stauffenberg in die Villa seines Bruders Berthold nach Berlin-Nikolassee und trat seine neue Stellung im Heeresamt am 1. Oktober 1943 offiziell an. Er unterstand Olbricht, womit er fortan dem inneren Zirkel des militärischen Widerstands im Bendlerblock angehörte und baute mit dessen Förderung ein militärisch-oppositionelles Netz auf. Gemeinsam mit Olbricht, Albrecht Mertz von Quirnheim und Henning von Tresckow arbeitete Stauffenberg die Planungen für das Unternehmen Walküre aus. Offiziell diente der Operationsplan der Niederwerfung möglicher Unruhen im Inneren, etwa bei einem Aufstand der zahlreichen Zwangsarbeiter. Stauffenberg und Tresckow fügten dem Plan einige weitere Befehle hinzu und machten so aus Walküre einen getarnten Umsturzplan für einen Staatsstreich. Er sah vor, die Ermordung Hitlers zunächst einer Gruppe „frontfremder Parteifunktionäre“ anzulasten, um damit einen Grund für die Verhaftung der Angehörigen von NSDAP, SS, Sicherheitsdienst und Gestapo zu haben. Die Befehlshaber der Wehrkreiskommandos im gesamten Großdeutschen Reich sollten sofort nach der Auslösung von Walküre entsprechende Befehle erhalten. Das Militär sollte die ausführende Gewalt übernehmen. Für Stauffenberg sahen die Umsturzpläne den Rang eines Staatssekretärs im Reichskriegsministerium vor. Er koordinierte die Attentatspläne mit Carl Friedrich Goerdeler und Generaloberst Ludwig Beck und hielt Verbindung zum zivilen Widerstand um Julius Leber, Wilhelm Leuschner sowie zu den Mitgliedern des Kreisauer Kreises, zu dem auch sein Cousin Peter Graf Yorck von Wartenburg gehörte. Nach der Verhaftung Helmuth James Graf von Moltkes im Januar 1944 fanden keine Treffen des Kreisauer Kreises mehr statt. Die Mehrheit der Mitglieder stellte sich von Stauffenberg – trotz Moltkes Vorbehalten gegen eine Tötung Hitlers – zur Verfügung. Spätestens mit der erfolgreichen Invasion der Alliierten in der Normandie am 6. Juni 1944 war deutlich geworden, dass eine militärische Niederlage und damit ein „Zusammenbruch“ des Deutschen Reichs wohl nicht mehr abwendbar war. Stauffenberg fühlte sich aus ähnlichen Gründen wie Tresckow dennoch verpflichtet, die Vorbereitungen zum Staatsstreich durch eine gewaltsame Beseitigung der nationalsozialistischen Führung voranzutreiben: Mitte Juni 1944 wurde Stauffenberg Chef des Stabes des Befehlshabers des Ersatzheeres Generaloberst Friedrich Fromm und am 1. Juli 1944 zum Oberst i. G. befördert. Damit saß er nun gemeinsam mit Olbricht und Mertz von Quirnheim in der Schaltzentrale für die geplante Operation Walküre und erhielt Zugang zu den Lagebesprechungen in den Führerhauptquartieren. Ein heikler Punkt des Plans war, dass von Stauffenberg sowohl das Attentat ausführen, als auch von Berlin aus den Staatsstreichversuch leiten musste. Bereits am 11. Juli auf dem Berghof und am 15. Juli im Führerhauptquartier Wolfsschanze versuchte von Stauffenberg, Adolf Hitler zu töten. Beide Versuche brach er vorzeitig ab, weil entweder Heinrich Himmler und/oder Hermann Göring nicht anwesend waren. Ein drittes Mal sollte der Anschlag unter keinen Umständen verschoben werden. Attentat und Staatsstreich Die nächste Gelegenheit ergab sich rein zufällig am 18. Juli, als von Stauffenberg für den übernächsten Tag ins Führerhauptquartier bestellt wurde, um dort über geplante Neuaufstellungen von Truppen zu berichten. Die Widerstandsgruppe hatte bereits die Mitglieder einer Nachfolgeregierung bestimmt. Es musste nur noch Hitler „beseitigt“ werden. Von Stauffenberg flog am 20. Juli um 8:00 Uhr mit seinem Adjutanten, Oberleutnant Werner von Haeften, vom Flugplatz Rangsdorf bei Berlin zur Wolfsschanze bei Rastenburg in Ostpreußen. Da die Besprechung wegen eines geplanten Besuchs von Benito Mussolini unerwartet um eine halbe Stunde vorverlegt wurde, gelang es ihm nur noch, mit einer speziell für ihn angepassten Zange (er besaß nur noch drei Finger an seiner linken Hand), eines der beiden Sprengstoffpäckchen mit einem aktivierten britischen Bleistiftzünder (chemisch-mechanischen Zeitzünder) zu versehen. Das zweite Sprengstoffpäckchen, das die Sprengwirkung zweifellos erhöht hätte, steckte er nicht mit in seine Aktentasche. Dazu kam, dass die Besprechung nicht wie üblich in einem Betonbunker, sondern in einer leichten Holzbaracke stattfand und die Sprengladung so nicht die erhoffte Wirkung entfalten konnte. Von Stauffenberg stellte sie etwa zwei Meter entfernt von Hitler neben einem massiven Tischblock (der wohl die Wirkung weiter abschwächte) ab und verließ die Baracke unter dem Vorwand, telefonieren zu müssen. Die Sprengladung detonierte um 12:42 Uhr in der mit 24 Personen gefüllten Holzbaracke. Hitler und weitere 19 Anwesende überlebten die Detonation. Von Stauffenberg und Haeften konnten in der allgemeinen Verwirrung nach dem Anschlag die Wolfsschanze rechtzeitig verlassen, warfen die verbleibende Sprengladung auf der Fahrt zum Flugplatz Rastenburg aus dem offenen Wagen und flogen nach Berlin zurück, im festen Glauben, Hitler sei tot. Bereits wenige Minuten nach der Explosion gelangte aber die Nachricht, dass Hitler überlebt hatte, nach Berlin: Propagandaminister Joseph Goebbels erhielt bereits gegen 13 Uhr in Berlin telefonisch Kenntnis vom misslungenen Attentat. Kurz darauf bestätigte der Mitverschwörer Oberst Hahn dem General Thiele im Bendlerblock in einem weiteren Telefonat aus der Wolfsschanze ausdrücklich, dass Hitler das Attentat überlebt habe. Thiele benachrichtigte die Generäle Friedrich Olbricht und Hoepner von den Ferngesprächen, sie einigten sich darauf, Walküre zunächst noch nicht auszulösen. Noch während von Stauffenberg auf dem Rückflug nach Berlin war, bekam Heinrich Müller, Chef der Geheimen Staatspolizei (Gestapo), den Auftrag, von Stauffenberg zu verhaften. Gegen 15:45 Uhr landete von Stauffenberg in Berlin, beteuerte in einem Telefonat mit Olbricht wahrheitswidrig, dass er mit eigenen Augen gesehen habe, dass Hitler tot sei, und begab sich zu Olbricht in den Bendlerblock. Erst gegen 16:30 Uhr, fast vier Stunden nach dem Attentat, wurde Walküre ausgelöst. Es zeigten sich jetzt aber schwere Mängel in Vorbereitung und Durchführung des Umsturzversuchs. So zog sich das Aussenden der Fernschreiben aus dem Bendlerblock in die Wehrkreise über Stunden hin und kreuzte sich bereits ab etwa 16 Uhr mit Fernschreiben aus der Wolfsschanze, dass Befehle aus dem Bendlerblock ungültig seien. Die meisten Offiziere außerhalb des Bendlerblocks verhielten sich wegen dieser widersprüchlichen Lage abwartend. Die Fernschreiben der Verschwörer mit den Walküre-Befehlen wurden weitgehend nicht befolgt. Zwar hielten sich Georg und Philipp Freiherr von Boeselager bereit, um mit ihren Regimentern auf das „führerlose“ Berlin zu marschieren, und von Stauffenberg, Olbricht, Mertz von Quirnheim und Haeften ließen Generaloberst Fromm verhaften, der sie bis dahin gedeckt hatte, aber angesichts der unsicheren Nachrichtenlage von einer Beteiligung an dem Umsturzversuch nichts mehr wissen wollte. Der Einmarsch der Truppen unterblieb aber, und am späten Abend meldete sich Hitler selbst in einer Rundfunkansprache zu Wort. Das Ende des Staatsstreichversuches Gegen 22:30 Uhr verhaftete eine Gruppe regimetreuer Offiziere, unter ihnen Otto Ernst Remer, von Stauffenberg und die Mitverschwörer. Generaloberst Fromm gab unter Berufung auf ein Standgericht, das angeblich stattgefunden habe, noch am Abend des 20. Juli den Befehl, Claus Schenk Graf von Stauffenberg gemeinsam mit Werner von Haeften, Albrecht Ritter Mertz von Quirnheim und Friedrich Olbricht zu erschießen; „[d]ie Erschießungen können kurz vor oder kurz nach Mitternacht erfolgt sein“. Die Exekution fand im Hof des Bendlerblocks statt, von Stauffenbergs letzte Worte sollen der Ausruf „Es lebe das heilige Deutschland!“ gewesen sein, nach anderen Quellen rief er in Anspielung auf die Ideenwelt Stefan Georges „Es lebe das Geheime Deutschland!“ Am folgenden Tag wurden die Leichen der Erschossenen mit ihren Uniformen und Ehrenzeichen auf dem Alten St.-Matthäus-Kirchhof Berlin bestattet. Himmler ließ sie ausgraben und ordnete ihre Verbrennung im Krematorium Berlin-Wedding an. Ihre Asche wurde über die Rieselfelder von Berlin verstreut. Folgen für die Familien der Verschwörer Himmler plante, die Familien der Verschwörer zu ermorden und die Familiennamen auszulöschen. Die zunächst ins Auge gefasste Blutrache wurde wieder verworfen und stattdessen eine umfangreiche Sippenhaft befohlen. Von Stauffenbergs schwangere Ehefrau Nina Schenk Gräfin von Stauffenberg wurde in das Konzentrationslager Ravensbrück deportiert. In ihrer Einzelhaft 1944 schrieb sie ein Gedicht in Gedanken an ihren Mann: Du bist bei mir, wenn auch Dein Leib verging. Und immer ist’s, als ob Dein Arm mich noch umfing. Dein Auge strahlt mir zu im Wachen und im Traum. Dein Mund neigt sich zu mir. Dein Flüstern schwingt im Raum: Aufgrund der anstehenden Geburt wurde sie in ein NS-Frauenentbindungsheim in Frankfurt (Oder) verlegt, wo das fünfte Kind der Familie, Konstanze, am 27. Januar 1945 zur Welt kam. Die vier älteren Kinder wurden in das Kinderheim im Borntal bei Bad Sachsa verbracht. Es gab Pläne, sie nationalsozialistischen Familien zur Adoption zu übergeben. Sie erhielten andere Nachnamen (die Stauffenberg-Kinder hießen ab sofort „Meister“) und verblieben dort bis nach dem Kriegsende. Erst am 7. Juni 1945 konnte ihre Großtante Alexandrine Gräfin von Üxküll-Gyllenband sie abholen. Nachleben Im Zusammenhang mit dem Attentat kam es zu zahlreichen postumen Ehrungen: Gedenktafeln befinden sich unter anderem in der Gedenkstätte Deutscher Widerstand im Bendlerblock in Berlin (seit 1960), in der Lönsstraße in Wuppertal (seit 1984) und im Bamberger Dom. In mehreren deutschen Städten gibt es nach Graf von Stauffenberg benannte Straßen oder Plätze. Am 20. Juli 1955 wurde die bisherige Bendlerstraße am Bendlerblock in Stauffenbergstraße umbenannt. Die Kaserne der Bundeswehr in Sigmaringen trägt seit dem 20. Juli 1961 den Namen Graf-Stauffenberg-Kaserne. 1964 wurde auf ihrem Gelände ein Gedenkstein zur Erinnerung an von Stauffenberg enthüllt. Um trotz Schließung der Kaserne in Sigmaringen den Namen zu erhalten, wurde die Albertstadt-Kaserne in Dresden 2013 in Graf-Stauffenberg-Kaserne umbenannt. Die Deutsche Bundespost widmete 1964 von Stauffenberg zum 20. Jahrestag des Attentats eine von E. und Gerd Aretz gestaltete Briefmarke aus einem Block. Eine Briefmarke aus der Serie Aufrechte Demokraten zum 100. Geburtstag von von Stauffenberg und Helmuth James Graf von Moltke aus dem Jahre 2007 wurde von Irmgard Hesse entworfen. Seit 1967 trägt die 1965 als 4. Jungengymnasium in Osnabrück gegründete Schule den Namen Graf-Stauffenberg-Gymnasium. Seit dem 9. Februar 1979 trägt die Städtische Realschule in Bamberg den Namen Graf-Stauffenberg-Realschule. Auch die städtische Wirtschaftsschule hat den Widerstandskämpfer seit 1979 als Namenspatron. Ein früher in demselben Gebäude untergebrachtes, aber mittlerweile in ein anderes Gymnasium integriertes Wirtschaftsgymnasium trug ebenfalls den Namen Graf-Stauffenberg-Gymnasium. In Flörsheim am Main existiert ebenfalls ein Graf-Stauffenberg-Gymnasium. Die Deutsche Demokratische Republik wollte 1990 den Stauffenberg-Orden für militärische Verdienste stiften, wozu es aufgrund der Wiedervereinigung nicht mehr kam. Am 3. April 2000 wurde eine Büste von Stauffenbergs in der Bayerischen Ruhmeshalle enthüllt. Im Stuttgarter „Alten Schloss“ wurde 2006 eine Erinnerungsstätte des Landes Baden-Württemberg eröffnet. Zum 100. Geburtstag von Stauffenbergs, der unter anderem mit einem Großen Zapfenstreich einer Bundeswehrdivision begangen wurde, wurde am 15. November 2007 im Stauffenberg-Schloss in Lautlingen eine neue Gedenkstätte eröffnet; sie wurde gefördert von der Landesstiftung Baden-Württemberg und Sponsoren aus der Wirtschaft. Die Stadt Dresden benannte im Stadtteil Albertstadt eine Straße „Stauffenbergallee“. Die an diese Straße grenzende Offizierschule des Heeres, an der er selbst ausgebildet worden war, benannte den großen Traditionslehrsaal „Stauffenbergsaal“. Von Stauffenberg zu Ehren tragen die Offizierlehrgänge des 71. OAJ (Offizieranwärterjahrgang) des Deutschen Heeres seinen Namen. Alljährlich finden am 20. Juli Feierstunden der Bundesregierung und öffentliche Gelöbnisse der Bundeswehr in Erinnerung an das gescheiterte Attentat auf Hitler statt. Seit 2008 wird das Feierliche Gelöbnis im Wechsel am Berliner Dienstsitz des BMVg, Bendlerblock und vor dem Reichstagsgebäude abgehalten. Film Von Stauffenberg wurde im Film unter anderem von folgenden Schauspielern dargestellt: Bernhard Wicki in Es geschah am 20. Juli (1955) Wolfgang Preiss in Der 20. Juli (1955) Gérard Buhr in Die Nacht der Generale (1967) Alfred Struwe in Befreiung – Teil 3: Die Hauptstoßrichtung (1969) Horst Naumann in Claus Graf Stauffenberg (1970) Joachim Hansen in Operation Walküre (1971) Brad Davis in Stauffenberg – Verschwörung gegen Hitler (1990) Harald Schrott in Die Stunde der Offiziere (2004) Sebastian Koch in Stauffenberg (2004) Tom Cruise in Operation Walküre – Das Stauffenberg-Attentat (2008) Peter Becker in Stauffenberg – Die wahre Geschichte (2009) Oscar Beregi Jr. in Ein Käfig voller Helden. (Staffel 2, Folge 4). General Stauffen besucht das Stalag 13, um dort den Sprengstoff für das Attentat auf Hitler in Empfang zu nehmen. Bühnenstück David Sternbach: Stauffenberg – Die Tragödie des 20. Juli 1944. 1984, D. Als Buch im Dieve Verlag; 2. Auflage 1994, ISBN 3-927131-00-8. Siehe auch Personen des 20. Juli 1944 Literatur Bücher Sophie von Bechtolsheim: Stauffenberg. Mein Großvater war kein Attentäter. Herder, Freiburg/ Basel/ Wien 2019, ISBN 978-3-451-07217-8. Ursula Brekle: Familie Stauffenberg – Hitlers Rache. Bertuch, Weimar 2018, ISBN 978-3-86397-097-0. Ulrich Cartarius: Opposition gegen Hitler: Bilder Texte, Dokumente. Neuausgabe. Siedler, Berlin 1994, ISBN 3-88680-523-9 (Gesamtdarstellung des Widerstands). Marion Gräfin Dönhoff: Um der Ehre Willen. Erinnerungen an die Freunde vom 20. Juli. Siedler, Berlin 1994, ISBN 3-88680-532-8. Allen Welsh Dulles: Verschwörung in Deutschland. Schleben, Kassel 1949. (englisch) Originalausgabe: Germany’s Underground. Macmillan, New York 1947. Joachim Fest: Staatsstreich. Der lange Weg zum 20. Juli. Siedler, Berlin 1994, ISBN 3-88680-539-5 (Gesamtdarstellung v. a. des militärischen Widerstands). Hans Bernd Gisevius: Bis zum bittern Ende: Vom 30. Juni 1934 zum 20. Juli 1944. Ullstein, Frankfurt am Main/ Berlin 1964. Winfried Heinemann: Unternehmen „Walküre“. Eine Militärgeschichte des 20. Juli 1944. De Gruyter Oldenbourg, Berlin 2019, ISBN 978-3-11-063275-0. Peter Hoffmann: Claus Schenk Graf von Stauffenberg und seine Brüder. DVA, Stuttgart 1992, ISBN 3-421-06533-0. Peter Hoffmann: Stauffenberg und der 20. Juli 1944. 2. Auflage. Beck, München 2007, ISBN 978-3-406-43302-3. Peter Hoffmann: Claus Schenk Graf von Stauffenberg: die Biographie. 4. Auflage. Pantheon Verlag, München September 2017, ISBN 978-3-570-55046-5. Jakobus Kaffanke, Thomas Krause, Edwin Ernst Weber (Hrsg.): Es lebe das „Geheime Deutschland“! Claus Schenk Graf von Stauffenberg. Person – Motivation – Rezeption. Beiträge des Sigmaringer Claus von Stauffenberg-Symposiums von 11. Juli 2009 (= Anpassung – Selbstbehauptung – Widerstand. Bd. 30). 2011, ISBN 978-3-643-10144-0. Thomas Karlauf: Stauffenberg: Porträt eines Attentäters. Blessing, München 2019, ISBN 978-3-89667-411-1. Rezension von Sarah Pines, NZZ, 20. Juli 2019. Joachim Kramarz: Claus Graf von Stauffenberg. 15. November 1907 – 20. Juli 1944. Das Leben eines Offiziers. Bernard & Graefe, Frankfurt am Main 1965. Christian Graf von Krockow: Eine Frage der Ehre. Stauffenberg und das Hitler-Attentat vom 20. Juli 1944. Rowohlt, Berlin 2002, ISBN 3-87134-441-9. (als Taschenbuch Rowohlt, Hamburg 2004, ISBN 3-499-61494-4) Christian Müller: Oberst i. G. Stauffenberg. Eine Biographie. Droste, Düsseldorf 1970, ISBN 3-7700-0228-8. Arnim Ramm: Kritische Analyse der Kaltenbrunner-Berichte über die Attentäter vom 20. Juli 1944. Ein Beitrag zur Geschichte des militärischen Widerstandes. Tectum, Marburg, 2003, ISBN 3-8288-8575-6. Manfred Riedel: Geheimes Deutschland. Stefan George und die Brüder Stauffenberg. Böhlau, Köln 2006, ISBN 3-412-07706-2.(Rezension von Gunilla Eschenbach, In: H-Soz-u-Kult. 31. Januar 2007.) Bodo Scheurig: Claus Graf von Stauffenberg. Colloquium, Berlin 1964. Ulrich Schlie: Claus Schenk Graf von Stauffenberg. Biografie. Herder, Freiburg im Breisgau 2018, ISBN 978-3-451-03147-2. Berthold Schenk Graf von Stauffenberg: Ein Kind als Volksfeind. In: Thomas Vogel (Hrsg.): Aufstand des Gewissens – Militärischer Widerstand gegen Hitler und das NS-Regime 1933–1945. Mittler, Hamburg/ Berlin/ Bonn 2001, ISBN 3-8132-0708-0, S. 287–295. Harald Steffahn: Stauffenberg. 3. Auflage. Rowohlt, Reinbek bei Hamburg 2002, ISBN 3-499-50520-7. Peter Steinbach: Claus von Stauffenberg-– Zeuge im Feuer. DRW, Leinfelden-Echterdingen 2007, ISBN 978-3-87181-709-0. Gerd R. Ueberschär: Stauffenberg. Der 20. Juli 1944. Fischer, Frankfurt am Main 2004, ISBN 3-10-086003-9. Wolfgang Venohr: Stauffenberg. Symbol des Widerstands. 3. Auflage. Herbig, München 2000, ISBN 3-7766-2156-7. Eberhard Zeller: Oberst Claus Graf Stauffenberg. Ein Lebensbild. Schöningh, Paderborn u. a. 1994, ISBN 3-506-79770-0. Eberhard Zeller: Geist der Freiheit. Der zwanzigste Juli. 1952. (Neuauflage: Edition JF, Berlin 2004, ISBN 3-929886-20-0) Artikel Micha Brumlik: Die Ikonisierung Stauffenbergs. In: Blätter für deutsche und internationale Politik. Ausgabe 10/2007, S. 1209–1220. Richard J. Evans: Sein wahres Gesicht. In: Süddeutsche Zeitung, Magazin, Nr. 4/2009. Eberhard Fritz: Claus Schenk Graf von Stauffenberg und die Herzöge von Württemberg. Überlegungen zu den Motiven des Attentats vom 20. Juli 1944. In: Zeitschrift für Hohenzollerische Geschichte. Bd. 47, 2012, S. 225–261. Thomas Karlauf: Stauffenberg. Eine Motivsuche. In: Sinn und Form. Nr. 1/2010, S. 5–17. Hedwig Maier: Die SS und der 20. Juli 1944. In: Vierteljahrshefte für Zeitgeschichte. Bd. 14, Heft 3, 1966, S. 299–316 (PDF). Tim Pröse: Hitler-Attentäter des 20. Juli 1944 – „Immer wieder denke ich: Hättest du ihn doch nur erschossen!“ In: einestages. 18. Juli 2019. Weblinks Susanne Eckelmann: Claus Schenk Graf von Stauffenberg, Biografie auf der Internetseite von DHM/LeMO, August 1999 Claus Graf Schenk von Stauffenberg (1934). In: Deutsche Geschichte in Dokumenten und Bildern. Deutsches Historisches Institut Washington Einzelnachweise Claus Widerstandskämpfer des 20. Juli 1944 Oberleutnant (Reichswehr) Oberst im Generalstab (Heer der Wehrmacht) George-Kreis Titulargraf Hitler-Attentäter Dolmetscher NS-Opfer Träger des Deutschen Kreuzes in Gold Person (Albstadt) Deutscher Geboren 1907 Gestorben 1944 Mann
929
https://de.wikipedia.org/wiki/C%2B%2B
C++
C++ ist eine von der ISO genormte Programmiersprache. Sie wurde ab 1979 von Bjarne Stroustrup bei AT&T als Erweiterung der Programmiersprache C entwickelt. C++ ermöglicht sowohl die effiziente und maschinennahe Programmierung als auch eine Programmierung auf hohem Abstraktionsniveau. Der Standard definiert auch eine Standardbibliothek, zu der verschiedene Implementierungen existieren. Einsatzgebiete C++ wird sowohl in der Systemprogrammierung als auch in der Anwendungsprogrammierung eingesetzt und gehört in beiden Bereichen zu den verbreitetsten Programmiersprachen. Systemprogrammierung Typische Anwendungsfelder in der Systemprogrammierung sind Betriebssysteme, eingebettete Systeme, virtuelle Maschinen, Treiber und Signalprozessoren. C++ nimmt hier oft den Platz ein, der früher ausschließlich Assemblersprachen und der Programmiersprache C vorbehalten war. Anwendungsprogrammierung Bei der Anwendungsprogrammierung kommt C++ vor allem dort zum Einsatz, wo hohe Anforderungen an die Effizienz gestellt werden, um durch technische Rahmenbedingungen vorgegebene Leistungsgrenzen möglichst gut auszunutzen. Ab dem Jahr 2000 wurde C++ aus der Domäne der Anwendungsprogrammierung von den Sprachen Java und C# zurückgedrängt. Eigenschaften Sprachdesign Die Sprache C++ verwendet nur etwa 60 Schlüsselwörter („Sprachkern“), manche werden in verschiedenen Kontexten (static, default) mehrfach verwendet. Ihre eigentliche Funktionalität erhält sie, ähnlich wie auch die Sprache C, durch die C++-Standardbibliothek, die der Sprache fehlende wichtige Funktionalitäten beibringt (Arrays, Vektoren, Listen, …) wie auch die Verbindung zum Betriebssystem herstellt (iostream, fopen, exit, …). Je nach Einsatzgebiet kommen weitere Bibliotheken und Frameworks dazu. C++ legt einen Schwerpunkt auf die Sprachmittel zur Entwicklung von Bibliotheken. Dadurch favorisiert es verallgemeinerte Mechanismen für typische Problemstellungen und besitzt kaum in die Sprache integrierte Einzellösungen. Eine der Stärken von C++ ist die Kombinierbarkeit von effizienter, maschinennaher Programmierung mit mächtigen Sprachmitteln, die einfache bis komplexe Implementierungsdetails zusammenfassen und weitgehend hinter abstrakten Befehlsfolgen verbergen. Dabei kommt vor allem die Template-Metaprogrammierung zum Zuge: Eine Technik, die eine nahezu kompromisslose Verbindung von Effizienz und Abstraktion erlaubt. Einige Design-Entscheidungen werden allerdings auch häufig kritisiert: Ressourcenverwaltung C++ hat keine Garbage Collection, allerdings gibt es Bestrebungen, Garbage-Collection durch Bibliotheken oder durch Aufnahme in den Sprachstandard zu ermöglichen. Siehe auch Boehm-Speicherbereinigung. Es ist möglich die Speicherverwaltung von C (malloc/realloc/free) zu verwenden; zur Implementierung von Low-Level-Funktionen in Bibliotheken wie der C++-Standardbibliothek ist dies zum Zugriff auf C Bibliotheksfunktionen notwendig. In allgemeinem C++-Code wird hiervon jedoch dringend abgeraten. Stattdessen ist es dort üblich, die Speicherverwaltung von der C++-Standardbibliothek übernehmen zu lassen, indem man die angebotenen Containerklassen verwendet. Andere Ressourcen, z. B. Dateihandles oder Netzwerksockets werden in C++ üblicherweise in eigenen Klassen mit dem Prinzip RAII verwaltet, um das automatische Aufräumen nach der Verwendung sicherzustellen. Dies ist konzeptionell in anderen Programmiersprachen oft mit der Implementierung spezieller Basisklassen/Schnittstellen gestaltet – wie z. B. „AutoCloseable“ in Java oder „IDisposable“ in C#. In anderen Programmiersprachen benötigen diese nicht verwalteten Ressourcen oft ein spezielles Handling (z. B. „using“ Schlüsselwort in C#), um die Lebenszeit dieser Objekte Ausnahmesicher in Verbindung mit dem Garbage Collector zu verwalten. Die RAII basierten Implementierungen in C++ sind konzeptbedingt nicht anfällig bezüglich dieser Probleme da Speicher in C++ keinen Sonderstatus als Ressource hat. Eine korrekte Implementierung der Objektlebenszeit garantiert hier die Freigabe aller Ressourcen. Für Verweise auf Objekte werden üblicherweise Referenzen verwendet, solange der Verweis das Objekt nicht besitzen soll – z. B. als Parameter bei Funktionsaufrufen. Um den Besitz von dynamisch allokierten Objekten zu verwalten werden üblicherweise Smart Pointer eingesetzt, welche die Destruktion und Speicherfreigabe übernehmen. Die Standardbibliothek unterscheidet hier strikt den Besitz. Während beim unique_ptr nur dieser Zeiger den Speicher besitzt, kann der Besitz des Speichers beim shared_ptr zwischen mehreren Zeigerinstanzen geteilt werden. Technisch realisiert ist dies beim shared_ptr meist mit Reference counting. Unvollständige Objektorientierung Sichtbarkeit privater Elemente In C++ gehören private Eigenschaften (Variablen und Methoden) normalerweise mit zur Schnittstelle, die in der Header-Datei veröffentlicht ist. Dadurch entstehen zur Compilezeit und zur Laufzeit Abhängigkeiten der Objekte zu den Stellen, die sie verwenden. Diese Abhängigkeiten können durch bestimmte Konstruktionen, wie dem pimpl-Idiom (), vermieden werden. Dabei werden die privaten Felder der Klasse (example_class) in eine private, vorwärts-deklarierte Hilfsklasse verschoben, und ein Zeiger auf ein Objekt dieser Hilfsklasse (example_class::impl * impl_ptr) bleibt in der eigentlichen Klasse. Die Definition der implementierenden Klasse findet bei der Implementierung der öffentlichen Klasse statt und ist damit für den Verwender der Klasse (der nur die Header-Datei kennt) unsichtbar. Dadurch, dass die Hilfsklasse nur durch einen Zeiger referenziert wird, bleiben alle Quelltextänderungen an privaten Feldern transparent und die Binärkompatibilität wird erhalten. Unvollständige Kapselung In C++ sind die Speicherbereiche der einzelnen Objekte zur Laufzeit nicht vor (absichtlichen oder versehentlichen) gegenseitigen Änderungen geschützt. Undefiniertes Verhalten Das Verhalten von einigen Sprachkonstrukten ist nicht definiert. Dies bedeutet, dass der Standard weder vorgibt noch empfiehlt, was in einem solchen Fall passiert. Die Auswirkungen reichen von Implementierungsabhängigkeit (d. h. je nach Zielrechner und Compiler kann sich das Konstrukt unterschiedlich verhalten) über unsinnige Ergebnisse oder Programmabstürze bis hin zu Sicherheitslücken. Einige dieser Freiheiten des Compilers lassen zusätzliche Optimierungen des Codes zu. Es kommt zu unterschiedlichem Verhalten bei verschiedenen Compilern verschiedenen Compiler-Versionen verschiedener Architektur (ARM, x86, x64) verschiedenen Optimierungseinstellungen (Debug, Release, Optimierung) ausgewählter Befehlssatz, Aufrufkonventionen, u. v. a. m. Quellcode mit Codepassagen mit undefiniertem Verhalten kann nach der Kompilierung unerwartetes und absurd erscheinenden Verhalten zeigen. So werden zu spät durchgeführte Überprüfungen wegoptimiert oder Schleifen, die auf einen ungültigen Index eines Arrays zugreifen, durch leere Endlosschleifen ersetzt. Wichtig für das Verständnis von undefiniertem Verhalten ist insbesondere, dass niemals nur eine einzelne Operation ungültig ist, sondern das gesamte Programm ungültig wird und kein wohlgeformtes C++ mehr darstellt. Der Grund ist, dass manche Arten von „undefiniertem Verhalten“ Auswirkungen auf ganz andere, auch in sich korrekte, Programmteile haben und deren Verhalten beeinflussen können, beispielsweise bei Pufferüberläufen oder der unbeabsichtigten Änderung von Prozessor-Flags, die durch eine ungültige arithmetische Operation verursacht wurde und die nachfolgenden Berechnungen beeinflussen kann. Beispiele für undefiniertes Verhalten: Überlauf von vorzeichenbehafteten Ganzzahlen (auch z. B. bei Umwandlung von unsigned int nach int) Nullzeiger-Dereferenzierungen Arrayzugriffe mit ungültigem Index Schiebeoperationen mit einer Schiebeweite, die negativ oder größergleich der Zahl der Bits des zu schiebenden Typs ist Division durch null mit integralen Datentypen Weglassen des return-Statements in Funktionen mit Rückgabewert (die Hauptfunktion main bildet die einzige Ausnahme) Ein Nebeneffekt ändert eine Variable, die mehrmals in dem Ausdruck (v[i] = i++;) oder in der Argumentliste (f(i, i++);) vorkommt (die Auswertungsreihenfolge von Teilausdrücken und Funktionsargumenten ist nicht festgelegt) Einerseits ist das hieraus resultierende nichtdeterministische Laufzeitverhalten, insbesondere bei kleinen Änderungen der Plattform, mindestens als Risiko, in der Praxis oft aber als klarer Nachteil einzustufen. Andererseits werden hierdurch schnellere Programme ermöglicht, da Gültigkeitsüberprüfungen weggelassen werden können und der Compiler zudem oft Programmteile stärker optimieren kann, indem er Randfälle als per Definition ausgeschlossen ignoriert. Ein oft nicht wahrgenommener Vorteil ist darüber hinaus, dass dadurch, dass undefiniertes Verhalten praktisch nur in äußerst fragwürdigen Konstrukten auftritt, die aber nicht zwingend während des Kompilierens feststellbar sind, unsemantischer oder anderweitig suboptimaler Code gewissermaßen verboten wird. Beispielsweise besteht eine illegale Art zu prüfen, ob die Summe zweier positiver Ganzzahlen und vom Typ ‚int‘ verlustfrei wieder in einem ‚int‘ abgebildet werden kann, daraus, zu schauen, ob ihre Summe größer 0 ist (bei Überlauf entsteht auf den meisten Computern durch die Zweierkomplement-Arithmetik eine negative Zahl). Eine derartige Überprüfung ist allerdings aus mathematischer Sicht nicht besonders sinnvoll. Eine bessere (semantischere) Herangehensweise ist hier, die eigentliche Frage, ob , wobei die größte in einem ‚int‘ darstellbare Zahl ist, nach der mathematisch validen Umformung zu zu verwenden. Kompatibilität mit C Um an die Verbreitung der Programmiersprache C anzuknüpfen, wurde C++ als Erweiterung von C gemäß dem damaligen Stand von 1990 (ISO/IEC 9899:1990, auch kurz C90 genannt) entworfen. Die Kompatibilität mit C zwingt C++ zur Fortführung einiger dadurch übernommener Nachteile. Dazu zählt die teilweise schwer verständliche C-Syntax, der als überholt geltende Präprozessor sowie verschiedene von der jeweiligen Plattform abhängige Details der Sprache, die die Portierung von C++-Programmen zwischen unterschiedlichen Rechnertypen, Betriebssystemen und Compilern erschweren. Einige C-Sprachkonstrukte haben in C++ eine leicht abgewandelte Bedeutung oder Syntax, so dass manche C-Programme erst angepasst werden müssen, um sich als C++-Programm übersetzen zu lassen. Weitere Änderungen an C fanden in den Jahren 1999 (ISO/IEC 9899:1999, aka C99) und 2011 (ISO/IEC 9899:2011, aka C11) also nach der ersten Normung von C++ statt, so dass dort eingeflossene Änderungen nicht in C++98 berücksichtigt werden konnten. In die C++-Revision von 2011 wurde ein Teil der Neuerungen von C99 übernommen; auf der anderen Seite wurden dem C-Standard neue Features hinzugefügt, die auch mit C++11 nicht kompatibel sind. Sprachmerkmale im Detail C++ basiert auf der Programmiersprache C wie in ISO/IEC 9899:1990 beschrieben. Zusätzlich zu den in C vorhandenen Möglichkeiten bietet C++ weitere Datentypen sowie neuartige Typumwandlungsmöglichkeiten, Klassen mit Mehrfachvererbung und virtuellen Funktionen, Ausnahmebehandlung, Templates (Schablonen), Namensräume, Inline-Funktionen, Überladen von Operatoren und Funktionsnamen, Referenzen, Operatoren zur Verwaltung des dynamischen Speichers und mit der C++-Standardbibliothek eine erweiterte Bibliothek. Programmbeispiel Der folgende Quelltext ist ein einfaches C++-Programm, das den Text „Hallo Welt!“ in den Standardausgabestrom, üblicherweise das Terminal, schreibt: #include <iostream> int main() { std::cout << "Hallo Welt!" << std::endl; return 0; } Der Präprozessorbefehl oder auch Präprozessordirektive genannt #include bindet Header-Dateien ein, die typischerweise Deklarationen von Variablen, Typen und Funktionen enthalten. Im Gegensatz zu C besitzen Header der C++-Standardbibliothek keine Dateiendung. Der Header <iostream> ist Teil der C++-Standardbibliothek und deklariert unter anderem den Standardeingabestrom std::cin und die Standardausgabeströme std::cout und std::cerr für die aus der C-Standardbibliothek bekannten Objekte stdin, stdout und stderr. Bei main() handelt es sich um die Funktion, die den Einsprungpunkt jedes C++-Programms darstellt. Das Programm wird ausgeführt, indem die Funktion main() aufgerufen wird, wobei diese ihrerseits andere Funktionen aufrufen kann. Die Funktion main() selbst darf allerdings in einem C++-Programm nicht rekursiv aufgerufen werden. Der Standard verlangt von Implementierungen, zwei Signaturen für die Funktion main() zu unterstützen: Eine ohne Funktionsparameter wie im Beispiel, und eine, die einen Integer und einen Zeiger auf Zeiger auf char entgegennimmt, um auf Kommandozeilenparameter zugreifen zu können (was nicht in allen Programmen vonnöten ist): int main(int argc, char **argv). Implementierungen dürfen darüber hinaus weitere Signaturen für main() unterstützen, alle müssen jedoch den Rückgabetyp int (Integer) besitzen, also eine Ganzzahl zurückgeben. Würde main() keinen Wert zurückgeben, schreibt der C++-Standard der Implementierung vor, return 0; anzunehmen. main() gibt also 0 zurück, wenn kein anderslautendes return-Statement in ihr vorhanden ist. std::cout ist eine Instanz der Klasse std::basic_ostream<char>, die sich wie die gesamte C++-Standardbibliothek im Namensraum std befindet. Bezeichner in Namensräumen werden mit dem Bereichsoperator (::) angesprochen. Die Ausgabe des Zeichenkettenliterals "Hallo Welt" übernimmt der Operator <<. Zeichenkettenliterale sind in C++ vom Typ Array aus N konstanten chars (char const[N]), wobei N gleich der Länge der Zeichenkette + 1 für die abschließende Nullterminierung ist. Da die Standardtypumwandlungen von C++ die als pointer-to-array decay bekannte implizite Umwandlung eines Arrays T[N] in einen Pointer T* vorsehen, und damit char const[N] in einen char const* zerfällt, passt der überladene Operator template<class traits> basic_ostream<char,traits>& operator<<(std::basic_ostream<char,traits>&, char const *); aus <ostream> und wird entsprechend aufgerufen (operator<<( std::cout, "Hallo Welt!" );) und gibt die Zeichenkette aus. Durch den Ausgabemanipulator std::endl wird ein Zeilenendezeichen ausgegeben. Bei return 0 wird dem aufrufenden Programm über das Betriebssystem mitgeteilt, dass die Ausführung des Programms erfolgreich war. Dateiendungen Typische Dateiendungen sind .C, .cc, .cpp, .cxx, , .h, .hh, .hpp, .hxx, , .ipp, .tpp, .ixx. Umsetzung C++-Compiler Die Implementierung eines C++-Compilers gilt als aufwendig. Nach der Fertigstellung der Sprachnorm 1998 dauerte es mehrere Jahre, bis die Sprache von C++-Compilern weitestgehend unterstützt wurde. Zu den verbreitetsten C++-Compilern gehören: Visual C++ Der in Microsoft Visual C++ enthaltene Compiler ist der am weitesten verbreitete für das Betriebssystem Windows. Die Community-Edition stellt Microsoft kostenlos zur Verfügung. GCC Der g++ ist die C++-Ausprägung der GNU Compiler Collection (GCC); g++ ist quelloffen und frei verfügbar. Der g++ unterstützt eine Vielzahl von Betriebssystemen (darunter Unix, Linux, macOS, Windows und AmigaOS) und Prozessorplattformen. GNU C++ existiert seit 1987 und ist somit einer der ältesten C++-Compiler. Clang Clang, ein C++ Compiler-Frontend für plattformübergreifende Compilerinfrastruktur LLVM, die unter anderem auch in der Apple eigenen integrierten Entwicklungsumgebung Xcode verwendet wird. Im Clang/LLVM Ecosystem sind auch mehrere Tools zur statischen Codeanalyse entstanden wie z. B. „clang-tidy“ und „clang-format“. Intel C++ Compiler Der Intel C++ Compiler verwendet ebenfalls das erwähnte C++-Front-End von EDG. Der Intel C++ Compiler erzeugt Maschinencode für die Intel-Prozessoren unter den Betriebssystemen Windows, Linux und macOS. Da die mit dem Intel C++ Compiler erzeugten Programme den Befehlssatz der Intel-Prozessoren besonders gut ausnutzen, erzeugen sie besonders effiziente Programme für diese Plattform. (Kompilate des Intel-Compilers laufen ebenfalls auf AMD-Chips meist schneller als Kompilate der alternativen Compiler, entsprechende Optimierungsflags sperrt Intel jedoch, wobei sich die Sperre aufheben lässt.) Der Intel C++ Compiler nutzt im Unterbau wesentliche Teile des g++ und ersetzt und erweitert Teile der Code-Optimierung und Code-Generierung. Oracle Solaris Studio Oracle Solaris Studio stellt Oracle kostenlos zur Verfügung. Comeau C++ Der Comeau C++. Das sogenannte „Front-End“ des Compilers, also der Teil, der die Analyse-Phase implementiert, wurde von der Firma Edison Design Group (EDG) entwickelt, die sich auf die Entwicklung von Compiler-Front-Ends spezialisiert hat und deren C++-Front-End auch in vielen anderen kommerziellen C++-Compilern integriert ist. Der Comeau-Compiler kann auch über das Internet ausprobiert werden. Turbo C++ Mit Turbo C++/C++ Builder steht ein weiterer Compiler zur Verfügung. Integrierte Entwicklungsumgebungen Freie Entwicklungsumgebungen Anjuta Arduino CodeLite Code::Blocks Eclipse Geany GNAT Programming Studio KDevelop MonoDevelop NetBeans IDE Orwell Dev-C++ Qt Creator TOPCASED Ultimate++ WideStudio Proprietäre Entwicklungsumgebungen C++Builder CLion (basiert auf IntelliJ IDEA) CodeWarrior Conzept 16 (Programmiersprache C++ ähnlich) Cubic IDE ICON-L Kylix Visual Studio Xcode Vergleich mit anderen Sprachen Objective-C C++ war nicht der einzige Ansatz, die Programmiersprache C um Eigenschaften zu erweitern, die das objektorientierte Programmieren vereinfachen. In den 1980er Jahren entstand die Programmiersprache Objective-C, die sich aber im Gegensatz zu C++ syntaktisch wie von ihrem Funktionsprinzip an Smalltalk und nicht an Simula orientierte. Die Syntax von Objective-C (C beeinflusst durch Smalltalk) unterscheidet sich erheblich von C++ (C beeinflusst von Simula mit ganz eigenen syntaktischen Erweiterungen). Ende der 1980er Jahre wurde Objective-C erstmals kommerziell in NeXTStep verwendet, in dem es einen zentralen Bestandteil darstellt. Heutzutage findet es in der Programmierschnittstelle OpenStep (bzw. Cocoa und GNUstep) sowie in den Betriebssystemen iOS und macOS ein wichtiges Einsatzgebiet. Java und C# Die Programmiersprachen Java und C# verfügen über eine ähnliche, ebenfalls an C angelehnte Syntax wie C++, sind auch objektorientiert und unterstützen seit einiger Zeit Typparameter. Trotz äußerlicher Ähnlichkeiten unterscheiden sie sich aber konzeptionell von C++ zum Teil beträchtlich. Generische Techniken ergänzen die objektorientierte Programmierung um Typparameter und erhöhen so die Wiederverwertbarkeit einmal kodierter Algorithmen. Die generischen Java-Erweiterungen sind jedoch lediglich auf Klassen, nicht aber auf primitive Typen oder Datenkonstanten anwendbar. Demgegenüber beziehen die generischen Spracherweiterungen von C# auch die primitiven Typen mit ein. Dabei handelt es sich allerdings um eine Erweiterung für Generik zur Laufzeit, die die auf Kompilationszeit zugeschnittenen C++-Templates zwar sinnvoll ergänzen, nicht aber ersetzen können. Gerade die generische Programmierung macht C++ zu einem mächtigen Programmierwerkzeug. Während die objektorientierte Programmierung in Java und C# nach wie vor den zentralen Abstraktionsmechanismus darstellt, ist diese Art der Programmierung in C++ rückläufig. So werden tiefe Klassenhierarchien vermieden, und zu Gunsten der Effizienz und der Minimierung des Ressourcenverbrauchs verzichtet man in vielen Fällen auf Polymorphie, einen der fundamentalen Bestandteile der objektorientierten Programmierung. Entstehung und Weiterentwicklung Entstehungsgeschichte Auf die Idee für eine neue Programmiersprache kam Stroustrup durch Erfahrungen mit der Programmiersprache Simula während seiner Doktorarbeit an der Cambridge University. Simula erschien zwar geeignet für den Einsatz in großen Software-Projekten, die Struktur der Sprache erschwerte aber die Erstellung hocheffizienter Programme. Demgegenüber ließen sich effiziente Programme zwar mit der Sprache BCPL schreiben, für große Projekte war BCPL aber wiederum ungeeignet. Mit den Erfahrungen aus seiner Doktorarbeit erweiterte Stroustrup in den AT&T Bell Laboratories im Rahmen von Untersuchungen des Unix-Betriebssystemkerns in Bezug auf verteiltes Rechnen ab 1979 die Programmiersprache C. Die Wahl fiel auf die Programmiersprache C, da C eine Mehrzwecksprache war, die schnellen Code produzierte und einfach auf andere Plattformen zu portieren war. Als dem Betriebssystem Unix beiliegende Sprache hatte C außerdem eine erhebliche Verbreitung. Eine der ersten Erweiterungen war ein Klassenkonzept mit Datenkapselung, für das die Sprache Simula-67 das primäre Vorbild war. Danach kamen abgeleitete Klassen hinzu, ein strengeres Typsystem, Inline-Funktionen und Standard-Argumente. Während Stroustrup C with Classes („C mit Klassen“) entwickelte (woraus später C++ wurde), schrieb er auch cfront, einen Compiler, der aus C with Classes zunächst C-Code als Zwischenresultat erzeugte. Die erste kommerzielle Version von cfront erschien im Oktober 1985. 1983 wurde C with Classes in C++ umbenannt. Erweiterungen darin waren: Überladen von Funktionsnamen und Operatoren, virtuelle Funktionen, Referenzen, Konstanten, eine änderbare Freispeicherverwaltung und eine verbesserte Typüberprüfung. Die Möglichkeit von Kommentaren, die an das Zeilenende gebunden sind, wurde aus BCPL übernommen (//). 1985 erschien die erste Version von C++, die eine wichtige Referenzversion darstellte, da die Sprache damals noch nicht standardisiert war. 1989 erschien die Version 2.0 von C++. Neu darin waren Mehrfachvererbung, abstrakte Klassen, statische Elementfunktionen, konstante Elementfunktionen und die Erweiterung des Zugriffsmodells um protected. 1990 erschien das Buch The Annotated C++ Reference Manual, das als Grundlage für den darauffolgenden Standardisierungsprozess diente. Relativ spät wurden der Sprache Templates, Ausnahmebehandlung, Namensräume, neuartige Typumwandlungen und boolesche Typen hinzugefügt. Im Zuge der Weiterentwicklung der Sprache C++ entstand auch eine gegenüber C erweiterte Standardbibliothek. Erste Ergänzung war die Stream-I/O-Bibliothek, die Ersatz für traditionelle C-Funktionen wie zum Beispiel printf() und scanf() bietet. Eine der wesentlichen Erweiterungen der Standardbibliothek kam später durch die Integration großer Teile der bei Hewlett-Packard entwickelten Standard Template Library (STL) hinzu. Standardisierung Nach jahrelanger Arbeit wurde schließlich 1998 die endgültige Fassung der Sprache C++ (ISO/IEC 14882:1998) genormt. Diese Version wurde im Nachhinein, als weitere Versionen der Sprache erschienen, auch C++98 genannt. Im Jahr 2003 wurde ISO/IEC 14882:2003 verabschiedet, eine Nachbesserung der Norm von 1998, in der einige Missverständnisse beseitigt und mehrere Details klarer formuliert wurden. Diese Version wird umgangssprachlich auch C++03 genannt. Weiterentwicklung der Programmiersprache C++ nach 2005 Um mit den aktuellen Entwicklungen der sich schnell verändernden Computer-Technik Schritt zu halten, aber auch zur Ausbesserung bekannter Schwächen, erarbeitete das C++-Standardisierungskomitee die nächste größere Revision von C++, die inoffiziell mit C++0x abgekürzt wurde, worin die Ziffernfolge eine grobe Einschätzung des möglichen Erscheinungstermins andeuten sollte. Später, als ein Erscheinungstermin bis Ende 2009 nicht mehr zu halten war, änderte sich der inoffizielle Name zu C++1x. Die vorrangigen Ziele für die Weiterentwicklung von C++ waren Verbesserungen im Hinblick auf die Systemprogrammierung sowie zur Erstellung von Programmbibliotheken. Außerdem sollte die Erlernbarkeit der Sprache für Anfänger verbessert werden. Im November 2006 wurde der Zieltermin für die Fertigstellung auf das Jahr 2009 festgelegt. Im Juli 2009 wurde dieser Termin auf frühestens 2010 geändert. Im August 2011 wurde die Revision einstimmig von der ISO angenommen und am 11. Oktober 2011 als ISO/IEC 14882:2011 offiziell veröffentlicht. Inoffiziell heißt die Version C++11. Verbesserungen am Sprachkern C++98 deckte einige typische Problemfelder der Programmierung noch nicht ausreichend ab, zum Beispiel die Unterstützung von Nebenläufigkeit (Threads), deren Integration in C++, insbesondere für die Verwendung in Mehrprozessorumgebungen, eine Überarbeitung der Sprache unumgänglich machte. Durch die Einführung eines Speichermodells wurden Garantien der Sprache für den nebenläufigen Betrieb festgelegt, um Mehrdeutigkeiten in der Abarbeitungsreihenfolge sowohl aufzulösen als auch in bestimmten Fällen aufrechtzuerhalten und dadurch Spielraum für Optimierungen zu schaffen. Zu den weitreichenderen Spracherweiterungen gehörte ferner die automatische Typableitung zur Ableitung von Ergebnistypen aus Ausdrücken und die sogenannten R-Wert-Referenzen, mit deren Hilfe sich als Ergänzung zu dem bereits vorhandenen Kopieren von Objekten dann auch ein Verschieben realisieren lässt, außerdem bereichsbasierte For-Schleifen (foreach) über Container und eingebaute Felder. Erweiterung der Programmbibliothek Im April 2006 gab das C++-Standardisierungskomitee den sogenannten ersten Technischen Report (TR1) heraus, eine nicht normative Ergänzung zur aktuell gültigen, 1998 definierten Bibliothek, mit der Erweiterungsvorschläge vor einer möglichen Übernahme in die C++-Standardbibliothek auf ihre Praxistauglichkeit hin untersucht werden sollen. Viele Compiler-Hersteller lieferten den TR1 mit ihren Produkten aus. Im TR1 waren u. a. reguläre Ausdrücke, verschiedene intelligente Zeiger, ungeordnete assoziative Container, eine Zufallszahlenbibliothek, Hilfsmittel für die C++-Metaprogrammierung, Tupel sowie numerische und mathematische Bibliotheken enthalten. Die meisten dieser Erweiterungen stammten aus der Boost-Bibliothek, woraus sie mit minimalen Änderungen übernommen wurden. Außerdem waren sämtliche Bibliothekserweiterungen der 1999 überarbeiteten Programmiersprache C (C99) in einer an C++ angepassten Form enthalten. Mit Ausnahme der numerischen und mathematischen Bibliotheken wurden alle TR1-Erweiterungen in die Sprachnorm C++11 übernommen. Ebenfalls wurde eine eigene Bibliothek zur Unterstützung von Threads eingeführt. C++11 Mit der Norm ISO/IEC 14882:2011, auch bekannt als C++11, wurden viele weitreichende Neuerungen in C++ eingeführt, wie auszugsweise: Lambdas (Anonyme Funktionen), welche vor der Verabschiedung des C++11-Standards in anderen Sprachen schon teils breite Anwendung fanden, erweitern die Sprache vor allem im Bereich der funktionalen Programmierung. Eine erleichterte Typbehandlung mit Typinferenz ist nun über das Schlüsselwort auto (das nun nicht mehr ein Speicherklassen-Specifier ist) einerseits und das Schlüsselwort decltype (das den Typ eines Ausdrucks statisch zur Compilezeit zurückgibt, sofern ermittelbar) andererseits möglich. Beide Schlüsselworte zeigen ihre Stärke zudem auch im Verbund. So können ganze Funktionen, deren Rückgabetypen beispielsweise nur schwer vom Programmierer einzusehen sind, weil sie beispielsweise innerhalb komplexerer Klassentemplates liegen, komfortabel definiert werden:template <typename Factory> auto createObject(const Factory& creator) -> decltype(creator.makeObject()) { return creator.makeObject(); } Streng typisierte enums (enum class) beseitigen Probleme mit Namenskollisionen und schränken die Fehleranfälligkeit in Bezug auf implizite Typkonvertierungen ein. Sogenannte „range-based loops“ mittels eines modifizierten for-Statements erleichtern die Arbeit mit Containern und Arrays in der Art, dass Iteratoren beim Traversieren von Objekten dieser Datentypen für viele Anwendungsfälle überflüssig werden:#include <iostream> #include <string> #include <vector> using namespace std; void printNames(const vector<string>& names) { for (const string& singleName: names) cout << singleName << endl; } Es dürfen direkt aufeinanderfolgende spitze Klammern bei Templates benutzt werden: map<int, vector<int>>. Überdies erfolgte mit der Einführung von variadischen (vielstelligen) Templates eine großräumige Erweiterung der Nutzungsmöglichkeiten von Templates. Diese ermöglichen nun eine nicht fixe Anzahl von Template-Argumenten template<typename... Values> class VariadicExampleClass;, was weitreichende Optionen und Vereinfachungen im Code- bzw. Algorithmenaufbau und der Codestruktur allgemein ermöglicht. Des Weiteren haben sie, wie viele andere C++11-Erweiterungen auch, das Potential, die Notwendigkeit zur Nutzung von teils fehleranfälligen und nicht robusten Macros weiter einzuschränken. Die explizite Nutzbarkeit sogenannter Rvalue-Referenzen ermöglicht, aufbauend unter anderem auf sogenannter Bewegungssemantik, ein breites Spektrum von Codevereinfachungen, Laufzeitoptimierungen und ausnahmesicherer Programmierung. Mit den Rvalue-Referenzen wurden auch die sogenannten universellen Referenzen eingeführt, welche das Problem des „Perfect forwarding“ auf Sprachebene robust und einfach lösbar machen (die konsistente Weiterreichung von Typen innerhalb von Templatekonstrukten, die per „type deduction“ aufgelöst wurden, an weiterführende Templates). Vor der Verabschiedung des C++11-Standards war dies zumindest rein auf Sprachebene nicht möglich und erforderte vom Programmierer je nach Problemfall mehr oder weniger viel Eigenregie mit teils entsprechender Codeaufblähung und -Duplizierung. Außerdem wurden einige Features aus C11 übernommen, zum Beispiel Ganzzahlen mit mindestens 64 Bit (long long) oder Zusicherungen zur Übersetzungszeit mittels static_assert (in C11: _Static_assert). Themen der Sprache C++, die Rechenzeit und Speicherplatz betreffen, wurden im sogenannten technical report ISO/IEC TR 18015:2006 behandelt. Zum Zeitpunkt der Einführung des Standards und auch noch vergleichsweise lange darüber hinaus unterstützten viele gängige Compiler diesen nicht vollständig bzw. mit Bezug auf einige Erweiterungen mitunter fehlerhaft. Besonders starke Einschränkungen zeigte diesbezüglich zum Beispiel Microsoft mit Visual C++ 2012. Mit Visual C++ 2015 sind mittlerweile jedoch nahezu alle wichtigen größeren Spracherweiterungen berücksichtigt worden. C++14 C++14, beschrieben im Standard ISO/IEC 14882:2014, erweitert die Einsatzmöglichkeiten von auto und decltype, schwächt die Voraussetzungen für constexpr ab, erlaubt Variablen-Templates zu definieren (beispielsweise um mehrere Versionen von π mit je nach Typ unterschiedlicher Genauigkeit zu definieren), führt Binärliterale ein (0b...), führt Hochkommata als Trennzeichen in Zahlen ein, erlaubt generische Lambdas, erweitert Lambda capture expressions und führt das Attribut deprecated ein. Außerdem wurde die Standardbibliothek um ein paar Funktionen ergänzt, die bei C++11 „vergessen“ bzw. „übersehen“ wurden (z. B. std::make_unique) und etliche Funktionsdeklarationen nun als constexpr umdeklariert, was dem Compiler aggressivere Optimierungen gestattet. Während der Entwicklungsphase wurde C++14 auch C++1y genannt, um anzudeuten, dass es die Nachfolgeversion der vormals als C++0x genannten Version sein wird. C++17 Im März 2017 hat das ISO-C++-Komitee den Sprachstandard C++17 technisch abgeschlossen. Für die neue Fassung wurde unter anderem die Aufnahme des Typen std::byte beschlossen. Dieser ist explizit für den byte-weisen Zugriff auf den Speicher bestimmt. Es wurden neue, generische Container eingeführt: std::any als Alternative zu void* mit Typeüberprüfung zur Laufzeit, std::variant als Alternative zur aus C übernommenen Union mit Laufzeit-Typprüfung und std::optional, ein Container, der genau ein Element enthalten kann, aber nicht muss. Bis zur offiziellen Verabschiedung wurde die Fassung auch als C++1z bezeichnet. Nach dem Sommer-Meeting Mitte Juli verriet der C++-Experte Herb Sutter, der für die Einberufung des Komitees verantwortlich ist, in seinem Blog bereits erste Pläne für C++20. C++20 Die finale Version von C++20 wurde im Dezember 2020 veröffentlicht, nachdem er im Februar finalisiert und im September bestätigt wurde. Concepts bestimmte Initialisierer (zuerst in C99) [=, this] in Lambdas Template-Parameter-Listen in Parametern Dreiwegevergleich mit dem „spaceship operator“, operator <=> Koroutinen ein Modulsystem zur Codekapselung und kürzeren Kompilierzeiten std::format als moderner Ersatz für sprintf und stringstreams std::span Erweiterung des Konzeptes von string_view (C++17) auf beliebige Felder C++23/26 Reflection Executors Pattern Matching Networking Der Name „C++“ Der Name C++ ist eine Wortschöpfung von Rick Mascitti, einem Mitarbeiter Stroustrups, und wurde zum ersten Mal im Dezember 1983 benutzt. Der Name kommt von der Verbindung der Vorgängersprache C und dem Inkrement-Operator ++, der den Wert einer Variablen inkrementiert (um eins erhöht). Der Erfinder von C++, Bjarne Stroustrup, nannte C++ zunächst „C mit Klassen“ (). Kritik Oft geäußerte Kritik an der Sprache umfasst beispielsweise: C++ sei sehr komplex und fehleranfällig zu programmieren. Man müsse viel lernen und üben, um es gut zu beherrschen, und viele Features gelten als äußerst komplex. C++ sei zu low-level-mäßig aufgebaut; während es viele Features von höher abstrahierenden Sprachen aufweist (Klassen, generische Klassen/Funktionen etc.), seien als wichtig empfundene Dinge, insbesondere Garbage Collection, nicht vorhanden. C++ gilt zwar als schnell, beispielsweise wegen der Möglichkeit, frei mit Pointern zu arbeiten, doch diese Leistung sei auf den heutigen, schnellen Computersystemen nur in Ausnahmefällen nötig: Während es sinnvoll sei, Betriebssysteme o. Ä. in C++ zu schreiben, sei es softwaretechnisch viel günstiger, Anwendungsprogramme in höheren Sprachen zu schreiben, da diese leichter zu warten seien und immer noch eine ausreichende Leistung aufwiesen. Typisch in Verbindung mit C++ ist das Zitat von Bjarne Stroustrup: Soll heißen: C++ erleichtert zunächst vieles, aber es bringt gleichzeitig viele Mittel mit sich, die mit Bedacht eingesetzt werden müssen. Zum Beispiel können durch die dynamische Speicherallokation ohne automatische Speicherfreigabe Speicherlecks entstehen. Zeiger können auf falsche Speicherbereiche verweisen und verstecktes Fehlverhalten erzeugen (Hängender Zeiger). Siehe auch C++/CLI Embedded C++, ein Dialekt von C++, bei dem einige Sprachfeatures und Bibliotheksfunktionen entfernt wurden, um für eingebettete Systeme geeigneter zu sein. Argument dependent name lookup Literatur Weblinks Webauftritt des C++-Standardisierungskomitees (englisch) Working Draft, Standard for Programming Language C++ (englisch, PDF, 5,1 MB) Standard C++ Foundation (englisch) Website von Bjarne Stroustrup mit dessen FAQs und starkem C++-Fokus (englisch) C++ Reference; Wiki zu C++ (primär englisch) C++ Annotations, umfangreiche Einführung von Frank B. Brokken (englisch) Einzelnachweise Imperative Programmiersprache Objektorientierte Programmiersprache Programmiersprache mit einem ISO-Standard
930
https://de.wikipedia.org/wiki/Sprachelemente%20von%20C-Sharp
Sprachelemente von C-Sharp
Dieser Artikel bietet eine Übersicht einiger Sprachelemente von C#. Bedingte Ausführung (if, else, switch) Der sogenannte if-Block hat zur Folge, dass die zwischen den geschweiften Klammern liegenden Anweisungen nur dann in Kraft treten, wenn die angegebene Bedingung erfüllt ist, d. h. ihr Wert true ist. Der else-Block, der nur in Verbindung mit einem if-Block stehen kann, wird nur dann ausgeführt, wenn die Anweisungen des if-Blocks nicht ausgeführt wurden. if (Bedingung) { Anweisungen; } else if (Bedingung) { Anweisungen; } else { Anweisungen; } Die switch-Anweisung ist die Darstellung eines Falles, in dem, je nach Wert eines Ausdrucks, andere Anweisungen ausgeführt werden müssen. Es wird immer bei dem case-Label fortgefahren, dessen Wert mit dem Ausdruck in der switch-Anweisung übereinstimmt. Wenn keiner der Fälle zutrifft, wird zum optionalen default-Zweig gesprungen. switch (Ausdruck) { case Fall_1: Anweisungen; break; case Fall_2: Anweisungen; break; default: Anweisungen; break; } Im Gegensatz zu C und C++ hat die C#-switch-Anweisung keine fall-through-Semantik. Nicht-leere Zweige müssen mit einem break, continue, goto, throw oder return enden; leere Zweige können jedoch von weiteren case-Zweigen fortgesetzt werden, um mehrere Fälle mit einem Satz von Anweisungen zu behandeln: switch (Ausdruck) { case Fall_1: case Fall_2: Anweisungen; break; } In C# sind auch Strings als Prüfausdruck erlaubt: string cmd; //... switch (cmd) { case "run": Anweisungen; break; case "save": Anweisungen; break; default: Anweisungen; break; } Schleifen (for, do, while, foreach) Wird eine for-Schleife ausgeführt, wird zuerst der Startausdruck gültig. Ist dieser vollständig bearbeitet, werden die Anweisungen im Schleifenrumpf und anschließend der Inkrementierungsausdruck solange wiederholt abgearbeitet, bis die Gültigkeitsbedingung false ergibt, d. h., ungültig wird. for (Startausdruck; Gültigkeitsbedingung; Inkrementierungsausdruck) { Anweisungen; } Die while-Schleife ist dagegen recht primitiv: sie wiederholt die Anweisungen, solange die Bedingung true zurückgibt. Die Bedingung der while-Schleife wird immer vor dem Anweisungsblock ausgewertet. Wenn die Bedingung von Anfang an nicht erfüllt ist, wird der Schleifenrumpf nicht durchlaufen. while (Bedingung) { Anweisungen; } Die Bedingung der Do-While-Schleife wird immer nach dem Anweisungsblock ausgeführt. Die Schleife wird daher mindestens ein Mal durchlaufen. do { Anweisungen; } while (Bedingung); Mit der foreach-Schleife wird durch alle Mitglieder einer Sequenz iteriert. In der Schleife besteht nur lesender Zugriff auf die Schleifenvariable. foreach (Typ Variablename in Sequenz) { Anweisungen; } Die Sprunganweisungen break, continue, goto, return, yield return/break for (int i = 0; i < 10; ++i) { if (i < 8) continue; Console.WriteLine("Continue wurde nicht ausgeführt."); } Die Anweisung continue veranlasst den nächsten Durchlauf einer Schleife. (Dabei wird der restliche Code im Schleifenkörper nicht abgearbeitet). Im Beispiel wird der Text nur zweimal ausgegeben. for (int i = 0; i < 100; ++i) { if (i == 5) break; Console.WriteLine(i); } Die Anweisung break veranlasst das Programm, die nächste umschließende Schleife (oder das umschließende switch) zu verlassen. In diesem Beispiel werden nur die Zahlen 0, 1, 2, 3 und 4 ausgegeben. int a = 1; Top: a++; if (a <= 5) goto Top; Console.WriteLine("a sollte jetzt 6 sein."); Mit goto springt das Programm an das angegebene Sprungziel. Die Benutzung von goto sollte jedoch möglichst vermieden werden, da dadurch der Quellcode in der Regel unleserlicher wird. Es gilt jedoch als akzeptiertes Sprachmittel, um tief verschachtelte Schleifen zu verlassen, da in diesen Fällen der Code mit goto lesbarer ist als durch mehrfache Verwendung von break oder anderen Sprachmitteln. Siehe auch Spaghetticode. Innerhalb einer switch-Anweisung kann mittels goto case bzw. goto default zu einem der Fälle gesprungen werden. int result = ImQuadrat(2); static int ImQuadrat(int x) { int a; a = x*x; return a; } Mit return wird die aktuelle Methode verlassen und der im Kopf der Methode vereinbarte Referenz- bzw. Wertetyp als Rückgabewert zurückgeliefert. Methoden ohne Rückgabewert werden mit dem Schlüsselwort void gekennzeichnet. Eine Besonderheit bildet der Ausdruck yield return. Zweck ist es, in verkürzter Schreibweise eine Rückgabesequenz für eine Methode oder eine Eigenschaft zu erzeugen. Der Compiler nutzt hierzu einen eigenen Typ, der von System.Collections.Generic.IEnumerable<T> abgeleitet ist und somit mit einem foreach-Block durchlaufen werden kann. Jeder Aufruf von yield return fügt bis zum Verlassen der Methode/Eigenschaft ein neues Element der Sequenz hinzu. Wird das Konstrukt nicht einmal aufgerufen, ist die Sequenz leer: private int[] zahlen = new int[] { 5980, 23980 }; public IEnumerable<int> ZahlenMinusEins { get { foreach (int zahl in this.zahlen) { yield return zahl - 1; } } } public IEnumerable<double> ToDouble(IEnumerable<int> intZahlen) { foreach (int zahl in intZahlen) { yield return (double)zahl; } } Hierdurch muss keine temporäre Liste erzeugt werden, die die umgewandelten Zahlen erst zwischenspeichert und dann zurückgibt: private int[] zahlen = new int[] { 5980, 23980 }; // bspw. aus einer Eigenschaft heraus public IEnumerable<int> ZahlenMinusEins { get { List<int> rückgabe = new List<int>(); foreach (int zahl in this.zahlen) { rückgabe.Add(zahl −1); } return rückgabe; } } Jedes Element, das zurückgegeben wird, muss implizit in den Typ der Rückgabesequenzelemente konvertierbar sein. Zum Abbrechen des Vorgangs kann die Anweisung yield break verwendet werden: // bspw. aus einer Methode heraus public IEnumerable<double> ToDouble(IEnumerable<int> intZahlen) { int i = 0; foreach (int zahl in intZahlen) { if (i++ == 3) { // nach 3 Durchläufen beenden yield break; } yield return (double)zahl; } } Die Anweisungen return und yield return können nicht gemeinsam verwendet werden. Bei der Verwendung muss beachtet werden, dass die zurückgegebene Sequenz die ihr zugrundeliegende Logik verzögert ausführt, was bedeutet, dass der erste Durchlauf ein und derselben Sequenz andere Werte liefern kann, als beim zweiten Mal: // interner Zähler private int i = 0; public IEnumerable<DateTime> GetNow() { // aktuelle Uhrzeit (einziges Element) yield return DateTime.Now; } public IEnumerable<int> GetZahl() { // internen Zähler um 1 erhöhen (einziges Element) yield return this.i++; } public void TestZahl() { IEnumerable<int> sequenz = this.GetZahl(); foreach (int zahl in sequenz) Console.WriteLine(zahl); // 0 foreach (int zahl in sequenz) Console.WriteLine(zahl); // 1 foreach (int zahl in sequenz) Console.WriteLine(zahl); // 2 } public void TestZeit() { IEnumerable<DateTime> sequenz = this.GetNow(); // [1] einziges Element mit der aktuellen Uhrzeit foreach (DateTime now in sequenz) Console.WriteLine(now); // 2 Sekunden warten Thread.Sleep(2000); // [2] einziges Element wie der Wert aus [1] // + ca. 2 Sekunden foreach (DateTime now in sequenz) Console.WriteLine(now); } Die using-Anweisung Die using-Anweisung definiert einen Geltungsbereich, an dessen Ende der Speicher von nicht mehr benötigten Objekten automatisch freigegeben wird. Bei begrenzten Ressourcen wie Dateihandler stellt die using-Anweisung sicher, dass diese immer ausnahmesicher bereinigt werden. using (Font myFont = new Font("Arial", 10.0f)) { g.DrawString("Hallo Welt!", myFont, Brushes.Black); } Hier wird ein Font-Objekt erzeugt, das am Ende des Blocks automatisch durch Aufruf seiner Dispose-Methode wieder freigegeben wird. Dies geschieht selbst dann, wenn in dem Block eine Ausnahme ausgelöst wird. Der Vorteil liegt in der vereinfachten Schreibweise, denn intern wird daraus folgendes Konstrukt, das ansonsten manuell so formuliert werden müsste: Font myFont = new Font("Arial", 10.0f); try { g.DrawString("Hallo Welt!", myFont, Brushes.Black); } finally { if (myFont != null) { myFont.Dispose(); } } Klassen müssen die System.IDisposable-Schnittstelle implementieren, damit die using-Anweisung auf diese Weise eingesetzt werden kann. Objekte und Klassen Wenn man von einem Objekt spricht, handelt es sich dabei in der Umgangssprache normalerweise um ein reales Objekt oder einen Gegenstand des täglichen Lebens. Beispielsweise kann das ein Tier, ein Fahrzeug, ein Konto oder Ähnliches sein. Jedes Objekt kann durch verschiedene Attribute beschrieben werden und verschiedene Zustände annehmen und diese auch auslösen. Übertragen auf die objektorientierte Programmierung und C# ist ein Objekt ein Exemplar (siehe Schlüsselwort new) einer Klasse. Eine Klasse kann man dabei als Bauplan oder Gerüst eines Objektes ansehen. Eine Klasse besitzt Eigenschaften (Variablen), Methoden (die Tätigkeiten darstellen) und Ereignisse, die die Folge von Zuständen sind bzw. diese auslösen. Beispiel für den Bauplan eines Autos: class Auto { // Konstruktor, dient zur Erzeugung public Auto(string name, System.Drawing.Color farbe) { this.GeschwindigkeitKMH = 0; this.Name = name; this.Farbe = farbe; } // Eigenschaften: public double GeschwindigkeitKMH { get; private set; } public string Name { get; private set; } public System.Drawing.Color Farbe { get; private set; } private bool motorLaeuft = false; //Methoden: public void Beschleunigung(double AenderungKMH) { this.GeschwindigkeitKMH += AenderungKMH; GeschwindigkeitGeaendert(this.GeschwindigkeitKMH); } public void VollBremsung() { this.GeschwindigkeitKMH = 0d; GeschwindigkeitGeaendert(this.GeschwindigkeitKMH); } public void MotorStarten() { if (!this.motorLaeuft) { this.motorLaeuft = true; MotorEreignis(this.motorLaeuft); } } public void AutoStoppen() { if (this.GeschwindigkeitKMH != 0d) { VollBremsung(); } if (this.motorLaeuft) { this.motorLaeuft = false; MotorEreignis(this.motorLaeuft); } } public void Umlackieren(System.Drawing.Color neueFarbe) { this.Farbe = neueFarbe; } //Ereignisse public event MotorDelegat MotorEreignis; public event GeschwindigkeitDelegat GeschwindigkeitGeaendert; public delegate void MotorDelegat(bool laeuft); public delegate void GeschwindigkeitDelegat(double geschwindigkeit); } Die Klasse namens „object“ Die Klasse object (ein Alias für System.Object) ist ein Referenztyp, von dem jede Klasse abgeleitet wird. So kann durch implizite Typumwandlung jeder Objekttyp in object umgewandelt werden. .NET (und damit auch C#) unterscheidet zwischen Werttypen und Referenztypen. Werttypen sind jedoch auch (über den Zwischenschritt ValueType) von object abgeleitet. Deshalb kann (mittels eines boxing/unboxing genannten Verfahrens) auch eine Variable vom Typ object auf einen Werttyp, z. B. int verweisen. Strukturen (struct) Strukturen sind bereits als Sprachmittel aus Sprachen wie C++ oder Delphi (Records) bekannt. Sie dienen primär zur Erstellung eigener komplexer Datenstrukturen oder eigener Datentypen. So kann zum Beispiel eine Raumkoordinate, bestehend aus einer X-, einer Y- und einer Z-Position, durch eine Datenstruktur Koordinate abgebildet werden, die sich aus drei Gleitkommazahlen einfacher oder doppelter Genauigkeit zusammensetzt. public struct Koordinate { public double X { get; } public double Y { get; } public double Z { get; } public Koordinate(double x, double y, double z) { X = x; Y = y; Z = z; } public override string ToString() { return $"x: {X}, y: {Y}, z: {Z}"; } } C# fasst eine über das Schlüsselwort struct definierte Struktur als einen Wertetyp auf. Strukturen in C# können außerdem Methoden, Eigenschaften, Konstruktoren und andere Elemente von Klassen aufweisen; sie können aber nicht beerbt werden. Der Unterschied einer Strukturinstanz im Vergleich zu einem Objekt besteht in ihrer Repräsentation im Speicher. Da keine zusätzlichen Speicherreferenzen benötigt werden, wie es bei einem Objekt erforderlich ist (Referenztyp), können Strukturinstanzen wesentlich ressourcenschonender eingesetzt werden. So basieren beispielsweise alle primitiven Datentypen in C# auf Strukturen. Aufzählungen (Enumerationen) Aufzählungen dienen zur automatischen Nummerierung der in der Aufzählung enthaltenen Elemente. Die Syntax für die Definition von Aufzählungen verwendet das Schlüsselwort enum (Abkürzung für Enumeration). Der in C# verwendete Aufzählungstyp ähnelt dem in C, mit der Ausnahme, dass ein optionaler ganzzahliger Datentyp für die Nummerierung der Elemente angegeben werden kann. Ohne Angabe eines Datentyps wird int verwendet. public enum Wochentag { Montag = 1, Dienstag, Mittwoch, Donnerstag, Freitag, Samstag, Sonntag } Die Elementnummerierung in C# beginnt bei 0. Es ist aber auch möglich, wie in C, jedem Element – oder nur dem ersten Element – einen eigenen Startwert zuzuweisen (wie im obigen Beispiel). Dabei können sich die Anfangswerte wiederholen. Die Zählung beginnt dann jeweils von neuem bei dem definierten Startwert und Element. In C# ist es auch möglich, ein bestimmtes Element einer Enumeration über seine Ordinalzahl anzusprechen. Hierzu ist aber eine explizite Typumwandlung notwendig. Wochentag Tag = Wochentag.Mittwoch; System.Console.WriteLine(Tag); // Ausgabe: Mittwoch System.Console.WriteLine((int)Tag); // Ausgabe: 3 System.Console.WriteLine((Wochentag)3); // Ausgabe: Mittwoch Flags Neben der beschriebenen Variante des enum-Aufzählungstyps existiert noch eine spezielle Variante von Enumeration. Flags definieren Enumerationen auf Bitebene und werden durch die Metainformation [Flags] vor der Enum-Deklaration definiert. Flag-Elemente können auf Bitebene verknüpft werden, sodass mehrere Elemente zu einem neuen kombiniert werden können. Hierzu müssen den zu kombinierenden Elementen Zweierpotenzen als Werte zugewiesen werden, damit eine Kombination ermöglicht wird. [Flags] public enum AccessMode { None = 0, Read = 1, Write = 2, // Erhält den Wert 3 (Kombination aus 1 und 2) ReadAndWrite = Read | Write } Zugriffsmodifikatoren Zugriffsmodifikatoren regeln den Zugriff auf Klassen und deren Mitglieder (Methoden, Eigenschaften, Variablen, Felder und Ereignisse) in C#. Die folgende Tabelle führt die von C# unterstützten Zugriffsmodifikatoren auf und beschreibt deren Wirkung und den Sichtbarkeitskontext. Hinweise: Per Voreinstellung sind Klassenmitglieder (Methoden, Eigenschaften usw.), denen kein Zugriffsmodifikator zugewiesen wurde, automatisch als private deklariert. Klassen selbst dagegen besitzen automatisch den Modifikator internal und sind nur in der aktuellen Assembly sichtbar. Die Modifikatoren können bis auf protected und internal nicht miteinander kombiniert werden. protected internal spielt im Zusammenhang mit der Vererbung von Komponenten eine Rolle. Die Sichtbarkeit der Basisklasse wird von der abgeleiteten Klasse übernommen. Zur Implementierung eines Schnittstellenmembers muss ein Klassenmember entweder als public deklariert werden oder der Schnittstellenmember muss explizit implementiert werden. Datentypen, Operatoren, Eigenschaften und Konstanten C# kennt zwei Arten von Datentypen: Wertetypen und Referenztypen. Referenztypen dürfen dabei nicht mit Zeigern gleichgesetzt werden, wie sie u. a. aus der Sprache C++ bekannt sind. Diese werden von C# auch unterstützt, aber nur im „unsicheren Modus“ (engl. unsafe mode). Wertetypen enthalten die Daten direkt, wobei Referenztypen im Gegensatz dazu nur Verweise auf die eigentlichen Daten, oder besser, Objekte darstellen. Beim Lesen und Schreiben von Wertetypen werden die Daten dagegen über einen Automatismus, Autoboxing genannt, in einer Instanz der jeweiligen Hüllenklasse (engl. wrapper) gespeichert oder aus ihr geladen. Die Zuweisung eines Wertes bzw. einer Referenz kann während der Deklaration erfolgen oder später, sofern nicht eine Konstante deklariert wurde. Die Deklaration erfolgt durch Angabe eines Datentyps gefolgt von einem Variablennamen: // Datentyp Variable; int i; System.Collections.IList liste; Es können auch mehrere Variablen des gleichen Typs zeitgleich deklariert werden: // Datentyp Variable1, Variable2, ...; int i, j, k; System.Collections.IList liste1, liste2; Ferner besteht die Möglichkeit, der Variablen bei der Deklaration auch gleich einen Wert oder eine Referenz zuzuweisen (Initialwert): // Datentyp Variable=Wert/Referenz; int i = 5; int j = 2, k = 3; System.Collections.IList liste = new System.Collections.ArrayList(); Auch die Mehrfachzuweisung eines Wertes an verschiedene Variablen ist möglich: int i, j, k; i = j = k = 123; Einen Sonderfall der Zuweisung stellt die Deklaration von Feldern (Arrays) dar. Näheres hierzu im entsprechenden Abschnitt. Datentypen und Speicherbedarf Datentypen sind in C# nicht elementar, sondern objektbasiert. Jeder der in der Tabelle aufgeführten Datentypen stellt einen Alias auf eine Klasse des Namensraumes System dar. Beispielsweise wird der Datentyp bool durch die Klasse System.Boolean abgebildet. Durch die Objektbasiertheit ist es möglich, Methoden auf Datentypen anzuwenden: 1234.ToString(); int i = 17; i.ToString(); Vergleichbar mit C++, und anders als bei Java, gibt es unter C# vorzeichenbehaftete und vorzeichenlose Datentypen. Diese werden durch Voranstellen des Buchstabens s (für signed, englisch für vorzeichenbehaftet) und durch Voranstellen des Buchstabens u (für unsigned, englisch für vorzeichenlos) gekennzeichnet (sbyte, uint, ulong, ushort, mit Ausnahme von short). Die Gleitkomma-Datentypen (float, double, decimal) können neben einfacher auch doppelte Genauigkeit aufweisen und unterscheiden sich im Speicherbedarf. Dadurch ändert sich die Genauigkeit, was in der Anzahl der möglichen Nachkommastellen zum Ausdruck kommt. Konstanten (Schlüsselwort const) Einem mit const deklarierten „Objekt“ kann nach der Deklaration und Initialisierung kein neuer Inhalt zugewiesen werden. Das „Objekt“ wird dadurch zu einer Konstanten. Es muss dabei vom Compiler festgestellt werden können, dass der Wert, der einer Konstante zugewiesen wird, unveränderlich ist. Es ist also auch möglich, eine Konstante von einem Referenztypen zu definieren, allerdings darf dieser nur null zugewiesen werden. Grund dafür ist, dass der Compiler alle Verwendungen von Konstanten bereits zum Zeitpunkt des Kompilierens ersetzt. Strukturen können nicht konstant sein, da sie in einem Konstruktor einen Zufallsgenerator benutzen könnten. Fehlerhafte Zuweisungen einer Konstanten werden mit dem Kompilierfehler CS0133 vom C-Sharp-Kompilierer moniert. using System; using System.IO; public class ConstBeispiel { public static void Main() { //Es wird eine Konstante für die Länge eines Arrays angelegt const int arrayLength = 1024; //Es wird eine Konstante festgelegt, welche die Zugriffsart auf eine Datei beschreibt (Enum) const FileMode fm = FileMode.Open; //Es wird eine Konstante festgelegt, welche den Namen der zu öffnenden Datei festlegt const string fileName = "beispiel.txt"; //Buffer erstellen byte[] readBuffer = new byte[arrayLength]; //Stream zur Datei öffnen FileStream fs = new FileStream(fileName,fm); //Daten Lesen fs.Read(readBuffer,0,readBuffer.Length); //Stream schließen fs.Close(); //Daten ggf. bearbeiten. //... // FEHLER: IList wird ein Referenzdatentyp zugewiesen, nicht konstant const IList liste = new ArrayList(); // FEHLER: const + struct const TimeSpan zeitSpanne = new TimeSpan(10); } } Konstanten gibt es auch in anderen Sprachen (z. B. C++, Java). In Java werden Konstanten durch das Schlüsselwort final gekennzeichnet, in Fortran durch PARAMETER. Operatoren Operatoren führen verschiedene Operationen an Werten durch und erzeugen dabei einen neuen Wert. Je nach Anzahl der Operanden wird zwischen unären, binären und ternären Operatoren unterschieden. Die Reihenfolge der Auswertung wird durch die Priorität und Assoziativität bestimmt und kann durch Klammerausdrücken geändert werden. Operatoren überladen C# bietet die Möglichkeit, Operatoren für benutzerdefinierte Datentypen zu implementieren. Als benutzerdefinierter Datentyp gilt eine selbst geschriebene Klasse oder Struktur. Die Implementierung geschieht mit öffentlichen statischen Methoden. Statt eines Namens tragen sie das Schlüsselwort operator gefolgt von dem Operator-Zeichen welches überladen werden soll. Eine implizite oder explizite Typkonvertierung geschieht mittels implicit operator oder explicit operator als Methoden-Namen. Der Compiler ersetzt je nach Typ der Operanden den Quelltext in einen Aufruf der entsprechenden Methode: struct SpecialDouble { public SpecialDouble(double argument) { _value = argument; } // SpecialDouble lhs = 9d, rhs = 0.5, result; // result = lhs ^ rhs; // Compiler ersetzt Operator ^ mit dieser Methode public static SpecialDouble operator ^(SpecialDouble lhs, SpecialDouble rhs) { return Math.Pow(lhs._value, rhs._value); } // SpecialDouble lhs = 9d; // 9d wird mit 'new SpecialDouble(9d)' ersetzt public static implicit operator SpecialDouble(double argument) { return new SpecialDouble(argument); } public static implicit operator double(SpecialDouble argument) { return argument._value; } // explizite Typkonvertierung: // Nachkommastellen gehen verloren, Exception kann auftreten public static explicit operator int(SpecialDouble argument) { return (int)argument._value; } double _value; } Einschränkungen: Mindestens ein Parameter der Methode für die Überladung muss den Typ besitzen, für den der Operator überladen wird. Vergleichsoperatoren können nur paarweise überladen werden. Es können keine neuen Symbole verwendet werden. Nur die Operator-Symbole sind erlaubt, die in der Sprache definiert sind. Siehe dazu: Tabelle Operatoren Die Operatoren =, ., ?:, ->, new, is, sizeof, typeof und => können nicht überladen werden. Die Priorität eines benutzerdefinierten Operators kann nicht geändert werden. Der Vorrang und die Orientierung basiert auf dem Symbol des Operators. Die Anzahl der Operanden ist ebenfalls an das Symbol des Operators gebunden. Operatoren, die nicht reserviert sind, können nicht implementiert werden. Um den Operator [] zu simulieren, können Indexer verwendet werden. Die Operatoren && und || können nicht direkt überladen werden. Sie werden über die speziellen überladbaren Operatoren true und false ausgewertet. Die Operation x && y wird als T.false(x) ? x : T.&(x, y) ausgewertet, wobei T.false(x) ein Aufruf von dem in T deklarierten Operator false ist und T.&(x, y) ein Aufruf des ausgewählten Operator &. Die Operation x || y wird als T.true(x) ? x : T.|(x, y) ausgewertet, wobei T.true(x) ein Aufruf von dem in T deklarierten Operator true ist und T.|(x, y) ein Aufruf des ausgewählten Operator |. Eigenschaften (Schlüsselwörter get, set und value) Eine Eigenschaft (property) ist eine Sicht auf eine öffentliche Variable einer Klasse. Die Variable selbst wird durch einen Zugriffsmodifikator wie private oder protected (bei Variablen, die in abgeleiteten Klassen überschrieben werden sollen) für den Zugriff von außen gesperrt und über eine Eigenschaft zugänglich gemacht. Über die Eigenschaft kann dann bestimmt werden, ob ein lesender oder schreibender Zugriff auf die referenzierte Variable erfolgen darf. Beide Möglichkeiten sind auch miteinander kombinierbar. Eine Eigenschaft wird durch Zuweisung eines Datentyps (der dem Datentyp der Variable entsprechen muss) zu einem Eigenschaftsnamen angelegt und hat eine ähnliche Struktur wie die Syntax einer Methode. Die Eigenschaft ist dabei wie eine Variable ansprechbar und ihr kann auch ein Zugriffsmodifikator zugewiesen werden. Eine Eigenschaft enthält selbst keine Daten, sondern bildet diese auf die referenzierte Variable ab (vergleichbar mit einem Zeiger). Zur Abfrage einer Eigenschaft existiert in C# das Schlüsselwort get und zum Setzen eines Wertes das Schlüsselwort set. Von außen stellt sich die Eigenschaft dann wie eine Variable dar und der Zugriff kann entsprechend erfolgen (vgl. VisualBasic). Die Programmiersprache Java verfolgt mit den Set- und Get-Methoden (Bean-Pattern, Introspection) das gleiche Ziel – alle Zugriffe erfolgen nie direkt über eine Variable, sondern über die entsprechende Methode. Beispiel einer Eigenschaftsdefinition Wohnort für eine private Variable (_wohnort): public class EigenschaftBeispiel { private string _wohnort; public string Wohnort { get { return _wohnort; } set { _wohnort = "12345 " + value; } } } Durch das „Weglassen“ des Schlüsselwortes set oder des Schlüsselwortes get kann gesteuert werden, ob die Eigenschaft nur gelesen oder nur geschrieben werden darf. Das Schlüsselwort value ist dabei ein Platzhalter für den der Eigenschaft zugewiesenen Wert, der gesetzt werden soll. Er kann nur in Verbindung mit dem Schlüsselwort set im entsprechenden Block verwendet werden (und entspricht in etwa einer temporären lokalen Variable). Beispiel für den Zugriff auf die oben definierte Eigenschaft Wohnort: EigenschaftBeispiel instanz = new EigenschaftBeispiel(); instanz.Wohnort = "Musterstadt"; Console.WriteLine(instanz.Wohnort); // Ausgabe: ''12345 Musterstadt'' Würde bei der obigen Definition der Eigenschaft ‚Wohnort‘ der get-Block weggelassen, so würde der lesende Zugriff zu einem Zugriffsfehler führen (im Beispiel in der Zeile, in der die Ausgabe erfolgt). Neben dem einfachen Setzen oder Lesen einer Eigenschaft, können im set-Block bzw. get-Block auch Operationen ausgeführt werden, beispielsweise die Potenzierung eines bei set übergebenen Wertes (value mal Exponent), bevor er der Variablen zugewiesen wird. Das Gleiche gilt für das Schlüsselwort get. Theoretisch kann somit ein Zugriff für den Benutzer einer Klasse ganz unerwartete Ergebnisse bringen. Deshalb sollten alle Operationen, die Veränderungen auf einen Wert durchführen über normale Methoden abgebildet werden. Ausgenommen sind natürlich Wertprüfungen bei set. Das Beispiel konkateniert den der Eigenschaft übergebenen Wert (hier: Musterstadt) zur Zeichenkette „12345 “. Diese Aktion ist syntaktisch und semantisch richtig, sie sollte dennoch in einer Methode ausgeführt werden. Ab C# 3.0 ist es möglich, Eigenschaften automatisch zu implementieren. Dies ist eine verkürzte Schreibweise für Eigenschaften bei denen es sich um den Zugriff auf eine Variable handelt, die innerhalb der Klasse bzw. Struktur als Feld deklariert wurde. Beispiel anhand der Struktur Point: struct Point { public double X { get { return this.x; } set { this.x = value; } } public double Y { get { return this.y; } set { this.y = value;} } private double x, y; } Das gleiche Beispiel mit Hilfe automatisch implementierter Eigenschaften: struct Point { public double X { get; set; } public double Y { get; set; } } Mit Hilfe des Objektinitialisierers (ab .NET 3.5) ist ein Konstruktor überflüssig: Point p = new Point { X = 1.2, Y = -3.75 }; // Objektinitialisierer Console.WriteLine(p.X); // Ausgabe: 1,2 Console.WriteLine(p.Y); // Ausgabe: −3,75 Indexer Der Indexer ist die Standardeigenschaft von einem Objekt. Der Aufruf geschieht wie bei einem Array mit eckigen Klammern. Beispiel: Zugriff auf die 32 Bits einer int Variable mit Hilfe eines Indexers. using System; namespace DemoIndexers { class Program { struct IntBits { public bool this[int index] { get { return (bits & (1 << index)) != 0; } set { if (value) { bits |= (1 << index); } else { bits &= ~(1 << index); } } } private int bits; } static void Main(string[] args) { IntBits bits = new IntBits(); Console.WriteLine(bits[6]); // False bits[2] = true; Console.WriteLine(bits[2]); // True bits[2] = false; Console.WriteLine(bits[2]); // False } } } Wie bei Eigenschaften kann der Zugriff auf nur lesend oder nur schreibend beschränkt werden, indem man den get-Accessor bzw. set-Accessor weglässt. Unterschiede zu Arrays, Methoden und Eigenschaften: Indexer müssen mindestens ein Parameter besitzen. Im Gegensatz zu Arrays können beim Zugriff auch nicht ganzzahlige Werte verwendet werden. public double this[string name]{} // ist erlaubt Indexer können überladen werden. Statische Indexer sind nicht erlaubt, sowie void als Rückgabewert. ref und out dürfen bei Indexern nicht verwendet werden. Darstellung spezieller Zeichen oder Zeichenfolgen („escapen“) Ein auf das Zeichen „\“ (umgekehrter Schrägstrich, engl. backslash) folgendes Zeichen wird anders interpretiert als sonst. Dabei handelt es sich meistens um nicht darstellbare Zeichen. Soll der umgekehrte Schrägstrich selbst dargestellt werden, so muss er doppelt angegeben werden („\\“). Hexadezimale Zeichenfolge als Platzhalter für ein einzelnes Unicode-Zeichen: Das Zeichen wird dabei aus dem Steuerzeichen \x gefolgt von dem hexadezimalen Wert des Zeichens gebildet. Zeichenfolge für Unicode-Zeichen in Zeichenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \u gefolgt von dem hexadezimalen Wert des Zeichens gebildet, z. B. „\u20ac“ für „€“ Der Wert muss zwischen U+0000 und U+FFFF liegen. Zeichenfolge für Unicode-Zeichen in Zeichenkettenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \U gefolgt von dem hexadezimalen Wert des Zeichens gebildet. Der Wert muss zwischen U+10000 und U+10FFFF liegen. Hinweis: Unicode-Zeichen im Wertbereich zwischen U+10000 und U+10FFFF sind nur für Zeichenfolgen-Literale zulässig und werden als zwei Unicode-„Ersatzzeichen“ kodiert bzw. interpretiert (s. a. UTF-16). Vererbung Schnittstellen Mehrfachvererbung wird in C# nur in Form von Schnittstellen (engl. interfaces) unterstützt. Schnittstellen dienen in C# zur Definition von Methoden, ihrer Parameter, ihrer Rückgabewerte sowie von möglichen Ausnahmen. An dieser Stelle ein Anwendungsbeispiel für die Mehrfachvererbung: public class MyInt : IComparable, IDisposable { // Implementierung } Schnittstellen in C# ähneln den Schnittstellen der Programmiersprache Java. Anders als in Java, dürfen Schnittstellen in C# keine Konstanten enthalten und auch keine Zugriffsmodifikator bei der Definition einer Methode vereinbaren. public interface A { void MethodeA(); } public interface B { void MethodeA(); void MethodeB(); } public class Klasse : A, B { void A.MethodeA() {Console.WriteLine("A.A");} // MethodeA aus Schnittstelle A void B.MethodeA() {Console.WriteLine("A.B");} // MethodeA aus Schnittstelle B public void MethodeA() {Console.WriteLine("A.C");} //MethodeA für Klasse public void MethodeB() {Console.WriteLine("B.B");} // MethodeB aus Schnittstelle B } Eine Klasse, die ein oder mehrere Schnittstellen einbindet, muss jede in der Schnittstelle definierte (virtuelle) Methode implementieren. Werden mehrere Schnittstellen eingebunden, die Methoden mit dem gleichen Namen und der gleichen Struktur besitzen (d. h. gleiche Parametertypen, Rückgabewerte usw.), so muss die jeweilige Methode in der implementierenden Klasse durch das Voranstellen des Namens der Schnittstelle gekennzeichnet werden. Dabei wird die jeweilige Funktion nur dann aufgerufen, wenn der Zeiger auf das Objekt vom entsprechenden Typ ist: public static void Main() { Klasse k = new Klasse(); (k as A).MethodeA(); (k as B).MethodeA(); k.MethodeA(); Console.ReadLine(); } Ausgabe A.A A.B A.C Auch Schnittstellen ohne Methodendefinition sind möglich. Sie dienen dann als sogenannte Markierungsschnittstellen (engl. marker interface). Auf die Verwendung von marker interfaces sollte zu Gunsten von Attributen verzichtet werden. Schnittstellen können jedoch keine statischen Methoden definieren. Das Einbinden einer Schnittstelle erfolgt analog zur Beerbung einer Klasse. Schnittstellen werden per Konvention mit einem führenden „I“ (für Interface) benannt. Vererbung von Schnittstellen Das Überschreiben einer Methode durch eine abgeleitete Klasse kann mit sealed verhindert werden: interface IMessage { string Message { get; } } public class MyClass : IMessage { public virtual void OnMessage() { // kann von abgeleiteter Klasse implementiert werden } // kann nicht überschrieben werden public sealed string Message { get { OnMessage(); return "MyClass"; } } } Ein Interface kann auch durch eine Basisklasse implementiert werden: interface IMessage { string Message { get; } } public class Messenger { public string Message { get { return "Messenger"; } } } public class MyClass : Messenger, IMessage { // interface bereits implementiert } Das Schlüsselwort base Das Schlüsselwort wird im Zusammenhang von Vererbung genutzt. Vereinfacht gesagt ist die Basisklasse, das was this für die aktuelle Klasse ist. Java hingegen sieht hierfür das Schlüsselwort super vor. Nun folgt ein Beispiel, das die Verwendung von base zeigt: public class Example : Basisklasse { private int myMember; public Example() : base(3) { myMember = 2; } } In diesem Beispiel wurde die Verwendung nur anhand des Basisklassenkonstruktors gezeigt. Wie in der Einleitung beschrieben, kann base auch für den Zugriff auf die Mitglieder der Basisklasse benutzt werden. Die Verwendung erfolgt äquivalent zur Verwendung von this bei der aktuellen Klasse. Versiegelte Klassen Versiegelte Klassen sind Klassen, von denen keine Ableitung möglich ist und die folglich nicht als Basisklassen benutzt werden können. Bekanntester Vertreter dieser Art von Klassen ist die Klasse String aus dem Namensraum System. Der Modifizierer sealed kennzeichnet Klassen als versiegelt. Es ist jedoch möglich versiegelte Klassen mit Erweiterungsmethoden zu erweitern. Statische Klassen Analog zu Visual Basic .NET Modulen, können in C# Klassen definiert werden, die ausschließlich aus statischen Elementen bestehen: static class MeineStatischeKlasse { public static int StatischeEigenschaft { get { return 5979; } } public static void StatischeMethode() { } /* Dies würde der Compiler als Fehler ansehen, da diese Methode nicht statisch ist public void NichtStatischeMethode() { } */ } Erweiterungsmethoden Ab der Version 3.0 können Datentypen erweitert werden. Hierzu wird eine statische Klasse definiert. Erweiterungsmethoden (engl. extensions) beinhalten jeweils einen ersten Parameter, der mit dem Schlüsselwort this beginnt, gefolgt von der gewöhnlichen Definition des Parameters: using System; namespace MeinNamespace { public static class ExtensionKlasse { public static int MalDrei(this int zahl) { return zahl * 3; } } public static class Programm { public static void Main() { // 5979 Console.WriteLine(1993.MalDrei()); } } } Sofern die Klasse ExtensionKlasse für eine andere Klasse sichtbar ist, werden nun alle Zahlen vom Typ int mit der Methode MalDrei erweitert ohne aber den Typ int wirklich zu ändern. Der Compiler macht hierbei intern nichts anderes als die Methode MalDrei der Klasse ExtensionKlasse aufzurufen und den Wert 1993 als ersten Parameter zu übergeben. Methoden Anonyme Methoden Anonyme Methoden werden u. a. verwendet, um Code für ein Event zu hinterlegen, ohne in einer Klasse eine Methode mit einem eindeutigen Namen definieren zu müssen. Anstelle des Methodennamens steht das Schlüsselwort delegate: Button btn = new Button() { Name = "MeinButton", Text = "Klick mich!" }; btn.Click += delegate(object sender, EventArgs e) { Button button = (Button)sender; MessageBox.Show("Der Button '" + button.Name + "' wurde angeklickt!"); }; Lambdaausdrücke Ab der Version 3.0 besteht die Möglichkeit, anonyme Methoden in kürzerer Form zu definieren. Dies geschieht mit dem Operator Lambda => (ausgesprochen: „wechselt zu“). Auf der linken Seite des Lambda-Operators werden die Eingabeparameter angegeben, auf der rechten Seite befindet sich der Anweisungsblock bzw. ein Ausdruck. Handelt es sich um einen Anweisungsblock, spricht man von einem Anweisungslambda. Ein Ausdruckslambda, wie zum Beispiel x => x * x, ist hingegen ein Delegate, dessen einzige Anweisung ein return ist. Der Typ der Eingabeparameter kann weggelassen werden, wenn der Compiler diese ableiten kann. Lambda-Ausdrücke können sich auf äußere Variablen beziehen, die im Bereich der einschließenden Methode oder des Typs liegen, in dem der Lambda-Ausdruck definiert wurde. Button btn = new Button() { Name = "MeinButton", Text = "Klick mich!" }; // 'sender' wird implizit als System.Object betrachtet // // 'e' wird implizit als System.EventArgs betrachtet btn.Click += (sender, e) => { Button button = (Button)sender; MessageBox.Show("Der Button '" + button.Name + "' wurde angeklickt!"); }; LINQ LINQ definiert drei Dinge: Eine Syntax für Abfrage-Ausdrücke, die sich stark an SQL orientiert, Übersetzungsregeln, Namen (kaum mehr) für Methoden, die in Übersetzungsergebnissen benutzt werden. Implementiert wird die Funktionalität durch sogenannte LINQ-Provider, die die namentlich definierten Methoden zur Verfügung stellen. Einer davon ist zum Beispiel LINQ-to-Objects. // nimm die Liste der Mitarbeiter und // schreibe jedes Element nach 'm' var liste = from m in this.MitarbeiterListe // lies das Property 'Nachname' und nimm nur die // Elemente, die gleich 'Mustermann' sind where m.Nachname == "Mustermann" // sortiere zuerst ABsteigend nach dem Property 'Vorname' // dann AUFsteigend nach dem Property 'MitarbeiterNummer' orderby m.Vorname descending, m.MitarbeiterNummer // wähle nun zum Schluss als Element für die Liste namens 'liste' // den Wert aus dem Property 'Vorname' jedes Elements aus select m.Vorname; In MySQL könnte der obere Ausdruck bspw. folgendermaßen aussehen: SELECT m.Vorname FROM MitarbeiterListe AS m WHERE m.Nachname = "Mustermann" ORDER BY m.Vorname DESC, m.MitarbeiterNummer ASC Typumwandlungen In C# ist jeder Variablen ein Datentyp zugeordnet. Manchmal ist es nötig, Typen von Variablen ineinander umzuwandeln. Zu diesem Zweck gibt es Typumwandlungsoperationen. Dabei gibt es implizite und explizite Typumwandlungen. Eine implizite Typumwandlung erscheint nicht im Quelltext. Sie wird vom Compiler automatisch in den erzeugten Maschinen-Code eingefügt. Voraussetzung dafür ist, dass zwischen Ursprungs- und Zieltyp eine implizierte Typumwandlungsoperation existiert. Für explizite Typumwandlungen sind in C# zwei Konstrukte vorgesehen: (Zieldatentyp) Variable_des_Ursprungsdatentyps Variable_des_Ursprungsdatentyps as Zieldatentyp Während erstere Umwandlung im Fall einer ungültigen Typumwandlung eine Ausnahme auslöst, ist Letztere nur möglich, wenn der Zieldatentyp ein Referenzdatentyp ist. Bei einer ungültigen Typumwandlung wird hier dem Ziel der Nullzeiger zugewiesen. using System.Collections; public class CastBeispiel { public static void Main() { long aLong = long.MaxValue; //Typumwandlung nach int, aInt hat danach den Wert −1, //nicht in einem unchecked{}-Block eingeschlossen, wird jedoch eine Ausnahme geworfen. unchecked { int aInt = (int) aLong; } //Umwandlung nach object object aObject = aInt as object; //ungültige Typumwandlung, liste2 erhält den Wert null IList liste2 = aObject as IList; //ungültige Typumwandlung, löst zur Laufzeit eine InvalidCastException aus, //da das Object nicht vom Typ Liste ist. IList liste = (IList)aObject; //Löst den Kompilierfehler CS0077 aus, da int kein Referenztyp ist int aInt2 = aLong as int; } } Die unchecked-Anweisung bzw. Anweisungsblock dient dazu den Überlauf einer Ganzzahl zu ignorieren. Mit checked hingegen wird bei einem Überlauf ein OverflowException ausgelöst. Zu den Typumwandlungen gehört auch das sogenannte „Boxing“. Es bezeichnet die Umwandlung zwischen Wert- und Referenztypen. Der Zieltyp wird wie bei der expliziten Konvertierung in Klammern vor den umzuwandelnden Typ geschrieben. Erfolgt dies implizit, so spricht man von „Autoboxing“. Benutzerdefinierte Typumwandlungen C# erlaubt die Definition von benutzerdefinierten Typumwandlungen. Diese können als explizit oder implizit markiert werden. Implizite benutzerdefinierte Typumwandlung kommen u. a. bei der Überladungsauflösung zum tragen, während explizite dann verwendet werden, wenn oben genannte explizite Typumwandlungssyntax benutzt wird. Siehe auch: Operatoren überladen, Explizite Typumwandlung Parametrische Polymorphie (Generics) Bei der Definition von Interfaces, Klassen, Strukturen, Delegate-Typen und Methoden können Typparameter angegeben und gegebenenfalls mit Einschränkungen versehen werden. Werden Typparameter angegeben, so erhält man generische Interfaces, Klassen, und so weiter. Bei der späteren Benutzung solcher Generics füllt man die Typparameter mit konkreten Typargumenten. Definitionsseitige Ko- und Kontravarianz Ab C#4 ist es möglich, Typparametern von Interfaces und Delegate-Typen eine Varianzannotation mitzugeben. Diese beeinflusst die Subtyprelation. Angenommen, der generische Typ heiße K und habe einen einzigen Typparameter T. Möglich sind dann: Kovarianz: K<out T>; Wenn A Subtyp von B ist, dann ist K<A> Subtyp von K<B>, Kontravarianz: K<in T>; Wenn A Subtyp von B ist, dann ist K<B> Subtyp von K<A>, Invarianz: K<T>; Es gibt keine Untertypbeziehung zwischen Instanziierungen von K mit verschiedenen Typargumenten T. (Jedem Typparameter kann unabhängig von anderen eine Varianzannotation mitgegeben werden.) Neben der Fortsetzung von Untertypbeziehungen von Typargumenten auf Instanzen von Generics beeinflusst die Varianzannotation auch, an welchen Stellen ein Typparameter benutzt werden darf. So sind beispielsweise die Benutzung von kovarianten Typparametern als Typen von Methodenargumenten und die Benutzung von kontravarianten Typparametern als Rückgabetypen nicht erlaubt. Assemblies Siehe .NET Assemblies Attribute (Metadaten) Attribute geben die Möglichkeit Metadaten für Assemblies, Funktionen, Parameter, Klassen, Strukturen, Enumerationen oder Felder anzugeben. Diese können Informationen für den Compiler enthalten, für die Laufzeitumgebung oder über Reflexion während der Laufzeit ausgelesen werden. In C# werden diese mit eckigen Klammern über dem Ziel angegeben. Das STAThread-Attribut wird z. B. benötigt, wenn ein Programm COM Interoperabilität unterstützen soll – Die Fehlermeldung lautet sonst: „Es wurde eine steuernde ‚IUnknown‘ ungleich NULL angegeben, aber entweder war die angeforderte Schnittstelle nicht 'IUnknown', oder der Provider unterstützt keine COM Aggregation.“ [STAThread()] public static void Main(string[] argumente) { //... } Attribute selbst sind wiederum Klassen, die von der Klasse Attribute abgeleitet sind, und können beliebig selbst definiert werden. Beispiel: [AttributeUsage(AttributeTargets.All)] public class Autor : System.Attribute { public int Age { get; set; } public Autor(string name) { //... } } Verwendung: [Autor("Name des Autors")] [Autor("Name des 2. Autors",Age=20)] [Version(1,0,0,0)] public class IrgendeineKlasse() { //... } Abfrage von Attributen: Autor[] a = typeof(IrgendeineKlasse).GetCustomAttributes(typeof(Autor), false) as Autor[]; Ausnahmen/Exceptions Schema: try { // öffnet den Block um den Codeteil, dessen // Fehler abgefangen werden sollen. // ...unsichere Verarbeitung... } catch (ExceptionTypException exception_data) { // Fängt alle Exceptions vom Typ ExceptionTypException // ...tut was wenn ExceptionTypException geworfen wurde... } catch (Exception ex){ //Fängt alle Exceptions welche von Exception abgeleitet wurden // ...tut was wenn Exception geworfen wurde... } finally { // Wird zwingend ausgeführt } Es ist nicht zwingend erforderlich, dass immer alle Blöcke (catch, finally) angegeben werden. Den Umständen entsprechend kann auf einen try-Block auch direkt ein finally-Block folgen, wenn beispielsweise keine Behandlung einer Ausnahme erwünscht ist. Zudem ist es nicht zwingend erforderlich, dass auf ein try-catch-Konstrukt ein finally-Block folgen muss. Es ist jedoch nicht möglich, nur einen try-Block zu definieren. Ein try-Block muss mindestens von einem weiteren Block gefolgt werden. Zudem ist es möglich, mehrere catch-Blöcke zu definieren. Wird im try-Bereich eine Ausnahme ausgelöst, so werden alle vorhandenen catch-Blöcke der Reihe nach durchgegangen, um zu sehen, welcher Block sich um die Ausnahme kümmert. Somit ist es möglich, gezielt verschiedene Reaktionen auf Ausnahmen zu programmieren. Wird eine Ausnahme von keinem catch-Block abgefangen, so wird diese an die nächsthöhere Ebene weitergegeben. Beispiele vordefinierter Ausnahme-Klassen: Exception SystemException IndexOutOfRangeException NullReferenceException InvalidOperationException ArgumentException ArgumentNullException ArithmeticException ArithmeticOutOfRangeException OverflowException DllNotFoundException Bei der Implementierung eigener, nicht-kritischer Ausnahmen, ist darauf zu achten, nicht von der Klasse Exception abzuleiten, sondern von ApplicationException. Throw Mittels throw ist es möglich eine, in einem catch-Block, aufgefangene Ausnahme eine Ebene höher zu „werfen“ (weitergeben). Somit ist es möglich, dass auch nachfolgender Code von der aufgetretenen Ausnahme informiert wird und somit seinerseits Aktionen unternehmen kann, um auf die Ausnahme zu reagieren. Der Aufruf-Stack bleibt erhalten. Durch throw kann auch eine neue Ausnahme ausgelöst werden, beispielsweise eine programmspezifische Ausnahme, die nicht durch bereits vorhandene C#-Ausnahmen abgedeckt wird. Unsicherer Code Durch die Codeverifizierung und .NET-Zugriffsverifizierung werden bei C# Speicherzugriffsfehler verhindert. Bei Verwendung von Zeigern werden diese Sicherheitsmechanismen umgangen. Dies ist nur in der Betriebsart „Unsafe Code“ möglich. Beispiel: using System; class us_code { public static void Main() { unsafe { int i = 1; // i hat den Wert 1 int* p = &i; // p zeigt auf den Speicher von i mit dem Wert 1 Console.WriteLine("p = " + *p + ", i = " + i); i = 2; // Sowohl i als auch *p haben nun den Wert 2... Console.WriteLine("p = " + *p + ", i = " + i); } } } Zudem können Klassen und Methoden als unsafe deklariert werden. Kommentare und Dokumentation In C# sind, wie in C, C++ und Java, sowohl Zeilen- als auch Blockkommentare möglich. Zeilenkommentare beginnen dabei mit zwei aufeinanderfolgenden Schrägstrichen (//) und enden in der gleichen Zeile mit dem Zeilenumbruch. Alles, was nach den Schrägstrichen folgt, wird bis zum Zeilenende als Kommentar angesehen und vom Compiler übergangen. Blockkommentare, die sich über mehrere Zeilen erstrecken können, beginnen mit der Zeichenkombination /* und enden mit */. Sowohl Zeilen- als auch Blockkommentare können zu Beginn oder auch mitten in einer Zeile beginnen. Blockkommentare können in derselben Zeile enden und es kann ihnen Quelltext folgen, der vom Compiler ausgewertet wird. Alles was innerhalb des Blockkommentars steht, wird vom Compiler übergangen. // Dies ist ein Zeilenkommentar, der mit dem Zeilenumbruch endet System.Console.WriteLine("Ein Befehl"); // Ein Zeilenkommentar am Zeilenende /* Dies ist ein Blockkommentar, der in der gleichen Zeile endet */ System.Console.WriteLine("Ein weiterer Befehl"); /* Ein mehrzeiliger Blockkommentar */System.Console.WriteLine("Noch ein Befehl"); System.Console.WriteLine("Befehl 1"); /* Kommentar */ System.Console.WriteLine("Befehl 2"); System.Console/* Kommentar */.WriteLine( /* Kommentar */ "..." ) Hinweis: Es sind auch Kommentare innerhalb einer Anweisung bzw. Deklaration möglich, z. B. zur Kommentierung einzelner Methodenparameter. Diese Art von Kommentaren sollte aus Gründen der Lesbarkeit und Wartbarkeit vermieden werden. Zur Dokumentation von Methoden stellt C# in Form von Metadaten (Attribute) einen Mechanismus bereit, der es ermöglicht, eine XML-basierte Dokumentation erzeugen zu lassen. Zur Dokumentation von Typen (das heißt, Klassen und deren Elemente wie Attribute oder Methoden) steht eine spezielle Form von Zeilenkommentaren bereit. Hierzu beginnt der Zeilenkommentar mit einem weiteren, dritten Schrägstrich (///) und befindet sich direkt über dem zu dokumentierenden Typ (z. B. einer Methode). Es folgen nun XML-Tags, die jeweils eine bestimmte Funktion bei der Dokumentation übernehmen, beispielsweise eine Zusammenfassung durch einen Summary-Tag. /// <summary> /// Diese Funktion gibt den größeren Betrag zurück /// </summary> /// <param name="a">Der erste Übergabeparameter</param> /// <param name="b">Der zweite Übergabeparameter</param> /// <returns>Die Zahl mit dem größeren Betrag</returns> /// <remarks>Diese Funktion gibt den größeren Betrag der beiden Übergebenen <see cref="Int32"/>zurück. /// Sind die Beträge gleich groß, ist dies ein Fehler</remarks> /// <exception cref="ArgumentException">Der Betrag der beiden Zahlen ist gleich groß</exception> public int GetGreaterAbs(int a, int b) { return Math.Max(Math.Abs(a), Math.Abs(b)); } Alternativ kann auch eine externe Ressource referenziert werden, die die Dokumentation enthält: /// <include file='xml_include_tag.doc' path='MyDocs/MyMembers[@name="test"]/*' /> Dokumentation im XMLDoc-API-Dokumentationsformat wird vom Compiler als ein normaler Zeilenkommentar angesehen. Erst durch Angabe der Compiler-Option „/doc“ werden Kommentare, die mit drei Schrägstrichen beginnen, als XMLDoc erkannt und aus dem Quellcode in eine Datei extrahiert. Diese kann dann weiterverarbeitet werden, z. B. ähnlich wie bei Javadoc zur Erstellung einer HTML-Hilfe verwendet werden. (NDoc) Schlüsselwörter Reservierte Schlüsselwörter Die folgenden Bezeichner sind reservierte Schlüsselwörter und dürfen nicht für eigene Bezeichner verwendet werden, sofern ihnen nicht ein @-Zeichen vorangestellt wird (zum Beispiel @else). abstract as base bool break byte case catch char checked class const continue decimal default delegate do double else enum event explicit extern false finally fixed float for foreach goto if implicit in int interface internal is lock long namespace new null object operator out override params private protected public readonly ref return sbyte sealed short sizeof stackalloc static string struct switch this throw true try typeof uint ulong unchecked unsafe ushort using virtual volatile void while Kontextschlüsselwörter Die folgenden Bezeichner sind Kontextschlüsselwörter, das heißt innerhalb eines gültigen Kontextes – und nur dort – haben sie eine besondere Bedeutung. Sie stellen aber keine reservierten Wörter dar, das heißt außerhalb ihres Kontextes sind sie für eigene Bezeichner erlaubt. add alias ascending descending equals from get global group into join let on orderby partial remove select set value var where yield Siehe auch ADO.NET ASP.NET Mono Anonymer Datentyp NDoc Literatur Einzelnachweise !Sprachelemente
931
https://de.wikipedia.org/wiki/Cholesterin
Cholesterin
Das Cholesterin, auch Cholesterol (von griechisch , und von ), ist ein in allen eukaryonten Zellen vorkommender fettartiger Naturstoff. Alle Tiere und Menschen können Cholesterin selbst herstellen mit Ausnahme mancher Nematoden und Arthropoden, die es aus der Nahrung aufnehmen müssen (Cholesterin-Auxotrophie). Cholesterin ist ein essentieller Bestandteil aller tierischen Zellmembranen. Hohe LDL-Cholesterin-Werte im Blut erhöhen das Risiko für Herzinfarkt und Schlaganfall. In Österreich sind etwa 8,2 % der vorzeitigen Todesfälle auf erhöhte LDL-Cholesterinwerte zurückzuführen. Vorkommen Der Stoff wurde im 18. Jahrhundert in kristalliner Form in Gallensteinen gefunden, weshalb der französische Chemiker Eugène Chevreul, Begründer der Fettchemie, 1824 den Namen „“ prägte. Die Substanz wird bei Tieren in der Leber produziert, prinzipiell ist aber annähernd jede eukaryonte Zelle dazu in der Lage, Cholesterin in ihrem endoplasmatischen Retikulum zu bilden. Außer in der Gallenflüssigkeit ist Cholesterin auch im Blut und in Geweben zu finden, besonders reichlich im Nervengewebe. Cholesterin hat Einfluss auf die Stabilisierung von Zellmembranen, die Nervenfunktion, die Produktion von Sexualhormonen und andere Prozesse. Cholesterin kommt in fast allen tierischen Fetten vor. Ein typischer Wert für Butter beträgt zum Beispiel 2340 mg pro kg. Pflanzliches Material und Bakterien enthalten nur geringe Mengen. Maiskeimöl enthält beispielsweise 55 mg pro kg, Rapsöl 53 mg pro kg und Baumwollsamenöl 45 mg pro kg. Funktion Cholesterin ist ein lebenswichtiges Sterol und ein wichtiger Bestandteil der tierischen Zellmembran. Es erhöht die Stabilität der Membran und trägt gemeinsam mit Proteinen dazu bei, Signalstoffe in die Zellmembran einzuschleusen und wieder hinauszubefördern. Der menschliche Körper enthält etwa 140 g Cholesterin, über 95 % des Cholesterins befindet sich innerhalb der Zellen und Zellmembranen. Um die Zellen mit Cholesterin, welches lipophil (fettlöslich) sowie hydrophob (wasserabweisend bei Benetzung) ist, über das Blut versorgen zu können, wird es für den Transport an Lipoproteine gebunden. Diese können von unterschiedlicher Dichte sein und werden nach ihrem Verhalten beim Zentrifugieren bzw. in der Elektrophorese unterteilt in Chylomikronen, VLDL, IDL, LDL, HDL und Lipoprotein a. Cholesterin dient im Körper unter anderem als Vorstufe für Steroidhormone und Gallensäuren. Für die Bildung von Hormonen wandelt das Cholesterin-Seitenkettentrennungsenzym Cholesterin zu Pregnenolon um. Dieses ist die Ausgangsverbindung, aus der der Körper die Geschlechtshormone Testosteron, Östradiol und Progesteron und Nebennierenhormone (Corticoide) wie Cortisol und Aldosteron aufbaut. Auch Gallensäuren wie Cholsäure und Glykocholsäure basieren auf der Ausgangssubstanz Cholesterin. Ein Zwischenprodukt der Cholesterinbiosynthese, das 7-Dehydrocholesterin, ist das Provitamin zur Bildung von Vitamin D durch UV-Licht. Neue Forschungen zeigen zudem, dass der Körper Cholesterin zur Biosynthese herzwirksamer Glykoside nutzt. Welche Bedeutung diese endogen synthetisierten Glykoside haben, ist noch weitgehend unbekannt. Aufgrund von Sedimentfunden mit chemischen Cholesterin-Verwandten (Sterolen) wird von einigen Forschern angenommen, dass das Cholesterinmolekül, sofern es nie anders als in belebter Materie auftrat, evolutionsgeschichtlich sehr alt sein müsse. Die Biosynthese des Moleküls könne allerdings erst funktionieren, seitdem Sauerstoff in der Atmosphäre vorhanden sei. In Bakterien und den Membranen von Mitochondrien findet sich aus diesem Grund kaum Cholesterin; Pflanzen und Pilze enthalten ebenfalls kein Cholesterin, dafür aber andere, strukturell ähnliche Sterole. Chemische Einordnung Cholesterin ist ein polycyclischer Alkohol. Herkömmlich wird es als zur Gruppe der Sterine (Sterole) gehörendes Steroid zu den lipidähnlichen Substanzen gerechnet; entgegen einer verbreiteten Verwechslung ist es jedoch kein Fett. Die Steroide gehören zu den Isoprenoiden, die im Gegensatz zu den Fetten keine Ester aus Fettsäure und Alkohol sind, sondern hydrophile Pole als diverse Muster in ihrer hydrophoben Grundstruktur aufweisen können. Cholesterin ist, wie viele Substanzen, sensibel gegenüber Oxidantien. Autoxidationsprozesse können zu vielen Reaktionsprodukten führen. Bisher sind bereits über achtzig solcher Substanzen bekannt, die häufig beachtliche physiologische Wirkungen haben. Die Isolierung und Reindarstellung der Oxidationsprodukte gelingt durch chromatographische Verfahren. Ihre sichere Identifizierung erfolgt z. B. durch spektroskopische oder spektrometrische Methoden wie der Massenspektrometrie. Eine umfassende Darstellung dieser Cholesterinoxidationsprodukte gibt das Werk von Leland L. Smith: Cholesterol Autoxidation. Physiologie Cholesterin ist ein für Menschen und Tiere lebenswichtiges Zoosterin. Beim Menschen wird Cholesterin zum Großteil (90 %) im Körper selbst hergestellt (synthetisiert), beim Erwachsenen in einer Menge von 1 bis 2 g pro Tag, und kann nur zu einem kleinen Teil mit der Nahrung aufgenommen werden. Die Cholesterinresorption liegt im Durchschnitt bei 0,1 bis 0,3 g pro Tag und kann höchstens auf 0,5 g pro Tag gesteigert werden. Alle Tiere synthetisieren Cholesterin. Ausgehend von „aktivierter Essigsäure“, dem Acetyl-CoA, wird über Mevalonsäure in vier Schritten Isopentenyldiphosphat erzeugt. Weitere drei Reaktionsschritte führen zum Squalen. Nach dem Ringschluss zum Lanosterin folgen etwa ein Dutzend enzymatischer Reaktionen, die auch parallel verlaufen können, bis schließlich Cholesterin entstanden ist. Dieser letzte Abschnitt ist nicht in allen Einzelheiten bekannt, die beteiligten Enzyme sind jedoch identifiziert. Cholesterin wird über die Leber ausgeschieden, indem es in Form von Gallensäuren über die Gallenwege in den Darm sezerniert wird (etwa 500 mg pro Tag). Gallensäuren sind für die Resorption wasserunlöslicher Nahrungsbestandteile, also auch von Cholesterin, erforderlich. Cholesterin wird durch Gallensäuren emulgiert und im Dünndarm resorbiert. Da etwa 90 % der Gallensäuren wieder aufgenommen werden, ist die Ausscheidung von Cholesterin entsprechend ineffektiv. Durch Medikamente wie Colestyramin, die Gallensäuren binden und damit ihre Wiederaufnahme erschweren, kann die Cholesterinausscheidung gesteigert werden. Allerdings wird dann die Senkung des Cholesterinspiegels durch Zunahme der LDL-Rezeptordichte auf Leberzellen und die damit gesteigerte Cholesterinaufnahme aus dem Blut in die Leber, teilweise auch durch eine vermehrte Neusynthese, ausgeglichen. Aufnahme in die Zellen Cholesterin wird von vielen tierischen Zellen über rezeptorvermittelte Endocytose aufgenommen. Es wird im Blut überwiegend als Cholesterinester in Form von Lipid-Protein-Partikeln, den Low-Density-Lipoproteinen (LDL), transportiert. Sobald eine Zelle LDL benötigt, bildet sie LDL-Rezeptoren auf ihrer Zellmembran. Diese lagern sich mit Clathrin-beschichteten Vertiefungen zusammen, an die ein Endocytosesignal am cytoplasmatischen Teil des LDL-Rezeptors bindet. Dort ist ein Adapterprotein, das AP2, gebunden, das Clathrin zu sich zieht, sodass die Endocytose eingeleitet wird. Nachdem die LDL-Partikel aufgenommen worden sind, gelangen sie in die frühen Endosomen. Dafür wird zuvor das Clathrin von den Vesikeln entfernt, mit dem sie beschichtet gewesen sind. In den frühen Endosomen ist der pH-Wert niedrig (sauer), wodurch sich das LDL vom Rezeptor löst und in ein spätes Endosom übergeht, das es zu den Lysosomen bringt. Diese hydrolysieren die Cholesterinester zu freiem Cholesterin. Biosynthese Die Biosynthese des Cholesterins, die insbesondere durch Arbeiten von Konrad Bloch, Feodor Lynen, George Joseph Popják und John W. Cornforth aufgeklärt wurde, geht von den Endprodukten des Mevalonatbiosyntheseweges, von Dimethylallylpyrophosphat und von Isopentenylpyrophosphat aus und benötigt 13 weitere Reaktionen. Beim Menschen sind die Leber und die Darmschleimhaut die Hauptorte der Cholesterinsynthese. Regulation Das Gleichgewicht zwischen benötigtem, selbst produziertem und über die Nahrung aufgenommenem Cholesterin wird über vielfältige Mechanismen aufrechterhalten. Als wichtig kann dabei die Hemmung der HMG-CoA-Reduktase, des wichtigsten Enzyms der Cholesterinbiosynthese, durch Cholesterin gelten (noch stärker wird die HMG-CoA-Reduktase durch Lanosterol, eine Vorstufe von Cholesterin, gehemmt). Damit hemmen Produkte dieses Stoffwechselwegs (Cholesterinsynthese) „ihr“ Enzym; dies ist ein typisches Beispiel negativer Rückkopplung. Außerdem verkürzt sich die Halbwertszeit der HMG-CoA-Reduktase bei erhöhtem Lanosterolspiegel stark, da sie dann vermehrt an die Proteine Insig-1 und Insig-2 bindet, was schließlich zu ihrem Abbau im Proteasom führt. Es gibt noch viele andere, weniger direkte Regulationsmechanismen, die auf transkriptioneller Ebene ablaufen. Hier sind die Proteine SCAP, Insig-1 und Insig-2 wichtig, die in Anwesenheit von Cholesterin, für das sie eine Bindungsstelle besitzen, über die proteolytische Aktivierung von SREBPs die Aktivität einer größeren Anzahl Gene regulieren. Auch Insulin spielt hier eine Rolle, da es u. a. die Transkription von SREBP1c steigert. Die HMG-CoA-Reduktase, das Schlüsselenzym der Cholesterinbiosynthese, kann spezifisch und effektiv durch verschiedene Substanzen gehemmt werden (beispielsweise Statine, die als HMG-CoA-Reduktase-Hemmer eine bestimmte Klasse von Medikamenten darstellen). Über den LDL-Rezeptor wird die Aufnahme in die Zelle aktiviert. Die Höhe des Cholesterinspiegels hängt vor allem von der körpereigenen Produktion ab und erst in zweiter Linie von der Zufuhr über die Nahrung. Daneben gibt es eine Vielzahl genetisch bedingter Hypercholesterinämien. Auch als Folge anderer Erkrankungen kann der Cholesterinspiegel erhöht sein (beispielsweise durch Hypothyreose, Niereninsuffizienz oder metabolisches Syndrom). Cholesterintransport (Lipoproteine) Da Cholesterin in Wasser unlöslich ist, erfolgt der Transport im Blutplasma zusammen mit anderen lipophilen Substanzen wie Phospholipiden, Triglyceriden oder Fettsäuren mit Hilfe von Transportvesikeln, den Lipoproteinen. Das über die Nahrung zugeführte Cholesterin sowie Triglyceride werden nach der Resorption aus dem Darm von den Chylomikronen aufgenommen und von dort in die Leber transportiert. Lipoproteine verschiedener Dichte (VLDL, IDL und LDL) transportieren selbst hergestelltes und aufgenommenes Cholesterin von der Leber zu den Geweben. HDL nehmen Cholesterin aus den Geweben auf und bringen es zur Leber zurück (reverser Cholesterintransport). Das Cholesterin in den Lipoproteinen ist überwiegend mit Fettsäuren verestert. Das Spektrum dieser Fettsäuren ist in starkem Maße durch die mit der Nahrung aufgenommenen Triglyceride zu beeinflussen. Dies zeigen insbesondere Studien an Bevölkerungsgruppen mit speziellen Ernährungsformen wie z. B. Vegetarier und Veganer. Für den Abbau des LDL-Cholesterins im Blut gibt es im menschlichen Körper zwei voneinander unabhängige Wege, den LDL-Rezeptorweg und den sogenannten Scavenger-Pathway. Der größte Teil, ca. 65 % des LDL-Cholesterins im Plasma, wird über LDL-Rezeptoren verstoffwechselt. LDL-Rezeptoren findet man in allen Zelltypen der Arterien und in Hepatozyten (Leberzellen). Neben dem LDL-Rezeptorweg werden circa 15 % des LDL-Cholesterins im Plasma über den Scavenger-Pathway in den Blutgefäßen abgebaut. Als Scavenger-Zellen werden die Makrophagen bezeichnet. Sie besitzen sogenannte Scavenger-Rezeptoren, über die chemisch modifizierte (oxidierte) LDL ungehemmt und konzentrationsunabhängig aufgenommen und gespeichert werden können. Zusammenfassend lassen sich drei verschiedene Wege beschreiben, die das Cholesterin (unabhängig ob über die Nahrung oder selbst synthetisiert) im Organismus nimmt: Ausscheidung in die Galle und damit in einen enterohepatischen Kreislauf (Leber → Galle → Darm → Blut über die Vena portae → Leber). Umwandlung zu Gallensäuren, die an den Darm abgegeben werden. Abgabe ins Blut in Form von Lipoproteinen (VLDL → LDL → HDL) zur Synthese von Steroiden und Bildung von Membranen in anderen Organen. Blutspiegel Der durchschnittliche Gesamtcholesterinspiegel wie auch die LDL- und HDL-Spiegel der gesunden Normalbevölkerung sind von Land zu Land verschieden und darüber hinaus alters- und geschlechtsabhängig. Es besteht eine positive Korrelation zwischen den Blutcholesterin-Werten und dem Body-Mass-Index. Gesamtcholesterinspiegel Generell nimmt der Gesamtcholesterinspiegel mit dem Alter deutlich zu. In der Regel ist er bei jungen Frauen etwas niedriger als bei jungen Männern. Mit zunehmendem Alter gleicht sich dieser Unterschied jedoch aus, und ältere Frauen haben schließlich im Mittel einen höheren Cholesterinspiegel als ältere Männer. Einen Sonderfall stellt die Schwangerschaft dar, in der der Gesamtcholesterinspiegel im Normalfall deutlich erhöht ist. Der durchschnittliche Gesamtcholesterinspiegel der Altersgruppe zwischen 35 und 65 Jahren in Deutschland liegt bei etwa 236 mg/dl (entspricht 6,1 mmol/l), die Standardabweichung bei ±46 mg/dl. Das bedeutet näherungsweise, dass etwa zwei Drittel der deutschen Bevölkerung in dieser Altersgruppe einen Gesamtcholesterinwert im Bereich zwischen 190 mg/dl und 282 mg/dl aufweisen und je ein Sechstel der Deutschen in dieser Altersgruppe Werte oberhalb beziehungsweise unterhalb dieses Bereichs. In manchen Teilen Chinas liegt der durchschnittliche Cholesterinwert bei 94 mg/dl mit Normwerten zwischen 70 mg/dl und 170 mg/dl, wobei die geringeren Cholesterinwerte mit einer geringeren Wahrscheinlichkeit an Herz- und Krebserkrankungen korrelieren. Im globalen Vergleich der Regionen sind die Serum-Cholesterinwerte in Nordamerika, Australien und in den meisten Teilen Europas in den letzten 40 Jahren (Stand 2017) leicht gesunken (um ca. 4 %). Diese Regionen haben allerdings weiterhin die höchsten mittleren Cholesterinwerte. Gleichzeitig sind in diesem Zeitraum die Werte in Ostasien, Südostasien und Südasien stetig gestiegen. 2008 gab es die niedrigsten Werte in Afrika südlich der Sahara. Nach Schätzungen auf der Grundlage von epidemiologischen Daten und Modellrechnungen sind erhöhte Cholesterinspiegel die Ursache für etwa 4,4 Millionen weltweite jährliche Todesfälle, und eine Reduktion des Spiegels um 1-mmol/l (≙ 38,67 mg/dl) für 5 Jahre bei Personen mittleren Alters bedeute ein um ca. 20 % verringertes Risiko für eine Herzerkrankung. LDL-Cholesterinspiegel Der LDL-Cholesterinspiegel unterliegt einer ähnlichen alters- und geschlechtsabhängigen Verteilung. Auch hier ist der altersabhängige Anstieg bei den Frauen deutlich stärker ausgeprägt als bei den Männern. Der Mittelwert der Altersgruppe zwischen 35 und 65 Jahren liegt dabei bei den deutschen Frauen bei 164 mg/dl (Standardabweichung ±44 mg/dl), bei den Männern bei 168 mg/dl (±43 mg/dl). HDL-Cholesterinspiegel Der durchschnittliche HDL-Spiegel unterscheidet sich stärker zwischen den beiden Geschlechtern, wobei Frauen im mittleren Alter einen höheren HDL-Spiegel aufweisen als Männer. Die Altersabhängigkeit zeigt sich hier bei beiden Geschlechtern in einem Absinken ab einem Alter von etwa 55 Jahren. Der durchschnittliche HDL-Spiegel bei den deutschen Frauen in der Altersgruppe zwischen 35 und 65 Jahren liegt bei 45 mg/dl (±12 mg/dl), bei den Männern bei 37 mg/dl (±11 mg/dl). Quotienten Auf Grundlage der vorgenannten Parameter werden gelegentlich Quotienten aus diesen Werten bestimmt. Der Mittelwert des Quotienten aus LDL- und HDL-Spiegel liegt für die deutschen Frauen zwischen 35 und 65 Jahren bei 3,9 (±1,6), bei den Männern bei 4,9 (±1,9). Die entsprechenden Durchschnittswerte für den Quotienten aus dem Gesamtcholesterin- und dem HDL-Spiegel liegen für die Frauen bei 5,7 (±2,1), für die Männer bei 7,0 (±2,3). Messung und Labor-Referenzwerte Die Bestimmung der Konzentration von Cholesterin im Blut in medizinischen Routinelabors gehört heute zu den Bestimmungsmethoden, die in Deutschland ringversuchspflichtig sind. Ein Ringversuch ist die externe Qualitätskontrolle von Laborparametern, die von der Bundesärztekammer kontrolliert und zertifiziert wird. An die „Richtlinien der Bundesärztekammer“ (RiLiBÄK) muss sich jedes medizinische Labor in Deutschland halten. Der Referenzbereich (oftmals irreführend als „Normalwert“ bezeichnet) ist vom Messgerät und der Methode abhängig. Die Referenzbereiche wurden in den letzten Jahren mehrfach nach oben korrigiert. Um eine Verfälschung der Ergebnisse auszuschließen, wird die Bestimmung häufig erst 12 bis 16 Stunden nach der letzten Mahlzeit durchgeführt. Lange Zeit wurde im Labor nur das Gesamtcholesterin bestimmt, da die direkte Messung der verschiedenen Lipoproteine nicht möglich bzw. sehr aufwendig war. Das hat sich mittlerweile geändert. Das LDL-Cholesterin wurde ursprünglich nicht direkt gemessen, sondern aus den direkt gemessenen Werten für Gesamtcholesterin, Triglyceride und HDL nach Friedewald et al. abgeschätzt. Diese Methode kann nicht angewendet werden für Triglyzeridwerte über 400 mg/dl oder bei Vorliegen einer Chylomikronämie. Verschiedene Korrekturfaktoren sind vorgeschlagen worden, um die Präzision dieser Abschätzung zu erhöhen, jedoch sind sie bisher nicht in die klinische Praxis eingegangen. Heute wird diese Methode nur noch selten angewandt, stattdessen in Routinelaboratorien mit Analysatoren der klinischen Chemie direkt gemessen. Der Referenzbereich für den LDL-Cholesterinspiegel wird für Frauen und Männer zwischen 70 und 180 mg/dl angegeben. Zur zuverlässigen Bestimmung des Cholesterins können nach adäquater Probenvorbereitung auch die Kopplungen von Gaschromatographie und HPLC mit der Massenspektrometrie eingesetzt werden. Einheiten und Umrechnung In Westdeutschland wird für die Angabe der Konzentration von Cholesterin im Blut häufig die Einheit „mg/dl“ (Milligramm pro Deziliter) verwendet. In Ostdeutschland wird dagegen – wie im angelsächsischen Sprachraum – überwiegend die Einheit „mmol/l“ (Millimol pro Liter, vergleiche Milli und Mol) benutzt. Für Cholesterin (nicht jedoch für Triglyceride oder andere Stoffe) gilt der folgende Zusammenhang zwischen diesen Maßeinheiten: 1 mg/dl = 0,02586 mmol/l 1 mmol/l = 38,67 mg/dl Beispiel: 236 mg/dl = 236 · 0,02586 mmol/l = 6,10 mmol/l 6,10 mmol/l = 6,10 · 38,67 mg/dl = 236 mg/dl Für Triglyceride gelten die folgenden Umrechnungsformeln: 1 mg/dl = 0,0113 mmol/l 1 mmol/l = 88,57 mg/dl Erkrankungen Zu den bekannten Erkrankungen im Zusammenhang mit Cholesterin gehören die familiäre Hypercholesterinämie und Gallensteine (Gallenkonkrement). Familiäre Hypercholesterinämie Es gibt erbliche Störungen des Cholesterinstoffwechsels (familiäre Hypercholesterinämie), die unabhängig von der Nahrungsaufnahme zu stark erhöhten Cholesterinwerten im Blut führen. Bei einer der bekannten Formen der Hypercholesterinämie sind die LDL-Rezeptoren nur unvollständig ausgebildet oder fehlen ganz. Heterozygote Träger dieser Erbfaktoren sind überdurchschnittlich häufig schon in jüngeren Jahren von Herzinfarkten und anderen Gefäßkrankheiten betroffen. Gemäß einer Untersuchung aus dem Jahre 1991 gilt dies nicht mehr für ältere Personen. Hier geht die Mortalität sogar deutlich zurück und liegt nur bei 44 % gegenüber dem Standard. Die Prävalenz der häufigsten monogenetischen Hypercholesterinämie, der sogenannten autosomal dominanten familiären Hypercholesterinämie, liegt bei ca. 1:250. Bei schwereren Ausprägungen der Hypercholesterinämie (wie der familiären Hypercholesterinämie) werden medikamentöse Therapien mit Statinen, die LDL-Apherese und teilweise auch chirurgische Therapieformen eingesetzt. Gallensteine Cholesterin wird mit der Gallensäure im Darm vom Körper aufgenommen. Dabei wird Cholesterin emulgiert und im Dünndarm resorbiert. Die Löslichkeit von Cholesterin in der Gesamtgalle liegt bei 0,26 %. Bei einer Veränderung der Zusammensetzung der Galle kommt es zur Bildung von Cholesterinsteinen. 80 % der Gallensteine sind cholesterinreich und 50 % reine Cholesterinsteine. Die Bildung von Gallensteinen erfolgt nicht nur in der Gallenblase, sondern auch in der Leber. Weitere Krankheitsformen Weniger bekannte Erkrankungen sind zum Beispiel die Cholesterinspeicherkrankheit (Xanthomatose oder Hand-Schüller-Christian-Syndrom), bei der Cholesterin krankhaft unter anderem in der Haut gespeichert wird. Mit einer Häufigkeit von ca. 1:60.000 kommt in Europa das Smith-Lemli-Opitz-Syndrom (SLO) vor. Grund für die Erkrankung mit SLO-Syndrom ist ein Defekt des letzten Enzyms des Cholesterin-Biosynthesewegs, der 7-Dehydrocholesterin-Reduktase. Das klinische Bild ist gekennzeichnet durch geistige Retardierung, Wachstumsprobleme, Entwicklungsstörungen und Gesichtsveränderungen. Weiterhin ist eine Hypocholesterinämie bekannt, bei der der Cholesterinspiegel unter 130 mg/dl im Blut vorliegt. Dies tritt vor allem bei Leberschädigung wie einer Leberzirrhose, der genetisch bedingten Tangier-Krankheit und bei Mangan­mangel auf. Dabei kann unter anderem das Vitamin E nicht mehr an seine entsprechenden Zielorte transportiert werden. Cholesterin und die koronare Herzkrankheit (KHK) Herz-Kreislauf-Erkrankungen, dabei insbesondere die koronare Herzkrankheit (KHK), lösten mit steigendem Lebensstandard im 20. Jahrhundert in den westlichen Industrienationen die Infektionskrankheiten als häufigste Todesursache ab. Die Cholesterin-Hypothese In den 1950er-Jahren fand die Hypothese des amerikanischen Ernährungsforschers Ancel Keys große Beachtung, diese Entwicklung sei zusätzlich dadurch begünstigt, dass der steigende Wohlstand mit einer zu fetthaltigen Ernährung einhergehe. Insbesondere führe eine cholesterinreiche Ernährung (in erster Linie Fleisch, Hühnerei, Milch, Butter und andere Milchprodukte) zu einem erhöhten Cholesterinspiegel. Die Aufnahme von cholesterinhaltiger Nahrung sei somit eine von vielen Ursachen für einen Herzinfarkt. Keys selbst relativierte die Bedeutung der ernährungsbedingten Cholesterinaufnahme für den Cholesterinspiegel im menschlichen Blut bereits 1965: Die Cholesterin-Hypothese stützt sich ausschließlich auf empirisch gewonnene Hinweise. Es konnte jedoch bisher kein biologischer Mechanismus nachgewiesen werden, der über das Cholesterin bzw. einen erhöhten Cholesterinspiegel zur Plaquebildung führt. Die Hypothese, cholesterinreiche Ernährung und ein hoher Blut-Cholesterinspiegel spielten eine ursächliche Rolle bei der Entstehung von Herzinfarkten, hat in den vergangenen Jahrzehnten im wissenschaftlichen Umfeld wie in der öffentlichen Wahrnehmung große Verbreitung gefunden. Sie bildete in der medizinischen Praxis ein wesentliches Element der Vorbeugung von Herzinfarkten und führte insbesondere in den USA, aber auch in Europa zur Verbreitung künstlich cholesterinreduzierter oder cholesterinfreier Lebensmittel (beispielsweise Margarine) sowie zu einer routinemäßigen Verschreibung von Medikamenten zur Senkung des Cholesterinspiegels. Heute besteht ein wissenschaftlicher Konsens über den Zusammenhang des Cholesterinspiegels im Gefäßsystem und arteriosklerotischer kardiovaskulärer Erkrankungen. Cholesterin im Körper Cholesterin ist ein wesentlicher Bestandteil der arteriosklerotischen Plaques. Dies wurde 1910 vom deutschen Chemiker und späteren Nobelpreisträger Adolf Windaus nachgewiesen. Bei jüngeren Männern bis zum Alter von etwa 45 Jahren geht ein hoher Gesamt- bzw. LDL-Cholesterinspiegel mit einem erhöhten Auftreten von koronaren Herzerkrankungen (KHK) einher und stellt dabei neben den weiteren bekannten Risikofaktoren einen eigenständigen Risikofaktor dar. Das bedeutet, dass sich diese Korrelation nicht allein durch die Korrelation des Cholesterinspiegels mit anderen bekannten KHK-Risikofaktoren erklären lässt. Weitere bekannte Risikofaktoren sind Lebensalter, Geschlecht, positive Familienanamnese (d. h. Auftreten von Herzinfarkt in der näheren Verwandtschaft), Rauchen, Diabetes mellitus, Bluthochdruck, Übergewicht und Bewegungsmangel. Für jüngere wie ältere Frauen und für ältere Männer stellt ein hoher Cholesterinspiegel allerdings – entgegen der weit verbreiteten Meinung – keinen Risikofaktor für Koronare Herzerkrankungen dar. Patienten mit familiärer Hypercholesterinämie haben aufgrund eines erblichen Gendefekts einen sehr hohen Cholesterinspiegel (oft 400 mg/dl und mehr) und in jungen Jahren ein gegenüber der Normalbevölkerung um ein Vielfaches gesteigertes KHK-Risiko. Durch die Vergabe verschiedener Lipidsenker konnte die Lebenserwartung dieser Patienten erhöht werden. Das KHK-Risiko dieser Patienten normalisiert sich allerdings in einem Alter ab etwa 55 Jahren. In zahlreichen Studien wurde demonstriert, dass die Einnahme von Medikamenten zur Cholesterinsenkung insbesondere bei männlichen KHK-Hochrisikopatienten zu einem Rückgang des Herzinfarktrisikos führen kann, der allerdings in aller Regel durch eine Zunahme anderer Todesursachen kompensiert wurde. In den vergangenen Jahren konnte mit der Medikamentengruppe der Statine in einzelnen Studien erstmals auch ein geringer lebensverlängernder Nutzen der Einnahme eines Cholesterinsenkungspräparats demonstriert werden. Dieser zeigte sich allerdings nur in einem Teil der durchgeführten Studien und nur bei männlichen KHK-Hochrisikopatienten mittleren Alters. Menschen mit einer bestimmten Variante in dem Gen für den Low-Density-Lipoprotein-Rezeptor (LDL-Rezeptor) haben ein Leben lang niedrigere Cholesterinspiegel im Blut. Das Herzinfarktrisiko ist bei diesen Menschen um 23 % vermindert. Der LDL-Rezeptor bindet allerdings nicht nur LDL, sondern auch mehrere andere Proteine, sodass der Zusammenhang durch diesen Fakt noch nicht hergestellt ist. Die European Atherosclerosis Society schreibt: Dabei hängt der kausale Effekt des LDL-Cholesterins sowohl von der Höhe als auch der Akkumulation ab, der man ausgesetzt ist. Daher ist es von besonderer Bedeutung, das ganze Leben über niedrige LDL-Blutwerte zu haben. So kann die Anzahl der Partikel minimiert werden, die sich in den Arterienwänden einlagern und somit auch der fortschreitende Aufbau von Plaques verlangsamt werden. High-Density-Lipoprotein versus Low-Density-Lipoprotein Die ursprüngliche Hypothese, ein erhöhter Cholesterinspiegel sei kausal verantwortlich für die koronare Herzerkrankung, wird in jüngerer Zeit meist nur noch in modifizierter Form vertreten. Unterschieden wird nun zwischen HDL- und LDL-Cholesterin, wobei ein hoher HDL-Cholesterinspiegel als günstig, ein hoher LDL-Spiegel dagegen als weniger günstig angesehen wird. Entsprechend dieser Vorstellung wird HDL populärwissenschaftlich als „gutes“ Cholesterin bezeichnet, LDL als „schlechtes“ Cholesterin. Diese Vorstellung stützt sich auf verschiedene Beobachtungen: HDL fördert den Transport von Cholesterin vom Gewebe zur Leber, während LDL zum Transport in umgekehrter Richtung beiträgt. Aufgrund dessen wird vermutet, dass ein hoher HDL-Spiegel und ein niedriger LDL-Spiegel dazu führen, dass im Verhältnis mehr Cholesterin von den Gefäßen zur Leber transportiert wird und sich deshalb weniger arteriosklerotische Plaques bilden können. Das Verhältnis von LDL zu HDL korreliert noch stärker als der Gesamtcholesterinspiegel mit den bekannten Risikofaktoren für Arteriosklerose, wie Alter, Geschlecht, Rauchen, Übergewicht und Bewegungsmangel. Betrachtet man also lediglich die HDL- und LDL-Spiegel, ohne eine Normierung bezüglich der Risikofaktoren vorzunehmen, so scheint das Risiko sehr deutlich mit dem LDL-Spiegel zu steigen. In wissenschaftlichen Untersuchungen der letzten 20–30 Jahre hat man festgestellt, dass die arteriosklerotischen Plaques überwiegend aus chemisch modifiziertem (oxidiertem) LDL-Cholesterin entstehen (siehe den Abschnitt Die Lipoprotein-induced-atherosclerosis-Hypothese im Artikel Arteriosklerose). Cholesterin in der Nahrung Bei Hasen und anderen überwiegend vegetarisch lebenden Tieren führt im Tierversuch die Verabreichung einer stark cholesterinhaltigen Nahrung (Milch, Eigelb) zur Entwicklung einer Arteriosklerose. Diese Beobachtung wurde erstmals 1908 von dem russischen Wissenschaftler Alexander Ignatowski veröffentlicht. Umstritten ist allerdings die Übertragbarkeit dieser Ergebnisse auf den Menschen, da dessen natürlicher Regelmechanismus für die Höhe des Cholesterinspiegels die Aufnahme von Cholesterin über die Nahrung nahezu vollständig kompensiert. Daher wurden später ähnliche Untersuchungen an Schweinen vorgenommen, welche eine 70%ige Homologie zum Menschen aufweisen, ferner auch an Affen, mit ähnlichen Ergebnissen wie bei den Hasen. Bei einzelnen der untersuchten Affenarten, die wie Schweine oft Allesfresser mit überwiegend vegetarischer Ernährung sind, fand man allerdings starke individuelle Unterschiede auch innerhalb einer Art. Bei einzelnen Individuen lässt sich der Cholesterinspiegel demnach durch die Ernährung beeinflussen („hyper-responders“), bei anderen nicht („hypo-responders“). Ancel Keys veröffentlichte aufsehenerregende vergleichende Studien von sechs (1953) bzw. sieben Ländern (1966, 1970 und 1980), in denen er für diese Länder länderübergreifend eine Korrelation zwischen der Rate koronarer Herzkrankheiten (KHK; Erkrankung der Herzkranzgefäße) und dem Anteil tierischer Fette in der Ernährung zeigte. Insbesondere Japan wies eine niedrige KHK-Rate auf, bei gleichzeitig geringem Anteil tierischer Fette in der Nahrung, in den USA ist das Gegenteil der Fall. Später wurde Keys zum Vorwurf gemacht, dass er gezielt nur diejenigen der zu diesem Zeitpunkt veröffentlichten Länder-Datensätze präsentiert habe, die die von ihm postulierte Korrelation unterstützten. Andere Studien, welche die KHK-Rate von eingewanderten Japanern in den USA untersuchten, konstatierten eine Angleichung der niedrigeren japanischen an die USA-KHK-Rate. Dies könnte für ernährungsbedingte Faktoren sprechen, wäre aber auch durch andere Faktoren erklärbar, die mit dem Lebensstil zusammenhängen. Kritiker stellen auch die Vergleichbarkeit der von verschiedenen Staaten veröffentlichten Todesursachen in Frage, da bei der Feststellung der Todesursache auch lokale Gewohnheiten und kulturelle Faktoren eine Rolle spielten. Empfehlungen zu Lebensstil und medikamentöser Behandlung Die Hypothese, Cholesterin sei kausal verantwortlich für Herzinfarkte, führte bereits in den 1960er Jahren zu einer breit angelegten öffentlichen Informationskampagne in den USA, um die Bevölkerung vor den möglichen Gefahren eines hohen Cholesterinspiegels zu warnen. Im Jahre 1984 warnte das amerikanische Nachrichtenmagazin Time in einer Titelgeschichte vor dem Verzehr von Eiern und Wurst. Im Jahre 1985 wurde zur Ausweitung dieser Kampagne durch die American Heart Association (AHA, Amerikanischer Kardiologenverband) das National Cholesterol Education Program (NCEP, Nationales Cholesterin-Erziehungsprogramm) ins Leben gerufen. Das NCEP gibt seit seiner Gründung regelmäßig Empfehlungen heraus, an denen sich die Behandlung von Patienten mit hohem Cholesterinspiegel orientieren soll. In Deutschland ist die Deutsche Gesellschaft für Kardiologie (DGK) die entsprechende Fachgesellschaft, die eigene Zielwerte herausgibt, die aber in der Regel den amerikanischen Werten sehr ähnlich sind. Eine vergleichbare Rolle wie das NCEP übernimmt in Deutschland die industrienahe Lipid-Liga. Die grundlegenden Richtlinien der NCEP III, denen sich die europäischen und deutschen Gesellschaften angeschlossen haben, unterscheiden drei gestaffelte Risikogruppen. Zur Gruppe 1 zählen alle Patienten, die bereits eine KHK entwickelt haben oder ein vergleichbares Risiko aufweisen (dazu zählt z. B. auch eine Diabeteserkrankung). Diese Patienten haben ein 10-Jahres-Risiko für ein kardiales Ereignis von >20 %. Zur Gruppe 2 zählen die Patienten, die mindestens zwei Risikofaktoren aufweisen, zur Gruppe 3 die Patienten, die weniger als zwei Risikofaktoren aufweisen. Patienten der Gruppe 1 sollten bei LDL-Werten über 100 mg/dl Lebensstiländerungen vornehmen (Ernährung etc.), bei Werten über 130 mg/dl eine medikamentöse Therapie beginnen. Ziel sollte für sie sein, LDL-Werte unter 100 mg/dl zu erreichen. Patienten der Gruppe 2 sollten bei LDL-Werten über 130 mg/dl Lebensstiländerungen vornehmen, bei Werten über 130 mg/dl oder 160 mg/dl (abhängig von der spezifischen Risikoberechnung) eine medikamentöse Therapie beginnen. Ziel sollte sein, LDL-Werte unter 130 mg/dl zu erreichen. Patienten der Gruppe 3 sollten bei LDL-Werten über 160 mg/dl eine Lebensstiländerung vornehmen und eine medikamentöse Therapie erwägen, ab 190 mg/dl wird eine medikamentöse Therapie dringend empfohlen. Als Risikofaktoren gelten: Rauchen erhöhter Blutdruck (über 140/90 mmHg oder eine aktuelle hypertensive Behandlung) niedriges HDL-Cholesterin (<40 mg/dl) koronare Herzerkrankungen in der Familie (bei männlichen Verwandten ersten Grades unter 55 Jahren oder weiblichen Verwandten ersten Grades unter 65 Jahren) Alter (Männer über 45, Frauen über 55 Jahre) Als Lebensstiländerungen werden empfohlen: Reduktion der verzehrten gesättigten Fettsäuren (<7 % der Gesamtenergie) und des Cholesterins nichtmedikamentöse Therapieoptionen zur LDL-Senkung (z. B. pflanzliche Sterole [2 g/Tag] etc.) Gewichtsreduktion erhöhte körperliche Betätigung Die Anwendung dieser Zielwerte wird von den deutschen Fachgesellschaften der Kardiologen und Internisten unterstützt und befürwortet. Cholesterin und Schlaganfallrisiko Der Zusammenhang von Cholesterin und Schlaganfällen ist komplex, zumal Cholesterin nicht der einzige Risikofaktor für Schlaganfälle ist, sondern auch der Blutdruck einen starken Einfluss hat. Generell hat sich in den letzten Jahren jedoch gezeigt, dass hohe Cholesterinspiegel ein höheres Risiko für ischämische arteriothrombotische Schlaganfälle bedeuten, also Schlaganfälle, die durch einen Gefäßverschluss auf dem Boden einer Arteriosklerose entstehen. Gleichzeitig schützen höhere Cholesterinspiegel aber vor Schlaganfällen durch Hirnblutungen (hämorrhagischer Schlaganfall). Umgekehrt bedeuten niedrige Cholesterinspiegel ein höheres Risiko für hämorrhagische Schlaganfälle. Der Zusammenhang wurde in vielen unterschiedlichen Studien gefunden, sodass mit Stand 2019 davon ausgegangen werden kann, dass Cholesterin „wahrscheinlich“ eine ursächliche Rolle spielt. Für die Therapie bedeutet das, dass eine cholesterinsenkende Therapie beispielsweise mit Statinen das Risiko für ischämische Schlaganfälle senkt. Es muss allerdings auch auf eine gute Blutdruckeinstellung geachtet werden, da hoher Blutdruck das Risiko für alle Schlaganfallarten steigert. Niedrige Cholesterinspiegel bei hohem Blutdruck bedeuten ein noch höheres Risiko für hämorrhagische Schlaganfälle. Cholesterin und Krebserkrankungen Cholesterin spielt beim Metabolismus verschiedener Krebsarten eine wesentliche Rolle. Cholesterin-Derivate begünstigen das Krebswachstum und unterdrücken die Immunabwehr des Körpers. Serum-Cholesterinspiegel und Krebsrisiko Bei Krebserkrankung ist der Cholesterinspiegel zum Beispiel bei an Brustkrebs erkrankten Frauen im Vergleich zu Gesunden erhöht. Ursache dafür könnte sein, dass ein Abbauprodukt von Cholesterin, das Oxysterol, dem Östrogen sehr ähnlich ist und auch eine wachstumsfördernde Wirkung hat. Bei fortschreitendem Leberkrebs wird die Cholesterinbildung eingeschränkt und als Folge sinkt auch der Serum-Cholesterinspiegel. Eine cholesterin- und fettreiche Ernährung beeinflusst das Krebswachstum. Cholesterin und geistige Gesundheit Cholesterin und Gewaltbereitschaft In einer im Jahre 2005 veröffentlichten Studie zeigte sich ein statistisch signifikanter Zusammenhang zwischen einem niedrigen Gesamtcholesterinspiegel bei Kindern und Schulverweisen in den Vereinigten Staaten; dieser zeigte sich allerdings nur bei nicht-afroamerikanischen Kinder. Nicht-afroamerikanische Kinder und Jugendliche mit einem Gesamtcholesterinspiegel unterhalb des -Perzentils (<145 mg/dl) hatten eine fast dreifach erhöhte Wahrscheinlichkeit, in ihrer Schullaufbahn von der Schule verwiesen worden zu sein. Dies wird von den Autoren als Hinweis dafür gewertet, dass niedrige Cholesterinspiegel mit einer erhöhten Aggressivität im Zusammenhang stehen könnten. Sie verweisen allerdings darauf, dass Stress (zum Beispiel durch Konflikte in der Schule) auch den Cholesterinstoffwechsel beeinflussen kann, und dass andere Faktoren wie genetische Disposition, Ernährungsweise und Mangel anderer Nährstoffe, und generelle Lebensumstände hineinspielen, und damit das Erkennen von Kausalitäten erheblich erschwert ist. Cholesterin und Depressionen Die Studienlage zum Zusammenhang von Depression und Cholesterinspiegel ist uneinheitlich. Es gibt Studien, welche Depression mit niedrigen Spiegeln in Verbindung bringen, und Studien, die erhöhte Spiegel bei Depression feststellten. Cholesterinspiegelerhöhung durch Stress In einer Studie aus dem Jahr 2005 wurde ein Zusammenhang zwischen erhöhtem psychischem Stress und einer Erhöhung des Cholesterinspiegels nachgewiesen. Dieser Zusammenhang zeigte sich sowohl kurzfristig als auch innerhalb eines Zeitraums von drei Jahren. Allerdings war die Ausprägung dieses Phänomens für verschiedene Probanden stark unterschiedlich. Die Probanden, die auch kurzfristig unter Stresseinfluss einen relativ hohen Cholesterinanstieg zeigten, hatten auch besonders hohe Anstiege über den längeren Zeitraum. Hierbei ist stets zu beachten, dass Stress sowohl das Ernährungsverhalten als auch den Stoffwechsel grundlegend beeinflussen kann, so dass ein Rückschluss auf einzelne Stoffe erschwert ist. Gedächtnisleistung In einer an 326 Frauen mittleren Alters durchgeführten und 2003 veröffentlichten Studie zeigte sich eine lineare Korrelation der Gedächtnisleistung mit dem LDL-Cholesterinspiegel. 29 Frauen nahmen Lipidsenker. In einer anderen Studie wurden 3.486 Männer und 1.341 Frauen mit einem mittleren Alter von 55 Jahren untersucht. Die Teilnehmer unterzogen sich drei kognitiven Tests über einen Zeitraum von 10 Jahren. Die Studie zeigte, dass hohe Cholesterinwerte zusammen mit Bluthochdruck zu frühem Gedächtnisverlust führten. Allgemein gelten heute hohe Cholesterinwerte zur Lebensmitte als Risiko für die Entwicklung von Demenz. Ab einem Alter von 85 Jahren allerdings stehen hohe Cholesterinwerte in Zusammenhang mit besserer Gedächtnisleistung. Demenz Studien zeigen einen Zusammenhang zwischen hohen Cholesterinwerten während der Lebensmitte und der späteren Entwicklung von Demenz. In einer Studie mit 2125 Teilnehmern wurde ein Zusammenhang zwischen hohen LDL-Cholesterin und frühem Einsetzen von Alzheimer gefunden. Cholesterin und Ernährung Einfluss der Ernährung auf den Cholesterinspiegel Der Konsum von gesättigten Fetten (bspw. aus tierischen Lebensmitteln) und Transfetten (aus Fertigprodukten) regt in der Leber die Produktion von LDL-Cholesterin an und erhöht so den Spiegel. Eine Reduktion von gesättigten Fetten senkt somit das LDL-Cholesterin und damit das Risiko für koronare Herzkrankheit. Deshalb empfiehlt die Deutsche Gesellschaft für Ernährung, die Zufuhr von gesättigten Fettsäuren auf 7 % bis 10 % der Gesamtenergiezufuhr zu beschränken und die Zufuhr von mehrfach ungesättigten Fettsäuren zu steigern. Die Zufuhr von Nahrungscholesterin – hauptsächlich in tierischen Lebensmitteln enthalten – führt wahrscheinlich zu einem Anstieg des Verhältnisses von Gesamt- zu HDL-Cholesterin und mit überzeugender Evidenz zu einem geringen Anstieg von Gesamt- und LDL-Cholesterin. Die National Academies of Sciences, Engineering, and Medicine empfehlen, die trans-Fettsäuren- und Cholesterinaufnahme „so niedrig wie möglich“ zu halten, ohne dabei die adäquate Nährstoffversorgung zu gefährden. Die meisten tierischen Lebensmittel enthalten sowohl Cholesterin als auch gesättigte Fette. In jüngerer Zeit wird argumentiert, dass die wenigen tierischen Lebensmittel, die zwar viel Cholesterin, aber wenig gesättigte Fette enthalten (Eier, Garnelen), keinen negativen Einfluss auf die Herzkreislaufgesundheit haben. So lässt der Konsum von Eiern für geschätzt 70 % der Menschen den Cholesterinspiegel kaum ansteigen. Bei Personen, bei denen Eierkonsum zu einem Anstieg des Gesamtcholesterinspiegels führt, steigt sowohl der LDL- als auch der HDL-Spiegel, was erklären könnte, warum Eier bislang in Beobachtungsstudien nicht eindeutig mit einem erhöhten Risiko für Herzkreislauferkrankungen assoziiert sind. Um die gesundheitlichen Aspekte des Eierkonsums abschließend zu bewerten, sieht die Deutsche Gesellschaft für Ernährung noch Forschungsbedarf in Form von Interventionsstudien. Empfehlung bei hohem Cholesterinspiegel Nach einer Diagnose eines hohen Cholesterinspiegels wird in der Regel als erste Maßnahme eine fettmodifizierte und cholesterinarme Ernährung empfohlen. Eine umfassende Darstellung zu dieser Frage wurde 1981 vom Institut für Sozialmedizin und Epidemiologie des Bundesgesundheitsamts veröffentlicht. Gemäß den Empfehlungen der DGFF (Lipid-Liga) sollten hierbei folgende Punkte bei der Nahrungsaufnahme bedacht werden: Wenig fettes Fleisch, Innereien, Wurstwaren, Schinken Wenig Käse, Sahne, Vollmilch, Butter Eier nur maßvoll konsumieren Fettarme Zubereitung Wenig tierische Lebensmittel Mehrmals am Tag frisches Obst und Gemüse Verwendung von Pflanzenöl (jedoch kein Kokos oder gehärtete Margarine) Verzicht auf Alkohol Ausreichend Bewegung Wasserlösliche Ballaststoffe senken dosisabhängig den Gesamt- und LDL-Cholesterinspiegel. Auch Vitamin-D-Supplemente können den Gesamt- und LDL-Cholesterinspiegel senken. Ungefilterter Kaffee enthält Öle, welche den Cholesterinspiegel ansteigen lassen können. Im Falle von Filterkaffee bleiben diese jedoch großteils im Filter zurück und wirken sich daher nicht aus. Darüber hinaus wird ein Cholesterin-senkender Einfluss bestimmter Lebensmittel diskutiert. So können 3 g Beta-Glucan am Tag aus beta-glucanreichen Lebensmitteln wie Gerstenbackwaren, Gerstenflocken, Gersten-Salate oder Haferkleie als Teil einer abwechslungsreichen und ausgewogenen Ernährung den Cholesterinspiegel senken und reduzieren damit einen wesentlichen Risikofaktor von Herz- und Gefäßerkrankungen. Pflanzenbasierte Ernährung Nach einer Übersichtsarbeit von 2017 wurden bei Vegetariern und Veganern signifikant verringerte Gesamt- und LDL-Cholesterinspiegel beobachtet: bei Vegetariern −28,2 mg/dl bzw. −21,3 mg/dl und bei Veganern −31,0 mg/dl bzw. −22,9 mg/dl. Dies ging mit einem um 25 % verringerten Risiko für koronare Herzerkrankung einher. In Interventionsstudien wurde untersucht, ob eine Umstellung auf eine pflanzenbasierte Ernährung geringere Cholesterinspiegel mit sich bringt. Eine Meta-Analyse von 2015, die 11 Interventionsstudien einbezog, kam zu dem Schluss, dass LDL- und HDL-Spiegel bei pflanzenbasierter Ernährung signifikant verringert sind: Gesamtcholesterin −0,36 mmol/L (entspricht 13,9 mg/dl) LDL-Cholesterin −0,34 mmol/L (entspricht 13,1 mg/dl) HDL-Cholesterin −0,10 mmol/L (entspricht 3,9 mg/dl). Eine Meta-Analyse von 2017, die 30 Beobachtungs- und 19 Interventionsstudien einbezog, bestätigte diese Beobachtung und kam zu dem Schluss, dass vegane Kostformen den größten Effekt zeigen. Einfluss von Übergewicht Bei Übergewicht treten Fettstoffwechselstörungen wie erhöhtes LDL-Cholesterin und hohe Plasma-Triglyzeride (→Hypertriglyceridämie) auf. Nach Gewichtsreduktion kann innerhalb kurzer Zeit eine Senkung des Gesamtcholesterins und des LDL-Cholesterins beobachtet werden. Im Vergleich zu anderen Lipiden am deutlichsten verringern sich die Triglyzeride unter einer Gewichtsreduktion. Es zeigte sich, dass eine Gewichtsreduktion von 7 bis 10 kg eine eindeutige Verbesserung in den Lipidparametern mit sich bringt. Zwischen dem HDL-Cholesterin und dem Körpergewicht besteht eine negative Korrelation. Bei einem Body-Mass-Index >30 werden unabhängig von Alter und Geschlecht des Betroffenen niedrigere Werte für das HDL-Cholesterin im Plasma gemessen. Beim Fasten oder einer Ernährung mit weniger als 1000 kcal pro Tag fällt der HDL-Cholesterinspiegel zunächst ab. Erst bei Gewichtskonstanz oder einem geringeren Energiedefizit steigt das HDL-Cholesterin an. Unter körperlichem Training bleibt es allerdings auch bei rascher Gewichtsreduktion konstant. Durch eine langfristige Veränderung der Fettzusammensetzung – insbesondere den teilweisen Ersatz gesättigter durch ungesättigte Fette – kann bei Männern das Risiko für Herz-Kreislauf-Erkrankungen gesenkt werden. Allerdings ist ungeklärt, welches ungesättigte Fett der ideale Ersatz ist. Genetische Aspekte Bei Gruppen wie den Massai, die sich fast ausschließlich von Milch und Fleisch ernähren, hat vermutlich genetische Selektion dazu geführt, dass diese niedrigere Cholesterinwerte aufweisen. Japaner, die in ihrer Heimat weniger von Arteriosklerose betroffen sind, hatten nach ihrer Migration in die USA höhere Cholesterinwerte und erkrankten doppelt so häufig an koronarer Herzkrankheit. Industriefinanzierte Studien Neil Barnard et al. untersuchten den Einfluss der Eierproduzenten auf die Cholesterin-Forschung. Barnard zufolge erhöhte sich die Zahl der industriefinanzierten Studien, die dem Einfluss der Ernährung auf den Cholesterinspiegel gewidmet waren, von 0 % in den 1950er Jahren auf 60 % im Zeitraum 2010 bis 2019. Unter den industriefinanzierten Interventionsstudien, die die Wirkung des Eikonsums auf die Cholesterinkonzentration bestimmten, zeigten 34 % einen signifikanten Effekt, von den nicht-industriefinanzierten Studien waren es 51 %. Die Autoren empfehlen Lesern, Redakteuren und der Öffentlichkeit, bei der Interpretation der Studienergebnisse und Schlussfolgerungen auf die Finanzierungsquellen zu achten. Mit Phytosterolen angereicherte Lebensmittel Phytosterole aus Pflanzen können nachgewiesenermaßen die Aufnahme von Nahrungscholesterin senken. Einige Functional-Food- Lebensmittel sind daher mit ihnen in hohen Mengen angereichert, die über eine übliche Ernährung nicht erreicht werden. Allerdings hemmen Phytosterole bei dauerhafter Anwendung nicht nur die Cholesterolaufnahme, sondern auch die Aufnahme von Carotinoiden und fettlöslichen Vitaminen. Zudem kann sich bei Menschen, die aufgrund genetischer Veränderungen überschüssige Phytosterole nicht abbauen können, dieses im Blut anreichern und Arteriosklerose hervorrufen. Damit erhöht sich für diese Personen sogar das Risiko einer Herz-Kreislauf-Erkrankung. Cholesterin-Skeptiker Das THINCS (The International Network of Cholesterol Sceptics) ist ein loses Netzwerk von etwa 90 Wissenschaftlern, die die so genannte Cholesterinhypothese anzweifeln. Es wurde vom Dänen Uffe Ravnskov (* 1934) gegründet. Ihnen zufolge sei der Einfluss einer kurzfristigen Nahrungsumstellung auf den Cholesterinspiegel nur gering, da die Zusammensetzung der Nahrung nur einen geringen Anteil bei der Bildung von Cholesterin hat. Ravnskov argumentierte beispielsweise um 1999, eine genauere Auswertung von japanischen Einwanderern in die USA zeige, dass deren Herzerkrankungen und Arteriosklerose unabhängig von der Nahrungszusammensetzung und dem ermittelten Cholesterinspiegel sei. Vielmehr wirke sich ein Beibehalten des japanischen Lebensstils, unabhängig von der Ernährung, positiv aus: Japaner, die sich so fett ernährten wie Amerikaner, jedoch ansonsten weitgehend ihre traditionelle Lebensweise beibehielten, litten seltener an Arteriosklerose – sogar seltener als Japaner, die sich weiterhin fettarm/japanisch ernährten und sich aber an den amerikanischen Lebensstil gewöhnt hatten. Ravnskov wiederum wird von seinen Kollegen vorgeworfen, dass dieser die große Zahl gut designter Studien ignoriere, welche einen klaren Zusammenhang zwischen LDL-Cholesterin und Arteriosklerose zeigten. Ravnskov konnte zwar in Briefen an die Herausgeber medizinischer Fachzeitschriften lange Jahre hin den Zusammenhang zwischen Cholesterin und Arteriosklerose bestreiten. Alle diese Briefe und seine unbewiesene These würden aber in entsprechenden Antworten sorgfältig widerlegt. Arzneimittel Die ersten Mittel zur Senkung des Cholesterinspiegels waren Gallensäureaustauscherharze (Cholestipol). Später kamen dann Fibrate sowie Nikotinsäurepräparate und deren Derivate auf den Markt. Heute werden in diesem Indikationsbereich fast nur noch Statine und Cholesterinwiederaufnahmehemmer eingesetzt, in Einzelfällen noch Fibrate. Fibrate Derzeit sind die Wirkstoffe Bezafibrat, Fenofibrat und Gemfibrozil im Einsatz. Fibrate zeichnen sich durch eine gute Triglyceridsenkung aus und werden heute deshalb vor allem bei Diabetikern eingesetzt. Statine Als die zur Zeit wirksamsten Medikamente zur Senkung des Cholesterinspiegels gelten Statine. Sie gehören zur Gruppe der HMG-CoA-Reduktase-Hemmer (CSE-Hemmer), da sie das Schlüsselenzym der Cholesterinsynthese in der Zelle, die β-Hydroxy-β-methylglutaryl-Coenzym-A-Reduktase hemmen. Als Folge stellt die Zelle benötigtes Cholesterin nicht mehr selbst her, sondern nimmt Cholesterin aus dem Blut, über LDL-Rezeptoren, auf. Ezetimib Der Wirkstoff Ezetimib ist ein im Darm wirkender, selektiver Cholesterinwiederaufnahmehemmer (oder Cholesterol-Resorptionshemmer), der gezielt das Niemann-Pick C1-Like 1 (NPC1L1)-Protein blockiert. NPC1-L1 sitzt in der Membran von Enterozyten der Dünndarmwand und ist für die Aufnahme von Cholesterin und Phytosterolen aus dem Darm zuständig. PCSK9-Hemmer Das Enzym Proproteinkonvertase Subtilisin/Kexin Typ 9 (PCSK9) ist ein wichtiger intrinsischer Determinator des LDL-Spiegels. Es bindet den LDL-Rezeptor irreversibel und vermindert daher die Resorptionsrate von LDL aus dem Blut mit entsprechend höherem LDL-Spiegel. Bei einer seltenen Gen-Variante mit verminderter PCSK9-Aktivität zeigte sich ein deutlich geringerer LDL-Spiegel mit geringerer Rate koronarer Herzerkrankungen. Dies führte zur Entwicklung spezifischer gegen PCSK9 gerichteter monoklonaler Antikörper (PCSK9-Hemmer). 2015 wurden in der Europäischen Union die folgenden Arzneistoffe als PCSK9-Hemmer zugelassen: Alirocumab als Praluent der Firma Sanofi und Evolocumab als Repatha der Firma Amgen. Wirkungen und Anwendungsmöglichkeiten hängen von der Art der Patientengruppe ab und sind umfassend beschrieben worden. Schwerwiegende Nebenwirkungen wurden bisher nicht beschrieben. Als häufigste Nebenwirkungen sind allgemeine allergische Reaktionen und Reizungen im Bereich der Injektionsstelle zu nennen (bei je unter 10 % der Patienten). ATP-Citrat-Lyase-Hemmer Mit Bempedoinsäure ist ein neuer Wirkmechanismus in Erprobung. Es wird ein Schlüsselenzym der Cholesterin-Biosynthese, die ATP-Citrat-Lyase, gehemmt. Bempedoinsäure ist ein Prodrug und erfordert eine Aktivierung durch das Enzym ACSVL1 (Very-long-chain-Acetyl-CoA-Synthetase 1), welches nur in der Leber, nicht jedoch in den meisten peripheren Zellen vorhanden ist. Dieses ist ein wesentlicher Unterschied gegenüber den Statinen. In der CLEAR Harmony-Studie konnte gezeigt werden, dass Bempedoinsäure den LDL-Serumspiegel bei Patienten unter maximal tolerierter Statin-Dosis weiter senken kann. Mit Bempedoinsäure betrug der Serumsspiegel von LDL-Cholesterin 12 Wochen nach Therapiebeginn 84,4 mg/dl, ohne 102,4 mg/dl. Eine Senkung der kardiovaskulären Sterblichkeit konnte nicht nachgewiesen werden. Seit Februar 2020 ist Bempedoinsäure in den USA (Nexletol), seit April 2020 in der EU zugelassen (Nilemdo). Literatur Biochemie und Physiologie Peter C. Heinrich, Matthias Müller, Lutz Graeve: Löffler/Petrides Biochemie und Pathobiochemie. Springer, 2014. ISBN 978-3-642-17972-3. . F. R. Maxfield, G. van Meer: Cholesterol, the central lipid of mammalian cells. In: Current opinion in cell biology. Band 22, Nummer 4, August 2010, S. 422–429, , PMID 20627678, . Lihua Li, Ewelina P. Dutkiewicz, Ying-Chen Huang, Hsin-Bai Zhou, Cheng-Chih Hsu: Analytical methods for cholesterol quantification. In: Journal of Food and Drug Analysis. 2019, Band 27, Nummer 2, S. 375–386 , . Verteilung der Lipid-Werte in Deutschland Cholesterinmesswerte im Bundes-Gesundheitssurvey 1998 in Deutschland. Robert Koch-Institut Vertreter der Cholesterin-KHK-Hypothese P. Schwandt, W. Richter, K. Parhofer: Handbuch der Fettstoffwechselstörungen. 2. Auflage. Schattauer, Stuttgart 2001, ISBN 3-7945-1977-9. (Die drei Herausgeber sind ehemalige Vorstände der Lipid-Liga) Christiane Eckert-Lill: Kampf dem Cholesterin. 2. Auflage. Govi, Eschborn 2003, ISBN 3-7741-0990-7. (Die Autorin fungiert als Geschäftsführerin Pharmazie der Bundesvereinigung der Apothekerverbände, ABDA) Kritische Arbeiten zur Cholesterin-KHK-Hypothese Uffe Ravnskov, Udo Pollmer: Mythos Cholesterin. 4., komplett überarbeitete u. ergänzte Auflage. Hirzel, Stuttgart 2008, ISBN 978-3-7776-2123-4. Jörg Blech: Die Krankheitserfinder. Wie wir zu Patienten gemacht werden. S. Fischer, Frankfurt 2003, ISBN 3-10-004410-X, S. 78 ff. (u. a. zur wirtschaftlichen Ausnutzung der Cholesterinproblematik) Ray Moynihan, Alan Cassels: Selling sickness. How the world’s biggest pharmaceutical companies are turning us all into patients. Nation Books, New York 2005, ISBN 1-56025-697-4. Walter Hartenbach: Die Cholesterin-Lüge. Das Märchen vom bösen Cholesterin. Herbig, München 2002, ISBN 3-7766-2277-6. Sonstiges Axel W. Bauer: Cholesterin. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. Walter de Gruyter, Berlin / New York 2005, ISBN 3-11-015714-4, S. 258–259. Weblinks Deutsche Gesellschaft zur Bekämpfung von Fettstoffwechselstörungen und ihren Folgeerkrankungen DGFF (Lipid-Liga) e. V. National Cholesterol Education Program – NCEP (englisch) The International Network of Cholesterol Skeptics (englisch) – Website von Wissenschaftlern, die dem Zusammenhang zwischen Cholesterinspiegel und Herz-Kreislauf-Erkrankungen kritisch gegenüberstehen Cholesterine, der große Bluff. Arte, 18. Oktober 2016. Kritische Auseinandersetzung mit der Theorie, dass zahlreiche Herz-Kreislauferkrankungen auf einen hohen Cholesterinspiegel zurückzuführen sind und mit Statinen erfolgreich behandelt werden können. Einzelnachweise Cyclohexanol Cyclohexen Cyclohexan Cyclopentan Steroid Lebensmittelinhaltsstoff
932
https://de.wikipedia.org/wiki/Commodore%2064
Commodore 64
Der Commodore 64 (kurz C64, umgangssprachlich 64er oder Brotkasten) ist ein 8-Bit-Heimcomputer mit 64 KB Arbeitsspeicher. Seit seiner Vorstellung im Januar 1982 auf der Winter Consumer Electronics Show war der von Commodore gebaute C64 Mitte bis Ende der 1980er Jahre sowohl als Spielcomputer als auch zur Softwareentwicklung äußerst populär. Er galt lange Zeit als der meistverkaufte Heimcomputer weltweit – Schätzungen der Verkaufszahlen bewegen sich zwischen 12,5 und 30 Millionen Exemplaren. Der C64 bot viel Technik und gute Erweiterbarkeit zu einem (nach der Einführungsphase) erschwinglichen Preis. Wie zu dieser Zeit bei Heimcomputern üblich, waren in der kompakten Zentraleinheit keine internen Massenspeichergeräte eingebaut, aber bereits die Tastatur. Programme wurden von externen Laufwerken wie dem Kassettenlaufwerk Datasette oder dem Diskettenlaufwerk VC1541 geladen oder waren bei Verwendung eines Steckmoduls (Cartridge) sofort nach dem Einschalten verfügbar. Schon im Grundzustand waren neben dem Betriebssystem (Kernal) und zwei Bildschirmzeichensätzen eine komplette Programmiersprache in Form eines BASIC-Interpreters, deren Befehle auch im Direktmodus eingegeben und sofort ausgeführt werden konnten, und ein für die Zeit fortschrittlicher Bildschirmeditor statt eines bloßen Zeileneditors gleich nach dem Einschalten verfügbar; diese Software war in den drei ROM-Chips auf der Hauptplatine mit Speicherkapazitäten von zweimal acht und einmal vier KB gespeichert. Geschichte Entwicklung Im Januar 1981 begann das frühere Unternehmen MOS Technology, jetzt als Commodore Semiconductor Group eine Tochter von Commodore International, mit der Entwicklung eines neuen Chipsatzes für Grafik und Audio für eine Spielkonsole der nächsten Generation. Die Arbeit an den beiden Chips VIC II (Grafik) und SID (Audio) war im November 1981 erfolgreich abgeschlossen. Im Anschluss entwickelte der japanische Ingenieur Yashi Terakura von Commodore Japan auf Basis der beiden neuen Chips den Rechner Commodore Max (in Deutschland als VC 10 angekündigt). Die Produktion wurde jedoch bereits kurz nachdem die ersten Commodore MAX in Japan ausgeliefert worden waren wieder eingestellt. Mitte 1981 machten Robert Russell (System-Programmierer und Entwickler des VC-20) und Robert „Bob“ Yannes (Entwickler des SID) mit der Unterstützung von Al Charpentier (Entwickler des VIC-II) und Charles Winterble (Manager von MOS Technology) dem CEO von Commodore International, Jack Tramiel, den Vorschlag, aus den entwickelten Chips einen wirklichen Low-Cost-Rechner zu bauen, der der Nachfolger des VC 20 werden sollte. Tramiel war einverstanden und erklärte, dass der Rechner einen vergrößerten Speicher von 64 KB RAM, den vollen Adressraum von 16 Bit nutzend, haben solle. Auch wenn zu diesem Zeitpunkt 64 KB RAM noch über 100 US-Dollar kosteten, nahm er an, dass die RAM-Preise bis zur vollen Markteinführung des C64 auf einen akzeptablen Preis fallen würden. Tramiel setzte gleichzeitig das Fristende für die Präsentation des Rechners auf den Beginn der Consumer Electronics Show (CES) im Januar 1982 in Las Vegas. Die Besprechung fand im November 1981 statt, sodass den Entwicklern lediglich zwei Monate blieben, um entsprechende Prototypen des Rechners zu bauen. Das Projekt hatte zunächst den Codenamen VC-40, der in Anlehnung an das Vorgängermodell VC-20 gewählt worden war. Das Team, welches das Gerät entwickelte, bestand aus Robert Russell, Robert „Bob“ Yannes und David A. Ziembicki. Das Design des C64, Prototypen und einige Beispielsoftware wurden gerade rechtzeitig vor der CES in Las Vegas fertig, nachdem das Team die gesamte Weihnachtszeit (auch an den Wochenenden) durchgearbeitet hatte. Die 40 im Namen sollte die doppelte Textauflösung von 40 Zeichen pro Zeile im Vergleich zum Vorgängermodell kennzeichnen. Commodore wählte diese Auflösung zum einen, weil damit (anders als bei 80 Zeichen) auch auf Farbfernsehgeräten als Alternative zu teureren Farbmonitoren noch eine gute Lesbarkeit gewährleistet war, und zum anderen, um unter der Leistungsfähigkeit der für den professionellen Gebrauch vorgesehenen eigenen Rechner der CBM-8000-Serie zu bleiben, die zu der Zeit mit gleicher Prozessorgeschwindigkeit, kleinerer oder gleicher Speicherausstattung, nur monochromen oder deutlich eingeschränkten Farbmöglichkeiten und einem nur wenig leistungsfähigeren BASIC 4.0 angeboten wurden. Ein kennzeichnender Faktor für die professionelle Anwendbarkeit war damals die Möglichkeit, Textzeilen für die Druckausgabe in voller Breite darstellen zu können, wofür 80 Zeichen notwendig waren. In der Produktionsperiode des C64 änderte man immer wieder optische und technische Details, um moderne Fertigungsmöglichkeiten auszunutzen und Produktionskosten zu senken. Obwohl sich das Innenleben der ersten C64 deutlich von dem der letzten Version unterscheidet, war es den Entwicklern gelungen, alle Versionen vonseiten der Software beinahe hundertprozentig kompatibel zueinander zu halten – was bedeutete, dass die Leistungsdaten des Rechners während des Produktionszyklus nicht gesteigert wurden. Beispielsweise wurde das Hauptplatinenlayout mehrfach geändert sowie CPU, Grafikchip, Soundchip und andere Bauteile überarbeitet. Auch die zur Verschaltung innerhalb des Rechners notwendigen Logikchips fasste man zusammen und integrierte sie in einem Custom-Chip. Vom C64 gab es im Gegensatz zu anderen damaligen Heimcomputern keine Nachbauten aus Ostblock-Ländern, Lateinamerika oder Fernost. Das ist vor allem in der hochintegrierten Bauweise mit Custom-Chips und in der vertikalen Integration der Firma Commodore begründet – von der Chipfertigung über Chipdesign und Systemdesign bis zum Gehäusedesign war alles in einer Hand, wodurch diese Chips für Nachbauer nicht erhältlich waren. Vermarktung Commodore Business Machines (CBM) hatte vor dem C64 bereits erfolgreich den Bürorechner PET 2001 und seine Nachfolger, aber auch schon den Heimcomputer VC 20 eingeführt. Firmengründer Jack Tramiel prägte die Formel „We need to build computers for the masses, not the classes!“ („Wir müssen Computer für die Massen bauen, nicht für die Klassen!“), was ihm mit dem C64 letztlich auch gelang. Um die Neuentwicklung in das vorhandene Produktangebot einbinden zu können, entschied sich die Marketingabteilung für den Namen C64, was für Consumer und die Größe des verwendeten Speichers in KB stehen sollte. Für den amerikanischen Markt waren bereits nach gleichem Schema benannte Modelle, der B(usiness)256 bzw. der P(ersonal Computer)128, geplant. Letzterer gehörte in die in Europa als Commodore CBM 500 veröffentlichte Reihe und ist nicht identisch mit dem später erschienenen C128. Im September 1982 kam der C64 für 595 USD (in heutiger Kaufkraft  USD) auf den amerikanischen und Anfang 1983 zum Startpreis von 1.495 DM (entspricht nach heutiger Kaufkraft ca.  €) auf den deutschen Markt und war in Deutschland, wie in allen wichtigen Märkten der Welt (mit Ausnahme von Japan), sehr erfolgreich. Schon 1983 sank der Preis auf meist 698 DM (heute ca.  €). Hauptkonkurrent war der in den USA stark vertretene Atari 800 XL. Viele Spiele waren auf einer 5¼-Zoll-Diskette für beide Systeme erhältlich, wie etwa das Computer-Rollenspiel Alternate Reality (Vorderseite C64, Rückseite Atari), was als Hinweis auf die Dominanz der beiden Marken angesehen werden kann. Trotz der Konkurrenz durch Atari und vieler anderer Heimcomputer in dieser Zeit (TI-99/4A, Apple II, Sinclair ZX81, ZX Spectrum, Dragon 32) beurteilten viele Konsumenten das Preis-Leistungs-Verhältnis des C64 zum Beginn seiner Auslieferung günstig. In Kombination mit der rasch ansteigenden Zahl an Softwaretiteln für den C64 entwickelte sich der Rechner zu einem großen Erfolg. Hierzu trug bei, dass der Computer nicht nur in Fachgeschäften, sondern auch in Kaufhausketten, Versandhäusern (z. B. Quelle), Supermarktketten (z. B. allkauf) und Computer-Versandhäusern (z. B. Vobis) zum Verkauf stand. Mit dem Aufstieg des C64 als Heimcomputer kam auch zugleich der endgültige Fall der bis dato am weitesten verbreiteten Konsole, des Atari VCS 2600. Commodore produzierte den C64 etwa elf Jahre lang; über 22 Millionen Stück wurden verkauft (andere Quellen geben 17 bis 30 Millionen an). Damit war der C64 der meistverkaufte Computer seiner Zeit, lange Zeit auch der Welt. Technische Details Prozessor Der Prozessor ist ein 6510 (8500 beim C64C/II), eine Variante des 6502 von MOS Technology. Commodore hatte diese Firma Mitte der 1970er-Jahre aufgekauft, um über ein eigenes Halbleiterwerk zu verfügen. Der 6510 besitzt im Gegensatz zum 6502 einen 6 Bit breiten bidirektionalen I/O-Port, der sich über die Speicheradressen 0 und 1 ansprechen lässt und beim C64 zum einen dazu genutzt wird, um in einzelnen Speicherbereichen zwischen RAM, ROM und dem I/O-Bereich durch Bank Switching umzuschalten, und zum anderen zur Steuerung eines angeschlossenen Magnetbandlaufwerks (Datassette). Takt Der Prozessor arbeitet mit einer Taktfrequenz von 0,985249 MHz in der PAL-Version und 1,022727 MHz in der NTSC-Version. Der Unterschied ergibt sich daraus, dass im C64 aus der Schwingungsfrequenz nur eines Quarz-Oszillators alle benötigten Frequenzen einfach abgeleitet werden und dass die Farbträgerfrequenzen der beiden Farbübertragungssysteme unterschiedliche Werte haben, die eingehalten werden müssen. In der NTSC-Version stehen so mehr Taktzyklen pro Rasterzeile in der Grafikausgabe zur Verfügung, und auch insgesamt ist die CPU etwas schneller. Dafür hat NTSC weniger Zeilen pro (Halb-)Bild, nur 262 im Vergleich zu 312 bei PAL. Daher müssen Programme, die den Rasterzeileninterrupt (s. u.) zur bildsynchronen Ablaufsteuerung verwenden, austauschbare Codeteile für beide C64-Versionen besitzen oder gleich in zwei verschiedenen Versionen vorliegen. Rechenleistung Der C64 erzielt für Prozessoren aus der 6510-Familie typische 36 (PAL) bzw. 37 (NTSC) Dhrystones, etwa 20500 bzw. 21000 Instruktionen pro Sekunde (0,02 MIPS). RAM Der C64 verfügt über 64 KB dynamischen RAM. Davon sind 38911 Bytes für BASIC-Programme nutzbar. Die Größe des Speichers war für die damalige Zeit üppig (der zwei Jahre ältere Vorgänger VC 20 hat nur 5 KB Arbeitsspeicher, wovon für die Programmiersprache BASIC 3584 Byte nutzbar sind). Die Speicherstellen 0 und 1 sind nicht direkt von der CPU ansprechbar, hier befindet sich der Prozessorport des 6510; mittelbar unter Zuhilfenahme des Grafikchips VIC II können die Speicherstellen jedoch gelesen und beschrieben werden. Zusätzlich zu den 64 KB dynamischen RAM gibt es noch 1024 Nibbles statischen Farb-RAM, insgesamt verfügt der C64 also über 64,5 KB RAM. ROM Der C64 verfügt über 20 KB ROM. Etwa 9 KB davon enthalten in nahezu unveränderter Form den BASIC-V2-Interpreter des älteren Commodore VC 20 (erschienen 1980), der ursprünglich von der Firma Microsoft stammt. In weiteren knapp 7 KB ist ein Betriebssystem, der sogenannte Kernal, untergebracht, welcher die Tastatur, den Bildschirm, die Kassettenschnittstelle, die RS-232-Schnittstelle sowie eine serielle IEC-Schnittstelle (den CBM-Bus) zur Ansteuerung von Druckern, Diskettenlaufwerken usw. verwaltet. Auch dieses stammt ursprünglich von älteren Commodore-Maschinen und wurde an die veränderte Hardware des C64 angepasst. Die restlichen 4 KB enthalten zwei Zeichensätze à 256 Zeichen in 8×8-Matrixdarstellung für den Bildschirm. Die Zeichensätze entsprechen dem Commodore-eigenen PETSCII-Standard und enthalten deshalb keine deutschen Umlaute. Um über verschiedene Versionen hinweg auf Maschinensprachenebene kompatibel zu bleiben, war ganz am Ende des ROM-Bereichs (also kurz vor $FFFF) eine Sprungtabelle angelegt, über die man die wichtigsten Betriebssystemroutinen aufrufen konnte. Commodore behielt diese Sprungtabelle vom PET 2001 bis über den C64 hinaus bei. Die Kompatibilität von Anwendungssoftware hat sich dadurch nicht besonders gesteigert, weil viele Programmierer diese kompatible Methode des Aufrufs schlichtweg ignoriert haben und sie ohnehin nur für rein textbasierte Programme brauchbar war. – Beispiel: Der Aufruf JSR $FFD2 gibt auf jedem Commodore-8-Bit-Rechner den Inhalt des Akkumulators als Zeichen auf den Bildschirm aus. Grafik Der Grafikchip des C64 ist ein MOS 6569/8565 (PAL) bzw. MOS 6567 (NTSC) und wird VIC (Video Interface Controller) genannt. Er bietet: 16 Farben: Durch Ausnutzung einer Besonderheit des PAL-Fernsehstandards (Farbinformationen, Chroma, werden zwischen benachbarten Zeilen gemischt) lassen sich durch vertikale Anordnung von verschiedenen Farben neue Farbmischungen erzeugen. 40×25-Zeichen-Textmodus (Standard): 8×8 Pixel pro Zeichen, benutzerdefinierte Zeichensätze möglich. Bildschirmweit einheitliche Hintergrundfarbe, je Zeichen wählbare Vordergrundfarbe; bis zu 256 verschiedene Zeichen können gleichzeitig verwendet werden. 40×25-Zeichen-Textmodus (Multicolor): 4×8 doppelt breite Pixel pro Zeichen, benutzerdefinierte Zeichensätze möglich. Je Zeichen bis zu vier Farben: drei bildschirmweit einheitliche, eine je Zeichen wählbar; bis zu 256 verschiedene Zeichen können gleichzeitig verwendet werden. 40×25-Zeichen-Textmodus (erweiterte Hintergrundfarben): Wie Standard-Textmodus, aber nur 64 verschiedene Zeichen, dafür je Zeichen eine von bis zu vier bildschirmweiten Hintergrundfarben wählbar. 160×200 doppelt breite Pixel: im niedrig auflösenden Bitmapmodus (Multicolor). Alle 16 Farben sind mit Einschränkungen verwendbar (drei individuelle Farben je 4×8-Pixel-Block plus eine bildschirmweite Farbe). 320×200 Pixel: im hoch auflösenden Bitmapmodus (HiRes). Alle 16 Farben sind mit starken Einschränkungen verwendbar (zwei individuelle Farben je 8×8-Pixel-Block). Hardware-Scrolling: ein Verschieben des Gesamtbilds um vertikal und/oder horizontal 0 bis 7 Pixel ermöglicht zusammen mit weiterer Verschiebung durch Software ein weiches pixelgenaues Scrolling. Acht Sprites: mit jeweils 24×21 Pixeln Größe für einfarbige Sprites (12×21 doppelt breite Pixel für Multicolor-Sprites; beide Sprite-Typen können gleichzeitig und in allen Bildschirmmodi verwendet werden). Durch sogenanntes Sprite-Multiplexing war es möglich, die Anzahl der darstellbaren Sprites zu vervielfachen. Bei Kollision von Sprites miteinander oder mit der Hintergrundgrafik kann ein Interrupt ausgelöst werden. Rasterzeileninterrupts: Interruptanforderung an den Hauptprozessor beim Erreichen einer zuvor durch die Software festgelegten Bildzeile. Da der VIC nur 14 Adressleitungen besitzt, kann er nur 16 KB des zur Verfügung stehenden Speichers auf einmal ansprechen. Die zwei fehlenden Adressbits steuert der zweite im C64 verbaute CIA6526-Chip bei. Diese vier Speicherseiten zu 16 KB verhalten sich nicht gleich – im Speicherbereich $1000 bis $1fff (bzw. $9000 bis $9fff) wird vom VIC stets das Zeichengenerator-ROM ausgelesen. In diesen Bereichen können daher auch kein Bildschirmspeicher (Text oder Bitmap) und keine Spritedaten abgelegt werden. Umgekehrt muss in den beiden anderen Speicherseiten im Textmodus ein Zeichengenerator im RAM abgelegt werden. Das Farb-RAM, das aus Sicht des Hauptprozessors an den Adressen $d800 bis $dbff eingeblendet werden kann, ist aus Timinggründen ein einzelner 1024×4-Bit-SRAM-Chip (µPD2114), der vier eigene Dateneingänge in den VIC besitzt. Das Farb-RAM muss daher nicht in den „normalen“ VIC-Adressraum eingeblendet werden. Genau genommen besitzt der C64 damit 66048 Byte RAM. Da die letzten 24 Adressen nicht für die Farbdarstellung gebraucht werden, kann man die dahinterliegenden Speicherzellen für Sonderzwecke nutzen. Der VIC sorgt ebenfalls, wie damals für die Grafikhardware üblich, durch das regelmäßige Auslesen aller Speicherseiten für den nötigen Refresh der DRAM-Chips des C64. Der C64 ist dank der Rasterzeileninterrupts und des Grafikchipdesigns recht flexibel im Bildaufbau. Viele der hardwaretechnischen Einschränkungen können durch kreative Programmierung und Ausnutzung von vom Hersteller nicht explizit implementierten Nebeneffekten umgangen werden. So lassen sich beispielsweise verschiedene Darstellungsmodi mischen (z. B. obere Bildschirmhälfte Textdarstellung mit Scrolling, untere Bildschirmhälfte Grafik) und auch die acht Sprites mehrfach in verschiedenen Bildbereichen verwenden, so dass viele Spiele weitaus mehr als acht Sprites darstellen können. Durch Ausnutzung von undokumentierten Videochip-Eigenschaften ist auch die Verwendung von zusätzlichen Videomodi möglich, die die Beschränkungen in der Farbwahl und Auflösung teilweise aufheben. Auch der Bildschirmrahmen kann mit einigen Tricks zur Darstellung von Grafik benutzt werden. Der Basic-Interpreter stellt keine dezidierten Befehle zur Programmierung der hochauflösenden Grafik bereit, dies ist aber durch Versetzen des Grafikchips in den Bitmap-Mode, die Berechnung der Bitmap etwa eines Funktionsgraphen anhand von Funktionswerten und deren Ablage im Speicher möglich. Komfortable Befehle für einfache Grafikelemente wie Kreise und Rechtecke enthalten kommerzielle Basic-Erweiterungen wie Simons’ Basic, s. u. Ton Klänge werden über den dreistimmig polyphonen Soundchip MOS Technology SID 6581 (buskompatibel mit der Prozessorfamilie 65xx) erzeugt, der dem C64 damals revolutionäre, weit über andere Heimcomputer hinausgehende Möglichkeiten zur Klangerzeugung verlieh. Spätere C64-Varianten enthielten den 8580. Der SID besitzt drei universell einsetzbare monophone Stimmen mit einer in 65536 Stufen einstellbaren Grundfrequenz von 0 bis 4000 Hz und 48 dB Aussteuerung, die gleichzeitig in subtraktiver Synthese vier Schwingungsformen (Dreieck, Sägezahn, Rechteck in 4096 Stufen einstellbarer Pulsbreite, sowie Rauschen) erzeugen können. Die Lautstärke jeder Stimme kann einzeln mittels dreier programmierbarer ADSR-Hüllkurvengeneratoren mit exponentiellem Kurvenverlauf eingestellt werden. Weiterhin ist eine Synchronisierung von zwei oder allen drei Oszillatoren möglich. Ein Ringmodulator ergibt weitere Effekte. Eine der Stimmen kann außerdem wahlweise ausschließlich zur Modulation der anderen Stimmen verwendet werden. Weiterhin besitzt der SID ein subtraktives Multimode-Filter (Tiefpass, Hochpass, Bandpass oder Notch-Filter), durch das die internen Stimmen sowie eine über die Monitorbuchse des C64 zumischbare externe Quelle geleitet werden können. Die Lautstärke der Tonwiedergabe konnte in 16 Stufen eingestellt werden. Da analog zur Lautstärke auch die DC-Offset-Spannung am Ausgang verändert wurde, erzeugte jede Lautstärkeänderung ein entsprechendes Knacken, was schon bald einige Programmhersteller auf die Idee brachte, den Lautstärkesteller als D/A-Wandler zu verwenden, um Samples, zum Beispiel Sprache oder Schlagzeug, wiederzugeben. Bekanntestes Beispiel hierfür ist neben dem Musikspiel „To Be on Top“ das Spiel zum Film „Ghostbusters“, wo das Wort „Ghostbusters“ als Sprache ausgegeben wurde, was zu damaliger Zeit geradezu sensationell schien. Die Tonqualität mit dieser 4-Bit-Auflösung (Werte 0 bis 15) war allerdings nicht besonders gut, außerdem gab es eine Inkompatibilität zwischen den ursprünglichen und den späteren C64-Versionen: Der später verbaute SID II (MOS 8580) schaltete seinen Ausgang nur durch, wenn auf mindestens einer Stimme ein Ton abgespielt wurde. Dadurch verringerte sich zwar das Grundrauschen bei fehlender Tonwiedergabe, reine Samples ohne Hintergrundmusik wurden nur noch sehr leise abgespielt. Neuere Programme berücksichtigten diese Tatsache, Anpassungen für ältere Software gab es in der Regel nicht. Durch geschicktes Mischen unterschiedlicher Samples war auf Softwareebene außerdem die Wiedergabe mehrerer Samples möglich; dies bedingte jedoch zwangsläufig eine Einschränkung der Wiedergabegenauigkeit (resolution) bzw. der Abspielrate (sample/playback rate), das heißt, die so erzeugten Töne waren weniger gut aufgelöst und „ungenauer“. Eine Reihe von bekannten Spielemusikprogrammierern bediente sich dieser Technik. Neben der Audiowiedergabe besaß der SID noch zwei Analogeingänge mit niedriger Abtastrate, die im C64 zum Anschluss von Paddles oder einer speziellen Maus mit Analogausgang genutzt wurden. Zum Ende der C64-Ära wurden in Bastlerkreisen Methoden entwickelt, um den C64 stereofähig zu machen. Dazu wurde ein zweiter SID eingebaut und zur Ansteuerung die Tatsache ausgenutzt, dass der Adressbereich des SID mehrfach gespiegelt ist. Durch geeignete Adress-Selektion konnten so beide SIDs unabhängig voneinander angesteuert werden. Diese Lösung wurde als Bauanleitung in der 64'er Zeitschrift beschrieben, kam jedoch nie kommerziell auf den Markt. Schnittstellen Der C64 bietet mehrere Schnittstellen und war daher bei Hardware-Bastlern beliebt (von links nach rechts, von der Rückseite aus gesehen): Zwei Joystick-, Paddle- und Mauseingänge: (9-Pin-Sub-D-Stecker) entsprechend dem Atari-2600-de-facto-Standard mit digitalen Eingängen für Joysticks (rauf/runter/links/rechts/Feuer) oder eine digitale Maus (Commodore 1350) und analogen Eingängen für Paddles oder eine analoge Maus (Commodore 1351). Einer der Eingänge ist für Lichtgriffel nutzbar. Diese Schnittstellen befinden sich seitlich, nebst dem Hauptschalter und dem Anschluss für das Netzteil. Expansions-Port (44-Pin-Platinenstecker): herausgeführter Daten- und Adressbus; zum direkten Einstecken von Hardwareerweiterungen, z. B. Spielemodule, Speichererweiterungen, Beschleunigerkarten o. ä. Dieser Port entspricht den Steckplätzen eines heutigen PCs. Hochfrequenz (HF)-Ausgang (Cinch-Buchse, HF-Modulator): zum Anschluss eines Fernsehers über dessen Antennenbuchse (bei damaligen Geräten oft die einzige Anschlussmöglichkeit), links daneben die Feinjustierung. Audio/Video-Ausgang (8-Pin-DIN-Buchse, bei frühen C64 5-Pin): mit einem Composite-Video-Signal zum Anschluss eines Video-Monitors oder eines Fernsehers. Bei C64 mit 8-Pin-Buchse wird zusätzlich ein S-Video-Signal (Luminanz- und Chrominanz-Signale separat) bereitgestellt, das für bessere Bildqualität benutzt werden kann. Weiterhin existiert ein Audio-Eingang zwecks Filterung eines externen Audiosignals durch das SID-Filter. Serieller Bus (CBM-Bus, 6-Pin-DIN-Buchse): zum Beispiel für Drucker und Diskettenlaufwerke. Anschlussmöglichkeit für eine Datasette (6 Platinenkontakte) Userport (24 Platinenkontakte): Hier ist einer der acht Bit breiten bidirektionalen Ports sowie eines der seriellen Schieberegister des C64 herausgeführt. Der C64 enthält keinen UART-Chip, allerdings existiert im C64-ROM eine Software-Implementierung eines RS-232-Protokolls, die mittels Bit-Banging die notwendigen Signale erzeugt. Diese ist bis 2400 Baud einsetzbar, mit reiner Basic-Ansteuerung jedoch nicht mit voller Geschwindigkeit. Für die vollständige RS-232-Schnittstelle wird noch ein Pegelwandler benötigt, der TTL-Pegel (0 V/+5 V) auf die RS-232-Pegel von ±12 V umsetzt. Weitere typische Anwendungen für diesen Port sind Implementierung einer Centronics-Druckerschnittstelle (Parallelport, benötigt zusätzliche Treibersoftware), Parallelkabel zu einem Diskettenlaufwerk, Relaiskarten, EPROM-Brenner oder auch Modems. Peripherie Zum C64 konnte eine große Auswahl an Peripheriegeräten hinzugekauft werden. Laufwerke Kassettenlaufwerk Das Datasette (auch Datassette) genannte Kompaktkassetten-Bandlaufwerk war die günstigste Lösung für Datenspeicherung am C64. Meist war Software auf Kassetten günstiger als entsprechende Diskettenversionen. Anders als in Deutschland, wo das Diskettenlaufwerk (trotz höherer Anschaffungskosten) sehr verbreitet war, war die Datasette in Großbritannien das dominierende Datengerät. Von Commodore gab es das Datasetten-Laufwerk VC-1530, welches mit dem C64 kompatibel war. Auch andere Hersteller boten Datasetten-Laufwerke für den C64 und den C128 an. Lade- und Speichervorgänge geschehen sehr langsam und sind durch notwendige Spulvorgänge umständlich. Schnelllader wie Turbo Tape verringern die Ladezeiten etwa um den Faktor 10. 5¼-Zoll-Diskettenlaufwerk Dieses Laufwerk vom Typ VC1541 war das Standardlaufwerk für den C64. Es benutzt die damals sehr weit verbreiteten 5¼-Zoll-Disketten mit doppelter Aufzeichnungsdichte (Double Density). Das Laufwerk arbeitet einseitig und bietet etwa 165 kB Speicherkapazität pro Diskettenseite, angegeben werden jedoch die zur Verfügung stehenden „Blöcke“, von denen es standardmäßig 664 gibt. Um die Rückseite beschreiben zu können, muss die Diskette dem Laufwerk entnommen und gewendet werden. Dafür gab es beidseitig beschreibbare Disketten; wenn sie speziell für die Verwendung mit dem C64 vorgesehen waren, so hatten sie auf beiden Seiten Aussparungen für die Schreibfreigabe. Es gab auch preisgünstigere, offiziell nur einseitig beschreibbare Disketten, die mitunter auch auf der Rückseite beschrieben werden konnten. Bei diesen musste dazu immer vorher seitlich eine zweite Kerbe ausgestanzt werden, beispielsweise mittels eines Diskettenlochers oder eines Teppichmessers. Die Daten werden von den Laufwerken als schreibgeschützt erkannt, wenn diese Kerbe überklebt wurde. Entsprechende Aufkleber lagen den Disketten bei. Um die Rückseite einer eigentlich einseitigen Diskette zu beschreiben, wurde mitunter auch auf die Lichtschranke im Diskettenlaufwerk ein zusätzlicher Schalter aufgelötet, um so die Lichtschranke zu überbrücken und sich das Herausschneiden der Kerbe zu ersparen. Der Schalter war nötig, um beim Wechseln der Diskette die Funktion der Lichtschranke wieder einzuschalten, da sonst der Diskettenwechsel nicht erkannt wurde. Ältere Versionen der VC1541 konnten nicht erkennen, wann der Schreib-Lese-Kopf am unteren Ende (Spur 0) angekommen war, und hatten deshalb eine mechanische Sperre. Das führte zu dem bekannten mechanischen Rattern des Laufwerks bei der Formatierung einer Diskette, da der Schreib-Lese-Kopf so bis zu fünfmal an den Anschlag fuhr – dadurch konnte er verstellt werden. Neuere Versionen hatten eine Lichtschranke, um das Problem zu lösen. Da jedoch das ROM des Laufwerks geändert wurde, führte das teilweise zu Inkompatibilitäten mit Schnellladeprogrammen und Kopierschutzmechanismen. Das Laufwerk war ein eigenständiger Computer mit eigenem Prozessor und Speicher. Anders als praktisch alle anderen Firmen hatte Commodore das DOS als ROM im Laufwerk selbst realisiert, anstatt es in den Speicher des Computers zu laden. Es gab Programme, die Teile der Rechenarbeit auf das Laufwerk auslagerten und somit eine Art Parallelprogrammierung ermöglichten; wegen des kleinen Speichers des Laufwerks war das nur sehr eingeschränkt nützlich. Ebenfalls gab es Jux-Programme, die durch kreative Programmierung des für die Schreib-Lese-Kopfbewegung zuständigen Schrittmotors sogar Musik mit dem Laufwerk erzeugten. Von dem Laufwerk wurden drei Haupt- und viele Untervarianten hergestellt. Fremdhersteller boten Klone an, die zwar preisgünstiger, aber wegen des aus Urheberrechtsgründen abweichenden ROMs meist nicht vollständig kompatibel waren. Die Geschwindigkeit der Diskettenoperationen war aufgrund des geringen Speicherausbaus der Laufwerke, der seriellen Schnittstelle sowie umständlicher Programmierung der DOS-Funktionen – das 1541-DOS wurde aus dem der Doppelprozessor-Doppelfloppies CBM 8050 abgeleitet – sehr langsam, so dass viele verschiedene Turbolader als Software- oder als Hardwarebeschleuniger entwickelt wurden. Diese Beschleuniger schrieben als Erstes eigene in Assembler entwickelte Routinen in den Speicher des Laufwerks, die anschließend zusammen mit im Computer ablaufenden Routinen den Datentransfer realisierten. 3½-Zoll-Diskettenlaufwerk Das Laufwerk vom Typ VC1581 fristete im Zusammenhang mit dem C64 aufgrund seiner Inkompatibilität zur VC1541 nur ein Schattendasein – trotz seines gegenüber der VC1541 erheblich gesteigerten Speichervermögens von 800 kB auf 3½-Zoll-DD-Disketten. Wegen Kopierschutzmaßnahmen erforderten sehr viele Programme das VC1541-Laufwerk, so dass dem Modell 1581 kein Erfolg beschert war. Wie die VC1541 war auch dieses Laufwerk technisch gesehen ein eigenständiger Computer. Eingabegeräte Commodore-Maus 1350/1351 Mäuse spielten als Eingabegeräte beim C64 eine eher untergeordnete Rolle, da sie sich erst Jahre nach ihrer Einführung etablierten. Es gab nur wenige Programme, die sie unterstützten bzw. für Mausbenutzung (anstatt Joystick) ausgelegt waren, so z. B. das grafikorientierte Betriebssystem GEOS, Hi-Eddi und Printfox. Gamepad Gamepads, seit Mitte der 1980er-Jahre die typischen Eingabegeräte für Spielkonsolen, waren teilweise mit den Ports des Commodore 64 kompatibel, setzten sich aber als Eingabegeräte nicht durch. Mitte der 1990er-Jahre wurden vereinzelt Gamepads speziell für den Commodore 64 produziert. Joystick Neben der Tastatur waren Joysticks die wichtigsten Eingabegeräte am C64, denn fast alle Spiele und viele Anwendungen ließen sich nur mit ihnen steuern. Beim C64 wurde der damals recht verbreitete Atari-Standard für Joysticks unterstützt, so dass die gleichen Joysticks wie an sehr vielen anderen Rechnern verwendet werden konnten. Zwar stellte Commodore eigene Joysticks her, beliebter und verbreiteter waren jedoch Spectravideos QuickShot-Joysticks, Joysticks von QuickJoy sowie – aufgrund seiner Robustheit – der Competition Pro. Koalapad Das Koalapad war ein Grafiktablett für den Commodore 64, das für das Grafikprogramm KoalaPainter entwickelt worden war, aber auch von einigen anderen Programmen genutzt wurde. Lichtgriffel Lichtgriffel sind „Stifte“, die zum Zeichnen direkt auf dem Monitor verwendet werden. Wie auch Paddles hatten sie auf dem C64 kaum eine Bedeutung. Lightgun Eine Lightgun ist von der Funktionsweise ähnlich wie die Lichtgriffel, jedoch meist in der Form einer Pistole und für Spiele gedacht. Auch dieses Eingabegerät war beim C64 kaum von Bedeutung. Paddle Paddles sind Eingabegeräte, die vor allem in den 1970er-Jahren bei vielen Videospielen verbreitet waren und so auch ihren Weg zum C64 fanden. Bis auf wenige der frühen C64-Spiele und einige spätere Ausnahmen wie Arkanoid hatten Paddles aber kaum eine Bedeutung auf dem C64. Scanner Von der Firma Scanntronik waren ein Schwarz-Weiß-Scanner erhältlich, der auf den Druckkopf geeigneter Nadeldrucker aufgesteckt wurde und das zu scannende Bild zeilenweise abtastete, während es von der Druckerwalze transportiert wurde, sowie ein Handscanner. Ausgabegeräte Drucker Commodore verkaufte seine eigenen Druckermodelle MPS 801, -802, -803 und -1230 (hauptsächlich Seikosha-OEM, z. B. der baugleiche GP 500 VC). Diese Matrixdrucker können im Textmodus aufgrund technischer Limitierungen (Unihammer-Technik beim MPS 801/803) bzw. der Tatsache, dass nur 8 der 9 verfügbaren Nadeln angesteuert wurden (MPS 802), keine echten Unterlängen drucken. Für dieses Problem gab es aber einige Softwarelösungen im Angebot. Fremdhersteller produzierten einige spezielle Drucker für Commodore-Rechner, die wie ein Diskettenlaufwerk am seriellen Bus des C64 angeschlossen werden, z. B. der sehr beliebte Star LC10. Weit verbreitet waren zwei weitere Lösungen: Man konnte gängige Drucker mit Centronics-Schnittstelle über einen speziellen Konverter an den seriellen IEC-Bus des C64 anschließen und dann wie Commodore-Drucker ansteuern, oder man konnte sie mittels eines einfachen Kabels mit dem Userport verbinden, brauchte dann aber eine Software, die eine spezielle Unterstützung für diesen Anschlussmodus bot. In einigen Floppy-Schnellladern (z. B. SpeedDOS) waren solche Routinen bereits integriert. Es gab elektrische Schreibmaschinen, die von diesen Schnittstellen angesteuert und als Drucker verwendet werden konnten. Auf Treiberebene existieren zwei Standards, der MPS-801/803-Modus sowie der Epson FX-80-Modus (ESC-P) für Neun-Nadel-Drucker. Der Standard NEC-P6 wurde nur selten unterstützt, da die meisten NEC-P6-kompatiblen Drucker auch FX-80-kompatibel sind, wenngleich dann die Ausgabe lediglich mit neun Nadeln erfolgte. Die überwiegende Mehrheit der damaligen Drucker waren Nadeldrucker mit 7, 8, 9 oder 24 Nadeln, wobei 24-Nadel-Drucker aufgrund ihres hohen Preises eher selten waren und nur mit Spezialsoftware eingesetzt werden konnten. Im untersten Preissegment fanden sich einige Thermodrucker, die aber wegen ihres schlechten Druckbildes, dem notwendigen teuren Thermopapier und der schlechten Haltbarkeit des Drucks keine sehr weite Verbreitung fanden. Tintenstrahldrucker, Thermotransferdrucker und Laserdrucker waren zu dieser Zeit noch sehr teuer und somit selten bei Heimcomputeranwendern zu finden. Fernseher/Monitor Mithilfe des HF-Ausgangs konnte der C64 über die Antennenbuchse an jeden Fernseher angeschlossen werden, so dass kein zusätzlicher Monitor für den Betrieb des Rechners nötig war. Die Bildqualität war aufgrund der Umsetzung naturgemäß bescheiden.Für den C64 und andere damalige 8-Bit-Heimcomputer gab es eine recht große Auswahl an Video-Monitoren. Hier sind vor allem der Commodore 1701 und der Philips CM8833, mit Auflösungen von 300×300 Pixeln, sowie die kompatiblen Monitore der Amiga-Baureihe zu nennen, die aufgrund ihrer feineren Lochmaske ein schärferes Bild lieferten. Plotter Weniger verbreitet war der Plotter Commodore VC-1520, ein einfacher Stiftplotter für Endlos-Rollenpapier. Die Papierrolle war ca. 10 cm breit. Das Gerät bot die Möglichkeit der einfachen Textausgabe in Rot, Grün, Blau und Schwarz. Außerdem konnten Zeichnungen in den gleichen Farben ausgegeben werden. DFÜ-Geräte Akustikkoppler Damals war der Betrieb von nicht durch die Deutsche Bundespost zertifizierten – und das waren die meisten – Modems am deutschen Telefonnetz illegal, so dass man anstelle dieser Modems sogenannte Akustikkoppler verwenden musste. Die Übertragung war damit allerdings sehr langsam, typischerweise 300 bis 1200 Bit/s und zudem sehr fehleranfällig, da Nebengeräusche oft zu Übertragungsfehlern führten. Modems Es gab spezielle C64-Modems, die an den Userport des C64 angeschlossen wurden, sowie andere, die mithilfe einer (gegebenenfalls am Expansionsport anzuschließenden) RS-232-Schnittstelle am C64 betrieben werden konnten. Netzwerkkarten 2003 kam von individual Computers ein Netzwerkadapter für den C64 unter der Bezeichnung RR-Net auf den Markt. Für den Betrieb benötigt man allerdings das Retro Replay Cartridge oder das MMC64, welches ebenfalls von individual Computers herausgebracht wurde. Weitere Peripherie EasyFlash Ein auf Flashspeicher basierendes Modul, das viele ROM-basierende Module ersetzen kann. Die Grundidee war dabei, die „großen“ Ocean-Spielmodule ersetzbar zu machen, indem der Inhalt eines solchen Moduls in den Flashspeicher geschrieben wird und sich das EasyFlash dann wie ein Original-„Ocean-Modul“ verhält. In der Entwicklungsphase wurden dann noch weitere Modulformate implementiert, so dass ein EasyFlash fast alle Spielmodultypen korrekt emulieren kann. Das EasyFlash verfügt über einen 1 MB großen Flashspeicher, der mittels des C64 und Diskettenlaufwerk oder größere Massenspeicher beschrieben wird. Daraufhin wurde Software (EasyLoader) entwickelt, die es ermöglicht, beliebige Programme oder auch Modulkopien für den C64 auf den Flashspeicher zu schreiben und über ein Startmenü auszuwählen. In Betrachtung dieser Möglichkeiten wurden mittlerweile viele Spieletitel auf das EasyFlash umgesetzt, so dass die Diskettenladezeiten entfallen und sogar die Möglichkeit gegeben ist, die Spielstände auf dem EasyFlash zu speichern. Die Umsetzung von „Prince of Persia“ für den C64 basiert auf dem Easyflash. EPROM-Karten Diese Karten erlaubten den direkten Zugriff auf ein oder mehrere EPROMs zum Aufruf fest gespeicherter Programme und waren meist elektronisch umschaltbar. Massenspeicher In den 1990er-Jahren entwickelte die Firma CMD neue Diskettenlaufwerke mit einer Speicherkapazität von bis zu 2880 kB. In den späten 1990er-Jahren entwickelten technisch versierte Bastler eine IDE-Schnittstelle. Sowohl an der IDE-Schnittstelle als auch an der SCSI-Festplatte lassen sich weitere Geräte wie CD-ROM-Laufwerke oder Compact-Flash-Karten betreiben. Die beiden Laufwerke CBM D9060 und CBM D9090 waren die einzigen IEEE-488 Festplatten, welche von Commodore für die PET und CBM 8-Bit Computer hergestellt wurden. MMC64 Das MMC64 ist ein Steckmodul für den C64, das es ermöglicht, mit dem C64 MMC- und SD-Speicherkarten zu lesen und zu beschreiben. Programme können direkt von der Speicherkarte geladen und ausgeführt werden. Jedoch können Programme nicht vom Speicher des C64 auf die SD-Karte (oder MM-Karte) geschrieben werden. Damit kann für Selbstprogrammierer die MMC64 die Commodore Floppy 1541 als Speichermedium nicht ersetzen. Laden und danach Speichern funktioniert nur mit einer alten 1541. Das MMC64 ist daher eher für die Ausführung (Wiedergabe) von fertigen Spielen (oder auch eigenen Programmen) gedacht. Das Laden eines solchen Spiels wird in wenigen (Milli-)Sekunden bewerkstelligt. Darüber hinaus existieren zahlreiche Plugins, die es beispielsweise ermöglichen, sogenannte Diskettenimages von Disketten zu erzeugen oder diese auf Diskette zu schreiben (immer nur als ganze Image-Dateien). MP3@64 Das MP3@64 ist ein MP3-Modul für das MMC64. Multifunktionscartridges Sie waren sehr verbreitet. Das hat vor allem mit der geringen Ladegeschwindigkeit der 1541 zu tun, die sich per Software auf die 10- bis 20-fache Geschwindigkeit steigern ließ. Den Anfang machten einfache Schnelllader-Cartridges, schnell kamen weitere Funktionen dazu, so dass am Ende Cartridges wie The Final Cartridge 3, Hypra Load II oder Action Replay mit einer großen Anzahl von Funktionen aufwarteten. Neben dem Schnelllader sind meist noch diverse BASIC-Erweiterungen, Funktionstastenbelegungen, Freezerfunktionen, Druckfunktionen, Maschinensprachemonitor und einiges mehr vorhanden. Auch heute wird noch ein solches Cartridge hergestellt und verkauft: das MMC Replay. Es ist wie sein (mittlerweile eingestellter) Vorgänger Retro Replay Cartridge weitgehend Action-Replay-kompatibel und um Fehler bereinigt. Das Modul verwendet höher integrierte und modernere Bauteile und bietet mehr Speicher, mehr Funktionen und hat die Möglichkeit des ROM-Updates, zusätzlich wurde die Funktionalität des (ebenfalls eingestellten) MMC64 integriert. Relais-Karten Um den C64 zum Steuern von elektronischer Hardware zu benutzen, existierten diverse Relais-Karten. Diese wurden meist an den Userport angeschlossen und erlaubten so die Ansteuerung von acht Relais. Reset-Taste Ein Steckmodul, das es ermöglichte, durch Drücken eines Tastenschalters den C64 zurückzusetzen (‚reset‘). Die überwiegende Anzahl der in Maschinencode geschriebenen Programme konnte nur verlassen werden, indem der Computer aus- und wieder eingeschaltet wurde. Genauso musste bei Abstürzen vorgegangen werden, nur selten funktionierte das eigentlich hierfür vorgesehene gleichzeitige Drücken der Tasten und . Die übermäßige Benutzung des Ein- und Ausschalters war nicht nur lästig, sondern konnte auch zu Defekten führen. Schachcomputer Es gab eine Steckkarte für den C64, The Final Chesscard, die einen vollständigen Computer mit einer Schachspielsoftware (Schachcomputer) enthielt, der C64 übernahm dabei die Darstellung des Spiels und die Eingabe der Züge. Speichererweiterungen Es kam vor, dass für bestimmte Anwendungen die 64 KB Hauptspeicher des C64 nicht ausreichend waren, so dass zahlreiche Speichererweiterungen hergestellt wurden, die meistens an den Expansionsport angeschlossen wurden. Von Commodore selbst vertrieben wurde die REU (RAM Expansion Unit CBM1700, CBM1764 und CBM1750). Alle Speichererweiterungen für den C64 konnten nur von Software ausgenutzt werden, die speziell darauf ausgelegt war; das schloss vor allem die meisten Spiele aus. Weitere, meist nur von GEOS oder wenigen Spezialanwendungen (z. B. Pagefox) unterstützte Speichererweiterungen spielten nur eine untergeordnete Rolle. Teleclubdecoder Als Bausatz wurden sogenannte Teleclubdecoder vertrieben. Damit konnte die recht einfache Verschlüsselung des Pay-TV-Senders Teleclub aufgehoben werden. Turbokarten/Prozessorkarten Es gab einige wenige Versuche, dem C64 mit Hilfe eines schnelleren Prozessors zu mehr Leistung zu verhelfen. Als erstes kam die Erweiterung Turbo Process von Roßmöller auf den Markt, die einen 65C02-Prozessor mit 4 MHz hatte. Der direkte Nachfolger dieser Karte war die Flash 8, mit einer 8 MHz schnellen 65816-CPU. Beide Karten sind teilweise inkompatibel zu existierender Software und überdies im Betrieb sehr instabil, so dass sie lediglich ein Nischendasein fristeten. Erst der SuperCPU, einer Beschleunigerkarte basierend auf einem mit 20 MHz getakteten 65816-Prozessor, war ein gewisser Erfolg beschieden. Eine Prozessorkarte mit einem Z80, die den C64 zu einem CP/M-Computer werden ließ, wurde bei der Markteinführung des C64 stark propagiert, erreichte aber wegen der sehr geringen CPU-Geschwindigkeit und der schlechten Kompatibilität zu anderen CP/M-Rechnern keine große Verbreitung. Insbesondere verlangten fast alle kommerziellen CP/M-Programme eine Zeilenlänge von 80 Zeichen, was der C64 von Haus aus nicht bieten konnte. Videotext Es gab Erweiterungen, mit deren Hilfe der C64 die Videotexttafeln der Fernsehsender auslesen konnte. Produzierte Varianten Intern gab es 16 verschiedene Versionen des C64-Mainboards. C64 (1982) Der C64 wurde anfangs in einer beigefarbenen „Brotkasten“-Gehäuseform, zunächst mit orangefarbenen, dann mit dunkelbraunen Funktionstasten produziert. Urversionen mit den orangen Funktionstasten und dem silbernen Commodore-Typenschild gehören zu den Raritäten. Ein Großteil der deutschen Produktion wurde im Commodore-Werk in Braunschweig montiert. Educator 64 (1982) Der Educator 64 ist eine spezielle Version des C64 im PET-Gehäuse, er war vor allem für Schulen gedacht. Das Modell ist auch als „4064“ oder „PET 64“ bekannt. Diese Version konnte sehr preisgünstig angeboten werden, da instand gesetzte Hardware von reklamierten C64 verwendet wurde. SX-64/DX-64 (1983/1984) Der SX-64/DX-64 ist eine tragbare Version des C64 mit einem (SX-64) oder zwei (DX-64) eingebauten 1541-kompatiblen Diskettenlaufwerken und eingebautem 5-Zoll-Farbmonitor. Der Rechner war nicht hundertprozentig kompatibel, man konnte aber C64-ROMs anstelle der leicht geänderten SX-64-ROMs einsetzen. Aufgrund niedriger Absatzzahlen wurden jedoch nur wenige Geräte hergestellt: Vom SX-64 etwa 49000 Stück, vom DX-64 sind nur Prototypen bekannt. C64 Gold (1986) Die „Gold Edition“ des C64 besaß ein goldfarbenes Brotkasten-Gehäuse und war auf einer Acryl-Platte mit einem Emblem montiert. Anlass war der einmillionste verkaufte C64 in Deutschland. Produziert wurde die Kleinserie 1986 in sehr geringer Stückzahl von etwa 400 Stück, andere Quellen geben 1.000 Stück an. Bei einer Feier am 5. Dezember 1986 im Münchner BMW-Museum wurde dieser C64 an wichtige Personen innerhalb des Unternehmens sowie Journalisten und Händler vergeben, die maßgeblich zum Erfolg des C64 beigetragen hatten. Die speziell in Braunschweig gefertigte „Gold Edition“ wurde damals von Hand ab Nummer 1.000.000 beschriftet. Dieses Gerät ist sehr selten und ein begehrtes Sammlerstück. C64C (1986) Das Modell C64C hat ein neues, flacheres Gehäuse, das dem Gehäuse des C64-Nachfolgers C128 nachempfunden ist, und trägt die Aufschrift „Personal Computer“. Zudem ist es mit leicht überarbeiteter, kostenreduzierter Hardware ausgestattet – die Hauptplatine ist kleiner. In Deutschland wird der C64C oft als „C64-II“ bezeichnet. C64G (1987) Der C64G besitzt wieder die alte Gehäuseform („Brotkasten“), diesmal grau/beige mit heller Tastatur und kostenreduzierter Hauptplatine. Die Grafikzeichen der Tastatur sind auf der Oberseite statt auf der Stirnseite der Tasten abgebildet. Das G in der Bezeichnung steht für Germany, da in Deutschland die Brotkastenform sehr beliebt war und man dem Wunsch der Kunden mit diesem Modell nachkommen wollte. Aldi-C64 (1988) Der Aldi-C64 ist dem C64G ähnlich. Er war nur in Deutschland erhältlich und der Vertrieb erfolgte über Discounter (zum Beispiel die Aldi-Gruppe). Durch das Wegfallen des 12-V-Spannungsreglers bei den 250469-Boards wurde in der Zeitschrift 64er fälschlicherweise geschrieben, der neue SID 8580 würde ausschließlich 5 Volt Gleichspannung benötigen. Die 9 Volt Wechselspannung würde daher nicht mehr benötigt und am Userport fehlen. Diese Angaben waren falsch. Der neue SID 8580 benötigte zusätzlich zu den 5 Volt Gleichspannung auch 9 Volt Gleichspannung, die aus den 9 Volt Wechselspannung erzeugt wurde. Auch für das Taktsignal (50 Hz) der beiden CIA-Echtzeituhren und für die Motoransteuerung der Datasette wurde die 9 Volt Wechselspannung benötigt. Die neuen flacheren Gehäuse und hochintegrierten Platinen waren bei Bastlern unbeliebt, da sie mit internen Erweiterungen von Fremdherstellern nicht mehr kompatibel waren. C64GS (1990) Der Commodore 64 GS (GS = Games System) ist ein 1987 als Spielkonsole herausgebrachter C64. Es war der Versuch, die Marke Commodore auch auf den Konsolen-Markt zu etablieren. Es besaß keine Tastatur und keinen Anschluss für Datasette und Diskettenlaufwerke. Spiele konnten nur über Module geladen werden. Der Modulschacht befand sich auf der Oberseite des Gerätes. Der C64 GS war genauso teuer wie ein vollwertiger C64, weswegen der C64 GS floppte. Offiziell wurde das Modell C64GS nur in England vertrieben. Vorgänger und Nachfolger Der Vorgänger des C64 war der 1981 zur Marktreife gebrachte, farbfähige VC 20, von dem erstmals in der Geschichte der Mikrocomputer über eine Million Exemplare verkauft wurden. Als offizieller Nachfolger des C64 wurde 1985 der Commodore 128 auf den Markt gebracht, welcher neben dem eigenen C128-Modus über einen C64- sowie einen CP/M-Modus verfügte. Die Produktion des Nachfolgemodells wurde jedoch wegen nicht zufriedenstellender Verkaufszahlen und hoher Produktionskosten schon 1989 und damit fünf Jahre vor dem Produktionsende des C64 eingestellt. Die ab 1984 gefertigten Modelle der Commodore-264-Serie, der C16, C116 und Plus/4, konnten sich aufgrund ihrer Inkompatibilität zum beliebten C64 sowie bestimmter technischer Defizite auf dem Markt ebenfalls nicht durchsetzen. Noch im selben Jahr erfolgte die Produktionseinstellung und verbliebene Geräte wurden für Schleuderpreise verkauft. Als späten Nachfolger des C64 entwickelte Commodore den Commodore 65, der jedoch nie in Serie produziert wurde, da man dem sehr erfolgreichen Amiga 500 mit dem C65 keine Konkurrenz machen wollte. Die als Tastaturcomputer ausgeführten Einsteigermodelle der von Commodore hergestellten Amiga-Reihe, insbesondere der Amiga 500, erfreuten sich Ende der 1980er-Jahre einer ähnlichen Beliebtheit als leistungsfähige Spielecomputer wie der C64, die jedoch den C64 nie vom Markt verdrängen konnten. Technisch war der Amiga dem C64 überlegen, er besaß allerdings auch eine vollkommen abweichende und modernere Hardware. Commodore International musste am 29. April 1994 Insolvenz anmelden. Mit dem Hersteller Commodore verschwand auch der letzte Heimcomputer C64 vom Markt, dessen Produktionseinstellung eigentlich erst für 1995 vorgesehen war. Nachbauten und Weiterentwicklungen Während der 8-Bit-Ära gab es vom C64, anders als bei vielen Konkurrenzmodellen, keine legalen oder illegalen Nachbauten durch andere Firmen. Die vielen speziellen Chips im C64, die nur von Commodore selbst beziehungsweise von deren Tochter MOS Technology hergestellt und die nicht an potenzielle Nachbauer verkauft wurden, verhinderten dies. Web.it Im Jahre 1998 erschien von der belgischen Firma Web Computers International der Web.it, ein PC-kompatibler Rechner mit Microsoft Windows 3.1 und vorinstalliertem C64-Emulator. Herz war ein AMD-Mikroprozessor auf 486-Basis (66 MHz), dazu kamen 32 MiByte RAM, 32 MiByte ROM. Der Web.it war zudem mit einem Webbrowser (Netscape Navigator), einem Textverarbeitungsprogramm (Lotus AmiPro) und einer Tabellenkalkulation (Lotus 1-2-3) ausgestattet. Wie beim Original-C64 befand sich der gesamte Rechner im selben Gehäuse wie die Tastatur. Die Produktion des erfolglosen Modells wurde relativ schnell wieder eingestellt. Das mag unter anderem damit zusammengehangen haben, dass das Gerät nicht annähernd die notwendige Prozessorgeschwindigkeit aufwies, um einen C64 in Echtzeit zu emulieren. C-One Jeri Ellsworth und Individual Computers entwickelten den C-One oder auch Commodore One als Nachbau des C64 und bildeten die Hardware mittels FPGAs nach. Erste Platinen wurden 2003 ausgeliefert. C64 Stick/C64 DTV Ende 2004 brachte die englische Firma The Toy:Lobster Company den C64 Stick – auch als C64 DTV (Direct To TV) bekannt – heraus, der auch in Deutschland erschien. Der Entwurf stammt ebenfalls von Jeri Ellsworth, es handelt sich im Wesentlichen um einen auf das Notwendigste reduzierten C-One. Es ist ein C64-Nachbau in Form des Joysticks Competition Pro mit 30 eingebauten Spielen (darunter unter anderem Summer Games, California Games sowie Pitstop, Super Cycle und Uridium). Der Anschluss erfolgt direkt an das Fernsehgerät. Begabte im Löten und technisch Bewanderte können den Joystick um weitere Joystickports sowie um PS/2-Port für Tastatur, IEC-Port für Drucker und Diskettenlaufwerke sowie Buchse für Stromanschluss erweitern. Es existieren NTSC- (seit 12/2004) und PAL-Versionen (seit 8/2005). Commodore 64x Im August 2010 veröffentlichte Commodore USA die Nachricht, die weltweiten Lizenzrechte für bisherige Commodore-Marken erworben zu haben, insbesondere für den C64 und den Amiga-Computer. Im Dezember 2010 wurde ein Commodore 64 genanntes PC-System im originalgetreuen Retro-Gehäuse angekündigt. Basis ist ein Mainboard mit einem Intel Atom D525 DualCore-Chip, nVidia ION2 Grafik, USB-Ports, Kartenleser sowie optional DVD- oder BluRay-Laufwerk. Der Rechner wurde mit dem Betriebssystem Ubuntu Version 10.10 ausgeliefert. Später erhielt es mit Commodore OS ein eigenes Betriebssystem und einen integrierten C64-Emulator. Chameleon 64 Der Chameleon 64 ist ein von Individual Computers entwickeltes Modul, das 2013 erschien. Es enthält unter anderem einen VGA-Port, PS/2-Anschlüsse für Maus und Tastatur und einen Slot für SD-Karten. Grundsätzlich stehen zwei Betriebsmodi zur Verfügung: am Expansions-Port des C64 oder SX-64 angesteckt autark mit einer optionalen Docking-Station, die den Anschluss von C64-Tastaturen und bis zu vier Joysticks erlaubt. Wird das Modul am C64 betrieben, so bietet es eine VGA-Ausgabe, VC-1541-kompatible Floppy-Emulation von zwei Diskettenlaufwerken, die Emulation von REU, GeoRAM und diverser Anwendungs- und Spielmodule. Im autarken Betrieb stehen zusätzlich die Funktionen eines mittels FPGA umgesetzten C64 zur Verfügung. Das Modul bietet zusätzlich einen Uhrenport zum Anschluss einer Netzwerkkarte vom Typ RR-Net Mk2 oder Mk3, die im Modulgehäuse untergebracht werden kann. C64 reloaded Erstes Modell Am 1. April 2014 kündigte individual Computers an, neue C64-Mainboards unter dem Namen C64 reloaded zu produzieren. Der Platinenentwurf folgte größtenteils dem Originalschaltplan mit der Commodore-Nummer 250466. Jedoch gibt es auch Abweichungen vom Schaltplan. So wurden Nullkraftsockel verbaut und eine 12V DC-DC Wandlertechnik hielt Einzug. Statt eines TV-Modulators wurde ein S-Video-Ausgang und eine 3,5 mm Audio-Klinkenbuchse verbaut. Der C64 reloaded kann ohne Lötarbeiten von PAL- auf NTSC-Videonorm umgeschaltet werden. Der C64 Reloaded benötigt zum Betrieb zusätzlich originale Chips, die aus defekten C64-Computern entnommen werden können. Dieses Modell wurde noch ohne den Markennamen Commodore vertrieben. Der Verkaufsstart des C64 reloaded war am 20. Mai 2015. Diese Boards waren schnell ausverkauft. Zweites Modell Das C64 reloaded MK2 ist das erste Board der Reihe, welches unter dem Markennamen Commodore vertrieben wird. Im Gegensatz zum ersten Modell erkennt das MK2 die installierten Chipversionen automatisch und konfiguriert sich von selbst entsprechend. Der Verkaufsstart ist für den 21. November 2017 anvisiert. Ultimate64 (Elite) Im August 2017 kündigte Gideon Zweijtzer an, neue C64-Mainboards unter dem Namen Ultimate64 zu produzieren. Im Gegensatz zum C64-Original handelt es sich dabei um eine komplett neue Reimplementation des C64 auf FPGA Basis, somit benötigt das Board keinerlei originale Chips. Es besteht jedoch die Möglichkeit, 2 SID MOS 6581 oder MOS 8580/6582 in beliebiger Zusammenstellung einzusetzen, jedoch aufgrund der Bauform nicht zwei FPGASID gleichzeitig. Im FPGA ebenfalls integriert ist die 1541 Ultimate-II+ desselben Entwicklers, ein vollständiger Diskettenlaufwerksersatz. Als Datenmedium wird ein USB-Stick verwendet. Es können maximal zwei 1541 Diskettenlaufwerke emuliert werden. Das Bildsignal wird als analoges Videosignal und auch als HDMI-Signal ausgegeben. TheC64 Mini 2017 wurde bekannt, dass die britische Retro Games Ltd. und die österreichische Koch Media eine voll lizenzierte auf der Arm-Architektur basierende Mini-Version des C64 unter den Namen TheC64 Mini Anfang 2018 auf den Markt bringen wird. Das Gerät selbst lehnt sich an das Design des C64 an, ist aber nur halb so groß. Die Tastatur des TheC64 Mini ist eine Attrappe. Es verfügt über einen HDMI-Port für moderne Fernsehgeräte und Monitore. Der mitgelieferte Joystick wird über einen USB-Port mit dem Gerät verbunden. Auch eine USB-Tastatur lässt sich an dem Gerät anschließen, somit ist es möglich eigene Basic-Programme auf dem TheC64 mini zu schreiben. Das Gerät wurde 2017 mit 64 vorinstallierten Spielen ausgeliefert, in neueren Firmware-Versionen sind weitere Titel hinzugefügt worden. TheC64 Im Dezember 2019 wurde schließlich unter dem Namen TheC64 ein Gerät auf den Markt gebracht, dass das originale Brotkastengehäuse besitzt und im Gegensatz zum Mini mit funktionierender Tastatur ausgestattet ist. Die Hardwarespezifikationen entsprechen ansonsten im Wesentlichen denen des TheC64 Mini, die Firmware bietet jedoch zusätzlich einen Emulator für den Commodore VC 20, der in Amerika als „VIC 20“ bekannt wurde. Der Computer wird daher in Amerika auch als TheVIC20 angeboten und außerdem zur Unterscheidung vom Mini (nicht nur in Amerika) oft als TheC64 Maxi bezeichnet. Gehäuse für den C64C Im August 2016 wurde bekannt, dass individual Computers (icomp) neben der Lizenz für den Markennamen Commodore auch die originalen Gussformen des C64C-Gehäuses erworben hat und mit diesen neue Gehäuse produzieren will. Am 22. August 2017 wurde das Gehäuse auf der Gamescom der Öffentlichkeit präsentiert und bereits verkauft; der reguläre Verkauf startete am 1. September 2017. Die neuen Gehäuse sind dabei in den vier Farbgebungen Original Beige, Classic Bread Bin, SX-64 Style und Black Edition verfügbar. Da fast alle C64-Platinen vom Aufbau identisch sind und es nur kleinere Abweichungen von der C64C Platine gibt, lassen sich auch andere C64-Versionen in dem Gehäuse einbauen. Dies trifft auch auf die Modelle des C64 reloaded zu. uAX64 Mini/Long Im Oktober 2019 startete die Entwicklung eines C64 in gänzlich neuer Form mit einem 100 × 100 mm Board und 6 Slots jeweils mit 72 Pins, der steckbare Modul-Karten aufnehmen kann. Dazu gehören die Modul-Karten: CPU, RAM, VIDEO, SOUND, REMOTE KEYBOARD mit jeweils 72 Pin Slots. Mit einer Abmessung von nur 100 × 100 mm ist dieser neue C64 derzeit (2022) der kleinste C64 der Welt der die originalen Chips des C64 verwendet. Vom uAX64 Mini gibt es eine "Long" Version mit 9 Slots. uEliteBoard64 Kurz nach dem uAX64 Mini wurde im Januar 2020 das uEliteBoard64 vorgestellt, der als erster neuer C64 ermöglichte drei SID Chips auf das C64 Board zu stecken. Zusätzlich dazu besitzt das neue C64 Board einen "HAT SOCKET" Steckplatz zur Aufnahme steckbarer "HAT" Erweiterungen. Zu den Erweiterungen gehören die MIDI-, OPL2- und Code-Injection Steckkarte. uBook64 Im März 2020 erschien der nur 184 × 146 mm große C64, der trotz seiner nur geringen Abmessungen einen vollwertigen C64 darstellt. Dieser C64 hat auf der linken Seite eine 3,5 mm Kopfhörerbuchse. uLaserBoard64 Das uLaserBoard64 ist ein C64 der von der Bauform her einer aus dem Film Alien M41A Pulse Rifle nachempfundenen ist. Bei diesem C64 kann eine Steuerungsplatine sowie ein LCD Panel und ein Laser-Modul aufgesteckt und kann zu einer M41A Pulse Rifle umgebaut werden. uHeld64 Der uHeld64 ist ein C64 im Gameboy Formfaktor wahlweise mit DPAD oder Analogstick Steuerung. Dieser C64 besteht aus 3 Platinen die übereinander montiert werden, und somit die Handgroße Form ermöglichen. Bei diesem C64 wurde neben einem LC-Display, ein Joystick-Umschalter sowie eine komplette C64 Tastatur in Miniaturform integriert. Optional kann eine Pi1541 (Raspberry Pi Zero) eingebaut werden, mit der eine 1541 Floppy simuliert wird. Der Expansionsport des originalen C64 ist ebenfalls vorhanden, das es ermöglicht oben am uHeld64 originale C64 Module zu stecken. uAX64 Ein C64 in ATX Form stellt der uAX64 mit 4 Karten-Slots in Micro-ATX Form dar. Neben dem "uAX64" existiert eine "uAX64 MAX" Version mit 7 Slots. Beide uAX64 Versionen ermöglichen von Hause aus zwei SID Soundchips und bieten mehrere Steckkarten: MIDI, OPL2, Bluetooth/USB Keyboard, I/O, 2MB RAM, RGB-Video, SID (8x). Zusätzlich dazu besteht die Möglichkeit interne Tape und Serial Anschlüsse zu nutzen. uSIDTower64 Mitte 2020 wurde der uSIDTower64 vorgestellt, der auf die Musik vom C64 ausgerichtet ist. Dieser C64 besteht aus mehreren runden 100 × 100 mm Platinen die übereinander gesteckt werden. Der uSIDTower64 ermöglicht drei SID Soundchips zu stecken, enthält neben einem Midi-Interface auf der obersten Platine 14 RGB WS2812 LEDs die automatisch vom SID angesteuert werden können und somit die vom SID erzeugte Musik optisch visualisieren. Mega65 Ein FPGA-basierter 8-Bit-Computer als Open-Source-System, das seit 2014 von der M-E-G-A e.V. - Gemeinde entwickelt wird, mit Cherry-Retro-Tastatur, internem 3,5″-Diskettenlaufwerk, SDHC-Karten-Slot und Anschluss für externe Diskettenlaufwerke. Klassische Commodore-64-Module können am internen Expansionsport verwendet werden. Darüber hinaus enthält das Gerät 100-Mbit LAN und digitalen Videoausgang. Software Neue C64-Software und C64-Hardware wird auch heute noch von verschiedenen Firmen (zum Beispiel Protovision) entwickelt und vertrieben. Anwendungssoftware Obwohl der C64 oft als „Spielcomputer“ und „Daddelkiste“ bezeichnet wurde, da der überwiegende Teil der Software Spiele waren, wurden für das Gerät – auch wegen seiner für die damalige Zeit gehobenen Hardware-Eigenschaften – auch viele „ernsthafte“ Programme produziert. Neben Office-Programmen wie der Textverarbeitung Vizawrite oder Textomat und den Tabellenkalkulationen Microsoft Multiplan und Supercalc gab es für alle erdenklichen Anwendungen eine Vielzahl von Programmen, von denen hier stellvertretend nur einige aus dem deutschen Raum genannt seien: Für grafische Anwendungen waren Programme wie Hi-Eddi (für HiRes-Grafik) von Hans Haberl, Amica Paint von Oliver Stiller für Multicolor-Grafiken und GIGA-CAD von Stefan Vilsmeier für 3D-Modelle konzipiert. Ebenfalls von Hans Haberl und veröffentlicht von Scanntronik waren die Desktop-Publishing-Programme Printfox und Pagefox. Letzteres wurde als Steckmodul entwickelt und enthielt eine zusätzliche Speichererweiterung, um Zeichensätze, Grafiken und Text für eine ganze DIN-A4-Seite im Speicher halten zu können. Dabei standen alle üblichen Layoutfunktionen zur Verfügung, inklusive Spezialfunktionen wie Kerning. Lernprogramme Auch etliche Lernprogramme wurden für den C64 produziert, wenngleich er kein typischer Rechner war, der im Schulunterricht zum Einsatz kam. Hier waren besonders der Apple II und seine Klone stark verbreitet. Neben Lernprogrammen wie Vokabeltrainern, Mathekursen und Programmen zum Erlernen des Chemielernstoffes wurden auch Hardware-Erweiterungen angeboten, mit denen Schüler zum Beispiel mit der Fischertechnik-Schnittstelle 30562 für den C64/VC20 die Grundzüge der Robotik erlernen konnten. Der C64 konnte auch für Lern- und Forschungszwecke genutzt werden. So trat das Gerät in den 1980er-Jahren bei vielen Beiträgen der Jugend-forscht-Wettbewerbe als Bestandteil der Versuchsanordnungen in Erscheinung. Auch in der Fliegerei wurden Programme für den C64 eingesetzt. US-Piloten konnten beispielsweise Flüge nach Instrumentenflugregeln (IFR) mit dem Flight-Simulator II von Bruce Artwick machen, die für die Verlängerung der Pilotenlizenz angerechnet wurden. Das deutsche Pendant dazu war der Flight-Teacher von Uwe Schwesig, der eine Einführung in die Fliegerei bot. GEOS Im Jahr 1986 wurde das Betriebssystem GEOS (Graphic Environment Operating System) mit grafischer Oberfläche (GUI) für den C64 angeboten. Es wurde in mehreren Versionen veröffentlicht und enthielt sehr viele Anwendungsprogramme. Diese grafische Oberfläche erweiterte den C64 in seiner Anwendungsbreite stark. Das war notwendig geworden, weil ab Mitte der 1980er-Jahre grafische Oberflächen immer häufiger als Serienausstattung bei Heimcomputern zum Einsatz kamen, so zum Beispiel beim Amiga, dem Apple Macintosh oder beim Atari ST. GEOS wurde auf unterschiedlichen Plattformen bis in die 2000er-Jahre gepflegt und erweitert. Allerdings ist GEOS sehr ressourcenaufwendig, so dass sich im Besitz des Anwenderkreises von GEOS auch am häufigsten moderne Hardware wie große Speichererweiterungen, Super-CPUs oder Festplatten befinden. Unix Darüber hinaus wurde für den C64 ein Unix-artiges Betriebssystem namens LUnix (für ) entwickelt. Aktuell weiterentwickelt wird das ebenfalls Unix-orientierte Wings-Betriebssystem für den C64. Als reines Hobby-Projekt wurde ab 1989 von einem einzelnen Entwickler GeckOS für den 8-Bit-Mikrochip MOS6502 entwickelt, das Multitasking beherrscht und zu LUnix kompatibel ist. GeckOS gibt es auch in einer Variante für den C64. Programmiersprachen Die wichtigsten Programmiersprachen für den C64 waren das eingebaute BASIC und Assembler. Daneben gab es eine Vielfalt an Programmiersprachen und -Dialekten für den C64: BASIC Das eingebaute Commodore BASIC V2 bietet keine Befehle, um die Grafik- und Soundmöglichkeiten des C64 komfortabel anzusprechen, da diese beim VC20, von dem der Code übernommen worden war, noch nicht vorhanden waren. Das bereits vorhandene und bessere BASIC 4.0 der neueren PETs wurde beim C64 nicht verwendet, da man den PETs keine interne Konkurrenz machen wollte. Über die BASIC-Befehle PEEK und POKE kann direkt auf die Hardware – auch auf Video- und Soundchip – zugegriffen werden, was z. B. auch in Basic die Programmierung von Sprites ermöglicht. Weiterhin können über den SYS-Befehl Systemroutinen direkt angesprungen werden: Beispielsweise bewirkt SYS 64738 einen Reset des C64. Sound und Grafik lassen sich nur in Assembler maximal ausreizen. Komfortablere Grafik- und Soundprogrammierung ist mit erweiterten BASIC-Varianten wie etwa Simons’ BASIC möglich, die jedoch nicht Bestandteil des Lieferumfangs waren. Spiele für den C64 sind daher nahezu ausschließlich in Assembler programmiert. Bei späteren BASIC-Versionen, beispielsweise dem BASIC 3.5 des C16 und Plus4, ist der Befehlsvorrat wesentlich umfangreicher. Neben dem eingebauten Commodore BASIC V2 gab es noch diverse Dialekte und Compiler. Eine Auswahl: Austrospeed Austrospeed ist ein 2-Pass-Compiler (3-Pass-Compiler im Overlay-Modus), der BASIC V2.0-Code in einen kompakten, schnell interpretierbaren Zwischencode (ähnlich P-Code) übersetzt. Derart kompilierte Programme laufen drei- bis fünfmal schneller ab als unkompilierte. Zum Austrospeed gab es auch einen dazugehörigen Decompiler. Basic-Boss BASIC-Compiler Basic-Boss ist ein BASIC-Compiler aus dem Hause Markt & Technik Verlag, der im Jahre 1988 erschien und sehr stabile Programmergebnisse aus reinen BASIC-Programmen erzeugt. Reine BASIC-Programmierer können mit Hilfe des Compilers schnelle Programme erhalten, ohne auf Assembler ausweichen zu müssen. Der Benutzer muss dafür bestimmte „Definitionen“ in sein BASIC-Programm einbauen, die dann nach dem Kompilieren diese hohen Geschwindigkeiten ermöglichen. In sehr günstigen Fällen laufen die Programme 50- bis 100-fach schneller ab. BASICODE Für den C64 gab es Bascoder für den BASIC-Dialekt BASICODE. Dabei handelte es sich um einen rechnerübergreifenden BASIC-Standard. Exbasic Level II BASIC Exbasic Level II ist ein erweitertes und verbessertes BASIC für den C64, das von Diskette geladen oder per Cartridge installiert wurde. Im Gegensatz zu Simons’ Basic war Exbasic Level II ursprünglich nicht für den C64 geschrieben worden, so dass nicht alle Möglichkeiten der Hardware dieses Rechners durch diese BASIC-Erweiterung ausgenutzt wurden. G-Basic G-Basic stellte umfangreiche Programmierfunktionen zur Verfügung, über die das Standard-BASIC des C64 nicht verfügte. Es wurde als Hardwareerweiterung geliefert, die in Form und Größe an eine Zigarettenschachtel erinnerte. Diese besaß einen eigenen Resettaster, da der C64 ab Werk nicht über einen solchen verfügte. Geo-Basic Geo-Basic ist ein BASIC unter der grafischen Oberfläche GEOS. Es enthielt allerdings viele Fehler und lief langsam, weshalb es sich nicht durchsetzen konnte. Auch war der für die Anwendungsprogramme zur Verfügung stehende Arbeitsspeicher nur sehr klein. Petspeed Petspeed ist ein Compiler für das eingebaute BASIC V2.0 von Commodore; für längere Programme benötigte der Compiler ein – selten vorhandenes – Doppelfloppylaufwerk. Simons’ Basic Simons’ Basic ist ein stark erweitertes BASIC mit grafischen Funktionen (Kreis, Ellipse) sowie teilweise strukturierter Programmierung. Vertrieben auf Diskette oder Cartridge. Assembler Assembler ist die wichtigste und – zusammen mit dem eingebauten BASIC – die am häufigsten genutzte Programmiersprache für den C64. Nur mit Assembler konnten die Fähigkeiten des Gerätes optimal genutzt werden. Es gab verschiedene Assembler-Entwicklungsumgebungen, die bekanntesten hießen TurboAss, Hypra-Ass und Giga-Ass. Für große Projekte wurden Cross-Assembler-Systeme eingesetzt. Diese bestanden aus zwei Computern, die mit einem Datenkabel verbunden waren: Einem C64, auf welchem das neu entwickelte Programm getestet wurde, und einem zweiten Computer, zum Beispiel ein weiterer C64, ein Amiga oder PC, auf welchem der Quelltext geschrieben und von einem Cross-Assembler übersetzt wurde. Das machte die Programmierung weitaus komfortabler, da auf dem Test-C64 der komplette Speicher bis auf die wenigen Bytes für die Übertragungsroutine zur Verfügung stand und im Fall eines Absturzes Quelltext und Assembler nicht gelöscht wurden. Jedoch reichte schon ein einfacher Maschinensprachemonitor aus, um Software für den C64 zu entwickeln: Das wohl bekannteste Exemplar eines solchen Programmes war der Smon. Auch brachten viele Erweiterungsmodule, wie das Action Replay oder die Final Cartridge, eigene Maschinensprachemonitore mit. Pascal Mit Oxford Pascal gab es eine Pascal-Implementierung, die in der Lage war, eigenständige Programme auf Diskette zu schreiben oder im Speicher zu halten. Sie war durchaus standard-konform. Auch von UCSD Pascal gab es eine Portierung auf den C64; sie war jedoch so umständlich und langsam, dass sie in der Praxis keine Rolle spielte. Weiterhin gab es aus dem Hause Markt & Technik das Buch "Pascal mit dem C64", das ein Pascal-Entwicklungssystem enthielt. Sonstige Zusätzlich zu den genannten Sprachen gibt es weitere Programmiersprachen, die aber eher exotisch sind. So gibt es einen C-Compiler (der allerdings nur eine Teilmenge von C implementiert), Forth und COMAL sind ebenfalls vertreten; es wurde sogar eine COBOL-Implementierung produziert. Auch Logo gibt es für den C64. Weiterhin existiert das Betriebssystem Contiki, das eine Internet- und Ethernetanbindung über den C64 erlaubt. Heute existiert mit cc65 ein leistungsfähiger Cross-Compiler für die Sprache C, der bis auf Gleitkommazahlen fast den ganzen ANSI-Standard abdeckt. Der Compiler selbst läuft auf den meisten modernen Plattformen. Spiele Die Spiele für den C64 waren eines der besten Verkaufsargumente für den Rechner: Fast jedes bekannte Computerspiel in den 1980er- und teilweise in den 1990er-Jahren wurde für den C64 umgesetzt, darunter viele Arcade-Spiele, so auch Donkey Kong und Pac-Man. Schätzungen gehen von etwa 17.000 kommerziellen Spieletiteln für dieses Gerät aus, nicht mitgezählt die zahllosen Spiele, die C64-Besitzer selbst programmierten. Über 95 Prozent aller Spiele haben eine Auflösung von 160 × 200 doppelbreiten Pixeln. Im Laufe der Jahre wurden insbesondere die Spiele immer komplexer und grafisch anspruchsvoller. Einige grafische Höhepunkte für den C64 sind unter anderem das Strategiespiel Defender of the Crown oder Manfred Trenz’ Actionspiel Turrican II: The Final Fight, deren Grafiken teilweise an Amiga-Qualität heranreichen. Andere herausragende Beispiele sind Wizball (Rahmensprites), Stunt Car Racer (3D-Grafik mit ausgefüllten Polygonen) oder die Last-Ninja-Trilogie. Auch die Präsentation und Animation der beliebten Sportspiele der Firma Epyx/U.S.Gold (Summer Games 1+2, Winter Games, California Games und so weiter) konnten überzeugen. Das von Nintendos Mario-Serie inspirierte Great Giana Sisters erfreute sich ebenfalls großer Popularität. Propaganda Schon in den 1980er-Jahren erprobten politische Gruppierungen die Möglichkeit, Computerspiele für ihre Zwecke zu nutzen. Diese technisch primitiven Spiele, die als Kopien auf Schulhöfen getauscht wurden, basieren meist auf der Technik des C64, etwa das von einem 17-Jährigen programmierte rechtsextremistische Spiel „Anti-Türken-Test“, in dem rassistische Fragen über die Tastatur zu beantworten sind, oder das Spiel „KZ-Manager“, in dem ein Konzentrationslager möglichst effektiv geführt werden muss. Viele dieser Programme wurden in den 1980er- und frühen 1990er-Jahren durch die Bundesprüfstelle für jugendgefährdende Medien (damals noch Bundesprüfstelle für jugendgefährdende Schriften, kurz BPjS) indiziert und später durch Gerichtsbeschlüsse bundesweit beschlagnahmt. Demoszene Der C64 trug besonders zur Entwicklung einer vielfältigen Subkultur bei, in der talentierte Programmierer Tricks entwickelten (zum Beispiel die Ausnutzung undokumentierter Hardwarefunktionen, darunter sehr viele Tricks für den Grafikchip), um die augenscheinlichen Limitierungen des Computers zu umgehen. Teile dieser Szene leben heute noch fort oder entwickelten sich weiter zu anderen Computersystemen wie Amiga oder PC. Die Demoszene entstand in den 1980er-Jahren aus der damaligen Crackerszene. Die Intros, die ursprünglich als Vorspann zwecks Präsentation der Fähigkeiten und Wiedererkennung vor gecrackte Spiele gesetzt wurden, nahmen stetig an Komplexität zu und wurden schließlich als Einzelwerke (Demos) ohne dazugehörige gecrackte Software veröffentlicht. Einem Außenstehenden erschließen sich die Schwierigkeiten dieser Programmierung häufig nicht, da er die Komplexität oder die laut Spezifikation eigentliche Unmöglichkeit des Effekts nicht einschätzen kann. Einige der grundlegenden Mechanismen betrafen die Nutzung des im Grafikchip integrierten sogenannten Rasterzeileninterrupts (Interrupt-Auslösung bei einer bestimmten Bildzeile) zur Synchronisierung von Code-Sequenzen, das ruckfreie Scrollen der Bildschirmfläche in beiden Achsen oder die Wiederverwendung von Sprites innerhalb eines Bildes. Typische Kennzeichen waren vor allem rasante, tanzende Rollschriften, mit 16 Farben vorgetäuschte, waagerechte Zylinderformen, sowie fast immer ein üppiges akustisches Beiwerk. Die Demoszene lotete die Möglichkeiten des C64 am weitesten aus. Höhepunkte setzten Demos wie Deus Ex Machina der Gruppen Crest und Oxyron, Tower Power der Gruppe Camelot, +H2K der Gruppe Plush oder Dutch Breeze der Gruppe Blackmail sowie Double Density von Mr.Cursor aka Ivo Herzeg, der in der Entwicklung mitverantwortlich für bekannte PC-Spiele wie Far Cry ist. Die Website der Demogruppe Alpha Flight 1970 enthält einige Flashversionen von szenetypischen Produktionen. Ein riesiges Repertoire an Informationen zu alten wie neuen Produktionen ist in der Commodore 64 Scene Database (CSDb) verzeichnet. Raubkopien Mit dem rasanten Aufstieg des Heimcomputers in den 1980er-Jahren im Allgemeinen und des C64 im Speziellen entstand auch ein Tauschmarkt für Raubkopien von Software für diesen Rechner. Auch Anwendersoftware, aber im überwiegenden Maße Spiele wurden zwischen den C64-Besitzern getauscht. Das war mit den ersten kommerziellen Programmen noch sehr einfach machbar. Doch schon bald versuchte die Softwareindustrie, durch verschiedene Kopierschutzmaßnahmen (mittels Datenträger, durch Papier-basierte Abfragen oder auch durch Laufzeitmaßnahmen) der Situation Herr zu werden. Das gelang kaum, da quasi gleichzeitig die Szene dafür sorgte, dass die Software einerseits mit ihren eigenen Programmen wieder kopierbar wurde, andererseits erzeugte man durch Decodieren und gezieltes Modifizieren der Originale ungeschützte Versionen, die sich mit jedem beliebigen Kopierprogramm duplizieren ließen. Es entstand eine Art „Hase-und-Igel“-Wettlauf zwischen der Softwareindustrie und den C64-Besitzern, in dem immer neue Kopierschutzmaßnahmen die illegale Verbreitung von Software verhindern sollten. Letztlich war jedoch fast jedes Programm für den C64 früher oder später auch als „freie“ Raubkopie in Umlauf. Eine erste Abmahnwelle veranlasste Ende 1992 der Rechtsanwalt Freiherr von Gravenreuth, als er über Testbesteller auf verdächtig erscheinende Kleinanzeigen in Computerzeitschriften, in denen überwiegend Privatleute inserierten, die sogenannten „Tanja-Briefe“ (unter dem Pseudonym „Tanja Nolte-Berndel“ und einigen weiteren weiblichen Pseudonymen) versandte. Falls ein so Angeschriebener auf die Bitte um Softwaretausch des angeblichen Teenagers einging, wurde dieser bei entsprechender Beantwortung wegen Verstoßes gegen das Urheberrecht abgemahnt, gegebenenfalls auch angezeigt. Auch führten einige Fälle zu Hausdurchsuchungen. Mit der Zeit wurde es Brauch bei den Crackern, vor die von ihnen „geknackten“ Programme einen eigenen, mehr oder weniger aufwändigen Vorspann (ein sogenanntes „Cracktro“) zu setzen. Typischerweise wurde dort in Laufschriften die eigene Coolness gepriesen, es wurden befreundete Crackergruppen gegrüßt, und zunehmend stellte man auch optisch und akustisch die eigene Programmierkunst zur Schau. Die oben beschriebene Demoszene ging zuerst aus der Verselbstständigung dieser Cracker-Vorspänne zu eigenständigen Programmen hervor, auch wenn später eine klare Abgrenzung der Demo- von der Crackerszene stattfand. Musik Der Soundchip des C64 war zum Verkaufsstart des C64 eine Sensation, da es bis dahin keinen vergleichbaren Heimcomputer gab, der eine solche Vielfalt an Klangvariationen bot. Durch diese technischen Möglichkeiten machten sich unzählige Programmierer daran, den C64 als Musikcomputer zu nutzen und entsprechende Musik auf ihm zu programmieren. Für den deutschen Sprachraum besonders zu erwähnen ist das komplett auf dem C64 programmierte Stück „Shades“ von Chris Hülsbeck, der mit diesem Song im Jahre 1986 den Musikwettbewerb der Fachzeitschrift 64’er gewann und damit den Grundstock für seine Karriere im Bereich der Spielevertonung legte. Weitere bekannte C64-Komponisten waren Rob Hubbard, Martin Galway, Ben Daglish, David Dunn, Markus Schneider, Stefan Hartwig, Holger Gehrmann, Reyn Ouwehand, Jonathan Dunn, Matt Gray, Jeroen Tel, Jens-Christian Huus (JCH) und Charles Deenen (Maniacs of Noise). Auch die professionelle Musikszene nutzte den C64 als Musikinstrument. So experimentierte der Musiker und Musikproduzent Michael Cretu in den 1980er-Jahren mit den Klängen des C64 und auch die Band von Inga Rumpf setzte den C64 ein. Viele Musiker geben noch heute an, durch den C64 den ersten Zugang zu einem Synthesizer bekommen zu haben, der eine Grundlage ihrer späteren Entwicklung war, so z. B. Rick J. Jordan von der Band Scooter. In der E-Musik wurde der C64 etwa von Yehoshua Lakner eingesetzt und bewusst als „historisches Musikinstrument“ mit eingeschränkten, aber produktiven Möglichkeiten gesehen. Mitte der 1980er-Jahre kam MIDI-Sequenzer-Software u. a. von der Hamburger Firma Steinberg (heute mit dem Produkt Cubase marktbeherrschend) auf den Markt, die den C64 als Steuerzentrum für MIDI-Synthesizer und MIDI-Sampler nutzten. Mit der Software Pro 16 von Steinberg konnte man professionelle Popmusik-Produktionen erstellen. Der C64 konnte über eine grafische Darstellung und mit manipulierbaren Zahlenwerten 16 verschiedene Instrumente (Piano, Drums, Bass usw.) gleichzeitig ansteuern. Die Taktrate und der Speicher des C64 reichten voll und ganz aus, MIDI-Instrumente nach Belieben zu steuern. Der SID des C64 wurde dabei nicht benutzt, da die Sounds nur von den Peripheriegeräten kamen. Auch in der Filmmusikszene fasste der C64 (wenn auch nur kurzzeitig) Fuß. So wurde beispielsweise der 80-minütige Dokumentarfilm über die berüchtigten Meuterer von der Bounty „Pitcairn – Endstation der Bounty“ (Regie: Reinhard Stegen) vollständig mit Musik untermalt, die auf einem C64 komponiert worden war. Damit stellte der C64 seine Praxistauglichkeit auch im Profibereich vollends unter Beweis. Der kurz darauf, Ende der 1980er-Jahre aufkommende Atari ST übernahm in fast allen deutschen Musikstudios das Kommando in Sachen MIDI-Sequencing und löste den C64 im Profibereich ab. Magazine In Deutschland kamen ab Anfang der 1980er-Jahre verschiedene Computermagazine speziell für den C64 auf den Markt. Am bekanntesten war die „64’er“ vom Verlag „Markt & Technik“, der Heise-Verlag gab mit der „Input 64“ ein Magazin auf einem Datenträger (Kassette und Diskette) heraus. Auch bekannt und verbreitet waren die Diskettenmagazine „Magic Disk 64“ und sein Ableger „Game On“ sowie die „RUN“. Als inoffizieller Nachfolger der 64'er erschien von 1997 bis 2006 die „Go64!“ (CSW-Verlag, Winnenden), die in der „Retro“ aufging, welche seit 2006 vierteljährlich erscheint. Des Weiteren existieren gegenwärtig noch zwei deutschsprachige Amateur-Printmagazine, die „Lotek64“ (auch als kostenlose PDF-Version im World Wide Web erhältlich) und die „Return“. In England waren „Commodore Force“ und „Commodore Format“ beliebt. Heute gibt es noch das englischsprachige Fanmagazin „Commodore Free“, das ebenfalls kostenlos als PDF erhältlich ist. Zudem erscheinen in mehr oder weniger regelmäßiger Reihenfolge Magazine auf Diskette, wie etwa die Digital Talk, die Mail Madness oder das australische Diskmag Vandalism News. Diese enthalten neben am Bildschirm zu lesenden Artikeln auch aktuelle Software, Musik und Bilder. Auch einige der damaligen Magazine, die viele verschiedene Rechnerplattformen abdeckten (wie „Happy Computer“, „Power Play“ und „ASM“), waren aufgrund des Markterfolges des C64 zunächst sehr auf diesen fixiert, was Besitzer anderer Rechner oftmals bemängelten. Inhalte aller dieser Magazine war nicht nur die Berichterstattung über neue Hard- und Software für die jeweiligen Geräte, sondern auch der seitenweise Abdruck von Listings, also von Programmtexten, die der Leser dann per Hand in den Computer abtippen konnte. Diese Art des Vertriebs von Software für den C64 war für den Besitzer, neben dem Erwerb von Kaufsoftware oder Schwarzkopien, oft der einzige Weg, an Programme zu gelangen, da es den Download über das Internet noch nicht gab. Der C64 in der DDR Ab Ende 1985 wurde der C64 im Intershop gegen „Westgeld“ oder Forumschecks verkauft, weitere Geräte fanden als Geschenk ihren Weg in die DDR. Gelegentlich konnte der C64 dank asiatischer Gastarbeiter im staatlich organisierten Gebrauchtwarenhandel („A & V“) für 8000 Mark als Neuware erstanden werden. Daneben gab es einen Privathandel über Kleinanzeigen. Die Gebrauchtpreise lagen bei 3000 bis 6000 Mark für den C64 und bis zu 5000 Mark für ein Diskettenlaufwerk. Bespielte Disketten und Kassetten unterlagen als Datenträger jedoch strengsten Importkontrollen, durften auch nicht als Geschenk aus dem Westen geschickt werden und waren daher ohne Beziehungen so gut wie nicht erhältlich. Emulatoren Heute gibt es etliche Commodore-64-Emulatoren, wie den VICE, den MESS, Power 64 (für macOS, vormals Mac OS X, und die letzte Version von klassischem Mac OS, Version 9), Frodo (u. a. für Symbian-Handys, sowie iOS und Android) und den ccs64. Diese erlauben es, C64-Software auf moderneren Rechnern wie etwa einem Windows-PC auszuführen. Mit den Emulatoren kann neben Disk-Images auch Original-C64-Zubehör wie z. B. Disketten- und Datasettenlaufwerke angesteuert werden. Für die Verwendung der Datasette oder der Original-Diskettenlaufwerke sind jedoch Bastelarbeiten für Kabel notwendig, um die Geräte mit den heutigen Ports anzusteuern. Für Nutzer, die die langen Ladezeiten des C64 nicht mögen, bieten die Emulatoren einen virtuellen Lademodus. Die meiste C64-Software, die in den 1980er-Jahren veröffentlicht wurde, kann auf heutigen Systemen (PC, Mac) mit Hilfe dieser Emulatoren genutzt werden. Seit dem 28. März 2008 stehen ausgewählte C64-Spiele im Download-Katalog der Wii-Konsole zur Verfügung. Das Internet Archive bietet eine im Webbrowser benutzbare Emulatoroberfläche mit einer großen Menge an Programmen und Spielen. Sonstiges Es gibt einen (fehlerhaften) BASIC-Ausdruck, der statt des fälligen?TYPE MISMATCH ERROR einen totalen Systemabsturz auslöst: PRINT 0+""+-0 eingeben und die Taste drücken. In der Folge verschwindet der Cursor und es gibt keine Reaktion mehr auf beliebige Tasteneingaben, auch gleichzeitiges Drücken von und hilft nicht mehr. Eine Erklärung, die ein wenig spezifisches Fachwissen voraussetzt, findet sich in der Zeitschrift „64er“ Ausg. 3/88, S. 73f. Zwischen den Adressen $FFF6-$FFF9 (dezimal 65526 bis 65529) ist im C64-Kernal die Buchstabenreihenfolge „RRBY“ abgelegt. Dies sind die Initialen der beiden Hauptentwickler des C64, Robert Russell und Bob Yannes. Einer modernen Legende zufolge sollte es bei den frühen Modellen des C64 eine bestimmte Adresse im Speicher geben, deren Beschreiben mit einem ganz bestimmten Wert einen Hardwaredefekt hervorrufen können sollte. Dabei sollte eine bestimmte Diode auf der Platine durchbrennen und das Gerät dauerhaft außer Funktion setzen. Der dies angeblich auslösende Befehl erhielt die Bezeichnung „Killerpoke“. In der Realität existiert jedoch kein solcher Befehl für den C64. Hingegen gab es für den PET der späteren Reihe mit 6545CRTC-Controller einen solcher Befehl, der zu Beschädigungen am integrierten Monitor führte. Literatur Originalliteratur der Firma Commodore Commodore 64 [MicroComputer Handbuch]. Commodore GmbH, AG und GmbH, Frankfurt / Basel / Wien 1984, Commodore 64 Microcomputer Handbuch (PDF; 7,4 MB) Geschichte Boris Kretzinger: Der Kassenschlager: C64. In: Commodore – Aufstieg und Fall eines Computerriesen: ein kurzer Streifzug durch die Firmengeschichte mit Daten, Fakten und den Gründen, warum der Computerpionier am Ende scheiterte. Skriptorium-Verlag, Morschen 2005, ISBN 3-938199-04-0, S. 35 f. Christian Zahn, Boris Kretzinger, Enno Coners: Der Commodore 64. In: Die Commodore-Story. CSW-Verl., 2., überarb. Neuauflage. Winnenden 2012, ISBN 978-3-941287-35-8, S. 40 f. Brian Bagnall: Der Commodore 64. In: Volkscomputer: die Geschichte von Pet und VC-20, C64 und Amiga: Aufstieg und Fall des Computer-Pioniers Commodore. Gameplan, Utting am Ammersee 2011, ISBN 978-3-00-023848-2, S. 138 f. Allgemeines Hans Riedl, Franz Quinke: Commodore 64. Der Computer für Einsteiger und Aufsteiger. Daten, Text, Grafik, Musik. Friedrich Kiehl Verlag, Ludwigshafen 1983, ISBN 3-470-80421-4. Cölestin Lorenz: Beherrschen Sie den Commodore 64. Hofacker, Holzkirchen 1983, ISBN 3-88963-147-9. Mark Eckenwiler (Hrsg.): The Commodore 64 LOGO. Terrapin Inc. Cambridge 1983. Tim Onosko: Der Commodore 64 für Hobby, Schule und Beruf. Carl Hanser Verlag und Prentice Hall International, München / Wien / London 1984, ISBN 3-446-14073-5 (Hanser) / ISBN 0-13-152232-9 (Prentice Hall) Peter Diepold u. a.: Lernbausteine für den C 64. Westermann Schulbuchverlag, Braunschweig 1984, ISBN 3-14-508812-2. Raeto West: C-64-Computer-Handbuch. te-wi, München 1985, ISBN 3-921803-24-1. Hans Lorenz Schneider, Werner Eberl: Das C-64-Profihandbuch. Markt und Technik, Haar bei München 1985, ISBN 3-89090-110-7. Michael Angerhausen, Lothar Englisch, Klaus Gerits: 64 – Tips und Tricks – Eine Fundgrube für den COMMODORE 64 Anwender. Data Becker, Düsseldorf 1986, ISBN 3-89011-001-0. Hans Joachim Liesert: Peeks & Pokes zum Commodore 64. Data Becker, Düsseldorf 1986, ISBN 3-89011-032-0. Michael Angerhausen, Rolf Brückmann, Lothar Englisch, Klaus Gerits: 64 intern. Data Becker, Düsseldorf 1988, ISBN 3-89011-000-2. Florian Müller: C-64 – Tips, Tricks und Tools. Markt und Technik, Haar bei München 1988, ISBN 3-89090-499-8. Martin Hecht: Das große Commodore 64 Buch. Data Becker, Düsseldorf 1991, ISBN 3-89011-370-2. Jörg Allner, Kerstin Allner: Commodore C64. Weltmeister aller Klassen. In: Computer classics: [die Highlights aus 30 Jahren Homecomputer]. Data Becker, Düsseldorf 2003, ISBN 3-8158-2339-0, S. 86 f. Hardware Ekkehard Flögel: Hardware – Erweiterung für den COMMODORE 64. W. Hofacker, Holzkirchen 1984, ISBN 3-88963-146-0. Uwe Gerlach: Hardware-Basteleien zum C 64, C 128 : e. leicht verständl. Einf. in d. digitale Schaltungstechnik; mit vielen Platinenlayouts u. ausführl. Selbstbauanleitungen für e. Sprachausgabebaustein; Radioaktivtätsmessgerät; 128-Kbyte-EPROM-Karte etc. Markt-u.-Technik-Verl., Haar bei München, 1987, ISBN 3-89090-389-4 Programmierung Cölestin Lorenz: Programmieren in Maschinensprache mit dem Commodore-64. Hofacker, 1984, ISBN 3-921682-70-3. Florian Matthes: Pascal mit dem C 64. Markt&Technik, Haar bei München 1986, ISBN 3-89090-222-7. Alles über den C-64. Programmierhandbuch. Mit Anhang zu GEOS. Markt und Technik, Haar bei München 1987, ISBN 3-89090-379-7. Ralf Gelfand, Jacques Felt, Michael Strauch: Das Anti – Cracker – Buch. Für C64 und C128. Data Becker, Düsseldorf 1988, ISBN 3-89011-253-6. Frank Riemenschneider: C-64/C-128 : Alles über Maschinensprache. Markt und Technik, Haar bei München 1988, ISBN 3-89090-571-4. Harald Horchler (Hrsg.): Assembler ist keine Alchemie. Assembler lernen am C-64. Skriptorium-Verlag, Morschen 2004, ISBN 3-938199-01-6 Spieleprogrammierung Rüdiger Linden: C64 Superspiele selbstgemacht. Data Becker, Düsseldorf 1985, ISBN 3-89011-087-8. Demoszene Tamás Polgár, Dávid Vigh (Hrsg.): Freax. The Brief History of the Computer Demoscene. The Art Album CSW-Verlag, Winnenden 2006, ISBN 3-9810494-0-3 (E-Book ISBN 978-3-941287-97-6) Tamás Polgár: Freax. The Brief History of the Computer Demoscene. 2. Auflage. CSW-Verlag, Winnenden 2008, ISBN 3-9810494-0-3 (E-Book ISBN 978-3-941287-97-6) Grafik Axel Plenge: Das Grafikbuch zum COMMODORE 64. Data Becker, Düsseldorf 1985, ISBN 3-89011-011-8. Musik Thomas Dachsel: Das Musikbuch zum COMMODORE 64. Data Becker, Düsseldorf 1984, ISBN 3-89011-012-6. James Vogel, Nevin B Scrimshaw, Tony Westermayr: Commodore 64 Musik-Buch. Birkhäuser, 1984, ISBN 3-7643-1590-3. Spiele Winnie Forster: Commodore C 64. In: Spielkonsolen und Heimcomputer: 1972 - 2015. 4. erw. Auflage. Gameplan, Utting 2015, ISBN 978-3-00-048142-0, S. 64 f. Sonstiges Rainer J. Brandenburg: Messen und auswerten mit dem Computer Commodore 64. Dümmler, 1985, ISBN 3-427-42211-9. Zeitschriften 64’er: das Magazin für Computer-Fans. Markt & Technik Verl. AG, Haar b. München, Nachgewiesen 1984–1996,11, Input 64: das elektronische Magazin. Heise, Hannover, 1985–1988, (Diskmag, zuerst Compact Cassette dann Diskette mit einem Begleitheft) Magic Disk 64: das C64-Magazin auf Diskette. CP-Verlag, Nürnberg 1987–1993 (Diskmag) Weblinks Allgemeine Informationen: C64-Wiki.de – Wiki für den C64 Eintrag zu Commodore im 8Bit-Museum.de Eintrag zum Commodore 64 im 8-Bit-Nirvana Weiterführende Informationen im CBM-Museum 64er-Online-Museum CRE177 Commodore 64 – ausführlicher Podcast über die Technik des C64 Commodore C64 - Weltrekord-Halter auf computer collection vienna 30 Jahre Commodore 64 So schön kann hässlich sein auf spiegel.de Emulatoren: Emulator VICE (auch für Linux) Emulator CCS (in abgespeckter Version auch für Linux) Emulator Emu64 (deutsches Projekt) Emulator Hoxs64 Emulator Frodo (auch für Linux, macOS) Emulator Power64 (macOS) Emulator INSTANT C64 (Plattformunabhängig) Emulator-Frontends: GameBase jGameBase (für Linux, macOS) Informationen zu Spielen: GameBase64 – Umfassende Spieledatenbank inkl. Screenshots, Werbematerial, Reviews etc. Lemon64 – Spieledatenbank inkl. Screenshots, Werbematerial, Reviews etc. Einzelnachweise 0064 Heimcomputer Einplatinencomputer
933
https://de.wikipedia.org/wiki/Culpa%20in%20contrahendo
Culpa in contrahendo
Culpa in contrahendo (lateinisch: Verschulden bei Vertragsschluss), oft auch c.i.c. abgekürzt, bezeichnet die schuldhafte Verletzung von Pflichten aus einem vorvertraglichen (gesetzlichen) Schuldverhältnis. Die c.i.c. gehört zu den vertragsähnlichen Ansprüchen. Grundlagen und Entwicklung Gesetzlich geregelt wurden die Folgen eines Verschuldens beim Vertragsschluss erstmals im Preußischen ALR von 1794: „Was wegen des bey Erfüllung des Vertrages zu vertretenden Grades der Schuld Rechtens ist, gilt auch auf den Fall, wenn einer der Contrahenten bey Abschließung des Vertrags die ihm obliegenden Pflichten vernachläßigt hat.“ Als Entwickler des Grundsatzes der culpa in contrahendo gilt allerdings Rudolf von Jhering, der 1861 eine Abhandlung darüber verfasste. Diese befasste sich in erster Linie mit den Themenkomplexen der Haftung des Irrenden nach Anfechtung, der Haftung des Vertreters ohne Vertretungsmacht beziehungsweise des Verkäufers einer nicht existierenden Sache. Unter Einbezug eines Urteils des damaligen Landgerichts Köln, das den sogenannten „Telegraphen-Fall“ zu entscheiden hatte, ging Jhering davon aus, dass schon im Veranlassen eines Missverständnisses ein Verschulden des Erklärenden erblickt werden könne. Ihm fiel auf, dass die von ihm untersuchten Fälle die Gemeinsamkeit aufwiesen, dass sie in einem engen Verhältnis zu einer Vertragsanbahnung standen. Aus der Tradition der Historischen Rechtsschule war für ein eigenformuliertes Postulat (wertende Fallentscheidung) nach einer Rückversicherung in den Quellen des römischen Rechts zu suchen, das Jhering – zwar in spärlicher Form – sogar vorfand. So hielt er letztlich fest: „Wer kontrahiert, tritt damit aus dem rein negativen Pflichtenkreis des außerkontraktlichen Verkehrs in den positiven der Kontraktssphäre.“ Letztlich nutzte Jhering, nach Auffassung Kreuzers, ein klassisches Instrument der Rechtsfortbildung und blieb im System der anerkannten Rechtsquellen. Rechtsgrund für die Konstruktion war die archaische actio legis Aquiliae, kombiniert mit der auf der actio doli beruhenden Deliktsordnung des späteren Gemeinen Rechts. Für die abgehandelten Fallgestaltungen wurde im BGB die von Jhering vorgeschlagene Rechtsfolge der Haftung auf das negative Interesse verankert. Gleichwohl gab es zunächst keine Norm, die vorvertragliche Pflichtverletzungen allgemein regelte. Da darin eine Gesetzeslücke im BGB erkannt wurde, füllte die Rechtsprechung diese durch die (Weiter-)Entwicklung des Rechtsinstituts der culpa in contrahendo. Mit der gesetzlichen Schuldrechtsmodernisierung im Jahr 2002 wurde das Rechtsinstitut endlich gesetzlich ( Abs. 2 in Verbindung mit Abs. 1 in Verbindung mit Abs. 2 BGB) geregelt. Das „Gegenstück“ zur vorvertraglichen culpa in contrahendo bildet die culpa post contractum finitum. Sie erfasst Verletzungen nachwirkender Pflichten, die erst nach der Abwicklung des Vertrags auftreten. Inhalt und Beispiele Es geht um den Ersatz eines außervertraglichen (vertragsähnlichen) Vertrauensschadens. Der Anspruch ergibt sich in besonderen Fällen eines vertrauensbildenden (Geschäfts-)Kontaktes aus der Konstruktion eines gesetzlichen Schuldverhältnisses, das sich nicht bereits aus einem Vertrag oder einer sonstigen gesetzlichen Regelungen ergibt. Dieser Kontakt kann durch die Aufnahme von Vertragsverhandlungen entstehen, unabhängig davon, ob es letztendlich zu einem Vertragsschluss kommt oder nicht. Rechtsdogmatische Begründung der c.i.c. ist, dass bereits im vorvertraglichen Bereich dem Gegenüber eine erhöhte Einwirkungsmöglichkeit auf Rechte und Rechtsgüter Dritter ermöglicht wird. Deshalb wird davon ausgegangen, dass gesteigerte Schutz- und Verkehrssicherungspflichten bestehen, deren Verletzung schadensersatzpflichtig machen. Werden beispielsweise einem Unternehmensberater von einem potenziellen Mandantenunternehmen während der Akquisephase Geschäftsgeheimnisse anvertraut, kommt im Anschluss aber kein Vertrag zustande, und der Unternehmensberater veröffentlicht daraufhin die Geschäftsgeheimnisse dieses Interessenten, so liegt ein Fall der culpa in contrahendo vor. In einer Grundsatzentscheidung hatte der BGH betont, dass Haftungsansprüche Dritter grundsätzlich nur die unmittelbar am beabsichtigten Vertrag beteiligten Parteien seien und nicht deren Vertreter oder Verhandlungsgehilfen. Soweit die Rechtsprechung dazu Ausnahmen zuließ, waren diese auf an Vertragsverhandlungen beteiligte Dritte beschränkt, die neben der verhandelnden Partei „besonders an einem Vertragsschluss interessiert“ waren oder „besonderes Vertrauen für sich beansprucht“ hatten. Der BGH erkannte in diesen beiden deutlich auseinanderliegenden Kriterien für die Schaffung von Ausnahmen eine Widersprüchlichkeit, die er so auflöste, dass heute nur das letztere Kriterium die Haftung eines hinter den an der Vertragsanbahnung Beteiligten auslösen kann. Aber auch in alltäglicheren Situationen erlangt dieses Institut Bedeutung: Verletzt man sich z. B. beim Bummeln im Kaufhaus, weil die Reinigungskräfte ihren Aufgaben nicht ordentlich nachgekommen sind (Salatblattfall) oder weil das Verkaufspersonal Ware unsachgemäß in einem Hochregal gelagert hat (sogenannter Linoleumrollen-Fall), so ist auch hier eine vorvertragliche Haftung des Kaufhausbetreibers eröffnet. Nachrangig greift zwar daneben die deliktische Haftung. Im Deliktsrecht kann sich der Geschäftsherr jedoch (anders als im Bereich des vertraglichen Schadensersatzes) gegebenenfalls von der Verantwortung für das Fehlverhalten der Angestellten exkulpieren ( BGB). Dieser Umstand kann bedeutsam sein, wenn der verantwortliche Angestellte nicht konkret ermittelt werden kann oder selbst gar nicht die finanziellen Mittel besitzt, um für den Schaden aufzukommen. Der culpa in contrahendo kommt besondere Bedeutung dort zu, wo die vorvertragliche Haftung gegenüber anderen Haftungsinstituten, insbesondere gegenüber dem Deliktsrecht, einen weiterreichenden Schutz bietet. Der Vorteil besteht vor allem im Bereich der Verschuldenszurechnung (keine Exkulpationsmöglichkeiten des Haftenden, vgl. zweites Beispiel), sowie einer Vermutung dieses Verschuldens ( Abs. 1 S. 2 BGB), welche dann die Gegenseite widerlegen muss (Beweislastumkehr). Auch sind über die weitergehenden Vertragspflichten reine Vermögensschäden erfasst. (vgl. im ersten Beispiel oben den besonderen Vertrauensschutz). Ausnahmsweise können auch Dritte vom Schutz der culpa in contrahendo erfasst werden. Dies geschieht nach den Regeln des Vertrages mit Schutzwirkung zugunsten Dritter. Rechtsfolgen Wer schuldhaft eine vorvertragliche Pflicht verletzt, ist, ebenso wie der Verletzer einer vertraglichen Pflicht, zum Schadensersatz nach den §§ 249 ff. BGB verpflichtet. Unabhängig davon, ob später ein Vertrag geschlossen wurde, kann der Geschädigte verlangen, so gestellt zu werden, wie er ohne die Pflichtverletzung während der Vertragsverhandlungen stünde. Wäre es bei pflichtgemäßem Verhalten des anderen Teils überhaupt nicht zu einem Vertragsabschluss gekommen, kann der Geschädigte die Rückabwicklung des Vertrages verlangen. Culpa in contrahendo nach Schweizer Recht Die culpa in contrahendo ist im Schweizer Recht die schuldhafte Verletzung von vorvertraglichen Pflichten. Ihre Voraussetzungen sind dabei Vertragsverhandlungen, das Vorliegen eines schutzwürdigen Vertrauens, eine Pflichtverletzung sowie ein Schaden, Kausalzusammenhang und Verschulden. Die Pflichtverletzung im Besonderen leitet sich aus dem Grundsatz von Treu und Glauben ab und umfasst u. a. die Pflicht zu ernsthaften Verhandlungen. Ihrer Natur nach handelt es sich um eine eigenständige Haftungsgrundlage, welche zwischen Vertrag und Delikt angesiedelt ist. In der Schweiz hat die c.i.c. bisher jedoch noch keinen Niederschlag im Gesetz gefunden. Gemäß schweizerischer Doktrin ist die c.i.c. eine Sonderform der Vertrauenshaftung. Aus dogmatischer Sicht ist die c.i.c. im Schweizer Recht den quasivertraglichen Ansprüchen zuzuweisen, was zur Folge hat, dass das positive Vertrauensinteresse zu ersetzen ist, dem Schädiger jedoch die Herabsetzungsgründe nach Art. 44 OR sowie Art. 99 Abs. 3 OR zur Verfügung stehen. Während das Bundesgericht von einer Verjährungsfrist von 1 Jahr ausgeht (Delikt), verlangt die Lehre eine 10-jährige Verjährungsfrist (Vertrag). Das Vorliegen eines c.i.c. führt ebenfalls nicht zur Aufhebung des Vertrags, sondern nur zu den Schadenersatzfolgen. Wer als Geschädigter den Vertrag aufheben will, muss sich daher auf Übervorteilung (Art. 21 OR), Irrtum (Art. 23 OR) oder absichtliche Täuschung (Art. 28 OR) berufen. Siehe auch Latein im Recht Literatur Tobias Ackermann: Risikoallokationen durch den sonstigen Inhalt des Schuldverhältnisses : ein Beitrag zur Verantwortlichkeit des Schuldners gemäß § 276 Abs. 1 Satz 1 BGB, Universität Saarbrücken, Dissertation Saarbrücken 2010, Nomos, Baden-Baden 2011, ISBN 978-3-8329-6402-3. Jörg Benedict: Culpa in Contrahendo. Band 1 (Historisch-kritischer Teil): Transformationen des Zivilrechts – oder zur Geschichte der Vertrauenshaftung (Jus Privatum, Mohr Siebeck, im Erscheinen); Band 2 (Dogmatisch-kritischer Teil): Kasuistik – oder das heutige System vertraglicher Haftung (Jus Privatum, Mohr Siebeck, im Erscheinen) Rudolf von Jhering: Culpa in contrahendo oder Schadenersatz bei nichtigen oder nicht zur Perfektion gelangten Verträgen, in: Jherings Jahrbücher = Jahrbücher für die Dogmatik des heutigen römischen und deutschen Privatrechts 4 (1861). Moritz Keller: Schuldverhältnis und Rechtskreiseröffnung. Von der Lehre der culpa in contrahendo zum Rücksichtnahmeschuldverhältnis der §§ 311 Abs. 2 und Abs. 3 BGB (= Schriften zum Bürgerlichen Recht. Bd. 35). Duncker & Humblot, Berlin 2007, ISBN 978-3-428-12517-3 (Zugleich: Gießen, Universität, Dissertation, 2006/2007). Thomas Krawitz: Schutz vorvertraglicher Investitionen: zur Haftung beim Scheitern von Vertragsverhandlungen, Universität München, Dissertation, 2014, Duncker & Humblot, Berlin 2015, ISBN 978-3-428-54532-2. Dominik Schäfers: Die vorvertragliche Anzeigepflicht des Versicherungsnehmers und das allgemeine Leistungsstörungsrecht: zugleich zum System der Haftung für vorvertragliche Pflichtverletzungen, Verlag Versicherungswirtschaft, 2014, Universität Münster, Dissertation, 2013, ISBN 978-3-89952-763-6. Einzelnachweise Lateinische Phrase Rechtssprache Schuldrecht (Deutschland) Privatrechtsgeschichte Vertragsähnlicher Anspruch (Deutschland)
935
https://de.wikipedia.org/wiki/Chile
Chile
Chile (Aussprache: [], deutsch auch [] oder []), amtlich (), ist ein Staat im Südwesten Südamerikas, der den westlichen Rand des Südkegels (Cono Sur) des Kontinents bildet. Chile erstreckt sich in Nord-Süd-Richtung zwischen den Breitengraden 17° 30′ S und 56° 0′ S; somit beträgt die Nord-Süd-Ausdehnung rund 4200 Kilometer. In west-östlicher Richtung liegt Chile zwischen dem 76. und dem 64. westlichen Längengrad und besitzt eine Ausdehnung von durchschnittlich weniger als 200 Kilometern. Wegen dieser – durch seine Lage am Westhang der Andenkordillere bedingten – ungewöhnlichen Form wird Chile schon seit seiner Entdeckung häufig „das langgestreckte Land“ genannt. Das Land grenzt im Westen und Süden an den Pazifischen Ozean, im Norden an Peru (auf einer Länge von 160 Kilometern), im Nordosten an Bolivien (861 km) und im Osten an Argentinien (5308 km). Die Gesamtlänge der Landgrenzen beträgt 6329 Kilometer. Daneben zählen die im Pazifik gelegene Osterinsel (Rapa Nui), die Insel Salas y Gómez, die Juan-Fernández-Inseln (einschließlich der Robinson-Crusoe-Insel), die Desventuradas-Inseln sowie im Süden die Ildefonso-Inseln und die Diego-Ramírez-Inseln zum Staatsgebiet Chiles. Ferner beansprucht Chile einen Teil der Antarktis. Über die vollständig zu Chile gehörende Magellanstraße hat das Land Zugang zum Atlantischen Ozean. Der moderne souveräne Staat Chile gehört zu den wirtschaftlich und sozial stabilsten und wohlhabendsten Ländern Südamerikas mit einer einkommensstarken Wirtschaft und einem hohen Lebensstandard. Es führt die lateinamerikanischen Nationen in Bezug auf menschliche Entwicklung, Wettbewerbsfähigkeit, Pro-Kopf-Einkommen, Globalisierung, Friedenszustand, wirtschaftliche Freiheit und geringes Korruptionsempfinden an. Nach Einschätzung der Weltbank ist Chile ein Schwellenland mit einem Nettonationaleinkommen im oberen Mittelfeld. Es hat auch einen hohen regionalen Stellenwert in Bezug auf die Nachhaltigkeit des Staates und die demokratische Entwicklung. Chile ist seit 2010 Mitglied der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Chile weist nach Kanada die niedrigste Mordrate in Amerika auf. Das Land ist Gründungsmitglied der Vereinten Nationen, der Union der Südamerikanischen Nationen (UNASUR), der Gemeinschaft Lateinamerikanischer und Karibischer Staaten (CELAC) und der Pazifik-Allianz. Chile ist durch die globale Erwärmung ernsthaft gefährdet und hat seit Anfang der 1990er Jahre mindestens 37 % seiner Wasserressourcen verloren. Etymologie Die Herkunft des Wortes Chile ist nicht eindeutig geklärt. Die Spanier bezeichneten das Land südlich der Atacamawüste seit Anbeginn der Kolonisation Südamerikas mit dem Namen Chile. Die verbreitetste Hypothese ist, dass sich das Wort aus der Sprache der Aymara herleitet. Dort bedeutet das Wort chilli ‚Land, wo die Welt zu Ende ist‘. Diese Annahme wird durch die Tatsache gestützt, dass die ersten Spanier, die nach Chile kamen, von den Siedlungsgebieten der Aymara aus aufbrachen. Eine weitere, weniger verbreitete Theorie nennt die Inka-Sprache Quechua als Ursprung. Das Herrschaftsgebiet der Inka stieß zur Zeit seiner größten Ausdehnung etwa bis zum heutigen Santiago vor. Die Inka könnten das Land südlich des Río Aconcagua in Anlehnung an das relativ kalte Klima und die schneebedeckten Anden tchili genannt haben, was ‚Schnee‘ bedeutet. In chilenischen Schulen wird außerdem noch die Variante gelehrt, dass der Name die lautmalerische Bezeichnung eines in Chile verbreiteten Vogels sein könnte, der heute Trile genannt wird. Als gesichert hingegen gilt, dass die Landesbezeichnung Chile nicht auf die (spanisch gleichnamige) Chilischote zurückzuführen ist. Dieses Wort stammt aus der mittelamerikanischen Aztekensprache Nahuatl. Die Chili (und die daraus gemachte Salsa) heißt im chilenischen Spanisch ají (siehe auch: Beispiele für Unterschiede im Wortschatz). Geographie Chile erstreckt sich auf dem südamerikanischen Kontinent über 4275 Kilometer in Nord-Süd-Richtung entlang der Anden und des Pazifischen Ozeans (zählt man den antarktischen Teil hinzu, circa 8000 Kilometer), ist aber durchschnittlich nur circa 180 Kilometer breit. Die engste Stelle im kontinentalen Chile (ohne Antarktis) beträgt 90 Kilometer, die breiteste Stelle etwa 440 Kilometer. Die Längenausdehnung Chiles entspricht auf Europa und Afrika übertragen in etwa der Entfernung zwischen der Mitte Dänemarks und der Sahara. Aufgrund der langen Nord-Süd-Ausdehnung über mehr als 39 Breitengrade, aber auch der beträchtlichen Höhenunterschiede in West-Ost-Richtung weist Chile eine große Vielfalt an Klima- und Vegetationszonen auf. Geologie Chile liegt an der Grenze mehrerer Lithosphärenplatten: Unter die Südamerikanische Platte wird bis zum Golf von Penas die Nazca-Platte subduziert, südlich davon bis zur Magellanstraße mit geringerer Geschwindigkeit die Antarktische Platte. Durch die Magellanstraße verläuft in ostwestlicher Richtung die Grenze zwischen der Südamerikanischen und der Scotia-Platte. Dies ist die Ursache des ausgeprägten Vulkanismus in Chile und der regelmäßig auftretenden, zum Teil massiven Erdbeben. Das erste dokumentierte Beben war das große Erdbeben von Concepción im Jahre 1570. Das Erdbeben von Valdivia 1960, dessen Tsunami im gesamten zirkumpazifischen Raum schwere Schäden verursachte, war das Beben mit der weltweit größten jemals aufgezeichneten Magnitude. Am 27. Februar 2010 erschütterte ein massives Erdbeben der Stärke 8,8 Mw auf der Momenten-Magnituden-Skala den Süden Chiles und zerstörte große Teile der chilenischen Infrastruktur. Auch Zentral-Chile war stark betroffen. In der Region VI und VII trafen nach etwa 20 Minuten hohe Tsunami-Wellen ein und zerstörten ganze Küstenstädte und Gebiete. Auch noch Wochen nach dem Erdbeben wurde das Land von vielen Nachbeben erschüttert. Insgesamt waren in Chile die Regionen III bis IX betroffen. Relief Stark vereinfacht besteht Mittel- und Südchile aus zwei parallelen Gebirgszügen mit Nord-Süd-Verlauf: den Anden im Osten und dem niedrigeren Küstenbergzug (Küstenkordillere, Cordillera de la Costa) im Westen. Dazwischen liegt das Zentraltal (Valle Central oder Valle Longitudinal) mit dem Hauptteil der Bevölkerung, des Ackerlands und des Weinbaus. Die Höhe von Kordillere, Zentraltal und Anden nimmt im Mittel von Norden nach Süden ab, so dass das Zentraltal südlich der Stadt Puerto Montt, die etwa 1000 Kilometer südlich von Santiago liegt, unter den Meeresspiegel abtaucht. Die Küstenkordillere, von der nur noch die Bergspitzen aus dem Wasser ragen, wird gleichzeitig zur Inselkette. In dieser Region lässt sich deswegen eine einzigartige Fjord- und Insellandschaft entdecken. Im Norden Chiles dagegen gibt es kein ausgeprägtes Zentraltal, das heißt, die Landschaft steigt von der Küste kommend zunächst steil an und bildet dann mit der Pampa del Tamarugal ein etwa bis hohes Plateau bis zum Fuße der Anden. Die chilenischen Anden, die nur an wenigen Stellen die 2000-Meter-Höhenlinie unterschreiten, unterteilen sich hinsichtlich ihrer geologisch-tektonischen Struktur von Nord nach Süd in vier größere Blöcke. Im Großen Norden (Norte Grande) des Landes zieht sich eine etwa 1000 Kilometer lange Kette rezenter Stratovulkane von der Grenze zu Peru (etwa am 17. südlichen Breitengrad) bis zum höchsten Berg des Landes, dem ruhenden Vulkan Ojos del Salado (), der südlich des 27. Breitengrades in etwa auf der Höhe der Stadt Copiapó liegt. Im Kleinen Norden (Norte Chico) zwischen dem 27. und 33. Breitengrad, der etwas nördlich der Hauptstadt Santiago de Chile verläuft, befindet sich die durchschnittlich 5000 m hohe Hochkordillere, die frei von jungem Vulkanismus ist. Von Santiago de Chile über den gesamten Kleinen Süden (Sur Chico) bis etwas südlich der Stadt Puerto Montt (42. Breitengrad) setzt mit dem hohen Vulkan Tupungato erneut eine langgestreckte Vulkankette ein, die aber nach Süden schnell an Höhe verliert. Im Großen Süden (Sur Grande), der bis zur Insel Feuerland reicht, gibt es nur noch wenige isolierte Vulkane, und die Höhe von wird nur noch selten überschritten. Hier dominiert der glaziale Formenschatz mit Gletscherseen, Karen und Fjorden das Landschaftsbild. Das Gebirge Cordillera Darwin bildet den letzten großen Gebirgszug vor dem Ende Südamerikas. Der Übergangsbereich zwischen Küstenkordillere und den Anden lässt sich in zwei Bereiche untergliedern: die Pampa del Tamarugal im Norden und das Valle Longitudinal im zentralen und südlichen Bereich. Beide sind ausgeprägte Graben-Systeme. Die Pampa del Tamarugal erstreckt sich direkt entlang der nördlichen Vulkankette, während das etwas tiefer gelegene Valle Longitudinal der südlichen Vulkankette folgt und bei Puerto Montt (41° 30′ S) ins Meer abtaucht. Die Küstenkordillere erstreckt sich mit einer kurzen Unterbrechung südlich der Insel Chiloé über die gesamte Westseite des Landes. Sie steigt im Norden des Landes zwischen Arica und Chañaral (26. Breitengrad) als Steilküste unmittelbar auf (stellenweise über ) an. Da die wenigen Flüsse in diesem Raum aufgrund des extrem ariden Klimas nicht die Kraft zum Durchbruch haben, wird sie hier nur von wenigen Tälern durchschnitten. Die Talsysteme häufen sich erst südwärts von Chañaral. Das Küstengebirge flacht nach Süden hin ab und erreicht im Kleinen Süden schließlich nur noch an wenigen Stellen Höhen über . Die Küstenkordillere setzt sich ab dem 44. Breitengrad (Chonos-Archipel) als Inselkette fort. Berge Die chilenischen Anden bilden einen der höchsten Gebirgszüge der Welt und weisen eine Vielzahl von Gipfeln über 6000 m auf. Unter ihnen befindet sich der höchste Berg Chiles, der Ojos del Salado (6893 m), welcher zugleich der höchste Vulkan der Welt ist. Im Folgenden sind die bekanntesten Berge Chiles aufgelistet (vom Norden nach Süden): Volcán Parinacota, 6342 m, XV. Region (Región de Arica y Parinacota) Volcán Licancábur, 5916 m, II. Region (Región de Antofagasta) Volcán Llullaillaco, 6739 m, II. Region (Región de Antofagasta) Nevado Ojos del Salado, 6893 m, III. Region (Región de Atacama) Cerro Tupungato, 6550 m, Hauptstadt-Region (Región Metropolitana) Vulkan Puyehue, 2236 m, XIV. Region (Región de los Ríos) Descabezado Grande, 3830 m, VII. Region (Región del Maule) Volcán Villarrica, 2840 m, IX. Region (Región de la Araucanía) Volcán Osorno, 2652 m, X. Region (Región de los Lagos) Volcán Cerro Hudson, 1905 m, XI. Region (Región de Aisén) Cerro Paine Grande, 2800 m, XII. Region (Región de Magallanes y de la Antártica Chilena) Flüsse und Seen Aufgrund der besonderen Struktur des Landes gibt es in Chile keine längeren Flüsse. Der mit 443 Kilometern längste ist der Río Loa im Norden inmitten der Atacamawüste. Die Flüsse, die dauerhaft Wasser führen, werden meist aus der Schnee- und Eisschmelze der Anden genährt. Gemäß den zunehmenden Niederschlägen nimmt nach Süden hin das mitgeführte Wasservolumen zu. Die Flüsse werden für die Bewässerung in der Landwirtschaft, zur Energiegewinnung und zu kleineren Teilen auch für den Tourismus genutzt. Einige Flüsse von Nord nach Süd sind folgende: Río Lluta, 167 km, XV. Region (Región de Arica y Parinacota) Río Lauca, 160 km, XV. Region (Región de Arica y Parinacota) Río Loa, 443 km, II. Region (Región de Antofagasta) Río Copiapó, 162 km, III. Region (Región de Atacama) Río Elqui, 170 km, IV. Region (Región de Coquimbo) Río Choapa, 160 km, IV. Region (Región de Coquimbo) Río Aconcagua, 142 km, V. Region (Región de Valparaíso) Río Mapocho, 120 km, Hauptstadt-Region (Región Metropolitana) Río Maipo, 250 km, Hauptstadt-Region und V. Region (Región Metropolitana, Región de Valparaíso) Río Cachapoal, 172 km, VI. Region (Región O’Higgins) Río Maule, schiffbar, 240 km, VII. Region (Región Maule) Río Biobío, 380 km, VIII. Region (Región del Biobío) Río Imperial, schiffbar, 52 km, IX. Region (Región de la Araucanía) Río Valdivia, schiffbar, 15 km, XIV. Region (Región de Los Ríos) Zu den chilenischen Seen zählen im Norden die Salzseen, deren größter und bekanntester der Salar de Atacama (3000 Quadratkilometer) ist. Ganz im Norden liegt der 21,5 Quadratkilometer große Lago Chungará auf rund 4500 Meter Höhe, einer der höchstgelegenen Seen der Welt. Die großen und landschaftlich schönsten Seen Chiles erstrecken sich südöstlich der Stadt Temuco bis nach Puerto Montt in folgender Reihenfolge: Lago Colico, 56 km², IX. Region (Región de la Araucanía) Lago Caburga, 51 km², IX. Region (Región de la Araucanía) Lago Villarrica, 176 km², IX. Region (Región de la Araucanía) Lago Calafquén, 120 km², IX. Region (Región de la Araucanía) und XIV. Region (Región de Los Ríos) Lago Pirihueico, 30 km², XIV. Region (Región de Los Ríos) Lago Panguipulli, 116 km², XIV. Region (Región de Los Ríos) Lago Riñihue, 77 km², XIV. Region (Región de Los Ríos) Lago Ranco, 401 km², XIV. Region (Región de Los Ríos) Lago Puyehue, 156 km², X. Region (Región de los Lagos) Lago Rupanco, 223 km², X. Region (Región de los Lagos) Lago Llanquihue, 860 km², X. Region (Región de los Lagos) Lago General Carrera, 970 km², XI. Region (Región de Aisén), der westliche Teil des argentinischen Lago Buenos Aires Viele Seen sind schiffbar. Naturräumliche und klimatische Gliederung Chile liegt auf der Südhalbkugel, weshalb die Jahreszeiten um ein halbes Jahr im Vergleich zur Nordhalbkugel verschoben sind. Das Land lässt sich klimatisch in drei Zonen einteilen: Nord-, Mittel- und Südchile. Nordchile (genannt „großer Norden“) besitzt viele Berge, die über hoch sind. Zwischen der Küste und der westlichen Anden-Hauptkette erstreckt sich die Atacamawüste. Diese Wüste ist eines der trockensten Gebiete der Erde; oft fällt jahrelang kein Regen. Die Wüste war in der Vergangenheit für ihre großen Salpetervorkommen bekannt, während dort heute vor allem Kupfer gefördert wird. Die größte und wichtigste Stadt dieser Region ist die Hafenstadt Antofagasta (310.000 Einwohner). In Mittelchile herrscht ein dem Mittelmeerraum vergleichbares Klima. Diese Region ist sehr fruchtbar und dicht besiedelt. Hier befindet sich die Hauptstadt Santiago de Chile mit rund 5,5 Millionen Einwohnern. Daneben sind Valparaíso (Seehafen und Parlamentssitz, 280.000 Einwohner), Viña del Mar (beliebter Urlaubsort, 320.000 Einwohner) und Concepción (Zentrum der Landwirtschaft und Industrie, 216.000 Einwohner) von Bedeutung. Der Raum nördlich von Santiago wird „kleiner Norden“, der südlich von Santiago „kleiner Süden“ genannt. Das sehr dünn besiedelte Südchile (genannt „großer Süden“) ist eine äußerst niederschlagsreiche Region. Die Küste ist durch eine Vielzahl vorgelagerter Inseln stark zerklüftet. Südlich des Festlands befindet sich die Insel Feuerland, die sich Chile mit dem Nachbarland Argentinien teilt. Auf der Feuerland vorgelagerten Insel Isla Hornos befindet sich Kap Hoorn, der südlichste Punkt Chiles und Südamerikas. Besonderheiten des Klimas Insgesamt wird das Klima Chiles stark durch den Humboldt-Meeresstrom entlang der Küste beeinflusst. Dieser fließt von Süden nach Norden und transportiert kaltes Meerwasser aus der Antarktis. Während zum Vergleich Nordeuropa vom warmen Golfstrom profitiert, liegen die Wassertemperaturen in Chile bei analogem Breitengrad (Nord-/Südkoordinate) deutlich niedriger. In Punta Arenas (Südchile) – das etwa gleich weit vom Äquator entfernt liegt wie Hamburg – beträgt die mittlere Tagestemperatur im Sommer 12 Grad Celsius. Eine Besonderheit des chilenischen Klimas ist der El-Niño-Effekt, auch Südliche Oszillation genannt. Dieses Klimaphänomen betrifft zwar hauptsächlich Länder wie Peru oder Indonesien, aber auch in Chile ist es etwa alle sieben Jahre wirksam und führt hier zu vermehrten Niederschlägen im Vergleich zu Normaljahren. Flora und Fauna Flora Aufgrund der riesigen Ausdehnung von über 4000 Kilometern Länge gibt es in Chile sehr viele Vegetationszonen. Im Bereich der Atacamawüste wächst wenig. Bewuchs gibt es nur in Küstennähe oder im Bereich der Anden. Hier wachsen sehr viele verschiedene Kakteenarten, Sukkulenten und Zwergsträucher. Allerdings kommt es im Zusammenhang mit dem Klimaphänomen El Niño regelmäßig zum Phänomen der blühenden Atacamawüste, bei dem nach Regenfällen in der Wüste große Wüstenflächen nur für wenige Tage von Millionen von Blumen überzogen werden. Südlich der Wüste folgt die Steppe mit trockenem Grasland und in den Anden wächst die steinharte Yareta (Azorella yareta), auch „Andenpolster“ genannt. In den trockenen Gebieten wächst der „Boldo-Strauch“ (Peumus boldus). An den Küstengebirgen und in den Anden Mittelchiles gibt es kleinflächig subtropische Nebelwälder („hydrophile Wälder“), wo zum Beispiel Baumfarne (spanisch Helecho arborescente) wachsen. Die Weinanbaugebiete beginnen im Bereich des Flusses Río Elqui, außerhalb des Flusstals gibt es dagegen nur Dornensträucher und Kakteen. In Zentralchile wächst die Honigpalme (Jubaea chilensis). Die Araukarie (Araucaria araucana) ist der heilige Baum der Mapuche (Ureinwohner Chiles), ihre großen Samen dienten ihnen zur Ernährung. In Chile gibt es auch zahlreiche große Eukalyptus-Plantagen. In Mittel- und Südchile gibt es große Wälder, die dem gemäßigten Regenwald zugeordnet werden. Sie werden unterteilt in den Valdivianischen Regenwald im Norden und den Magellanischen Regenwald im Süden, die ursprünglich beide von Scheinbuchen dominiert wurden. Im Valdivianischen Regenwald kommen noch einige Koniferen der Südhalbkugel wie die Chilenische Araukarie und die Patagonische Zypresse hinzu. Heute finden sich auch eingeführte Kiefern, Lärchen und Pappeln in den chilenischen Wäldern. In der XI. Region (Aisén) gibt es Wälder mit beispielsweise folgenden Baumarten: Lenga-Südbuche (Nothofagus pumilio), Coihue-Südbuche (Nothofagus dombeyi), Luma apiculata, Aextoxicon punctatum (der unter anderem in Chile Olivillo heißt), Embothrium coccineum, Chilenische Scheinulme (Eucryphia cordifolia), Kerzenbaum (Maytenus boaria). Die „Nationalblume“ Chiles ist die rote Chilenische Wachsglocke (Lapageria rosea), sie heißt in Chile Copihue und ist eine Kletterpflanze. Patagonien besteht aus weiten Steppen und Halbwüsten, an der Südwestküste findet sich die sogenannte Magellan-Tundra. Große Teile der Region Aisén und der Region Magallanes sind bereits vergletschert, so dass hier keine Vegetation mehr anzutreffen ist. Feuerland ist von großen Mooren durchzogen. Hier halten sich nur noch wenige Baumarten, wie die Lenga-Südbuche, die Magellan-Südbuche (Nothofagus betuloides) oder die Coihue-Südbuche (Nothofagus dombeyi). Fauna In den Steppengebieten sind Guanakos, die zur Familie der Kamele gehören, weit verbreitet. In den Andenregionen leben Vikunjas und der Huemul, der als Nationaltier Chiles zusammen mit dem Andenkondor im Staatswappen dargestellt ist. Der Chinchilla, ein Nagetier, sowie der Puma leben ebenfalls in gebirgigen Steppenlandschaften. Die Wälder bieten Platz für Hirsche, Chilenische Waldkatzen, Füchse und für Kolibris. Der Humboldt-Pinguin, Pelikane und Mähnenrobben leben selbst an den kalten Küsten Nordchiles, Mähnenrobben und Magellan-Pinguine im eisreichen Süden. Über fast den ganzen Bereich Chiles ist der majestätische Andenkondor verbreitet, einer der größten Vögel der Welt. Die großen Salzseen beherbergen tausende Flamingos. Im kargen Süden Feuerlands leben Eulen, Magellan-Füchse und Darwin-Nandus. Sehr häufig anzutreffen sind Strauchratten (Degus), kleine, ausschließlich in Chile heimische und vom Aussehen her rattenähnliche Nagetiere aus der Familie der Trugratten, die mit drei Arten fast das ganze Land bewohnen. Sie leben in Erdhöhlen in Kolonien und nehmen im Ökosystem die Nische ein, die in Deutschland die Wildkaninchen innehaben. Bevölkerung Demografie Chile hatte 2020 19,1 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug + 0,9 %. Die Bevölkerungszählung des staatlichen chilenische Statistikamt INE ergab, dass das Land in der Mitte des Jahres 2017 17,5 Millionen Einwohner hatte. Davon waren 8.6 Millionen Männer und 9,0 Millionen Frauen. Die Bevölkerung hat sich seit Beginn des 20. Jahrhunderts verfünffacht. Bei der Volkszählung des Jahres 1895 wurden 2.695.625 Einwohner ermittelt. Die Einwohnerzahl stieg auf 5,0 Mio. bei der Zählung 1940 und 13,3 Mio. im Jahr 1992. Seitdem hat sich das Bevölkerungswachstum verlangsamt. Zum Bevölkerungswachstum 2020 trug ein Geburtenüberschuss (Geburtenziffer: 12,0 pro 1000 Einwohner vs. Sterbeziffer: 6,3 pro 1000 Einwohner) bei. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 1,6, die der Region Lateinamerika und die Karibik betrug 2,0. Die Lebenserwartung der Einwohner Chiles ab der Geburt lag 2020 bei 80,3 Jahren (Frauen: 82,5, Männer: 78). Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 34,5 Jahren. Im Jahr 2021 waren 19,0 Prozent der Bevölkerung unter 15 Jahre, während der Anteil der über 64-Jährigen 12,7 Prozent der Bevölkerung betrug. Migration Die Migrationsrate Chiles lag im Jahr 2012 bei 0,35 Migranten je 1.000 Einwohner und Jahr und war damit eine der niedrigsten in ganz Lateinamerika. Im Jahre 2017 waren 2,7 % der Bevölkerung im Ausland geboren. Im Jahre 1848 begann die deutsche Kolonisierung, die von der chilenischen Regierung gefördert wurde, um den Süden des Landes zu bevölkern. Die Einwanderung aus deutschsprachigen Staaten beeinflusste die Kultur eines großen Gebietes in Südchile, besonders in den Provinzen Valdivia, Osorno und Llanquihue. Einwanderer aus anderen europäischen und westasiatischen Staaten kamen im 19. und 20. Jahrhundert vor allem in Valparaíso und im äußersten Norden und Süden an. Darunter befanden sich Österreicher, Briten und Iren, Kroaten, Spanier, Franzosen, Griechen, Italiener, Niederländer, Polen, Russen, Schweizer, Juden und Palästinenser. Im Jahre 1953 gründete Präsident Carlos Ibáñez del Campo die Einwanderungsbehörde Departamento de Inmigración und ließ Regeln für die Einwanderung aufstellen. Im 21. Jahrhundert hat die Einwanderung aus den benachbarten Staaten mehr an Bedeutung gewonnen. Zwischen 2004 und 2010 stieg sie um 50 % auf geschätzt 365.459 Personen. Die Volkszählung des Jahres 2012 ergab, dass 339.536 im Ausland geborene Menschen in Chile wohnhaft waren. Sie stammten vor allem aus Peru (103.624), Argentinien (57.019), Kolumbien (27.411), Bolivien (25.151) und Ecuador (16.357). 2014 stammten 74,9 % der Einwanderer vom gleichen Kontinent ab. Obwohl die Auswanderung aus Chile im vergangenen Jahrzehnt zurückgegangen ist, lebten im Jahr 2005 487.174 Chilenen außerhalb Chiles. Dies entspricht 3,01 % der Bevölkerung des gleichen Jahres (16.165.316 Menschen). Die meisten ausgewanderten Chilenen leben heute in Argentinien (43,33 %), des Weiteren 16,58 % in den USA, 5,61 % in Schweden, 5,21 % in Kanada und 4,80 % in Australien. Die interne Migration von den ländlichen Gebieten in die Großstädte hat sich in den letzten Jahrzehnten verstärkt. So wurden etwa 80 % der Bevölkerung der mittleren und südlichen Regionen Chiles in der Region selbst geboren. In Región del Biobío erreicht dieser Wert mit 86,11 % den Höchststand. Nur 71 % der Bewohner der Hauptstadtregion wurden auch in der Region geboren und gar nur 55 % der Region Magallanes y Antártica Chilena stammen von dort. Bevölkerungsverteilung Der Großteil der Bevölkerung lebt in den Regionen V bis X. Am dichtesten besiedelt ist der Großraum Región Metropolitana de Santiago, wo etwa die Hälfte der chilenischen Einwohner lebt. Die Stadt selbst hat etwa 5,5 Millionen Einwohner; sie beherbergt also in etwa ein Drittel aller Einwohner Chiles. Nördlich und vor allem südlich davon erstrecken sich landwirtschaftlich genutzte und dicht besiedelte Gebiete in der Ebene zwischen den Hauptketten der Anden. Nur 100 Kilometer westlich von Santiago liegt der Großraum um die Hafenstadt Valparaíso mit etwa einer Million Einwohnern. Nach Norden und Süden verringert sich die Bevölkerungsdichte immer stärker. Die Atacamawüste im äußersten Norden und die rauen, stürmischen Gebiete im Süden sind aufgrund der ungünstigen klimatischen Bedingungen nur sehr dünn besiedelt. Urbanisierung und wichtige Städte Die Bevölkerung Chiles ist im internationalen Vergleich sehr ungleich verteilt. Die Volkszählung des Jahres 2002 ergab, dass 13.090.113 Chilenen, oder 86,59 % der Gesamtbevölkerung, in Städten leben. Die Regionen in klimatisch extremen Zonen weisen den höchsten Urbanisierungsgrad auf – 97,68 % der Bevölkerung der Region Antofagasta, 94,06 % von Tarapacá und 92,6 % von Magallanes y Antártica Chilena leben in Städten. Auch die Industriestandorte in Mittelchile sind stark urbanisiert – 96,93 % der Menschen in der Hauptstadtregion und 91,56 % in der Region Valparaíso sind Stadtbewohner. Die 2.026.322 Menschen oder 13,41 % der Gesamtbevölkerung, die auf dem Land leben, arbeiten größtenteils in Landwirtschaft und Viehzucht. Sie konzentrieren sich auf Mittel- und Südchile; 33,59 % der Bevölkerung von Maule, 32,33 % von La Araucanía und 31,56 % von Los Lagos leben auf dem Land. In den 1920er Jahren begann eine starke Abwanderung von Landbewohnern, die auf der Suche nach besseren Lebensbedingungen in die Städte zogen. Die Städte wuchsen dadurch schnell und bildeten große Ballungsräume. Der Großraum Santiago ist der größte derartige Ballungsraum. Im Jahr 2002 wohnten hier 5.428.590 Menschen oder mehr als ein Drittel aller Bewohner von Chile, während er 1907 383.587 und 1920 noch 549.292 Einwohner hatte, was 16 % der Bevölkerung Chiles entsprach. Das Städtewachstum führte auch dazu, dass vormals ländliche Gebiete Teile der Städte wurden, wie Puente Alto oder Maipú, die heute zu den bevölkerungsreichsten Gemeinden Chiles zählen. Im Januar 2015 nahm Santiago hinter São Paulo, Ciudad de México, Buenos Aires, Rio de Janeiro, Lima und Bogotá den siebenten Rang unter den lateinamerikanischen Städten mit den größten Bevölkerungszahlen ein; weltweit rangiert es auf 54. Stelle. Analog zur Hauptstadt sind auch Valparaíso und Viña del Mar von starkem Bevölkerungswachstum betroffen gewesen. Sie sind dadurch mit Concón, Quilpué und Villa Alemana zum Großraum Gran Valparaíso zusammengewachsen. Auch Concepción, Talcahuano, Hualpén, Chiguayante, San Pedro de la Paz, Penco, Coronel, Lota, Hualqui und Tomé bilden ein Ballungsgebiet namens Gran Concepción. Beide Ballungsräume hatten im Jahr 2002 mehr als 660.000 Einwohner. Weitere wichtige Städte und Ballungsräume sind die Agglomeration La Serena-Coquimbo (296.253 Einwohner im Jahre 2002), Antofagasta (285.255), Temuco-Padre Las Casas (260.878), Rancagua (236.363), Iquique-Alto Hospicio (214.586), Talca (191.154), Arica (175.441), Chillán-Chillán Viejo (165.528), Puerto Montt (153.118), Los Ángeles (138.856), Calama (136.600), Copiapó (134.531), Osorno (132.245), Quillota (128.874), Valdivia (127.750), Punta Arenas (116.005), San Antonio (106.101) und Curicó (104.124). Die Mehrzahl dieser Städte liegt entlang der Pazifikküste oder im Zentraltal in der Mitte Chiles zwischen Santiago und Puerto Montt. Ethnische Zusammensetzung Die chilenische Bevölkerung ist durch einen hohen Grad an Homogenität gekennzeichnet. Die Chilenen mit europäischen Vorfahren und Mestizen bilden rund 88,92 Prozent der Bevölkerung. 11,08 Prozent werden durch die indigene Bevölkerung gebildet. Davon sind 82 Prozent Mapuche, 6 Prozent Aymara, 2,5 Prozent Diaguita und 0,5 Prozent Rapanui. Chile hat bisher die Convention 169 der ILO, die die Rechte indigener Völker schützt, nicht unterzeichnet. Das Volk der Mapuche lebt überwiegend in der Region zwischen den Flüssen Bío-Bío und Toltén und besitzt dort einen Bevölkerungsanteil von 23 Prozent. Die Mapuche, früher zusammen mit anderen Völkern der Region auch unter der (von den Mapuche selbst abgelehnten) Sammelbezeichnung Araukaner bekannt, lassen sich in Pewenche, Lafkenche, Wenteche und Huilliche unterteilen (die im Norden lebenden Picunche sind der spanischen Eroberung zum Opfer gefallen). Ihre Sprache, das Mapudungun, wird seit wenigen Jahren als Ergänzungsfach in der Schule gelehrt und für eine tägliche Nachrichtensendung im lokalen Fernsehen auf Canal 13 Temuco verwendet. Trotz dieser Errungenschaften bleibt die traditionelle Lebensweise der Mapuche durch den Verlust ihres Landes und die liberale Wirtschaftsordnung gefährdet. Mapuche müssen oft in die Großstädte abwandern, um bezahlte Arbeit zu suchen. Im nördlichen Teil Chiles leben kleinere Gruppen von Quechua, Aymara, Chango, Atacameño, Diaguita und Kolla. Im Süden Chiles lebten bis zum Anfang des 20. Jahrhunderts auch kleine Gruppen von Selk’nam, Kawéskar, Yámana, Caucahue sowie Tehuelche, deren Nachfahren in der heutigen Mehrheitsbevölkerung aufgegangen sind oder sich heute als Mapuche verstehen. Von den rund 5000 Einwohnern der Osterinsel sind ca. 40 Prozent, also etwa 2000 Menschen, Polynesier (Rapanui). Während der Kolonialzeit wurde Chile durch spanische Einwanderer besiedelt, die großteils aus den kastilischen Regionen Spaniens kamen. Im 19. Jahrhundert wanderten besonders viele englische und irische sowie deutsche Siedler nach Chile ein. Nennenswerte Einwandererkontingente kamen außerdem aus Frankreich, Italien, Kroatien und in jüngerer Zeit aus Palästina bzw. dem Nahen Osten. Die ersten Deutschen trafen 1843 ein und siedelten sich später vor allem im Gebiet um den Llanquihue-See und in Valdivia, Osorno sowie Puerto Montt an. Im Jahr 1913 nannte das Handbuch des Deutschtums im Ausland 30.000 in Chile lebende „Auslandsdeutsche“; 1916 betrug die Zahl der im Lande ansässigen Deutschchilenen und Chiledeutschen einer Zählung des Deutsch-Chilenischen Bunds zufolge etwa 25.500. Zuletzt gab es während und nach dem Zweiten Weltkrieg eine Zuwanderungswelle aus dem deutschsprachigen Raum. Noch heute wird die deutsche Sprache von bis zu 35.000 Einwohnern verwendet, deren Zahl allerdings stetig abnimmt. Die Verschleppung schwarzer Sklaven nach Chile war zu allen Zeiten sehr gering. Die Mehrheit von ihnen konzentrierte sich auf die Städte Santiago de Chile, Quillota und Valparaíso. Im Laufe der Jahrhunderte vermischten sich die Schwarzen mit den Weißen und Mestizen, so dass heute das afrikanische Element in Chile fast völlig verschwunden ist. Eine Ausnahme bildet die Stadt Arica in der Provinz Tarapacá. Arica wurde 1570 gegründet und gehörte bis 1883 zu Peru. Die Stadt zählte zu den peruanischen Einfuhrzentren für afrikanische Sklaven. Von hier aus wurde auch ein großer Teil der bolivianischen Handelsgüter auf europäische Schiffe verladen. Arica lag mitten in der Wüste und bildete – dank der hervorragenden Anbaumöglichkeiten für Zuckerrohr und Baumwolle im Azapatal – eine Oase. Erdbeben, Piratenüberfälle und der Ausbruch von Malariaepidemien führten dazu, dass viele Weiße die Stadt verließen. So entwickelte sich mit der Zeit eine mehr oder weniger isolierte afro-chilenische Enklave. Chile erklärte sich 1811 als erster Staat in Südamerika gegen die Sklaverei und schaffte sie 1823 endgültig ab. In den vergangenen Jahrzehnten suchten vermehrt Arbeiter aus Peru und Bolivien in Chile ihr Glück. In den 1980er Jahren gewann hierdurch bedingt die Peruanische Küche einen gewissen Einfluss in Chile. 2007 beschloss die Regierung eine Amnestie für diejenigen Ausländer, meistens aus Peru, die ohne Aufenthaltserlaubnis im Land arbeiteten. Die Wirtschaftskrise in Argentinien zwang seit der Jahrtausendwende vermehrt auch Argentinier zur Arbeitssuche im Nachbarland. Eine kleine Gruppe von Einwanderern kommt aus Asien, vor allem aus Korea, und lebt im Großraum Santiago. Sprache Die bekannteste indigene Sprache ist das Mapudungun, die in Südchile gesprochene Sprache der Mapuche (ca. 250.000 Sprecher); daneben sind in Nordchile Aymara (ca. 20.000 Sprecher) und auf der Osterinsel Rapanui (ca. 1000 Sprecher) verbreitet. Insgesamt werden in Chile neun verschiedene Sprachen und Idiome benutzt, darunter mindestens vier aussterbende Sprachen, für die nur noch einige wenige Sprecher bekannt sind. So wird für die Sprache der Yámana im Jahr 2013 noch ein einziger, 85-jähriger Sprecher genannt. Das in Peru und Bolivien verbreitete Quechua wird nur in den (früher peruanischen bzw. bolivianischen) chilenischen Nordprovinzen von einer nennenswerten Sprecherzahl verwendet. Vor allem in den südchilenischen Regionen IX und X leben zahlreiche Deutschchilenen, die teilweise noch Deutsch sprechen, sodass Deutsch die drittverbreitetste Sprache des Landes nach Spanisch und Mapudungun ist (genannt werden ca. 35.000 Sprecher). Die Amtssprache und bei weitem überwiegende Alltagssprache Chiles ist Spanisch (in Chile Castellano genannt), wobei das in Chile gesprochene Spanische verschiedene Eigentümlichkeiten aufweist, welche Vokabular und Aussprache, die charakteristische Sprechmelodie und einzelne grammatikalische Besonderheiten betreffen. Zahlreiche in Chile verwendete Ausdrücke wurden aus einheimischen Sprachen (größtenteils dem Quechua und Aymara, nur selten aus dem Mapudungun) oder aus den Sprachen der Einwanderer übernommen (zum Beispiel cachar – von engl. to catch – oder kuchen). Von 1844 bis 1927 galt in Chile die an den Vorschlägen von Andrés Bello orientierte, von den Regelungen der Real Academia Española stark abweichende „amerikanische“ spanische Rechtschreibung. In Chile herrscht wie in Lateinamerika generell der Seseo. Wie überall im lateinamerikanischen Spanischen fehlt auch eine grammatikalische zweite Person im Plural völlig; auch das dazugehörige Pronomen vosotros/-as („ihr“ als Plural-Anrede) ist unbekannt und die Anrede einer Mehrzahl von Personen erfolgt ausschließlich mit den Verbformen der dritten Person und dem Anredepronomen ustedes. Auch im Singular wird die Anrede standardsprachlich in der dritten Person mit der Höflichkeitsform Usted gewählt. Die vertraute Anrede mit tú („Du“) ist auf den Kreis engster Freunde, Lebenspartner und gleichaltriger oder jüngerer Angehöriger beschränkt. Umgangssprachlich ist ein unvollständiger Voseo gebräuchlich, bei dem zur Anrede des Gegenübers in der zweiten Person Singular spezifische chilenische Voseo-Verbformen (zum Beispiel: „estái“ statt estás, „querís“ statt quieres, „venís“ statt vienes, „vai“ statt vas) eingesetzt werden, deren Bildungsweise an die Formen der zweiten Person Plural nach kontinentalspanischem Standard (estáis, queréis, venís, vais) erinnert. In deutlichem Kontrast zum Nachbarland Argentinien wird das entsprechende Personalpronomen Vos („Ihr“ als Singular-Anrede) in Chile jedoch gemieden und zumeist als vulgär oder despektierlich empfunden. Religion Das Land galt lange als sehr katholisch geprägt, auch wenn Staat und Kirche seit 1925 offiziell getrennt sind. Der kirchliche Einfluss auf das gesellschaftliche Leben, das Rechtswesen (besonders das Familienrecht) und die Kultur- und Medienwelt ist noch immer recht stark. So gehörte bis 2010 der zweitgrößte Privatsender des Landes, Canal 13, allein der römisch-katholischen Kirche. Jedoch sind eheliche und uneheliche Kinder seit 1998 rechtlich gleichbehandelt, das chilenische Eherecht sieht seit November 2004 eine Möglichkeit der Scheidung vor und 2015 wurde für gleich- und verschiedengeschlechtliche Paare die eingetragene Partnerschaft (acuerdo de unión civil) eingeführt. Abtreibungen sind seit 1990 verboten; eine Lockerung des absoluten Abtreibungsverbots in bestimmten medizinisch und ethisch indizierten Fällen wurde aber seit Jahren kontrovers diskutiert und 2017 verwirklicht. Rund 70 Prozent der Bevölkerung (7.853.000 Befragte) rechneten sich bei der Volkszählung 2002 zur römisch-katholischen Kirche, die die zahlenmäßig stärkste Religionsgemeinschaft des Landes bildet. Die kirchliche Verwaltungsstruktur besteht aus fünf Kirchenprovinzen mit 26 Bistümern und 920 Pfarreien. Im Oktober 1999 wurde ein Gesetz zur Gleichstellung der Religionsgemeinschaften verabschiedet, das allerdings die Privilegien der römisch-katholischen Kirche unangetastet ließ und nur den Status der anderen Kirchen und Glaubensgemeinschaften verbesserte. Rund 15 Prozent der Chilenen gehörten 2002 protestantischen Glaubensgemeinschaften an; durch den weit verbreiteten pfingstlerischen Einfluss ist der Anteil der evangelikalen Einwohner wie in ganz Lateinamerika vor allem in den letzten Jahrzehnten angestiegen (er lag in Chile 1930 bei 1,5 Prozent, 1992 bereits bei rund 13 Prozent). An weiteren Weltanschauungen wurden 8,3 Prozent Agnostiker und Atheisten genannt und 4,4 Prozent „Andere“, wozu auch die indigenen Religionen zählen (etwa die Religion der Mapuche). Kleinere Glaubensrichtungen bilden die Zeugen Jehovas (1,06 Prozent), Mormonen (0,92 Prozent), Juden (0,13 Prozent) und andere. Neuere Befragungen ergaben, dass Chile zusammen mit Uruguay das am stärksten säkularisierte Land in Lateinamerika ist. Demnach entfielen auf die katholische Kirche 2013 noch 57 Prozent, auf die evangelischen Kirchen (hauptsächlich Evangelikale) 13 Prozent, während Religionsfreie seit 2011 mit 25 Prozent zu Buche schlagen. Auffällig ist der um 2010 abrupt einsetzende Rückgang der praktizierten Religiosität in Chile: Nur noch 27 Prozent der gläubigen Chilenen bezeichneten sich 2013 als praktizierend (2010: 41 %; 2011: 38 %), das ist das niedrigste Ergebnis in ganz Lateinamerika. Zugleich gehört Chile zu den lateinamerikanischen Ländern, in denen evangelikale Gruppierungen aktuell ein vergleichsweise geringes Wachstum verzeichnen. Obwohl der Untersuchungszeitraum der Studie bereits 2013 endete, halten die Autoren einen Vertrauenszuwachs der katholischen Kirche infolge des Amtsantritts von Papst Franziskus in allen Ländern einschließlich Chiles für erkennbar, ohne jedoch dessen Nachhaltigkeit einschätzen zu können. Die Anfang 2018 veröffentlichte Folgeuntersuchung desselben Instituts belegt eine ungebrochene Fortsetzung des Rückgangs auch nach 2013: Demnach bezeichnen sich heute nur noch 45 Prozent der Chilenen als Katholiken, sodass Chile nach Uruguay als zweites lateinamerikanisches Land keine mehrheitlich katholische Bevölkerung mehr besitzt. Bei der amtlichen Volkszählung 2017 bezeichneten sich allerdings noch 59 Prozent der Chilenen als katholisch. Geschichte Präkolumbische und Kolonialgeschichte Etwa 13.000 Jahre v. Chr. siedelten die ersten Menschen im heutigen Staatsgebiet Chiles (siehe Monte Verde). Später gehörte der Norden Chiles bis zu seiner Eroberung durch die Spanier kurzzeitig zum Inkareich. Im Jahr 1520 entdeckte der Portugiese Ferdinand Magellan während seines Versuches, die Erde zu umsegeln, die nach ihm benannte Magellanstraße, die an der heutigen Südspitze Chiles liegt. 1535 erreichte Diego de Almagro von Peru aus das heutige Chile, fand aber nicht die erhofften Reichtümer vor und kehrte enttäuscht zurück. Die erste permanente Siedlung der Europäer war das 1541 durch Pedro de Valdivia gegründete Santiago. Seit 1542 war Chile Bestandteil des spanischen Vizekönigreiches Peru. Da die Spanier wenig Gold und Silber fanden, war Chile aufgrund seiner abgeschiedenen Lage eine eher wenig beachtete Kolonie der spanischen Krone. Die große Atacamawüste behinderte den direkten Weg nach Peru. Erst später wurde Chile durch landwirtschaftliche Produkte für die anderen spanischen Besitzungen ein wichtiger Versorgungspartner. Chile beherbergte verschiedene Volksgruppen, die lange Zeit fälschlicherweise unter dem Begriff Araukaner zusammengefasst wurden. Im Süden leisteten die Mapuche in zahlreichen Kriegen erbitterten Widerstand. Der Konflikt, der als Arauco-Krieg (Guerra de Arauco) bezeichnet wird, verhinderte eine spanische Besiedlung der südlichen Hälfte Chiles nachhaltig. Die meisten Städte, Ansiedlungen und Forts wurden kurz nach ihrer Errichtung von den Kampfverbänden der Ureinwohner überrannt und wieder zerstört. Ab 1602 bildete der Fluss Bío Bío faktisch die Grenze zum Mapuchegebiet. Der andauernde Widerstand der Ureinwohner zwang die Spanier 1641 zur Anerkennung einer unabhängigen Mapuche-Nation im Vertrag von Quillín. Darin wurde der Bío-Bío-Fluss als Grenze festgeschrieben und dem Volk der Mapuche Souveränität zugebilligt, ein in der Geschichte indigener Bevölkerungen in Südamerika einzigartiger Vorgang. Zwar kam es auch danach immer wieder zu kriegerischen Auseinandersetzungen und glücklosen Eroberungsversuchen, doch hatte die Grenzziehung im Wesentlichen bis zum Ende der Kolonialzeit Bestand. Erst im Rahmen der 1861 von Präsident José Joaquín Pérez ausgerufenen sogenannten „Befriedung Araukaniens“ wurde die Mapuche mit Hilfe chilenischer Truppen gewaltsam unterworfen und im Jahre 1883 an Chile angegliedert. Neben den Attacken der Mapuche behinderten schwere Erdbeben, Tsunamis und Vulkanausbrüche die Entwicklung des Landes. Viele Städte wurden komplett zerstört, wie beispielsweise Concepción 1570 und Valdivia 1575. Die chilenischen Küstenstädte waren im 16. und 17. Jahrhundert häufigen Angriffen englischer Piraten ausgesetzt. 1609 wurde das Generalkapitanat Chile gegründet, dieses war jedoch abhängig vom Vizekönigreich Peru. 1778 wurde Chile zum eigenständigen Generalkapitanat mit Handelsfreiheit innerhalb des spanischen Königreiches. Unabhängigkeitskrieg und Entstehung der Republik Der Drang nach Unabhängigkeit kam auf, als 1808 Spanien von Napoleons Bruder Joseph regiert wurde. Am 18. September 1810 wurde eine Junta ins Leben gerufen, die die Treue Chiles zum abgesetzten König Ferdinand VII. erklärte, und zwar als eine autonome Provinz innerhalb des spanischen Königreichs. Dieses Datum feiert man in Chile als den Beginn der Unabhängigkeit. Wenig später erklärte Chile seine Loslösung von Spanien und der Monarchie. 1814, nach dem Ende des Spanischen Unabhängigkeitskrieges und der Niederlage der Patrioten in der Schlacht von Rancagua, übernahm Spanien wieder die Macht in Chile. Die Spanier wurden aber in der Schlacht von Chacabuco durch ein chilenisch-argentinisches Heer unter General José de San Martín geschlagen. In der Schlacht von Maipú 1818 brach die spanische Kolonialherrschaft endgültig zusammen. San Martín verzichtete zugunsten von Bernardo O’Higgins auf das Präsidentenamt. O’Higgins selbst wurde gestürzt und ging 1823 ins Exil nach Peru. Sein Nachfolger Ramón Freire y Serrano konnte seine politische Macht nicht richtig festigen und wurde von Francisco Antonio Pinto Díaz 1828 gestürzt. Dieser führte eine liberale Verfassung ein, was den Zorn der Konservativen hervorrief. Am 17. April 1830 stürzte Diego Portales Palazuelos in der Schlacht von Lircay die Regierung. Portales regierte (indirekt, denn er wurde nie Präsident) bis August 1831 mit diktatorischen Mitteln. Im Jahre 1833 entstand mit Hilfe Portales eine streng präsidiale Verfassung. Diese stark zentralistische Verfassung gewährte Chile eine lange Zeit der Stabilität, bis zum Bürgerkrieg von 1891. Von 1836 bis 1839 kam es zum Konföderationskrieg gegen Bolivien und Peru, den die Chilenen gewannen. Am 17. September 1865 erklärte Chile Spanien den Krieg (Spanisch-Südamerikanischer Krieg), nachdem Spanien versucht hatte mit militärischen Mitteln in Peru Einfluss zu gewinnen. Es kam daraufhin zu den Seegefechten bei Papudo sowie bei Abtao vor der Insel Chiloé. Am 5. Dezember 1865 verbündete sich auch Peru mit Chile, um den gemeinsamen Gegner zu bekämpfen. Die Spanier beschossen am 31. März 1866 die Stadt Valparaíso massiv. Der Konflikt mit Spanien konnte aber erst in Verträgen von 1871 und 1883 endgültig gelöst werden. Im Verlauf des 19. Jahrhunderts wanderten verstärkt auch nicht-spanische Europäer nach Chile ein, darunter Deutsche, deren Spuren noch heute vor allem im südlichen Mittelteil des Landes zu sehen sind (Valdivia, Osorno, Puerto Montt, Puerto Varas, Frutillar, Puerto Natales). Salpeterkrieg Im Salpeterkrieg von 1879 bis 1884 besetzte Chile die bis dahin zu den Nachbarländern Peru und Bolivien gehörende Atacamawüste, Lima und Teile der Pazifikküste von Peru. Im Friedensvertrag von 1904 zwischen Chile und Bolivien übergab Bolivien an Chile seinen freien Zugang zum Pazifik. In den eroberten Gebieten wurden später große Kupfervorkommen gefunden: Chuquicamata, der größte Kupfertagebau der Welt, befindet sich in diesem Gebiet. Peru übergab an Chile im Vertrag von Ancón die heutigen Regionen von Arica, Parinacota und Tarapacá als Reparationen. Bürgerkrieg von 1891 1891 widersetzten sich Parlament und Marine dem Präsidenten José Manuel Balmaceda; es kam zum Bürgerkrieg. In diesem Konflikt starben rund 6000 Menschen. Balmaceda verlor zwei größere Schlachten und beging am 18. September 1891 Selbstmord. Das bis dahin präsidial geprägte Regierungssystem wurde nach dem Sieg der Kongressanhänger durch ein parlamentarisches System ersetzt, bis 1925 wiederum ein präsidentielles Regierungssystem eingeführt wurde. Während der Unruhen kam es zum Baltimore-Zwischenfall, der zu einem diplomatischen Konflikt zwischen der neuen chilenischen Regierung und den USA führte. Grenzverlauf Trotz des Grenzvertrags mit Argentinien (1881) verschärften sich ab 1893 die Grenzstreitigkeiten mit Argentinien, weil der Vertrag die Andenkordillere als Grenze bestimmte: Die Grenzlinie verlaufe „über die höchsten Berge, die die Wasserscheide bilden“. Auf manchen Abschnitten führte diese Definition zu strittigen Ergebnissen. Im Norden tauschte Bolivien einen Teil der Puna gegen Tarija mit Argentinien, nachdem Chile die Puna-Region im Salpeterkrieg besetzt hatte. Zwischen Chile und Argentinien kam es zu einem Wettrüsten. Erst durch ein Schiedsgerichtsverfahren konnte der Grenzstreit 1902 beigelegt werden. Patagonien und Feuerland wurden neu aufgeteilt, dabei fielen 54.000 Quadratkilometer an Chile und 40.000 Quadratkilometer an Argentinien. Der Grenzverlauf mit Bolivien wurde 1904 mit einem im gegenseitigen Einvernehmen geschlossenen Friedensvertrag festgelegt. Doch bald keimte in Bolivien ein Revisionismus auf, der bis heute eine schwierige und oft sehr angespannte politische Situation zwischen den beiden Ländern verursacht. In den 1970er Jahren, als beide Länder durch Militärdiktaturen regiert wurden, wurde von chilenischer Seite angeboten, einen zirka 10 km breiten Gebietsstreifen entlang der Grenze mit Peru an Bolivien abzutreten, um endgültig Frieden zu schaffen. Der Vorschlag wurde nicht umgesetzt, weil Bolivien keine Kompensation dafür geben wollte. Bolivien versuchte daraufhin, einen Anspruch auf einen souveränen Zugang zum Meer mit einer Klage vor dem Internationalen Gerichtshof in Den Haag durchzusetzen. Am 1. Oktober 2018 wies der Internationale Gerichtshof die Klage Boliviens gegen Chile ab. Erster und Zweiter Weltkrieg Chile blieb im Ersten Weltkrieg neutral, die innenpolitische Lage war aber weiterhin instabil. Präsident Arturo Alessandri Palma, der in Chile ein Sozialversicherungssystem eingeführt hatte, wurde 1924 durch einen Militärputsch abgesetzt, kam aber, nach der Einführung einer neuen Verfassung im Jahre 1925, im März 1926 wieder an die Macht. Bis 1932 regierte (am längsten) Carlos Ibáñez del Campo das Land mit diktatorischen Mitteln. 1932 wurde die verfassungsmäßige Ordnung wiederhergestellt und die Radikalen erwiesen sich in den folgenden 20 Jahren als führende Partei. Die Weltwirtschaftskrise um 1930 traf Chile besonders hart. Die Preise für die wichtigsten Exportgüter Kupfer und Salpeter verfielen dramatisch. Ab den 1930er Jahren folgte eine langsame Erholung des Landes, die 1938 durch einen Putschversuch der Nationalsozialistischen Bewegung Chiles und das darauffolgende Massaker unterbrochen wurde. 1934 kam es zu einer letzten großen Bauernrebellion in Ranquil, die durch Polizeikräfte niedergeschlagen wurde. Nachdem Chile lange Zeit – auch aus Rücksicht auf die zahlreichen deutschstämmigen Chilenen – im Zweiten Weltkrieg neutral geblieben war, beschloss 1944 Präsident Juan Antonio Ríos Morales, an der Seite der Alliierten in den Krieg einzutreten. Daraufhin erklärte Chile 1945 den Krieg gegen Japan. Der Einfluss Chiles auf den Kriegsausgang blieb jedoch unbedeutend. Nachkriegszeit 1945 gehörte das Land zu den Gründungsmitgliedern der Vereinten Nationen und trat 1948 der OAS bei. Am 2. August 1947 ernannte Präsident González Videla ein Kabinett aus Militärs und Unabhängigen. Finanzminister dieses Kabinetts war Jorge Alessandri, der 1958 unter Mithilfe der Konservativen, der Liberalen und der Radikalen Partei Präsident Chiles wurde. Er gewann die Präsidentschaftswahl gegen Salvador Allende, den Kandidaten der Vereinigten Linken. Großer Gegenspieler der Konservativen wurden die Christdemokraten, die zwar strikt antikommunistisch, nach europäischen Maßstäben aber in Fragen der Sozialpolitik gemäßigt links eingestellt waren. Am 22. Mai 1960 erschütterte das bisher stärkste gemessene Erdbeben der Welt mit anschließendem Tsunami die Küsten Chiles und verwüstete besonders die Hafenstadt Valdivia. Das Beben hatte die Stärke 9,5 auf der Momenten-Magnituden-Skala. Mehr als 2000 Menschen starben, was in Folge Ablenkung von innenpolitischen Problemen schaffte. Weite Teile des Landes waren immer noch in den Händen einiger weniger vermögender Familien. 1964 gewann Eduardo Frei Montalva als Kandidat der Christdemokratischen Partei die Wahl zum Präsidenten, auch mit Wahlhilfe aus den USA. Er versuchte unter dem Motto „Revolution in Freiheit“, Sozialreformen mit dem Erhalt der demokratischen Ordnung zu verbinden und den Spagat zwischen den radikalen Forderungen der Linken und der rigorosen Abwehr von Reformen durch die Rechten zu schaffen. Eine Landreform verteilte über drei Millionen Hektar Großgrundbesitz an Bauerngenossenschaften. Frei scheiterte letztlich mit seinen wichtigsten Reformen, darunter der teilweisen Verstaatlichung der Kupferindustrie. 1969 trat Chile als Gründungsstaat der Andengemeinschaft bei, allerdings 1976 wieder aus. Wie schon 1958 hieß auch 1970 der Gegner von Jorge Alessandri im Wahlkampf um das Präsidentenamt Salvador Allende, dem die Gewerkschaften und Sozialisten zur Seite standen. Allende gewann die Wahl und wurde Präsident. Präsidentschaft Salvador Allende Die Kräfte der Linken bildeten 1969 die Unidad Popular (UP), ein Wahlbündnis, dem neben der Kommunistischen und der Sozialistischen Partei kleine humanistische, linkschristliche und marxistische Parteien angehörten. Die UP vertrat eine sozialistische Linie, warb für die Verstaatlichung der Industrie und die Enteignung der Großgrundbesitzer. Dieses Bündnis stellte 1970 als Präsidentschaftskandidaten Salvador Allende auf, der schon zum vierten Mal kandidierte. Aus den Wahlen von 1970 ging das linke Wahlbündnis Unidad Popular mit 37 % der Stimmen als stärkste Kraft hervor und Salvador Allende wurde zum Präsidenten gewählt. Sein konservativer Gegner, Jorge Alessandri, kam auf 35,3 %, und der Christdemokrat Radomiro Tomic erzielte 28,1 %. Stichwahlen waren in der damaligen Verfassung nicht vorgesehen. Allende wurde im Parlament mit den Stimmen der Christdemokraten (um Tomic) unter der Voraussetzung, er werde sich streng an die Verfassung und Rechtsstaatlichkeit halten, als Präsident gewählt. Er verstaatlichte in der Folge die wichtigsten Wirtschaftszweige (Bankwesen, Landwirtschaft, Kupferminen, Industrie, Kommunikation) und geriet dadurch in wachsende Konflikte mit der Opposition – obwohl die Verstaatlichungen von der Verfassung gedeckt waren. Zudem stieß der Wahlsieg Allendes in den USA auf heftigen Widerstand. Mit dem Sieg der „Volksfrontregierung“ unter marxistischem Einfluss in Chile war nach Kuba der zweite amerikanische Staat sozialistisch regiert. Dies schien die 1954 von US-Präsident Eisenhower postulierte Domino-Theorie zu bestätigen, wonach die Länder Südamerikas nach und nach wie Dominosteine dem Kommunismus anheimfallen würden. US-Außenminister Henry Kissinger ließ, als der Sieg der linken Kräfte absehbar war, verlauten: „Ich sehe nicht ein, weshalb wir zulassen sollen, dass ein Land marxistisch wird, nur weil die Bevölkerung unzurechnungsfähig ist.“ Allende betrachtete sich nicht als Marxist und lehnte sowohl die Diktatur des Proletariats als auch ein Einparteiensystem entschieden ab. Bei seinem Amtsantritt hatte Allende also mit Sanktionen und Gegenmaßnahmen der USA zu rechnen. So kam es bereits 1970 zu einem tödlichen Attentat auf General René Schneider, bei dem die CIA und Außenminister Kissinger massiv beteiligt waren (siehe US-Intervention in Chile). Schneider war für die US-Regierung ein Hindernis, da er gegen einen Militärputsch war. Durch den Boykott der USA, der westeuropäischen Staaten und der internationalen Konzerne wurde das politische System derart labil, dass von Teilen des Militärs ein Putsch geplant wurde. Ein erster Putsch des 2. Panzerregiments scheiterte im Juni 1973. Die Diktatur Pinochets Am 11. September 1973 kam es schließlich zu einem blutigen Militärputsch gegen die Regierung. Präsident Allende beging in der Moneda Selbstmord. Hunderte seiner Anhänger kamen in diesen Tagen ums Leben, Tausende wurden inhaftiert. Sämtliche staatlichen Institutionen in ganz Chile wurden binnen Stunden vom Militär besetzt. Die Macht als Präsident einer Junta übernahm General Augusto Pinochet. Überall im Lande errichtete das Militär in der Folgezeit Geheimgefängnisse, wo Oppositionelle und deren Sympathisanten nicht selten zu Tode gefoltert wurden. Tausende Chilenen gingen wegen der fortgesetzten Menschenrechtsverletzungen ins Exil (→ Folter in Chile). Kurz nach der Machtübernahme Pinochets begannen die USA und die westeuropäischen Staaten, Chile wieder intensiv mit Wirtschaftshilfe zu unterstützen. Die Militärregierung machte die Verstaatlichungen Allendes mit Ausnahme der Kupferminen rückgängig, führte radikale Wirtschaftsreformen durch und schaffte die Gewerkschaftsrechte ab. Im Jahr 1976 ernannte die Militärregierung den Papierfabrikanten und früheren Präsidenten Chiles, Jorge Alessandri, zum Präsidenten des neu gegründeten Staatsrates (Consejo de Estado), dessen Aufgabe es war, eine neue Verfassung zu schreiben, um die Militärdiktatur in Chile zu legitimieren. In Deutschland erhielt die Regierung Pinochets lange Zeit Unterstützung aus den Reihen der Union, vor allem der CSU. So lobte Franz Josef Strauß 1977 bei seinem Besuch den Umsturz als „gewaltigen Schlag gegen den internationalen Kommunismus“. Es sei „Unsinn, davon zu reden, daß in Chile gemordet und gefoltert würde“. Die Auseinandersetzung um die Bezeichnung der Militär-Junta als „Mörderbande“ durch den der SPD angehörigen Forschungsminister Hans Matthöfer anlässlich eines Streits um Wirtschaftshilfe im Jahr 1975 steht exemplarisch für die Spaltung der deutschen Politik in dieser Frage. In den achtziger Jahren wurde auch in der CDU die Kritik an den Menschenrechtsverletzungen des Regimes deutlicher. In diese Zeit fällt auch der Chilebesuch von Norbert Blüm, bei dem dieser Pinochet im direkten Gespräch damit konfrontierte. Insbesondere in der Colonia Dignidad, einer streng bewachten Siedlung von Auslandsdeutschen unter Führung von Paul Schäfer, wurde gefoltert. Die Sekte beziehungsweise totalitäre Religionsgemeinschaft war etwa zehn Jahre vor der Machtübernahme Pinochets gegründet worden und diente während der Militärherrschaft als Folterzentrum für die chilenischen Geheimdienste. Darüber entwickelte sich die Colonia zu einem florierenden Konzern, der unter anderem Titan nach Deutschland exportierte. Trotz Hinweisen, gerichtlichen Anklagen und Fluchtversuchen deutscher Bürger übte die deutsche Botschaft in Chile „äußerste Zurückhaltung“ und blieb untätig, mehr noch, sie ließ Handwerker der Siedlung die Botschafterresidenz renovieren. Im Dezember 1978 verschärfte sich der Beagle-Konflikt mit Argentinien und es kam zu kriegerischen Drohungen gegen Chile. Die unbewohnten Inseln Lennox, Picton und Nueva im Beagle-Kanal wurden zum Streitpunkt, vor allem weil in der Gegend größere Ölreserven vermutet wurden. Der Streit erreichte seinen gefährlichsten Höhepunkt am 22. Dezember 1978, als Argentinien die Operation Soberanía startete, um die Inseln militärisch zu besetzen und in Festland-Chile einzumarschieren. Der Einmarsch wurde gestoppt, als die Junta in Buenos Aires einer päpstlichen Vermittlung zustimmte. Diese Mediation führte nach der Niederlage Argentiniens im Falklandkrieg zu dem Freundschafts- und Friedensvertrag von 1984 zwischen Chile und Argentinien, bei dem alle drei Inseln Chile zugesprochen wurden. Die fast abschließende Grenzziehung mit Argentinien am Fitz-Roy-Massiv wurde am 16. Dezember 1998 vereinbart. Es bleibt bis heute nur noch ein kleiner undefinierter Abschnitt im Bereich des Campo de Hielo Sur („Südliches Eisfeld“) übrig. Dieser Bereich beherbergt das größte Süßwasserreservoir Südamerikas. Infolge des früheren Konflikts mit Argentinien unterstützte Chile während des Falklandkrieges 1982 Großbritannien. So landete ein beschädigter britischer Hubschrauber in Chile. Bisher ist der Grund seines Aufenthaltes in dieser Region allerdings unbekannt. Des Weiteren half Chile Großbritannien mit Radar- und Spionagetätigkeit. Der chilenische Ex-Luftwaffenchef Fernando Matthei bestätigte später die geheime Kooperation. Redemokratisierung 1988 wurde eine erste für die Opposition grundsätzlich problematische Volksabstimmung über eine Ausweitung der Befugnisse Pinochets abgehalten. Die Junta musste nach der geltenden Verfassung erstmals seit 1980 einen zukünftigen Präsidenten vorschlagen. Obschon eine Beteiligung an dieser Abstimmung auch eine Anerkennung des Regimes bedeutete, nahm die Opposition an dem Verfahren teil, bei welchem wenig überraschend Pinochet bestimmt worden war. Eine Mehrheit (54 %, bei einer Stimmbeteiligung von rund 90 Prozent) sprach sich zur Frage ja oder nein gegen eine weitere Amtszeit Pinochets aus. 1989 fanden die ersten freien Wahlen nach 15-jähriger Diktatur statt. Präsident wurde der Christdemokrat Patricio Aylwin. Bereits wenige Monate nach der Rückkehr zur Demokratie setzte der neugewählte Präsident Mitte 1990 eine Wahrheits- und Versöhnungskommission ein. Sie sollte die zwischen 1973 und 1989 begangenen politischen Morde und den Verbleib von Verschwundenen (Desaparecidos) aufklären. Neu und für spätere Wahrheitskommissionen in postdiktatorischen Demokratien des Ostblocks und Afrikas während der neunziger Jahre prägend war dabei, dass die chilenische Kommission „Wahrheit“ über Verbrechen während der Zeit der Diktatur als ihr Ziel definierte. Mithilfe einer „offiziellen Wahrheit“ sollte die Spaltung der chilenischen Gesellschaft in zwei Lager mit jeweils unterschiedlichen Deutungen der Geschichte überwunden werden. Aylwin setzte die neoliberale Wirtschaftspolitik Pinochets fort und bemühte sich, die verfeindeten politischen Lager zu versöhnen, um ein demokratisches Zusammenleben zu ermöglichen. Behutsam („Gerechtigkeit soweit es geht“) begann er mit der Aufarbeitung der Verbrechen der Militärdiktatur: Im November 1993 standen erstmals Offiziere wegen Menschenrechtsverletzungen vor Gericht. Viele Exilanten kehrten zurück in ihre Heimat. Von 1994 bis 2000 regierte der Christdemokrat Eduardo Frei Ruiz-Tagle. Pinochet trat 1998 als Heereschef ab, blieb aber Senator auf Lebenszeit und genoss daher Immunität. Im gleichen Jahr wurde er in Großbritannien aufgrund eines Haftbefehls des spanischen Richters Baltasar Garzón verhaftet, konnte aber 1999 aus gesundheitlichen Gründen nach Chile zurückkehren. 1998 wurde er von Gladys Marín vor dem chilenischen Richter Juan Guzmán Tapia angeklagt, 2002 jedoch wegen leichter Demenz als verhandlungsunfähig erklärt, worauf Pinochet auf sein Amt als Senator verzichtete. Weitere Versuche, ihn gerichtlich zu belangen, scheiterten. Er starb am 10. Dezember 2006, ohne je verurteilt worden zu sein. Im Jahr 2000 wurde der Sozialist Ricardo Lagos neuer chilenischer Präsident. Er bezwang in einer Stichwahl seinen konservativen Gegner Joaquín Lavín nur knapp. Mit Lagos zog nach Allende der zweite sozialistische Präsident in die Moneda ein. Lagos machte die Bekämpfung der Arbeitslosigkeit zum Ziel seiner Regierung. Sein Programm sah außerdem die Wiedereinführung der Tarifautonomie und die Einbindung des Armee-Budgets in den staatlichen Haushalt vor. Lagos verließ im Jahr 2006 das Amt mit einer wirtschaftlich und politisch positiven Bilanz. Als Nachfolgerin wurde die Sozialistin Michelle Bachelet zur ersten Präsidentin in der Geschichte des Landes gewählt. 2010 gewann Sebastián Piñera nach einer Stichwahl gegen seinen Konkurrenten Frei die Präsidentschaftswahl. Am 11. März 2011 war sein Amtsantritt. Piñera war der erste rechtsgerichtete Präsident nach fast 20 Jahren. Am 15. Dezember 2013 wurde in einem zweiten Wahlgang wieder die Sozialistin Michelle Bachelet zur Präsidentin gewählt. Bachelet setzte sich mit rund 62,2 Prozent der Stimmen gegen die konservative Herausforderin Evelyn Matthei durch. Die Wahlen Ende 2017 gewann wiederum Sebastián Piñera. Er trat seine zweite Präsidentschaft am 11. März 2018 an. Erarbeitung einer neuen Verfassung 2019–2022 siehe auch: Verfassunggebende Versammlung Chiles Ausgelöst durch eine Erhöhung der U-Bahn-Preise, kam es seit Mitte Oktober 2019 zu Protesten gegen die soziale Ungleichheit in Chile. Im Verlauf der Unruhen erklärte Piñera den Ausnahmezustand, setzte das Militär ein und rief den „Krieg gegen einen mächtigen, unversöhnlichen Feind“ aus, wie er die Aufständischen nannte. Wegen der anhaltenden Proteste sagte die Regierung die UN-Klimakonferenz ab, die geplant im Dezember 2019 in Santiago de Chile abgehalten werden sollte. Im Dezember 2019 wurde eine Volksabstimmung über eine neue Verfassung angekündigt. Ursprünglich für den 26. April 2020 geplant, wurde sie aufgrund der COVID-19-Pandemie auf den 25. Oktober selbigen Jahres verschoben. Eine große Mehrheit stimmte dafür, dass eine neue Verfassung erarbeitet werden solle (78 %). Dazu soll eine verfassunggebende Versammlung gewählt werden, deren Vertreter komplett direkt gewählt werden (79 %). In der am Wochenende vom 15. und 16. Mai 2021 stattgefundenen Wahl zur verfassungsgebenden Versammlung erlitt das Parteienbündnis Chile Vamos von Präsident Sebastián Piñera eine Niederlage. In der aus 155 Delegierten bestehenden Versammlung werden linke, neutrale und parteilich ungebundene Delegierte dominieren, während konservative und rechte Parteien nicht die notwendige Sperrminorität von einem Drittel der Sitze erreichten, um bestimmte Änderungen alleine blockieren zu können. Am 5. Juli 2021 tagte der Verfassungskonvent erstmals, bis im Februar 2022 lief die Frist zur Einreichung von Diskussionsvorschlägen für die Verfassungsreform. Im Juni wurde der 388 Artikel umfassende Verfassungsvorschlag von der Versammlung offiziell angenommen, und daraufhin am 4. Juli an Präsident Gabriel Boric übergeben. Am 4. September 2022 wurde dieser in einem Plebiszit mit 62 % deutlich abgelehnt. Präsidentschaftswahl 2021 Am 21. November 2021 fand der erste Wahlgang für die achte Präsidentschaftswahl in Chile (Transición) statt. Bei der Stichwahl am 19. Dezember 2021 wurde Gabriel Boric zum Präsidenten gewählt. Seine Amtszeit begann am 11. März 2022. Politik Verfassung Chile ist eine Präsidialrepublik. Die aktuelle Verfassung stammt von 1980 unter der Diktatur Augusto Pinochets und wurde am 16. August 2005 vom chilenischen Parlament modifiziert. Exekutive Der Präsident, nach US-amerikanischem Vorbild zugleich Regierungschef, wird für eine vier Jahre andauernde Amtszeit gewählt. Der Präsident kann zwar mehrere Amtszeiten absolvieren, jedoch nicht direkt hintereinander. Er ernennt die Minister (2005: 18 Minister) und Subsekretäre (Vergleichbar mit Staatssekretären; 2005: 30) sowie die Regional-Intendanten (einen für die Hauptstadtregion und je einen für die Regionen) und Provinzgouverneure (je Provinz einer). Er kann innerhalb eines durch die Verfassung festgelegten Rahmens Dekrete erlassen, die Gesetzeskraft haben. Zudem kann er die obersten Befehlshaber der Teilstreitkräfte ernennen. Legislative Die Legislative (Congreso Nacional) besteht aus zwei Kammern. Der erste chilenische Kongress wurde am 4. Juli 1811 durch Beschluss (1810) der Regierungs-Junta gebildet. Die Abgeordnetenkammer (Cámara de Diputados) besteht aus 120 durch direkte Wahl ermittelten Abgeordneten. Das ganze Land wird in 60 Wahlkreise eingeteilt, in denen alle vier Jahre jeweils zwei Abgeordnete gewählt werden. Das erstplatzierte Parteibündnis stellt jedoch beide Abgeordnete, wenn es doppelt so viele Stimmen wie das oppositionelle Wahlbündnis erreicht. Dieses binomiale Wahlsystem verhindert, dass kleinere Parteien ins Parlament gewählt werden. Der Senat (Senado) umfasst 43 Mitglieder. Aufgrund der Verfassungsreform, die am 16. August 2005 beschlossen wurde, werden seit dem 11. März 2006 alle Senatoren direkt von den Wahlbürgern gewählt. Die gewählten Senatoren stammen aus 19 Wahlbezirken. Jede der zwölf Regionen und die Hauptstadtregion besitzen mindestens einen Wahlbezirk. Die V., VII., VIII., IX. und X. Region sowie die Hauptstadtregion werden in jeweils zwei Wahlbezirke aufgeteilt. Alle vier Jahre wird jeweils die Hälfte der Senatoren für eine Amtszeit von acht Jahren gewählt. Erfolge bei der Einführung des Frauenwahlrechts gab es in Chile schon in den 1930er Jahren: Frauen über 21, die lesen und schreiben konnten, erhielten das Wahlrecht für Gemeinde- und Stadtratswahlen zu Beginn der 1930er Jahre. Eine Quelle nennt hierfür den 30. Mai 1931, eine andere 1934. Das uneingeschränkte aktive Wahlrecht wurde in dem Gesetz vom 15. Dezember 1948 festgeschrieben. Das passive Frauenwahlrecht gibt es bei Lokalwahlen seit 1931, auf nationaler Ebene erst seit 1949. Judikative Der Oberste Gerichtshof (Corte Suprema de Justicia) ist ein Kollegialgericht mit 21 Richtern. Es ist die höchste richterliche Gewalt in Chile. Die Richter werden von den Richtern des Obersten Gerichts vorgeschlagen und vom Präsidenten auf Lebenszeit ernannt. Unter dem Obersten Gerichtshof ist das Appellationsgericht angesiedelt. Zusätzlich gibt es 17 Berufungsgerichte in Chile. Durch eine Justizreform wurden die Aufgaben des Anklägers (Staatsanwalt) und des Richters getrennt. Im Zuge dieser Reform werden Gerichtsverfahren nun öffentlich und mündlich geführt, statt wie zuvor üblich schriftlich. Angeklagte mit geringem Einkommen können einen staatlichen Pflichtverteidiger in Anspruch nehmen. Für dieses neue Justizsystem mussten 300 neue Gerichtsgebäude in zahlreichen chilenischen Städten gebaut werden. Das Verfassungsgericht (Tribunal Constitucional) ist zuständig für die Kontrolle der vom Parlament erlassenen Gesetze auf Verfassungswidrigkeit. Politische Indizes Parteien Chile besitzt trotz präsidialer Verfassung eine für Lateinamerika ungewöhnlich starke parteiendemokratische Tradition. Parteien wurden bereits in der Endphase der Militärdiktatur ab 1987 wieder zugelassen. Das gegenwärtige Wahlrecht hat dazu geführt, dass sich alle Parteien zu Parteibündnissen zusammengeschlossen haben. Nach Beendigung der Diktatur (1973–1990) erreicht das Land beim Demokratieindex inzwischen eine der besten Platzierung in Lateinamerika. Die „Alianza por Chile“ war ein konservatives Bündnis, das aus der „Nationalen Erneuerungspartei“ (Renovación Nacional, RN) und der Rechtspartei „Unabhängige Demokratische Union“ (Unión Demócrata Independiente, UDI) bestand, die in der Transitionszeit beide für eine Verlängerung der von Augusto Pinochet begründeten autoritären Regierungsform eintraten. Zwischenzeitlich gehörten dem Bündnis auch einige andere rechtsliberale und konservative Parteien an. Das Bündnis ging siegreich aus den Präsidentschaftswahlen 2009 hervor und stellte mit Sebastián Piñera von 2010 bis 2013 den ersten konservativen Präsidenten Chiles nach dem Ende der Militärdiktatur. Unter seiner Präsidentschaft wurde es umbenannt in Coalición por el Cambio, später Alianza por el Cambio, und 2015 schließlich durch das neue Rechtsbündnis Chile Vamos ersetzt, das mit dem erneuten Wahlsieg und der zweiten Präsidentschaft Piñeras seit 2018 die Regierung führt. Die „Concertación de Partidos por la Democracia“ war ein Bündnis aus vier Mitte-Links-Parteien, die sich aktiv am Sturz der Militärdiktatur beteiligt hatten. Mitglieder waren die Parteien „Christlich-Demokratische Partei“ (Partido Demócrata Cristiano, PDC), „Radikale und Sozialdemokratische Partei“ (Partido Radical Social Demócrata, PRSD), „Partei für Demokratie“ (Partido por la Democracia, PPD) sowie „Sozialistische Partei“ (Partido Socialista, PS). Das Bündnis, das nach dem Rückzug der Militärs bis zum Amtsantritt Sebastián Piñeras im Frühjahr 2010 ununterbrochen die Regierung stellte, wurde nach der erneuten Wahl der Sozialistin Michelle Bachelet 2013 aufgelöst und durch das neue Linksbündnis Nueva Mayoría ersetzt. Das Linksbündnis Juntos Podemos Más („Gemeinsam können wir mehr“) umfasste die Christliche Linke, die Humanistische Partei, die Kommunistische Partei sowie einige andere linke und linksliberale Splitterparteien. 2010 konnte Juntos Podemos Más zwei kommunistische Abgeordnete ins Parlament senden. Die Mehrzahl der Mitgliedsparteien bildete anschließend zusammen mit den Parteien der Concertación das neue Bündnis der Nueva Mayoría. Seit dem 11. März 2022 stellt eine Koalition der Parteienbündnisse Apruebo Dignidad und Socialismo Democrático, sowie einigen Unabhängigen die Regierung unter Präsident Gabriel Boric. Streitkräfte und Polizei Die Streitkräfte Chiles () bestehen aus den Teilstreitkräften Heer, Marine, Luftwaffe und der nationalen Polizei (Carabineros de Chile). Im Jahre 2021 umfassten die Streitkräfte der Republik Chile insgesamt etwa 80.000 Soldaten. Chile gab 2019 knapp 1,8 Prozent seiner Wirtschaftsleistung oder 5,15 Mrd. US-Dollar für seine Streitkräfte aus. Außenpolitik Chile ist Mitglied der APEC und versucht momentan mit möglichst vielen Staaten Freihandelsabkommen zu schließen (zum Beispiel gibt es Abkommen mit den USA, der EU, Südkorea und China). Chile ist seit 1945 Mitglied der UN und seit 1948 Mitglied der OAS. In der UN spielt Chile seit 2004 eine wichtigere Rolle, da es sich zur Teilnahme an Friedensmissionen entschlossen hat. Heute stehen chilenische UN-Einheiten zum Beispiel in Haiti. Im Mai 2007 lud die OECD Chile zu Beitrittsgesprächen ein und der Beitritt wurde am 7. Mai 2010 vollzogen. Beziehungen innerhalb Südamerikas In Südamerika ist Chile assoziiertes Mitglied des Mercosur; diese Nichtvollmitgliedschaft erlaubt Chile, eigene Handelsabkommen zu schließen. Die Konzentration Chiles auf die großen Handelspartner USA, EU und Asien wird von den anderen Andenstaaten kritisch gesehen. Man befürchtet eine Vernachlässigung des lateinamerikanischen Marktes. Insbesondere die vielen Freihandelsabkommen Chiles, aber auch die niedrigen Einfuhrzölle Chiles machen eine engere Bindung an Mercosur schwer. Chile hat seit 1988 eine Reihe von Konfliktherden mit Argentinien und Peru abgebaut. Dies betrifft den Beagle-Kanal und die Grenzziehung am Fitz-Roy-Massiv. Seitdem der peruanische Kongress im Oktober 2005 maritime Gebiete Chiles in Frage stellt, sind allerdings wieder starke Spannungen im Verhältnis beider Länder vorhanden. Die Beziehungen zu Bolivien sind weiterhin stark gestört, da der Wunsch Boliviens nach einem Meerzugang bisher ungelöst ist sowie ein Konflikt um Wasserrechte am Río Lauca besteht. Eine geplante Erdgas-Pipeline von Bolivien zu chilenischen Häfen, um Flüssigerdgas in die Vereinigten Staaten zu exportieren, wurde durch den starken Widerstand in der bolivianischen Bevölkerung nicht gebaut. Im Zuge der geglückten Rettung von Bergleuten nach dem Grubenunglück von San José trafen sich im Oktober 2010 die Präsidenten beider Länder am Unglücksort. Boliviens Präsident Morales dankte den Chilenen für die Rettung eines Bolivianers, der zu den verschütteten Kumpeln gehörte. Die Präsidenten vereinbarten erstmals seit Jahrzehnten den gegenseitigen Austausch von Botschaftern. Chile war bis zur Fertigstellung der LNG-Terminal von Quintero stark von Erdgaslieferungen aus Argentinien abhängig. Die Drosselung der Lieferungen von Seiten Argentiniens zwang Chile zum verstärkten Nachdenken über alternative Energien. Das Erdgas-Lieferabkommen zwischen Bolivien und Argentinien verbietet den Argentiniern den Export von bolivianischem Erdgas nach Chile. Beziehungen zu den USA Die Militärdiktatur unter Augusto Pinochet hatte stets enge Beziehungen zu den USA, die den Sturz der demokratisch gewählten Linksregierung unter Salvador Allende 1973 aktiv gefördert hatten. Auch nach dem Ende der Diktatur bestehen gute Beziehungen zwischen beiden Ländern. Allerdings lehnte die chilenische Regierung ein Eingreifen im Irakkrieg ab. Chile konnte am Ende langer Verhandlungen mit der Stimme der USA den Posten des Generalsekretärs der OAS mit José Miguel Insulza einnehmen. Die USA sind der wichtigste Handelspartner für Chile, beide Länder haben 2004 ein Freihandelsabkommen geschlossen. Allerdings sinkt der Anteil des US-Handels zugunsten der EU und Asiens. Chile hat 2002 moderne Kampfflugzeuge von Typ F-16 in den USA bestellt. Beziehungen zur EU Die Europäische Union ist neben den USA ein sehr wichtiger Handelspartner. 2005 trat ein Assoziierungsabkommen zwischen der EU und Chile sowie ein Abkommen über die technisch-wissenschaftliche Zusammenarbeit in Kraft. Besondere Beziehung zu Deutschland Es bestehen enge Verbindungen zwischen beiden Ländern, die Schwerpunkte liegen in der Politik, Wirtschaft und besonders in der Wissenschaft. Viele Chilenen pflegen einen besonderen Bezug zu Deutschland, was zum Teil auf historische Bindungen unter Deutschchilenen, zum Teil auf Exilerfahrungen während der Diktatur zurückzuführen ist. Zur Zeit der Herrschaft von Augusto Pinochet flohen Regimegegner häufig in die DDR ins Exil. Auch die ehemalige Präsidentin des Landes, Michelle Bachelet, verbrachte einige Jahre im ostdeutschen Exil, lernte Deutsch an der Universität Leipzig und studierte Medizin an der Humboldt-Universität Berlin. Auch in der Vorgängerregierung unter Präsident Sebastián Piñera gab es mehrere Minister, die deutsche Schulen besucht oder in Deutschland studiert haben. Hinzu kommt, dass in der Zeit zwischen dem Salpeterkrieg und dem Ersten Weltkrieg deutsche Ausbilder die Streitkräfte Chiles formten, die bis heute stark von preußisch-deutschen Traditionen geprägt sind, was sich etwa in der Uniformierung und im militärischen Liedgut äußert. Bildung und Forschung Seit 2002, als der damalige Präsident Ricardo Lagos eine Reform des Ausbildungssystems auf den Weg brachte, gibt es eine Schulpflicht. Diese ist auf zwölf Jahre begrenzt. Die Schulen unterstehen dem Erziehungsministerium. Es herrscht Lehrmittelfreiheit. Die Alphabetisierung liegt bei 97,3 %, dies ist für Südamerika sehr hoch. Im Jahr 2006 hat Chile erstmals an der PISA-Studie der OECD teilgenommen. Im PISA-Ranking von 2015 erreichen die Schüler des Landes Platz 49 von 72 Ländern in Mathematik, Platz 45 in Naturwissenschaften und Platz 42 beim Leseverständnis. Chile erreichte damit innerhalb Lateinamerikas die zweitbeste Platzierung, liegt jedoch unterhalb des OECD-Durchschnitts. Chile führte in den 1990er-Jahren das Programm „PRADJAL“ (Programa Regional de Acciones para el Desarrollo de la Juventud en América Latina) sowie das Ausbildungsprogramm „Chile Joven“ ein. Ziel der Programme ist die Senkung der Jugendarbeitslosigkeit durch eine staatlich finanzierte Berufsausbildung mit anschließendem Betriebspraktikum. Außerdem werden Kurse für jugendliche Unternehmensgründer angeboten. Damit soll auch die Jugendkriminalität und der Drogenkonsum indirekt bekämpft werden. Die wichtigsten Universitäten wie die Pontificia Universidad Católica de Chile liegen in Santiago de Chile, Concepción und Valparaíso. Allerdings ist der Zugang zu den Universitäten aufgrund hoher Studiengebühren trotz Stipendienprogrammen für die ärmeren Schichten nur schwer möglich. Das Niveau der Universitäten streut durch viele private Einrichtungen stark, da sich auch die Berufsakademien Universität nennen dürfen. In letzter Zeit formieren sich in Chile Studentenproteste, die u. a. von Camila Vallejo angeführt worden sind. Unter anderem werden bessere Kreditbedingungen verlangt, damit auch Jugendliche aus unteren, ärmeren Schichten Zugang zu Bildung haben. Aufgrund ihrer klimatischen Eigenschaften und ihrer guten infrastrukturellen Erschließung sind die Wüsten Chiles beliebte Orte für Teleskope. Allein die Europäische Südsternwarte (ESO) hat drei Standorte in Chile mit Großteleskopen: La Silla, Paranal und Alma. Daneben gibt es weitere Observatorien in Chile, beispielsweise Cerro Pachon mit dem 8,1-Meter-Gemini-Süd-Teleskop oder das Las Campanas mit den zwei 6,5-Meter-Magallan-Teleskopen. Seit den frühen 1990er-Jahren arbeitet in Chile das Paranal-Observatorium. Das Observatorium befindet sich in der Atacamawüste im Norden des Landes auf dem Berg Cerro Paranal. Dieser liegt etwa 120 Kilometer südlich von Antofagasta und 12 Kilometer von der Pazifikküste entfernt. Das Observatorium wird von der ESO betrieben und ist Standort des Very Large Telescope (VLT) und des Very Large Telescope Interferometer (VLTI). Zusätzlich werden die Surveyteleskope VISTA und VST gebaut. Die Atmosphäre über dem Gipfel zeichnet sich durch trockene und außergewöhnlich ruhige Luftströmung aus, was den Berg zu einem sehr attraktiven Standort für ein astronomisches Observatorium macht. Der Gipfel wurde in den frühen 1990er-Jahren von seiner ursprünglichen Höhe von 2660 Metern auf 2635 Meter heruntergesprengt, um ein Plateau für das VLT zu schaffen. Menschenrechte Amnesty International weist darauf hin, dass es im Zusammenhang mit Landstreitigkeiten immer wieder zu Menschenrechtsverletzungen an Angehörigen der indigenen Gruppe der Mapuche kommt. Diese geraten nach Informationen von Amnesty International oft in Konflikte bei der Verteidigung ihrer wirtschaftlichen, sozialen und kulturellen Rechte gegenüber Forst- und Energieunternehmen, die in ihren traditionellen Siedlungsgebieten tätig sind. Im Jahr 2006 kam es zu Ausschreitungen der Polizei gegen Angehörige der Mapuche. Festgenommene gaben damals an, gefoltert worden zu sein. Chile erfüllt bis heute nicht alle Verpflichtungen, die es mit Unterzeichnung der UN-Antifolter-Konvention eingegangen ist. Besonders gravierend ist die Situation in den oft überfüllten Gefängnissen, die nicht internationalen Standards gerecht wird. Nach einer Reihe von Ereignissen kam es am 8. Dezember 2010 in der Haftanstalt San Miguel bei Santiago zu einem Aufstand und ein Feuer brach aus. In San Miguel waren zu diesem Zeitpunkt 1900 Menschen inhaftiert – ausgelegt ist das Gefängnis für 1000. In der Haftanstalt Santiago Sur mussten sich 400 Häftlinge die für 76 Insassen vorgesehenen Räumlichkeiten teilen. Die medizinische Versorgung und sanitäre Grundausstattung in den Gefängnissen sind nicht ausreichend. Eine Trennung minderjähriger Gefangener von Erwachsenen ist nicht sichergestellt. Eine Untersuchungskommission der Vereinten Nationen kam 2018 zu dem Ergebnis, dass in den Kinder- und Jugendheimen des Landes die Menschenrechte der Kinder systematisch verletzt werden. Mehr als 865 Minderjährige sind zwischen 2005 und 2016 unter staatlicher Obhut gestorben. Die Interamerikanische Kommission für Menschenrechte sowie das UN-Hochkommissariat für Menschenrechte warfen in jeweils eigenen Berichten Chile vor, im Verlauf der Proteste in Chile 2019/2020 schwere Menschenrechtsverletzungen der Strafverfolgungs- und Justizvollzugsbehörden toleriert zu haben. Abtreibungsverbot Mit Inkrafttreten des ersten Chilenischen Strafgesetzbuches im Jahr 1875, das in diesem Punkt dem Vorbild des spanischen Strafgesetzbuches von 1870 folgte, waren Abtreibungen in Chile strafbar. Strafmilderungen waren möglich, wenn die Betroffene die Abtreibung zum Zwecke der Verheimlichung eines Ehebruchs, mithin zum Schutz der Ehre (ihrer eigenen Person oder des Mannes) vorgenommen hatte. Unter dem autoritären Militärregime von Oberst Carlos Ibáñez, der bürgerlich-liberalen Ehrbegriffen kritisch gegenüberstand und gesellschaftspolitisch eine linkspopulistische Linie verfolgte, wurde der Schwangerschaftsabbruch 1931 in Fällen der kriminologischen, medizinischen und eugenischen Indikation (d. h. nach Vergewaltigung, bei Gefahr für das Leben der Mutter und wenn der Fötus nicht überlebensfähig ist) erlaubt. Diese Indikationsregelung wird in der chilenischen Rechtsterminologie und politischen Debatte „therapeutischer Abort“ genannt. 1968 wurde die Anwendung der „therapeutischen“ Indikationen unter dem christdemokratischen Präsidenten Eduardo Frei Montalva nochmals erleichtert. Die Indikationsregelung bestand formell auch während der Militärdiktatur Augusto Pinochets fort, dessen Regierung sich erfolglos bemühte, ein absolutes Abtreibungsverbot in der Chilenischen Verfassung von 1980 zu verankern. Stattdessen wurde der Schutz des ungeborenen Lebens nur mit einer unbestimmten Formulierung in die von den Militärmachthabern erarbeitete Verfassung aufgenommen. Gesetzlich umgesetzt wurde das absolute Abtreibungsverbot erst im Zuge der politischen Neuordnung und schrittweisen Entmachtung Pinochets gegen Ende der 1980er Jahre mit Unterstützung der römisch-katholischen Kirche und scheidender Mitglieder der ehemaligen Militärjunta. Mit dem 1990 in Kraft getretenen Abtreibungsgesetz vom 15. September 1989, das auf Druck des damaligen Juntachefs Admiral José Toribio Merino und unter Mitwirkung des damaligen Bischofs von Rancagua und späteren Kardinals Jorge Medina zustande kam, wurde Chile zu einem der wenigen Länder der Welt, in denen Schwangerschaftsabbrüche auch in allen denkbaren Ausnahmekonstellationen und sogar in Abwägung gegen das Leben der Mutter komplett verboten waren. Die kontroverse Diskussion über eine Lockerung des absoluten Abtreibungsverbots zumindest in medizinisch und ethisch indizierten Ausnahmefällen begann schon unmittelbar nach Inkrafttreten des Verbots und dauert bis heute an. In der zweiten Amtszeit von Michelle Bachelet, zu deren Wahlprogramm die Aufhebung des Abtreibungsverbots gehörte, begann ein Gesetzgebungsprozess, der 2016 zum Abschluss gelangte. Am 21. August 2017 hob der chilenische Oberste Gerichtshof das generelle Abtreibungsverbot in Chile auf und machte den Weg für das von Staatspräsidentin Bachelet und der Mehrheit der Bevölkerung unterstützte und vom Parlament bereits verabschiedete Gesetz frei, das die Abtreibung in den drei „therapeutischen“ Ausnahmetatbeständen (nach Vergewaltigung, bei Gefahr für das Leben der Mutter und wenn der Fötus nicht überlebensfähig ist) wieder erlaubt. Laut UN-Schätzungen werden in Chile jährlich zwischen 60.000 und 70.000 illegale Abtreibungen vorgenommen. Am 27. September 2021 stimmte das Abgeordnetenhaus für die Einführung einer Fristenregelung. Am 30. November 2021 scheiterte die Fristenregelung im Senat. Sozialversicherungssystem Das Gesundheitssystem wurde in den 1970er und 1980er Jahren stark privatisiert. Chilenische Arbeitnehmer müssen sich privat krankenversichern. Den ärmeren Bevölkerungsschichten steht für bestimmte Krankheiten eine kostenlose Behandlung in staatlichen Gesundheitszentren zu. Rund 80 Prozent der Bevölkerung nutzen das staatliche Gesundheitssystem und 20 Prozent lassen sich privat behandeln. Michelle Bachelet, die bereits unter Ricardo Lagos für das Ressort Gesundheit zuständig gewesen war, brachte nach ihrem Amtsantritt als Präsidentin einige Reformen auf den Weg, die unter anderem eine kostenlose Gesundheitsversorgung für ältere Menschen vorsehen. Außerdem wurden Anstrengungen unternommen, die medizinische Infrastruktur, in der teils deutliche Unterschiede bestehen, weiter zu verbessern. Die durchschnittliche Lebenserwartung der Chileninnen beträgt 79 Jahre und der Chilenen 72 Jahre (Stand: 2003). 1981 wurde das Rentenversicherungssystem unter José Piñera, einem Minister im Kabinett des Diktators Augusto Pinochet, vom Umlageverfahren auf das Kapitaldeckungsverfahren umgestellt. Die Arbeitnehmer müssen seitdem 13 Prozent ihres Gehalts als Beiträge für private Rentenfonds abführen. Außerdem werden 7 Prozent ihres Einkommens für eine private Krankenversicherung abgezogen, sodass die Sozialbeiträge im neuen System ein Fünftel eines Gehalts ausmachen. Nur das chilenische Militär wurde von Piñeras Reform ausgenommen; Soldaten haben bis heute Anspruch auf großzügige Pensionsleistungen vom Staat. Das neue Rentensystem wurde später von der Weltbank trotz interner Kritik als vorbildhaft angepriesen und verbreitete sich seit den frühen 1990er Jahren in verschiedenen Varianten in Lateinamerika, wobei die meisten Staaten wie etwa Argentinien ein gemischtes Modell mit teils privatem, teils staatlichem Gesundheitssystem einführten. Besonders das argentinische Modell wurde später von weiteren Ländern übernommen, besonders in Osteuropa. Unter der Regierung Bachelet wurde das Rentensystem im Jahr 2008, auch auf Empfehlung der Weltbank, erneut reformiert. Staatshaushalt Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 55,74 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 49,52 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,5 % des BIP. Die Staatsverschuldung betrug 2016 21,1 % des BIP. Von der Ratingagentur Standard & Poor’s werden die Staatsanleihen des Landes mit der Note A+ bewertet (Stand 2018). Chile hat damit die höchste Kreditwürdigkeit unter allen Ländern Südamerikas. 2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche: Gesundheit: 5,3 % Bildung: 3,2 % Militär: 2,7 % Verwaltungsgliederung Chile ist in 16 Verwaltungsregionen aufgeteilt. Diese waren von 1978 bis 2018 mit römischen Zahlen durchnummeriert. Die Regionen spielen politisch nur eine geringe Rolle, da Chile ein ausgeprägter Zentralstaat ist. Die Regionen sind in 56 Provinzen unterteilt. Regionen Unterhalb der Provinzebene befinden sich die 346 Gemeinden (municipalidad oder comuna). Diese sind gemäß Artikel 61 der Verfassung die Organe der lokalen Selbstverwaltung. Sie werden von einem Bürgermeister (alcalde) und einem Stadtrat geleitet. Infrastruktur Straßennetz Siehe auch: Nationalstraßen in Chile Der Straßenverkehr hat sich in Chile zum wichtigsten Verkehrsträger entwickelt. Im Jahr 2005 besaß das Land ein Straßen- und Wegenetz von insgesamt 80.651 Kilometern, davon waren 16.967 Kilometer asphaltiert. Bedingt durch die gerade in den letzten Jahren intensiv betriebenen Ausbaumaßnahmen sind diese Zahlen allerdings heute obsolet. Die wichtigste und mittlerweile von La Serena bis Puerto Montt als Autobahn ausgebaute Transportachse ist die etwa 3000 Kilometer lange Ruta 5 – ein Bestandteil der Panamericana. Sie verläuft in Nord-Süd-Richtung von der Grenzstadt Arica bis nach Quellón im Süden. Im Jahre 1976 begann der Bau der Carretera Austral, ein ehrgeiziges Straßenbau-Projekt unter Diktator Augusto Pinochet, um die Regionen von Puerto Montt bis Feuerland zu verbinden. Die Straße ist bis heute im Bau – eine durchgehende Straßenverbindung zwischen Puerto Montt und Coyhaique bzw. zwischen Coyhaique und Punta Arenas existiert nach wie vor nur über das Nachbarland Argentinien. Gut ausgebaut sind insbesondere die Panamericana und andere mautpflichtige Straßen vor allem im Großraum Santiago, in dem in den letzten Jahren viele neue Stadtautobahnen wie zum Beispiel die Américo Vespucio oder Costanera Norte entstanden sind; ferner eine Jahr für Jahr zunehmende Zahl von Hauptverbindungsstrecken. Viele Nebenstrecken, insbesondere in den abgelegeneren Teilen des Landes, bestehen jedoch nach wie vor lediglich aus unbefestigten Schotter- oder Erdpisten. Das Landstraßennetz wurde besonders in den mittleren Landesteilen seit dem Jahr 2005 sehr stark modernisiert und verbessert, wobei kontinuierlich bislang einfach ausgebaute Strecken zu mehrspurigen Fernstraßen ausgebaut werden. Straßenkarten sind im Buchhandel, bei Mietwagenstationen, Hotels oder an Tankstellen nicht zu bekommen und müssen im Voraus bei der Reiseplanung besorgt werden. Nah- und Fernverkehr mit Bussen und Taxen ÖPNV-Busse in der Hauptstadt Im Großraum Santiago wird der öffentliche Personennahverkehr (Transantiago) von privaten Firmen betrieben, jedoch unter starker staatlicher Kontrolle. Mit dem vor einigen Jahren umgestellten System gibt es nun feste Haltestellen, an denen die Busfahrer verpflichtet sind, zu halten. Im Gegensatz zum deutschen System gibt es allerdings keine genauen zeitlichen Fahrpläne, sondern Taktzahlen, die von den Verkehrsverhältnissen abhängig sind. In Santiago wird in Bussen wegen der Diebstahlsgefahr vielfach mit Prepaid-Karten anstelle von Bargeld bezahlt. In den Provinzen Das Nahverkehrsbusnetz in den Provinzen ist vollkommen in privater Hand und recht unübersichtlich. Bei den städtischen Omnibussen (Micro) sollte vorher der Streckenverlauf bekannt sein, denn an dem Großteil der Bushaltestellen gibt es keine Informationen über die Buslinien. Man erhält solche unter Umständen am lokalen Busbahnhof, wo auch die Fernbusse abfahren, oder in den Touristeninformationszentren an zentralen Plätzen. Auch Passanten und Fahrer sind häufig hilfsbereit und auskunftsfreudig, oft aber auch wenig informiert. Mitfahrinteressenten signalisieren dem ankommenden Busfahrer ihren Zusteigewunsch durch Handzeichen am Fahrbahnrand. Für aussteigewillige Fahrgäste gibt es einen Haltewunschknopf oder man meldet sich bei den Schaffnern oder Schaffnerinnen, die durch den Wagen gehen und die Fahrkarten verkaufen und kontrollieren. Die Busse sind wie Reisebusse bestuhlt (Pullmanbänke), Stadtbusse europäischen Typs gibt es kaum. Oft werden Kleinreisebusse für 18 oder 36 Personen als Micro genutzt. Sammeltaxen Eine wichtige Rolle für den lokalen Personennahverkehr spielen Sammeltaxen (Colectivos), die auf festen Routen verkehren und Fahrgäste an beliebigen Stellen auf der Strecke aufnehmen und absetzen. Im Ortszentrum gibt es normalerweise einen oder mehrere Knotenpunkte, an denen Sammeltaxen aller Linien ständig vorfahren und wo man die Fahrtrouten erfragen und in den passenden Wagen einsteigen kann. Bei den Sammeltaxen handelt es sich um gewöhnliche Personenkraftwagen (nicht wie in anderen Ländern um Kleinbusse), die sich farblich nicht von normalen Taxen unterscheiden, sondern nur durch Kennzeichen (etwa die Liniennummer auf dem Dach) erkennbar sind. Der Fahrpreis (in der Regel ein Pauschalpreis unabhängig von Mitfahrstrecke oder Fahrziel) wird beim Einsteigen oder kurz nach Fahrtbeginn an den Fahrer gezahlt, der so lange weitere Personen zusteigen lässt, bis der Wagen voll besetzt ist. Gepäck (etwa Einkaufstaschen) kann man wie bei einem Taxi auch im Kofferraum ablegen, soweit dort noch Platz ist. Die Endpunkte der Linien, an denen der Fahrer wendet und wieder zurück ins Stadtzentrum fährt, liegen meist an markanten Punkten in den Vororten oder Wohngebieten. Taxen Auch der gewöhnliche Taxiverkehr ist von Bedeutung, das gilt besonders für die Hauptstadt und größere Metropolen. Die Fahrpreise sind relativ erschwinglich. Traditionell sind die Taxen durch ihre Farbgebung im Straßenbild erkennbar und können überall angehalten oder angerufen werden. Besonders in der Hauptstadt gibt es aber auch immer mehr Funktaxen, die sich nach außen hin nur durch ihre Nummernschilder von privaten Pkw unterscheiden und ihre Fahrgäste nur auf telefonische Bestellung abholen. Da auch illegale Taxiunternehmer mit solchen Privatfahrten Geld zu verdienen suchen und teils mit kriminellen Netzwerken kooperieren, wird vor allem in Santiago strikt davon abgeraten, ohne telefonische Vorbestellung auf freier Strecke in solche nicht klar gekennzeichneten Taxen einzusteigen, auch wenn der Fahrer dazu einlädt und mit besonders günstigen Preisen wirbt. Ansonsten lassen sich die öffentlichen Verkehrsmittel in Chile bei Beachtung gängiger Sicherheitsempfehlungen in der Regel gefahrlos nutzen. Uber-Fahrer arbeiten in Chile in einer rechtlichen Grauzone und werden sowohl von den Behörden als auch von konkurrierenden Taxiunternehmern bekämpft. Fernbusverkehr Die gängigste Art, um mit öffentlichen Verkehrsmitteln in andere Städte und Regionen zu gelangen, ist die Tag- und Nachtreise mit dem Überlandbus. Es gibt verschiedene Anbieter, teils mit regionalen Schwerpunkten, und verschiedene Preis- und Komfortklassen. Diese Klassen gehen von Standardsitzen bis hin zu Liegebussen (Bus Cama), die für Übernachtreisen ausgelegt und mit höhenverstellbaren Sitzliegen in der Art eines Business-Class-Flugzeuges ausgestattet sind. Die Fahrzeugflotten vieler Unternehmen sind hochmodern, ältere Fahrzeuge finden sich nur noch bei Kleinunternehmen oder Billiganbietern. Die meisten größeren Gesellschaften bieten ein landesweites Routennetz an oder kooperieren mit Partnerfirmen in den von ihnen selbst nicht versorgten Regionen. Seit 2008 sind die Busunternehmer dazu übergegangen, alle Busse mit LED-Geschwindigkeitsanzeigern zu versehen, die von außen und von innen ständig sichtbar sind, um die Einhaltung der Geschwindigkeitsbegrenzungen nachvollziehbar zu dokumentieren. Die Fahrer sind immer in Doppelbesetzung unterwegs, oft fährt zusätzlich ein uniformierter Gepäckbursche mit, der auch die Fahrscheine kontrolliert. Alle Städte, auch Kleinstädte, verfügen über einen Busbahnhof (terminal de buses) mit Schalterhalle, Ladenstraße, Gastronomiebetrieben, marktähnlichen Vorhallen und zum Teil überdachten Bussteigen. Die Reisen dauern oft sehr lange, Pausen werden in der Regel bis auf die fahrplanmäßigen Zwischenhalte nicht gemacht. Getränke und Speisen kann man an Bord mitbringen oder erwerben, häufig steigen streckenweise lokale Händler zu oder bieten ihre Waren an den Stationen feil. Der Ticketverkauf an den Schaltern und über das Internet funktioniert reibungslos; Fahrpläne werden in aller Regel zuverlässig eingehalten, bei Verspätungen werden Ersatzbusse eingesetzt. Eisenbahn Die älteste Eisenbahn Chiles, die auch als erste des südamerikanischen Festlandes angesehen wird, ist die im Mai 1850 begonnene und am 2. Januar 1852 fertiggestellte Bahn vom Hafen Caldera nach Copiapó. Die erste Strecke der Staatsbahnen von Valparaíso nach Santiago de Chile wurde am 15. September 1865 in Betrieb genommen. Mit dem Salpeterboom wurde das Schienennetz in Nordchile, damals noch Teil Perus und Boliviens, ab 1871 stark ausgebaut. Eine der ersten Strecken führte von La Noria nach Iquique. Die Strecken wurden direkt an den Salpeterminen verlegt, so dass Ende des 19. Jahrhunderts große Teile der Regionen Tarapacá, Antofagasta und Atacama eisenbahntechnisch erschlossen waren. Parallel dazu erfolgte der Ausbau der Strecken zu den großen Hafenstädten in Zentralchile, wie San Antonio und Talcahuano. Das Eisenbahnnetz von Chile hatte 1909 einen Umfang von 5675 km, davon 2618 km Staatsbahnen und 3057 km Privatbahnen, im Bau befindlich waren weitere 1393 km Staatsbahnen. Auch mehrere Privatbahnen waren im Bau und in Vorbereitung. Heute wird das chilenische Schienennetz von der staatlichen Eisenbahngesellschaft EFE betrieben. Zudem betreibt eine Tochtergesellschaft der staatlichen Eisenbahngesellschaft das S-Bahn-Netz in Valparaíso. Der Güter- und Personenverkehr, das Immobilienvermögen und der Personalbestand werden von verschiedenen Tochtergesellschaften verwaltet. Das Eisenbahnnetz kann aufgrund unterschiedlicher Spurweiten nicht durchgehend betrieben werden und besteht deshalb aus zwei verschiedenen Teilnetzen: Südlich von Santiago besteht ein 3743 Kilometer langes Breitspurnetz (Spurweite 1676 Millimeter), von denen 1653 Kilometer elektrisch betrieben werden. Zwischen Santiago und Chillán wird das Eisenbahnnetz auch für den Personenverkehr benutzt. Nördlich von Santiago besteht ein 2923 Kilometer langes Meterspurnetz, von denen 40 km elektrisch betrieben werden. Auf diesem Meterspurnetz findet kein Personenverkehr statt. Der Eisenbahnpersonenverkehr ist seit vielen Jahrzehnten im Rückgang begriffen und wird kaum genutzt, was durch die starke Konkurrenz der Busunternehmen, die schlechte Qualität der Waggons und die wenigen bedienten Strecken begründet ist. Es gibt Bestrebungen, wieder mehr Personen per Schiene zu befördern. So wurde in modernere Waggons und Triebwagen investiert, Bahnhöfe renoviert oder neu errichtet (Puerto Montt hat 2006 einen neuen Hauptbahnhof am Stadtrand erhalten) sowie die Strecke zwischen Temuco und Puerto Montt wieder hergerichtet. Allerdings konnte die Eisenbahngesellschaft EFE ihre hochgesteckten Ziele nicht erfüllen und hat mit erheblichen technischen und organisatorischen Problemen zu kämpfen. Ebenso sind die Pläne auf Eis gelegt, Valdivia wieder an das Streckennetz anzubinden. Nahverkehrszüge, Stadtbahnen und Metro In der Hauptstadt Santiago de Chile existiert ein U-Bahn-Netz (Metro de Santiago), dessen erste Teilstrecke 1975 eröffnet wurde. Nach zahlreichen Streckeneröffnungen und -verlängerungen umfasste das U-Bahn-Netz Anfang 2019 136 Stationen und hatte eine Länge von mehr als 140 km erreicht. In der Agglomeration von Valparaiso ist seit 2005 eine Stadtbahn in Betrieb, und im Großraum Concepción verkehrt seit 1999 der so genannte Biotrén. Häfen Ein Großteil des Im-/Exports Chiles wird über große Seehäfen abgewickelt. Die Hauptausfuhrgüter sind Kupfer, Eisen, Zellstoff, sowie landwirtschaftliche Erzeugnisse. Viele Häfen verfügen über moderne Containerterminals. Wichtige Häfen gibt es in Arica, Iquique, Antofagasta, Chañaral, Coquimbo, Valparaíso, San Antonio, Talcahuano, Puerto Montt und Punta Arenas. Besonders in Südchile spielen Fährverbindungen eine wichtige Rolle, da hier die Straßenverbindungen aufgrund von vielen Fjorden und Inseln schlecht realisierbar sind. Wichtigste Stützpunkte der chilenischen Marine sind Valparaíso und Talcahuano. Vor dem Bau des Panama-Kanals waren Valparaíso und Punta Arenas die wichtigsten Häfen sowohl für den Pazifikhandel als auch über die Magellanstraße und den dadurch ermöglichten direkten Zugang zum Atlantik nach Europa. 1840 errichtete die Pacific Steam Navigation Company die erste Dampfschifffahrtslinie in Südamerika von Valparaíso nach Callao in Peru. Flughäfen/Luftfahrt Aufgrund der großen Entfernungen spielt der Flugverkehr eine wichtige Rolle. Die größten Flughäfen besitzen Santiago de Chile, Puerto Montt, Concepción, Temuco, Iquique, Antofagasta und Punta Arenas. Der größte Flughafen ist der Comodoro Arturo Merino Benítez Airport (5.650.000 Passagiere) in Santiago, der um ein großes internationales Terminal erweitert wird und bis 2020 eine Passagierkapazität von mehr als 30 Mio. Personen jährlich erreichen soll. Über das ganze Land sind zusätzlich viele kleine Regionalflughäfen verteilt, die untereinander durch die zwei wichtigsten chilenischen Luftverkehrsgesellschaften LATAM Airlines und Sky Airline verbunden werden. Von einigen Regionalflughäfen werden auch direkte Verbindungen in die Nachbarländer angeboten. Die zu Chile gehörende Osterinsel wird von Santiago de Chile und Lima in Peru angeflogen. Der erste Motorflug in Chile fand am 21. August 1910 statt, der Pilot hieß César Copetta Brosio. Bekannt wurden insbesondere Dagoberto Godoy, der 1918 als erster die Anden überflog und José Luis Sánchez Besa, ein chilenischer Flugbootpionier. Der Beginn der Flugpostbeförderung wurde ab 1. Januar 1919 von Santiago de Chile nach Valparaíso vom Piloten Clodomiro Figueroa mit einer Morane-Saulnier MS-35 durchgeführt. 1929 gründete Kommodore Arturo Merino Benítez mehrere lokale Fluggesellschaften, diese formierten sich ab 1932 zur Línea Aérea Nacional (LAN), die als nationale Airline Chiles fungierte. Diese wurde 1989 privatisiert und ging 2012 in der chilenisch-brasilianischen Fluggesellschaft LATAM Airlines auf. LAN beziehungsweise heute LATAM gehört infolge der expansiven Geschäftspolitik zu den drei größten Airlines Lateinamerikas, mit Filialen in Peru (LATAM Airlines Perú), Argentinien (LATAM Airlines Argentina) und Ecuador (LATAM Airlines Ecuador). Die zweite chilenische Fluggesellschaft Ladeco wurde Anfang der 1990er-Jahre von LAN aufgekauft. Postwesen Das Postwesen wurde bereits 1748 von den Spaniern eingeführt, ab 1853 gab es chilenische Briefmarken (Siehe: Chilenische Postgeschichte). Telekommunikation Im Jahre 1851 erhielt der Engländer William Wheelwright von der Pacific Steam Navigation Company den Auftrag eine Telegrafenlinie zu errichten. Nach ersten Tests konnte am 21. Juni 1852 die erste Nachricht von Valparaíso nach Santiago geschickt werden. Im April 1853 begann der reguläre Betrieb. Danach begann man mit dem Ausbau der Telegrafenstrecken entlang der Eisenbahnlinien. Die ersten Strecken von Santiago führten nach Valparaíso und Talca und wurden 1857 komplett fertig gestellt. Bis 1892 konnte das ganze Land mit Telegraphen erreicht werden. Feuerland war über ein Seekabel angebunden worden. Die ersten Telefone wurden 1880 in Valparaíso eingeführt. 1930 bildete sich die Telefongesellschaft Compañía de Teléfonos de Chile CTC, die später von der spanischen Telefónica übernommen wurde. Der Radiobetrieb begann mit Radio Chileña in Santiago 1922. Der zweite große Telekommunikationskonzern in Chile ist ENTEL (Empresa Nacional de Telecomunicaciones SA de Chile), der größte Anbieter von Internet- und Mobilfunkdiensten in Chile. ENTEL, Telefonica und weitere zum Teil lokale Anbieter betreiben heute ein nahezu flächendeckendes Netz für die Mobiltelefonie. Im Jahr 2020 nutzten 88,3 Prozent der Einwohner Chiles das Internet. Wirtschaft Als Gegenpol zum sozialistischen Konzept von Salvador Allende wurde die chilenische Volkswirtschaft unter Augusto Pinochet nach der Maxime der Chicago Boys konsequent nach marktwirtschaftlich-wirtschaftsliberalen Aspekten umgebaut. Staatliche Unternehmen wurden sowohl zu Zeiten Pinochets als auch danach größtenteils privatisiert, allerdings sind die von Allende verstaatlichten Kupferminen, die seit Pinochet unter direkter Kontrolle des Militärs standen, immer noch in Staatsbesitz. Auch wenn die nach Pinochet regierenden Mitte-links-Regierungen bemüht waren, soziale Härten abzufedern, gilt Chile heute nach wie vor als eines der Länder mit den größten sozialen Ungleichgewichten. Die chilenische Volkswirtschaft wies zwischen 1988 und 1998 überdurchschnittliche Wachstumsraten auf. Die Asien- und Brasilienkrise 1997/98 führten zwar zu einer Rezession, seit 2000 wächst die Wirtschaft jedoch wieder mit Wachstumsraten zwischen 2,5 Prozent und 6 Prozent. In einem Ranking der unternehmerfreundlichsten Länder der Welt, das von der Weltbank-Tochter International Finance Corporation erstellt wurde, landete Chile 2005 auf dem 25. Platz als bestes lateinamerikanisches Land. Deutschland besetzt laut dieser Studie Platz 19, Kolumbien als zweitbestes südamerikanisches Land Platz 66. Im jährlichen Globalisierungsindex der Beratungsfirma A.T. Kearney und der Zeitschrift Foreign Policy lag Chile 2007 auf Rang 43 der insgesamt 72 bewerteten Länder. Im Vergleich zu 2006 verlor Chile die führende Position unter den lateinamerikanischen Ländern an Panama, den letzten Platz belegte Venezuela. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Chile Platz 33 von 137 Ländern (Stand 2017–2018). Die Arbeitslosenquote lag im Jahre 2004 bei 7,8 Prozent. Die Armutsquote lag 2003 bei 18,8 Prozent und die Rate extremer Armut bei 4,7 Prozent der Bevölkerung. Die Armutsquote hat sich seit 1987 mehr als halbiert, die extreme Armut hat nur noch etwa 30 Prozent des Wertes von 1987. Die neue demokratische Regierung Chiles führte das Programm „Chile Solidario“ ein, damit werden die 250.000 ärmsten Familien im Land von staatlichen Helfern betreut und finanziell unterstützt. Die Inflationsrate liegt im Schnitt zwischen 2 Prozent und 4 Prozent. Seit 1998 hat sie die Fünf-Prozent-Marke nicht mehr überschritten. Im Jahre 2004 lag sie bei 2,4 Prozent und wurde 2006 mit einem Wert von 2,6 Prozent angegeben. Das Bruttosozialprodukt stieg im Jahr 2016 um 1,6 Prozent auf 247,0 Milliarden US-Dollar, dies entspricht in etwa 7146 US-Dollar je Einwohner. Chile hat das höchste Pro-Kopf-Einkommen und das höchste Exportvolumen je Einwohner unter den südamerikanischen Staaten. Wirtschaftssektoren Den größten Anteil an der Wertschöpfung hat der Dienstleistungssektor mit 57 Prozent, gefolgt vom Produktionssektor und der Landwirtschaft mit 34 Prozent beziehungsweise 9 Prozent Anteil (Stand: 2001). Chile gehört zu den führenden Wirtschaftsnationen Lateinamerikas sowie zu den größten Rohstoffproduzenten. Es verfügt über die größten bekannten Kupfervorkommen der Welt (etwa 40 Prozent). In Chile liegen die größten Kupferminen der Welt, Chuquicamata (über Tage) und El Teniente (unter Tage). Sie werden vom staatlichen Konzern Codelco ausgebeutet. Die von der Produktionsmenge größte Kupfermine, der Tagebau Escondida, wird von der privaten Gesellschaft Minera Escondida betrieben. Verschiedene Edelmetalle und vor allem Salpeter führten Chile schon im 19. Jahrhundert zu Reichtum. Chile ist der größte Lithium-Produzent der Welt. Die Regierung kündigte im April 2023 an, den Lithiumabbau zu vergrößern. Daneben werden heute Forst-, Fischerei- und Landwirtschaft betrieben. Nur etwa 7 Prozent der Landfläche werden für die Landwirtschaft genutzt. Diese Flächen befinden sich hauptsächlich im Zentraltal. Im wüstenhaften Norden Chiles gibt es Landwirtschaft fast nur in Oasen. Viehzucht wird hauptsächlich in Zentralchile und im nördlichen Teil von Südchile betrieben. Chile ist das einzige Land Südamerikas, in dem Zuckerrüben angebaut werden. Der Weinbau hat Chile zum Weinexporteur Nummer eins in Südamerika gemacht hat. Außenhandel Chiles Wirtschaft hängt stark vom Export ab. 2004 betrug der Exportanteil 34 Prozent des Bruttosozialprodukts, was ziemlich genau dem von Deutschland entspricht. Besonders wichtig für die chilenische Wirtschaft ist der Kupferexport. Momentan steigen andere Exportgüter stärker als Kupfer und Mineralien. 1975 lagen diese noch bei 30 Prozent, heute sind es etwa 60 Prozent. Zu diesen Exportgruppen gehören Forst- und Holzprodukte, frische Früchte, Wein und Nahrungsmittel, Lachs, verarbeitete Nahrungsmittel, Fischmehl und Meeresfrüchte. 2004 stieg die Handelsbilanz um neun Milliarden US-Dollar, viel stärker als 2003. Mit dem starken Anstieg der Rohstoffpreise explodierten die Exporte geradezu von 20,4 (2003) auf 32,1 im Jahr 2004 und 39,4 Milliarden US-Dollar im Jahr 2005. Chile verdrängte 2005 Norwegen als weltweit größten Lachsproduzent. Die VR China ist mit 28 Prozent der größte chilenische Einzel-Exportmarkt, auf Platz 2 stehen die USA. Weitere Haupthandelspartner des Landes sind Brasilien und Argentinien, mit denen Chile über den Mercosur assoziiert ist. Bis heute ist Chile dem Mercosur jedoch nicht als vollständiges Mitglied beigetreten, da dies dem Land die Möglichkeit nehmen würde, eigenständige Handelsabkommen mit anderen Ländern abzuschließen und es auch befürchtet wird, dass das Land im Falle eines vollständigen Beitritts sich der Gefahr aussetzen würde, durch wirtschaftliche Schwankungen seiner Nachbarn stärker getroffen zu werden. Durch den Kompromiss der Assoziierung bestand für Chile die Möglichkeit, eigene Freihandelsabkommen mit Japan, der EU und der NAFTA abzuschließen. Chile hat 2005 auch ein Freihandelsabkommen mit der Volksrepublik China und 2006 eines mit Brunei, Neuseeland und Singapur (P4 Agreement) abgeschlossen. Aufgrund dessen gilt die chilenische Volkswirtschaft heute als eine der offensten der Welt. Wirtschaftskennzahlen Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich in den letzten Jahren folgendermaßen: Energiewirtschaft Elektrizitätsversorgung Im Jahre 2012 lag Chile bzgl. der jährlichen Erzeugung mit 66,89 Mrd. kWh an Stelle 41 und bzgl. der installierten Leistung mit 18.600 MW an Stelle 42 in der Welt. Im März 2021 war die installierte Gesamtleistung 27.726 MW. Davon entfallen 6.807 MW an Wasserkraft (28. Platz in der Welt), 3.137 MW an Windkraft (28. Platz in der Welt), 4.468 MW an Solarenergie (22. Platz in der Welt) und 375 MW an Biomasse. Seit 2017 gibt es in Chile ein landesweites Verbundnetz, das Sistema Eléctrico Nacional, dessen Kabelverbindungen 2021 eine Gesamtlänge von 35.919 km erreichten. Vor 2017 gab es zwei große voneinander unabhängige Verbundsysteme, das Sistema Interconectado Central (SIC) für das Zentrum sowie das Sistema Interconectado del Norte Grande (SING) für den Norden des Landes. Außerdem gab es im Süden des Landes noch zwei weitere lokale und separate Netze (Inselnetze Aysén und Magallanes). Diese Netze wurden 2017 miteinander synchronisiert. Außerdem besteht eine Verbindung zwischen dem SING und dem Sistema Argentino de Interconexión in Argentinien: eine 345-kV-Leitung verbindet Mejillones in Chile mit Cobos in der argentinischen Provinz Salta. Die Stromerzeugung in Chile beruht traditionell zu einem erheblichen Teil auf Wasserkraft. Die Wasserkraftwerke liegen praktisch ausschließlich im Bereich des SIC. Eine ausgeprägte Trockenheit, verursacht durch El Niño führte von November 1998 bis April 1999 zu Stromabschaltungen in der Hauptstadt Santiago de Chile. Daraufhin beschloss die Regierung, die Abhängigkeit von Wasserkraft zu verringern und die Stromerzeugung durch GuD-Kraftwerke zu diversifizieren. Das Erdgas wurde durch Pipelines aus Argentinien geliefert. 2004 verringerte die Regierung von Néstor Kirchner jedoch die Gaslieferungen unerwartet, wodurch es in Chile erneut zu einer Krise kam. Aufgrund dieser Erfahrungen setzt Chile seither auch wieder verstärkt auf Kohle zur Stromerzeugung. Außerdem wurden Gasterminals für den Import von LNG errichtet, eines in Mejillones für die Versorgung der Gaskraftwerke im SING und eines in Quintero für das SIC. Ein weiterer Ausbau der Wasserkraft ist aus ökologischen Gründen umstritten (siehe HidroAysén). Sehenswürdigkeiten Aufgrund der großen Länge des Landes verfügt Chile über unterschiedlichste Landschaften. Im Norden dominiert die Atacamawüste. Der Osten ist von den Anden geprägt. Zentralchile ist von mediterranem Klima beeinflusst. Der Kleine Süden ist geprägt von Wäldern und herrlichen Landschaften, die oft auch als Chilenische Schweiz bezeichnet werden. Ab der Region XI. gibt es bereits große Gletschergebiete. Der größte Gletscher Südamerikas ist das Campo de Hielo Sur. Hier beginnt die karge Landschaft Patagoniens. Das Klima ist rau und regenreich. Eine ganz andere Welt bieten die ozeanischen Inseln, wie die Osterinsel und die Juan-Fernández-Inseln. Die Osterinsel ist besonders aus archäologischer Sicht sehr interessant. Feuerland dient oft als Ausgangspunkt zur Chilenischen Antarktis. Nationalparks in Chile Chile verfügt über eine sehr große Anzahl von Nationalparks und nationalen Reservaten, diese werden von der chilenischen Forstbehörde CONAF verwaltet. Die bekanntesten Nationalparks sind der Nationalpark Conguillio, der Nationalpark Torres del Paine, der Nationalpark Lauca, der Nationalpark Bernardo O’Higgins und der Nationalpark Rapa Nui auf der Osterinsel. In der Provinz Palena bei Chaitén liegt der mit privaten Mitteln errichtete, über 3000 Quadratkilometer große Parque Pumalín. Er wurde vom US-Amerikaner Douglas Tompkins durch große Landkäufe ab Mitte der 1990er-Jahre errichtet. Das Land wurde später der Non-Profit-Organisation Fundación Pumalin übergeben. Der Park ist insbesondere für den Öko-Tourismus interessant. Biosphärenreservate in Chile Die UNESCO erklärte insgesamt 10 Gebiete in Chile zu Biosphärenreservaten Nationalpark Bosque de Fray Jorge (1977) Juan-Fernández-Inseln (1977) Nationalpark Torres del Paine (1978) Nationalpark Laguna San Rafael (1979) Nationalpark Lauca (1981) Araucarias (1984) Nationalpark La Campana und Lago Peñuelas (Nationales Reservat) (1984) Nationalpark Kap Hoorn (2005) Weltkulturerbe/Weltnaturerbe der UNESCO in Chile Die UNESCO erklärte bisher sieben Plätze in Chile zum Weltkulturerbe : 1995 Nationalpark Rapa Nui auf der Osterinsel 2000 Holzkirchen auf der Insel Chiloé 2003 historisches Viertel der Hafenstadt Valparaíso 2005 Humberstone- und Santa-Laura-Salpeterwerke in der Atacamawüste im Norden Chiles 2006 Kupferminenstadt Sewell 2014 Qhapaq Ñan, Anden-Straßensystem (grenzübergreifend) 2021 Siedlungen und künstliche Mumifizierung der Chinchorro-Kultur in Arica y Parinacota Museen und historische Plätze Santiago de Chile, Concepción und Valparaíso bieten die größte Vielfalt an Museen und historischen Plätzen. Über das Land verteilt gibt es viele Monumente, die lange vor der spanischen Besiedlung entstanden sind. Kultur Zwischen der Kultur in den Städten und auf dem Land gibt es starke Unterschiede. Auf dem Lande spielt die Folklore mit traditionellen Tänzen, wie dem Nationaltanz Cueca, eine wichtige Rolle. Die volkstümliche Kultur ist stark spanisch und araukanisch geprägt. Payadores sind Volkssänger, deren Lieder meist von Liebe und Träumen handeln. Politische Lieder waren ihnen während der Pinochet-Diktatur verboten. Das Kunsthandwerk auf dem Lande ist von indianischen Einflüssen gekennzeichnet. Hergestellt werden vor allem Web- und Töpferarbeiten sowie Schnitzereien. Eine wichtige Rolle auf dem Lande spielen die Huasos, eine Art chilenischer Cowboys oder Gauchos. Sie sind auf fast allen Folklorefesten und speziell beim chilenischen Rodeo dabei. Die Stadtkultur ist kosmopolitischer geprägt. Fast 50 Prozent der Chilenen gaben in einer 2008 durchgeführten repräsentativen Umfrage an, nie oder fast nie zu lesen. Bücher sind in Chile sehr teuer, da die Auflagen sehr gering sind. Der Buchmarkt hat sich nach der kulturellen Lähmung unter der Militärdiktatur nur langsam erholt. Kulinarische Spezialitäten und Essgewohnheiten Die chilenische Küche ist keineswegs ein Ableger der spanischen Küche, wie viele vermuten. Vielmehr gibt es eine Vielzahl von Einflüssen – vielfach auch von deutschen Einwanderern. So finden sich etwa deutsche Bezeichnungen wie „Kuchen“ (kuchen, Aussprache wie im Deutschen) oder „Apfelstrudel“ (estrudel) auch im Wortschatz der chilenischen Konfiserie. Berliner (zumeist mit einer Puddingfüllung) sind unter der Bezeichnung Berlines verbreitet. Auch der Christstollen als Weihnachtsgebäck ist bekannt (unter der Bezeichnung pan de pascua) und gilt in Südamerika als chilenische Spezialität; ebenso die Schweinskopfsülze (queso de cabeza), Tatar (tártaro de carne) oder die einer Bouillabaisse ähnelnde chilenische Fischsuppe Paila marina. Ebenfalls auf mitteleuropäische Einflüsse zurückzuführen ist das typisch chilenische Sauerkraut (genannt Chucrú, abgeleitet vom französischen Choucroute), die Vorliebe für quarkähnliche Frischkäsezubereitungen und die vor allem im Süden sehr starke Brautradition. Viele Biere werden nach dem deutschen Reinheitsgebot gebraut und oft wird aus deutschen Anbaugebieten importierter Hopfen verwendet. Aufgrund der sonnigen Bedingungen in Mittel- und Nordchile und der vulkanischen Böden eignet sich das Land sehr gut zum Anbau von Feldfrüchten und Obstsorten, die in großer Vielfalt auf Chiles Märkten feilgeboten werden. In Chile als einem der Ursprungsländer der Kartoffel finden sich auch sehr viele unterschiedliche Speisekartoffelsorten. Der mindestens einmalige wöchentliche Marktbesuch und die Verwendung frischer Gemüse und anderer Zutaten in der Küche spielt für die Mehrzahl der chilenischen Hausfrauen und die in wohlhabenden Haushalten häufig anzutreffenden Küchenmamsells noch immer eine große Rolle. Neben einem reichen Angebot an Fisch und Meeresfrüchten wird in Chile sehr gerne Huhn gegessen. Gegrilltes Fleisch, ein so genannter Asado, gehört wie im Nachbarland Argentinien zu den traditionellen Speisen bei geselligen Anlässen. Neben Rind- und Schweinefleisch werden dabei vor allem würzige Paprikawürste (Longanizas) verwendet. Das Fleisch wird vor dem Grillen gern einige Stunden in Bier eingelegt, um seine Zartheit zu erhöhen. Zu den Nationalgerichten zählt die chilenische Empanada, das sind unterschiedlich (bspw. mit Rindfleisch, Hühnchen, Meeresfrüchten oder Käse) gefüllte Teigtaschen, die entweder im Ofen gebacken oder in Bratfett frittiert zubereitet werden können. Die Cazuela ist ein kräftiges Eintopfgericht, für das Hühnchen oder auch Rindfleisch, Maiskolben (Choclos), Kürbis und weitere Gemüse verwendet werden. Als Humitas wird ein Maisbrei bezeichnet, der in Maisblättern gekocht oder gegrillt und süß oder salzig gegessen wird. Pebre ist eine aus scharfem Paprika (Ají), fein gehackten Zwiebeln und Kräutern zubereitete Öl-Zitronen-Sauce, die vor allem zu Fleisch, aber auch zu sonstigen Gerichten als Würze gereicht wird. Beliebt sind auch mit getrocknetem Kelp, Cochayuyo genannt (es handelt sich um Braunalgen der Art Durvillaea antarctica), zubereitete Beilagen. Die relativ geschmacklose Alge wird dazu klein geschnitten und mit Zwiebeln, unterschiedlichen Gewürzen und Kräutern und unter Umständen Hülsenfrüchten oder anderem Gemüse vermengt gegart. Typisch ist auch das so genannte „geröstete Mehl“ (harina tostada), gewonnen aus erhitztem und anschließend zermahlenen Weizen, der mit Wasser und Zucker, eventuell auch Melonensaft oder Wein, zu einer zähflüssigen Mischung verarbeitet werden kann, dem ulpo, der als stärkendes Erfrischungsgetränk zu sich genommen wird. Der klassische chilenische Schnellimbiss ist der in den 1950er Jahren entstandene Completo, eine Art Hot Dog, der mit reichlich Avocadomus (Palta) und Sauerkraut oder Krautsalat (Chucrú) gereicht und mit Chilipaste (salsa de ají chileno) und dem mild-süßen chilenischen Senf gegessen wird. Ebenfalls als typisch chilenisch gelten die oft mit gebratenem Fleisch oder anderen Zutaten reich belegten Sandwiches (sánguches), die an Garküchen, Imbissständen oder in Gaststätten fast überall in den Städten auch zum Mitnehmen zu bekommen sind. Zu den Besonderheiten der Mahlzeitenfolge in Chile gehört, dass neben Frühstück (desayuno) und Mittagessen (almuerzo) auch am frühen Abend ein Imbiss gereicht wird, zu dem stets Tee getrunken wird und der das in der Regel erst sehr spät eingenommene Abendessen (comida) mitunter ersetzen kann. Diese Zwischenmahlzeit wird tomar once (wörtlich „Elf einnehmen“) genannt. Diese für Chile eigentümliche Tradition wird oft auf englische Gebräuche (etwa den „Fünf-Uhr-Tee“ oder den in England „Elevenses“ genannten Vormittagstee) zurückgeführt. Einer volkstümlich-humoristischen Erklärung zufolge soll der Ausdruck dagegen auf die Tatsache zurückgehen, dass das spanische Wort aguardiente (Schnaps) genau elf (once) Buchstaben hat. Zu Zeiten eines Alkoholverbots in Chile hätten die Leute deshalb Once bestellt und Schnaps in einer Tasse serviert bekommen. Auch wenn sich der genaue Ursprung der Bezeichnung nicht mehr mit letzter Sicherheit aufklären lässt, liegt besonders eine Ableitung aus der katholischen liturgischen Tagstundenzählung nahe, die in vom Katholizismus geprägten Ländern wie Spanien, Italien oder Chile bis weit ins 19. Jahrhundert üblich war: Die elfte Stunde der kirchlichen Tageseinteilung entspricht exakt der traditionellen „Tea Time“ 17 Uhr. Dessen ungeachtet wird die „Once“ in Chile allerdings besonders im Sommer oft bis 19.30 Uhr hinausgeschoben. Der Wein in Chile ist von sehr guter Qualität und wird seit vielen Jahren mit großem Erfolg auf den Weltmarkt exportiert. Rebsorten wie Merlot und Cabernet Sauvignon sind im Rotweinsegment weit verbreitet und werden auf verschiedenen Qualitätsstufen produziert. Eine exklusive Rebsorte ist die Carménère, eine besonders empfindliche Sorte von außergewöhnlicher Qualität, die heute (da in Frankreich durch Reblausbefall ausgestorben) praktisch nur noch in Chile angebaut wird. Literatur Isabel Allende (* 1942) ist wohl die bekannteste zeitgenössische Schriftstellerin Chiles. Ihre Romane wie Das Geisterhaus, Fortunas Tochter oder Der unendliche Plan sind weltweit verlegt worden. Viele ihrer Bücher sind stark autobiografisch geprägt. Sie ist die Nichte des früheren Präsidenten Salvador Allende. Roberto Bolaño (1953–2003), Verfasser surrealistischer Lyrik und Prosa, ging nach dem Militärputsch 1973 ins Exil. Er ist Träger vieler Literaturpreise und starb in Barcelona. Jorge Edwards (1931–2023) ist Träger des Cervantespreises. In Deutschland ist sein Werk kaum bekannt. Erst neun Jahre nach seiner Veröffentlichung erschien sein Roman Der Ursprung der Welt 2005 in deutscher Übersetzung. Alberto Blest Gana (1830–1920) schrieb den ersten chilenischen Roman (Martín Rivas, 1862), eine realistische und sozialkritische Familiengeschichte. Er wurde seit 1925 fünfmal verfilmt und auch für das Theater und als Musical adaptiert. Die Werke des Autors sind in Chile heute noch wichtige Bestandteile der Schullektüre. Gabriela Mistral (1889–1957), Dichterin und Nobelpreisträgerin 1945, schrieb in ihren Gedichten über Liebe, Tod und Hoffnung, nachdem ihr Geliebter Romelio Ureta Selbstmord begangen hatte. Später arbeitete sie im diplomatischen Dienst Chiles. Der avantgardistische Lyriker Vicente Huidobro (1893–1947) begründete mit seinem Gedichtband Ecos de Alma (1911) die modernistische Bewegung in Chile. Er kämpfte im spanischen Bürgerkrieg auf republikanischer Seite. Pablo Neruda (1904–1973) war ein weltbekannter Dichter, Schriftsteller und Nobelpreisträger 1971. Er verfasste viel soziale und politische Lyrik und arbeitete als Botschafter in Frankreich für die Regierung von Salvador Allende. Er starb kurz nach dem Militärputsch 1973 an Krebs. Sein Begräbnis wurde zur ersten öffentlichen Demonstration gegen das Militärregime. Luis Sepúlveda (* 1949) wurde unter Pinochet mehrfach verhaftet und musste ins Exil gehen. Zu seinen in Deutschland bekannten Werken gehört das „Tagebuch eines sentimentalen Killers“. Auch Antonio Skármeta (* 1940), Schriftsteller und Anhänger von Salvador Allende, verließ nach dem Militärputsch 1973 das Land. Er verfasste Romane und Erzählungen, die sich oft mit der Militärdiktatur befassten. Von 2000 bis 2003 war er chilenischer Botschafter in Berlin, wo er auch während seines Exils gelebt hatte. Musik 1941 wurde das Orquesta Sinfónica de Chile, 1955 das Orquesta Filarmónica de Santiago (das kommunale und Opernorchester von Santiago) gegründet. Von der chilenischen Volksmusik beeinflusst sind die Werke des Komponisten Carlos Isamitt (1887–1974). Claudio Arrau (1903–1991), geboren in Chillán, war der bedeutendste chilenische Pianist und eine der wichtigsten Musikerpersönlichkeiten der Nachkriegszeit. Seine Interpretation der Werke Beethovens, Schumanns und vieler anderer Komponisten des klassischen Repertoires setzen bis heute Maßstäbe. Violeta Parra (1917–1967) begründete die „Nueva canción Chilena“. Von Chile ausgehend erreichte diese gesellschaftskritische künstlerische Bewegung („Neues Lied“) bis in die 1980er Jahre weite Verbreitung in Lateinamerika, Portugal und Spanien. Die Sängerin wuchs in Armut auf, komponierte schon früh eigene Folklorelieder und begann in den 1950er Jahren, traditionelles Liedgut zu sammeln und zu dokumentieren. Ihre davon beeinflussten eigenen Werke hatten einen stärker politisch-gesellschaftskritischen Charakter. Neben der Musik dichtete sie, malte, webte und schuf Skulpturen. Viele chilenische und internationale Künstler wie Mercedes Sosa und Joan Baez haben ihre Werke interpretiert; ihr bekanntestes Lied ist Gracias a la vida. Víctor Jara (1932–1973) war ein politischer Sänger und zählt ebenfalls zu den großen Vertretern der „Nueva canción“. Er unterstützte Salvador Allende und wurde während des Militärputsches 1973 gefoltert und getötet. Die Gruppen Illapu, Inti Illimani und Quilapayún machten die Musik der „Nueva Canción Chilena“ weltbekannt. Sie mussten nach dem Militärputsch lange Jahre im Exil verbringen und haben ihr musikalisches Spektrum beständig erweitert. Film Der moderne chilenische Film beschäftigt sich oft mit der Zeit der Militärdiktatur von 1973 bis 1989. Zu den berühmtesten Regisseuren gehören Andrés Wood und Miguel Littín. Carmen Castillo (* 1945) ist eine chilenische Dokumentarfilmerin. Sie schrieb 1979 Santiago de Chile, ein Tag im Oktober, ein Buch über ihr Leben im Untergrund nach dem Militärputsch. Orlando Lübbert (* 1945) und Andrés Wood (* 1965) befassen sich mit humorvollen Sozialdramen, Cristián Galaz (* 1958) zeigt den Beziehungsalltag der Chilenen. Alejandro Jodorowsky ist Schauspieler, Autor und Regisseur einer Reihe surrealistischer Filme, darunter El Topo und Montana Sacra – Der heilige Berg. Bildende Kunst Aus der präkolumbischen Zeit sind nur wenige Kunstwerke erhalten, so z. B. Höhlenmalereien und andere Petroglyphe, Keramiken und Holzskulpturen sowie vor allem Produkte der Webkunst der Mapuche. Die von den Jesuiten geprägte, fast ausschließlich religiöse Malerei der Kolonialzeit bemühte sich, alle „heidnischen“ Spuren zu verdrängen. Doch verwiesen Farbwahl und einfache Formen auf weiter wirkende indigene Einflüsse. In der ersten Hälfte des 19. Jahrhunderts bereisten viele europäische Maler Chile und hinterließen dort ihre Spuren, oft in Form von Porträts der Revolutionshelden. Der deutsche, von Alexander von Humboldt beeinflusste Maler Johann Moritz Rugendas hielt viele ländliche Szenen und Feste mit ethnographischem Blick fest und vermittelte so ein Bild der jungen Republik. Der Afroperuaner José Gil de Castro (1785–ca. 1840/41) verbrachte einige Jahre in Chile und wurde dort wie in Argentinien und Peru als Porträtmaler wichtiger Persönlichkeiten bekannt. Sein Auftreten markiert das Ende des akademischen Kolonialstils. 1849 wurde die Chilenische Malakademie eröffnet, deren erster Leiter, der Franzose Raymond Monvoisin, vor allem Porträts der Oberschicht anfertigte. Manuel Antonio Caro studierte in den 1860er Jahren als erster Chilene Malerei in Europa; er fertigte realistische volkstümliche Szenen und Porträts. Pedro Lira (1845–1912) schuf Historiengemälde im Stil des Historismus, hinterließ aber ein realistisch-sozialkritisches Spätwerk. Der sehr populäre, mit 4000 Bildern extrem produktive Juan Francisco González (1853–1933), sein Schüler Joaquín Fabres (1864–1914) und Pablo Burchard Eggeling (1875–1964), der vom Stil Pierre Bonnards beeinflusst war, brachen endgültig mit dem Akademismus und begründeten den chilenischen Impressionismus. Zu dessen Vertretern zählt auch Ramón Subercaseaux (1854–1936), der sich von Cézanne beeinflusst zeigte. Pedro Subercaseaux (1880–1956) schuf die ersten chilenischen Comics, in denen er berühmte historische Figuren und den fiktiven deutschen Professor Baron Federico von Pilsener in seinem Magazin Lustig (1906/07) mit schwarzem Humor präsentierte. Bekannt wurden auch seine Figuren Don Otto und Fritz, mit denen er die deutschen Einwanderer karikierte. Die Generación del 13, zu der Arturo Gordon (1883–1944) gehörte, war eine 1913 gegründete chilenische Künstlergruppe, die gemeinsam ausstellte. Sie stellte erstmals das Leben der Mapuche und der arbeitenden Klassen in nicht-romantisierender Weise dar. Gordon selbst neigte zu allegorisierenden Darstellungen mit expressiver Farbgebung. Roberto Matta (1911–2002) war ein weltweit bekannter surrealistischer Maler des 20. Jahrhunderts. Zeitweise lebte er in Paris und war mit Salvador Dalí und Federico Garcia Lorca befreundet. Zu den Expressionisten zählen Israel Roa (1909–2002). Ximena Cristi (* 1920) zeigt sich von Matisse und Bonnard beeinflusst. Beide zählten zur Generación del 40. Den abstrakten Expressionismus der 1960er Jahre vertrat Guillermo Núñez (* 1930). Der Maler und Grafiker Nemesio Antúnez (1918–1993) begründete die „Werkstatt 99“ (taller 99), die der modernen Druckgrafik den Weg bereitete. 1973 bis 1984 lebte er im Exil. Der 1913 auf Kuba geborene Maler Mario Carreño Morales malte wuchernde Formen in warmen Farben; er gilt als einer der wichtigsten lateinamerikanischen Maler und starb 1999 in Santiago de Chile. Vielfach international ausgezeichnet wurden Arbeiten des in Katalonien geborenen, auch politisch sehr aktiven Vertreter der Informel José Balmes (1927–2016), der 1939 nach Chile und 1973 nach Frankreich ins Exil ging, um 1986 nach Chile zurückzukehren. Gracia Barrios (1917–2020), eine Vertreterin des realismo informal, die nach dem Putsch 1973 ebenfalls vorübergehend nach Frankreich emigrierte, wurde durch ihre Alltagsszenen und Wandmalereien bekannt. Mario Toral (* 1934) knüpft in seinem Werk an präkolumbianische Formen an. In der neueren chilenische Malerei dominieren figürliche Darstellungen, wobei bemerkenswert viele Frauen aktiv sind. Einen neorealistischen Stil vertreten die in Katalonien geborene Roser Bru (* 1923), die während des Spanischen Bürgerkriegs nach Frankreich und dann nach Chile emigrierte, die feministische Malerin Carmen Aldunate (* 1940) und Natalia Barbarovic (* 1966). In Brus Bildern spiegeln sich die Krisen der Demokratie und die Verfolgung durch die Diktatur. Ihr öffentlich ausgestelltes Bild Ejecución („Hinrichtung“) war ein Symbol des Widerstands gegen das Pinochet-Regime. Ein Vertreter des Neoexpressionismus und Mitbegründer der Schule der 80er ist Samy Benmayor (* 1956). Nadra Jacob (* 1970) stellte 2020 ein Fortoposter in der Berliner U-Bahn aus (Expo Metro Berlin). Sport Die Fußball-Weltmeisterschaft 1962 fand in Chile statt. Die chilenische Fußballnationalmannschaft erreichte dabei einen achtbaren dritten Platz; das ist das beste Ergebnis bei einer Weltmeisterschaft. Chile hat sich bisher achtmal für die WM qualifiziert und liegt nach diesem Kriterium in Südamerika auf dem vierten Platz hinter Brasilien, Argentinien und Uruguay. Darüber hinaus gewann die Nationalmannschaft auch die Copa América 2015, die im eigenen Land ausgetragen wurde sowie die Copa América Centenario 2016 in den USA. Zu den nationalen Fußballlegenden zählen Ivan Zamorano, Marcelo Salas und unangefochten an der Spitze Elías Figueroa, erster (und neben Zico einziger) Spieler Amerikas, der dreimal den Titel des besten Spielers des Kontinents erringen konnte. Figueroa gilt heutzutage als einer der besten Abwehrspieler des letzten Jahrhunderts. Zu erwähnen sind auch Matías Fernández, Südamerikas Fußballer des Jahres 2006, und David Arellano, der als Erfinder des Fallrückziehers (auf Spanisch la chilena) gilt. Die bekanntesten chilenischen Fußballspieler sind aktuell Alexis Sánchez und Arturo Vidal. Neben Fußball spielen insbesondere Tennis, der Reitsport (hier vor allem auch das chilenische Rodeo) und das Segeln eine bedeutende Rolle. Im Tennisdoppel gewann Nicolás Massú mit seinem Partner Fernando González bei den Olympischen Sommerspielen 2004 das erste Olympiagold für Chile überhaupt. Einen Tag später krönte Massú seine Olympiateilnahme mit dem Sieg im Herreneinzel, González gewann die Bronzemedaille. Eine der großen Sportlegenden in Chile ist Marcelo Ríos, der als erster spanischsprechender Tennisspieler die Spitze der Weltrangliste erreichte und hierbei zeitweise Pete Sampras ablöste. Im Segelsport, Kategorie Breitling, besetzten chilenische Teams in prestigeträchtigen Rennen wie der Copa del Rey regelmäßig die ersten drei Plätze. Am 3. Mai 2008 besiegte die chilenische Polo-Nationalmannschaft im WM-Finale in Mexiko-Stadt den amtierenden Weltmeister Brasilien und wurde somit erstmals Weltmeister in dieser Disziplin. Im Rudern (Zweier ohne Steuermann) wurden Christian Yantani und Miguel Angel Cerda im Jahre 2002 in Sevilla Weltmeister. 2005 wurde Cerda in Japan mit Felipe Leal Vizeweltmeister und in der Schweiz Weltmeister. Carlo de Gavardo ist zweifacher Motorrad-Rallye-Weltmeister. Rugby Union wird seit den 1880er Jahren in Chile gespielt und wurde von Briten in das südamerikanische Land gebracht. In den letzten Jahren gehörte der Rugbysport zu den schnellwachsenden Sportarten Chiles und wird vor allem an Universitäten gespielt. Die chilenische Nationalmannschaft qualifizierte sich 2023 erstmals für eine Rugby-Union-Weltmeisterschaft, schied jedoch in der Vorrunde wieder aus dem Turnier aus. Chile gilt als die drittstärkste Mannschaft Südamerikas nach Argentinien und Uruguay. Special Olympics Chile wurde 2013 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des Host Town Programs von Heilbronn betreut. Medien Wichtigste Informationsquelle der chilenischen Bevölkerung ist das Fernsehen. Die wichtigsten Fernsehsender sind das staatliche TVN-Programm, der Sender Canal 13 der katholischen Universität Universidad Católica und private Sender wie Megavisión oder Chilevisión. Das Programm der Fernsehsender ist hauptsächlich auf Unterhaltung, das heißt auf Shows, US-amerikanische Filme und Fernsehserien, die beliebten „Teleseries“ (Telenovelas, zumeist aus eigener Produktion) sowie auf Sportberichterstattung ausgerichtet. Politische Sendungen, Naturdokumentationen und Kulturprogramme sind dagegen eher dünn gesät, dann aber oft von guter Qualität. Die Nachrichten beginnen erst um 21 Uhr und dauern etwa eine Stunde. Die Presselandschaft wird weitgehend von zwei Konzernen dominiert, dem Mercurio- und dem COPESA-Konzern, nachdem sich eine Reihe von Publikationen aus dem politischen Mitte-links-Spektrum nach dem Rückgang der Politikbegeisterung zur Zeit der Redemokratisierung nicht auf Dauer im Markt halten konnten. Die beiden jeweiligen „Flaggschiffe“ der Pressekonzerne sind El Mercurio und La Tercera. Zu den selten gewordenen bunten Vögeln in der Presselandschaft gehört das Hausblatt der kommunistischen Partei, El Siglo, sowie die ebenfalls linksorientierte, aber parteiungebundene Zeitschrift Punto Final. Wichtige Wochenzeitschriften sind Ercilla und Qué Pasa. Darüber hinaus gibt es die deutschsprachige Wochenzeitung Cóndor. Feiertage Siehe auch Transition in Chile Politisches System Chiles Mercosur Gemeinschaft der Lateinamerikanischen und Karibischen Staaten (CELAC) Liste der chilenischen Fernsehkanäle Liste der Universitäten in Chile Agrarstrukturen in Lateinamerika Homosexualität in Chile Literatur Karl F. Appl: Die Geschichte der evangelischen Kirchen in Chile. Erlanger Verlag für Mission und Ökumene, Neuendettelsau 2006, ISBN 3-87214-616-5. Karla Berndt, Birgit Heitfeld: Die chilenische Küche. Umschau, Neustadt an der Weinstraße 2006, ISBN 3-86528-266-0. Robert N. Burr: By Reason or Force. Chile and the Balancing of Power in South America 1830–1905. University of California Press, Berkeley 1974, ISBN 0-520-02629-2. Simon Collier, William F. Sater: A History of Chile, 1808–2002. 2. Auflage. Cambridge University Press, Cambridge u. a. 2004, ISBN 0-521-82749-3. Dirk Heckmann: Chile & Antarktis & Osterinsel. OPS, München 1998, ISBN 3-930487-58-6. Peter Imbusch (Hrsg.): Chile heute: Politik, Wirtschaft, Kultur. Vervuert, Frankfurt am Main 2004, ISBN 3-89354-590-5. Boris Schöppner: Nachbeben. Chile zwischen Pinochet und Zukunft. Reportagen und Interviews. Trotzdem Verlagsgenossenschaft, Frankfurt am Main 2008, ISBN 978-3-86569-920-6. Günter Wessel: Die Allendes: mit brennender Geduld für eine bessere Welt. Bastei-Lübbe, Bergisch Gladbach 2004, ISBN 3-404-61537-9. Sara Wheeler: Unterwegs in einem schmalen Land. Heyne, München 1996, ISBN 3-453-08319-9. Oliver Zöllner: Generating Samples of Diasporic Minority Populations. A Chilean Example. In: Oliver Zöllner (Hrsg.): Targeting International Audiences. CIBAR, Bonn 2005, ISBN 3-932872-12-6, S. 138–149. (Webversion des Artikels) Daniel Stahl: Bericht der chilenischen Wahrheitskommission, in: Quellen zur Geschichte der Menschenrechte, herausgegeben vom Arbeitskreis Menschenrechte im 20. Jahrhundert, Mai 2015, abgerufen am 11. Januar 2017. Weblinks ThisisChile.cl – Official Chile website (englisch u. spanisch) Offizielle Netzpräsenz der Vertretungen der Republik Chile in Deutschland Länderinformationen des Auswärtigen Amtes zu Chile Chiles Regierung (spanisch, englisch) FDCL – Forschungs- und Dokumentationszentrum Chile-Lateinamerika Instituto Geográfico Militar (spanisch, für Karten) Museen, Bibliotheken und Archive in Chile (spanisch) Einzelnachweise Staat in Südamerika Mitgliedstaat der Vereinten Nationen Mitgliedstaat der OECD Verwaltungseinheit als Namensgeber für einen Asteroiden
941
https://de.wikipedia.org/wiki/Rechnergest%C3%BCtzte%20Entwicklung
Rechnergestützte Entwicklung
Die rechnergestützte Entwicklung (englisch und kurz CAE genannt) umfasst alle Varianten der Rechner-Unterstützung von Arbeitsprozessen in der Technik. Teilgebiete Die folgenden Teilgebiete sind bekannt: BIM (Building Information Modeling) CAD (computer-aided design, rechnerunterstützte Konstruktion) Digital Mock-Up (DMU, Ein- und Ausbauuntersuchungen, Kollisionsprüfungen und Baubarkeitsprüfungen) Diskretisierungssoftware (Erstellung von Berechnungsgittern) Elektromagnetismussimulationen (FEM, FDTD, FIT) Electrical Computer Aided Engineering Elektroniksimulationen (Schaltungsentwicklung und -simulation) Ergonomieanalyse (Human Modeling) Fertigungsprozesssimulationen (computer-aided process engineering, CAPE) Fluid Structure Interaction (FSI, Fluid-, Struktur- und thermische Koppelung) Kinematik- und Starrkörpersimulationen Mehrkörpersimulation (MKS) Mechanische Beanspruchung von Bauteilen und Baugruppen (FEM) CNC-Programmierung und -Simulation (CAM) Rechnergestützte Qualitätssicherung (CAQ) Statistische Simulationen (Design for Six Sigma) Strömungssimulationen mit Computational Fluid Dynamics (CFD) Thermische Simulationen (FEM und CFD) Verwaltung von Simulationsdaten (Simulationsdatenmanagement) Domänenübergreifende Simulation von komplexen dynamischen Systemen (Systemsimulation und Virtuelle Inbetriebnahme)
945
https://de.wikipedia.org/wiki/CERN
CERN
Das CERN, die Europäische Organisation für Kernforschung, ist eine Großforschungseinrichtung in der Nähe von Genf, die teilweise in Frankreich und teilweise in der Schweiz liegt. Am CERN wird physikalische Grundlagenforschung betrieben, insbesondere wird mit Hilfe großer Teilchenbeschleuniger der Aufbau der Materie erforscht. Der derzeit (2019) bedeutendste ist der Large Hadron Collider, der 2008 in Betrieb genommen wurde. Das Akronym CERN leitet sich vom französischen Namen des Rates ab, der mit der Gründung der Organisation beauftragt war, dem Conseil européen pour la recherche nucléaire. Die offiziellen Namen des CERN sind European Organization for Nuclear Research im Englischen beziehungsweise Organisation européenne pour la recherche nucléaire im Französischen. Derzeit hat das CERN 23 Mitgliedstaaten. Mit etwa 3.400 Mitarbeitern (Stand: 31. Dezember 2017) ist das CERN das weltweit größte Forschungszentrum auf dem Gebiet der Teilchenphysik. Über 14.000 Gastwissenschaftler aus 85 Nationen arbeiten an CERN-Experimenten. Das Jahresbudget des CERN beläuft sich 2023 auf ungefähr 1,23 Milliarden Schweizer Franken (ca. 1,27 Milliarde Euro). Das CERN ist außerdem der Geburtsort des World Wide Web. Geschichte Gründung Nach zwei UNESCO-Konferenzen in Florenz und Paris unterzeichneten elf europäische Regierungen die Vereinbarung zu einem provisorischen CERN. Im Mai 1952 traf sich der provisorische Rat zum ersten Mal in Paris. Am 29. Juni 1953, auf der 6. Konferenz des provisorischen CERN in Paris, unterzeichneten Vertreter der zwölf europäischen Staaten die Gründungsurkunde. Im Oktober 1953 wurde auf einer Konferenz in Amsterdam der Sitz des CERN und dessen Laboratoriums in der Nähe von Genf bestimmt. Am 24. Februar 1954 erfolgte die 1. Konferenz des CERN-Rates nach der Gründung in Genf. Am 29. September 1954 ratifizierten sieben der zwölf Mitgliedstaaten den Staatsvertrag zur Gründung. Am 10. Juni 1955 erfolgte die Grundsteinlegung des CERN-Laboratoriums durch Felix Bloch, den ersten regulären Generaldirektor des CERN. Erste Beschleuniger Ursprünglich war das CERN vor allem für die Forschung im Bereich der Kernenergie vorgesehen, schon bald entstanden aber die ersten Teilchenbeschleuniger. 1957 wurde das Synchro-Zyklotron (SC), das Protonen auf bis zu 600 MeV beschleunigte, in Betrieb genommen, das erst nach über 33 Jahren Betrieb 1990 abgeschaltet werden sollte. Am 24. November 1959 folgte das Protonen-Synchrotron (PS) mit einer (damals weltweit höchsten) Protonenergie von 28 GeV, es arbeitet heute noch als Vorbeschleuniger. 1965 erfolgte eine Vereinbarung mit Frankreich, die geplanten Protonen-Speicherringe, Intersecting Storage Rings (ISR) genannt, auch auf französischen Boden auszubauen. 1968 erfand Georges Charpak einen Teilchendetektor, der in einer gasgefüllten Kammer eine große Anzahl parallel angeordneter Drähte zur besseren Orts- und Energieauflösung enthielt. Er revolutionierte mit dieser Drahtkammer den Teilchennachweis und erhielt 1992 den Nobelpreis für Physik. 1970 belief sich das Budget des CERN auf 370 Millionen Schweizer Franken. Die Kosten wurden 1970 zu 23 Prozent durch die Bundesrepublik Deutschland, zu 22 Prozent durch das Vereinigte Königreich und zu 20 Prozent von Frankreich getragen. 1970/71 gingen die großen Blasenkammern Gargamelle und BEBC zur Untersuchung von Neutrino-Reaktionen in Betrieb. 1971 wurde auch der ISR fertiggestellt. 1973 gelang mit Gargamelle die Entdeckung der neutralen Ströme der Z0-Teilchen durch André Lagarrigue. 1976 folgte als neuer Beschleuniger das Super-Protonen-Synchrotron (SPS), das auf einem Bahnumfang von 7 km Protonen mit 400 GeV liefert. 1981 wurde es zum Proton-Antiproton-Collider ausgebaut; dabei wurde die Technik der stochastischen Kühlung von Simon van der Meer genutzt. Im Mai 1983 wurden am CERN die W- und Z-Bosonen entdeckt, Carlo Rubbia und Simon van der Meer erhielten dafür 1984 den Nobelpreis. Die im Laufe der über 60-jährigen Geschichte verwendeten und inzwischen abgebauten oder außer Betrieb gesetzten Beschleuniger sind: Large Electron-Positron Collider (LEP, der Vorgänger des LHC, außer Betrieb) Synchro-Cyclotron (Synchro-Zyklotron, außer Betrieb) Intersecting Storage Rings (Speicherringe, ISR, außer Betrieb) Low Energy Antiproton Ring (LEAR, zu LEIR umgebaut) Large Electron-Positron Collider Im August 1989 ging der Large Electron-Positron Collider (LEP) in Betrieb, einer der größten jemals gebauten Beschleuniger. In einem Tunnel von 27 km Länge kollidierten hier an ausgewählten Orten Elektronen und ihre Antiteilchen, die Positronen, mit Energien von 100 GeV. 1996 wurden am LEAR-Speicherring (Low Energy Antiproton Ring) erstmals Antiwasserstoffatome produziert, es gab dabei erste Hinweise auf geringfügige Unterschiede zwischen Materie und Antimaterie (CP-Verletzung), was 2001 durch ein weiteres Experiment bestätigt wurde. Die vier Detektoren am LEP wurden für den Test des Standardmodells entwickelt. Sie wurden nach erfolgreichem Betrieb abgebaut, um Platz für die LHC-Detektoren zu schaffen. Es handelte sich um die folgenden LEP-Detektoren: ALEPH (Apparatus for LEp PHysics) dient zum Nachweis von Teilchen, die bei der Kollision von Elektronen und Positronen entstehen DELPHI (DEtector with Lepton PHoton and Hadron Identification): Teilchenidentifikation sowie dreidimensionale Teilchenspuren OPAL (Omni Purpose Apparatus for Lep) ist ein großer, zwiebelförmig aufgebauter Vielzweckdetektor zur Messung von Reaktionsprodukten L3-Detektor: Der größte LEP-Detektor enthält mehr als 10.000 Kristalle aus Bismutgermanat zum Nachweis von Elektronen und Photonen. L3 erhielt diesen Namen, weil es sich um den dritten eingereichten Vorschlag für einen LEP-Detektor handelte. Im Jahre 1999 begannen die Bauarbeiten für den LHC in dem Tunnel des Large Electron-Positron Colliders. Im Jahre 2000 wurde der LEP endgültig abgeschaltet. Experimente und Anlagen Grundlagenforschung Am CERN werden der Aufbau der Materie und die fundamentalen Wechselwirkungen zwischen den Elementarteilchen erforscht, also die grundlegende Frage, woraus das Universum besteht und wie es funktioniert. Mit großen Teilchenbeschleunigern werden Teilchen auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Mit einer Vielzahl unterschiedlicher Teilchendetektoren werden sodann die Flugbahnen der bei den Kollisionen entstandenen Teilchen rekonstruiert, woraus sich wiederum Rückschlüsse auf die Eigenschaften der kollidierten sowie der neu entstandenen Teilchen ziehen lassen. Dies ist mit einem enormen technischen Aufwand für die Herstellung und den Betrieb der Anlagen sowie mit extremen Anforderungen an die Rechnerleistung zwecks Datenauswertung verbunden. Auch aus diesem Grund wird CERN international betrieben und finanziert. Beschleuniger Am Anfang der Experimente stehen Beschleuniger, welche den Teilchen die für die Untersuchungen notwendige kinetische Energie verleihen. Hervorzuheben sind das Super Proton Synchrotron (SPS) für die Vorbeschleunigung und der Large Hadron Collider (LHC), der Große Hadronen-Speicherring, der bei weitem größte und aufwendigste Beschleuniger, der am Anfang vieler Experimente steht. Weitere Anlagen sind die CERN Hadron Linacs: Protonen-Linearbeschleuniger (Linac2; 50 MeV) Schwerionen-Linearbeschleuniger (Linac3) Protonen-Linearbeschleuniger (Linac4; 160 MeV) und darüber hinaus: Proton Synchrotron Booster (PSB) Proton Synchrotron (PS) Low Energy Ion Ring (LEIR) Antiproton Decelerator (AD) Isotope Separator On Line DEvice (ISOLDE) Large Hadron Collider Der Large Hadron Collider (LHC) ist der größte Teilchenbeschleuniger der Welt. Der Beschleunigerring hat einen Umfang von 26.659 m und enthält 9.300 Magnete. Zur Durchführung der Experimente muss der Speicherring in zwei Schritten auf die Betriebstemperatur heruntergekühlt werden. Im ersten Schritt werden die Magnete mit Hilfe von flüssigem Stickstoff auf 80 K (−193,2 °C), in einem zweiten Schritt mittels flüssigen Heliums auf 1,9 K (−271,25 °C) heruntergekühlt. Anschließend wird die Anlage kontrolliert hochgefahren. Die Teilchen werden in mehreren Umläufen auf nahezu Lichtgeschwindigkeit beschleunigt und mit extrem hoher kinetischer Energie zur Kollision gebracht. Am 8. August 2008 wurden die ersten Protonen in den LHC geschossen, am 10. September 2008 folgte der erste Rundumlauf von Protonen. Noch vor dem 21. Oktober 2008 sollte es zu den ersten Protonen-Kollisionen kommen; dieser Termin konnte jedoch auf Grund der erzwungenen Abschaltung nach einem Problem nicht eingehalten werden. Am 23. Oktober 2009 wurden erneut Protonen in den Tunnel injiziert. Am 30. März 2010 gelang es erstmals, Protonen mit einer Rekordenergie von jeweils 3,5 TeV (also insgesamt 7 TeV) aufeinandertreffen zu lassen. Es wurden auch erfolgreich Blei-Ionen zur Kollision gebracht, sowie Kollisionen von Blei-Ionen mit Protonen herbeigeführt. 2012 wurde die Gesamtenergie auf 8 TeV erhöht. Seither operiert der LHC in einer Folge von Runs, in denen Experimente laufen, unterbrochen von planmäßigen Pausen, die für Reparaturen und Verbesserungen genutzt werden. Nach dem Long Shutdown LS1 lief der LHC seit dem 5. April 2015 mit einer Gesamtenergie von 13 TeV. Von Ende 2018 an wurde der LHC im Rahmen des zweiten planmäßigen langen Shutdowns (LS2) auf den Betrieb bei der Designenergie von 14 TeV und höherer Kollisionsrate aufgerüstet, seit 22. April 2022 läuft „Run 3“. Detektoren Die bei den Kollisionen entstehenden Teilchen werden im Rahmen verschiedener Experimente mit Hilfe von Detektoren registriert und anschließend von internationalen Wissenschaftler-Teams mittels spezieller Computerprogramme analysiert. Die Experimente bzw. Detektoren am LHC sind: ALICE () ist ein Vielzweckdetektor, optimiert für Kollisionen von Schwerionen, zum Beispiel Blei, bei denen extreme Energiedichten eintreten. ATLAS () mit zwiebelförmigen Aufbau untersucht vor allem hochenergetische Proton-Proton-Kollisionen. Insbesondere soll der Nachweis des Higgs-Teilchens gelingen. Im Juli 2012 gelang mit ATLAS in Verbindung mit CMS der Nachweis (5σ) des seit 1964 vermuteten Higgs-Bosons. Für die Veröffentlichungen zur Vorhersage dieses Teilchens wurde nach der Entdeckung der Physik-Nobelpreis vergeben. Außerdem wurde nach supersymmetrischen Teilchen gesucht. CMS () untersucht ebenfalls Proton-Proton-Kollisionen; Besonderheiten sind ein Kalorimeter aus Bleiwolframat-Kristallen für hochenergetische Photonen, zusätzliche Halbleiterspurdetektoren und ein Myon-Nachweissystem. CMS und ATLAS sind so konzipiert, dass sie eine gegenseitige Überprüfung wissenschaftlicher Resultate garantieren. LHCb () vermisst CP-Verletzung bei B- und D-Mesonen, und sucht nach seltenen Zerfällen von Hadronen, die das schwere Bottom-Quark enthalten. TOTEM () zur Ermittlung der Größe des Protons mit bislang noch unerreichter Genauigkeit. LHCf () untersucht Kollisionsprodukte, die nahezu exakt in Richtung der Teilchenstrahlen fliegen. Die Ergebnisse werden unter anderem zur Simulation kosmischer Strahlung genutzt. MoEDAL () sucht nach magnetischen Monopolen sowie möglichen Relikten mikroskopischer Schwarzer Löcher und supersymmetrischer Teilchen. Weitere physikalische Experimente Neben den Experimenten am LHC werden mit den anderen Beschleunigern und Detektoren weitere Experimente durchgeführt zur Erforschung von Hadronstruktur und -produktion, Neutrinooszillation und Dunkler Materie: COMPASS-Experiment (Common Muon Proton Apparatus for Structure and Spectroscopy): COMPASS ist ein Experiment aus dem Bereich der Hochenergiephysik am Super Proton Synchrotron (SPS). Ziel des Experiments ist zum einen die Erforschung der Hadronstruktur und zum anderen Hadronspektroskopie mit Myon- und Hadronstrahlen hoher Intensität. Das COMPASS-Spektrometer wurde in den Jahren 1999 bis 2000 aufgebaut und im Rahmen eines technischen Runs 2001 in Betrieb genommen. Die Datennahme begann im Sommer 2001 und wird nach einjähriger Unterbrechung seit 2005 fortgesetzt. 240 Wissenschaftler aus 12 Ländern und 28 Instituten sind bei COMPASS engagiert. NA61/SHINE Experiment (SPS Heavy Ion and Neutrino Experiment): NA61/SHINE erforscht die Hadronproduktion bei Kollisionen von verschiedenen Hadron- und Ionstrahlen mit diversen nuklearen Targets bei SPS Energien. Die Ziele des Experiments umfassen die Untersuchung der Eigenschaften des onset of deconfinement, die Suche nach dem kritischen Punkt der stark wechselwirkenden Materie, sowie Referenzmessungen für Experimente mit Neutrinos (T2K) und kosmischer Strahlung (Pierre-Auger-Observatorium). CNGS (CERN Neutrinos to Gran Sasso (Italien)): Ziel des Experiments ist es, die Neutrinooszillation zu untersuchen. Dazu wird mit Hilfe des SPS-Beschleunigers ein Neutrino-Strahl erzeugt, der mit dem OPERA im italienischen Labor Gran Sasso National Laboratory (LNGS) detektiert und untersucht werden soll. Die Konstruktion begann im September 2000. Am 18. August 2006 hat OPERA den ersten Neutrino-Strahl detektiert, am 2. Oktober 2007 den ersten Strahl aus dem CERN ISOLDE (): Ist ein on-line Isotopen-Massenseparator, mit dem eine Vielzahl radioaktiver Ionenstrahlen erzeugt werden kann, die in Experimenten der Atom-, Kern-, Astro- und Festkörperphysik und biomedizinischen Studien Verwendung finden. Mehr als 700 Isotope von 70 verschiedenen Elementen mit Lebensdauern bis in den Millisekunden-Bereich wurden bisher untersucht. CAST-Experiment (CERN Axion Solar Telescope): In diesem Experiment wird versucht, mittels eines sehr starken Magnetfelds so genannte solare Axionen nachzuweisen. Dies sind hypothetische, subatomare, mit gewöhnlicher Materie nur sehr schwach wechselwirkende Teilchen, die als Hauptkandidaten für die Existenz Dunkler Materie gelten (siehe auch: Primakoff-Effekt). Daneben werden eine Vielzahl kleinerer Experimente durchgeführt, so unter anderem: CLOUD-Experiment (Cosmics Leaving Outdoor Droplets): Ist ein seit 2006 laufendes internationales Projekt am Proton Synchrotron (PS) zur Untersuchung des Einflusses von kosmischer Strahlung auf die Bildung von Kondensationskeimen (Aerosolen) in der Atmosphäre und damit auf die Wolkenbildung. Computertechnik Um die ungeheuren Datenmengen, die seit November 2009 an den vier großen Experimenten ALICE, ATLAS, CMS und LHCb des LHC anfallen, verarbeiten zu können, wurde das LHC Computing Grid, ein System für verteiltes Rechnen, entwickelt. Auch das World Wide Web hat seine Ursprünge am CERN. Um Forschungsergebnisse auf einfache Art und Weise unter den Wissenschaftlern austauschen zu können, wurde das Konzept bereits 1989 quasi als Nebenprodukt der eigentlichen Forschungsarbeit von Tim Berners-Lee entwickelt. Sonstige Innovationen Das CERN betreibt das Open Hardware Repository zur Sammlung und Adaption technischer Dokumentation (Open Hardware). 2011 wurde zudem die CERN Open Hardware License (OHL) veröffentlicht. Forschungsergebnisse Viele fundamentale Erkenntnisse über den Aufbau der Materie und die Grundkräfte der Physik wurden am CERN gewonnen. Die Entdeckung der W- und Z-Bosonen gelang 1983 Carlo Rubbia und Simon van der Meer, für die sie 1984 den Nobelpreis erhielten. Auch der erste Hinweis auf die Entstehung eines Quark-Gluon-Plasmas bei extrem hohen Temperaturen wurde 1999 am Relativistic Heavy Ion Collider (RHIC) gefunden. Folgeexperimente laufen am LHC mit dem ALICE-Detektor. Im Jahre 2002 gelang die Produktion und Speicherung von mehreren tausend „kalten“ Antiwasserstoff-Atomen durch die ATHENA-Kollaboration, ebenso begann die Datenaufnahme im COMPASS-Experiment. Ein weiteres Forschungsfeld ist die Erforschung des Higgs-Bosons, eines wichtigen Teils des Standardmodells. Nach jahrzehntelanger Suche wurde 2012 ein Teilchen gefunden, das in allen gemessenen Eigenschaften mit dem gesuchten Higgs-Boson übereinstimmt. Die Erhöhung der Energie am Large Hadron Collider von 7 auf 13 TeV ermöglicht es, dessen Eigenschaften genauer zu vermessen. Dies ist auch für die Suche nach schweren Teilchen notwendig sowie für die genauere Untersuchung des Quark-Gluon-Plasmas. Standort und rechtlicher Status Das CERN hat zwei Hauptgelände, die sich nahe Genf befinden. Eines davon, die Site de Meyrin, liegt auf der Grenze zwischen Frankreich und der Schweiz und verteilt sich auf die Gemeinde Meyrin in der Schweiz sowie die Gemeinden Prévessin-Moëns und Saint-Genis-Pouilly in Frankreich. Die Site de Prévessin befindet sich etwa drei Kilometer weiter nördlich und liegt ausschließlich auf französischem Staatsgebiet. Sie verteilt sich etwa zu gleichen Teilen auf Prévessin-Moëns und Saint-Genis-Pouilly. Das CERN hat damit, wie auch das Europäische Laboratorium für Molekularbiologie, als internationales Forschungszentrum eine besondere Stellung. Das oberste Entscheidungsgremium der Organisation ist der Rat des CERN, in welchen alle Mitgliedsstaaten jeweils zwei Delegierte entsenden: einen Repräsentanten der Regierung und einen Wissenschaftler. Die offiziellen Arbeitssprachen des CERN sind Englisch und Französisch. Seit Dezember 2012 verfügt das CERN über einen Beobachterstatus bei der Generalversammlung der Vereinten Nationen. Dieser besondere Status verleiht dem CERN das Recht, bei Konferenzen der Generalversammlung zu sprechen, bei formellen Abstimmungen zu votieren und UN-Resolutionen zu unterstützen und unterzeichnen, nicht jedoch über sie mit abzustimmen. Der Status wurde verliehen, nachdem die Schweiz und Frankreich unter Befürwortung aller weiteren 18 Mitgliedsstaaten sowie diverser weiterer Nicht-Mitgliedsstaaten einen entsprechenden Antrag gestellt hatten. Begründet wurde die Entscheidung mit der wichtigen Rolle des CERN in Wissenschaft und Entwicklung und dem Aspekt der außerordentlichen internationalen Zusammenarbeit. Organisation Rechtliche Grundlagen Der rechtliche Status des CERN beruht auf einem Abkommen zwischen der Schweiz und der Europäischen Organisation für kernphysikalische Forschung vom 11. Juni 1955. Im Abkommen werden die internationale Rechtspersönlichkeit und die Rechtsfähigkeit der Organisation festgelegt. Demnach genießt das CERN die bei internationalen Organisationen üblichen Immunitäten und Vorrechte, soweit sie zur Erfüllung ihrer Aufgaben notwendig sind. Auch die natürlichen Personen, die das CERN nach außen hin vertreten, genießen in der Schweiz Immunität. Das CERN unterliegt weder der Schweizer Gerichtsbarkeit noch dem Schweizer Steuerregime. Mitgliedstaaten Die Gründungsmitglieder 1954 waren die Schweiz, Belgien, Dänemark, Bundesrepublik Deutschland, Frankreich, Griechenland, Vereinigtes Königreich, Italien, Jugoslawien (bis 1961), Niederlande, Norwegen und Schweden. Es folgten weitere Staaten: Österreich (1959), Spanien (1961–1968 und ab 1983), Portugal (1986), Finnland (1991), Polen (1991), Ungarn (1992), Tschechien (1993), Slowakei (1993), Bulgarien (1999), Israel (2013), Rumänien (2016) und Serbien (2018). Finanzierung (Budget 2020) Die Anteile der Finanzierung haben dabei keinen beziehungsweise nur geringen Einfluss auf die Vertretung der einzelnen Nationalitäten. Dies spiegelt sich sowohl bei den offiziellen Arbeitssprachen Englisch und Französisch, als auch bei der Herkunft der beschäftigten Mitarbeiter () und Gastwissenschaftler () wider. Deutschland ist hier mit 1194 Gastwissenschaftlern (Stand: 2015) im Vergleich zu seinem Finanzierungsanteil deutlich unterrepräsentiert. Auch auf die Anzahl der in den Rat des CERN entsandten Vertreter haben die Anteile an der Finanzierung keinen Einfluss. Assoziierte Mitglieder, Beobachterstatus und Kooperationen Slowenien, Estland und die Republik Zypern sind assoziierte Mitglieder im Vorstadium einer Vollmitgliedschaft. Pakistan, Indien, die Ukraine, die Türkei, Litauen und Kroatien sind assoziierte Mitglieder. Beobachterstatus haben gegenwärtig die Staaten Japan und die Vereinigten Staaten sowie die internationalen Organisationen Europäische Union, JINR und UNESCO. Der Beobachterstatus Russlands wurde als Reaktion auf den Russischen Überfall auf die Ukraine 2022 bis auf Weiteres suspendiert. Später erklärte der CERN Council seine Absicht, die 2024 auslaufenden Kooperationsvereinbarungen mit Russland und Belarus nicht zu verlängern. CERN hat zudem Kooperationsvereinbarungen mit mehr als 40 weiteren Staaten abgeschlossen, darunter Australien, Brasilien, Volksrepublik China, Iran, Kanada und Südkorea. Generaldirektoren Siehe auch (15332) CERN, ein nach dem CERN benannter Asteroid Literatur Robert Jungk: Die große Maschine – Auf dem Weg in eine andere Welt. Bern/München/Wien, 1966 Martin Beglinger: Der Staat der Physiker. In: Das Magazin, N° 43, 1. November 2013, Lauter Teilchenbeschleuniger: Menschen am Cern. Tamedia AG, Zürich. Abgerufen am 6. Dezember 2014 (online). Hannelore Dittmar-Ilgen: 50 Jahre CERN – Ein Beitrag Europas für die Zukunft. In: Naturwissenschaftliche Rundschau. 57, 12, Stuttgart 2004, , S. 653–660. Jürgen Drees, Hans Jürgen Hilke: 50 Jahre CERN, Physik Journal, Band 3, 2004, Nr. 10, S. 47–53 Rolf Landua: Am Rande der Dimensionen. Gespräche über die Physik am CERN. Suhrkamp, Frankfurt am Main 2008, ISBN 3-518-26003-0. Andri Pol: Menschen am Cern – Europäische Organisation für Kernforschung. Herausgegeben von Lars Müller, mit Texten von Peter Stamm und Rolf Heuer. Lars Müller Publishers, Baden 2013. History of CERN, 3 Bände, North Holland Band 1: Armin Hermann, Lanfranco Belloni, Gerhard John Krige, Ulrike Mersits, Dominique Pestre: Launching the European Organization for Nuclear Research Band 2: Armin Hermann, Gerhard John Krige, Ulrike Mersits, Dominique Pestre, Laura Weiss: Building and Running the Laboratory, 1990 Band 3: Herausgeber J. Krige, 1996 Weblinks Homepage (englisch, französisch) Ausführliche Seite über den LHC Teilchenbeschleuniger mit vielen Einzelartikeln Was ist das CERN? – Interview mit einem CERN-Physiker über das CERN, den LHC und die Suche nach HIGGS vom 6. März 2008 Einzelnachweise Forschungseinrichtung (Physik) Europäische Organisation Wissenschaftliche Organisation (Schweiz) Bauwerk im Kanton Genf Organisation als Namensgeber für einen Asteroiden Gegründet 1954 Grenze zwischen Frankreich und der Schweiz Organisation (Meyrin)
964
https://de.wikipedia.org/wiki/Charles%20Sanders%20Peirce
Charles Sanders Peirce
Charles Santiago Sanders Peirce (ausgesprochen: /'pɜrs/ wie: pörs) (* 10. September 1839 in Cambridge, Massachusetts; † 19. April 1914 in Milford, Pennsylvania) war ein US-amerikanischer Mathematiker, Philosoph, Logiker und Semiotiker. Peirce gehört neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus, wobei er sich später deutlich von den Entwicklungen der pragmatischen Philosophie distanzierte (insbesondere wendete er sich gegen die relativistische Nützlichkeitsphilosophie, die von vielen Pragmatisten als Grundprinzip der Wahrheit mit dem Pragmatismus gelehrt wurde) und sein philosophisches Konzept fortan Pragmatizismus nannte, um sich von James, Dewey, Schiller und Royce abzugrenzen; außerdem gilt er als Begründer der modernen Semiotik. Bertrand Russell und Karl-Otto Apel bezeichneten ihn als den „größten amerikanischen Denker“, Karl Popper betrachtete ihn sogar als „einen der größten Philosophen aller Zeiten“. Peirce leistete wichtige Beiträge zur modernen Logik, unter anderem: Er führte einen Signifikanztest ein, der prüft, ob eine oder mehrere Messungen zu derselben Normalverteilung gehören wie die übrigen. Er wies nach, dass aus der logischen Nicht-Und- (NAND) beziehungsweise der logischen Nicht-Oder-Operation (NOR, zu seinen Ehren auch Peirce-Operator genannt) alle anderen aussagenlogischen Junktoren abgeleitet werden können. Er führte die Standardnotation für Prädikatenlogik erster Ordnung ein. Wichtigste Theorien in der Semiotik: Theory of signs und Theory of meaning. Oft wird ihm zugeschrieben, 1885 die Wahrheitstabellen als Mittel eingeführt zu haben, um zu überprüfen, ob eine zusammengesetzte Aussage eine Tautologie ist. Man findet aber dieses semantische Entscheidungsverfahren etwas abstrakt schon bei Boole. Peirce stellte jedoch den Zweck der Tautologiegewinnung deutlich heraus. Peirce beschäftigte sich auch mit logischen Schlussfolgerungsweisen und führte neben der bekannten Induktion und Deduktion die Abduktion (Hypothese) als dritte Schlussfolgerungsweise in die Logik ein. Aus der Abfolge von Abduktion, Deduktion und Induktion entwickelte er einen erkenntnis- und wissenschaftstheoretischen Ansatz. Leben Peirce wurde in Cambridge, Massachusetts, als zweites von fünf Kindern von Sarah und Benjamin Peirce (1809–1880) geboren. Sein Vater war Professor für Astronomie und Mathematik an der Harvard University und nachweislich der erste ernsthaft forschende Mathematiker in den USA. Sein Lebensumfeld war das eines gut situierten Bildungsbürgertums. Schon als Junge erhielt Peirce von einem Onkel die Einrichtung eines Chemielabors. Sein Vater erkannte seine Begabung und bemühte sich, ihm eine umfassende Bildung zu vermitteln. Mit 16 Jahren begann er die Kritik der reinen Vernunft zu lesen. Er benötigte für das Studium des Werkes, mit dem er sich täglich mehrere Stunden auseinandersetzte, drei Jahre, nach denen er nach eigener Aussage das Buch fast auswendig konnte. Peirce litt seit seiner späten Jugend an Schmerzattacken, die heute als Trigeminusneuralgie diagnostiziert würden. Sein Biograph Joseph Brent berichtet, dass er während dieser Schmerzen „zuerst fast betäubt war, dann distanziert, kalt, deprimiert, extrem misstrauisch, ungeduldig bei der kleinsten Berührung und zu heftigen Wutausbrüchen neigend“. Peirce studierte an der Harvard University und an der Lawrence Scientific School. Er bestand 1862 den Master of Arts und war einer der ersten (1863), die den Bachelor of Science im Fach Chemie ablegten – mit Summa cum laude. Noch während seines Chemiestudiums heiratete er Harriett Melusina Fay, die aus einer prominenten Pfarrersfamilie stammte. Sie veröffentlichte Bücher zu allgemein politischen Themen und war in der Frauenrechtsbewegung aktiv. Von 1859 bis 1891 war er mit Unterbrechungen bei der United States Coast and Geodetic Survey tätig. Ab 1861 hatte er eine reguläre Planstelle, so dass er nicht am amerikanischen Sezessionskrieg teilnehmen musste. Er erhielt diese Stelle auf Vermittlung seines Vaters, der als einer der Gründer dieser Behörde dort als Aufsichtsrat fungierte. Peirce' Aufgabenfeld lag im Bereich Geodäsie und Gravimetrie in der Weiterentwicklung der Anwendung von Pendeln zur Bestimmung von lokalen Abweichungen in der Erdgravitation. In Harvard hielt Peirce zwischen 1864 und 1870 nebenberuflich Vorlesungen über Wissenschaftsgeschichte und Wissenschaftstheorie. Schon zu diesem Zeitpunkt findet man in den Manuskripten der Vorlesungen fast alle Grundthemen der Philosophie, die ihn sein Leben lang beschäftigten. Zu Beginn war er sehr stark von Kant geprägt, setzte sich aber intensiv mit Fragen der Logik auseinander und entwickelte zunächst seine eigene Kategorienlehre. Die logischen Arbeiten standen in den ersten Jahren im Vordergrund. So befasste er sich 1865 mit der neuen Logik von George Boole und 1866 erhielt er einen Sonderdruck von Augustus De Morgans Logik der Relative, die seiner Denkentwicklung einen wesentlichen Impuls gab. 1867 wurde er in die American Academy of Arts and Sciences gewählt, 1877 in die National Academy of Sciences. 1868 veröffentlichte Peirce eine Artikelserie in den Proceedings der American Academy of Arts and Sciences (PAAAS, Band 7, 1868). On an Improvement in Boole's Calculus of Logic On the Natural Classification of Arguments On a New List of Categories Upon the Logic of Mathematics Kurz darauf publizierte er im Journal of Speculative Philosophy die zweite Artikelserie Nominalism versus Realism What is Meant by 'Determined'? Questions Concerning Certain Faculties Claimed for Man Some Consequences of Four Incapacities Grounds of the Validity of the Laws of Logic. Further Consequences of Four Incapacities Ab 1869 schrieb Peirce in unregelmäßigen Abständen eine Vielzahl von Rezensionen und kleineren Beiträgen in The Nation, der Sonntagsausgabe der New York Evening Post. Zum Jahreswechsel 1869/70 hielt Peirce erneut Vorlesungen über die Geschichte der Logik mit Schwerpunkt „British Logicians“ an der Harvard-Universität. In den 1860er Jahren begleitete Peirce interessiert die astronomischen Forschungen des gleichaltrigen George Mary Searle, der in dieser Zeit ebenfalls für die Coast Survey und am Harvard Observatory tätig war. Von 1869 bis 1872 arbeitete Peirce dann selbst im astronomischen Observatorium von Harvard als Assistent über Fragen der Photometrie zur Bestimmung der Helligkeit von Sternen und der Struktur der Milchstraße. 1870 erschien eine kleine, für Peirce und Logiker aber wichtige Schrift über die Logik der Verwandten (Begriffe), die auch als Vortrag vor der American Academy of Arts and Sciences veröffentlicht wurde unter dem Titel Description of a Notation for the Logic of Relatives, Resulting from the Amplification of Boole's Calculus of Logic (CP 3.45–148). Wichtig für Peirce und auch für William James war ein Zirkel junger Wissenschaftler verschiedener Disziplinen Anfang der 1870er Jahre, der als „metaphysischer Club“ bezeichnet wurde. Hier lernte Peirce die Philosophie von Alexander Bain kennen, von dem er das Prinzip des Zweifels und der Überzeugungen, die das Handeln der Menschen bestimmen, übernahm. Peirce trug seine Grundgedanken zum Pragmatismus vor und stellte sie zur Debatte, woraus später seine wichtige Aufsatzreihe von 1877/78 entstand. Diese Veröffentlichung in Popular Science wird gewöhnlich als die Geburtsstunde des Pragmatismus bezeichnet. Die Aufsatzreihe umfasst die Titel The Fixation of Belief (1877) How to Make Our Ideas Clear (1878) The Doctrine of Chances (1878) The Probability of Induction (1878) The Order of Nature (1878) Deduction, Induction, and Hypothesis (1878) Zwischen 1871 und 1888 konnte Peirce im Rahmen seiner geodätischen Aufgabenstellung insgesamt fünf jeweils mehrmonatige Forschungsreisen nach Europa unternehmen, wo er eine Reihe prominenter Wissenschaftler traf. In einem Bericht an den Coast Survey legte Peirce 1879 eine neue Methode der Kartenprojektion vor, die er „Quincunx“ oder auch „quincunial projection“ nannte. Diese Art der Projektion wurde (in erweiterter Fassung) noch im Zweiten Weltkrieg von der Coast Survey als besonders geeignet zur Aufzeichnung internationaler Flugrouten vorgeschlagen. 1879 wurde Peirce „half-time lecturer of logic“ an der Johns-Hopkins-Universität in Baltimore, seine einzige akademische Festanstellung. Dort waren unter anderem John Dewey und Josiah Royce seine Hörer. In dieser Zeit kam es zur Veröffentlichung von A Brief Description of the Algebra of Relatives (1882, Privatdruck) und der Herausgabe der Studies in Logic by Members of the Johns Hopkins University (1883). Peirce hatte außer dieser Anstellung niemals wieder eine feste akademische Stelle. Von seinen Biographen wird als Ursache seine schwierige Persönlichkeit gesehen. Es gibt Vermutungen, dass er manisch-depressiv gewesen sei (Brent). Seine erste Frau verließ ihn 1876 während eines Europaaufenthaltes, von dem sie allein zurückkehrte. Über den Grund haben sich beide nie geäußert. Schon bald darauf ging er ein Verhältnis mit Juliette Froissy (Geburtsname nicht gesichert) ein, mit der er bis zu seiner Scheidung von Fay 1883 unverheiratet zusammenlebte. Schon zwei Tage nach der Scheidung heiratete er Juliette. Vermutlich aufgrund des damit verbundenen Skandals verlor er 1884 seinen Posten an der Johns-Hopkins-Universität. 1887 nutzte Peirce die Erbschaft seiner Eltern, um sich eine Farm bei Milford, Pennsylvania, zu kaufen, wo er – mit Ausnahme einiger Reisen, vor allem zu Vorträgen – den Rest seines Lebens verbrachte, unablässig schreibend. Ende der 1880er Jahre leistete Peirce einen wesentlichen Beitrag zu The Century Dictionary and Cyclopedia, einer von James Mark Baldwin herausgegebenen, 450.000 Begriffe und Namen umfassenden Enzyklopädie in den Bereichen Mechanik, Mathematik, Astronomie, Astrologie und Philosophie. Nachdem er einen umfangreichen wissenschaftlichen Bericht über seine Pendelversuche an die US Coast Survey geliefert hatte, dieser aber von dem erst seit kurzem amtierenden Superintendenten Thomas C. Mendenhall abgelehnt worden war, gab Peirce seine Stellung bei dieser Behörde nach über 30 Jahren Ende 1891 auf. Damit hatte er seine gesicherte wirtschaftliche Lebensgrundlage verloren und musste nun sein Geld ausschließlich durch Unterricht, Übersetzungen, Vorträge und Veröffentlichungen verdienen. Eine wesentliche Basis waren Lexikonbeiträge sowie die Rezensionen in der Zeitschrift The Nation, mit deren Herausgeber Wendell Phillips Garrison Peirce freundschaftlich verbunden war. Durch eine weitere Freundschaft mit einem Richter fand er auch ab ca. 1890 Zugang zu Paul Carus, dem Herausgeber der Zeitschrift The Monist, in der er eine Vielzahl von Aufsätzen veröffentlichte. Erst spät baute Peirce seine metaphysischen Gedanken aus, insbesondere den des Kontinuums und die Integration der Evolution in seine Philosophie. Diesen Themenkreis behandelte Peirce in seiner ersten Aufsatzserie in The Monist (1891–1893): The Architecture of Theories The Doctrine of Necessity Examined The Law of Mind Man's Glassy Essence Evolutionary Love Reply to the Necessitarians Den Schwerpunkt Logik und Methoden logischen Schließens hatte eine Artikelserie aus dem Jahr 1892 in The Open Court, einer ebenfalls von Carus herausgegebenen Zeitschrift: Pythagorics The Critic of Arguments I. Exact Thinking Dmesis The Critic of Arguments II. The Reader is Introduced to Relatives Der formale und mathematische Anspruch dieser Artikelreihe war so hoch, dass zwei weitere Artikel, deren Manuskripte bereits fertiggestellt waren, nicht mehr zur Veröffentlichung kamen: The Critic of Arguments III. Synthetical Propositions a priori The Critic of Arguments IV. Peirce Verhältnis zur Religion ergibt sich unter anderem aus drei Artikeln in The Open Court aus dem Jahr 1893, in denen er sich einerseits für eine klare Trennung von Wissenschaft und Religion aussprach, andererseits Verkrustungen und Zersplitterungen der verfassten Kirchen kritisierte. Liebe ist das Prinzip für das Leben und die einzige Grundlage einer Universalreligion. Die Titel der Aufsätze lauten: The Marriage of Religion and Science Cogito Ergo Sum What is Christian Faith In den Folgejahren begann er eine Reihe von Buchprojekten, die sich jedoch nicht realisieren ließen, obwohl die Manuskripte zum Teil schon weit gediehen waren. Im Winter 1892/93 konnte Peirce am Lowell Institut 12 Vorlesungen über Wissenschaftsgeschichte halten. Im Lauf der Zeit geriet er in immer größere finanzielle Schwierigkeiten, die ihn bis an sein Lebensende begleiteten. Oft genug fehlte das Geld, um auch nur Nahrungsmittel oder Brennmaterial für die Heizung zu beschaffen. Auf Vermittlung von William James, mit dem er seit der Zeit seines Chemiestudiums befreundet war, konnte Peirce im Jahr 1898 eine Vorlesungsreihe in Cambridge mit dem Generalthema Reasoning and the Logic of Things halten. 1903 konnte James nochmals helfen, so dass Peirce die Möglichkeit einer Vorlesungsreihe in Harvard über Pragmatism as a Principle and Method of Right Thinking erhielt. Ebenfalls 1903 konnte Peirce acht Vorlesungen am Lowell Institut über Some Topics of Logic Bearing on Questions Now Vexed halten. Die drei Vorlesungsreihen sind für die Rezeption wichtig, da Peirce sich auf Drängen von James bemüht hatte, seine Vorlesungen nicht zu schwierig zu gestalten, sondern auf ein allgemeines Publikum auszurichten. So hat Peirce in einem relativ reifen Stadium seines Denkens wesentliche Eckpunkte seiner Philosophie in einem geschlossenen Zusammenhang dargestellt, allerdings nicht veröffentlicht. Einen anderen Überblick über das Denken von Peirce gibt eine Bewerbung aus dem Jahr 1902 auf ein Stipendium der Carnegie Institution, in der er in einem umfangreichen Exposé darlegt, wie er seine Philosophie in einem geschlossenen Werk darstellen könnte. Seine Bewerbung wurde jedoch abgelehnt. Ebenfalls in das Jahr 1903 fällt die Rezension des Buches What is Meaning von Victoria Lady Welby. Diese hatte für die Klärung des Begriffs Bedeutung einen semiotischen Ansatz mit drei Graden der Signifikation gefunden. Hieraus entspann sich ein langjähriger Briefwechsel, aus dem sich umfangreiche Darlegungen zur Semiotik ergaben. In den Jahren 1905 bis 1907 distanzierte Peirce sich immer mehr von den anderen Pragmatisten und nannte schließlich seine Philosophie Pragmatizismus. Ab 1906 wurde er von einer Stiftung unterstützt, die James ins Leben gerufen hatte. Peirce blieb ohne Kinder und starb 1914 an Krebs, zwanzig Jahre vor seiner Witwe. Schriften (siehe auch das – unvollständige – Verzeichnis der Schriften von Charles Sanders Peirce) Peirce hat seine Gedanken zur Mathematik, Logik und Philosophie niemals in einer geschlossenen Arbeit publiziert. Während seiner Tätigkeit an der Johns-Hopkins-Universität gab er die Studies in Logic (1883) heraus, die einige Kapitel von ihm selbst sowie weitere seiner Doktoranden enthielten. Sein Ruf ist ursprünglich fast ausschließlich begründet durch Aufsätze in Fachzeitschriften. Nach seinem Tod erwarb die Harvard-Universität auf Veranlassung von Josiah Royce die Papiere aus seinem Nachlass. Da Royce bereits 1916 verstarb, kam es nicht zur geplanten Aufarbeitung des Materials. Es wurde ein kleiner unvollständiger Katalog verfasst. Die Unterlagen wurden in 83 Kisten verpackt und verschwanden zunächst in den Archiven der Universität. Dass Peirce überhaupt weiter rezipiert wurde, verdankt sich Morris Raphael Cohen, der 1923 einen Sammelband unter dem Titel Chance, Love and Logic mit einigen wichtigen Aufsätzen von Peirce herausgab. Beigefügt ist auch ein Aufsatz von Dewey aus dem Jahr 1916, den dieser im Rückblick auf Peirce verfasst hatte. Das Vorhaben der Herausgabe der Werke von Peirce wurde erst in den 1930er-Jahren in Harvard von Charles Hartshorne und Paul Weiss aufgegriffen. Aus der Fülle des gesamten Materials wurden die meisten Veröffentlichungen sowie umfangreiches unveröffentlichtes Material thematisch zusammengestellt und zwischen 1931 und 1935 in sechs Bänden als Collected Papers publiziert. Die Themen der Bände lauten: I. Principles of Philosophy (1931) II. Elements of Logic (1932) III. Exact Logic (1933) IV. The Simplest Mathematics (1933) V. Pragmatism and Pragmaticism (1934) VI. Scientific Metaphysics (1935) Zwei weitere Bände wurden mit Förderung der Rockefeller Foundation erst nach dem Zweiten Weltkrieg ergänzt und von Arthur W. Burks herausgegeben: VII. Science and Philosophy (1958) VIII. Reviews, Correspondence, and Bibliography (1958) Erst mit der Herausgabe der Collected Papers begann man sich überhaupt mit den Arbeiten von Peirce intensiver auseinanderzusetzen. Durch die systematische Zusammenstellung der Collected Papers ist allerdings der innere Zusammenhang des Werkes teilweise verloren gegangen. So wurden Aufsatzreihen und Vorlesungen teilweise auf die verschiedenen Bände verteilt und Arbeiten aus verschiedenen Entwicklungsphasen nebeneinandergestellt, obwohl bei Peirce eine deutliche Entwicklung des Denkens zu konstatieren ist. Zum Teil wurden sogar zum Zweck der systematischen Darstellung Fragmente verschiedener, zeitlich nicht zusammengehörender Texte zusammengestellt. Erst nach Veröffentlichung der Collected Papers begann man mit einer systematischen Katalogisierung und Mikroverfilmung. Die Mikroverfilmung war erst 1966 (vorläufig) abgeschlossen. Immer wieder wurden in den Archiven Ergänzungen gefunden, zuletzt 1969, so dass die Mikrofilmdateien und die Kataloge jeweils nachgepflegt werden mussten. Die aktuelle Katalogisierung basiert auf dem Jahr 1971. Erst dann wurde klar, dass Peirce neben den 12.000 Druckseiten seines Werkes ungefähr 1650 unveröffentlichte Manuskripte mit ca. 80.000 handschriftlichen Seiten hinterlassen hatte, von denen der größte Teil auch heute noch nicht veröffentlicht ist. Ein Teil der Unterlagen, der nicht nach Harvard gegangen war, ging verloren, weil er nach dem Tode von Peirce' Frau Juliette verbrannt wurde. Da die Collected Papers unvollständig sind und auch nicht allen wissenschaftlichen Ansprüchen genügen, wurde in den 1970er Jahren im Rahmen des sogenannten Peirce Edition Projects mit einer kritischen, chronologisch organisierten Edition begonnen, in der bis 2004 sechs von geplanten ca. 30 Bänden erschienen sind, die die Zeit bis 1890 abdecken. Eine wesentliche Ergänzung der gedruckten Werke ist die Ausgabe vorwiegend mathematisch-naturwissenschaftlicher Schriften in vier Bänden (fünf Teilbänden) unter dem Titel The New Elements of Mathematics aus dem Jahr 1976 durch Carolyn Eisele. Die Rezensionen und Beiträge für die Zeitschrift The Nation sind in der vierbändigen Ausgabe C.S. Peirce: Contributions to the Nation von Ketner/Cook aus dem Jahr 1975–1979 erfasst. Eine weitere wichtige Quelle ist Semiotic and Significs. The Correspondence between CHARLES S. PEIRCE and VICTORIA LADY WELBY, herausgegeben von Charles S. Hardwick (1977). Peirce' Schriften umfassen ein weites Feld an Disziplinen: von der Astronomie über Meteorologie, Geodäsie, Mathematik, Logik, Philosophie, Geschichte und Philosophie der Wissenschaften, Sprachwissenschaft, Ökonomie bis zur Psychologie. Sein Werk zu diesen Themen fand nun in jüngerer Zeit erneute Aufmerksamkeit und Zustimmung. Diese Wiederbelebung ist nicht nur angeregt durch die Vorwegnahme aktueller wissenschaftlicher Entwicklungen durch Peirce, sondern vor allem auch dadurch, dass seine triadische Philosophie und Semiotik sowohl in der modernen Logik als auch in vielen Wissenschaftsbereichen von der Linguistik über die Rechts- und Religionswissenschaften bis hin zur Informatik einen Schlüssel zur methodischen Strukturierung des Stoffs für die praktische Arbeit bietet. Peirce bewies 1881 unabhängig von Ferdinand Georg Frobenius den Satz von Frobenius zur Klassifizierung der endlich-dimensionalen reellen assoziativen Divisionsalgebren. Philosophie Kategorienlehre Am 14. Mai 1867 legte der 27-jährige Peirce der American Academy of Arts and Sciences ein Papier mit dem Titel On a New List of Categories vor, das im folgenden Jahr veröffentlicht wurde. Das Papier umriss eine Theorie der Prädikation, die drei universelle Kategorien umfasste, die Peirce als Reaktion auf die Lektüre von Aristoteles, Immanuel Kant und G. W. F. Hegel entwickelt hatte, Kategorien, die Peirce für den Rest seines Lebens in seiner Arbeit anwandte. Als Grundlage aller weiteren Betrachtungen entwickelte Peirce eine Kategorienlehre, die sich nicht wie bei Kant mit den Arten der Erkenntnis, sondern mit Erscheinungsweisen des Seins befasst und die Grundlage seiner Zeichenlehre bildet. Die Kategorien von Peirce können nicht mit Logik beschrieben, sondern nur phänomenologisch untersucht werden. Sie sind in jedem Phänomen enthalten und daher universal. Begrifflich unterschied Peirce rein formal Erstheit, Zweitheit und Drittheit als Formen, in denen alles, was ist, sich widerspiegelt: Erstheit ist das Sein von etwas ohne Bezug auf etwas anderes. Es ist das Sein an sich (unabhängig vom Bewusstsein), das als reine Möglichkeit besteht (z. B. Röte als Möglichkeit); Zweitheit ist die Bestimmung des hier und jetzt von etwas Seiendem (der Gegensatz zweier noch unreflektierter Gefühle); Drittheit ist das Prinzip, das hinter den Dingen steht, die mit der Erscheinung verbundene Gesetzmäßigkeit (z. B. dass eine Tür zu öffnen ist, dass ein Tisch eine Ablagefläche hat, der Algorithmus des Computerprogramms). In einer kritischen Analyse der Kategorien Kants zeigte Peirce, dass diese auf die Funktion der Modalität zurückführbar sind und eine Entsprechung mit seinen eigenen Kategorien haben, indem man Möglichkeit = Erstheit, Aktualität = Zweitheit und Notwendigkeit = Drittheit setzt. Ähnlich verhält es sich mit den Relationen Qualität (1), Tatsache (2) und Verhalten bzw. Gesetz (3) sowie mit den Begriffen Gegenstand (1), Relation (2) und Repräsentation (3). Die Triade war für Peirce eine grundlegende Perspektive auf alle Phänomene, und er sah sie sogar in der christlichen Dreifaltigkeit bestätigt. Die Kategorien sind zwar gedanklich unterscheidbar, aber sie sind nicht separierbar. Sie sind jeweils alle in jedem Gedanken enthalten und nur in einem langen Prozess der Aneignung mit Klarheit zu erfassen. Dementsprechend gibt es von Peirce immer wieder Texte verschiedener Annäherung an die Kategorien. Bewusstsein Peirce’ Auffassung vom Bewusstsein knüpft eng an die Kategorienlehre an. Er versuchte dabei, die bisherige Unterscheidung des Geistes in der Philosophie (auch bei Kant und Aristoteles) in die drei Teile Gefühl (Lust und Schmerz), Willen (Willenskraft und Verlangen) sowie Wissen (Erkenntnis) auf eine wissenschaftlichere, auch für die Psychologie geeignete Grundlage zu stellen. Das noch unreflektierte Bewusstsein als ein Bündel von Repräsentationen ist Erstheit. Im Bewusstsein sind wiederum die Kategorien identifizierbar. Die Erscheinung von Erstheit im Bewusstsein ist das reine Gefühl oder die Gefühls-Qualität, das Gefühl des unmittelbaren Bewusstseins ohne Bezug auf etwas anderes. Man kann es als die unanalysierte Erscheinung aller Qualitäten in einem Moment beschreiben: Der nicht-analysierte Gesamteindruck, der durch irgendeine Mannigfaltigkeit hervorgerufen und nicht als aktuales Faktum, sondern einfach als Qualität, als einfache positive Möglichkeit der Erscheinung gedacht wird, ist eine Idee der Erstheit. (S&S 25) Die Erscheinung der Zweitheit im Bewusstsein, die Peirce „Altersense“ nannte, ist die Konfrontation mit dem Anderen, ist das Bewusstsein des Hier und Jetzt. Zur Zweitheit im Bewusstsein zählen Sinnesempfindungen als lebendige Erfahrungen. Ebenso gehört hierzu der Wille oder Wunsch als Empfindung ohne die Reflexion auf das Gewünschte. Die Zweitheit ist die Erfahrung der Dualität. Ebenso wie die Erstheit wird hier noch vom Denken abstrahiert. Weder das reine Gefühl auf der Ebene der Erstheit noch die Empfindung des Gegenübers, des Anderen auf der Ebene der Zweitheit lassen sich konkret in Begriffe fassen. Sobald dies geschieht, bewegt man sich in der Ebene der Drittheit, die die Ebene der Gedanken ist. Zweitheit kann vorwiegend aktiv sein, dann dominiert die Empfindung des Willens. Ist sie hingegen vorwiegend passiv, dann dominieren die Sinnesempfindungen. Die Erscheinung der Drittheit im Bewusstsein bezeichnete Peirce als „Medisense“, in der die Beziehung zu einem Objekt repräsentiert wird. Hierzu zählen das Denken, das Lernen, das Gewahrsein von etwas Drittem. Dieser Modus des Gewahrseins führt bei genügender Wiederholung zu Verhaltensgewohnheiten. Es gibt keine anderen Formen des Bewusstseins als die drei, die erwähnt worden sind, Gefühl, Altersense und Medisense. Sie bilden eine Art System. Gefühl ist der momentan gegenwärtige Inhalt des Bewusstseins in seiner ursprünglichen Einfachheit, unabhängig von irgendetwas anderem. Es ist Bewusstsein in seinem ersten Stadium und könnte „Primisense“ genannt werden. „Altersense“ ist das Bewusstsein von einem unmittelbar anwesendem Anderen oder zweiten, das uns widersteht. „Medisense“ ist das Bewusstsein einer Drittheit oder eines Mediums zwischen Primisense und Altersense und führt vom ersteren zum letzteren. Es ist das Bewusstsein von einem Prozess, bei dem etwas vor den Geist gebracht wird. Gefühl oder Primisense ist das Bewusstsein von Erstheit; Altersense ist das Bewusstsein der Andersheit oder Zweitheit; Medisense ist das Bewusstsein von Mitteln oder Drittheit. Vom „Primisense“ gibt es nur eine Art. „Altersense“ hat zwei Arten, Sinnesempfindung und Willen. „Medisense“ hat drei Arten, „Abstraktion“, „Suggestion“ und „Assoziation“ (CP 7.551). Die so beschriebene psychologische Struktur des Bewusstseins verband Peirce mit einer physiologischen Sicht, in der die psychischen Prozesse jeweils physische Entsprechungen im Gehirn haben. Er vertrat eine monistische Position: Auf diese Weise werden die drei Bewusstseinsarten – einfaches Bewusstsein, duales Bewusstsein und synthetisierendes Bewusstsein – durch die drei Hauptfunktionen des Nervensystems erklärt, durch seine einfache Reizbarkeit, die Übertragung von Energie und die synthetisierende Handhabung der Nerven, insbesondere die Verhaltensgewohnheit. (MS 909, 55). Selbstbewusstsein entsteht dadurch, dass die Repräsentationen als Zeichen im Bewusstsein sich selbst zum Gegenstand werden. Diese Reflexion ist für Peirce überwiegend dem Bereich des Altersense (der Zweitheit) zuzuordnen, da das Selbstbewusstsein so etwas wie das Wahrnehmen des Selbst ist. (CP 5.225, 5.266) Im Selbstbewusstsein treten sich die Empfindung des Ego, das wir kontrollieren können, und des unkontrollierbaren Non-Ego gegenüber. Aus der allgemeinen Masse des Bewusstseins, das noch frei von jeder deutlichen Bestimmung ist, löst sich plötzlich eine etwas bestimmtere Idee – das „Objekt“ oder das „Nicht-Ich“ – wie ein Kristall aus einer Lösung und „wächst“ wie ein „Kristall“, während der Rest des Bewusstseins – die Mutterlösung sozusagen –, das „Ich“, sich scheinbar, wie es gewesen ist, seiner neuen Geburt als „seine“ eigene rühmt, blind gegenüber der noch unterentwickelten Anregung, die als Nukleus vorhanden gewesen sein muss. (MS 681, 12/13). Die Drittheit im Bewusstsein führt zu einer erneuten Reflexion, nun auf das Selbstbewusstsein. Hieraus entsteht die Selbstkontrolle, die Selbstüberprüfung und Selbstkorrektur beinhaltet. Peirce begründete mit der Vorstellung der Selbstkontrolle die Fähigkeit, sich zu entscheiden und damit die eigenen Verhaltensgewohnheiten zu beeinflussen. Eine unmittelbar kausale Wirkung aus der Selbstkontrolle sah er nicht. Die kognitive Fähigkeit der Selbstkontrolle hat aber Einfluss auf Einstellungen, die für künftiges Handeln maßgeblich sind. Durch den Vergleich mit Standards ist Selbstkontrolle zugleich Grundlage von moralischen Einstellungen und ethischem Verhalten. Der Einfluss der Selbstkontrolle ist sicherlich kein Einfluss auf Handlungen ganz am Anfang des Vorgangs der Selbstkontrolle. Sie besteht (um nur die führenden Merkmale zu nennen) zuerst im Vergleich vergangener Handlungen mit Standards, zum Zweiten in vernünftiger Überlegung über künftige Handlungsabsichten, was in sich ein hochkomplizierter Vorgang ist, zum Dritten in der Bildung eines Entschlusses, viertens auf der Grundlage des Entschlusses in einer Entwicklung einer starken Festlegung oder Veränderung einer Gewohnheit. (CP 8.320) Wahrnehmung Wir haben kein Vermögen, ohne Zeichen zu denken. (CP 5.265). Diese Grundannahme der gesamten Philosophie von Peirce ist so auch Ausgangspunkt für seine Theorie der Wahrnehmung. Wahrnehmung findet durch eine Umwandlung von Sinneseindrücken statt und ist deshalb niemals unmittelbar. Klassisches Beispiel dafür, dass Wahrnehmungen falsch gedeutet werden können, sind die Sinnestäuschungen. Peirce verwendet das Beispiel des blinden Flecks auf der Netzhaut. Trotz dieser Eigenschaft erscheinen Gegenstände als vollständige Bilder. Peirce unterscheidet das Wahrgenommene (Perzept) und das Wahrnehmungsurteil. Mit einem Wahrnehmungsurteil meine ich ein Urteil, das in der Aussageform behauptet, welche Beschaffenheit eines Perzepts dem Geist unmittelbar gegenwärtig ist. (CP 5.54) Dabei muss ein Wahrnehmungsurteil nicht in Form von Sprache erfolgen, sondern kann z. B. auch diagrammatisch sein (z. B. die Vorstellung eines Dreiecks). Das Wahrgenommene ist das Zeichen, das zwischen dem Objekt und dem Wahrnehmungsurteil steht. Der Zugang zu den Objekten erfolgt immer durch die Abbildung des Perzeptes als Zeichen. Das Zeichen hat die Form eines sinnlichen Eindrucks, also eines Bildes, eines Klangs etc. Ein Zeichen oder Repräsentamen ist alles, was in einer solchen Beziehung zu einem Zweiten steht, das sein Objekt genannt wird, dass es fähig ist ein Drittes, das sein Interpretant genannt wird, dahingehend zu bestimmen, in derselben triadischen Relation zu jener Relation auf das Objekt zu stehen, in der es selbst steht. (MS 478). Das Perzept wird als etwas interpretiert. Ein Ton kann eine Stimme sein, das Klingeln eines Telefons oder der Klang eines Radios. Das Perzept als Zeichen ist ein so genanntes indexikalisches Zeichen (vgl. unten), das heißt, es ist bestimmt zu seiner Relation zum Objekt, wie z. B. der Rauch zum Feuer. Das Wahrnehmungsurteil selbst, also der Rauch als Begriff, ist der Interpretant der Wahrnehmung (des Perzepts). Die Form des Schlusses bei einem Wahrnehmungsurteil nannte Peirce Abduktion: Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird. (CP 5.171). Indem wir eine Wahrnehmung haben, nehmen wir an, dass es sich um einen bestimmten Gegenstand handelt. Die Form der Folgerung ist dann folgende: Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zur Vermutung, dass A wahr ist. (CP 5.189). Wenn man einen grauen Schleier in der Luft sieht, kann es sich um Nebel handeln, aber auch um Rauch. Indem man diesen grauen Schleier sieht und schließt, dass es sich um Rauch handelt (z. B. aufgrund der Form oder weil rund herum die Sonne scheint), fällt man ein Wahrnehmungsurteil. Wahrnehmungsurteile sind eine extreme Form der Abduktion, weil sie in aller Regel unbewusst und weitgehend unkontrolliert ablaufen und weil man sie aufgrund der immer aktiven Sinne nicht verneinen kann. Je öfter sich wiederholende Wahrnehmungsurteile bestätigen, umso mehr werden sie als wahr verinnerlicht und dann zu Denk- und Verhaltensgewohnheiten. Semiotik Neben Ferdinand de Saussure ist Peirce einer der Begründer der Semiotik, wobei sein bevorzugter Begriff hierfür „semeiotic“ lautete, während Saussure seinen eigenen Ansatz als „sémiologie“ (Semiologie) bezeichnete. Im Gegensatz zu Saussures Zeichenbegriff, der sich ausschließlich und formal auf Sprache bezieht, sodass hieraus wesentliche Impulse für die Linguistik entstanden, ist Peirce’ Zeichenbegriff ganzheitlich: Er enthält neben der Repräsentationsfunktion ebenso eine Erkenntnisfunktion der Zeichen. Gleichfalls darf man die Semiotik von Peirce nicht mit der Unterteilung von Charles W. Morris (Syntax, Semantik und Pragmatik) vermischen (obwohl sich Morris auf Peirce bezieht). Peirce definierte semiosis (siehe auch Semiose) als … Einen Vorgang oder einen Einfluss, der das Zusammenwirken von drei Gegenständen, nämlich dem Zeichen, seinem Objekt und seinem Interpretanten, ist bzw. beinhaltet; ein dreifacher Einfluss, der in keinem Fall in paarweise Vorgänge aufgelöst werden kann. Peirce unterteilte Semiotik in spekulative Grammatik, logische Kritik und spekulative Rhetorik. Das Wort „spekulativ“ war dabei für ihn gleichbedeutend mit „theoretisch“. In der spekulativen Grammatik erfolgt die Untersuchung der möglichen Arten von Zeichen und ihrer Kombinationsmöglichkeiten. Logische Kritik hat die Frage richtiger Begründung zum Gegenstand. Spekulative Rhetorik ist die Untersuchung über die effektive Anwendung von Zeichen (die Frage der Wirtschaftlichkeit der Forschung). In der spekulativen Grammatik arbeitete Peirce ein System möglicher Zeichenrelationen aus, in denen die Welt sich dem Menschen vermittelt. Ausgehend von der Triade Objekt – Zeichen – Interpretant unterschied er dabei drei Trichotomien: Die Zeicheneigenschaft Ein Quali-Zeichen ist eine Qualität, die als Zeichen wirkt, z. B. die Stille eines Raumes. Quali-Zeichen sind immer Ausdruck von Erstheit. Sin-Zeichen sind Gegenstände oder Sachverhalte, die existieren, ohne dass sie schon mit einem Begriff oder einer Bedeutung belegt sind. Legi-Zeichen sind Regeln, die als Zeichen wirken. So bedeutet die Zahl Sechs die Idee einer Anzahl von sechs Gegenständen, z. B. Gläsern oder Stühlen. Ob man nun das deutsche Wort „sechs“, die Ziffer ‚6‘ oder das englische Wort „six“ verwendet, sie alle verkörpern die Idee der Zahl Sechs. Jedes tatsächliche Exemplar eines Legi-Zeichens (z. B. das gedruckte Wort „Sechs“) stellt – als konkreter Gegenstand in der Welt – zugleich ein Sin-Zeichen dar. Die Objekt-Beziehung Ikone sind Zeichen, die durch eine strukturelle Ähnlichkeit unmittelbar eine Relation zu einem Objekt herstellen. Hierzu zählen Bilder, Piktogramme oder Graphiken. Ein Ikon ist grundsätzlich erstheitlich. Der Index ist insofern ein zweitheitliches Zeichen, als er ohne Beschreibung auf ein Objekt hinweist, also eine dyadische Beziehung zwischen Zeichen und Objekt besteht – das Klingeln verweist darauf, dass jemand vor der Tür steht. Symbole haben hingegen eine Bedeutung. Sie sind nur Zeichen, weil ein Interpret versteht, wofür das Zeichen benutzt wird. Dass ein Tisch mit dem Wort „Tisch“ bezeichnet wird, beruht auf einer Konvention. Verstanden wird das Wort „Tisch“, weil seine Bedeutung zur Gewohnheit geworden ist. Helmut Pape hat in „Erfahrung & Wirklichkeit“ Peirce Semiotik als eine Phänomenologie und Ontologie der Beziehungen zwischen Menschen und zu ihrer Lebenswelt entwickelt, und damit die Rolle der zwischenmenschlichen Beziehung im Zeichengebrauch genauer untersucht. Die Interpretanten-Beziehung Rhema ist ein Begriff, mit dem ein Gegenstand bezeichnet wird. Es kann auch ein Diagramm oder ein Ton sein. In einer Aussage (Dicent) wird zumindest eine zweistellige Relation hergestellt, also die Eigenschaft eines Gegenstandes oder ein Sachverhalt beschrieben. Das Argument drückt eine gesetzmäßige Beziehung zwischen Aussagen aus, z. B. in Form von Naturgesetzen. Der Interpretant als die eigentliche bedeutungstragende Wirkung eines Zeichens muss nun wieder differenziert werden nach seinem emotionalen, energetischen und logischen Gehalt oder nach seiner unmittelbaren, dynamischen und finalen Wirkung. Er ist unmittelbar, wenn er nur eine Gefühlsqualität ist, z. B. das Empfinden der Stille (Erstheit). Er ist dynamisch, wenn er eine effektive Wirkung auslöst (ein Gefühl oder eine Handlung). Ein Interpretant ist final, wenn er mit einer beabsichtigten Wirkung verbunden ist, z. B. einer Veränderung einer Gewohnheit. Die eigentliche semiotische Bestimmung eines Zeichens entsteht aus den logisch möglichen Kombinationen der Zeicheneigenschaft mit der Objekt- und der Interpretanten-Beziehung (Quali-Zeichen sind weder als Index noch als Symbol denkbar; Argumente können entsprechend kein Index oder Ikon sein). Bei der Bestimmung von Zeichenrelationen besteht das grundsätzliche Problem, dass einerseits Objekte durch mehrere, auch ihrer Art nach höchst unterschiedliche Zeichen repräsentiert werden können. Andererseits können die jeweiligen Zeichen situationsabhängig verschieden interpretiert werden. Zeichenbeziehungen sind daher immer perspektivisch. Wir wissen immer, dass das Objekt, wie wir es in der Kommunikation oder in der Wahrnehmung erfassen (das unmittelbare Objekt), durch Zeichen vermittelt ist. Als Folge wissen wir auch stets, dass wir uns über die Vermittlung täuschen können und demgemäß unsere Interpretation über das eigentliche Objekt (das dynamische Objekt) gegebenenfalls anpassen müssen. Im Laufe der Zeit entwickelte Peirce seine Auffassung fort und kam aufgrund der Komplexität der möglichen Vermittlungsweisen von Zeichen zwischen Subjekt und Objekt schließlich zu einem System aus 59.049 (3 hoch 10) möglichen Elementen und Relationen. Ein Grund für diese hohe Anzahl liegt darin, dass er bei jedem Interpretanten die Möglichkeit, selbst Zeichen zu sein, zuließ, wodurch jeweils eine neue kennzeichnende Relation entsteht. Wie bei anderen Themen schrieb Peirce niemals eine genaue Bestimmung seiner Semiotik. Vielmehr befasste er sich mit dem Thema immer wieder während seines Lebens, wobei er oft seine Auffassung über die Definition von Schlüsselbegriffen veränderte. Bei Liszka (1996) findet sich ein verdienstvoller Versuch einer kohärenten Darlegung. Gerhard Schönrich verweist darauf, dass man Parallelen zu Kant in der Theorie der des Bewusstseins ziehen kann, wenn man die kantischen Begriffe in die von Peirce übersetzt, so etwa die Synthesis bei Kant als Semiose, den Gegenstand als Zeichenobjekt, Begriff oder Regel (im Schematismus) als Interpretant und Vorstellung als Zeichen(mittel). Erkenntnistheorie In seiner Erkenntnistheorie brach Peirce mit der Vorstellung, dass das Subjekt der Maßstab für Erkenntnis ist, wie es seit Descartes und bis hin zu Kant gegolten hatte. Einstweilen wissen wir, dass der Mensch keine Ganzheit ist und dass er wesentlich ein mögliches Mitglied der Gesellschaft ist. Insbesondere ist die Erfahrung eines Menschen, solange sie alleine steht, nichts. Wenn er etwas sieht, was andere nicht sehen können, nennen wir es Halluzination. Es ist nicht „meine“ Erfahrung, sondern „unsere“ Erfahrung, an die zu denken ist; und dieses „wir“ hat unbegrenzte Möglichkeiten. (CP 5.402) Der zweite grundlegende Aspekt in Peirce’ Erkenntnistheorie ist die evolutionstheoretische Vorstellung, wie er sie in seiner Metaphysik entwickelte (vgl. unten). Der Mensch und sein Denken ist Bestandteil eines Entwicklungsprozesses. Zweck des Denkens ist eine Orientierung in der Welt, indem Zweifel untersucht und durch Forschen feste Überzeugungen gewonnen werden, die geeignet sind, als Grundlage des Handelns zu dienen. Hierin liegt die Vermittlung von Theorie und Praxis. Das dritte Element der Peirce’schen Erkenntnistheorie ist das Denken in Zeichen. Wenn wir das Licht äußerer Tatsachen aufsuchen, so sind die einzigen Fälle von Denken, die wir finden können, die vom Denken in Zeichen. Offensichtlich kann kein anderes Denken von äußeren Tatsachen bezeugt werden. Das einzige Denken, das möglicherweise erkannt wird, ist Denken in Zeichen. Aber Denken, das nicht erkannt werden kann, existiert nicht. Alles Denken muss daher Denken in Zeichen sein. (CP 5.251) Denken findet aber nicht in einzelnen, isolierbaren Zeichen statt, sondern als ein Strom von Gedanken im Bewusstsein, als ein kontinuierlicher Prozess. Es gibt in meinem Bewusstseinszustand zu keinem Zeitpunkt eine Erkenntnis oder eine Darstellung, aber es gibt sie in der Relation meiner Bewusstseinszustände zu verschiedenen Zeitpunkten. Kurzum, das Unmittelbare (und das daher an sich nicht zu Vermittelnde – das Nichtanalysierbare, das Unerklärbare, das Nicht-Intellektuelle) fließt in kontinuierlichem Strom durch unser Leben; es ist die Gesamtheit unseres Bewusstseins, dessen Vermittlung, die seine Kontinuität ist, durch eine reale wirksame Kraft zustande gebracht, die hinter dem Bewusstsein steht. (EP 1, 42 nach Pape, Einführung, 70). Diese Ebene der Empfindungen im Bewusstseinsstrom ist die Erstheitlichkeit des Denkens. Der Prozess der Wahrnehmung (siehe oben) führt die Ebene der Zweitheit in den Erkenntnisprozess ein. Die Bedeutung von Zeichen (Ebene der Drittheit) ergibt sich aber nicht allein aus den Sinnesdaten. Bedeutet Elektrizität heute nicht mehr als in den Tagen Franklins? Der Mensch macht das Wort, und das Wort bedeutet nichts, was der Mensch es nicht bedeuten lässt, und das nur für irgendeinen Menschen. Aber da der Mensch nur mit Hilfe von Wörtern oder anderen Symbolen denken kann, könnten diese umgekehrt sagen: „Du meinst nichts, was wir dich nicht gelehrt haben, und also nur insoweit etwas, wie du dich an irgendein Wort als Interpretanten deines Gedankens wendest.“ In der Tat erziehen sich daher Menschen und Wörter wechselweise, jedes Anwachsen der Information eines Menschen impliziert und wird impliziert durch ein entsprechendes Anwachsen der Information eines Wortes. (CP 5.313) Peirce formulierte seine Überlegungen als Pragmatische Maxime: Überlege, welche Wirkungen, die denkbarerweise praktische Relevanz haben können, wir dem Gegenstand unseres Begriffs in unserer Vorstellung zuschreiben. Dann ist unser Begriff dieser Wirkungen das Ganze unseres Begriffs des Gegenstandes. (CP 5.402) Die Bedeutung eines Gedankens liegt also darin, welche Verhaltensweise er erzeugt. Verhaltensweise ist dabei nicht als tatsächlicher Handlungsablauf zu verstehen, sondern als Disposition zu einer möglichen Handlung. Die Elemente eines jeden Begriffs treten durch die Pforte der Wahrnehmung in das logische Denken ein und verlassen es durch die Pforte des zweckbestimmten Handelns; und was immer seinen Ausweis an diesen beiden Pforten nicht vorweisen kann, muss, als durch die Vernunft nicht genehmigt, eingesperrt werden. (CP 5.212) Mit diesem Konzept wich Peirce von der klassischen Fragestellung der Erkenntnistheorie ab, für die das Ziel der Erkenntnissuche die Wahrheit ist. Doch der klassische Begriff der Wahrheit als Korrespondenz von Gedanken und Tatsachen (Realität) war für Peirce nicht fassbar, weil er auf dem noch unschärferen Begriff der Realität beruht. Peirce definierte stattdessen Wahrheit pragmatistisch: Die Meinung, die vom Schicksal dazu bestimmt ist, dass ihr letztlich jeder Forschende zustimmt, ist das, was wir unter Wahrheit verstehen, und der Gegenstand, der durch diese Meinung repräsentiert wird, ist das Reale. (CP 5.407) In dieser Definition steckt die Vorstellung, dass am Ende aller Tage es möglich sein wird, die Realität vollständig zu erkennen. Dieser Zustand ist aber nur ein Grenzwert, an den die Menschheit sich als Ganzes in einem Prozess des Erkenntnisfortschritts annähert. Wahrheit ist dabei objektiv, insofern sie intersubjektiv ist, d. h. nicht mit einzelnen, individuellen Vorstellungen, sondern in der Kommunikation aller (Forscher) bestimmt wird. Bis zu diesem Zeitpunkt, der in der Lebenspraxis des Menschen nicht erreicht werden kann, besteht aber immer und zu jeder Zeit die Möglichkeit, dass die bisher gewonnenen Überzeugungen falsch sein können und revidiert werden müssen. Peirce nannte diese Grundannahme Fallibilismus, die später dann von Popper neu aufgegriffen wurde. Peirce hat auch nicht ausgeschlossen, dass schon gegenwärtige Überzeugungen in vollem Umfang der Realität entsprechen. Je besser solche Hypothesen überprüft sind und sich bewährt haben, umso größer ist die Wahrscheinlichkeit hierfür. Nur sicher sein kann man sich hierüber nicht. Abduktion Hauptartikel: Abduktion Erkenntniserweiterung erfolgt nach Peirce ausschließlich durch Abduktion. Sie tritt auf in der Wahrnehmung sowie im schließenden Interpretieren vorhandenen Wissens. Der Mensch gewinnt in der Wahrnehmung bestimmte Überzeugungen, die sich in Gewohnheiten umsetzen, die seine Handlungen und Unterlassungen bestimmen. Entstehen durch die Wahrnehmung unerklärbare Sachverhalte, die keiner Gewohnheit entsprechen, gerät der Mensch in Zweifel und sucht nach einer neuen Orientierung. Er stellt über die zweifelhaften Phänomene Hypothesen auf und überprüft diese solange, bis er hierüber eine neue feste Überzeugung gewinnt (doubt-belief-Schema). Die rationale Umsetzung dieses Schemas der Gewinnung von Überzeugungen erfolgte für Peirce im logischen Denken. Je nach Stadium des doubt-belief-Schemas ist die Schlussweise unterschiedlich. Liegen zunächst ein oder wenige Tatbestände vor, erfolgt das Aufstellen der Hypothese, das Peirce „Retroduktion“ oder „Abduktion“ nannte. Liegen genügend Informationen zur Hypothese vor, kann diese als Gesetzmäßigkeit formuliert werden. Die entsprechende Schlussweise ist die Induktion. Die Deduktion schließlich ist die Anwendung der Gesetzmäßigkeit, die allein analytisch ist, also einer strengen Wahrheit unterliegt. Abduktion beruht im Prinzip auf einer instinktiven Grundfähigkeit des Menschen zur Kreativität. Induktion ist durch Erfahrung bestimmt und nur Deduktion ist streng logisch. Zur Verdeutlichung hat Peirce die verschiedenen Schlussweisen, die er als einen ineinander greifenden Interpretationsprozess ansah, im Schema des Syllogismus dargestellt: Während in der Deduktion von der Regel über den Fall auf das Ergebnis geschlossen wird, sind die Resultate der Schlussfolgerungen der Abduktion und der Induktion nicht notwendig. Sie haben ihre Berechtigung nur als hypothetisch-pragmatische Verfahren im Rahmen des Prozesses zur Absicherung einer Überzeugung und unterliegen den Gesetzen der Wahrscheinlichkeit, wobei der Abduktion aufgrund des spontanen Charakters zumeist eine erheblich geringere Wahrscheinlichkeit zukommt. Logik Peirce untersuchte in seiner Logik das natürliche Schließen aus Hypothesen und entwickelte hierzu eine eigenständige Logik der Relationen, die er „Logik der Relative“ nannte. Ihm gelangen grundlegende Entdeckungen in der formalen Logik: Er zeigte, dass die Boolesche Algebra durch eine einfache binäre Operation ausgedrückt werden kann als NAND oder dual als NOR (siehe auch DeMorgan's Gesetz). Weiterhin ergänzte er die Boolesche Algebra um Multiplikation und Exponentiation (Allquantor) und versuchte sie in die allgemeine Algebra zu integrieren. Ein wenig später, aber unabhängig von Freges Begriffsschrift, entwickelte er gemeinsam mit seinem Studenten O.H. Mitchell die vollständige Syntax für eine Quantorenlogik, die sich nur in wenigen Zeichen von der späteren Russell-Whitehead-Syntax (1910) unterschied. Ernst Schröder, Leopold Löwenheim von der polnischen Schule und der junge Kurt Gödel verwendeten Peirce' Notation. Die Unterscheidung zwischen der Quantifizierung erster und zweiter Ebene war der erste Entwurf einer einfachen axiomatischen Satz-Theorie. Die von Peirce konzipierte Theorie reflexiver und transitiver Relationen wurde von Ernst Schröder in dessen Algebra der Logik weiterentwickelt. Zur Anwendung der algebraischen Zeichen in der Logik führte Peirce die logischen Terme absolute Relative (monadisch = singuläres Objekt), einfache Relative (dyadisch = Anderssein) und konjugative Relative (triadisch = Drittheit) ein. Alle mehrstelligen Relationen sind auf triadische Relationen zurückführbar. Diese Reduktionsthese von Peirce, die ihm für den Nachweis seiner Kategorien wichtig war, konnte mittlerweile bewiesen werden. Insbesondere konnte gezeigt werden, dass die triadische Reduktion von Peirce nicht im Widerspruch zur dualistischen Reduktion von Quine steht. Er erfand die existentiellen Graphen (engl. existential graphs), eine graphische Schreibweise für die Aussagenlogik (Alphagraphen), Prädikatenlogik erster Stufe (Betagraphen) und für die Prädikatenlogik höherer Stufe sowie für Modallogik (Gammagraphen). Zusammen mit den Schlussregeln, die er dazu formulierte, bilden die existenziellen Graphen einen Aussagen- bzw. Prädikatenkalkül. Die Graphen sind die Grundlage für die Begriffsgraphen von John F. Sowa und für die diagrammatische Begründung bei Sun Joo-Shin. In einem Brief an seinen früheren Studenten Allan Marquand von 1886, der erst nach 1950 entdeckt wurde, zeigte er bereits die Anwendungsmöglichkeit der Booleschen Logik auf elektrische Schaltungen, mehr als 50 Jahre vor Claude Shannon. Einer solchen Schaltung, die er auch in zwei verschiedenen Graphiken skizzierte, schrieb er folgende Eigenschaften zu: 1. Entwicklung von Ausdrücken (a, b, c etc.) aus Zeichenketten und Syntaxregeln, 2. Vereinfachung der Ausdrücke, 3. Multiplikation mit Polynomen, 4. Addition. (NEM IV, 632) Es kann gezeigt werden, dass eine Verknüpfung der Existential Graphs mit einer solchen mechanischen Lösung möglich ist. Bemerkenswert ist auch seine Ausarbeitung zu den verschiedenen Zahlensystemen und sein Verweis darauf, dass das Binärsystem besonders geeignet für die maschinelle Verarbeitung sei. Wissenschaftsauffassung Auch wenn Peirce kein explizites System entwickelte, so kann er doch als systematischer Philosoph im traditionellen Sinne betrachtet werden. Sein Werk befasst sich mit den wissenschaftlichen und logischen Fragen nach Wahrheit und Wissen, die er mit seiner Erfahrung als Logiker und experimenteller Wissenschaftler verband. Peirce war der Überzeugung, dass Wahrheit etwas Vorläufiges ist und bei jeder Aussage ein Faktor an Unsicherheit mit enthalten ist. Für Peirce war der Fallibilismus ein Gegenpol gegen den Skeptizismus, der für seine Philosophie keine geringere Bedeutung hatte als der Pragmatismus, den er wiederum als Gegenpol gegen den Positivismus sah. Peirce leistete wesentliche Beiträge zur deduktiven Logik, war aber vor allem interessiert an der Logik der Wissenschaft und vor allem an der Abduktion, die sich nicht nur im Bereich der wissenschaftlichen Forschung, sondern in allen praktischen Lebensbereichen findet. Sein Pragmatismus kann auch verstanden werden als eine Methode zur Klärung begrifflicher Verwirrung durch die Verknüpfung der Bedeutung von Begriffen mit ihren praktischen Konsequenzen. Peirce' Pragmatismus hat allerdings nichts zu tun mit dem allgemein üblichen Begriff des pragmatischen Handelns, der oftmals irreführend Rücksichtslosigkeit, Übervorteilung und Vorteilsnahme zumindest indirekt impliziert. Stattdessen suchte Peirce eine objektive, verifizierbare Methode, um die Wahrheit von Wissen zu überprüfen, und zwar in Konkurrenz zu den klassischen Ansätzen von Deduktion aus einer absoluten Wahrheit / Rationalismus, Induktion aus beobachteten Phänomenen / Empirismus. Das von ihm als wissenschaftliche Methode entwickelte Konzept beschreibt den Wissenschaftsprozess als einen stufenweisen Vorgang, der mit Abduktion aufgrund ungeklärter Phänomene beginnt, bei genügender Sicherheit induktiv Gesetze formuliert, die anhand von Deduktion praktisch geprüft werden. Zum rationalen Wissenschaftsprozess gehörte für ihn ausdrücklich die Wirtschaftlichkeit der Forschung, da Verschwendung angesichts der unendlichen zu lösenden Fragen irrational ist. Sein Ansatz wurde oft auch als eine neue Form des Fundamentalismus betrachtet, aber durch konsequente Bestimmung des aktiven Prozesses der Theoriebildung, folgerichtige Anwendung der Theorie, Verifikation der Theorie durch Vorhersagbarkeit und Übereinstimmung mit der Umwelt beinhaltet er eher eine rationale Basis als eine induktive Verallgemeinerung, die sich rein auf Phänomene beruft. Peirce' Pragmatismus wurde so als erstes wissenschaftliches Verfahren zur Anwendung auf Fragen der Erkenntnistheorie angesehen. Ein moderner Physiker wird bei der Prüfung der Werke Galileis erstaunt sein, wie wenig Experimente mit der Aufstellung der Grundlagen der Mechanik zu tun hatten. Er beruft sich hauptsächlich auf den gesunden Menschenverstand und auf „il lume naturale“. Er nimmt stets an, dass sich die wahre Theorie als einfach und natürlich erweisen wird. (CP 6.10). Eine Theorie, die nachweislich erfolgreicher in der Vorhersage und der Nachvollziehbarkeit gegenüber der Lebenswelt ist als ihre Konkurrenten, kann man als näher an der Wahrheit bezeichnen. Dies ist eine in der Wissenschaft angewendete operationale Kennzeichnung von Wahrheit. Anders als andere Pragmatisten hat Peirce niemals explizit eine Theorie der Wahrheit formuliert. Aber seine verstreuten Anmerkungen zur Wahrheit haben eine Reihe erkenntnistheoretischer Wahrheitstheoretiker beeinflusst und waren eine hilfreiche Grundlage für deflationäre und korrespondenztheoretische Theorien der Wahrheit. Metaphysik Tychismus (Zufall) Ähnlich wie Kant hat Peirce den spekulativen Charakter der traditionellen Metaphysik vielfach heftig kritisiert. Andererseits hat er immer danach gestrebt, eine mit den Naturwissenschaften verträgliche Idee für eine Erklärung der Grundprinzipien der Lebenswelt zu entwickeln. Ausgangspunkt war für ihn wie in vielen anderen Dingen die Logik und hier insbesondere die von Mill zur Induktion entwickelte Theorie, dass diese ihre Gültigkeit aus der Gleichförmigkeit der Natur herleitet. Peirce kritisierte hieran, dass die Annahme der Gleichförmigkeit als Voraussetzung dann nicht zugleich über die Induktion die Gleichförmigkeit als Ergebnis liefern könne. Als breit bewanderter und erfahrener Naturwissenschaftler führte Peirce eine Reihe von Argumenten gegen den Determinismus an, für den es aus seiner Sicht keine wissenschaftliche Begründung gibt. Insbesondere betonte er, dass die praktischen Messwerte der angewandten Wissenschaften theoretische Konzepte niemals bestätigen, weil sie in aller Regel aufgrund von Versuchsanordnungen zu ungenau sein müssen. Messergebnisse haben immer eine Verteilung, die durch Regression oder ähnliche Verfahren approximiert werden muss. Alle natürlichen Erscheinungen beinhalten Unregelmäßigkeiten. Gegen den Determinismus setzte Peirce die Hypothese, dass die Welt eine Zufalls-Welt (Chance-world, CP 6.399) ist. Geht man davon aus, dass es einen Urzustand des völligen (nicht beschreibbaren) Zufalls für das Universum gibt, so ist bereits der erste Entwicklungsschritt eine Wahl aus einer unbegrenzten Anzahl an Möglichkeiten. Jeder weitere Schritt führt wieder zu einer Auswahl bis zum Heute. Das Erklärungsprinzip ist die Evolution als Eigenschaft unserer Welt, die sich aus einer unendlichen Zahl möglicher Welten entwickelt hat und in diesem Entwicklungsprozess fortschreitet. Dieses Konzept der Welterklärung durch einen fortschreitenden Prozess, der zufällige Ereignisse systematisch beinhaltet, nannte Peirce „Tychismus“. Mit diesem verbunden sind eine umfassende Idee der Evolution, für die die Theorie Darwins nur einen Teil der Erklärungen liefert, sowie die Vorstellung der Selbstorganisation der Materie. Gegen den Determinismus sah Peirce sich dadurch bestätigt, dass das Prinzip des Wachstums und des Lebens unumkehrbare Vorgänge sind, die einem Determinismus widersprechen. Spontaneität (die Popper mit Emergenz verband) war für ihn ein objektiver Tatbestand der Natur und eine wesentliche Grundlage seines Fallibilismus. Die endlose Mannigfaltigkeit in der Welt ist nicht per Gesetz geschaffen. Es entspricht nicht der Natur der Uniformität, Variationen hervorzubringen, noch der des Gesetzes, den Einzelfall zu erzeugen. Wenn wir auf die Mannigfaltigkeit der Natur starren, blicken wir direkt in das Gesicht einer lebendigen Spontaneität. Ein Tag des Umherstreifens auf dem Lande sollte das uns eigentlich nahebringen. (CP 6.553). Seine Auffassung sah Peirce auch gestützt durch die evolutionäre Denkweise, wie sie für ihn Hegel in Bezug auf Geschichte, Charles Lyell in Bezug auf Geologie und Charles Darwin in der Biologie vertraten. Evolution war für Peirce eines der grundlegenden Prinzipien der Welt. Peirce ging aber noch einen Schritt weiter. Seine Frage lautete nicht, wie Erkenntnis möglich ist, sondern wie sind überhaupt physikalische Gesetze möglich? Er bezog sich dabei unter anderem auf den 2. Hauptsatz der Thermodynamik und das Phänomen der Entropie, wie auch auf die Inexaktheit der Molekularbewegungen (MS 875). Die Tendenz zur Heterogenität und die Unumkehrbarkeit der Prozesse waren für ihn Zeichen, dass der Evolutionsprozess auch in der physikalischen Welt gilt und eine innewohnende Tendenz hat, stabile Zustände („habits“ = Verhaltensgewohnheiten) anzunehmen. Aber was für uns das erste ist, das ist nicht das erste in der Natur. Die Prämissen des logischen Prozesses in der Natur sind all jene unabhängigen und ursachenlosen Tatsachenelemente, welche die Mannigfaltigkeit der Natur ausmachen, von der der Nezessitarier annimmt, dass sie von der Begründung der Welt an existiert, die jedoch der Tychist als Produkt eines kontinuierlichen Wachstumsprozesses versteht. (CP 5.119). Peirce hätte sich durch die Ergebnisse der Quantenphysik mit dem Übergang zu wahrscheinlichkeitstheoretischen Erklärungsmodellen und die Heisenbergsche Unschärferelation bestätigt gefunden. Synechismus (Kontinuum) Ausgehend von der Idee des Zufalls und der Evolution entwickelte Peirce seine Weltsicht weiter zu einem umfassenden Konzept. Basis ist das Thema des Kontinuums, das ihn über die gesamte Zeit seines Arbeitens beschäftigte. Den ersten Schritt machte Peirce erneut in der mathematischen Logik, wo er sich mit der Frage der infinitesimalen Teilbarkeit befasste. Ein Infinitesimal ist eine Größe, die kleiner ist als jede endliche Größe, aber größer ist als Null oder anders gesagt eine Größe die gegen null geht, aber nicht identisch mit null ist. Das klassische Beispiel eines Kontinuums ist eine Linie. Das Kontinuum ist nicht metrisch, so dass Punkte auf der Linie nur potentielle Punkte sind, die wieder ein beliebig teilbares infinitesimales Intervall sind. Ein Kontinuum kann durch keine Menge von Einzelbestimmungen ausgeschöpft werden (CP 6.170). In diesem Zusammenhang hat Peirce mathematische Vorstellungen entwickelt, die heute in der Nicht-Standard-Analysis diskutiert werden und ist davon ausgegangen, dass der Raum nicht-euklidisch ist. Phänomene wie Energie, zu der auch die Gravitation gehört, oder die Zeit sind Kontinua, die dem Prozess der Evolution innewohnen. Der Mensch kann sie selbst nicht beobachten, sondern nur ihre Auswirkungen. So ist die Zeit zunächst nur ein reines vages Gefühl der Möglichkeit (Erstheit). Die Veränderung oder Wechselwirkung ist die Erfahrung des Gegensatzes (Zweitheit). Das Fortbestehen der Vorstellungen in der Zeit ist geistige Kontinuität (Drittheit). Wie kann eine vergangene Idee gegenwärtig sein? Nicht durch Stellvertretung. Dann also nur durch direkte Wahrnehmung. Mit anderen Worten: Um gegenwärtig zu sein, muss sie ipso facto gegenwärtig sein. Das heißt: Sie kann nicht gänzlich vergangen sein; sie kann nur dabei sein, infinitesimale Vergangenheit zu werden, weniger Vergangenheit als irgendein vergangenes Datum. So kommen wir zu dem Schluss, dass die Gegenwart mit der Vergangenheit durch eine Reihe wirklich infinitesimaler Schritte verknüpft ist. (CP 6.109). Für Peirce war der Urgrund aller Wirklichkeit der Geist, der nichts ist als Empfindung und Qualität, reine Möglichkeit ohne Zusammenhang und Regelmäßigkeit. Dieser Geist schaffte durch ein erstes Ereignis (einen ersten dyadischen Schritt) Zeit, Raum, die Existenz der Materie und die Naturgesetze, die als relativ konstante Regelmäßigkeiten die kontinuierliche Entwicklung der Evolution in Gang setzten. In der Evolution ist das Fortschreiten eines Wachstums zu einer sich immer weiter entwickelnden Heterogenität enthalten, an deren sehr fernem Ende die vollständige Gesetzmäßigkeit steht. Zufall ist das Erste, Gesetzmäßigkeit das Zweite und die Neigung, Gewohnheiten auszubilden, das Dritte. (CP 6.27). Den Anfang und das Ende der Evolution bilden (theoretische) Grenzsituationen. Für Peirce war damit die Wirklichkeit eine Wirklichkeit des Geistes, die auch die Wirklichkeit ihrer Objekte bestimmt. Folgerichtig vertrat er einen uneingeschränkten Universalienrealismus. Mit dieser Position eines objektiven (logischen) Idealismus sah er sich in einer Linie mit Schelling: Agapismus (Liebe als Lebensprinzip) Der Mensch ist Teil des evolutionären Prozesses, der sich in seinem Strom des Bewusstseins ebenso wie in dem Prozess des Denkens in Zeichen widerspiegelt. Das Denken in Zeichen funktioniert aber nur im Miteinander der Menschen; denn ohne den Anderen und die Kommunikation mit ihm ist menschliche Existenz nicht möglich. Aus diesem Horizont leitete Peirce die Grundthese ab, dass nur das Prinzip der Liebe (Agape), die Überwindung der Selbstsucht und des Egoismus zu Harmonie und Fortschritt führt. Wie das teleologische Streben nach Heterogenität in der Natur kommt der Fortschritt des Menschen nur aus dem Gedanken, dass der Einzelne seine Individualität im Mitgefühl zu seinen Mitmenschen aufgehen lässt. Peirce hat nur wenig zur praktischen Ethik geäußert. Es gibt immerhin eine kleine Schrift, in der er eine grundsätzlich veränderte Sicht auf das Strafrecht forderte. Der Mensch hat zwar das Recht, sich vor der Kriminalität zu schützen. Aber aus dem naturgegebenen Zweck der Solidarität hat er kein Recht auf Rache. Daraus folgte für Peirce die Forderung, Verbrecher zu resozialisieren und für sie Bedingungen zu schaffen, die ihnen eine Rückkehr in die Gemeinschaft ermöglichen. Rezeption Peirce wurde zu seiner Zeit als professioneller Philosoph kaum wahrgenommen, weil er keine grundlegenden Schriften zu seinem Gegenstand veröffentlichte. Bekannt war er hingegen als Naturwissenschaftler, Mathematiker und Logiker. So stand er in direktem Kontakt zu Augustus de Morgan. Ernst Schröder basierte seine Logik der Algebra auf Peirce. Über Schröder wirkte Peirce auch auf Peano und die „Principia Mathematica“ von Russell und Whitehead. Da er aber seit 1884 im Prinzip vom akademischen Leben ausgeschlossen war, entstanden Bezüge zu seinem Werk vor allem durch die Personen, die mit ihm persönlich bekannt waren. Dies waren vor allen Dingen William James und der Hegelianer Josiah Royce. Nach William James sind zwei Schriften aus den 1870er Jahren zu nennen, die die Quelle des Pragmatismus ausmachen. James widmete auch seine Schrift „The Will to Believe“ Peirce. Anders als James und spätere Pragmatisten, insbesondere John Dewey, verstand Peirce allerdings seinen Pragmatismus vor allem als Methode zur Klärung der Bedeutung von Gedanken durch Anwendung wissenschaftlicher Methodik auf die Philosophie. Den Pragmatismus von James, der sich als Physiologe vorrangig mit psychologischen Themen befasste und seinen Pragmatismus mit lebensphilosophischen Fragestellungen verband (Theorie der Emotion, Philosophie der Religion), hielt Peirce für einen individualistischen Subjektivismus, den er selbst ablehnte. Und von Deweys Logik sagte Peirce, dass sie eher eine „Naturgeschichte des Denkens“ als Logik im traditionellen Sinne einer Lehre von den normativen Prinzipien und Regeln des Denkens und Schließens sei (The Nation 1904, 220). An beiden kritisierte er das nominalistische Denken. Zur Abgrenzung gegen vereinfachende Formen des Pragmatismus (auch gegen James und Dewey) nannte Peirce seine Form des semiotischen Pragmatismus ab zirka 1905 Pragmatizismus. Peirce' Leistungen wurden nur allmählich wahrgenommen. An der Universität wirkte er lediglich fünf Jahre im Bereich Logik. Sein einziges Buch ist eine kurze Schrift über Astronomie (Photometrische Untersuchungen von 1878), das wenig Beachtung fand. Seine Zeitgenossen William James und Josiah Royce würdigten ihn zwar, aber nur zu einem gewissen Grad. Als er starb, waren Cassius Keyser von der Columbia-Universität und Morris Raphael Cohen aus New York vielleicht seine einzigen Anhänger. Zwei Jahre nach Peirce Tod erschien im Jahr 1916 ein Sonderheft des Journal of Philosophy, das Peirce gewidmet war, mit Beiträgen von Royce, Dewey, Christine Ladd-Franklin, Joseph Jastrow und Morris R. Cohen. Als erste Arbeit über Peirce gilt „A Survey of Symbolic Logic“ von Clarence Irving Lewis, der einen konzeptualistischen Pragmatismus vertrat. Ausdrücklich auf die Anthologie „Chance, Love and Logic“ bezog sich Frank Plumpton Ramsey in seiner Arbeit „Truth and Probability“ aus dem Jahr 1926. Ramsey seinerseits führte kritische Diskussionen mit Wittgenstein über den Tractatus. Eine Ähnlichkeit des späten Wittgenstein zu Peirce ergibt sich, wenn man sein Verständnis von Bedeutung eines Begriffs als dessen Gebrauch mit der pragmatischen Maxime von Peirce vergleicht. Ähnlich wie für Peirce das Zeichen unhintergehbar und nur in den Kategorien phänomenologisch fassbar war, war auch Sprache für Wittgenstein nur in der Anwendung beschreibbar. Eine andere frühe Rezeptionslinie ergibt sich aus dem Werk „The Meaning of Meaning“ von Charles Kay Ogden und Ivor Armstrong Richards aus dem Jahr 1923, das im Anhang einige Passagen von Peirce enthält. Die semiotische Interpretation von Peirce fand dann ihren Fortgang bei Charles William Morris (Foundations of a Theory of Signs, Chicago 1938), der allerdings einen behavioristischen Ansatz verfolgte. Auch die Veröffentlichung seiner Collected Papers (1931–1935) führte nicht zu einem unmittelbaren Aufschwung in der Sekundärliteratur. Die Herausgeber, Charles Hartshorne und Paul Weiss waren keine Peirce-Spezialisten. Weiss verfasste jedoch 1934 einen ausführlichen Eintrag zu Charles S. Peirce im Dictionary of American Biography, in dem dieser als „originellster Denker seiner Generation“ und „Amerikas größter Logiker“ bezeichnet wird. Ähnliche Attributierungen finden sich im neuerschienenen Webster's Biographical Dictionary von 1943, wo er im Artikel zu seinem Vater mit aufgeführt ist. Eine nachweisliche Rezeption begann erst mit den Arbeiten von James Feibleman (1946) und Thomas Goudge (1950), der zweiten Auflage der Collected Papers – herausgegeben von Philip Wiener und Frederick Young – sowie der umfangreichen Arbeit von Max Fisch, des Begründers des Peirce-Edition-Projekts an der Indiana University in Indianapolis. Die „Charles Sanders Peirce Society“ wurde 1946 gegründet. Seit 1965 gibt es die Zeitschrift Transactions of the Peirce Society, die auf Peirceiana spezialisiert ist. Die erste systematische Auseinandersetzung mit Peirce in Deutschland lieferte Jürgen von Kempski 1952, jedoch noch ohne große Wirkung. Seit den 1960er Jahren haben Max Bense und Elisabeth Walther ihre Semiotik der Stuttgarter Schule ausgehend von einer intensiven Peirce-Rezeption entwickelt. In etwa zeitgleich begründete der Linguist Roman Jacobson seine Zeichentheorie ausgehend von Peirce, wie auch Umberto Ecos strukturalistische Semiotik an Peirce anknüpft. Bertrand Russell schrieb 1959 über Peirce: „Zweifellos [...] war er einer der originellsten Köpfe des späteren neunzehnten Jahrhunderts und sicherlich der größte amerikanische Denker aller Zeiten“. Aber erst mit der Veröffentlichung eines Textbandes durch Karl-Otto Apel im Jahr 1967, gefolgt von einem zweiten Band 1970 (siehe Schriften), setzte auch in Deutschland eine breitere Rezeptionswelle ein. Peirce lieferte für Apels Intention einer Transformation der Transzendentalphilosophie einen grundlegenden Ansatz: „Ich möchte indessen die kritische Pointe des neuen kommunikationstheoretischen Ansatzes noch zusätzlich mit Hilfe der Wittgensteinschen Konzeption des 'Sprachspiels' erläutern. Mit Hilfe dieser Konzeption lässt sich m.E. zeigen, dass die von Peirce eingeleitete – und in unserem Jahrhundert allenthalben bestätigte – semiotische oder sprachanalytische Transformation der Erkenntniskritik und Wissenschaftstheorie auf eine radikale Überwindung des 'methodischen Solipsismus' hinausläuft, der die philosophische Erkenntnistheorie von Descartes bis Husserl beherrscht hat.“ Nur ein Jahr nach Apel setzte sich auch Jürgen Habermas intensiv mit Peirce auseinander. Habermas sah im Gegensatz zu Apel Peirce nicht in der Tradition der Transzendentalphilosophie, sondern als Wissenschaftstheoretiker: „Peirce begreift Wissenschaft aus dem Horizont methodischer Forschung, und Forschung versteht er als einen Lebensprozeß. Die logische Analyse der Forschung richtet sich deshalb nicht auf die Leistungen eines transzendentalen Bewusstseins, sondern auf die Leistungen eines Subjektes, das den Forschungsprozeß im ganzen trägt, auf das Kollektiv der Forscher.“ Der österreichisch-britischer Philosoph und Wissenschaftstheoretiker Karl Popper betrachtete 1972 Peirce als „einen der größten Philosophen aller Zeiten“. Als Kontrapunkt zur vorherrschenden nominalistischen und empiristischen Philosophie ist die Rezeption von Peirce seit den 1990er Jahren auf ein breites Spektrum von Anwendungsbereichen gewachsen. Dieses reicht von der Informatik über die Linguistik, die Semiotik, die Sozialwissenschaften, die Literaturtheorie, die Philosophie der Mathematik, die Naturphilosophie bis hin zur Religionsphilosophie. So bewertet Ilya Prigogine sein Werk: „Peirce wagte es, das Universum der klassischen Mechanik zugunsten eines evolutionären Universums zu einer Zeit zu verwerfen, als keinerlei experimentelle Ergebnisse vorlagen, die diese These hätten stützen können.“ Parallelen zu Leibniz Wenn man den Umfang von Peirce' Themen betrachtet, muss man ihn als Universalgelehrten bezeichnen, mit dem man nur wenige aus der Geschichte vergleichen kann. Besondere Ähnlichkeit findet man zu Gottfried Wilhelm Leibniz, der sich wie er mit Mathematik, Logik, Naturwissenschaften, Geschichte, Philosophie des Geistes und der Sprache und Metaphysik befasste. Beide waren metaphysische Realisten und der scholastischen Philosophie zumindest teilweise zugeneigt. So bewunderte Peirce Duns Scotus. Die Gedanken beider wurden in der Nachfolge zunächst nur wenig geschätzt und von ersten Interpreten stark vereinfacht dargestellt. Leibniz unterschied sich von Peirce vor allem in seiner finanziellen Lage, seinem Glauben und einer Korrespondenz von ca. 15.000 Briefen. Beide publizierten wenige Bücher, aber viele Aufsätze und hinterließen einen umfangreichen Nachlass. Die Werke beider Autoren sind noch bei weitem nicht vollständig ediert. Ausgaben Chance, Love and Logic: Philosophical Writings by the late C.S. Peirce, the Founder of Pragmatism. erste Anthologie hrsg. von M.R. Cohen, New York 1923 Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931–1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931–1958 (Band I online und Band V online) „On the Algebra of Logic“. In: American Journal of Mathematics. Vol. 7, 1885, S. 202. Microfilm Edition nach dem Annotated Catalogue of the Papers of Charles S. Peirce von Richard S. Robin, Amherst/Mass. 1967 The New Elements of Mathematics by Charles S. Peirce. 4 Bände. Hrsg. von Carolyn Eisele, Den Haag u. a. 1976. (Review durch Arthur W. Burks) Semiotics and Significs. The Correspondence between Charles S. Peirce and Victoria Lady Welby, hrsg. von Charles S. Hardwick, Bloomington/London 1977. Press of the Arisbe Associates 2001. Historical Perspectives on Peirce's Logic of Science. A History of Science 2 Bände. Hrsg. von Carolyn Eisele, Berlin/New York/Amsterdam 1985 The Essential Peirce. Selected Philosophical Writings, Band 1 (1867–1893) hrsg. von Nathan Houser und Christian Kloesel, Bloomington/Indianapolis 1992, ISBN 0-253-32849-7; Band 2 (1893–1913) hrsg. vom Peirce Edition Project, Bloomington/Indianapolis 1998, ISBN 0-253-21190-5 (Studienausgabe) The Essential Writings. Hrsg. von Edward C. Moore, Prometheus Books, Amherst, N.Y. 1998, ISBN 1-57392-256-0. Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press, Indianapolis, Bloomington 1982ff. (Bisher Bände 1–6 und 8, geplant 30 Bände) Pragmatism as a Principle and Method of Right Thinking. The 1903 Harvard „Lectures on Pragmatism“, Hrsg. von Patricia Ann Turrisi. State of New York Press, Albany, N.Y. 1997. Charles S. Peirce. The Logic of Interdisciplinarity. The Monist-Series. hrsg. von Elize Bisanz, Akademie Verlag, Berlin 2009, ISBN 978-3-05-004410-1. Charles S. Peirce. Philosophy of Mathematics: Selected Writings. hrsg. von Matthew E. Moore, Indiana University Press, 2010, ISBN 978-0-253-22265-7 (Review) Prolegomena to a Science of Reasoning. Phaneroscopy, Semeiotic, Logic. hrsg. von Elize Bisanz, Peter Lang Verlag, Berlin 2015, ISBN 978-3-631-66602-9. Deutschsprachige Ausgaben Helmut Pape (Hrsg.): Charles S. Peirce. Phänomen und Logik der Zeichen. Suhrkamp, Frankfurt am Main 1993, ISBN 3-518-28025-2. Hermann Deuser (Hrsg.): Religionsphilosophische Schriften. Meiner, Hamburg 1995, ISBN 3-7873-1460-1. Helmut Pape (Hrsg.): Naturordnung und Zeichenprozeß. Schriften über Semiotik und Naturphilosophie. Suhrkamp, Frankfurt am Main 1998, ISBN 3-518-28512-2. Band 2 (1903–1906) ISBN 3-518-29081-9. Band 3 (1906–1913) ISBN 3-518-29082-7. Kenneth Laine Ketner (Hrsg.): Das Denken und die Logik des Universums: die Vorlesungen der Cambridge Conferences von 1898; mit einem Anhang unveröffentlichter Manuskripte. Suhrkamp, Frankfurt am Main 2002, ISBN 3-518-58325-5 (Originaltitel: Reasoning and the Logic of Things). Zitierweise: Collected Papers: Dezimal nach Band und Abschnittsnummer (CP 5.11 = Band fünf, Abschnitt 11) Microfilm Edition: MS plus Seitenzahl The New Elements of Mathematics: NEM Band plus Seitenzahl (NEM III/2, 11 = NEM Band 3, 2. Halbband, S. 11) Semiotics and Significs: S&S plus Seitenzahl Die im Text enthaltenen Zitate stammen aus den deutschen Ausgaben oder der genannten Literatur. Zitate Die Definition der Endlichkeit aus „On the algebra of logic“: „Now, to say that a lot of objects is finite, is the same as to say that if we pass through the class from one to another we shall necessarily come round to one of those individuals already passed; that is, if every one of the lot is in any one-to-one relation to one of the lot, then to every one of the lot some one is in this same relation.“ Die Pragmatische Maxime in der ersten Fassung wie in „How to make our Ideas clear“: „Überlege, welche Wirkungen, die denkbarerweise praktische Bedeutung haben können, wir dem Gegenstand unseres Begriffes zuschreiben. Dann ist unser Begriff dieser Wirkungen der ganze Umfang unseres Begriffs des Gegenstandes.“ Literatur Einführungen Elisabeth Walther: Charles Sanders Peirce, Leben und Werk. AGIS, Baden-Baden 1989, ISBN 3-87007-035-8. Ludwig Nagl, Charles Sanders Peirce, Campus Verlag, Frankfurt am Main/ New York 1992, ISBN 3-593-34631-1. Klaus Oehler: Charles Sanders Peirce. Beck, München 1993, ISBN 3-406-34635-9. Helmut Pape: Charles S. Peirce zur Einführung. Junius, Hamburg 2004, ISBN 3-88506-391-3. James Jakób Liszka: A General Introduction to the Semeiotic of Charles Sanders Peirce. Indiana University Press, Bloomington/Indianapolis 1996. Weiterführendes Ulrich Baltzer: Erkenntnis als Relationengeflecht. Kategorien bei Charles S. Peirce. Schöningh, Paderborn 1994, ISBN 3-506-70559-8. Joseph Brent: Charles S. Peirce. A life. Indiana University Press, Bloomington 1998, ISBN 0-253-33350-4. (Review; PDF; 988 kB) Carl R. Hausman: Charles S. Peirce's Evolutionary Philosophy. Cambridge University Press, New York 1993. Michael H. G. Hoffmann: Erkenntnisentwicklung. Ein semiotisch-pragmatischer Ansatz. Klostermann, Frankfurt am Main 2005, ISBN 3-465-03439-2. Stefan Kappner: Intentionalität aus semiotischer Sicht. Peirceanische Perspektiven. de Gruyter, Berlin/ New York 2004, ISBN 3-11-018288-2. Angelika Karger: Untersuchungen zur Bewusstseinkonzeption bei Ch. S. Peirce, Stuttgart 1982. Friedrich Kuhn: Ein anderes Bild des Pragmatismus. Wahrscheinlichkeitstheorie und Begründung der Induktion als maßgebliche Einflußgrößen in den „Illustrations of the Logic of Science“ von Charles Sanders Peirce. Frankfurt am Main 1996, ISBN 3-465-02858-9. Farid Lighvani: Die Bedeutung von Charles Sanders Peirce für den amerikanischen Pragmatismus. Hamburg 2007, ISBN 978-3-8300-3023-2. Louis Menand: The Metaphysical Club. Farrar, Strauss and Giroux, New York 2001, ISBN 0-374-52849-7. Ralf Müller: Die dynamische Logik des Erkennens bei Charles S. Peirce. Königshausen & Neumann, Würzburg 1999, ISBN 3-631-48338-4. Helmut Pape: Erfahrung und Wirklichkeit als Zeichenprozeß. Charles S. Peirces Entwurf einer Spekulativen Grammatik des Seins. Suhrkamp, Frankfurt 1989. Helmut Pape: Der dramatische Reichtum der konkreten Welt. Der Ursprung des Pragmatismus im Denken von Charles Sanders Peirce und William James. Velbrück Wissenschaft, Weilerswist 2002, ISBN 3-934730-38-8. Ansgar Richter: Der Begriff der Abduktion bei Charles S. Peirce. Lang, Frankfurt am Main 1995, ISBN 3-631-48338-4. Don D. Roberts: The Existential Graphs of Charles S. Peirce. (= Approaches To Semiotics. 27). Mouton, The Hague 1973. Karl-Hermann Schäfer: Peirce: Kommunikationstheorie als Semiotik. In: Karl-Hermann Schäfer: Kommunikation und Interaktion, Grundbegriffe einer Pädagogik des Pragmatismus. VS Verlag für Sozialwissenschaften, Wiesbaden 2005, ISBN 3-531-14529-0, S. 63–116. Gerhard Schönrich: Zeichenhandeln. Untersuchungen zum Begriff einer semiotischen Vernunft im Ausgang von Ch. S. Peirce. Suhrkamp, Frankfurt am Main 1990, ISBN 3-518-58024-8. Uwe Wirth (Hrsg.): Die Welt als Zeichen und Hypothese. Perspektiven des semiotischen Pragmatismus von Charles S. Peirce. Suhrkamp, Frankfurt am Main 2000, ISBN 3-518-29079-7. Julia Zink: Kontinuum und Konstitution der Wirklichkeit. Analyse und Rekonstruktion des Peirce'schen Kontinuum-Gedankens. Dissertation. München 2004. (PDF) Weblinks Peirce’s Writings Online (englisch) und im Internet Archive (englisch) und bei J. Jay Zeman Peirce Homepage (englisch) Historia Mathematica, Volume 9, Issue 3, August 1982, 263–341, Dokumentation eines Kolloguiums mit Aufsätzen von Max H. Fisch, Hilary Putnam, Ernest Nagel, Joseph W. Dauben, Kenneth Laine Ketner, Carolyn Eisele (englisch) Lexikoneinträge Joseph Randell: Charles Sanders Peirce (1839–1914), in: Encyclopedic Dictionary of Semiotics, hrsg. von Thomas Sebeok mit Umberto Eco, Mouton de Gruyter, The Hague 1986, 673–695 Ralph Schumacher: Charles Sanders Peirce. im UTB-Online-Wörterbuch Philosophie Sekundärliteratur David W. Agler: Peirce and the Specification of Borderline Vagueness, doi:10.1515/sem-2013-0012 Arthur W. Burks: Peirce's Evolutionary Pragmatic Idealism. In: Synthese. 106, 1996, S. 323–372. Ellery W. Davis: Charles Peirce at Johns Hopkins. In: Mid-West Quarterly. 1914, S. 48–56. Hermann Deuser: Peirce's Religious Writings and the Development of His Philosophy. (englisch; PDF; 178 kB) Claudine Engel-Tiercelin: Peirce's Realistic Approach to Mathematics: Or, Can One Be a Realist without Being a Platonist? József Farkas, Janos Sarbo: A Peircean Ontology of Semantics. (PDF; 160 kB) Paul Forster: Kant, Boole and Peirce's early Metaphysics. (PDF; 3,4 MB) Christine Ladd-Franklin: Charles S. Peirce at the Johns Hopkins. In: The Journal of Philosophy, Psychology and Scientific Methods. Band 13, 1916, S. 715–722. Susan Haack: The Legitimacy of Metaphysics. Kant's Legacy to Peirce, and Peirce's to Philosophy Today. (PDF; 201 kB) Carl R. Hausman: Eros and Agape in Creative Evolution: A Peircean Insight. In: Process Studies. Vol. 4, Number 1, Spring 1974, S. 11–25. Michael H.G. Hoffmann: Darstellung von Peirce' Zeichenbegriff John Kaag: Continuity and Inheritance: Kant's „Critique of Judgment“ and the Work of C. S. Peirce. (PDF; 2,2 MB). In: Transactions of the Charles S. Peirce Society. Band 41, Nr. 3, 2005, S. 515–540. Gary E. Kessler: A Neglected Argument. Catherine Legg: Peirce, Meaning and the Semantic Web. Jaime Nubiola: Peirce and Whitehead. (PDF; 153 kB). In: M. Weber (Hrsg.): Handbook of Whiteheadian Process Thought. vol. 2, Ontos, Frankfurt 2008, S. 481–487. Jaime Nubiola: Peirce and Wittgenstein. (PDF; 139 kB). In: Studies on the History of Logic. Proceedings of the III. Symposium on History of Logic. de Gruyter, Berlin 1996, S. 281–294. Michael Otte, Thomas Mies, Michael Hoffmann: Die Symmetrie von Subjektbezug und Objektivität wissenschaftlicher Verallgemeinerung. (PDF; 273 kB). Untersuchungen zur Begründung wissenschaftlicher Rationalität im Anschluß an die mathematische Philosophie von Charles S. Peirce, Occasional Paper 162, Februar 1997 Helmut Pape: Logik, Zeichen und Wirklichkeit. Charles S. Peirce über die Ordnung von Denken und Handeln. (PDF; 161 kB) Helmut Pape: Charles S. Peirce on Objects of Thought and Representation. (PDF; 2,6 MB). (MS 318, Prag 11-50, 1907) introduced and edited by Helmut Pape. In: NOUS. 24, 1990, S. 375–396. Hilary Putnam: Peirce als Logiker (englisch) Roberto Quaggia: Forms of Sign and Forms of Being: The Phaneroscopic and Synechistic Ontology of C.S. Peirce. (PDF; 197 kB). Thomas Short: The conservative Pragmatism of Charles Peirce. (PDF; 750 kB). John F. Sowa: Peirce's Contributions to the 21st Century. (PDF; 243 kB). Torkild Leo Thellefsen: C. S. Peirce’s Evolutionary Sign: an Analysis of Depth and Complexity within Peircean Sign Types and Peircean Evolution Theory. (PDF; 1 MB). Ruben Zaiotti: Pragmaticist explorations: C.S. Peirce, the logic of inquiry and international relations. Bridges: Conversations in Global Politics and Public Policy: Vol. 2: Iss. 1, Article 1 Materialien Digital Encyclopedia of Charles S. Peirce Eine Vielzahl wissenschaftlicher Aufsätze zu Peirce (englisch) Begriffsklärung anhand von Peirce-Zitaten (englisch) Einführung in Zeichenbegriff von Peirce in Bezug auf Bilder Einzelnachweise Semiotiker Philosoph (19. Jahrhundert) Mathematiker (19. Jahrhundert) Logiker Linguist Vertreter des Pragmatismus Hochschullehrer (Johns Hopkins University) Mitglied der American Academy of Arts and Sciences Mitglied der National Academy of Sciences US-Amerikaner Geboren 1839 Gestorben 1914 Mann
968
https://de.wikipedia.org/wiki/Compiler
Compiler
Ein Compiler (auch Kompilierer; von ‚zusammentragen‘ bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann. Daraus entsteht ein mehr oder weniger direkt ausführbares Programm. Davon zu unterscheiden sind Interpreter, etwa für frühe Versionen von BASIC, die keinen Maschinencode erzeugen. Teils wird zwischen den Begriffen Übersetzer und Compiler unterschieden. Ein Übersetzer überführt ein Programm aus einer formalen Quellsprache in ein semantisches Äquivalent in einer formalen Zielsprache. Compiler sind spezielle Übersetzer, die Programmcode aus höheren Programmiersprachen, in ausführbare Maschinensprache einer bestimmten Rechnerarchitektur oder einen Zwischencode überführen. Diese Trennung zwischen den Begriffen Übersetzer und Compiler wird nicht in allen Fällen vorgenommen. Der Vorgang der Übersetzung durch den Compiler wird als Kompilierung oder Umwandlung bezeichnet. Das Gegenteil, also die Rückübersetzung von Maschinensprache in Quelltext einer bestimmten Programmiersprache, wird Dekompilierung und entsprechende Programme Decompiler genannt. Terminologie Ein Übersetzer ist ein Programm, das als Eingabe ein in einer Quellsprache formuliertes Programm akzeptiert und es in ein semantisch äquivalentes Programm in einer Zielsprache übersetzt. Es wird also insbesondere gefordert, dass das erzeugte Programm die gleichen Ergebnisse wie das gegebene Programm liefert. Als Ausnahme wird oft die Quell-Sprache Assembler angesehen – ihr Übersetzer (in Maschinencode) heißt „Assembler“ und wird i. A. nicht als „Compiler“ bezeichnet. Die Aufgabe des Übersetzers umfasst ein großes Spektrum an Teilaufgaben, von der Syntaxanalyse bis zur Zielcodeerzeugung. Eine wichtige Aufgabe besteht auch darin, Fehler im Quellprogramm zu erkennen und zu melden. Das Wort „Compiler“ stammt vom Englischen „to compile“ (dt. zusammentragen, zusammenstellen) ab und heißt im eigentlichen Wortsinn also „Zusammentrager“. In den 1950er-Jahren war der Begriff noch nicht fest in der Computerwelt verankert. Ursprünglich bezeichnete Compiler ein Hilfsprogramm, das ein Gesamtprogramm aus einzelnen Unterprogrammen oder Formelauswertungen zusammentrug, um spezielle Aufgaben auszuführen. (Diese Aufgabe erfüllt heute der Linker, der jedoch auch im Compiler integriert sein kann.) Die einzelnen Unterprogramme wurden noch „von Hand“ in Maschinensprache geschrieben. Ab 1954 kam der Begriff „algebraic compiler“ für ein Programm auf, das die Umsetzung von Formeln in Maschinencode selbständig übernahm. Das „algebraic“ fiel im Laufe der Zeit weg. Ende der 1950er-Jahre wurde der Begriff des Compilers im englischsprachigen Raum noch kontrovers diskutiert. So hielt das Fortran-Entwicklerteam noch jahrelang am Begriff „translator“ (deutsch „Übersetzer“) fest, um den Compiler zu bezeichnen. Diese Bezeichnung ist sogar im Namen der Programmiersprache Fortran selbst enthalten: Fortran ist zusammengesetzt aus Formula und Translation, heißt also in etwa Formel-Übersetzung. Erst 1964 setzte sich der Begriff Compiler auch im Zusammenhang mit Fortran gegenüber dem Begriff Translator durch. Nach Carsten Busch liegt eine „besondere Ironie der Geschichte darin“, dass der Begriff Compiler im Deutschen mit „Übersetzer“ übersetzt wird. Einige deutsche Publikationen verwenden jedoch auch den englischen Fachbegriff Compiler anstelle von Übersetzer. In einem engeren Sinne verwenden einige deutschsprachige Publikationen den Fachbegriff Compiler jedoch nur, wenn die Quellsprache eine höhere Programmiersprache ist als die Zielsprache. Typische Anwendungsfälle sind die Übersetzung einer höheren Programmiersprache in die Maschinensprache eines Computers, sowie die Übersetzung in Bytecode einer virtuellen Maschine. Zielsprache von Compilern (in diesem Sinne) kann auch eine Assemblersprache sein. Ein Übersetzer zur Übertragung von Assembler-Quellprogrammen in Maschinensprache wird als Assembler oder Assemblierer bezeichnet. Geschichte Bereits für die erste entworfene höhere Programmiersprache, den Plankalkül von Konrad Zuse, plante dieser – nach heutiger Terminologie – einen Compiler. Zuse bezeichnete ein einzelnes Programm als Rechenplan und hatte schon 1944 die Idee für ein sogenanntes Planfertigungsgerät, welches automatisch aus einem mathematisch formulierten Rechenplan einen gestanzten Lochstreifen mit entsprechendem Maschinenplan für den Zuse-Z4-Computer erzeugen sollte. Konkreter als die Idee von Zuse eines Planfertigungsgeräts war ein Konzept von Heinz Rutishauser zur automatischen Rechenplanfertigung. In einem Vortrag vor der Gesellschaft für Angewandte Mathematik und Mechanik (GAMM) wie auch 1951 in seiner Habilitationsschrift an der ETH Zürich beschrieb er, welche zusätzlichen Programmierbefehle (Instruktionen) und Hardware-Ergänzungen an der damals an der ETHZ genutzten Z4 nötig seien, um den Rechner ebenfalls als Hilfsmittel zur automatischen Programmerstellung einzusetzen. Ein früher Compiler wurde 1949 von der Mathematikerin Grace Hopper konzipiert. Bis zu diesem Zeitpunkt mussten Programmierer direkt Maschinencode erstellen. (Der erste Assembler wurde zwischen 1948 und 1950 von Nathaniel Rochester für eine IBM 701 geschrieben.) Um diesen Prozess zu vereinfachen, entwickelte Grace Hopper eine Methode, die es ermöglichte, Programme und ihre Unterprogramme in einer mehr an der menschlichen als der maschinellen Sprache orientierten Weise auszudrücken. Am 3. Mai 1952 stellte Hopper den ersten Compiler A-0 vor, der Algorithmen aus einem Katalog abrief, Code umschrieb, in passender Reihenfolge zusammenstellte, Speicherplatz reservierte und die Zuteilung von Speicheradressen organisierte. Anfang 1955 präsentierte Hopper bereits einen Prototyp des Compilers B-0, der nach englischen, französischen oder deutschen Anweisungen Programme erzeugte. Hopper nannte ihren Vortrag zum ersten Compiler „The Education of a Computer“ („Die Erziehung eines Computers“). Die Geschichte des Compilerbaus wurde von den jeweils aktuellen Programmiersprachen (vgl. Zeittafel der Programmiersprachen) und Hardwarearchitekturen geprägt. Weitere frühe Meilensteine sind 1957 der erste Fortran-Compiler und 1960 der erste COBOL-Compiler. Viele Architekturmerkmale heutiger Compiler wurden aber erst in den 1960er Jahren entwickelt. Früher wurden teilweise auch Programme als Compiler bezeichnet, die Unterprogramme zusammenfügen. Dies geht an der heutigen Kernaufgabe eines Compilers vorbei, weil Unterprogramme heutzutage mit anderen Mitteln eingefügt werden können: Entweder im Quelltext selbst, beispielsweise von einem Präprozessor (siehe auch Precompiler) oder bei übersetzten Komponenten von einem eigenständigen Linker. Arbeitsweise Die prinzipiellen Schritte bei der Übersetzung eines Quellcodes in einen Zielcode lauten: Syntaxprüfung Es wird geprüft, ob der Quellcode ein gültiges Programm darstellt, also der Syntax der Quellsprache entspricht. Festgestellte Fehler werden protokolliert. Ergebnis ist eine Zwischendarstellung des Quellcodes. Analyse und Optimierung Die Zwischendarstellung wird analysiert und optimiert. Dieser Schritt variiert im Umfang je nach Compiler und Benutzereinstellung stark. Er reicht von einfacheren Effizienzoptimierungen bis hin zu Programmanalyse. Codeerzeugung Die optimierte Zwischendarstellung wird in entsprechende Befehle der Zielsprache übersetzt. Hierbei können weitere, zielsprachenspezifische Optimierungen vorgenommen werden. Beachte: Moderne Compiler führen mittlerweile (meist) keine Codegenerierung mehr selbst durch. C++ bei eingeschalteter globaler Optimierung: Die Codegenerierung erfolgt beim Linken. C#: Die Codegenerierung erfolgt aus, während der Kompilierung erzeugtem, Common-Intermediate-Language-Code während der Laufzeit durch den JIT- oder NGEN-Compiler der .NET-Umgebung. gleiches gilt für andere Sprachen, die die Common Language Infrastructure nutzen wie F# und VB.NET, siehe Liste von .NET-Sprachen. Java: Die Codegenerierung erfolgt aus, während der Kompilierung erzeugtem, Java-Byte-Code während der Laufzeit durch den Java-JIT-Compiler. Codegenerierung während der Runtime ermöglicht: modulübergreifende Optimierungen, exakte Anpassungen an die Zielplattform (Befehlssatz, Anpassung an die Fähigkeiten der CPU), Nutzung von Profiling-Informationen. Aufbau eines Compilers Der Compilerbau, also die Programmierung eines Compilers, ist eine eigenständige Disziplin innerhalb der Informatik. Moderne Compiler werden in verschiedene Phasen gegliedert, die jeweils verschiedene Teilaufgaben des Compilers übernehmen. Einige dieser Phasen können als eigenständige Programme bzw. Softwarekomponenten realisiert werden, z. B. Precompiler oder Präprozessor. Sie werden sequentiell ausgeführt. Im Wesentlichen lassen sich zwei Phasen unterscheiden: das Frontend (auch Analysephase), das den Quelltext analysiert und daraus einen attributierten Syntaxbaum erzeugt, sowie das Backend (auch Synthesephase), das daraus den Programmcode der Zielsprache erzeugt. Frontend (auch „Analysephase“) Im Compiler-Frontend wird der Code analysiert, strukturiert und auf Fehler geprüft. Es ist selbst wiederum in Phasen gegliedert. Sprachen wie modernes C++ erlauben aufgrund von Mehrdeutigkeiten in ihrer Grammatik keine Aufteilung der Syntaxanalyse in lexikalische Analyse, syntaktische Analyse und semantische Analyse. Ihre Compiler sind entsprechend komplex. Lexikalische Analyse Die lexikalische Analyse zerteilt den eingelesenen Quelltext in lexikalische Einheiten (Tokens) verschiedener Typen, zum Beispiel Schlüsselwörter, Bezeichner, Zahlen, Zeichenketten oder Operatoren. Dieser Teil des Compilers heißt Tokenizer, Scanner oder Lexer. Ein Scanner benutzt gelegentlich einen separaten Screener, um Whitespace (Leerraum, also Leerzeichen, Tabulatorzeichen, Zeilenenden usw.) und Kommentare zu überspringen. Eine weitere Funktion der lexikalischen Analyse ist es, erkannte Tokens mit ihrer Position (z. B. Zeilennummer) im Quelltext zu assoziieren. Werden in der weiteren Analysephase, deren Grundlage die Tokens sind, Fehler im Quelltext gefunden (z. B. syntaktischer oder semantische Art), können die erzeugten Fehlermeldungen mit einem Hinweis auf den Ort des Fehlers versehen werden. Lexikalische Fehler sind Zeichen oder Zeichenfolgen, die keinem Token zugeordnet werden können. Zum Beispiel erlauben die meisten Programmiersprachen keine Bezeichner, die mit Ziffern beginnen (z. B. „3foo“). Syntaktische Analyse Die syntaktische Analyse überprüft, ob der eingelesene Quellcode in einer korrekten Struktur der zu übersetzenden Quellsprache vorliegt, das heißt der kontextfreien Syntax (Grammatik) der Quellsprache entspricht. Dabei wird die Eingabe in einen Syntaxbaum umgewandelt. Der syntaktische Analysierer wird auch als Parser bezeichnet. Falls der Quellcode nicht zur Grammatik der Quellsprache passt, gibt der Parser einen Syntaxfehler aus. Der so erzeugte Syntaxbaum ist für die nächste Phase (semantische Analyse) mit den „Inhalten“ der Knoten annotiert; d. h. z. B., Variablenbezeichner und Zahlen werden, neben der Information, dass es sich um solche handelt, weitergegeben. Die syntaktische Analyse prüft beispielsweise, ob die Klammerung stimmt, also zu jeder öffnenden Klammer eine schließende desselben Typs folgt, sowie ohne Klammer-Verschränkung. Auch geben die Schlüsselworte bestimmte Strukturen vor. Semantische Analyse Die semantische Analyse überprüft die statische Semantik, also über die syntaktische Analyse hinausgehende Bedingungen an das Programm. Zum Beispiel muss eine Variable in der Regel deklariert worden sein, bevor sie verwendet wird, und Zuweisungen müssen mit kompatiblen (verträglichen) Datentypen erfolgen. Dies kann mit Hilfe von Attributgrammatiken realisiert werden. Dabei werden die Knoten des vom Parser generierten Syntaxbaums mit Attributen versehen, die Informationen enthalten. So kann zum Beispiel eine Liste aller deklarierten Variablen erstellt werden. Die Ausgabe der semantischen Analyse nennt man dann dekorierten oder attributierten Syntaxbaum. Backend (auch „Synthesephase“) Das Compiler-Backend erzeugt den Programmcode der Zielsprache aus dem attributierten Syntaxbaum, welcher vom Frontend erstellt wurde. Zwischencodeerzeugung Viele moderne Compiler erzeugen aus dem Syntaxbaum einen Zwischencode, der schon relativ maschinennah sein kann und führen auf diesem Zwischencode zum Beispiel Programmoptimierungen durch. Das bietet sich besonders bei Compilern an, die mehrere Quellsprachen oder verschiedene Zielplattformen unterstützen. Hier kann der Zwischencode auch ein Austauschformat sein. Programmoptimierung Der Zwischencode ist Basis vieler Programmoptimierungen. Siehe Programmoptimierung. Codegenerierung Bei der Codegenerierung wird der Programmcode der Zielsprache entweder direkt aus dem attributierten Syntaxbaum oder aus dem Zwischencode erzeugt. Falls die Zielsprache eine Maschinensprache ist, kann das Ergebnis direkt ein ausführbares Programm sein oder eine sogenannte Objektcode-Datei, die durch das Linken mit der Laufzeitbibliothek und evtl. weiteren Objektcodedateien zu einer Bibliothek oder einem ausführbaren Programm führt. Dies alles wird vom Codegenerator ausgeführt, der Teil des Compilersystems ist, manchmal als Programmteil des Compilers, manchmal als eigenständiges Modul. Einordnung verschiedener Compiler-Arten Native Compiler Compiler, der den Zielcode für die Plattform erzeugt, auf der er selbst läuft. Der Code ist plattformspezifisch. Cross-Compiler Compiler, der auf einer Plattform ausgeführt wird und Zielcode für eine andere Plattform, zum Beispiel ein anderes Betriebssystem oder eine andere Prozessorarchitektur, erzeugt. Eine typische Anwendung ist die Erstellung von Programmen für ein eingebettetes System, das selbst keine oder keine guten Werkzeuge zur Softwareerstellung enthält, sowie die Erstellung oder Portierung eines Betriebssystems auf eine neue Plattform. Single-pass-Compiler Compiler, der in einem einzigen Durchlauf aus dem Quellcode den Zielcode erzeugt (im Gegensatz zum Multi-pass-Compiler); der Compiler liest also den Quelltext von vorne nach hinten nur ein Mal und erzeugt zugleich das Ergebnisprogramm. Üblicherweise ist ein derartiger Compiler sehr schnell, aber kann nur einfache Optimierungen durchführen. Nur für bestimmte Programmiersprachen, zum Beispiel Pascal, C und C++, kann ein Single-Pass-Compiler erstellt werden, denn dazu darf die Programmiersprache keine Vorwärtsbezüge enthalten (es darf nichts verwendet werden, was nicht bereits „weiter oben“ im Quelltext deklariert wurde). Multi-pass-Compiler Bei diesem Compilertyp wird der Quellcode in mehreren Schritten in den Zielcode übersetzt (ursprünglich: der Quellcode wird mehrmals eingelesen bzw. mehrfach „von vorne nach hinten“ komplett durchgearbeitet). In den Anfangszeiten des Compilerbaus wurde der Übersetzungsprozess hauptsächlich deshalb in mehrere Durchläufe zerlegt, weil die Kapazität der Computer oft nicht ausreichte, um den vollständigen Compiler und das zu übersetzende Programm gleichzeitig im Hauptspeicher zu halten. Heutzutage dient ein Multi-pass-Compiler vor allem dazu, Vorwärtsreferenzen (Deklaration eines Bezeichners „weiter unten im Quelltext“ als dessen erste Verwendung) aufzulösen und aufwändige Optimierungen durchzuführen. Sonderformen Bei einem Transcompiler (auch als Transpiler oder Quer-Übersetzer bezeichnet) handelt es sich um einen speziellen Compiler, der Quellcode einer Programmiersprache in den Quellcode einer anderen Programmiersprache übersetzt, zum Beispiel von Pascal in C. Man nennt diesen Vorgang „Code-Transformation“ oder „übersetzen“. Da jedoch viele Programmiersprachen besondere Eigenschaften und Leistungsmerkmale besitzen, kann es, wenn diese nicht vom Transcompiler berücksichtigt werden, zu Effizienzverlusten kommen. Da Programmiersprachen meist unterschiedlichen Programmierparadigmen folgen, ist der neu generierte Quelltext oft nur schwer für Entwickler lesbar. Manchmal ist auch eine manuelle Nachbearbeitung des Codes nötig, da die automatische Übersetzung nicht in allen Fällen reibungsfrei funktioniert. Außerdem gibt es in vielen modernen Programmiersprachen umfangreiche Unterprogrammbibliotheken. Das Umsetzen von Bibliotheksaufrufen erschwert den Übersetzungsvorgang zusätzlich. Compiler-Compiler und Compilergeneratoren sind Hilfsprogramme zur automatischen Generierung von Compilerteilen oder vollständigen Compilern. Siehe auch: ANTLR, Coco/R, JavaCC, Lex, Yacc Just-in-time-Compiler (oder JIT-Compiler) übersetzen Quellcode oder Zwischencode erst bei der Ausführung des Programms in Maschinencode. Dabei werden Programmteile erst übersetzt, wenn diese erstmals oder mehrmals ausgeführt werden. Meist ist der Grad der Optimierung abhängig von der Benutzungshäufigkeit der entsprechenden Funktion. Beim Compreter wird der Programm-Quellcode zunächst in einen Zwischencode übersetzt, der dann zur Laufzeit interpretiert wird. Compreter sollten die Vorteile des Compilers mit den Vorteilen des Interpreters verbinden. Effektiv sind viele heutige Interpreter zur Verringerung der Ausführungszeit intern als Compreter implementiert, die den Quellcode zur Laufzeit übersetzen, bevor das Programm ausgeführt wird. Auch ein Bytecode-Interpreter ist ein Compreter, z. B. die virtuellen Maschinen von Java bis Version 1.2. Programmoptimierung (ausführlich) Viele Optimierungen, die früher Aufgabe des Compilers waren, werden mittlerweile innerhalb der CPU während der Codeabarbeitung vorgenommen. Maschinencode ist gut, wenn er kurze kritische Pfade und wenig Überraschungen durch falsch vorhergesagte Sprünge aufweist, Daten rechtzeitig aus dem Speicher anfordert und alle Ausführungseinheiten der CPU gleichmäßig auslastet. Zur Steuerung des Übersetzens kann der Quelltext neben den Anweisungen der Programmiersprache zusätzliche spezielle Compiler-Anweisungen enthalten. Üblicherweise bietet ein Compiler Optionen für verschiedene Optimierungen mit dem Ziel, die Laufzeit des Zielprogramms zu verbessern oder dessen Speicherplatzbedarf zu minimieren. Die Optimierungen erfolgen teilweise in Abhängigkeit von den Eigenschaften der Hardware, zum Beispiel wie viele und welche Register der Prozessor des Computers zur Verfügung stellt. Es ist möglich, dass ein Programm nach einer Optimierung langsamer ausgeführt wird, als das ohne die Optimierung der Fall gewesen wäre. Dies kann zum Beispiel eintreten, wenn eine Optimierung für ein Programmkonstrukt längeren Code erzeugt, der zwar an sich schneller ausgeführt werden würde, aber mehr Zeit benötigt, um erst einmal in den Cache geladen zu werden. Er ist damit erst bei häufigerer Benutzung vorteilhaft. Einige Optimierungen führen dazu, dass der Compiler Zielsprachenkonstrukte erzeugt, für die es gar keine direkten Entsprechungen in der Quellsprache gibt. Ein Nachteil solcher Optimierungen ist, dass es dann kaum noch möglich ist, den Programmablauf mit einem interaktiven Debugger in der Quellsprache zu verfolgen. Optimierungen können sehr aufwendig sein. Vielfach muss vor allem in modernen JIT-Compilern daher abgewogen werden, ob es sich lohnt, einen Programmteil zu optimieren. Bei Ahead-of-time-Compilern werden bei der abschließenden Übersetzung alle sinnvollen Optimierungen verwendet, häufig jedoch nicht während der Software-Entwicklung (reduziert den Kompilier-Zeitbedarf). Für nichtautomatische Optimierungen seitens des Programmierers können Tests und Anwendungsszenarien durchgespielt werden (s. Profiler), um herauszufinden, wo sich komplexe Optimierungen lohnen. Im Folgenden werden einige Optimierungsmöglichkeiten eines Compilers betrachtet. Das größte Optimierungspotenzial besteht allerdings oft in der Veränderung des Quellprogramms selbst, zum Beispiel darin, einen Algorithmus durch einen effizienteren zu ersetzen. Dieser Vorgang kann meistens nicht automatisiert werden, sondern muss durch den Programmierer erfolgen. Einfachere Optimierungen können dagegen an den Compiler delegiert werden, um den Quelltext lesbar zu halten. Einsparung von Maschinenbefehlen In vielen höheren Programmiersprachen benötigt man beispielsweise eine Hilfsvariable, um den Inhalt zweier Variablen zu vertauschen: Mit der Optimierung werden statt 6 nur noch 4 Assemblerbefehle benötigt, außerdem wird der Speicherplatz für die Hilfsvariable hilf nicht gebraucht. D. h., diese Vertauschung wird schneller ausgeführt und benötigt weniger Hauptspeicher. Dies gilt jedoch nur, wenn ausreichend Register im Prozessor zur Verfügung stehen. Die Speicherung von Daten in Registern statt im Hauptspeicher ist eine häufig angewendete Möglichkeit der Optimierung. Die oben als optimiert gezeigte Befehlsfolge hat noch eine weitere Eigenschaft, die bei modernen CPUs mit mehreren Verarbeitungs-Pipelines einen Vorteil bedeuten kann: Die beiden Lesebefehle und die beiden Schreibbefehle können problemlos parallel verarbeitet werden, sie sind nicht vom Resultat des jeweils anderen abhängig. Lediglich der erste Schreibbefehl muss auf jeden Fall abwarten, bis der letzte Lesebefehl ausgeführt wurde. Tiefer gehende Optimierungsverfahren fügen deshalb unter Umständen zwischen b → Register 2 und Register 2 → a noch Maschinenbefehle ein, die zu einer ganz anderen hochsprachlichen Befehlszeile gehören. Statische Formelauswertung zur Übersetzungszeit Die Berechnung des Kreisumfangs mittels pi = 3.14159 u = 2 * pi * r kann ein Compiler bereits zur Übersetzungszeit zu u = 6.28318 * r auswerten. Diese Formelauswertung spart die Multiplikation 2 * pi zur Laufzeit des erzeugten Programms. Diese Vorgehensweise wird als Konstantenfaltung (englisch „constant folding“) bezeichnet. Eliminierung von totem Programmcode Wenn der Compiler erkennen kann, dass ein Teil des Programmes niemals durchlaufen wird, dann kann er diesen Teil bei der Übersetzung weglassen. Beispiel: 100 goto 900 200 k=3 900 i=7 ... ... Wenn in diesem Programm niemals ein GOTO auf die Sprungmarke 200 erfolgt, kann auf die Anweisung 200 k=3 verzichtet werden. Der Sprungbefehl 100 goto 900 ist dann ebenfalls überflüssig. Erkennung unbenutzter Variablen Wird eine Variable nicht benötigt, so muss dafür kein Speicherplatz reserviert und kein Zielcode erzeugt werden. Beispiel: subroutine test (a,b) b = 2 * a c = 3.14 * b return b Hier wird die Variable c nicht benötigt: Sie steht nicht in der Parameterliste, wird in späteren Berechnungen nicht verwendet und wird auch nicht ausgegeben. Deshalb kann die Anweisung c = 3.14 * b entfallen. Optimierung von Schleifen Insbesondere Schleifen versucht man zu optimieren, indem man zum Beispiel möglichst viele Variablen in Registern hält (normalerweise mindestens die Schleifenvariable); statt eines Index, mit dem auf Elemente eines Feldes () zugegriffen wird, Zeiger auf die Elemente verwendet, dadurch wird der Aufwand beim Zugriff auf Feldelemente geringer; Berechnungen innerhalb der Schleife, die in jedem Durchlauf dasselbe Ergebnis liefern, nur einmal vor der Schleife ausführt (Loop-invariant code motion); zwei Schleifen, die über denselben Wertebereich gehen, zu einer Schleife zusammenfasst, damit fällt der Verwaltungsaufwand für die Schleife nur einmal an; die Schleife teilweise oder (bei Schleifen mit konstanter, niedriger Durchlaufzahl) komplett auflöst (englisch loop unrolling), sodass die Anweisungen innerhalb der Schleife mehrfach direkt hintereinander ausgeführt werden, ohne dass jedes Mal nach den Anweisungen eine Prüfung der Schleifenbedingung und ein Sprung zum Schleifenbeginn erfolgen; die Schleife (vor allem bei Zählschleifen mit for) umdreht, da beim Herunterzählen auf 0 effiziente Sprungbefehle (Jump-Not-Zero) benutzt werden können; die Schleife umformt, damit die Überprüfung der Abbruchbedingung am Ende der Schleife durchgeführt wird (Schleifen mit Anfangsüberprüfung haben stets eine bedingte und eine unbedingte Sprunganweisung, während Schleifen mit Endüberprüfung nur eine bedingte Sprunganweisung haben); die ganze Schleife entfernt, wenn sie (nach einigen Optimierungen) einen leeren Rumpf besitzt. Dies kann allerdings dazu führen, dass Warteschleifen, die ein Programm absichtlich verlangsamen sollen, entfernt werden. Allerdings sollten für diesen Zweck, soweit möglich, sowieso Funktionen des Betriebssystems benutzt werden. verschachtelte Schleifen (Schleifen in Schleifen) – wenn es die verwendete Programmierlogik erlaubt – aufsteigend anordnet, von der äußersten Schleife mit den wenigsten Schleifendurchläufen bis zur innersten Schleife mit den meisten Schleifendurchläufen. Damit verhindert man vielfache Mehrinitialisierungen der inneren Schleifenkörper. Manche dieser Optimierungen sind bei aktuellen Prozessoren ohne Nutzen oder sogar kontraproduktiv. Einfügen von Unterprogrammen Bei kleinen Unterprogrammen fällt der Aufwand zum Aufruf des Unterprogrammes verglichen mit der vom Unterprogramm geleisteten Arbeit stärker ins Gewicht. Daher versuchen Compiler, den Maschinencode kleinerer Unterprogramme direkt einzufügen – ähnlich wie manche Compiler/Assembler/Präcompiler Makro-Anweisungen in Quellcode auflösen. Diese Technik wird auch als Inlining bezeichnet. In manchen Programmiersprachen ist es möglich, durch inline-Schlüsselwörter den Compiler darauf hinzuweisen, dass das Einfügen von bestimmten Unterprogrammen gewünscht ist. Das Einfügen von Unterprogrammen eröffnet oft, abhängig von den Parametern, weitere Möglichkeiten für Optimierungen. Halten von Werten in Registern Anstatt mehrfach auf dieselbe Variable im Speicher, beispielsweise in einer Datenstruktur, zuzugreifen, kann der Wert nur einmal gelesen und für weitere Verarbeitungen in Registern oder im Stack zwischengespeichert werden. In C, C++ und Java muss dieses Verhalten ggf. mit dem Schlüsselwort volatile abgeschaltet werden: Eine als volatile bezeichnete Variable wird bei jeder Benutzung wiederholt vom originalen Speicherplatz gelesen, da ihr Wert sich unterdessen geändert haben könnte. Das kann beispielsweise der Fall sein, wenn es sich um einen Hardware-Port handelt oder ein parallel laufender Thread den Wert geändert haben könnte. Beispiel: int a = array[25]->element.x; int b = 3 * array[25]->element.x; Im Maschinenprogramm wird nur einmal auf array[25]->element.x zugegriffen, der Wert wird zwischengespeichert und zweimal verwendet. Ist x volatile, dann wird zweimal zugegriffen. Es gibt außer volatile noch einen anderen Grund, der eine Zwischenspeicherung in Registern unmöglich macht: Wenn der Wert der Variablen v durch Verwendung des Zeigers z im Speicher verändert werden könnte, kann eine Zwischenspeicherung von v in einem Register zu fehlerhaftem Programmverhalten führen. Da die in der Programmiersprache C oft verwendeten Zeiger nicht auf ein Array beschränkt sind (sie könnten irgendwohin im Hauptspeicher zeigen), hat der Optimizer oft nicht genügend Informationen, um eine Veränderung einer Variablen durch einen Zeiger auszuschließen. Verwendung schnellerer äquivalenter Anweisungen Statt einer Multiplikation oder Division von Ganzzahlen mit einer Zweierpotenz kann ein Schiebebefehl verwendet werden. Es gibt Fälle, in denen nicht nur Zweierpotenzen, sondern auch andere Zahlen (einfache Summen von Zweierpotenzen) für diese Optimierung herangezogen werden. So kann zum Beispiel (n << 1) + (n << 2) schneller sein als n * 6. Statt einer Division durch eine Konstante kann eine Multiplikation mit dem Reziprokwert der Konstante erfolgen. Selbstverständlich sollte man solch spezielle Optimierungen auf jeden Fall dem Compiler überlassen. Weglassen von Laufzeitüberprüfungen Programmiersprachen wie Java fordern Laufzeitüberprüfungen beim Zugriff auf Felder oder Variablen. Wenn der Compiler ermittelt, dass ein bestimmter Zugriff immer im erlaubten Bereich sein wird (zum Beispiel ein Zeiger, von dem bekannt ist, dass er an dieser Stelle nicht NULL ist), kann der Code für diese Laufzeitüberprüfungen weggelassen werden. Reduktion von Paging zur Laufzeit Eng zusammenhängende Codebereiche, zum Beispiel ein Schleifenrumpf, sollte zur Laufzeit möglichst auf der gleichen oder in möglichst wenigen Speicherseiten („Page“, zusammenhängend vom Betriebssystem verwalteter Speicherblock) im Hauptspeicher liegen. Diese Optimierung ist Aufgabe des (optimierenden) Linkers. Dies kann zum Beispiel dadurch erreicht werden, dass dem Zielcode an geeigneter Stelle Leeranweisungen („NOPs“ – No OPeration) hinzugefügt werden. Dadurch wird der erzeugte Code zwar größer, aber wegen der reduzierten Anzahl notwendiger TLB-Cache-Einträge und notwendiger Pagewalks wird das Programm schneller ausgeführt. Vorziehen bzw. Verzögern von Speicherzugriffen Durch das Vorziehen von Speicherlesezugriffen und das Verzögern von Schreibzugriffen lässt sich die Fähigkeit moderner Prozessoren zur Parallelarbeit verschiedener Funktionseinheiten ausnutzen. So kann beispielsweise bei den Befehlen: a = b * c; d = e * f; der Operand e bereits geladen werden, während ein anderer Teil des Prozessors noch mit der ersten Multiplikation beschäftigt ist. Ein Beispielcompiler Folgendes in ANTLR erstelltes Beispiel soll die Zusammenarbeit zwischen Parser und Lexer erklären. Der Übersetzer soll Ausdrücke der Grundrechenarten beherrschen und vergleichen können. Die Parsergrammatik wandelt einen Dateiinhalt in einen abstrakten Syntaxbaum (AST) um. Grammatiken Die Baumgrammatik ist in der Lage, die im AST gespeicherten Lexeme zu evaluieren. Der Operator der Rechenfunktionen steht in der AST-Schreibweise vor den Operanden als Präfixnotation. Daher kann die Grammatik ohne Sprünge Berechnungen anhand des Operators durchführen und dennoch Klammerausdrücke und Operationen verschiedener Priorität korrekt berechnen. tree grammar Eval; options { tokenVocab=Expression; ASTLabelType=CommonTree; } @header { import java.lang.Math; } start : line+; //Eine Datei besteht aus mehreren Zeilen line : compare {System.out.println($compare.value);} ; compare returns [double value] : ^('+' a=compare b=compare) {$value = a+b;} | ^('-' a=compare b=compare) {$value = a-b;} | ^('*' a=compare b=compare) {$value = a*b;} | ^('/' a=compare b=compare) {$value = a/b;} | ^('%' a=compare b=compare) {$value = a\%b;} | ^(UMINUS a=compare) {$value = -1*a;} //Token UMINUS ist notwendig, um den binären //Operator nicht mit einem Vorzeichen zu verwechseln | ^('^' a=compare b=compare) {$value = Math.pow(a,b);} | ^('=' a=compare b=compare) {$value = (a==b)? 1:0;} //wahr=1, falsch=0 | INT {$value = Integer.parseInt($INT.text);} ; Ist eines der oben als compare bezeichnete Ausdrücke noch kein Lexem, so wird es von der folgenden Lexer-Grammatik in einzelne Lexeme aufgeteilt. Dabei bedient sich der Lexer der Technik des rekursiven Abstiegs. Ausdrücke werden so immer weiter zerlegt, bis es sich nur noch um Token vom Typ number oder Operatoren handeln kann. grammar Expression; options { output=AST; ASTLabelType=CommonTree; } tokens { UMINUS; } start : (line {System.out.println($line.tree==null?"null":$line.tree.toStringTree());})+; line : compare NEWLINE -> ^(compare); //Eine Zeile besteht aus einem Ausdruck und einem //terminalen Zeichen compare : sum ('='^ sum)?; //Summen sind mit Summen vergleichbar sum : product ('+'^ product|'-'^ product)*; //Summen bestehen aus Produkten (Operatorrangfolge) product : pow ('*'^ pow|'/'^ pow|'%'^ pow)*; //Produkte (Modulo-Operation gehört hier dazu) können //aus Potenzen zusammengesetzt sein pow : term ('^'^ pow)?; //Potenzen werden auf Terme angewendet term : number //Terme bestehen aus Nummern, Subtermen oder Summen |'+' term -> term |'-' term -> ^(UMINUS term) //Subterm mit Vorzeichen |'('! sum ')'! //Subterm mit Klammerausdruck ; number : INT; //Nummern bestehen nur aus Zahlen INT : '0'..'9'+; NEWLINE : '\r'? '\n'; WS : (' '|'\t'|'\n'|'\r')+ {skip();}; //Whitespace wird ignoriert Die Ausgabe hinter dem Token start zeigt außerdem den gerade evaluierten Ausdruck. Ausgabe des Beispiels Eingabe: 5 = 2 + 3 32 * 2 + 8 (2 * 2^3 + 2) / 3 Ausgabe (in den ersten Zeilen wird nur der Ausdruck der Eingabe in der AST-Darstellung ausgegeben): (= 5 (+ 2 3)) (+ (* 32 2) 8) (/ (+ (* 2 (^ 2 3)) 2) 3) 1.0 72.0 6.0 Der erste Ausdruck wird also als wahr (1) evaluiert, bei den anderen Ausdrücken wird das Ergebnis der Rechnung ausgegeben. Literatur Weblinks Einzelnachweise !Compiler Programmierwerkzeug
971
https://de.wikipedia.org/wiki/Columban%20von%20Luxeuil
Columban von Luxeuil
Columban von Luxeuil, auch Kolumban geschrieben (* ca. 540 in West Leinster, Irland; † 23. November 615 in Bobbio, Provinz Piacenza, Italien) war ein irischer Wandermönch und Missionar. Er wird von Katholiken und orthodoxen Christen als Heiliger verehrt. In der Evangelischen Kirche in Deutschland gilt er als denkwürdiger Glaubenszeuge. Zur Unterscheidung zum heiligen Columban, der Schottland missionierte, wird er als Columban von Luxeuil, Columban von Bobbio (italienisch Colombano) oder Columban der Jüngere bezeichnet. Sein liturgischer Gedenktag ist der 23. November. Leben Erziehung Nachdem er sich von der Welt losgesagt hatte, begann er eine klösterliche Erziehung bei Abt Sinell in Cluaninis bei Lough Erne. Später zog es ihn in die Abtei Bangor, die damals vom heiligen Comgall geleitet wurde. Reisen des Hl. Columban Um das Jahr 591 brach Columban mit einer Reihe von Brüdern, traditionell ist in Anlehnung an die Jüngerzahl Jesu von zwölfen die Rede, vom Kloster Bangor zur Küste auf. Unter seinen Gefährten werden der heilige Gallus, Domoal, Comininus, Eunocus und Equonanus genannt. Die Gefährten schifften sich ein und erreichten zunächst die Küste Britanniens (der Text lässt offen, ob es sich um die Küste der Bretagne oder die des heutigen Großbritanniens handelt). Hier, so berichtet Jona, ruhten sie sich aus und berieten ihre Pläne, bevor sie nach Gallien gingen. Im Frankenreich Childebert II. (Jonas nennt hier Sigebert) lud Columban kurz nach dessen Eintreffen in Gallien nach Austrasien ein. Hier gründete Columban mit seinen Gefährten zunächst das Kloster Annegray. Vor allem fränkische Adlige und Beamte sandten ihre Söhne als Oblaten in das Kloster, um sie dort ausbilden zu lassen. Schon bald gründeten die irischen Mönche die Klöster Luxeuil und Fontaines. Columbansregel In diesem Zusammenhang entstand die Regula Monachorum Columbans, die sich von der Regula Benedicti deutlich unterschied. Sie war strenger, indem sie auf der Grundlage gemeinsamer Gottesdienste und regelmäßigen Chorgebets individuell zu Studium und Arbeit verpflichtete. Viele Fastentage und Schweigezeiten waren vorgeschrieben. Die Kleidung bestand nur aus dem Untergewand, dem Mantel (cuculla) und Sandalen. Streng hielt Columban auf Keuschheit wegen der kultischen Reinheit und Gehorsam gegenüber Oberen und Älteren, wie Jesus dem Vater gehorsam gewesen war. „Beim ersten Wort, das ein Älterer spricht, müssen alle, die ihn hören, sich erheben.“ Anders als die Benediktiner waren die Columbaner oft Wandermönche, einsam und allein in unvertrauter Umgebung, lebten also noch entbehrungsreicher. Damit waren aber auch manche Freiheiten möglich. Konflikte Der Erfolg der irischen Mönche unter Columban weckte den Neid der Bischöfe, denn er entzog sich ihrer Jurisdiktion, da er unter dem Schutz Childeberts II. und später von dessen Nachfolger Theuderich II. stand. Da er weiterhin dem irischen Festkalender folgte, feierte er das Osterfest zu einem anderen Termin als der Rest der römischen Kirche. Dies suchten die fränkischen Bischöfe zu einer Klage auszunutzen. Der kam Columban jedoch zuvor, als er sich um das Jahr 600 in einem Brief an Papst Gregor wandte. Im zweiten noch erhaltenen Brief, der sich vermutlich an die Synode der fränkischen Bischöfe in Chalon des Jahres 603 wandte, bittet er darum, in Frieden in seiner neuen Heimat bleiben zu dürfen. Noch stand Columban unter dem Schutz Theuderichs, doch als er von ihm gebeten wurde, dessen vier illegitime Kinder zu segnen und damit zu legitimieren, weigerte sich Columban und drohte später mit der Exkommunikation, weil, wie er sich ausdrückte, diese Kinder aus dem Bordell hervorgegangen seien. Wegen Columbans Weigerung habe die Großmutter Brunichild den Heiligen ausweisen lassen (Bericht des Jonas von Bobbio). Nun sandte ihn Theuderich unter Bewachung nach Besançon. Nach dem Bericht des Jonas kam es hier zu einigen Vorfällen, die die Bewacher veranlassten, Columban gehen zu lassen. So kehrte er nach Luxeuil zurück. Doch im Jahre 610 wurde er erneut unter Bewachung gestellt und mit einigen seiner irischen Gefährten nach Nantes gebracht. Theuderich wollte wohl, da nun Theudebert II. ins Elsass eingefallen war, dieses unsichere Element loswerden. Nach zeitgenössischen Berichten war Columban schon unterwegs nach Irland, als ein Sturm ihn dazu zwang, auf den Kontinent zurückzukehren. Schweiz und Bodensee Der Rhein war durch den Kleinen Laufen bei Laufenburg für Boote nicht passierbar, ebenso bei Ettikon, man konnte hier nur zu Fuß oder Pferd weiter. Der einfachste Weg an den Zürichsee führte damals über die Aare, die man vom Hochrhein aus auf der Höhe ab Waldshut oder Koblenz mit Booten, meist Weidlingen befuhr, dann kam man auf der Limmat in den Zürichsee. Columban und seine Gefährten kamen zunächst nach Tuggen an den oberen Zürichsee, wo sie mit der Missionierung begannen. Ein Teil der Einwohner nahm den neuen Glauben an, andere blieben aber skeptisch. Zum Beweis, dass ihre alten Götter nichtig seien, nahm Gallus eine Statue und warf sie in den See. Das von den Heiden erwartete Strafgericht ihrer Götter trat nicht ein, und einige mehr ließen sich vom neuen Glauben überzeugen und taufen. Dennoch mussten die Glaubensboten weiterziehen, weil ihnen die verbliebenen Heiden nach dem Leben trachteten. Es verschlug Columban an den Bodensee, wo er in Bregenz Christen vorfand, die heidnische Bräuche wieder aufgenommen hatten. Mit der Hilfe von Gallus stellte er die kirchliche Zucht wieder her, und die Verehrung der heiligen Aurelia von Straßburg, einer Gefährtin der heiligen Ursula, lebte wieder auf. Columban gründete dort ein kleines Kloster mit strengen Ordensregeln. Er legte so viel Wert auf Sauberkeit, dass, wenn ein Klosterbruder Bier verschüttete, dieser in der Nacht stillstehen bleiben oder für einige Zeit bei Tisch Wasser trinken musste. Die Mönche fanden heraus, dass dick gebrautes Bier beim Fasten als Sättigungsmittel helfen konnte. Weil er und seine Gefährten in ihrem missionarischen Eifer unter den Einheimischen Streit auslösten, forderte der Herzog von Überlingen den Missionar auf, um des Friedens willen die Gegend zu verlassen. Gallus aber blieb in der Gegend, vorgeblich weil er aufgrund einer Krankheit nicht weiterziehen konnte. Weil ihm Columban nicht glaubte, verbot er ihm, die Messe zu lesen, bis zum Tag seines eigenen Todes. Gallus aber wurde zum Gründer der Stadt St. Gallen und zu ihrem Schutzpatron. In Italien 612 zog Columban nach Mailand und mischte sich in den Streit um den Nestorianismus ein. Ein ihm zugesprochener Brief an Papst Bonifatius IV. ist ein großes Zeugnis der Papstverbundenheit des irischen Missionars. Der langobardische König Agilulf vermachte ihm ein Gebiet namens Bobbio (Provinz Piacenza) am Fluss Trebbia, wo er ein Kloster, die heutige Abtei Bobbio, gründete und die Zeit bis zu seinem Lebensende verbrachte – trotz einer Einladung der Franken, nach Luxeuil zurückzukehren. Er starb am 23. November 615 in Bobbio in Norditalien. Der Legende nach soll Gallus an diesem Tag im Gedenken an seinen Meister erstmals wieder die heilige Messe gelesen haben – die gesicherte Nachricht über dessen Tod erreichte ihn erst Wochen später. Werk und Einfluss Columban hat mit seiner Peregrinatio eine umfassende Missionsbewegung auf dem europäischen Festland angestoßen und gilt als einer der bekanntesten iroschottischen Wandermissionare. Außerdem war er auch auf dem Gebiet der Liturgie tätig. Es werden ihm einige Hymnen, Briefe, Predigten sowie ein theologisches Traktat über die Buße zugeschrieben. Einen prägenden Einfluss hatte er auf die Christianisierung des bis dahin noch heidnisch, das heißt gallo-römisch geprägten ländlichen Raums auf der Alpennordseite. Bemerkenswert dabei ist, dass sich sein Erfolg wesentlich auf die von seiner irischen Heimat geprägte iroschottische Form des Christentums stützte. Sie war im Gegensatz zum römischen Kirchenmodell deutlich weniger hierarchisch und legte großen Wert auf die persönliche Beziehung. Klostergründungen Columban selbst hatte nur drei Klöster gegründet: Luxeuil (das zusammen mit Annegray und Fontaines unter einer Verwaltung stand), das nach einem Jahr untergegangene Bregenz und Bobbio. Infolge seiner Tätigkeit breitete sich aber erfolgreich die iroschottische Mission auf dem europäischen Festland aus und wurde insbesondere durch seine Schüler Eustasius († 629) und Gallus († 645) sowie deren Schüler Kilian von Würzburg († 689) fortgeführt. Dabei wurden vor allem viele Klöster auf dem Land gegründet. Unter römischer Vorherrschaft war das Christentum nur in den Städten verbreitet gewesen und hatte es in gut fünf Jahrhunderten nicht geschafft, die gallo-römische Landbevölkerung zu erreichen. Dies änderte sich mit Columbans Klostergründungswelle, in deren Folge sich eine – vom fränkischen Adel getragene – Bewegung entwickelte, die im 7. Jahrhundert circa 300 neue Klöster gründete. Mit diesen geistlichen Zentren hielt erstmals das Christentum im ländlichen Raum Einzug. Durch ihr landwirtschaftliches Wissen und ihre wirtschaftlichen Aktivitäten waren die Klöster darüber hinaus prägend für das Entstehen der europäischen Kulturlandschaft. Zitat Verbreitung der Regel Columbans Columban gab dem Mönchtum durch eine von ihm verfasste Ordensregel wesentliche Impulse. Sein Nachfolger Abt Eustachius von Luxeuil wurde wegen der Liturgie und Ordensregel Columbans angeklagt. Der König ließ daraufhin 627 die Synode von Mâcon einberufen, auf der allerdings die Regel Columbans noch bestätigt wurde. Dennoch ist davon auszugehen, dass nach dem Tode des Abts schon bald Teile der Benediktinerregel im Kloster Luxeuil praktiziert wurden. Durch die Klostergründungen der von Columban initiierten Bewegung breitete sich diese Mischregel stark aus. Um das Jahr 670 beschloss das Konzil von Autun, dass die Klöster künftig nach der Regel Benedikts geführt werden sollten. Dennoch wurden in der Folge vielfach Mischregeln, vor allem mit Teilen Columbans und Benedikts, verwendet. Die Regel Columbans konnte sich dauerhaft zwar nicht gegen die des Benedikt von Nursia durchsetzen, dennoch beachteten einige Klöster, besonders die im Reich der Franken, noch einige Jahrhunderte zumindest Teile seiner Regel. Erst durch die umfangreichen Reformen von Benedikt von Aniane wurde die Benediktinerregel mit Unterstützung Ludwigs des Frommen über das Frankenreich im gesamten Abendland die verbindliche Mönchsregel. Insofern hatte Columban einen prägenden Einfluss auf die Christianisierung und das klösterliche Leben in Europa. Verehrung Der Gedenktag des Heiligen ist der 21. November (orthodox) und 23. November (evangelisch und römisch-katholisch), in Irland und bei den Benediktinern wird er hingegen am 24. November verehrt; in den Bistümern Chur, St. Gallen und Feldkirch am 27. November. Er gilt als Patron der Motorradfahrer und Helfer bei Überschwemmungen. Dargestellt wird er als bärtiger Mönch umgeben von einem Wolfsrudel, eine Versinnbildlichung der widrigen Umstände, unter denen der Heilige oft wirkte. Die Pfarrkirche Bregenz-St. Kolumban trägt sein Patrozinium, zusätzlich ist die dortige Kolumbanstraße nach ihm benannt. Ferner ist er auf den Wappen von Sagogn (Graubünden) und Tuggen (Schwyz) abgebildet. Siehe auch Liste der Seligen und Heiligen Literatur Arnold Angenendt: Die irische Peregrinatio und ihre Auswirkungen auf dem Kontinent vor dem Jahre 800. In: Heinz Löwe: Die Iren und Europa im früheren Mittelalter. Bd. 1. Veröffentlichungen des Europa-Zentrums Tübingen. Kulturwissenschaftliche Reihe. Klett-Cotta, Stuttgart 1982. 2 Bde. S. 52–79. Arnold Angenendt: Kloster und Klosterverband zwischen Benedikt von Nursia und Benedikt von Aniane. In: Hagen Keller: Vom Kloster zum Klosterverband. Das Werkzeug der Schriftlichkeit; Akten des internationalen Kolloquiums des Projekts L 2 im SFB 231 (22. – 23. Februar 1996). Fink, München 1997, S. 7–35. Bruno Broder, Heinz Eggmann, René Wagner, Silvia Widmer-Trachsel: Stadt St. Gallen; eine geografisch-geschichtliche Heimatkunde. Schulverwaltung der Stadt St. Gallen, Kantonaler Lehrmittelverlag St. Gallen. Sancti Columbani Opera. Ed. by G.S.M. Walker. The Dublin Institute for Advanced Studies, 1970. Philipp Dörler: Kolumban und Gallus. Mitgestalter eines kulturellen Umbruchs (= Schriften der Vorarlberger Landesbibliothek, Bd. 22.) Neugebauer, Graz 2010, ISBN 978-3-85376-214-1. Peter Müller: Columbans Revolution. Wie irische Mönche Mitteleuropa mit dem Evangelium erreichten – und was wir von ihnen lernen können. Edition IGW, Bd. 1. [Neufeld Verlag], Schwarzenfeld 2008, ISBN 978-3-937896-64-9. Erna Patzelt: Die karolingische Renaissance. Beiträge zur Geschichte der Kultur des frühen Mittelalters. Ergänzt um ein Gesamtregister und einige Abbildungen. Zusammen mit Cyrille Vogel: La reforme culturelle sous Pépin le Bref et sous Charlemangen. 2. Auflage, Akademische Druck- und Verlagsanstalt, Graz 1965, S. 72–75. Weblinks E-Texte in der Bibliotheca Augustana Medieval Sourcebook: The Life of St. Columban, by the Monk Jonas, (7th Century) Missionare in Franken: Willibrord, Bonifatius, Burkard, Lullus, Megingaud, … Columban und Gallus Einzelnachweise Heiliger (6. Jahrhundert) Heiliger (7. Jahrhundert) Irischer Heiliger Person des evangelischen Namenkalenders Langobardenreich (Italien) Christlicher Missionar Iroschottische Kirche Ire Geboren im 6. Jahrhundert Gestorben 615 Mann
973
https://de.wikipedia.org/wiki/C.%20S.%20Lewis
C. S. Lewis
C. S. Lewis (Clive Staples Lewis, privat auch Jack genannt; * 29. November 1898 in Belfast; † 22. November 1963 in Oxford) war ein irischer Schriftsteller und Literaturwissenschaftler. Er lehrte am Magdalen College der University of Oxford und hatte den Lehrstuhl für Englische Literatur des Mittelalters und der Renaissance an der University of Cambridge inne. Vor allem im angloamerikanischen Raum ist er bekannt für seine inzwischen auch verfilmte Kinderbuchserie Die Chroniken von Narnia. Er ist einer der einflussreichsten christlichen Apologeten der Neuzeit. Leben Kindheit und Jugend Clive Staples („Jack“) Lewis wurde 1898 im nordirischen Belfast geboren und wuchs dort zusammen mit seinem drei Jahre älteren Bruder Warren („Warnie“) auf. Sein Vater Albert James Lewis hatte als erster seiner Familie einen akademischen Beruf ergriffen, er war Anwalt. Seine Vorfahren stammten aus Wales und waren in der Landwirtschaft tätig. Die Mutter Florence Augusta Hamilton Lewis („Flora“) war Pfarrerstochter und hatte an der Queens-Universität Mathematik und Logik studiert. Die Eltern waren sehr belesen und besaßen eine große Hausbibliothek, die den jungen Jack faszinierte und ihm einen Zugang zur Literatur ermöglichte. Ein tiefer und traumatischer Einschnitt in Jacks Leben war die Krebserkrankung seiner Mutter. Nach anfänglicher Besserung verschlechterte sich ihr Zustand. Sie starb im August 1908, als Jack neun Jahre alt war. Im gleichen Jahr starben auch ein Großvater und ein Onkel. Sein Vater schickte ihn darauf in britische Internate: Wynyard School in Watford (September 1908 – Juni 1910), Campbell College in Belfast (September – Dezember 1910), Cherbourg School in Malvern (Januar 1911 – Juni 1913) und Malvern College (September 1913 – Juni 1914). Von 1914 bis 1917 genoss er Privatunterricht bei William Thompson Kirkpatrick, von dessen Klarheit im Denken Lewis sehr profitierte. Erster Weltkrieg Wegen des Ersten Weltkriegs musste Lewis sein Studium am University College in Oxford, das er im April 1917 angefangen hatte, abbrechen und Soldat der britischen Armee werden. In Oxford absolvierte er seine Offiziersausbildung und wurde zum Offizier in das dritte Bataillon der Somerset Light Infantry befördert. An seinem 19. Geburtstag (29. November 1917) kam er an die Front nach Frankreich. Am 15. April 1918 wurde Lewis in Mont-Bernanchon bei Lillers durch Eigenbeschuss (von einer fehlgeleiteten englischen Granate) verwundet und zur Genesung zurück nach England geschickt. Universitätslaufbahn Im Jahre 1919 nahm er seine Studien am University College in Oxford wieder auf. Er legte 1920 die erste öffentliche Universitätsprüfung mit Auszeichnung in Griechisch und Latein, 1922 die Abschlussprüfung in Philosophie und antiker Geschichte und 1923 die erste öffentliche Universitätsprüfung in Englisch ab. Bis Mai 1925 war Lewis Philosophiedozent am University College und erhielt eine Fellowship für englische Sprache am Magdalen College in Oxford, an dem er auch J. R. R. Tolkien kennenlernte. Seit seinem 16. Lebensjahr war Lewis ein überzeugter Atheist gewesen, hatte sich dann aber während seines Studiums der pantheistischen Philosophie des Englischen Hegelianismus zugewandt. 1929 akzeptierte er jedoch einen personalen Gott und den Gedanken der Schöpfung: Er wurde also Theist. Nach einer langen nächtlichen Diskussion mit Tolkien und Hugo Dyson im September 1931 bekehrte er sich schließlich zum Christentum. Zum Leidwesen des überzeugten Katholiken Tolkien blieb er allerdings in der anglikanischen Kirche, zu der auch seine Vorfahren gehört hatten. Er vertrat allerdings (bis auf seine Ablehnung des päpstlichen Primates) überwiegend auch für Katholiken akzeptable Ansichten. Ab dem Herbstsemester 1933 bis 1947 traf sich Lewis mit seinem Freundeskreis, den „Inklings“, zu dem auch J. R. R. Tolkien, sein Bruder Warnie, Owen Barfield, Nevill Coghill, Hugo Dyson, Charles Williams und andere gehörten. In den nächsten Jahren wurde Lewis durch seine Vorlesungen, Veröffentlichungen in christlichen Zeitschriften und durch seine Radioansprachen, die von der BBC ausgestrahlt wurden, bekannt. Im Jahr 1948 wurde er zum Mitglied der Royal Society of Literature gewählt und erhielt in den nächsten Jahren drei Ehrendoktorwürden für Theologie und Literatur. Ab 1954 hatte er den Lehrstuhl für Literatur des Mittelalters und der Renaissance in Cambridge inne. 1958 wurde er Ehrenmitglied des University College Oxfords. Heirat, späte Jahre Am 23. April 1956 heiratete Lewis die amerikanische Schriftstellerin Helen Joy Davidman standesamtlich in Oxford, um sie und ihre beiden Söhne vor einer Ausweisung aus England zu bewahren. Erst als er von ihrer Krebserkrankung erfuhr, begann er, sie bewusst zu lieben. Am 21. März 1957 wurde an ihrem Bett im Wingfield Krankenhaus eine kirchliche Trauung nach anglikanischem Ritus durch den Geistlichen Peter Bide durchgeführt, obwohl Joy Davidman geschieden war. In den nächsten Jahren besserte sich ihre Erkrankung zunächst. Im Juli 1958 fuhr Lewis mit seiner Frau 10 Tage nach Irland in Urlaub, worauf er zehn Vorträge über The Four Loves in London hielt. Joy starb am 13. Juli 1960 im Alter von 45 Jahren, was Lewis in eine tiefe Sinn-, Glaubens- und Lebenskrise stürzte. 1961 verarbeitete er diese Krise auch literarisch in A Grief Observed (deutsch: Über die menschliche Trauer), die er zuerst unter dem Pseudonym N. W. Clerk veröffentlichte. Tod C. S. Lewis starb an den Folgen eines Nierenversagens eine Woche vor seinem 65. Geburtstag am 22. November 1963. In der Presse wurde sein Tod kaum beachtet, weil knapp eine Stunde später das Attentat auf John F. Kennedy stattgefunden hatte und zudem Aldous Huxley am selben Tag starb. Das Grab befindet sich im Garten der Holy Trinity Church in Headington Quarry in Oxford. Lewis’ Bruder Warren starb am 9. April 1973. Ihre Namen stehen auf einem gemeinsamen Stein mit der Inschrift, die Warren ausgewählt hatte: Men must endure their going hence („Dulden muss der Mensch sein Scheiden aus der Welt“). Werk C. S. Lewis verfasste neben seinen literaturkritischen Werken bekannte christliche apologetische Schriften sowie die ebenfalls christliche Symbolik verwendende Kinderbuchserie über das Land Narnia (Genre Fantasy) und die Perelandra-Trilogie (Genre Science-Fiction und Fantasy). Lewis war Mittelpunkt des christlich geprägten Literaturkreises der Inklings und lange Zeit eng mit J. R. R. Tolkien befreundet. Die beiden Autoren beeinflussten sich gegenseitig wesentlich. Später jedoch kühlte diese Freundschaft wegen Tolkiens Kritik an den „Narnia-Chroniken“ ab, in einigen späten Briefen Tolkiens finden sich ausgesprochen negative persönliche Angriffe auf Lewis. Ein weiterer enger Freund von Lewis war der britische Schriftsteller Charles Williams (1886–1945), der theologische Bücher, Romane, Gedichte und literaturwissenschaftliche Texte verfasste. Er bezeichnete den schottischen Pfarrer und Schriftsteller George MacDonald (1824–1905) vielfach als sein Vorbild und als seinen „Meister“. Im Buch Die große Scheidung (engl. The Great Divorce) ließ er MacDonald sogar als Charakter auftreten. In seinem Erzählwerk beleuchtete Lewis Fragen christlicher Ethik und Glaubenslehre. Sein Roman Du selbst bist die Antwort (englischer Originaltitel: Till We Have Faces: A Myth Retold) ist eine Version von Amor und Psyche aus der Sicht von Psyches Schwester und gilt einigen Literaturkritikern als sein bestes Werk. Im Februar 1943 hielt Lewis an der Universität von Durham die Riddell Memorial Lectures, eine dreiteilige Vorlesungsreihe, die später als The Abolition of Man (dt. Die Abschaffung des Menschen) herausgegeben wurde und sein wohl bekanntestes fachliterarisches Werk darstellt. Er kritisierte das angeblich oberflächliche Schulmaterial, das die Schüler zu einer Weltanschauung ohne jegliche objektive Werte führen würde. Die gesammelten Vorträge von Lewis, die die BBC ausstrahlte, wurden unter dem Titel Mere Christianity (dt. Christentum schlechthin bzw. Pardon, ich bin Christ) veröffentlicht. Lewis verfasste zahlreiche Schriften zu theologischen Themen, weil er den Eindruck gewonnen hatte, dass die Berufstheologen die christliche Lehre nicht entschlossen darlegten, sondern voller „Wenn und Aber“. Lewis hielt es für wichtig, die Existenz einer Hölle konkret ins Auge zu fassen. In Über den Schmerz schrieb er: Rezeption Lewis war bereits zu Lebzeiten durch seine Bücher und durch seine populären Radioansprachen eine bekannte Persönlichkeit in Großbritannien. Nach seinem Tod 1963 geriet er vorerst eher etwas in Vergessenheit, weil die junge Generation den Wandel und somit die Distanz zur Kultur der Eltern suchte. Lewis verkörperte für sie die Werte und Haltungen der Vergangenheit, zudem war er bei Gelehrten in Oxford wegen seiner populären Werke nicht sonderlich angesehen. Er hatte vorerst nur wenige Fürsprecher wie die amerikanischen Episkopalisten Chad Walsh und Walter Hooper, der kurz vor Lewis’ Tod sein Privatsekretär geworden war. Ehrungen und Auszeichnungen Seit 1955 war er Mitglied (Fellow) der British Academy. 1956 erhielt Lewis die Carnegie Medaille in Anerkennung des letzten Buches der Narnia-Chroniken The Last Battle (dt. Der letzte Kampf). Anfang der 1970er Jahre erwarb der britische Verlag William Collins & Sons die Rechte an Lewis’ Werken und verbreitete sie. Ihm kam dabei zugute, dass die Tolkien-Welle in den USA um 1970 ihn und seine Narnia-Kinderbücher erneut populär machte. Vor allem in den USA entstanden literarische Gesellschaften, die das Vermächtnis von Lewis pflegten. Vorreiter war 1969 die New York C.S. Lewis Society, weitere folgten später weltweit. 1974 wurde am Wheaton College bei Chicago das Marion E. Wade Center zur Erforschung des Lebens und Werks von Lewis gegründet. Ab 1974 erschienen auch fundiertere Biografien und seit 2000 gab Walter Hooper zudem die umfangreiche Korrespondenz (3.500 Seiten) von Lewis heraus. 1993 wurde die Freundschaft und Liebe zwischen C. S. Lewis und Joy Davidman in Richard Attenboroughs Film Shadowlands mit Anthony Hopkins und Debra Winger verfilmt. 2001 wurde der Asteroid (7644) Cslewis nach Lewis benannt. 2017 wurde er postum in die Science Fiction Hall of Fame aufgenommen. Werke Literaturwissenschaft The Allegory of Love. A Study in Medieval Tradition. 1936 mit E. M. W. Tillyard: The Personal Heresy. A Controversy. 1939 A Preface to „Paradise Lost“. 1942 mit Charles Williams: Arthurian Torso. 1948 English Literature in the Sixteenth Century, Excluding Drama. 1954 Studies in Words. 1960 An Experiment in Criticism. 1961 Über das Lesen von Büchern. Literaturkritik ganz anders. Herder, Freiburg/Basel/Wien 1966 The Discarded Image. An Introduction to Medieval and Renaissance Literature. 1964 Studies in Medieval and Renaissance Literature. Herausgegeben von Walter Hooper. 1966 Spenser’s Images of Life. Herausgegeben von Alastair Fowler. 1967 Selected Literary Essays. Herausgegeben von Walter Hooper. 1969 Essay Collection. Literature, Philosophy and Short Stories. Herausgegeben von Lesley Walmsley. 2002 Christliche Apologetik The Pilgrim’s Regress. An Allegorical Apology for Christianity, Reason and Romanticism. 1933 Flucht aus Puritanien. Brunnen-Verlag, Basel/Gießen 1983, ISBN 3-7655-2322-4, Neuauflage unter dem Titel: Das Schloss und die Insel. Die gespiegelte Pilgerreise Brunnen Verlag Gießen 2010, ISBN 978-3-7655-1459-3 The Problem of Pain. 1940 Über den Schmerz. Hegner, Köln/Olten 1954; Kösel, München 1978, ISBN 3-466-25670-4; Brunnen-Verlag, Basel/Gießen 2005, ISBN 3-7655-3355-6 The Screwtape Letters. 1942 Dämonen im Angriff. 31 Briefe. Buchhandlung der Evangelischen Gesellschaft, St. Gallen 1944; Dienstanweisung für einen Unterteufel. Herder, Freiburg 1958; ebd. 1996, ISBN 3-451-04096-4, ebd. 2022, ISBN 978-3-451-03307-0 The Abolition of Man. 1943 Die Abschaffung des Menschen. Johannes-Verlag, Einsiedeln 1983, ISBN 3-265-10204-1; Die Abschaffung des Menschen. Johannes-Verlag, Einsiedeln 2020, ISBN 978-3-89411-157-1 (Hrsg.) George MacDonald. An Anthology. 1946 Die Weisheit meines Meisters. Anthologie. Johannes-Verlag, Einsiedeln 1986, ISBN 3-265-10313-7 Miracles. A Preliminary Study. 1947 Wunder. Eine vorbereitende Untersuchung. Hegner, Köln/Olten 1952; Wunder. Möglich – wahrscheinlich – undenkbar? Brunnen-Verlag, Basel/Gießen 1980, ISBN 3-7655-2233-3 Mere Christianity. 1952 Christentum schlechthin. Hegner, Köln/Olten 1956; Pardon, ich bin Christ. Meine Argumente für den Glauben. Brunnen-Verlag, Basel/Gießen 1977, ISBN 3-7655-0452-1; ebd. 2001, ISBN 3-7655-3150-2 Reflections on the Psalms. 1958 Das Gespräch mit Gott. Bemerkungen zu den Psalmen. Benziger, Einsiedeln/Zürich/Köln 1959; Gespräch mit Gott. Gedanken zu den Psalmen. ebd. 1999, ISBN 3-545-20152-X The Four Loves. 1960 Vier Arten der Liebe. Benziger, Einsiedeln/Zürich/Köln 1961, 11. revidierte Auflage Fontis, Basel 2021, ISBN 978-3-03848-209-3; Was man Liebe nennt. Zuneigung, Freundschaft, Eros, Agape. Brunnen-Verlag, Basel/Gießen 1979 The World’s Last Night and other Essays. 1960 Christliches und Allzuchristliches. Benziger, Einsiedeln/Zürich/Köln 1963; Die letzte Nacht der Welt. ebd. 1983, ISBN 3-545-20074-4 A Grief Observed. 1961 (ursprünglich unter dem Pseudonym N. W. Clerk veröffentlicht) Über die menschliche Trauer. Benziger, Einsiedeln/Zürich/Köln 1967; Über die Trauer. ebd. 1982, ISBN 3-545-20056-6; Patmos, Düsseldorf 2006, ISBN 3-491-71302-1 Screwtape Proposes a Toast. 1961 Streng dämokratisch zur Hölle und andere Essays. Brunnen-Verlag, Basel/Gießen 1982, ISBN 3-7655-2290-2; Der innere Ring und andere Essays. ebd. 1991, ISBN 3-7655-3433-1; Das Gewicht der Herrlichkeit und andere Essays. ebd. 2005, ISBN 3-7655-3861-2 Letters to Malcolm. Chiefly on Prayer. 1964 Briefe an einen Freund. Hauptsächlich über das Beten. Benziger, Einsiedeln 1966; Du fragst mich wie ich bete. Briefe an Malcolm. Johannes-Verlag, Einsiedeln 1978, ISBN 3-265-10174-6 Christian Reflections. Herausgegeben von Walter Hooper. 1967 Gedankengänge. Essays zu Christentum, Kunst und Kultur. Brunnen-Verlag, Basel/Gießen 1986, ISBN 3-7655-2375-5 God in the Dock. Herausgegeben von Walter Hooper. 1970 Gott auf der Anklagebank. Brunnen-Verlag, Basel/Gießen 1981, ISBN 3-7655-2268-6 Fern-seed and Elephants and other Essays on Christianity. Herausgegeben von Walter Hooper. 1975 Was der Laie blökt. Christliche Diagnosen. Johannes-Verlag, Einsiedeln 1977, ISBN 3-265-10187-8 Norbert Schnabel (Hrsg.): Hoffnung ist kein Märchen. collection | Brendow, Brendow. VERLAG+MEDIEN, Moers 2001, ISBN 3-87067-891-7. (gesammelte Werkausschnitte) Essay Collection. Faith, Christianity and the Church. Herausgegeben von Lesley Walmsley. 2002 Durchblicke. Texte zu Fragen über Glauben, Kultur und Literatur. (ausgewählt, übersetzt und erläutert von Norbert Feinendegen) Fontis-Verlag, Kreuzlingen 2019, ISBN 978-3-03848-168-3. Romane The Space Trilogy (1938–45): Die Perelandra-Trilogie, Weitbrecht, Stuttgart 1992 (ein Komplettband), ISBN 978-3-522-70830-2 Der schweigende Stern. Die komplette Perelandra-Trilogie, Heyne, München 2000 (ein Komplettband), ISBN 978-3-453-14882-6 Perelandra-Trilogie (3 Bde. im Schuber), Brendow, Moers 2005, ISBN 978-3-86506-049-5 Out of the Silent Planet. 1938 Der verstummte Planet. Roman. Amandus-Edition, Wien 1948 Jenseits des schweigenden Sterns. Ein Roman. Hegner, Köln/Olten 1957 Jenseits des schweigenden Sterns. Ein klassischer Science-fiction-Roman. Heyne, München 1976, ISBN 3-453-30389-X Perelandra. 1943 (auch als Voyage to Venus erschienen) Perelandra. Ein Roman. Hegner, Köln/Olten 1957 Perelandra. Ein klassischer Science-fiction-Roman. Heyne, München 1976, ISBN 3-453-30401-2 That Hideous Strength. 1945 Die böse Macht. Ein Roman. Hegner, Köln/Olten 1954 Die böse Macht. Ein klassischer Science-fiction-Roman. Heyne, München 1977, ISBN 3-453-30390-3 The Great Divorce. 1945 Die große Scheidung oder Zwischen Himmel und Hölle. Hegner, Köln/Olten 1955; Johannes-Verlag, Einsiedeln/Trier 1989, ISBN 3-89411-009-0 Till We Have Faces. A Myth Retold. 1956 Du selbst bist die Antwort. Roman. O. Müller, Salzburg 1958; Lüdenscheid, Claren 1981, ISBN 3-922549-03-9; Brendow, Moers 2007, ISBN 978-3-86506-192-8 „The Dark Tower“ and Other Stories. Herausgegeben von Walter Hooper. 1977 (Kurzgeschichten und Fragmente) Der dunkle Turm und andere Erzählungen. Michael Claren, Lüdenscheid 1984, ISBN 978-3-922549-13-0 Boxen. The Imaginary World of the Young C. S. Lewis. Herausgegeben von Walter Hooper. 1985 mit W. H. Lewis: Boxen. Childhood Chronicles Before Narnia. 2008 The Chronicles of Narnia Die Chroniken von Narnia (Gesamtausg. in Kassette), Aus dem Engl. von Wolfgang Hohlbein und Christian Rendel, Ueberreuter, München 2010, ISBN 978-3-8000-5576-0 Die Chroniken von Narnia (in einem Band). Mit handkolorierten Ill. von Pauline Baynes, aus dem Engl. von Ulla Neckenauer, Ueberreuter, Wien 2005, ISBN 978-3-8000-5186-1 The Lion, the Witch and the Wardrobe. 1950 Die Abenteuer im Wandschrank oder: Der Löwe und die Hexe. Herder, Freiburg 1956; Der König von Narnia. Betz, München 1977, ISBN 3-7641-0123-7 Der König von Narnia. Ueberreuter, Wien 2005, ISBN 978-3-8000-5168-7 Prince Caspian. 1951 Die unverhoffte Wiederkehr oder Prinz Kaspian. Herder, Freiburg 1959; Wiedersehen in Narnia. Betz, München 1977, ISBN 3-7641-0124-5 Prinz Kaspian von Narnia. Ueberreuter, Wien 2007, ISBN 978-3-8000-5236-3 The Voyage of the „Dawn Treader“. 1952 Ein Schiff aus Narnia. Betz, Wien/München 1980, ISBN 3-7641-0174-1 Die Reise auf der Morgenröte. Ueberreuter, Wien 2007, ISBN 978-3-8000-5349-0 The Silver Chair. 1953 Die Tür nach Narnia. Betz, Wien/München 1981, ISBN 3-7641-0234-9 Der silberne Sessel. Ueberreuter, Wien 2008, ISBN 978-3-8000-5381-0 The Horse and His Boy. 1954 Der Ritt nach Narnia oder Das Pferd und sein Junge. Herder, Freiburg 1958; Der Ritt nach Narnia. Ein phantastisches Abenteuer. Betz, Wien/München 1982, ISBN 3-219-10247-6 Der Ritt nach Narnia. Ueberreuter, Wien 2007, ISBN 978-3-8000-5265-3 The Magician’s Nephew. 1955 Die geheimnisvolle Tür oder: Die Gründung von Narnia. Herder, Freiburg 1957 Das Wunder von Narnia. Ueberreuter, Wien 2006, ISBN 978-3-8000-5264-6 The Last Battle. 1956 Die Tür auf der Wiese. Eine Geschichte aus dem Wunderlande Narnia. Aschendorff, Münster 1974, ISBN 3-402-06507-X; Der Kampf um Narnia. Betz, Wien/München/Heidelberg 1982, ISBN 3-219-10252-2; Der letzte Kampf. Ueberreuter, Wien 2008, ISBN 978-3-8000-5380-3 Lyrik Spirits in Bondage. A Cycle of Lyrics. 1919 (unter dem Pseudonym Clive Hamilton veröffentlicht) Dymer. 1926 (unter dem Pseudonym Clive Hamilton veröffentlicht) Poems. Herausgegeben von Walter Hooper. 1964 Narrative Poems. Herausgegeben von Walter Hooper. 1969 Autobiografie / Briefe / Tagebücher Surprised by Joy. The Shape of My Early Life. 1955 Überrascht von Freude. Biographie der frühen Jahre. Brockhaus, Wuppertal 1968; ebd. 1982, ISBN 3-417-12275-9 Letters of C. S. Lewis. Herausgegeben von Warren H. Lewis. 1966 Letters to an American Lady. Herausgegeben von Clyde S. Kilby. 1967 They Stand Together. The Letters of C. S. Lewis to Arthur Greeves. Herausgegeben von Walter Hooper. 1979 Letters to Children. Herausgegeben von Lyle W. Dorsett & Marjorie Lamp Mead. 1985 Briefe aus Narnia. C. S. Lewis schreibt an Kinder. Brendow, Moers 1996, ISBN 3-87067-659-0 All My Road Before Me. The Diary of C. S. Lewis 1922–1927. Herausgegeben von W. Hooper. 1991 The Collected Letters of C. S. Lewis. Herausgegeben von Walter Hooper Band 1. 2000 Band 2. 2004 Band 3. 2006 C. S. Lewis. A Life Tyndale House Publishers. 2013 C. S. Lewis. Die Biografie. Brunnen Verlag, Basel 2014, ISBN 978-3-7655-1806-5 Zitate Literatur Monographien Melanie Bender: Auf den Spuren von Narnia. Eine religiöse Weltgeschichte. Schöningh, Paderborn 2010, ISBN 978-3-506-77098-1. Humphrey Carpenter: The Inklings: C.S. Lewis, J.R.R. Tolkien, Charles Williams and their friends. George Allen & Unwin, London 1978. ISBN 0-00-774869-8. Michael Coren: The Man Who Created Narnia. The Story About C. S. Lewis. Grand Rapids, Mich. : Eerdmans, 1996, ISBN 0-8028-3822-7. C. S. Lewis – der Mann, der Narnia schuf. Eine Biographie. Brendow, Moers 2005, ISBN 3-86506-059-5. Colin Duriez: Tolkien und C. S. Lewis. Das Geschenk der Freundschaft. Brendow, Moers 2003. ISBN 3-86506-058-7. Norbert Feinendegen: Apostel der Skeptiker. C. S. Lewis als christlicher Denker der Moderne. Text & Dialog, Dresden 2015. ISBN 978-3-943897-22-7. Roger Lancelyn Green & Walter Hooper: C. S. Lewis. A Biography. Revidierte Ausgabe. Harcourt Brace & Company, San Diego 1994, ISBN 0-15-623205-7. Walter Hooper: C. S. Lewis. A Companion and Guide. HarperCollins, London 1996, ISBN 0-00-628046-3. Gisbert Kranz: Studien zu C. S. Lewis. Verlag Michael Claren, Lüdenscheid 1983, ISBN 3-922549-09-8. Alister McGrath: The intellectual world of C. S. Lewis, Chichester [u. a.] : Wiley-Blackwell, 2014, ISBN 978-0-470-67280-8. Alister McGrath: C. S. Lewis. A Life. Tyndale House Publishers, 2013. Deutsch: C.S. Lewis. Die Biografie. Prophetischer Denker. Exzentrisches Genie. Brunnen, Basel 2014, ISBN 978-3-7655-1806-5. Markus Mühling: Gott und die Welt in Narnia. Eine theologische Orientierung zu C. S. Lewis’ „Der König von Narnia“. Vandenhoeck & Ruprecht, Göttingen 2005, ISBN 3-525-60422-X. Christian Rendel: Von Belfast nach Narnia: Das Leben von C. S. Lewis. Brunnen Verlag, Basel/Gießen 2006, ISBN 3-7655-1375-X. Sheldon Vanauken: A severe Mercy. 1977. Eine harte Gnade. Die Geschichte einer großen Liebe. Brunnen-Verlag, Gießen/Basel 1980, ISBN 3-7655-2236-8; 8. Auflage ebd. 1995, ISBN 3-7655-3945-7. Sonja Weichselmann: Einer trage des andern Last – Der Topos der Stellvertretung bei C. S. Lewis. Lit-Verlag 2011, ISBN 978-3-643-11152-4. Jahrbücher der Inklings-Gesellschaft. Artikel und Aufsätze Gisbert Kranz: Die stillbare Sehnsucht. Der Dichter und Essayist C. S. Lewis. In: Stimmen der Zeit, Jg. 85 (1960), Bd. 166, S. 286–301. Lexika Hans Joachim Alpers, Werner Fuchs, Ronald M. Hahn: Reclams Science-fiction-Führer. Reclam, Stuttgart 1982, ISBN 3-15-010312-6, S. 264 f. Hans Joachim Alpers, Werner Fuchs, Ronald M. Hahn, Wolfgang Jeschke: Lexikon der Science Fiction Literatur. Heyne, München 1991, ISBN 3-453-02453-2, S. 666 f. Henry Boylan: A Dictionary of Irish Biography. 3. Auflage. Gill and MacMillan, Dublin 1988, ISBN 0-7171-2945-4, S. 223. Don D’Ammassa: Encyclopedia of Science Fiction. Facts On File, New York 2005, ISBN 0-8160-5924-1, S. 231. David Lake: Lewis, C(live) S(taples). In: Noelle Watson, Paul E. Schellinger: Twentieth-Century Science-Fiction Writers. St. James Press, Chicago 1991, ISBN 1-55862-111-3, S. 489–492. David Langford: Lewis, C S. In: John Clute, John Grant (Hg.): The Encyclopedia of Fantasy. Orbit, London 1997, ISBN 1-85723-368-9. George Mann: The Mammoth Encyclopedia of Science Fiction. Robinson, London 2001, ISBN 1-8411-9177-9, S. 196 f. Peter Nicholls, David Langford: Lewis, C S. In: John Clute, Peter Nicholls: The Encyclopedia of Science Fiction. 3. Auflage (Online-Ausgabe), Version vom 7. Juni 2017. John J. Pierce: Lewis, C(live) S(taples). In: James Gunn: The New Encyclopedia of Science Fiction. Viking, New York u. a. 1988, ISBN 0-670-81041-X, S. 274. Donald H. Tuck: The Encyclopedia of Science Fiction and Fantasy through 1968. Advent, Chicago 1974, ISBN 0-911682-20-1, S. 272 f. Weblinks Deutsch C. S. Lewis cs-lewis.de (mit Kurzbiographie nach Jahreszahlen) Artikel von Thomas Gerold über C. S. Lewis auf Quod est dicendum (christliche Online-Zeitschrift) Informationen zu C. S. Lewis auf KinderundJugendmedien.de Englisch C. S. Lewis in der Science Fiction Awards+ Database C. S. Lewis in Fantastic Fiction (englisch) C. S. Lewis in der Fancyclopedia 3 (englisch) C. S. Lewis Foundation (mit Kurzbiographie nach Jahreszahlen) Into the Wardrobe – a C. S. Lewis web site C. S. Lewis Ausführliches Porträt auf der Religions & Ethics-Website der BBC Journal of Inklings Studies Akademische Zeitschrift über die Inklings, herausgegeben in Oxford C.S. Lewis, Author Website über die Inklings Lewisiana.nl C.S. Lewis-Gesellschaften: New York C.S. Lewis Society Oxford University C. S. Lewis Society C.S. Lewis Society of California Einzelnachweise Autor Literaturwissenschaftler Hochschullehrer (University of Oxford) Hochschullehrer (University of Cambridge) Literatur (20. Jahrhundert) Literatur (Englisch) Literatur (Vereinigtes Königreich) Christliche Literatur Fantasyliteratur Science-Fiction-Literatur Kinder- und Jugendliteratur Sachliteratur Narnia Roman, Epik Kurzgeschichte Erzählung Essay Lyrik Autobiografie Science Fiction and Fantasy Hall of Fame Ehrendoktor der Universität Laval Mitglied der British Academy Person als Namensgeber für einen Asteroiden Person (Belfast) Brite Nordire Geboren 1898 Gestorben 1963 Mann Christliche Philosophie Religionsphilosoph Philosoph
976
https://de.wikipedia.org/wiki/Chemotherapie
Chemotherapie
Die Chemotherapie ist eine medikamentöse Therapie von Krebserkrankungen (antineoplastische Chemotherapie) oder Infektionen (antiinfektiöse bzw. antimikrobielle Chemotherapie). Umgangssprachlich auch als Chemo bezeichnet ist meistens die zytostatische Behandlung von Krebs gemeint. Eine Chemotherapie kann unter kurativen, adjuvanten oder palliativen Gesichtspunkten durchgeführt werden. Die Chemotherapie verwendet Stoffe, die ihre schädigende Wirkung möglichst gezielt auf bestimmte krankheitsverursachende Zellen beziehungsweise Mikroorganismen ausüben und diese abtöten oder in ihrem Wachstum hemmen. In der Krebstherapie heißen diese Substanzen Zytostatika; in der Behandlung von Infektionskrankheiten Antibiotika, Chemotherapeutika, Virustatika, Antimykotika und Anthelminthika. Bei der Behandlung bösartiger Tumorerkrankungen nutzen die meisten dieser Substanzen die schnelle Teilungsfähigkeit der Tumorzellen, da diese empfindlicher als gesunde Zellen auf Störungen der Zellteilung reagieren; auf gesunde Zellen mit ähnlich guter Teilungsfähigkeit üben sie allerdings eine ähnliche Wirkung aus, wodurch sich Nebenwirkungen wie Haarausfall oder Durchfall einstellen können. Bei der Behandlung von bakteriellen Infektionskrankheiten macht man sich den unterschiedlichen Aufbau von eukaryotischen (Mensch) und prokaryotischen Lebewesen (Bakterien) zunutze. Bei der Krebstherapie mit monoklonalen Antikörpern und Zytokinen, wie beispielsweise Interleukinen und Interferonen, handelt es sich nicht um eine Chemotherapie, sondern oftmals um eine Krebsimmuntherapie. Geschichte Der im 18. Jahrhundert erstmals aufgetauchte Begriff wurde 1906 von Paul Ehrlich neu definiert und geprägt. Er beschrieb damit die Behandlung von Infektionskrankheiten mit chemischen Substanzen, die direkt gegen den Krankheitserreger wirken. Als erstes wirksames Chemotherapeutikum hatte er 1904 Trypanrot erkannt, mit dem er an der Schlafkrankheit erkrankte Mäuse heilte. Ehrlich begann am 31. August 1909 in Frankfurt am Main weitere Versuche, indem er Erreger der Syphilis in Ratten injizierte und anschließend mit Hilfe chemotherapeutischer Verfahren behandelte. Diese Versuche hatten eine so überzeugende Wirkung, dass man hierin die neue „Waffe“ der Medizin gegen Infektionskrankheiten sah. Ehrlich wurde danach als „Schöpfer der Chemotherapie“ bezeichnet. Die verwendeten Medikamente werden entweder künstlich hergestellt oder sind Abkömmlinge von in der Natur vorkommenden Stoffen. Zwischen 1946 und 1950 wurden bedeutende Fortschritte in der Chemotherapie der Tuberkulose durch die Einführung der Thiosemicarbazone und des Isonicotinsäurehydrazids durch Gerhard Domagk und andere erzielt. Sensitivität Das Ansprechen einer Chemotherapie hängt von verschiedenen Faktoren ab. Erstens wird ein Chemotherapeutikum unterschiedlich schnell im Menschen abgebaut, und je kürzer das Medikament im Körper wirksam beziehungsweise präsent ist, desto kürzer kann es auch nur wirken. Zweitens ist die Erreichbarkeit der krankheitsverursachenden Zellen oder Mikroorganismen ein wichtiger Faktor. So kann ein Tumor sehr kompakt geformt sein und über wenig Blutversorgung verfügen. Daraus resultiert, dass das Medikament den eigentlichen Wirkort nicht oder nur schlecht erreichen kann. Ein dritter Faktor bestimmt das Ansprechverhalten von Chemotherapeutika. Zum Beispiel können auch bei guter Erreichbarkeit des Tumors durch das Zytostatikum die Krebszellen resistent gegen das Medikament sein. Diese Eigenschaften werden als Chemosensitivität und Chemoresistenz bezeichnet. Es ist möglich, die Wirksamkeit von Chemotherapeutika auf Bakterien im Rahmen eines Antibiogramms zu testen. Ebenso kann bei Krebszellen die Chemosensitivität in vitro getestet werden (Chemosensitivitätstest). Prinzipien der antineoplastischen Chemotherapie Wegen der höheren Bioverfügbarkeit wird in der Regel eine intravenöse Verabreichung gewählt. Einige Therapien sind aber auch oral möglich. Eine bestimmte Zytostatikadosis kann immer nur einen bestimmten Anteil, z. B. 90 % der Zielzellen abtöten. Mit fortschreitender Behandlung bleibt dieser Anteil gleich, d. h., zwei Dosen erreichen 99 % der Zellen, drei Dosen 99,9 % usw. Dieser Mechanismus erklärt, warum eine Chemotherapie im Laufe der Behandlung nicht vermindert werden darf, auch wenn der sichtbare Tumor bereits verschwunden ist (Log cell kill, Howard E. Skipper 1964.) Im Gegenteil: Es muss damit gerechnet werden, dass durch eine schwache Behandlung gerade die widerstandsfähigsten Tumorzellklone selektiert werden, d. h. übrig bleiben. Moderne Protokolle versuchen daher, „so früh und so hart wie möglich zuzuschlagen“. Die Chemotherapie wird in schneller Abfolge appliziert, und fast immer werden zwei oder mehr Zytostatika kombiniert, um die Wirksamkeit zu erhöhen. Mangelnde Therapieerfolge bei einigen Tumorarten und neuere theoretische und tierexperimentelle Daten lassen jedoch Zweifel an der generellen Richtigkeit dieses Konzeptes aufkommen. Adjuvant nennt man eine Chemotherapie, die zur Erfolgssicherung nach einer vollständigen operativen Beseitigung des Tumors dienen soll. Neoadjuvant ist eine Chemotherapie vor der Operation. Sehr häufig wird die adjuvante, neoadjuvante oder alleinige Chemotherapie mit Strahlentherapie kombiniert (Radiochemotherapie). Bei der Behandlung von alten Menschen muss berücksichtigt werden, dass diese oft eine verminderte Leber- und Nierenfunktion und eine verminderte Knochenmarksreserve haben und ihre Empfindlichkeit gegenüber den Substanzen daher erhöht ist. Wenn die Dosis nach dem Körpergewicht oder der Körperoberfläche abgeschätzt wird, ist der erhöhte Anteil an Körperfett im Alter einzurechnen. Resistenzen der Tumorzellen gegen einzelne oder mehrere der eingesetzten Zytostatika sind nicht selten. Außerdem sollte man während einer Chemotherapie nicht rauchen, denn bei einigen Standard-Chemotherapeutika wurde nachgewiesen, dass ihre Wirkung durch Nikotin abgeschwächt wird. Resistenzen können viele Ursachen haben, beispielsweise verminderten Transport der Substanz in das Zellinnere oder erhöhten Transport aus der Zelle (Multiple Drug Resistance). Auch kann die Zelle inaktivierende Enzyme besitzen. Gute Durchblutung des Tumors (Angiogenese) führt wegen hoher Nährstoffversorgung zu schnellem Wachstum, aber auch zu besserem Ansprechen auf die Chemotherapie, da der Anteil der sich teilenden Zellen höher ist. Viele der durch die Zytostatika in den Zellen erzeugten Schäden setzen voraus, dass vorhandene Kontrollsysteme (beispielsweise p53) in den Tumorzellen noch aktiv sind und diese Fehler bemerken. Reparaturmechanismen (beispielsweise Exzisionsreparatur) dürfen hingegen nicht aktiviert sein, stattdessen muss ein kontrolliertes Absterben der Zelle eingeleitet werden. Resistenzen müssen frühzeitig erkannt werden, um Änderungen des Therapieregimes rechtzeitig wirksam werden zu lassen, sonst häufen sich Mutationen im Tumor an, die ihn schwerer kontrollierbar machen. Auch das Auffinden der für den speziellen Tumor optimalen Kombinationstherapie durch Labortests wird diskutiert und wurde erfolgreich eingesetzt. Prinzipiell können bei der Chemotherapie zwei unterschiedliche Wege zur Bekämpfung der Krebszellen eingeschlagen werden. Mit Zytotoxinen soll die Apoptose, das heißt der programmierte Zelltod der malignen Zellen, herbeigeführt werden. Dies ist der in den meisten Fällen angestrebte Weg, den Tumor zu eradizieren, das heißt vollständig aus dem Körper des Erkrankten zu beseitigen. Zytostatika (griechisch cyto=Zelle und statik=anhalten) sind dagegen definitionsgemäß Substanzen, die Krebszellen nicht abtöten, sondern deren Zellwachstum und die Zellteilung (Proliferation) unterbinden. Konventionelle klassische Chemotherapeutika wirken im Wesentlichen zytotoxisch, während zielgerichtete neuere Therapien aus dem Bereich der Krebsimmuntherapie, wie beispielsweise monoklonale Antikörper, zytostatische Eigenschaften haben. In der Literatur wird allerdings in vielen Fällen nicht zwischen Zytostatika und Zytotoxinen unterschieden. Die meisten derzeit angewandten Chemotherapeutika wirken zudem sowohl zytotoxisch als auch zytostatisch. Anwendungsgebiete Eine örtliche Behandlung reicht bei soliden Tumoren (d. h. fest, im Gegensatz z. B. zu Leukämien) nicht mehr aus, wenn bereits Metastasen nachweisbar sind. Leukämien und maligne Lymphome breiten sich oft von Anfang an über mehrere Körpergebiete aus. Dann ist in jedem Fall eine systemische Abgabe von Zytostatika notwendig. Eine adjuvante (= ergänzende, helfende) Zytostatikagabe wird vor oder nach der chirurgischen Entfernung eines Tumors auch ohne Nachweis von Metastasen gegeben, wenn das Rückfallrisiko erfahrungsgemäß hoch ist. Gegenanzeigen Kontraindikationen für eine antineoplastische Chemotherapie können vorliegen, wenn der Tumor durch eine Operation oder Bestrahlung komplett und mit großer Wahrscheinlichkeit kurativ entfernt werden kann, die Abwägung ergibt, dass die zu erwartenden Nebenwirkungen der Behandlung schwerer sind als der zu erwartende Verlauf des Tumorleidens ohne Chemotherapie, der Allgemeinzustand des Patienten oder die Funktion wesentlicher Organe zu weit eingeschränkt sind. Beispiele für Krebserkrankungen, bei denen eine Chemotherapie zu einer dauerhaften Heilung führen kann: Brustkrebs ohne Fernmetastasen Chorionkarzinom der Frau Hodentumore akute Leukämien malignes Lymphom Morbus Hodgkin Tumoren bei Kindern, auch mit Metastasen. Wahl des Chemotherapeutikums Die Wahl des Chemotherapeutikums richtet sich nicht nur nach dem Organ der Krebserkrankung (z. B. Brust-, Lungen-, Darmkrebs), sondern auch nach individuellen Kriterien, die bei verschiedenen Patienten mit „derselben“ Krebserkrankung unterschiedlich sein können. Solche Kriterien können beispielsweise sein: der Gewebstyp der Tumorzellen (z. B. kleinzellig, Plattenepithel, Drüsenepithel etc.) Rezeptoren, die die Tumorzellen tragen (bspw. HER2/neu) bestimmte Mutationen im Erbgut der Tumorzellen (bspw. KRAS, siehe auch Onkogene) die anfängliche Wirksamkeit der begonnenen Therapie andere Erkrankungen des Patienten die allgemeine Verfassung des Patienten Trotz dieser individuellen Gesichtspunkte können für maligne Erkrankungen typische Chemotherapeutika genannt werden, die bei diesen regelhaft zum Einsatz kommen. Therapieschemata Heutzutage werden bei der Chemotherapie fast immer (abgesehen von möglicherweise nebenwirkungsärmeren Monotherapien bei der palliativen zytostatischen Chemotherapie) mehrere Wirkstoffe kombiniert. Dazu wurden Schemata entwickelt, in denen festgelegt ist, welche Wirkstoffe in welcher Abfolge und mit welchem Zeitabstand anzuwenden sind, um eine optimale Wirkung zu erzielen. Aus den Namen der beteiligten Wirkstoffe wird der Name des Schemas (meist als Akronym) abgeleitet: ABVD BEACOPP CMF (Cyclophosphamid, Methotrexat, 5-Fluoruracil) CHOP COPP CVI (Cyclophosphamid, Vincristin, Prednisolon) ECF (Epirubicin, Cisplatin, 5-Fluoruracil) FLP (5-Fluoruracil, Folinsäure (=Leucovorin), Cisplatin) FOLFIRI ist eine wöchentlich durchzuführende mittelgradig komplexe Chemotherapie mit folgenden Wirkstoffen: Folinsäure Fluorouracil als Bolus und anschließend als 24-Stunden-Infusion Irinotecan (wesentliche Nebenwirkung: cholinerges Syndrom) FOLFOX ist eine 14-täglich durchzuführende mittelgradig komplexe Chemotherapie mit folgenden Wirkstoffen: Folinsäure Fluorouracil als „Bolus“ und anschließend als 48-Stunden-Infusion. Oxaliplatin (wesentliche Nebenwirkung: Kribbelparästhesien; daher ist eine Magnesium- und Calciuminfusion indiziert) 5FUFS (5-Fluoruracil, Folinsäure) MCF (Mitomycin C, Cisplatin, 5-Fluoruracil) MTX (Methotrexat), in geringerer Dosierung auch gegen Autoimmunkrankheiten, z. B. Psoriasis PEB (Cisplatin, Etoposid, Bleomycin) PCV (Procarbazin, Lomustin, Vincristin) VAC beim Ewingsarkom TAC (Docetaxel, Adriamycin, Cyclophosphamid) ist ein dreiwöchentlicher Chemotherapiezyklus als Drei-Stunden-Infusion TEC (Docetaxel, Epirubicin, Cyclophosphamid) XELOX ist ein dreiwöchentlicher Chemotherapiezyklus bestehend aus folgenden Wirkstoffen: Capecitabin (oral, wesentliche Nebenwirkung: Hand-Fuß-Syndrom) Oxaliplatin Nebenwirkungen Die Nebenwirkungen einer Chemotherapie sind abhängig von der Art der Therapie und der individuellen Verträglichkeit. Die einzelnen Nebenwirkungen treten unabhängig voneinander auf und können ganz ausbleiben oder in verschiedener Stärke (von mild bis tödlich) auftreten. Diese Nebenwirkungen sind Übelkeit und Erbrechen, Erschöpfung, Haarausfall, Geschmacksstörungen, Schleimhautentzündungen und Blutbildveränderungen. Sie werden nach den Common Toxicity Criteria eingeteilt. Viele Zytostatika sind selbst karzinogen, etwa Busulfan, Chlorambucil, Cyclophosphamid oder Semustin. Insgesamt ist die Rate an zytostatikainduzierten Leukämien zwar rückläufig, aber bei einigen Tumorarten steigt die Zahl der Erkrankungen immer noch an. Darunter fällt das Multiple Myelom, das Non-Hodgkin-Lymphom, Ösophaguskarzinom, Analkarzinom, Zervixkarzinom und Prostatakarzinom. Während bei den ersten beiden auch nach einem Jahrzehnt nach der Chemotherapie eine therapiebedingte akute myeloische Leukämie (tAML) auftreten kann, ist sie bei den übrigen Karzinomen auf die ersten zehn Jahre nach der Behandlung beschränkt. Bis zu drei Viertel der Tumorpatienten mit einer Chemotherapie erkranken an einer chemotherapieassoziierten Anämie. Ein hohes Risiko besteht vor allem bei Tumorentitäten wie dem Lymphom, multiplem Myelom, Bronchialkarzinom sowie bei gynäkologischen und urogenitalen Tumoren. Häufigkeit und Schweregrad der Anämie sind auch vom Tumorstadium abhängig. Während die nach den Common Toxicity Criteria aufgelisteten Nebenwirkungen meist mit dem Absetzen der Chemotherapie verschwinden, kann es unter Umständen zu einer irreversiblen Herzmuskelschädigung sowie zu einer temporären oder endgültigen Unfruchtbarkeit kommen. Die Gabe von Anthracyclinen führt bei etwa zehn Prozent der Patienten zu einer bleibenden Schädigung der Herzmuskelzellen, welche Herzrhythmusstörungen und/oder eine Herzinsuffizienz (Herzschwäche) auslösen kann. Seit 2007 sind sogenannte Kardioprotektiva zugelassen, welche Herzschäden durch die Gabe der Anthracycline Doxorubicin oder Epirubicin verhindern können. Wegen einer etwaigen durch die Chemotherapie bedingten Unfruchtbarkeit wird vor der Behandlung bei Männern, falls vom Patienten gewünscht, eine Aufbewahrung des Samens (ähnlich wie es bei Samenspendern praktiziert wird) vorgenommen. Durch die fachgerechte Lagerung wird dann die Chance auf eigene Kinder erhalten. Fertilitätserhaltende Maßnahmen bei Frauen sind möglich, tragen jedoch zum Teil noch experimentellen Charakter. Das Netzwerk Fertiprotekt bemüht sich im deutschsprachigen Raum, über Maßnahmen bei Männern und Frauen zu informieren und sie anzubieten. Manche Patienten erleben nach einer Chemotherapie eine meist vorübergehende Beeinträchtigung des Denk-, Merk- und Stressbewältigungsvermögens, die als Post-chemotherapy Cognitive Impairment (PCCI) (auch Chemotherapy-induced Cognitive Dysfunction oder „Chemo Brain“) bezeichnet wird. Die Ursache dieses Phänomens wird derzeit erforscht. Sie kann nach gegenwärtigem Forschungsstand entweder in der psychisch belastenden, traumaähnlichen Situation der Diagnose und Krankheit selbst, in den direkten physischen Auswirkungen der Chemotherapie oder in beiden Faktoren liegen. Zur Vorbeugung einer ausgeprägten Mukositis können mehrere Lokalanästhesien mit Vasokonstriktor im Mund-/Kieferbereich verabreicht werden, wodurch eine Anflutung des Chemotherapeutikums in die Schleimhaut vermindert wird. Zusätzlich kann eine Kältetherapie mittels Lutschen von Eiswürfeln die lokale Vasokonstriktion bei der Strahlentherapie verstärken. Die dadurch erreichte Sauerstoffunterversorgung des Gewebes vermindert die zelluläre Strahlenempfindlichkeit. Neben den allseits bekannten Nebenwirkungen der Chemotherapie wie Haarverlust und Übelkeit kann es bei der Chemotherapie (oder Stammzelltransplantation) auch zu Blutungen kommen. Zu diesen haben Estcourt und Mitarbeiter in den Jahren 2012 und 2015 Cochrane-Übersichtsarbeiten mit randomisierten kontrollierten Studien erstellt, um herauszufinden, welche Nutzung von Thrombozytentransfusionen die wirksamste ist, um Blutungen bei Patienten mit hämatologischen Erkrankungen zu verhindern, wenn sie eine Chemotherapie oder eine Stammzelltransplantation erhalten. Durch ein wenige Tage andauerndes, sogenanntes Kurzzeitfasten (short-term fasting, STF) in den Tagen der Therapie wurde eine Steigerung der Verträglichkeit von Chemotherapien tierexperimentell und in Zellkultur beobachtet. Gemäß zugrundeliegender Hypothese soll Fasten zu einer Stoffwechselreduktion gesunder Körperzellen führen, wogegen Krebszellen ausschließlich auf Wachstum programmiert sind. Sie nehmen daher Chemotherapeutika unvermindert auf – im Gegensatz dazu gelangen weniger Nährstoffe und weniger Toxine bzw. Zytostatika während des Fastens in gesunde Zellen. Kurzzeitfasten könnte eine vielversprechende Strategie zur Verbesserung der Effizienz und Verträglichkeit der Chemotherapie werden. Für aussagekräftige Schlüsse bei Krebspatienten bedarf es aber an noch mehr Daten aus klinischen Prüfungen. Wirksamkeit Die Wirksamkeit einer Chemotherapie hängt sehr stark von der Art des Tumors und seinem Stadium ab. Während es sehr viele Studien zu der Wirkung spezifischer Zytostatika auf entsprechende Tumorarten gibt, existiert bisher lediglich eine einzige Krebsregister-Studie, welche den Nutzen einer alleinigen Chemotherapie bei 22 Krebskrankheiten in Australien und den USA untersucht. Nicht ausgewertet wurden Krebskrankheiten, für die eine Chemotherapie die wichtigste Behandlung darstellt (z. B. Leukämie oder Lymphdrüsenkrebs), aber auch nicht die Krebsarten, bei der die Chemotherapie lediglich unterstützend (adjuvant) genutzt wird. Laut Studie sollen alleine angewandte zytotoxische Chemotherapien bei Erwachsenen zusätzliche 2,3 Prozent (in Australien) bzw. 2,1 Prozent (in den USA) zur jeweiligen Fünfjahresüberlebensrate beitragen. Die Studie bestätigt jedoch auch, dass bei bestimmten Krebsarten wie z. B. Hodenkrebs, Hodgkin-Lymphomen oder Zervixkarzinomen eine adjuvant angewandte Chemotherapie eine um 10 bis 40 Prozent bessere Prognose bringt. Die Studie wurde von australischen Onkologen stark kritisiert. Die Autoren hätten die verschiedenen Krebsarten nicht gewichtet (die Fallgruppe der Krebsarten, bei welchen die Chemotherapie schlecht wirkt und somit oft auch nicht angewendet wird, ist am größten) und es gebe methodische Mängel. Bei Anwendung sauberer Methodik würde aus dem gleichen Datenmaterial die Effektivität auf 6 Prozent über alle Fälle steigen. Außerdem wurden einige Krebsarten, welche hauptsächlich durch Chemotherapie behandelt werden (z. B. Leukämie) und wo diese Therapie sehr effektiv ist, nicht betrachtet. Überdies stammten die Daten aus den 1990er Jahren und seien folglich veraltet. Da die Wirkung einer Chemotherapie von der Art des Tumors abhängt, ist ein solcher Zusammenwurf aller Tumorarten nicht zielführend, denn er sage nichts über den Einzelfall aus. Zudem verwendet die Studie nur Fünfjahresüberlebensraten – bei manchen Krebsarten wie Brustkrebs kann Chemotherapie aber das späte Auftreten eines Rezidivs verhindern. Tatsache ist, dass hochwirksame Zytostatika dazu beigetragen haben, die relative Fünfjahresüberlebensrate bei bestimmten Krebsarten (Stand 2010) signifikant – mit verbesserten Prognosen im zweistelligen Prozentbereich – zu erhöhen. Dies gilt einerseits bei der adjuvanten Anwendung beispielsweise bei Brustkrebs, Hodenkrebs und Lungenkrebs sowie andererseits bei der primären Anwendung der Chemotherapie als Mittel der ersten Wahl, wie beispielsweise bei Hodgkin-Lymphomen und Leukämie. Literatur Marcel H. Bickel: Chemotherapie. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. De Gruyter, Berlin / New York 2005, ISBN 3-11-015714-4, S. 240 f. Weblinks Chemotherapieseite Krebsinformationsdienst des Deutschen Krebsforschungszentrums (DKFZ), Heidelberg. Abgerufen am 23. September 2022. Wirkung der Chemotherapie hängt von der Tageszeit ab. Bild der Wissenschaft, 5. Februar 2005 Einzelnachweise Therapeutisches Verfahren in der Tiermedizin
977
https://de.wikipedia.org/wiki/Cantor-Diagonalisierung
Cantor-Diagonalisierung
Als Cantor-Diagonalisierung werden zwei von Georg Cantor entwickelte Diagonalisierungsbeweisverfahren bezeichnet: Cantors erstes Diagonalargument ist ein mathematisches Beweisverfahren, mit dem man zeigen kann, dass die Menge der rationalen Zahlen abzählbar ist. Cantors zweites Diagonalargument ist ein mathematischer Beweis dafür, dass die Menge der reellen Zahlen (auch das Kontinuum genannt) überabzählbar ist. Dieser Beweis ist auch unter dem Namen Diagonalisierung bekannt. Im Jahr 1874 fand bzw. veröffentlichte Georg Cantor einen Beweis zur Abzählbarkeit der rationalen Zahlen und der algebraischen Zahlen durch Anwendung des „Ersten Cantorschen Diagonalverfahrens“. Gleichzeitig veröffentlichte er einen Beweis zur Überabzählbarkeit der reellen Zahlen inkl. Folgerung der Existenz nicht-algebraischer reeller Zahlen. In den Jahren 1890 und 1891 fand bzw. veröffentlichte er den Beweis, dass die Potenzmenge einer beliebigen Menge mächtiger ist als diese und dass insbesondere die Potenzmenge der natürlichen Zahlen überabzählbar ist. Dieser Beweis wird als „Zweites Cantorsches Diagonalverfahren“ bezeichnet und war Auslöser der Begründung der transfiniten Mengenlehre durch Georg Cantor in den Jahren 1895 bis 1897. Die Überabzählbarkeitsbeweise beweisen auch die Überabzählbarkeit des Kontinuums. Mengenlehre Georg Cantor als Namensgeber pl:Rozumowanie przekątniowe
978
https://de.wikipedia.org/wiki/Comic
Comic
Comic [] bezeichnet die Darstellung eines Vorgangs oder einer Geschichte in einer Folge von Bildern. In der Regel sind die Bilder gezeichnet und werden mit Text kombiniert. Das Medium Comic vereint Aspekte von Literatur und bildender Kunst, wobei der (oder das) Comic eine eigenständige Kunstform und ein entsprechendes Forschungsfeld bildet. Gemeinsamkeiten gibt es auch mit dem Film. Als genre-neutraler, die ganze Kunstgeschichte übergreifender Begriff wird auch „sequenzielle Kunst“ oder im deutschsprachigen Raum „Bildgeschichte“ verwendet, während regionale Ausprägungen des Comics teils mit eigenen Begriffen wie Manga oder Manhwa bezeichnet werden. Comic-typische Merkmale und Techniken, die aber nicht zwangsläufig verwendet sein müssen, sind Sprechblasen und Denkblasen, Panels und Onomatopoesien. Diese finden auch in anderen Medien Verwendung, insbesondere dann, wenn Text und die Abfolge von Bildern kombiniert sind wie in Bilderbuch und illustrierter Geschichte, in Karikaturen oder Cartoons. Die Abgrenzung zu diesen eng verwandten Künsten ist unscharf. Definition In den 1990er Jahren etablierte sich eine Definition von Comic als eigenständiger Kommunikationsform unabhängig von Inhalt, Zielgruppe und Umsetzung. 1993 definierte Scott McCloud Comics als „zu räumlichen Sequenzen angeordnete, bildliche oder andere Zeichen, die Informationen vermitteln und/oder eine ästhetische Wirkung beim Betrachter erzeugen“. Er nimmt damit Will Eisners Definition auf, der Comics als sequenzielle Kunst bezeichnet. Im deutschsprachigen Raum wird das von McCloud definierte Medium auch allgemein als „Bildgeschichte“ bezeichnet und der Comic als dessen moderne Form seit dem 19. Jahrhundert. So spricht Dietrich Grünewald von einem übergeordneten „Prinzip Bildgeschichte“, als dessen moderne Form der Comic mit seinen um 1900 entwickelten Gestaltungsmitteln gilt. Andreas Platthaus nennt den Comic die „avancierteste Form“ der Bildgeschichte. Wie auch bei McCloud wird der Comic bzw. die Bildgeschichte als eigenständiges Medium definiert, das durch Bildfolgen erzählt. Eckart Sackmann definiert den Comic in direktem Bezug auf McCloud als „Erzählung in mindestens zwei stehenden Bildern“. Jedoch ist bei einigen Definitionen offen, ob auch einzelne, narrativ angelegte Bilder, die ein Geschehen darstellen, ohne das Davor und Danach zu zeigen, zum Comic zählen. Auch eine Darstellung, die formal nur aus einem Bild besteht, kann mehrere Sequenzen enthalten – so bei mehreren Sprechblasen oder mehr als einer Handlung in einem Bild, die nicht zeitgleich stattfinden können. Frühere Definitionen des Comics bezogen sich unter anderem auf formale Aspekte wie Fortsetzung als kurze Bilderstreifen oder Erscheinen in Heftform, eine gerahmte Bildreihung und der Gebrauch von Sprechblasen. Daneben wurden inhaltliche Kriterien herangezogen, so ein gleichbleibendes und nicht alterndes Personeninventar oder die Ausrichtung auf eine junge Zielgruppe, oder die Gestaltung in Stil und Technik. Diese Definitionen wie auch das Verständnis von Comics als ausschließliches Massenmedium oder Massenzeichenware wurden spätestens in den 1990er Jahren zugunsten der heutigen Definition verworfen. Illustrationen, Karikaturen oder Cartoons können auch Comics oder Teil eines solchen sein. Die Abgrenzung, insbesondere bei Einzelbildern, bleibt unscharf. Beim Bilderbuch und illustrierten Geschichten dagegen haben, anders als beim Comic, die Bilder nur eine unterstützende Rolle in der Vermittlung des Handlungsgeschehens. Der Übergang ist jedoch auch hier fließend. Etymologie und Begriffsgeschichte Der Begriff Comic ist aus dem amerikanischen Englischen entlehnt, wo er als Kurzform von comic strip schon länger üblich war. Allgemein bedeutet das englische Adjektiv comic „komisch“, „lustig“, „drollig“. Im 18. Jahrhundert wurde es im Ausdruck comic print für Witzzeichnungen benutzt und trat damit erstmals im Bereich des heutigen deutschen Substantivs auf. Im 19. Jahrhundert wurde das Adjektiv als Namensbestandteil für Zeitschriften gebräuchlich, die Bildwitze, Bildergeschichte und Texte beinhalteten. Mit dem 20. Jahrhundert kam der Begriff comic strip für die in Zeitungen erscheinenden, kurzen, komischen oder humorvollen Bildgeschichten auf, die in Streifen (engl. strip) von angeordneten Bildern erzählen. In den folgenden Jahrzehnten dehnte sich die Bedeutung des Wortes auch auf die neu entstandenen nicht komischen Formen des Comics aus und löste sich vollständig von der Bedeutung des Adjektivs comic, sodass es seitdem auch für nicht komische Comics verwendet wird. Nach dem Zweiten Weltkrieg kam der Begriff auch nach Europa und trat in Deutschland zunächst in Konkurrenz zu Bildgeschichte, welche qualitativ höherwertige deutsche Comic-Werke von lizenzierten ausländischen Comics abgrenzen sollte. Schließlich setzten sich Comic und Comicstrip auch im deutschen Sprachraum durch. Comicstrips prägten durch ihre Form auch den französischen Begriff bande dessinée und den chinesischen lien-huan hua („Ketten-Bilder“). Das häufig verwendete Mittel der Sprechblase führte im Italienischen zur Bezeichnung fumetti („Rauchwölkchen“) für Comics. In Japan wird manga (, „spontanes Bild“) verwendet, das ursprünglich skizzenhafte Holzschnitte bezeichnete. Geschichte Die Ursprünge des Comics liegen in der Antike. So finden sich im Grab des Menna (14. Jahrhundert v. Chr.) Malereien, die in einer Bildfolge Ernte und Verarbeitung von Getreide darstellen. Speziell diese Bildfolge liest sich im Zickzack von unten nach oben. In der Szene vom Wägen des Herzens im Papyrus des Hunefer (ca. 1300 v. Chr.) werden die Bildfolgen mit Dialogtext ergänzt. Ägyptische Hieroglyphen selbst stellen jedoch keine Vorform des Comics dar, da diese, trotz ihrer Bildlichkeit für Laute, nicht für Gegenstände stehen. Andere Beispiele früher Formen von Bildergeschichten stellen die Trajanssäule und japanische Tuschemalereien dar. In Amerika wurden ebenso früh Erzählungen in sequenziellen Bildfolgen wiedergegeben. Ein Beispiel dieser Kunst wurde 1519 von Hernán Cortés entdeckt und erzählt vom Leben eines präkolumbianischen Herrschers des Jahres 1049. Dabei werden die Bilder um erklärende Schriftzeichen ergänzt. In Europa entstand im Hochmittelalter in Frankreich der Teppich von Bayeux, der die Eroberung Englands durch die Normannen im Jahr 1066 schildert. Auch hier werden Text und Bild kombiniert. Viele Darstellungen in Kirchen dieser Zeit, wie Altarbilder oder Fenster, haben einen comicartigen Charakter. Sie vermittelten damals besonders analphabetischen Gesellschaftsschichten Erzählungen. Auch die Wiener Genesis, ein byzantinisches Manuskript aus dem 6. Jahrhundert, gehört zu derartigen Werken. In vielen Fällen wird dabei schon das Mittel der Sprechblase in Form von Spruchbändern vorweggenommen. Im 13. Jahrhundert fand die bebilderte Armenbibel zunehmende Verbreitung, mit der die Kirche die lese- und lateinunkundigen Gläubigen erreichen wollte. In Japan zeichneten seit dem 12. Jahrhundert Mönche Bildfolgen auf Papierrollen, häufig mit shintoistischen Motiven. Bis ins 19. Jahrhundert fanden Hefte mit komischen oder volkstümlichen Erzählungen Verbreitung. Zugleich wurde in Japan der Begriff Manga geprägt, der heute für Comics steht. Aus dieser Zeit am bekanntesten ist das Werk des Holzschnittkünstlers Katsushika Hokusai. Nach der Erfindung des Buchdrucks in Europa fanden Drucke von Märtyrergeschichten in der Bevölkerung weite Verbreitung. Später wurden die Zeichnungen feiner und der Text wurde, wie bei den verbreiteten Drucken, wieder weggelassen. So bei William Hogarth, der unter anderem A Harlot’s Progress schuf. Diese Geschichten bestanden aus wenigen Bildern, die in Galerien in einer Reihe aufgehängt waren und später gemeinsam als Kupferstich verkauft wurden. Die Bilder waren detailreich und die Inhalte der Geschichten sozialkritisch. Auch Friedrich Schiller schuf mit Avanturen des neuen Telemachs eine Bildgeschichte, die auch wieder Text gebrauchte und diesen wie im Mittelalter in Schriftrollen integrierte. Besonders in britischen Witz- und Karikaturblättern wie dem Punch fanden sich ab Ende des 18. Jahrhunderts viele Formen des Comics, meist kurz und auf Humor ausgerichtet. Aus dieser Zeit stammt auch der Begriff Comic. Als Vater des modernen Comics bezeichnet McCloud Rodolphe Töpffer. Er verwendete Mitte des 19. Jahrhunderts erstmals Panelrahmen und stilisierte, cartoonhafte Zeichnungen und kombinierte Text und Bild. Die Geschichten hatten einen heiteren, satirischen Charakter und wurden auch von Johann Wolfgang Goethe bemerkt mit den Worten Wenn er künftig einen weniger frivolen Gegenstand wählte und sich noch ein bisschen mehr zusammennähme, so würde er Dinge machen, die über alle Begriffe wären. Auch die im 19. Jahrhundert populären Bilderbögen enthielten oft Comics, darunter die Bildgeschichten Wilhelm Buschs. In den USA wurden im späten 19. Jahrhundert kurze Comicstrips in Zeitungen veröffentlicht, die meist eine halbe Seite einnahmen und bereits Comics genannt wurden. Yellow Kid von Richard Felton Outcault aus dem Jahr 1896 wird teilweise als erster moderner Comic betrachtet, weist jedoch noch kein erzählendes Moment auf. Ein solches brachte Rudolph Dirks mit seiner von Wilhelm Busch inspirierten Serie The Katzenjammer Kids 1897 ein. Ein weiterer bedeutender Comic jener Zeit war Ally Sloper’s Half Holiday von Charles H. Ross Andreas Platthaus sieht in George Herrimans ab 1913 erscheinenden Comicstrip Krazy Kat eine größere Revolution als in den vorhergehenden Werken, denn Herriman erschafft das Comic-eigene Genre Funny Animal und entwickelt neue Stilmittel. Auch in Europa gab es zu Beginn des 20. Jahrhunderts Karikaturenzeitschriften, jedoch kaum sequenzielle Comics. Auch in Japan etablierten sich Karikaturmagazine und das Stilmittel der Sprechblasen wurde aus Amerika übernommen. Kitazawa Rakuten und Okamoto Ippei gelten als die ersten professionellen japanischen Zeichner, die in Japan Comicstrips anstatt der bis dahin bereits verbreiteten Karikaturen schufen. In Europa entwickelte sich in Frankreich und Belgien eine andere Form von Comics, das Comicheft, in dem längere Geschichten in Fortsetzung abgedruckt wurden. Ein bedeutender Vertreter war Hergé, der 1929 Tim und Struppi schuf und den Stil der Ligne claire begründete. Auch in Amerika wurden bald längere Geschichten in Beilagen der Sonntagszeitungen veröffentlicht. Hal Fosters Tarzan machte diese Veröffentlichungsart populär. 1937 folgte Prinz Eisenherz, bei dem erstmals seit langem wieder auf die Integration von Texten und Sprechblasen verzichtet wurde. Ähnlich entwickelten sich unter anderem die Figuren Walt Disneys von Gagstrips zu längeren Abenteuergeschichten. Dies geschah bei Micky Maus in den 1930er Jahren durch Floyd Gottfredson, bei Donald Duck in den 1940er Jahren durch Carl Barks. Nach der Erfindung von Superman durch Jerry Siegel und Joe Shuster 1938 brach in den USA ein Superhelden­boom aus. Dieser konzentrierte sich auf die Zielgruppe von Kindern und Jugendlichen und verhalf dem Comicheft zum Durchbruch. Durch den Zweiten Weltkrieg kam es besonders in Amerika und Japan zu einer Ideologisierung der Comics (siehe Krieg im Comic). Mit dem Aufschwung der Superheldencomics in den USA wurde die Arbeit des Autors und des Zeichners zunehmend getrennt. Das geschah vor allem, um die Arbeit an den Heften rationell zu gestalten. In Amerika gehörten der Zeichner Jack Kirby und der Autor Stan Lee zu den Künstlern, die das Golden Age der Superhelden in den vierziger Jahren und das Silver Age in den 1960er Jahren prägten. In den 1950ern kam es wegen des Comics Codes zur Schließung vieler kleiner Verlage und Dominanz der Superheldencomics in den USA. Auch in Europa wurde die Arbeitsteilung häufiger. In der DDR galt der Begriff Comic als zu westlich. So entstand in der DDR die Idee, in der Tradition von Wilhelm Busch und Heinrich Zille etwas Eigenes zu schaffen, das man dem „Schund“ aus dem Westen entgegensetzen könnte. 1955 erschienen mit Atze und Mosaik die ersten Comic-Hefte in der DDR. Mosaik wurde das Aushängeschild des DDR-Comics. Während der 1980er Jahre kam es kurzzeitig zu einer Rückkehr der Generalisten, die die Geschichten schrieben und zeichneten. In den 1990er Jahren kehrte man in den USA und Frankreich wieder zu der Aufteilung zurück. Diese Entwicklung führte dazu, dass die Autoren mehr Aufmerksamkeit genießen und die Zeichner, besonders in Amerika, von diesen Autoren ausgewählt werden. Zugleich entwickelte sich in Amerika seit den sechziger Jahren der Undergroundcomic um Künstler wie Robert Crumb und Gilbert Shelton, der sich dem Medium als politischem Forum widmete. Einer der bedeutendsten Vertreter ist Art Spiegelman, der in den 1980er Jahren Maus – Die Geschichte eines Überlebenden schuf. Nach dem Zweiten Weltkrieg entwickelten sich Comics auch außerhalb Europas und der Vereinigten Staaten weiter. In Japan hatte der Künstler Osamu Tezuka, der unter anderem Astro Boy schuf, großen Einfluss auf die Weiterentwicklung des Mangas in der Nachkriegszeit. Der Comic fand in Japan weite Verbreitung in allen Gesellschaftsschichten und erreichte ab den 1960er und 1970er Jahren auch viele weibliche Leser. Auch gab es vermehrt weibliche Zeichner, darunter die Gruppe der 24er. Ab den 1980er Jahren, besonders in den Neunzigern, wurden Mangas auch außerhalb Japans populär, darunter bekannte Reihen wie Sailor Moon und Dragonball. Ab den 1990er Jahren gewannen Graphic Novels an Bedeutung, so autobiografische Werke wie Marjane Satrapis Persepolis, Joe Saccos Reportagen Palästina oder die Reiseberichte Guy Delisles. Seit in den 1980ern und 1990ern die ersten Webcomics erschienen, wird auch das Internet von zahlreichen Comicproduzenten zur Veröffentlichung und Bewerbung ihrer Werke genutzt und dient Comiclesern und Comicschaffenden zum Gedankenaustausch. Formen des Comics Comicstrip Der Comicstrip (vom englischen comic strip, strip = Streifen) umfasst als Begriff sowohl die daily strips („Tagesstrips“) als auch die Sunday pages („Sonntags-Strips“ oder Sonntagsseiten). Der Ursprung von Comicstrips liegt in den amerikanischen Sonntagszeitungen, wo sie zunächst eine ganze Seite füllten. Als erster Comicstrip gilt Hogan’s Alley, später bekannt als The Yellow Kid, von Richard Felton Outcault, der 1894 entstand. Ab der Jahrhundertwende fanden Comicstrips auch in Zeitungen anderer englischsprachiger Länder Verbreitung, in Kontinentaleuropa erst in den 1920er Jahren. Eine Verbreitung wie in den USA fanden sie hier nie. 1903 erschien der erste werktägliche daily strip auf den Sportseiten der Chicago American, ab 1912 wurde zum ersten Mal eine fortlaufende Serie abgedruckt. Der Tagesstrip, der von Anfang an nur auf schwarz-weiß beschränkt war, sollte auch von seinem Platz her sparsam sein. Da er nur eine Leiste umfassen sollte, wurde die Länge auf drei oder vier Bilder beschränkt, die in der Regel mit einer Pointe endeten. Bis heute hat sich erhalten, dass der Comicstrip eine feststehende Länge besitzt, die über eine Längsseite gehen sollte. Häufig werden bestimmte Motive variiert und ihnen dadurch neue Perspektiven abgewonnen. Nur in absoluten Ausnahmefällen ergeben sich längerfristige Veränderungen, meist handelt es sich um die Einführung neuer Nebenfiguren. In der Serie Gasoline Alley altern die Figuren sogar. Erscheinen die Geschichten täglich, werden sie häufig eingesetzt, um im Laufe einer Woche eine Art Handlungsbogen zu bestimmen, der in der nächsten Woche von einem neuen abgelöst wird. Deshalb setzte sich vermehrt die Praxis durch, dass die Sunday pages unabhängig von dem Handlungsbogen funktionieren mussten, da es einerseits einen Leserstamm ausschließlich für die Sonntagszeitungen gab, der die vorhergehenden Geschichten nicht kannte und außerdem die Sonntagsstrips zum Teil separat vertrieben wurden. Aufgrund der wirtschaftlichen Zwänge beim Druck der Strips gab es während des Zweiten Weltkriegs immer stärkere Einschränkungen der formalen Möglichkeiten. Zudem verloren die Zeitungsstrips wegen der zunehmenden Konkurrenz durch andere Medien an Beliebtheit und Bedeutung. So wurde der Comicstrip seit den 1940er Jahren formal und inhaltlich nur noch wenig verändert. Bedeutende Ausnahmen sind Walt Kellys Pogo, Die Peanuts von Charles M. Schulz oder Bill Wattersons Calvin und Hobbes. Der, wie Pogo, politische Comicstrip Doonesbury wurde 1975 mit dem Pulitzer-Preis ausgezeichnet. Nach einer inhaltlichen Erweiterung hin zu gesellschaftskritischen Themen und formalen Experimenten in den 1960er Jahren bewegten sich die nachfolgenden Künstler innerhalb der bestehenden Konventionen. Seit Anfang des 20. Jahrhunderts werden Zeitungsstrips auch gesammelt in Heft- oder Buchausgaben veröffentlicht. Bis 1909 erschienen bereits 70 solcher Nachdrucke. Auch heute erscheinen viele aktuelle oder historische Comicstrips nachgedruckt in anderen Formaten. Heft- und Buchformate In den 1930er-Jahren etablierte sich der Vertrieb von Comics in den Vereinigten Staaten in Heftform. 1933 veröffentlichte die Eastern Color Printing Company erstmals ein Comicheft in noch heute gebräuchlicher Form, das aus einem Druckbogen auf 16 Seiten gefalzt und gebunden wurde. Die Seitenzahl beträgt entsprechend in der Regel 32, 48 oder 64. Zunächst wurden die Hefte als Werbegeschenk von Firmen für ihre Kunden verbreitet, gefüllt noch mit Sammlungen von Comicstrips. Bald wurden die Hefte als regelmäßige Publikationen von Verlagen auch direkt vertrieben und mit eigenen Produktionen gefüllt. Die Hefte Detective Comics (1937) und Action Comics (1938) vom Verlag Detective Comics waren die ersten bedeutenden Vertreter, mit dem Start von Action Comics war auch der erste Auftritt von Superman verbunden. Aufgrund des Formates wurden sie in den USA Comic Books genannt und stellen seit Ende der 1940er Jahre die gängige Vertriebsform in vielen Ländern dar. Nach dem Zweiten Weltkrieg, teilweise schon in den 1930er Jahren, kam das Heftformat nach Europa und fand in Form von Comic-Magazinen wie dem Micky-Maus-Magazin Verbreitung. Das Magazin vereint verschiedene Beiträge unterschiedlicher Autoren und Zeichner, die es häufiger als Fortsetzungen übernimmt, und ergänzt diese unter Umständen um redaktionelle Beiträge. Zu unterscheiden sind Magazine wie das an Jugendliche gerichtete Yps, in dem importierte Reihen wie Lucky Luke und Asterix und Obelix neben deutschen Beiträgen zu finden sind und deren Aufmachung Heftcharakter besitzt, von den an Erwachsene gerichteten Sammlungen wie Schwermetall oder U-Comix. Zu den bedeutendsten Magazinen des Frankobelgischen Comics zählen Spirou (seit 1938), Tintin (1946–1988) und Pilote (1959–1989). Fix und Foxi von Rolf Kauka, eine der erfolgreichsten Comic-Serien aus deutscher Produktion, erschien ab 1953 als Comic-Magazin. Sie besitzt inzwischen allerdings keine große wirtschaftliche Relevanz mehr. Im Osten Deutschlands wurden die eigenen Comiczeitschriften, zur Unterscheidung von westlichen Comics, als Bilderzeitschriften bzw. Bildergeschichten bezeichnet. Besonders prägte das Mosaik mit seinen lustigen unpolitischen Abenteuergeschichten die dortige Comiclandschaft. Das Mosaik von Hannes Hegen mit Digedags wurde 1955 in Ost-Berlin gegründet. Später wurde die Comiczeitschrift mit den Abrafaxen fortgeführt. Das Mosaik erscheint noch immer als monatliches Heft mit einer Auflage von etwa 100.000 Exemplaren im Jahr 2009, wie sie keine andere Zeitschrift mit deutschen Comics erreicht. Mittlerweile existieren kaum noch erfolgreiche Magazine in Deutschland und Comics werden vornehmlich in Buch- und Albenformaten veröffentlicht. In Japan erschien 1947 mit Manga Shōnen das erste reine Comic-Magazin, dem bald weitere folgten. Dabei entwickelten sich eigene und insbesondere im Vergleich zum europäischen Magazin deutlich umfangreichere Formate mit bis zu 1000 Seiten. Auf dem Höhepunkt der Verkäufe im Jahr 1996 gab es 265 Magazine und fast 1,6 Mrd. Exemplaren Auflage pro Jahr. Das bedeutendste Magazin, Shōnen Jump, hatte eine Auflage von 6 Mio. pro Woche. Seit Mitte der 1990er Jahre sind die Verkaufszahlen rückläufig. Neben den Comic-Heften setzten sich auch das Album und das Taschenbuch durch. Comicalben erschienen in Frankreich und Belgien ab den 1930er Jahren. In ihnen werden die in Magazinen veröffentlichten Comics gesammelt und als abgeschlossene Geschichte abgedruckt. Ihr Umfang beträgt, bedingt durch die Verwendung 16-fach bedruckter Bögen, in der Regel 48 oder 64 Seiten. Im Gegensatz zu Heften sind sie wie Bücher gebunden, von diesen heben sie sich durch ihr Format, meist DIN A4 oder größer, ab. Sie sind insbesondere in Europa verbreitet. Seit es weniger Comic-Magazine gibt, erscheinen Comics in Europa meist ohne Vorabdruck direkt als Album. Bekannte in Albenform erschienene Comics sind Tim und Struppi oder Yakari. In den 1950er- und 1960er-Jahren brachte der Walter Lehning Verlag das aus Italien stammende Piccolo-Format nach Deutschland. Die mit 20 Pfennig günstigen Hefte wurden mit den Comics Hansrudi Wäschers erfolgreich verkauft und prägten den damaligen deutschen Comic. Comic-Publikationen in Buchformaten entstanden in den 1960er Jahren und kamen mit den Veröffentlichungen des Verlags Eric Losfeld auch nach Deutschland. Die 1967 gestarteten Lustigen Taschenbücher erscheinen noch heute. Ab den 1970er Jahren wurden bei den Verlagen Ehapa und Condor auch Superhelden im Taschenbuchformat etabliert, darunter Superman und Spider-Man. Dazu kamen in diesem Format humoristische Serien, wie etwa Hägar. In Japan etablierte sich, als Gegenstück zum europäischen Album, das Buch für zusammenfassende Veröffentlichung von Serien. Die entstandenen Tankōbon-Formate setzten sich in den 1990er Jahren auch im Westen für die Veröffentlichung von Mangas durch. Mit Hugo Pratt in Europa sowie Will Eisner in den USA entstanden ab den 1970ern erstmals Geschichten als Graphic Novel, die unabhängig von festen Formaten, in ähnlicher Weise wie Romane veröffentlicht wurden. Der Begriff „Graphic Novel“ selbst wurde aber zunächst nur von Eisner verwendet und setzte sich erst deutlich später durch. Die zunehmende Zahl von Graphic Novels wird üblicherweise in Hard- oder Softcover-Buchausgaben herausgebracht. Auch ursprünglich in Einzelheften erschienene Comicserien, wie From Hell oder Watchmen, werden, in Buchform gesammelt, als Graphic Novels bezeichnet. Entstehung von Comics Techniken Die meisten Comics wurden und werden mit Techniken der Grafik geschaffen, insbesondere als Zeichnung mit Bleistift oder Tusche. Üblich ist auch, dass zunächst Vorzeichnungen mit Bleistift oder anderen leicht entfernbaren Stiften gezeichnet werden und danach eine Reinzeichnung mit Tusche erfolgt. Als Ergänzung dazu ist teilweise der Einsatz von Rasterfolie oder vorgefertigten, mit Bildmotiven bedruckten Folien verbreitet. Neben der Zeichnung mit Stift und Tusche sind auch alle anderen Techniken der Grafik und Malerei sowie die Fotografie zur Produktion von Comics möglich und finden Anwendung, beispielsweise in Fotoromanen. Bis zum 19. Jahrhundert, in dem sich mit dem modernen Comic auch die heute üblichen Techniken durchsetzten, gab es bereits eine große Bandbreite an künstlerischen Verfahren für Bildgeschichten. So das Malen in Öl und Drucken mit Stichen, Fresken, Stickerei oder aus farbigem Glas gesetzte Fenster. Auch mit Relief und Vollplastik wurden Comics geschaffen. Seit den 1990er Jahren hat die im Ergebnis dem traditionellen Zeichnen optisch oft ähnliche Fertigung mit elektronischen Mitteln wie dem Zeichenbrett größere Verbreitung erfahren. Darüber hinaus entstanden mit dem ausschließlich elektronischen Zeichnen auch neue Stile und Techniken. Eine Sonderform bilden die 3D-Comics. Bestimmend für die Wahl der Technik war oft, dass die Bilder mit Druckverfahren vervielfältigt werden. Daher dominieren Werke mit Grafiken, die aus festen Linien bestehen. Für farbige Bilder werden in der Regel im Druck Flächenfarben oder Rasterfarben des Vierfarbdrucks ergänzt. Durch die Verbreitung von Scanner und Computer zur Vervielfältigung sowie dem Internet als Verbreitungsweg sind die Möglichkeiten der Zeichner, andere Mittel und Techniken zu nutzen und zu entwickeln, deutlich gewachsen. Künstler und Produktionsabläufe In Amerika und Europa traten in der Comicbranche lange Zeit fast ausschließlich weiße, heterosexuelle Männer in Erscheinung. Jedoch war in der ersten Hälfte des 20. Jahrhunderts über die meisten Künstler nur wenig bekannt. Angehörige von Minderheiten konnten so Vorurteilen entgehen. Frauen und gesellschaftliche Minderheiten traten erst ab den 1970er Jahren vermehrt als Autoren und Zeichner in Erscheinung. Dies ging häufig einher mit der Gründung von eigenen Organisationen, wie der Wimmen’s Comicx Collective oder dem Verlag Afrocentric in den Vereinigten Staaten. Bis ins 19. Jahrhundert wurden Comics und Bildergeschichten fast ausschließlich von einzelnen Künstlern allein angefertigt. Durch die Veröffentlichung der Comics in Zeitungen und zuvor bereits in ähnlichen Massenprintmedien waren die Künstler im 19. Jahrhundert immer öfter für einen Verlag tätig. Ihr Produkt war dennoch individuell und Serien wurden eingestellt, wenn der Künstler sie nicht selbst fortsetzte. Mit Beginn des 20. Jahrhunderts kam es häufiger zu Kooperationen von Zeichnern und Autoren, die gemeinsam im Auftrag eines Verlags an einer Serie arbeiteten. Zunehmend wurden Serien auch mit anderen Künstlern fortgesetzt. In großen Verlagen wie Marvel Comics oder unter den Herausgebern der Disney-Comics haben sich so Stilvorgaben durchgesetzt, die ein einheitliches Erscheinungsbild von Serien ermöglichen sollen, auch wenn die Beteiligten ausgewechselt werden. Dennoch gibt es auch in diesem Umfeld Künstler, die mit ihrem Stil auffallen und prägen. Im Gegensatz dazu entwickelten sich auch Comic-Studios, die unabhängiger von Verlagen sind. Teilweise werden diese von einem einzelnen Künstler dominiert oder bestehen schlicht zur Unterstützung des Schaffens eines Künstlers. Eine solche Konstellation findet sich beispielsweise bei Hergé und ist in Japan weit verbreitet. In Anlehnung an den von den Regisseuren der Nouvelle Vague geprägten Begriff des Autorenfilms entstand auch der Begriff des Autorencomic, der im Gegensatz zu den arbeitsteilig entstehenden konventionellen Mainstream-Comics nicht als Auftragsarbeit, sondern als Ausdruck einer persönlichen künstlerischen und literarischen Handschrift, die sich kontinuierlich durch das gesamte Werk eines Autors zieht, entsteht. Je nach Arbeitsweise – allein, im Team oder direkt für einen Verlag – verfügt der einzelne Mitwirkende über mehr oder weniger Spielraum, was sich auch auf die Qualität des Werkes auswirkt. Sowohl bei Verlagen als auch bei Studios einzelner Künstler ist die Arbeit in der Regel auf mehrere Personen verteilt. So kann das Schreiben des Szenarios, das Anfertigen von Seitenlayouts, das Vorzeichnen der Seiten, das Tuschen von Bleistiftzeichnungen und das Setzen von Text von verschiedenen Personen ausgeführt werden. Auch die Anfertigung von Teilen des Bildes wie Zeichnen von Figuren und Hintergrund, Setzen von Schraffuren und Rasterfolie und das Kolorieren kann auf mehrere Mitwirkende verteilt sein. Vertriebswege Populäre Lithographien, frühe Comics und Bildgeschichten, wurden in Deutschland von Lumpensammlern verkauft, die diese mit sich trugen. Später wurden Comics in Nordamerika und Europa bis in die 1930er Jahre fast ausschließlich über Zeitungen verbreitet. Mit den Comicheften kam in den USA ein Remittendensystem auf, in dem die Comics über Zeitungskioske vertrieben wurde. Nicht verkaufte Exemplare gingen dabei zum Verlag zurück oder wurden auf dessen Kosten vernichtet. Ab den 1960er Jahren konnten sich reine Comicläden etablieren und mit ihnen der „Direct Market“, in dem der Verlag die Bücher direkt an den Laden verkauft. Auch neu entstandene Formate wie das Comicalbum oder Comicbook wurden über diesen Weg an ihren Kunden gebracht. Durch die Entwicklung des Elektronischen Handels ab den 1990er Jahren nahm der Direktvertrieb vom Verlag oder direkt vom Künstler zum Leser zu, darunter der Vertrieb von digitalen statt gedruckten Comics. Dieser bietet den Vorteil geringerer Produktionskosten, was zusammen mit der für alle Verkäufer großen Reichweite und Marketing über soziale Netzwerke zu größeren Chancen auch für kleinere Anbieter, wie Selbstverleger und Kleinverlage, führt. Rechtliche Aspekte Der Umgang mit den Urheber- und Nutzungsrechten an Comics war in der Geschichte des Mediums immer wieder umstritten. So führte der Erfolg von William Hogarths Bildergeschichten dazu, dass diese von anderen kopiert wurden. Zum Schutz des Urhebers verabschiedete das englische Parlament daher 1734 den Engraver’s Act. Künstler, die ihre Werke selbst und allein schaffen, verfügen über die Rechte an diesen Werken und können über deren Veröffentlichung bestimmen. Im 19. und beginnenden 20. Jahrhundert traten neue Konflikte auf, da zunehmend mehr Menschen an einem einzelnen Comic beteiligt waren, so der Redakteur oder verschiedene Zeichner und Autoren. Dies führte unter anderem dazu, dass die Rechte einer Serie zwischen einem Verlag und dem Künstler aufgeteilt wurden oder dass die Urheber im Vergleich zum Erlös des Verlags nur eine geringe Bezahlung erhielten. Im Laufe des 20. Jahrhunderts etablierten sich Verträge zwischen allen Beteiligten, die zu einer klaren Rechtslage führen. Formensprache Neben vielfältigen Techniken hat sich im Comic eine eigene Formensprache entwickelt, da das Medium besonders auf bildhafte Symbole angewiesen ist. Diese dienen zur Verdeutlichung von Gemütszuständen oder der Sichtbarmachung nicht gegenständlicher Elemente der dargestellten Ereignisse. Dabei finden übertrieben dargestellte, aber tatsächlich auftretende „Symptome“ wie Schweißtropfen oder Tränen, oder gänzlich metaphorische Symbole Verwendung. Besonders verbreitet ist die Sprechblase als symbolische Darstellung der nicht sichtbaren Sprache und zugleich Mittel zur Integration von Text. Zur symbolhaften Darstellung von Bewegung finden vor allem „Speedlines“, die den Weg des Bewegten nachzeichnen, oder eine schemenhafte Darstellung mehrerer Bewegungsphasen Anwendung. Insbesondere beim Einsatz verschiedener Strich-, Linien- und Schraffurformen als expressionistisches Mittel zur Vermittlung von Emotionen hat sich im Comic eine große Bandbreite entwickelt. Sehr ähnlich wie der Strich wird die Schriftart und -größe von Text eingesetzt. Der Einsatz von Farben, wenn überhaupt, wird sehr verschieden gehandhabt. Da die meist eingesetzten flächigen Kolorierungen die Konturen betonen und damit das Bild statisch erscheinen lassen und die Identifizierung des Lesers erschweren können, ist die Farbkomposition auch für das Erzählen der Geschichte und die Wirkung der Figuren von großer Bedeutung. Neben dem Einsatz der eigentlichen Symbole werden oft auch die handelnden Figuren sowie die dargestellte Szenerie vereinfacht, stilisiert oder überzeichnet dargestellt. Verschiedene Ebenen des Bildes, wie Figuren und Hintergründe, aber auch unterschiedliche Figuren, können dabei verschieden stark abstrahiert werden. Es existiert ein breites Spektrum an inhaltlicher oder formaler Abstraktion, von fotografischen oder fotorealistischen Darstellungen bis zu weitgehend abstrakten Formen oder reinen Bildsymbolen. Gerade die stilisierte, cartoonhafte Darstellung der handelnden Figuren ist bedeutend, da sie der leichten Identifikation des Lesers mit diesen Figuren dient. Durch verschiedene Maße der Stilisierung kann auf diese Weise auch die Identifikation und Sympathie des Lesers beeinflusst werden. So ist es laut Scott McCloud in vielen Stilen, wie der Ligne claire oder Manga, die Kombination von stark stilisierten Figuren und einem eher realistischen Hintergrund üblich, um den Leser „hinter der Maske einer Figur gefahrlos in eine Welt sinnlicher Reize“ eintreten zu lassen. Er nennt dies den „Maskierungseffekt“. Dieser kann auch flexibel eingesetzt werden, sodass die Veränderung der Darstellungsart einer Figur oder eines Gegenstandes auch zu einer anderen Wahrnehmung dieser führt. Die Stilisierung und Übertreibung von Merkmalen der Figuren dient auch ihrer Charakterisierung und Unterscheidbarkeit für den Leser. Durch die Verwendung von physischen Stereotypen werden Erwartungen des Lesers geweckt oder auch bewusst gebrochen. Grafisches Erzählen Für das Erzählen mit Comics zentral ist die Art, wie die Inhalte der Geschichte in Bilder aufgeteilt werden, welche Ausschnitte und Perspektiven der Autor wählt und wie die Panels angeordnet werden. Die drei Prinzipien der Erzählung im Comic nennt Eckart Sackmann das kontinuierende, integrierende und separierende, und nimmt dabei Bezug auf den Kunsthistoriker Franz Wickhoff. In Erstem reihen sich die Ereignisse ohne Trennung aneinander (zum Beispiel Trajanssäule), das integrierende Prinzip vereint die zeitlich versetzten Szenen in einem großen Bild (zum Beispiel Bilderbogen oder Wiener Genesis). Das separierende Prinzip, das im modernen Comic vorherrscht, trennt die Vorgänge in nacheinander folgende Bilder. Aus den inhaltlichen Unterschieden zwischen aufeinanderfolgenden Panels schließt der Leser durch Induktion auf die Geschehnisse, auch ohne dass jeder Moment dargestellt wird. Je nach inhaltlicher Nähe beziehungsweise Ferne der Bilder wird dem Leser verschieden großer Interpretationsspielraum gewährt. Scott McCloud ordnet die Panelübergänge in sechs Kategorien: Von Augenblick zu Augenblick, von Handlung zu Handlung (bei gleich bleibendem betrachteten Gegenstand), von Gegenstand zu Gegenstand, von Szene zu Szene, von Aspekt zu Aspekt und schließlich der Bildwechsel ohne logischen Bezug. Er stellt fest, dass für Erzählungen besonders häufig die Kategorien 2 bis 4 verwendet werden, während die letzte Kategorie für Narration gänzlich ungeeignet ist. Der Umfang, in dem bestimmte Kategorien verwendet werden, unterscheidet sich stark je nach Erzählstil. Ein bedeutender Unterschied besteht zwischen westlichen Comics bis zu den 1990er Jahren und Mangas, in denen die Kategorien 1 und 5 deutlich stärkere Verwendung finden. Dietrich Grünewald definiert dagegen nur zwei Arten von Anordnungen: die „enge“ und die „weite Bildfolge“. Während die erste Aktionen und Prozesse abbilde und seit dem ausgehenden 19. Jahrhundert den Comic vorrangig präge, beschränke sich die zweite auf deutlich weiter auseinanderliegende, ausgewählte Stationen eines Geschehens. Diese miteinander zu verbinden verlange eine aufmerksamere Betrachtung des einzelnen Bildes; bis zum modernen Comic sei dies die vorherrschende Erzählweise gewesen. Die Panelübergänge beeinflussen sowohl die Wahrnehmung von Bewegung und welche Aspekte der Handlung oder des Dargestellten vom Leser besonders wahrgenommen werden, als auch die vom Leser gefühlte Zeit und den Lesefluss. Für die Wahrnehmung von Zeit und Bewegung ist darüber hinaus das Layout der Seiten von Bedeutung. Bewegung, und mit ihr auch Zeit, wird außerdem durch Symbole dargestellt. Auch die Verwendung von Text, insbesondere der von Figuren gesprochener Sprache, wirkt sich auf den Eindruck von erzählter Zeit aus. Ebenso dient der Einsatz verschiedener Panelformen und -funktionen dem Erzählen. Verbreitet ist die Verwendung von „Establishing Shots“ bzw. eines „Splash Panel“, die in eine Szene bzw. einen neuen Ort der Handlung einführen. Diese sind auch ein Anwendungsfall teilweise oder ganz randloser Panels. Die Auswahl des Bildausschnitts und dargestellten Moments einer Bewegung beeinflusst den Lesefluss insofern, dass die Wahl des „fruchtbaren Moments“, also der geeigneten Pose, die Illusion einer Bewegung und damit die Induktion unterstützt. Die Integration von Text geschieht im Comic sowohl über Sprechblasen, als auch die Platzierung von Wörtern, insbesondere Onomatopoesien und Inflektive, direkt im Bild oder unter dem Bild. Text und Bild können auf verschiedene Weise zusammen wirken: sich inhaltlich ergänzen oder verstärken, beide den gleichen Inhalt transportieren oder ohne direkten Bezug sein. Ebenso kann ein Bild bloße Illustration des Textes oder dieser nur eine Ergänzung des Bildes sein. Der Leser des Comics nimmt zum einen das Gesamtbild einer Seite, eines Comicstrips oder eines einzeln präsentierten Panels als Einheit wahr. Es folgt die Betrachtung der einzelnen Panels, der Teilinhalte der Bilder und der Texte, in der Regel geführt durch Seitenlayout und Bildaufbau. Dabei findet sowohl aufeinander folgende als auch simultane, abstrakte und anschauliche Wahrnehmung statt. Die oft symbolischen Darstellungen werden vom Leser interpretiert und in einen, soweit ihm bekannten, Kontext gesetzt und das dargestellte Geschehen und seine Bedeutung daraus aktiv konstruiert. Dietrich Grünewald nennt, auf Grundlage der Arbeit Erwin Panowskys, vier inhaltliche Ebenen der Bildgeschichte. Die erste Ebene, „vorikonografische“ ist die der dargestellten Formen, Grünewald nennt dies auch die „Inszenierung“, also die Auswahl und Anordnung der Formen sowie der Bilder und Panel auf der Seite. Die zweite, „ikonografische“ Ebene umfasst die Bedeutung der Formen als Symbole, Allegorien u. a. Die „ikonologische“ dritte Ebene ist die der eigentlichen Bedeutung und Inhalt des Werks, wie sie sich auch aus dem Kontext ihrer Zeit und des künstlerischen Werks des Schöpfers ergibt. Eine vierte Ebene sieht er in der Bildgeschichte als Spiegel der Zeit, in der sie entstanden ist, und in dem, was sie über ihren Künstler, ihr Genre oder ihren gesellschaftlichen Kontext aussagt. Inhaltliche Aspekte Der Comic als Kunstform und Medium ist an kein Genre gebunden. Dennoch sind bestimmte Genres innerhalb des Comics besonders weit verbreitet oder haben in ihm ihren Ursprung. So entstand durch Serien wie Krazy Kat bereits zu Beginn des 20. Jahrhunderts mit dem „Funny Animal“-Comicstrip ein dem Medium eigenes Genre, das später auch im Trickfilm Verwendung fand. Die seit dieser Zeit entstandenen humorvollen Comics werden allgemein als Funnys bezeichnet. Daneben waren zunächst vor allem Geschichten aus dem Alltag der Leser oder über realistische oder phantastische Reisen verbreitet. Die amerikanischen Abenteuercomics der 1930er Jahre prägten gemeinsam mit dem damaligen Film Kriminal- und Piratengeschichten, Western und Science-Fiction. Zugleich entstand als eine Zwischenform von Funny und Abenteuercomic der Semifunny. Mit dem Superhelden entstand in den USA Ende der 1930er Jahre erneut ein Comic-eigenes Genre, das sich später insbesondere auch in Film und Fernsehen fand. Das kurzzeitig umfangreiche Aufkommen von Comics mit Horror- und besonders gewaltorientierten Krimi-Themen, vor allem publiziert vom Verlag EC Comics, wurde durch den Comics Code zu Beginn der 1950er Jahre beendet. Im europäischen Comic hat sich neben humoristischen Zeitungsstrips eine Tradition etwas längerer Abenteuergeschichten gebildet, dessen bedeutendste frühe Vertreter Hergé und Jijé sind. In Japan entstand mit der Entwicklung des modernen Mangas eine große Anzahl an Genres, die dem Medium eigen sind und sich später auch im Anime etablierten. Einige bedeutende Genres, wie Shōnen und Shōjo, kategorisieren dabei nicht nach Thema des Werks, sondern nach Zielgruppe, in diesem Falle Jungen und Mädchen. Dabei wurde, in zuvor durch das Medium Comic nicht erreichtem Umfang, auch eine weibliche Leserschaft angesprochen. Nachdem Comics mit romantischen Geschichten, die sich traditionell an Mädchen richteten, im westlichen Comic fast völlig verschwunden waren, konnten sich weibliche Zeichner und Comics für ein weibliches Publikum ab den 1970er Jahren nur langsam durchsetzen. In der gleichen Zeit wurden Underground Comix mit Zeichnern wie Robert Crumb und Art Spiegelman zum Ausdruck der Gegenkultur in den USA. Wie auch in Japan wurden zunehmend Werke mit politischen und historischen Themen, später auch biografische Werke und Reportagen, veröffentlicht und es entwickelte sich die Graphic Novel bzw. Gekiga als Sammelbegriff für solche Comics. Bis zum 19. Jahrhundert griffen Comics vor allem den Alltag ihres Publikums komisch oder satirisch auf, vermittelten historische Begebenheiten oder religiöse Themen. Mit dem modernen Comic kamen zu den Werken mit Unterhaltungsfunktion oder politischer Intention auch wissensvermittelnde Sachcomics und Comic-Journalismus. Ein ebenfalls bedeutendes Genre des Comic ist der erotische Comic. Dabei ist die ganze Breite der erotischen Darstellungen vertreten; von romantisch, verklärten Geschichten über sinnlich anregende Werke bis hin zu pornografischen Inhalten mit den Darstellungen der verschiedensten Sexualpraktiken. Bedeutende Vertreter des Genres sind Eric Stanton, Milo Manara und Erich von Götha, aber auch der deutsche Zeichner Toni Greis. Verwandtschaft und Unterschiede zu anderen Medien Film Der Leser eines Comics fügt die Inhalte der einzelnen Panels zu einem Geschehen zusammen. Damit dies möglichst gut gelingt, werden auch Techniken verwendet, wie sie in der Filmkunst ähnlich vorkommen. Die einzelnen Panels zeigen Einstellungsgrößen wie Totale oder Halbnahe, es wird zwischen verschiedenen Perspektiven gewechselt. Fast alle Techniken der Filmkunst haben ihr Pendant im Comic, wobei im Comic durch den variablen Panelrahmen die Veränderung des Ausschnitts noch leichter fällt als im Film. So entspricht dem genannten Establishing Shot in vielen Comics ein „Eröffnungs-Panel“ bzw. ein Splash Panel, das die Szenerie zeigt. Die enge Verwandtschaft zeigt sich auch in der Erstellung von Storyboards während der Produktionsphase eines Films, die den Verlauf des Films und insbesondere die Kameraeinstellung in einem Comic skizzieren und dem Regisseur und Kameramann als Anregung oder Vorlage dienen. Der textliche Entwurf eines Comics, geschrieben vom Autor, wird „Skript“ genannt und dient dem Zeichner als Grundlage für seine Arbeit. Während die durch die Gutter-Struktur vorgegebenen „Informationslücken“ im (skizzenhaften) Film-Storyboard vernachlässigt und im späteren Produkt durch filmische Mittel geschlossen werden können, erfordern sie von Comic-Autoren eine erhöhte Aufmerksamkeit, damit beim endgültigen Produkt ein flüssiges Leseverstehen seitens der Leserschaft gewährleistet ist. Im Unterschied zum Film erfordert der Comic jedoch das Ausfüllen der Lücken zwischen den Panels. Denn anders als im Film, wo sowohl eine Änderung der Perspektive durch Kameraschwenk und/oder Zoom als auch Bewegungsabläufe von Personen und Objekten innerhalb einer Einstellung vermittelt werden können, kann dies im Comic innerhalb eines Panels allenfalls durch Bewegungslinien, einander in Bewegungsschemata überlagernde Bilder oder Panel im Panel angedeutet werden. Zwischen den Panels ergibt sich so zwangsläufig eine Informationslücke, die im Allgemeinen größer ist, als die zwischen Einstellung und Einstellung. Der Comic-Leser ist also im Vergleich zum Film-Zuschauer stärker gefordert, durch selbsttätiges Denken – „Induktion“; vgl. Induktion (Film) – einen dynamischen Ablauf aus statischen Bildern zu konstruieren. Auf diese Weise und auch wegen der in der Regel geringeren Zahl an Beteiligten an einem Werk ist die Beziehung zwischen Autor und Konsument im Comic intimer und aktiver als im Film. Ein weiterer Unterschied ist die Lese- bzw. Sehgeschwindigkeit sowie die Reihenfolge, in der die Bilder erfasst werden. Im Film ist dies vorgegeben, der Comicleser dagegen bestimmt diese frei, kann dabei aber vom Künstler geleitet werden. Ähnliches gilt für den Inhalt der Einzelbilder, dessen Wahrnehmung beim Film durch die Tiefenschärfe gelenkt wird und auf eine gleichzeitig laufende Handlung eingeschränkt. Im Comic dagegen sind in der Regel alle Teile des Bildes scharf dargestellt und es gibt die Möglichkeit, zwei parallele Handlungen, zum Beispiel Kommentare von Figuren im Hintergrund, in einem Bild darzustellen. Die stärkste Verwandtschaft der Medien Film und Comic zeigt sich im Fotocomic, da für diesen die einzelnen Bilder der Comicseite nicht gezeichnet, sondern wie beim Film mit einer Kamera produziert werden. Literatur Ähnlich wie bei der Vorstellung der Handlung in rein wortbasierten Literaturformen ist im Comic die aktive Mitwirkung des Lesers erforderlich. Im Unterschied zur reinen Textliteratur ist das Kopfkino beim Comic-Lesen in der Regel stärker visuell ausgeprägt, der Gebrauch bildlicher Mittel ist der bedeutendste Unterschied zwischen Comic und Textliteratur. Durch Gebrauch von Bildsymbolen wirkt der Comic unmittelbarer auf den Leser als die Erzählstimme der Prosa. Auch kann der Autor nicht nur durch die Wahl der Worte, sondern auch in den Bildern einen persönlichen Stil zeigen. Die Notwendigkeit, Textkohäsion durch grafische Mittel herzustellen, führt Scott McCloud als wichtiges Kriterium von Comics an. Aufgrund dieses Kriteriums sind Comics aus literaturwissenschaftlicher Perspektive eine Form von Literatur, obgleich sie dessen unbeschadet aus kunstwissenschaftlicher Sicht eine eigenständige Kunstform darstellen. Theater In der Bedeutung von markanten Posen, Symbolen und stilisierten Figuren weist der Comic Gemeinsamkeiten mit dem Theater auf, insbesondere mit dem Papiertheater. In beiden Medien soll der Rezipient die Figuren durch hervorgehobene Eigenschaften, in Gesicht oder dem Kostüm, wiedererkennen um dem Geschehen folgen zu können. Dabei werden durch Stereotypen bekannte Muster und Vorurteile angesprochen, die das Verständnis der Geschichte erleichtern oder erzählerischen Kniffen dienen. Auch die Darstellung des Handlungsortes durch einen einfachen aber prägnanten Hintergrund bzw. ein Bühnenbild ist in beiden Medien wichtig. Einige Techniken des Theaters zur Vermittlung von Raumtiefe und Dreidimensionalität, so die Überlagerung von Figuren aus dem Papiertheater, die Fluchtperspektiven des Theaters der Renaissance oder das Ansteigen des Bühnenbodens nach hinten, wurden vom Comic adaptiert. Während im Theater jedoch, eingeschränkt auch im Papiertheater, Bewegung direkt dargestellt werden kann, ist der Comic auf die Verwendung von Symbolen und die Abbildung von mehreren Bewegungsphasen angewiesen. Ähnlich verhält es sich mit Geräuschen und Sprache. Im Comic fällt es dagegen leichter, parallele Handlungen, Ort- und Zeitsprünge abzubilden. Bildende Kunst Da der Comic sich der Mittel der bildenden Kunst zur Darstellung des Handlungsablaufs bedient, gibt es einige Schnittmengen zwischen beiden Kunstformen. So ist in beiden die Wahl von Bildausschnitt, Perspektive und dargestelltem Moment bzw. Pose bedeutsam. Der richtig gewählte „fruchtbare Moment“ lässt ein Bild lebendiger, überzeugender wirken und unterstützt im Comic den Lesefluss. Methoden zur Darstellung von Bewegung, die Künstler des Futurismus erkundet haben, fanden später Anwendung im Comic. Öffentliche Wahrnehmung In der Anfangszeit des modernen Comic wurde das Medium als Unterhaltung für die ganze Familie verstanden. Auch ernsthafte Künstler wie Lyonel Feininger beschäftigten sich mit dem Comic und Pablo Picasso war begeistert vom Strip Krazy Kat. Erst mit der von den Vertrieben vorgeschriebenen Beschränkung der Strips auf simple Gags und der Etablierung des Fernsehens als vorherrschendes Familienunterhaltungmedium wandelt sich die Wahrnehmung der Comics in den USA. Zunehmend wurde Comics der Vorwurf gemacht, sie übten auf jugendliche Leser einen verrohenden Einfluss aus, der zu einer oberflächlichen, klischeehaften Wahrnehmung ihrer Umwelt führe. Ein Artikel von Sterling North, in dem erstmals auf die vermeintliche Gefahr durch Comics aufmerksam gemacht wurde, leitete 1940 in den USA landesweit eine erste Kampagne gegen Comics ein. Höhepunkt waren die Bemühungen im Amerika der 1950er Jahre, Horror- und Crime-Comics wie Geschichten aus der Gruft vom Verlag EC Comics zu verbieten. 1954 veröffentlichte der Psychiater Fredric Wertham sein einflussreiches Buch Seduction of the Innocent, in dem er die schädliche Wirkung der Crime- und Horrorcomics auf Kinder und Jugendliche nachzuweisen suchte. Einer Studie von 2012 gemäß sind zahlreiche der Forschungsergebnisse in Werthams Buch durch den Autor bewusst manipuliert oder sogar erfunden worden; in seiner Zeit wurde es jedoch breit rezipiert und wirkte sich nachhaltig auf die Produktion und das Verständnis von Comics aus. Es folgten Senatsanhörungen zum Problem der Comics, was zwar nicht zum generellen Comicverbot, aber zur Einführung des Comics Code führte, einer Selbstzensur der Comicindustrie. Die hier festgelegten Verpflichtungen wie das Verbot, Verbrecher in irgendeiner Weise sympathisch und ihre Handlungen nachvollziehbar erscheinen zu lassen, führten zu einer erzählerischen Verflachung der Comics. Die Wahrnehmung der Comics beschränkte sich danach im englischen Sprachraum lange Zeit auf Genres wie den Superhelden-Comic oder Funny Animal. In Deutschland kam es in den 1950er Jahren zu einer ähnlich gearteten, sogenannten „Schmutz-und-Schund“-Kampagne. In dieser wurden Comics pauschal als Ursache für Unbildung und Verdummung der Jugend, als „Gift“, „süchtig machendes Opium“ und „Volksseuche“ bezeichnet. Auf dem Höhepunkt der Kampagne wurden Comics öffentlichkeitswirksam verbrannt und vergraben. Die Forderungen der Kritiker waren ähnlich wie in den Vereinigten Staaten und gingen bis zu einem generellen Verbot von Comics. Dies wurde jedoch nicht erfüllt, der Bundesgerichtshof forderte eine konkrete Prüfung der einzelnen Darstellung. Die dafür neu gegründete Bundesprüfstelle für jugendgefährdende Schriften indizierte schließlich deutlich weniger Werke, als von den Kritikern gewünscht. Ebenso wie in den USA wurde in Deutschland eine Freiwillige Selbstkontrolle (FSS) gegründet, die Comics auf sittliche Verstöße und Gewalt prüfte und mit einem Prüfsiegel versah. Ähnliche Initiativen und Entwicklungen gab es auch in anderen europäischen Ländern. In der Folge galten Comics, insbesondere in Deutschland, seit den frühen 1950er Jahren als Inbegriff der Schundliteratur. Langfristige Folge war, so urteilt Bernd Dolle-Weinkauff 1990, nicht die Verdrängung der Comics, sondern die Abschreckung von Autoren, Zeichnern und Verlagen mit qualitativem Anspruch, sodass „die Produktion von Schund […] kräftig gefördert“ wurde. Die Wahrnehmung von Comics wurde im Nachgang der „Schmutz-und-Schund“-Kampagne geteilt – Bilderfolgen von Dürer bis Masereel wurden als Hochkultur anerkannt, ebenso einige Werke des frühen modernen Comics, darunter Wilhelm Busch. Die als Massenmedien verbreiteten Werke des 20. Jahrhunderts wurde als Unterhaltende, minderwertige Kunst gesehen. Seit den 1970er Jahren schwächte sich dies ab, da zum einen Populärkultur allgemein immer weniger pauschal abgewertet wird und Einfluss auf anerkannte Hochkunst nahm, zum anderen haben Werke wie Art Spiegelmans Maus – Die Geschichte eines Überlebenden die öffentliche Sicht auf Comics verändert. Seitdem findet beispielsweise auch in Feuilletons die Rezension von Comics statt. Das Schweizerische Jugendschriftenwerk titelte in der Ausgabe 4/1987 einem Artikel Vom Schund zum Schulmittel von Claudia Scherrer. Mit den Worten „Das Medium Comic ist so salonfähig geworden, daß selbst das Schweizerische Jugendschriftenwerk SJW Bildgeschichten ins Programm aufgenommen hat – dies, obwohl“ [sic] „das SJW zum Schutz der Jugend gegen Schundliteratur gegründet worden war“ empfahl es auch Werke anderer Verlage. Auch in Deutschland und Österreich sind Comics seit den 1970er Jahren unterrichtsrelevant, sowohl als Thema im Deutsch-, Kunst- oder Sozialkundeunterricht als auch als Unterrichtsmittel in anderen Fächern. Kritik am Inhalt von Comics seit den 1960er Jahren bezieht sich oft auf wiederholende, nur wenig variierte Motive, wie sie insbesondere in den Abenteuer-Genres üblich sind (Western, Science-Fiction, Fantasy). Dem Leser werde eine einfache Welt geboten, in der er sich mit dem Guten identifiziere und mit diesem einen (Teil-)Sieg erringe. Dem wird entgegnet, dass der Reiz für den Leser gerade darin liege, dass er in Geschichten mit solchen Motiven aus seiner komplexen aber erlebnisarmen Alltagswelt ausbrechen könne. Einen vergleichbaren Zugang und Reiz wie die Abenteuer-Genres böten die älteren Märchen. Wiederholende Themen und Strukturen böten einen einfachen Einstieg in die Unterhaltungslektüre. Schließlich bevorzuge der Leser dabei Geschichten, die nicht zu weit von seinen Erwartungen abweichen, was Künstler und Verlage, die eine breite Leserschaft erreichen wollen, zu einer gewissen Konformität zwingt. Dies wirkt aber bei anderen Medien der Popkultur, wie Film und Fernsehen, ähnlich. Dennoch entwickeln sich die Motive bei gesellschaftlichen Änderungen weiter und nehmen an diesen teil. Beispielsweise zeigt sich das an der Entwicklung der Superheldencomics, in denen mit der Zeit auch Themen wie Gleichberechtigung und soziales Engagement Einzug hielten. Inhaltliche Kritik gab es außerdem an Comics, in den 1970er Jahren vor allem Disney-Geschichten, in denen die Vermittlung imperialistischer, kapitalistischer oder anderer Ideologie vermutet wurde. Es gab aber auch widersprechende Interpretationen; so kann die Figur des Dagobert Duck als Verniedlichung des Kapitalismus, aber auch als Satire mit dem Stilmittel Übertreibung gelesen werden. Sowohl bei der Flucht des Lesers aus dem Alltag in eine Fantasiewelt, bei der negative Auswirkungen auf Leben und Wahrnehmung des Lesers unterstellt werden, als auch der Furcht vor Ideologie, hängt die Sicht auf die jeweiligen Comic-Werke vor allem davon ab, welche Fähigkeiten zur Distanzierung und Interpretation dem Leser zugetraut werden. Es gibt auch viele Comics, die oft keine große Bekanntheit erreichen und sich inhaltlich jenseits der kritisierten Motive und Klischees bewegen. Besonders in den USA kam es immer wieder zu Auseinandersetzungen und Prozessen um Comics, die pornografisch waren oder so angesehen wurden, da Comics als Bücher nur für Kinder wahrgenommen wurden. In Deutschland blieben juristische Maßnahmen wie Beschlagnahmen von Comics die Ausnahme, Gerichte räumten der Kunstfreiheit in der Regel auch bei Comics einen höheren Rang ein als dem Jugendschutz. In Lexika wurden Comics meist abschätzig beurteilt. So befand noch die Brockhaus Enzyklopädie in ihrer 19. Auflage, Bd. 4 (1987), die meisten der Serien seien als triviale Massenzeichenware zu charakterisieren, als „auf Konsum angelegte Unterhaltung, die von Wiederholungen, von Klischees bestimmt wird und ihren Lesern kurzfristig Ablenkung von ihren Alltagsproblemen bietet“. Daneben gebe es aber auch ein Comic-Angebot, das sich künstlerischer Qualität verpflichtet fühle. In der Grande Encyclopédie Larousse von 1971 dagegen wurden Comics von dem französischen Schriftsteller Francis Lacassin als „neunte Kunst“ vorgestellt. Damit wurden sie salonfähig. Comicforschung Wissenschaftliche Schriften zu Comics erschienen ab den 1940er Jahren, standen dem Medium jedoch oft einseitig und undifferenziert kritisch gegenüber und setzten sich nicht mit den Funktionsweisen und Aspekten des Comics auseinander. In den USA erschien mit Martin Sheridans Comics and Their Creators 1942 das erste Buch, das sich dem Comic widmete. Es folgten zunächst Beschäftigungen mit der Geschichte der Comics und erste Schriften, die den Umfang an erschienenen Werken systematisch erschließen sollten. Comics wurden in Deutschland zunächst wegen der „Schmutz-und-Schund“-Kampagne der 1950er Jahre nur wenig wissenschaftlich beachtet. In bestimmten Kreisen der Literaturwissenschaft wurde dem Comic der Vorwurf der Sprachverarmung gemacht, was durch den häufigeren Gebrauch von unvollständigen Sätzen und umgangssprachlichen Ausdrücken in Comics gegenüber der Jugendliteratur nachgewiesen werden sollte. Dabei wurde missverstanden, dass der Text in den meisten Comics fast ausschließlich aus Dialogen besteht, und eine eher dem Kino und dem Theater als der Literatur vergleichbare Funktion besitzt. Die Kritik der Sprachverarmung kann auch aus dem Grunde als veraltet und ahistorisch bezeichnet werden, als die Verwendung von Umgangs- und Vulgärsprache in der Literatur schon lange kein Qualitätskriterium mehr darstellt. Eine ernsthaftere, kulturwissenschaftliche Beschäftigung begann in den 1960er Jahren zunächst in Frankreich, begonnen mit der Gründung des Centre d'Études des Littératures d'Expression Graphique (CELEG) 1962. Der Umfang der Veröffentlichungen nahm zu, neben der Geschichte wurden auch Genres, Gattungen, einzelne Werke und Künstler untersucht. Es erschienen lexikalische Werke über Comics, erste Ausstellungen fanden statt und Museen wurden gegründet. Bald geschah dies auch in anderen europäischen Ländern, Nordamerika und Japan. Mit der Zeit entstanden auch erste Studiengänge zu Comics. Die umfangreichere wissenschaftliche Auseinandersetzung mit Comics begann in den Vereinigten Staaten in den 1970er Jahren und beschränkte sich zunächst auf soziologische Gesichtspunkte. Unter dem Einfluss der 68er-Bewegung wurde der Comic dann zunächst unter dem Aspekt des Massenmediums oder der Massenzeichenware betrachtet und als solche definiert. Soziologisch und medienkritisch orientierte Betrachtungen waren daher zunächst vorherrschend, später kamen auch psychologische dazu, wie die Untersuchung der Auswirkung von Gewaltdarstellungen auf Kinder. Auch nachdem diese stärker eingeschränkte Definition bis spätestens in den 1990er Jahren zugunsten der heutigen verworfen wurde, bleibt die Betrachtung dieser Aspekte ein wichtiger Teil der Comicforschung- und theorie. Untersuchungen des Erzählens mit Comics fand zunächst mit Methoden statt, die für die Textliteratur entstanden und für den Comic angepasst wurden. In Berlin gründete sich mit der Interessengemeinschaft Comic Strip (INCOS) ein erster deutscher Verband zur Förderung der Comicforschung. 1981 folgte ihm der Interessenverband Comic, Cartoon, Illustration und Trickfilm (ICOM), der in seinen Anfangsjahren Veranstaltungen organisierte, darunter 1984 mit dem Comic-Salon Erlangen die bedeutendste deutsche Veranstaltung zu Comics, sowie Comicforschung unterstützt. So enthält das seit 2000 als Nachfolger des verbandseigenen Fachmagazins erscheinende COMIC!-Jahrbuch neben Interviews auch immer wieder Artikel zur Struktur und Entwicklung des Mediums. 2007 gründete sich die Gesellschaft für Comicforschung. Seit den 1970er Jahren erscheinen auch im deutschsprachigen Raum Fachmagazine und Fanzines zu Comics, darunter die Comixene, Comic Forum und RRAAH!. Auch Museen zeigten seitdem Ausstellungen zu Comics und die systematische Erfassung deutscher Werke begann. In der DDR fand dagegen nur wenig wissenschaftliche Beschäftigung mit Comics statt, diese war zudem auf die Abgrenzung von „kapitalistischem Comic“ und „sozialistischer Bildgeschichte“, das heißt die Produktionen der sozialistischen Länder, fokussiert. Gemeinsam mit der ersten Comicforschung begann in den 1970er Jahren die Diskussion, ob Comics eine eigene Kunstform darstellen. In den 1990er Jahren wurden Comics zunehmend als Kunst anerkannt und es erfolgte die Auseinandersetzung mit den Formen und der Semiotik des Comics, zu der auch Erzähltheorien des Comics entwickelt wurden. Auch empirische Untersuchungen des Leseverhaltens finden seitdem statt, jedoch oft motiviert durch die Verlage und mit Methoden, die in Zweifel gezogen werden. In der universitären Forschung etablierte sich die 1992 gegründete Arbeitsstelle für Graphische Literatur (ArGL) an der Universität Hamburg, darüber hinaus finden sporadisch Symposien und Tagungen statt. Siehe auch Liste von Comic-Künstlern aus dem deutschsprachigen Raum Literatur Bernd Dolle-Weinkauff: Comics. Geschichte einer populären Literaturform in Deutschland seit 1945. Beltz-Verlag, Weinheim 1990, ISBN 3-407-56521-6. Will Eisner: Comics & Sequential Art. Principles & Practice of the World’s Most Popular Art Form! Poorhouse Press, Tamarac FL 1985, ISBN 0-9614728-1-2. Wolfgang J. Fuchs, Reinhold C. Reitberger: Comics. Anatomie eines Massenmediums. (39.–43. Tausend). Rowohlt, Reinbek bei Hamburg 1977, ISBN 3-499-11594-8. Dietrich Grünewald: Comics. Niemeyer Verlag, Tübingen 2000, ISBN 3-484-37108-0. Harald Havas, Gerhard Habarta (Hrsg.): Comic Welten. Geschichte und Struktur der neunten Kunst. Edition Comic Forum 1992, ISBN 3-900390-61-4. Burkhard Ihme (Hrsg.): COMIC!-Jahrbuch. Interessenverband Comic e. V. ICOM, Stuttgart (erscheint seit 2000 jährlich), Alex Jakubowski (Autor), Sandra Mann (Fotos): Die Kunst des Comic-Sammelns, Edition Lammerhuber, Baden bei Wien, Juni 2015, ISBN 978-3-901753-80-0. – 15 Comicsammler aus Deutschland, Mallorca, Österreich geben Einblick in ihre Schätze. Andreas C. Knigge: Alles über Comics, Eine Entdeckungsreise von den Höhlenbildern bis zum Manga. Europa Verlag, Hamburg 2004, ISBN 3-203-79115-3. Andreas C. Knigge: Comics. Vom Massenblatt ins multimediale Abenteuer. Rowohlt, Reinbek 1996, ISBN 3-499-16519-8. Scott McCloud: Comics richtig lesen. (Die unsichtbare Kunst). 5. Auflage, veränderte Neuausgabe. Carlsen, Hamburg 2001, ISBN 3-551-74817-9. Eckart Sackmann (Hrsg.): Deutsche Comicforschung. comicplus+, Hildesheim und Leipzig 2004–2014 (erscheint jährlich), Achim Schnurrer, Riccardo Rinaldi: Die Kunst der Comics. Edition Aleph, Heroldsbach 1985, ISBN 3-923102-05-4. Weblinks ICOM – Interessenverband Comic, Interessenverband von Comiczeichnern, -verlegern und -lesern Lambiek Comiclopedia, Datenbank zu Comickünstlern und -autoren (englisch) Grand Comic Book Database (GCD), Datenbank zu gedruckt veröffentlichten Comics (englisch) Bonn Online Bibliography of Comics Research (BOBC), Datenbank zur internationalen Comicforschung (deutsch, englisch) Comicguide, Onlineportal zu deutschsprachigen Comics Podcast mit Dietrich Grünewald: Comic – das Zusammenspiel von Wort und Bild. 27. August 2013 (3:58 Minuten; zur Geschichte von Comics mit dem Vorsitzenden der Gesellschaft für Comicforschung). Eckart Sackmann: Comic. Kommentierte Definition Einzelnachweise Gattung der bildenden Kunst
981
https://de.wikipedia.org/wiki/Cosinus%20%28Begriffskl%C3%A4rung%29
Cosinus (Begriffsklärung)
Cosinus steht für Cosinus, eine mathematische Funktion, siehe Sinus und Kosinus Cosinus, Pseudonym des niederländischer Schriftstellers Johan Adriaan Heuff (1843–1910) COSINUS (Akronym für Cryogenic Observatory for SIgnatures seen in Next-generation Underground Searches), ein Forschungsprogramm zum Nachweis von Dunkler Materie, siehe Dunkle Materie #Nachweis durch korrelierte Phonon/Photon-Detektierung
983
https://de.wikipedia.org/wiki/Compact%20Disc
Compact Disc
Die (kurz CD, für kompakte Scheibe) ist ein optischer Datenträger, der Anfang der 1980er Jahre als erster digitaler Tonträger von Philips/PolyGram und Sony in Zusammenarbeit mit dem Chemiekonzern Bayer eingeführt wurde und die Kassette ablösen sollte. Von den späten 1990er Jahren bis in die früheren 2010er Jahre war die Compact Disc einer der meistgenutzten Audio- und Datenträger. Später wurde sie durch DVDs, USB-Sticks, MP3-Player und Cloudspeicher zunehmend abgelöst. Bei Einführung einfach als CD bezeichnet, kamen mit jeder weiteren Nutzungsmöglichkeit neue Bezeichnungen hinzu (z. B.: CD-ROM, VCD, CD-i), wobei dem originären Tonträger die Bezeichnung Audio-CD zugeteilt wurde. Wegen der immer weniger gesellschaftstauglichen Menge an einzelnen Bezeichnungen setzte sich mit der Zeit die einfache Urbezeichnung CD endgültig für alle Formate durch. Geschichte Herstellung CDs bestehen aus Polycarbonat sowie einer dünnen Metallschicht (z. B. Aluminiumbedampfung) mit Schutzlack und Druckfarben. Sie werden – im Gegensatz zu Schallplatten – nicht gepresst, sondern in Spritzgussmaschinen in Form auf die Vater-Matrize gespritzt. Die Anlagen zur Herstellung optischer Datenträger werden dennoch Presswerk genannt. Funktionsweise Die Informationen der CD, das sogenannte „Programm“, sind auf einer spiralförmig nach außen verlaufenden Spur angeordnet; sie belegen maximal 85 % der CD-Gesamtfläche. Der Programmbereich reflektiert Licht mit deutlichen Farberscheinungen wegen seiner Mikrostruktur, den Pits. Länge und Abstand dieser kleinen Vertiefungen bilden einen seriellen digitalen Code, der die gespeicherte Information repräsentiert. Auf einer Audio-CD können maximal 99 Musiktitel gespeichert werden; dazu hat jede Scheibe ein Inhaltsverzeichnis (TOC, table of contents) und einen der Information eingelagerten Zeitcode. Texteinblendungen und weitergehende Informationen können optional aufgebracht werden. Die Abtastung der CD erfolgt kontaktlos über einen der Spur nachgeführten Laser-Interferenzdetektor von der spiegelnden Unterseite her. Die Geschwindigkeit, mit der die Daten eingelesen werden, hängt von der Drehzahl der CD ab; diese wird traditionellerweise so geregelt, dass eine vorgegebene Datenrate eingehalten wird. Die Datenspur hat eine konstante Bahngeschwindigkeit (engl. constant linear velocity, CLV). Dadurch ergibt sich bei nach außen fahrendem Abtastsystem eine Drosselung der Drehzahl. Bei Verfahren ähnlich der Analogschallplatte spricht man hingegen von konstanter Winkelgeschwindigkeit (CAV). Aufbau einer CD Bei einer CD werden Daten mit Hilfe einer von innen nach außen laufenden Spiralspur gespeichert (also umgekehrt als bei der Schallplatte). Die Spiralspur besteht aus Pits (Gruben) und Lands (Flächen), die auf dem Polycarbonat aufgebracht sind. Die Pits haben eine Länge von 0,833 bis 3,054 µm und eine Breite von 0,5 µm. Die Spiralspur hat etwa eine Länge von sechs Kilometern. Je nachdem, wie die CD erstellt wird, entstehen die Pits. Bei der industriellen Herstellung werden zunächst auf photochemischem Wege ein Glas-Master und darauf dann auf galvanischem Wege ein oder auch mehrere Stamper (Negativ) gefertigt. Anschließend wird damit in Presswerken per Spritzverfahren eine Polycarbonatscheibe geprägt und die Reflexions- und Schutzschicht angefügt. Eine CD besteht demnach zum größten Teil aus Polycarbonat. Die Reflexionsschicht darüber besteht aus einer im Vakuum aufgedampften Aluminiumschicht. Zwischen dem Aufdruck (Grafik und Text) und der Aluminiumschicht (Dicke der Reflexionsschicht: 50 bis 100 nm) befindet sich noch eine Schutzlackschicht, um das Aluminium vor äußeren Einflüssen zu schützen. Der Abschluss ist der Aufdruck, der mit dem Siebdruckverfahren (bis zu sechs Farben) aufgebracht wird. Alternativ kann hier auch das Offsetdruckverfahren eingesetzt werden. Datenrate einer CD Der Datenstrom einer Audio-CD hat, wenn er dekodiert ist, eine Daten­übertragungs­rate von 176,4 kB/s. Bei üblichen Daten-CDs ist durch eine weitere Fehlerkorrektur-Ebene die Blockgröße geringer als bei Audio-CDs (2048 statt 2352 Bytes); daraus folgt bei gleicher Blockrate (75 pro Sekunde) eine Daten­übertragungs­rate von 153,6 kB/s. Diese Daten­übertragungs­rate wird als einfache Geschwindigkeit bezeichnet. Die Geschwindigkeits­angaben bei CD-ROM-Laufwerken sind Vielfache dieser Daten­übertragungs­rate; siehe dazu auch nebenstehende Tabelle Daten­übertragungs­raten von CD-Laufwerken. Daten-CDs können aufgrund der zusätzlichen Fehlerkorrektur-Ebene je nach verwendetem Laufwerk mit höheren Daten­übertragungs­raten gelesen werden, so dass viele Laufwerke ihre angegebene Geschwindigkeit nur bei Daten-CDs erreichen, mit Audio-CDs dagegen langsamer arbeiten. CD-RW (Compact disc rewritable) Ein CD-RW-Medium besitzt im Prinzip die gleichen Schichten wie ein CD-R-Medium. Die reflektierende Schicht ist jedoch eine Silber-Indium-Antimon-Tellur-Legierung, die im ursprünglichen Zustand eine polykristalline Struktur und reflektierende Eigenschaften besitzt. Beim Schreiben benutzt der Schreibstrahl seine maximale Leistung und erhitzt das Material punktuell auf 500 bis 700 °C. Das führt zu einer Verflüssigung des Materials. In diesem Zustand verliert die Legierung ihre polykristalline Struktur, nimmt einen amorphen Zustand an und verliert ihre Reflexionskraft. Der polykristalline Zustand des Datenträgers bildet die Gräben, der amorphe die Erhebungen. Das Abtastsignal beim Auslesen entsteht also nicht durch Auslöschung oder Verstärkung des Laser-Lichtes durch Überlagerung des reflektierten Lichtes mit dem ausgesendeten wie bei gepressten CDs (Interferenz), sondern wie bei beschreibbaren CDs durch gegebene oder nicht gegebene (bzw. schwächere) Reflexion des Laserstrahls. Zum Löschen des Datenträgers erhitzt der Schreibstrahl die – nur metastabilen – amorphen Bereiche mit niedriger Leistung auf etwa 200 °C. Die Legierung wird nicht verflüssigt, kehrt aber in den polykristallinen Zustand zurück und wird damit wieder reflexionsfähig. Lesevorgang Das Abtasten einer CD erfolgt mittels einer Laserdiode (Wellenlänge 780 nm), wobei die CD von unten gelesen wird. Der Laserstrahl wird an der CD reflektiert und mit einem halbdurchlässigen Spiegel in eine Anordnung mehrerer Fotodioden gebündelt. Die Fotodioden registrieren Schwankungen in der Helligkeit. Die Helligkeitsschwankungen entstehen teilweise aufgrund von destruktiver Interferenz des Laserstrahls mit sich selbst: Der Fokus des Laserstrahls ist etwa zwei- bis dreimal so groß wie die Breite eines Pits. Wird gerade ein Pit ausgelesen, dann wird der Laserstrahl teilweise vom Pit und teilweise vom umliegenden Land reflektiert. Dann kommen zwei Teilwellen zurück, die einen leicht unterschiedlichen Laufweg haben. Der Höhenunterschied zwischen Pit und Land ist so gewählt, dass der Laufzeitunterschied etwa eine halbe Wellenlänge beträgt (siehe auch Abschnitt „Funktionsweise“), so dass wegen destruktiver Interferenz die Intensität des reflektierten Lichts abnimmt. Zusätzlich wird bei den Pits ein Teil des Lichtes an dessen Kanten weggestreut. Die Fotodioden registrieren also auf den Pits eine reduzierte Helligkeit. Da die CDs von der Oberseite gepresst werden, sind die Pits (Vertiefungen) von der Unterseite her als Hügel zu erkennen. Durch eine spezielle Lichtführung auf die Fotodioden, beispielsweise durch einen Astigmaten auf eine quadratische Anordnung von vier Fotodioden, können durch Differenzbildung der Signale unterschiedlicher Fotodioden neben dem Nutzsignal (Summe aller Signale) auch Stellgrößen für die Spurführung und den Fokus (richtigen Abstand zwischen CD und Leseoptik) ermittelt werden. Die Optik mit dem Laser bewegt sich beim Abspielen vom ersten zum letzten Track – im Gegensatz zur Schallplatte – von innen nach außen. Außerdem hat die CD keine feste Winkelgeschwindigkeit (Umdrehungszahl); diese wird der momentanen Position des Lesekopfs angepasst, so dass die Bahngeschwindigkeit (CLV) und nicht, wie bei der Schallplatte, die Winkelgeschwindigkeit (CAV) konstant ist. Wenn der Lesekopf weiter außen auf der CD liest, wird die CD also langsamer gedreht. Auf diese Weise kann überall auf der CD mit voller Aufzeichnungsdichte gearbeitet werden, und es ist ein konstanter Datenstrom gewährleistet, wie er bei Audio-CDs benötigt wird. Im Red Book sind zwei verschiedene Geschwindigkeiten festgelegt, 1,2 m/s und 1,4 m/s. Somit sind entsprechend Spielzeiten von 74:41 Min. bzw. 64:01 Min., unter maximaler Ausnutzung aller Toleranzen 80:29 Min., möglich. Das entspricht einer Umdrehungsgeschwindigkeit von über 500 min−1 am Anfang der CD (innere Spuren bei 1,4 m/s) bis unter 200 min−1 am Außenrand der CD bei 1,2 m/s. Die Umdrehungsgeschwindigkeit wird durch einen Regelkreis anhand des Füllstandes eines FIFO-Puffers geregelt. Daher muss keine Umschaltung (weder manuell noch automatisch) je nach benutzter Linear-Geschwindigkeit erfolgen. Durch den genannten Puffer wirken sich Schwankungen der Drehzahl nicht auf die Wiedergabegeschwindigkeit aus. Viele moderne CD-ROM-Laufwerke, ab etwa 32-facher Lesegeschwindigkeit, lesen Daten-CDs hingegen mit konstanter Umdrehungsgeschwindigkeit, um das zeitraubende Beschleunigen und Abbremsen der CD beim Hin- und Herspringen der Leseposition (aufgrund des notwendigen wahlfreien Zugriffs) zu vermeiden. Dadurch hängt bei Daten-CDs die Datenrate von der Position des Lesekopfes, also letztlich der Position auf der CD, ab. Die auf der Verpackung angegebene Geschwindigkeit ist üblicherweise die maximale, nicht die durchschnittliche. Durch die mechanische Festigkeit der CD sind der Steigerung der Lesegeschwindigkeit durch Erhöhung der Umdrehungsgeschwindigkeit Grenzen gesetzt. Sogenannte „52-fach“-Laufwerke drehen die CD mit bis zu 10.000 min−1. Bei diesen Drehzahlen führen selbst kleinste Unwuchten der CD zu starken Vibrationen, die einerseits deutlich hörbar sind und zum anderen auf Dauer sowohl Laufwerk als auch Medium beschädigen können. Datenkodierung Zur Aufzeichnung der Nutzdaten auf der CD müssen diese mit einer passenden Kanalkodierung (genauer: Leitungskodierung) kodiert werden, die den Eigenheiten des Speichermediums (hier also der optischen Abtastung und der Form und Größe der Pits) Rechnung tragen muss. Bei der CD ist das die sogenannte Eight-to-Fourteen-Modulation (EFM). Wenn sich die CD mit der richtigen Geschwindigkeit dreht, kommen die Kanalbits vom optischen Abtaster mit einer Frequenz von exakt 4,3218 Mbit/s, entsprechend einer Bitdauer von 231,385... ns. Die EFM stellt sicher, dass sich nach minimal 3 und nach maximal 11 Kanalbits die Polarität des ausgelesenen Signals ändert, dass also nach einer Eins zwei bis zehn Nullen im differenzierten Signal folgen. Das geschieht, wenn der Laser in der Spur einen Übergang von einer Vertiefung (pit) zu einem Abschnitt ohne Vertiefung (land) passiert oder umgekehrt. Der Hintergrund ist folgender: Die Abschnitte mit Vertiefungen bzw. ohne Vertiefungen müssen lang genug sein, damit der Laser die Veränderung erkennen kann. Würde man ein Bitmuster direkt auf den Datenträger schreiben, würden bei einem alternierenden Signal (1010101010101010…) falsche Werte ausgelesen, da der Laser den Übergang von 1 nach 0 beziehungsweise von 0 nach 1 nicht verlässlich auslesen könnte bzw. diese Übergänge gar nicht erst in der notwendigen Feinheit in Kunststoff ‚gepresst‘ werden könnten. Somit ermöglicht die EFM die hohe Datenrate. Das klingt zunächst widersprüchlich, da sie das Signal von 8 auf 14 Bit aufbläht, also rechnerisch die Datenmenge erhöht. Hinzu kommen noch weitere 3 Füllbits (Merging Bits), die so gewählt werden, dass die oben erwähnte Forderung, dass sich alle 3 bis 11 Bitdauern die Polarität ändert, auch zwischen den 14-Bit-Symbolen erfüllt wird. Aber durch diese Modulation kann die Datenrate so hoch gewählt werden, dass unmodulierte Daten gar nicht mehr in pits und land aufgelöst werden könnten; ein pit kann nicht kürzer sein als seine Breite (600 nm), trotzdem kann die Länge auch in Bruchteilen der eigenen Breite (ca. 278 nm bei 1,2 m/s) variieren – diese Tatsache wird durch die Kodierung ausgenutzt. Sie ist mithin eine Designentscheidung, die (unter anderen) für die Spieldauer verantwortlich ist. Weiterhin wird durch die Kodierung dafür gesorgt, dass das Signal der Fotodioden keinen Gleichanteil enthält; dadurch wird die Signalverarbeitung wesentlich vereinfacht. Fehlerkorrektur und -verdeckung Damit sich Kratzer und Produktionsfehler nicht negativ auf die Lesbarkeit der Daten auswirken, sind die Daten mittels Reed-Solomon-Fehlerkorrektur gesichert, so dass Bitfehler erkannt und korrigiert werden können. Weiterhin sind aufeinanderfolgende Datenbytes per Interleaving auf eine größere Länge verteilt. Der Cross Interleaved Reed-Solomon-Code (CIRC) ist dadurch in der Lage, einen Fehler von bis zu 3500 Bit (das entspricht einer Spurlänge von etwa 2,4 mm) zu korrigieren und Fehler von bis zu 12000 Bit (etwa 8,5 mm Spurlänge) bei der Audio-CD zu verdecken. Bei der Verdeckung wird der Fehler nicht korrigiert, sondern es wird versucht, ihn unhörbar zu machen, zum Beispiel über eine Interpolation. Falls der Datenträger von der Unterseite sehr stark verkratzt ist, ist er nur eingeschränkt oder nicht mehr lesbar. Man unterscheidet zwischen C1- und C2-Fehlern. C1-Fehler geben singuläre Einzelfehler an (beispielsweise kleine Kratzer), C2 größere Blockfehler, welche von der ersten Korrekturstufe nicht mehr korrigiert werden konnten. Die Fehler vom Typ C1 können nur von wenigen Laufwerken gemeldet werden, zum Beispiel von auf Plextor oder Lite-On basierenden mit spezieller Software (Cdrtools, Plextools, k-probe, Nero DiscSpeed und QPxTool). C2-Fehler können von den meisten Laufwerken bestimmt werden, und es gibt Software für sogenannte C2-Scans, zum Beispiel readcd, Nero CD-Speed oder CD-Doctor. Informationen, die sich aus C1- oder C2-Fehlern ableiten lassen, geben Auskunft über den Zustand der optischen Datenträger (beeinflusst durch Alterung, Kratzer etc.), über die prinzipielle Lese- oder Brennqualität eines optischen Laufwerks in Abhängigkeit von der Geschwindigkeit (beispielsweise über eine C2-Statistik vieler Medien) und über die Qualität von frisch gebrannten Medien für eine langfristige Datenspeicherung (große C1-/C2-Werte nach dem Brennen weisen auf eine nur begrenzte langfristige Datensicherheit hin). Ein Problem ist, dass sich die Fehlerursachen nur schwer oder gar nicht trennen lassen. So kann beispielsweise ein Rohlingstyp, der mit einem spezifischen Brenner schlechte Werte erzielt, mit einem anderen Brenner-Typ trotzdem gute Ergebnisse erreichen. Außerdem lassen sich die C2-Informationen verwenden, um beim Übertragen von Audiomaterial auf einen Computer auf die Güte zu schließen, mit der Audiodaten von CD ausgelesen wurden. Dadurch können kritische Stellen ggf. erneut gelesen werden bzw. andersherum das erneute Lesen auf die kritischen Stellen eingeschränkt werden. Bei der Interpretation für Medien gilt, dass neue CDs maximal 250 C1-Fehler pro Sekunde und keine C2-Fehler aufweisen sollten. Ein häufiges Auftreten von C2-Fehlern kann ein Indikator für eine fortschreitende Alterung des Mediums darstellen. Zur Datensicherung empfiehlt sich ein Umkopieren auf ein neues Medium. Eine solche Datensicherung sollte auch sofort nach dem Kauf von Medien erfolgen, die mit einem „Kopierschutz“-Mechanismus ausgestattet sind („Un-CDs“), da diese meist absichtlich mit weit über 250 C1-Fehlern pro Sekunde produziert werden und daher schon eine geringe Menge sonst harmloser Kratzer solche Medien unlesbar machen kann. Ferner ist die Verwendung eines Reparatursprays oder von Schleif- und Poliergeräten möglich, um eine beschädigte CD oder DVD zu retten. Zufriedenstellende Ergebnisse können jedoch nicht in jedem Fall garantiert werden. CD-Formate Physische Formate CDs gibt es in zwei verschiedenen Größen, am weitesten verbreitet ist die Version mit einem Durchmesser von 120 mm und 15 Gramm Gewicht, seltener die Mini-CD mit einem Durchmesser von 80 mm und 30 % der Speicherkapazität bei einem Gewicht von 6,7 Gramm. Daneben gibt es auch CDs, die eine andere Form als eine runde Scheibe haben. Diese sogenannten Shape-CDs fanden aber aufgrund von Abspielproblemen (Unwucht, kein Einzug in Slot-Laufwerke) nur eine geringe Verbreitung. Die ersten CD-Verpackungen erlaubten die Beilage eines Booklets. Das Jewelcase genannte Format war 142 mm breit, 125 mm hoch und 10 mm dick. Weitere gängige Verpackungstypen leiteten sich davon ab. Übliche Größen Die Format-Spezifikationen der Audio-CD (kurz CD-DA), bekannt als „Red Book“-Standard, wurde von dem niederländischen Elektronikunternehmen Philips entworfen. Philips besitzt auch das Recht der Lizenzierung des „Compact Disc Digital Audio“-Logos. Die Musikinformationen werden in 16-Bit-Stereo (Quantisierung mit 216 = 65.536 Stufen) und einer Abtastrate von 44,1 Kilohertz gespeichert. Die Spezifikationen der CD-ROM sind im „Yellow Book“-Standard festgelegt. Ein plattformübergreifendes Dateisystem der CD-ROM wurde von der ISO im Standard ISO 9660 festgeschrieben. Sein Nachfolger lautet UDF. Es gibt verschiedene Möglichkeiten, Audio-CD-Inhalte und CD-ROM-Inhalte auf einer Scheibe zu kombinieren. Die einfachste Möglichkeit ist, einen Datentrack mit dem CD-ROM-Inhalt als ersten Track auf die CD zu bringen (Mixed Mode CD, von einigen Herstellern auch Enhanced CD genannt). Dem inzwischen praktisch nichtigen Vorteil, dass der CD-ROM-Teil auch in ausschließlich Single-Session-fähigen CD-ROM-Laufwerken gelesen werden kann, steht der vergleichsweise große Nachteil der Sichtbarkeit dieses Datentracks für normale Audio-CD-Spieler entgegen, insbesondere da manche ältere CD-Spieler die CD-ROM-Daten fälschlich als Audio-Daten interpretieren. Die unbeabsichtigte Wiedergabe der Nicht-Audio-Daten führt im Ergebnis je nach Lautstärke zu ohrenbetäubendem und die Lautsprecher gefährdenden Krach. Als Weiterentwicklung wurde der Datentrack mit einer Index-Position von 0 versehen, wodurch dieser nicht ohne Weiteres vom CD-Spieler angefahren wird (i-Trax). Das Audiomaterial beginnt, wie bei einfachen Audio-CDs, an Index-Position 1 von Track 1. (Problematisch für die Abspielkompatibilität könnte die Tatsache sein, dass innerhalb des Tracks der Modus von CD-ROM Mode 1 auf Audio wechselt.) Inzwischen werden zu diesem Zwecke praktisch ausschließlich Multisession-CDs benutzt – die Audio-Daten liegen in der ersten Session, während die CD-ROM-Daten in einer zweiten Session enthalten sind, die nicht von Audio-CD-Spielern gelesen wird (CD-Extra, CD-Plus). Natürlich wird für den CD-ROM-Teil ein multisessionfähiges CD-ROM-Laufwerk benötigt. Eine Mischform ist die CD+G (CD+Graphics). Diese CD stellt zeitgleich zur Musik grafische Daten, wie beispielsweise den Liedtext, auf einem Bildschirm dar. Häufigste Anwendung dieses Formats ist Karaoke. In einem normalen CD-Spieler ist die CD+G als normale Audio-CD abspielbar. Auf speziellen Geräten (in jüngerer Zeit auch auf einigen DVD-Spielern) ist zur Musik auch die Grafik auf dem Bildschirm sichtbar. Die zusätzlichen Daten sind im Subcode der CD gespeichert, d. h., sie sind im Gegensatz zum Inhalt von Datentracks nicht ohne weiteres für ein Betriebssystem sichtbar. Deutlich häufiger anzutreffen sind dagegen CDs mit CD-Text. Dabei werden im Subcode der CD (meistens im Lead-in) zusätzliche Informationen gespeichert, beispielsweise Titel und Künstler. Diese Informationen werden dann von geeigneten Geräten während des Abspielens der CD angezeigt. Weitere CD-Formate sind: CD-i CDTV Kodak Photo CD Kodak Picture CD Fujicolor CD ImageCD Video-CD Daneben gibt es noch sogenannte HDCD-CDs. Diese sind mit echten 20-Bit-Musik-Information kodiert (anstatt mit 16) und sollen in Verbindung mit entsprechenden CD-Playern besser klingen. HDCD-CDs sind vollständig kompatibel mit „normalen“ CD-Spielern. Weiterentwicklungen der CD sind die DVD-Audio und die Super Audio Compact Disc (SACD). DVD-Medien bieten wesentlich größere Speicherkapazitäten von 4,7 (eine Schicht) bis 8,5 Gigabyte (zwei Schichten). Der Hauptvorteil ist dabei nicht eine längere Spielzeit, sondern dass die Audiodaten im 5.1-Soundformat vorliegen. Während die Super-Audio-CD und DVD-Audio ausschließlich für Audiodaten verwendet werden, sind bei der DVD verschiedene Datenarten möglich (DVD Data, DVD-Video, DVD-Audio, DVD-ROM, DVD+/-R(W)). Allerdings hat sich die DVD im Audiobereich nicht durchgesetzt. Eine von Sony weiterentwickelte Variante der CD war die Double Density Compact Disc (DDCD). Die Speicherkapazität beträgt das Doppelte der Speicherkapazität der 640-MB-CD. Sie war in zwei Varianten erhältlich (eine beschreibbare DDCD-R und eine wiederbeschreibbare DDCD-RW), konnte sich jedoch nicht gegen die DVD durchsetzen. Eine weitere von Sony entwickelte Variante ist die Blu-spec CD, die 2008 im Markt eingeführt wurde. Das CD-Videoformat ist (im Gegensatz zur Video-CD) keine Compact Disc, sondern eine LV/LD (Bildplatte) mit analogen Videodaten und digitalen Audio-Daten. Kopierschutz Die CD-Standards sehen keinen Kopierschutz vor, da zur Zeit ihrer Festlegung Anfang der 1980er Jahre noch nicht absehbar war, dass in näherer Zukunft beschreibbare digitale Speichermedien mit der nötigen Datenkapazität für den Endverbraucher erschwinglich sein würden – das Kopieren wurde also einfach dadurch verhindert, dass es nichts gab, wohin die Daten realistischerweise kopiert werden konnten. Es blieb nur die qualitativ schlechtere und nicht beliebig wiederholbare Analogkopie auf Audiokassetten, die ebenso wie bei Schallplatten in Kauf genommen wurde. Das Aufkommen von CD-Brennern, hochkapazitiven Festplatten, Kompressionsverfahren wie etwa MP3 und Internet-Tauschbörsen in den 1990er Jahren hat diese Situation entscheidend geändert. Seit dem Jahr 2001 werden in Deutschland auch Medien verkauft, die einen Kopierschutz enthalten, der das digitale Auslesen der Audiodaten (und damit das Kopieren der Daten) verhindern soll. Sie wurden zwar teils ebenfalls als Audio-CD bezeichnet, entsprechen aber nicht den Bestimmungen des Red Book und sind daher in diesem Sinne keine echten Audio-CDs. Diese CDs werden daher auch als „Un-CDs“ (Nicht-CDs) bezeichnet. Der Kopierschutz wird realisiert, indem Fehler oder eine zweite fehlerhafte Session eingebracht werden. Auch Abweichungen vom Red-Book-Standard sind möglich, aber eher selten. Der „Abspielschutz“ ergibt sich daraus, dass die Fehler bewirken sollen, dass sich die Scheiben nicht mehr in dem CD-Laufwerk eines PC abspielen lassen. So soll das Kopieren verhindert werden. Manche CD-Laufwerke und die meisten DVD-Laufwerke lassen sich davon aber nicht beeinflussen und können die Daten trotzdem lesen, wodurch diese Idee des „Kopierschutzes“ letztendlich nutzlos wird. Stattdessen verursachen die Fehler auf der „kopiergeschützten“ CD Probleme auf zahlreichen normalen Audio-CD-Spielern und vielen Autoradios mit integrierter CD-Einheit. Diese können diese Medien entweder gar nicht oder nur teilweise abspielen, teilweise entstehen sogar ernsthafte Hardware-Defekte, etwa wenn die Firmware des CD-Spielers abstürzt und sich das Medium nicht mehr auswerfen lässt. Außerdem leiden oft die Tonqualität und die Lebensdauer des Abspielgerätes unter dem Kopierschutz. Seit dem 1. November 2003 sind die Hersteller in Deutschland durch § 95d UrhG gesetzlich verpflichtet, kopiergeschützte Medien als solche zu kennzeichnen. Solchen Kennzeichnungen ist jedoch kaum zu entnehmen, welche Probleme im Einzelfall mit Autoradios, MP3-CD-Spielern, DVD-Spielern und anderen Geräten auftreten können. Da der Kopierschutz in der Praxis kaum wirksam ist, immer wieder zu Problemen beim Abspielen führt und auch eine teilweise Kaufzurückhaltung zur Folge hatte, haben ab ca. 2009 immer mehr Labels das Konzept „kopiergeschützte CD“ wieder aufgegeben. Zunehmend werden wieder gewöhnliche, ungeschützte CDs nach dem Red Book veröffentlicht, zumal sich so außerdem Lizenzgebühren für den Kopierschutz einsparen lassen. Herstellerangaben und Produktionsstätten Die meisten CDs sind auf dem Innenring der Abtastseite mit Angaben zum Hersteller, dem Produktionsland (zum Beispiel Made in Germany by EDC, Made in France by PDO oder Mastered by DADC Austria) und weiteren Kennungen (zum Beispiel Katalog-Nr., IFPI-Kennung, Source Identification Code (SID)) versehen. Diese Identifizierungsmerkmale befinden sich i. d. R. auf einem etwa 5 mm breiten Kreis (dem Spiegel) und sind mit dem bloßen Auge nur schwer zu erkennen. Gerade für Sammler von CDs sind solche Hinweise teilweise sehr wichtig, da man daran zum einen die legal hergestellte CD von einer Schwarzkopie unterscheiden und zum anderen „Sonderpressungen“ erkennen kann. Oft werden CDs eines Interpreten mit gleichem Inhalt in verschiedenen Ländern produziert. Die Auflagen können unterschiedlich hoch und dementsprechend wertvoll für Sammler und Fans sein. Beschreibbare CDs Beschreibbare CDs gibt es in einer einmal beschreibbaren Variante (CD-R: CD recordable) und in einer mehrfach wiederbeschreibbaren Variante (CD-RW: CD rewritable). Während die Reflexionseigenschaften einer CD-R denen einer normalen CD nahezu gleichen und diese somit auch in älteren CD-Laufwerken gelesen werden können sollte, ist das Lesekopf-Ausgangssignal einer CD-RW weitaus schwächer, so dass diese Medien nur von entsprechend ausgestatteten (neueren) Laufwerken bzw. Spielern gelesen werden können. Zum Beschreiben einer CD kann kein gewöhnlicher CD-Spieler benutzt werden. Es ist ein sogenannter „CD-Brenner“ (bzw. ein CD-Rekorder) notwendig. CD-Brenner können CDs nicht nur beschreiben, sondern auch lesen. Daher sind reine CD-ROM-Lesegeräte für Computer inzwischen praktisch vom Markt verschwunden. Das ISO-9660-Dateiformat einer CD-ROM gestattet keine nachträglichen Änderungen. Außerdem können beschreibbare CDs – im Gegensatz zu Festplatten – nicht blockweise beschrieben werden. Deshalb muss erst ein Speicherabbild angelegt werden, das eine exakte Kopie der auf die CD zu brennenden Daten enthält. Dieses Abbild kann dann (als eine Spur) in einem Durchgang auf die CD „gebrannt“ werden. Dafür sind spezielle CD-Brennprogramme nötig. Aktuelle Brennprogramme beherrschen das Erstellen des Abbildes „on-the-fly“, das heißt, das ISO-Abbild wird während des Schreibens erzeugt. Allerdings kann man, solange die CD nicht abgeschlossen („finalisiert“) wurde, mit einem weiteren Schreibvorgang nachträglich in einem weiteren Track (das heißt normalerweise in einer weiteren Session) der CD ein neues Dateisystem erzeugen. Die Verzeichnisse dieses neuen Dateisystems können auch auf Dateien in den älteren Tracks referenzieren. Da beim normalen Betrieb immer das Dateisystem des letzten Tracks benutzt wird, ist es so möglich, Dateien hinzuzufügen, umzubenennen, zu „löschen“ und zu „überschreiben“. Natürlich kann der belegte Platz nicht erneut benutzt werden. Mit spezieller Software (zum Beispiel IsoBuster unter Windows oder ISO Master unter Linux) kann auch auf die älteren Dateisysteme zugegriffen werden, das heißt, die „gelöschten“ Dateien bzw. die älteren Versionen „überschriebener“ Dateien sind damit noch erreichbar (Multisession-CD). Alternativ können die Dateisysteme in den Tracks einer CD (analog zu Partitionen einer Festplatte) als unterschiedliche virtuelle Laufwerke betrachtet werden (Multivolume-CD). Dieses Verfahren wurde zum Beispiel beim klassischen Mac OS in den Versionen 8 und 9 eingesetzt, ist jedoch sonst kaum verbreitet. CD-RWs können theoretisch blockweise beschrieben werden. Das muss auch vom CD-Brenner unterstützt werden. Da das auf CD-ROMs verwendete ISO-9660-Dateiformat keine nachträglichen Änderungen an Dateien unterstützt, wurde dafür ein eigenes Dateisystem namens UDF eingeführt, das auch auf DVDs verwendet wird. Dieses Format erlaubt es, wie zum Beispiel bei einer Diskette, direkt Dateien auf der CD zu speichern. Labelaufdruck Für den Labelaufdruck bei der CD stehen, ebenso wie bei der DVD, verschiedene Drucktechniken zur Auswahl: Siebdruck: Im Siebdruck sind bis zu sechs Labelfarben möglich, es können Schmuckfarben (HKS oder Pantone) gewählt werden. Siebdruck ist derzeit die gängigste Variante, um CDs oder DVDs zu bedrucken, wird aber mehr und mehr vom Offsetdruck verdrängt. Siebdruck ist geeignet für gepresste CDs und DVDs, auch Rohlingsbedruckung ist möglich. Beim Siebdruck sind die Farben sehr brillant. Trockenoffsetdruck: Im Trockenoffset sind vier Labelfarben möglich (CMYK), kombiniert mit Siebdruck bis zu sechs (CMYK im Offset, zusätzlich weiß Vollfläche und eine Schmuckfarbe im Siebdruck). Auf Grund der höheren Auflösung verglichen mit Siebdruck ist Offsetdruck ideal für fotorealistische Darstellungen. Seit Anfang 2004 ist Offsetdruck nicht nur für gepresste CDs und DVDs, sondern auch für CD-Rohlinge und DVD-Rohlinge möglich. Thermotransferdruck: Bei diesem Druckverfahren wird mit einem speziellen Drucker Farbe von einem speziellen Farbband durch punktuelles Erhitzen mit einem Druckkopf auf die CD oder DVD übertragen. Technisch bedingt ist dieses Druckverfahren eher für Schriften und Logos geeignet. In der Praxis wird es bei kleinen Auflagen (selbst gebrannte CDs und DVDs) angewendet. Thermoretransferdruck: Der Thermoretransferdruck ist die Weiterentwicklung des Thermotransferdrucks. Das Labelmotiv wird im Thermotransfer-Druckverfahren auf ein Übertragungsband gedruckt und davon dann eine Folie auf die CD aufgebracht. Durch diese Technik ist eine bessere Auflösung möglich. So kann bereits bei Kleinauflagen ein fotorealistischer Druck erreicht werden. Tintenstrahldruck: Einige Hersteller bieten Rohlinge mit papierähnlich beschichteter Oberfläche an. Derartige Rohlinge, die meistens mit „printable“ o. ä. bezeichnet werden, können in geeigneten Tintenstrahldruckern mit recht ansehnlichen Ergebnissen vollfarbig bedruckt werden. Fotorealistische Bildwiedergabe ist die Regel. LightScribe-Verfahren: Bei diesem Verfahren brennt der Laser eines LightScribe-fähigen CD-Brenners auf die Vorderseite entsprechender Rohlinge eine beliebige Graustufengrafik, die mittels entsprechender Software entworfen und an den Brenner übertragen wird. Der Brennvorgang dauert etwa 15 Minuten. Neuerdings sind auch farbige Rohlinge vorhanden. Labelflash: Alternative DVD-Beschriftungsmethode DiscT@2: CD-R-Beschriftungsmethode Umweltschutz Die Compact Disc besteht hauptsächlich aus dem wertvollen Kunststoff Polycarbonat. Ein sortenreines Recycling lohnt sich zwar nicht für die Herstellung neuer Compact Discs, jedoch kann der sehr hochwertige Rohstoff in der Medizin, der PC- und der Autoindustrie verwendet werden. Verschiedene Firmen bieten Sammelsysteme an. Dabei werden Sammelbehälter kostenlos bereitgestellt. Sammelstellen (zum Beispiel Betriebe oder Kommunen) haben somit keinerlei Risiko, sondern müssen nur eine entsprechende Fläche für den Sammelbehälter vorhalten. Die Deutsche Telekom nimmt eigene CDs in ihren Shops zurück, AOL-CDs können unfrei an AOL gesendet werden. Vernichtung der Daten Da eine CD auch vertrauliche Daten enthalten kann, muss es sichere Verfahren geben, um diese Daten vor der Entsorgung unleserlich zu machen, sei es, weil die Daten nicht mehr benötigt werden oder weil sie gelöscht werden müssen. Ineffektive Verfahren Bemalen ist praktisch wirkungslos, selbst mit wasserfesten Filzstiften wie einem Edding, da die Spurrillen beim Bemalen erhalten bleiben und nur gering beschädigt werden. Mit speziellen Reinigungsmitteln kann die Farbschicht entfernt werden, dabei werden die Spurrillen nur geringfügig beschädigt. Festes Aufdrücken mit einem Bunt-, Bleistift oder Kugelschreiber kann aber die Datenschicht teilweise beschädigen. Zerkratzen auf der Unterseite ist, wenn die Kratzer nicht sehr tief sind, nahezu wirkungslos. Selbst bei vielen und tiefen Kratzern können mit Spezialprogrammen und -werkzeugen oft beachtliche Teile der Daten wiederhergestellt werden. Zerkratzen auf der Oberseite hilft, aber auch dort können nicht zerkratzte Teilbereiche mit speziellen Verfahren noch gelesen werden. Zerschneiden ist ebenfalls recht wirkungslos, da die großen Stücke recht gut ausgewertet werden können, dies wird aber umso schwieriger, je kleiner die Stücke sind. Effektive Verfahren CD-Brenner – Seit einiger Zeit bieten diverse Hersteller von CD-Brennern auch Zusatzfunktionen (Smart-Erase) in den Laufwerken an, mit denen ein bereits beschriebenes CD-R-Medium erneut „überbrannt“ werden kann, um die darauf gespeicherten Daten endgültig zu vernichten. Das funktioniert nicht mit gepressten CDs. Sicheres Löschen auf wiederbeschreibbaren CDs ist mit jedem CD-Brenner durch einfaches Überschreiben der Daten möglich. Zerbrechen (evtl. mit Hammer) ist eine relativ sichere Methode, wobei die Sicherheit umso höher ist, je kleiner die Teile sind. Es besteht aber Verletzungsgefahr für Hände und Augen durch umherfliegende scharfkantige Polycarbonatsplitter, weshalb man eine Schutzbrille und Handschuhe tragen und die CD in einen Umschlag oder Beutel stecken oder in Wasser legen sollte. Schreddern – Für extrem sensible Daten existieren spezielle CD-Schredder, die CDs und andere optische Datenträger in so kleine Stücke häckseln, dass die Datenträger als zuverlässig vernichtet gelten können, wobei die Recyclingfähigkeit des Datenträgers erhalten bleibt. Auch manche herkömmliche Papierschredder können CDs zerkleinern. Die Tauglichkeit eines bestimmten Modells für diesen Zweck ist der Gebrauchsanweisung zu entnehmen. Reiben – Man reibt die Labelseite der CD solange an einer rauen Fläche (z. B. einer Raspel, einem Ziegelstein o. Ä.), bis die CD vollständig durchsichtig und dadurch unbrauchbar ist. Mikrowellenherd oder Verbrennen – funktioniert sowohl bei gepressten als auch bei selbstgebrannten CDs. Dabei wird die Metallschicht aufgrund der Hitzeentwicklung durch die elektromagnetischen Wellen bzw. des Feuers zerstört. Dieses Verfahren ist im Grunde sehr effektiv und im Notfall durchaus geeignet, allerdings entstehen dabei gesundheitsschädliche Dämpfe. Darüber hinaus besteht die Gefahr eines Brandes. Verätzen – Dabei wird die CD in eine starke Säure oder Base gelegt. Der Vorteil ist, dass die Datenschicht praktisch unlesbar wird, und eine Wiederherstellung der CD als extrem aufwendig gilt und nur in Bruchstücken möglich wäre. Allerdings sind das Material (Säure/Base und spezielles Gefäß sowie Werkzeug) und das Verfahren kostenintensiv und bedürfen Sicherheitsvorkehrungen wie Augenschutz und Abzug. Siehe auch Liste von Audio-Fachbegriffen Literatur Hartmut Gieselmann: Gegen das Vergessen. US-Forscher prüfen Lebensdauer von [beschreibbaren] CDs und DVDs. In: c’t, 1/2005, Heise-Verlag, S. 44 Jürgen Karl Lang: Das Compact Disc Digital Audio System: ein Beispiel für die Entwicklung hochtechnologischer Konsumelektronik. Hochschulbibliothek der Rheinisch-Westfälischen Technischen Hochschule Aachen 2012, ISBN 3-00-001052-1 (Dissertation RWTH Aachen, Lehrstuhl für Geschichte der Technik, 1996, 306 Seiten; rwth-aachen.de (PDF; 21 MB; 153 [Doppel-]Seiten) PDF). Rolf Müller: Musik und Technik. Die Gitarre und die silberne Scheibe. nova giulianiad, 1/83, , S. 54 ff. Ken C. Pohlmann: Compact-Disc-Handbuch: Grundlagen des digitalen Audio, technischer Aufbau von CD-Playern, CD-Rom, CD-I, Photo-CD (Originaltitel: The Compact Disc Handbook, übersetzt von Martin Schaefer) IWT, Vaterstetten 1994, ISBN 3-88322-500-2. Kees A. Schouhamer Immink: The Compact Disc Story. Journal of the Audio Engineering Society, 46(5), S. 458–465, Mai 1998 Weblinks Aufbau und Grundlagen, Fehlerkorrektur, Reinigung, Reparatur. audiohq.de Zur Datenvernichtung. zendas.de Analyse, Datenrettung und Archivierung von CDs auf Kanalcode-Ebene. (PDF; 723 kB) iasa-online.de Die Geschichte der CD. referate.mezdata.de Wann ist die CD wirklich geboren? Eine lange Geschichte. hifimuseum.de Einzelnachweise Optischer Datenspeicher
987
https://de.wikipedia.org/wiki/CT
CT
CT steht für: Computertomographie, medizinisches bildgebendes Verfahren Certificate Transparency, ermöglicht das Überprüfen digitaler Zertifikate in einem Logbuch Call-Transfer, vermittlungstechnisches Leistungsmerkmal Charge-Transfer, Elektronenübertragung innerhalb eines Komplexes, welcher eine intensive Farbigkeit hervorrufen kann, siehe Charge-Transfer-Komplexe Chatter-Treffen, Treffen von Mitgliedern einer Chat-Gemeinschaft an einem bestimmten Ort Centime, eine Unterteilung verschiedener Währungen Chlamydia trachomatis, ein intrazellulär lebendes parasitäres Bakterium Chrysler CT, PKW-Modell aus dem Jahr 1933, siehe Chrysler Royal Codex Tchacos, Sammelhandschrift Computertechnik, befasst sich mit der Verarbeitung von Daten und Informationen mittels digitaler oder analoger Rechnersystemen, siehe Rechnertechnik Containerterminal, Güterumschlagsplatz in Häfen Cordless Telephone, siehe Schnurlostelefon Courtage in Immobilienanzeigen, Provision des Maklers CT Arzneimittel, Hersteller von Generika CT das radio, Radiostation der Ruhr-Universität Bochum Lexus CT, japanisches Automobil Alitalia CityLiner (IATA-Code), italienische Fluggesellschaft Central Time – eine Zeitzone u. a. der USA (UTC%E2%88%926) Kfz-Kennzeichen: Bulgarien: Oblast Stara Sagora Italien: Metropolitanstadt Catania Moldau: Rajon Cantemir Montenegro: Cetinje Norwegen: Romerike in der Provinz Viken Polen: kreisfreie Stadt Toruń Rumänien: Kreis Constanța Schweden: Diplomatenkennzeichen für Panama Türkei: Corps Consulaire (weiße Schrift auf türkisfarbenem Grund) bzw. Diplomatisches Corps (grüne Schrift auf weißem Grund) Vereinigtes Königreich: Swansea Zypern: Anhänger Ortsbezeichnungen: Cape Town, siehe Kapstadt Connecticut, US-amerikanischer Bundesstaat als postalische Abkürzung die postcode area Canterbury (als Anfangsbuchstaben einer Postleitzahl aus dem Vereinigten Königreich) ČT steht für: Česká televize, öffentlich-rechtliches Fernsehen Tschechiens Ct steht für: Celtium, früherer Name für das 72. Element, siehe Hafnium Cent (Währung), hundertste Einheit des Euro oder anderer Währungen Cycle of Threshold, siehe Ct-Wert Ct steht für: Gesamt-Kohlenstoffgehalt bei Bodenproben ct steht für: eine Maßeinheit für die Fadendichte (1 ct = 1 Faden pro Zoll) Metrisches Karat, Einheit für die Masse von Schmucksteinen c. t. steht für: cum tempore, Beginn einer akademischen Veranstaltung 15 min nach der vollen Stunde, siehe Akademische Zeitangabe c’t steht für: c’t, Computerzeitschrift des hannoverischen Verlags Heinz Heise Siehe auch: Abkürzung
991
https://de.wikipedia.org/wiki/Carl%20Amery
Carl Amery
Carl Amery (Pseudonym von Christian Anton Mayer; * 9. April 1922 in München; † 24. Mai 2005 ebenda) war ein deutscher Schriftsteller und Umweltaktivist. Er war Mitglied der Gruppe 47, 1976/77 Vorsitzender im Verband deutscher Schriftsteller (VS) und von 1989 bis 1991 Präsident im PEN-Zentrum Deutschland. Von 1967 bis 1974 war Amery Mitglied der SPD, nachdem er zuvor der GVP angehört hatte. Später war Amery Gründungsmitglied der Partei Die Grünen beim Bundeskongress der Grünen in Karlsruhe am 13. Januar 1980 und Schirmherr der Wasserallianz München. Als Initiator und Mitbegründer war Amery von 1980 bis 1995 Präsident der E.-F.-Schumacher-Gesellschaft für Politische Ökologie (München). Leben und Werk Seine Kindheit verbrachte Carl Amery, Sohn des Kunsthistorikers Anton Mayer-Pfannholz, vorwiegend in Passau und Freising als Schüler des Humanistischen Gymnasiums Passau bzw. des Dom-Gymnasiums – beide Städte sollten ihre Spuren in seinem Werk hinterlassen (z. B. Passau in Der Wettbewerb und Der Untergang der Stadt Passau und Freising in Das Geheimnis der Krypta). Anschließend war Amery Stipendiat des Maximilianeums und studierte Neuphilologie an der Ludwig-Maximilians-Universität München, später dasselbe Fach, dazu Literaturtheorie und -kritik, an der Catholic University of America in Washington, D.C. Im Zweiten Weltkrieg geriet er 1943 in Tunesien in amerikanische Kriegsgefangenschaft und kehrte 1946 nach München zurück, wo er sein unterbrochenes Studium (Sprachen und Literaturwissenschaft) wieder aufnahm. Er begann zu schreiben, zunächst unter seinem leicht amerikanisierten Namen als Chris Mayer, dann wählte er sich als Pseudonym Carl Amery, wobei Amery' ein Anagramm von Mayer ist. Im November 1953 wurde sein Sohn Benedikt geboren. 1954 erschien sein erster Roman Der Wettbewerb. Inzwischen Mitglied der Gruppe 47, begründete er 1958 durch den Roman Die große Deutsche Tour seinen Ruf als Satiriker. Dieser Ruf blieb lange haften. Eine andere Seite seines Arbeitens zeigte er in der 1963 erschienenen kirchenkritischen Schrift Die Kapitulation oder Deutscher Katholizismus heute, gefolgt von Das Ende der Vorsehung. Die gnadenlosen Folgen des Christentums, in dem er dem Christentum Mitschuld an der globalen Umweltzerstörung zuwies. Dies prädestinierte Amery für die Rolle des Vordenkers der politischen Ökologie, die er mit weiteren Schriften wie insbesondere Die ökologische Chance ausfüllte und durch sein persönliches Engagement unterstrich – zunächst in der Anfangsphase bei der Partei Die Grünen, dann 1980 durch die Gründung der unabhängigen E.-F.-Schumacher-Gesellschaft, deren Vorsitzender er bis 1995 war. Von 1967 bis 1971 war Amery Direktor der Münchner Stadtbibliothek, was für ihn eine Publikationspause bedeutete. 1974 schließlich wandte er sich einem dritten Genre zu, der Science-Fiction, was damals für einen der Hochliteratur zugerechneten Autor ein überraschender Schritt war. Beeinflusst war er dabei nicht zuletzt durch Gilbert Keith Chesterton, dessen Science-Fiction-Romane er später in überarbeiteten deutschen Fassungen herausgab. Vor allem drei Romane Amerys gehören in diesen Bereich, nämlich Das Königsprojekt (1974): Der Vatikan unternimmt es, mittels einer von Leonardo da Vinci konstruierten Zeitmaschine die Geschichte zu ändern. Ziel der Congregatio secreta ad purificandos fontes (CSAPF) ist es, durch eine Geschichtsmanipulation die Krone Englands für das Haus Wittelsbach zu erobern. Doch die beiden Monsignori Sbiffio-Trulli und Doensmaker müssen erleben, dass ihre Kalkulationen geschichtlicher Notwendigkeit fehlgehen. Der Untergang der Stadt Passau (1975): Im Vorwort nennt Amery den Roman eine „Fingerübung“, zu deren Ausarbeitung ihn der Roman A Canticle for Leibowitz (deutsch: Lobgesang auf Leibowitz) des amerikanischen SF-Autors Walter M. Miller inspiriert habe. Dementsprechend erscheint der Roman in der SF-Reihe des Heyne Verlags und wird zu Amerys größtem Bucherfolg. Zum Inhalt: Nach der durch eine Seuche ausgelösten globalen Katastrophe kristallisieren sich zwei Gruppen heraus – die eine Gruppe versucht einen Wiederaufbau der Zivilisation (inklusive Elektrizität, Bürokratie und Schickeria), die andere geht zurück zu den Wurzeln der Subsistenzwirtschaft und etabliert eine Kultur auf etwa dem Niveau der Bronzezeit. Der Roman erzählt die Geschichte des sich notwendig ergebenden kulturellen Konflikts. An den Feuern der Leyermark (1979): Auch hier geht es um geschichtliche Notwendigkeit, Zufall oder Schicksal – kurz: „Was wäre gewesen, wenn …?“. In diesem Fall: Was wäre gewesen, wenn 1866 ein bayrischer Beamter (versehentlich) eine mit Repetiergewehren ausgerüstete amerikanische Freischärlertruppe (der Sezessionskrieg in den USA war eben zu Ende) für den anstehenden Krieg gegen Preußen rekrutiert hätte? Nach der Niederlage der Preußen krempelt der anarchistisch-demokratische Freischärlerhaufen die europäische Mentalität um: Aus den Auseinandersetzungen entsteht die Centraleuropäische Eidgenossenschaft (eine alternative Europäische Union), die anarchistisch-syndikalistisch mit weitgehender Gemeindefreiheit aufgebaut ist und Frankreich und Deutschland ihrer angeblichen Erzfeindschaft entledigt. Zwei weitere mit Fantasy-Elementen durchsetzte Romane Amerys thematisieren bayrische Spiritualität: In Die Wallfahrer (1986) bewegen sich die Protagonisten auf den alten Gnadenort Tuntenhausen zu; und im Geheimnis der Krypta (1990) bildet die Krypta im Freisinger Dom (und dort die sogenannte Bestiensäule) das Zentrum der sich über drei Generationen erstreckenden Handlung, wobei die aus den Feuern der Leyermark (aber auch aus dem Königsprojekt) her bekannte Fragestellung zu einer Wissenschaft der „Sphagistik“ erhoben wird, wie die Geschichte aufgrund geringfügig veränderter Einzelbedingungen hätte ganz anders verlaufen können. Ab 1985 erschienen Amerys gesammelte Werke in Einzelausgaben im Münchner Paul List-Verlag. 2001 erklärte Amery in einem Interview, dass er aus gesundheitlichen Gründen keine weiteren Romane verfassen werde. Carl Amerys Gesundheitszustand verschlechterte sich in den letzten Lebensjahren aufgrund eines Lungenemphysems bis zu seinem Tod zunehmend. Er wurde am 30. Mai 2005 am Münchner Ostfriedhof im engsten Familienkreis beigesetzt. Die Rechte an seinen Publikationen lagen bis zu ihrem Tod 2019 bei seiner Witwe Marijane Mayer. 2007 erschien posthum der Aufsatzband Arbeit an der Zukunft, der das Fragment einer Streitschrift gegen die US-amerikanische Religiöse Rechte enthält, an der Amery bis kurz vor seinem Tod arbeitete. Auszeichnungen und Ehrungen 1973: Ludwig-Thoma-Medaille der Stadt München 1975: Ernst-Hoferichter-Preis 1979: Tukan-Preis 1979: Deutscher Preis für Denkmalschutz, Silberne Halbkugel 1984: Bayerischer Friedenspreis 1985: Kurd-Laßwitz-Preis für die Kurzgeschichte Nur einen Sommer gönnt ihr Gewaltigen 1987: Kurd-Laßwitz-Preis für den Roman Die Wallfahrer 1987: Bundesverdienstkreuz (I. Klasse) 1988: Naturschutzpreis des Bundes Naturschutz in Bayern 1988: Kurd-Laßwitz-Preis für das Hörspiel Das Penthouse-Protokoll 1989: Friedrich-Märker-Preis 1991: Phantastik-Preis der Stadt Wetzlar 1991: Kurd-Laßwitz-Preis für den Roman Das Geheimnis der Krypta 1991: Literaturpreis der Landeshauptstadt München 1996: Deutscher Fantasy-Preis 1997: Wilhelm-Hoegner-Preis Im Jahr 2007 stiftete der Verband deutscher Schriftsteller in Bayern zu seinem Gedächtnis den Carl-Amery-Literaturpreis. Werke Romane und Erzählungen Der Wettbewerb. Roman. Nymphenburger Verlagshandlung, München 1954 Die Große Deutsche Tour. Heiterer Roman. Nymphenburger Verlagshandlung, München 1958; mit einem Nachwort 1986: List, München 1986, ISBN 3-7991-6305-0; Heyne, München 1989, ISBN 3-453-03641-7 Das Königsprojekt. Roman. Piper, München/Zürich 1974, ISBN 3-492-02074-7; dtv, München 1978, ISBN 3-423-01370-2 Galopp mit der Raum-Zeit-Maschine, Rezension von Heinrich Böll. In: Die Zeit, 4. Oktober 1974 Der Untergang der Stadt Passau. Science Fiction-Roman. Heyne, München 1975, ISBN 3-453-30332-6 Rezension von Ulrich Gutmair in fluter, 19. Juli 2006 An den Feuern der Leyermark. Roman. Nymphenburger, München 1979, ISBN 3-485-00369-7; Heyne, München 1981, ISBN 3-453-30738-0 Im Namen Allahs des Allbarmherzigen. In: Peter Wilfert (Hrsg.): Tor zu den Sternen. Goldmann, München 1981, ISBN 3-442-23400-X Nur einen Sommer gönnt Ihr Gewaltigen. In: Science-fiction-Jubiläums-Band. Das Lesebuch. Heyne, München 1985, ISBN 3-453-31112-4 (erhielt den Kurd-Laßwitz-Preis) Die starke Position oder Ganz normale MAMUS. Acht Satiren. List, München 1985, ISBN 3-7991-6247-X; Heyne, München 1990, ISBN 3-453-04196-8 Die Wallfahrer. Roman. Süddeutscher Verlag, München 1986, ISBN 3-7991-6241-0; Heyne, München 1989, ISBN 3-453-03276-4 Das Geheimnis der Krypta. Roman. List, München 1990, ISBN 3-471-77019-4; Heyne, München 1992, ISBN 3-453-05650-7 Hörspiele Ich stehe zur Verfügung. ORF, 1966 Rezension von Jürgen Kolbe. In: Die Zeit, 6. Mai 1966 Finale Rettung Michigan. WDR/BR, 1982 Schirmspringer. Bayerischer Rundfunk, 1984 Das Penthouse-Protokoll. WDR/BR/HR, 1987 Der Untergang der Stadt Passau. BR, 2021 Essays und Streitschriften 1963: Die Kapitulation oder Deutscher Katholizismus heute. Rowohlt, Reinbek 1963 (Platz 1 der Spiegel-Bestsellerliste vom 3. Juli bis zum 8. Oktober 1963) 1964: (Hrsg.): Die Provinz. Kritik einer Lebensform. Nymphenburger Verlagshandlung, München 1964 1967: Fragen an Welt und Kirche. 12 Essays. Rowohlt, Reinbek 1967 1972: Das Ende der Vorsehung. Die gnadenlosen Folgen des Christentums. Rowohlt, Reinbek 1972, ISBN 3-498-00008-X. 1973: Nebenfiguren. In: Walter Jens (Hrsg.): Der barmherzige Samariter. Kreuz, Stuttgart 1973, ISBN 3-7831-0413-0, S. 19–28 1974: mit Jochen Kölsch (Hrsg.): Bayern, ein Rechts-Staat? Das politische Porträt eines deutschen Bundeslandes. Rowohlt, Reinbek 1974, ISBN 3-499-11820-3. 1976: Natur als Politik. Die ökologische Chance des Menschen. Rowohlt, Reinbek 1976, ISBN 3-498-00010-1. 1978: mit Peter Cornelius Mayer-Tasch und Klaus Michael Meyer-Abich: Energiepolitik ohne Basis. Vom bürgerlichen Ungehorsam zur energiepolitischen Wende. Fischer-TB, 1978, ISBN 3-596-24007-7. 1980: Leb wohl, geliebtes Volk der Bayern. Bertelsmann, 1980, ISBN 3-570-02107-6. Goldmann-TB, 1982. Aktualisierte Ausgabe: List, München 1996, ISBN 3-471-77026-7. 1985: Die ökologische Chance. List, München 1985, ISBN 3-7991-6271-2. Das Ende der Vorsehung und Natur als Politik in einem Band, mit einem Nachwort des Autors. Taschenbuchausgabe mit Nachwort 1990: Heyne 1991, ISBN 3-453-04444-4. 1988: Voll tiefen Mitleids. Bayerische Reflexionen zur Kieler Affäre. In: Heinz Ludwig Arnold (Hrsg.): Vom Verlust der Scham und dem allmählichen Verschwinden der Demokratie. Steidl, Göttingen 1988, ISBN 3-88243-091-5, S. 211–216 1988: Das ökologische Problem als Kulturauftrag. BIS, Oldenburg 1988, ISBN 3-8142-1013-1. 1991: Bileams Esel. Konservative Aufsätze. List, München 1991, ISBN 3-471-77021-6. 1994: Die Botschaft des Jahrtausends. Von Leben, Tod und Würde. List, München 1994, ISBN 3-471-77022-4. 1995: Wenn aber das Salz schal geworden ist… Künden die Kirchen auf der Höhe der Zeit? In: Sind die Kirchen am Ende? Pustet, Regensburg 1995, ISBN 3-7917-1455-4. 1998: Hitler als Vorläufer. Auschwitz – der Beginn des 21. Jahrhunderts? Luchterhand, München 1998, ISBN 3-630-87998-5. 2000: Du voll Unendlichkeit. In: Elisabeth Schweeger & Eberhard Witt (Hrsg.): Ach Deutschland! belleville, München 2000, ISBN 3-933510-67-8, S. 39–45 2001: mit Hermann Scheer: Klimawechsel. Von der fossilen zur solaren Kultur. Ein Gespräch mit Christiane Grefe. Kunstmann, München 2001, ISBN 3-88897-266-3. 2002: Global Exit. Die Kirchen und der Totale Markt. Luchterhand, München 2002, ISBN 3-630-88004-5, btb, München 2004, ISBN 3-442-73133-X. 2005: (Hrsg.): Briefe an den Reichtum. Luchterhand, München 2005, ISBN 3-630-87186-0. 2007: Arbeit an der Zukunft. Essays. Hrsg. von Joseph Kiermeier-Debre. Luchterhand, München 2007, ISBN 978-3-630-62123-4. Verschiedenes mit Kurt Kusenberg und Eugen Oker: Zucker und Zimt. ff. Gereimtheiten. Langewiesche-Brandt, Ebenhausen 1972, ISBN 3-7846-0066-2. Marsch, zurück auf die Bäume oder wie wir es besser machen können. Schaffstein, Dortmund 1979, ISBN 3-588-00021-6 (Jugend-Sachbuch). G. K. Chesterton oder der Kampf gegen die Kälte. Kerle, Freiburg/Heidelberg 1981, ISBN 3-600-30082-2. mit Marina Bohlmann: München. dtv, München 1982, ISBN 3-423-03708-3 (Reiseführer). mit Günter Altner, Robert Jungk und Jürgen Schneider: Lebenselemente. Feuer – Wasser – Luft – Erde. Herder, Freiburg/Basel/Wien 1985, ISBN 3-451-20178-X. mit Georg Kürzinger (Fotografien): Bayern. Bucher, München 1993, ISBN 3-7658-0811-3 (Text zu Bildband). Fleuves & turbulences (Strömungen & Wirbel). Zwischenernte eines reichgeschüttelten Reimlebens. Verlag Kuckuck & Straps (des Verlegers und Malers Fritz Gebhardt alias Eugen Oker), München 2000, ISBN 3-935276-00-1. Literatur Heinrich Böll: Nachwort zu Carl Amery „Die Kapitulation“. In: Briefe aus dem Rheinland. Schriften und Reden 1960–1963. München 1985, ISBN 3-423-10602-6, S. 224–227 (siehe auch Bölls Artikel ) Ute Bauer, Olaf Rappold und Thomas Tilsner: Interview mit Carl Amery. In: Wolfgang Jeschke (Hrsg.): Das Science Fiction Magazin # 10. Wilhelm Heyne Verlag München 1983, ISBN 3-453-31048-9, S. 117–136. Hans Werner Richter: Im Etablissement der Schmetterlinge. 21 Portraits aus der Gruppe 47. München 1986 Karl Michael Armer: Die Wallfahrer. In: Wolfgang Jeschke (Hrsg.): Das Science Fiction Jahr 1987 Band 2, Wilhelm Heyne Verlag, München 1987, ISBN 3-453-31365-8, S. 638–640. Joseph Kiermeier-Debre (Hrsg.): Carl Amery – „…ahnen, wie das alles gemeint war“. Ausstellung eines Werkes. List, München/Leipzig 1996, ISBN 3-471-79324-0 Karlheinz Steinmüller: Laudatio auf Carl Améry. Anlässlich der Verleihung des Deutschen Fantasypreises 1996. In: Wolfgang Jeschke (Hrsg.): Das Science Fiction Jahr 1997. Wilhelm Heyne Verlag, München, ISBN 3-453-11896-0, S. 635–641. Joseph Kiermeier-Debre (Hrsg.): Carl Amery: Arbeit an der Zukunft. Essays. Sammlung Luchterhand, München 2007, ISBN 978-3-630-62123-4. Götz Fenske: Begegnungen mit Carl Amery und Herbert Gruhl. In: Naturkonservativ. 2008/2009. Hrsg. von der Herbert-Gruhl-Gesellschaft e. V. Bad Schussenried 2009, ISBN 978-3-87336-904-7, S. 90–110; (Auszug auf naturkonservativ.de) Christoph F. Lorenz: Amery, Carl. In: Lexikon der Science Fiction-Literatur seit 1900. Mit einem Blick auf Osteuropa, herausgegeben von Christoph F. Lorenz, Peter Lang, Frankfurt/Main 2016, ISBN 978-3-631-67236-5, S. 193–198. Bernhard M. Baron: Carl Amery und Tirschenreuth. Eine familiäre Spurensuche. In: Heimat-Landkreis Tirschenreuth. Band 30/2018, Pressath 2018, ISBN 978-3-947247-21-9, S. 139–145. Harald Eggebrecht: Carl Amery ist tot – Der Rebell, Sprachspieler und Aufklärer. In: Süddeutsche Zeitung. 30. Mai 2005 (Nachruf: sueddeutsche.de). Tilman Urbach: Wallfahrt im Gegenwind. In: Neue Zürcher Zeitung. 31. Mai 2005 (Nachruf: nzz.ch). Dirk Knipphals: Engagement ist alles. In: Die Tageszeitung. 1. Juni 2005 (Nachruf: taz.de). Film Die Zeit, die wir noch haben, Carl Amery - ein bayerischer Querdenker, Ein Film von Vera Botterbusch, 45 Min. BR 1991 Hörfunkbeiträge Ein anderer Bayer. Zum 100. Geburtstag von Carl Amery von Bernhard Setzwein Weblinks Kiermeier-Debre, Joseph: Amery, Carl, in: NDB-online. Carl Amery Materialien auf umweltdebatte.de teleakademie: Vortrag aus dem Jahr 1988 aus der Alten Oper in Frankfurt am Main Einzelnachweise Mitglied der Deutschen Akademie für Sprache und Dichtung Autor Übersetzer Literatur (Deutsch) Science-Fiction-Literatur GVP-Mitglied SPD-Mitglied Bündnis-90/Die-Grünen-Mitglied Person (Katholische Universität von Amerika) Verband-deutscher-Schriftsteller-Funktionär Träger des Bundesverdienstkreuzes 1. Klasse Träger des Ernst-Hoferichter-Preises Träger des Kurd-Laßwitz-Preises Schriftsteller (München) Bestsellerautor (Deutschland) Maximilianeer Pseudonym Literatur (20. Jahrhundert) Deutscher Geboren 1922 Gestorben 2005 Mann
992
https://de.wikipedia.org/wiki/Chomsky-Hierarchie
Chomsky-Hierarchie
Chomsky-Hierarchie, gelegentlich Chomsky-Schützenberger-Hierarchie (benannt nach dem Linguisten Noam Chomsky und dem Mathematiker Marcel Schützenberger), ist ein Begriff aus der theoretischen Informatik. Sie ist eine Hierarchie von Klassen formaler Grammatiken, die formale Sprachen erzeugen, und wurde 1956 erstmals von Noam Chomsky beschrieben. Die Hierarchiestufen unterscheiden sich darin, wie rigide die Einschränkungen für die Form zulässiger Produktionsregeln auf der jeweiligen Stufe sind; bei Typ-0-Grammatiken sind sie uneingeschränkt, bei höheren Stufen fortschreitend stärker beschränkt. Grammatiken niedrigeren Typs sind erzeugungsmächtiger als die höherer Typen. Eine Sprache, die von einer Grammatik des Typs k erzeugt wird, heißt eine Sprache des Typs k. Neben die Chomsky-Hierarchie der Grammatiken tritt in diesem Sinne eine Chomsky-Hierarchie der Sprachen. Hintergründe Formale Sprachen haben den Vorzug, mathematisch exakt analysiert werden zu können. Formalen Sprachen liegt ein vorgegebenes Alphabet (ein Zeichenvorrat) zugrunde, das häufig mit bezeichnet wird. Beliebig lange, endliche Folgen von Elementen des Alphabets werden als Wörter über dem Alphabet bezeichnet. Mengen solcher Wörter sind schließlich formale Sprachen. Die umfassendste formale Sprache über einem vorgegebenen Alphabet ist unendlich groß; sie enthält sämtliche Wörter, die durch beliebiges Zusammenfügen von Zeichen des Alphabets gebildet werden können. Sie lässt sich durch die Kleenesche Hülle des Alphabets beschreiben, also . Die kleinste formale Sprache enthält gar keine Wörter. Andere formale Sprachen bestehen nur aus wenigen Wörtern und lassen sich somit als endliche Menge notieren; beispielsweise für das Alphabet die Sprache aller Wörter der Länge zwei: . Unendliche Sprachen lassen sich begreiflicherweise nicht durch Aufzählen notieren. Um sie exakt zu beschreiben, ist ein Konzept nötig, das auch unendliche Mengen definieren kann. Hierzu werden im Rahmen der formalen Sprachen vor allem Erzeugungsverfahren benutzt. Geht man von einem vorhandenen Wort über einem Alphabet aus, lassen sich durch Semi-Thue-Systeme Wortmengen spezifizieren, die sich durch beliebig wiederholtes Anwenden von Ersetzungsregeln ergeben. Ersetzungsregeln der Form erlauben, dass in einem Wort, das ein Segment enthält, dieses Segment durch ersetzt wird. Semi-Thue-Systeme geben daher eine Ableitungsrelation zwischen Wörtern formaler Sprachen an: Zwei Wörter stehen in Relation, wenn das eine Wort durch eine Ersetzungsregel vom anderen Wort abgeleitet werden kann. Zur Beschreibung von formalen Sprachen eignen sich formale Grammatiken, ein gegenüber Semi-Thue-Systemen erweitertes und mächtigeres Konzept. Sie unterscheiden sich von Semi-Thue-Systemen darin, dass sie sogenannte Terminalsymbole und Nichtterminalsymbole kennen. Terminalsymbole einer Grammatik sind gerade alle Zeichen ihres Zeichensatzes . Die erste anwendbare Regel geht immer von einem nichtterminalen Startsymbol aus, und das Ergebnis eines Ersetzungsvorgangs gilt nur dann als Wort ihrer formalen Sprache, wenn es keine Nichtterminalsymbole enthält. Das folgende Beispiel beschreibt eine Sprache, mit der sich beliebig lange Summen der Ziffern 1, 2 und 3 ausdrücken lassen. Das dafür angemessene Alphabet ist . Die entsprechenden Terminalsymbole sind unterstrichen dargestellt, Nicht-Terminale kursiv. Die folgenden Zeilen stellen die Regeln dar. Das Startsymbol dieser Sprache ist Summe. Davon ausgehend kann man nun beliebige Regeln nacheinander anwenden, um einen gültigen Ausdruck zu erzeugen: Nicht alle unendlichen Sprachen lassen sich als formale Sprachen mit diesem Erzeugungsprinzip beschreiben, es ist aber kein tauglicheres Konzept bekannt. Ein anderer gängiger Formalismus zur Beschreibung von Sprachen sind Automatenmodelle, vor allem Turingmaschinen. Uneingeschränkte formale Grammatiken und Turingmaschinen sind bei der Beschreibung von formalen Sprachen gleichmächtig, d. h. zu jeder von einer formalen Grammatik erzeugten Sprache gibt es eine Turingmaschine, die genau diese akzeptiert, und umgekehrt. Ebenso wie verschiedene Automatenmodelle definiert wurden, definierte Chomsky in seiner Arbeit verschiedene Grammatiktypen. Durch drei fortlaufend schärfere Einschränkungen an die jeweils darin zulässigen Ersetzungsregeln stellte er eine Hierarchie aus vier Klassen von formalen Grammatiken auf, wodurch die weniger eingeschränkten Klassen die stärker regulierten Klassen jeweils echt umfassen. Das Gleiche gilt für die von den jeweiligen Grammatikklassen beschriebenen Sprachklassen: auch sie bilden eine Hierarchie. Sprachen eingeschränkteren Grammatiktyps sind üblicherweise einfacher algorithmisch zu verarbeiten – um den Preis, weniger ausdrucksmächtig zu sein. Reguläre Ausdrücke, mit denen man etwa Muster für die Suche in Texten definiert, entsprechen zum Beispiel den sehr eingeschränkten Chomsky-Grammatiken des Typs 3 (reguläre Grammatiken) und solche Textsuchen sind effektiv und schnell. Dagegen taugen Grammatiken des Typs 3 wegen ihrer Einfachheit nicht zur Beschreibung von Programmiersprachen, für die man meist weniger eingeschränkte Typ-2-Grammatiken benutzt. Die Hierarchie Die Chomsky-Hierarchie umfasst vier Typen formaler Grammatiken, gezählt von 0 bis 3. Typ 0 umfasst alle formalen Grammatiken überhaupt, also ohne Einschränkung an die Gestalt zulässiger Erzeugungsregeln. Grammatiken des Typs 1 bis Typ 3 sind dann zunehmend stärker eingeschränkt. Allein nach Definition ist eine Grammatik vom Typ 1 auch vom Typ 0, eine Grammatik vom Typ 2 auch vom Typ 1, eine Grammatik vom Typ 3 auch vom Typ 2; die Umkehrungen gelten nicht. Deshalb bilden diese Klassen eine echte Hierarchie. Bei den entsprechenden Sprachklassen zeigen Gegenbeispiele, dass ebenfalls die Umkehrungen nicht gelten, weshalb auch sie eine echte Hierarchie bilden. Chomsky forderte für Typ-1-, Typ-2- und Typ-3-Grammatiken, dass die rechte Seite von Produktionsregeln nicht kürzer als die linke Seite sein darf, was auch das leere Wort auf jeder rechten Seite einer Produktionsregel ausschließt. Heute ist man oft weniger restriktiv; die Definitionen sind oft so gefasst, dass die Hierarchie der Sprachen nicht gestört wird, sie es aber auch Grammatiken des Typs 1 (kontextsensitive Grammatiken) durch eine Ausnahmeregel erlauben, das leere Wort zu erzeugen, und den Typen 2 (kontextfreien Grammatiken) und 3 (regulären Grammatiken) sogar ohne Einschränkung das leere Wort als rechte Seite von Ersetzungsregeln gestatten. Typ-0-Grammatik (allgemeine Chomsky-Grammatik oder Phrasenstrukturgrammatik) Definition Typ-0-Grammatiken werden auch unbeschränkte Grammatiken genannt. Es handelt sich dabei um die Klasse aller formalen Grammatiken der Form  , wobei ein Vokabular ist, bestehend aus der disjunkten Vereinigung eines endlichen Alphabets (Terminalsymbole) und einer Menge von Nichtterminalen (Variablen) . Das ausgezeichnete Symbol wird als Startsymbol bezeichnet und ist eine Menge von Produktionsregeln        , d. h. auf der linken Seite jeder Produktionsregel steht wenigstens ein Nicht-Terminalsymbol. Für einzelne Regeln schreibt man anstelle von    meistens , für die Menge der Regeln mit auf der linken Seite    auch  . Um die Zugehörigkeit zur Klasse der Typ-0-Grammatiken auszudrücken, schreibt man Von Typ-0-Grammatiken erzeugte Sprachen Jede Typ-0-Grammatik erzeugt eine Sprache, die von einer Turingmaschine akzeptiert werden kann, und umgekehrt existiert für jede Sprache, die von einer Turingmaschine akzeptiert werden kann, eine Typ-0-Grammatik, die diese Sprache erzeugt. Diese Sprachen sind auch bekannt als die rekursiv aufzählbaren Sprachen (oft auch semi-entscheidbare Sprachen genannt), d. h. die zugehörige Turingmaschine akzeptiert jedes Wort, das in der Sprache liegt. Bei einem Wort, das nicht in der Sprache liegt, kann es sein, dass die Turingmaschine nicht terminiert, d. h. keinerlei Auskunft über die Zugehörigkeit des Worts zur Sprache liefert. Man beachte, dass sich diese Menge von Sprachen von der Menge der rekursiven Sprachen (oft auch entscheidbare Sprachen genannt) unterscheidet, welche durch Turingmaschinen entschieden werden können. Typ-1-Grammatik (kontextsensitive Grammatik) Definition Typ-1-Grammatiken werden auch kontextsensitive Grammatiken genannt. Es handelt sich dabei um Typ-0-Grammatiken, bei denen alle Produktionsregeln die Form oder haben, wobei ein Nichtterminal und Wörter bestehend aus Terminalen () und Nichtterminalen () sind. bezeichnet das leere Wort. Die Wörter und können leer sein, aber muss mindestens ein Symbol (also ein Terminal oder ein Nichtterminal) enthalten. Diese Eigenschaft wird Längenbeschränktheit genannt. Als einzige Ausnahme von dieser Forderung lässt man zu, wenn das Startsymbol nirgends auf der rechten Seite einer Produktion auftritt. Damit erreicht man, dass die kontextsensitiven Sprachen auch das oft erwünschte leere Wort enthalten können, das dann aber immer nur in einer einschrittigen Ableitung aus dem Startsymbol selbst entsteht, und ohne für alle anderen Ableitungen die Eigenschaft zu stören, dass in jedem Teilschritt die Satzform länger wird oder gleich lang bleibt. Ist eine Grammatik kontextsensitiv, so schreibt man . Anders als bei kontextfreien Grammatiken können auf der linken Seite der Produktionen kontextsensitiver Grammatiken durchaus statt einzelner Symbole ganze Symbolfolgen stehen, sofern sie mindestens ein Nichtterminalsymbol enthalten. Von Typ-1-Grammatiken erzeugte Sprachen Die kontextsensitiven Grammatiken erzeugen genau die kontextsensitiven Sprachen. Das heißt: Jede Typ-1-Grammatik erzeugt eine kontextsensitive Sprache und zu jeder kontextsensitiven Sprache existiert eine Typ-1-Grammatik, die diese erzeugt. Die kontextsensitiven Sprachen sind genau die Sprachen, die von einer nichtdeterministischen, linear beschränkten Turingmaschine erkannt werden können; das heißt von einer nichtdeterministischen Turingmaschine, deren Band linear durch die Länge der Eingabe beschränkt ist (das bedeutet, es gibt eine konstante Zahl , sodass das Band der Turingmaschine höchstens Felder besitzt, wobei die Länge des Eingabewortes ist). Monotone Grammatiken Einige Autoren bezeichnen eine Grammatik schon dann als kontextsensitiv, wenn bis auf die Ausnahme (s. o.) alle Produktionsregeln nur die Bedingung erfüllen, d. h., dass die rechte Seite einer solchen Produktion nicht kürzer als deren linke Seite ist. Häufiger findet man dafür jedoch den Begriff der monotonen Grammatik oder der nichtverkürzenden Grammatik. Es erweist sich, dass die monotonen Grammatiken genau wieder die kontextsensitiven Sprachen erzeugen, weshalb die beiden Klassen von Grammatiken als äquivalent betrachtet werden und manche Autoren nur die eine oder die andere Grammatikklasse überhaupt behandeln. Aber nicht jede monotone Ersetzungsregel ist auch eine kontextsensitive, deshalb ist auch nicht jede monotone Grammatik eine kontextsensitive. Typ-2-Grammatik (kontextfreie Grammatik) Definition Typ-2-Grammatiken werden auch kontextfreie Grammatiken genannt. Es sind Grammatiken, für die gelten muss: In jeder Regel der Grammatik muss also auf der linken Seite genau ein nicht-terminales Symbol stehen und auf der rechten Seite kann eine beliebige nicht-leere Folge von terminalen und nichtterminalen Symbolen aus dem gesamten Vokabular stehen. Außerdem kann wie bei Typ-1-Grammatiken die Ausnahmeregel zugelassen werden, wenn auf keiner rechten Seite einer Regel vorkommt. Man schreibt Kontextfreie Grammatiken werden oft so definiert, dass die rechte Seite auch leer sein darf, also . Solche Grammatiken erfüllen nicht mehr alle Eigenschaften von Typ-2-Grammatiken und stünden nicht mehr in der von Chomsky definierten Hierarchie. Sie erfüllen aber die Bedingungen von monotonen Grammatiken. Von Typ-2-Grammatiken erzeugte Sprachen Kontextfreie Grammatiken (mit -Ausnahmeregel) erzeugen genau die kontextfreien Sprachen, jede Typ-2-Grammatik erzeugt also eine kontextfreie Sprache und zu jeder kontextfreien Sprache existiert eine Typ-2-Grammatik, die diese erzeugt. Die kontextfreien Sprachen sind genau die Sprachen, die von einem nichtdeterministischen Kellerautomaten (NPDA) erkannt werden können. Eine Teilmenge dieser Sprachen bildet die theoretische Basis für die Syntax der meisten Programmiersprachen. Siehe auch: Backus-Naur-Form (BNF) / Erweiterte Backus-Naur-Form (EBNF): ein anderes, äquivalentes Schema der Bezeichnungsweisen. Typ-3-Grammatik (reguläre Grammatik) Definition Typ-3-Grammatiken werden auch reguläre Grammatiken genannt. Es handelt sich um Typ-2-Grammatiken, bei denen auf der rechten Seite von Produktionen genau ein Terminalsymbol auftreten darf und maximal ein weiteres Nichtterminalsymbol. Die erlaubte Stellung solcher Nichtterminalsymbole muss außerdem über alle Produktionen hinweg einheitlich immer vor oder immer hinter dem Terminalsymbol sein, je nachdem spricht man auch genauer von linksregulären und rechtsregulären Grammatiken. Sie stimmen mit den links- beziehungsweise rechts-linearen Grammatiken überein, wohingegen lineare Grammatiken nicht den regulären Grammatiken entsprechen. Für linksreguläre Typ-3-Grammatiken muss also die Bedingung erfüllt sein, dass . Sie dürfen also nur linksreguläre Produktionen (Nichtterminalsymbol auf der rechten Seite in Vorderstellung) enthalten. Üblicherweise gestattet man für reguläre Grammatiken, wie auch für kontextfreie Grammatiken Regeln mit leerer rechter Seite, also . Rechtsreguläre Grammatiken erfüllen dagegen die analoge Bedingung . Diese enthalten also nur rechtsreguläre Produktionen (Nichtterminalsymbol auf der rechten Seite allenfalls in Hinterstellung). Diese Bedingung drückt auch schon die Erlaubnis leerer rechter Seiten aus. Linksreguläre und rechtsreguläre Grammatiken erzeugen genau dieselbe Sprachklasse, es gibt also zu jeder linksregulären Grammatik auch eine rechtsreguläre, die dieselbe Sprache erzeugt, und umgekehrt. Man beachte, dass beim Auftreten von linksregulären und rechtsregulären Produktionen in ein und derselben Chomsky-Grammatik diese nicht regulär ist. Die Grammatiken mit sowohl linksregulären als auch rechtsregulären Produktionen erzeugen nämlich eine echt größere Sprachklasse. Manche Autoren erlauben in den Definitionen für reguläre / linksreguläre / rechtsreguläre Grammatiken überall dort, wo hier in Produktionen nur ein einzelnes Nichtterminalzeichen stehen darf, auch eine beliebige nichtleere terminale Zeichenkette. An der Erzeugungsmächtigkeit der Klassen ändert sich dadurch nichts. Man schreibt für reguläre Grammatiken . Von Typ-3-Grammatiken erzeugte Sprachen Reguläre Grammatiken erzeugen genau die regulären Sprachen, das heißt, jede Typ-3-Grammatik erzeugt eine reguläre Sprache und zu jeder regulären Sprache existiert eine Typ-3-Grammatik, die diese erzeugt. Reguläre Sprachen können alternativ auch durch reguläre Ausdrücke beschrieben werden und die regulären Sprachen sind genau die Sprachen, die von endlichen Automaten erkannt werden können. Sie werden häufig genutzt, um Suchmuster oder die lexikalische Struktur von Programmiersprachen zu definieren. Übersicht Die folgende Tabelle führt für die vier Grammatiktypen auf, welche Form ihre Regeln haben, welchen Namen die erzeugten Sprachen haben und welche Automatentypen diese Sprachen erkennen, also das Wortproblem zumindest semi-entscheiden (Wort in Sprache: Maschine hält in akzeptierendem Endzustand, Wort nicht in Sprache: Maschine hält nie oder hält in nicht akzeptierendem Zustand → sicher hält die Maschine also nur, wenn das Wort in der Sprache ist). Da in der Chomsky-Hierarchie für die Sprachmengen aber eine echte Teilmengenbeziehung gilt (siehe nächster Abschnitt) entscheiden z. B. Turingmaschinen selbstverständlich ebenfalls das Wortproblem für Sprachen vom Typ 1 bis 3. (entscheiden heißt: Wort in Sprache: Maschine hält in akzeptierendem Endzustand, Wort nicht in Sprache: Maschine hält in nicht akzeptierendem Zustand → irgendwann hält die Maschine und das Problem (Wort in Sprache?) ist entschieden) Außerdem wird vermerkt, gegenüber welchen Operationen die erzeugten Sprachen abgeschlossen sind. Legende für die Spalte Regeln … endliches Alphabet (Menge der Terminalsymbole, oft auch mit bezeichnet, das aber auch bedeuten kann) … die davon disjunkte Menge der Nichtterminalsymbole (gelegentlich auch Variablen genannt und mit bezeichnet, statt … gesamtes Vokabular) … Startsymbol … leeres Wort (oft auch mit bezeichnet) … Menge von Produktionsregeln (als Teilmenge eines kartesischen Produkts eine Relation) … Mengen-Differenzbildung … Kleenescher Abschluss (Hülle), siehe Kleenesche und positive Hülle … positive Hülle, z. B. meint … muss mindestens ein Symbol (Terminal oder ein Nichtterminal) enthalten In der obigen Tabelle werden somit mit lateinischen Großbuchstaben Nichtterminalsymbole dargestellt , mit lateinischen Kleinbuchstaben Terminalsymbole und griechische Kleinbuchstaben werden verwendet, wenn es sich sowohl um Nichtterminal als auch um Terminalsymbole handeln kann. Achtung: Bei und kann ein griechischer Kleinbuchstabe für Wörter aus mehreren Terminal- oder Nichtterminalsymbolen stehen! Legende für die Spalte Abgeschlossenheit … Komplementbildung … Konkatenation … Schnittmenge … Vereinigungsmenge … Kleenescher Abschluss (Hülle) Chomsky-Hierarchie für formale Sprachen Eine formale Sprache ist vom Typ entsprechend der Hierarchie für Grammatiken, wenn es von einer Typ--Grammatik erzeugt wird. Formal ausgedrückt heißt das: ist vom Typ falls es eine Grammatik mit gibt. Man schreibt dann In der Chomsky-Hierarchie für formale Sprachen besteht zwischen den Sprachmengen benachbarter Ebenen eine echte Teilmengenbeziehung. Jede kontextsensitive Sprache ist rekursiv aufzählbar, aber es gibt rekursiv aufzählbare Sprachen, die nicht kontextsensitiv sind. Ebenso ist jede kontextfreie Sprache auch kontextsensitiv, aber nicht umgekehrt, und jede reguläre Sprache ist kontextfrei, aber nicht jede kontextfreie Sprache ist regulär. Formal ausgedrückt bedeutet dies für die Klassen der durch die obigen Grammatiken erzeugten Sprachen: wobei gelegentlich auch folgende Symbole verwendet werden: Beispiele für Sprachen in den jeweiligen Differenzmengen sind: ist vom Typ 1, aber nicht vom Typ 2 ist vom Typ 2, aber nicht vom Typ 3 Beweise für die Nichtzugehörigkeit bestimmter Sprachen zu den Sprachklassen und wie hier werden oft mit dem Schleifensatz geführt. Natürliche Sprachen Obwohl Chomsky seine Forschungen mit dem Ziel verfolgte, eine mathematische Beschreibung der natürlichen Sprachen zu finden, ist bis heute für keine natürliche Sprache der Nachweis einer korrekten und vollständigen formalen Grammatik gelungen. Das Problem besteht u. a. im Zusammenspiel der verschiedenen Grammatikteile, die jeweils einzelne sprachliche Phänomene modellieren. Aber auch beim praktischen Einsatz formaler Grammatiken in der Computerlinguistik kann es zu Mehrdeutigkeiten auf verschiedenen Ebenen der Sprachbetrachtung kommen; diese müssen (z. B. in der maschinellen Übersetzung) anhand des Kontextes aufgelöst werden. Literatur Einzelnachweise Theorie formaler Sprachen Compilerbau Noam Chomsky
994
https://de.wikipedia.org/wiki/Polymerase-Kettenreaktion
Polymerase-Kettenreaktion
Als Polymerase-Kettenreaktion (, PCR) bezeichnet man Methoden zur in vitro-Vervielfältigung von Erbsubstanz (Desoxyribonukleinsäure). Dazu werden, je nach Methode, verschiedene Formen des Enzyms DNA-Polymerase verwendet. Die Bezeichnung Kettenreaktion bedeutet in diesem Zusammenhang, dass die Produkte vorheriger Zyklen als Ausgangsstoffe für den nächsten Zyklus dienen und somit eine exponentielle Vervielfältigung ermöglichen. Bei der klassischen PCR werden diese Zyklen über ein Temperaturprogramm gesteuert. Bei der Weiterentwicklung isotherme DNA-Amplifikation erfolgt diese Vervielfältigung kontinuierlich bei konstanter Temperatur. Die PCR wird in biologischen und medizinischen Laboratorien zum Beispiel für die Erkennung von Erbkrankheiten und Virusinfektionen, für das Erstellen und Überprüfen genetischer Fingerabdrücke, für das Klonieren von Genen und für Abstammungsgutachten verwendet. Sie ist die empfindlichste und zuverlässigste Labor-Methode des direkten Erregernachweises. Entwickelt wurde die Methode durch den Biochemiker Kary Mullis im Jahr 1985. 1993 wurde ihm dafür der Nobelpreis für Chemie verliehen. Die PCR zählt heute zu den wichtigsten Methoden der modernen Molekularbiologie, und viele wissenschaftliche Fortschritte auf diesem Gebiet (z. B. im Rahmen des Humangenomprojekts) wären ohne diese Methode nicht möglich gewesen. Geschichte Anfang der 1970er Jahre kam der norwegische Postdoc Kjell Kleppe im Labor von Nobelpreisträger Har Gobind Khorana auf den Gedanken, DNA durch zwei flankierende Primer zu vervielfältigen, jedoch geriet die Idee in Vergessenheit. Die Polymerase-Kettenreaktion selbst wurde 1983 von Kary Mullis erneut erfunden. Seine Absicht war es, ein neuartiges DNA-Syntheseverfahren zu entwickeln, das DNA durch wiederholte Verdopplung in mehreren Zyklen mittels eines Enzyms namens DNA-Polymerase künstlich vervielfältigt. Sieben Jahre nach der Veröffentlichung seiner Idee wurde Mullis hierfür 1993 der Nobelpreis für Chemie verliehen. DNA-Polymerase kommt in allen Lebewesen vor und verdoppelt während der Replikation die DNA vor der Zellteilung. Dazu bindet sie sich an einen einzelnen DNA-Strang und synthetisiert mittels eines kurzen komplementären Oligonukleotids (Primer) einen dazu komplementären Strang. Bereits in Mullis’ ursprünglichem PCR-Versuch wurde das Enzym in vitro verwendet. Die doppelsträngige DNA wurde zunächst durch Erhitzen auf 96 °C in zwei Einzelstränge getrennt. Bei dieser Temperatur wurde die dabei zunächst verwendete DNA-Polymerase I von E. coli zerstört und musste daher nach jedem Erhitzen erneut zugegeben werden. Diese Folge von Arbeitsschritten musste mehrere dutzendmal in Folge wiederholt werden, um eine ausreichende Amplifikation zu erreichen. Mullis’ ursprüngliches Verfahren war daher sehr ineffizient, da es viel Zeit, große Mengen DNA-Polymerase und ständige Aufmerksamkeit erforderte. Eine entscheidende Verbesserung der PCR-Technologie brachte die Verwendung von thermostabilen DNA-Polymerasen, das heißt von Enzymen, die auch bei Temperaturen von annähernd 100 °C ihre Polymerase-Aktivität behalten und nicht denaturieren. Eine der ersten thermostabilen DNA-Polymerasen wurde aus dem in heißen Quellen lebenden thermophilen Bakterium Thermus aquaticus gewonnen und Taq-Polymerase genannt. Durch die Verwendung thermostabiler DNA-Polymerasen bestand keine Notwendigkeit mehr, ständig neue Polymerase zuzugeben, und der ganze PCR-Prozess konnte erheblich vereinfacht und automatisiert werden. Mullis arbeitete zu dieser Zeit für die kalifornische Biotech-Firma Cetus und wurde mit einer Prämie von 10.000 US-Dollar abgefunden. Diese meldete die PCR-Methode zum Patent an. Jahre später verkaufte Cetus dann die Rechte an der PCR-Methode mitsamt dem Patent für die von ihm verwendete DNA-Polymerase Taq an die Firma Roche für 300 Millionen Dollar. Das Enzym Taq wurde jedoch bereits 1980 von dem russischen Forscher Kaledin beschrieben. Aus diesem Grund wurde nach jahrelangem Rechtsstreit der Firma Roche das Patent für Taq inzwischen entzogen. Die US-Patente für die PCR-Technologie selbst liefen im März 2005 aus. Die Taq-Polymerase erfährt nach wie vor breite Anwendung. Ihr Nachteil liegt darin, dass sie manchmal Fehler beim Kopieren der DNA produziert, was zu Mutationen in der DNA-Sequenz führt. Polymerasen wie Pwo und Pfu, die aus Archaea gewonnen werden, haben einen Korrekturmechanismus, der die Anzahl der Mutationen in der kopierten DNA erheblich senkt. Prinzip PCR wird eingesetzt, um einen kurzen, genau definierten Teil eines DNA-Strangs zu vervielfältigen. Der zu vervielfältigende Bereich der DNA wird auch als Amplicon bezeichnet, die bei der PCR entstehenden Produkte als Amplifikate. Dabei kann es sich um ein Gen oder auch nur um einen Teil eines Gens handeln oder auch um nichtcodierende DNA-Sequenzen. Im Gegensatz zu lebenden Organismen kann der PCR-Prozess nur relativ kurze DNA-Abschnitte kopieren. Bei einer Standard-PCR können dies bis zu etwa dreitausend Basenpaare (3 kbp) lange DNA-Fragmente sein. Mit Hilfe bestimmter Polymerasen-Gemische, weiterer Additive in der PCR und optimalen Bedingungen können sogar Fragmente mit einer Länge von über 20–40 kbp vervielfältigt werden, was immer noch sehr viel kürzer ist als die chromosomale DNA einer eukaryotischen Zelle. Eine menschliche Zelle enthält beispielsweise etwa drei Milliarden Basenpaare pro haploidem Genom. Komponenten und Reagenzien Eine PCR benötigt mehrere grundlegende Komponenten. Diese sind: Die Original-DNA, die den zu vervielfältigenden Abschnitt enthält (Template) Zwei Primer, um auf den beiden Einzelsträngen der DNA jeweils den Startpunkt der DNA-Synthese festzulegen, wodurch der zu vervielfältigende Bereich von beiden Seiten begrenzt wird DNA-Polymerase, die bei hohen Temperaturen nicht zerstört wird, um den festgelegten Abschnitt zu replizieren (kopieren) (z. B. Taq-Polymerase) Desoxyribonukleosidtriphosphate, die Bausteine für den von der DNA-Polymerase synthetisierten DNA-Strang Mg2+ -Ionen, für die Funktion der Polymerase essentiell, stabilisieren die Anlagerung der Primer und bilden lösliche Komplexe mit den Desoxyribonucleosidtriphosphaten Pufferlösungen, die eine für die DNA-Polymerase geeignete chemische Umgebung sicherstellen Die Reaktion wird üblicherweise in Volumina von 10–200 µl in kleinen Reaktionsgefäßen (200–500 µl) in einem Thermocycler durchgeführt. Diese Maschine erhitzt und kühlt die in ihr befindlichen Reaktionsgefäße präzise auf die Temperatur, die für den jeweiligen Schritt benötigt wird. Etwaige Kondensatbildung im Deckel des Gefäßes wird durch einen beheizbaren Gerätedeckel (über 100 °C) verhindert. Die Thermocycler der ersten Generation besaßen noch keinen beheizten Deckel, weshalb bei diesen Geräten zur Vermeidung einer Verdampfung von Wasser während der PCR die Reaktionsansätze mit Mineralöl überschichtet wurden. Als Reaktionsgefäß können, je nach Probeneinsatz bzw. Heizblock des Thermocyclers, neben einzelnen 200-µl-Reaktionsgefäßen auch acht zusammenhängende 200-µl-Reaktionsgefäße oder PCR-Platten für bis zu 96 Ansätze mit 200 µl oder auch 384 Ansätze zu je 50 µl verwendet werden. Die Platten werden entweder mit einer Gummiabdeckung oder einer selbstklebenden Klarsichtfolie verschlossen. Beispiel Als allgemeines Beispiel sei hier eine typische Zusammensetzung einer PCR-Reaktion wiedergegeben. Viele Beispiele für die verschiedensten Variationen der PCR finden sich in der wissenschaftlichen Literatur in verschiedensten Kombinationen: Ablauf Der PCR-Prozess besteht aus etwa 20–50 Zyklen, die in einem Thermocycler durchgeführt werden. Die folgenden Angaben sind als Richtwerte gedacht. Meist muss eine PCR auf die spezifische Reaktion hin optimiert werden. Jeder Zyklus besteht aus drei Schritten (siehe Abbildung unterhalb): Denaturierung (Melting, Schmelzen): Zunächst wird die doppelsträngige DNA auf 94–96 °C erhitzt, um die Stränge zu trennen. Die Wasserstoffbrückenbindungen, die die beiden DNA-Stränge zusammenhalten, werden aufgebrochen. Im ersten Zyklus wird die DNA oft für längere Zeit erhitzt (Initialisierung), um sicherzustellen, dass sich sowohl die Ausgangs-DNA als auch die Primer vollständig voneinander getrennt haben und nur noch Einzelstränge vorliegen. Manche (sogenannte Hot-Start-) Polymerasen müssen durch eine noch längere anfängliche Erhitzungsphase (bis zu 15 Minuten) aktiviert werden. Primerhybridisierung (primer annealing): In diesem Schritt wird die Temperatur abgesenkt und ca. 30 Sekunden lang auf einem Wert gehalten, der eine spezifische Anlagerung der Primer an die DNA erlaubt. Die genaue Temperatur wird hierbei durch die Länge und die Sequenz der Primer bestimmt (bzw. der passenden Nukleotide im Primer, wenn durch diesen Mutationen eingeführt werden sollen = site-directed mutagenesis). Wird die Temperatur zu niedrig gewählt, können sich die Primer unter Umständen auch an nicht hundertprozentig komplementären Sequenzen anlagern und so zu unspezifischen Produkten („Geisterbanden“) führen. Wird die Temperatur zu hoch gewählt, ist die thermische Bewegung der Primer unter Umständen so groß, dass sie sich nicht richtig anheften können, so dass es zu gar keiner oder nur ineffizienter Produktbildung kommt. Die Temperatur, welche die beiden oben genannten Effekte weitgehend ausschließt, liegt normalerweise 5–10 °C unter dem Schmelzpunkt der Primersequenzen; dies entspricht meist einer Temperatur von 55 bis 65 °C. Elongation (Extension, Polymerisation, Verlängerung, Amplifikation): Schließlich füllt die DNA-Polymerase die fehlenden Stränge mit freien Nukleotiden auf. Sie beginnt am 3'-Ende des angelagerten Primers und folgt dann dem DNA-Strang. Der Primer wird nicht wieder abgelöst, er bildet den Anfang des neuen Einzelstrangs. Die Temperatur hängt vom Arbeitsoptimum der verwendeten DNA-Polymerase ab (68–72 °C). Bei diesen Temperaturen können jedoch nur ganz bestimmte Enzyme arbeiten. Oft wird hier die Taq-Polymerase genutzt. Dieser Schritt dauert etwa 30 Sekunden je 500 Basenpaare, variiert aber in Abhängigkeit von der verwendeten DNA-Polymerase. Die PCR-Produkte sind anschließend viele Tage auch bei Raumtemperatur stabil, sodass eine Weiterverarbeitung nicht sofort erfolgen muss. In vielen Laboren hat es sich etabliert, die Proben im Thermocycler nach Ende der PCR auf 4–8 °C herunter zu kühlen. Viele Hersteller raten davon jedoch ab, da aufgrund von Kondensation im Metallblock die Lebenszeit eines Cyclers mit Peltier-Element stark reduziert wird. (A) Die Ausgangs-DNA liegt zunächst als Doppelstrang vor (Pfeilrichtung: 5'→3'). (B,C) Nach der Denaturierung sind die Einzelstränge getrennt und die Primer können binden. (C,D) Die Polymerase produziert den Gegenstrang, indem sie die Primer 5'→3' (in Pfeilrichtung) verlängert. Die Produkte sind jeweils noch an einem Ende zu lang. Dies ist damit zu erklären, dass lediglich ein Startpunkt (Primer), nicht aber ein Endpunkt exakt festgelegt ist. (E,F) Im nächsten Zyklus entstehen erstmals PCR Produkte in der richtigen Länge – allerdings sind die Gegenstränge jeweils noch zu lang. (G,H) Im dritten Zyklus entsteht erstmals das PCR Produkt als Doppelstrang in der richtigen Länge (die anderen Produkte sind in H nicht dargestellt). (H,I,J) In den folgenden Zyklen vermehren sich die gewünschten Produkte exponentiell (da sie selbst als Matrize für weitere Strangsynthesen dienen), während die ungewünschten langen Produkte (siehe Produkte des ersten Zyklus) nur linear ansteigen (nur eingesetzte DNA dient als Matrix). Dies ist der theoretische Idealfall, in der Praxis fallen aber zudem in geringem Maße auch kürzere Fragmente als die gewünschte Ziel-DNA an. Diese kurzen Fragmente häufen sich vor allem in den späten Zyklen an und können durch Fehlpaarung der Primer auch zu falschen PCR Produkten werden. Daher werden bei PCR Reaktionen meist nur etwa 30 Zyklen durchlaufen, damit vorwiegend DNA der gewünschten Länge und Sequenz produziert wird. Aufreinigung von PCR-Produkten Ein PCR-Produkt kann durch Agarose-Gelelektrophorese anhand seiner Größe identifiziert werden. (Die Agarose-Gelelektrophorese ist ein Verfahren, bei der DNA in ein Agarose-Gel eingebracht wird und anschließend eine Spannung angelegt wird. Dann bewegen sich die kürzeren DNA-Stränge schneller als die längeren auf den Pluspol zu.) Die Länge des PCR-Produkts kann durch einen Vergleich mit einer DNA-Leiter, die DNA-Fragmente bekannter Größe enthält und parallel zur Probe im Gel mitläuft, bestimmt werden. Soll die PCR vor allem als quantitativer Nachweis dienen, empfiehlt sich die Real Time PCR oder die Digital PCR. PCR-Optimierung Verschiedene Methoden können eingesetzt werden, um die Synthesemengen zu steigern oder Inhibitoren der PCR zu beseitigen. Varianten Die klassische PCR ist durch zahlreiche Variationen erweitert und verbessert worden. Dadurch können verschiedene Aufgaben spezifisch angegangen werden. Alternativ zur PCR können auch verschiedene Methoden der isothermalen DNA-Amplifikation oder Ligase-Kettenreaktion verwendet werden. Agglutinations-PCR: Methode zur Bestimmung der Menge von Antikörpern. Es werden Antigene durch Antikörper isoliert und dann vermehrt. Die genaue Antikörpermenge muss aber schon vorher vorliegen, z. B. im Neutralisationshemmtest. [[Digital Polymerase Chain Reaction|Digital PCR]] (dPCR): Bei der digital PCR (dPCR) wird die DNA verdünnt und auf eine große Anzahl an Femtoliter-Reaktionsgefäßen verteilt. Pro Reaktionsgefäß entsteht entweder DNA oder nicht. Aufgenommen wird ein Digitalsignal. Durch Auszählen einer großen Anzahl an Reaktionsgefäßen kann der Anteil erfolgter Reaktionen zur Mengenbestimmung verwendet werden. Immun-PCR: Methode zur Erkennung von Antigenen. Immunoquantitative Echtzeit-PCR (irt-PCR): Manchmal müssen selbst geringe Mengen an Pathogenen wirksam erkannt werden, da sie auch einzeln für den Menschen gefährlich werden können. Die Detektionsschwelle vieler immunologischer Methoden (z. B. ELISA) kann für diese Fälle unzureichend sein, so dass man hier auf die immunoquantitative Echtzeit-PCR (immunoquantitative real-time PCR) zurückgreift. Hierbei kombiniert man die hohe Spezifität von Antikörpern mit einer qPCR. Wie beim klassischen ELISA nutzt man zwei Antikörper. Der erste wird an einer Mikrotiterplatte fixiert und erkennt das gesuchte Antigen. Daran bindet dann der zweite Antikörper. Im herkömmlichen ELISA wird der immunologische Komplex aus erstem Antikörper, Antigen und zweitem Antikörper durch eine chemische Farbreaktion sichtbar gemacht, dagegen ist in der irt-PCR der zweite Antikörper über einen Streptavidin-Biotin-Komplex mit einer 246bp-langen doppelsträngigen DNA verbunden. Wenn der immunologische Komplex entsteht, kann diese Marker-DNA durch qPCR amplifiziert, detektiert und quantifiziert werden. Diese Methode ist etwa tausendmal sensibler als ein klassischer ELISA. Inverse PCR: Amplifikation unbekannter Genbereiche. Kolonie-PCR: Nachweis von bestimmten DNA-Sequenzen in Kolonien von Bakterien oder Pilzen; als DNA-Vorlage keine gereinigte Plasmid-DNA oder chromosomale DNA, sondern aus dem Kulturmedium entnommene Bakterienkolonien. Ligation-During-Amplification: Wird häufig zur Mutagenese von Plasmiden genutzt. Zirkuläre DNA kann amplifiziert werden, wodurch ein zusätzlicher Ligationsschritt entfällt. MassTag-PCR: Kombination einer PCR mit der Massenspektrometrie. Multiplex ligation-dependent probe amplification (MLPA): Variante der Multiplex-PCR (s. unten) zur gezielten Vermehrung mehrerer ähnlicher DNA-Sequenzen. Multiplex-PCR: Es werden mehr als ein Primerpaar für die Amplifikation eines bestimmten Gens oder auch mehrerer Gene auf einmal verwendet. Die Multiplex-PCR spielt u. a. in der Diagnostik von Krankheiten eine Rolle, beispielsweise beim Lesch-Nyhan-Syndrom. Ursache für das Lesch-Nyhan-Syndrom ist eine Mutation des HPRT1-Gens, das für eine Hypoxanthin-Guanin-Phosphoribosyltransferase codiert. Das Gen hat neun Exons, in Patienten mit dem Lesch-Nyhan-Syndrom kann eines dieser Exons fehlen. Durch eine Multiplex-PCR kann dies leicht entdeckt werden. Nested-PCR: Die nested (verschachtelte bzw. geschachtelte) PCR eignet sich sehr gut, wenn nur sehr geringe Mengen der zu amplifizierenden DNA relativ zur Gesamtprobenmenge an DNA vorhanden sind. Hierbei werden zwei PCR hintereinander ausgeführt. Durch die erste PCR wird – neben unerwünschten Sequenzbereichen infolge unspezifischer Bindung der Primer – der gewünschte Abschnitt der DNA (Amplikon) erzeugt. Letztere wird für eine zweite PCR als Matrize verwendet. Durch Primer, die an Bereichen innerhalb der ersten Matrize binden (downstream der ersten Primer), wird der gewünschte Sequenzbereich mit sehr hoher Spezifität generiert. Da auch die DNA-Region der Wahl zum zweiten Mal amplifiziert wurde, entsteht ausreichend DNA für weitere Prozedere. Anwendung findet die nested-PCR beispielsweise in der Gen-Diagnostik, in der Forensik (bei sehr wenig verwertbaren Spuren wie Haaren oder Bluttropfen wie im Kriminalfall JonBenét Ramsey) oder bei phylogenetischen Untersuchungen. Auch Mikrochimärismus bei Leukozyten nach einer Bluttransfusion kann mittels nested-PCR nachgewiesen werden. PAN-PCR: Eine rechnerische Methode zur Gestaltung der Bakterientypisierung - Tests basierend auf Sequenzdaten des gesamten Genoms Quantitative Echtzeit-PCR (qPCR oder real-time PCR): Wird benutzt, um die Menge des vervielfältigten DNA-Abschnitts zu bestimmen. Im Laborjargon wird fast nur der englische Begriff real-time PCR oder quantitative PCR verwendet, kurz qPCR oder missverständlich auch rt-PCR, was aber zu Verwechslungen mit dem länger etablierten Begriff RT-PCR mit vorgeschalteter reverser Transkription führt. Bei der real-time PCR wird der Reaktion ein zunächst inaktiver Fluoreszenzfarbstoff beigemischt, der durch die DNA-Produktion aktiv wird. (Zum Beispiel, weil er sich in die DNA einlagert (wie SYBR Green) oder weil ein Quencher, der die Fluoreszenz zunächst löscht, bei der Amplifikation entfernt wird.) Bei jedem Zyklus – also „in Echtzeit“ – wird die Fluoreszenz gemessen, woraus man auf die Menge der amplifizierten DNA schließen kann. Abhängig von der ursprünglichen Anzahl an Kopien wird ein gewisser Schwellenwert des Fluoreszenzsignals früher oder später (oder gar nicht) erreicht. Wegen dieser Zusatzinformation hat die real-time PCR den Beinamen „quantitative PCR (qPCR)“. Z. B. durch die Verwendung von Standardkurven erlaubt diese Technik auch eine absolute Quantifizierung (als Kopieanzahl pro Reaktion). Obwohl Geräte und farbstoffmarkierte Reagenzien teurer sind als bei der „klassischen“ Endpunkt-PCR, ist ein Sichtbarmachen der Amplifikate auf einem Gel nicht unbedingt nötig, so dass sich Arbeit und vor allem Zeit sparen lassen. Die Technik der qPCR lässt sich auch mit einer vorgeschalteten reversen Transkription (RT) kombinieren, z. B. um RNA-Viren nachzuweisen, dann spricht man von qRT-PCR. Reverse-Transkriptase-PCR (RT-PCR): Die Amplifikation von RNA (z. B. eines Transkriptoms oder eines RNA-Virus) erfolgt in einer Reverse-Transkriptions-PCR (engl. ) über eine reverse Transkription der RNA in DNA mit einer reversen Transkriptase. In Kombination mit einer Konzentrationsbestimmung in Echtzeit (qPCR) bezeichnet man die Reaktion als qRT-PCR. Touchdown-PCR: vermeidet eine Amplifizierung unspezifischer DNA-Sequenzen. In den ersten Synthese-Zyklen wird die Annealing-Temperatur nur knapp unterhalb der Denaturierungstemperatur gewählt. Damit ist die Primerbindung und somit auch das Amplifikat höchst spezifisch. In den weiteren Zyklen wird die Annealing-Temperatur herabgesetzt. Die Primer können jetzt zwar unspezifische Bindungen eingehen, allerdings verhindern die spezifischen Replikate der frühen Reaktion eine übermäßige Amplifikation der unspezifischen Sequenzen. Ein weiterer Vorteil ist eine enorme Steigerung der Amplifikatmenge. Diese abgewandelte PCR erlaubt somit eine starke und sehr spezifische DNA-Amplifikation. Anwendungsgebiete Die PCR kommt als Methode zur Detektion und Vervielfältigung von DNA-Abschnitten in einer Vielzahl von Anwendungsgebieten zum Einsatz. Forschung Das Klonieren eines Gens – nicht zu verwechseln mit dem Klonen eines ganzen Organismus – ist ein Vorgang, bei dem ein Gen aus einem Organismus isoliert und anschließend in einen anderen eingepflanzt wird. PCR wird oft benutzt, um das Gen zu vervielfältigen, das dann in einen Vektor (ein Vektor ist ein Mittel, mit dem ein Gen in einen Organismus verpflanzt werden kann), beispielsweise ein Plasmid (ein ringförmiges DNA-Molekül), eingefügt wird (siehe Abbildung). Die DNA kann anschließend in einen anderen Organismus eingesetzt werden, in dem das Gen oder sein Produkt besser untersucht werden kann. Das Exprimieren eines klonierten Gens kann auch zur massenhaften Herstellung nutzbarer Proteine wie z. B. Arzneimittel dienen. Mutagenese ist eine Möglichkeit, die Sequenz der Nukleotide (Basen) der DNA zu verändern. Es gibt Situationen, in denen man mutierte (veränderte) Kopien eines bestimmten DNA-Strangs benötigt, um die Funktion eines Gens zu bestimmen. Mutationen können in kopierte DNA-Sequenzen auf zwei grundsätzlich verschiedene Arten während des PCR-Prozesses eingefügt werden. Gezielte Mutagenese (engl. site-directed mutagenesis) erlaubt es dem Forscher, an spezifischen Stellen auf dem DNA-Strang Mutationen zu erzeugen. Meist wird dafür die gewünschte Mutation in die Primer integriert, die für die PCR verwendet werden. Bei der gezielten bzw. stellenspezifischen Mutagenese ist mindestens einer der Primer nicht hundertprozentig identisch mit der DNA, an die er sich anlagert. Während der Amplifikation wird so eine Mutation in das DNA-Fragment eingeführt. Zufällige Mutagenese (engl. random mutagenesis) beruht hingegen auf der Verwendung von fehlerträchtigen Polymerasen (bzw. Polymerasen ohne Mechanismus zur Fehlerkorrektur) während des PCR-Prozesses. Bei der zufälligen Mutagenese können Ort und Art der Mutationen nicht beeinflusst werden und müssen erst durch eine Sequenzierung identifiziert werden. Eine Anwendung der zufälligen oder gezielten Mutagenese ist die Analyse der Struktur-Funktions-Beziehungen eines Proteins. Nach der Veränderung der DNA-Sequenz kann man das entstandene Protein mit dem Original vergleichen und die Funktion aller Teile des Proteins bestimmen. Zudem können damit auch Funktionen der Nukleinsäure selbst (mRNA-Transport, mRNA-Lokalisation etc.) untersucht werden. Gängige Methoden der DNA-Sequenzierung (Bestimmung der Nukleotid-Abfolge von DNA) basieren auf Varianten der PCR. Die Illumina Sequenzierungsmethode (Sequenzierung mit Brückensynthese) beruht auf einer Festphasen-PCR, bei der die zu sequenzierende DNA zufällig fragmentiert, mit Oligonukleotiden (Adaptersequenzen) ligiert und über komplementäre Adaptersequenzen an einer Oberfläche fixiert wird. Bei der anschließenden PCR dienen die Adaptersequenzen als Primer. Zur Sequenzierung werden hierbei spezielle Nukleotide verwendet, die mit verschiedenfarbigen fluoreszierenden Markern versehen sind. Während der Amplifikation kann über die jeweils detektierte Farbe das eingebaute Nukleotid zugeordnet werden. Andere Sequenzierungsmethoden basieren auf der Emulsions-PCR. Beispiele sind die Zwei-Basen-Sequenzierung (engl. Sequencing by Oligo Ligation Detection, SOLiD) oder das Ionen-Halbleiter-DNA-Sequenzierungssystem (Ion Torrent Sequenzierungsmethode). Medizin und Diagnostik Die Erkennung von Erbkrankheiten in einem vorliegenden Genom ist ein langwieriger und komplizierter Vorgang, der durch den Einsatz von PCR bedeutend verkürzt werden kann. Jedes Gen, das in Frage kommt, kann durch PCR mit den entsprechenden Primern amplifiziert (= vervielfältigt) und anschließend sequenziert werden (DNA sequenzieren heißt, die Sequenz der Nukleotide (oder Basen) der DNA zu bestimmen), um Mutationen aufzuspüren. Virale Erkrankungen können ebenfalls durch PCR erkannt werden, indem man die Virus-DNA vervielfältigt bzw. bei RNA-Viren diese RNA erst in DNA umschreibt und dann mittels PCR vervielfältigt (die RT-PCR). Diese Analyse kann sofort nach der Infektion erfolgen, oft Tage oder Wochen vor dem Auftreten der Symptome. Erfolgt die Diagnose so früh, erleichtert das den Medizinern die Behandlung erheblich. Darüber hinaus wird die quantitative PCR auch für die Diagnostik verwendet, z. B. um die genaue Viruslast bei einer bekannten HIV-Infektion zu bestimmen, um die Entwicklung des Therapieerfolgs nachzuvollziehen. Die PCR kann auch zu Reihenuntersuchungen eingesetzt werden. So wird sie z. B. von Blutspendediensten zur Routineuntersuchung von Blutkonserven eingesetzt. Die Empfindlichkeit des PCR-Tests erlaubt es, Proben zu sogenannten Pools (z. B. 64 Einzelproben) zusammenzufassen. Ist der Test eines Pools positiv, wird die Anzahl der zusammengefassten Proben solange verringert (meistens halbiert), bis die verursachende Probe identifiziert ist. Zur sicheren Diagnostik und Absicherung von eventuell falsch-positiven Antigen-Schnelltests bei der COVID-19-Erkrankung wird die PCR ebenfalls eingesetzt. Forensik, Paläontologie und Biologische Anthropologie Der genetische Fingerabdruck ist ein DNA-Profil, das für jedes Individuum einzigartig ist. In der Forensik wird der genetische Fingerabdruck genutzt, um kleinste Spuren von an Tatorten gefundener DNA mit der DNA von Verdächtigen zu vergleichen. Als Proben können Blut, Sperma, Speichel, Hautzellen, oder Haare mit anhaftenden Zellen dienen. Die DNA wird aus den Zellkernen der in den Proben enthaltenen Körperzellen extrahiert, aufgereinigt und analysiert. Bei der Analyse wird die PCR genutzt, um spezielle DNA-Abschnitte zu vervielfältigen, die sich in nicht-codierenden Bereichen der DNA (junk DNA) befinden und aus Wiederholungen bestimmter kurzer Sequenzen (Tandemwiederholungen) bestehen. Die Anzahl der Tandemwiederholungen (und damit die Länge der Sequenzen) sind zwischen verschiedenen Individuen sehr variabel. Da mehrere unterschiedliche DNA-Abschnitte auf die jeweilige Anzahl der Tandemwiederholungen hin untersucht werden, entsteht ein individuelles Muster aus PCR-Produkten charakteristischer Längen. Abstammungsgutachten oder Vaterschaftstests basieren ebenfalls auf dem genetischen Fingerabdruck (siehe Abbildung). In der Molekularen Phylogenie zur Untersuchung evolutionärer Verwandtschaftsverhältnisse von Organismen. Analyse alter (fossiler) DNA: Da die PCR aus nur geringen DNA-Probemengen eine beliebige Menge von Material erzeugen kann, ist sie besonders für die sehr alte aDNA geeignet, die in der Natur nur noch in für Untersuchungen nicht mehr ausreichenden Mengen vorkommt. Dabei beruhen nahezu alle wissenschaftlichen Erkenntnisgewinne in Bezug auf die aDNA und somit viele seit langem ausgestorbener Arten auf der Methode der PCR. Lebensmittelanalytik Die steigenden Anforderungen von Handel und behördlicher Lebensmittelüberwachung zur Aufklärung und Verhinderung von unlauterem Wettbewerb führten zum Einzug der Technologie in die Lebensmittelanalytik. So kann die PCR zur Identifizierung von Gewürzen in komplexen Lebensmittelmatrizes herangezogen werden. Sie kann auch zur Unterscheidung von Varietäten bei Edelkakao z. B. Criollo und Forastero eingesetzt werden. Literatur C. R. Newton, A. Graham: PCR. Introduction to Scientific Techniques. 2. Auflage. ed. BIOS Scientific Publishers, Oxford 1997, ISBN 1-872748-82-1. R. K. Saiki, D. H. Gelfand, S. Stoffel, S. J. Scharf, R. Higuchi, G. T. Horn, K. B. Mullis, H. A. Erlich: Primer-Directed Enzymatic Amplification of DNA with a Thermostable DNA Polymerase (PDF; 1,2 MB). In: Science. 239.1988, S. 487–491, PMID 2448875, Kary B. Mullis, F. Faloona, S. Scharf, R. Saiki, G. Horn, H. Erlich: Specific enzymatic amplification of DNA in vitro: the polymerase chain reaction. Cold Spring Harb Symp Quant Biol. 1986;51 Pt 1:263-73. Kary B. Mullis: The polymerase chain reaction. Birkhäuser, Boston 1994, ISBN 3-7643-3607-2. Rabinow, Paul: Making PCR: A Story of Biotechnology, University of Chicago Press, 1996, ISBN 0-226-70146-8. D. Baltimore: RNA-dependent DNA polymerase in virions of RNA tumor viruses. In: Nature 226, 1970, S. 1209–1211. Weblinks Animation der PCR mit Beschreibung (deutsch) Einzelnachweise Molekularbiologie Lebensmittelanalytik Nukleinsäure-Methode Gentechnik Wikipedia:Artikel mit Video
995
https://de.wikipedia.org/wiki/Deutschland%20%28Begriffskl%C3%A4rung%29
Deutschland (Begriffsklärung)
Deutschland steht für: Deutschland, mitteleuropäischer Staat historisch: das Regnum Teutonicum, nördlich der Alpen gelegener Teil des Heiligen Römischen Reiches die räumlich nicht genau bestimmte Vorstellung eines deutschsprachigen kulturellen Raums, auch bezeichnet als Teutschland, siehe Deutschland #Begriffsgeschichte: Deutsch und Deutschland den Deutschen Bund 1815 bis 1866 das Deutsche Reich 1848/1849 Deutschland 1945 bis 1949, Westdeutschland und Deutsche Demokratische Republik Personen: Heinz Deutschland (* 1934), deutscher Historiker und Diplomat Helmut Deutschland (1918–2007), deutscher Tischtennisspieler Joachim Deutschland (* 1980), deutscher Musiker Jutta Deutschland (* 1958), deutsche Balletttänzerin Wirtschaft: mehrere Schiffe, siehe Liste von Schiffen mit dem Namen Deutschland Zeche Deutschland, ehemaliges Bergwerk in Sprockhövel (1871–1925) Maschinenfabrik Deutschland, ehemaliges Maschinenbau-Unternehmen (1872–1996) Motorfahrzeugfabrik Deutschland, ehemaliger deutscher Automobilhersteller (1903–1905) LZ 7 „Deutschland“ (Luftschiff), DELAG-Zeppelin (1910) LZ 8 „Deutschland“ (Luftschiff), DELAG-Zeppelin (1910) Medien und Kultur: Deutschland. Zeitschrift für Heimatkunde und Heimatliebe. Organ für die deutschen Verkehrs-Interessen, Zeitschrift (1912–1928) Deutschland (Slime-Lied), Musiktitel (1981), siehe Slime I #Deutschland Deutschland (Böhse-Onkelz-Lied), Musiktitel (1984), siehe Der nette Mann #Deutschland Deutschland (Die-Prinzen-Lied), Musiktitel (2001) Deutschland (Muhabbet-Lied), Musiktitel (2007) Deutschland (Rammstein-Lied), Musiktitel (2019) Deutschland (Fernsehserie), Fernsehserie (2015, 2018, 2020) Siehe auch: Teutschland, 1708 errichtetes Außenwerk der Würzburger Festung Marienberg
998
https://de.wikipedia.org/wiki/Datenkompression
Datenkompression
Die Datenkompression (wohl lehnübersetzt und eingedeutscht aus dem englischen ) – auch (weiter eingedeutscht) Datenkomprimierung genannt – ist ein Vorgang, bei dem die Menge digitaler Daten verdichtet oder reduziert wird. Dadurch sinkt der benötigte Speicherplatz, und die Übertragungszeit der Daten verkürzt sich. In der Nachrichtentechnik wird die Komprimierung von Nachrichten aus einer Quelle durch einen Sender als Quellenkodierung bezeichnet. Grundsätzlich wird bei der Datenkompression versucht, redundante Informationen zu entfernen. Dazu werden die Daten in eine Darstellung überführt, mit der sich alle – oder zumindest die meisten – Informationen in kürzerer Form darstellen lassen. Diesen Vorgang übernimmt ein Kodierer und man bezeichnet den Vorgang als Kompression oder Komprimierung. Die Umkehrung bezeichnet man als Dekompression oder Dekomprimierung. Man spricht von verlustfreier Kompression, verlustfreier Kodierung oder Redundanzreduktion, wenn aus den komprimierten Daten wieder exakt die Originaldaten gewonnen werden können. Das ist beispielsweise bei der Kompression ausführbarer Programmdateien notwendig. Bei der verlustbehafteten Kompression oder Irrelevanzreduktion können die Originaldaten aus den komprimierten Daten meist nicht mehr exakt zurückgewonnen werden, das heißt, ein Teil der Information geht verloren; die Algorithmen versuchen, möglichst nur „unwichtige“ Informationen wegzulassen. Solche Verfahren werden häufig zur Bild- oder Videokompression und Audiodatenkompression eingesetzt. Allgemein Datenkompression findet heutzutage bei den meisten Fernübertragungen digitaler Daten statt. Sie hilft, Ressourcen bei der Übertragung oder Speicherung von Daten einzusparen, indem sie in eine Form verwandelt werden, die – abhängig von der Anwendung – möglichst minimal ist. Dabei können verlustlos nur Daten komprimiert werden, die in irgendeiner Form redundant sind. Ist keine Redundanz vorhanden – zum Beispiel bei völlig zufälligen Daten – ist verlustlose Kompression wegen der Kolmogorov-Komplexität prinzipiell unmöglich. Ebenso verbietet das Taubenschlagprinzip, dass jede beliebige Datei verlustlos komprimiert werden kann. Hingegen ist verlustbehaftete Kompression immer möglich: Ein Algorithmus ordnet die Daten danach, wie wichtig sie sind und verwirft die „unwichtigen“ dann. In der Auflistung, wie wichtig welche Bestandteile sind, kann stets mehr verworfen werden, indem die „Behalten-Schwelle“ entsprechend verschoben wird. Bei der Datenkompression ist sowohl auf Sender- als auch auf Empfängerseite Berechnungsaufwand nötig, um die Daten zu komprimieren oder wiederherzustellen. Der Berechnungsaufwand ist jedoch bei verschiedenen Kompressionsmethoden sehr unterschiedlich. So sind etwa Deflate und LZO sowohl bei Kompression und Dekompression sehr schnell, während etwa LZMA unter großem Aufwand eine besonders weitgehende Kompression – und somit möglichst kleine Datenmengen – erzielt, während komprimierte Daten sehr schnell wieder in die ursprüngliche Form zurückgewandelt werden können. Dies erzwingt je nach Anwendungsgebiet eine unterschiedliche Wahl der Kompressionsmethode. Daher sind Kompressionsmethoden entweder auf Datendurchsatz, Energiebedarf oder die Datenreduktion optimiert, und die Kompression hat somit nicht immer eine möglichst kompakte Darstellung als Ziel. Deutlich wird der Unterschied bei diesen Beispielen: Werden Video- oder Tonaufnahmen live gesendet, müssen Kompression und Wiederherstellung möglichst schnell durchgeführt werden. Qualitätseinbußen sind vertretbar, wenn dafür die maximale (mögliche) Übertragungsrate eingehalten wird. Dies gilt beispielsweise für Telefongespräche, wo der Gesprächspartner oft auch bei schlechter Tonqualität noch verstanden wird. Wird eine einzelne Datei von unzähligen Nutzern heruntergeladen, lohnt sich ein langsamer, aber sehr leistungsfähiger Kompressions-Algorithmus. Die reduzierte Bandbreite bei der Übertragung macht den Zeitaufwand der Kompression leicht wett. Bei der Datensicherung und der Archivierung von Daten muss ein Algorithmus verwendet werden, der gegebenenfalls auch in ferner Zukunft verwendet wird. In diesem Fall kommen nur verbreitete, bewährte Algorithmen in Frage, die mitunter nicht die besten Kompressionsraten aufweisen. Auch die Art der Daten ist relevant für die Auswahl der Kompressionsmethode. Zum Beispiel haben die beiden auf unixoiden Betriebssystemen gebräuchlichen Kompressions-Programme gzip und bzip2 die Eigenschaften, dass gzip nur 32.000 Bytes große Blöcke komprimiert, während bzip2 900.000 Bytes Blockgröße aufweist. Redundante Daten werden nur innerhalb dieser Blöcke komprimiert. Mitunter werden die Daten vor der Kompression noch in eine andere Darstellung transformiert. Das ermöglicht einigen Verfahren die Daten anschließend effizienter zu komprimieren. Dieser Vorverarbeitungsschritt wird Präkodierung genannt. Ein Beispiel dafür ist die Burrows-Wheeler-Transformation und Move to front bei bzip2. Das Fachgebiet der Datenkompression überschneidet sich zum Teil mit Informationstheorie und künstlicher Intelligenz, und im Bereich der verlustbehafteten Datenkompression auch mit Wahrnehmungspsychologie (s. weiter unten). Informationstheorie ist insofern betroffen, weil die Dateigröße eines bestmöglich komprimierten Datensatzes direkt den Informationsgehalt dieses Datensatzes angibt. Kann ein Kompressionsalgorithmus lernen, unter welchen Umständen auf die Zeichenkette "ABC" ein "D" folgt, muss das "D" in der komprimierten Datei gar nicht gespeichert werden – bei der Wiederherstellung der ursprünglichen Datei weiß der Algorithmus, an welchen Stellen ein "D" einzufügen ist. Obwohl noch kein derartiger Kompressionsalgorithmus in der Praxis verwendet wird, sind diverse Kompressionsverfahren, die künstliche neuronale Netzwerke und maschinelles Lernen verwenden, in Entwicklung. Grenzen der Komprimierbarkeit Verlustbehaftete Kompression Verlustbehaftete Kompression ist, wie oben beschrieben, stets möglich – die Schwelle, was als „redundant“ gilt, kann so lange heraufgesetzt werden, bis nur noch 1 Bit übrig bleibt. Die Grenzen sind fließend und werden durch den Anwendungsfall bestimmt: Zum Beispiel könnte "Das Haus ist groß" zu "Das Haus ist gr" komprimiert werden; will der Leser wissen "welche Eigenschaft hat das Haus?", so ist nicht mehr unterscheidbar, ob es "grau", "grün" oder "groß" ist. Will der Leser wissen "wurde etwas über ein Haus gesagt?", so kann das noch immer eindeutig bejaht werden. Bei verlustbehafteter Bildkompression gehen zunehmend Details verloren/werden unscharf, schließlich „verschwimmt alles“ zu einer Fläche mit einheitlicher Farbe; eine Audio-Aufnahme wird meist dumpfer und undeutlicher, sie würde nach größtmöglicher Kompression bei den meisten Algorithmen nur noch einen einfachen Sinuston aufweisen. Verlustfreie Kompression Bei verlustfreier Kompression gelten sehr viel engere Grenzen, da gewährleistet sein muss, dass die komprimierte Datei wieder in die Originaldatei rücktransformiert werden kann. Die Kolmogorow-Komplexität befasst sich mit der kleinstmöglichen "Anleitung", die notwendig ist, um aus den komprimierten Daten die Originaldaten wiederherzustellen. So zum Beispiel lässt sich die Zahl "100000000000000000000000000000000000" sehr einfach komprimieren: "Schreibe 1 und dann 35 Nullen", was eine Kompression von 36 auf 29 Zeichen darstellt. Ebenfalls lassen sich beliebig viele Nachkommastellen der Kreiszahl Pi mit ihrer Berechnungsvorschrift komprimieren – wobei der Kompressionsalgorithmus dann erkennen müsste, dass es sich um die Zahl Pi handelt. Zu beachten ist, dass bei komprimierten Dateien der Wiederherstellungs-Algorithmus ebenfalls zur Dateigröße hinzugerechnet werden müsste, da jede komprimierte Datei ohne einen solchen Algorithmus wertlos ist. So ließe sich die obige Zahl auch mit "10^35" oder "1e35" komprimieren, wobei dann der Leser von der Wiederherstellungsmethode, nämlich der Potenzschreibweise, Kenntnis haben muss. Weist eine Zeichenkette aber keinerlei erkennbare Struktur/Besonderheiten auf, dann ist eine Kompression nicht möglich – die Anleitung müsste die unveränderten Originaldaten beinhalten. Ein weiterer Grund für die Unkomprimierbarkeit mancher Daten ist das sogenannte Taubenschlagprinzip: Gibt es weniger Nistplätze für Tauben als es Tauben im Taubenschlag gibt, müssen sich zwangsläufig zwei oder mehr Tauben einen Nistplatz teilen. Auf einem n bit großen Speicherplatz kann man eine von 2n möglichen Informationen abspeichern, und auf einem Speicherplatz, der um ein bit kleiner ist, kann man folglich nur eine von halb so viel möglichen Informationen speichern: 16 bits → 216 = 65536 mögliche Informationen, 15 bits → 215 = 32768 mögliche Informationen. Unter der Annahme, man könne jede mögliche Datei um ein bit verkleinern, würde dies nach dem Taubenschlagprinzip bedeuten, dass jeder Speicherplatz gleichzeitig zwei verschiedene komprimierte Dateien enthalten müsste. Da aber in der verlustfreien Kompression eine umkehrbar eindeutige Zuordnung zwischen komprimierter und unkomprimierter Datei bestehen muss, verbietet sich dies. Gälte das Taubenschlagprinzip nicht, und gäbe es einen Algorithmus, der jede beliebige Datei um mindestens ein Bit komprimieren kann, könnte dieser rekursiv auf die jeweils komprimierte Datei angewendet werden – jede beliebige Information ließe sich auf 0 bit reduzieren. In der Praxis lassen sich nur dann bereits komprimierte Daten nochmals komprimieren, wenn im vorherigen Durchlauf ein nicht 100%ig effizienter Algorithmus verwendet wurde, welcher die Redundanz noch nicht vollständig entfernt hat (z. B. eine sehr große Datei voller Nullen wird zwei Mal mit gzip komprimiert). Aus diesen beiden Tatsachen ergibt sich die Schlussfolgerung, dass rein zufällige Daten (höchstwahrscheinlich) unkomprimierbar sind (da sie zumeist keine Struktur aufweisen), und dass zwar viele, aber nicht alle, Daten komprimiert werden können. Zwei Preisgelder, 100 Dollar für die erfolgreiche Kompression von einer Million zufälliger Ziffern und 5000 Dollar für die erfolgreiche Kompression einer Datei beliebiger Länge, die vom Preisstifter, Mike Goldman, erzeugt wird, wurden noch nicht ausbezahlt. Verlustfreie Kompression Bei der verlustfreien Kompression können die Originaldaten exakt aus den komprimierten Daten wiederhergestellt werden. Dabei geht keinerlei Information verloren. Im Wesentlichen nutzen verlustfreie Kompressionsverfahren die Redundanz von Daten aus, man spricht auch von Redundanzreduktion. Die theoretische Grundlage bildet die Informationstheorie (verwandt mit der algorithmischen Informationstheorie). Sie gibt durch den Informationsgehalt eine minimale Anzahl an Bits vor, die zur Kodierung eines Symbols benötigt werden. Verlustlose Kompressionsverfahren versuchen nun Nachrichten so zu kodieren, dass sie sich ihrer Entropie möglichst gut annähern. Text Texte, sofern sie aus Buchstaben bestehen oder als Zeichenketten abgespeichert sind, und somit nicht als Bild (Rastergrafik, typischerweise eine Bilddatei nach dem Einscannen eines Buches), belegen vergleichsweise wenig Speicherplatz. Dieser lässt sich durch ein Verfahren zur verlustfreien Kompression auf 20 % bis 10 % des ursprünglich von ihr benötigten Platzes reduzieren. Beispiele: Ausgangstext: AUCH EIN KLEINER BEITRAG IST EIN BEITRAG Kodiertext: AUCH EIN KLEINER BEITRAG IST /2 /4 Hier wurde erkannt, dass die Wörter EIN und BEITRAG zweimal auftauchen, und dadurch angegeben, dass diese mit den gerade zurückliegenden übereinstimmen. Bei genauerer Betrachtung könnte dann auch das in KLEINER enthaltene EIN entsprechend kodiert werden. Wörterbuchmethode Verwandt ist die tokenbasierte Kompression. Häufig wiederkehrende Schlüsselwörter werden durch Abkürzungen, Tokens, ersetzt. Ausgangstext: Print "Hallo"; Print "Hier" Kodiertext: 3F "Hallo"; 3F "Hier" Für die Zuordnung der Tokens zu den eigentlichen Wörtern muss entweder ein externes Wörterbuch vorhanden sein, oder in der komprimierten Datei ersichtlich/mit enthalten sein. Run length encoding (RLE) Bei der RLE, deutsch Lauflängenkodierung, werden identische Textbestandteile, die hintereinander stehen, nur einmal abgespeichert – mit der Anzahl ihrer Wiederholungen. Hier wird „ 10 Grad,“ drei Mal wiederholt: Ausgangstext: In den letzten Tagen betrug die Temperatur 10 Grad, 10 Grad, 10 Grad, und dann 14 Grad. Kodiertext: In den letzten Tagen betrug die Temperatur/3/ 10 Grad,/ und dann 14 Grad. Die Burrows-Wheeler-Transformation ist eine umkehrbare Operation, welche einen gegebenen Text so umformt, dass dieselben Buchstaben möglichst oft gleich hintereinander stehen. So können die Daten dann mit RLE komprimiert werden. Entropiekodierung Verfahren der so genannten Entropiekodierung: Huffman-Code (in modifizierter Form zum Beispiel für die Fax-Übertragung). Arithmetische Kodierung Der bekannte Morse-Code funktioniert nach einem ähnlichen Prinzip und dient als gutes Beispiel: Häufige Buchstaben der englischen Sprache (z. B. E = .) werden als kurze Codes abgespeichert, seltene als lange Codes (z. B. Q = _ _ . _). Als Beispiel ein Ausgangstext von 66 Zeichen Länge (Datenmenge 462 Bit bei 7 Bit pro Zeichen, siehe ASCII): WENN HINTER FLIEGEN FLIEGEN FLIEGEN, FLIEGEN FLIEGEN FLIEGEN NACH. Eine sehr einfache, aber nicht sehr effiziente Entropiekodierung besteht darin, alle Teile einer Nachricht (siehe Tabelle; „_“ steht für das Leerzeichen) nach ihrer Häufigkeit zu sortieren, und mittels binären Zahlen zu nummerieren: Der mit diesem Wörterbuch komprimierte Text lautet 10 100 1 1 1 101 1 1 1 11 und benötigt in binärer Kodierung 50 Bit, denn das Ergebnis enthält drei verschiedene Zeichen (0, 1 und das Trennzeichen „ “), also 2 Bit pro Zeichen. Die Trennzeichen sind hier notwendig, da dieser Code nicht präfixfrei ist. Der präfixfreie Huffman-Code, also folgendes Wörterbuch, ist effizienter, denn es führt direkt zu einem binären Ergebnis von 18 Bit Länge: 011001111000111010 In beiden Fällen muss aber auch das Wörterbuch in der komprimierten Datei abgespeichert werden – sonst lässt sich der Ausgangstext nicht rekonstruieren. Programmdateien Bei Programmdateien ist es kritisch, dass sie nach erfolgter Dekomprimierung wieder im ursprünglichen Zustand sind. Andernfalls wäre eine fehlerfreie bzw. korrekte Ausführung unwahrscheinlich. Komprimierte Programmdateien sind meist selbst wieder ausführbare Dateien. Sie bestehen aus einer Routine, die den Programmcode wieder dekomprimiert und anschließend ausführt. Dadurch ist die Kompression des Programms für den Benutzer vollkommen ‚transparent‘ (er bemerkt sie nicht). Anwendungsbeispiele sind UPX und Upack. Verlustbehaftete Kompression Bei der verlustbehafteten Kompression werden irrelevante Informationen entfernt, man spricht auch von Irrelevanzreduktion. Dabei geht ein Teil der Information aus den Originaldaten verloren, sodass aus den komprimierten Daten nicht mehr das Original rekonstruiert werden kann. Es wird ein Modell benötigt, das entscheidet, welcher Anteil der Information für den Empfänger entbehrlich ist. Verlustbehaftete Kompression findet meist in der Bild-, Video- und Audio-Übertragung Anwendung. Als Modell wird dort die menschliche Wahrnehmung zugrunde gelegt. Ein populäres Beispiel ist das Audio-Format MP3, das Frequenzmuster entfernt, die der Mensch schlecht oder gar nicht hört. Die theoretische Grundlage bildet die Rate-Distortion-Theorie. Sie beschreibt, welche Datenübertragungsrate mindestens nötig ist, um Informationen mit einer bestimmten Güte zu übertragen. Bilder, Videos und Tonaufnahmen Ton, Bild und Film sind Einsatzgebiete verlustbehafteter Kompression. Anders wären die oftmals enormen Datenmengen sehr schwer zu handhaben. Bereits die Aufnahmegeräte begrenzen das Datenvolumen. Die Reduktion der gespeicherten Daten orientiert sich an den physiologischen Wahrnehmungseigenschaften des Menschen. Die Kompression durch Algorithmen bedient sich dabei typischerweise der Wandlung von Signalverläufen von Abtastsignalen in eine Frequenzdarstellung. In der akustischen Wahrnehmung des Menschen werden Frequenzen oberhalb von ca. 20 kHz nicht mehr wahrgenommen und können bereits im Aufnahmesystem beschnitten werden. Ebenso werden existierende, leise Nebentöne in einem Klanggemisch nur schwer wahrgenommen, wenn zur exakt gleichen Zeit sehr laute Töne auftreten, so dass die unhörbaren Frequenzanteile vom Daten-Kompressions-System entfernt werden können (siehe Psychoakustik), ohne dass dies als störend vom Hörer wahrgenommen würde. Der Mensch kann bei einer Reduktion digitalisierter, akustischer Ereignisse (Musik, Sprache, Geräusche) auf Werte um etwa 192 kbit/s (wie bei vielen Internet-Downloads) kaum oder gar keine Qualitätsunterschiede zum unkomprimierten Ausgangsmaterial (so bei einer CD) feststellen. In der optischen Wahrnehmung des Menschen werden Farben weniger stark aufgelöst als Helligkeitsänderungen, daraus leitet sich die schon beim analogen Farbfernsehen bekannte YUV-422 Reduzierung ab. Kanten sind dagegen bedeutsamer, und es existiert eine biologische Kontrastanhebung (Machsche Streifen). Mit moderater Tiefpassfilterung zur Farbreduktion, zum Beispiel durch den auf DCT-Transformation basierenden JPEG-Algorithmus oder den neueren auf Wavelet-Transformation basierenden JPEG2000-Algorithmus, lässt sich die Datenmenge meist auf 10 % oder weniger der ursprünglichen Datenmenge reduzieren, ohne deutliche Qualitätsverringerungen. Bewegtbilder (Filme) bestehen aus aufeinanderfolgenden Einzelbildern. Erster Ansatz war, jedes Bild einzeln gemäß JPeg-Algorithmus zu komprimieren. Das resultierende Format ist Motion JPEG (entspricht MPEG-1, wenn dieses nur I-Frames enthält). Die heutzutage sehr viel höheren Kompressionsraten sind nur erreichbar, wenn man bei der Kodierung die Ähnlichkeit von benachbarten Bildern (engl. Frames) berücksichtigt. Dazu wird das Bild in kleinere Kästchen (typische Größen liegen zwischen 4×4 und 16×16 Pixel) zerlegt und es werden ähnliche Kästchen in schon übertragenen Bildern gesucht und als Vorlage verwendet. Die Einsparung ergibt sich daraus, dass statt des gesamten Bildinhalts nur noch die Unterschiede der an sich ähnlichen Kästchen übertragen werden müssen. Zusätzlich wird aus den Änderungen vom vorherigen zum aktuellen Bild gefolgert, in welche Richtung sich Bildinhalte wie weit verschoben haben; für den entsprechenden Bereich wird dann nur ein Verschiebungsvektor gespeichert. Kompressionsartefakte Als Kompressionsartefakte bezeichnet man Signalstörungen, die durch die verlustbehaftete Kompression verursacht werden. Anwendung in der Nachrichtentechnik Bei der Datenübertragung wird häufig die zu übertragende Datenmenge durch Kompression reduziert. In so einem Fall spricht man dann auch von Quellenkodierung. Die Quellenkodierung wird dabei häufig zusammen mit Kanalkodierung und Leitungskodierung verwendet, sollte aber nicht mit diesen verwechselt werden: Während die Quellencodierung überflüssige (redundante) Information einer Datenquelle reduziert, hat die Kanalcodierung die Aufgabe, durch zusätzlich eingebrachte Redundanz Übertragungs- bzw. Speicherfehler im Rahmen der Datenübertragung erkennen und korrigieren zu können. Die Leitungskodierung hingegen nimmt eine spektrale Anpassung des Signals an die Anforderungen des Übertragungskanals vor. Zeittafel der Kompressions-Algorithmen Die jahrhundertealte Stenografie kann als Datenkompression angesehen werden, welche der Handschrift eine möglichst hohe Datenrate verleiht 1833–1865 Entwicklung des Morse-Codes, welcher häufige Buchstaben in kurze Zeichen übersetzt und seltene Buchstaben in längere, was die Idee der Entropiekodierung vorzeichnet 1883 David Forsyth, Schachspieler und Journalist, publiziert eine Methode, mit welcher auf platzsparende Weise die Position von Schach-Figuren mit Lauflängenkodierung festgehalten wird → Forsyth-Edwards-Notation 1949 Informationstheorie, Claude Shannon 1949 Shannon-Fano-Kodierung 1952 Huffman-Kodierung, static 1964 Konzept der Kolmogorow-Komplexität 1975 Integer coding scheme, Elias 1977 Lempel-Ziv-Verfahren LZ77 1978 Lempel-Ziv-Verfahren LZ78 1979 Bereichskodierung (eine Implementierung arithmetischer Kodierung) 1982 Lempel-Ziv-Storer-Szymanski (LZSS) 1984 Lempel-Ziv-Welch-Algorithmus (LZW) 1985 Apostolico, Fraenkel, Fibonacci coding 1986 Move to front, (Bentley et al., Ryabko) 1991 Reduced Offset Lempel Ziv (ROLZ, auch LZRW4, Lempel Ziv Ross Williams) 1994 Burrows-Wheeler-Transformation (bzip2) 1995 zlib, freie Standardbibliothek für Deflate 1996 Lempel-Ziv-Oberhumer-Algorithmus (LZO), sehr schnelle Kompression 1997 Sequitur 1998 Lempel-Ziv-Markow-Algorithmus (LZMA) 2006 Hutter-Preis für beste Datenkompression 2009 PAQ, höchste Kompressionsraten auf Kosten sehr langer Laufzeit; Verwendung eines neuronalen Netzwerks (heute ZPAQ) 2011 Snappy, schneller Kodierer von Google 2011 LZ4, sehr schneller Kodierer 2013 zopfli, verbesserter Deflate-Kodierer 2015 Brotli, starke Kompression Bekannte Methoden zur Quellcodierung Datenübertragung MNP-1 bis MNP-10 (Microcom Networking Protocol) Fehlerkorrektur- und Datenkompressionsprotokolle der Firma Microcom Inc. für Modems, ein jahrelanger Standard. Wurde verbessert durch: V.42bis – Datenkompressionsprotokoll der ITU-T Biologie Sinneswahrnehmungen werden gefiltert, was auch eine Art der Kompression darstellt, genauer eine verlustbehaftete Kompression, da nur aktuell relevante Informationen wahrgenommen werden. Fehlendes wird bei Bedarf unbewusst ersetzt. So sehen menschliche Augen beispielsweise nur in einem kleinen Bereich (Fovea centralis) scharf, außerhalb dieses engen Blickfeldes werden fehlende Informationen durch Muster unbewusst ersetzt. Ebenso kann das menschliche Auge Helligkeitsunterschiede wesentlich besser wahrnehmen als Unterschiede im Farbton – diesen Umstand nutzt das in JPEG-Bildern verwendete YCbCr-Farbmodell und speichert den Farbwert mit einer wesentlich geringeren Präzision ab. Auch beim Hören werden schwache oder fehlende Signale unbewussterweise ersetzt, was sich Algorithmen wie MPEG (MP3) oder Vorbis zunutze machen. Siehe auch Kanalkodierung Canterbury Corpus Liste von Datenkompressionsprogrammen Liste von Dateinamenserweiterungen Weblinks Vergleich der Kompressionsleistung von über 250 Packprogrammen (englisch) LA – Verlustfreies Audioformat mit den angeblich höchsten Kompressionsraten (englisch) Data Compression – Systematisation by T. Strutz (englisch) Data compression FAQ (englisch) Lelewer, Debra, A.; Hirschberg, Daniel, S.: „Data Compression“; ACM Computing Surveys, 19, 1987, S. 261–297. Übersichtsartikel (englisch) Liste mit Kompressionsvergleichen (englisch) Einzelnachweise
999
https://de.wikipedia.org/wiki/Deutscher%20Film
Deutscher Film
Die deutsche Filmgeschichte ist Teil der internationalen Filmkultur. Sie reicht von technischen Pionierleistungen über die frühen Kinokunstwerke des Stummfilms und neu etablierten Genres bis zu Propagandafilmen, Heimatfilmen, Autorenkino, populären Kassenschlagern und zu europäischen Koproduktionen. Die Herstellung von Fernsehfilmen und Serien, Werbefilmen, Dokumentarfilmen, Trickfilmen und Musikvideos gehört ebenfalls zum Filmschaffen in Deutschland. Das nationale Filmerbe wird insbesondere im Filmarchiv des Bundesarchivs gesammelt, gesichert und bereitgestellt. 1895–1918: Pionierzeit – Vom Kintopp zur Filmindustrie Die Filmgeschichte beginnt in Deutschland bereits im Geburtsjahr des Films überhaupt: Schon vor der ersten Vorführung der Brüder Lumière am 28. Dezember 1895 in Paris zeigten die Brüder Skladanowsky im Wintergartenpalais zu Berlin am 1. November 1895 kurze Filme auf einem Überblendprojektor. Dessen aufwändige Technik konnte allerdings gegenüber dem praktischeren Gerät der Lumières, das sowohl zur Aufnahme als auch Projektion genutzt werden konnte, nicht bestehen. Weitere bekannte deutsche Filmpioniere waren Guido Seeber und Oskar Messter. Die neuartige Kinematographie war zunächst eine Attraktion für die „höheren Schichten“; die Neuheit nutzte sich allerdings rasch ab – belanglose Kurzfilmchen wurden Jahrmarktsattraktionen für Kleinbürger und Arbeiter. Um das Publikum auch weiterhin fürs Kino zu begeistern, versuchten manche Filmhersteller an die Sensationslust des Publikums zu appellieren. Beispielhaft waren diesbezüglich die Filme von Joseph Delmont, der in Berliner Studios „wilde Raubtiere“ in Szene setzte und damit weltweit Bekanntheit erlangte. Die Ladenbuden, in denen damals Kino veranstaltet wurde, hießen im Volksmund einigermaßen verächtlich „Kintopp“. Dem versuchten künstlerisch interessierte Filmleute mit längeren Spielhandlungen nach literarischen Vorbildern entgegenzuwirken: Nach 1910 entstanden erste künstlerische Filme, beispielsweise Der Student von Prag (1913) des Reinhardt-Schauspielers und Regisseurs Paul Wegener. Ein weiterer Pionier des deutschen Films war der vielseitige Ernst Lubitsch. Ebenfalls beeinflusst von Max Reinhardt, inszenierte er zuerst zwei- und dreiaktige Filme, nach 1918 aber vor allem präzise inszenierte Kammerspiele. Vor 1914 wurden allerdings auch viele ausländische Filme importiert, besonders dänische und italienische Kunstfilme standen in hohem Kurs, Sprachgrenzen gab es im Stummfilm nicht. Der Wunsch des Publikums nach weiteren Filmen mit ganz bestimmten Darstellern schuf auch in Deutschland das Phänomen des Filmstars, die Schauspielerinnen Henny Porten und die aus Dänemark kommende Asta Nielsen gehörten zu den ersten Stars. Der Wunsch der Zuschauer nach Fortsetzungen bestimmter Filme regte die Produktion von Filmserien (Serials) an, beliebt war vor allem der Detektivfilm – hier begann auch der Regisseur Fritz Lang seine glänzende Karriere. Der Boykott beispielsweise französischer Filme in der Kriegszeit hinterließ eine spürbare Lücke, teilweise mussten Filmvorführungen durch Varieté-Nummern ergänzt oder ersetzt werden. Um 1916 existierten schon 2000 feste Abspielstätten im Deutschen Reich. Bereits 1917 setzte mit der Gründung der Universum Film (UFA) die massive und halbstaatliche Konzentration der deutschen Filmindustrie ein, auch als Reaktion auf die sehr effektive Nutzung des neuen Mediums durch die alliierten Kriegsgegner zu Propagandazwecken. Unter militärischer Ägide entstanden sogenannte „vaterländische Filme“, die in Sachen Propaganda und Verfemung des Kriegsgegners entsprechenden Streifen der Alliierten teilweise gleichkamen. Das Publikum kam aber eher wegen der Unterhaltungsfilme in die Kinos, welche daher ebenfalls gefördert wurden. Auf diese Weise wuchs die deutsche Filmindustrie zur größten Europas heran. 1918–1933: Stummfilmklassiker und früher Tonfilm Aus dem Ersten Weltkrieg ging die deutsche Filmwirtschaft gestärkt hervor. Bereits 1919 setzte die deutsche Filmproduktion zu ihrem Höhenflug an. Fünfhundert Filme wurden in diesem Jahr fertig gestellt. Die 3000 deutschen Kinos verzeichneten trotz der herrschenden Inflation und Armut über 350 Millionen Besucher. Aufgrund der schwachen Währung des an Nachkriegsfolgen wie Inflation leidenden Deutschlands florierten auch die Exporte von Filmen. So war auch der größte Teil der deutschen Filmwirtschaft kommerziell ausgerichtet. Unterhaltungs-, Abenteuer- und Kriminalfilme wurden am laufenden Band hergestellt. Filmgeschichtlich relevant ist jedoch nur jener kleine Teil des damaligen Produktionsaufkommens, der auch künstlerischen, ästhetischen und teils auch gesellschaftspolitischen Ansprüchen genügen sollte: Filme, die heute dem Aufklärungsfilm, der Neuen Sachlichkeit, dem Kammerspielfilm und dem expressionistischen Film zugeordnet werden. Publizisten wie Albert Hellwig warnten nachdrücklich vor „Schundfilmen“. Artikel 118 der Weimarer Verfassung wies deshalb eigens darauf hin, dass für Lichtspiele durch Gesetz von der Zensurfreiheit abweichende Bestimmungen getroffen werden könnten. Das Reichslichtspielgesetz von 1920 führte schließlich eine ordentliche Staatszensur ein. Zu kontrollieren war, ob der Film die öffentliche Ordnung und Sicherheit gefährden, das religiöse Empfinden verletzen, verrohend oder entsittlichend wirken, das deutsche Ansehen oder die Beziehungen Deutschlands zu auswärtigen Staaten gefährden könne. Diese Auflagen waren umso bemerkenswerter, als nicht nur die Presse, sondern auch das Theater unzensiert blieben. Es gab jedoch auch ansprechende Unterhaltungsfilme. So gelang etwa Ernst Lubitsch mit seiner Großproduktion „Madame Dubarry“ im Jahr 1919 eine präzise Inszenierung mit den aufsteigenden Stars des deutschen Films Pola Negri und Emil Jannings. Auch der phantastische Film verzeichnete in Deutschland mit „Der Golem, wie er in die Welt kam“ (1920) von Paul Wegener einen großen Erfolg. Der international erfolgreiche Film lief monatelang in ausverkauften Häusern von den Vereinigten Staaten bis nach China. Ab 1919 erlangte der deutsche expressionistische Film Weltruhm. Als Grundstein und Höhepunkt zugleich gilt hier „Das Cabinet des Dr. Caligari“ (1919) von Robert Wiene. In diesem Film fand der expressionistische Kunststil, der seit 1905 durch die Künstlergruppe „Brücke“ propagiert wurde, seinen ersten Niederschlag im Film. Schräge, verbogene und verzerrte Wände, Kulissen und Dekorationsobjekte machten den Film rund um einen wahnsinnigen Mörder zum schauerromantischen Erlebnis. Die expressiven Kulissen erforderten auch von den Schauspielern expressivere Ausdrucksweisen, was zumeist nun in Ansätzen gelang. Überzeugend in dieser Hinsicht war jedoch Fritz Kortner, der sein Können erstmals im österreichischen Beethoven-Porträt Der Märtyrer seines Herzens zeigen konnte, und in der Folge etwa in Leopold Jessners „Hintertreppe“ (1921) oder Robert Wienes „Orlac’s Hände“ (1924) expressiv darstellte. In „Nosferatu, eine Symphonie des Grauens“ erweiterte Friedrich Wilhelm Murnau 1922 den ausgeprägten Licht-Schatten-Gegensatz vom visuellen Effekt zum dramaturgischen Aufbauelement. Der expressionistische Film, geboren aus der Not, eher mit improvisatorischer Phantasie als mit großem Budget arbeiten zu müssen, schien eine vorübergehende Modeerscheinung zu sein. Er beeinflusste jedoch stark die düstere Ästhetik späterer Horror- und Gangsterfilme weltweit. Auch Regisseure wie Jean Cocteau oder Ingmar Bergman ließen sich hier inspirieren. Von der Filmkritik – siehe Lotte Eisner und Siegfried Kracauer – wurden dem frühen deutschen Kunstfilm im Nachhinein allerdings auch apokalyptische und autoritätsfromme Tendenzen attestiert. Nachfolgestil war der stärker sozialkritisch geprägte neusachliche Film, realisiert beispielsweise von Georg Wilhelm Pabst („Die freudlose Gasse“, 1925; „Die Büchse der Pandora“, 1929). Weitere bedeutende Filme der Neuen Sachlichkeit in Deutschland sind „Die Abenteuer eines Zehnmarkscheines“ (1926), dessen Drehbuch der große ungarische Filmtheoretiker Béla Balázs verfasste, und „Menschen am Sonntag“ (1930), bei dem mit Billy Wilder, Edgar G. Ulmer, Fred Zinnemann und den Gebrüdern Curt und Robert Siodmak gleich mehrere junge Talente des Regie- und Drehbuchfaches mitwirkten. Ebenfalls vom Expressionismus mit seinen düsteren Elementen, Wahn- und Traumvorstellungen beeinflusst war der Kammerspielfilm. Dieser erzählte Geschichten von der Verelendung des Kleinbürgertums, der vorherrschenden Armut und der Psychologie des Alltags. Bedeutendste Werke waren diesbezüglich „Scherben“ (1921), „Hintertreppe“ (1921), „Sylvester“ (1923) und „Der letzte Mann“ (1924). Letztgenannter Film gilt nicht zuletzt aufgrund seiner „entfesselten Kamera“ – Karl Freund wandte die von ihm entwickelte Technik der Kamerafahrt bzw. des „Kameraflugs“ an, was dem Film eine bisher noch nie da gewesene optische Dynamik verleiht – als Glanzleistung des deutschen Stummfilms. Zeitweise produzierten über 230 Filmgesellschaften allein in Berlin, neue Studios in Babelsberg ermöglichten noch größere Filmprojekte: im Kinospektakel „Metropolis“ (1927) von Fritz Lang wirkten 36.000 Komparsen mit, der Kameramann und Tricktechniker Eugen Schüfftan brachte hier sein revolutionäres Spiegeltrick-Verfahren erstmals ausführlich zum Einsatz. Fritz Lang schuf gemeinsam mit seiner Frau Thea von Harbou, die häufig die Drehbücher für seine Filme verfasste, einige Meisterwerke des Stummfilms. So etwa der gesellschaftskritische, im Berliner Milieu spielende Verbrecherfilm Dr. Mabuse, der Spieler (1922) oder das monumentale, zweiteilige Heldenepos „Die Nibelungen“ (1924). Ab Mitte der 1920er Jahre wurden riesige Kinopaläste mit 1600 und mehr Plätzen eröffnet. Der deutsche Stummfilm wurde wichtiges Exportprodukt und Devisenbringer für den verarmten Kriegsverlierer Deutschland. Die Abwertung der einheimischen Währung begünstigte die vorübergehende kreative und ökonomische Blüte des deutschen Kinos. Die deutsche Filmindustrie manövrierte dabei zwischen Glanz und Elend; auch wegen der gesamtwirtschaftlich instabilen Verhältnisse und ruinöser Großproduktionen. Wie in anderen Branchen konnten spektakuläre Pleiten (teilweise sogar mit politischen Hintergründen, vgl. die Phoebus-Affäre), Übernahmen und Konzentrationsprozesse beobachtet werden (vgl. Parufamet). So zog es nicht wenige der fähigsten deutschen Filmschaffenden – wie z. B. 1923 das Komödiengenie Ernst Lubitsch – früh nach Amerika. Außerdem: sogenannte Asphalt- und Sittenfilme nahmen sich „anrüchiger“ Themen (Abtreibung, Prostitution, Homosexualität, Nacktkultur, Drogensucht etc.) an und zogen die Kritik konservativer Kreise sowie die Zensur auf sich. Auch Dokumentar- und Experimentalfilm blühten auf, siehe etwa das Schaffen der Lotte Reiniger, Oskar Fischingers, Robert Siodmaks oder Walter Ruttmanns. Eine neuartige Mischung aus Natur- und Spielfilm stellte das Bergfilm-Genre dar. Der Düsseldorfer Draufgänger Harry Piel realisierte frühe Spielarten des Actionfilms. Die umstrittenen „Preußenfilme“ erfreuten sich bei der politischen Rechten großer Beliebtheit, das „Dritte Reich“ sollte diese Reihe fortsetzen. Die UFA war 1927 Teil des konservativen Hugenberg-Konzerns geworden. Auf der Linken entwickelte sich die „Volksfilm-Bewegung“ mit der Ende 1925 gegründeten Prometheus Film als größter „linker“ Filmfirma der Weimarer Republik. Diese schuf Klassiker wie den kommunistischen Film „Kuhle Wampe“ (1932) über die gleichnamige Zeltkolonie am Berliner Stadtrand. Zu den nennenswerten Regisseure des linken Spektrums gehört auch Werner Hochbaum, der nach zwei Wahlfilmen für die Sozialdemokraten mit „Brüder“ (1929) seinen ersten Langspielfilm dreht, der eine realistische Schilderung der tristen Wohn- und Arbeitssituation des Hamburger Proletariats ist. Filme mit sozialistischem Gedankengut hatten es bisher schwer, da Produzenten und Geldgeber in der Regel selbst zu den Bessergestellten gehörten und kein Interesse hatten, sozialrevolutionäre Proteste zu unterstützen. Doch auch die Prometheus hatte Probleme mit der Zensur, zumal die staatliche Filmprüfstelle bereits in deutschnationaler Hand war. Konnten rechtskonservative Filme wie Gustav Ucickys Das Flötenkonzert von Sans-souci (1930) große Publikumserfolge feiern, wurden antiautoritäre Filme, wie etwa der pazifistische US-amerikanische Filmklassiker Im Westen nichts Neues (1930) von den Nationalsozialisten boykottiert und in der Folge verboten. Die beliebten Reisefilme zeigten exotische Schauplätze, die ein Durchschnittsverdiener damals nur auf der Leinwand besichtigen konnte. Mit dem Wechsel vom Stumm- zum Tonfilm in den 1920er Jahren bis etwa 1936 erlebte die Filmwelt eine enorme Umstellung. Hatte sich bis dahin der Stummfilm zu einer formal hochstehenden Kunstrichtung entwickelt, musste der Tonfilm zuerst einen enormen künstlerischen Rückschritt erleben. Abgefilmte Sprechszenen ersetzten die erprobte Kombination aus ausdrucksbetonten Darstellern, visuellen Effekten, Dekor, Kameraführung und Montage, die anstelle des Textes den Inhalt und die Botschaft eines Films übermittelten, wodurch kaum noch Zwischentitel in den Filmen nötig waren. Zugleich bedeutete der Tonfilm eine massive Einschränkung des Absatzmarktes für deutsche Produktionen, die sich nun auf den deutschsprachigen Raum beschränken musste. Die Synchronisation war technisch noch nicht möglich und sollten Filme auch im fremdsprachigen Ausland gezeigt werden, mussten sie in der jeweiligen Sprache und mit dementsprechend veränderter Besetzung gleichzeitig mit der deutschen Version gefilmt werden – so genannte Versionenfilme. Dennoch konnte der frühe deutsche Tonfilm (1929 bis 1933) rasch an frühere Erfolge anknüpfen und teils sogar übertrumpfen. Werke wie Josef von Sternbergs „Der blaue Engel“ (1930), wie Phil Jutzis „Berlin – Alexanderplatz“ (1931) oder wie die Filmversion von Brechts „Dreigroschenoper“ von Pabst (1931) entstanden. Fritz Lang drehte weitere Meisterwerke, unter anderem „M“ (1931). Trotz – oder gerade wegen – der Weltwirtschaftskrise waren die Lichtspielhäuser damals gut frequentiert. 1932 existierten bereits 3800 Tonfilmkinos. 1933–1945: Film im Nationalsozialismus Mit der Machtübernahme Hitlers und Errichtung der nationalsozialistischen Diktatur veränderte sich die Produktion: Über 1.500 Filmschaffende emigrierten – unter anderem Fritz Lang, Marlene Dietrich, Peter Lorre, Max Ophüls, Elisabeth Bergner, Friedrich Hollaender, Erich Pommer, später auch Detlef Sierck (Siehe dazu auch die Liste bekannter deutschsprachiger Emigranten und Exilanten (1933–1945)). Wegen der antisemitischen „Arisierungs“politik der Nationalsozialisten mussten Filmkünstler jüdischer Herkunft ihre Arbeit im Deutschen Reich aufgeben. Einige Künstler, wie beispielsweise Kurt Gerron, entkamen dem Regime nicht und wurden später in Konzentrationslagern ermordet. Es wurden nur noch solche Filme genehmigt, die dem Regime ungefährlich erschienen. In den späten 1930er und frühen 1940er Jahren entstanden dementsprechend vor allem Unterhaltungsfilme („Die Feuerzangenbowle“, 1944), Durchhalte- und Propagandafilme („Jud Süß“, 1940; Filme zum Thema Friedrich der Große, regelmäßig mit Otto Gebühr). Offensive NS-Propaganda – vgl. z. B. den Pseudodokumentarfilm „Der ewige Jude“ – wurde dabei zugunsten glamouröser und erstmals auch farbiger UFA-Zerstreuung an die Seite gedrängt: Vom meist tristen Alltag im totalitären Deutschland, später auch vom Schrecken des „totalen Krieges“ konnten sich die Zuschauer so ablenken. Nebenbei propagierten viele Unterhaltungsstreifen auch Werte wie Schicksalsergebenheit und das Führerprinzip. 1942 bis 1944, auf dem Höhepunkt des Bombenkrieges, wurden in den etwa 7000 Kinos des Großdeutschen Reichs einschließlich Österreichs und später besetzter Gebiete jährliche Zuschauerzahlen von über einer Milliarde erreicht. Es gab aber durchaus Werke, welche nicht ganz dem NS-Menschenbild und der Ideologie der Machthaber entsprachen, siehe „Viktor und Viktoria“ (1933), „Der Maulkorb“ (1938) und die Filme von Helmut Käutner und Curt Goetz. Auch die „Soundtracks“ vieler Musikfilme waren beschwingter, als es die Vorstellung der Nationalsozialisten über völkische Folklore eigentlich erlaubte (vgl. Peter Kreuder und andere). Mutige Filmschaffende waren aber immer auch von Repression und Zensur bedroht. Meist war offizielle Zensur jedoch unnötig; so hatte die Filmindustrie sich schon 1933 in quasi vorauseilendem Gehorsam mit der Produktion des Propagandafilms „Hitlerjunge Quex“ der NS-Bewegung angedient. 1934 wurde die Präventivzensur von Filmen bzw. Drehbüchern, eingeführt, 1936 die Filmkritik endgültig verboten. Mitte 1936 übertrug auch ein Gesetz zur „Vorführung ausländischer Filme im Deutschen Reich“ dem NS-Propagandaministerium die alleinige Entscheidungsbefugnis über die Vorführungszulassung. Deutsche Revue-, Musical- und Spielfilme mussten nach der Einführungsbeschränkung auch den Mangel an ausländischen, vor allem amerikanischen Filmen ausgleichen. Ab 1937 stand die Filmindustrie gänzlich unter staatlicher Kontrolle. Die Produktion von Unterhaltungsware wurde von der NS-Führung zu einem Staatsziel erklärt. Die dem Kinofilm vom Regime zugemessene Wichtigkeit wurde auch durch die Aufrechterhaltung von aufwändigen Filmprojekten – z. B. Herstellung eines deutschen Langfilms in Farbe noch 1943 – und Großproduktionen praktisch bis zum Kriegsende deutlich (vgl. „Kolberg“). Technisch innovatives und gleichzeitig politisch fatales leistete Leni Riefenstahl mit ihren Reichsparteitags- und Olympia-Dokumentationen sowohl für den Dokumentar-, als auch für den Sportfilm (1936–1938). Die Werke zeichneten sich durch die verführerische Massenästhetik des Totalitarismus aus. 1945–1990: Film in einem geteilten Land Nachkriegszeit und Besatzung Nach dem Zweiten Weltkrieg änderten sich die ökonomischen Rahmenbedingungen der Filmproduktion, denn die Alliierten beschlagnahmten und kontrollierten das Vermögen der Dachgesellschaft UFA-Film. Sie verfügten im Rahmen der in den ersten Nachkriegsjahren verfolgten Politik der Dekartellierung der deutschen Wirtschaft, dass sie ihre Produktionstätigkeit einstellt. Um eine erneute ökonomische Konzentration in der Filmindustrie zu verhindern, erteilten sie in den folgenden Jahren Produktionslizenzen an eine Vielzahl von mittleren und kleinen Firmen. Im Rahmen des am 21. August 1949 in Kraft getretenen Besatzungsstatuts legten die Alliierten unter anderem fest, dass die Bundesrepublik keine Importbeschränkungen für ausländische Filme festsetzen darf, um ihre eigene Filmwirtschaft gegen Konkurrenz aus dem Ausland zu schützen. Diese Bestimmung geht auf eine intensive Lobbyarbeit der amerikanischen MPAA zurück. Denn die großen Hollywood-Studios gerieten in dieser Zeit durch das aufkommende Fernsehen selbst in Bedrängnis und waren auf Einnahmen aus dem Exportgeschäft dringend angewiesen. Diese besatzungsrechtlichen Regelungen wurde auch in den folgenden Jahren durch bilaterale Verträge zwischen den USA und der Bundesrepublik Deutschland fortgeschrieben. Als Bestandteil der Reeducation bekamen viele Deutschen erstmals schockierende Filmbilder der NS-Konzentrationslager zu sehen. Andererseits waren jetzt auch ausländische Spielfilme wieder in Deutschland zugänglich. Besonders beliebt bei den Zuschauern waren Filme mit Charlie Chaplin und US-Melodramen. Dennoch war der Anteil amerikanischer Filme in der unmittelbaren Nachkriegszeit und den 50er Jahren noch vergleichsweise gering: Der Marktanteil der deutschen Filme lag in dieser Zeit bei 40 %, während die mit doppelt so viel Filmen in Verleih sich befindenden amerikanischen Filme nur auf einen Marktanteil von 30 % kamen. Dies änderte sich erst in den 1960er Jahren (vgl. Schneider: Film, Fernsehen & Co., S. 35, 42 und 44). Die meisten deutschen Filme der unmittelbaren Nachkriegszeit werden als Trümmerfilme bezeichnet und beschäftigten sich mit dem Leben im weitgehend zerstörten Nachkriegsdeutschland und mit der Vergangenheitsbewältigung. Sie waren stark vom italienischen Neorealismus beeinflusst und häufig dokumentarisch orientiert. Der erste deutsche Nachkriegsfilm war Wolfgang Staudtes Film „Die Mörder sind unter uns“ aus dem Jahr 1946. Ein weiterer bekannter Trümmerfilm war „Liebe 47“ (1949, Regie: Wolfgang Liebeneiner) nach dem Drama „Draußen vor der Tür“ von Wolfgang Borchert. Der italienische Regisseur Roberto Rossellini drehte im Jahr 1946 im zerbombten Berlin den Film „Deutschland im Jahre Null“ an Originalschauplätzen und mit Laiendarstellern. Westdeutscher Film in den 1950er-Jahren Nach dem kurzen Intermezzo des „Trümmerfilms“ setzte man in den 1950er Jahren in Westdeutschland wieder vorwiegend auf Unterhaltung, besonders auf den Heimatfilm, den Schlagerfilm und auf Kriegsfilme. Weitere typische Genres der Zeit waren Operetten- und Arztfilme sowie Gesellschaftskomödien. Der Erfolg deutscher Heimatfilme begann mit dem ersten deutschen Nachkriegsfarbfilm „Schwarzwaldmädel“ (1950), nach der gleichnamigen Operette von August Neidhart und Leon Jessel. Regie führte Hans Deppe. Sonja Ziemann und Rudolf Prack stellten das Traumpaar dieses Films dar. Weitere erfolgreiche Heimatfilme waren „Grün ist die Heide“ (1951), ebenfalls von Hans Deppe, „Wenn die Abendglocken läuten“ (1951) von Alfred Braun, „Am Brunnen vor dem Tore“ (1952) von Hans Wolff, „Der Förster vom Silberwald“ (1954) von Alfons Stummer, „Das Schweigen im Walde“ (1955) von Helmut Weiss und „Das Mädchen vom Moorhof“ (1958) von Gustav Ucicky. Insgesamt wurden in den 1950er Jahren mehr als 300 Filme dieses Genres gedreht. Für den Erfolg des Heimatfilms steht unter anderem die Filmverleiherin Ilse Kubaschewski, die als Grande Dame des deutschen Nachkriegsfilmes gilt. 1949 gegründete sie den Gloria Filmverleih. Verleihunternehmen waren kapitalstark und in den Nachkriegsjahren essentiell für die Finanzierung von Filmen. Ilse Kubaschewski stieg innerhalb weniger Jahre zu einer der bedeutendsten Persönlichkeiten im deutschen Filmgeschäft auf. „Grün ist die Heide“ war für sie der Durchbruch. Charakteristisch für Heimatfilme der 1950er Jahre waren eine melodramatische Handlung, die meistens eine Liebesgeschichte beinhaltete, sowie komische oder tragische Verwechslungen. Häufig gab es Musikeinlagen. Die Handlung spielte in abgelegenen, aber spektakulären und durch den Zweiten Weltkrieg unzerstörten Landschaften wie dem Schwarzwald, den Alpen oder der Lüneburger Heide. Es werden insbesondere konservative Werte wie Ehe und Familie betont. Frauen werden meistens nur als Hausfrau und Mutter positiv dargestellt. Die Obrigkeit darf nicht in Frage gestellt werden, und Heiraten waren nur innerhalb derselben sozialen Gruppe möglich. Viele Heimatfilme dieser Zeit waren Neuverfilmungen alter UFA-Produktionen, die nun allerdings weitgehend von der Blut-und-Boden-Schwere der Vorbilder aus der NS-Zeit befreit waren. Der Heimatfilm, von der seriösen Kritik lange ignoriert, wird seit einigen Jahren auch zwecks Analyse früher westdeutscher Befindlichkeiten ernsthaft untersucht. Mit der Wiederbewaffnung Westdeutschlands 1955 setzte auch eine populäre Kriegsfilmwelle ein. Beispiele waren 08/15 (1954) von Paul May nach dem gleichnamigen Roman von Hans Hellmut Kirst, Canaris (1954) von Alfred Weidenmann und Der Arzt von Stalingrad (1958) von Géza von Radványi nach einem Roman von Heinz G. Konsalik. Die problematischen Streifen zeigten den deutschen Soldaten des Zweiten Weltkrieges als tapferen, unpolitischen Kämpfer, der eigentlich immer schon dagegen gewesen war. Ansonsten erschöpfte sich die Vergangenheitsbewältigung weitgehend in einigen Filmen zum militärischen Widerstand gegen Hitler. Hier wäre besonders der Film Der 20. Juli (1955) von Regisseur Falk Harnack zu nennen, der während der Zeit des Nationalsozialismus selbst als Widerstandskämpfer tätig war und der Gruppe der Weißen Rose zuzurechnen ist. Das dritte wichtige Genre im westdeutschen Kino der 1950er Jahre war der Schlagerfilm, wie etwa „Liebe, Tanz und 1000 Schlager“ (1954) von Paul Martin, „Peter schießt den Vogel ab“ (1959) von Géza von Radványi oder „Wenn die Conny mit dem Peter“ (1958) von Fritz Umgelter, letzterer eine biedere Antwort der deutschen Filmindustrie auf die amerikanische Jugendkultur und die dortigen Rock-’n’-Roll-Filme. In diesen Filmen war die Handlung wenig ausgearbeitet, sie diente nur als Rahmen für Gesangsauftritte. Meistens ging es um Liebe oder Klamauk. Schlagerfilme blieben in Westdeutschland noch bis in die 1970er Jahre erfolgreich. Fernsehen (ab 1954) und verpasster Anschluss an neue Filmtrends führten zur Krise des westdeutschen Kinos, auch wenn es durchaus einzelne Qualitätsfilme wie etwa Bernhard Wickis „Die Brücke“ (1959) und kontroverse Produktionen wie „Die Sünderin“ (1951, mit Hildegard Knef) gab. Ungewöhnlich für die damalige Zeit war auch der Film „Mädchen in Uniform“ (1958) von Géza von Radványi mit Romy Schneider als Schülerin eines Internats, die sich in ihre Klassenlehrerin verliebt, allerdings ein Remake des gleichnamigen Films von 1931. Aus den Reihen der Heimatfilmdarsteller ging mit Romy Schneider ein späterer Weltstar hervor. Für den Oscar als bester fremdsprachiger Film war unter anderem Der Hauptmann von Köpenick (1956) von Helmut Käutner nominiert. Von der internationalen Bedeutung her konnte sich die westdeutsche Filmindustrie nicht mehr mit der französischen, italienischen oder japanischen messen. Deutsche Filme wurden im Ausland als provinziell wahrgenommen und Verkäufe an andere Länder waren eher selten. Koproduktionen mit ausländischen Partnern, die in dieser Zeit etwa zwischen italienischen und französischen Firmen schon üblich waren, wurden von den deutschen Produzenten meistens abgelehnt. In den 1950er Jahren erlebte das deutsche Kino trotz allem eine (Schein)blüte, auch als „Kinowunder“ bezeichnet. Sowohl die Zahl der gezeigten Produktionen als auch die Anzahl der Kinobesuche und der Leinwände stieg in der Zeit von 1946 bis 1956 rapide an. In diesem Jahr erreichten die bundesrepublikanischen Zuschauerzahlen mit 817 Millionen Kinobesuchern ihren Zenit. Im Sommer 2016 unternahm das Deutsche Filminstitut in einer von Olaf Möller kuratierten Retrospektive unter dem Titel "Geliebt und verdrängt" auf dem Internationalen Filmfestival in Locarno eine Neubewertung des westdeutschen Films von 1949 bis 1963. Begleitend zur Retrospektive erschien im Verlag des Filmmuseum ein von dessen Leiterin, Claudia Dillmann, und Olaf Möller herausgegebener Band mit dem Titel: Geliebt und verdrängt. Das Kino der jungen Bundesrepublik Deutschland von 1949 bis 1963. Ostdeutscher Film Der ostdeutsche Film konnte zunächst davon profitieren, dass die Infrastruktur der alten UFA-Filmstudios im nun sowjetisch besetzten Teil Deutschlands (Gebiet der späteren DDR) lag. Die Spielfilmproduktion kam daher schneller in Gang als in den Westsektoren. Grundsätzlich verband die Filmschaffenden und die Kulturpolitiker der DDR, bei allen sonstigen Differenzen und Reibungspunkten, das antifaschistische Engagement und die Überzeugung, für das „bessere Deutschland“ zu arbeiten. Allerdings war dabei „vielen 'führenden' Antifaschisten zugleich auch der Stalinismus in Fleisch und Blut übergegangen.“ (Ralf Schenk) In der DDR entstanden unter Regisseuren wie beispielsweise Wolfgang Staudte einige bemerkenswerte Filme (unter anderem „Der Untertan“ nach Heinrich Mann, 1951). Staudte ging später nach Westdeutschland. Von der Produktion heroischer Personenkultfilme wie denen der „Ernst Thälmann“-Serie (ab 1954) nahm man später Abstand. Weitere bekannte Filme des halbstaatlichen ostdeutschen DEFA-Monopolbetriebs waren etwa „Der geteilte Himmel“ (1964, nach Christa Wolfs gleichnamigem Roman), „Die Legende von Paul und Paula“ (1973), „Solo Sunny“ (1978), „Jakob der Lügner“ (1975, nach Jurek Becker). Produktionen, die sich kritisch mit dem DDR-Alltag beschäftigten, wurden von der Parteiführung mitunter aus dem Verleih genommen – vergleiche die „Spur der Steine“ von 1966. Dieses Werk gehörte zu jener fast kompletten DEFA-Jahresproduktion von Gegenwartsfilmen, die in einem rabiaten Kahlschlag nach dem 11. Plenum des ZK der SED im Dezember 1965 verboten wurde. Bekannte ostdeutsche Regisseure waren beispielsweise Frank Beyer, Konrad Wolf und Egon Günther. Nach 1976 verließen auch zahlreiche bekannte Filmschauspieler die DDR, unter anderem Angelica Domröse, Eva-Maria Hagen, Katharina Thalbach, Hilmar Thate, Manfred Krug. Armin Mueller-Stahl konnte seine Karriere gar in Hollywood fortsetzen. Da die DDR in den 1980er Jahren auch zahlreiche Filme aus dem Westen in ihr Verleihsystem nahm, reduzierte sich die Rolle der DEFA immer stärker. Während ihres Bestehens produzierte die DEFA neben TV-Filmen und – teils sehr guten – Dokumentarfilmen (Volker Koepp, Barbara und Winfried Junge und andere) insgesamt ungefähr 750 abendfüllende Spielfilme fürs Kino. Ähnlich wie andere Filmnationen Osteuropas – hier ist z. B. die Tschechoslowakei zu nennen – hatte das Kino der DDR auch besondere Stärken beim Kinderfilm. Der Jugendfilm Sieben Sommersprossen (1978), Regie Herrmann Zschoche, war mit 1,2 Millionen Zuschauern eine der erfolgreichsten DEFA-Produktionen überhaupt. Die Kinokrise und die „Altbranche“ Am Ende der fünfziger Jahre wuchs die Unzufriedenheit mit der bundesdeutschen Filmproduktion. Bundesinnenminister Gerhard Schröder (CDU) kritisierte 1958 bei der Verleihung des Deutschen Filmpreises die „Misere des deutschen Filmschaffens“ und befand: „Unsere Hoffnungen wurden leider enttäuscht“. Das Feuilleton übte immer heftiger Kritik. 1961 erschienen zwei intensiv diskutierte und folgenreiche Beiträge, die ein vernichtendes Urteil über das deutsche Filmschaffen fällten: Der deutsche Film kann gar nicht besser sein von Joe Hembus und Kunst oder Kasse von Walther Schmieding. Im Zuge der Verbreitung von Fernsehgeräten in privaten Haushalten stagnierten die jahrelang angestiegenen Filmbesucherzahlen nun und wurden dann rückläufig. Besonders in den 1960er Jahren ging der Kinobesuch rapide zurück. Wurden im Jahr 1959 noch 670,8 Mio. Besucher gezählt, waren es im Jahr 1969 nur noch 172,2 Mio. Zahlreiche Kinos mussten in dieser Zeit schließen, man sprach vom „Kinosterben“. Als Reaktion drosselten die deutschen Hersteller den Ausstoß von Filmen. Wurden im Jahr 1955 noch 123 deutsche Filme produziert, so waren es im Jahr 1965 nur 56. Als Folge dieses rapiden Besucherrückgangs gingen eine Reihe von Produktions- und Verleihfirmen bankrott, weil deren Produkte nun nicht mehr die Herstellungskosten erwirtschafteten und deshalb die Banken schließlich weitere Kredite und Bürgschaften verweigerten. Der spektakulärste Fall war die Pleite der UFA AG im Jahr 1962. Die damals größte Produktionsgesellschaft Westdeutschlands ging 1964 an den Bertelsmann-Konzern über. Den österreichischen Film, inhaltlich, personell und wirtschaftlich eng mit dem deutschen Film verbunden, ereilte dasselbe Schicksal. Nach dem Untergang der Epoche des Unterhaltungsfilms und mit dem Aufrücken jüngerer Generationen begann der österreichische und deutsche Film ab den 60er Jahren zumindest inhaltlich zunehmend eigene Wege zu beschreiten. Die Kinokrise hatte aber tiefer gehende Ursachen. Infolge des Wirtschaftswunders kam es zu einer deutlichen Steigerung des Durchschnittseinkommens der Bevölkerung. Damit nahmen auch die Möglichkeiten der Freizeitgestaltung zu und sie fokussierten sich nicht mehr auf den Kinobesuch. Zugleich wurde das Fernsehen zu einem Massenmedium: Während im Jahr 1953 nur 10.000 Fernsehempfänger registriert waren, stieg ihre Anzahl im Jahr 1962 auf 7 Mio. (vgl. Schneider: Film, Fernsehen & Co., S. 49 und Hoffmann: Am Ende Video – Video am Ende?, S. 69f). Die meisten in den 1960er Jahren gedrehten bundesdeutschen Filme waren Genrewerke (Western-, Agenten-, Sexfilme). Es entstanden auch Filmreihen nach Autoren wie Karl May (Winnetou) und Edgar Wallace, später die sogenannten „Lümmelfilme“ über Schülerstreiche sowie die Reihe der Verfilmungen nach Johannes Mario Simmel. Die zentrale Produzentenpersönlichkeit hinter den Wallace- und Winnetou-Filmen war Horst Wendlandt. Der erste bundesdeutsche Edgar-Wallace-Film war „Der Frosch mit der Maske“ (1958) von Harald Reinl. Später folgten unter anderem „Die Bande des Schreckens“ (1960) und „Der unheimliche Mönch“ (1965), bei dem Harald Reinl ebenfalls Regie führte, sowie „Der Zinker“ (1963), „Der Hexer“ (1964) und „Der Mönch mit der Peitsche“ (1967). Bei den letzten drei Filmen führte Alfred Vohrer Regie, der als klassischer Wallace-Regisseur gilt. In den insgesamt über 30 Filmen traten immer dieselben Schauspieler auf, die ganz bestimmte, klischeehaft überzeichnete Charaktere darstellten: die verführerische Karin Dor, der zwielichtige Klaus Kinski, die braven Kommissare Heinz Drache und Joachim Fuchsberger, der schrullige Eddi Arent, die undurchsichtige Elisabeth Flickenschildt etc. Die Figuren entwickeln sich in den Filmen nicht weiter, Gut und Böse stehen sich unverrückbar gegenüber. Spannung wird (im Gegensatz zum Thriller) vor allem durch äußere Settings wie Nebelschwaden, Verliese, unheimliche Gänge, alte Herrenhäuser oder Käuzchenrufe hergestellt. Die Filme enthalten meistens auch eine gute Prise Humor sowie eine Liebesgeschichte. Während die Wallace-Filme überwiegend heimische Schauspieler zeigten, schmückten sich die Karl-May-Filme mit ausländischen Hauptdarstellern. Beispiele für die Karl-May-Filme sind: „Der Schatz im Silbersee“ (1961), „Winnetou“ (1963), „Winnetou II“ (1964), „Winnetou III“ (1965); bei allen führte Harald Reinl Regie. Karl-May-Filme von Alfred Vohrer sind „Unter Geiern“ (1964) und „Old Surehand“ (1965) jeweils mit dem Engländer Stewart Granger als Old Surehand. Den edlen Uramerikaner des westdeutschen Kinos gab der Franzose Pierre Brice, Old Shatterhand wurde von dem Amerikaner Lex Barker dargestellt. In den DEFA-Indianerfilmen der DDR spielte vor allem der Jugoslawe Gojko Mitić die Hauptrollen. Die Filme waren standardisiert und billig zu produzieren. Dennoch dominierten sie nicht mehr die bundesdeutschen Kinos. Denn einheimische Unterhaltungsfilme, die in den 1950er Jahren noch sehr erfolgreich waren, wurden nun von vielen Kinogängern gemieden, die jetzt eher amerikanische Filme bevorzugten. Inzwischen hatte sich das Publikum so sehr an die technisch und inhaltlich aufwendigen Hollywoodproduktionen gewöhnt, dass Filme aus anderen Ländern meistens nur noch eine Chance hatten, wenn sie etwas zeigten, was den Hollywoodfilmen aufgrund der damals noch sehr strikten amerikanischen Zensurbestimmungen unmöglich war. Das heißt, diese Filme mussten entweder gewalttätiger oder sexueller sein als die üblichen Hollywoodfilme (vgl. Ungureit: Das Film-Fernseh-Abkommen, S. 87). Als Beispiel für Filme, die in der damaligen Zeit als sehr gewalttätig galten, können einige Italowestern genannt werden. Sie waren häufig Koproduktionen, mit einer Beteiligung auch von deutschen Firmen. So wurde beispielsweise der Westernklassiker „Für ein paar Dollar mehr“ (1965) mit Beteiligung der deutschen Constantin Film gedreht und es spielte in ihm auch der Schauspieler Klaus Kinski mit. In dieser Zeit entstanden auch Aufklärungsfilme von Oswalt Kolle und die zahlreichen Sexfilme der Report-Serien, beispielsweise der „Schulmädchen-Report: Was Eltern nicht für möglich halten“ (1970). Die Filme waren zwar ökonomisch wieder erfolgreich, wurden jedoch von der Filmkritik eher abgelehnt. Zu dieser Zeit befand sich das Ansehen der traditionellen deutschen Filmproduzenten („Altbranche“) auf seinem Tiefpunkt. Der Neue Deutsche Film Der gesellschaftskritische „Neue Deutsche Film“ versuchte, sich von „Papas Kino“ – also dem Serienkino der 1950er und 1960er Jahre – abzuheben. Als dessen Geburtsstunde gilt das 1962 veröffentlichte Oberhausener Manifest, in dem eine Gruppe junger Filmemacher den Anspruch erhob, von nun an ein radikal neues Kino zu machen. In dem Manifest heißt es: „Der Zusammenbruch des konventionellen deutschen Films entzieht einer von uns abgelehnten Geisteshaltung endlich den wirtschaftlichen Boden. Dadurch hat der neue Film die Chance, lebendig zu werden. […] Wir erklären unseren Anspruch, den neuen deutschen Spielfilm zu schaffen. Dieser neue Film braucht neue Freiheiten. Freiheit von den branchenüblichen Konventionen. Freiheit von der Beeinflussung durch kommerzielle Partner. Freiheit von der Bevormundung durch kommerzielle Interessengruppen. Wir haben von der Produktion des neuen deutschen Films konkrete geistige, formale und wirtschaftliche Vorstellungen. Wir sind gemeinsam bereit, wirtschaftliche Risiken zu tragen. Der alte Film ist tot. Wir glauben an den neuen.“ Das Manifest wurde unter anderem von Haro Senft, Alexander Kluge, Edgar Reitz, Peter Schamoni und Franz Josef Spieker unterzeichnet. Als zweite Generation stießen später noch Volker Schlöndorff, Werner Herzog, Jean-Marie Straub, Wim Wenders und Rainer Werner Fassbinder zu dieser Gruppe. Die Mitglieder der Gruppe verstanden sich als Autorenfilmer und hatten den Anspruch, alle künstlerischen Tätigkeiten einer Filmproduktion wie Regie, Kameraarbeit und Schnitt zu kontrollieren. Ein Film wurde vor allem als ein individuelles Kunstwerk des jeweiligen Regisseurs verstanden. Insbesondere kommerziell motivierte Eingriffe der Produzenten oder Produktionsfirmen wurden vehement abgelehnt. Die „ästhetische Linke“ (Enno Patalas) des neuen Films kann sogar als eine Art Vorläufer und Anregerin der Studentenbewegung der 1960er Jahre gelten. Im Jahr 1965 wurde das Kuratorium Junger Deutscher Film zur direkten Förderung neuer Talente gegründet. Einflüsse waren der italienische Neorealismus, die französische Neue Welle und das britische Free Cinema. Eklektisch wurden auch Traditionen des Hollywood-Kinos mit seinen wohletablierten Genres aufgegriffen und zitiert. Die jungen deutschen Regisseure hatten kaum Chancen, in der kommerziellen deutschen Filmproduktion zu arbeiten. Stattdessen bot sich das Fernsehen als Partner an. Insbesondere Sendeplätze wie „Das kleine Fernsehspiel“ oder „Tatort“ boten auch Nachwuchstalenten Möglichkeiten zur Erprobung ihres Könnens. Allerdings verlangten die Sender früher eine Fernsehpremiere des von ihnen vollständig oder zum großen Teil finanzierten Films: So wurde Schlöndorffs Film „Der plötzliche Reichtum der armen Leute von Kombach“ im Jahr 1971 zuerst im Fernsehen ausgestrahlt, bevor er in die Kinos kam. Diese Situation änderte sich mit dem 1974 zwischen der ARD, dem ZDF und der Filmförderungsanstalt geschlossenen Film-Fernseh-Abkommen. Es erweiterte insbesondere die materiellen Möglichkeiten für den Neuen Deutschen Film erheblich. Dieses Abkommen, das bis heute immer wieder verlängert wurde, sieht vor, dass die Fernsehanstalten pro Jahr eine bestimmte Geldsumme zur Verfügung stellen, mit der Filme gefördert werden, die sowohl zum Kinoabspiel als auch zur Fernsehausstrahlung geeignet sind. Das Gesamtvolumen der Zahlungen der öffentlich-rechtlichen Rundfunkanstalten schwankt zwischen 4,5 und 12,94 Mio. Euro pro Jahr. Das Film-Fernseh-Abkommen legt fest, dass die Kinoauswertung 24 Monate betragen sollte und die Filme erst danach auch im Fernsehen gezeigt werden dürfen. Die Video- bzw. DVD-Auswertung darf erst 6 Monate nach der Kinopremiere erfolgen. Durch diese Bestimmungen bekamen deutsche Spielfilme insbesondere des Neuen Deutschen Films die Chance, auch an der Kinokasse erfolgreich zu sein, bevor sie im Fernsehen ausgestrahlt wurden (vgl. Blaney: Symbiosis or Confrontation?, S. 204f). Mit der neuen Bewegung gewann der deutsche Film erstmals seit den 1920er und frühen 1930er Jahren wieder etwas internationale Bedeutung. In erster Linie in Kritikerkreisen und weniger beim Publikumszuspruch. Die folgenden Werke werden besonders häufig als typisch für den Neuen Deutschen Film betrachtet: „Abschied von gestern“ (1966) gilt als der künstlerische Durchbruch der neuen Generation. Er erhielt auf internationalen Festivals zahlreiche Preise und erzählt die Geschichte der Anita G., einer deutschen Jüdin, geboren 1937, die in der Zeit des Nationalsozialismus vom Schulbesuch ausgeschlossen wurde, sich auch in der DDR nicht zurechtfand und 1957 in den Westen kommt. Der Film „Es“ (1966) von Ulrich Schamoni behandelt das Thema Abtreibung und die Beziehungskrise eines jungen Paares. Er griff damalige Tabuthemen auf. „Zur Sache, Schätzchen“ (1968) von May Spils ist eine unterhaltsame Komödie über mehrere Jugendliche aus Schwabing. Er erlangte Kultstatus, weil er sich als einer der ersten Filme mit dem Lebensgefühl junger Menschen zur Zeit der 68er-Bewegung auseinandersetzte. „Jagdszenen aus Niederbayern“ (1969) von Peter Fleischmann ist ein „progressiver Heimatfilm“. Er beschreibt die Diskriminierung eines Homosexuellen in einem fiktiven bayrischen Dorf. Der Film Nicht der Homosexuelle ist pervers, sondern die Situation, in der er lebt (1971) von Rosa von Praunheim war der Auslöser für die moderne Lesben- und Schwulenbewegung in Deutschland und löste viele Kontroversen aus. In dem Film „Die verlorene Ehre der Katharina Blum“ (1975) wird die Terrorismus-Hysterie der 1970er-Jahre und die Rolle der Massenmedien thematisiert. Der Film gewann zahlreiche Preise und war auch kommerziell erfolgreich. Weitere wichtige Filme waren „Die Angst des Tormanns beim Elfmeter“ (1972) und „Paris, Texas“ (1984), beide von Wim Wenders und „Aguirre, der Zorn Gottes“ (1972) von Werner Herzog. Dieser Film beschäftigt sich mit der Suche der Spanier nach dem sagenhaften Eldorado. Klaus Kinski spielte die Hauptrolle, den größenwahnsinnigen Konquistador Don Lope de Aguirre. Rainer Werner Fassbinder gilt als der wichtigste deutsche Autorenfilmer der 1970er Jahre. Er war stark vom Theater geprägt, für das er selbst einige Stücke geschrieben hat. Fassbinder schilderte häufig unglückliche Liebesbeziehungen, die an den repressiven und vorurteilsbehafteten Verhältnissen scheitern. Er betrieb mit dem Engagement von Stars der deutschen Kinotradition auch eine Versöhnung von neuem und altem deutschen Film. Seine bedeutendsten Filme waren „Händler der vier Jahreszeiten“, 1971 gleichzeitig im Kino und Fernsehen gezeigt, „Angst essen Seele auf“ (1974) und „Die Ehe der Maria Braun“ (1979). Im Jahr 1977 produzierte er zusammen mit anderen Regisseuren die Film-Collage Deutschland im Herbst. Literarische Vorlagen des neuen deutschen Films lieferten vielfach die Werke Heinrich Bölls und Günter Grass’ (vgl. etwa Die verlorene Ehre der Katharina Blum und Die Blechtrommel aus dem Jahr 1979). In Zusammenhang mit dem neuen deutschen Film entwickelte sich ebenfalls der feministische Film, vertreten beispielsweise von den Regisseurinnen Helma Sanders-Brahms, Helke Sander und Margarethe von Trotta. Eine künstlerisch, teilweise auch politisch engagierte, jedoch dem Massenpublikum eher unbekannte Underground- oder Avantgardefilmszene entwickelte sich ebenfalls im Lande. Hier seien nur die früh in Deutschland drehenden Straub und Huillet (aus Frankreich), später Werner Nekes, Heinz Emigholz und Harun Farocki genannt. Großproduktionen Nachdem der neue (west-)deutsche Film manche seiner Ziele durchsetzen konnte (Etablierung der staatlichen Filmförderung, Oscar 1980 für Die Blechtrommel und andere) zeigte er gegen Ende der 1970er- bzw. am Anfang der 1980er-Jahre Ermüdungserscheinungen, wenn auch Protagonisten wie Werner Herzog, Werner Schroeter, Volker Schlöndorff, Edgar Reitz oder Wim Wenders weiterhin erfolgreich produzierten. Insbesondere der Deutsche Herbst im Jahr 1977 bewirkte ein Ende der gesellschaftlichen Aufbruchstimmung, die vorher die 1970er-Jahre prägte. Auch viele Regisseure des neuen deutschen Films hatten den Anspruch, in ihren Filmen die gesellschaftliche Wirklichkeit abzubilden und kritisch zu hinterfragen. Sie gerieten damit wie andere Linksintellektuelle pauschal unter Terrorismusverdacht. Diese gesellschaftliche Entwicklung führte auch dazu, dass die Vergabegremien und Fernsehanstalten kaum noch außergewöhnliche bzw. inhaltlich oder ästhetisch radikale Projekte bewilligten. Als von allen akzeptierbarer Kompromiss dominierten in dieser Zeit Literaturverfilmungen, die etwas abfällig als „Studienratskino“ bezeichnet werden. Beispiele hierfür sind etwa die Filme wie Grete Minde (1980) von Heidi Genée nach Theodor Fontane, Mädchenkrieg (1977) von Bernhard Sinkel / Alf Brustellin nach Manfred Bieler, Heinrich (1977) von Helma Sanders-Brahms nach Briefen von Heinrich von Kleist und Belcanto (1977) von Robert van Ackeren, nach Heinrich Mann. Eine neue Generation von Produzenten und Regisseuren versuchte in den 1980er-Jahren aus dieser Konstellation auszubrechen und Kinofilme auf eine andere Art und Weise zu produzieren. Insbesondere in den Münchner Bavariastudios entstanden Großproduktionen wie „Das Boot“, „Die unendliche Geschichte“ oder „Der Name der Rose“. Solche Produktionen wurden oft in Englisch gedreht und auf internationale Verkaufbarkeit zugeschnitten. Dies zeigte sich beispielsweise in der Auswahl der Schauspieler und der Regisseure. Diese Filme waren häufig Koproduktionen mit Gesellschaften im europäischen Ausland. Als Produzent dieser Art von Filmen tat sich v. a. Bernd Eichinger hervor. Beispiele für solche Großprojekte in den 1980er Jahren sind Berlin Alexanderplatz, (1980, Serie, Regie: Rainer Werner Fassbinder), Das Boot, (1981, Kinofilm und Serie, Regie: Wolfgang Petersen), Fitzcarraldo (1982, Regie: Werner Herzog), Die unendliche Geschichte (1984, Regie: Wolfgang Petersen), Momo (1985, Regie: Johannes Schaaf) und Der Name der Rose (1986, Regie: Jean-Jacques Annaud). Einen Wendepunkt für den deutschen Autorenfilm bewirkte Herbert Achternbuschs Werk Das Gespenst aus dem Jahr 1982. Dieser Film war aufgrund einer vom Bundesinnenministerium in Höhe von 300.000 DM zugesagten Prämie produziert worden. Nach Protesten strich der neue Bundesinnenminister Friedrich Zimmermann die noch ausstehende Summe von 75.000 DM. Zimmermann setzte danach wesentliche Änderungen für die Vergabe der Bundesfilmpreise durch. Unter anderem sollte das Preisgeld für das nächste Projekt nur noch 30 % der gesamten Produktionskosten ausmachen. In der Bundestagssitzung vom 24. Oktober 1983 erklärte Zimmermann, er werde keine Filme finanzieren, die außer dem Produzenten niemand sehen wolle. Für den deutschen Autorenfilm hatte diese Maßnahme schwerwiegende Folgen, da künftig kaum ein Filmemacher in der Lage war, die restlichen 70 % einer Produktion vorzufinanzieren oder gar einzuspielen. Es wurde versucht, andere Finanzierungsquellen für Filme zu finden, um damit vom Einfluss des Fernsehens und der Fördergremien unabhängiger zu werden. Die wichtigsten Finanzierungsquellen waren der (möglichst) weltweite Vorabverkauf der Kino-, Fernseh- und Videorechte. Gremien und Fernsehsender haben auch zu diesen Filmen Gelder beigesteuert, allerdings waren ihr Anteil geringer, als es in den 1970er Jahren üblich war. Ein Beispiel hierfür ist die Finanzierung des Films „Das Boot“. Die Anteile der Gelder von öffentlich-rechtlichen Institutionen macht hier zusammen nur 23 % der Gesamtkosten aus. Weitere Kassenschlager in den 1980er-Jahren waren die Otto-Filme (ab 1985) und das Roadmovie „Theo gegen den Rest der Welt“ (1980). Der kontrovers diskutierte Film „Christiane F. – Wir Kinder vom Bahnhof Zoo“ (1981) spielt im Milieu der minderjährigen Heroin-Abhängigen, die ihre Sucht durch Prostitution finanzieren. Der Weg in Richtung auf eine Kommerzialisierung und Internationalisierung des bundesdeutschen Films wurde dadurch geebnet, dass der neue deutsche Film schon in den 1970er Jahren auch international – zumindest künstlerisch – erfolgreich war. Insbesondere der Film „Das Boot“, aber auch einige andere dieser Großfilme waren ökonomisch durchaus erfolgreich. Allerdings konnten sie die bundesdeutsche Kinolandschaft nicht grundsätzlich umgestalten. Die letzten dieser Großfilme „Die Katze“ (1988, Regie Dominik Graf) und „Die Sieger“ (1994, Regie: Dominik Graf), waren kommerzielle Misserfolge. Die Ursachen für das Scheitern dieser Strategie sind vielfältig und unter anderem darin zu sehen, dass diese Filme letztendlich doch nicht mit den immer aufwendigeren Hollywoodproduktionen mithalten konnten. Deshalb konnten sie die Präferenzen des an amerikanische Großproduktionen gewöhnten Publikums auch nicht dauerhaft verändern. In den 1980er Jahren gingen die Besucherzahlen abermals deutlich zurück und zahlreiche Kinos mussten schließen. Es kam zu einer Umstrukturierung der Medienlandschaft, die die Stellung des Kinos zunächst weiter schwächte. Denn das Filmangebot wurde für die Bevölkerung durch die jetzt gegründeten privaten Fernsehsender und das damals neue Medium Video erheblich erweitert. In der Folge teilten viele Kinobesitzer ihre großen Säle in mehrere kleine Kinos auf. Diese wurden als Schachtelkinos bezeichnet. Das hatte den Vorteil, dass mehrere Filme auf einmal gezeigt und so auch mehr Zuschauer angelockt werden konnten. 1984 waren im Rahmen des Ludwigshafener Kabelpilotprojektes erstmals private Sender, also damals RTL+ und Sat.1, in der BRD zu empfangen. In den ersten Jahren ihres Bestehens machten Spielfilme einen großen Anteil ihres Programms aus, sie wurden insbesondere zur Hauptsendezeit ausgestrahlt. Um Zuschauerverlusten vorzubeugen, zeigten zu Beginn der 1980er Jahre auch die öffentlich-rechtlichen Fernsehanstalten ARD und ZDF deutlich mehr Spielfilme als vorher. Ab 1985 reduzierten sie ihre Ausstrahlung von Spielfilmen aufgrund des massiven Drucks von Privatsendern, Kinobesitzern und konservativen Politikern wieder (vgl. Karstens / Schütte 1999). In den 1980er Jahren wurde auch der Videorecorder zu einem Massenkonsumgut. Die Konsumenten waren nicht mehr auf das starre Programmraster von Fernsehen und Kino angewiesen. Zudem standen ihnen als Kauf- oder Leihvideos viel mehr Filme zur Verfügung, als aktuell im Kino bzw. Fernsehen ausgestrahlt wurden. Jetzt waren auf einmal auch Genres verfügbar, wie Splatter- oder Pornofilm, die in der BRD bisher nicht oder nur selten zu sehen waren (vgl. Zielinski 1994). Die darauffolgende politische Debatte über Gewalt in den Medien führte zu verschärftem Jugendschutz in Videotheken und Fernsehen. Dennoch verließ insbesondere der Pornofilm seine Nischenexistenz. Über 20 Prozent aller Deutschen, darunter vor allem Männer bis zum 30. Lebensjahr, konsumieren regelmäßig Werke dieses Genres. 1990–heute: Anfänge des gesamtdeutschen Films Aufbruch und Stagnation zugleich In den 1990er Jahren nahm erstmals seit langem der Kinobesuch in Deutschland wieder zu. Die Statistik wurde durch das neue Zuschauerpotential auf dem Territorium der ehemaligen DDR begünstigt. Hinzu kam ein Boom durch zahlreiche, neueröffnete Multiplex-Kinos, die im Unterschied zu den Schachtelkinos der 1980er Jahre großen Wert auf breite Leinwände und mittels Raumklangverfahren auf hohe Tonqualität gelegt haben. Während die amerikanischen Filme in den 1990er Jahren immer aufwendiger hergestellt wurden und sie dementsprechende Schauwerte zu bieten hatten, kam es bei den bundesdeutschen Filmen nicht zu einer vergleichbaren Entwicklung. Deshalb blieb der Erfolg der deutschen Filme an der Kinokasse alles in allem begrenzt. Die überwiegende Mehrheit der Zuschauer bevorzugte US-amerikanische Spielfilme. Im Fernsehprogramm wurden deutlich weniger Spielfilme ausgestrahlt, als noch in den 1980er Jahren. Die öffentlich-rechtlichen Sender hatten wegen des faktischen Filmhandelsmonopols von Leo Kirch kaum noch Zugang zu attraktiven amerikanischen Spielfilmen. Die Privatsender investierten im Rahmen des Film-Fernseh-Abkommens für Filmproduktionen mehr in eigenproduzierte Formate. Zahlreiche neue Talente nutzen die „Privaten“ als Sprungbrett zum Film. Die sich neu etablierenden privaten Musiksender verhalfen der Produktion von deutschen Musikvideos zu einem Aufschwung. Am Beginn der 1990er Jahre kam es zu einem Boom deutscher Beziehungskomödien. Ein Vorläufer dieser Welle war der Film „Männer“ (1985, Regie: Doris Dörrie). Filme wie beispielsweise „Allein unter Frauen“ (1991), „Abgeschminkt!“ (1993, Regie: Katja von Garnier), „Der bewegte Mann“ (1994, Regie: Sönke Wortmann) oder „Stadtgespräch“ (1995, Regie: Rainer Kaufmann) waren sehr erfolgreich. Besonders die Schauspielerin Katja Riemann war in vielen dieser Beziehungskomödien zu sehen. Ein weiterer Filmemacher der neuen Generation ist Detlev Buck. In seiner Komödie „Wir können auch anders…“ (1993) behandelt er auf satirische Weise Probleme der Wiedervereinigung der Bundesrepublik und der DDR. Seine bisher erfolgreichste Komödie war aber „Karniggels“ (1991). Neben den Komödien entstanden in den 1990er Jahren auch eine Reihe von Filmen, die – in der Tradition des neuen deutschen Films – versuchten, die gesellschaftliche Realität zu reflektieren. Beispiele für solche Filme sind: „Winterschläfer“ (1997, Regie Tom Tykwer), „Das Leben ist eine Baustelle“ (1997, Regie: Wolfgang Becker) und „Der Krieger und die Kaiserin“ (2000). Die meisten dieser Filme waren allerdings kommerziell nicht besonders erfolgreich. Daneben wurden in den 1990er-Jahren in Deutschland auch Genrefilme gedreht, beispielsweise „Lola rennt“ (1998, Regie: Tom Tykwer), „Bandits“ (1997, Regie: Katja von Garnier) oder der Horrorfilm „Anatomie“ (2000, Regie: Stefan Ruzowitzky). Die morbiden Splatterkunstfilme des Jörg Buttgereit wurden in der einschlägigen Szene international bekannt. Etwas abseits des Mainstreams befinden sich auch die Filme von Helge Schneider. Seine Werke, wie auch der mit dem Europäischen Filmpreis ausgezeichnete Dokumentarfilm Buena Vista Social Club (1999, Regie: Wim Wenders), werden in erster Linie in Programmkinos gezeigt. Ende der 1990er Jahre veränderten zudem erstmals vermehrt Filmemacher mit Migrationshintergrund die Filmlandschaft. Das Deutsch-türkische Kino entstand. Ihr häufig transnationaler Ansatz leistete einen bedeutenden Beitrag. Als ungewöhnlicher Regisseur zwischen Dokumentar- und Spielfilm erwies sich Romuald Karmakar. Die deutschen Regisseure Wolfgang Petersen und Roland Emmerich konnten sich nach ihren einheimischen Erfolgen in den USA etablieren. Mit Filmen wie Independence Day (1996) oder In the Line of Fire – Die zweite Chance (1993) erreichten sie ein globales Publikum. Der Filmkomponist Hans Zimmer ist seit den 1990er Jahren ebenfalls einer der erfolgreichsten Künstler in den Vereinigten Staaten. Seine Kompositionen für mehr als 100 weltweit erfolgreicher Filme gelten als stilprägend. Defizite und Erfolge Die Bedingungen für die Filmbranche im 21. Jahrhundert haben sich verändert. Die Digitale Revolution führte zum Aufkommen von Tausch-Netzwerken im Internet in denen aktuelle Filme illegal verbreitet werden konnten. Die für den Kinobesuch relevante junge Zielgruppe ging infolge demographischer Entwicklungen zurück. Computerspiele und Freizeitaktivitäten im Internet wurden eine Konkurrenz. Positiv hingegen verlief der Verkauf und die Vermietung von Videokassetten und später DVDs. Der Kinoumsatz lag im Jahr 2005 bei 745 Mio. Euro, der Videogesamtmarktumsatz bei 1,686 Mrd. Euro. Die Verbreitung großer Flachbildschirme, und verbesserter Tonanlagen für das private Heimkino beschleunigte den Trend. Streaming-Dienste für Filme konnten zurückgegangene Umsätze an der Kinokasse wieder ausgleichen. Die Folgen neuer technischer Möglichkeiten im Bereich der Filmproduktion durch Camcorder und Videoschnittprogramme am Computer ermöglichte es mehr Menschen als zuvor, selbst Filme zu drehen. Die Präsenz deutscher Filmproduktionen innerhalb Deutschlands blieb seit dem Jahr 2000 trotz verbesserter Marktanteile sehr begrenzt. Außerhalb von Deutschland war der Publikumserfolg deutscher Filme wie in den Jahrzehnten zuvor äußerst gering. 2003 wurde die Deutsche Filmakademie gegründet, 2007 konnte der Deutsche Filmförderfonds und 2015 der German Motion Picture Fund eingerichtet werden. Caroline Links Literaturverfilmung „Nirgendwo in Afrika“ wurde 2003 mit dem Oscar für den besten fremdsprachigen Film ausgezeichnet. Für Oliver Hirschbiegels „Der Untergang“ wurde 2005 und für „Sophie Scholl – Die letzten Tage“ (Regie: Marc Rothemund), im Jahr 2006 eine Nominierung ausgesprochen. Ein Jahr später konnte Florian Henckel von Donnersmarcks Film „Das Leben der Anderen“ einen Oscar nach Deutschland holen. „Das weiße Band“ (2009) von Regisseur Michael Haneke gewann die Goldene Palme der Filmfestspiele von Cannes. Ansonsten setzen sich viele Filmtrends aus den 1990er-Jahren fort. Beim deutschsprachigen Kinopublikum erfolgreich waren in den Jahren nach der Jahrtausendwende Komödien mit dem Schauspieler und Regisseur Til Schweiger, von Matthias Schweighöfer, oder Filmparodien wie beispielsweise Michael Herbigs „Der Schuh des Manitu“ (2001) und „(T)Raumschiff Surprise – Periode 1“ (2004), die Zuschauerzahlen im zweistelligen Millionenbereich anziehen konnten. Wolfgang Beckers Komödie „Good Bye, Lenin!“ (2003) war ebenfalls ein großer Erfolg an den Kinokassen und wurde gleichzeitig mit dem Deutschen Filmpreis und Europäischen Filmpreis bedacht. Der Film „Das Wunder von Bern“ (2003), Regie: Sönke Wortmann, über Deutschlands unerwarteten Titelgewinn bei der Fußball-Weltmeisterschaft 1954 war mit über 3 Millionen Zuschauern ein bemerkenswerter kommerzieller Erfolg. Ebenso wie die Genrefilme „Das Experiment“ (2001) oder „Who Am I – Kein System ist sicher“ (2014). Fatih Akin mit seinen international ausgezeichneten Dramen „Gegen die Wand“ (2004) und „Auf der anderen Seite“ (2007) sowie andere Regisseure thematisierten Verwerfungen und Konflikte der multikulturellen Gesellschaft. Der mit 2,4 Millionen Zuschauern erfolgreiche und in den Medien intensiv diskutierte Film „Der Baader-Meinhof-Komplex“ (2008), Regie Uli Edel, setzt sich mit der Geschichte der RAF bis zum Deutschen Herbst 1977 auseinander. Produzent war Bernd Eichinger. Bedeutende internationale Koproduktionen mit deutscher Beteiligung waren u. a. „The International“ (2009) und „Das Parfum – Die Geschichte eines Mörders“ (2006). „Cloud Atlas“ (2012) galt zum Zeitpunkt der Veröffentlichung als die teuerste heimische Filmproduktion. Viele dieser Großproduktionen werden seit der Jahrhundertwende in oder durch das Studio Babelsberg realisiert. Babelsberg und das in der Nachbarschaft liegende Berlin konnten sich auch vermehrt als Standort für US-Produktionen wie die „Die Bourne-Filmreihe“, „Cloud Atlas“ (2012), „Bridge of Spies – Der Unterhändler“ (2015) oder Ein verborgenes Leben (2019) etablieren. In den letzten Jahren wurden verstärkt Fantasie- und Märchenfilme mit hohem Budget und viel Aufwand produziert. Verfilmungen von Märchen und Kinderbüchern wie „Krabat“ (2008), „Hexe Lili“ (2009), „Das kalte Herz“ (2016) und die beiden Realverfilmungen von Michael Endes „Jim Knopf und Lukas der Lokomotivführer“ (2018) und „Jim Knopf und die Wilde 13“ (2020) sind hierfür Beispiele, von denen die letzt genannten auch in Babelsberg entstanden. Wim Wenders konnte mit der Tanzfilm-Dokumentation „Pina“ (2011) gefilmt in 3D, technisch wie künstlerisch, Neuland betreten. Durch eine Vielzahl an bedeutenden Auszeichnungen erfolgreiche Filme der letzten Jahre sind u. a. „Gundermann“ (2018) von Andreas Dresen, „Der Junge muss an die frische Luft“ (2018) von Caroline Link, „Werk ohne Autor“ (2018) von Florian Henckel von Donnersmarck, „Systemsprenger“ (2019) von Nora Fingscheidt und „Undine“ (2020) von Christian Petzold. Als international konkurrenzfähig hat sich zudem die deutsche Werbebranche mit ihren Filmen erwiesen. Bei dem Cannes Lions International Festival of Creativity konnte Deutschland in der Nationenwertung 2011 den dritten Platz belegen. Die Verbreitung besonders populärer Werbefilme geschieht zunehmend über soziale Medien und Internetforen aller Art. Bedeutung Der deutsche Film konnte nach 1933 nicht mehr an seine international ausstrahlende Kinotradition anknüpfen. Die Gründe für den Bedeutungsverlust, der bis zur Gegenwart nicht aufgeholt werden konnte sind zahlreich. Zum einen musste nach 1945 ein starker Verlust an kreativem Talent hingenommen werden. Zum anderen führten die langandauernde geschichtliche Bewältigung des Zweiten Weltkriegs und die Teilung Deutschlands zu einem Abbruch vieler Filmtraditionen. Eine Ablehnung regionaler, nationaler oder gar europäischer Identität ging mit dieser Entwicklung einher. Die staatlich gestützte (westdeutsche) Kulturförderung zog sich weitgehend aus der zum Leitmedium des 20. Jahrhunderts aufgestiegenen Kunstform Film zurück. Man verließ sich in der Nachfolgezeit insbesondere auf Filmimporte aus den Vereinigten Staaten. Im Jahr 2010 beliefen sich die staatlichen Gesamtausgaben für subventionierte Kultureinrichtungen auf etwa 9,5 Mrd. Euro. Die Filmförderung auf Länderebene und Bundesebene zusammengenommen verzeichnete 2013 Ausgaben von etwa 250 Millionen Euro. Angesichts der finanziellen Ausstattung nimmt der Film demnach als Kunstform in Deutschland bis heute eine sehr untergeordnete Rolle ein. Auf privatwirtschaftlicher Ebene konnte sich, bis auf Ausnahmen, nur eine im nationalen Kontext selbsttragende Filmbranche entwickeln. Eine dem Aufkommen der privaten Fernsehsender während der 1980er Jahre vergleichbare Entwicklung war innerhalb der Filmbranche nur zu einem sehr geringen Maße zu beobachten. Die unterdurchschnittliche materielle Ausstattung und die jahrzehntelange fehlende Wertschätzung des Films als Kunstform zog u. a. eine geringe Talentdichte nach sich. Ein Starsystem beispielsweise, also die Herausbildung einer Vielzahl international anerkannter Schauspielerpersönlichkeiten, ist bis heute nicht zu beobachten. Populäres, an den Kinokassen erfolgreiches Genrekino, wie etwa im Action-, Abenteuer- oder Sciencefiction Bereich, konnte nach der Blütezeit in den 1920er Jahren nicht wieder aufgebaut werden. Selbst ein nach künstlerischen Maßstäben profiliertes Autorenkino, das zuletzt in den 1970er Jahren für Aufmerksamkeit in Kritikerkreisen sorgte, fand in den Jahrzehnten nach 1990 keine Fortsetzung. Im medialen Diskurs gehen verschiedene Autoren auf die Ursachen zu weiteren strukturellen Defiziten ein. Im Fokus der Kritik stehen hier u. a. die sowohl personell als auch inhaltlich eher regional ausgerichteten Fernsehsender, die als Fördergeldgeber über Filmprojekte mitentscheiden. Für die geringe Präsenz des deutschen Films auf dem heimischen Markt (20–25 % Marktanteil) und die Erfolglosigkeit beim internationalen Publikum werden auch Schwächen bei der Anwendung technischer Möglichkeiten und unzureichende emotionale Zuschauerbindung genannt. Die fehlende Ausrichtung auf publikumswirksame, identitätsstiftende und zeitgemäße Drehbücher werden als weitere Gründe für den geringen Stellenwert der hiesigen Filmproduktion angeführt. Filmhochschulen Deutsche Film- und Fernsehakademie, Berlin Filmakademie Baden-Württemberg, Ludwigsburg Filmuniversität Babelsberg „Konrad Wolf“, Potsdam Hochschule für bildende Künste, Hamburg Hochschule für Fernsehen und Film, München Internationale Filmschule Köln, Köln Kunsthochschule für Medien, Köln Siehe auch Liste bedeutender deutscher Filme Liste deutscher Filmregisseure Liste bekannter Darsteller des deutschsprachigen Films Liste von Komponisten des deutschsprachigen Films Liste deutscher Filmproduktionsgesellschaften Filmfestivals in Deutschland Koproduktionsabkommen Österreich – Deutschland Filmgeschichte Revuefilm Schlagerfilm Undergroundfilm Literatur Christa Bandmann, Joe Hembus: Klassiker des deutschen Tonfilms 1930–1960 (Citadel Filmbücher). Goldmann, München 1980 Alfred Bauer: Deutscher Spielfilmalmanach. 1929–1950. Berlin 1950 Martin Blaney: Symbiosis or Confrontation? Bonn 1992, ISBN 3-89404-906-5. Ilona Brennicke, Joe Hembus: Klassiker des deutschen Stummfilms 1910–1930 (Citadel Filmbücher). Goldmann, München 1983 Francis Courtade, Pierre Cadars: Geschichte des Films im Dritten Reich. Heyne, München 1977, ISBN 3-453-00759-X. Bogusław Drewniak: Der deutsche Film 1938–1945. Ein Gesamtüberblick. Droste, Düsseldorf 1987, ISBN 3-7700-0731-X. Werner Faulstich: Filmgeschichte. 2005, ISBN 3-8252-2638-7. Werner Faulstich, Helmut Korte (Hrsg.): Fischer Filmgeschichte 1. 1994, ISBN 3-596-24491-9. Robert Fischer, Joe Hembus: Der neue deutsche Film 1960–1980 (Citadel-Filmbücher). Goldmann, München 1981, ISBN 3-442-10211-1. Adolf Heinzlmeier: Nachkriegsfilm und Nazifilm. Anmerkungen zu einem deutschen Thema. Frankfurter Bund für Volksbildung, Frankfurt am Main 1988, ISBN 3-927269-04-2. Günter Helmes: „Wir haben den Krieg verloren […], aber wir müssen ihn verlieren, wenn unser Land seine Seele wiederfinden soll.“ Die Spielfilmproduktion der BRD im Jahre 1958 als Ausdruck einer ‚Seelenlandschaft’. In: Flandziu 4, H. 2, 2013, ISBN 978-3-941120-12-9, S. 65–99. Kay Hoffman: Am Ende Video – Video am Ende? Berlin 1990, ISBN 3-924859-93-0. Wolfgang Jacobsen (Hrsg.): Geschichte des deutschen Films. Metzler, Stuttgart 2004, ISBN 3-476-01952-7. Wolfgang Jacobsen: Der Film im Nationalsozialismus. edition text+kritik, München 2021, ISBN 978-3-96707-528-1. Eric Karstens, Jörg Schütte: Firma Fernsehen. Rowohlt, Reinbek bei Hamburg 1999, ISBN 3-499-60592-9. Jürgen Kniep: „Keine Jugendfreigabe!“. Filmzensur in Westdeutschland 1949–1990. Wallstein Verlag Göttingen 2010, ISBN 978-3-8353-0638-7. Thomas Kramer (Hrsg.): Reclams Lexikon des deutschen Films. 1995, ISBN 3-15-010410-6. Harald Mühlbeyer, Bernd Zywietz (Hrsg.): Ansichtssache. Zum aktuellen deutschen Film. 2013, ISBN 3-89472-821-3. Geoffrey Nowell-Smith (Hrsg.): The Oxford History of World Cinema 1999, ISBN 0-19-874242-8. Hans Helmut Prinzler: Chronik des deutschen Films 1895–1994. 1995, ISBN 3-476-01290-5. Rainer Rother (Hrsg.): Mythen der Nationen: Völker im Film. 1998, ISBN 3-86102-101-3. Philipp Sanke: Der bundesdeutsche Kinofilm der 80er Jahre. Unter besonderer Berücksichtigung seines thematischen, topographischen und chronikalischen Realitätsverhältnisses. Dissertation, Universität Marburg 1994 (Volltext) Irmela Schneider: Film, Fernsehen & Co. Heidelberg 1990, ISBN 3-533-04296-0. Filmtheaterstatistik der SPIO, im Internet: Sebastian Stielke: 100 Facts about Babelsberg – Wiege des Films und moderne Medienstadt. Bebra-Verlag, Berlin 2021, ISBN 978-3-86124-746-3. Heinz Ungureit: Film-Fernseh-Abkommen als Zukunftsperspektive. In: Kurt Rentschel, Karl Friedrich Reimers (Hrsg.): Filmförderung. München 1992, ISBN 3-88295-148-6. Jerzy Toeplitz: Geschichte des Films. (2 Bände: 1895–1933, 1934–1945). Zweitausendeins, Frankfurt 1983 Siegfried Zielinski: Audiovisionen. Rowohlt, Reinbek bei Hamburg 1994, ISBN 3-499-55489-5. Filme Klassentreffen in der Toscana. Der neue deutsche Film. Deutschland/WDR/3sat 2008, 45 min. Eine Dokumentation von Reinhold Jaretzky und Natalie Schulz. Produktion: Zauberbergfilm Berlin Weblinks filmportal.de – Offizielles Portal zum deutschen Film CineGraph – Daten, Fakten und Hintergründe zur Geschichte des deutschsprachigen Films Murnau-Stiftung – Erhaltung des deutschen Filmerbes Einzelnachweise Filmgeschichte !
1000
https://de.wikipedia.org/wiki/David%20Fincher
David Fincher
David Andrew Leo Fincher (* 28. August 1962 in Denver, Colorado) ist ein US-amerikanischer Filmregisseur, Filmproduzent und Schauspieler. Zu seinen bekanntesten Filmen zählen Alien 3 (1992), Sieben (1995), Fight Club (1999), The Social Network (2010) und Gone Girl (2014). Biografie David Fincher wurde am 28. August 1962 (anderen Angaben zufolge am 10. Mai 1962) als Sohn des Reporters Jack Fincher geboren. Sein Vater arbeitete unter anderem für das Magazin Life und seine Mutter Claire war in einer Klinik zur Rehabilitation von Drogenabhängigen beschäftigt. Als Kind zog er mit seiner Familie ins kalifornische Marin County. Früh hegte er den Wunsch, später als Filmregisseur zu arbeiten. Inspiriert durch George Roy Hills Western-Komödie Zwei Banditen (1969) begann er bereits als Achtjähriger eigene Filme mit einer 8-mm-Filmkamera im heimischen Garten aufzunehmen. Ebenfalls sollte er durch George Lucas’ Science-Fiction-Film Das Imperium schlägt zurück (1980) beeinflusst werden. Er besuchte auch die Dreharbeiten zu Lucas’ American Graffiti (1973), der in Marin County gedreht wurde. Als Schüler besuchte er die Ashland High School in Ashland (Oregon). Dort arbeitete er nebenbei als Filmvorführer und sah so die gesamte Filmproduktion dieser Jahre bis zu 180-mal. Samstags arbeitete er bei einem lokalen Fernsehsender als Produktionsassistent. Der Autodidakt Fincher, der nie eine Filmhochschule besuchte, erlernte das Handwerk ab dem achtzehnten Lebensjahr bei der Trickfilm-Firma Korty Films in Mill Valley, Kalifornien. Er profitierte davon, dass George Lucas ein direkter Nachbar seines Elternhauses war, so dass er von 1981 bis 1983 bei George Lucas’ Spezialeffekte-Firma Industrial Light & Magic (ILM) arbeiten konnte, wo er als Trickfilmzeichner begann. Nach der Mitarbeit an Projekten wie Lucas’ Die Rückkehr der Jedi-Ritter (1983) oder Steven Spielbergs Abenteuerfilm Indiana Jones und der Tempel des Todes (1984) gründete Fincher 1986 – zusammen mit späteren Hollywood-Regisseuren wie Mark Romanek, Michel Gondry, Neil LaBute und Michael Bay – die Produktionsfirma Propaganda Films. Der Amerikaner drehte in dieser Zeit unter anderem Musikvideos für Künstler wie Michael Jackson, Madonna, George Michael, Aerosmith oder die Rolling Stones. Zusätzlich produzierte Fincher beginnend mit seinem „rauchenden Fötus“ (1984, American Cancer Society) Werbefilme. Zu seinen Kunden zählten unter anderem Adidas, AT&T, Budweiser, Chanel, Coca-Cola, Heineken, Levi’s, Nike und Pepsi. 1992 gab Fincher mit Alien 3 sein Debüt als Spielfilmregisseur. Der Film erhielt jedoch keine guten Kritiken, und er blieb kommerziell etwas unter den hohen Erwartungen (1,5 Mio. Besucher in Deutschland und inflationsbereinigt 86 Mio. US-Dollar in den Vereinigten Staaten). Verständlich wurde dieser Fehlschlag jedoch einige Jahre später, als die katastrophalen Produktionsbedingungen des Films bekannt gemacht wurden: Während Fincher den Film bereits drehte, wurde gleichzeitig noch am Drehbuch gearbeitet. Sein Thriller Sieben (1995) konnte drei Jahre später jedoch die Kritiker überzeugen und wurde zudem ein großer Erfolg an den Kinokassen. Das Werk, in dem Morgan Freeman und Brad Pitt einen Psychopathen (gespielt von Kevin Spacey) jagen, der eine Serie krankhafter Morde nach der Reihenfolge der sieben Todsünden begeht, war prägend für die Definition des modernen Thrillers (Neo-Thriller). An den vorangegangenen Erfolg konnte Fincher mit dem Thriller The Game (1997) anknüpfen, in dem ein egoistischer Wirtschaftsboss (Michael Douglas) durch seinen Bruder (Sean Penn) zum unfreiwilligen Teilnehmer in einem lebensbedrohlichen Spiel wird. Das darauf folgende Werk Fight Club (1999) mit Edward Norton und Brad Pitt in den Hauptrollen konnte zwar die Kritiker, aber nicht an den Kinokassen überzeugen und avancierte erst nach seiner Video- und DVD-Auswertung zum Kultfilm. Mit Pitt arbeitete Fincher auch 2008 beim Drama Der seltsame Fall des Benjamin Button zusammen, der auf der gleichnamigen Kurzgeschichte von F. Scott Fitzgerald basiert und ihm seine ersten Nominierungen als Regisseur für den Golden Globe Award und Oscar einbrachten. Dazwischen entstanden die Thriller Panic Room (2002) und Zodiac – Die Spur des Killers (2007), bei denen Fincher mit so bekannten Akteuren wie Robert Downey Jr., Jodie Foster, Jake Gyllenhaal und Forest Whitaker zusammenarbeitete. Letztgenannter Film erzählt die Geschichte des gleichnamigen Serienmörders, der Ende der 1960er Jahre in der San Francisco Bay Area für Angst und Schrecken sorgte. Mit dem Projekt The Social Network, das im Februar 2010 abgedreht wurde und im Oktober 2010 in die Kinos kam, nahm sich Fincher der Entstehungsgeschichte des sozialen Netzwerkes Facebook an. Die Hauptrolle des Facebook-Gründers Mark Zuckerberg übernahm Jesse Eisenberg. Das „komplexe Geflecht aus Rückblenden, Perspektivwechseln, Anekdoten und Abschweifungen, dessen gewagtes Tempo eine sogartige Wirkung entfaltet“ stand trotz Kritik am Wahrheitsgehalt der Geschichte in der Gunst von Publikum und Kritikern. „Hollywoods Parforce-Kunsthandwerker“ wurden daraufhin zahlreiche Auszeichnungen zuteil, darunter die Regiepreise der Filmkritikervereinigungen von Los Angeles und New York, der National Board of Review Award, der National Society of Film Critics Award, der Golden Globe Award sowie eine Oscar-Nominierung. Die Veröffentlichung des ersten Teils der Millennium-Trilogie Verblendung erfolgte im Dezember 2011. Fincher öffnete sich neuen Medien und schuf als Executive Producer für Netflix die Online-Serie House of Cards von 2013. Neben der Produktion führte er in zwei Episoden Regie und war für das Marketing der Serie verantwortlich. Im Jahr 2014 kam Finchers Verfilmung des Romans Gone Girl – Das perfekte Opfer von Gillian Flynn ins Kino. Er thematisiert die Beziehungsebene einer Ehe anhand des plötzlichen Verschwindens einer Frau (gespielt von Rosamund Pike) und des aufkommenden Verdachts gegenüber ihrem Ehemann (Ben Affleck). 2020 ist auf Netflix sein Film Mank erschienen. Das Filmdrama handelt von der wahren Geschichte des alkoholkranken Drehbuchautors Herman J. Mankiewicz, welcher zusammen mit Orson Welles das Drehbuch zu Citizen Kane geschrieben hat. Das Drehbuch zu Mank schrieb Finchers Vater Howard, die Hauptrolle übernimmt der Oscar-Preisträger Gary Oldman. In weiteren Rollen sind u. a. Amanda Seyfried, Lily Collins, Charles Dance und Tom Burke zu sehen. 2021 wurde Mank für sechs Golden Globes nominiert, darunter für die Beste Regie sowie eine posthume Nominierung seines Vaters für das Beste Drehbuch. Bei der Oscarverleihung 2021 führte Mank das Favoritenfeld mit zehn Nominierungen an, darunter für den Besten Film und die Beste Regie, gewann jedoch nur in den Kategorien Beste Kamera und Bestes Szenenbild. Im November 2023 soll seine Comicverfilmung Der Killer mit Michael Fassbender in der Titelrolle vom Streaminganbieter Netflix veröffentlicht werden. Fincher dreht seit Zodiac (2007) seine Filme mit digitalen Kinokameras. In der Filmbranche gilt das „Wunderkind“ als Perfektionist. So ließ Fincher unter anderem den achtminütigen Anfangsdialog zu The Social Network mit Jesse Eisenberg und Rooney Mara 99 Mal drehen. David Fincher war von 1990 bis 1995 mit Donya Fiorentino verheiratet. Er ist Vater einer Tochter. Filmografie Kinofilme Regie 1992: Alien 3 (Alien³) 1995: Sieben (Se7en) 1997: The Game 1999: Fight Club 2002: Panic Room 2007: Zodiac – Die Spur des Killers (Zodiac) 2008: Der seltsame Fall des Benjamin Button (The Curious Case of Benjamin Button) 2010: The Social Network 2011: Verblendung (The Girl With The Dragon Tattoo) 2014: Gone Girl – Das perfekte Opfer (Gone Girl) 2020: Mank 2023: Der Killer (The Killer) Darsteller 1999: Being John Malkovich (als Christopher Bing) 2001: Alien Evolution (als David Fincher) 2002: Voll Frontal (Full Frontal; als Regisseur) 2004: Murder by Numbers (als David Fincher) Spezialeffekte 1983: Die Rückkehr der Jedi-Ritter (Return of the Jedi) 1983: Twice upon the Time 1984: Die unendliche Geschichte (The NeverEnding Story) 1984: Indiana Jones und der Tempel des Todes (Indiana Jones and the Temple of Doom) Produzent und andere Funktionen 2000: Glauben ist alles! (Keeping the Faith; in Dankesliste genannt) 2001: The Hire (Ausführender Produzent) 2001: Driving Techniques (Regie) 2001: Making of The Hire (Regie) 2004: Dogtown Boys 2013–2018: House of Cards (Fernsehserie) 2017–2019: Mindhunter (Fernsehserie) seit 2019: Love, Death & Robots (Fernsehserie) 2021: Voir: Die Filmkunst in der Moderne (Voir, Dokumentationsserie, Ausführender Produzent) Regie in Serien 2013: House of Cards (Fernsehserie, 2 Episoden) 2017–2019: Mindhunter (Fernsehserie, 7 Episoden) Musikvideos 1984: Rick Springfield – Bop Til You Drop 1985: Rick Springfield – Celebrate Youth 1985: Rick Springfield – Dance This World Away 1985: The Motels – Shame 1986: Jermaine Stewart – We Don’t Have to Take Our Clothes Off 1986: The Outfield – All the Love in the World 1986: The Outfield – Everytime You Cry 1986: Stabilizers – One Simple Thing 1987: Wire Train – She Comes On 1987: Eddie Money – Endless Nights 1987: Patty Smyth – Downtown Train 1987: The Hooters – Johnny B 1987: Mark Knopfler – Storybook Story 1987: The Outfield – No Surrender 1987: Martha Davis – Don’t Tell Me The Time 1987: Foreigner – Say You Will 1988: Johnny Hates Jazz – Heart of Gold 1988: Sting – Englishman in New York 1988: Johnny Hates Jazz – Shattered Dreams (second version) 1988: Ry Cooder – Get Rhythm 1988: Steve Winwood – Roll with It 1988: Steve Winwood – Holding On 1988: Paula Abdul – The Way That You Love Me (first version) 1989: Paula Abdul – Straight Up 1989: Paula Abdul – Forever Your Girl 1989: Paula Abdul – Cold Hearted 1989: Gipsy Kings – Bamboleo (second version) 1989: Gipsy Kings – Bamboleo (third version) 1989: Jody Watley – Real Love 1989: Roy Orbison – She’s a Mystery to Me 1989: Don Henley – The End of the Innocence 1989: Aerosmith – Janie’s Got a Gun 1989: Madonna – Express Yourself 1989: Madonna – Oh Father 1990: Madonna – Vogue 1990: Billy Idol – Cradle of Love 1990: Billy Idol – L.A. Woman 1990: George Michael – Freedom! ’90 1992: Michael Jackson – Who Is It 1993: Madonna – Bad Girl 1994: The Rolling Stones – Love Is Strong 1996: The Wallflowers – 6th Avenue Heartache 2000: A Perfect Circle – Judith 2005: Nine Inch Nails – Only 2013: Justin Timberlake & Jay-Z – Suit & Tie Werbespots „Smoking fetus“ (The American Cancer Society) „You-will“-Serie (AT&T) „Ginger or marianne“ / „Pool hall“ (Budweiser) „The director“ (Chanel) „Blade roller“ (Coca-Cola) „Converse“ „Del sol“ (Honda) Levi’s: „Reason no. 259“ / „Rivet“ „Restaurant“ Nike: „Agassi-live“-Serie „Barkley on broadway“ „Children“ „Find something“ „Instant karma“ „Magazine wars“ „The-ref“-Serie „… of flight“ „Gamebreakers“ „Speed Chain“ „Bullet the blue sky“ (Pepsi) „Demolition“ (YM Magazine) „Constant Change“ (Hewlett-Packard) „Beer Run“ (Heineken) „Pollen“ (Lexus) „Pebl“ (Motorola) „Mechanical Legs“ (Adidas) „Smart Pops“ (Orville Redenbacher) Auszeichnungen (Auswahl) Fincher wurde – vor allem für seine Werke als Regisseur – mehrmals mit Preisen ausgezeichnet und über 100-mal nominiert. Er gewann einen Golden Globe, einen BAFTA Award, einen Grammy, einen César und einen Emmy und war dreimal für den Oscar nominiert. Oscar 2009: Nominierung in der Kategorie Beste Regie für Der seltsame Fall des Benjamin Button 2011: Nominierung in der Kategorie Beste Regie für The Social Network 2021: Nominierung in der Kategorie Beste Regie für Mank Golden Globe Award 2009: Nominierung in der Kategorie Beste Regie für Der seltsame Fall des Benjamin Button 2011: Auszeichnung in der Kategorie Beste Regie für The Social Network 2015: Nominierung in der Kategorie Beste Regie für Gone Girl – Das perfekte Opfer 2021: Nominierung in der Kategorie Beste Regie für Mank BAFTA Award 2009: Nominierung in der Kategorie Beste Regie für Der seltsame Fall des Benjamin Button 2011: Auszeichnung in der Kategorie Beste Regie für The Social Network Emmy 2013: Auszeichnung in der Kategorie Beste Regie bei einer Dramaserie für House of Cards (Episode Chapter 1) 2013: Nominierung in der Kategorie Beste Dramaserie für House of Cards 2014: Nominierung in der Kategorie Beste Dramaserie für House of Cards 2015: Nominierung in der Kategorie Beste Dramaserie für House of Cards César 2011: Auszeichnung in der Kategorie Bester ausländischer Film für The Social Network 2023: Auszeichnung mit dem Ehrenpreis Internationale Filmfestspiele von Cannes 2007: Nominierung für die Goldene Palme für Zodiac – Die Spur des Killers MTV Video Music Awards 1989: Best Direction in a Video für Madonna – Express Yourself plus zwei weitere Nominierungen 1990: Best Direction in a Video für Madonna – Vogue plus zwei weitere Nominierungen 1991: Best Direction in a Video für George Michael – Freedom! ’90 (Nominierung) 2013: Best Direction in a Video für Justin Timberlake (featuring Jay-Z) – Suit & Tie Saturn Award 1993: Nominierung in der Kategorie Beste Regie für Alien 3 1996: Nominierung in der Kategorie Beste Regie für Sieben 2009: Nominierung in der Kategorie Beste Regie für Der seltsame Fall des Benjamin Button Literatur Schnelle, Frank (Hrsg.): David Fincher. Bertz + Fischer Verlag, Berlin 2002, ISBN 3-929470-81-0. Charles Martig: David Fincher: Die Hölle auf Erden oder David Finchers negative Theologie der Offenbarung. In: Thomas Bohrmann, Werner Veith, Stephan Zöller (Hrsg.): Handbuch Theologie und Populärer Film. Band 1. Ferdinand Schöningh, Paderborn 2007, ISBN 978-3-506-72963-7, S. 201–211. Carsten Bergemann: [Artikel] David Fincher. In: Thomas Koebner (Hrsg.): Filmregisseure. Biographien, Werkbeschreibungen, Filmographien. 3., aktualisierte und erweiterte Auflage. Reclam, Stuttgart 2008 [1. Aufl.1999], ISBN 978-3-15-010662-4, S. 245–248 [mit Literaturhinweisen]. Weblinks Essay zu den Filmen David Finchers auf filmzentrale.com Filme und Infos zu David Fincher auf moviepilot.com Einzelnachweise Filmproduzent Filmregisseur Filmschauspieler Spezialeffektkünstler César-Preisträger Golden-Globe-Preisträger Träger des Kurd-Laßwitz-Preises US-Amerikaner Person (Denver) Geboren 1962 Mann
1001
https://de.wikipedia.org/wiki/Welt%20am%20Draht
Welt am Draht
Welt am Draht ist ein zweiteiliger Fernsehfilm von Rainer Werner Fassbinder aus dem Jahr 1973. Vorlage ist der 1964 erschienene Science-Fiction-Roman Simulacron-3 von Daniel F. Galouye. Handlung Teil 1 Die Handlung spielt in einer alternativen Gegenwart der 1970er Jahre. Am „Institut für Kybernetik und Zukunftsforschung (IKZ)“ wurde ein Supercomputer namens Simulacron-1 entwickelt, der imstande ist, eine Kleinstadt zu simulieren. Diese Simulation läuft rund um die Uhr und wird von „Identitätseinheiten“ bevölkert, die in etwa dasselbe Leben führen wie normal lebende Menschen und ein Bewusstsein besitzen. Außer einer einzigen „Kontakteinheit“ weiß keiner der simulierten Menschen, dass ihre Welt eine Simulation bzw. ein Simulakrum ist. Fred Stiller wird zum neuen Technischen Direktor des Instituts befördert, nachdem sein Vorgänger, Professor Henry Vollmer, unter ungeklärten Umständen ums Leben kam. Zuvor hatte dieser gegenüber seinem Mitarbeiter, dem Sicherheitschef Günther Lause, noch angedeutet, eine „ungeheure Entdeckung“ gemacht zu haben. Einige Tage später, auf einer Party von Stillers Vorgesetztem Herbert Siskins, verschwindet Lause wie vom Erdboden verschluckt, unmittelbar, bevor er mit Stiller darüber sprechen wollte, was Vollmer vor seinem Tod ihm gegenüber noch gesagt hat. Die Polizei wird eingeschaltet, Lause bleibt jedoch verschwunden. Stiller vermutet, dass mit Vollmers Tod etwas nicht stimmte und Lauses Verschwinden damit zu tun hat. Er muss jedoch feststellen, dass jeder, dem gegenüber er Lause erwähnt, sich nicht an diesen erinnern kann. Auch in den Personaldatenbanken des Instituts ist der Name nicht verzeichnet – offiziell hat Lause nie existiert. Sicherheitschef des Instituts ist zudem seit Jahren ein Mann namens Hans Edelkern. Während Stiller weitere Nachforschungen anstellt, ereignen sich innerhalb der Computersimulation seltsame Dinge: Eine der Identitätseinheiten mit dem Namen Christopher Nobody wollte Selbstmord begehen und wird daraufhin von Stillers Mitarbeiter Fritz Walfang aus der Simulation gelöscht. Stiller begibt sich selbst mittels einer „Kontaktschaltung“ in die künstliche Welt, um dort mit der Kontakteinheit namens Einstein Kontakt aufzunehmen. Von dieser erfährt er, dass Nobody zur Erkenntnis gelangt war, nicht wirklich zu existieren und seitdem seelisch schwer unter dieser Erkenntnis litt. Als sich später Walfang erneut in die Simulationswelt einklinkt, gelingt es Einstein, sein Bewusstsein mit dem von Walfang auszutauschen und so in die wirkliche Welt zu gelangen. Stiller bemerkt dies jedoch und kann ihn überwältigen. Einstein meint, dass er es geschafft habe, auf die nächste Stufe zu gelangen und noch höher gelangen möchte. Auf Stillers Einwand, dass er bereits in der Realität angelangt sei, meint dieser lachend, dass auch Stillers Welt nichts anderes als eine von vielen virtuellen Welten ist. Teil 2 Einstein wird wieder in seine simulierte Welt zurückgeschickt und Walfang zurückgeholt. Während sich am Institut die politischen Auseinandersetzungen über die Nutzung der Forschungsergebnisse zuspitzen – Siskins will das System der Industrie zur Verfügung stellen – geht Stiller langsam dem Wahnsinn entgegen. Er spürt, dass auch er, wie sein Vorgänger Vollmer und dessen Mitarbeiter Lause, ausgeschaltet werden soll. Begleitet von einer zarten Affäre mit Eva Vollmer, der Tochter des ehemaligen Technischen Direktors, glaubt Stiller immer mehr, dass Einstein Recht mit seiner Behauptung hatte und auch seine eigene Welt nicht die wirkliche Welt ist, sondern eine bereits sehr weit fortgeschrittene Simulation, die von einer höheren Ebene aus programmiert wurde. Aufgrund seiner eigenen Erfahrung geht er davon aus, dass es auch in seiner Welt eine Kontakteinheit wie Einstein geben muss und überlegt sich, welche Person aus seinem Umfeld diese Funktion ausfüllen könnte. Aufgrund seines Verhaltens, das immer mehr dem von Vollmer vor dessen Tod gleicht, wird Stiller von seinen Kollegen für verrückt erklärt und beurlaubt. Stiller versucht weiterhin, Beweise für seine Vermutung zu finden. Mit Hilfe eines Journalisten, der sehr an den Verbindungen des IKZ mit der Stahlindustrie interessiert ist, gelingt es ihm schließlich, einen Beweis zu finden: In der Zeitung war damals ein Artikel über das Verschwinden von Lause abgedruckt, welcher nun durch einen anderen ersetzt worden ist. Ein im Ausland befindliches Exemplar der Zeitung enthält jedoch nach wie vor den ursprünglichen Artikel, der sich mit Stillers Erinnerung deckt. Er findet heraus, dass der Betriebspsychologe des IKZ heimlich vertrauliche Informationen an die Presse weiterleitet. Als dieser den Zeitungsartikel sieht, kann er sich plötzlich wieder an Lause erinnern und weiß, dass Stiller recht hat. Sie wollen gemeinsam der Sache auf den Grund gehen und die Kontakteinheit in dieser Welt ermitteln. Dabei wird Stillers neuer Gefährte jedoch Opfer eines Unfalls, stürzt mit seinem Wagen in das Wasser und ertrinkt. Stiller wird nun polizeilich wegen möglichen Mords an seinem Kollegen und auch an Professor Vollmer gesucht und muss fliehen. Er sucht eine Blockhütte in einem Wald außerhalb der Stadt auf, wo ihn überraschend Eva, Vollmers Tochter, aufsucht. Diese verrät ihm schließlich, dass sie die Person ist, nach der er gesucht hat: Sie ist jedoch keine Kontakteinheit wie in dieser Welt, sondern die Projektion einer Eva aus der realen Welt und er selbst als Fred Stiller ein Wiedergänger seines Erschaffers, der ihn nach seinem Ebenbild ersonnen hat. Stiller wird von der Polizei erschossen; Eva, die sich in ihn verliebt hat und die Machenschaften des echten Fred Stillers beenden will, gelingt es jedoch, das Bewusstsein der beiden auszutauschen, wodurch Stiller nun in der realen Welt (oder lediglich der nächsthöheren virtuellen Ebene) auftaucht. Hintergrund Der Film wurde zwischen Januar 1973 und März 1973 in 44 Drehtagen in Köln, München, Paris und Versailles gedreht. Er hält sich vom Ablauf her eng an die Romanvorlage. Die Namen der Charaktere wurden jedoch eingedeutscht, so heißt Fred Stiller im Original Douglas Hall und Eva Vollmer Joan Fuller. Vollständig entfernt wurden die im Roman auftretenden Test-Interviewer, die durch Siskins Simulator ihren Arbeitsbereich – die Meinungsforschung – bedroht sehen. Auch fehlen im Film die futuristischen Elemente, etwa fliegende Autos, durch die Stadt laufende Rollbänder oder Laserwaffen. Die Romanvorlage Simulacron-3 wurde 1999 erneut als The 13th Floor – Bist du was du denkst? verfilmt. Kritiken Zahlreiche Kritiker loben den Film aufgrund seiner Ästhetik und seines Spiels mit der Realität. Die besondere Qualität des Ensembles und der Kameraführung wurden wiederholt hervorgehoben. Bei der Verleihung des Adolf-Grimme-Preises 1974 erhielt Fassbinder für die Regie eine ehrende Anerkennung. Trivia In dem Film gibt es bereits Tastentelefone; das erste Gerät für den Endverbraucher (Modell FeTAp 751) kam jedoch erst im November 1976 auf den deutschen Markt. Für die damals futuristische, aber trotzdem glaubwürdige Ausstattung war der mitwirkende Kurt Raab verantwortlich. Das von Fred Stiller gefahrene Auto ist eine Corvette C3 mit dem (fiktiven) Kennzeichen: FA-ST 277. Im Abspann wird der Nachname von Adrian Hoven als Hooven aufgeführt und Rainer Langhans als Langhanns. Veröffentlichung Der Zweiteiler wurde am 14. Oktober 1973 (Teil 1) und am 16. Oktober 1973 (Teil 2) im Fernsehen von der ARD ausgestrahlt. Er wurde selten wiederholt und war bis zur Restauration auch nicht auf käuflichen Medien verfügbar. Im Rahmen der Berlinale 2010 hatte eine restaurierte Fassung in der Reihe Berlinale Special am 14. Februar 2010 ihre Welturaufführung. Die künstlerische Leitung der Restaurierung hatte Michael Ballhaus, Kameramann der ursprünglichen Aufnahmen im Auftrag der Rainer Werner Fassbinder Foundation inne. Zu den Förderern zählten u. a. die Kulturstiftung des Bundes als auch das MoMA. Am 18. Februar 2010 wurde diese Fassung als Doppel-DVD innerhalb der „Arthaus Premium“-Reihe von Kinowelt/Arthaus veröffentlicht. Am 6. Oktober 2010 erschien der Film in Frankreich beim Label Carlotta Films erstmals auf Blu-ray. Am 8. Juni 2012 erfolgte erstmals seit 2002 eine Ausstrahlung im deutschen Fernsehen auf Arte. Dabei handelt es sich um beide Teile der restaurierten Fassung in nativem HD. Literatur Daniel F. Galouye: Simulacron-3, Heyne Verlag München 1983, ISBN 3-453-30904-9 Christian Schobeß: Simulacron. Die kreierte Realität. in: Quarber Merkur. Franz Rottensteiners Literaturzeitschrift für Science Fiction und Phantastik Bd. 114, 2013, ISBN 978-3-934273-93-1, S. 140–160. Szilvia Gellai: Welten am Draht bei Daniel F. Galouye und Rainer Werner Fassbinder, in: Zeitschrift für Fantastikforschung 1/2016, ISBN 978-3-643-99791-3, S. 50–72. Weblinks und und eine bei YouTube Einzelnachweise Filmtitel 1973 Deutscher Film Science-Fiction-Film Künstliche Intelligenz im Film Cyberpunk im Film Fernsehfilm (Das Erste) Literaturverfilmung Miniserie Rainer Werner Fassbinder
1002
https://de.wikipedia.org/wiki/Differenz%20%28Luhmann%29
Differenz (Luhmann)
Differenz im Sinne der Systemtheorie ist ein epistemologischer Grundbegriff der soziologischen Systemtheorie von Niklas Luhmann. Er bezeichnet, dass etwas von etwas anderem unterschieden oder getrennt werden kann. Für Luhmann (1984) war beispielsweise die Unterscheidung eines Systems zu einem anderen bzw. zu seiner Umwelt relevant. Ferner differenziert er dazu zwischen Erwartungen und Entscheidungen – innerhalb eines bestimmten Systems bestehen Erwartungen an seine Systemmitglieder, in unterschiedlichen Systemen wird unterschiedlich an den Einzelnen erwartet und dessen Entscheidungen und Verhalten erfolgen dann in relationaler Abhängigkeit (in Zwischen-, evtl. auch in Gegenabhängigkeit zu jenen oder anderen Systemerwartungen). Details Der Begriff „Differenz“ ist sehr abstrakt gefasst. Ihm liegt die Überzeugung zugrunde, dass die beispielsweise mit der Sprache bezeichneten Dinge nicht aus sich heraus eine Wesenhaftigkeit haben, die ihre Unterscheidbarkeit sicherstellt, sondern jede Unterscheidung muss in die Welt eingeführt werden. Es gibt keine feste Welt, die unabhängig von einem Beobachter ist, wie sie ist – sondern was es 'gibt', ist das, was Beobachter beobachten; das heißt, auf welche Weise Beobachter differenzieren. (Luhmann liest demnach den Beginn des ersten Schöpfungsberichtes der Genesis so, dass darin ausgedrückt wird, dass die Welt erst durch die erste Unterscheidung zwischen Tag und Nacht wird; der Mensch, der zu unterscheiden lernt – das Böse und das Gute –, wird aus dem Paradies vertrieben.) Luhmann beruft sich für diese Grundposition auf George Spencer-Brown und seine distinction (Unterscheidung), doch greift er auch gewisse Gesichtspunkte der Betrachtungen auf, die Jacques Derrida zum Ausdruck différance entwickelt. Luhmanns Zuspitzung und Präzisierung des Konzeptes korrespondiert mit einer konstruktivistischen Beschreibung der Welt. Mit einer Differenz etabliert man gewissermaßen erst die Möglichkeit eines Zugriffs. So ist die Unterscheidbarkeit einer Blume durch nichts Wesenhaftes an ihr vorgegeben; es gibt nicht die Blume, deren Existenz sich als solche einem Beobachter aufdrängen kann; selbst die Tatsache, dass ein Mensch aus den Sinnesdaten letztlich eine Blume zu einem Objekt macht (und nicht etwa nur die Blüten oder die Blume von der Wiese nicht unterscheiden kann), ist keineswegs durch irgendetwas erzwungen. Es ist demnach auch nicht zu begründen und zu erklären, wie eine Differenz in die Welt kommt; sie emergiert. Auch Differenz ist nur als Differenz, als Unterscheidung zwischen Differenz und Identität zu begreifen. Identität meint dabei im engeren Sinne, dass etwas von etwas anderem nicht unterschieden wird. Damit bezeichnet es auch das (zumindest kurzzeitige) Fixieren von etwas, um es weiteren Operationen zugänglich zu machen. Differenz ist im Wesentlichen gleichwertig mit dem systemtheoretischen Begriff der Unterscheidung, doch akzentuiert Unterscheidung die Operation, während die Differenz die Getrenntheit oder Geschiedenheit selbst bezeichnet. Auf ähnliche Weise ist der Begriff mit der Medium-Form-Unterscheidung verknüpft. Eine Unterscheidung lässt sich auch auffassen als eine Verwendung einer Form im Sinne der Medium-Form-Unterscheidung; die Differenz ließe sich, wenn man sich eine Form wie George Spencer-Brown verbildlicht, als die Trennlinie auffassen. Wichtige Differenzen für die soziologische Systemtheorie sind System/Umwelt, Erleben/Handeln, Aktualität/Möglichkeit (Sinn). Siehe auch Soziale Differenzierung Diskriminierung Funktionale Differenzierung Einzelnachweise Soziologische Systemtheorie
1004
https://de.wikipedia.org/wiki/Delphi-Methode
Delphi-Methode
Die Delphi-Methode (auch Delphi-Studie, Delphi-Verfahren oder Delphi-Befragung genannt) ist ein systematisches, mehrstufiges Befragungsverfahren mit Rückkopplung und ist eine Schätzmethode, die dazu dient, zukünftige Ereignisse, Trends, technische Entwicklungen und dergleichen möglichst gut einschätzen zu können. Namensgeber der Methode ist das antike Orakel von Delphi, das seinen Zuhörern Ratschläge für die Zukunft erteilte. Geschichte Die Delphi-Methode wurde – nach Vorarbeiten Ende der 1950er Jahre – von der amerikanischen RAND-Corporation 1963 entwickelt und wird seitdem häufig, wenn auch in variierter Form, für die Ermittlung von Prognosen/Trends sowie für andere Meinungsbildungen im Rahmen von Systemaufgaben angewendet. Mehr und mehr hat sich das Verfahren zu einem Bewertungsverfahren für Themen entwickelt, in dem festgestellt werden kann, ob es einen Konsens über das Thema gibt (bzw. ob dieser erreicht werden kann) oder nicht. In Deutschland war es in den 90er Jahren das damalige Bundesministerium für Forschung und Technologie (BMFT), das die ersten Delphi-Studien zur Entwicklung von Wissenschaft und Technik in Auftrag gab. Die Studien Deutscher Delphi-Bericht zur Entwicklung von Wissenschaft und Technik (1993) und Delphi '98 Umfrage. Zukunft nachgefragt. Studie zur globalen Entwicklung von Wissenschaft und Technik (1998) wurden vom Fraunhofer-Institut für System- und Innovationsforschung (ISI) durchgeführt. Vorgehensweise Bei einer Delphi-Befragung wird einer Expertengruppe ein Fragen- oder Thesenkatalog des betreffenden Fachgebiets vorgelegt. Die Befragten haben in zwei oder mehr sogenannten Runden die Möglichkeit, die Thesen einzuschätzen. Ab der zweiten Runde wird Feedback gegeben, wie andere Experten geantwortet haben, in der Regel anonym. Auf diese Weise wird versucht, der üblichen Gruppendynamik mit sehr dominanten Personen entgegenzuwirken. Die in der ersten Runde schriftlich erhaltenen Antworten, Schätzungen, Ergebnisse etc. werden daher aufgelistet und beispielsweise mithilfe einer speziellen Mittelwertbildung, Perzentilen oder Durchschnittswertberechnungen zusammengefasst und den Fachleuten anonymisiert erneut für eine weitere Diskussion, Klärung und Verfeinerung der Schätzungen vorgelegt. Dieser kontrollierte Prozess der Meinungsbildung erfolgt gewöhnlich über mehrere Stufen. Das Endergebnis ist eine aufbereitete Gruppenmeinung, die die Aussagen selbst und Angaben über die Bandbreite vorhandener Meinungen enthält. Der Meinungsbildungsprozess enthält die Elemente: Generation, Korrektur beziehungsweise teilweise Anpassung oder Verfeinerung, Mittelwertbildung beziehungsweise Grenzwertbildung, oft auch offene Felder für Erläuterungen. Störende Einflüsse werden durch die Anonymisierung, den Zwang zur Schriftform und die Individualisierung eliminiert. Die Strategie der Delphi-Methode besteht aus: Konzentration auf das Wesentliche, mehrstufigem, teilweise rückgekoppeltem Editierprozess und sichereren, umfassenderen Aussagen durch Zulassen statistischer fuzzyartiger Ergebnisse. Ein Problem kann darin bestehen, dass die Experten ihre einmal geäußerte Meinung in den folgenden Runden trotz Anonymität nicht ändern. Der Zusatznutzen weiterer Runden wäre in diesem Fall begrenzt. Als Ergänzung der Delphi-Methode kann zum Beispiel die Wechselwirkungsanalyse verwendet werden. Auch in der D2-Methode finden sich Elemente der Delphi-Methode wieder. Kombinationen mit Szenarien werden inzwischen ebenfalls häufiger durchgeführt. Aus Delphi-Ergebnissen lassen sich einfache Roadmaps ableiten, sodass auch diese Kombination sich zunehmender Beliebtheit erfreut. Man findet diverse Formen der Delphi-Methode, die das Verfahren der Schätzung etwas variieren: Die Standard- und die Breitband-Methode sind einige der Varianten. Inzwischen werden die meisten Verfahren elektronisch durchgeführt. Realtime-Delphi-Verfahren (mit einer sofortigen Rückkopplung der Ergebnisse) sind eine Variante, die nur elektronisch möglich ist. In der Anwendung der Delphi-Methode sollte besonderes Augenmerk auf der Formulierung der Delphi-Thesen und der Definition und Auswahl der Experten liegen, da hier in der Praxis häufiger methodische Schwächen auffallen und die Ergebnisse in Frage stellen. Beiderbeck et al. haben ausgehend von einer disziplinübergreifenden Analyse eine Methoden-Toolbox entwickelt, die klassische und innovative Design-Kriterien für Delphi-Studien illustriert. Neben der Analyse der Experten-Bewertungen an sich rücken in jüngster Zeit beispielsweise auch die Persönlichkeitsprofile der Teilnehmer in den Fokus. Mittels ergänzender Cross-Impact-Analysen können einzelne Delphi-Thesen und Ergebnisse in einen gemeinsamen systemischen Kontext und Wechselwirkungen berücksichtigt werden. Darüber hinaus bieten dreidimensionale Abbildungen von Szenarioclustern ein erweitertes Verständnis gesammelter Daten. Standard-Delphi-Methode Bei der Standard-Delphi-Methode werden mehrere Experten zur Schätzung eines Projektes – oder zur Prognostizierung – herangezogen, die sich nicht untereinander abstimmen dürfen. Der Prozess sieht wie folgt aus: Ein Projektleiter bereitet eine Projektbeschreibung vor, in der die einzelnen Teil-Produkte aufgelistet sind und bereitet sie in einem Arbeitsformular vor. Der Projektleiter stellt die Ziele des Gesamtprojektes vor und verteilt je ein Exemplar des Arbeitsformulars an jeden Experten. Es findet keine Diskussion der Schätzungen statt. Jeder Experte schätzt die im Arbeitsformular enthaltenen Arbeitspakete. Keiner der Experten arbeitet mit einem anderen Experten zusammen. Alle Arbeitsformulare werden vom Projektleiter gesammelt und ausgewertet. Ergeben sich gravierende Diskrepanzen, so werden diese vom Projektleiter einheitlich auf allen Arbeitsformularen in Bezug auf die Abweichung nach oben oder unten kommentiert. Jedes Arbeitsformular geht anschließend an seinen ursprünglichen Bearbeiter wieder zurück. Die Experten überdenken in Abhängigkeit von den Kommentaren ihre Schätzungen. Dieser Vorgang kann als eine Art indirekte Diskussion angesehen werden, da die Experten nicht in Kontakt zueinander stehen und sich doch gegenseitig beeinflussen. Die beschriebene Schleife wiederholt sich so lange, bis sich in den Schätzungen unabhängig voneinander (in einem Toleranzbereich) Konsens einstellt. Von allen Schätzungen werden die Mittelwerte errechnet und als finale Schätzung präsentiert. Das Fehlen jeglicher Diskussionen hat zwei Aspekte, die ein Projektleiter bewerten muss: Einerseits wird damit verhindert, dass sich aufgrund einer ungewollten Gruppendynamik Strömungen und Tendenzen in den Meinungen herausbilden, die unter Umständen gute Schätzungen verhindern. Auf der anderen Seite könnten Gruppendiskussionen dazu beitragen, Defizite im Know-how einzelner Experten und die damit verbundenen Fehleinschätzungen zu vermeiden. Häufig werden Delphi-Umfragen schriftlich und getrennt durchgeführt, die Fragebogen werden also den Experten per Brief oder Mail gesandt. Die einzelnen Experten sehen sich nie und wissen auch erst nach Abschluss aller Umfragerunden die Namen der anderen Befragten. Dieses Vorgehen ist zuverlässiger als das Versammeln aller Experten in einem Raum. Liegt der Schlussbericht einmal vor, werden in der Regel alle Experten und andere Interessierte zu einem Symposium eingeladen. Breitband-Delphi-Methode Bei der Breitband-Delphi-Methode werden mehrere Experten zur Schätzung eines Projektes herangezogen, die sich untereinander abstimmen dürfen. Der Prozess sieht wie folgt aus: Ein Projektleiter bereitet eine Projektbeschreibung vor, in der die einzelnen Teil-Produkte aufgelistet sind und bereitet sie in einem Arbeitsformular vor. Der Projektleiter stellt die Ziele des Gesamtprojektes vor und verteilt je ein Exemplar des Arbeitsformulars an jeden Experten. Es findet eine Diskussion der Arbeitspakete unter den Experten statt, in der die Sicht der einzelnen Experten den anderen Teilnehmern in Bezug auf das Gesamtprojekt und die Teilaufgaben vermittelt werden. Anschließend schätzt jeder Experte die in seinem Arbeitsformular enthaltenen Arbeitspakete. Keiner der Experten arbeitet dabei mit einem anderen Experten zusammen. Der Projektleiter fasst die einzelnen Schätzaussagen zusammen, er begründet allerdings die Angaben und Unterschiede nicht. Die Ergebnisse werden an alle Experten verteilt. Der Projektleiter beruft ein neues Meeting mit den Experten zusammen und spricht die größten Diskrepanzen in den Schätzungen an. Jedes Arbeitsformular geht anschließend an seinen ursprünglichen Bearbeiter wieder zurück. Die Experten überdenken in Abhängigkeit von den angeführten Abweichungen ihre Schätzungen. Die beschriebene Schleife wiederholt sich so lange, bis sich in den Schätzungen unabhängig voneinander (in einem Toleranzbereich) Konsens einstellt. Von allen Schätzungen werden die Mittelwerte errechnet und als finale Schätzung präsentiert. Durch die Wechselwirkungen der Experten untereinander werden unterschiedliche Ansichten vermittelt, was eine Konsens-Bildung beschleunigt. Vorteil dieser Methode ist zum einen die Anonymität der Schätzungen: Die Experten werden nicht mit ihren gravierenden Abweichungen der Schätzungen konfrontiert und können damit die Schätzaufwände in ihrem Sinne beeinflussen. Starke Abweichungen von Mittelwerten werden offengelegt. Nachteil dieser Methode ist die Gefahr einer Meinungsbildung durch die Gruppendynamik, in der eine unter Umständen notwendige gravierende Schätzabweichung dem Gruppenzwang unterliegt. Ein weiterer Nachteil ist, dass aufgrund mehrerer Iterations-Schleifen für die Meinungsbildung der gesamte Schätzaufwand recht umfangreich werden kann. Die Breitband-Delphi-Methode ist eine sinnvolle Technik für das Schätzen von großen Projekten, in denen komplexe Architekturen durch eine große Expertenrunde mit Hilfe der Interaktion der Experten untereinander zu realistischen Werten führen kann. Kritik Die Delphi-Methode versucht, durch das mehrstufige, manchmal auf Konsens angelegte Design, Fehleinschätzungen der Experten zu reduzieren. Dennoch lassen sich nicht alle Probleme der Expertenbefragung vermeiden; durch die Befragung mehrerer Personen entstehen weitere Einschränkungen. Der Hauptkritikpunkt betrifft die Grundannahme, dass Experten über Erkenntnisse verfügen, die über das Normalmaß hinausgehen und dass sich in der Kombination Zukunftswissen generieren lässt. Diese Annahme ist jedoch nicht beweisbar. Zur Auswahl der Experten gibt es keine Kriterien; die Bezeichnung „Experte“ ist rein subjektiv und willkürlich; durch die Auswahl der Teilnehmer erfolgt schon eine Einflussnahme auf das Ergebnis. Themen und Thesen müssen zunächst formuliert werden, bevor sie das zweistufige Verfahren durchlaufen können. In manchen Fällen werden die Thesen zwar im Verfahren selbst erarbeitet, in der Regel sind hierzu jedoch weitere Methoden notwendig. Die Thesen müssen kurz, prägnant, aber eindeutig formuliert sein. Dies kann ein Vorteil sein, zwingt es doch die Teilnehmer zur Konzentration auf das Wesentliche. Methodisch können aber nur bedingt komplexe Themenstellungen bewertet werden. Experten konzentrieren sich per Definition im Wesentlichen auf ihren Fachbereich. Die Interdependenzen mit anderen Entwicklungen, die vor allem bei breit angelegten Studien wichtig sind, werden häufig vernachlässigt oder müssen nachgearbeitet werden. Werden relevante Rahmenbedingungen (z. B. soziale Entwicklungen bei der Prognose der technischen Entwicklung der Mobilkommunikation) beachtet, so kann man sich nicht darauf verlassen, dass die Befragten hierfür dieselbe zuverlässige Expertise besitzen wie in ihrem eigentlichen Fachbereich. Experten neigen dazu, die Geschwindigkeit von Entwicklungen zu überschätzen. Vor allem die Diffusionsgeschwindigkeit einer Innovation in der Gesellschaft wird schnell überschätzt. Bei der Befragung einer Gruppe entsteht eine soziale Situation. Hierbei können durch Autorität, oder auch aufgrund persönlicher Grabenkämpfe, Verzerrungen entstehen. So ist nicht immer klar, ob ein Konsens (oder ein Dissens) tatsächlich nur auf dem intensiven Hinterfragen der eigenen Meinung beruht. Eine Anonymisierung in der Feedback-Runde kann diese Probleme i. A. nicht vollständig vermeiden. Bei der Verwendung von Fragebögen (E-Mail oder postalisch) wird das Delphi-Verfahren explizit dazu genutzt, diese Dominanzen zu umgehen. Bei Präsenzrunden ist dies nur bedingt möglich. Siehe auch Delphi-Effekt Real-time Delphi (englisch) Nominal Group Technique Cooke-Methode, ähnlich der Delphi-Methode, jedoch werden die Expertenmeinungen mit dem Fähigkeitsgrad der Experten gewichtet, um eine andere Schätzung zu erhalten und um die Gefahr der Tendenz zum Mittelwert auszuschließen. Strategische Frühaufklärung Zukunftsforschung Literatur Marlen Niederberger, Ortwin Renn: Delphi-Verfahren in den Sozial- und Gesundheitswissenschaften: Konzept, Varianten und Anwendungsbeispiele. Springer VS, 2019, ISBN 978-3-658-21656-6. Marlen Niederberger, Ortwin Renn: Das Gruppendelphi-Verfahren: Vom Konzept bis zur Anwendung. Springer VS, 2018, ISBN 978-3-658-18754-5. Michael Häder (Hrsg.): Delphi-Befragungen. Ein Arbeitsbuch. Westdt. Verlag, Wiesbaden 2002, ISBN 3-531-13748-4. Michael Häder, Sabine Häder (Hrsg.): Die Delphi-Technik in den Sozialwissenschaften: Methodische Forschungen Und Innovative Anwendungen (ZUMA-Publikationen). Springer VS, 2000, ISBN 978-3-531-13523-6. Ursula Ammon: Delphi-Befragung. Quantitative Organisationsforschung. Qualitative-Research.net, 2005. Online-Portal für qualitative Sozialforschung, Freie Universität Berlin. Online verfügbar Kerstin Cuhls, Knut Blind, Hariolf Grupp (Hrsg.): Delphi '98 Umfrage. Zukunft nachgefragt. Studie zur globalen Entwicklung von Wissenschaft und Technik. Karlsruhe 1998. Hariolf Grupp (Hrsg.): Der Delphi-Report. unter Mitarbeit von Breiner, Sibylle und Cuhls, Kerstin. dva-Verlag, Stuttgart 1995. H. A. von der Gracht: The Delphi Technique for Futures Research. In: The Future of Logistics, Springer/Gabler, 2008, Kapitel 3, S. 21–68, ISBN 978-3-8349-9764-7. H. A. von der Gracht: Consensus Measurement in Delphi Studies – Review and Implications for Future Quality Assurance. In: Technological Forecasting & Social Change. 79, Nr. 8, 2012, S. 1525–1536, doi:10.1016/j.techfore.2012.04.013. – Eine Zusammenfassung von Methoden und Kriterien zur Panel-Konsens- bzw. Dissens-Messung A. Spickermann u. a.: Surface- and deep-level diversity in panel selection – Exploring diversity effects on response behaviour in foresight. In: Technological Forecasting & Social Change. Vol. 85, 2014, S. 105–120, doi:10.1016/j.techfore.2013.04.009. – Ein Beispiel für wissenschaftlich fundierte Expertenkriterien und -auswahl Stefan Aengenheyster u. a.: Real-Time Delphi in practice – A comparative analysis of existing software-based tools. In: Technological Forecasting & Social Change. Vol. 118, 2017, S. 15–27, doi:10.1016/j.techfore.2017.01.023. – Vergleich von verschiedenen Realtime-Delphi Anwendungen T. Gnatzy u. a.: Validating an innovative real-time Delphi approach – A methodological comparison between real-time and conventional Delphi studies. In: Technological Forecasting & Social Change. Vol. 78, No. 9, 2011, S. 1681–1694, doi:10.1016/j.techfore.2011.04.006. – Methodenvergleich von Realtime- und klassischen Delphi-Studien USAF Project RAND Report Delphi Assessment: Expert Opinion, Forecasting and Group Process (pdf; 6,0 MB) Sekundärliteratur zur Delphi-Methode: Delphi-Studien: Kerstin Cuhls, Jürgen von Oertzen, Simone Kimpeler: Future Information Technology for the Health Sector. FAZIT-Schriftenreihe, Stuttgart 2007, www.fazit-forschung.de Kerstin Cuhls, Jürgen von Oertzen, Simone Kimpeler: Zukünftige Informationstechnologie für den Gesundheitsbereich. Ergebnisse einer Delphi-Befragung. (= FAZIT-Schriftenreihe). Stuttgart 2007, www.fazit-forschung.de H. A. Linstone: The Delphi-Method – Techniques & Applications. Massachusetts 1975. H. A. von der Gracht, I.-L. Darkow: Scenarios for the Logistics Service Industry: A Delphi-based analysis for 2025. In: International Journal of Production Economics. Vol. 127, No. 1, 2010, S. 46–59, doi:10.1016/j.ijpe.2010.04.013. – Ein Beispiel für wissenschaftlich fundierte Delphibasierte Szenarioentwicklung in der Logistik-/Mobilitätsbranche O. Quasdorff: Die Lean Factory unter Berücksichtigung der Digitalen Fabrik. In: Uwe Bracht (Hrsg.): Innovationen der Fabrikplanung und -organisation. Band 36, Shaker Verlag, Aachen 2016, ISBN 978-3-8440-4934-3. K. Ullrich und C. Wenger: Vision 2017 – Was Menschen morgen bewegt. Heidelberg 2008, ISBN 978-3-636-01582-2. D. Wissen: Bibliographie der Zukunft – Zukunft der Bibliographie – eine Expertenbefragung mittels Delphi-Technik in Archiven und Bibliotheken in Deutschland, Österreich und der Schweiz. Berlin 2007. Lazarus, J.V., Romero, D., Kopka, C.J. et al. A multinational Delphi consensus to end the COVID-19 public health threat. Nature (2022). doi:10.1038/s41586-022-05398-2 Weblinks Einzelnachweise Betriebswirtschaftslehre Innovationsmanagement Technikfolgenabschätzung Planung und Organisation Zukunftsforschung
1005
https://de.wikipedia.org/wiki/Differenz
Differenz
Differenz (von lateinisch differentia „Unterschied, Verschiedenheit“) steht für: Differenz, Ergebnis einer Minus-Rechnung, siehe Subtraktion Differenz (Philosophie), Fachbegriff mit unterschiedlichen Bedeutungen Differenz (Relationale Algebra), Datenbanktheorie Differenz (Luhmann), epistemologischer Grundbegriff nach Niklas Luhmann Differenz zwischen Soll- und Habenseite eines Kontos, siehe Saldo Differenz, Nicht-Übereinstimmung zweier Objekte, siehe Unterschied Siehe auch: Quasidifferenz (Statistik, Messwesen) Différance (philosophische Dekonstruktion) Differential, Differenzierung (Begriffsklärungen) Differenzkriterium, theologische Methode in der Exegese
1006
https://de.wikipedia.org/wiki/Distinktion
Distinktion
Distinktion () steht für: Abgrenzung Angehöriger sozialer Gruppierungen; siehe Distinktion (Soziologie) Unterscheidung von Wesensmerkmalen bei der Begriffsbildung; siehe Distinktion (Logik) Rangabzeichen in Österreich Distinction (englisch ‚Auszeichnung’) steht für: Die höchste Notenstufe für Master im britischen Universitätssystem, siehe Master #Noten Siehe auch: Distinktives Merkmal
1008
https://de.wikipedia.org/wiki/David%20Cronenberg
David Cronenberg
David Paul Cronenberg (* 15. März 1943 in Toronto, Ontario) ist ein kanadischer Filmregisseur, Drehbuchautor, Filmproduzent, Filmeditor und Schauspieler. Während sein Frühwerk vor allem dem Body Horror, Experimental-, Horror- und Science-Fiction-Film zuzuordnen ist, liegt das Augenmerk in seinen späteren Arbeiten vornehmlich auf dem Filmdrama und der Literaturverfilmung. Zu seinen bekanntesten Werken zählen Scanners – Ihre Gedanken können töten, Videodrome, Die Fliege, Naked Lunch und A History of Violence. Leben und Werk Privatleben David Cronenberg wurde als Sohn einer Musikerin und eines Schriftstellers in Toronto geboren. Seine jüdischen Großeltern stammten alle aus Litauen. Er besuchte das North Toronto Collegiate Institute und schrieb sich 1963 zuerst im Bereich Naturwissenschaften an der University of Toronto ein. Später wechselte er in die Fachbereiche englische Sprache und Literatur und erwarb 1967 seinen Abschluss als „Bachelor of Arts“. Beeinflusst von William S. Burroughs und Vladimir Nabokov, versuchte er sich zunächst erfolglos als Autor. Erst die Sichtung eines von Kommilitonen gedrehten Films weckte in ihm den Wunsch, selbst Filmemacher zu werden. Seine Schwester Denise Cronenberg war als Kostümdesignerin an einem Dutzend seiner Filme beteiligt. Cronenbergs Sohn Brandon (* 1980) ist als Regisseur und Drehbuchautor tätig. Die Tochter Caitlin Cronenberg (* 1984) ist Fotografin und Artdirector. Karriere Ab den späten 1960er Jahren begann Cronenberg seine ersten, experimentellen Kurz- und Langfilme zu drehen. Obwohl beeindruckt von Regisseuren wie Federico Fellini und Ingmar Bergman, verneinte er filmgeschichtliche Einflüsse auf sein Werk und verwies stattdessen wiederholt auf Burroughs, Nabokov sowie den Existentialismus. In den expliziten, Elemente des Horror- und Science-Fiction-Films einbindenden, Arbeiten Parasiten-Mörder (1975) und Rabid – Der brüllende Tod (1977) stand der physische Horror im Vordergrund. Mit Die Brut (1979), seinem „autobiografischsten“ Film, begann Cronenberg, psychologischen mit physischem Horror zu verbinden. Die Brut markierte auch die erste Zusammenarbeit mit dem Komponisten Howard Shore, der seitdem zu Cronenbergs festen Stamm von Mitarbeitern zählt, den der Regisseur im Laufe der Jahre um sich scharte, darunter Filmeditor Ronald Sanders, Produktionsdesignerin Carol Spier und Kameramann Mark Irwin, der 1988 durch Peter Suschitzky ersetzt wurde. Seinen ersten größeren kommerziellen Erfolg verzeichnete Cronenberg mit Scanners – Ihre Gedanken können töten (1981), einen weiteren mit Die Fliege (1986), einem Remake des gleichnamigen Films von 1958. Mit Die Unzertrennlichen (1988), den er neben Die Brut und Die Fliege zu seinen persönlicheren Werken zählte, trat die extreme Darstellung körperlicher Deformationen in seinen Filmen zusehends in den Hintergrund. Inhaltlich verschob sich die Gewichtung vom Horror- und Science-Fiction-Genre hin zum Filmdrama, auch entstanden die nachfolgenden Arbeiten mehrheitlich nicht mehr nach seinen Originaldrehbüchern, sondern nach literarischen Vorlagen. Naked Lunch (1991) basierte auf einem Buch von Cronenbergs favorisiertem Literaten Burroughs und war die erste Zusammenarbeit mit dem namhaften Produzenten Jeremy Thomas. 2012 stellte er das Drama Cosmopolis vor, das auf dem gleichnamigen Roman von Don DeLillo basiert. Der Film brachte ihm seine vierte Einladung in den Wettbewerb der Internationalen Filmfestspiele von Cannes ein. 2014 veröffentlichte er seinen Roman Verzehrt. 2018 war er Jurypräsident des Neuchâtel International Fantastic Film Festival. Cronenberg drehte neben Kinofilmen auch Fernseh- und Werbefilme. Zusätzlich zu seiner Regiearbeit trat er schauspielerisch in kleinen Rollen und Cameos in Erscheinung, so 1990 in Clive Barkers Cabal – Die Brut der Nacht. Themen Cronenberg gilt als Mitbegründer des Body Horror (dt. Körperhorror), einer Stilrichtung des Horrorfilms, „dessen Hauptmotiv die deutlich gezeigte Zerstörung oder der Verfall eines menschlichen Körpers oder menschlicher Körper ist bzw. sind.“ Der Regisseur selbst lehnt diese Zuordnung ab. Rüdiger Suchsland vom film-dienst sieht Cronenberg nach eher klassischen Horrorfilmen 2004 als „Meister des subtilen Horrors“ zwischen den Polen Angst, Gesellschaftskritik und Deformation des Körpers. Cronenberg auf Suchslands Frage nach seiner Weltsicht: „Die Basis ist eine existentialistische Sicht der Realität. Das bedeutet: Es gibt keine absolute Realität. Es gibt nur ein oder zwei Tatsachen über das Leben – die eine ist der Tod, eine weitere das Leben. Dazwischen müssen wir alles selbst erfinden und hervorbringen. Die Verantwortung dafür ist ganz und gar unsere eigene – niemand nimmt uns das ab. Es gibt keine Regeln, außer denen, die wir selbst erfinden. […] Das ist erschreckend und aufregend zugleich.“ David Cronenberg ist leidenschaftlicher Fan von Motorsport und Boxen. Sein Faible für den Motorsport ließ er in seine beiden Filme The Italian Machine von 1976 und 10.000 PS – Vollgasrausch im Grenzbereich von 1979 einfließen. Ferner ist in diesem Zusammenhang der Teleporter als Kulisse in seinem Film Die Fliege optisch dem Zylinderkolben eines Motorrads des Modells Ducati 450 Desmo aus dem Besitz von Cronenberg nachempfunden. Filmografie (Auswahl) 1966: Transfer (Kurzfilm) 1967: From the Drain (Kurzfilm) 1969: Stereo 1970: Crimes of the Future 1975: Parasiten-Mörder (Shivers) 1976: The Italian Machine (Kurzfilm) 1977: Rabid – Der brüllende Tod (Rabid) 1979: 10.000 PS – Vollgasrausch im Grenzbereich (Fast Company) 1979: Die Brut (The Brood) 1981: Scanners – Ihre Gedanken können töten (Scanners) 1983: Videodrome 1983: Dead Zone (The Dead Zone) 1986: Die Fliege (The Fly) 1988: Die Unzertrennlichen (Dead Ringers) 1991: Naked Lunch – Nackter Rausch (Naked Lunch) 1993: M. Butterfly 1996: Crash 1999: eXistenZ 2000: Camera (Kurzfilm) 2002: Spider 2005: A History of Violence 2007: At the Suicide of the Last Jew in the World in the Last Cinema in the World (Kurzfilm) 2007: Tödliche Versprechen – Eastern Promises (Eastern Promises) 2011: Eine dunkle Begierde (A Dangerous Method) 2012: Cosmopolis 2014: Maps to the Stars 2022: Crimes of the Future als Darsteller: 1985: Kopfüber in die Nacht (Into the Night) 1986: Die Fliege (The Fly) 1990: Cabal – Die Brut der Nacht (Nightbreed) 1995: To Die For 1996: Extrem… mit allen Mitteln (Extreme Measures) 1999: Resurrection – Die Auferstehung (Resurrection) 2000: American Nightmare (The American Nightmare) (Dokumentarfilm) 2001: Jason X 2003: Alias – Die Agentin (Alias, Fernsehserie, 2 Folgen) 2010: Barney’s Version 2017: Alias Grace (Miniserie, 6 Folgen) 2019: Clifton Hill 2020: Star Trek: Discovery (Fernsehserie) 2020: Falling 2021: Slasher (Fernsehserie, 8 Folgen) Auszeichnungen (Auswahl) Zu den prämierten Cronenberg-Filmen zählen Crash (Cannes 1996) und eXistenZ (Berlinale 1999). Am 28. September 2007 erhielt Cronenberg im Rahmen des Filmfests Hamburg bei der Aufführung seines Werkes Tödliche Versprechen – Eastern Promises den Douglas Sirk Preis 2007 als Regisseur, „der konsequent grenzüberschreitende, irrationale, verstörende Filme dreht. Vom Publikum und von der Kritik teils bejubelt und teils verrissen, provoziert er eine gesunde Polemik, die dem Kino – wie allen Künsten – immer zugute kommt.“ (Leiter Albert Wiederspiel) 1983: International Fantasy Film Award des Filmfestivals Fantasporto für Scanners – Ihre Gedanken können töten (Bester Film) 1984: Bester Film und Publikumspreis des Fantafestival für Dead Zone 1984: Genie Award für Videodrome (Beste Regie) 1984: British Fantasy Award für Videodrome (Bester Film) 1988: Los Angeles Film Critics Association Award für Die Unzertrennlichen (Beste Regie) 1989: Genie Awards für Die Unzertrennlichen (Bester Film, Beste Regie, Bestes adaptiertes Drehbuch) 1989: Golden Horse Award für Die Unzertrennlichen (Beste ausländische Regie) 1991: Boston Society of Film Critics Award für Naked Lunch (Bestes Drehbuch) 1991: New York Film Critics Circle Award für Naked Lunch (Bestes Drehbuch) 1992: Genie Award für Naked Lunch (Beste Regie) 1992: National Society of Film Critics Awards für Naked Lunch (Beste Regie, Bestes Drehbuch) 1996: Spezialpreis der Jury des Filmfestivals von Cannes für Crash 1996: Genie Awards für Crash (Beste Regie, Bestes adaptiertes Drehbuch, Golden Reel Award) 1999: Silberner Bär für eXistenZ (Besondere künstlerische Leistung) 1999: Silver Scream Award des Amsterdam Fantastic Film Festival für eXistenZ 2002: Spezialpreis der Jury des Ghent International Film Festival (Gesamtwerk) 2002: Preis des Toronto International Film Festival für Spider (Bester kanadischer Spielfilm) 2002: Publikumspreis des Toronto International Film Festival für Tödliche Versprechen – Eastern Promises 2003: Directors Guild of Canada Awards für Spider (Bester Spielfilm, Beste Spielfilmregie) 2003: Genie Award für Spider (Beste Regie) 2005: Billy Wilder Award des National Board of Review 2005: Toronto Film Critics Association Award für A History of Violence (Beste Regie) 2005: Preis für sein Lebenswerk auf dem Stockholm Film Festival 2006: Bodil für A History of Violence (Bester amerikanischer Film) 2006: Directors Guild of Canada Awards für A History of Violence (Bester Spielfilm, Beste Spielfilmregie) 2006: Chicago Film Critics Association Award für A History of Violence (Beste Regie) 2006: National Society of Film Critics Award für A History of Violence (Beste Regie) 2006: Online Film Critics Society Award für A History of Violence (Beste Regie) 2006: Sonny Bono Visionary Award des Palm Springs International Film Festival 2006: Premio Sant Jordi für A History of Violence (Bester ausländischer Film) 2006: Preis des Syndicat Français de la Critique de Cinéma für A History of Violence (Bester ausländischer Film) 2007: Douglas Sirk Award des Hamburg Film Festival 2008: Directors Guild of Canada Awards für Tödliche Versprechen – Eastern Promises (Bester Spielfilm, Beste Spielfilmregie) 2008: Fotogramas de Plata für Tödliche Versprechen – Eastern Promises (Bester ausländischer Film) 2008: Premio Sant Jordi für Tödliche Versprechen – Eastern Promises (Bester ausländischer Film) 2008: Vancouver Film Critics Circle Award für Tödliche Versprechen – Eastern Promises (Beste kanadische Filmregie) 2011: Tribute Award bei den Gotham Awards 2012: Directors Guild of Canada Awards für Eine dunkle Begierde (Bester Spielfilm, Beste Spielfilmregie) 2012: Vancouver Film Critics Circle Award für Eine dunkle Begierde (Beste kanadische Filmregie) 2015: Lifetime Achievement Award der Directors Guild of Canada 2018: Goldener Löwe des Filmfestivals von Venedig für sein Lebenswerk 2022: Festival Internacional de Cine de San Sebastián – Donostia Award Bibliografie Verzehrt. S. Fischer, Frankfurt am Main 2014, ISBN 978-3-10-010233-1. Weiterführende Literatur Drehli Robnik / Andreas Rauscher: David Cronenberg * 1943.In: Thomas Koebner (Hrsg.): Filmregisseure. Biographien, Werkbeschreibungen, Filmographien. 3., aktualisierte und erweiterte Auflage. Reclam, Stuttgart 2008, ISBN 978-3-15-010662-4, S. 156–161. Thomas Weber: Medialität als Grenzerfahrung. Futurische Medien im Kino der 80er und 90er Jahre. Transcript Verlag, Bielefeld 2008, ISBN 978-3-89942-823-0. Arno Meteling: Monster. Zu Körperlichkeit und Medialität im modernen Horrorfilm. Transcript, Bielefeld 2006, ISBN 3-89942-552-9. Mertxe Lasierra: Cronenberg: A Modern Canadian Myth. In: Wolfram R. Keller, Gene Walz (Hrsg.): Screening Canadians: Cross-Cultural Perspectives on Canadian Film. Im Part Three: Canadian Nations. Marburger Zentrum für Kanada-Studien, Universitätsbibliothek Marburg 2008, ISBN 978-3-8185-0461-8. Weblinks David Cronenberg bei northernstars.ca (englisch) David Cronenberg: Virtual Exhibition (englisch) Einzelnachweise Filmregisseur Drehbuchautor Filmproduzent Filmeditor Filmschauspieler Companion of the Order of Canada Mitglied der Ehrenlegion (Ritter) Träger des Ordre des Arts et des Lettres (Ritter) Träger des Order of Ontario Mitglied der Royal Society of Canada Person des Judentums (Kanada) Träger des British Fantasy Award Kanadier Geboren 1943 Mann
1009
https://de.wikipedia.org/wiki/David%20Lynch
David Lynch
David Keith Lynch (* 20. Januar 1946 in Missoula, Montana) ist ein US-amerikanischer Künstler, der als Filmregisseur, Filmproduzent, Drehbuchautor, Schauspieler, Maler, Fotograf, Lithograf, Bildhauer, Möbeldesigner und Komponist arbeitet. Bekanntheit erlangte Lynch vor allem durch seine Filme, die sich den Genres surrealistischer Film, Thriller, Horrorfilm und Film noir zuordnen lassen. Lynchs albtraumhafte, surrealistische Bilder und das bedrohliche, minutiöse Sounddesign sind die bestimmenden stilistischen Elemente. Albträume, fremde Welten, Metamorphosen, Voyeurismus und das Unbewusste sind wiederkehrende Themen in filmischen Werken wie Eraserhead (1977), Blue Velvet (1986), Twin Peaks (1990–1991, 2017), Lost Highway (1997) oder auch Mulholland Drive (2001). Lynch bekam 1990 die Goldene Palme von Cannes für Wild at Heart – Die Geschichte von Sailor und Lula verliehen, 2006 einen Goldenen Löwen für sein Lebenswerk auf den internationalen Filmfestspielen von Venedig. Des Weiteren wurde er viermal für den Oscar nominiert. Er ist Ritter und Offizier der französischen Ehrenlegion. Am 27. Oktober 2019 wurde ihm der Ehrenoscar verliehen. Leben Die Eltern Donald Walton Lynch und Edwina Lynch (geb. Sundholm) hatten sich während ihrer Studienzeit an der Duke University in North Carolina kennengelernt. Der Vater arbeitete als Agrarwissenschaftler für das Landwirtschaftsministerium der Vereinigten Staaten. Er war auf einer Farm im Nordwesten der USA aufgewachsen. Die Mutter stammte aus Brooklyn und gab Sprachunterricht. Später war sie Hausfrau und kümmerte sich um die Kinder. David Keith Lynch wurde am 20. Januar 1946 in Missoula, Montana geboren. Zwei Monate später zog die Familie nach Sandpoint, Idaho. Lynchs Vater war durch seine Arbeit gezwungen, häufig den Wohnsitz zu wechseln, weshalb die Familie ein Wanderleben führte. In dem neuen Zuhause wurde Davids Bruder John geboren. Es folgte ein Umzug nach Spokane, Washington, wo seine Schwester Martha zur Welt kam, und anschließend einer nach Durham, North Carolina. In Boise, Idaho siedelte sich die Familie schließlich für eine längere Zeit an. David, der presbyterianisch erzogen wurde, besuchte dort von der 3. bis zur 8. Klasse die Schule. Zu dieser Zeit sah er auch den ersten Film, an den er sich erinnern kann: Wait till the sun shines, Nellie (1952) von Henry King. Rückblickend betrachtet meint Lynch, er habe eine glückliche Kindheit gehabt und sei wohlbehütet und in einer friedlichen Umgebung aufgewachsen: „Meine Kindheit bestand aus eleganten Einfamilienhäusern, Alleen, dem Milchmann, Burgenbauen im Garten, Flugzeuggebrumm, blauem Himmel, Gartenzäunen, grünem Gras und Kirschbäumen.“ Durch seinen Vater kam er bereits in sehr frühen Jahren mit der Natur in Kontakt. „Mein Vater machte häufig Experimente zu Baumkrankheiten und Insekten. Ihm standen riesige Wälder als Versuchsareal zur Verfügung. Dadurch kam ich mit Insekten, Krankheiten und Wachstum in einer organischen Welt in Berührung, einem Wald etwa oder einem Garten“, so Lynch, der parallel auch einige Tiere wie Mäuse oder Frösche sezierte. Die Berührung mit dieser organischen Welt hat den jungen David tief geprägt, was sich in seinen späteren Arbeiten widerspiegelt. 1960 ließen sich die Eltern endgültig in Alexandria, Virginia nieder. Der 14-jährige Lynch wurde als Schüler der Francis C. Hammond High School Pfadfinder (Eagle Scout) und entwickelte nebenher bleibende Begeisterung für die Malerei. Trotz seines bayerischen Onkels, der als Maler in München tätig war, sah er darin jedoch keine aussichtsreiche Zukunft. Der Vater seines Schulfreunds Toby Bushnell Keeler brachte ihn schließlich auf andere Gedanken: Der professionelle Maler bot Lynch und dessen Freund Jack Fisk einen Raum in seinem Studio in Georgetown zur Untermiete an. Die beiden nahmen an und konnten ihrer Kreativität somit freien Lauf lassen. Während dieser Zeit pendelte Lynch am Wochenende nach Washington D.C., wo er Kurse an der Corcoran School of Art besuchte. Es sollte schließlich ein Buch sein, das Lynch den Traum vom Künstlerdasein leben ließ: The Art Spirit von Robert Henri. Bushnell Keeler hatte ihn darauf aufmerksam gemacht. Lynch: „[…] es wurde sozusagen zu meiner Bibel, es enthielt die Regeln fürs Künstlerleben“. Nach dem Examen an der High School 1964 beschloss er, an der privaten Kunsthochschule School of the Museum of Fine Arts in Boston zu studieren. Wegen mangelnder Inspiration und „unseriösen“ Kommilitonen brach er bereits nach einem Jahr ab. Zusammen mit seinem Freund Jack Fisk reiste Lynch daraufhin nach Europa, um in Salzburg Student der Sommerakademie von Oskar Kokoschka zu werden. Da beiden die Stadt zu „sauber“ war, machten sie sich alsbald jedoch auf den Weg nach Paris. Von da aus ging es anschließend per Orientexpress nach Athen. Aber auch diese Stadt gefiel ihnen nicht. „Ich dachte darüber nach, dass ich 7000 Meilen vom nächsten McDonald’s entfernt war – und ich vermißte es, ich vermißte Amerika. Mir wurde klar, dass ich Amerikaner war und in Amerika leben wollte“, erinnert sich Lynch. Zurück in den USA gab es von Seiten der Eltern keine finanzielle Unterstützung mehr, weshalb Lynch gezwungen war, sich mit diversen Nebenjobs über Wasser zu halten. Er arbeitete zunächst im Architekturbüro des Onkels seines Freundes Toby, später in einem Rahmengeschäft, über dem er auch wohnen konnte. Schließlich wurde er zum Hausmeister des Geschäfts ernannt. Nach mehreren Monaten fasste er den Entschluss, weiter zu studieren: Er bewarb sich an der Pennsylvania Academy of Fine Arts in Philadelphia, an der auch sein Freund Jack Fisk eingeschrieben war. Nach der erfolgreichen Aufnahmeprüfung zogen Lynch und Fisk Ende 1965 nach Philadelphia in eine Wohnung in einem dortigen Industriegebiet. An der Akademie studierte Lynch zwei Jahre lang, blieb darüber hinaus aber bis 1970 in der Stadt. 1967 heiratete er Margeret Reavey, genannt Peggy. Sie brachte am 7. April 1968 ihre gemeinsame Tochter Jennifer Lynch zur Welt. Aus Platzmangel zog die Familie in ein Haus, das Lynch für 3.500 US-Dollar erworben hatte, das jedoch äußerst heruntergekommen war und in einer sehr armen Wohngegend lag. Es wurde mehrmals eingebrochen und die Familie erlebte sogar einen Mord auf offener Straße, direkt vor der Tür. „Um uns herum gab es Gewalt und Haß und Dreck“, so Lynch. Lynch wurde mit der Zeit bewusst, dass der Malerei zwei wichtige Elemente fehlten, nach denen er sich insgeheim sehnte: Bewegung und Ton. So entstanden in den Jahren 1967 und 1968 erste Filmversuche. Mit der Filmskulptur Six Men Getting Sick gewann Lynch 1967 ex aequo den ersten Preis eines Wettbewerbs der Pennsylvania Academy of Fine Arts. Durch finanzielle Unterstützung des wohlhabenden Kommilitonen H. Barton Wasserman, dem Lynchs erstes Filmwerk gut gefallen hatte, entstand der vierminütige Kurzfilm The Alphabet (1968). Bushnell Keeler, der Vater seines High-School-Freundes, machte ihn daraufhin auf ein Stipendium des American Film Institute (AFI) aufmerksam. Lynch schickte dem AFI seinen Kurzfilm und ein fertiges Drehbuch. Er bekam das mit 5.000 US-Dollar dotierte Stipendium, um sein Projekt mit dem Titel The Grandmother zu realisieren. Dieser halbstündige Film lief auf diversen Filmfestivals, wurde zu einem großen Erfolg und war de facto Lynchs Eintrittskarte für das neue Center for Advanced Film Studies des AFI in Los Angeles. Zusammen mit seiner Familie und seinen Freunden Alan Splet und Jack Fisk zog er deshalb 1970 nach Los Angeles um, wo seine künstlerische Karriere Fahrt aufnahm. Seitdem lebt und arbeitet Lynch dort: Im Juli 2005 gründete Lynch die Stiftung David Lynch Foundation for Consciousness Based Education and World Peace (DLF), die sich um die Einrichtung von Meditationsprogrammen in Schulen kümmert, Stipendien zum Erlernen der Transzendentalen Meditation vergibt und ein auf Bewusstseinsbildung gegründetes Bildungs- und Erziehungswesens fördert. Bereits 1992 hatte er die Produktionsfirma Asymmetrical Productions gegründet. Sie hat ihren Sitz in Los Angeles, das Logo stammt von Lynch selbst. Lynch trennte sich 1974 von seiner ersten Frau Peggy. Drei Jahre später heiratete er Mary Fisk, die Schwester seines Freundes Jack. Gemeinsam haben sie einen Sohn namens Austin. 1987 wurde die Ehe geschieden. 1986 bis 1990 war Lynch mit der Schauspielerin Isabella Rossellini liiert. 2006 nahm er seine langjährige Filmeditorin und Produzentin Mary Sweeney zur Frau, reichte aber bereits einen Monat später die Scheidung ein. Aus dieser bereits 1991 begonnenen Beziehung stammt sein zweiter Sohn Riley. 2009 heiratete er die Schauspielerin Emily Stofle. Am 28. August 2012 kam Lynchs zweite Tochter Lula Boginia zur Welt. Künstlerische Laufbahn Bildende Künste und erste Kurzfilme (1964–1970) Als Student an der Pennsylvania Academy of Fine Arts entstanden Lynchs erste düstere Zeichnungen und Gemälde. Zuvor hatte er noch bunte, farbenfrohe Bilder produziert. Nun malte er große, breite, dunkle Kunstwerke. Eines der ersten war The Bride. Es zeigte eine abstrakte Figur einer Braut bei einer Selbstabtreibung. Es folgten diverse Action Paintings. Hierfür klatschte Lynch schwarze Farbe auf eine Leinwand und fügte „kantige Formen“ hinzu. Als er eines seiner Bilder betrachtete – ein schwarzes mit einer Figur in der Mitte –, fehlten ihm Ton und Bewegung: „Und wie ich so die Figur auf dem Bild betrachte, höre ich plötzlich einen Atemzug und sehe eine kleine Bewegung. Da wünschte ich mir, dass sich das Bild wirklich bewegen könnte, nur ein ganz kleines bißchen.“ Das war für Lynch der Anlass, einige Filmexperimente zu starten. Da er nicht viel Ahnung vom Film hatte, kaufte er sich eine 16-mm-Kamera und folgte diversen Instruktionen. Lynch ließ sich von seinem Freund Jack Fisk Gipsabdrücke machen, die er zusammenfügte, sodass daraus eine Projektionsfläche wurde. Darauf projizierte er einen kurzen Animationsfilm, „der zu einer Schlaufe zusammengeklebt wurde und endlos durch den Projektor laufen konnte, wobei er erst zur Decke und dann zurück in den Vorführapparat geführt wurde“. Dazu waren Polizeisirenen zu hören. Lynch nannte sein animiertes Gemälde Six Men Getting Sick (1967) und gewann den ersten Preis der Akademie. Dem wohlhabenden Kommilitonen H. Barton Wasserman gefiel dieses Kunstwerk so sehr, dass er Lynch mit 1.000 US-Dollar beauftragte, ihm auch so eine Filmskulptur anzufertigen. Lynch kaufte sich eine Bolex-Kamera für 450 Dollar und machte sich zwei Monate lang an die Arbeit. „Den fertigen Film brachte ich ins Labor und holte ihn am nächsten Tag ab. […] Ich sah den ganzen Film durch, er war von vorne bis hinten im Eimer. Die Kamera hatte einen defekten Transportmechanismus, und der Film wurde ohne Führung durchs Bildfenster gezogen, statt Bild für Bild“, erinnert sich Lynch. Wasserman erlaubte daraufhin dem angehenden Künstler, das restliche Geld für einen anderen Film zu verwenden, solange er davon eine Kopie bekomme. Lynch kam die Idee, Animations- und Realfilm zu kombinieren. So entstand der vierminütige Kurzfilm The Alphabet (1968), der teils von den Eltern mitfinanziert wurde. Die Hauptrolle spielte seine damalige Frau Peggy. Den Alptraum eines Mädchens vor dem Alphabet und allgemeiner vor dem Lernen unterlegte Lynch mit dem aufgenommenen Geschrei seiner frisch geborenen Tochter Jennifer. Auf Bushnell Keelers Empfehlung beantragte er anschließend ein Stipendium beim American Film Institute (AFI). Dazu schickte er eine Kopie von The Alphabet und ein fertiges Drehbuch ein. Der bei einer Druckerei arbeitende Lynch erhielt schließlich eine Antwort: Er bekomme das Stipendium, wenn er das Drehbuch auch mit 5.000 statt mit den angesetzten 7.118 Dollar umsetzen könne. Lynch willigte ein. Das Drehbuch, für das er das Stipendium bekam, war The Grandmother (1970). Er machte sich sogleich an die Arbeit und strich den dritten Stock in seinem Haus komplett schwarz. Während des Drehs merkte Lynch aber, dass das Geld nicht reichen würde. Nach einem Testscreening der bereits gedrehten Szenen für Tony Vellani vom AFI wurden ihm weitere 2.000 Dollar zugesagt. Den Ton gestaltete er erstmals zusammen mit Alan Splet, der bis zu Blue Velvet (1986) sein fester Sounddesigner blieb. Nach der Fertigstellung des vierunddreißig Minuten langen The Grandmother war die Resonanz überaus positiv. Der Film lief auf Festivals in Atlanta und San Francisco und wurde unter anderem auf den Oberhausener Kurzfilmtagen vorgeführt. Außerdem bekam Lynch den Critics’ Choice Movie Award für den besten Film, der mit einem AFI-Stipendium gedreht wurde. Filmstudium und erster Spielfilm (1970–1979) Tony Vellani war von The Grandmother begeistert und motivierte Lynch dafür, sich am neuen Center for Advanced Filmstudies des AFI in Los Angeles zu bewerben. 1970 bewarb sich der junge David Lynch also für einen Studienplatz. Einreichen musste er dafür eine abgeschlossene Arbeit und eine Idee zu einem Drehbuch. The Grandmother war der fertige Film und Gardenback das Drehbuchprojekt, das Lynch nach seiner Annahme zu einem 45-seitigen Skript ausarbeitete. Man bot Alan Splet die Leitung der Tonabteilung an. Dieser nahm an und folgte zusammen mit Jack Fisk Lynch nach Los Angeles. Lynch gefiel das Studium, vor allem die praktische Seite. Eines der wenigen theoretischen Fächer, die er mochte, war Filmanalyse von František Daniel, dem Lehrer von Miloš Forman. Unter seinen Kommilitonen waren unter anderem Terrence Malick, Tim Hunter und Jeremy Kagan. Lynch wurde von seinem Mitstudenten Caleb Deschanel auf einen Produzenten von 20th Century-Fox aufmerksam gemacht, der sich für das Filmprojekt Gardenback interessierte. Er war bereit, Lynchs Projekt mit 50.000 US-Dollar unter der Bedingung zu unterstützen, dass das Skript zu 110 Seiten ausgearbeitet werde, damit ein richtiger Spielfilm zustande kommen könne. Lynch, der sich mit dieser Idee überhaupt nicht anfreunden konnte, lehnte nach einigen Bearbeitungsversuchen frustriert ab. Nach und nach verlor er die Begeisterung für seine Horror-Ehebruchgeschichte und erklärte dem AFI, er wolle stattdessen ein Projekt mit dem Titel Eraserhead realisieren. „Unter dem Druck von Gardenback schlich ich mich manchmal davon und machte mir Notizen für Eraserhead. Denn mir kamen Ideen, von denen ich wusste, dass sie für Gardenback nicht funktionieren würden, die ich aber trotzdem ziemlich aufregend fand. […] Und auf einmal fand ich Eraserhead viel interessanter“, so Lynch. Die Verantwortlichen des AFI bewilligten das neue Projekt. Das Drehbuch zu Eraserhead war 21 Seiten lang. Da man bei der AFI aus Erfahrung pro Drehbuchseite eine Filmminute kalkulierte, ging man davon aus, dass der Film etwa 21 Minuten dauern werde. Einen Langfilm war man nicht bereit zu finanzieren, denn kurz zuvor war ein solches Großprojekt gescheitert. Nun hatte Lynch aber einen äußerst komprimierten Schreibstil und wollte viele Szenen erst beim Dreh entwickeln. Er erwähnte deshalb, dass der Film länger dauern würde. Man einigte sich auf 42 Minuten, Schwarzweiß und 35 mm. Er bekam außerdem 10.000 US-Dollar Budget zur Verfügung gestellt. Anfang 1972 begannen schließlich die Vorbereitungen zum Dreh. Zum Filmteam gehörten der Sounddesigner Alan Splet, Produktionsleiterin Doreen G. Small und Kameramann Herbert Cardwell. Um Musik, Dekor, Szenenbild und Schnitt wollte sich Lynch selbst kümmern. Er schätzte die Dauer der Dreharbeiten auf rund sechs Wochen, doch auch nach einem Jahr war noch nicht Schluss. Nach neun Monaten Drehzeit musste Kameramann Cardwell aus finanziellen Gründen die Produktion verlassen. Er wurde durch Frederick Elmes ersetzt. Die Produktionsbedingungen stellten sich als äußerst schwierig heraus. Als das Geld vom AFI aufgebraucht war, wollte man Lynchs Projekt keine weiteren Zuschüsse gewähren. Man stelle die technischen Mittel weiterhin zur Verfügung, wenn sich der Regisseur selbst um die Finanzierung der Dreharbeiten kümmere, hieß es. Lynch geriet in tiefe Verzweiflung und spielte mit der Idee, die restlichen Szenen mit kleinen Puppen als Animation zu realisieren. Der Gedanke wurde aber schnell wieder verworfen. Nach einjähriger Drehpause konnte die Produktion im Mai 1974 fortgesetzt werden, als es Lynch gelang, sich Geld von Freunden und Familie zu borgen. Außerdem arbeitete er jeden Tag um Mitternacht für zwei Stunden als Zeitungsbote und trug für 48 Dollar die Woche das Wall Street Journal aus. Nachdem man alle Szenen im Kasten hatte, musste noch der Ton kreiert werden. Das AFI setzte Lynch und Splet eine nicht einhaltbare Deadline und dann beide sprichwörtlich vor die Tür. Sie richteten sich daraufhin ein Tonstudio in einer Garage ein, wo von Sommer 1975 bis Frühling 1976 am Ton und Soundtrack zu Eraserhead gearbeitet wurde. Endgültig fertiggestellt wurde der Film nach vierjähriger Arbeit dann im Sommer 1976. Motiviert durch seine neue Frau Mary Fisk, reichte Lynch seinen Film bei dem Los Angeles Film Festival Filmex ein. Dort wurde Eraserhead am 19. März 1977 in einer 108-minütigen Fassung uraufgeführt, die Lynch im Nachhinein auf 89 Minuten kürzte. Grund dafür war die Reaktion im Vorführsaal, die ihm deutlich gemacht hatte, dass das letzte Drittel des Films zu langwierig und langsam war. Ben Bahrenholz, unabhängiger Filmverleiher aus New York, der mit sogenannten Mitternachtsvorstellungen in Off-Kinos bekannt geworden ist, wurde auf Lynchs Film aufmerksam und nahm ihn alsbald in sein Programm auf. Noch im selben Jahr im Herbst wurde der Film im Cinema Village in New York City aufgeführt. Nach einem beschwerlichen Start wurde Eraserhead zu einem Mitternachts-Underground-Geheimtipp und lief bis 1982 in 17 US-amerikanischen Städten mit einer Anzahl von 32 Kopien. Die Rezensionen fielen überwiegend positiv aus und sahen in Eraserhead einen „künstlerisch ambitionierte[n] Film“ der in der Tradition des europäischen Autorenkinos stehe und dem Surrealismus und Expressionismus nahe komme. Der Film bedeutete Lynchs künstlerischen Durchbruch und gilt heute als Kultfilm. Durchbruch und Erfolg (1980–1991) Nach Eraserhead arbeitete Lynch an einem Drehbuch mit dem Titel Ronnie Rocket, indem es um einen Zwerg, Elektrizität und Industrie gehen sollte. Doch die Filmstudios zeigten kein Interesse. Jack Fisk, der mittlerweile mit Sissy Spacek verheiratet war, veranlasste, dass er eine Nebenrolle in dem Film Heart Beat (1980) von John Byrum bekam. Im Schneideraum wurde Lynchs Rolle jedoch komplett aus dem endgültigen Film entfernt. Während der Dreharbeiten machte er die Bekanntschaft mit Patricia Norris, die später seine Kostümbildnerin wurde. Zur selben Zeit suchte Stuart Cornfeld geeignete Projekte für Brooksfilms, Mel Brooks neugegründete Produktionsfirma. Cornfeld hatte Eraserhead gesehen und er war begeistert. Er nahm deshalb Kontakt zu Lynch auf. Als Cornfeld auf das Drehbuch The Elephant Man von Christopher De Vore und Eric Bergren stieß, schlug er Lynch vor, die Geschichte zu verfilmen. Dieser zeigte sich angetan und akzeptierte: „Dieser Stoff schien mir nicht nur als zweiter Film nach Eraserhead ideal zu sein, sondern auch als Gelegenheit, im Mainstream Fuß zu fassen, ohne sofort größere Kompromisse machen zu müssen“. Mel Brooks, dem der Name David Lynch kein Begriff war, schaute sich dessen Erstlingswerk an und war positiv überrascht. Er gab dem Projekt grünes Licht. Mitproduziert wurde der Film von NBC, EMI und Paramount Pictures. Von 1979 bis 1980 fanden die Dreharbeiten in den Lee-International-Studios in Wembley, London mit einem Budget von 5 Millionen US-Dollar statt. Gefilmt wurde in Schwarzweiß und CinemaScope. Der Elefantenmensch (1980) basiert auf der realen Geschichte von Joseph Merrick, der von Geburt an unter schweren Deformationen seines Körpers litt, die seine Gestalt und sein Gesicht völlig entstellten. Der Film feierte am 3. Oktober 1980 in New York City seine Weltpremiere. Ab dem 10. Oktober 1980 war er in den Vereinigten Staaten für die Öffentlichkeit zugänglich. In Europa startete der Film erst im folgenden Jahr. In den USA konnte man mit 26 Millionen US-Dollar mehr als das Fünffache der Produktionskosten wieder einspielen, in Großbritannien waren es 3,75 Millionen Pfund. 1981 wurde Der Elefantenmensch für acht Oscars nominiert. Lynch galt folglich als eines der „vielversprechendsten neuen Talente des Hollywood-Establishments“. In der Folge bot sich Francis Ford Coppola an, Lynchs Drehbuch Ronnie Rocket zu produzieren. Doch Coppolas Zoetrope-Studios machten Konkurs und das Projekt kam nicht zustande. Es folgten zwei andere Angebote: George Lucas wollte Lynch für Die Rückkehr der Jedi-Ritter gewinnen und Dino De Laurentiis kontaktierte ihn für eine Adaption des Science-Fiction Romans Dune von Frank Herbert. Alejandro Jodorowsky und Ridley Scott hatten sich bereits an der Literaturverfilmung versucht, waren aber an der Finanzierung gescheitert. Scott gab Dune deshalb für Blade Runner auf. Lynch hatte nach dem erneuten Nicht-Zustandekommen von Ronnie Rocket mit der Idee gespielt, den Thomas Harris Roman Roter Drache mit Richard Roth zu verfilmen. Nach De Laurentiis Vorschlag, bei einer Dune-Adaption Regie zu führen, entschied er sich jedoch dafür. Lynch verfasste zusammen mit Christopher De Vore und Eric Bergren das Dune-Drehbuch. Bei der dritten Fassung stiegen letztere auf Druck von De Laurentiis aus. Lynch schrieb alleine weiter, Drehbuchversion Nummer 7 wurde schließlich akzeptiert. Parallel dazu schlossen De Laurentiis und Lynch einen Vertrag über vier weitere Filme: Blue Velvet, Ronnie Rocket, Dune II und Dune III. Die Dreharbeiten begannen am 30. März 1983 und endeten Anfang Januar 1984. Für Lynch wurde Der Wüstenplanet der erste Spielfilm in Farbe. Die Kosten für den Science-Fiction-Film beliefen sich auf 52 Millionen US-Dollar – der bis heute teuerste Lynch-Film. Lynchs Fassung dauerte über dreieinhalb Stunden, die Produzenten forderten ihn auf, den Film auf etwa zwei Stunden zusammen zu schneiden: „Ich hatte ‚Dune‘ nicht im Griff. Ich machte den Film für die Produzenten, nicht für mich selbst. Deshalb ist das Recht auf den Final Cut so wichtig. Nur eine Person kann der Filter für das Ganze sein.“ Die Rezeption der Literaturverfilmung bestand überwiegend aus Verrissen: „die Kritiker reagierten höhnisch bis bösartig […], Lynch habe Frank Herberts Wüsten-Epos in den Sand gesetzt“. Seinen Ruf als Ausnahmeregisseur hatte Lynch so gut wie verloren. Nach dem Misserfolg von Dune stand die für Januar 1985 geplante Vorproduktion von Blue Velvet in der Schwebe. Raffaela De Laurentiis, die Tochter von Dino De Laurentiis, wünschte sich zur selben Zeit eine Adaption des Romans Tai Pan von James Clavell. Lynch zeigte sich interessiert, die Regie wurde dann aber Daryl Duke zugewiesen. Dino De Laurentiis ermöglichte ihm schließlich doch die Realisierung von Blue Velvet, nicht zuletzt, weil er in dem Drehbuch, das Lynch bereits drei Jahre zuvor geschrieben hatte, die Gelegenheit witterte, an dem Publikumserfolg von ebenso existentiell tiefsinnigen Filmen wie The Outsider (1983) oder Rumble Fish (1983) von Francis Ford Coppola anzuknüpfen. Er schlug Lynch vor, dessen Gehalt und Budget zu kürzen. Im Gegenzug überließe er ihm die künstlerische Kontrolle. Lynch akzeptierte und bekam so die ihm wichtige künstlerische Freiheit, das Recht auf den Endschnitt und die Zusage, dass sich die Produzenten nicht mehr einmischen würden. Die Dreharbeiten begannen schließlich am 10. Februar 1986 und dauerten bis zum 22. April 1986. Gedreht wurde in dem Studiokomplex von Dino de Laurentiis Produktionsfirma in Wilmington, North Carolina. Die Produktionskosten beliefen sich auf fünf Millionen US-Dollar. Lynch arbeitete hier zum ersten Mal mit dem Komponisten Angelo Badalamenti zusammen, der seitdem zu allen Lynch-Filmen die Musik geschrieben hat. Blue Velvet stieß nach seiner Veröffentlichung auf positive Resonanz, löste aber auch Kontroversen und Diskussionen über die Darstellung der Frau im Film aus. Die Zuschauermassen blieben trotz wohlwollender Kritiken aus, was Lynchs Werk aber nicht daran hinderte, zu einem Kultfilm zu avancieren. Mit Blue Velvet hatte Lynch seinen Ruf als Regiekünstler wiederherstellen können. Dino De Laurentiis zeigte sich bereit, Ronnie Rocket zu produzieren. Es sollten sieben Millionen US-Dollar Budget zur Verfügung stehen und der Drehbeginn war für den Herbst 1987 angesetzt. Doch Ende des Jahres 1987 bedrohte ein Konkurs die De Laurentiis Entertainment Group und alle vertraglich an die Produktionsgesellschaft gebundenen Lynch-Projekte wurden stillgelegt. Dieser herbe Rückschlag trieb Lynch in andere Gewässer. Neben seinen Arbeiten am Film hatte er viel gemalt und gezeichnet. Bei den Dreharbeiten zu Blue Velvet hatte er Isabella Rossellini kennengelernt, mit der er bis 1990 zusammen blieb. Sie mochte seine Bilder und gab den Anstoß für einige Ausstellungen zu Lynchs Werken: Zwischen 1987 und 1989 wurden dessen Gemälde in den Roger La Pelle Galleries in Philadelphia, in der James Corcoran Gallery in Los Angeles und in der Leo Castelli Gallery in New York zur Schau gestellt. Außerdem gestaltete Lynch 1987 die Statuette für den Rossellini Award und gab seit 1983 jede Woche einmal den Comic-Strip The Angriest Dog in the World im Los Angeles Reader und anderen Zeitungen heraus. Darüber hinaus übernahm Lynch eine Nebenrolle in Zelly and Me (1988) von Tina Rathborne. Rossellini spielte die Hauptrolle und er verkörperte ihren Liebhaber im Film. Im selben Jahr wurde Lynch von einem Filmproduzenten aus Frankreich gefragt, ob er nicht Lust habe, zum 10-jährigen Jubiläum des Le Figaro Magazine einen Kurzfilm zu dem Thema „Frankreich aus der Sicht von …“ zu drehen. So entstand 1988 der 23 Minuten lange The Cowboy and the Frenchman. David Lynch traf 1986 den Drehbuchautor Mark Frost auf Initiative von Tony Krantz, der beide Autoren mit seiner Creative Artists Agency (CAA) vertrat. Sie verstanden sich gut miteinander und erste gemeinsame Projekte entstanden: Drehbücher wie The Goddess (1987) oder One Saliva Bubble (1987) fanden jedoch keinen Abnehmer. Krantz schlug beiden daraufhin vor, sich gemeinsam an einer Fernsehserie zu versuchen. Er sah darin die Chance, Frosts Erfahrung von Polizeirevier Hill Street mit Lynchs visionärem Querdenken zu verbinden. Nach anfänglicher Skepsis setzten sich beide zusammen und entwickelten ein Drehbuch mit dem Titel The Lemurians für den Pilotfilm einer Serie um ein paar Detektive, die gegen Außerirdische kämpfen müssen, die sich unter die Erdbevölkerung geschlichen haben. Der Sender NBC, Frosts Arbeitgeber, lehnte das Skript ab. Daraufhin machten sich beide an die Arbeit, ein neues Drehbuch zu verfassen: Northwest Passage. Dem Projekt lag die Idee zugrunde, in einer Soap Opera einen Mord passieren zu lassen, auf den anschließend der gesamte Inhalt aufbaut. Handlungsort sollte eine Kleinstadt im Norden der USA sein. Um sich besser zurechtzufinden, entwarf Frost eine Karte der Stadt und ihrer Umgebung. Dabei lag die Stadt zwischen zwei Bergen und die Autoren benannten ihr Projekt in Twin Peaks um. Nach drei Monaten fruchtbarer Diskussion schrieben Lynch und Frost das Drehbuch für den Pilotfilm innerhalb von 10 Tagen. Der Fernsehsender ABC zeigte sich bereit, den Pilotfilm zu finanzieren, und ließ dabei den Schöpfern den nötigen Freiraum. Für dreieinhalb Millionen US-Dollar entstand der Pilotfilm, der im Mai 1989 auf einer Vorführung für internationale Programmeinkäufer großen Erfolg hatte: Twin Peaks wurde später in 55 Länder verkauft. ABC gab eine provisorische Reihe von sieben Folgen in Auftrag. Im September 1989 wurde der Pilotfilm auf dem Filmfestival in Telluride in Colorado offiziell uraufgeführt. Die Kritiken fielen positiv bis lobend aus, trotzdem befürchtete der Sender, eine Serie für bloße Filmliebhaber produziert zu haben. Als am 8. April 1990 der Film schließlich im US-amerikanischen Fernsehen ausgestrahlt wurde, wurde klar, dass man einen Hit gelandet hatte: 35 Millionen Zuschauer verfolgten den Pilotfilm, was einem Anteil von 33 Prozent entsprach. Nach diesem anfänglichen Hoch wurden Mark Frost und David Lynch vom Sender ABC im Mai 1990 mit der Produktion einer weiteren Staffel bestehend aus einem zweiten Pilotfilm und zwölf Folgen beauftragt. Doch nach der Enthüllung des Mörders in Episode 16 sanken die Zuschauerzahlen drastisch und die Serie wurde nach Ende der zweiten Staffel 1991 eingestellt. Am 6. Oktober 2014 kündigten der Sender Showtime, Mark Frost und David Lynch per YouTube-Video an, dass es Anfang 2016 eine Fortsetzung der Serie geben werde. Die dritte Staffel sollte zunächst aus neun Episoden bestehen, bei denen allesamt Lynch die Regie übernimmt. Im April 2015 gab Lynch jedoch bekannt, dass er am Reboot der Serie nicht mitwirken werde. Nach einer Verdoppelung der Episodenzahl auf 18 Folgen begann die Ausstrahlung der Staffel schließlich am 22. Mai 2017 mit einer Doppelfolge. Nach dem vorläufigen Ende von Twin Peaks blieb Lynch jedoch beim Fernsehen und entwickelte zwei weitere Serien: On the Air – Voll auf Sendung (1992) zusammen mit Mark Frost und Hotel Room (1993) gemeinsam mit dem Schriftsteller Barry Gifford. Erstere war eine Slapstick-Komödie in Form von 7 Episoden. Das Drehbuch zur ersten Folge hatten Lynch und Frost schon Ende 1990 geschrieben. Beide verfassten mit Robert Engels abwechselnd die restlichen Skripte. Am 20. Juni 1992 konnte die erste Folge im US-amerikanischen Fernsehen auf ABC ausgestrahlt werden. Regie führte David Lynch selbst. Schlechte Einschaltquoten und Kritiken zwangen ABC dazu, die Serie bereits nach der dritten Episode abzusetzen. Frost gab die Schuld hierfür der undurchdachten Sendezeit und dem „mangelnden Sinn des amerikanischen Publikums für bizarren Humor“. Hotel Room besteht aus drei Folgen: Tricks, Getting Rid of Robert und Blackout. Sie spielen jeweils in ein und demselben Hotelzimmer, aber zu jeweils verschiedenen Zeiten. Lynch produzierte die Mini-Serie mit seiner eigens gegründeten Produktionsfirma Asymmetrical Pictures und führte bei Folge 1 und 3 Regie. Die Drehbücher dazu stammten jeweils von Barry Gifford. Der Kabelsender HBO strahlte die drei Geschichten am 8. Januar 1993 aus. Parallel zu Twin Peaks hatte Lynch bereits 1989 mit Barry Gifford zusammengearbeitet: Er hatte dessen Roman Wild at Heart mit Nicolas Cage und Laura Dern in den Hauptrollen verfilmt. Das Roadmovie Wild at Heart – Die Geschichte von Sailor und Lula wurde im Mai 1990 auf den internationalen Filmfestspielen unter der Leitung von Bernardo Bertolucci mit der Goldenen Palme ausgezeichnet. Die Kritiker waren zutiefst gespalten. 1989 wirkten Cage und Dern auch bei der musikalischen Live-Performance Industrial Symphony No. 1: Dream of the Broken Heart von David Lynch und Angelo Badalamenti mit. Aufgeführt wurde sie am 10. November an der Brooklyn Academy of Music anlässlich des New Music America-Festivals. Rückschlag und Krise (1992–1995) In der amerikanischen Fachpresse konnte man Ende Mai 1991 kurz vor der Ausstrahlung der letzten Folge von Twin Peaks lesen, dass der Koproduzent Aaron Spelling zusammen mit David Lynch einen Kinofilm plane. Die Idee kam ihnen, als ABC ankündigt hatte, die Serie nach Folge 30 abzusetzen. Lynch hatte zwischenzeitlich mit der Filmproduktionsgesellschaft Ciby2000 des Franzosen Francis Bouygues einen Vertrag über drei Filme mit einem Gesamtbudget von 58 Millionen US-Dollar unterschrieben. Die erste gemeinsame Arbeit sollte Ronnie Rocket werden. Das Projekt musste aber stetig verschoben werden, so dass der Twin Peaks-Kinofilm den Vorzug bekam. Lynch und sein Koautor Robert Engels, der schon einige Folgen von Twin Peaks geschrieben hatte, entschieden sich dafür, ein Prequel zur Serie zu verfassen. Der Kinofilm sollte sich mit den letzten Tagen im Leben der siebzehnjährigen Laura Palmer befassen. Zwischenzeitlich herrschte ein Streit zwischen Ciby2000 und Aaron Spelling um die Vertriebsrechte des zukünftigen Films, was dessen Realisierung blockierte. Außerdem hatte sich Lynch während der zweiten Staffel von Twin Peaks mit Koproduzent und -autor Mark Frost überworfen, der nun lieber seinen eigenen Film Storyville drehte. Als dann endlich der Konflikt zwischen Ciby2000 und Spelling beigelegt wurde, stand einem Drehbeginn nichts mehr im Weg. Die Dreharbeiten mit einem Budget von rund 10 Millionen US-Dollar begannen am 5. September 1991 in der Nähe von Seattle im Bundesstaat Washington. Am 1. November 1991 fiel schließlich die letzte Klappe. Nach der Uraufführung auf den Filmfestspielen von Cannes 1992 am 16. Mai wurde Twin Peaks – Fire Walk With Me vom Publikum ausgebuht und stieß bei den anwesenden Kritikern auf eine Mauer der Ablehnung: Für die Kenner der Fernsehserie hob sich der Film zu sehr von deren Inhalt und Form ab, für die Unvorbelasteten war er eine einzige Überforderung. Auch finanziell wurde der Film zu einem Misserfolg. Lynch zu der Pressekonferenz in Cannes: „Ich musste erkennen, dass ich Twin Peaks mit diesem Film endgültig den Todesstoß versetzt hatte. Es herrschte eine ausgesprochen feindselige Atmosphäre. Wenn man einen Raum betritt, in dem eine wütende Menge wartet, spürt man das, ohne dass jemand den Mund aufzumachen braucht.“ Die negative, teilweise feindselige Rezeption und der finanzielle Flop von Twin Peaks – Fire Walk With Me führten dazu, dass Lynch nun als „Risikofaktor“ in der Filmbranche galt: Großprojekte traute man ihm nicht mehr zu. Lynch trieb es daraufhin in eine Schaffenskrise, vor allem was filmische Projekte anbelangte. Neben seiner Arbeit als Maler drehte er aus finanziellen Gründen notgedrungen zahlreiche Werbespots. 1992 drehte er einen für Giò von Armani, 1993 vier Spots für Georgia Coffee, zwei für Alka-Seltzer Plus und jeweils einen für Barilla Nudeln, Adidas und Jil Sander. 1994 entstand ein weiterer Werbespot für Karl Lagerfeld. 1990 waren bereits Werbefilme für die Parfüme Obsession von Calvin Klein und Opium von Yves Saint Laurent produziert worden. Des Weiteren drehte Lynch 1993 einen Film für die American Cancer Society zur Vorbeugung gegen Brustkrebs. 1993 produzierte Lynch zusammen mit Angelo Badalamenti das Album The Voice of Love von Julee Cruise. Bereits vier Jahre zuvor war das Album Floating Into the Night von Julee Cruise mit Texten von Lynch veröffentlicht worden. Letzterer fungierte gemeinsam mit seiner Frau Mary Sweeney des Weiteren als Produzent bei dem Vampirfilm Nadja (1994) von Michael Almereyda. 1995 wirkte Lynch bei dem internationalen Filmprojekt Lumière et compagnie mit. Anlässlich des 100-jährigen Jubiläums der Erfindung des Cinématographen durch die Brüder Lumière drehten 41 Regisseure Kurzfilme, die sie mit der originalen Kamera aus dem 19. Jahrhundert umsetzten. Die Idee für diese Hommage stammte von Philippe Poulet, einem Forscher im Kinomuseum von Lyon. Die Filme durften nicht länger als 52 Sekunden sein. Zudem mussten sie ohne Schnitte, ohne künstliches Licht und ohne nachsynchronisierten Ton realisiert werden. Lynchs Beitrag trägt den Titel Premonitions Following An Evil Dead. Zwischen 1994 und 1995 suchte Lynch ohne Erfolg nach Geldgebern für sein Projekt Dream of the Bovine, einer Komödie, die er zusammen mit Robert Engels geschrieben hatte. Rückkehr ins Kino (1996–2001) Lynchs weiter oben angesprochener Filmvertrag mit der französischen Produktionsfirma Ciby2000 galt weiterhin. Nach dem Tod des Vorsitzenden Francis Bouygues wurde es für ihn jedoch schwieriger, Projekte finanziert zu bekommen. Dream of the Bovine hatte auch bei Ciby2000 keine Chance. Bei seiner Lektüre des Romans Night People von Barry Gifford erweckte die vom Autor verwendete Wortkombination „lost highway“ Lynchs Interesse: „Ich erwähnte Barry gegenüber, daß ‚Lost Highway‘ ein toller Titel wäre und wir was schreiben sollten. Das war etwa ein Jahr, bevor wir tatsächlich mit dem Drehbuch begannen. Dieser Ausdruck war der zündende Funke.“ Im März 1995 war das Drehbuch fertig, Ciby2000 akzeptierte es, sodass die Dreharbeiten im Herbst 1995 beginnen konnten. Das Produktionsbudget betrug dabei 15 Millionen US-Dollar. Premiere feierte der Film im Januar 1997 in Paris und stieß dabei auf überwiegend positive Kritikerstimmen. Olga Neuwirth und Literaturnobelpreisträgerin Elfriede Jelinek bereiteten später Lost Highway als Oper auf. Die Uraufführung fand am 31. Oktober 2003 in Graz statt. Zwei Jahre später erzählte Lynch in Eine wahre Geschichte – The Straight Story (1999), linear und filmisch eher einfach dargestellt, die Geschichte eines alten Mannes, der mit seinem Aufsitz-Rasenmäher die USA durchquert, um seinen kranken Bruder wiederzufinden. Das Drehbuch stammte erstmals nicht von ihm, sondern von seiner damaligen Lebensgefährtin Mary Sweeney. Produziert wurden die Dreharbeiten von der The Picture Factory. Lynch hatte diese Produktionsfirma 1997 zusammen mit Sweeney und Neal Edelstein gegründet. Der Film lief auf den Internationalen Filmfestspielen von Cannes 1999 und wurde von der Kritik überwiegend positiv aufgenommen. Diese zeigte sich über den Kurswechsel des Regisseurs irritiert, denn es war der erste Film, der keine Gewaltszenen oder Szenen enthielt, die das Publikum vor unlösbare Rätsel stellten. Das ist auch der Grund, weshalb einige Besprechungen das Werk als Lynchs erste „erwachsene“ Arbeit bezeichneten. Anfang 1999 begann Lynch mit den Arbeiten an einer neuen Fernsehserie mit dem Titel Mulholland Drive für ABC. Das Projekt wurde zunächst ad acta gelegt, aber mit Hilfe von Freunden und des französischen Senders Canal+ um acht neue Szenen erweitert und zu einem Kinofilm ausgebaut: Mulholland Drive – Straße der Finsternis. Für die Leistung, aus der „Ruine der TV-Serie einen Kinofilm gebaut zu haben“ (Zitat der Jury), wurde er 2001 bei den Filmfestspielen von Cannes mit dem Regiepreis ausgezeichnet. 1998 war zudem das Album Lux Vivens (Living Light) erschienen, an dem er zusammen mit der Sängerin Jocelyn Montgomery gearbeitet hatte und welches auf Liedern der Heiligen Hildegard von Bingen basiert. Zusammen mit John Neff brachte er 2001 außerdem das Album Blue Bob heraus. Dabei handelt es sich um experimentellen Rock. Aufgenommen wurde es von April 1998 bis März 2000 in dem Asymmetrical Studio in Kalifornien. Internetarbeit, Experimentalfilm und Musik (2002–2013) Ende 2001 hatte Lynch seine eigene Website davidlynch.com ins Leben gerufen. Fortan veröffentlichte er mehrere Arbeiten über das Internet. So entstanden 2002 die animierte Online-Kurzserie DumbLand und acht Kurzfilme im Stil einer surrealistischen Sitcom mit dem Titel Rabbits. Teile dieser Serie finden sich in dem Film Inland Empire (2006) wieder. Im selben Jahr wurde Lynch zum Präsidenten der 55. Internationalen Filmfestspiele von Cannes berufen. 2005 gründete Lynch die David Lynch Foundation for Consciousness Based Education and World Peace, die sich für die Nutzung der Transzendentalen Meditation einsetzt. Lynch praktiziert diese von Maharishi Mahesh Yogi begründete Meditationstechnik seit 1973 und nahm im Sommer 2002 an einem einmonatigen Erleuchtungskurs bei Maharishi im niederländischen Vlodrop teil. 2007 ging Lynch auf Welttournee und warb, zum Teil zusammen mit dem schottischen Folksänger Donovan, für den Bau von „Unbesiegbarkeits-Universitäten“. Diese von Maharishi angeregten Einrichtungen sollen neben herkömmlichen Studiengängen das Studium des Bewusstseins mit Hilfe Transzendentaler Meditation als Basis-Disziplin anbieten. Am 25. März 2009 ging David Lynch Foundation Television mit einer Beta-Version online, ein Internet-gestützter Fernsehkanal, der „Bewusstsein, Kreativität und Glück“ feiern will. Neben Video-Beiträgen der David Lynch Foundation will der Sender Dokumentationen und Exklusivbeiträge von Lynch online stellen. Offizieller Start war der 4. April 2009. Lynchs letzter Kinofilm Inland Empire hatte Anfang September 2006 in Venedig Premiere. Bei diesen Filmfestspielen wurde Lynch zudem der Goldene Löwe für sein Lebenswerk verliehen. Inland Empire wurde komplett mit einer digitalen Handkamera gedreht und zum Teil improvisierend ohne Drehbuch gefilmt. Einige Szenen waren in Polen entstanden. Bei dieser Gelegenheit machte Lynch eine Fotoserie alter Industriegebiete. Die Fondation Cartier pour l'Art Contemporain zeigte von März bis Mai 2007 in Paris die bis dato größte Ausstellung von Lynchs Werken. Insgesamt waren 800 Arbeiten zu sehen, überwiegend Gemälde, Zeichnungen, Fotografien, Grafiken, Collagen, Installationen und Kurzfilme. Lynch realisierte im Jahr der Ausstellung eine Fotoserie französischer Schauspielerinnen für die Zeitschrift Elle und wurde von dem damaligen Präsident Nicolas Sarkozy zum Offizier der Ehrenlegion ernannt. Vom 27. September bis zum 23. November 2008 fand im Epson Kunstbetrieb unter dem Titel New Photographs in Düsseldorf und damit zum ersten Mal in Deutschland eine Ausstellung von Fotografien von David Lynch statt. Eine weitere Werksausstellung konnte vom November 2009 bis zum März 2010 in dem Max-Ernst-Museum Brühl besucht werden. Sie umfasste 150 Exponate und lief unter dem Titel Dark Splendor. Schließlich zeigte das Goslarer Mönchehaus-Museum für moderne Kunst von Oktober 2010 bis Januar 2011 90 verschiedene Gemälde, Lithografien und Fotografien. Parallel dazu wurde Lynch der Kaiserring der Stadt Goslar verliehen. Im April 2009 veröffentlichte der US-amerikanische Musiker Moby seine Single Shot in the Back of the Head; das dazugehörige Musikvideo stammte von David Lynch. Im Juni desselben Jahres erschien das Album Dark Night of the Soul von DJ Danger Mouse und Sparklehorse. Das Album enthält ein Booklet mit visuellen Inhalten von David Lynch. Außerdem hat Lynch zu zwei der auf dem Album enthaltenen Lieder den Text geschrieben und diese gesungen. Im selben Jahr war auf Lynchs Website die Dokumentarserie Interview Project zu sehen, die er zusammen mit seinem Sohn Austin produziert hatte. Letzterer war durch die USA gereist und hatte dabei alle möglichen Menschen interviewt. Es existieren insgesamt 121 Interviews, von denen Lynch alle drei Tage eines veröffentlichte. Dieses Konzept wurde dann nochmals im Interview Project Germany aufgegriffen. 2009 produzierte er außerdem Werner Herzogs Film Ein fürsorglicher Sohn und 2010 entstand ein 16-minütiger Online-Werbefilm für Dior: Lady Blue Shanghai mit Marion Cotillard. Darüber hinaus gestaltete Lynch 2011 den privaten Nachtclub Silencio im zweiten Pariser Arrondissement. Er ist auch dessen Inhaber. Von Oktober 2011 bis März 2012 stellte Lynch die Ideen des Mathematikers Misha Gromov im Rahmen der Ausstellung Mathématiques, un dépaysement soudain in der Fondation Cartier künstlerisch dar. Nachdem Lynch sich bereits für eigene Film-Soundtracks und das Album Dark Night of the Soul musikalisch betätigt hatte, erschien im Januar 2011 seine erste Solo-Single mit dem Titel Good Day Today/I Know. Das dazugehörige Album trägt den Titel Crazy Clown Time und wurde in Deutschland am 4. November 2011 veröffentlicht. Das Album entstand in Zusammenarbeit mit dem Tontechniker Dean Hurley. Es enthält auch einen Gastauftritt von Karen O von den Yeah Yeah Yeahs. Im Februar 2013 stellte Lynch den von ihm gedrehten Dokumentarfilm Idem Paris über den Prozess der Lithografie ins Internet. Am 15. Juli 2013 erschien schließlich Lynchs zweites Solo-Album The Big Dream bei dem Musiklabel Sunday Best. Werk Überblick Lynchs Werk ist ungewöhnlich breit und umfasst ebenso gut wie den Film die Malerei, die Musik, die Fotografie, die Lithografie sowie die Gestaltung von Räumen, Möbeln oder auch Champagnerflaschen. Dabei vermag es Lynch in jedem künstlerischen Bereich seine persönliche Vision umzusetzen, eine rätselhafte, suggestive Atmosphäre: „Als Regisseur hält er damit die Interpreten bis heute in Atem. Als Musiker übersetzt er seine Bilderwelten geschickt ins akustische Medium. Als Designer schließlich lädt er […] dazu ein, zu Akteuren in einer lynchschen Originalkulisse zu werden.“ Der Kunsthistoriker Thomas W. Gaehtgens sieht ebenfalls eine Kontinuität und Gemeinsamkeit in Lynchs filmischen, malerischen und musikalischen Werk: „Alle diese Tätigkeiten sind Lynch gleich wichtig und in gewisser Weise kongruent. Sie alle beruhen auf dem von ihm verfolgten Thema, den menschlichen Verhaltensweisen als Spiegelung seelischer Vorgänge nachzuspüren.“ Im Folgenden wird Lynchs Werk in Bezug auf dessen Form und Inhalt betrachtet, der Schwerpunkt liegt dabei auf seiner filmischen Arbeit. Der Filmwissenschaftler Georg Seeßlen definiert Lynchs eigen erschaffene Filmwelt als „Lynchville“, in der Popkultur wird Lynchs Filmsprache auch als „lynchean“ oder „lynchesk“ umschrieben. Einflüsse David Lynchs Werk ist vor allem durch Maler beeinflusst worden. Er selbst nennt Edward Hopper, Francis Bacon und Henri Rousseau als die wichtigsten Vorbilder. Hopper hat ihn durch sein Thema der Einsamkeit geprägt, Bacon durch seine Bilder, die Deformationen des Fleisches zeigen, und Henri Rousseau durch sein Motiv des Geheimnisses. Des Weiteren nennt Lynch Ed Kienholz, Lucian Freud und David Hockney als verehrte und inspirierende Künstler. Aus der Filmgeschichte haben ihn vor allem Jacques Tati und Federico Fellini beeinflusst. Lynch erwähnt darüber hinaus Ingmar Bergman, Werner Herzog, Stanley Kubrick, Alfred Hitchcock und Billy Wilder als Vorbilder. Zu seinen Lieblingsfilmen zählen Der Zauberer von Oz (1939), Sunset Boulevard (1950) und Lolita (1962). Des Weiteren hat die Lektüre von Franz Kafka Lynch tief geprägt. Lange Zeit wollte er auch dessen Novelle Die Verwandlung (1915) verfilmen. „Der eine Künstler, bei dem ich wirklich das Gefühl habe, er könnte mein Bruder sein […] ist Franz Kafka. Auf den stehe ich wirklich sehr. Einige Sachen zählen zum absolut Aufregendsten, was ich überhaupt gelesen habe“, so Lynch. Lynchs Filmkunst Die surrealistischen Filme werden durch thematische und motivische Stilmittel zu einem großen Ganzen zusammengebunden, wobei er sich sehr stark am Film noir orientiert. Thematisch greift Lynch auf die Gegebenheiten seiner Kindheit in den fünfziger Jahren und die großen Erfahrungen in der Mitte der US-amerikanischen Gesellschaft zurück. Wiederkehrende Themen sind der Mittelstand, die Geborgenheit der Kleinstadt, die Musik, die Familie, Liebe und Romantik – und deren dunkle Kehrseite: unterdrückte Gewalt und Libido, das Unbewusste, das Irrationale, das Verschwiegene. Das Werk formt aus Banalem den Horror, es lässt Gewalt in Komik umschlagen, macht aus Mystischem Alltägliches, es ergänzt Pathos mit überlangen Ausführungen, mischt Improvisiertes mit Zufälligem. Das Paradoxe und die absolute Metapher sind in Lynchs Werk charakteristisch. Kritiker Andreas Kilb sprach 1997 in der Zeit auch von dem „ewige[n] Drama des ‚nicht zu Ende geborenen Mannes‘ (Georg Seeßlen)“ und von einem Glauben an die Beseeltheit von Objekten im Gegensatz zur „Maskenhaftigkeit“ menschlicher Gesichter. Dabei sei er als (amerikanischer) Autorenfilmer doch immer vergleichsweise marktgängig geblieben. In seinem späteren Werk gewinnen zum einen die Frauen, zum anderen die Bezugnahme auf Hollywood an Gewicht. Auf der Motivebene tauchen greifbar auf (mustergültig in Lost Highway): das Feuer, Hütte, Heim oder Flure, die Straße als Weg des Schicksals, die Farbe Rot oder das Schwarz, die verborgene Kammer, seltsame Mittler aus einer anderen Welt, entstellte Gestalten und organischer Verfall, der Sternenhimmel, Doppelgänger, Elektrizität und vieles mehr. Daher besteht eine von verschiedenen möglichen Vorgehensweisen in der Interpretation darin, Motive eines einzelnen Films im Zusammenspiel mit den anderen Filmen zu untersuchen, als Teil einer übergeordneten Struktur. Nach logischen Erklärungen und rationalen Auflösungen einer Narration zu suchen, hat sich für viele Rezipienten als weniger fruchtbar erwiesen. Mittlerweile ist man in der Lynch-Rezeption so weit, dass man die Filme vorwiegend auf ihre intensive Atmosphäre hin untersucht und akzeptiert, dass sich Lynch wenig bis gar nicht für rationale, übergeordnete Strukturen oder übliche Formen des filmischen Erzählens interessiert. Zumindest formuliert Lynch es selber so. Wenn man sich mit weniger bekannten und seltener genutzten Dramaturgien resp. Erzählstrukturen beschäftigt, wird klar, dass es sich bei Lynchs Filmen um Filme der „offenen Form“ handelt und er sowohl das Modell der „seltsamen Schleife“ – auch als Möbiusband bekannt – verwendet und sich der Mittel der Postmoderne und vor allem der Dekonstruktion bedient. Lynch selbst verweist immer darauf, dass er auf die Intuition und das Traumhafte zurückgreife, er vergleicht den Prozess des Filmemachens mit dem des Malens, womit er den Blick von der Konstruktion auf den Eindruck der Intuition lenkt. Der Soundtrack ist ein bewusst gewählter Rückgriff auf die Popkultur, in der sich der Sound der Nachkriegsjahre mit den Songs der Gegenwart abwechselt. Rezeption Öffentliche Resonanz und Kritik Die Rezeption der Lynchschen Kunst beschränkt sich meistens auf die Filme, die seinen Ruf als Kultfigur durch internationale Aufführungen und Besprechungen gefestigt haben. Oft wird dabei der „Universalkünstler“ David Lynch vergessen, der auch Gemälde, Zeichnungen, Musik und Möbel produziert. Erst seit der Jahrtausendwende werden auch Lynchs andere Arbeiten verstärkt rezipiert, was unter anderem an den vielen Ausstellungen liegt. Allgemein gibt es zwei Haltungen gegenüber Lynchs Werk: Entweder wird es als „merkwürdig, abwegig, unverständlich [und] provozierend“ abgelehnt oder als innovativ und künstlerisch gefeiert. Vor allem seine Filme werden wegen der exzessiven Darstellung von Gewalt und Sex kritisiert. Lynch dazu: „Das Leben ist nun mal sehr kontrastreich und voller Gewalt und man muss in der Lage sein dürfen, die Geschichten zu erzählen, die da sind. Wichtig ist, wie Gewalt verankert wird. Wenn sie im Kontext der Geschichte steht und nicht als Selbstzweck benutzt wird, dann finde ich es in Ordnung, aber man sollte sich seiner Verantwortung stets bewusst sein.“ Auch Seeßlen ist der Meinung, dass Lynch es schaffe, zu zeigen, wieso die Darstellung von Gewalt wichtig und notwendig sei. Für ihn sei sie „der Übergang vom Äußeren zum Inneren, das Eindringen in den Körper der Welt, die fundamentale Lebenserfahrung“. Einnahmen Abgesehen von Dune hat keine Produktion eines David Lynch-Films mehr als 15 Millionen US-Dollar gekostet. Als finanzielle Erfolge können Der Elefantenmensch, Blue Velvet, Wild at Heart und Mulholland Drive gesehen werden. Folgende Tabelle illustriert die Einspielergebnisse und – soweit dies möglich ist – auch die Besucherzahlen der verschiedenen Filme von David Lynch in der Bundesrepublik Deutschland. DVD- und Blu-ray-Disc-Verkäufe werden dabei nicht berücksichtigt. Auszeichnungen (Auswahl) David Lynch wurde insgesamt mit 42 Filmpreisen ausgezeichnet und für 38 weitere nominiert, unter anderem für vier Oscars. 1989 bekam er die Goldene Palme der internationalen Filmfestspiele von Cannes, bei denen er 2001 auch mit dem Regie-Preis ausgezeichnet wurde. Darüber hinaus wurde ihm auf den Filmfestspielen von Venedig 2006 ein Goldener Löwe für sein Lebenswerk verliehen. 2002 wurde er durch Kulturminister Jean-Jacques Aillagon zum Ritter und 2007 durch Nicolas Sarkozy zum Offizier der französischen Ehrenlegion ernannt. Den Kaiserring der Stadt Goslar bekam er 2010 überreicht. Auf der Cologne Conference wurde er im selben Jahr mit dem Filmpreis Köln ausgezeichnet. In der Liste der 40 besten zeitgenössischen Regisseure der britischen Zeitung The Guardian rangiert David Lynch auf Platz eins. Die folgende Liste gibt einen Überblick der wichtigsten Auszeichnungen und Nominierungen. Engagement für Transzendentale Meditation Lynch tritt öffentlich für die umstrittene Bewegung Transzendentale Meditation ein. Mit seiner Stiftung David Lynch Foundation for Consciousness Based Education and World Peace will er unter Schülern und Studenten die Techniken der „Transzendentalen Meditation“ und des „Yogischen Fliegens“ verbreiten. Er war dafür auch in Deutschland unterwegs, wo er 200 Berliner Jugendliche eingeladen hat, auf diese Weise Berlin „unbesiegbar“ zu machen. Laut Lynch sei es wissenschaftlich erwiesen, dass „durch eine solche Kohärenz erzeugende Gruppe von 200 Yogischen Fliegern die negativen Tendenzen in einer Stadt abnehmen und die positiven Tendenzen ansteigen“. Für sein Engagement in der Organisation des indischen Gurus Maharishi Mahesh Yogi wird Lynch häufig kritisiert. 2007 war Lynch in Berlin, um den Kauf des Plateaus auf dem Berliner Teufelsberg und die dortige Errichtung der TM-Universität „Unbesiegbares Deutschland“ auf einer Veranstaltung in der Berliner Urania zusammen mit Roja Emanuel Schiffgens und Gottfried Vollmer zu verkünden. Die Veranstaltung geriet zu einem Desaster. Im Berliner Tagesspiegel hieß es dazu: „Ab Februar 2008 wird Hollywood-Regisseur David Lynch Besitzer des Teufelsbergs sein. Dort will er die ‚Universität des unbesiegbaren Deutschland‘ errichten. Vor der Grundsteinlegung kam es in der Urania zum Eklat.“ Die Szenen aus der Urania sind auch in David Sievekings Dokumentation David wants to fly (2010) zu sehen, in der Lynch eine zentrale Rolle einnimmt. Sieveking ist langjähriger Fan seiner Filme. Nach einem Interview mit dem Regisseur über das von Lynch favorisierte Thema der Transzendentalen Meditation bekam Sieveking einen zunehmend zwielichtigen Eindruck von der Organisation und wich mehr und mehr von einer anfangs positiven Haltung gegenüber dem Künstler ab. Diese Abkehr wurde dadurch verstärkt, dass Lynch während eines weiteren Interviews jede kritische Frage verbot. Kritisiert werden bei dem Erlernen von TM vor allem die großen finanziellen Hürden. Der TM-Grundkurs kostet in Deutschland 1.190 Euro (Ermäßigung möglich). Filmografie Spielfilme Als Regisseur Als Darsteller Als Produzent Kurzfilme (Auswahl) Dokumentarfilme Fernsehserien Musikvideos Diskografie Alben 1998: Lux Vivens (gemeinsam mit Jocelyn Montgomery) 2001: BlueBob (gemeinsam mit John Neff) 2007: The Air is on Fire: Soundscape 2008: Polish Night Music (gemeinsam mit Mark Zebrowski) 2011: This Train (gemeinsam mit Chrysta Bell) 2011: Crazy Clown Time 2013: The Big Dream Einzelausstellungen Filme über David Lynch Literatur Bücher Primärliteratur (Mit Quellen, Anmerkungen und Register) David Lynch, Kristine McKenna: Room to Dream. Random House, New York 2018, ISBN 978-0-399-58919-5. (Amerikanische Originalausgabe) Sekundärliteratur Werner Spies: Werner Spies Presents Dark Splendor. David Lynch der Maler. Berlin University Press, Berlin 2013. Zeitschriften- und Zeitungsartikel Lars-Olav Beier u. Andreas Borcholte: Hollywood verliert an Macht. In: Der Spiegel, Heft 16/2007, S. 192. Stephan Eicke: Silencio! Reise in den Abgrund. Die Musik in den Filmen von David Lynch. In: cinema musica, Ausgabe 3/2012, S. 12–19. Graham Fuller: A town like malice: Maverick director David Lynch has made a bizarre soap opera for American television. In: The Independent vom 24. November 1989 Daniel Grinsted: Roboter und Mundhygiene. In: Frankfurter Allgemeine Zeitung vom 17. Dezember 2011, Nr. 294 Thomas Gross, Tobias Timm: Zu cool, um wahr zu sein. In: Die Zeit vom 13. Oktober 2011 Nr. 42, S. 49. Daniele Heyman: Le cinéma de Bouygues Le roi du béton explique pourquoi il se lance dans la production de films. In: Le Monde vom 4. Februar 1992 Hans Hoff: Nichts für zarte Gemüter. In: Welt am Sonntag. vom 29. November 2009, S. 48. Sascha Lehnartz: Algebra, schönes Anderswo. Die Form der Null: Wie die Pariser Fondation Cartier den Zauber der Mathematik in Kunst übersetzt. In: Die Welt. vom 27. Oktober 2011, S. 24. Ulrich Loessel: Tod beim Zigarettenkaufen. In: Focus. vom 29. November 1999 Nr. 48, S. 182–185. Martina Meister: Es war der Wind. In der Pariser Fondation Cartier zeigt sich David Lynch als Bildender Künstler und lässt den ein oder anderen intimen Einblick zu. In: Frankfurter Rundschau. vom 19. April 2007, S. 18. Harald Peters: Ich hasse meine Stimme, also singe ich. In: Welt am Sonntag vom 20. November 2011, S. 58. S. Ilona Rieke: Twin Peaks und Fire Walk With Me. Willkommen in den Abgründend des Alltäglichen. In: cinema musica. Ausgabe 3/2012, S. 26–27. Larry Rother: David Lynch pushes America to the Edge. In: The New York Times. vom 12. August 1990 (Section 2, S. 1) Martin Schwickert: Ideen fangen wie einen Fisch. Der Regisseur über Traum, Meditation und seinen Anfang als Maler. In: Abendzeitung. vom 24. April 2007, S. 15. Nikolas Späth: Das Gute ist mächtiger als das Böse. In: Welt am Sonntag. vom 28. März 2004. Weblinks Offizielle Website von David Lynch Wissenschaftliche Literatur (Open Access) zu David Lynch auf mediarep.org Einzelnachweise Filmregisseur Filmschauspieler Drehbuchautor Mitglied der Ehrenlegion (Offizier) Maler (Vereinigte Staaten) Person als Namensgeber für einen Asteroiden Kaiserringträger der Stadt Goslar US-Amerikaner Geboren 1946 Mann
1010
https://de.wikipedia.org/wiki/Die%20Familie%20mit%20dem%20umgekehrten%20D%C3%BCsenantrieb
Die Familie mit dem umgekehrten Düsenantrieb
Die Familie mit dem umgekehrten Düsenantrieb (jap. , Gyakufunsha Kazoku) ist ein japanischer Film von Gakuryū Ishii aus dem Jahr 1984, der innerhalb weniger Wochen mit einem Budget von nur 300.000 Euro produziert wurde. Handlung Die Familie des Büroangestellten Katsuhiko Kobayashi zieht in ihr neues Haus in einer Vorstadt von Tokyo ein. Die Familienharmonie wird dadurch gestört, dass sich Sohn Masaki zum Hikikomori entwickelt, Tochter Erika sich auf eine Karriere als Sängerin versteift und die Ehefrau Saeko sexuell unbefriedigt ist. Katsuhiko bekommt sehr schnell Wahnvorstellungen, er möchte sich und seine Familie vergiften. Als er im Haus eine Termite entdeckt, beginnt er mit einem Presslufthammer ein Loch unter das Haus zu graben, was schließlich zum Einsturz des Hauses führt. Als das Haus eingestürzt ist, sieht man die Kobayashis der Schlusseinstellung in ihrem Wohnzimmer unter einer Autobahnbrücke wohnen. Sie scheinen glücklich mit dieser Situation zu sein. Erläuterung zum Titel Seit ein Pilot in einem Anfall von Wahn im Flug den Umkehrschub einschaltete und einen Absturz verursachte, ist der „umgekehrte Düsenantrieb“ in Japan ein geflügeltes Wort für plötzlich auftretenden Irrsinn mit katastrophalen Folgen. Im Abspann wird der Titel, entgegen den unten angegebenen Links, mit Die Familie mit umgekehrtem Düsenantrieb bezeichnet. Kritiken Volker Hummel bezeichnete den Film in der taz als „Klassiker des modernen japanischen Kinos und eine der besten Eskalationskomödien überhaupt.“ Den „Punk-Spirit seines Regisseurs“ merke man ihm noch heute an. Laut Lexikon des internationalen Films bringt sich die „zu Beginn […] furiose Satire auf sinnentleerte und ritualisierte Lebensformen und die Unwirtlichkeit der Großstadt“ jedoch „durch zunehmende Hektik und Gewalttätigkeit um ihre Aussage“. Weblinks Gyakufunsha kazoku – Auszug aus dem Fischer Film Almanach 1986 viennale.at Einzelnachweise Filmtitel 1984 Jugendfilm Japanischer Film
1015
https://de.wikipedia.org/wiki/David%20Wark%20Griffith
David Wark Griffith
David Llewelyn Wark Griffith, häufig nur D. W. Griffith (* 22. Januar 1875 bei La Grange, Oldham County, Kentucky; † 23. Juli 1948 in Hollywood, Kalifornien) war ein US-amerikanischer Regisseur, Drehbuchautor, Filmproduzent und Schauspieler. Er drehte zwischen 1908 und den frühen 1930er Jahren insgesamt 535 Filme, von denen mehr als 400 noch erhalten sind, und gilt als einer der einflussreichsten Regisseure der Filmgeschichte. Griffith wird häufig als Begründer des Erzählkinos und als Schöpfer der „filmischen Grammatik“ bezeichnet. Tatsächlich hat er weniger selbst erfunden als vielmehr systematisiert. Als einer der ersten hat er während seiner Zeit bei der Filmgesellschaft Biograph (1908 bis 1913) Elemente wie Großaufnahme, Parallelmontage und viele andere konsequent eingesetzt und später in seinen richtungsweisenden Langfilmen perfektioniert. Insbesondere seine Filmepen Die Geburt einer Nation (1915) und Intoleranz (1916) wurden zu Meilensteinen der Filmgeschichte. Er zählte zu den Mitbegründern des Filmstudios United Artists sowie der Filmindustrie in Hollywood allgemein. Leben Jugend, erste Berufserfahrungen David Wark Griffith wurde am 22. Januar 1875 auf einer Farm im ländlichen Oldham County in Kentucky als Sohn von Jacob Griffith und seiner Ehefrau Mary Perkins geboren. Der Vater hatte als Offizier (Oberst) im Sezessionskrieg in der Armee der Konföderierten gedient und starb, als sein Sohn erst zehn Jahre alt war. Seine Schulbildung erhielt der Halbwaise in einer Einzimmerschule von seiner älteren Schwester Mattie Griffith; die Kinder wuchsen methodistisch auf. Als Griffith 14 Jahre alt war, gab die Mutter ihre Landwirtschaft auf und zog mit ihm nach Louisville. Dort eröffnete die Mutter ein Boardinghouse, das sie jedoch schon nach kurzer Zeit wegen Misserfolges schließen musste. Um seine Familie zu unterstützen, verließ Griffith die Highschool und arbeitete in der Folge in einem Trockenwarenhandel und später in einem Bücherladen. Schließlich stieg Griffith als Theaterschauspieler in das Showgeschäft ein. Er spielte mit durchwachsenem Erfolg in verschiedenen Theatergruppen, die quer durch die USA reisten und in der Regel die weniger prestigeträchtigen Bühnen des Landes bespielten. Seine 13 Jahre als Bühnenschauspieler waren zugleich aber auch ein prägender Einfluss; so weisen viele seiner Filme eine ökonomische, klare Erzählweise auf und beruhen häufiger auf Bühnenstoffen. Nebenbei versuchte Griffith sich als Bühnenautor, doch nur eines von seinen vielen Stücken wurde angenommen und gespielt, es hatte jedoch auch nur mittelmäßigen Erfolg. 1907 versuchte Griffith eines seiner Stücke an den Filmproduzenten Edwin S. Porter zu verkaufen. Der lehnte das Stück ab, gab Griffith allerdings eine kleine Rolle als Schauspieler in Rescued from an Eagle’s Nest von James Searle Dawley, was sein Filmdebüt bedeutete. Filmkarriere Nach seiner positiven Erfahrung bei Rescued from an Eagle’s Nest fühlte Griffith sich vom Filmgeschäft angezogen und akzeptierte einen Vertrag als Schauspieler beim Filmstudio American Biograph. Als Biographs Hauptregisseur Wallace McCutcheon sr. erkrankte und sein Sohn McCutcheon jr. als Ersatz nur eine schwache Leistung brachte, wurde der mitspielende Griffith als Regisseur eingesetzt. Der Film unter dem Titel The Adventures of Dollie erschien noch 1908. Die Produzenten waren mit dem Ergebnis so zufrieden, dass sie Griffith auch bei weiteren Filmen Regie führen ließen. 1910 führte Griffith Regie bei In Old California, dem wahrscheinlich ersten Film, der vollständig in Hollywood gedreht wurde. Griffith war damit einer der Entdecker des Ortes Hollywood für die Filmindustrie und drehte dort wegen des sonnigen Wetters, der Landschaft und des vielen Platzes. Bereits seine zahlreichen Kurzfilme bei Biograph zeugten von filmischen Innovationen und Griffith baute sich schnell einen guten Ruf in der jungen Filmindustrie auf. Bis heute werden viele von Griffiths Kurzfilmen dieser Zeit filmwissenschaftlich untersucht und besprochen. Sein Biograph-Film Judith von Bethulien (1914) mit Blanche Sweet, eine Verfilmung des Buchs Judit, war einer der ersten Langfilme der Vereinigten Staaten von Amerika und erhielt gute Kritiken. Allerdings wurde er auch wegen der Einbindung einer Orgienszene kritisiert. Für seinen 1915 fertiggestellten, dreistündigen Film Die Geburt einer Nation über den Amerikanischen Bürgerkrieg, in dem er deutlich Partei für die Südstaaten ergreift und den Ku Klux Klan glorifiziert, wurde Griffith schon bei der Veröffentlichung wegen des offenen Rassismus gegen Afroamerikaner im Film und einer Verzerrung historischer Fakten über den Amerikanischen Bürgerkrieg kritisiert. Der Film beruht auf der ebenfalls vom zeitgenössischen Rassismus beeinflussten Romanvorlage The Clansman (1905) von Thomas Dixon (1864–1946): Die Geburt einer Nation war das bis dahin teuerste, aber auch erfolgreichste Werk in der noch kurzen Filmgeschichte. Mit einer Rekordlänge von drei Stunden, zahlreichen Massenszenen und vielen filmischen Neuerungen gilt The Birth of a Nation laut Filmhistorikern als „das wichtigste Einzelwerk der amerikanischen Filmgeschichte und ein Schlüsselwerk der gesamten Filmgeschichte. Es enthält viele filmtechnische Neuerungen und Verbesserungen, technische Effekte und künstlerische Errungenschaften, darunter eine Farbsequenz am Schluss. Er hatte einen formgebenden Einfluss auf zukünftige Filme und erzielte eine erkennbare Wirkung auf die Filmgeschichte und die Entwicklung des Films als Kunstform.“ Vor allem wegen Die Geburt einer Nation, dessen positive Darstellung des Klans die Herausbildung eines neuen Ku Klux Klans inspirierte, wird Griffith heute kontrovers gesehen. Das im folgenden Jahr herausgebrachte Werk Intoleranz wurde hingegen ein finanzielles Desaster. Mit diesem noch ambitionierteren und noch teureren Film wollte Griffith aufzeigen, wie Intoleranz seit jeher das menschliche Schicksal bestimmt. Mittels Parallel- und Kontrastmontagen schilderte Griffith vier Episoden – den Fall Babylons, die Passion Christi, die Bartholomäusnacht und die zeitgenössische Geschichte „Die Mutter und das Gesetz“. Der Film, in dem Griffith auch pazifistische und humanistische Ansichten teilt, gilt heute als Meisterwerk der Filmgeschichte. Nachdem bereits am Ende von Intoleranz der Erste Weltkrieg aufgegriffen wurde, widmete sich Griffith diesem in seinem fast zweistündigen Film Hearts of the World ausführlich. Das in England und Frankreich gedrehte Filmprojekt wurde von der britischen Regierung unterstützt, um die USA zum Aufgeben ihrer lange neutralen Haltung im Ersten Weltkrieg zu bewegen. Nach Hearts of the World wandte Griffith sich zeitweise wieder Filmen kleineren und persönlicheren Ausmaßes zu, seine Schauspielerführung bei den Melodramen Gebrochene Blüten und True Heart Susie (beide 1919) wurde wieder hoch gelobt. Hauptdarstellerin beider Filme war Lillian Gish, die auch in vielen anderen Filmen Griffiths spielte. Auch weil sie sich bis zu ihrem Tod 1993 intensiv um das filmische Erbe Griffiths kümmerte, werden ihre Namen in der amerikanischen Öffentlichkeit häufig miteinander assoziiert. Neben Lillian Gish setzte Griffith auch viele andere Darsteller über Jahre immer wieder ein und förderte die Karrieren von jungen Schauspielerinnen und Schauspielern wie Mary Pickford, Mae Marsh, Dorothy Gish, Richard Barthelmess, Robert Harron und Carol Dempster entscheidend. Ebenfalls 1919 gründete Griffith gemeinsam mit Mary Pickford, Douglas Fairbanks senior und Charlie Chaplin die Filmfirma United Artists. Zu seinen letzten großen Erfolgen zählen das zweieinhalbstündige Werk Weit im Osten (1920), in dem Lillian Gish in einer berühmten Szene auf einem eisigen Fluss um ihr Überleben kämpft, und Zwei Waisen im Sturm (1921), der mit den Gish-Schwestern in den Hauptrollen die Französische Revolution abhandelt. Im Verlaufe der 1920er Jahre bekamen Griffiths Filme zunehmend Probleme an den Kinokassen, denn die oftmals aufwändigen Produktionen mussten fast automatisch zu großen Kinoerfolgen werden, um überhaupt einen Gewinn zu erzielen. Zudem wirkten Griffiths Filme, die oft auf älteren Theatervorlagen basierten und melodramatische Themen behandelten, mit ihrer teilweise viktorianischen Weltsicht auf die jüngeren oder fortschrittlicheren Zuschauer in den Roaring Twenties antiquiert. Nach mehreren Misserfolgen musste er 1924 die United Artists verlassen, so waren zuvor sein großangelegtes Unabhängigkeitskriegs-Epos America und das in Deutschland spielende und gedrehte Sozialdrama Ist das Leben nicht wunderschön? an den Kinokassen enttäuschend rezipiert worden. David Wark Griffith drehte in den späten 1920er Jahren noch weitere Filme von unterschiedlicher Qualität, die aber nicht mehr die Resonanz seiner früheren Werke erreichten. 1930 drehte er mit der aufwändigen Filmbiografie Abraham Lincoln, in der Walter Huston die Titelrolle spielte, seinen ersten kompletten Tonfilm (sein Lady of the Pavements von 1929 hatte einige Tonfilm-Sequenzen). Doch trotz guter Kritiken blieb Abraham Lincoln an den Kinokassen hinter den Erwartungen zurück, wie auch sein nächster Film Der Kampf (1931) über einen alkoholsüchtigen Ehemann. Daraufhin zog sich Griffith mit Mitte Fünfzig aus dem Filmgeschäft zurück. Späteres Leben und Privates 1936 wurde Griffith mit dem Ehrenoscar für sein Lebenswerk ausgezeichnet. 1940 versuchte er ein Comeback mit der Regie zum Abenteuerfilm Tumak, der Herr des Urwalds (One Million B.C.), doch nach einem Streit mit dem Produzenten Hal Roach verließ er den Regiestuhl. Der Film wurde von Roach selber zu Ende geführt, wenngleich einige Kritiker meinen, in dem finalen Film noch Griffiths Einfluss erkennen zu können. Griffith war zweimal verheiratet: Von 1906 bis 1936 mit der Schauspielerin Linda Arvidson (1884–1949), dann von 1936 bis 1947 mit der Schauspielerin Evelyn Baldwin (1910–2004). Beide Ehen wurden geschieden. Den letzten Abschnitt seines Lebens verbrachte er im Knickerbocker Hotel in Los Angeles. Er starb 1948 im Alter von 73 Jahren an einer Hirnblutung und wurde auf dem Friedhof in Centerfield, Kentucky begraben. Auszeichnungen und Ehrungen 1936: Ehrenoscar für sein Lebenswerk 1938: Directors-Guild-of-America-Auszeichnung für sein Lebenswerk 1960: Stern auf dem Hollywood Walk of Fame Zudem verneigten sich zahlreiche Regiekollegen wie John Ford, Alfred Hitchcock, Orson Welles, Lev Kuleshov, Jean Renoir, Cecil B. DeMille, King Vidor, Victor Fleming, Raoul Walsh, Carl Theodor Dreyer, Sergei Eisenstein und Stanley Kubrick vor Griffith oder bestimmten seiner Werke. Charlie Chaplin nannte ihn „den Lehrer von uns allen“ (The Teacher of us All) und bemerkte, dass die gesamte Filmindustrie Griffith ihre Existenz verdanke. Orson Welles äußerte: „Ich habe nie wirklich Hollywood gehasst, außer für die Behandlung von D. W. Griffith. Keine Stadt, keine Industrie, kein Beruf, keine Kunst verdankt soviel einem einzigen Mann.“ Von seiner Erstverleihung 1953 bis 1999 war der Ehrenpreis für das Lebenswerk (Lifetime Achievement Award) der Directors Guild of America nach Griffith benannt. Im Jahr 1999 fiel Griffiths Name aus dem Preis, da man laut DGA-Präsident Jack Shea zwar um Griffiths Verdienste und Einflüsse wisse, aber mit dem neuen Jahrtausend die von Griffith-Filmen bestärkten rassistischen Stereotypen kritisch sehen müsse. Filmografie (Auswahl) Literatur Roberta E. Pearson: Eloquent Gestures. The Transformation of Performance Style in the Griffith Biograph Films. University of California Press, Berkeley CA u. a. 1992, ISBN 0-520-07365-7. (ark.cdlib.org) Richard Schickel: D. W. Griffith. An American Life. Limelight, New York NY 1996, ISBN 0-87910-080-X. Thomas Koebner: David Wark Griffith. In: Thomas Koebner (Hrsg.): Filmregisseure. Biographien, Werkbeschreibungen, Filmographien. 3., aktualisierte und erweiterte Auflage. Reclam, Stuttgart 2008, ISBN 978-3-15-010662-4, S. 296–303. (1. Aufl. 1999) Weblinks auf film-zeit.de Einzelnachweise Filmregisseur Filmproduzent Oscarpreisträger Stummfilmschauspieler US-Amerikaner Geboren 1875 Gestorben 1948 Mann
1018
https://de.wikipedia.org/wiki/Dysprosium
Dysprosium
Dysprosium (von „schwer zugänglich“) ist ein chemisches Element mit dem Elementsymbol Dy und der Ordnungszahl 66. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Geschichte 1886 gelang dem Franzosen Paul Émile Lecoq de Boisbaudran die Isolierung von Dysprosium(III)-oxid aus einer Probe Holmiumoxid, das man bis zu diesem Zeitpunkt noch für eine einheitliche Substanz gehalten hatte. Da die chemischen Eigenschaften der Lanthanoide sehr ähnlich sind und sie in der Natur stets vergesellschaftet vorkommen, war auch hier eine Unterscheidung nur mit sehr aufwendigen Analysemethoden möglich. Sein Anteil am Aufbau der Erdkruste wird mit 0,00042 Gewichtsprozent (4,2 ppm) angegeben. Die Ausgangsmineralien sind Monazit und Bastnäsit. Gewinnung und Darstellung Nach einer aufwändigen Abtrennung der anderen Dysprosiumbegleiter wird das Oxid mit Fluorwasserstoff zum Dysprosiumfluorid umgesetzt. Anschließend wird dies mit Calcium unter Bildung von Calciumfluorid zum metallischen Dysprosium reduziert. Die Abtrennung verbliebener Calciumreste und anderer Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Nach einer Destillation im Hochvakuum gelangt man zum hochreinen Dysprosium. Eigenschaften Dysprosium ist ein silbergraues bieg- und dehnbares Metall, das zu den Seltenen Erden gerechnet wird. Es existiert in zwei Modifikationen: Bei 1384 °C wandelt sich α-Dysprosium (hexagonal-dichtest) in β-Dysprosium (kubisch-raumzentriert) um. Dysprosium ist sehr unedel, also sehr reaktionsfreudig. An der Luft überzieht es sich mit einer Oxidschicht, in Wasser wird es langsam unter Hydroxidbildung angegriffen, in verdünnten Säuren wird es unter Wasserstoffbildung zu Salzen gelöst. Dysprosium besitzt zusammen mit Holmium das höchste magnetische Moment (10,6 μB) aller natürlich vorkommenden chemischen Elemente. Bedeutung Als wirtschaftlich wichtiger Rohstoff mit hohem Versorgungsrisiko ist Dysprosium von der EU als kritischer Rohstoff eingestuft. Verwendung Die Fördermenge von Dysprosium wird auf weniger als 100 Tonnen pro Jahr geschätzt. Es findet Verwendung in verschiedenen Legierungen, in Spezialmagneten und mit Blei legiert als Abschirmmaterial in Kernreaktoren. Jedoch gerade die Verwendung in Permanentmagneten, wie sie u. a. in den Generatoren mancher Windkraftanlagentypen verwendet werden, hat diese Metalle der seltenen Erden zum raren Rohstoff gemacht. Weitere Anwendungen: Zusammen mit Vanadium und anderen Elementen wird Dysprosium zur Herstellung von Laserwerkstoffen genutzt. Dysprosium wird zum Dotieren von Calciumfluorid- und Calciumsulfatkristallen für Dosimeter verwendet. Terbium- und dysprosiumhaltige Legierungen zeigen eine starke Magnetostriktion und werden in der Materialprüftechnik eingesetzt. In Neodym-Eisen-Bor-Magneten erhöht es die Koerzitivität und erweitert den nutzbaren Temperaturbereich. Dysprosiumoxid verbessert das dielektrische Verhalten von Bariumtitanat für Kondensatoren. Vereinzelt wird es wegen seines hohen Einfangquerschnittes für thermische Neutronen zur Herstellung von Steuerstäben in der Kerntechnik verwendet. Dysprosiumiodid verbessert das Emissionsspektrum von Halogenmetalldampflampen. Dysprosium-Cadmium-Chalkogenide dienen als Infrarotquelle zur Untersuchung von chemischen Reaktionen. Verbindungen Dysprosium(III)-sulfat Dy2(SO4)3·8 H2O blassgelblichgrüne Kristalle. Eine Übersicht über weitere Dysprosiumverbindungen bietet die :Kategorie:Dysprosiumverbindung. Weblinks Einzelnachweise
1021
https://de.wikipedia.org/wiki/Deutsche%20Bundesbank
Deutsche Bundesbank
Die Deutsche Bundesbank (kurz: BBk, international auch: DBB) ist die Zentralbank Deutschlands mit Hauptsitz in Frankfurt am Main und Teil des Europäischen Systems der Zentralbanken. Sie ist eine bundesunmittelbare juristische Person des öffentlichen Rechts und gehört zur mittelbaren öffentlichen Verwaltung. Die Zentrale der Bank am Standort Frankfurt am Main hat die Stellung einer Obersten Bundesbehörde (vgl. Bundesbankgesetz). Geschichte Vorgänger „Bank deutscher Länder“ (1948–1957) Die Geschichte der Deutschen Bundesbank ist eng mit der Währungsgeschichte Deutschlands nach Ende des Zweiten Weltkriegs verbunden. Angesichts der völligen Zerrüttung der deutschen Währung nach dem Krieg wurde eine Währungsreform erforderlich. Dabei trat in den westlichen Besatzungszonen einschließlich West-Berlins am 21. Juni 1948 die Deutsche Mark an die Stelle der praktisch wertlosen Reichsmark. Die Währungsreform basierte auf Gesetzen der alliierten Militärregierung. Zur Vorbereitung errichteten die Westmächte in ihren Besatzungszonen ein neues, zweistufiges Zentralbanksystem, das in seinem streng föderativen Aufbau das Federal Reserve System der Vereinigten Staaten von Amerika (USA) zum Vorbild hatte. Es bestand aus den rechtlich selbständigen Landeszentralbanken in den einzelnen Ländern der westlichen Besatzungszonen und der am 1. März 1948 gegründeten Bank deutscher Länder in Frankfurt am Main. Die Landeszentralbanken fungierten in ihren Bereichen als Zentralbanken. Die Bank deutscher Länder, deren Grundkapital bei den Landeszentralbanken lag, war für die Notenausgabe, die Koordinierung der Politik und für bestimmte zentrale Aufgaben – darunter auch die Devisenbewirtschaftung – zuständig. Oberstes Organ des zweistufigen Zentralbanksystems war der bei der Bank deutscher Länder eingerichtete Zentralbankrat. Er bestand aus seinem Präsidenten, den Präsidenten der Landeszentralbanken und dem Präsidenten des Direktoriums der Bank deutscher Länder. Der Zentralbankrat bestimmte insbesondere die Diskontpolitik und die neu eingeführte Mindestreservepolitik. Er stellte ferner Richtlinien für die Offenmarktpolitik und die Kreditvergabe auf. Nach den schlechten Erfahrungen mit einer an Weisungen der Regierung gebundenen Notenbank setzte sich in Deutschland nach dem Zweiten Weltkrieg das Prinzip einer unabhängigen Zentralbank durch. Die Bank deutscher Länder war von Anfang an unabhängig von deutschen Staatsorganen, auch von der ab September 1949 tätig werdenden Bundesregierung (Kabinett Adenauer I). Ihre Autonomie gegenüber den Alliierten erlangte sie 1951. Vor dem Vertrag von Maastricht (1958–1993) Durch des am 24. Mai 1949 in Kraft getretenen Grundgesetzes wurde der Bund verpflichtet, eine Währungs- und Notenbank als Bundesbank zu errichten und damit das bis dahin geltende Besatzungsrecht durch deutsches Recht abzulösen. Diesem Auftrag kam der Gesetzgeber allerdings erst 1957 nach. Mit dem Gesetz über die Deutsche Bundesbank (BBankG) vom 26. Juli 1957 wurde der zweistufige Aufbau des Zentralbanksystems beseitigt. Die Zuständigkeiten wurden der neu gegründeten Deutschen Bundesbank übertragen. Dafür wurden die Landeszentralbanken einschließlich der Berliner Zentralbank mit der Bank deutscher Länder verschmolzen. Die Landeszentralbanken waren nun rechtlich nicht mehr selbstständige Notenbanken, sondern wurden als Hauptverwaltungen Teil der Bundesbank. Sie behielten den Namen „Landeszentralbank“ bei und blieben teilweise in ihren Entscheidungen unabhängig, so in Bezug auf die Mitwirkung an den geldpolitischen Entscheidungen im Zentralbankrat (sog. Vorbehaltszuständigkeit). Das in Frankfurt am Main ansässige Direktorium bestand aus dem Präsidenten und dem Vizepräsidenten der Deutschen Bundesbank sowie bis zu sechs weiteren Mitgliedern. Als geschäftsführendes Organ war es für die Durchführung der Beschlüsse des Zentralbankrats verantwortlich. Das Direktorium leitete und verwaltete die Bank und war insbesondere für Geschäfte mit dem Bund und seinen Sondervermögen, für Geschäfte mit im gesamten Bundesgebiet operierenden Kreditinstituten, für Devisengeschäfte und Geschäfte im Verkehr mit dem Ausland sowie für Geschäfte am offenen Markt zuständig. Als oberstes Entscheidungsorgan der Deutschen Bundesbank fungierte weiterhin der Zentralbankrat, der über die Währungs- und Kreditpolitik der Bundesbank entschied und Richtlinien für die Geschäftsführung und Verwaltung aufstellte. Ihm gehörten neben den Mitgliedern des Direktoriums auch die elf Präsidenten der Landeszentralbanken an. Die Landeszentralbanken führten die in ihren Bereich fallenden Geschäfte und Verwaltungsangelegenheiten in eigener Verantwortung durch. Das Bundesbankgesetz wies ihnen ausdrücklich Geschäfte mit öffentlichen Stellen und Verwaltungen sowie mit Kreditinstituten ihres Bereiches zu. Den Landeszentralbanken waren darüber hinaus die Zweiganstalten (heute Filialen) unterstellt. Die Leitung oblag einem Vorstand, der in der Regel aus dem Präsidenten und dem Vizepräsidenten der Landeszentralbank bestand. Im Kalten Krieg wurde von 1962 bis 1964 zur Aufbewahrung einer Notstandswährung der Bundesbankbunker Cochem im Moseltal errichtet. In der bis 1988 betriebenen und streng geheimen Anlage wurden bis zu 15 Mrd. DM gelagert. Am 5. Dezember 1974 kündigte die Deutsche Bundesbank nach der Übernahme monetaristischer Grundsätze als erste Zentralbank überhaupt ein Geldmengenziel für das darauffolgende Jahr an. Mit dem am 1. Juli 1990 in Kraft getretenen Staatsvertrag über die Schaffung einer Währungs-, Wirtschafts- und Sozialunion zwischen der Bundesrepublik Deutschland und der damaligen Deutschen Demokratischen Republik (DDR) wurde die D-Mark alleiniges gesetzliches Zahlungsmittel in beiden deutschen Staaten. Gleichzeitig ging die Zuständigkeit für die Geld- und Währungspolitik im erweiterten Geltungsbereich der D-Mark auf die Deutsche Bundesbank über. Dazu wurde am 3. Mai 1990 in vorgezogener Umsetzung des Staatsvertrages vom 18. Mai 1990 die Vorläufige Verwaltungsstelle in Berlin errichtet, die über die staatliche Vereinigung am 3. Oktober 1990 hinaus noch bis zum 31. Oktober 1992 tätig war. Die Organisationsstruktur der Deutschen Bundesbank wurde über eine Novellierung des Bundesbankgesetzes an die veränderten Gegebenheiten aufgrund des Beitritts des DDR-Gebiets am 3. Oktober angepasst und zugleich gestrafft. Aus den ehemals elf Landeszentralbanken und der Vorläufigen Verwaltungsstelle in Berlin wurden neun Landeszentralbanken mit wirtschaftlich annähernd gleich großen Hauptverwaltungsbereichen geschaffen. Nach dem Vertrag von Maastricht (1993) Mit dem am 1. November 1993 in Kraft getretenen Vertrag von Maastricht wurden die Grundlagen für die Europäische Wirtschafts- und Währungsunion gelegt. Die nationalen Verantwortlichkeiten für die Geldpolitik wurden auf die Gemeinschaftsebene an das Europäische System der Zentralbanken (ESZB), bestehend aus der Europäischen Zentralbank (EZB) und den nationalen Zentralbanken (NZBen) der EU-Staaten, übertragen. Das Bundesbankgesetz wurde im Hinblick auf die Europäische Wirtschafts- und Währungsunion letztmals im Jahre 2002 mit dem 7. Gesetz zur Änderung des Gesetzes über die Deutsche Bundesbank vom 30. April 2002 grundlegend novelliert und gab der Bank ihre heutige organisatorische Verfassung. Finanzkrise Im Verlauf der Finanzkrise ab 2007 und der Eurokrise erhöhten sich Bilanzsumme, TARGET2-Saldo und Einlagefazilität der Deutschen Bundesbank deutlich. Im März 2012 stieg die Bilanzsumme erstmals über eine Billion Euro. Im Durchschnitt des Jahres 2002 betrug die Bilanzsumme 222,4 Mrd. Euro. Im August 2012 waren es mit 1.135,4 Mrd. Euro fünfmal so viel wie im Jahr 2002. Die Notenbanken der Eurozone, darunter die Deutsche Bundesbank, betreiben das europäische Großbetragszahlungssystem TARGET2. Beim Start der Plattform im November 2007 betrug der Saldo der Bundesbank 72,6 Mrd. Euro. Im August 2012 stieg die Forderung der Bundesbank gegenüber den übrigen nationalen Zentralbanken der Eurozone (positiver TARGET2-Saldo) auf ein Allzeithoch von 751,4 Mrd. Euro. Seit November 2007 entspricht das einem Anstieg um 935 Prozent. Zwischen 1999 und 2006 lag der Durchschnitt der Auslandsposition bei 1,6 Mrd. Euro. Die Inanspruchnahme der Einlagefazilität der Bundesbank durch die Geschäftsbanken betrug im April 2012 die Rekordsumme von 276,9 Mrd. Euro. Der Mittelwert für den Zeitraum Januar 2002 bis August 2008 liegt bei 200 Mio. Euro. Umstrittene Geldtransfers mit dem Iran (2011) Im Zusammenhang mit ihrer Funktion als Clearingstelle (vgl. Abschnitt Zentralbank) kam die Bundesbank zusammen mit dem Auswärtigen Amt und Wirtschaftsministerium Ende März 2011 in die Kritik, als bekannt wurde, dass die Deutsche Bundesbank seit Anfang Februar 2011 durch die Ausführung von Überweisungen in einem Volumen von 9 Milliarden Euro dem Iran ermöglicht haben soll, Sanktionen der USA zu umgehen. Ölkäufer überweisen wegen der Sanktionen kein Geld direkt an den iranischen Staat, sondern über die Bundesbank an die Europäisch-Iranische Handelsbank (EIHB) in Hamburg. Die EIHB befindet sich im Eigentum der iranischen Banken Bank of Industry and Mine, Bank Mellat, Bank Tejarat und Bank Refah, welche alle unter Kontrolle – und zum Teil selbst von internationalen Sanktionen betroffen – der Islamischen Republik Iran wirtschaften. Die Sanktionen, in Form von Handelsbeschränkungen und Einfrierungen von Vermögenswerten, sollen die Verbreitung von konventionellen und atomaren Waffen beschränken. Aufgaben Die Deutsche Bundesbank besteht auch nach dem Maastricht-Vertrag weiter. Ihre neuen Aufgaben wurden mit dem 7. Gesetz zur Änderung des „Gesetzes über die Deutsche Bundesbank“ vom 30. April 2002 neu festgelegt. Sie sind im § 3 des Bundesbankgesetzes definiert. Dort heißt es: „Die Deutsche Bundesbank ist als Zentralbank der Bundesrepublik Deutschland integraler Bestandteil des Europäischen Systems der Zentralbanken. Sie wirkt an der Erfüllung seiner Aufgaben mit dem vorrangigen Ziel mit, die Preisstabilität zu gewährleisten, hält und verwaltet die Währungsreserven der Bundesrepublik Deutschland, sorgt für die bankmäßige Abwicklung des Zahlungsverkehrs im Inland und mit dem Ausland und trägt zur Stabilität der Zahlungs- und Verrechnungssysteme bei.“ Aus dem Bundesbankgesetz und der EZB-Satzung leiten sich vier Tätigkeitsfelder der Bundesbank ab, die sie meist zusammen mit der EZB bearbeitet. Die Deutsche Bundesbank unterstützt im Finanzplanungsrat die Koordination zwischen Haushaltsplanung und mehrjähriger Finanzplanung der Gebietskörperschaften. Notenbank Die Bundesbank versorgt als Notenbank die Wirtschaft mit Bargeld und sichert die physische Umlauffähigkeit des Bargeldes. Mittels Banknotenbearbeitung überprüft sie das von den Banken und Wertdienstleistern eingezahlte Bargeld, stellt Falschgeld sicher und übergibt es an die Polizei. Sie tauscht noch im Verkehr befindliche DM-Bestände ohne Frist um und ersetzt zerstörte Banknoten (NAC – Nationales Analysezentrum). Darüber hinaus informiert sie über die Bargeldsicherheitsmerkmale und wöchentlich über die umlaufende Bargeldmenge. Zentralbank Hierbei werden zwei Hauptfunktionen unterschieden: Zunächst ist die Bundesbank Refinanzierungsquelle und Clearingstelle für Kreditinstitute. Die Kreditinstitute können ihren Bedarf an Zentralbankgeld über die Bundesbank / EZB durch sogenannte Refinanzierungsinstrumente decken. Die damit zusammenhängende Steuerung der Geldmenge war bis Ende 1998 wesentliche Aufgabe der Bundesbank. Seit dem 1. Januar 1999 ist es das vorrangige Ziel der EZB, mit Hilfe ihrer geldpolitischen Strategie Preisniveaustabilität zu gewährleisten. Kreditinstitute können nicht benötigte Gelder kurzfristig bei der Bundesbank / EZB anlegen (sogenannte Einlagefazilität). Die Bundesbank unterstützt den netzübergreifenden Zahlungsverkehr zwischen inländischen und ausländischen Geschäftsbanken, beispielsweise den Großbetragszahlungsverkehr über TARGET2. Damit sollen sekundengenau Beträge in Milliardenhöhe zwischen Banken in der ganzen EU übertragen werden. Die Bankleitzahl (BLZ) einer Bank fungiert bei der Bundesbank als Kontonummer der Bank. Bankenaufsicht Andererseits wirkt die Bundesbank an der Bankenaufsicht mit. Hierbei arbeitet sie eng mit der BaFin zusammen. Dabei geht es vor allem um die Sicherung der Stabilität des Finanzsystems. Die Bundesbank übernimmt dabei die laufende Überwachung der Banken, wertet also die Jahresabschlussberichte der Institute aus und führt Prüfungen nach § 44 KWG (siehe Kreditwesengesetz) durch. Sie liefert die statistischen Daten zur wirtschaftlichen Lage der Kreditinstitute. Die BaFin erlässt Verfügungen, Prüfungsanordnungen und Rundschreiben, meist in Abstimmung mit der Bundesbank. Bankgeschäft Als Bank des Staates führt die Bundesbank kostenlos Konten für Bundes-, Landes- und Kommunalbehörden (einschließlich Universitäten) sowie für die Sozialversicherungsträger und wickelt für diese normale Bankdienstleistungen ab; diese Funktion wird als Fiskalagent bezeichnet. Allerdings machen nicht alle Träger öffentlicher Gewalt von dieser Möglichkeit, ihre Bankgeschäfte über die Bundesbank abzuwickeln, Gebrauch; der Freistaat Bayern beispielsweise nutzt die Bayerische Landesbank als Hausbank. Sämtliche Konten werden auf Guthabensbasis geführt, d. h. der Bundesbank ist es aufgrund des in Art 101 des EU-Vertrages (jetzt: Art 123 Abs. 1 AEUV) verankerten Verbots der monetären Staatsfinanzierung durch die Zentralbanken grundsätzlich nicht gestattet, Kredite an die öffentliche Hand zu geben. Die Bundesbank führt Girokonten und Depots außerdem auch für karitative Einrichtungen sowie für ihre eigenen Mitarbeiter. Der Service für Letztere geriet 2013 wegen seiner Kosten in die Kritik. Weiterhin unterliegen die Konten bei der Deutschen Bundesbank nicht der Überwachung laut Kreditwesengeschäft. Bis Ende 2012 war noch die Depoteröffnung für alle Privatpersonen und der Kauf von Bundeswertpapieren möglich (ab 2003 über die Bundeswertpapierverwaltung, heute Deutsche Finanzagentur, für die die Bundesbank allerdings weiterhin das Wertpapiergeschäft ausführte). Daneben ermöglichte sie in ihren Filialen Privatpersonen ohne Girokonto gegen eine Gebühr von einem Euro pro Transaktion die Bargeld-Einzahlung auf Girokonten in Deutschland. Seit 1. März 2012 ist dies aus wirtschaftlichen Gründen nur noch für Zahlungen an Behörden oder Institutionen möglich, die eine Kontoverbindung bei der Bundesbank unterhalten. Die Bundesbank unterhält in den Bundesländern neun Hauptverwaltungen (die ehemaligen Landeszentralbanken) und 31 Filialen. Die Filialen stehen Banken, den öffentlichen Verwaltungen, den Wertdienstleistern (WDL) sowie den Mitarbeitern der Bundesbank für die Bargeldversorgung und die Abwicklung des bargeldlosen Zahlungsverkehrs zur Verfügung. Ebenso ist der Tausch von DM-Bargeld gegen Euro möglich. Die Bundesbank erhebt außerdem statistische Daten zum Währungs- und Finanzsystem wie auch zur Außenwirtschaft. Diese sind teilweise in der makroökonomischen Zeitreihendatenbank verfügbar. In ihrem Forschungsdatenzentrum stellt die Bundesbank ferner qualitativ hochwertige Mikrodaten für Forschungszwecke bereit. Währungsreserven Die Bundesbank ist zuständig für die Verwaltung der Währungsreserven. Dies sind sämtliche Vermögen der Bundesbank, die nicht auf Euro lauten, beispielsweise Goldreserven, Sorten, Wertpapiere in ausländischer Währung und Guthaben in ausländischer Währung bei Banken. Die Währungsreserven bilden dabei einen Gegenwert zur eigenen Währung. Sie werden möglichst rentabel angelegt und bilden zudem eine Möglichkeit zur Intervention bei starken Schwankungen des Wechselkurses. Die Goldreserven der Bundesbank sind die zweitgrößten nach den Goldreserven der US-Notenbank. Derzeit verwaltet die Bundesbank von Frankfurt aus, laut eigenen Angaben, 3384 Tonnen Gold (Stand: 31. Dezember 2014) zu einem Marktwert von rund 140 Milliarden Euro (Stand 4. November 2011). Der größte Teil dieser Goldreserven lagert historisch und marktbedingt bei der Bundesbank in Frankfurt, der Federal Reserve Bank of New York, der Bank of England in London und zu einem kleinen Anteil in Paris bei der Banque de France. Die Bundesbank entschloss sich Anfang 2013 das Goldlagerkonzept zu überarbeiten. Künftig soll die Hälfte der Goldreserven im Inland lagern. Der Lagerstandort Paris soll bis 2020 komplett aufgegeben werden. Forderungen nach einem Verkauf der Goldreserven, unter anderem mit dem Hinweis auf die fehlenden Zinserträge, lehnte die Bundesbank immer wieder ab. Sie schreibt dazu: Nationale Goldreserven haben auch in einer Währungsunion eine vertrauens- und stabilitätssichernde Funktion für die gemeinsame Währung. […] Gold stellt für die Bundesbank auch vor diesem Hintergrund einen Vermögenswert dar, der ihren Ansprüchen nach Werthaltigkeit und Diversifikation ihres Portfolios – bestehend aus Devisen und Gold als Währungsreserven – gerecht wird. Diese These ist unter Wirtschaftswissenschaftlern umstritten. Organisationsstruktur Präsidenten (mit Vorgängereinrichtungen seit 1948) 1948–1957: Karl Bernard, Vorsitzender des Zentralbankrats der Bank deutscher Länder 1948–1957: Wilhelm Vocke, Präsident des Direktoriums der Bank deutscher Länder, ab 1. August 1957 Präsident der Deutschen Bundesbank 1958–1969: Karl Blessing, Präsident der Deutschen Bundesbank 1970–1977: Karl Klasen, Präsident der Deutschen Bundesbank 1977–1979: Otmar Emminger, Präsident der Deutschen Bundesbank 1980–1991: Karl Otto Pöhl, Präsident der Deutschen Bundesbank 1991–1993: Helmut Schlesinger, Präsident der Deutschen Bundesbank 1993–1999: Hans Tietmeyer, Präsident der Deutschen Bundesbank 1999–2004: Ernst Welteke, Präsident der Deutschen Bundesbank 2004: Jürgen Stark, Interimsvorsitzender 2004–2011: Axel A. Weber, Präsident der Deutschen Bundesbank 2011–2021: Jens Weidmann  seit 2022: Joachim Nagel Vizepräsidenten 1958–1969: Heinrich Troeger 1970–1977: Otmar Emminger 1977–1979: Karl Otto Pöhl 1980–1991: Helmut Schlesinger 1991–1993: Hans Tietmeyer 1993–1998: Johann Wilhelm Gaddum 1999–2006: Jürgen Stark 2006–2011: Franz-Christoph Zeitler 2011–2014: Sabine Lautenschläger  seit 2014: Claudia Maria Buch Vorstand Der Vorstand ist das oberste Organ der Bundesbank. Es setzt sich zusammen aus: dem Präsidenten dem Vizepräsidenten und vier weiteren Mitgliedern des Vorstands. Für drei Vorstandsmitglieder (Präsident, Vizepräsident und ein weiteres Mitglied) liegt das Vorschlagsrecht bei der Bundesregierung. Die anderen drei Mitglieder werden vom Bundesrat im Einvernehmen mit der Bundesregierung vorgeschlagen. Bestellt werden alle Mitglieder des Vorstands nach § 7 Abs. 3 des Bundesbankgesetzes vom Bundespräsidenten, in der Regel für acht Jahre, mindestens aber für fünf Jahre. Die Bezüge des Präsidenten betrugen 2015 436.355,56 Euro, die des Vizepräsidenten 348.061,83 Euro. Stand 19. Januar 2023 setzt sich der Vorstand aus folgenden Mitgliedern zusammen: Präsident Joachim Nagel (Kommunikation, Recht, Volkswirtschaft, Europa-Sekretariat, Compliance, Forschungszentrum) – seit 1. Januar 2022 Vizepräsidentin Claudia Buch (Finanzstabilität, Revision, Statistik) – seit 13. Mai 2014 Joachim Wuermeling (Banken- und Finanzaufsicht, Informationstechnologie, Risiko-Controlling) – seit 1. November 2016 Burkhard Balz (Zahlungsverkehr und Abwicklungssysteme, Ökonomische Bildung, Hochschule der Deutschen Bundesbank und internationaler Zentralbankdialog) – seit 1. September 2018 Sabine Mauderer (Beschaffungen, Märkte und Personal) – seit 1. September 2018 Personal Die Deutsche Bundesbank beschäftigt Beamte, Angestellte und Arbeiter ( Abs. 1 BBankG). Die Deutsche Bundesbank hatte 12.022 Mitarbeiter (10.407,3 Vollzeitäquivalente) zum Stichtag am 31. Dezember 2020, davon 6170 Beamte und 5852 Tarifbeschäftigte. Hinzu kommen 85 im Fremddienst tätige Mitarbeiter, 243 ohne Bezüge beurlaubte Mitarbeiter und 56 Mitarbeiter in der Freistellungsphase der Altersteilzeit. In der Zentrale waren insgesamt 6249 Personen beschäftigt, in den Hauptverwaltungen 3087 und in den Filialen 2686. 736 Personen befanden sich in Ausbildung. 3122 Mitarbeiter waren in Teilzeit beschäftigt, 329 befristet. Der Personalbestand in Vollzeitäquivalenten ist seit Ende 2001 um 29,7 Prozent zurückgegangen. Bankzulage Beamte und Angestellte erhalten bei einer Verwendung in der Zentrale eine Bankzulage in Höhe von neun Prozent, bei einer Verwendung in einer Hauptverwaltung von fünf Prozent des maßgeblichen Grundgehaltes. Für die Besoldungsgruppen A 3 bis A 12 sowie die Entgeltgruppe E 1 bis E 12 ist das Grundgehalt zum Stichtag 1. März 2015 maßgeblich, für die Besoldungsgruppen A 13 bis A 16 das Grundgehalt zum 1. März 2012 und für die Besoldungsgruppen der Bundesbesoldungsordnung B das Grundgehalt zum 1. Januar 2011. Das heißt, dass die Bankzulage bei Besoldungs- oder Tariferhöhungen nicht steigt. ( BBankPersV) Beispielsweise beträgt für einen Bundesbankdirektor in Besoldungsgruppe A 15 und Erfahrungsstufe 8 die Bankzulage bei Verwendung in der Zentrale 524,57 Euro brutto. Beamte Der Präsident der Deutschen Bundesbank ernennt die Beamten der Bank. Er ist oberste Dienstbehörde. ( Abs. 2 BBankG). Die Beamten der Deutschen Bundesbank sind Bundesbeamte. Für sie gelten grundsätzlich für die Bundesbeamten allgemein geltenden Vorschriften, sofern das Gesetz über die Deutsche Bundesbank nichts anderes bestimmt ( Abs. 3 BBankG). Die Aufgaben des Bundespersonalausschusses nimmt für Bundesbankbeamte ein vom Vorstand der Bundesbank berufener Ausschuss wahr ( BBankPersV). Bei der Deutschen Bundesbank können zusätzlich zu den Laufbahnen gemäß der Bundeslaufbahnverordnung die Laufbahnen des mittleren Bankdienstes, des gehobenen Bankdienstes und des höheren Bankdienstes eingerichtet werden ( BBankLV). Für die drei Laufbahnen sind Vorbereitungsdienste eingerichtet. (; ; ) Der Vorbereitungsdienst für die Anwärter für den gehobenen Bankdienst wird in einem Studiengang an der Hochschule der Deutschen Bundesbank in Hachenburg durchgeführt ( BBankLV). Die Befähigung für die Laufbahn des höheren Bankdienstes hat auch, wer die Befähigung zum Richteramt hat ( BBankLV). Beamte mit der Befähigung für die auslaufende Laufbahn des Geldbearbeitungsdienstes können durch eine einjährige berufspraktische Einführung die Befähigung für die Laufbahn des mittleren Bankdienstes erlangen ( BBankLV). Die Zuordnung von Laufbahnen, Ämtern und Amtsbezeichnungen ergibt sich aus folgender Tabelle: Eine mit Bundesbank- beginnende Amtsbezeichnung wird grundsätzlich von allen Beamten in der Bundesbank geführt, nicht nur von Beamten in einer Bankdienst-Laufbahn. Gewinn Die Bundesbank erzielte bis einschließlich 2010 Gewinne in Höhe von über einer Milliarde Euro (siehe Grafik) vor allem aus der Refinanzierung der Kreditinstitute und aus einer zinsbringenden Anlage der Währungsreserven. Das Ergebnis aus der Anlage der Währungsreserven wird auch durch Währungsschwankungen beeinflusst: Steigende Wechselkurse ausländischer Währungen beeinflussen das Ergebnis tendenziell positiv, fallende dagegen negativ. Die Höhe der Gewinne aus der Refinanzierung der Kreditinstitute verläuft parallel zum Zinsniveau. Da sie keine privatrechtlichen Eigentümer hat, führt die Deutsche Bundesbank entsprechend der Regelung in § 27 des Bundesbankgesetzes ihre Gewinne an den Bund als Eigentümer ab. Bis zur Höhe von 3,5 Mrd. Euro stehen diese dem laufenden Bundeshaushalt zur Verfügung, der darüber hinausgehende Betrag wird seit 1995 zur Tilgung der Schulden des Erblastentilgungsfonds verwendet. In den Jahren 1976–1979 erzielte die Bundesbank Verluste aus der Neubewertung ihrer Währungsreserven (Grund war die Schwäche von US-Dollar und Pfund Sterling (Großbritannien)). 1997 erzielte sie einen Gewinn von umgerechnet 12,4 Mrd. Euro, den höchsten Gewinn ihrer Geschichte. Durch das Gesetz zur Sicherung von Beschäftigung und Stabilität in Deutschland (Konjunkturpaket II) änderte sich ab 1. Januar 2010 die Verteilung des Bundesbankgewinns. Nicht zuletzt, da auch der Erblastentilgungsfonds demnächst vollständig getilgt ist, fließt der über den Anteil für den Bundeshaushalt hinausgehende Gewinn ab 2010 in die Tilgung des Sondervermögens für das Konjunkturpaket II. Zugleich sinkt der Anteil des Gewinns, der an den Bund abgeführt wird, ab 2012 schrittweise auf 2,5 Mrd. Euro. Im März 2012 veröffentlichte die Bundesbank einen Gewinneinbruch für 2011 von 70 %. Lediglich 643 Mio. Euro, statt der erwarteten 2,5 Mrd. Euro konnten an das Bundesfinanzministerium überwiesen werden. Der Grund liegt in der Erhöhung der Risikovorsorge von 4,1 Mrd. Euro auf 7,7 Mrd. Euro. Die Gefahr von Ausfällen bei Staatsanleihen, beispielsweise von Griechenland, welche die Europäische Zentralbank (EZB) während der Finanzkrise kauft, machte diese Entscheidung laut Aussage von Bundesbankpräsident Jens Weidmann notwendig. 2012 machte die Bundesbank nur einen Gewinn in Höhe von 664 Mio. Euro. Der Bundesfinanzminister hatte 1,5 Mrd. Euro einkalkuliert. Auch 2012 bildete die Bundesbank neue Milliardenrückstellungen für riskante Geschäfte im Auftrag der Europäischen Zentralbank (EZB). 2013 stieg der Gewinn auf 4,6 Mrd. Euro. Die Bundesregierung hatte in ihrem Haushalt mit mindestens 2,5 Mrd. Euro gerechnet. Das deutliche Plus erklärte der Bundesbankpräsident vor allem damit, dass es keinen Bedarf für weitere Risikovorsorge gegeben habe. Hintergrund war die Entspannung der Euro-Schuldenkrise. 2014 belief sich der Gewinn auf 2,95 Mrd. Euro; ein Rückgang von 35 % gegenüber 2013. Da Zinserträge aus Refinanzierungsoperationen noch immer die größte Einnahmequelle für die Bundesbank darstellen, hatte die Senkung des Leitzinses auf 0,05 % im Jahr 2014 einen verringerten Erlös zur Folge. Auf die Auflösung der Wagnisrückstellung (Stand: 14,4 Mrd. Euro) zur Profitaufstockung wurde verzichtet, da das Niedrigzinsniveau laut Aussage von Joachim Nagel, Vorstandsmitglied der Bundesbank, einen erhöhten Risikofaktor im Rahmen der Kreditvergabe, wie auch eine verschlechterte Jahresprognose für 2015, mit sich bringt. Für 2015 wies die Bundesbank einen Gewinn von 3,2 Mrd. Euro aus. Gegenüber dem Vorjahr stieg der Überschuss vor allem wegen einer Zunahme beim Nettoergebnis aus Finanzoperationen, Abschreibungen und Risikovorsorge. Der Nettozinsertrag ging dagegen zurück. 2020 hat die Bundesbank, erstmals seit 1979, wegen der erhöhten Risikovorsorge keinen Gewinn an den Bund ausgeschüttet. Sonstiges Die Bundesbank hat eine auch öffentlich nutzbare Fachbibliothek und im gleichen Hause in Frankfurt/Main das Geldmuseum. In Eltville am Rhein unterhält die Deutsche Bundesbank ein Tagungszentrum. Am 9. August 2007 gab die Bundesrepublik Deutschland anlässlich des Jubiläums „50 Jahre Deutsche Bundesbank“ eine 10-Euro-Silbergedenkmünze und eine Sondermarke heraus. Seit 2011 führt die Bundesbank für die Bundeskasse Halle (Saale) ein Sonderkonto (IBAN DE17860000000086001030, BIC MARKDEF1860), auf welches Bürger ohne die Möglichkeit der steuerlichen Absetzbarkeit Gelder unter dem Betreff „Schuldentilgung“ zur Tilgung der Staatsverschuldung Deutschlands überweisen können. Im Januar 2016 informierte die Deutsche Bundesbank über eine grundlegende Sanierung des Hauptgebäudes ihrer Zentrale. Zu diesem Zweck ist der Umzug des dortigen Personals in noch anzumietende Büros vorgesehen. Nach der ca. zweijährigen Planungsphase werden die Bauarbeiten frühestens 2018 beginnen können. Das Institut für Zeitgeschichte erhielt 2017 von der Bundesbank den Auftrag für ein umfangreiches Forschungsprojekt. Der Zeitraum von 1923 bis 1969 soll unter wirtschafts-, sozial- und kulturgeschichtlichen Aspekten untersucht werden. Das Projekt ist auf vier Jahre angelegt und hat zwei Blöcke mit je vier Teilprojekten. Im ersten Block stehen die Biografien des ersten Bundesbankpräsidenten Wilhelm Vocke und seines Nachfolgers Karl Blessing sowie eine Gruppenbiografie des Führungspersonals der jungen Bundesbank im Mittelpunkt. Eine Länderstudie zum besetzten Polen soll die Rolle der Reichsbank als Akteur im Eroberungskrieg untersuchen. Im zweiten Block stehen das institutionelle Selbstverständnis und politische Handlungsfelder der Zentralbank in Deutschland im Zeitraum von 1924 bis 1969 im Vordergrund. Untersucht werden auch Gold- und Devisentransaktionen der Reichsbank im Dritten Reich Währungspolitik (1940 bis 1944) in Westeuropa als Ausbeutungspolitik Beteiligung der Reichsbank an der finanziellen Ausbeutung Griechenlands in den Jahren 1941 bis 1943. Literatur Deutsche Bundesbank (Hrsg.): Die Deutsche Bundesbank. Aufgabenfelder, Rechtlicher Rahmen, Geschichte, Selbstverlag der Deutschen Bundesbank: Frankfurt am Main, April 2006, ISBN 3-86558-151-X (PDF (offline)). Deutsche Bundesbank (Hrsg.): Währung und Wirtschaft in Deutschland 1876–1975. Frankfurt am Main 1976, ISBN 3-7819-0163-7. David Marsh: Die Bundesbank. Geschäfte mit der Macht. C. Bertelsmann, München 1992, ISBN 3-570-00370-1. Manfred Pohl: Die Geschichte der Nationalbank für Deutschland. In: Bankhistorisches Archiv. Zeitschrift für Bankengeschichte. Nummer 1/1981. Monika Dickhaus: Die Bundesbank im westeuropäischen Aufbau – Die internationale Währungspolitik der Bundesrepublik Deutschland 1848 bis 1958 (Vierteljahrshefte für Zeitgeschichte, Band 72); R. Oldenbourg Verlag, München 1996, ISBN 3-486-64572-2 Karl Otto Pöhl: Ein Mythos mit Verfassungsrang. Die Bundesbank wird fünfzig. In: Frankfurter Allgemeine Sonntagszeitung, 29. Juli 2007, NR. 30, S. 32. Der Staat im Staat: Die Bundesbank. Von Ulrike Herrmann. SWR2 Radioessay 2017. Weblinks Offizielle Website Einzelnachweise Deutschland Bundesbehörde in Frankfurt am Main Kreditinstitut (Frankfurt am Main) Europäisches System der Zentralbanken Eurosystem Gegründet 1957
1022
https://de.wikipedia.org/wiki/Der%20Gefangene%20von%20Zenda
Der Gefangene von Zenda
Der Gefangene von Zenda, englischer Originaltitel The Prisoner of Zenda, ist ein 1894 erschienener Abenteuerroman des britischen Autors Anthony Hope. Der Roman war ein Bestseller, nicht nur in Großbritannien, sondern auch im restlichen Europa und den USA, und begründete das später sehr populäre Genre der „ruritanischen Romanze“. 1898 veröffentlichte Hope eine Fortsetzung unter dem Titel Rupert von Hentzau. Handlung Die Erzählung handelt Ende des neunzehnten Jahrhunderts in dem fiktiven Land Ruritanien, das irgendwo zwischen Sachsen und Böhmen liegt. Rudolf Rassendyll, der jüngere Bruder eines Lords, ist ein Gentleman vom Scheitel bis zur Sohle. Intelligent, mit Umgangsformen und ausgezeichneter Bildung und Ausbildung. Er hat, wenn überhaupt, nur einen Makel: er hat weder Beruf noch Aufgabe – womit seine Schwägerin ihn gerne aufzieht. Und noch eine Besonderheit zeichnet ihn aus: Rote Haare und eine lange Nase. Beides taucht immer wieder in der Geschichte der Rassendylls auf. Es handelt sich dabei um eine genetische Hinterlassenschaft eines Jahrzehnte zurückliegenden Fehltritts eines Elphbergs, der Herrscher von Ruritanien. Der jüngste Spross dieser Familie sieht gerade seiner Krönung als Rudolf V. entgegen. Rassendyll beschließt, ohne seiner Familie etwas davon zu erzählen, der Krönung beizuwohnen. Bei einem Zwischenstopp in Paris erfährt er von Bekannten weitere Einzelheiten über Ruritanien: Prinz Rudolf hat einen jüngeren Halbbruder, Michael, der für fähiger gehalten wird und seinem Bruder den Thron neidet. Die Pariserin Antoinette de Mauban ist seine Geliebte. Rassendyll entdeckt sie in Dresden im gleichen Zug. In Ruritanien verlässt er den Zug bereits in Zenda und fährt nicht bis zur Hauptstadt Strelsau weiter. In einer kleinen Pension bemerkt man sofort seine Ähnlichkeit mit dem König. Auf einem Streifzug durch die Wälder von Zenda, vorbei an Michaels Burg, trifft er zufällig auf den Kronprinzen. Der war auf einem Jagdausflug mit seinen Adjutanten Oberst Sapt und Leutnant Fritz von Tarlenheim. Der Prinz, dem die Geschichte der Rassendylls bekannt ist, lädt den Engländer zum Abendessen in seine Jagdhütte ein. Zum Abschluss des Abends präsentiert der trinkfreudige Prinz eine Flasche seines Bruders, von der er selbst das meiste trinkt. Sehr zu seinem Nachteil, wie sich am Morgen zeigt. Der Wein war offenbar mit einem Betäubungsmittel versetzt. Der Prinz ist nicht wachzukriegen. Sapt begreift sofort: Michael will die Krönung verhindern, den ungeliebten Kronprinzen bloßstellen und selber König werden. Er hat eine kühne Idee: Rassendyll soll an Rudolfs Stelle treten. Dieser lehnt zunächst ab, lässt sich dann aber aus Angst um das Wohlergehen seines Vetters überreden. Nachdem Rassendyll Frisur und Bart dem Aussehen des Prinzen angepasst hat, sind sie kaum noch zu unterscheiden. Die Täuschung gelingt. Niemand in der Kathedrale von Strelsau argwöhnt, Rudolf V. wird gekrönt. Bei der Zeremonie trifft Rassendyll erstmals Michael, der gute Miene zum bösen Spiel macht, und die zukünftige Königin, Prinzessin Flavia. Er findet „seine“ Verlobte auf Anhieb bezaubernd. Mit Hilfe von Sapt und Fritz steht Rassendyll den Tag durch. Als er jedoch nachts mit Sapt heimlich zur Jagdhütte reitet, ist der echte König weg und sein Diener ermordet. Gerade noch entkommen Sapt und Rassendyll Michaels Häschern. Rassendyll bleibt nichts anderes übrig, als das Spiel weiter mitzuspielen. Nach einigen Tagen nimmt er auf Druck der Öffentlichkeit Kontakt zu Flavia auf. Bislang hatte er ein Treffen vermieden. Mit gutem Grund wie sich zeigt: Sie verlieben sich ineinander. Sapt findet das – an den echten König denkend – sehr praktisch. Der Engländer verwirft derweil den Gedanken, selbst an die Stelle des Königs zu treten, sofort wieder. Als Antoinette de Mauban den neuen König zu einem Treffen bittet, hält Rassendyll das sofort für eine Falle. Er geht trotzdem hin. Antoinette war von Michael geschickt worden. Sie bittet Rassendyll, was immer auch geschehen möge, das Leben Michaels zu verschonen und warnt ihn vor Michaels Vertrauten und Handlangern, die auf ihn warten. Mit rustikaler Hilfe eines schmiedeeisernen Tisches kann sich Rassendyll seiner Angreifer erwehren und entkommen. Ihm wird klar, dass er handeln muss. Nicht nur, dass Michael ihn beseitigen will. Um den Thron zu besteigen, müsste dieser auch Flavia heiraten. Das will Rassendyll auf jeden Fall verhindern. Mit Sapt, Fritz und einigen getreuen Soldaten quartiert er sich auf dem Stammsitz der Tarlenheims ein, in der Nähe Zendas gelegen. Vorher gibt er dem Oberbefehlshaber der Truppen den Befehl, für den Fall, dass ihm etwas zustoße, Zenda anzugreifen und Michael gefangen zu nehmen oder zu töten und Prinzessin Flavia zu inthronisieren. Von einem Diener Michaels erfahren sie, dass der König in Michaels Schloss in einem Verlies gefangen gehalten wird. Michaels Gewährsmänner haben Order, ihn bei einem Angriff auf das Schloss sofort zu töten. Während Sapt über einen Plan nachsinnt, bekommt Rassendyll Besuch von Michaels engsten Vertrauten Rupert von Hentzau: Michael biete ihm ein kleines Vermögen und freies Geleit an. Und auch von Hentzau hat einen Vorschlag zu machen: Rassendyll solle doch das Schloss angreifen. Dann würde der König getötet und er selbst werde sich um Michael kümmern, Rassendyll könne dann weiterregieren und ihn – Hentzau – anständig entlohnen. Nachdem Rassendyll ablehnt, entgeht er einem Messerattentat von Hentzaus nur knapp, er wird dabei verletzt. Während Flavia zu Rassendyll geeilt ist, der sich im Krankenbett von seinem „Jagdunfall“ erholt, herrscht gespannte Ruhe in Zenda, da keine Partei etwas unternehmen kann. Als Michaels Diener berichtet, dem echten König gehe es immer schlechter, beschließen Rassendyll und Sapt einen Befreiungsversuch, zumal der britische Botschafter gehörig Staub aufwirbelt auf der Suche nach einem vermissten Landsmann namens Rudolf Rassendyll. Durch ein geöffnetes Fenster dringt Rassendyll in das Schloss ein. Er will den König befreien während Sapt mit seinen Soldaten das Haupttor angreift. Dabei wird er Zeuge, wie sich Hentzau an Antoinette heranmacht. Michael überrascht die beiden. Es kommt zum Kampf, bei dem Michael getötet wird. Rassendyll dringt bis zum König vor, tötet seine Wächter und schließt ihn sicher ein. Während Sapt das Schloss einnimmt, verfolgt Rassendyll den fliehenden Hentzau, kann ihn aber nicht erreichen. Durch einen Zufall erfährt Flavia Rassendylls wahre Identität. Schweren Herzens nehmen die beiden Abschied. In der folgenden Nacht verlässt Rassendyll heimlich das Land. In Tirol lässt er sich den Bart nachwachsen, bevor er nach London zurückkehrt. Er erfindet eine abenteuerliche Liebesaffäre, um seine zweimonatige Abwesenheit zu erklären. Den Vorschlag seiner Schwägerin, als Attaché des neuen Botschafters nach Strelsau zu gehen, lehnt er dankend ab. Einmal im Jahr trifft er sich fortan mit seinem Freund Tarlenheim in Dresden, um Neues zu erfahren von Strelsau, Sapt, dem König und natürlich von Flavia, die ihm jedes Jahr eine rote Rose schickt, so wie er auch ihr. Verfilmungen 1913: Der Gefangene von Zenda – USA – Regie: Hugh Ford, Edwin S. Porter 1915: The Prisoner of Zenda – UK – Regie: George Loane Tucker 1922: Der Gefangene von Zenda (The Prisoner of Zenda) – USA – Regie: Rex Ingram – mit Lewis Stone und Ramón Novarro 1937: Der Gefangene von Zenda (The Prisoner of Zenda) – USA – Regie: John Cromwell – mit Ronald Colman und Madeleine Carroll 1952: Im Schatten der Krone (The Prisoner of Zenda) – USA – Regie: Richard Thorpe – mit Stewart Granger und Deborah Kerr 1979: Der Gefangene von Zenda (The Prisoner of Zenda) – USA – Regie: Richard Quine – mit Peter Sellers und Elke Sommer 1984: The Prisoner of Zenda – UK – Regie: Leonard Lewis – zweiteiliger Fernsehfilm der BBC 1988: The Prisoner of Zenda – Australien – Zeichentrickfilm 1996: Schnappt den Doppelgänger! (Prisoner of Zenda, Inc.) – USA – Regie: Stefan Scaini – Fernsehfilm mit Jonathan Jackson und William Shatner Der Film Royal Flash (1975) weist eine ähnliche Handlung auf, und der Film Das große Rennen rund um die Welt (1965) parodiert in der Episode in Karpanien die Geschichte Hopes. Ausgaben englisch The Prisoner of Zenda. J.W. Arrowsmith, Bristol 1894 (Erstausgabe). The Prisoner of Zenda. Mit einer Einleitung von Geoffrey Household. Dent, London 1984, ISBN 0460022725. The Prisoner of Zenda. Penguin Popular Classics, Penguin Books Ltd., London 1994, ISBN 0-14-062131-8. The Prisoner of Zenda. Hrsg. und mit einer Einleitung versehen von Tony Watkins. Oxford University Press, Oxford und New York 1994, ISBN 978-0-19-955528-4. deutsch Der Gefangene von Zenda: Romantische Erzählung. Deutsch von Clarence Sherwood. Deutsche Verlags-Anstalt, Stuttgart 1898. Der Gefangene von Zenda. Deutsch von Ronald M. Hahn. Ullstein, Berlin 1987. ISBN 3-548-21067-8. Sekundärliteratur Jopi Nyman: Under English Eyes: Constructions of Europe in Early Twentieth-century British Fiction. Rodopi, Amsterdam 2000, ISBN 9042015721. S. Gorley Putt: The Prisoner of 'The Prisoner of Zenda': Anthony Hope and the Novel of Society. In: Essays in Criticism 6, 1956, S. 38–59. Raymond P. Wallace: Cardboard Kingdoms. In: San Jose Studies 13, 1987, S. 23–34. Literarisches Werk Abenteuerroman Literatur (19. Jahrhundert) Literatur (Englisch) Werk von Anthony Hope Literatur (Vereinigtes Königreich)
1023
https://de.wikipedia.org/wiki/Dyn%20%28Einheit%29
Dyn (Einheit)
Das Dyn ist die CGS-Einheit der Kraft (). Ein Dyn entspricht der Kraft, die notwendig ist, um eine Masse von 1 g mit 1 cm/s2 zu beschleunigen: Das Dyn wurde in der Mitte des 19. Jahrhunderts von der British Association for the Advancement of Science definiert und 1873 als Krafteinheit vereinbart. Es war die erste international verbindliche Einheit der Kraft überhaupt. Da es eine sehr kleine Kraft ist, war auch das Megadyn in Gebrauch, das ziemlich genau der Gewichtskraft einer Masse von 1 kg entspricht (1 Megadyn ≈ 1,02 kp). Seit dem 1. Januar 1978 ist das Dyn in Deutschland keine gesetzliche Einheit mehr; es wurde durch die SI-Einheit Newton ersetzt. Einzelnachweise Veraltete Einheit (Physik) Krafteinheit
1024
https://de.wikipedia.org/wiki/Dram
Dram
Dram bezeichnet: Dram (Einheit), eine Einheit der Masse Armenischer Dram, Gesetzliches Zahlungsmittel in der Republik Armenien und der Republik Bergkarabach Karabach-Dram, Gesetzliches Zahlungsmittel in der Republik Bergkarabach DRAM ist die Abkürzung für: Dynamic Random Access Memory, ein elektronischer Speicherbaustein Shelley FKA DRAM (ehemals D.R.A.M.), US-amerikanischer Rapper Abkürzung
1025
https://de.wikipedia.org/wiki/Drachm
Drachm
Drachm steht für: Dram (Einheit), Maß im Angloamerikanisches Maßsystem Drachma (Einheit), polnisches Gewichtsmaß Siehe auch: Drachme
1026
https://de.wikipedia.org/wiki/Dominikaner
Dominikaner
Der katholische Orden der Dominikaner, auch Predigerorden, lat. Ordo (fratrum) Praedicatorum (Ordenskürzel OP), wurde im frühen 13. Jahrhundert vom heiligen Dominikus gegründet. Der Sitz der Generalkurie des Predigerordens ist Santa Sabina in Rom. Geschichte Gründung und erste Jahre Dominikus wurde im Jahr 1170 in der kastilischen Ortschaft Caleruega geboren. Schule und Studium absolvierte er in Palencia. Im Jahr 1196 trat er in das Domkapitel von Osma in Kastilien ein, wurde dort zum Priester geweiht und wurde 1201 Subprior des Kapitels. Auf Reisen im Gefolge seines Bischofs Diego de Acevedo wurde er in Südfrankreich mit den dortigen Erfolgen der Katharer konfrontiert. Der Katharismus fand aufgrund der asketischen Lebensweise und rhetorischen Überzeugungskraft seiner Prediger großen Anklang in der Bevölkerung. Von den örtlichen Feudalherren wurde er toleriert oder auch gefördert, während die theologisch und seelsorgerisch wenig ambitionierte katholische Geistlichkeit hauptsächlich um die Sicherung ihrer Pfründen und weltlichen Privilegien bemüht war. Auch die von Papst Innozenz III. als Legaten beauftragten Zisterzienser, die den Schwerpunkt ihrer Tätigkeit nicht in der Missionierung, sondern in der politischen Diplomatie und der Herbeiführung repressiver Maßnahmen sahen, hatten sich vor allem den Hass der Bevölkerung zugezogen, aber dem Katharismus keine wirksamen Maßnahmen entgegensetzen können. Bischof Diego hatte zunächst das Projekt einer Missionierung der Türken verfolgt und ersuchte den Papst Innozenz III. in Rom dafür um Befreiung von seinem Bischofsamt. Dem Papst war jedoch die Missionierung in Südfrankreich das vordringliche Anliegen. Ende des Jahres 1204 kehrten die beiden über Cîteaux nach Südfrankreich zurück und stimmten ihre Missionstätigkeit mit den päpstlichen Legaten (u. a. Pierre de Castelnau) ab. Mit Unterstützung des neuen Bischofs von Toulouse, des Zisterziensers und ehemaligen Trobadors Folquet de Marseille, gründeten sie 1206/1207 in Prouille (okzitanisch: Prolha) in der Nähe von Fanjeaux einen Konvent für bekehrte Katharerinnen, die in den ersten Jahren nach der Regel der Zisterzienser lebten. Während Diego nach Osma zurückkehrte und dort Ende 1207 verstarb, blieb Dominikus in Südfrankreich und widmete sich von Prouille aus weiter seiner inneren Berufung, durch ein Wanderleben zu Fuß, statt herrschaftlich zu Pferde, in apostolischer Armut und durch rastlosen Einsatz als Prediger die Bevölkerung wieder zum katholischen Glauben zu bekehren. Diesem Programm, welches das Betteln als Form des Lebensunterhalts einschloss und dadurch im Widerspruch zu den noch gültigen kirchlichen Vorschriften stand, erteilte am 17. November 1206 auch der Papst eine erste offizielle Genehmigung. Als es im Jahr 1208 zu dem vom Papst seit längerem vorbereiteten, militärischen Kreuzzug gegen die Katharer kam (siehe: Albigenserkreuzzug), war Dominikus anscheinend nicht maßgeblich an der Organisation und Propaganda des Kreuzzuges beteiligt, sondern ihm fiel vor allem die Aufgabe zu, die Überlebenden in der militärisch unterworfenen Region nunmehr auch geistlich zu bekehren, wobei seine Missionstätigkeit unter anderem dadurch gefördert wurde, dass der militärische Anführer des Kreuzzuges, Simon IV. de Montfort, und die neuen katholischen Herren den Konvent von Prouille mit Schenkungen und Privilegien bedachten. Im Jahr 1215 wurden Dominikus und sechs seiner Gefährten durch Bischof Folquet von Toulouse in rechtsverbindlicher Form als Predigergemeinschaft approbiert. Grundlage des Ordens war von Anfang an die Augustinusregel, weshalb die Dominikaner zu den augustinischen Orden gezählt werden. Diesen Regeln fügte die Gemeinschaft Konstitutionen bei, die sich auf die Durchführung des Predigtauftrags bezogen. Die Brüder waren beauftragt, die Häresie zu bekämpfen und den Glauben zu predigen, und erhielten dazu die Erlaubnis, als Wanderprediger ein Leben in religiöser Armut zu führen. Die dafür erforderlichen Mittel wurden ihnen durch Almosen der Diözese zugeteilt; was davon nicht gemäß der Zweckbestimmung verbraucht wurde, war am Ende des Jahres zurückzuerstatten. Diese neue Institution wurde noch im selben Jahr durch ein päpstliches Schreiben approbiert und 1215 dann durch den 10. Kanon des IV. Laterankonzils, dort allerdings ohne Festlegung des Prinzips apostolischer Armut, allen Bischöfen vorgeschrieben. Zurückgekehrt nach Toulouse entsandte Dominikus am Fest Mariä Himmelfahrt des Jahres 1217 (15. August) seine Mitbrüder in die Welt – zunächst nach Paris und nach Spanien – zur Gründung neuer Konvente, hierin dem biblischen Vorbild Christi bei der Entsendung der Jünger folgend. Zum Jahreswechsel hielt er sich erneut in Rom auf und erwirkte am 11. Februar 1218 eine päpstliche Enzyklika, in der das Armutsprinzip der Prediger bekräftigt und die Amtsträger der Kirche zu deren Unterstützung aufgefordert wurden. Im selben Jahr folgten Gründungen der ersten italienischen Konvente, in Bologna und durch Dominikus selber in Rom. Von Rom begab er sich über Toulouse nach Spanien, Nordfrankreich (Paris) und erneut nach Italien, um die Gründung und Organisation neuer Konvente persönlich zu unterstützen. Als besonders folgenreich erwiesen sich hiervon die frühen Gründungen in Paris und Bologna, die wesentlich dazu beitrugen, dass der Orden durch Lehrstühle an den entstehenden Universitäten und durch Einrichtung eigener Generalstudien bald eine führende Rolle in der mittelalterlichen Wissenschaft einnehmen konnte. Im Jahr 1220, als bereits annähernd 60 Niederlassungen bestanden, hielt Dominikus zu Pfingsten in Bologna die erste Generalversammlung des Ordens ab. Das Generalkapitel ergänzte die erste Fassung (prima distinctio) der Satzungen von 1216 durch eine secunda distinctio und gab dem Orden seine in den Grundzügen bis heute gültige Organisationsform. Es besiegelte zugleich die Entwicklung von einem Kanonikerorden zu einem Bettelorden sui generis durch die Verschärfung des Armutsprinzips, indem außer dem persönlichen auch der gemeinschaftliche Besitz und feste Einkünfte ausgeschlossen wurden. Nach neuerlichen Predigten in Oberitalien, wo Honorius III. zum Vorgehen gegen die aus Südfrankreich zugelaufenen Katharer aufgerufen hatte, verstarb Dominikus am 6. August 1221 in Bologna. Hochmittelalter und Spätmittelalter (13. bis 15. Jahrhundert) Die von dem zweiten Ordensmeister Jordan von Sachsen als Constitutiones zusammengestellten Satzungen und Regelwerke des Ordens wurden von dessen Nachfolger Raimund von Peñafort, einem der größten Kanonisten seiner Zeit, in eine systematische Ordnung gebracht und seither durch die Generalkapitel immer wieder geändert oder ergänzt. Seit der frühen Zeit herrschte allerdings ein gewisser Pragmatismus in der Anwendung der Vorschriften, indem in Einzelfällen Dispensationen möglich waren und tatsächlich auch häufig erteilt wurden, um Hindernisse bei der Ausübung des Studiums oder der Predigt auszuräumen. Seit dem Generalkapitel von 1236 wurden Verstöße gegen die Constitutiones außerdem nicht mehr als Sünde, sondern als durch Buße abzugeltendes Vergehen bewertet. Das strenge Armutsprinzip wurde im Lauf des 14. Jahrhunderts vielfach dadurch gelockert, dass einzelne Ordensmitglieder Benefizien annahmen und dadurch die vita privata als Usus einführten. Durch das große abendländische Schisma wurde der Orden zeitweise in drei „Observanzen“ zerrissen. Raimund von Capua als Generalmeister der römisch-urbanianischen Observanz initiierte 1390 eine Reformbewegung, die die vita privata zurückdrängen und die vita apostolica erneuern sollte. Dies führte zur Gründung von Reformkonventen, die sich ihrerseits zu Reformkongregationen und Reformprovinzen zusammenschlossen. Als bindende Vorschrift wurde das ursprüngliche Armutsprinzip de jure aufgehoben, als Martin V. im Jahr 1425 zunächst einzelnen Konventen und Sixtus IV. 1475 dem gesamten Orden Besitz und feste Einkünfte erlaubte. Wie andere Bettelorden entwickelten die Dominikaner im späten Mittelalter durch ihren missionarischen Eifer eine judenfeindliche Haltung. Die am meisten verbreitete antijüdische Schrift des Mittelalters stammte von einem Dominikaner, dem Spanier Alfonso de Buenhombre. Sein fingierter Brief des Rabbis Samuel, der sich als Werk eines bekehrten Juden ausgab, behandelte die Zerstreuung der Juden unter den Völkern und ihre Ursache. Der 1339 in lateinischer Sprache abgefasste Brief wurde in beinahe alle Sprachen des Abendlandes übersetzt und hat sich in mehr als dreihundert Handschriften erhalten. Inquisition Der Dominikanerorden stellte seit dem Beginn der Inquisition zu Beginn des 13. Jahrhunderts im päpstlichen Auftrag Inquisitoren zur Aufspürung und Verfolgung von Häretikern. Aufgrund der Erfahrungen, die der Orden bereits früh in Auseinandersetzung mit Häretikern gesammelt hatte, sowie seiner intellektuellen Ausrichtung bot er dafür besonders gute Voraussetzungen. Bereits 1231–33 erteilte Papst Gregor IX. in seinem mehrfach ausgestellten Sendschreiben Ille humani generis mehreren Dominikanerkonventen den Auftrag zur Verfolgung von Häresien. Besonders aktiv wurden die Dominikaner, die man deshalb mit einem Wortspiel auch als domini canes (Hunde des Herrn) bezeichnete, daraufhin in Südfrankreich bei der inquisitorischen Bekämpfung der Katharer. Neben Inquisitoren aus den Reihen anderer Orden, etwa der Franziskaner, wirkten Dominikaner als Inquisitoren während des gesamten Mittelalters vor allem in Frankreich, Italien und im Heiligen Römischen Reich. Bedeutende Dominikanerinquisitoren waren u. a. Bernard Gui († 1331), Walter Kerlinger († 1373), Tomás de Torquemada († 1498), der erste Generalinquisitor der Spanischen Inquisition, oder Jakob van Hoogstraten († 1527). Umgekehrt fielen auch Mitglieder des Dominikanerordens der Inquisition zum Opfer, wie Giordano Bruno. Dominikaner beteiligten sich auch an den Anfängen der Hexenverfolgung, darunter Nicolas Jacquier († 1472) oder Heinrich Kramer († 1505), der Autor des Hexenhammers. Im Jahr 2000 nahm das Provinzkapitel der Dominikanerprovinz Teutonia zur historischen Beteiligung der Dominikaner an der Inquisition und Hexenverfolgung kritisch Stellung (siehe hier). Kirchenbau Bedeutende historische Dominikanerkirchen, auch Predigerkirchen genannt, sind die Französische Kirche in Bern sowie weitere Beispiele in Basel, Eisenach, Erfurt, Regensburg, Rottweil oder Zürich. Viele davon befinden sich heute nicht mehr im Besitz des Dominikanerordens. In der ostwestfälischen Hansestadt Warburg (Land Nordrhein-Westfalen) kann das Kuriosum von gleich zwei ehemaligen Dominikanerklöstern und -kirchengebäuden im Stadtgebiet besichtigt werden, die nicht mehr im Besitz des Ordens sind. Es handelt sich hierbei um die erste Dominikanerkirche St. Maria in vinea (Klosterkirche von 1281 bis 1803) mit seinem seit 1826 als Gymnasium Marianum genutztem Klostergebäude sowie um die zweite Dominikanerkirche mit -kloster St. Mariä Himmelfahrt (Klosterkirche von 1903 bis 1993). Im letztgenannten Konvent befand sich bis zur Auflösung das Noviziat als Ausbildungsstätte der Provinz Teutonia. 1953 baute der bekannte schweizerisch-französische Architekt Le Corbusier Kirche und Kloster der Dominikaner Sainte-Marie de la Tourette bei Lyon. 20. Jahrhundert In den 1950er- und 1960er-Jahren erlebte der Orden im deutschsprachigen Raum „eine erneute Blüte“. Neue Konvente wurden gegründet bzw. wiederbegründet: in Braunschweig (1952), in Münster (1961), in Hamburg (1962) und in Bremen (1968). Der Orden in der Gegenwart Verfassung des Ordens Was den Orden der Predigerbrüder von seiner Gründung her auszeichnet, ist seine demokratische Verfassung. Alle Brüder tragen gemeinsam die Verantwortung für die Verwirklichung der Ziele der Ordensgemeinschaft. Es gibt ein Mitspracherecht auf allen Ebenen. Alle Oberen werden auf Zeit gewählt. Wichtige Entscheidungen werden von der Gemeinschaft der Brüder oder ihrer jeweiligen Delegierten im Konvents-, Provinz- oder Generalkapitel getroffen. Der Generalobere der Dominikaner wird Ordensmeister (Magister Ordinis) genannt. Der derzeitige Ordensmeister (seit Juli 2019) ist Gerard Francisco Timoner. Der kleinste Baustein des Ordens ist ein Kloster, der sogenannte Konvent, der traditionell aus mindestens sechs Mitgliedern besteht. Ist die Zahl der Mitglieder geringer, handelt es sich um ein "Domus" (Haus). Hier leben die Brüder in Gemeinschaft zusammen, halten gemeinsam das Chorgebet und erfüllen ihre Aufgaben im Studium, in der Predigt innerhalb und außerhalb des Konvents und zum Teil auch in Übernahme von Aufgaben der pfarrlichen oder kategorialen Seelsorge (Krankenhaus, Gefängnis, Beratungsdienste etc.). Der Obere eines Konventes wird Prior genannt, und auf drei Jahre gewählt. Er wird vom nächsthöheren Oberen, dem Provinzial, bestätigt. Der Obere eines Domus wird als Superior bezeichnet. Er wird vom Provinzial nach Anhörung der Gemeinschaft für drei Jahre ernannt. Die Konvente und Häuser sind zu Provinzen zusammengeschlossen, heute insgesamt 42, denen jeweils ein Provinzial vorsteht. Er wird für vier Jahre auf dem alle vier Jahre tagenden Provinzkapitel gewählt, das sich aus den gewählten Prioren und zusätzlich gewählten Delegierten zusammensetzt. Der Provinzial wird vom Ordensmeister, dem höchsten Oberen des Ordens bestätigt. Der Ordensmeister wiederum wird vom Generalkapitel, der obersten gesetzgebenden Versammlung, auf neun Jahre gewählt. Wähler sind hier jeweils die gewählten Provinziale sowie von den Provinzen gewählte Delegierte. Spiritualität Die Spiritualität des Ordens wird vom Ziel her bestimmt: (Papst Honorius III.). Die Predigt fließt aus der Fülle der Beschauung, so dass Thomas von Aquin formulieren konnte: („sich der Kontemplation widmen und die Frucht der Kontemplation weitergeben“). Die spezifische Lebensform der Dominikaner, für die das Gemeinschaftsleben, das feierliche, gemeinsame Chorgebet und das ständige Studium charakteristisch sind, führt zur Verkündigung in Wort und anderen apostolischen Aktivitäten. Apostolat In der heutigen Zeit sind für die Dominikaner vor allem folgende Prioritäten für ihr Tun leitend: Die Katechese in nichtchristlichen Kulturen, geistigen Systemen, sozialen Bewegungen und religiösen Traditionen. Die Gerechtigkeit in der Welt: kritische Analyse der Ursprünge, Formen und Strukturen von Gerechtigkeit in unserer Welt und Einsatz für die Befreiung des Menschen. Die Inanspruchnahme sozialer Kommunikationsmittel für die Verkündigung des Wortes Gottes. Statistik Heute gibt es weltweit ca. 6.000 Brüder, ferner 3.000 Nonnen und über 30.000 tätige Schwestern in Kongregationen des dritten Ordens (siehe Dominikanerinnen). Die Dominikanischen Laiengemeinschaften beiderlei Geschlechts führen ein spirituelles Leben im Geiste der dominikanischen Tradition, leben aber in der Welt, gehen einem Beruf nach und können auch verheiratet sein. Zur Provinz Teutonia (gegründet 1221) gehören 9 Konvente: Köln (Provinzialat), Düsseldorf, Vechta, Hamburg, Berlin, Braunschweig, Leipzig, Worms, Mainz (Studienhaus). Das Noviziat befindet sich seit 1993 in Worms, wo die Dominikaner schon zehn Jahre nach der Ordensgründung im Jahr 1216 ansässig wurden. Darüber hinaus gibt es eine kleinere Niederlassung (Domus) im Wallfahrtsort Klausen bei Trier sowie in Berlin (Institut M.-Dominique Chenu). Zur Provinz Teutonia gehörte bis 2013 ein Vikariat in Bolivien mit 6 Niederlassungen (Santa Cruz de la Sierra, Cochabamba, Pampagrande, Comarapa, Samaipata, Mairana, Potosi). Das Vikariat wurde 2013 als Vizeprovinz von Bolivien selbstständig. Seit 2020 ist Ungarn Provinzvikariat der Teutonia mit Häusern in Sopron, Debreczen und Sentendre. Die Süddeutsch-Österreichische Provinz umfasst vier Konvente: einen Konvent in Baden-Württemberg (Freiburg), zwei in Bayern (Augsburg, München) und einen in Österreich (Wien). Mit Wirkung zum 28. Januar 2024, dem Fest des heiligen Thomas von Aquin, werden die Provinz Teutonia (Deutschland ohne Bayern und Baden-Württemberg, Ungarn) und die Süddeutsch-österreichische Provinz vom hl. Albert fusionieren und eine organisatorische Einheit bilden. Die neue Provinz wird „Dominikanerprovinz des hl. Albert in Deutschland und Österreich“ heißen. Provinzial wird Pater Peter Kreutzwald, derzeitiger Probinzial der Provinz Teutonia. Siehe auch: Liste der Dominikanerklöster. Das Wappen der Dominikaner Als Wappen des Dominikanerordens sind zwei unterschiedliche Motive zu finden, das Lilienkreuz und das Mantelwappen. Das gegenwärtige Wappen der Dominikaner zeigt im von schwarz und silber achtfach geständerten Schild ein schwarz und silber geständertes Lilienkreuz. Das Lilienkreuz tritt seit dem 15. Jahrhundert auf und ist damit älter als das schwarz-silberne ekklesische Mantelwappen. Es ist ein ursprünglich der Inquisition zugeordnetes Emblem und findet erst seit dem 17. Jahrhundert allgemeine Verbreitung als Symbol für den Predigerorden. Das Mantelwappen (heraldisch: Mantelzug) ist eine silberne Spitze auf schwarzem Feld. Es erscheint erstmals 1494 in einem venezianischen Processionarium, wird dann in Europa zum üblichen Zeichen für die Dominikaner und trug ihnen in England die Bezeichnung als Blackfriars, schwarze Brüder, ein. Gedeutet wird es als . Das eigentlich ältere Lilienkreuz verdrängte das Mantelwappen erst an der Wende zum 20. Jahrhundert, beim Generalkapitel in Bologna 1961 wurde das Mantelwappen wieder zum verbindlichen Abzeichen des Dominikanerordens erklärt, was aber bereits das Generalkapitel von 1965 in Bogotá wieder aufhob. Seitdem ist die Verwendung beider Wappenbilder freigestellt. Bekannte Dominikaner Albertus Magnus (ca. 1200–1280) Anatol Feid (1942–2002) Arthur F. Utz (1908–2001) Aurelius Arkenau (1900–1991) Bartolomé de Las Casas (1484 oder 1485–1566) Basilius Streithofen (1925–2006) Benedikt XI. (1240–1304) Benedikt XIII. (1649–1730) Benedikt Momme Nissen (1870–1943) Bernard Gui (ca. 1261–1331) Christoph Kardinal Schönborn (* 1945) Colmarer Dominikanerchronist (ca. 1221–1305) Dietrich von Freiberg (ca. 1240–1320) Dominik Duka (* 1943) Dominikus (Ordensgründer) (ca. 1170–1221) Dominique Pire (1910–1969) Eberhard Welty (1902–1965) Edward Schillebeeckx (1914–2009) Everhard von Westerheim (ca. 1362–1392) Felizian Ninguarda (1524–1595) Fra Angelico (ca. 1400–1450) Francesco Gaude (1809–1860) Georges Kardinal Cottier (1922–2016) Giordano Bruno (1548–1600) Girolamo Savonarola (1452–1498) Gordian Landwehr (1912–1998) Gustavo Gutiérrez (* 1928) Hans Conrad Zander (Schriftsteller, ehem. Dominikanernovize, * 1937) Heinrich Kalteisen (ca. 1390–1464) Heinrich Kramer (ca. 1430–1505) Heinrich Seuse (ca. 1295–1366) Innozenz V. (1225–1276) Jacobus a Voragine (ca. 1228–1298) Jacobus de Cessolis (14. Jahrhundert) Jakob Sprenger (Inquisitor, 1435–1495) Jacopo Passavanti (ca. 1302–1357) Jean-Baptiste Labat (1663–1738) Jean Baptiste Henri Lacordaire (1802–1861) Jean de Menasce (1902–1973) Jean-Hervé Nicolas (1910–2001) Jean-Joseph Lataste (1832–1869) Johannes Nider (ca. 1385–1438) Johannes Tauler (ca. 1300–1361) Johann Dietenberger (ca. 1475–1537) Johann Strote († 1350) Johann Tetzel (Ablassprediger, ca. 1460–1519) Jordan von Sachsen (ca. 1185–1237) José Tolentino Kardinal Calaça de Mendonça (* 1965) Joseph Maria Bocheński (1902–1995) Katharina von Siena (3. Orden, 1347–1380) Kjell Arild Pollestad (* 1949) Laurentius Siemer (1888–1956) Marie-Dominique Chenu (1895–1990) Martín de Porres (1579–1639) Matthias von Sittard (1522–1566) Meister Eckhart (ca. 1260–1328) Michel Le Quien (1661–1733) Odilo Braun (1899–1981) Paul-Heinz Guntermann (1930–2006) Petrus von Verona (ca. 1206–1252) Pierre Claverie (1938–1996) Pius V. (1504–1572) Réginald Garrigou-Lagrange (1877–1964) Ricoldo da Monte di Croce (ca. 1243–1320) Rosa von Lima (3. Orden, 1586–1617) Servais-Théodore Pinckaers (1925–2008) Thomas Cajetan (1469–1534) Thomas von Aquin (ca. 1225–1274) Titus Maria Horten (1882–1936) Tomás de Torquemada (Inquisitor, 1420–1498) Tommaso Campanella (1568–1639) Ulrich von Straßburg (ca. 1220–1277) Vinzenz Ferrer (1350–1419) Wolfgang Ockenfels (* 1947) Wunibald Maria Brachthäuser (1910–1999) Yves Congar (1904–1995) Siehe auch Liste der Ordensmeister der Dominikaner Literatur Geschichte Überblicke und Gesamtdarstellungen William A. Hinnebusch OP: Kleine Geschichte des Dominikanerordens (= Dominikanische Quellen und Zeugnisse, Bd. 4). Aus dem Amerikanischen von Christophe Holzer und Winfried Locher OP und Winfried Locher. St. Benno Verlag, Leipzig 2004, ISBN 3-7462-1688-5. Elias H. Füllenbach (Hrsg.): Mehr als Schwarz und Weiß. 800 Jahre Dominikanerorden. Verlag Friedrich Pustet, Regensburg 2016, ISBN 978-3-7917-2757-8. Einzelne Epochen Wolfram Hoyer (Hrsg.): Jordan von Sachsen. Von den Anfängen des Predigerordens (= Dominikanische Quellen und Zeugnisse, Bd. 3). St. Benno Verlag, Leipzig 2002, ISBN 3-7462-1574-9. Achim Todenhöfer: Apostolisches Ideal im sozialen Kontext. Zur Genese der europäischen Bettelordensarchitektur im 13. Jahrhundert. In: Marburger Jahrbuch für Kunstwissenschaft, Bd. 34 (2007), S. 43–75. Einzelne Regionen Ingo Ulpts: Die Bettelorden in Mecklenburg. Ein Beitrag zur Geschichte der Franziskaner, Klarissen, Dominikaner und Augustiner-Eremiten im Mittelalter (= Saxonia Franciscana, Bd. 6). Coelde, Werl 1995, ISBN 3-87163-216-3. Johannes Schütz: Hüter der Wirklichkeit. Der Dominikanerorden in der mittelalterlichen Gesellschaft Skandinaviens, Vandenhoeck & Ruprecht, Göttingen 2014. Yvonne Arras: Die Dominikanerinnen und Dominikaner der Region Neckar-Alb in der Augsburger Chronik von Karl Welz OP († 1809) und Emerich Rueff OP († 1814). In: Hohenzollerischer Geschichtsverein (Hrsg.): Zeitschrift für Hohenzollerische Landesgeschichte. 51./52. Band. Sigmaringen 2015/2016. (Mit einer Edition von Teil I der Handschrift 2002/90 Bistumsarchiv Augsburg). Spiritualität Ulrich Engel (Hrsg.): Dominikanische Spiritualität (= Dominikanische Quellen und Zeugnisse, Bd. 1). St. Benno Verlag, Leipzig 2000, ISBN 3-7462-1358-4. Timothy Radcliffe: Gemeinschaft im Dialog. Ermutigung zum Ordensleben (= Dominikanische Quellen und Zeugnisse, Bd. 2). St. Benno Verlag, Leipzig 2001, ISBN 3-7462-1450-5. Thomas Eggensperger, Ulrich Engel: Dominikanerinnen und Dominikaner: Geschichte und Spiritualität . Topos-Tb, Kevelaer 2010, ISBN 978-3-8367-0709-1. Heilige und Selige Gerfried A. Bramlage OP: Die Heiligen und Seligen des Dominikanerordens. Werth, Warburg 1985. Artikel in Lexika Filme und Audio-Dateien Episode 13, Dominikaner, im Podcast Gott bewahre! Vom Wort zur Wissenschaft – Die Dominikaner. Dokumentationsreihe Te Deum – Himmel auf Erden, 3sat (Weblink). Wilfried Köpke: Die Dominikaner. Der Orden der Prediger, 30'-Film und 15'-Interview mit Ordensmeister fr. Carlos Azpiroz Costa op, DVD, Leipzig (St. Benno-Verlag) 2006, ISBN 978-3-7462-1967-7. Weblinks Portal des Dominikanerordens (englisch) Portal des Dominikanerordens in Deutschland Dominikanerprovinz Teutonia Süddeutsch-österreichische Dominikanerprovinz Schweizer Dominikanerprovinz Meister Eckhart und seine Zeit – Orden – Dominikaner Institut Chenu des Dominikanerordens in Berlin Alfonso Buenhombre Einzelnachweise Dominikaner Männerorden Bettelorden Gegründet im 13. Jahrhundert
1028
https://de.wikipedia.org/wiki/Zeit%20des%20Nationalsozialismus
Zeit des Nationalsozialismus
Die Zeit des Nationalsozialismus (auch NS-Zeit und NS-Diktatur genannt) umfasst die Zeitspanne von 1933 bis 1945, in der Adolf Hitler im Deutschen Reich eine von der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) gestützte Führerdiktatur, den NS-Staat, etablierte. Die NS-Zeit begann am 30. Januar 1933 mit der Ernennung Hitlers zum Reichskanzler und endete am 8. Mai 1945 mit der bedingungslosen Kapitulation der Wehrmacht vor den Alliierten und ihren Verbündeten. Mit seiner expansiven und rassistischen Ideologie und Politik entfesselte Hitler den Zweiten Weltkrieg, in welchem die Nationalsozialisten und ihre Helfershelfer Massenverbrechen und Völkermorde verübten. Leitbild nationalsozialistischer Gesellschaftspolitik war eine in sich geschlossene, rassisch und ideologisch gleichförmige Volksgemeinschaft von „Ariern“. Politisch Andersdenkende und Regimegegner wurden von Anbeginn der NS-Diktatur mit Mitteln des Staatsterrors verfolgt und unter anderem in Konzentrationslager gesperrt. Juden wurden diskriminiert und etwa durch die Nürnberger Gesetze systematisch entrechtet. Die radikalantisemitische Politik der Nationalsozialisten mündete in den Holocaust. Die Außenpolitik des NS-Staats war darauf gerichtet, Deutschlands Niederlage im Ersten Weltkrieg vergessen zu machen und die vorherige Großmachtstellung zu erneuern und zu erweitern. Bereits 1933 trat Deutschland aus dem Völkerbund aus; mit der Aufrüstung der Wehrmacht, der Wiedereinführung der allgemeinen Wehrpflicht 1935 sowie der Besetzung des entmilitarisierten Rheinlands 1936 wurde gegen wichtige Teile des Versailler Vertrags verstoßen. 1938 folgte der „Anschluss“ Österreichs an das Deutsche Reich. Im selben Jahr erlaubte das Münchner Abkommen Deutschland die Eingliederung des Sudetenlandes. In der Expansionsphase ab 1938 verübten Nationalsozialisten und ihre Anhänger in ganz Europa zahlreiche Verbrechen gegen die Menschlichkeit an ethnischen, religiösen und anderen gesellschaftlichen Minderheiten. Etwa sechs Millionen europäische Juden wurden im historisch beispiellosen Holocaust, bis zu 500.000 Sinti und Roma im Porajmos und etwa 100.000 Menschen mit geistigen und körperlichen Behinderungen im Rahmen der „NS-Krankenmorde“ umgebracht. Nach der Strategie des Hungerplans ließen die deutschen Besatzer in der Sowjetunion zwischen 1941 und 1944 geschätzt 4,2 Millionen Menschen bewusst verhungern, darunter etwa eine Million Menschen während der Leningrader Blockade. Rund 3,1 Millionen sowjetische Soldaten starben in deutscher Kriegsgefangenschaft. Die Ära der nationalsozialistischen Diktatur in Deutschland und über weite Teile Europas wird in einem ethisch-moralischen Sinn als Zivilisationsbruch und als Tiefpunkt der deutschen, aber auch der europäischen Geschichte insgesamt angesehen. Entstehung und Aufstieg des Nationalsozialismus Die ideologischen Vorstellungen und gesellschaftlichen Entwicklungen, die sich im Nationalsozialismus bündelten, sind als tief verwurzelt im 19. Jahrhundert anzusehen. Extrem nationalistische, rassistische, antisemitische und chauvinistische Ansichten ließen sich im 19. und 20. Jahrhundert in den meisten europäischen Staaten finden, ohne dass sie aber als repräsentativ für eine ganze Gesellschaft anzusehen seien, heißt es bei Kurt Bauer. Es habe viele Gründe, dass der Nationalsozialismus „in einem unheilvollen Moment der Geschichte“ zur Macht gelangen konnte: „Monokausale Erklärungsansätze versagen kläglich, wenn es um komplexe Ursachen und Zusammenhänge geht, die den Nationalsozialismus geschichtsmächtig werden ließen.“ Faschismus und Nationalsozialismus gingen in der Sicht Hans-Ulrich Thamers aus der Krise der europäischen bürgerlich-liberalen Ordnung und aus dem Zeitalter der Revolutionen hervor. Beide Bewegungen setzten die Ausbildung und Verfestigung der großen politischen Denkströmungen des 19. Jahrhunderts voraus: Liberalismus, Demokratie, Sozialismus und Konservatismus – und deren Verformung durch Massenmobilisierung und Massenideologie. Ihr Verhältnis zur überkommenen Staats- und Gesellschaftsordnung sei ein doppeltes: sowohl reaktionär als auch revolutionär. Thamer schreibt: Folgenreicher Erster Weltkrieg Als „Urkatastrophe des 20. Jahrhunderts“ hat George F. Kennan den Ersten Weltkrieg bezeichnet und als Auslöser sowohl der Hyperinflation als auch der Weltwirtschaftskrise, des Zweiten Weltkriegs und des Kalten Kriegs gesehen. Die politischen, sozialen und ökonomischen Bedingungen für den Aufstieg des Nationalsozialismus wurden im und durch den Ersten Weltkrieg geschaffen. Für Ian Kershaw ist „ohne den Ersten Weltkrieg und dessen Hinterlassenschaft […] das Dritte Reich nicht denkbar.“ Die Nationalsozialisten hätten das kollektive Trauma instrumentalisiert, indem sie Deutschlands Niederlage 1918 als Katastrophe deuteten, die immer weiter fortgewirkt habe. Dabei bedienten sie sich verschwörungstheoretischer Deutungsmuster wie dem von den „Novemberverbrechern“ und der Dolchstoßlegende: Juden und Sozialdemokraten seien dem angeblich siegreichen deutschen Heer mit der Novemberrevolution hochverräterisch in den Rücken gefallen. Diese These wurde von weiten Teilen der deutschen Bevölkerung geteilt und war geeignet, die Weimarer Republik nachhaltig zu delegitimieren. Zum verbreiteten Objekt nationalsozialistischer Empörung und Propaganda wurde zudem der von Siegermächten Deutschland aufgezwungene Versailler Vertrag, der von den meisten Deutschen als ungerecht empfunden wurde. Er lud Deutschland und seinen Verbündeten in Artikel 231 die Kriegsschuld auf, was als Grundlage für Reparationsforderungen diente und für klare Fronten in der Kriegsschulddebatte sorgte. Der Versailler Vertrag brachte den Verlust sämtlicher Kolonien und erheblicher Gebiete im Osten, Norden und Westen Deutschlands mit sich; das Rheinland wurde von Truppen der Siegermächte besetzt, und Deutschland unterlag strengen Rüstungsbeschränkungen. Die Höhe der zu leistenden Reparationszahlungen blieb vorerst unbestimmt; diesbezügliche Leistungen wurden 1920 bis 1923 mittels Ultimaten durchgesetzt. Die dagegen grundsätzlich aufbegehrenden Nationalsozialisten bezeichneten denn auch alle Versuche der Weimarer Regierungen, durch eine Verständigungspolitik mit Frankreich und Großbritannien den Vertrag abzumildern, als „nationalen Verrat“. Für sie war der „Kampf gegen Versailles“ das zentrale Anliegen. Auch innenpolitisch hatte der Weltkrieg verheerende Folgen, die von den Nationalsozialisten ausgenutzt werden konnten: Er war nämlich über Staatsanleihen finanziert worden, deren Käufern man eine erhebliche Rendite versprochen hatte. Stattdessen entledigte sich das Deutsche Reich durch eine Hyperinflation bis 1923 all seiner Staatsverschuldung, wodurch aber nicht nur die Anleihebesitzer, sondern auch alle Inhaber von Sparguthaben de facto enteignet wurden. Dieser Vertrauensbruch begünstigte den Aufstieg des Nationalsozialismus. Kurt Bauer hält ohne den Ersten Weltkrieg auch die bolschewistische Oktoberrevolution für kaum möglich, die in Europa eine Verschärfung und Radikalisierung der politischen Auseinandersetzung bewirkt habe: „Der gewaltige und extrem gewaltsame Umsturz der gesellschaftlichen und sozialen Verhältnisse in Russland führte zu Kriegsende und in der Nachkriegszeit zu nicht einfach als irrational abzutuenden Ängsten vor einer ähnlichen Revolution – und damit letztlich zur Neigung, in rechtsextremen, faschistischen Gruppierungen Garanten vor dem Bolschewismus zu sehen.“ Zudem wird mitunter darauf hingewiesen, dass die im Krieg erfahrenen klaren Befehlsstrukturen die Frontgeneration für die angeblichen Vorzüge eines autoritären Systems und für das Führerprinzip empfänglich gemacht hätten. Ein weiterer Faktor, der die Weimarer Republik stark belastete und der NS-Bewegung Vorschub leistete, war das Überdauern undemokratischer Traditionen in Staat und Gesellschaft: Die Novemberrevolution hatte die meisten der kaiserlichen Beamten, Richter, Universitätsprofessoren usw. in ihren Ämtern belassen. In der zu Anfang der 1930er Jahre von schweren Krisen erfassten Weimarer Demokratie aber standen diese monarchistisch und nationalistisch sozialisierten Eliten nicht entschieden auf Seiten der Demokratie, sondern zeigten sich zu einem Bündnis mit der NSDAP bereit. Der Historiker Martin Broszat urteilt, dass die NSDAP seit ihrem Aufstieg zur Massenpartei 1929/30 lediglich zusammenfasste, „was – zersplittert, aber in großer Breite – als ideologisch-politisches und als interessenpolitisches Potential längst vorgeformt war“. Zwar erweist sich Ernst Troeltschs viel zitiertes Schlagwort von der „Republik ohne Republikaner“ angesichts der Wahlergebnisse bis 1930 als falsch, doch bestand ein Manko in der Demokratiefestigkeit der Bevölkerung. Indiz dafür war bereits 1925 die Wahl des erklärten Republikgegners Paul von Hindenburg zum Reichspräsidenten. Nach seiner Wiederwahl 1932 ernannte er den dabei unterlegenen Konkurrenten Adolf Hitler am 30. Januar 1933 zum Reichskanzler. Zu den das Emporkommen der Nationalsozialisten begünstigenden Rahmenbedingungen zählte nicht zuletzt die latente und oft krisenhaft zugespitzte politische Instabilität der Weimarer Republik, die bereits in ihren Anfangsjahren mehreren Putsch- und Revolutionsversuchen ausgesetzt war. In den frühen 1930er Jahren erschütterten wiederum bürgerkriegsartige Auseinandersetzungen zwischen Angehörigen der SA und des (seit 1929 verbotenen) Roten Frontkämpferbund die öffentliche Ordnung. Die Regierung und mit ihr die demokratische Ordnung der Weimarer Republik verloren wegen des Versagens vor den Herausforderungen der Weltwirtschaftskrise massiv an Vertrauen in der Bevölkerung: Die prozyklische Deflationspolitik und die Deutsche Bankenkrise vom Sommer 1931 verschärften die Depression, bis schließlich mit fünf Millionen Arbeitslosen jede dritte deutsche Familie betroffen war. Der britische Wirtschaftshistoriker Harold James sieht den Nationalsozialismus als „Deutschlands Antwort auf die Weltwirtschaftskrise“. Gründung und Emporkommen der NSDAP bis 1933 In ihrem Gründungsjahr 1920 war die durch Umbenennung aus der Deutschen Arbeiterpartei (DAP) hervorgegangene NSDAP nur „eine von mehreren Dutzend Grüppchen im nationalistisch-völkischen Spektrum, die seit Kriegsende in München entstanden waren.“ Adolf Hitler vertrat mit dem am 24. Februar 1920 im Münchner Hofbräuhaus präsentierten 25-Punkte-Programm entschieden antidemokratische, völkisch-nationalistische und rassistische, vor allem antisemitische Positionen. Ende des Jahres erwarb die NSDAP den Münchner Beobachter und machte ihn zum Völkischen Beobachter (VB) als Parteizeitung, dem „Kampfblatt der nationalsozialistischen Bewegung Großdeutschlands“. Hitler, seit September 1919 DAP-Mitglied, erwarb sich den Ruf eines „Trommlers“ und „Einpeitschers“ der Partei und wurde 1921 auf eigenes ultimatives Verlangen hin zum „Ersten Vorsitzenden mit diktatorischer Machtbefugnis“ gewählt. Im Oktober 1921 kam es unter Einbeziehung von Mitgliedern der beim Kapp-Putsch gescheiterten Marine-Brigade Ehrhardt zur Gründung der Sturmabteilung (SA), die zunächst vor allem bei Saalschlachten zum Einsatz kam. Bei der Gründung von NSDAP-Ortsgruppen über München hinaus halfen lokale Anhänger des mitgliederstarken Deutschvölkischen Schutz- und Trutzbundes. Als nach der Ermordung Walther Rathenaus durch Mitglieder der rechtsextremistischen Organisation Consul auf Grundlage des neu geschaffenen Republikschutzgesetz zwar der Deutschvölkische Schutz- und Trutzbund im Freistaat Preußen verboten wurde (die Regierung des Freistaats Bayern sah keinen Handlungsbedarf), nicht aber die NSDAP, kam es 1922 zu einer Wanderungsbewegung innerhalb des rechtsradikalen Milieus und zur Verdoppelung der NSDAP-Mitgliedschaften. Auf dem Höhepunkt des Krisenjahres 1923 der Weimarer Republik entschloss sich Hitler, auch unter dem Eindruck zunehmender Ungeduld des eigenen Parteivolks, mit Unterstützung des vormaligen Weltkriegsstrategen Erich Ludendorff zu einem Putsch nach dem Vorbild von Mussolinis Marsch auf Rom mit dem Ziel, die Regierungen in Bayern und Berlin abzusetzen. Der von der nationalsozialistischen Propaganda so bezeichnete „Marsch auf die Feldherrnhalle“ in München wurde jedoch von der bayerischen Landespolizei niedergeschlagen, die NSDAP nun auch in Bayern verboten. Im Hitler-Prozess vor dem bayerischen Volksgericht ergingen gegen die Putschbeteiligten durchweg milde Urteile, wenn nicht Freisprüche. Hitler selbst, dem der Prozessverlauf die weithin wahrgenommene Bühne für Propaganda in eigener Sache bot, erhielt lediglich die gesetzliche Mindeststrafe von fünf Jahren Festungshaft in der Festung Landsberg. Dabei wurde ihm die Haftentlassung auf Bewährung schon nach Verbüßung von sechs Monaten in Aussicht gestellt, und die nach dem Republikschutzgesetz anzusetzende Ausweisung als Ausländer wurde erlassen. Während der Haft unter ungewöhnlich komfortablen Bedingungen diktierte Hitler seinem damaligen Sekretär und späteren Stellvertreter Rudolf Heß seine programmatische Autobiografie „Mein Kampf“. Das Verbot der NSDAP vom 23. November 1923 wurde durch die Gründung von Tarnorganisationen unterlaufen: in Bayern durch die Großdeutsche Volksgemeinschaft unter Alfred Rosenberg, der im Juli 1924 von Julius Streicher und Hermann Esser abgelöst wurde; in Norddeutschland durch die von Gregor Strasser und Erich Ludendorff geführte Nationalsozialistischen Freiheitsbewegung Großdeutschlands. Nach seiner Haftentlassung am 20. Dezember 1924 fand Hitler ein gespaltenes und geschwächtes völkisches Lager vor, das zu vereinen und nunmehr auf legalen Wegen an die Macht zu bringen, er sich allein vorbehielt. Diese Legalitätstaktik führte zu einem systemischen Konflikt mit der SA, die ein revolutionäres Vorgehen forderte. Tatsächlich gelang es Hitler aber stets, bei innerparteilichen Richtungskämpfen und Rivalitäten die Oberhand zu behalten. Der Historiker Hans-Ulrich Wehler vermutet, ohne die Person Hitler „wäre der Nationalsozialismus aller Wahrscheinlichkeit nach eine ordinäre autoritär-nationalistische Partei mit diffusen Zielen geblieben, wie es sie mancherorts gab“. Nach der Aufhebung des Verbots in Preußen am 12. Dezember 1924 – die von den Nationalsozialisten ausgehende Gefahr schien für diese schärfste Sanktion nicht mehr groß genug – wurde die NSDAP am 27. Februar 1925 im Münchner Bürgerbräukeller mit Hitler als einzigem Redner neu gegründet. In der zweistündigen Rede, die er mit den bekannten ideologischen Versatzstücken begann, erklärte Hitler schließlich, sich in seinem Führungsanspruch von Fraktionen oder Flügeln keinerlei Bedingungen vorschreiben zu lassen „und inszenierte anschließend geschickt die Versöhnung der in seiner Abwesenheit heillos Zerstrittenen auf offener Szene“. Die Rede hatte allerdings auch zur Folge, dass die bayrische Regierung ein Redeverbot gegen Hitler erließ, dem sich zahlreiche andere Länderregierungen anschlossen und das bis März 1927 galt, in Preußen bis September 1928. In dieser Phase der relativen Stabilisierung der Weimarer Republik blieb die NSDAP eine randständige Splitterpartei. Der 1929 im Ergebnis gescheiterte Volksentscheid gegen den Young-Plan, der der nationalsozialistischen Agitation breite Entfaltung bot, und die mit wachsender Massenarbeitslosigkeit nach Deutschland übergreifende Weltwirtschaftskrise waren wichtige Bedingungsfaktoren des enormen Mandatszuwachses der NSDAP bei der Reichstagswahl 1930. Hinsichtlich des Spektrums potenzieller Wähler, das unter anderen Arbeiter, Mittelstand und Landwirte umfasste, war die NSDAP ungewöhnlich breit aufgestellt; sie war in einer Formulierung des Parteienforschers Jürgen W. Falter eine „Volkspartei des Protests“. Im Ulmer Reichswehrprozess gegen Offiziere der Reichswehr, denen die Verbreitung von nationalsozialistischer Propaganda vorgeworfen wurde, bezeugte Hitler im Herbst 1930 in seinem öffentlichkeitswirksamen sogenannten Legalitätseid, dass er die Macht „nicht mit illegalen Mitteln“ anstrebe, und trat damit Gerüchten über einen neuerlichen Putsch entgegen. Doch verlagerte sich die politische Auseinandersetzung auch wegen der rückläufigen Handlungsfähigkeit des Reichstags in der nach der Reichstagswahl 1930 beginnenden Ära der Präsidialkabinette mehr und mehr in den außerparlamentarischen Raum. Die Wehrverbände der Parteien – die SA der NSDAP, der der DNVP nahestehende Stahlhelm, der an die KPD angelehnte, seit 1929 verbotene Rotfrontkämpferbund, das sozialdemokratisch dominierte Reichsbanner Schwarz-Rot-Gold – begegneten sich in militant ausgetragenen Konflikten auf den Straßen und in den Versammlungssälen. Im Oktober 1931 gingen die Nationalsozialisten in der Harzburger Front ein Bündnis mit dem Stahlhelm und der Deutschnationalen Volkspartei (DNVP) ein, das im Streit um die Reichspräsidentenwahl 1932 aber rasch wieder zerfiel. Der bis dahin staatenlose Hitler bekam mit der Einbürgerung die Möglichkeit, zu kandidieren, während die DNVP den Stahlhelm-Führer Theodor Duesterberg unterstützte. Hindenburg setzte sich erneut durch. In den beiden Reichstagswahlen im Juli und im November des Jahres 1932 ging die NSDAP als mit Abstand stärkste Fraktion hervor. Nationalsozialisten und Kommunisten hatten als extreme Flügelparteien nun eine negative Mehrheit im Reichstag, die jede parlamentarische Arbeit unmöglich machte. Hitler beanspruchte in Gesprächen mit Hindenburg über eine mögliche Regierungsbeteiligung der Nationalsozialisten für sich unnachgiebig die Kanzlerschaft; die angebotene Vizekanzlerschaft lehnte er ab. Hindenburg weigerte sich lange, Hitler als Kanzler einzusetzen und gab auch nach Papens zweifachem Scheitern noch Kurt von Schleicher für eine Verständigung mit dem Reichstag den Vorzug vor Hitler. Als auch von Schleicher im Reichstag keinen Rückhalt fand, empfahl dieser selbst im Zusammenwirken mit anderen Vertrauenspersonen des nun 86-jährigen Paul von Hindenburg die Ernennung Hitlers zum Reichskanzler. Anders als in der marxistischen Geschichtswissenschaft in der Agententheorie lange angenommen, trugen die Spenden der Großindustrie wenig zum Aufstieg der NSDAP bei. Die Partei finanzierte sich vor 1933 weitgehend selbst. Erst nach der Machtergreifung spendeten die Industriellen großzügig, z. B. die Adolf-Hitler-Spende der deutschen Wirtschaft. Etablierung des Regimes 1933/34 Bei der Bildung des Kabinetts Hitler waren unter den zwölf Mitgliedern außer ihm selbst nur zwei weitere Nationalsozialisten vertreten: Wilhelm Frick und Hermann Göring. Der DNVP-Vorsitzende Alfred Hugenberg und Vizekanzler Franz von Papen meinten, sich Hitler für ihre eigenen Zwecke „engagiert“ zu haben. Papen bügelte Zweifler ab: „Was wollen Sie denn! Ich habe das Vertrauen Hindenburgs. In zwei Monaten haben wir Hitler in die Ecke gedrückt, dass er quietscht.“ Der französische Botschafter André François-Poncet, der von vornherein anderer Meinung war, stellte ein halbes Jahr nach dem Beginn von Hitlers Kanzlerschaft fest, dass der Nationalsozialismus bei der Machtergreifung binnen fünf Monaten eine Wegstrecke zurückgelegt hatte, für die der italienische Faschismus unter Mussolini zuvor fünf Jahre gebraucht habe. Hindenburg löste nach ergebnislosen Scheinverhandlungen Hitlers mit dem Zentrum zur Bildung einer Mehrheitsregierung den Reichstag am 1. Februar 1933 erneut auf und setzte Neuwahlen an. In der Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes vom 4. Februar wurden erste Notverordnungen erlassen, die vor allem gegen Kommunisten und Sozialisten gerichtet waren und die Presse-, Meinungs- sowie Versammlungsfreiheit einschränkten. Unmittelbar nach dem Reichstagsbrand vom 27. Februar 1933 erließ Hindenburg die Reichstagsbrandverordnung, die diese Grundrechte der Verfassung noch stärker beschnitt. Viele Mitglieder der KPD, der SPD und der kleineren kommunistischen und sozialistischen Parteien sowie der freien Gewerkschaften wurden misshandelt und in „Schutzhaft“ genommen. Überall im Reich entstanden in Turnhallen, Scheunen oder Kellern provisorische Haftorte der SA, in denen politische Gegner festgehalten und gefoltert wurden. Ein erstes Konzentrationslager des später dann planmäßig und zentralstaatlich eingerichteten Lagersystems der SS wurde in Dachau errichtet. Zahlreiche Inhaftierte überlebten die Haftbedingungen nicht, zu denen auch Folter und Mord gehörten. Bei der von SA-Terror begleiteten Reichstagswahl am 5. März 1933 verfehlte die NSDAP die absolute Mehrheit. Daran änderte sich auch nichts, als man die von der KPD gewonnenen Sitze vor der ersten Sitzung des neuen Reichstags annullierte. Hitler musste weiter in einer Koalition mit der DNVP regieren. Das Ermächtigungsgesetz vom 24. März 1933, dem auch die Abgeordneten der anderen Parteien außer der SPD zustimmten, gab seiner Regierung zunächst für vier Jahre fast uneingeschränkte Gesetzgebungsbefugnisse. Mit dem Gesetz gegen die Neubildung von Parteien vom 14. Juli 1933 wurde die NSDAP die einzige zugelassene Partei in Deutschland. Die DNVP löste sich selbst auf, ihre Abgeordneten traten der NSDAP bei. Zur Reichstagswahl am 12. November 1933 wurde lediglich eine Einheitsliste aus NSDAP-Mitgliedern und ausgesuchten Gästen vorgelegt. Der deutsche Reichstag blieb erhalten, war aber bis 1945 ein Scheinparlament. Siehe dazu auch Wahlrecht in der Zeit des Nationalsozialismus. Mit dem Gleichschaltungsgesetz verloren die Länder alle hoheitlichen Aufgaben sowie ihre von der Weimarer Verfassung garantierte Eigenständigkeit an die bald danach allein im „Führerwillen“ zum Ausdruck kommende nationalsozialistische Zentralgewalt. Ähnliche Maßnahmen betrafen bis Ende 1934 die meisten Vereine, Verbände und Gewerkschaften, die Handwerkerschaft, Studentenverbindungen, Medien, Kultureinrichtungen und die Justiz. Parteiorganisationen der NSDAP übernahmen in vielen Bereichen die vormaligen Aufgaben staatlicher Stellen und nichtstaatlicher Interessenverbände. Als zur Jahresmitte 1934 die von fortgesetzter revolutionärer Ungeduld und eigenem Geltungsbedürfnis getriebene SA-Führung unter Ernst Röhm dem auf Konsolidierung seiner Machtposition und Interessenausgleich mit der Reichswehrführung bedachten Hitler lästig wurde, ließ dieser im Einvernehmen mit Himmler, Goebbels und Göring unter dem erfundenen Vorwand eines angeblich bevorstehenden Röhm-Putsches mit Hilfe von SS-Getreuen Röhm und seine Entourage sowie weitere persönliche Gegner ermorden – sich selbst dabei als oberster Gerichtsherr und Wiederhersteller geordneter Verhältnisse inszenierend. Damit sicherte er sich die Unterstützung der Reichswehrführung, sodass nach dem bevorstehenden Tod Hindenburgs auch Hitlers schon vorbereiteter Zusammenlegung von Kanzlerschaft und Reichspräsidentschaft nichts mehr im Wege stand. Indem Hitler zugestand, die Reichswehr werde künftig als einziger Waffenträger im Reich verbleiben, konnte er sich nun problemlos zu ihrem Oberbefehlshaber machen. Nach Hindenburgs Tod am 2. August 1934 übernahm Hitler aufgrund eines von seiner Regierung beschlossenen Gesetzes das Amt des Reichspräsidenten und gab sich den Titel Führer und Reichskanzler. Durch ein Plebiszit (Volksabstimmung) ließ er sich sein Vorgehen nachträglich bestätigen. Der Kriegsminister Werner von Blomberg, den Hindenburg noch vor Hitler ernannt hatte und der mit anderen dessen Macht nach den Vorstellungen der Konservativen hatte „einrahmen“ bzw. „zähmen“ sollen, ließ die Reichswehr nun auf Hitlers Person vereidigen. Auch die Beamten mussten einen „Führereid“ ablegen. Mit dem Gesetz zur Wiederherstellung des Berufsbeamtentums als Grundlage wurden regimekritische Mitarbeiter aus den öffentlichen Verwaltungen entfernt. Damit hatte Hitler seine Herrschaft innenpolitisch durchgesetzt, stabilisiert und dauerhaft abgesichert. Vorkriegsjahre 1934 bis 1939 Attribute und Ausrichtung der NS-„Volksgemeinschaft“ Dem propagierten Anspruch nach sollten in der NS-Volksgemeinschaft alle gesellschaftlichen Unterschiede aufgehoben sein. Man versprach, alte soziale Gegensätze aufzulösen und eine nationale Massengesellschaft zu schaffen. Dabei standen soziale Beziehungen auch im nichtöffentlichen Bereich unter fortwährender Anspannung. „Das Private konnte Rückzugsraum sein, gleichzeitig unterstand es dem dauernden Anspruch, das eigene Verhalten neu auszurichten und bisherige Grenzen zwischen privatem und öffentlichem Leben einzureißen. Der Nationalsozialismus forderte eine permanente Entscheidung, sich angemessen im Sinne der Volksgemeinschaft zu verhalten.“ Ein wesentliches Instrument zur Herbeiführung der Volksgemeinschaft nationalsozialistischer Denkart war Gewalt. Sie war ein wichtiger Bestandteil des nationalsozialistischen Selbstverständnisses und des Aufstiegs der Bewegung. Sie bildete „eine zentrale Säule“ der politischen Ordnung seit 1933, und laut Dietmar Süß gehörte es „zu den Wesensmerkmalen der NS-Herrschaft, staatliche und parteiamtliche Gewalt immer weiter zu entgrenzen.“ Schon während der ersten Monate der Regierung Hitler, so auch Riccardo Bavaj, vollzog sich mittels Gewalt die Ausweitung der nationalsozialistischen Macht in einer „wechselseitigen Dynamik von oben und unten“. Gewalt blieb auch das stets verfügbare Mittel der Wahl all denen gegenüber, die den politischen und ethnisch-rassistischen Feindbildern der Nationalsozialisten entsprachen und demzufolge der NS-Volksgemeinschaft nicht angehören sollten. Schon vor 1933 publizierte die NSDAP beispielsweise Listen, Verzeichnisse und teils Stadtpläne, die entweder den Weg zu „deutschen“ Geschäften oder die Lage „jüdischer“ Geschäfte markierten. Das sollte die deutsche Hausfrau dazu anhalten, die richtige Kaufentscheidung zu treffen. Das besondere Augenmerk der Nationalsozialisten galt der Jugend, ihrer umfassenden sozialen Kontrolle, indoktrinierenden Erfassung und Mobilisierung, während die erzieherische Rolle der Eltern zurückgedrängt wurde, soweit das eben möglich war. „Macht und Konsens in Hitlers Staat“, so Thamer, „beruhten zu einem großen Teil darauf, daß das Regime immer wieder jugendliche Begeisterungsfähigkeit und Aggressivität freizusetzen und diese gleichzeitige zu disziplinieren und zu manipulieren verstand.“ Propaganda und Personenkult Die Bedeutung der NS-Propaganda für die Erreichung der selbstgesetzten Ziele hatte Hitler bereits in der Neugründungsphase der NSDAP 1925 hervorgehoben: Die Partei sei kein Selbstzweck, sondern solle nur „den politisch-agitatorischen Kampf der Bewegung ermöglichen, der Aufklärungstätigkeit diejenigen organisatorischen Voraussetzungen schaffen, die unbedingt nötig sind.“ In Mein Kampf forderte er mittels Propaganda die Gewinnung von Menschen für die Parteiorganisation, die wiederum andere Menschen für die Fortführung der Propaganda mobilisieren sollten. Es gehe darum, den „bestehenden Zustand“ zu zersetzen und die neue Lehre zu verbreiten. Der Sieg sei möglich, „wenn die neue Weltanschauung möglichst allen Menschen gelehrt und, wenn nötig, später aufgezwungen wird.“ Das im März 1933 geschaffene Reichsministerium für Volksaufklärung und Propaganda unter Joseph Goebbels bekam die Zuständigkeit „für alle Aufgaben der geistigen Einwirkung auf die Nation, der Werbung für Staat, Kultur und Wirtschaft, der Unterrichtung der in- und ausländischen Öffentlichkeit über sie und der Verwaltung aller diesen Zwecken dienenden Einrichtungen.“ Mehrere hundert Beamte waren laut Thamer allein damit beschäftigt, die täglichen Presseanweisungen für das in seiner numerischen Vielfalt weitgehend fortbestehende deutsche Zeitungswesen zu formulieren und ihre Einhaltung zu überwachen. Tag für Tag erhielten die Vertreter der Zeitungen die vorgefilterten Informationen nebst Anweisungen, wie davon Gebrauch zu machen war. Als weiteres wichtiges Verbreitungsmedium der politischen Propaganda des Regimes dienten der Hörfunk und der eigens dafür entwickelte Volksempfänger, der massenhafte Verbreitung fand und mit dem das Radiohören – dem propagierten Anspruch nach – nicht mehr Privatangelegenheit jedes einzelnen sein, sondern zur „staatspolitischen Pflicht“ werden sollte. Von 25 Prozent aller Haushalte 1933 stieg die Abdeckungsquote mit Radiogeräten auf 65 Prozent 1941, wobei ländliche Regionen und einkommensschwache städtische Haushalte teils weiterhin keinen Rundfunkempfang hatten. Kernbestandteil der NS-Propaganda war der Personenkult um Hitler. Im öffentlichen Alltagsleben besonders sichtbar wurde dies, nachdem seit Juli 1933 für alle Reichsbehörden, Reichsstatthalter und die Landesregierungen der Hitlergruß verpflichtend geworden war, den man so als „deutschen Gruß“ von der Partei auf das gesamte öffentliche Leben übertrug, so auch auf die Schulen, wo Lehrer zu Beginn jeder Unterrichtsstunde die Klasse mit „Heil Hitler“ begrüßen sollten. In Städten brachte man teilweise an Strommasten, Laternenpfählen, Geschäften und Haustüren kleine Emailleschilder an mit Aufschriften wie zum Beispiel: „Der Deutsche grüßt: Heil Hitler!“, oder auch: „Volksgenosse, trittst Du ein, soll Dein Gruß ,Heil Hitler‘ sein!“ Ein weiteres Element des Hitlerkults war das jährliche Begängnis des Führergeburtstags am 20. April. Am Vorabend fand reichsweit der Eintritt der neuen Jahrgänge in die Hitlerjugend statt; am Tag selbst wurden allerorts Vereidigungen, Mitgliederaufnahmen und die Verleihung von Auszeichnungen vorgenommen. Damit fügte sich der 20. April in den NS-spezifischen Kalender von Feiern, Festen und Gedenktagen ein, deren Auftakt an jedem 30. Januar der „Tag der Machtergreifung“ war. Am 24. Februar fand jeweils die „Parteigründungsfeier“ statt, zur Märzmitte der Heldengedenktag; am 1. Mai wurde der „Tag der nationalen Arbeit“ begangen, bald danach der Muttertag mit Ehrungen für die Heldinnen der „Gebärschlacht“. Am 21. Juni feierte man die Sommersonnenwende mit Feuerrädern und Feuerreden und Anfang September gab es alljährlich den Reichsparteitag in Nürnberg, das höchste Fest der NSDAP, 1933 ein fünftägiges, 1938 ein achttägiges Begängnis, das an Pracht- und Machtentfaltung alle anderen Veranstaltungen des NS-Kalendariums noch überbot. „Die Magie der Fahnen und Fackeln, der Massenrituale und des Führerkults, der Todesverklärung und Treueschwüre betäubte alle Sinne und befriedigte älteste Schauergelüste.“ Ende September oder Anfang Oktober wurde das dem „Nährstand“ gewidmete Reichserntedankfest auf dem Bückeberg bei Hameln ebenfalls als Massenveranstaltung gefeiert, 1933 mit 500.000 Menschen, 1937 mit mehr als 1,3 Millionen. Am 9. November beging Hitler mit seinem Gefolge in München den Tag zum Gedenken an die „Gefallenen der Bewegung“: Gemeinsam mit den „Alten Kämpfern“ marschierte Hitler hinter der „Blutfahne“ zwischen anderen Fahnen und brennenden Opferschalen, um auf diese Weise das Scheitern des Putsches von 1923 in einen Triumph zu verwandeln und die Gefallenen der Bewegung „zu Religionsstiftern eines neuen Staatskults“ zu erheben: „Das Blut, das sie vergossen haben, ist Taufwasser geworden für das Reich.“ Am Ende des NS-Festkalenders lagen im Dezember die Feier der Wintersonnenwende und die „Volksweihnacht“, durch deren NS-spezifische Abwandlungen die christliche Weihnacht zurückgedrängt werden sollte, was allerdings nur in parteinahen Kreisen einigen Erfolg hatte. Sozialpolitik Während die kommunistisch und sozialdemokratisch orientierten Teile der Arbeiterschaft durch Gewalt und Repression einerseits binnen weniger Monate der NS-Herrschaft ihre politische und gewerkschaftliche Vertretung einbüßten – ersatzweise wurde die Deutsche Arbeitsfront (DAF) unter Robert Ley gegründet und das Arbeitsleben in den Betrieben nach dem Führerprinzip organisiert –, ging es andererseits für die Nationalsozialisten darum, die Masse der Lohnabhängigen für ihre Vorstellungen von einer neuen, rassenexklusiven Volksgemeinschaft zu gewinnen. Neben dem 1. Mai wurden noch weitere bezahlte Feiertage geschaffen und wurde der bezahlte Urlaub ausgeweitet. Man sorgte für die steuerliche Entlastung niedriger und mittlerer zulasten höherer Einkommen, stellte Schuldner gegenüber Gläubigern besser und legte beim Mieterschutz nach. Nachhaltige Popularität gewannen die freizeitpolitischen Maßnahmen des Regimes unter dem Dach der NS-Gemeinschaft „Kraft durch Freude“ (KdF), die an das Beispiel der faschistischen Opera Nazionale Dopolavoro in Italien anknüpfte. In Hitlers Gründungsaufruf hieß es: „Ich will, daß dem deutschen Arbeiter ein ausreichender Urlaub gewährt wird. Ich wünsche dies, weil ich ein nervenstarkes Volk will, denn nur mit einem Volk, das seine Nerven behält, kann man wahrhaft große Politik machen.“ Mit der Verlängerung der tariflich geregelten jährlichen Urlaubszeit von drei Tagen im Jahr 1933 auf sechs bis zwölf Tage wurde eine Reisemöglichkeit für alle geschaffen. Da die Mitgliedschaft in der DAF die in der KdF einschloss, war die gesellschaftliche Breitenwirkung gegeben. Die Preise waren laut Thamer konkurrenzlos billig, sowohl für eine Wochenendfahrt in den Bayerischen Wald als auch für eine Kreuzfahrt nach Italien. Dies war möglich durch eine strenge Rationalisierung, durch Zuschüsse aus DAF-Mitteln und durch Preisdiktate gegenüber dem Beherbergungsgewerbe. Die Teilnehmerzahl an KdF-Urlaubsfahrten stieg von 2,3 Millionen 1934 auf 10,3 Millionen im Jahr 1938. Gleichwohl gehörte nur jeder dritte bis vierte Teilnehmer einer KdF-Reise zur Arbeiterschaft; Hauptnutznießer waren die Mittelschichten. Mit dem Schlagwort „Kultur für alle“ wurden im KdF-Rahmen einerseits Konzerte und Theaterstücke in die Fabriken gebracht und andererseits finanzielle und gesellschaftliche Hürden etwa hinsichtlich der Kleiderordnung aufgehoben, die Arbeiter am Betreten von Konzertsälen und Schauspielhäusern gehindert hatten. So wurden schließlich auch größere Kontingente an Eintrittskarten für die Bayreuther Festspiele zu günstigen Preisen einem Arbeiterpublikum angeboten. Als wesentliches Instrument zur Mobilisierung des NS-Gemeinschaftsgefühls sieht Burleigh die Nationalsozialistische Volkswohlfahrt (NSV) an, der Hitler im Mai 1933 die Zuständigkeit für „alle Fragen der Volkswohlfahrt und der Fürsorge“ unter der Leitung von Erich Hilgenfeldt zusprach. Die daneben noch weiter bestehenden kirchlichen Wohlfahrtsverbände und das Deutsche Rote Kreuz wurden Zug um Zug der NSV unterstellt, die bis 1939 zur größten NS-Massenorganisation nach der DAF aufstieg – mit über achtzigtausend Angestellten und einer Million ehrenamtlicher Helfer. Durch Mitgliederbeiträge und massenhafte Sammelaktionen verfügte sie über enorme Finanzmittel. Dabei ging es den Nationalsozialisten speziell um Pflicht und Opfer für das Wohlergehen der Gemeinschaft und um ein aktivistisches Klima in ihrem Dienst. Dies galt ebenso für das der NSV beigeordnete Winterhilfswerk des Deutschen Volkes (WHW) als soziales Nothilfeprogramm für die härtesten Monate des Jahres. Hierbei wurde die Solidarität der Bessergestellten demonstrativ eingefordert, speziell durch den Eintopfsonntag an jedem ersten Sonntag des Monats in der Winterzeit, wobei die für eine üppigere Mahlzeit eingesparten Mittel an das WHW abgeführt werden sollten. Die von NSV, KdF, WHW und anderen NS-Organisationen ausgehenden Aktivitäten, wie zum Beispiel Massentourismus und Eintopfessen, wirkten laut Thamer hin „auf eine psychologische Egalisierung und eine Veränderung der sozialen Gefühlswelt. Die Beschwörung der Volksgemeinschaft und die egalisierende Wirkung von Massenkonsum und industrieller Massenkultur verstärkten einander. Zwar blieb die nationalsozialistische Volksgemeinschaft ein Mythos, aber auch Mythen haben eine verändernde Kraft, vor allem, wenn sie sich der Suggestion des technischen und zivilisatorischen Fortschritts bedienen.“ Frauenrolle und Familienfunktion Frauen waren in der NS-Volksgemeinschaft ideologisch vor allem dazu bestimmt, im Rahmen einer „Kameradschaft der Geschlechter“ ihren Part in Ehe, Familie und Haushalt auszufüllen. So betonte Hitler in einer Rede vor der NS-Frauenschaft, das Gelingen der NS-Volksgemeinschaft werde nur durch den Einsatz von Millionen „fanatischer Mitkämpferinnen“ ermöglicht, die sich dem Dienst der gemeinsamen Lebenserhaltung widmeten. Damit wurde die Ehe zu einem „Ort leistungsorientierter Arterhaltung“ gemacht. Sie wurde durch ein Ehestandsdarlehen gefördert unter der Voraussetzung, dass ein „Eheeignungszeugnis“ die „Eheeignung“ und „Ehetauglichkeit“ feststellte. Prüfkriterien waren Fortpflanzungsfähigkeit, Erbgesundheit sowie Sozial- und Erziehungskompetenz jeweils im Sinne der NS-Volksgemeinschaft. „In einem Umfang wie nie zuvor verschaffte sich der Staat auf dem Wege amtsärztlicher Untersuchungen Zugang zur Körperlichkeit eheschließender und jungvermählter Männer und Frauen.“ Vier Kinder pro Familie, so die NS-Programmatik, sollten das Überleben des Volkes sichern. „Am intimen Ort der Ehe patrouillierten nun auch die Bevölkerungsplaner und Familienrichter des Dritten Reiches.“ Das zinslos gewährte Ehestandsdarlehen in Höhe von 500 bis 1.000 Reichsmark war bei der Einführung auch an die Erwerbslosigkeit der Frau geknüpft. Mit jedem Kind, das die Frau gebar, wurde ein Viertel des Darlehensbetrags erlassen, sodass das Darlehen nach der vierten Geburt „abgekindert“ war. Mit der Aufwertung des Muttertags und der Einführung des Ehrenkreuzes der Deutschen Mutter sollten weitere Anreize die Gebärfreudigkeit fördern. Das am 28. Februar 1934 geschaffene Hilfswerk Mutter und Kind – Goebbels erklärte im Geleitwort zur Gründung: „Mutter und Kind sind das Unterpfand für die Unsterblichkeit eines Volkes“ – sah unmittelbare Hilfen zur Beseitigung materieller Notstände vor, so die Beschaffung von Wäsche und Ernährungsbeihilfen. Auch die Betreuung vorschulpflichtiger Kinder und die Verschickung von Müttern in Erholungsheime gehörten zu den möglichen Leistungen, wobei die Auswahl wiederum unter „erbbiologischen“ Gesichtspunkten erfolgte. Zwar nahmen Eheschließungen und Geburten in den ersten Jahren der NS-Herrschaft tatsächlich zu; doch den Trend zu kleineren Familien konnten die Nationalsozialisten gleichwohl nicht brechen: Durchschnittlich 2,3 Kinder waren in den 1920 geschlossenen Ehen noch geboren worden; in den 1930 geschlossenen 2,2 Kinder; in denen des Kriegsjahres 1940 aber im Schnitt nur noch 1,8 Kinder. 1941 wurde die Produktion von Verhütungsmitteln verboten. Auf Schwangerschaftsabbrüche stand ab 1943 die Todesstrafe. Ebenfalls entgegen den ideologischen Vorgaben kam es in der NS-Zeit nicht zu einem Rückgang der Frauenerwerbstätigkeit. Zwischen 1933 und 1939 stieg die Anzahl weiblicher Erwerbspersonen um 1,3 Millionen. Vermindert wurde der Frauenanteil allerdings im Bereich der akademischen Berufe und bei den Verwaltungsbeamtinnen. An Universitäten begrenzte ein Numerus clausus ab 1933 den Anteil der weiblichen Studienanfänger auf 10 Prozent. Hitler verfügte 1936 persönlich, dass Frauen weder Richterinnen noch Anwältinnen werden durften. Als sich unter den Bedingungen der auf Krieg zusteuernden NS-Wirtschaft die Ausschöpfung des Arbeitskräftepotenzials als vordringlich darstellte, wurde 1937 das Beschäftigungsverbot für Ehefrauen als Bedingung für ein Ehestandsdarlehen aufgehoben. Erziehungswesen Eine der nationalsozialistischen Leitvorstellungen besagte, dass die Zukunft denen gehöre, die die Jugend hinter sich hätten. Mittels Einbettung in das NS-Organisations- und Indoktrinationsgefüge – vom Jungvolk über die Hitlerjugend (HJ) bis zu den diversen NS-Erwachsenenverbänden und -Massenorganisationen sollten die Heranwachsenden Hitler zufolge lückenlos zu „ganzen Nationalsozialisten“ geformt werden. Eventuelle Überreste „an Klassenbewußtsein oder Standesdünkel“ übernehme schließlich die Wehrmacht zur weiteren Behandlung, „und wenn sie dann nach zwei, drei oder vier Jahren zurückkehren, dann nehmen wir sie, damit sie auf keinen Fall rückfällig werden, sofort wieder in die SA, SS und so weiter, und sie werden nicht mehr frei ihr ganzes Leben.“ Bereits die frühkindliche Erziehung zielte zeitgenössischen Ratgebern zufolge auf starke Reglementierung in zeitlicher und emotionaler Hinsicht: streng getakteter Nahrungsaufnahme- und Schlafrhythmus, Sauberkeitserziehung mit Prügelstrafe und Abhärtung in rauer Umwelt. Schon für die Kleinkinder gab es nationalsozialistische Kindergärten mit ausgebildeten Erziehern; für uneheliche oder überzählige Kinder gab es die Einrichtung Lebensborn, wo sie in staatlichen Heimen erzogen wurden. Die Zielvorstellungen der NS-Erziehung in den weiteren Entwicklungsstadien der Heranwachsenden waren auf Gefolgschaftstreue statt auf Denkfähigkeit gerichtet, auf Glauben und Hingabe anstelle von Aufklärung und Einsicht. Als zentrale Werte wurden Ehre, Deutschtum, Blut und Boden, dazu das Herrentum der arischen Rasse vermittelt sowie Verachtung und Hass gegen angebliche „Volksschädlinge“ aller Art geschürt. Elternhäuser und Schulen wurden diesbezüglich unter Anpassungsdruck gesetzt. Hitlers Parole von der „Heranzüchtung kerngesunder Körper“ wurde durch eine Ausweitung des Sportunterrichts aufgenommen. Speziell die Lehrpläne der Schulfächer Biologie, Erdkunde, Geschichte und Deutsch wurden mit antisemitischen und rassenideologischen Akzenten versehen. Die Dienstpflicht der Jugendlichen in der HJ, der NS-Grundsatz, dass Jugend durch Jugend geführt und erzogen werden sollte, sowie die Einführung des Staatsjugendtags, der HJ-Mitglieder samstags vom Schulbesuch zugunsten des HJ-Dienstes freistellte, bedeuteten eine Schwächung der schulischen Erziehungsfunktion, zumal das jugendliche Führungspersonal mitunter noch weitergehende dienst- und schulungsbedingte Sonderbefreiungen vom Schulbesuch geltend machte. Teils im Widerspruch zum NS-Frauenbild wurden solche Sonderrechte aber auch von BDM-Aktivistinnen in Anspruch genommen. Auch sie verbrachten ihre Freizeit politisch organisiert außer Haus. „Der Totalitätsanspruch“, heißt es bei Thamer, „mit dem die Erziehung zur ‚rassenbewußten‘ und ‚erbgesunden‘ deutschen Frau und Mutter bis in den letzten Winkel des Reiches getragen wurde“, habe die Mädchen aus der traditionellen Enge von Haushalt, Familie, Kirche und Schule herausgeführt. „In der Provinz kamen schon der Mädchensport und das Tragen von Sportkleidung einem revolutionären Einbruch der Moderne gleich.“ Gleichwohl gelangte das NS-Erziehungswesen im Schulbereich hinsichtlich einer vollständigen ideologischen Durchdringung auch an Grenzen des Einflusses. Dabei spielten Beharrungskräfte des Bildungsföderalismus ebenso eine Rolle wie eine weitgehende Kontinuität des deutschen Lehrerpersonals zwischen 1933 und 1939. Deshalb blieb es an manchen Schulen bei einem den weltanschaulichen Vorgaben des NS-Apparats eher gleichgültig bis vorsichtig distanziert begegnenden Binnenklima. Andererseits stellten die der Ausbildung von NS-Führungskadern dienenden Nationalpolitischen Erziehungsanstalten (Napolas) und Adolf-Hitler-Schulen insgesamt nicht mehr als ein bis zwei Prozent eines Abiturjahrgangs. Sport In der Weimarer Zeit gab es zwar separate Sportorganisationen der Kommunisten, der Sozialdemokraten, der Katholiken, der Protestanten, aber keine nationalsozialistischen. Bei Gregor Strasser als dem Organisationsleiter der NSDAP wurde daher im Herbst 1932 angefragt, ob man eine solche gründen solle. Er schrieb, es sei hierfür zu spät so etwas vernünftig zu machen, die Zeit bis zur Machtübernahme sei zu kurz, man würde den faschistischen Weg des Staatssports wie in Italien gehen. Da sich keine Persönlichkeit der NSDAP als potenzieller Reichssportführer hervorgetan hatte, wurde daher Hans von Tschammer und Osten ausgewählt, der als gewaltbereiter Kommissar in Mitteldeutschland für die Aufgabe seiner marodierenden SA-Leute entschädigt werden musste. Die Sportpolitik verlief in mehreren Schritten: Im Frühjahr 1933 wurden Juden und Demokraten aus den Vereinen und Verbänden herausgedrängt, Arbeitersportorganisationen wurde geschlossen, eine Einheitssportorganisation mit Gleichschaltung wurde gegründet. Im Sommer folgte die Aufnahme des Betriebssports in „Kraft durch Freude“, im Herbst wurde der Fokus auf die Olympischen Spiele 1936 gelegt. Im Sommer 1936 folgte die Schließung der kirchlichen Sportorganisationen sowie die Durchführung der Olympischen Spiele. Die gesamte sportliche Jugendarbeit wurde fortan von der Hitlerjugend (HJ) übernommen. 1938 erfolgte die Übernahme der Sportorganisationen durch die NSDAP (NSRL). Jüdische Vereine wurden verboten. Der Sport erlebte während der nationalsozialistischen Diktatur eine „Aufwertung wie nie zuvor in der Geschichte. Vor allem die junge Generation wurde in der Schule und in der HJ in einem Ausmaß sportlich gedrillt, das beispiellos war.“ Körperliche Fitness galt als Grundlage militärischer Leistungsfähigkeit. Zudem sahen die Nationalsozialisten im Sport ein Instrument, um militärische Tugenden wie Härte, Mut und Disziplin zu fördern. Und schließlich war Sport auch ein Mittel, um die Volksgesundheit zu stärken. Daher erfuhr auch der Frauensport im NS-Staat einen kräftigen Aufschwung. Kulturpolitik Das kulturelle Leben war geprägt von der Politik und diente propagandistischen Zwecken. Die meisten Werke entstanden von regimekonformen Künstlern und dienten der NS-Propaganda oder vermittelten zumindest die Auffassungen der Nationalsozialisten. So wurden häufig eine von der modernen Technik unberührte landwirtschaftliche Idylle oder auch germanische Götter dargestellt. Die bildende Kunst war antimodernistisch und folgte einem Konzept des Realismus des 19. Jahrhunderts, in dem beispielsweise heroisch überzeichnete Motive oder solche von kleinbürgerlicher Idylle im Vordergrund standen. Pathetische Darstellungen im Sinne der nationalsozialistischen Ideologie verklärten die landwirtschaftliche Arbeit (Blut-und-Boden-Ideologie), Mutterschaft oder den Krieg. In der Bildhauerei und der Architektur standen monumentale Darstellungen, die sich wesentlich am Klassizismus orientierten, oft im Vordergrund. Moderne Kunst wie beispielsweise Bilder aus den Bereichen Neue Sachlichkeit oder aus dem Expressionismus wurden als „entartet“ verurteilt und verbrannt, die Schöpfer der Werke zunächst deklassiert, dann verfolgt. Siehe auch: Entartete Kunst, Architektur im Nationalsozialismus, Nationalsozialistische Filmpolitik, Bücherverbrennung 1933 in Deutschland, Reichsmusikkammer, Literatur in der Zeit des Nationalsozialismus, Liste verbotener Autoren während der Zeit des Nationalsozialismus Judenausgrenzung und Judenverfolgung Die Entrechtung und Verfolgung der deutschen Juden begann direkt nach Hitlers Machtübernahme, zunächst mit gezieltem Straßenterror der SA. Ab März 1933 wurden jüdische Ärzte, Rechtsanwälte, Apotheker, Bademeister usw. aus ihren Freiberufen gedrängt, von ihren Berufsverbänden ausgegrenzt und erhielten Berufsverbote. Am 1. April 1933 organisierte die SA den ersten Boykott jüdischer Geschäfte. Mit dem Gesetz zur Wiederherstellung des Berufsbeamtentums vom 7. April 1933 wurden missliebige Beamte aus dem Staatsdienst entfernt. Der darin erstmals enthaltene Arierparagraph war das erste rassistische Gesetz für „Nicht-Arier“ und betraf Anhänger des jüdischen Glaubens oder vermuteter jüdischer Herkunft. Sie wurden zuerst aus dem öffentlichen Dienst, dann auch aus Vereinen, Berufsverbänden und evangelischen Landeskirchen entfernt, die ähnliche Regelungen einführten. Sie wurden auch gesetzlich aus allgemeinen Schulen und allmählich aus dem öffentlichen Leben ausgeschlossen. Nur ehemaligen jüdischen Soldaten des Ersten Weltkriegs bot das Frontkämpferprivileg bis 1935 einen geringen Schutz. Das Gesetz über die Zulassung zur Rechtsanwaltschaft zielte auf die Ausschaltung jüdischer Rechtsanwälte und wurde ebenfalls am 7. April 1933 erlassen. Infolgedessen wählten etwa 200.000 politisch oder rassisch Verfolgte den Weg der Emigration. Das NS-Regime begrüßte dies als „Flucht von Systemgegnern“. Gleichzeitig ließ es Konzentrationslager – zuerst das KZ Dachau – einrichten, in denen vor allem politische Gegner, aber auch religiöse Minderheiten massenhaft interniert wurden. Damit wurde der diktatorische Charakter des Regimes im In- und Ausland offensichtlich. Auf dem Reichsparteitag der NSDAP im September 1935 wurden die Nürnberger Rassengesetze beschlossen, die die schon 1933 begonnene Ausgrenzung und Isolierung der deutschen Juden als Staatsgesetze verankerten und ihnen mit rassistischer Begründung einen Großteil ihrer staatsbürgerlichen Rechte raubten. Himmler hielt vor SS-Mitgliedern 1935 seine Rede Der Untermensch, in der er den angeblichen Gräueltaten der Juden die guten und großen Kulturtaten der Menschen gegenüberstellte. Zu einer deutlichen Zunahme der Emigration von Juden kam es danach nicht. Die meisten hatten sich auf die Diskriminierungen eingestellt und hofften vergeblich auf Ablösung des Regimes. 1938 setzte sich die systematische Entrechtung der deutschen Juden mit den Arisierungen fort, die durch zahlreiche Verordnungen juristisch untermauert wurden, z. B. der Verordnung zur Ausschaltung der Juden aus dem deutschen Wirtschaftsleben und der Verordnung über den Einsatz des jüdischen Vermögens. Mit der Namensänderungsverordnung zur Führung eines zusätzlichen Vornamens, der Verordnung über Reisepässe von Juden, mit Kennkarten und Meldelisten wurden alle Juden erfasst. Ende Oktober 1938 wurden im Zuge der sogenannten Polenaktion Tausende aus Polen eingewanderte Juden verhaftet, ausgewiesen und an die polnische Grenze gebracht. Mit den reichsweiten Novemberpogromen 1938 stieg der nationalsozialistische Terror gegen jüdisches Leben mit der Ermordung mehrerer hundert Juden, der Inhaftierung der „Aktionsjuden“ in Konzentrationslagern und der Zerstörung von jüdischem Eigentum (darunter 1400 Synagogen, Betstuben und sonstige Versammlungsräume sowie tausende Geschäfte, Wohnungen) weiter an. Unmittelbar danach wurde den übriggebliebenen Juden durch die Verordnung gegen den Waffenbesitz der Juden vom 11. November 1938 (RGBl. I, 1573) jeder Waffenbesitz verboten. Die Misshandlungen und Ermordungen setzten sich in den folgenden Tagen und Wochen fort. Ab Oktober 1941 wurden alle auffindbaren jüdischen Menschen in osteuropäische Ghettos oder Konzentrationslager deportiert und in Vernichtungslagern ermordet. Die Juden aus Deutschland, zählen, ebenso wie viele Millionen ermordete Juden aus Osteuropa, zu den Opfern des Holocaust. Siehe auch: Geschichte der Juden in Deutschland zur Zeit des Nationalsozialismus – Liste antijüdischer Rechtsvorschriften im Deutschen Reich 1933–1945 Terrorapparat Ein Unterdrückungsapparat aus Gestapo, SS, SD und Sicherheitspolizei wurde aufgebaut. Zum Wesen der gewaltsamen Unterdrückung gehörten die Inhaftierungen und die Einrichtung ungesetzlicher Konzentrationslager als einer Polizeimaßnahme im Jahr 1933 direkt nach der Parlamentswahl im März (als „Schutzhaft“ deklarierte Vorbeugehaft). Der Stahlhelm und die Sturmabteilungen der NSDAP wurden zur „Hilfspolizei“ gemacht, die ihre bisherigen Gegner willkürlich erniedrigte und misshandelte. In Bremerhaven wurden Gefangene auf dem „Gespensterschiff“ gefoltert. Die Gestapo war in den folgenden Jahren vor allem für die Bekämpfung „staatsfeindlicher Bestrebungen“ zuständig und hatte 32.000 Mitarbeiter; dies war verhältnismäßig wenig, jedoch konnte das Regime auf die vielen NS-Sympathisanten und Denunzianten setzen. Rechtsetzung und Justiz Von Beginn an, also bereits ab Februar 1933, wurden im NS-Staat das demokratische Rechtsetzungsverfahren außer Kraft gesetzt, die Trennung von Legislative und Exekutive aufgehoben. An Aufbau, Aufgaben und grundsätzlicher Struktur der Gerichte änderte sich zwar im Übergang von der Weimarer Republik zum Nationalsozialismus anfangs nur wenig. Aber bereits bis Mitte 1933 erfuhr die Rolle der Staatsanwaltschaft und damit ihr Einfluss auf die Rechtsprechung und die Gerichte eine deutliche nationalsozialistische Ausrichtung. Ein Großteil der Gesetze, wie das Bürgerliche Gesetzbuch (BGB) oder das Strafgesetzbuch (StGB), wurde allenfalls in Teilen verändert. Die Weimarer Verfassung wurde offiziell nicht aufgehoben, aber faktisch war sie jedoch durch eine Vielzahl von Gesetzen ausgehebelt (vgl. das Gesetz zur Behebung der Not von Volk und Reich (Ermächtigungsgesetz) vom 24. März 1933 und „VO zum Schutz von Volk und Staat“ vom 28. Februar 1933, die sog. Reichstagsbrandverordnung). Die NS-Rechtslehre erkannte die Weimarer Verfassung nicht an: Carl Schmitt erklärte 1933 „in Wahrheit ist [das] Ermächtigungsgesetz ein vorläufiges Verfassungsgesetz des neuen Deutschland“. Dies betraf insbesondere die Grundrechte, die Gewaltenteilung und die Gesetzgebung. Viele Gesetze und Verordnungen standen im direkten Widerspruch zur WRV. Geänderte Strafgesetze galten rückwirkend. Als neue Rechtsquelle trat neben Parlamentsgesetze und Ministerialverordnungen der sog. Führererlass, von NS-Juristen als Rechtsquelle sui generis angesehen, die über allen anderen Rechtsquellen stand. Zur Umsetzung wurden Sondergerichte eingeführt. Das BGB wurde kaum geändert, aber durch die „Einfallstore“ der Generalklauseln der §§ 138, 242, 826 BGB wurde die nationalsozialistische Ideologie auch im Zivilrecht umgesetzt. Beispielsweise war jeder Vertrag i. S. d. BGB, der mit einem Homosexuellen oder Juden geschlossen wurde, gemäß § 138 BGB sittenwidrig und damit nichtig. Die durch die „Einheit von Partei und Staat“ sehr häufigen Überlagerungen von NSDAP-Richtlinien und Verwaltungsrecht führten zur Marginalisierung des Letzteren. Als neuer Verwaltungszweck galt die Erfüllung eines Gemeinschaftszwecks. In diesem Zusammenhang kam es zu einer Ausschaltung der subjektiv-öffentlichen Rechte (Abwehrrechte des Bürgers gegen das Staatshandeln) und zu einem Kompetenzverlust der Verwaltungsgerichtsbarkeit. Durch die Schutzhaft (Inhaftierung durch SA und SS vollkommen ohne Verfahren) wurden im Vorfeld von Strafprozessen Zeugen und Angeklagte gezielt unter Druck gesetzt oder ausgeschaltet. Folter galt als legitimes Mittel der Beweiserhebung u. a. durch die Gestapo. Ein Schuldeingeständnis zu Beginn des Prozesses (ähnlich dem guilty plea im anglophonen Rechtskreis) zur Verkürzung des Verfahrens wurde eingeführt und auch angewendet. Strafgesetze wurden mittels der analogen Gesetzesanwendung (§ 2a StGB a.F.) auf eine Vielzahl von Tatbeständen erstreckt. Als erweitertes Gewohnheitsrecht galt das „gesunde Volksempfinden“. Spezielle Straftatbestände für Minderheiten oder Personengruppen (Juden, Zwangsarbeiter, Ausländer) wurden ins Strafrecht aufgenommen. Auch die Verfolgung der Homosexuellen verschärfte sich in der Zeit des Nationalsozialismus. 1935 wurde § 175 RStGB in Tatbestandsfassung wie Strafmaß massiv verschärft und somit die Totalkriminalisierung von männlicher Homosexualität verordnet. 1936 wurde eine „Reichzentrale zur Bekämpfung der Homosexualität und der Abtreibung“ eingerichtet. Mit der schrittweisen Ausdehnung des Deutschen Reiches wurden für die unterworfenen Völker (besonders in Ost- und Südosteuropa) besondere „Rechtsgrundsätze“ angewandt. Die nationalsozialistische Hierarchie von „Über-“ und „Untermenschen“ fand während des Zweiten Weltkriegs ihren Ausdruck in zahlreichen Erlassen, Führerbefehlen und Vorschriften, am konsequentesten durchgesetzt in den Ostgebieten (u. a. dem Generalgouvernement, siehe auch unter: Polen-Erlasse, Polenstrafrechtsverordnung). Das Strafrecht des Dritten Reiches war größtenteils nicht tatbezogen, sondern auf den Täter fokussiert (vgl. das Gewohnheitsverbrechergesetz von 1933 und die Verordnung gegen Volksschädlinge von 1939). Dies bedeutete, dass die Strafe nicht vorrangig nach der Schwere der Tat bestimmt wurde, sondern danach, welche Gefahr vom Täter für das Volk vermeintlich ausging. Im Vordergrund des Strafvollzuges im nationalsozialistischen Deutschland stand die „Sühne“ der Schuld sowie die Abschreckung im Sinne der Generalprävention. Spezialprävention spielte nur eine untergeordnete Rolle. Ab 1944 wurden im ganzen Reichsgebiet verstärkt Standgerichte eingesetzt, um „Wehrkraftzersetzer“ und Deserteure abzuurteilen. Diese waren im Allgemeinen durch Laienrichter besetzt (z. B. durch den Bürgermeister eines Ortes). 1934 wurde der Volksgerichtshof (VGH) geschaffen. Er diente vor allem dazu, politische Schauprozesse abzuwickeln. Von 1934 bis Juni 1944 wurden vom VGH 5375 Todesurteile verhängt. Für die Zeit von Juli 1944 bis April 1945 gehen Schätzungen von etwa 2000 weiteren Todesurteilen aus. Auch die Mitglieder der Weißen Rose und die Attentäter vom 20. Juli 1944 wurden vom VGH zum Tode verurteilt. Die Rechtswissenschaft wandelte ihre grundsätzliche Ausrichtung von der Interessenjurisprudenz hin zur Weltanschauungsjurisprudenz. Damit einher ging eine strikte Ablehnung eines Naturrechts. In der nationalsozialistischen Rechtswissenschaft galt Rechtsetzung durch Interpretation (Umgehung der Gesetzgebung, „Führerwort“) als allgemein anerkannt. Wirtschaftspolitik Das Wirtschaftsleben im NS-Staat gründete auf Anreiz und Verpflichtung. Dabei blieb die privatwirtschaftliche Verfügung über die Unternehmen grundsätzlich unangetastet. Zugleich investierte das Regime in die Aufrüstung der Wehrmacht sowie in die militärisch-zivile Infrastruktur (Autobahn-, Kasernenbau) und profitierte von der bereits vor der Machtübergabe eingetretenen Erholung der Weltkonjunktur mit der allseits begrüßten Folge einer Verminderung, dann Beendigung der allgemeinen Arbeitslosigkeit. Während die Arbeiterbewegung mit allen Mitteln unterdrückt und verfolgt wurde, wurde zugleich beschränkt auf „deutschblütige“ Arbeitskräfte eine Reihe sozialpolitischer Verbesserungen eingeführt. So wurde symbolisch-demagogisch bereits 1933 der 1. Mai als traditioneller „Kampftag“ der Arbeiterbewegung zum arbeitsfreien Feiertag umgewidmet und die Freizeitorganisation „Kraft durch Freude“ bot Urlaubsmöglichkeiten und Kulturveranstaltungen an. Für den Erfolg der Nationalsozialisten war die allgemeine Zustimmung in weiten und wachsenden Teilen der „deutschen Volksgemeinschaft“ wichtig, zunächst aufgrund politischer und weltanschaulicher Übereinstimmung und im weiteren Verlauf aufgrund ökonomischer Erfolge und sozialpolitischer Verbesserungen, die als Privilegierung gegenüber Minderheiten zu verstehen waren. Einen wesentlichen Beitrag zur allgemeinen Zufriedenheit und zu deren wirtschaftlicher Absicherung bewirkten seit Kriegsbeginn die anfänglichen militärischen Erfolge, vor allem der Sieg über Frankreich. Eine der dringendsten Aufgaben Hitlers nach der Machtübernahme war die Überwindung der Wirtschaftskrise, die ihm zur Erringung der Macht verholfen hatte, ihn bei einem Misserfolg aber auch gefährdet hätte. Dies erreichte er vor allem durch getarntes deficit spending, also mit Krediten (den Mefo-Wechseln) finanzierte Konjunkturprogramme und Arbeitsbeschaffungsmaßnahmen. Der dadurch entstandene Kaufkraftüberschuss wurde abgeschöpft, indem die Deutschen zu vermehrtem Sparen motiviert wurden. Dadurch blieben Inflationseffekte aus. Kriegsvorbereitungen spielten zunächst für die Öffentlichkeit keine große Rolle bei der Belebung der Konjunktur. Augenscheinlicher waren beispielsweise eher bevölkerungspolitisch gedachte Maßnahmen wie Ehestandsdarlehen: Dabei wurde einem Paar bei der Heirat ein Darlehen von tausend Reichsmark angeboten, wenn die Frau dann dauerhaft aus dem Berufsleben ausschied. Eine Rolle spielten auch diktatorische Schritte, wie die Abschaffung der Gewerkschaften oder die Ermordung des antikapitalistisch gesinnten SA-Stabschefs Ernst Röhm, der eine soziale Revolution nach dem 25-Punkte-Programm forderte. Eine wichtige Maßnahme war die Erzeugungsschlacht in der Landwirtschaft. Im September 1933 wurden alle landwirtschaftlichen Betriebe, Genossenschaften und Landwirtschaftskammern im Reichsnährstand zwangsvereinigt. Der Nährstand wurde verherrlicht und als Quelle der rassischen Erneuerung popularisiert, in der Realität verlor er aber an Bedeutung. Der durchschnittliche Lohn in der Landwirtschaft fiel stetig, und der Anteil der in der Landwirtschaft Beschäftigten fiel ebenfalls ab. Auch die Industrie sollte unabhängiger vom Ausland werden, sodass die Gewinnung einheimischer Rohstoffe verstärkt wurde. Die Einrichtung des Reichsarbeitsdienstes verband hierbei den propagandistischen Zweck, kurzfristig augenscheinlich die jugendlichen Arbeitslosen „von der Straße zu holen“ mit dem Autarkiebestreben, neue landwirtschaftliche Flächen durch z. B. Trockenlegung von Mooren und Sümpfen zu gewinnen. Mit dem Gesetz zur Ordnung der nationalen Arbeit wurde am 20. April 1934 auch in den Unternehmen das Führerprinzip eingeführt. In der Betriebsgemeinschaft war der Betriebsführer für seine „Gefolgschaft“ verantwortlich; diese war ihm zu Treue verpflichtet. Um wichtige Industrielle an die Wehrmacht zu binden, wurden sie zu Wehrwirtschaftsführern ernannt. Treuhänder der Arbeit kontrollierten schon seit Mai 1933 die Betriebe und sorgten für die Gleichschaltung der Wirtschaft, sie regelten auch den Erlass der Tarifordnungen. Zu einer Erhöhung des Lebensstandards kam es für die meisten Berufstätigen nicht, da bald die Rüstung Priorität erhielt. So mussten z. B. eine verdeckte Inflation, Einschränkungen bei der Berufswahl, bei der freien Wahl des Arbeitsplatzes und eine Verlängerung der Arbeitszeiten akzeptiert werden. Das Wachstum basierte auf Planwirtschaft und diente der systematischen Aufrüstung und Kriegsvorbereitung. In einer Denkschrift zum Vierjahresplan machte Hitler 1936 unter anderem folgende Vorgaben: „I. Die deutsche Armee muss in vier Jahren einsatzfähig sein. II. Die deutsche Wirtschaft muss in vier Jahren kriegsfähig sein.“ Drei Tage vor dem auf den 1. September 1939 festgelegten Angriff auf Polen, dem Beginn des Zweiten Weltkrieges, wurde mit der Verteilung von Lebensmittelkarten begonnen. Bald wurden Kriegsgefangene und immer mehr verschleppte Zivilisten teilweise unter unmenschlichen Bedingungen als Zwangsarbeiter eingesetzt; bei Kriegsende waren es ca. neun Millionen (siehe auch unter: Polen-Erlasse, Polenstrafrechtsverordnung, Ostarbeiter, Generalbevollmächtigter für den Arbeitseinsatz Fritz Sauckel). Da die Männer im Krieg gebraucht wurden, arbeiteten in den Fabriken, im Widerspruch zu den Aussagen von Mein Kampf, immer mehr Frauen. Erst nach den ersten Niederlagen gegen die Sowjetunion und dem Kriegseintritt der USA Ende 1941 kam es zu einer deutlichen Umstellung hin zur Kriegswirtschaft; der totale Krieg mit dem Ziel der vollen Ausnützung des wirtschaftlichen und personellen Potenzials für die Kriegsführung wurde erst am 18. Februar 1943 von Joseph Goebbels ausgerufen. Am Ende des Krieges brach die Industrie durch die Bombardierung der Infrastruktur (Eisenbahn) und Industrieanlagen und die fehlende Rohstoffversorgung zusammen, die Versorgung mit Lebensmitteln wurde problematisch, der Schwarzmarkt blühte auf. Zu einer allmählichen Erholung kam es erst mit den Darlehen des Marshallplans und der Währungsreform. Forschung und Medizin Hauptanliegen vieler nationalsozialistisch gesinnter Ärzte und Professoren im Deutschen Reich war die „Heranzüchtung kerngesunder Körper“ (Zitat Hitlers) und die „Ausmerzung des Schwachen und Kranken“ bzw. der Juden. Diesen Zwecken dienten z. B. die Lebensborn-Heime, in denen arische Kinder geboren und aufgezogen wurden, die Rassenhygiene sowie als eugenische Maßnahmen die Krankenmorde im Nationalsozialismus: siehe „Aktion T4“, „Aktion Brandt“ und „Kinder-Euthanasie“. Auch andere Bereiche der Wissenschaft und Forschung wurden instrumentalisiert und im Sinne des Nationalsozialismus organisiert. Religionspolitik Die Kirchen- und Religionspolitik des Nationalsozialismus war uneinheitlich und voller Widersprüche. Während die ältere Forschung noch von einem einheitlichen Willen zur Vernichtung von Kirchen und Christentum ausging, standen sich sowohl in Partei als auch in Regierungsstellen Gegner, Sympathisanten und Neutralisten von Kirchen und Christentum gegenüber. Abgesehen vom Verbot des Schächtens im April 1933 wurden die Gesetze der jüdischen Religion zwar im Wesentlichen nicht beeinträchtigt. Doch wurden die jüdischen Gemeinden im Zuge der allgemeinen, rassisch begründeten Judenverfolgung sukzessive ihres Schutzes und Rechtsstatus beraubt. Den beiden Großkirchen hatte Hitler in seiner Regierungserklärung vom März 1933 eine staatstragende Rolle zugesprochen. Er setzte dann zunächst auf die Deutschen Christen, die bei den Kirchenwahlen im Juni 1933 einen Erdrutschsieg erreichten und dann einen Teil der Landeskirchen beherrschten. Daraufhin wählten auch die unterlegenen Gruppen Ludwig Müller zum Reichsbischof. Gegen den Ausschluss von getauften Juden entstand der Pfarrernotbund, aus dem 1934 die Bekennende Kirche hervorging. Diese kämpfte auf der Basis der Barmer Theologischen Erklärung gegen staatliche Übergriffe auf kirchliche Angelegenheiten und gegen den totalen Staat ohne Rechtsbindung. Praktisch wurden daraus nur ansatzweise Konsequenzen gezogen, z. B. die Bildung einer eigenen Organisationsstruktur mit der Vereinigten Kirchenleitung, eine Denkschrift an Hitler gegen Entrechtung von Minderheiten und gegen KZs, später die Einrichtung des Büros Grüber als Hilfe für verfolgte Judenchristen und Juden. Ab 1937 wurden die Tätigkeiten der BK immer stärker staatlicher Kontrolle unterworfen und viele ihrer Vertreter inhaftiert, ab 1939 wurden die meisten BK-Pastoren zum Wehrdienst eingezogen. In der Regel zeigten sich aber die evangelischen Kirchen und ihre Hierarchien als willfährige Unterstützer und Sympathisanten des Regimes. Die katholische Kirche distanzierte sich bis 1933 vom Rassismus der NSDAP. Am 22. Juli 1933 aber schloss der Vatikan überraschend das Reichskonkordat mit der neuen Reichsregierung, um so die deutschen katholischen Bischöfe, ihre Bistümer und Strukturen vor Zugriffen des Regimes zu schützen. Im Gegenzug wurden Priester und Bischöfe verpflichtet, sich nicht in Politik einzumischen. Damit gab die bis dahin recht starke Zentrumspartei ihre Oppositionshaltung auf und verlor dann ihre Existenzberechtigung. Hitler gewann durch das Konkordat auf diplomatischer Bühne internationales Ansehen. Trotzdem kam es zu Angriffen auf katholische Orden, die Kolpingjugend und andere katholische Gruppen. In den Jahren 1936 und 1937 organisierte der NS-Staat eine Serie von rund 250 Strafprozessen gegen katholische Priester und Ordensleute, die verschiedener Sexualdelikte wie homosexueller Handlungen unter Männern oder Kindesmissbrauch angeklagt wurden. Die Prozesse, die zum Teil sehr nachlässig vorbereitet worden waren – ein Zeuge wollte im Sommer 1937 beispielsweise in dem Vorsitzenden Richter statt in dem Angeklagten seinen angeblichen Belästiger erkennen – wurden auf Anweisung von Propagandaminister Goebbels in der Presse mit hämischen Kommentaren begleitet. Ziel war eine Diskreditierung der Kirche und eine Aufweichung ihrer im Reichskonkordat zugesagten Rechte. Papst Pius XI. wandte sich 1937 mit seiner Enzyklika Mit brennender Sorge scharf gegen die deutsche Kirchenpolitik und wies auf den von den Nationalsozialisten nicht erfüllten Teil der Konkordatsvereinbarungen, aber auch auf Gegensätze zwischen christlichem Glauben und NS-Ideologie hin. Die Enzyklika prangerte die systematische Entrechtung der Juden oder anderer Religions- und Bevölkerungsgruppen nicht direkt an, verurteilte aber eine Unterscheidung nach Rassen. Der Nationalsozialismus hatte auch eigene religiöse Elemente, vor allem den Führerkult und rituelle Massenaufmärsche mit gottesdienstartigen Formen, Führergruß, Fackeln, feierlichen Proklamationen und Hymnen. Der „Parteiphilosoph“ Alfred Rosenberg wollte nach dem „Endsieg“ durch „Gegenpäpste“ die katholische und die evangelische Kirche in einander bekämpfende Gruppen spalten und versuchte, die altgermanische, persische und indische Religion wiederzubeleben, um „der vergehenden biblischen Tradition eine noch ältere und bessere unterzuschieben“. Der Privatsekretär Hitlers, Martin Bormann, arbeitete einen nationalsozialistischen Katechismus aus, dessen Lehren allmählich die Zehn Gebote der Bibel ersetzen sollten. Reichsführer SS Heinrich Himmler hatte weitreichende Vorstellungen über die Einführung eines altgermanisch-heidnischen Götterglaubens und über die „Befriedung“ der slawischen Völker durch die „Lehre der Ernsten Bibelforscher“. Gegenüber den meisten kleineren Religionsgemeinschaften hegten die offiziellen Stellen Vorbehalte. Verbindungen ins Ausland, insbesondere in die USA, Verweigerung von Eidesleistung und grundsätzliche Distanz zur nationalsozialistischen „Volksgemeinschaft“ machten solche Gruppierungen suspekt; Pazifismus und Ablehnung der nationalsozialistischen Rassenlehre ließen sie als Gegner des Regimes erscheinen. Der Sicherheitsdienst forderte deshalb die Vernichtung des weit überwiegenden Teils des „Sektenwesens“, während „harmlose“ Gruppen bestehen bleiben sollten, um die „Zersplitterung im kirchlich-religiösen Gebiet“ zu fördern. Manche Stellen wie das Auswärtige Amt warnten jedoch mit Rücksicht auf deren internationale Verbindungen vor der Auflösung einiger Religionsgemeinschaften wie der Mormonen oder der Christlichen Wissenschaft. Der nationalsozialistische Staat verfuhr deshalb auf Grund politischer Rücksichten und abhängig vom Grad der Anpassung unterschiedlich mit den einzelnen kleinen Religionsgemeinschaften. Besonders scharf verfolgt wurden von Anfang an die Zeugen Jehovas (siehe auch: Zeugen Jehovas in der Zeit des Nationalsozialismus). Als angeblich dem Judentum nahestehend, aus den USA fremdbestimmt und pazifistisch wurden die Zeugen Jehovas 1933 verboten. Etwa 10.000 von ihnen wurden in der Zeit des Nationalsozialismus inhaftiert, 2.000 davon in Konzentrationslagern; 1.200 Zeugen Jehovas wurden hingerichtet oder ermordet. Die Christliche Wissenschaft wurde in ihrer Betätigung zwar schrittweise eingeschränkt, aber erst 1941 verboten. Die Siebenten-Tags-Adventisten wurden zwar 1933 verboten, vielleicht auch, weil sie mit den pazifistischen Reformadventisten verwechselt wurden. Das Verbot wurde aber nach zehn Tagen wieder aufgehoben, woraufhin die Kirchenführung versuchte, sich dem Staat anzupassen, um die Kirchenauflösung zu vermeiden. Die Reformadventisten wurden dagegen im Jahre 1936 verboten. Ganze Gemeinden standen vor Gericht und viele ihrer Glieder wurden verurteilt. Junge Männer wie Anton Brugger wurden wegen Kriegsdienstverweigerung zum Tode verurteilt. Bis zum Ende der NS-Herrschaft blieben die Reformadventisten im Untergrund. Andere Gemeinschaften wie die Mormonen konnten hingegen unbeschränkt fortbestehen. Naturschutz Der Naturschutz im Nationalsozialismus begann 1933 mit der Gleichschaltung der Naturschutzverbände und dem Ausschluss der Mitglieder jüdischen Glaubens aus den Vereinen. Umfassende gesetzliche Neuregelungen in den Jahren 1933 bis 1935 des NS-Regimes im Bereich des Natur- und Umweltschutzes, allen voran das Reichsnaturschutzgesetz (RNG), regelten erstmals den Ausgleich nach privaten Eingriffen und führten den schwächer geschützten „Landschaftsschutz“ als neue Kategorie ein. In der Praxis hielt das NS-Regime sich nicht an den anfangs gesetzlich vorgezeichneten Weg eines umfassenden Naturschutzes. Organisation des Militärs Mit der Reichswehr übernahmen die Nationalsozialisten die Streitkräfte der Weimarer Republik. Die Reichswehr war staatstreu und unterstützte die NSDAP bis zur Machtübernahme nicht aktiv, viele Soldaten waren aber selbst keine Anhänger der Republik, sodass sie diese auch nicht verteidigten. Die Reichswehr hoffte unter Hitler auch auf einen Fortschritt bei der Revision des Versailler Vertrages, die Führung der Reichswehr war schon am 3. Februar über die Pläne Hitlers informiert worden, Befürchtungen hatte sie gegenüber der SA. Bestrebungen innerhalb der SA, die Reichswehr zu übernehmen, beendete Hitler durch die Niederschlagung des Röhm-Putsches, bei dem er die SA ausschaltete, da er die Reichswehr als für den Krieg besser geeignet ansah. An dieser Aktion war auch die Reichswehr beteiligt, sie tolerierte sogar die Ermordung zweier ihrer Generäle. Am 3. August wurde die Reichswehr nach dem Tod des bisherigen Oberbefehlshabers, Reichspräsident von Hindenburg, auf die Person Hitlers vereidigt und damit zu einem Instrument Hitlers. Mit der Wiedereinführung der Wehrpflicht am 16. März 1935 wurde die Reichswehr in Wehrmacht umbenannt. Die Wehrmacht wurde ausgebaut und modernisiert, 1939 hatte sie eine Stärke von 2,75 Millionen Mann. Den Widerstand innerhalb der Wehrmachtführung gegen seine Kriegspläne, mehr aus Zweifel an der Machbarkeit der Pläne als aus ideologischen Gründen, schaltete er durch die Blomberg-Fritsch-Krise aus und schuf das Oberkommando der Wehrmacht. Der weiter vorhandene Widerstand konnte sich, insbesondere nach den ersten Kriegserfolgen, nicht durchsetzen. Die Wehrmacht tolerierte den Vernichtungskrieg gegen die Sowjetunion, Teile der Wehrmacht waren auch an Exekutionen beteiligt. Erst als Deutschland Niederlagen wie in der bei Stalingrad hinnehmen musste, versuchten Mitglieder der Wehrmacht im Attentat vom 20. Juli 1944 durch eine Beseitigung Hitlers ein Ende des Krieges zu erreichen. Außen- und Rüstungspolitik Der Vertrag von Versailles wurde schrittweise gebrochen und aufgehoben. Zugleich beteuerte Hitler seinen Friedenswillen. Dies wurde im Ausland, vor allem in der Appeasement-Ära Großbritanniens, zunächst geglaubt; man versuchte, Hitler durch Entgegenkommen zu „zähmen“ und einen neuen Weltkrieg zu vermeiden. 1935 wurde das Saarland wieder ins Deutsche Reich integriert, nachdem eine unter internationaler Kontrolle durchgeführte Volksabstimmung eine überwältigende Zustimmung dafür (90,8 %) ergeben hatte. Die Reichswehr wurde mit Einführung der Wehrpflicht in die Wehrmacht umgewandelt; zudem wurde die Existenz der bis dahin geheim gehaltenen Luftwaffe publik gemacht. Beide Schritte verletzten den Versailler Vertrag. Auch der Einmarsch in das entmilitarisierte Rheinland am 7. März 1936 stellte einen Bruch des friedensnobelpreisgekrönten Locarno-Paktes dar, was Hitler mit der Ratifizierung des französisch-sowjetischen Beistandspakts durch Frankreich begründete, welcher einen Bruch des Locarno-Paktes seitens Frankreichs dargestellt habe. Wirtschaft und Gesellschaft in Deutschland wurden in der nationalsozialistischen Diktatur bereits während der Jahre vor dem Zweiten Weltkrieg an dem Ziel eines Eroberungskrieges ausgerichtet. Bezeichnend dafür war eine massive Aufrüstung, die in Bezug auf Größenordnung und Geschwindigkeit laut Ulrich Herbert „historisch vorbildlos“ war. Von 1933 1,9 Milliarden Reichsmark stiegen die staatlichen Rüstungsausgaben auf 10,3 Milliarden 1936 und auf 17,2 Milliarden 1938 und damit auf 74 Prozent aller Staatsausgaben. „In keinem anderen kapitalistischen Staat hatte es außerhalb von Kriegszeiten jemals eine derartige Umschichtung von Staatsausgaben zugunsten der Rüstung gegeben.“ Die mit dieser Rüstungspolitik verbundene enorme Verschuldung sollte durch einen gewonnenen Krieg auf Kosten Europas beglichen werden. Im Zusammenhang mit der „sozialen Militarisierung“ und Kriegsvorbereitung stand auch der mit Arbeitsbeschaffungsmaßnahmen einhergehende Rückgang der Arbeitslosigkeit. Mit milliardenschweren Rüstungsprogrammen wurde die Produktion von Waffensystemen, Munition und militärischen Großgeräten für Heer, Marine und Luftwaffe vorangetrieben. Bei der Flugzeugproduktion stieg die Anzahl der Beschäftigten von annähernd 4000 im Januar 1933 über 54.000 im Jahr 1935 auf fast 240.000 im Frühjahr 1938. Vollbeschäftigung war ein Nebeneffekt der Kriegsvorbereitung. Im Sinne des militärischen Jargons der NS-Propaganda sollte die „Volksgemeinschaft“ sich ständig vorkommen wie in einer gemeinsamen „Arbeitsschlacht“. Nach der Rheinlandbesetzung zu Frühjahrsbeginn 1936 benutzte Hitler die Olympischen Spiele 1936 in Berlin, denen zeitweise ein Boykott gedroht hatte, als Propagandabühne für die Weltöffentlichkeit, der ein friedliebendes und weltoffenes Land vermittelt werden sollte. Der im Anschluss daran aufgelegte Vierjahresplan hingegen sollte das Deutsche Reich bis spätestens 1940 kriegsbereit machen. Das Regime unterstützte nun zusammen mit Mussolinis Italien den faschistischen General Franco im Spanischen Bürgerkrieg gegen die dortige Republik auch militärisch. Dies bot Hitler die Gelegenheit, die Einsatzfähigkeit seines Militärs im Kriegsfall zu testen. Die Legion Condor der deutschen Luftwaffe zerstörte 1937 bei einem ersten Flächenbombardement die baskische Stadt Guernica. In einer in der Hoßbach-Niederschrift festgehaltenen Besprechung stellte Hitler am 5. November 1937 den wichtigsten Vertretern der Wehrmacht und dem Außenminister seine Pläne zur deutschen Kriegs- und Außenpolitik vor. Am 20. Februar 1938 verkündete Hitler in einer Rede sein Ziel, alle Deutschen Mitteleuropas in einem Staat zu vereinen. Am 12. März 1938 kam er einer beabsichtigten Volksabstimmung in Österreich zuvor und verkündete nach dem Einmarsch der Wehrmacht (Unternehmen Otto), unter dem Jubel der auf dem Heldenplatz versammelten Wiener, den „Eintritt meiner Heimat in das Deutsche Reich“. Ein weiteres vor allem von Deutschen bewohntes Gebiet außerhalb des Reiches war das tschechische Sudetenland. Durch das praktisch unerfüllbare Karlsbader Programm provozierte Hitler die Sudetenkrise, die am 29. September 1938 im Münchner Abkommen zur Angliederung des Sudetenlandes an das Deutsche Reich führte. Hitler hatte beabsichtigt, die Krise für den Beginn eines Krieges zu nutzen, und war von Mussolini und Göring zum Abkommen gedrängt worden, das er als politische Niederlage empfand. Der öffentlich propagierten NS-Außenpolitik stimmten die meisten Deutschen zu. Volksabstimmungen ergaben 1933, 1934, 1935, 1936 und 1938 große Mehrheiten für damalige Entscheidungen Hitlers. Die Bevölkerungsmehrheit erlebte die außenpolitischen Maßnahmen der Nationalsozialisten als Erfolge und Wiedergutmachung vergangener nationaler Demütigungen. Nachdem Herschel Grynszpan am 7. November 1938 in Paris einen Anschlag auf den Botschaftssekretär Ernst Eduard vom Rath verübt hatte, inszenierten die Nationalsozialisten die Novemberpogrome. Zum Teil als Zivilpersonen auftretende ortsbekannte SA- und SS-Angehörige legten in zahlreichen Synagogen Feuer, misshandelten und ermordeten viele deutsche Juden vor den Augen der Polizei, die befehlsgemäß nicht einschritt, und deportierten ab dem 10. November Zehntausende Juden in die KZs. Die den Opfern auferlegte „Judenbuße“ von über einer Milliarde Reichsmark wurde zur Finanzierung der Aufrüstung als unmittelbare Kriegsvorbereitung genutzt. Mitte März 1939 wurde die Slowakei als selbständiger Staat ausgerufen. Das danach von der ehemaligen Tschechoslowakischen Republik verbliebene Gebiet wurde als Protektorat Böhmen und Mähren vom Deutschen Reich abhängig. Eine Woche später wurde auch das Memelland dem Deutschen Reich angegliedert. Um sich den Rücken für seine Expansionsziele im Osten freizuhalten, schloss Hitler mit der Sowjetunion im August 1939 den deutsch-sowjetischen Nichtangriffspakt. In dessen geheimem Zusatzprotokoll wurde Polen für den Fall eines Krieges zwischen den beiden Staaten aufgeteilt. Dagegen versprach Hitler, nicht gegen Stalin zu agieren, falls dieser sich Finnlands bemächtige, was er daraufhin auch tat. Zweiter Weltkrieg 1939 bis 1945 Mit dem Überfall auf Polen begann das NS-Regime, seine jahrelang vorbereitete Eroberungs- und Germanisierungspolitik mit Krieg durchzusetzen. Im Laufe des Zweiten Weltkriegs beging das nationalsozialistische Deutschland millionenfachen Völkermord. Am 27. September 1940 schlossen Deutschland, das faschistisch regierte Italien und das Kaiserreich Japan – die Achsenmächte – den Dreimächtepakt als politische und militärische Koalition. Nach raschen Siegen über die Niederlande, Belgien, Frankreich und Norwegen 1940 brach das NS-Regime den deutsch-sowjetischen Nichtangriffspakt von 1939 und griff am 22. Juni 1941 die Sowjetunion an („Unternehmen Barbarossa“). Am 11. Dezember 1941 erfolgte die Kriegserklärung Deutschlands und Italiens an die Vereinigten Staaten. Die Kriegswende begann im Herbst und Winter 1942/1943 mit den deutschen Niederlagen in den Schlachten von El Alamein und Stalingrad. Mitte 1943 war der Wendepunkt des deutschen U-Boot-Kriegs im Atlantik. Die britischen und US-amerikanischen Luftstreitkräfte erreichten ab Frühjahr/Sommer 1944 fast die völlige Luftherrschaft über Deutschland und zerstörten im Bombenkrieg ganze Städte. Anfang Juni 1944 landeten westalliierte Truppen in der Normandie (Operation Overlord) und eröffneten damit die zweite Front im Westen mit dem Ziel, die Truppen der Wehrmacht auf deutsches Gebiet zurückzudrängen und das NS-Regime schließlich zu stürzen. Die alliierten Truppen erreichten die Grenzen des „Altreichs“ im Oktober 1944. US-amerikanische und sowjetische Truppen trafen sich in Mitteldeutschland am 25. April 1945 („Elbe Day“). Nach Hitlers Selbstmord am 30. April 1945 endete zwei Tage später die Schlacht um Berlin. Daraufhin kapitulierte die Wehrmacht am 8. Mai 1945 bedingungslos vor den Alliierten und ihren Verbündeten. Der Zweite Weltkrieg kostete weltweit über 62 Millionen Menschen das Leben. In seinem Verlauf ermordeten Nationalsozialisten und ihre Helfer etwa ein Drittel aller europäischen Juden (Shoah), etwa 3,5 Millionen nichtjüdische Sowjetbürger und Polen (siehe dazu Verbrechen der Wehrmacht), mindestens 100.000, eventuell über 500.000 Sinti und Roma (Porajmos), etwa 200.000 Behinderte (u. a. „Aktion T4“), eine unbekannte Zahl deutscher „Asozialer“ und etwa 5.000 Homosexuelle (→ Rosa Winkel). In der nationalsozialistischen Rassenhygiene galten diese Gruppen als „minderwertige“ bzw. „lebensunwerte“ „Rassenschädlinge“. Vor dem Krieg waren bereits etwa 20.000 als gefährlich eingestufte politische Regimegegner, meist Angehörige der Linksparteien, und etwa 1.200 Zeugen Jehovas ermordet worden. Deserteure, Plünderer und Saboteure erhielten als „Volksschädlinge“ in der Regel die Todesstrafe. Eroberungen (1939–1942) Der Überfall auf Polen ohne Kriegserklärung am 1. September 1939 löste den Zweiten Weltkrieg aus. Am 3. September erklärten zunächst Großbritannien und Frankreich dem Deutschen Reich den Krieg. Nach dem Sieg der Wehrmacht über Polen wurde dessen Westteil (Großpolen, Westpreußen, Oberschlesien) von Deutschland annektiert und die Mitte zum Generalgouvernement erklärt. Am 17. September besetzte die Rote Armee fast kampflos Ostpolen; Polen wurde, wie im Hitler-Stalin-Pakt vereinbart, aufgeteilt. 1940 besetzte die Wehrmacht Dänemark und Norwegen und besiegte dann im so genannten „Blitzkrieg“, der nur sechs Wochen dauerte, die Staaten Luxemburg, Niederlande, Belgien und Frankreich. Frankreich wurde nach dem Westfeldzug in zwei Zonen geteilt. Nur der Norden und Westen Frankreichs blieb unter deutscher Besatzung. Marschall Pétain verlegte den Regierungssitz nach Vichy im unbesetzten Teil Frankreichs. Hitlers Popularität erreichte durch die „Auslöschung der Schande von Versailles“ ihren Höhepunkt. Die geplante Invasion Großbritanniens – das „Unternehmen Seelöwe“ – wurde von Hitler abgesagt, da die deutsche Luftwaffe in der Luftschlacht um England trotz zahlenmäßiger Überlegenheit bei den Piloten (6:1) nicht die Lufthoheit über England erringen konnte. 1940/1941 besetzte Deutschland zusammen mit dem faschistischen Italien die Länder Jugoslawien und Griechenland. Beide Länder wurden unter den verbündeten Diktaturen aufgeteilt. Ihrer Eroberung folgte jedoch ein zermürbender Partisanenkrieg. Ungarn, Rumänien und Bulgarien wurden als Verbündete des Großdeutschen Reiches gewonnen. Auf Bitten Mussolinis wurden die italienischen Truppen in Nordafrika ab Januar 1941 durch deutsche Verbände unterstützt, das Deutsche Afrikakorps, bekannt geworden durch Generalfeldmarschall Erwin Rommel, den „Wüstenfuchs“. Am 22. Juni 1941 marschierte die Wehrmacht in den sowjetisch besetzten Teil Polens ein und überfiel unmittelbar danach unter Bruch des deutsch-sowjetischen Nichtangriffspakts die Sowjetunion selbst. In dem als Vernichtungskrieg geplanten „Unternehmen Barbarossa“ gelangten die deutschen Streitkräfte bis vor Moskau, Leningrad und Stalingrad. Die Schlacht von Stalingrad markierte einen Wendepunkt im Krieg gegen die Sowjetunion. Die besetzten Gebiete im Osten wurden auf Weisung der Nationalsozialisten systematisch ausgeplündert. Das besetzte sowjetische Gebiet wurde in verschiedene Reichskommissariate aufgeteilt, die jeweils einem Reichskommissar unterstellt waren. Der Gesamtplan sah die Aufteilung der UdSSR und ihre Zerstörung als selbständigen Staat vor. Dieses Endziel wurde nur durch den weiteren Kriegsverlauf verhindert, aber mit der systematischen Ausplünderung, Unterdrückung und Ermordung der Zivilbevölkerung wurde begonnen. Der von Reichsführer SS Heinrich Himmler ausgearbeitete „Generalplan Ost“ sah die Dezimierung der slawischen Völker um insgesamt 30 Millionen und die Unterdrückung der Übrigen vor, die als Bauarbeiter, Hilfsarbeiter, Fabrikarbeiter, Hauspersonal, als Landarbeiter, in der Rüstungsindustrie, beim Straßenbau etc. arbeiten sollten. Gewissermaßen als „ein Vorspiel zum ‚Generalplan Ost‘“ wurden nach dem deutschen Hungerplan vom Mai 1941 landwirtschaftliche Erzeugnisse aus der Ukraine und aus Südrussland in großem Umfang nach Deutschland geschafft. Während dabei bis zu 30 Millionen Hungertote einkalkuliert wurden, verhungerten auf Grund des fehlgeschlagenen Blitzkriegs mindestens vier Millionen Menschen in den besetzten Gebieten der Sowjetunion. Zu den Opfern des „Hungerplans“ werden auch die 2,6 Millionen sowjetischen Soldaten gerechnet, die in deutscher Kriegsgefangenschaft verhungerten. Die jüdische Bevölkerung in den besetzten Gebieten wurde erfasst und in Konzentrationslager deportiert, unzureichend ernährt, zur Zwangsarbeit herangezogen und in dafür eigens eingerichteten Gaswagen und Gaskammern in Vernichtungslagern ermordet. Besonders in den besetzten Ostgebieten wurden auch viele Tausende Juden von den Einsatzgruppen der Sicherheitspolizei und des SD sowie von SS-Einheiten erschossen und anschließend in Massengräbern verscharrt. Die Zahl der im Holocaust insgesamt durch Erschießungen, Vergasungen, Hunger, Misshandlung, Zwangsarbeit und Krankheiten umgekommenen Juden wird auf ungefähr 6 Millionen geschätzt. Ihr Besitz wurde enteignet und zu Reichseigentum erklärt. Auf diese Weise standen den Besatzungstruppen finanzielle Mittel in Landeswährung zur Verfügung. Von Stalingrad bis zur Kapitulation (1942–1945) Im Winter 1941/1942 geriet die Offensive der Wehrmacht in der Sowjetunion ins Stocken. Am 11. Dezember 1941 erklärte Hitler, nach dem Angriff des deutschen Verbündeten Japan auf den amerikanischen Stützpunkt Pearl Harbor, den USA den Krieg, die Großbritannien mit Gütern versorgten. In der Schlacht von Stalingrad musste die Wehrmacht durch Fehlentscheidungen Hitlers ihre erste – und letztlich kriegsentscheidende – Niederlage hinnehmen. Bis Ende 1943 konnte die Rote Armee der Sowjetunion, die auch von den USA mit Waffenlieferungen unterstützt wurde, weite Gebiete zurückerobern. Am 13. Mai 1943 mussten die Achsenmächte in Nordafrika kapitulieren. Inzwischen war der seit 1924 ideologisch angekündigte und seit 1933 politisch angebahnte Holocaust an den Juden im Gang. 1943 begann der Bombenkrieg der Alliierten auf deutsche Städte, bei dem etwa 300.000 Zivilisten ums Leben kamen. Am 18. Februar 1943 verkündete Goebbels in der Sportpalastrede den „totalen Krieg“. Ab Ende 1944 flohen viele Deutsche aus ihrer angestammten Heimat im Osten vor der anrückenden Roten Armee. 1944 eroberte diese weite Teile von Südosteuropa. Am 6. Juni begann die Invasion der westlichen Alliierten in der Normandie, nachdem sie schon zuvor nach der Landung auf Sizilien von Süden her Italien eroberten und gegen Deutschland im Vormarsch waren. Am 20. Juli scheiterten ein Attentat und ein Putschversuch von Wehrmachtangehörigen und Mitgliedern der Widerstandsgruppe des „Kreisauer Kreises“ gegen Hitler. Anfang 1945 beschlossen die Alliierten auf der Konferenz von Jalta die Aufteilung des Reiches nach dem Krieg. Um den Alliierten keine brauchbare Infrastruktur zu hinterlassen, erteilte Hitler am 19. März 1945 den Nerobefehl, der aber nur teilweise ausgeführt wurde. Im April erreichten die sowjetischen Truppen die Reichshauptstadt und es kam zur Schlacht um Berlin. Hitler tötete sich am 30. April im Bunker der Reichskanzlei, nachdem er testamentarisch Admiral Karl Dönitz zu seinem Nachfolger als Reichspräsident und Oberbefehlshaber der Wehrmacht bestimmt hatte. Neben Hitler töteten sich in der Folge auch andere führende Funktionäre, so Joseph Goebbels und Heinrich Himmler – dieser jedoch erst später in Gefangenschaft, nachdem er mit gefälschten Ausweisen gestellt wurde. In den frühen Morgenstunden des 7. Mai 1945 schließlich unterzeichnete Generaloberst Jodl – von Dönitz hierzu autorisiert – die bedingungslose Kapitulation der deutschen Streitkräfte, die durch Unterzeichnung einer weiteren Kapitulationsurkunde ratifiziert am nächsten Tag in Kraft treten sollte. Kurz nach der bedingungslosen Kapitulation wurde außerdem die geschäftsführende Reichsregierung mit Karl Dönitz in Flensburg-Mürwik verhaftet. Der Zweite Weltkrieg dauerte in Südostasien noch bis zum 2. September an. Er forderte insgesamt über 62 Millionen Tote. In den letzten Kriegsmonaten und im Anschluss an die Besetzung des Reichs wurden die meisten noch verbliebenen Deutschen aus Osteuropa vertrieben. Völkermord und andere Verbrechen gegen die Menschlichkeit Anhänger der Linksparteien, Zeugen Jehovas und oppositionell eingestellte Jugendliche waren schon vor Kriegsbeginn als politisch unerwünschte Gruppen verfolgt und zu Tausenden ermordet worden. Die Ermordung von Bevölkerungsgruppen aus Gründen der „Rassenhygiene“ begann noch vor dem Krieg mit dem Massenmord an deutschen Behinderten. Die „Aktion T4“ wurde ab Kriegsbeginn auch mit Mangel an Lazarettplätzen begründet und als „Euthanasie“ verschleiert. Die Ermordung wurde mit der Arbeitsunfähigkeit der Behinderten begründet. Dazu wurden Fachabteilungen psychiatrischer Anstalten an etwa 30 Orten für die Tötungen umgebaut. Die Ermordung geschah auch auf dem Transport in abgedichteten LKWs („Gaswagen“) mit deren Abgasen oder mit Kohlenstoffmonoxid. Die Leichen wurden verbrannt, ihre Angehörigen erhielten falsche Todesbescheinigungen. Die Täter wurden danach als Spezialisten in den Todesfabriken in Osteuropa eingesetzt. Der Holocaust, der systematische Völkermord an etwa sechs Millionen Juden und „Judenmischlingen“, darunter über drei Millionen Polen und 1,8 Millionen Kindern, war das größte Verbrechen der Nationalsozialisten. Er begann mit Massenerschießungen von Juden und polnischen Führungskräften durch besondere „Einsatzgruppen“ im besetzten Polen. Es folgten großangelegte Deportationen (unter der Tarnbezeichnung „Umsiedlung“) und Internierungen in Ghettos und Arbeitslager, wo bereits Hunderttausende als Zwangsarbeiter umkamen. Dorthin wurden auch deutsche und österreichische Juden deportiert; mit Massakern wie dem in Babyn Jar (29./30. September 1941) und Riga (29. November bis 1. Dezember 1941) wurden überfüllte Ghettos für nachrückende Judentransporte geleert. Mit dem Krieg gegen die Sowjetunion 1941–1945 weiteten sich die Judenmorde zum flächendeckenden Völkermord aus. Zur Durchführung der Aktion Reinhardt ab Juni 1941 wurden drei Vernichtungslager eingerichtet; ab Dezember 1941 begannen die ersten Morde in Gaswagen nach dem Vorbild der Aktion T4. Damit sollte die Wirkung von Giftgas getestet werden, um effektiver töten zu können und moralische Skrupel der Mörder bei Massenerschießungen zu vermeiden. Auf der geheimen Wannseekonferenz am 20. Januar 1942 organisierten Vertreter aller wichtigen NS-Behörden die begonnene „Endlösung der Judenfrage“ im Detail und verabredeten europaweite Deportationen von bis zu 11 Millionen Juden in die osteuropäischen Ghettos und Lager. Bis Sommer 1942 waren die Krematorien im KZ Auschwitz-Birkenau fertiggestellt; nun wurden die Massenmorde auf industrielle Vergasung konzentriert. Die Verwertung des Eigentums der etwa drei Millionen Vergasten wurde bis ins Detail geregelt. Außer den Juden betrachtete die nationalsozialistische Rassenpolitik auch „Zigeuner“, Slawen oder Homosexuelle als „lebensunwert“ bzw. als „rassisch minderwertig“. Diese Gruppen – die größte unter ihnen etwa 2,5 bis 4 Millionen sowjetische Kriegsgefangene – wurden ebenfalls massenhaft ermordet, teilweise ebenfalls in den Vernichtungslagern. Diese Menschen, so Timothy Snyder, wurden „gezielt umgebracht, oder es lag die bewusste Absicht vor, sie den Hungertod sterben zu lassen. Wäre der Holocaust nicht gewesen, man würde dies als das schlimmste Kriegsverbrechen der Neuzeit erinnern.“ Hauptgrund für diese Verbrechen war die Rassen- und Lebensraum-Ideologie, die Hitler 1924 in Mein Kampf dargelegt hatte und die seit 1939 in einem Weltkrieg verwirklicht wurde. Die NS-Täter versuchten, ihre Verbrechen möglichst geheim zu halten und mit Euphemismen wie Umsiedlung oder Sonderbehandlung zu tarnen. Die Deutschen erfuhren durch private Berichte und teils recht unverstellte Andeutungen in Medien dennoch genug Details, um auf den organisierten Judenmord schließen zu können. Das spurlose Verschwinden jüdischer Nachbarn, das Ziel ihrer öffentlichen Abtransporte wurde wahrgenommen, aber nicht weiter hinterfragt. Der Satz „du kommst sonst ins KZ“ war ab 1933 ein Drohwort für fast jeden. Gerüchte über die Lager „im Osten“ kamen mit den Fronturlaubern praktisch in jedes Dorf; alliierte Rundfunksender (die gehört wurden, obwohl das Hören von Feindsendern verboten war und teils drakonisch bestraft wurde) meldeten die Massenmorde. Der Holocaust war in Deutschland ein „offenes Geheimnis“: Wer es wissen wollte, konnte es wissen, doch hielt ein verbreiteter Mangel an Neugier viele Deutsche von genauerer Kenntnis ab. Der polnische Geheimdienst lieferte den Briten bereits 1942 den Beweis für den Massenmord in Auschwitz. Auch der damalige Papst Pius XII. wusste früh davon. Die ständigen Angriffe gegen jüdische Bevölkerungsteile ab April 1933 wurden zum Teil passiv akzeptiert und von Nutznießern begrüßt. Enteignungsartige „Arisierungen“ selbst kleinster Geschäfte oder Betriebe hatten immer Nutznießer und geschahen vor den Augen der örtlichen Bevölkerung. Rettungsaktionen für Juden waren eine seltene Ausnahme; Mittäterschaft oder Gleichgültigkeit waren die Regel. Oskar Schindler bewahrte rund 1200 jüdische Zwangsarbeiter aus Krakau vor der Ermordung. Das von der Bekennenden Kirche 1938 eingerichtete Büro Grüber verhalf vor allem Judenchristen bis zu seiner Schließung 1940 heimlich zur Ausreise. In den Nürnberger Prozessen wurden nur führende Personen unter anderem wegen Verbrechen gegen die Menschheit und Kriegsverbrecher verurteilt. Eine wirkliche Aufarbeitung der NS-Verbrechen und ihrer Ermöglichung begann in Westdeutschland erst um 1960. Seit 1945 hat die Holocaustleugnung eine dauerhafte und internationale Tradition. Am United States Holocaust Memorial Museum wird seit dem Jahr 2000 an einer Encyclopedia of Camps and Ghettos geschrieben (Leitung: Geoffrey Megargee und Martin Dean). 2013 nannten sie über 42.500 Orte der Gewalt, die es im Dritten Reich im besetzten Europa gab (darunter Konzentrationslager, Arbeitslager, Gettos, Judenhäuser und Orte, an denen Frauen zur Prostitution gezwungen wurden). Bis dahin war diese Zahl weit geringer geschätzt worden. Zwangsarbeiter und Beutekinder Millionen Menschen aus den besetzten Gebieten, insbesondere aus Polen, den Balkanländern und der Sowjetunion, wurden ins Reichsgebiet entführt oder auch in den besetzten Gebieten als Zwangsarbeiter ausgebeutet. Viele von ihnen überlebten den Zweiten Weltkrieg nicht. Die Kinder der Zwangsarbeiterinnen wurden in auf Himmlers Befehl eingerichtete „Ausländerkinderpflegestätten“ gebracht, die kein anderes Ziel hatten, als diese „unerwünschten“ Kinder unbemerkt von der Öffentlichkeit verkümmern zu lassen. Daneben wurden zehntausende polnische Kinder, die die „rassischen Merkmale“ erfüllten, ihren Familien weggenommen und nach Deutschland deportiert, von denen die wenigsten nach dem Krieg zu ihren Eltern zurückkehren konnten. Andere, die die rassischen Merkmale nicht erfüllten, wurden massenhaft in Konzentrationslagern ermordet. Der bekannteste Fall dürfte die Deportation zehntausender Kinder aus der Gegend um Zamość – in der Deutsche aus dem Baltikum und Bessarabien angesiedelt wurden – nach Auschwitz gewesen sein. Widerstand gegen den Nationalsozialismus Schon vor der Machtübernahme begann der Widerstand verschiedenster Gruppen gegen die Nationalsozialisten. In der Zeit des Nationalsozialismus selbst beschränkte sich der Widerstand, der immer mit Lebensgefahr verbunden war, auf eine verschwindend kleine Minderheit der deutschen Bevölkerung, wohingegen dieser Widerstand in den im Zweiten Weltkrieg besetzten Gebieten, beispielsweise im Partisanenkrieg, größere Ausmaße annahm. Kurz nach der Machtübernahme der NSDAP waren vor allem kommunistische, sozialdemokratische und andere linke Gruppen aktiv. Diese wurden jedoch innerhalb weniger Jahre durch die Gestapo und die SS stark geschwächt. Im Reich konnte beispielsweise der katholische Bischof von Münster und Kardinal Clemens August Graf von Galen durch seine öffentliche Verurteilung der Morde an den Behinderten dazu beitragen, dass die Aktion T4 von den Nationalsozialisten eingestellt wurde. Einzelpersonen der evangelischen Bekennenden Kirche wie etwa Pastor Martin Niemöller oder Dietrich Bonhoeffer schlossen sich nach Ausbruch des Zweiten Weltkrieges Widerstandskreisen an. Bonhoeffer musste wie viele andere NS-Gegner seinen Mut im KZ mit dem Leben bezahlen. Der kommunistische Einzelkämpfer Georg Elser verübte am 8. November 1939 im Münchner Bürgerbräukeller ein Bombenattentat auf Hitler, das dieser aber überlebte, weil er den Saal unerwartet kurz vor der mit einem Zeitzünder eingestellten Detonation der Bombe verließ. Elser wurde bald gefasst und im April 1945 im KZ Dachau ermordet. Die Münchner studentische Widerstandsgruppe Weiße Rose um die Geschwister Hans und Sophie Scholl rief in mehreren Flugblättern zum Widerstand gegen das NS-Regime auf. Außerdem suchte diese Gruppe Kontakt zu Widerstandskreisen in der Wehrmacht. Die bedeutendsten Mitglieder der Gruppe wurden im Februar 1943 gefasst und vom Volksgerichtshof unter dem Vorsitz des berüchtigten Richters Roland Freisler zum Tode verurteilt und kurze Zeit später hingerichtet. Im Kölner Raum traten die Edelweißpiraten auf, einige Gruppen von aus der bündischen und kommunistischen Tradition kommenden Jugendlichen, die sich zunächst gegen die Uniformität der Hitler-Jugend gewandt hatten, im Lauf des Krieges aber auch zu konkreten Widerstandsaktionen übergingen, die bis hin zu Sabotageakten reichten. Von Wien aus leitete die Widerstandsgruppe rund um Kaplan Heinrich Maier Informationen über Standorte, Beschäftigte und Produktionen der NS-Rüstungsbetriebe an die Alliierten, um damit deren Bombern gezielte Luftschläge zu ermöglichen, womit der Krieg verkürzt und die Zivilbevölkerung geschont werden sollte. Die Widerstandsgruppe Rote Kapelle bestand aus verschiedenen unabhängigen Gruppen, die auf mehreren Ebenen gegen das Regime arbeitete. Der vereinzelt und vergleichsweise selten vorkommende Widerstand von Privatpersonen, der sich eher im Stillen abspielte, entsprang oft einer moralischen Abscheu gegenüber den Taten des Regimes oder dem Mitleid mit den Opfern. Er reichte von der Verweigerung des Hitlergrußes bis hin zur verbotenen Versorgung mit Lebensmitteln für Zwangsarbeiter oder dem Verstecken von Verfolgten, meist Juden. Hitler überlebte mehrere Anschläge, darunter das bis heute bekannteste Attentat vom 20. Juli 1944, das vom militärischen Widerstand, der auch Kontakt zur Widerstandsgruppe Kreisauer Kreis hatte, organisiert worden war. Im Anschluss an das Sprengstoffattentat, das von Oberst Claus Schenk Graf von Stauffenberg durchgeführt wurde, kam es in Berlin in der „Operation Walküre“ zu einem Putschversuch, der aber nach dem Bekanntwerden von Hitlers Überleben schnell in sich zusammenfiel und niedergeschlagen wurde. Die unmittelbaren Akteure des Putschversuchs, Mitglieder der Wehrmacht, unter ihnen auch Stauffenberg selbst, wurden noch in der Nacht vom 20. auf den 21. Juli 1944 erschossen. Im Zuge der folgenden Ermittlungen kam es zur Entdeckung weiterer Umsturzpläne aus den Jahren 1938 bis 1944. Bis zum Kriegsende wurden in Prozessen vor dem Volksgerichtshof, die anfangs in Ausschnitten in der Wochenschau gezeigt wurden, über 200 Personen im Zusammenhang mit dem Attentat vom 20. Juli zum Tode verurteilt. Mehreren populären Generälen (u. a. Erwin Rommel, Günther von Kluge), die in den Verdacht der Mitwisserschaft gerieten, wurde der Ehrensuizid nahegelegt. Wichtige exekutive Instanzen der Verfolgung vor allem des innerdeutschen Widerstands waren die Geheime Staatspolizei (Gestapo) und der Volksgerichtshof. Widerstand leisteten auch in Deutschland oder im Exil lebende Künstler wie der kritische Schriftsteller und Dramatiker Bertolt Brecht und andere, die sich mit ihren Mitteln – meist publizistisch – gegen das NS-Regime wandten. Neben dem Widerstand in Deutschland entstanden nach Kriegsbeginn auch in den besetzten Gebieten Widerstandsgruppen wie zum Beispiel die Polnische Heimatarmee oder die Résistance in Frankreich. Sie lieferten den Deutschen unter deren Besatzung erbitterten Widerstand im Partisanenkrieg, der vor allem in den Balkanstaaten Jugoslawien, Albanien und Griechenland sowie in Polen (Warschauer Aufstand) besonders effektiv war, allerdings auch äußerst grausame Vergeltungsaktionen der deutschen Besatzer nach sich zog – wie etwa massenhafte Geiselerschießungen von Zivilisten. Insbesondere im besetzten Polen wurde sehr häufig wahllos die Bevölkerung ganzer Dörfer und Städte in Vergeltungsakten für geleisteten Widerstand ermordet. Von den Alliierten wurde der Widerstand in Deutschland selbst, anders als der in den besetzten Gebieten, so gut wie nicht unterstützt. Vielmehr bewirkte das alliierte Kriegsziel einer bedingungslosen Kapitulation eine fortdauernde Solidarisierung der deutschen Bevölkerung mit der NS-Führung, da es auch nach einem Staatsstreich kaum günstigere Friedensbedingungen erwarten ließ. Reflexionen zum Stand der NS-Forschung Einen Überblick über die Kontroversen zur NS-Forschung bis zur Jahrtausendwende findet man bei Ian Kershaw, der in einem Kapitel seines einschlägigen Werks Betrachtungen zum „Wesen des Nationalsozialismus“ diskutiert und im Schlusskapitel „historiographische Entwicklungstendenzen seit der deutschen Vereinigung“. Zum bereits in den 1920er Jahren auf Faschismus und Nationalsozialismus bezogenen Totalitarismus-Begriff stellt er fest, dass die Totalitarismustheorie in den 1990er Jahren wieder aufgelegt worden und nach wie vor weit verbreitet sei. Die hitzigen ideologischen Debatten, die die Zeiten des Kalten Krieges beherrschten, hätten sich jedoch in Luft aufgelöst. Michael Burleigh bekundet in seiner Gesamtdarstellung Zeit des Nationalsozialismus zwar Verständnis dafür, dass deutschsprachige Historiker sich bei ihrer Aufarbeitung der NS-Zeit auf die deutsche Geschichte zwischen 1933 und 1945 konzentrierten, hält aber entgegen, dass die Welt die Auswirkungen des Nazismus auch bereits vor Kriegsausbruch zu spüren bekommen habe, etwa durch die zahlreichen Flüchtlinge, die sich aus Deutschland und Österreich absetzten, aber auch in Gestalt von willkürlichen und gewaltsamen Störungen der internationalen Ordnung. Bei der Darstellung der im Zweiten Weltkrieg begangenen Verbrechen ist Burleigh auch die Darstellung europäischer Erscheinungsformen der Kollaboration mit den Nationalsozialisten wichtig sowie die Beteiligung nichtdeutscher und nichtösterreichischer Täter am Holocaust. Als politische Religion und totalitäre Herrschaftsform deutet und behandelt Burleigh den Nationalsozialismus in seinem Werk und merkt wie Kershaw dazu an, dass dieser Ansatz erst in den 1990er Jahren wieder „in Mode gekommen“ sei. „Totalitären Gestaltungswillen“ erkennt Riccardo Bavaj bei den Nationalsozialisten in seiner 2016 publizierten Synthese und erläutert: „Von totalitärem Gestaltungswillen ist die Rede, nicht weil an einer Totalitarismustheorie klassischer Prägung festgehalten werden soll, sondern weil der Begriff des Totalitären den politischen Anspruch der Nationalsozialisten, der auf eine vollständige Entgrenzung des Politischen zielte, typologisch am besten fasst.“ Die NS-Volksgemeinschaft stand demnach für ein „totalitäres Sozialexperiment“, bei dem es darum ging, Gesellschaft in homogene Gemeinschaft umzuformen, „organisiert in Form einer Führerschaft, die sich als Ausdruck eines vermeintlich einheitlichen Volkswillens inszenierte.“ Krieg, Expansion und Vernichtung waren für Bavaj „integrale Bestandteile“ dieses Experiments. Im Fazit seiner 2017 erschienenen Studie «Ein Volk, ein Reich ein Führer». Die deutsche Gesellschaft im Dritten Reich konstatiert Dietmar Süß, der Nationalsozialismus habe nicht nur die bestehenden Formen pluraler Öffentlichkeit zerschlagen, sondern habe auch in die Lebensführung jedes Einzelnen, jeder Familie eingegriffen. „Aber dieses private Leben war nicht einfach fremdgesteuert durch die NS-Führer, denn viele Volksgenossinnen und Volksgenossen konnten individuelles Glück durchaus mit veränderten politischen Bestimmungen in Übereinstimmung bringen. Sie trugen mit dazu bei, dass der Nationalsozialismus in beinahe alle Ritzen der Gesellschaft eindringen konnte, ja sie verkörperten häufig genug selbst die totalitären Ansprüche des Regimes.“ Der Historiker Wolfgang Wippermann dagegen lehnt in diversen Publikationen, zuletzt im Jahr 2002, eine Anwendung des Totalitarismusbegrffs auf die NS-Zeit strikt ab: Die darin inhärente Gleichsetzung des Nationalsozialismus mit dem Stalinismus oder anderen Diktaturen von links diene der Relativierung und Verharmlosung der nationalsozialistischen Verbrechen: Sie stelle „die Singularität des Holocaust in Frage“. Für Magnus Brechtken nahm das Dritte Reich trotz aller Kompetenzkämpfe von NS-Größen untereinander und trotz konkurrierender Institutionen – die sogenannte Polykratie in der nationalsozialistischen Herrschaft also inbegriffen – keine beliebige Entwicklung. Es zeige sich eine zielgerichtete, „ideologiegetriebene Abfolge von radikalisierenden Schritten“: Rassensegregation, völkische Militarisierung, territoriale Expansion und völkerverschiebender Lebensraumkrieg unter Einschluss millionenfacher Menschenvernichtung. „Dieser Impetus ging von Hitler aus, setzte sich in seinen Gläubigen fort und zwang schließlich mit dem Krieg das gesamte Volk in seinen Dienst.“ Ausschlaggebend für die rasche Entfaltung und breite Anerkennung der NS-Herrschaft in der Bevölkerung war aus der Sicht von Norbert Frei, dass es dem Regime gelang, „die Bedürfnisse und Sehnsüchte breiter Schichten überzeugend anzusprechen, zu seiner Sache zu erklären und wenigstens zum Teil auch zu befriedigen.“ Darin habe die Modernität des Hitler-Staats gelegen, und dies erkläre auch die langanhaltende Fähigkeit, die Massen zu mobilisieren und sich ihre Loyalität zu erhalten. „Der verbreitete Hunger nach sozialer Integration wurde beantwortet mit permanenter klassenübergreifender Mobilisierung und dem expliziten Verzicht auf politische Normalität.“ Eine nicht aufzulösende „Verknüpfung von technischer Modernität und reaktionärer Vision“ sei für die Wirklichkeit des Dritten Reiches grundlegend gewesen. In seinem Aufriss neuerer Forschungstendenzen sieht Jörg Echternkamp auf internationaler Ebene unterschiedliche Schwerpunktsetzungen: Während im Zentrum der amerikanischen Forschung demnach mit den Holocaust-Studien der Genozid an den europäischen Juden steht, gilt das Interesse in Großbritannien vor allem den Terror-Instrumenten der NS-Herrschaft. Jüngere deutsche Studien legten einen Akzent auf das Bedingungsgefüge, das die Identifikationsbereitschaft der großen Bevölkerungsmehrheit mit der von den Nationalsozialisten propagierten „Volksgemeinschaft“ bis weit in den Zweiten Weltkrieg zu erklären hilft. Die Frage nach der Attraktivität des Nationalsozialismus sei unbequem, so Echternkamp, und gehe über die in den 1990er Jahren diskutierte Frage nach der Modernität des Nationalsozialismus hinaus, die „die Wogen hochschlagen ließ.“ Es gehe es um die Kernfrage, warum sich so viele Deutsche für ein System begeistert haben, das wie kein anderes für Verfolgung, Terror und Massenmord stehe. Zudem mache „dieses Freilegen von Kontinuitätslinien“ die NS-Forschung anschlussfähig „gegenüber der Geschichte der Nachkriegszeit und der beiden deutschen Staaten.“ Demgegenüber betont Ian Kershaw u. a. wegen begrifflicher Unschärfe einen nur begrenzten Erklärungswert des Volksgemeinschaftskonzepts. Zum Leitbild der „Volksgemeinschaft“ in der NS-Zeit stellt Michael Wildt resümierend fest, dass die soziale Wirklichkeit nach einhelliger Forschungsauffassung dem propagierten Anspruch nicht entsprochen hat: „Entgegen dem von Hitler und Goebbels immer wieder beschworenen Ende des Klassenkampfes und der Einheit aller Arbeiter der Stirn und der Faust sowie der Unternehmer blieben die strukturellen Unterschiede und sozialen Asymmetrien zwischen Arbeitgebern und Arbeitnehmern, Kleingewerbetreibenden und Großbetrieben, selbstständigen Kleinbauern und Großgrundbesitzern auch im Nationalsozialismus erhalten.“ Statt einem nationalsozialistischen Propagandabegriff aufzusitzen, gelte es, von der gesellschaftlichen Wirklichkeit auszugehen „und Dimensionen von Zustimmung und Abwehr, Mitmachen und Verweigern, Anteil nehmen und Wegschauen zu erkunden.“ Ein wissenschaftlich produktiver Umgang mit dem Begriff setzt für Wildt „Volksgemeinschaft“ nicht als gegeben voraus, sondern untersucht die Praktiken ihrer Herstellung, also der Vergemeinschaftung. Dabei erscheint es ihm lohnend, die die „Aneignungsweisen“ nach Generation und Geschlecht zu untersuchen, „gerade weil sich das NS-Regime intensiv bemühte, sowohl die Jugend als auch die Frauen an sich zu binden.“ Dabei sei etwa die „maskuline Vergemeinschaftung“ durch „Kameradschaft“ von den Gemeinschaftserlebnissen junger BDM-Führerinnen zu unterscheiden. Deren Gemeinschaftsgefühl habe sich auch aus einem Zuwachs an Verantwortung und aus dem Zugang zu Leitungspositionen gespeist, die ihnen als jungen Frauen vordem nicht offengestanden hätten. In der jüngeren NS-Forschung beobachtet Echternkamp eine Verschiebung des zeitlichen Fokus von 1933 auf 1939/41. Während es in der älteren Forschung vor allem um die Frage gegangen sei, wie es zum Aufstieg des Nationalsozialismus habe kommen können und wie sich der „deutsche Sonderweg“ erklären lasse, sei unterdessen der Beginn des Krieges und des Völkermords stärker in den Fokus des Interesses gerückt. Ulrich Herbert signalisiert in seiner Darstellung des Dritten Reiches ebenfalls eine Fokusverschiebung. Für 1933 bis 1939 gehe es nur um spezifisch deutsche Geschichte; die Jahre von 1939 bis 1945 hingegen seien Teil der europäischen und Weltgeschichte „und für nahezu alle europäischen Staaten die bis heute schrecklichste Phase ihrer Vergangenheit.“ Dieses Ungleichgewicht müsse sich, so Herbert, in den Proportionen seiner Überblicksdarstellung niederschlagen. Siehe auch Sprache des Nationalsozialismus Nationalsozialistische Europapläne Österreich in der Zeit des Nationalsozialismus Liechtenstein in der Zeit des Nationalsozialismus Literatur Jörg Baberowski, Anselm Doering-Manteuffel: Ordnung durch Terror. Gewaltexzesse und Vernichtung im nationalsozialistischen und im stalinistischen Imperium. Dietz, Bonn 2006, ISBN 3-8012-0368-9. Riccardo Bavaj: Der Nationalsozialismus. Entstehung, Aufstieg und Herrschaft. Berlin 2016. Rezension Kurt Bauer: Nationalsozialismus. Ursprünge, Anfänge, Aufstieg und Fall. Wien/ Köln/ Weimar 2008. Wolfgang Benz, Hermann Graml, Hermann Weiß (Hrsg.): Enzyklopädie des Nationalsozialismus. dtv, München 1997, ISBN 3-423-33007-4. (kompaktes Handbuch und Lexikon) Wolfgang Benz: Geschichte des Dritten Reiches. Beck, München 2000; dtv, München 2003, ISBN 3-423-30882-6. (knappes Überblicks- und Standardwerk) Karl Dietrich Bracher: Die deutsche Diktatur. Entstehung, Struktur, Folgen des Nationalsozialismus. Kiepenheuer & Witsch, Köln 1993, ISBN 3-462-02249-0. (ausführliches Standardwerk) Magnus Brechtken: Die nationalsozialistische Herrschaft 1933–1939. 2., durchgesehene, bibliogr. aktualisierte Auflage. Wissenschaftliche Buchgesellschaft, Darmstadt 2012, ISBN 978-3-534-24892-6. Martin Broszat: Der Staat Hitlers (= dtv-Weltgeschichte des 20. Jahrhunderts). München 1969 (zahlreiche Neuauflagen, ISBN 3-423-04009-2). Martin Broszat, Norbert Frei: Das Dritte Reich im Überblick. Chronik – Ereignisse – Zusammenhänge. 3. Auflage. Piper, München 1992, ISBN 3-492-11091-6. Michael Burleigh: Die Zeit des Nationalsozialismus. Eine Gesamtdarstellung. 2. Auflage. Fischer, Frankfurt am Main 2000, ISBN 3-10-009005-5. (Die englische Originalausgabe mit dem Titel The Third Reich. A New History erhielt 2001 den Samuel Johnson Prize for Non-Fiction; Rezension von Klaus Hildebrand; Rezension von Joachim Fest; weitere Rezensionen nach Perlentaucher.) Richard J. Evans: Das Dritte Reich. 3 Bände. DVA, München 2004–2009 (umfassende und fundierte Gesamtdarstellung): Band 1: Aufstieg. DVA, München 2004, ISBN 3-421-05652-8. Band 2/I–II: Diktatur. DVA, München 2006, ISBN 3-421-05653-6. Band 3: Krieg. DVA, München 2009, ISBN 978-3-421-05800-3. Jürgen W. Falter: Hitlers Wähler. München 1991, ISBN 3-406-35232-4. (das Standardwerk zur Zusammensetzung der NSDAP-Wählerschaft) Joachim Fest: Ich nicht. Erinnerungen an eine Kindheit und Jugend. Rowohlt, Reinbek 2006, ISBN 3-498-05305-1. Ernst Fraenkel Der Doppelstaat. Recht und Justiz im „Dritten Reich“. Europäische Verlagsanstalt, Frankfurt am Main 1974 (amerikanische Originalausgabe unter dem Titel The Dual State. A Contribution to the Theory of Dictatorship.Oxford University Press, New York 1941) Norbert Frei: Der Führerstaat. Nationalsozialistische Herrschaft 1933 bis 1945. Neuausgabe, Beck’sche Reihe, München 2013, ISBN 978-3-406-64449-8. Michael Grüttner: Das Dritte Reich. 1933–1939 (= Handbuch der deutschen Geschichte. Band 19). Klett-Cotta, Stuttgart 2014, ISBN 978-3-608-60019-3. Ulrich Herbert: Das Dritte Reich. Geschichte einer Diktatur. Beck, München 2016, ISBN 978-3-406-69778-4. Ludolf Herbst: Das nationalsozialistische Deutschland 1933–1945. edition suhrkamp, Frankfurt am Main 1996, ISBN 3-518-11285-6. Klaus Hildebrand: Das Dritte Reich (= Oldenbourg Grundriss der Geschichte. Band 17). 7. Auflage. München 2009, ISBN 978-3-486-59200-9. (Standardwerk) Ian Kershaw: Der NS-Staat. Geschichtsinterpretationen und Kontroversen im Überblick. 3. Auflage. Rowohlt, Reinbek bei Hamburg 2002, ISBN 3-499-60796-4. (Wegweiser durch die Veröffentlichungen zum Thema) Michael Kißener: Das Dritte Reich. Wissenschaftliche Buchgesellschaft, Darmstadt 2005, ISBN 978-3-534-70173-5. Gerd Krumeich (Hrsg.) mit Anke Hoffstadt und Arndt Weinrich: Nationalsozialismus und Erster Weltkrieg (= Schriften der Bibliothek für Zeitgeschichte. NF Band 24). Klartext-Verlag, Essen 2010, ISBN 978-3-8375-0195-7. Franz Neumann: Behemoth. Struktur und Praxis des Nationalsozialismus. Fischer, Frankfurt am Main 1984, ISBN 3-596-24306-8. Kurt Pätzold (Hrsg.): Verfolgung. Vertreibung. Vernichtung. Verlag Philipp Reclam jun. Leipzig 1983, Reclams Universal-Bibliothek, Band 1008 Ernst Piper: Kurze Geschichte des Nationalsozialismus von 1919 bis heute. Hoffmann und Campe, Hamburg 2007, ISBN 978-3-455-50024-0. Michael Ruck: Bibliographie zum Nationalsozialismus. Bund-Verlag, Köln 1995, ISBN 3-7663-2355-5. Christoph Studt: Das Dritte Reich in Daten. Beck, München 2002, ISBN 3-406-47635-X. Dietmar Süß, Winfried Süß (Hrsg.): Das ‚Dritte Reich‘. Eine Einführung. Pantheon, München 2008, ISBN 978-3-570-55044-1. Hans-Ulrich Thamer: Verführung und Gewalt. Deutschland 1933–1945. Berlin 1998 (Taschenbuchausgabe der durchgesehenen und aktualisierten Ausgabe 1994; Originalausgabe 1986). Hans-Ulrich Wehler: Deutsche Gesellschaftsgeschichte. Vierter Band: Vom Beginn des Ersten Weltkrieges bis zur Gründung der beiden deutschen Staaten 1914–1949. Beck, München 2003, ISBN 3-406-32264-6. Hermann Weiß (Hrsg.): Biographisches Lexikon zum Dritten Reich. Frankfurt am Main 2002, ISBN 3-596-13086-7. Michael Wildt: Geschichte des Nationalsozialismus. Vandenhoeck & Ruprecht, Göttingen 2008, ISBN 978-3-8252-2914-6. Weblinks Übersichtskarten zum Stimmenanteil der NSDAP bei den Reichstagswahlen in den einzelnen Wahlkreisen während der Weimarer Republik . Informationen zur politischen Bildung, Heft 266, Bonn 2004. Nationalsozialismus und Zweiter Weltkrieg. Dossier der Bundeszentrale für politische Bildung, Bonn 2005. Das NS-Regime (1933–1939), Deutsches Historisches Museum Online Krieg und Holocaust – Der deutsche Abgrund. – Zehnteilige Dokumentarfilmreihe von ZDFinfo, deutsche und englische Version frei verfügbar bis 7. Mai 2031. Anmerkungen Holocaust Diktaturen Wikipedia:Artikel mit Video
1029
https://de.wikipedia.org/wiki/Di%C3%A4t
Diät
Die Bezeichnung Diät kommt von und wurde ursprünglich im Sinne von „Lebensführung“/„Lebensweise“ verwendet. Die Diätetik beschäftigt sich auch heute noch wissenschaftlich mit der „richtigen“ Ernährungs- und Lebensweise. Im deutschsprachigen Raum bezeichnet der Begriff bestimmte Ernährungsweisen und Kostformen, die entweder zur Gewichtsab- oder -zunahme oder als Heilverfahren zur Behandlung von Krankheiten dienen sollen. Umgangssprachlich wird der Begriff in Deutschland häufig mit einer Reduktionsdiät (Reduktionskost) zur Gewichtsabnahme gleichgesetzt. Er bildet somit ein Synonym zur Schlankheitskur. Diätformen Seit Hippokrates wird als Diät eine spezielle Ernährung des Menschen bezeichnet, bei der längerfristig oder dauerhaft eine spezielle Auswahl von Lebensmitteln verzehrt wird. Wobei unter „Diät“ nicht nur die Ernährung, sondern die (gesunde) Lebensweise verstanden wurde. Auf dem antiken System der Humoralpathologie beruhend sollte bei Diokles von Karystos die Beschaffenheit der Nahrung der Qualität der Jahreszeiten entgegengesetzt sein; im Sommer etwa sollte die Ernährung nicht erwärmend und trocknend, im Winter weder kühlend noch feucht machend, sein. Im deutschsprachigen Raum wird heute als Diät entweder eine kurzfristige Veränderung der Ernährungsform zur Gewichtsreduktion (z. B. bei Adipositas), in einigen Fällen auch zur Gewichtszunahme (z. B. bei Anorexie) oder eine längerfristige bis dauerhafte Ernährungsumstellung zur unterstützenden Behandlung einer Krankheit (z. B. bei Zöliakie, Lactoseunverträglichkeit, Fruchtzuckerunverträglichkeit) bezeichnet. Fasten bedeutet dagegen den vorübergehenden Verzicht auf Lebensmittel aus religiöser (im Islam der Ramadan, in der christlichen Kirche die vorösterliche Fastenzeit) oder gesundheitlicher Motivation (das Heilfasten). Jede Diätform, ob sie zur Gewichtsreduktion oder zur unterstützenden Krankheitsbehandlung dient, basiert auf einer Verminderung oder Vermehrung des relativen Anteils eines Nahrungsbestandteils (Kohlenhydrate, Fette, Eiweiße, Vitamine, Mineral- und Konservierungsstoffe) gegenüber den anderen und/oder einer Erniedrigung oder Erhöhung der zugeführten Gesamtenergiemenge (siehe: Physiologischer Brennwert) sowie ggf. einer bilanzierten Veränderung der Flüssigkeitszufuhr. Einen ganzheitlicheren Ansatz verfolgt die kognitive Verhaltenstherapie, die von Psychologen in Kliniken zur Behandlung von Adipositas eingesetzt wird. Bei dieser Methode werden dysfunktionale Verhaltenroutinen und Essgewohnheiten identifiziert und umtrainiert. Bei starkem Übergewicht und Essstörungen gilt sie als die langfristig sinnvollste Methode zur Gewichtsreduktion. Reduktionsdiäten Eine Reduktionsdiät zielt auf die Reduktion des Körpergewichts. Es gibt zahlreiche Reduktionsdiäten, die sich in ihren Methoden teilweise erheblich voneinander unterscheiden. Nur wenige Diätformen sind wissenschaftlich überprüft. Die Entwicklung und Propagierung der Reduktionsdiäten ist nicht nur den Veränderungen wissenschaftlicher Erkenntnisse, sondern auch Moden und Weltanschauungen unterworfen. Einige Diätformen gelten in der Medizin sogar als gesundheitsgefährdend. Gemäß den Empfehlungen der Deutschen Gesellschaft für Ernährung und der Deutschen Gesellschaft für Ernährungsmedizin sollten Reduktionsdiäten nur kurzzeitig erfolgen (und bei Extremformen nur unter ärztlicher Aufsicht). Allgemeiner Konsens ist, dass eine Reduktionsdiät nur dann dauerhaften Erfolg haben kann, wenn ihr eine dauerhafte Umstellung der Ernährung folgt, in der die Energiebilanz des Körpers ausgeglichen ist, d. h. in der nicht mehr Energie über Lebensmittel zugeführt wird als der Körper braucht. Eine Lebensumstellung hin zu vollwertiger Ernährung und vermehrter körperlicher Aktivität gilt als empfehlenswert. Beim Rückfall in alte Ess- und Lebensgewohnheiten kommt es meist zu einem Wiederanstieg des Körpergewichts, dem sogenannten Jo-Jo-Effekt, weil man in alte Essgewohnheiten verfällt, die nicht dem neuen geringeren Körpergewicht angepasst sind. Es gibt zahlreiche Diäten mit unterschiedlichen Konzeptionen. Diese heißen zum Beispiel Low-Carb, Low-Fat, Trennkost oder Glyx-Diät. Bei einer Diät zur Gewichtsabnahme ist eine Minderung der Zufuhr an Kohlenhydraten genauso effektiv wie eine Minderung der Zufuhr an Fetten. Dabei ist es gelegentlich üblich, Mahlzeiten auszulassen und mit Nahrungsergänzungsmitteln zu ersetzen, die dem Körper die benötigten Nährstoffe, Vitamine und Mineralien liefern sollen. Nach einer im Jahr 2005 an Mäusen durchgeführten Studie des Deutschen Instituts für Ernährungsforschung besteht ein Zusammenhang zwischen dem Konsum von Fruchtzucker (Fructose) und Übergewicht, der nicht auf der vermehrten Energieaufnahme beruht, sondern darauf, dass Fructose die Stoffwechsel­tätigkeit beeinflusst und auf diese Weise die Anreicherung von Körperfett begünstigt. Diäten zur Krankheitsbehandlung Diäten werden als Einzelmaßnahme oder zusätzlich zur medikamentösen und evtl. operativen Therapie zur Behandlung von Krankheiten eingesetzt. Mit der Entwicklung wirksamer Ernährungsstrategien beschäftigt sich die Ernährungsmedizin. Bis in die 1980er Jahre gab es fast für jede Krankheit eine eigene Diät. Heutzutage wird für die meisten Erkrankungen, wie auch für die Allgemeinbevölkerung, eine, evtl. modifizierte, lactovegetabile Vollwertkost (s. o.) in Verbindung mit körperlicher Aktivität empfohlen. Insbesondere in der Diabetesbehandlung kam es seit den 1990er Jahren zu einem Paradigmenwechsel, der weg von einer sehr streng reglementierten Ernährung zu einer fast völligen Freigabe der Ernährungsempfehlungen führte („energiereduzierte Mischkost“). Die Diätempfehlungen sind ständigen, wissenschaftlich begründeten Veränderungen unterworfen und werden in Leitlinien der medizinischen Fachgesellschaften wie z. B. der Deutschen Gesellschaft für Ernährungsmedizin veröffentlicht. Diäten zur Krankheitsbehandlung sollten besonders in der Anfangsphase unter ärztlicher Begleitung erfolgen. Sonstiges Beispiele für Krankheiten, bei denen eine Diät die Heilung begünstigt oder den Verlauf verbessert, sind: Adipositas – Reduktionsdiät krankhaftes Untergewicht, z. B. bei Anorexie – kalorienangereicherte Ernährung Bluthochdruck – salzreduziert Organerkrankungen (Leberzirrhose, fortgeschrittene Niereninsuffizienz, Chronisch-entzündliche Darmerkrankungen) Nahrungsmittelunverträglichkeiten (Zöliakie, Laktoseintoleranz, Nahrungsmittelallergie, Fruchtzuckerunverträglichkeit) Stoffwechselerkrankung (Gicht, Diabetes mellitus) Die auf Falschmeldungen basierende so genannte Max-Planck-Diät entbehrt wissenschaftlicher Grundlage. Bei schweren Krankheiten wie Krebs kann eine Diät nur eine unterstützende Therapieform sein. Bei Essstörungen ist eine Psychotherapie erforderlich, zu deren Begleitung eine Diättherapie erfolgen kann. Literatur Andrea Hausberg: Endlich abnehmen mit Verhaltenstherapie! Psychologie-Praxis-Verlag, Norden 2014, Amazon kindle Ebook. Zafra Cooper: Kognitive Verhaltenstherapie bei Adipositas. Schattauer, Stuttgart 2007, ISBN 978-3-7945-2543-0. John Ayrton Paris: A Treatise on Diet. London 1826; Nachdruck ebenda 1926. Karl Schantz (Hrsg.): Praktischer Lehrkurs der Gesundheitspflege. Ein Wegweiser in gesunden und kranken Tagen. 2 Bände. Brauer & Mönnich, Bremen ohne Jahr. Band 1, S. 93–96 (Die Diät als Heilverfahren). Weblinks Einzelnachweise
1030
https://de.wikipedia.org/wiki/Daten
Daten
Daten bezeichnet als Plural von Datum Fakten, Zeitpunkte oder kalendarische Zeitangaben. Als Pluralwort steht es für durch Beobachtungen, Messungen u. a. gewonnene [Zahlen]werte sowie darauf beruhende Angaben oder formulierbare Befunde. Allgemeines Während Daten in der Umgangssprache Gegebenheiten, Tatsachen oder Ereignisse sind, sind Daten in der Fachsprache Zeichen, die eine Information darstellen. In verschiedenen Fachgebieten wie z. B. der Informatik, der Mathematik, der Wirtschaftstheorie, der Neurowissenschaft oder den Biowissenschaften sind unterschiedliche – meist ähnliche – Definitionen gebräuchlich. Eine einheitliche Definition gibt es bisher nicht. Das liegt auch daran, dass die verschiedenen Fachgebiete dem Begriff Daten einen unterschiedlichen Begriffsinhalt zuordnen, der nur dieses Fachgebiet betrifft. Im Datenschutzrecht sind im Wesentlichen die personenbezogenen Daten gemeint, d. h. Angaben über natürliche Personen, z. B. das Geburtsdatum oder der Wohnort. Für die Datenverarbeitung und (Wirtschafts-)Informatik werden Daten als Zeichen (oder Symbole) definiert, die Informationen darstellen und die dem Zweck der Verarbeitung dienen. Die Wirtschaftstheorie beschreibt Daten als diejenigen volkswirtschaftlichen Gegebenheiten, die einen wesentlichen Einfluss auf den Ablauf der Wirtschaft haben, selbst dabei aber nicht beeinflusst werden. Etymologie und Sprachgebrauch Daten oder zuvor Data sind eigentlich Pluralbildungen von Datum, das als Lehnwort aus dem Lateinischen zurückgeht auf datum ‚gegeben‘ (PPP zu lat. dare ‚geben‘) bzw. substantiviert ‚das Gegebene‘. Auf wichtigeren Schriftstücken war in der üblichen Einleitungsformel vermerkt „datum …“ („gegeben (am) …“) mit <Zeitangabe> und eventueller <Ortsangabe> – womit deren Inhalt „das Gegebene“ wurde. Die Pluralform Daten zu Datum folgt anderen Wörtern lateinischen Ursprungs wie Studien – Studium oder Individuen – Individuum. Da sich in der deutschen Sprache die Bedeutung von „Datum“ im allgemeinen Sprachgebrauch eingeengt hat auf Kalenderdatum, wird für die Pluralbildung im Sinne von Zeitpunkten oft nicht die Wortform „Daten“ benutzt, sondern stattdessen von „Datumsangaben“ oder „Terminen“ gesprochen. Umgekehrt werden für die Einzahl von „Daten“ im weiteren Sinn als eine gegebene Messung, Information oder Zeichen(kette) dann Wörter wie „Wert“, „Angabe“ oder „Datenelement“ verwendet. Es handelt sich also um ein Pluraletantum. Daten im Unterschied zu Information Obwohl diese beiden Ausdrücke in der Umgangssprache oft synonym benutzt werden, unterscheidet die Informationstheorie beide dem Begriff nach grundlegend voneinander. Details und Beispiele siehe → Information. Recht Das deutsche Recht verwendet an verschiedenen Stellen den Datenbegriff als Rechtsbegriff. Verwendet wird der Begriff etwa im Datenschutz (Art. 4 Nr. 1 DSGVO) oder im Strafrecht unter „Ausspähen von Daten“ ( StGB); „Daten“ in diesem Sinn sind „nur solche, die elektronisch, magnetisch oder sonst nicht unmittelbar wahrnehmbar gespeichert sind oder übermittelt werden.“ Diese strafrechtliche Bestimmung von Daten stellt auf die technische Sicht von Daten als maschinenlesbar codierte Zeichen ab, die an ein Speicher- oder Übertragungsmedium gebunden sind. Davon zu unterscheiden ist eine semantische Dimension von Daten als Träger von Informationen. Diese Unterscheidung hat auch eine rechtliche Bedeutung. Die Frage nach dem rechtlichen Schutz für den Informationsgehalt von Daten führt in den Anwendungsbereich des geistigen Eigentums (Urheberrecht, gewerblicher Rechtsschutz) oder des Datenschutzes. Unbefugte Veränderungen der Codierung auf einem Datenträger sind dagegen als Eingriff in das Sacheigentum am Datenträger anzusehen und damit sachenrechtlich und ggf. auch strafrechtlich relevant. Eigentum an Daten: Ein dem Sacheigentum (§ ff. BGB) entsprechendes Eigentum an Daten kennt das Recht in Deutschland nicht. Da die Eigentumsvorschriften auf eine ausschließliche Zuordnung einer nicht beliebig vermehrbaren und eindeutig identifizierbaren Sache ausgerichtet sind, passen sie nicht zum Charakter von Daten als beliebig, fast ohne Kosten vermehrbares, nicht-rivales Gut. Wohl aber erkennt das geltende Recht ein Eigentum an Datenträgern an. Noch nicht abschließend geklärt ist bisher, inwieweit sich das Eigentum am Datenträger oder an einem Daten produzierenden Gerät auf die gespeicherten bzw. produzierten Daten erstreckt. Das österreichische Kernstrafrecht kennt den Datenbegriff seit der Einführung des StGB (Datenbeschädigung). Im Laufe der Zeit wurden weitere Tatbestände hinzugefügt, sodass heute auch der betrügerische Datenverarbeitungsmissbrauch ( StGB), Datenfälschung ( StGB), die Störung der Funktionsfähigkeit eines Computersystems ( StGB) und diverse Vorfelddelikte (ua , und StGB) bestraft werden können. Ferner findet sich eine differenzierte Darstellung des Begriffs im Datenschutzgesetz 2000 (DSG). So wird zwischen personenbezogenen und nicht personenbezogenen Daten unterschieden, wobei nur erstere durch das DSG geschützt werden. Informatik Laut Definition der inzwischen abgelösten Norm DIN 44300 Nr. 19 waren Daten (ab 1985) „Gebilde aus Zeichen oder kontinuierliche Funktionen, die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen, vorrangig zum Zweck der Verarbeitung und als deren Ergebnis.“ Gemäß Terminologie der geltenden Norm des internationalen Technologiestandards ISO/IEC 2382-1 für Informationstechnik (seit 1993) sind Daten – Data: „a reinterpretable representation of information in a formalized manner, suitable for communication, interpretation, or processing“ – eine wieder interpretierbare Darstellung von Information in formalisierter Art, geeignet zur Kommunikation, Interpretation oder Verarbeitung. In der Informatik und Datenverarbeitung versteht man Daten gemeinhin als (maschinen-)lesbare und -bearbeitbare, in der Regel digitale Repräsentation von Information. Ihr Inhalt wird dazu meist zunächst in Zeichen bzw. Zeichenketten kodiert, deren Aufbau strengen Regeln folgt, der sogenannten Syntax. Um aus Daten wieder die Informationen zu abstrahieren, müssen sie in einem Bedeutungskontext interpretiert werden. So kann eine Ziffernfolge wie „123456“ zum Beispiel in Abhängigkeit vom Kontext für eine Telefonnummer, eine Kontonummer oder die Anzahl von Kfz-Neuzulassungen in einem bestimmten Zeitraum stehen. Die betrachtete Zeichenfolge „123456“ oder auch „11110001001000000“ als solche kann nur als Aneinanderreihung von Ziffern erkannt werden; ihre konkrete Bedeutung wird erst im jeweils passenden Kontext (siehe Semantik) klar. Die Speicherung von Daten erfolgt auf Datenspeichern, wie z. B. Festplatten, DVDs, Flash-Speichern oder auch Magnetbändern, früher z. B. auch Lochkarten. Diese Datenträger gelten als Hardware, während die auf oder in ihnen enthaltenen Daten als „immaterieller Begriff“ zu verstehen sind. Die Form der Darstellung von Daten nennt man Kodierung, die Menge der dabei möglichen Zeichen nennt man Codealphabet (z. B. UTF-8). Daten können unterschiedlich kodiert sein, d. h. in unterschiedlichen Codes notieren, aber dennoch die gleiche Information repräsentieren. In der heutigen Digitaltechnik hat sich die Kodierung in binärer Form fast ausschließlich durchgesetzt. Ein Bit ist dabei die kleinste Informationseinheit. Grundsätzlich ist neben Binärcode auch die Verwendung von Alphabeten mit mehr als zwei Symbolen möglich. Gebräuchliche Speicherzellen kennen nur die Zustände „an“ und „aus“, die als „1“ und „0“ und damit als die Basiswerte des Binärsystems interpretiert werden. Speicherzellen mit mehr als einem Bit pro Zelle finden sich in Flash-Speichern, z. B. die MLC- oder TLC-Speicherzelle. Speicherzellen für überlagerte Quantenzustände, sogenannte Qubits, befinden sich noch im Forschungsstadium. Kategorisierung von Daten Man unterscheidet: strukturierte Daten: Die Daten (zum Beispiel in Datenbanken oder Dateien) weisen eine gleichartige Struktur auf, semistrukturierte Daten (z. B. Extensible Markup Language (XML)) oder unstrukturierte Daten (beispielsweise Dokumente, beliebige Texte, Grafiken). Nach dem Grad ihrer Beständigkeit unterscheidet man: Transiente Daten (flüchtig, übergangsweise) versus persistente Daten (dauerhafter). Eingabedaten und Ausgabedaten bzw. zu speichernde versus gespeicherte Daten. Nach dem Grad der Digitalisierung unterscheidet man: Analoge Daten, die nicht digital zur Verfügung stehen und digitale Daten, die digital zur Verfügung stehen. Nach dem Aggregationsgrad unterscheidet man: Mikrodaten auf unterster statistischer Ebene wie personenbezogene Daten Makrodaten auf höchster statistischer Ebene wie Bevölkerung. Weitere Begriffe für Datenarten Anwendungsdaten sind fachlich-funktional zu verarbeitende Daten – im Gegensatz zu technischen Daten (wie Installationsdaten, Programmcode, Ausführbare Dateien usw.) Anwendungsdaten lassen sich unterscheiden nach Stammdaten, Bewegungsdaten und Bestandsdaten; siehe auch Stammdaten. Neartime-Daten sind Kopien von aktuellen Daten mit etwas geringerer Aktualität als die Originaldaten (in Echtzeit Realtime-Daten). Sicherungsdaten sind zur Sicherheit kopierte Datenbestände, auf die bei Bedarf, z. B. zur Wiederherstellung irrtümlich gelöschter Daten zurückgegriffen werden kann. Originäre versus abgeleitete Daten: Originär sind erst- und einmalig vorhandene Daten. Aus ihnen können Summen, Kopien oder andere Konstrukte gebildet (abgeleitet) werden. Serielle Daten (auch sequentielle Daten genannt): Die Daten werden nicht unter dem Managementsystem einer Datenbank (DBMS) verwaltet, sondern in einer Standard-Dateiform des Betriebssystems gespeichert und verarbeitet. In der Regel ist dabei ein Direktzugriff nicht möglich; die Daten müssen dann der Reihe nach geschrieben bzw. gelesen werden. Historische Daten: Der Datenbestand zu bestimmten Zeitpunkten (z. B. Stand vor Änderungen, Stand zum Jahresanfang) kann getrennt gespeichert und später in bestimmten Funktionen (z. B. Bildschirmanzeige, Vergleichen alt vs. aktuell) verwendet werden. Formen der Verarbeitung von Daten Als Datenoperationen beim Speichern von Daten sind nach dem Prinzip „CRUD“ das erstmalige Erfassen von Daten (create), das Lesen (read), das Verändern (update) und das Löschen (delete) zu unterscheiden. Gegenstand solcher Operationen ist zumeist eine bestimmte Gruppe von Daten (wie eine Kundenadresse, Bestellung etc.), die z. B. nach den Regeln der Datenmodellierung gebildet wurde. Diese datentechnischen Operationen werden durch Computerprogramme ausgelöst, d. h. über entsprechende, in diesen enthaltene Befehle (als Teil eines implementierten Algorithmus) vorgegeben. Die Operationen sind einerseits selbst Input-/Output-Befehle in Bezug auf den Datenbestand, sie stehen zum Teil aber auch im Zusammenhang mit Eingabe und Ausgabe seitens der Benutzer des Computerprogramms. Zweck der Speicherung von Daten ist in der Regel ihre spätere Nutzung. Dabei lässt sich die einfache Wiedergabe (z. B. in Form von Anzeigen oder Listen) unterscheiden von dem Auswerten, bei dem die Daten in unterschiedliche logische, mathematische oder darstellende Verfahren einfließen (z. B. zur Summenbildung, Durchschnittsberechnung, Differenzbildung, Datenabgleich, als grafische Diagramme usw.). Eine besondere Form der Daten-Verarbeitung sind der Datenimport (Dateiimport) und Datenexport (Dateiexport) als gängige Methode zum Datenaustausch zwischen verschiedenen Systemen. Hierbei ist unter Umständen auch eine Datenkonvertierung erforderlich, wenn Ausgangs- und Zielsystem unterschiedliche Datenformate oder Dateiformate verwenden. Betrachtungs- und Wirkungsebenen für Daten Der Begriff „Daten“ tritt in unterschiedlichen, miteinander im Zusammenhang stehenden Wirkungs- und Betrachtungsebenen auf. Dies sind im Wesentlichen: Im Datenmanagement werden allgemeine Rahmenbedingungen für das Arbeiten mit den Daten festgelegt und im laufenden Betrieb angewendet, zum Beispiel: Wer gilt als Eigentümer der Daten? Wo und wie entstehen die Daten oder werden sie genutzt? Wer darf auf sie zugreifen (Datensicherheit); Regeln und Maßnahmen für den Datenschutz und die Datensicherung; unternehmensweite Modelle und Namenskonventionen; Einsatzkonzepte für Datenwerkzeuge usw. Datendesign: Vornehmlich bei Softwareentwicklung im Rahmen von Projekten spielen Daten, neben der Funktionalität der Programme, eine zentrale Rolle. Unter Einsatz individuell hierfür verfügbarer Verfahren und Werkzeuge werden dabei Details der Datenarchitektur festgelegt, z. B.: Welche Daten kennt die Software? Wie stehen sie untereinander im Zusammenhang? Gibt es sie bereits? Werden sie in Datenbanken oder in Dateien verwaltet/gespeichert? Pflicht- oder optional mögliches Feld? Welche Datentypen und Datenstrukturen sind zu bilden? Welche Ausprägungen und Inhalte kann ein Attribut annehmen? Technische Implementierung: Die Ergebnisse der Designfestlegungen werden (bei Speicherung in einem Datenbanksystem) in ein Datenbankmodell eingestellt, als Grundlage für die Verarbeitung und Verwaltung der Daten, die die Datenbank aufnehmen soll. In der Programmierung entsteht der Programmcode, über dessen Befehle Daten verarbeitet werden. Mit sogenannten Deklarationen werden Datenstrukturen mit ihren einzelnen Datenfeldern so angeordnet, dass sie die Daten aufnehmen können, und dass bei der Übersetzung Befehle erzeugt werden, wie es den Feldeigenschaften (Position, Länge, Datenformat usw.) entspricht. Tatsächliche Daten: Hier werden die Daten tatsächlich gespeichert und von den Programmen benutzt. Daten in der Programmierung Daten sind vornehmlich Quelle und Ziel der Verarbeitung in Computerprogrammen. Dazu sind im Programm, d. h. in dessen Quelltext, dem Verarbeitungszweck entsprechende Deklarationen und Befehle erforderlich. Diese können, abhängig von der Programmiersprache, erhebliche syntaktische und auch sprachlich-begriffliche (semantische) Unterschiede aufweisen. Wichtige datenbezogenen Begriffe sind hier (jeweils mit Synonymen, ähnlichen Begriffen und Beispiel angegeben): Datenbestand: Dort werden Daten gespeichert, von einem Programm erzeugt, verändert oder gelöscht und/oder von dort gelesen (siehe auch CRUD). Ähnlich: Datenbank, Datei, Datenbasis; Beispiel: Kundenadressen, Bestelldaten. Datensatz: Fasst die auf ein Objekt (Entität) bezogenen Angaben/Werte zusammen. Ähnliche Begriffe: Tupel, Verbund, Recordset; Beispiel: Adresse eines bestimmten Kunden. Datenfeld: Eine einzelne, elementare, zu einem Datensatz gehörende Angabe oder Information. Beispiel: Geburtsdatum, Mehrwertsteuersatz in Prozent, Postleitzahl. Ähnlich: Variable, Konstante, Feld. Datenstruktur: Zusammenfassung mehrerer Datenfelder zu einer Gruppe. Vertreter: Verbund (Datengruppe), Array/Tabelle, Stack; Beispiel: Telefonnummer(n) des Kunden, Ländercode, Vorwahl, Tel-Nr, gegebenenfalls Durchwahl Datentyp: Klassifizierung für Datenfelder und -strukturen, zum Beispiel Text, numerisch/Gleitkomma, Array. Hieran orientieren sich die Befehle (Methoden, Funktionen), die auf die Datenfelder angewendet werden können. Ähnlich: Datenformat; Beispiel: Postleitzahl ist ein numerisches Feld Weitere Datenbegriffe, denen in der Programmierung / Softwareentwicklung eine wesentliche Bedeutung zukommt, sind beispielsweise: Datenmodellierung, Eingabe und Ausgabe, Datenfluss, … Statistik Seit der Jahrtausendwende soll der Anteil der digitalen Daten den der analogen Aufzeichnungsbestände überschritten haben. Im Jahre 2020 wurden etwa 60 Zettabytes (6*1022 Bytes = 60 Billionen Gigabytes) an digitalen Daten erzeugt und weiterverwendet. Das Gesamtvolumen wuchs in den letzten zehn Jahren um mehr als das zwanzigfache und wächst zurzeit jährlich etwa um 25 %. In Blu-ray Discs ausgedrückt (25 GB, 2.500 TB/m^3, 1,5 TB/kg, Acryl 1,2 t/m^3) entspricht dies dem Gewicht der Giseh-Pyramide, wobei der „Datenhaufen“ deren Größe übersteigt. Auch in den nächsten Jahren wird sich der weltweite Datenverkehr voraussichtlich vervielfachen, ebenso wie der Anteil an „dunkler Information“, was bedeutet, dass immer mehr Information zwischen Maschinen ausgetauscht wird. Für 2020 wird „die Menge an Daten, die erstellt, vervielfältigt und konsumiert werden, bei etwa 40 Zettabytes liegen – und damit 50-mal so hoch sein wie noch vor drei Jahren“. Betriebs- und Volkswirtschaftslehre In Betriebs- und Volkswirtschaftslehre versteht man unter Daten gegebene und meist durch den Entscheidungsträger nicht beeinflussbare ökonomische Größen. Beide Wissenschaften nehmen die etymologische Herkunft des Wortes (, ‚das Gegebene‘) wörtlich. Die Umwelteinflüsse auf diese Entscheidungen teilt man in endogene Faktoren wie die innerbetriebliche Akzeptanz von Unternehmensentscheidungen oder die Störanfälligkeit bei der Durchführung der Leistungsprozesse und exogene Faktoren ein. Hierzu gehören naturbedingte (Angaben zum Klima und Wetterdaten) und gesellschaftsbedingte Daten (wie Gesetze, Tarifverträge, Aktionsparameter der Konkurrenten, Lieferanten und Abnehmer oder Institutionen), die nicht als Reaktion auf eigene Aktionsparameter zu verstehen sind. Unterbleibt jeglicher Beeinflussungsversuch durch den Entscheidungsträger, handelt es sich wie bei den naturbedingten Gegebenheiten auch bei den gesellschaftsbedingten um Datenparameter. Sie sind insbesondere die durch die äußere Umgebung eines Unternehmens (Markt, Staat, Zentralbank, Aufsichtsbehörden, Ausland) festgelegten Rahmenbedingungen, welche zumindest kurzfristig weder direkt noch indirekt durch eigene Entscheidungen beeinflussbar sind. Der Entscheidungsrahmen sieht mithin die Entscheidungsumwelt als ein unveränderliches Datum an. Als wesentliche Entscheidungsgrundlage dienen Unternehmensdaten, die ein Unternehmen bei seiner Tätigkeit innerhalb eines Geschäftsjahres sammelt. Sie werden unterteilt nach operativen Daten, die zur Abwicklung des operativen Geschäfts dienen und dispositive Daten, die das Management für Managemententscheidungen benötigt. Lediglich ein geringer Teil aus dem Rechnungswesen gelangt im Rahmen der Publizitätspflicht aus bilanzrechtlichen Gründen durch Veröffentlichung im Jahresabschluss oder in Quartalsberichten an die interessierte Öffentlichkeit. Unterschieden wird in beiden Wissenschaften zwischen „harten“ und weichen Daten, je nachdem, ob sie mit quantifizierenden Messmethoden als Messzahlen gewonnen werden oder ob sie personen- und/oder situationsabhängig und für unterschiedliche Interpretationen zugänglich sind. Technik Technische Daten sind Daten, welche die wesentlichen technischen Merkmale von Gegenständen beschreiben. Als Gegenstände kommen insbesondere alle technisch orientierten Anlagen, Arbeitsgeräte, Arbeitsmittel, Betriebsmittel, Bauteile, Computer, Haushaltsgeräte, Maschinen, Produktionsmittel, Transportmittel, Verkehrsmittel, Waren oder Werkstoffe in Betracht. Technische Daten sind technische Angaben zu einem Gerät wie beispielsweise Abmessungen, Gewicht, Leistung oder Verbrauch (Energieverbrauch wie Stromverbrauch oder Wasserverbrauch) oder auch Inhaltsstoffe in Arzneimitteln, Genussmitteln, Getränken, Kosmetika sowie Lebens- und Nahrungsmitteln. Technische Daten ergeben sich unter anderem aus Bauanleitungen, Baubeschreibungen, Gebrauchsanleitungen, Manuals, Packungsbeilagen, Schaltplänen usw. Im Bereich der Telemedien unterscheidet man Nutzungsdaten, Randdaten oder Verkehrsdaten. Umweltdaten geben Auskunft über den Zustand und die Entwicklung der Umwelt und können empirisch durch Messung erhoben werden. Beispiele Daten im allgemeinen Sinn Inhalte von Lexika und Büchern Die an einem Thermometer angezeigte Temperatur Die Jahresringe eines Baumes oder ähnliche biologische (messbare) Merkmale Die (gemessene) Geschwindigkeit eines vorbeifahrenden Fahrzeugs Antworten bei Umfragen, Volkszählungen – auf die Fragen in Fragebögen Ergebnisse von Experimenten in den Naturwissenschaften, technische Fakten Pressearchive von Zeitungsverlagen Der Inhalt von Schriftstücken (z. B. Briefe, Notizen, Protokolle usw.) Daten in der Informatik Bits und Bytes, zum Beispiel: bei der Speicherung auf Datenträgern wie Festplatten, USB-Sticks oder DVDs bei der Übertragung über das Internet oder an das Mobiltelefon als Zeichenketten bzw. Texte in Textdateien als Binärdateien (z. B. Maschinencode, Datenbankinhalte, digitale Fotos, Tonaufnahmen oder Videos usw.) Siehe auch Basisdaten Big Data Data Science Data-Mining Datagramm Datenhehlerei Informationsqualität Metadaten Paradaten Dunkles Zeitalter der Digitalisierung Literatur Katharina Morik, Walter Krämer (Hrsg.): Daten – wem gehören sie, wer speichert sie, wer darf auf sie zugreifen? (Nordrhein-Westfälische Akademie der Wissenschaften und der Künste: Reihe S; 16) F. Schöningh Verlag, Paderborn [2018], ISBN 978-3-506-79248-8. Herbert E. Wiegand: Wörterbuchforschung. Teilband 1. de Gruyter, Berlin 1998, ISBN 3-11-013584-1, Kapitel 1.5.2.2: »Bemerkungen zum Gebrauch von Daten und Information« (S. 160–171) (Einblick in den Referenztext via Google Books). Weblinks Einzelnachweise Abstraktum Semiotik Datenanalyse Statistik Betriebswirtschaftslehre Volkswirtschaftslehre
1034
https://de.wikipedia.org/wiki/Deskriptive%20Linguistik
Deskriptive Linguistik
Deskriptive Linguistik oder Deskripitive Sprachwissenschaft (auch Deskriptivismus) im weiteren Sinn (beschreibende Linguistik) ist ein Synonym für moderne Linguistik (Sprachwissenschaft), das verdeutlicht, dass die moderne Linguistik – im Gegensatz zu den Gepflogenheiten der meisten Gelehrten und Sprachwissenschaftler in früheren Jahrhunderten – Einzelsprachen, Sprachsysteme und Sprachwandel wertungsfrei beschreibt und analysiert. Der Begriff ist also insofern tautologisch, als alle modernen Wissenschaften deskriptiv statt präskriptiv sind, das heißt keine Vorschriften und Normen aufstellen. Diachrone und historische Gesichtspunkte werden jedoch in der deskriptiven Linguistik oft nicht berücksichtigt. Der genauen Beschreibung der Daten (Beobachtungsadäquatheit) wird in der deskriptiven Linguistik viel mehr Raum zugemessen als möglichen Erklärungen für die beschriebenen Phänomene. Im engeren Sinne wird die deskriptive Linguistik dem amerikanischen Strukturalismus in der Tradition von L. Bloomfield zugerechnet. Wesentliche Elemente Linguistische Beschreibungen enthalten im Wesentlichen: Beschreibungen der Phonologie der Sprache, Beschreibungen beziehungsweise Aufstellung der Orthografie der Sprache, Beschreibungen der Morphologie der Wörter, Beschreibungen der Syntax von Sätzen, Beschreibungen lexikalischer Ableitungen, Wörterbücher mit zumindest wichtigen Einträgen, einige originale Texte. Verhältnis zu und Entstehung aus präskriptiven Sprachbeschreibungen Präskriptive Schriften über Sprachgebrauch werden heutzutage von Wissenschaftlern weitestgehend als unwissenschaftlich abgelehnt, aber sie sind sehr beliebt in der allgemeinen Bevölkerung und werden sogar zu Bestsellern, wie zum Beispiel Der Dativ ist dem Genitiv sein Tod. Bis in die jüngste Vergangenheit haben jedoch auch Sprachwissenschaftler (normative) Sprachratgeber und normative Handbücher (Grammatiken und Wörterbücher) herausgegeben, besonders im deutschen Sprachraum. Selbst die neuesten Ausgaben deutscher Wörterbücher sind weiterhin hauptsächlich präskriptiv und beschreiben nur wenige Abweichungen der tatsächlich gesprochenen Sprache von der in der Schule unterrichteten Standardsprache (Standarddeutsch). Genauer gesagt bestand die Sprachwissenschaft jahrhundertelang überwiegend aus präskriptiven Sprachbeschreibungen. Englische Wörterbücher sind schon seit längerer Zeit weitgehend deskriptiv, obwohl auch diese noch Warnungen vor weniger angesehenen oder nicht standardsprachlichen Formen enthalten. Moderne normativ orientierte Arbeiten, die dennoch als wissenschaftliche angesehen werden, sind im Sinne von zu verstehen, aber solche Arbeiten nehmen im akademischen Bereich nur wenig Raum ein. Gerade in Bezug auf normative Schlussfolgerungen herrschen hier zum Teil sehr kontroverse Ansichten. Beispielsweise wird immer wieder heftig debattiert, inwieweit Sprachkritik überhaupt ein Gegenstand linguistischer Forschung sein beziehungsweise von Linguisten betrieben werden kann und soll, weil sie ja entweder leicht eine werthaltige Norm des Gebrauchs von Sprache mit einfließen lässt oder oft gleichzeitig auch Gesellschaftskritik darstellt. Präskriptive Arbeiten werden – mit wenigen Ausnahmen wie etwa Sprachentwicklungstests, die den Sprachstand eines Kindes gemessen an einer ermittelten Entwicklungsnorm festlegen – weitestgehend nicht in der akademischen Forschung und Lehre behandelt, sondern meist von wirtschaftlicher oder privater Seite erstellt. Beispiele einer Gegenüberstellung von präskriptiven und deskriptiven Arbeiten aus denselben Bereichen sind etwa folgende: Bekannte Deskriptive Sprachwissenschaftler Werner Heinrich Veith (* 1940), Professor für Deskriptive Sprachwissenschaft in Mainz. Literatur Michael Dürr, Peter Schlobinski: Deskriptive Linguistik. Grundlagen und Methoden. 3. Auflage, Göttingen 2006 Weblinks Einzelnachweis Sprachwissenschaft
1036
https://de.wikipedia.org/wiki/Dortmund
Dortmund
Dortmund (Standardaussprache; regional: ; westfälisch Düörpm) ist eine kreisfreie Großstadt in Nordrhein-Westfalen und mit rund 593.000 Einwohnern die neuntgrößte Stadt Deutschlands, sowie nach Köln und Düsseldorf die drittgrößte Stadt Nordrhein-Westfalens und nach Fläche und Einwohnerzahl die größte Stadt des Ruhrgebiets. Dortmund ist außerdem Teil der Metropolregion Rhein-Ruhr mit rund zehn Millionen Einwohnern. Die Stadt befindet sich im östlichen Ruhrgebiet und ist Mitglied des Regionalverband Ruhr sowie des Landschaftsverbands Westfalen-Lippe und befindet sich im Regierungsbezirk Arnsberg. Die vermutlich auf eine karolingische Reichshofgründung zurückgehende, einst wichtige Reichs- und Hansestadt (lateinisch Tremonia) entlang des Hellwegs entwickelt sich heute von einer Industriemetropole zu einem bedeutenden Dienstleistungs- und Technologiestandort: Früher vor allem bekannt durch Stahl, Kohle und Bier, ist Dortmund heute nach langjährigem Strukturwandel ein Zentrum der Versicherungswirtschaft und des Einzelhandels. Mit etwa 53.500 Studenten an sechs Hochschulen, darunter der Technischen Universität Dortmund und 19 weiteren wissenschaftlichen Einrichtungen, gehört Dortmund zu den zehn größten Hochschulstädten Deutschlands und ist auch ein bedeutender Wissenschafts- und Hochtechnologie-Standort. Neuansiedlungen und Unternehmensgründungen entstehen deshalb bevorzugt in den Bereichen Logistik, Informations- und Mikrosystemtechnik. Die Ruhrgebietsmetropole verfügt über eine vielfältige Kulturszene mit zahlreichen Museen und Galerien wie dem Museum Ostwall, dem Museum für Kunst und Kulturgeschichte oder dem Deutschen Fußballmuseum. Daneben gibt es das Theater Dortmund mit Opernhaus, dem prämierten Schauspielhaus und dem Kinder- und Jugendtheater sowie das Konzerthaus. Dortmund ist mit seinem Hauptbahnhof und Flughafen wichtiger Verkehrsknoten und Anziehungspunkt, sowohl für das Umland als auch für Europa (Benelux-Staaten), und verfügt mit dem größten Kanalhafen Europas über einen Anschluss an wichtige Seehäfen an der Nordsee. Überregionale Bekanntheit erlangt Dortmund durch den Fußballverein Borussia Dortmund mit seiner Heimspielstätte Signal Iduna Park, dem früheren Westfalenstadion. Es ist mit über 81.000 Zuschauerplätzen das größte Fußballstadion in Deutschland. Weitere Anziehungspunkte und Wahrzeichen der Stadt sind das Dortmunder U, der Westenhellweg als einer der meist frequentierten Einkaufsstraßen Deutschlands, die Reinoldikirche, die Westfalenhalle, der Florianturm und der Phoenix-See. Das Stadtbild und die Skyline werden auch durch markante Hochhäuser geprägt. Touristisch gewinnt die Stadt jährlich an Bedeutung, so gab es 2019 über 1,44 Mio. Übernachtungen. Geographie Lage Dortmund liegt auf , . Der Dortmunder Stadtteil Aplerbecker Mark liegt nach Angaben des Landesvermessungsamt Nordrhein-Westfalen sogar mit den Koordinaten mitten in Nordrhein-Westfalen. In Dortmund gilt wie in ganz Deutschland die Mitteleuropäische Zeit, die mittlere Ortszeit bleibt dieser gegenüber 30 Minuten und 7,7 Sekunden zurück. Dortmund liegt im Südwesten der Westfälischen Bucht, dem südlichen Fortsatz der Norddeutschen Tiefebene an der Grenze zum Deutschen Mittelgebirge; südlich erheben sich die Ausläufer des Sauerlands und das Ardeygebirge, zu dem als nördlichste Erhebung noch der Dortmunder Rücken im Osten der Stadt gezählt wird. Hinter diesem liegt, als Teil der Hellwegbörden, die Werl-Unnaer Börde, nördlich grenzen das Lippetal und die Lipper Höhen im Münsterland an. Der Westen wird bestimmt durch den Ballungsraum Ruhrgebiet, dessen östlichem, westfälischem Teil Dortmund angehört. Der Stadtkern von Dortmund liegt auf der Grenze zwischen nördlichem Flach- und südlichem Hügelland, dem sogenannten westfälischen Hellweg; entsprechend hat die Stadt Anteil an den Naturräumen der Hellwegbörden und des Westenhellwegs. Da auch der Oberlauf der Emscher durch Dortmund fließt, ist sie ebenso Teil des weiter nördlich gelegenen Naturraums Emscherland. Im Süden, unterhalb der Hohensyburg, bildet der Mittellauf der Ruhr die Stadtgrenze, in die auf Hagener Gebiet die Lenne mündet und dort den Hengsteysee bildet. Im Dortmunder Stadthafen beginnt außerdem der in den Norden führende Dortmund-Ems-Kanal. Gewässer Das Dortmunder Stadtgebiet ist relativ arm an natürlichen Gewässern. Zu den größeren Fließgewässern zählt neben der Ruhr im Dortmunder Süden an der Stadtgrenze zu den Städten Hagen und Herdecke nur der Fluss Emscher, der sich von Osten nach Westen durch das Stadtgebiet zieht. Darüber hinaus gibt es zahlreiche kleinere Bäche wie den Hörder Bach, Rüpingsbach, Schondelle, Roßbach oder Körnebach, die in die erstgenannten Flüsse münden oder zum Einzugsgebiet der Lippe gehören. Viele der Bäche dienten der Abwasserentsorgung, wurden jedoch im Zuge der Emscher- und Seseke-Renaturierung nach und nach wieder in ihren naturnahen Zustand versetzt. Durch die Renaturierung wurde das Umfeld der Bäche hierbei erheblich aufgewertet. Außerdem befindet sich der Dortmund-Ems-Kanal als eine Bundeswasserstraße zwischen dem Dortmunder Stadthafen und Papenburg/Ems. Mit der Hallerey, dem Lanstroper See, dem Pleckenbrinksee und dem Brunosee im Naturschutzgebiet Beerenbruch sind vier Seen eng mit der Bergbaugeschichte in Dortmund verknüpft. Diese Gewässer entstanden durch Bergsenkungen. Weiterhin wurden mit dem Hengsteysee und Phoenix-See zwei weitere Seen künstlich geschaffen. Ausdehnung Das Stadtgebiet Dortmunds umfasst 280,707 km². Damit liegt Dortmund auf Rang 26 unter den flächengrößten Gemeinden Deutschlands, unter den Großstädten auf dem neunten Platz. Seine Fläche wird in Nordrhein-Westfalen nur von den Großstädten Köln und Münster und der Stadt Schmallenberg überboten. Der nördlichste Punkt Dortmunds liegt zwischen dem Stadtteil Groppenbruch und Lünen-Brambauer auf dem Gebiet der ehemaligen Gemeinde Schwieringhausen (), der südlichste 21 km von diesem entfernt gegenüber der Lennemündung (), der östlichste Punkt Dortmunds liegt nördlich des Flughafens im Stadtteil Wickede und grenzt an Unna-Massen (), der westlichste 23 km von diesem entfernt im Stadtteil Holte an der Grenze zu Bochum (). Grob kann man sich diese beiden Achsen als Diagonalen eines Quadrats vorstellen, das das Dortmunder Stadtgebiet bildet. Höchste Erhebung Dortmunds ist der im Stadtteil Syburg gelegene Klusenberg mit , der niedrigste Punkt befindet sich mit im Stadtteil Derne. Nachbargemeinden Dortmund grenzt auf 21 km an den Kreis Recklinghausen mit den Städten Castrop-Rauxel im Westen und Waltrop im Nordwesten. Von Norden bis Südosten ist Dortmund auf insgesamt 76 km vom Kreis Unna mit den Städten Lünen im Norden, Kamen im Nordosten, Unna im Osten, der Gemeinde Holzwickede sowie der Stadt Schwerte (beide im Südosten) umklammert. Daran schließt sich die nur zwei Kilometer lange Stadtgrenze zur kreisfreien Stadt Hagen direkt im Süden an. Im Dortmunder Südwesten stößt die Stadt über 17 km an den Ennepe-Ruhr-Kreis mit den Städten Herdecke und Witten. Genau im Westen liegt schließlich die kreisfreie Stadt Bochum, die Stadtgrenze ist hier zehn Kilometer lang. Insgesamt umfasst die Dortmunder Stadtgrenze somit 126 km. Politische Geographie Dortmund ist historisch ein Teil Westfalens und liegt heute im Bundesland Nordrhein-Westfalen. Die Stadt ist kreisfrei und liegt im Bereich des Regierungsbezirks Arnsberg. Sie gehört sowohl dem Landschaftsverband Westfalen-Lippe als auch dem Regionalverband Ruhr an. Daneben ist sie noch Mitglied in weiteren Zweckverbänden wie dem Verkehrsverbund Rhein-Ruhr, dem Ruhrverband, der Emschergenossenschaft oder dem Lippeverband. Dortmund ist ein Oberzentrum Nordrhein-Westfalens und Teil der europäischen Metropolregion Rhein-Ruhr. Es ist eines der vier großen Zentren des Ruhrgebiets, neben Essen, Duisburg und Bochum, die alle in der so genannten Hellwegzone liegen. Seit dem 1. Januar 1975 gliedert sich die Stadt Dortmund in zwölf Stadtbezirke. Dieses sind die drei Innenstadtbezirke West, Nord und Ost sowie der sie umgebene Ring aus den im Uhrzeigersinn (beginnend im Norden) neun weiteren Bezirken Eving, Scharnhorst, Brackel, Aplerbeck, Hörde, Hombruch, Lütgendortmund, Huckarde und Mengede. Jeder dieser Stadtbezirke wählt bei den Kommunalwahlen eine Bezirksvertretung und diese aus ihren Reihen einen Bezirksbürgermeister. In den Außenbezirken finden sich außerdem Bezirksverwaltungsstellen. Unterhalb der Stadtbezirke wird die Stadt weiter in 62 statistische Bezirke und diese wiederum in insgesamt 170 statistische Unterbezirke unterteilt. Außerhalb der Innenstadtbezirke entsprechen diese häufig den in die Stadt Dortmund eingemeindeten ehemals eigenständigen Ortschaften. Neben dieser offiziellen Einteilung existieren auch noch die weiter unten aufgeführten urbanen Viertel. Klima Dortmund liegt wie ganz Deutschland in einer gemäßigten Klimazone. Die Stadt wird dem nordwestdeutschen Klimabereich zugeordnet und befindet sich auf der Grenze zwischen den Klimabezirken Münster- und Sauerland und damit im Übergangsbereich zwischen atlantisch-maritimem und Kontinentalklima. Charakteristisch sind milde Winter und relativ kühle Sommer. Die mittlere Jahrestemperatur beträgt 9–10 °C, die Niederschlagsmenge im langjährigen Durchschnitt 750 mm. Überwiegende Windrichtung ist Südwest. Die Niederschläge sind recht gleichmäßig über das Jahr verteilt, im Winter dominiert Dauerregen, im Sommer kürzere, aber ergiebigere Regenschauer. Dementsprechend wird das Maximum im Juli mit 80–90 mm erreicht, das Minimum liegt bei 40–50 mm im Februar. Auch die Temperaturschwankungen fallen mit unter 20 °C eher gering aus, kältester Monat ist der Januar mit −6 bis 11 °C, am wärmsten wird es im August mit 10–35 °C. In Dortmund zeigen sich klimatische Merkmale dicht besiedelter Räume, so bilden sich beispielsweise für ein Stadtklima typische Wärmeinseln aus. Demografie Statistische Übersicht Am lebten in Dortmund Menschen. Damit liegt Dortmund innerhalb der Europäischen Union auf Rang 39 unter den größten Städten, innerhalb Deutschlands auf Rang 9 und in Nordrhein-Westfalen als größte Stadt des Ruhrgebiets auf Rang 3 hinter Köln und Düsseldorf. Dortmund gehört zur europäischen Metropolregion Rhein-Ruhr, die mit gut 10 Millionen Einwohnern nach den Agglomerationen Moskau, London, Paris und Istanbul die fünftgrößte Agglomeration Europas darstellt. Innerhalb dieser Metropolregion ist Dortmund Teil des Ballungsgebiets Ruhr und geht insbesondere im Westen fließend in die übrigen Städte des Ruhrgebiets über. Allein im Bereich des Regionalverbands Ruhr, dem Zweckverband des Ruhrgebiets, leben wiederum etwa 5,1 Millionen Menschen. Aus der Einwohnerzahl ergibt sich eine Bevölkerungsdichte von 2.114 Einwohnern je km². Damit liegt Dortmund deutschlandweit auf Rang 39 der Gemeinden mit der größten Bevölkerungsdichte. Außerhalb des Innenstadtbereichs leben deutlich weniger Menschen pro Quadratkilometer als in der Innenstadt. Die Werte reichten dabei 2018 von etwa 1.600 Einwohnern je km² Siedlungsfläche im statistischen Unterbezirk Holthausen (Stadtbezirk Eving) bis zu etwa 42.630 Einwohnern je km² Siedlungsfläche im statistischen Unterbezirk Nordmarkt-Südost (Stadtbezirk Innenstadt-Nord). Bevölkerungsstruktur Im Jahr 2022 waren 50,6 % der Bevölkerung Frauen und 49,4 % Männer. Schon im Mittelalter war Dortmund Einwanderungsstadt, mit Beginn der Industrialisierung stieg der Zuzug aber enorm an. Unter diesen Einwanderern waren auch viele Polen und damit erstmals eine große Gruppe nicht-deutschsprachiger Personen mit anderer Konfession, die sich aber schrittweise assimilierten. Weitere gezielte Anwerbungen von Gastarbeitern fanden vor allem in den 1960er Jahren statt, um den Arbeitskräftebedarf in der Montanindustrie zu decken. Der Ausländeranteil in der Stadt beträgt 21,3 % (Stand: 31. Dezember 2022). Dies ist für westdeutsche Großstädte ein durchschnittlicher Wert. Der Anteil der Menschen mit Migrationshintergrund (unabhängig von der Staatsbürgerschaft) lag am Ende 2022 bei 39,4 %. Es zeigen sich ruhrgebietstypisch innerhalb des Stadtgebiets deutliche Unterschiede: den höchsten Ausländeranteil haben tendenziell die Stadtbezirke und Stadtteile im Dortmunder Norden. So lebten zum 31. Dezember 2022 im Stadtbezirk Innenstadt-Nord über ein Viertel aller Ausländer in Dortmund. Der Ausländeranteil liegt hier insgesamt bei 57,5 %. Auch in vielen äußeren Stadtteilen des Dortmunder Nordens wie etwa Scharnhorst-Ost (35,2 %), Lindenhorst (32,7 %), Eving (32,1 %) und Derne (26,5 %) wohnen verhältnismäßig viele Ausländer. Relativ hoch ist der Anteil auch in vielen Stadtteilen im Dortmunder Westen, wie etwa Westerfilde (29,3 %), Nette (26,8 %) und Huckarde (22,4 %). Tendenziell niedriger ist der Ausländeranteil im Dortmunder Osten und Süden. Verhältnismäßig viele Ausländer leben jedoch in Hörde (26,6 %). In Dortmund gibt es große Unterschiede zwischen den verschiedenen Nationen, so ist beispielsweise der Anteil EU-Bürger an den Ausländern am Stadtrand deutlich höher. Eine besondere Gruppe unter den Ausländern in Dortmund stellen die an den Hochschulen eingeschriebenen ausländischen Studenten dar: sie sind meist nur für einen kurzen Zeitraum in der Stadt und stammen zu einem großen Teil aus Asien und Afrika. Insgesamt waren an den sechs Hochschulen der Stadt im Wintersemester 2017/2018 etwa 53.500 Studierende eingeschrieben. Im Jahr 2022 waren 38,8 % der Einwohner verheiratet, 44,6 % ledig, 6,5 % verwitwet und 7,9 % geschieden. Einkommens- und Leistungsstruktur Am 31. Dezember 2021 erhielten 82.470 Dortmunderinnen und Dortmunder Transferzahlungen nach dem Zweiten Buch Sozialgesetzbuch (Arbeitslosengeld II, Sozialgeld), dies sind 13,5 % der Gesamtbevölkerung. Die Arbeitslosenquote Dortmunds lag Ende Juni 2017 bei 11,0 %. Es existieren große Unterschiede innerhalb des Stadtgebiets. Im Norden Dortmunds befinden sich viele Stadtteile mit einem hohen Anteil an Sozialhilfeempfängern und Arbeitslosen. Dies trifft insbesondere auf alle statistischen Bezirke des Stadtbezirks Innenstadt-Nord zu (Arbeitslosenquote von 21,3 %), aber auch auf außerhalb der Innenstadt gelegene Stadtteile, wie etwa Scharnhorst-Ost (18,9 %), Eving (14,7 %) und Lindenhorst (13,6 %). Dennoch gibt es im Norden auch einige Stadtteile mit niedrigen Arbeitslosenquoten und hohem Einkommensdurchschnitt, wie etwa Brechten, Holthausen und die nordöstlichen Stadtteile Husen, Kurl und Grevel. Relativ gemischt ist die Sozialstruktur in den Stadtbezirken des Dortmunder Westens. Vielerorts entsprechen die Arbeitslosenquoten ungefähr dem Dortmunder Durchschnitt bzw. sind leicht erhöht, so etwa in den größeren Stadtteilen Huckarde (12,8 %), Kirchlinde (12,5 %) und Lütgendortmund (11,2 %). Niedrige Arbeitslosenquoten und gehobenere Einkommensstrukturen weisen insbesondere Deusen sowie die Stadtrandlagen Oespel und Westrich auf. In anderen Teilen des Westens wie etwa Westerfilde (16,5 %), Nette (15,7 %) und Marten (14,3 %) ist die Arbeitslosigkeit hingegen deutlich überdurchschnittlich. Der Dortmunder Osten weist überwiegend Stadtteile mit niedrigen Arbeitslosenquoten sowie mit durchschnittlichen oder leicht gehobenen Einkommensstrukturen auf. Mit Ausnahme des am äußersten Stadtrand liegenden Wickede (12,0 %) liegen die Arbeitslosenquoten im Osten stets unter dem Dortmunder Durchschnitt. Relativ gering ist die Arbeitslosigkeit dabei sowohl in einigen größeren Stadtteilen wie Aplerbeck (6,4 %) und Asseln (6,1 %), als auch in kleineren Stadtteilen wie etwa Sölderholz (3,6 %). Im Dortmunder Süden liegen besonders viele Stadtteile mit niedrigen Arbeitslosenquoten und gehobenen Einkommensstrukturen. Dies trifft insbesondere auf die unmittelbar westlich der B 54 liegenden südlichen Stadtteile Brünninghausen, Lücklemberg, Kirchhörde und Bittermark zu sowie auf die entlang der Wittbräucker Straße liegenden südöstlichen Stadtteile Aplerbecker Mark, Höchsten, Holzen, Wichlinghofen und Syburg. Größere Arbeitslosigkeit herrscht nur in Hörde (14,8 %). Relativ durchschnittlich ist die Sozialstruktur hingegen etwa in Hombruch. Der Altersdurchschnitt der Dortmunder Bevölkerung beträgt etwa 43 Jahre. Der Jugendquotient, also das Verhältnis der unter 20-jährigen zur erwerbsfähigen Bevölkerung beträgt 34,5, der Altenquotient, das heißt der Anteil der Personen mit 60 oder mehr Lebensjahren bezogen auf die erwerbsfähige Bevölkerung 47,0 und das Abhängigkeitsverhältnis von erwerbsfähiger zu nicht erwerbsfähiger Bevölkerung somit etwa 5:4. Dies sind Werte, wie sie auch für ganz Deutschland anzutreffen sind. Bevölkerungsentwicklung Im Jahr 1895 überschritt die Stadt Dortmund die Grenze von 100.000 Einwohnern, was sie zur Großstadt machte. Nach der Eingemeindung der Stadt Hörde und der Landkreise Dortmund und Hörde lebten 1929 etwa 536.000 Personen in der Stadt. Der Zweite Weltkrieg entvölkerte das zerstörte Dortmund. Im April 1945 zählte man 340.000 Menschen. Danach siedelten sich viele ins ländliche Umland evakuierte Menschen sowie Flüchtlinge und Vertriebene in Dortmund an. Die Einwohnerzahlen stiegen rasch. 1965 wurde mit 657.804 Bürgern ein Höchststand erreicht. In den Jahren danach sank die Bevölkerungszahl, wie auch in den umliegenden Städten des Ruhrgebiets. So wurde bei der Volkszählung 1987 eine Einwohnerzahl von 584.089 festgestellt. Dieser Trend hat sich aber mittlerweile umgekehrt. So stieg die Einwohnerzahl zwischen den Volkszählungen 2011 und 2019 wieder auf 588.250 amtliche Einwohner zum 31. Dezember 2019. Zum folgenden Jahr war die Einwohnerzahl laut Statistischem Landesamt wieder leicht gesunken. Der Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW) prognostiziert für Dortmund bis zum Jahr 2040 einen Anstieg der Bevölkerungszahlen um 5,1 % auf 604.100 Personen. Geschichte Stadtgeschichte Erste Spuren der Besiedlung auf dem heutigen Dortmunder Stadtgebiet reichen bis in die Jungsteinzeit zurück. Dortmund wurde im Jahre 882 das erste Mal als erwähnt. Die Ersterwähnung der Dortmunder Marktrechte stammt aus dem Jahr 990. Im 11. Jahrhundert wurde der Legende nach Reinoldus der Schutzpatron der Stadt. Im Jahr 1152 fand in Dortmund ein Hoftag unter König Friedrich Barbarossa, dem späteren Kaiser statt. In Folge dessen siedelten vermehrt Handwerker und Händler um die Königspfalz und trugen zur allmählichen Stadtwerdung Dortmunds bei. Bereits im Jahr 1200 wurde die heutige Ausdehnung der Stadtmitte von 82 Hektar erreicht und mit Stadtmauern befestigt. Im Jahr 1232 (oder 1231) kam es zu einem großen Stadtbrand. Vermutlich durch Brandstiftung ausgelöst, zerstörte er die Stadt fast vollständig. Das Feuer wütete wohl vor allem im dicht besiedelten Stadtkern nördlich des Hellwegs und zerstörte nicht nur die hölzernen Häuser der Krämer und Handwerker, sondern auch die steinerne Reinoldikirche. Durch den Brand ging auch das Archiv der Stadt verloren und mit ihm sämtliche Urkunden aus der Zeit vor dem Stadtbrand. Die beim Stadtbrand verloren gegangenen Privilegien Dortmunds wurden 1236 von Friedrich II. erneuert und die Stadt Dortmund (lateinisch [burgus] Tremonia) erstmals als Reichsstadt (wörtlich: „civitas nostra Tremoniensis imperialis“) bezeichnet. Im Jahr 1293 wurde der Stadt das Braurecht verliehen und es begann eine beispiellose Entwicklung der Bierindustrie innerhalb der Stadt. Nach dem großen Stadtbrand erstarkte auch der Einfluss der Dortmunder Bürgerschaft. Dieser reichte dabei weit über das Stadtgebiet hinaus und war dabei so stark, dass um 1252 die baltische Stadt Memel unter Mithilfe von Dortmunder Kaufleuten gegründet und erwogen wurde, die Stadt „Neu-Dortmund“ zu nennen. Diese Bürgerschaft bzw. Patriziat, das sich selbstbewusst rempublicam Tremoniensem gubernantes (etwa: regierende Herren des Staats Dortmund) nannte, bestand aus einflussreichen Familien wie den Kleppings, Sudermanns, von Wickedes, Swartes, Muddepennings, vom Berges, Lembergs, Berswordts, Wales und Brakes. Letztere besaßen allesamt exzellente Handelsbeziehungen in ganz Europa und im Speziellen nach England. Die Vormachtstellung der Dortmunder Kaufleute führte sogar dazu, dass Englands König, Eduard III. im Jahr 1339 die englische Königskrone an ein von Dortmunder Kaufleuten geführtes Konsortium verpfändete. Im Jahr 1389 überstand Dortmund die Große Dortmunder Fehde gegen den Grafen von der Mark und den Erzbischof von Köln sowie deren Verbündete. Allerdings wurde langsam der wirtschaftliche Niedergang der Stadt eingeleitet. Dieser Prozess wurde durch den Dreißigjährigen Krieg fortgeführt und verstärkt und führte dazu, dass die Stadt zum Ackerbürgerstädtchen herabsank und die Einwohnerzahl bis zum Jahr 1793 auf 4500 Einwohner zurückging. Dortmund verlor durch den Reichsdeputationshauptschluss 1803 seinen Status als Freie Reichsstadt und kam als Exklave zum Fürstentum Oranien-Nassau. 1808 wurde Dortmund als Teil des napoleonischen Großherzogtums Berg Präfektur des Ruhrdepartements. Das Ruhr-Département bestand aus den drei Arrondissements Dortmund, Hamm und Hagen. An seiner Spitze stand der Präfekt, Freiherr Gisbert von Romberg zu Brünninghausen. Dortmund wurde zur Hauptstadt des Ruhrdepartements bestimmt, weil es eine günstigere Lage und geeignete Verwaltungsgebäude besaß, hierdurch wurde die vormalige Reichsstadt zum Sitz der zahlreichen Verwaltungs- und Gerichtsbehörden. Nach dem preußischen Sieg über Napoleon fiel Dortmund 1815 schließlich an die preußische Provinz Westfalen. Hier wurde Dortmund 1817 Sitz eines Landkreises innerhalb des Regierungsbezirks Arnsberg, aus dem Dortmund 1875 als Stadtkreis ausschied. Erst mit dem Beginn der Industrialisierung Anfang des 19. Jahrhunderts konnte der Niedergang gestoppt werden. Nach der Urkatasteraufnahme aus dem Jahr 1826 lebten innerhalb der Wallanlagen ca. 4000 Menschen in 940 Wohnhäusern und 453 Stallungen und Scheunen. Das Stadtbild wurde geprägt von engen ungepflasterten Straßen und Gassen und vielen Fachwerkhäusern. Einzig die vier großen mittelalterlichen Stadtkirchen, das alte Rathaus und einige wenige steinerne Profanbauten zeugten vom großen kulturellen Erbe der Vergangenheit. Ab der Mitte des 19. Jahrhunderts begann durch die Kohlenförderung und Stahlverarbeitung der erneute Aufstieg Dortmunds und der Wandel zu einer Industriestadt. Seit der Eröffnung der Cöln-Mindener Eisenbahn im Jahr 1847 wurde Dortmund zu einem wichtigen Verkehrsknoten im Ruhrgebiet. Einen weiteren bedeutenden Beitrag zur wirtschaftlichen Entwicklung leistete 1899 die Eröffnung des Dortmund-Ems-Kanals und damit des Hafens. Diese Infrastruktur ebnete Dortmunds Weg zur Großstadt. Die Stadt wuchs über die engen Grenzen der mittelalterlichen Wallanlage hinaus. Die Erweiterung erfolgte zunächst nach Norden um den neuen Hauptbahnhof. Ab 1858 wurde durch den Stadtbaumeister Ludwig ein rechtwinkliges Straßennetz mit Schmuckplätzen (Steinplatz, Nordmarkt, Borsigplatz) in der Dortmunder Nordstadt errichtet. Nach Eröffnung der Bahntrasse der Rheinischen Eisenbahngesellschaft zum Dortmunder Südbahnhof im Jahre 1874 wurde das Gebiet südöstlich der historischen Wallanlage für städtebauliche Zwecke erschlossen. Anders als die kompakten Blockrandgebiete in der Nordstadt, wurden das Kaiserviertel und die Südstadt jedoch vorrangig mit einer lockeren Bebauung mit repräsentativen Stadtvillen konzipiert und wurde zur bevorzugten Wohnlage Industrieller und Unternehmer. Im Jahr 1876 wurde der ca. 16 Hektar große Ostpark als parkähnliche Grünanlage eröffnet. Dieser wurde als zweiter städtischer Friedhof nach dem „Westentotenhof“, dem heutigen Westpark, eingerichtet. Diese zweite Friedhofsanlage steht im Zusammenhang mit dem rapiden Bevölkerungswachstum im Zuge der Industrialisierung des Ruhrgebiets. Während bei der Gründung des Westentotenhofs 1811 etwa 4.000 Menschen in Dortmund lebten, waren es 1876 über 50.000. Südlich der historischen Wallanlage entstanden städtische Einrichtungen wie das Waisenhaus, das Luisenkrankenhaus und 1896 die Königliche Werkmeisterschule für Maschinenbauer, der Vorläufer der heutigen am gleichen Standort bestehenden Fachhochschule Dortmund, ließen sich in dem zu dieser Zeit vornehmlich durch umfangreiche Gartenanlagen geprägten Gebiet nieder. Zwischen 1902 und 1908 begann der Beamten-Wohnungsverein mit umfangreichen Bauarbeiten und errichtete in unmittelbarer Nähe der Werkmeisterschule eine umfangreiche Wohnbebauung. Die gründerzeitlichen Bauten dienten vornehmlich Beamten als Heimstätte. Im Zuge der Urbanisierung wurden dann auch Infrastruktureinrichtungen wie Schulen und Kirchen errichtet. Der Bau der Heilig-Kreuz-Kirche, die dem Kreuzviertel heute den Namen gibt, begann 1914 und wurde zwei Jahre später eingeweiht. Mit dem Ersten Weltkrieg war die Bebauung des Stadtviertels weitgehend abgeschlossen, und etwa 10.000 Menschen wohnten hier. Bereits 1905 begann mit der Eingliederung von Körne eine Welle von Eingemeindungen, die mit dem Gesetz über die kommunale Neuordnung des Ruhrgebiets von 1928 ihren Höhepunkt mit der Eingemeindung der Stadt Hörde (die bereits 1340 Stadtrechte erhielt) erreichte. Das Gebiet Dortmunds liegt seit den Eingemeindungen von 1928 und 1929 zu größeren Teilen auf dem Gebiet der ehemaligen Grafschaft Mark als auf dem der ehemaligen Freien Reichsstadt Dortmund. Bis zum Ausbruch des Zweiten Weltkriegs wandelte sich das Stadtbild vom Ackerbürgerstädtchen zum großstädtischen Aussehen. Innerhalb weniger Jahre wurde das Stadtzentrum durch den Neubau von repräsentativen Bauwerken, wie dem der Synagoge, Kaufhausbau von Althoff 1904, dem Krügerhaus 1912 oder dem gesamten Bahnhofsumfeld durch den Bau eines neuen Hauptbahnhof, dem Theater, dem Postamt und dem Löwenhof als Handelszentrum oder städtebaulichen Maßnahmen wie dem Durchbruch Hansastraße radikal verändert. Während des Zweiten Weltkriegs wurde die Stadt mitsamt ihren historischen Kirchen durch insgesamt 105 Luftangriffe und mehr als 22.242 Tonnen Bomben im Zentrum zu mehr als 90 Prozent zerstört. Die hohe Prozentzahl liegt teilweise in den acht Großangriffen begründet, in denen die Stadt Dortmund als alleiniges Ziel in den Mittelpunkt eines Angriffes rückte. Bei dem Großangriff vom 12. März 1945 trafen mehr als 4.800 Tonnen Bomben die Stadt. Dieser Angriff war der schwerste Bombenangriff gegen eine deutsche Stadt. Nach diesem letzten folgenschweren Angriff kam das komplette gesellschaftliche und wirtschaftliche Leben zum Erliegen. Zeitgenössischen Berichten zufolge wurde zunächst erwogen, die Innenstadt nicht wieder aufzubauen. Der tatsächliche Wiederaufbau wurde jedoch durch die im Boden vorhandenen Infrastrukturleitungen und die darüber liegenden Straßen bestimmt, die im Nachkriegsalltag als Transport- und Verbindungswege zuerst geräumt wurden. Somit wurde der Umgang der Innenstädte als Wiederaufbau und Modifikationsmöglichkeit gesehen, anstatt einer völligen Neuplanung. Das öffentliche Bewusstsein der Nachkriegszeit war jedoch vom Wunsch geprägt, die städtebauliche Situation als Produkt der Industrialisierung auf den Grundrissen der mittelalterlichen Stadt nicht zu wiederholen. Planungsziel der Wiederaufbaujahre war somit ein neues, offenes und zukunftsfähiges Dortmund, welches sich bewusst von dem Gewesenen und dem alten historischen Erbe absetzen sollte. Trotz heftigen Widerstands der Dortmunder Bevölkerung wurden hierbei viele stadtbildprägende Gebäude wie das Rathaus oder die Synagoge abgerissen oder nicht wieder aufgebaut. Der Wiederaufbau ging schnell voran und im Jahr 1950 zählte die Stadt 500.000 Einwohner. Bei einer Arbeitslosenquote von 2,3 % herrschte 1952 Vollbeschäftigung und die hervorragenden wirtschaftlichen Bedingungen zogen vermehrt Zuwanderer, insbesondere Flüchtlinge aus den Ostgebieten, an. Schon 1956 zählte Dortmund 624.000 Einwohner. 1965 erreichte die Stadt mit 658.075 Einwohnern einen historischen Höchststand. Ortsname Dortmund wurde erstmals im Werdener Urbar erwähnt, das zwischen 880 und 884 entstand. Der lateinische Eintrag lautet: . Danach gibt es eine große Anzahl verschiedener, aber auf den gleichen Lautstamm zurückgehender Namen. Ihre jeweilige Verwendung in den Quellen erscheint willkürlich und zufällig. Ein Jahr nach seinem Aufenthalt in Dortmund stellte der König Friedrich Barbarossa 1152 dem Kölner Erzbischof Arnold II. von Wied eine Urkunde aus, die die lateinische Bezeichnung enthält. Die Bezeichnung leitet sich nicht von ab. Man vermutet, dass bei Verwendung dieser Bezeichnung der gute Klang und der vermeintliche Sinngehalt eine Rolle spielten. Der Name würde sich dann aus den Wörtern oder (deutsch: drei) und (deutsch: Mauer) zusammensetzen und so viel wie Dreimauernstadt bedeuten. Erst mit dem Aufkommen deutscher Quellen im 14. Jahrhundert wurde die alte Form sprachlich weiterentwickelt wieder aufgegriffen. Im westfälischen Platt wurde sie dann zu verkürzt. wird heute selten verwendet, das lateinische ist gelegentlich noch anzutreffen. Bei der Wortbedeutung von Dortmund wird im Allgemeinen von einem Determinativkompositum ausgegangen. Das Bestimmungswort ist vermutlich germanisch , mit der Bedeutung Kehle / Gurgel / Schlund / Hals. Die Bedeutung des Grundworts ist unklar. Nach einer Theorie ist es das altsächsische Gewässerwort , , . Nach einer anderen Theorie ist es germanisch mit der Bedeutung Berg / Hügel / Anhöhe / Erhebung. In der ersten Theorie wäre die Bedeutung Kehlbach / Gurgelbach / Siedlung am gurgelnden Gewässer, in der zweiten Theorie als *Throdmend - Berg mit einer Kerbe / Berg mit einem Einschnitt / Hügel mit einer Kerbe / Hügel mit einem Einschnitt. Bei beiden Deutungen handelt es sich um eine geografische Besonderheit, die heute überbaut ist und nicht mehr zu erkennen ist oder – in der zweiten Theorie – einen Hinweis auf eine Burg nördlich der Stadtmauern mit dem Fluss Kuckelke als Einschnitt gibt. Die Existenz einer solchen Burg ist umstritten. Von spätmittelalterlichen Chronisten ist eine volksetymologische Deutung bekannt, nach der es zwei Dörfer gegeben habe, das und das , die beide bei der Burg Munda lagen. Um diese Burg habe es eine Auseinandersetzung zwischen Sachsen und Römern – oder auch Franken – gegeben. Den Schlachtruf hätten die Burgmannen als truz oder trot interpretiert und die Angreifer höhnisch Trotmanni (Trutzmänner) genannt. Die Bezeichnung sei dann auf den Ort übergegangen. In der Vergangenheit wurde die Stadt auf niederländisch Dortmond, auf , auf altfranzösisch Trémoigne genannt. Diese Exonyme sind aber außer Gebrauch gefallen und die Stadt wird heute international mit ihrem deutschen Namen bezeichnet. Eingemeindungen Charakteristisch für das heutige Dortmunder Stadtgebiet ist die räumlich stark ausgeprägte Abgrenzung einzelner Stadtteile zu ihren Nachbarstadtteilen durch Felder, Wälder oder Verkehrsflächen. Dieser Umstand beruht auf den relativ kleinteilig erfolgten Eingemeindungen ehemals eigenständiger Gemeinden. Einige größere Stadtteile wie die Stadtbezirkszentren Hörde, Aplerbeck oder Mengede vermitteln ihre ehemalige Eigenständigkeit noch deutlich durch die Größe ihrer Stadtteilzentren und ihrer Einkaufsstraßen. In die Stadt Dortmund wurden folgende Gemeinden eingegliedert: 1. April 1905: Gemeinde Körne 10. Juni 1914: Gemeinden Deusen, Dorstfeld, Eving, Huckarde, Kemminghausen, Lindenhorst, Rahm und Wischlingen 1. April 1918: Gemeinden Brackel und Wambel 1. April 1928: Stadt Hörde und vom aufgelösten Landkreis Dortmund die Gemeinden Asseln, Bodelschwingh, Bövinghausen bei Lütgendortmund, Brechten, Brüninghausen, Derne, Ellinghausen, Grevel, Holthausen bei Brechten, Husen, Kirchderne, Kirchlinde, Kley, Kurl, Lanstrop, Lütgendortmund, Marten, Mengede, Nette, Oespel, Westerfilde und Wickede 1. August 1929: Teile der Gemeinde Somborn (Landkreis Bochum) und vom aufgelösten Landkreis Hörde die Gemeinden Aplerbeck, Barop, Berghofen, Kirchhörde, Schüren, Syburg und Wellinghofen sowie Teile der Gemeinde Sölde Im Rahmen der kommunalen Neugliederung in Nordrhein-Westfalen wurden am 1. Januar 1975 durch das Ruhrgebiet-Gesetz die Gemeinden Holzen und Lichtendorf nach Dortmund eingemeindet. Einige Flurstücke dieser Gemeinden gingen jedoch an die Stadt Schwerte. Dortmund erhielt weiterhin einige Flurstücke aus der Stadt Westhofen, die nach Schwerte eingemeindet wurde und durch das Sauerland/Paderborn-Gesetz einige Flurstücke aus der Gemeinde Garenfeld, die nach Hagen eingemeindet wurde. Religionen Konfessionsstatistik Von den 602.713 Einwohnern Dortmunds gehören (Stand 31. Dezember 2021) 24,8 % (149.387) der evangelischen und 23,7 % (142.904) der römisch-katholischen Kirche an; 51,5 % haben ein anderes religiöses Bekenntnis oder sind konfessionslos. Jahresende 2019 gehörten 26,1 % (157.806) der evangelischen und 24,9 % (150.373) der römisch-katholischen Kirche an; 49,0 % hatten eine andere Konfession oder Religion oder waren konfessionslos. 2017 gehörten von den 601.780 Einwohnern Dortmunds 27,5 % der evangelischen und 25,9 % der römisch-katholischen Kirche an. Nach den Ergebnissen des Zensus am 9. Mai 2011 gehörten 173.790 Einwohner von Dortmund der römisch-katholischen Kirche an. 188.470 Einwohner waren evangelisch, 3.120 evangelisch-freikirchlich, 9.420 orthodox und 2.390 jüdisch. 191.630 Einwohner wurden den Rubriken „Sonstige“ oder „Keiner öffentlich-rechtlichen Religionsgesellschaft zugehörig“ zugeordnet. Nach einer Berechnung aus den Zensuszahlen für die Personen mit Migrationshintergrund lag der Bevölkerungsanteil der Muslime in Dortmund 2011 bei 9,5 % (rund 54.200 Personen). Christentum Dortmund gehörte seit der Gründung zum Erzbistum Köln und war Sitz eines Archidiakonats. Ab 1523 fasste allmählich die Reformation Fuß. Doch wurde erst ab 1562 das Abendmahl in beiderlei Gestalt ausgeteilt. Die Stadt war danach überwiegend protestantisch. Als Freie Reichsstadt konnte Dortmund auch die religiösen Angelegenheiten selbst regeln und so erhielt die Stadt 1570 ein neues Kirchenregiment. Vorherrschend war das lutherische Bekenntnis. Das reformierte Bekenntnis war bis 1786 überhaupt nicht zugelassen. 1625 errichtete der Rat die Superintendentur Dortmund. Hieraus entstand nach dem Übergang an Preußen der spätere Kirchenkreis Dortmund innerhalb der Evangelischen Kirche in Preußen beziehungsweise dessen westfälischer Provinzialkirche. 1960 wurde der Kirchenkreis Dortmund in vier Kirchenkreise aufgeteilt. Bis Ende 2013 bildeten die Kirchenkreise Dortmund-Mitte-Nordost (zwölf Kirchengemeinden), 2002 fusioniert aus den Kirchenkreisen Dortmund-Mitte und Dortmund-Nordost, Dortmund-Süd (acht Kirchengemeinden) und Dortmund-West (fünf Kirchengemeinden) mit ihren zugehörigen Kirchengemeinden zusammen mit dem benachbarten Kirchenkreis Lünen (vier Kirchengemeinden) die „Vereinigten Kirchenkreise Dortmund – Verband der evangelischen Kirchengemeinden und Kirchenkreise in Dortmund und Lünen“. Am 1. Januar 2014 haben sich die vier Kirchenkreise zum Evangelischen Kirchenkreis Dortmund vereinigt. Mit seinen 28 Kirchengemeinden, 24 in Dortmund, drei in Lünen und einer in Selm ist er Teil der Evangelischen Kirche von Westfalen. Auch nach Einführung der Reformation gab es noch wenige Katholiken in Dortmund, die weiterhin zum Erzbistum Köln gehörten. Ihnen verblieben zunächst nur die Klosterkirchen für gottesdienstliche Nutzungen. 1616 erhielt jedoch das Dominikanerkloster wieder Pfarrrechte. Nach 1803 wurden die römisch-katholischen Klosterkirchen entweder säkularisiert oder gar abgebrochen. Die Kirche des aufgehobenen Dominikanerklosters blieb als Propsteikirche erhalten. 1821 wurden die Katholiken dem Bistum beziehungsweise Erzbistum Paderborn zugeordnet. Infolge starker Zuwanderung im 19. Jahrhundert und frühen 20. Jahrhundert, insbesondere aus der damaligen Provinz Posen, nahm auch die Zahl der Katholiken stark zu. 1832 wurde Dortmund Sitz eines römisch-katholischen Dekanats. Auch nach der Gründung des „Ruhrbistums“ Essen verblieb Dortmund beim Erzbistum Paderborn. Neben den landeskirchlich-evangelischen und römisch-katholischen Gemeinden in Dortmund existieren verschiedene Freikirchen, darunter mehrere evangelisch-freikirchliche Gemeinden (Baptisten) (Christuskirche Dortmund-Mitte, Feldherrnstraße, Brückengemeinde Dortmund-Hörde, Auferstehungsgemeinde Dortmund-Eving, Evangelisch-Freikirchliche Gemeinde Dortmund-Asseln, Evangelisch-Freikirchliche Gemeinde Dortmund-Mitte, Saarbrücker Straße (Brüderbewegung) und Evangelisch-Freikirchliche Gemeinde Dortmund-Huckarde), die Freie evangelische Gemeinde Dortmund-Körne und die Evangelisch-methodistische Kirche Dortmund-Mitte. Mit der Trinitatisgemeinde der Selbständigen Evangelisch-Lutherischen Kirche und der altkatholischen St. Martin-Gemeinde sind auch die altkonfessionellen Kirchen in Dortmund vertreten. In Dortmund sind die griechisch-orthodoxe Kirche, die Serbisch-Orthodoxe Kirche, die Russisch-Orthodoxe Kirche und die Mazedonisch-Orthodoxe Kirche vertreten.1961 wurde unter dem Archimandriten Ánthimos Drakonákis der Beschluss gefasst, eine griechisch-orthodoxen Gemeinde in Dortmund zu gründen (Kirche der Heiligen Apostel zu Dortmund, griech. I.N. Αγίων Αποστόλων Ντόρτμουντ – I.N. Agíon Apostólon Dortmund). Es handelt sich somit vermutlich um die erste Gründung einer griechisch-orthodoxen Gemeinde, die im Zusammenhang mit dem Anwerben von Gastarbeitern steht. Bis dahin hatte es nur dort Gemeinden gegeben, wo Griechen seit über 200 Jahren als Kaufleute sesshaft waren. Der damalige griechisch-orthodoxe Metropolit von Deutschland, Polyeuktos (Finfinis) (), wies den neu gegründeten griechisch-orthodoxen Gemeinden in Deutschland ihren jeweiligen Amtsbezirk zu. Dem frisch geweihten Presbyter Tilémachos (Margarítis) übergab er Ende des Jahres 1965 die Kirchengemeinde Dortmund und damit die seelsorgerliche Verantwortung für die orthodoxen Christen des östlichen Ruhrgebiets. Tilemachos hatte dieses Amt bis zum Oktober 2006 inne. Ihm folgte der Archimandrit Dr. Filótheos. Dortmund ist Sitz des Sekretariats der Orthodoxen Bischofskonferenz in Deutschland. Daneben gibt es als weitere Religionsgemeinschaften, die ihre Wurzeln im Christentum haben, die Zeugen Jehovas und die Kirche Jesu Christi der Heiligen der Letzten Tage („Mormonen“). Die Mormonen betreiben in Dortmund eine genealogische Forschungsstelle. Seit dem Jahr 1896 ist durch die Gründung der Gemeinde Dortmund-Nord (fusionierte 2008 mit der Gemeinde Dortmund-Eving) die Neuapostolische Kirche auch in Dortmund vertreten. Ebenfalls befindet sich die Verwaltung der Neuapostolische Kirche Westdeutschland in Dortmund. Durch den demographischen Wandel in der Gesellschaft und die steigende Zahl inaktiver Kirchenmitglieder wurden in den letzten Jahren einige Standorte aufgegeben und Gemeinden zusammengelegt. Im Jahr 2012 gab es noch 24 Gemeinden im Stadtgebiet, aktuell (Stand 2015) sind es 17 Gemeinden. Islam Bedeutendste nichtchristliche Religionsgemeinschaft in Dortmund ist der Islam. Viele Moscheen und Gebetshäuser (vor allem in der stark migrantisch geprägten nördlichen Innenstadt) machen dies deutlich. Zurzeit gibt es in Dortmund etwa 30 Moscheevereine, die seit September 2007 von einem gemeinsamen Rat der Muslime in Dortmund vertreten werden. Die islamischen Strukturen in Dortmund gründeten in Vereinen meist türkischstämmiger Arbeitsmigranten, aber auch marokkanisch (wie die Al-Fath-Moschee in der Mallinckrodtstraße). Der 1966 gegründete Verein Türkischer Arbeitnehmer in Dortmund und Umgebung richtete 1973 die erste islamische Gebetsstätte in einer ehemaligen evangelischen Notkirche in der Dortmunder Nordstadt ein. Mitte der siebziger Jahre gab es zahlreiche Gründungen von Vereinen gemeinsamer religiöser Identität. Unterstützt wurden diese Gemeinden häufig durch das Amt für Religiöse Angelegenheiten (türkisch: , kurz: DİB), das seit Anfang der 1970er Jahre in der Türkei ausgebildete islamische Theologen in die deutschen Moscheevereine entsendet. Im November 1976 wurde der erste islamische Theologe als Lehrer und Vorbeter in Dortmund begrüßt. Zwischen 1979 und 1983 bestand die Islamische Gemeinde Dortmund als selbstständiger Dachverband der islamischen Gemeinden in Dortmund. Diese löste sich 1983 auf, da die Gründung einer sogenannten Diyanet-Stiftung seitens des Religionsattachés der türkischen Botschaft angedacht war. Diese Stiftung wurde letztlich nicht realisiert und die Dortmunder Gemeinden schlossen sich schließlich der Türkisch-Islamischen Union der Anstalt für Religion (türkisch: , kurz: D.I.T.I.B.) an. Zur D.I.T.I.B. gehören heute zehn Gemeinden in Dortmund. Neben den an den nationalen Gegebenheiten in der Türkei orientierten Moscheevereinen existieren in Dortmund weitere islamische Gemeinden, zum Beispiel die Islamische Gemeinschaft Millî Görüş und Alevitische Gemeinde mit anderen spirituellen Ausrichtungen. Als sich in den 1990er Jahren abzeichnete, dass die Arbeitsmigranten dauerhaft in Dortmund bleiben würden, hatte dies auch Auswirkung auf die Moscheevereine. Die bis dahin lose organisierten Vereine organisierten sich nach deutschem Vereinsrecht und strebten Gemeinnützigkeit an. Die zuvor häufig in Hinterhäusern untergebrachten Gebetsstätten zogen in die Vorderhäuser. Der Islam wurde sichtbarer. Der Trend zum Bau repräsentativer Moscheen, wie er in ganz Deutschland zu beobachten ist, hält auch in Dortmund an. Im Herbst 2007 bildeten die Vertreter der meisten Moscheegemeinden unter Beteiligung aller wichtigen islamischen Organisationen in Deutschland einen „Rat der muslimischen Gemeinden in Dortmund“. Judentum Das früheste Dokument, das auf die Existenz von Juden in der früheren Hanse- und Reichsstadt Dortmund hinweist, ist ein Privileg Heinrichs IV. von 1074; eine zweite urkundliche Erwähnung von Juden stammt aus dem Jahre 1096. Die meisten Wohnstätten der Dortmunder Juden, ihr Bethaus und die Mikwe lagen am westlichen Rand des Stadtkerns. Im Zusammenhang mit den Pestpogromen 1460/1465 wurden die Juden aus Dortmund vertrieben und siedelten sich erst im 16. Jahrhundert wieder in umliegenden Ortschaften u. a. in Dorstfeld, Hörde, Schwerte, Unna an. Erst zu Beginn des 19. Jahrhunderts gestattete die Stadt Dortmund wieder jüdische Ansiedlung in ihren Mauern. Seit Mitte des 19. Jahrhunderts wuchs die Zahl der in Dortmund ansässigen Juden stetig infolge der industriellen Entwicklung des Ruhrgebietes. Im Zuge dessen entstand 1895 als zentrale, repräsentative Betstätte die Alte Synagoge. Mit 1300 Plätzen, davon 750 für Männer reservierte Sitzplätze im Erdgeschoss und 450 Plätze für Frauen auf den Emporen des Kuppelbaus, war die Synagoge zu ihrer Zeit eines der größten jüdischen Bethäuser in Deutschland. Als eine von wenigen jüdischen Gemeinden in Deutschland, wurde die Gemeinde noch vor den Novemberpogromen 1938 ihres Besitzes enteignet und der Abriss vollzogen. Neben der großen Synagoge in der Innenstadt gab es auch in Dortmund-Hörde und Dortmund-Dorstfeld jüdische Gemeinden mit eigenen Synagogen, die ebenfalls zerstört wurden. Die anschließende erzwungene Auswanderung im Nationalsozialismus und der Holocaust dezimierten die jüdische Bevölkerung Dortmunds drastisch. In den 1990er Jahren ist die Jüdische Gemeinde durch den Zuzug von Juden aus der ehemaligen Sowjetunion wieder erheblich gewachsen. Heute umfasst die Kultusgemeinde eine orthodox geprägte Einheitsgemeinde 2594 Mitglieder. Sie betreibt neben einer Synagoge auch einen Kindergarten. Auch der jüdische Teil des Dortmunder Hauptfriedhofs wird heute wieder aktiv genutzt. Dortmund ist Sitz des Landesverbandes der Jüdischen Gemeinden von Westfalen-Lippe. Weitere Religionsgemeinschaften In Dortmund existieren zwei Thai-Buddhistische Gemeindezentren: das Wat Metta Parami im Hüttenbruchweg und das Wat Dhammabharami auf der Engelbertstraße. Neben diesen beiden Gemeinden, die am Theravada-Zweig des Buddhismus orientiert sind, gibt es auch ein Zentrum, das eine Form des Vajrayana vertritt. Dieses gehört dem Buddhistischen Dachverband Diamantweg e. V. an. Für die hinduistische Gemeinde der in Dortmund lebenden Tamilen ist der Sri-Kamadchi-Ampal-Tempel in Hamm von großer Bedeutung. Außerdem existiert eine Bahai-Gemeinde. Interreligiöser Dialog Die Ursprünge des christlich-islamischen Dialogs in Dortmund finden sich im 1969 initiierten Arbeitskreis für Religion und Weltanschauung der Rheinisch-Westfälische Auslandsgesellschaft. In den 1990er Jahren fanden erste direkte Kontakte zwischen christlichen und islamischen Gemeinden im Arbeitskreis Kirche und Moschee statt. Diese Arbeitskreise existieren heute nicht mehr. Seit 1993 widmet sich das gemeinsam von Christen und Muslimen initiierte Dortmunder Islamseminar der interreligiösen Zusammenarbeit zwischen Muslimen und Christen. Träger des Islamseminars sind die Abu-Bakr-Moschee Dortmund, die Moschee Bachstraße des VIKZ, der (evangelische) Kirchenkreis Dortmund-Lünen, das Katholische Forum Dortmund und die Dortmunder DITIB-Gemeinden. Dem Zusammenleben von Juden und Christen in Dortmund widmet sich die Gesellschaft für christlich-jüdische Zusammenarbeit Dortmund e. V. Politik Überblick Dortmund ist eine kreisfreie Stadt im Regierungsbezirk Arnsberg des Landes Nordrhein-Westfalen und handelt in freier Selbstverwaltung durch ihre Organe. Gemäß dem Gesetz über die Kommunalwahlen im Lande Nordrhein-Westfalen, der Gemeindeordnung für das Land Nordrhein-Westfalen und der Hauptsatzung der Stadt Dortmund sind dies der Rat der Stadt Dortmund und der Oberbürgermeister. Alle fünf Jahre wählen die Dortmunder Bürger den 82-köpfigen ehrenamtlichen Rat der Stadt Dortmund (2012: zusätzlich vier Überhang- und Ausgleichsmandate) und den hauptamtlichen Oberbürgermeister. Der Rat wählte bisher zwei ehrenamtliche Bürgermeister als Stellvertreter des Oberbürgermeisters seit 2020 sind es drei Bürgermeister. In den zwölf Stadtbezirken wird außerdem jeweils eine 19-köpfige ehrenamtliche Bezirksvertretung gewählt, die aus ihrer Mitte einen Bezirksbürgermeister (bis 2008: Bezirksvorsteher) und einen oder mehrere Stellvertreter wählt. Dem Oberbürgermeister obliegen die Geschäfte der laufenden Verwaltung, er leitet die Ratssitzungen und repräsentiert die Stadt. Der Oberbürgermeister ist verpflichtet, die Beschlüsse des Rats auszuführen. Der Rat wählt außerdem einen Stadtdirektor und bis zu neun weitere Stadträte als Stellvertreter des Oberbürgermeisters in der Verwaltung der Stadt. In den neun Außenstadtbezirken befinden sich Bezirksverwaltungsstellen. Neben den Organen der kommunalen Selbstverwaltung werden in Dortmund vier Landtagsabgeordnete und zwei Bundestagsabgeordnete per Direktmandat gewählt, bei der Europawahl werden die Kandidaten ausschließlich über Listen gewählt. In der Parteienlandschaft Dortmunds sind alle großen deutschen Parteien vertreten. Als rein kommunale Gruppe treten die Bürgerliste für Dortmund, die im Rat eine Fraktionsgemeinschaft mit der FDP bildet, auf. Eine dominierende Stellung nimmt die SPD ein: Sie stellt seit 1946 ununterbrochen den Oberbürgermeister, bis 1999 auch die absolute Mehrheit im Rat, sowie sämtliche direkt gewählten Abgeordneten auf Landes- und Bundesebene und erzielt noch heute Wahlergebnisse um die 40 %. Herbert Wehner sprach einst in diesem Zusammenhang von Dortmund als der „Herzkammer der Sozialdemokratie“. Inzwischen ist jedoch der Vorsprung der SPD gegenüber der CDU in Dortmund bei den Bundes- und Landtagswahlen deutlich geringer ausgeprägt als in anderen Ruhrgebietsstädten. Politische Geschichte Die Selbstverwaltung der Stadt Dortmund hat eine lange Tradition. Seit etwa 1240 ist ein Rat belegt und vom König anerkannt, 1288 wurden erstmals Bürgermeister erwähnt und 1504 gingen auch die verbliebenen Rechte an der die Stadt umgebenen Grafschaft Dortmund von den Grafen an die Stadt über. An der Spitze der Stadt Dortmund stand in Zeiten der Freien Reichsstadt der 18-köpfige, später zwölfköpfige, patrizische Rat, der im Laufe der Zeit verschiedentlich zusammengesetzt war. Die Amtszeit dauerte zunächst ein Jahr, wobei die Mitglieder turnusmäßig wechselten, sodass es einen „alten Rat“ und einen „neuen Rat“ beziehungsweise „sitzenden Rat“ gab. Seit Ende des 15. Jahrhunderts wurden die Ratsherren auf Lebenszeit gewählt. Von den sechs Obersten Ratsherren führten zwei den Titel „Bürgermeister“. Der siebte Sitz war dem Freigrafen vorbehalten. Nach 1803 übernahm ein fürstlich-oranischer Stadtmagistrat die Amtsgeschäfte und in französischer Zeit gab es einen Maire, dem ein Munizipalrat zur Seite stand. Als Dortmund 1815 preußisch wurde, gab es einen Bürgermeister und einen Gemeinderat. Mit Einführung der Städteordnung 1835 leiteten der Magistrat und das Stadtverordnetenkolleg unter Vorsitz des Bürgermeisters die Verwaltung. Ab 1860 trug das Stadtoberhaupt den Titel Oberbürgermeister. Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und 1946 führte sie die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten Rat der Stadt (anfangs noch nach dem britischen Mehrheitswahlrecht gewählt), dessen Mitglieder man als Stadtverordnete bezeichnet. Der Rat wählte anfangs aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, der ehrenamtlich tätig war. Des Weiteren wählte der Rat ab 1946 ebenfalls einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Rat und Oberbürgermeister → Siehe auch: Ergebnisse der Kommunalwahlen in Dortmund, Ergebnisse der Kommunalwahlen vor 1975, Liste der Oberbürgermeister Die letzte Kommunalwahl fand in Dortmund am 13. September 2020 statt. Die SPD erreichte 30,0 % der Stimmen (27 Sitze), die GRÜNEN 24,8 % (22 Sitze), die CDU 22,5 % (20 Sitze), DIE LINKE 5,6 % (5 Sitze), die AfD 5,5 % (5 Sitze), die FDP 3,5 % (3 Sitze), Die PARTEI mit 2,8 % (3 Sitze), DIE RECHTE 1,1 % (1 Sitz), die Tierschutzpartei 0,9 % (1 Sitz), die PIRATEN 0,9 % (1 Sitz), das Bündnis für Vielfalt und Toleranz (BVT) 0,8 % (1 Sitz), die Bürgerliste 0,6 % (1 Sitz). Nicht im Stadtrat vertreten sind die Freie Bürger Initiative (FBI) mit 0,5 %, Basisdemokratie jetzt mit 0,4 %, die DOS mit 0,1 %, Heinz Augat - Miteinander mit 0,0 %, WiR in Dortmund mit 0,0 % und die DKP mit 0,0 %. Bei der Wahl zum Oberbürgermeister am 13. September 2020 erreichte keiner der Kandidaten die absolute Mehrheit. Deshalb fand am 27. September 2020 eine Stichwahl zwischen Thomas Westphal (SPD) und Andreas Hollstein (CDU) statt. Im ersten Wahlgang erhielt Westphal 35,9 %, Hollstein 25,9 %. Daniela Schneckenburger (GRÜNE) erhielt 21,8 %, Utz Kowalewski (DIE LINKE) 4,4 %. 8 weitere Kandidaten erhielten zusammen 12,0 %. In der Stichwahl setzte sich Thomas Westphal (SPD) mit 52,1 % der Stimmen gegen Andreas Hollstein (CDU), der 47,9 % der Stimmen erhielt, durch. Unterbrochen von einer konfliktgeladenen Koalition mit den Grünen (2004–2009) regiert die SPD seit dem Verlust der absoluten Mehrheit im Jahr 1999 mit wechselnden Mehrheiten. Die Haushaltspläne werden in der Regel gemeinsam von SPD und CDU beschlossen, fallweise auch von SPD und Grünen. Die nächste reguläre Kommunalwahl findet im September 2025 statt. Weitere Wahlen In der folgenden Tabelle sind die Ergebnisse von Bundestags-, Landtags- und Europawahlen in Dortmund dargestellt. Parteien und Wählergruppen In Dortmund sind folgende Parteien und Wählergruppen vertreten: die SPD (Unterbezirksvorsitzender Jens Peick, Fraktionsvorsitzende Carla Neumann-Lieven), die GRÜNEN (Kreisverbandssprecher Heide Kröger-Brenner und Michael Röls, Fraktionssprecher Ingrid Reuter und Ulrich Langhorst), die CDU (Kreisvorsitz Sascha Mader, Fraktionsvorsitzender Jendrik Suck), Die Linke (Kreissprecher Christian Seyda und Christiane Tenbensel, Fraktionsvorsitzender DIE LINKE+ Utz Kowalewski und Petra Tautorat), die PIRATEN (Kreisvorstandsvorsitzende Uwe Martinschledde und Robert Ziethoff), die Tierschutzpartei (Kreisvorsitzender zurzeit unbekannt, stv. Vorsitzender DIE LINKE+ Michael Badura), die AfD (Kreisvorstandssprecher Peter Bohnhof, Fraktionsvorsitzender Heinrich Theodor Garbe), die FDP (Kreisvorsitzender Nils Mehrer), die Bürgerliste für Dortmund (Erster Vorsitzender und stv. Fraktionsvorsitzender FDP/BL Markus Happe), Die PARTEI (Kreisverbandsvorsitzender Hendrik Klünner, Fraktionsvorsitzender Olaf Schlösser), Die Rechte (Kreisvorstandsvorsitzender zurzeit unbekannt), das BVT (Vorsitzender zurzeit unbekannt), die NPD (Kreisvorsitzender Matthias Wächter), die FBI (Vorsitzender Detlef Münch), das BIG (Kreisvorsitzender zurzeit unbekannt), die DKP (Kreisvorsitzende Doris Borowski) und die Familien-Partei Deutschlands (Kreisvorstandsvorsitzender Alexander Dilger). Bundestagsabgeordnete Das Dortmunder Stadtgebiet bildet zwei Bundestagswahlkreise. Der Bundestagswahlkreis 142 (ehem. 143) Dortmund I umfasst die westlichen Stadtbezirke. Bei der Bundestagswahl 2021 ging hier das Direktmandat mit 33,0 Prozent an Jens Peick von der SPD. Die östlichen Stadtbezirke bilden den Bundestagswahlkreis 143 (ehem. 144) Dortmund II. Hier fiel das Direktmandat 2021 mit 39,1 Prozent auf Sabine Poschmann, SPD. Landtagsabgeordnete Dortmund ist in vier Landtagswahlkreise aufgeteilt. Folgende Abgeordnete vertreten die Stadt Dortmund im Landtag Nordrhein-Westfalen (17. Wahlperiode): Wahlkreis Dortmund 1: Armin Jahl, Angestellter, SPD Wahlkreis Dortmund 2: Volkan Baran, Diversity Manager, SPD Wahlkreis Dortmund 3: Nadja Lüders, Rechtsanwältin, SPD Wahlkreis Dortmund 4: Anja Butschkau, Diplom-Sozialarbeiterin, SPD Landesliste: Thorsten Schick, Diplom-Kaufmann und Lehrer, CDU Landesliste: Thomas Nückel, Journalist, FDP Landesliste: Verena Schäffer, Parlamentarische Geschäftsführerin und Historikerin (B.A.), GRÜNE Landesliste: Josef Hovenjürgen, Landwirt, CDU Verschuldung Die Gesamtsumme der Verschuldung der Stadt Dortmund belief sich zum Jahresende 2012 auf 3,541 Milliarden Euro. Das entspricht einem Betrag von 6197 Euro pro Einwohner. Damit liegt Dortmund im „Ranking“ nach höchster Verschuldung der 103 deutschen kreisfreien Städte am unteren Ende des oberen Drittels. Wappen und Farben Neben Wappen und Farben gab es seit 1994 ein Logo, das die stilisierten Buchstaben DO in einem rechtsoffenen Halbkreis aus neun dunkelblauen fünfzackigen Sternen zeigt. Die Sterne werden nach unten hin kleiner. Der senkrechte Strich im D ist nach oben verlängert und nochmals kurz gekreuzt. Er soll den Florianturm darstellen, während zwei gebogene Striche über dem O auf die große Westfalenhalle anspielen. Die beiden Buchstaben sind in Petrol gehalten. Die Darstellung mit Sternen galt als Europalogo, teilweise fand man das Logo auch ohne Sterne. Im Frühjahr 2005 wurde das städtische Corporate Design aber wieder auf die traditionellen Farben und Symbole umgestellt. Außerdem stellt die Stadt Dortmund für Bürger oder Unternehmen, die ihre Verbundenheit mit Dortmund zeigen wollen, noch eine Stadtsilhouette mit mehreren markanten Gebäuden in der Farbe des ehemaligen Logos zur Verfügung. Städtepartnerschaften Dortmund pflegt derzeit offiziell acht internationale Städtepartnerschaften sowie eine innerdeutsche Städtefreundschaft. Darüber hinaus pflegt die Stadt Dortmund zahlreiche internationale Projektpartnerschaften und engagiert sich verstärkt im Bereich der kommunalen Entwicklungspolitik und der projektbezogenen, internationalen kommunalen Zusammenarbeit. Ziel ist dabei eine Zusammenarbeit auf Augenhöhe, deren Mehrwert für beide Partner auf Gegenseitigkeit beruht und die Umsetzung der Nachhaltigkeitsziele in beiden Ländern bzw. Regionen fördert. Die Projektkommunen suchen sich hierbei jeweils Themen, an denen beide arbeiten und unterstützen sich dabei, Lösungen zu finden. Die älteste Städtepartnerschaft Dortmunds besteht zu Amiens in Frankreich. Erste Schritte zu einer solchen Partnerschaft entwickelten sich aus privaten Kontakten eines Bürgermeisters und Überlegungen des Auslandsinstituts bereits 1952. Ab 1957 kam es zu verstärkten Kontakten zwischen den Städten, und am 2. April 1960 erfolgte die Proklamation durch den Rat der Stadt Dortmund. Noch weiter reicht die Partnerschaft zu Leeds im Vereinigten Königreich zurück. Bereits Ende 1949 wurde von der britischen der Vorschlag gemacht, Beziehungen zwischen dem und dem Regierungsbezirk Arnsberg aufzunehmen, da sich beide Gebiete strukturell ähnelten. Die eigentliche Städtepartnerschaft geht auf eine Reise mehrerer Bürgermeister aus dem Ruhrgebiet in diese Region im Jahr 1957 zurück, bei der eine partnerschaftliche Beziehung zwischen Leeds und Dortmund erwogen wurde. In der Folge intensivierten sich die Kontakte, und am 2. Juni 1969 kam es schließlich zur Unterzeichnung des Partnerschaftsabkommen durch die Stadt Dortmund. Beide Partnerschaften standen noch im Schatten des Zweiten Weltkriegs und waren geprägt von dem Willen, eine derartige Katastrophe sich nicht wiederholen zu lassen. Sie sollten den Gedanken der Völkerverständigung und europäischen Freundschaft auch in der Bevölkerung verankern. Der Gedanke der Völkerverständigung spiegelte sich auch in der Partnerschaft zu Buffalo im US-Bundesstaat New York wider, allerdings gingen hier die Bemühungen wesentlich stärker von der Partnerstadt aus, die sich daneben von dieser auch eine Stärkung der Kultur der dortigen deutschstämmigen Bevölkerung erhoffte. Erste Bemühungen vonseiten Buffalos fanden bereits 1950 statt, zu einem umfangreicheren Austausch kam es aber erst Mitte der 1970er Jahre. Der offizielle Beschluss wurde schließlich am 4. Juli 1977 gefasst. Exakt ein Jahr später fasste der Rat den Beschluss, auch eine Städtepartnerschaft mit Rostow am Don in der damaligen UdSSR (heute Russland) aufzunehmen. Sie entwickelten sich aus den Auslandskulturtagen der Stadt von 1973 mit der Sowjetunion. Aufgrund der großen geographischen Entfernung und der Zugehörigkeit zu unterschiedlichen Blöcken, stellte diese Städtepartnerschaft von Anfang an eine Besonderheit dar. Zu intensiven Kontakten kam es entsprechend erst nach Ende des Kalten Krieges. Die Städtepartnerschaft zu Netanja in Israel, am 12. Juni 1980 vom Rat der Stadt Dortmund beschlossen, geht auf eine Einladung aus dem Jahr 1972 an ehemalige Dortmunder Bürger, die als Juden aus Deutschland fliehen mussten, die Stadt zu besuchen, zurück. Infolgedessen wurde von Seiten Dortmunds der Wunsch an den israelischen Städteverband gerichtet, eine Partnerschaft mit einer israelischen Stadt aufzunehmen. Kurz darauf kündigte der Bürgermeister von Netanja Interesse an einer solchen Partnerschaft an. Aus dieser sind sechs Dortmunder Schulpartnerschaften hervorgegangen. Ebenfalls auf die Dortmunder Auslandskulturtage geht die Partnerschaft mit Novi Sad im damaligen Jugoslawien (heute Serbien) zurück. Im Anschluss an die Veranstaltung 1978 teilte der Bürgermeister Novi Sads mit, dass vom jugoslawischen Konsulat eine Städtepartnerschaft mit Dortmund in Erwägung gezogen werde. Am 26. März 1981 unterzeichnete der Rat schließlich ein Partnerschaftsabkommen. Die jüngste Dortmunder Städtepartnerschaft mit Xi’an in der Volksrepublik China geht auf geschäftliche Kontakte der ThyssenKrupp Uhde GmbH und eine Partnerschaft der Technischen Universität Dortmund mit der Jiaotong-Universität Xi’an zurück. Im Februar 1986 lagen Dortmund Anfragen mehrerer Städte nach einer Partnerschaft vor, und man entschied sich schließlich aufgrund der bestehenden Kontakte und der guten Verkehrsanbindung für Xi’an. Daraufhin intensivierten sich die Kontakte und am 1. April 1989 unterzeichnete der Volkskongress der Stadt Xi’an die Partnerschaftserklärung. Aufgrund des Tian’anmen-Massakers bestätigte die Stadt Dortmund die Partnerschaft nicht offiziell, sodass diese formal erst seit dem 27. Juni 1991 besteht. Am 2. Juni 2014 wurde die Städtepartnerschaft zwischen Trabzon und Dortmund besiegelt. Der damalige Ausländerbeirat, heute Integrationsrat, hatte sich bereits 2008 für die Projektpartnerschaft ausgesprochen und sich im Nachgang – unter Beteiligung zahlreicher Akteure innerhalb und außerhalb von Politik und Verwaltung – intensiv für die Begründung einer offiziellen Städtepartnerschaft eingesetzt. Am 31. Juli 2020 unterzeichnete Oberbürgermeister Ullrich Sierau mit seinem Amtskollegen Emil Boc aus der rumänischen Stadt Cluj-Napoca eine Absichtserklärung, um eine kommunale Partnerschaft einzugehen. Im Zentrum der Vereinbarung steht der Austausch insbesondere zu den Themen Digitalisierung und Smart City, Technologie- und Start-up-Förderung, Weiterentwicklung als Innovationscluster, Nachhaltigkeit und Daseinsvorsorge. Koordiniert wird die Projektpartnerschaft von dem Büro für Internationale Beziehungen und Nachhaltige Entwicklung der Stadt Dortmund und dem Büro für Internationale Angelegenheiten und ausländische Investitionen der Stadt Cluj. Neben diesen bilateralen Beziehungen ist Dortmund Mitglied in den Vereinigungen Eurocities, Rat der Gemeinden und Regionen Europas und . Historische Beziehungen zu anderen Städten leben in der Neuen Hanse fort. Seit dem 14. Januar 2008 ist die Stadt Mitglied des Konvents der Bürgermeister. Nach dem Zweiten Weltkrieg bildete sich der Patenstadtarbeitskreis Waldenburger Bergland/Dortmund, der bis 2008 alle zwei Jahre das Waldenburger Heimattreffen für den Kreis und die Stadt Waldenburg in der Westfalenhalle veranstaltete und auch heute über das Kulturportal West-Ost aktiv ist. Jugendpolitik Dortmund ist bekannt als Hochburg der Schüler- und Jugendpolitik. Die Bezirksschülervertretung Dortmund gehört zu den bundesweit stärksten Schülerorganisationen. Seit 2005 gewinnen die Schülervertretungen in der Stadtöffentlichkeit an Bedeutung. Die Bezirksschülervertretung hat Stimmrecht in der Vollversammlung des Jugendring Dortmund und ist beratendes Mitglied im Schulausschuss des Rates der Stadt Dortmund. Dem „Ring Politische Jugend Dortmund“, der die Gelder für die parteipolitischen Dortmunder Jugendorganisationen verteilt, gehören die Jusos, die Junge Union, die Grüne Jugend, die Jungen Liberalen und die Linksjugend an. Als bekanntestes, von Jugendlichen organisiertes Projekt galt Rock in den Ruinen, mit über 15.000 Besuchern, das bis 2013 jährlich von der Juso AG Hörde und dem SPD-Stadtbezirk Hörde organisiert wurde. Kultur und Sehenswürdigkeiten Stadtbild Durch insgesamt 105 Luftangriffe mit mehr als 22.242 Tonnen Bomben wurde das historische Stadtzentrum innerhalb der Wallanlagen zu 95 % zerstört. Dortmund hatte damit sein städtebauliches Gesicht, das neben den mittelalterlichen Stadtkirchen, dem Alten Rathaus und einigen Profanbauten vor allem in der Zeit von 1890 bis 1930 entscheidend geprägt worden ist, im Hagel der Bomben völlig verloren. Es wurde von der britischen Militärregierung und dem Dortmunder Baudezernenten Wilhelm Delfs sogar erwogen, die Trümmer als Mahnmal gegen den Krieg vor Ort liegen zu lassen und Dortmund an einer anderen Stelle neu zu errichten. Der Wiederaufbau wurde jedoch maßgeblich durch die im Boden vorhandenen Infrastrukturleitungen und die darüber liegenden Straßen bestimmt. Ausnahme bilden hierbei die Nord-Süd-Achse entlang der Kleppingstraße und die Ost-West-Linie entlang der Kampstraße in der Innenstadt, welche im Zeitgeist der autogerechten Stadtentwicklung durch die Altstadt geschlagen wurden. Beim Wiederaufbau wurden jedoch im Wesentlichen Straßenverläufe sowie historische Straßennamen beibehalten, die Bebauung erfolgte hierbei allerdings im Stil der 1950er Jahre. Das öffentliche Bewusstsein und die Planung der Nachkriegszeit war vom Wunsch gekennzeichnet, die städtebauliche Gegebenheit als Produkt der Industrialisierung nicht auf den Grundrissen der mittelalterlichen Stadt zu wiederholen. Somit sind weite Teile der Innenstadt von Nachkriegsarchitektur geprägt; dazwischen befinden sich einzelne Bauten, die erhalten geblieben sind. Wenngleich aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung kein geschlossenes historisches Stadtbild mehr existiert, so besitzt die Stadt doch zahlreiche Gebäude vieler Epochen, insbesondere herausragende Beispiele der Nachkriegsmoderne. In den letzten Jahren erhielt das Stadtbild Impulse durch verschiedene Maßnahmen wie den Umbau der Kampstraße als Boulevard oder den Bau der Thier-Galerie als Einkaufszentrum. Architektur Architektonisch gesehen ist Dortmund eine Stadt voller Widersprüche. Die Wahrnehmung wird stark vom Stil der Nachkriegs- und Postmoderne geprägt und erweckt den Eindruck einer jungen Stadt. Tatsächlich besteht aufgrund der über 1125-jährigen Stadtgeschichte jedoch eine Vielzahl von Bauwerken aus verschiedenen Architekturepochen. Besonders sehenswerte Bauten werden zumeist in eigenen Artikeln beschrieben. Bauwerke Bauwerke innerhalb des Wallrings Entlang des Dortmunder Ostwalls lassen sich noch die Strukturen und Ausdehnungen der mittelalterlichen Dortmunder Stadtbefestigung erkennen. Als einziger Wall zeigt der Ostwall jetzt noch die alte Mittelpromenade mit Kastanienallee, die im Zeitraum von 1810 bis 1874 durch das Schleifen der Stadtmauer entstanden ist. Bekannte Bauwerke am Ostwall sind das Schüchtermann-Denkmal, das alte Museum am Ostwall, der Adlerturm und ein Teilstück der historischen über 800 Jahre alten Stadtmauer. Das Alte Stadthaus wurde 1899 nach einem Entwurf von Stadtbaurat Friedrich Kullrich im Stil der Neurenaissance errichtet. Wie viele Gebäude Dortmunds wurde es im Zweiten Weltkrieg stark beschädigt. Zwischen zwei Fenstern der Westseite befindet sich der westfälische Spruch „So fast as düörpm“, zu deutsch: „So fest wie Dortmund“. An der Frontseite sind die Wappen der acht Hansestädte Bremen, Hamburg, Köln, Lippstadt, Lübeck, Münster, Osnabrück und Soest zu sehen. Den Balkon über dem Portal umrahmen zwei weibliche allegorische Figuren, deren linke die Blütezeit Dortmunds im Mittelalter symbolisiert. In einer Hand hält die Figur das mittelalterliche Rathaus, in der anderen die Hansekogge. Die rechte Figur ist ein Symbol für das neu herangebrochene Industriezeitalter, denn die Figur stützt sich mit dem Arm auf einem Dampfhammer ab, in den Händen hält sie ein Messgerät und einen Plan. Angrenzend an das Alte Stadthaus stehen mit seinem Erweiterungsbau von 1929 an der Ecke Olpe/Kleppingstraße, dem neuen Stadthaus am Südwall von 1952 sowie der Berswordt-Halle von 2002 weitere Gebäude, die zusammen den städtischen Verwaltungskomplex gegenüber dem Dortmunder Rathaus bilden. Neben dem neuen Stadthaus am Südwall befinden sich mit der ehemaligen Hauptverwaltung der Vereinigte Elektrizitätswerke Westfalen, heute Hauptsitz der DEW 21, und dem Gebäudekomplex der Versicherung für Handwerk, Handel Gewerbe, das heute als Jugendamt der Stadt Dortmund genutzt wird, weitere herausragende Großbauten der 1950er Jahre am Dortmunder Neutor. Die Krügerpassage in der Dortmunder Innenstadt ist die älteste Passage auf Dortmunder Stadtgebiet; sie wurde 1912 im Stil der Neorenaissance von Paul Lutter und Hugo Steinbach erbaut. Jedoch fiel sie im Zweiten Weltkrieg wie viele bedeutende Dortmunder Bauwerke dem Krieg zum Opfer und wurde erst 1953 wieder aufgebaut. Das Vehoff-Haus am Ostenhellweg gehört zu den ältesten steinernen Profanbauten im Dortmunder Stadtzentrum. Es wurde im Jahr 1607 erbaut, im Jahr 1905 durch einen Brand zerstört und in seinen Grundzügen als Kopie des historischen Hauses wiedererrichtet. Dabei wurde es in seiner Höhe an die Nachbargebäude angepasst. Nach der Zerstörung im Zweiten Weltkrieg erfolgte ein zweiter Wiederaufbau mit der Originalhöhe des historischen Hauses von 1607. Es grenzt hierbei direkt an die Dortmunder Marienkirche und befindet sich am Kreuzungsbereich zwischen Westenhellweg und Ostenhellweg. Aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung befinden sich innerhalb des Dortmunder Wallrings eine Vielzahl von herausragenden Beispielen der Nachkriegsmoderne. Namhafte Architekten wie Harald Deilmann, Will Schwarz und Fido Spröde verwirklichten sich hierbei im Stadtzentrum, herausragende Bauten sind unter anderem das Fritz-Henßler-Haus, das Museum am Ostwall und das Gesundheitshaus Dortmund. Die Gebäude der Architekten rücken hierbei in der letzten Zeit vermehrt in den Fokus des Interesses und werden aufwendig saniert, wie das Beispiel der ehemaligen WestLB Dortmund zeigt. Letztere wurde wegen seiner zeittypischen, von der Pop Art inspirierten Architektur als jüngstes Baudenkmal 2011 in die Denkmalliste der Stadt Dortmund eingetragen und fachgerecht saniert. Weiterhin befinden sich eine große Anzahl von kleineren Bauwerken innerhalb des Wallrings, die unter Denkmalschutz gestellt wurden oder bereits tief im Bewusstsein der Dortmunder Bevölkerung verankert sind. Der RWE Tower, erbaut nach Plänen des Architekturbüros Gerber, ist nach der Petrikirche und der Reinoldikirche das dritthöchste Bauwerk der Dortmunder Innenstadt und wurde am 24. August 2005 eingeweiht. Das 100 Meter hohe, im Grundriss linsenförmige Gebäude mit einer Fassade aus anthrazitfarbenem chinesischem Granit wird von der RWE AG genutzt. Er ist zusammen mit den Innenstadtkirchen, dem angrenzenden IWO-Hochhaus und dem Sparkassen-Hochhaus eines der höchsten Gebäude innerhalb des Wallrings Die Stadt- und Landesbibliothek Dortmund wurde 1999 südlich des Dortmunder Hauptbahnhofs eröffnet. Der von Architekt Mario Botta gestaltete Bibliotheksbau besteht aus einem rechteckigen Baukörper aus rosafarbenem Sandstein und einer vorgelagerten Glasrotunde. Das Konzerthaus Dortmund im Brückstraßenviertel an der Kreuzung der Brückstraße mit der Ludwigstraße wurde im September 2002 eröffnet. Das Konzerthaus (auch Philharmonie für Westfalen genannt) reiht sich in die vorhandene Fassadenreihe ein, aber sticht gleichzeitig durch die Eckposition und die Schräge hervor. Die optische Verbindung mit den anderen Fassaden wird durch eine gläserne Passage zwischen Konzerthaus und Nachbargebäude erreicht. In den Abend- und Nachtstunden kann die komplette Fassade durch LED-Elemente bespielt werden. Durch die enge und dichte Bebauung innerhalb des Brückstraßenviertel musste auf einen Vorplatz verzichtet werden, doch das Eingangsfoyer, die ganz aus Glas gestaltete Erdgeschosszone, bindet das Haus ganz natürlich in den Stadtraum ein. Die Thier-Galerie mit ihren 33.000 Quadratmetern ist eines der neusten Großprojekte innerhalb des Wallrings. Neben einem modernen großflächigen Neubau, wurde außerdem der ehemalige Verwaltungsbau der Thier-Brauerei aus den 1950er Jahren reaktiviert und das ehemalige Clemenschen Kaufhaus von 1902 als Repräsentationsbau des Klassizismus am Westenhellweg detailgetreu und mit einer neuen Außenterrasse rekonstruiert. Bauwerke außerhalb des Wallrings Neben dem RWE Tower, IWO-Hochhaus und dem Sparkassen-Hochhaus besitzt Dortmund noch weitere Hochhäuser, denn in den letzten Jahren hat sich in der Stadt ein beachtliches Cluster an Hochhäusern mittlerer Gebäudehöhe entwickelt. Zusammen mit den mittelalterlichen Kirchen St. Reinoldi und St. Petri bilden die Bürotürme die Dortmunder Skyline. Die Entwicklung erfolgt nach dem von der Stadt beschlossenen Stadtentwicklungskonzept Dortmund 2030. Hierbei sollen einzelne Orte innerhalb der Innenstadt als Stadttore akzentuiert und kenntlich gemacht werden und so eine stark ausgeprägte Silhouette – die City-Krone – bilden. Weitere Hochhäuser sind das im April 1994 eröffnete Harenberg City-Center mit 19 oberirdischen und 2 unterirdischen Geschossen bei einer Höhe von 70 Metern eines der höchsten Häuser der Stadt sowie das Ellipson mit einer Höhe von 60 Metern und 17 Etagen und dem neuen Volkswohl Bund Hochhaus mit 63 Metern am Hohen Wall. Darüber hinaus bestehen am Rheinlanddamm und Westfalendamm weitere Hochhäuser wie der Florianturm mit 208 Metern, das Telekom-Hochhaus mit 88 Metern und der Westfalentower mit 86 Metern Höhe. Das Landesoberbergamt Dortmund – ursprünglich Oberbergamt Dortmund – im Kaiserstraßenviertel entstand im Jahr 1910 nach einem Entwurf des Regierungsbaumeisters Behrendt und des Dortmunder Baurats Claren. Das repräsentative, dreigeschossige Bauwerk nebst Seitenflügel und schiefergedecktem Uhrenturm wurde während des Zweiten Weltkriegs stark beschädigt, aber nach dem Krieg weitgehend im Ursprungszustand wieder aufgebaut. Das Gebäude beherbergt die Abteilung Bergbau und Energie in NRW der Bezirksregierung Arnsberg. Das Verwaltungsgebäude Union ist der ehemalige Hauptsitz der Union, AG für Bergbau, Eisen- und Stahl-Industrie an der Rheinische Straßen im Unionviertel. Der neoklassizistische Backsteinbau aus dem Jahr 1921, wurde von den Architekten Dietrich und Karl Schulze geplant und weist Ähnlichkeiten mit dem Mannesmann-Verwaltungsgebäude in Düsseldorf von Peter Behrens aus dem Jahre 1911/12 auf. Das Union-Gebäude umschließt im Inneren drei Lichthöfe. Nach außen zur Rheinischen Straße präsentiert sich das Gebäude als monumentaler Block. An der Kopfseite des Gebäudes befinden sich zehn Säulen im Stile der Neorenaissance. Oberhalb dieser Säulenreihe prangt weithin sichtbar die Inschrift „Es lobt den Mann die Arbeit und die Tat.“ Das Dortmunder U, ein denkmalgeschütztes Industriehochhaus aus dem Jahre 1926, gilt als markantes Wahrzeichen der Stadt. Auf dem Dach des ursprünglich als Brauerei genutzten Gebäudes prangt seit 1968 das neun Meter hohe beleuchtete goldene Dortmunder U als Unternehmenszeichen der Union-Brauerei. Nach dem Umzug der Brauerei in die Peripherie wurden seit 2003 alle umliegenden Gebäude abgerissen. Das Gebäude wurde nach seinem Umbau im Zuge der Ruhr.2010 ab Mai 2010 in Etappen wiedereröffnet und wird heute als Kultur- und Kreativzentrum genutzt. Auf zwei der insgesamt acht Etagen befinden sich die Ausstellungsräume des hierher umgezogenen Museums Ostwall. Das Alte Hafenamt wurde 1899 im Stil der Neurenaissance nach Plänen von Stadtbaurat Friedrich Kullrich errichtet. Der zweigeschossige Bau mit einem zentralen Frontturm besitzt einen sechseckigen Grundriss und wurde am 11. August 1899 durch Kaiser Wilhelm II. eingeweiht. Bis 1962 war das Gebäude Sitz der Dortmunder Hafen AG. Heute beherbergt das Hafenamt die Wasserschutzpolizei und die Ausstellung Hafen und Schifffahrt mit Exponaten zur Hafengeschichte. Das Seminargebäude der Industrie- und Handelskammer zu Dortmund wurde 1928–1930 von den Dortmunder Architekten Peter Grund & Karl Pinno entworfen und 1965 nach Planungen des Dortmunder Architekten Werner Lehmann erweitert. Der flachgedeckte mit Sandstein verkleidete Baukörper aus den 1930er Jahren erstreckt sich dabei über 100 Meter entlang der Märkischen Straße und bildet zusammen mit dem Kammergebäude aus den 1960er Jahren einen großen Vorplatz. Letzteres ist mit geschliffenen Tafeln aus Leca-Beton verkleidet und gilt in seiner architektonischen Ausprägung als Musterbeispiel seiner Bauweise. Das Haus Schulte-Witten ist ein 1880 erbautes Herrenhaus unweit des Dortmunder Stadtzentrums im Stadtteil Dorstfeld. Archäologische Funde belegen ein Vorgebäude am gleichen Standort, das sich auf den Dreißigjährigen Krieg datieren lässt. Hinter dem Haus befindet sich ein weitläufiges Parkgelände sowie das ehemalige Wirtschafts- und Renteigebäude an. Das Haus Schulte-Witten gehört heute der Stadt Dortmund und wird als Stadtteilbibliothek und für sogenannte Ambiente-Trauungen genutzt. Der Wasserturm des Dortmunder Südbahnhofs ist ein 43 Meter hohen alter Wasserhochbehälter am ehemaligen Bahnbetriebswerk Dortmund Süd. Er wurde zwischen 1923 und 1927 als Stahlbeton-Skelett-Bau von der Deutschen Reichsbahn errichtet und beherbergt diverse Büros von Architekten und Werbeagenturen. Die Spielbank Hohensyburg wurde 1985 nach Plänen des Architekten Harald Deilmann und zweijähriger Bauzeit auf der Hohensyburg fertiggestellt. Deutschlands umsatzstärkstes Casino liegt oberhalb des Hengsteysees und bietet einen weitschweifenden Blick über das Ruhrtal bei Hagen. Im Stadtwald Bittermark erinnert das Mahnmal Bittermark an die Endphaseverbrechen im Rombergpark und in der Bittermark durch die Geheime Staatspolizei. Bedeutende Sakralbauten Auf Dortmunder Stadtgebiet befinden sich 63 römisch-katholische, 43 evangelische sowie weitere Kirchenbauten aus verschiedenen architektonischen Epochen. Darüber hinaus besitzt Dortmund nach Köln und Regensburg unter den deutschen Städten die drittmeisten romanischen Kirchen auf seinem Stadtgebiet. Mit dem Bau der Reinoldikirche wurde 1250 begonnen. Die evangelische Kirche ist nach dem heiligen Reinoldus, dem Schutzpatron der Stadt benannt. Der ursprünglich 112 m hohe Turm der Reinoldikirche galt nach seiner Vollendung 1454 als „Wunder von Westfalen“. Nach Erdbebenschäden stürzte dieser 1661 ein und wurde unmittelbar wiederaufgebaut. Der Turm der Reinoldikirche mit einer heutigen Höhe von 104 m kann bis zur ersten Plattform durch den Glockenturm bestiegen werden. Gegenüber der Reinoldikirche liegt die Marienkirche. Der wahrscheinlich älteste Gewölbebau Westfalens entstand in der zweiten Hälfte des 12. Jahrhunderts als spätromanische Pfeilerbasilika. Ende des 14. Jahrhunderts wurde ein gotischer Chor ergänzt und auch andere Bauteile gotisch erneuert, etwa die Fensterfront der Südseite. Die Kirche hatte ursprünglich zwei Türme. Das Innere der Kirche schmücken ein Marienaltar des Dortmunder Meisters Conrad von Soest aus dem Jahr 1420 und der ältere Altar des namentlich unbekannten Berswordtmeisters, der die Kreuzigung darstellt. Auch die Petrikirche wurde am Hellweg errichtet. Der dreijochige Bau wurde im frühen 14. Jahrhundert begonnen und als gotische Hallenkirche vollendet. Im Inneren von St. Petri befindet sich das Goldene Wunder von Westfalen, ein prächtiger Flügelaltar aus dem Jahre 1521, der derzeit aufwändig restauriert wird. Die Propsteikirche St. Johannes Baptist war die Klosterkirche des 1330 gegründeten ehemaligen Dominikanerklosters St. Johann und ist die einzige römisch-katholische Kirche in der Dortmunder Innenstadt. Zu den erhaltenen Sehenswürdigkeiten des Klosters zählt ein Altarretabel des Weseler Malers Derick Baegert aus dem 15. Jahrhundert. Weitere Kirchenbauten in der Innenstadt sind: Kreuzkirche Liebfrauenkirche Franziskanerkirche (dort ruhen die Gebeine des Mönchs Jordan Mai) Nicolai-Kirche Pauluskirche Dreifaltigkeitskirche Auch in den Stadtteilen gibt es zahlreiche historisch bedeutende Sakralbauten, unter anderem mehrere kleine romanische und gotische Kirchen, aber auch Beispiele für den modernen Kirchenbau. Besonders sehenswerte Bauten werden in den Artikeln der jeweiligen Stadtteile beschrieben. Die älteste Kirche auf Dortmunder Stadtgebiet ist St. Peter zu Syburg. Die ursprüngliche Kirche wurde 776 auf der Hohensyburg durch Karl den Großen errichtet und 779 durch Papst Leo III. geweiht. Auf den Ruinen dieses Bauwerks erstand im 11. Jahrhundert die bis heute erhaltene Wehrkirche. Die Alte Kirche Wellinghofen stammt aus dem 12. Jahrhundert. Sie stand unter dem Patronat der Familie von Romberg. In der Kirche befinden sich ein romanischer Taufstein und viele Schätze mittelalterlicher Kirchenkunst. In Kirchhörde findet sich die Kleinreinoldi genannte, ebenfalls aus dem 12. Jahrhundert stammende, evangelische Patrokluskirche (Kirchhörde). Aus dem 13. Jahrhundert stammen die St.-Margareta-Kirche in Eichlinghofen, die Margaretenkapelle in Barop, die St.-Josef-Kirche in Kirchlinde und die St.-Remigius-Kirche in Mengede. Weitere Kirchenbauten sind: Kommende Brackel Lutherkirche Paulus-Kirche St. Bonifatius St. Maria Magdalena St. Michael in Lanstrop Burgen und Schlösser Auf dem Dortmunder Stadtgebiet befinden sich viele ehemalige Adelssitze: Oberhalb des Zusammenflusses von Ruhr und Lenne in den Hengsteysee auf dem Rücken des Ardeygebirges liegt die historisch bedeutsame Hohensyburg. Von der sächsischen Sigiburg, deren erste urkundliche Nennung im Jahr 775 erfolgte, sind bis heute Ruinen erhalten. Auf dem Syberg findet sich weiterhin die auf das Jahr 1100 datierte historische Wehrkirche St. Peter zu Syburg, der 1857 errichtete Vincketurm und ein 1893 bis 1902 erbautes Kaiser-Wilhelm-Denkmal. Die 1985 fertiggestellte Spielbank Hohensyburg gilt als das umsatzstärkste Casino Deutschlands. Die Hörder Burg wurde ursprünglich im 12. Jahrhundert am Hörder Bach erbaut. Sie diente lange Zeit als Gerichtssitz. Die Hörder Burg gilt als eine Wiege der Ruhrindustrie. Der Iserlohner Fabrikant Hermann Diedrich Piepenstock errichtete hier 1852 ein Puddel- und Walzwerk, die spätere Hermannshütte. Nach dem Niedergang der Montanindustrie befindet sich heute zu Füßen der Hörder Burg der Phoenix-See. Das im 13. Jahrhundert erbaute Wasserschloss Haus Dellwig vereinigt verschiedene architektonische Stile und liegt in der hügeligen Moränenlandschaft im Dellwiger Bachtal, umgeben vom Naturschutzgebiet Dellwiger Wald. In fußläufiger Entfernung findet sich das Westfälische Industriemuseum Zeche Zollern II/IV. Im Dortmunder Stadtteil Aplerbeck liegt das 1290 erstmals urkundlich erwähnte Wasserschloss Haus Rodenberg. Das vom Ritter Diederich von dem Rodenberge erbaute Wasserschloss gehört heute der Stadt Dortmund, wurde 1996 grundlegend saniert und dient als Seminargebäude der Volkshochschule. Das Wasserschloss Haus Bodelschwingh wurde im 13. Jahrhundert von der Familie von Bodelschwingh errichtet und befindet sich bis heute im Familienbesitz. Das von der Familie von Romberg im 13. Jahrhundert erbaute Schloss Brünninghausen wurde im Zweiten Weltkrieg weitgehend zerstört. An das ehemalige Wasserschloss erinnern heute das als städtische Kunstgalerie genutzte Torhaus und der ehemalige Schlosspark. Der Rittersitz Haus Wenge wurde im 13. Jahrhundert von Goswin und Johann von der Wenge angelegt und präsentiert sich heute als einziges im Dortmunder Raum erhaltenes Adelshaus des 16. Jahrhunderts mit gotischen Formen. Von der ehemaligen Wall- und Befestigungsanlage der freien Reichsstadt Dortmund zeugen der Adlerturm und, als vorgelagerte Warte, der Steinerne Turm. Weitere bedeutsame Bauwerke sind: Rittergut Haus Sölde Gut Niederhofen Schloss Westhusen Haus Wischlingen Haus Steinhausen Industriedenkmäler Der zunehmende Verfall und der drohende Abriss einer Vielzahl von Zeugnissen der zurückliegenden wirtschaftlichen Blütezeit mit seinen tiefgreifenden Auswirkungen, die die Industrialisierung auf das Zusammenleben der Menschen hatte, wurden von der Dortmunder Bevölkerung als existentieller Angriff auf die eigene Identität begriffen. Als einer der ersten Orte im Ruhrgebiet entstand hier der Kampf für den Erhalt des historischen Erbes der Industrialisierung und ihrer gesellschaftlicher Anerkennung. Der Ausgangspunkt der gesamten Bewegung war hierbei die Maschinenhalle der Zeche Zollern, die dank der Initiative von Hans P. Koellmann 1969 nicht wie geplant abgebrochen, sondern als erstes Industriebauwerk in Deutschland unter Denkmalschutz gestellt wurde. Im Jahr 1981 integrierte der Landschaftsverband Westfalen-Lippe die Zeche in das dezentrale Westfälische Industriemuseum. Nach und nach wurden die umliegenden Gebäude restauriert und für die Öffentlichkeit zugänglich gemacht. Neben den eindrucksvollen Bauwerken sind auch die Außenanlagen Teil des Museums. Die Kohleverladestation, der ehemalige Zechenbahnhof und ein begehbares Fördergerüst gehören zu den Attraktionen. Die 1928 errichtete ehemalige Kokerei Hansa befindet sich seit 1995 Besitz der Stiftung Industriedenkmalpflege und Geschichtskultur. Seit 1998 sind die meisten Anlagenteile unter Denkmalschutz gestellt und das Denkmal Kokerei Hansa ist Teil der Route der Industriekultur. Die Anlage kann im Zuge von Führungen durch ehemalige Mitarbeiter und angelernte, fachkundige Begleiter erfahren werden. Die Alte Kolonie Eving ist eine denkmalgeschützte Arbeitersiedlung im Stadtteil Eving. Die Siedlung wurde zwischen 1898 und 1899 von der Zeche Vereinigte Stein und Hardenberg für in dieser Zeit verstärkt angeworbene auswärtige Arbeiter errichtet und bestand ursprünglich aus 76 Häusern mit 270 Wohnungen. Auf dem stillgelegten, teilweise denkmalgeschützten und zum größten Teil abgerissenen Hochofenwerk Phoenix-West südlich des Westfalenparks erinnern zwei in Teilen erhaltene Hochöfen, ein Gasometer, die sanierte und ungenutzte Gebläsehalle, das heute als Veranstaltungshalle genutzte ehemalige Reserveteillager und einige weitere Fragmente an die Industriegeschichte des Stadtteils Hörde. Das Besucherbergwerk Graf Wittekind am Syburger Bergbauweg erlaubt einen Einblick in die Anfänge des Bergbaus im südlichen Ruhrgebiet. Weitere industriehistorisch bedeutsame Bauten sind: Zeche Westhausen in Bodelschwingh Zeche Adolf von Hansemann Zeche Minister Stein Zeche Gneisenau in Derne Wasserturm des Dortmunder Südbahnhofs Landesoberbergamt Dortmund Verwaltungsgebäude Union Plätze Wie jede Großstadt verfügt Dortmund über eine Vielzahl öffentlicher Plätze. Die Entstehungsgeschichte der verschiedenen Plätze ist dabei so unterschiedlich wie die Gestaltung. Neben der Keimzelle der Stadt wie der Alte Markt, entstanden andere während der Industrialisierung oder sind Produkt aktueller Stadtgestaltung. Die meisten liegen im Fußgängerbereich des historischen Stadtkerns. Der Alte Markt bildet das historische Zentrum der Stadt. Um den Markt gruppierten sich im Mittelalter die historischen Zunft- und Gildenhäuser der Dortmunder Hanse-Kaufleute. Bis heute findet sich hier das Stammhaus der Privatbrauerei Dortmunder Kronen sowie die Adler Apotheke. Bis 1955 befand sich außerdem die Ruine des im Zweiten Weltkrieg zerstörten Alten Rathauses, das als das älteste steinerne Rathaus Deutschlands galt, und die Ruine der 1914 erbauten Städtischen Sparkasse, die nach dem Umzug in die Hansastraße bis 1943 als Bücherei benutzt wurde. Von beiden, ehemals prachtvollen Gebäuden, standen nach Kriegsende 1945 nur noch die Außenmauern. Heute dominiert rund um den Alten Markt die Gastronomie, die in den Sommermonaten annähernd den gesamten Platz bestuhlt. Der Alte Markt wird weiterhin häufig für Stadtfeste genutzt. Eine Besonderheit ist dabei der 1901 erbaute Bläserbrunnen, der an die Markttradition Dortmunds erinnert. Bereits im 12. Jh. wurden diese Stelle in der Stadt als Handelspunkt für Kaufleute, Handwerker und Bürger genutzt. Der Bläserbrunnen wurde dabei als Tränke für die Pferde der Markthändler angelegt. Seinen Namen bekam der Brunnen durch seine markante Figur auf seiner Mittelsäule, die von dem Berliner Prof. Gerhard Janensch geschaffen wurde. Sie soll dabei einen fahrenden Musikanten aus dem Mittelalter darstellen. 1964 wurde der Brunnen in der heutigen Form an der Ostseite des Alten Marktes angelegt, mit modernem Brunnenbecken, aber der alten Bläserfigur. Im Südwesten an den Alte Markt anschließend befindet sich der Hansaplatz, der bis zum Ende des 19. Jahrhunderts noch Wickedeplatz hieß. Bevor dieser am Anfang des letzten Jahrhunderts zusammen mit dem Bau der Hansestraße entstand, verliefen durch diese Gegend zwei Straßenzüge mit einer dichten, kleinteiligen und dörflichen Bebauung. Anfang des 20. Jahrhunderts wurde mit dem Straßendurchbruch diese Bebauung abgebrochen und es entstanden repräsentative Neubauten wie das Althoffgebäude – heute Karstadt –, die Wandelhalle als Propstei-Arkaden, die Commerzbank und das Gebäude der ehemaligen Dresdner Bank. Heute findet auf dem Platz mittwochs, freitags und samstags der Wochenmarkt statt. Der Friedensplatz ist der zentrale Veranstaltungsplatz der Stadt. Am Friedensplatz befinden sich wichtige städtische Einrichtungen wie das Rathaus, das aus rotem Sandstein erbaute Alte Stadthaus, die Berswordt-Halle, das Neue Stadthaus sowie die städtische Dortmund-Agentur. In der Mitte des Platzes ragt die Friedenssäule in den Himmel. Rund um die Reinoldikirche liegen der Willy-Brandt-Platz, der Reinoldikirchplatz und der Platz von Leeds mit viel Außengastronomie. Letzterer ist dabei einer von insgesamt fünf Plätzen in der Dortmunder Innenstadt, die nach einer Partnerstadt benannt sind. Weitere Plätze sind dabei der Platz von Buffalo, Platz von Amiens, Platz Rostow am Don und Platz von Netanya. In der planmäßig angelegten Nordstadt sah der damalige Stadtbaumeister Brandhoff bereits 1858 elf „Schmuckplätze“ vor. Realisiert wurden der Borsigplatz, die Wiege des Ballspielvereins Borussia Dortmund, der Nordmarkt, der Hackländerplatz und der Freiherr-vom-Stein-Platz, bis 1990 Steinplatz. Hinzu kommt der Fredenbaumplatz als Zentraler Festplatz der Stadt an der Eberstraße. Urbane Viertel Die Dortmunder Innenstadt wurde im Zweiten Weltkrieg weitgehend zerstört. In den benachbarten Stadtvierteln, die meist zur Gründerzeit in urbaner Blockrandbebauung entstanden, haben sich zahlreiche Altbauten und eine lokale Stadtteilkultur erhalten. Das Kreuzviertel im Südwesten der Innenstadt wurde zwischen 1904 und 1908 vom Beamten-Wohnungsverein bebaut und gilt noch heute als ein Wohnviertel der oberen Mittelschicht. Als Standort der Fachhochschule Dortmund und mit Nähe zur Universität ist das Kreuzviertel bei Studenten sehr beliebt. Im Stadtviertel macht sich dies durch eine vielfältige Szene von Cafés und Kneipen, vielfach mit Außengastronomie, bemerkbar. Die Kneipendichte zählt zu den höchsten im gesamten Ruhrgebiet. Bei Wahlen erzielen die Grünen im Kreuzviertel die höchsten Stimmenanteile in Dortmund. Die Nordstadt wurde zwischen 1858 und 1913 als Arbeiterviertel errichtet und wird heute überwiegend von Migranten bewohnt, welche meist dort arbeiten oder ihre Geschäfte eröffnet haben. Nördlich des Dortmunder Hauptbahnhofs gelegen, ist die Nordstadt das größte zusammenhängende Gründerzeitviertel Nordrhein-Westfalens. Die Münsterstraße im Zentrum der Nordstadt ist eine Wohn- und Einkaufsstraße mit dem Motto „Dortmunds lebendiges Pflaster“. Sie ist durch die Mischung der Gastronomie aus verschiedensten Ländern bekannt geworden und besitzt touristisches Potenzial. Es gibt rund 150 Einzelhandels-, Gastronomie- und Dienstleistungsbetriebe aus verschiedensten Ländern und Kulturkreisen, das Münsterstraßenfest findet jährlich dort statt. Außerdem ist in der Nähe die Zentralmoschee Dortmund. Die Schützenstraße im Hafenviertel hat eine ähnliche Struktur mit multikultureller Gastronomie. Borsigplatz, Hoesch-Viertel und Hoesch-Park tragen die industrielle Entstehung des Stadtbezirks noch im Namen. Das Kaiserviertel, aufgrund der gleichnamigen Geschäftsstraße auch Kaiserstraßenviertel genannt, befindet sich östlich der ehemaligen Wallanlagen Dortmunds und ist der judikativer Schwerpunkt der Stadt. Neben dem Amtsgericht und Landgericht sind auch das italienische und südafrikanische Konsulat sowie das Landesoberbergamt hier angesiedelt. Inzwischen werden hier aufgrund vieler Gründerzeitbauten und Unternehmervillen die höchsten Miet- und Immobilienpreise innerhalb der Dortmunder Innenstadt erzielt. Der historische Kaiserbrunnen ist heute der Mittelpunkt des lebendigen Viertels mit vielen inhabergeführten Einzelhandelsgeschäften, Freiberuflern, Bars, Cafés und Restaurants. Das Brückstraßenviertel ist der letzte Teil der Innenstadt, dessen Straßennetz aus der Vorkriegszeit erhalten geblieben ist. Als Kinomeile und Standort zahlreicher Diskotheken hatte die Brückstraße ein zwielichtiges Image. Auch eine über die Stadt hinaus bekannte offene Drogenszene war bis Mitte der 1990er Jahre hier aktiv. Mit der Ansiedlung hochwertiger kultureller Einrichtungen (Konzerthaus, Volkshochschule und Orchesterzentrum NRW) und einem Quartiersmanagement durch die Stadt konnte hier eine gegenläufige Entwicklung eingeleitet werden. Heute präsentiert sich die Brückstraße als moderne, hochfrequentierte Einkaufsstraße mit einem multikulturellen Hintergrund als auch ein aktives Nachtleben mit Bars und Szenekneipen. Parks und Grünflächen 1897 entstanden aus einem patriotischen Zeitgeist überall im Ruhrgebiet sogenannte Kaisergärten, etwa in Oberhausen. Der Dortmunder Kaiserhain lag südlich der Bundesstraße 1. Auf diesem Gelände entstand 1959 zur Bundesgartenschau der Westfalenpark mit dem Deutschen Rosarium und dem Florianturm. In dem 75 Hektar großen Park fanden 1969 und 1991 weitere Bundesgartenschauen statt. Etwa zwei Kilometer südlich, auf dem Gelände des Schlossparks des ehemaligen Schlosses Brünninghausen, findet sich der etwa 65 Hektar große Rombergpark. Er entstand als Botanischer und Englischer Landschaftsgarten und ist insbesondere für seine Gehölzsammlung bekannt. Als Besonderheit finden sich in dem naturnah belassenen Park ein Heilkräutergarten sowie eine künstliche Moor-Heide-Landschaft. Das Gelände zwischen Westfalenpark und Rombergpark, früher Standort des Stahlwerks Phoenix-West, wird momentan renaturiert. Das Zusammenwachsen der beiden großen Dortmunder Parks wird damit vorbereitet. Auch der Dortmunder Zoo gehört zu dieser großen städtischen Grünfläche. Am südlichen Ende des Rombergparks liegt der früher als „Tierpark Dortmund“ bekannte Zoo. Auf einer Gesamtfläche von 28 Hektar finden sich 1.840 Tiere in 265 Arten. Schwerpunkt des Zoos sind Haltung und Zucht südamerikanischer Tierarten. Die größte Dortmunder Grünanlage ist mit 135 Hektar der weiterhin als Friedhof genutzte Hauptfriedhof. Auf dem im historistischen Stil entstandenen Friedhof finden sich große, freie Rasenflächen, landschaftsarchitektonisch interessante Sichtachsen und alter Baumbestand. Der innenstadtnahe Ostenfriedhof verfügt über alten Baumbestand und eine Vielzahl historischer Gräber berühmter Dortmunder Bürger. In der Dortmunder Nordstadt lädt der Fredenbaumpark auf dem Gelände des ehemaligen Stadtwalds Westerholt und der Freizeitanlage Lunapark auf 63 Hektar zu ausgedehnten Spaziergängen und Erholung ein. Eine Öffnung des Fredenbaumparks zum Wasser wurde 2007 mit URBAN-II-Mitteln realisiert. Im Nordwesten wurde der Park zum Dortmund-Ems-Kanal und den dortigen Ruderhäusern ausgeweitet. Auch der Hoeschpark liegt im Dortmunder Norden. In der 1937 vom Reichsarbeitsdienst in unmittelbarer Nähe der Westfalenhütte und des Borsigplatzes angelegten Grünanlage finden sich zahlreiche Sportanlagen und das Warmwasserfreibad Stockheide. Nach dem Verkauf durch den Thyssen-Konzern an die Stadt wird der Park momentan saniert und wieder hergerichtet. Der 1811 als Westentotenhof in der westlichen Innenstadt angelegte Westpark lädt mit Biergarten und Boulebahnen zum sommerlichen Verweilen ein. Ebenso wie der nahe gelegene Tremoniapark auf dem Gelände der ehemaligen Zeche Tremonia, dessen große Wiese als Liegewiese und Fußballplatz genutzt wird. Beide Grünanlagen werden insbesondere von der jüngeren Bevölkerung als Treffpunkt für Erholung und freundschaftliches Beisammensein genutzt. Auch der Revierpark Wischlingen und das Naturschutzgebiet Hallerey liegen im Westen der Stadt. Von der Volksgartenbewegung Ende des 18. Jahrhunderts zeugen die Volksgärten Mengede und Lütgendortmund. In der Dortmunder Peripherie an den Grenzen zu Sauerland und Münsterland liegen die ausgedehnten Waldgebiete Bolmke, Stadtwald Bittermark, Schwerter Wald, Niederhofer Wald, Grävingholz, Kurler Busch, Rahmer Wald und das Wannebachtal. Ein wichtiges Naherholungsgebiet ist auch der Ortsteil Syburg mit Burgruinen, dem Kaiser-Wilhelm-Denkmal, dem Spielcasino, einer Naturbühne und einem Lehrpfad zur Bergbaugeschichte. Südlich der Hohensyburg fällt das Gelände steil zum Hengsteysee mit Bootsrevieren und Wanderwegen ab. Sportstätten Nachdem die ersten Pferderennen bereits 1887 an der Hobertsburg am Fredenbaum stattgefunden hatten, wurde 1913 die Galopprennbahn Dortmund mit einer Sand- und Rasenbahn in Wambel eröffnet. Die historische Rennbahn ist Austragungsort des Deutschen St. Leger. Die erste Sportstätte des Ballspielvereins Borussia Dortmund (BVB) war die Weiße Wiese an der Westfalenhütte im Dortmunder Norden. Dieses erste Stadion der Borussia bot 1924 als Sportpark Borussia Platz für 18.000 Zuschauer. 1937 wurde das Sportgelände von den Nationalsozialisten enteignet und der Reichsarbeitsdienst begann hier mit der Errichtung des Hoeschparks. An die Weiße Wiese erinnert heute nur noch eine Gedenktafel im Freibad Stockheide nahe dem Hoeschpark. Die 1926 neu erbaute Kampfbahn Rote Erde im bürgerlichen Süden der Stadt wurde neue Spielstätte des BVB. Das Stadion Rote Erde war Teil des Volksparks Dortmund und beruhte auf der städtebaulichen Planung des Baurats Hans Strobel. Zum Dortmunder Volkspark gehörten zur damaligen Zeit ebenfalls die Westfalenhalle, die Rosenterrassen und das seit 2007 unter Denkmalschutz stehende Volksbad Dortmund unmittelbar südlich der alten Reichsstraße 1. Seine großen Zeiten erlebte das Stadion Rote Erde mit den Erfolgen der Borussia Mitte der 1960er Jahre. Mit hölzernen Behelfstribünen wurde die Zuschauerkapazität auf 42.000 Menschen angehoben. Nach dem Umzug Borussia Dortmunds in das Westfalenstadion, diente die Rote Erde bis in die 1990er Jahre als Trainingsstätte für die Profimannschaft des BVB. Heute dient das Stadion, mit einer Kapazität von 25.000 Zuschauern, als Leichtathletikstadion und ist Austragungsort nationaler und internationaler Wettkämpfe. Außerdem dient es als Spielstätte für die in der 3. Liga spielende zweite Mannschaft von Borussia Dortmund. Zur Fußball-Weltmeisterschaft 1974 wurde das Westfalenstadion mit einer Kapazität von 54.000 Zuschauern neu errichtet. Ein reines Fußballstadion im Stil der 1970er Jahre aus Beton, und doch wurde es von der Bevölkerung und den Fans enthusiastisch angenommen. Trotz ausbleibender Erfolge der Borussia und einer Zeit in der Zweiten Bundesliga wurden Besucherrekorde gefeiert. Mit den Erfolgen Borussia Dortmunds Mitte der 1990er Jahre begann der sukzessive Ausbau des „Fußballtempels“. Das Westfalenstadion ist heute mit einer Zuschauerkapazität von 81.360 (bei internationalen Spielen 65.851) Zuschauern das größte Fußballstadion Deutschlands. Eine Besonderheit und äußerst sehenswert ist die Südtribüne. Als größte Stehplatztribüne Europas ist sie die Heimat der Fans der Borussia. Auch 2006 war das Stadion Spielstätte bei der Weltmeisterschaft. In Dortmund fanden sechs Spiele inklusive einer Achtel- und einer Halbfinalbegegnung statt. Die Kapazität wurde für alle sechs Spiele aus Sicherheitsgründen auf 60.285 (alles Sitzplätze) reduziert. Das Stadion war nach dem Olympiastadion Berlin die zweitgrößte Spielstätte der Weltmeisterschaft. Die Westfalenhalle wurde als hölzerne Rundhalle durch Baurat Strobel in den 1920er Jahren errichtet. Mit einer Kapazität von 15.000 Zuschauern war sie zeitweilig das größte Hallengebäude Europas. Legendär ist der Weltmeisterschaftskampf von Max Schmeling im Jahre 1927. Im Zweiten Weltkrieg wurde die Halle als Kriegsgefangenenlager missbraucht, bei der Bombardierung der Halle durch die Alliierten kamen zahlreiche Gefangene ums Leben. Schon kurz nach dem Krieg wurde die Halle neu errichtet. 1952 wurde die neue Halle, erbaut als freitragende Dachkonstruktion mit einer Kapazität von 20.000 Zuschauern, durch Bundespräsident Theodor Heuss ihrer Bestimmung übergeben. Heute ist die Halle Teil des Messezentrums Westfalenhallen mit insgesamt neun Veranstaltungshallen. Der Bundesstützpunkt Dortmund am Dortmund-Ems-Kanal ist nationale Trainingsstätte für den Rudersport. In den Gebäuden des Ruderclub Hansa von 1898 trainieren Teile der Nationalmannschaft des Deutschen Ruderverbandes (DRV) für internationale Wettkämpfe. Theater Das 1904 gegründete Theater Dortmund bietet Oper, Ballett, Schauspiel und ein Kinder- und Jugendtheater. Auf dem Gelände der alten Synagoge wurden nach dem Zweiten Weltkrieg die Spielstätten Opernhaus, Schauspielhaus und die Studiobühne neu errichtet und galten als wichtiges Symbol des Wiederaufbaus der kriegszerstörten Stadt. Ein Gedenkstein vor dem Opernhaus erinnert an die Zerstörung der Synagoge im Jahr 1938. Das Kinder- und Jugendtheater „Theater Sckellstraße“ hat seine Spielstätte an der gleichnamigen Straße in unmittelbarer Nähe des Westfalenparks. In den nächsten ist es geplant den Standort zu schließen und das Kinder- und Jugendtheater in die Innenstadt zu verlagern. Ziel ist es mit der „Jungen Bühne Westfalen“ bzw. dem Kinder- und Jugendtheater am Hohen Wall einen großen Oper-Theater-Komplex entstehen zu lassen, der alle Bühnen an einem zentralen Ort vereinigt. Das Ensemble Fletch Bizzel wurde 1979 gegründet. Seit 1985 verfügt das Theater Fletch Bizzel über eine eigene Bühne am Alfons-Spielhoff-Platz. Neben eigenen Inszenierungen des Ensembles werden im Theater regelmäßig Kindertheater- und Puppentheaterproduktionen gezeigt. Zum Theater gehören eine Galerie und eine Kulturwerkstatt, die als Weiterbildungsstätte im Bereich Theater, Tanz und Gesang dient. Die bekannteste Produktion des Theaters ist die alljährlich in der Zeche Zollern stattfinde Veranstaltungsreihe Geierabend. In einem ehemaligen Straßenbahndepot an der Immermannstraße in der Dortmunder Nordstadt hat das Theater im Depot seine Spielstätte gefunden. Die sich als Zentrum der freien Theaterkunst verstehende Bühne bietet seit Januar 2001 zum großen Teil Eigenproduktionen, aber auch andere freie Theatergruppen ohne eigene Spielstätte finden hier ein Zuhause. Eine Theaterwerkstatt mit Kursen und Workshops für Amateure und Laienschauspieler rundet das Programm ab. Das private Theater Olpketal ist die Heimatbühne des Dortmunder Originals Bruno Knust, genannt Günna. Der aus Funk und Fernsehen bekannte Günna widmet sich in seinen mit viel Lokalkolorit gewürzten Produktionen immer wieder den Themen Ruhrgebiet, den Bewohnern dieser Region sowie dem Fußball. Er ist ebenfalls Autor regelmäßiger Kolumnen in den Ruhr Nachrichten. Über die landschaftlich schönste Spielstätte verfügt die Naturbühne Hohensyburg mitten im Syburger Wald am Fuße der Hohensyburg. Seit 1952 werden hier in den Sommermonaten unterschiedliche Inszenierungen für große und kleine Theaterfreunde von Laienschauspielern aufgeführt. Seit 2003 wird in den Wintermonaten die Spielsaison im Studio der Naturbühne fortgesetzt. Die „Schule für Tanzkunst“ bildet das Tanztheater Cordula Nolte. In einer historischen Turnhalle an der Rheinischen Straße finden seit 1998 regelmäßig Tanztheaterinszenierungen auf einer privaten Studiobühne statt. Das Roto-Theater im Herzen der Dortmunder Nordstadt legt neben musikalischen Inszenierungen und Komödien seinen Schwerpunkt auf literarische Programme. Das Hansa Theater ist ein Theater im Dortmunder Stadtteil Hörde. Hier werden insbesondere musikalische Revuen, Musicals und Kabarett gezeigt. Das mit nur 45 Plätzen kleinste Dortmunder Theater ist das Nostalgische Puppentheater im Westfalenpark. Weitere Dortmunder Spielstätten sind: Harenberg City-Center Fritz-Henßler-Haus Märchenbühne Aula am Ostwall Musik Baulichkeiten und Einrichtungen Das 2002 eröffnete, neu erbaute Konzerthaus Dortmund gilt als Leuchtturmprojekt der Dortmunder Musikkultur. Darüber hinaus zählt es seit dem Jahr 2014 zum europäischen Spitzenverband der European Concert Hall Organisation (ECHO). Das in einer modernen Stahl-Glas-Architektur errichtete Konzerthaus verfügt über 1500 Plätze und gilt als Klangkörper mit einer herausragenden Akustik. Die Dortmunder Philharmoniker wurden im Jahr 1887 gegründet. Das Ensemble tritt auf der Bühne des Konzerthaus Dortmund und im städtischen Opernhaus auf. Daneben werden Gastspiele durchgeführt. Das 1968 von der Stadt Dortmund eröffnete Freizeitzentrum West (FZW) bietet jährlich über 250 Veranstaltungen für verschiedene jugendliche Subkulturen und musikalische Szenen. Im FZW spielen neben regionalen Größen regelmäßig internationale Künstler verschiedener Musikrichtungen. Als einer der ersten Clubs Deutschlands erkannte das FZW früh den Bedarf mittelalter Menschen an guter Musik und Tanz und gründete den Club30. Das Electronic Music Festival Juicy Beats hat in der Clubkultur des FZW seinen Ursprung. Seit 1969 existiert der Jazzclub domicil. Ursprünglich in den Kellerräumen einer Kindertagesstätte beheimatet, fand dieser 2005 eine Heimat im früheren Studio-Kino im Westfalenhaus an der Hansastraße. Der als Verein organisierte Jazzclub veranstaltete in seiner Geschichte unzählige Konzertveranstaltungen mit regionalen und internationalen Interpreten. Die Webseite des Clubs verfügt über ein umfangreiches Veranstaltungsarchiv. Der WDR und der Deutschlandfunk nutzen den Club regelmäßig zu Konzertmitschnitten. Das renommierte New Yorker Jazzmagazin Down Beat zählt das domicil zu den 100 besten Jazzclubs der Welt. Das Jugendjazzorchester NRW wird 1975 mit dem Ziel der Nachwuchsförderung als erstes Jugendjazzorchester Deutschlands etabliert. Von den mittlerweile mehr als 500 Künstlern, die im JugendJazzOrchester ihre ersten Meriten sammelten, hat gut ein Drittel den Weg des professionellen Musikers eingeschlagen. Auf eine mittlerweile mehr als 50-jährige Geschichte konnte die Jazzband Siggi Gerhard-Swingtett zurückblicken. Im 1948 gegründeten Hot Club Dortmund fanden Siggi Gerhard und Hilbert Homberg zueinander und gründeten die bis 2013 bestehende Formation, die mit ihrem eingängigen Swing große Popularität und Auftritte im WDR und beim Deutschen Jazzfestival hatte. Der Ausbildung von Musikern widmet sich die Musikschule Dortmund. 1951 als Jugendmusikschule gegründet, blickt die Musikschule Dortmund auf eine lange Geschichte zurück. Unter der Leitung von Direktor Stefan Prophet unterrichten 250 Musikpädagogen im Hauptgebäude an der Steinstraße sowie in über 100 Außenstellen im gesamten Stadtgebiet Kinder, Jugendliche und Erwachsene (13.000 Belegungen). Die Musikschule Dortmund weist ein Produktportfolio in fünf Angebotssäulen auf: „MusikschulStart“, „Angebote in Schulen“, „Instrumental- und Vokalunterricht“, „House of Pop“ mit Glen Buschmann Jazz Akademie und Pop School sowie „Projekte, Wettbewerbe, Veranstaltungen“. Der Internationale Schubert-Wettbewerb für Pianisten wird seit 1987 veranstaltet. Bands und Interpreten Cochise war eine Band aus Dortmund, die sich Ende der 1970er Jahre bis Ende der 1980er Jahre mit politischen Pop und Folksongs einen Namen machte und vor allem in der linksalternativen Szene der Neuen Sozialen Bewegungen populär war. Die Conditors waren eine Rockband aus Dortmund, die in den 1980er Jahren Bekanntheit erlangte. Ihr Stil war bei Rock und New Wave einzuordnen. Heute wird die vielfältige unabhängige Musikszene durch Bands und Interpreten wie Cosmo Klein, Sasha, Too Strong, Orange but Green oder Axxis deutschlandweit wahrgenommen. Chöre Dortmund verfügt eine Vielzahl von Chören, die teilweise im Verband Deutscher Konzertchöre oder im Chorverband Nordrhein-Westfalen Mitglied sind. Der Dortmunder Oratorienchor wurde 1899 als „Lehrer-Gesangverein Dortmund“ gegründet und gab seinen ersten musikalischen Vortrag zur Eröffnung des Dortmunder Hafens in Anwesenheit von Kaiser Wilhelm. Seit 1905 besteht eine Zusammenarbeit mit dem Philharmonischen Orchester Dortmund. Während der nationalsozialistischen Diktatur werden viele Mitglieder des Chores aufgrund ihrer jüdischen Abstammung ausgeschlossen und die Kriegswirren bedeuten das vorläufige Ende des Chors. Erst 1957 findet der Lehrerchor wieder zusammen und wird mangels sangesfreudiger Lehrer 1986 zum Dortmunder Oratorienchor. Das Repertoire des Chores umfasst klassische Musik von Bach bis Vivaldi. Unmittelbar nach dem Zweiten Weltkrieg wurde 1946 im zerbombten Dortmund von Emil Rabe der Dortmunder Kammerchor aus der Taufe gehoben. Auf zahlreichen Auslandsreisen errang der Chor eine Vielzahl von internationalen Auszeichnungen, so zum Beispiel im Jahre 1954 den „Großen Preis der Republik Irland“. Der Dortmunder Kammerchor wurde bereits viermal mit dem Titel Meisterchor des Sängerbundes Nordrhein-Westfalen ausgezeichnet. Die Chorakademie am Konzerthaus Dortmund ist europaweit eine der größten Singschulen ihrer Art. Sie betreut um die 1300 Sänger, die in mehr als 30 verschiedenen Chorensembles singen. In Dortmund besteht sie aus 17 Kinderchören und acht Chören im Leistungsbereich. Weitere Standorte gibt es in Essen und Gelsenkirchen mit jeweils sechs Kinderchören. Weitere Dortmunder Chöre sind folgende: Collegium Vocale Dortmund Chorgemeinschaft Syburg, gegründet 1864 Dortmunder Bachchor, gegründet 1892 Dortmunder Männergesangsverein, gegründet 1904 Dortmunder Musikverein Philharmonischer Chor, gegründet 1845 Dortmunder Schubertchor, gegründet 1900 Florian Singers Kammerchor der Technischen Universität Dortmund Barbershop-Chor Ladies First MGV Eintracht Dortmund, gegründet 1846 Polizeichor Dortmund, gegründet 1909 Museen Das 1947 gegründete Museum Ostwall im Dortmunder U für moderne und zeitgenössische Kunst sammelt Gemälde, Skulpturen, Objekte, Fotos des 20. Jahrhunderts. Es beherbergt die größte Sammlung von Werken des Malers Alexej von Jawlensky in Deutschland sowie die Sammlung Die Brücke aus dem Umfeld des Blauen Reiters. Zudem wurden Anfang der 1990er Jahre über 1000 Arbeiten von Marcel Duchamp bis Joseph Beuys, von Günther Uecker bis Jean Tinguely aus der Sammlung von Siegfried Cremer erworben, die einen weiteren Schwerpunkt des Museums bilden (Informelle Kunst, ZERO und Fluxus). Das Museum für Kunst und Kulturgeschichte findet sich heute in einem 1924 von Hugo Steinbach als Städtische Sparkasse erbauten Art-déco-Bau. Die Sammlung des Museums gibt anhand von Gemälden, Skulpturen, Möbeln und Kunsthandwerk einen Einblick in die Kulturgeschichte der Stadt. Zeitlich umfasst die Sammlung Exponate der Ur- und Frühgeschichte bis hin zu Exponaten des 20. Jahrhunderts. Der Förderkreis Vermessungstechnisches Museum e. V. unterhält eine ständige Ausstellung zur Geschichte des Vermessungswesens und präsentiert seltene geodätische Instrumente. Die Räumlichkeiten des Museums werden regelmäßig zur Präsentation von überregional bedeutenden Kunst- und Kulturausstellungen genutzt. Das Museum Adlerturm beherbergt eine Ausstellung zur mittelalterlichen Stadtgeschichte. Zu sehen sind Ausgrabungsfunde und ein Modell der mittelalterlichen Stadt. Zeitgenössische Darstellungen, historische Waffen und Gebrauchsgegenstände veranschaulichen das Erscheinungsbild Dortmunds im Verlauf der vergangenen Jahrhunderte. Das Naturmuseum Dortmund wurde 1912 gegründet. Es soll seinen Besuchern die Geologie und Erdgeschichte sowie die heimische Tier- und Pflanzenwelt näher bringen. Höhepunkte sind ein Mineralien-Kabinett mit einer Bergkristall-Gruppe, ein Besucher-Schaubergwerk und ein etwa 90.000 Liter großes Aquarium, in dem die Fischwelt des Möhnesees zu sehen ist. Dieses Aquarium ersetzte 2012 ein etwa 72.000 Liter fassendes aus dem Jahre 1980, in dem tropische Süßwasserfische aus Mittel- und Südamerika lebten. Im Mittelpunkt des Deutschen Kochbuchmuseums Dortmund steht die Kochbuchautorin Henriette Davidis, die von 1856 bis 1876 in Dortmund lebte. Das Museum möchte anhand der ausgestellten Exponate Gesellschaftsleben und Küchentechnik, Sozialunterschiede und Tischkultur des 19. Jahrhunderts erlebbar machen. 1910 als Einrichtung zur Lehrerfortbildung und als Lehrmittel-Schausammlung gegründet, blickt das Westfälische Schulmuseum auf eine traditionsreiche Geschichte zurück. Das Museum beherbergt eine der bedeutendsten schulhistorischen Sammlungen in Deutschland und besticht durch ein umfangreiches museumspädagogisches Programm. Das LWL-Industriemuseum hat seine Zentrale auf der Zeche Zollern II/IV, einem Ankerpunkt der Europäischen Route der Industriekultur (ERIH). Die 1903 fertiggestellte Musterzeche der Gelsenkirchener Bergwerks-AG wurde im Jugendstil erbaut und trägt Züge norddeutscher Backstein-Gotik. Das Jugendstilportal rettete die Halle 1969 vor dem drohenden Abriss und machte sie damit zum Pionierbau der Industriedenkmalpflege in Deutschland. Heute ist in Zeche Zollern das Museum der Sozial- und Kulturgeschichte des Ruhrbergbaus. Die 1992 stillgelegte Kokerei Hansa bietet als begehbare Großskulptur faszinierende Einblicke in die Geschichte der Schwerindustrie des vergangenen Jahrhunderts. Auf einem Erlebnispfad Natur und Technik können Besucher die unter Denkmalschutz stehenden Produktionsbereiche der Kokerei begehen. Herausragend ist eine erhaltene Maschinenhalle mit fünf Gaskompressoren der Demag. Hansa ist Sitz der Stiftung Industriedenkmalpflege und Geschichtskultur. Das 2005 wiedereröffnete Hoesch-Museum findet sich im ehemaligen Portierhaus I der Westfalenhütte. Das durch die Zusammenarbeit ehemaliger „Hoeschianer“, dem Museum für Kunst und Kulturgeschichte und der Stiftung Westfälisches Wirtschaftsarchiv entstandene Museum zeigt die Bedeutung des Unternehmens Hoesch AG für die Stadt auf und präsentiert die Industriegeschichte der Stahlindustrie von 1871 bis zum Niedergang Ende des 20. Jahrhunderts. Die DASA – Arbeitswelt Ausstellung ist ein 1993 gegründetes technisches Museum im Dortmunder Stadtteil Dorstfeld in der Nähe der Technischen Universität Dortmund. Die Ausstellung zeigt auf etwa 13.000 m² Ausstellungsfläche moderne und vergangene Technik-Welten. Die Technik wird dabei nicht als Selbstzweck dargestellt, sondern immer der Bezug zum damit arbeitenden Menschen hergestellt. Die Steinwache in Dortmund ist eine Mahn- und Gedenkstätte an die Gräuel der Zeit des Nationalsozialismus und beherbergt die ständige Ausstellung „Widerstand und Verfolgung in Dortmund 1933–1945“ des Dortmunder Stadtarchivs. Im April 2006 wurde das Brauerei-Museum Dortmund wiedereröffnet. Untergebracht im historischen Maschinenhaus der ehemaligen Hansa-Brauerei mit angrenzender Produktionshalle aus den 1960er Jahren gibt das Museum einen Überblick über die Brauhistorie der Stadt. Die Ausstellung Hafen und Schifffahrt im Alten Hafenamt informiert anhand von Schiffs- und Hafenmodellen über das Schifffahrtswesen und die moderne Hafenwirtschaft. Seit dem 19. Dezember 2008, dem 99. Geburtstag von Borussia Dortmund, befindet sich in der Nordostecke des Signal Iduna Parks das Borusseum, ein Museum rund um die Geschichte des Vereins. Das Deutsche Fußballmuseum ist das offizielle nationale Fußballmuseum des Deutschen Fußball-Bundes (DFB) und wurde am 23. Oktober 2015 eröffnet. Das Gebäude in unmittelbarer Nähe zum Hauptbahnhof wurde von 'HPP Hentrich-Petschnigg + Partner' aus Düsseldorf konzipiert und gliedert sich in die Dortmunder Kunst- und Kulturmeile ein. Inhaltlich ist es ein Erinnerungs- und Erfahrungsort der deutschen Fußballgeschichte. Dabei steht die Information über fußballhistorische Ereignisse und die Entwicklung des Sports in all seinen Facetten ebenso im Mittelpunkt wie soziale und gesellschaftliche Themen rund um den Fußballsport. In der Wißstraße 11 befindet sich auf 300 Quadratmetern das privat geführt Apotheken-Museum. Es ist mit weit über 10.000 Exponaten die größte private pharmaziehistorische Sammlung Deutschlands. Das Magnetmuseum ist ein privates Museum des Unternehmens Tridelta. Die Ausstellung gibt einen Überblick über historische und aktuelle Anwendungen von Dauermagneten in der Elektrotechnik. In dem Museum wird der Einsatz von Dauermagneten in Zählern, Lautsprechern, Telefonen, Schaltern, Relais, Uhren, Messgeräten, Kleinmotoren und Generatoren beleuchtet. Das Nahverkehrsmuseum ist im Stadtteil Nette beheimatet und zeigt Exponate aus dem Bestand der Dortmunder Stadtwerke AG und ihrer Vorgängergesellschaften. Das Deutsche Industrielack-Museum liegt im Dortmunder Hafen und möchte seinen Besuchern den Industrielack mit all seinen Facetten näher bringen. Der Eintritt in die städtischen Museen ist ab dem 1. Januar 2019 frei. Weitere Museen der Stadt sind: BINARIUM. Deutsches Museum der digitalen Kultur Automobil-Museum Dortmund Hartware Medienkunstverein im Dortmunder U Kleines Bergbaumuseum an der Zeche Adolf von Hansemann Kleines Bergbaumuseum Romberg-Stollen Heimatmuseum Lütgendortmund im Wasserschloss Haus Dellwig Heimatmuseum Hörde in der Hörder Burg Kunst im öffentlichen Raum Über 660 verschiedene Werke stehen im öffentlichen Raum der Stadt Dortmund verteilt – Kunst der letzten 150 Jahre. Von Skulpturen, Plastiken, Pflasterstein, Malereien, Mosaiken, Industrierelikten, Skulpturen oder Brunnen. Neben Denkmälern wie dem Löwendenkmal und dem Schüchtermanndenkmal entstanden seit Mitte der 1980er Jahre in der Innenstadt durch den Umbau der Kleppingstraße und Kampstraße unter anderem drei große Brunnenanlagen, künstlerisch gestaltete U-Bahn-Stationen, Spielplätze und Plastiken wie der „Chip“ am Platz von Amiens, der sich nach seiner Aufstellung zum Treffpunkt vor allem junger Leute entwickelt hat. Besonders hervorzuheben ist der Europabrunnen an der Kleppingstraße, der von Joachim Schmettau entworfen und 1989 in Granit und Bronze ausgeführt wurde. Um den Europabrunnen ist mittlerweile entlang der gesamten Kleppingstraße eine rege Straßencafé-Szene entstanden. Ein weiterer Anziehungspunkt ist der Gauklerbrunnen im Zentrum des Stadtgarten. Der von Prof. Eberhard Linke zum 1125-jährigen Stadtjubiläum entworfene Gauklerbrunnen ist etwa 30 Meter lang und 12 Meter breit und überwindet dabei eine Höhendifferenz von 4 Metern. Das Wasser fließt in Kaskaden vom Quellbecken in das untere Brunnenbecken. Hier stehen die namensgebenden, bronzenen Gauklerfiguren, die das Brunnenwasser auf unterschiedliche Art versprühen. Innerhalb des Wallrings und darüber hinaus steht außerdem das Kunstprojekt Dortmunder Nashorn. Das Nashorn mit Flügeln (Rhinoceros alatus) ist das Wappentier des Dortmunder Konzerthauses. Dutzende unterschiedlich gestaltete Varianten wurden bei einer Kunstaktion im Stadtraum in Zusammenarbeit mit lokalen Künstlern und Jugendgruppen an markanten Stadtpunkten aufgestellt. Seit 2003 werden auch in Dortmund durch den Künstler Gunter Demnig Stolpersteine für Opfer des Nationalsozialismus verlegt. Bis zum Sommer 2014 waren rund 200 Steine in zahlreichen Stadtteilen gesetzt. Galerien Das Künstlerhaus Dortmund wird seit 1983 von Künstlern in Selbstorganisation geführt und als Ausstellungsort für zeitgenössische und experimentelle Kunst genutzt. Es befindet sich in der Dortmunder Nordstadt in einem ehemaligen Betriebsgebäude der Zeche Vereinigte Westphalia. Der Dortmunder Kunstverein wurde 1984 gegründet und hat seinen Sitz in der Volkshochschule. Das Ausstellungsprogramm umfasst jährlich vier bis sechs Präsentationen zeitgenössischer junger Kunst aus den unterschiedlichsten Bereichen wie Malerei, Zeichnung, Bildhauerei, Fotografie oder Videokunst. Auch das Torhaus Rombergpark des ehemaligen Schlosses Brünninghausen der Familie von Romberg wird als städtische Galerie genutzt. Kino, Filmwesen und Fernsehen Am Nordausgang des Dortmunder Hauptbahnhofs befindet sich ein Multiplex-Kino der Cinestar-Gruppe. Auf der ehemaligen Kinomeile Brückstraße ist als letztes Kino an der Brückstraße das unabhängige Lichtspieltheater Schauburg erhalten geblieben. Im Dortmunder U befindet sich ebenfalls ein Kino, in dem regelmäßig ein anspruchsvolles Film-Programm gezeigt wird. In der Nordstadt sind die Programmkinos Roxy, Camera und sweetSixteen. Im Stadtteil Aplerbeck existiert außerdem die „Filmbühne Zur Postkutsche“ als einziges verbliebenes Vorort-Kino in Dortmund. Im Jahr 2013 veröffentlichten Theater- und Filmschaffende in Dortmund das Manifest Dogma 20 13, das eine Weiterentwicklung des Dogmas 95 fordert. Mit der WAM-Medienakademie und dem Studiengang Film & Sound des Fachbereichs Design an der Fachhochschule Dortmund ist Dortmund auch eine Ausbildungsstätte für Filmschaffende. Zu nennen ist auch der Hartware Medienkunstverein, der 60 Mitglieder zählende Filmklub Dortmund (BDFA-Mitglied), das WDR-Landesstudio Dortmund, der Lernsender NRWision und das Sat.1-NRW-Studio. Von 1997 bis 2012 war zudem der Filmrechteverwerter e-m-s new media hier aktiv. In Dortmund werden eine Reihe Filmfestivals veranstaltet, darunter das XXS Dortmunder Kurzfilmfestival, das Internationale Frauenfilmfestival Dortmund/Köln, oder das seit 2010 stattfindende Dortmunder Tresen-Filmfestival. Die Stadt ist immer wieder Schauplatz von Filmaufnahmen, sowohl für erfolgreiche Fernsehserien wie Balko (1994–2003) oder den Dortmunder ARD-Tatort (seit 2012), als auch für Spielfilme (z. B. Fickende Fische oder Was nicht passt, wird passend gemacht, beide 2002) und Dokumentarfilme, etwa zum Phoenix-See (2008, 2014 und 2013–14) oder dem Fußball in der Stadt von Borussia Dortmund. Regelmäßige Veranstaltungen Viele Festivals machen Dortmund zum Mekka der elektronischen Musik. Während im Sommer das Musikfestival Juicy Beats mehr als 30.000 Besucher in den Westfalenpark lockt, gilt die Mayday in den Westfalenhallen mit 20.000 bis 25.000 Besuchern pro Jahr als das größte Indoor-Rave Festival Deutschlands. Hinzu kommen weitere elektronische Tanzveranstaltungen wie das Syndicate Festival oder das deutsch-russische Dance Event Glamotion in den Westfalenhallen zwischen 15.000 und 20.000 Besuchern. Der Hansemarkt in der Dortmunder Innenstadt ist ein alljährliches Spektakel und vereint zahlreiche Händler und Akteure aus ganz Deutschland. Er greift die jahrhundertealte Tradition des Stadtmarktes auf. Und er findet noch immer an historisch bedeutsamer Stelle statt, denn der Dortmunder Markt ist einer der größten Märkte im Mittelalter gewesen. Die Stadt Dortmund vergibt alle zwei Jahre den Nelly-Sachs-Preis für Literatur. Seit 1957 gibt es die Internationalen Kulturtage der Stadt Dortmund, das mittlerweile älteste kontinuierlich stattfindende Kulturfestival in Deutschland. Alle zwei Jahre stellt ein europäisches Partnerland Exponate seiner kulturellen Vielfalt auf unterschiedlichen Veranstaltungen vor. Rund 20 europäische Länder waren bisher zu Gast. Heute sind die Dortmunder Kulturtage Kern des landesweiten Ereignisses Scene:NRW. Eingebunden in die Kulturtage wird beim Jazzfestival europhonics die Jazzszene des jeweiligen Partnerlandes beleuchtet und vorgestellt. Das 1987 zunächst unter dem Titel Dortmunder Jazzfrühling initiierte Musikfest präsentiert jährlich zeitgenössischen, europäischen Jazz an unterschiedlichen Spielorten in der Stadt. Das Frauenfilmfestival femme totale wird seit 1987 zweijährlich veranstaltet. Bei dem Festival mit einem thematischen Schwerpunkt werden Produktionen gezeigt, in denen Frauen im Bereich Regie, Drehbuch, Ton oder Kamera maßgeblich mitgewirkt haben. Auf dem Filmfestival werden zudem ein themenunabhängiger Spielfilmwettbewerb für Regisseurinnen, ein Nachwuchsförderpreis für junge Bildgestalterinnen und ein Förderpreis für Kamerafrauen vergeben. Das Festival fusionierte im Jahre 2005 mit der Kölner feminale zum Internationalen Frauenfilmfestival Dortmund/Köln, das nun abwechselnd in Dortmund und Köln stattfindet. Seit 1997 richtet sich das Tanz- und Theaterfestival off limits an die freie Tanz- und Theaterszene. Parallel zum Festival wird ein Symposium veranstaltet. Jährlich wird das Dortmunder Literaturfestival LesArt abgehalten. Wie in anderen deutschen Städten öffnet sich die Kulturlandschaft der Stadt jährlich auf dem Tag des offenen Denkmals und der Dortmunder Museumsnacht einem breiten Publikum. Im Westfalenpark findet seit 1959 im Sommer das Lichterfest statt und bietet den mehreren zehntausend Besuchern Feuerwerk und Unterhaltung. Der Dortmunder Weihnachtsmarkt ist mit über 300 Ständen einer der größten Weihnachtsmärkte Deutschlands und wird alljährlich von mehr als zwei Millionen Besuchern aus der Stadt, der Region und aus dem Ausland besucht. Die Attraktion des auf mehreren Plätzen der Innenstadt stattfindenden Dortmunder Weihnachtsmarktes ist der als Gerüstkonstruktion errichtete höchste Weihnachtsbaum der Welt auf dem Hansaplatz mit einer Höhe von 45 Metern. Die Gerüstkonstruktion, in der eine Sprinkleranlage (52 Löschdüsen, 3200 Liter/Minute) zur Brandbekämpfung installiert ist, wird mit 1700 Rotfichten bestückt. 44.000 Lämpchen sorgen für die Beleuchtung. Der Baum hat ein Eigengewicht von 30 Tonnen und wird mit einem Betonfundament von 140 Tonnen gesichert. Auf Grund des bereits jetzt hohen Gewichts ist kein höherer Baum möglich, da die maximale statische Belastbarkeit der unter dem Hansaplatz gelegenen mehrgeschossigen Tiefgarage erreicht ist. Am 19. Juli 2008 fand mit 1,6 Millionen Besuchern die größte Loveparade insgesamt auf dem Rheinlanddamm und dem Parkplatz der Westfalenhallen statt. Jedes Jahr wird von Ende November bis Anfang Januar des folgenden Jahres der Westfalenpark im Rahmen der Aktion „Winterleuchten“ illuminiert. Weitere Veranstaltungen sind: Geierabend in der Zeche Zollern Micro!festival 6-Tage-Rennen Kabarett-Matinee „Mitteilungen für interessierte Dorfbewohner“ im Harenberg-City-Center XXS Dortmunder Kurzfilmfestival Rock in den Ruinen auf Phoenix-West Spiegelzelt an der B 1 (RuhrHOCHdeutsch) Theaterfestival Favoriten UZ-Pressefest (nicht jährlich) Ruhr Reggae Summer Dortmund Kulinarische Spezialitäten Am Dortmunder Export, gerne als Stößchen getrunken, führt in der Dortmunder Küche kein Weg vorbei. Trotz des Niedergangs des ehemals größten Brauereistandorts in Europa hat das Dortmunder Helle, ein herbes, untergäriges Exportbier, weiterhin Weltruf. Als bodenständiges Getränk, gereicht zu den westfälischen Spezialitäten Pfefferpotthast mit Salzgurken, Panhas oder Möppkenbrot, findet es bis heute viele Liebhaber. Weitere kulinarische Spezialitäten aus dem Raum Dortmund sind die klassische Currywurst und das Pumpernickel mit Griebenschmalz. Die Dortmunder Gastronomie feiert jährlich neben der publikumswirksamen Leistungsschau Dortmund à la carte ein Pfefferpotthastfest auf dem Alten Markt. In Westhofen im Dortmunder Süden, wird im Winter das Sup Peiter mit westfälischen Spezialitäten gefeiert. Einmal im Jahr findet darüber hinaus rund um das Dortmunder U ein mehrtägiges Bierfest statt, an denen sich neben vielen regionalen neuen Biermarken, auch die bekannten Dortmunder Biermarken Bergmann Bier, Kronen, Union Bier, Brinkhoff's, DAB, Hövels, Ritter Bier, Thier Pils und Stifts präsentieren. Eine Gebäckspezialität ist der Salzkuchen, ein kreisrundes, mit Salz und Kümmel gewürztes Brötchen mit einer Vertiefung in der Mitte. Er wird häufig mit Mett belegt gegessen, wobei die Vertiefung gehackte Zwiebeln aufnimmt. Sport Dortmund ist für den Sport als Heimat bekannter Sportvereine, als Austragungsort wichtiger Wettbewerbe, als Standort großer Sportstätten sowie als Sitz nationaler Sportverbände von Bedeutung. Mehr als 140.000 Menschen sind in 564 Sportvereinen organisiert und geben damit dem Breitensport als auch dem Leistungssport in der Region wichtige Impulse. Sportverbände Dortmund ist Sitz des Deutschen Handballbundes, der mit aktuell etwa 803.000 Mitgliedern in etwa 4.500 Vereinen mit etwa 24.000 Mannschaften als weltweit größter Handballdachverband gilt. Der Hauptsitz befindet sich im Willi-Daume-Haus an der Strobelallee. In Dortmund ist außerdem der Olympiastützpunkt Westfalen als drittgrößter Stützpunkt Deutschlands beheimatet. An den Standorten Dortmund, Bochum, Warendorf und Winterberg werden mehr als 550 Sportler in über 20 Sportarten betreut. Der Bundesstützpunkt Dortmund ist seit vielen Jahren Trainingsheimat des Deutschlandachters und bietet den Ruderern ideale Trainings- und Umfeldbedingungen. In den vergangenen Jahren stieg die zentrale Bedeutung des Stützpunktes stetig. Aufgrund einer deutlich gestiegenen Anzahl an Kaderathleten wurde mit Hilfe der Stadt Dortmund, des Bundes und des Landes das Zentrum zu einer modernen Trainingsstätte für das Leistungsrudern ausgebaut. Auch der Deutsche Ringer-Bund hat seine Geschäftsstelle in Dortmund. Daneben existieren Leistungszentren für die Sportarten Sportschießen, Eiskunstlauf und Eistanzen. Vereine und Sportstätten Dortmunds sportliches Aushängeschild ist der traditionsreiche Fußball-Bundesligist Borussia Dortmund, Deutscher Fußballmeister 1956, 1957, 1963, 1995, 1996, 2002, 2011 und 2012, DFB-Pokal-Sieger 1965, 1989, 2012, 2017 und 2021, Europapokalsieger der Pokalsieger 1966 sowie Champions-League- und Weltpokalsieger 1997, der im Signal Iduna Park (ehemals Westfalenstadion) südlich der Innenstadt spielt. Der Verein hat etwa 155.000 Mitglieder und einen Zuschauerschnitt von 79.141 Zuschauern. Borussia Dortmund II spielt derzeit in der 3. Fußball-Liga. Die Handballdamen des BVB spielen zur Saison 2008/09 wieder in der Bundesliga. Die erste Mannschaft der Tischtennisabteilung gehört der zweiten Bundesliga an. Die ausgeprägte Fußball- und Sportbegeisterung der Menschen in Dortmund ist international bekannt. Das Westfalenstadion war Spielstätte der Fußball-Weltmeisterschaften 1974 und 2006. Es bietet Platz für 81.365 Zuschauer und ist damit das größte reine Fußballstadion in Deutschland und das viertgrößte Stadion in Europa. In direkter Nachbarschaft befindet sich das Stadion Rote Erde und das Leichtathletikzentrum Helmut-Körnig-Halle. Die ebenfalls benachbarten Westfalenhallen sind bekannt als Schauplatz zahlreicher Europa- und Weltmeisterschaften in verschiedenen Sportarten, wie der Handballweltmeisterschaft 2007. Seit 1925 wird in der Westfalenhalle das traditionelle Steherrennen immer am 2. Weihnachtsfeiertag abgehalten, dem am gleichen Ort 1926 das jährliche Sechstagerennen bis 2008 folgte. Das internationale Reit- und Springturnier in der Dortmunder Westfalenhalle zählt zu den wichtigsten Veranstaltungen des Reitsports in Deutschland. Die Helmut-Körnig-Halle und das Stadion Rote Erde stellen die Hauptstützpunkte der Dortmunder Leichtathletikgemeinde dar. Zahlreiche Vereinsmannschaften haben sich in der LG Olympia Dortmund zusammengefunden; zahlreiche Sportler der LGO erzielen auf nationaler und internationaler Ebene große Erfolge. Auch Basketball findet einen großen Zuspruch. Der in Dortmund ansässige Verein SVD 49 Dortmund spielt derzeit in der Basketball-Regionalliga und erfreut sich bei Heimspielen in der Brügmannhalle regelmäßig an einer ausverkauften Halle. Besonders seit dem Bundesliga-Jahr 1992/93 erregt der Verein ein breites Interesse in der Öffentlichkeit. Ein weiterer Traditionsverein in Dortmund ist die Eishockeymannschaft des EHC Dortmund. Die Ursprünge des Vereins gehen auf das Jahr 1937 zurück, als der EV Westfalen Dortmund gegründet wurde. In der Folgezeit gab es weitere drei Nachfolgevereine, die allesamt den Spielbetrieb aus finanziellen Gründen einstellen mussten. Der EHC Dortmund besteht seit 1996 und wechselte seitdem mehrfach zwischen Oberliga und Regionalliga. Die Heimspielstätte der Elche ist das Eissportzentrum Westfalenhallen. Der 1. Snooker Club Dortmund spielte von 2011 bis 2015 in der 1. Snooker-Bundesliga. Im Dortmunder Schauspielhaus wird das Sparkassen Chess-Meeting Dortmund ausgetragen. Hervorgegangen aus den seit 1973 jährlich stattfindenden Internationalen Dortmunder Schachtagen gilt es als wichtigstes und stärkstes Schachturnier in Deutschland und besitzt internationale Bedeutung. Der Schachclub Hansa Dortmund e. V. spielte 2011/2012 in der Schachbundesliga, derzeit in der Staffel West der 2. Schachbundesliga. Die seit 1913 bestehende Dortmunder Galopprennbahn im Stadtteil Wambel verfügt über eine 2000-m-Grasbahn und eine 1600-m-Allwettersandbahn. Auf der mit Flutlichtanlage und überdachten Tribünen ausgestatteten Rennbahn werden jährlich das Deutsche St. Leger und der Große Preis der Dortmunder Wirtschaft ausgetragen. In Dortmund gibt es drei Golfplätze: Den seit 1956 in der Reichsmark vom Dortmunder Golf Club e. V. betriebenen 18-Loch-Platz, die von der ehemaligen britischen Rheinarmee zu Besatzungszeiten angelegte 18-Loch-Anlage Royal Saint Barbara’s in Brackel sowie einen 9-Loch-Golfplatz im Innenfeld der Dortmunder Galopprennbahn (GolfRange Dortmund). Südlich des Westfalenparks existiert mit der Dortmunder Niere eine Trainingsstrecke für Radsportler. Im Freizeitbereich und beim Breitensport bietet Dortmund ein vielfältiges Angebot. Unter anderem verfügt die Stadt über zehn Schwimmbäder, zahlreiche Sporthallen und -anlagen, ein inzwischen relativ gut ausgebautes, 300 km umfassendes Fahrradwegenetz, eine Mountainbike-Arena (auf dem Gelände der ehemaligen Hausmülldeponie im Stadtteil Deusen, Deusenberg), drei Kletteranlagen, einen Hochseilgarten sowie mehreren Funsportanlagen (Skateboard-, BMX- und Beachvolleyball-Anlagen) und natürlich die vielen Parks und Grünflächen. Insgesamt gibt es fast 600 Sportvereine in Dortmund mit ungefähr 140.000 Mitgliedern. Das denkmalgeschützte Dortmunder Südbad in der Innenstadt ist die traditionelle Austragungsstätte zahlreicher, national bedeutender Schwimmveranstaltungen. Eine besondere Bedeutung für den Breitensport besitzen der mit ca. 7000 Mitgliedern größte Verein TSC Eintracht Dortmund, der Stadtsportbund und die Sport Welt Dortmund GmbH, als Betreiber der Dortmunder Schwimmbäder. Eine große Tradition besitzt auch das Ringen in Dortmund. Zwischen 1927 und 1957 wurde der ASV Heros Dortmund zehnmal und der Sportklub Hörde 04 dreimal deutscher Mannschaftsmeister. Seit 2002 kommt es in Dortmund jährlich zu einem Treffen der Weltelite im griechisch-römischen Ringkampf. Mit Unterstützung des Landes Nordrhein-Westfalen und der Stadt Dortmund wird der „Grand Prix der Bundesrepublik Deutschland“ in der Dortmunder Helmut-Körnig-Halle erfolgreich ausgerichtet. Aber auch Randsportarten wie American Football, Poker und Baseball finden in Dortmund Beachtung. So waren 1980 die Dortmund Giants einer der ersten deutschen Footballvereine. Nun spielen die Giants in der dritthöchsten deutschen Spielklasse, in der Regionalliga. Im Jahre 2008 spielt die Baseballmannschaft der Dortmund Wanderers in der höchsten deutschen Spielklasse, der 1. Bundesliga. Im Dortmunder Casino Hohensyburg wurde die European Poker Tour von 2007 bis 2009 je einmal jährlich veranstaltet. Inklusion 2021 bewarb sich die Stadt als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeberin für Special Olympics Palästina ausgewählt. Damit wurde sie Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns. Verkehrsinfrastruktur Straßenverkehr Die Stadt wurde nach dem Zweiten Weltkrieg autofreundlich wieder aufgebaut. Auffälligste Merkmale sind die südlich des Stadtkerns durch das Stadtgebiet verlaufende Bundesstraße und der vier- bis sechsspurige Innenstadtring entlang des ehemaligen Stadtwalls. Innerhalb dieses Rings ist der Autoverkehr nur noch sehr eingeschränkt möglich. Dortmund ist einer der bedeutendsten Verkehrsknotenpunkte des Ruhrgebiets und der Region Westfalens. Der Dortmunder Autobahnring umfasst Teilstücke der Autobahnen (Bremen–Köln), (Oberhausen–Berlin) und (Dortmund–Aschaffenburg). Im Straßenverkehr ist die Stadt zudem über die Autobahnen (Dortmund–Venlo), (Dortmund–Kamp-Lintfort), (Aachen–Dortmund sowie Dortmund–Kassel) und vier Bundesstraßen (, , und ) an das deutsche Fernstraßennetz angebunden. Mit dem Kamener Kreuz, dem Westhofener Kreuz sowie den Autobahnkreuzen Dortmund/Unna, Dortmund-West, Dortmund/Witten, Dortmund-Nordwest und Castrop-Rauxel-Ost liegen wichtige deutsche Autobahnkreuze auf oder in der Nähe des Dortmunder Stadtgebiets. Schienenverkehr Der Dortmunder Hauptbahnhof zählt mit 41 Millionen Fahrgästen jährlich zu den wichtigsten Eisenbahnknoten im deutschen Personenverkehr. Darüber hinaus gibt es 23 Regionalbahnhöfe im Stadtgebiet. Gemessen an den Anbindungen im Regionalverkehr sind insbesondere die Bahnhöfe Dortmund-Hörde, Kurl und Mengede weitere wichtige Stationen, hinzu kommen 25 Halte der S-Bahn Rhein-Ruhr. Eine weitere wichtige Verkehrsanlage ist dabei auch das im Osten der Stadt an der Strecke nach Hamm gelegene Bahnbetriebswerk Dortmund-Betriebsbahnhof der DB Regio NRW und DB Fernverkehr, das der Instandhaltung der ICE-Züge sowie weiteren Fahrzeugen des Fern- und Regionalverkehrs dient. Neben den Elektrolokomotiven und den Dieseltriebwagen des Regionalverkehrs und den Waggons des Fernverkehrs wird hier auch der ICE 3 gewartet. Ein weiteres Betriebswerk Dortmund-Hafen der DB Fernverkehr ist geplant. Im Schienengüterverkehr ist Dortmund jedoch nach Stilllegung der beiden Rangierbahnhöfe Dortmund Rbf und Dortmunderfeld kein Eisenbahnknoten mehr. Diese Züge können über die Güterumgehungsbahn Dortmund an der Innenstadt vorbeigeführt werden. Luftfahrt Der Flughafen Dortmund liegt im Osten Dortmunds an der Stadtgrenze zu Holzwickede und Unna. Gemessen an der Passagierzahl ist der Flughafen der drittgrößte Verkehrsflughafen in Nordrhein-Westfalen. Deutschlandweit liegt er auf Platz 10. Einen Großteil des Flugbetriebs machen Billigfluggesellschaften aus. Hinzu kommt ein größerer Anteil an touristischem Linienverkehr, der Geschäftsreiseverkehr sowie die allgemeine Luftfahrt. Auf dem Gelände des Flughafens befindet sich außerdem eine Einsatzstaffel der Polizeiflieger Nordrhein-Westfalen und eine Station der DRF Luftrettung. Der Flughafen Dortmund ist über die B 1 sowie im öffentlichen Nahverkehr über einen Transferbus direkt über den Bahnhof Holzwickede/Dortmund-Flughafen erreichbar. Seit 2004 betreibt der Flughafen Dortmund zusätzlich den Flughafenexpress, der zwischen dem zentralen Busbahnhof am Dortmunder Hauptbahnhof und dem Flughafen verkehrt. Der VRR-Tarif gilt auf dieser Strecke nicht. Der Flughafen Düsseldorf ist in etwa einer Stunde mit der Bahn oder dem PKW zu erreichen. Schifffahrt In der Binnenschifffahrt ist Dortmund über den Dortmund-Ems-Kanal mit dem Rhein und der Nordsee verbunden und verfügt über den größten Kanalhafen Europas. Nahverkehr Der Dortmunder Nahverkehr wird zum Großteil durch die DSW21 im Verkehrsverbund Rhein-Ruhr betrieben. Die DSW21 hat innerhalb des VRR den Zahlenbereich der „4“ zugewiesen bekommen, es fangen also alle Liniennummern mit einer „4“ an (Ausnahmen bilden Linien über die Stadtgrenze hinaus). Im Schienenpersonennahverkehr (SPNV) ist Dortmund durch die vier S-Bahn-Linien S 1, S 2, S 4 und S 5, zahlreiche Regional-Express-Züge und Regionalbahnen erschlossen. Im Kommunalen Personennahverkehr verfügt Dortmund über ein Netz aus acht innerstädtisch unterirdisch verlaufenden Stadtbahnlinien: U 41, U 42, U 43, U 44, U 45, U 46, U 47 und U 49. Im April 2008 wurden unter der Innenstadt die letzten Tunnelstrecken fertiggestellt. Die beiden letzten Straßenbahnlinien 403 und 404 wurden nach Eröffnung des Ost-West-Tunnels umgewandelt und heißen nun U 43 und U 44. Es sind diverse Verlängerungen in Überlegung, aber keine wird ernsthaft verfolgt. Darüber hinaus verkehren im Stadtgebiet 73 Buslinien der DSW21. Dieses Streckennetz umfasst 852,1 Kilometer und befördert jährlich 134 Millionen Personen. [Stand: Januar 2018] Zudem gibt es eine automatische H-Bahn zwischen den beiden Universitätsstandorten und dem Stadtteil Eichlinghofen sowie dem Technologiepark. Auffallend waren die roten Doppeldecker-Schnellbusse, mit denen die VKU den ZOB am Hauptbahnhof Dortmund mit dem Busbahnhof in Bergkamen verband. Jetzt verkehren dort Gelenkomnibusse. Fahrradverkehr Auch das Radfahren wird in Dortmund durch die Stadtplanung gefördert – seit den 1980er-Jahren wurde ein umfangreiches Radwegenetz geschaffen. Am 10. Juli 2006 wurde ein Antrag zur Aufnahme in die „Arbeitsgemeinschaft Fußgänger- und Fahrradfreundliche Städte und Gemeinden in NRW“ (AGFS) beim Verkehrsministerium in Düsseldorf eingereicht. Am 8. August 2007 wurde Dortmund mit diesem Titel ausgezeichnet. Darüber hinaus ist Dortmund an eine Reihe von Fernradwegen angebunden: Die Deutsche Fußballroute NRW ist eine 850 km lange Erlebnis-Radroute zum Thema Fußball in Nordrhein-Westfalen. Die Dortmund-Ems-Kanal-Route ist ein rund 350 km langer und nahezu steigungsfreier Radfernweg der das Ruhrgebiet mit der Nordseeküste verbindet. Der ca. 120 km lange Emscher-Weg verläuft meist parallel zur Emscher, von der Quelle in Holzwickede zur Emschermündung in den Rhein in der Nähe von Dinslaken. Der Radschnellweg Ruhr soll durch die Stadt führen Im Fahrradklimatest des ADFC des Jahres 2018 belegte Dortmund unter den 14 Städten Deutschlands mit über 500.000 Einwohnern den 13. Platz. Für den Test wurden in Dortmund 1390 Radfahrer befragt. Erzielt wurde die Note 4,35, damit lag die Stadt knapp vor Köln, das die Note 4,38 erzielte und damit letzter wurde. Im Jahr 2016 erzielte Dortmund noch die Note 4,14 und Platz 8. Im Vergleich mit den anderen Städten dieser Kategorie schnitt Dortmund insbesondere in den Punkten „Stellwert des Radverkehrs“ (Note 4,9), „Werbung für das Radfahren“ (Note 4,7), „Fahrradförderung in jüngster Zeit“ (Note 4,9), „Falschparkerkontrolle auf Radwegen“ (Note 5,3), „Abstellanlagen“ (Note 4,4) und „Wegführung in Baustellen“ (Note 5,1) schlecht ab. „Positiv“ im Vergleich zu anderen Städten dieser Kategorie fiel der Punkt „Fahrraddiebstahl“ auf, allerdings nur mit einer Note von 4,4, knapp über dem Mittelwert von 4,54. Wirtschaft Überblick In der Vergangenheit wurde die wirtschaftliche Entwicklung Dortmunds von Umbrüchen, Verwerfungen und Veränderungen des inneren Gefüges begleitet. Durch das Zusammenwirken zahlreicher ökonomischer und nichtökonomischer Faktoren verschoben sich die Größenordnungen der einzelnen Bereiche – des primären (Landschaft und Bergbau), des sekundären (Industrie und produzierendes Gewerbe) und des tertiären Sektors (Dienstleistungen). Die Relationen dieser Wirtschaftszweige veränderten sich untereinander ebenso wie zum Wirtschaftsraum Dortmund und im gesamten Ruhrgebiet. Flankiert durch wirtschaftsfördernde und strukturverbessernde Maßnahmen der Stadt, des Landes und des Bundes vollzogen und vollziehen sich nach wie vor Umschichtungen zum Quartärsektor. Heute ist Dortmund ein Handels- und Dienstleistungszentrum sowie Hightechmetropole in den Bereichen Energie (Strom-, Gastransportnetze), Mikrosystemtechnik und Biomedizin. Im Jahre 2016 erbrachte Dortmund, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 21,553 Milliarden € und belegte damit Platz 14 innerhalb der Rangliste der deutschen Städte nach Wirtschaftsleistung. Das BIP pro Kopf lag im selben Jahr bei 36.781 € (Nordrhein-Westfalen: 37.416 €, Deutschland 38.180 €) und damit leicht unter dem regionalen und nationalen Durchschnitt. In der Stadt sind 2016 ca. 313.500 Personen beschäftigt. Die Arbeitslosenquote lag im Dezember 2018 bei 9,8 % und damit deutlich über dem Durchschnitt von Nordrhein-Westfalen mit 6,4 %. Traditionelle Wirtschaftssektoren, Wandel und Perspektiven Im Rahmen der Industrialisierung entwickelte sich Dortmund rasch zu einem Zentrum der Schwerindustrie (Kohle- und Stahlindustrie). Bedeutende Dortmunder Konzerne waren Hoesch, die Dortmunder Union, die Phoenix AG für Bergbau und Hüttenbetrieb sowie die ab 1969 unter dem Dach der Ruhrkohle AG zusammengefassten Dortmunder Zechen. Noch Mitte des 20. Jahrhunderts gab es auf dem heutigen Dortmunder Stadtgebiet mehr als 15 Kohlebergwerke, deren letztes 1987 den Betrieb einstellte. Siehe auch Liste von Bergwerken in Dortmund Der letzte bedeutende Bergbauzulieferer, die Maschinenfabrik Gustav Schade, wurde erst später geschlossen. Die wirtschaftlich gesunde Hoesch AG wurde 1992 von der Essener Krupp Stahl AG übernommen. 1997 fusionierten Krupp-Hoesch und die Düsseldorfer Thyssen Stahl AG zur ThyssenKrupp Stahl AG, mit drastischen Folgen für die Dortmunder Hüttenstandorte. Die Flüssig-Phasen der Eisen- und Stahlproduktionen wurden in Dortmund in den Folgejahren stillgelegt, weil der neue Konzern seine Stahlsparte an der geografisch günstigeren Rheinschiene konzentrierte. Der hieraus entstandene Arbeitsplatzabbau war für Dortmunds Wirtschaft eine schwere Belastung. Die Flächen der früheren Industriestandorte bieten heute Entwicklungspotenzial für die Stadt: Das frühere Gelände der Dortmunder Union im Westen der Stadtmitte ist zu großen Teilen bereits mit neuer Logistik- und Handelsstruktur besiedelt: es liegt verkehrsgünstig an der Eisenbahntrasse durch das Emschertal, an der nördlichen Stadtautobahn, dem Zubringer zu A 45, A 40 und A 2, und in Nähe des Dortmund-Ems-Kanals. Das ehemalige Stahlwerk Phoenix-Ost im Südosten in Hörde ist nach seinem Abbau, dem Abriss und der Neugestaltung zum Projekt Phoenix-See eine interessante Adresse für Wohn- und Geschäftszwecke mit hohem Erholungswert geworden. Dem Standort Phoenix-West kommt bereits jetzt mit der MST.factory eine zentrale Rolle im Wettbewerb um weitere Unternehmensansiedelungen aus dem Bereich der Mikrosystemtechnik zu. Dortmund gilt heute als größtes deutsches Zentrum für Mikrosystemtechnik und beheimatet aktuell 26 Unternehmen mit etwa 1700 Beschäftigten in dieser noch jungen Zukunftsbranche sowie den IVAM Fachverband für Mikrotechnik. Auch nach der Stilllegung der Hochöfen, der Sinteranlage und des Warmbreitbandwalzwerk wird am Standort Westfalenhütte im Dortmunder Nordosten noch produziert. Hier befindet sich ein Walzwerk mit Blechendverarbeitung und -beschichtung mit etwa 1000 Mitarbeitern. Darüber hinaus befindet sich hier ein Entwicklungszentren für die Oberflächenveredelung von Flachstahl. Das Gelände mit einer Größe von ungefähr 15 Quadratkilometern (etwa 3 km mal 5 km) bietet enorme Möglichkeiten der Stadtentwicklung. Auf der Fläche haben sich bereits mehrere Logistikunternehmen niedergelassen. Der Maschinen- und Anlagenbau besitzt in Dortmund eine große Tradition. Aktiv sind neben der Chemieanlagenbau-Gesellschaft ThyssenKrupp Uhde GmbH, das börsennotierte Anlagebauunternehmen Thyssenkrupp Nucera mit Schwerpunkt elektrochemische Anlagen und der Maschinen- und Anlagenbauer KHS GmbH, früher Holstein & Kappert, mit Unternehmenssitz in der Juchostraße, Hersteller von Verpackungs- und Getränkeabfüllmaschinen. Ein nicht mehr in Dortmund tätigendes Unternehmen ist die Thyssen Klönne AG. Baufahrzeuge wurden früher in Dortmund durch das Unternehmen Orenstein & Koppel hergestellt, die bei den Hoesch-Krupp-Fusionen zur Krupp Fördertechnik und deren Schwesterunternehmen kam. Die O&K Baggersparte wurde durch den amerikanischen Terex-Konzern übernommen und fertigt bis heute schwere Baumaschinen in Dortmund, wurden jedoch inzwischen von der amerikanischen Firma Caterpillar aufgekauft. Auch der Werkzeugmaschinenbau hat eine namhafte Dortmunder Vergangenheit: in Lütgendortmund an der Stadtgrenze zu Bochum existierte bis in die 1980er Jahre das Familienunternehmen Tönshoff, ehedem weltbekannter Hersteller von Mehrspindel-Drehautomaten. Mit der früheren „Hoesch Maschinenfabrik Deutschland“ hatte Dortmund an der Bornstraße nahe der Westfalenhütte einen Hersteller von Größt-Drehmaschinen aufzuweisen. Die Maschinenfabrik Rothe Erde ist ein führender Hersteller von Großwälzlagern. Der Boom der Windenergie sichert dem Unternehmen steigende Absatzzahlen. Mittlerweile haben sich in Dortmund Unternehmen der Versicherungs- und Finanzwirtschaft sowie im Umfeld der Universität viele moderne IT- und Dienstleistungsunternehmen etabliert, die für Beschäftigung sorgen. Über seine Grenzen hinaus wurde Dortmund als Bierstadt durch das Brauen von Exportbier bekannt. Bekannte Dortmunder Brauereien waren unter anderem Bergmann, Borussia, Actien (DAB), Union (DUB), Kronen, Hansa, Ritter, Stifts und Thier. Nach dem Ersten Weltkrieg wuchsen sie zu Großbrauereien und beherrschten nahezu 50 Jahre lang den deutschen Biermarkt. Anfang der 1960er Jahre zählten die Dortmunder Brauereien rund 6000 Beschäftigte. Von den zahlreichen Brauereien blieb nur eine übrig: Unter dem Dach der zur Bielefelder Dr. August Oetker KG gehörenden Dortmunder Actien-Brauerei (DAB) sind heute alle, bis auf eine, Dortmunder Biermarken vereint. Die Dortmunder Bergmann Brauerei wurde 2005 neu gegründet und vertreibt eigenständig mehrere Bierspezialitäten. Strukturwandel In der Zeit von 1960 bis 1994 verringerte sich die Zahl der Industriebeschäftigten von 127.000 auf 37.000 Personen. Neue Arbeitsplätze wurden hauptsächlich im Bereich der Informationsverarbeitung sowie bei Banken und Versicherungen geschaffen. Ein zukunftsweisendes Signal war Ende 1968 die Gründung der Universität Dortmund. Die Campus-Universität legte den Grundstein für den heutigen Wissenschaftsstandort. In räumlicher Nähe zur Universität wurde 1984 das Technologiezentrum als eines der ersten Deutschlands eröffnet. Im angrenzenden Technologiepark siedelten sich seit 1988 mehr als 225 Unternehmen mit über 8500 Mitarbeitern an. Das Projekt Stadtkrone-Ost auf dem ehemaligen Kasernengelände an der B 1 ist ein weiteres positives Beispiel des mit der Kohlekrise von 1958 einsetzenden und bis heute unverändert anhaltenden Strukturwandels in Dortmund. Dort ist auch der Hauptsitz der börsennotierten Adesso SE, eines der Top 25 IT-Beratungs und Systemintegrations-Unternehmen Deutschlands. Mit dem dortmund-project, einer Public Private Partnership zwischen der Stadt und dem Konzern Thyssenkrupp, das vom Unternehmensberater McKinsey & Company nach dem Vorbild der Wolfsburg AG erarbeitet wurde, sollen sowohl die durch den Strukturwandel entstandene Beschäftigungslücke geschlossen als auch neue Leitbranchen für die Stadt entwickelt und gestärkt werden. Als neue Führungsbranchen wurden die Industriebrachen in das Gesamtkonzept mit eingebunden. Logistik, Mikrosystemtechnik (MST) und Informations- und Kommunikationstechnik wurden ausgewählt, später kamen die Gesundheitswirtschaft, die Biomedizin und die Energietechnik hinzu. 2005 wurde das Projekt unbefristet in die städtische Wirtschaftsförderung integriert. Unter anderem sollte bis 2010 die Zahl der Erwerbstätigen auf 325.000 Erwerbstätige vor dem Einbruch der Montanindustrie erhöht werden. Im April 2011 waren durch direkte und indirekte Folgen des Projektes 298.000 Erwerbstätige erreicht, was 53.000 der fehlenden 80.000 entsprach. Im Jahr 2008 wurden weitere Ziele bis zum Jahr 2018 veröffentlicht: Nach ihnen sollen die Arbeitslosenquote den einstelligen Bereich erreichen und die Einwohnerzahl stabil bleiben. Außerdem sollte sich die Zentralitätskennziffer (u. a. durch die Thier-Galerie) von 114 (2008) auf 118 erhöhen. Dieser Wert wurde 2014 auf 124 gesteigert. Die Stadt war 2004 für den erfolgreichen Strukturwandel gelobt worden. Laut dem Wirtschaftsmagazin Capital war Dortmund die Stadt im Ruhrgebiet, die die besten Wirtschaftsaussichten bis 2013 besaß. Das Handelsblatt bezeichnete die Stadt 2004 in ihrem Zukunftsatlas als „stillen Star“. 2006 erhielt die Stadt für die MST.factory die Eurocities-Auszeichnung in der Kategorie „Innovation“. 2014 gehörte Dortmund zu den bedeutenden Logistikstandorten in Deutschland mit einer einzigartigen Infrastruktur, mehr als 900 im Wirtschaftszweig Logistik tätigen Unternehmen und national wie international anerkannten wissenschaftlichen Einrichtungen. Insgesamt arbeiteten 26.316 Menschen im Logistikbereich. Im Jahr 2016 wurde die Stadt innerhalb der Digital Hub Initiative des Bundesministerium für Wirtschaft und Energie als Digital Hub im Bereich Logistik ausgezeichnet und fungierte neben Berlin, Hamburg, München und Frankfurt als Motor für die Digitalisierung in Deutschland. Die Bedeutung Dortmunds als Oberzentrum des Einzelhandels stieg an. Der Westenhellweg im Herzen der Innenstadt gilt neben der Kaufingerstraße in München, der Zeil in Frankfurt am Main und der Schildergasse in Köln als eine der am häufigsten frequentierten Einkaufsmeilen Deutschlands. Die hohen Mietpreise und nicht vorhandene Leerstände auf dem Westenhellweg und Ostenhellweg reflektierten diese Entwicklung. Internationale Branchengrößen wie IKEA, Amazon oder Decathlon haben sich in den letzten Jahren in Dortmund mit Logistik- und Distributionszentren speziell im Dortmunder Norden auf der Westfalenhütte und am Dortmunder Hafen niedergelassen. Hinzu kommen Rhenus, REWE oder DHL, welche in Dortmund für einige Kunden Logistikzentren mit europäischer Reichweite betreiben. Arbeitslosigkeit Die Tabelle zeigt die Arbeitslosenquote in Dortmund jeweils zum 30. Juni des Jahres (Zweijahresabstand). Ansässige Unternehmen Einer der größten Arbeitgeber Dortmunds ist die Stadt selbst, nebst zahlreicher kommunaler Unternehmen. Die Dortmunder Stadtwerke AG (DSW21) beschäftigten in ihren zahlreichen Tochterunternehmen in den Geschäftsfeldern Transport, Energie, Telekommunikation, Wohnungsbau und Stadtentwicklung über 3.000 Menschen. Zusammen mit der Stadtwerke Bochum GmbH besitzen die Dortmunder Stadtwerke die Gelsenwasser AG. Die Dortmunder Energie- und Wasserversorgung GmbH (DEW21) ist ein gemeinsames Unternehmen der DSW21 und der RWE. DEW21 versorgt die Einwohner der Stadt Dortmund mit Erdgas, Strom, Wärme und Wasser und bietet Dienstleistungen rund um diese Produkte für Geschäfts- und Privatkunden an. Die Stadt besitzt außerdem Aktienanteile an RWE, die Dortmund zu einem wichtigen Unternehmensstandort ausgebaut hat. Darüber hinaus bestehen mit der Westfalenhallen Dortmund GmbH als Betreiber des Veranstaltungszentrum Westfalenhallen und der dortigen Messe, der Entsorgung Dortmund GmbH (EDG) ist ein in den 1990er Jahren gegründetes Unternehmen der Entsorgungsbranche in Dortmund. Die Hauptaufgabe der EDG ist die Reinigung öffentlicher Flächen sowie der Müllabtransport und der Dokom21 als Gesellschaft für Telekommunikation GmbH. Dortmund ist eines der wichtigsten Zentren der deutschen Versicherungswirtschaft. Neben der Continentale Krankenversicherung, der Muttergesellschaft des Continentale Versicherungsverbundes, hat die Signal-Iduna-Gruppe als ein Zusammenschluss der Hamburger Iduna-Gruppe und der Dortmunder Signal-Versicherungen einen Hauptsitz in der Stadt. Beide Unternehmen zählten 2009 zu den 20 größten Versicherungen nach Beitragseinnahmen in Deutschland. Darüber hinaus haben die AOK Nordwest, die Bundesinnungskrankenkasse Gesundheit, der Volkswohl Bund, die VKH Vorsorgekasse Hoesch Dortmund und die Kirchliche Zusatzversorgungskasse Rheinland-Westfalen hier ihren Sitz. Darüber hinaus gilt die Stadt als Zentrum des westdeutschen Energiewirtschaft, neben der Westnetz GmbH als größtem Verteilnetzbetreiber hat auch die Amprion GmbH als zweitgrößter deutscher Übertragungsnetzbetreiber in Deutschland seinen Hauptsitz in Dortmund. Hinzu kommen wichtige Unternehmen der Gasbranche wie Thyssengas, Progas und Transgas Flüssiggas Transport und Logistik und die Wasserwerke Westfalen. Mit mehr als 12.000 Beschäftigten in über 100 Unternehmen bildet Dortmund einen wichtigen Standort für die Kommunikationsverarbeitung und Informationstechnologie-Wirtschaft. Dies liegt darin begründet, dass mit der TU Dortmund, der Fachhochschule und dem IT-Center Dortmund eine der ältesten und größten Ausbildungsstätten mit der gesamten Bandbreite der Informationstechnik in der Stadt angesiedelt ist. Mit der Adesso SE und der Materna GmbH sind zwei der 25 größten deutschen IT-Beratungs- und Systemintegrations-Unternehmen in der Stadt beheimatet. Mit der Verizon Deutschland GmbH besitzt der US-amerikanische Telekommunikationskonzern seine deutsche Niederlassung im Dortmunder Technologiepark. Durch verschiedene Förderungen und Initiative der Stadt Dortmund sowie der Kooperation mit den Bildungseinrichtungen mit der TU Dortmund oder der FH Dortmund hat sich in diesem Umfeld ein großes Netzwerk von Start-Up Unternehmen entwickelt, wie RapidMiner, GreenIT, Cabdo, Urlaubsguru sowie GastroHero mit Sitz am Flughafen Dortmund in Holzwickede. In Dortmund sind zahlreiche privatwirtschaftliche, genossenschaftliche und ehemals gemeinnützige und öffentliche Wohnungsgesellschaften ansässig, u. a. Spar- und Bauverein Dortmund und DOGEWO21. Überregionale, teilweise börsennotierte Immobilienunternehmen haben hier große Wohnungsbestände, u. a. Vivawest, LEG Immobilien und Vonovia. Zu ansässigen Kreditinstituten zählen die Sparkasse Dortmund, die Volksbank Dortmund-Nordwest, die Dortmunder Volksbank und die Bank für Kirche und Diakonie (KD-Bank). Im Juli 2021 eröffnete die größte und modernste Filiale der Bundesbank; es wird die Bargeldversorgung der gesamten Rhein-Ruhr-Region abgewickelt. Die Niederlassung nahe dem Westfalendamm ist etwa 79.000 m² groß. Trotz tiefgreifendem Strukturwandel ist Dortmund weiterhin einer der größten Standorte Deutschlands im Anlagen- und Maschinenbau. Neben WILO als Hersteller für Pumpensysteme für die Heizungs-, Kälte- und Klimatechnik haben mit der KHS GmbH mit über 1.200 Mitarbeitern der größte industrielle Arbeitgeber der Stadt und der ABP Induction Systems, wichtige Hersteller von Anlagen- und Maschinenbau ihren Hauptsitz in Dortmund. Weitere Unternehmen mit Hauptsitz in Dortmund sind ThyssenKrupp Rothe Erde, ThyssenKrupp Uhde, Anker-Schroeder ASDO und Elmos Semiconductor. Die EvoBus fertigt in Dortmund Kleinbusse mit 8 bis 22 Sitzplätzen auf Basis des Kleintransporters Sprinter (220 Mitarbeiter). Das Pharmaunternehmen Boehringer Ingelheim betreibt in Dortmund eine Produktionsstätte für Inhalationsgeräte mit 630 Mitarbeitern. Die Firmengruppe Miebach beschäftigt in Dortmund rd. 500 Mitarbeiter im Bau von Schweißmaßnahmen und Schaltanlagen. Die Murtfeldt Kunststoffe ist weltweit auf dem Gebiet der Kunststoffherstellung und -verarbeitung tätig und beschäftigt etwa 350 Mitarbeiter. Die Vitesco Technologies (ehemals Continental) produziert in Dortmund-Hallerey Sensoren und Komponenten für Abgasnachbehandlungssysteme und beschäftigt am Standort etwa 400 Mitarbeiter. Siemens Mobility betreibt in Dortmund-Eving ein RRX-Instandhaltungswerk. Die Deutsche Bahn beschäftigte 2021 über 3.000 Mitarbeiter, unter anderem im Bahnbetriebswerk Dortmund-Betriebsbahnhof. Ein weiteres Betriebswerk Dortmund-Hafen mit bis zu 500 Arbeitsplätzen ist geplant. Die Region Dortmund ist ein wichtiger Logistikstandort im Zentrum Europas. Die Rhenus als fünftgrößter deutscher Logistikdienstleister hat ihren Sitz am Dortmunder Flughafen und besitzt weiteren Standorte in der Stadt. Über 800 Unternehmen der Logistik und verwandter Branchen beschäftigen über 26.000 Menschen innerhalb der Stadt. In Dortmund existieren rund 50 Distributionszentren von renommierten Unternehmen wie dem Ikea Zentrallager der IKEA Distribution Services und der Rhenus. Darüber hinaus steuern Unternehmen wie ETL Fiege, Kaufland, Rewe, Tedi oder ThyssenKrupp Materials von Dortmund aus europaweit ihre Warenströme. Zu weiteren Großunternehmen mit Sitz in Dortmund zählen Borussia Dortmund GmbH & Co. KGaA, Dortmunder Actien-Brauerei AG, Rewe Dortmund, Hülpert und Hellweg Die Profi-Baumärkte. Bedeutende, in Dortmund ansässige Großbetriebe sind Schirmer Kaffee, TRD-Reisen, Geers Hörakustik, Rotkäppchen Peter Jülich, Nordwest Handel. Seit 1910 besteht die Atlas Schuhfabrik. Einzelhandel Der etwa 900 Meter lange Westenhellweg in der Innenstadt ist die bekannteste und umsatzstärkste Einkaufsstraße in Dortmund und dem gesamten Ruhrgebiet. Seit Beginn der Messung der Passantenströme im Jahre 1999 durch Jones Lang LaSalle gehört der Westenhellweg zu den meistfrequentierten Einkaufsstraßen Deutschlands. Die im Jahre 2013 durchgeführte Untersuchung ergab 12.950 Besucher pro Stunde, was dem Westenhellweg den Titel der meistfrequentierten Einkaufsstraßen Deutschlands brachte. Darüber hinaus liegt der Westenhellweg im bundesweiten Mietpreisvergleich für Einzelhandelsflächen immer unter den Top 10 Standorten in Deutschland. Insgesamt wird der Westenhellweg stark durch Filialen großer Einzelhandels- (Kaufhof, Karstadt, C&A, H&M), Mode- (Peek & Cloppenburg, Esprit, s.Oliver, Zara) und Handelsketten (Parfümerie Douglas, Mayersche Buchhandlung) sowie Boutiquen, Fachgeschäfte und Gastronomie geprägt. Im Jahr 2011 eröffnete das neue Einkaufszentrum Thier-Galerie am oberen Westenhellweg. Darüber hinaus gibt es weitere diverse Einkaufsstraßen und -viertel im Dortmunder Stadtzentrum mit unterschiedlichen Schwerpunkten des Einzelhandels: Brückstraßenviertel: Das im Norden des Stadtzentrums gelegene Viertel ist für seine internationalen Imbissbuden und günstigen Modeläden bekannt. Ostenhellweg: Hier befinden sich neben einigen Filialen günstiger bis mittelpreisiger Handelsketten auch viele inhabergeführte Einzelhandelsgeschäfte. Kleppingstraße/Rosenviertel: Die Kleppingstraße sowie das östlich angrenzende Rosenviertel sind für ihre hochpreisigen Modegeschäfte, Boutiquen, Designer-Shops und Galerien überregional bekannt. Des Weiteren hat sich in diesem Bereich eine ausgeprägte bürgerliche Gastronomieszene mit mediterranem Flair entwickelt. Kaiserviertel: Unmittelbar östlich des Stadtwalls gelegenes bürgerliches Viertel mit einer Vielzahl an inhabergeführten Einzelhandelsgeschäfte, Cafés und Restaurants. Einen weiteren Einzelhandelsstandort repräsentiert der Indupark im Dortmunder Westen. Als Einkaufs- und Gewerbezentrum, das auf dem Gelände einer ehemaligen Zeche errichtet wurde, bietet der Indupark Platz für großflächige Geschäfte wie IKEA, Media-Markt oder Decathlon. Kennzahlen des Einzelhandels Dortmund wies im Jahr 2014 mit einer Kennziffer von lediglich 93 ein vergleichsweise geringes Kaufkraftniveau auf. Die Kaufkraftkennziffer ist stetig gefallen und lag noch vor sechs Jahren mit 100,2 im Jahr 2008 über dem Bundesdurchschnitt. Verglichen mit umliegenden Städten wie Bochum, Unna oder Witten ist das Kaufkraftniveau Dortmunds relativ moderat. Insbesondere in den südlich an das Stadtgebiet angrenzenden Städten wie Herdecke oder Schwerte lässt sich ein vergleichsweise höheres Kaufkraftniveau feststellen, wohingegen die nördlich angrenzenden Städte wie Lünen eine tendenziell niedrigere Kaufkraftkennziffer aufweisen. Mit einer Zentralitätskennziffer von 124,0 im Jahr 2014 lag Dortmund deutlich über dem Bundesdurchschnitt sowie dem Schnitt der umliegenden Städte. Dies verdeutlicht, dass Dortmund trotz des vergleichsweise geringen Kaufkraftniveaus der eigenen Bevölkerung im Stande ist, durch einen bedeutenden Kaufkraftabzug aus dem Umland eine hohe Handelszentralität aufzuweisen. Messen Zum Messezentrum Westfalenhallen gehören neun klimatisierte Hallen mit Flächen zwischen 1.000 und 10.600 Quadratmetern. Insgesamt bietet das Messezentrum Westfalenhallen eine Ausstellungsfläche von 59.000 m². Hier finden jährlich rund 60 Messen mit rund 800.000 Besuchern statt. Bedeutende Messen des Standorts Westfalenhallen sind: German Comic Con, Fan-Convention (bzw. Multigenre-Convention) YOU, europäische Jugendmesse Jagd & Hund, Europas größte Jagdmesse Creativa, Europas größte Messe für kreatives Gestalten Intermodellbau, weltgrößte Messe für Modellbau und Modellsport Inter Tabac, internationale Fachmesse für Tabakwaren und Raucherbedarf Medien Zeitungen und Zeitschriften Das Organ der Zentrumspartei war bis 1933 die im Verlag Lensing erscheinende Zeitung Tremonia. Vor dem Zweiten Weltkrieg erschien in Dortmund mit dem General-Anzeiger für Dortmund die auflagenstärkste überregionale Tageszeitung Deutschlands außerhalb von Berlin. Nach einer Hitler-Karikatur von Emil Stumpp wurde die 1890 von Friedrich Wilhelm Ruhfus gegründete, linksliberale Zeitung von den Nationalsozialisten eingestellt und erschien fortan als Parteiorgan unter dem Namen Westfälische Landeszeitung – Rote Erde. An die publizistische Tradition konnte nach Ende des Krieges nicht angeknüpft werden. Heute erscheinen mit der Westfälischen Rundschau (WR), der Westdeutschen Allgemeinen Zeitung (WAZ) und den Ruhr Nachrichten (RN) vor Ort drei lokale Zeitungen. Allerdings gehört die WR zur Funke Mediengruppe, die in Dortmund den Lokalteil eingestellt hat und Inhalte der Ruhr Nachrichten übernimmt. Die überregionale Berichterstattung für die Ruhr Nachrichten liefert das Redaktionsnetz Westfalen aus Unna. Einmal im Monat erscheint das Straßenmagazin Bodo und wird in der Stadt zum Verkauf angeboten. Kostenlos verteilt werden in Dortmund zahlreiche Anzeigenmagazine wie zum Beispiel der Stadt-Anzeiger und der Nordanzeiger. Diese erscheinen in der Regel wöchentlich. Die kostenlosen Veranstaltungsmagazine coolibri und Heinz liegen monatlich in Kultureinrichtungen und Gaststätten aus. Der Visions-Verlag verlegt in Dortmund das monatlich erscheinende, bundesweit erhältliche Musikmagazin Visions. Des Weiteren befindet sich die Redaktion des größten Rock- und Metal-Magazins Europas, Rock Hard, im Stadtteil Körne. An der TU Dortmund erscheint dreimal pro Semester die Campuszeitung Pflichtlektüre. Fernsehen Sowohl der Westdeutsche Rundfunk Köln (WDR) als auch Sat.1 betreiben in Dortmund Landesstudios. Der WDR produziert in Dortmund die Sendungen Planet Wissen, Lokalzeit aus Dortmund und Der geschenkte Tag. Die Lokalzeit aus Dortmund berichtet täglich mit aktuellen Nachrichten über die Region. Sat.1 produziert die NRW-Ausgabe von 17:30 in Dortmund. Außerdem werden manche Beiträge für verschiedenen Sendungen zum Beispiel für das Sat.1-Frühstücksfernsehen in Dortmund produziert. Der landesweite TV-Lernsender NRWision hat seinen Standort ebenfalls in Dortmund. An dem Programm beteiligen sich Lehrredaktionen, Amateurfilmer und Bürgergruppen aus ganz NRW. In seiner Mediathek werden gezielt alle Fernsehsendungen nach einzelnen nordrhein-westfälischen Städten bzw. Medienmachern aus diesen Orten gebündelt. Der Lernsender wird von der Landesanstalt für Medien Nordrhein-Westfalen gefördert und vom Institut für Journalistik an der TU Dortmund entwickelt und betrieben. Dortmund ist neben London und Paris Sitz von Global Tamil Vision und Hauptsitz von GTV-Deutschland. Hörfunk Im WDR-Studio Dortmund werden Teile der Hörfunkwellen WDR 2 und WDR 4 sowie die Verkehrsnachrichten produziert. Das lokale Privatradio Radio 91.2 bietet regionale Informationen sowie das Rahmenprogramm von Radio NRW. Das studentische Radio eldoradio* spielt rund um die Uhr Musik, sendet morgens und abends auch Wortbeiträge und kann in Dortmund über Antenne, Kabel und darüber hinaus als Webradio empfangen werden. Online-Angebote Die Online-Magazine mit der größten Reichweite sind die BVB-Fanzines schwatzgelb.de und gibmich-diekirsche.de. Das Online-Angebot NRWision bündelt in seiner Mediathek Video- und Audio-Produktionen über Dortmund bzw. TV-Sendungen, Radio-Beiträge und Filme, die von Redaktionen und Medienmachern aus Dortmund produziert wurden. Seit 2013 berichtet der mehrfach ausgezeichnete lokaljournalistische Blog Nordstadtblogger nahezu täglich aus der und über die Nordstadt und das ganze Stadtgebiet. Im Juni 2016 ist das Online-Nachrichtenportal Dortmund24.de gestartet, das 2019 in RUHR24.de umbenannt wurde. Es gehört zum Verlag Lensing Media und ist zusammen mit dem Schwesterportal RuhrNachrichten.de das größte Online-Nachrichtenportal aus Dortmund. Es berichtet über Themen aus Dortmund, dem Ruhrgebiet und NRW, sowie über den BVB, den FC Schalke 04 und Themen aus dem Bereich Service. RUHR24.de gehört zum bundesweiten Online-Redaktionsnetzwerk von IPPEN.MEDIA. Verlage Das Medienhaus Lensing ist der drittgrößte unabhängige Zeitungsverleger in Nordrhein-Westfalen. Der Harenberg Verlag verlegt die Fachzeitschrift buchreport und die Spiegel-Bestsellerlisten. Einer allgemeinen Öffentlichkeit bekannt wurde der Verlag durch die Reihe Die Bibliophilen Taschenbücher und insbesondere die Chronik des 20. Jahrhunderts. Die Busche Verlagsgesellschaft ist ein Verlag für Hotel- und Gastronomiekritik. Bekannt sind insbesondere die jährlich erscheinenden Werke Schlemmer Atlas und Schlummer Atlas. Der Grafit Verlag verlegt Kriminalromane. Das Plattenlabel Century Media hat seinen Sitz in Dortmund und gehört seit 2015 zu Sony Music Entertainment. Die Aktive Musik Verlagsgesellschaft produziert unter dem Label Igel-Records Kinderkassetten, CDs und Kinderhörbücher. Weitere in Dortmund ansässige Verlage sind Borgmann Verlag, IFS-Verlag, Ingrid Lessing Verlag, Verlag Kettler, OCM Verlag, VBE-Verlag, Verkehrsblatt-Verlag, Verlag Modernes Lernen und Vorsatzverlag. Öffentliche Einrichtungen Dortmund ist Sitz folgender Einrichtungen beziehungsweise Körperschaften des öffentlichen Rechts: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) Direktion der Bundesanstalt für Immobilienaufgaben (BImA) Einzelhandelsverband Westfalen Mitte e. V. Handwerkskammer Dortmund; Kammerbezirk: Kreisfreie Städte Bochum, Dortmund, Hagen, Hamm und Herne sowie Ennepe-Ruhr-Kreis, Kreis Soest und Kreis Unna Industrie- und Handelskammer (IHK) zu Dortmund; Kammerbezirk: Kreisfreie Städte Dortmund und Hamm sowie Kreis Unna Kassenärztliche Vereinigung Westfalen-Lippe (KVWL) Lippeverband Stiftung für Hochschulzulassung Materialprüfungsamt Nordrhein-Westfalen Als regional bedeutsamer Gerichtsstandort verfügt Dortmund über ein Landgericht, ein Amtsgericht, ein Arbeitsgericht und ein Sozialgericht. Außerdem existieren in Dortmund ein Konsulat Italiens sowie Honorarkonsulate von Bangladesch, Ghana, Kasachstan, Slowenien, Südafrika und Tschechien. Bildung und Forschung Hochschulen Technische Universität Dortmund: gegründet 1968 mit den Schwerpunkten Naturwissenschaften, Ingenieurwissenschaften, Wirtschafts- und Planungswissenschaften; 1980 erweitert um die Fachbereiche der Pädagogischen Hochschule Ruhr (gegründet 1929), seither auch Geisteswissenschaften. Bis 2007 trug die TU Dortmund den Namen Universität Dortmund. Im November 2010 wurde auf dem Mathematik-Tower ein TU-Logo installiert. Fachhochschule Dortmund; gegründet 1971 durch Vereinigung einer ehemals Staatlichen Ingenieurschule, der Werkkunstschule Dortmund, einer Höheren Fachschule für Sozialarbeit, einer Höheren Fachschule für Sozialpädagogik und einer Wirtschaftsfachschule. FOM – Hochschule für Oekonomie und Management, Standort Dortmund: gegründet 1993 in Essen. Seit 2005 ist die FOM Hochschule mit einem Hochschulzentrum in Dortmund vertreten. Die Gebäude der Hochschule befinden sich an der Stadtkrone-Ost. Fachhochschule für öffentliche Verwaltung Nordrhein-Westfalen. Die Fachhochschule hat insgesamt vier Abteilungen und neun Studienorte. Der Studienort Dortmund ist der Abteilung Gelsenkirchen zugeordnet. International School of Management: gegründet 1990 in privater Trägerschaft; seit 1994 staatlich anerkannt. Die Ausbildungsstätte bietet verschiedene Studiengänge im Bereich Betriebswirtschaftslehre an. Hochschule für Musik Detmold, Standort Dortmund: gegründet 1947 in Detmold als eine der ersten Musikhochschulen Deutschlands. Ihr wurden das Städtische Konservatorium Dortmund (1901 gegründet) und der für die Ausbildung von Berufsmusikern Teil der Westfälischen Schule für Musik in Münster (gegründet 1919) eingegliedert. Mittlerweile besteht nur noch der Standort in Detmold, die Dortmunder Hochschule wurde 2004 aufgelöst, die Abteilung in Münster der dortigen Universität eingegliedert. Orchesterzentrum NRW: Das Orchesterzentrum in der Brückstraße ist organisatorisch der Folkwang Universität der Künste in (Essen) angegliedert. Hier werden Studierende im Rahmen des Masterstudiengangs „Orchesterspiel“ auf eine Tätigkeit als Orchestermusiker vorbereitet. IT-Center Dortmund: Die 2000 gegründete private Bildungseinrichtung in Trägerschaft von Technischer Hochschule, Fachhochschule, ISM, Industrie- und Handelskammer zu Dortmund und networker westfalen e. V. bietet einen Bachelorstudiengang in an. IU Internationale Hochschule: Die IU Internationale Hochschule ist eine private, staatlich anerkannte Hochschule für Wirtschaft und Management mit mehreren Standorten, u. a. auch in Dortmund. Außenstelle des Instituts für Ernährungs- und Lebensmittelwissenschaften (IEL), Fachbereich Ernährungsepidemiologie der Rheinischen Friedrich-Wilhelms-Universität Bonn in Dortmund-Brüninghausen. Forschungsinstitute Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Forsa Sozialforschungsinstitut Forschungsinstitut für Kinderernährung (FKE) Forschungsinstitut für Telekommunikation und Kooperation (FTK) Fraunhofer-Institut für Materialfluss und Logistik (IML) Fraunhofer-Institut für Software- und Systemtechnik (ISST) Fritz-Hüser-Institut für deutsche und ausländische Arbeiterliteratur ILS–Institut für Landes- und Stadtentwicklungsforschung Institut für Roboterforschung Institut für Schulentwicklungsforschung (IFS) Institut für Zeitungsforschung Leibniz-Institut für Analytische Wissenschaften (ISAS) Leibniz-Institut für Arbeitsforschung (IfADo) Max-Planck-Institut für molekulare Physiologie Sozialforschungsstelle Dortmund Stadtarchiv Dortmund (Märkische Straße, früher Altes Stadthaus) Westfälisches Wirtschaftsarchiv Die Basis der Dortmunder Bildungslandschaft bildet eine Vielzahl unterschiedlicher Schulformen. Dortmund ist außerdem „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Bibliotheken Universitätsbibliothek Dortmund Fachhochschulbibliothek Dortmund Stadt- und Landesbibliothek Dortmund Bibliothek des Stadtarchivs Bibliothek des Historischen Vereins für Dortmund und die Grafschaft Mark (im Stadtarchiv beheimatet) Bibliothek des „Roland zu Dortmund“ (Genealogischer Verein) Buch- und Medienfernleihe für Gefangene und Patienten Schulen Die Stadt Dortmund verfügt über 160 Schulen, darunter 16 Gymnasien (14 städtische). Insbesondere zu nennen sind dabei das Stadtgymnasium Dortmund als ältestes Gymnasium der Stadt (gegründet 1543), das Max-Planck-Gymnasium als zweitältestes Gymnasium Dortmunds (gegründet 1858) und das Leibniz-Gymnasium als eine von nur ca. 30 Schulen bundesweit mit International-Baccalaureate-Abschluss. Persönlichkeiten Angesichts der starken Zuwanderung im 19. und in den beiden ersten Dritteln des 20. Jahrhunderts galt: „Die meisten berühmten Dortmunder waren keine Dortmunder, sondern sie wurden es erst.“ Zu den bekannten gebürtigen Dortmundern der Gegenwart zählen insbesondere die Fußballer der Stadt wie Michael Zorc, Thorsten Fink, Christian Nerlinger, Marco Reus und Kevin Großkreutz. Darüber hinaus bekannte Schauspieler wie Dietmar Bär, Max Herbrechter und Amelie Plaas-Link, der Komiker Torsten Sträter, die deutschen Regisseure Peter Thorwarth und Martin Papirowski, die Filmregisseurin und Drehbuchautorin Yasemin Şamdereli, der Autor Ralf Husmann, die Journalisten Freddie Röckenhaus und Jörg Thadeusz, die Künstler Edgar Knoop Uwe Molkenthin, der Musiker Phillip Boa, der Kabarettist Bruno Knust oder Politiker wie Steffen Kanitz, Manuel Sarrazin und Marco Bülow. Weitere gebürtige und bereits verstorbene Dortmunder sind der Verleger, Gründer des Verlagshauses „F. A. Brockhaus“ und Herausgeber des Brockhaus Friedrich Arnold Brockhaus, der Industriemagnat Leopold Hoesch, der deutsche Admiral Wilhelm Canaris, die Schauspieler Dieter Pfaff und Rudolf Platte, der Künstler Martin Kippenberger, sowie die Fußballer Hans Tilkowski, August Lenz oder Lothar Emmerich. Panoramen Literatur Dieter Nellen / Christa Reicher / Ludger Wilde (Hrsg.): PHOENIX – Eine neue Stadtlandschaft in Dortmund. JOVIS Verlag, Berlin 2016, ISBN 978-3-86859-400-3 Stefan Mühlhofer, Thomas Schilp, Daniel Stracke: Dortmund (Deutscher Historischer Städteatlas, Band 5). Ardey, Münster 2017, ISBN 978-3-87023-277-1. Ludger Tewes, Mittelalter im Ruhrgebiet. Siedlung am westfälischen Hellweg zwischen Essen und Dortmund (13. bis 16. Jahrhundert). Verlag Schoeningh, Paderborn 1997, ISBN 3-506-79152-4. Dortmunder Passagen – Ein Stadtführer, Stefan Mühlhofer / Wolfgang Sonne / Barbara Welzel, Hg.: JOVIS Verlag Berlin 2019, ISBN 978-3-86859-572-7 Weblinks Urkundenregesten über Dortmund im Stadtarchiv Dortmund und im Landesarchiv NRW in der digitalen Westfälischen Urkunden-Datenbank (DWUD) Historische Datensammlung zu Dortmund (GenWiki) Private Seite mit historischen und aktuellen Aufnahmen von Dortmund Dortmund auf stadtpanoramen.de Geheimnis Dortmunder U. WDR-Dokumentation Darum hat Dortmund kein Stadtlogo mehr in waz.de Einzelnachweise Ort in Nordrhein-Westfalen Kreisfreie Stadt in Nordrhein-Westfalen Hansestadt Ort mit Binnenhafen Deutsche Universitätsstadt Ehemalige Kreisstadt in Nordrhein-Westfalen Ort an der Ruhr Ort am Westfälischen Hellweg Stadt als Namensgeber für einen Asteroiden Ersterwähnung 882
1037
https://de.wikipedia.org/wiki/Deutsches%20Alphabet
Deutsches Alphabet
Das deutsche Alphabet ist das Alphabet, das zur Schreibung der deutschen Sprache verwendet wird. Es ist in Deutschland, Österreich, der Schweiz sowie in Liechtenstein und Luxemburg in Gebrauch, darüber hinaus in Ländern mit deutschsprachigen Minderheiten wie Belgien (Eupen und Malmedy), Dänemark (Nordschleswig), Italien (Südtirol) und Polen (Oberschlesien). Das deutsche Alphabet ist eine Erweiterung des lateinischen Alphabets. Im heutigen standardisierten Gebrauch umfasst es die 26 Grundbuchstaben des lateinischen Alphabets, die drei Umlaute (Ä, Ö, Ü) sowie das Eszett (ß). In der Schweiz und in Liechtenstein wird das ß jedoch heute nicht mehr verwendet (stattdessen wird ss geschrieben). Das große Eszett (ẞ) wurde erst im 21. Jahrhundert in das deutsche Alphabet aufgenommen. Die Bezeichnungen der einzelnen Buchstaben haben neutrales Genus (sächliches Geschlecht): „das A“, „das B“ usw. Sowohl in der Schreibung von Mundarten wie in historischen Dokumenten werden und wurden darüber hinaus zahlreiche Buchstabenvarianten und auch weitere Buchstaben gebraucht. Das Gleiche gilt für die Schreibung von Fremdwörtern, z. B. kommen é und è mit Akzent in französischen Fremdwörtern häufig vor. Entwicklung aus dem lateinischen Alphabet Herkunft der Umlautbuchstaben Die Umlautbuchstaben (ä, ö und ü) entstanden aus der Kombination des jeweiligen lateinischen Buchstabens (also a, o und u) mit einem den Umlaut anzeigenden e. Sie sind in dieser Form erst seit dem 16. Jahrhundert in allgemeinem Gebrauch. Umlautbuchstaben werden heute auch in zahlreichen anderen Sprachen verwendet. In althochdeutschen Handschriften sind Umlaute nur dort bezeichnet, wo ein geeigneter Buchstabe zur Verfügung stand, nämlich e für kurzes ä und später iu für langes ü, nachdem der Diphthong zum ü monophthongiert war. Die Buchstaben o und u konnten also in alt- und mittelhochdeutschen Schriften sowohl o und u wie auch ö und ü oder üe bedeuten. Seit etwa dem 13. Jahrhundert wurde in manchen Handschriften die Ligatur æ für langes oder offen gesprochenes ä verwendet oder ein e oder i zur Unterscheidung über den umgelauteten Buchstaben gesetzt, seltener auch hinter ihn. In der deutschen Kurrentschrift, die etwa seit dem 16. Jahrhundert immer mehr in Gebrauch kam, sieht dieses kleine e wie zwei senkrechte Striche aus, aus denen schließlich die zwei heute häufig verwendeten Punkte wurden. Einige Schriftarten verwenden immer noch die senkrechten Striche für die Umlautbuchstaben. Die Herkunft der Umlautbuchstaben ist im heutigen Schreibgebrauch noch erkennbar, insbesondere bei Familiennamen wie Baedeker und bei Ortsnamen wie Uerdingen oder Oerlikon. Wenn die Umlautbuchstaben auf einer Tastatur nicht zur Verfügung stehen, wird regelmäßig ae, oe, ue geschrieben. In Kreuzworträtseln wird zumeist AE, OE, UE anstelle von Ä, Ö, Ü geschrieben. Herkunft des Eszett Das Eszett (ß), das auch als scharfes s bekannt ist, ist ursprünglich eine Ligatur aus dem langen ſ (s) und entweder dem runden s oder dem z in den spätmittelalterlichen Bastarden und der neuzeitlichen Frakturschrift. Ab etwa dem Anfang des 19. Jahrhunderts wurde die Antiqua auch in deutschsprachigen Ländern gebräuchlicher. Damals enthielten die meisten Antiqua-Schriften keine Buchstaben für das ß, Drucke aus dem 19. Jahrhundert sind daher oftmals ohne ß gesetzt. Bei der Orthographischen Konferenz von 1901 wurde festgelegt, dass die Schriftgießereien in Zukunft ihre Antiqua-Schriften mit der Letter ß zu liefern hätten und für vorhandene Schriften ein ß nachzuliefern sei. Das lange s (ſ) wurde auch in der Antiqua gelegentlich gesetzt, es findet sich beispielsweise noch im Leipziger Duden von 1951. Einführung des großen Eszett In Versalschrift wird für ß meist SS geschrieben, früher auch SZ. In amtlichen Dokumenten wurde das ß auch innerhalb von Versalschrift verwendet, zum Beispiel beim Familiennamen WEIß, um die Unterscheidung zwischen Weiß und Weiss auch bei Versalschreibung zu ermöglichen. Bereits Anfang des 20. Jahrhunderts wurde die Schaffung eines Großbuchstabens diskutiert, von den Entwürfen hat sich aber keiner durchgesetzt. Das große ß (Versal-Eszett) wurde schließlich am 4. April 2008 in die Version 5.1 des Unicode-Standards als U+1E9E (ẞ) aufgenommen und am 24. Juni 2008 auch in die Norm ISO/IEC 10646. Die Verwendung des Versal-Eszett ist für die amtliche Schreibung geografischer Namen verbindlich. Am 29. Juni 2017 hat der Rat für deutsche Rechtschreibung das große ß in das amtliche Regelwerk aufgenommen. Statt STRASSE kann man nun STRAẞE mit großem ß schreiben. Üblich ist nach wie vor die Schreibweise STRASSE. Dies wird auch im amtlichen Regelwerk so dargestellt. Benennung der Buchstaben Ein bloßer Konsonant ist akustisch relativ schwierig von anderen seiner Art zu unterscheiden. Daher weicht die Benennung der Konsonantenbuchstaben von der üblichen Laut-Buchstaben-Zuordnung ab. Im Folgenden wird angegeben, wie die Buchstaben normalerweise benannt werden (Aussprache nach IPA): Besonders beim Buchstabieren ist es hilfreich, statt des Buchstabens ein festgelegtes Wort mit dem entsprechenden Anfangsbuchstaben auszusprechen, zum Beispiel „Friedrich“ für F. Siehe dazu Deutschsprachige Buchstabiertafeln. In der Schrift werden Buchstaben meistens als solche notiert, zum Beispiel: „Vogel schreibt sich mit V, nicht mit F.“ Für einige wenige Buchstaben gibt es darüber hinaus verdeutlichende Schreibweisen, die gelegentlich verwendet werden. Laut Duden sind dies: für J/j: Jot für Y/y: Ypsilon für Z/z: Zet oder Zett für ẞ/ß: Eszett oder scharfes S (weitere Namen siehe ß) Reihenfolge und Sortierung Reihenfolge der Buchstaben Die 26 Grundbuchstaben (ohne Umlaute und ẞ) haben folgende Reihenfolge im Alphabet: Bei einer Auflistung des kompletten Alphabets werden die Umlaute meist am Ende angefügt, das ß entweder nach s oder zusammen mit den Umlauten am Ende der Kleinbuchstaben. Beispielsweise werden im amtlichen Regelwerk zur Rechtschreibreform die Zeichen wie folgt in zwei Zeilen vorgeführt und mit größeren Abständen gruppiert: a b c d e f g h i j k l m n o p q r s t u v w x y z   ä ö ü   ß A B C D E F G H I J K L M N O P Q R S T U V W X Y Z   Ä Ö Ü   ẞ Bei der alphabetischen Sortierung von ganzen Wörtern werden die Umlaute und ẞ anders behandelt (siehe unten). Alphabetische Sortierung Die alphabetische Sortierung von Wörtern oder Namen richtet sich grundsätzlich nach der Reihenfolge der Buchstaben im Alphabet. Bei Umlautbuchstaben und beim Eszett (ß) sowie beim Vorkommen von Ziffern und Sonderzeichen kann es jedoch Abweichungen geben, die vom genauen Anwendungsbereich abhängen. Beispielsweise beschreibt die Norm DIN 5007:1991 zwei Varianten: Bei der Wörterbuch-Sortierung (betrifft gewöhnliche Wörter) werden die Umlautbuchstaben Ä, Ö, Ü wie A, O und U behandelt („Alter, älter, Altes“), ß wie ss. Die Telefonbuch-Sortierung (betrifft Namen von Personen) behandelt Umlautbuchstaben hingegen wie Ae, Oe und Ue. In Österreich werden teilweise andere Normen angewendet. Selten verwendete Variationen von Buchstaben Folgende Variationen von Buchstaben werden im Deutschen – wenn auch selten – noch in Eigennamen verwendet: ë und ï: Die aktuellen Regeln der Rechtschreibreform von 1996 befassen sich nicht mehr mit dem Trema. Jedoch findet sich das Trema auf einem e oder i – das ë und ï – noch in manchen Eigennamen wie z. B. aë in Aëtius, ië in Piëch, oë in Loë, uë in Niuë, ëu in Alëuten (Inselkette) und Alëuten (Ureinwohner), sowie aï in Aïr. ÿ: Als Ligatur ij in Familiennamen, wie z. B. in Meÿer oder Lohmeÿer. Häufigkeit der Buchstaben im Deutschen Der häufigste Buchstabe ist das E, gefolgt vom N. Der seltenste Buchstabe ist das Q. Die Art der Texte (Lyrik, Prosa, Bedienungsanleitungen usw.) hat keinen Einfluss auf die Buchstabenverteilung. Bei den Buchstabenpaaren (Bigrammen) sind ER und EN am häufigsten vertreten, und zwar hauptsächlich am Wortende. Die häufigsten Dreiergruppen (Trigramme) sind SCH und DER. Zahl der Buchstaben im Alphabet Bei der Frage, wie viele Buchstaben das deutsche Alphabet enthält, ist zunächst die Konvention festzuhalten, dass Groß- und Kleinbuchstaben nicht separat gezählt werden. Zum Beispiel gelten A und a nicht als verschiedene Buchstaben, sondern als zwei Formen desselben Buchstabens. Entsprechend werden auch Buchstabenformen wie das ſ („langes s“) und das ʒ („z mit Unterschlinge“) sowie Ligaturen – die verschmolzene Schreibweise zweier Buchstaben – nicht als zusätzliche Buchstaben gewertet, sondern als besondere Gestaltungsformen von Buchstaben (siehe dazu Glyphe). Es ist dennoch nicht eindeutig, wie viele verschiedene Buchstaben Bestandteile des deutschen Alphabets sind. Abhängig vom Verständnis des Begriffs „Alphabet“ werden meist 26 oder (seltener) 30 Buchstaben zum Alphabet gerechnet, manchmal auch 27 Buchstaben: 26 Buchstaben – ä, ö, ü und ß werden nicht mitgezählt. 30 Buchstaben – ä, ö, ü und ß werden mitgezählt. 27 Buchstaben – ß wird als Buchstabe mitgezählt, ä, ö, ü nicht. Im Zusammenhang mit dem Vergleich der zahlreichen lateinischen Alphabete und der Frage, wie viele Buchstaben diese enthalten, ist das Verständnis naheliegend, dass mit dem jeweiligen Alphabet die Gesamtheit der Buchstaben gemeint ist, die zum Schreiben von Wörtern der jeweiligen Sprache gebraucht werden – im Deutschen also nicht nur die 26 Buchstaben von A bis Z, sondern auch die Umlautbuchstaben und das ß. Entsprechende Definitionen finden sich in der Fachliteratur. Daraus ergibt sich die Zählung von 30 Buchstaben im deutschen Alphabet. Ansonsten wird „Alphabet“ üblicherweise definiert als die Gesamtheit der Buchstaben einer Schrift, die in einer festgelegten Reihenfolge angeordnet sind. Die Reihenfolge der Buchstaben ist im deutschen Alphabet bei den 26 Buchstaben von A bis Z festgelegt, nicht aber bei den Umlautbuchstaben und ß (siehe oben zur Reihenfolge der Buchstaben). Aus diesem Grund wird meist gesagt, das deutsche Alphabet enthalte 26 Buchstaben. Bei dieser Perspektive werden die Umlautbuchstaben und ß zum Beispiel mit der Formulierung berücksichtigt, dass sie „dazukommen“ oder dass es außerdem vier zusätzliche „Sonderbuchstaben“ gebe. Ein weiteres Motiv für die Zählung von nur 26 Buchstaben im Alphabet kann darin liegen, dass die Umlautbuchstaben und ß nicht im selben Maß als „eigenständige“ Buchstaben bewertet werden wie die 26 Buchstaben von A bis Z. Sie haben sich aus Kombinationen anderer Buchstaben entwickelt (siehe oben zur Herkunft) und lassen sich noch heute durch Buchstabenkombinationen ersetzen (z. B. ae für ä oder ss für ß). Außerdem werden die Umlautbuchstaben ä, ö, ü als die Vokalbuchstaben a, o, u mit diakritischem Zeichen geschrieben und erscheinen insofern als Varianten anderer Buchstaben. Das ß erscheint im Vergleich dazu eigenständiger, weil es sich nicht als Schreibvariante eines anderen Buchstabens interpretieren lässt. Auf diesem Hintergrund ist auch die Ansicht vertretbar, dass das deutsche Alphabet 27 Buchstaben umfasse (a bis z und ß), während ä, ö, ü als die Buchstaben a, o, u mit diakritischem Zeichen anzusehen seien. Im Zusammenhang mit der Einführung des großen ß wurde das ß als der 27. Buchstabe des Alphabets bezeichnet. Personennamen mit Sonderzeichen Personen mit Umlauten und/oder ß im Namen haben häufig Probleme, da viele elektronische Systeme diese Buchstaben nicht verarbeiten können und man auf Umschreibungen (ae, oe, ue, ss) ausweichen muss. Gerade in Personalausweisen und Reisepässen ist der Name dann in zweierlei Weise geschrieben, einmal richtig und in der maschinenlesbaren Zone (MRZ) in Umschrift (z. B. Schröder / SCHROEDER, Weiß / WEISS). In verschiedenen Dokumenten (Kreditkarten, Krankenversicherungskarte, BahnCard) kann derselbe Name unterschiedlich geschrieben sein, was besonders im Ausland für Verwirrung und Verdacht auf Dokumentenfälschung sorgen kann. Österreichische Ausweisdokumente können (müssen aber nicht) eine Erklärung der deutschen Sonderzeichen (auf Deutsch, Englisch und Französisch, z. B. 'ö' entspricht / is equal to / correspond à 'OE') beinhalten. Schon vor Einführung des großen ẞ wurde empfohlen, ß bei Familiennamen in Dokumenten aus Gründen der Eindeutigkeit auch als Großbuchstaben zu benutzen (z. B. HEINZ GROßE). Das deutsche Namensrecht erkennt Sonderzeichen im Familiennamen als Grund für eine Namensänderung an (Nr. 38 NamÄndVwV). Auch eine bloße Änderung der Schreibweise, z. B. von Schröder zu Schroeder oder von Weiß zu Weiss, gilt als solche. Am 1. Oktober 1980 stellte das Bundesverwaltungsgericht noch einmal fest, dass die technisch bedingte fehlerhafte Wiedergabe von Sonderzeichen auf elektronischen Systemen ein wichtiger Grund für die Änderung des Familiennamens sein kann (der Kläger wollte die Schreibweise seines Namens von Götz in Goetz ändern, war damit aber zunächst beim Standesamt gescheitert; Aktenzeichen: 7 C 21/78). Literatur Regeln und Wörterverzeichnis. Überarbeitete Fassung des amtlichen Regelwerks 2004. Rat für deutsche Rechtschreibung, München/ Mannheim 2006. Weblinks Alphabet-Ausstellung Einzelnachweise Alphabet Deutsche Sprache
1038
https://de.wikipedia.org/wiki/Deutscher%20Herbst
Deutscher Herbst
Als Deutscher Herbst wird die Zeit und ihre politische Atmosphäre in der Bundesrepublik Deutschland im September und Oktober 1977 bezeichnet, die geprägt war durch Anschläge der terroristischen Vereinigung Rote Armee Fraktion (RAF). Die Entführung und Ermordung Hanns Martin Schleyers, die Entführung des Lufthansa-Flugzeugs Landshut und die Selbstmorde der inhaftierten führenden Mitglieder der ersten Generation der RAF stellten den Schlussakt der so genannten Offensive 77 der RAF dar. Der Deutsche Herbst gilt als eine der schwersten Krisen in der Geschichte der Bundesrepublik Deutschland. Der Begriff „Deutscher Herbst“ leitet sich von dem Film Deutschland im Herbst von 1978 ab, einer Collage mehrerer Dokumentarfilme von elf Regisseuren des „Neuen Deutschen Films“, die sich mit der Reaktion des Staates auf den Terrorismus aus unterschiedlichen Blickwinkeln kritisch auseinandersetzen. Ereignisse im Frühjahr und Sommer des Jahres 1977 Im Jahr 1977 erreichten die Aktivitäten der sogenannten zweiten Generation der RAF ihren Höhepunkt. Die Ereignisse vor September werden aber allgemein nicht dem Deutschen Herbst zugerechnet. Am 7. April 1977 wurden in Karlsruhe vom Kommando Ulrike Meinhof der Generalbundesanwalt Siegfried Buback, sein Fahrer Wolfgang Göbel und der Leiter der Fahrbereitschaft der Bundesanwaltschaft Georg Wurster von einem Motorrad aus in ihrem Auto erschossen. Am 30. Juli 1977 wurde der Vorstandssprecher der Dresdner Bank AG Jürgen Ponto bei einem fehlgeschlagenen Entführungsversuch ermordet. Das RAF-Mitglied Susanne Albrecht war mit Ponto persönlich bekannt. In Begleitung von Brigitte Mohnhaupt und Christian Klar besuchte Albrecht den Bankmanager, um ihn zu entführen. Da dieser von ihrer politischen Radikalisierung nichts wusste, empfing er sie arglos in seinem Privathaus in der Oberhöchstadter Straße in Oberursel. Als er sich gegen die Entführung zur Wehr setzte, schossen Klar und Mohnhaupt mehrmals und trafen ihn tödlich. Danach flohen alle drei mit dem vor Pontos Villa bereit stehenden, von Peter-Jürgen Boock gesteuerten Fluchtwagen. Am 25. August 1977 scheiterte ein Anschlag auf das Gebäude der Bundesanwaltschaft in Karlsruhe. Verlauf des Herbstes 1977 Am 5. September 1977 kam es zur Entführung von Arbeitgeberpräsident Hanns Martin Schleyer in Köln, dabei wurden sein Fahrer und drei Polizeibeamte ermordet. Die Entführer forderten die Freilassung von elf inhaftierten RAF-Terroristen. Da die Bundesregierung – anders als bei der Entführung von Peter Lorenz zwei Jahre zuvor – nicht auf die Erpressung einging, versuchten mit der RAF verbündete Terroristen der PFLP, den Druck durch die Entführung der Lufthansa-Maschine „Landshut“ am 13. Oktober 1977 zu erhöhen. Nach einer Odyssee durch die arabische Welt und der Ermordung des Piloten, Kapitän Jürgen Schumann, landete das Flugzeug auf dem Flughafen Mogadischus, der Hauptstadt des ostafrikanischen Somalia. Hier wurde die Landshut am 18. Oktober gegen 00:30 Uhr durch die Spezialeinheit GSG 9 gestürmt. Um 00:38 Uhr kam im Deutschlandfunk eine Sondermeldung, dass „alle Geiseln befreit sind. Ob es unter ihnen Tote und Verletzte gab, wissen wir zu dieser Stunde noch nicht …“. Tatsächlich waren alle 86 Geiseln unverletzt frei gekommen. Kurz danach, noch in der Nacht vom 17. zum 18. Oktober 1977, der Todesnacht von Stammheim, nahmen sich die in Stuttgart-Stammheim inhaftierten RAF-Terroristen Andreas Baader, Gudrun Ensslin und Jan-Carl Raspe das Leben. Die ebenfalls dort inhaftierte Irmgard Möller überlebte ihren Suizid-Versuch mit vier Messerstichen in der Herzgegend. Der entführte Hanns Martin Schleyer wurde in der Folge von seinen Entführern ermordet. Seine Leiche fand man am Abend des 19. Oktober in Mülhausen im Elsass. Reaktion der Politik Auch die Parteien gerieten im Deutschen Herbst in heftige Auseinandersetzungen. Die CDU/CSU-Opposition vermutete bei der regierenden sozial-liberalen SPD/FDP-Koalition unter Helmut Schmidt (SPD) eine ideologische Nähe zu den Terroristen. Die Koalition ihrerseits warf der Opposition hysterische Überreaktionen vor und unterstellte ihr, sie nutze die Gelegenheit, die Bundesrepublik ein Stück weit in einen Polizeistaat zu verwandeln. Trotz dieser Gegensätze berief Bundeskanzler Schmidt zu Beginn der Schleyer-Entführung den so genannten Großen Krisenstab ein, dem Mitglieder aller Fraktionen des Deutschen Bundestages angehörten. Der Historiker Wolfgang Kraushaar bezeichnete diese Zeit später als „nicht-erklärten Ausnahmezustand“. Ein Ergebnis des parteiübergreifenden Konsenses war das im Herbst 1977 verabschiedete Kontaktsperregesetz, das die Möglichkeit zu einem Kontaktverbot für Häftlinge schuf. Dieses Kontaktverbot bezog sich auch auf die Gespräche mit Rechtsanwälten. Außerdem wurde die Strafprozessordnung dahingehend geändert, dass ein Angeklagter höchstens drei Wahlverteidiger benennen durfte. Literatur in der Reihenfolge des Erscheinens . Stefan Aust: Der Baader Meinhof Komplex. Hoffmann und Campe, Hamburg 1985, ISBN 3-455-08253-X. erweiterte und aktualisierte Auflage 1997, ISBN 3-455-11230-7; Taschenbuchausgabe 1998, ISBN 3-442-12953-2. völlig überarbeitete und ergänzte Neuausgabe 2008, ISBN 978-3-455-50029-5. Oliver Tolmein, Detlef zum Winkel: Nix gerafft – 10 Jahre Deutscher Herbst und der Konservatismus der Linken. Konkret-Literatur-Verlag, Hamburg 1987, ISBN 3-922144-66-7. Tatjana Botzat, Elisabeth Kiderlen, Frank Wolff: Ein deutscher Herbst. Zustände 1977. Verlag Neue Kritik, Frankfurt am Main 1997, ISBN 3-8015-0315-1. Klaus Pflieger: Die Aktion „Spindy“. Die Entführung des Arbeitgeberpräsidenten Dr. Hanns-Martin Schleyer. Nomos Verlagsgesellschaft, Baden-Baden 1997, ISBN 3-7890-4598-5. erneut in: Klaus Pflieger: Die Rote Armee Fraktion – RAF – 14. Mai 1970 bis 20. April 1998. Nomos-Verlag, Baden-Baden, 3. erweiterte und aktualisierte Auflage 2011, ISBN 978-3-8329-5582-3. Peter Graf Kielmansegg: Nach der Katastrophe. Eine Geschichte des geteilten Deutschland. Siedler Verlag, Berlin 2000, ISBN 3-88680-329-5, S. 338ff. Ulf G. Stuberger: Die Tage von Stammheim – als Augenzeuge beim RAF-Prozess. Herbig-Verlag, München 2007, ISBN 978-3-7766-2528-8. Ulf G. Stuberger: In der Strafsache gegen Andreas Baader, Ulrike Meinhof, Jan-Carl Raspe, Gudrun Ensslin wegen Mordes u. a. – Dokumente aus dem Prozess. Europäische Verlagsanstalt, Hamburg 2007, ISBN 978-3-434-50607-2. Karrin Hanshew: Terror and Democracy in West Germany. Cambridge University, Cambridge 2012, ISBN 978-1-10-701737-5, S. 192–236: The German Autumn, 1977. Klaus Pflieger: Gegen den Terror – Erinnerungen eines Staatsanwalts. Verrai, Stuttgart 2016, ISBN 978-3-9818041-4-0. Butz Peters: 1977 – RAF gegen Bundesrepublik. Droemer, München 2017, ISBN 978-3-426-27678-5. Filmbeiträge Deutschland im Herbst – verschiedene Kurzfilme und Kurzreportagen von mehreren Regisseuren des Neuen Deutschen Films, Bundesrepublik Deutschland 1978, Regie: Rainer Werner Fassbinder, Volker Schlöndorff, Alexander Kluge, Edgar Reitz und andere Todesspiel – zweiteiliges Fernseh-Doku-Drama (Teil 1: Volksgefängnis, Teil 2: Die Entführung der Landshut), Deutschland 1997, Regie: Heinrich Breloer Der Deutsche Herbst – Dokumentation auf BR-alpha, 2005 Mogadischu – Fernsehverfilmung, Deutschland 2008, Regie: Roland Suso Richter Der Baader Meinhof Komplex – Kino- und TV-Dokumentarfilm, Deutschland 2008, Regie: Uli Edel, Drehbuch und Produktion: Bernd Eichinger Weblinks , Spezial der Frankfurter Rundschau Blutiger Deutscher Herbst 1977 auf wdr.de – mit weiterführenden Informationen, Fotos und Filmmaterial zum Thema Informationen zum Thema auf museumsmagazin.com Nicht zu zweifeln, wäre unmenschlich gewesen – Gespräch über den „Deutschen Herbst“ mit dem früheren Bundesjustizminister Hans-Jochen Vogel, Spiegel online, 19. September 2007. 40 Jahre Deutscher Herbst: «Eine Kriegserklärung an den Staat» In: Zeitblende von Schweizer Radio und Fernsehen vom 23. September 2017 (Audio) Einzelnachweise Rote Armee Fraktion Konflikt 1977 Politik 1977
1039
https://de.wikipedia.org/wiki/David%20Arquette
David Arquette
David Arquette (* 8. September 1971 in Winchester, Virginia) ist ein US-amerikanischer Schauspieler. Leben Sowohl sein Großvater Cliff und sein Vater Lewis als auch seine Geschwister Patricia, Rosanna, Alexis und Richmond waren bzw. sind Schauspieler. David Arquette absolvierte eine Ausbildung bei der Second City Theatre Group und begann seine Karriere 1989 mit Francis Ford Coppolas Fernsehserie The Outsiders. Bekannt wurde er vor allem durch seine Darstellung des naiven Polizisten Dewey in der Horrorfilm-Hexalogie Scream (1996, 1997, 2000, 2011 und 2022). Bei den Dreharbeiten lernte er seine spätere Frau Courteney Cox (bekannt aus der US-Sitcom Friends) kennen, die er 1999 heiratete. Am 13. Juni 2004 kam die gemeinsame Tochter zur Welt. Im Oktober 2010 gaben David und Courteney ihre Trennung bekannt. Im Jahr 2011 war er in Scream 4 erneut neben Courteney Cox und Neve Campbell zu sehen, 2022 folgte unter seiner Mitwirkung mit Scream der fünfte Teil der Reihe. Im Deutschen wird er häufig von Frank Röth und Dietmar Wunder synchronisiert; ersterer übernahm die Funktion in der Scream-Reihe. Abseits dessen hatte er im 2022 erschienenen Videospiel The Quarry eine Nebenrolle inne, welcher er sowohl seine Stimme als auch sein Aussehen lieh; seine deutsche Stimme stammt hierbei von Erik Schäffler. David Arquette ist auch als Regisseur und Komponist tätig. In seiner Freizeit tourt er häufig mit seiner Band Ear 2000 durch die USA. Um den Film Ready to Rumble zu bewerben, trat David Arquette im April 2000 mehrfach bei der Wrestling Promotion WCW auf. Obwohl er keine Erfahrung in Sachen Wrestling hatte und nur einfache Anfänger-Aktionen zeigte, wurde er im April 2000 WCW World Heavyweight Champion. Diese Entscheidung der Führung der WCW wird noch heute in vielen Internetforen verspottet und als der Tod der Liga angesehen. Den Titel hielt Arquette zwölf Tage. 2020 wurde mit You Cannot Kill David Arquette eine Dokumentation über ihn veröffentlicht. Filmografie (Auswahl) als Regisseur 2006: President Evil (The Tripper) Videospiele 2022: The Quarry Wrestling 1× WCW World Heavyweight Champion Einzelnachweise Weblinks Filmschauspieler US-Amerikaner Geboren 1971 Mann WCW World Heavyweight Champion
1040
https://de.wikipedia.org/wiki/Danny%20DeVito
Danny DeVito
Daniel Michael „Danny“ DeVito (* 17. November 1944 in Asbury Park, New Jersey) ist ein US-amerikanischer Schauspieler, Regisseur und Filmproduzent. Leben DeVitos Familie stammte von den Arbëresh ab, Angehörige einer alteingesessenen albanischen Minderheit aus der Region Kalabrien und Basilikata in Italien. Er begann als Kosmetiker im Schönheitssalon seiner Schwester und ging an die American Academy of Dramatic Arts in New York City, um Maskenbildner zu werden, wechselte dann aber zur Schauspielerei. Während seines Studiums teilte er sich sein Zimmer mit seinem Kommilitonen Michael Douglas. DeVito ist seit 1982 mit der Schauspielerin Rhea Perlman, bekannt aus der Sitcom Cheers, verheiratet. Sie lernten sich 1970 bei der Broadway-Aufführung The Shrinking Bride kennen. Beide haben drei gemeinsame Kinder, darunter die Schauspielerin Lucy DeVito. Wegen seiner geringen Körpergröße – DeVito ist mit rund 1,50 Metern einer der kleinsten Schauspieler Hollywoods – hatte es DeVito anfangs schwer, im Filmgeschäft Fuß zu fassen. Eine seiner ersten Rollen war der geisteskranke Martini in der Bühnenversion des Romans Einer flog über das Kuckucksnest. Als das Buch sieben Jahre später mit Jack Nicholson verfilmt wurde, erinnerte sich Michael Douglas als Produzent des Films an seinen Freund aus Studienzeiten und engagierte ihn für das Projekt. Der große Erfolg des Films Einer flog über das Kuckucksnest beim Publikum und in der Kritik verhalf DeVito zum Durchbruch. Von 1978 bis 1983 war DeVito neben Andy Kaufman in der Sitcom Taxi zu sehen. Bei einigen Episoden führte er auch Regie. Mitte der 1980er Jahre drehte er gemeinsam mit Michael Douglas und Kathleen Turner die Abenteuerfilme Auf der Jagd nach dem grünen Diamanten und Auf der Jagd nach dem Juwel vom Nil und etablierte sich als Hollywood-Star und einer der führenden Filmkomödianten. 1987 fungierte DeVito für die schwarze Komödie Schmeiß’ die Mama aus dem Zug!, einer Variante von Der Fremde im Zug, erstmals als Regisseur bei einem Kinofilm. Weitere große Erfolge hatte DeVito mit Twins neben Arnold Schwarzenegger und seiner dritten Regiearbeit Der Rosenkrieg, in der ebenfalls Michael Douglas und Kathleen Turner mitwirkten. 1992 drehte er Hoffa, ein Porträt über den einflussreichen und in das organisierte Verbrechen verstrickten Gewerkschaftsführer Jimmy Hoffa. Neben seiner Karriere als Schauspieler war DeVito auch als (ausführender) Produzent erfolgreich. 1992 gründete er zusammen mit seiner Ehefrau und Michael Shamberg die Produktionsfirma Jersey Films und war maßgeblich an der Entstehung von Filmen wie Reality Bites, Pulp Fiction, Schnappt Shorty, Out of Sight, Garden State und Erin Brockovich beteiligt. Für letzteren erhielt er eine Oscar-Nominierung in der Kategorie Bester Film. Einer von DeVitos persönlichsten Filmen ist Der Mondmann mit Jim Carrey von 1999. Es geht darin um seinen früheren Taxi-Kollegen Andy Kaufman, der in jungen Jahren an Krebs starb. Für die Musik aller seiner Filme war der Komponist David Newman verantwortlich. Die meiste Zeit wurde DeVito von Gerd Duwner (Barney Geröllheimer aus Familie Feuerstein und Ernie aus der Sesamstraße) synchronisiert, nach dessen Tod im Jahr 1996 von Klaus Sonnenschein (Standard-Synchronstimme von Morgan Freeman und John Goodman). Am 18. August 2011 wurde DeVito auf dem Hollywood Walk of Fame mit einem Stern in der Kategorie Fernsehen geehrt. Vor den Präsidentschaftsvorwahlen der Demokratischen Partei 2020 und den Präsidentschaftswahlen brachte DeVito erneut seine Unterstützung für den demokratischen Kandidaten Bernie Sanders zum Ausdruck. Filmografie Darsteller 1970: Dreams of Glass 1971: Mortadella (La Mortadella) 1971: Bananas (Bananas) 1973: Scalawag 1975: Einer flog über das Kuckucksnest (One Flew Over The Cuckoo’s Nest) 1977: Der größte Liebhaber der Welt (The World’s Greatest Lover) 1977: Starsky & Hutch (Fernsehserie, Folge Die Wucherin und ihr Gehilfe) 1978: Der Galgenstrick (Goin’ South) 1978–1983: Taxi (Fernsehserie) 1979: Swap Meet 1981: Affen, Gangster und Millionen (Going Ape!) 1983: Zeit der Zärtlichkeit (Terms of Endearment) 1984: Johnny G. – Gangster wider Willen (Johnny Dangerously) 1984: Auf der Jagd nach dem grünen Diamanten (Romancing the Stone) 1984: T.V. – Total verrückt (The Ratings Game) 1985: Auf der Jagd nach dem Juwel vom Nil (The Jewel of the Nile) 1986: Wise Guys – Zwei Superpflaumen in der Unterwelt (Wise Guys) 1986: Die unglaubliche Entführung der verrückten Mrs. Stone (Ruthless People) 1987: Tin Men 1987: Schmeiß’ die Mama aus dem Zug! (Throw Momma from the Train) 1988: Twins – Zwillinge (Twins) 1989: Der Rosenkrieg (The War of the Roses) 1991: Das Geld anderer Leute (Other People’s Money) 1992: Batmans Rückkehr (Batman Returns) 1992: Jimmy Hoffa (Hoffa) 1993: Mein Vater – Mein Freund (Jack the Bear) 1994: Mr. Bill (Renaissance Man) 1994: Junior 1995: Schnappt Shorty (Get Shorty) 1996: Matilda 1996: Mars Attacks! 1997: Hercules (Stimme für Philoctetes) 1997: L.A. Confidential 1997: Der Regenmacher (The Rainmaker) 1998: Wachgeküßt (Living Out Loud) 1999: Der Mondmann (Man on the Moon) 1999: The Virgin Suicides 1999: The Big Kahuna – Ein dicker Fisch (The Big Kahuna) 2000: Der Fall Mona (Drowning Mona) 2000: Dumm gelaufen – Kidnapping für Anfänger (Screwed) 2001: Heist – Der letzte Coup (Heist) 2001: Schlimmer geht’s immer! (What’s the Worst That Could Happen?) 2002: Tötet Smoochy (Death to Smoochy) 2002: Austin Powers in Goldständer (Austin Powers in Goldmember) 2003: Anything Else 2004: Christmas in Love 2004: Big Fish 2004: Friends (Fernsehserie, Folge 10x11 The One Where the Stripper Cries) 2005: Marilyn Hotchkiss' Ballroom Dancing And Charm School 2005: Be Cool – Jeder ist auf der Suche nach dem nächsten großen Hit (Be Cool) 2006: Relative Strangers 2006: Blendende Weihnachten 2006: Even Money 2006: 10 Items or Less – Du bist wen du triffst (10 Items or Less) 2006: The OH in Ohio seit 2006: It’s Always Sunny in Philadelphia (Fernsehserie) 2007: Nobel Son 2007: The Good Night 2007: Reno 911! – Miami 2008: Just Add Water – Das Leben ist kein Zuckerschlecken (Just Add Water) 2009: Housebroken – Daddy ist Zurück (House Broken) 2009: Solitary Man 2010: When in Rome – Fünf Männer sind vier zuviel (When in Rome) 2011: Hangover in L. A. (Girl Walks Into a Bar) 2012: Der Lorax (The Lorax, Stimme für Lorax) 2012: Hotel Noir 2014: The Wilderness of James 2015: Deadbeat (Fernsehserie, Folge 2x05) 2016: Wiener Dog (Wiener-Dog) 2016: Curmudgeons (Kurzfilm) 2016: The Comedian – Wer zuletzt lacht (The Comedian) 2018: Smallfoot – Ein eisigartiges Abenteuer (Smallfoot, Stimme für Dorgle) 2018: The Kominsky Method (Fernsehserie) 2019: Dumbo 2019: Jumanji: The Next Level 2020: Der einzig wahre Ivan (The One and Only Ivan, Stimme von Bob) 2021: The Survivor 2023: Geistervilla (Haunted Mansion) Regie/Produktion 1984: T.V. – Total verrückt (The Ratings Game) 1986: Unglaubliche Geschichten (Fernsehserie, Regie, Darsteller Folge 2x01) 1987: Schmeiß’ die Mama aus dem Zug! (Throw Momma from the Train) 1989: Der Rosenkrieg (The War of the Roses) 1992: Jimmy Hoffa (Hoffa) 1996: Matilda 1997: Gattaca 1998: Out of Sight 2000: Erin Brockovich 2001: So High (How High) 2002: Tötet Smoochy (Death to Smoochy) 2003: Der Appartement Schreck (Duplex) 2004: Garden State 2014: Ruhet in Frieden – A Walk Among the Tombstones (A Walk Among the Tombstones) 2016: Curmudgeons (Kurzfilm) Auszeichnungen (Auswahl) 1980: Golden Globe Award als Bester Nebendarsteller in einer Fernsehserie für Taxi (gemeinsam mit Vic Tayback für Alice) 1981: Emmy als Bester Nebendarsteller in einer Comedy, Varieté- oder Musikserie für Taxi 1982: Goldene-Himbeere-Nominierung in der Kategorie Schlechtester Nebendarsteller für Affen, Gangster und Millionen 1989: ShoWest Award als „männlicher Star des Jahres“ 1990: nominiert für den Goldenen Bären der Filmfestspiele von Berlin für Der Rosenkrieg 1993: nominiert für den Goldenen Bären der Filmfestspiele von Berlin für Jimmy Hoffa 1993: Goldene-Himbeere-Nominierung in der Kategorie Schlechtester Regisseur für Jimmy Hoffa 1993: Goldene-Himbeere-Nominierung in der Kategorie Schlechtester Nebendarsteller für Batmans Rückkehr 2001: nominiert für den British Academy Film Award in der Kategorie Bester Film für Erin Brockovich 2001: Oscar-Nominierung in der Kategorie Bester Film für Erin Brockovich 2007: Goldene-Himbeere-Nominierung in der Kategorie Schlechtester Nebendarsteller für Blendende Weihnachten 2007: Preis für das Lebenswerk des Filmfestivals von Karlovy Vary 2010: Goldene Kamera Kategorie: „Lebenswerk International“ 2011: Stern auf dem Walk of Fame 2018: Festival Internacional de Cine de San Sebastián – Donostia Award Weblinks Danny DeVito Biografie bei WHO’S WHO Einzelnachweise Filmschauspieler Filmproduzent Filmregisseur US-Amerikaner Geboren 1944 Mann Golden-Globe-Preisträger
1043
https://de.wikipedia.org/wiki/Dennis%20Hopper
Dennis Hopper
Dennis Lee Hopper (* 17. Mai 1936 in Dodge City, Kansas; † 29. Mai 2010 in Los Angeles, Kalifornien) war ein US-amerikanischer Schauspieler und Regisseur. Als Regisseur inszenierte er unter anderem den einflussreichen Kultfilm Easy Rider (1969), in dem er auch eine der Hauptrollen übernahm. In seinen Rollen in Filmen wie Apocalypse Now, Der amerikanische Freund, Blue Velvet und Speed verkörperte er insbesondere unangepasste oder gewalttätige Außenseiter. Leben Dennis Hopper wuchs auf einer Farm in Dodge City, Kansas auf, bevor er mit seinen Eltern nach San Diego zog. Dort ermutigte ihn die Schauspielerin Dorothy McGuire Mitte der 1950er Jahre, nach Hollywood zu gehen und sein Glück im Filmgeschäft zu suchen. Schauspieler und Regisseur Nach einigen Auftritten im Fernsehen wurde er von Warner Brothers unter Vertrag genommen. Zwei seiner ersten Filmrollen hatte er in den James-Dean-Klassikern …  denn sie wissen nicht, was sie tun und Giganten. Dean zählte auch privat zu seinen Freunden; sie beide verband die Leidenschaft für schnelle Autos und Motorräder. Da Hopper jedoch als stur und unbelehrbar galt, wurden ihm kaum Hauptrollen angeboten. Er besuchte die Lee-Strasberg-Schule The Actors Studio und trat in einigen Western in Nebenrollen auf. Über den B-Movie-Regisseur Roger Corman lernte er Peter Fonda kennen und freundete sich mit ihm an. 1969 drehten die beiden mit einem Budget von rund 400.000 US-Dollar das Roadmovie Easy Rider. Der Film wurde zum Kultfilm der Hippie-Bewegung und schließlich zur Legende, ebenso der berühmte Titelsong Born to Be Wild. Ein Grund dafür war, dass er sich grundlegend von allem unterschied, was man bis dahin im Kino gesehen hatte. Easy Rider passte in kein Schema, wirkte nicht angestaubt, sondern frisch – New Hollywood war geboren und hatte mit Dennis Hopper, Peter Fonda und Jack Nicholson drei seiner ersten Helden gefunden. Hopper galt weiterhin als Exzentriker. Mit seiner nächsten Regiearbeit The Last Movie gewann er 1971 bei den Filmfestspielen in Venedig den Kritikerpreis für den besten Film, doch in den USA erhielt der Film viele schlechte Kritiken und kam an den Kinokassen nicht an. Da er durch seine Eigenwilligkeit mit den meisten Regisseuren in Konflikt geriet, stand er lange Zeit auf einer so genannten Schwarzen Liste. In den 1970er und 1980er Jahren hatte er aus diesem Grund kommerziell kaum einen Erfolg, mit Ausnahme seiner Nebenrolle als Journalist im preisgekrönten Meilenstein der New-Hollywood-Ära Apocalypse Now (1979). Dennis Hopper drehte viel in Europa und arbeitete u.  a. mit dem deutschen Regisseur Roland Klick für den Film White Star zusammen. Wim Wenders holte ihn für Der amerikanische Freund u. a. zusammen mit Bruno Ganz und Lisa Kreuzer vor die Kamera. 1986 erregte Hopper Aufsehen in der Rolle eines Sadisten in David Lynchs Blue Velvet. 1988 erreichte er mit seiner Regiearbeit Colors – Farben der Gewalt erstmals seit Easy Rider wieder ein breiteres Publikum. Nach einem längeren Aufenthalt in einer Therapieeinrichtung wegen seines hohen Drogen- und Alkoholkonsums zog er von Texas zurück nach Los Angeles. In den folgenden Jahren war er in mehreren Hollywoodproduktionen zu sehen – meist in Nebenrollen. Einer seiner bekanntesten Filme aus den 1990er Jahren ist Speed, in dem er den psychopathischen Verbrecher Howard Payne spielt, der einen Bus in die Luft jagen will. Doch das ist nur eines von fast 50 Projekten, an denen Hopper in den 1990er Jahren mitwirkte. Insgesamt hat er über 140 Filme gedreht. Der deutsche Synchronsprecher von Hopper war seit 1976 Joachim Kerzel. TV-Werbung In der TV-Werbung fährt Hopper einen Ford Cougar und wird von einem Motorradfahrer „sich selbst“ überholt, eine Szene aus dem Easy Rider Film. Fotografie und Malerei Zwei seiner größten Leidenschaften neben der Schauspielerei waren die Fotografie und die Malerei. Seine Werke wurden weltweit ausgestellt. Seine Fotografien aus der Zeit von 1961 bis 1967 wurden erstmals in Europa unter dem Titel Dennis Hopper: The Lost Album vom Berliner Martin-Gropius-Bau im Herbst 2012 ausgestellt. Es sind Aufnahmen, die Hopper an verschiedenen Orten in den USA machte. Sie zeigen sowohl Alltagssituationen als auch Prominente der 1960er Jahre wie z. B. Paul Newman, Phil Spector, Jane Fonda, Ike & Tina Turner, Andy Warhol und Martin Luther King auf dem Marsch von Selma nach Montgomery. Teilweise waren die Fotografien bereits in Zeitschriften wie Vogue oder Artforum veröffentlicht worden. Dem bildenden Künstler Dennis Hopper widmete das Museum of Contemporary Art, Los Angeles (MOCA) 2010 eine Ausstellung: „Dennis Hopper Double Standard“. Die Ausstellung wurde von Julian Schnabel kuratiert, der Hopper ein künstlerisches Vorbild nennt. Hopper war seit den 1960er Jahren auch als Kunstsammler tätig, Siebdrucke und Bilder von befreundeten Künstlern der Pop-Art waren seine ersten Ankäufe. Im November 2010 und Januar 2011 wurden große Teile seiner Kunstsammlung im New Yorker Auktionshaus von Christie’s zu Gunsten seiner Erben versteigert. Privatleben Hopper war fünfmal verheiratet: mit Brooke Hayward (1961–1969), Michelle Phillips (31. Oktober 1970 – 8. November 1970), Daria Halprin (1972–1976), Katherine LaNasa (1989–1992) und Victoria Duffy (1995–2010). Er hatte vier Kinder von vier verschiedenen Frauen. Tod Hopper starb am 29. Mai 2010 mit 74 Jahren in seinem Haus in Venice an den Folgen von Prostatakrebs. Er wurde in Taos, New Mexico, beerdigt. An diesem Ort und dessen Umgebung entstanden weite Teile des Kultfilms Easy Rider. Auszeichnungen (Auswahl) Ehrungen 2008: Ordre des Arts et des Lettres (Commandeur) Filmpreise und Nominierungen 1970: Oscar-Nominierung in der Kategorie „Best Writing, Story and Screenplay Based on Material Not Previously Published or Produced“ für Easy Rider, 1987: Oscar-Nominierung als bester Nebendarsteller für seine Rolle in Freiwurf 1969: Internationale Filmfestspiele von Cannes: Bestes Erstlingswerk und Nominierung für die Goldene Palme als bester Film (Easy Rider) 1970: Directors Guild of America: Nominierung in der Kategorie „Beste Regie“ (Easy Rider) 1970: Étoile de Cristal: Bester ausländischer Darsteller (Easy Rider) 1970: Laurel Awards: 5. Platz in den Kategorien „Bestes Filmdrama“ und „Bester Nachwuchsdarsteller“ (Easy Rider) 1970: National Society of Film Critics Awards: Spezialpreis (Easy Rider) 1970: Writers Guild of America: Nominierung in der Kategorie „Bestes Original-Filmdrama“ (Easy Rider) 1971: Kinema Junpo Awards: Bester ausländischer Film (Easy Rider) 1998: Aufnahme in das National Film Registry 1995: MTV Movie Award für seine Darstellung des Bösewichts in Speed 1995: Goldene Himbeere für seine Darstellung in Waterworld 2010: Stern auf dem Hollywood Walk of Fame (6712 Hollywood Boulevard), Kategorie Film Filmografie (Auswahl) Als Schauspieler Als Regisseur Fotoausstellungen 2010: Dennis Hopper Double Standard. In: Museum of Contemporary Art, Los Angeles (MOCA), 11. Juli 2010 – 26. September 2010. 2012: The Lost Album. In: Martin-Gropius-Bau, Berlin, 20. September – 19. Dezember 2012. Literatur Mark Rozzo: Everybody Thought We Were Crazy: Dennis Hopper, Brooke Hayward, and 1960s Los Angeles. Ecco, New York 2022, ISBN 978-0-06-293997-5. Tom Folsom: Dennis Hopper. Die Biografie. Mit 14 Schwarzweiß-Bildern. Karl Blessing, München 2013, ISBN 978-3-89667-497-5. Dennis Hopper: The Lost Album. Vintage Prints from the Sixties. Prestel Verlag, München 2012, ISBN 978-3-7913-5245-9 (englisch). Dokumentarfilm Dennis Hopper: Uneasy Rider. Dokumentarfilm, Deutschland, 2016, 55:04 Min., Buch und Regie: Hermann Vaske, Produktion: Emotional Network, ZDF, arte, NTR. Erstsendung: 21. August 2016 bei arte, Inhaltsangabe von ARD. Weblinks Dennis-Hopper-Biografie bei Who’s Who auf film-zeit.de Georg Seeßlen: Dennis-Hopper-Ausstellung: Das Leben ergreifen. In: Die Zeit, 13. September 2012 Einzelnachweise Filmschauspieler Filmregisseur Fotokünstler Darstellender Künstler (Vereinigte Staaten) Träger des Ordre des Arts et des Lettres (Komtur) US-Amerikaner Geboren 1936 Gestorben 2010 Mann
1045
https://de.wikipedia.org/wiki/Deutsches%20Rotes%20Kreuz
Deutsches Rotes Kreuz
Das Deutsche Rote Kreuz e. V. (DRK) ist die nationale Rotkreuz-Gesellschaft in Deutschland nach den Genfer Abkommen und als solche Teil der Internationalen Rotkreuz- und Rothalbmond-Bewegung mit Hauptsitz in Berlin. Das DRK hat mehr als drei Millionen Mitglieder. Das DRK ist – als einer der großen Wohlfahrtsverbände in Deutschland – Spitzenverband der Freien Wohlfahrtspflege. Grundsätze Das Deutsche Rote Kreuz handelt nach den Sieben Grundsätzen der Internationalen Rotkreuz- und Rothalbmondbewegung. Die Grundsätze wurden von der XX. Internationalen Rotkreuzkonferenz 1965 in Wien proklamiert. Die sieben Grundsätze sind: Menschlichkeit Unparteilichkeit Neutralität Unabhängigkeit Freiwilligkeit Einheit Universalität Aufgaben und Selbstverständnis Zivil- und Katastrophenschutz Das Rote Kreuz beteiligt sich in Deutschland am Zivil- und Katastrophenschutz, indem es Personal aus den örtlichen Bereitschaften sowie Fahrzeuge und Material stellt. Im Katastrophenfall hat sich das DRK verpflichtet, alle verfügbaren Helfer und alles Material einzusetzen, also nicht nur die von Bund und Ländern zugewiesenen Fahrzeuge/Material. Die Ausbildungen in den Rotkreuz-Bereitschaften umfassen neben den Ausbildungen für Zwecke wie Blutspende- und Sanitätswachdienste auch Ausbildungen, die dem Katastrophenschutz zuzuordnen sind, diese gliedern sich in eine umfassende Grundausbildung und eine spezielle Fachdienstausbildung. Die Mitarbeit im Katastrophenschutz ist landesspezifisch unterschiedlich. So gibt es zum Beispiel Hilfszüge, die regional aufgestellt sind, Einsatzeinheiten, die kreisweit aufgestellt sind, sowie diverse Schnelleinsatzgruppen, die sich zum Teil nur aus örtlichen Kräften, zum Teil aber auch regional zusammensetzen. All diese Einheiten sind jedoch bundesweit sowie in EU-grenznahen Gebieten auch international einsetzbar. Wohlfahrts- und Sozialarbeit Das Deutsche Rote Kreuz ist anerkannter Spitzenverband der Freien Wohlfahrtspflege und mit seinen Einrichtungen, Angeboten und Diensten bundesweit in allen Feldern der Wohlfahrts- und Sozialarbeit sowohl mit ehrenamtlich als auch hauptamtlich Tätigen aktiv. Das DRK nimmt in seiner anwaltschaftlichen Funktion die Interessenvertretung der schwächsten und verletzlichsten Bevölkerungsgruppen (most vulnerable) wahr. Selbstanspruch In allen Feldern der Wohlfahrts- und Sozialarbeit ist das DRK aufgrund seines Selbstverständnisses und seiner Grundsätze verpflichtet, seine ihm in Form von Spenden oder öffentlichen Zuwendungen zur Verfügung gestellten Mittel wohlfahrtspflegerisch effektiv und wirtschaftlich effizient einzusetzen. Dies erfordert eine permanente Anpassung seiner Strukturen und Prozesse an aktuelle Anforderungen und Bedingungen sowie die Entwicklung eigener Konzepte, die zu erwartende soziale und gesellschaftliche Veränderungen antizipieren und das DRK auf neue Herausforderungen vorbereiten. Die DRK-Wohlfahrts- und Sozialarbeit setzt das sozialstaatliche Subsidiaritätsprinzip fort, indem es – soweit es möglich ist – Hilfe zur Selbsthilfe leistet und damit Selbstständigkeit und Verantwortung fördert. Aufgaben Die Wohlfahrts- und Sozialarbeit des DRK setzt die Aufgaben um, die sich das DRK in seiner Satzung gestellt hat, namentlich die Verhütung und Linderung menschlicher Leiden, die sich aus Krankheit, Verletzung, Behinderung oder Benachteiligung ergeben; die Förderung der Gesundheit, der Wohlfahrt und der Bildung; die Förderung der Arbeit mit Kindern und Jugendlichen; die Verbreitung von Kenntnissen über das humanitäre Völkerrecht und über die Grundsätze und Ideale der Internationalen Rotkreuz- und Rothalbmondbewegung. Ergänzend wirkt die Wohlfahrts- und Sozialarbeit des DRK auf die Zielerreichung der aktuellen DRK-Strategie „Menschen helfen, Gesellschaft gestalten“ hin. Auf der Bundesebene werden in enger Kooperation mit den neunzehn DRK-Landesverbänden sowie dem Verband der Schwesternschaften vom Deutschen Roten Kreuz alle Fragen der Sozial- und Wohlfahrtsarbeit des DRK analysiert und bearbeitet sowie alle damit verbundenen Aufgaben wahrgenommen: die anwaltschaftliche Interessenvertretung auf Bundesebene und gegenüber der EU die Beratung der DRK-Mitgliedsverbände und die Qualifizierung der Führungs- und Fachkräfte durch Angebote der Fort- und Weiterbildung die Erschließung und Einwerbung von Finanzmitteln aus den Haushalten der EU und des Bundes sowie von Dritt- und Eigenmitteln zur Finanzierung von Daueraufgaben und innovativen Pilotprojekten die Gewährleistung, dass alle Angebote des DRK mit den Gemeinden und anderen Institutionen kooperieren, da diese Teil des sozialen Nahraums sind. Dadurch wird auch sichergestellt, dass die örtlichen Ressourcen genutzt, frühzeitig Handlungsbedarf erkannt und bedarfsgerechte Hilfen angeboten werden. Vertretung des DRK in der Bundesarbeitsgemeinschaft der Freien Wohlfahrtspflege, im Deutschen Verein für öffentliche und private Fürsorge und in vielen weiteren Fachverbänden. Fachlich ist die Wohlfahrts- und Sozialarbeit dem Bereich Jugend und Wohlfahrtspflege zugeordnet und untergliedert sich in die Arbeitsgebiete: Kinder-, Jugend- und Familienhilfe Altenhilfe und Gesundheitsförderung Wohlfahrtspflege und soziales Engagement Migration, Interkulturelle Öffnung und Inklusion Deutsches Jugendrotkreuz Kinder-, Jugend- und Familienhilfe Die Kinder-, Jugend- und Familienhilfe ist Teil der Wohlfahrts- und Sozialarbeit des DRK. Das DRK ist in allen Feldern der Kinder-, Jugend- und Familienhilfe aktiv. Als auf Bundesebene zusammengeschlossener Verband der Freien Wohlfahrtspflege ist das DRK anerkannter Träger der freien Jugendhilfe gemäß SGB VIII. Das DRK nimmt auf Bundesebene die zentralen Aufgaben im Bereich des Kinder- und Jugendplan des Bundes und der Familienförderung wahr und regt mit bundesweiten Modellprojekten fachliche Entwicklungen an. In der Kinder-, Jugend- und Familienhilfe stellt das DRK 1.406 Kindertageseinrichtungen mit 101.012 Mädchen und Jungen 70 Einrichtungen zur Heimerziehung für 2.000 Kinder und Jugendliche und für ca. 5.000 Kinder und Jugendliche Ambulante Hilfen zur Erziehung 50 Schwangeren- und Familienberatungsstellen, mit jährlich 70 000 beratenen Ratsuchenden Angebote der Familienbildung für jährlich 45.000 Mütter und Väter 200 Einrichtungen der Jugendsozialarbeit in Schulen, Jugendhäusern, in der Jugendberufshilfe oder als Streetwork Altenhilfe und Gesundheitsförderung Die Altenhilfe und die Gesundheitsförderung sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene wird die Altenhilfe sowie die Gesundheitsförderung strategisch weiterentwickelt, fachpolitische Stellungnahmen und Grundsatzpositionen erarbeitet und bewertet sowie die Mitgliedsverbände bei der Umsetzung unterstützt. In der Altenhilfe vereint das DRK mehr als 500 stationäre Pflegeeinrichtungen mit rund 40.000 Plätzen mehr als 500 ambulante Pflegedienste 532 Hausnotruf-Dienste 370 Mahlzeitendienste 35 Altenpflegeschulen Wohlfahrtspflege und soziales Engagement Die Grundlagen der Wohlfahrtspflege, das soziale Ehrenamt und die Freiwilligendienste sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene werden Grundsatzthemen der Wohlfahrtsarbeit auf nationaler und europäischer Ebene bearbeitet und bewertet. Zudem werden die Mitgliedsverbände bei der Gewinnung und beim Einsatz von Freiwilligen und Ehrenamtlichen beraten. Im Bereich der Freiwilligendienste stellt das DRK bereit: rund 11.500 Plätze im Freiwilligen Sozialen Jahr rund 2.800 Plätze im Bundesfreiwilligendienst rund 430 Plätze in den Internationalen Freiwilligendiensten In der Wohlfahrts- und Sozialarbeit engagieren sich mehr als 20.000 Menschen ehrenamtlich, vor allem für Kinder, für geflüchtete Menschen, für ältere Menschen und Menschen in sozialen oder persönlichen Notlagen. Sie leisten ehrenamtliche Hilfe, indem sie sich zum Beispiel in der Kindertagesbetreuung, in Besuchsdiensten oder Kleiderläden engagieren, Flüchtlinge willkommen heißen und sie darin unterstützen, sich im Alltag zurechtzufinden, Gymnastik, Tanzen, Yoga, Wassergymnastik und Tagesausflüge anbieten und damit über 300.000 Menschen wöchentlich erreichen, Menschen in ihrem letzten Lebensabschnitt begleiten, Menschen mit Demenz in Gruppen oder zu Hause betreuen, junge Eltern durch Babysitterdienste entlasten, als Paten bildungsbenachteiligte Jugendliche beim Übergang von der Schule in den Beruf unterstützen und Selbsthilfegruppen leiten. Migration, Interkulturelle Öffnung und Inklusion Dienstleistungen und Angebote im Bereich der Migration, der Interkulturellen Öffnung und der Inklusion sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene arbeitet das DRK für und mit sozial benachteiligten Menschen, Menschen mit Behinderungen und Menschen mit Migrationshintergrund, um Chancengerechtigkeit sowie die Wertschätzung von Vielfalt und Individualität zu fördern. An Menschen mit Migrationshintergrund wendet sich das DRK außerdem mit: vielfältigen Integrationsprojekten vor Ort, Maßnahmen zur Interkulturellen Öffnung des Verbandes werden an mehr als 65 Standorten umgesetzt, In mehr als 150 Beratungsstellen für Migranten, Flüchtlinge und Rückkehrer erfolgten mehr als 30.000 Beratungen pro Jahr. Für Menschen mit Behinderung bietet das DRK: 172 Wohnheime und Wohngemeinschaften mit rund 5.300 Plätzen, 35 Familien unterstützende Dienste, die rund 8.500 behinderte Menschen und ihre Familien beraten, 28 Werkstätten für behinderte Menschen mit rund 11.300 Plätzen sowie 27 Tagesförderstätten für Menschen mit besonders hohem Unterstützungsbedarf mit rund 550 Plätzen, 32 Betreuungsvereine, die ca. 1.300 Menschen betreuen, nahezu flächendeckende Transportleistungen. Für Menschen in persönlicher und sozialer Notlage hält das DRK bereit: 230 Kleiderläden und 600 Kleiderausgabestellen, 50 Möbelausgabestellen, 100 Notunterkünfte und Heime für obdachlose Menschen. Jugendrotkreuz Das Jugendrotkreuz ist der selbstverantwortliche Jugendverband im Deutschen Roten Kreuz und hat ca. 110.000 Mitglieder von 6 bis 27 Jahren in rund 5.500 Gruppen bundesweit unterhält Schulsanitätsdienste an mehr als 2.500 Schulen engagiert sich für Gesundheit, soziale Gerechtigkeit, Frieden, internationale Völkerverständigung und Umweltschutz Krankenpflege Der Verband der Schwesternschaften (VdS) ist zuständig für alle Fragen der beruflichen Kranken- und Kinderkrankenpflege sowie deren Ausbildung im DRK. Große Träger von Krankenhausgesellschaften sind zum Beispiel die DRK-Schwesternschaft vom Bayerischen Roten Kreuz, die DRK-Schwesternschaft Berlin sowie die DRK-Landesverbände Rheinland-Pfalz, Mecklenburg-Vorpommern, Schleswig-Holstein und Thüringen. DRK-Suchdienst Im Mai 1945, als der Zweite Weltkrieg und im Flensburger Vorort Mürwik auch die Herrschaft des Nationalsozialismus endete, gründeten die Wehrmachtsoffiziere Helmut Schelsky und Kurt Wagner, die mit ihren Truppen von Ostpreußen über die Ostsee nach Flensburg gelangt waren, in der Fördestadt einen Suchdienst. Sie taten sich mit Joachim Leusch von der Seetransport-Leitstelle des Marine-OK Ost und zwei Mitarbeitern der Flüchtlingsleitstelle Kiel zusammen und eröffneten in der Großen Straße ein „DRK, Flüchtlingshilfswerk, Ermittlungsdienst, Zentral Suchkartei“. — Der DRK-Suchdienst entstand damit in einer Zeit, als das DRK durch die Besatzungsmächte aufgelöst war. Erst im Jahr 1952 wurde das DRK wieder in die Liga der Rotkreuz-Gesellschaften aufgenommen. Im September 1945 wurde der Flensburger Suchdienst nach Hamburg verlegt. Im Juni 1945 war auch in München ein Suchdienst entstanden. Der Hamburger und der Münchener Suchdienst wurden 1950 im DRK-Suchdienst für die Bundesrepublik zusammengeführt. Der Münchener Suchdienst befand sich in diesen Jahren in der Wagmüllerstraße, einer Querstraße zur Prinzregentenstraße, auf der Höhe des Gebäudekomplexes, welcher für den Luftgau Süd erstellt wurde. Kurt Wagner leitete den DRK-Suchdienst von 1946 bis 1976. Eine vordringliche Aufgabe des DRK-Suchdienstes war ausgebombte, vermisste, verschleppte, vertriebene Menschen wieder ihren Familien zuzuführen oder Heimstellen für Waisenkinder zu finden. Der Suchdienst erstellte außerdem Gutachten über das Schicksal von verschollenen deutschen Soldaten des Zweiten Weltkrieges, in denen auch die Kriegsverläufe in der Gegend und zum Zeitpunkt des Verschollenseins geschildert wurden. Ende 1957 gingen diese Vermisstenbildlisten in Druck, die schließlich 199 Bände (davon 187 mit 1,4 Millionen Namen und über 900.000 Bildern) umfassten. Dazu kamen noch 26 Bände über Zivilverschollene. Durch die etappenweise Öffnung und Freigabe von Archiven der östlichen Staaten können auch heute noch Schicksale geklärt werden. Mit der Deutschen Dienststelle (WASt) wird laufend zusammengearbeitet. Vom Verband der Heimkehrer, Kriegsgefangenen und Vermisstenangehörigen Deutschlands wurde 1955 eine Bild-Sammlung von 45.000 vermissten Personen übernommen. Vom 13. September 1948 bis 1963 wurde beim Hörfunksender RIAS eine Suchdienst-Verbindungsstelle in Zusammenarbeit mit dem Deutschen Roten Kreuz, Flüchtlingshilfswerk, Ermittlungsdienst, Zentral-Suchkartei (später DRK-Suchdienst), betrieben. Es wurden vom NWDR und RIAS fast 100.000 Meldungen durchgegeben, hierdurch konnten über 7.000 Personen zusammengeführt werden. Im Laufe der Jahre bis heute konnte der DRK-Suchdienst, der in Deutschland der älteste und größte seiner Art ist, in Millionen von Fällen helfen. Seit der Gründung konnten vom Suchdienst mehr als 16 Millionen Menschen zusammengeführt, mehr als 500.000 Kinderschicksale geklärt und weltweit rund 600.000 Menschen über den Verbleib von Angehörigen in Konflikten und Katastrophen benachrichtigt werden. Die Zentrale des DRK-Suchdienstes (Suchdienst-Leitstelle, Direktion des Amtlichen Auskunftsbüros (D/AAB)) hat heute ihren Sitz beim Generalsekretariat des Deutschen Roten Kreuzes in Berlin. Die Bearbeitung von Suchanfragen aus aller Welt und anderen mit der Aufgabenstellung verbundenen Anliegen wird – je nach Zuständigkeit – in den beiden Außenstellen (DRK-Suchdienst Hamburg und DRK-Suchdienst München) in Zusammenarbeit mit den DRK-Landes- und Kreisverbänden vorgenommen. Das heutige Spektrum des DRK-Suchdienstes umfasst im Wesentlichen die Aufgabenbereiche Einsatz in Großschadens- und Katastrophenfällen, Nachforschungen, Familienzusammenführung, Ausreisen sowie den Hilfs- und Beratungsdienst der Angehörigen, Vermissten und Verletzten. Im Jahr 2023 soll die Suche nach Vermissten des Zweiten Weltkriegs eingestellt werden, da aufgrund des größer werdenden zeitlichen Abstands immer weniger Anfragen eingehen. Verbreitungsarbeit Es ist eine Verpflichtung des DRK, für die Verbreitung des Wissens über das Humanitäre Völkerrecht, insbesondere die Genfer Konventionen mit ihren Zusatzprotokollen und den Grundsätzen und Idealen der Internationalen Rotkreuz- und Rothalbmond-Bewegung zu sorgen. Diese Verpflichtung ergibt sich aus: dem Gesetz über das Deutsche Rote Kreuz und andere freiwillige Hilfsgesellschaften im Sinne der Genfer Rotkreuz-Abkommen (DRK-Gesetz), § 2 Nr. 2, den Statuten der Internationalen Rotkreuz- und Rothalbmond-Bewegung, Artikel 3 (2) und der Satzung des Deutschen Roten Kreuzes, § 2 (2). Zur Durchführung dieser Aufgabe bestellen die Kreis- und Landesverbände Konventionsbeauftragte. Das DRK hat einen Fachausschuss Humanitäres Völkerrecht, der die Funktion des Deutschen Komitees zum Humanitären Völkerrecht wahrnimmt. Weitere Mittel der Verbreitungsarbeit sind juristische Konferenzen zu Themen des humanitären Völkerrechts, Schulungsangebote (z. B. DRK-Sommerkurs im Humanitären Völkerrecht) und Publikationen (z. B. CD-ROM-Handbuch Verbreitungsarbeit). Die Zusammenarbeit wird u. a. mit dem Institut für Friedenssicherungsrecht und Humanitäres Völkerrecht durchgeführt. Der Schauspieler Ludwig Trepte unterstützt seit August 2018 insbesondere die Verbreitungsarbeit des Deutschen Roten Kreuzes. Internationale Hilfe Nach dem Grundsatz der Universalität ist jede nationale Gesellschaft verpflichtet, nach den eigenen Möglichkeiten Hilfen in Notfällen auch an Schwestergesellschaften anzubieten. Die Koordination der internationalen Hilfen erfolgt über die Internationale Föderation der Rotkreuz- und Rothalbmondgesellschaften (IFRC) (Internationale Rotkreuz- und Rothalbmond-Bewegung) in Fällen von Naturkatastrophen bzw. durch das Internationale Komitee vom Roten Kreuz (IKRK) in Fällen von Kriegen und Konflikten. Beide Organisationen haben ihren Sitz in Genf. Die Zusammenarbeit vor Ort findet immer in engster Abstimmung mit der jeweiligen Landesgesellschaft und – darüber – den staatlichen Institutionen vor Ort statt. Durch ein System von geschulten Katastrophendelegierten, die sich nach Schadensfällen sofort ein eigenes Bild von der Lage machen, wird eine weltweit vernetzte, optimal auf die Bedürfnisse des betroffenen Landes abgestimmte Hilfe innerhalb weniger Stunden und Tage nach der Katastrophe sichergestellt. Das DRK ist in der Auslandshilfe eine der leistungsfähigsten Landesgesellschaften der Welt. Es beschäftigt durchschnittlich 150 Mitarbeiter in der Zentrale und in ca. 50 Einsatzorten über die ganze Welt. Hilfen werden als Prävention, in der Akutphase und im Wiederaufbau sowie in langfristigen Hilfe- und Entwicklungsprojekten geleistet. Das DRK bietet als Hilfe zur Selbsthilfe insbesondere Leistungen zum Aufbau und Stärkung lokaler Katastrophenschutz-Strukturen an. In der Akutphase ist das DRK neben der Lieferung praktisch aller benötigten Materialien spezialisiert auf die Massenaufbereitung von Wasser, Prävention von Krankheiten durch Sanitäranlagen und der medizinischen Hilfe. In sogenannten Emergency Response Units (ERU) werden ständig in leicht zu transportierenden Verpackungen alle hierzu notwendigen Materialien vorgehalten und können innerhalb von 24 Stunden zum Einsatz gebracht werden. Im Logistikzentrum Berlin-Schönefeld lagert beispielsweise Material zur Errichtung eines ganzen Krankenhauses, welches für die medizinische Versorgung von bis zu 250.000 Menschen ausgelegt ist, auf seinen nächsten Einsatz. Das DRK hat sich zudem auf den Wiederaufbau nach extremen Zerstörungen spezialisiert. Nach Katastrophen wie dem Tsunami, dem Erdbeben in Pakistan und ähnlichen Ereignissen ist es nicht nur Ziel, möglichst schnell Wohnungen, Schulen und Gesundheitsinfrastruktur wiederherzustellen. Genauso wichtig ist, dass die vom Unglück betroffenen Menschen unmittelbar in den Wiederaufbau einbezogen werden, um ihnen und ihren überlebenden Familienmitgliedern eine neue Lebensperspektive zu schaffen. Das DRK hat Ende des Jahres 2009 offiziell die Aufbauarbeit aus den Schäden des verheerenden Tsunamis in Südasien im Dezember 2004 für beendet erklärt. Alle erhaltenen Spenden in Höhe von über 135 Millionen € konnten vollständig umgesetzt werden. Gliederung und Aufbau Das DRK ist ein föderal gegliederter Mitgliederverband mit weitreichender rechtlicher Selbstständigkeit der Untergliederungen. Rechtsträger des Namens und des Zeichens „Deutsches Rotes Kreuz“ ist der DRK e. V. (Bundesverband). Die Bundessatzung regelt die Mitgliedschaft und daraus erwachsende Rechte und Pflichten im DRK. Die zweite Ebene sind die Landesverbände und der Verband der Schwesternschaften. In der dritten Organisationsstufe finden sich die Kreisverbände und die Schwesternschaften. Die unmittelbarste Verbindung zur Basis des DRK, den bedürftigen Menschen, den Ehrenamtlichen und den Mitgliedern, wird über die Ortsverbände hergestellt. Die persönlichen Mitgliedschaften (ca. 4 Mio. Mitglieder) bestehen auf den Ebenen der Orts- bzw. Kreisverbände. Rechtsform Das Deutsche Rote Kreuz e. V. (Bundesverband) ist ein eingetragener Verein. Der Sitz des Generalsekretariats ist seit dem 1990 gefassten Beschluss über die Verlegung Berlin. Die heute gültige Anerkennung als nationale Rotkreuz-Gesellschaft wurde nach der deutschen Wiedervereinigung und dem Beitritt der Landesverbände des ehemaligen DRK der DDR durch die Bundesregierung am 6. März 1991 und am 1. Mai 1991 durch das IKRK ausgesprochen. Die Mitgliedsverbände des DRK sind, bis auf das Bayerische Rote Kreuz (BRK), ebenfalls eingetragene Vereine. Gleiches gilt für deren unmittelbare Mitgliedsverbände. Ausgründungen von Aufgabenfeldern – zum Beispiel Blutspendedienste, Rettungsdienste, Altenpflegeheime und Krankenhäuser – aus den Vereinen wurden in Form von gemeinnützigen GmbHs vorgenommen. Eigentümer sind jedoch weiterhin die DRK-Vereine. Eine Ausnahme bildet das Bayerische Rote Kreuz, dem bereits im Jahr 1921 und nach dem Zweiten Weltkrieg am 27. Juli 1945 die Stellung einer Körperschaft des öffentlichen Rechts verliehen wurde. Das BRK ist insgesamt in einer Körperschaft des öffentlichen Rechts organisiert; die Bezirks- und Kreisverbände haben daher keine rechtliche Eigenständigkeit gegenüber dem Landesverband. Der Landesverband Hessen, der zunächst ebenfalls öffentlich-rechtliche Körperschaft war, hat diesen Status inzwischen abgelegt und den eines eingetragenen Vereins angenommen. Das DRK ist zwar eine Körperschaft privaten Rechts und seine internationale Dachorganisation wird als nichtstaatliche Organisation bezeichnet, doch nimmt das DRK die völkerrechtlich vorgegebenen Aufgaben der Nationalen Rotkreuzgesellschaft in Deutschland wahr. Damit ist es eine Mischung aus einer privaten und einer staatlichen Organisation. Am 5. Dezember 2008 hat der Deutsche Bundestag das Gesetz über das Deutsche Rote Kreuz und andere freiwillige Hilfsgesellschaften im Sinne der Genfer Rotkreuz-Abkommen (DRK-Gesetz) verabschiedet; mit der Verkündigung im Bundesgesetzblatt ist dieses Gesetz seit dem 11. Dezember 2008 in Kraft. Es löst ein aus dem Jahre 1937 stammendes DRK-Gesetz ab, das in den meisten Punkten überholt war. Das DRK-Gesetz beschreibt die Funktion des Deutschen Roten Kreuzes als „Nationale Gesellschaft des Roten Kreuzes auf dem Gebiet der Bundesrepublik Deutschland und freiwillige Hilfsgesellschaft der deutschen Behörden im humanitären Bereich“ und legt die gesetzlichen Pflichtaufgaben fest, die das DRK bundesweit zu erfüllen hat. Die Zuordnung weiterer Aufgaben durch Bundes- oder Landesgesetz bleibt ausdrücklich möglich. Schließlich sichert das Gesetz den Schutz des Zeichens des Roten Kreuzes und überträgt dem DRK das Recht auf Verwendung dieses Zeichens. Wichtig ist auch, dass in einem weiteren Paragrafen die Rechtsstellung und Aufgaben der Johanniter-Unfallhilfe und des Malteser-Hilfsdienstes geregelt werden, die ebenfalls Nationale Hilfsgesellschaften nach den Genfer Abkommen sind. Die Aufgaben von JUH und MHD nach dem Gesetz beschränken sich jedoch im Unterschied zu der umfassenden Rechtsstellung des DRK im humanitären Bereich auf die Ermächtigung zur Unterstützung des Sanitätsdienstes der Bundeswehr. Weggefallen ist nunmehr endgültig die häufig in der Vergangenheit umstrittene Befreiung des DRK von Gerichtsgebühren, wie sie sich aus dem alten DRK-Gesetz ergeben hatte; das neue DRK-Gesetz kennt keine vergleichbare Regelung mehr. Mitgliedsverbände Mitgliedsverbände im Deutsches Rotes Kreuz e. V. sind 19 Landesverbände: DRK-Landesverband Baden-Württemberg DRK-Landesverband Badisches Rotes Kreuz Bayerisches Rotes Kreuz KdöR DRK-Landesverband Berliner Rotes Kreuz DRK-Landesverband Brandenburg DRK-Landesverband Bremen DRK-Landesverband Hamburg DRK-Landesverband Hessen DRK-Landesverband Mecklenburg-Vorpommern DRK-Landesverband Niedersachsen DRK-Landesverband Nordrhein DRK-Landesverband Oldenburg DRK-Landesverband Rheinland-Pfalz DRK-Landesverband Saarland DRK-Landesverband Sachsen DRK-Landesverband Sachsen-Anhalt DRK-Landesverband Schleswig-Holstein DRK-Landesverband Thüringen DRK-Landesverband Westfalen-Lippe und der Verband der Schwesternschaften vom Deutschen Roten Kreuz (VdS) Mitglieder der Landesverbände sind wiederum ca. 480 Kreisverbände, Mitglieder des VdS sind 31 Schwesternschaften. Gemeinschaften Die Gemeinschaften des Deutschen Roten Kreuzes stellen die ehrenamtliche Basis der Hilfsorganisation dar. Die meisten aktiven Mitglieder des DRK sind in diesen organisiert. Als Gemeinschaften gelten die Bereitschaften, die Bergwacht, das Deutsche Jugendrotkreuz, die Wasserwacht, die Wohlfahrts- und Sozialarbeit. Es gibt im Deutschen Roten Kreuz auch zahlreiche weitere Formen der ehrenamtlichen Arbeit außerhalb der Rotkreuz-Gemeinschaften. Beispielsweise sind dies Arbeitskreise und Selbsthilfegruppen für Patienten oder die ehrenamtliche Mitarbeit im Hausnotruf oder Rettungsdienst. Mitgliedschaften Das DRK ist Mitglied der Soziallotterie Aktion Mensch. Finanzierung Die Leistungen des DRK werden im ideellen Bereich durch 440.000 freiwillige Helfer und im Bereich refinanzierter Leistungen durch 140.000 Mitarbeiter erbracht. Das DRK ist föderal aufgebaut: Alle 480 Kreisverbände, die Landesverbände, und der Bundesverband sind rechtlich selbstständig, arbeiten jedoch mit Satzungen, die Kontrollen und in besonderen Fällen Eingriffe der jeweils oberen Ebene ermöglichen. Aus diesem Grund existiert keine zusammengefasste Bilanz, aus der alle wichtigen Zahlen sofort erkennbar sind. Ab einer bestimmten Größenordnung der Umsatzerlöse ist die Untergliederung zur Prüfung durch den Wirtschaftsprüfer verpflichtet. Die Jahresabschlüsse müssen in jedem Fall bei dem Aufsicht führenden Verband (Landes- oder Bundesverband) eingereicht werden. Aufgrund der gesetzlichen Veröffentlichungspflichten können die Bilanzen der DRK-GmbHs, einschließlich der Blutspendedienste, im elektronischen Bundesanzeiger direkt eingesehen werden. Die Umsatzerlöse der Blutspendedienste betragen ca. 500 Millionen Euro (siehe Bundesanzeiger), der erzielte Umsatz der DRK-Rettungsdienste beträgt bundesweit mehr als 700 Millionen Euro. Die Gesamtumsätze werden auf etwa 4,5 Mrd. Euro geschätzt. Die Finanzierung der Leistungen des DRK lässt sich grob wie folgt darstellen: Finanzierung des ideellen Bereichs Zu den ideellen Aufgaben zählen zum Beispiel Vorhaltungen für den Katastrophenschutz, die Ausbildungen von Freiwilligen und die Koordination der ehrenamtlichen Arbeit, die Arbeit des Jugendrotkreuzes mit 100.000 jugendlichen Mitgliedern, Ausstattungen für die Freiwilligenarbeit, Katastropheneinsätze im In- und Ausland, Projekte für Menschen in besonderen Notsituationen, die nicht durch staatliche Fürsorge abgedeckt ist. Hierfür erhält das DRK auf Ebene der Kreis- und Ortsverbände Mitgliedsbeiträge von seinen vier Millionen Mitgliedern. Darüber hinaus werden Spenden für diese ideelle Arbeit und insbesondere zweckgebunden zum Beispiel zur unmittelbaren Hilfe bei weltweiten Katastrophen eingeworben. Weiterhin werden hier für besondere Aufgaben wie zum Beispiel Spezialfahrzeuge des Katastrophenschutzes von Bund und Ländern Mittel zur Verfügung gestellt. Das DRK Generalsekretariat in Berlin wurde für seine sparsame und satzungsgemäße Verwendung der Spendengelder mit dem DZI Spenden-Siegel ausgezeichnet. Refinanzierte Leistungen Unter refinanzierten Leistungen sind alle Leistungen zu verstehen, die sich aus dem Sozialgesetzbuch und aus einem sonstigen Leistungsaustausch ergeben. Hierzu gehören Leistungen des Gesundheitswesens, die Pflegedienste, Kinder- und Jugendeinrichtungen, Einrichtungen und Dienste für Menschen mit Behinderungen, Sozialberatungsstellen, die Notfallrettung und die Sicherung der Blutversorgung. Finanziert werden diese Leistungen durch Leistungsentgelte (Beiträge und Pflegesätze) und öffentliche Zuwendungen bzw. staatliche Zuschüsse. Sie kommen von Krankenkassen, Pflegekassen, den Leistungsnehmern selbst – zum Beispiel Erste-Hilfe-Ausbildung – und dem Bund, den Ländern und Kommunen. Dabei gelten für alle privaten und gemeinnützigen Anbieter die gleichen Regeln. Für besondere Projekte – zum Beispiel für Menschen mit Behinderung – können zudem Zuwendungen von den Soziallotterien beantragt werden. Die Untergliederungen des DRK sind, wie alle gemeinnützigen Organisationen, insoweit von Ertragsteuern befreit. Geschichte Entwicklung bis 1921 Gemeinhin gilt als Ursprung der internationalen Rotkreuzbewegung die Schlacht von Solferino vom 24. Juni 1859 mit Henry Dunant als Vater der Idee. Bereits ebenfalls 1859 gründete die damalige badische Großherzogin Luise den badischen Frauenverein (siehe: Frauenverein) als Vorläufer der Rotkreuz-Schwesternschaften. In den Ländern des Deutschen Reichs erfolgte die Gründung von Rotkreuzgemeinschaften zunächst relativ unabhängig voneinander, meist auch unter anderem Namen. Am 12. November 1863 wurde der Württembergische Sanitätsverein als erste Nationale Rotkreuzgesellschaft auf dem Gebiet des späteren Reiches gegründet, als zweite folgte im Januar 1864 der Verein zur Pflege verwundeter Krieger im Großherzogtum Oldenburg. Ein Großteil der Arbeit des Roten Kreuzes wurde am Anfang vor allem von Frauen getragen (Vaterländischer Frauenverein). In Sachsen beispielsweise gründete nach dem Krieg von 1866 die sorbische Kaufmannsfrau Marie Simon unter dem Schutz der Prinzessin Carola den Verein der Albertinerinnen (benannt nach Carolas Mann, Prinz Albert), die später allmählich den Namen Rot-Kreuz-Schwestern annahmen. Wann die offizielle Umbenennung erfolgte, ist unklar, da die Bezeichnungen auch parallel auftauchen. Neben dem Hauptanliegen des Vereins, der Pflege verwundeter Soldaten, betätigten sich die Schwestern auch in der zivilen Krankenpflege. Als Dachorganisation gründeten zwölf Landesverbände am 20. April 1869 das Centralkomité der deutschen Vereine zur Pflege im Felde verwundeter und erkrankter Krieger, das ab Dezember 1879 den Namen Zentralkomitee der deutschen Vereine vom Roten Kreuz trug und seinen Sitz in Berlin hatte. Unter dem Dach des Roten Kreuzes wurden vom Deutschen Kriegerbund auch zusätzliche freiwillige sogenannte Sanitätskolonnen, von denen 1900 schon über 900 existierten, gegründet. Auf eine Anfrage aus Bayreuth hin erteilte um 1910 das Zentralkomitee die Auskunft, sozialdemokratische Gesinnung sei mit der Zugehörigkeit zur Freiwilligen Sanitätskolonne unvereinbar. Vorsitzender des Zentralkomitees während des Ersten Weltkrieges war General Curt von Pfuel. Das DRK in der Weimarer Republik Am 25. Januar 1921 wurde in Bamberg das Deutsche Rote Kreuz unter seinem ersten Präsidenten Joachim von Winterfeldt-Menkin gegründet, als eingetragener, rechtsfähiger Verein bürgerlichen Rechts und Dachorganisation der jeweiligen Landesvereine (Männer- und Frauenvereine) vom Roten Kreuz, deren Selbstständigkeit durch den Zusammenschluss nur marginal berührt wurde. Die Neuorganisation der deutschen Rotkreuzgesellschaften war notwendig geworden, um zahlreichen Angriffen von außen und innerorganisatorischen Problemen ein Konzept organisatorischer Geschlossenheit entgegenzusetzen. Insbesondere durch den Versailler Friedensvertrag vom 28. Juni 1919 waren die deutschen Rotkreuzvereine in eine ernste Krise gestürzt worden. Die darin angestrebte Abrüstung Deutschlands und die Entmilitarisierung des öffentlichen Lebens gefährdete die Existenz weiter Teile der Organisationen, deren vornehmliche Aufgabe bisher in der militärisch organisierten Vorbereitung auf den Kriegssanitätsdienst bestand. Die Satzung von 1921 versuchte, diesen Problemen Rechnung zu tragen und dem Deutschen Roten Kreuz eine internationale und vorwiegend auf Friedensaufgaben orientierte Legitimationsgrundlage zu geben. Dazu heißt es in Paragraph 2 allgemein: „Das Deutsche Rote Kreuz ist ein Glied der Weltgemeinschaft des Roten Kreuzes und betätigt sich als solches auf allen Arbeitsgebieten, deren Zweck die Verhütung, Bekämpfung und Linderung gesundheitlicher, wirtschaftlicher und sittlicher Not bildet“. Nach einer Aufzählung vorwiegend karitativer und wohlfahrtsorientierter Friedensaufgaben folgt erst als letzter Punkt die Verwundetenfürsorge, wobei auch hier in Bezug auf den § 25 der Völkerbundsakte die internationale Anbindung als nationale Rotkreuzgesellschaft betont wurde. Mit dieser Neuorientierung auf die Friedenstätigkeit und dem Beitritt zur Internationalen Liga der Rotkreuzgesellschaften konnte sich das Deutsche Rote Kreuz in der Weimarer Republik als Wohlfahrtsorganisation etablieren. Gleichzeitig blieb die traditionelle Aufgabe des Kriegssanitätsdienstes und die damit zusammenhängende militärische Organisationsstruktur beibehalten. Die nach 1918 propagierte Demilitarisierung des Roten Kreuzes fand jedoch nur oberflächlich statt und konnte jederzeit rückgängig gemacht werden. Ebenso überdauerten die traditionell monarchistisch-konservativ eingestellten Führungskräfte im Roten Kreuz. Das DRK während des Nationalsozialismus Die Zeit des Nationalsozialismus war im DRK geprägt von einer starken Verflechtung mit nationalsozialistischen Organisationen und Persönlichkeiten. Die Gleichschaltung des DRK begann kurz nach der sogenannten Machtergreifung im Jahre 1933. Personelle Veränderungen und neue juristische Grundlagen kündigten einen Wechsel im Selbstverständnis des DRK an. Am 29. November 1933 trat eine neue Satzung in Kraft. Der seit 1921 amtierende Präsident Joachim von Winterfeldt-Menkin kündigte bereits am 8. Juni 1933 seinen Rücktritt an, der zum 29. November gültig wurde. Unter seiner Präsidentschaft wurde das DRK als Mitglied in das Internationale Rote Kreuz – und somit nach dem Ersten Weltkrieg wieder in die internationale Gemeinschaft – aufgenommen. Allerdings wurden bereits auch jüdische Rot-Kreuz-Mitglieder ausgeschlossen, der Hitlergruß eingeführt und der Neutralitätsgrundsatz weitestgehend aufgegeben. Nachfolger wurde am 30. November 1933 der SA-Ehrenführer Carl-Eduard Herzog von Sachsen-Coburg und Gotha. Sein stellvertretender Präsident, der Chef des Sanitätswesens der SA, Paul Hocheisen, wurde bereits zu Beginn der Hitler-Diktatur vom Stellvertreter des Führers, Rudolf Heß, zum Kommissar für die Gleichschaltung des DRK bestellt. Hocheisen war es auch, der in der Folgezeit die eigentlichen Amtsgeschäfte führte. Eine weitere einschneidende Änderung erfuhr das Deutsche Rote Kreuz vier Jahre später durch die Ernennung des SS-Oberführers Ernst-Robert Grawitz zum stellvertretenden Präsidenten. Grawitz, der in seiner Funktion als Reichsarzt SS maßgeblich für die Euthanasie-Verbrechen und Menschenversuche in nationalsozialistischen Konzentrationslagern verantwortlich war, gestaltete das Deutsche Rote Kreuz im Sinne des ‚Führerprinzips‘ völlig um. Das Ergebnis war ein DRK-Gesetz, das am 9. Dezember 1937 erlassen wurde und auf dessen Grundlage Grawitz vom DRK-Schirmherrn, Adolf Hitler, zum geschäftsführenden Präsidenten berufen wurde. Mit der neuen Satzung vom 24. Dezember desselben Jahres band sich das DRK noch enger an den ‚Führer‘, den Staat und die NSDAP. Die neue zentralisierte Organisationsstruktur mit dem Präsidium an der Spitze ermöglichte zugleich eine noch effektivere Indienststellung des DRK für die Mobilmachung, die seit der Neuschaffung der Wehrmacht im Jahr 1935 zu einer der wichtigsten Aufgaben der Hilfsorganisation wurde. Bereits vor der Änderung der Satzung und dem Gesetz über das DRK wurde per Hausverfügung das Präsidium in Berlin umgestaltet; neben der Hauptadjudantur wurden sieben weitere Ämter gebildet: Führungsamt (I); Leitung: Ferdinand Berning Personalamt (II); Leitung Ferdinand Berning, Erich Kahle, Hermann Müller Verbindungsamt zur Reichsfrauenführerin (III); Leitung: Gertrud Scholtz-Klink Verwaltungsamt (IV); Leitung: Oswald Pohl u. a. Presse- und Werbeamt (V); Leitung: Otto Reiners Amt Schwesternschaften (VI); Leitung: Otto Stahl Amt Auslandsdienst (VII); Leitung: Walther Georg Hartmann Amt S: Der Sonderbeauftragte im Kriege (seit Kriegsbeginn 1939); Leitung: Felix Grüneisen Neben dem engen Verhältnis zur Partei wird spätestens ab 1938 eine starke, wenn auch weitgehend informelle Verbindung zur SS sichtbar, die sich vor allem in personellen Überschneidungen in führenden Positionen beider Organisationen bemerkbar macht. Von den 29 Mitgliedern der gesamten DRK-Führung waren 18 hohe SS-Führer. So fand neben dem Reichsarzt SS Ernst-Robert Grawitz der damalige Verwaltungschef SS, Oswald Pohl, dem ab 1942 die Konzentrationslager unterstanden, eine Nebentätigkeit als Generalbevollmächtigter für alle vermögensrechtlichen Angelegenheiten des DRK. In dieser Funktion konnte Pohl für die SS Kredite in Millionenhöhe bewilligen: DRK-Gelder, die über die SS-Spargemeinschaft e. V. unter anderem für die Gründung von Wirtschaftsunternehmungen an die SS flossen. Am 26. April 1945 besetzten sowjetische Truppen das DRK-Hauptlager und DRK-Präsidium in Babelsberg. Die SS-Führungsspitze war zu diesem Zeitpunkt bereits geflohen. Ernst-Robert Grawitz hatte sich drei Tage zuvor samt Familie in seiner Wohnung in die Luft gesprengt. Der Rest der DRK-Führung gründete ein vorübergehendes Komitee und versuchte bei den Alliierten ein Fortbestehen der Organisation zu erreichen. Der Leibarzt Heinrich Himmlers, Karl Gebhardt, behauptete später im Nürnberger Ärzteprozess, er habe in den letzten Tagen des Zweiten Weltkriegs als Präsident des Deutschen Roten Kreuzes amtiert, dies wurde nach Gebhardts Tod widerlegt. Er wurde trotz dieser Schutzbehauptung wegen Kriegsverbrechen und Verbrechen gegen die Menschlichkeit am 20. August 1947 zum Strang verurteilt und am 2. Juni 1948 gehängt. Das DRK nach 1945 Das DRK wurde am 19. September 1945 in der sowjetischen und in der französischen Besatzungszone am 3. Januar 1946 aufgelöst. In der amerikanischen Besatzungszone (heute der nördliche Teil von Baden-Württemberg, Bremen, Hessen und Bayern) konnte das DRK dagegen in seiner bisherigen Rechtsform der Körperschaft des öffentlichen Rechts weiterarbeiten, während in der britischen Zone und später auch in der französischen Zone DRK-Landesverbände als eingetragene Vereine neu gegründet wurden. Eine Ausnahme bildete zunächst das Saargebiet, wo das bisherige DRK unter der Bezeichnung Saarländischer Sanitäts- und Hilfsdienst (SSHD) seine Arbeit fortsetzte. Das Deutsche Rote Kreuz in der Bundesrepublik Deutschland e. V. als Bundesverband wurde am 4. Februar 1950 in Koblenz wiedergegründet. Am 26. Februar 1951 wurde es durch die deutsche Bundesregierung als nationale Rotkreuz-Gesellschaft der Bundesrepublik Deutschland anerkannt. Diese Anerkennung wurde mit Schreiben vom 27. September 1956, bedingt durch den Aufbau der Bundeswehr, neu gefasst. Die Anerkennung durch das IKRK erfolgte am 26. Juni 1952. Der Saarländische Sanitäts- und Hilfsdienst wurde nach der Eingliederung des Saargebietes in die Bundesrepublik Deutschland als Landesverband Saarland wieder Bestandteil des Deutschen Roten Kreuzes. In Bayern tritt das DRK als Bayerisches Rotes Kreuz auf. In Deutschland sind derzeit (Stand 2022) mehr als drei Millionen Mitglieder (aktiv/fördernd) und Mitarbeiter für das Rote Kreuz tätig. DRK in der DDR Das Deutsche Rote Kreuz der DDR wurde am 23. Oktober 1952 gegründet. Am 9. November 1954 erfolgte die Anerkennung als nationale Rotkreuz-Gesellschaft durch das IKRK und wenig später die Aufnahme in die Liga der Rotkreuz-Gesellschaften. Der Zentralausschuss und das Präsidium als die leitenden Organe hatten ihren Sitz in Dresden. Seine wichtigsten Aufgaben waren der Katastrophen- und Bevölkerungsschutz, die Verbreitungsarbeit, die Durchführung des Rettungsdienstes in Form der Schnellen Medizinischen Hilfe (SMH) und die Gesundheitserziehung. Bereits 1952 und 1953 wurde der Krankentransport in der DDR einheitlich geregelt. Ab Januar 1953 übernahm das DRK der DDR die Verantwortung für die Durchführung des Krankentransportes in der DDR. im Jahr 1961 waren in der DDR bereits 3561 Krankentransporteure beim DRK angestellt. Für den Bereich des Bevölkerungsschutzes unterstand das DRK dem Ministerium des Innern. Weitere Tätigkeitsfelder waren der Bereich der Pflege und Altenversorgung, das Blutspendewesen, der Suchdienst sowie die Wasser-, Berg- und Grubenrettungsdienste. Präsident des DRK der DDR von seiner Gründung bis 1981 war der Militärarzt Werner Ludwig. Das DRK in der DDR erfüllte neben den Aufgaben, die sich direkt oder indirekt aus der Tätigkeit als nationale Gesellschaft vom Roten Kreuz ergaben, darüber hinaus auch die einer Massenorganisation. Jeder größere Betrieb hatte ebenso wie Wohngebiete eine Grundorganisation des DRK, von denen es landesweit etwa 14.000 gab. Über den Grundorganisationen existierten Stadtbezirks-, Kreis- und Bezirkskomitees als weitere Organisationsebenen. DRK-Arbeit galt als „gesellschaftliche Tätigkeit“, sie wurde der beruflichen Arbeit gleich gewertet und man wurde für Ausbildungen und Einsätze teilweise bezahlt von der Arbeit freigestellt. Die Zahl der erwachsenen Mitglieder betrug Mitte der 1980er Jahre rund 650.000 Menschen. Daneben gab es die Form des unterstützenden Freundeskreises für Nicht-Mitglieder, die mit einem kleinen Monatsbeitrag die Arbeit der Organisation unterstützen konnten. Am Anfang der Mitgliedschaft stand die kostenlose Ausbildung zum Gesundheitshelfer (Erste Hilfe), wer wollte, konnte auch einen Kurs für häusliche Krankenpflege besuchen. Die Einsätze erfolgten bei Theater- und Konzertaufführungen, Großveranstaltungen vor allem im Sport, Krankenhäusern, Pflegeheimen oder beim DRK-Bahnhofsdienst. Es wurde eine kleine Entschädigung gezahlt. Das DRK der DDR hatte eine eigene Zeitschrift (Deutsches Rotes Kreuz). Als Vorbild galt Albert Schweitzer, aber auch die Tradition der Arbeitersamariter. Folgende Persönlichkeiten waren Präsident des Deutschen Roten Kreuzes der DDR: Deutsch-deutsche Rotkreuzgespräche und Wiedervereinigung Rotkreuz-Kontakte zwischen den beiden Rotkreuz-Gesellschaften hat es fortlaufend gegeben. Kurz nach Gründung des DRK der DDR suchte dessen Präsident Werner Ludwig Kontakt zu seinem westdeutschen Kollegen, dem DRK-Präsidenten Heinrich Weitz und schlug eine Zusammenarbeit der beiden deutschen Rotkreuzorganisationen vor. Ein erstes Treffen fand am 7. Juli 1954 statt. Zunächst konnte eine Zusammenarbeit im Bereich des DRK-Suchdienstes vereinbart werden. Zwischen den Jahren 1954 und 1957 gab es ca. 20 Zusammenkünfte zwischen beiden Gesellschaften. Trotz des Mauerbaus riss der Kontakt nicht ab, wenn er auch schwieriger wurde. So war das Rote Kreuz beider Staaten in Beratungen involviert, um das Passierscheinabkommen durchzuführen bzw. um Familienzusammenführungen zu erleichtern. Das DRK der DDR unterließ es aber auch nicht, zum Beispiel die westdeutsche Rotkreuzführung unter Präsident Hans Ritter von Lex und dessen Vizepräsidenten, Walter Bargatzky, zu verunglimpfen. Aber trotz deutlicher Abkühlung der deutsch-deutschen Rotkreuzgespräche, fanden weitere Treffen auf hochrangiger Ebene statt. Vielfach boten auch die Internationalen Rotkreuz-Konferenzen Möglichkeiten, sich zwischen den beiden Gesellschaften auszutauschen. Einen Jugendaustausch zwischen den beiden Jugendorganisationen gab es seit Anfang der 1980er Jahre. Eine erste Gruppe aus der DDR konnte im Jahr 1984 am Internationalen Erste-Hilfe-Turnier in Hamburg teilnehmen. Der Fall der Mauer brachte für beide Gesellschaften große Veränderungen mit sich. Die amtierenden Rotkreuz-Präsidenten, auf der westdeutschen Seite Botho Prinz zu Sayn-Wittgenstein-Hohenstein, auf der ostdeutschen Seite seit 7. April 1990 Christoph Brückner, arbeiteten vertrauensvoll und zukunftsweisend auf eine neue, gesamtdeutsche, Rotkreuzorganisation hin. Mit dem Vertrag über die Herstellung der Einheit des DRK vom 8. November 1990 und dem am 6. Oktober 1990 gefassten Beschluss der Hauptversammlung über die Auflösung des DRK der DDR zum 31. Dezember 1990 endete dessen Geschichte als Dachverband der Rotkreuzorganisationen in der DDR; die zuvor neugegründeten DRK-Landesverbände Berlin (Ost), Brandenburg, Mecklenburg-Vorpommern, Sachsen, Sachsen-Anhalt und Thüringen blieben jedoch bestehen. Auf einer gemeinsamen Bundesversammlung des DRK am 9. November 1990 wurden diese neuen Landesverbände mit Wirkung zum 1. Januar 1991 in das Deutsche Rote Kreuz der Bundesrepublik Deutschland aufgenommen. Präsidenten des DRK Generalsekretäre des DRK Quelle Bis zum Ende des Zweiten Weltkrieges Generalsekretäre des Roten Kreuzes in der DDR Generalsekretäre des DRK in der Bundesrepublik Deutschland Kritik Als Hauptkritikpunkt am Deutschen Roten Kreuz nach dem Zweiten Weltkrieg wird gesehen, dass die sehr stark föderale Struktur eine Kontrolle und Lenkung von oben nach unten deutlich erschwert. Dies begünstigt regelmäßig Skandale in Untergliederungen, zum Beispiel der „Blutbeutelskandal“ (1999) bei einem Blutspendedienst, bei dem bestechliche Führungskräfte überteuerte Medizinprodukte eingekauft hatten oder die von der Kreiszeitung Syke 2006 und von Monitor 2007 aufgedeckte Schwarzarbeit im Rettungsdienst. Auf der anderen Seite hat die föderale Struktur auch Vorteile, denn die Gliederung kann sich so besser auf die örtlichen Gegebenheiten einstellen. Diese Kritik sowie die Notwendigkeit, mit den regelfinanzierten Leistungen im Gesundheitswesen, in der Pflege und zunehmend im Bereich des Rettungsdienstes mit immer stärkeren Marktkräften Schritt halten zu können, war der Auslöser einer Neuorganisation. Unter dem Titel Strategie 2010plus wurden in einer im März 2009 neu gefassten Bundessatzung (Eintrag ins Vereinsregister 11/09) die Zuständigkeiten und die Eingriffsrechte der Ebenen Bund, Länder und Kreise neu geregelt und ein Managementsystem zur übergreifenden Umsetzung gemeinsamer Standards geregelt. Weitere Elemente der Neuorganisation sind die Trennung zwischen Aufsicht und Exekutive und die Herstellung von Transparenz auf allen Ebenen. Ziel ist die Konzentration auf die ideelle Ausrichtung und die Steuerungsfähigkeit des Gesamtverbandes. Weitere Einrichtungen Die Fachhochschule im Deutschen Roten Kreuz in Göttingen bestand von 2003 bis 2008 und bot die Studiengänge Sozialmanagement und Pflegemanagement an. Sie wurde wegen unsicherer Finanzierung eingestellt. Der Fachausschuss Humanitäres Völkerrecht berät das Präsidium des DRK. Siehe auch Rotkreuz-Orchester Ehrenzeichen des Deutschen Roten Kreuzes Flaggen des Deutschen Roten Kreuzes (1936–1945) Literatur Andrea Brinckmann: Beständig im Wandel. Die Geschichte des Roten Kreuzes in Hamburg von 1864 bis 1990. Edition Temmen, Bremen 2014, ISBN 978-3-8378-2029-4. Christian Johann (Hrsg.): DRK-Gesetz : Handkommentar. Nomos Verlagsgesellschaft, Baden-Baden 2019, ISBN 978-3-8487-1758-3. Ludwig Kimmle: Das Deutsche Rote Kreuz – Entstehung, Entwicklung und Leistungen der Vereinsorganisationen seit Abschluss der Genfer Convention i. J. 1864. Band I. Centralkomitee der Deutschen Vereine vom Roten Kreuz, Landesvereine vom Roten Kreuz. Berlin 1910. Heiner Lichtenstein: Angepaßt und treu ergeben. Das Rote Kreuz im „Dritten Reich“. Bund-Verlag, Köln 1988, ISBN 3-7663-0933-1. Klaus Mittermaier: Vermißt wird… – Die Arbeit des deutschen Suchdienstes. Links Verlag, Berlin 2002, ISBN 3-86153-256-5. Birgitt Morgenbrod, Stephanie Merkenich: Das Deutsche Rote Kreuz unter der NS-Diktatur 1933 bis 1945. Verlag Schöningh, Paderborn 2008, ISBN 978-3-506-76529-1. Dieter Riesenberger: Das Deutsche Rote Kreuz. Eine Geschichte 1864–1990. Verlag Ferdinand Schöningh, Paderborn 2002, ISBN 3-506-77260-0. Dieter Riesenberger: Das Deutsche Rote Kreuz, Konrad Adenauer und das Kriegsgefangenenproblem: die Rückführung der deutschen Kriegsgefangenen aus der Sowjetunion (1952–1955). Donat, Bremen 1994, ISBN 3-924444-82-X. Stefan Schomann: Im Zeichen der Menschlichkeit: Geschichte und Gegenwart des Deutschen Roten Kreuzes. Deutsche Verlags-Anstalt, München 2013, ISBN 978-3-421-04609-3. Horst Seithe, Frauke Hagemann: Das Deutsche Rote Kreuz im Dritten Reich (1933–1939). Mit einem Abriss seiner Geschichte in der Weimarer Republik. Mabuse-Verlag, Frankfurt am Main 2001, ISBN 3-925499-69-5. Ludger Tewes: Die Rotkreuz-Schwestern im Nationalsozialismus und im Zweiten Weltkrieg (1933–1945). In: Rotkreuzschwestern. Die Pflegeprofis. Menschlichkeit. Die Idee lebt. Hrsg. v. Verband der Schwesternschaften vom Deutschen Roten Kreuz e. V. Verlag Olms Hildesheim 2007, ISBN 978-3-487-08467-1, S. 97–122. Ludger Tewes: Rotkreuzschwestern Ihr Einsatz im mobilen Sanitätsdienst der Wehrmacht 1939–1945, (=Krieg in der Geschichte 93). Verlag Schöningh, Paderborn 2016, ISBN 978-3-506-78257-1. Kurt W. Böhme: Gesucht wird … Die dramatische Geschichte des Suchdienstes. München 1970. Weblinks Website des DRK (mit Links zu allen Untergliederungen) DRK-Wohlfahrtspflege Kinder-, Jugend- und Familienhilfe des DRK Suchdienst des Deutschen Roten Kreuzes Anmerkungen Einzelnachweise Nationale Rotkreuz-Gesellschaft Wohlfahrtsorganisation (Deutschland) Hilfsorganisation (Deutschland) Deutsche Organisation (Gesundheitswesen) Rotes Kreuz Verein (Bundesverband) Organisation mit DZI-Spenden-Siegel Gegründet 1921 Gegründet 1863 Ehrenamt (Deutschland)