id
stringlengths 1
7
| revid
stringlengths 1
9
| url
stringlengths 37
43
| title
stringlengths 1
247
| text
stringlengths 0
465k
|
---|---|---|---|---|
299 | 4115198 | https://de.wikipedia.org/wiki?curid=299 | Alexandre Dumas der Jüngere | Alexandre Dumas der Jüngere, auch "Dumas fils", (* 27. Juli 1824 in Paris; † 27. November 1895 in Marly-le-Roi) war ein französischer Romanschriftsteller und dramatischer Dichter. Er war der uneheliche Sohn von Alexandre Dumas dem Älteren und Marie-Catherine Labay, einer Näherin.
Leben.
Dumas schlug 17-jährig, nachdem er das Collège Bourbon verlassen hatte, die schriftstellerische Laufbahn mit dem Gedichtband "Péchés de jeunesse" („Jugendsünden“) ein. Er begleitete seinen Vater auf dessen Reise durch Spanien und Nordafrika und veröffentlichte nach seiner Rückkehr den sechsbändigen Roman "Histoire de quatre femmes et d’un perroquet" (1847), der die Neugierde des Publikums erregte.
In dem Roman "Die Kameliendame" ("La dame aux camélias", 1848) erzählt Dumas realitätsnah die Geschichte einer Pariser Kurtisane, die früh an der Schwindsucht stirbt.
In den beiden späteren Stücken "Diane de Lys" (1853) und "Le demi-monde" (1855) behandelt der Dichter fast dasselbe Thema, doch in wesentlich satirischerer Absicht und mehr, um nach Art des Komödiendichters seiner Zeit einen Spiegel vorzuhalten.
Dumas gilt als einer der Begründer des Gesellschaftsdramas und er setzte sich in fast allen seinen Stücken mit sozialen und gesellschaftlichen Problemen auseinander. Die Stellung der Frau nahm dabei eine besondere Rolle ein. So beschäftigte er sich mit den Rechten und Pflichten der Frau und den Fehlern der einschlägigen Gesetzgebung und gesellschaftlichen Anschauung im Roman "L’affaire Clémenceau" (1864) sowie in mehreren Flugschriften wie "Lettres sur les choses du jour", "L’homme-femme", "Tue-la!" "Les femmes qui tuent et les femmes qui votent" (1872–1880) und in der größeren Streitschrift "Le divorce" (1880).
Im Jahr 1875 wurde Dumas in die Académie française aufgenommen, 1894 wurde er Mitglied der Ehrenlegion.
Der als anspruchslos und hilfsbereit für seine Freunde geltende Dumas erfreute sich persönlich allgemeiner Beliebtheit. 1864 heiratete er Nadeschda Naryschkina von Knorring (1826–1895), mit der er zwei Töchter hatte. Nach Naryschkinas Tod 1895 heiratete er Henriette Régnier de La Brière und starb im selben Jahr am 27. November in Marly-le-Roi.
Werke.
"Die Kameliendame".
Dumas’ bekanntestes Werk ist der Roman "Die Kameliendame" ("La dame aux camélias") von 1848, der das Schicksal einer Pariser Kurtisane und ihres Verehrers schildert. Trotz Schwierigkeiten mit der Zensur war der Roman ein außergewöhnlicher Erfolg. Nach Umarbeitung des Werks zu einem Bühnenstück wuchs seine Popularität noch: Das 1852 im Théâtre du Vaudeville erstmals aufgeführte Werk erlebte ohne Unterbrechung mehr als 100 Aufführungen. 1853 übernahm Giuseppe Verdi das Thema für seine Oper "La traviata".
Die französische Schauspielerin Sarah Bernhardt spielte ab 1880 die "Kameliendame" in dem Bühnenstück und feierte damit in Europa und den USA große Erfolge. Das Stück zeichnete sich durch überaus scharfe Beobachtung der gesellschaftlichen Zustände, sichere Behandlung der dramatischen Form und einen lebendigen, prickelnden Dialog aus; aber nach damaliger Auffassung war die Verherrlichung und Rehabilitierung des Lasters moralisch bedenklich.
Im Jahr 1911 wurde Dumas’ "Kameliendame" mit Sarah Bernhardt in der Hauptrolle erstmals verfilmt. In einer weiteren Filmversion von Regisseur George Cukor spielte Greta Garbo 1936 die Hauptrolle. |
300 | 159012 | https://de.wikipedia.org/wiki?curid=300 | Dumas (Familienname) | Dumas ist ein französischer Familienname. |
301 | 878287 | https://de.wikipedia.org/wiki?curid=301 | Auge | Das Auge ( oder , ) ist ein Sinnesorgan zur Wahrnehmung von Lichtreizen. Es ist Teil des visuellen Systems und ermöglicht das Sehen. Die Aufnahme der Reize geschieht mit Hilfe von Fotorezeptoren, lichtempfindlichen Nervenzellen, deren Erregungszustand durch die unterschiedlichen Wellenlängen elektromagnetischer Strahlung aus dem sichtbaren Spektrum verändert wird. Bei Wirbeltieren werden die Nervenimpulse bereits in der Netzhaut beginnend bearbeitet und gelangen über die Sehnervenbahnen zum Sehzentrum des Gehirns, wo sie schließlich zu einer visuellen Wahrnehmung verarbeitet werden.
Die Augen von Tieren unterscheiden sich in Aufbau und Funktionalität teilweise erheblich. Ihre Leistungsfähigkeit ist eng an die Anforderungen für den jeweiligen Organismus angepasst. Auch die Anzahl der Augen ist ein evolutionäres Ergebnis der Lebensumstände. Manche Tiere, deren Orientierung weniger von visuellen Eindrücken bestimmt wird, benötigen lediglich eine grobe Unterscheidung von Hell und Dunkel, andere wiederum von Kontrast- und Bewegungsmustern. Höher entwickelte Augen dienen der kontrastreichen Bildwahrnehmung, deren Qualität mit der Fähigkeit steigt, Helligkeitsunterschiede sehr differenziert wahrzunehmen ("Minimum visibile"). Dies drückt sich wiederum in einer entsprechenden Sehschärfe ("Minimum separabile") aus, die bei Tag, Dämmerung oder Nacht sehr unterschiedlich sein kann. Wieder andere benötigen weniger ein kontrastreiches Sehen als vielmehr ein großes Gesichtsfeld oder eine differenzierte Farbwahrnehmung in verschiedenen Wellenlängenbereichen.
Mit dem Grad der visuellen Orientierung wächst die Leistungsfähigkeit des Sehsinns einer Lebensform – dies wird erreicht durch einen feineren anatomischen Aufbau und eine zunehmende Komplexität neuronaler Verknüpfungen, die der Bilderzeugung und der Bildverarbeitung dienen.
Etymologie.
Das gemeingermanische Wort „Auge“ beruht – über von – auf der indogermanischen Wurzel "oku̯-" „sehen; Auge“ (teils "okw-" geschrieben). Auch im lateinischen ist diese Wurzel enthalten, ebenso in den griechischen Wörtern und , wo sie durch Sprachumwandlung von "*okje" zu op-/oph- jedoch schwer zu erkennen ist.
Evolution des Auges.
Es gibt Schätzungen, dass Augen der verschiedensten Bauweisen im Laufe der Evolution etwa 40 mal neu entwickelt worden seien. Dennoch spielt das Pax-6-Gen sowohl bei den Tintenfischen als auch bei Säugetieren (Mäuse) sowie Insekten eine initiative Rolle bei der frühen Entwicklung der Augen. Bei der Fruchtfliege ("Drosophila melanogaster") hat das hierzu homologe Gen "eyeless" dieselbe Funktion. Deshalb liegt es nahe, dass all diese Augentypen einen gemeinsamen Ursprung haben. Orthologe von PAX-6 sind in vielen Chordatieren (stammesgeschichtlicher Ursprung im Präkambrium) zu finden. Fossilfunde belegen auch, dass es frühe Augen bereits vor 505 Millionen Jahren im Erdzeitalter Kambrium gab (z. B. das Lochkamera-Auge der Perlboote). Die ersten Linsen hatten Trilobiten in Facettenaugen vor 520 bis 500 Millionen Jahren.
Zentrale Eigenschaften.
Als Resultat einer visuellen Reizverarbeitung sind die Eigenschaften "Richtungssehen", "Sehschärfe", "Gesichtsfeld", "Farbsehen", "Formsehen" und "Bewegungssehen" zu nennen. Die Anforderungen der jeweiligen Lebensformen an diese Eigenschaften sind sehr unterschiedlich ausgeprägt. Zudem sind viele Spezies in der Lage, ihre Augen mit unterschiedlicher Präzision an verschiedene Objektentfernungen anzupassen (Akkommodation).
Richtungssehen.
Manche Augentypen sind auf Grund ihrer anatomischen und physiologischen Entwicklung lediglich in der Lage, die Richtung auszumachen, aus der Licht auf ihre Sinneszellen fällt. Diese Eigenschaft lässt eine nur geringe visuelle Orientierung zu, stellt jedoch gegenüber der bloßen Wahrnehmung von Hell und Dunkel eine höhere Differenzierungsmöglichkeit dar.
Sehschärfe.
Mit "Sehschärfe" wird die Fähigkeit eines Lebewesens bezeichnet, Konturen und Muster in der Außenwelt als solche zu erkennen. Ihre Qualität ist abhängig von:
Zur Quantifizierung hat man verschiedene Parameter definiert. Die Winkel-Sehschärfe (angulare Sehschärfe) ist das Auflösungsvermögen, bei dem zwei Sehobjekte noch als getrennt wahrgenommen werden ("Minimum separabile"). Die Auflösung von 1' (einer Bogenminute) entspricht einer Ortsauflösung von etwa 1,5 mm bei 5 m Abstand. Je kleiner die Winkel-Sehschärfe ist, desto besser ist die Sehschärfe. Die dimensionslose Eigenschaft Visus wird definiert, indem die Bezugsgröße 1' in Beziehung zur individuellen Winkel-Sehschärfe gesetzt wird.
Visus = 1' / (individuelle Winkel-Sehschärfe)
Je größer der Visus ist, desto besser ist die Sehschärfe. Beispiel: wenn eine Person Punkte erst bei einem Winkelabstand von 2' trennen kann, hat sie einen Visus von 0,5. Statt Winkel können auch Entfernungen bestimmt werden. Wenn man als Bezugsgröße den Abstand d wählt, bei dem man zwei Punkte unter einem Winkel von 1' sieht, dann ist:
Visus = individueller Abstand / d
Beispiel: wenn eine Person erst im Abstand von 6 m die Punkte getrennt sehen kann, die bei 12 m einen Winkelabstand von 1' haben, hat sie einen Visus von 6/12 = 0,5.
Gesichtsfeld.
Mit "Gesichtsfeld" bezeichnet man den Bereich des Außenraums, der bei ruhiger, gerader Kopfhaltung und geradeaus gerichtetem, bewegungslosem Blick mit unterschiedlicher Sensibilität visuell wahrgenommen werden kann. Man unterscheidet das monokulare Gesichtsfeld jeweils eines Auges von der Summe der Gesichtsfelder aller Augen eines Lebewesens. Sein Ausmaß wird in der Regel in der Einheit "Sehwinkelgrad" angegeben und unterscheidet sich je nach Lebewesen teils sehr deutlich. Beispiele des Ausmaßes eines horizontalen Gesichtsfeldes:
Farbsehen.
Die Farbwahrnehmung ist die Fähigkeit, elektromagnetische Wellen verschiedener Wellenlängen in ihrer Intensität zu unterscheiden. Diese Fähigkeit ist im ganzen Tierreich verbreitet. Das Absorptionsspektrum der wahrgenommenen und unterscheidbaren Wellenlängen charakterisiert artspezifisch die Qualität dieser Fähigkeit. Dazu muss das Wahrnehmungssystem mindestens zwei unterschiedliche Typen von "Lichtrezeptoren" besitzen, um die Zusammensetzungen des Lichts erkennen zu können.
Bauformen.
Die einfachsten „Augen“ sind lichtempfindliche Sinneszellen auf der Außenhaut, die als passive optische Systeme funktionieren. Sie können nur erkennen, ob die Umgebung hell oder dunkel ist. Man spricht hier von Hautlichtsinn.
Insekten und andere Gliederfüßer haben Augen, die aus vielen einzelnen Augen zusammengesetzt sind. Diese Facettenaugen liefern ein rasterartiges Bild (nicht mehrfache Bilder, wie man vermuten könnte).
Neben den beschriebenen Augentypen mit lichtbrechenden Linsen findet man in der Natur gelegentlich auch Spiegelaugen. In den Augen der Kammmuschel "(Pecten)" wird das Bild durch Hohlspiegel erzeugt, die hinter der Netzhaut angeordnet sind. Die direkt vor der Netzhaut liegende Linse dient der optischen Korrektur des stark verzerrten Spiegelbildes. Die Spiegel sind nach dem Prinzip von reflektierenden Glasplatten gebaut. Mehr als 30 Schichten aus feinsten Guanin-Kristallen liegen dicht gestapelt, jede Schicht in eine Doppelmembran eingeschlossen. Auch andere Tiere haben Spiegelaugen, unter anderem der Tiefseekrebs "Gigantocypris", der Hummer und die Langusten. Diese Form hat sich offenbar dort durchgesetzt, wo es weniger auf die Bildqualität und mehr auf die Lichtausbeute ankommt.
Beschatteter Photorezeptor.
Manche Lebewesen wie der Regenwurm besitzen am Körperende oder verstreut einzelne Lichtsinneszellen. Deren Lage relativ zum lichtabsorbierenden Körper des Wurms bestimmt die Richtungen des Lichteinfalls, für die diese Sinneszellen jeweils empfindlich sind. Dieses Prinzip ist bereits beim Einzeller Euglena verwirklicht: Der Photorezeptor liegt hier an der Basis der Geißel und wird durch einen pigmentierten Augenfleck einseitig beschattet. Das ermöglicht es der Zelle, sich zum Licht hin zu bewegen (Phototaxis).
Flachauge.
Quallen und Seesterne besitzen viele nebeneinander liegende Lichtsinneszellen, die innen an eine Schicht aus Pigmentzellen anschließen können. Die Konzentrierung der Sinneszellen in solchen Flachaugen verbessert die Hell-Dunkel-Wahrnehmung.
Pigmentbecherauge.
In Pigmentbecheraugen liegen die Sehzellen vom Licht abgewandt (inverse Lage) in einem Becher aus lichtundurchlässigen Pigmentzellen. Das Licht kann nur durch die Öffnung des Bechers eindringen, um die Sehzellen zu stimulieren. Da daher immer nur ein kleiner Teil der Sehzellen gereizt wird, kann neben der Helligkeit auch die Einfallsrichtung des Lichts bestimmt werden. Solche Augen besitzen unter anderem Strudelwürmer und Schnecken.
Grubenauge.
Das Grubenauge unterscheidet sich vom Pigmentbecherauge durch die dem Licht zugewandte (everse) Lage der Sinneszellen und dadurch, dass die Grube mit Sekret gefüllt ist. In der Grube bilden die Sehzellen eine Zellschicht, die innen an eine Schicht von Pigmentzellen anschließt. Es ist also eine Weiterentwicklung des Flachauges. Es ermöglicht auch die Bestimmung der Intensität und der Einfallsrichtung des Lichts.
Lochauge und Blasenauge.
Lochaugen oder Lochkameraaugen sind weiterentwickelte Grubenaugen und funktionieren nach dem Prinzip der Lochkamera. Aus der Grube wird eine blasenförmige Einstülpung, die Öffnung verengt sich zu einem kleinen Loch und der Hohlraum ist vollständig mit Sekret gefüllt. Durch die erhöhte Anzahl der Sehzellen in einem Sehzellenepithel (Netzhaut) ist nun auch Bildsehen möglich. Das Bild ist jedoch lichtschwach, klein und steht wie bei einer Camera obscura auf dem Kopf. Die Schärfe des Bildes auf der Netzhaut hängt von der Anzahl der erregten Sehzellen ab. Da diese auch von der Entfernung vom Sehloch zum Gegenstand abhängt, ist beim Lochauge ein eingeschränktes Entfernungssehen möglich. Dieser Augentyp kommt rezent bei urtümlichen Kopffüßern wie den Perlbooten vor. Ein Lochauge mit verbesserter Leistung ist das Blasenauge, bei dem die Öffnung von einer durchsichtigen Haut bedeckt ist. Das Blasenauge entsteht aus einer Einstülpung der Epidermis, die mit einem Pigmentepithel und einer Sehzellenschicht ausgekleidet ist. Es kommt bei Hohltieren, Schnecken und Ringelwürmern vor. Je nach Durchmesser der Sehöffnung entsteht entweder ein helleres aber unschärferes oder ein dunkleres aber schärferes Bild.
Facettenauge (Komplexauge).
Facettenaugen setzen sich aus einer Vielzahl von Einzelaugen (Ommatidien) zusammen, von denen jedes acht Sinneszellen enthält. Jedes Einzelauge sieht nur einen winzigen Ausschnitt der Umgebung, das Gesamtbild ist ein Mosaik aus allen Einzelbildern. Die Anzahl der Einzelaugen kann zwischen einigen Hundert bis hin zu einigen Zehntausend liegen. Die Auflösung des Facettenauges ist durch die Anzahl der Einzelaugen begrenzt und ist daher weit geringer als die Auflösung des Linsenauges. Allerdings kann die zeitliche Auflösung bei Facettenaugen deutlich höher sein als bei Linsenaugen. Sie liegt etwa bei fliegenden Insekten bei 250 Bildern pro Sekunde (also 250 Hz), was etwa dem vierfachen des menschlichen Auges mit 60 bis 65 Hz entspricht. Dies verleiht ihnen eine extrem hohe Reaktionsgeschwindigkeit. Die Farbempfindlichkeit des Facettenauges ist in den ultravioletten Bereich verschoben. Außerdem verfügen Spezies mit Facettenaugen über das größte Blickfeld aller bekannten Lebewesen. Zu finden sind diese Augen bei Krebsen und Insekten.
Zusätzlich besitzen viele Gliederfüßer Ocellen, kleinere Augen, die sich häufig auf der Stirnmitte befinden und sehr unterschiedlich aufgebaut sein können. Bei einfachen Ocellen handelt es sich um Grubenaugen. Besonders leistungsfähige Ocellen besitzen eine Linse oder, wie bei den Spinnentieren, auch einen Glaskörper, es handelt sich also um kleine Linsenaugen.
Linsenauge.
Das einfachste Linsenauge hat noch nicht den komplizierten Aufbau des Wirbeltierauges. Es besteht aus nicht viel mehr als Linse, Pigmentzellen und Retina. Ein Beispiel hierfür ist das Linsenauge der Würfelqualle "Carybdea marsupialis". Zudem schauen die Augen an den vier Sinneskörpern am Schirmrand der Qualle in den Schirm hinein. Dennoch kann sie damit gut genug sehen, um Rudern auszuweichen, an denen sie sich verletzen könnte.
Auch manche Ocellen der Gliederfüßer sind einfache Linsenaugen.
Obwohl sich die Augen von Wirbeltieren, Tintenfischen und Einzellern im Aufbau stark ähneln, haben sie diese sehr ähnliche Funktionsweise phylogenetisch unabhängig voneinander entwickelt. Dies wird bei der Bildung der Augen bei den Embryonen sichtbar: Während sich Linsenaugen bei Mollusken durch eine Einstülpung der embryonalen Epidermis entwickeln, wodurch die Sehzellen dem Licht zugewandt sind, entwickeln sich die Linsenaugen der Wirbeltiere aus einer Ausstülpung des Gehirns, wodurch die Sehzellen dem Licht abgewandt sind (inverse Retina).
Ein Krötenauge besitzt schon die meisten Teile, die auch das menschliche Auge hat, nur die Augenmuskeln fehlen. Deshalb kann eine Kröte, wenn sie selber ruhig sitzt, keine ruhenden Gegenstände sehen, da sie nicht zu aktiven Augenbewegungen fähig ist und das Bild auf der Netzhaut dadurch verblasst, wenn es unbewegt ist.
Bei den höchstentwickelten Linsenaugen fällt das Licht auf einen mehrstufigen dioptrischen Apparat, durch den es auf die Netzhaut geworfen wird, die nun zwei Arten von Sinneszellen enthält, Stäbchen und Zapfen. Die Einstellung auf Nah- und Fernsicht wird durch eine elastische Linse ermöglicht, die von Zonulafasern gestreckt bzw. gestaucht wird. Die Linsenaugen mit der höchsten Sehschärfe findet man bei Wirbeltieren.
So ist zum Beispiel bei Greifvögeln die Fähigkeit entwickelt, Objekte in einem Bereich der Netzhaut stark vergrößert zu sehen, was insbesondere beim Kreisen in großer Höhe beim Lauern auf Beute vorteilhaft ist.
Nachttiere wie Katzen, Eulen und Rehe, aber auch Schafe realisieren durch eine retroreflektierende Schicht (meist grün oder blau) hinter der Netzhaut einen Zugewinn an Empfindlichkeit, was ihnen als Nachttieren (Räubern wie Beute) zugutekommt (Siehe hierzu: Tapetum lucidum).
Bei Katzen findet man zusätzlich eine sogenannte Schlitzblende, die beim Öffnungsverhältnis größere Unterschiede als Lochblenden erlaubt. Beim Tagsehen werden aber bei Schlitzblenden periphere Strahlbündel weniger als bei Lochblenden unterdrückt, so dass hier die Sehschärfe schlechter ist.
Im Verhältnis zur Körpergröße sind die Augen bei nachtaktiven Tieren deutlich größer als bei den tagaktiven.
Für die Leistungsfähigkeit eines Auges ist neben der Form des Auges und der Zahl und Art der Stäbchen und Zapfen auch die Auswertung der Wahrnehmungen durch die Nervenzellen im Auge und im Gehirn sowie die Augenbewegungen und die Lage der Augen am Kopf sehr wesentlich.
Die Auswertung im Gehirn kann von Art zu Art stark variieren. So hat der Mensch sehr viel mehr unterschiedliche Bereiche zur Bildauswertung und zum Bilderkennen im Gehirn als ein Spitzhörnchen.
Generell kann die Funktion des Linsenauges mit einer Kamera verglichen werden. Bei den Perlbooten, die keine Linse besitzen, gewährleistet eine sehr kleine Pupille wie bei einer Lochkamera die Bildschärfe, aber das erzeugte Bild ist relativ lichtschwach. Bei den meisten Cephalopoden jedoch (z. B. beim Oktopus) verändert die Irismuskulatur den Pupillendurchmesser wie die Blende einer Kamera. Durch eine Linse, die vor und zurück bewegt werden kann, wird das Licht auf die Retina fokussiert entsprechend der Schärfeneinstellung mit einem Objektiv. Auch bei vielen Fischen erfolgt die Scharfstellung durch Verschieben einer kugelförmigen Linse. Menschen und andere Säugetiere hingegen fokussieren, indem sie die Form der Linse verändern und damit ihre Brechkraft anpassen.
Wirbeltierauge.
Die Augen der Wirbeltiere sind sehr empfindliche und teils hoch entwickelte Sinnesorgane. Sie liegen geschützt und eingebettet in einem Muskel-, Fett- und Bindegewebspolster in den knöchernen Augenhöhlen (Orbita) des Schädels. Bei landlebenden Wirbeltieren wird das Auge nach außen hin durch die Augenlider geschützt, wobei der Lidschlussreflex eine Schädigung durch Fremdkörper und andere äußere Einwirkungen verhindert. Zudem bewahrt er die empfindliche Hornhaut durch ständiges Benetzen mit Tränenflüssigkeit vor dem Austrocknen. Auch die Wimpern dienen dem Schutz vor Fremdkörpern, Staub und kleineren Partikeln.
Das Sehorgan "(Organon visus)" der Wirbeltiere kann in drei Untereinheiten gegliedert werden:
Der Aufbau des Auges beim Menschen entspricht in groben Zügen dem bei anderen Wirbeltieren. Gleichwohl finden sich bei manchen Vögeln, Reptilien und wasserlebenden Wirbeltieren teils erhebliche Unterschiede hinsichtlich ihrer Funktionalität und Leistungsfähigkeit. Äußerlich sichtbar sind lediglich die Hornhaut, Sklera und Bindehaut, Iris und Pupille, sowie die Augenlider und ein Teil der abführenden Tränenwege (Tränenpünktchen).
Augapfel.
Der Augapfel ("Bulbus oculi") ist ein fast kugelförmiger Körper, dessen Hülle aus drei konzentrischen Schichten, Lederhaut, Aderhaut und Netzhaut, besteht, die alle unterschiedliche Aufgaben haben. Der Innenraum des Augapfels enthält unter anderem den Glaskörper "(Corpus vitreum)", die Linse "(Lens)" mit Zonulafasern und Ziliarkörper ("Corpus ciliare"), die hintere Augenkammer ("Camera posterior bulbi"), die Regenbogenhaut ("Iris") sowie die vordere Augenkammer ("Camera anterior bulbi"). Zudem besitzt der Augapfel ein optisches System, den sogenannten dioptrischen Apparat, welcher ein scharfes Sehen erst möglich macht. Dieses System besteht neben der Linse und dem Glaskörper aus dem Kammerwasser und der Hornhaut.
Anhangsorgane.
Zu den "Anhangsorganen" des Auges gehören der Tränenapparat, die Augenmuskeln, die Bindehaut und die Augenlider.
Der "Tränenapparat" landlebender Wirbeltiere besteht aus der für die Produktion von Tränenflüssigkeit zuständigen Tränendrüse, sowie aus den zu- und ableitenden Gefäßen und Kanälen, den Tränenwegen, die die Tränenflüssigkeit transportieren. Das gesamte Organ dient der Versorgung der vorderen Augenabschnitte, ihrer Reinigung und ihrem Schutz.
Um die Augen bewegen zu können, verfügt das Wirbeltierauge über sieben (beim Menschen sechs) äußere "Augenmuskeln". Sie sind unterteilt in vier gerade und zwei schräge Augenmuskeln, die das Auge jeweils in die unterschiedlichsten Richtungen ziehen können. Je nach Augenstellung verfügen die Muskeln über mehr oder weniger ausgeprägte Haupt- und Teilfunktionen, die sich in der Hebung, Senkung, Seitwärtswendung oder Rollung des Augapfels ausdrücken. Die so ausgelösten Augenbewegungen erfolgen einerseits mit dem Ziel, Objekte im Außenraum fixieren zu können, andererseits um das Blickfeld zu vergrößern. Zudem sind sie bei manchen Spezies Voraussetzung für die Entstehung von räumlichem Sehen.
Die "Bindehaut", auch "Konjunctiva" genannt, ist eine Schleimhaut im vorderen Augenabschnitt. Sie beginnt an der Lidkante und überzieht die hintere, dem Augapfel zugewandte Fläche der Augenlider. Dieser Schleimhautüberzug wirkt wie ein weiches Wischtuch und verteilt beim Lidschlag die Tränenflüssigkeit über der Hornhaut, ohne diese zu verletzen.
Das "Augenlid" ist eine dünne, aus Muskeln, Bindegewebe und Haut bestehende Falte, die ein Auge vollständig bedecken kann, um es unter anderem mittels eines Reflexes (Lidschlussreflex) vor äußeren Einwirkungen und Fremdkörpern zu schützen. Es verteilt bei jedem Lidschlag Tränenflüssigkeit, die sich in Form eines Tränenfilms über der vorderen Augapfelfläche anlagert und so die empfindliche Hornhaut sauber und feucht hält. Fische besitzen keine Augenlider.
Sehbahn.
Als "Sehbahn" bezeichnet man alle Übertragungsleitungen und neuronalen Verschaltungen des visuellen Systems vom Auge bis zum Gehirn. Hierzu zählen die Netzhaut im Auge, der Sehnerv bis zu seinem Verlauf an der Sehnervenkreuzung, sowie den sich daran anschließenden "Tractus opticus". Im seitlichen Kniehöcker des Thalamus im Zwischenhirn (Corpus geniculatum laterale) finden die ersten Verschaltungen der Sehbahn außerhalb der Netzhaut statt. Sie setzt sich fort als sogenannte "Gratioletsche Sehstrahlung" bis zur primären Sehrinde. |
302 | 3960915 | https://de.wikipedia.org/wiki?curid=302 | Assoziativgesetz | Das Assoziativgesetz, genauer die Assoziativität ( „vereinigen, verbinden, verknüpfen, vernetzen“), auf Deutsch Verknüpfbarkeit, ist in der Mathematik eine Eigenschaft mancher (meist zweistelligen) Verknüpfungen. Eine Verknüpfung ist assoziativ, wenn alle Reihenfolgen der Ausführung dasselbe Ergebnis haben. Anders gesagt: Die Klammerung mehrerer assoziativer Verknüpfungen ist beliebig.
Neben dem Assoziativgesetz sind Kommutativgesetz und Distributivgesetz von elementarer Bedeutung in der Algebra.
Definition.
Eine binäre Verknüpfung formula_1 auf einer Menge formula_2 heißt assoziativ, wenn für alle formula_3 das Assoziativgesetz
gilt. Die Klammern können dann weggelassen werden. Das gilt auch für mehr als drei Operanden.
Beispiele und Gegenbeispiele.
Als Verknüpfungen auf den reellen Zahlen sind Addition und Multiplikation assoziativ. So gilt zum Beispiel
und
Reelle Subtraktion und Division sind hingegen nicht assoziativ, denn es ist
und
Auch die Potenz ist nicht assoziativ, da
gilt.
Bei (divergenten) unendlichen Summen kann es auf die Klammersetzung ankommen. So verliert die Addition die Assoziativität bei:
aber
In endlichen Realisierungen wie dem Computer sind die Darstellungen der Zahlen in ihrer Größe begrenzt. Somit können weder Addition noch Multiplikation beliebig korrekt sein. Addition und Multiplikation von Festkommazahlen kann man bei vielen Maschinen so einstellen, dass diese anzeigen, wenn das Ergebnis inkorrekt wird, und innerhalb eines so definierten Gültigkeitsbereiches sind die Operationen assoziativ. Außerhalb dieses Gültigkeitsbereiches können die Operationen zwar assoziativ sein, was aber angesichts des falschen Ergebnisses keine Bedeutung hat. Bei Gleitkommazahlen werden nicht alle sog. Rundungsfehler angezeigt, so dass die Assoziativgesetze nicht wirklich gelten, wie das folgende Beispiel für die Addition mit 4-Bit-Mantissen zeigt:
Solche Fehler können manchmal durch Ausschalten der Normalisierung verringert werden.Darüber hinaus kann das Laufzeitverhalten von der Reihenfolge der Ausführung zweier Operationen stark abhängen.
Einordnung.
Das Assoziativgesetz gehört zu den Gruppenaxiomen, wird aber bereits für die schwächere Struktur einer Halbgruppe gefordert.
Seitigkeit.
Insbesondere bei nicht-assoziativen Verknüpfungen gibt es Konventionen einer seitigen Assoziativität.
Eine binäre Verknüpfung formula_7 gilt als links-assoziativ, wenn
aufzufassen ist.
Eine binäre Verknüpfung formula_7 heißt rechts-assoziativ, wenn gilt:
Beispiel für eine rechts-assoziative Operation:
Aber auch assoziative Operationen können Seitigkeit haben, wenn sie ins Unendliche zu iterieren sind.
Schwächere Formen des Assoziativgesetzes.
Folgende Abschwächungen des Assoziativgesetzes werden an anderer Stelle genannt/definiert: |
304 | 916404 | https://de.wikipedia.org/wiki?curid=304 | Atharvaveda | Der Atharvaveda (Sanskrit, m., अथर्ववेद, Atharvaveda, alternativ "Atharwaweda)" ist eine der heiligen Textsammlungen des Hinduismus. Er enthält eine Mischung von magischen Hymnen, Zauberformeln und anderem Material, das offenbar sehr unterschiedlichen Alters ist. Obwohl vieles sprachlich deutlich jünger ist als die anderen drei Veden (zumindest des Rigveda), finden sich in ihm auch sehr alte Passagen. Man schätzt, dass der Atharvaveda in der zweiten Hälfte des letzten vorchristlichen Jahrtausends kanonisiert wurde, und auch dann erst mit den anderen drei Veden auf eine Stufe gestellt wurde. Er liegt in zwei Rezensionen oder Schulen vor, der bekannteren Shaunaka-Version, und der erst in jüngster Zeit besser erforschten Paippalada-Version. Der Atharvaveda umfasst 20 Bücher in 731 Hymnen mit ungefähr 6000 Versen. Ungefähr ein Siebtel des Atharvaveda ist aus dem Rigveda entnommen. Der Atharveda ist entstanden, als die Sesshaftwerdung in der Gangesebene schon abgeschlossen war. Das Wort für Tiger kommt hier vor, im früheren Rigveda hingegen noch nicht.
Jeder der vier Veden, das sind Rigveda, Samaveda, Atharvaveda und Yajurveda, umfasst vier Textschichten. Die älteste Schicht sind jeweils die Samhitas (Hymnen), die nächste Schicht sind die Brahmanas (Ritualtexte), dann kommen die Aranyakas (Waldtexte) und zuletzt die Upanishaden (philosophische Lehren).
Die anderen drei Veden waren bestimmten Priestern im vedischen Opferritual zugeteilt: der "Hotri" („Rufer“) musste den Rigveda auswendig können, der "Udgatri" („Sänger“) musste den Samaveda beherrschen, und der "Adhvaryu" (Opferpriester) musste die Mantras des Yajurveda kennen. Als der Atharvaveda in den Kanon aufgenommen wurde, wurde er schlichterhand dem "Brahman" zugeordnet, obwohl dieser Priester eigentlich die drei anderen Veden auswendig können musste, damit er das Ritual aus dem Hintergrund beobachten und bei Fehlern einschreiten konnte. Deswegen wird er auch als „Arzt des Opfers“ bezeichnet. Die Zuordnung des Brahman zum Atharva Veda ist also eher willkürlich.
Im Vergleich zu den drei anderen Veden hatte der Atharvaveda immer die Reputation, vor allem mit Magie zu tun zu haben. Atharvan bedeutet ursprünglich Feuerpriester. Eine andere Sorte Priester waren die Angiras. Magische Formeln, die helfen den Kranken zu heilen, waren Sache der Atharvans. Schwarze Magie, um Feinden oder Rivalen zu schaden, war die Sache der Angiras. Die Heiligkeit des Atharvaveda wurde wegen dieser magischen Inhalte immer etwas in Zweifel gezogen. Der Atharvaveda ist von großer Bedeutung hinsichtlich der medizinischen Vorstellungen der damaligen Zeit. Die Lieder und Zauber zum Heilen von Krankheiten gehören zu den magischen Heilriten (bhaishajyani). Exorzismus und „Frauenriten“ (Liebesmagie) werden ebenso beschrieben. Der Atharvaveda öffnet also ein Fenster zu einer völlig anderen Welt als die des Rigveda. |
305 | 2234691 | https://de.wikipedia.org/wiki?curid=305 | Anatomie | Die Anatomie (dem Erkenntnisgewinn dienende ‚Zergliederung‘ von tierischen und menschlichen Körpern; aus , und ) ist ein Teilgebiet der Morphologie und in der Medizin bzw. Humanbiologie (Anthropotomie), Zoologie (Zootomie) und Botanik (Phytotomie) die Lehre vom Bau der Organismen. Es werden Gestalt, Lage und Struktur von Körperteilen, Organen, Geweben oder Zellen betrachtet. Die pathologische Anatomie befasst sich mit krankhaft veränderten Körperteilen. Die mikroskopische Anatomie befasst sich mit den feineren biologischen Strukturen bis zur molekularen Ebene und knüpft an die Molekularbiologie an. Die klassische Anatomie verwendet eine standardisierte Nomenklatur, die auf der lateinischen und der griechischen Sprache basiert.
Ein mit der Anatomie befasster Arzt oder Naturwissenschaftler ist ein Anatom.
Der Begriff "Anatomie" wird schon seit dem frühen 16. Jahrhundert (auch als "anatomei") auch allgemeiner und übertragen verwendet in der Bedeutung „Zergliederung, Strukturbestimmung, Analyse von konkreten und abstrakten Dingen“, auch „Struktur, (Auf-)bau“, z. B. "Anatomie des Bodens, der Kunst, der Gedanken, der Gesellschaft".
Geschichte.
Zitat: „Ärzte ohne Anatomie sind Maulwürfen gleich: sie arbeiten im Dunkeln, und ihrer Hände Tagwerk sind Erdhügel.“ (Friedrich Tiedemann).
Die frühesten erhaltenen anatomischen Studien finden sich im "Papyrus Edwin Smith", der auf das 17. Jahrhundert v. Chr. datiert wird. Behandelt werden u. a. das Herz und die Herzkranzgefäße, Leber, Milz und Nieren, Hypothalamus, Gebärmutter und Blase sowie die Blutgefäße.
Der "Papyrus Ebers" aus dem letzten Viertel des 16. Jahrhunderts v. Chr. enthält ein Traktat zum Herzen, in dem auch die Blutgefäße beschrieben werden.
Nomenklatur, Methodik und Anwendungen gehen auf die griechischen Ärzte der Antike zurück. Beschreibungen von Muskeln und Skelett finden sich im "Corpus Hippocraticum" (v. a. "Über die Knochenbrüche" und "Über die Gelenke"), wobei in der hippokratischen Medizin die menschliche Physiologie eine größere Bedeutung hatte als die Anatomie. Aristoteles beschrieb anhand der Sektion von Tieren die Anatomie der Wirbeltiere. Praxagoras von Kos kannte bereits im 4. Jahrhundert v. Chr. den Unterschied zwischen Arterien und Venen.
Anfänge einer systematischen Anatomie entstanden im alten Babylon. Eine erste anatomische Schule gab es im 2. Jahrhundert v. Chr. in Alexandria. Die Herrscher des Ptolemäerreiches (in Betracht kommen Ptolemaios I. und vor allem Ptolemaios II.) erlaubten dort die Leichenöffnung für anatomische Studien, meist an Exekutierten. Herophilos von Chalkedon (geboren im letzten Drittel des 4. Jahrhunderts v. Chr.) führte die ersten wissenschaftlichen Obduktionen und auch Vivisektionen an Mensch und Tier durch. Er soll 600 Strafgefangene lebend seziert haben und gilt als „Vater der Anatomie“. Er verwarf die Ansicht von Aristoteles, das Herz sei der Sitz des Intellekts und nannte dafür das Gehirn. Weitere Anatomen in Alexandria waren Erasistratos (im 3. Jahrhundert v. Chr.) und Eudemos von Alexandria. Herophilos und Erasistratos gelten als Begründer der anatomischen Studien an menschlichen Leichen.
Die von Rufus von Ephesos im 2. Jahrhundert verfasste Abhandlung "Über die Bezeichnung der Körperteile des Menschen" ist das älteste erhaltene anatomische Lehrbuch, dessen Hauptanliegen die Vermittlung anatomischer Nomenklatur war. Gemäß Rufus wurde der theoretische Unterricht durch Veranschaulichungen an lebenden Personen ergänzt, wobei die äußeren Körperteile an Sklaven demonstriert wurden.
Galenos von Pergamon fasste im 2. Jahrhundert n. Chr. das medizinische Wissen der antiken Ärzte systematisch zusammen, unter anderem in einem 15-bändigen Anatomie-Werk "Über die Verfahrensweise beim Sezieren". Als Arzt von Gladiatoren konnte er verschiedenste Arten von Wunden und so auch die Anatomie des Menschen genau studieren. Weitere Studien betrieb er an Schweinen und Affen. Seine Schriften bildeten die Basis für die Werke des Mittelalters, so auch für den "Kanon der Medizin" von Avicenna.
Seit etwa 1300 wurden, vor allem in Oberitalien, gelegentlich anatomische Lehrsektionen vorgenommen. Derartige Demonstrationen dienten jedoch vor allem dem Zweck, die Lehren der antiken Autoren bzw. Autoritäten zu bestätigen. Das Lehrbuch der Anatomie von Mondino dei Luzzi († 1326) beruht zum Teil schon auf eigenen Sektionsbefunden.
Ab dem 15. Jahrhundert erfuhr die Anatomie, inspiriert durch Ideen des Humanismus und der Renaissance, neue Impulse. Nachdem im Mittelalter die Anatomie keine großen Fortschritte gemacht hatte, korrigierte der flämische Anatom Andreas Vesalius (1514–1564) die über Jahrhunderte kaum hinterfragten Annahmen bzw. Glaubenssätze, was viele seiner Kollegen empörte. Seine die Anatomie reformierende Arbeit machte ihn zum Begründer der modernen Anatomie. Ausgehend von oberitalienischen Vorbildern erlangte der anatomische Unterricht mittels des Sezierens von menschlichen Leichen im 16. Jahrhundert auch im deutschsprachigen Raum seine Verbreitung. So etwa ab spätestens 1530 in Deutschland, ab 1535 durch Burghard Mithobius (1501–1564) an der Universität Marburg.
Weitere bedeutende Anatomen des 16. Jahrhunderts waren etwa Gabriele Falloppio, Bartolomeo Eustachi, Giulio Cesare Aranzio und Giovanni Battista Canano (1515–1579, genannt auch Giambattista Canano), am Übergang zum 17. Jahrhundert etwa Girolamo Fabrizio ab Acquapendente, Adriaan van den Spieghel, Felix Platter und Caspar Bauhin.
Die Begründung des modernen anatomischen Denkens erfolgte um 1543 bis 1638. William Harvey (1578–1657) gilt als Entdecker des Blutkreislaufs und als Wegbereiter der modernen Physiologie.
Die Anatomie nahm seit dem 16. Jahrhundert einen hohen Stellenwert in den bildenden Künsten ein, Sektionen an Menschen und Tieren gehörten zur Grundausbildung der Studenten. Künstler wie Michelangelo, Raffael, Dürer und Leonardo da Vinci brachten Jahre mit dem Studium des menschlichen Körpers zu. Da Vincis Codex Windsor übertraf in seiner wissenschaftlichen Genauigkeit die Arbeiten des 62 Jahre später geborenen Vesalius. Die enge Zusammenarbeit von Künstlern und Anatomen ließ medizinische Schriften von außergewöhnlich hoher Qualität entstehen wie zum Beispiel das Lehrbuch des Flamen Philip Verheyen (1648–1710).
Im Zeitalter der Aufklärung errichtete man anatomische Theater, die neben dem wissenschaftlichen Wert einen hohen Schauwert hatten.
Bedeutende Anatomen des 17. Jahrhunderts waren in England unter anderem Francis Glisson, Thomas Wharton, Nathaniel Highmore, William Cowper sowie Thomas Willis, in den Niederlanden Reinier de Graaf, Jan Swammerdam, Frederik Ruysch, Nicolaes Tulp sowie Anton Nuck, und in Frankreich Jean Riolan, Raymond Vieussens, Jean Pecquet sowie der Genfer Théophile Bonet.
Bedeutende Anatomen des 18. Jahrhunderts waren in Italien unter anderem Antonio Valsalva und Giovanni Domenico Santorini, in Frankreich François Pourfour du Petit und Joseph Lieutaud, in England James Douglas, William Hunter und John Hunter, in den Niederlanden Bernhard Siegfried Albinus und Peter Camper und in Deutschland beispielsweise Carl Caspar von Siebold, Johann Zinn, Johann Nathanael Lieberkühn, Samuel Thomas von Soemmerring, Heinrich August Wrisberg und Johann Friedrich Meckel.
Das erste bedeutende japanische Anatomiebuch entstand ab 1754 durch Yamawaki Tōyō.
Den ersten populär gewordenen fotografischen Anatomieatlas veröffentlichten 1982/83 Johannes W. Rohen und Chihiro Yokochi.
Zu den bedeutenden Anatomen des 19. Jahrhunderts gehörte etwa Albert von Koelliker, zu denen des 20. Jahrhunderts etwa Anton Johannes Waldeyer, Professor an der Universität Berlin, der in den 1940er Jahren ein Lehrbuch publizierte.
Durch die intensive Anwendung der Gewebezüchtung auf die Zellenlehre durch Alexis Carrel sowie die Berücksichtigung anthropologischer Fragen, von Umwelteinflüssen und der Auswirkungen der Lebensweise und Beschäftigung auf die Konstitution der Menschen erweiterte die Anatomie zu Beginn des 20. Jahrhunderts ihr Arbeitsfeld. Ab etwa 1925 wurde die Anatomie vermehrt vom funktionellen Gedanken geleitet (beispielsweise Hermann Braus, im Gegensatz zu Vertretern der biologisch eingestellten vergleichenden Anatomie wie Hans Böker), wendet sich zunehmend praktischen Zielen zu und arbeitete eng mit der Vertretern der praktischen Heilkunde und der Hygiene zusammen.
Arbeitsgebiete.
Makroskopische Anatomie.
Die makroskopische Anatomie beschäftigt sich mit dem Aufbau des Menschen, von Tieren oder Pflanzen, und zwar mit allen Dingen, die man mit dem bloßen Auge sehen kann. Beachtet hierbei werden nicht nur äußerlich sichtbare Strukturen, sondern insbesondere auch die Strukturen, welche nach Auf- und Auseinanderschneiden des Körpers zu beobachten sind.
Nach der Art der Herangehensweise wird die makroskopische Anatomie unterteilt:
Mikroskopische Anatomie.
Für die Untersuchung anatomischer Strukturen unterhalb des mit bloßem Auge sichtbaren Bereichs ist die Mikroskopische Anatomie (Histologie) zuständig. Sie beschreibt den Feinbau von Organen, Geweben und Zellen.
Embryologie.
Die Embryologie beschreibt die Entstehung der anatomischen Strukturen während der Embryonalentwicklung. Anhand der Entstehungsgeschichte lassen sich vielfältige topografische und funktionelle Beziehungen erkennen. Auch für das Verständnis der Entstehung von Fehlbildungen sind embryologische Kenntnisse unverzichtbar.
Aufgaben in der Ausbildung.
Ein wichtiges Gebiet der Anatomie ist die Bereitstellung von Anschauungsmaterialien zur Arztausbildung. Dies geschieht in Präparierkursen und -übungen, Vorlesungsveranstaltungen, anatomischen Sammlungen, anatomischen Museen, vergleichenden anatomischen Sammlungen oder anatomischen Lehrsammlungen. Entsprechendes gilt für die Erstellung anatomischer Lehrbücher und Atlanten, in denen auch heute noch feine Zeichnungen (Strichzeichnungen) ihre didaktische Bedeutung haben.
Auch von bildenden Künstlern (etwa Leonardo da Vinci) werden Erkenntnisse der Anatomie, vermittelt durch die Plastische Anatomie, genutzt.
Der Wiener Anatomieprofessor Josef Hyrtl schrieb in der zweiten Hälfte des 19. Jahrhunderts zur Anatomie: „[Sie] zerstört mit den Händen einen vollendeten Bau, um ihn im Geiste wieder aufzuführen, und den Menschen gleichsam nachzuerschaffen. Eine herrlichere Aufgabe kann sich der menschliche Geist nicht stellen. Die Anatomie ist eine der anziehendsten, und zugleich gründlichsten und vollkommensten Naturwissenschaften, und ist dieses in kurzer Zeit geworden, da ihre Aera erst ein paar Jahrhunderte umfasst.“
Literatur.
David E. Wolfe: "Sydenham and Locke on the Limits of Anatomy." In: "Bulletin of the History of Medicine." Band 35, 1961, S. 193–220. |
306 | 4472 | https://de.wikipedia.org/wiki?curid=306 | Andreas Vesalius | Andreas Vesal oder latinisiert Andreas Vesalius (aus flämisch "Andries van Wezel", eigentlich "Andreas Witinck" bzw. Andries Witting van Wesel (te Brussel), auch "Andreas Witing"; * 31. Dezember 1514 in Brüssel; † 15. Oktober 1564 auf Zakynthos/Griechenland) war ein flämischer Anatom und Chirurg der Renaissance bzw. des Humanismus deutscher Abstammung. Er gilt als Begründer der neuzeitlichen Anatomie und des morphologischen Denkens in der Medizin. Vesal wirkte als Dozent an der Universität von Padua. Er war zudem Leibarzt Kaiser Karls V. und König Philipps II. von Spanien. Bekannt wurde er vor allem durch sein 1543 erschienenes Hauptwerk "De humani corporis fabrica libri septem" („Sieben Bücher vom Bau des menschlichen Körpers“), womit er einen lange Zeit unübertroffenen Beitrag humanistischer Gelehrsamkeit zur Kenntnis der Anatomie des Menschen geschaffen hat. Durch seine Arbeiten zu Abnormitäten der Organe legte er zudem den Grundstein zur pathologischen Anatomie.
Leben.
Andreas Vesal (bzw. Andries van Wesel) stammte aus einer alten Weseler Familie (der Name Vesal erinnert noch daran), die jedoch früh auswanderte. Der Vater Andries van Wesel (1479–1544) war habsburgischer Leibapotheker am Kaiserhof Karls V. in Flandern, die Mutter hieß Elisabeth Crabbe.
Vesal besuchte die Schule in Brüssel, studierte ab 1530 an der Universität Löwen alte Sprachen und Wissenschaften und erhielt dort seine humanistische Bildung. 1531 wechselte er zur Medizin. Vesalius ging 1533 nach Paris, um mit Miguel Serveto unter Jacques Dubois (Jacobus Sylvius) und Johann Winter von Andernach galenische Medizin und Anatomie zu studieren. Er war jedoch von Sylvius’ strikter Anlehnung an Galenos (Galen) und von der realitätsfernen Ausbildung an der Universität enttäuscht und verließ Paris 1536 wegen des Dritten Krieges Karls V. gegen Franz I. wieder.
Er kehrte nach Löwen zurück und beendete dort sein Studium. Weil er sich selbst Gewissheit über anatomische Einzelheiten verschaffen wollte, über die er an der Universität aus den Lehren von Galen gehört hatte, verschaffte er sich dort die Leiche eines Hingerichteten und präparierte das Skelett. Hierbei stellte er Abweichungen zu den Angaben von Galen fest. In Löwen konnte Vesal dank guter Beziehungen zur Obrigkeit 1537 seine erste öffentliche Leichenöffnung (Sektion) durchführen.
Anfang 1537 gab Vesal als Kandidat der Medizin (ein dem Master vergleichbarer Abschluss) in Brüssel sein philosophisches Erstlingswerk heraus, die "Paraphrasis ad nonum librum Rhazae", eine Beschäftigung mit den Theorien und Methoden des persischen Arztes Rhazes (Abu Bakr Muhammad ibn Zakariya ar-Razi), der etwa von 860 bis 925 gelebt hatte.
Danach ging er nach Oberitalien. Am 3. Dezember 1537 wurde er promoviert; tags darauf wurde er in Padua zum Professor der Chirurgie und Anatomie ernannt. So lehrte er die nächsten Jahre als Lehrstuhlinhaber in Padua.
Später zog er nach Venedig, wo er 1537 zu Besuch gewesen war und dort erfolgreich Pleuritis-Kranke operiert hatte. In Anerkennung seiner hervorragenden Kenntnisse erhielt Vesalius vom venezianischen Senat einen fünfjährigen Zeitvertrag als Professor für Chirurgie, mit Lehrverpflichtung in Anatomie. Im großen venezianischen Stadtspital konnte er nicht nur „seine anatomischen und medizinischen Kenntnisse vertiefen, sondern auch im Hinblick auf seine musischen Neigungen wesentliche Anregungen von der Malschule des Tizian […] empfangen.“ Während seines Aufenthaltes in Venedig lernte er den gleichfalls vom Niederrhein stammenden Maler und Holzschneider Jan Stephan van Calcar kennen, der großen Einfluss auf die künstlerische Gestaltung seiner wissenschaftlichen Werke hatte.
Vesal, im Schrifttum seiner Zeit Vesalius genannt, führte um 1542 eine (rhythmische) Beatmung über ein in die Luftröhre eingebrachtes Röhrchen, einen Tubus aus Schilfrohr, durch und brachte damit ein stillstehendes Herz wieder zum Schlagen. Diese 1543 publizierte erste belegte endotracheale Intubation erfolgte nur im Tierversuch und fand keine weitere Beachtung.
Sechs anatomische Flugblätter für Studenten, die "Tabulae anatomicae sex", gab Vesal 1538 in Venedig heraus. Zumindest hier gilt als gesichert, dass Jan Stephan van Calcar die dazugehörigen Skelettzeichnungen anfertigte. Einen Monat später gab Vesal eine Neuausgabe der "Institutiones anatomicae" des Johann Winter ohne dessen Wissen heraus. Sie war als Kompendium für Studenten gedacht. Vesals Aderlassbrief erschien 1539, drei weitere Traktate zu einer großen Galen-Ausgabe verfasste er 1541.
Kaiserlicher Leibarzt.
Im Jahr 1544 reiste Andreas Vesal nach Pisa, nachdem er sich Karl V. als Leibarzt verpflichtet hatte, und hielt dort eine öffentliche Sektion ab. Auch ein Lehramt an der Universität Pisa wurde ihm angetragen, doch die Annahme des Rufs wurde ihm von Kaiser Karl V. verwehrt. Vesal zog nach Brüssel und war weiter schriftstellerisch tätig. Er publizierte 1546 eine Abhandlung über die Chinawurzel und heiratete im selben Jahr. Als sich Kaiser Karl V. 1556 nach Spanien zurückzog, wollte er Vesal, mit einer Leibrente versehen, in den Niederlanden zurücklassen. Ein Jahr zuvor, 1555, war die zweite Auflage der „Fabrica“ erschienen, die in einer noch schöneren Typographie nach dem Entwurf des französischen Schriftsetzers Claude Garamond wieder zu einem Meisterwerk der europäischen Buchkunst geraten war (die Bücher 1–5 kamen schon 1552 auf den Markt). Unzählige kleinere Veränderungen hatte Vesal in diese Ausgabe eingearbeitet. Sie enthielt auch Antworten auf Angriffe gegen ihn und zudem war sie durch eine freiere Haltung gegenüber Galen gekennzeichnet.
Vesals wissenschaftliches Interesse erlosch nun zwar nicht, doch trat er in den Dienst Philipps II. von Spanien, dessen Hof 1559 nach Madrid verlegt wurde. Vesal war jetzt Arzt des niederländischen Hofstaates. Schließlich unternahm er 1564 eine Pilgerreise ins Heilige Land, von der er nicht mehr zurückkam: Während der Rückreise von Jerusalem erkrankte er und musste an Land gehen. In Zante starb er. Er soll von Pilgern bestattet worden sein.
Legenden um diesen frühen Tod brachten Vesalius mit der Inquisition in Verbindung. Hubertus Languetus schrieb ein Jahr nach Bekanntwerden seines Todes an den Arzt Caspar Peucer, Vesalius habe aus Versehen einen Menschen bei lebendigem Leib seziert und sei zur Strafe verpflichtet worden, nach Jerusalem zu reisen.
Öffentliche Sektionen.
In Bologna, der Scholarenuniversität, sezierte Vesal 1540 öffentlich: Die erste Vorlesung fand in der Kirche San Salvador statt, die anatomische Demonstration in einem eigens dazu errichteten Anatomischen Theater unter dem sakralen Schutz der Kirche San Francesco.
Auch ein deutscher Medizinstudent war eingeladen worden, der Sektion beizuwohnen. Der aus Liegnitz stammende Balthasar Heseler (1508/1509–1567) berichtete später, Vesal habe die Sektion vor etwa 200 Zuschauern, darunter 150 Studenten, vorgenommen. Zunächst habe er sich von der alten Vorgehensweise, deren Vertreter Galen und Mondino er namentlich genannt habe, distanziert, und – statt sofort Brust, Bauch und Schädel zu eröffnen – mit der Myologie (Muskellehre) begonnen, die bis zu Leonardo da Vinci völlig vernachlässigt worden war, und alle Details der Myologie und Osteologie (Knochenlehre) dargelegt. Während der Demonstration Vesals habe Jacobus Erigius, ein Mitglied der Medizinischen Fakultät Bolognas, ebenfalls eine Leiche seziert und sich wegen seines unsachgemäßen Vorgehens den Spott des Ersteren zugezogen.
Seitdem die Zahl der Sektionen in Padua häufiger geworden war, hatte Vesalius nicht nur die Autorität des Galen ins Wanken gebracht, sondern durch vermehrte Berücksichtigung von Organ-Abnormitäten den Grundstein für die spätere pathologische Anatomie gelegt.
"De humani corporis fabrica libri septem".
In den Jahren 1538 bis 1542 bereitete Vesal das große Werk De humani corporis fabrica libri septem (lateinisch für „Sieben Bücher über den Aufbau des menschlichen Körpers“) vor, das die neuzeitliche Anatomie begründete. Die Konsequenz, Konzentration und der manische Eifer, die "Fabrica" zu vollenden, ließen ihn bei seinen Mitmenschen schweigsam und melancholisch ("taciturnus et melancholicus") erscheinen.
Während Vesal Professor und Prosektor war, sezierte er 1539 die Leichen aller in Padua Hingerichteten. 1540 folgten anatomische Demonstrationen in Bologna.
Im Vorwort zur "Fabrica" übte er vehemente Kritik an der anatomischen Lehre Galens, der selbst nie ein Hehl daraus gemacht hatte, nur Tierkadaver seziert zu haben. Dieses sorgfältig typographisch ausgestattete Lehrbuch zeigt rund 200 zum Teil ganzseitige Illustrationen. Darin vertrat Vesal entgegen der allgemeinen Überzeugung die Ansicht, allein der menschliche Leib sei der zuverlässige Weg zur Erkenntnis des menschlichen Körperbaus. Darüber hinaus zeichnete er darin, sich dabei auf Plinius beziehend, eine Abstammungslinie vom Affen über die Pygmäen hin zum Menschen.
"De humani corporis fabrica libri septem" (nebst deren Auszug für Chirurgen), fertiggestellt 1542, erschien erstmals 1543 in Basel bei dem Verleger Johannes Oporinus. Vesalius hatte die Holzstöcke seiner Illustrationen, fertig geschnitten, zusammen mit den Probeabzügen nach Basel bringen lassen. Er selbst folgte 1543 nach und hielt in Basel im Mai unter Assistenz des Ratsherrn und zünftischen Wundarztes Franz Jeckelmann (später Schwiegervater von Felix Plater) ein berühmt gewordenes anatomisches Kolloquium ab. Das hierbei von Vesalius präparierte sogenannte "Vesalsche Skelett" ist noch heute erhalten und das älteste Stück der anatomischen Sammlung in Basel. Es soll 1543 aus den sterblichen Überresten des Straftäters Jakob Karrer von Gebweiler präpariert worden sein.
Mit seinem revolutionären, in humanistischer Weise in ciceronischem Latein verfassten Werk und der Lösung von den anatomischen Lehren Galens war der als Humanist handelnde Vesal, der für seine Sektionen auch auf antike alexandrinische Vorbilder des 3. Jahrhunderts v. Chr. zurückgriff, der Hauptbegründer der neuzeitlichen Anatomie und Reformer deren Nomenklatur, bei der Vesal auf den Wortschatz der antiken römischen Medizinschriftsteller und insbesondere den von Aulus Cornelius Celsus zurückgriff. Als anatomisch unhaltbar griff er (auf S. 515 seiner "Fabrica") die These an, dass die Niere durch ein Sieb in zwei Höhlen getrennt sei. Vesal beschrieb erstmals die Bänder der Gelenke und den Zwischengelenkknorpel des Kiefergelenks und identifizierte als Erster die Pulpahöhle. Seine Schüler führten diese auf Erfahrung beruhende Anatomie weiter. Leonhart Fuchs bearbeitete Vesals Werk und gab es 1551 zunächst unter dem lateinischen Titel "De humani corporis fabrica ex Galeni et Andreae Vesalii libris concinnata" in Tübingen heraus, ließ aber im selben Jahr auch eine deutschsprachige populärwissenschaftliche Fassung verbreiten.
Vesal beschrieb eingehend das Ventrikelsystem des menschlichen Gehirns und schuf damit eine der Grundlagen der Neurochirurgie. Auch wenn er keine „Poren“ in der Herzscheidewand (Septum) gefunden hat, hielt Vesal am Irrtum Galens fest, dass Blut aus dem rechten Herzen durch das Septum in die linke Herzkammer fließe.
Illustrationen aus "De humani corporis fabrica libri septem"
Ehrung.
Die Pflanzengattung "Vesalea" aus der Familie der Geißblattgewächse (Caprifoliaceae) wurde 1844 nach ihm benannt.
1970 wurde der Mondkrater Vesalius und 1987 der Asteroid (2642) Vésale nach ihm benannt. Gleiches gilt für den Mount Vesalius in der Antarktis. |
307 | 2234691 | https://de.wikipedia.org/wiki?curid=307 | Amulett | Ein Amulett ist ein als „Anhängsel“ tragbarer Gegenstand, dem magische Kräfte zugeschrieben werden, mit denen er Glück bringen (energetische, sakramentale Wirkung) und vor Schaden schützen (apotropäische Wirkung etwa als „Artzney so man ann Hals henckt“) soll. In seiner glückbringenden Eigenschaft und meist größerer Ausführung wird es auch als Talisman bezeichnet. Das Amulett hat mit seiner magischen Wirkung Parallelen zur Votivgabe. Während die Votivgabe typischerweise an einem geeignet erscheinenden Ort hinterlegt wird, dient das Amulett dazu, am Körper oder in einer Tasche mitgeführt zu werden. Abgesehen von seinem zugedachten magischen Aspekt kann das Amulett auch sichtbar als Schmuckstück oder als Zeichen der Zugehörigkeit zu einer meist religiösen Gemeinschaft getragen werden.
Etymologie.
Die genaue Etymologie des Wortes ist ungeklärt. Der lateinische Begriff "amuletum", von dem das deutsche Wort ab Anfang des 18. Jahrhunderts entlehnt ist, findet sich mehrfach in der "Naturalis historia" Plinius’ des Älteren (1. Jahrhundert n. Chr.) und wird von verschiedenen Autoren als Abwehrmittel gegen Unheil auf "amoliri" ‚abwenden, entfernen‘ zurückgeführt. Von anderen Wissenschaftlern wurde eine Herkunft aus der arabischen Wurzel "ḥ-m-l" () vermutet, gegen die Johann Gildemeister in der Zeitschrift der Deutschen Morgenländischen Gesellschaft argumentierte. Möglicherweise besteht als (gesundheitsfördernde bzw. schadenabwendende) ‚Speise aus Stärkemehl‘ eine Verwandtschaft mit griechisch-lateinisch "amylum" bzw. "amulum" (Stärkemehl) und diese wurde dann volksetymologisch auf lateinisch "amoliri" („abwenden“) bezogen.
Verwendung.
Amulette werden am Körper (oft auch als Schmuck) oder in der Kleidung getragen, in Fahrzeugen oder der Behausung aufbewahrt oder dem Vieh umgehängt. Sie können aus einer Vielzahl von Materialien bestehen und durch sie soll der Träger passiv geschützt werden.
Schon in der Vorgeschichte hängten sich Menschen Überreste (Zähne und Krallen) ihrer erlegten Beute um. Sie sollten dem Träger die Kraft des Tieres geben.
Amulette fanden Anwendung in der Heilkunde, als Schutz von Schwangeren, gegen den Bösen Blick und – beispielsweise die Muskatnuss – als Liebeszauber und gegen eine Vielzahl von Krankheiten. Am Amulett wirkt die animistische Vorstellung, dass magische Kräfte auf den Menschen einwirken, denen er durch das Amulett entgegenwirken kann.
Amulette sind in allen Kulturen bekannt. Seit der Steinzeit nutzte man Muscheln oder Perlen und besondere Steine wie beispielsweise Bernstein und Bergkristalle. In keltischen Siedlungsresten wurden polierte, durchbohrte Schädelfragmente (Amulette?) bei Grabungen gefunden.
Bei den Arabern sind Amulette Ledertäschchen mit eingenähtem Papier, auf das eine Koransure oder ein magisches Zeichen geschrieben ist. Sie verbreiten die islamische Segenskraft Baraka. Eine amulettartige positive Wirkung entfalten im Volksglauben Buntmetalle, besonders Kupfer und Messing.
Der Glaube an die medizinische Wirksamkeit von Amuletten erfuhr in Europa besonders von der Frühen Neuzeit bis ins 17. Jahrhundert eine Hochblüte und findet sich etwa bei Paracelsus, Marsilio Ficino, Cornelius Agrippa und Giordano Bruno.
Kulturelle Varianten.
Als Amulett gelten bei den:
Verständnis im Judentum.
Amulette sind in der jüdischen Tradition weit verbreitet, und Beispiele für Amulette aus der Zeit Salomos sind in vielen Museen zu finden. Da im Judentum Götzen und Götzenbilder verboten sind, stehen bei jüdischen Amuletten Text und Namen im Vordergrund. Beispiele für Amulette mit Text sind die Silberne Schriftrolle (ca. 630 v. Chr.) und die noch heute gebräuchlichen Mesusa und Tefillin. Ein Gegenbeispiel ist die Hand der Miriam, der Umriss einer menschlichen Hand. Ein weiteres nichttextliches Amulett ist das Siegel Salomos, auch bekannt als Hexagramm oder Davidstern. In einer Form besteht es aus zwei ineinander verschlungenen Dreiecken und wird häufig um den Hals getragen.
Ein weiteres gebräuchliches Amulett ist das Chai (Symbol)-(hebräisch: חַי "lebendig" ḥay), das ebenfalls um den Hals getragen wird. Andere ähnliche Amulette, die noch in Gebrauch sind, bestehen aus einem der Namen des Gottes des Judentums, wie ה (He), יה (YaH) oder שדי (Schaddai), die auf ein Stück Pergament oder Metall, meist Silber, eingraviert sind.
Zu den regionalen Traditionen rund um die Geburt von Kindern gehörten häufig Amulette, die dazu dienten, den Teufel, den Bösen Blick oder Dämonen wie Lilith abzuwehren. Sogenannte Wunderrabbiner (Ba'al Shem) waren dafür zuständig, Amulette zu schreiben und die Namen Gottes und schützenden Engel anzurufen. Hebammen stellten ebenfalls Amulette her, die oft mit Kräutern gefüllt waren.
In Süddeutschland, im Elsass und in Teilen der Schweiz trugen die jüdischen Jungen für ihre Brit Mila Halsgezeige. Münzen oder Korallensteine an diesen Halsbändern sollten den Bösen Blick von den Jungen ablenken und so als Schutz dienen. Dieser Brauch hielt sich bis ins frühe 20. Jahrhundert.
Verständnis im Christentum.
Der Bagdader Mathematiker, Philosoph und Arzt Qusta ibn Luqa ("Qusṭā ibn Lūqā al-Baʿlabakkī") war melchitischer Christ griechischer Abstammung und machte bereits in seiner um 900 entstandenen Schrift über den "Wert von Amuletten" Glauben und menschliche Einbildungskraft für deren Wirkung verantwortlich. Okkulte oder astrale Eigenschaften verneinte er.
In Europa wandte sich die christliche Kirche im Mittelalter ebenfalls gegen den Aberglauben, zu dem auch Amulette gerechnet wurden. Das hinderte den Volksglauben allerdings nicht daran, an Amuletten mit christlichem Bezug festzuhalten.
Auch hohe Kirchenmänner besitzen Glücksbringer. So sind etwa im Schatzinventar des Heiligen Stuhls von 1295 15 Natternzungenbäume verzeichnet. Als am 9. Februar 1749 der Fürstbischof Anselm Franz von Würzburg, zeitlebens ein Streiter gegen Aberglauben und Hexenwahn, nach einem Schlaganfall starb, fand man auf seiner Brust ein Amulett aus Messingblech, auf dem ein Pentagramm und einige Zauberformeln eingraviert waren. |
308 | 234396603 | https://de.wikipedia.org/wiki?curid=308 | Arc de Triomphe de l’Étoile | Der Arc de Triomphe de l’Étoile (dt. "Triumphbogen des Sterns") oder kurz Arc de Triomphe ist ein von 1806 bis 1836 errichtetes Denkmal im Zentrum der Place Charles de Gaulle in Paris. Er gehört zu den Wahrzeichen der Metropole. Unter dem Bogen liegt das Grabmal des unbekannten Soldaten aus dem Ersten Weltkrieg mit der täglich gewarteten Ewigen Flamme, im Französischen "Flamme du Souvenir" (dt. Flamme der Erinnerung) genannt, im Gedenken an die Toten, die nie identifiziert wurden. Das ganze Jahr hindurch finden Kranzniederlegungen und Ehrungen statt, die ihren Höhepunkt in der Parade am 11. November finden, dem Jahrestag des Waffenstillstands zwischen Frankreich und Deutschland im Jahr 1918.
Für Fußgänger ist der "Arc de Triomphe" nur durch eine Unterführung erreichbar; der Triumphbogen verfügt über eine Aussichtsplattform.
Der "Arc de Triomphe de l’Étoile" ist nicht zu verwechseln mit dem weniger bekannten und kleineren Arc de Triomphe du Carrousel, der sich zwischen dem Palais du Louvre und dem Jardin des Tuileries befindet.
Das Bauwerk wird vom "Centre des monuments nationaux" (dt. Zentrum für nationale Monumente) verwaltet, das dem Ministerium für Kultur untersteht.
Geschichte.
Der Triumphbogen diente dem Ruhm der kaiserlichen Armeen und wird von manchen pathetisch als „Altar des Vaterlandes“ bezeichnet, denn an diesem Ort finden die feierlichsten staatlichen Zeremonien Frankreichs statt; häufig führen Festumzüge von hier aus die Avenue des Champs Élysées hinunter oder enden mit dem Arc de Triomphe als Ziel.
Er steht im Zentrum der "Place Charles de Gaulle" (bis 1970 "Place de l’Étoile"), am westlichen Ausläufer der "Avenue des Champs Élysées". Er ist Teil der „historischen Achse“, einer Reihe von Monumenten und großen Straßen, die aus Paris herausführen. Zwölf Avenuen gehen sternförmig von diesem Triumphbogen aus. Die heutige Form des Platzes entstand 1854, war in Grundzügen aber bereits seit dem späten 18. Jahrhundert so ähnlich angelegt worden, wenn auch nur mit vier Straßen.
Der Triumphbogen selbst wurde von Kaiser Napoleon I. nach der Schlacht bei Austerlitz zur Verherrlichung seiner Siege 1806 in Auftrag gegeben. Am 15. August 1806 wurde der Grundstein zum Bau gelegt. Zwei Jahre dauerte der Bau der Fundamente. 1810 erhoben sich die vier Pylonen des Triumphbogens aber erst bis zu einer Höhe von 1 m. Napoleon heiratete am 1. April 1810 die habsburgische Prinzessin Marie-Louise; er ließ dazu ein provisorisches Modell des Triumphbogens aus Holz und Stuck in originaler Größe errichten. Ähnlich dem Elefanten der Bastille stand diese Ehrenpforte längere Zeit. Der Triumphbogen wurde (anders als der Elefant) letztlich fertiggestellt.
Als der zuständige Architekt Jean-François Chalgrin im Januar 1811 gestorben war und Napoleon am 6. April 1814 abdankte, wurden die Bauarbeiten gestoppt. Louis XVIII. ließ sie 1824 unter der Leitung von Héricart de Thury fortsetzen. 1830 entschied sich König Louis-Philippe I. (oft Bürgerkönig genannt), zur napoleonischen Konzeption zurückzukehren. Er und Adolphe Thiers entschieden über den figurativen Schmuck und seine Ausführenden. Der Bogen wurde 1836 von Huyot und Blouet fertiggestellt. Am 25. Juni 1836 schoss ein 26-jähriger Anarchist namens Louis Alibaud auf die Kutsche des Königs und verfehlte ihn nur knapp. Der König beschloss daraufhin, nicht an der geplanten großen Militärparade teilzunehmen, die am 29. Juli zur Erinnerung an den sechsten Jahrestag der Julirevolution von 1830 und zur Einweihung des Bogens stattfinden sollte.
Jean Navarre, ein Fliegerass im Ersten Weltkrieg, hatte den Plan, am 14. Juli 1919 bei einer Siegesparade durch den Triumphbogen zu fliegen. Navarre stürzte aber am 10. Juli 1919 beim Üben für diesen Flug ab und starb. Am 7. August 1919 durchflog Charles Godefroy mit einer Nieuport 11 „Bébé“ den Triumphbogen.
Im Oktober 1981 flog Alain Marchand durch den Triumphbogen.
Der Rundkurs der letzten Kilometer der Schlussetappe der Tour de France, die seit 1975 auf der Avenue des Champs Élysées endet, umrundet den Arc de Triomphe. Bis 2013 führte der Rundkurs direkt vor dem Arc de Triomphe eine Wende aus (und umkreiste ihn somit nicht).
Am Abend des 9. Januar 2015 wurden die Worte „Paris est Charlie“ auf den Triumphbogen projiziert. Die Parole, eine Abwandlung von „Je suis Charlie“, war ein Bekenntnis zu den demokratischen Werten der Meinungs- und Pressefreiheit und eine Solidaritätsbekundung mit den Mitarbeitern des Satiremagazins Charlie Hebdo, die von islamistischen Attentätern erschossen worden waren.
Am 1. Dezember 2018 wurde die Figur der Marianne am Triumphbogen schwer beschädigt, als es im Zuge der Protestaktionen der Gelbwestenbewegung zu schweren Ausschreitungen kam.
Beschreibung.
Der Triumphbogen ist 49,54 m hoch, 44,82 m breit und 22 m tief. Der große Gewölbebogen misst 29,19 m in der Höhe und 14,62 m in der Breite, der kleine Bogen 18,68 m in der Höhe und 8,44 m in der Breite. Der Entwurf ist im Stil der antiken römischen Architektur gehalten. Die vier Figurengruppen an der Basis des Bogens zeigen "Der Triumph von 1810", "Widerstand", "Frieden" und "La Marseillaise" oder "Auszug der Freiwilligen von 1792" (von François Rude). Oben sind auf den Flächen rund um den Bogen Flachreliefs mit Nachbildungen von wichtigen revolutionären und napoleonischen Siegen eingelassen. Die Innenwände des Triumphbogens beherbergen ein kleines Museum.
Inschriften.
Die Innenwände des Triumphbogens führen die Namen von:
Siehe auch → Liste der Personennamen auf dem Triumphbogen in Paris
Reliefs.
Berühmt ist der Triumphbogen auch wegen der bedeutenden Reliefs, die er trägt. Sie wurden 1833 bei den Bildhauern Antoine Étex, Jean-Pierre Cortot und vor allem François Rude in Auftrag gegeben. Die Ostfassade zeigt das berühmteste Relief, die "Marseillaise" (dt. Auszug der Freiwilligen von 1792) von Rude, die auch "Le chant du départ", also das Abschiedslied, genannt wird. Es stellt eine Gruppe ausziehender Krieger dar, die in offensichtlich revolutionärer oder erhoben nationaler Gesinnung – zumindest kann man das in dieser Szene vermuten – das neue Revolutionslied der "Marseillaise" auf den Lippen haben, das erst am 25. April 1792 komponiert worden war.
François Rude übertrifft mit dem heroischen Schwung seiner Darstellung die seiner Konkurrenten auf diesem Triumphbogen bei weitem. Er begann als akademischer Klassizist, aber mit diesem seinem bekanntesten Werk vollzog Rude als einer der ersten die Abkehr vom Klassizismus und die Hinwendung zur Romantik, zu einer neuen heroischen Leidenschaftlichkeit in der Bildhauerei, ähnlich wie Eugène Delacroix in der Malerei.
Interessant ist ein Vergleich der beiden Reliefs dieser Seite. Es handelt sich auf der anderen Seite um den „Triumph Napoleons nach dem Frieden von 1810“ (der „Triumph“ verherrlicht den Frieden von Wien) von Jean-Pierre Cortot. Das Relief von Cortot steht noch ganz in der Tradition der klassizistischen Statik, der gemessenen Heldenverehrung, des symmetrischen, wohlproportionierten Bildaufbaus – mit anderen Worten der „erhabenen Langeweile“.
Auch bei den Reliefs von Antoine Etex auf der Westseite ist diese Atmosphäre deutlich zu spüren, beispielsweise beim „Frieden“. Hier hat man noch den Eindruck, dass die Themen von einer Schauspielertruppe auf einer Theaterbühne dargestellt werden, dass hier Motive aus dem Arsenal zusammengestellt worden sind.
Auf den vier Außenseiten des Bogens befinden sich sechs Flachreliefs, die jeweils berühmte Schlachten zeigen. Unter den sechs Bildhauern ist auch Jean-Jacques Feuchère mit einer Darstellung des "Übergangs über die Brücke von Arcole" zu sehen.
Kunst.
Das Künstlerpaar Christo und Jeanne-Claude beabsichtigte, das Bauwerk im Zeitraum vom 19. September 2020 für 16 Tage bis zum 4. Oktober 2020 für seine Kunstaktion "L’Arc de Triomphe, Wrapped (Project for Paris, Place de l’Étoile – Charles de Gaulle)" zu verhüllen. Christo verstarb jedoch am 31. Mai 2020. Seinem Wunsch gemäß wurde das Projekt, dessen erste Pläne aus den 1960er Jahren stammten, von seinem Neffen postum umgesetzt. Die Verhüllung war nach zweimonatiger Vorbereitungsarbeit am 18. September fertiggestellt und dauerte bis zum 3. Oktober 2021. Eingesetzt wurden 25.000 Quadratmeter Stoff und 3.000 Meter rote Seile, die jeweils weiterverwendet werden. |
309 | 73828 | https://de.wikipedia.org/wiki?curid=309 | Akustik | Die Akustik (von griechisch (ausgesprochen: „akuein“) ‚hören‘ bzw. "akoustikós", ‚das Gehör betreffend‘) ist die Lehre vom Schall und seiner Ausbreitung. Im Wissenschaftsgebiet sind eine Vielzahl damit zusammenhängender Gesichtspunkte enthalten, so die Entstehung und Erzeugung, die Ausbreitung, die Beeinflussung und die Analyse von Schall, seine Wahrnehmung durch das Gehör und die Wirkung auf Menschen und Tiere. Akustik ist ein interdisziplinäres Fachgebiet, das auf Erkenntnissen aus zahlreichen Fachgebieten aufbaut, unter anderem der Physik, der Psychologie, der Nachrichtentechnik und der Materialwissenschaft. Akustik wird auch (unscharf) in drei Teilgebiete unterteilt:
Zu den wichtigsten Anwendungen der Akustik gehören die Erforschung und Minderung von Lärm, das Bemühen, einen Wohlklang hervorzurufen oder eine akustische Information, etwa einen Ton, zu übertragen. Außerdem ist der Einsatz von Schall zur Diagnose oder zu technischen Zwecken eine wichtige Anwendung der Akustik.
Geschichte.
Antike und Mittelalter.
Als eine erste systematische Beschäftigung mit der Akustik gilt die Einführung von Tonsystemen und Stimmungen in der Musik im 3. Jahrtausend v. Chr. in China. Aus der abendländischen Antike ist eine wissenschaftliche Beschäftigung mit der Akustik unter anderem von Pythagoras von Samos (ca. 570–510 v. Chr.) überliefert, der den Zusammenhang von Saitenlänge und Tonhöhe beim Monochord mathematisch analysierte, manche ihm zugeschriebene Erkenntnisse, wie etwa Pythagoras in der Schmiede, sind allerdings eher als Legende einzustufen.
Im 8. Kapitel seines Werkes "De Anima" ("Von der Seele") beschrieb Aristoteles um 350 v. Chr. den physikalischen Wellencharakter des Schalls als "räumliche Bewegung", "Erschütterung" und durch periodischen Druck erzeugtes "Ausdehnen und Zusammenziehen" der Luft, ebenso wie die Abhängigkeit des Schalls von einem Medium, in dem er sich ausbreiten kann, wie etwa Luft oder Wasser. Im um c. 290 v. Chr. entstandenen, früher Aristoteles und heute allgemein Straton von Lampsakos zugeschriebenen, allein in Auszügen im "Kommentar zur Harmonielehre des Ptolemaios" von Porphyrios überlieferten Werk "De audibilibus" ("Von hörbaren Dingen") findet sich eine Abhandlung über die Abhängigkeit der Tonhöhe von der Schwingungsfrequenz der Schallwellen in der Luft.
Chrysippos von Soli (281–208 v. Chr.) beschrieb den Wellencharakter von Schall durch einen Vergleich mit Wellen auf der Wasseroberfläche. Der römische Architekt Vitruv (ca. 80–10 v. Chr.) analysierte die Schallausbreitung in Amphitheatern und vermutete die Ausbreitung von Schall als Kugelwelle. Er beschrieb ebenfalls die Wirkungsweise von Helmholtz-Resonatoren zur Absorption tieffrequenten Schalls.
Dem islamischen Gelehrten al-Bīrūnī wird für die Zeit um 1000 die Entdeckung zugeschrieben, dass der Schall sich um ein Vielfaches langsamer bewege als das Licht.
Frühe Neuzeit.
Leonardo da Vinci (1452–1519) war unter anderem bekannt, dass Luft als Medium zur Ausbreitung des Schalls erforderlich ist und dass sich Schall mit einer endlichen Geschwindigkeit ausbreitet. Von dem Priester, Mathematiker und Musiktheoretiker Marin Mersenne (1588–1648) stammt neben anderen wissenschaftlichen Erkenntnissen zur Natur des Schalls auch die erste Angabe einer experimentell bestimmten Schallgeschwindigkeit. Galileo Galilei (1564–1642) beschrieb den für die Akustik wichtigen Zusammenhang zwischen Tonhöhe und Frequenz. Galilei und Mersenne entdeckten etwa zeitgleich eine beim Instrumentenbau eingesetzte Formel zur exakten Berechnung der benötigten Masse (Dicke), Spannungsgrad und Schwingungsfrequenz einer Saite zur Hervorbringung bestimmter Töne.
Joseph Sauveur (1653–1716) führte die Bezeichnung „Akustik“ für die Lehre vom Schall ein. Isaac Newton (1643–1727) berechnete als erster die Schallgeschwindigkeit auf Grund theoretischer Überlegungen, während Leonhard Euler (1707–1783) eine Wellengleichung für Schall in der heute verwendeten Form fand. Ernst Florens Friedrich Chladni (1756–1827) gilt als Begründer der modernen experimentellen Akustik; er fand die Chladnischen Klangfiguren, die Eigenschwingungen von Platten sichtbar machen.
19. Jahrhundert.
Mit Beginn des 19. Jahrhunderts setzte eine intensive Beschäftigung mit der Akustik ein und zahlreiche Wissenschaftler widmeten sich dem Thema. So fand Pierre-Simon Laplace (1749–1827) das adiabatische Verhalten von Schall, Georg Simon Ohm (1789–1854) postulierte die Fähigkeit des Gehörs, Klänge in Grundtöne und Harmonische aufzulösen, Hermann von Helmholtz (1821–1894) erforschte die Tonempfindung und beschrieb den Helmholtz-Resonator und John William Strutt, 3. Baron Rayleigh (1842–1919) veröffentlichte die „Theory of Sound“ mit zahlreichen mathematisch begründeten Erkenntnissen, die den Schall, seine Entstehung und Ausbreitung betreffen.
In der zweiten Hälfte des 19. Jahrhunderts werden erste akustische Mess- und Aufzeichnungsgeräte entwickelt, so der Phonautograph von Édouard-Léon Scott de Martinville (1817–1897) und später der Phonograph von Thomas Alva Edison (1847–1931). August Kundt (1839–1894) entwickelte das Kundtsche Rohr und setzte es zur Messung des Schallabsorptionsgrades ein.
20. Jahrhundert.
Ab dem Beginn des 20. Jahrhunderts kam es zur breiten Anwendung der vorhandenen theoretischen Erkenntnisse zur Akustik. So entwickelte sich die von Wallace Clement Sabine begründete wissenschaftliche Raumakustik mit dem Ziel, die Hörsamkeit von Räumen zu verbessern. Die Erfindung der Elektronenröhre 1907 ermöglichte den breiten Einsatz elektroakustischer Übertragungstechnik. Paul Langevin (1872–1946) verwendete Ultraschall zur technischen Ortung von Objekten unter Wasser (Sonar). Heinrich Barkhausen (1881–1956) erfand das erste Gerät zur Messung der Lautstärke. Seit etwa 1930 erscheinen wissenschaftliche Fachzeitschriften, die sich ausschließlich Themen der Akustik widmen.
Zu einer der wichtigsten Anwendungen der Akustik entwickelt sich in der ersten Hälfte des 20. Jahrhunderts auch die Minderung von Lärm, so wird zum Beispiel der Schalldämpfer für die Abgasanlage von Kraftfahrzeugen immer weiter verbessert. Mit der Einführung von Strahltriebwerken um 1950 und der für den erfolgreichen Einsatz notwendigen Lärmminderung entwickelte sich die Aeroakustik, die wesentlich durch die Arbeiten von Michael James Lighthill (1924–1998) begründet wurde.
Teilgebiete.
Innerhalb der Akustik werden eine Vielzahl unterschiedlicher Aspekte behandelt:
Analysemethoden.
Frequenzanalyse.
Neben der Betrachtung zeitgemittelter Schallfeld- und Schallenergiegrößen wird oft die zeitliche Auslenkung gemessen, z. B. das Drucksignal, und einer Frequenzanalyse unterzogen. Für den Zusammenhang des so erhaltenen Frequenzspektrums mit dem Klang siehe Klangspektrum. Die zeitliche Veränderung innerhalb eines Schallereignisses wird durch Kurzzeit-Fourier-Transformation zugänglich. Die Veränderungen des Spektrums beim Prozess der Schallabstrahlung, -ausbreitung und Messung bzw. Wahrnehmung werden durch den jeweiligen Frequenzgang beschrieben. Den Frequenzgang des Gehörs berücksichtigen Frequenzbewertungskurven.
Resonanzanalyse.
Die akustische Resonanzanalyse wertet die entstehenden Resonanzfrequenzen aus, wenn ein Körper durch eine impulshafte Anregung wie etwa einen Schlag in Schwingung versetzt wird. Ist der Körper ein schwingungsfähiges System, so bilden sich über einen gewissen Zeitraum bestimmte charakteristischen Frequenzen aus, der Körper schwingt in den so genannten natürlichen Eigen- oder Resonanzfrequenzen – kurz Resonanzen.
Ordnungsanalyse.
Bei der Ordnungsanalyse werden Geräusche oder Schwingungen von rotierenden Maschinen analysiert, wobei im Gegensatz zur Frequenzanalyse hierbei der Energiegehalt des Geräusches nicht über der Frequenz, sondern über der Ordnung aufgetragen wird. Die Ordnung entspricht dabei einem Vielfachen der Drehzahl.
Laborräume.
Reflexionsarmer Raum.
Ein reflexionsarmer Raum, manchmal physikalisch unrichtig auch „schalltoter“ Raum genannt, besitzt Absorptionsmaterial an Decke und Wänden, so dass nur minimale Reflexionen auftreten und Bedingungen wie in einem Direktfeld D (Freifeld oder freiem Schallfeld) herrschen, wobei der Schalldruck mit 1/r nach dem Abstandsgesetz von einer Punktschallquelle abnimmt. Solche Räume eignen sich für Sprachaufzeichnungen und für Versuche zur Lokalisation von Schallquellen. Wird auf einer gedachten Hüllfläche um die Schallquelle die senkrecht durch diese Fläche tretende Schallintensität gemessen, so kann die Schallleistung der Quelle bestimmt werden. Ein reflexionsarmer Raum mit schallreflektierendem Boden wird in Angrenzung zum Freifeldraum als Halbfreifeldraum bezeichnet.
Freifeldraum.
Ein Freifeldraum ist die spezielle Ausführung eines reflexionsarmen Raumes. Hier ist jedoch zusätzlich auch der Boden mit absorbierendem Material bedeckt. Da der Boden durch diese Maßnahme nicht mehr begehbar ist, wird meistens ein schalldurchlässiges Gitter darüber angeordnet, das den Zugang zum Messobjekt ermöglicht. Derartige Räume werden in der akustischen Messtechnik eingesetzt, um gezielte Schallquellenanalysen – auch unter dem Messobjekt – durchführen zu können.
Hallraum.
Ein Hallraum dagegen wird so konstruiert, dass an jedem beliebigen Punkt im Schallfeld Reflexionen gleicher Größe aus allen Richtungen zusammentreffen. In einem idealen Hallraum herrscht daher mit Ausnahme des Bereiches direkt um die Schallquelle (siehe Hallradius) an jedem Ort derselbe Schalldruck. Ein solches Schallfeld wird Diffusfeld genannt. Da die Schallstrahlen aus allen Richtungen gleichzeitig einfallen, ist in einem Diffusfeld keine Schallintensität vorhanden. Um Resonanzen in einem Hallraum zu vermeiden, wird er im Allgemeinen ohne parallel zueinander stehende Wände und Decken gebaut. Über Nachhallzeit-Messungen oder durch Referenzschallquellen kann der Raum kalibriert werden. Hierbei wird die Differenz zwischen dem an einem beliebigen Ort im Raum, weit genug außerhalb des Hallradius gemessenen Schalldruckpegel und dem Schallleistungspegel einer Schallquelle bestimmt. Diese Differenz ist frequenzabhängig und bleibt unverändert, solange sich der Aufbau des Raumes und der Absorptionsgrad der Wände nicht ändern. In einem Hallraum kann daher die Schallleistung einer Quelle theoretisch mit einer einzigen Schalldruckmessung bestimmt werden. Dieses ist z. B. für Fragestellungen im Bereich des Schallschutzes sehr nützlich.
Akustik in der Natur.
Akustik bei Lebewesen.
Die meisten höheren Tiere besitzen einen Hörsinn. Schall ist ein wichtiger Kommunikationskanal, da er praktisch unmittelbare Fernwirkung besitzt. Mit Lautäußerungen ist den Tieren ein Mittel zur Reviermarkierung, Partner- oder Rudelsuche, zum Auffinden von Beute und zur Mitteilung von Stimmungen, Warnsignalen usw. gegeben. Der menschliche Hörbereich liegt zwischen der Hörschwelle und der Schmerzschwelle (etwa 0 dB HL bis 110 dB HL).
Lautlehre.
Bei der Erzeugung von Lauten im Rahmen der Lautlehre unterscheidet man im Allgemeinen zwischen stimmhaften und stimmlosen Phonemen. Bei den stimmhaften Phonemen, die als Vokale bezeichnet werden, werden beim Kehlkopf durch Vibration der Stimmbänder die „Roh“klänge erzeugt, die dann im Rachen- und Nasenraum durch verschiedene willkürlich beeinflussbare oder unveränderliche individualspezifische Resonanzräume moduliert werden. Bei stimmlosen Phonemen, den Konsonanten, ruhen die Stimmbänder, wobei der Laut durch Modulation des Luftstromes zustande kommt. Beim Flüstern werden selbst die Vokale nur durch Modulation des Spektrums des Rauschens eines hervorgepressten Luftstromes gebildet, wobei die Stimmbänder ruhen.
Berufsausbildung.
Fachleute für Akustik werden als Akustiker oder Akustikingenieur bezeichnet. Die englischen Berufsbezeichnungen sind acoustical engineer oder acoustician. Der übliche Zugang zu diesem Arbeitsfeld ist ein Studium im Bereich Physik oder ein entsprechendes ingenieurwissenschaftliches Studium. Hörgeräteakustiker arbeiten im Fachbereich der Medizintechnik und verwenden in ihrem Beruf sowohl physikalisches als auch medizinisches Fachwissen. |
310 | 1102790 | https://de.wikipedia.org/wiki?curid=310 | Amerika (Begriffsklärung) | Amerika steht für:
Künste und Medien:
Orte:
Familienname:
Schiffe, siehe Liste von Schiffen mit dem Namen Amerika, darunter:
Sonstiges:
Siehe auch: |
311 | 3024391 | https://de.wikipedia.org/wiki?curid=311 | Afroasiatische Sprachen | Die afroasiatischen Sprachen (traditionell als "semito-hamitisch" oder "hamito-semitisch" bezeichnet) bilden eine Sprachfamilie, die in Nord- und Ostafrika sowie in Vorderasien verbreitet ist. Das Afroasiatische besteht aus sechs Zweigen: dem Ägyptischen, Berberischen, Semitischen, Kuschitischen, Omotischen und dem Tschadischen. Diese umfassen insgesamt etwa 350 Sprachen mit etwa 350 Millionen Sprechern. Etwa 40 der ursprünglich bekannten Sprachen sind heute ausgestorben.
Das Afroasiatische ist auch eine der vier großen Familien (Phyla) afrikanischer Sprachen, deren Identifizierung Joseph Greenberg in seinen Arbeiten von 1949 bis 1963 etabliert hatte und die heute die Basis aller linguistischen Klassifikationen in Afrika bildet.
Das Gebiet der (rezenten) Sprachfamilie der afroasiatischen Sprachen grenzt im Süden an die Sprachfamilien der Niger-Kongo- und nilosaharanischen Sprachen und im Nordosten an den Sprachraum der indoeuropäischen Sprachen und der Turksprachen.
Bezeichnung.
Joseph Greenberg führte die Bezeichnung „Afroasiatisch“ (auch „Afro-Asiatisch“) für die Sprachfamilie ein. Sie hat die ältere Benennung „Hamito-Semitisch“ vielfach abgelöst. Diese scheint insofern irreführend, als sie eine Zweiteilung in „semitische“ und „hamitische“ Sprachen suggeriert und im Zusammenhang mit der Hamitentheorie als rassistisch konnotiert empfunden werden kann. Als weitere Benennungen wurden "Afrasisch" (Igor M. Diakonoff), "Lisramisch" (Carleton T. Hodge) und "Erythräisch" (Leo Reinisch) vorgeschlagen; diese Termini haben jedoch, mit Ausnahme von "Afrasisch," kaum Anhänger gefunden. (Erythräisch ist in diesem Zusammenhang nicht mit der Bezeichnung einer von Christopher Ehret vorgeschlagenen hypothetischen Untergruppe des Afroasiatischen zu verwechseln).
Die ältere, früher weit verbreitete Bezeichnung als hamito-semitisch geht auf die Völkertafel der Bibel zurück, die die Söhne Hams und Sems im hier gemeinten Sprachgebiet verortet. Die Begriffe sind nicht ethnisch gemeint und gruppieren die Sprachen in zwei differierende Zonen: Tatsächlich sind einerseits Koptisch und Berberisch in Nordafrika einander ähnlicher als beispielsweise Koptisch und die semitischen Sprachen Hebräisch, Arabisch, Aramäisch; andererseits weisen die semitischen Sprachen untereinander ein engeres Verwandtschaftsverhältnis auf, das sie von den nordafrikanischen Sprachen abhebt. Auch wenn Hamitisch als Bezeichnung für die offenbar auf afrikanischem Boden entstandenen „afroasiatischen“ Sprachen heute außer Gebrauch kommt, bleibt die Bezeichnung Semitisch weiterhin üblich.
Primärzweige, Gliederung und geografische Ausbreitung.
Man unterscheidet heute in der Regel folgende fünf oder sechs Primärzweige des Afroasiatischen, wobei besonders die Zugehörigkeit des Omotischen umstritten ist:
Die genaue Zahl der Sprachen ist kaum abschließend zu bestimmen, weil oft unklar ist, was Dialekt einer bestimmten Sprache ist und was eigenständige Sprache.
Die folgenden Beispiele illustrieren die Beziehungen der afroasiatischen Sprachen untereinander sowohl im lexikalischen wie im morphologischen Bereich, wobei besonders bestimmte Verbflexionen („Präformativkonjugation“) einander sehr ähnlich sind (siehe hier die letzten drei Beispiele unten), so sehr, dass es kaum eine andere Erklärung für die Übereinstimmungen zwischen dem Semitischen, Berberischen und Kuschitischen gibt als eine gemeinsame Ursprache. Die Verwandtschaft dieser drei mit dem Ägyptischen und dem Tschadischen ist weniger offensichtlich und wurde auch schon angezweifelt, eine Verwandtschaft mit dem Omotischen ist stark umstritten.
Die in Äthiopien gesprochene Sprache Ongota (Birale) gehört möglicherweise auch zur afroasiatischen Familie und etabliert nach H. Fleming einen unabhängigen weiteren Zweig. Einige Wissenschaftler halten das Kuschitische nicht für eine genetische Einheit, sondern nehmen an, dass es aus zwei oder mehr direkt dem Afroasiatischen untergeordneten Primärzweigen besteht.
Die früher vorgenommene Teilung in semitische und hamitische Sprachen wird heute nicht mehr vertreten (dazu siehe den Artikel afrikanische Sprachen). Es existieren mehrere Vorstellungen darüber, in welcher Reihenfolge und wann sich die einzelnen Primärzweige vom Proto-Afroasiatischen abspalteten. Ein linguistisch begründetes Szenario liefert Ehret 1995. Danach hat sich zuerst – vor mindestens 10.000 Jahren – der omotische Zweig vom Kern getrennt (dies wird heute nahezu von allen Forschern so gesehen, während die weiteren Stufen durchaus umstritten sind). Als nächste Zweige spalteten sich das Kuschitische und Tschadische ab, die Trennung des Restes (von Ehret "Boreafrasisch" genannt) in Ägyptisch, Berberisch und Semitisch erfolgte zuletzt. Es ist nach heutigem Kenntnisstand nicht möglich, eine auch nur annähernde absolute Chronologie dieser Abspaltungen anzugeben. Nach dem Modell von Ehret ergibt sich folgender „dynamischer“ Stammbaum des Afroasiatischen:
"Stammbaum und interne Gliederung des Afroasiatischen (nach Ehret 1995)"
Der von Ehret hier eingeführte Name "Erythräisch" (für Afroasiatisch ohne Omotisch) wurde von anderen Forschern für die gesamte afroasiatische Sprachfamilie verwendet, er konnte sich aber nicht gegen "Afroasiatisch" durchsetzen.
Ägyptisch.
Das Ägyptische stellt eine Ausnahme unter den afroasiatischen Primärzweigen dar, da es aus nur einer einzigen Sprache besteht, die eine lückenlose Überlieferung über fast fünf Jahrtausende aufweist. Seine letzte Stufe, das Koptische, starb in der frühen Neuzeit als Alltagssprache aus. Das Ausbreitungsgebiet des Ägyptischen umfasste in historischer Zeit kaum mehr als das nördliche Drittel des Niltales, im 3. Jahrtausend v. Chr. wurde jedoch möglicherweise auch in der ägyptischen Westwüste ein dem Ägyptischen nahe verwandtes Idiom gesprochen, von dem sich einzelne Personennamen in ägyptischer Überlieferung finden. Durch seine lange Überlieferungsdauer ist das Ägyptische von besonderem sprachwissenschaftlichem Interesse, jedoch fehlen ihm trotz der frühen Überlieferung einige grundlegende morphologische und möglicherweise auch phonologische Eigenschaften des Afroasiatischen.
Berberisch.
Die Berbersprachen wurden vor der Expansion des Islam und der damit verbundenen Ausbreitung des Arabischen beinahe in der gesamten Sahara gesprochen. Das heutige Hauptverbreitungsgebiet liegt in den Staaten Niger, Mali, Algerien, Marokko, Tunesien und im westlichen Libyen; kleine Sprachinseln haben sich auch im Nordosten der Sahara in Oasen wie Augila (Libyen) und Siwa (Ägypten) sowie im westlichen Mauretanien gehalten. Im Gegensatz zu den anderen Zweigen des Afroasiatischen (außer dem Ägyptischen) sind die Berbersprachen untereinander nahe verwandt und gehören fast vollständig zu zwei Dialektkontinua. Die bekanntesten Berbersprachen sind Kabylisch, Zentralatlas-Tamazight, Taschelhit, Tarifit sowie das Tuareg. Meistens wird auch die kaum bekannte libysche Sprache in aus den letzten vorchristlichen Jahrhunderten stammenden Inschriften in Algerien, Tunesien und Marokko zum Berberischen gerechnet. Ebenso dürfte auch das bis ins 17. Jahrhundert auf den kanarischen Inseln gesprochene Guanche eine Berbersprache gewesen sein.
Semitisch.
Das Semitische ist heute mit etwa 260 Millionen Sprechern die sprecherreichste afroasiatische Sprachfamilie und wird in Vorderasien, am Horn von Afrika und weiten Teilen Nordafrikas sowie auf Malta gesprochen, wobei der größte Anteil der Sprecher auf das Arabische entfällt. Einer Überlegung nach wird angenommen, dass die Urheimat der semitischen Sprachen auf der Arabischen Halbinsel lag und sich die Sprachfamilie erst durch die südarabischen Expansionen nach Äthiopien und später durch die arabischen Expansionen über Ägypten und Nordafrika und zeitweise bis nach Spanien ausbreitete. Andere verorten die Urheimat für die semitische Protosprache im nordöstlichen Afrika. Das Semitische wird allgemein in zwei Zweige aufgeteilt, wobei einer das ausgestorbene Akkadische bildet, das für die Rekonstruktion des Proto-Semitischen und damit auch der afroasiatischen Protosprache von besonderem Interesse ist. Auf den anderen, westlichen, Zweig entfallen die zentralsemitischen Sprachen wie Aramäisch, Hebräisch, Arabisch und Altsüdarabisch, die äthiosemitischen Sprachen wie Altäthiopisch und die neusüdarabischen Sprachen.
Kuschitisch.
Die kuschitischen Sprachen werden in Ostafrika in den heutigen Staaten Sudan, Eritrea, Äthiopien, Somalia, Kenia, Uganda und dem nördlichen Tansania gesprochen. Die Einheit der kuschitischen Sprachen ist nicht unumstritten, da die einzelnen Zweige sich wesentlich unterscheiden; insbesondere die Zugehörigkeit des Bedscha wird diskutiert. Im Allgemeinen werden die folgenden Zweige unterschieden:
Omotisch.
Die omotischen Sprachen werden von etwa 4 Millionen Sprechern nordöstlich des Turkanasees im südlichen Äthiopien gesprochen. Sie wurden zunächst für einen Zweig des Kuschitischen gehalten, inzwischen ist die von Harold Fleming begründete Abgliederung weitestgehend anerkannt. Die omotischen Sprachen sind schlechter erforscht als die Vertreter der anderen Zweige, dennoch kann bereits jetzt gesagt werden, dass sie in ihrer Struktur stark von den anderen afroasiatischen Primärzweigen abweichen. Die folgende Gliederung ist, von Einzelheiten abgesehen, allgemein anerkannt:
Tschadisch.
Die tschadischen Sprachen werden rund um den namensgebenden Tschadsee, hauptsächlich im Tschad, Niger und in Nigeria, gesprochen. Die bei weitem bekannteste und bedeutendste tschadische Sprache ist das Hausa, das in einem großen Gebiet um den Tschadsee als Lingua franca dient. Das Tschadische wird in vier Zweige aufgeteilt:
Forschungs- und Klassifikationsgeschichte.
Die Verwandtschaft der semitischen Sprachen untereinander war Juden und Muslimen im Orient und Spanien schon lange bekannt, im christlichen Europa erkannte dies erstmals Guillaume Postel im Jahre 1538. Durch die wissenschaftliche Erforschung afrikanischer Sprachen in Europa, die in der ersten Hälfte des 17. Jahrhunderts einsetzte, wurde bald die Verwandtschaft weiterer Sprachen mit dem Semitischen erkannt. So rechnete Hiob Ludolf 1700 die äthiopischen Sprachen Altäthiopisch und Amharisch erstmals zum Semitischen, bald darauf fielen auch Ähnlichkeiten mit dem Koptischen und – nach der Entzifferung der Hieroglyphen – dem antiken Ägyptisch auf. 1781 führte August Ludwig von Schlözer den Begriff "semitische Sprachen" ein, in Anlehnung daran prägte Johann Ludwig Krapf 1850 die Bezeichnung "hamitische Sprachen" zunächst für die nicht-semitischen schwarzafrikanischen Sprachen. 1877 fügte F. Müller dieser Gruppe die afroasiatischen Berber- und Kuschitensprachen zu, während das ebenfalls afroasiatische Tschadisch unberücksichtigt blieb. Gleichzeitig fasste er bestimmte hamitische Sprachen und die semitischen Sprachen zum "Hamito-Semitischen" zusammen. Eine Neudefinition erfuhr der Begriff der hamitischen Sprachen durch Karl Richard Lepsius, der nun die flektierenden Sprachen Afrikas mit Genussystem unter dieser Bezeichnung zusammenfasste. Damit hatte Lepsius schon die wesentliche Masse der nichtsemitischen afroasiatischen Sprachen erfasst, jedoch erweiterte er diese Gruppe 1888 um einige nichtafroasiatische Sprachen, ebenso benutzte auch Carl Meinhof in seinem 1912 erschienenen Werk "Die Sprachen der Hamiten" "hamitisch" in einem sehr weiten Rahmen. In der Folgezeit wurde der "hamito-semitische Sprachstamm" um einige Sprachen reduziert und entsprach in den Grundzügen der heutigen Klassifikation, strittig blieb jedoch die Zugehörigkeit der tschadischen Sprachen, die erst in den 1950er Jahren von Joseph Greenberg endgültig etabliert wurde. Gleichzeitig prägte er den Begriff "afroasiatisch" als Ersatz für den eine ungerechtfertigte Aufteilung in hamitische und semitische Sprachen implizierenden Begriff "hamito-semitisch", welcher auf die Hamitentheorie Bezug nahm. Die heutige Form erhielt die Klassifikation des Afroasiatischen 1969 durch Harold Flemings Ausgliederung einiger äthiopischer Sprachen aus der kuschitischen Familie, die von da an als "Omotisch" einen eigenen Primärzweig des Afroasiatischen bildeten.
Protosprache und Urheimat.
Die Rekonstruktion der afroasiatischen Protosprache gestaltet sich aufgrund der kurzen Überlieferungsgeschichte der meisten Zweige und der teilweise gravierenden Unterschiede zwischen den einzelnen Hauptzweigen sowohl im Bereich der Grammatik als auch im lexikalischen Bereich wesentlich schwieriger als z. B. die Rekonstruktion des Proto-Indogermanischen. Diese gravierenden Unterschiede lassen sich auf die verhältnismäßig große Zeittiefe des Proto-Afroasiatischen zurückführen, nach glottochronologischen Untersuchungen soll das Proto-Afroasiatische um 10.000–9.000 v. Chr. gesprochen worden sein.
Die Lage der Urheimat ist umstritten, da jedoch die Mehrzahl der afroasiatischen Sprachen in Nordafrika beheimatet ist, liegt eine Herkunft aus Nordafrika nahe. Besonders die nordöstliche Sahara oder das heutige nördliche Libyen werden favorisiert. Aufgrund lexikalischer Übereinstimmungen des Afroasiatischen mit dem Indogermanischen, den kaukasischen Sprachen und dem Sumerischen sowie der kulturellen Stellung des rekonstruierten proto-afroasiatischen Vokabulars vertreten einige Wissenschaftler wie z. B. Alexander Militarev dagegen eine Urheimat in der Levante.
Verschriftlichung und früheste Belege.
Die früheste durch Schriftquellen belegte afroasiatische Sprache ist das Alt- bzw. – genauer – Frühägyptische, dessen älteste Zeugnisse bis zum Ende des vierten vorchristlichen Jahrtausends zurückreichen. Einige Jahrhunderte später setzt die Überlieferung des Semitischen, zunächst des Akkadischen und im zweiten Jahrtausend v. Chr. westsemitischer Idiome ein. Die aus den Jahrhunderten vor Christi Geburt stammenden libyschen Inschriften aus Nordafrika werden zwar allgemein zum Berberischen gerechnet, sind aber bislang unverständlich; die frühesten Belege für das Kuschitische, Tschadische und Omotische finden sich sogar erst im Mittelalter bzw. der Neuzeit. Nur ein kleiner Teil der zahllosen tschadischen, kuschitischen und omotischen Sprachen ist heute zu Schriftsprachen geworden, unter diesen befinden sich Sprachen wie das Somali, das Hausa und das Oromo.
Die Transkription von Worten aus afroasiatischen Sprachen folgt in diesem Artikel im Wesentlichen den in der entsprechenden Fachliteratur üblichen Konventionen. Aufgrund der Unterschiede zwischen Konventionen in Semitistik, Ägyptologie und Afrikanistik ist die Umschrift daher nicht für alle Sprachen einheitlich.
Phonologie.
Konsonanten.
Das Konsonantensystem des Proto-Afroasiatischen wird übereinstimmend mit etwa 33/34 Phonemen und teilweise auch velarisierten, palatalisierten und sonstigen Varianten rekonstruiert. Die Lautkorrespondenzen der Hauptzweige untereinander sind jedoch in zahlreichen Fällen unsicher, besonders gravierend sind die Meinungsverschiedenheiten hinsichtlich des Ägyptischen, die sich stark auf die innerägyptologische Diskussion auswirken. Beispielsweise ist umstritten, ob das Ägyptische emphatische Konsonanten aufwies und ob das ägyptische Phonem ʿ, das spätestens seit dem 2. Jahrtausend v. Chr. den Lautwert besaß, auf proto-afroasiatisches ʕ oder eine Reihe stimmhafter Plosive und Frikative zurückgeht. Dennoch sind einige allgemeine Aussagen möglich. Die meisten bzw. alle afroasiatischen Hauptzweige haben neben stimmhaften und stimmlosen konsonantischen Phonemen auch eine dritte Reihe, deren Mitglieder in Abhängigkeit von der Sprache glottalisiert, pharyngalisiert, ejektiv, velarisiert oder implosiv realisiert werden und traditionell als "emphatisch" bezeichnet werden. Oft bilden stimmhafte, stimmlose und emphatische Konsonanten triadische Gruppen. In mehreren Hauptzweigen sind pharyngale Frikative (, ) vorhanden.
Als klassisches Beispiel für ein typisch afroasiatisches Konsonantensystem kann dasjenige des Altsüdarabischen gelten. Es weist das konservativste System innerhalb des Semitischen auf und kommt darüber hinaus den für das Proto-Afroasiatische rekonstruierten Inventaren nahe:
Im Semitischen, Berberischen und Ägyptischen ist das Vorkommen von Konsonanten in Wurzeln beschränkt. Insbesondere dürfen meist unterschiedliche Konsonanten mit dem gleichen Artikulationsort nicht in einer Wurzel vorkommen.
Vokale.
Protosemitisch, Altägyptisch und möglicherweise das Protoberberische wiesen die drei Vokalphoneme "a", "i" und "u" auf, die Beziehungen dieser Vokale zu denen anderer Sprachen, die durchgehend mehr Vokale aufweisen, sind kaum gesichert. Nach Ehret 1995 besaß die Protosprache die Vokale "a", "e", "i", "o", "u", die lang und kurz auftreten konnten; die Rekonstruktion von Orel und Stolbova 1995 weicht ab. Zwar sind einige afroasiatische Sprachen Tonsprachen, doch ist unklar, ob das Proto-Afroasiatische deshalb ebenfalls eine Tonsprache war, wie Ehret 1995 annimmt.
Morphologie.
Für das Semitische, Berberische und Ägyptische ist eine extensive Nutzung einer "Wurzelmorphologie" typisch, in der die lexikalische Information fast ausschließlich durch eine rein konsonantische Wurzel übermittelt wird, der die grammatische Information vor allem in Form von Vokalen beigefügt wird. Im Tschadischen und Kuschitischen findet sich nur ein begrenzt eingesetzter Ablaut; die Morphologie des Omotischen basiert dagegen fast ausschließlich auf Suffigierung und ist teilweise agglutinierend. In der wissenschaftlichen Diskussion geht man davon aus, dass das Proto-Afroasiatische zwar, beispielsweise zur Pluralbildung und zur Bildung von Aspektstämmen (siehe unten), ablautende Formen besaß, es lassen sich aber nur sehr wenige der vielen in den Sprachen vorhandenen Vokalisierungsmuster für das Proto-Afroasiatische rekonstruieren.
Nominalmorphologie.
Für das Proto-Afroasiatische lässt sich ein zweiteiliges Genussystem mit den Genera Maskulinum und Femininum rekonstruieren, die sich nicht vollständig mit dem natürlichen Geschlecht (Sexus) decken. Zu den sichersten Gemeinsamkeiten in der Nominal- und auch Pronominalmorphologie gehört ein feminines Bildungselement "t", das in vielen Sprachen an feminine Substantive suffigiert wird:
Während das Maskulinum in der Nominalmorphologie des Berberischen, Ägyptischen und Semitischen unmarkiert ist, wenden viele Sprachen in anderen Primärzweigen hierzu analog zum Femininum Morpheme wie "k" und "n" an.
Kuschitisch, Berberisch und Semitisch haben außerdem ein Kasussystem gemeinsam, von dem sich mögliche Spuren auch im Ägyptischen und Omotischen finden, wobei die Interpretation oder überhaupt Existenz des ägyptischen Befundes umstritten ist.
Die Reflexe des rekonstruierten Absolutivs fungieren in allen Sprachen als Objekt transitiver Verben und im Berberischen und Kuschitischen auch als Zitierform und extrahiertes Topik; von letzterem Gebrauch gibt es auch mögliche Reste im Semitischen. Das Subjekt wird mit Reflexen des Nominativsuffixes markiert; die Protosprache wird daher meist als Akkusativsprache angesehen. Da der Absolutiv der unmarkierte Kasus gewesen sein soll, vermuten einige Wissenschaftler, dass das Proto-Afroasiatische in einer früheren Stufe eine Ergativsprache gewesen sein könnte, in welcher das Nominativsaffix -"u" auf die Subjekte transitiver Verben begrenzt gewesen sein soll.
Alle Zweige des Afroasiatischen kennen die Numeri Singular und Plural, im Semitischen und Ägyptischen kommt ein Dual hinzu, für den sich ein Suffix *-"y" rekonstruieren lässt. Die Pluralbildung erfolgt allgemein, mit Ausnahme des Ägyptischen, in dem sich ein Suffix -"w" durchgesetzt hatte, auf vielfältige Art und Weise. Aufgrund ihrer großen Verbreitung können die Pluralsuffixe -"n", -"w" und die Pluralbildung durch Veränderung der Vokalstruktur (besonders nach dem Muster CVCaC u. ä.), Gemination und Reduplikationen als proto-afroasiatische Merkmale angesehen werden:
Über die ganze Sprachfamilie verbreitet sind außerdem einige Präfixe zur denominalen und deverbalen Nominalbildung, beispielsweise *"m"-, das zur Bildung deverbaler Substantive dient:
Ein Suffix *-"y" zur Bildung von denominalen Adjektiven, das oft mit der Genitivendung *-"i" in Verbindung gebracht wird, ist im Ägyptischen und Semitischen vorhanden:
Ähnliche Suffixe zur Bildung von Adjektiven finden sich auch im kuschitischen Bedscha.
Pronomina.
Die Morphologie der Personalpronomina ist innerhalb des Afroasiatischen relativ konsistent. Den Kern bildete die folgende, in allen Zweigen erhaltene Reihe (Tabelle im Wesentlichen nach Hayward 2000; die angegebenen Pronomina sind oft in mehreren einzelsprachlichen Reihen verteilt. Die Dualformen im Ägyptischen und Semitischen bleiben hier unberücksichtigt.):
In allen Primärzweigen außer dem Omotischen treten diese Pronomina als klitische Objekts- und Possessivpronomina auf:
Einzelsprachlich haben formal verwandte Pronomina auch eine Reihe anderer Funktionen, so haben viele Sprachen formal ähnliche Subjektspronomina. Auch die Intransitive Copy Pronouns einiger tschadischer Sprachen sind formal ähnlich.
Daneben lässt sich wohl eine zweite Reihe rekonstruieren, deren Mitglieder frei stehen konnten und die oft aus einem Element "ʔan-" und einem auch für die Verbalkonjugation benutzten Suffix zusammengesetzt sind. Ehret 1995 rekonstruiert nur Formen für den Singular; in vielen Sprachen gibt es auch analog gebildete Pluralformen.
Ägyptisch und Semitisch haben weitere freie Pronomina, die aus den gebundenen Pronomina und -"t" zusammengesetzt sind, wie ägyptisch "kwt" > "ṯwt" „du (mask.)“, akkadisch "kâti" „dich (mask.)“.
Die Demonstrativpronomina werden in vielen afroasiatischen Sprachen aus kleinen Elementen zusammengesetzt, besonders genusanzeigenden Elementen *"n"-, *"k"- (Maskulinum), *"t"- (Femininum), die mit weiteren kleinen Elementen kombiniert werden:
Verbalmorphologie.
Konjugation.
In der Verbalmorphologie zeigen sich zwischen den Primärzweigen ähnliche Unterschiede wie sie schon bei der Substantivdeklination erkennbar wurden: Semitisch, Kuschitisch und Berberisch besitzen die "Präfixkonjugation", die durch Ablaut mehrere Aspektstämme unterscheidet (siehe unten) und Kongruenz mit dem Subjekt über Prä- und Suffixe markiert. Die folgende Tabelle illustriert das System der Personalaffixe der Präfixkonjugation:
Im Ägyptischen haben sich keine Spuren der Präfixkonjugation erhalten, stattdessen findet sich hier schon seit den frühesten Texten die (ägyptische) Suffixkonjugation, die keine Personalkonjugation kannte, aber das pronominale Subjekt durch suffigierte Personalpronomina ausdrückte: "sḏm=f" „er hört“, "sḏm.n nṯr" „der Gott hörte“. Die Evolution dieser Art der Konjugation ist umstritten, in Frage kommen hauptsächlich Verbalnomina und Partizipien.
Das Tschadische besitzt zwar eine Konjugation durch meist präverbale Morpheme, doch ist diese genetisch mit der Präfixkonjugation nicht verwandt, vielmehr stellen die Personapräfixe des Tschadischen modifizierte Formen der Personalpronomina dar. Beispiel: Hausa "kaa tàfi" „du gingst“. Im Omotischen erfolgt die Konjugation auf verschiedene Weise durch pronominale Elemente; das Verbalsystem des Proto-Omotischen ist höchstens in Ansätzen rekonstruierbar.
Neben der Präfixkonjugation besaß das Proto-Afroasiatische noch eine zweite Konjugationsmethode, in der die Kongruenz mit dem Subjekt ausschließlich durch Suffixe hergestellt wurde. Diese Art der Konjugation hat sich im Semitischen, Ägyptischen und Berberischen erhalten, sie verlieh dem Verb – im Akkadischen auch Substantiven und Adjektiven – offenbar eine stativische Bedeutung. Nach der Meinung einiger Wissenschaftler ist auch die Suffixkonjugation des Kuschitischen genetisch verwandt, bei ihr kann es sich aber auch, wie heute mehrheitlich angenommen wird, um eine sekundäre Bildung aus Verbalstamm plus präfixkonjugiertem Hilfsverb handeln. (Die altägyptischen und akkadischen Dualformen bleiben hier unberücksichtigt. Paradigmawörter: ägyptisch "nfr" „gut“, kabylisch "məqqər-" „groß sein“, akkadisch "zikarum" „Mann“):
Aspektstämme.
Aspektstämme werden in vielen afroasiatischen Sprachen, vor allem solchen mit Reflexen der Präfixkonjugation, durch Ablaut gebildet. Meist wird davon ausgegangen, dass die Protosprache bereits mindestens zwei Aspektstämme gekannt hat: ein imperfektiver und ein perfektiver Stamm. Während der Vokal des perfektiven Stamms wohl lexikalisch festgelegt war, werden dem imperfektiven Stamm Ablaut nach "a" und/oder Gemination des vorletzten Stammkonsonantes als typische Bildungsmerkmale zugeordnet. Belege für diese Bildungsweisen finden sich in allen Hauptzweigen außer dem Ägyptischen und Omotischen, wenngleich deren Deutung als Reste eines ursprachlichen Imperfektstammes im Tschadischen angezweifelt wird:
Einige Wissenschaftler halten auch einen intransitiven oder stativen Stamm mit -"a"-, dessen Reflexe sich im Berberischen, Semitischen und Kuschitischen finden sollen, für rekonstruierbar. Das Bedscha (Nordkuschitisch) und die Berbersprachen besitzen in der Präfixkonjugation auch negative Verbalstämme, deren Bezug zum protosprachlichen System aber kaum erforscht ist. Der Verbalstamm, der in der Suffixkonjugation angewendet wird, hat im Semitischen und Ägyptischen bei dreikonsonantigen primären Verben die Form CaCVC-, im (Proto-)Berberischen dagegen meist *Cv̆Cv̄C. Über die Protosprache lassen sich daher keine näheren Aussagen machen. Je nach der Verteilung und Quantität der Vokale in der Präfixkonjugation lassen sich die Verben in verschiedene Klassen einteilen, die sich in ähnlicher Form auch im Ägyptischen finden und die teilweise auf die Protosprache zurückgehen können.
In fast allen afroasiatischen Sprachen werden auch Affixe und Infixe zur Bildung von Verbalstämmen angewendet, die aspektuelle, temporale und modale Unterscheidungen und in einigen tschadischen und omotischen Sprachen auch Fragesätze markieren. Bislang konnten allerdings keine derartigen Affixe für das Proto-Afroasiatische rekonstruiert werden.
Verbalbildung.
Allen Hauptzweigen des Afroasiatischen ist ein hauptsächlich aus Affixen bestehendes System zur deverbalen Verbalbildung gemeinsam. Sehr weit verbreitet ist ein Affix *-"s"-, das zur Bildung kausativer, faktitiver und transitiver Verben dient:
Weitere weit verbreitete Affixe sind *-"t"- und *-"m"-, die Reflexivität, Reziprozität, Passivität, Intransitivität und das Medium ausdrücken:
Reduplikation dient in vielen Sprachen zum Ausdruck verbaler Intensität oder Pluralität:
Syntax.
Einige Merkmale der Syntax sind innerhalb des Afroasiatischen besonders weit verbreitet. Ob es sich hierbei auch um Merkmale der Protosprache handeln könnte, wurde bisher nicht umfassend untersucht. In den meisten Sprachen folgen Objekte dem Verb, pronominale Objekte stehen dabei oft vor nominalen Objekten. Sind beide Objekte pronominal, folgt das direkte dem Indirekten; indirekte nominale Objekte folgen jedoch direkten. Diese drei Regeln sind im älteren Ägyptisch, vielen semitischen Sprachen, dem Tschadischen und Berberischen nahezu universell gültig:
Wortschatz.
Der für die Protosprache rekonstruierbare Wortschatz dürfte mehrere hundert Lexeme groß sein, seine Rekonstruktionen (Diakonoff u. a. 1993-7, Ehret 1995, Orel-Stolbova 1995) weichen jedoch, nicht zuletzt aufgrund der Unsicherheiten hinsichtlich der Rekonstruktion der Lautkorrespondenzen, stark voneinander ab. Nur für wenige Lexeme gibt es Belege in allen sechs Primärzweigen. Beispiele für mögliche Wortgleichungen gibt die folgende Tabelle.
Die Rekonstruktionen proto-afroasiatischer Wurzeln wurden Ehret 1995 entnommen (dort: ă=tiefer Ton; â=hoher Ton). Die einzelsprachlichen Reflexe sind verschiedenen Veröffentlichungen entnommen. Einzelne Reflexe erfordern gegensätzliche Lautentsprechungen, so fordert die Gleichung "jdmj" „roter Leinenstoff“ < Proto-Afroasiatisch *dîm-/*dâm- „Blut“ die Beziehung ägyptisch "d" < proto-afroasiatisch *d, während ägyptisch "ˁ3j" „groß sein“ als Reflex von *dăr- „größer werden/-machen“ die Beziehung ägyptisch "ˁ" < proto-afroasiatisch *d voraussetzt. Folglich kann nur eine dieser beiden Gleichungen richtig sein (sofern man keine komplexeren Regeln für *d rekonstruiert), in der Forschung werden beide Lautbeziehungen vertreten. Wo die Bedeutung des einzelsprachlichen Reflexes mit der rekonstruierten Wurzelbedeutung übereinstimmt, wurde diese nicht wiederholt.
Literatur.
Überblick
Lexikon und Phonologie |
312 | 234760562 | https://de.wikipedia.org/wiki?curid=312 | Afrikanische Sprachen | Der Begriff Afrikanische Sprachen ist eine Sammelbezeichnung für die Sprachen, die auf dem afrikanischen Kontinent gesprochen wurden und werden. Die Bezeichnung „Afrikanische Sprachen“ sagt nichts über eine sprachgenetische Verwandtschaft aus (→ Sprachfamilien der Welt, Sprachfamilie).
Begriff.
Zu den afrikanischen Sprachen zählen zunächst die Sprachen, die ausschließlich auf dem afrikanischen Kontinent gesprochen werden. Das sind die Niger-Kongo-Sprachen, die nilosaharanischen Sprachen und die Khoisan-Sprachen. Auch die afroasiatischen Sprachen rechnet man traditionell insgesamt zu den „afrikanischen Sprachen“ hinzu, obwohl Sprachen der semitischen Unterfamilie des Afroasiatischen auch oder nur außerhalb Afrikas – im Nahen Osten – gesprochen wurden und werden. Zum einen sind die semitischen Sprachen wesentlich auch in Afrika vertreten (z. B. das Arabische, viele Sprachen Äthiopiens und Eritreas), zum anderen stammt die afroasiatische Sprachfamilie wahrscheinlich aus Afrika. In diesem erweiterten Sinne gibt es 2.138 afrikanische Sprachen und Idiome, die von rund 1,101 Mrd. Menschen gesprochen werden. Die Sprache Madagaskars – Malagasy – gehört zur austronesischen Sprachfamilie und wird deshalb normalerweise nicht zu den „afrikanischen Sprachen“ gerechnet, ebenfalls nicht die europäischen indogermanischen Sprachen der Kolonisatoren (Englisch, Afrikaans, Französisch, Spanisch, Portugiesisch, Italienisch und Deutsch).
Von den gut 2000 rezenten afrikanischen Sprachen sind 1400 Niger-Kongo-Sprachen, darunter mehr als 500 Bantusprachen. Mit mehr als 500 Sprachen werden in Nigeria die meisten afrikanischen Sprachen gesprochen.
Die Afrikanistik ist die Wissenschaft, die sich mit den afrikanischen Sprachen und Kulturen befasst.
Die Einteilung der afrikanischen Sprachen.
Seit den 1950er Jahren werden die afrikanischen Sprachen auf Grund der Arbeiten von Joseph Greenberg in vier Gruppen oder Phyla eingeteilt:
Die Forschung betrachtet die Greenberg'sche Klassifikation als methodisch unzureichend, um tatsächliche sprachgenetische Aussagen zu formulieren, die ähnlich belastbar sind, wie die sprachgenetischen Aussagen zu anderen Sprachfamilien. Jedoch dient diese Schematik heute mangels Alternativen übereinstimmend als pragmatisches Ordnungsprinzip, z. B. für Bibliothekssystematiken.
Die innere Struktur dieser Sprachgruppen wird in den Einzelartikeln behandelt. Dieser Artikel beschäftigt sich mit der Klassifikation der afrikanischen Sprachen insgesamt.
Diskussion der afrikanischen Phyla.
Ob diese Sprachgruppen oder Phyla genetisch definierte Sprachfamilien bilden, wird in der Afrikanistik nach wie vor zum Teil strittig diskutiert. Jedenfalls geht auch das einzige aktuelle Standardwerk über afrikanische Sprachen insgesamt – "B. Heine and D. Nurse, African Languages – An Introduction (Cambridge 2000)" – herausgegeben und verfasst von führenden Afrikanisten unserer Zeit (B. Heine, D. Nurse, R. Blench, L.M. Bender, R.J. Hayward, T. Güldemann, R. Voßen, P. Newman, C. Ehret, H.E. Wolff u. a.) von diesen vier afrikanischen Phyla aus.
Das Nilosaharanische wird von den Spezialisten dieses Gebiets (zum Beispiel L.M. Bender und C. Ehret) als gesicherte Einheit aufgefasst, deren Protosprache in Grundzügen zu rekonstruieren ist. Diese Meinung wird jedoch nicht von allen Afrikanisten geteilt, obwohl der Kern des Nilosaharanischen – Ostsudanisch, Zentralsudanisch und einige kleinere Gruppen – als genetische Einheit ziemlich unumstritten ist. Von wenigen bezweifelt wird die Zugehörigkeit der Sprachen Kunama, Berta, Fur und der Maba-Gruppe zum Nilosaharanischen. Stärkere Zweifel gelten für die „Outlier-Gruppen“ Saharanisch, Kuliak und Songhai, deren Zugehörigkeit zum Nilosaharanischen von mehreren Forschern bestritten wird. Dennoch kann vor allem nach den Arbeiten von Bender und Ehret keine Rede davon sein, dass das Konzept der nilosaharanischen Sprachen als Ganzes gescheitert sei. Selbst wenn sich die eine oder andere Außengruppe doch als eigenständig erweisen sollte, so wird der größere Teil des Nilosaharanischen als genetische Einheit Bestand haben.
Anders ist die Situation beim Khoisan: die Autoren dieses Abschnitts im oben genannten Übersichtswerk (T. Güldemann und R. Voßen) halten die auf Greenberg und mehrere Vorgänger zurückgehende Vorstellung einer genetischen Einheit der Khoisan-Sprachen nicht aufrecht, sondern gehen stattdessen von mindestens drei genetisch unabhängigen Einheiten (Nordkhoisan oder Ju, Zentralkhoisan oder Khoe, Südkhoisan oder ) aus, die früher zum Khoisan gerechneten Sprachen Sandawe, Hadza und Kwadi werden als isoliert betrachtet. Die Khoisan-Gruppe bilde einen arealen Sprachbund typologisch verwandter Sprachen, der durch lange Kontaktphasen entstanden sei. Diese Einschätzung der Khoisan-Gruppe als Sprachbund findet heute weite Zustimmung.
Geschichte der Klassifikation.
Die folgende Darstellung gibt einen tabellarischen Überblick über die Forschungsgeschichte der afrikanischen Sprachen. Die verwendeten Gruppenbezeichnungen sind teilweise modern, damit auch der Nichtfachmann den Zuwachs – oder Rückschritt – der gewonnenen Erkenntnisse verfolgen kann.
Greenbergs Beitrag zur Klassifikation der afrikanischen Sprachen.
Methodisch ist seine Einteilung aufgrund der gewählten Methode (Lexikostatistik, bzw. Lexikalischer Massenvergleich) hochumstritten, da diese Methode erstens rein statistisch vorgeht und zweitens unzureichendes Material zugrunde legt (ausschließlich Wörterlisten meist zweifelhafter Güte) und drittens in Zeitalter zurückreicht, die mit anderen linguistischen oder archäologischen Methoden niemals erfasst geschweige denn bestätigt werden könnten. Daher wird die Greenberg-Klassifikation heute zwar mangels Alternative als Ordnungssystem (etwa zur Herstellung von systematischen Bibliothekskatalogen) weitgehend akzeptiert, ihr genetischer Aussagegehalt jedoch nur mit starken Vorbehalten angenommen.
Soziolinguistische Situation Afrikas.
Die Staatsgrenzen stimmen in Afrika nicht mit den Grenzen von Sprachen und Volksgruppen überein. Es haben sich, bis auf wenige Ausnahmen, keine einheitlichen Kulturnationen herausgebildet, so dass es keine Verbindung von Sprache, Volk und Staat gibt.
Die soziolinguistische Situation in Subsahara-Afrika ist in weiten Teilen durch eine Triglossie geprägt. Es haben sich neben den zahlreichen einheimischen Sprachen der einzelnen Volksgruppen (→ Vernakularsprache) infolge Wanderungsbewegungen, Handelswesen, vorkolonialer Reichsbildung, religiöse Missionierungen und teilweise auch durch die Unterstützung der Kolonialherren im Rahmen einer „Stammesselbstverwaltung“ und der britischen „Politik der mittelbaren Herrschaft“ bestimmte Sprachen als afrikanische Verkehrssprachen herausgebildet, welche die Aufgaben übernehmen, die Verständigung zwischen den Angehörigen der verschiedenen Volksgruppen zu ermöglichen. Sie spielen insbesondere eine wichtige Rolle in afrikanischen Städten, wo eine Bevölkerung lebt, die anders als die Landbevölkerung nicht mehr zuvörderst durch eine Volksgruppenzugehörigkeit geprägt ist. Diese Verkehrssprachen sind auch im Volksbildungswesen von Bedeutung und werden in einigen Medien und in der Literatur verwandt. Zu diesen Verkehrssprachen werden vor allem Swahili in Ostafrika, Hausa, Fulfulde, Kanuri, Igbo, Yoruba und die Mandesprachen Bambara, Dioula und Malinke in Westafrika gezählt. In Zentralafrika spielen Lingála, Kikongo und Sango eine Rolle. Neben den Vernakularsprachen und den afrikanischen Verkehrssprachen sind seit der Kolonialherrschaft Französisch, Englisch und Portugiesisch eingeführt worden. Diese Sprachen werden in den meisten afrikanischen Staaten südlich der Sahara weiterhin als Amts-, Gerichts- sowie Lehr- und Wissenschaftssprachen in den Universitäten und höheren Lehranstalten verwendet. Die Kenntnisse der europäischen Sprachen ist je nach Bildungsgrad, Land und Grad der Verstädterung recht unterschiedlich. Die Politik der Exoglossie erscheint vielen Staaten wegen der Sprachenvielfalt als vorzugswürdig. Insbesondere sollen der Vorwurf der Benachteiligung der anderen, nicht staatstragenden Ethnien (→Tribalismus) und eine wirtschaftliche Isolierung vermieden werden. Ausnahmen von der Triglossie sind nur Burundi und Ruanda. In Kenia, Uganda und Tansania wird Swahili gefördert und ist auch als Amtssprache verankert.
Gänzlich anders gestaltet sich die Lage in Nordafrika und am Horn von Afrika. Die vor den islamischen Eroberungen der Araber im Magreb vorherrschenden Berbersprachen sind durch das Arabische in den Hintergrund gedrängt worden. In Ägypten starb das Ägyptisch-Koptische aus. Arabisch ist für die weitaus meisten Nordafrikaner Muttersprache. Anders als in Subsahara-Afrika haben die nordafrikanischen Staaten die Sprache der Kolonialherren, Französisch, durch Arabisch als Amtssprache ersetzt. In Äthiopien wirkt Amharisch als Verkehrssprache; eine Kolonialsprache gibt es nicht. In Somalia ist Somali vorherrschend. Italienisch hat dort sehr stark an Boden verloren. |
314 | 481711 | https://de.wikipedia.org/wiki?curid=314 | Atomhülle | Die Atomhülle oder Elektronenhülle besteht aus den Elektronen, die von einem Atomkern gebunden sind und ihn gewöhnlich bis zu einem Abstand von der Größenordnung 10−10 m umgeben (Atomradius). Atomkern und Atomhülle zusammen bilden das Atom, wobei der Kern einen je nach chemischem Element 20.000- bis 150.000-mal kleineren Durchmesser hat als die Hülle, aber 99,95 % bis 99,98 % der gesamten Atommasse enthält. Die von außen zugänglichen Eigenschaften des Atoms sind daher, abgesehen von der Masse, fast ausschließlich von der Hülle bestimmt. Dazu gehören neben der Größe des Atoms seine verschiedenen möglichen Arten einer chemischen Bindung, die Möglichkeiten zur Bildung eines Moleküls oder eines kristallinen Festkörpers, die Emission und Absorption von elektromagnetischer Strahlung bestimmter Wellenlängen in den Bereichen Infrarot, sichtbares Licht, Ultraviolett und Röntgenstrahlen. Die Atomphysik, die sich zum großen Teil mit diesen Phänomenen beschäftigt, ist daher weitgehend eine Physik der Atomhülle.
Die Anzahl formula_1 der Elektronen in der Atomhülle eines neutralen Atoms ist durch die Größe der positiven elektrischen Ladung des Atomkerns gegeben. formula_1 ist auch die chemische Ordnungszahl des Elements, zu dem das Atom gehört. Atome mit mehr oder weniger als formula_1 Elektronen sind negativ bzw. positiv geladen und werden als Ionen bezeichnet.
Für den Aufbau der Elektronenhülle wurden verschiedene Atommodelle entwickelt. Das erste in Teilen sehr erfolgreiche Modell war 1913 das Bohrsche Atommodell (nach Niels Bohr), das auch heute noch vielen populären Darstellungen zugrunde liegt. Es wurde ab 1925 durch die wesentlich umfassenderen und genaueren quantenmechanischen Atommodelle abgelöst, die bis heute die theoretische Grundlage der Atomphysik bilden.
Eigenschaften der gesamten Hülle.
Bindungsenergie.
Die Atomhülle besteht aus Elektronen, die aufgrund ihrer negativen elektrischen Ladung an den positiven Atomkern gebunden sind. Die gesamte Bindungsenergie formula_4 aller formula_1 Elektronen eines neutralen Atoms im Grundzustand beträgt zusammen etwa formula_6. Eine genauere, ebenfalls theoretisch begründete Näherung ist formula_7, eine noch bessere Anpassung erhält man mit formula_8
. Die durchschnittliche Bindungsenergie "pro Elektron" formula_9 nimmt daher mit steigender Teilchenzahl etwa gemäß formula_10 zu, sie steigt von formula_11 bei formula_12 auf formula_13 bei formula_14. Dies Verhalten kontrastiert zur Situation im Kern, wo die durchschnittliche Bindungsenergie pro Nukleon nur bei kleinen Teilchenzahlen bis etwa 16 Nukleonen (formula_15) stark anwächst, im Weiteren aber nahe bei 8 MeV bleibt. Diese Unterschiede werden durch die Eigenschaften der jeweils vorherrschenden Wechselwirkung erklärt. Im Kern beruht sowohl die Stärke als auch die effektive Sättigung der Bindungsenergie auf der Starken Wechselwirkung zwischen je zwei Nukleonen, die zwar eine vergleichsweise sehr feste Bindung erzeugt, aber auch von sehr kurzer Reichweite ist, so dass sie kaum über die direkt benachbarten Nukleonen hinaus auch die weiteren Nukleonen anziehen kann. Demgegenüber ist die Hülle durch die vom Kern ausgehende elektrostatische Anziehungskraft gebunden, die proportional zu formula_1 ansteigt, vergleichsweise viel schwächer ist als die Kernkräfte, aber aufgrund ihrer langen Reichweite alle Elektronen im ganzen Atom erreicht.
Im einfachsten Modell der Atomhülle wäre ein etwas stärkeres Anwachsen der Bindungsenergie pro Elektron wie formula_17 zu erwarten, wenn man vom Bohrschen Atommodell ausgeht und annimmt, dass erstens jedes Elektron seine Quantenzahlen behält, wenn mit steigendem formula_1 weitere Elektronen dazukommen, und zweitens, dass keine gegenseitige elektrostatische Abstoßung wirkt. Denn jedes der formula_1 Elektronen hätte dann eine mit formula_17 anwachsende Bindungsenergie, weil nicht nur die Kernladung wie formula_1 ansteigt, sondern seine Bahn dem Kern auch formula_1-fach näher ist. Das schwächere Anwachsen mit formula_10 anstatt mit formula_17 erklärt sich dann in etwa daraus, dass bei ansteigender Elektronenzahl die fester gebundenen Bahnen nach dem Pauli-Prinzip schon voll besetzt sind und die neu hinzukommenden Elektronen die weniger fest gebundenen besetzen müssen. Ihre gegenseitige elektrostatische Abstoßung fällt demgegenüber weniger ins Gewicht. Ein Anwachsen der Bindungsenergie pro Elektron mit formula_10 ergibt sich aus der Behandlung der Elektronenhülle als eines Fermi-Gases aus Elektronen, die in einem ausgedehnten Potentialtopf gebunden sind (Thomas-Fermi-Modell), und bis auf eine pauschale elektrostatische Abstoßung nicht untereinander wechselwirken. Der zusätzliche Korrekturfaktor der angegebenen genaueren Näherung geht wesentlich darauf zurück, dass zusätzlich die Bindung der innersten Elektronen extra behandelt wird. Sie befinden sich nahe dem spitzen Potentialminimum am Kernort, das im Thomas-Fermi-Modell nur unzureichend berücksichtigt wird.
Form und Größe.
Die Atomhülle hat keine scharf definierte Oberfläche, sondern zeigt im Außenbereich einen etwa exponentiellen Abfall der Elektronendichte. Größe und Form des Atoms werden üblicherweise durch eine möglichst kleine Oberfläche definiert, die einen Großteil (z. B. 90 %) der gesamten Elektronenladung enthält. Diese Fläche ist in den meisten Fällen annähernd kugelförmig, außer bei Atomen, die in einem Molekül oder manchen Kristallgittern chemisch gebunden sind, oder nach spezieller Präparation in Form eines Rydberg-Atoms vorliegen. Die gesamte Hülle kann gegen den Kern schwingen, wobei die Frequenz z. B. beim Xenon-Atom mit 54 Elektronen um 1017Hz (bzw. Anregungsenergie um 100 eV) liegt.
Aufgrund des unscharfen Randes der Atomhülle liegt die Größe der Atome nicht eindeutig fest (siehe Atomradius). Die tabellierten Werte sind aus der Bindungslänge gewonnen, das ist der energetisch günstigste Abstand zwischen den Atomkernen in einer chemischen Bindung. Insgesamt zeigt sich mit steigender Ordnungszahl eine in etwa periodische Variation der Atomgröße, die mit der periodischen Variation des chemischen Verhaltens gut übereinstimmt. Im Periodensystem der Elemente gilt allgemein, dass innerhalb einer Periode, also einer Zeile des Systems, eine bestimmte Schale aufgefüllt wird. Von links nach rechts nimmt die Größe der Atome dabei ab, weil die Kernladung anwächst und daher alle Schalen stärker angezogen werden. Wenn eine bestimmte Schale mit den stark gebundenen Elektronen gefüllt ist, gehört das Atom zu den Edelgasen. Mit dem nächsten Elektron beginnt die Besetzung der Schale mit nächstgrößerer Energie, was meist mit einem größeren Radius verbunden ist. Innerhalb einer Gruppe, also einer Spalte des Periodensystems, nimmt die Größe daher von oben nach unten zu. Dementsprechend ist das kleinste Atom das Heliumatom am Ende der ersten Periode mit einem Radius von 32 pm, während eines der größten Atome das Caesiumatom ist, das erste Atom der 5. Periode. Es hat einen Radius von 225 pm.
Dichte.
Entgegen vielen populären Darstellungen ist die Atomhülle keineswegs ein im Wesentlichen leerer Raum. Vielmehr variiert die mittlere Elektronendichte der Hülle je nach Element zwischen 0,01 und 0,1 kg/m3. Zum Vergleich: Luft hat diese Dichte bei einem Druck zwischen 10 und 100 mbar. Die Vorstellung der Hülle als eines (fast) leeren Raums würde sich ergeben, wenn zu jedem Zeitpunkt die Elektronen als nahezu perfekte Massenpunkte an bestimmten Stellen im Raum wären. Die Vorstellung von derart lokalisierten Elektronen im Atom ist aber nach der Quantenmechanik unzulässig.
Drehimpuls.
Die Atomhülle eines freien Atoms besitzt in jedem Energieniveau einen bestimmten Drehimpuls. Er wird meist durch formula_26 bezeichnet, sein Betrag durch die Quantenzahl formula_27 und die Komponente zu einer frei gewählten z-Achse durch die magnetische Quantenzahl formula_28 mit formula_29. In Elektronenhüllen mit einer geraden Anzahl Elektronen ist formula_30 eine ganze Zahl formula_31, bei ungerader Elektronenzahl ist formula_32 halbzahlig. Der Betrag des Drehimpulses ist durch formula_33 gegeben, die z-Komponente durch formula_34. Dabei ist formula_35 das reduzierte Plancksche Wirkungsquantum.
Experimentelle Methoden zur Untersuchung der Atomhülle.
Die Größe der Atomhülle wird vor allem im Rahmen der kinetischen Gastheorie und der Kristallstrukturanalyse bestimmt (siehe Atomradius).
Methoden zur Aufklärung der Struktur der Atomhülle werden unter dem Begriff "Methoden der Atomphysik" zusammengefasst. Sie werden detailliert in den jeweils eigenen Artikeln dargestellt. Als typische Beispiele sind zu nennen (wobei die Liste keineswegs erschöpfend ist):
Modellvorstellungen zum Aufbau der Atomhülle.
Die Unterteilung eines Atoms in Atomkern und Atomhülle geht auf Ernest Rutherford zurück, der 1911 in Streuexperimenten zeigte, dass Atome aus einem winzigen, kompakten Kern umgeben von einer viel leichteren Hülle bestehen. Dies Bild stand in vollständigem Gegensatz zu allen anderen bis dahin diskutierten Atommodellen. Nach dem Erfolg des Bohrschen Atommodells ab 1913 wurde unter Atommodell ein Modell der Atomhülle verstanden.
Bohrsches Atommodell und Verfeinerungen bis 1925.
1913 konnte Niels Bohr, aufbauend auf Rutherfords Atommodell aus Kern und Hülle, erstmals erklären, wie es in den optischen Spektren reiner Elemente zu den Spektrallinien kommt, die für das jeweilige Element absolut charakteristisch sind (Spektralanalyse nach Robert Wilhelm Bunsen und Gustav Robert Kirchhoff 1859). Bohr nahm an, dass die Elektronen sich nur auf bestimmten quantisierten Kreisbahnen aufhalten können, die mit steigendem Radius durch die Hauptquantenzahl durchnummeriert werden. Die Elektronen können auch von einer zur anderen dieser Bahnen „springen“, sich jedoch nicht dazwischen aufhalten. Beim Quantensprung von einer äußeren zu einer weiter innen liegenden Bahn muss das Elektron eine bestimmte Menge an Energie abgeben, die als Lichtquant bestimmter Wellenlänge erscheint. Im Franck-Hertz-Versuch konnte 1914 an Quecksilberatomen die quantisierte Energieaufnahme und -abgabe experimentell bestätigt werden. Doch ergab das Bohrsche Atommodell nur für Systeme mit lediglich einem Elektron (Wasserstoff und ionisiertes Helium) quantitativ richtige Resultate. Obwohl es bei Atomhüllen mit mehreren Elektronen grundsätzlich versagte, bildete es das Fundament für eine Reihe von Verfeinerungen, die im Laufe des folgenden Jahrzehnts zu einem qualitativen Verständnis des Aufbaus der Elektronenhüllen aller Elemente führten. Damit wurde das Bohrsche Atommodell zur Grundlage des populären Bildes vom Atom als einem kleinen Planetensystem.
1915 wurde das Bohrsche Atommodell durch Arnold Sommerfeld zum Bohr-Sommerfeldschen Atommodell erweitert. Es berücksichtigte die Spezielle Relativitätstheorie, ließ auch elliptische Keplerbahnen zu und führte zwei neue Quantenzahlen ein: die Nebenquantenzahl formula_39 für die Unterscheidung von Elektronenbahnen mit gleicher Hauptquantenzahl aber unterschiedlicher elliptischer Form, sowie die magnetische Quantenzahl formula_28, die für die Bahnen zu gegebener Haupt- und Nebenquantenzahl die endliche Anzahl möglicher räumlicher Orientierungen durchnummeriert. Da die Energie nur schwach von den beiden neuen Quantenzahlen abhängt, wurde hierdurch die Aufspaltung der Spektrallinien erklärt, die im Bohrschen Modell noch durch eine einzige Energie bestimmt waren. Zugleich entstand das Bild, dass die Bahnen zu gleicher Hauptquantenzahl eine „Schale“ bilden, wobei verschiedene Schalen sich aber räumlich durchdringen.
1916 versuchte Gilbert Newton Lewis, die chemische Bindung zu erklären, indem er im Rahmen des Bohrschen Atommodells die elektrische Wechselwirkung der Elektronen zweier Atome betrachtete. Aus den Beobachtungen der charakteristischen Röntgenstrahlung leitete Walther Kossel ab, dass es in jedem Atom nur eine bestimmte Anzahl von Plätzen für die inneren Elektronen gibt, um zu erklären, warum Elektronen von weiter außen nur dann in eine innere Bahn springen, wenn dort ein Elektron herausgeschlagen worden war. Aufgrund der periodischen chemischen Eigenschaften der Elemente vermutete er 1916 weiter, dass es „Elektronenschalen“ gibt, die nach der Aufnahme von 8 Elektronen „abgeschlossen“ sind und dann ein Edelgas bilden. Diese Anzahl entspricht gerade der verdoppelten Anzahl verschiedener Kombinationen von formula_39 und formula_28 zur gleichen Hauptquantenzahl formula_43. Dies wurde bis 1921 von Niels Bohr zum „Aufbauprinzip“ weiterentwickelt, wonach mit zunehmender Kernladungszahl jedes weitere Elektron in die jeweils energetisch niedrigste Elektronenschale der Atomhülle, die noch Plätze frei hat, aufgenommen wird, ohne dass die schon vorhandenen Elektronen sich wesentlich umordnen. Das führte Wolfgang Pauli 1925 zur Entdeckung des Paulischen Ausschließungsprinzips, dem zufolge jede durch die drei Quantenzahlen charakterisierte Bahn von maximal zwei Elektronen besetzt werden darf. Nach der Entdeckung des Elektronenspins, für den eine vierte Quantenzahl formula_44 mit nur zwei möglichen Werten eingeführt wurde, wurde das Pauli-Prinzip so präzisiert, dass jeder durch die vier Quantenzahlen definierte Zustand nur von einem Elektron besetzt werden kann.
Quantenmechanische Modelle der Atomhülle.
Aufbauend auf der von Louis de Broglie 1924 postulierten Materiewelle entwickelte Erwin Schrödinger 1926 die Wellenmechanik. Sie beschreibt die Elektronen nicht als Massenpunkte auf bestimmten Bahnen, sondern als dreidimensionale Wellen, die durch Kraftfelder, zum Beispiel das elektrostatische Potential eines Atomkerns, verformt werden. Als Folge dieser Beschreibung ist es unter anderem unzulässig, einem Elektron in einem gegebenen Moment gleichzeitig Ort und Impuls mit genauen Werten zuzuschreiben. Dieser Sachverhalt wurde 1927 von Werner Heisenberg in der Unschärferelation formuliert. Demnach können statt der Bewegung auf bestimmten Bahnen nur "Wahrscheinlichkeitsverteilungen" für Wertebereiche von Ort und Impuls angegeben werden, eine Vorstellung, die nur schwer zu veranschaulichen ist. Einer quantisierten Umlaufbahn des Bohrschen Modells entspricht hier eine stehende Welle oder „Atomorbital“, die in der Nähe des Atomkerns konzentriert ist und die Verteilung der Materie beschreibt. Ein Atomorbital gibt unter anderem genau an, welche Form die Aufenthaltswahrscheinlichkeit des Elektrons im Raum hat.
Das Modell wurde zunächst für eine Atomhülle mit nur einem Elektron im Feld einer Punktladung entwickelt (Wasserstoffproblem). Es lieferte die Energien der Bohrschen Bahnen je nach Hauptquantenzahl und auch die von Sommerfeld eingeführten Quantenzahlen für den Drehimpuls, letztere mit der korrekten Zählung von Null an aufwärts (statt wie bei Bohr mit 1 beginnend). Anders als das Bohr-Sommerfeld-Modell konnte das wellenmechanische Modell in eindeutiger Weise und erfolgreich auf Atomhüllen mit mehreren Elektronen ausgedehnt werden, indem das Pauli-Verbot zu einer Vorschrift über die Antisymmetrie der Wellenfunktion bei Vertauschung zweier Elektronen umformuliert worden wurde. Die Beschreibung der Eigenschaften der Atome gelang hiermit sehr viel besser als mit den Vorläufermodellen. Die Elektronen werden zunächst unter Vernachlässigung ihrer elektrostatischen Abstoßung nacheinander in die Orbitale eingeordnet, für den Grundzustand der Atomhülle in die mit den niedrigsten Energien, für angeregte Zustände eins oder mehrere Elektronen in höher liegende. Die Abstoßung, obwohl eine Kraft zwischen je zwei Elektronen, wird pauschal angenähert, indem die Abschirmung durch die Elektronenwolke durch ein entsprechend abgeschirmtes elektrostatisches Potential berücksichtigt wird. Dadurch werden die Orbitale umso schwächer gebunden, je höher ihr Bahndrehimpuls ist. Resultat ist eine Energieaufspaltung innerhalb jeder Hauptschale ab n=2: Die Energie der Orbitale steigt mit der Nebenquantenzahl an. Zum Beispiel liegt bei gefüllter 3p-Schale (Z=18, Argon) die 3d-Schale energetisch schon über der 4s-Schale und wird daher erst nach dieser (ab Z=21, Scandium) mit Elektronen gefüllt (3d-Übergangsmetalle). Das Modell liefert damit nicht nur eine detaillierte Erklärung des Periodensystems, sondern auch ein schon recht wirklichkeitsgetreues Bild der räumlichen und energetischen Verteilung der Elektronen in der Hülle. Die Schalen sind aber, mit Ausnahme der beiden innersten, weder im räumlichen noch im energetischen Sinn deutlich voneinander getrennt, sondern zeigen starke Überschneidungen (siehe Abbildung). Die Beschreibung der Struktur der Atomhülle in räumlicher und energetischer Hinsicht legt auch die genauen Möglichkeiten fest, mit den Atomhüllen anderer Atome gebundene Zustände zu bilden. Daher wird das Orbitalmodell in der Chemie vielfach zur Beschreibung genutzt. Alle Grund- und die meisten Anregungszustände der Hülle sind gut darzustellen, das Modell kann also auch die optischen Spektren, die Röntgenspektren und die Augerspektren erklären.
Das Orbitalmodell ist bei einem Atom mit mehr als einem Elektron physikalisch als eine Näherung zu bezeichnen, weil jedem einzelnen Elektron ein bestimmtes Orbital zugeschrieben wird. Ein so gebildeter Zustand der Atomhülle wird als reine Konfiguration bezeichnet. Er gehört in der Quantenmechanik zu der einfachsten Art von Mehrteilchenzuständen. Genauere Modelle berücksichtigen, dass die Hülle auch in einem Zustand sein kann, der aus der Superposition verschiedener Konfigurationen besteht, wo also mit verschiedenen Wahrscheinlichkeitsamplituden gleichzeitig verschiedene Elektronenkonfigurationen vorliegen, genannt Konfigurationsmischung. Dies Modell ermöglicht die genauesten Berechnungen von Energieniveaus und Reaktionsweisen der Atome. Weitere Verfeinerungen betreffen die relativistische Behandlung des Elektrons (Dirac-Gleichung) und die genaue Berücksichtigung des endlichen Durchmessers des Kerns und seiner magnetischen und elektrischen Kernmomente sowie die Strahlungskorrekturen nach der Quantenelektrodynamik (Lambshift). Wegen des dazu nötigen mathematischen Aufwands werden jedoch, wo es möglich ist, auch weiterhin einfachere Atommodelle genutzt. Zu nennen ist hier das Thomas-Fermi-Modell, in dem die Elektronenhülle pauschal wie ein im Potentialtopf gebundenes ideales Elektronengas (Fermigas) behandelt wird, dessen Dichte wiederum die Form des Potentialtopfs bestimmt.
Den einfachsten Ansatz für die Wellenfunktion einer reinen Konfiguration zu einer bestimmten Anzahl formula_1 von Elektronen gewinnt man mit der Hartree-Fock-Methode. Sie bleibt bei der Einzelteilchen-Näherung, bei der jedem Elektron ein bestimmtes Orbital zugewiesen wird, wobei aber die Form der Orbitale aufgrund der Anwesenheit aller formula_46 übrigen Elektronen geeignet abgeändert wird. Dazu sucht man diejenigen Formen für die Orbitale, mit denen die Energie der gesamten Konfiguration unter Berücksichtigung der Abstoßungskräfte, die ja von der Form der besetzten Orbitale abhängen, ein Minimum erreicht. Damit werden die Orbitale in selbstkonsistenter Weise so bestimmt, dass sich eine zeitlich stabile Konfiguration ergibt. Das Ergebnis ist also immer noch eine reine Konfiguration, nur dass die darin vorkommenden Zustände der einzelnen Elektronen gegenüber den aus dem Wasserstoffproblem bekannten Orbitalen abgewandelt sind.
Zum selben Typ von selbstkonsistenter Näherungslösung führt die Dichtefunktionaltheorie. Hier geht man von einer ortsabhängigen Verteilung der Gesamtdichte der Elektronen aus und bildet daraus eine Schrödingergleichung für ein einziges Elektron, in der die Auswirkungen der Antisymmetrie der Vielteilchen-Wellenfunktion und der Elektron-Elektron-Abstoßung durch einen Zusatzterm, der nur von der Gesamtdichte abhängt, angenähert pauschal berücksichtigt werden. Aus den damit bestimmten Orbitalen der einzelnen Elektronen wird wieder eine Gesamtdichte berechnet. Stimmt sie mit der anfangs angesetzten Gesamtdichte nicht zufriedenstellend überein, wird diese variiert, um bessere Übereinstimmung zu erzielen.
Interpretation einiger grundlegender Eigenschaften der Atome im Rahmen des Schalenmodells.
Das Schalenmodell wird hier in seiner einfachsten, kugelsymmetrischen Form betrachtet, während eine Richtungsabhängigkeit der Elektronendichte erst im Orbitalmodell hinzukommt. Dann lässt das Schalenmodell Stärke und Abstandsabhängigkeit der Kräfte zwischen zwei Atomen verstehen. Sie werden praktisch ausschließlich durch die beiden Hüllen bestimmt. Darauf beruht unter anderem die chemische Bindung sowie der Wechsel des Aggregatzustands und die mechanische Stabilität und viele weitere Eigenschaften der makroskopischen Materialien.
Anziehung.
Bei größeren Abständen, mehr als ein Atomdurchmesser, entstehen schwach anziehende Van-der-Waals-Kräfte dadurch, dass die beiden Atomhüllen sich gegenseitig polarisieren. Das heißt, Hüllen und Kerne verschieben sich minimal gegeneinander, so dass die beiden Atome zu schwachen elektrischen Dipolen werden, die sich bei richtiger Orientierung elektrostatisch anziehen. Diese anziehenden Kräfte bewirken im gasförmigen Zustand meist nur geringe Abweichungen vom Verhalten des Ideales Gas, verursachen aber auch die Kondensation eines Gases zu einer Flüssigkeit, also einen Wechsel des Aggregatzustands.
Abstoßung.
Bei starker Annäherung, sobald sich die Hüllen zweier Atome im Raum merklich überschneiden, entsteht eine starke abstoßende Kraft. Sie beruht vor allem auf dem Pauli-Prinzip, das die Elektronen eines Atoms von der Aufnahme in die besetzten Orbitale des anderen Atoms ausschließt, soweit sie schon von einem Elektronenpaar besetzt sind. Sie müssen daher in energetisch höheren Orbitalen untergebracht werden, was einen Energieaufwand erfordert. Demgegenüber spielt die elektrostatische Abstoßung der beiden negativen Elektronenwolken und der beiden positiven Kerne fast keine Rolle. Mit dieser Abstoßungskraft lässt sich die äußerst geringe Kompressibilität von kondensierter Materie (Flüssigkeiten und Festkörper) weitgehend erklären.
Chemische Bindung.
In dem wohldefinierten Abstand, bei dem sich Anziehung und Abstoßung zweier Atome gerade die Waage halten, liegt das Minimum ihrer gegenseitigen potentiellen Energie (vgl Abbildung 1 hier). Dies erklärt die homöopolare Chemische Bindung, die zwischen den Atomen desselben Elements typisch ist (z. B. im 2-atomigen Gas). Im Fall von Atomen verschiedener Elemente, die leicht positive bzw. negative Ionen bilden, gilt eine ähnliche Potentialkurve zwischen den beiden entgegengesetzt geladenen Ionen. Dann wird die anziehende Kraft durch die elektrostatische Anziehung der Ionen verstärkt, gleichzeitig wird die Kurve aber angehoben um die Differenz von Ionisierungsenergie beim positiven Ion und Elektronenaffinität beim negativen. Bleibt das Minimum der potentiellen Energie dabei negativ, ergibt sich eine Ionenbindung (z. B. Na+Cl-). Zur Erklärung weiterer Feinheiten der chemischen Bindungen reicht das einfache Schalenmodell nicht aus. Es muss dann das Orbitalmodell herangezogen werden (z. B. bei der räumlichen Anordnung der Atome in mehratomigen Molekülen), wenn nicht sogar eine eigene quantenmechanische Berechnung vonnöten ist (z. B. bei Metallen).
Vermittelt über die Hüllen ihrer Atome ziehen auch Moleküle einander an. Ein fester Körper entsteht, wenn viele Moleküle sich aneinander binden und dabei, weil es energetisch günstig ist, eine feste Anordnung einhalten. Ist diese Anordnung regelmäßig, bildet sich ein Kristallgitter. Infolge dieser Bindung ist der feste Körper nicht nur weitgehend inkompressibel wie eine Flüssigkeit, sondern im Unterschied zu dieser deutlich weniger leicht verformbar und daher auch auf Zug belastbar. Die Besonderheiten von metallischen Festkörpern, insbesondere ihre leichtere Verformbarkeit, große elektrische Leitfähigkeit und Wärmeleitfähigkeit, metallischer Glanz, lassen sich nur durch die Metallische Bindung erklären.
Erklärung der Atomeigenschaften im Rahmen des Orbitalmodells.
Die dem Schalenmodell zugrundeliegenden Elektronenschalen ergeben sich durch die Quantisierung der Energie eines einzelnen Elektrons im Kraftfeld des Atomkerns nach den Regeln der Quantenmechanik. Um den Kern herum bilden sich verschiedene Atomorbitale, das sind unscharf begrenzte Wahrscheinlichkeitsverteilungen für "mögliche" räumliche Zustände der Elektronen. Jedes Orbital kann aufgrund des Pauli-Prinzips mit maximal zwei Elektronen besetzt werden, dem Elektronenpaar. Die Orbitale, die unter Vernachlässigung der gegenseitigen Abstoßung der Elektronen und der Feinstruktur theoretisch die gleiche Energie hätten, bilden eine Schale. Die Schalen werden mit der Hauptquantenzahl durchnummeriert oder fortlaufend mit den Buchstaben "K, L, M,"… bezeichnet. Genauere Messungen zeigen, dass ab der zweiten Schale nicht alle Elektronen einer Schale die gleiche Energie besitzen. In diesem Fall wird durch die Nebenquantenzahl oder Drehimpulsquantenzahl eine bestimmte Unterschale identifiziert.
Sind die Orbitale, angefangen vom energetisch niedrigsten, so weit mit Elektronen besetzt, dass die gesamte Elektronenzahl gleich der Protonenzahl des Kerns ist, ist das Atom neutral und befindet sich im Grundzustand. Werden in einem Atom ein oder mehrere Elektronen in energetisch höherliegende Orbitale versetzt, ist das Atom in einem angeregten Zustand. Die Energien der angeregten Zustände haben für jedes Atom wohlbestimmte Werte, die sein Termschema bilden. Ein angeregtes Atom kann seine Überschussenergie abgeben durch Stöße mit anderen Atomen, durch Emission eines der Elektronen (Auger-Effekt) oder durch Emission eines Photons, also durch Erzeugung von Licht oder Röntgenstrahlung. Bei sehr hoher Temperatur oder in Gasentladungen können die Atome durch Stöße Elektronen verlieren (siehe Ionisationsenergie), es entsteht ein Plasma, so z. B. in einer heißen Flamme oder in einem Stern.
Da die Energien der Quanten der emittierten Strahlung je nach Atom bzw. Molekül und den beiden beteiligten Zuständen verschieden sind, lässt sich durch Spektroskopie dieser Strahlung die Art der Quelle im Allgemeinen eindeutig identifizieren. Beispielsweise zeigen in Gasen die einzelnen Atome ihr elementspezifisches optisches Linienspektrum. Bekannt ist etwa die Natrium-D-Linie, eine Doppellinie im gelben Spektralbereich bei 588,99 nm und 589,59 nm. Ihr Aufleuchten zeigt die Anwesenheit von angeregten Natrium-Atomen an, sei es auf der Sonne oder über der Herdflamme bei Anwesenheit von Natrium oder seinen Salzen. Da diese Strahlung einem Atom auch durch Absorption dieselbe Energie zuführen kann, lassen sich die Spektrallinien der Elemente sowohl in Absorptions- als auch in Emissionsspektren beobachten. In der nebenstehenden Abbildung ist dieses Dublett mit D-1 bezeichnet und zeigt die Anwesenheit von Natriumatomen in der äußeren Photosphäre der Sonne an. Diese Spektrallinien lassen sich auch verwenden, um Frequenzen sehr präzise zu vermessen, beispielsweise für Atomuhren.
Obwohl Elektronen sich untereinander elektrostatisch abstoßen, können zusätzlich bis zu zwei weitere Elektronen gebunden werden, wenn es bei der höchsten besetzten Elektronenenergie noch Orbitale mit weiteren freien Plätzen gibt (siehe Elektronenaffinität).
Chemische Reaktionen, d. h. die Verbindung mehrerer Atome zu einem Molekül oder sehr vieler Atome zu einem Festkörper, werden dadurch erklärt, dass ein oder zwei Elektronen aus einem der äußeren Orbitale eines Atoms (Valenzelektronen) unter Energiegewinn auf einen freien Platz in einem Orbital eines benachbarten Atoms ganz hinüberwechseln (Ionenbindung) oder sich mit einer gewissen Wahrscheinlichkeit dort aufhalten (kovalente Bindung durch ein bindendes Elektronenpaar). Dabei bestimmt die Elektronegativität der Elemente, bei welchem Atom sich die Elektronen wahrscheinlicher aufhalten. In der Regel werden chemische Bindungen so gebildet, dass die Atome die Elektronenkonfiguration eines Edelgases erhalten (Edelgasregel). Für das chemische Verhalten des Atoms sind also Form und Besetzung seiner Orbitale entscheidend. Da diese allein von der Protonenzahl bestimmt werden, zeigen alle Atome mit gleicher Protonenzahl, also die Isotope eines Elements, nahezu das gleiche chemische Verhalten.
Nähern sich zwei Atome über die chemische Bindung hinaus noch stärker an, müssen die Elektronen eines Atoms wegen des Pauli-Prinzips auf freie, aber energetisch ungünstige Orbitale des anderen Atoms ausweichen, was einen erhöhten Energiebedarf und damit eine abstoßende Kraft nach sich zieht.
Literatur.
Die Elektronenhülle eines Atoms wird in vielen einführenden Büchern zur Atomphysik ausführlich erklärt. Beispielhaft seien hier genannt:
Einzelnachweise.
<references>
</references > |
315 | 229492 | https://de.wikipedia.org/wiki?curid=315 | Asselspinnen | Die Asselspinnen (Pycnogonida, auch Pantopoda) bilden eine Klasse innerhalb der Kieferklauenträger (Chelicerata). Trotz ihres Namens werden sie nicht zu den Spinnentieren gerechnet. Sie sind eine rein marine Tiergruppe mit einer Verbreitung in allen Weltmeeren und einem Verbreitungsschwerpunkt im Südlichen Ozean. Ihre Zahl wird auf über 1300 Arten geschätzt.
Merkmale.
Allgemeines.
Die Pantopoda fallen vor allem durch einen, im Verhältnis zu den Beinen winzigen, stabförmigen Körper auf, der oft nur ein schmales Verbindungsstück zwischen den Beinbasen darstellt. Der Vorderkörper teilt sich in das ungegliederte Prosoma, das die ersten vier Extremitätenpaare trägt (darunter das erste Laufbeinpaar), und einen, durch Querfurchen in mehrere Segmente unterteilten, hinteren Abschnitt, dem die weiteren Laufbein-Paare anhängen. In der Regel sind es vier, bei einigen Arten bis zu sechs Paare. Der Hinterkörper (Abdomen, Opisthosoma) ist extrem reduziert und meist nur eine kleine Ausbuchtung ohne Anhänge, der am Ende den After trägt. Nur bei den fossilen Palaeopantopoden ist er noch sackförmig und lässt drei bis fünf Segmente erkennen. Neben Arten mit sehr langen Gliedmaßen kommen auch kompaktere Formen vor. Die kleinsten Asselspinnen haben eine Größe von 1 bis 10 mm, die größten unter den in der Tiefsee lebenden werden bis zu 900 mm groß. Die Länge des Körpers liegt zwischen 0,8 und 100 mm.
Gliedmaßen.
Die Extremitäten ähneln denen anderer Chelicerata, doch sucht man bei ihnen die Laden (Enditen) vergeblich. Unterschieden werden vier verschiedene Arten von Gliedmaßen. Das erste Paar, die scherenbesetzten Cheliceren (bei den Pycnogonida meist Cheliforen genannt), bestehen meist aus drei, seltener aus vier Gliedern. Ihnen kommt eine Bedeutung bei der Ernährung zu. Es folgen tasterartige Palpen von wechselnder Länge (bis zehngliedrig), die mit ihrer dichten Behaarung der Reizaufnahme dienen.
Das dritte Extremitätenpaar ist das sogenannte Brutbeinpaar. Es entspringt ventral, ist gleichfalls tasterartig und dient beim Männchen als Eiträger (Oviger). Die Eipakete werden vom Männchen gebildet, indem es mit seinen Brutbeinen in der vom Weibchen abgelegten Eimasse rührt und diese mit von den Beinen abgegebenem Kitt zu Klumpen verklebt. Je nach Größe der Eier kann ein Paket 50 bis 1000 Eier beinhalten.
Mit Hilfe eines aus den letzten vier Gliedern des Beines bestehenden Ringes, der mit vielen Borsten besetzt ist, gewährleistet das Männchen den sicheren Transport. Die Borsten dienen dem Männchen z. B. zur Reinigung der Eier.
Bei den Weibchen hingegen ist dieses Beinpaar häufig zurückgebildet oder fehlt gänzlich.
Eine Besonderheit haben die nächsten Extremitätenpaare, die Laufbeine. Sie können, ähnlich denen der Weberknechte, bei Gefahr abgeworfen werden.
Das Abwerfen hat zwei Vorteile: zum einen greifen Feinde die ihnen überlassenen langen Beine an, während die Asselspinne die Flucht ergreift; zum anderen ist es von Vorteil, ein verletztes Bein abzuwerfen, anstatt es mit sich herumzutragen und einen Flüssigkeitsverlust zu riskieren. Die Bruchstelle schließt sich sehr rasch, und das Bein wächst nach der nächsten Häutung nach.
Die aus neun Gliedern bestehenden langen Laufbeine sind meist 4-, vereinzelt 5- (7 Arten, darunter Pentanymphon) oder selten sogar 6-paarig (2 Arten, Gattung Dodecalopoda). Diese mehrbeinigen Arten sind jeweils nahe mit achtbeinigen verwandt und gelten als sekundäre Abweichungen des Grundbauplans.
Das Endglied, der Praetarsus, ist meist klauenförmig ausgebildet, dazu noch oft mit einer Nebenklaue besetzt und dient unter anderem dem Festhalten der Nahrung.
Die drei vorderen Extremitäten-Paare können sehr variabel ausgebildet sein oder aber auch, genau wie Kiemen und Fühler, ganz fehlen.
Außenskelett.
Auch diese Vertreter der Kieferklauenträger besitzen, genau wie andere Gliederfüßer, ein Exoskelett mit Chitin-Einlagerungen. Wie bei den Spinnen werden in die darunterliegende Haut Exkrete eingelagert, sodass die Tiere oft bunt gezeichnet sind. Aber auch Vorratsstoffe werden dort eingelagert. Das Exoskelett ist sehr undurchlässig und manchmal außerordentlich dick. Dagegen fehlt jedwede Einlagerung von Kalk, was zur Folge hat, dass die Haut der Pantopoda leder- oder pergamentartig ist.
Sinnesorgane und Nervensystem.
In der Haut liegen zahlreiche Drüsen, wie z. B. Kittdrüsen an den Femora der Beine der Männchen und Spinndrüsen an den Cheliceren der Larven.
Die Sinnesorgane sind gering entwickelt. Im Vorderkörper liegen auf einem Augenhügel vier kleine Linsenaugen (Medianaugen). An Hautsinnesorganen sind nur Sinnesborsten bekannt. Spaltsinnesorgane wurden bei dieser Klasse noch nicht gefunden.
Das Nervensystem ist primitiver als das anderer Chelicerata, da die Bauchganglien weitgehend getrennt bleiben. Das Unterschlundganglion innerviert Palpen- und Brutbeinsegment. Ein oder zwei Abdominalganglien treten während der Entwicklung noch auf, verschmelzen jedoch mit dem letzten Rumpfganglion. Die Ganglien im Rumpf sind meist deutlich sichtbar. Von diesen kann man oft starke Nervenstränge in die Beine ziehen sehen.
Verdauungstrakt.
Der Mund liegt auf einem umfangreichen Rüssel (Proboscis), der ventralwärts oder nach vorn ragt. Der Rüssel besteht innen aus drei Längsteilen (Antimeren), einem dorsalen und zwei ventrolateralen. Der dreieckige Mund an der Rüsselspitze selbst ist mit drei borstenbesetzten Platten (Lippen) und drei beweglichen Chitinhaken besetzt.
Der im Rüssel liegende Teil des Darms wird als Pharynx bezeichnet. Sein dreikantiges Lumen wird durch radiäre, zur Rüsselwand ziehende Muskeln erweitert, und der hintere Bereich wird durch in das Lumen ragende Chitinhaken zu einem Reusenapparat. Ein Oesophagus führt in den Mitteldarm. Da der Rauminhalt des Rumpfes bedeutend kleiner ist als der der Beine, gibt es zusätzlich lange Ausläufer des Mitteldarms (Blindsäcke), die bis in die Beine, bei manchen Arten aber auch bis in die Cheliceren und Rüssel ziehen. Das hat zur Folge, dass die aufnehmende und verdauende Oberfläche beträchtlich vergrößert wird.
Die Speiseröhre, die von einem Apparat aus starren und beweglichen Borsten besetzt ist, der den groben aufgesogenen Nahrungsbrei fein zerkleinert, bis nur noch Zellbruchstücke zurückbleiben, ist lang und eng. Von hier aus gelangen diese in den Darm und werden hier von den Darmzellen, in denen die eigentliche Verdauung erfolgt, resorbiert.
Der gerade Endteil des Darmes mündet mit endständigem After.
Die Exkretion läuft über sogenannte Nephrocysten, den Ausscheidungszellen, ab. Nephridien und Malpighische Gefäße fehlen diesen Vertretern der Chelicerata völlig.
Blutgefäßsystem und Atmung.
Das Blutgefäßsystem besteht nur aus einem Rückengefäß. Es weist zwei Paar Einströmöffnungen (Ostien) für das farblose Blut auf und durchzieht den Rumpf vom Hinterende bis zur Region der Augenhügel und ist dorsal mit breiter Fläche an der Rückenwand, ventral am Pericardialseptum angewachsen. Oft kommt noch ein unpaares Ostium am Hinterende dazu. Das Pericardialseptum durchzieht den Rumpf horizontal dicht über dem Darm und erstreckt sich auch in die Beine.
Da den Asselspinnen Kiemen fehlen, wird die Atmung von einem anderen Organ übernommen, wahrscheinlich dem Darm oder feinen Blutkapillaren, in die der Sauerstoff diffundiert.
Bau der Geschlechtsteile.
Die Gonaden entstehen ventral am Pericardialseptum, erstrecken sich aber bis in die Beine, die auch den größten Anteil der Geschlechtsorgane enthalten. An den Coxen der Beine liegen auch die Genitalöffnungen, meist im zweiten Glied, daher findet man legereife Eier nie im Rumpf, sondern nur in den Beinen. Interessanterweise sind oft mehrere Paare von Öffnungen vorhanden, vielfach an allen Beinpaaren. Bei manchen Gattungen sind sie auf bestimmte Beinpaare beschränkt, am häufigsten jedoch auf die letzten. Zahl und Lage der Genitalöffnungen können in Abhängigkeit vom Geschlecht variieren.
Larvalentwicklung.
Die abgelegten Eier, die je nach Art eine Größe von 0,02 bis 0,7 mm erreichen, werden wie schon beschrieben vom Männchen getragen. Die Entwicklung zeigt manche Eigenarten und ist auch innerhalb der Pantopoden nicht gleichartig. Die Furchung ist zunächst total und kann je nach Dottergehalt äqual oder inäqual ausfallen. Früher oder später verschmelzen aber Zellen zu syncytialen Massen. Die Keimblätterbildung ist schwer verständlich. Dorsal werden große Zellen ins Innere verlagert, welche Entoderm (zum Teil von einer Urentodermzelle ausgehend) und Mesoderm bilden. Später tritt ventral die Längsrinne auf, die dem Blastoporusgebiet anderer Arthropoden entspricht. Das Mesoderm scheint sich stets über ein einfaches Streifenstadium in Muskeln und Bindegewebe umzuwandeln.
Die Embryonalentwicklung führt zu einer typischen Larve, der Protonymphon-Larve. Bei den drei Extremitätenpaaren, über die die Larve anfangs verfügt, handelt es sich um Cheliceren, Palpen und Brutbeine. Die Cheliceren der Protonymphon-Larve tragen eine seitlich in eine Röhre mündende Spinndrüse und zum Teil Scherendrüsen. Die beiden anderen Extremitäten sind jedoch nur dreigliedrige Haken, die später mehr oder weniger zurückgebildet werden, während die definitiven Palpen und Brutbeine durch Neubildung entstehen. Herz und After fehlen der Larve. Die Weiterentwicklung erfolgt durch schrittweise Bildung der Beine am Hinterkörper, die Stadien sind durch Häutungen getrennt. Nur selten bleiben die Larvalstadien an den Brutbeinen der Männchen (zum Beispiel Chaetonymphon), meist verlassen sie als Protonymphon die Brutbeine und leben in der nächsten Phase als Ekto- oder Endoparasiten (Phoxichilidium, Anoplodactylus) an anderen Tieren, vor allem Polypen.
Lebensweise und Verbreitung.
Die Vertreter der Pycnogonida sind ausschließlich marin zuhause und leben zwischen Bodenbewuchs aller Art. Dabei sind sie nicht an eine bestimmte Tiefe gebunden, sondern sind sowohl an der Oberfläche als auch in der Tiefsee in Tiefen von mehr als 4000 m heimisch. Einige besonders kleine Arten leben im Sandlückensystem (Interstitial). Abhängig sind sie einzig von einem bestimmten Salzgehalt, der bei ungefähr 3,5 % liegt. Des Weiteren bevorzugen sie kaltes Wasser. Daher findet man sie auffallend häufig in der Antarktis (etwa 250 der 1000 bekannten Arten, davon 100 Arten endemisch in der Antarktis und rund 60 in den subantarktischen Gewässern), dort auch in den großen Formen. In den warmen Meeren, zum Beispiel an den Küsten des Mittelmeeres, fand man bisher nur kleine Exemplare mit höchstens 30 mm Durchmesser.
Alle Pantopoden sind durchweg träge Tiere, wobei sich die kurzbeinigen, plumpen Arten durch ganz besondere Schwerfälligkeit auszeichnen. Sie lassen sich, gibt man sie in eine Schale, zu Boden sinken und bleiben regungslos liegen. Die schlankeren Formen können jedoch mehr oder weniger grazil schwimmen und sich auf diese Weise längere Zeit im freien Wasser aufhalten.
Alle Asselspinnen sind Kletterer, die sich langsam und bedächtig bewegen und sich an jedem geeigneten Gegenstand festklammern können. Die Fortbewegungsgeschwindigkeit ist recht langsam (ca. 1 bis 3 mm/s), kann jedoch in Gefahrensituation enorm gesteigert werden.
Nahrung.
Alle Vertreter der Asselspinnen ernähren sich räuberisch. Zu ihrer Nahrung gehören ausschließlich weichhäutige Tiere, so beispielsweise Schnecken, Moostierchen und Schwämme, aber vor allem Hydroidpolypen.
Die Nesselzellen der Polypen scheinen auf Asselspinnen keinerlei Wirkung zu haben. Die Nahrung, zum Beispiel ein Polypenköpfchen, wird mit einer Schere gefasst und mit dem Rüssel ausgesogen. Dieser Vorgang kann bis zu 10 Minuten dauern. Des Weiteren wurde auch die Aufnahme von Ruderfußkrebsen und Vielborstern beobachtet. Die Ruderfußkrebse werden mit Hilfe der Greifklauen der Laufbeine gepackt, zum Mund geführt und ausgesaugt. Außerdem wurde in Experimenten das Fressen von Muschelfleisch untersucht. Auch hier werden die Greifklauen der Beine eingesetzt, um das Fleisch festzuhalten und die Nahrung anschließend über den Proboscis aufzunehmen. Dieser Vorgang kann sich über mehrere Stunden erstrecken.
Eine Reihe von Arten lebt ektoparasitisch (auf Hohltieren, Schwämmen, Mollusken und Stachelhäutern).
Abwehr von Fressfeinden.
Bei der Knotigen Asselspinne ("Pycnogonum litorale") wurde erstmals in einer marinen Räuber-Beute-Beziehung eine Methode der chemischen Abwehr gefunden. Es konnte nachgewiesen werden, dass die Gemeine Strandkrabbe ("Carcinus maenas"), die sonst nahezu alles frisst, Asselspinnen meidet, weil diese in allen Stadien einen sehr hohen Gehalt an 20-Hydroxy-Ecdyson haben. Diese Substanz ist ein Hormon, das bei Insekten und Krebstieren die Häutung (Ecdysis) auslöst. Für die Strandkrabben sind häufige Häutungen nachteilig, nicht zuletzt weil frisch gehäutete Tiere noch sehr weiche Mundwerkzeuge haben, die eine Nahrungsaufnahme für eine gewisse Zeit unmöglich machen. Die Asselspinnen steuern ihre Häutungen offenbar anders. Ein Häutungshormon für diese Tiere ist bisher noch unbekannt.
Namensgebung.
Auch für die Asselspinnen haben sich, wie bei allen Tier- und Pflanzengruppen, mehrere Namen erhalten. So wurden sie um 1815 vom Engländer William Elford Leach als "Podosomata" bezeichnet, was so viel wie „Körper (nur) aus Beinen“ bedeutet.
1863 wiederum beschrieb sie der deutsche Zoologe Carl Eduard Adolph Gerstäcker als "Pantopoda", was man frei mit „die Allesbeinigen“ übersetzen kann. Ein gewisses Maß an Unsicherheit drückt der deutsche Name "Asselspinnen" aus. Lange Zeit wurden sie zu den Krebsen gestellt, da sie aber auch spinnenförmig aussehen und auch einige Gemeinsamkeiten aufwiesen, reihte man sie in die Klasse der Spinnentiere ein. Da man aber ihre Eigentümlichkeit betonen wollte, nannte man sie letztendlich "Asselspinnen".
Systematik.
Zwischenzeitlich aufgekommene Vermutungen, die Asselspinnen bildeten einen eigenständigen Stamm basal zu allen anderen Arthropoda gelten heute als widerlegt. Die meisten Taxonomen setzen den Asselspinnen als basalster Gruppe der Chelicerata alle anderen Vertreter als Schwestergruppe gegenüber. Damit sind die Pfeilschwanzkrebse und die Spinnentiere miteinander näher verwandt als jede dieser Gruppen mit den Asselspinnen.
Die so dargestellte traditionelle Systematik (basierend vor allem auf morphologischen Reihen mit fortschreitender Reduktion einzelner Gliedmaßen) wird von moderneren molekularen und kladistisch-morphologischen Studien nur teilweise gestützt. Die meisten Ordnungen und einige Familien erwiesen sich als paraphyletisch.
Fossile Überlieferung.
Fossilien von Asselspinnen werden nur sehr selten gefunden. Eine Reihe problematischer Fossilien mit stark abweichendem Körperbau gelten heute nicht mehr als Stammgruppenvertreter, sondern wurden anderen Verwandtschaftskreisen zugeordnet. Die verbleibenden Arten können aufgrund ihres Bauplans modernen Ordnungen zugewiesen werden, ihre früher übliche Zusammenfassung als „Palaeopantopoda“ ist demnach eine künstliche Einteilung. Besonders reich an fossilen Arten ist der unterdevonische Dachschiefer des Hunsrücks. Die ältesten Formen sind in Körpererhaltung (d. h. nicht nur als Abdruck) erhaltene Larven aus dem Oberkambrium von Schweden (dabei wurde die Körperwand durch Calciumphosphat ersetzt und das Tier anschließend in Kalkstein eingebettet, sog „Orsten“-Fossilien). Die adulten Formen dazu sind unbekannt. |
316 | 37528 | https://de.wikipedia.org/wiki?curid=316 | Astronomisches Objekt | Ein astronomisches Objekt (auch Himmelsobjekt oder Himmelskörper) ist ein Objekt im Weltall, das von der Astronomie und der Astrophysik untersucht wird.
Konsistenz.
Die Konsistenz der Objekte ist überwiegend
Kosmologische Objekte.
Dies sind Objekte der Kosmologie, wie die prinzipiellen Strukturen des Universums (Filamente und Voids) und – bisher noch – hypothetische oder in ihrer Natur noch nicht hinreichend geklärte Objekte, wie Schwarze Löcher oder Dunkle Materie.
Einteilung nach der Entfernung.
Eine Orientierung einzelner Fachgebiete der Astronomie:
"Objekte in Erdnähe":
"Solare Objekte":
"Extrasolare Objekte": Objekte außerhalb der Grenzen des Sonnensystems (Deep-Sky-Objekte). |
317 | 233580246 | https://de.wikipedia.org/wiki?curid=317 | Altersbestimmung (Archäologie) | Bei der Altersbestimmung von archäologischen Funden gibt es verschiedene Datierungsmethoden, die man in zwei große Gruppen unterteilen kann, relative und absolute Altersbestimmung.
Relative Datierungsmethoden.
Bei einer relativen Datierungsmethode werden lediglich Aussagen darüber getroffen, ob eine Fundschicht „älter“ oder „jünger“ ist, als beispielsweise, die umgebende Bodenschicht (besser Begehungshorizont).
Relative Datierung durch Stratigraphien.
Im Regelfall gilt als Leitprinzip, dass untere Schichten eher abgelagert worden sind als obere, und somit ältere Schichten unter jüngeren zu finden sind (Stratigraphisches Prinzip). Ähnlich wie bei relativen Altersbestimmungen der Geologie wird nur die Abfolge der Schichten festgestellt, ohne das tatsächliche Alter zu messen.
Ausnahmen kommen etwa bei Umlagerungen oder Überschiebungen vor: So könnte in einem archäologischen Befund älteres Material durch Umschichtungen bei Bauarbeiten oder durch Erosion an einem Hang über jüngerem Material abgelagert worden sein. In der Geologie kommen vergleichbare Ereignisse vor: Ein Gesteinsblock wird durch tektonische Prozesse angehoben, und über einen (nicht angehobenen) jüngeren geschoben. Derartige Prozesse sind selten und durch Aufnahme eines Gesamtbildes identifizierbar.
Relative Datierung durch Fundzusammensetzungen.
Die zeitliche Änderung von Gegenstandsformen, verwendeten Materialien oder Handwerkstechniken führt dazu, dass sich die Zusammensetzung der Fundgegenstände in geschlossenen Funden wie Gräbern, Abfallgruben und Depotfunden in charakteristischer Weise verändert. Eine solche relativchronologische Abfolge lässt sich mit Kombinationsstatistiken oder in einer Seriation darstellen.
Veränderliche prozentuale Anteile von Artefakttypen können auch für die relative Chronologie ganzer archäologischer Kulturen oder Zeithorizonte ausschlaggebend sein. Für die relative Datierung ist also nicht die Anwesenheit oder das Fehlen eines einzelnen Objekts entscheidend, sondern seine relative Häufigkeit. Modellhaft lässt sich das so begründen, dass eine Form in einer Zeitstufe erfunden wird aber noch selten ist, in der nächsten Stufe ist sie dann allgemein bekannt und wird viel benutzt und in der nächsten wird sie bereits langsam von einer neuen Form verdrängt.
Chorologische Methoden.
Eine chorologische Methode, die bei der Auswertung von Gräberfeldern erfolgreich sein kann, ist die so genannte Horizontalstratigraphie. Wenn in einem Bestattungsplatz unterschiedliche Regionen zu unterschiedlichen Zeiten benutzt wurden, sind auch chronologisch relevante Grabbeigaben einer gewissen Zeit nur in der zugehörigen Region des Gräberfeldes zu finden. Die Kartierung der Beigaben auf dem Gräberfeldplan erlaubt es dann, unterschiedliche Belegungsphasen im Kartenbild zu erkennen.
Fluor-Datierung.
Knochen und Zähne bestehen zu einem hohen Prozentsatz aus Hydroxylapatit, der ohne weiteres Fluor an sich binden kann, woraus das weitaus härtere, säurebeständige und wasserunlösliche Fluorapatit entsteht. Diese Einlagerung von Fluor endet nicht mit dem Tod des Individuums, sondern kann sich auch in Fossilien fortsetzen, sofern sie durch das Grundwasser weiterhin mit Fluor in Kontakt kommen. Je länger die Lagerung von Fossilien in fluorhaltigen Böden andauert, desto mehr Fluor dringt in die Knochen ein. Dieser Umstand wurde vor allem zwischen 1950 und 1970 in Form der "Fluor-Datierung" für die relative Altersbestimmung von Knochenfunden genutzt.
Archäologie und Geologie.
Wenn Funde von Frühmenschen (Homininen) oder ihren Erzeugnissen in geologische Schichten eingebettet sind, lassen sie sich über diese datieren. Überreste aus fossilführenden Schichten lassen sich daher mit Hilfe von Leitfossilien genauer einordnen. Auch Großereignisse, die charakteristische überregionale Merkmale erzeugen, können den Vergleich von Schichten oder Gesteinen ermöglichen. Zum Beispiel hat sich eine Iridium-Schicht, die beim Aufprall eines großen Meteoriten entstanden ist, weltweit in alle Gesteine der damaligen Zeit eingelagert. Auch Ablagerungen von Vulkanasche lassen sich manchmal großräumig einer konkreten Eruption wie der des Vulkans vom Laacher See zuweisen.
Absolute archäologisch-geologische Datierungsmethoden.
In der Archäologie werden zahlreiche absolute Datierungsmethoden verwendet. Diese beruhen auf unterschiedlichen Ansätzen. Welche dieser Ansätze anwendbar und sinnvoll sind, entscheidet sich im Einzelfall des jeweiligen Befundes.
Geochronologische Datierungen mittels Isotopenzerfall.
Viele Methoden zur Altersbestimmung in der Geologie liefern nur sehr grobe Absolutdaten. So waren etwa die heute ausgestorbenen Radionuklide 26Al oder 53Mn bei der Entstehung des Sonnensystems noch vorhanden. Mit diesen Methoden können z. B. das Entstehungsalter von Meteoriten oder einzelner Bestandteile von Meteoriten relativ zueinander bestimmt werden. Erst durch Kalibrieren dieser relativen Datierungsmethoden mit absoluten Datierungsmethoden wie der Uran-Blei-Datierung können dann auch absolute Alter angegeben werden.
Bei den radiometrischen Methoden mit nicht ausgestorbenen Radionukliden wird gemessen, wie hoch der Anteil natürlich vorkommender radioaktiver Elemente und eventuell ihrer Zerfallsprodukte ist. Da die Halbwertszeit der radioaktiven Elemente bekannt ist, kann daraus das Alter berechnet werden.
Für das Alter von Gesteinen benötigt man Elemente mit sehr langen Halbwertszeiten. Dafür eignen sich unter anderem folgende Methoden (Halbwertszeit in Klammern, siehe auch Geochronologie):
Eine Besonderheit stellt die Aluminium-Beryllium-Methode dar, da sie vergleichend den Zerfall zweier Radioisotope nutzt, die nicht im Tochter-/Mutterisotopverhältnis stehen. Diese Methode der Oberflächenexpositionsdatierung wird auch zur Bestimmung des Alters von fossilen Hominiden-Knochen genutzt. Die Altersbestimmung erfolgt über das Aluminiumisotop 26Al und das Berylliumisotop 10Be im Mineral Quarz basiert auf dem (bekannten) Verhältnis von 26Al und 10Be, die beide durch kosmische Strahlung (Neutronen-Spallation, Myonen-Einfang) an der Oberfläche von Steinen/Mineralen entstehen. Das Verhältnis ist abhängig u. a. von der Höhenlage, der geomagnetischen Breite, der Strahlungsgeometrie und einer möglichen Schwächung der Strahlung durch Abschirmungen (z. B. Bedeckung).
In der Regel werden bei geologischen Datierungen sogenannte Isochronendiagramme verwendet. Vorteil dieser Technik ist es, dass die anfängliche Konzentration und Isotopenverhältnisse der Tochterelemente nicht bekannt sein müssen, man erhält sie vielmehr als ein weiteres Resultat, zusätzlich zum Alter der Probe. Des Weiteren hat die Isochrontechnik den Vorteil, dass zuverlässig ausgeschlossen werden kann, dass eventuelle Störungen durch Umgebungseinflüsse das gemessene Alter verfälscht haben könnten.
Der eigentliche Vorteil der radiometrischen Datierungsmethoden beruht darauf, dass die Bindungsenergien der Atomkerne um etliche Größenordnungen größer sind als die thermischen Energien der Umgebung, in welcher potentielle Proben (meist Gesteine) überhaupt existieren können. Eine Beeinflussung der Zerfallsraten (Halbwertszeiten) durch Umgebungseinflüsse kann deshalb ausgeschlossen werden, so dass die radiometrischen Alter – besonders wenn sie unter Verwendung der Isochronmethode gewonnen wurden – als sehr zuverlässig gelten.
Eine weitere absolute Datierungsmethode ist die Fission-Track-Methode. Hier werden die durch die beim radioaktiven Zerfall (z. B. spontaner Zerfall von Uran oder Zerfall von 40K zu 40Ar) entstandenen hochenergetischen Zerfallsprodukte erzeugten Kristallschäden entlang deren Flugbahnen durch Anätzen unter dem Mikroskop sichtbar gemacht und abgezählt.
Weitere geochronologische Methoden.
Bei der Warvenchronologie werden Warven, jährliche Sedimentablagerungen in Seen, ausgezählt. Der Boden bekommt durch diese Ablagerungen ein Streifenmuster. Insbesondere für Gegenden mit starker Schneeschmelze ist dieses Verfahren geeignet. Für die Eifelregion gibt es eine Chronologie der letzten 23.000 Jahre, für einen japanischen See für 45.000 Jahre und für den Lago Grande di Monticchio in Süditalien sogar für die letzten 76.000 Jahre.
Bei der Analyse von Eisbohrkernen werden die Schichten gezählt, die jedes Jahr durch den Schneefall gebildet werden.
Die Magnetostratigraphie nutzt die Tatsache, dass das Erdmagnetfeld sich im Lauf der Zeit des Öfteren umgepolt hat. Dieses Muster lässt sich in den Gesteinen wiederfinden und auszählen.
Absolute archäologische Datierungsmethoden.
Radiokohlenstoffdatierung.
Zur Altersbestimmung menschlicher Hinterlassenschaften in der Archäologie sind meist Ausgangsisotopen mit kürzeren Halbwertszeiten erforderlich als in der Geologie. Hier wird vorwiegend die Radiokohlenstoffdatierung von organischen Materialien angewandt.
Bei der Radiokohlenstoffdatierung wird der Gehalt an radioaktivem Kohlenstoff 14C, der eine Halbwertszeit von 5.730 Jahren hat, gemessen. Damit sind Altersbestimmungen bis zu 60.000 Jahren möglich. Bei älteren Proben ist der 14C-Anteil bereits zu gering, um noch gemessen werden zu können. Eine Schwierigkeit dieser Methode ist, dass der Anteil von 14C in der Erdatmosphäre nicht konstant ist. Diese Schwankungen können beispielsweise mit Hilfe der Dendrochronologie ermittelt werden.
Dendrochronologie.
Die Dendrochronologie ermöglicht es, mittels charakteristischer Jahrringe einiger Baumarten, z. B. Eichen, Datierungen vorzunehmen, die auf das Jahr genau sein können. Daher lässt sich bei guter Erhaltung die Errichtungszeit von Bauten mit erhaltenen Hölzern, etwa von Pfahlbauten oder Brunnen, die Bauzeit von Schiffen oder die Herstellung von Särgen bestimmen.
Münzdatierungen.
Bei der Münzdatierung liefern die Münzen einen "terminus post quem". Das bedeutet, dass ein Fund erst in die Erde gelangt sein kann, nachdem das (jüngste) Geldstück aus diesem Fund geprägt wurde. Dabei steht zunächst nicht fest, wie lange nach der Prägung der Münze dies geschehen ist.
Archäologische Funde (Importe).
Archäologische Funde einer Kultur können auch durch absolut datierte Importgegenstände aus anderen Kulturen datiert werden. Beispiele dafür sind etwa griechische Keramik oder Bronzegefäße in Fürstengräbern der späten Hallstattzeit in Ostfrankreich und Südwestdeutschland oder Römische Importe in der Kaiserzeit in der Germania Magna.
Verbindung mit historischen Ereignissen.
Gelegentlich lassen sich archäologische Fundzusammenhänge über bekannte historische Ereignisse datieren. So wurden beispielsweise die Städte Pompeji und Herculaneum durch den von Plinius dem Jüngeren beschriebenen Ausbruch des Vesuv am 24. August 79 zerstört und verschüttet, die Gebäude in diesen Städten müssen also vor diesem Vulkanausbruch errichtet worden sein. Für Funde aus diesen Orten gilt also ein "terminus ante quem" von 79.
Die Einwanderung der Langobarden in Italien fand nach historischen Quellen im Jahr 568 statt. Langobardische Gräberfelder in Italien datieren daher erst in die Zeit nach 568, die Einwanderung bietet hier einen "terminus post quem".
Die absolute Datierung über die Verbindung von archäologischen Funden und historischen Daten sollte generell mit großer Vorsicht vorgenommen werden, da die Gefahr eines Zirkelschlusses besteht (so genannte gemischte Interpretation). So könnte etwa die historisch belegte Zerstörung einer Siedlung dazu verleiten, eine dort gefundene Brandschicht vorschnell auf diese Zerstörung zu beziehen und nach ihr zu datieren, obwohl die Brandschicht tatsächlich von einem anderen, historisch nicht überlieferten Feuer stammt. Verhindern lässt sich ein solcher Zirkelschluss durch eine möglichst genaue, eigenständige archäologische Datierung und die Einordnung in einen größeren Zusammenhang. Für die oben genannten Beispiele bedeutet das, dass die Funde aus Pompeji (Münzen, Keramik usw.) auch ohne Kenntnis des genauen Datums eine Datierung der Zerstörung um 80 erlauben. Die Datierung der Einwanderung der Langobarden ist nach dem historischen Datum von 568 möglich, da die ältesten Grabbeigaben der Langobarden in Italien nach archäologischen Kriterien aus dem letzten Drittel des 6. Jahrhunderts stammen und spezielle Formen, etwa von Fibeln, dort vorher nicht bekannt gewesen sind, sondern nach genauen Vergleichsstücken von langobardischen Zuwanderern aus ihren bisherigen Wohngebieten in Pannonien mitgebracht wurden.
Weitere Methoden.
Einige Methoden eignen sich für relativ spezielle Anwendungsgebiete. Die Thermolumineszenzdatierung etwa dient zur naturwissenschaftlichen Altersbestimmung von Keramik. Inzwischen wurde auch die Argon-Argon-Datierung so weit verfeinert, dass die absolute Datierung historischer Ereignisse mit dieser in bestimmten Fällen möglich ist. So wurde sie 1997 verwendet, um mit ihr Bimsstein von dem Vesuv-Ausbruch, welcher Pompeji zerstörte, auf die Jahre von 72 bis 94 n. Chr. zu datieren. Damit liegt das in historischen Quellen genannten Datum (79 n. Chr.) im Bereich des quantifizierten Fehlers. Die unabhängigen Altersangaben bestätigen sich folglich gegenseitig. Eine neue Untersuchungsmethode stellt die Rehydroxylierung dar, nämlich in welchem Grade Sauerstoffbrücken in Keramik durch Eindringen von Wasser aufgebrochen worden sind. Auf diese Weise gelang es "Moira Wilson" von der University of Manchester und ihren Kollegen, keramische Objekte im Alter bis zu 2000 Jahren recht genau zu bestimmen.
Zusammenführung von relativer und absoluter Chronologie.
Im Regelfall sollte zunächst eine relative Chronologieabfolge erstellt werden, welche erst in einem zweiten Schritt mit absoluten Daten zusammengeführt wird. Wird dieses Prinzip missachtet, führt dies bei einer zu ungenauen oder fehlerhaften Absolutdatierung zu einer falschen Relativdatierung. |
318 | 2471595 | https://de.wikipedia.org/wiki?curid=318 | Adrenalin | Adrenalin (gebildet 1901 aus ‚an‘ und ‚Niere‘) oder Epinephrin (1900 gebildet aus ‚auf‘ und ‚Niere‘) ist ein im Nebennierenmark gebildetes Hormon, das zur Gruppe der Katecholamine gehört. Auch im Zentralnervensystem kommt Adrenalin vor, dort ist es als Neurotransmitter in adrenergen Nervenzellen vorhanden. Seine Effekte vermittelt Adrenalin über eine Aktivierung von G-Protein-gekoppelten Rezeptoren, den Adrenozeptoren. Die wirksamere Form -Adrenalin kam vor 1919 als Suprarenin (von lateinisch "supra", ‚über‘) auf den Markt.
Einmal ins Blut ausgeschüttet, vermittelt Adrenalin eine Herzfrequenzsteigerung, einen durch Blutgefäßverengung bewirkten Blutdruckanstieg und eine Bronchiolenerweiterung. Das Hormon bewirkt zudem eine schnelle Energiebereitstellung durch Fettabbau (Lipolyse) sowie die Freisetzung und Biosynthese von Glucose. Es reguliert die Durchblutung (Zentralisierung) und die Magen-Darm-Tätigkeit (Hemmung). Als Stresshormon ist es an der „Flucht- oder Kampfreaktion (fight-or-flight response)“ beteiligt.
Begriffsdefinition.
Eine häufig gebrauchte Bezeichnung für Adrenalin (ursprünglich ein Markenname) ist Epinephrin (INN) ( "epí" ‚auf‘ und "nephrós" ‚Niere‘).
Adrenalin besitzt ein Stereozentrum, somit existieren zwei Enantiomere. Ist der Name „Adrenalin“ durch keinen Deskriptor näher gekennzeichnet, ist das natürlich vorkommende ("R")-(−)-Adrenalin gemeint. ("S")-(+)-Adrenalin hat dagegen praktisch keine Bedeutung.
Entdeckungsgeschichte.
Den ersten Hinweis auf eine im Nebennierenmark vorkommende und von dort in die Blutbahn freigesetzte Substanz, die sich mit Eisen(III)-chlorid anfärben ließ, fand 1856 der französische Physiologe Alfred Vulpian. Dass diese Substanz außerordentliche pharmakologische Eigenschaften besitzen musste, stellten 1893/94 der praktizierende Arzt George Oliver und der Physiologe Edward Albert Schäfer fest. Dasselbe gelang 1894 dem Krakauer Physiologen Napoleon Cybulski mit seinem Assistenten Władysław Szymonowicz. 1896 publizierte der Augenarzt William Bates seine Beobachtungen.
John Jacob Abel stellte 1897 bzw. 1900 die noch unreine Substanz dar und gab ihr den Namen „Epinephrin“. Inspiriert durch seine Arbeiten isolierten Jokichi Takamine und Thomas Bell Aldrich (1861–1938) 1901 diese und ließen die kristallinische Substanz von der Firma Parke, Davis & Co. unter dem Namen „Adrenalin“ vertreiben. Obgleich Abels Epinephrin sich später als ein Artefakt der Isolierung herausstellte, wird der Name Epinephrin bis heute synonym für Adrenalin gebraucht.
Im Jahr 1904 folgte die Aufklärung der Formel und chemische Synthese durch Friedrich Stolz in Höchst. 1908 gelang Fritz Flaecher (1876–1938) die Trennung des Racemats in die beiden Enantiomere, wobei die wirksamere -Form unter dem Namen "Suprarenin" auf den Markt gebracht wurde. 1919 führte Reinhard von den Velden (1880–1941) die erste intrakardiale Adrenalin-Injektion durch.
Adrenalin war das erste Hormon, das rein hergestellt und dessen Struktur bestimmt wurde. Die weitere Adrenalinforschung führte zu den beiden anderen körpereigenen Catecholaminen Noradrenalin und Dopamin.
Biosynthese und Abbau.
Biosynthese.
Die Biosynthese von Adrenalin geht von der α-Aminosäure -Phenylalanin (1) aus. Diese wird durch das Enzym Phenylalaninhydroxylase (PAH) zunächst zu -Tyrosin (2) hydroxyliert. Eine weitere Hydroxylierung durch die Tyrosinhydroxylase (TYH) liefert -DOPA (3), welches durch die Aromatische-L-Aminosäure-Decarboxylase (AADC) zu Dopamin (4) decarboxyliert wird. Es folgt eine enantioselektive Hydroxylierung zum Noradrenalin (5) durch die Dopamin-β-Hydroxylase (DBH). Eine abschließende "N"-Methylierung durch Phenylethanolamin-N-Methyltransferase (PNMTase) liefert schließlich Adrenalin (6).
Die normale Konzentration von Adrenalin im Blut liegt unter 100 ng/l (etwa 500 pmol/l).
Regulation der Biosynthese.
Die Biosynthese und die Freisetzung von Adrenalin kann durch nervale Reize, durch Hormone oder durch Medikamente gesteuert werden. Nervale Reizung fördert die Umwandlung von -Tyrosin zu -Dopa und von Dopamin zu Noradrenalin. Cortisol, das Hormon der Nebennierenrinde, fördert die nachfolgende Umwandlung von Noradrenalin zu Adrenalin.
Die Adrenalinproduktion kann auch durch einen negativen Feedback-Mechanismus reguliert werden. Ansteigende Adrenalinspiegel sind mit der -Tyrosin-Bildung negativ rückgekoppelt, bei erhöhten Adrenalinspiegeln wird also die -Tyrosin-Bildung gebremst.
Abbau.
Adrenalin wird nach seiner Freisetzung relativ schnell wieder abgebaut. So beträgt die Plasmahalbwertszeit von Adrenalin bei intravenöser Gabe nur eine bis drei Minuten. Am Abbau von Adrenalin sind insbesondere die Enzyme Catechol-"O"-Methyltransferase (COMT) und Monoaminooxidase (MAO) beteiligt. Das durch "O"-Methylierung (COMT) gebildete primäre Abbauprodukt Metanephrin (siehe Metanephrine) besitzt bereits keine nennenswerte biologische Aktivität mehr. Durch weitere, insbesondere oxidative Stoffwechselprozesse unter Beteiligung der Monoaminooxidase ist eine Metabolisierung zu Vanillinmandelsäure und 3-Methoxy-4-hydroxyphenylethylenglykol (MOPEG) möglich. Diese Stoffwechselprodukte werden in konjugierter (z. B. als Sulfate) und unkonjugierter Form über den Urin ausgeschieden. Der zuverlässige qualitative und quantitative Nachweis aller Metabolite gelingt durch die Kopplung verschiedener chromatographischer Verfahren.
Wirkungen.
Adrenalin ist ein Stresshormon und schafft als solches die Voraussetzungen für die rasche Bereitstellung von Energiereserven, die in gefährlichen Situationen das Überleben sichern sollen (Kampf oder Flucht). Diese Effekte werden auf subzellularer Ebene durch Aktivierung der G-Protein-gekoppelten Adrenorezeptoren vermittelt.
Herz-Kreislauf-System.
Von besonderer Wichtigkeit ist die Wirkung von Adrenalin auf das Herz-Kreislauf-System. Hierzu zählt u. a. der Anstieg des zentralen Blutvolumens, der durch Kontraktion kleiner Blutgefäße, insbesondere in der Haut und in den Nieren, über die Aktivierung von α1-Adrenozeptoren geschieht. Zugleich wird eine β2-Adrenozeptor-vermittelte Erweiterung zentraler und muskelversorgender Blutgefäße beobachtet.
Die Aktivierung von β1-Adrenozeptoren führt zu einer erhöhten Herzfrequenz (positiv chronotrope Wirkung), einer beschleunigten Erregungsleitung (positiv dromotrope Wirkung), einer erhöhten Kontraktilität (positiv inotrope Wirkung) und einer Senkung der Reizschwelle (positiv bathmotrope Wirkung). Diese Effekte verbessern die Herzleistung und tragen mit der Konstriktion kleiner Blutgefäße zur Erhöhung des Blutdrucks bei. Nach Vorbehandlung mit Alpha-Blockern führt Adrenalin jedoch zu einer paradoxen, therapeutisch genutzten Senkung des Blutdrucks (Adrenalinumkehr). Auch sehr niedrige Adrenalindosen (< 0,1 µg/kg) können eine leichte Senkung des Blutdrucks bewirken, die mit einer selektiven Aktivierung von β2-Adrenozeptoren der Blutgefäße erklärt wird.
Chronisch erhöhte Adrenalinspiegel werden mit einer Hypertrophie des Herzens in Verbindung gebracht.
Glatte Muskulatur, Atmung, Magen-Darm-Trakt, Harnblase.
Neben der oben genannten Funktion auf das Herz-Kreislauf-System ist die Steigerung der Atmung und eine vorübergehende Inaktivierung nicht benötigter Prozesse, z. B. der Verdauung, im Rahmen der Stresshormonfunktion des Adrenalins von Bedeutung. Adrenalin führt über eine Aktivierung von β-Adrenozeptoren zu einer Erschlaffung der glatten Muskulatur. Dies hat beispielsweise eine Ruhigstellung des Magen-Darm-Trakts (Hemmung der Peristaltik) und eine Erweiterung der Bronchien zur Erleichterung der Atmung als Folge (β2-Adrenozeptoren). Ebenfalls über β2-Adrenozeptoren kann Adrenalin eine Relaxation des Uterus von Schwangeren bewirken. Andererseits kann Adrenalin in Organen, die vorwiegend α1-Adrenozeptoren exprimieren, eine Kontraktion der glatten Muskulatur vermitteln. So führt Adrenalin zu einer Kontraktion des Schließmuskels der Harnblase.
Mobilisierung von Energiereserven.
Die Freisetzung von Adrenalin aus der Nebenniere führt zu einer Mobilisierung von körpereigenen Energieträgern durch Steigerung des Fettabbaus (Lipolyse). Diese Lipolyse wird durch eine β-Adrenozeptor-vermittelte (vorwiegend β3-Adrenozeptoren) Aktivierung der hormonsensitiven Lipase katalysiert. Ebenso führt ein Anstieg des Adrenalinspiegels zu einer Freisetzung und Neubildung von Glucose und damit zu einem Anstieg des Blutzuckerspiegels (β2-Adrenozeptoren). Dieser als "Adrenalinglucosurie" (bzw. "Adrenalinglykosurie") bezeichnete, 1901 von Léon Blum entdeckte Effekt wird durch α2-Adrenozeptor-vermittelte Hemmung der Insulinproduktionen und die β-Adrenozeptor-vermittelte Freisetzung von Glucagon verstärkt. Im Muskel kommt es durch Adrenalin zu verstärkter Glucose-Aufnahme. Adrenalin führt ebenfalls zu einer Erhöhung des Energieumsatzes (vorwiegend β2-Adrenozeptoren).
Zentralnervensystem.
Beobachtete zentralnervöse Effekte als Stresshormon werden als reflektorisch angesehen, da in der Nebenniere gebildetes Adrenalin die Blut-Hirn-Schranke nicht passieren kann. Ungeachtet dessen konnte in einigen Neuronen des Zentralnervensystems vor Ort produziertes Adrenalin als Neurotransmitter nachgewiesen werden. Diese Neurone kommen insbesondere in der Area reticularis superficialis ventrolateralis vor. Die Funktion dieser adrenergen Neurone ist nicht genau bekannt, jedoch wird eine Rolle bei der zentralen Blutdruckregulation und beim Barorezeptorreflex diskutiert.
Das zentrale Nervensystem nimmt den Stressor wahr, daraufhin wird der Hypothalamus aktiv und aktiviert den Sympathicus. Dessen anregende Wirkung auf das Nebennierenmark bewirkt dessen Ausschüttung von Adrenalin und Noradrenalin.
Sonstige Effekte.
Als Folge einer Adrenalinfreisetzung oder einer lokalen Adrenalinanwendung können Schweißproduktion, Gänsehaut (pilomotorischer Reflex) und eine Pupillenerweiterung (Mydriasis) beobachtet werden. Zudem bekommt man auch einen trockenen Mund. Adrenalin ist ferner an der Blutgerinnung und Fibrinolyse beteiligt.
Chemie.
Adrenalin (chemisch: ("R")-1-(3,4-Dihydroxyphenyl)-2-("N"-methylamino)ethanol) gehört zur Gruppe der Katecholamine, zu der auch Noradrenalin und Dopamin zählen. Die wirksame Form (Eutomer) des Adrenalins besitzt stereochemisch eine ("R")-Konfiguration [("R")-Adrenalin oder (−)-Adrenalin]. ("R")-Adrenalin ist etwa 20- bis 50-mal wirksamer als ("S")-Adrenalin.
Synthese.
Zur Synthese des Adrenalins sind in der Literatur mehrere Verfahren beschrieben. Das klassische Syntheseverfahren umfasst drei Schritte: Brenzkatechin (1) wird mit Chloressigsäurechlorid (2) zum 3,4-Dihydroxy-ω-chloracetophenon (3) acyliert. Die Reaktion entspricht indirekt der Friedel-Crafts-Acylierung, der bevorzugte Weg führt gleichwohl über die Ester-Zwischenstufe und schließt so eine Fries-Umlagerung mit ein. Die Aminierung des Chloracetophenons mit Methylamin ergibt das Adrenalon (4); die anschließende Reduktion liefert racemisches Adrenalin (5). Die Racematspaltung ist mit Hilfe von (2"R",3"R")-Weinsäure möglich.
Alternativ kann man auch 3,4-Dimethoxybenzaldehyd mit Blausäure zum Cyanhydrin umsetzen, dessen Oxidation dann ein Nitriloketon liefert. Durch katalytische Reduktion entsteht ein Aminoketon, dessen schonende "N"-Methylierung liefert dann das sekundäre Amin. Durch Hydrolyse der Phenyletherfunktionen, Reduktion und Racematspaltung gelangt man dann zum Adrenalin.
Handelsübliche Formen des Adrenalins sind auch das Hydrogentartrat und das Hydrochlorid.
Stabilität.
Wie alle Katecholamine ist Adrenalin oxidationsempfindlich. Ein Oxidationsprodukt des Adrenalins ist Adrenochrom. Für die Oxidation kann man Silber(I)-oxid (Ag2O) verwenden. Die Oxidation des Adrenalins kann auch in wässriger Lösung durch Spuren von Eisen- und Iodidionen katalysiert werden. Antioxidantien, wie z. B. Ascorbinsäure und Natriummetabisulfit können die Bildung von Adrenochrom verlangsamen. Die Geschwindigkeit der Oxidation ist darüber hinaus vom pH-Wert der Lösung abhängig. Als Stabilitätsoptimum gilt ein leicht saurer pH-Wert.
Adrenalin als Arzneistoff.
Anwendungsgebiete.
In der Medizin wird Adrenalin vor allem als Notfallmedikament bei der Herz-Lungen-Wiederbelebung bei Herzstillstand und dem anaphylaktischen Schock eingesetzt. Es ist in verschiedenen Darreichungsformen erhältlich und verschreibungspflichtig.
Notfallmedizin.
Für die Anwendung in der Notfallmedizin wird Adrenalin intravenös, alternativ auch intraossär, früher auch endobronchial (erstmals 1967 beschrieben und 1974 etabliert) und intrakardial, verabreicht. In den aktuellen Empfehlungen des European Resuscitation Council wird die Gabe von Adrenalin bei der Reanimation als Standard empfohlen. In einer großen placebo-kontrollierten Studie konnte ein verbessertes Überleben durch Anwendung von Adrenalin bei der Reanimation außerhalb des Krankenhauses gezeigt werden, allerdings ging dies auch mit einer höheren Zahl von neurologischen Schäden einher.
Ein weiteres Hauptanwendungsgebiet von Adrenalin in der Medizin ist der Kreislaufschock, beispielsweise bei anaphylaktischen Reaktionen oder Sepsis. Die Behandlung anaphylaktischer Reaktionen und des anaphylaktischen Schocks erfolgt über eine intramuskuläre Verabreichung von Adrenalin. Sollte im akuten Schockgeschehen keine Zustandsbesserung mit der intramuskulären Gabe erfolgen, kann Adrenalin auch intravenös titriert verabreicht werden. Für Patienten mit schwerwiegenden allergischen Reaktionen in der Vergangenheit (z. B. drohende Erstickung durch Anschwellen der Stimmritze (Glottisödem)) stehen Adrenalin-Fertigspritzen zur Verfügung, die dann von dem Betroffenen nach einer Allergenexposition mit beginnender Symptomatik selbst appliziert werden können.
Für die Anwendung in der Herz-Lungen-Wiederbelebung und beim Schock stehen die den Blutkreislauf zentralisierenden Wirkungen des Adrenalins im Vordergrund. Durch eine Aktivierung von α1-Adrenozeptoren wird eine Konstriktion kleiner Blutgefäße in der Haut und in den Nieren erreicht, während große zentrale Blutgefäße erweitert werden. Auf diese Weise soll Adrenalin den koronaren und zerebralen Perfusionsdruck steigern.
Atemwegserkrankungen.
Für die Anwendung als Zusatzmedikation bei der akuten "Laryngitis subglottica" („Pseudo-Krupp“) steht Adrenalin als Lösung zur Inhalation zur Verfügung. Bis 2002 waren in Deutschland Adrenalin-haltige Inhalationspräparate auch für die Akutbehandlung des Asthma bronchiale zugelassen. Mit Inkrafttreten des FCKW-Verbots wurden diese jedoch vom Markt genommen. Die inhalative Anwendung anderer Adrenalinpräparate zur Akutbehandlung asthmatischer Beschwerden ist somit außerhalb der arzneimittelrechtlichen Zulassung und entspricht einem Off-Label-Use.
Die Anwendung des Adrenalins bei Atemwegserkrankungen basiert auf seiner bronchienrelaxierenden Wirkung, die über eine Aktivierung von β2-Adrenozeptoren vermittelt wird. Systemische Nebenwirkungen nach Resorption müssen jedoch in Kauf genommen werden.
Lokale Vasokonstriktion.
Adrenalin kann weiterhin zur lokalen Gefäßverengung bei Blutungen eingesetzt werden. Die gefäßverengende Wirkung wird auch zum Schließen von Cuts im Boxsport verwendet. Diese vasokonstriktive Wirkung beruht auf einer Aktivierung von α1-Adrenozeptoren kleiner Blutgefäße in der Haut und im Muskelgewebe und ihrer darauf folgenden Verengung.
Verdünntes Adrenalin (etwa als 1:1000 bzw. 1:5000 verdünnte "Suprarenin"-Lösung) wird ferner, nachdem der Chirurg Heinrich Braun Untersuchungen mit Kokain dazu angestellt hatte, seit Beginn des 20. Jahrhunderts als vasokonstriktiver Zusatz zu Lokalanästhetika verwendet, um deren Abtransport zu verlangsamen und damit ihre Wirkungsdauer zu verlängern und auch die Toxizität zu verringern.
Antidot.
Adrenalin ist das Mittel der zweiten Wahl bei Betablockervergiftungen und kann eingesetzt werden, wenn kein spezifischer β-Agonist zur Verfügung steht. Für diese Notfallanwendung besteht jedoch ebenfalls keine arzneimittelrechtliche Zulassung (Off-Label-Use).
Nebenwirkungen.
Die Nebenwirkungen des Adrenalins entsprechen weitgehend seinen Hauptwirkungen und sind auf dessen Bedeutung als Stresshormon zurückzuführen. Adrenalin führt zu einer Kontraktion kleiner Blutgefäße, insbesondere der Haut und der Nieren, verbunden mit einem Blutdruckanstieg und, insbesondere bei lokaler Anwendung, vereinzelten Nekrosen. Bei systemischer Anwendung stehen kardiale Nebenwirkungen, wie z. B. Herzinsuffizienz, Angina-pectoris-Anfälle, Herzinfarkt, tachykarde Herzrhythmusstörungen, bis hin zum Kammerflimmern und Herzstillstand im Vordergrund. Daher ist seine Anwendung teilweise umstritten. Die systemische Anwendung von Adrenalin kann darüber hinaus eine Erhöhung des Blutzuckerspiegels (Hyperglykämie), eine Erniedrigung des Kaliumspiegels (Hypokaliämie), eine metabolische Azidose und eine Absenkung der Magnesiumkonzentration (Hypomagnesiämie) zur Folge haben. Des Weiteren können Mydriasis, Miktionsschwierigkeiten, Speichelfluss, Schwitzen bei gleichzeitigem Kältegefühl in den Extremitäten, Übelkeit, Erbrechen, Schwindel und Kopfschmerz beobachtet werden. Als psychische Nebenwirkungen durch den Einsatz von Adrenalin können Ruhelosigkeit, Nervosität, Angst, Halluzinationen, Krämpfe bis hin zu Psychosen auftreten.
Wechselwirkungen.
Einige Inhalationsanästhetika, die das Herz für Katecholamine sensibilisieren, führen zu einer verstärkten Wirkung von Adrenalin am Herz und somit zu einer erhöhten Gefahr von Herzinsuffizienz, Angina-pectoris-Anfällen, Herzinfarkt und tachykarden Herzrhythmusstörungen.
Die Wirkungen und Nebenwirkungen von Adrenalin können ebenfalls durch eine Hemmung des Adrenalinabbaus oder einer vermehrten (Nor-)Adrenalinfreisetzung verstärkt werden. Dies ist insbesondere bei gleichzeitiger Anwendung von MAO-Hemmern, Levodopa, -Thyroxin, Theophyllin, trizyklischen Antidepressiva und Reserpin zu beobachten.
Adrenalin seinerseits hemmt die blutdrucksenkende Wirkung von Alphablockern und die kardialen Effekte der Betablocker. Da Adrenalin zu einem Anstieg des Blutzuckerspiegels führt, ist die Wirkung oraler Antidiabetika herabgesetzt.
Dosierung.
Adrenalin wird als Lösung intravenös verabreicht. Typischerweise ist die Konzentration in einer Ampulle 1 mg/ml (auch als Adrenalinlösung 1:1.000 oder Adrenalinlösung 0,1%ig bezeichnet). Je nach Anwendungsgebiet ist es gebräuchlich, im Verhältnis 1:10 mit 0,9 % Natriumchloridlösung zu verdünnen (dann als Adrenalinlösung 1:10.000 oder Adrenalinlösung 0,01%ig bezeichnet). Die Reanimationsdosis beträgt 1 mg alle 3–5 Minuten. In der Intensivmedizin und zur Behandlung eines "Low-output-Syndroms" wird bei Erwachsenen eine Dosierung von 2–20 µg/min eingesetzt.
Handelsnamen nach Darreichungsform.
Ampullen (Injektionslösung)
Autoinjektoren (Injektionslösung in Fertigpen)
Inhalationslösung |
320 | 13625 | https://de.wikipedia.org/wiki?curid=320 | Arterie | Eine Arterie (lateinisch Arteria, von , „Luftrohr, Schlagader“) ist ein Blutgefäß, welches (mit Ausnahme der Herzkranzarterien) Blut vom Herzen "weg" führt. Sie wird nach den an großen Arterien spürbaren Pulsen des Herzschlags auch Schlagader oder Pulsader genannt. Durch ihren Aufbau sollen Arterien den vom Herzen erzeugten Blutdruck stabil halten können. Im Körperkreislauf transportieren sie sauerstoffreiches Blut („arterielles Blut“). Die vom rechten Herzen zu den Lungenflügeln abgehenden Arterien des Lungenkreislaufs hingegen enthalten sauerstoffarmes Blut. In den Arterien des Menschen sind nur etwa 20 % des gesamten Blutvolumens enthalten (post mortem wegen des Druckgefälles noch ca. 2 %). Arterien verzweigen sich in immer kleinere Arterien und dann über Arteriolen in so genannte Haargefäße (Kapillaren). Blutgefäße, die das Blut aus dem Körper zum Herzen zurücktransportieren, werden im Allgemeinen Venen genannt.
Wortherkunft.
Lateinisch "arteria" stammt von ; von "a(ë)rter", ‚woran etwas aufgehängt wird‘ (in Bezug auf die an der Luftröhre bzw. den Bronchien aufgehängte Lunge), von altgriech. . Volksetymologisch wurde die Arterie bezogen auf bzw. "aër", ‚Luft‘, in der Annahme, Arterien seien mit Luft gefüllt (Arterien galten zudem als Leitungsbahn nicht nur für Blut, sondern auch als Gefäße für den Transport des ebenso lebenswichtigen Pneumas; zum Teil wurde – bis durch Galenos zur Anerkennung gebracht wurde, dass auch Blut in den Arterien fließt – auch angenommen, die Arterien enthielten nur das Pneuma).
Typen.
Je nach Funktion und Lokalisation müssen Arterien verschiedenen Ansprüchen genügen und unterscheiden sich daher auch in ihrem Aufbau:
Wandaufbau.
Die Gefäßwände der Arterien sind dicker (muskelreicher), haben eine deutlich ausgeprägtere Schichtung und sind weniger dehnbar als die Venen.
Grundsätzlich besteht eine arterielle Wand aus drei Schichten, deren Bestandteile alle lateinisch-anatomische Namen tragen; von der blutführenden Seite aus gesehen sind dies:
Große Arterien.
Die größte Arterie im menschlichen Körper ist die Aorta (Hauptschlagader) mit einem Durchmesser von etwa drei Zentimetern. Weitere größere Arterien sind: |
321 | 1179565 | https://de.wikipedia.org/wiki?curid=321 | Ariel Scharon | (, genannt "Arik"; geboren am 26. Februar 1928 als "Ariel Scheinermann" in Kfar Malal, Britisches Mandatsgebiet Palästina; gestorben am 11. Januar 2014 in Ramat Gan) war ein israelischer Politiker und General. Bis zum Jom-Kippur-Krieg 1973 war er als aktiver Offizier, vielfach in entscheidenden Positionen, an allen militärischen Konflikten Israels beteiligt. Damals und in der darauf folgenden Zeit, als er mehrfach Ministerämter bekleidete, galt er als Hardliner und Protagonist der Siedlerbewegung. Als Ministerpräsident von 2001 bis 2006 setzte er dagegen den Abzug des israelischen Militärs aus dem Gazastreifen durch.
Familie.
Scharons Vater Schmuel kam aus Brest-Litowsk und die Mutter, die einer Familie von Subbotniki entstammte, aus Mahiljou in Belarus. Der Vater hatte gerade in Tiflis sein Betriebswirtschaftsstudium mit Vertiefung auf Einzelhandelskaufmann abgeschlossen, als er 1921 als aktiver Zionist vor der Roten Armee floh und zusammen mit der Mutter nach Palästina auswanderte. Seine Frau Vera Schneeroff konnte deshalb ihr Studium der Medizin nicht abschließen, was sie ihr Leben lang bereute. Im Unterschied zu vielen Einwanderern jener Zeit war sie weder sozialistisch eingestellt noch teilte sie den Zionismus ihres Mannes.
Die Familie zog in den Moschaw Kfar Malal, wo die Entscheidungen zwar kollektiv getroffen wurden, aber jeder sein eigenes Land besaß. Als einziger studierter Landwirt und wenig kompromissbereiter Mensch verstand es der Vater, sich wiederholt über die Entscheidungen der Gemeinschaft hinwegzusetzen, wodurch sich die Familie jedoch manchmal isolierte.
Frühe Jahre.
Dienst in der Hagana.
Bereits mit 13 Jahren beteiligte sich Scharon am Wachdienst des Moschaws und trat im Jahr darauf der Untergrundorganisation Hagana bei, dem Vorläufer der israelischen Armee. Seit 1941 besuchte er das Gymnasium in Tel Aviv. Dort legte er, der nie ein herausragender Schüler war, mit 17 Jahren das Abitur ab. Da sein Vater die Aktionen des Palmach gegen national-konservative Gruppen (wie Lechi und Etzel) ablehnte, die gegen die Briten kämpften, trat Scharon nicht dieser Eliteeinheit, sondern der Jewish Settlement Police bei. Schon seit dem 21. Dezember 1947 war die Hagana dauerhaft mobilisiert, und Scharon nahm an mehreren ihrer Aktionen teil.
Unabhängigkeitskrieg.
Zu Beginn des israelischen Unabhängigkeitskrieges von 1948 war Scharon Zugführer in einer Infanteriekompanie, die zur Alexandroni-Brigade gehörte. Er kämpfte unter anderem am 26. Mai 1948 in der ersten Schlacht um Latrun, in der er schwer verwundet und sein Zug fast vollkommen ausgelöscht wurde. Später wurde er zum Aufklärungsoffizier im Bataillon ernannt, das zuerst im Norden gegen die irakischen und später, kurz vor Kriegsende, im Süden gegen die ägyptischen Truppen kämpfte.
Nach dem Krieg wurde die Alexandroni-Brigade in den Reservestatus versetzt. Scharon wurde Offizier der Aufklärung in der Golani-Brigade, in der er bald zum Hauptmann (Seren) befördert wurde und einen Bataillonskommandeurskurs besuchte. Im Jahr 1950 wurde er zum Aufklärungsoffizier für das gesamte Zentralkommando ernannt. Wegen der Folgen einer Malaria nahm Scharon 1951 eine mehrmonatige Auszeit und bereiste zum ersten Mal Europa und Nordamerika. Im November 1952 war Scharon unter der Führung von Mosche Dajan erstmals an Kommandoaktionen hinter den feindlichen Linien beteiligt. Am Ende des Jahres entschloss er sich jedoch zum Rückzug aus dem aktiven Dienst.
Er begann ein Studium der Geschichte und Kultur des Nahen Ostens an der Hebräischen Universität Jerusalem, an der sich 1947 bereits für Landwirtschaft eingeschrieben hatte. Am 29. März 1953 heiratete er seine erste Frau Margalit (kurz Gali), eine rumänische Jüdin, die er 1947 kennengelernt hatte. Margalit starb im Jahr 1962 bei einem Autounfall. Durch einen Unfall mit einem Gewehr der Familie starb auch ihr gemeinsamer Sohn Gur 1967 früh. Scharon heiratete später Margalits jüngere Schwester Lily, mit der er zwei Söhne, Omri und Gilad zeugte. Lily Scharon starb im Jahr 2000 an Lungenkrebs.
Militärische Karriere.
Die Einheit 101.
Im Jahr 1951 kam es zu 137, 1952 zu 162 und 1953 zu 160 Angriffen von Palästinensern auf den jungen Staat Israel. Da dessen Grenzen nur schwer zu überwachen waren, gelang es einigen Angreifern sogar, bis in die Vororte Tel Avivs vorzudringen. Dabei waren zahlreiche – meist zivile – Opfer zu beklagen. Das israelische Militär versuchte bei mehreren Gegenschlägen, die Zentren der paramilitärischen und terroristischen Angreifer zu treffen. Diese waren jedoch wenig effektiv, da die eingesetzten Truppen nicht speziell ausgebildet waren und oft schwere Verluste erlitten. Auch Scharon führte einen dieser misslungenen Gegenschläge aus. Seine militärische Analyse der Aktion bewog David Ben Gurion dazu, Mordechai Maklef mit der Gründung einer Spezialeinheit zu beauftragen, der Einheit 101. Ende Juli 1953 wurde Scharon mit deren Führung betraut. Daher musste er sein Studium zurückstellen.
Scharon wählte die 45 Mitglieder der Einheit sorgfältig aus. Seit Oktober 1953 wurden sie im Camp Sataf einem harten Training unterworfen. Die Einheit begann mit Militäraktionen im Feindesland, die sie als „Abschreckungsoperationen“ bezeichnete. Bei einem gemeinsam mit einer Kompanie Fallschirmjäger unternommenen Angriff auf das jordanische Dorf Qibya wurden 69 Menschen getötet. Die meisten Opfer waren Zivilisten, die sich trotz Räumungsbefehls in ihren Häusern versteckt hielten, die von den Israelis gesprengt wurden. In seiner Autobiografie schreibt Ariel Scharon:
Die Fallschirmjäger.
Nachdem Mosche Dajan Ende 1953 zum israelischen Generalstabschef ernannt worden war, wurde die Einheit 101 in die Fallschirmjägertruppe integriert. Scharon wurde der Kommandeur des Bataillons, das nach Einschätzung der israelischen Führung erfolgreich arbeitete. Nach der Qibya-Aktion wurden jedoch nur noch rein militärische Ziele angegriffen. Neben der herausgehobenen Position der Fallschirmjäger führte die Tatsache, dass Scharon seine persönlichen Kontakte zu Ben Gurion und Dajan zu scharfer Kritik an den Methoden der Armee und für seine persönlichen Ambitionen nutzte, zu Problemen Scharons mit seinen Vorgesetzten in der Armee. Zu Konflikten kam es auch mit dem neuen Verteidigungsminister Pinchas Lawon, der, besorgt um die außenpolitischen Auswirkungen der Aktionen, Scharon vergeblich zu zügeln versuchte. In diese Zeit fällt auch der großangelegte Angriff der Einheit auf das ägyptische Hauptquartier in Gaza am 28. Februar 1955, der einer der Gründe für die verstärkte Inanspruchnahme sowjetischer Militärhilfe durch Gamal Abdel Nasser war. Eine weitere bedeutende Aktion war der Angriff auf das jordanische Militärhauptquartier in Kalkilia im Oktober 1956.
Die Sueskrise.
In der Sueskrise spielte Scharons 202. Fallschirmjäger-Brigade eine entscheidende Rolle. Das 890. Fallschirmjäger-Bataillon sicherte nach einer Luftlandung den Ostausgang des strategisch wichtigen Mitla-Passes. Der Rest der Brigade unter Scharon kämpfte sich in zwei Tagen auf dem Landweg die 200 km durch feindliches Gebiet zum Pass vor.
Scharon bat mehrmals erfolglos darum, den Pass angreifen zu dürfen, erhielt aber nur Erlaubnis, ihn aufzuklären, um ihn, falls er unbesetzt sein sollte, später einzunehmen. In großzügiger Auslegung seiner Anweisungen schickte Scharon einen für reine Aufklärungszwecke sehr starken Spähtrupp, der in der Passmitte durch schweres Feuer gebunden wurde. Scharon schickte daraufhin auch den Rest seiner Brigade zur Unterstützung. In dem sich nun entwickelnden Gefecht konnten die Israelis den Pass erobern, wobei 38 israelische Soldaten fielen. Mehrere Jahre später gingen einige Teilnehmer der Schlacht an die Presse und warfen Scharon vor, er habe seine Aufklärer leichtfertig in Gefahr gebracht, um die Ägypter zu provozieren. Andere Veteranen der Aktion nahmen Scharon hingegen in Schutz.
Zwischenkriegszeit.
Der Mitla-Zwischenfall fand das Missfallen von Scharons Vorgesetzten und brachte seine militärische Karriere auf Jahre hinaus beinahe zum Stillstand. Er blieb Kommandeur der Fallschirmjäger, bis er im Herbst 1957 von Dajan für ein Jahr nach Großbritannien auf das Staff College Camberley geschickt wurde. Dort schrieb er eine analytische Arbeit mit dem Titel: "Command Interference in Tactical Battlefield Decisions: British and German Approaches". Nach seiner Rückkehr wurde er Oberst und Kommandeur der Infanterie-Schule, eine Aufgabe, die ihm wegen ihrer Theorielastigkeit nicht zusagte. Später kam das Kommando einer Reserve-Infanteriebrigade hinzu. Scharon begann auch einen Panzer-Lehrgang und besuchte einen Abendkurs für Jura bei der Tel Aviver Abteilung der Hebräischen Universität (den Abschluss machte er schließlich 1966). Auf Druck von Ben Gurion ernannte ihn Tzur schließlich zum Kommandeur einer Reserve-Panzerbrigade, abermals eine inaktive Rolle, die ihm aber wegen seines Interesses für die strategische Bedeutung von Panzern eher zusagte. Erst als Ende 1963 Jitzchak Rabin, der spätere israelische Premierminister, zum Generalstabschef ernannt wurde, wurde Scharon wieder einbezogen und zum Kommandeur des Nordkommandos unter Avraham Joffe ernannt. 1966 wurde er schließlich von Rabin in den Rang eines Generalmajors (Aluf) befördert, zum Direktor des militärischen Trainings ernannt und Kommandeur einer Reserve-Division.
Der Sechstagekrieg.
Vor dem Sechstagekrieg machte sich Scharon zusammen mit Joffe und Matti Peled dafür stark, die ursprüngliche Taktik eines Stufenplans, der das schrittweise Meistern verschiedener Fronten und Konfliktherde vorsah, durch einen größer angelegten Präventivschlag an mehreren Fronten zu ersetzen. Scharon plante einen Angriff, der sowohl gleichzeitig und von Beginn an alle verfügbaren Kräfte ins Kampfgeschehen einbinden als auch die gesamte Sinaifront umfassen sollte. Nach der Ernennung Dajans zum Verteidigungsminister konnte sich diese Vorstellung durchsetzen. Im Krieg kommandierte Scharon die mächtigste Panzerdivision an der Sinaifront (die beiden anderen Divisionen waren die von Tal und Joffe), der der Durchbruch im Gebiet von Kusseima und Abu-Ageila gelang. Es war schließlich auch Scharon, der die 6. ägyptische Division vernichtend schlug. Rabin ernannte Scharon daraufhin zum Kommandeur des Sinai, wodurch er auch für die Versorgung der in der Wüste verstreuten ägyptischen Soldaten zuständig war.
Als Chef der militärischen Ausbildung begann er sofort nach dem Krieg, verschiedene Ausbildungszentren in das Westjordanland zu verlegen, um die Gebiete zu sichern. Am Ende hatte er beinahe alle ehemaligen jordanischen Militärlager und Kasernen besetzt, die an den wichtigen strategischen Punkten lagen. Er versuchte auch Dajan davon zu überzeugen, die Familien der Soldaten in der Nähe dieser Kasernen anzusiedeln, war jedoch zunächst nicht erfolgreich.
Im Jahr 1969 wurde er Chef des Südkommandos der israelischen Streitkräfte. Im Januar 1972 soll er Angaben des Scharon-Biographen David Landau zufolge die Vertreibung von 3.000 Beduinen in der Wüste des Sinais angeordnet haben, weil er auf dem Land der Beduinen eine Militärübung durchführen wollte. Die Menschen sollen ohne Vorbereitungszeit bei eisigen Temperaturen in drei Nächten zum Verlassen ihres Landes gezwungen worden sein. Während der Vertreibung kamen rund 40 Personen, vor allem Kinder, Babys und Alte, ums Leben. David Elazar ordnete nach der erfolgreichen Durchführung der Übung an, die Rückkehr der Beduinen auf ihr Land zu ermöglichen.
Der Jom-Kippur-Krieg.
Nach dem Angriff arabischer Staaten auf Israel zum Auftakt des Jom-Kippur-Krieges 1973 wurde Scharon aus dem militärischen Ruhestand zurückgerufen und mit der Führung der 143. Panzerdivision betraut. Wegen seines eigenmächtigen Führungsstils stand er im ständigen Konflikt zu seinen Vorgesetzten Generalmajor Shmuel Gonen und Generalleutnant Chaim Bar-Lev während des misslungenen Gegenangriffs am 8. Oktober, wie auch während der Operation Gazelle, dem Übergang auf das Westufer des Suezkanals. Scharon gelang es zwar unter großen Verlusten einen Brückenkopf zu errichten, den entscheidenden Durchbruch und die anschließende Einschließung der 3. Ägyptischen Armee erzwang jedoch die 162. Panzerdivision unter Generalmajor Abraham (Bren) Adan, unterstützt durch eine weitere Panzerdivision.
Während dieser Operation hatte Scharon den Auftrag, mit seiner Division vorrangig die Übergangsstelle zu sichern, dem er erst nachkam, als ihm Bar-Lev ein Verfahren wegen Befehlsverweigerung androhte. Scharons Angriffe auf Ismailia, sowie auf die Missouri-Stellung am Ostufer zur Absicherung des Korridors, blieben erfolglos.
Dass Scharon nach wie vor als Lichtgestalt und Sieger aus dem Jom-Kippur-Krieg hervorging, verdankt er dem zunehmend erstarkenden Likudblock, der ihm als Hoffnungsträger half, eine Legende aufzubauen, die ihn als Sieger aus dem Jom-Kippur-Krieg hervorgehen ließ.
Von allen Politikern und Militärs, die nach dem Krieg im Kreuzfeuer der Kritik standen oder gar von der Agranat-Kommission gemaßregelt wurden, blieb Scharon verschont.
Politischer Werdegang.
Minister.
Vor den Knesset-Wahlen 1973 wurde unter maßgeblicher Beteiligung des gerade aus der Armee ausgeschiedenen Scharon aus dem Zusammenschluss des rechten Parteienbündnisses Gachal mit kleineren Rechtsparteien der Likud gebildet, um ein bürgerliches Gegengewicht zu dem von der Awoda angeführten Maarach-Block zu etablieren. Zuvor war Scharon der Liberalen Partei beigetreten, nachdem er als General nominelles Mitglied der Mapai bzw. der Awoda gewesen war.
Von 1973 bis 1974 und von 1977 bis 2006 war Scharon Abgeordneter der Knesset. In der Likud-Regierung von Menachem Begin amtierte Scharon zunächst als Landwirtschaftsminister (1977–1981), dann als Verteidigungsminister (1981–1983). Als Landwirtschaftsminister wurde er ab 1977 einer der wichtigsten Fürsprecher der Siedlerbewegung.
Während einer israelischen Militärintervention im Süd-Libanon verübten im Rahmen des libanesischen Bürgerkriegs die mit Israel lose verbündeten libanesisch-christlichen Falange-Milizen 1982 in den palästinensischen Flüchtlingslagern Sabra und Schatila ein Massaker an palästinensischen Kämpfern und Zivilisten. Ein israelischer Untersuchungsausschuss, die Kahan-Kommission, gab 460 Opfer als gesichert an und ging aufgrund von Geheimdienstinformationen von etwa 800 zivilen und militärischen Opfern aus, während der Palästinensische Rote Halbmond von 2000 Opfern spricht. An Israels indirekter Beteiligung als seinerzeitige militärische Besatzungsmacht, die nicht einschritt, entzündete sich nationale und vor allem internationale Empörung. Die Kommission warf Scharon zwar nicht Komplizenschaft, aber doch fahrlässiges Unterlassen vor und befand ihn daher 1983 als politisch indirekt mitschuldig, wodurch er als Verteidigungsminister zum Rücktritt gezwungen wurde.
In den folgenden Kabinetten blieb Scharon zunächst Minister ohne Geschäftsbereich (1983–1984), von 1984 bis 1990 Minister für Handel und Industrie und Bauminister (1990–1992). In dieser Zeit entwickelte er weitreichende israelische Siedlungspläne im palästinensischen Westjordanland mit dem umstrittenen Siedlungsring um Ostjerusalem, zu dem auch Ma'ale Adumim gehört.
Nach dem Regierungswechsel 1992, bei dem die Arbeitspartei unter Jitzchak Rabin den Likud ablöste, war Scharon Mitglied der Knesset. Dort gehörte er der außenpolitischen und der Verteidigungskommission an. Als schärfster innenpolitischer Gegner Rabins kritisierte Scharon Rabin wegen des Oslo-Friedensprozesses als Verräter. 1996, im Jahr nach der Ermordung Rabins, errang der Likud unter Benjamin Netanjahu einen neuen Wahlsieg; Scharon wurde Minister für die nationale Infrastruktur und förderte in dieser Funktion massiv den Ausbau der israelischen Siedlungen in den besetzten Palästinensergebieten. 1998 ernannte Netanjahu Scharon zum Außenminister. In diesem Amt fordert Scharon seine Landsleute auf, sich in den besetzten Gebieten „so viele Berggipfel wie möglich zu nehmen“.
1999 besiegte die Arbeitspartei unter Ehud Barak den Likud, dessen Vorsitzender Netanjahu in den Strudel einer Finanzaffäre geraten war. Netanjahu trat als Parteichef zurück und Scharon wurde am 27. Mai 1999 zunächst übergangsweise, am 2. September 1999 mit 53 % der abgegebenen Stimmen dann endgültig sein Nachfolger.
Am 28. September 2000 besuchte Scharon in Begleitung von rund 1000 Journalisten, Polizisten, Militärs und Politikern, den sowohl von Muslimen als auch von Juden und Christen als heilig deklarierten Tempelberg in Jerusalem, um zu verdeutlichen, dass der Tempelberg auch den Juden gehört. Er wollte damit auch deutlich machen, dass Israel die Kontrolle über ein vereinigtes Jerusalem an jedem Ort behalten müsse. Bei seinem Besuch, begleitet von zahlreichen bewaffneten Sicherheitskräften, sagte Scharon, er sei mit einer Friedensbotschaft gekommen: „Ich bin überzeugt, dass wir mit den Palästinensern zusammenleben können.“
Obwohl der Besuch mit der muslimischen Verwaltung des Tempelbergs abgestimmt war, kam es zu gewalttätigen Auseinandersetzungen; bei Demonstrationen im Anschluss wurde auch mit scharfer Munition auf Demonstranten geschossen und etliche verletzt und getötet. Der Tempelbergbesuch Scharons fällt zeitlich mit dem Beginn der Zweiten Intifada zusammen, welche nach arabischer Lesart durch diesen ausgelöst wurde, sich aber in jedem Fall schon seit längerer Zeit angekündigt hatte. Die Palästinenser bezeichnen die zweite Intifada auch als "Al-Aqsa"-Intifada, benannt nach der gleichnamigen Moschee auf dem Tempelberg. Es gab auch schon unmittelbar davor Anschläge und Pläne der bewaffneten Palästinenser-Gruppen für den bewaffneten Aufstand.
Premierminister.
Scharon gewann am 6. Februar 2001 die Wahl um das Ministerpräsidentenamt und wurde daraufhin am 7. März 2001 Israels Premierminister. Besonders populär war bei den Wählern sein Versprechen, dem Sicherheitsbedürfnis der israelischen Bevölkerung höchste Priorität einzuräumen und den Terror zu beenden. Dieses Versprechen konnte er allerdings während seiner Amtszeit nicht erfüllen. Scharon lehnte Jassir Arafat als Gesprächspartner auf palästinensischer Seite ab, warf ihm Urheberschaft am Terror vor, isolierte Arafat international und stellte ihn in der weitestgehend zerstörten Muqataa unter Hausarrest.
Bei der Wahl 2003 erreichte Scharon mit seiner Likud-Partei einen großen Wahlerfolg. In der zweiten Amtszeit von Scharons Regierung wurde mit der Errichtung einer 720 km langen Sperranlage teilweise inmitten der Palästinensergebiete begonnen, die über eine Distanz von 20 km mit Beton verstärkt und deren internationaler rechtlicher Status äußerst umstritten ist.
Am 23. März 2004 kündigte die Hamas zum wiederholten Male und als Reaktion auf die gezielte Tötung ihres Führers Ahmad Yasins an, Scharon ermorden zu wollen. Nur wenige Tage nach der Tötung Yasins geriet Scharon erneut unter Druck. Abgeordnete der Schinui-Partei, die an der Regierung beteiligt waren, forderten Scharons Rücktritt. Am 28. März hatte die Generalstaatsanwältin Edna Arbel bekanntgegeben, dass sie gegen Scharon und seine Söhne Anklage wegen Korruption erheben wollte. Mitte Juni 2004 entschied der israelische Generalstaatsanwalt Menachem Masus nach monatelangen Ermittlungen, Regierungschef Scharon nicht anzuklagen. Da der Verdacht nicht zu erhärten war und somit eine Verurteilung unwahrscheinlich erschien, wurde das Verfahren eingestellt. Scharon hatte gleichzeitig mit Masus auch einen anderen Konflikt: Dieser hatte Scharon öffentlich getadelt, da Scharon in Bezug auf das Westjordanland und den Gazastreifen von den „besetzten Gebieten“ sprach – abweichend vom offiziellen israelischen Sprachgebrauch, der „umstrittene Gebiete“ verwendet. Scharon legte trotz des schwebenden Ermittlungsverfahrens keinen gesteigerten Wert auf ein entspanntes Verhältnis zum Chefankläger und bestand weiterhin auf seiner Wortwahl.
Im Dezember 2003 legte Scharon den als „Scharon-Plan“ bekannten einseitigen Abzugsplan aus dem Gazastreifen und Teilen des Westjordanlandes vor, wonach alle Siedlungen im Gazastreifen und vier im Westjordanland aufgelöst werden sollten. Trotz internationaler Kritik an der fehlenden Abstimmung mit den Palästinensern sahen viele diesen Plan als Schritt in die richtige Richtung und Abkehr von der bisherigen Siedlungspolitik Israels. Andere sahen darin nur die Einsicht, dass der militärische Aufwand, die Siedlungen in Gaza zu halten, auf Dauer nicht tragbar war. Der Plan kostete Scharon Sympathien bei der Siedlungsbewegung und der politischen Rechten Israels, brachte ihm aber Zustimmung im gemäßigten und linken Spektrum sowie bei internationalen Bündnispartnern. Um den Plan, der seiner früheren Politik widersprach, durchzusetzen, beendete er die Koalition mit Schinui und Schas und ging eine Große Koalition mit der Arbeitspartei ein. Innerparteilich hatte er einen Machtkampf mit den Gegnern des Plans unter Finanzminister Benjamin Netanjahu zu bestehen, der im August 2005 kurz vor Vollzug des Gaza-Abzugs von seinem Amt zurücktrat.
Am 21. November 2005 kündigte Scharon seinen Rücktritt als Premierminister und den Austritt aus dem Likud an. Nachdem der Widerstand im Likud gegen den Abzug gewachsen war, hatte er im selben Monat eine neue Partei mit dem Namen Kadima („Vorwärts“) gegründet, die bei den folgenden Neuwahlen ihre gute Chance nutzte.
Erkrankung, Koma und Tod.
Am 18. Dezember 2005 erlitt Scharon einen leichten Schlaganfall. Danach wurde ein offenbar angeborener Herzfehler entdeckt, der am 5. Januar 2006 operiert werden sollte. Am Vorabend der Operation wurden starke Hirnblutungen festgestellt, Scharon musste sich in den nächsten Tagen mehreren neurochirurgischen Operationen unterziehen. Die Regierungsgeschäfte wurden an den stellvertretenden Ministerpräsidenten Ehud Olmert übertragen. Bei Tests am 14. Januar wurden zwar Gehirnaktivitäten in beiden Hirnhälften gemessen, es gab jedoch keine Anzeichen für ein Erwachen aus dem Koma.
Es galt als sicher, dass Scharon sein Amt nicht mehr würde ausüben können. Dies brachte eine schwierige Situation für die israelische Politik mit sich, da insbesondere die in den letzten Jahren verfolgte Politik gegenüber den Palästinensern und die neue Partei Kadima eng mit der Person Scharons verbunden waren. In der israelischen Öffentlichkeit wurde Kritik an der medizinischen Versorgung Scharons laut; man hätte ihm demnach nicht gestatten sollen, ohne ärztliche Begleitung auf seine abgelegene Farm zurückzukehren. Ein Journalist der Zeitung Ha'aretz formulierte: „Israel hat nun zwei Ministerpräsidenten verloren, weil sie nicht ausreichend geschützt wurden: Rabin durch Gewalt und Scharon durch Krankheit.“
Am 11. Februar 2006 entschieden sich die Ärzte zu einer weiteren Notoperation, nachdem Untersuchungen Schäden am Verdauungstrakt des Politikers und Probleme bei der Blutversorgung der inneren Organe gezeigt hatten. Erklärungen der behandelnden Ärzte zufolge sei Scharons Zustand nach der Operation „kritisch, aber stabil“. Anfang April 2006 erfolgte ein weiterer chirurgischer Eingriff zur Schließung der Schädelöffnungen, die durch die vorherigen Operationen verursacht worden waren. Am 11. April 2006 beschloss das israelische Kabinett, Scharon für dauerhaft amtsunfähig zu erklären. Sein Nachfolger im Ministerpräsidentenamt wurde sein Stellvertreter Ehud Olmert.
Ariel Scharon wurde als Wachkoma-Patient auf die Rehabilitationsstation des Chaim Sheba Medical Center verlegt, einem Krankenhaus in Tel Hashomer, einem Stadtteil von Ramat Gan nahe Tel Aviv. Sein langjähriger Berater Dov Weisglass sagte am 21. April 2008 der "Jerusalem Post", Scharons Zustand habe sich wenig verändert. Scharon atme ohne die Hilfe medizinischer Geräte und könne nach dem Urteil der Ärzte wahrscheinlich noch lange in diesem Zustand bleiben. Im November 2010 wurde Scharon versuchsweise für einige Tage auf seine Farm im Süden Israels verlegt.
Im Oktober 2010 wurde Scharons Zustand durch eine Installation des israelischen Künstlers Noam Braslavsky in der Kishon-Galerie in Tel-Aviv, die eine lebensechte Wachsfigur Scharons in einem Krankenbett zeigt, erneut in die Öffentlichkeit gerückt. Da die Installation an ein Beatmungsgerät angeschlossen ist, hebt und senkt sich der Brustkorb, wodurch die Szene noch realitätsgetreuer wirkt.
Im Januar 2011 sagte sein persönlicher Arzt, Scharon reagiere auf Kneifen und öffne die Augen, wenn man ihn anspreche. Am 2. Januar 2014 wurde bekannt, dass mehrere innere Organe versagt hätten und Scharon in Lebensgefahr schwebe. Ariel Scharon verstarb schließlich im Alter von 85 Jahren am 11. Januar 2014 an multiplem Organversagen in jenem Krankenhaus bei Ramat Gan, in dem er seit 2006 behandelt wurde.
Scharon wurde in einem Staatsbegräbnis im Beisein von hochrangigen ausländischen Politikern wie US-Vizepräsident Joe Biden, dem ehemaligen britischen Premier Tony Blair, dem Ex-Ministerpräsidenten der Niederlande Wim Kok, dem russischen Außenminister Sergei Lawrow, Tschechiens Ministerpräsident Jiří Rusnok und Deutschlands Außenminister Frank-Walter Steinmeier beigesetzt. Er wurde am 13. Januar 2014 neben seiner zweiten Frau Lily auf der Familienfarm "Havat Shikmim" begraben, die im Norden der Wüste Negev nahe Sderot liegt.
Politische Bedeutung.
Scharon war Parteivorsitzender des Likud und Gründer von dessen Abspaltung Kadima. Vor seiner Zeit als Regierungschef hatte er verschiedene Ministerposten inne. So war Scharon Landwirtschaftsminister, zweimal Verteidigungsminister sowie Außenminister. Nach seinem Schlaganfall Ende 2005 musste er im April 2006 als Ministerpräsident für amtsunfähig erklärt werden.
Der ehemalige General wirkte aufgrund seiner Biografie und seiner Politik stark polarisierend. Viele Israelis betrachten ihn als Helden, der ihr Land seit dem Unabhängigkeitskrieg stets in bedeutenden Positionen mitgeprägt hat. Weite Teile der arabischen und der internationalen Öffentlichkeit sehen in ihm jedoch vor allem den Mitverantwortlichen für das Massaker von Sabra und Schatila und den militärischen Hardliner. Andererseits setzte er 2005 die Aufgabe der israelischen Siedlungen im Gazastreifen durch. Viele Anhänger der israelischen Rechten, speziell der Siedlerbewegung, die lange Zeit ihren Vorkämpfer in ihm sahen, wurden infolge dieser Politik zu seinen Gegnern. Aus ihrer Sicht hat er sich als Ministerpräsident gegenüber den Palästinensern als zu kompromissbereit gezeigt.
Anlässlich seines Todes im Januar 2014 würdigten viele hochrangige Politiker Scharons Verdienste. US-Präsident Barack Obama bezeichnete ihn als jemanden, der dem Staat Israel sein Leben gewidmet habe. Auch Bundeskanzlerin Angela Merkel würdigte ihn als Patrioten mit großen Verdiensten um sein Land. |
323 | 2333909 | https://de.wikipedia.org/wiki?curid=323 | Département Alpes-Maritimes | Das Département des Alpes-Maritimes [] () ist das französische Département mit der Ordnungsnummer 06. Es liegt im Südosten des Landes in der Region Provence-Alpes-Côte d’Azur und ist nach den Seealpen benannt, die hier das Grenzgebirge zu Italien bilden.
Geographie.
Das Département ist Teil der Provence und reicht von der Côte d’Azur bis in das alpine Hinterland. Es grenzt im Westen an das Département Var, im Nordwesten an das Département Alpes-de-Haute-Provence, im Osten und Norden an Italien (Piemont und Ligurien) und im Süden an das Mittelmeer, wo es das Fürstentum Monaco umschließt. Hauptstadt ist Nizza, weitere bekannte Städte sind Cannes und Grasse.
Wappen.
Das Wappen des Départements Alpes-Maritimes ist mit jenem der Stadt Nizza deckungsgleich.
Geschichte.
Claude Salicis listet für das Département 26 Dolmen, 39 Pseudodolmen, 183 Tumuli und 33 Menhire () auf.
Die Römer hatten bereits im Jahr 7 v. Chr. eine Provinz Alpes Maritimae gegründet. Deren Hauptstadt war "Cemenelum", heute Cimiez, ein Ortsteil von Nizza. Während ihrer größten Ausdehnung Ende des 3. Jahrhunderts umfasste die Provinz auch Digne und Briançon, ihre Hauptstadt war nach Embrun verlegt worden.
Ein Département Alpes-Maritimes mit der Hauptstadt Nizza existierte in Frankreich bereits von 1793 bis 1815. Dessen Grenzen unterschieden sich von denen des heutigen Départements, zumal es Monaco und Sanremo umfasste.
Das aktuelle Département Alpes-Maritimes wurde 1860 geschaffen, als die Grafschaft Nizza zu Frankreich kam. Es wurde aus der Grafschaft, die das Arrondissement Nizza bildete, und einem Teil des Départements Var, die das Arrondissement Grasse bildete, geformt. Letzteres erklärt, warum der Fluss Var das gleichnamige Départment nicht durchfließt: Er bildete zuvor die Grenze zwischen Frankreich und der Grafschaft Nizza, heute jedoch die Grenze zwischen den beiden Arrondissements.
1947 wurde das Territorium des Départements Alpes-Maritimes um die Gemeinden Tende und La Brigue erweitert, deren Einwohner im gleichen Jahr in einem Referendum für den Anschluss an Frankreich votiert hatten und demzufolge Italien die beiden Dörfer abtreten musste.
Die ursprünglichen provenzalischen (bzw. okzitanischen) Ortsnamen und andere geografische Namen (die während der Zugehörigkeit an dem Haus Savoyen italianisiert waren) wurden beim Anschluss der Grafschaft Nizza an Frankreich – anders als das auf Korsika der Fall war – weitestgehend frankophonisiert, so auch die im letzten Abschnitt genannten Gemeinden. Eine Ausnahme könnte die Gemeinde Isola darstellen. Auch von Nizza ist neben dem französischen "Nice" noch die italienische Bezeichnung bekannt, jedoch örtlich nicht gebräuchlich. Darüber hinaus sind auch im vom Département umgebenen Fürstentum Monaco die Stadtbezirke Monte-Carlo, Larvotto, Les Moneghetti in ihrer italienischen Schreibweise erhalten geblieben.
Bevölkerung.
Sprache.
Die amtliche Sprache ist Französisch. Bis 1860 war die Amtssprache im damaligen "Contea di Nizza" noch Italienisch. Die Annexion durch Frankreich zog in der Region eine aggressive Sprachpolitik der Französisierung nach sich. Durch eine anhaltende Einwanderung von Italienern, beispielsweise nach Menton (italienisch "Mentone"), konnte die italienische Sprache in der Region in letzter Zeit etwas an Boden gewinnen.
Bedingt durch die Geschichte der Grafschaft Nizza, die zwischen 1388 und 1860 von der Provence verwaltungsmäßig abgetrennt war, wird in Nizza und Umgebung noch ein Dialekt der provenzalischen bzw. okzitanischen Sprache gesprochen, welche eine altprovenzalische Form hat und Nissart genannt wird. In den nördlichen, alpinen Teilen des Départements wird Alpinprovenzalisch (Gavot) und Brigasque gesprochen, während im Westen das Maritimprovenzalische noch zu hören ist.
Tourismus.
Wandern.
Das Département ist im Norden von den Seealpen mit dem südlichsten Dreitausender der Alpen (Mont Clapier 3045 m und der "Cime du Gélas" 3143 m), im Osten von den Ligurischen Alpen und im Westen durch die provenzalischen Voralpen begrenzt. Dadurch bietet sich im Gebiet Vallée du Verdon, Vallée de la Tinée, Vallée du Var, Vallée de l’Estéron, Vallée du Cians, Vallée de la Vésubie und Vallée de la Roya hervorragende Wandermöglichkeiten.
Mehrere große französische GR-Fernwanderwege, "Sentiers de grande randonnée", durchziehen das Département (GR 4, GR 5, GR 52, GR 52A und die Via Alpina) und führen zum Teil auch durch den Nationalpark Mercantour.
Wintersport.
Bekannte Wintersportorte sind Isola 2000, Auron, Beuil, Valberg, Peira-Cava und Camp d’Argent am Col de Turini.
Sehenswürdigkeiten.
Sehenswerte Orte des Départements:
Klima.
Tage pro Jahr (Stand 1991) mit |
324 | 227432907 | https://de.wikipedia.org/wiki?curid=324 | Amphore | Eine Amphore oder Amphora (von altgriechisch "amphoreus" ‚zweihenkliges Tongefäß‘; gebildet aus "amphí" ‚auf beiden Seiten‘ sowie "phérein" ‚tragen‘) ist ein bauchiges enghalsiges Gefäß mit zwei Henkeln meist aus Ton, aber auch aus Metall (Bronze, Silber, Gold). Durch zwei Henkel sollte ursprünglich das Tragen erleichtert werden. Die griechischen feinkeramischen Amphoren sind zu den antiken Vasen zu zählen.
Als Amphore wird jede Töpferware betrachtet, die zwei Henkel hat und deren Basis, die häufig aus einer Spitze oder aus einem Knopf besteht, die vertikale Aufrechthaltung schlecht oder gar nicht ermöglicht.
Die Amphora ist auch eine Maßeinheit. Das Volumen als römisches Hohlmaß beträgt einen römischen Kubikfuß, das sind etwa 26,026 l.
Zweck der Formgebung.
Funde aus Schiffswracks haben gezeigt, dass die stehenden Amphoren in mehreren Schichten so verpackt waren, dass die „Böden“ einer darüber liegenden Schicht in die Zwischenräume zwischen die „Schultern“ der unteren Schicht passten. Somit wurden die Belastungspunkte durch die vier Kontaktpunkte mit den Amphorenböden der darüber liegenden Schicht und die vier Kontaktpunkte mit den Amphorenschultern darunter bestimmt. Jede Schicht würde einem zusätzlichen Gewicht von einem Viertel einer einzelnen Amphore an jedem Belastungspunkt entsprechen.
Verwendung.
Amphoren wurden in der Antike als Vorrats- und Transportgefäße unter anderem für Öl, Oliven und Wein sowie für Honig, Milch, Getreide, Garum, Südfrüchte wie Datteln und anderes benutzt. Sie wurden in jenen Regionen hergestellt, in denen die Transportgüter erzeugt wurden, also etwa dort, wo Wein- oder Olivenanbau stattfand. Je nach Inhalt ist das Volumen unterschiedlich, Fassungsvermögen betragen zwischen 5 und 50 Liter.
Häufig wurden sie als Einwegbehälter nach dem Transport weggeworfen, so besteht der Monte Testaccio in Rom zu großen Teilen aus Amphorenscherben. Andere Exemplare fanden eine neue Verwendung, etwa als Urne bei Brandbestattungen oder zur Abdeckung der Toten bei Körpergräbern. Aufwändiger gestaltete Amphoren verfügen über, etwa mit Tierfiguren, verzierte Henkel.
Heute werden Amphoren nur mehr zu Zierzwecken, beispielsweise als Vase, hergestellt. Eine besondere Rolle spielt die Amphore bis heute bei der Herstellung spezieller Weine, dem sogenannten „Amphorenwein“. Dieser Ausbau ist vor allem bei „biodynamischen Weinen“ beliebt, aber auch geschwefelte Weine aus Georgien werden häufig in speziellen Amphoren ausgebaut. Siehe auch: Quevri-Wein.
Archäologische Bedeutung.
Ein Wandel der Formen sowie häufige Aufschriften bieten Datierungsmöglichkeiten. Absolut datierbare Funde aus Schiffswracks und anderen geschlossenen Funden erlauben eine zeitliche Einordnung. Die Chronologie der vorrömischen Eisenzeit Mitteleuropas bezieht auch die Amphorenchronologie mit ein.
Da Herkunft und Inhalt vieler Amphorenformen bekannt sind, erlauben archäologische Funde darüber hinaus die Rekonstruktion von Handelsverbindungen. Zahlreiche Amphoren weisen auch Amphorenstempel auf.
Griechische Amphoren.
Typen.
Es gibt unterschiedliche Typen von Amphoren, die zu verschiedenen Zeiten gebräuchlich waren. Manche waren mit einem Deckel versehen. Für die Feinkeramik der archaischen und klassischen Zeit sind beispielhaft die folgenden Typen zu nennen. Bestimmte Typen finden sich auch in der Toreutik.
Halsamphora (ca. 6.–5. Jahrhundert v. Chr.).
Bei der Halsamphora sind die Henkel am Hals angebracht, der durch einen deutlichen Knick vom Bauch abgegrenzt ist. Es gibt zwei verschiedene Typen der Halsamphora:
Einige Sonderformen der Halsamphora weisen gewisse Besonderheiten auf:
Bauchamphora (ca. 640–450 v. Chr.).
Die Bauchamphora hat im Gegensatz zur Halsamphora keinen abgesetzten Hals, vielmehr geht der Bauch in einer Rundung in den Hals über. Ab der Mitte des 5. Jahrhunderts wurde sie kaum noch hergestellt.
Die Pelike ist eine Sonderform der Bauchamphora, die gegen Ende des 6. Jahrhunderts aufkam. Bei ihr ist der Bauch nach unten versetzt, der größte Durchmesser liegt also im unteren Bereich des Vasenkörpers. Der tiefe Schwerpunkt und der breite Fuß verleihen diesen Gefäßen einen besonders stabilen Stand.
Panathenäische Preisamphora.
Eine Sonderform sind die Panathenäischen Preisamphoren mit schwarzfiguriger Bemalung, die zum athenischen Panathenäenfest hergestellt wurden und – offenbar aus kultischen Gründen – die schwarzfigurige Malweise noch jahrhundertelang nach ‚Erfindung‘ der rotfigurigen Malweise beibehielten.
Ähnliche Formen.
Antiken Amphoren ähnlich sind der Amphoriskos und der Pithos.
Römische Amphoren.
Allgemeines.
Römische Amphoren dienten vorwiegend zum Transport und zur Lagerung von Grundnahrungsmitteln wie Olivenöl, Wein, Fischsaucen, Früchten und Getreide. Die Kapazität lag häufig bei 25 bis 26 Litern, was erklärt, dass der Begriff "amphora" sich im Laufe der Zeit zu einer wichtigen Maßeinheit für Flüssigkeiten wandelte (26,2 l). Große bauchige Olivenölamphoren aus der Baetica vom Typ "Dressel 20" konnten mit einem Inhalt von 70 l bisweilen auch ein Gesamtgewicht von 100 kg erreichen. Gelegentlich sind Stempel auf diesen angebracht worden, wobei die Forschung unsicher ist, ob diese von den Töpfereien der Amphoren oder vom Produzenten des Olivenöls aufgebracht wurden. Wie die aufgemalten oder eingeritzten Zahlen und Buchstaben ("graffiti" bzw. "tituli picti") sind sie eine bedeutende epigraphische Quelle zur Wirtschaftsgeschichte.
Bis in die 1960er Jahre standen besonders die Amphorenstempel und -formen im Mittelpunkt. In den 1970er und 1980er Jahren fanden internationale Diskussionsforen zur Amphorenforschung, darunter zur Typologie und Chronologie, statt. Ungefähr 1990 wurden die Amphoren aus Augst/Kaiseraugst zum ersten Mal ausgewertet, die zur Grundlage der Bearbeitung von Amphoren aus Mainz dienten.
Typologische Klassifizierung.
Als Zeugen einer vergangenen Handels- und Konsumware stellen die römischen Amphoren wichtige potenzielle Informationsträger zur Wirtschaftsgeschichte der Römerzeit dar und geben Auskunft über das Konsumverhalten der damaligen Bevölkerung. Die Amphoren blieben eine lange Zeit unbeachtet. Die Amphoren werden wie die übrige Keramik häufig nach Form, Herkunft und zusätzlich nach Inhalt klassifiziert, da ihre Anzahl und Vielfalt zur Bestimmung nur nach Form oder Herkunft zu groß ist.
Der deutsche Archäologe Heinrich Dressel stellte Ende des 19. Jahrhunderts die erste typologische Klassifizierung der zu seiner Zeit bekannten Amphoren auf. Die von ihm benannten Typen tragen seinen Namen, ergänzt um eine numerische Bezeichnung, die den Amphorentyp markiert (siehe Bildbeispiel „Dressel 1B“). Teilweise dient seine Einteilung noch heute als Grundlage für die Bezeichnung der verschiedenen Amphorentypen: Weinamphoren, wie Dr. 1, Dr. 2–4, Dr. 5, und Ölamphoren, wie Dr. 20 und Dr. 23, werden weiterhin nach ihm benannt (Dr. = Dressel). Dressels Arbeit entstand unter anderem aus der Beschäftigung mit stadtrömischen Funden, darunter mit dem Monte Testaccio einer der größten Fundkomplexe römischer Amphoren, und wurde aufgrund der Kleininschriften im "Corpus Inscriptionum Latinarum" veröffentlicht. Weitere römische Amphorentypen sind nach Forschern wie dem italienischen Unterwasserarchäologen Nino Lamboglia oder Fundorten wie Augst benannt.
Herstellung und geographische Klassifizierung.
Die Behälter wurden meistens dort hergestellt, wo sie zur Abfüllung von Waren benötigt wurden und von wo aus sie verkehrsgünstig zu ihren Absatzgebieten und Bestimmungsorten abtransportiert werden konnten. Aus Form und Herkunft der Amphoren ist es möglich, die transportierten Produkte und ihre Handelswege zu bestimmen.
Durch die naturwissenschaftlichen Untersuchungen zur Herstellung der Amphoren werden zur Bestimmung der Herkunft die Art der Tonmischung und die Brenntemperatur erkundet. Zuerst wird geprüft, welche und wie viele Tonarten bei der Herstellung benutzt wurden und ob die Gefäße ein natürliches sedimentäres Gefüge haben, bzw. ob zusätzliche Magerungen zur Tonmischung hinzugefügt wurden. Danach bestimmt man die Brenntemperatur. Obwohl auch die Schwach- und Überbrandproben existieren, wurde als Normalbrand eine Brenntemperatur von ca. 950 °C für die meisten italischen Amphoren angestrebt.
Inhalt und Gebrauch.
Amphoren wurden überwiegend als Transportmittel, Vorratsspeicher oder als Grabbeigaben verwendet. Aber sie dienten in der Antike hauptsächlich zum Transport bestimmter Lebensmittel, sozusagen als die Container der Antike. Die Amphoren wurden im Süden mit verschiedenen Waren gefüllt und speziell in den Norden verhandelt, wo wegen des anderen Klimas entsprechende Produkte nicht angebaut und hergestellt werden konnten. Die Haupthandelsrouten führten über das Mittelmeer und andere Wasserwege. Großsegler hatten Platz für bis zu 10.000 Amphoren, da sie mehrmals gestapelt werden konnten. In der Regel wurde die gleiche Ware in gleiche Gefäße abgefüllt. Nur in Einzelfällen gibt es Hinweise auf außergewöhnliche Amphoreninhalte. Zu den in den Amphoren importierten Waren kann man beispielsweise Olivenöl aus adriatischen Süditalien (Brindisi) und Nordafrika (Tripolitana I), eingelegte Oliven aus Marokko (Schörgendorfer 558), Weine aus Katalonien, Südfrankreich, Italien (Dressel 2–4), Kreta, Rhodos (Camulodunum 184) und Nordafrika, Fischsauce aus adriatischen Oberitalien (Dressel 6A) oder Feigen und Datteln aus Ägypten und Syrien zählen.
Entweder dominieren innerhalb einer Warengruppe die Amphoren eines Typs oder es liegen Amphoren verschiedener Formen in mehr oder weniger gleichen Mengen vor. Bemerkenswert ist, dass sie, wenn sie ihre Funktion, den Warentransport, erfüllt hatten, kein zweites Mal in gleicher Weise verwendet wurden. Sie wurden entweder ohne weitere Nutzung als Müll entsorgt oder etwa zum Sarg, Urinal, Baumaterial oder auch antiken Molotow-Cocktail umfunktioniert. Sie waren für eine Weiterverwendung attraktiv aufgrund ihrer massenhaften Verfügbarkeit. In Augst und Kaiseraugst wurden knapp 6.000, in Mainz 5.000, im Mainzer Umland 7.500, in Legionslager von Dangstetten und in Neuss jeweils 1.500 Amphoren gefunden. Über ihre vielfältigen Einsatzbereiche geben neben den Schrift- und Bildquellen auch die archäologischen Befunde und Funde Auskunft. Einige der berühmtesten Beispiele zu den Schütthügeln bzw. Abfalldeponierungen, die aus Amphoren bestehen, wären der Schutthügel des Legionslagers auf dem Kästrich in Mainz und der Amphoren-Depot am Dimesser Ort und am Hopfengarten in Mainz.
Graffiti auf Mainzer Amphoren.
In die noch ungebrannten Amphoren werden bestimmte Stempel eingedrückt, die man Graffiti oder Marken "ante cocturam" nennt. Bei den Mainzer Amphoren sind mehr als 200 Ritzungen und Marken zu verzeichnen. Nur wenige davon erlauben Aussagen zu Warenkennzeichnung und Warenbesitzern. "Graffiti" und Marken "ante cocturam" stehen in Zusammenhang mit der Gefäßproduktion und beziehen sich weder auf die abzufüllende Ware noch ihren späteren Besitzer.
Zahlreiche post cocturam-Ritzungen sind derart stark verkürzt oder fragmentiert erhalten, dass eine Deutung nicht möglich ist. Die "Graffiti post cocturam" enthalten vor allem Hohlmaße und nennen Personen oder Gruppen, die als mögliche Produktbesitzer zu interpretieren sind. Die "Graffiti" vermitteln damit andere Informationen als die Pinselaufschriften.
Firmenzeichen wie Dreizack, Anker, Palmette oder Stern geben zusätzlich Auskunft über die Herkunft der Amphoren.
Verbreitung der Amphoren.
Anders als das importierte Tafelgeschirr handelt es sich bei den Amphoren um reine Transportbehälter, die in Siedlungen, Gräbern und Schiffswracks gefunden werden und größtenteils aus dem Fernhandel stammen. Ihre geographische und teilweise weite Streuung entspricht dem Vertrieb und Absatz des Inhalts. Daher werden in den Verbreitungskarten die Liefergebiete dieser Amphoren dargestellt, nicht die Herstellungsgebiete, die nur durch die Stempel oder naturwissenschaftliche Untersuchungen lokalisiert werden.
Durch die Analysen an den Resten der Inhalte werden Form, Chronologie, Herkunft und importierte Handelsware (meistens mediterrane Lebensmittel) bestimmt. Dies gilt insbesondere für die Amphoren der frühen und mittleren Kaiserzeit, während in der Spätantike der Zusammenhang von Form und Inhalt nicht immer klar ist.
Von Ausnahmen abgesehen handelt es sich bei den kartierten Fundplätzen um Siedlungsfunde, also im Rahmen der Siedlungsaktivitäten geleerter und schließlich weggeworfener Amphoren, die aus der Literatur und durch Autopsie bekannt geworden sind. Die Verbreitung der Amphoren spiegelt allerdings – wie immer bei archäologischen Karten – auch den Forschungsstand. Verbreitungskarten von Amphoren gab es bisher hauptsächlich für den Mittelmeerraum. Mit der Verteilung und damit den Fragen von Absatzgebieten und Handelswegen in den Provinzen nördlich der Alpen befasste man sich noch wenig.
Hochwertige Amphoren.
Neben den für Handel, Transport und Lagerung von Waren verwendeten Spitzamphoren finden sich gelegentlich auch hochwertigere Amphoren, beispielsweise aus Glas und Metall. Diese Amphoren besitzen in der Regel einen Fuß. Die Form der Amphora wurde in römischer Zeit allerdings nur selten aufgegriffen, manchmal in der Art einer Pelike; andere Gefäßformen (etwa Kannen) sind sehr viel häufiger.
Die Portlandvase mit ihren Kameoglas-Reliefbildern hat im 18./19. Jahrhundert eine starke Vorbildwirkung auf die Kunst jener Zeit ausgeübt.
Amphoren des Mittelalters und der Neuzeit.
In der Tradition antiker Amphoren wurden diese im byzantinischen Raum aber auch in Spanien bis weit ins Mittelalter hinein produziert. In der frühen Neuzeit wurden Amphoren auch in Großbritannien hergestellt. Formal verändern sie sich gegenüber der Antike, indem sich anstelle der Spitzböden gerundete Boden durchsetzen, In der südspanischen Produktion verlieren sich in der frühen Neuzeit sogar die Doppelhenkel, so dass ein definierendes Merkmal der Amphoren verloren geht. |
325 | 350 | https://de.wikipedia.org/wiki?curid=325 | Arbeitsteilige Wirtschaft | |
327 | 48724 | https://de.wikipedia.org/wiki?curid=327 | Akustikkoppler | Der Akustikkoppler ist ein Gerät zur Übertragung von digitalen Daten über eine analoge Teilnehmeranschlussleitung. Akustikkoppler wurden in den 1970er bis gegen Ende der 1980er Jahre verwendet und erlauben die Datenübertragung über den Hörer von Fernsprechtischapparaten. Bei einem Akustikkoppler ist keine elektrische Verbindung mit dem Festnetzanschluss nötig, weil diese in vielen Ländern und bei vielen Netzbetreibern nicht erlaubt war.
Funktionsweise.
Akustikkoppler kommen zum Einsatz, wenn kein analoges Modem zur Verfügung steht oder eine elektrische Verbindung des Modems mit dem Telefonnetz nicht möglich oder erlaubt ist. Akustikkoppler nutzen den Telefonhörer eines bestehenden Telefons zum Senden und Empfangen der modulierten Tonsignale. Sie verfügen dazu über ein Mikrofon und einen Lautsprecher, die an den entsprechenden Gegenstücken im Telefonhörer befestigt werden.
Es gibt zwei Arten von Akustikkopplern:
Aufgrund ihrer Bauart sind Akustikkoppler störanfällig gegenüber externen Geräuschen und abhängig von der Qualität des Telefons bzw. des Telefonhörers. Aufgrund des unvermeidlichen Verlusts an Signalqualität durch den akustischen Übertragungsschritt erreichen Akustikkoppler nicht die Datenübertragungsraten der direkten elektrischen Verbindung des Modems mit dem Telefonnetz. Bei älteren Akustikkopplern reichen die Übertragungsraten nur von 300 bis 2.400 Bit/s. Spätere Modelle, zum Beispiel "Konexx Coupler" oder "Road Warrior Telecoupler II", erreichen in der Praxis Datenübertragungsraten bis zu 33.600 Bit/s; damit ist etwa das Abholen von E-Mails aus einer Telefonzelle in vertretbarer Zeit möglich.
Rechtliche Situation.
In den 1980er-Jahren war der Betrieb von selbst gebauten Akustikkopplern im Telefonnetz der Deutschen Bundespost illegal und mit hohen Geldstrafen belegt. Trotzdem nahm die Zahl der selbst gebauten Geräte deutlich zu, nachdem der Chaos Computer Club 1985 in der Hackerbibel eine vergleichsweise einfach zu realisierende Bauanleitung für einen Selbstbau-Akustikkoppler – das sogenannte „Datenklo“ – veröffentlicht hatte.
Parallel zu den Akustikkopplern wurden auch die ersten direkt mit der Telefonleitung verbundenen Modems verfügbar. Auch hier war der Anschluss frei erhältlicher Geräte an das deutsche Telefonnetz verboten; die Post erlaubte in ihrem Netz nur die Verwendung Post-eigener Modems, die entweder monatlich gemietet oder zu – im Vergleich mit frei erhältlichen Geräten – höheren Preisen von der Post gekauft werden mussten.
Sonstiges.
Akustikkoppler werden im deutschen Sprachraum gelegentlich auch als "Datenfön" bezeichnet, nach der einst populären "Dataphon"-Baureihe S21 der Marke Woerltronic der Firma Wörlein GmbH aus Cadolzburg. |
328 | 556709 | https://de.wikipedia.org/wiki?curid=328 | Akronym | Ein Akronym (von sowie , dorisch und äolisch ) ist ein Sonderfall der Abkürzung. Akronyme entstehen dadurch, dass Wörter oder Wortgruppen auf ihre Anfangsbestandteile gekürzt und diese zusammengefügt werden.
Definitionen.
Für den Begriff Akronym gibt es zwei konkurrierende Definitionen:
Den großen Wörterbüchern des Deutschen zufolge, z. B. Duden und das "Deutsche Wörterbuch" von Wahrig, ist ein Akronym ein Kurzwort, das aus den Anfangsbuchstaben mehrerer Wörter zusammengesetzt ist, wobei "EDV" (elektronische Datenverarbeitung) als Beispiel genannt wird. "ADAC", "PC" und "TÜV" sind demnach Akronyme, da sie aus den Anfangsbuchstaben der ihnen zugrunde liegenden Ausdrücke bestehen. Keine Akronyme sind Abkürzungen wie "Abk.", "lt.", "Betr." oder "kpl."
In Fachlexika der Linguistik finden sich weitere Definitionen: „Aus den Anfangsbuchstaben oder -silben einer Wortgruppe oder eines Kompositums gebildete Abkürzung, die als Wort verwendet wird.“ Die Sprachwissenschaftlerin Hadumod Bußmann definiert den Begriff entsprechend. Anders als in der ersten Definition werden hier also nicht nur Anfangsbuchstaben, sondern auch (gekürzte) Anfangssilben berücksichtigt.
Bußmann unterteilt Akronyme in unterschiedliche Typen:
Formen des Akronyms.
Initialwort.
Duden, Wahrig sowie Bußmann und Glück behandeln Initialwort als Synonym für „Akronym“. Nach Duden und Wahrig ist ein Initialwort damit eine Sonderform des Buchstabenworts (siehe unten), die sich nur aus den Anfangsbuchstaben, also den Initialen der Wörter, zusammensetzt. So steht zum Beispiel das Initialwort "LASER" für "".
Diese Form des Akronyms wurde bereits in vorchristlicher Zeit verwendet, bekannt ist die Abkürzung SPQR für "Senatus Populusque Romanus", in Gebrauch seit etwa 80 v. Chr.
Silbenkurzwort.
Nach Bußmann und Glück ist auch das Silbenkurzwort/Silbenwort ein Akronym. Das sind Abkürzungen, die aus den (gekürzten) Anfangssilben der zugrundeliegenden Ausdrücke bestehen.
Das Silbenwort war besonders beliebt in der Amtssprache der frühen Sowjetunion, solche Kurzformen sollten der Bekämpfung des Analphabetismus dienen (unter dem Titel "Likbez", selbst ein Silbenwort für ликвида́ция безгра́мотности "Liquidation des Analphabetismus").
Verwandte Formen.
Silbenkurzworte sind verwandt mit den Kopfwörtern, zum Beispiel:
…und den Schwanzwörtern (wie "Bus" für "Omnibus").
Eine ähnliche Kurzwortform (das Kunstwort) wird aus dem Anfang mehrerer Wörter gebildet. Hier werden oft Zusammensetzungen genutzt, die gut zu sprechen sind, zum Beispiel:
Eine weitere Ähnlichkeit weisen Kofferwörter auf.
Mischformen aus Initial- und Silbenbildung.
Mischformen aus Initial- und Silbenbildung sind zum Beispiel:
Es können auch Namen als Grundlage für Akronyme eingesetzt werden:
Spezielle Formen des Akronyms.
Apronym.
Als Apronym bezeichnet man ein Akronym, das ein bereits existierendes Wort ergibt. Das bedeutet, dass potenziell jedes Wort ein Apronym werden kann, wenn die einzelnen Buchstaben als Anfangsbuchstaben einer Phrase stehen können. Die meisten Apronyme haben einen gewollten Bezug zu der Sache, die sie bezeichnen. Beispiele:
Apronyme dienen oft als Namen für EU-Förderprogramme oder US-amerikanische Gesetze:
Nicht immer passen Anfangsbuchstaben als geeignete Buchstaben. In solchen Fällen werden auch Buchstaben aus Wortmitten herangezogen, um ein Apronym zu finden, beispielsweise beim EU-Forschungsprojekt "BADGER". ist das englische Wort für „Dachs“ und steht als passendes Apronym für für den Bau eines autonom agierenden Tunnelbauroboters mit Betonmörtel-Verarbeitung durch einen 3D-Drucker.
Backronym.
Als Backronym [] („Rückwärts-Apronym“) bezeichnet man Wörter, die erst nachträglich die (oft scherzhafte) Bedeutung einer Abkürzung erhalten haben. Beispiele:
Mehrschichtiges Akronym.
Ein Akronym kann mehrschichtig (verschachtelt) sein. Ein Beispiel ist "BDSM": B&D, D&S, S&M stehen für "".
Rekursives Akronym.
Als rekursives Akronym werden initiale Abkürzungen bezeichnet, die in ihrer Explikation paradoxerweise selbst enthalten sind und damit eine Rekursion aufweisen. Verwendung finden rekursive Akronyme insbesondere in Namensgebungen von Projekten der freien Software. Beispiele:
Den Akronymen ähnliche Wortformen.
Es gibt verschiedene Wortformen, die den Akronymen ähneln, ohne dass sie einer der beiden angegebenen Definitionen genügen.
Buchstabenwort/Buchstabenkurzwort.
Ein Buchstabenwort oder Buchstabenkurzwort ähnelt dem Initialwort, setzt sich aber aus beliebigen Einzelbuchstaben der Vollform der Wörter zusammen: zum Beispiel "DAX" als Abkürzung für Deutscher Aktienindex, wo der letzte Buchstabe des gekürzten Ausgangswortes berücksichtigt ist.
Schreibweise.
Die Schreibweise von Akronymen besteht im Deutschen meist aus einer Aneinanderreihung von Groß- und Kleinbuchstaben, entsprechend der Schreibung der vollen Form, im Englischen dagegen meist nur aus Großbuchstaben. Bei Akronymen, die wie ein Wort ausgesprochen werden, hat sich aber im Lauf der Zeit auch eine Schreibweise entwickelt, die derjenigen normaler Substantive gleicht (z. B. "Radar, Laser, Aids, Nato (aber auch: NATO), Unicef (aber auch: UNICEF)"). Da Akronyme ohne Punkt geschrieben werden, ist in solchen Fällen weder durch die Aussprache noch durch das Schriftbild erkennbar, dass es sich ursprünglich um ein Kunstwort handelt.
Akronyme in der Astronomie.
In der Astronomie werden die Kürzel, welche für einen astronomischen Katalog stehen, Akronym genannt. Beispielsweise „HR“ für den Bright-Star-Katalog.
Die Angabe eines Katalogeintrags besteht aus dem Akronym und weiteren, katalogspezifischen Schriftzeichen, welche den Datensatz identifizieren. So bezeichnet codice_1, bestehend aus dem Akronym HD und einer Nummer, den Eintrag zum Stern Arktur im Henry-Draper-Katalog.
Akronyme in Internetforen oder Chats.
Im Internet werden Akronyme häufig verwendet, um eine Handlung oder eine Gemütslage auszudrücken. Die meisten dieser Chat-Akronyme sind aus der englischen Sprache übernommen:
Begriffe wie „cu“ oder „l8r“ sind keine Akronyme, sondern homophone Abkürzungen, das heißt, sie klingen gelesen wie der auszudrückende Satz (' oder '), sind aber keine Initialworte.
Akronyme auf Webseiten.
Um auf Webseiten Wörter als Abkürzungen zu markieren, stehen die zwei HTML-Elemente codice_2 (von englisch ') und codice_3 zur Verfügung. Screenreader erkennen diese Elemente. Sie brauchen also nicht mehr zu „raten“, ob es sich bei einem Wort um eine Abkürzung handelt, sondern passen die Aussprache entsprechend an. Beiden Elementen kann zugewiesen werden, wofür die Abkürzung steht. Das kann dann von einem Vorleseprogramm (engl. ') anstelle der Kurzform wiedergegeben werden. Die Wahl zwischen codice_2 und codice_3 gibt dem Programm einen Hinweis darauf, ob die Abkürzung als Wort – codice_3 – oder in einzelnen Buchstaben – codice_2 – vorgelesen werden sollte.
Vom World Wide Web Consortium wird empfohlen, vorrangig codice_2 zu benutzen. Diese Vereinfachung geht allerdings auf Kosten der Barrierefreiheit. Akronyme, die eigentlich als Wort gesprochen werden sollten, werden nicht mehr als solche erkannt.
Anwendungsbeispiele.
Die Abkürzungen werden mittels Start- und End-Tags als Elemente ausgezeichnet. Mit dem codice_9-Attribut wird die Bedeutung angegeben. Für Vorleseprogramme, die nicht darauf eingestellt sind, die Bedeutung vorzulesen, spielt die Wahl des Elements eine Rolle.
<abbr title="Hypertext Markup Language">HTML</abbr>
Der Rechner liest „Haa Tee Emm El“ vor.
<acronym title="National Aeronautics and Space Administration">NASA</acronym>
Durch die Auszeichnung als codice_3 liest der Screenreader „Nasa“ und nicht „Enn Aa Ess Aa“ vor.
Besondere Aspekte der Verwendung von Akronymen.
Generell gilt, dass Kurzwörter, also auch Akronyme, bedeutungsgleich mit den Ausdrücken verwendet werden, die ihnen zugrunde liegen (= Vollformen). Abweichend davon kann der Plural auch mit "-s" gebildet werden. Auch die Wortbildung eröffnet bei Akronymen besondere Möglichkeiten: So kann man eine "-ler"-Ableitung bilden, die bei der Vollform nicht möglich ist: "SPDler."
Das Prinzip der Gleichwertigkeit von Vollform und Akronym hinsichtlich ihrer Bedeutung setzt jedoch voraus, dass dem Verwender die Vollform auch bekannt ist. Wenn das nicht der Fall ist, kann es zu Bedeutungswandel und Lexikalisierung kommen. Lexikalisierungstendenzen zeigen sich zum Beispiel bei der Bezeichnung "BAföG," das meist als monetäre Leistung und nicht länger als das dahinter stehende "Bundesausbildungsförderungsgesetz" verstanden wird.
Ähnlich verläuft es bei der "SMS": "SMS" bedeutet "" und beschreibt den Dienst, der das Versenden von Kurzmitteilungen ermöglicht. Die Nachricht selbst wäre also eher eine "SM" (oder „Kurznachricht“). Trotzdem hat es sich eingebürgert, als "SMS" die Nachricht zu bezeichnen, zumal die korrekte Abkürzung ("SM") im allgemeinen Sprachgebrauch schon vergeben ist.
Redundantes Akronym.
Es gibt Kritiker, die Wortbildungen wie "LCD-Display" ablehnen, da das „D“ in der Abkürzung bereits für ' steht ('). Ähnlich verhält es sich mit:
Im deutschen Handelsrecht wird aus diesem Grund eine "GmbH" ("Gesellschaft mit beschränkter Haftung") als "mbH" bezeichnet, wenn sich der Begriff „Gesellschaft“ bereits im Eigennamen des Unternehmens befindet (z. B. Württembergische Eisenbahn-Gesellschaft mbH).
Im Englischen wird diese Redundanz selbstreferenziell als „RAS-Syndrom“ ("Redundantes-Akronym-Syndrom-Syndrom") bezeichnet. Diese Verdopplungen können rhetorisch als Tautologie (als Aussage) beziehungsweise als Pleonasmus (als Ausdruck) gesehen werden.
"DIN-Norm" (Deutsches Institut für Normung) wird oft fälschlicherweise für ein redundantes Akronym gehalten, da die Abkürzung „DIN“ früher für „Deutsche Industrie-Norm“ stand. |
331 | 556709 | https://de.wikipedia.org/wiki?curid=331 | Amnesty International |
Amnesty International (von , Begnadigung, Straferlass, Amnestie) ist eine nichtstaatliche (NGO) und Non-Profit-Organisation, die sich weltweit für Menschenrechte einsetzt. Grundlage ihrer Arbeit sind die Allgemeine Erklärung der Menschenrechte und andere Menschenrechtsdokumente, wie beispielsweise der Internationale Pakt über bürgerliche und politische Rechte und der Internationale Pakt über wirtschaftliche, soziale und kulturelle Rechte. Die Organisation recherchiert Menschenrechtsverletzungen, betreibt Öffentlichkeits- und Lobbyarbeit und organisiert unter anderem Brief- und Unterschriftenaktionen für alle Bereiche ihrer Tätigkeit.
Gründungsgeschichte.
Amnesty International wurde 1961 in London von dem englischen Rechtsanwalt Peter Benenson gegründet. Ihm soll die Idee zur Gründung gekommen sein, als er in der Zeitung zum wiederholten Mal von Folterungen und gewaltsamer Unterdrückung las, mit der Regierungen gegen politisch andersdenkende Menschen vorgingen. In einem 1983 geführten Interview erinnerte sich Benenson, dass der Artikel von zwei portugiesischen Studenten gehandelt habe, die in einem Café in Lissabon auf die Freiheit angestoßen hatten und daraufhin zu siebenjährigen Haftstrafen verurteilt worden waren. Nachträgliche Recherchen ergaben, dass es sich möglicherweise um eine Notiz in "The Times" vom 19. Dezember 1960 handelte, die allerdings keine Details über die „subversiven Aktivitäten“ der Verurteilten enthielt. Am 28. Mai 1961 veröffentlichte Benenson in der britischen Zeitung "The Observer" den Artikel "The Forgotten Prisoners" („Die vergessenen Gefangenen“), in dem er mehrere Fälle nennt, darunter Constantin Noica, Agostinho Neto und József Mindszenty, und die Leser aufrief, sich durch Briefe an die jeweiligen Regierungen für die Freilassung dieser Gefangenen einzusetzen. Er schrieb: „Sie können Ihre Zeitung an jedem beliebigen Tag der Woche aufschlagen und Sie werden in ihr einen Bericht über jemanden finden, der irgendwo in der Welt gefangen genommen, gefoltert oder hingerichtet wird, weil seine Ansichten oder seine Religion seiner Regierung nicht gefallen.“ Die aus diesem Artikel entstandene Aktion "Appeal for Amnesty, 1961" gilt als der Anfang von Amnesty International. Zu den Gründungsmitgliedern gehörten Eric Baker und der irische Politiker Seán MacBride, der von 1961 bis 1974 auch Präsident der Organisation war. Auf einem internationalen Treffen in Brügge im September 1962 legte man sich endgültig auf den Namen "Amnesty International" fest. Von 1974 bis 1979 war der aus Meiningen stammende und in Neuseeland und Großbritannien aufgewachsene und ausgebildete anglikanische Priester und Friedensaktivist Paul Oestreicher, dessen Familie der Nazi-Verfolgung 1938 entkam, Präsident der Organisation.
Obwohl sich Amnesty International als Organisation beschreibt, die für Menschen aller Nationalitäten und Religionen offensteht, kamen die Mitglieder anfangs vor allem aus der englischsprachigen Welt und Westeuropa. Diese Beschränkung ließ sich mit dem Kalten Krieg erklären. Versuche, Amnesty-Gruppen in Osteuropa zu gründen, stießen auf große Schwierigkeiten. Das lag nicht nur an der staatlichen Repression, sondern auch an unterschiedlichen Interessen, die westliche und osteuropäische Menschenrechtsaktivisten verfolgten.
Das Logo ist eine mit Stacheldraht umwickelte Kerze. Es wurde von der englischen Künstlerin Diana Redhouse geschaffen, die sich durch das Sprichwort "Es ist besser, eine Kerze anzuzünden, als sich über die Dunkelheit zu beklagen" inspirieren ließ.
Die deutsche Sektion hatte bereits in den 1970er Jahren beschlossen, dieses Logo für sich nicht mehr zu verwenden. Stattdessen wurde bis 2008 ein blau-weißes Logo mit Kleinbuchstaben genutzt. In Deutschland, Österreich und der Schweiz wurde bis Mitte 2008 eine heute nicht mehr verwendete Schreibweise mit Kleinbuchstaben und Abkürzungen verwendet: amnesty international, ai oder amnesty. Mitte 2008 wurde international ein neues, einheitliches Layout eingeführt, das die Farben Gelb und Schwarz verwendet. Das Logo enthält den Schriftzug "Amnesty International" in Großbuchstaben und die mit Stacheldraht umwickelte Kerze.
Gründung in Deutschland.
Die bundesdeutsche Sektion wurde am 28. Juli 1961, zwei Monate nach Gründung der internationalen Organisation, von den Journalisten Gerd Ruge, Carola Stern und Felix Rexhausen und elf weiteren Menschen in Köln gegründet und als erste Sektion anerkannt. Gerd Ruge wurde zum 1. Vorsitzenden, Carola Stern zu seiner Stellvertreterin und Felix Rexhausen zum geschäftsführenden Vorstandsmitglied und Kassenwart gewählt. Das deutsche AI-Büro residierte über Jahrzehnte in der Domstraße im Kölner Agnesviertel, wo Stern damals wohnte. Zunächst nannte sich die Gruppe „Amnestie-Appell e. V.“. Sie setzte sich zum Beispiel für in der DDR inhaftierte politische Gefangene ein. Nach dem Fall der Mauer wurde die Organisation auch in den neuen Bundesländern aktiv, wo sie bis dahin verboten war. Stand 2020 hat sie ihren Sitz in Berlin. Seit dem Jahr 2016 ist Markus N. Beeko Generalsekretär von Amnesty International in Deutschland (Stand 2020).
Gründung in Österreich.
Amnesty International Österreich wurde am 4. Mai 1970 gegründet. AI Österreich gehörte am 14. November 2001 zu den ersten 44 Organisationen, die das Österreichische Spendengütesiegel verliehen bekamen. Generalsekretär ist Heinz Patzelt (Stand Januar 2016).
Gründung in der Schweiz.
Offiziell gegründet wurde die Schweizer Sektion 1970. Doch schon 1964 gab es die erste Sektion in Genf, deren Initiator Seán MacBride war, damaliger Generalsekretär und Mitbegründer von Amnesty International. Der erste Mitarbeiter wurde 1976 eingestellt, heute arbeiten 70 Angestellte für Amnesty Schweiz. Zusätzlich engagieren sich 1500 Freiwillige aktiv in mehr als siebzig Lokal- und Themengruppen. Derzeitige Geschäftsleiterin ist Alexandra Karle.
Aufbau der Organisation.
International.
Zahlen und andere Daten zur Organisation.
Amnesty International zählt nach eigenen Angaben mehr als zehn Millionen Mitglieder und Unterstützer. In über 70 Staaten gibt es Sektionen, die eine kontinuierliche Menschenrechtsarbeit garantieren. Die größeren Sektionen unterhalten in der Regel ein Sekretariat mit hauptamtlichen Mitarbeitern. Die Sektion koordiniert die Arbeit der Mitglieder und ist die Verbindungsstelle zwischen den Gruppen und dem Internationalen Sekretariat in London. Die Sektionen entsenden Vertreter in die Global Assembly (bis 2017 "Internationale Ratstagung" bzw. "International Council Meeting (ICM)"), das oberste Gremium von Amnesty auf internationaler Ebene, das alle zwei Jahre zusammentritt. Die Global Assembly legt Strategie und Arbeitsweise von Amnesty fest und wählt den internationalen Vorstand, dem die Führung der laufenden Geschäfte der Organisation obliegt. Unter der Verantwortung des Internationalen Vorstandes steht auch das Internationale Sekretariat in London, an dessen Spitze der Internationale Generalsekretär steht. Von 2010 bis August 2018 war dies Salil Shetty, der aus Indien stammt. Er initiierte eine Veränderung der Organisation, indem die Präsenz in Ländern des globalen Südens durch Einrichtung von Büros und dort verankerte Recherchearbeit verstärkt wurde, während das Hauptquartier in London verkleinert wurde. Sein Nachfolger in den Jahren 2018 und 2019 war Kumi Naidoo aus Südafrika, vormaliger Direktor von Greenpeace.
Deutsche Sektion.
Mitgliedschaft und Strukturen sind in der Satzung und einem Arbeitsrahmen geregelt. Mitglieder können sich einer Gruppe anschließen. Von Gruppen wird aktiver Einsatz durch gezielte Aktionen vor Ort, Briefeschreiben, Öffentlichkeitsarbeit und Spendeneinwerbung erwartet. Alle Mitglieder erhalten auch unabhängig von Gruppenaktivitäten Mitmachangebote. In Deutschland gibt es rund 30.000 Mitglieder, davon ca. 9000 in über 600 lokalen Gruppen, die in 43 Bezirke aufgeteilt sind. Daneben gibt es sogenannte Koordinationsgruppen, die die Arbeit zu einzelnen Ländern oder bestimmten Menschenrechtsthemen sektionsweit koordinieren. Etwa 70.000 Förderer unterstützen die Organisation durch regelmäßige Beiträge. Geleitet und nach außen vertreten wird die deutsche Sektion durch einen ehrenamtlichen Vorstand, der 2021 aus acht Mitgliedern besteht. Vorstandssprecher ist Wassily Nemitz. Laut Satzung wird der Verein „…durch zwei Mitglieder des geschäftsführenden Vorstands gemeinsam vertreten.“
1999 bezog Amnesty International Deutschland Räume im „Haus der Demokratie und Menschenrechte“ in der Greifswalder Straße in Berlin. 2012 gab das Sekretariat seinen Sitz in Bonn endgültig auf. Aus Platzgründen sind aber nur noch das Büro des Bezirks Berlin-Brandenburg sowie das Regionalbüro Ost im „Haus der Demokratie und Menschenrechte“ ansässig, das Sekretariat der Sektion befindet sich nun in der Zinnowitzer Straße. Darüber hinaus gibt es Regionalbüros in München (seit 2011) und in Düsseldorf (seit 2016), welche die Mitglieder im Süden bzw. Westen Deutschlands unterstützen.
Das Sekretariat erledigt administrative Aufgaben für die Mitglieder, macht Öffentlichkeitsarbeit und übernimmt Lobbyismusarbeit. Es beschäftigt über 60 Teil- und Vollzeitkräfte und wird von Markus N. Beeko als Generalsekretär geleitet, der zum September 2016 Selmin Çalışkan abgelöst hat.
Einmal jährlich findet über zweieinhalb Tage zu Pfingsten die Jahresversammlung der deutschen Sektion statt. Alle Mitglieder sind antrags- und stimmberechtigt, Gruppen haben zusätzliches Stimmrecht. Förderer haben kein Stimmrecht und können nicht teilnehmen. Die Jahresversammlung wählt den siebenköpfigen, ehrenamtlichen Vorstand und beschließt Schwerpunkte der inhaltlichen Arbeit der Sektion. Die Diskussionen sind vertraulich („intern“), nur auf Beschluss der Jahresversammlung können einzelne Beschlüsse öffentlich gemacht werden.
Die deutsche Sektion finanziert sich überwiegend aus Mitglieds- und Fördererbeiträgen und Spenden, zu einem geringeren Teil aus Erbschaften, Verkaufserlösen, Geldbußen und Sammlungen. Seit etwa 2010 führt die Organisation „Direktdialoge“ in Städten durch, um Förderer zu gewinnen; teils werden Fremdfirmen dafür engagiert. Im Jahr 2016 wurden ca. 20,3 Millionen Euro eingenommen. Davon wurden etwa 5,9 Millionen Euro an das internationale Sekretariat abgeführt. Zur Unterstützung der Arbeit von Amnesty International wurde im Mai 2003 die "Stiftung Menschenrechte – Förderstiftung Amnesty International" mit Sitz in Berlin gegründet.
Jährlich erscheint der "Amnesty International Annual Report", der die Menschenrechtslage in ca. 160 Ländern und Territorien beschreibt. Die deutsche Version erscheint jeweils einige Monate später im S. Fischer Verlag.
Ziele und Arbeitsweise.
Die Organisation recherchiert fortlaufend zur Menschenrechtssituation weltweit und führt Aktionen gegen spezifische Menschenrechtsverletzungen durch. Der Jahresbericht der Organisation "(Amnesty International Report)" enthält einen Überblick über die Lage der Menschenrechte in fast allen Ländern der Erde.
Die Organisation hat sich sieben Ziele unter dem Motto "Gerechtigkeit globalisieren!" gesetzt:
Von 2005 bis 2009 lief die internationale Kampagne „Gewalt gegen Frauen verhindern“, die sich gegen die vielfältigen Formen von Gewalt gegen Frauen, sowohl staatlicherseits als auch im häuslichen Umfeld, wandte. Nach einer schwierigen und kontroversen internen Diskussion beschloss die internationale Ratstagung der Organisation 2007 in Morelos, Mexiko, eine begrenzte Position zum Schwangerschaftsabbruch. So soll die völlige Entkriminalisierung gefordert werden sowie Staaten aufgefordert werden, Abtreibung im Falle von Vergewaltigung, sexueller Nötigung, Inzest und bei schwerwiegender Gefahr für das Leben einer Frau zu legalisieren. Die Organisation bekräftigt, dass viele gesellschaftliche Faktoren und Zwänge zu ungewollten Schwangerschaften beitragen und damit auch zu der – weltweit jährlich in ca. 26 Millionen Fällen illegalen – Entscheidung der Frauen.
Im Mai 2016 nahm die Organisation, inklusiver aller ihrer Landesverbände, die Forderung auf, Prostitution zu legalisieren. Man setze sich für die Menschenrechte der Sexarbeiter ein, nicht für ein Recht auf käuflichen Sex. Der Entscheidung waren drei Jahre Sichtung von Forschungsberichten verschiedener Institutionen wie der WHO, UNAIDS und dem UN-Sonderberichterstatter für das Recht auf physische und mentale Gesundheit und ein Beschluss des Entscheidungsgremiums "International Council Meeting" vorausgegangen.
Zu den typischen Aktionsformen der Organisation zählen:
Aktionen und Kampagnen.
Die Organisation führt immer wieder große und kleine, internationale Themenkampagnen durch, die teilweise über mehrere Jahre angelegt sind.
Internationale größere Schwerpunkte sind derzeit (2018/19):
Bis 2013, zum Abschluss des Vertrags über den Waffenhandel am 2. April 2013 war Amnesty an der Kampagne "Control Arms" beteiligt.
1988 gab es eine internationale Amnesty-Konzerttour unter dem Titel "Human Rights Now!". Am 10. Dezember 2005 – dem Internationalen Tag der Menschenrechte – wurde ein neues Musikprojekt unter dem Titel "Make Some Noise" gestartet. Dabei veröffentlichten bekannte internationale Künstler, darunter The Black Eyed Peas, Serj Tankian und The Cure, Coverversionen von John-Lennon-Songs exklusiv auf der Website von Amnesty. Parallel zur Musik werden dort konkrete Kampagnen und Fälle vorgestellt.
Botschafter des Gewissens.
Seit 2003 verleiht Amnesty International den undotierten Preis Botschafter des Gewissens (). Vaclav Havel war der erste Preisträger, 2019 ging der Preis an Greta Thunberg und Fridays for Future.
Menschenrechtspreis.
Die deutsche Sektion vergibt seit 1998 alle zwei Jahre den Amnesty International Menschenrechtspreis.
2016 wurde der Preis an den indischen Rechtsanwalt Henri Tiphagne vergeben.
2018 wurde der Preis an das Nadeem-Zentrum für die Rehabilitierung von Opfern von Gewalt und Folter in Kairo verliehen.
Kritik.
Kritik am strategischen Vorgehen.
Regierungen und nahestehende Kommentatoren, die von Amnesty International in ihren Berichten kritisch beurteilt werden, haben verschiedentlich Kritik an Amnesty geübt. So wurde Amnesty z. B. aus China, Russland und dem Kongo Einseitigkeit gegen nicht-westliche Länder bei seinen Beurteilungen vorgeworfen sowie, dass die Sicherheitsbedürfnisse (z. B. bei der Bekämpfung von Rebellen) nicht genügend beachtet würden. Umgekehrt wurde Amnesty z. B. nach der Kritik an der israelischen Politik im Gazastreifen vom American Jewish Congress angegriffen. Als im Mai 2005 ein Amnesty-Bericht den USA eine Spitzenstellung bei Menschenrechtsverletzungen zuwies (siehe hierzu: Gefangenenlager der Guantanamo Bay Naval Base), bezeichnete ein Pressesprecher des Weißen Hauses dies als lächerlich und behauptete, die Angaben entsprächen nicht den Tatsachen.
Neben Vorwürfen der Einseitigkeit gab es kritische Stimmen, die bemängelten, Amnesty sei zu sehr auf Öffentlichkeitsarbeit ausgerichtet. Im Jahr 2002 warf der Jura-Professor Francis Boyle (ehemaliges AI-Exekutivkomiteemitglied in den USA) Amnesty vor, an erster Stelle stünde die öffentliche Aufmerksamkeit "(publicity)", dann würden Spendengelder und Mitglieder angeworben, es fänden interne Machtkämpfe statt, und die Menschenrechte als Ziel kämen erst am Schluss.
Auf der internationalen Ratstagung in Dakar im August 2001 wurde eine Ausweitung des Mandats auf den Einsatz auch für wirtschaftliche, soziale und kulturelle Rechte beschlossen. Danach äußerten einige Mitglieder, AI verliere an Profil und dehne sein Betätigungsfeld zu sehr aus. AI könne zu einem „Menschenrechts-Gemischtwarenladen“ mutieren und an Glaubwürdigkeit verlieren. AI solle sich weiterhin auf bürgerliche und politische Rechte konzentrieren. Diese Bedenken wurden im Jahre 2010 in einem BBC-Beitrag zum 50. Geburtstag der Organisation aufgegriffen. Darin wurde behauptet, Amnesty International habe es bis dato nicht geschafft, eine nennenswerte Anzahl von Mitgliedern außerhalb von Europa, den Vereinigten Staaten, Kanada, Australien und Neuseeland zu gewinnen. |
334 | 156202 | https://de.wikipedia.org/wiki?curid=334 | ABC-Waffe | |
337 | 568 | https://de.wikipedia.org/wiki?curid=337 | Abteilung (Biologie) | Die Abteilung ("Divisio") ist eine hierarchische Stufe der biologischen Systematik.
In der Botanik ist sie nach dem ICBN als höchste Rangstufe unterhalb des Reichs ("Regnum") bzw. Unterreichs ("Subregnum") vorgesehen. Abteilungen enden auf -phyta bei Pflanzen bzw. auf -mycota bei Pilzen. Die Abteilung in der Botanik entspricht dem Stamm ("Phylum") in der zoologischen Systematik und wird entsprechend auch in der Botanik gelegentlich als "Phylum" bezeichnet.
In der zoologischen Systematik wurde die Abteilung teilweise als Rangstufe zwischen dem Reich und dem Stamm verwendet. Andere Autoren nannten andere Rangstufen Abteilung (divisio), teilweise zwischen Klasse und Ordnung, einige auch zwischen Ordnung und Familie. Andere haben den Begriff zur Unterteilung von Gattungen verwendet. Diese Verwendungen sind nicht mehr gebräuchlich. |
338 | 779406 | https://de.wikipedia.org/wiki?curid=338 | Art (Biologie) | Die Art, auch Spezies oder Species genannt, ist in der Biologie (einschließlich Virologie und Palichnologie) die Grundeinheit der Systematik. Jede biologische Art ist ein Resultat der Artbildung. Bislang gelang keine allgemeine Definition der Art, welche die theoretischen und praktischen Anforderungen aller biologischen Teildisziplinen gleichermaßen erfüllt. Vielmehr existieren in der Biologie verschiedene Artkonzepte, die zu unterschiedlichen Klassifikationen führen. Historisch wie auch aktuell spielen zwei Ansätze von Artkonzepten eine wichtige Rolle:
Mit dem Aufkommen der Kladistik ist seit den 1950er Jahren der auf dem biologischen Artbegriff beruhende, chronologisch definierte phylogenetische Artbegriff hinzugekommen, nach dem eine Art mit der Artspaltung, also der Bildung zweier Arten aus einer Ursprungsart, beginnt und mit ihrer erneuten Artspaltung oder aber ihrem Aussterben endet.
Das Problem der Artdefinition besteht aus zwei Teilproblemen:
Die Hauptunterschiede der verschiedenen Artkonzepte liegen dabei auf der Ebene der Rangbildung. Eine Gruppe von Lebewesen unabhängig von ihrem Rang bezeichnen Taxonomen als "Taxon" (in der Botanik auch "Sippe").
In biologischen Fachtexten wird bei Bezug auf eine unbestimmte Art oft abgekürzt „spec.“ oder „sp.“ (von ), bei mehreren Arten auch „spp.“ ("species pluralis").
Art als Taxon.
Eine Art als Taxon ist eine gemäß den Regeln der Taxonomie und der biologischen Nomenklatur formal beschriebene und benannte Form von Lebewesen. Eine taxonomische Art stellt eine wissenschaftliche Hypothese dar und kann unabhängig von einem Artkonzept sein, sofern man zumindest akzeptiert, dass Arten reale und individuelle Erscheinungen der Natur sind. Die Art ist eine Rangstufe der klassischen, auf Carl von Linné zurückgehenden Taxonomie. Einige rein merkmalsbezogen arbeitende Systematiker sind der Ansicht, Arten wären mehr oder weniger willkürlich zusammengestellte, künstliche Gruppen, nur die Individuen seien letztlich real: Manche gehen dabei so weit, dass der Artbegriff wie alle anderen Rangstufen ihrer Ansicht nach besser abgeschafft werden sollten und durch neue Konzepte wie die Least-inclusive taxonomic unit ersetzt werden sollten. Die meisten Biologen sind aber der Ansicht, dass Arten natürliche Einheiten mit realer Existenz darstellen; es gäbe dann Artkriterien, an denen sich reale Arten identifizieren ließen. Dieser Vorstellung liegt letztlich eine Unterscheidung zwischen durch Genfluss oder horizontalen Gentransfer geprägten Einheiten unterhalb des Artniveaus und den Arten, bei denen dies nicht zutrifft (engl. ), zu Grunde. Für viele Biologen, darunter Anhänger eines phylogenetischen Artkonzepts (vgl. unten), sind sie sogar die einzigen in diesem Sinne natürlichen taxonomischen Einheiten.
Nomenklatur.
Der wissenschaftliche Name einer Art (oft lateinischen oder griechischen Ursprungs) setzt sich nach der von Carl von Linné 1753 eingeführten binären Nomenklatur aus zwei Teilen zusammen, die beide kursiv geschrieben werden (diese Nomenklatur wurde 2021 auch in der Virologie für neue Virusarten eingeführt, die bestehenden anderweitigen Artnamen werden nach und nach umbenannt). Der erste Teil dieses Namens ist der groß geschriebene Gattungsname. Der zweite Teil wird immer klein geschrieben und in der Botanik sowie bei Prokaryoten als Epitheton („specific epithet“) bezeichnet, in der Zoologie als Artname oder Artzusatz („specific name“). Um Verwechslungen zwischen dem Artzusatz und dem gesamten Artnamen, also dem Binomen aus Gattungsname und Artzusatz, zu vermeiden, werden in der Zoologie entweder die eindeutigen englischen Begriffe verwendet oder hinzugefügt oder gelegentlich und informell auch Begriffe wie „epithetum specificum“ oder „epitheton specificum“ verwendet.
Beispiele
Sowohl in der Botanik (Code Article 46) als auch in der Zoologie (Code Article 51) wird empfohlen, dem wissenschaftlichen Artnamen die Namen der Autoren beizufügen, welche die Art beschrieben haben, zumindest, wenn es um taxonomische oder nomenklatorische Fragen geht. Dies ist zum Beispiel wichtig, um Homonyme zu erkennen, das sind Fälle, in denen zwei Autoren versehentlich zwei verschiedene Arten mit demselben Namen benannt haben. Im Geltungsbereich des Internationalen Codes der Nomenklatur für Algen, Pilze und Pflanzen wird es empfohlen, die Autorennamen abzukürzen, wobei in der Regel das Namensverzeichnis von Brummit und Powell als Grundlage dient (vergleiche Artikel Autorenkürzel der Botaniker und Mykologen), „L.“ steht beispielsweise für Linné.
Nach den Internationalen Regeln für die Zoologische Nomenklatur sollen zumindest einmal in jedem wissenschaftlichen Text dem Artnamen die Autor(en) und das Jahr der Publikation hinzugefügt werden (Code Recommendation 51a). Wenn im entsprechenden Fachgebiet zwei Autoren mit demselben Nachnamen tätig waren, soll der abgekürzte Vorname hinzugefügt werden, um Eindeutigkeit herzustellen. Wenn die Art heute in eine andere Gattung gestellt wird als in die, in der sie ursprünglich beschrieben wurde, müssen Autor(en) und Jahr in Klammern gesetzt werden (Code Article 51.3). Zwischen Autor und Jahr wird in der Regel ein Komma gesetzt.
Geschichte.
Die Philosophen der Antike kannten noch keine systematischen Konzepte und somit keinen Artbegriff im heutigen Sinne. Von Aristoteles sind als erstem Philosophen Schriften bekannt, in denen zwei getrennte – allgemein philosophisch zu verstehende – Begriffe είδος ("eidos", ins Deutsche mit „Art“ übersetzt) und γένος ("genos", deutsch „Gattung“) voneinander abgrenzt werden. In seinen Kategorien charakterisiert er anhand eines Beispiels aus der Welt der Lebewesen diese als zweite Wesenheiten (δεύτεραι ουσίαι), die in dem Einzelnen vorhanden sind. So ist ein einzelner Mensch in der Art Mensch vorhanden und ein einzelnes Pferd in der Art Pferd, beide gehören jedoch zur Gattung des Lebenden (ζῷον "zoon").
In seiner Historia animalium (Περί τα ζώα ιστοριών) wendet Aristoteles die Begriffe είδος und γένος auch auf das Tierreich an, ohne dabei jedoch eine taxonomische Ordnung aufzustellen. Vielmehr spricht er von der Überlappung von Eigenschaften der Tierarten (ἐπάλλαξις "epállaxis") und der Notwendigkeit, eine einzelne Art anhand mehrerer nebengeordneter Merkmale zu definieren. Dennoch beschäftigt er sich bei der Beschreibung der Arten mit einzelnen charakteristischen Merkmalen. Der Begriff είδος wird auch nicht im Sinne eines heutigen Artbegriffes konsequent als unterste Kategorie zwischen dem einzelnen Lebewesen und γένος verwendet, vielmehr kann die Bedeutung meist am besten mit „Form“, „Gestalt“ oder „Wesen“ wiedergegeben werden, während Tierarten in der Regel mit γένος bezeichnet werden.
Laut biblischer Schöpfungsgeschichte im 1. Buch Mose schuf Gott zwischen dem 3. und 6. Schöpfungstag die Pflanzen und Tiere, „ein jegliches (jedes) nach seiner Art“ (zehnmal Zitat „nach seiner Art“, , zu verstehen als „Wesensart“, hebräisch "min" מין bzw. למינה, ). In der Septuaginta wird מין mit γένος (κατὰ γένος „nach/gemäß der Art“, ) übersetzt, in der Vulgata dagegen uneinheitlich, manchmal mit "genus" und manchmal mit "species", wobei auch die Präpositionen wechseln ("secundum speciem suam, secundum species suas, in species suas, juxta genus suum, secundum genus suum, in genere suo", ). Es wird hier auch eine Aussage zur Fortpflanzung der Pflanzen und Tiere „nach ihrer Art“ getroffen, indem Gott in spricht: „Es lasse die Erde aufgehen Gras und Kraut, das Samen bringe, und fruchtbare Bäume auf Erden, die ein jeder nach seiner Art Früchte tragen, in denen ihr Same ist“, sowie in zu den Tieren des Wassers und der Luft: „Seid fruchtbar und mehret euch.“
Diese biblischen Aussagen wie auch Aristoteles waren bis in die Neuzeit prägend für die Vorstellungen der Gelehrten des Abendlandes. Pierre Duhem führte 1916 für die philosophische Auffassung vom Wesen oder der „Essenz“ eines Individuums den Begriff des Essentialismus ein.
Nach Auffassung von Ernst Mayr stimmte die auf dem „Schöpfungsglauben beruhende Interpretation des Artbegriffes der christlichen Fundamentalisten“ recht gut mit der letztendlich auf Platon zurückgehenden Vorstellung einer „unveränderlichen Essenz“ (είδος als Wesen) überein und bildeten die Grundlage für einen „essentialistischen Artbegriff“, wie er vom Mittelalter bis ins 19. Jahrhundert hinein dominierte. Hiernach gehörten alle Objekte, welche dieselbe Essenz gemeinsam haben, derselben Art an. Laut Mayr war „[d]er Essentialismus mit seiner Betonung von Diskontinuität, Konstanz und typischen Werten (Typologie)“ der Hintergrund für typologische Artkonzepte, nach denen ein Individuum auf Grund seiner – in der Regel morphologischen – Merkmale (Typus) immer eindeutig einer bestimmten Art angehört und der Hintergrund dafür, dass Darwins „These von der Evolution durch natürliche Selektion daher als unannehmbar befunden“ wurde.
Erkennbar ist dies auch bei John Ray, der 1686 in seiner "Historia plantarum generalis" die Arten der Pflanzen als Fortpflanzungsgemeinschaften mit beständigen Artkennzeichen definiert, nachdem er „lange Zeit“ nach Anzeichen für ihre Unterscheidung geforscht habe: „Uns erschien aber keines [kein Anzeichen] zuverlässiger als die gesonderte Fortpflanzung aus dem Samen. Welche Unterschiede auch immer also im Individuum oder der Pflanzenart aus dem Samen derselben hervorgehen, sie sind zufällig und nicht für die Art kennzeichnend. […] Denn die sich nach ihrer Art unterscheiden, bewahren ihre Art beständig, und keine entspringt dem Samen der anderen oder umgekehrt.“
Systematisierung durch Carl von Linné.
Carl von Linné stellte mit "Species Plantarum" (1753) und "Systema Naturae" (1758) als erster ein enkaptisches, auf hierarchisch aufbauenden Kategorien (Klasse, Ordnung, Gattung, Art und Varietät, jedoch noch nicht Familie) beruhendes System der Natur auf, wobei er für die Art die binäre Nomenklatur aus Gattungsnamen und Artepitheton einführte. Hierarchisch bedeutet dabei, dass die Einheiten auf unterschiedlichen Ebenen zu Gruppen zusammengefasst werden, wobei die in der Hierarchie höherstehenden Gruppen durch allgemeine, die tieferstehenden Gruppen durch immer speziellere Merkmale zusammengefasst werden (ein bestimmtes Individuum gehört also seiner Merkmalskombination gemäß in eine Art, eine Gattung, eine Familie usw.). Enkaptisch bedeutet, dass die in der Hierarchie tieferstehenden Gruppen in jeweils genau eine Gruppe der höheren Hierarchiestufe eingeschachtelt werden, also zum Beispiel jede Art in eine und genau eine, Gattung. In seiner "Philosophia botanica" formuliert er: „Es gibt so viele Arten, wie viele verschiedene Formen das unendliche Seiende am Anfang schuf; diese Formen, nach den hineingegebenen Gesetzen der Fortpflanzung, brachten viele [weitere Formen] hervor, doch immer ähnliche.“ Darüber hinaus bezeichnet er die Art und die Gattung als Werk der Natur, die Varietät als Werk des Menschen, Ordnung und Klasse dagegen als vom Menschen geschaffene Einheit. „Die Arten sind unveränderlich, denn ihre Fortpflanzung ist wahres Fortdauern.“
Während Georges-Louis Leclerc de Buffon 1749 noch verneint, dass es in der Natur irgendwelche Kategorien gäbe, revidiert er später diese Sicht für die Art und formuliert einen typologischen Artbegriff mit einer Konstanz der Arten: „Der Abdruck jeder Art ist ein Typ, dessen wesentliche Merkmale in unveränderlichen und beständigen Wesenszügen eingeprägt sind, doch alle Nebenmerkmale variieren: Kein Individuum gleicht vollkommen dem anderen.“
Jean-Baptiste de Lamarck, der bereits von einer Transformation der Arten ausgeht, betrachtet dagegen die Art und alle anderen Kategorien als künstlich. 1809 äußert er sich in seiner "Philosophie zoologique": „Die Natur hat nicht wirklich Klassen, Ordnungen, Familien, Gattungen, beständige Arten herausgebildet, sondern allein Individuen.“ Dies hindert ihn jedoch nicht daran, auf dem Gebiet der Taxonomie sehr produktiv zu sein, deren Kategorien er praktisch zu nutzen weiß.
Charles Darwin, der von der Art sogar im Titel seines Grundlagenwerkes "On the Origin of Species" (Über die Entstehung der Arten) von 1859 spricht, scheut sich vor einer Formulierung eines Artbegriffs. Laut Ernst Mayr kann man aus seinen Notizbüchern aus den 1830er Jahren schließen, dass er damals die Vorstellung von einer Art als Fortpflanzungsgemeinschaft hatte. In seiner "Entstehung der Arten" bezeichnet er jedoch die Begriffe der Art und der Varietät unmissverständlich als künstlich: „Aus diesen Bemerkungen geht hervor, dass ich den Kunstausdruck „Species“ als einen arbiträren und der Bequemlichkeit halber auf eine Reihe von einander sehr ähnlichen Individuen angewendeten betrachte und dass er von dem Kunstausdrucke „Varietät“, welcher auf minder abweichende und noch mehr schwankende Formen Anwendung findet, nicht wesentlich verschieden ist. Ebenso wird der Ausdruck „Varietät“ im Vergleich zu bloßen individuellen Verschiedenheiten nur arbiträr und der Bequemlichkeit wegen benutzt.“
Ähnlich äußert sich auch Alfred Russel Wallace 1856 in seiner Grundlagenarbeit über die Ritterfalter (Papilionidae) im Malaiischen Archipel, in der er verschiedene Verläufe der Evolution durch natürliche Zuchtwahl erklärt. Er bezeichnet Arten als „lediglich stark gekennzeichnete Rassen oder Lokalformen“ und geht dabei auch darauf ein, dass Individuen unterschiedlicher Arten generell als unfähig angesehen werden, fruchtbare gemeinsame Nachkommen zu zeugen, doch sei es nicht einmal in einem von tausend Fällen möglich, das Vorliegen einer Vermischung zu überprüfen.
Seit Darwin ist die Ebene der Art gegenüber unterscheidbaren untergeordneten (Lokalpopulationen) oder übergeordneten (Artengruppen bzw. höheren Taxa) nicht mehr besonders ausgezeichnet. Innerhalb der Taxonomie unterlag die Artabgrenzung Moden und persönlichen Vorlieben, es gibt Taxonomen, die möglichst jede unterscheidbare Form in den Artrang erheben wollen („splitter“), und andere, die weitgefasste Arten mit zahlreichen Lokalrassen und -populationen bevorzugen („lumper“).
Ende des 19. Jahrhunderts wurden biologische Artkonzepte einer Fortpflanzungsgemeinschaft diskutiert. Erwin Stresemann äußert in diesem Sinne bereits 1919 in einem Artikel über die europäischen Baumläufer klare Vorstellungen über Artbildung und genetische Isolation: „Es will nur die Tatsache im Namen zum Ausdruck bringen, dass sich die [im Laufe der geographischen Separation] zum Rang von Spezies erhobenen Formen physiologisch so weit voneinander entfernt haben, dass sie, wie die Natur beweist, wieder zusammenkommen können, ohne eine Vermischung einzugehen.“
Beherrschend im wissenschaftlichen Diskurs wurden die biologischen Artkonzepte der Fortpflanzungsgemeinschaft mit Theodosius Dobzhansky und Ernst Mayr seit der 2. Hälfte des 20. Jahrhunderts. Dobzhansky verknüpft den Artbegriff – ähnlich wie Stresemann – mit der Artbildung und definiert 1939 Arten als das „Stadium des Evolutionsvorgangs […], in dem Formengruppen, die sich bisher untereinander fortpflanzen oder jedenfalls dazu fähig waren, in zwei oder mehr gesonderte Gruppen aufgeteilt werden, die sich aus physiologischen Ursachen nicht untereinander fortpflanzen können“, während Mayr 1942 formuliert: „Arten sind Gruppen von natürlichen Populationen, die sich tatsächlich oder potentiell untereinander vermehren und fortpflanzungsmäßig von anderen derartigen Gruppen getrennt sind.“ In einem erweiterten biologischen Artbegriff bezieht Mayr 2002 die ökologische Nische mit in die Begriffsdefinition ein: „Eine Art ist eine Fortpflanzungsgemeinschaft von (fortpflanzungsmäßig von anderen isolierten) Populationen, die eine spezifische Nische in der Natur einnimmt.“ Mayr stellt die Bedeutung der Art in der Biologie als natürliche „Einheit der Evolution, der Systematik, der Ökologie und der Ethologie“ heraus und hebt sie hierin von allen anderen systematischen Kategorien ab.
Aus praktischen Erwägungen überdauern bis heute auch typologische Artkonzepte. Nach wie vor benennt die als Autorität bezeichnete Person, welche die Artbeschreibung einer neuen Art (species nova) als erste veröffentlicht, diese anhand der arttypischen Merkmale des Typusexemplars mit einem selbst gewählten Artnamen aus dem Gattungsnamen und dem Artepitheton.
Demgegenüber hebt der britische Paläoanthropologe Chris Stringer hervor: Alle Art-Konzepte sind „von Menschen erdachte Annäherungen an die Realität der Natur.“
Debatte um Essentialismus in der Geschichte der Biologie.
In der Debatte um Essentialismus in der Geschichte der Biologie hebt Mary Winsor hervor, dass etwa die Verwendung von Typusarten als Prototypen für höhere Kategorien unvereinbar mit dem Essentialismus sei, und John S. Wilkins betont, dass die – von Winsor als „Methode der Exemplare“ bezeichnete – Typologie der Biologen und der Essentialismus keineswegs zwangsläufig verknüpft sind. Während Essenzen definierbar und allen Angehörigen einer Art eigen seien, ließen sich Typen instantiieren und seien variabel.
Laut Ernst Mayr beginnt die Geschichte des Artbegriffs in der Biologie mit Carl von Linné. Er hebt in seinen Arbeiten zur Wissenschaftsgeschichte hervor, dass der Essentialismus das abendländische Denken in großem Ausmaß beherrscht habe. Er setzt typologische mit essentialistischen Artbegriffen gleich, die mit Darwin's These von der Evolution durch natürliche Selektion „absolut unvereinbar“ sind.
Artkonzepte.
Morphologisches Artkonzept.
Typologisch definierte Arten sind Gruppen von Organismen, die in der Regel nach morphologischen Merkmalen (morphologisches Artkonzept) unterschieden werden. Es können aber auch andere Merkmale wie zum Beispiel Verhaltensweisen in analoger Weise verwendet werden. Eine nach morphologischen Kriterien definierte Art wird Morphospezies genannt.
Beispiele:
In der Paläontologie kann in der Regel nur das morphologische Artkonzept angewandt werden. Da die Anzahl der Funde oft begrenzt ist, ist die Artabgrenzung in der Paläontologie besonders subjektiv. Beispiel: Die Funde von Fossilien zweier Individuen in der gleichen Fundschicht, also praktisch gleichzeitig lebend, unterscheiden sich stark voneinander:
Diese Probleme werden mit zunehmender Zahl der Funde und damit Kenntnis der tatsächlichen Variationsbreite geringer, lassen sich aber nicht vollständig beseitigen.
Das morphologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie. In anderen Bereichen, wie etwa in der Mikrobiologie oder in Teilbereichen der Zoologie, wie bei den Nematoden, versagen rein morphologische Arteinteilungsversuche weitgehend.
Physiologisches Artkonzept bei Bakterien.
Bakterien zeigen nur wenige morphologische Unterscheidungsmerkmale und weisen praktisch keine Rekombinationsschranken auf. In Ermangelung eindeutiger Abgrenzungsdefinitionen erstellte das International Committee on Systematics of Prokaryotes (ICSP) 2001 das weitest verbreitete Artenkonzept für Bakterien („Phylo-phenetic species concept“): „A monophyletic and genomically coherent cluster of individual organisms that show a high degree of overall similarity in many independent characteristics, and is diagnosable by a discriminative phenotypic property.“ ("Ein monophyletisch und genomisch kohärentes Cluster einzelner Organismen, die in vielen unabhängigen Merkmalen einen hohen Grad an Gesamtähnlichkeit aufweisen und durch eine diskriminative phänotypische Eigenschaft diagnostizierbar sind.")
In der Praxis wird überwiegend der Stoffwechsel als Unterscheidungskriterium von Stämmen herangezogen. Weil ein allgemein akzeptiertes Artkriterium fehlt, stellen Bakterienstämme so die derzeit tatsächlich verwendete Basis zur Unterscheidung dar. Anhand biochemischer Merkmale wie etwa der Substanz der Zellwand unterscheidet man die höheren Bakterientaxa. Man testet an bakteriellen Reinkulturen zu ihrer „Artbestimmung“ deren Fähigkeit zu bestimmten biochemischen Leistungen, etwa der Fähigkeit zum Abbau bestimmter „Substrate“, z. B. seltener Zuckerarten. Diese Fähigkeit ist leicht erkennbar, wenn das Umsetzungsprodukt einen im Kulturmedium zugesetzten Farbindikator umfärben kann. Durch Verimpfung einer Bakterienreinkultur in eine Reihe von Kulturgläsern mit Nährlösungen, die jeweils nur ein bestimmtes Substrat enthalten („Selektivmedien“), bekommt man eine sog. „Bunte Reihe“, aus deren Farbumschlägen nach einer Tabelle die Bakterienart bestimmt werden kann. Dazu wurden halbautomatische Geräte („Mikroplatten-Reader“) entwickelt.
Seit entsprechende Techniken zur Verfügung stehen (PCR), werden Bakterienstämme auch anhand der DNA-Sequenzen identifiziert oder unterschieden. Ein weithin akzeptiertes Maß ist, dass Stämme, die weniger als 70 % ihres Genoms gemeinsam haben, als getrennte Arten aufzufassen sind. Ein weiteres Maß beruht auf der Ähnlichkeit der 16S-rRNA-Gene. Nach DNA-Analysen waren dabei zum Beispiel weniger als 1 % der in natürlichen Medien gefundenen Stämme auf den konventionellen Nährmedien vermehrbar. Auf diese Weise sollen in einem ml Boden bis zu 100.000 verschiedene Bakteriengenome festgestellt worden sein, die als verschiedene Arten interpretiert wurden. Dies ist nicht zu verwechseln mit der Gesamtkeimzahl, die in der gleichen Größenordnung liegt, aber dabei nur „wenige“ Arten umfasst, die sich bei einer bestimmten Kulturmethode durch die Bildung von Kolonien zeigen.
Viele Unterscheidungskriterien sind rein pragmatisch. Auf welcher Ebene der Unterscheidung man hier Stämme als Arten oder gar Gattungen auffasst, ist eine Sache der Konvention. Die physiologische oder genetische Artabgrenzung bei Bakterien entspricht methodisch dem typologischen Artkonzept. Ernst Mayr, leidenschaftlicher Anhänger des biologischen Artkonzepts, meint daher: „Bakterien haben keine Arten“.
Daniel Dykhuizen macht darauf aufmerksam, dass – entgegen mancher Anschauung – Transformationen, Transduktionen und Konjugationen (als Wege des DNA-Tauschs zwischen Stämmen) nicht wahllos, sondern zwischen bestimmten Formen bevorzugt, zwischen anderen quasi nie ablaufen. Demnach wäre es prinzipiell möglich, ein Artkonzept für Bakterien entsprechend dem biologischen Artkonzept bei den Eukaryonten zu entwickeln. Frederick M. Cohan versucht dagegen auf Basis von Ökotypen, ein Artkonzept zu entwickeln.
Biologisches oder populationsgenetisches Artenkonzept.
Gegen Ende des 19., Anfang des 20. Jahrhunderts begann sich in der Biologie allmählich das Populationsdenken durchzusetzen, was Konsequenzen für den Artbegriff mit sich brachte. Weil typologische Klassifizierungsschemata die realen Verhältnisse in der Natur nicht oder nur unzureichend abzubilden vermochten, musste die biologische Systematik einen neuen Artbegriff entwickeln, der nicht auf abstrakter Unterschiedlichkeit oder subjektiver Einschätzung einzelner Wissenschaftler basiert, sondern auf objektiv feststellbaren Kriterien. Diese Definition wird als "biologische Artdefinition" bezeichnet, „Sie heißt „biologisch“ nicht deshalb, weil sie mit biologischen Taxa zu tun hat, sondern weil ihre Definition eine biologische ist. Sie verwendet Kriterien, die, was die unbelebte Welt betrifft, bedeutungslos sind.“ Eine biologisch definierte Art wird als "Biospezies" bezeichnet.
Der neue Begriff stützte sich auf zwei Beobachtungen: Zum einen setzen sich Arten aus Populationen zusammen und zum anderen existieren zwischen Populationen unterschiedlicher Arten biologische Fortpflanzungsbarrieren. „Die "[biologische]" Art besitzt zwei Eigenschaften, durch die sie sich grundlegend von allen anderen taxonomischen Kategorien, etwa dem Genus, unterscheidet. Erstens einmal erlaubt sie eine nichtwillkürliche Definition – man könnte sogar so weit gehen, sie als „selbstoperational“ zu bezeichnen –, indem sie das Kriterium der Fortpflanzungsisolation gegenüber anderen Populationen hervorhebt. Zweitens ist die Art nicht wie alle anderen Kategorien auf der Basis von ihr innewohnenden Eigenschaften, nicht aufgrund des Besitzes bestimmter sichtbarer Attribute definiert, sondern durch ihre Relation zu anderen Arten.“ Das hat – zumindest nach der Mehrzahl der Interpretationen – zur Folge, dass Arten nicht Klassen sind, sondern Individuen.
Das Kriterium der Fortpflanzungsfähigkeit bildet den Kern des biologischen Artbegriffs oder der Biospezies. Eine Biospezies ist eine Gruppe sich tatsächlich oder potentiell miteinander fortpflanzender Individuen, die voll fertile Nachkommen hervorbringen:
Dabei sollen die Isolationsmechanismen zwischen den einzelnen Arten biologischer Natur sein, also nicht auf äußeren Gegebenheiten, räumlicher oder zeitlicher Trennung basieren, sondern Eigenschaften der Lebewesen selbst sein:
Die Kohäsion der Biospezies, ihr genetischer Zusammenhalt, wird durch physiologische, ethologische, morphologische und genetische Eigenschaften gewährleistet, die gegenüber artfremden Individuen isolierend wirken. Da die Isolationsmechanismen verhindern, dass nennenswerte zwischenartliche Bastardisierung stattfindet, bilden die Angehörigen einer Art eine Fortpflanzungsgemeinschaft; zwischen ihnen besteht Genfluss, sie teilen sich einen Genpool und bilden so eine Einheit, in der evolutionärer Wandel stattfindet.
Beispiele:
Problematik.
Das biologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie, besonders in der Evolutionsbiologie. In gewisser Weise bildet es das Standardmodell, aus dem die anderen modernen Artkonzepte abgeleitet sind oder gegen welches sie sich in erster Linie abgrenzen. Die notwendigen Charaktere (Fehlen natürlicher Hybriden bzw. gemeinsamer Genpool) sind bisweilen umständlich zu überprüfen, in bestimmten Bereichen, wie etwa in der Paläontologie, versagen biologische bzw. populationsgenetische Artabgrenzungen weitgehend.
Phylogenetisches oder evolutionäres Artkonzept.
Nach diesem Konzept wird eine Art als (monophyletische) Abstammungsgemeinschaft aus einer bis vielen Populationen definiert.
Eine Art beginnt nach einer Artspaltung (siehe Artbildung, Kladogenese) und endet
Phylogenetische Anagenese ist die Veränderung einer Art im Zeitraum zwischen zwei Artspaltungen, also während ihrer Existenz. Solange keine Aufspaltung erfolgt, gehören alle Individuen zur selben Art, auch wenn sie unter Umständen morphologisch unterscheidbar sind.
Das phylogenetische Artkonzept beruht auf der phylogenetischen Systematik oder „Kladistik“ und besitzt nur im Zusammenhang mit dieser Sinn. Im Rahmen des Konzepts sind Arten objektive, tatsächlich existierende biologische Einheiten. Alle höheren Einheiten der Systematik werden nach dem System „Kladen“ genannt und sind (als monophyletische Organismengemeinschaften) von Arten prinzipiell verschieden. Durch die gabelteilige (dichotome) Aufspaltung besitzen alle hierarchischen Einheiten oberhalb der Art (Gattung, Familie etc.) keine Bedeutung, sondern sind nur konventionelle Hilfsmittel, um Abstammungsgemeinschaften eines bestimmten Niveaus zu bezeichnen. Der wesentliche Unterschied liegt weniger in der Betrachtung der Art als in derjenigen dieser höheren Einheiten. Nach dem phylogenetischen Artkonzept können sich Kladen überlappen, wenn sie hybridogenen Ursprungs sind.
Chronologisches Artkonzept.
Ein weiterer Versuch, Arten in der Zeit klar abzugrenzen, ist das chronologische Artkonzept (Chronospezies). Auch hier wird die Art zunächst anhand eines anderen Artkonzepts definiert (meist das morphologische Artkonzept). Dann werden nach den Kriterien dieses Konzepts auch die Artgrenzen zwischen in einer Region aufeinanderfolgenden Populationen definiert. Dieses Konzept findet vorwiegend in der Paläontologie Anwendung und ist daher in der Regel eine Erweiterung des morphologischen Artkonzeptes um den Faktor Zeit:
Dieses Konzept ist dann gut anwendbar, wenn praktisch lückenlose Fundfolgen vorliegen.
Statistisches Artkonzept.
In der Paläontologie, speziell in der Paläoanthropologie erweist sich die Zuordnung zu Arten und sogar die Zuordnung zu Gattungen allein anhand fossiler Knochen als schwierig. Anstelle einer kontravalenten Zuordnung wird daher von John Francis Thackeray eine wahrscheinlichkeitstheoretische Zuordnung vorgeschlagen. Anstelle der Frage, ob ein Fossil zur Spezies A und ein anderes zur Spezies B gehört, wird die Wahrscheinlichkeit, dass beide zur selben Spezies gehören, errechnet. Dazu wird eine möglichst große Reihe von Paaren unterschiedlicher morphometrischer Messpunkte von je zwei Individuen verglichen, bei denen die Artzugehörigkeit unsicher ist. Die Messwertpaare weichen stets voneinander ab. Sie streuen in Form einer Gaußschen Normalverteilung. Innerhalb dieser Verteilung wird definiert, in welchem Intervall um den Mittelwert (z. B. 2 Sigma) beide Individuen als derselben Art zugehörig betrachtet werden. Liegen die Messpunkte außerhalb des vorgegebenen Intervalls, werden die beiden Individuen als zwei verschiedene Arten betrachtet.
Artenzahl.
Anfang des 21. Jahrhunderts waren zwischen 1,5 und 1,75 Millionen Arten beschrieben, davon rund 500.000 Pflanzen. Es ist jedoch davon auszugehen, dass es sich bei diesen nur um einen Bruchteil aller existierenden Arten handelt. Schätzungen gehen davon aus, dass die Gesamtzahl aller Arten der Erde deutlich höher ist. Die weitestgehenden Annahmen reichten dabei Ende der 1990er-Jahre bis zu 117,7 Millionen Arten; am häufigsten jedoch wurden Schätzungen zwischen 13 und 20 Millionen Arten angeführt. Eine 2011 veröffentlichte Studie schätzte die Artenzahl auf 8,7 ± 1,3 Millionen, davon 2,2 ± 0,18 Millionen Meeresbewohner; diese Schätzung berücksichtigte allerdings nur Arten mit Zellkern (Eukaryoten), also nicht die Prokaryoten und auch nicht Viren, Viroide und Prionen.
Jay Lennon und Kenneth Locey von der Indiana University schätzten auf Basis der Ergebnisse von 3 Großprojekten, die Mikroben in Medizin, Meer und Boden behandeln, die Artenanzahl auf der Erde im März 2016 auf 1 Billion (1012). Insbesondere die kleinen Lebensformen der Bakterien, Archaeen und Pilze wurden bisher stark unterschätzt. Moderne Genom-Sequenzierung macht genaue Analysen möglich.
Über die Gesamtzahl aller Tier- und Pflanzenarten, die seit Beginn des Phanerozoikums vor 542 Mio. Jahren entstanden, liegen nur Schätzungen vor. Wissenschaftler gehen von etwa einer Milliarde Arten aus, manche rechnen sogar mit 1,6 Milliarden Arten. Weit unter einem Prozent dieser Artenvielfalt ist fossil erhalten geblieben, da die Bedingungen für eine Fossilwerdung generell ungünstig sind. Zudem zerstörten Erosion und Plattentektonik im Laufe der Jahrmillionen viele Fossilien. Forscher haben bis 1993 rund 130.000 fossile Arten wissenschaftlich beschrieben.
Es kann gezeigt werden, dass bei Verwendung des phylogenetischen Artkonzepts mehr Arten unterschieden werden als beim biologischen Artkonzept. Die Vermehrung der Artenzahl, z. B. innerhalb der Primaten, die ausschließlich auf das verwendete Artkonzept zurückgehen, ist als „taxonomische Inflation“ bezeichnet worden. Dies hat Folgen für angewandte Bereiche, wenn diese auf einem Vergleich von Artenlisten beruhen. Es ergeben sich unterschiedliche Verhältnisse beim Vergleich der Artenzahlen zwischen verschiedenen taxonomischen Gruppen, geographischen Gebieten, beim Anteil der endemischen Arten und bei der Definition der Schutzwürdigkeit von Populationen bzw. Gebieten im Naturschutz.
Literatur.
Für detaillierte und aktuelle Diskussionen spezieller Themen: |
339 | 821876 | https://de.wikipedia.org/wiki?curid=339 | Anaerobie | Anaerobie (zu "aer" ‚Luft‘ und ‚Leben‘; mit Alpha privativum α(ν)- "a(n)-" ‚ohne‘) bezeichnet Leben ohne Sauerstoff (Disauerstoff O2). Lebewesen, die für ihren Stoffwechsel keinen molekularen Sauerstoff brauchen, werden als anaerob bezeichnet. Jene Anaerobier, die durch O2 gehemmt oder sogar abgetötet werden, werden genauer "obligat anaerob" benannt.
Anaerobe Lebensformen.
Anaerobe einzellige Organismen sind die ältesten Formen des Lebens auf der Erde, noch vor den ersten oxygen photosynthetisch aktiven Einzellern im Präkambrium, die O2 ausschieden. Mit dessen Anreicherung in der Hydrosphäre und der Atmosphäre änderten sich die Lebensbedingungen großräumig (siehe Große Sauerstoffkatastrophe). Die heute lebenden anaeroben Organismen benötigen ebenfalls alle keinen Sauerstoff für ihren Stoffwechsel und lassen sich grob danach unterscheiden, wie gut sie mit einer sauerstoffhaltigen Umgebung zurechtkommen:
Lebensräume, in denen kein Sauerstoff enthalten ist, werden als "anoxisch" bezeichnet (mit früherem Sprachgebrauch auch als "anaerob"); Sauerstoff enthaltende Lebensräume werden "oxisch" genannt (früher auch "aerob").
Das bis Februar 2020 einzig bekannte Tier (nach einer neuen Definition), das seine Energie ohne Mitochondrien bzw. Sauerstoff produziert, ist der kleine 10-zellige Lachsparasit "Henneguya zschokkei", welcher im Laufe der Evolution die Fähigkeit zur Sauerstoffumwandlung (aerobe Zellatmung) verloren hat. Der Fund zeigt, dass auch mehrzellige Organismen ohne Sauerstoff bzw. Sauerstoffzellatmung überleben können und Evolution zu scheinbar weniger komplexen Organismen führen kann.
Anaerobe Atmung.
Im Unterschied zur aeroben Atmung werden bei der anaeroben für den oxidativen Energiestoffwechsel anstelle von O2 andere Elektronenakzeptoren als Oxidationsmittel verwendet. Häufig verwendete alternative Elektronenakzeptoren sind: Nitrat, dreiwertige Eisen-Ionen (Fe3+), vierwertige Mangan-Ionen (Mn4+), Sulfat, Schwefel, Fumarat und Kohlenstoffdioxid (CO2). Diese Redox-Reaktionen werden als anaerobe Atmung bezeichnet.
In der Tabelle sind Typen der anaeroben Atmung aufgeführt, die in der Umwelt weit verbreitet sind (zum Vergleich ist die aerobe Atmung mit dabei). Die Reihung der Atmungsprozesse erfolgte nach Möglichkeit nach dem Standard-Redoxpotential des Elektronenakzeptorpaars in Volt bei einem pH-Wert von 7. Die tatsächlichen pH-Werte können abweichen (z. B. bei Acetogenese).
Gärung.
Nicht als anaerobe Atmung, sondern als Gärung werden Vorgänge bezeichnet, bei denen kein externer Stoff als terminaler Elektronenakzeptor verwendet wird. Gärungsorganismen sind vor allem:
Symbiosen.
Manche Turbellarien, Ringelwürmer und Enteroparasiten wie Bandwürmer beherbergen anaerobe Bakterien und können durch diese Symbiose auch unter anoxischen Bedingungen leben.
Identifikation.
Das Verhalten von Mikroorganismen gegenüber Sauerstoff, ihre Identifikation als Aerobier, Anaerobier, Aerotoleranter oder fakultativer Anaerobier, kann durch Kultur in einem Sauerstoffkonzentrationsgradienten ermittelt werden. Dabei kultiviert man sie in einem Gelnährmedium, das sich in einem einseitig geschlossenen Glasrohr (Reagenzglas, Kulturröhrchen) befindet und in das Sauerstoff nur vom oberen, offenen Ende durch Diffusion eindringen kann. Auf diese Weise bildet sich ein Sauerstoffkonzentrationsgradient aus mit hoher Sauerstoffkonzentration oben und niedriger Sauerstoffkonzentration unten. Die Mikroorganismen werden in sehr geringer Menge gleichmäßig im Gelnährmedium verteilt, in dem sie ortsgebunden sind und sich nicht fortbewegen können. Dort, wo sich die Mikroorganismen hinsichtlich der Sauerstoffkonzentration unter geeigneten Bedingungen befinden, vermehren sie sich und man kann nach einer gewissen Zeit einen Bewuchs mit bloßem Auge erkennen. Die Zone, in der sich Bewuchs zeigt, ist ein Indikator für das Verhalten der Mikroorganismen gegenüber Sauerstoff, wie aus dem Bild deutlich wird.
Kultur von anaeroben Mikroorganismen.
Anaerobie ist unter anderem bei der Kultivierung von Mikroorganismen von Bedeutung. Sollen gegenüber O2 empfindliche Mikroorganismen kultiviert werden oder sollen fakultativ anaerobe Mikroorganismen unter anoxischen Bedingungen kultiviert werden, so ist es erforderlich, bei der Kultur O2 auszuschließen. Hierbei werden sogenannte Anaerobentechniken verwendet. Ein Beispiel ist die Kultur in einer Anaerobenkammer: Darin erreicht man mit einer Gasatmosphäre aus 10 Vol.-% H2 + 10 Vol.-% CO2 + 80 Vol.-% N2 anoxische Bedingungen, die es ermöglichen, anaerobe Mikroorganismen zu kultivieren. Es besteht aber auch die Möglichkeit, anaerobe Mikroorganismen mittels Flüssigkulturen anzureichern. Dabei wird meist ausgenützt, dass die Löslichkeit von O2 in Flüssigkeiten mit steigender Temperatur sinkt. |
340 | 553717 | https://de.wikipedia.org/wiki?curid=340 | Awk | awk ist eine Programmiersprache zur Bearbeitung und Auswertung beliebiger Textdaten, u. a. auch CSV-Dateien. Der zugehörige Interpreter ist eher als Compiler zu betrachten, weil der Programmtext zuerst komplett kompiliert und dann ausgeführt wird. awk wurde primär als Reportgenerator konzipiert und war eines der ersten Werkzeuge, das in der Version 3 von Unix erschien. Man kann awk als Weiterentwicklung oder Ergänzung des Streameditors sed betrachten, sie teilen gewisse syntaktische Elemente wie etwa reguläre Ausdrücke. Im Unterschied zu sed stehen in awk aber C-ähnliche Strukturen (if .. then .. else, verschiedene Schleifen, C-Formate …) zur Verfügung, die einen wesentlich leichteren Programmaufbau erlauben. In der Minimalanwendung wird awk in Shell-Skripten eingesetzt, um als Filter zum Beispiel Dateinamen zusammenzusetzen. Mit ausführlicheren Programmen gelingt es, Textdateien zu bearbeiten, umzuformen oder auszuwerten. Dazu stehen neben den üblichen Stringfunktionen aber auch mathematische Grund-Funktionen zur Verfügung. Der Name "awk" ist aus den Anfangsbuchstaben der Nachnamen ihrer drei Autoren Alfred V. Aho, Peter J. Weinberger und Brian W. Kernighan zusammengesetzt.
Eine Version von awk ist heute in fast jedem unixähnlichen System zu finden und oft bereits vorinstalliert. Ein vergleichbares Programm ist aber auch für fast alle anderen Betriebssysteme verfügbar.
Die Sprache arbeitet fast ausschließlich mit dem Datentyp Zeichenkette (). Daneben sind assoziative Arrays (d. h. mit Zeichenketten indizierte Arrays, auch Hashes genannt) und reguläre Ausdrücke grundlegende Bestandteile der Sprache.
Die Leistungsfähigkeit, Kompaktheit, aber auch die Beschränkungen der awk- und sed-Skripte regten Larry Wall zur Entwicklung der Sprache Perl an.
Aufbau eines Programms.
Die typische Ausführung eines awk-Programms besteht darin, Operationen – etwa Ersetzungen – auf einem Eingabetext durchzuführen. Dafür wird der Text zeilenweise eingelesen und anhand eines gewählten Trenners – üblicherweise eine Serie von Leerzeichen und/oder Tabulatorzeichen – in Felder aufgespalten. Anschließend werden die awk-Anweisungen auf die jeweilige Zeile angewandt.
awk-Anweisungen haben folgende Struktur:
Für die eingelesene Zeile wird ermittelt, ob sie die Bedingung (oft ein Regulärer Ausdruck) erfüllt. Ist die Bedingung erfüllt, wird der Code innerhalb des von geschweiften Klammern umschlossenen Anweisungsblocks ausgeführt.
Abweichend davon
kann ein Statement auch nur aus einer Aktion
oder nur aus einer Bedingung
Bedingung
bestehen. Fehlt die Bedingung, so wird die Aktion für jede Zeile ausgeführt. Fehlt die Aktion, so wird als Standardaktion das Schreiben der ganzen Zeile ausgeführt, sofern die Bedingung erfüllt ist.
Variablen und Funktionen.
Der Benutzer kann Variablen innerhalb von Anweisungsblöcken durch Referenzierung definieren, eine explizite Deklaration ist nicht notwendig. Der Gültigkeitsbereich der Variablen ist global. Eine Ausnahme bilden hier Funktionsargumente, deren Gültigkeit auf die sie definierende Funktion beschränkt ist.
Funktionen können an beliebiger Stelle definiert werden, die Deklaration muss dabei nicht vor der ersten Nutzung erfolgen. Falls es sich um Skalare handelt, werden Funktionsargumente als Wertparameter übergeben, ansonsten als Referenzparameter. Die Argumente bei Aufruf einer Funktion müssen nicht der Funktionsdefinition entsprechen, überzählige Argumente werden als lokale Variablen behandelt, ausgelassene Argumente mit dem speziellen Wert "uninitialized" – numerisch Null und als Zeichenkette den Wert des leeren Strings – versehen.
Funktionen und Variablen aller Art bedienen sich des gleichen Namensraums, so dass gleiche Benennung zu undefiniertem Verhalten führt.
Neben benutzerdefinierten Variablen und Funktionen stehen auch Standardvariablen und Standardfunktionen zur Verfügung, beispielsweise die Variablen codice_1 für die gesamte Zeile, codice_2, codice_3 … für das jeweils i-te Feld der Zeile und codice_4 (von engl. ) für den Feldtrenner, sowie die Funktionen gsub(), split() und match().
Befehle.
Die Syntax von awk ähnelt derjenigen der Programmiersprache C. Elementare Befehle sind Zuweisungen an Variablen, Vergleiche zwischen Variablen sowie Schleifen oder bedingte Befehlsausführungen (if-else). Daneben gibt es Aufrufe sowohl zu fest implementierten als auch zu selbst programmierten Funktionen.
Ausgeben von Daten auf der Standardausgabe ist durch den „codice_5“-Befehl möglich. Um etwa das zweite Feld einer Eingabezeile auszudrucken, wird der Befehl
print $2
benutzt.
Bedingungen.
Bedingungen sind in awk-Programmen entweder von der Form
Ausdruck Vergleichsoperator Ausdruck
oder von der Form
Ausdruck Matchoperator /reguläres Suchmuster/
Reguläre Suchmuster werden wie beim grep-Befehl gebildet, und Matchoperatoren sind ~ für "Muster gefunden" und !~ für "Muster nicht gefunden". Als Abkürzung für die Bedingung „$0 ~ /"reguläres Suchmuster"/“ (also die ganze Zeile erfüllt das Suchmuster) kann „/"reguläres Suchmuster"/“ verwendet werden.
Als spezielle Bedingungen gelten die Worte "BEGIN" und "END", bei denen die zugehörigen Anweisungsblöcke vor dem Einlesen der ersten Zeile bzw. nach Einlesen der letzten Zeile ausgeführt werden.
Darüber hinaus können Bedingungen mit logischen Verknüpfungen zu neuen Bedingungen zusammengesetzt werden, z. B.
Dieser awk-Befehl bewirkt, dass von jeder Zeile, die mit "E" beginnt und deren zweites Feld eine Zahl größer 20 ist, das dritte Feld ausgegeben wird.
Versionen, Dialekte.
Die erste awk-Version aus dem Jahr 1977 erfuhr 1985 eine Überarbeitung durch die ursprünglichen Autoren, die als "nawk" („new awk“) bezeichnet wurde. Sie bietet die Möglichkeit, eigene Funktionen zu definieren, sowie eine größere Menge von Operatoren und vordefinierten Funktionen. Der Aufruf erfolgt zumeist dennoch über „awk“, seit eine Unterscheidung zwischen beiden Versionen obsolet geworden ist.
Das GNU-Projekt der Free Software Foundation stellt unter dem Namen "gawk" eine nochmals erweiterte freie Variante zur Verfügung.
Eine weitere freie Implementierung ist "mawk" von Mike Brennan. mawk ist kleiner und schneller als gawk, was allerdings durch einige Einschränkungen erkauft wird.
Auch BusyBox enthält eine kleine awk-Implementierung. |
341 | 2458679 | https://de.wikipedia.org/wiki?curid=341 | Achim von Arnim | Carl Joachim Friedrich Ludwig „Achim“ von Arnim (* 26. Januar 1781 in Berlin; † 21. Januar 1831 in Wiepersdorf, Kreis Jüterbog-Luckenwalde) war ein deutscher Schriftsteller. Neben Clemens Brentano und Joseph von Eichendorff gilt er als ein wichtiger Vertreter der Heidelberger Romantik.
Leben.
1781 bis 1800.
Arnims Vater war der wohlhabende Königlich Preußische Kammerherr Joachim Erdmann von Arnim, der dem Adelsgeschlecht Arnim aus dem uckermärkischen Familienzweig Blankensee entstammte und Gesandter des preußischen Königs in Kopenhagen und Dresden und später Intendant der Berliner Königlichen Oper war. Arnims Mutter Amalie Caroline von Arnim, geborene von Labes, starb drei Wochen nach seiner Geburt.
Arnim verbrachte Kindheit und Jugend zusammen mit seinem älteren Bruder Carl Otto bei seiner Großmutter Caroline von Labes in Zernikow und Berlin, wo er von 1793 bis 1798 das Joachimsthalsche Gymnasium besuchte. Er studierte von 1798 bis 1800 Rechts- und Naturwissenschaften und Mathematik in Halle (Saale). Noch als Student schrieb er zahlreiche naturwissenschaftliche Texte, unter anderem den "Versuch einer Theorie der elektrischen Erscheinungen" sowie Aufsätze in den "Annalen der Physik".
Im Haus des Komponisten Johann Friedrich Reichardt lernte er Ludwig Tieck kennen, dessen literarische Arbeiten er bewunderte. 1800 wechselte Arnim zum naturwissenschaftlichen Studium nach Göttingen, wo er Johann Wolfgang von Goethe und Clemens Brentano begegnete. Unter deren Einfluss wandte er sich von den naturwissenschaftlichen Schriften eigenen literarischen Arbeiten zu. Nach Beendigung des Studiums im Sommer 1801 schrieb er, beeinflusst von Goethes "Werther", seinen Erstlingsroman "Hollin’s Liebeleben".
1801 bis 1809.
Arnim unternahm von 1801 bis 1804 eine Bildungsreise quer durch Europa zusammen mit seinem Bruder Carl Otto. 1802 begegnete er in Frankfurt erstmals seiner späteren Frau Bettina und bereiste zusammen mit Clemens Brentano den Rhein. Ende 1802 besuchte er auf Schloss Coppet Frau von Staël und 1803 traf er in Paris erstmals Friedrich Schlegel. In diesem Jahr reiste Arnim weiter nach London und blieb bis Sommer 1804 in England und Schottland.
Nach seiner Rückkehr entwarfen Arnim und Brentano erste konkrete Pläne zur Herausgabe einer Volksliedersammlung, die schließlich 1805 unter dem Titel "Des Knaben Wunderhorn" erschien. Arnim ging mit Goethe in Weimar die gesammelten und teils von Arnim und Brentano stark bearbeiteten Lieder der Sammlung durch. 1805 traf er in Frankfurt den Rechtsgelehrten Friedrich Karl von Savigny (1779–1861), der ihn schätzen lernte und mit dem ihn eine lebenslange Freundschaft verband. Seit dem 11. November 1808 schrieben sie sich regelmäßig.
Die Veröffentlichung weiterer Bände verzögerte sich durch den deutsch-französischen Krieg. Nach der Niederlage Preußens bei Jena und Auerstedt folgte Arnim dem geflohenen Königshof nach Königsberg. Dort machte er im Kreis um den Reformer Freiherrn vom Stein politische Vorschläge. 1807 reiste Arnim zusammen mit Reichardt zu Goethe nach Weimar, wo auch Clemens und Bettina Brentano waren. Gemeinsam fuhren sie nach Kassel, wo Arnim erstmals die Brüder Grimm traf, mit denen er sein Leben lang befreundet blieb.
Arnim zog 1808 nach Heidelberg, Clemens Brentano folgte ihm und dort vollendeten sie ihre Arbeit an der Volksliedersammlung. Der zweite und dritte Band des "Wunderhorns" erschien und außerdem schrieb Arnim Aufsätze für die "Heidelbergischen Jahrbücher". In dem Kreis von Romantikern um Joseph Görres, dem die Heidelberger Romantik ihren Namen verdankt, gab Arnim die "Zeitung für Einsiedler" heraus, an der neben Brentano, Görres und den Brüdern Grimm auch Tieck, Friedrich Schlegel, Jean Paul, Justinus Kerner und Ludwig Uhland mitarbeiteten. Dieser Kreis wandte sich überwiegend aus politischen Gründen dem Mittelalter zu, um über diese Epoche eine nationale Einheit zu stiften, der ästhetische Aspekt interessierte dabei weniger. Arnim verließ Heidelberg Ende 1808 und besuchte Goethe auf dem Heimweg nach Berlin. Seit 1809 lebte Arnim in Berlin, wo er sich erfolglos um ein Amt im preußischen Staatsdienst bewarb.
1810 bis 1831.
In Berlin veröffentlichte Arnim seine Novellensammlung "Der Wintergarten", arbeitete für Kleists "Berliner Abendblätter" und gründete 1811 die "Deutsche Tischgesellschaft", später "Christlich-Deutsche Tischgesellschaft" genannte patriotische Vereinigung, zu der zahlreiche Politiker, Professoren, Militärs und Künstler der Berliner Gesellschaft gehörten und in der nur christlich getaufte Männer Zutritt hatten.
1810 verlobte sich Arnim mit Bettina, das Paar heiratete am 11. März 1811. Die Arnims hatten sieben Kinder: Freimund, Siegmund, Friedmund, Kühnemund, Maximiliane, Armgart und Gisela von Arnim (1827–1889). Das Paar lebte meist getrennt, sie in Berlin, er auf seinem Gut Wiepersdorf. Bald nach der Hochzeit reisten sie gemeinsam nach Weimar, um Goethe zu besuchen. Ein heftiger Streit Bettinas mit Goethes Frau Christiane führte zu einer lebenslangen Entfremdung zwischen Goethe und Arnim. 1813 während der Befreiungskriege gegen Napoleon befehligte Arnim als Hauptmann ein Berliner Landsturmbataillon. Von Oktober 1813 bis Februar 1814 war er Herausgeber der Berliner Tageszeitung "Der Preußische Correspondent", gab diese Stellung aber wegen Streitigkeiten mit dem Erstherausgeber Barthold Georg Niebuhr auf. Ebenfalls 1813 trat er der Gesetzlosen Gesellschaft zu Berlin bei.
Von 1814 bis zu seinem Tode 1831 (Gehirnschlag) lebte Arnim überwiegend – unterbrochen von gelegentlichen Reisen und längeren Berlinaufenthalten – auf seinem Gut in Wiepersdorf und nahm mit zahlreichen Artikeln und Erzählungen in Zeitungen, Zeitschriften und Almanachen sowie mit Buchveröffentlichungen am literarischen Leben Berlins teil. Seine Frau und die Kinder lebten vor allem in Berlin. 1817 erschien der erste Band seines Romans "Die Kronenwächter". Arnim schrieb vor allem für den "Gesellschafter" und hatte zeitweilig eine eigene Rubrik in der "Vossischen Zeitung".
1820 besuchte Arnim Ludwig Uhland, Justinus Kerner, die Brüder Grimm und zum letzten Mal Goethe in Weimar. In seinen letzten Lebensjahren hatte Arnim immer wieder mit finanziellen Problemen zu kämpfen. Großer literarischer Erfolg blieb aus.
Achim von Arnim starb am 21. Januar 1831 in Wiepersdorf.
Werk und Wirkung.
Arnim hinterließ eine Fülle von Dramen, Novellen, Erzählungen, Romanen, Gedichten und anderen Arbeiten. Er wird heute zu den bedeutendsten Vertretern der deutschen Romantik gezählt.
Vor allem über das "Wunderhorn" wirkte er auf Spätromantiker und Realisten ein wie etwa Eduard Mörike, Heinrich Heine, Ludwig Uhland und Theodor Storm. Die Sammlung enthält etwa 600 Bearbeitungen deutscher Volkslieder und gehört zu den wichtigsten Zeugnissen einer von der Romantik propagierten "Volksdichtung". Enthalten sind Liebes-, Kinder-, Kriegs- und Wanderlieder vom Mittelalter bis ins 18. Jahrhundert. Goethe empfahl "Des Knaben Wunderhorn" zur Lektüre über alle Standesgrenzen hinweg, da es ihm für die einfachste Küche ebenso wie für das Klavier der Gelehrten geeignet erschien.
Arnims Novellen zeugen von der Hinwendung des Autors zum Übernatürlichen. Die Erzählung "Isabella von Ägypten" vermischt Fiktion und Realität und nimmt so Elemente des Surrealismus vorweg; die traumhafte Phantastik wird mit historischen Bezügen verbunden. Poetologisch stellte Arnim seine Literatur in den Dienst der politischen Erneuerung, die er nicht durch politische Arbeit, sondern in der Kunst verwirklichen wollte. Deshalb hat er öfter volkstümliche Stoffe wiederbelebt. Arnims unvollendet gebliebener Roman "Die Kronenwächter" trieb die Erneuerung des historischen Romans in Deutschland voran. Er zeigt Missstände von Arnims Gegenwart in Form einer geschichtlichen Erzählung.
Als Lyriker wird Arnim weniger als die Zeitgenossen Brentano und Eichendorff wahrgenommen, obwohl er ein reiches und vielgestaltiges lyrisches Werk hinterlassen hat; auch fast alle seine erzählerischen Werke enthalten Gedichte und Lieder.
Die zeitgenössischen Urteile über Arnim gingen weit auseinander: Heine schrieb, Arnim sei „ein großer Dichter und einer der originellsten Köpfe der romantischen Schule. Die Freunde des Phantastischen würden an diesem Dichter mehr als an jedem anderen deutschen Schriftsteller Geschmack finden.“ Goethe dagegen sah Arnims Werk als ein Fass, an dem der Küfer vergessen habe, die Reifen festzuschlagen.
1995 gründeten die Herausgeber der historisch-kritischen "Weimarer Arnim-Ausgabe (WAA)" die Internationale Arnim-Gesellschaft mit Sitz in Erlangen. Der 1991 gegründete Freundeskreis Schloss Wiepersdorf e.V. richtete mit Unterstützung des Freien Deutschen Hochstifts (Frankfurt am Main) im Schloss Wiepersdorf das Bettina und Achim von Arnim-Museum ein, das Leben und Schaffen des Schriftstellerpaares und seines Umfeldes dokumentiert.
Antisemitismusvorwürfe.
Ein Gegenstand anhaltender Diskussion in der Arnim-Forschung ist der Zusammenhang von nationalem Engagement und antisemitischer Denunziation. Mehrfach, etwa in der Erzählung "Die Versöhnung in der Sommerfrische" von 1811, benutzt Arnim die traditionelle Gegenüberstellung von Christen und Juden, um ein konstruiertes „deutsches Wesen“ in der Opposition zu einem vermeintlichen „jüdischen Wesen“ zu profilieren. In der Tischrede "Über die Kennzeichen des Judentums", die Arnim vor der Deutsch-christlichen Tischgesellschaft hielt, drückt sich – laut Micha Brumlik – „klassischer Antisemitismus aus, wie ihn 100 Jahre später Julius Streichers Hetzblatt "Der Stürmer" verbreiten sollte“. Darin heißt es u. a.:
In zahlreichen seiner literarischen Werke treten jüdische Figuren auf, die oftmals stark negativ konnotiert bzw. bis zur Lächerlichkeit überzeichnet sind. Außerhalb der "Versöhnung in der Sommerfrische" finden sich jüdische Figuren z. B. in Arnims und Brentanos "Wunderhorn (1806)," in seinem Doppeldrama "Halle und Jerusalem" (1811) sowie in der Erzählung "Die Majoratsherren" (1819).
Ehrungen und Andenken.
In Göttingen wurde 1909 eine Göttinger Gedenktafel an seinem Göttinger Wohnhaus in der Prinzenstraße 10/12 angebracht.
1941 wurde die Arnimstraße in Hamburg-Osdorf nach Achim von Arnim benannt. |
342 | 23437 | https://de.wikipedia.org/wiki?curid=342 | Algorithmus | Ein Algorithmus (benannt nach al-Chwarizmi, von arabisch: ) ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. Damit können sie zur Ausführung in ein Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt.
Definition.
Turingmaschinen und Algorithmusbegriff.
Der Mangel an mathematischer Genauigkeit des Begriffs Algorithmus störte viele Mathematiker und Logiker des 19. und 20. Jahrhunderts, weswegen in der ersten Hälfte des 20. Jahrhunderts eine ganze Reihe von Ansätzen entwickelt wurde, die zu einer genauen Definition führen sollten. Eine zentrale Rolle nimmt hier der Begriff der Turingmaschine von Alan Turing ein. Weitere Formalisierungen des Berechenbarkeitsbegriffs sind die Registermaschinen, der Lambda-Kalkül (Alonzo Church), rekursive Funktionen, Chomsky-Grammatiken (siehe Chomsky-Hierarchie) und Markow-Algorithmen.
Es wurde – unter maßgeblicher Beteiligung von Alan Turing selbst – gezeigt, dass all diese Methoden die gleiche Berechnungsstärke besitzen (gleich "mächtig" sind). Sie können durch eine Turingmaschine emuliert werden, und sie können umgekehrt eine Turingmaschine emulieren.
Formale Definition.
Mit Hilfe des Begriffs der Turingmaschine kann folgende formale Definition des Begriffs formuliert werden:
„Eine Berechnungsvorschrift zur Lösung eines Problems heißt genau dann Algorithmus, wenn eine zu dieser Berechnungsvorschrift äquivalente Turingmaschine existiert, die für jede Eingabe, die eine Lösung besitzt, stoppt.“
Eigenschaften des Algorithmus.
Aus dieser Definition sind folgende Eigenschaften eines Algorithmus ableitbar:
Darüber hinaus wird der Begriff Algorithmus in praktischen Bereichen oft auf die folgenden Eigenschaften eingeschränkt:
Church-Turing-These.
Die Church-Turing-These besagt, dass jedes intuitiv berechenbare Problem durch eine Turingmaschine gelöst werden kann. Als formales Kriterium für einen Algorithmus zieht man die Implementierbarkeit in einem beliebigen, zu einer Turingmaschine äquivalenten Formalismus heran, insbesondere die Implementierbarkeit in einer Programmiersprache – die von Church verlangte Terminiertheit ist dadurch allerdings noch nicht gegeben.
Der Begriff der Berechenbarkeit ist dadurch dann so definiert, dass ein Problem genau dann "berechenbar" ist, wenn es einen (terminierenden) Algorithmus zu dem Problem gibt, das heißt, wenn eine entsprechend programmierte Turingmaschine das Problem "in endlicher Zeit" lösen könnte.
Es sei bemerkt, dass die Ambiguität des Begriffs „intuitiv berechenbares Problem“ den mathematischen Beweis dieser These unmöglich macht. Es ist also theoretisch denkbar, dass intuitiv berechenbare Probleme existieren, die nach dieser Definition nicht als „berechenbar“ gelten. Bis heute wurde jedoch noch kein solches Problem gefunden.
Abstrakte Automaten.
Turingmaschinen harmonieren gut mit den ebenfalls abstrakt-mathematischen berechenbaren Funktionen, reale Probleme sind jedoch ungleich komplexer, daher wurden andere Maschinen vorgeschlagen.
Diese Maschinen weichen etwa in der Mächtigkeit der Befehle ab; statt der einfachen Operationen der Turingmaschine können sie teilweise mächtige Operationen, wie etwa Fourier-Transformationen, in einem Rechenschritt ausführen.
Oder sie beschränken sich nicht auf eine Operation pro Rechenschritt, sondern ermöglichen parallele Operationen, wie etwa die Addition zweier Vektoren in einem Schritt.
Ein Modell einer echten Maschine ist die ' (kurz ') mit folgenden Eigenschaften:
Ein Algorithmus einer seq. ASM soll
Informatik und Mathematik.
Algorithmen sind eines der zentralen Themen der Informatik und Mathematik. Sie sind Gegenstand einiger Spezialgebiete der theoretischen Informatik, der Komplexitätstheorie und der Berechenbarkeitstheorie, mitunter ist ihnen ein eigener Fachbereich Algorithmik oder Algorithmentheorie gewidmet. In Form von Computerprogrammen und elektronischen Schaltungen steuern Algorithmen Computer und andere Maschinen.
Algorithmus und Programme.
Für Algorithmen gibt es unterschiedliche formale Repräsentationen. Diese reichen vom Algorithmus als abstraktem Gegenstück zum konkret auf eine Maschine zugeschnittenen Programm (das heißt, die Abstraktion erfolgt hier im Weglassen der Details der realen Maschine, das Programm ist eine konkrete Form des Algorithmus, angepasst an die Notwendigkeiten und Möglichkeiten der realen Maschine) bis zur Ansicht, Algorithmen seien gerade die Maschinenprogramme von Turingmaschinen (wobei hier die Abstraktion in der Verwendung der Turingmaschine an sich erfolgt, das heißt, einer idealen mathematischen Maschine).
Ein Algorithmus beschreibt eine Vorgehensweise in ihren Teilschritten, zu deren Erledigung wiederum Algorithmen benötigt werden. Beispielsweise werden für die Lösung Quadratischer Gleichungen die Grundrechenarten verwendet. Entsprechend wird in Programmen auf Operatoren zurückgegriffen, welche in die Programmiersprache integriert sind, oder auf Programmbibliotheken. Guter Programmcode zeichnet sich dadurch aus, dass der Teil mit dem eigentlichen Algorithmus kompakt und nachvollziehbar bleibt, während nebensächliche Details in Unterprogramme ausgliedert sind (Modularisierung).
Algorithmen können in Programmablaufplänen nach DIN 66001 oder ISO 5807 grafisch dargestellt werden.
Erster Computeralgorithmus.
Der erste für einen Computer gedachte Algorithmus (zur Berechnung von Bernoullizahlen) wurde 1843 von Ada Lovelace in ihren Notizen zu Charles Babbages Analytical Engine festgehalten. Sie gilt deshalb als die erste Programmiererin. Weil Charles Babbage seine nicht vollenden konnte, wurde Ada Lovelaces Algorithmus nie darauf implementiert.
Heutige Situation.
Algorithmen für Computer sind heute so vielfältig wie die Anwendungen, die sie ermöglichen sollen. Vom elektronischen Steuergerät für den Einsatz im Kfz über die Rechtschreib- und Satzbau-Kontrolle in einer Textverarbeitung bis hin zur Analyse von Aktienmärkten finden sich tausende von Algorithmen. Hinsichtlich der Ideen und Grundsätze, die einem Computerprogramm zugrunde liegen, wird einem Algorithmus in der Regel urheberrechtlicher Schutz versagt. Je nach nationaler Ausgestaltung der Immaterialgüterrechte sind Algorithmen der Informatik jedoch dem Patentschutz zugänglich, so dass urheberrechtlich freie individuelle Werke, als Ergebnis eigener geistiger Schöpfung, wirtschaftlich trotzdem nicht immer frei verwertet werden können. Dies betrifft oder betraf z. B. Algorithmen, die auf der Mathematik der Hough-Transformation (Jahrzehnte alt, aber mehrfach aktualisiertes Konzept mit Neu-Anmeldung) aufbauen, Programme, die das Bildformat GIF lesen und schreiben wollten, oder auch Programme im Bereich der Audio- und Video-Verarbeitung, da die zugehörigen Algorithmen, wie sie in den zugehörigen Codecs umgesetzt sind, oftmals nicht frei verfügbar sind. Die entsprechenden Einsparpotentiale für alle Anwender weltweit (für den Rete-Algorithmus wurde einst eine Million USD auf DEC XCON genannt) dürften heute problemlos die Grenze von einer Milliarde USD im Jahr um ein Zigfaches überschreiten.
Populärer Gebrauch des Begriffs.
Der Begriff des Algorithmus hat seit etwa 2015 im Kontext des Online-Marketing Einzug in die Presse- und Alltagssprache gehalten. Algorithmen bestimmen insbesondere bei werbefinanzierten Angeboten, welche Inhalte und welche Werbeanzeigen dem Anwender gezeigt werden. Ziel dieser Algorithmen ist es, den Anwender lange auf der jeweiligen Plattform zu halten und ihm solche Anzeigen einzublenden, bei denen die Wahrscheinlichkeit eines Klicks am höchsten ist. Der Begriff „Algorithmus“ fällt auch allgemein, wenn eine Software nach unbekannten, aber offensichtlich komplexen Regeln entscheidet. Beispielsweise, welche Ergebnisse von einer Suchmaschine angezeigt werden. Dabei schwingt häufig ein gewisses Unbehagen mit, eben weil der Algorithmus nicht transparent ist.
In der Diskussion nicht scharf davon abgegrenzt ist der Begriff „Künstliche Intelligenz“. Sie bedient sich ebenfalls Algorithmen zur Lösung vorgegebener Probleme. Von künstlicher Intelligenz wird aber im Allgemeinen nur gesprochen, wenn zusätzlich auf einen Vorrat zuvor erlernten Wissens zugegriffen wird, wobei in der Lernphase charakteristische Muster identifiziert und eingeordnet werden. Mit einer passenden Wissensbasis ist es geeigneten Algorithmen beispielsweise möglich, natürliche geschriebene und gesprochene Sprache zu verarbeiten, Gesichter oder beliebige Objekte zu identifizieren, oder Texte zu formulieren.
Abgrenzung zur Heuristik.
Der Übergang zwischen Algorithmus und Heuristik ist fließend: Eine Heuristik ist eine Methode, aus unvollständigen Eingangsdaten zu möglichst sinnvollen Ergebnissen zu gelangen. Viele heuristische Vorgehensweisen sind selbst exakt definiert und damit Algorithmen. Bei manchen ist jedoch nicht in jedem Schritt genau festgelegt, wie vorzugehen ist – der Anwender muss „günstig raten“. Sie können nicht (vollständig) als Algorithmus formuliert werden.
Eigenschaften.
Determiniertheit.
Ein Algorithmus ist determiniert, wenn dieser bei jeder Ausführung mit gleichen Startbedingungen und Eingaben gleiche Ergebnisse liefert.
Determinismus.
Ein Algorithmus ist deterministisch, wenn zu jedem Zeitpunkt der Algorithmusausführung der nächste Handlungsschritt eindeutig definiert ist. Wenn an mindestens einer Stelle mehr als eine Möglichkeit besteht (ohne Vorgabe, welche zu wählen ist), dann ist der gesamte Algorithmus "nichtdeterministisch".
Beispiele für deterministische Algorithmen sind Bubblesort und der euklidische Algorithmus. Dabei gilt, dass jeder deterministische Algorithmus determiniert ist, während aber nicht jeder determinierte Algorithmus deterministisch ist. So ist Quicksort mit zufälliger Wahl des Pivotelements ein Beispiel für einen determinierten, aber nicht deterministischen Algorithmus, da sein Ergebnis bei gleicher Eingabe und eindeutiger Sortierung immer dasselbe ist, der Weg dorthin jedoch zufällig erfolgt.
Nichtdeterministische Algorithmen können im Allgemeinen mit keiner realen Maschine (auch nicht mit Quantencomputern) "direkt" umgesetzt werden.
Beispiel für einen nichtdeterministischen Algorithmus wäre ein Kochrezept, das mehrere Varianten beschreibt. Es bleibt dem Koch überlassen, welche er durchführen möchte. Auch das Laufen durch einen Irrgarten lässt an jeder Verzweigung mehrere Möglichkeiten, und neben vielen Sackgassen können mehrere Wege zum Ausgang führen.
Finitheit.
Statische Finitheit.
Die Beschreibung des Algorithmus besitzt eine endliche Länge, der Quelltext muss also aus einer begrenzten Anzahl von Zeichen bestehen.
Dynamische Finitheit.
Ein Algorithmus darf zu jedem Zeitpunkt seiner Ausführung nur begrenzt viel Speicherplatz benötigen.
Terminiertheit.
Ein Algorithmus ‚terminiert überall‘ oder ‚ist terminierend‘, wenn er nach endlich vielen Schritten anhält (oder kontrolliert abbricht) – für jede mögliche Eingabe. Ein nicht-terminierender Algorithmus (somit zu keinem Ergebnis kommend) gerät (für manche Eingaben) in eine so genannte Endlosschleife.
Für manche Abläufe ist ein nicht-terminierendes Verhalten gewünscht, z. B. Steuerungssysteme, Betriebssysteme und Programme, die auf Interaktion mit dem Benutzer aufbauen. Solange der Benutzer keinen Befehl zum Beenden eingibt, laufen diese Programme beabsichtigt endlos weiter. Donald E. Knuth schlägt in diesem Zusammenhang vor, nicht terminierende Algorithmen als rechnergestützte Methoden "(Computational Methods)" zu bezeichnen.
Darüber hinaus ist die Terminierung eines Algorithmus (das Halteproblem) nicht entscheidbar. Das heißt, das Problem, festzustellen, ob ein (beliebiger) Algorithmus mit einer beliebigen Eingabe terminiert, ist nicht durch einen Algorithmus lösbar.
Effektivität.
Der Effekt jeder Anweisung eines Algorithmus muss eindeutig festgelegt sein.
Algorithmenanalyse.
Die Erforschung und Analyse von Algorithmen ist eine Hauptaufgabe der Informatik und wird meist theoretisch (ohne konkrete Umsetzung in eine Programmiersprache) durchgeführt. Sie ähnelt somit dem Vorgehen in manchen mathematischen Gebieten, in denen die Analyse eher auf die zugrunde liegenden Konzepte als auf konkrete Umsetzungen ausgerichtet ist. Algorithmen werden zur Analyse in eine stark formalisierte Form gebracht und mit den Mitteln der formalen Semantik untersucht.
Die Analyse unterteilt sich in verschiedene Teilgebiete:
Typen und Beispiele.
Der älteste bekannte nicht-triviale Algorithmus ist der euklidische Algorithmus. Spezielle Algorithmus-Typen sind der randomisierte Algorithmus (mit Zufallskomponente), der Approximationsalgorithmus (als Annäherungsverfahren), die evolutionären Algorithmen (nach biologischem Vorbild) und der Greedy-Algorithmus.
Eine weitere Übersicht geben die Liste von Algorithmen und die .
Alltagsformen von Algorithmen.
Rechenvorschriften sind eine Untergruppe der Algorithmen. Sie beschreiben Handlungsanweisungen in der Mathematik bezüglich Zahlen. Andere Algorithmen-Untergruppen sind z. B. (Koch-)Rezepte, Gesetze, Regeln, Verträge, Montage-Anleitungen.
Wortherkunft.
Das Wort "Algorithmus" ist eine Abwandlung oder Verballhornung des Namens des persischen Rechenmeisters und Astronomen Abu Dschaʿfar Muhammad ibn Musa al-Chwārizmī, dessen Namensbestandteil (Nisba) "al-Chwarizmi" „der Choresmier“ bedeutet und auf die Herkunft des Trägers aus Choresmien verweist. Er baute auf die Arbeit des aus dem 7. Jahrhundert stammenden indischen Mathematikers Brahmagupta. Die ursprüngliche Bedeutung war das Einhalten der arithmetischen Regeln unter Verwendung der indisch-arabischen Ziffern. Die ursprüngliche Definition entwickelte sich mit Übersetzung ins Lateinische weiter. Sein Lehrbuch "Über die indischen Ziffern" (verfasst um 825 im Haus der Weisheit in Bagdad) wurde im 12. Jahrhundert aus dem Arabischen ins Lateinische übersetzt und hierdurch in der westlichen Welt neben Leonardo Pisanos "Liber Abaci" zur wichtigsten Quelle für die Kenntnis und Verbreitung des indisch-arabischen Zahlensystems und des schriftlichen Rechnens. Mit der lateinischen Übersetzung al-Chwārizmī wurde auch der Name des Verfassers in Anlehnung an die Anfangsworte der ältesten Fassung dieser Übersetzung ("Dixit Algorismi" „Algorismi hat gesagt“) latinisiert. Aus al-Chwārizmī wurde mittelhochdeutsch "algorismus," "alchorismus" oder "algoarismus –" ein Wort, das aus dem Lateinischen nahezu zeitgleich und gleichlautend ins Altfranzösische ("algorisme", "argorisme)" und Mittelenglische ("augrim", "augrym") übersetzt wurde. Mit Algorismus bezeichnete man bis um 1600 Lehrbücher, die in den Gebrauch der Fingerzahlen, der Rechenbretter, der Null, die indisch-arabischen Zahlen und das schriftliche Rechnen einführen. Das schriftliche Rechnen setzte sich dabei erst allmählich durch. So beschreibt etwa der englische Dichter Geoffrey Chaucer noch Ende des 14. Jahrhunderts in seinen "Canterbury Tales" einen Astrologen, der Steine zum Rechnen ("augrym stones") am Kopfende seines Betts aufbewahrt:
In der mittelalterlichen Überlieferung wurde das Wort bald als erklärungsbedürftig empfunden und dann seit dem 13. Jahrhundert zumeist als Zusammensetzung aus einem Personennamen "Algus" und aus einem aus dem griechischen (Nebenform von ) in der Bedeutung „Zahl“ entlehnten Wortbestandteil "-rismus" interpretiert.
Algus, der vermutete Erfinder dieser Rechenkunst, wurde hierbei von einigen als Araber, von anderen als Grieche oder zumindest griechisch schreibender Autor, gelegentlich auch als „König von Kastilien“ (Johannes von Norfolk) betrachtet. In der volkssprachlichen Tradition erscheint dieser „Meister Algus“ dann zuweilen in einer Reihe mit großen antiken Denkern wie Platon, Aristoteles und Euklid, so im altfranzösischen "Roman de la Rose", während das altitalienische Gedicht "Il Fiore" ihn sogar mit dem Erbauer des Schiffes Argo gleichsetzt, mit dem Jason sich auf die Suche nach dem Goldenen Vlies begab.
Auf der para-etymologischen Gräzisierung des zweiten Bestandteils "-rismus" auf griech. , beruht dann auch die lateinische Wortform "algorithmus", die seit der Frühen Neuzeit, anfangs auch mit der Schreibvariante "algorythmus", größere Verbreitung erlangte und zuletzt die heute übliche Wortbedeutung als Fachterminus für geregelte Prozeduren zur Lösung definierter Probleme annahm.
Geschichte des Algorithmus.
Geschichtliche Entwicklung.
Schon mit der Entwicklung der Sprache ersannen die Menschen für ihr Zusammenleben in größeren Gruppen Verhaltensregeln, Gebote, Gesetze – einfachste Algorithmen. Mit der Sprache ist auch eine geeignete Möglichkeit gegeben, Verfahren und Fertigkeiten weiterzugeben – komplexere Algorithmen. Aus der Spezialisierung einzelner Gruppenmitglieder auf bestimmte Fertigkeiten entstanden die ersten Berufe.
Der Algorithmusbegriff als abstrakte Sicht auf Aufgabenlösungswege trat zuerst im Rahmen der Mathematik, Logik und Philosophie ins Bewusstsein der Menschen. Ein Beispiel für einen mathematischen Algorithmus aus dem Altertum ist der Euklidische Algorithmus.
Antikes Griechenland.
Obwohl der etymologische Ursprung des Wortes arabisch ist, entstanden die ersten Algorithmen im antiken Griechenland. Zu den wichtigsten Beispielen gehören das Sieb des Eratosthenes zum Auffinden von Primzahlen, welches im Buch "Einführung in die Arithmetik" von Nikomachos beschrieben wurde und der euklidische Algorithmus zum Berechnen des größten gemeinsamen Teilers zweier natürlicher Zahlen aus dem Werk „die Elemente“. Einer der ältesten Algorithmen, die sich mit einer reellen Zahl beschäftigen, ist der zur Approximation von formula_1, was zugleich auch eines der ältesten numerischen Verfahren ist.
Mathematik im 19. und 20. Jahrhundert.
Bedeutende Arbeit leisteten die Logiker des 19. Jahrhunderts. George Boole, der in seiner Schrift "The Mathematical Analysis of Logic" den ersten algebraischen Logikkalkül erschuf, begründete damit die moderne mathematische Logik, die sich von der traditionellen philosophischen Logik durch eine konsequente Formalisierung abhebt. Gottlob Frege entwickelte als erster eine formale Sprache und die daraus resultierenden formalen Beweise. Giuseppe Peano reduzierte die Arithmetik auf eine Sequenz von Symbolen manipuliert von Symbolen. Er beschäftigte sich mit der Axiomatik der natürlichen Zahlen. Dabei entstanden die Peano-Axiome.
Die Arbeit von Frege wurde stark von Alfred North Whitehead und Bertrand Russell in ihrem Werk Principia Mathematica weiter ausgearbeitet und vereinfacht. Zuvor wurde von Bertrand Russell die berühmte russellsche Antinomie formuliert, was zum Einsturz der naiven Mengenlehre führte. Das Resultat führte auch zur Arbeit Kurt Gödels.
David Hilbert hat um 1928 das Entscheidungsproblem in seinem Forschungsprogramm präzise formuliert. Alan Turing und Alonzo Church haben für das Problem 1936 festgestellt, dass es unlösbar ist. |
345 | 278315 | https://de.wikipedia.org/wiki?curid=345 | Arabische Sprache | Die arabische Sprache (kurz Arabisch; Eigenbezeichnung , kurz , ) ist die am weitesten verbreitete Sprache des semitischen Zweigs der afroasiatischen Sprachfamilie und in ihrer Hochsprachform eine der sechs Amtssprachen der Vereinten Nationen. Schätzungsweise wird Arabisch von 313 Millionen Menschen als Muttersprache und von weiteren 424 Millionen als Zweit- oder Fremdsprache gesprochen. Auch durch seine Rolle als Sakralsprache entwickelte sich das Arabische zur Weltsprache. Die moderne arabische Standardsprache beruht auf dem klassischen Arabischen, der Sprache des Korans und der Dichtung, und unterscheidet sich stark von den gesprochenen Varianten des Arabischen.
Aus dem klassischen Arabisch hat sich in den letzten anderthalb Jahrtausenden eine Vielzahl von Dialekten entwickelt. Für alle Sprecher dieser Sprache, außer den Sprechern des Maltesischen, ist Hocharabisch Schrift- und Dachsprache. Das Maltesische ist mit den maghrebinisch-arabischen Dialekten stark verwandt, wurde jedoch im Gegensatz zu den anderen gesprochenen Formen des Arabischen zu einer eigenständigen Standardsprache ausgebaut. Ob Hocharabisch als moderne Standardsprache zu betrachten ist, ist umstritten (siehe auch Ausbausprache). Es fehlt oft an einem einheitlichen Wortschatz für viele Begriffe der modernen Welt sowie am Fachwortschatz in vielen Bereichen moderner Wissenschaften. Darüber hinaus ist Hocharabisch innerhalb der einzelnen arabischen Länder relativ selten ein Mittel zur mündlichen Kommunikation.
Die einzelnen arabischen Dialekte in den verschiedenen Ländern unterscheiden sich teilweise sehr stark voneinander, wenn auch meist nur in der Aussprache, und sind bei vorliegender geographischer Distanz gegenseitig nicht oder nur schwer verständlich. So werden beispielsweise algerische Filme, die im dortigen Dialekt gedreht worden sind, zum Teil hocharabisch untertitelt, wenn sie in den Golfstaaten ausgestrahlt werden.
Verbreitungsgebiet.
Varianten des Arabischen werden von etwa 370 Millionen Menschen gesprochen und damit weltweit am sechsthäufigsten verwendet. Es ist Amtssprache in folgenden Ländern: Ägypten, Algerien, Bahrain, Dschibuti, Irak, Jemen, Jordanien, Katar, Komoren, Kuwait, Libanon, Libyen, Mali, Marokko, Mauretanien, Niger, Oman, Palästinensische Autonomiegebiete, Saudi-Arabien, Somalia, Sudan, Syrien, Tschad, Tunesien, Vereinigte Arabische Emirate und Westsahara. Verkehrssprache ist es in Eritrea, Sansibar (Tansania), Südsudan, wird von muslimischen Bevölkerungsteilen in Äthiopien gesprochen und gewinnt auf den Malediven an Bedeutung. Darüber hinaus ist es eine der sechs offiziellen Sprachen der Vereinten Nationen.
In allerneuester Zeit gewinnt das gesprochene Hocharabische wieder an Zuspruch. An dieser Entwicklung maßgeblich beteiligt sind die panarabischen Satellitensender, z. B. "al-Dschazira" in Katar. Allerdings ist Hocharabisch (fuṣḥā) auf allgemeiner Kommunikationsebene nicht vorherrschend, vielmehr bewegen sich die Sprachformen in den Registern der sog. "ʾal-luġa ʾal-wusṭā", also als eine „mittlere Sprache“ (Mittelarabisch) zwischen Hocharabisch und Dialekt.
Durch die im arabischen Verbreitungsgebiet dominierende ägyptische Film- und Fernsehproduktion (u. a. bedingt durch die Bevölkerungszahl) gilt der gesprochene Kairoer Dialekt in den jeweiligen Gesellschaften gemeinhin als verständlich, ist sozusagen „gemeinsprachlich“ etabliert. Gewöhnliche Filme auf Hocharabisch zu drehen, ist eher unüblich, da diese Sprachnorm generell ernsteren Themen vorbehalten ist, wie sie z. B. in Fernseh- und Rundfunknachrichten, religiösen Sendungen oder Gottesdiensten vorkommen.
Auf dem "Power Language Index" von Kai L. Chan belegt die Arabische Hochsprache den fünften Platz der mächtigsten Sprachen der Welt.
Klassifikation.
Das klassische Hocharabisch unterscheidet sich nur geringfügig von der altarabischen Sprache. Durch Vergleiche verschiedener semitischer Sprachen lässt sich oft die Herkunft eines Wortes ermitteln. Beispielsweise entspricht das arabische Wort "laḥm" (Fleisch) dem hebräischen "lechem", das jedoch "Brot" bedeutet. So bedeutet Bethlehem im Hebräischen "Haus des Brotes", die entsprechende arabische Ortsbezeichnung "Bayt Laḥm" hingegen "Haus des Fleisches". Die Wortwurzel bezeichnet somit ursprünglich ein Grundnahrungsmittel.
Lange betrachteten viele Semitisten das klassische Arabisch als die ursprünglichste semitische Sprache überhaupt. Erst allmählich stellt sich durch Vergleiche mit anderen afro-asiatischen Sprachen heraus, dass Hocharabisch viele Möglichkeiten konsequent ausgebaut hat, die in der Grammatik früherer semitischen Sprachen bereits angelegt waren. So hat es einen umfangreichen semitischen Wortschatz bewahrt und ihn darüber hinaus erweitert. Die heutigen Dialekte waren vielen Veränderungen unterworfen, wie sie andere semitische Sprachen schon sehr viel früher (vor etwa 2000 bis 3000 Jahren) erfahren hatten.
Geschichte.
Schon im vorislamischen Arabien existierte eine reichhaltige Dichtersprache, die in Gedichtsammlungen wie den Mu'allaqat auch schriftlich überliefert ist. Auf dieser Dichtersprache fußt zum Teil das Arabische des Korans, das immer noch altertümlich geprägt ist und einen synthetischen Sprachbau aufweist. Wohl erst nachträglich hat man den Konsonantentext des Korans durch Zusatzzeichen für neue nichtarabische Muslime lesbarer gemacht. In frühislamischer Zeit wurden viele Gedichte dieser Sprache schriftlich festgehalten. Bis heute ist das Auswendiglernen von Texten ein wichtiger Bestandteil der islamischen Kultur. So werden bis heute Menschen sehr geachtet, die den gesamten Koran auswendig vortragen können ("Hāfiz"/"Ḥāfiẓ"). Dies ist ein Grund, warum Koranschulen in der muslimischen Welt (insbesondere Pakistan) weiter einen regen Zustrom erfahren.
Das klassische Hocharabisch ist insbesondere die Sprache des Korans, die sich aus dem Zentrum der arabischen Halbinsel, dem Hedschas, im Zuge der islamischen Eroberungen über den ganzen Vorderen Orient verbreitete. Kalif Abd al-Malik, der Erbauer des Felsendoms in Jerusalem, erhob um 700 diese Form des Arabischen zur offiziellen Verwaltungssprache des islamischen Reiches.
Die islamische Expansion führte zur Aufspaltung des Arabischen in eine "klassische", auf dem Koran beruhende Schriftsprache, und in die lexikalisch und grammatisch untereinander sehr unterschiedlichen arabischen Dialekte, die einen analytischen Sprachbau aufweisen und ausschließlich dem mündlichen Gebrauch vorbehalten sind. Bis heute wird jede neue Generation von Arabischsprechern in diese Diglossie hineingeboren.
Hocharabisch wird heute als Muttersprache kaum mehr gesprochen. Doch wird es, lediglich mit Wortschatzänderungen, schriftlich mittels Bücher und Zeitungen noch benutzt (außer in Tunesien, Marokko und in etwas geringerem Maße in Algerien, wo sich das Arabische diese Rolle mit dem Französischen teilt). Im wissenschaftlich-technischen Bereich wird in den anderen arabischen Ländern aus Mangel an spezifischem Fachwortschatz neben Französisch oft auch Englisch gebraucht.
Bei offiziellen Anlässen wird die in der Regel nur geschriebene Sprache auch verbal verwendet. Diese Sprache wird deshalb häufig als modernes Hocharabisch bezeichnet. Sie unterscheidet sich vom klassischen Hocharabisch vor allem in Wortschatz und je nach Bildungsgrad des Sprechers teilweise auch in Grammatik und Aussprache.
"Siehe auch:" Arabische Literatur.
Phonologie.
Das hocharabische Lautsystem ist wenig ausgeglichen. Es gibt nur drei mit den Lippen gebildete Laute, , und ; und fehlen. Dagegen gibt es sehr viele an den Zähnen gebildete Laute. Charakteristisch sind die emphatischen (pharyngalisierten) Konsonanten [], [], [] und [] (angegeben ist die IPA-Lautschrift). Der kehlige, raue Lauteindruck des Arabischen entsteht durch die zahlreichen Gaumen- und Kehllaute wie dem tief in der Kehle gesprochenen oder dem Kehlkopf-Presslaut („ʿAin“) und dessen stimmloser Variante („Ḥā'“). Der Knacklaut („Hamza“) ist ein vollwertiges Phonem.
Vokale.
Im Hocharabischen existieren nur die drei Vokale "a", "i" und "u", die jeweils kurz oder lang sein können, sowie die zwei Diphthonge "ai" und "au". Die Aussprache der Vokale wird von den umgebenden Konsonanten beeinflusst und variiert stark. Beispielsweise sind , und mögliche Allophone des Phonems "/a/".
Konsonanten.
Das Hocharabische verfügt über 28 Konsonantenphoneme. Die Halbvokale und werden in der Grammatiktradition der westlichen Arabistik als „konsonantische Vokale“ gezählt. Alle Konsonanten können geminiert (verdoppelt) vorkommen.
1) Die velarisierte („dunkle“) Variante existiert als eigenständiges Phonem nur im Wort Allah []. Sie tritt ansonsten in manchen Dialekten als Allophon von in der Umgebung von emphatischen Konsonanten auf, z. B. "sulṭān" [], im Standard jedoch nicht.
Silbenstruktur.
Im klassischen Arabischen gibt es offene bzw. kurze Silben der Form KV und geschlossene bzw. lange Silben der Form KV̅ oder KVK (K steht für einen Konsonanten, V für einen Kurzvokal, V̅ für einen Langvokal). Nach dem Langvokal "ā" und nach "ay" kann auch ein verdoppelter Konsonant stehen und eine überlange Silbe KV̅K verursachen (z. B. "dābba" „Tier“).
Im modernen Hocharabischen ändert sich die Silbenstruktur, weil die klassischen Endungen meist weggelassen werden. Dadurch sind am Wortende neben den langen auch überlange Silben der Form KV̅K und KVKK möglich (z. B. "bāb", aus "bābun" „Tür“ oder "šams", aus "šamsun" „Sonne“).
Da eine Silbe nur mit einem einzelnen Konsonanten beginnt, können am Wortanfang keine Konsonantenverbindungen stehen. Bei älteren Lehnwörtern werden anlautende Konsonantenverbindungen durch einen vorangesetzten Hilfsvokal beseitigt (z. B. "usṭūl" „Flotte“, aus ). Bei neueren Lehnwörtern wird ein Vokal zwischen die anlautenden Konsonanten geschoben (z. B. "faransā" „Frankreich“, während frühere Entlehnungen von „Franken“ als "ʾifranǧ" wiedergegeben wurden).
Betonung.
Da die arabische Schrift die Betonung nicht notiert und die mittelalterlichen Grammatiker sich zur Betonung an keiner Stelle geäußert haben, kann man strenggenommen keine sicheren Aussagen über die Betonung des historischen klassischen Arabisch machen. Diesbezügliche Empfehlungen in Lehrbüchern beruhen auf der Betonung, die von modernen Sprechern auf das klassische Arabisch angewandt wird, wobei man sich in Europa gewöhnlich an den Aussprachegewohnheiten im Raum Libanon/Syrien orientiert. In Gebieten wie z. B. Marokko oder Ägypten werden klassisch-arabische Texte mit durchaus anderer Betonung gelesen.
Nach der üblichen Auffassung ist die Wortbetonung im Arabischen nicht bedeutungsunterscheidend und auch zum Teil nicht genau festgelegt. Generell ziehen lange Silben den Ton auf sich. Für das klassische Arabisch gilt, dass die Betonung auf der vor- oder drittletzten Silbe liegen kann. Die vorletzte Silbe wird betont, wenn sie geschlossen bzw. lang ist (z. B. "faʿáltu" „ich tat“); ansonsten wird die drittletzte Silbe betont (z. B. "fáʿala" „er tat“).
Im modernen Hocharabischen kann durch den Ausfall der klassischen Endungen auch die letzte Silbe betont werden (z. B. "kitā́b", aus "kitā́bun" „Buch“). Teilweise verschiebt sich die Betonung weiter nach vorne (z. B. "mádrasa" statt "madrásatun" „Schule“; die in Ägypten übliche Aussprache dieses Wortes ist aber z. B. "madrása", in Marokko hört man "madrasá"). Das marokkanische Arabisch ist im Gegensatz zum klassischen Arabisch und zu den anderen modernen Dialekten eine Tonsprache.
Dialektale Variation.
Die Phonologie der neuarabischen Dialekte unterscheidet sich stark von der des klassischen Arabischen und des modernen Hocharabischen. Die "i" und "u" werden teils als und gesprochen. Die meisten Dialekte monophthongisieren "ay" und "aw" zu [] und [], wodurch die Dialekte über fünf statt drei Vokalphoneme verfügen. Kurze Vokale werden oft zum Schwa reduziert oder fallen völlig aus. Dadurch sind in manchen Dialekten auch Konsonantenhäufungen am Wortanfang möglich. Beispiel: für baḥr: bḥar (Meer); für laḥm: lḥam (Fleisch) im tunesischen Dialekt, wobei die geöffnete bzw. geschlossene Silbe ausgetauscht wird.
Die Dialekte haben zum Teil Konsonanten des Hocharabischen verloren, zum Teil haben sie auch neue Phoneme entwickelt. Die Laute [] und [] fallen in nahezu sämtlichen Dialekten zu einem Phonem zusammen, dessen Aussprache regional variiert. Der Laut hat in einigen Dialekten seinen Phonemstatus verloren, in vielen anderen Dialekten ersetzt er das Qāf. Vor allem in Stadt-Dialekten, jedoch auch in Bauern-Dialekten sind und zu und geworden, in Beduinen-Dialekten werden sie meist noch unterschieden. Bei Buchwörtern aus dem Hocharabischen werden sie aber als und ausgesprochen. Das hocharabische wird auf unterschiedliche Arten realisiert, unter anderem in Ägypten als und in Teilen Nordafrikas und der Levante als . Das hocharabische wird in Teilen Ägyptens und der Levante als gesprochen, in einigen anderen Dialekten hat es sich zu entwickelt. Oft wird jedoch die Aussprache bei Wörtern aus dem Hocharabischen beibehalten, so dass die Phoneme und parallel existieren. Einige Dialekte haben durch Lehnwörter aus anderen Sprachen fremde Phoneme übernommen, z. B. die Maghreb-Dialekte den Laut aus dem Französischen oder das Irakisch-Arabische den Laut aus dem Persischen.
Schrift.
Geschrieben wird das Arabische von rechts nach links mit dem arabischen Alphabet, das nur Konsonanten und Langvokale kennt. Es gibt allerdings als Lern- und Lesehilfe ein nachträglich hinzugefügtes System mit Kennzeichen (Taschkīl) für die Kurzvokale A, I und U, und das in der klassischen Grammatik wichtige End-N, Konsonantenverdopplungen und Konsonanten ohne nachfolgenden Vokal. Der Koran wird immer mit allen Zusatzzeichen geschrieben und gedruckt. Grundsätzlich wäre das vokalisierte und mit Zusatzzeichen versehene Schriftarabisch gleichzeitig eine präzise Lautschrift, diese wird jedoch fast nur für den Koran genutzt. Bei allen anderen Texten muss die grammatische Struktur vollständig bekannt sein, um korrekt auf die zutreffenden Kurzvokale und Endungen schließen zu können.
Die arabische Schrift ist eine Kurrentschrift, die sich im Laufe der Geschichte verschliffen hat. Da die Buchstaben in einem Wort verbunden werden, gibt es bis zu vier verschiedene Formen eines Buchstabens: allein stehend, nach rechts verbunden, nach links verbunden und beidseitig verbunden. Als immer mehr Buchstaben in der Gestalt zusammenfielen, entwickelte man ein System, diese durch Punkte über und unter den Konsonanten zu unterscheiden. Alte Formen der arabischen Schrift, wie "Kufi" (), benutzen noch keine Punkte. Im Laufe der Zeit wurde Kufi mehr und mehr durch die Kursive "Naschī" () ersetzt.
Aussprache.
In vielen islamischen Ländern gibt es Bestrebungen, sich bei der Aussprache der modernen Hochsprache am klassischen Hocharabisch zu orientieren. Grundlage dabei ist meistens der Aussprachestandard der Koranrezitation (ar. "tilāwa" ), die weitgehend kodifiziert ist und in modernen Korandrucken auch durch Diakritika wiedergegeben wird. Diese Ausspracheform genießt ein hohes Prestige, wird allerdings in der Regel nur im religiösen Kontext verwendet.
Die frühere Aussprache des Hocharabischen ist nicht mit Sicherheit in allen Einzelheiten bekannt. Ein typischer Fall, in dem bis heute keine völlige Klarheit über die Aussprachenormen des klassischen Hocharabisch besteht, ist die so genannte Nunation, also die Frage, ob die Kasusendungen bei den meisten unbestimmten Nomina auf "n" auslauten oder nicht ("kitābun" oder "kitāb"). Für beide Varianten lassen sich Argumente finden, und da in alten Handschriften das Vokalzeichen der Endung nicht geschrieben wurde, bleibt diese Frage strittig.
Grammatik.
Der Artikel.
Das Arabische kennt indeterminierte (unbestimmte) und determinierte (bestimmte) Nomina, die sich in der Hochsprache (nicht mehr im Dialekt) durch ihre Endungen unterscheiden. Indeterminierte Nomina erhalten, sofern sie nicht diptotisch flektiert werden (siehe unter Kasus), die Nunation. Determiniert wird ein Nomen vor allem durch den vorangestellten Artikel "al-" (, dialektal oft "el-" oder "il-"), welcher in seiner Form zwar unveränderlich ist, aber nach einem Vokal im Satzinneren ohne Stimmabsatz (Hamza) gesprochen wird (siehe Wasla). Außerdem kommt es (beim Sprechen) zu einer Assimilation des im Artikel enthaltenen "l" an den nachfolgenden Laut, wenn es sich bei diesem um einen sogenannten Sonnenbuchstaben handelt (Bsp.: "asch-schams" – „die Sonne“ – statt "al-schams"). Bei Mondbuchstaben bleibt der Artikel "al-" und der nachfolgende Laut wird nicht verdoppelt (Bsp.: "al-qamar" – „der Mond“ – in diesem Fall keine Assimilation). Determiniert ist ein Wort auch im Status constructus (, wörtl. „Hinzufügung, Annexion“) durch einen nachfolgenden (determinierten) Genitiv oder ein angehängtes Personalsuffix; ferner sind auch viele Eigennamen (z. B. , "Lubnan" – Libanon) ohne Artikel determiniert.
Ein Beispiel: , "al-qamar(u)" – „der Mond“ im Gegensatz zu , "qamar(un)" – „ein Mond“
Das Genus.
Im Arabischen gibt es zwei Genera (Geschlechter): das Femininum (weiblich) und das Maskulinum (männlich). Die meisten weiblichen Wörter enden auf "a", das – so es sich um ein Tā' marbūta handelt – im Status constructus zu "at" wird. Weibliche Personen (Mutter, Schwester etc.), die meisten Eigennamen von Ländern und Städten sowie die Namen doppelt vorhandener Körperteile (Fuß – qadam; Hand – yad; Auge -ʿayn) sind auch ohne weibliche Endung weiblich. Das Gleiche gilt für einige weitere Substantive wie z. B. die Wörter für „Wind“ "(rīḥ)", „Feuer“ "(nār)", „Erde“ "(arḍ)" oder „Markt“ "(sūq)".
Beispiele:
Der Numerus.
Es gibt drei Numeri: Singular (Einzahl), Dual (Zweizahl) und Plural (Mehrzahl). Im ägyptischen Dialekt wurde jedoch der Dual größtenteils abgeschafft. Auf der anderen Seite haben einige Substantive für Zeiteinheiten nicht nur den Dual bewahrt, sondern als vierten Numerus noch einen gesonderten Zählplural ausgebildet, z. B. „Tag“: Singular "yōm", Dual "yōmēn", Plural "ayyām", Plural nach Zahlwörtern "tiyyām".
Das Kollektivum.
Das Arabische kennt auch ein Kollektivum, das u. a. bei Obst- und Gemüsesorten vorkommt. Ein Beispiel hierfür ist ; um den Singular eines Kollektivums zu bilden, wird ein Tā' marbūta angehängt: .
Der Kasus.
Man unterscheidet drei Fälle: Nominativ (al-marfūʿ; auf -u endend), Genitiv (al-maǧrūr; auf -i endend) und Akkusativ (al-manṣūb; auf -a endend), die meist durch die kurzen Vokale der Wortendungen (im Schriftbild durch orthographische Hilfszeichen) markiert werden. Die meisten Nomina werden triptotisch flektiert, d. h., sie weisen den drei Kasus entsprechend drei unterschiedliche Endungen auf (determiniert: "-u, -i, -a"; indeterminiert: "-un, -in, -an"). Daneben gibt es Diptota – Nomina, bei denen die Genitivendung im Status indeterminatus gleich der Akkusativendung -a lautet (die beiden Kasus werden formal nicht unterschieden) und die keine Nunation haben ("-u, -a, -a"). Diptotisch flektiert werden vor allem Adjektive der Grundform "afʿal" (darunter Farbadjektive wie "aḥmar-u, aḥmar-a – rot") und bestimmte Pluralstrukturen (wie "faʿāʾil", Bsp.: "rasāʾil-u, rasāʾil-a – Briefe").
Der Genitiv folgt beispielsweise immer nach Präpositionen (z. B. "fi ’l-kitābi – in dem Buch") und in einer Genitivverbindung auf das Nomen regens (Bsp.: "baitu ’r-raǧuli – das Haus des Mannes").
Die arabische Sprache unterscheidet nicht wie das Deutsche zwischen einem direkten (Akkusativ-)Objekt und einem indirekten (Dativ-)Objekt. Stattdessen kann die Konstruktion aus Präposition und Genitiv im Deutschen häufig mit dem Dativ wiedergegeben werden.
Beispiel: fi ’l- baiti – in dem Haus
Das Verb.
Die wirkliche Komplexität der arabischen Sprache liegt in der Vielfalt ihrer Verbalformen und der daraus abgeleiteten Verbalsubstantive, Adjektive, Adverbien und Partizipien. Jedes arabische Verb verfügt mit dem Perfekt und dem Imperfekt zunächst über zwei Grundformen, von denen erstere eine vollendete Handlung in der Vergangenheit ausdrückt (Beispiel: "kataba – er schrieb/hat geschrieben"), letztere hingegen eine unvollendete im Präsens oder Futur ("yaktubu – er schreibt/wird schreiben"). Das Futur (I) kann aber auch durch Anhängen des Präfixes "sa-" oder durch die Partikel "saufa" vor dem Imperfekt gebildet werden ("sayaktubu/saufa yaktubu – er wird schreiben"). Zudem kennt das Arabische gleichfalls eine Art Verlaufsform der Vergangenheit ("kāna yaktubu – er pflegte zu schreiben") und die beiden Zeitstufen Futur II ("yakūnu qad kataba – er wird geschrieben haben") und Plusquamperfekt ("kāna qad kataba – er hatte geschrieben"), die allerdings in erster Linie in geschriebenen Texten vorkommen. Das Imperfekt gliedert sich in die Modi Indikativ "(yaktubu)", Konjunktiv "(yaktuba)", Apokopat "(yaktub)" und Energikus ("yaktubanna" oder "yaktuban"). Der Konjunktiv kommt u. a. nach Modalverben (z. B. arāda – wollen) im Zusammenhang mit ʾan (dass) oder als negierte Form des Futurs mit der Partikel lan (lan yaktuba – er wird nicht schreiben) vor. Der Apokopat wird zumeist als Verneinung der Vergangenheit zusammen mit der Partikel lam verwendet (lam yaktub – er schrieb nicht). Der Energikus kann häufig mit der Konstruktion fa+l(i) gebildet werden ((fal-)yaktubanna- er soll/ muss schreiben). Eine weitere wichtige Form ist das Verbalsubstantiv ("kitābatun – das Schreiben"). Die Bildung der Verbalsubstantive erfolgt bis auf den Grundstamm nach einem festen Schema, d. h., die Verbalsubstantive der Stämme II – X lassen sich bis auf wenige Ausnahmen nach bestimmten Stammbildungsmorphemen ableiten (Bsp.: "tafʿīl" für den II. Stamm, "mufāʿala"/"fiʿāl" für den III. Stamm usw.).
Bsp.: "nāqaša" (III) – diskutieren → "munāqaša"/"niqāš" – Dialog; Diskussion
Viele Verben existieren in mehreren von insgesamt 15, durch Umbildung der Wurzel abgeleiteten Stämmen, die jeweils bestimmte Bedeutungsaspekte (z. B. intensivierend, kausativ, denominativ, aktiv oder passiv, transitiv oder intransitiv, reflexiv oder reziprok) haben können. Von diesen 15 Stämmen werden in der heutigen arabischen Schriftsprache allerdings nur neun regelmäßig verwendet, die Stämme IX und XI–XV kommen nur selten vor. Der 9. Stamm wird hauptsächlich verwendet, um die Verben für Farben bzw. körperliche Eigenschaften zu bezeichnen:
"iḥmarra" (von "aḥmar") – „erröten“, „rot werden“
"iḥwalla" (von "aḥwal") – „schielen“
Die Übersetzung der Verben der Stämme II – X kann teilweise durch bestimmte Regeln erfolgen. Bei der Ableitung eines Verbs vom Grundstamm kann z. B. der 3. Stamm eine Tätigkeit bezeichnen, die mit oder durch eine Person geschieht, während der 7. Stamm oft ein Passiv ausdrückt:
"kātaba" (III) – „korrespondieren mit jmdm.“
Jeder Stamm weist bestimmte Eigenschaften auf, z. B. ein Präfix, Verlängerung, Änderung oder Wegfall eines Vokals oder auch Dehnung (Gemination) des mittleren Radikals (d. h. Wurzelkonsonanten). Die Art und Reihenfolge dieser Konsonanten, mit Ausnahme sogenannter schwacher Radikale, ändern sich hingegen innerhalb einer Wortfamilie nie. Die meisten Verbformen lassen sich schematisch ableiten.
Eine Eigenheit der arabischen Grammatik erleichtert die mündliche Wiedergabe des Hocharabischen sehr: Am Ende eines Satzes fällt im Hocharabischen die Vokalendung meist weg. Man nennt diese Form „Pausalform“. Nun werden aber die drei Fälle und auch zum Teil die Modi gerade durch diese Endungen ausgedrückt, die bei einer Sprechpause wegfallen. Deshalb benutzen viele Sprecher, wenn sie modernes Hocharabisch sprechen, sehr häufig diese „Pausalform“ und ersparen sich so einen Teil der manchmal komplizierten Grammatik. Das komplizierte System der Verbformen ist in vielen Dialekten noch weitestgehend erhalten, sodass die Dialektsprecher damit weniger Schwierigkeiten haben. Obwohl wie unten beschrieben die Bedeutung eines Wortes meist an den Konsonanten hängt, sind es gerade die kurzen Vokale, die einen großen Teil der komplizierten Grammatik ausmachen.
Das Arabische ist eine Sprache, in der die Verben „sein“ und „haben“ viel unvollständiger als im Deutschen ausgebildet sind. Häufig sind im Präsens verblose Nominalsätze: "ʾanā kabīr" – „ich [bin] groß“; nur zur Verstärkung oder wenn die Syntax es formal notwendig macht (z. B. nach der Konjunktion أن "ʾan" – „dass“) wird – wie in der Zeitstufe der Vergangenheit – das temporale Hilfsverb "kāna" für „sein“ gebraucht. Ein Nominalsatz (ohne Kopula) wird im Präsens mit der flektierbaren Negation "laisa" („nicht sein“) verneint. Das Verb „haben“ existiert gar nicht, es wird stattdessen durch die Präpositionen "li-" („für“), "fī" („in“), "maʿa" („mit“) und besonders "ʿinda" („bei“) + Personalsuffix ebenfalls als Nominalsatz ausgedrückt: "ʿindī…" – „bei mir [ist]…“ = „ich habe…“; verneint: "laisa ʿindī…" – „bei mir [ist] nicht…“ = „ich habe nicht…“.
Da ferner das Arabische relativ wenige eigenständige Adverbien (im Deutschen wären das z. B. „noch“, „fast“, „nicht mehr“ etc.) besitzt, enthalten manche Verben neben ihrer ursprünglichen Bedeutung auch noch eine adverbiale Bedeutung. Diese Verben können im Satz alleine oder in Verbindung mit einem anderen Verb im Imperfekt stehen, z. B. "mā zāla" (wörtlich: „nicht aufgehört haben“) – ((immer) noch (sein)) oder "kāda" (fast/beinahe (sein)).
In manchen Dialekten werden diese Adverbien anders ausgedrückt. So heißt "noch" in Ägypten "lissa" oder "bardu". (Entsprechend lautet der Satz "Er schreibt (immer) noch." in ägyptischem Arabisch "lissa biyiktib.")
Eine weitere Verbkategorie sind die Zustandsverben (z. B. "kabura" – „groß sein“, "ṣaġura" – „klein sein“), welche ein Adjektiv verbalisieren und anstelle eines Nominalsatzes verwendet werden können. Das Wortmuster dieser Verben ist häufig "faʿila" oder "faʿula". Diese Kategorie enthält einen großen Wortschatz, wird aber im Vergleich zu den Verben, welche eine Aktion ausdrücken (z. B. "ʾakala" – „essen“), seltener benutzt.
Verbalstamm: Wurzelkonsonant.
Arabische Wörterbücher sind häufig so angelegt, dass die einzelnen Wörter nach ihren Wurzeln, also quasi ihren „Wortfamilien“, geordnet sind. Daher ist es beim Erlernen des Arabischen wichtig, die Wurzelkonsonanten eines Wortes identifizieren zu können. Der überwiegende Teil der Wörter hat drei Wurzelkonsonanten, einige auch vier. Durch das Abtrennen bestimmter Vor-, Zwischen- und Endsilben erhält man die Wurzel eines Wortes. Gerade Anfänger sollten solche nach Wurzeln geordneten Wörterbücher benutzen, da der Gebrauch „mechanisch-alphabetisch“ geordneter Lexika bei geringen Grammatikkenntnissen oft dazu führt, dass eine Form nicht erkannt und falsch übersetzt wird.
Präpositionen.
Im Arabischen gibt es streng genommen nur drei Wortarten: Nomen (اِسْم), Verb (فِعْل) und Präposition (حَرْف). Präpositionen, die wir aus dem Deutschen oder Englischen kennen, sind im Arabischen Adverbien. Es gibt so genannte "echte Präpositionen", Wörter, die im Arabischen مَبْنِيّ (undeklinierbar) genannt werden, weil sie unveränderlich sind. Ein Beispiel ist das Wort فِي.
Echte Präpositionen.
Zu den echten Präpositionen zählen:
Ist مَعَ („mit“) eine Präposition (حَرْف)?
Auf diese Frage gibt es keine eindeutige Antwort. Die meisten Grammatiker jedoch sehen مع als „Nomen“ (اِسْم), weil das Wort مع Nunation (تَنْوِين) erhalten kann. Zum Beispiel: Sie kamen gemeinsam – جاؤوا مَعًا
Eine Präposition (حَرْف) ist per Definition مَبْنِيّ, kann also keinesfalls Nunation bekommen. Deshalb ist das Wort مع ein Adverb der Zeit oder des Orts (ظَرْف مَكان; ظَرْف زَمان), Grammatiker sagen auch: اِسْم لِمَكان الاِصْطِحاب أَو وَقْتَهُ
Wortschatz.
Die meisten arabischen Wörter bestehen aus drei Wurzelkonsonanten (Radikalen). Daraus werden dann verschiedene Wörter gebildet, beispielsweise kann man unter anderem aus den drei Radikalen K-T-B folgende Wörter und Formen bilden:
Im klassischen Hocharabisch treten noch die meist nicht geschriebenen Endungen -a, -i, -u, -an, -in, -un, -ta, -ti, -tu, -tan, -tin, -tun oder auch keine Endung auf. Für das T in den Endungen siehe Tā' marbūta; für das N in diesen Endungen siehe Nunation.
Der Wortschatz ist zwar extrem reich, aber oft nicht klar normiert und mit Bedeutungen aus der Vergangenheit überfrachtet. So gibt es zum Beispiel kein Wort, das dem europäischen Wort „Nation“ relativ genau entspricht. Das dafür gebrauchte Wort (, "Umma") bedeutete ursprünglich und im religiösen Kontext bis heute „Gemeinschaft der Gläubigen (Muslime)“; oder z. B. „Nationalität“ (, "ǧinsiyya") eigentlich „Geschlechtszugehörigkeit“ im Sinne von „Sippenzugehörigkeit“ – „Geschlechtsleben“ z. B. heißt (, "al-ḥayāt al-ǧinsiyya"), wobei "al-ḥayāt" „das Leben“ heißt. Das Wort für „Nationalismus“ (, "qaumiyya") bezieht sich ursprünglich auf die Rivalität von „(Nomaden-)Stämmen“ und kommt von "qaum", was ursprünglich und bis heute oft noch „Stamm“ im Sinne von „Nomadenstamm“ bedeutet. So überlagern sich oft in einem Wort sehr alte und sehr moderne Konzepte, ohne dass das eine über das andere obsiegen würde. „Umma“ z. B. gewinnt wieder mehr seine alte religiöse Bedeutung zurück. Es gibt durch Kontakt mit klassischen Kulturen zahlreiche alte Lehnwörter aus dem Aramäischen und Griechischen und seit dem 19. Jahrhundert viele neuere aus dem Englischen und Französischen.
Die häufigsten Wörter.
Wie in anderen Sprachen sind auch im Arabischen die Strukturwörter am häufigsten. Je nach Zählmethode und Textkorpus erhält man unterschiedliche Ergebnisse.
Eine Studie der Universität Riad kommt zu folgendem Ergebnis:
Die vorstehende Liste enthält weder monomorphematische Wörter noch Personalsuffixe. In einer anderen Wortliste sind diese berücksichtigt:
Beide Zählungen lassen den bestimmten Artikel "al-" (der, die, das) außer Acht.
Das häufigste Substantiv, das im Deutschen eine substantivische Entsprechung hat, ist laut der Riader Studie يوم "yaum" („Tag“), das häufigste Adjektiv كبير "kabīr" („groß“).
Sprachbeispiel.
Allgemeine Erklärung der Menschenrechte:
Übersetzungen.
Übertragungen ins Arabische erfolgen meist aus dem Englischen und Französischen, oft aus dem Spanischen sowie zur Zeit der Sowjetunion aus dem Russischen. Selten sind Übertragungen aus anderen europäischen Sprachen wie auch aus dem Japanischen, Chinesischen, Persisch, Türkisch und Hebräisch. So liegen zum Beispiel Werke von Jürgen Habermas lediglich in einer in Syrien erschienenen Übertragung aus dem Französischen vor. Einige Werke von Friedrich Nietzsche, ebenfalls aus dem Französischen, wurden in Marokko verlegt. In Syrien erschien "Der Antichrist" von Nietzsche in einer Übersetzung aus dem Italienischen. Die Buchmesse Kairo, zweitgrößte der Welt für den arabischen bzw. nordafrikanischen Raum, ist staatlich.
Arabisch lernen.
Zahlreiche deutschsprachige Universitäten und gemeinnützige Weiterbildungseinrichtungen bieten Kurse für Arabisch als Fremdsprache an, z. B. als Teil der Orientalistik, Theologie, oder eben der Arabistik, der Wissenschaft der arabischen Sprache und Literatur. Das Interesse für Arabisch als Fremdsprache beruht unter anderem darauf, dass es die Sprache des Koran ist und alle islamischen Begriffe in ihrem Ursprung arabisch sind. In muslimischen Schulen weltweit gehört Arabisch zum Pflichtprogramm. Es gibt eine Vielzahl von Arabisch-Sprachschulen, wobei sich die meisten im arabischsprachigen Raum oder auch in nichtarabischen muslimischen Regionen befinden.
Didaktik.
Für westliche Lerner des Arabischen ist das erste große Hindernis die arabische Schrift. Im deutschsprachigen Raum wird vor allem auf das Erlernen des Modernen Standard-Arabisch (MSA) gezielt, das im Unterschied zu den arabischen Dialekten auch geschrieben wird. Seine Mutterform, "Fusha", gilt als Sakralsprache und beachtet die sog. Nunation, worauf beim MSA größtenteils verzichtet wird.
Da die arabische Schrift eine Konsonantenschrift ist und mit Ausnahme von Lehrbüchern und Korantexten ohne Vokalisierung geschrieben wird, nimmt das Erlernen des geschriebenen Wortschatzes unverhältnismäßig viel Zeit in Anspruch, verglichen mit den Alphabetschriften anderer Sprachen. Auch in arabischsprachigen Ländern wird in den ersten zwei Schuljahren ausnahmslos alles mit Vokalisation geschrieben.
Was die Grammatik des modernen Standard-Arabischen betrifft, so wirkt sich der spätere Wegfall der Vokalisierungen bremsend auf die Lerngeschwindigkeit aus. Sogar für Muttersprachler wird in der Schule ein Großteil des Arabischunterrichts für die korrekte Konjugation verwendet.
Literatur.
Allgemeine Beschreibungen
Grammatiken
Lehrbücher
Wörterbücher
Fachliteratur zu spezifischen Themen |
347 | 419952 | https://de.wikipedia.org/wiki?curid=347 | Aorta | Die Aorta (, von ), auch Hauptschlagader oder große Körperschlagader, ist ein großes Blutgefäß, das an der Aortenöffnung ("Ostium aortae") aus der linken Herzkammer entspringt. Sie leitet das Blut aus der linken Herzkammer (linker Ventrikel) in die Gefäße des großen Blutkreislaufs.
Die Aorta ist die größte Schlagader (Arterie) des Körpers. Beim erwachsenen Menschen hat sie in der Regel einen Durchmesser von etwa 2,5–3,5 cm und eine Länge von 30–40 cm. Sie hat die Form eines aufrechten Spazierstocks mit einem bogenförmigen Anfang und einem geraden Verlauf nach unten bis in den Beckenbereich.
Geschichtliches.
Hippokrates (460–um 370 v. Chr.) verstand unter der Aorta noch die Luftröhre mit den zwei Hauptbronchien, an denen die Lungen „hängen“. Aristoteles (384–322 v. Chr.) übertrug die Bezeichnung dann auf die große Körperschlagader.
Abschnitte.
In der Anatomie, Chirurgie und bei bildgebenden Verfahren unterscheidet man zur besseren Orientierung folgende Aortenabschnitte:
Windkesselfunktion.
Dank der Elastizität ihrer Gefäßwand fungiert die Aorta als Windkessel, welcher durch überwiegend radiales Nachgeben der Wand bei Druckanstieg aus dem in diskreten Schüben vom Herzen ankommenden Blutstrom durch rhythmische Volumensvergrößerung einen gleichmäßiger abfließenden Strom macht. Der Druck des Blutes wird dabei ständig durch Drucksensoren (so genannte Barorezeptoren) gemessen.
Typen der Bauchaortenstenose.
Man unterscheidet folgende Typen der Bauchaortenstenose: |
348 | 232974312 | https://de.wikipedia.org/wiki?curid=348 | AutoCAD | AutoCAD [] ist ein CAD-Programm von Autodesk.
Beschreibung.
AutoCAD wurde als grafischer Zeichnungseditor von der Firma Autodesk entwickelt. In den Anfangsjahren bis ca. 1990 wurde AutoCAD hauptsächlich als einfaches CAD-Programm mit Programmierschnittstellen zum Erstellen von technischen Zeichnungen verwendet. Heute umfasst die Produktpalette eine umfangreiche 3D-Funktion zum Modellieren von Objekten sowie spezieller Erweiterungen insbesondere für Ingenieure, Maschinenbauingenieure, Architekten, Innenarchitekten und Designfachleute sowie Geoinformatiker, Gebäudetechniker und allgemeine Bauingenieure.
AutoCAD ist grundsätzlich ein vektororientiertes Zeichenprogramm, das auf einfachen Objekten wie Linien, Polylinien, Kreisen, Bögen und Texten aufgebaut ist, die wiederum die Grundlage für kompliziertere 3D-Objekte darstellen.
Die zu AutoCAD entwickelten Dateiformate .dwg sowie .dxf bilden einen Industriestandard zum Austausch von CAD-Daten. Laut Autodesk wurden seit der Erfindung des DWG-Formates rund drei Milliarden Dateien erstellt, davon wurden im Jahr 2006 eine Milliarde aktiv bearbeitet.
Betriebssysteme.
AutoCAD lief auf PC-kompatiblem DOS, wie PC DOS und MS-DOS, und wurde auch auf Unix und den Macintosh portiert. Ab Release 14 wurde in den 1990er Jahren nur noch Windows als Betriebssystem unterstützt. Seit dem 15. Oktober 2010 ist AutoCAD zusätzlich auch für macOS erhältlich (ab Version 10.5.8 „Leopard“).
Mit "AutoCAD web app" und "AutoCAD mobile app" (vormals "AutoCAD 360" und "AutoCAD WS"), stehen auch vereinfachte, kostenfreie Versionen als Webapp und native Mobile App für Smartphones und Tablet-PCs zur Verfügung (Android und iOS).
Versionen.
Die aktuelle Version ist AutoCAD 2022, erschienen im März 2021.
AutoCAD Ersterscheinung
Die ARX (AutoCad Runtime Extension)-Version wird durch die interne Versions-Variable ACADVER angezeigt. ARX-Anwendungen sind nur innerhalb des ganzzahligen Versions-Anteils (z. B. 17) kompatibel ausführbar. Mit AutoCad 2024 sind erstmals seit Version 2000 vier hintereinanderfolgende Versionen kompatibel.
Varianten.
AutoCAD wird in verschiedenen Varianten mit unterschiedlichem Funktionsumfang angeboten.
AutoCAD.
"AutoCAD" ist eine Software zur Bearbeitung von technischen Zeichnungen als Vektorgrafiken in 2D- und 3D. Die Software ist unter anderem in C++ programmiert und besitzt mehrere Programmierschnittstellen wie zum Beispiel AutoLISP. AutoCAD wird häufig mit zusätzlicher Software eingesetzt, die mit vorgegebenen Symbolen, Makros und Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Im Zuge der Weiterentwicklung wurden diese Funktionen direkt in die auf AutoCAD basierenden Produkte integriert.
AutoCAD LT.
"AutoCAD LT" ist eine vereinfachte AutoCAD-Variante, mit der meist 2D-Zeichnungen erstellt werden und die weniger Programmierschnittstellen besitzt. Auch hier gibt es zusätzliche Software, die durch die vorgegebenen Symbole, Makros und Software mit Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Aufgrund der geringeren Funktionalität ist "AutoCAD LT" kostengünstiger als die 3D-Variante AutoCAD.
AutoCAD Mechanical.
"AutoCAD Mechanical" ist eine Erweiterung von AutoCAD für den Maschinenbau-Bereich (CAD/CAM), die aus dem ehemaligen deutschen Softwarehaus "GENIUS CAD software GmbH" im bayerischen Amberg durch Übernahme seitens "Autodesk" entstanden ist. Es ist eine sehr leistungsfähige 2D-Applikation mit deutlich erweitertem Befehlsumfang, Normteilen, Berechnungs- und Stücklistenfunktionen.
Die früher vertriebene Erweiterung "Mechanical Desktop" für die mechanische 3D-Konstruktion wird nicht mehr weiterentwickelt. Stattdessen gibt es das wesentlich leistungsfähigere und modernere parametrische 3D-Programm für die Konstruktion in Mechanik und Maschinenbau "Autodesk Inventor". "AutoCAD", "AutoCAD Mechanical" und "Autodesk Inventor" werden mit weiteren Produkten als Paket mit dem Namen „Product Design Suite“ vermarktet. Eine Erweiterung stellt „Product Design Suite Ultimate“ mit dem „Inventor Professional“ dar, das die Funktionalität um FEM-Berechnung, dynamische Simulation, Rohrleitungs- und Kabelbaumkonstruktion erweitert. Die Verwaltung der Konstruktionsdaten kann mit "Autodesk Vault" erfolgen.
AutoCAD Architecture.
"AutoCAD Architecture" ist eine erweiterte AutoCAD-Variante für den Bau- und Architekturmarkt (CAAD), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von Gebäuden benötigt werden (Wände, Fenster, Treppen, Dächer etc.) verfügt. AutoCAD Architecture ersetzt den bis zur Einführung von Autodesk entwickelten Architectural Desktop (ADT). Wie bei anderen Software-Lösungen auf Basis von AutoCAD (Civil3d, Inventor, …) handelt es sich um ein sogenanntes "vertikales Produkt". Die Zeichnung wird wahlweise in 2D oder 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für den Bau notwendig sind, werden automatisch erstellt. Da AutoCAD Architecture objektorientiert arbeitet und das IFC-Format beherrscht, kann es zu den BIM-CAD Systemen gezählt werden.
AutoCAD MEP.
"AutoCAD MEP" () ist eine erweiterte AutoCAD-Architecture-Variante für die Gebäudetechnik (HVAC/MEP), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von gebäudetechnischen Anlagen benötigt werden (Heizkessel, Heizkörper, Rohrleitungen, Rohrleitungsarmaturen, Klimakomponenten, Elektrotrassen, Schalter und Dosen etc.) verfügt. Die Zeichnung wird vollständig 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für die Gebäudetechnik notwendig sind, werden wie bei "AutoCAD Architecture" automatisch erstellt. Die Kompatibilität zu "AutoCAD Architecture" ist damit gewährleistet.
AutoCAD ReCap.
AutoCAD ReCap ist eine AutoCAD-Erweiterung, die zusätzlich zu den 3D-Modellen das Verarbeiten von Punktwolken, wie sie zum Beispiel Laserscanner liefern, in AutoCAD ermöglicht.
AutoCAD Map 3D.
AutoCAD Map 3D basiert auf AutoCAD und ergänzt dieses um umfangreiche Funktionen für den Bereich Kartografie. Mit dem Programm erstellt und bearbeitet man technische Karten. Es lassen sich durch diverse Schnittstellen Daten aus zahlreichen Quellen integrieren und in gewissem Umfang auch Geodaten-Analysen durchführen. In der aktuellen Version sind die 3D-Funktionen erweitert worden, so lassen sich unter anderem auch Höhenlinienpläne generieren.
Autodesk Topobase.
1998 wurde die Software "Topobase" von der Schweizer Firma "C-Plan AG" in Gümligen als AutoCAD-Erweiterung veröffentlicht. 2006 wurde die Firma von Autodesk übernommen. Die Erweiterung machte "AutoCAD Map 3D" zu einem Geoinformationssystem und basiert auf einer nach Standards des Open Geospatial Consortium schematisierten Datenbank von Oracle mit Spatial-Erweiterung. Ab der Version 2012 ist sie in Map 3D integriert und für alle Fachschalen einsetzbar.
Autodesk Infrastructure Map Server.
Auch "TB-Web GIS" wurde von der Firma "C-Plan" neben Topobase entwickelt. Nach Übernahme durch Autodesk wurde die Software als "Autodesk Topobase Web" angeboten.
Autodesk entwickelte das PHP-basierte Web-GIS-Framework "Autodesk MapGuide Enterprise", das von der Open Source Geospatial Foundation OSGeo quelloffen als MapGuide Open Source erhältlich ist.
Die Produkte "Autodesk MapGuide Enterprise" und "Autodesk Topobase Web" wurden zusammengelegt zur Mapserver-Software mit Web-GIS-Framework namens Autodesk Infrastructure Map Server.
AutoCAD Civil 3D.
AutoCAD Civil 3D basiert auf AutoCAD und ist für die Bearbeitung von Tiefbauprojekten, insbesondere Verkehrswege-, Landschaftsplanung, Geländemodellierung und Wasserbau, geeignet. Um die Bearbeitung von Projekten zu ermöglichen, die sich über weite und komplexe Geländeformen ziehen, ist die volle Funktionalität von AutoCAD Map 3D in AutoCAD Civil 3D integriert.
AutoCAD ecscad.
AutoCAD ecscad basiert auf AutoCAD und ist für die Planung elektrotechnischer Steuerungssysteme, sogenannter Stromlaufpläne geeignet.
Autodesk AutoSketch/SketchBook.
"Autosketch" ist ein einfaches Vektor-Zeichenprogramm. Es wird von Autodesk nicht mehr unterstützt oder weiterentwickelt. Es wurde abgelöst von dem Programm "Autodesk SketchBook", welches auch gratis als Expressversion mit eingeschränktem Funktionsumfang für Windows, MacOS, iOS und Android erhältlich ist.
Programmierschnittstellen.
AutoCAD bietet eine Vielzahl an Programmierschnittstellen (APIs) für Customizing und Automatisierung. Als interne Programmierschnittstellen stehen heute zur Verfügung
sowie weitere Schnittstellen zu:
Durch den Einsatz von Vorgabezeichnungen, Blöcken, Symbolen, Linientypen und externen Spezialprogrammen, zum Beispiel für die Ausgabe von Berechnungsergebnissen können relativ einfach fast alle geometrischen und technischen Darstellungen erzeugt oder modifiziert werden.
Dateiformate.
AutoCAD verwendet überwiegend eigene Dateiformate.
DWG.
Nach außen ist dieses Dateiformat durch den Dateinamenanhang ".dwg", für ‚normale‘ Zeichnungsdateien gekennzeichnet. Das Kürzel steht für (engl. für „Zeichnung“). Die Dokumentation der Dateistruktur ist nicht frei erhältlich, jedoch findet man im Internet eine Dokumentation der Open Design Alliance.
Das DWG-Dateiformat wurde kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert. So wurde das Format mit Einführung der Versionen AutoCAD 2000, 2004, 2007, 2010, 2013 und 2018 geändert. Die als "DWG 2000", "DWG 2004", "DWG 2007", "DWG 2010", "DWG 2013" und "DWG 2018" bezeichneten Formate können nicht in ältere AutoCAD-Versionen eingelesen werden. Die eingeschränkte Kompatibilität des DWG-Dateiformats zu älteren AutoCAD-Versionen kann durch Abspeichern in älteren Formatversionen (kann im Programm generell festgelegt werden) sowie durch die Verwendung des DXF-Dateiformats und den Einsatz von externen Konverterprogrammen teilweise umgangen werden. Bei Nutzung des DXF-Formats ist dabei mit dem Zerfall von nicht unterstützen Objekten in einfachere Basisobjekte zu rechnen. Die ersten 6 Bytes einer dwg-Datei sind mit einem gewöhnlichen Texteditor lesbar. Sie geben die Version der DWG-Datei an. Dateien der Version AutoCAD 2013 bis AutoCAD 2017 beginnen mit dem Header AC1027, ab Version AutoCAD 2018 beginnen mit AC1032.
DXF.
Die DXF-Schnittstelle ist eine quelloffene Schnittstelle des Herstellers Autodesk und unterliegt keinem neutralen Normungsausschuss, die Dokumentation für DXF ist aber frei verfügbar. Sie ist ein in ASCII-Zeichen lesbares Abbild der binär abgespeicherten DWG. AutoCAD unterstützt DXF (engl. , „Zeichnungsaustauschformat“) für den Datenaustausch mit anderen CAD-Programmen in der aktuellen Version und jeweils noch meist 3–4 älteren Stände.
Das DXF-Dateiformat unterstützt direkt 2D- und 3D-Koordinaten sowie zum Beispiel Linien, Bögen und einfache Flächen und weitere komplexe Geometrieelemente wie zum Beispiel Blöcke, ARX-Objekte und Bemaßungen. Es ist mit einfachen Mitteln zum Beispiel mit Texteditoren und fast allen Programmiersprachen, einschließlich mit dem VBA von Excel möglich, DXF-Dateien zu erzeugen, auszuwerten oder zu manipulieren. Diese Möglichkeiten bieten sich besonders für geometrische und auf geometriebasierende Berechnungen von CAD-Modellen zum Beispiel zur Optimierung von Flächen an. Der Aufbau ist sehr klar, einfach und strukturiert.
Diese Schnittstelle hat sich im CAD-Markt als ein Quasi-Datenaustauschstandard etabliert, obwohl sie nicht von Autodesk mit diesem Ziel entwickelt wurde. Das DXF-Format wurde von Autodesk dazu geschaffen, um geometrische Informationen von AutoCAD an eine interne oder externe Applikation zur weiteren Verwendung zu übergeben. Genauso sollte das Ergebnis zum Beispiel einer Berechnung wieder aus der Applikation zurück an AutoCAD übergeben werden. Dazu wurde eine Liste von geometrischen Objekten von den Entwicklern erstellt und sauber dokumentiert. Diese offene Dokumentation wurde dann von anderen CAD-, CNC- und CAM-Herstellern wegen ihrer einfachen Struktur und Übersicht als CAD-Schnittstelle übernommen. Sie ist der oft kleinste gemeinsame Nenner vieler Vektorgrafikprogramme und wird von fast allen unterstützt. Allerdings werden meist nicht alle Funktionen von den anderen Herstellern voll unterstützt und es gehen daher manchmal entscheidende Details beim Austausch via DXF verloren.
Auch das DXF-Dateiformat wurde, wie das DWG-Dateiformat, kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert.
DXB.
Das DXB-Dateiformat (engl. ) ist eine binäre Form des DXF-Dateiformates. Es ist extrem kompakt, kann im Verhältnis zu DXF schnell gelesen und geschrieben werden, ist aber für den Programmierer wesentlich aufwendiger als die ASCII-Variante. DXB wird nur in wenigen, hauptsächlich zeitkritischen Anwendungsfällen verwendet.
DWF.
Ein weiteres Format ist das Dateiformat "DWF" (engl. ) als hochkomprimiertes Vektorformat zur Präsentation im Internet und zur Ansicht. Das Format ist dokumentiert. Ein DWF-Toolkit mit C++-API zum Lesen und Schreiben ist mit Quelltext kostenlos bei Autodesk erhältlich. DWFx ist eine Weiterentwicklung von DWF, die auf dem XPS-Format von Microsoft basiert.
DGN.
Ein weiteres Format ist das Dateiformat "DGN", das von MicroStation definiert wird und auch in den aktuellen AutoCAD Versionen unterstützt wird. Das Kürzel DGN steht für (engl. für „Entwurf“).
SHP.
Ein weiteres Format ist das Dateiformat "SHP" (engl. Shapefile; nicht zu verwechseln mit dem ESRI-Shapefile), eine Symboldefinition. Dieses Dateiformat wird zur Codierung von Zeichnungselementen auf unterster Ebene eingesetzt und wird vor der Verwendung zu "SHX" kompiliert. Anwendungsgebiete sind benutzerdefinierte Schraffuren, Linien, Bemaßungen oder Schriftarten. Es können nur die elementarsten Objekte definiert werden wie Linien und Bögen.
SHX.
Die Dateiendung für AutoCad-Schriftarten (Fonts) und Linientypen. Eine Schrift-shx-Datei ist jedoch in einem Binärformat codiert, eine Linientyp-shx-Datei in Reintext.
Schriften im shx-Format werden z. T. graphisch anders behandelt, als z. B. Schriften, die vom Betriebssystem zur Verfügung gestellt werden (TrueType, Postscript-Fonts), da sie keine Füllungsflächen oder Rundungen unterstützen.
Anwendungen.
Für AutoCAD gibt es zu vielen Bereichen Spezial-Anwendungen. Beispielsweise für das Bauwesen, den Maschinenbau (siehe oben), den Landschaftsbau, die Versorgungs- und Elektrotechnik. Diese sind in der Regel in C++ geschrieben. Autodesk bietet hier mit ObjectARX (C++-API) die entsprechenden Grundlagen. Die Entwicklung geht auch hier zu .NET. Einfache Programmwerkzeuge (Tools) sind bisweilen in Visual Basic oder VBA geschrieben worden. Hinzu kommen eine Vielzahl von AutoLISP-Routinen, die oft in freien Foren ausgetauscht werden. Eine Auflistung kommerzieller Anwendungen findet sich im Autodesk-Katalog.
AutoCAD-Kurse im Test.
Die Stiftung Warentest hat im Februar 2015 AutoCAD-Kurse für Einsteiger getestet. Sieben Kurse wurden getestet, vier davon bekamen eine gute Qualität bescheinigt. Unter den Anbietern waren Handwerkskammern, Industrie- und Handelskammern und kommerzielle Bildungsanbieter. Die Kosten für die drei- bis fünftägigen Kurse variierten zwischen 143 und 2090 Euro, wobei sowohl der günstigste als auch der teuerste Kurs nur mittelmäßig abschnitten. |
349 | 2318584 | https://de.wikipedia.org/wiki?curid=349 | Alessandro Volta | Alessandro Giuseppe Antonio Anastasio Volta, ab 1810 "Graf von Volta" (* 18. Februar 1745 in Como; † 5. März 1827 ebenda) war ein italienischer Physiker. Er gilt als Erfinder der Volta’schen Säule, heute bekannt als elektrische Batterie, und als einer der Begründer der Elektrizitätslehre. Nach ihm wurde die SI-Einheit für die elektrische Spannung benannt.
Leben und Werk.
Volta wurde als Sohn einer wohlhabenden Familie in Como im damals habsburgischen Norditalien als eines von neun Kindern geboren, von denen fünf – wie auch einige Onkel – Priester wurden. Der Vater selbst war lange Jesuitennovize. Voltas Eltern, Filippo Volta und Maria Maddalena dei Conti Inzaghi, hatten aber eine andere Laufbahn für Volta vorgesehen und schickten ihn in Vorbereitung einer Juristenlaufbahn von 1758 bis 1760 auf eine Jesuitenschule. Im Selbststudium beschäftigte er sich mit Büchern über Elektrizität (Pieter van Musschenbroek, Jean-Antoine Nollet, Giambatista Beccaria) und korrespondierte mit führenden Gelehrten. Der Turiner Physik-Professor Beccaria riet ihm, sich auf experimentelle Arbeit zu konzentrieren. 1769 veröffentlichte er seine erste physikalische Arbeit, die schon Kritik an den Autoritäten laut werden ließ. 1775 wuchs seine Bekanntheit durch die Erfindung des bald in ganz Europa benutzten Elektrophors, mit dem durch Influenz erzeugte statische Elektrizität erzeugt und transportiert werden konnte. 1774 wurde er zum Superintendenten und Direktor der staatlichen Schulen in Como ernannt. Schon 1775 wurde er dann zum Professor für Experimentalphysik an der Schule in Como berufen. 1776 entdeckte er in aus den Sümpfen am Lago Maggiore aufsteigenden Gasblasen als Erster das Methan und begann mit dem brennbaren Gas zu experimentieren (Volta-Pistole, in der ein elektrischer Funke in einer Flasche die Verbrennung auslöst, also eine Art Gasfeuerzeug). Er konstruierte damit stetig brennende Lampen und benutzte seine Volta-Pistole als Messgerät für den Sauerstoffgehalt von Gasen (Eudiometer).
All diese Entdeckungen führten dazu, dass er 1778 (nach einer Reise in die Schweiz 1777, wo er u. a. Voltaire traf) zum Professor für Physik und bis 1819 Lehrstuhlinhaber für Experimentalphysik an die Universität Pavia berufen wurde.
Dort erfand er ein („Strohhalm“-) Elektroskop zur Messung kleinster Elektrizitätsmengen (1783), quantifizierte die Messungen unter Einführung eigener Spannungseinheiten (das Wort „Spannung“ stammt von ihm) und formulierte die Proportionalität von aufgebrachter Ladung und Spannung im Kondensator.
1792 erfuhr er von den Frosch-Experimenten des angesehenen Anatomen Luigi Galvani, die dieser auf animalische Elektrizität zurückführte. Volta erkannte aber die Ursache der Muskelzuckungen in äußeren Spannungen (etwa Kontaktelektrizität, falls mit mehreren Metallen experimentiert wurde), und es entsprang ein Streit um den Galvanismus, der die Wissenschaftler in ganz Europa in Lager teilte. Für Galvani lag die Erklärung darin, dass der Frosch eine Art Leidener Flasche (also ein Kondensator) war, für Volta war er nur eine Art Detektor. Heute ist immer noch wichtig, dass sich daraus Voltas langjährige Untersuchungen zur Kontaktelektrizität und schließlich seine bahnbrechende Erfindung der Batterie ergab.
Volta soll in seinen Schriften auch die Idee des Telegraphen und das Gay-Lussac-Gesetz (Volumenausdehnung von Gasen proportional zur Temperatur) vorweggenommen haben.
1791 ernannte ihn die Royal Society zum Mitglied und verlieh ihm 1794 ihre Copley-Medaille. 1792 ging er auf seine zweite Auslandsreise, bei der er u. a. Pierre Simon Laplace, Antoine Laurent de Lavoisier in Paris, wo er bereits seit 1782 Mitglied der Académie des sciences war, sowie Georg Christoph Lichtenberg in Göttingen besuchte.
Die größte und erfolgreichste Erfindung Voltas war jedoch die um 1800 konstruierte Voltasche Säule, die erste funktionierende Batterie (nachdem er schon in den 1790er Jahren elektrische Spannungsreihen verschiedener Metalle untersucht hatte). Sie bestand aus übereinander geschichteten Elementen aus je einer Kupfer- und einer Zinkplatte, die von Textilien, die mit Säure (zunächst Wasser bzw. Salzlake) getränkt waren, voneinander getrennt waren. Er schildert die Erfindung in einem berühmten, am 20. März 1800 verfassten Brief an Sir Joseph Banks von der Royal Society in London. Erst diese Erfindung der Batterie ermöglichte die weitere Erforschung der magnetischen Eigenschaften elektrischer Ströme und die Anwendung der Elektrizität in der Chemie im folgenden Jahrhundert.
1801 reiste er nach Paris, wo er am 7. November Napoleon Bonaparte seine Batterie vorführte.
1802 erhielt er vom Institut de France die Ehrenmedaille in Gold und von Napoleon eine Pension. 1805 wurde er zum auswärtigen Mitglied der Göttinger Akademie der Wissenschaften gewählt. Seit 1808 war er auswärtiges Mitglied der Bayerischen Akademie der Wissenschaften. Nachdem Napoleon Italien erobert hatte, ernannte er Volta, der sich schon damals eigentlich zur Ruhe setzen wollte, 1809 zum Senator und erhob ihn 1810 in den Grafenstand. Nach der Erfindung der Batterie gab er die Forschung und Lehre zunehmend auf, wurde aber durch die Ernennung zum Dekan der philosophischen Fakultät 1813 noch zum Bleiben bewogen bis zu seiner endgültigen Emeritierung 1819. 1820 wurde er zum Mitglied der Royal Society of Edinburgh gewählt. Seine Karriere hatte die wechselnden Herrschaftsverhältnisse unbeschadet überstanden – er war sowohl bei den Habsburgern als auch bei Napoleon in Gunst. Im Ruhestand zog er sich auf sein Landhaus in Camnago nahe Como zurück.
Volta heiratete, nachdem er vorher lange Jahre mit der Sängerin Marianna Paris gelebt hatte, 1794 die wohlhabende Teresa Peregrini, mit der er drei Söhne hatte. Alessandro Volta starb 1827 mit 82 Jahren in Como. Er liegt in Camnago, einem Ortsteil von Como begraben, der seit 1863 "Camnago Volta" heißt. Dort kann man auch seine Instrumente im Museum Tempio Voltiano sehen.
Posthume Ehrungen.
Im 19. Jahrhundert wurde Volta mit der vermutlich höchsten Auszeichnung, die einem Physiker zuteilwerden kann, geehrt: Zu seinen Ehren wurde die Maßeinheit für die elektrische Spannung international mit der Bezeichnung Volt betitelt. Vorgeschlagen wurde dies zuerst 1861 von einem Komitee der British Association for the Advancement of Science.
Napoleon III. stiftete 1852 den Volta-Preis, der von der Pariser Académie des sciences vergeben wurde.
1964 wurde der Mondkrater "Volta" nach ihm benannt, 1999 der Asteroid (8208) Volta und ebenso das Fernheizkraftwerk Volta in Basel (1980).
Das Unternehmen Isovolta stellt seit 1949 in Österreich elektrische Isolierstoffe her. 2019 wurde die Zitteraalart "Electrophorus voltai" erstbeschrieben.
Alessandro Volta wurde auf der letzten italienischen 10.000-Lire-Banknote abgebildet, die von der Banca d’Italia zwischen 1984 und 2001 ausgegeben wurde. |
350 | 217280 | https://de.wikipedia.org/wiki?curid=350 | Anwendungssoftware | Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Applikation; englisch ) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der „Lösung von Benutzerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail-Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele.
Grundlegendes.
Begriffsbestimmungen: „Applikation“ und „App“.
Aus dem englischen Begriff "application" hat sich in der Alltagssprache auch die Bezeichnung "Applikation", kurz App, etabliert. Im deutschen Sprachraum wurde die Abkürzung "App" seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit "Mobile App" gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartphones und Tabletcomputer. Inzwischen bezeichnen Microsoft und Apple Desktop-Anwendungssoftware ebenfalls als "App" (Windows-App, Mac App Store). Dennoch wird in der Umgangssprache unter einer "App" meist eine Anwendung für Mobiltelefone oder für Tablets verstanden.
Abgrenzung zu systemnaher Software.
Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu , die aber keinen Endbenutzer-bezogenen ‚Nutzen‘ bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme.
Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop-Anwendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware.
Anwendungsbereiche für Applikationssoftware.
In Unternehmen.
Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise-Resource-Planning-Systeme, kurz ERP-Systeme, oder Portal-Software) spricht man auch von "Business-Anwendungen", "Business Software" oder "Unternehmenssoftware".
Auf Mobilgeräten.
Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden.
In Webbrowsern.
Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop-Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen. |
352 | 409905 | https://de.wikipedia.org/wiki?curid=352 | Antoni van Leeuwenhoek | Antoni van Leeuwenhoek [] () (* 24. Oktober 1632 in Delft, Republik der Sieben Vereinigten Provinzen; † 26. August 1723 ebenda) war ein niederländischer Naturforscher und der bedeutendste Mikroskopiker des 17. und beginnenden 18. Jahrhunderts.
Er entdeckte die Mikroorganismen, darunter Bakterien, Protozoen und andere Einzeller, und wird deshalb als „Vater der Protozoologie und Bakteriologie“ bezeichnet. Er beschrieb die Entdeckung der Spermatozoen und untersuchte sie bei zahlreichen Tierarten. Seine Beobachtungen machten ihn zum Gegner der Spontanzeugung. Parallel zu anderen Forschern seiner Zeit entdeckte er rote Blutkörperchen und die Kapillaren als Verbindung zwischen Arterien und Venen im Blutkreislauf. Seine Forschungsgebiete erstreckten sich auf einen weiten Bereich von der Medizin bis zur Botanik.
Leeuwenhoek war gelernter Tuchhändler und ab einem Alter von 27 Jahren städtischer Beamter in seiner Heimatstadt Delft. Er hatte keine wissenschaftliche oder technische Ausbildung und brachte sich das Herstellen und Benutzen von Mikroskopen selbst bei. Die Beobachtungen, die er mit seinen Mikroskopen machte, teilte er in über 300 Briefen an die Royal Society in London sowie an zahlreiche andere europäische Persönlichkeiten mit.
Schreibvarianten des Namens.
Leeuwenhoeck bedeutet Löwenecke. Der Name rührt vermutlich von einer Straßenecke in der Nähe des Leeuwenpoort, des Löwentors im Osten von Delft, her. Bis 1683 unterschrieb Leeuwenhoek mit „Antoni Leeuwenhoeck“. Danach ließ er das c im Nachnamen weg, um ab 1685 bis zum Lebensende mit „Antoni van Leeuwenhoek“ zu zeichnen.
In den englischen Übersetzungen seiner Briefe, die in den Philosophical Transactions of the Royal Society veröffentlicht wurden, ist der Nachname in 19 verschiedenen Varianten buchstabiert worden. Die meisten davon müssen wohl als schlichte Falschschreibungen angesehen werden.
Der letzte Buchstabe des Vornamens ist ein langes i, das in seinen auf Niederländisch veröffentlichten Briefen meist als i, manchmal als y wiedergegeben wurde. „Antoni“ wird auf dem o betont.
Auf seinem Gedenkstein an der alten Kirche in Delft und auf den meisten seiner auf lateinisch veröffentlichten Briefe wurde die latinisierte Form „Antonius a Leeuwenhoek“ verwendet. Auf seinem Grabstein findet sich außerdem im niederländischen Text die Variante „Anthony van Leewenhoek“, also ohne u im Nachnamen und zusätzlichem h und y im Vornamen, eine Schreibweise, die von ihm selbst nicht überliefert ist.
Weitere Schreibvarianten wurden von deutschen (Anton von Leuwenhoek), französischen (Antoine Leuwenhoek) und italienischen Autoren verwendet (Lewenoeckio, Lauenoch), häufiger in abweichenden Schreibweisen im gleichen Text.
In modernen Texten wird als Name meist „Leeuwenhoek“ verwendet, selten „van Leeuwenhoek“.
Leben.
Kindheit und Jugend.
Antoni van Leeuwenhoek wurde am 24. Oktober 1632 geboren, während des Goldenen Zeitalters der Niederlande. Seine Heimatstadt Delft hatte zu dieser Zeit etwa 21000 Einwohner. Er kam aus einer wohlhabenden Familie des Mittelstands. Die Familie, besonders auf seiner mütterlichen Seite, war in Delft gut vernetzt, viele hatten Aufgaben im öffentlichen Leben übernommen. Seine Eltern waren Philips van Leeuwenhoek, ein Korbmacher wie dessen eigener Vater, und Margaretha, geborene Bel van den Berch, Tochter des Delfter Braumeisters Jacob Bel van den Berch. Sie heirateten 1622. Antoni wurde zehn Jahre später als fünftes Kind nach vier Schwestern geboren. Er wurde am 4. November 1632 in der Nieuwe Kerk getauft. Der Name auf dem Taufeintrag lautet auf „Thonis“, Nachnamen werden nicht erwähnt. Der Vater wird als „Phillips thonis zn“ angegeben, also Phillip, Thonis Sohn. In der väterlichen Linie haben sich die Vornamen Thonis (also Antoni) und Phillips über mehrere Generationen abgewechselt.
Leeuwenhoeks Vater starb fünf Jahre nach der Geburt, Anfang Januar 1638. Die Mutter heiratete im Dezember 1640 erneut, ihr zweiter Mann Jacob Jansz. Molin, ein Maler, starb 1648. 1664 starb auch die Mutter, sie wurde am 3. September beerdigt.
Etwa zur Zeit ihrer zweiten Heirat schickte die Mutter ihren Sohn im Alter von 8 Jahren auf eine Schule in Warmond, nördlich von Leiden. Anschließend, vermutlich ab 1646, lebte er bei seinem Onkel Cornelis Jacobsz van den Berch in Benthuizen, knapp 20 Kilometer nordöstlich von Delft. Dieser Onkel war Anwalt und Gemeindebeamter. Es wird spekuliert, dass er hier einige Grundlagen der Mathematik und Physik erlernte, es gibt aber keine Quellen zu seiner Bildung. Eigenen späteren Aussagen zufolge hat er keine Fremdsprache erlernt und sprach ausschließlich den holländischen Dialekt seiner Zeit und Gegend.
1648, im Jahr als sein Stiefvater starb, wurde er mit 16 Jahren von seiner Mutter nach Amsterdam geschickt. Einige ihrer Verwandten waren erfolgreiche Händler, so auch ihr Schwager Pieter Mauritz Douchy, ein einflussreicher Wollhändler in Amsterdam. Dieser nahm Leeuwenhoek bei sich auf und suchte ihm eine Anstellung. Leeuwenhoek wurde beim Tuchhändler William Davidson, einem 1616 geborenen Schotten, ausgebildet, der sich 1640 in Amsterdam niedergelassen hatte. Er bewährte sich und wurde schließlich für mehrere Jahre als Buchhalter und Kassierer eingesetzt. Wie lange er in diesem Geschäft arbeitete und welche sonstigen Tätigkeiten er verfolgte, ist nicht bekannt. Es wird spekuliert, dass er zu dieser Zeit Jan Swammerdam kennenlernte.
Rückkehr nach Delft und gesellschaftliche Etablierung.
1654 kehrte er nach Delft zurück, wo er den Rest seines Lebens wohnte. Am 29. Juli des Jahres heiratete er mit 21 Jahren die drei Jahre ältere Barbara de May (* 20. Dezember 1629). Zwischen 1655 und 1664 hatte das Paar fünf Kinder, von denen nur die zweitgeborene Tochter Maria (* 22. September 1656; † 25. April 1745) die frühe Kindheit überlebte. Maria blieb unverheiratet und blieb bei ihrem Vater bis an sein Lebensende. Wohl ebenfalls 1654 kaufte Leeuwenhoek ein Haus und Geschäft in der Straße Hippolytusbuurt, in dem er einen Tuchhandel eröffnete. Zwei überlieferte Rechnungen von 1658 und 1660 zeigen, dass er tatsächlich als Tuch- und Kurzwarenhändler tätig war.
1660, mit nur 27 Jahren, wurde Leeuwenhoek zum Kammerherrn der "Schepenen" der Stadt Delft ernannt („Camerbewaarder der Camer van Heeren Schepenen van Delft“) und damit zu einem der besser bezahlten städtischen Bediensteten. Ein Schepen war ein städtischer Würdenträger mit Aufgaben eines Ratsherrn, aber auch eines Schöffen. Diese Funktion erfüllte Leeuwenhoek 39 Jahre lang. Auch danach bezog er noch bis zu seinem Tod das entsprechende Gehalt. Zu den Aufgaben gehörte es, die Räumlichkeiten instand zu halten, zu beheizen, zu reinigen, für Versammlungen zu öffnen, Aufgaben für die Versammelten zu übernehmen und Stillschweigen über alle dort beredeten Angelegenheiten zu bewahren. Sein jährliches Gehalt mit Aufwandsentschädigung lag zunächst bei 314 Gulden pro Jahr und 1699 bei 400, um schließlich auf 450 Gulden zu steigen: 1711 erhielt er ein zusätzliches Gehalt von 50 Gulden als „generaal-wijkmeester“ (in etwa: General-Bezirksmeister). Ein gut bezahlter Glasarbeiter verdiente 270 Gulden im Jahr, Leeuwenhoek bekam also ein recht stattliches Gehalt. Es wurde vermutet, dass Leeuwenhoek beide Ämter ehrenhalber verliehen wurden und die tatsächlichen Aufgaben durch Stellvertreter ausgeführt wurden. Neuere Forschungen sprechen jedoch gegen diese Annahme. Ebenfalls um 1660 hat er vermutlich aufgehört, als Tuchhändler zu arbeiten.
Nach zwölf Jahren Ehe starb 1666 Leeuwenhoeks Frau Barbara. 1671 heiratete er ein zweites Mal, Cornelia Swalmius. Diese starb 1694.
1669 wurde Leeuwenhoek nach entsprechender Prüfung als Landvermesser staatlich zugelassen. 1676 wurde er zum Nachlassverwalter für den Maler Jan Vermeer bestimmt. Ebenfalls 1632 geboren verstarb dieser mit nur 43 Jahren und hinterließ seiner Witwe und acht minderjährigen Kindern einen insolventen Nachlass sowie zahlreiche seiner wertvollen Bilder. Nachdem die Witwe den Bankrott hatte erklären müssen, wurde Leeuwenhoek eingesetzt. Möglicherweise war er ein Freund der Familie Vermeer. Sehr wahrscheinlich haben sich Leeuwenhoek und Vermeer gekannt. Sie wohnten beide in der Nähe des Delfter Marktplatzes und hatten gemeinsame Bekannte, etwa Constantijn Huygens. Es gibt aber keinen historischen Beleg für eine Bekanntschaft. Jedenfalls wird die Übertragung der Abwicklung des Besitzes eines zu Lebzeiten in der Stadt angesehenen Malers als Beleg für ein hohes Ansehen Leeuwenhoeks gewertet. Ein weiteres Amt übernahm Leeuwenhoek 1679, als er zum wijnroeijer (Weinmesser) gewählt wurde. Als solcher musste er alle Weine und Spirituosen, die in die Stadt gebracht wurden, prüfen und die verwendeten Gefäße eichen. Dieses Amt hatte er wohl bis zum Lebensende inne, wobei er sich teils vertreten ließ.
Korrespondenz mit der Royal Society.
1660 wurde in London die Royal Society gegründet. Sie wollte mit allen in Kontakt treten, die das Wissen über die Natur förderten, unabhängig von deren Nationalität oder gesellschaftlicher Stellung. Ihr erster Sekretär, Henry Oldenburg, pflegte zahlreiche Briefwechsel, so auch mit dem 1673 schon berühmten, in Delft praktizierenden Arzt Reinier de Graaf. In den Jahren zuvor hatte sich Leeuwenhoek offensichtlich erfolgreich mit der Anfertigung von Mikroskopen befasst und erste Beobachtungen mit deren Hilfe angestellt. De Graaf war über diese Arbeiten im Bilde und hatte mehrfach selbst verschiedene Objekte durch diese Mikroskope betrachten können. In der Zeitschrift der Royal Society, den Philosophical Transactions, erschien 1668 eine mikroskopische Arbeit des Italieners Eustachio Divini. Er hatte ein kleineres Tier als alle bisher gesehenen finden können. Wohl in Antwort auf diesen Bericht schrieb de Graaf an Oldenburg, dass Leeuwenhoek Mikroskope entwickelt habe, die besser seien als alle bisher bekannten. Der Brief wurde beim Treffen der Royal Society am 7. Mai 1673 (Julianischer Kalender) verlesen. Ein Brief von Leeuwenhoek selbst, in dem er verschiedene Beobachtungen mitteilte, war Graafs Schreiben beigefügt. Eine englische Übersetzung wurde in den Philosophical Transactions veröffentlicht.
Bemerkenswert ist, dass diese Kontaktaufnahme mitten im Englisch-Niederländischen Krieg von 1672–1674 stattfand, der Teil des Holländischen Kriegs von 1672 bis 1678 war. Zwar wurde Delft nicht von feindlichen Armeen erreicht, es gab im Rampjaar (Katastrophenjahr) 1672 jedoch Aufstände gegen die Regenten. Erst ein gutes halbes Jahr zuvor, am 10. September 1672, war die Hälfte der Stadtregierung, der Vroedschap, herausgeworfen worden.
Die Mitglieder der Royal Society trugen Oldenburg auf, direkt mit Leeuwenhoek in Kontakt zu treten und um Abbildungen der beobachteten Objekte zu bitten. Leeuwenhoek fand sich des Zeichnens nicht mächtig, er ließ daher zeichnen und sandte das Ergebnis nach London. Parallel zu diesem Brief schickte Constantijn Huygens einen Leeuwenhoek lobenden Brief an Robert Hooke, Mikroskopiker und Mitglied der Royal Society. Ab dieser Zeit sandte Leeuwenhoek bis an sein Lebensende zahlreiche Briefe an die Royal Society, von denen viele, oft gekürzt, in englischer Übersetzung in den Transactions abgedruckt wurden. In späteren Jahren wurden viele der Briefe in niederländischer oder lateinischer Fassung auch als eigenständige Veröffentlichungen gedruckt.
Am 23. Januar 1680 schrieb Hooke an Leeuwenhoek anscheinend, er sei erstaunt, dass dieser noch kein Mitglied der Royal Society sei, und er bot an, ihn zur Wahl vorzuschlagen. Die Antwort von Leuwenhoek vom 13. Februar ist erhalten: Er habe niemals mit einer solchen Ehre gerechnet und er würde die Wahl als größte Ehre der Welt ansehen. Tatsächlich wurde Leeuwenhoek bereits am 19. Januar (Julianischer Kalender) auf Vorschlag von William Croone einstimmig als ordentliches Mitglied gewählt. Der Sekretär der Gesellschaft wurde beauftragt, ein Diplom anzufertigen und Leeuwenhoek zu schicken.
Die Bedeutung, die die Aufnahme in die Royal Society für Leeuwenhoek hatte, wird aus seiner Antwort an Hooke deutlich, aber auch daraus, dass das Diplom im einzigen von ihm angefertigten Ölgemälde-Porträt prominent platziert war. Am 13. August des Jahres schrieb Constantijn Huygens Junior an seinen Bruder Christiaan Huygens: „Noch immer eilen alle hier um Leeuwenhoek zu sehen, als den großen Mann des Jahrhunderts. Vor einigen Monaten hat ihn die Royal Society in London aufgenommen, was ihm einigen Stolz gegeben hat. Er hat sogar ernsthaft Herrn Vater [gemeint ist Constantijn Huygens] gefragt, ob er mit dieser Ehre bekleidet in Zukunft verpflichtet sei, hinter einem Doktor der Medizin zurück zu stehen.“
Gegen Ende des 17. Jahrhunderts war Leeuwenhoek der einzige ernsthafte Mikroskopiker weltweit. Er hatte weder Rivalen noch Nachahmer. Mikroskope wurden sonst nur zum Zeitvertreib eingesetzt.
Besucher und Briefpartner.
Nachdem Leeuwenhoek durch seine Entdeckungen berühmt geworden war, wollten ihn zahlreiche Menschen besuchen und durch seine Mikroskope schauen, darunter Berühmtheiten und Staatsoberhäupter. Zar Peter der Große kam 1698 und ließ sich den Blutkreislauf im Schwanz eines Aals zeigen. Die Königin von England Maria II. suchte ihn ebenfalls in Delft auf, wie schon 1679 James Duke of York, der spätere König Jakob II. von England und 1678 John Locke. Leeuwenhoek fühlte sich dadurch geschmeichelt und es festigte seinen Ruf in der Stadt. Er fühlte sich aber auch gestört und wollte am liebsten allein gelassen werden.
Thomas Molyneux (1661–1733), irischer Arzt und Zoologe, wurde 1686 Mitglied der Royal Society. Er besuchte Leeuwenhoek in deren Auftrag 1685 und hinterließ einen schriftlichen Bericht. In diesem beschreibt er den Aufbau der Mikroskope, die Leeuwenhoek seinen Besuchern zeigte, aber auch, dass Leeuwenhoek von weiteren Mikroskopen sprach, die dieser nur selbst je gesehen hätte und die noch weit besser als die gezeigten wären. Jene, die er ausprobieren konnte, vergrößerten ähnlich stark wie einige, die er zuvor in England und Irland verwendete, sie hatten aber ein deutlich klareres Bild. Thomas Molyneux wurde vermutlich von seinem Bruder William Molyneux begleitet, denn dieser schrieb in einem Buch über Optik von seinem Besuch bei Leuwenhoek mit einer ähnlichen Einschätzung der Mikroskope.
Am 4. März 1699 wurde Leeuwenhoek von einem Mitglied der Académie des sciences in Paris, dem Physiker Burlet, als Briefpartner („correspondant“) benannt. Ob Leeuwenhoek darüber informiert war, ist nicht bekannt.
Leeuwenhoek führte Korrespondenzen mit vielen Gelehrten und Persönlichkeiten seiner Zeit, neben verschiedenen Mitgliedern der Royal Society unter anderem mit seinen Landsleuten Constantijn Huygens, Anthonie Heinsius, Pieter Rabus, sowie Gottfried Wilhelm Leibniz, Antonio Magliabechi, Kurfürst Johann Wilhelm von der Pfalz, Landgraf Karl von Hessen-Kassel und Melchisédech Thévenot.
Ein weiterer Besucher, der einen ausführlichen Bericht überlieferte, war Zacharias Konrad von Uffenbach, der 1710 kam. Gegen Ende seines Berichts schreibt er:
Alter und Tod.
Leeuwenhoek war im Alter finanziell gut abgesichert. Er versah seine städtischen Aufgaben bis etwa zum Alter von 70, bezog danach aber weiter das entsprechende Gehalt. Sein Vermögen lag bei fast 60.000 Gulden, in seinem Nachlass befanden sich neben zahlreichen Mikroskopen aus Silber auch drei aus Gold.
Leeuwenhoek starb, am 26. August 1723, fast genau zwei Monate vor seinem 91. Geburtstag in Delft, wo er in der Oude Kerk beigesetzt wurde. Die Inschrift auf seinem Grabmal lautet:
Porträts von Leeuwenhoek.
Trotz seiner Bekanntheit schon zu Lebzeiten gibt es nur wenige Abbildungen, von denen sicher ist, dass sie Leeuwenhoek zeigen. Das bekannteste ist ein Werk von Johannes Verkolje, das in zwei Versionen existiert. Ein Ölgemälde fertigte der Maler 1686 an, in etwa in Leeuwenhoeks 54. Lebensjahr. In diesem schaut Leeuwenhoek nach links. Er trägt eine Perücke, in seiner rechten Hand hält er einen Zirkel. Auf dem Tisch liegt neben anderen Dingen das gesiegelte Diplom der Royal Society. Das Gemälde gehört heute dem Rijksmuseum Amsterdam. Die andere Variante ist ein Mezzotinto-Druck. Dieser unterscheidet sich vom Gemälde durch die Ausrichtung, er ist spiegelverkehrt. Verkolje hat hier wohl auf der Druckplatte aus Kupfer das Ölgemälde richtig herum abgezeichnet, wodurch der Abdruck schließlich seitenverkehrt war. Der Künstler hat aber auch Veränderungen vorgenommen: In der Hand hält Leeuwenhoek jetzt eines seiner Mikroskope und auf dem Tisch liegen statt des Diploms einige Eichenblätter mit Gallen, ein Objekt, von dem Leeuwenhoek im gleichen Jahr mikroskopische Beobachtungen veröffentlicht hat. Von dieser Variante sind mehrere Abdrucke erhalten.
Ein weiterer Druck wurde auf den gravierten Titelseiten der letzten, 1718 veröffentlichten Briefe von Leeuwenhoek dargestellt. Der Graveur, Jan Goeree (1670–1731), fertigte dieses Bild 1707 an, als Leeuwenhoek 75 Jahre alt war.
Die Zunft der Delfter Chirurgen gab 1681 ein Ölgemälde bei Cornelis de Man in Auftrag, das viele ihrer Mitglieder zeigt. Im Mittelpunkt steht der offizielle Stadt-Anatom Cornelis 's Gravesande, der etwas an einem eröffneten Leichnam demonstriert. Rechts hinter ihm, also hinter seiner linken Schulter, steht Leeuwenhoek. Er war kein Mitglied der Gilde; es ist überliefert, dass der Maler dem Bild mit Leeuwenhoeks Anwesenheit mehr Glanz habe verleihen wollen.
Jan Vermeer und Leeuwenhoek lebten zur gleichen Zeit in Delft, waren gleich alt, beide berühmt und Leeuwenhoek hat Vermeers Nachlass abgewickelt. Die Vermutung liegt nahe, dass sie sich auch zu Lebzeiten kannten. Es gibt aber keine Belege darüber, dass sie bekannt waren oder dass Vermeer Leeuwenhoek auch gemalt hätte. Es wurde spekuliert, dass Leeuwenhoek für einige Bilder mit Wissenschaftlern (etwa „Der Geograph“ und „Der Astronom“) Modell gestanden habe. Dem wird jedoch auch widersprochen, mit dem Argument, dass es zwischen der Person auf dem Bild von Verkolje und den Wissenschaftlern Vermeers keine Ähnlichkeit gebe. Der 1669 entstandene „Geograph“ könnte jedoch von Leeuwenhoek inspiriert sein, denn dieser wurde im gleichen Jahr als Landvermesser zugelassen. Möglicherweise handelt es sich um eine idealisierte Version von Leeuwenhoek
Leeuwenhoeks Mikroskope.
Einfache und zusammengesetzte Mikroskope.
Alle von Leeuwenhoek bekannten Mikroskope sind sogenannte „einfache Mikroskope“. Im Prinzip funktionieren sie wie eine sehr starke Lupe. Da für stärkere Vergrößerungen stärkere Krümmungen der einzigen Linse erforderlich sind, sind die Linsen solcher einfachen Mikroskope sehr klein. „Einfach“ bezieht sich dabei nicht etwa auf eine einfache Herstellung, sondern auf den Gegensatz zu „zusammengesetzten Mikroskopen“, die mit Objektiv und Okular eine Vergrößerung in zwei Schritten bewirken (siehe auch Lichtmikroskop). Heutige Mikroskope sind bis auf Ausnahmen (siehe etwa Foldscope) zusammengesetzte Mikroskope.
Zusammengesetzte Mikroskope wurden einige Jahrzehnte vor Leeuwenhoeks Geburt entwickelt. Das Problem der chromatischen Aberration wurde erst im 19. Jahrhundert gelöst. Zu Leeuwenhoeks Zeiten multiplizierte sich bei zusammengesetzten Mikroskopen das Problem durch die Verwendung zweier Linsen. Sie produzierten daher vor allem im höheren Auflösungsbereich schlechte Ergebnisse. So schrieb Robert Hooke:
Erst ab etwa 1830 wurden zusammengesetzte Mikroskope leistungsfähiger als einfache.
Bauformen von Leeuwenhoeks Mikroskopen.
Einfache Mikroskopbauformen und Präparate-Erstellung.
Die Grundkonstruktion von Leeuwenhoeks Mikroskopen (siehe Abbildungen unten) war simpel: Eine kleine bikonvexe Linse wurde zwischen zwei Metallplatten gefasst. Auf der einen Seite wurde das Objekt vor die Linse platziert, von der anderen Seite wurde mit dem dicht davor liegenden Auge durch die Linse das vergrößerte Objekt betrachtet. Je nach Vergrößerung der Linse lag der Abstand zum Auge bei etwa einem Zentimeter. Um das Objekt an die richtige Position bringen zu können, wurde es auf einer Nadelspitze befestigt, die durch eine Vorrichtung mit Schrauben bewegt werden konnte. Eine solche Vorrichtung zum Bewegen des Präparats war ein Alleinstellungsmerkmal bei Mikroskopen seiner Zeit. Die meisten seiner Mikroskope hatten Metallplatten aus Messing oder Silber. Die Platten sind etwa 4–5 cm hoch und halb so breit. Anscheinend zog es Leeuwenhoek vor, ein gutes Präparat mit dem Präparatehalter fest zu verkleben und dann ein neues Mikroskop zu bauen. Im Gegensatz zur hohen Qualität der Linsen war die Qualität der Metallarbeiten nicht allzu gut.
Eine Abweichung vom Grundaufbau bestand darin, zwei oder drei Linsen nebeneinander zu montieren, so dass mittels zweier Haltevorrichtungen mehrere Präparate im raschen Wechsel miteinander verglichen werden konnten. Auch könnten unterschiedlich stark vergrößernde Linsen verwendet worden sein. Heute noch vorhandene Mikroskope Leeuwenhoeks haben alle eine einzelne Linse.
Andere Mikroskope zu Leeuwenhoeks Zeit wurden mit Auflicht verwendet, das Licht fiel also von der Seite des Objektivs auf das Präparat. Leeuwenhoek jedoch verwendete Durchlicht, also Licht, das durch das Präparat hindurch fiel. Durchlicht-Beleuchtung ist für biologische Präparate oft besonders geeignet. Wie genau er verschiedene Präparate beleuchtete, ob mit Kerzen oder generell mit Tageslicht, ist nicht bekannt. In einem Brief empfiehlt er für die Betrachtung von Schnitten, das Mikroskop gegen den offenen Himmel zu halten.
Objekte in Flüssigkeiten wurden in kleine Glasröhrchen gefüllt und darin betrachtet. Diese hat er mit zwei Silber- oder Kupferfedern so befestigt, dass er das Röhrchen wie gewünscht vor der Linse bewegen konnte. Leeuwenhoek beschrieb seinem Besucher Uffenbach, dass er die jungen Austern, die der Besucher betrachten konnte, aus der Mutter heraus genommen, mit einem Tropfen Weingeist versetzt und das Glasröhrchen an das entstandene Gemisch gehalten hatte. Dieses zog darauf von selbst in die Röhrchen (siehe Kapillarkraft). Weingeist verwendete er, damit das Gemisch „nicht so leicht stinkend“ würde wie bei der Verwendung von Wasser.
In späteren Versuchen hat Leeuwenhoek Flüssigkeitstropfen wohl auch zwischen zwei Glasplättchen verteilt. Eine Goldlösung ließ Leeuwenhoek auf ein Stück Glas präzipitieren und befestigte dieses am Mikroskop.
Dobell nahm an, dass Leeuwenhoek der erste war, der von undurchsichtigen Objekten Schnitte anfertigte, um diese im Durchlicht zu betrachten. Tatsächlich wurden Schnitte jedoch schon zuvor von Robert Hooke, Nehemiah Grew und Malpighi angefertigt. Untersuchungen im 20. Jahrhundert an Originalschnitten von Leeuwenhoek zeigten, dass ein Kork-Schnitt teils nur wenige Mikrometer dick war. Er fertigte die Schnitte wohl mit seinem Rasiermesser an, auf einem Holundermark-Schnitt konnten rote Blutkörperchen gefunden werden.
Aalkijker.
Eine weitere Variante war der „Aalkijker“ (Aalgucker). Aalkijker sind in drei Bauformen bekannt. 1689 beschrieb Leeuwenhoek zum ersten Mal, dass er sein Mikroskop angepasst habe, um das strömende Blut im Schwanz junger Aale, Kaulquappen und kleiner Fische zu beobachten (siehe Abbildung).
1708 schrieb Leeuwenhoek, dass er den Aalkijker umgestaltet habe, um die Beobachtung zu vereinfachen, ohne aber eine Zeichnung beizufügen. Sein Besucher Uffenbach fertigte eine Zeichnung an, die er seiner Reiseerzählung beigab, die vermutlich diese Bauform zeigt (siehe Abbildung). Eine weitere Abbildung findet sich auf der Titelseite der Auktion, bei der nach seinem Tod viele der Geräte versteigert wurden.
Uffenbach schrieb über das Gerät:
Eine weitere Bauform, die Leeuwenhoek zugeschrieben wird, ist im Museum Boerhaave in Leiden ausgestellt. Im Vergleich zur ersten Bauform ist der Rohrhalter hier kürzer und ein Linsenhalter ist dauerhaft mit ihm verbunden. Mehrere Linsen sind zwischen kleine Platten gefasst und können ausgewechselt werden.
Linsen.
Das besondere an Leeuwenhoeks Mikroskopen war die ansonsten in seiner Zeit unerreichte Qualität der Linsen.
Für Tuchhändler dieser Zeit waren Lupen ein wichtiges Hilfsmittel, um die Anzahl der Fäden in einem Stoff und damit dessen Qualität zu bestimmen. Vermutlich hat Leeuwenhoek in seiner Amsterdamer Zeit daher zum ersten Mal mit Glaslinsen gearbeitet.
Sogenannte Flohgläser, also einfache Vergrößerungsgläser zum Betrachten von Insekten, waren eine Modeerscheinung der Zeit und das Schleifen von Linsen aus Glasblöcken ein in weiten Kreisen verbreiteter Zeitvertreib. In den 1650er Jahren war Delft für die Qualität seiner Glaslinsen bekannt, nicht zuletzt wegen der hohen Güte des Glases aus lokaler Produktion.
Wie und warum Leeuwenhoek sich für die Mikroskopie begeisterte, ist nicht überliefert. Es gibt jedoch Hinweise darauf, dass er von Robert Hookes Micrographia inspiriert wurde. Er hielt sich ungefähr 1668 in England auf und 1667 kam die zweite Auflage der Micrographia auf den Markt. Darin sind auch mikroskopische Abbildungen von Stoffen zu sehen, an denen Leeuwenhoek vermutlich berufliches Interesse hatte, genauso wie mögliche Berufskollegen, die er vielleicht in England besuchte. Im Vorwort beschrieb Hooke die Methoden, um Linsen herzustellen, und dass einfache Mikroskope bessere Bilder liefern, aber schwieriger zu benutzen sind. Der wohl stärkste Hinweis ist, dass Leeuwenhoek in seinem ersten Brief an die Royal Society zahlreiche Objekte behandelte, die auch in der Micrographia beschrieben wurden: Stachel und Mundwerkzeuge der Biene, eine Laus und Fruchtkörper von Schimmel, und im unmittelbaren Zusammenhang in beiden Werken Holz, Holundermark, Kork und ein Federkiel.
Leeuwenhoek hat seine genauen Arbeitsweisen geheim gehalten. Das betrifft nicht nur die Verwendung seiner besten Mikroskope, sondern auch die Herstellungsweise seiner Linsen.
Es gibt prinzipiell drei Möglichkeiten, kleine, starke Linsen herzustellen. Sie können aus einem Glasstück geschliffen und anschließend poliert werden. Ein dünner Glasfaden kann in eine Flamme gehalten werden, so dass sich am Ende ein Kügelchen bildet. Oder ein dünnes Glasröhrchen wird am Ende zugeschmolzen und zum Glühen gebracht. Durch Blasen in das Röhrchen von der anderen Seite entsteht eine Glaskugel, die eine Warze hat. Diese Warzen sind linsenförmig. Leeuwenhoek hat wohl mindestens zwei dieser Verfahren verwendet, denn von den neun heute noch bekannten Exemplaren von Leeuwenhoeks Mikroskopen haben alle bis auf eines geschliffene Linsen, wie Untersuchungen im 20. Jahrhundert ergeben haben. Nur das am stärksten vergrößernde, das sogenannte Utrechter Mikroskop, hat eine erschmolzene Linse in der Form einer leicht gedrückten Kugel. Ob sie geblasen oder am Ende eines Glasfadens erzeugt wurde, ist umstritten.
Auch sein Besucher Uffenbach berichtete über Leeuwenhoeks Geheimhaltung. Er konnte ihm jedoch entlocken, dass dieser zum Schleifen von Linsen zwar nur einen Schalentyp verwende, dass es aber einen Unterschied mache, ob er frische oder schon häufig benutzte Schalen verwende, da sich die Schalen durch Gebrauch weiten würden und die Gläser dadurch größer würden, ein Vorgang, den Uffenbach als allgemein bekannt ansah. Die Frage, ob Leeuwenhoek auch einige Linsen blasen würde, verneinte Leeuwenhoek entschieden und „bezeigte eine große Verachtung gegen die geblasenen Gläser. […] alle seine Gläser wären auf beyden Seiten convex geschliffen“. Uffenbach schreibt aber auch:
Uffenbachs mitreisender Bruder wollte nicht glauben, dass es möglich sei, etwas anderes zu blasen als eine Kugel. Arbeiten aus dem 20. Jahrhundert zeigen dies jedoch. Uffenbach beschreibt ferner, dass einige Mikroskope doppelte Linsen hatten, also zwei Linsen direkt hinter einander, die zusammen nicht viel dicker seien als die einfachen Linsen. Die doppelten Linsen seien zwar mühsamer zu machen als die einfachen, sie würden aber auch laut Leeuwenhoeks Aussage nur wenig mehr vergrößern als diese.
Die Linse des Utrechter Mikroskops ist etwa 1,1 mm dick. Von den beiden Messingplatten, zwischen denen die Linse montiert ist, hat die auf der Präparat-Seite eine Öffnung mit 0,5 mm Durchmesser, die dem Auge zugewandte einen Durchmesser von 0,5 mm. Die numerische Apertur wurde mit 0,4 bestimmt.
Alle untersuchten Linsen, einschließlich derer der Mikroskope, die Leeuwenhoek der Royal Society vermachte, waren bikonvex, nicht etwa kugelförmig. Möglicherweise war er deshalb erfolgreicher als andere Mikroskopiker, die mit einfachen Mikroskopen und mit kugelförmigen Linsen arbeiteten.
Anzahl und Verbleib der Mikroskope.
Bis zu seinem Tod fertigte Leeuwenhoek mehr als 500 einfache Varianten seiner Mikroskope, Aalkijker und einzelne Linsen an. Zu seinen Lebzeiten gab er soweit bekannt nur zwei davon ab, und zwar als Geschenk an Königin Maria II. von England, als diese ihn in Delft besuchte. Ansonsten verweigerte er jedes Ansinnen auf Verkauf oder Abgabe seiner Instrumente.
Zu Lebzeiten stellte er ein Schränkchen mit 26 Mikroskopen aus Silber zusammen, die ursprünglich jeweils ein Präparat montiert hatten. Dieses Schränkchen vermachte er der Royal Society. Seine Tochter verschickte es nach seinem Tod nach London. Diese Sammlung wurde 1722 und 1739 eingehend beschrieben. In der ersten Hälfte des 19. Jahrhunderts ging sie jedoch verloren.
Leeuwenhoeks Tochter Maria starb 1745. Zwei Jahre später und damit 24 Jahre nach Leeuwenhoeks Tod wurden die verbliebenen Mikroskope in der Lukasgilde in Delft versteigert, der Gilde der Maler, Glasmacher und Porzellanhersteller. Zwei Exemplare des Versteigerungskatalogs sind überliefert, einer der beiden enthält auch die Namen der Käufer und den Preis. Die Sammlung wurde auf 196 Einzelposten aufgeteilt, viele bestanden aus einer Box mit zwei Mikroskopen, so wie Leeuwenhoek sie hinterlassen hatte. Einige Posten bestanden aus Linsen. Von den 322 Mikroskopen waren die meisten aus Messing, 131 aus Silber, vier hatten beide Metalle und drei Exemplare waren aus Gold. Fast alle zugehörigen Linsen waren aus Glas, aber vier der Silbermikroskope hatten eine Linse aus Quarz und zwei weitere aus Sand. Außerdem kamen 23 Aalkijker der verschiedenen Bauarten zum Verkauf. Die meisten Käufer waren Delfter Bürger, darunter einige Notare. Bis zu 20 Einzelposten gingen an eine Person.
Ende des 20. Jahrhunderts waren noch neun seiner Mikroskope bekannt. Bis Ende 2015 hat sich die Zahl der Leeuwenhoek zugeschriebenen Mikroskope auf zwölf erhöht. Ein Besucher einer Ausstellung erkannte, dass er eines zu Hause hatte. Eines wurde bei silbernem Puppenhaus-Zubehör gefunden, ein weiteres fand sich im Schlamm eines Delfter Kanals. Hinzu kommen ein Aalkijker und sechs einzelne Linsen.
Eines dieser Mikroskope, ein silbernes, wurde 2009 bei Christie’s für 350.000 Euro versteigert. Vier befinden sich im Museum Boerhaave in Leiden, zwei im Deutschen Museum in München, eines im Universitätsmuseum Utrecht, eines im Naturkundemuseum Antwerpen und neben dem versteigerten ein weiteres in einer privaten Sammlung. Das Museum Boerhaave besitzt außerdem fünf einzelne, gefasste Linsen.
Leistungsfähigkeit der Mikroskope.
Die Sammlung der 26 Mikroskope der Royal Society wurde 1739 eingehend untersucht. Umgerechnet auf den Abstand eines Gegenstands zum Auge von 250 mm ergaben sich dabei Vergrößerungen von 50-fach (entsprechend einer Brennweite von f=5,08 mm) bis 200-fach (f=1,27 mm). Am häufigsten war eine Vergrößerung von etwa hundertfach (f=2,54 mm), die bei acht Mikroskopen vorkam.
Bei den zehn Anfang 2015 noch bekannten Mikroskopen traten Vergrößerungen von 68-fach(f=3,66 mm) bis 266-fach (f=0,94 mm) auf.
Beim letzteren, dem sogenannten Utrechter Mikroskop, konnte bei Untersuchungen im 20. Jahrhundert mit Fotos von Diatomeen, einem bei Mikroskopikern beliebten Testobjekt, eine Auflösung von 1,35 µm erreicht werden. Damit übertraf es noch die Auflösung eines achromatischen zusammengesetzten Mikroskops von 1837 von Charles Chevalier, einem führenden Mikroskopbauer seiner Zeit.
Die fünf einzelnen gefassten Linsen des Museums Boerhaave haben meist niedrigere Vergrößerungen, von 32-fach bis 65-fach, nur eine erreicht 150-fach. Sie werden als Zubehör zum Aalkijker gedeutet.
Zusammengesetzte Mikroskope erreichten zu Leeuwenhoeks Zeiten nur eine Vergrößerung von etwa 100-fach. Sein Beitrag für die Anwendung der Mikroskopie als wissenschaftliche Technik war außerordentlich. Niemand hat zu seiner Zeit vergleichbare Beobachtungen machen können, auf Grund der hohen Leistungsfähigkeit seiner Geräte aber auch auf Grund der Geheimhaltung mit der er seine leistungsfähigeren Verfahren umgab.
Geheime Methoden.
Leeuwenhoek hielt seine Arbeitsmethoden zum großen Teil geheim. Er erwähnte explizit, dass er seine besten Mikroskope für sich selbst behalte und seinen Besuchern nicht zeigte. Émile Blanchard vermutete 1868 gar, Leeuwenhoek habe im hohen Alter seine besten Instrumente verschwinden lassen, um seine Methode geheim zu halten. Auch seine spezielle Beobachtungsmethode für sehr kleine Kreaturen hielt er geheim. Daher kann nur spekuliert werden, wie er diese Beobachtungen genau durchführte.
Dobell war überzeugt, dass Leeuwenhoek Dunkelfeldmikroskopie betrieb. Barnett Cohen demonstrierte 1937 zwei Verfahren, mit denen Leeuwenhoek eine zusätzliche Vergrößerung erzielt haben könnte: Durch Einbringen der Flüssigkeit in das kugelförmig aufgeblasene Ende einer Glaskapillare konnte er bei einem Kugeldurchmesser von etwa 1 mm eine um Faktor 1,5-fach erhöhte Vergrößerung feststellen. Durch Einbringen einer kleinen Luftblase in die Kugel konnte er ferner eine um Faktor 2 erhöhte Vergrößerung bei Objekten vor der Blase beobachten. Mit seitlicher Dunkelfeldbeleuchtung konnte er rote Blutkörperchen so sehr deutlich sehen.
Klaus Meyer, der Leeuwenhoeks Briefe ins Deutsche übersetzte und 1998 herausgab, vertrat dagegen die Ansicht, dass Leeuwenhoek sein normales Mikroskop mit einem Tubusrohr und einer schwach vergrößernden Okularlinse versah und es so zu einem zusammengesetzten Mikroskop erweiterte. Laura J. Snyder vermutet, dass er neben der Anwendung von Dunkelfeldmikroskopie auch ein Sonnenmikroskop verwendete, mit dem er mikroskopische Bilder an eine Wand warf.
Aufgrund der Geheimhaltung hatten Leeuwenhoeks Instrumente keinen Einfluss auf die weitere Entwicklung von Mikroskopen.
Leeuwenhoeks Briefe, seine Beobachtungen und Entdeckungen.
Übersicht.
Leeuwenhoek teilte alle seine Beobachtungen in über 300 Briefen mit. Den ersten von 215 an die Royal Society in London schickte er 1673. Von diesen wurden 119 mindestens auszugsweise in den Philosophical Transactions veröffentlicht. Das macht ihn bis heute (Stand 2014) mit großem Abstand zum Autor mit den meisten Veröffentlichung in dieser Zeitschrift seit deren Gründung 1665 und damit in über 350 Jahren. Er korrespondierte auch mit vielen anderen Gelehrten. Dass Leeuwenhoek keine Ausbildung als Wissenschaftler hatte, ist seinen Briefen anzumerken. In ihnen beschreibt er seine Beobachtungen, ohne diese zu ordnen, durchmischt mit persönlichen Details, um plötzlich auf ein völlig anderes Thema zu kommen. Jedoch hat er immer deutlich auseinandergehalten, was er tatsächlich beobachtet hatte und wie er seine Beobachtungen deutete, ein Merkmal auch moderner Wissenschaft. Diese Klarheit ist in wissenschaftlicher Literatur seiner Zeit selten. Leeuwenhoek beschrieb über 200 Arten, jedoch hat er sie häufig nicht genau genug beschrieben, um sie heute sicher identifizieren zu können.
Als seine wichtigsten Entdeckungen werden je nach Autor die Spermatozoen, Rote Blutkörperchen oder Mikroorganismen genannt. Mikroorganismen beschrieb er erstmals 1674 und genauer in einem langen Brief vom 9. Oktober 1676. Er fand Glockentierchen, Rädertierchen, Süßwasserpolypen, frei bewegliche Protozoen und Bakterien. 1688 beschrieb er den Blutkreislauf in der Schwanzflosse eines jungen Aals und er klärte den Lebenszyklus etlicher Tiere auf. Daneben beobachtete er viele weitere Objekte der belebten und unbelebten Natur wie die Struktur von Holz, die Form von Kristallen oder gestreifte Muskulatur, zu deren Untersuchung er Färbungen mit Safran durchführte.
Mikroorganismen: Die Diertgens oder Animalcules.
Erste Beobachtungen.
Die ersten Mikroorganismen sah Leeuwenhoek vermutlich 1674. Er beschrieb sie in einer kurzen Passage in einem Brief an Henry Oldenburg, Sekretär der Royal Society, vom 7. September des Jahres. Im Wasser eines Süßwassersees nahe Delft, das er am Tag nach der Entnahme untersuchte, fand er Erdpartikel und spiralförmige ‚Ranken‘. Clifford Dobell identifizierte diese in seinem Buch über Leeuwenhoek 1932 als die Alge "Spirogyra". Eine Arbeit von 2016 widersprach dieser Ansicht jedoch und vermutete, dass es sich um die Cyanobakterie "Dolichospermum" handelte. Auch weitere grüne Partikel waren in Leeuwenhoeks Wasserprobe vorhanden, und ziemlich sicher auch Protozoen, denn er schreibt:
Der Größenvergleich bezog sich wie damals üblich auf das Volumen. Tausendfach kleineres Volumen entspricht einer zehnfach kürzeren Länge. Die Tiere, auf die sich Leeuwenhoek im Größenvergleich bezieht, sind Milben. Die Käsemilbe ist etwa einen halben Millimeter (= 500 Mikrometer) lang, die Mehlmilbe "Acarus siro" etwas kleiner. Tatsächlich hat "Euglena viridis" eine Länge von 40 – 65 Mikrometer.
Leeuwenhoek schrieb von „dierkens“, „diertgens“, „kleyne dierkens“ oder „diertjes“, also von Tierchen. In den veröffentlichten englischen Übersetzungen wurden sie auf Lateinisch als „animalcules“ oder, da Englisch kein Diminutiv kennt, als „little animals“ (kleine Tiere) bezeichnet.
Ein weiterer Bericht folgt ein gutes Jahr später in einem Brief vom 20. Dezember 1675, der aber nicht veröffentlicht wurde. Leeuwenhoek schrieb, dass er im vergangenen Sommer in fast allen Gewässerproben Animalcules gefunden habe. Von diesen seien einige unglaublich klein gewesen, kleiner gar als jene, die von anderen entdeckt wurden und Wasserflöhe oder Wasserläuse genannt wurden. Hier bezog sich Leeuwenhoek wohl auf eine Veröffentlichung von Jan Swammerdam von 1669.
In einem ebenso unveröffentlichtem Brief einen Monat später schrieb Leeuwenhoek, dass er auch in aufgefangenem Regenwasser, Quellwasser und im Wasser der Kanäle von Delft fündig wurde. Außerdem kündigte er einen genaueren Bericht an.
Der Brief über die Protozoen.
Dieser Bericht erfolgte in einem Brief vom 9. Oktober 1676, der als „Brief über die Protozoen“ bekannt wurde. Das Original-Manuskript hat 17½ eng beschriebene Folio-Seiten. Knapp die Hälfte des Briefes wurde in englischer zusammenfassender Übersetzung im März 1677 in den Philosophical Transactions der Royal Society mit dem Titel „[…] by Mr. Antony van Leewenhoeck […]: Concerning little Animals by him observed in Rain- Well- Sea- and Snow-water; as also in water wherin Pepper had lain infused“. veröffentlicht. (Deutsch: Bezüglich kleiner Tiere, die er in Regen- Brunnen- Meeres- und Schneewasser beobachtete; und auch in Wasser worin er Pfeffer eingelegt hatte.) Der restliche Teil blieb unbekannt bis zu den Untersuchungen von Dobell (1932), der in den Archiven der Royal Society das Originalmanuskript fand und neu übersetzte.
Der Brief beginnt mit mehreren, teils sehr ausführlichen Beobachtungen des Auftauchens verschiedener Arten von Mikroorganismen in frischem Regenwasser, das einige Tage steht. Es folgen kurze Beschreibungen der Funde in Fluss- und Brunnenwasser und eine ausführlichere über Meerwasser. Der zweite Teil des Briefes beschäftigt sich mit Aufgüssen mehrerer Gewürze mit Regenwasser. Fünf Ansätze mit Pfeffer werden beschrieben, und je einer mit Ingwer, Gewürznelken und Muskat. Dazwischen ist eine Beobachtung an Essig eingestreut. Bis auf einige Beobachtungen an Pfefferwasser fiel der zweite Teil jedoch den Kürzungen zum Opfer und wurde erstmals 1932 veröffentlicht. Mit den Aufgüssen verwendete er ein ähnliches Verfahren, wie viele spätere Mikroskopiker, die einen Heuaufguss ansetzten um Mikroorganismen zu beobachten, besonders die danach benannten Infusorien.
In diesem Brief beschreibt Leeuwenhoek viele Organismen, davon einige Arten so genau, dass sein Biograf Clifford Dobell, selbst Protozoologe, diese 1932 eindeutig zuordnen konnte. Bei Vorticella, einem Glockentierchen, beschreibt er das charakteristische Zusammenziehen und Strecken, bei Wimpertierchen die „dünnen, kleinen Füße oder Beine“ oder „kleine Pfoten“, also die Cilien. Auch das Waffentierchen "Stylonychia mytilus" lässt sich zuordnen.
In frisch aufgefangenem Regenwasser entdeckte er die ersten Organismen nach zwei bis vier Tagen, sie erreichten dann eine Dichte von etwa 1000 bis über 2000 „pro Tropfen“. Seine Größenangaben waren so nachvollziehbar, dass sie sich auf heutige Maße umrechnen lassen, für einige der Organismen auf 6–8 Mikrometer. Zur Veranschaulichung gab er an, dass eines der Diertgen bezogen auf ein Milbe so groß sei wie eine Biene zu einem Pferd. Bei einigen konnte er auf Grund ihrer geringen Größe keine Form beschreiben. In Flusswasser fand er weniger als 25 Tierchen pro Tropfen, in Brunnenwasser im Winter keine und im Sommer über 500 „in einem Korn Wasser“. In sommerlichem Meerwasser dagegen nur 1–4 pro Tropfen.
Pfefferwasser untersuchte Leeuwenhoek eigentlich, um nach der Ursache für die Schärfe des Pfeffers zu suchen. Cartesianer hatten spekuliert, dass scharfer, saurer Geschmack durch die Form von Partikeln der jeweiligen Stoffe hervor gerufen wird. Leeuwenhoek fand im Wasser einige Tage nach dem Einlegen des Pfeffers neben Protozoen auch Organismen, die sich nach seiner Beschreibung sicher als Bakterien identifizieren lassen. An einer Stelle beschreibt er, wie ein ovaler Animalcules von über hundert der allerkleinsten Animalcules umgeben war, von denen einige fort getrieben wurden. Mit heutigem Wissen lässt sich diese Szene als ein Wimperntierchen deuten, das von Bakterien umgeben ist, von denen einige durch den Schlag der Cilien abgetrieben werden. Von den Wimperntierchen beschrieb er bis zu über 8000 in einem Tropfen, die Zahl der Bakterien aber als „weitaus größer“. Auch beobachtete er, dass das oberflächennahe Wasser weitaus dichter besiedelt war, als der Wasserkörper.
Eine beschriebene Bakterienform identifizierte Dobell als „vermutlich Bacilli“, eine weitere als die Fadenbakterie "Pseudospira". Eine ausführlich beschriebene Form sind Spirillen, „sehr kleine Aale“. "Pseudospira" und Spirillen kommen allerdings erst im ursprünglich gekürzten Teil des Briefes vor. Leeuwenhoek schätzte die Zahl der Spirillen auf über hunderttausend in einem kleinen Tropfen Oberflächenwasser ein.
Im nicht veröffentlichten Teil des Briefes findet sich auch eine interessante Beobachtung über Essigälchen: Bei manchen der großen Exemplare, die er auseinanderbrach konnte er beobachten, dass lebende kleine Älchen hervor kamen. Tatsächlich sind Essigälchen lebendgebärend und diese Beobachtungen somit die ersten zur Fortpflanzung dieser Tierart.
Bestätigung der Entdeckung.
Die Royal Society war an Leeuwenhoeks Schilderungen sehr interessiert, aber auch skeptisch. Nehemiah Grew, Sekretär der Gesellschaft und ebenfalls Mikroskopiker, wurde beauftragt, Leeuwenhoeks Versuche zu wiederholen. Es ist nicht überliefert, ob es tatsächlich dazu kam. Zusammen mit weiteren Beobachtungen sandte Leeuwenhoek am 5. Oktober 1677 Stellungnahmen von acht angesehenen Personen, denen er die Mikroorganismen gezeigt hatte, nach London. Darunter war der Pastor der englischen Gemeinde in Delft, zwei lutheranische Pastoren aus Delft und Den Haag sowie ein Notar.
Robert Hooke, selbst berühmter Mikroskopiker und Mitglied der Royal Society, hatte auf Grund nachlassender Sehstärke schon länger nicht mehr mikroskopiert. Nun aber fertigte er einen Aufguss mit Pfefferkörnern durch und beobachtete. Nach etwa einer Woche fand er zahlreiche Mikroorganismen und konnte Leeuwenhoeks Berichte somit bestätigen.
Bei Sitzungen der Royal Society am 1., 8. und 15. November 1677 führte Hooke Demonstrationen durch. Während die ersten beiden wohl, auch auf Grund technischer Einschränkungen der verwendeten Mikroskope, nicht alle Teilnehmer überzeugten, war das Ergebnis des Pfefferaufgusses, das bei der dritten Demonstration vorgeführt wurde, anscheinend eindeutig. Die „kleinen Tiere“ bewegten sich auf unterschiedlichste Art, so dass es Tiere sein mussten, Irrtum ausgeschlossen. Leeuwenhoeks Entdeckung wurde nicht mehr angezweifelt. Die Neuigkeit der Entdeckung verbreitete sich schnell. Wie Hooke in einem Brief an Leeuwenhoek vom 18. April 1678 berichtete, ließ sich selbst König Charles II. von England die Entdeckung vorführen und war über die Beobachtung „sehr erfreut“.
Bakterien im Zahnbelag.
Am 12. September 1683 verfasste Leeuwenhoek einen Brief, in dem er Bakterien aus dem Zahnbelag beschreibt. Dieser wurde 1695 auch in seiner Briefsammlung „Arcana naturae detecta“ veröffentlicht. Dazu gehört die gezeigte Abbildung mit den fig. A bis fig. G, die zeigt, dass es tatsächlich um Bakterien geht. Diese fand er, wenn er Zahnbelag entweder mit Regenwasser oder mit Speichel vermischte, nicht aber in reinem Speichel.
In diesem Brief schreibt er weiterhin:
Leeuwenhoek beobachtete hier als Erster die schützende Wirkung eines Biofilms für die darin lebenden Mikroorganismen.
In einem späteren Brief beschrieb er 1692 ebenfalls Bakterien aus dem Zahnbelag und bestimmte auch deren Größe.
Weitere Beobachtungen von Mikroorganismen.
In einem Brief vom 7. März 1692 an die Royal Society berichtet Leeuwenhoek über Tierchen, die „kopulierten“. Sehr wahrscheinlich sah er die Konjugation und Teilung von Ciliaten. In einem Brief an den Kurfürsten von der Pfalz vom 9. November 1695 beschreibt er das Aufeinandertreffen zweier Tierchen, die sich offenbar zur Konjugation verbinden. Im gleichen Brief spekuliert er auch, dass kleinere Tierchen (also Bakterien) den größeren (etwa Ciliaten) als Nahrung dienen könnten. Und er beschrieb, dass das Fleisch toter junger Teichmuscheln verschwand, während sich die Zahl der Mikroorganismen stark vermehrte. Er schloss daraus, dass diese sich von den Teichmuscheln ernährten.
Neben freilebenden Mikroorganismen fand Leeuwenhoek auch solche, die im Körper von Tier und Mensch lebten. In einem Brief von 1674, der erst im 20. Jahrhundert erstmals veröffentlicht wurde, beschrieb er eiförmige Teilchen in der Galle eines alten Kaninchens, sehr wahrscheinlich Oocysten von "Eimeria stiediae", dem Erreger der Kokzidiose der Kaninchen, ohne dass er jedoch die Funktion der Oocyste erkannte. 1680 (veröffentlicht 1695) entdeckte er Mikroorganismen im Darm einer Pferdebremse, vermutlich Flagellaten.
In einem Brief vom 4. November 1681 schrieb er an Robert Hooke, dass er Durchfall gehabt habe, und seine Ausscheidungen untersucht habe. Darin fand er Mikroorganismen, aus deren Beschreibung hervorgeht, dass es sich um "Giardia intestinalis" handelte, den Erreger der Giardiasis, einer mit Durchfall verbundenen Erkrankung. Einige Organismen erwähnt der Brief ohne genauere Beschreibung, aus einer weiteren lässt sich jedoch auf Spirochäten schließen, meist harmlose Darmbewohner. Leeuwenhoek untersuchte auch seine normalen Exkremente, also wenn er nicht krank war. Dann konnte er keine Mikroorganismen finden, sondern nur wenn die Exkremente „lockerer“ waren als normal. Er stellt jedoch weder hier noch sonst in seinen Schriften eine Ursache-Wirkungs-Beziehung zwischen Mikroorganismen und Krankheit her.
1683 beschrieb er mehrere Experimente an Fröschen, die ihm zeigten, dass verschiedene Mikroorganismen zahlreich in deren Darminhalt leben, nicht aber im Blut. Von zweien fertigte er Zeichnungen an (siehe Abbildung), auf denen sich "Opalina dimidiata" (siehe Opalinea) und das Wimperntierchen "Nyctotherus cordiformis" identifizieren lassen.
In einem Brief vom 2. Januar 1700 gab Leeuwenhoek die älteste Beschreibung der Grünalge "Volvox" an. Auf der beigefügten Zeichnung (siehe Abbildung) ist "Volvox" ohne Zweifel identifizierbar. Er beschrieb die Fortbewegung und auch die Reproduktion durch Tochterkugeln, die in der „Mutterkugel“ heranwachsen. Über mehrere Tage hinweg beobachtete er einzelne Mutterkolonien, in denen die Tochterkolonien wuchsen, bis die Mutterkugel schließlich platzte. In den Tochterkolonien beobachtete er wiederum Tochterkolonien. Er betonte, dass die Töchter seiner Beobachtung nach also nicht durch Spontanzeugung entstehen, sondern gebildet werden wie alle Pflanzen und Samen. Das Beispiel "Volvox" wurde von Anhängern der Präformationslehre herangezogen, um ihre Ansichten zu bestärken.
Leeuwenhoek schrieb zwar, dass viele Leute die Kugeln auf Grund der Fortbewegung als Tierchen bezeichnen würden, bezeichnet sie selber aber als „deeltjens“, also als Teilchen. In einer Probe mit "Volvox" und vielen kleinen Tieren wie Mückenlarven und Krebschen beobachtete er, dass "Volvox" nach einigen Tagen verschwand. Daher spekulierte er, das "Volvox" den Tieren als Nahrung diene.
Im gleichen Brief ist auch ein Bild einer Foraminiferen-Schale, die er in einem Krabbenmagen gefunden hatte. Eine frühere Beschreibung einer Foraminiferen-Schale wurde von Robert Hooke 1665 angefertigt.
Am 9. Februar 1702 beschrieb er Mikroorganismen aus einer Wasserrinne, die sich anhand seiner Angaben als "Haematococcus pluvialis", "Chlamydomonas" und "Coleps" identifizieren lassen. Im gleichen Brief beschrieb er Rädertierchen, dass diese "Haematococcus" fressen, und dass sie ausgetrocknet und danach wieder ins Leben zurückkehren können. Wenn er getrocknete Ablagerungen aus der Wasserrinne fünf Monate trocken lagerte und dann mit Wasser versetzte, konnte er nach einigen Stunden lebende Mikroorganismen entdecken. Aus solchen Beobachtungen schloss er, dass Mikroorganismen durch den Wind in neue Lebensräume verbreitet werden können. Auch dies sah er als Argument gegen Spontanzeugung.
Am 25. Dezember 1702 schrieb Leeuwenhoek einen Brief an die Royal Society, in dem er Untersuchungen an Wasserlinsen beschrieb, oder genauer die „Tierchen“, die er auf den Wurzeln der Wasserlinsen fand. Durch seine Beschreibung und eine beigefügte Abbildung (hier gezeigt) lassen sich wieder mehrere Organismen identifizieren. Dazu gehörten Glockentierchen der Gattung "Vorticella" sowie "Carchesium polypinum", Diatomeen, Rädertierchen (vermutlich "Limnias ceratophyli") und ein röhrenbauender Ciliat, vermutlich "Cothurnia cristallina". Schließlich erfolgt die erste Beschreibung des Süßwasserpolypen "Hydra". Leeuwenhoek beobachtete über zwei Tage hinweg die Sprossung junger Polypen aus einem älteren und damit die erste solche asexuelle Reproduktion bei Tieren überhaupt. Auch Polypenläuse der Gattungen "Trichodina" und "Kerona" konnte er beobachten.
Gut zwei Monate später schrieb Leeuwenhoek erneut an die Royal Societey, diesmal über den koloniebildenden Flagellaten "Anthopysa vegetans", eine Goldalge die sich von Bakterien ernährt und baumartige Strukturen bildet. Auch diese Beschreibung wurde von einer Abbildung begleitet.
Blut und Blutkreislauf.
Vorgeschichte.
William Harvey veröffentlichte 1628 sein berühmtes Buch „de Motu Cordis“, in dem er darlegte, dass das Blut im Körper in einem Kreislauf floss, entgegen Jahrhunderte alten früheren Vorstellungen. Er konnte jedoch die Kapillaren, die Verbindung zwischen Arterien und Venen, nicht finden, da er nicht mikroskopisch arbeitete. Dies gelang Marcello Malpighi 1661 in der Lunge und später auch in der Niere. Auch rote Blutkörperchen beobachtete er, die er 1666 als merkwürdige kleine Fettkugeln beschrieb und die er für die rote Farbe des Blutes verantwortlich machte, und unterschied sie vom Blutserum. Jan Swammerdam sah die roten Blutkörperchen bereits 1658 im Froschblut.
Im Brief von de Graaf, in dem er Leeuwenhoek der Royal Society 1673 vorstellte, schlug er vor, diese möge Leeuwenhoek einige schwierige Aufgaben stellen. Einige von Leeuwenhoeks Entdeckungen gingen denn auch auf Vorschläge zurück, die ihm Mitglieder der Gesellschaft machten. Der Sekretär der Gesellschaft Oldenburg schlug Leeuwenhoek in seiner Einladung, mehr Berichte nach London zu schicken, vor, Blut und andere Körperflüssigkeiten zu untersuchen. Im zweiten Brief, den dieser an die Gesellschaft schickte, beschrieb er Beobachtungen an einer Laus, die aus seiner Hand Blut gesaugt hatte.
Rote Blutkörperchen (Erythrocyten).
1674 schrieb Leeuwenhoek einen Brief an Constantin Huygens, in dem auch er rote Blutkörperchen beschrieb, die er in Blut aus seinem Daumen entdeckte. Die folgenden Jahre beschäftigte er sich mehrfach mit dem Thema, untersuchte auch das Blut von Hasen. Er bestimmte 1678 die Größe der roten Blutkörperchen mit ‚weniger als einem Dreitausendstel eines Zolls‘, umgerechnet ‚weniger als 8,5 Mikrometer‘, und lag damit ziemlich genau an der heutigen Erkenntnis einer durchschnittlichen Größe von menschlichen Erythrocyten von etwa 7,5 Mikrometern. Alle frühen Beobachter beschrieben menschliche Erythrocyten als kugelig. Neben den Beobachtern der Royal Society und Leeuwenhoek unterlief dieser Fehler auch Swammerdam und den niederländischen Mikrosokop-Herstellern Musschenbroek. Erst im 19. Jahrhundert setzte sich die Erkenntnis durch, dass Erythrocyten der Säugetiere im Gegensatz zu denen der anderen Wirbeltiere keinen Zellkern und eine bikonkave Form haben.
Ebenfalls 1674 zeigte Leeuwenhoek, dass rote Blutkörperchen schwerer sind als Plasma. 1684 beschrieb er den Unterschied der roten Blutkörperchen in Säugetieren einerseits und Fischen, Fröschen und Vögeln andererseits: Während er die der Säugetiere als rund wahrnahm, beschrieb er die anderen als oval und flach. Auf Grund des fehlenden Zellkerns unterscheidet sich die Form der roten Blutkörperchen der Säugetiere deutlich von der Form bei anderen Wirbeltieren.
Kreislauf.
Besuchern zeigte Leeuwenhoek gerne, was er für das aufregendste Schauspiel seiner Arbeit hielt, den Blutfluss in den Kapillaren im Schwanz einer Kaulquappe oder eines jungen Aals. Er beobachtete, dass diese Blutgefäße so eng sind, dass immer nur ein Blutkörperchen hindurch fließt. Er stellte fest, dass diese Durchblutung mit dem Herzschlag synchronisiert ist, und verstand dadurch, dass es sich bei den Kapillaren um das fehlende Glied zwischen Arterien und Venen handelte.
In einem Brief vom 12. November 1680 schrieb Leeuwenhoek noch, dass Kapillaren so eng seien, dass die roten Blutkörperchen nicht hindurch passen würden. Zu dieser Zeit zweifelte er noch, ob es ein von Arterien zu Venen durchgehendes, geschlossenes Kreislaufsystem geben würde. Dieses beschrieb er zum ersten Mal in Kaulquappen und kleinen Fischen in einem Brief vom 7. September 1688 und wieder am 12. Januar 1689. Zu diesem Brief gehört auch die Abbildung des Aalkiekers, die weiter oben in diesem Artikel gezeigt wird. Auch spätere Briefe beschäftigen sich mit dem Blutkreislauf.
In einem Brief an die Royal Society von 1699 beschrieb er, dass sich Kaulquappen für Demonstrationen besser eignen, da sie sich weniger bewegen und weiter, dass die „roten Kügelchen“ in den kleinsten Gefäßen weiter auseinander sind, sich also beim Durchfließen vereinzeln, während in einer größeren Arterie 20 nebeneinander fließen konnten. 1683 benutzte er zum ersten Mal den Begriff "Kapillare" für kleine Blutgefäße. Ferner beschrieb er, dass das Blut in den kleineren Gefäßen zwar kontinuierlich fließt (im Gegensatz zur Aorta), aber in Synchronisation zum Herzen mal schneller, mal langsamer.
Spermatozoen, Präformationslehre und Fortpflanzung.
Lebendgeburt beim Essigälchen.
1676 untersuchte Leeuwenhoek das Essigälchen "Anguillula aceti". Der etwa zwei Millimeter lange Nematode war bekannt, er ist mit bloßem Auge sichtbar. Als er einige der größeren auseinanderriss, stellte er fest, dass dadurch kleine Älchen freigesetzt wurden. Dies scheint die erste Beobachtung der Lebendgeburt bei Anguillula zu sein, und Leeuwenhoeks erste Beobachtung zum Thema Fortpflanzung.
Die Entdeckung der Spermatozoen.
Im November 1677 schickte Leeuwenhoek einen Brief an Lord William Brouncker, den Präsidenten der Royal Society, in dem er die Entdeckung von Tierchen in der Samenflüssigkeit bekannt gab, heute Spermatozoen oder Spermien genannt.
Er berichtete, dass ihm der Leidener Medizinstudent Johan Ham ein Glasröhrchen mit dem Harnröhrenausfluss eines Gonorrhoe-Kranken gebracht habe. Ham hatte darin ‚lebende Tierchen‘ gesehen, von denen er dachte, dass sie durch die Fäulnis der Samenflüssigkeit auf Grund der Krankheit entstanden waren. Leeuwenhoek berichtete weiter, dass er schon vor einigen Jahren auf Vorschlag von Oldenburg Samenflüssigkeit untersucht habe und darin Kügelchen gesehen habe. Er habe die Untersuchung aber damals eingestellt, weil er sie unziemlich fand. Nach Hams Besuch habe er seine Untersuchung aber wieder aufgenommen, um die Samenflüssigkeit auch eines gesunden Mannes zu beobachten.
Gedanken um Anstand oder um seinen Ruf beschäftigten Leeuwenhoek ganz offensichtlich: Im Gegensatz zu anderen Briefen ließ er diesen auf Latein übersetzen, bevor er ihn verschickte. Auch bat er Brouncker, den Brief nicht zu veröffentlichen, falls die Mitglieder der Royal Society die Ergebnisse für anstößig halten sollten. Ferner versicherte er, dass die Samenflüssigkeit des Gesunden von ihm selbst stamme, als Überrest eines ehelichen Beischlafs, und ohne etwa sich selbst sündig zu schänden.
Im Gegensatz zu Ham begriff Leeuwenhoek, dass die Spermatozoen nicht etwa durch krankheitsbedingten Verfall der Samenflüssigkeit entstanden, sondern ein normaler Bestandteil waren. Er beobachtete, dass sie sich durch Bewegung ihres Schwanzes vorwärts bewegten, wie eine Schlange oder ein Aal schwimmend. Um zu verstehen, wo die Spermatozoen herkamen, untersuchte er in den nächsten Jahren Samenflüssigkeit und männliche Sexualorgane zahlreicher Tiere, darunter Hasen, Ratten, Hunde, Kabeljau, Hechte, Brassen, Miesmuscheln, Austern, Hähne, Frösche, Maikäfer, Schaben, Kleinlibellen, Grashüpfer, Flöhe, Milben und Mücken. Von den 280 zu Lebzeiten Leeuwenhoeks publizierten Briefen wurden Spermatozoen in 57 erwähnt. Bei Säugern fand er Spermatozoen immer im Samenleiter und in den Hoden. Er schloss richtigerweise, dass Hoden die Aufgabe der Spermatozoenbildung haben.
Leeuwenhoeks Befund von Spermatozoen in zahlreichen Insekten waren ein gewichtiges Argument gegen die Annahme der Spontanzeugung, wo doch selbst niederste Insekten sich ähnlich fortpflanzten wie höhere Tiere. Er war überzeugt, dass so wie es für ein steiniges Gebirge unmöglich sei ein Pferd zu erzeugen, es genauso unmöglich für eine Fliege oder irgendein anderes sich bewegendes Tier sei, aus zerfallenden Stoffen erzeugt zu werden.
Präformationslehre: Animalkulismus.
Die Entdeckung der Spermatozoen krempelte auch die Ansichten über die biologische Entwicklung von Lebewesen um. Bisher waren bei Mensch und Tier nur die Eier bekannt gewesen. Viele Forscher glaubten an Präformation, damals auch Präexistenz oder Evolution genannt. „Evolution“ hatte also eine ganz andere Bedeutung als heute, nämlich eine rein entwicklungsbiologische. Die Evolutionisten nahmen an, dass das neue Individuum bereits vor der Befruchtung im elterlichen Organismus vorhanden ist und nur noch zu wachsen braucht. Die meisten glaubten wie Harvey, de Graaf, Swammerdam oder Malpighi, dass Eier die Quelle des Embryos seien, dessen Entwicklung durch Samen angestoßen würde (Ovismus). Nun wurde gesehen, dass sich Spermatozoen im Gegensatz zu den Eiern bewegten und sich verhielten wie lebende Tiere. Daher wurde ihnen von manchen Forschern die wesentliche Rolle zugesprochen. In seinem zweiten Brief über Spermatozoen-Beobachtungen an die Royal Society schrieb Leeuwenhoek im März 1678: „Es ist ausschließlich der männliche Samen, der den Fetus formt und alles was die Frau beitragen mag dient nur dazu den Samen zu empfangen und zu füttern.“ Später schrieb er: „Der Mensch kommt nicht vom Ei, sondern von einem Tierchen, das sich im männlichen Samen findet.“ Diese Ausprägung der Präformationslehre wird als Animalkulismus bezeichnet, ihre Anhänger auch als Spermatisten. Leeuwenhoek nahm an, dass der ganze Mensch auf eine Weise schon im Spermatozoon vorhanden sei, und er verbrachte Tage mit dem Versuch, die Umrisse des ‚kleinen Menschen‘ oder ‚Homunculus‘ mikroskopisch zu entdecken.
Als jedoch 1699 eine französische Zeitschrift einen Artikel unter dem Pseudonym Dalenpatius veröffentlichte, in dem behauptet wurde, in Spermatozoen sei ein kompletter kleiner Mensch zu sehen, und sogar angebliche mikroskopische Zeichnungen beigefügt wurden, schrieb Leeuwenhoek einen langen Brief an die Royal Society, in dem er solche angeblichen Beobachtungen als „reine Einbildung und nicht die Wahrheit“ verspottete. Trotz seiner zahlreichen Beobachtungen habe er so etwas nie gesehen. Auch wenn er sich manchmal vorstelle, hier sei der Kopf, da die Schultern, dort die Hüften, seien seine Beobachtungen hierzu doch so unsicher, dass er dies nicht bestätigen könne. Nicolas Hartsoeker war weniger zurückhaltend und veröffentlichte 1694 das berühmt gewordene Bild eines Homunculus im Spermatozoon.
Vererbung und Hybride.
1683 beschrieb Leeuwenhoek als erster einen dominanten Erbgang, eine Fellfarbe bei Kaninchen. Da der Elternteil mit dem dominanten Erbteil das Männchen war, nahm er dies als Bestätigung für den Animalkulismus. Zwei Jahre später wurde ihm bewusst, dass seine bisherigen Überlegungen das Auftauchen von mütterlichen Merkmalen bei Hybriden wie Maultier und Maulesel nicht erklären können. Er versuchte dies von falscher Ernährung im Mutterleib abzuleiten.
Parthenogenese bei Blattläusen.
1695 suchte Leeuwenhoek die Eier in Blattläusen (vermutlich "Myzus ribes"), konnte jedoch keine finden. Stattdessen fand er bei der Dissektion der Tiere im Inneren zahlreiche kleine Blattläuse, die genauso aufgebaut waren wie die Erwachsenen. Bis zu 70 Embryonen unterschiedlicher Größe konnte er entdecken. Die Blattläuse mussten also lebendgebärend sein. Er konnte ein Muttertier beobachten, das innerhalb von 24 Stunden neun Kinder zur Welt brachte. Im Brief mit diesen Beobachtungen äußerte er sich sehr verwundert darüber, dass er nur weibliche Blattläuse entdeckte. In diesem Brief leitete er aber noch nicht ab, dass es sich um Parthenogenese handelte, denn womöglich waren die Männchen noch nicht gefunden. Zu diesem Schluss kam er erst fünf Jahre später.
Hierdurch entstand jedoch ein schwerwiegendes logisches Problem: Als überzeugter Verfechter des Animalkulismus ging Leeuwenhoek davon aus, dass der Embryo vollständig im Spermatozoon enthalten ist. Wie konnte es dann zu Embryonen ohne Männchen und also ohne Spermatozoen kommen? Er löste diesen Widerspruch, indem er die parthenogenetischen Blattläuse mit Spermatozoen gleich setzte, Tiere also ohne weibliches Element. Er setzte die parthenogenetische Bildung der jungen Blattläuse analog der Bildung der Spermatozoen im Hoden.
Lebenszyklen gegen Spontanzeugung.
Leeuwenhoek war ein entschiedener Gegner der Spontanzeugung, mit der er sich von 1676 bis 1717 immer wieder auseinandersetzte. Um diese zu widerlegen, war es erforderlich, bei fraglichen Organismen den kompletten Lebenszyklus zu beschreiben. Dies gelang ihm bei 26 Tierarten, darunter Ameisen, Blattläuse und Muscheln, und 1687 auch beim Kornkäfer. Dieser schlüpft aus Weizenkörnern, die zuvor äußerlich völlig unversehrt aussehen, so dass Leeuwenhoeks Zeitgenossen dies als Beleg für eine Spontanzeugung ansahen. Leeuwenhoek untersuchte die Kornkäfer mehrere Monate lang, untersuchte die Rüssel und wie diese ein Loch in ein Korn bohren könnten. Er unterschied die Geschlechter, beobachtete die Paarung, fand die Spermatozoen sowie Ei, Larve und Puppe. Die Eiablage selbst konnte er nicht beobachten, konnte aber überzeugend argumentieren, dass das Ei durch ein Loch in der Kornhülle abgelegt werden musste, das der Rüssel bohren konnte, und folgerte daraus, dass es auch in diesem Fall keine Spontanzeugung gäbe und sich die Tiere mit den bekannten Sexualprozessen fortpflanzten.
1693 beschrieb er die Entwicklung des Flohs mit Abbildungen und argumentierte wiederum gegen Spontanzeugung.
Weitere zoologische Beobachtungen.
In einem Übersichtsartikel von 1937 wurde gezählt, dass Leeuwenhoek in den zu seinen Lebzeiten veröffentlichten Briefen etwa 214 „Tierarten“ untersucht hatte, darunter 35 Protozoen (die heute nicht mehr zu den Tieren gezählt werden), 3 Hohltiere, 11 Weichtiere, 10 Krebstiere, 11 Spinnentiere, 67 Insekten, 22 Fische, 3 Amphibien, 11 Vögel und 21 Säugetiere. Neben den an anderer Stelle näher erläuterten Themen beschäftigte er sich mit der Bewegung von Cilien, der Histologie von Schwämmen, der Struktur des Säugetierhaars, Verdauungstrakt, Harnblase, Knochen, Gehirn und Rückenmark, Zwerchfell, Fettgewebe, Milz, Sehnen, Zunge und Gaumen mit Drüsen.
Augen und Sehnerv.
1674 beschrieb Leeuwenhoek seine Untersuchungen am Auge und Sehnerv von Kühen. Sein Nachbar, der Arzt 's Gravesande, hatte ihn über eine alte Streitfrage informiert, wonach der Sehnerv angeblich hohl sein sollte, damit die Lebensgeister hindurch fließen könnten. Schon Galenus beschrieb eine tubuläre Struktur des Sehnervs. Tatsächlich verläuft in der Mitte die Arteria centralis retinae, die Leeuwenhoek jedoch nicht finden konnte. Er beschrieb einen Aufbau aus filamentösen Teilen aus einer sehr weichen Substanz. Leeuwenhoek versuchte das Sehen mit einer Weiterleitung von Schwingungen von Auge zu Hirn zu erklären. Einem Brief an die Royal Society legte er Schnittpräparate von 200 Mikrometern Dicke bei, die er aus getrocknetem Gewebe mit einem Rasiermesser angefertigt hatte. Diese werden noch immer von der Royal Society aufbewahrt.
In 10 Briefen allein bis 1700 an die Royal Society behandelt er (unter anderem) den Sehnerv. Er untersuchte ihn bei Pferden, Kabeljau, Fliegen, Krabben, Schafen, Schweinen, Hunden, Katzen, Hasen, Kaninchen und Vögeln.
Noch 1713, im Alter von 81 Jahren, überredete Leeuwenhoek den Kapitän eines Walfängerschiffes, ihm ein Walauge mitzubringen. Den Penis eines Wales erhielt er ebenfalls. Er fertigte Schnitte der Hornhaut des Auges an, um die Anzahl der Schichten zu bestimmen, und entdeckte dabei die Sklera, die Lederhaut.
1715 beschrieb er die auf seinen Zeitgenossen Descartes zurückgehende Lehrmeinung, dass Nervenfasern hohl seien und eine Flüssigkeit oder Dampf weiterleiten würden, eine Ansicht die sich bis in die Mitte des 19. Jahrhunderts hielt. Leeuwenhoek konnte mikroskopisch keine Hohlräume finden, glaubte jedoch auch, dass die Fäden des Nervengewebes hohl sein müssten.
Auch mit dem Facettenauge von Insekten und Krebstieren beschäftigte er sich intensiv. Unter anderem stellte er fest, dass jedes sechseckige Segment der Cornea einer Libelle ein eigenes Bild einer Kerzenflamme erstellen kann.
Histologie der quergestreiften Muskulatur.
Vermutlich entdeckte er die Querstreifung der Muskelfasern bereits 1674, sicher aber ist dies für 1682. Zum Präparieren setzte er scharfe Nadeln ein, um vereinzelte Fasern zu erhalten. Er war überzeugt, dass die Streifung nur im kontrahierten, nicht aber im entspannten Zustand zu sehen ist, womöglich eine Übertragung aus seinen Beobachtungen am Stängel des Glockentierchens ("Vorticella"). Zunächst nahm er an, dass die Streifung ringförmig wäre um später zu der Ansicht zu kommen, dass sie spiralförmig sei. Er kam zu der Überzeugung, dass die Zahl der Fasern beim Wachstum eines Tieres gleich bleibt, dass diese aber größer werden. Nachdem er Muskeln in sehr verschiedenen Tierarten untersucht hatte schrieb er 1712, dass die Muskelfasern eines Wales nicht größer seien als die einer Mücke, das die Größe der Faser zwischen Tierarten sich wenig unterscheiden, die Anzahl aber unterschiedlich sein müsse. Später revidierte er diese Aussage und gab an, dass ein Wal sechsmal dickere Muskelfasern habe als ein Ochse oder eine Maus. Er sah auch, dass eine Faser aus mehreren Muskelfibrillen aufgebaut und vom Sarkolemm umgeben ist.
Zur besseren Darstellung der gestreiften Muskulatur bei Kühen setzte er 1714 eine Farblösung von kräftig gelbem Safran in Branntwein ein und führte damit die erste bekannte histologische Färbung durch. Diese Methode fand jedoch keine Nachahmer.
Bei Untersuchungen 1694 an Herzmuskeln von Schaf, Ochse, Ente, Huhn und Kabeljau merkte er, dass die Herzmuskeln der Vertebraten keine so parallelen Fasern haben, wie die Skelettmuskulatur, sondern verzweigter sind. Hier bemerkte er die Streifung nicht.
Haut.
Bei Untersuchungen der Haut stellte Leeuwenhoek 1678 fest, dass die Epidermis aus der basalen Schicht heraus wächst. 1683 beschrieb er menschliche Haut genauer, und wie sich die obersten Schichten abnutzen und von unten ersetzt werden. Die Hautschuppen betrachtete er als sehr kleine Entsprechung der Schuppen bei Fischen. Ebenfalls 1683 untersuchte er das Plattenepithel der Lippen und in der Mundhöhle. 1685 erwähnt er die Oberflächenmuster der Epidermis wie Fingerabdrücke. Zunächst glaubte er nicht an die Existenz von Schweißporen, änderte seine Meinung aber 1717, als er sich intensiv mit Schnitten der Haut befasste.
Die Entdeckung des Zellkerns.
1686 entdeckte er den Zellkern als einen „hellen Punkt“ in den Plattenepithelzellen in der Mundhöhle und in Hautschuppen, ohne jedoch dessen Bedeutung zu erkennen. Weitere Beschreibungen folgten 1688 in den kernhaltigen Dotterzellen des sich entwickelnden Froscheis, 1695 im Ei von Süßwasser-Muscheln der Gattung "Sphaerium" und beim Makronukleus der Wimperntierchen. 1700 fand er in Eiern von Garnelen einen „kleinen runden hellen Punkt“; im gleichen Jahr beschreibt er die kernhaltigen roten Blutkörperchen von Flunder und Lachs.
Mikrodissektion von Insekten und anderen Kleintieren.
Leeuwenhoek wurde als Pionier der Mikrodissektion bezeichnet. In den 1680er und 1690er Jahren führte er zahlreiche Mikrodissektionen von Insekten durch und studierte Mund und Stachel der Bienen. Zu seinen ersten Versuchstieren gehörten 1680 Flöhe und die Mehlmilbe "Acarus" (auch: "Aleurobius"). 1683 und 1693 gelang es ihm unter anderem, die Tracheen des Flohs zu präparieren. 1687 präparierte er Magen und Gedärme von Larven der Waldameisen. Außerdem hat er Seidenspinner, Kornkäfer, den Stechapparat von Mücken ("Culex"), Kornmotten ("Tinea granella"), Läuse ("Pediculus"), Käsemilben, Blattläuse und verschiedene Krebstiere untersucht.
In Bienen untersuchte er die Anatomie des Stachels und stellte fest, dass normale Bienen keine Eier tragen. Er schloss daraus, dass es im Bienenstock nur ein Weibchen gäbe. Tatsächlich fand er in der Königin eine große Anzahl von Eiern. 1701 beschrieb er in der Gartenkreuzspinne 400 Spinndrüsen und die Eier.
Einer der wenigen ernsthaften Fehler, die Leeuwenhoek unterliefen, war die Verwechslung von Moostierchen ("Membranipora"), die auf Miesmuscheln ("Mytilus") wachsen, mit dem Laich der Muscheln und der anschließende Versuch, die Organe der "Membranipora" als Teile der jungen Muschel zu verstehen.
Parasitische Insekten.
Ab 1686 untersuchte er Pflanzengallen an Eichen, Disteln und Weiden und die parasitären Insekten, die sie verursachen. Er schlussfolgerte, dass die Insektenlarven die Pflanze verletzen und den Gallwuchs auslösen. Er verfolgte die Entwicklung von Larve und Puppe (aber nicht den ganzen Lebenszyklus) und nahm an, dass die fertigen „Fliegen“ sich nach draußen bohren und ihre Eier auf die Pflanze legen. Dies stand im Gegensatz zur damaligen allgemeinen Meinung, dass innere Parasiten wie Gallwespen durch Spontanzeugung entstehen.
In den Folgejahren untersuchte er Parasiten der Blattläuse ("Aphis"). In aufgeschwollenen Blattläusen fand er eine „Made“ und sonst nichts. Er nahm zunächst an, dass eine Ameise ihr Ei in den Körper der Blattlaus gelegt habe, konnte später aber beobachten, dass aus den parasitierten Blattläusen kleine schwarze „Fliegen“ schlüpften. An diesen konnte er einen Legestachel sehen. Zwar konnte er es nicht beobachten, er war nun aber überzeugt, dass dieser Parasit seine Eier zum Überleben in einem geeigneten Wirt ablegen muss. Auf Grund früherer Beobachtungen schloss er, dass in Raupen mehrere Eier von Parasiten abgelegt werden können. 1696 bestätigte er seine Beobachtungen an Linden-Blattläusen ("Therioaphis"). 1700 schließlich konnte er an Blattläusen von Johannisbeerbüschen beobachten, dass aus den Läusen geschlüpfte Parasiten ("Aphidius" auf der dem Brief beigelegten Zeichnung erkennbar) ihre Eier mit Hilfe des Legestachels wieder in Blattläusen ablegen, und zwar ohne dass sie sich zuvor gepaart hätten.
Im folgenden Jahr beobachtete er Hyperparasitismus, nämlich Parasiten an den Gallwespenlarven "Nematus gallicola" in Weidengallen.
Botanik.
Leeuwenhoek betrieb vielfältige botanische Forschung, von der bisher nur ein kleiner Teil in zusammenfassenden Veröffentlichungen besprochen wurde. Beispielsweise untersuchte er Hölzer, Fruchtsamen und Kokosnüsse. Bereits 1676 hatte er eine Sammlung mit 50 Holzarten. Er lieferte genaue Beobachtungen des Aufbaus verschiedener Weichhölzer und Tropenhölzer wie dem Muskatnussbaum. Dabei bemerkte er unter anderem, dass die Wurzel die gleiche Struktur hat wie der Stamm. Die Borke von Birke, Kirschbaum, Limette und Zimt beschrieb er 1705. Bei der Streitfrage, ob das Holz von der Borke oder die Borke vom Holz gebildet würde vertrat er die zweite Möglichkeit. Entschieden wurde diese Frage erst im 19. Jahrhundert durch die Entdeckung des Kambiums. Leeuwenhoeks Beobachtungen der Mikrostruktur der Borke waren vorzüglich, seine funktionellen Interpretationen jedoch häufig falsch.
Leeuwenhoek gilt neben Hooke, Malpighi und Grew als Mitbegründer der Pflanzenanatomie. Die Qualität der Zeichnungen zu seinen Arbeiten wurde jedoch als höher eingeschätzt als die der anderen.
Pestizide.
Bei der Muskatnuss beobachtete er pestizide Eigenschaften. Zunächst war er überrascht, zwischen Muskatnüssen keine Milben zu finden. In Experimenten stellte er fest, dass diese von Muskatnuss-Stücken davon laufen. Gab er Milben mit Muskat in ein Glasröhrchen starben sie nach kurzer Zeit, in einem größeren Glasrohr vermieden sie den Kontakt, so dass er schloss, dass die Milben wohl vor freigesetzten Dämpfen flüchteten – oder an ihnen zu Grunde gingen.
Er stellte ferner fest, dass Kornmotten in einem Glasgefäß mit etwas Schwefeldioxid abgetötet werden. Als er das Experiment wiederholen wollte, und frischen Schwefel verbrennen wollte, bemerkte er, dass auch Schwefel selbst durch seine Dämpfe abtötende Wirkung hat. Er berechnete, dass ein halbes Pfund Schwefel ausreichen würde um einen Getreidespeicher der Größe 24 × 16 × 8 Fuß (ca. 7,5 × 5 × 2,5 Meter) auszuschwefeln. Zwei Tage nach einem Experiment bemerkte er im Kornspeicher noch einige fliegende Motten und schloss, dass die Puppen der Motte wohl unempfindlich gegen das Gift waren, und daher eine zweite Behandlung nötig sei, wenn die Puppen geschlüpft waren. Er konnte hinreichend zeigen, dass der Mottenbefall durch erwachsene Motten verursacht wurde, und nicht etwa durch Spontanzeugung.
Beobachtungen zu weiteren Themenbereichen.
Auch für verschiedene Kristalle wie Salz interessierte er sich. Zu seinen materialwissenschaftlichen Forschungen existieren jedoch keine Übersichtsarbeiten.
1684 entdeckte er die nadelförmigen Harnstoff-Kristalle, die sich im Gewebe von Gicht-Patienten bilden, und nahm richtig an, dass es diese Nadelform sei, die den Patienten die Schmerzen verursachen.
Rezeption.
Zu Lebzeiten.
Leeuwenhoek stellte in seinen Schriften nirgendwo eine Verbindung von Mikroorganismen und Krankheit her. Diese zogen aber sehr bald andere. Schon 1683 schrieb Frederick Slare (1648?–1727), Arzt und Mitglied der Royal Society, über den Ausbruch einer tödlichen Rinderkrankheit in der Schweiz: „Ich wünschte Herr Leeuwenhoek wäre bei der Obduktion dieser infizierten Tiere dabei gewesen. Ich bin überzeugt, er hätte das ein oder andere merkwürdige Insekt gefunden.“ Als Insekten wurden im damaligen Englisch alle kleinen Tiere bezeichnet.
Die Vorstellung von Mikroorganismen als Krankheitserreger konnte sich in der Medizin jedoch lange nicht durchsetzen, diese ging weiter von Miasmen als Krankheitsursachen aus.
Schon zu Lebzeiten wurde Leeuwenhoek als wichtigster Mikroskopiker seiner Zeit angesehen. Robert Hooke schrieb, dass das Mikroskop fast außer Anwendung gekommen sei und dass Leeuwenhoek die wesentliche Person sei, die es noch nutze. Das läge nicht am Mangel an Dingen, die zu entdecken seien, sondern am Mangel an wissbegierigem Geist. Andere wichtige zeitgenössische Mikroskopiker waren lediglich Leeuwenhoeks Landsleute Jan Swammerdam und Nicolas Hartsoeker, der Italiener Marcello Malpighi sowie die Engländer Nehemiah Grew und Robert Hooke selbst.
19. Jahrhundert.
Brian J. Ford hat sich Ende des 20. Jahrhunderts intensiv mit Leeuwenhoeks Werk auseinandergesetzt. Unter anderem hat er im Archiv der Royal Society gut erhaltene Originalpräparate von Leeuwenhoek gefunden. Er schrieb, dass Leeuwenhoek bis zum Ende des 19. Jahrhunderts weitgehend vergessen war. Diese Bemerkung machte er in Zusammenhang mit einem ersten internationalen Treffen zu Leeuwenhoeks Gedenken, welches von Christian Gottfried Ehrenberg 1875 anlässlich des 200. Jahrestags der „Entdeckung der mikroskopischen Thiere“ in Delft organisiert wurde. Ehrenberg hatte Leeuwenhoek bereits früher immer wieder in Vorträgen vor der Königlichen Akademie der Wissenschaften in Berlin gewürdigt. In Delft war zu diesem Zeitpunkt das Wohnhaus von Leeuwenhoek nicht mehr bekannt. Wie sich später herausstellte, wurde damals ein falsches Haus angenommen und mit einer Gedenktafel versehen. Die Royal Society, die zu dem Treffen eingeladen wurde, bestätigte nicht einmal den Eingang der Einladung.
Der Annahme, dass Leeuwenhoek in dieser Zeit weitgehend vergessen war, steht jedoch nicht nur das internationale Treffen selbst entgegen, sondern auch einige Erwähnungen in der zeitgenössischen Literatur. In Artikeln der kurz zuvor gegründeten wissenschaftlichen Zeitschrift Nature heißt es 1870:
Und 1873:
Auch in den Folgejahren finden sich in dieser Zeitschrift ettliche Erwähnungen von Leeuwenhoek.
In der „Geschichte der Zoologie bis auf Johannes Müller und Charles Darwin“ von 1872 von Julius Victor Carus wurde Leeuwenhoek ausführlich erwähnt. Carus schrieb „Von einer Bedeutung, welche die aller Vorgänger weit hinter sich ließ, sind vorzüglich zwei Männer, von denen man allerdings sagen kann, daß sie das Mikroskop erst den Naturwissenschaften gegeben haben, Malpighi und Leeuwenhoek“ und beschrieb ihn und seine Entdeckungen anschließend auf zwei Buchseiten.
Ebenfalls 1875 erschien die erste Leeuwenhoek-Biografie von P. J. Haaxmann: „Antony van Leeuwenhoek, de Ontdekker der Infusorien“.
20. und 21. Jahrhundert.
Das Interesse an Leeuwenhoek wurde durch ein 1927 erschienenes populärwissenschaftliches Buch von Paul de Kruif zusätzlich geweckt. Das erste Kapitel von „Microbe Hunters“, das als „Mikrobenjäger“ auch auf Deutsch erschien, war Leeuwenhoek gewidmet.
Eine maßgebliche Biografie erschien fünf Jahre später: Clifford Dobell veröffentlichte "Antony van Leeuwenhoek and his „little animals“" (Antony van Leeuwenhoek und seine Tierchen), das sich eingehend mit Leeuwenhoeks Leben, seinen Mikroskopen und vielen anderen Aspekten beschäftigt. Bezüglich Leeuwenhoeks wissenschaftlichen Beobachtungen beschränkt es sich jedoch ausschließlich auf die Mikroorganismen. Eine solch umfassende Übersicht, die auch bisher unveröffentlichte Briefe einschließt, liegt über Leeuwenhoeks andere Arbeitsgebieten nicht vor. Lediglich für die zoologischen Arbeiten wurde 1937 zumindest über die zu Leeuwenhoeks Zeiten veröffentlichten Briefe ein Übersichtsartikel veröffentlicht.
1950 und 1951 erschien ein zweibändiges biografisches Werk von A. Schierbeck auf niederländisch, das 1959 in ein englischsprachiges Buch vom gleichen Autor mündete. Eine weitere populärwissenschaftliche Biografie erschien 1966 in den USA und 1970 in Großbritannien unter dem Titel „Discoverer of the unseen world“ beziehungsweise „The cleere observer“. Drei später erschienene Bücher widmen sich neben anderen Themen etwa zur Hälfte Leeuwenhoek.
In Büchern über die Geschichte der Mikroskopie wird Leuwenhoek ausführlich erwähnt, auch allgemeine Lehrbücher über Lichtmikroskopie, die ein Kapitel über die Geschichte enthalten, erwähnen Leeuwenhoek und seine einlinsigen Mikroskope.
In modernen Zeiten wurde er als berühmtester Anwender des einfachen Mikroskops bezeichnet, ferner als Vater oder Gründer der Protozoologie und Bakteriologie.
Bei einer Abstimmung 2004 des niederländischen Fernsehens „De Grootste Nederlander“ (der größte Niederländer) kam Leeuwenhoek auf Platz 4.
Werke.
Bücher.
Alle Bücher sind Sammlungen von Briefen. |
353 | 422667 | https://de.wikipedia.org/wiki?curid=353 | Ambra | Ambra oder Amber ist eine graue, wachsartige Substanz aus dem Verdauungstrakt von Pottwalen. Sie wurde früher bei der Parfümherstellung verwendet. Heute ist sie von synthetischen Substanzen weitgehend verdrängt und wird nur noch in wenigen teuren Parfüms verwendet.
Etymologie.
Etymologen leiten die Wortformen "Ambra" und "Amber" vom arabischen Wort "anbar" ab, das häufig wie "ambar" ausgesprochen wird. "Ambra" ist auch die mittellateinische Bezeichnung, die über das Italienische ins Deutsche gelangte, während die Form "Amber" über französisch "ambre" vermittelt wurde.
Das arabische Wort "anbar" wurde von den Kreuzfahrern nach Europa gebracht. Schon im späten 13. Jahrhundert wurde das Wort in Europa auch zur Bezeichnung von Bernstein verwendet, möglicherweise weil Bernstein wie Ambra an Stränden angespült wird. Es ist aber nicht auszuschließen, dass trotz der gleichlautenden Bezeichnungen für Bernstein und Ambra keine etymologische Verwandtschaft besteht. Als die Verwendung von Ambra stark zurückging, bekam beispielsweise das Wort "ambre" im Französischen beziehungsweise "amber" im Englischen die Hauptbedeutung „Bernstein“. Zur sprachlichen Unterscheidung diente nun die Farbe. Bernstein wurde im Englischen früher "white amber" oder "yellow amber" genannt; Ambra wird bis heute im Französischen als "ambre gris" („grauer Amber“; lateinisch "ambra chrysea" bzw. "ambra grisea") bezeichnet und als "ambergris" im Englischen.
Der Zusammenhang der Bezeichnungen für Ambra und Bernstein zeigt sich auch in weiteren Sprachen:
Neben dem Bernstein wurde in der alten Literatur auch Walrat, weißer Liquidambar und echter flüssiger Storax als "(weiße) Ambra" bezeichnet. Im frühneuzeitlichen Drogenhandel wurden auch bestimmte Mixturen als Ambra bezeichnet, die unter anderem Bisam (bzw. Moschus) oder Zibet enthielten. Al-Kindī gab zudem unter dem Stichwort "Amber" drei Duftstoffrezepturen an, die nichts mit der Ambra zu tun hatten.
Entstehung.
Ambra entsteht bei der Nahrungsaufnahme von Pottwalen. Die unverdaulichen Teile wie Schnäbel oder Hornkiefer von Tintenfischen und Kraken werden in Ambra eingebettet. Im Darm einzelner Pottwale können bis zu 400 Kilogramm Ambra enthalten sein. Solche Mengen führen jedoch gehäuft zu Darmverschluss und schließlich zum Tod dieser Tiere. Über die genaue Ursache der Entstehung besteht Unklarheit. Möglicherweise liegt eine Stoffwechselkrankheit des Pottwals vor, wenn er Ambra bildet. Einer anderen Theorie zufolge dient der Stoff dem antibiotischen Wundverschluss bei Verletzungen der Darmwand. Ins Meer gelangt die Substanz durch Erbrechen, als „Kotsteine“ oder durch den natürlichen Tod der Tiere.
Ambra wird auf dem Meer treibend in Klumpen von meist bis zu 10 Kilogramm gefunden, in Einzelfällen aber auch über 100 Kilogramm. Diese Ambra-Klumpen können über Jahre bis Jahrzehnte durch die Meere treiben und finden sich als Strandgut an Küsten.
Frühere Vorstellungen über die Entstehung.
Asien.
Über die Entstehung der Ambra wurde schon im 10. Jahrhundert spekuliert. Der arabische Reisende Al-Masudi gab Berichte von Händlern und Seeleuten wieder, die behaupteten, Ambra wachse wie Pilze auf dem Meeresboden. Sie werde bei Stürmen aufgewirbelt und so an die Küsten gespült. Ambra komme in zwei unterschiedlichen Formen, einer weißen und einer schwarzen, vor. Al-Masudi berichtete auch davon, dass an einer Stelle der arabischen Küste am Indischen Ozean die Bewohner ihre Kamele auf die Suche nach Ambra abgerichtet hätten.
Aus Arabien stammt auch die Vorstellung, dass Ambra aus Quellen floss, die sich nahe der Meeresküste befanden. In der Märchenerzählung "Tausendundeine Nacht" strandete Sindbad, nachdem er Schiffbruch erlitten hatte, auf einer Wüsteninsel, auf der er eine Quelle mit stinkendem, rohem Ambra entdeckte. Die Substanz floss wie Wachs in das Meer, wo sie von riesigen Fischen erst verschluckt und dann wieder in Gestalt wohlriechender Klumpen erbrochen wurde, die an den Strand trieben.
Im Kaiserreich China bezeichnete man Ambra bis etwa 1000 n. Chr. als "lung sien hiang" (Lóngxiánxiāng 龍涎香), als das „Speichelparfüm der Drachen“, da man glaubte, dass die Substanz aus dem Speichel von Drachen stamme, die auf Felsen am Rande des Meeres schliefen. Im Orient ist Ambra noch heute unter diesem Namen bekannt.
Europa.
Im antiken Griechenland, wo Ambra wegen seiner angeblich die Alkoholwirkung verstärkenden Eigenschaft Wein beigemischt wurde, nahm man eine Quelle in Meeresnähe als Ursprungsort der Ambra an.
In weiten Teilen des antiken und frühmittelalterlichen Europa nahm man an, dass echter Bernstein und Ambra gleichen oder zumindest ähnlichen Ursprungs seien. Vermutlich geht diese Vorstellung auf die Übereinstimmungen dieser beiden Substanzen im Wohlgeruch, der Seltenheit und des Wertes sowie im äußeren Erscheinungsbild und des Vorkommens (an Meeresküsten) zurück. Allerdings wird schon in frühen Chroniken ein Unterschied zwischen Ambra und Bernstein erwähnt. Ambra wurde danach entweder als Sperma von Fischen oder Walen angesehen, als Kot unbekannter Seevögel (vermutlich aus einer fehlerhaften Deutung der in der Ambra enthaltenen Tintenfischschnäbel) oder als große Bienenstöcke aus Küstengebieten.
Marco Polo kannte bereits die Herkunft von Ambra aus dem Magen von Walen. Er berichtete, dass die Bewohner der Insel Sokotra, die nahe dem Horn von Afrika liegt, mit großen Mengen Ambra handelten. Laut seinem Bericht zogen sie die Kadaver von verendeten Walen an Land, um Ambra aus dem Magen zu holen und „Öl“ aus dem Kopf zu gewinnen.
Johannes Hartlieb gab in seinem "Kräuterbuch" (Entstehung zwischen 1435 und 1450) an, dass Ambra auf dem Meeresboden wachse und dort durch Wasserturbulenzen von Walen losgelöst werde. Dies entsprach Al-Masudis Theorie über die Herkunft der Ambra, die im 16. Jahrhundert auch von Adam Lonitzer vertreten wurde.
1574 folgerte der flämische Botaniker Carolus Clusius als erster aus Einschlüssen von Tintenfischschnäbeln im Ambra, dass dieses aus dem Verdauungstrakt von Walen stammt. Dies blieb aber lange Zeit wenig beachtet. Erst später, als man bei der Schlachtung von Pottwalen frische Ambra im Darm einzelner Tiere entdeckte, wurde Clusius’ Aussage bestätigt.
Der Schiffsarzt Exquemelin deutete Ambra noch im 17. Jahrhundert als Wachs von Wildbienen: „In diesen Landschaften gibt es ja auch viele Bienen, die an den Waldbäumen ihren Honig machen, und so passiert es denn nicht selten, dass durch heftige Stürme das Wachs zusamt dem an den Bäumen hängenden Honig dem Meere zugetrieben wird. […] Was wohl recht glaubhaft ist, denn dieses Ambra ist, wenn man es findet, noch weich und riecht wie Wachs.“
Das 1721 in Leipzig erschienene "Allgemeine Lexicon der Künste und Wissenschafften" beschreibt als wahrscheinlichste Erklärung für Ambra dies als ein „Erdpech“, das durch die Flut angeschwemmt und durch Luft und Meerwasser gehärtet werde.
Im Jahre 1783 legte der Botaniker Joseph Banks der Royal Society eine Arbeit des in London lebenden deutschen Arztes Franz Xaver Schwediauer vor, in der dieser die in Westeuropa vorherrschenden Irrtümer über Ambra und den Ursprung dieser Substanz beschrieb. Er identifizierte Ambra als ein Erzeugnis des oft unnatürlich aufgeblähten Darms kranker Pottwale und brachte die Entstehung von Ambra mit den Schnäbeln von Tintenfischen, der Hauptnahrung der Pottwale, in Verbindung.
Eigenschaften.
Ambra ist eine graue bis schwarze mit hellgelben bis grauen Streifen oder Punkten durchsetzte, undurchsichtige, wachsartige, zähe Masse. Die Dichte beträgt etwa 0,8–0,9 g/cm³, sie ist in Wasser unlöslich, in Alkohol und Ether schwach löslich, der Schmelzpunkt liegt bei ca. 60 °C, der Siedepunkt bei etwa 100 °C.
Frische Ambra ist weiß, weich und riecht abstoßend. Erst durch den über Jahre oder Jahrzehnte währenden Kontakt mit Luft, Licht und Salzwasser erhält sie ihre feste Konsistenz und ihren angenehmen Duft.
Sie besteht zu etwa 95 % aus geruchslosen Sterinen (Epicoprosterol, Coprosterol, Coprostanone, Cholesterol) und dem ebenfalls geruchslosen Triterpenalkohol Ambrein sowie Pristan und Ketonen. Neuere Untersuchungen mit Hilfe der Kopplung der Gaschromatographie mit der Massenspektrometrie zeigen, dass ein Dichlormethan-Extrakt als Hauptkomponente Ambrein neben verschiedenen Sterinen enthielt. Die geruchsbestimmenden Inhaltsstoffe (ca. 0,5 %) werden durch Luft und Licht aus Ambrein gebildet – u. a. Ambrox und Ambrinol. Die Duftnote wird als holzig, trocken, balsamisch, etwas tabakartig mit aphrodisierendem Einschlag beschrieben. Ambra, bzw. ihre synthetische Form, wird typischerweise als Basisnote in Duftkompositionen eingesetzt.
Die beiden französischen Chemiker Joseph Bienaimé Caventou und Pierre Joseph Pelletier waren die ersten, die Ambrein isolierten, charakterisierten und so benannten.
Verwendung.
Der grauen und schwarzen Ambra kam bei der Herstellung von Parfüm erhebliche Bedeutung zu. In Asien ist Ambra ein beliebter Räucherstoff, der schon viele Jahrhunderte vor Christus bei verschiedenen Ritualen und Zeremonien eingesetzt wurde. Im Orient wird Ambra auch als Gewürz für Nahrungsmittel und Weine und als Aphrodisiakum verwendet. Ambra wurde früher auch zur Zubereitung besonders exklusiver Speisen verwendet. In Kosmetikprodukten wird er in der Liste der Inhaltsstoffe als angegeben.
Im Mittelalter wurde Ambra als Arznei im Rahmen der Humoralpathologie verwendet. Johannes Hartlieb erläuterte in seinem "Kräuterbuch", die Substanz wirke im zweiten Grade trocken und heiß. Dadurch helfe Ambra hervorragend bei allen Herzerkrankungen, es gilt als "die hochst erznei zu dem herzen". Ferner wirke Ambra gegen Ohnmachten, Epilepsie und Gebärmutterhochstand. Ein aus Ambra als Hauptbestandteil zubereitetes Arzneimittel wurde als "Diambra" bezeichnet.
Jan Huygen van Linschoten schrieb in seinen Reiseberichten über die Ambra:
Adam Lonitzer gab in seinem "Kreüterbuch" mit folgenden Worten eine Ersatzrezeptur für echte Ambra an:
Wert.
Bereits im 15. Jahrhundert wurde Ambra in Europa gehandelt und mit Gold aufgewogen, wenngleich diese Funde nur in seltenen Fällen den höchsten Qualitätsansprüchen genügten. Leo Africanus schrieb im 16. Jahrhundert, dass in Fès der Preis für ein Pfund Ambra bei 60 Dukaten liege (im Vergleich dazu kostete ein Sklave 20, ein Eunuch 40 und ein Kamel 50 Dukaten). Damit war es eine sehr kostbare Substanz.
Aufgrund der Synthetisierung dieser Substanz und des Handelsverbots von Pottwalprodukten gemäß dem Washingtoner Artenschutz-Übereinkommen wird natürliches Ambra heute nicht mehr benötigt. Für angespülte Fundstücke werden jedoch nach wie vor hohe Summen gezahlt, die je nach Qualität pro Kilogramm auch im fünfstelligen Eurobereich liegen können.
Ein im Dezember 2012 vor der niederländischen Insel Texel angespülter Pottwalkadaver enthielt einen Ambrabrocken mit einem Gewicht von 83 Kilogramm im Wert von etwa 500.000 Euro. Vor der Küste des Jemen wurde im April 2021 sogar ein Fundstück von 132 Kilogramm im Bauch eines verendeten Wales entdeckt und machte die glücklichen Fischer zu Millionären (Zeitwert von einem Kilogramm Ambra: ca. 80.000 €). Im Oktober 2021 fand ein Fischer im Süden Thailands einen Klotz Ambra von über 30 Kilogramm. Dieser hat einen Wert von über einer Million Euro.
Ambra in der Literatur.
In der Liebeslyrik wurde häufig die Ambra genannt.
In Herman Melvilles "Moby-Dick" heißt es: |
354 | 39107 | https://de.wikipedia.org/wiki?curid=354 | Albedo | Die Albedo (; von ) ist ein Maß für das Rückstrahlvermögen (Reflexionsstrahlung) von diffus reflektierenden, also nicht selbst leuchtenden Oberflächen. Sie wird als dimensionslose Zahl angegeben und entspricht dem Verhältnis von rückgestrahltem zu einfallendem Licht (eine Albedo von 0,9 entspricht 90 % Rückstrahlung). Die Albedo hängt bei einer gegebenen Oberfläche von der Wellenlänge des einstrahlenden Lichtes ab und kann für Wellenlängenbereiche – z. B. das Sonnenspektrum oder das sichtbare Licht – angegeben werden. Vor allem in der Meteorologie ist sie von Bedeutung, da sie Aussagen darüber ermöglicht, wie stark sich eine Oberfläche erwärmt – und damit auch die Luft in Kontakt mit der Oberfläche.
In der Klimatologie ist die so genannte Eis-Albedo-Rückkopplung ein wesentlicher, den Strahlungsantrieb und damit die Strahlungsbilanz der Erde beeinflussender Faktor, der relevant für den Erhalt des Weltklimas ist.
In der 3D-Computergrafik findet die Albedo ebenfalls Verwendung; dort dient sie als Maß für die diffuse Streukraft verschiedener Materialien für Simulationen der Volumenstreuung.
In der Astronomie spielt die Albedo eine wichtige Rolle, da sie mit grundlegenden Parametern von Himmelskörpern (z. B. Durchmesser, scheinbare/absolute Helligkeit) zusammenhängt.
Albedoarten.
Es werden verschiedene Arten der Albedo unterschieden:
Das Verhältnis zwischen sphärischer Albedo und geometrischer Albedo ist das sogenannte Phasenintegral (siehe Phase), das die winkelabhängige Reflektivität jedes Flächenelements berücksichtigt.
Messung.
Die Messung der Albedo erfolgt über Albedometer und wird in Prozent angegeben. In der Astronomie können aufgrund der großen Entfernungen keine Albedometer eingesetzt werden. Die geometrische Albedo kann hier aber aus der scheinbaren Helligkeit und dem Radius des Himmelskörpers und den Entfernungen zwischen Erde, Objekt und Sonne berechnet werden. Um die sphärische Albedo zu bestimmen, muss auch das Phasenintegral (und somit die Phasenfunktion) bekannt sein. Diese ist allerdings nur für diejenigen Himmelskörper vollständig bekannt, die sich innerhalb der Erdbahn bewegen (Merkur, Venus). Für die oberen Planeten kann die Phasenfunktion nur teilweise bestimmt werden, wodurch auch die Werte für ihre sphärische Albedo nicht exakt bekannt sind.
Satelliten der US-Raumfahrtbehörde NASA messen seit ca. 2004 die Albedo der Erde. Diese ist insgesamt, abgesehen von kurzfristigen Schwankungen, in den letzten zwei Jahrzehnten konstant geblieben; regional dagegen gab es Veränderungen von mehr als 8 %. In der Arktis z. B. ist die Rückstrahlung geringer, in Australien höher geworden. Demgegenüber steht eine Studie aus dem Jahr 2021 – sie zeigt, dass die Albedo zwischen 1998 und 2017 um ~0,5 % abgesunken ist, wobei der Zusammenhang zum Klimawandel ungeklärt ist. Die Entwicklung könnte durch den Klimawandel mitverursacht worden sein und/oder die globale Erwärmung signifikant verstärken.
Das Deep Space Climate Observatory misst seit 2015 die Erd-Albedo in einem Abstand von 1,5 Millionen Kilometern zur Erde vom Lagrange-Punkt L1 aus. An diesem Punkt hat die Sonde einen dauerhaften Blick auf die sonnenbeschienene Seite der Erde.
Einflüsse.
Die Oberflächenbeschaffenheit eines Himmelskörpers bestimmt seine Albedo. Der Vergleich mit den Albedowerten irdischer Substanzen ermöglicht es also, Rückschlüsse auf die Beschaffenheit anderer planetarer Oberflächen zu ziehen. Gemäß der Definition der sphärischen Albedo ist die Voraussetzung von parallel einfallendem Licht wegen der großen Entfernungen der reflektierenden Himmelskörper von der Sonne als Lichtquelle sehr gut gegeben. Die stets geschlossene Wolkendecke der Venus strahlt viel mehr Licht zurück als die basaltartigen Oberflächenteile des Mondes. Die Venus besitzt daher mit einer mittleren sphärischen Albedo von 0,76 ein sehr hohes, der Mond mit durchschnittlich 0,12 ein sehr geringes Rückstrahlvermögen. Die Erde hat eine mittlere sphärische Albedo von 0,3. Durch die globale Erwärmung verschieben sich auf der Erde die regionalen Albedo-Werte. Durch Verschiebung der Wolkenbänder sank die Albedo z. B. in der nördlichen gemäßigten Zone, stieg dafür aber weiter im Norden. Die höchsten bisher gemessenen Werte fallen auf die Saturnmonde Telesto (0,994) und Enceladus (0,99). Der niedrigste Mittelwert wurde mit nur 0,03 am Kometen Borrelly festgestellt.
Glatte Oberflächen wie Wasser, Sand oder Schnee haben einen relativ hohen Anteil spiegelnder Reflexion, der von Kreide ebenso, ihre Albedo ist deshalb stark abhängig vom Einfallswinkel der Sonnenstrahlung (siehe Tabelle).
Die Albedo ist außerdem abhängig von der Wellenlänge des Lichts, das untersucht wird, weswegen bei der Angabe der Albedowerte immer der entsprechende Wellenlängenbereich angegeben werden sollte. |
355 | 4048559 | https://de.wikipedia.org/wiki?curid=355 | Algebraische Zahl | In der Mathematik ist eine algebraische Zahl formula_1 eine reelle oder komplexe Zahl, die Nullstelle eines Polynoms vom Grad größer als Null (nicht-konstantes Polynom)
mit rationalen Koeffizienten formula_3 und formula_4 sowie formula_5 ist, also eine Lösung der Gleichung formula_6.
Die so definierten algebraischen Zahlen bilden eine echte Teilmenge formula_7 der komplexen Zahlen formula_8. Offenbar ist jede rationale Zahl formula_9 algebraisch, da sie die Gleichung formula_10 löst. Es gilt also formula_11.
Ist eine reelle (oder allgemeiner komplexe) Zahl nicht algebraisch, so heißt sie transzendent.
Die ebenfalls gebräuchliche Definition der algebraischen Zahlen als Nullstellen von Polynomen mit ganzzahligen Koeffizienten ist äquivalent zur oben angegebenen. Jedes Polynom mit rationalen Koeffizienten kann durch Multiplikation mit dem Hauptnenner der Koeffizienten in eines mit ganzzahligen Koeffizienten umgewandelt werden. Das entstehende Polynom hat dieselben Nullstellen wie das Ausgangspolynom.
Polynome mit rationalen Koeffizienten kann man "normieren," indem man alle Koeffizienten durch den Koeffizienten formula_12 dividiert. Nullstellen von normierten Polynomen, deren Koeffizienten "ganz"zahlig sind, nennt man "ganzalgebraische Zahlen" oder auch "ganze algebraische Zahlen." Die ganzalgebraischen Zahlen bilden einen Unterring der algebraischen Zahlen, der aber nicht faktoriell ist. Zum allgemeinen Begriff der Ganzheit siehe Ganzheit (kommutative Algebra).
Man kann den Begriff der algebraischen Zahl zu dem des algebraischen Elements erweitern, indem man die Koeffizienten des Polynoms statt aus formula_13 aus einem beliebigen Körper entnimmt.
Grad und Minimalpolynom einer algebraischen Zahl.
Für viele Untersuchungen algebraischer Zahlen sind der im Folgenden definierte Grad und das Minimalpolynom einer algebraischen Zahl wichtig.
Ist formula_1 eine algebraische Zahl, die eine algebraische Gleichung
mit formula_16, formula_17 erfüllt, aber im Fall formula_18 keine derartige Gleichung geringeren Grades, dann nennt man formula_19 den "Grad" von formula_1. Damit sind alle rationalen Zahlen vom Grad 1. Alle irrationalen Quadratwurzeln rationaler Zahlen sind vom Grad 2.
Die Zahl formula_19 ist gleichzeitig der Grad des Polynoms formula_22, des sogenannten "Minimalpolynoms" von formula_1.
Eigenschaften.
Die Menge der algebraischen Zahlen ist abzählbar und bildet einen Körper.
Der Körper der algebraischen Zahlen ist algebraisch abgeschlossen, d. h., jedes Polynom mit algebraischen Koeffizienten besitzt nur algebraische Nullstellen. Dieser Körper ist ein minimaler algebraisch abgeschlossener Oberkörper von formula_34 und ist damit dessen algebraischer Abschluss. Man schreibt ihn oft als formula_35 (für „algebraischer Abschluss von formula_34“; verwechselbar mit anderen Abschlussbegriffen) oder als formula_7 (für „Algebraische Zahlen“).
Oberhalb des Körpers der rationalen Zahlen und unterhalb des Körpers der algebraischen Zahlen befinden sich unendlich viele Zwischenkörper, etwa die Menge aller Zahlen der Form formula_38, wobei formula_39 und formula_40 rationale Zahlen sind sowie formula_9 irrational und Quadratwurzel einer rationalen Zahl formula_42 ist. Auch der Körper der mit Zirkel und Lineal aus formula_43 konstruierbaren Punkte der komplexen Zahlenebene ist ein solcher algebraischer Zwischenkörper.
Im Rahmen der Galoistheorie werden diese Zwischenkörper untersucht, um so tiefe Einblicke über die Lösbarkeit oder Nichtlösbarkeit von Gleichungen zu erhalten. Ein Resultat der Galoistheorie ist, dass zwar jede komplexe Zahl, die man aus rationalen Zahlen durch Verwendung der Grundrechenarten (Addition, Subtraktion, Multiplikation und Division) sowie durch Ziehen "n"-ter Wurzeln ("n" eine natürliche Zahl) erhalten kann (man nennt solche Zahlen „durch Radikale darstellbar“), algebraisch ist, umgekehrt aber algebraische Zahlen existieren, die man nicht in dieser Weise darstellen kann; alle diese Zahlen sind Nullstellen von Polynomen mindestens 5. Grades. |
356 | 2458679 | https://de.wikipedia.org/wiki?curid=356 | André Gide | André Paul Guillaume Gide [] (* 22. November 1869 in Paris; † 19. Februar 1951 ebenda) war ein französischer Schriftsteller. 1947 erhielt er den Literaturnobelpreis.
Leben und Schaffen.
Herkunft, Jugend und Heirat.
André Gide war das einzige Kind einer wohlhabenden calvinistischen Familie. Der Vater, Paul Gide (1832–1880), war Professor der Rechtswissenschaft und stammte aus der mittleren Bourgeoisie der südfranzösischen Kleinstadt Uzès, die Mutter, Juliette Rondeaux (1835–1895), aus der Großbourgeoisie von Rouen. Die Familie lebte in Paris, verbrachte die Tage um Neujahr regelmäßig in Rouen, die Osterzeit in Uzès und die Sommermonate auf den beiden Landsitzen der Rondeaux' in der Normandie, La Roque-Baignard im Pays d’Auge und Cuverville im Pays de Caux.
Mit knapp elf Jahren verlor Gide seinen Vater. Zwar trat dadurch keine materielle Notlage ein, doch war er nun ganz der puritanischen Erziehung seiner Mutter unterworfen. In seiner Autobiographie wird Gide die eigene Kindheit und Jugend, speziell das Wirken der strengen, freud- und lieblosen Mutter in dunklen Farben malen und für seine Probleme als Heranwachsender verantwortlich machen: „In dem unschuldigen Alter, in dem man in der Seele gerne nichts als Lauterkeit, Zartheit und Reinheit sieht, entdecke ich in mir nur Finsternis, Häßlichkeit und Heimtücke.“ Gide hatte seit 1874 Unterricht bei Privatlehrern, besuchte phasenweise auch reguläre Schulen, immer wieder unterbrochen durch Nervenleiden, die ärztliche Behandlung und Kuraufenthalte erforderlich machten. Im Oktober 1887 trat der fast 18-jährige Gide in die Unterprima der reformpädagogischen École Alsacienne ein, wo er sich mit Pierre Louÿs anfreundete. Im Jahr darauf besuchte er die Oberprima des Traditionsgymnasiums Henri IV, an dem er im Oktober 1889 das Baccalauréat ablegte. In dieser Zeit begann seine Freundschaft mit Léon Blum.
Bei einem Besuch in Rouen im Dezember 1882 verliebte sich Gide in seine Kusine Madeleine Rondeaux (1867–1938), die Tochter von Juliette Gides Bruder Émile Rondeaux. Der 13-jährige André erlebte damals, wie sehr seine Kusine unter der ehelichen Untreue ihrer Mutter litt und sah in ihr fortan den Inbegriff von Reinheit und Tugend im Gegensatz zu seiner eigenen, so empfundenen Unreinheit. Diese Jugendliebe überdauerte die folgenden Jahre und 1891 machte Gide Madeleine erstmals einen Heiratsantrag, den diese aber ablehnte. Erst nach dem Tod Juliette Gides im Mai 1895 verlobte sich das Paar und heiratete noch im Oktober 1895, dies zu einem Zeitpunkt, da Gide sich seiner Homosexualität bereits bewusst geworden war. Die Spannung, die sich daraus ergab, wird Gides literarisches Werk – zumindest bis 1914 – mitprägen und seine Ehe schwer belasten. Aufgrund des Verhältnisses, das er ab 1917 mit Marc Allégret einging, verbrannte Madeleine 1918 sämtliche Briefe, die er ihr geschrieben hatte. Zwar blieb das Paar verheiratet, doch lebten beide nun meist getrennt. Nach Madeleines Tod im Jahr 1938 reflektierte Gide ihre Beziehung – „die verborgene Tragödie“ seines Lebens – in der Schrift "Et nunc manet in te". Der befreundete Schriftsteller Jean Schlumberger widmete dieser Ehe das Buch "Madeleine und André Gide", in dem Madeleine eine günstigere Darstellung fand als in Gides autobiographischen Schriften.
Literarische Anfänge.
Gide entschied sich nach dem Baccalauréat gegen ein Studium und war auch nicht gezwungen, einer Erwerbsarbeit nachzugehen. Sein Ziel war, Schriftsteller zu werden. Erste Versuche hatte er schon während der Schulzeit unternommen, als er mit Freunden, darunter Marcel Drouin und Pierre Louÿs, im Januar 1889 die literarische Zeitschrift "Potache-Revue" gründete und dort seine ersten Verse veröffentlichte. Im Sommer 1890 begab er sich alleine nach Menthon-Saint-Bernard am Lac d’Annecy, um sein erstes Buch zu schreiben: "Les Cahiers d’André Walter" („Die Tagebücher des André Walter“), die er auf eigene Kosten drucken ließ (wie alle Werke bis 1909!) und die 1891 erschienen. Gides autobiographisch geprägter Erstling hat die Form eines posthum aufgefundenen Tagebuchs des jungen André Walter, der sich, nachdem er seine Hoffnung auf die geliebte Emmanuèle hat aufgeben müssen, in die Einsamkeit zurückgezogen hat, um den Roman "Allain" zu schreiben; das Tagebuch dokumentiert seinen Weg in den Wahnsinn. Während der "André Walter" zum Druck vorbereitet wurde, besuchte Gide im Dezember 1890 seinen Onkel Charles Gide in Montpellier, wo er – vermittelt durch Pierre Louÿs – Paul Valéry kennenlernte, dem er später (1894) seine ersten Schritte in Paris erleichterte und dem er bis zu dessen Tod 1945 freundschaftlich verbunden bleiben sollte.
Zwar brachte der "André Walter" Gide keinen kommerziellen Erfolg („Ja, der Erfolg war gleich Null.“), doch ermöglichte er ihm den Zugang zu wichtigen Kreisen der Symbolisten in Paris. Wiederum vermittelt durch Pierre Louÿs, wurde er 1891 in die Zirkel von José-Maria de Heredia und von Stéphane Mallarmé aufgenommen. Dort verkehrte er mit berühmten Literaten seiner Zeit, darunter Henri de Régnier, Maurice Barrès, Maurice Maeterlinck, Bernard Lazare und Oscar Wilde, mit dem er 1891/92 regelmäßig in Kontakt stand. Gide selbst lieferte 1891 mit der kleinen Abhandlung "Traité du Narcisse. Théorie du symbole" („Traktat vom Narziß. Theorie des Symbols“) eine symbolistische Programmschrift, die für das Verständnis seiner Poetik – auch jenseits seiner symbolistischen Anfänge – grundlegende Bedeutung hat. Im Narziss-Mythos entwirft Gide sein eigenes Bild als Schriftsteller, der sich selbst bespiegelt, in permanentem Dialog mit sich selbst steht, für sich selbst schreibt und sich dadurch als Person erst erschafft. Die dieser Haltung angemessene Gattung ist das Tagebuch, das Gide seit 1889 konsequent führt, ergänzt durch weitere autobiographische Texte; aber auch in seinen erzählenden Werken ist das Tagebuch als Darstellungsmittel allgegenwärtig.
Im Jahr 1892 veröffentlichte Gide das Gedichtbändchen "Poésies d’André Walter" („Die Gedichte des André Walter“), in dem eine Auswahl aus jenen Versen geboten wurde, die der Schüler bereits in "Potache-Revue" publiziert hatte. Im Februar 1893 lernte er in den literarischen Zirkeln von Paris Eugène Rouart (1872–1936) kennen, der ihm die Bekanntschaft mit Francis Jammes vermittelte. Die Freundschaft zu Rouart, die bis zu dessen Tod bestand, hatte für Gide große Bedeutung, weil er in dem ebenfalls homosexuell veranlagten Freund einen Kommunikationspartner fand, den die gleiche Identitätssuche umtrieb. Der Briefwechsel beider, vor allem in den Jahren 1893 bis 1895, zeigt den vorsichtig tastenden Dialog, der beispielsweise über das 1893 auf Französisch erschienene Werk "Die conträre Sexualempfindung" von Albert Moll geführt wurde. Im Jahr 1893 veröffentlichte Gide die kurze Erzählung "La Tentative amoureuse" („Der Liebesversuch“), deren Haupthandlung aus einer unverklemmten Liebesgeschichte besteht, deren leicht ironischer Nachspann dagegen eine „Madame“ anspricht, die sichtlich diffiziler ist als die Geliebte der Haupthandlung. Im selben Jahr verfasste er die lyrische lange Erzählung "Le Voyage d’Urien" („Die Reise Urians“), wo er in Form eines phantastischen Reiseberichts wieder einmal die schwierige Suche eines müßigen, materiell sorgenfreien jungen Intellektuellen nach dem „wahren Leben“ thematisiert.
Afrikareisen 1893/94 und 1895.
Im Jahr 1893 ergab sich für Gide die Möglichkeit, den befreundeten Maler Paul-Albert Laurens (1870–1934) nach Nordafrika zu begleiten. Die Freunde setzten im Oktober von Marseille nach Tunis über, reisten weiter nach Sousse, verbrachten die Wintermonate im algerischen Biskra und kehrten über Italien zurück. Gide war im November 1892 wegen einer leichten Tuberkulose vom Militärdienst befreit worden; während der Reise nach Sousse brach die Krankheit aus. Die Monate in Biskra dienten der Regeneration und waren mit ersten heterosexuellen Kontakten zu jungen Prostituierten verbunden. Für Gide noch bedeutsamer war die erste homosexuelle Erfahrung mit einem Jugendlichen, die sich bereits in Sousse zugetragen hatte. Die langsame Genesung und die erwachte Sinnlichkeit in der nordafrikanischen Landschaft erlebte Gide als Wendepunkt in seinem Leben: „mir schien, als hätte ich zuvor gar nicht gelebt, als träte ich aus dem Tal der Schatten und des Todes ins Licht des wahren Lebens, in ein neues Dasein, in dem alles Erwartung, alles Hingabe wäre.“
Von der Reise zurückgekehrt empfand Gide ein „Gefühl der Entfremdung“ seinen bisherigen Lebensumständen gegenüber, was er in dem Werk" Paludes" („Sümpfe“) verarbeitete, das während eines Aufenthaltes in La Brévine in der Schweiz entstand (Oktober bis Dezember 1894). In "Palude" karikiert er nicht ohne Melancholie den Leerlauf in den Literatenzirkeln der Hauptstadt, aber auch seine eigene Rolle darin. Schon im Januar 1895 reiste Gide erneut nach Nordafrika, diesmal alleine. Seine Aufenthaltsorte waren Algier, Blida und Biskra. In Blida traf er zufällig auf Oscar Wilde und dessen Geliebten Alfred Douglas. Wilde, der zu diesem Zeitpunkt kurz vor seiner Rückkehr nach England stand, die ihn gesellschaftlich vernichten sollte, organisierte während eines gemeinsamen Aufenthaltes in Algier eine sexuelle Begegnung Gides mit einem Jugendlichen (Mohammed, ca. 14-jährig), dem Gide in seiner Autobiographie zentrale Bedeutung beimessen wird: „(…) erst jetzt fand ich endlich zu meiner eigenen Norm.“
Gide hat in seinem Leben eine Vielzahl weiterer Afrikareisen unternommen, schon die Hochzeitsreise führte ihn 1896 nach Nordafrika zurück. Klaus Mann verglich die lebensgeschichtliche Bedeutung der ersten beiden Afrikareisen für Gide, „die Wonne echter Neugeburt“, mit dem Italienerlebnis Goethes. Gide verarbeitete dieses Erlebnis in zentralen Texten seines literarischen Werkes: in lyrischer Prosa in "Les Nourritures terrestres" („Uns nährt die Erde“, 1897), als problemorientierte Erzählung in "L’Immoraliste" („Der Immoralist“, 1902), schließlich autobiographisch in "Si le grain ne meurt" („Stirb und werde“, 1926). Speziell die Autobiographie sorgte zeitgenössisch wegen ihres offenen Bekenntnisses zur Homosexualität für kontroverse Debatten; später galt sie als Meilenstein in der Entwicklung schwulen Selbstbewusstseins in westlichen Gesellschaften.
Etablierung als Autor.
Nach der Rückkehr aus Afrika verbrachte Gide zwei Wochen in Gesellschaft seiner Mutter in Paris, bevor diese auf das Gut La Roque abreiste, wo sie am 31. Mai 1895 verstarb. Die spannungsreiche Beziehung zwischen Mutter und Sohn hatte sich zuletzt versöhnlicher gestaltet und Juliette Gide hatte ihren Widerstand gegen eine Eheschließung von Madeleine und André aufgegeben. Nach ihrem Tod verlobte sich das Paar am 17. Juni und heiratete am 7. Oktober 1895 in Cuverville. Gide berichtete später, dass er noch vor der Verlobung einen Arzt aufgesucht habe, um über seine homosexuellen Neigungen zu sprechen. Der Mediziner empfahl die Ehe als Heilmittel („Sie kommen mir vor wie ein Ausgehungerter, der bis heute versucht hat, sich von Essiggurken zu nähren.“). Die Ehe wurde wohl nie vollzogen, Gide trennte radikal zwischen Liebe und sexuellem Verlangen. Die Hochzeitsreise führte in die Schweiz, nach Italien und Nordafrika (Tunis, Biskra). Seine Reisenotizen "Feuilles de route" („Blätter von unterwegs“) sparen die Eheproblematik aus und konzentrieren sich ganz auf die sinnliche Präsenz von Natur und Kultur. Nach ihrer Rückkehr erfuhr Gide im Mai 1896, dass er zum Bürgermeister des Dorfes La Roque-Baignard gewählt worden war. Er übte dieses Amt aus, bis das Gut La Roque im Jahr 1900 verkauft wurde. Die Gides behielten nur Madeleines Erbe Cuverville.
Im Jahr 1897 erschien "Les Nourritures terrestres". Seit der ersten Übersetzung ins Deutsche durch Hans Prinzhorn im Jahr 1930 war dieses Werk unter dem Titel "Uns nährt die Erde" bekannt, die neuere Übertragung durch Hans Hinterhäuser übersetzt "Die Früchte der Erde". Gide hatte seit der ersten Afrikareise an dem Text gearbeitet, dessen erste Fragmente 1896 in der Zeitschrift L’Ermitage publiziert wurden. In einer Mischung aus Lyrik und hymnischer Prosa gibt Gide seinem Befreiungserlebnis Ausdruck: in der Ablehnung des Gegensatzes von Gut und Böse, im Eintreten für Sinnlichkeit und Sexualität in jeder Form, in der Feier des rauschhaften Genusses gegen Reflexion und Rationalität. Mit diesem Werk wandte sich Gide vom Symbolismus und von der Salonkultur des Pariser Fin de Siècle ab. Es verschaffte ihm unter jüngeren Literaten Bewunderung und Gefolgschaft, war zunächst aber kein kommerzieller Erfolg; bis zum Ersten Weltkrieg verkauften sich nur einige Hundert Exemplare. Nach 1918 aber entwickelte sich "Les Nourritures terrestres" „für mehrere Generationen zur Bibel“.
Gide trat in seinen frühen Jahren kaum als politischer Autor hervor. Sein Antinaturalismus erstrebte Kunstwerke, „die außerhalb der Zeit und aller »Kontingenzen« stünden“. In der Dreyfus-Affäre jedoch, die Frankreichs Öffentlichkeit seit 1897/98 spaltete, positionierte er sich klar auf Seiten Emile Zolas und unterzeichnete im Januar 1898 die Petition der Intellektuellen zugunsten eines Revisionsverfahrens für Alfred Dreyfus. Im selben Jahr publizierte er in der Zeitschrift "L’Ermitage" den Artikel "A propos der «Déracinés»", in dem er sich anlässlich der Veröffentlichung des Romans "Les Déracinés" („Die Entwurzelten“) von Maurice Barrès, gegen dessen nationalistische Entwurzelungstheorie wandte. Wieder ganz dem absoluten Kunstideal entsprach dann die 1899 veröffentlichte Erzählung "Le Prométhée mal enchaîné" („Der schlechtgefesselte Prometheus“), die um das Motiv des acte gratuit kreist, einer völlig freien, willkürlichen Handlung.
Gide zeigte früh Interesse am deutschsprachigen Kulturraum. Schon als Schüler begeisterte er sich für Heinrich Heine, dessen Buch der Lieder er im Original las. Im Jahr 1892 führte ihn eine erste Deutschland-Reise nach München. Bald ergaben sich persönliche Kontakte zu deutschsprachigen Autoren, etwa zu dem Symbolisten und Lyriker Karl Gustav Vollmoeller, den er 1898 kennenlernte und noch im selben Jahr in dessen Sommerresidenz in Sorrent besuchte. Durch Vollmöller kam Gide 1904 in Kontakt mit Felix Paul Greve. In diese Zeit fällt auch seine Bekanntschaft mit Franz Blei. Greve und Blei traten als frühe Übersetzer Gides ins Deutsche hervor. Auf Einladung Harry Graf Kesslers besuchte Gide 1903 Weimar und hielt vor der Fürstin Amalie am Weimarer Hof den Vortrag "Über die Wichtigkeit des Publikums". Gide sollte sich zeitlebens, insbesondere nach 1918, für die französisch-deutschen Beziehungen einsetzen. An geistigen Einflüssen sind Goethe und Nietzsche hervorzuheben; mit letzterem setzte sich Gide seit 1898 intensiv auseinander.
Um die Jahrhundertwende wandte sich Gide verstärkt dramatischen Arbeiten zu. Seine szenischen Werke knüpfen an Stoffe der antiken Überlieferung oder biblische Geschichten an. Im Mittelpunkt seiner Ideendramen stehen Figuren, auf die Gide seine eigenen Erfahrungen und Ideen projiziert. In dem für seine dramaturgischen Überlegungen wichtigen Vortrag "De l’évolution du théâtre" („Über die Entwicklung des Theaters“), gehalten 1904 in Brüssel, zitiert Gide Goethe zustimmend: „Für den Dichter ist keine Person historisch, es beliebt ihm, eine sittliche Welt darzustellen und er erweist zu diesem Zweck gewissen Personen aus der Geschichte die Ehre, ihren Namen seinen Geschöpfen zu leihen.“ Der 1898 in der Zeitschrift La Revue blanche publizierte Text "Philoctète ou Le Traité des trois morales" („Philoktet oder der Traktat von den drei Arten der Tugend“) lehnte sich an Sophokles an und hatte den Charakter eines Traktats in dramaturgischer Form; eine Aufführung war weder geplant, noch wurde sie tatsächlich realisiert. Das erste Drama Gides, das die Bühne erreichte, war 1901 "Le roi Candaule" („König Kandaules“), dessen Stoff Herodots Historien und Platons Politeia entnommen war. Das Werk wurde am 9. Mai 1901 in der Regie Aurélien Lugné-Poes in Paris uraufgeführt. In der Übersetzung Franz Bleis kam es schon 1906 zu einer Aufführung im Deutschen Volkstheater in Wien. Im Jahr 1903 publizierte Gide das Drama "Saül" („Saul“), dessen Grundlage das Buch Samuel ist. Das Stück war schon 1898 vollendet, von Gide aber erst veröffentlicht worden, nachdem alle Versuche, es zur Aufführung zu bringen, gescheitert waren. Tatsächlich wurde "Saul" erst 1922 von Jacques Copeau im "Théâtre du Vieux-Colombier" in Paris uraufgeführt. Wenngleich Gide nach dieser intensiven Theaterarbeit um 1900 erst 1930 mit "Œdipe" („Oedipus“) wieder ein großes Drama vorlegte, blieb er dem Theater doch immer verbunden. Dies zeigen etwa seine Übersetzungen von William Shakespeares "Hamlet" und "Antonius und Cleopatra" oder von Rabindranath Tagores "Das Postamt"; auch das von Gide verfasste Opernlibretto für "Perséphone", das Igor Strawinsky vertonte, steht für sein theatralisches Interesse. Im Jahr 1913 gehörte Gide selbst zu den Gründern des "Théâtre du Vieux-Colombier".
Gide arbeitete meist an mehreren Werken gleichzeitig, die über Jahre reiften und in einem dialektischen Verhältnis zueinander standen. Dies gilt insbesondere für zwei seiner wichtigsten Erzählungen vor 1914: "L’Immoraliste" („Der Immoralist“, 1902) und "La Porte étroite" („Die enge Pforte“, 1909), die Gide selbst als „Zwilling(e)“ bezeichnete, die „im Wettstreit miteinander in meinem Geist wuchsen“. Die ersten Überlegungen zu beiden Texten, die das Problem der Tugend aus unterschiedlichen Perspektiven behandeln sollten, gehen auf die Zeit nach der Rückkehr von der ersten Afrikareise zurück. Beide Erzählungen sind in den Örtlichkeiten wie in den personellen Konstellationen stark autobiographisch geprägt, weshalb es nahe lag, in Marceline und Michel (im "Immoralist") und in Alissa und Jérôme (in "Die enge Pforte") Madeleine und André Gide zu erkennen. Gide hat diese Gleichsetzung immer zurückgewiesen und das Bild verschiedener Knospen gebraucht, die er als Anlagen in sich trage: Aus einer dieser Knospen konnte die Figur des Michel erwachsen, der sich ganz der absoluten, selbstbezogenen Vitalität hingibt und dafür seine Frau opfert; aus einer anderen Knospe ging die Figur der Alissa hervor, die ihre Liebe der absoluten und blinden Nachfolge Christi opfert. Beide Figuren scheitern in ihrer entgegengesetzten Radikalität, beide verkörpern Anlagen und Versuchungen Gides, die er gerade nicht ins Extrem treibt, sondern – auch hier dem Vorbild Goethes folgend – in sich zu vereinen und auszugleichen sucht.
Im Jahr 1906 erwarb Gide die "Villa Montmorency" in Auteuil, wo er bis 1925 lebte, soweit er sich nicht in Cuverville aufhielt oder auf Reisen war. In dieser Zeit arbeitete Gide hauptsächlich an "Die enge Pforte". Diese Arbeit unterbrach er im Februar und März 1907 und stellte in kurzer Zeit die Erzählung "Le Retour de l’enfant prodigue" („Die Rückkehr des verlorenen Sohnes“) fertig, die noch im Frühjahr 1907 erschien. Die Erzählung greift das biblische Motiv von der Heimkehr des verlorenen Sohns auf, der bei Gide jedoch dem jüngeren Bruder rät, das elterliche Haus ebenfalls zu verlassen und nicht zurückzukommen, d. h. sich definitiv zu emanzipieren. Die Erzählung erschien bereits 1914 in der Übersetzung Rainer Maria Rilkes auf Deutsch und entwickelte sich – gerade in Deutschland – „zu einem Bekenntnisbuch der Jugendbewegung“. Nach Raimund Theis ist "Die Rückkehr des verlorenen Sohnes" „eine der formal geschlossensten, vollendetsten Dichtungen André Gides“. Bald nach der Fertigstellung des "Verlorenen Sohnes", im Juli 1907, besuchte Gide seinen Freund Eugène Rouart auf dessen Gut in Südfrankreich. Dort kam es zu einer Liebesnacht zwischen Gide und dem 17-jährigen Landarbeitersohn Ferdinand Pouzac (1890–1910), die Gide in der kleinen Erzählung "Le Ramier" („Die Ringeltaube“) verarbeitete, die erst 2002 aus seinem Nachlass veröffentlicht wurde.
Um Gide bildete sich seit "Les Nourritures terrestres" ein Kreis jüngerer Literaten, bestehend aus Marcel Drouin, André Ruyters, Henri Ghéon, Jean Schlumberger und Jacques Copeau. Die Gruppe plante, eine literarische Zeitschrift nach ihren Vorstellungen zu gründen, nachdem "L’Ermitage", in der auch Gide seit 1896 publiziert hatte, 1906 eingegangen war. Gemeinsam mit Eugène Montfort bereitete die Gruppe um Gide für November 1908 das erste Heft des neuen Periodikums vor, das den Titel "La Nouvelle Revue française" ("NRF") tragen sollte. Nach Differenzen mit Montfort trennte man sich und die sechs Freunde begründeten die Zeitschrift unter gleichem Namen mit einer neuen ersten Nummer, die im Februar 1909 erschien. Die Zeitschrift konnte schnell namhafte Autoren der Zeit gewinnen, darunter Charles-Louis Philippe, Jean Giraudoux, Paul Claudel, Francis Jammes, Paul Valéry und Jacques Rivière. Der "NRF" wurde 1911 ein eigenes Verlagshaus angegliedert ("Éditions de la NRF"), dessen Leitung der bald einflussreiche Verleger Gaston Gallimard übernahm. Gides Erzählung "Isabelle" erschien 1911 als drittes Buch des neuen Verlages. Über die Zeitschrift und den NRF-Verlag wurde Gide nach 1918 einer der tonangebenden französischen Literaten seiner Epoche, der mit fast allen zeitgenössischen europäischen Autoren von Rang Kontakte pflegte. In die Literaturgeschichte ging die im Jahr 1912 erfolgte Ablehnung des ersten Bandes von Marcel Prousts Roman "Auf der Suche nach der verlorenen Zeit" durch den Verlag ein: Gide trug als Lektor die Hauptverantwortung und begründete sein Votum damit, dass Proust „ein Snob und literarischer Amateur“ sei. Seinen Fehler räumte Gide später Proust gegenüber ein: „Die Ablehnung des Buchs wird der größte Fehler der NRF bleiben und (denn ich schäme mich, weitgehend dafür verantwortlich zu sein) einer der stechendsten Schmerzen und Gewissensbisse meines Lebens.“
Gide teilte seine erzählenden Werke in zwei Gattungen ein: die "Soties" und die "Récits". Zu den "Soties" zählte er "Die Reise Urians", "Paludes" und "Der schlecht gefesselte Prometheus", zu den "Récits" "Der Immoralist", "Die enge Pforte", "Isabelle" und die 1919 erschienene "Pastoralsymphonie". Während die "Sotie" mit satirischen und parodistischen Stilmitteln arbeitet, ist der "Récit" als Erzählung zu charakterisieren, in der eine Figur idealtypisch, aus der Fülle des Lebens herausgelöst, als Fall dargestellt wird. Beide Gattungen grenzte Gide klar von der Totalität des Romans ab, was bedeutete, dass er selbst noch keinen Roman vorgelegt hatte. Auch das 1914 publizierte Werk "Les Caves du Vatican" („Die Verliese des Vatikans“) ließ er trotz der komplexen Handlungsführung nicht als Roman gelten, sondern rechnete es zu seinen "Soties".
Vor dem Hintergrund realer Gerüchte in den 1890er Jahren, Freimaurer hätten Leo XIII. eingesperrt und durch einen falschen Papst ersetzt, entwirft Gide ein Gesellschaftsbild voller Falschheit und Heuchelei, in dem Religion, Wissenschaftsgläubigkeit und bürgerliche Werte durch seine Figuren, allesamt Narren, ad absurdum geführt werden. Nur die schillernde Figur des schönen jungen Kosmopoliten Lafcadio Wluiki, ganz frei und bindungslos, scheint positiv besetzt: – und er begeht einen Mord als „acte gratuit“. "Die Verliese des Vatikans" stießen bei Erscheinen teils auf positive Resonanz, wofür Prousts Begeisterung stehen mag, teils auf heftige Kritik, wofür die Ablehnung Paul Claudels charakteristisch ist. Der mit Gide befreundete Claudel hatte ihn in den Jahren vor 1914 zum Katholizismus bekehren wollen und Gide schien der Konversion phasenweise nahe. Das neue Werk konnte Claudel nun nur als Absage verstehen, zumal sich im Buch auch eine satirisch dargestellte Konversion findet. Claudels noch 1914 in einem Brief an Gide geäußerte Kritik setzte aber bei einer homoerotischen Passage an: „Um Himmels willen, Gide, wie konnten Sie den Absatz schreiben (…). Muss man also in der Tat annehmen – ich habe mich immer geweigert es zu tun –, dass Sie selbst diese entsetzlichen Sitten praktizieren? Antworten Sie mir. Sie müssen antworten.“ Und Gide antwortete in einer Weise, die zeigt, dass er des Doppellebens, das er führte, überdrüssig war (auch wenn das öffentliche Bekenntnis erst nach 1918 folgte): „Niemals habe ich bei einer Frau ein Verlangen gespürt; und die traurigste Erfahrung, die ich in meinem Leben gemacht habe, ist, dass die beständigste, längste, lebendigste Liebe nicht von dem begleitet war, was ihr im Allgemeinen vorausgeht. Im Gegenteil: Liebe schien mir das Verlangen zu verhindern. (…) Ich habe nicht gewählt, so zu sein.“
Erster Weltkrieg und Durchbruch in der Zwischenkriegszeit.
Nach dem Ausbruch des Ersten Weltkrieges engagierte sich Gide, der nicht zum Militärdienst eingezogen wurde, bis Frühjahr 1916 in der privaten Hilfsorganisation "Foyer Franco-Belge", die sich um Flüchtlinge aus den von deutschen Truppen besetzten Gebieten kümmerte. Dort arbeitete er mit Charles Du Bos und Maria van Rysselberghe, der Frau des belgischen Malers Théo van Rysselberghe, zusammen. Maria (genannt "La Petite Dame") wurde zu einer engen Vertrauten Gides. Seit 1918 erstellte sie ohne sein Wissen Aufzeichnungen über Begegnungen und Gespräche mit ihm, die zwischen 1973 und 1977 unter dem Titel "Les Cahiers de la Petite Dame" publiziert wurden. Mit der Tochter der Rysselberghes, Elisabeth, zeugte Gide 1922 eine Tochter: Catherine Gide (1923–2013), die er vor Madeleine verheimlichte und erst nach deren Tod 1938 offiziell als Tochter anerkannte. Nach dem Verkauf der Villa in Auteuil lebte Gide seit 1926 meist in Paris in einem Haus in der rue Vaneau mit Maria, Elisabeth und Catherine, während sich Madeleine ganz nach Cuverville zurückzog.
Die Jahre 1915/16 wurden durch eine tiefe moralische und religiöse Krise Gides überschattet. Er vermochte nicht, seinen Lebenswandel mit den tief in ihm verankerten religiösen Prägungen in Einklang zu bringen. Zudem erlebte er seit Jahren die Anziehungskraft, die der Katholizismus auf Personen seines engsten Umfeldes ausübte. Dies galt nicht nur für Claudel, sondern auch für Francis Jammes, der schon 1905 konvertiert war. 1915 folgte Henri Gheon, dann Jacques Copeau, Charles Du Bos und Paul-Albert Laurens. In einer Tagebuchnotiz des Jahres 1929 gestand Gide ein: „Ich möchte nicht behaupten, daß ich nicht zu einer bestimmten Zeit meines Lebens ziemlich nahe daran gewesen wäre, zu konvertieren.“ Als Zeugnis seiner Glaubenskämpfe publizierte Gide im Jahr 1922 in kleiner Auflage (70 Exemplare) anonym die Schrift "Numquid et tu…?"; 1926 ließ er eine größere Auflage (2650 Exemplare) unter eigenem Namen folgen.
Gide überwand die Krise durch die Liebe zu Marc Allégret. Er kannte Marc, Jahrgang 1900, von Geburt an, da er ein Freund der Familie war. Marcs Vater, der Pastor Élie Allégret (1865–1940), hatte Gide als Kind unterrichtet und ihn seither wie einen jüngeren Bruder betrachtet. Als er 1916 in die Mission nach Kamerun geschickt wurde, vertraute er Gide die Sorge um seine sechs Kinder an. Dieser verliebte sich in den viertältesten Sohn Marc und ging seit 1917 ein intimes Verhältnis zu ihm ein; erstmals erlebte er die Übereinstimmung von Liebe und sexueller Begierde. Gide und Allégret unternahmen Reisen, 1917 in die Schweiz und 1918 nach England. Die Kehrseite dieses Glücks war die schwere Krise in der Beziehung zu Madeleine. Diese hatte 1916 durch Zufall vom Doppelleben ihres Mannes erfahren und war durch dessen monatelangen Aufenthalt in England zusammen mit Marc so tief verletzt, dass sie alle Briefe, die ihr Gide über 30 Jahre hinweg geschrieben hatte, noch einmal las und dann verbrannte. Als Gide im November 1918 davon erfuhr, war er zutiefst verzweifelt: „Damit verschwindet mein Bestes (…).“ Vor dem Hintergrund dieser emotionalen Wechselfälle entstand 1918 die Erzählung "La Symphonie pastorale" („Die Pastoral-Symphonie“), die 1919 veröffentlicht wurde. Dabei handelte es sich um die Geschichte eines Pastors, der ein blindes Waisenmädchen in seine Familie aufnimmt, sie erzieht, sich in sie verliebt, sie aber an seinen Sohn verliert. Die "Symphonie" war der größte Bucherfolg Gides zu seinen Lebzeiten, mit mehr als einer Million Exemplaren und rund 50 Übersetzungen. Im selben Jahr erschien auch die "Nouvelle Revue française", die seit 1914 eingestellt war, erstmals nach dem Krieg. In dieser Zeit vollzog sich Gides Aufstieg zur zentralen Figur im literarischen Leben Frankreichs: "le contemporain capital", der "bedeutendste Zeitgenosse", wie der Kritiker André Rouveyre schrieb.
In die Jahre nach dem Ersten Weltkrieg fiel Gides zunehmende Rezeption in Deutschland, wofür der Romanist Ernst Robert Curtius von großer Bedeutung war. In seinem 1919 publizierten Werk "Die literarischen Wegbereiter des neuen Frankreich" würdigte er Gide als einen der bedeutendsten französischen Gegenwartsautoren. Zwischen Curtius und Gide entspann sich seit 1920 ein Briefwechsel, der bis zu Gides Tod andauerte. Schon 1921 begegneten sich beide erstmals persönlich im luxemburgischen Colpach. Im örtlichen Schloss veranstaltete das Industriellenehepaar Aline und Emil Mayrisch Treffen französischer und deutscher Intellektueller. Gide kannte Aline Mayrisch, die in der "NRF" über deutsche Literatur schrieb, seit Beginn des Jahrhunderts. Sie und Gide sorgten auch für Curtius' Einladung zum zweiten, regelmäßig stattfindenden Treffen von Intellektuellen, die sich der europäische Verständigung verschrieben hatten: den Dekaden von Pontigny, die Paul Desjardins seit 1910 veranstaltete. Die während des Krieges unterbrochenen Dekaden fanden 1922 erstmals wieder statt und Gide, der schon vor 1914 zugegen war, gehörte zu den regelmäßigen Teilnehmern. Die auf gegenseitigem Respekt beruhende Freundschaft zwischen Gide und Curtius gründete auch auf der gemeinsamen Ablehnung von Nationalismus und Internationalismus; beide befürworteten ein "Europa der Kulturen". Ernst Robert Curtius hat zudem Werke Gides ins Deutsche übersetzt.
Im Jahr 1923 veröffentlichte Gide ein Buch über Dostojewski: "Dostoïevsky. Articles et causeries" („Dostojewski. Aufsätze und Vorträge“). Er hatte sich mit dem russischen Romancier seit 1890 auseinandergesetzt, als er erstmals das Buch "Le Roman russe" von Eugène-Melchior de Vogüé gelesen hatte. Das 1886 publizierte Werk Vogüés hatte die russische Literatur in Frankreich popularisiert und speziell Dostojewski als Repräsentanten einer „Religion des Leidens“ vorgestellt. Gide wandte sich seit der ersten Lektüre gegen diese Interpretation und betonte die psychologischen Qualitäten des russischen Erzählers, der in seinen Figuren die extremsten Möglichkeiten der menschlichen Existenz ausleuchte. Er publizierte einige Artikel über Dostojewski und plante vor 1914 eine Lebensbeschreibung, die er aber nie vorlegte. Aus Anlass des 100. Geburtstages hielt er 1921 einen Vortrag im Theater "Vieux-Colombier", woraus sich eine Vortragsreihe in den Jahren 1921/22 entwickelte. Das 1923 veröffentlichte Werk sammelte ältere Aufsätze und die Vorträge im "Vieux-Colombier", die nicht weiter bearbeitet worden waren. Dass sich sein Blick auf Dostojewski nicht gewandelt hatte, verdeutlichte Gide mit Nietzsches Ausspruch, Dostojewski sei „der einzige Psychologe, von dem ich etwas zu lernen hatte“, den er dem Buch als Motto voranstellte. Die Publikation über Dostojewski ist Gides umfassendste Auseinandersetzung mit einem anderen Schriftsteller, die gerade in die Jahre fiel, in denen er selbst an einer Theorie des Romans arbeitete. Gides Interesse an der russischen Literatur zeigt auch seine 1928 vorgelegte Übertragung der Novellen Puschkins.
Mitte der 1920er Jahre kulminierte Gides Werk in der Veröffentlichung dreier Bücher, an denen er über Jahre gearbeitet hatte und die ihn als öffentliche Person wie auch als Künstler endgültig definierten: 1924 erschien "Corydon. Quatre dialogues socratiques" („Corydon. Vier sokratische Dialoge“), 1926 "Si le grain ne meurt" („Stirb und werde“) und im selben Jahr "Les Faux-Monnayeurs" („Die Falschmünzer“). Gide führte 1922 bei der Psychoanalytikerin Eugénie Sokolnicka für kurze Zeit eine Psychoanalyse durch. Sie stand den Literaten um die Zeitschrift „Nouvelle Revue Française“ sehr nahe. Gide porträtierte Eugénie Sokolnicka literarisch als „Doctoresse Sophroniska“ in dem besagten Roman „Die Falschmünzer“.
Mit "Corydon" und "Stirb und werde" outete sich Gide als Homosexueller in der breiten Öffentlichkeit. Für ihn war dies ein Befreiungsschlag, da er sein Privatleben und sein öffentliches Bild zunehmend als falsch und heuchlerisch empfand. Im Entwurf eines Vorworts zu "Stirb und werde" benannte er seine Motivation: „Ich meine, es ist besser, für das, was man ist, gehaßt, als für das, was man nicht ist, geliebt zu werden. Unter der Lüge, so glaube ich, habe ich am meisten in meinem Leben gelitten.“
"Corydon" hatte eine lange Entstehungsgeschichte. Seit 1908 arbeitete Gide an sokratischen Dialogen zum Thema Homosexualität. Im Jahr 1911 ließ er unter dem Titel "C. R. D. N." eine Ausgabe in 22 Exemplaren anonym erscheinen. Zu diesem Zeitpunkt waren die ersten beiden und ein Teil des dritten Dialogs fertiggestellt. Noch vor dem Krieg setzte Gide die Arbeit fort, unterbrach sie in den ersten Kriegsjahren und nahm sie ab 1917 wieder auf. Den entstandenen Text ließ er, wieder anonym, in einer Auflage von nur 21 Exemplaren drucken, die bereits den Titel "Corydon. Vier sokratische Dialoge" trugen. Nach weiteren Bearbeitungen seit 1922 erschien das Buch im Mai 1924 unter Gides Namen, 1932 erstmals auf Deutsch in der Übersetzung von Joachim Moras. "Corydon" kombiniert die fiktionale literarische Form des Dialogs mit nichtfiktionalen Inhalten, über die sich die beiden Gesprächspartner austauschen (Geschichte, Medizin, Literatur usw.). Gides Anliegen war es, die Homosexualität als naturgegeben zu verteidigen, wobei er die Spielart der Päderastie präferierte.
Auch die Entstehung der Autobiografie "Stirb und werde", die Gides Leben bis zur Heirat 1895 darstellt, geht auf die Jahre vor dem Ersten Weltkrieg zurück. Im Jahr 1920 ließ Gide einen Privatdruck (12 Exemplare) des ersten Teils der Memoiren anfertigen, der nur für seine Freunde bestimmt war; 1921 folgten 13 Exemplare des zweiten Teils zum selben Zweck. Die für den Buchhandel bestimmte Ausgabe lag 1925 gedruckt vor, wurde auf Gides Wunsch aber erst im Oktober 1926 ausgeliefert. "Stirb und werde" ist eine Lebensbeschreibung, die nicht dem Muster des organischen Wachstums oder der stufenweisen Entfaltung der Persönlichkeit folgt, sondern einen radikalen Umbruch darstellt: die Zeit vor den Afrikareisen (Teil I) erscheint als dunkle Epoche der Selbstentfremdung, die Erfahrungen in Afrika (Teil II) als Befreiung und Erlösung des eigenen Selbst. Gide war sich bewusst, dass eine derart stilisierte Sinngebung in der eigenen Lebensbeschreibung die Realität vereinfachte und die Widersprüche in seinem Wesen harmonisierte. In einer in die Autobiographie aufgenommenen Selbstreflexion bemerkte er daher: „So sehr man sich auch um Wahrheit bemüht, die Beschreibung des eigenen Lebens bleibt immer nur halb aufrichtig: In Wirklichkeit ist alles viel verwickelter, als es dargestellt wird. Vielleicht kommt man im Roman der Wahrheit sogar näher.“ Mit den "Falschmünzern" löste er diesen Anspruch ein.
Gide bezeichnete "Die Falschmünzer" in der Widmung des Werkes für Roger Martin du Gard als seinen „ersten Roman“ – und nach seiner eigenen Definition des Romans blieb es auch sein einziger. Er hatte die Arbeit an dem Buch im Jahr 1919 aufgenommen und im Juni 1925 abgeschlossen. Anfang 1926 erschien es mit dem auf 1925 datierten Copyright. Parallel zur Entstehung des Romans führte Gide ein Tagebuch, in dem er seine Reflexionen über das sich entwickelnde Werk festhielt. Dieser Text erschien im Oktober 1926 unter dem Titel "Journal des Faux-Monnayeurs" („Tagebuch der Falschmünzer“). "Die Falschmünzer" ist ein sehr kunstvoll angelegter Roman um die Entstehung eines Romans. Die Handlung, die damit beginnt, dass einer der Protagonisten seine außereheliche Zeugung entdeckt, wirkt etwas verwirrend, steht aber auf der Höhe der zeitgenössischen theoretischen und erzähltechnischen Errungenschaften der Gattung Roman, die sich selbst inzwischen zum Problem geworden war. Die "Faux-Monnayeurs" gelten heute als ein richtungweisendes Werk der modernen europäischen Literatur.
Wendung zum Sozialen und Politischen.
Im Jahr 1925 verkaufte Gide seine Villa in Auteuil und ging mit Allégret auf eine fast einjährige Reise durch die damaligen französischen Kolonien Congo (Brazzaville) und Tschad. Die seines Erachtens unhaltbaren ausbeuterischen Zustände dort schilderte er anschließend in Vorträgen und Artikeln sowie in den Büchern "Voyage au Congo" („Kongoreise“) (1927) und "Retour du Tchad" („Rückkehr aus dem Tschad“) (1928), womit er heftige Diskussionen entfachte und viele Angriffe nationalistischer Franzosen auf sich zog.
1929 erschien "L’École des femmes" („Die Schule der Frauen“), die tagebuchartige Geschichte einer Frau, die ihren Mann als starren und seelenlosen Vertreter der bürgerlichen Normen demaskiert und ihn verlässt, um im Krieg Verwundete zu pflegen.
1931 beteiligte sich Gide an der von Jean Cocteau ausgelösten Welle antikisierender Dramen mit dem Stück: "Œdipe" („Ödipus“).
Ab 1932, im Rahmen der wachsenden politischen Polarisierung zwischen links und rechts in Frankreich und ganz Europa, engagierte Gide sich zunehmend auf Seiten der französischen kommunistischen Partei (PCF) und antifaschistischer Organisationen. So reiste er z. B. 1934 nach Berlin, um dort die Freilassung kommunistischer Regimegegner zu verlangen. 1935 gehörte er zur Leitung eines Kongresses antifaschistischer Schriftsteller in Paris, der teilweise verdeckt mit Geldern aus Moskau finanziert wurde. Er verteidigte dabei das Sowjetregime gegen Angriffe von trotzkistischen Delegierten, die die sofortige Freilassung des in der Sowjetunion internierten Schriftstellers Victor Serge verlangten. Auch mäßigte er – zumindest theoretisch – seinen bis dahin vertretenen kompromisslosen Individualismus zugunsten einer Position, die die Rechte des Ganzen und der Anderen vor die des Einzelnen setzt.
Im Juni 1936 reiste er auf Einladung des sowjetischen Schriftstellerverbandes mehrere Wochen durch die UdSSR. Ihn betreute der Vorsitzende der Auslandskommission des Verbandes, der Journalist Michail Kolzow. Am Tag nach der Ankunft Gides starb der Vorsitzende des Schriftstellerverbandes Maxim Gorki. Gide hielt auf dem Lenin-Mausoleum, auf dem auch das Politbüro mit Stalin an der Spitze Aufstellung genommen hatte, eine der Trauerreden. Doch zu der von ihm erhofften Audienz bei Stalin im Kreml kam es nicht. Den Forschungen von Literaturhistorikern zufolge war Stalin über Gides Absichten gut unterrichtet. Dieser hatte vor seiner Abreise dem in Paris als Korrespondent sowjetischer Zeitungen arbeitenden Schriftsteller Ilja Ehrenburg anvertraut: „Ich habe mich entschlossen, die Frage nach seiner Haltung zu meinen Gesinnungsgenossen aufzuwerfen.“ Er wolle Stalin nach der „rechtlichen Lage der Päderasten fragen“, hielt Ehrenburg fest.
Gides Enttäuschung beim Blick hinter die Kulissen der kommunistischen Diktatur war jedoch groß. Seine Eindrücke von dieser Reise, die ihn auch nach Georgien führte, schilderte er in dem kritischen Bericht "Retour de l’U.R.S.S."(„Zurück aus der Sowjetunion“), in dem er sich indes bemühte, Emotionen und Polemik zu vermeiden. Er beschrieb das Sowjetregime als „Diktatur eines Mannes“, die die Ursprungsideen von der „Befreiung des Proletariats“ pervertiert habe. Die sowjetische Presse reagierte mit heftigen Attacken auf ihn, seine Bücher wurden aus allen Bibliotheken des Landes entfernt, eine bereits begonnene mehrbändige Werkausgabe wurde nicht fortgesetzt. Als viele westliche Kommunisten ihn attackierten und ihm vorwarfen, er unterstütze mit seiner Kritik indirekt Hitler, ging Gide vollends auf Distanz zur Partei.
Der Zweite Weltkrieg und die Nachkriegszeit.
Nach dem Ausbruch des Zweiten Weltkriegs 1939 zog er sich zu Freunden nach Südfrankreich zurück und ging 1942 nach Nordafrika, nachdem er sich von einem passiven Sympathisanten des Regierungschefs des Kollaborationsregimes von Marschall Philippe Pétain zu einem aktiven Helfer der Londoner Exilregierung unter Charles de Gaulle entwickelt hatte. Diese versuchte er z. B. 1944 mit einer Propagandareise durch die westafrikanischen Kolonien zu unterstützen, deren Gouverneure lange zwischen Pétain und de Gaulle schwankten.
1946 publizierte Gide sein letztes größeres Werk, "Thésée" („Theseus“), eine fiktive Autobiografie des antiken Sagenhelden Theseus, in den er sich hineinprojiziert.
In seinen letzten Jahren konnte er noch seinen Ruhm genießen mit Einladungen zu Vorträgen, Ehrendoktorwürden, der Verleihung des Nobelpreises 1947, Interviews, Filmen zu seiner Person u. ä. m. Die Begründung für den Nobelpreis lautet: „für seine weit umfassende und künstlerisch bedeutungsvolle Verfasserschaft, in der Fragen und Verhältnisse der Menschheit mit unerschrockener Wahrheitsliebe und psychologischem Scharfsinn dargestellt werden“.
1939, 1946 und 1950 erschienen seine Tagebücher unter dem Titel "Journal".
Das Maß seiner Enttäuschung und Ernüchterung über den Kommunismus schilderte Gide in einem Beitrag zu dem 1949 erschienenen Buch "The God that failed", herausgegeben von Richard Crossman, Arthur Koestler u. a.
1949 erhielt Gide die Goetheplakette der Stadt Frankfurt am Main. 1950 wurde er als auswärtiges Ehrenmitglied in die American Academy of Arts and Letters gewählt.
Eine indirekte Anerkennung seiner Bedeutung war, dass 1952 sein Gesamtwerk auf den Index Romanus der katholischen Kirche gesetzt wurde.
Von seiner Tochter im Nachlass entdeckt und herausgegeben, erschien 2002 postum die 1907 entstandene homoerotische Novelle "Le Ramier" (dt. "Die Ringeltaube"). |
357 | 568 | https://de.wikipedia.org/wiki?curid=357 | Aggregatzustand | Ein Aggregatzustand ist die Art der Verbindung und Verschiebbarkeit der kleinsten Teile, aus denen Materie zusammengesetzt ist. Anders formuliert sind Aggregatzustände fundamentale Erscheinungsformen von Materie, die sich jeweils sprunghaft in der Mobilität ihrer Atome und Moleküle sowie in der Stärke der Wechselwirkungen zwischen diesen unterscheiden. Die klassischen Aggregatzustände fest, flüssig und gasförmig lassen sich daher sensorisch anhand ihrer unterschiedlichen makroskopischen mechanischen und rheologischen Eigenschaften identifizieren. Daneben werden in der Physik auch weitere, in der Biosphäre der Erde nicht oder kaum natürlich vorkommende Erscheinungsformen der Materie als Aggregatzustand bezeichnet. So gilt Plasma, aus dem beispielsweise die Sonne besteht, als vierter Aggregatzustand der Materie.
Bestimmte Stoffe, wie etwa Flüssigkristalle, viskoelastische Stoffe oder Schmelzen besonders langkettiger Polymere, können Merkmale sowohl des festen als auch des flüssigen Aggregatzustandes aufweisen. Gläser ataktischer Polymere mit hohen Molekulargewichten werden oft als Festkörper betrachtet, obwohl es sich bei diesen lediglich um Flüssigkeiten mit einer – verglichen mit den Zeitskalen menschlicher Wahrnehmung – stark verlangsamten Dynamik handelt.
Der Begriff Aggregatzustand ist vom enger gefassten Begriff Phase abzugrenzen. Eine Phase ist innerhalb eines Materials ein räumlich begrenzter Bereich, der chemisch und physikalisch einheitliche Eigenschaften aufweist. Ein Aggregatzustand kann mehrere Phasen umfassen. Beispielsweise können homogene Feststoffe bei unterschiedlichen Temperaturen und Drücken in unterschiedlichen Kristallmodifikationen vorliegen, die durch enantiotrope Umwandlungen ineinander überführbar sind und die jeweils eine eigene Phase darstellen. Heterogene Gemische können einheitlich im festen oder flüssigen Aggregatzustand vorliegen, aber mehrere Phasen unterschiedlicher stofflicher Zusammensetzungen enthalten. Bei Gasen und Plasmen lassen sich die Begriffe Aggregatzustand und Phase synonym verwenden.
Die Überführung eines Stoffes in einen anderen Aggregatzustand erfolgt durch einen Phasenübergang, der sich durch eine Zustandsänderung herbeiführen lässt, etwa durch eine Änderung der Temperatur, des Drucks oder des Volumens. Die Grenzen zwischen den verschiedenen Aggregatzuständen im Zustandsraum eines Stoffes lassen sich graphisch mit Hilfe von Phasendiagrammen darstellen.
Die drei klassischen Aggregatzustände.
Übersicht.
Es gibt drei klassische Aggregatzustände:
Für feste Stoffe und flüssige Stoffe gibt es den zusammenfassenden Begriff kondensierte Materie. Flüssigkeiten und Gase werden in der Physik unter dem Oberbegriff Fluide zusammengefasst.
Bei Feststoffen unterscheidet man auch nach anderen Merkmalen:
Die klassischen Aggregatzustände lassen sich mit einem Teilchenmodell erklären, das die kleinsten Teilchen eines Stoffes (Atome, Moleküle, Ionen) auf kleine Kugeln reduziert. Die mittlere kinetische Energie aller Teilchen ist in allen Zuständen ein Maß für die Temperatur. Die Art der Bewegung ist in den drei Aggregatzuständen jedoch völlig unterschiedlich. Im Gas bewegen sich die Teilchen geradlinig wie Billardkugeln, bis sie mit einem anderen oder mit der Gefäßwand zusammenstoßen. In der Flüssigkeit müssen sich die Teilchen durch Lücken zwischen ihren Nachbarn hindurchzwängen (Diffusion, Brownsche Molekularbewegung). Im Festkörper schwingen die Teilchen nur um ihre Ruhelage.
Fest.
Bewegung.
Die kleinsten Teilchen sind bei einem Feststoff nur wenig in Bewegung. Sie schwingen um eine feste Position, ihren Gitterplatz, und rotieren meist um ihre Achsen. Je höher die Temperatur wird, desto heftiger schwingen bzw. rotieren sie, und der Abstand zwischen den Teilchen nimmt (meist) zu. Ausnahme: Dichteanomalie.
Hinweis: Betrachtet man die Teilchen mit quantenmechanischen Grundsätzen, so dürfen aufgrund der Heisenbergschen Unschärferelation eigentlich Teilchen nie ruhig stehen. Sie haben kleine Schwingungen, die man auch als Nullpunktsfluktuationen bezeichnet. Das entspricht dem Grundzustand des harmonischen Oszillators.
Anziehung.
Zwischen den kleinsten Teilchen wirken verschiedene Kräfte, nämlich die Van-der-Waals-Kräfte, die elektrostatische Kraft zwischen Ionen, Wasserstoffbrückenbindungen oder kovalente Bindungen. Die Art der Kraft ist durch den atomaren Aufbau der Teilchen (Ionen, Moleküle, Dipole …) bestimmt. Bei Stoffen, die auch bei hohen Temperaturen fest sind, ist die Anziehung besonders stark.
Anordnung.
Durch die schwache Bewegung und den festen Zusammenhalt sind die Teilchen regelmäßig angeordnet.
Abstand.
Durch die starke Anziehung sind die Teilchen eng beieinander (hohe Packungsdichte)
Flüssig.
Bewegung.
Die Teilchen sind nicht wie beim Feststoff ortsfest, sondern können sich gegenseitig verschieben. Bei Erhöhung der Temperatur werden die Teilchenbewegungen immer schneller.
Anziehung.
Durch die Erwärmung ist die Bewegung der Teilchen so stark, dass die Wechselwirkungskräfte nicht mehr ausreichend sind, um die Teilchen an ihrem Platz zu halten. Die Teilchen können sich nun frei bewegen.
Abstand.
Obwohl der Abstand der Teilchen durch die schnellere Bewegung ein wenig größer wird (die meisten festen Stoffe nehmen beim Schmelzen einen größeren Raum ein), hängen die Teilchen weiter aneinander. Für die Verringerung des Volumens einer Flüssigkeit durch Kompression gilt ähnliches wie bei einem Festkörper, wobei der entsprechende Kompressionsmodul der Flüssigkeit zum Tragen kommt. Bei einer Temperaturverringerung wird das Volumen ebenfalls kleiner, bei Wasser jedoch nur bis zu einer Temperatur von 4 °C (Anomalie des Wassers), während darunter bis 0 °C das Volumen wieder ansteigt.
Anordnung.
Obwohl die Teilchen sich ständig neu anordnen und Zitter-/Rotationsbewegungen durchführen, kann eine Anordnung festgestellt werden. Diese Nahordnung ist ähnlich wie im amorphen Festkörper, die Viskosität ist jedoch sehr viel niedriger, d. h., die Teilchen sind beweglicher.
Gasförmig.
Bewegung.
Bei Stoffen im gasförmigen Zustand sind die Teilchen schnell in Bewegung. Ein Gas oder gasförmiger Stoff verteilt sich schnell in einem Raum. In einem geschlossenen Raum führt das Stoßen der kleinsten Teilchen gegen die Wände zum Druck des Gases.
Anziehung.
Beim gasförmigen Zustand ist die Bewegungsenergie der kleinsten Teilchen so hoch, dass sie nicht mehr zusammenhalten. Die kleinsten Teilchen des gasförmigen Stoffes verteilen sich gleichmäßig im gesamten zur Verfügung stehenden Raum.
Abstand.
Durch die schnelle Bewegung der Teilchen in einem Gas sind sie weit voneinander entfernt. Sie stoßen nur hin und wieder einander an, bleiben aber im Vergleich zur flüssigen Phase auf großer Distanz. Ein gasförmiger Stoff lässt sich komprimieren, d. h., das Volumen lässt sich verringern.
Anordnung.
Wegen der Bewegung sind die Teilchen ungeordnet.
In der physikalischen Chemie unterscheidet man zwischen Dampf und Gas. Beide sind physikalisch gesehen nichts anderes als der gasförmige Aggregatzustand; die Begriffe haben auch nicht direkt mit realem Gas und idealem Gas zu tun. Was "umgangssprachlich" als „Dampf“ bezeichnet wird, ist physikalisch gesehen eine Mischung aus flüssigen und gasförmigen Bestandteilen, welche man im Falle des Wassers als Nassdampf bezeichnet.
Bei einem Dampf im engeren Sinn handelt es sich um einen Gleichgewichtszustand zwischen flüssiger und gasförmiger Phase. Er kann, ohne Arbeit verrichten zu müssen, verflüssigt werden, das heißt beim Verflüssigen erfolgt kein Druckanstieg. Ein solcher Dampf wird in der Technik als Nassdampf bezeichnet im Gegensatz zum sogenannten Heißdampf oder überhitzten Dampf, der im eigentlichen Sinn ein reales Gas aus Wassermolekülen darstellt und dessen Temperatur oberhalb der Kondensationstemperatur der flüssigen Phase beim jeweiligen Druck liegt.
Ausgewählte Reinstoffe als Beispiele.
Reinstoffe werden entsprechend ihrem Aggregatzustand bei einer Temperatur von 20 °C (siehe Raumtemperatur) und einem Druck von 1013,25 hPa (Normaldruck) als Feststoff, Flüssigkeit oder Gas bezeichnet. Beispiel: Brom ist bei Raumtemperatur und Normaldruck flüssig (siehe Tabelle), also gilt Brom als Flüssigkeit.
Diese Bezeichnungen (Feststoff, Flüssigkeit, Gas) werden zwar auch gebraucht, wenn Stoffe unter veränderten Bedingungen einen anderen Aggregatzustand annehmen. Im engeren Sinne bezieht sich die Einteilung jedoch auf die oben genannten Standardbedingungen; jeder Stoff gehört dann zu einer der Kategorien.
1 bei Normaldruck
Aggregatzustände in Gemischen.
Bei der Vermischung von Stoffen ergeben sich abhängig vom Aggregatzustand der Bestandteile und ihrem mengenmäßigen Anteil charakteristische Gemische, zum Beispiel Nebel oder Schaum.
Änderung des Aggregatzustands.
Die Übergänge zwischen den verschiedenen Aggregatzuständen haben spezielle Namen (eoc, omc, eon) und spezielle Übergangsbedingungen, die bei Reinstoffen aus Druck und Temperatur bestehen. Diese Übergangsbedingungen entsprechen dabei Punkten auf den Phasengrenzlinien von Phasendiagrammen. Hierbei ist für jeden Phasenübergang eine bestimmte Wärmemenge notwendig bzw. wird dabei freigesetzt.
Die Sublimation und das Verdampfen kommen auch unterhalb der Sublimations- beziehungsweise Siedepunktes vor. Man spricht hier von einer Verdunstung.
Alltagsbeispiele.
Alle Übergänge können am Beispiel Wasser im Alltag beobachtet werden (siehe Abbildung):
Schmelzen.
Schnee oder Eis fängt im Frühjahr an flüssig zu werden, sobald Temperaturen oberhalb der Schmelztemperatur herrschen.
Erstarren.
Kühlt das Wasser in Seen unter den Gefrierpunkt ab, bilden sich Eiskristalle, die mit der Zeit immer größer werden, bis die Oberfläche mit einer Eisschicht überzogen ist.
Verdampfen.
Wird Wasser im Kochtopf über seine Siedetemperatur erhitzt, so wird das Wasser gasförmig. Das „Blubbern“ im Kochtopf kommt zustande, weil das Wasser am heißen Topfboden zuerst die Siedetemperatur erreicht - Die aufsteigenden Blasen sind der Wasserdampf, der (wie die meisten gasförmigen Stoffe) unsichtbar ist. "Verdunstung", der Übergang von flüssig in gasförmig ohne Erreichen der Siedetemperatur, ist bei Schweiß auf der Haut gut zu beobachten.
Kondensieren.
Der deutlich sichtbare Nebel oberhalb kochenden Wassers, der meist umgangssprachlich als „Dampf“ bezeichnet wird, ist zu winzigen Wassertröpfchen kondensierter Wasserdampf. Tau und Wolken entstehen ebenfalls durch kondensierenden Wasserdampf.
Sublimation.
Gefrorene Pfützen können im Winter, auch bei Temperaturen weit unterhalb des Gefrierpunktes, durch Sublimation nach und nach „austrocknen“, bis das Eis vollständig sublimiert und die Pfütze verschwunden ist.
Resublimation.
Raureif oder Eisblumen, die sich im Winter bilden, entstehen durch den aus der Umgebungsluft resublimierenden Wasserdampf.
Teilchenmodell der Phasenübergänge.
Schmelzen.
Durch Erhöhen der Temperatur (Zufuhr von thermischer Energie) bewegen sich die kleinsten Teilchen immer heftiger, und ihr Abstand voneinander wird (normalerweise) immer größer. Die Van-der-Waals-Kräfte halten sie aber noch in ihrer Position, ihrem Gitterplatz. Erst ab der sogenannten Schmelztemperatur wird die Schwingungsamplitude der Teilchen so groß, dass die Gitterstruktur teilweise zusammenbricht. Es entstehen Gruppen von Teilchen, die sich frei bewegen können. In ihnen herrscht eine Nahordnung, im Gegensatz zur Fernordnung von Teilchen innerhalb des Kristallgitters fester Stoffe.
Erstarren.
Mit Sinken der Temperatur nimmt die Bewegung der Teilchen ab, und ihr Abstand zueinander wird immer geringer. Auch die Rotationsenergie nimmt ab. Bei der sogenannten Erstarrungstemperatur wird der Abstand so klein, dass sich die Teilchen gegenseitig blockieren und miteinander verstärkt anziehend wechselwirken – sie nehmen eine feste Position in einem dreidimensionalen Gitter ein.
Es gibt Flüssigkeiten, die sich bei sinkender Temperatur ausdehnen, beispielsweise Wasser. Dieses Verhalten wird als Dichteanomalie bezeichnet.
Verdampfen und Sublimation.
Die Geschwindigkeit der kleinsten Teilchen ist nicht gleich. Ein Teil ist schneller, ein Teil ist langsamer als der Durchschnitt. Dabei ändern die Teilchen durch Kollisionen ständig ihre aktuelle Geschwindigkeit.
An der Grenze eines Festkörpers oder einer Flüssigkeit, dem Übergang einer Phase in eine gasförmige, kann es mitunter vorkommen, dass ein Teilchen von seinen Nachbarn zufällig einen so starken Impuls bekommt, dass es aus dem Einflussbereich der Kohäsionskraft entweicht. Dieses Teilchen tritt dann in den gasförmigen Zustand über und nimmt etwas Wärmeenergie in Form der Bewegungsenergie mit, das heißt die feste oder flüssige Phase kühlt ein wenig ab.
Wird thermische Energie einem System zugeführt und erreicht die Temperatur die Sublimations- oder Siedetemperatur, geschieht dieser Vorgang kontinuierlich, bis alle kleinsten Teilchen in die gasförmige Phase übergetreten sind. In diesem Fall bleibt die Temperatur in der verdampfenden Phase in der Regel unverändert, bis alle Teilchen mit einer höheren Temperatur aus dem System verschwunden sind. Die Wärmezufuhr wird somit in eine Erhöhung der Entropie umgesetzt.
Wenn die Kohäsionskräfte sehr stark sind, beziehungsweise es sich eigentlich um eine viel stärkere Metall- oder Ionenbindung handelt, dann kommt es nicht zur Verdampfung.
Die durch Verdampfen starke Volumenzunahme eines Stoffes kann, wenn sehr viel Hitze schlagartig zugeführt wird, zu einer Physikalischen Explosion führen.
Kondensation und Resublimation.
Der umgekehrte Vorgang ist die Kondensation beziehungsweise Resublimation. Ein kleinstes Teilchen trifft zufällig auf einen festen oder flüssigen Stoff, überträgt seinen Impuls und wird von den Kohäsionskräften festgehalten. Dadurch erwärmt sich der Körper um die Energie, die das kleinste Teilchen mehr trug als der Durchschnitt der kleinsten Teilchen in der festen beziehungsweise flüssigen Phase.
Stammt das Teilchen allerdings von einem Stoff, der bei dieser Temperatur gasförmig ist, sind die Kohäsionskräfte zu schwach, es festzuhalten. Selbst wenn es zufällig so viel Energie verloren hat, dass es gebunden wird, schleudert es die nächste Kollision mit benachbarten kleinsten Teilchen wieder in die Gasphase. Durch Absenken der Temperatur kann man den kleinsten Teilchen ihre Energie entziehen. Dadurch ballen sie sich beim Unterschreiten der Sublimations- oder Erstarrungstemperatur durch die Wechselwirkungskräfte mit anderen Teilchen zusammen und bilden wieder einen Feststoff oder eine Flüssigkeit.
Phasendiagramme.
Das p-T-Phasendiagramm eines Stoffes beschreibt in Abhängigkeit von Druck und Temperatur, in wie vielen Phasen ein Stoff vorliegt und in welchem Aggregatzustand sich diese befinden. Anhand der Linien kann man also erkennen, bei welchem Druck und welcher Temperatur die Stoffe ihren Aggregatzustand verändern. Gewissermaßen findet auf den Linien der Phasenübergang zwischen den Aggregatzuständen statt, weshalb man diese auch als Phasengrenzlinien bezeichnet. Auf ihnen selbst liegen die jeweiligen Aggregatzustände in Form eines dynamischen Gleichgewichts nebeneinander in verschiedenen Phasen vor.
Nichtklassische Aggregatzustände.
Neben den drei klassischen Aggregatzuständen gibt es weitere Materiezustände, die zum Teil nur unter extremen Bedingungen auftreten (nach Temperatur, tendenziell von hoher zu niedriger, sortiert). |
358 | 9681 | https://de.wikipedia.org/wiki?curid=358 | Arbeitsmarkt | Der Arbeitsmarkt ist ein Markt, an dem die Nachfrage nach Arbeitskräften mit dem Angebot von Arbeitskräften zusammentrifft. In der Arbeitsmarktökonomik wird in den Wirtschaftswissenschaften die Funktionsweise von Arbeitsmärkten untersucht.
Allgemeines.
Grundlage des Arbeitsmarktes ist die eigentumsrechtliche Trennung arbeitender Menschen von den zur Arbeit notwendigen Produktionsmitteln. Der Arbeitsmarkt setzt Menschen voraus, die ihren Lebensunterhalt nicht mit eigenen Produktionsmitteln (Boden und Kapital) sichern können und deswegen gezwungen sind, ihre Arbeitskraft an die Eigentümer der Produktionsmittel zu verkaufen (siehe Lohnarbeit in der marxistischen Theorie). Eine Klasse solcher Menschen – das sogenannte Industrieproletariat – entstand in der europäischen Neuzeit im Zuge der Bevölkerungsexplosion während der industriellen Revolution. Das damit entstandene Problem der Arbeitslosigkeit (Erwerbslosigkeit und Armut mangels eigener Produktionsmittel und mangels einer Person, die den eigentums- und damit arbeitslosen Menschen für sich arbeiten lassen will) bildete einen der wichtigsten Aspekte der "sozialen Frage" (Pauperismus) und stellt eines der wichtigsten Strukturmerkmale der europäischen ("westlichen") Neuzeit dar.
Während nach neoklassischer Sicht der Arbeitsmarkt wie ein Gütermarkt funktioniert, unterscheidet er sich nach institutionalistischer und arbeitsökonomischer Sicht in charakteristischer Weise vom Gütermarkt. Für Robert M. Solow ist „Arbeit als Ware etwas Besonderes […] und daher auch der Arbeitsmarkt“. Auch die keynesianische Kritik an der Neoklassik sieht dies so (siehe Arbeitsmarktpolitik).
Anders als das umgangssprachliche Verständnis rekrutiert sich das "Arbeitsangebot" aus den arbeitswilligen und arbeitsfähigen Arbeitskräften, die "Arbeitsnachfrage" resultiert aus den offenen Stellen der Arbeitgeber.
Definition.
Auf dem Arbeitsmarkt wird Arbeitskraft für eine bestimmte Arbeitszeit und bestimmte Qualifikationen angeboten und nachgefragt. Arbeitnehmer, die über ihre Arbeitskraft persönlich frei verfügen können, verkaufen (korrekter: vermieten) gegen Arbeitsentgelt ihre Arbeitskraft zur Verrichtung produktiver Tätigkeiten an Arbeitgeber, unter deren Weisungsrecht sie Güter herstellen oder Dienstleistungen erbringen, in Kombination mit (meist) von den Arbeitgebern zur Verfügung gestellten Rohstoffen und Arbeitsmitteln. Der Arbeitgeber muss durch (zusätzliche) Personalkosten auf einen Teil seiner Gewinne verzichten, der Arbeitnehmer muss die Furcht vor dem Arbeitsleid überwinden.
Der Arbeitsmarkt ist kein Markt für Arbeits"leistungen"; Arbeitsergebnisse sind Gegenstand von Werkverträgen. Ähnlich wie Ärzte werden auch Arbeitnehmer für ihre „Bemühungen“ bezahlt und nicht für deren Erfolg. Der Arbeitsvertrag begründet ein Arbeitsverhältnis und ist ein Vertrag sui generis.
Besonderheiten des Arbeitsmarktes.
Die Besonderheit der „Ware Arbeitskraft“ besteht darin, dass sie unauflöslich an Menschen als Träger dieser Ware gebunden ist. Insofern ist eine Verfügung über diese Ware immer auch eine Verfügung über ihren Träger, dessen Menschenwürde beachtet werden muss. Das für Sachen charakteristische „ius utendi et abutendi“, das Recht, eine Sache zu gebrauchen, aber auch zu missbrauchen, ist auf Tiere und Menschen nur sehr begrenzt anwendbar. So haben Arbeitnehmer insbesondere ein Recht auf Freizeit, über deren Gestaltung der Arbeitgeber nur sehr bedingt Mitspracherechte hat, und auf Freizügigkeit.
Die "Arbeitsnachfrage" lässt sich im Zusammenhang mit dem Grenzprodukt der Arbeit (1. Ableitung der Produktionsfunktion) errechnen (siehe hier). Der Marktpreis für die Arbeitskraft eines bestimmten Arbeitnehmers kann unter seinem Existenzminimum liegen. In diesem Fall besteht eine Pflicht eines Staates, der sich als Sozialstaat versteht, darin zu verhindern, dass die betreffende Person ein Haushaltseinkommen unterhalb ihres Existenzminimums erzielt. Als Instrumente kommen unter anderem Transferleistungen, Mindestlohn und Arbeitskräfteverknappung zum Einsatz.
Der Zusammenschluss der Arbeitnehmer zu Gewerkschaften und das Arbeitsrecht als Schutzrecht für die Arbeitnehmer sind als Konsequenzen einer unterstellten „Macht-Asymmetrie“ (Claus Offe) auf den Arbeitsmärkten und des Charakters des Arbeitsverhältnisses als „Herrschaftsverhältnis“ (Max Weber) zu verstehen. Diese Theorie beruht auf der Prämisse, dass Arbeitsmärkte in der Regel Käufermärkte seien, d. h., dass eine hohe Zahl an Arbeitswilligen mit einer beschränkten Zahl an Arbeitsplätzen konfrontiert werde, was ohne Marktregulierungen wie Tarifentgelte oder einen gesetzlichen Mindestlohn zwangsläufig zu niedrigen Arbeitsentgelten führen würde.
Formen des Arbeitsmarktes.
Es wird unterschieden zwischen dem
Der Arbeitsmarkt entwickelte sich im Zuge der fortschreitenden Arbeitsteilung.
Wichtige Kennzahlen des Arbeitsmarktes sind die Erwerbsquote, die Arbeitslosenquote sowie das Arbeitsentgelt (Lohnniveau). Die Kennzahlen werden oft regional oder nach Wirtschaftssektoren getrennt dargestellt.
Man kann den Arbeitsmarkt für Analysezwecke unterschiedlich strukturieren:
Die volkswirtschaftliche Statistik der Bundesrepublik unterscheidet zwischen so genannten
Marktstrukturen.
Sämtliche klassischen volkswirtschaftlichen Produktionsfaktoren werden auf Faktormärkten gehandelt, und zwar die Arbeit auf dem Arbeitsmarkt, der Boden auf dem Immobilienmarkt und das Kapital auf dem Kapitalmarkt.
Während Arbeits- und Bodenangebot stark von Natureinflüssen abhängen (Witterung, Bodenbeschaffenheit), wird das Güterangebot in hohem Maße von wirtschaftlichen Erwägungen beeinflusst.
Theoretische Grundlagen.
Im Standardmodell der neoklassischen Theorie lässt sich der Arbeitsmarkt wie auf einem Gütermarkt durch steigende Angebotskurven und fallende Nachfragekurven charakterisieren: Je höher der Lohn, desto höher ist das Arbeitskraftangebot und desto geringer die Arbeitskraftnachfrage. Hierbei wird ein repräsentativer Akteur unterstellt, was auf sehr einfache Weise die Übertragung einzelwirtschaftlicher Beobachtungen auf die gesamtwirtschaftliche Analyse ermöglicht. Die dem Modell zugrunde liegende Annahme vollkommener Markttransparenz sowie die Unterstellung des Produktionsfaktors Arbeit als homogen schränken seine Anwendbarkeit aus Sicht moderner Theorien des Arbeitsmarktes allerdings ein.
Die klassische Lehre nimmt Löhne als flexibel an und erklärt dadurch eine Markträumung. In der Realität sind Löhne allerdings nicht flexibel, denn sie werden in der Regel tariflich für einen bestimmten Zeitraum festgelegt. Tatsächlich sind sie nach unten sogar meist starr.
Weitere Arbeitsmarkttheorien:
Zu internen Arbeitsmärkten:
Arbeitnehmer als Dienstleistungserbringer.
Es ist in der deutschen Sprache üblich, denjenigen, der die Arbeit gibt (verrichtet), den Arbeitnehmer zu nennen, während der, der die Arbeit nimmt (Arbeitsleistung entgegennimmt), Arbeitgeber genannt wird.
Die Dienstleistungen, die auf dem Arbeitsmarkt gehandelt werden, unterscheiden sich von anderen Dienstleistungen vor allem in diesen Punkten:
Aktuelle Entwicklungen auf dem Arbeitsmarkt.
In Deutschland.
Seit 2005 werden auf dem Arbeitsmarkt drei Arbeitsverhältnisse unterschieden:
Dazu abgestuft werden entsprechend Sozialversicherungsbeiträge und Steuern eingezogen. Die Neuregelung beruht auf dem Hartz-Konzept und soll die Zahl der Arbeitsverhältnisse erhöhen.
Arbeitsmarktforschung.
Arbeitsmarkt- und Berufsforschung befasst sich mit der theoretischen und empirischen Untersuchung von Arbeitsmarkt, Berufsgruppen- und Branchenentwicklung etc. in wirtschaftlichen und sozialen Zusammenhängen. Für diese Disziplin wurde 1968 an der damaligen Bundesagentur für Arbeit das Institut für Arbeitsmarkt- und Berufsforschung gegründet. Hier wird das Forschungsfeld interdisziplinär von Soziologen, Ökonomen und Ökonometrikern untersucht.
Die Forschung unterscheidet zwischen Ländern mit liberalem (Bsp. USA), konservativem (Bsp. Bundesrepublik Deutschland) und sozialdemokratischem (Bsp. Schweden) Wohlfahrtsstaatsmodell und deren spezifischen Auswirkungen auf den Arbeitsmarkt. Analysiert man diese Modelle z. B. anhand ihrer Auswirkungen auf das Geschlechterverhältnis im Arbeitsmarkt, ergibt sich folgendes Bild: Im liberalen Modell findet eine allgemein positive Entwicklung der Geschlechtergleichheit auf dem Arbeitsmarkt weitgehend zu Lasten gering verdienender Frauen statt. Im konservativen Modell ist v. a. eine hohe vertikale Segregation – d. h. geringe Aufstiegschancen von Frauen – zu beobachten. Das sozialdemokratische Modell produziert im Gegenzug eine starke horizontale Segregation, also eine Teilung des Arbeitsmarktes in spezifische Frauen- und Männerberufe. |
360 | 779406 | https://de.wikipedia.org/wiki?curid=360 | Assemblersprache | Eine Assemblersprache, kurz auch Assembler genannt (von ), ist eine Programmiersprache, die auf den Befehlsvorrat eines bestimmten Computertyps (d. h. dessen Prozessorarchitektur) ausgerichtet ist.
Assemblersprachen bezeichnet man deshalb als maschinenorientierte Programmiersprachen und – als Nachfolger der direkten Programmierung mit Zahlencodes – als Programmiersprachen der zweiten Generation: Anstelle eines Binärcodes der Maschinensprache können Befehle und deren Operanden durch leichter verständliche "mnemonische Symbole" in Textform (z. B. „MOVE“), Operanden z. T. als symbolische Adresse (z. B. „PLZ“), notiert und dargestellt werden.
Der Quelltext eines Assemblerprogramms wird mit Hilfe einer Übersetzungssoftware (Assembler oder Assemblierer) in Maschinencode übersetzt. Dagegen übersetzt in höheren Programmiersprachen (Hochsprachen, dritte Generation) ein sogenannter Compiler abstraktere (komplexere, nicht auf den Prozessor-Befehlssatz begrenzte) Befehle in den Maschinencode der gegebenen Zielarchitektur – oder in eine Zwischensprache.
Umgangssprachlich werden die Ausdrücke „Maschinensprache“ und „Assembler(sprache)“ häufig synonym verwendet.
Übersicht.
Ein Quelltext in Assemblersprache wird auch als "Assemblercode" bezeichnet. Programme in Assemblersprachen zeichnen sich dadurch aus, dass alle Möglichkeiten des Mikroprozessors genutzt werden können, was heutzutage selten erforderlich ist. Sie werden im Allgemeinen nur noch dann verwendet, wenn Programme bzw. einzelne Teile davon sehr zeitkritisch sind, z. B. beim Hochleistungsrechnen oder bei Echtzeitsystemen. Ihre Nutzung kann auch dann sinnvoll sein, wenn für die Programme nur sehr wenig Speicherplatz zur Verfügung steht (z. B. in eingebetteten Systemen).
Unter dem Aspekt der Geschwindigkeitsoptimierung kann der Einsatz von Assemblercode auch bei verfügbaren hochoptimierenden Compilern noch seine Berechtigung haben, Vor- und Nachteile sollten aber für die spezifische Anwendung abgewogen werden.
Bei komplexer Technik wie Intel Itanium und verschiedenen digitalen Signalprozessoren kann ein Compiler u. U. durchaus besseren Code erzeugen als ein durchschnittlicher Assemblerprogrammierer, da das Ablaufverhalten solcher Architekturen mit komplexen mehrstufigen intelligenten Optimierungen (z. B. Out-of-order execution, Pipeline-Stalls, …) hochgradig nichtlinear ist.
Die Geschwindigkeitsoptimierung wird immer komplexer, da zahlreiche Nebenbedingungen eingehalten werden müssen. Dies ist ein gleichermaßen wachsendes Problem sowohl für die immer besser werdenden Compiler der Hochsprachen als auch für Programmierer der Assemblersprache. Für einen optimalen Code wird immer mehr Kontextwissen benötigt (z. B. Cachenutzung, räumliche und zeitliche Lokalität der Speicherzugriffe), welches der Assemblerprogrammierer teilweise (im Gegensatz zum Compiler) durch Laufzeitprofiling des ausgeführten Codes in seinem angestrebten Anwendungsfeld gewinnen kann. Ein Beispiel hierfür ist der SSE-Befehl MOVNTQ, welcher wegen des fehlenden Kontextwissens von Compilern kaum optimal eingesetzt werden kann.
Die Rückwandlung von Maschinencode in Assemblersprache wird Disassemblierung genannt. Der Prozess ist allerdings verlustbehaftet, bei fehlenden Debug-Informationen
hochgradig verlustbehaftet, da sich viele Informationen wie ursprüngliche Bezeichner oder Kommentare nicht wiederherstellen, da diese beim Assemblieren nicht in den Maschinencode übernommen wurden oder berechnet wurden.
Beschreibung.
Programmbefehle in Maschinensprache bilden sich aus dem Operationscode (Opcode) und meist weiteren, je nach Befehl individuell festgelegten Angaben wie Adressen, im Befehl eingebettete Literale, Längenangaben etc. Da die Zahlenwerte der Opcodes schwierig zu merken sind, verwenden Assemblersprachen leichter merkbare Kürzel, sogenannte "mnemonische Symbole" (kurz "Mnemonics").
Beispiel: Der folgende Befehl in der Maschinensprache von x86-Prozessoren
10110000 01100001 "(in hexadezimaler Darstellung: 'B0 61')"
entspricht dem Assemblerbefehl
movb $0x61, %al # AT&T-Syntax (alles nach „#“ ist Kommentar)
# mnemonisches Kürzel bedeutet „move_byte von/was , nach“
bzw.
mov al, 61h ; Intel-Syntax; das ‚mov‘ als mnemotechnischem Kürzel erkennt
; aus dem angesprochenen ‚al‘, dass nur 1 Byte kopiert werden soll.
; „mov wohin , was/woher“
und bedeutet, dass der hexadezimale Wert „61“ (dezimal 97) in den niederwertigen Teil des Registers „ax“ geladen wird; „ax“ bezeichnet das ganze Register, „al“ (für low) den niederwertigen Teil des Registers. Der hochwertige Teil des Registers kann mit „ah“ angesprochen werden (für „high“).
Am Beispiel ist zu erkennen, dass – obwohl in denselben Maschinencode übersetzt wird – die beiden Assembler-Dialekte deutlich verschieden formulieren.
Mit Computerhilfe kann man das eine in das andere weitgehend eins zu eins übersetzen. Jedoch werden Adressumformungen vorgenommen, so dass man symbolische Adressen benutzen kann. Die Eingabedaten für einen Assembler enthalten neben den eigentlichen Codes/Befehlen (die er in Maschinencode übersetzt) auch "Steueranweisungen," die seine Arbeitsweise bestimmen/festlegen, zum Beispiel zur Definition eines Basisregisters.
Häufig werden komplexere Assemblersprachen (Makroassembler) verwendet, um die Programmierarbeit zu erleichtern. Makros sind dabei im Quelltext enthaltene Aufrufe, die vor dem eigentlichen Assemblieren automatisch durch (meist kurze) Folgen von Assemblerbefehlen ersetzt werden. Dabei können einfache, durch Parameter steuerbare Ersetzungen vorgenommen werden. Die Disassemblierung von derart generiertem Code ergibt allerdings den reinen Assemblercode ohne die beim Übersetzen expandierten Makros.
Beispielprogramm.
Ein sehr einfaches Programm, das zu Demonstrationszwecken häufig benutzte "Hallo-Welt"-Beispielprogramm, kann zum Beispiel in der Assemblersprache MASM für MS-DOS aus folgendem Assemblercode bestehen:
ASSUME CS:CODE, DS:DATA ;- dem Assembler die Zuordnung der Segmentregister zu den Segmenten mitteilen
DATA SEGMENT ;Beginn des Datensegments
Meldung db "Hallo Welt" ;- Zeichenkette „Hallo Welt“
db 13, 10 ;- Neue Zeile
db "$" ;- Zeichen, das die Textausgabefunktion (INT 21h, Unterfunktion 09h) als Zeichenkettenende versteht
DATA ENDS ;Ende des Datensegments
CODE SEGMENT ;Beginn des Codesegments
Anfang: ;- Einsprung-Label fuer den Anfang des Programms
mov ax, DATA ;- Adresse des Datensegments in das Register „AX“ laden
mov ds, ax ; In das Segmentregister „DS“ uebertragen (das DS-Register kann nicht direkt mit einem Wert beschrieben werden)
mov dx, OFFSET Meldung ;- die zum Datensegment relative Adresse des Textes in das „DX“ Datenregister laden
; die vollstaendige Adresse von „Meldung“ befindet sich nun im Registerpaar DS:DX
mov ah, 09h ;- die Unterfunktion 9 des Betriebssysteminterrupts 21h auswaehlen (Textausgaberoutine)
int 21h ;- den Betriebssysteminterrupt 21h aufrufen (hier erfolgt die Ausgabe des Textes am Schirm)
mov ax, 4C00h ;- die Unterfunktion 4Ch (Programmbeendigung) des Betriebssysteminterrupts 21h festlegen
int 21h ;- damit wird die Kontrolle wieder an das Betriebssystem zurueckgegeben (Programmende)
CODE ENDS ;Ende des Codesegments
END Anfang ;- dem Assembler- und Linkprogramm den Programm-Einsprunglabel mitteilen
;- dadurch erhaelt der Befehlszaehler beim Aufruf des Programmes diesen Wert
Vergleichende Gegenüberstellungen für das "Hallo-Welt"-Programm in unterschiedlichen Assemblerdialekten enthält diese Liste.
In einem Pascal-Quelltext (eine Hochsprache) kann der Programmcode für codice_1 dagegen deutlich kürzer sein:
program Hallo(output);
begin
writeln('Hallo Welt')
end.
Verschiedene Assemblersprachen.
Jede Computerarchitektur hat ihre eigene Maschinensprache und damit Assemblersprache. Mitunter existieren auch mehrere Assemblersprachen-Dialekte („verschiedene Assemblersprachen“, sowie zugehörige Assembler) für die gleiche Prozessorarchitektur. Die Sprachen verschiedener Architekturen unterscheiden sich in Anzahl und Typ der Operationen.
Jedoch haben alle Architekturen die folgenden grundlegenden Operationen:
Bestimmte Rechnerarchitekturen haben oft auch komplexere Befehle (CISC) wie z. B.:
Geschichte.
Die erste Assemblersprache wurde 1947 von Kathleen Booth entwickelt. Sie entwarf im Anschluss den Assembler für die ersten Computersysteme am Birkbeck College der University of London. Zwischen 1948 und 1950 schrieb Nathaniel Rochester einen der frühsten symbolischen Assembler für eine IBM 701.
In den 1980er und frühen 1990er Jahren wechselte die Sprache, in der Betriebssysteme für größere Rechner geschrieben wurden, von Assembler zu Hochsprachen hin, meist C, aber auch C++ oder Objective C. Hauptauslöser war die steigende Komplexität von Betriebssystemen bei größerem verfügbaren Speicher im Bereich oberhalb von einem Megabyte.
In Assembler verblieben zum Beispiel das Zwischenspeichern von Registern bei Prozesswechsel (siehe Scheduler), oder bei der x86-Architektur der Teil des Boot-Loaders, der innerhalb des 512 Byte großen Master Boot Records untergebracht sein muss. Auch Teile von Gerätetreibern werden in Assemblersprache geschrieben, falls aus den Hochsprachen kein effizienter Hardware-Zugriff möglich ist. Manche Hochsprachencompiler erlauben es, direkt im eigentlichen Quellcode Assemblercode, sogenannte Inline-Assembler, einzubetten.
Bis ca. 1990 wurden die meisten Computerspiele in Assemblersprachen programmiert, da nur so auf Heimcomputern und den damaligen Spielkonsolen eine akzeptable Spielgeschwindigkeit und eine den kleinen Speicher dieser Systeme nicht sprengende Programmgröße zu erzielen war. Noch heute gehören Computerspiele zu den Programmen, bei denen am ehesten kleinere assemblersprachliche Programmteile zum Einsatz kommen, um so Prozessorerweiterungen wie SSE zu nutzen.
Bei vielen Anwendungen für Geräte, die von Mikrocontrollern gesteuert sind, war früher oft eine Programmierung in Assembler notwendig, um die knappen Ressourcen dieser Mikrocontroller optimal auszunutzen. Um Assemblercode für solche Mikrocontroller zu Maschinencode zu übersetzen, werden Cross-Assembler bei der Entwicklung eingesetzt.
Heute sind Mikrocontroller so günstig und leistungsfähig, dass moderne C-Compiler auch in diesem Bereich die Assembler weitgehend abgelöst haben. Nicht zuletzt aufgrund größerer Programmspeicher bei geringen Aufpreisen für die Chips fallen die Vorteile von Hochsprachen gegenüber den teils geringen Vorteilen der Assemblersprache immer mehr ins Gewicht.
Vergleich zur Programmierung in einer Hochsprache.
Nachteile.
Assemblerprogramme sind sehr "hardwarenah" geschrieben, da sie direkt die unterschiedlichen Spezifikationen und Befehlssätze der einzelnen Computerarchitekturen (Prozessorarchitektur) abbilden. Daher kann ein Assemblerprogramm im Allgemeinen nicht auf ein anderes Computersystem (andere Prozessorarchitektur) übertragen werden, ohne dass der Quelltext angepasst wird. Das erfordert, abhängig von den Unterschieden der Assemblersprachen, hohen Umstellungsaufwand, unter Umständen ist ein komplettes Neuschreiben des Programmtextes erforderlich. Im Gegensatz dazu muss bei Hochsprachen oft nur ein Compiler für die neue Zielplattform verwendet werden.
Quelltexte in Assemblersprache sind fast immer "deutlich länger" als in einer Hochsprache, da die Instruktionen weniger komplex sind und deshalb gewisse Funktionen/Operationen mehrere Assemblerbefehle erfordern; z. B. müssen beim logischen Vergleich von Daten (= > < …) ungleiche Datenformate oder -Längen zunächst angeglichen werden. Die dadurch "größere Befehlsanzahl" erhöht das Risiko, unübersichtlichen, schlecht strukturierten und schlecht wartbaren Programmcode herzustellen.
Vorteile.
Nach wie vor dient Assembler zur Mikro-Optimierung von Berechnungen, für die der Hochsprachencompiler nicht ausreichend effizienten Code generiert. In solchen Fällen können Berechnungen effizienter direkt in Assembler programmiert werden. Beispielsweise sind im Bereich des wissenschaftlichen Rechnens die schnellsten Varianten mathematischer Bibliotheken wie BLAS oder bei architekturabhängigen Funktionen wie der C-Standardfunktion codice_3 weiterhin die mit Assembler-Code. Auch lassen sich gewisse, sehr systemnahe Operationen unter Umgehung des Betriebssystems (z. B. direktes Schreiben in den Bildschirmspeicher) nicht in allen Hochsprachen ausführen.
Der Nutzen von Assembler liegt auch im Verständnis der Arbeits- und Funktionsweise eines Systems, das durch Konstrukte in Hochsprachen versteckt wird. Auch heute noch wird an vielen Hochschulen Assembler gelehrt, um ein Verständnis für die Rechnerarchitektur und seine Arbeitsweise zu bekommen. |
363 | 683007 | https://de.wikipedia.org/wiki?curid=363 | Asteraceae | |
364 | 26711 | https://de.wikipedia.org/wiki?curid=364 | Acoraceae | |
365 | 89481120 | https://de.wikipedia.org/wiki?curid=365 | Alismataceae | |
366 | 91805825 | https://de.wikipedia.org/wiki?curid=366 | Asparagaceae | |
367 | 88292074 | https://de.wikipedia.org/wiki?curid=367 | Arecaceae | |
368 | 779406 | https://de.wikipedia.org/wiki?curid=368 | Analog-Digital-Umsetzer | Ein Analog-Digital-Umsetzer ist ein elektronisches Gerät, Bauelement oder Teil eines Bauelements zur Umsetzung analoger Eingangssignale in einen digitalen Datenstrom, der dann weiterverarbeitet oder gespeichert werden kann. Weitere Namen und Abkürzungen sind ADU, Analog-Digital-Wandler oder A/D-Wandler, ("analog-to-digital converter") oder kurz A/D.
Eine Vielzahl von Umsetz-Verfahren ist in Gebrauch. Das Gegenstück ist der Digital-Analog-Umsetzer (DAU).
Analog-Digital-Umsetzer sind elementare Bestandteile fast aller Geräte der modernen Kommunikations- und Unterhaltungselektronik wie z. B. Mobiltelefonen, Digitalkameras, oder Camcordern. Zudem werden sie zur Messwerterfassung in Forschungs- und industriellen Produktionsanlagen, in Maschinen und technischen Alltagsgegenständen wie Kraftfahrzeugen oder Haushaltsgeräten eingesetzt.
Arbeitsweise.
Ein ADU setzt ein zeit- und wert-kontinuierliches Eingangssignal (Analogsignal) in eine zeitdiskrete und wertdiskrete Folge von digital repräsentierten Werten um. Aufgrund einer endlichen Anzahl von möglichen Ausgangswerten erfolgt dabei immer eine Quantisierung. Das Ergebnis einer AD-Umsetzung kann man sich in einem Signal-Zeit-Diagramm in einer Punktfolge mit gestuften horizontalen und vertikalen Abständen vorstellen. Die Hauptparameter eines ADUs sind seine Bittiefe und seine maximale Abtastrate. Die Umsetzzeit ist meist wesentlich kleiner als das Reziproke der Abtastrate.
Schon die Bittiefe eines AD-Umsetzers begrenzt die maximal mögliche Genauigkeit, mit der das Eingangssignal umgesetzt werden kann. Die nutzbare Genauigkeit ist durch weitere Fehlerquellen des ADUs geringer. Neben möglichst schnellen Verfahren gibt es auch langsame (integrierende) Verfahren zur Unterdrückung von Störeinkopplungen.
Zeit-Diskretisierung (Abtastung).
Die minimal notwendige Abtastfrequenz für eine verlustfreie Diskretisierung ergibt sich aus der Bandbreite des Eingangssignals.
Um das Signal später vollständig rekonstruieren zu können, muss die Abtastfrequenz größer als das Doppelte der maximal möglichen Frequenz im Eingangssignal sein (siehe Nyquist-Frequenz). Anderenfalls kommt es zu einer Unterabtastung und führt im rekonstruierten Signal zu im Eingangssignal nicht vorhandenen Frequenzen. Daher muss das Eingangssignal bandbegrenzt sein. Entweder ist es dies von sich aus oder es wird durch Tiefpassfilterung zu solch einem Signal gemacht.
Manchmal ist das abzutastende Signal allerdings so hochfrequent, dass man diese Bedingung technisch nicht realisieren kann. Wenn das Eingangssignal jedoch periodisch ist, kann man durch Mehrfachabtastung mit zeitlichem Versatz dennoch eine Rekonstruktion ermöglichen, ohne dabei das Abtasttheorem zu verletzen, da bei mehrfachem Durchlauf des Signals Zwischenpunkte ermittelt werden und so eine größere Zahl von Stützstellen entsteht, was im Endeffekt einer Erhöhung der Abtastrate entspricht.
Während der Signalumsetzung darf sich bei vielen Umsetzverfahren das Eingangssignal nicht ändern. Dann schaltet man dem eigentlichen AD-Umsetzer eine Abtast-Halte-Schaltung (Sample-and-Hold-Schaltung) vor, die den Signalwert () analog so zwischenspeichert, dass er während der Quantisierung konstant bleibt. Dies trifft besonders auf die stufen- und bitweisen Umsetzer zu, die längere Umsetzzeiten benötigen. Wenn ein Umsetzer diese Abtast-Halte-Schaltung erfordert, so ist sie bei Realisierung als integrierter Schaltkreis heute meist enthalten.
In vielen Anwendungen soll das Eingangssignal in immer exakt gleichen Zeitabständen abgetastet werden. Durch zufällige Variationen der Abstände tritt jedoch ein Effekt auf, den man als Jitter bezeichnet. Er verfälscht das ursprüngliche Signal bei der späteren Rekonstruktion, da diese wieder äquidistant – also mit gleichen Zeitabständen – erfolgt.
Nicht verwechselt werden darf die Umsetzdauer mit der Latenzzeit eines Umsetzers, d. h. die Zeit, die nach der Erfassung vergeht, bis ein AD-Umsetzer das Datum weitergegeben hat. Diese Zeit kann weitaus größer als die Umsetzdauer sein, was insbesondere in der Regelungstechnik störend sein kann. Sie wird verursacht durch Pipelining des Umsetzers, Nachbearbeitung der Daten und die serielle Datenübertragung.
Quantisierung.
Die Quantisierung des vorher zeitdiskretisierten Signals stellt den eigentlichen Übergang von einem analogen Signal zu einem digitalen Signal dar. Auf Grund der endlichen Bittiefe des Umsetzers gibt es nur eine gewisse Anzahl an Codeworten und deren dazugehörige Eingangsspannung. Das Signal wird quantisiert. Die Abweichung zwischen der wahren Eingangsspannung und der quantisierten Eingangsspannung nennt man Quantisierungsabweichung. Je mehr Bits bzw. Codeworte zur Verfügung stehen, umso kleiner ist diese unvermeidbare Abweichung. Bei einem idealen AD-Umsetzer verringert jedes zusätzliche Bit dieses Rauschen um 6,02 dB. Bei realen AD-Umsetzern kann man über die Effektive Anzahl von Bits (ENOB) abschätzen, was ein weiteres Bit bei dem betrachteten Umsetzer bringen würde (so würde ein weiteres Bit bei einem 12-bit-Umsetzer mit einem ENOB von 11 bit ca. 0,15 bit bzw. 0,9 dB bringen).
Das Verhältnis aus maximal möglicher unverzerrter Eingangsspannung und dem Rauschen bei signallosem Eingang nennt man Dynamikumfang. Umsetzer, die bei fehlendem Eingangssignal ein konstantes Codewort liefern, haben einen unendlich hohen Dynamikumfang. Sinnvoller ist die Angabe des Signal-Rausch-Verhältnisses (bzw. des SINAD, "signal to noise and distortion ratio," Verhältnis des Signals zur Summe aus Rauschen und Verzerrungen).
Bezugswert.
Da das dem ADU zugeführte Analogsignal in einen größenlosen Digitalwert umgesetzt wird, muss es mit einem vorgegebenen Wert oder Signal bewertet werden (Eingangssignalbereich bzw. Messbereich). Im Allgemeinen wird ein feststehender Bezugswert formula_1 (z. B. eine intern erzeugte Referenzspannung) verwendet. Das analoge Eingangssignal wird digital abgebildet, die Referenz legt den zulässigen Scheitelwert des Eingangssignals fest.
Quantisierungskennlinie.
Bei Analog-Digital-Umsetzern besteht zwischen Eingangs- und Ausgangsgröße immer ein nichtlinearer Zusammenhang. Ändert sich allerdings bei steigender Eingangsspannung der Digitalwert in konstanten Abständen oder nähert sich bei extrem feiner Stufung die Kennlinie einer Geraden, spricht man dennoch von einem linearen Analog-Digital-Umsetzer. Es gibt
wobei daneben auch andere Kodierungen, beispielsweise Zweierkomplement, BCD-Code verwendbar sind.
Interfaces.
Neben der schon erwähnten Abtast-Halte-Schaltung werden weitere Schaltungen für das Interface in die analoge Welt benötigt, so dass diese vielfach zusammen mit dem eigentlichen Umsetzer auf einem Chip integriert sind. Dies können beispielsweise Puffer- bzw. Verstärkerschaltungen, ggf. mit umschaltbarer Verstärkung "(Programmable Gain Amplifier (PGA))" sowie Eingänge für differenzielle Signalübertragung sein. Es gibt auch Varianten ohne echten Subtrahierverstärker am Eingang; stattdessen werden die beiden Leitungen des differentiellen Signals hintereinander verarbeitet und erst anschließend die Differenz gebildet (sog. "pseudodifferentielle Eingänge").
Am Ausgang werden digitale Daten zur Verfügung gestellt. Klassischerweise erscheint jedes Bit der Ausgangsgröße an einem eigenen Anschlusspin; die Größe wird also parallel ausgegeben – nicht zu verwechseln mit der Parallelumsetzung. Falls die Größe auf einer Anzeige angezeigt werden soll, kommen auch integrierte Siebensegment-Codierer zum Einsatz, oder die Größe wird als BCD-Code im Multiplexverfahren ausgegeben. Nachteilig an der parallelen Ausgabe, insbesondere bei der Weiterverarbeitung durch Mikroprozessoren oder -controllern, ist hierbei die große Anzahl an benötigten Anschlusspins. Daher werden vielfach serielle Verbindungen implementiert, beispielsweise mit den Protokollen I²C, SPI oder I²S. Bei entsprechenden Datenraten wird beispielsweise LVDS- oder JESD204B-Technik eingesetzt.
Abweichungen.
Zusätzlich zu dem unvermeidbaren Quantisierungsfehler haben reale AD-Umsetzer folgende Fehler:
Nullpunktfehler, Verstärkungsfehler und Nichtlinearitätsfehler.
Als Abweichungen der Kennlinien zwischen realem und idealem Umsetzer sind folgende Fehler definiert (siehe Bild):
Der Verstärkungsfehler wird oft als Bruchteil des aktuellen Wertes angegeben, der Nullpunktfehler zusammen mit dem Quantisierungsfehler und der Nichtlinearitätsfehler als Bruchteile des Endwertes oder als Vielfache eines LSB.
Fehler in der Stufung.
Einzelne Stufen können unterschiedlich breit ausfallen.
Bei kontinuierlich steigender Eingangsgröße kann es je nach Realisierungsverfahren vorkommen, dass ein Wert der Ausgangsgröße übersprungen wird, insbesondere dann, wenn es einen Übertrag über mehrere Binärstellen gibt, beispielsweise von 0111 1111 nach 1000 0000. Man spricht hierzu von „missing codes“.
Zeitliche und Apertur-Fehler.
Bei Wandlung jedes nichtkonstanten Eingangssignals entsteht durch zeitliche Schwankungen des Umsetzer-Taktes Δ"t" (clock jitter) ein der zeitlichen Änderung des Eingangssignals proportionaler Fehler.
Bei einem Sinussignal der Frequenz f und der Amplitude A beträgt es formula_2. Jeglicher Jitter erzeugt weiteres Rauschen – es gibt keinen Schwellwert, unterhalb dem es zu keiner Verschlechterung des Signal-Rausch-Verhältnisses kommt. Viele aktuelle Wandler (insbesondere Delta-Sigma-Umsetzer) haben eine interne Taktaufbereitung. Der Hintergrund ist der, dass viele Wandler einen höheren internen Takt benötigen bzw. bei Delta-Sigma-Umsetzern, dass dort Jitter direkt (d. h. auch bei konstantem Eingangssignal) Wandlungsfehler verursacht.
Realisierungsverfahren.
Es gibt eine große Anzahl von Verfahren, die zur Umsetzung von analogen in digitale Signale benutzt werden können. Im Folgenden sind die wichtigsten Prinzipien aufgeführt. Als Eingangsgröße wird in allen Beispielen die elektrische Spannung zugrunde gelegt.
Den inneren Ablauf einer Umsetzung steuern die Bausteine selbst. Für die Zusammenarbeit mit einem Rechner kann ein ADU mit einem Start-Eingang versehen sein für die Anforderung zu einer neuen Umsetzung, mit einem „busy“-Ausgang für die Meldung der noch andauernden Umsetzung und mit bus-kompatiblen Datenausgängen für das Auslesen des entstandenen Digitalwertes.
Integrierender Umsetzer (Zählverfahren).
Bei diesen Verfahren finden zwei Vorgänge statt:
Beim Nachlauf-Umsetzer wird ebenfalls gezählt. Dieser wird ohne Kondensator als rückgekoppelter Umsetzer betrieben und weiter unten erklärt.
Single-Slope-Umsetzer (Sägezahn-/Einrampenverfahren).
Beim Sägezahnverfahren wird die Ausgangsspannung formula_3 eines Sägezahngenerators über zwei Komparatoren K1 und K2 mit dem Massepotenzial (0 V) und mit der ADU-Eingangsspannung formula_4 verglichen. Während des Zeitraums, in dem die Sägezahnspannung den Bereich zwischen 0 V und der Spannung formula_4 durchläuft, werden die Impulse eines Quarzoszillators gezählt. Aufgrund der konstanten Steigung der Sägezahnspannung ist die verstrichene Zeit und somit der Zählerstand bei Erreichen von formula_6 proportional zur Höhe der ADU-Eingangsspannung. Zum Ende des Zählvorgangs wird das Zählergebnis in ein Register übertragen und steht als digitales Signal zur Verfügung. Anschließend wird der Zähler zurückgesetzt, und ein neuer Umsetzungsvorgang beginnt.
Die Umsetzungszeit bei diesem ADU ist abhängig von der Eingangsspannung. Schnell veränderliche Signale können mit diesem Umsetzertyp nicht erfasst werden. Umsetzer nach dem Sägezahnverfahren sind ungenau, da der Sägezahngenerator mit Hilfe eines temperatur- und alterungsabhängigen Integrationskondensators arbeitet. Sie werden wegen ihres relativ geringen Schaltungsaufwands für einfache Aufgaben eingesetzt, beispielsweise in Spielkonsolen, um die Stellung eines Potentiometers, das durch einen Joystick oder ein Lenkrad bewegt wird, zu digitalisieren.
Dual- und Quadslope-Umsetzer (Mehrrampenverfahren).
Dual- und Quadslope-Umsetzer bestehen im Wesentlichen aus einem Integrator und mehreren Zählern und elektronischen Schaltern. Der Integrator arbeitet mit einem externen, hochwertigen Kondensator, der in zwei oder mehr Zyklen geladen und entladen wird. Beim Zweirampenverfahren (Dual-Slope) wird zunächst der Integratoreingang mit der unbekannten ADU-Eingangsspannung verbunden, und es erfolgt die Ladung über ein fest vorgegebenes Zeitintervall. Für die anschließende Entladung wird der Integrator mit einer bekannten Referenzspannung entgegengesetzter Polarität verbunden. Einzelheiten werden unter digitale Messtechnik erläutert. Die benötigte Entladezeit bis zum Erreichen der Spannung null am Integratorausgang wird durch einen Zähler ermittelt; der Zählerstand steht bei geeigneter Dimensionierung unmittelbar für die Eingangsspannung. Die Größe der Kapazität kürzt sich bei diesem Verfahren aus dem Ergebnis heraus. Zur Korrektur des Nullpunktfehlers des ADU wird beim Vierrampenverfahren noch ein weiterer Lade-/Entladezyklus bei kurzgeschlossenem Integratoreingang durchgeführt. Die Referenzspannung ist die bestimmende Größe für die Genauigkeit; das heißt beispielsweise, dass thermisch bedingte Schwankungen vermieden werden müssen.
Derartige Umsetzer nach dem Mehrrampenverfahren sind langsam, benötigen keine Abtast-Halte-Schaltung und bieten eine hohe Auflösung sowie gute differentielle Linearität und gute Unterdrückung von Störsignalen wie Rauschen oder Netzeinkopplung. Das typische Einsatzgebiet sind anzeigende Messgeräte (Digitalmultimeter), die kaum eine Umsetzzeit unter 500 ms benötigen und bei geeigneter Integrationsdauer überlagerte 50-Hz-Störungen der Netzfrequenz eliminieren können.
Ladungsbilanz-Umsetzer.
Beim Ladungsbilanzverfahren (Charge-Balancing-Verfahren) wird der Kondensator eines Integrators durch einen zur Eingangsgröße proportionalen elektrischen Strom geladen und durch kurze Stromstöße in entgegengesetzter Richtung entladen, so dass sich im Mittel keine Ladung aufbaut. Je größer der Ladestrom ist, desto häufiger wird entladen. Die Häufigkeit ist proportional zur Eingangsgröße; die Anzahl der Entladungen in einer festen Zeit wird gezählt und liefert den Digitalwert. In seinem Verhalten ist das Verfahren dem Dual-Slope-Verfahren ähnlich. Auch andere analoge Eingangsstufen, die einen Spannungs-Frequenz-Umformer mit genügend hochwertiger Genauigkeit enthalten, führen über eine Frequenzzählung auf einen Digitalwert.
Rückgekoppelter Umsetzer (Serielles Verfahren).
Diese arbeiten mit einem DAU, der einen Vergleichswert formula_7 liefert. Dieser wird nach einer geeigneten Strategie an das analoge Eingangssignal formula_4 angenähert. Der zum Schluss am DAU eingestellte Digitalwert ist das Ergebnis des ADU. Da das Verfahren eine Zeitspanne benötigt, in der sich das Eingangssignal nicht ändern darf, wird davon mittels Sample-and-Hold-Schaltung (S/H) eine „Probe“ genommen und während der Umsetzung festgehalten.
Nachlauf-Umsetzer.
Hier wird ein Zähler als Datenspeicher eingesetzt. Je nach Vorzeichen von formula_9 wird um einen Schritt aufwärts oder abwärts gezählt und neu verglichen – gezählt und neu verglichen, bis die Differenz kleiner ist als der kleinste einstellbare Schritt. Diese Umsetzer „fahren“ dem Signal einfach nach, wobei die Umsetzungszeit vom Abstand des aktuellen Eingangssignals zum Signal bei der letzten Umsetzung abhängt.
Sukzessive Approximation.
Diese arbeiten mit einem DAU, der einen Vergleichswert formula_7 jedes Mal neu aufbaut. Das Eingangssignal wird mittels Intervallschachtelung eingegrenzt. Einfache sukzessive Approximation setzt dabei pro Schritt ein Bit um. Ein um Größenordnungen genaueres und schnelleres Umsetzen kann dadurch erreicht werden, dass die Umsetzung redundant erfolgt, indem mit kleinerer Schrittweite umgesetzt wird, als einem Bit entspricht.
Wägeverfahren.
Ein mögliches Approximationsverfahren ist das Wägeverfahren. Dabei werden in einem Datenspeicher ("successive approximation register", SAR) zunächst alle Bits auf null gesetzt. Beginnend beim höchstwertigen Bit (Most Significant Bit, MSB) werden abwärts bis zum niederwertigsten Bit (Least Significant Bit, LSB) nacheinander alle Bits des Digitalwerts ermittelt.
Vom Steuerwerk wird jeweils das in Arbeit befindliche Bit probeweise auf eins gesetzt; der Digital-Analog-Umsetzer erzeugt die dem aktuellen Digitalwert entsprechende Vergleichsspannung. Der Komparator vergleicht diese mit der Eingangsspannung formula_11 und veranlasst das Steuerwerk, das in Arbeit befindliche Bit wieder auf null zurückzusetzen, wenn die Vergleichsspannung höher ist als die Eingangsspannung. Sonst ist das Bit mindestens notwendig und bleibt gesetzt. Nach der Einstellung des niederwertigsten Bits ist formula_12 kleiner als der kleinste einstellbare Schritt.
Während der Umsetzung darf sich das Eingangssignal formula_13 nicht ändern, da sonst die niederwertigen Bits auf Grundlage der festgestellten, aber nicht mehr gültigen höherwertigen Bits gewonnen würden. Deshalb ist dem Eingang eine Abtast-Halte-Schaltung (S/H) vorgeschaltet. Für jedes Bit an Genauigkeit benötigt der ADU jeweils einen Taktzyklus Umsetzungszeit. Derartige Umsetzer erreichen Auflösungen von 16 Bit bei einer Umsetzungsrate von 1 MHz.
Redundante Umsetzer.
Dem Wägeverfahren ähnliche redundante Analog-Digital-Umsetzer gehen davon aus, dass keine exakte Halbierung des noch offenen Intervalls um den Zielwert herum erfolgt, sondern dieses Intervall nur um einen Anteil davon eingeschränkt wird. Dazu haben sie einen Digital-Analog-Umsetzer, dessen Elemente nicht nach dem Dualsystem gestaffelt sind, also immer um den Faktor 2, sondern um einen kleineren Faktor. Sie nehmen damit einerseits in Kauf, dass mehr Elemente benötigt werden, um den gleichen Wertebereich abzudecken, ermöglichen aber andererseits, dass der Umsetzer um eine Größenordnung schneller arbeiten und eine um mehrere Größenordnungen höhere Genauigkeit erzielen kann:
Die schnellere Funktion kommt dadurch, dass der Komparator in jedem Schritt nicht abwarten muss, bis sich seine Verstärker bis zu einem Mehrfachen der Zielgenauigkeit eingeschwungen haben (immer etwas größenordnungsmäßig so viele Einschwing-Zeitkonstanten, wie der Umsetzer Bits umsetzen soll), sondern eine Entscheidung schon nach der kurzen 50-Prozent-Einschwingzeit abgeben kann, die dann in einem recht großen Bereich innerhalb des Restintervalls fehlerhaft ist. Das wird allerdings mehr als abgefangen durch die redundant ausgelegten Umsetzerelemente. Die Gesamtumsetzdauer eines solchen Umsetzers liegt größenordnungsmäßig eine Zehnerpotenz unter der seines einfachen Vorbilds. Durch den redundanten Umsetzungsprozess hat ein solcher Umsetzer ein viel geringeres Eigenrauschen als sein rein dualer Gegenpart.
Zusätzlich kann sich ein solcher ADU selbst einmessen, und zwar bis zu einer Genauigkeit, die nur durch das Rauschen begrenzt ist. Indem man das Selbsteinmessen wesentlich langsamer ablaufen lässt als die Umsetzung in der Nutzanwendung, kann der Rauscheinfluss in diesem Prozess um eine Größenordnung gedrückt werden. Die resultierende Kennlinie eines solchen Umsetzers ist bis auf eine rauschartige Abweichung um wenige Vielfache des kleinsten beim Selbsteinmessen verwendeten Elements absolut linear. Indem zwei derartige Umsetzer nebeneinander auf denselben Chip platziert werden und einer immer im Einmess-Modus ist, können solche Umsetzer nahezu resistent gegen Herstellungstoleranzen, Temperatur- und Betriebsspannungsänderungen gemacht werden. Die erreichbare Auflösung ist ausschließlich rauschbegrenzt.
Delta-Sigma-Verfahren.
Das Delta-Sigma-Verfahren, auch als 1-Bit-Umsetzer bezeichnet, basiert auf der Delta-Sigma-Modulation. In der einfachsten Form (Modulator erster Ordnung) kommt das Eingangssignal über einen analogen Subtrahierer zum Integrator und verursacht an dessen Ausgang ein Signal, das von einem Komparator mit eins oder null bewertet wird. Ein Flipflop erzeugt daraus ein zeitdiskretes binäres Signal, mit dem ein 1-Bit-Digital-Analog-Umsetzer in eine positive oder negative elektrische Spannung liefert, die über den Subtrahierer den Integrator wieder auf null zurückzieht (Regelkreis). Ein nachgeschalteter Digitalfilter setzt den seriellen und hochfrequenten Bit-Strom in Daten niedriger Erneuerungsrate, aber großer Bitbreite (16 oder 24 Bit) und hohem Signal-Rausch-Verhältnis (94 bis 115 dB) um. In der Praxis werden Delta-Sigma-Umsetzer als Systeme dritter oder vierter Ordnung aufgebaut, das heißt durch mehrere seriell angeordnete Differenz- und Integratorstufen. Dies erlaubt eine bessere Rauschformung und damit einen höheren Gewinn an Auflösung bei gleicher Überabtastung.
Ein Vorteil des Delta-Sigma-Umsetzers ist, dass die Dynamik in gewissen Grenzen durch die Bandbreite wechselseitig ausgetauscht werden kann. Durch die kontinuierliche Abtastung am Eingang wird auch keine Halteschaltung (engl. sample and hold) benötigt. Außerdem werden geringe Anforderungen an das analoge Anti-Aliasing-Filter gestellt.
Die Vorteile werden durch den Nachteil der vergleichsweise hohen Latenzzeit erkauft, welche vor allem durch die digitalen Filterstufen bedingt ist. Delta-Sigma-Umsetzer werden daher dort eingesetzt, wo kontinuierliche Signalverläufe und nur moderate Bandbreiten benötigt werden, wie beispielsweise im Audiobereich. Praktisch alle Audiogeräte im Bereich der Unterhaltungselektronik wie zum Beispiel DAT-Rekorder setzen diese Umsetzer ein.
Auch bei Datenumsetzern in der Kommunikationstechnik und der Messtechnik wird es aufgrund der fallenden Preise zunehmend eingesetzt. Durch die dabei notwendige hohe Überabtastung sind dem Verfahren bei höheren Frequenzen allerdings Grenzen gesetzt.
Parallel-Umsetzer.
Einstufige Parallelumsetzer (Flash-Umsetzer).
Während die sukzessive Approximation mehrere Vergleiche mit nur einem Komparator ausführt, kommt die "direkte Methode" oder auch "Flash-Umsetzung" mit nur einem Vergleich aus. Dazu ist bei Flash-Umsetzern aber für jeden möglichen Ausgangswert (bis auf den größten) ein separat implementierter Komparator erforderlich. Beispielsweise ein 8-Bit-Flash-Umsetzer benötigt somit 28−1 = 255 Komparatoren.
Das analoge Eingangssignal wird im Flash-Umsetzer gleichzeitig von allen Komparatoren mit den (über einen linearen Spannungsteiler erzeugten) Vergleichsgrößen verglichen. Anschließend erfolgt durch eine Kodeumsetzung der 2"n"−1 Komparatorsignale in einen "n" bit breiten Binärkode (mit "n": Auflösung in Bit). Das Resultat steht damit nach den Durchlaufverzögerungen (Schaltzeit der Komparatoren sowie Verzögerung in der Dekodierlogik) sofort zur Verfügung. Im Ergebnis sind die Flash-Umsetzer also sehr schnell, bringen aber im Allgemeinen auch hohe Verlustleistungen und Anschaffungskosten mit sich (insbesondere bei den hohen Auflösungen).
Die Codeumsetzung erfordert unabhängig von der Auflösung nur eine Spalte mit Und-Gattern und eine Spalte mit Oder-Gattern (siehe Bild). Sie rechnet das Ergebnis der Komparatoren um in eine Binärzahl. Sie arbeitet mit einer sehr kurzen und für alle Binärziffern gleich langen Durchlaufverzögerung. Für die vier möglichen Werte eines Zwei-Bit-Umsetzers sind drei Komparatoren erforderlich. Der vierte hat nur die Funktion, eine Messbereichsüberschreitung zu signalisieren und die Codeumsetzung zu unterstützen.
Mehrstufige Parallelumsetzer (Pipeline-Umsetzer).
Pipeline-Umsetzer sind mehrstufige Analog-Digital-Umsetzer mit mehreren selbständigen Stufen, die in Pipeline-Architektur aufgebaut sind. Ihre Stufen bestehen in der Regel aus Flash-Umsetzern über wenige Bits.
In jeder Pipelinestufe wird eine grobe Quantisierung vorgenommen, dieser Wert wieder mit einem DAU in ein analoges Signal umgesetzt und vom zwischengespeicherten Eingangssignal abgezogen. Der Restwert wird verstärkt der nächsten Stufe zugeführt. Der Vorteil liegt in der stark verminderten Anzahl an Komparatoren, z. B. 30 für einen zweistufigen Acht-Bit-Umsetzer. Ferner kann eine höhere Auflösung erreicht werden. Die Mehrstufigkeit erhöht die Latenzzeit, aber vermindert die Abtastrate nicht wesentlich. Die Pipeline-Umsetzer haben die echten Parallelumsetzer außer bei extrem zeitkritischen Anwendungen ersetzt. Diese mehrstufigen Umsetzer erreichen Datenraten von 250 MSPS (Mega-Samples Per Second) bei einer Auflösung von 12 Bit (MAX1215, AD9480) oder eine Auflösung von 16 Bit bei 200 MSPS (ADS5485).
Die Werte der Quantisierungsstufen werden unter Berücksichtigung ihrer Gewichtung addiert. Meistens enthält ein Korrektur-ROM noch Kalibrierungsdaten, die dazu dienen, Fehler zu korrigieren, die in den einzelnen Digitalisierungsstufen entstehen. Bei manchen Ausführungen werden diese Korrekturdaten auch auf ein externes Signal hin generiert und in einem RAM abgelegt.
Pipeline-Umsetzer kommen normalerweise in allen Digitaloszilloskopen und bei der Digitalisierung von Videosignalen zur Anwendung. Als Beispiel ermöglicht der MAX109 bei einer Auflösung von 8 bit eine Abtastrate von 2,2 GHz. Mittlerweile gibt es aber noch schnellere (4 GSPS) und genauere Umsetzer (16 bit @1 GSPS). Bei heutigen Digitaloszilloskopen mit möglichen Abtastraten von 240 GSPS werden zusätzlich noch Demultiplexer vorgeschaltet.
Hybrid-Umsetzer.
Ein Hybrid-Umsetzer ist kein eigenständiger Umsetzer, sondern er kombiniert zwei oder mehr Umsetzungsverfahren, zum Beispiel auf Basis einer SAR-Struktur, wobei der ursprüngliche Komparator durch einen Flash-Umsetzer ersetzt wird. Dadurch können in jedem Approximationsschritt mehrere Bits gleichzeitig ermittelt werden.
Marktsituation.
Am Markt kommen im Wesentlichen vier Verfahren vor:
Mit diesen Verfahren kann man fast alle praktischen Anforderungen abdecken und bei gemäßigten Anforderungen (z. B. 12 bit, 125 KSPS, 4 Kanäle) sind diese Wandler kostengünstig (ca. 1 €) zu bekommen. |
369 | 47951 | https://de.wikipedia.org/wiki?curid=369 | Aquifoliaceae | |
370 | 568 | https://de.wikipedia.org/wiki?curid=370 | Apiaceae | |
373 | 7678 | https://de.wikipedia.org/wiki?curid=373 | Anglikanische Gemeinschaft | Die Anglikanische Gemeinschaft (auch "Anglikanische Kommunion", ; von ‚englisch‘), umgangssprachlich auch die anglikanische Kirche, ist eine weltweite christliche Kirchengemeinschaft, die in ihrer Tradition evangelische und katholische Glaubenselemente vereinigt, wobei die katholische Tradition in der Liturgie und im Sakramentsverständnis (insbesondere dem Amtsverständnis) vorherrscht, die evangelische in der Theologie und der Kirchenverfassung.
Die anglikanischen Kirchen sehen sich als Teile der einen, heiligen, katholischen und apostolischen Kirche, die sich der Tradition und Theologie der englischen Reformation (zum Teil auch der schottischen, siehe Scottish Episcopal Church#Geschichte) verpflichtet haben. Jedoch verstehen die anglikanischen Kirchen ihre Reformation nicht als einen Bruch mit der vorreformatorischen Kirche, sondern als notwendige Reform der katholischen Kirche der britischen Inseln. Damit ist die anglikanische Kirche sowohl katholische Kirche als auch reformatorische Kirche, die allerdings seit der Reformation eine bewusst eigenständige christlich-anglikanische Tradition und Theologie entwickelt hat. Heiliger und Märtyrer der anglikanischen Kirche ist Thomas Morus (Gedenktag am 6. Juli).
Organisation und Verbreitung.
Die Kirchengemeinschaft besteht aus 41 selbständigen Kirchen bzw. Provinzen. Neben der Church of England, der Mutterkirche fast aller Kirchen der "Anglican Communion", sind dies beispielsweise die Anglikanische Kirche von Kanada, die Episkopalkirche der Vereinigten Staaten und die Church of Nigeria. Ferner gehören zur Gemeinschaft auch unierte Kirchen, zu denen sich evangelische und anglikanische Kirchen zusammengeschlossen haben, wie die Church of South India, die Church of North India oder die Church of Pakistan. Für eine vollständige Liste aller Mitglieder der Gemeinschaft siehe Liste der Mitgliedskirchen der Anglikanischen Gemeinschaft. Die Provinzen bzw. Kirchen, denen jeweils ein Primas "(primate)" vorsteht, bestehen meist aus mehreren Bistümern.
Die Zahl der Mitglieder ist schwer zu bestimmen, da viele Kirchen bei den Angaben zur Mitgliederzahl nicht angeben, worauf sich diese bezieht (regelmäßige Gottesdienstbesucher, registrierte Kirchenmitglieder, traditionell mit der Kirche verbundene gelegentliche Kirchgänger). Oftmals wird die Zahl von ca. 80 Millionen Mitgliedern verwendet. Die Anglikanische Gemeinschaft selbst gibt auf ihrer Website die Zahl vorsichtiger mit mehreren zehn Millionen („tens of millions Christians“) an. Ein Aufsatz des Kirchenhistorikers Daniel Muñoz, der 2015 im Journal of Anglican Studies erschien, kam aber zu dem Ergebnis von nur etwa neun Millionen aktiven Kirchenmitgliedern.
Anglikanische Kirchen gibt es vor allem in englischsprachigen Gebieten sowie in den Ländern des Commonwealth (insbesondere den Commonwealth Realms). Vereinzelte Gemeinden finden sich auch in den meisten übrigen Staaten.
Darüber hinaus gibt es Kirchen, die der anglikanischen Tradition angehören, jedoch nicht zur Anglikanischen Gemeinschaft gehören (u. a. die sogenannten "Anglican continuing churches").
Leitung der Kirchengemeinschaft.
Die Gemeinschaft kennt keine zentralisierten Strukturen der Autorität, sondern vertritt seit der englischen Reformation das Prinzip, dass kein Bischof (ob von Rom, Canterbury oder Konstantinopel) für die Geschäfte eines anderen Bistums weisungsbefugt ist. Dennoch gibt es in der Gemeinschaft vier sogenannte "Instruments of Unity" („Instrumente der Einheit“). In der Reihenfolge ihres Alters sind diese: Der Erzbischof von Canterbury, die Lambeth Conference, das Anglican Consultative Council und das "Primates' Meeting" (Treffen der Primasse, der ranghöchsten Bischöfe der einzelnen Provinzen).
Aufbau einer anglikanischen Kirche/Kirchenprovinz.
Die Mitgliedskirchen werden Kirche oder Provinz genannt. Einige dieser Kirchenprovinzen decken sich mit den Grenzen politischer Staaten, einige erstrecken sich über mehrere Staaten, während andere nur Teilbereiche einer Nation einschließen.
Geleitet wird jede Kirche von einer Synode, die sich aus den Bischöfen, Klerusvertretern und Laienvertretern zusammensetzt. Die Versammlung kann aus einem Haus (Synode) oder aus zwei Kammern (z. B. Haus der Bischöfe, Haus der Deputierten) zusammengesetzt sein und tagt stets zu bestimmten Zeiten. In einigen Fällen besteht neben ihr ein Provinzbüro, in dem alle laufenden Angelegenheiten der Kirche bearbeitet werden. In anderen Provinzen besteht an der Stelle des Provinzbüros ein "Executive Committee", das sich ebenfalls mit Fragen der Finanzen oder Klerikerausbildung beschäftigt. Oft wird das Büro bzw. Komitee von einem Generalsekretär geleitet.
Jeder anglikanischen Kirche steht ein Primas vor. Dieser kann der Bischof eines bestimmten Sitzes sein, so wie für England in Canterbury, ist aber für gewöhnlich nicht daran gebunden, sondern wird auf der Provinzsynode gewählt. In den meisten Fällen trägt er den Titel eines Erzbischofs, und oft ist seine Amtszeit beschränkt. In der Episkopalkirche der USA lautet der Titel des Primas "Presiding Bishop".
Aufbau einer anglikanischen Diözese.
Jeder Diözese steht ein Bischof vor, dem – wenn die Diözese von entsprechender Größe ist – Suffraganbischöfe beigeordnet sind. Diese haben eine ähnliche Rolle wie die Weihbischöfe der römisch-katholischen Kirche. Es kann zwar vorkommen, dass sie einen eigenen Bezirk innerhalb der Diözese zugeordnet bekommen, sie bleiben aber in jedem Fall dem Diözesanbischof untergeordnet. Manchmal wird die Regionalaufsicht stattdessen durch einen sogenannten Archidiakon oder einen Dekan ausgeführt (siehe unten).
Die Kirchengemeinschaft sieht sich als in der Apostolischen Sukzession stehend an. Dieser Anspruch wird sowohl von der orthodoxen als auch von der altkatholischen Kirche anerkannt, nicht jedoch von der römisch-katholischen Kirche (siehe Apostolicae curae).
Der Diözesanbischof besitzt meistens eine Kathedrale, an welcher es den "Kathedralklerus" gibt. Dieser untersteht dem "Dean" (Dekan) oder "Provost" (Propst) und kann sich ggf. in Residenzkanoniker, Honorarkanoniker (Praebendare) und Niedere Kanoniker unterteilen.
Der "Diözesanklerus" besteht aus Priestern, die entsprechend der Gemeinde, in der sie tätig sind, "vicars" oder "rectors" (Pfarrer), "curates" (Kapläne/Vikare) oder "assistant curates/priests" sind, sowie aus Diakonen. Mehrere Pfarrkirchen sind in Dekanaten zusammengefasst. Besonders große Diözesen sind in "Archdeaneries" (Erzdekanate) unterteilt, denen "Archdeacons" vorstehen (manchmal mit den Suffraganbischöfen identisch). Diese Erzdekanate ähneln den Regionen in großen römisch-katholischen Diözesen.
Um in die Reihen des Klerus der anglikanischen Kirche aufgenommen zu werden, bewirbt man sich beim Bischof einer Diözese. Dieser wird diese Bewerbung an ein Gremium "(Selection Conference)" weiterleiten, das den Bewerber auf seine Eignung im Geistlichen, Geistigen, Gesundheitlichen und Familiären prüft. Ist dies geschehen, so sendet es ein Gutachten an den jeweiligen Bischof, in welchem es den Bewerber empfiehlt, bedingt empfiehlt oder ablehnt. Zugleich macht es auch Vorschläge zur Ausbildung, welche von einem normalen Hochschulstudium bis zu regionalen Kursen reichen. Hat der Bewerber die Zustimmung des Bischofs erhalten, so untersteht er fortan einem "Diocesan Director for Ordinands", der den Bewerber in allen Bereichen seines Lebens begleitet und zum Ende der Ausbildung ein Zeugnis zu dessen Eignung abgibt. Ist dieses positiv ausgefallen, so steht der Weihe des Bewerbers oder der Bewerberin nichts mehr im Wege.
Aufbau in Kontinentaleuropa.
Im 19. Jahrhundert gründeten sowohl die Church of England als auch die US-Episkopalkirche in Europa Pfarreien. Die Zielgruppe waren Glaubensangehörige im Ausland sowie Reisende. Zuständig für diese Pfarreien war ursprünglich der Bischof von London (im Fall der Church of England) bzw. der Presiding Bishop (im Fall der US-Episkopalkirche). Später übertrug der Bischof von London die Zuständigkeit an den neu eingesetzten Bischof von Gibraltar.
1980 wurde durch eine Union der Diözese von Gibraltar und der vom Bischof von Fulham geleiteten Jurisdiktion of North and Central Europe die Diözese in Europa "(Diocese [of Gibraltar] in Europe)" gegründet, die seither für die Gemeinden in Europa außerhalb Großbritanniens und Irlands zuständig ist (zusätzlich für einige Länder in Zentralasien und Nordafrika). Parallel stärkte die US-Kirche die Autonomie der europäischen Pfarreien durch die Struktur der Convocation of Episcopal Churches in Europe, eine bistumsähnliche Organisation mit einem Suffraganbischof, der ursprünglich vom "Presiding Bishop" ernannt wurde. Im Juni 2001 wurde Pierre Whalon erstmals durch den Klerus und Volk der "Convocation" als Bischof gewählt. Er trat von dem Amt 2018 zurück wegen Erreichung der Altersgrenze. Sein Nachfolger ist Mark D. W. Edington, gewählt am 20. Oktober 2018 und in das Amt eingeführt zum 1. März 2019. Die feierliche Amtseinführung unter der Leitung des Presiding Bishops fand am 6. April 2019 in der Kathedrale in Paris statt.
In Deutschland gibt es rund 40 anglikanische bzw. episkopale Gemeinden, von denen sich die englischsprachigen 1997 zum Council of Anglican and Episcopal Churches in Germany (CAECG) zusammengeschlossen haben. Viele von ihnen wurden im 19. Jahrhundert gegründet und erfuhren in der Besatzungszeit nach dem Zweiten Weltkrieg neuen Aufschwung, manche – wie die Gemeinde in Hamburg – gehen auf Handelsbeziehungen zwischen England und Kontinentaleuropa im 17. Jahrhundert zurück. Eine Reihe von deutschsprachigen Gemeinden entstanden in den letzten Jahren und zählen sich zur Church of England, der Anglican Independent Communion oder der Anglican Church in North America.
Gemeinden der Church of England existieren u. a. in Berlin, Bonn/Köln, Düsseldorf, Freiburg im Breisgau, Hamburg, Heidelberg, Leipzig und Stuttgart. Sie gehören zur "Archdeaconry of Germany & Northern Europe", die von einem Archdeacon geleitet wird. Gemeinden der Episcopal Church in the USA (ECUSA) existieren u. a. in Frankfurt am Main, München und Wiesbaden; dazu kommen Missionen in Augsburg, Karlsruhe, Nürnberg und Ulm.
Die anglikanischen Gemeinden in der Schweiz bilden in der Diözese in Europa der Church of England eine eigene "Archdeaconry", welcher der Ven. Arthur Siddall vorsteht. Sie hat acht Standortpfarreien in größeren Städten und einige weitere Gemeinden, die von dort betreut werden. Die US-Episkopalkirche hat eine Gemeinde in Genf.
In Österreich gibt es eine anglikanische Gemeinde in Wien, die Christ Church Vienna; von dort aus werden so genannte Satellitengemeinden z. B. in Klagenfurt betreut. Sie wird geleitet von Ven. Patrick Curran, Bischofsvikar des östlichen Europas.
Lehre.
Die anglikanischen Kirchen bekennen sich „zum dreieinigen Gott […], wie er sich in Jesus Christus offenbart hat“. Grundlage der Lehre sind die 39 Artikel, das "Book of Common Prayer" und die "Ordnung zur Ernennung von Bischöfen, Priestern und Diakonen", allesamt entstanden im 16. Jahrhundert und größtenteils das Werk von Thomas Cranmer, Erzbischof von Canterbury.
In der anglikanischen Lehre gibt es ein weites Spektrum zwischen der "High Church" (Anglo-Katholizismus), die in Liturgie und Lehre den anderen katholischen Kirchen nahesteht, und der "Low Church", die dem Protestantismus, insbesondere dem Calvinismus, nahesteht.
Theologisch sind innerhalb der anglikanischen Kirchen sehr liberale wie auch streng evangelikale und konservative anglokatholische Richtungen vertreten.
Dieses sehr weite Meinungsspektrum wird teilweise als Stärke der Anglikaner betrachtet, die somit ein weites Spektrum des heutigen Christentums ohne Kirchenspaltung in einer Kirche umfassen können. Teilweise wird aber auch kritisiert, dass die Kirche so für nichts mehr stehe und der Beliebigkeit zu viel Raum gebe.
Gottesdienst und Praxis.
Der Gottesdienst der anglikanischen Kirchen ist liturgisch ähnlich aufgebaut wie der der katholischen Kirchen. Er ist im "Book of Common Prayer" niedergelegt, von dem die einzelnen Gliedkirchen eigene Ausgaben haben.
Liturgie.
Die Liturgie der anglikanischen Kirchen hat die Eucharistie als zentrales Element und auch anderweitig zeugt sie vom anglikanischen Selbstverständnis als Teil der universalen katholischen Kirche. Die gottesdienstlichen Handlungen im Anglikanismus wurden allerdings, anders als in der römisch-katholischen Kirche, schon seit der Reformationszeit in der jeweiligen Landessprache abgehalten.
Gebet.
Das Stundengebet, in den anglikanischen Kirchen als "Daily Office" bezeichnet, ist eine wichtige Tradition. Insbesondere der Morning- und Evening Prayer sind weit verbreitet und werden in einigen Kirchen täglich gebetet. Die anglikanischen Kirchen kennen auch die Rosenkranztradition, wobei der Aufbau des Rosenkranzes und die Gebete sich von denen der katholischen Kirche unterscheiden und weniger auf Maria, dafür stärker auf Jesus Christus ausgerichtet sind. Diese Tradition wird jedoch nur in den eher zum Anglokatholizismus neigenden Gemeinden praktiziert; viele Anglikaner aus anderen Gemeinden sind mit dem Ave-Maria-Gebet, das nicht im "Book of Common Prayer" vorkommt, gar nicht vertraut.
Orden.
Wie die katholische Kirche, so kennt auch der Anglikanismus Männer- und Frauenorden. Nachdem sich die Kirche in England 1531 vom Papst losgesagt hatte (siehe unten), wurden die bestehenden Klöster aufgelöst. Rund 300 Jahre lang blieb monastisches Leben in England und Schottland verboten. In der Mitte des 19. Jahrhunderts bildeten sich unter dem Einfluss der Oxford-Bewegung (siehe unten) erstmals wieder geistliche Gemeinschaften, die nach den Evangelischen Räten lebten. Frauenorden entstanden seit den 1840er Jahren. Die meisten zur Reformationszeit bereits bestehenden katholischen Orden haben anglikanische Entsprechungen. Diese leben nach den Evangelischen Räten und in Gemeinschaft, sind entweder kontemplativ oder aktiv in der Erziehung bzw. in der Pflege tätig.
Geschichte.
Die Kirche von England datiert ihre Geschichte zurück bis in die römische Zeit, als das Christentum sich im gesamten römischen Reich ausbreitete. Nach dem Abzug der Römer und Einfall der Angeln, Sachsen und Jüten, die ihre heidnische Religion mit sich brachten, blieben nur noch die keltischen Stämme Britanniens im äußersten Norden und Westen der Inseln als Christen zurück (siehe dazu: Keltische Kirche). Mit der Mission von Augustinus von Canterbury an den Hof von Kent im Jahr 597 kam die christliche Religion erneut aus Rom nach England. Diese Missionstätigkeit ergänzte sich mit einer Mission durch irische Mönche (siehe Columban).
Die Bistümer in England waren in die beiden Kirchenprovinzen Canterbury und York aufgeteilt. Als 1529 unter Heinrich VIII. Streitigkeiten zwischen dem englischen Thron und dem Papst in Rom über die Rechtmäßigkeit der königlichen Ehen aufkamen, erklärten die Bischöfe Englands am 11. Februar 1531, dass sie in Heinrich und nicht im Papst das Oberhaupt der englischen Kirche sahen, womit sich die englische Kirche von Rom lossagte. So wurden in den Kirchenprovinzen von York und Canterbury (nun mit Vorrang) im 16. Jahrhundert Ideen der Reformation in die Praxis umgesetzt. Die Church in Wales unterstand dem Primas von Canterbury. Nach Heinrichs Aneignung Irlands 1541 entstand dort unter den Nachfolgern die Schwesterkirche der Church of Ireland.
Unter Heinrich VIII. änderte sich durch die englische Reformation für die Kirche zunächst wenig: Der Gebrauch der lateinischen Sprache wurde zugunsten der englischen aufgegeben. Die aufgelösten Klöster gingen in königlichen Besitz über, ihre kirchliche Immunität fiel weg. Mit Eduard VI. wurde jedoch das erste "Book of Common Prayer" am Pfingstfest 1549 eingeführt, unter maßgeblicher Arbeit von Thomas Cranmer, Erzbischof von Canterbury. Damit begann eine Tradition, nach der sich der Anglikanismus vorrangig durch eine episkopale Kirchenordnung und eine einheitliche gottesdienstliche Praxis definiert.
Nach einer kurzen Zwischenepisode unter der römisch-katholischen Monarchin Maria I. setzte sich die Reformbewegung der englischen Kirche unter Elisabeth I. und den ersten beiden Stuart-Königen fort. Es entwickelte sich ein sich vertiefender Streit zwischen Puritanern, die eine stärker reformierte Theologie verfolgten, und Theologen wie Lancelot Andrewes, die eine katholischere Position einnahmen. Dieser Streit verursachte unter anderem den Englischen Bürgerkrieg. Nach der Restauration der Stuarts unter Karl II. wurden diese Streitigkeiten mit einem neuen "Book of Common Prayer" (1661) beigelegt. Dies ist auch heute noch die offizielle Version, die in England neben dem Book of Alternative Services Anwendung findet.
Im Gefolge der Glorious Revolution 1688/89 spaltete sich die heute relativ unbekannte Gruppe der Non-Juror aufgrund ihrer strengen Auslegung der anglikanischen Staatsvorstellungen ab und griff liturgisch auf das erste Book of Common Prayer zurück. Auf die Gesamtentwicklung der Church of England hatte diese kurzlebige Glaubensgemeinschaft zwar keinen Einfluss; in Schottland jedoch führte die Weigerung der Bischöfe, den Treueid zu leisten, zur Etablierung der presbyterianischen Kirche und folglich zur Gründung einer eigenen anglikanischen Kirche, der Scottish Episcopal Church.
Nach der amerikanischen Unabhängigkeit bildete sich auch in den USA eine weitere anglikanische Kirche, die nunmehr auch neben der nichtetablierten episkopalen Kirche Schottlands existierte. Es folgten auch in anderen Ländern weitere Kirchen, die aber alle zusammen im sog. Anglikanischen Kommunion eine Kirchengemeinschaft pflegen.
Im 19. Jahrhundert, unter dem Einfluss der romantischen Bewegung, fand eine neue Hinwendung zu liturgischer Tradition statt. Diese Bewegung fand ihren Ausgang in Oxford und wurde deshalb Oxford-Bewegung genannt. Zu ihren Unterstützern gehörte John Henry Newman.
"Siehe hierzu auch: Anglo-Katholizismus (High Church), Low Church."
Der Erzbischof von Canterbury Charles Thomas Longley berief 1867 eine „nationale Synode der Bischöfe der Anglikanischen Kirche im In- und Ausland“ ein, die unter seiner Führung zusammentreten sollte. Nachdem er sich mit beiden Häusern der "Convocation of Canterbury" beraten hatte, willigte Erzbischof Longley ein und rief alle Bischöfe der Anglikanischen Gemeinschaft (damals 144 an der Zahl) zu einem Treffen in Lambeth ein. Die Lambeth-Konferenz wurde zu einer nunmehr im zehnjährigen Rhythmus stattfindende Vollversammlung aller Bischöfe der Anglikanischen Gemeinschaft.
In der zweiten Hälfte des 20. Jahrhunderts fand in vielen anglikanischen Kirchen eine liturgische Reformbewegung statt, die zu neuen "Books of Common Prayer" führten. Diese waren enger an altkirchliche Liturgien angelehnt, enthielten jedoch eine modernere Sprache und Theologie. Parallel dazu wurde die Priesterschaft auch für Frauen geöffnet. Seit den späten 1980er Jahren wurden auch die ersten Bischöfinnen in apostolischer Nachfolge geweiht.
Ökumene.
Die meisten Kirchen der Anglikanischen Kirchengemeinschaft sind Mitglied im Ökumenischen Rat der Kirchen. Sie stehen darüber hinaus in Kirchengemeinschaft mit der Utrechter Union der Altkatholischen Kirchen, der Unabhängigen Philippinischen Kirche und der indischen Mar-Thoma-Kirche. 2003 unterzeichneten methodistische und anglikanische Vertreter ein Abkommen, das die Zusammenarbeit zwischen den beiden Denominationen – u. a. gemeinsame Gotteshäuser und -dienste – stärken und die Beziehungen vertiefen soll.
Kontroversen.
Frauenordination.
Uneinigkeit über die Zulassung von Frauen zu den Weihen führt bis in die Gegenwart zu Kontroversen innerhalb der anglikanischen Kirchen. Für die Mitgliedskirchen der Anglikanischen Gemeinschaft sind nur die Prinzipien des Lambeth-Quadrilateral verbindlich. Die Frage der Frauenordination wird darin nicht behandelt, daher gibt es keine einheitliche für alle Gliedkirchen bindende Regelung. Die einzelnen Kirchenprovinzen vertreten daher unterschiedliche Haltungen, manche lehnen die Frauenordination grundsätzlich ab, manche erlauben die Weihe zum Diakon, andere auch zum Priestertum oder Bischofsamt.
Als erste Frau empfing Florence Li Tim-Oi 1944 in Hong Kong durch Ronald Owen Hall, den Bischof von Victoria, Hongkong und Macau, die anglikanische Priesterweihe. Dies gilt allerdings als kriegsbedingter Einzelfall, nach Kriegsende ließ sie ihr Priesteramt zur Vermeidung eines Disputs mit dem Erzbischof von Canterbury bereits ab 1945 ruhen. Erst in den 1970er Jahren wurde die Frauenordination in den Kirchen der USA, Kanadas und Neuseelands etabliert. Die erste anglikanische Bischöfin war Barbara Clementine Harris, die 1989 zur Suffraganbischöfin der Episcopal Diocese of Massachusetts geweiht wurde. Die erste Diözesanbischöfin war von 1990 bis 2004 Penny Jamieson in der Diocese of Dunedin in Neuseeland. Am 18. Juni 2006 wurde Katharine Jefferts Schori als "Presiding Bishop" an die Spitze der Episkopalkirche in den USA gewählt und somit als erste Frau Primas einer anglikanischen Kirche.
Die Generalsynode der Church of England hat die Zulassung von Frauen zum Bischofsamt mehrheitlich als „theologisch gerechtfertigt“ bezeichnet. Während der Antrag bei den Bischöfen und dem Klerus die notwendige Zweidrittelmehrheit erhielt, verfehlte er sie bei den Laienvertretern um fünf Stimmen. Eine Arbeitsgruppe sollte eine entsprechende Kirchengesetzgebung auf den Weg bringen. Auf der Generalsynode 2008 wurde das Thema erneut diskutiert. Am 7. Juli 2008 beschloss die Synode die Einrichtung einer Arbeitsgruppe zur Regelung der Ordination von Frauen zum Bischofsamt. Dabei sollten die Wünsche der Mitglieder, die aus theologischen Gründen die Ordination von Bischöfinnen ablehnen, berücksichtigt werden. Es gab den Vorschlag, in jeder Kirchenprovinz nötigenfalls einen männlichen Suffragansitz einzurichten, dem sich Gemeinden anschließen können, die die Ordination von Bischöfinnen ablehnen. Er wurde bis 2010 entworfen und bis zum Februar von 42 von 44 Diözesen angenommen. Bei der Generalsynode im November 2012 erreichte dieses Kirchengesetz jedoch nicht die nötige Mehrheit bei den Laienmitgliedern. Erst 2014 wurden die nötigen Mehrheiten auf der Generalsynode erreicht.
Am 25. Januar 2015 wurde mit Libby Lane die erste Bischöfin in der Church of England ordiniert. Zur ersten Diözesanbischöfin – von Gloucester – wurde am 26. März 2015 Rachel Treweek ernannt. Zur ersten Bischöfin der Church of Ireland wurde im September 2013 Pat Storey geweiht. Die erste Bischöfin in der Church in Wales, Joanna Penberthy, wurde am 30. November 2016 für ihr Amt geweiht. Im März 2018 wurde Anne Dyer zur ersten Bischöfin der Scottish Episcopal Church geweiht.
Die 38 Provinzen vertreten unterschiedliche Positionen zur Frauenordination:
Homosexualität.
Die weltweite Anglikanische Kirchengemeinschaft befindet sich seit der Bischofsweihe von Gene Robinson am 2. November 2003 in New Hampshire (USA) in einem Diskussionsprozess, bei dem die Einheit der Kirchengemeinschaft bedroht wird. Nicht nur der Vollzug der Bischofsweihe hat zu Kontroversen geführt, sondern auch die parallel verlaufende Entscheidung der kanadischen Diözese von New Westminster, Riten für die Segnung gleichgeschlechtlicher Paare zu entwickeln. Da Robinson seine Beziehungen zu seinem gleichgeschlechtlichen Partner nicht verheimlicht, wurde mit seiner Weihe erneut ersichtlich, dass es zum Thema Homosexualität innerhalb der Anglikanischen Kommunion Meinungsverschiedenheiten gibt, was bereits auf den Lambeth-Konferenzen der Jahre 1988 und 1998 deutlich geworden war. Konservative Geistliche und Mitglieder (vor allem aus Asien und Afrika, aber auch aus der American Anglican Council) sehen diesen Schritt als unvereinbar mit der bislang vertretenen Lehre der Kirche und als Bruch der Kommunion. Zwar hatten die Konferenzen mehrheitlich festgestellt, dass homosexuelle Praxis mit der Heiligen Schrift unvereinbar sei; allerdings hat eine Lambeth-Konferenz im Anglikanismus nicht den Status einer gesetzgebenden Körperschaft oder einer Lehrinstanz, sondern kann nur Konsens feststellen, solange und soweit dieser vorhanden ist, denn der Anglikanismus ist nicht hierarchisch, sondern dezentral gegliedert.
Innerhalb der Anglikanischen Gemeinschaft hat die Scottish Episcopal Church und in der nicht-anglikanischen Ökumene auch die Metropolitan Community Church die Entscheidungen der nordamerikanischen Kirchen begrüßt. Die Befürworter der Weihe (vor allem aus Nordamerika, Europa, Neuseeland und Südafrika) betonen einerseits die anglikanische Tradition, dass die Ortskirche ihre Angelegenheiten vor Ort regeln darf, andererseits vertreten sie die Auffassung, dass homosexuelle und heterosexuelle Christen gleichwürdig sind, Leitungsämter der Kirche auszufüllen.
Am 19. Februar 2007 haben die anglikanischen Kirchenoberhäupter in Daressalam eine Verlautbarung veröffentlicht, in welcher sie die US-amerikanische Episkopalkirche zu einer Umkehr von ihrer Haltung zur Homosexualität und zur Weihe homosexueller Bischöfe auffordern. Innerhalb der US-Kirche bestehen erhebliche Bedenken, dass die Forderungen der anderen Kirchen mit dem Kirchenrecht der US-Kirche selber vereinbar sind, und man hält die Vorschläge darüber hinaus für „eine beispiellose Machtverschiebung zugunsten der Primasse“. Die US-Kirche kritisierte auch die fehlende Bereitschaft der anderen Kirchenoberhäupter, stärkere Schritte gegen die Kriminalisierung von Homosexualität in anderen Ländern zu unternehmen, und die Verweigerung vieler anglikanischer Landeskirchen, in den von mehreren Lambeth-Konferenzen (1998, 2008) und vom Windsor Report verlangten "Listening Process" (Dialog) mit homosexuellen Anglikanern zu treten. Im März 2010 wurde die offen lesbische Mary Douglas Glasspool zur Bischöfin der Episkopalkirche im Bistum Los Angeles gewählt. Die Bischöfe der anglikanischen Kirche im südlichen Afrika wandten sich im Mai 2010 gegen jede Form der Kriminalisierung von Homosexuellen.
Im September 2013 hat die Church of England erlaubt, dass homosexuelle anglikanische Geistliche eine Lebenspartnerschaft eingehen dürfen, solange sie sexuell enthaltsam leben. Im April 2014 ließ sich ein homosexueller anglikanischer Priester standesamtlich trauen und wurde in der Folge entlassen. Im November 2013 erlaubte die Church of England die Segnung gleichgeschlechtlicher Paare in einem Gottesdienst. 2017 erlaubte die Anglikanische Kirche in Schottland die Trauung gleichgeschlechtlicher Paare, so wie sie bereits in der Anglikanischen Kirche in den Vereinigten Staaten und in der Anglikanischen Kirche in Kanada kirchenrechtlich ermöglicht wurde. Im Mai 2018 befürworte die Generalsynode der Anglican Church in Aotearoa, New Zealand and Polynesia die öffentliche Segnung gleichgeschlechtlicher Paare. Im Juni 2018 erlaubte die Igreja Episcopal Anglicana do Brasil die Trauung gleichgeschlechtlicher Paare.
Zölibat.
Die Verpflichtung zum Zölibat, 1539 in den "Act of Six Articles" noch ausdrücklich bestätigt, wurde 1552 vom Kronrat Eduards VI. (federführend Thomas Cranmer) aufgehoben. Endgültig fixiert ist dies in den 1571 vom Parlament verbindlich beschlossenen "39 Religionsartikeln". |
374 | 44945 | https://de.wikipedia.org/wiki?curid=374 | Auto | |
375 | 75157 | https://de.wikipedia.org/wiki?curid=375 | ADTV | |
377 | 568 | https://de.wikipedia.org/wiki?curid=377 | Acorus | |
378 | 539420 | https://de.wikipedia.org/wiki?curid=378 | Artemisia (Gattung) | Artemisia ist eine Pflanzengattung in der Familie der Korbblütler (Asteraceae). Einzelne Arten werden Beifuß, Wermut, Stabwurz oder Edelraute genannt. Zu dieser artenreichen Gattung gehören 250 bis 500 Arten, die hauptsächlich in den gemäßigten Gebieten vorkommen. Fast alle Arten haben ihre Verbreitungsgebiete auf der Nordhalbkugel in Nordamerika und Eurasien. Nur wenige Arten findet man in Südamerika und Afrika.
Wortherkunft.
"Artemisia" wurde bereits bei Pedanios Dioskurides und Plinius erwähnt, die damit "Artemisia vulgaris" und ähnliche Arten beschrieben. Der Name "Artemisia" rührt aber nicht vom Namen der griechischen Göttin Artemis her. Vielmehr wählte Carl von Linné, der der Pflanzengattung den Namen "Artemisia" gab, ihn in Anlehnung an Königin Artemisia II., die Schwester und Gattin des Maussolos II. von Halikarnassos. Sie errichtete für Maussolos das berühmte Mausoleum von Halikarnassos, eines der sieben Weltwunder der Antike. Plinius der Ältere berichtet, dass Artemisia II. den Wunsch gehabt habe, dass eine Pflanze nach ihr benannt werde. Diesen Wunsch hat ihr Carl von Linné erfüllt.
Beschreibung.
Vegetative Merkmale.
"Artemisia"-Arten sind ein- bis zweijährige oder meist ausdauernde krautige Pflanzen, Halbsträucher und seltener Sträucher und erreichen je nach Art Wuchshöhen von 3 bis 350 Zentimetern. Die Pflanzenteile sind meistens kahl und mehr oder weniger aromatisch.
Die wechselständig angeordneten Laubblätter sind gestielt oder ungestielt. Die Blattspreiten sind einfach bis mehrfach fiederteilig.
Generative Merkmale.
In traubigen oder rispigen Blütenständen sind meistens zahlreich, kleine, oft nickende körbchenförmige Teilblütenstände angeordnet. Die Hülle (= Involucrum) ist glockig, zylindrisch, eiförmig bis kugelig und besteht aus zahlreichen, dachziegelartig angeordneten, angedrückten und am Rand meist trockenhäutigen Hüllblättern. Der Körbchenboden ist flach, kahl oder mehr oder weniger behaart und ohne Spreublätter.
Die Blüten sind alle röhrig, entweder homogam, zwittrig oder heterogam. Die in der Mitte stehenden Blüten sind zwittrig und die randständigen weiblich. Die Staubbeutel haben meistens lanzettliche Anhängsel an der Spitze. Die Schenkel der Griffel ragen bei den weiblichen Randblüten oft weit heraus.
Die Achänen sind zylindrisch oder zusammengedrückt und haben keine starken Rippen, oft mehr oder weniger verschleimend. Ein Pappus fehlt meist.
Systematik.
Die Erstveröffentlichung der Gattung "Artemisia" erfolgte 1753 durch Carl von Linné in "Species Plantarum", Band 2, Seite 845. Synonyme für "Artemisia" sind "Absinthium" , "Chamartemisia" , "Elachanthemum" & , "Oligosporus" und "Seriphidium" ()
Die Gattung "Artemisia" umfasst etwa 250 bis 500 Arten (Auswahl):
Nutzung.
Schon in der Antike waren "Artemisia"-Arten als Heil- und Gewürzpflanzen bekannt. Fast alle "Artemisia"-Arten enthalten viel Bitterstoffe und ätherische Öle. Sie werden vor allem wegen ihrer dekorativen, oft duftenden und bisweilen Insekten-abwehrenden Laubblätter kultiviert.
Der Einjährige Beifuß wird in der Traditionellen Chinesischen Medizin als Malaria-Mittel genutzt. Auf Extrakten aus dem Einjährigen Beifuß beruht die von der WHO empfohlene Therapie gegen Malaria (siehe Artemisinin). Die WHO lehnt aber die Anwendung pflanzlicher Artemisia-Präparate wie Tees ab.
In den französischen und italienischen Alpen, vorrangig im Aosta-Tal, wird aus Artemisia ein dort populärer Kräuterlikör namens Génépi hergestellt. |
379 | 3199121 | https://de.wikipedia.org/wiki?curid=379 | Adam und Eva | Adam und Eva waren nach der biblischen Erzählung im 1. Buch Mose (Kapitel 2 bis 5) das erste Menschenpaar und somit die Stammeltern aller Menschen. Demnach formte Gott den Adam aus Erde und hauchte ihm den Lebensatem ein. Anschließend gab Adam zwar den Tieren Namen, fand aber kein partnerschaftliches Gegenüber. Daraufhin ließ Gott Adam in einen tiefen Schlaf fallen, entnahm ihm eine Rippe (wörtlich: „Seite“) und schuf aus dieser sein Gegenüber Eva. Während in der Erzählung bis zu diesem Punkt immer von „dem Menschen“ (Adam) gesprochen wird, erkennt Adam nun in der Begegnung mit dem neuen Wesen sich als Mann und ihm gegenüber Eva als Frau. Adam wird auch im "Koran" erwähnt, der heiligen Schrift des Islams.
Etymologie.
Das Wort „Adam“ (), das in der Schöpfungserzählung als Eigenname gebraucht wird, bedeutet „Mensch“ (im Gegensatz zu anderen Lebewesen, insbesondere den Tieren). Auf das ähnlich klingende Wort "Adamah" ( „Erde, Erdboden“) wird durch den Schöpfungsakt Bezug genommen.
Die Herkunft des Namens „Eva“ (, oder ; ) ist umstritten. Eine Möglichkeit ist die künstlich archaisierende Bildung aus מְחַוָּה, mit der Bedeutung „die ins Leben Rufende“; dies korrespondiert mit der volksetymologischen Deutung in . Die andere Möglichkeit ist die Herleitung von "ḥwj’" „Schlange“. Dieser Name wird im Alten Testament nur an zwei Stellen genannt, nämlich in und 4,1 . Zuvor wird sie stets als „Frau“ Adams bezeichnet. Die hebräischen Wörter für Frau ( ) und Mann ( ) sind einander sehr ähnlich, obwohl sie nicht miteinander verwandt sind. Es handelt sich um ein Wortspiel: So, wie der Mensch ("ādām") aus der Erde ("ădāmāh") hervorgeht, so geht die Frau ("iššāh") aus dem Mann ("īš") hervor.
In der Septuaginta wird der Name Adam als Eigenname αδαμ "adam" wiedergegeben, während der Name Eva mit Ζωἠ "Zoë" „Leben“ übersetzt wird. Im Neuen Testament, wo Eva nur an zwei Stellen erwähnt wird ( und ), wird der Name Eva dagegen griechisch Εὕα "Heúa" umschrieben. In der Biblia Vulgata des Mittelalters lautet ihr Name schließlich "Hava", "Heva" oder dann "Eva".
Textliche Überlieferungen.
Biblischer Schöpfungsbericht.
Im biblischen Schöpfungsbericht () steht: „Und Gott schuf den Menschen zu seinem Bilde, zum Bilde Gottes schuf er ihn, und er schuf sie als Mann und Weib.“ Adam und Eva leben zunächst im Garten Eden. Dort wird Eva von der Schlange überredet, trotz Gottes Verbot vom Baum der Erkenntnis von Gut und Böse zu essen. Diese Schlange wird in der christlichen Tradition oft auf den Teufel bezogen; diese Gleichsetzung findet sich schon im Neuen Testament in . Das gängige Bild vom Apfel als verbotener Paradiesfrucht beruht nicht auf einem Übersetzungsfehler der lateinischen Bibel, der Vulgata, sondern darauf, dass in der lateinischen Sprache das Wort "malus" „Apfelbaum“ bedeuten kann, aber auch „schlimm, böse“, ebenso wie "malum" „Apfel“ bedeuten kann oder „das Übel, das Schlechte, das Böse“. Daraus ergab sich ein naheliegendes Wortspiel, zumal die Vulgata den „Baum der Erkenntnis von Gut und Böse“ aus dem hebräischen Urtext übersetzte mit "lignum scientiae boni et mali." Die im Essen der verbotenen Frucht zum Ausdruck kommende Abkehr von Gottes Geboten gilt sowohl in der jüdischen als auch in der christlichen Religion als Ungehorsam gegenüber Gott. Das Christentum spricht vom Sündenfall.
Als Folge der Rebellion beschreibt die Bibel, dass Adam und Eva ihre Nacktheit erkennen, woraufhin sie sich einen Schurz aus Feigenblättern anfertigen. Vor Gott versuchen sie sich zu verstecken. Zum ersten Mal ist etwas im Garten Eden vorhanden, was vorher nicht bekannt war: die Verletzung des Schamgefühls. Gott stellt sie zur Rede, woraufhin Adam die Schuld Eva zuschreibt und Eva der Schlange. Beide werden aus dem Garten Eden vertrieben, Gott macht ihnen jedoch Fellkleidung als Schutz. Eva muss fortan Kinder unter Schmerzen gebären, Adam wird der harte und mühselige Ackerbau auferlegt. Die klassischen Worte aus : „Denn Staub bist du und zum Staub zurück kehrst du“ bringen nach christlicher Interpretation zum Ausdruck, dass nun der Tod in die Welt getreten ist, da die Menschen sterblich geblieben sind. Zwischen Eva, der Schlange und ihren jeweiligen Nachkommen wird Feindschaft herrschen.
In der biblischen Erzählung zeugt Adam nach der Vertreibung aus dem Paradies mit Eva Kain, Abel und Set. Genesis 5,4 erwähnt außerdem weitere nicht namentlich genannte Töchter und Söhne, die Adam nach der Geburt Sets gezeugt hat. Adams gesamtes Lebensalter wird mit 930 Jahren angegeben.
Andere Berichte.
Die niederländischen Wissenschaftler Marjo C.A. Korpel und Johannes de Moor von der Protestantisch-Theologischen Universität in Amsterdam publizierten 2014 die Ergebnisse ihrer Untersuchung von Tontafeln aus Ugarit aus dem 13. Jahrhundert v. Chr., die eine frühe Version des Mythos von Adam und Eva enthalten. Rund 800 Jahre älter als die Fassung im 1. Buch Mose, erzählt dieser in ugaritischer Sprache in Keilschrift verfasste Text von einem Kampf zwischen dem Schöpfergott El, dem höchsten der Götter, und einem Widersacher namens Horon, der El stürzen möchte: Die Götter leben in einem paradiesischen Garten, in dem auch der Unsterblichkeit verleihende Baum des Lebens wächst. Horon wird von dort verbannt, woraufhin er die Gestalt einer großen Schlange annimmt, den Baum des Lebens vergiftet und in einen Baum des Todes verwandelt, der alles Leben auf der Erde bedroht. Die Götter wählen einen aus ihrer Mitte aus, um den Abtrünnigen zu bekämpfen. Doch der Auserwählte, Adam, scheitert, als Horon in Form der Schlange ihn beißt und ihn so seiner Unsterblichkeit beraubt. Den verbliebenen Göttern gelingt es, Horon zu zwingen, den vergifteten Baum zu entwurzeln. So bleibt die Unsterblichkeit zwar verloren, aber das Leben kann weitergehen. Die Sonnengöttin erschafft als Partnerin für den nun sterblichen Adam eine „gute Frau“. Sie und Adam erlangen, indem sie Nachkommen zeugen, eine neue Form der Unsterblichkeit.
Vorstellungen zu einem Stammelternpaar gibt es auch in anderen Schöpfungsberichten. So findet sich in der germanischen Mythologie die Geschichte von Ask und Embla.
Deutung.
Jüdische Deutungen.
Aus dem Vers : „Es ist nicht gut, dass der Mensch allein sei“ wird nach rabbinischer Deutung die Verpflichtung des Menschen zur Eheschließung abgeleitet.
In der Sicht des hellenistisch-jüdischen Philosophen Philon von Alexandria hat die Rebellion die folgende Bedeutung: Es existieren zwei Schöpfungen, die des himmlischen und die des irdischen, aus Staub geschaffenen und der Vergänglichkeit unterworfenen Menschen. Adam steht für die Vernunft, Eva für die Sinnlichkeit, die Schlange für die Lust. Der Aufstand gegen Gott entsteht durch eine Störung der betrachtenden Vernunft, wobei die Schlange als Vehikel der Versuchung dient.
Christliche Sichtweisen.
Die lateinische Kirche entwickelt aus der biblischen Erzählung den Begriff der Erbsünde, sie begreift Adam als Typ und Haupt-Figur der Menschheit. Als solcher kann er, wie der Apostel Paulus im Römerbrief schreibt, ursächlich für den Tod aller Menschen sein. Diesem „alten (Menschentypus) Adam“ wird Jesus Christus als der eine „neue Adam“ gegenübergestellt, dessen Kreuzestod im Gehorsam gegenüber dem Willen des Vaters () und dessen Auferstehung ein Leben im Sieg über die Mächte des Todes hinaus ermöglichen (vgl. . , siehe auch Sündenfall). Diese Interpretation wird aber nicht von der Ostkirche akzeptiert, wo die Erbsünde unbekannt ist; es heißt nur, dass der Tod durch Adam und Eva in die Welt gebracht wurde und in der Auferstehung Jesu das Paradies wieder erschlossen ist (vgl. die Anastasis-Ikonen, wo Adam und Eva an der Hand des Auferstandenen aus dem Todesgrab herausgeführt werden, siehe unten).
Der Gegensatz von „Geist“ und „Fleisch“, der für Paulus grundlegend ist und der bei ihm auch hinter dem Gegensatz zwischen dem „neuen Adam“ Jesus und dem „alten Adam“ steht (vgl. , , ), ist schon in den ersten Kapiteln der Genesis zu finden. „Alle, die zu Jesus Christus gehören, haben das Fleisch und damit ihre Leidenschaften und Begierden gekreuzigt. Wenn wir aus dem Geist leben, dann wollen wir dem Geist auch folgen“ (). Das „Kreuzigen“ bedeutet nicht töten, sondern der Bestimmung durch den Geist unterwerfen im Sinn der inneren Beschneidung des Herzens durch den Geist (vgl. ; ; vgl. ). Das so beschnittene Herz hat wieder Zugang zur Gnade und zur Sehkraft der „Hoffnung auf die Herrlichkeit Gottes“ () und die Unsterblichkeit (), die den "Adam paradisus" im Gnadenstand des Paradieses auszeichnet (vgl. , , ). Auch die beiden Bäume in der einen Mitte des Paradieses lassen sich auf diesen Gegensatz von Geist (Lebensbaum) und Fleisch (Erkenntnisbaum) zurückführen.
In der Theologie des Mormonentums ist Adam die Verkörperung des Erzengels Michael.
Esoterische Analogien.
Die Sicht Philos von Alexandrien wurde auch von Paulus und den Kirchenvätern aufgegriffen und weiterentwickelt. Danach verkörpern Adam und Eva oder das Männliche und Weibliche die zwei Seiten der menschlichen Wirklichkeit: das Innere und Erinnernde des Geistes (hebr. "sachar" bedeutet „männlich“ und „erinnern“) sowie das Äußere, Erscheinende oder Umhüllende des Fleisches, welches dann im Bund der Beschneidung zurückgedrängt wird.
Die geöffnete „Seite“ Adams, aus der heraus Gott die Frau bildet, wird mit „Fleisch“ geschlossen (). Die „Rippe“ symbolisiert hier die Mondsichel. Hebr. "zela" übersetzt Othmar Schilling mit „das Gekrümmte“; zu verweisen ist auch auf "zelem" („Bild“) und "zel" („Schatten“). Luna galt in den alten Kulturen als „Urgrund aller Geburt“ (Johannes Lydos) oder „Mutter des irdischen Lebens“ (vgl. ), deren monatlicher Zyklus die Menstruation der Frau bestimmt.
Auf den Mond verweist auch der Zahlenwert 19 von Eva, hebr. "Chewa(h)" (wie "Chaja" für „Tier“), in Zahlen 8-6-5, in der Summe 19. Das Mondjahr kann wegen der Differenz zum Sonnenjahr von knapp elf Tagen nicht einfach in zwölf gleich große Teile eingeteilt werden, sondern muss durch das Einschalten eines 13. Monats immer wieder an das Sonnenjahr angepasst werden. Dabei beträgt die Differenz in 19 Jahren genau sieben Mond-Monate. Diese 19 Jahre nennt man „ein ‚mechasor‘, eine Wiederholung, eine Zurückkehr, und somit auch Kreis oder Zyklus.“ Im Bildtypus der Maria Immaculata erscheint die Mutter Jesu als ‚neue Eva‘ auf der Mondsichel stehend und der Schlange (des nur zeitlich-irdischen Werdens und Vergehens) den Kopf zertretend (nach ; ).
Der frühchristliche Bischof Theophilus von Antiochia sagt in seiner Auslegung der Erschaffung von Sonne und Mond am 4. Schöpfungstag: „Die Sonne ist das Bild Gottes, der Mond das des Menschen“; im monatlich ‚sterbenden‘ und dann wieder erscheinenden Mond sieht er also „ein Sinnbild des Menschen“ und zugleich „ein Vorbild unserer künftigen Auferstehung“ (An Autolykus II, 15). Auch deshalb wird Ostern am ersten Sonntag nach dem Frühlings-Vollmond gefeiert. Im gleichen Sinn deutet dann Bonaventura (13. Jh.) Sonne und Mond als Sinnbild für das In-eins-Sein von Gottheit und Menschheit in Jesus Christus: „Das Licht des Lammes gibt ihm [Jerusalem] Schönheit und Glanz, seine Gottheit leuchtet an Stelle der Sonne, seine Menschheit an Stelle des Mondes […]“
Auf Darstellungen von der Erschaffung der Frau aus dem Mann werden beide häufig von Sonne und Mond flankiert (vgl. zum Beispiel den Schalldeckel der Kanzel der Klosterkirche der ehemaligen Zisterzienserabtei Bebenhausen bei Tübingen).
Bedeutung von Adam und Eva im mandäischen Glauben.
Für die kleine Religionsgemeinschaft der Mandäer sind Adam und Eva die ersten Menschen. Der Mandäismus beschreibt jedoch die Geburt Evas nicht als Entstehung aus Adams Rippe, sondern als Gabe der Lichtwelt an Adam. In den mandäischen Gemeinschaften werden die Frauen auch in spiritueller Hinsicht als völlig gleichberechtigt zu den Männern gesehen; in der Geschichte der Mandäer gab es auch Priesterinnen.
Darstellung im Koran.
Auch der Koran kennt die Erzählungen von dem aus Erde geformten Erstmenschen Adam, den Gott durch Einhauchung zum Leben erweckt und mit seiner Gattin im Paradies wohnen lässt. Eva, in islamischer Tradition "Hawwa" genannt, wird im Koran allerdings nicht namentlich erwähnt. Sie ist aus Adams Körper gebildet (Sure 7, Vers 189) und wird zusammen mit ihm aus dem Paradies gewiesen, nachdem die beiden – angestiftet von Iblis – Früchte vom verbotenen Baum verzehrt haben (Sure 2, Verse 30–29; Sure 7, Verse 19–25). Eine wichtige Rolle in der Adamtradition des Koran spielt das Motiv der Stellvertreterschaft Adams, dem Gott die Namen aller Dinge offenbart. Aus Überheblichkeit widersetzt sich Iblis als einziger dem Befehl Gottes, sich vor Adam niederzuwerfen. Daraufhin wird er von Gott aus dem Paradies verwiesen, erbittet sich aber Aufschub bis zum Tag des jüngsten Gerichts, um nun zu versuchen, die Menschen ebenfalls abirren zu lassen – was ihm auch gelingt. Diese Verleitung zur Sünde gilt im Islam als irdische Prüfung (Koran: Sure 15 "Al-Hidschr", Vers 34–40). Gott hatte die Menschen ausdrücklich vor diesem Versucher gewarnt, sie ließen sich aber dennoch betören und verführen (Sure 7 "al-A'raf", Vers 22). Im Gegensatz zur christlichen Überlieferung fehlt in der islamischen Adamtradition die Rolle der Frau als Verführerin, die vom Satan als Erste verführt wird ihrerseits Adam zum Verzehr der verbotenen Frucht verleitet.
Nach dem Koran ist Adams Sünde ein Fehltritt (Sure 2 "al-Baqara", Vers 36), nicht aber Abfall von Gott und Zerstörung der Beziehung zu ihm. Deshalb ist die Folge auch nicht so schwerwiegend wie im biblischen Bericht: Statt der Ankündigung: „… sonst werdet ihr sterben“ warnt Gott den Menschen vor Satan: „Dass er euch nur nicht aus dem Paradies vertreibt und dich unglücklich macht!“ (Sure 20 "Tā-Hā", Vers 117). Durch die Sünde schadet der Mensch nur sich selber: „Unser Herr, wir haben uns selbst Unrecht getan.“ (Sure 7, Vers 23)
„Hierauf erwählte ihn sein Herr und er wandte sich ihm wieder zu und leitete ihn recht.“ (Sure 20, Vers 122) Adam und seine Frau werden zwar aus dem Paradies vertrieben, aber ihnen wird gesagt: „Wenn dann von mir eine Rechtleitung zu euch kommt, dann haben diejenigen, die meiner Rechtleitung folgen, nichts zu befürchten und sie werden nicht traurig sein.“ (Sure 2, Vers 38f)
Im Koran wird den Menschen ihr Sündenfall von Gott explizit verziehen (Sure 2, Vers 37, am Ende der Erzählung der Adamgeschichte): „Da empfing Adam von seinem Herren Worte (Bittgebete). Und er wandte sich zu ihm zu. Er ist ja der Vergebende, sich wieder Zuwendende und der Barmherzige“. Diese Stelle steht im Gegensatz zu einem Glauben an eine „Erbsünde“. Jeder Mensch wird mit einem „weißen Blatt“ geboren, heißt es in Sprüchen des Propheten Mohammed als Bestätigung. Somit wird nach islamischer Lehre jeder Mensch sündenfrei geboren.
Adam und Eva in der Kunst.
Die künstlerischen Darstellungen des Mythos von Adam und Eva sind außerordentlich zahlreich und über Jahrhunderte immer wieder neu variiert und verändert worden. Dabei bewegen sich die Darstellungen zwischen verschiedenen Polen der theologischen Deutung des Geschehens:
In einigen Werken erscheinen Adam und Eva in ihrer paradiesischen Gottesnähe. Der deutsche Philosophiehistoriker Kurt Flasch verweist etwa auf ein Deckengemälde aus der Zeit um 1200 in der Klosterkirche St. Michael in Hildesheim, das zeige, Eva erscheint vielen Künstlern als mächtige Urmutter der Menschheit, als Geschenk Gottes an Adam, erst aus ihrer Tat erwachsen Zeit und die menschliche Geschichte.
In entsprechenden Darstellungen der Schöpfungsszene, in der Gott Eva aus der Seite Adams erstehen lässt, erscheint die starke Eva als Bindeglied zwischen Adam und Gott, so im abgebildeten Relief des Doms zu Orvieto oder einem dem frühen, Donatello zugeschriebenen Terracottarelief im Dommuseum in Florenz.
Auf der anderen Seite ist die Zuweisung der Hauptschuld am Sündenfall an Eva ein Thema der Kunst. Der Sündenfall wird zum Ausgangspunkt der Herrschaft des Mannes über die Frau, Eva zur Gegenfigur der jungfräulichen Maria und zum Ursprung allen Elends der Menschheitsgeschichte.
Ebenfalls um 1200 gestaltet ein unbekannter Künstler die Vertreibung aus dem Paradies an einem Kapitell der Kathedrale von Clermont-Ferrand.
„Der Cherubim verschließt das Paradiestor; er zerrt Adam an den Haaren heraus. Eva und Adam sind beide Bestrafte, Verjagte, Hinausgeworfene, aber wie verschieden ist ihre Lage: Adam steht, Eva kniet oder liegt am Boden; sie ist gestürzt; ihre Position ist jetzt unter ihm, und er demonstriert dies: Er zieht sie am Haarschopf, wie der Engel ihn gepackt hat. Er setzt die Strafe fort; er gibt seiner Frau einen Fußtritt.“
Aber trotz der theologischen Legitimation dieser Negativsicht Evas über Jahrhunderte eröffnet sich in der Kunst eine Vielfalt der Akzentuierungen und Motiven zwischen den Polen Sünde/Strafe und der positiven Sicht der ersten Menschen.
Eine „positive Vollendung“ der Geschichte von Adam und Eva kennt die Ikonentradition. Die Auferstehungsikone (Anastasis), ein häufiges Motiv, zeigt nicht (wie die westliche Kunst) die Abbildung der Auferstehung Jesu selbst oder des leeren Grabes, sondern die Illustration eines Satzes aus dem Apostolischen Glaubensbekenntnis: "… hinabgestiegen in das Reich des Todes." Der auferstandene Christus tritt die Türen des (oft personifizierten) Hades ein und zieht Adam und Eva als erste der Menschen aus dem Reich des Todes.
Ein ganz anderer Motivbereich der künstlerischen Gestaltung von Adam und Eva ist die Darstellung der Arbeit. Mit der Vertreibung aus dem Paradies beginnt der Zwang zur Arbeit, der Künstlern Darstellungsmöglichkeiten alltäglicher menschlicher Aktivitäten bietet. Dabei werden sowohl traditionelle weibliche und männliche Tätigkeitsfelder zum Gegenstand, als auch neue Arbeitsgebiete der jeweiligen Zeit.
In der Frührenaissance bot die Darstellung von Adam und Eva zudem den Künstlern eine erste Möglichkeit, Aktmalerei in einer Zeit zu betreiben, in der die Darstellung menschlicher Nacktheit noch weitgehend verpönt war.
Heraldisch sind beide nebst Schlange und Baum im Wappen von Baja (deutsch "Frankenstadt") abgebildet.
"Siehe auch:"
Literatur.
Adam:
Eva:
Allgemein: |
381 | 100912 | https://de.wikipedia.org/wiki?curid=381 | Alliaceae | |
382 | 3628745 | https://de.wikipedia.org/wiki?curid=382 | Allium | Allium steht für: |
383 | 2234691 | https://de.wikipedia.org/wiki?curid=383 | Anaximander | Anaximander oder Anaximandros (; * um 610 v. Chr. in Milet; † nach 547 v. Chr. ebenda) war ein vorsokratischer griechischer Philosoph. Er gehört neben Thales und Anaximenes zu den wichtigsten Vertretern jenes philosophischen Aufbruchs, der mit Sammelbegriffen wie „ionische Aufklärung“ und „ionische Naturphilosophie“ bezeichnet wird.
Einordnung von Person und Bedeutung.
Apollodor von Athen zufolge lebte Anaximander um 610 – 546 v. Chr. in Milet. Es ist wahrscheinlich, dass er Thales von Milet gekannt und mit ihm in enger Gedankengemeinschaft gelebt hat. Jedenfalls gilt er als Nachfolger und Schüler des Thales.
Ihn beschäftigte dasselbe Grundproblem wie Thales, nämlich die Frage nach dem Ursprung allen Seins, nach der Arché (). Dafür hielt er jedoch nicht das Wasser, sondern das stofflich unbestimmte Ápeiron (): das hinsichtlich seiner Größe „Unbegrenzte“ bzw. „Unermessliche“. Von Anaximanders Philosophie ist im Original nur ein einziges Fragment überliefert; es stellt überhaupt den ersten erhaltenen griechischen Text in Prosaform dar. Der Großteil der philosophischen Anschauungen Anaximanders ist der zwei Jahrhunderte späteren Überlieferung des Aristoteles zu entnehmen und mit einigen Unsicherheiten behaftet.
Als bedeutender Astronom und Astrophysiker entwarf er als erster eine rein physikalische Theorie der Weltentstehung (Kosmogonie). Er gründete seine Überlegungen zur Entstehung des Weltganzen ausschließlich auf Beobachtung und rationales Denken. Auf Anaximander geht der moderne Begriff "Kosmos" () und die Erfassung der Welt als ein planvoll erfassbares, geordnetes Ganzes zurück. Er zeichnete ebenfalls als erster nicht nur eine geographische Karte mit der damals bekannten Verteilung von Land und Meer, sondern konstruierte auch eine "Sphäre", einen Himmelsglobus. Die Karte ist heute verschollen, wurde aber später durch Hekataios von Milet ausgewertet, aus dessen Werk eine halbwegs konkrete Darstellung der damaligen Weltsicht überliefert ist.
Nach ihm ist der Mondkrater Anaximander benannt.
Ursprung und Ordnungsprinzip des Weltganzen.
Die Grundsubstanz alles Gewordenen nach Anaximander, das Apeiron (das Grenzenlose), wird unterschiedlich gedeutet: als räumlich und zeitlich unbegrenzter Urstoff, als unendlich hinsichtlich Masse oder Teilbarkeit, als unbestimmt oder grenzenlos u. a.m. Der Begriff des Unermesslichen spiegelt die Offenheit der Möglichkeiten, das Apeiron zu deuten, aber auch die Unvorhersehbarkeit dessen, was aus dem Apeiron entsteht oder von ihm erzeugt wird. Nach Aristoteles hat Anaximander das, was der Begriff bezeichnet, als ein den Göttern der Volksreligion vergleichbares unsterbliches und unzerstörbares Wesen betrachtet.
Mit dem einzigen erhaltenen Anaximander-Fragment liegt der erste schriftlich gefasste und überlieferte Satz der griechischen Philosophie überhaupt vor. Allerdings ist die diesbezügliche Forschung uneins, in welchem Umfang das Überlieferungsgut tatsächlich authentisch auf Anaximander zurückgeht. Die Wiedergabe durch Simplikios von Kilikien im 6. nachchristlichen Jahrhundert beruht ihrerseits auf einem verlorengegangenen Werk des Aristoteles-Schülers Theophrastos von Eresos. Die sich auf das Apeiron beziehende, unter dem "Seienden" die Vielheit der Dinge und Phänomene verstehende Kernaussage lautet: „(Woraus aber für das Seiende das Entstehen sei, dahinein erfolge auch sein Vergehen) gemäß der Notwendigkeit; denn diese schaffen einander Ausgleich und zahlen Buße für ihre Ungerechtigkeit nach der Ordnung der Zeit.“ Damit hat Anaximander als Erster etwas nicht Wahrnehmbares und Unbestimmtes als existierend festgelegt, um so wahrnehmbare Phänomene zu erklären.
Die gleichsam gesetzmäßige wechselseitige Ablösung gegenstrebiger Wirkkräfte oder Substanzen in einem kontinuierlichen und ausgeglichenen Prozess dürfte für die beständige Ordnung des Kosmos stehen: ein dem Wechsel und der Veränderung ausgesetztes und doch in sich stabiles System. Uneinig ist die Forschung darüber, ob auch das Apeiron an diesem Geschehen beteiligt ist oder ob es sich um einen rein innerweltlichen Ausgleichsprozess handelt, sodass die Wirkung des Apeiron sich allein auf die Phase der Weltentstehung beschränkte. Im anderen Fall kämen auch Vorstellungen von einer Mehrzahl neben- oder nacheinander existierender Welten in Betracht. Robinson erwägt, dass Anaximander sich das Universum als einen ewigen Prozess gedacht haben könnte, „in dem eine unendliche Anzahl galaktischer Systeme aus dem Apeiron geboren und wieder in es aufgenommen wird. Damit hätte er auf brillante Weise die Weltsicht der Atomisten Demokrit und Leukipp vorweggenommen, die für gewöhnlich als deren eigene Leistung betrachtet wird.“
Kosmos und Erde.
Anaximander meinte, bei der Entstehung des heutigen, geordneten Universums habe sich aus dem Ewigen ein Wärme- und Kältezeugendes abgesondert, und daraus sei eine Feuerkugel um die die Erde umgebende Luft gewachsen, wie um einen Baum die Rinde.
Die Gestirne entstehen laut Anaximander durch die geplatzte Feuerkugel, indem das abgespaltene Feuer von Luft eingeschlossen wird. An ihnen befänden sich gewisse röhrenartige Durchgänge als Ausblasestellen; sie seien dort als "Gestirne" sichtbar. In gleicher Weise entstünden auch die Finsternisse, nämlich durch Verriegelung der Ausblasestellen.
Das Meer sei ein Überrest des ursprünglich Feuchten. „Ursprünglich war die ganze Oberfläche der Erde feucht gewesen. Wie sie aber dann von der Sonne ausgetrocknet wurde, verdunstete allmählich der eine Teil. Es entstanden dadurch die Winde und die Wenden von Sonne und Mond, aus dem übrigen Teil hingegen das Meer. Daher würde es durch Austrocknung immer weniger Wasser haben, und schließlich würde es allmählich ganz trocken werden“ (Aristoteles über Anaximander). Aus einem Teil dieses Feuchten, das durch die Sonne verdampfe, entstünden die Winde, indem die feinsten Ausdünstungen der Luft sich ausschieden und, wenn sie sich sammelten, in Bewegung gerieten. Auch die Sonnen- und Mondwenden geschähen, weil diese eben, jener Dämpfe und Ausdünstungen wegen, ihre Wenden vollführten, indem sie sich solchen Orten zuwendeten, wo ihnen die Zufuhr dieser Ausdünstung gewährleistet sei.
Die Erde sei das, was vom ursprünglich Feuchten an den hohlen Stellen der Erde übrig geblieben sei. Anaximander meinte, die Erde sei schwebend, von nichts überwältigt und in Beharrung ruhend infolge ihres gleichen Abstandes von allen "Himmelskreisen". Ihre Gestalt sei rund, gewölbt und ähnele in der Art eines steinernen Säulensegments einem Zylinder. Wir stünden auf der einen ihrer Grundflächen; die andere sei dieser entgegengesetzt. Regengüsse bildeten sich aus der Ausdünstung, welche infolge der Sonnenstrahlung aus der Erde hervorgerufen werde. Blitze entstünden, indem der Wind sich in die Wolken hineinstürze und sie auseinanderschlage.
Theorie der Menschwerdung und der Seele.
Die Entstehung der Menschheit führte Anaximander auf andere Lebewesen zurück. Ihm war aufgefallen, dass der Mensch im Vergleich zu anderen Arten im Frühstadium seiner Entwicklung sehr lange Zeit benötigt, bis er für die Selbstversorgung und das Überleben aus eigenen Kräften sorgen kann. Deshalb nahm er an, dass die ersten Menschen aus Tieren hervorgegangen sind, und zwar aus Fischen oder fischähnlichen Lebewesen. Denn den Ursprung des Lebendigen suchte er im Wasser; das Leben war für ihn eine Spontanentstehung aus dem feuchten Milieu: „Anaximander sagt, die ersten Lebewesen seien im Feuchten entstanden und von stachligen Rinden umgeben gewesen. Im weiteren Verlauf ihrer Lebenszeit seien sie auf das trockene Land gegangen und hätten, nachdem die sie umgebende Rinde aufgeplatzt sei, ihr Leben noch für kurze Zeit auf andere Weise verbracht.“
Die Seele hielt Anaximander für "luftartig". Der Vorstellung von der Seele als "Aër" mag die Verbindung mit dem Leben bzw. dem Ein- und Ausatmen zugrunde gelegen haben. Unklar ist, ob er zwischen der Atemseele des Menschen und der anderer Lebewesen unterschied.
Wie sich Anaximanders Auffassung von Apeiron und Kosmos zu seiner Vorstellung von der Seele verhielt, ob es zwischen ihnen überhaupt eine Beziehung gab, ist ungewiss. Da Anaximander die Seele für luftartig hielt, vermuten manche, dass er der Seele Unsterblichkeit zusprach. Ob er an eine Beseelung des Kosmos, ferner an eine Allbeseelung, ähnlich wie sie sich Thales vermutlich vorgestellt hatte, und darüber hinaus an die Unsterblichkeit individueller Seelen dachte, bleibt dahingestellt.
Interpretationen.
Bertrand Russell interpretiert Anaximanders Theorien in der Geschichte der abendländischen Philosophie als Behauptung der Notwendigkeit eines angemessenen Gleichgewichts zwischen Erde, Feuer und Wasser, die alle unabhängig voneinander danach streben können, ihre Anteile im Verhältnis zu den anderen zu vergrößern. Anaximander scheint seine Überzeugung auszudrücken, dass eine natürliche Ordnung das Gleichgewicht zwischen diesen Elementen sicherstellt, dass dort, wo Feuer war, nun Asche (Erde) ist.
Friedrich Nietzsche behauptete in "Die Philosophie im tragischen Zeitalter der Griechen", Anaximander sei ein Pessimist gewesen, der behauptete, das ursprüngliche Wesen der Welt sei ein Zustand der Unbestimmtheit. Demnach muss alles Bestimmte schließlich wieder in die Unbestimmtheit übergehen. Mit anderen Worten: Anaximander betrachtete „... alles Werden als eine unrechtmäßige Emanzipation vom ewigen Sein, ein Unrecht, für das die Zerstörung die einzige Buße ist“. Die Welt der einzelnen Objekte hat in dieser Denkweise keinen Wert und sollte untergehen. Nietzsche bezeichnet Anaxagoras und die anderen Vorsokratiker als "Vorplatoniker".
Literatur.
Übersichtsdarstellungen in Handbüchern
Einführungen und Untersuchungen
Rezeption
Weblinks.
Textausgaben
Literatur |
385 | 2613170 | https://de.wikipedia.org/wiki?curid=385 | Anita | Anita ist ein weiblicher Vorname.
Herkunft und Bedeutung des Namens.
Anita ist eine spanische, portugiesische und kroatische Verkleinerungsform von Anna (hebräisch für "die Begnadete") oder Kurzform von Juanita (siehe Johanna).
Die Vergabe des Namens "Anita" setzt im deutschsprachigen Raum gegen Ende des 19. Jahrhunderts ein. Wahrscheinlich erfolgte die Entlehnung nicht direkt aus dem Spanischen, sondern aus dem italienischen Raum. In Italien geht die Verbreitung dieses Namens auf die Gattin des Freiheitskämpfers Giuseppe Garibaldi, Anita Garibaldi (Ana Maria de Jesus Ribeiro da Silva) zurück.
Namenstag.
Namenstag ist für die im Ursprung hebräische Form der 26. Juli. |
386 | 287832 | https://de.wikipedia.org/wiki?curid=386 | Andreas | Andreas ist ein männlicher Vorname, der auch als Familienname vorkommt.
Bedeutung.
Abgeleitet wird der Name aus dem Altgriechischen andreios = mannhaft, tapfer. „Andreas“ wäre dann „der Männliche, der Tapfere“.
Herkunft.
Der Name Andreas stammt aus Griechenland und findet dort erstmals in hellenistischer Zeit um 250 v. Chr. Erwähnung. Andere Varianten des Namens sind jedoch früher belegt, so taucht beispielsweise in der Olympialiste um 688 v. Chr. der Name "Androlos" auf. Mit den Römern gelangte der Name nach Mitteleuropa.
Die Verbreitung des Namens geht auf den Apostel Andreas zurück (Bruder von Petrus). Durch das lateinische Christentum gelangte er erstmals nach Westeuropa. Aber auch in anderen Gebieten wie Palästina verbreitete sich der Name schnell. Nach England kam der Name „Andreas“ beziehungsweise „Andreus“ durch den Einfall der Normannen 1066. Dort ist der Name seit 1086 belegt. Das romanische "Andreus" wandelte sich mit der Zeit zu "Andreu" und schließlich zum englischen "Andrew". Seit dem Mittelalter tritt der Name in ganz Europa häufig auf, besonders in England (13. Jahrhundert), Schottland und Skandinavien. Einen weiteren „Aufschwung“ gab es nach der Reformation.
Familienname.
Wenngleich "-as" eine sehr verbreitete Namens-Endung in Griechenland ist, findet sich der Nachname trotz der Beliebtheit des Vornamens selten ohne zusätzliche Endungen.
Der häufigste schwedische Nachname ist "Andersson" („Sohn des Anders = Andreas“), was daran liegt, dass "Anders" um 1900 der häufigste Vorname in Schweden war. Zu dieser Zeit wurden aus den Patronymen Nachnamen.
Verbreitung.
Der Name Andreas war bereits im ausgehenden 19. Jahrhundert ein mäßig populärer Jungenvorname in Deutschland. Seine Popularität sank zunächst, um dann Mitte der 1940er Jahre stark anzusteigen. Von der Mitte der 1950er bis Anfang der 1980er Jahre war der Name unter den zehn beliebtesten Jungenvornamen des jeweiligen Jahres. Obwohl der Name es niemals auf Platz eins der Häufigkeitsstatistik eines Jahres schaffte, gehört er doch zu den vier insgesamt häufigsten Vornamen seit 1890 (nach Peter, Michael und Thomas). Ab den 1990er Jahren nahm seine Beliebtheit dann stark ab.
Namenstag.
Der Namenstag von Andreas ist der 30. November (Andreastag), der Gedenktag des Apostels Andreas.
Weitere Gedenktage der römisch-katholischen Kirche sind:
Der Gedenktag des Anderl von Rinn war der 12. Juli. Anderl von Rinn wurde jedoch 1994 aus der Liste der Seligen gestrichen.
Varianten.
Weibliche Versionen sind Andrea, Andrina und Andriane. |
387 | 2608712 | https://de.wikipedia.org/wiki?curid=387 | Anna | Anna ist ein weiblicher Vorname.
Herkunft und Bedeutung.
Beim Namen Anna handelt es sich um die lateinische Variante des hebräischen Namens .
Daneben lässt sich Anna auch als Kurzform von germanischen Namen, die mit der Silbe "arn-" „Adler“ beginnen, oder als Kurzform von Namen mit der Endung "-anna" deuten.
Außerdem ist Anna Perenna die römische Neujahrsgöttin. Ihr Name bedeutet „stets wiederkehrendes Jahr“.
Nach katholischer und orthodoxer Überlieferung ist Anna bzw. Hanna der Name der Großmutter Jesu Christi.
Verbreitung.
Anna war schon im byzantinischen Reich ein sehr populärer Vorname, der sich im Mittelalter auch in Europa ausbreitete. Noch heute erfreut er sich international großer Beliebtheit.
Hervorzuheben sind hier Österreich (Rang 2, Stand 2020), Tschechien (Rang 3, Stand 2016) und Ungarn (Rang 2, Stand 2019).
In Deutschland gehört Anna zu den wenigen Vornamen, die seit 1890 durchgehend in den Vornamensstatistiken auftauchen. Im ausgehenden 19. und beginnenden 20. Jahrhundert zählte der Name zu den beliebtesten Mädchennamen und belegte dabei mehrfach den 1. Rang. Mit den 1920er Jahren sank die Popularität des Namens. In den 1940er bis 1960er Jahren wurde er kaum vergeben. Ein plötzliches Revival erlebte der Name in den 1970er Jahren. In den 1980er Jahren gehörte er wieder zu den beliebtesten Vornamen. In den 1990er und 2000er Jahren belegte er wieder mehrfach den 1. Rang der Statistik. Mittlerweile wird der Name wieder etwas seltener vergeben. Im Jahr 2021 belegte Anna Rang 18 der Hitliste. In Süddeutschland belegt der Name sogar Rang 7, als Zweitname steht er auf Rang 10.
Namenstage.
Für weitere Namenstage: siehe Hanna
Namensträgerinnen.
Herrscher.
Es existierten auch männliche Träger dieses Namens:
Weiblicher Vorname.
Es gibt eine große Zahl von Persönlichkeiten mit Vornamen Anna. |
388 | 385814 | https://de.wikipedia.org/wiki?curid=388 | Aceraceae | |
398 | 568 | https://de.wikipedia.org/wiki?curid=398 | Anacardiaceae | |
399 | 1861 | https://de.wikipedia.org/wiki?curid=399 | Ahorngewächse | |
401 | 89014943 | https://de.wikipedia.org/wiki?curid=401 | Amaranthaceae | |
406 | 22265 | https://de.wikipedia.org/wiki?curid=406 | Amarylidaceae | |
407 | 568 | https://de.wikipedia.org/wiki?curid=407 | Araceae | |
410 | 2458679 | https://de.wikipedia.org/wiki?curid=410 | Auschwitz-Erlass | Als Auschwitz-Erlass wird der Erlass des Reichsführers SS Heinrich Himmler vom 16. Dezember 1942 bezeichnet, mit dem die Deportation der innerhalb des Deutschen Reichs lebenden Sinti und Roma angeordnet wurde, um sie als Minderheit – anders als bei vorausgegangenen individuellen oder kollektiven Deportationen – komplett zu vernichten. Er bildete die Grundlage für die Deportation von 23.000 Menschen aus fast ganz Europa (darunter etwa 13.000 aus Deutschland und Österreich) in das Vernichtungslager Auschwitz-Birkenau. Dort richtete die SS im Lagerabschnitt
B II e ein so genanntes „Zigeunerfamilienlager“ ein.
Der Erlass selbst ist nicht überliefert. Er wird jedoch in einem geheimen „Schnellbrief“ Arthur Nebes an die Kriminalpolizeileitstellen vom 29. Januar 1943 in Bezug genommen:
Der Schnellbrief trug den Titel „Einweisung von Zigeunermischlingen, Rom-Zigeunern und balkanischen Zigeunern in ein Konzentrationslager“ und ging nachrichtlich unter anderem an das sog. Eichmannreferat (Amt IV Ref. B 4) im Reichssicherheitshauptamt. Mit der Verhaftung wurde das Eigentum aller Personen wie mitgebrachte Kleidung, Lebensmittelvorräte, Barmittel, Wertpapiere sowie Ausweise konfisziert. Nach Überstellung in das Lager sollten die zuständigen Einwohnermeldeämter zur Berichtigung der Melderegister von dem „Wegzug“ verständigt werden.
Gleichartige Deportationsanordnungen ergingen am 26. und 28. Januar 1943 für die „Donau- und Alpenreichsgaue“ sowie am 29. März 1943 für den Bezirk Bialystok, das Elsass, Lothringen, Belgien, Luxemburg und die Niederlande. Gegenüber den Burgenlandroma und den ostpreußischen Sinti und Roma verwies das RKPA auf ähnliche Anweisungen vom 26. Mai bzw. 1. Oktober 1941 sowie vom 6. Juli 1942.
Eine entscheidende Vorstufe des Erlasses war das "Himmler-Thierack-Abkommen" vom 18. September 1942. Es betrifft die Aufgabenteilung zwischen den NS-Behörden und wurde zwischen Reichsjustizministerium (Thierack) und dem obersten Polizeichef (Himmler) vereinbart. Es lautete:
Darin werden die Justizbehörden (Gefängnisse, Untersuchungshaftanstalten etc.) angewiesen, Gefangene direkt und ohne Verfahren an die SS zu überstellen. Die Tötungsabsicht durch Zwangsarbeit ist in kaum einem anderen offiziellen Papier so offen dargestellt worden.
Erfassung: Zuschreibungsdiskurs.
Die Deportation nach den Vorgaben des Erlasses setzte die Kategorisierung und reichsweite Erfassung der zu Deportierenden voraus. Zu der Frage, wer „Zigeuner“ sei, gab es im NS-Zigeunerdiskurs im Wesentlichen drei Meinungen:
Gemeinsam war diesen Zuschreibungsvarianten die sowohl ethnische als auch soziale Interpretation der rassenideologischen Grundposition. Demnach verlief die rassische bzw. völkische Demarkationslinie zwischen „Vollzigeunern“ und „Zigeunermischlingen“, die zusammen die „fremdrassige“ und kollektiv „asoziale“ Gruppe der „Zigeuner“ ausmachten, auf der einen und einer Vielzahl von vor allem subproletarischen Sozialgruppen „deutschblütiger Asozialer“ auf der anderen Seite. In diesem Sinn waren bereits im Gefolge der Nürnberger Gesetze seit 1936 wie bei den Ehevorschriften gegen Juden Heiraten zwischen „Deutschblütigen“ und „Vollzigeunern“ bzw. „Zigeunermischlingen“ genehmigungspflichtig.
„Regelung aus dem Wesen dieser Rasse“.
Am 8. Dezember 1938 hatte Himmler in einem Runderlass eine „Regelung der Zigeunerfrage aus dem Wesen dieser Rasse“ angekündigt. Bestimmend für dessen Umsetzung in operative reichszentrale Vorschriften wurden die Vorstellungen von RHF und RKPA. 1937 nahm die RHF ihre Erfassungstätigkeit auf. 1940 ging deren Leiter Robert Ritter von 32.230 „Zigeunern“ im Deutschen Reich aus (einschließlich Österreich und Sudetenland, aber ausschließlich Elsaß-Lothringen). Bis zum November 1942, d. h. bis kurz vor dem Auschwitz-Erlass entstanden in der RHF nach Angabe ihres Leiters 18.922 Gutachten. 2.652 davon ergaben „Nichtzigeuner“, wie sie für ein gesondertes „Landfahrersippenarchiv“ erfasst wurden. Dessen Bezugsraum beschränkte sich im Wesentlichen auf bestimmte Teilregionen im Süden des Reichs. Die Arbeiten daran wurden 1944 eingestellt, ohne dass es bis zu diesem Zeitpunkt zu Deportationen wie nach dem Auschwitz-Erlass gekommen wäre.
Eine Teilgruppe der „Nichtzigeuner“ bildeten „nach Zigeunerart lebende“ Jenische. Es gelang der RHF nicht, die Verantwortlichen für die Normierung der nationalsozialistischen Rasse- und Asozialenpolitik „davon zu überzeugen, dass die Jenischen eine relevante rassenhygienische Gruppe und Bedrohung darstellen“. Das erklärt, dass sie als Fallgruppe im Auschwitz-Erlass bzw. in dessen Ausführungsbestimmungen vom 29. Januar 1943 und demzufolge, soweit erkennbar, im „Hauptbuch“ des „Zigeunerlagers“ in Birkenau nicht oder kaum vorkommen.
Der RHF und dem RKPA galten „Zigeuner“ insgesamt als eine in einem langen Zeitraum entstandene „Mischrasse“. Die Unterscheidung zwischen „stammechten Zigeunern“ und „Mischlingszigeunern“ wurde pseudowissenschaftlich mit sich aus der Abstammung ergebenden „gemischten Blutsanteilen“ begründet, wodurch die Bindung der „Mischlinge“ an traditionelle „Stammes“normierungen reduziert oder aufgegeben worden sei. Die Teilgruppe der „Mischlinge“ galt der RHF nicht zuletzt aufgrund einer angeblich ungewöhnlichen sexuellen „Hemmungslosigkeit“ als besonders gefährlich. Ihre Angehörigen würden danach streben, in den deutschen Volkskörper einzudringen.
Ähnlich sah es die Führung der SS, wenngleich sie von „rassereinen“ statt von „stammechten Zigeunern“ sprach, die sie als noch ursprüngliche „Arier“ und Forschungsobjekte in einem Reservat unterzubringen beabsichtigte, in dem ihnen zugestanden werden sollte, ein ihnen unterstelltes archaisches „Nomadentum“ auszuleben.
Der Erlass zur „Auswertung der rassenbiologischen Gutachten über zigeunerische Personen“ vom 7. August 1941 differenzierte stärker als bislang im Sinne des ethnischen Rassismus und ließ den alten Begriff des „nach Zigeunerart umherziehenden Landfahrers“ fallen. Er unterschied zwischen „Vollzigeunern bzw. stammechten Zigeunern“, „Zigeuner-Mischlingen mit vorwiegend zigeunerischem Blutsanteil“ (1. Grades, 2. Grades), „Zigeuner-Mischlingen mit vorwiegend deutschem Blutsanteil“ und „Nicht-Zigeunern“: „NZ bedeutet Nicht-Zigeuner, d. h. die Person ist oder gilt als deutschblütig“. Diese Aufgliederung lag den Gutachten und den Auflistungen der RHF zugrunde, nach denen ab Frühjahr 1943 von regionalen und lokalen Instanzen die Selektionsentscheidungen getroffen wurden. Den ganz überwiegenden Teil der „Zigeuner“ stufte die RHF als „Mischlinge“ ein. Insoweit „Zigeuner-Mischlinge mit vorwiegend deutschem Blutsanteil“ als „Nicht-Zigeuner“ geltend eingestuft werden konnten, legte eine gemeinsame Besprechung von RHF, RKPA und Reichssicherheitshauptamt (RSHA) Mitte Januar 1943 fest, dass sie zwar „polizeilich wie Deutschblütige“ anzusehen, im Übrigen aber zu sterilisieren seien.
Steht auch der Auschwitz-Erlass im allgemeinen Zusammenhang nationalsozialistischer Rassenpolitik und -hygiene, so verweist doch der Zeitpunkt auf einen weiteren Kontext: den des verstärkten Arbeitseinsatzes von KZ-Häftlingen in der Industrie, weshalb die Zahl der Inhaftierten gesteigert werden sollte.
Die Ausnahmebestimmungen.
Der Schnellbrief vom 29. Januar 1943 sah die Herausnahme einiger Gruppen aus der Deportation vor. Alle anderen über „Zigeuner“ verhängten Verfolgungsmaßnahmen blieben auch für sie in Kraft.
So wie einerseits „Nicht-Zigeuner“ bereits vom Auschwitz-Erlass selbst ausgenommen waren, sollten andererseits nach dem Schnellbrief vom 29. Januar 1943 die „reinrassigen“ oder als „im zigeunerischen Sinne gute Mischlinge“ kategorisierten Angehörigen der Sinti und Lalleri – von der Umsetzung des Erlasses ausgenommen sein. Die Zahl der von „Zigeunerhäuptlingen“, die das RKPA eingesetzt hatte, auf diesem Weg von der Auschwitz-Deportation Ausgenommenen war „verschwindend gering“. Sie betrug „weniger als ein Prozent“ der rund 30.000 bei Kriegsbeginn im Deutschen Reich Lebenden.
Als weitere Ausnahmegruppen nannte der Schnellbrief mit „Deutschblütigen“ Verheiratete, Wehrmachtssoldaten, Kriegsversehrte, mit Auszeichnung aus der Wehrmacht Entlassene, „sozial angepaßte Zigeunermischlinge“ und solche, die von den Arbeitsämtern oder den Rüstungsinspektionen als wehrwirtschaftlich unverzichtbare Arbeitskräfte bezeichnet wurden. Die Ausnahmebestimmungen eröffneten den unteren staatlichen Instanzen, der Wirtschaft und der Wehrmacht erhebliche Handlungsspielräume, die auf sehr unterschiedliche Weise genutzt wurden.
Der Schnellbrief sah vor, sie mit Ausnahme der „Reinrassigen“ und der „im zigeunerischen Sinne guten Mischlinge“ unfruchtbar zu machen.
Die Selektions- und Deportationspraxis.
Ziel der Deportation war das Vernichtungslager Auschwitz II in Birkenau. Dort entstand im Lagerabschnitt B II e als abgetrennter Bereich das „Zigeunerlager“. Ein erster Transport traf dort am 26. Februar 1943 ein. Bis Ende Juli 1944 waren es etwa 23.000 Menschen, die entsprechend dem Schnellbrief vom 29. Januar 1943 als Familien „möglichst geschlossen“ in das „Familienlager“ verbracht worden waren.
Über die Zusammensetzung der Transportlisten entschieden vor allem die lokalen und regionalen Behörden. Dabei bildeten die Gutachten der RHF – soweit solche vorlagen – die Leitlinie. Lokalstudien, aber auch Aussagen von Rudolf Höß und anderen Verantwortlichen belegen, dass die Vorschriften über Ausnahmefallgruppen nur begrenzt Beachtung fanden. Demnach habe der Mischlingsgrad bei der Einweisung nach Auschwitz keine Bedeutung gehabt. Hunderte Soldaten, darunter Kriegsversehrte und Ausgezeichnete, seien eingewiesen worden. Aus der Wittgensteiner Kleinstadt Berleburg wurden 134 Personen deportiert, die als „sozial angepasst“ zu gelten hatten und sich nach 200 Jahren Sesshaftigkeit so gut wie ausnahmslos nicht als „Zigeuner“ sahen. Da die Selbsteinschätzung der Betroffenen kein Auswahlkriterium war, wurde mutmaßlich auch eine nicht bestimmbare, jedenfalls aber geringe Zahl von Nicht-Sinti und Nicht-Roma die aufgrund verwandtschaftlicher Beziehungen zu Sinti und Roma als „Zigeunermischlinge“ eingestuft waren, deportiert.
„Insgesamt wurden an die 15.000 Menschen aus Deutschland zwischen 1938 und 1945 als ‚Zigeuner‘ oder ‚Zigeunermischlinge‘ umgebracht“, davon etwa 10.500 in Auschwitz-Birkenau.
Entschädigung und Gedenken.
Den Verfolgten stand nach einem Urteil des Bundesgerichtshofs (BGH) vom 7. Januar 1956 eine Wiedergutmachung nach dem Bundesentschädigungsgesetz (BEG) erst für den Zeitraum ab dem 1. März 1943 – dem Wirkungsdatum des „Auschwitz-Erlasses“ – zu. Das Gericht hatte in Übereinstimmung mit der damals herrschenden Literatur entschieden, dass insbesondere die Umsiedlungsaktion von Sinti und Roma nach dem Generalgouvernement aufgrund eines Schnellbriefs des Reichsführers SS und Chefs der Deutschen Polizei vom 27. April 1940 nicht allein aus Gründen der Rassenpolitik der nationalsozialistischen Gewalthaber durchgeführt worden sei, sondern zur „Bekämpfung des Zigeunerunwesens,“ „ihrer asozialen Eigenschaften“ und „durch die Zigeunerplage hervorgerufener Mißstände,“ daher nicht entschädigungspflichtig nach § 1 BEG. Aufgrund neuer historischer Erkenntnisse sowie Veränderungen im gesellschaftlichen Klima und im Umgang mit der nationalsozialistischen Vergangenheit hob der BGH diese Rechtsprechung 1963 auf.
Zum Gedenken an den Erlass hat der Künstler Gunter Demnig in Kooperation mit dem Verein Rom e. V. am 16. Dezember 1992, dem 50. Jahrestag des Erlasses, einen Stolperstein vor dem historischen Kölner Rathaus in das Pflaster eingelassen. Auf dem Stein zu lesen sind die ersten Zeilen des den Erlass zitierenden Schnellbriefs. Demnig mischte sich mit diesem Stein in die Diskussion um das Bleiberecht von aus Jugoslawien geflohenen Roma ein. |
412 | 2471595 | https://de.wikipedia.org/wiki?curid=412 | Asteroid | Als Asteroiden (von ), Kleinplaneten oder Planetoiden werden astronomische Kleinkörper bezeichnet, die sich auf keplerschen Umlaufbahnen um die Sonne bewegen und größer als Meteoroiden (Millimeter bis Meter), aber kleiner als Zwergplaneten (ca. tausend Kilometer) sind.
Der Begriff "Asteroid" wird oft als Synonym von "Kleinplanet" verwendet, bezieht sich aber hauptsächlich auf Objekte innerhalb der Neptunbahn und ist kein von der IAU definierter Begriff. Jenseits der Neptunbahn werden solche Körper auch transneptunische Objekte (TNO) genannt. Nach neuerer Definition fasst der Begriff Kleinplanet die „klassischen“ Asteroiden und die TNO zusammen.
Bislang sind über 1,281 Millionen Asteroiden im Sonnensystem bekannt (Stand: 28. April 2023), wobei jeden Monat mehrere Tausend neue Entdeckungen hinzukommen und die tatsächliche Anzahl wohl in mehrere Millionen gehen dürfte. Asteroiden haben im Gegensatz zu den Zwergplaneten definitionsgemäß eine zu geringe Masse, um in ein hydrostatisches Gleichgewicht zu kommen und eine annähernd runde Form anzunehmen, und sind daher generell unregelmäßig geformte Körper. Nur die wenigsten haben mehr als einige hundert Kilometer Durchmesser.
Große Asteroiden im Asteroidengürtel sind die Objekte (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, (7) Iris, (10) Hygiea und (15) Eunomia.
Bezeichnungen.
Die Bezeichnung "Asteroid" bezieht sich auf die Größe der Objekte. Asteroid bedeutet wörtlich „sternartig“. Fast alle sind so klein, dass sie im Teleskop wie der Lichtpunkt eines Sterns erscheinen. Die Planeten erscheinen hingegen als kleine Scheibe mit einer gewissen räumlichen Ausdehnung.
Die Bezeichnung "Kleinplanet" oder "Planetoid" rührt daher, dass sich die Objekte am Firmament wie Planeten relativ zu den Sternen bewegen. Asteroiden sind keine Planeten und gelten auch nicht als Zwergplaneten, denn aufgrund ihrer geringen Größe ist die Gravitation zu schwach, um sie annähernd zu einer Kugel zu formen. Gemeinsam mit Kometen und Meteoroiden gehören Asteroiden zur Klasse der Kleinkörper. Meteoroiden sind kleiner als Asteroiden, aber zwischen ihnen und Asteroiden gibt es weder von der Größe noch von der Zusammensetzung her eine eindeutige Grenze.
Zwergplaneten.
Seit der 26. Generalversammlung der Internationalen Astronomischen Union (IAU) und ihrer Definition vom 24. August 2006 zählen die großen runden Objekte, deren Gestalt sich im hydrostatischen Gleichgewicht befindet, strenggenommen nicht mehr zu den Asteroiden, sondern zu den Zwergplaneten.
(1) Ceres (975 km Durchmesser) ist das größte Objekt im Asteroidengürtel und wird als einziges Objekt zu den Zwergplaneten gezählt. (2) Pallas und (4) Vesta sind große Objekte im Asteroidengürtel, beide sind aber nicht rund und somit per Definition keine Zwergplaneten.
Im Kuipergürtel gibt es neben dem – früher als Planet und heute als Zwergplanet eingestuften – Pluto (2390 km Durchmesser) weitere Zwergplaneten: (136199) Eris (2326 km), (136472) Makemake (1430 × 1502 km), (136108) Haumea (elliptisch, etwa 1920 × 1540 × 990 km), (50000) Quaoar (1110 km) und (90482) Orcus (917 km).
Das Ende 2003 jenseits des Kuipergürtels entdeckte etwa 995 km große Objekt (90377) Sedna dürfte ebenfalls als Zwergplanet einzustufen sein.
Die Geschichte der Asteroidenforschung.
Vermuteter Kleinplanet und die „Himmelspolizey“.
Bereits im Jahr 1760 entwickelte der deutsche Gelehrte Johann Daniel Titius eine einfache mathematische Formel (Titius-Bode-Reihe), nach der die Sonnenabstände der Planeten einer einfachen numerischen Folge entsprechen. Nach dieser Folge müsste es allerdings zwischen Mars und Jupiter einen weiteren Planeten im Sonnenabstand von 2,8 AE geben. Auf diesen offenbar noch unentdeckten Planeten setzte gegen Ende des 18. Jahrhunderts eine regelrechte Jagd ein. Für eine koordinierte Suche wurde 1800, als erstes internationales Forschungsvorhaben, die "Himmelspolizey" gegründet. Organisator war Baron Franz Xaver von Zach, der seinerzeit an der Sternwarte Gotha tätig war. Der Sternhimmel wurde in 24 Sektoren eingeteilt, die von Astronomen in ganz Europa systematisch abgesucht wurden. Für den Planeten hatte man bereits den Namen „Phaeton“ reservieren lassen.
Die Suche blieb insofern erfolglos, als der erste Kleinplanet (Ceres) zu Jahresbeginn 1801 durch Zufall entdeckt wurde. Allerdings bewährte sich die "Himmelspolizey" bald in mehrfacher Hinsicht: mit der Wiederauffindung des aus den Augen verlorenen Kleinplaneten, mit verbesserter Kommunikation über Himmelsentdeckungen und mit der erfolgreichen Suche nach weiteren Kleinplaneten zwischen 1802 und 1807.
Die Entdeckung der ersten Kleinplaneten.
In der Neujahrsnacht des Jahres 1801 entdeckte der Astronom und Theologe Giuseppe Piazzi im Teleskop der Sternwarte von Palermo (Sizilien) bei der Durchmusterung des Sternbildes Stier einen schwach leuchtenden Himmelskörper, der in keiner Sternkarte verzeichnet war. Piazzi hatte von Zachs Forschungsvorhaben gehört und beobachtete das Objekt in den folgenden Nächten, da er vermutete, den gesuchten Planeten gefunden zu haben. Er sandte seine Beobachtungsergebnisse an Zach, wobei er es zunächst als neuen Kometen bezeichnete. Piazzi erkrankte jedoch und konnte seine Beobachtungen nicht fortsetzen. Bis zur Veröffentlichung seiner Beobachtungen verging viel Zeit. Der Himmelskörper war inzwischen weiter in Richtung Sonne gewandert und konnte zunächst nicht wiedergefunden werden.
Der Mathematiker Gauß hatte allerdings ein numerisches Verfahren entwickelt, das es erlaubte, unter Anwendung der Methode der kleinsten Quadrate die Bahnen von Planeten oder Kometen anhand nur weniger Positionen zu bestimmen. Nachdem Gauß die Veröffentlichungen Piazzis gelesen hatte, berechnete er die Bahn des Himmelskörpers und sandte das Ergebnis nach Gotha. Heinrich Wilhelm Olbers entdeckte das Objekt daraufhin am 31. Dezember 1801 wieder, das schließlich den Namen Ceres erhielt. Im Jahr 1802 entdeckte Olbers einen weiteren Himmelskörper, den er Pallas nannte. 1803 wurde Juno, 1807 Vesta entdeckt.
Bis zur Entdeckung des fünften Asteroiden, Astraea im Jahr 1845, vergingen allerdings 38 Jahre. Die bis dahin entdeckten Asteroiden wurden damals noch nicht als solche bezeichnet – sie galten zu dieser Zeit als vollwertige Planeten. So kam es, dass der Planet Neptun bei seiner Entdeckung im Jahr 1846 nicht als achter, sondern als dreizehnter Planet gezählt wurde. Ab dem Jahr 1847 folgten allerdings so rasch weitere Entdeckungen, dass bald beschlossen wurde, für die zahlreichen, aber allesamt doch recht kleinen Himmelskörper, welche die Sonne zwischen Mars und Jupiter umkreisen, eine neue Objektklasse von Himmelskörpern einzuführen: die "Asteroiden", die sogenannten "kleinen Planeten". Die Zahl der "großen Planeten" sank somit auf acht. Bis zum Jahr 1890 wurden insgesamt über 300 Asteroiden entdeckt.
Fotografische Suchmethoden, Radarmessungen.
Nach 1890 brachte die Anwendung der Fotografie in der Astronomie wesentliche Fortschritte. Die Asteroiden, die bis dahin mühsam durch den Vergleich von Teleskopbeobachtungen mit Himmelskarten gefunden wurden, verrieten sich nun durch Lichtspuren auf den fotografischen Platten. Durch die im Vergleich zum menschlichen Auge höhere Lichtempfindlichkeit der fotografischen Emulsionen konnten, in Kombination mit langen Belichtungszeiten bei Nachführung des Teleskops quasi im Zeitraffer, äußerst lichtschwache Objekte nachgewiesen werden. Durch den Einsatz der neuen Technik stieg die Zahl der entdeckten Asteroiden rasch an.
Ein Jahrhundert später, um 1990, löste die digitale Fotografie in Gestalt der CCD-Kameratechnik einen weiteren Entwicklungssprung aus, der durch die Möglichkeiten der computerunterstützten Auswertung der elektronischen Aufnahmen noch potenziert wird. Seither hat sich die Zahl jährlich aufgefundener Asteroiden nochmals vervielfacht.
Ist die Bahn eines Asteroiden bestimmt worden, kann die Größe des Himmelskörpers aus der Untersuchung seiner Helligkeit und des Rückstrahlvermögens, der Albedo, ermittelt werden. Dazu werden Messungen mit sichtbaren Lichtfrequenzen sowie im Infrarotbereich durchgeführt. Diese Methode ist allerdings mit Unsicherheiten verbunden, da die Oberflächen der Asteroiden chemisch unterschiedlich aufgebaut sind und das Licht unterschiedlich stark reflektieren.
Genauere Ergebnisse können mittels Radarbeobachtungen erzielt werden. Dazu können Radioteleskope verwendet werden, die, als Sender umfunktioniert, starke Radiowellen in Richtung der Asteroiden aussenden. Durch die Messung der Laufzeit der von den Asteroiden reflektierten Wellen kann deren exakte Entfernung bestimmt werden. Die weitere Auswertung der Radiowellen liefert Daten zu Form und Größe. Regelrechte „Radarbilder“ lieferte beispielsweise die Beobachtung der Asteroiden (4769) Castalia und (4179) Toutatis.
Automatisierte Durchmusterungen.
Neue und weiterentwickelte Technologien sowie fortgesetzte Leistungssteigerung von Detektoren und elektronischer Datenverarbeitung ermöglichten seit den 1990er Jahren eine Reihe von automatisierten Suchprogrammen mit verschiedenen Zielsetzungen. Diese Durchmusterungen haben einen erheblichen Anteil an der Neuentdeckung von Asteroiden.
Eine Reihe von Suchprogrammen konzentriert sich auf erdnahe Asteroiden z. B. LONEOS, LINEAR, NEAT, NeoWise, Spacewatch, Catalina Sky Survey und Pan-STARRS. Sie haben erheblichen Anteil daran, dass quasi täglich neue Asteroiden gefunden werden, deren Anzahl Mitte Juli 2020 über 900.000 erreicht hatte.
In naher Zukunft wird sich die Zahl der bekannten Asteroiden nochmals deutlich erhöhen, da für die nächsten Jahre Durchmusterungen mit erhöhter Empfindlichkeit geplant sind, zum Beispiel Gaia und LSST. Allein die Raumsonde Gaia soll nach Modellrechnungen bis zu eine Million bisher unbekannter Asteroiden entdecken.
Beobachtungen mit Raumsonden.
Eine Reihe von Asteroiden konnte mittels Raumsonden näher untersucht werden:
Weitere Missionen sind geplant, unter anderem:
Benennung.
Die Namen der Asteroiden setzen sich aus einer vorangestellten Nummer und einem Namen zusammen. Die Nummer gab früher die Reihenfolge der Entdeckung des Himmelskörpers an. Heute ist sie eine rein numerische Zählform, da sie erst vergeben wird, wenn die Bahn des Asteroiden gesichert und das Objekt jederzeit wiederauffindbar ist; das kann durchaus erst Jahre nach der Erstbeobachtung erfolgen. Von den bisher bekannten 1.281.328 Asteroiden haben 620.108 eine Nummer (Stand: 28. April 2023).
Der Entdecker hat innerhalb von zehn Jahren nach der Nummerierung das Vorschlagsrecht für die Vergabe eines Namens. Dieser muss jedoch durch eine Kommission der IAU bestätigt werden, da es Richtlinien für die Namen astronomischer Objekte gibt. Dementsprechend existieren zahlreiche Asteroiden zwar mit Nummer, aber ohne Namen, vor allem in den oberen Zehntausendern.
Neuentdeckungen, für die noch keine Bahn mit ausreichender Genauigkeit berechnet werden konnte, werden mit dem Entdeckungsjahr und einer Buchstabenkombination, beispielsweise 2003 UB313, gekennzeichnet. Die Buchstabenkombination setzt sich aus dem ersten Buchstaben für die Monatshälfte (beginnend mit A und fortlaufend bis Y ohne I) und einem fortlaufenden Buchstaben (A bis Z ohne I) zusammen. Wenn mehr als 25 Kleinplaneten in einer Monatshälfte entdeckt werden – was heute die Regel ist – beginnt die Buchstabenkombination von vorne, gefolgt von jeweils einer je Lauf um eins erhöhten laufenden Nummer.
Der erste Asteroid wurde 1801 von Giuseppe Piazzi an der Sternwarte Palermo auf Sizilien entdeckt. Piazzi taufte den Himmelskörper auf den Namen „Ceres Ferdinandea“. Die römische Göttin Ceres ist Schutzpatronin der Insel Sizilien. Mit dem zweiten Namen wollte Piazzi König Ferdinand IV., den Herrscher über Italien und Sizilien ehren. Dies missfiel der internationalen Forschergemeinschaft und der zweite Name wurde fallengelassen. Die offizielle Bezeichnung des Asteroiden lautet demnach (1) Ceres.
Bei den weiteren Entdeckungen wurde die Nomenklatur beibehalten und die Asteroiden wurden nach römischen und griechischen Göttinnen benannt; dies waren (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, und so weiter.
Als immer mehr Asteroiden entdeckt wurden, gingen den Astronomen die antiken Gottheiten aus. So wurden Asteroiden unter anderem nach den Ehefrauen der Entdecker, zu Ehren historischer Persönlichkeiten oder Persönlichkeiten des öffentlichen Lebens, Städten und Märchenfiguren benannt. Beispiele hierfür sind die Asteroiden (21) Lutetia, (216) Kleopatra, (719) Albert, (1773) Rumpelstilz, (5535) Annefrank, (17744) Jodiefoster.
Neben Namen aus der griechisch-römischen Mythologie kommen auch Namen von Gottheiten aus anderen Kulturkreisen zur Anwendung, insbesondere für neu entdeckte, größere Objekte, wie (20000) Varuna, (50000) Quaoar und (90377) Sedna.
Monde von Asteroiden erhalten zu ihrem Namen keine permanente Nummer und gelten nicht als Asteroiden oder Kleinkörper, da sie nicht selbstständig die Sonne umlaufen.
Entstehung.
Zunächst gingen die Astronomen davon aus, dass die Asteroiden das Ergebnis einer kosmischen Katastrophe seien, bei der ein Planet zwischen Mars und Jupiter auseinanderbrach und Bruchstücke auf seiner Bahn hinterließ. Es zeigte sich jedoch, dass die Gesamtmasse der im Hauptgürtel vorhandenen Asteroiden sehr viel geringer ist als die des Erdmondes. Schätzungen der Gesamtmasse der Kleinplaneten schwanken zwischen 0,1 und 0,01 Prozent der Erdmasse (Der Mond hat etwa 1,23 Prozent der Erdmasse). Daher wird angenommen, dass die Asteroiden eine Restpopulation von Planetesimalen aus der Entstehungsphase des Sonnensystems darstellen. Die Gravitation von Jupiter, dessen Masse am schnellsten zunahm, verhinderte die Bildung eines größeren Planeten aus dem Asteroidenmaterial. Die Planetesimale wurden auf ihren Bahnen gestört, kollidierten immer wieder heftig miteinander und zerbrachen. Ein Teil wurde auf Bahnen abgelenkt, die sie auf Kollisionskurs mit den Planeten brachten. Hiervon zeugen noch die Einschlagkrater auf den Planetenmonden und den inneren Planeten. Die größten Asteroiden wurden nach ihrer Entstehung stark erwärmt (hauptsächlich durch den radioaktiven Zerfall des Aluminium-Isotops 26Al und möglicherweise auch des Eisenisotops 60Fe) und im Innern aufgeschmolzen. Schwere Elemente, wie Nickel und Eisen, setzten sich infolge der Schwerkraftwirkung im Inneren ab, die leichteren Verbindungen, wie die Silikate, verblieben in den Außenbereichen. Dies führte zur Bildung von differenzierten Körpern mit metallischem Kern und silikatischem Mantel. Ein Teil der differenzierten Asteroiden zerbrach bei weiteren Kollisionen, wobei Bruchstücke, die in den Anziehungsbereich der Erde geraten, als Meteoriten niedergehen.
Klassifikationsschemata von Asteroiden.
Die spektroskopische Untersuchung der Asteroiden zeigte, dass deren Oberflächen chemisch unterschiedlich zusammengesetzt sind. Analog erfolgte eine Einteilung in verschiedene spektrale, beziehungsweise taxonomische Klassen.
Klassifikationsschema nach Tholen.
David J. Tholen veröffentlichte 1984 für die Einordnung von Asteroiden anhand ihrer Spektraleigenschaften ein Klassifikationsschema mit 14 Klassen, die wiederum in 3 Gruppen (C, S und X) zusammengefasst sind:
Das Klassifikationsschema wurde von Tholen 1989 ergänzt:
Nach Tholen können bis zu vier Buchstaben vergeben werden, beispielsweise „SCTU“.
Ein Asteroid mit einem derartigen Zusatz ist beispielsweise (2340) Hathor, welcher nach Tholen in die Spektralklasse „CSU“ einsortiert werden würde (nach SMASSII als Sq). Der Buchstabe „I“ ist beispielsweise in der "JPL Small-Body Database" beim Asteroiden (515) Athalia eingetragen, nach SMASSII wird der Asteroid als „Cb“ eingeordnet.
Zusammensetzung.
In der Vergangenheit gingen Wissenschaftler davon aus, dass die Asteroiden monolithische Felsbrocken, also kompakte Gebilde sind. Die geringen Dichten etlicher Asteroiden sowie das Vorhandensein von riesigen Einschlagkratern deuten jedoch darauf hin, dass viele Asteroiden locker aufgebaut sind und eher als "rubble piles" anzusehen sind, als lose „Schutthaufen“, die nur durch die Gravitation zusammengehalten werden. Locker aufgebaute Körper können die bei Kollisionen auftretenden Kräfte absorbieren ohne zerstört zu werden. Kompakte Körper werden dagegen bei größeren Einschlagereignissen durch die Stoßwellen auseinandergerissen. Darüber hinaus weisen die großen Asteroiden nur geringe Rotationsgeschwindigkeiten auf. Eine schnelle Rotation um die eigene Achse würde sonst dazu führen, dass die auftretenden Fliehkräfte die Körper auseinanderreißen "(siehe auch: YORP-Effekt)". Man geht heute davon aus, dass der überwiegende Teil der über 200 Meter großen Asteroiden derartige kosmische Schutthaufen sind.
Bahnen.
Anders als die Planeten besitzen viele Asteroiden keine annähernd kreisrunden Umlaufbahnen. Sie haben, abgesehen von den meisten Hauptgürtelasteroiden und den Cubewanos im Kuipergürtel, meist sehr exzentrische Orbits, deren Ebenen in vielen Fällen stark gegen die Ekliptik geneigt sind. Ihre relativ hohen Exzentrizitäten machen sie zu Bahnkreuzern; das sind Objekte, die während ihres Umlaufs die Bahnen eines oder mehrerer Planeten passieren. Die Schwerkraft des Jupiter sorgt allerdings dafür, dass sich Asteroiden, bis auf wenige Ausnahmen, nur jeweils innerhalb oder außerhalb seiner Umlaufbahn bewegen.
Anhand ihrer Bahnen werden Asteroiden auch zu mehreren Asteroidenfamilien zugeordnet, die sich durch ähnliche Werte von großer Halbachse, Exzentrizität sowie Inklination ihrer Bahn auszeichnen. Die Asteroiden einer Familie stammen vermutlich vom gleichen Ursprungskörper ab. Im Jahr 2015 listete David Nesvorný fünf Hauptfamilien auf. Etwa 45 % aller Asteroiden des Hauptgürtels können anhand der gegebenen Kriterien einer solchen Familie zugeordnet werden.
Asteroiden innerhalb der Marsbahn.
Innerhalb der Marsbahn bewegen sich einige unterschiedliche Asteroidengruppen, die alle bis auf wenige Ausnahmen aus Objekten von unter fünf Kilometer Größe (überwiegend jedoch deutlich kleiner) bestehen. Einige dieser Objekte sind Merkur- und Venusbahnkreuzer, von denen sich mehrere nur innerhalb der Erdbahn bewegen, manche können sie auch kreuzen. Wiederum andere bewegen sich hingegen nur außerhalb der Erdbahn.
Die Existenz der als Vulkanoiden bezeichneten Gruppe von Asteroiden konnte bislang nicht nachgewiesen werden. Diese Asteroiden sollen sich auf sonnennahen Bahnen innerhalb der von Merkur bewegen.
Erdnahe Asteroiden.
Asteroiden, deren Bahnen dem Orbit der Erde nahekommen, werden als "erdnahe Asteroiden", auch NEAs (Near Earth Asteroids) bezeichnet. Üblicherweise wird als Abgrenzungskriterium ein Perihel kleiner als 1,3 AE verwendet. Wegen einer theoretischen Kollisionsgefahr mit der Erde wird seit einigen Jahren systematisch nach ihnen gesucht. Bekannte Suchprogramme sind zum Beispiel Lincoln Near Earth Asteroid Research (LINEAR), der Catalina Sky Survey, Pan-STARRS, NEAT und LONEOS.
Asteroiden zwischen Mars und Jupiter.
Etwa 90 Prozent der bekannten Asteroiden bewegen sich zwischen den Umlaufbahnen von Mars und Jupiter. Sie füllen damit die Lücke in der Titius-Bode-Reihe. Die größten Objekte sind hier (1) Ceres, (2) Pallas, (4) Vesta und (10) Hygiea.
Asteroiden des Hauptgürtels.
Die meisten der Objekte, deren Bahnhalbachsen zwischen der Mars- und Jupiterbahn liegen, sind Teil des Asteroiden-Hauptgürtels. Sie weisen eine Bahnneigung unter 20° und Exzentrizitäten unter 0,25 auf. Die meisten sind durch Kollisionen größerer Asteroiden in dieser Zone entstanden und bilden daher Gruppen mit ähnlicher chemischer Zusammensetzung. Ihre Umlaufbahnen werden durch die sogenannten Kirkwoodlücken begrenzt, die durch Bahnresonanzen zu Jupiter entstehen. Dadurch lässt sich der Hauptgürtel in drei Zonen einteilen:
Asteroiden außerhalb des Hauptgürtels.
Außerhalb des Asteroidengürtels liegen vereinzelt kleinere Asteroidengruppen, deren Umlaufbahnen meist in Resonanz zur Jupiterbahn stehen und dadurch stabilisiert werden. Außerdem existieren weitere Gruppen, die ähnliche Längen der Bahnhalbachsen aufweisen wie die Hauptgürtelasteroiden, jedoch deutlich stärker geneigte Bahnen (teilweise über 25°) oder andere ungewöhnliche Bahnelemente aufweisen:
Asteroiden außerhalb der Jupiterbahn.
Transneptunische Objekte, Kuipergürtel-Objekte.
Im äußeren Sonnensystem, jenseits der Neptunbahn, bewegen sich die transneptunischen Objekte, von denen die meisten als Teil des Kuipergürtels betrachtet werden (Kuiper belt objects; KBO). Dort wurden die bislang größten Asteroiden oder Planetoiden entdeckt. Die Objekte dieser Zone lassen sich anhand ihrer Bahneigenschaften in drei Gruppen einteilen:
Asteroiden, die sich auf Planetenbahnen bewegen.
Asteroiden, die sich in den Lagrange-Punkten der Planeten befinden, werden „Trojaner“ genannt. Zuerst wurden diese Begleiter bei Jupiter entdeckt. Sie bewegen sich auf der Jupiterbahn vor beziehungsweise hinter dem Planeten. Jupitertrojaner sind beispielsweise (588) Achilles und (1172) Äneas. 1990 wurde der erste Marstrojaner entdeckt und (5261) Eureka genannt. In der Folgezeit wurden weitere Marstrojaner entdeckt. Auch Neptun besitzt Trojaner und 2011 wurde mit 2011 QF99 der erste Uranustrojaner entdeckt.
Manche Asteroiden bewegen sich auf einer Hufeisenumlaufbahn auf einer Planetenbahn, wie zum Beispiel der Asteroid 2002 AA29 in der Nähe der Erde.
Interstellarer Asteroid.
Im Oktober 2017 wurde mit 1I/ʻOumuamua der erste interstellar reisende Asteroid entdeckt. Er ist länglich geformt, rund 400 Meter lang und näherte sich etwa im rechten Winkel der Bahnebene der Planeten. Nachdem seine Bahn durch die Gravitation der Sonne um etwa 90° abgelenkt wurde, flog er auf seinem neuen Kurs in Richtung des Sternbildes Pegasus in ca. 24 Millionen Kilometern Entfernung am 14. Oktober 2017 an der Erde vorbei.
Einzelobjekte.
Im Sonnensystem bewegen sich einige Asteroiden, die Charakteristika aufweisen, die sie mit keinem anderen Objekt teilen. Dazu zählen unter anderem (944) Hidalgo, der sich auf einer stark exzentrischen, kometenähnlichen Umlaufbahn zwischen Saturn und dem Hauptgürtel bewegt, und (279) Thule, der sich als einziger Vertreter einer potenziellen Gruppe von Asteroiden in 4:3-Resonanz zu Jupiter bei 4,3 AE um die Sonne bewegt. Ein weiteres Objekt ist (90377) Sedna, ein relativ großer Asteroid, der weit außerhalb des Kuipergürtels eine exzentrische Umlaufbahn besitzt, die ihn bis zu 900 AE von der Sonne entfernt. Inzwischen wurden allerdings mindestens fünf weitere Objekte mit ähnlichen Bahncharakteristika wie Sedna entdeckt; sie bilden die neue Gruppe der Sednoiden.
Einige Charakteristika wie ihre Form lassen sich aus ihrer Lichtkurve berechnen.
Orientierung der Bahnrotation.
Planeten, Asteroiden und Kometen kreisen typisch alle in derselben Richtung um die Sonne.
2014 wurde ein erster Asteroid entdeckt, 2015 nummeriert und 2019 benannt, nämlich (514107) Kaʻepaokaʻawela, der in die entgegengesetzte Richtung umläuft; und zwar in der Ko-Orbit-Region des Planeten Jupiter. 2018 wurde analysiert, dass (514107) Kaʻepaokaʻawela schon vor der Bildung der Planeten von außerhalb des Sonnensystems eingefangen worden sein muss.
Heute ist bekannt, dass etwa 100 weitere Asteroiden „falsch herum“ um die Sonne laufen.
Einschlagwahrscheinlichkeit und -wirkung.
Asteroiden, die mit wesentlich größeren Himmelskörpern wie Planeten kollidieren, erzeugen Einschlagkrater. Die Größe des Einschlagkraters und die damit verbundene Energiefreisetzung (Explosion) wird maßgeblich durch die Geschwindigkeit, Größe, Masse und Zusammensetzung des Asteroiden bestimmt.
Die Flugbahnen der Asteroiden im Sonnensystem sind nicht genau genug bekannt, um auf längere Zeit berechnen zu können, ob und wann genau ein Asteroid auf der Erde (oder auf einem anderen Planeten) einschlagen wird. Durch Annäherung an andere Himmelskörper unterliegen die Bahnen der Asteroiden ständig kleineren Veränderungen. Deswegen wird auf Basis der bekannten Bahndaten und -unsicherheiten lediglich das "Risiko" von Einschlägen errechnet. Es verändert sich bei neuen, genaueren Beobachtungen fortlaufend.
Mit der "Turiner Skala" und der "Palermo-Skala" gibt es zwei gebräuchliche Methoden zur Bewertung des Einschlagrisikos von Asteroiden auf der Erde und der damit verbundenen Energiefreisetzung und Zerstörungskraft:
Die Europäische Weltraumorganisation (ESA) publiziert öffentlich eine fortlaufend aktualisierte Risikoliste, in der Asteroiden und deren Wahrscheinlichkeit einer Kollision mit der Erde aufgeführt sind.
Beispiele für Einschläge auf der Erde.
Eine Auflistung irdischer Krater findet sich in der Liste der Einschlagkrater der Erde sowie als Auswahl unter Große und bekannte Einschlagkrater.
Mutmaßliche Kollisionen zwischen Asteroiden.
Die Wissenschaft benennt mehrere mögliche Kollisionen zwischen Asteroiden untereinander:
Internationaler Tag der Asteroiden.
2001 etablierte das "Committee on the Peaceful Uses of Outer Space" (COPUOS) der UNO das "Action Team on Near-Earth Objects" (Action Team 14). Empfohlen wurde 2013 die Errichtung eines "international asteroid warning network" (IAWN) und einer "space mission planning advisory group" (SMPAG). Das Action Team 14 hat sein Mandat erfüllt und wurde 2015 aufgelöst. Am 30. Juni 2015 wurde der erste "Asteroid Day" ausgerufen. |
414 | 2234691 | https://de.wikipedia.org/wiki?curid=414 | Asen (Mythologie) | Die Asen (von altnordisch "áss" „Ase“, Plural: "æsir" „Asen“), eine nordische Bezeichnung der germanischen Götter, sind nach Snorri Sturluson in der Prosa-Edda ein Göttergeschlecht der nordischen Mythologie. Dieses Geschlecht ist nach der Zahl der ihm zugehörigen Gottheiten größer als das ebenfalls nordische Göttergeschlecht der Wanen.
Die Asen werden von ihrer Mentalität als kriegerische und herrschende Götter geschildert, wohingegen die Wanen als Fruchtbarkeitsgottheiten stilisiert werden. Bei Snorri findet jedoch eine stringente Trennung der Geschlechter nicht statt. Zudem wird der Begriff „Ase“ in Quellen auch als ein genereller Begriff für (heidnischer) „Gott“ gebraucht (siehe auch: Abschnitt Etymologie im germanischen Sprachraum bei "Gott").
Etymologie.
Der Begriff „Ase“ ist inschriftlich zuerst fassbar belegt in einer Runeninschrift aus dem 2. Jahrhundert aus Vimose in Dänemark: "asau wija" „ich weihe dem Asen/Gott“. Ein weiterer Beleg ist die Form "Ansis" bei Jordanes (Getica 13,78), hier werden diese als mythische Vorfahren der Goten als "semideos", lateinisch für „Halbgötter“, bezeichnet.
Vermutet wird, dass die Herkunft des Wortes Asen auf die Pfahlidole oder Pfahlgötter zurückgehen könnte. Die Wurzel der heutigen Worte „Balken“ und „Pfosten“ haben eine nahe Verwandtschaft zu den Bezeichnungen "æsir" und "áss".
Das altisländische, beziehungsweise altnordische "áss" weist durch den runischen Beleg einen u-Stamm auf, wodurch auf ein germanisches "*ansu-z" zu schließen ist. Durch den Beleg bei Jordanes wird in der Forschung diskutiert, ob durch die Form "ansis", neben der altnordischen Form mit dem u-Stamm, berechtigt ein i-Stamm anzunehmen ist und in der Folge auf ein germanisches "*ansi-z" rückzuführen ist.
Im deutschsprachigen Raum hat sich das Wort Asen (über "āss" entwickelt aus germanisch "ans-" „Gott“; vgl. auch "anses" „Halbgötter“, bei Jordanus um 550) als Bezeichnung der germanischen Götter im 19. Jahrhundert eingebürgert.
Die Asen der Edda.
Nach der Jüngeren Edda wohnen zwölf Asen in Asgard (Sitz der Götter). Sie herrschen über die Welt und die Menschen. Ihnen werden Eigenschaften wie Stärke, Macht und Kraft zugeschrieben. Sie sind weitgehend vermenschlicht, haben also einen irdischen Alltag. Wie die Menschen sind sie sterblich. Nur durch die Äpfel der Idun halten sie sich jung, bis fast alle von ihnen zur Ragnarök getötet werden.
Stammbaum der nordischen Gottheiten.
Die folgende Übersicht zeigt die verwandtschaftlichen Beziehungen zwischen den bekanntesten nordischen Gottheiten aus den Geschlechtern der Asen und Wanen:
Das goldene Zeitalter.
Das goldene Zeitalter wird beschrieben als eine glückliche Zeit, in der die Götter ohne Menschen auf einer grünen Erde wie Kinder lebten. In dieser Zeit legten sie Essensvorräte an, fertigten Zangen, Ambosse und Hämmer. |
415 | 572566 | https://de.wikipedia.org/wiki?curid=415 | Artes Liberales | |
416 | 233558112 | https://de.wikipedia.org/wiki?curid=416 | Altes Reich | Altes Reich ist die Bezeichnung für die erste der drei klassischen Perioden des Alten Ägypten, die ungefähr von 2700 bis 2200 v. Chr. dauerte. Das Alte Reich folgte auf die Thinitenzeit mit ihren Königen der 1. und 2. Dynastie, die zur Bildung des ägyptischen Staates geführt hatte. Es umfasste die 3. bis 6. Dynastie. Die darauffolgende Zeit (Erste Zwischenzeit) war geprägt von instabilen politischen Verhältnissen in Ägypten.
Die Alten Ägypter selbst sahen die Epoche als Goldenes Zeitalter und Höhepunkt ihrer Kultur an. Die Zeit war von äußerst lang anhaltender politischer Stabilität geprägt und die innere Ordnung des Landes war durch keinerlei äußere Bedrohungen gefährdet. Die bereits zur Thinitenzeit begonnene Zentralisierung des Staates und der langsam einsetzende Wohlstand in der Bevölkerung führten zu beachtlichen architektonischen und künstlerischen Leistungen. Es kam zur Entstehung erster wichtiger Gattungen der klassischen ägyptischen Literatur, zur Kanonisierung von Malerei und Bildhauerei, aber auch zu zahlreichen Neueinführungen in der Verwaltung, die fast drei Jahrtausende überdauerten.
Das Alte Reich ist das Zeitalter der großen Pyramiden, die in der Gegend der damaligen Hauptstadt Memphis entstanden: zunächst die Stufenpyramide von Pharao Djoser in Sakkara, später dann die drei monumentalen Pyramiden auf dem Plateau von Gizeh (von Cheops, Chephren und Mykerinos), die zu den sieben Weltwundern der Antike zählen. Die Pyramiden spiegeln eindrucksvoll die zentrale Stellung der Herrscher in der Gesellschaft wider und ihre Macht, die danach in der altägyptischen Geschichte unerreicht blieb. Zugleich machen sie die Weiterentwicklung des Verwaltungsapparates deutlich und seine Fähigkeit, materielle und menschliche Ressourcen zu mobilisieren. Sie zeigen aber auch die erheblichen Fortschritte in Architektur und Kunst auf und lassen erkennen, welche zentrale Rolle Totenkult und Jenseitsglaube zu dieser Zeit gespielt haben.
Quellenlage.
Die Hauptquelle für das Alte Reich sind die Pyramiden und ihre Tempelanlagen, die letzteren sind jedoch häufig stark zerstört. Vor allem in den Pyramidengrabkammern der 6. Dynastie fanden sich Texte, die eine umfangreiche Quelle zum Totenglauben der Epoche darstellen.
Neben den Pyramiden finden sich umfangreiche Friedhöfe der höchsten Beamten, deren Gräber oftmals reich mit Reliefs und Inschriften dekoriert sind. Nekropolen in den Provinzen fanden in der Forschung bisher wenig Beachtung. Immerhin stammen aus dem späten Alten Reich einige bedeutende dekorierte Grabanlagen lokaler Würdenträger.
Siedlungen des Alten Reiches sind bisher kaum ausgegraben. Eine Ausnahme stellt neuerdings die Pyramidenstadt von Gizeh dar. Nur wenige Tempel dieser Zeit sind bisher untersucht worden. Im Gegensatz zu späteren Epochen scheinen sie eher klein und undekoriert gewesen zu sein. Eine Ausnahme stellen zwei Heiligtümer zum Sonnen- und Königskult dar. Aus dem Alten Reich gibt es nur wenige Papyri, die wichtigsten fanden sich in Abusir und stellen Verwaltungsurkunden eines Pyramidentempels dar.
3. Dynastie.
Die 3. Dynastie (2700 bis 2620 v. Chr.) folgte auf die Thinitenzeit, die zur Reichseinigung und zur Bildung des ersten ägyptischen Staates geführt hat. Die Dynastie wird gemeinhin dem Alten Reich zugerechnet, da sie den Beginn des für diese Epoche ausschlaggebenden Pyramidenbaus markiert. Einige Forscher ziehen es vor, sie in direkte Kontinuität mit der 1. und 2. Dynastie zu setzen, die zahlreiche Gemeinsamkeiten hinsichtlich politischer Organisation und kultureller Aspekte aufweisen. Der Übergang von der 2. zur 3. Dynastie stellt keinen echten Dynastiewechsel dar, da die ersten Herrscher der 3. Dynastie in direkter Linie vom Königshaus der vorhergehenden Dynastie abstammen.
Über die Anzahl und Abfolge der Könige der 3. Dynastie herrscht einige Unklarheit. Probleme bereitet die Tatsache, dass die fast ausschließlich in späteren Listen überlieferten Geburtsnamen nur selten in Einklang mit den zeitgenössisch auftretenden Horusnamen gebracht werden können. Von den aus dieser Zeit überlieferten fünf oder sechs Horusnamen kann lediglich Netjeri-chet eindeutig König Djoser zugewiesen werden. Die Reihenfolge der nächsten drei Herrscher Sechemchet, Chaba und Sanacht dagegen ist ungewiss. Der vermutlich letzte Herrscher Huni wurde versuchsweise mit dem Horusnamen Qahedjet identifiziert, jedoch ist diese Zuweisung nicht sicher. Die Angaben für die Dauer der 3. Dynastie schwanken zwischen 50 und 75 Jahren.
König Djoser wird als bedeutendster Herrscher der 3. Dynastie angesehen, da er mit seinem Pyramidenkomplex in Sakkara die erste Stufenpyramide und den ersten monumentalen Steinbau in der Geschichte der Menschheit schaffen ließ. Für den Bau der Pyramide, die einen Höhepunkt des frühen ägyptischen Steinbaus darstellt, waren enorme Fortschritte in der logistischen Organisation nötig, die nur durch eine gut funktionierende, straff organisierte Verwaltung erzielt werden konnten. Als einer der berühmtesten Beamten dieser Zeit ist Imhotep bekannt, der als Berater und Baumeister von Djoser wirkte und bis in die Spätzeit hinein als legendärer Erfinder verehrt und sogar vergöttlicht wurde. Sichtbare Fortschritte im Bereich Bildender Kunst lassen sich am besten an Werken aus Djosers Regierungszeit ablesen, die sich in ihrer Ausführung deutlich von der vorhergehenden Epoche abheben.
Die 3. Dynastie war von der Stärkung des Zentralstaates geprägt, der von der neuen Hauptstadt Memphis aus an der Grenze zwischen Ober- und Unterägypten regiert wurde. Die hohen Würdenträger ließen sich nicht mehr wie in der Frühzeit auf Friedhöfen in der Provinz bestatten, sondern erhielten nun einen Platz in der königlichen Nekropole. Die gegen Ende der Dynastie an vielen Stellen im Reich errichteten Kleinpyramiden unterstreichen dagegen den wachsenden Einfluss der Zentralregierung auf die Provinzen. Zur Beschaffung von Baumaterial und anderen wichtigen Rohstoffen wurden Expeditionen in weit entfernte Gegenden entsandt, etwa ins Wadi Maghara im Westen des Sinai.
4. Dynastie.
Die 4. Dynastie (2620 bis 2500 v. Chr.) wurde von Snofru gegründet, der möglicherweise ein Sohn von Huni war. In einer Zeitspanne von etwa 100 Jahren regierten sieben Könige aus der Dynastie, von denen die vier Könige Snofru, Cheops, Chephren und Mykerinos eine relativ lange Regierungszeit zwischen 18 und 30 Jahren ausübten.
Die Dynastie war eine Blütezeit Ägyptens und ist der Nachwelt durch die größten jemals in Ägypten errichteten Pyramiden in Erinnerung geblieben. Ihr Gründer Snofru, der als Idealbild des gerechten Königs galt, unternahm weit entfernte Expeditionen nach Nubien und Libyen und ließ eine Grenzfestung zum Schutze des Landes bauen; weiterhin ließ er in Meidum und Dahschur nacheinander drei große Pyramidenanlagen errichten, die den Übergang von der Stufenpyramide zur echten Pyramide einleiteten. Sein Nachfolger Cheops wählte das Plateau von Gizeh als Bauplatz für seine Pyramide, die mit ursprünglich 146,59 Metern Höhe die höchste der Welt ist. Ihre enorme Größe veranlasste antike Autoren dazu, ihn im Gegensatz zu seinem Vater als größenwahnsinnigen und tyrannischen Herrscher darzustellen, ihm wurde aber in Wirklichkeit bis in die Spätzeit hinein noch eine eigenständige kultische Verehrung zuteil. Zwei seiner Söhne, Djedefre und Chephren, folgten ihm auf den Thron. Djedefre nannte sich als erster König „Sohn des Re“, Chephren ließ sich eine weitere große Pyramide neben der seines Vaters erbauen. Von dem nachfolgenden König Bicheris ist nur wenig bekannt. Erst sein Nachfolger Mykerinos ließ eine dritte Pyramide in Gizeh bauen. Der letzte König der Dynastie hieß Schepseskaf. Bei Manetho ist ein gewisser Thamphthis überliefert, der jedoch nicht durch zeitgenössische Belege bestätigt werden kann.
Die Umsetzung der großen Bauvorhaben dieser Dynastie erforderte eine weitaus komplexere und effizientere Verwaltung als in der Dynastie zuvor. Die Verwaltung wurde immer weiter ausgebaut und umfasste schließlich ein „Amt für königliche Arbeiten“, das sich speziell um die Errichtung von Denkmälern kümmerte. Zu den Aufgaben gehörte die Rekrutierung von Arbeitskräften, die Errichtung von ausgedehnten Arbeitersiedlungen für ihre Versorgung und Unterkunft unweit der Bauplätze, die Umsetzung der großen und technisch anspruchsvollen Bauvorhaben, die Erschließung von Steinbrüchen, die sich außerhalb des zuständigen Verwaltungsgebietes befinden konnten (Hatnub, Fayyum, Wadi Hammamat, Sinai) sowie die Lieferung von Rohmaterial in die Region von Memphis. Alle staatliche Macht konzentrierte sich in der Person des Pharaos, dessen göttlicher Charakter sich mehr als jemals zuvor in seinen Bauprojekten manifestierte. Die höchsten Amtsposten in der Verwaltung wurden meist von Prinzen besetzt. Von einigen hohen Hofbeamten ist bekannt, dass sie gelegentlich als Verwalter in den Provinzen eingesetzt werden konnten.
5. Dynastie.
Die Herrscher der 5. Dynastie (2504 bis 2347 v. Chr.) sind sowohl durch archäologische Funde als auch durch überlieferte Texte genauer bekannt als die der vorangegangenen Dynastien. Ihre Zeit ist durch kleinere Pyramiden, oft bei Abusir gelegen, und Tempel des Sonnengottes Re gekennzeichnet.
Die Könige (Pharaonen) mussten ihre absolute Macht mit dem aufstrebenden Adel und einer wachsenden Bürokratie teilen. Letzterer verdanken wir viele der erhaltenen Texte.
In der Pyramide des Unas fanden sich erstmals die so genannten Pyramidentexte, die somit die ältesten überlieferten religiösen Texte der Menschheitsgeschichte sind. Die Tradition der Anbringung von Jenseitsliteratur in Königsgräbern wurde im Mittleren Reich mit den Sargtexten und im Neuen Reich mit den verschiedenen Unterweltsbüchern (Amduat, Höhlenbuch, Pfortenbuch etc.) fortgeführt. In nicht-königlichen Gräbern des Neuen Reiches fand man Papyri mit dem Totenbuch.
6. Dynastie.
Die 6. Dynastie (2347 bis 2216 v. Chr.) setzte die 5. Dynastie kulturell fort. Eine Dezentralisierung der Verwaltungsstrukturen mit über das Land verteilten Verwaltern stellte regionale Zentren her, die mit nachgebendem Einfluss der Herrscher an Bedeutung gewannen, wie beispielsweise am Grabmal des Chunes in Qubbet el-Hawa bei Assuan im 1. Gau Oberägyptens deutlich wird. Die Zentralregierung verlor nach Kriegszügen gegen Libyen, Nubien und Palästina immer mehr an Einfluss.
Neueste Forschungen deuten darauf hin, dass Klimaveränderungen (siehe 4,2-Kilojahr-Ereignis), mit ausbleibenden Nilhochwassern, zum Niedergang des Alten Reiches beigetragen haben könnten. Auch die nahezu gleichzeitigen Umbrüche in Sumer und der Indus-Kultur sprechen dafür.
Mit dem Zerfall der Zentralregierung nach Pepi II beginnt die Erste Zwischenzeit. |
417 | 234415500 | https://de.wikipedia.org/wiki?curid=417 | Aussetzung des Handels | Aussetzung des Handels ist eine Maßnahme der Geschäftsführung einer Börse, die den Börsenhandel mit Handelsobjekten allgemein oder einem bestimmten Handelsobjekt für einen unbestimmten Zeitraum untersagt.
Allgemeines.
Börsenkurse sind dadurch gekennzeichnet, dass sie mehr oder weniger starken Schwankungen unterliegen. Die Kursbildung beruht auf den unterschiedlichen Vorstellungen der Marktteilnehmer und stellt für diese ein Kursrisiko dar. Wenn die Kursschwankungen und damit Kursrisiken jedoch so groß sind, dass ein ordnungsgemäßer Börsenhandel nicht mehr stattfinden kann, darf die Geschäftsführung in den Handel eingreifen und Kursnotierungen (vorübergehend) untersagen. Auch Direktgeschäfte zwischen Börsenteilnehmern sind dann verboten.
In Deutschland.
Rechtsgrundlagen.
Das Börsengesetz (BörsG) kennt zwei Arten der Kursaussetzung. Die Geschäftsführung einer Börse ist nach Abs. 1 BörsG befugt, den Handel von Handelsobjekten auszusetzen oder einzustellen:
Bei Aussetzung oder Einstellung geht das Gesetz davon aus, dass ein "ordnungsgemäßer Börsenhandel" nicht mehr stattfinden kann. Ist der Börsengeschäftsführung aufgrund der Mitteilung des Emittenten erkennbar, dass sich die von den Handelsteilnehmern vereinbarten Preise infolge ihrer Informationsdefizite nicht fair und transparent bilden, so ist die Ordnungsmäßigkeit des Börsenhandels nicht mehr gewährleistet. Temporäre Gefährdungen führen zur Aussetzung, länger anhaltende zur länger andauernden Einstellung des Handels.
Beide Maßnahmen führen zur Einstellung der Kursnotiz und sind der Börsenaufsicht und der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zu melden. Die Vorschrift des § 25 Abs. 1 BörsG übernimmt in § 57 die Börsenordnung für die Frankfurter Wertpapierbörse. Danach kann die Geschäftsführung den Handel im regulierten Markt aussetzen, „wenn ein ordnungsgemäßer Börsenhandel zeitweilig gefährdet oder wenn dies zum Schutz des Publikums geboten erscheint.“ Wenn dieser ordnungsgemäße Börsenhandel nicht mehr möglich ist, kann der Handel sogar ganz eingestellt werden.
Nach Abs. 1 Nr. 5 KWG kann die BaFin die Schließung eines Kreditinstituts für den Verkehr mit der Kundschaft anordnen, wodurch es den Bankkunden nicht mehr möglich ist, Wertpapierorders für die Börse abzugeben.
Unterbrechungen.
Eine so genannte Volatilitätsunterbrechung beim Computerhandelssystem Xetra findet statt, wenn ein möglicher Kurs „außerhalb des dynamischen Preiskorridors“ liegt. Dieser Korridor wird von den Handelssystemen der Börse errechnet, eine Aussetzung des Handels wird den Anlegern unmittelbar mitgeteilt. Volatilitätsunterbrechungen dauern bei Aktien aus dem DAX und Werten der STOXX Europe 50-Indizes drei Minuten, bei allen anderen Wertpapieren fünf Minuten. Der Umfang des Preiskorridors wird nicht veröffentlicht, damit sich die Marktteilnehmer nicht hierauf einstellen können.
Schwanken Kurse über längere Zeit sehr stark, kann die Börsenleitung mit dem Status des „Fast Market“ die Kursnotierungen aussetzen. Dies geschah zuletzt wegen der COVID-19-Pandemie am 16. März 2020.
Ursachen und Folgen.
Auslöser für Eingriffe in den Börsenhandel können sowohl Ereignisse bei einem einzelnen Wertpapier (angekündigte Ad-hoc-Publizität durch Unternehmen), beim Publikum (Panikkäufe und -verkäufe) oder Extremereignisse (Terroranschläge am 11. September 2001) sein. In WpHG ist vorgeschrieben, dass kursbeeinflussende Tatsachen unmittelbar vor ihrer Veröffentlichung den Börsen und der BaFin mitzuteilen sind. Dadurch erhalten die Börsen etwa 20 Minuten vor der Öffentlichkeit diese Informationen und haben ausreichend Zeit, über eine Kursaussetzung zu entscheiden. Ad-hoc-Mitteilungen sind geeignet, einen erheblichen Kursausschlag herbeizuführen.
Die Unterbrechung des Börsenhandels ist eine Ermessensentscheidung der Börsengeschäftsführung. Ist die Entscheidung der Börsengeschäftsführung zur Kursaussetzung gefallen, erhält der letzte Kurs des betroffenen Wertpapiers den Kurszusatz
"au/ausg" = ausgesetzt: Die Kursnotierung ist ausgesetzt, ein Ausruf ist nicht gestattet.
Der Anleger kann aus einer Kursaussetzung schließen, dass Ereignisse eingetreten sind, die für die Bewertung seines Handelsobjekts maßgeblich sein können. Kursaussetzungen führen dann – anders als bei der Handelsunterbrechung („trading halt“) – zum Erlöschen aller betroffenen Orders (§ 6 Abs. 4 Börsengeschäftsbedingungen). Denn die Marktteilnehmer haben angesichts der veröffentlichten kursbeeinflussenden Tatsachen „kein Interesse mehr an der Ausführung ihrer in Unkenntnis dieser Tatsachen erteilten Kauf- und Verkaufsaufträge“. Wegen der schwerwiegenden Folgen einer Kursaussetzung durch die Börsenorgane ist ein solcher Vorgang die Ausnahme. Nach Kursaussetzung wird mit dem zuletzt festgestellten Kurs begonnen bzw. bei Kursaussetzung vor Börsenbeginn mit dem Schlusskurs des Vortages.
Zweck.
Aussetzungen oder Einstellungen führen zu keinen Umsätzen, so dass die Kauf- und Verkaufsabsichten nicht realisiert werden können. Diese Maßnahmen zielen darauf ab, durch Unterbrechung des Handels die Marktteilnehmer zu beruhigen und ihnen Zeit für die Beschaffung aktueller Informationen zu geben, um das Informationsgleichgewicht wiederherzustellen. Matthias Ecke wies 2005 nach, dass Ereignisse mit Kursaussetzungen durch eine starke Reaktion bei Wiederaufnahme des Handels gekennzeichnet sind. Im Vergleich mit – nicht kursausgesetzten – Ad-hoc-Meldungen zeigen Kursaussetzungen stärkere Ereigniseffekte. Ecke gelangt zu dem Ergebnis, dass Emittenten und Anleger darauf vertrauen können, dass Kursaussetzungen in der Regel nur dann vorgenommen werden, wenn sie mit sehr sensitiven Informationen in Verbindung stehen.
Da starke Kursschwankungen im Rahmen eines Spillovers von der Finanzwirtschaft auch auf die Realwirtschaft übergreifen können, kann eine Kursaussetzung auch Finanz- und Wirtschaftskrisen abschwächen oder gar verhindern.
In den USA.
In den USA ist bei „Trading halts“ oder „Suspensions“ zu unterscheiden, ob die US-Finanzaufsicht Security Exchange Commission (SEC) oder die Börse eine Aussetzung initiiert hat. In den meisten Fällen werden Aussetzungen von den Börsen selbst initiiert. Die Gründe dafür können Verstöße gegen Listing-Bedingungen, gegen handelssegmentspezifische Anforderungen oder gegen Publizitätspflichten sein. Der am meisten zu beobachtende Grund sind anstehende Unternehmensnachrichten. Die SEC hat die Möglichkeit, Aktien bis zu zehn Handelstage vom Börsenhandel auszuschließen. Die Handelsaussetzung bleibt bis 23.59 Uhr des zehnten Handelstages nach der Ankündigung der Aktion bestehen.
Handelsobjekte.
Handelsaussetzungen beschränken sich nicht auf Aktien, sondern können sich auf alle Handelsobjekte erstrecken, so auch auf Staatsanleihen, Leerverkäufe oder Geld. So wurden im Jahr 2002 sowohl in Argentinien als auch Uruguay so genannte Bankfeiertage ausgerufen. Effektiv wurde der Handel mit Geld, Abhebungen und Überweisungen ausgesetzt. Auch in diesen Fällen war die Stabilisierung der jeweiligen Währung das Ziel. Die längerfristige Aussetzung des Handels mit dem einzig allgemein akzeptierten Tauschmittel eines Landes hat fatale Folgen für die arbeitsteilige Wirtschaft: Ohne Tauschmittel kommt die Arbeitsteilung zum Erliegen. In der Regel folgt auf solche Umständen eine allgemeine Verelendung.
Kritik.
Befürworter sehen in der Aussetzung des Handels mit Wertpapieren einzelner Unternehmen einen Anlegerschutz. So wird der Handel mit Aktien eines Unternehmens ausgesetzt, wenn dieses Unternehmen Pflichtmitteilungen zu tätigen hat, die einen erheblichen Einfluss auf den Kurs haben können wie z. B. Insolvenzanträge, Fusionen eines Unternehmens oder Unternehmensübernahmen. Hierzu bekommen die Kontrollorgane die Pflichtmitteilung vor der Veröffentlichung und können den Handel aussetzen, bevor die Nachricht bekannt wird.
Kritiker sehen in Aussetzungen des Handels einen Widerspruch zur Idee des wirtschaftlichen Liberalismus, da dort Märkte frei von Beeinflussung sein sollen. Häufig wird der Handel eines bestimmten Wertpapiers oder gleich aller Wertpapiere an einer Wertpapierbörse ausgesetzt. Die Begründung dafür ist, dass bei steigenden Kursen Wertpapiere gekauft werden, womit der Kurs noch weiter steigt, und dass bei fallenden Kursen Wertpapiere verkauft werden, womit der Kurs noch weiter fällt. Die Nichtaussetzung von Kursen hat möglicherweise trendverschärfende Effekte. |
419 | 3979435 | https://de.wikipedia.org/wiki?curid=419 | Aššur-nâṣir-apli II. | Aššur-nâṣir-apli II. (auch "Aschschur-nasir-apli", "Assur-nasirpal") regierte als assyrischer König von 883 bis 859 v. Chr. Er war Sohn des Tukulti-Ninurta II.
Das Neuassyrische Reich gewann unter ihm wieder die Ausmaße der Zeit von Tukulti-apil-Ešarra I. Feldzüge führte Aššur-nâṣir-apli u. a. gegen Babylon und Urartu. In einem Feldzug gegen die Aramäer wurden 300 Talente Eisen als Kriegsbeute erwähnt, die den wirtschaftlichen Aufschwung der Aramäer deutlich machen.
Die Berichte seiner Eroberungen sind in übertreibenden Phrasen geschrieben. So wird die flache Gebirgsgruppe des Dschabal Bischri südwestlich des Euphrat als "hohe Berge, deren Spitzen die Vögel nicht erreichen" beschrieben.
Die Tribute und die Beute wurden unter anderem benötigt, um Bauvorhaben in Aššur, Ninive und Kalḫu zu finanzieren. Aššur-nâṣir-apli verlegte die Hauptstadt von Assur nach Kalḫu. Die Einweihung von Kalḫu wurde zehn Tage lang gefeiert. Anwesend waren rund 70.000 Gäste (Assyrer, Fremde aus mindestens zwölf Ländern, darunter Sidon, Tyros, Muṣaṣir, Kumme, Gurgum, Gilzanu und Melid), wie auf der 1951 von Max Mallowan entdeckten Bankett-Stele beschrieben. Der Palast besaß auch einen prächtigen Garten. In Imgur-Enlil errichtete er einen Tempel des Traumgottes Mamu, dessen Tore er mit Bronzereliefs verzieren ließ.
Aššur-nâṣir-apli führte Verwaltungsreformen durch. Ein eng gespanntes Botennetz erlaubte eine schnelle Nachricht von Aufständen, die so im Keim erstickt werden konnten. Unter Aššur-nâṣir-apli II. wurden die Deportationen in großem Stil ausgeweitet. Sein Nachfolger war sein Sohn Salmānu-ašarēd III. Seine Gemahlin war Mullissu-mukannišat-Ninua, die auch Mutter des Nachfolgers war. |
420 | 232955368 | https://de.wikipedia.org/wiki?curid=420 | Antioxidans | Ein Antioxidans oder Antioxidationsmittel (Mehrzahl Antioxidantien, auch Antioxidanzien) ist eine chemische Verbindung, die eine Oxidation anderer Substanzen verlangsamt oder gänzlich verhindert.
Antioxidantien haben eine große physiologische Bedeutung durch ihre Wirkung als Radikalfänger. Sie inaktivieren im Organismus reaktive Sauerstoffspezies (ROS), deren übermäßiges Vorkommen zu oxidativem Stress führt, der in Zusammenhang mit dem Altern und der Entstehung einer Reihe von Krankheiten gebracht wird. Geringe, d. h. physiologische Mengen an ROS dagegen sind als Signalmoleküle, die die Stressabwehrkapazität, Gesundheit und Lebenserwartung von Modellorganismen und des Menschen steigern, durchaus erforderlich. Eine nahrungsergänzende Zufuhr (Supplementierung) von Antioxidantien kann bestimmten Studien zufolge zu einer gesteigerten Krebshäufigkeit und zu einem erhöhten Sterberisiko des Menschen führen.
Antioxidationsmittel sind außerdem von großer, insbesondere technologischer Bedeutung als Zusatzstoffe für verschiedenste Produkte (Lebensmittel, Arzneimittel, Bedarfsgegenstände, Kosmetik, Gebrauchsmaterialien), um darin einen – besonders durch Luftsauerstoff bewirkten – oxidativen Abbau empfindlicher Moleküle zu verhindern. Der oxidative Abbau bestimmter Inhaltsstoffe oder Bestandteile wirkt sich wertmindernd aus, weil sich Geschmack oder Geruch unangenehm verändern (Lebensmittel, Kosmetika), die Wirkung nachlässt (bei Arzneimitteln), schädliche Abbauprodukte entstehen oder physikalische Gebrauchseigenschaften nachlassen (z. B. bei Kunststoffen).
Wirkungsmechanismus.
Nach Art des chemischen Wirkmechanismus werden Antioxidantien in Radikalfänger und Reduktionsmittel unterschieden. Im weiteren Sinne werden auch Antioxidations-Synergisten zu den Antioxidantien gerechnet.
Radikalfänger.
Bei Oxidationsreaktionen zwischen organischen Verbindungen treten vielfach kettenartige Radikalübertragungen auf. Hier werden Stoffe mit sterisch gehinderten Phenolgruppen wirksam, die im Ablauf dieser Übertragungen reaktionsträge stabile Radikale bilden, die nicht weiter reagieren, wodurch es zum Abbruch der Reaktionskaskade kommt (Radikalfänger). Zu ihnen zählen natürliche Stoffe wie die Tocopherole und synthetische wie Butylhydroxyanisol (BHA), Butylhydroxytoluol (BHT) und die Gallate. Sie sind wirksam in lipophiler Umgebung.
Reduktionsmittel.
Reduktionsmittel haben ein sehr niedriges Redox-Potential – ihre Schutzwirkung kommt dadurch zustande, dass sie eher oxidiert werden als die zu schützende Substanz. Vertreter sind etwa Ascorbinsäure (−0,04 V bei pH 7 und 25 °C), Salze der Schwefligen Säure (+0,12 V bei pH 7 und 25 °C) und bestimmte organische schwefelhaltige Verbindungen (z. B. Glutathion, Cystein, Thiomilchsäure), die vorwiegend in hydrophilen Matrices wirksam sind.
Antioxidationssynergisten.
Synergisten unterstützen die Wirkung von Antioxidantien, beispielsweise, indem sie verbrauchte Antioxidantien wieder regenerieren. Durch Komplexierung von Metallspuren (Natrium-EDTA) oder Schaffung eines oxidationshemmenden pH-Wertes können Synergisten die antioxidative Wirkung eines Radikalfängers oder Reduktionsmittels verstärken.
Vorkommen.
Natürliche Antioxidantien.
Viele Antioxidantien sind natürlich und endogen vorkommende Stoffe. Im Säugetierorganismus stellt das Glutathion ein sehr wichtiges Antioxidans dar, auch eine antioxidative Aktivität von Harnsäure und Melatonin ist bekannt. Ferner sind Proteine wie Transferrin, Albumin, Coeruloplasmin, Hämopexin und Haptoglobin antioxidativ wirksam. Antioxidative Enzyme, unter denen die wichtigsten die Superoxiddismutase (SOD), die Glutathionperoxidase (GPX) und die Katalase darstellen, sind zur Entgiftung freier Radikale in den Körperzellen ebenfalls von entscheidender Bedeutung. Für ihre enzymatische Aktivität sind Spurenelemente wie Selen, Kupfer, Mangan und Zink wichtig. Als antioxidativ wirksames Coenzym ist Ubichinon-10 zu nennen. Für den menschlichen Organismus essentiell notwendige und antioxidativ wirksame Stoffe wie Ascorbinsäure (Vitamin C), Tocopherol (Vitamin E) und Betacarotin (Provitamin A) können nicht bedarfsdeckend synthetisiert werden und müssen mit der Nahrung zugeführt werden (exogene Antioxidantien). Eine Reihe von Antioxidantien werden als Bestandteil der Muttermilch an den Säugling weitergegeben, um dort ihre Wirkung zu entfalten.
Als sekundäre Pflanzenstoffe kommen Antioxidantien wie Carotinoide und verschiedenste polyphenolische Verbindungen (Flavonoide, Anthocyane, Phytoöstrogene, Nordihydroguajaretsäure und andere) in zahlreichen Gemüse- und Obstarten, Kräutern, Früchten, Samen etc. sowie daraus hergestellten Lebensmitteln vor. Die Deutsche Gesellschaft für Ernährung (DGE) erachtet die wissenschaftliche Datenlage als nicht ausreichend, um Empfehlungen für die Zufuhr einzelner Antioxidantien abzugeben.
Synthetische Antioxidantien.
Zu den künstlichen Antioxidationsmitteln zählen die Gallate, Butylhydroxyanisol (BHA) und Butylhydroxytoluol (BHT). Durch eine synthetische Veresterung der Vitamine Ascorbinsäure und Tocopherol wird deren Löslichkeit verändert, um das Einsatzgebiet zu erweitern und verarbeitungstechnische Eigenschaften zu verbessern (Ascorbylpalmitat, Ascorbylstearat, Tocopherolacetat).
Ernährung.
Gesundheitlicher Stellenwert.
Freie Radikale sind hochreaktive Sauerstoffverbindungen, die im Körper gebildet werden und in verstärktem Maß durch UV-Strahlung und Schadstoffe aus der Umwelt entstehen. Ihr Vorkommen im Übermaß (oxidativer Stress) erzeugt Zellschäden und gilt nicht nur als mitverantwortlich für das Altern, sondern wird auch in Zusammenhang mit der Entstehung einer Reihe von Krankheiten gebracht. Geringe, d. h. physiologische Mengen an ROS dagegen sind als Signalmoleküle, die die Stressabwehrkapazität, Gesundheit und Lebenserwartung von Modellorganismen und des Menschen steigern, erforderlich. Einen Schutz vor den schädlichen Folgen zu hoher Mengen an freien Radikalen stellt das körpereigene Abwehrsystem dar, welches durch geringe Mengen an ROS – einer Impfung ähnlich – immer wieder aktiviert wird (siehe auch Mitohormesis).
Außer endogen gebildeten Antioxidantien wirken im Abwehrsystem auch solche, die mit der Nahrung zugeführt werden. Eine gesunde Ernährung unter Einbeziehung von mit an antioxidativ wirksamen Stoffen reichen Lebensmitteln gilt als effektive Vorbeugung vor Herz-Kreislauferkrankungen, eine Schutzwirkung vor bestimmten Krebsarten wird als möglich erachtet. Beides jedoch wird inzwischen nicht mehr als durch aussagekräftige Studien gesichert betrachtet.
Die Beurteilung polyphenolischer Pflanzeninhaltsstoffe dagegen ist in diesem Zusammenhang deutlich besser gesichert, und die wissenschaftliche Beweislage für die gesundheitsfördernde Wirkung bestimmter Polyphenole, besonders der im Tee, Kakao, Beeren und Rotwein vorkommenden Flavanole, hat sich in den letzten Jahren verstärkt. Dies scheint aber nicht damit in Verbindung zu stehen, dass diese Substanzen antioxidative Eigenschaften "in vitro" besitzen. Ein Expertengutachten geht davon aus, dass die antioxidative Kapazität, welche die Polyphenole und Flavonoide "in vitro" zeigen, kein Messwert für deren Wirkung im menschlichen Körper ist. Die Europäische Behörde für Lebensmittelsicherheit (EFSA) schloss sich dieser Einschätzung weitgehend an.
Häufigste Lebensmittelquellen.
Nach einer US-amerikanischen Untersuchung aus dem Jahr 2005 stammt der mit Abstand größte Teil der mit der täglichen Nahrung zugeführten physiologischen Antioxidantien in den USA aus dem Genussmittel Kaffee, was allerdings weniger daran liege, dass Kaffee außergewöhnlich große Mengen an Antioxidantien enthalte, als vielmehr an der Tatsache, dass die US-Amerikaner zu wenig Obst und Gemüse zu sich nähmen, dafür aber umso mehr Kaffee konsumierten.
Die antioxidative Kapazität eines Lebensmittels und somit die Fähigkeit zum Abfangen von Sauerstoffradikalen wird mit dessen ORAC-Wert angegeben.
Nahrungsergänzung.
Antioxidativ wirksame Substanzen werden in einer Reihe von Nahrungsergänzungsmitteln als „Anti-Aging“-Präparate und zur Krankheitsprävention (z. B. vor Krebs) auf dem Markt angeboten. Die enthaltenen antioxidativen Substanzen kommen auch natürlicherweise in der Nahrung vor, außerdem werden sie vielen Lebensmitteln zugesetzt, sodass in der Regel kein Mangel besteht. Es fehlen belastbare wissenschaftliche Nachweise, dass die Einnahme von Nahrungsergänzungsmitteln – in denen antioxidativ wirksame Substanzen meist isoliert und nicht im Verbund mit natürlichen Begleitstoffen enthalten sind – gesundheitlich vorteilhaft ist.
Im Gegenteil kann die Supplementierung der Antioxidantien beta-Carotin, Vitamin A sowie Vitamin E beim gesunden Menschen eine gesteigerte Entstehung von Krebs und eine Verringerung der Lebenserwartung bewirken, während Vitamin C als Supplement bzgl. Krebs und Lebenserwartung wirkungslos ist. Bei gesunden Sportlern wurde in einer 2009 veröffentlichten Studie ein kontraproduktiver Einfluss von Vitamin C und E auf den Trainingseffekt und die Vorbeugung von Diabetes gemessen, da diese Antioxidantien den Anstieg von Radikalen im Körper unterdrücken, sodass er sich weniger gut an die Belastung anpasste.
Auch bei bestimmten pathologischen Zuständen soll sich eine antioxidative Nahrungsergänzung nachteilig auswirken: bei Krebspatienten wurden Wechselwirkungen mit antineoplastischen Behandlungsmethoden (Chemotherapie, Strahlentherapie) oder andere schädliche Auswirkungen beschrieben.
Bezogen auf Antioxidantien in Form von Supplementen wird auf die finanziellen Interessen der Hersteller verwiesen: „Die Vorstellung von Oxidation und Altern wird von Leuten am Leben gehalten, die damit Geld verdienen.“
Seit 2013 gilt die Vorstellung als überholt, man könne das komplexe Netzwerk von antioxidativen Systemen im menschlichen Körper durch Flutung mit einer einzelnen per Supplement zugeführten Substanz verbessern.
Totale antioxidative Kapazität.
Die Bestimmung der totalen antioxidativen Kapazität ("total antioxidant capacity", TAC) in Körperflüssigkeiten liefert einen pauschalen Eindruck über die relative antioxidative Aktivität einer biologischen Probe. Es stehen verschiedene Möglichkeiten für die Bestimmung der antioxidativen Kapazität in Körperflüssigkeiten zur Verfügung. Das Grundprinzip all dieser Methoden ist gleich. Die in der biologischen Probe enthaltenen Antioxidantien schützen ein Substrat vor dem durch ein Radikal induzierten oxidativen Angriff. Die Zeitspanne und das Ausmaß, mit der die Probe diese Oxidation verhindert, kann bestimmt werden und wird meist mit Trolox (wasserlösliches Vitamin-E-Derivat) oder Vitamin C als Standard verglichen. Je länger es dauert, ein Substrat zu oxidieren, desto höher ist die antioxidative Kapazität. Durch verschiedene Extraktionen kann man die antioxidative Kapazität lipidlöslicher und wasserlöslicher Substanzen untersuchen. Oft angewandte Tests sind TRAP ("Total Peroxyl Radical-trapping Antioxidant Parameter"), ORAC ("Oxygen Radical Absorbance Capacity"), TEAC ("Trolox Equivalent Antioxidative Capacity"), FRAP ("Ferric Ion Reducing Antioxidant Power") und PLC (Photochemilumineszenz).
Im Jahre 2010 wurde in den USA die totale antioxidative Kapazität durch Ernährung und Nahrungsergänzungsmittel bei Erwachsenen untersucht. Dabei wurden Datenbanken des US-Department für Landwirtschaft, Daten zu Nahrungsergänzungsmitteln und zum Lebensmittelverzehr von 4391 US-Erwachsenen im Alter ab 19 Jahren ausgewertet. Um die Daten zur Aufnahme von einzelnen antioxidativen Verbindungen zu TAC-Werten zu konvertieren, wurde die Messung des Vitamin-C-Äquivalent (VCE) von 43 antioxidativen Nährstoffen zuvor angewendet. Die tägliche TAC lag durchschnittlich bei 503,3 mg VCE/Tag, davon ca. 75 Prozent aufgenommen durch die Nahrung und 25 Prozent durch Nahrungsergänzungsmittel.
Nichtinvasive Messung von Antioxidantien am Menschen.
Die Hochleistungsflüssigkeitschromatographie gilt als Goldstandard zur Bestimmung von Antioxidantien. Die Analyse erfordert entweder Blutproben oder die Entnahme von Hautbiopsien. Zur Analyse kurzfristiger Änderungen eignet sie sich deshalb nur bedingt. Aus diesem Grund wurden Verfahren entwickelt, mit denen Antioxidantien nichtinvasiv durch direkte Messung an spezifischen Hautarealen bestimmt werden. Gemessen werden Carotinoide als bester biologischer Marker für den Konsum von Obst und Gemüse.
Ein in diesem Zusammenhang wichtiges Verfahren ist die Resonanz-Raman-Spektroskopie. Prinzipiell erfordert sie schmalbandige Lichtquellen (meist Laser) zur Beleuchtung. Das aus der Haut zurückgestreute Licht wird über ein dispersives Element (meist ein Optisches Gitter) in seine spektralen Anteile zerlegt. Während die Messung in der Vergangenheit mit Laborgeräten erfolgte, sind inzwischen auch Tischgeräte verfügbar.
Ein weiteres Verfahren, mit dem Antioxidantien erfolgreich am Menschen gemessen wurden, ist die Reflexionsspektroskopie. Im Unterschied zur Resonanz-Raman-Spektroskopie kommen zur Beleuchtung der Haut breitbandige Lichtquellen oder LEDs zum Einsatz. Der apparative Aufwand ist insgesamt geringer, sodass Antioxidantien-Scanner auch als Handgeräte realisiert werden können, die in ihrem Messergebnis jedoch sehr gut mit den Ergebnissen der Resonanz-Raman-Spektroskopie korrelieren.
Technische Verwendung.
In der Industrie werden Antioxidantien als Zusatzstoffe (Additive) benötigt, um die oxidative Degradation von Kunststoffen, Elastomeren und Klebstoffen zu verhindern. Sie dienen außerdem als Stabilisatoren in Treib- und Schmierstoffen. In Kosmetika auf Fettbasis, etwa Lippenstiften und Feuchtigkeitscremes, verhindern sie Ranzigkeit. In Lebensmitteln wirken sie Farb- und Geschmacksveränderungen entgegen und verhindern ebenfalls das Ranzigwerden von Fetten.
Obwohl diese Additive nur in sehr geringen Dosen benötigt werden, typischerweise weniger als 0,5 Prozent, beeinflussen ihr Typ, die Menge und Reinheit drastisch die physikalischen Parameter, Verarbeitung, Lebensdauer und oft auch Wirtschaftlichkeit der Endprodukte. Ohne Zugabe von Antioxidantien würden viele Kunststoffe nur kurz überleben. Die meisten würden sogar überhaupt nicht existieren, da viele Plastikartikel nicht ohne irreversible Schäden fabriziert werden könnten. Das Gleiche gilt auch für viele andere organische Materialien.
Kunst-, Kraft- und Schmierstoffe.
Es kommen hauptsächlich sterisch gehinderte Amine ("hindered amine stabilisers", HAS) aus der Gruppe der Arylamine zum Einsatz und sterisch gehinderte Phenolabkömmlinge, die sich strukturell oft vom Butylhydroxytoluol ableiten (Handelsnamen "Irganox", "Ethanox", "Isonox" und andere).
Lebensmittel, Kosmetika, Arzneimittel.
Zulässige Antioxidantien sind in Deutschland in der Verordnung (EG) Nr. 1333/2008 und der Kosmetik-Verordnung geregelt.
Beispiele für antioxidative Lebensmittelzusatzstoffe sind in der Tabelle angegeben.
Als Lebensmittelzusatz aufgrund lebertoxischer Wirkungen seit 1968 nicht mehr erlaubt ist die Nordihydroguajaretsäure, ein höchst wirksames Antioxidans zur Haltbarmachung von Fetten und Ölen, das aber weiterhin in kosmetischen Präparaten zulässig ist.
Lebensmitteltechnisch und pharmazeutisch gebräuchliche Antioxidationssynergisten sind unter anderem Citronensäure und ihre Salze (E330–E333), Weinsäure und ihre Salze (E334–E337), Phosphorsäure und ihre Salze (E338–E343) und Ethylendiamintetraessigsäure (EDTA) und ihre Salze (Calciumdinatrium-EDTA, E385).
Analytik.
Die zuverlässige qualitative und quantitative Bestimmung der verschiedenen Antioxidantien gelingt nach angemessener Probenvorbereitung durch Kopplung der HPLC oder Gaschromatographie mit der Massenspektrometrie. |
422 | 715415 | https://de.wikipedia.org/wiki?curid=422 | Aszites | Der Aszites (auch "Ascites", von ) ist die medizinische Benennung für eine übermäßige Ansammlung von freier, meist klarer seröser Flüssigkeit in der Bauchhöhle, genauer im Peritonealraum; andere Ausdrücke für diese Flüssigkeitsansammlung sind Hydraskos, Bauchwassersucht oder Wasserbauch.
Bei Gesunden enthält der Peritonealraum nur zirka 50 bis 70 Milliliter Flüssigkeit. Bei manchen Krankheiten, z. B. bei einer Leberzirrhose, nimmt die Menge erheblich zu; deswegen sprach man (nach Hippokrates) früher auch von einer "Leberwassersucht". Bei einer Mangelernährung mit unzureichender Aufnahme von Proteinen wird auch vom Hungerbauch (Kwashiorkor) gesprochen.
Der bereits in der Antike bekannte Zusammenhang des Aszites mit Lebererkrankungen wurde in den frühen hippokratischen Schriften als durch einen Einschmelzungsvorgang der Leber und später (bei Erasistratos) als zirrhotisch bedingt angesehen.
Symptomatik.
Kleinere Aszitesmengen sind meist symptomlos. Erst größere Volumina machen sich als Schwellung des Bauches bemerkbar, die meist schmerzlos ist.
Ätiologie und Pathophysiologie.
Allen Ursachen gemeinsam ist der Übertritt von Flüssigkeit aus den Blutgefäßen in den Peritonealraum. Der Aszites gehört zusammen mit Hepatischer Enzephalopathie und Ösophagusvarizen zu den lebensbedrohlichen Komplikationen der dekompensierten Leberzirrhose. Mit rund 75 % ist die Leberzirrhose auch die häufigste Ursache für Aszites, da sie durch eine Erhöhung des Drucks im Pfortaderkreislauf zu einem Flüssigkeitsaustritt aus den Blutgefäßen führt. Aszites kann auch bei einem akuten Leberschaden auftreten. Ebenso kann ein Verschluss der venösen Sinus der Leber, z. B. beim Budd-Chiari-Syndrom, zur Bildung von Aszites führen. Auch bei einer Herzinsuffizienz oder einer Pericarditis constrictiva kann es zu Aszites kommen. Tumoren der Leber oder Metastasen im Bauchraum können ebenso eine Flüssigkeitsansammlung bedingen. Bei Perforationen von Hohlorganen führt eine sekundäre Peritonitis (Entzündung des Bauchfells) auch zur Bildung von freier Flüssigkeit im Peritonealraum. Eine Tuberkulose kann solchen Aszites chronisch bedingen. Ebenso kann eine Pankreatitis oder Fisteln des Gallen- oder Pankreassystems zur Bildung von Aszites führen. Bei schwerer Unterernährung kommt es durch Albuminmangel oft zu Aszites.
Diagnostik.
Um zu klären, warum sich Aszites gebildet hat, ist eine Punktion des Peritonealraums und Untersuchung der Flüssigkeit obligat.
Der Aszites ist meist eine klare Flüssigkeit. Milchiger Aszites weist auf eine Verletzung oder Störung des Lymphabflusses (zum Beispiel durch ein Trauma) hin, kann aber auch bei anderen Erkrankungen vorkommen. Dunkelbrauner Aszites erhält seine Farbe oft durch einen hohen Anteil an Bilirubin und ist hinweisend für ein Galleleck. Schwarzer Aszites kann auf Nekrosen des Pankreas oder ein metastasiertes Melanom hinweisen.
Der Eiweißgehalt des Aszites kann einen Hinweis für die Genese erbringen. Bei einem Eiweißgehalt über 2,5 g/dl (= Exsudat) liegt ein entzündlicher Aszites vor, bei einem Wert unter 2,5 g/dl (= Transsudat) besteht ein nicht-entzündlicher Aszites. Alternativ kann der Albumingehalt des Aszites in Relation zum Albumingehalt des Bluts gesetzt werden. Beträgt dieser Serum-Aszites-Albumin-Gradient (SAAG = Serumalbuminkonzentration minus Aszitesalbuminkonzentration) mehr als 1,1 g/dl, ist von einer Bildung des Aszites durch einen Bluthochdruck in der Pfortader auszugehen. Dabei spricht ein Gradient von 1,1 g/dl bis 2,5 g/dl für das Vorliegen einer Leberzirrhose, der Spätform eines Budd-Chiari-Syndroms oder einer massiven Metastasierung der Leber. Ein auf über 2,5 g/dl erhöhter Gradient spricht für Aszitesbildung im Rahmen einer Herzinsuffizienz oder eines frühen Budd-Chiari-Syndroms. Ein SAAG von kleiner 1,1 g/dl spricht gegen eine Genese des Aszites im Rahmen eines Pfortaderhochdrucks. Dies kann im Rahmen einer Pankreatitis, einer Peritonealkarzinose, eines Gallelecks, einer Tuberkulose oder eines nephrotischen Syndroms auftreten. Eine laborchemische Untersuchung auf Zellzahl kann eine spontan bakterielle Peritonitis nachweisen. Mikrobiologische und zytologische Untersuchungen sind ebenso sinnvoll. Weitere durch hohen Blutdruck in der Pfortader ausgelöste Komplikationen der Leberzirrhose sind Varizenblutungen und die hepatische Enzephalopathie.
Komplikationen.
Eine gefährliche Komplikation des Aszites ist die "spontan bakterielle Peritonitis" (SBP): Bei etwa 15 % der Patienten mit portalem Aszites (also Aszites aufgrund einer Druckerhöhung in der Pfortader wie bei Leberzirrhose) kommt es zu einer Auswanderung von Darmbakterien aus dem Darm mit anschließender Peritonitis. Die häufigsten Erreger sind hierbei "Escherichia coli" (50 %), grampositive Kokken (30 %) und Klebsiellen (10 %). Die Patienten haben meist weder Fieber noch Abdominalschmerzen, diagnostisch hilft die Aszitespunktion, bei der sich über 250 Granulozyten/µl finden. Der Keimnachweis gelingt oft nicht. Dennoch ist die SBP mit einer hohen Letalität von bis zu 50 % verbunden. Therapie: Cephalosporine der dritten Generation, anschließend Rezidivprophylaxe mit oralem Fluorchinolon.
Eine neuere mikrobiologische Studie widerlegt allerdings die Vermutung, dass die für SBP verantwortlichen Bakterien ausschließlich Mitglieder der Darmflora sind. Außerdem waren Bakterien bereits vor dem Erscheinen der SBP-Symptome nachweisbar. Die genauen Mechanismen, die zu einer Besiedlung des Peritoneums führen, sind daher weitgehend unklar.<ref name="DOI10.1371/journal.pone.0074884">Geraint B. Rogers, Christopher J. van der Gast u. a.: "Ascitic Microbiota Composition Is Correlated with Clinical Severity in Cirrhosis with Portal Hypertension." In: "PLoS ONE." 8, 2013, S. e74884, .</ref>
Therapie.
Leichte Fälle des Aszites können mit Natriumrestriktion behandelt werden. Etabliert hat sich beim portalen Aszites auch die Gabe von Spironolacton, einem Aldosteronantagonisten. Elektrolyte und Gewicht müssen regelmäßig kontrolliert werden, ebenso sollte man eine Flüssigkeitsbilanz ziehen.
Mittelschwere Fälle werden mit der zusätzlichen Gabe eines Schleifendiuretikums, z. B. Furosemid, behandelt. Die Ausschwemmung sollte schonend erfolgen, d. h. nicht mehr als 500 g Gewichtsabnahme pro Tag, um der Entstehung eines hepatorenalen Syndroms vorzubeugen.
Schwere, therapierefraktäre Verläufe können zusätzlich mit Parazentese, also der Abpunktion der Flüssigkeit, mit gleichzeitiger Albumingabe und anschließender Rezidivprophylaxe mit Diuretika (Medikamente zur Steigerung der Nierenausscheidung) behandelt werden. Bei dieser Methode wird der Erguss durch die Bauchdecke punktiert und abgelassen. Da sich der Aszites meist schnell wieder bildet, muss diese Methode zwangsläufig wiederholt werden. Dies kann vom Arzt zwar ambulant durchgeführt werden, Nachteile sind jedoch dabei, dass bei jeder Wiederholung das Risiko von Blutungen, von bakteriellen Infektionen des Bauchraums und von Verletzungen vorhanden ist. Es hat sich gezeigt, dass Patienten aufgrund der Schmerzen und Unannehmlichkeiten oft die Punktionen hinauszögern, bis die Symptome unerträglich sind. Als Alternative zu den fortlaufenden Punktionen hat sich in letzter Zeit das Legen eines dünnen Ablaufschlauchs (PleurX Aszites) in die Bauchhöhle bewährt. Der im Bauchraum liegende Teil des Silikonschlauches hat mehrere Löcher, über die der Erguss in den Katheter eintreten kann. Außerhalb der Bauchhöhle verläuft der Schlauch im Unterhautfettgewebe, um bakterielle Entzündungen zu verhindern. Am Ende des Schlauchs befindet sich ein Ventil, das Eintreten von Luft und das Auslaufen von Flüssigkeit verhindert, wenn keine aktive Entlastung durch den Patienten oder den Pflegedienst stattfindet. Die Entlastung des Ergusses erfolgt mit einer Vakuumflasche, die über ein Spezialventil mit dem Katheter verbunden wird. Wenn die Klemmen an der Drainageflasche geöffnet werden, kann Flüssigkeit aus dem Bauchraum aktiv und schnell abgelassen werden. Die meisten Patienten können dies nach einer Einweisung selbst bewerkstelligen. Der Katheter kann ambulant mit örtlicher Betäubung gelegt werden, das Ablassen des Aszites selbst ist schmerzfrei. Ebenso kann ein TIPS (transjugulärer intrahepatischer portosystemischer (Stent-)Shunt), also eine Verbindung zwischen der Pfortader und der unteren Hohlader, angelegt werden. Hierbei kommt es anschließend allerdings zu einem beinahe ungehinderten Anstrom der normalerweise von der Leber abgebauten Stoffe in den Körperkreislauf. Das bei Leberzirrhose ohnehin in der Entgiftungsfunktion eingeschränkte Organ verliert so die Fähigkeit, Giftstoffe wie Ammoniak zu verstoffwechseln. Dadurch steigt die Gefahr für das Auftreten weiterer Komplikationen, beispielsweise einer portalen Hypertension oder einer hepatischen Enzephalopathie. Kürzlich veröffentlichte Studiendaten zeigen im Rahmen einer Therapie der hepatischen Enzephalopathie auch eine Senkung des Risikos für zusätzliche Leberzirrhose-Komplikationen wie eine "spontan bakterielle Peritonitis" (SBP) oder Varizenblutungen.
Eine weitere Option bei Leberzirrhose ist eine Transplantation. Allerdings stehen nicht ausreichend Organe zur Verfügung. So standen Ende des Jahres 2017 rund 2.000 Patienten auf der Warteliste für eine Lebertransplantation – während nur 823 Patienten tatsächlich eine Spenderleber erhielten.
Maligner Aszites wird häufig mit wiederholten Parazentesen behandelt. Zudem kommen Shunts und Chemotherapien zum Einsatz, die teilweise direkt in den Peritonealraum (intraperitoneal) verabreicht werden, ebenso wie der speziell für die Therapie des malignen Aszites zugelassene Antikörper Catumaxomab.
Zwei wissenschaftliche Studien aus den Jahren 2011 und 2013 zeigen als Alternative zur Parazentese bei malignem und nicht malignem Aszites die Anlage eines im Unterhautfettgewebe getunnelten Katheters. Der Patient, seine Angehörigen oder der Pflegedienst können im häuslichen Umfeld den Aszites drainieren. |
423 | 234778533 | https://de.wikipedia.org/wiki?curid=423 | Aggregat 4 | Aggregat 4 (A4) war die Typenbezeichnung der im Jahr 1942 weltweit ersten funktionsfähigen Großrakete mit Flüssigkeitstriebwerk. Sie war als ballistische Artillerie-Rakete großer Reichweite konzipiert und das erste von Menschen konstruierte Objekt, das die Grenze zum Weltraum – nach Definition der Fédération Aéronautique Internationale 100 Kilometer Höhe (Kármán-Linie) – durchstieß. Die A4 bildete ab Mitte 1945 die Ausgangsbasis der Raumfahrtentwicklungen der USA und der Sowjetunion.
Die Boden-Boden-Rakete A4 wurde im Deutschen Reich in der Heeresversuchsanstalt Peenemünde (HVP) auf Usedom ab 1939 unter der Leitung von Wernher von Braun entwickelt und kam im Zweiten Weltkrieg ab 1944 in großer Zahl zum Einsatz. Neben der flugzeugähnlichen Fieseler Fi 103, genannt "V1", bezeichnete die NS-Propaganda auch die Rakete "A4" als kriegsentscheidende „Wunderwaffe“. Im August 1944 wurde sie von Propagandaminister Joseph Goebbels erstmals intern und im Oktober 1944 öffentlich zur "Vergeltungswaffe 2", kurz "V2", erklärt. In der deutschen Presse war spätestens ab Dezember 1944 von der "Fernwaffe „V 2“" die Rede. Die Starteinheiten von Wehrmacht und SS nannten sie schlicht „Das Gerät“.
Entwicklung.
Erste Versuche mit Flüssigbrennstoffraketen fanden von 1932 an an der Heeresversuchsanstalt Kummersdorf statt. Ab 1937 wurden die Versuche schrittweise nach Peenemünde verlegt. Im März 1936 hatte man für die A4-Raketenentwicklung in der dortigen Versuchsstelle folgendes Anforderungsprofil formuliert: Eine Tonne Nutzlast (Sprengstoff) sollte über 250 Kilometer bei einer Abweichung von 1 Promille (250 Meter) befördert werden.
Neben dem Technischen Direktor Dr. Wernher von Braun war eine große Zahl von Wissenschaftlern und Ingenieuren in der HVP tätig, unter ihnen Walter Thiel, Helmut Hölzer, Klaus Riedel, Helmut Gröttrup, Kurt Debus und Arthur Rudolph. Leiter der HVP bzw. zeitweise deren Kommandeur war Generalmajor Walter Dornberger, Chef der Raketenabteilung im Heereswaffenamt (Wa Prüf R, später Wa Prüf 11).
Die Vorgängermodelle des Aggregats 4 waren nur teilweise erfolgreich: Aggregat 1 explodierte beim Brennversuch in der Heeresversuchsanstalt Kummersdorf, Aggregat 2 absolvierte 1934 zwei erfolgreiche Starts auf Borkum und im Dezember 1937 hatte Aggregat 3 vier Fehlstarts. Erst der direkte Nachfolger Aggregat 5 war 1938 erfolgreich. Das Aggregat 4 wurde ab 1939 entwickelt und erstmals im März 1942 getestet. Am 3. Oktober 1942 gelang ein erfolgreicher Start, bei dem es mit einer Spitzengeschwindigkeit von 4.824 km/h (etwa Mach 4,5) eine Gipfelhöhe von 84,5 km erreichte und damit erstmals in den Grenzbereich zum Weltraum vordrang. Dies war der erste gelungene Großraketenstart der Menschheitsgeschichte. Aufgrund mehrerer Strukturversagen im Flug begannen im Juni 1944 Teststarts, welche zwecks verbesserter Verfolgbarkeit senkrecht erfolgten. Am 20. Juni 1944 wurde bei einem Senkrechtstart eine Rekordhöhe von 174,6 km erzielt. Bereits zwei Tage zuvor hatte die Rakete mit der Werk-Nr. MW 18012 eine Gipfelhöhe von etwa 127 km erreicht; damit übertraf diese Rakete die heutige anerkannte Weltraumgrenze von 100 km Höhe (die Kármán-Linie) deutlich und war der erste menschengemachte Gegenstand im Weltraum.
Am 26. Mai 1943 fand ein Vergleichsschießen mit der Flugbombe Fi 103 in Peenemünde statt. Danach fiel die Entscheidung, beide Waffen parallel weiter zu entwickeln und einzusetzen. Die Flügelbombe galt als das einfachere System, das in größerer Stückzahl herzustellen, auf kürzeren Distanzen einzusetzen war und die Rakete als Hauptangriffswaffe unterstützten sollte.
Nach den Luftangriffen der Royal Air Force auf Peenemünde (s. Operation Hydra am 17. August 1943) wurde beschlossen, die Ausbildung der Raketentruppen und die Scharferprobung der A4-Raketen nicht in Peenemünde, sondern in Südostpolen außerhalb der Reichweite der alliierten Bomber durchzuführen: anfangs für die westalliierten Bomber unerreichbar im Karpatenvorland auf dem SS-Truppenübungsplatz Heidelager bei Blizna im Generalgouvernement, wurden die Übungen wegen der anrückenden Roten Armee später auf den SS-Truppenübungsplatz Westpreußen in die Tucheler Heide nördlich von Bromberg verlegt.
Die Bevölkerung um Blizna war dabei rücksichtslos den A4- und Fieseler-Fi-103-Einschlägen ausgeliefert. Auf Flugblättern warnte man vor Ort lediglich vor gefährlichen Kraftstoffbehältern, die aber keine Bomben seien.
Am 20. Mai 1944 stellten Mitglieder der polnischen Heimatarmee Teile eines abgestürzten A4 sicher. Die wichtigsten Teile wurden zusammen mit den in Polen vorgenommenen Auswertungen in der Nacht vom 25. zum 26. Juli 1944 mit einer DC-3 der RAF, die in der Nähe von Żabno gelandet war, nach Brindisi ausgeflogen (Operation Most III). Von dort aus kamen die Teile nach London, was der britischen Regierung erstmals die Existenz einer deutschen Rakete bewies.
Von Peenemünde und der Greifswalder Oie aus erfolgten noch bis einschließlich 20. Februar 1945 Versuchsstarts von A4-Raketen.
Aufbau.
Die A4-Rakete war 14 Meter hoch und hatte vollgetankt eine Startmasse von 13,5 Tonnen. Die einstufige Rakete bestand aus etwa 20.000 Einzelteilen. Der Rumpf bestand aus Spanten und Stringern, die mit dünnem Stahlblech beplankt waren. Die Technik bestand aus vier Baugruppen:
Als Zubehör zur Verwendung der A4-Rakete wurden unterschiedliche Start- und Transportgerätschaften genutzt und in der Bedienvorschrift "Die A4-Fibel: Handbuch zum Start der A4" beschrieben. Unter anderem sind dazu bekannt:
Sprengstoff.
Die etwa 738 kg Sprengstoff (Vergleichsweise mit etwa 600 kg TNT) einer Amatol-Mischung waren in der Raketenspitze untergebracht. Da sich diese während des Flugs durch Kompressionswärme an der Außenhaut der Verkleidung aufheizte, konnten nur Sprengstoffmischungen verwendet werden, deren Zündtemperatur über 200 °C lag.
Steuerung.
Für die Stabilisierung und Steuerung sorgte das Leitwerk mit den Luftrudern, welche aber erst bei höherer Geschwindigkeit wirkten. Kurz nach dem Start waren die direkt im Gasstrom liegenden vier Strahlruder aus Graphit für die Stabilisierung zuständig. Alle Ruder wurden von Servomotoren bewegt.
Als einer der ersten Flugkörper war das A4 mit einem für die damalige Zeit sehr fortschrittlichen Trägheitsnavigationssystem ausgestattet, das mit zwei Kreiselinstrumenten (Gyroskopen) selbsttätig den eingestellten Kurs hielt. Hersteller war das Kieler Unternehmen Anschütz & Co. Die elektrische Energie für Kurssteuerung und Ruderanlage wurde den beiden Bordbatterien entnommen, die aus dem Werk Hagen der Accumulatoren Fabrik AG (AFA) stammten. Die Batterien waren unterhalb des Sprengkopfes im Geräteraum eingebaut, wo sich auch das sogenannte „Mischgerät“ befand, ein elektronischer Analogrechner, der die von den Gyroskopen registrierten Abweichungen von Quer- und Seitenachse auswertete und zur Kurskorrektur die Servomotoren der Strahl- und Luftruder ansteuerte. Um eine bessere Zielgenauigkeit zu erreichen, wurde in mehreren Versuchsraketen auch eine Funksteuerung erprobt, die aber im späteren Einsatz wegen möglicher Störungen von Seiten des Feindes nicht verwendet wurde.
Die beim Start eingestellte Zeitschaltuhr sorgte dafür, dass der Neigungswinkel der Kreiselplattform nach vier Sekunden Brennzeit so verändert wurde, dass die Rakete aus der Senkrechten in eine geneigte Flugbahn überging. Durch ein Integrationsgerät (J-Gerät), das aufgrund der summierten Beschleunigung die aktuelle Geschwindigkeit berechnete, wurde bei der richtigen Geschwindigkeit das Triebwerk abgeschaltet, um damit die Reichweite zu steuern. Dazu wurde am J-Gerät ein Wert eingestellt, der einer Schuss-Tafel entnommen werden konnte. Der Neigungswinkel war bei jedem Schuss gleich. Vor dem Start musste die Rakete auf ihrem Starttisch exakt senkrecht gestellt und so gedreht werden, dass eine besonders markierte Flosse in Zielrichtung zeigte.
Antrieb.
Das Aggregat 4 war eine Flüssigkeitsrakete und wurde mit einem Gemisch aus 75-prozentigem Ethanol und Flüssigsauerstoff angetrieben. Unter der Leitung des Ingenieurs Walter Thiel wurden das beste Mischungsverhältnis der Treibstoffe, die Einspritzdüsenanordnung sowie die Form des Raketenofens ermittelt. Eine Pumpenbaugruppe war nötig, welche die großen Mengen an Alkohol und flüssigem Sauerstoff in die Brennkammer fördern konnte. Zum Antrieb dieser Doppelpumpe diente eine integrierte Dampfturbine von 600 PS Leistung. In einem Dampferzeuger wurde durch die katalytische Zersetzung von Wasserstoffperoxid mittels Kaliumpermanganat Dampf erzeugt. Zur Förderung des Wasserstoffperoxids war auf 200 bar komprimierter Stickstoff in mehreren Druckbehältern an Bord; dieser diente auch zur Betätigung diverser Ventile. Die Kreiselsteuerung und das präzise und daher sehr aufwendig zu fertigende Pumpenaggregat waren die beiden teuersten Bauteile des A4.
Die Rakete hatte einen anfänglichen Schub von 270 kN, entsprechend einer Leistung von 650.000 PS, und erreichte nach einer Brenndauer von etwa 65 Sekunden ihre Höchstgeschwindigkeit von etwa 5.500 km/h, etwa Mach 5. Die Verbrennungsgase verließen den Brennofen (Raketenmotor) mit etwa 2.000 m/s. Da der gesamte Flug bei einer Reichweite von 250 bis 300 km nur 5 Minuten dauerte, gab es damals keine Abwehrmöglichkeit gegen diese Waffe.
Fertigung.
Nach dem erfolgreichen Start vom 3. Oktober 1942 wurde trotz paralleler Weiterentwicklung zur Behebung technischer Mängel die Serienfertigung angeordnet.
Die Fertigungsstätten für Teile des A4 waren über ganz Deutschland verstreut: Unter dem Tarnnamen „Rebstock“ bei Ahrweiler an der Ahr wurden in unfertigen Eisenbahntunneln Bodenanlagen und Fahrzeuge für die Rakete unter Tage produziert. Zwischen 1942 und September 1944 wurde unter starker Geheimhaltung auch bei Friedrichshafen-Raderach gefertigt. Das Gelände wurde im Januar 1945 beim Herannahen französischer Truppen geräumt. Weitere Lieferanten waren die Unternehmen "Gustav Schmale" in Lüdenscheid, in der Teile der Brennkammer gefertigt wurden, und die "Accumulatoren Fabrik AG" (AFA) in Hagen-Wehringhausen, welche die speziellen Akkumulatoren herstellte. Anfang 1944 wurde der Betrieb von Triebwerksprüfständen im „Vorwerk Schlier“, KZ-Nebenlager Redl-Zipf auf dem Gemeindegebiet von Neukirchen an der Vöckla, und im „Vorwerk Mitte Lehesten“, KZ-Außenlager Laura im Thüringer Schiefergebirge aufgenommen.
1943 lief in insgesamt vier Orten die Serienfertigung des A4, welche, so Dornberger in einem Protokoll zu einer Besprechung mit Gerhard Degenkolb und Kunze, „grundsätzlich mit Sträflingen durchgeführt“ werde. Dafür zog man Häftlinge aus folgenden Konzentrationslagern heran: KZ Buchenwald (HVA Peenemünde ab Juni), KZ Dachau (Luftschiffbau Zeppelin „Friedrichshafener Zeppelinwerke“ ab Juni/Juli), KZ Mauthausen (Rax-Werke in Wiener Neustadt ab Juni/Juli) und KZ Sachsenhausen (DEMAG-Panzer in Falkensee bei Berlin ab März). Einzelne wissenschaftliche Mitarbeiter wählte Wernher von Braun persönlich unter den Häftlingen im KZ-Buchenwald aus.
Insgesamt wurden während des Zweiten Weltkrieges 5.975 Raketen von Zwangsarbeitern, KZ-Häftlingen und deutschen Zivilbeschäftigten aus tausenden Einzelteilen zusammengebaut. Hinzu kommen mindestens 314 Raketen, die im Rahmen der Entwicklung in Peenemünde gebaut wurden.
Am 29. Oktober 1944 wurde Dornberger nach dem Einsatz des A4 als "V2" an der Westfront mit dem Ritterkreuz des Kriegsverdienstkreuzes mit Schwertern ausgezeichnet.
Ab 1944 fand die Montage der A4 im unterirdischen Komplex der Mittelwerk GmbH in einer Stollenanlage im Kohnstein nahe Nordhausen durch Häftlinge des KZ Mittelbau-Dora statt. Im Schnitt waren etwa 4.000 Häftlinge des KZ Mittelbau unter Aufsicht von ungefähr 3.000 Zivilangestellten mit dem Zusammenbau beschäftigt. Für das hochtechnologische Projekt wurden auch spezialisierte inhaftierte Facharbeiter und Ingenieure aus dem gesamten Reichsgebiet und den besetzten Staaten gezielt herangezogen. Obwohl viele von ihnen erst nach einer handwerklichen Prüfung in den Kohnstein verschleppt wurden, erwarteten sie dort keine besseren Arbeits- und Haftbedingungen als in anderen Konzentrationslagern. Vielmehr befürchteten sie, dass man sie wegen ihrer Einblicke in dieses Staatsgeheimnis nicht mehr freilassen würde. Wie unmenschlich die Behandlung auch durch zivile Ingenieure zeitweise war, zeigt etwa eine schriftliche Anweisung, die Häftlinge bei Verfehlungen nicht mehr mit spitzen Gegenständen zu stechen. Es gab Sabotageakte; die Fertigung der Rakete war aber nie ernstlich behindert. Bei der Endabnahme erwies sich jede zweite Rakete als nicht voll funktionstüchtig und musste nachgebessert werden; dies lag in erster Linie daran, dass die Ingenieure aus Peenemünde fast täglich bauliche Änderungen anordneten, was den laufenden Produktionsprozess erheblich beeinträchtigte.
Opfer.
Insgesamt wurden 60.000 Häftlinge in den KZ-Komplex Mittelbau-Dora (inkl. Außenlager) verschleppt und fast 90 Prozent von diesen als Berg- und Bauarbeiter ausgebeutet. 16.000 bis 20.000 KZ-Häftlinge und Zwangsarbeiter, die meisten zwanzig- bis vierzigjährig, starben nach Schätzungen zwischen September 1943 und April 1945 im Lagerkomplex Mittelbau-Dora sowie auf Liquidations- oder sogenannten Evakuierungstransporten. Unter den Opfern befanden sich allerdings auch etwa 1.300 in der Boelcke-Kaserne Zurückgelassene, die größtenteils durch zwei britische Luftangriffe am 3. und 4. April 1945 auf Nordhausen getötet worden waren. Etwa 8.000 Menschen verloren ihr Leben durch den Einsatz der Waffe, die meisten im Raum London und Antwerpen (s. u. Einsatz).
Laut Jens-Christian Wagner, Leiter der Gedenkstätte KZ Mittelbau-Dora, sind somit Wagner lässt dabei jedoch außer Acht, dass nur knapp 4.000 Häftlinge zu den privilegierten gehörten, die qualifizierte Arbeiten in der A4-Fertigung verrichteten. Wie viele Häftlinge starben, die direkt in der A4-Produktion arbeiteten, wurde bislang noch nicht untersucht. Hinzu kommt, dass im Mittelwerk neben der A4-Rakete und anderen Rüstungsgütern auch die Flugbombe Fieseler Fi 103 („V1“) in Serie gefertigt wurde. Durch den Einsatz beider „Vergeltungswaffen“ gab es in England und Belgien über 17.500 Tote und mindestens 47.000 Verletzte. Einziger Ingenieur der V2-Produktion, der je vor Gericht gestellt wurde, war der DEMAG-Geschäftsführer und Generaldirektor der Mittelwerk GmbH Georg Rickhey. 1947 im „Dachauer Dora-Prozess“ angeklagt, wurde er freigesprochen, obwohl im Prozess der mitangeklagte Funktionshäftling Josef Kilian aussagte, dass Rickhey bei einer besonders brutal inszenierten Massenstrangulation von 30 Häftlingen am 21. März 1945 in Mittelbau-Dora anwesend war.
1943 gelang es der Widerstandsgruppe rund um Kaplan Heinrich Maier durch die Verbindungen zum Wiener Stadtkommandanten Heinrich Stümpfl, der wahrscheinlich dem Widerstand zugerechnet werden kann, die exakten Zeichnungen der V2-Rakete dem amerikanischen Office of Strategic Services zukommen zu lassen. Auch wurden Lageskizzen von V-Raketen-Fabrikationsanlagen in Peenemünde an alliierte Generalstäbe übermittelt, um damit alliierten Bombern Luftschläge zu ermöglichen. Die Gruppe wurde nach und nach von der Gestapo erkannt und die meisten Mitglieder hingerichtet.
Startliste der Versuchsstarts in Peenemünde.
Anmerkung:
Für den Zeitraum zwischen Juli 1943 und Februar 1945 liegen keine vollständigen Startlisten vor. Bei einem Versuchsstart am 13. Juni 1944 zur Erprobung von Komponenten der Flugabwehrrakete Wasserfall stürzte eine von Peenemünde aus gestartete A4-Rakete in Südschweden ab.
Einsatz.
Bereits ab Ende 1939 ging es schon dem Entwurf nach in der Sache um eine Kriegsrakete für den Angriff. Hitler drohte Großbritannien deutlich im September 1940: „Wenn sie erklären, sie werden unsere Städte in großem Maße angreifen – wir werden ihre Städte ausradieren!“ Walter Dornberger warb im Juli 1941 für das neue Waffensystem, indem er auf die „nicht mehr vorhandene Luftüberlegenheit“ und damit auf die verlorene Luftschlacht um England hinwies. Hitler, der die „Fernrakete“ als einzige verbliebene Möglichkeit für den direkten Angriff auf England sah, genehmigte im August 1941 die Entwicklung des A4 bis zur Einsatzreife, allerdings ohne entsprechende Dringlichkeitsstufe. Ende März 1942 präzisierte Dornberger die Planung dahingehend, dass „bei Tag und Nacht in unregelmäßigen Abständen, unabhängig von der Wetterlage, sich lohnende Ziele wie London, Industriegebiete, Hafenstädte, pp. unter Feuer genommen werden“. Im September wurde das Projekt in die "Dringlichkeitsstufe SS" eingruppiert und im Juni 1943 noch einmal höher eingestuft. Die anfängliche Planung sah einen Verschuss aus festen, verbunkerten Anlagen heraus vor. Dies wurde wegen der fortgesetzten Gebietsverluste des Deutschen Reiches jedoch nie umgesetzt. Es blieb beim Einsatz von mobilen Startrampen aus.
Die NS-Führung kündigte ab 1943 den Einsatz neuartiger „Wunderwaffen“ für Angriffe auf England an. Diese sollten die militärische Antwort auf die fortlaufenden Luftangriffe gegen die deutsche Zivilbevölkerung in den Städten sein. Die deutsche Kriegspropaganda förderte die Hoffnung auf die einzigartige Schlagkraft dieser technisch völlig neuartigen Waffe, welche die Wende im Krieg herbeiführen sollte. Es galt Durchhaltewillen und Kampfgeist an der Front zu sichern. Die nach den ersten erfolgreichen Einsätzen ab September 1944 aufkommende Begeisterung für die A4-Rakete verflüchtigte sich jedoch bald wieder, weil die erhoffte militärische Wende nicht eintrat. Noch in seiner letzten Rundfunkrede am 30. Januar 1945 versprach sich Adolf Hitler trotz der katastrophalen Kriegslage immer noch den „Endsieg“ durch den verstärkten Einsatz der „Wunderwaffen“.
Als am 8. September 1944 das erste A4 den Londoner Stadtteil Chiswick und nicht die Innenstadt selbst traf, räumte Dornberger ein, dass es sich beim A4 um eine „unzureichende“ Waffe handele. Trotzdem taufte Propagandaminister Goebbels das A4 sofort in V2 um und propagierte diese als „Vergeltungswaffe“ V2.
Mit Sprengköpfen bestückt und von mobilen Startrampen aus wurden mit ihr vor allem London und später Antwerpen bombardiert; London nach offizieller Verlautbarung als Vergeltung für britische Bombenangriffe. Zwar war die Treffergenauigkeit gering, aber die plötzlichen Einschläge ohne jegliche Vorwarnung übten eine vorher unvorstellbare terrorisierende Wirkung (Demoralisierung) auf die Bevölkerung aus, die völlig anders war als bei der V1, der seit 13. Juni 1944 verschossenen Flugbombe. Während man bei Angriffen der V1 noch Fliegeralarm auslösen konnte, war dies durch die hohe Geschwindigkeit der V2 fast unmöglich, da der Überschallknall erst nach der plötzlichen Explosion zu hören war.
Im Double-Cross-System versuchte die britische Abwehr mit Doppelagenten, den vermeintlichen Einschlag weiter nach Nordwesten zu verlegen oder Einschlagszeitpunkte zu vertauschen. Damit wurde der Angreifer dazu veranlasst, die Zielentfernung zu verkürzen und das Londoner Zentrum zu verschonen. Durch entsprechende Reduzierung der Zielentfernung durch die deutschen Abschusskommandos wurde so der Schwerpunkt der V2-Einschläge um ca. 10 km nach Osten in die Vororte Londons verschoben.
Insgesamt wurden etwa 3200 A4-Raketen abgefeuert:
Von Den Haag aus wurden 1.039 Raketen gestartet, die vor allem auf London gerichtet waren. Bei einem alliierten Luftangriff auf die Startrampen am 3. März 1945 kamen 510 Menschen ums Leben.
In Frankreich waren mehrere große Bunker zum Start des A4 im Bau oder geplant, deren Fertigstellung als Folge von Bombenangriffen und der Invasion der Alliierten nicht gelang. Die bekanntesten sind das Blockhaus von Éperlecques, der Kuppelbau von Helfaut-Wizernes und die Anlagen im Raum Cherbourg.
Rückblickend ist der Einsatz der V2 vorrangig als Terror gegenüber der Zivilbevölkerung des Gegners zu werten, vergleichbar mit den Flächenbombardements der Alliierten auf deutsche Städte. Militärisch-taktischer Absicht geschuldet waren die elf Beschüsse auf die von den Alliierten eroberte Ludendorff-Brücke über den Rhein zwischen Remagen und Erpel zwecks Verhinderung des weiteren Eindringens sowie 1610 Angriffe auf den Seehafen von Antwerpen wegen seiner Bedeutung für die Versorgung des gegnerischen Militärs. Die Einschläge der V2-Raketen konnten hier zumindest für einige Wochen den Truppentransport der Alliierten ganz erheblich behindern. Am meisten hatte aber auch hier die Zivilbevölkerung zu leiden. Die letzte Rakete im Kampfeinsatz wurde am 27. März 1945 von deutscher Seite gegen Antwerpen gestartet.
Danach wurden nach und nach nahezu alle A4-Batterien aufgelöst. Trotzdem wurden noch Vorbereitungen für das VIII. Sonderschießen getroffen. Dazu war die ehemalige „Lehr- und Versuchsbatterie 444“, jetzt umbenannt in „Lehr- und Versuchsabteilung z. V.“, bereits am 28. Januar 1945 aus dem Einsatz in Holland zurückgezogen und zur Ruhe und Auffrischung nach Buddenhagen (Wolgast) befohlen worden. Von hier aus verlegte man diese Abteilung zusammen mit der „Gruppe Erprobung“ bzw. dem „Entwicklungskommando Rethem“ über Rethem (Aller) in den Raum Kirchlinteln (Kreis Verden (Aller)). Ziel des Sonderschießens war die „Schwerpunkterhöhung der Treffgenauigkeit und Einschlagprozente“. Die Zielpunkte lagen im Wattenmeer östlich der Insel Sylt und zwischen den dänischen Inseln Römö und Fanö.
Im Zeitraum von Mitte März 1945 bis zum 6. April 1945 wurden aus zwei Startstellungen etwa zehn Versuchsraketen abgefeuert. Dabei kam auch die Steuerung mit Hilfe der Leitstrahllenkung zum Einsatz. Nach dem Abzugsbefehl vom 6. April 1945 durch General Hans Kammler verlegte man die „Lehr- und Versuchsabteilung z. V.“ aus dem „Stellungsraum Neddenaverbergen“ (heute Gemeinde Kirchlinteln, Kreis Verden/Aller) über den Kreis Herzogtum Lauenburg nach Welmbüttel im Kreis Dithmarschen in Schleswig-Holstein, etwa 10 km östlich von Heide gelegen. Hier wurden die mitgebrachten Fahrzeuge und Sondergerätschaften und vermutlich auch einige Raketen, die durch eine nicht weiter bekannte Nachschubeinheit angeliefert worden waren, in einem Moor versenkt bzw. gesprengt. Am 1. Mai 1945 wurden noch 20 bis 30 Soldaten zu einem Flakregiment in den Raum Bargteheide/Trittau abgestellt. Ab dem 3. Mai 1945 wurde die letzte noch existierende und voll ausgerüstete A4-Abteilung aufgelöst, indem die noch verbliebenen Soldaten durch die Vorgesetzten offiziell entlassen wurden.
Der Einsatz des A4 als Terrorinstrument führte in London zu Diskussionen, diesen mit chemischen Waffen zu vergelten.
Insgesamt forderte der Einsatz der A4-Raketen mehr als 8000 Menschenleben, hauptsächlich Zivilisten. Die größte Zahl an Opfern auf einen Schlag war am 16. Dezember 1944 in Antwerpen zu beklagen, als eine A4 das vollbesetzte Kino „Rex“ traf und 567 Menschen tötete.
Deutsche Weiterentwicklungen.
Am 24. Januar 1945 wurde in Peenemünde eine geflügelte Version der A4-Rakete, die A4b, erstmals erfolgreich gestartet. Sie sollte die doppelte Reichweite des A4 erreichen, stürzte allerdings wegen eines Flügelbruchs vorzeitig ab. Zu weiteren Starts dieses Flugkörpers kam es aufgrund der Kriegslage nicht mehr.
Von 1943 bis zum Kriegsende 1945 beschäftigte man sich in Peenemünde mit der Entwicklung einer Interkontinentalrakete. Diese war als zweistufige Fernrakete ausgelegt und trug die Bezeichnung A9/10. Sie war in Umfang und Höhe etwa doppelt so groß wie das A4. Das A9/10 bestand aus zwei unabhängigen Raketen, dem A10 und dem A9, die bis zum Abtrennen der ausgebrannten Startrakete A10 unter einer gemeinsamen Hülle miteinander verbunden blieben. Nach dem Ausbrennen des A10 sollte der Weiterflug vom A9 übernommen werden, die in etwa den Plänen des späteren A4b entsprach. Die projektierte Reichweite dieser sogenannten „Amerikarakete“, deren erklärtes Ziel es war, New York anzugreifen, betrug 5.500 km. Jedoch kam das Projekt nicht über das Planungsstadium hinaus. Der Prüfstand VII der Heeresversuchsanstalt Peenemünde war allerdings schon beim Bau 1938 für die A9-/A10-Rakete dimensioniert. Das A9/10 kam jedoch nie über seinen Projektstatus hinaus und wurde nie gebaut.
Der ehemalige Reichsminister für Rüstung und Kriegsproduktion Albert Speer schrieb später zur Bewertung des A4-Projektes: „Unser aufwendigstes Projekt war zugleich unser sinnlosestes. Unser Stolz und zeitweilig mein favorisiertes Rüstungsziel erwies sich als einzige Fehlinvestition.“ Die Kosten für das gesamte V2-Programm werden auf rund zwei Milliarden Reichsmark geschätzt.
Nach dem Krieg.
Die Weiterentwicklung der Raketentechnik durch die Supermächte USA und UdSSR nach dem Zweiten Weltkrieg mit einer Verlängerung der Reichweite und Erhöhung der Nutzlast mit Raketen von Land wie auch von Unterseebooten wurde ein wesentlicher Treiber der zunehmenden Bedrohung durch den Kalten Krieg.
Starts in Cuxhaven.
Die Briten ließen im Oktober 1945 mehrere A4-Raketen durch Kriegsgefangene aus ehemaligen deutschen Starteinheiten in der Nähe von Cuxhaven starten, um Vertretern der alliierten Besatzungsmächte die „Wunderwaffe V2“ beim Start zu demonstrieren (Operation Backfire, → Raketenstarts in Cuxhaven). Hierbei entstand auch ein zunächst geheimer Dokumentarfilm, der heute im Museum Peenemünde zu sehen ist.
In den USA.
Erbeutung von 10 A4-Raketen durch die 3. US-Panzerdivision der 1. US-Armee am 29. März 1945 in Hessen.
Den Amerikanern waren am 29. März 1945 auf einem überlangen Militärzug im Bahnhof Bromskirchen in Hessen, durch überraschenden Zugriff einer Vorhut der "3. US-Panzerdivision", der 1. US-Armee, zehn komplette A4-Raketen des Artillerieregimentes, "Heeres Art.Abt.(mot)705, 10.Batterie, der Gruppe Süd-Art.Rgt.(mot.)z.V.901 Abt.Ia", mit den mobilen Startrampen, Treibstoff und Bedienungsanleitung in die Hände gefallen. Dies wurde in den alliierten Wochenschauen ausführlich thematisiert. Der Zug sollte die Raketen vom Westerwald kommend am 22. März über die Aar-Salzböde-Bahn in neue Stellungen im Raum Schelderwald bzw. in die Nähe von Marburg bringen. Diese zehn A4 wurden mit der Eisenbahn von den Amerikanern in den Hafen von Antwerpen transportiert und drei Tage später von dort aus in die USA verschifft. Das war eine der Grundlagen für die Weiterentwicklung in den USA.
Wernher von Braun im Dienst der USA.
Am 2. Mai 1945 stellte sich Wernher von Braun den Streitkräften der Vereinigten Staaten und wurde zusammen mit anderen Wissenschaftlern aus seinem Mitarbeiterstab ebenfalls in die USA gebracht (Operation Paperclip).
Etwa 100 erbeutete A4 und Teile davon wurden im Mittelwerk Nordhausen noch vor dem Einmarsch der Roten Armee von US-Truppen verladen und ebenfalls in die USA verfrachtet. Sie standen am Anfang einer ganzen Entwicklungslinie der amerikanischen Raketentechnik und damit zu den Raumfahrtentwicklungen der USA. Ein Exemplar steht im National Air and Space Museum in Washington (D.C.), ein weiteres kam anlässlich von Filmarbeiten Ende der 1950er-Jahre wieder nach Deutschland zurück und befindet sich heute im Deutschen Museum in München.
Schon ab 1946 erfolgten Teststarts mit A4-Raketen, bei welchen die Army den Raum, den der Sprengkopf eingenommen hatte, der Wissenschaft zur Verfügung stellte. So brachte eine Rakete im Juni Messinstrumente, darunter ein Geiger-Müller-Zählrohr zur Messung kosmischer Strahlung, Temperatur- und Druckmessgeräte, einen Spektrographen und Funkausrüstung in 107 Kilometer Höhe.
Am 20. Februar 1947 wurden Roggen- und Baumwollsamen sowie Fruchtfliegen auf 109 Kilometer Höhe transportiert und als erste Organismen überhaupt im All bezeichnet. Im Juni 1949 wurde mit einem weiteren A4 erstmals ein Säugetier, der Rhesusaffe Albert II., auf eine Höhe von ca. 130 km transportiert. Bei der Rückkehr öffnete sich der Fallschirm nicht, so dass der Rhesusaffe starb.
Die Modifizierung des A4 mit einer Corporal-Rakete als zweiter Stufe nannte man Bumper. Am 24. Februar 1949 erreichte die Oberstufe einer Bumper eine Höhe von 393 Kilometern. Mit Bumper-Raketen wurden 1950 die ersten Raketenstarts von Cape Canaveral in Florida durchgeführt.
In Huntsville (Alabama) wurde mit dem Redstone Arsenal ein erstes Zentrum für die Raketenentwicklung gegründet, wo zusammen mit den deutschen Wissenschaftlern insgesamt 67 A4-Raketen gestartet wurden. Sie bildeten den Ausgangspunkt für die ab 1953 geflogene dreistufige Redstone-Rakete mit einem Schub von 347 kN und Brenndauer von 135 s in der ersten Stufe, welche als militärische ballistische Rakete in Dienst gestellt wurde. Diese wurde unter Leitung von Wernher von Braun weiter entwickelt und zuerst 1956 in der Forschungs-Version Jupiter-C geflogen und später als Juno I für den Start des ersten amerikanischen Satelliten Explorer 1 in den Weltraum verwendet. Daraus entstanden durch diverse Weiterentwicklungen Kriegswaffen, letztlich aber auch die Saturn-V-Raketen für die erste Mondlandung mit Apollo 11 im Juli 1969.
Im Rahmen der Operation Sandy gelang am 6. September 1947 mit dem Start eines A4 vom Flugdeck des amerikanischen Flugzeugträgers "Midway" erstmals der Start einer Langstreckenrakete von einem Schiff aus.
In der Sowjetunion.
Bereits im August 1944 fielen der Sowjetunion bei der Eroberung des Testgeländes auf dem SS-Truppenübungsplatz Heidelager bei Dębica im Süden des Generalgouvernements Trümmer zerlegter A4-Raketen und Reste demontierter Abschussanlagen in die Hände und ermöglichten es, erste grundlegende technische Daten des deutschen Raketenprogramms zu sammeln. Bei der Besetzung Peenemündes am 5. Mai 1945 brachte die Rote Armee eine komplette V2 in ihren Besitz. Nachdem die US-amerikanischen Besatzungstruppen Ende Juni 1945 das Gebiet um Nordhausen und damit auch die Anlagen der Mittelwerk GmbH gemäß den Vereinbarungen des Potsdamer Abkommens an die Rote Armee unter der militärischen Führung von Dmitri Ustinow übergeben hatten, gründete die Sowjetunion im Juli 1945 das "Institut Rabe (Raketenbau und -entwicklung)" in Bleicherode, um unter Leitung von Boris Tschertok die Konstruktionsunterlagen des A4 samt Apparaturen der Bordausrüstung des Lenksystems wiederherzustellen und die komplette Fertigung des A4 in der Sowjetischen Besatzungszone zu ermöglichen. Im September 1945 warben die sowjetischen Stellen Helmut Gröttrup, den für sie wichtigsten Erfahrungsträger aus Peenemünde, als Leiter des "Büro Gröttrup" an, dem sich bald weitere hochkarätige Forscher anschlossen, die die Komponenten des A4 rekonstruieren konnten, darunter Werner Albring für die Aerodynamik und Kurt Magnus für die Kreiselsteuerung. Im Februar 1946 wurden das "Institut Rabe" und das "Büro Gröttrup" zum "Institut Nordhausen" (auch unter dem Namen "Zentralwerke" bekannt) unter der Leitung von Generalmajor Lew Gaidukow und dem sowjetischen Raumfahrtpionier Sergei Koroljow als Chefkonstrukteur zusammengeführt. Die deutsche Leitung wurde Helmut Gröttrup als Generaldirektor übertragen. Im September 1946 arbeiteten mehr als 5.000 deutsche Mitarbeiter sowie 700 sowjetische Mitarbeiter daran, die Berechnungen und die Konstruktionsunterlagen des A4 wiederherzustellen und die Produktion des A4 und ihrer Bestandteile inkl. der notwendigen Testverfahren wieder aufzunehmen. Walentin Gluschko leitete die Erprobung von A4-Triebwerken in Lehesten im Thüringer Wald und wurde später Chefkonstrukteur der sowjetischen Raketentriebwerke.
Mit der Aktion Ossawakim am 22. Oktober 1946 wurden ca. 160 ausgewählte Wissenschaftler des "Institut Nordhausen" mit ihren Familien, insgesamt ca. 500 Menschen, zwangsweise in die Sowjetunion zunächst nach Podlipki (ca. 20 km nordwestlich von Moskau) und dann sukzessive auf die Insel Gorodomlija (ca. 380 km nordwestlich von Moskau) gebracht, um mit der neu gegründeten "Filiale 1" der Forschungs- und Entwicklungsstätte für Weltraumraketen "NII-88" den sowjetischen Nachbau des A4 zu unterstützen und auftretende Probleme zu analysieren. Außerdem wurden alle Fertigungsanlagen in der Sowjetischen Besatzungszone demontiert und in die Sowjetunion verfrachtet. Die 5 in Bleicherode komplett zusammengebauten A4 sowie nachgebaute Teile für weitere 6 Raketen wurden zum neu geschaffenen Raketentestgelände Kapustin Jar gebracht und dort getestet. Der erste erfolgreiche Start eines A4 fand am 18. Oktober 1947 statt.
Am 17. Oktober 1948 erfolgte der erste erfolgreiche Start einer komplett in der Sowjetunion gebauten R-1-Rakete als Kopie des A4. Die R-1 musste teilweise geänderte Materialien verwenden, weil nicht alle in der Sowjetunion verfügbar waren, und in Einzelfällen wie Dichtungsmaterialien auf deutsche Originalteile zurückgreifen. Durch andere Verbesserungen, die von den deutschen Wissenschaftlern vorgeschlagen wurden, konnte sie aber eine vergleichbare Reichweite und Nutzlast erzielen.
Das rekonstruierte und verbesserte A4 bildete somit eine wesentliche Grundlage für die Anfänge der sowjetischen Raumfahrttechnologie und Raketenwaffen. Während der Arbeit des deutschen Kollektivs in Gorodomlija wurden bis 1949 weitere entscheidende Verbesserungen zur Erhöhung der Reichweite, der Verbesserung der Treffgenauigkeit und Vereinfachung ausgearbeitet. Dies umfasste u. a. die Verwendung der Tanks als tragender Außenhülle zur Gewichtsreduzierung, die Kegelform der Rakete für eine bessere Flugstabilität in allen Betriebszuständen, die Bündelung von vielen parallelen Triebwerken zu einer Großrakete, die Vektorsteuerung der Triebwerke anstelle der aufwändigen Strahlruder aus Graphit, die Trennung der Nutzlast von der ausgebrannten Trägerrakete sowie Fernlenkverfahren mit Peilstrahlen. Diese Ideen wurden von den sowjetischen Ingenieuren unter Leitung von Sergei Koroljow sukzessive umgesetzt und zur Reife entwickelt. Die westlichen Geheimdienste unterschätzten die sowjetischen Fortschritte trotz eindeutiger Hinweise der Rückkehrer aus Gorodomlija. Es gab Indizien, dass die sowjetischen Wissenschaftler aufgrund „ihrer Liebe zur Raketentechnologie“ und „ihrer Wertschätzung der deutschen Arbeiten“ durchaus in der Lage sein könnten, als erste über Langstreckenraketen zu verfügen.
Die am 4. Oktober 1957 verwendete Rakete zum Start des ersten Satelliten Sputnik 1 auf Basis der Interkontinentalrakete R-7 wies deutliche Ähnlichkeiten mit Komponenten des A4 und zu den Ideen des deutschen Kollektivs auf, vor allem zum zuletzt ausgearbeiteten Konzept G-4 bzw. R-14. Die R-7 erreichte beim Start einen Schub von 3.900 kN, was ungefähr 4×4=16 gebündelten A4-Triebwerken entsprach. Die heute verwendeten Sojus-Raketen basieren auf der Technologie der R-7 und gelten als sehr zuverlässig.
In Frankreich.
Nach dem Ende des Zweiten Weltkriegs versuchte auch der französische Geheimdienst, deutsche Wissenschaftler für eigene Entwicklungen der Raketentechnik anzuwerben, war aber gegenüber den lange geplanten Operationen der amerikanischen und britischen Geheimdienste im Nachteil. Dennoch konnten sie in Bad Kissingen, wo deutsche Wissenschaftler zeitweise interniert waren, und nach Abschluss der Operation Backfire einige Spezialisten abwerben, u. a. Otto Müller für den Raketenantrieb und Rolf Jauernik für die Raketensteuerung. Zunächst arbeiteten die deutschen Spezialisten in Emmendingen in der französisch besetzten Zone, später im "Laboratoire de recherches balistiques et aérodynamiques (LRBA)" in Vernon in der Normandie. Projekte zum Nachbau des A4 und zur Entwicklung eines A9 wurden abgebrochen. Ab März 1949 entwarf das LRBA eine wesentlich kleinere Höhenforschungsrakete, die Véronique (VERnon-électrONIQUE) mit nur 40 kN Schub als der ersten flugfähigen Flüssigkeitsrakete Frankreichs.
In Großbritannien.
Das Vereinigte Königreich interessierte sich zunächst für die deutschen Raketen, die London bombardiert hatten, und leitete im Sommer 1945 die Operation Backfire in Cuxhaven für eigene technische Analysen. Ende 1946 wurden Bestrebungen der "British Interplanetary Society" für eine eigenständige Weiterentwicklung des A4 mit dem Projekt "Megaroc" für den Start einer bemannten Kapsel durch die Regierung wegen fehlenden militärischen Nutzens zurückgewiesen. Ab 1954 gab es eine Zusammenarbeit mit den USA zur Entwicklung der Mittelstreckenrakete Blue Streak, die 1960 aufgrund von Kostenüberschreitungen beendet wurde.
Sonstige Ereignisse.
Die Firma Canadian Arrow projektierte im Rahmen des Ansari X-Prize eine um zwei Meter verlängerte A4-Rakete, die eine Kapsel mit drei Passagieren auf 100 km Höhe bringen und mittels Fallschirmen landen sollte. Sie wurde von der Jury zur schönsten Rakete des Wettbewerbs gewählt.
Ein offizieller Festakt der deutschen Luft- und Raumfahrtindustrie unter der Schirmherrschaft der damaligen Bundesregierung zum 50. Jahrestag des Erstfluges des A4 wurde erst wegen internationaler Proteste kurzfristig abgesagt. Die A4-Großrakete wurde im Ausland stark mit dem KZ Mittelbau-Dora in Bezug gebracht, in dem auch KZ-Häftlinge die Rakete in Serienfertigung bauten.
Museale Rezeption.
In Deutschland befindet sich nur eine vollständig erhaltene A4-Rakete, die in der Luft- und Raumfahrtabteilung des Deutschen Museums in München ausgestellt wird. Daneben finden sich in der Bundesrepublik noch zwei Nachbauten mit Originalteilen, einmal im Militärhistorischen Museum der Bundeswehr in Dresden und einmal im Historisch-Technischen Museum Peenemünde. Das Heeresgeschichtliche Museum in Wien besitzt in der Dauerausstellung „Republik und Diktatur“ (Saal VII) ein Triebwerk eines A4, das kurz nach dem Kriegsende aus dem Toplitzsee, wo zwischen 1943 und 1945 zahlreiche waffentechnische Versuche durchgeführt worden waren, geborgen wurde. Im Deutschen Museum Flugwerft Schleißheim ist eine A4-Brennkammer, in der Wehrtechnische Studiensammlung Koblenz und im Deutschen Technikmuseum Berlin je ein A4-Triebwerksblock ausgestellt.
Zusammenhänge und Hintergründe sind in der ständigen Ausstellung der KZ-Gedenkstätte Mittelbau-Dora (Nordhausen) dokumentiert, wenn auch hier nicht im Detail auf die A4-Rakete eingegangen wird; Besichtigungen von Teilen der Untertageanlage sind möglich.
Komplette Raketen bzw. Replika in Originalgröße in anderen Ländern werden bspw. im Imperial War Museum in London, im Musée de l’Armée in Paris, im Nationaal Militair Museum der Niederlande in Soesterberg und im National Air and Space Museum in Washington, D.C. ausgestellt. |
424 | 1524418 | https://de.wikipedia.org/wiki?curid=424 | Apfel | Apfel bezeichnet eine Frucht bzw. einen Baum:
Anderes:
Apfel ist der Familienname folgender Personen:
Siehe auch: |
425 | 3360109 | https://de.wikipedia.org/wiki?curid=425 | Ares | Ares () ist in der griechischen Mythologie der Gott des schrecklichen Krieges, des Blutbades und Massakers. Er gehört zu den zwölf olympischen Gottheiten, den Olympioi. Obwohl die Bedeutung nicht ganz gleich ist, wurde er später von den Römern dem eigenen Kriegsgott Mars gleichgestellt. Doch stand Mars bei den Römern höher im Ansehen als Ares bei den Griechen.
Deutung.
Die etymologischen Wurzeln des Namens sind unklar, vermutlich bedeutet "Ares" der „Verderber“, der „Rächer“. Wahrscheinlich stammt die Gestalt des mordenden Ares aus dem bronzezeitlichen Thrakien, sie wird auch mythologisch als seine Heimat genannt. Aber bereits in mykenischer Zeit (1600–1050 v. Chr.) ist er auf dem griechischen Festland nachweisbar und verbreitet. Möglich ist auch, dass er in vorgriechischer Zeit ein Fruchtbarkeitsgott und seiner italischen Entsprechung ähnlicher war.
Mythos.
Als ehelicher Sohn des Zeus und der Hera gehörte er zu den zentralen Gestalten in der griechischen Götterwelt. Ares wird als roher, wilder, nicht zu bändigender Kriegsgott beschrieben, der Gefallen an Gewalt findet und mit den wilden Tieren zog, um sich an deren Blut zu laben. Während Athene, die Göttin der Weisheit und der Kriegslist, für den heroischen bzw. intellektuellen Part des Krieges steht, ist Ares eher ein finsterer Gott, ein „göttlicher Raufbold“. Im Kampf um Troja kämpft Ares auf Seiten der Trojaner, Athene auf Seiten der Griechen. Es kommt sogar zum Kampf beider Gottheiten gegeneinander, als Athene Diomedes hilft, so dass dieser Ares verwunden kann. Auf dem Olymp wird er später von Asklepios (Gott der Heilkunst) behandelt und lässt sich von seiner Schwester Hebe baden. Ares ist aggressiv, grausam, unbarmherzig und blutrünstig, mischt sich auch des Öfteren aktiv in die Gefechte der Sterblichen ein und stachelt deren Kampfgeist weiter auf. Streit, Plünderungen, Blutbäder, das Geräusch klirrender Waffen und das Geräusch brechender Knochen bereiten ihm großes Vergnügen. Mit den schönen Künsten der anderen Götter konnte Ares nur wenig anfangen. Mit seinen Eigenschaften war er auch bei den anderen olympischen Göttern unbeliebt, ja verhasst.
Obwohl Ares als Kriegsgott bei Göttern und Menschen verhasst war – selbst sein Vater Zeus verachtete ihn –, galt er doch auch, über die Verkörperung des Männern vorbehaltenen Kriegshandwerkes, als Sinnbild männlicher Kraft und Schönheit.
Mythologisch wird dies in seiner Liebesbeziehung zur Liebesgöttin Aphrodite versinnbildlicht: Obwohl mit dem rechtschaffenen, aber missgestalteten Gott der Schmiede Hephaistos verheiratet, fühlt sie sich von Ares angezogen und lässt sich auf eine leidenschaftliche und andauernde Affäre mit ihm ein. Der vom Sonnengott Helios davon unterrichtete eifersüchtige Ehemann bringt all seine Handwerkskunst auf und schmiedet ein unsichtbares unzerreißbares Netz, mit dem er beide "in flagranti" erwischt. Die so Übertölpelten werden den herbeigerufenen Göttern vorgeführt. Diese aber entrüsten sich nicht, sondern brechen, auf Hephaistos’ Kosten, in ein homerisches Gelächter aus.
Eros, der mit Pfeil und Bogen bewaffnete Liebesgott, wird als gemeinsamer Sohn von Ares und Aphrodite angesehen. Des Weiteren werden dieser Verbindung Anteros (Gott der Gegenliebe) und Harmonia (Göttin der Eintracht) zugesprochen sowie seine wichtigsten Begleiter, die Götter Deimos (Gott des Grauens), Phobos (Gott der Furcht) und Enyalios (Gott des Kampfes).
Wie anderen Göttern auch, werden ihm zahlreiche Liebschaften innerhalb und auch außerhalb der Welt der Unsterblichen nachgesagt. So werden unter anderem die ihn ständig begleitende Göttin des Neides und der Zwietracht Eris, die Göttin der Morgenröte Eos und etliche Sterbliche erwähnt.
Die kriegerischen und ebenfalls nahe Thrakien angesiedelten Amazonen wurden mit Ares als Stammvater in Verbindung gebracht.
Kult.
Anders als seine römische Entsprechung wurde Ares kaum kultisch verehrt, galt doch bereits jeder Krieg – den die Griechen oft auch miteinander führten – als eine Huldigung für ihn. Als seltene und berühmteste Ausnahme kultischer Orte ist hier der Areopag zu nennen, dessen Namenspate er ist, wobei dies ebenfalls mythologisch begründet wird. Andere Kultstätten sind in Ätolien, Thessalien oder Athen zu finden; im peloponnesischen Hermione stand eine Kultstatue von ihm.
Darstellung.
Als unbeliebter Gott war er selten Gegenstand in der Kunst, anders seine römische Entsprechung. Ares’ Symbole sind: brennende Fackel, Hund und Geier sowie für einen Kriegsgott typisch Schwert, Helm und Schild.
Trivia.
Nach Ares benannt ist der griechische Sportclub Aris Thessaloniki. Ares ist auch der Titel einer Netflix-Serie sowie des Schweizer Politthrillers "Ares: kein Fall für Carl Brun" von Monika Hausammann. |
426 | 2937641 | https://de.wikipedia.org/wiki?curid=426 | Angola | Angola ( [], []; auf Kimbundu, Umbundu und Kikongo „Ngola“ genannt) ist ein Staat im Südwesten Afrikas. Nationalfeiertag ist der 11. November, der Jahrestag der 1975 erlangten Unabhängigkeit. Angola grenzt an Namibia, Sambia, die Republik Kongo, die Demokratische Republik Kongo und den Atlantischen Ozean – die zu Angola gehörige Exklave Cabinda liegt im Norden zwischen der Demokratischen Republik Kongo und der Republik Kongo am Atlantik.
Der Name "Angola" leitet sich von dem Titel "Ngola" der Könige von Ndongo ab, einem östlich von Luanda gelegenen Vasallenstaat des historischen Kongoreiches. Die Region um Luanda erhielt diesen Namen im 16. Jahrhundert durch die ersten portugiesischen Seefahrer, die an der dortigen Küste anlandeten und ein Padrão, ein steinernes Kreuz als Zeichen der Inbesitznahme für den portugiesischen König, errichteten. Die Bezeichnung wurde Ende des 17. Jahrhunderts auf die Region um Benguela ausgedehnt, im 19. Jahrhundert dann auf das damals noch nicht umgrenzte Territorium, dessen koloniale Besetzung sich Portugal vornahm.
1961 begannen Kämpfe für die Unabhängigkeit, die 1975 gewonnen wurden. Seither beherrscht die Partei MPLA das Land autoritär; Korruption und Menschenrechtsverletzungen sind bis heute weit verbreitet.
Geografie.
Geografische Lage.
Die Republik Angola liegt zwischen 4° 22′ und 18° 02′ südlicher Breite sowie 11° 41′ und 24° 05′ östlicher Länge. Das Land gliedert sich grob in eine schmale Niederung entlang der Atlantikküste, die in Richtung Osten, zum Landesinneren hin, zum Hochland von Bié ansteigt: Es macht den größten Teil Angolas aus, ist im Süden flach und in der Landesmitte bergig. Der höchste Berg ist der in diesem Hochland liegende Môco mit 2619 m über dem Meeresspiegel.
Der Osten Angolas wird vom Sambesi durchflossen.
Klima.
Angola ist in drei Klimazonen eingeteilt:
An der Küste und im Norden des Landes ist es tropisch, das heißt, es gibt das ganze Jahr hohe Tagestemperaturen zwischen 25 und 30 °C, nachts ist es nur unwesentlich kühler. Von November bis April ist Regenzeit. Das Klima wird stark durch den kühlen Benguelastrom (17–26 °C) beeinflusst, so dass Nebel häufig ist. Die durchschnittliche Niederschlagsmenge liegt bei 500 mm, im Süden kaum bei 100 mm jährlich.
Das Hochland im Zentrum und Süden des Landes ist gemäßigt-tropisch, es gibt vor allem im Winter deutliche Temperaturunterschiede zwischen Tag und Nacht. So liegen etwa in Huambo die Temperaturen im Juli zwischen 25 °C tagsüber und 7–8 °C nachts, dazu kommt noch enorme Trockenheit. Ähnlich wie an der Küste ist die Regenzeit von Oktober bis April. Es fallen im Schnitt rund 1000 mm Regen pro Jahr.
Im Südosten des Landes ist es überwiegend heiß und trocken mit kühlen Nächten im Winter bzw. Hitze und gelegentlichen Niederschlägen im Sommer. Die Jahresniederschläge schwanken um 250 mm.
Hydrologie.
Den „Wasserturm“ des Landes bildet das Hochland von Bié. Von dort teilt sich Angola in 5 Haupteinzugsgebiete auf. Die beiden größten sind die des Kongo und des Sambesi. Zusammen entwässern sie über 40 % der Landesfläche. Die Flächen, die über den Okavango abfließen, liegen bei etwa 12 %. Somit entwässert gut die Hälfte des Landes über sehr große Einzugsgebiete aus dem Land hinaus. Hinzu kommen der Cuanza, mit ebenfalls etwa 12 %, und der Cunene mit knapp 8 %. Zu erwähnen ist noch das Cuvelai-Etosha-Einzugsgebiet, das nach Süden entwässert. Die restlichen knapp 20 % des Landes sind Küstenflüsse. Die Wasserressourcen im Süden Angolas haben für die Nachbarländer Botswana und Namibia große Bedeutung. Daher gründeten sie 1994 zusammen die Permanent Okavango River Basin Water Commission.
Flora und Fauna.
Die Vegetation reicht klimabedingt von tropischem Regenwald im Norden und in Cabinda über Baumsavannen im Zentrum bis zur trockenen Grassavanne, die durchsetzt ist mit Euphorbien (Wolfsmilchgewächsen), Akazien und Affenbrotbäumen. Von Namibia ausgehend zieht sich entlang der Südwestküste ein Wüstenstreifen. Die Fauna Angolas ist reich an Wildtieren, es finden sich Elefanten, Flusspferde, Geparde, Gnus, Krokodile, Strauße, Nashörner und Zebras. Die Ausweitung der Landwirtschaft, aber auch die Zerstörungen durch die Bürgerkriege und der Handel mit Elfenbein gefährden das Überleben vieler Arten.
In Angola gibt es 13 Naturschutzgebiete (Nationalparks und Naturreservate) mit einer Gesamtfläche von 162.642 km², die 12,6 % des Staatsgebiets ausmachen.
Geschichte.
Die ersten Bewohner des heutigen Angola waren Khoisan, die ab dem 13. Jahrhundert weitgehend von Bantu-Volksgruppen verdrängt wurden. 1483 begann die Errichtung portugiesischer Handelsposten an der Küste, vor allem in Luanda und dessen Hinterland, ein Jahrhundert später auch in Benguela. Erst Anfang des 19. Jahrhunderts begann die systematische Eroberung und Besetzung des heutigen Territoriums, die erst Mitte der 1920er Jahre abgeschlossen war.
Von der Mitte der 1920er Jahre bis Anfang der 1960er Jahre war Angola einem klassischen Kolonialsystem unterworfen. Die Kolonialmacht Portugal wurde von 1926 bis zur Nelkenrevolution 1974 von einer Militärdiktatur regiert (bis 1932 Carmona, bis 1968 Salazar, bis 1974 Caetano).
Die wichtigste ökonomische Grundlage Angolas waren bis zum Ende der Kolonialzeit die Landwirtschaft und Viehzucht, die sowohl in Großbetrieben europäischer Siedler als auch in den Familienbetrieben der Afrikaner stattfand. Die Förderung von Diamanten war für den Kolonialstaat von zentraler Bedeutung. Eine weitere wichtige Komponente war der Handel. Zu bescheidener Industrialisierung und Entwicklung des Dienstleistungssektors kam es erst in der spätkolonialen Phase, also in den 1960er und 1970er Jahren. In den 1950er Jahren wurden auf dem Festland Erdölvorkommen geortet, in den 1960er Jahren auch im Meer vor Cabinda, doch setzte erst ganz am Ende der Kolonialzeit eine Förderung größeren Ausmaßes ein.
In den 1950er Jahren begann sich nationalistischer Widerstand zu formieren, der 1961 in einen bewaffneten Befreiungskampf mündete (1960 – im „Afrika-Jahr“ – hatten 18 Kolonien in Afrika (14 französische, zwei britische, eine belgische und eine italienische) die Unabhängigkeit von ihren Kolonialmächten erlangt; siehe auch Dekolonisation Afrikas).
Ab 1962 führte Portugal deswegen einschneidende Reformen durch und leitete eine spätkoloniale Phase ein, die in Angola eine neue Situation schuf, den Unabhängigkeitskrieg jedoch nicht zum Erliegen brachte. Der Unabhängigkeitskrieg kam abrupt zu einem Ende, als am 25. April 1974 ein Militärputsch in Portugal die Nelkenrevolution auslöste sowie die dortige Diktatur zum Einsturz brachte und das neue demokratische Regime sofort mit der Entkolonisierung begann.
Der Umsturz in Portugal löste in Angola bewaffnete Auseinandersetzungen zwischen den Befreiungsbewegungen FNLA, MPLA und UNITA aus, deren ethnische Verwurzelung im Lande unterschiedlich war. In diese Auseinandersetzungen griffen die USA, Zaire (seit 1997 Demokratische Republik Kongo) und Südafrika (noch unter dem Apartheid-Regime) auf Seiten von FNLA und UNITA ein, die Sowjetunion und Kuba auf Seiten der MPLA. Letztere behielt die Oberhand und rief 1975 in Luanda die Unabhängigkeit aus, gleichzeitig FNLA und UNITA in Huambo.
Die Gegenregierung von FNLA und UNITA löste sich zwar rasch auf, aber sofort nach der Unabhängigkeitserklärung setzte ein Bürgerkrieg zwischen den drei Bewegungen ein, aus dem die FNLA nach kurzer Zeit ausschied, während ihn die UNITA bis zum Tode ihres Anführers Jonas Savimbi im Jahre 2002 weiterführte. Gleichzeitig errichtete die MPLA ein politisch-ökonomisches Regime, das dem der damals sozialistischen Länder nachempfunden war. Bemerkenswert war die zivile Entwicklungshilfe Kubas während dieser Zeit.
Dieses Regime wurde 1990/91 während einer Unterbrechung des Bürgerkriegs zugunsten eines Mehrparteiensystems aufgegeben. Im September 1992 fanden Wahlen statt, an denen auch die UNITA teilnahm. Die MPLA erhielt 53,74 Prozent der Stimmen und 129 der 220 Parlamentssitze. Der Präsidentschaftskandidat der MPLA, José Eduardo dos Santos, erhielt 49,56 Prozent der Stimmen; gemäß der Verfassung wäre eine Stichwahl gegen Jonas Savimbi notwendig gewesen.
Daraus ergab sich eine bizarre Situation, die bis 2002 anhielt. Einerseits nahmen Vertreter der UNITA und der FNLA am Parlament und sogar der Regierung teil, andererseits kämpfte der militärische Arm der UNITA nach der Wahl weiter. Das politische System entwickelte sich zu einer autoritären Präsidialdemokratie, während im Lande Zerstörungen zum Teil erheblichen Ausmaßes vor sich gingen.
Am 22. Februar 2002 entdeckte die Armee Jonas Savimbi im Osten des Landes und erschoss ihn. Danach stellte die UNITA den Kampf sofort ein. Sie löste ihren militärischen Arm auf, der teilweise in die angolanische Armee übernommen wurde. Unter einem neuen Vorsitzenden, Isaias Samakuva, übernahm sie die Rolle einer normalen Oppositionspartei. Bei der Parlamentswahl im September 2008 erhielt die MPLA 81,64 % der Stimmen (UNITA 10,39 %, FNLA 1,11 %).
2002 begann der Wiederaufbau der zerstörten Städte, Dörfer und Infrastruktur. Dank der Erdölförderung und des zeitweise hohen Ölpreises gab es dafür genug Devisen. Die regierende Gruppe um den Präsidenten nutzte dies aber auch zur starken eigenen Bereicherung, ein Beispiel für die herrschende Kleptokratie.
Eine im Januar 2010 verabschiedete neue Verfassung hat die Stellung der MPLA und besonders des Staatspräsidenten gestärkt. Vom Typ der Regierungslehre handelt es sich um ein autoritäres Präsidialsystem. Seit 2017 ist João Lourenço Präsident und scheint teilweise mit der Korruption seines Vorgängers aufzuräumen, obwohl dieser noch Vorsitzender der Regierungspartei ist und Lourenço sein Stellvertreter. Im Dezember 2019 wurde das auf 2,2 Milliarden US-Dollar geschätzte Vermögen von Isabel dos Santos, der Tochter des alten Präsidenten, eingefroren und entzogen.
Bevölkerung.
In Angola gab es bisher erst zwei Volkszählungen in den Jahren 1970 und 2014. 2020 veröffentlichte das nationale Statistikamt eine Projektion. Demnach betrug die Bevölkerung 31,13 Millionen. Die Bevölkerung Angolas ist eine der am schnellsten wachsenden der Welt. Im Jahr 2021 betrug das Bevölkerungswachstum 3,2 % und die Fertilität pro Frau lag bei 5,3 Kindern. In den 1970er Jahren lag der Wert sogar bei etwa 7,5 Kindern pro Frau. Das Medianalter der Bevölkerung lag 2020 bei geschätzten 16,7 Jahren. 46,6 % der Bevölkerung sind jünger als 15 Jahre. Für das Jahr 2050 wird laut der mittleren Bevölkerungsprognose der UN mit einer Bevölkerung von über 72 Millionen gerechnet.
Ein akutes demografisches Problem, mit unabsehbaren wirtschaftlichen, sozialen und politischen Folgen, hat sich in Angola aus dem Kriegszustand ergeben, der sich über vier Jahrzehnte hingezogen hat. Um 2000 war ein erheblicher Teil der Landbevölkerung in die Städte, in unwegsame Gebiete (Berge, Wald, Sumpfland) oder ins benachbarte Ausland (Namibia, Botswana, Sambia, Demokratische Republik Kongo, Republik Kongo) geflohen. Entgegen allen Erwartungen ist es nach dem Friedensschluss nicht zu einem massiven Rückfluss gekommen. Zwar ist ein Teil der Bevölkerung in ihre Ursprungsorte zurückgekehrt, aber – wie die Erhebungen der letzten Jahre zeigen – per Saldo hat das Binnenland sogar weiter an Bevölkerung verloren. Dies hängt nicht zuletzt damit zusammen, dass sich die Wirtschaft – mit Ausnahme der Landwirtschaft und der Förderung von Diamanten – ganz überwiegend auf den Küstenstreifen konzentriert. Die Volkszählung von 2014 hat allerdings aufgedeckt, dass der Rückgang der ländlichen Bevölkerung trotz generell schlechter Lebensbedingungen weniger drastisch war, als befürchtet: sie macht knapp über 60 % der Gesamtbevölkerung aus.
Volksgruppen.
Die meisten Angolaner sind Bantu und gehören drei Ethnien an: Mehr als ein Drittel sind Ovimbundu, ansässig auf dem Zentralhochland, dem angrenzenden Küstenstreifen und nunmehr ebenfalls stark präsent in allen größeren Städten auch außerhalb dieses Gebietes; ein knappes Viertel sind Ambundu (Sprache: Kimbundu), die in einem breiten Landstrich von Luanda bis Malanje überwiegen; schließlich gehören 10 bis 15 % den Bakongo an, einem Volk, das im Westen von Kongo-Brazzaville und der Demokratischen Republik Kongo sowie im Nordwesten Angolas angesiedelt ist und nunmehr auch in Luanda eine starke Minderheit darstellt.
Zahlenmäßig kleinere Volksgruppen sind die Ganguela, eigentlich ein Konglomerat aus kleineren Gruppen Ostangolas, dann Nyaneka-Nkhumbi im Südwesten, die zumeist Hirtenbauern sind, die Ovambo (Ambo) und Herero Südangolas (mit Verwandten in Namibia) sowie die Tshokwe (einschließlich der Lunda) aus dem Nordosten Angolas (und aus dem Süden der DR Kongo sowie dem Nordwesten Sambias), die im Verlaufe des letzten Jahrhunderts in kleinen Gruppen südwärts gewandert sind. Einige kleine Gruppen im äußersten Südwesten werden als Xindonga bezeichnet. Schließlich gibt es noch residuale Gruppen der Khoisan (San), die verstreut in Südangola leben und nicht zu den Bantu gehören.
Etwa 2 % der Bevölkerung sind "mestiços", also Mischlinge von Afrikanern und Europäern. Die Portugiesen waren mit 320.000 bis 350.000 Menschen am Ende der Kolonialzeit die größte europäischstämmige Volksgruppe im Land. Über die Hälfte von ihnen war im Lande geboren, nicht selten in der zweiten oder dritten Generation, und fühlte sich mehr Angola zugehörig als Portugal. Die anderen waren in der spätkolonialen Phase zugewandert oder als Angestellte/Beamte staatlicher Einrichtungen (einschließlich des Militärs) nach dort versetzt worden. Die meisten Portugiesen flohen kurz vor oder nach der Unabhängigkeitserklärung Angolas von Ende 1975 nach Portugal, Brasilien oder Südafrika, doch ist ihre Zahl inzwischen wieder auf rund 170.000 angewachsen, zu denen möglicherweise 100.000 andere Europäer sowie Latein- und Nordamerikaner hinzukommen.
Zu den Europäern kommt inzwischen eine große, auf etwa 300.000 Menschen geschätzte Gruppe von Chinesen, die im Zuge einer Immigrationswelle nach Afrika kamen und kommen. Im Jahre 2017 waren 2,1 % der Bevölkerung im Ausland geboren.
Bis 1974/75 lebten auch etwa 130 deutsche Familien (Angola-Deutsche) als Farmer oder Unternehmer im Land, vor allem in den Regionen um Huambo und Benguela; in der Stadt Benguela gab es seinerzeit sogar eine deutsche Schule. Fast alle haben seither aber das Land verlassen.
Die ethnischen Unterschiede haben, im Gegensatz zu anderen (afrikanischen und nichtafrikanischen) Ländern, in Angola nur in Maßen für gesellschaftlichen Zündstoff gesorgt. Als sich Bakongo, die in den 1970er Jahren in den Kongo-Kinshasa geflohen waren, bei ihrer Rückkehr in großer Zahl in Luanda niederließen, hat das zwar zu gegenseitigem „Fremdeln“ zwischen ihnen und den ansässigen Ambundu geführt, nicht aber zu massiven oder gar gewalttätigen Konflikten. Als sich im Bürgerkrieg Ambundu und Ovimbundu gegenüberstanden, bekam der Konflikt auf seinem Höhepunkt auch ethnische Untertöne; seit Frieden herrscht, sind diese deutlich abgeklungen. Bei Konflikten aller Art können solche Abgrenzungen aber wieder ins Spiel kommen. Außerdem ist das Problem der Rassenbeziehungen zwischen Schwarzen, Mischlingen und Weißen noch in keiner Weise ausgestanden, zumal es von der Politik her manipuliert wird und seinerseits die Politik bedingt.
Sprachen.
Fast alle der in Angola gesprochenen Sprachen gehören zur Bantu-Sprachfamilie. Portugiesisch ist Amtssprache in Angola. Sie wird zu Hause von 85 % der Bevölkerung in den Städten und von 49 % der Landbevölkerung gesprochen. Von allen afrikanischen Ländern hat sich Angola alles in allem vermutlich die Sprache der ehemaligen Kolonialmacht am stärksten zu eigen gemacht. Unter den afrikanischen Sprachen Angolas am weitesten verbreitet sind das Umbundu, das von 23 % der Bevölkerung, besonders von der ethnischen Gruppe der Ovimbundu gesprochen wird, das Kikongo (8,24 %) der Bakongo, das Kimbundu (7,82 %) der Ambundu und das Chokwe (6,54 %) der Chokwe. Andere Sprachen sind Ngangela, Oshivambo (Kwanyama, Ndonga), Mwila, Nkhumbi, Otjiherero sowie das im 20. Jahrhundert von Rückwanderern aus dem Zaire eingeführte Lingala. In Angola werden insgesamt (je nach Einteilungskriterien) rund 40 verschiedene Sprachen/Dialekte gesprochen.
Religionen.
In Angola gibt es knapp 1000 Religionsgemeinschaften. Nach dem Zensus 2014 gehören den oft schon während der Kolonialzeit gegründeten protestantischen Kirchen 38,1 % der Bevölkerung an, während 41,1 % der Bevölkerung Anhänger der römisch-katholischen Kirche sind. Keiner Religionsgemeinschaft gehören 12,3 % der Einwohner an.
Methodisten sind besonders im Gebiet von Luanda bis Malanje vertreten, Baptisten im Nordwesten und Luanda. In Zentralangola und den angrenzenden Küstenstädten ist vor allem die "Igreja Evangélica Congregacional em Angola" "(Evangelisch-Kongregationalistische Kirche in Angola)" vertreten. Aus der Kolonialzeit stammen auch verschiedene kleinere Gemeinschaften, so Lutheraner (z. B. in Südangola) und Reformierte (vor allem in Luanda). Dazu kommen Adventisten, neuapostolische Christen sowie (nicht zuletzt durch Einflüsse aus Brasilien) seit der Unabhängigkeit eine Vielfalt pfingstlich-charismatischer Freikirchen und die Zeugen Jehovas. Die neuen Gemeinschaften, darunter zum Beispiel die als Wirtschaftsunternehmen organisierte „Igreja Universal do Reino de Deus“ (IURD, Vereinigte Kirche des Reichs Gottes), die in Brasilien entstand und sich von dort aus in die anderen portugiesischsprachigen Länder ausbreitete, sind besonders in den größeren Städten vertreten und haben zum Teil erheblichen Zulauf.
Aufgrund von Einflüssen aus Südafrika und Namibia hat sich in den 2000er Jahren ein kleiner Ableger der anglikanischen Kirche des südlichen Afrika gebildet. Am 24. September 2021 gründete sich daraus die Anglikanische Kirche von Mosambik und Angola. Schließlich gibt es zwei christlich-synkretistische Gemeinschaften, die in der DR Kongo verwurzelten Kimbanguisten und die im kolonialen Angola entstandenen Tokoisten.
Nur noch ein verschwindend geringer Teil der Bevölkerung hängt ausschließlich traditionellen Religionen an, aber unter den Christen finden sich nicht selten Bruchstücke von Vorstellungen, die aus diesen Religionen stammen.
Der Anteil der Muslime (fast alle sunnitisch) beträgt laut Zensus 2014 nur 0,4 Prozent. Er setzt sich aus Einwanderern aus verschiedenen, meist afrikanischen Ländern zusammen, die aufgrund ihrer Verschiedenartigkeit keine Gemeinschaft bilden. Saudi-Arabien bemühte sich um eine Ausbreitung des Islams in Angola. So kündigte es 2010 an, dass es in Luanda die Errichtung einer islamischen Universität finanzieren werde. Im November 2013 wurde jedoch dem Islam und zahlreichen anderen Organisationen die Anerkennung als Religionsgemeinschaft verweigert, da sie nicht mit dem Christentum vereinbar seien. Zudem wurden Gebäude, die ohne Baugenehmigung errichtet wurden, zum Abriss vorgesehen. Mehr als 60 Moscheen im Land wurden geschlossen.
Die katholische Kirche, die traditionellen protestantischen Kirchen und einige Freikirchen unterhalten soziale Einrichtungen, die dazu bestimmt sind, Mängel in der gesellschaftlichen oder staatlichen Versorgung auszugleichen. Die katholische Kirche und die traditionellen protestantischen Kirchen äußern sich gelegentlich zu politischen Fragen und finden dabei unterschiedliches Gehör.
Soziales.
Gesundheitsversorgung.
Die Ernährungs- und Gesundheitssituation der angolanischen Bevölkerung ist – aus europäischer Perspektive – größtenteils katastrophal. Nur rund 30 % der Bevölkerung haben Zugang zu grundlegender medizinischer Versorgung und nur 40 % haben Zugang zu ausreichend reinem Trinkwasser. Jährlich sterben tausende Menschen an Durchfallerkrankungen oder Atemwegsentzündungen. Daneben sind Malaria, Meningitis, Tuberkulose und Erkrankungen durch Wurmbefall verbreitet. Die Infektionsrate mit HIV liegt nach Schätzungen von UNAIDS bei 2 % und damit für die Region sehr niedrig. Als Grund hierfür wird die Abschottung des Landes während des Bürgerkrieges genannt.
Im Jahr 1987 wurde ein erster großer Cholera-Ausbruch in Angola gemeldet, welcher 16.222 Fälle und 1.460 Todesfälle umfasste. Er begann am 8. April 1987 in der Provinz Zaire und breitete sich auf viele andere Gebiete einschließlich der Provinz Luanda aus. Nachdem die Zahl der Fälle zwischen Juli und Oktober zurückgegangen war, kam es ab November zu einem Anstieg, und galt als endemisch, wobei die Ausbrüche 1988 in zahlreichen Provinzen weiter anhielten. Im Jahr 1988 wurden zwei Drittel der Cholerafälle in Afrika von Angola gemeldet (15 500 Fälle gegenüber 23 223 in ganz Afrika). Zwischen 1997 und 2005 wurde kein Cholerafall mehr gemeldet.
Ausbruch der Cholera 2006/2007:
Zwischen dem 13. Februar 2006 und dem 9. Mai 2007 erlebte Angola einen seiner schlimmsten Cholera-Ausbrüche in der Geschichte und meldete 82 204 Fälle mit 3092 verbundenen Todesfällen und einem Gesamt-Fall-Verstorbenen-Anteil (FVA) von 3,75 %. Der Höhepunkt des Ausbruchs wurde Ende April 2006 mit einer täglichen Inzidenz von 950 Fällen erreicht.
Der Ausbruch begann in Luanda und erreichte rasend schnell 16 der 18 Provinzen. Die Entwicklung deutet darauf hin, dass die Krankheit sich sowohl über den Seeweg als auch über den Landweg ausgebreitet haben könnte. Die Cholera-Ausbrüche in Angola sind Berichten zufolge hauptsächlich auf den schlechten Zugang zu Grundversorgung wie der Versorgung mit sauberem Wasser und sanitären Einrichtungen zurückzuführen. Zwar wird der Erfolg aller Hilfsmaßnahmen bei der Eindämmung des Cholera-Ausbruchs anerkannt, doch das Fehlen einer langfristigen und nachhaltigen Versorgung mit sauberem Wasser und sanitären Einrichtungen sowie einer verbesserten Gesundheitsversorgung macht viele Menschen immer noch anfällig für Cholera und andere damit zusammenhängende Krankheiten wie Marburg, Polio etc. Obwohl Luanda die meisten Fälle (rund 50 %) meldete, wiesen andere Provinzen wie Bié, Huambo, Cuanza Sul und Lunda Norte den höchsten FVA-Wert auf. Dies ist mit dem schwierigen Zugang zu Gesundheitseinrichtungen zu erklären, wobei die weit von Luanda entfernten Provinzen besonders unterversorgt waren.
Im Jahr 2007 meldete Angola 18 422 Fälle, darunter 513 Todesfälle (FVA 2,78 %). Luanda verzeichnete 37 % aller Fälle und Benguela 22,5 %. Den höchsten Fall-Verstorbenen-Anteil meldete Cuanza Sul mit 12 %.
Etwa ein Drittel der Bevölkerung ist teilweise oder vollständig von ausländischen Nahrungsmittelhilfen abhängig. 2015 waren 14,0 % der Bevölkerung unterernährt. Im Jahr 2000 waren es noch 50,0 % der Bevölkerung.
Die Sterblichkeit bei unter 5-jährigen betrug 2020 71,5 pro 1000 Lebendgeburten und damit leicht unter dem Wert von Sub-Sahara-Afrika von 73,3. Aufgrund der mangelnden medizinischen Versorgung ist auch die Zahl der Frauen, die während der Geburt sterben, extrem hoch. Die Lebenserwartung der Einwohner Angolas ab der Geburt lag 2020 bei 61,5 Jahren (Frauen: 64,4, Männer: 58,7).
Bildungswesen.
Während der Kolonialzeit wurde das Bildungswesen bis auf das letzte Jahrzehnt vernachlässigt und war stets ein Instrument der Kolonialpolitik. Nach der Unabhängigkeit setzte ein systematischer Neubeginn an, bei dem die Zusammenarbeit mit Kuba eine wichtige Rolle spielte. Der Bürgerkrieg behinderte diese Anstrengungen und führte vor allem in ländlichen Regionen zu einem eklatanten Lehrermangel. Der Aufbau eines neuen Bildungswesens wurde insgesamt jedoch fortgesetzt, besonders in den Städten, in denen sich nach und nach die Hälfte der Bevölkerung konzentrierte. Seit dem Frieden 2002 wurden und werden große Anstrengungen unternommen, um die Situation zu verbessern und die enormen Defizite auszuräumen. In der gleichen Zeit begann in Angola eine Schulreform mit der Absicht, die Inhalte der Schule für die Kinder relevanter zu machen und bessere Ergebnisse zu erzielen.
In Angola gehen weniger als zwei Drittel der Kinder im schulpflichtigen Alter zur Schule. In den Grundschulen wiederholen 54 % der Kinder eine oder mehrere Klassen. Wenn die Kinder die fünfte Klasse erreichen, gehen nur noch 6 % der Kinder ihrer Altersgruppe in die Schule. Dies hat auch mit dem Umstand zu tun, dass für die Versetzung in höhere Klassen ein gültiger Personalausweis vorzulegen ist, den viele nicht haben. Diese hohe Schulabbrecherquote entspricht dem Mangel an Schulen mit fünfter und sechster Klasse. Die Alphabetisierungsrate der erwachsenen Bevölkerung betrug 2015 71,1 % (Frauen: 60,2 %, Männer: 82,0 %)
Von der Bevölkerung >18 Jahre verfügen 47,9 % über keinen Schulabschluss, 19,9 % über einen Primarschulabschluss, 17,1 % über einen mittleren Schulabschluss (I ciclo do ensino secundário), 13,2 % über einen Sekundarschulabschluss (II ciclo do ensino secundário) und 2,0 % über einen Hochschulabschluss. Bei den 18–24-Jährigen liegen die Quoten bei 25 % (kein Schulabschluss), 34 % (Primarschulabschluss), 29 % (mittlerer Schulabschluss), 13 % (Sekundarschulabschluss) und 0 % (Hochschulabschluss). Die Quote der Bevölkerung >24 Jahre mit Hochschulabschluss ist von Provinz zu Provinz sehr unterschiedlich. Den höchsten Anteil verzeichnen Luanda (5,4 %) und Cabinda (3,8 %), den niedrigsten Cunene (0,6 %) und Bié (0,5 %).
In Zusammenarbeit mit dem angolanischen Bildungsministerium betreibt die Hilfsorganisation "Ajuda de desenvolvimento de Povo para Povo em Angola" sieben Lehrerausbildungsstätten in Huambo, Caxito, Cabinda, Benguela, Luanda, Zaire und Bié, die so genannten "Escolas dos Professores do Futuro", an denen bis Ende 2006 mehr als 1000 Lehrer für den Einsatz in den ländlichen Gebieten ausgebildet wurden. Bis 2015 sollen acht weitere dieser Lehrerausbildungsstätten eingerichtet und 8000 Lehrer ausgebildet werden.
Das Hochschulwesen bestand bis in die späten 1990er Jahre aus der staatlichen Universidade Agostinho Neto, deren etwa 40 Fakultäten über das ganze Land verteilt waren und sich insgesamt in einem schlechten Zustand befanden. Daneben gab es nur noch die Universidade Católica de Angola (UCAN) in Luanda.
Inzwischen gibt es, vor allem in Luanda, eine wachsende Anzahl privater Universitäten. Dazu zählen unter anderem die Universidade Lusíada de Angola, die Universidade Lusófona de Angola, und die Universidade Jean Piaget de Angola die allesamt eng mit den gleichnamigen Universitäten in Portugal verbunden sind. Mit Unterstützung einer Lissaboner Universität ist auch die Angola Business School entstanden.
Rein angolanische Initiativen sind die Universidade Privada de Angola, die Universidade Metodista de Angola, die Universidade Metropolitana de Angola, die Universidade Independente de Angola, die Universidade Técnica de Angola, die Universidade Gregório Semedo die Universidade Óscar Ribas, die Universidade de Belas, und das Instituto Superior de Ciências Sociais e Relações Internacionais.
Alle diese Universitäten sind in Luanda angesiedelt, obwohl einige auch „pólos“ genannte Außenstellen in anderen Städten haben, so die Universidade Privada de Angola in Lubango, die Universidade Lusófona de Angola in Huambo und die Universidade Jean Piaget in Benguela. Im Sinne einer Dezentralisierung des Hochschulwesens war es jedoch entscheidend, dass 2008/2009 aus der Universidade Agostinho Neto sechs Regionaluniversitäten mit je eigenem Namen ausgegliedert wurden, die die bestehenden Fakultäten übernahmen und meist weitere gründeten, und die innerhalb ihres jeweiligen Zuständigkeitsgebiets in anderen Städten „pólos“ einrichteten. In Benguela entstand so die Universidade Katyavala Bwila, in Cabinda die Universidade 11 de Novembro, in Huambo die Universidade José Eduardo dos Santos mit „pólo“ in Bié, in Lubango die Universidade Mandume ya Ndemufayo (siehe auch Mandume yaNdemufayo) mit „pólo“ in Ondjiva, in Malanje mit Saurimo und Luena die Universidade Lueij A’Nkonde und in Uíge die Universidade Kimpa Vita.
In den meisten Fällen waren die Namensgeber afrikanische Führungsfiguren aus vorkolonialer Zeit oder aus der Zeit des Primärwiderstands gegen die koloniale Eroberung. Sämtliche Universitäten haben mit Aufbauschwierigkeiten zu kämpfen. Der Zuständigkeitsbereich der Universidade Agostinho Neto wurde auf die Provinzen Luanda und Bengo beschränkt. Die qualitativen Unzulänglichkeiten des Hochschulwesens sind durch diese Entwicklung jedoch bislang nur teilweise überwunden worden. In Luanda haben aufgrund der Vielfalt der Universitäten einige von ihnen mit einer abnehmenden Nachfrage zu kämpfen.
"Siehe auch: Liste der Universitäten in Angola"
Politik.
Politisches System.
Zurzeit ist die politische Macht auf die Präsidentschaft konzentriert. Die Exekutive bestand bis 2017 aus dem langjährigen Präsidenten, José Eduardo dos Santos, der zugleich Oberkommandierender der Streitkräfte und Regierungschef war, und dem Ministerrat. Der Ministerrat, bestehend aus allen Regierungsministern und Vizeministern, trifft sich regelmäßig, um über politische Themen zu diskutieren. Die Gouverneure der 18 Provinzen werden vom Präsidenten ernannt und handeln nach seinen Vorstellungen. Das Verfassungsrecht von 1992 begründet die wesentlichen Merkmale der Regierungsstruktur und nennt die Rechte und Pflichten der Bürger. Das Rechtssystem, das auf dem portugiesischen Recht und dem Gewohnheitsrecht basiert, ist schwach und bruchstückhaft. Gerichte sind nur in zwölf von mehr als 140 Stadtverwaltungen tätig. Das oberste Gericht dient als Rechtsmittelinstanz. Ein Verfassungsgericht – mit der Fähigkeit einer unparteiischen Bewertung – wurde bis 2010 nicht ernannt, obwohl es das Gesetz vorsieht. Seit 2017 ist João Lourenço Präsident. Im Dezember 2019 wurde das auf 2,2 Milliarden US-Dollar geschätzte Vermögen von Isabel dos Santos, der Tochter des alten Präsidenten, eingefroren. Dennoch hat sich der Zustand von Demokratie und Menschenrechten im Land unter Lourenço nicht verbessert.
Die 2010 vom Parlament angenommene Verfassung hat die autoritären Züge des politischen Systems nochmals verschärft. Hervorzuheben ist, dass die Präsidentschaftswahl abgeschafft wurde und in Zukunft der Vorsitzende und der stellvertretende Vorsitzende derjenigen Partei, die bei den Parlamentswahlen die meisten Stimmen erhält, automatisch Staatspräsident bzw. Vizepräsident sind. Der Staatspräsident kontrolliert über verschiedene Mechanismen sämtliche Staatsorgane, einschließlich des nunmehr geschaffenen Verfassungsgerichts; von einer Gewaltenteilung kann man infolgedessen nicht sprechen. Es handelt sich also nicht mehr um ein Präsidialsystem, wie es das etwa in den USA oder Frankreich gibt, sondern um ein System, das verfassungsrechtlich in dieselbe Kategorie fällt wie die cäsaristische Monarchie Napoleon Bonapartes, das korporative System António de Oliveira Salazars nach der portugiesischen Verfassung von 1933, die brasilianische Militärregierung nach der Verfassung von 1967/1969 sowie verschiedene autoritäre Regime im gegenwärtigen Afrika.
Der 27 Jahre andauernde Bürgerkrieg in Angola hat die politischen und gesellschaftlichen Einrichtungen des Landes stark beschädigt. Die UN vermutet, dass es in Angola 1,8 Millionen Flüchtlinge gab. Mehrere Millionen Menschen waren direkt von Kriegshandlungen betroffen. Täglich spiegelten die Lebensbedingungen im ganzen Land, besonders in Luanda (durch immense Landflucht ist die Hauptstadt auf über fünf Millionen Einwohner angewachsen), den Zusammenbruch der Verwaltungsinfrastruktur und der vielen gesellschaftlichen Einrichtungen wider. Krankenhäuser hatten oft weder Medikamente noch eine Grundausstattung, Schulen hatten keine Bücher, und Angestellte im öffentlichen Dienst besaßen keine Ausstattung, um ihrer täglichen Arbeit nachzugehen. Seit dem Ende des Bürgerkriegs im Jahre 2002 sind massive Bemühungen um Wiederaufbau unternommen worden, doch finden sich dessen Spuren überall im Lande. Die vielfältigen Probleme und Möglichkeiten des Wiederaufbaus werden in großer Ausführlichkeit beschrieben vom Angolaportugiesen José Manuel Zenha Rela.
Die zwei einflussreichsten Gewerkschaften sind:
Parlament.
Am 5. und 6. September 2008 wählten die Angolaner erstmals seit Ende des Bürgerkrieges eine neue Nationalversammlung. Nach Auffassung von Wahlbeobachtern der SADC und der Afrikanischen Union (AU) verlief die Wahl „allgemein frei und fair“. Beobachter der EU wiesen zwar auf die sehr gute technische und logistische Vorbereitung der Wahlen, die hohe Wahlbeteiligung sowie den friedlichen Prozess der Stimmabgabe hin. Kritisiert wurde allerdings die chaotische Abhaltung der Wahlen vor allem in der Hauptstadt Luanda. Nach Auffassung internationaler Beobachter bestanden in der Zeit vor den Wahlen keine freien und für alle Parteien gleichen Voraussetzungen für faire Wahlen. Es wird von fast allen Beobachtern übereinstimmend hervorgehoben, dass die staatlichen Medienanstalten massiv zugunsten der MPLA missbraucht wurden, freier Zugang zu den elektronischen Medien für die Oppositionsparteien außerhalb Luandas nicht gegeben war. Die angolanische Zivilgesellschaft spricht von staatlich finanzierten Wahlgeschenken der MPLA und Einschüchterungen durch deren Sympathisanten.
Die MPLA gewann die Wahl mit knapp 82 % der abgegebenen Stimmen, während die UNITA etwas mehr als 10 % der Stimmen auf sich vereinigen konnte. Die größte Oppositionspartei legte zunächst Beschwerde gegen die Wahl ein, gestand nach deren Ablehnung jedoch ihre Niederlage ein.
Folgende Parteien verfügten nach dieser Wahl über Sitze im Parlament:
Die Regierung bestätigte 2011/2012 ihre Absicht, 2012 erneut Parlamentswahlen abzuhalten und so zum ersten Mal die verfassungsmäßige Bestimmung zu achten, nach der Wahlen alle vier Jahre stattfinden müssen. Außer den im Parlament vertretenen Parteien waren weitere 67 Parteien berechtigt, bei diesen Wahlen anzutreten. José Eduardo dos Santos tat wiederholt seine Absicht kund, bei diesen Wahlen nicht erneut zu kandidieren, sodass sich die Frage stellte, wer sein Nachfolger als Staatspräsident sein würde.
Die Wahlen fanden dann am 31. August 2012 statt. Im Gegensatz zu seinen vorherigen Erklärungen war José Eduardo dos Santos erneut Spitzenkandidat des MPLA, das etwas mehr als 70 % der Stimmen erhielt – also weniger als 2008, aber immer noch eine sehr komfortable Mehrheit, die dos Santos das Verbleiben im Amt garantierte. Die UNITA erhielt um die 18 % und die Neugründung CASA ("Convergência Ampla de Salvação de Angola") rund 6 %. Weitere Parteien zogen nicht ins Parlament ein, da keine auch nur 2 % der Stimmen erreichte. Bemerkenswert sind die starken Unterschiede zwischen den Regionen, besonders in Hinsicht auf die Resultate der Opposition. So erhielt diese rund 40 % in den Provinzen Luanda und Cabinda, in denen das Niveau der Politisierung besonders hoch ist.
Am 23. August 2017 fanden erneut Wahlen statt. Präsident dos Santos trat nicht mehr an. Die MPLA erhielt rund 65 % der Stimmen und stellte damit weiter den Präsidenten. Die UNITA kam auf rund 27 %.
Die jüngsten Wahlen fanden am 24. August 2022 statt. Nachdem sich die größte Oppositionspartei UNITA mit dem Demokratischen Block (BD) im Oktober 2021 zu einem Wahlbündnis unter dem Namen „FPU“ („Vereinte Demokratische Front“) zusammengeschlossen hatte, wurden der Opposition gute Chancen eingeräumt, erstmals die regierende MPLA abzulösen. Im Vorfeld der Wahl ging die Regierung jedoch gezielt mit Hausdurchsuchungen und Verhaftungen gegen Oppositionelle vor, die von „Hexenjagd“ und Willkür sprachen. Die Regierung warf den Oppositionsparteien vor, die Bevölkerung aufzuhetzen und machte sie für Straßenproteste und Angriffe auf MPLA-Büros verantwortlich. Nach der Wahl zweifelte die UNITA das vorläufige Wahlergebnis an und forderte eine internationale Kommission zur Überprüfung der Wahlzettel. Die Wahlkommission von Angola billigte jedoch am 29. August das endgültige Wahlergebnis, nach dem die MPLA mit rund 51 % die Mehrheit der Stimmen gewonnen habe, die UNITA erhielt demnach rund 44 %. Auch bei den umstrittenen, nachgezählten Stimmen habe die Regierungspartei die Mehrheit gewonnen. Sie erhielt allerdings eine Million Stimmen weniger als bei den Wahlen 2017.
Menschenrechte.
2008 kam es laut Amnesty International wiederholt zu willkürlichen Festnahmen von Personen, die ihr Recht auf freie Meinungsäußerung bzw. auf Versammlungs- und Vereinigungsfreiheit wahrgenommen hatten. Ein staatliches soziales Sicherungssystem gibt es nicht. Alleinstehende Frauen stehen vor allem in den ländlichen Gebieten vor zusätzlichen Schwierigkeiten. In einigen Gemeinden ist es Frauen traditionell untersagt, eigenes Land zu besitzen und dieses zu kultivieren.
Nach den Nationalversammlungswahlen 2017 hat sich unter dem neuen Präsidenten João Lourenço die Meinungs-, Presse- und Versammlungsfreiheit verbessert. Die staatlichen Medien berichten freier und unabhängiger, deren Führungspersonal, das aus hohen Funktionären der Regierungspartei MPLA bestand, wurde ausgetauscht und Verträge mit Medienunternehmen, die Familienangehörigen des ehemaligen Präsidenten gehörten und als Sprachrohr der Partei agierten, wurden gekündigt. Bereits während des Wahlkampfs berichteten die Medien über die Wahlauftritte der Opposition und alle Parteien erhielten Sendezeit im staatlichen Fernsehen. Auch die Versammlungsfreiheit wurde weitgehend gewährleistet. Seit dem Amtsantritt des neuen Präsidenten gibt es keine Erkenntnisse über Verurteilungen oder Verhaftungen regierungskritischer Journalisten.
Bis ins 21. Jahrhundert konnte Homosexualität in Angola nach Artikel 71 und 72 des Strafgesetzbuches als „Verstoß gegen die öffentliche Moral“ mit Haft oder Arbeitslager bestraft werden. Diese Bestimmungen wurden 2018 nicht nur abgeschafft, sondern die Diskriminierung auf Basis der sexuellen Orientierung wurde verboten. Arbeitgeber, die sich weigern, Menschen aufgrund ihrer sexuellen Orientierung einzustellen, können mit einer Gefängnisstrafe bis zu zwei Jahren bestraft werden. Gleichgeschlechtliche Beziehungen waren in Teilen der Gesellschaft lange tabuisiert.
In einem offenen Brief forderten mehrere Menschenrechtsgruppen und Persönlichkeiten des Landes die US-amerikanische Außenministerin Hillary Clinton auf, den Zustand der Demokratie in Angola auf ihrer Afrikareise 2009 anzusprechen. „Weltweit ist die Vorstellung in Umlauf, dass Angola große demokratische Fortschritte macht. In Wirklichkeit werden die Menschen mit anderen Ideen (als jene der Regierung) verfolgt und festgenommen. Das Kundgebungsrecht existiert nicht“, klagte David Mendes von der Organisation „Associação Mãos Livres“ (Vereinigung der Freien Hände). China bekomme immer mehr Einfluss in Angola. „Und jeder weiß, dass China die Menschenrechte nicht respektiert“, sagte Mendes. Amnesty International rief bereits 2007 in einem offenen Brief an die EU auf, die schwierige Situation der Menschenrechte in Angola anzusprechen und auf ihre Agenda zu setzen.
Beobachter im Land schätzen die Rahmenbedingungen der Lebensumstände in Angola als potenziell gewalttätig ein. Der historische Verlauf vom gewaltorientierten Handeln der ehemaligen portugiesischen Staatsmacht im Kolonialkrieg bis zur staatlichen Unabhängigkeit im Jahre 1975, ein darauf folgender 30-jähriger Bürgerkrieg und extrem ungesicherte soziale Verhältnisse mit bewaffneten Lokalkonflikten bis in die Gegenwart hat große Teile der angolanischen Bevölkerung an Gewaltwillkür von jeglichen Seiten im Alltag gewöhnt. Im Verlauf der jüngeren Landesgeschichte wurde die Achtung des individuellen Menschenlebens beeinträchtigt und es entspricht inzwischen den Alltagserfahrungen vieler Bürger, dass nur die Ziele die Mittel rechtfertigten würden.
Aussagen in Medien, die Hinrichtungen unterstützen, zeigen, dass unter der Bevölkerung das „physische Aussterben“ mutmaßlicher oder tatsächlicher Krimineller begrüßt wird. Eine Orientierung auf rechtsstaatliche Standards ist nur schwach vorhanden, wie zum Beispiel auf das Recht auf Leben. Populistische Meinungsbildungen, ebenso von und in Behörden verbreitet, nutzen die gefühlte Angst der Bevölkerung vor Verbrechen, um die angolanischen Bürger von rechtsstaatlichen Denkweisen fernzuhalten, sich von Menschenrechten zu distanzieren oder ihre Bürgerrechte im Lebensalltag nicht einzufordern. Zu dieser Entwicklung gehen regional auftretende Vorfälle parallel einher, bei denen es zu Überfällen und Morden unter der Zivilbevölkerung kommt, auf die keine Aufklärung und keine strafrechtlichen Konsequenzen für die Täter folgen. Diese Alltagserfahrungen stehen im Widerspruch zu den politischen Proklamationen der angolanischen Regierung zugunsten von vermeintlich garantierten rechtsstaatlichen Normen im Land.
Politischer Protest.
Offenbar unter dem Einfluss der Volksaufstände in arabischen Ländern gab es Versuche am 7. März 2011 und dann wieder zu einem späteren Zeitpunkt, in Luanda eine Großdemonstration gegen das politische Regime in Angola zu organisieren. Es handelte sich um Versuche, Protest unabhängig von den Oppositionsparteien zu artikulieren. Die MPLA hat am 5. März in Luanda eine „präventive Gegendemonstration“ mit vorgeblich einer Million Anhängern veranstaltet. Während der folgenden Monate fanden Proteste im Internet und bei Rapveranstaltungen statt. Am 3. September 2011 wurde dann erneut die Erlaubnis zu einer regimekritischen, vor allem gegen die Person des Staatspräsidenten gerichteten Demonstration erteilt, die dann jedoch unter Einsatz von Schlagstöcken und Schusswaffen gewaltsam aufgelöst wurde, als sie den ihr zugestandenen Bereich zu überschreiten begann. Etwa 50 Personen wurden verhaftet und sahen einer summarischen Verurteilung entgegen.
Außenpolitik.
Angola ist seit 1976 Mitglied der Vereinten Nationen, seit 1996 Mitglied der WTO und seit 2007 bei der OPEC sowie Gründungsmitglied der Südafrikanischen Entwicklungsgemeinschaft SADC, als auch bei der AU (Afrikanische Union) und der CPLP, der Gemeinschaft der Staaten portugiesischer Sprache.
Am 15. Oktober 2013 wurde die strategische Partnerschaft mit Portugal von Angola aufgekündigt. Präsident dos Santos erklärte, die Beziehungen zwischen den beiden Ländern seien nicht gut. Die Ursache war der Umstand, dass die portugiesische Justiz einige politisch gewichtige Angolaner, die zum engeren Umkreis des Staatspräsidenten gehören, aufgrund von in Portugal begangenen Delikten (vor allem massiver Geldwäsche) unter Anklage gestellt hatte.
"Siehe auch: Liste der angolanischen Botschafter beim Heiligen Stuhl, Liste der angolanischen Botschafter in Brasilien, Liste der angolanischen Botschafter in Frankreich, Liste der angolanischen Botschafter in São Tomé und Príncipe"
Verwaltungsgliederung.
Territoriale Gliederung.
Angola gliedert sich in 18 Provinzen (portugiesisch: "províncias", Singular – "província"):
Diese 18 Provinzen untergliedern sich weiter in 162 Municípios, 559 Kommunen und 27.641 Örtlichkeiten (Localidades).
Städte.
Zur Bevölkerung der Städte liegen für die nachkoloniale Zeit bis ins 21. Jahrhundert keine zuverlässigen Zahlen vor. Von der Veröffentlichung der Erhebung des Instituto Nacional de Estatística aus dem Jahr 2008, die nach 2011 zur Verfügung stand, wurde ein qualitativer Fortschritt erwartet. Nach der Projektion 2020 wurden in den offiziellen Statistiken nur die Einwohnerzahlen der Municípios, aber nicht der einzelnen Kommunen veröffentlicht. Ein Município umfasst neben der größten Stadt des Landkreises auch einige kleinere Orte in der Umgebung. Demnach ergibt sich für die Municípios folgendes Bild:
Militär.
Die Streitkräfte Angolas unterhalten ein etwa 107.000 Mann starkes Militär, die Forças Armadas Angolanas (FAA). Angola gab 2020 knapp 1,7 Prozent seiner Wirtschaftsleistung oder 1,04 Mrd. US-Dollar für seine Streitkräfte aus. Die Ausgaben für Verteidigung gehören damit zu den höchsten in ganz Afrika. Es gibt drei Teilstreitkräfte: "Heer", "Marine" sowie "Luftwaffe und Luftabwehrkräfte", wovon das Heer zahlenmäßig die größte darstellt. Militärisches Gerät stammt hauptsächlich aus der ehemaligen Sowjetunion. Kleine Kontingente sind in der Republik Kongo und der Demokratischen Republik Kongo stationiert. Generalstabschef ist der General Egídio de Sousa Santos.
Wirtschaft.
Allgemein.
Mit einem Bruttoinlandsprodukt von 95,8 Milliarden US-Dollar (2016) ist Angola nach Südafrika und Nigeria die drittgrößte Volkswirtschaft Subsahara-Afrikas. Gleichzeitig lebt ein großer Teil der Bevölkerung in Armut.
Das Bruttoinlandsprodukt pro Kopf betrug im selben Jahr 3.502 US-Dollar (6.844 USD kaufkraftbereinigt). Angola stand damit weltweit an 120. Stelle (von ca. 200 Ländern insgesamt).
Angolas Wirtschaft leidet unter den Folgen des jahrzehntelangen Bürgerkriegs. Dank seiner Bodenschätze – vorrangig der Ölvorkommen und Diamantenabbau – gelang dem Land jedoch während der letzten Jahre ein großer wirtschaftlicher Aufschwung. Das Wirtschaftswachstum Angolas ist im Jahr 2019 das größte in Afrika. Allerdings kommen die Einkünfte aus den Rohstoffvorkommen nicht bei dem Großteil der Bevölkerung an, sondern bei korrupten Nutznießern innerhalb der politisch und ökonomisch Herrschenden des Landes sowie einer sich langsam bildenden Mittelschicht. Der Mittelschicht gehörten 2015 nur 4,4 Millionen der damals 26 Millionen Einwohner an. Ein großer Teil der Bürger ist arbeitslos und etwa die Hälfte leben unterhalb der Armutsgrenze, wobei es drastische Unterschiede zwischen Stadt und Land gibt. Eine Erhebung des Instituto Nacional de Estatística von 2008 kommt zu dem Ergebnis, dass auf dem Lande rund 58 % als arm zu betrachten waren, in den Städten jedoch nur 19 %, insgesamt 37 %.
In den Städten, in denen sich inzwischen mehr als 50 % der Angolaner zusammenballen, ist die Mehrheit der Familien auf Überlebensstrategien angewiesen. Dort wird auch die soziale Ungleichheit am deutlichsten greifbar, insbesondere in Luanda. Das Entwicklungsprogramm der Vereinten Nationen zählt Angola zu den Ländern mit mittlerer menschlicher Entwicklung.
Die Arbeitslosigkeit liegt landesweit bei 24,2 %, wobei es kaum Unterschiede zwischen Männern und Frauen gibt. Große Unterschiede sind jedoch zwischen den Provinzen zu verzeichnen. Während die Arbeitslosigkeit in Lunda Sul (43 %), Lunda Norte (39 %), Luanda (33 %) und Cabinda (31 %) am höchsten ist, liegt sie in Namibe und Huíla (17 %), Malanje (16 %), Cuanza Sul und Benguela (13 %) am niedrigsten.
Die wichtigsten Handelspartner für den Export von Gütern und Rohstoffen sind die USA, China, Frankreich, Belgien und Spanien. Importpartner sind überwiegend Portugal, Südafrika, USA, Frankreich und Brasilien. 2009 entwickelte sich Angola für Portugal zum größten Exportmarkt außerhalb Europas, und rund 24.000 Portugiesen übersiedelten in den letzten Jahren nach Angola, suchten dort Beschäftigung oder gründeten Unternehmen. Erheblich wichtiger ist jedoch die Präsenz Chinas in Form einer ganzen Reihe großer Unternehmen. Nach dem Ende des Bürgerkriegs 2002 ersuchte Angola bei China einen Kredit von 60 Milliarden US-Dollar für Infrastrukturmaßnahmen wie Eisenbahn-, Straßen-, Wohnungs- und Krankenhausbau. Er soll mit Erdöllieferungen zurückgezahlt werden. Die von den chinesischen Firmen – einschließlich chinesischer Arbeitskräfte – ausgeführten Projekte sind jedoch von sehr schlechter Qualität. Neu gebaute Straßen und Eisenbahnstrecken müssen alle zwei Jahre repariert werden, die Wohnungen weisen nach wenigen Jahren Risse und Wasserinfiltrationen auf, das von den Chinesen 2006 fertiggestellte städtische Krankenhaus Hospital Geral de Luanda musste schon sechs Jahre nach der Einweihung abgerissen und 2015 neu eröffnet werden.
Von grundlegender Bedeutung für die Bevölkerung Angolas ist die Schattenwirtschaft, die sich schon während der „sozialistischen“ Phase entwickelte und in der Phase der Liberalisierung exponentiell angewachsen ist und die zurückzudrängen sich die Regierung gegenwärtig bemüht.
Lange Zeit war Angola abhängig von seinen Erdölexporten. Fast alles wird importiert, sogar Mineralwasser, obwohl das Land über unzählige Wasserquellen verfügt. Der Verfall des Ölpreises drückte empfindlich auf den Staatshaushalt des südwestafrikanischen Landes. Seit einigen Jahren bemüht es sich, seine Wirtschaft zu diversifizieren – weg allein vom Erdöl. Dafür ist der Ausbau der Infrastruktur nötig, die Modernisierung der Energieversorgung und bessere Bedingungen für private Investoren.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Angola Platz 137 von 140 Ländern (Stand 2018). Außerhalb der Ölförderung ist die Leistungsfähigkeit der einheimischen Industrie sehr schwach. Der Staat nimmt großen Einfluss auf das wirtschaftliche Geschehen. Gleichzeitig ist Korruption im staatlichen Sektor sehr ausgeprägt. Im Index für wirtschaftliche Freiheit belegt das Land 2018 deshalb nur Platz 164 von 180 Ländern.
Fischfabrik.
In ihre Fischfabrik von Solmar investierte Elizabete Dias Dos Santos 25 Millionen US-Dollar. Die Verarbeitungsanlage eröffnete im Herbst 2016. Diese Art von Fließbandproduktion ist in dem Sektor einzigartig in Angola. 120 Menschen arbeiten in der Fabrik. Daneben profitieren die Zulieferer, denn mehr als 50.000 Menschen leben vom traditionellen Fischfang in Angola. 40 % der Ankäufe erfolgt bei den Kleinfischern. Um private Investoren zu gewinnen, hatte die angolanische Regierung die Bedingungen für einheimische und ausländische Unternehmen verbessert durch unter anderem Steuervergünstigungen, Hilfe bei der Finanzierung und vereinfachte Verfahren zur Firmengründung.
Stahlwerk.
Bei Aceria de Angola, nördlich der Hauptstadt Luanda ging 2015 ein Stahlwerk mit einer Kapazität von 500.000 Tonnen pro Jahr in Betrieb. 350 Millionen Dollar wurden investiert. Das Werk hat mehr als 500 Arbeitsplätze und bietet vielen Menschen eine Ausbildung. In dem Werk wird vornehmlich Schrott recycelt und daraus Baustahl für Betonbauten hergestellt. Ziel des libanesisch-senegalesischen Betreibers Georges Fayez Choucair ist es, zu Exportieren. Daher ist die Kapazität des Werkes doppelt so hoch wie der angolanische Bedarf.
Mit dem Werk wurde auch die Region elektrifiziert und die Wasserversorgung erschlossen. Es musste eigens eine Hochspannungsleitung hierher gelegt werden. Die Arbeitslosigkeit in der Region sank von circa siebzig auf etwa zwanzig Prozent. Fayez Choucair ist überzeugt: „Man kann nicht in einem neuen Land investieren, in einer völlig neuen Bevölkerung und ankommen und sich einnisten nach dem Motto ‚ich bin reich‘ – nein! Man muss heute die Bevölkerung für sich gewinnen, das ist kein Projekt eines Einzelnen, sondern ein Gemeinschaftsprojekt!“
Privatisierungsprogramm.
Ende 2018 wurde mit dem Präsidialdekret Nº141/18 die Privatisierungsbehörde IGAPE (Institito de Gestão de Activos e Participação do Estado) gegründet, mit der die Regierung 195 staatliche Unternehmen komplett oder teilweise privatisieren will, um den Privatsektor zu stärken und somit das Wachstum des Landes zu fördern. Das Programm umfasst die wichtigsten Wirtschaftszweige wie den Energiesektor (Sonangol), Telekommunikation und IT, den Finanzbereich (Bankwesen (BAI), Versicherungen (ENSA), Kapitalfonds), den Transportsektor (TAAG), den Tourismus sowie das verarbeitende Gewerbe einschließlich der Nahrungsmittelverarbeitung und der Landwirtschaft. Die meisten Unternehmen sollen 2020 verkauft werden.
Elektrizitätsversorgung.
Im Jahre 2011 lag Angola bezüglich der jährlichen Erzeugung mit 5,512 Mrd. kWh an Stelle 119 und bzgl. der installierten Leistung mit 1.657 MW an Stelle 114 in der Welt. 2014 betrug die installierte Leistung 1.848 MW, davon 888 MW in Wärmekraftwerken und 960 MW in Wasserkraftwerken.
Bis 2014 waren nur 30 bis 40 % der Bevölkerung an das Stromnetz angeschlossen. Daher begann die Regierung mit der Planung erheblicher Investitionen (bis 2017 23,4 Mrd. US-Dollar) im Bereich der Stromversorgung. Dies beinhaltet den Bau neuer Kraftwerke, Investitionen in die Übertragungsnetze sowie die ländliche Elektrifizierung. Es sollen eine Reihe von Wasserkraftwerken an Cuanza und Kunene errichtet werden, um das Wasserkraftpotenzial (geschätzt 18.000 MW) auszuschöpfen. Das Wasserkraftpotenzial des Kunene war schon in der Vergangenheit eine Basis für Projekte und Teilinvestitionen umfangreicher und nie komplett verwirklichter Planungen, die im Rahmen des ehemaligen Cunene-Projektes zwischen Südafrika und Angola bzw. Portugal entstanden. Die Talsperre Laúca mit einer geplanten Leistung von 2.070 MW wird zurzeit errichtet. Sie soll voraussichtlich im Juli 2017 in Betrieb gehen.
Gegenwärtig (Stand April 2015) gibt es in Angola kein nationales Verbundnetz, sondern es existieren drei voneinander unabhängige regionale Netze für den Norden, das Zentrum und den Süden des Landes sowie weitere isolierte Insellösungen. Dadurch können die Überschüsse aus dem nördlichen Netz nicht in die übrigen Netze eingespeist werden. Das bei weitem wichtigste Netz ist das nördliche, das auch die Hauptstadt Luanda umfasst. Nach Fertigstellung der Talsperre Laúca sollen auch die drei Stromnetze miteinander verbunden werden.
Die Stromversorgung ist im ganzen Land unzuverlässig und verbunden mit regelmäßigen Stromausfällen, die durch den Betrieb teurer Generatoren kompensiert werden müssen. Der Preis je kWh liegt bei 3 AOA (ca. 2,5 €-cent), wird jedoch erheblich subventioniert und ist nicht kostendeckend.
Regionale Disparitäten.
Ein strukturelles Problem der angolanischen Wirtschaft sind die extremen Unterschiede zwischen den verschiedenen Regionen, die zum Teil auf den langanhaltenden Bürgerkrieg zurückzuführen sind. Rund ein Drittel der wirtschaftlichen Tätigkeit konzentriert sich auf Luanda und die angrenzende Provinz Bengo, die immer stärker zum Expansionsraum der Hauptstadt wird. Auf der anderen Seite herrscht in verschiedenen Regionen des Binnenlandes Stillstand oder gar Rückschritt. Mindestens ebenso gravierend wie die soziale Ungleichheit sind die deutlichen wirtschaftlichen Unterschiede zwischen den Regionen. 2007 konzentrierten sich in Luanda 75,1 % aller geschäftlichen Transaktionen und 64,3 % der Arbeitsplätze in (öffentlichen oder privaten) Wirtschaftsunternehmen. 2010 waren 77 % aller Unternehmen in Luanda, Benguela, Cabinda, der Provinz Kwanza Sul und Namibe angesiedelt. Das BIP pro Kopf war 2007 in Luanda samt angrenzender Provinz Bengo auf rund 8000 US-Dollar angewachsen, während es im westlichen Mittelangola dank Benguela und Lobito etwas unter 2000 US-Dollar lag, im übrigen Land jedoch deutlich unter 1000 US-Dollar. Die Tendenz zur Ballung der Wirtschaft im Küstenstreifen, insbesondere im „Wasserkopf“ Luanda/Bengo, hat seit dem Ende des Bürgerkriegs nicht etwa abgenommen, sondern sich fortgesetzt und bringt eine „Entleerung“ eines großen Teils des Binnenlandes mit sich. Die globalen Wachstumszahlen täuschen also darüber hinweg, dass die Wirtschaft Angolas unter extremen Ungleichgewichten leidet.
Korruption.
Eines der am stärksten ausgeprägten Merkmale des heutigen Angola ist eine allgegenwärtige Korruption. In den Erhebungen von Transparency International erscheint das Land regelmäßig unter den weltweit korruptesten, in Afrika in einer Kategorie mit Somalia und Äquatorialguinea. In den ersten fünf Jahren des 21. Jahrhunderts wurde geschätzt, dass Öleinnahmen im Wert von vier Milliarden US-Dollar oder 10 % des damaligen Bruttoinlandsprodukts durch Korruption versickerten.
Seit Jahren steht der Kampf gegen die Korruption im Regierungsprogramm, doch nur ganz selten ist nachzuweisen, dass diese Absichtserklärung in die Tat umgesetzt wird. Eine aufsehenerregende Ausnahme war Ende 2010 die Entlassung von zehn Abteilungsleitern und fast 100 Beamten der Fremden- und Grenzpolizei SME (Serviço de Migrações e Estrangeiros), die nicht nur für die Grenzkontrolle, sondern auch für die Erteilung von Einreise-, Aufenthalts- und Ausreisegenehmigungen zuständig ist.
Der neue Staatspräsident João Lourenço geht offenbar entschieden gegen Korruption und Vetternwirtschaft vor. Bereits im ersten Amtsjahr ersetzte er mehrere Provinz-Gouverneure, Minister, hohe Beamte und Verwalter von Staatsbetrieben, wie beispielsweise die Leiterin des staatlichen Ölkonzerns Sonangol, Isabel dos Santos, Tochter des vorangegangenen Staatspräsidenten oder den Aufsichtsratsvorsitzenden des staatlichen Öl-Fonds mit einem Wert von 5 Milliarden US-Dollar, José Filomeno dos Santos, Sohn des Vorgängers. José dos Santos wurde im September 2018 verhaftet und steht unter Verdacht, 500 Mio. US-Dollar des Staatsfonds illegal ins Ausland überwiesen zu haben. Er wurde im März 2019 aus der Untersuchungshaft entlassen und wartete seitdem zu Hause auf seinen Prozess, der am 9. Dezember 2019 in Luanda begann.
Wirtschaftskennzahlen.
Das Bruttoinlandsprodukt und der Außenhandel Angolas sind in den letzten Jahren aufgrund steigender Einkünfte durch die Erdölausfuhr massiv gewachsen. Mit dem Sinken des Ölpreises ab 2014 kam es zu einem Einbruch.
Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich folgendermaßen:
Staatshaushalt.
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 33,50 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 27,27 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 6,5 % des BIP.
Angolas Schulden beliefen sich im Dezember 2011 auf insgesamt 31,4 Milliarden Dollar. Nahezu die Hälfte davon, ca. 17,8 Milliarden, waren nach Aussage von Finanzminister Carlos Alberto Lopes Auslandsschulden. Hauptgläubiger der angolanischen Regierung waren China mit 5,6 Milliarden, Brasilien mit 1,8 Milliarden, Portugal mit 1,4 Milliarden und Spanien mit 1,2 Milliarden. Die Inlandsschulden in Höhe von 13,6 Milliarden Dollar resultieren hauptsächlich aus Anleihen und Schatzanweisungen zur Unterstützung der laufenden staatlichen Investitions-Programme.
2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche:
Im Oktober 2019 wurde eine Mehrwertsteuer (IVA) von 14 % eingeführt, um den Staatshaushalt unabhängiger von den Erdölexporten zu machen. Zuvor gab es nur eine Konsumsteuer (IC) von 10 %, die damit abgeschafft wurde. Die berechneten Mehreinnahmen für 2020 durch die IVA betragen 432,4 Milliarden Kwanzas, die berechneten Staatseinnahmen für 2020 ohne den Erdölsektor betragen 712,3 Milliarden Kwanzas.
Der Staatshaushalt für das Jahr 2020 beträgt 15,9 Billionen Kwanzas (27 Milliarden Euro). Dabei geht die Regierung von einem mittleren Erdölpreis von 55 US-Dollar/Barrel, einer Inflationsrate von 24 % und einem realen Wirtschaftswachstum von 1,8 % aus. Die Sozialausgaben betragen 40,7 % der Gesamtausgaben. Dazu zählt auch der Umweltschutz, dessen Ausgaben im Vergleich zum Vorjahr um 180 % erhöht wurden.
Auslandsinvestitionen.
Seit Ende des Bürgerkriegs steigen die privaten Investitionen von Angolanern im Ausland ständig an. Dies hängt damit zusammen, dass sich im Lande die Akkumulation auf eine kleine gesellschaftliche Gruppe konzentriert und dieser daran gelegen ist, ihren Besitz aus Gründen der Sicherheit und der Profitmaximierung zu streuen. Bevorzugtes Anlageziel ist Portugal, wo angolanische Anleger (einschließlich der Familie des Staatspräsidenten) in Banken und Energieunternehmen, in der Telekommunikation und in der Presse präsent sind, aber auch z. B. Weingüter und Tourismusobjekte aufkaufen.
Verkehr.
Schienenverkehr
Der Schienenverkehr in Angola ist auf die Häfen ausgerichtet. Er wird auf drei Netzen betrieben, die nicht verbunden sind. Eine weitere, nicht mit den drei Netzen verbundene Strecke wurde inzwischen eingestellt. Es finden sowohl Güter- als auch Personenverkehr statt. Die gesamte Streckenlänge beträgt 2764 Kilometer, davon 2641 Kilometer in der im südlichen Afrika üblichen Kapspur und 123 Kilometer in 600-Millimeter-Spur (Stand 2010). Alleiniger Betreiber ist die staatliche Gesellschaft Caminhos de Ferro de Angola (CFA).
Es gibt Fernverkehrsbusse der Unternehmen Macon und Grupo SGO, die Luanda mit den größten Städten des Landes verbinden. Macon bietet internationale Verbindungen nach Windhoek und Kinshasa an.
In Angola verfügen 10 Fluggesellschaften über die Lizenz für Inlandsflüge: Aerojet, Air Guicango, Air Jet, Air 26, Bestfly, Heliang, Heli Malongo, SJL, Sonair und TAAG. Sonair besitzt mit sechs Flugzeugen die größte Flotte für den Binnenmarkt. Die Flughäfen mit den meisten Passagieren im Jahr 2016 waren: Luanda, Cabinda, Soyo, Catumbela und Lubango. TAAG ist die internationale Fluglinie von Angola.
Es bestehen Katamaranverbindungen für Passagiere vom Zentrum Luandas in die Vororte Benfica, Samba, Corimba, Cacuaco und Panguila sowie eine Schnellfährverbindung für den Personen-, Fahrzeug- und Gütertransport von Luanda nach Cabinda, die vom staatlichen "Instituto Marítimo e Portuário de Angola" durchgeführt werden. Geplant sind weitere Schiffsverbindungen nach Lobito, Namibe und Porto Amboim.
Telekommunikation.
In Angola gibt es 14 Millionen Benutzer von Mobiltelefonen, das entspricht 46 % der Bevölkerung. Der Markt wird unter den beiden Unternehmen Unitel (82 %) und Movicel (18 %) aufgeteilt. Über einen Internetzugang verfügen 20 % der Einwohner, auch hier sind die beiden Marktführer Unitel (87 %) und Movicel (12 %). Das Telefonfestnetz wird nur von 0,6 % der Einwohner genutzt. Dieser Markt wird von der Angola Telecom (58 %) angeführt, gefolgt von MsTelecom (21 %), TV Cabo (19 %) und Startel (2 %). Das Fernsehen wird nur von 7 % der Bevölkerung genutzt, der Marktführer ist in diesem Segment das Unternehmen ZAP (69 %), gefolgt von DStv (28 %) und TV Cabo (3 %).
Am 26. Dezember 2017 wurde AngoSat-1, der erste angolanische Kommunikationssatellit, vom russischen Raketenstartplatz Baikonur in eine geostationäre Umlaufbahn gebracht. Die geplante Orbitalposition konnte jedoch nicht erreicht werden und er wurde einige Monate später aufgegeben.
Am 26. September 2018 nahm das South Atlantic Cable System, ein 6165 km langes Seekabel, das Angola mit Brasilien in 63 Millisekunden verbindet, den Betrieb auf. Es ermöglicht auch die Verbindung Luanda – Miami (über Fortaleza) in 128 Millisekunden.
Kultur.
Literatur.
Einige bekannte angolanische Schriftsteller sind Mário Pinto de Andrade, Luandino Vieira, Arlindo Barbeitos, Alda Lara, Agostinho Neto, Pepetela, Ondjaki und José Eduardo Agualusa.
Unter dem Eintrag "Arquivos dos Dembos / Ndembu Archives" wurden 1160 Manuskripte aus Angola vom 17. bis frühen 20. Jahrhundert in die UNESCO-Liste des Weltdokumentenerbes aufgenommen.
Musik.
In der Musik verfügt Angola über eine reiche Vielfalt an regionalen Stilen. Die Musik hat über die von dort deportierten Sklaven großen Einfluss auf die afroamerikanische Musik, vor allem auf die brasilianische Musik genommen. Aber auch kontemporäre angolanische Popmusik wird in den anderen portugiesischsprachigen Ländern gehört. Kizomba und Kuduro sind Musik- und Tanzstile, die sich von Angola aus in der Welt verbreitet haben. Andersherum ist im modernen Musikleben und der Jugendkultur Luandas ein zunehmender Einfluss aus den US-amerikanischen und brasilianischen Musikmärkten zu spüren.
Zu den bekanntesten Pop-Musikern zählen Waldemar Bastos, Paulo Flores, Bonga, Vum Vum Kamusasadi, Maria de Lourdes Pereira dos Santos Van-Dúnem, Ana Maria Mascarenhas, Mario Gama, Pérola, Yola Semedo, Anselmo Ralph und Ariovalda Eulália Gabriel.
Medien.
Die Nichtregierungsorganisation Reporter ohne Grenzen sieht in Angola erkennbare Probleme für die Pressefreiheit.
Fernsehen
Televisão Pública de Angola (angolanisch, staatlich), TV Zimbo (angolanisch, privat), AngoTV (angolanisch, privat), Rádio Televisão Portuguesa (portugiesisch, öffentlich-rechtlich), Rádio Televisão Portuguesa Internacional (portugiesisch, öffentlich-rechtlich), Televisão Comercial de Angola (angolanisch, staatlich), ZON Multimédia (privat), TV Record (brasilianisch, privat) TV Globo (brasilianisch, privat), Televisão de Moçambique (TVM) (mosambikanisch, staatlich)
Radio
RNA (Rádio Nacional de Angola) (staatlich), Rádio LAC (Luanda Antena Comercial), Rádio Ecclesia (katholischer Radiosender), Rádio Cinco (Sportradio), Rádio Despertar (der UNITA nahestehend), Rádio Mais (privat), TSF (portugiesisches Radio), Rádio Holanda (auf Portugiesisch)
Internet
Im Jahr 2020 nutzten 36 Prozent der Einwohner Angolas das Internet.
Zeitungen
Jornal de Angola (staatlich)
"Wochenzeitungen" (alle privat): Semanário Angolense, O País, A Capital, Folha 8, Agora, Angolense, Actual, Independente, Cara, Novo Jornal, O Apostolado (kirchlich), Gazeta de Luanda
"Wirtschaftswochenzeitungen:" Jornal de Economia & Finanças (staatlich), Semanário Económico (privat), Expansão (privat)
Zeitschriften
Rumo (Wirtschaftszeitschrift, privat)
Nachrichtenagenturen
Agência Angola Press (ANGOP; staatlich)
Sport.
Am 8. Oktober 2005 gelang es der angolanischen Fußballnationalmannschaft, sich unerwartet für die WM 2006 in Deutschland zu qualifizieren. Ein knappes 1:0 beim Gruppenletzten in Ruanda reichte aus, um das Ticket zu lösen und Nigeria, das seit 1994 an jeder WM-Endrunde teilnahm, aus dem Wettbewerb zu werfen. Das angolanische Team nahm damit zum ersten Mal an einer WM-Endrunde teil, wo es nach einem gegen Portugal, einem gegen Mexiko und einem gegen den Iran als Gruppendritter in der Vorrunde ausschied. Weiterhin nahm die Mannschaft an den Afrikameisterschaften (Afrika-Cup) 1996, 1998, 2006, 2008, 2010 (als Ausrichter), 2012, 2013 und 2019 teil.
Die angolanische Basketballnationalmannschaft der Herren hat elf der letzten dreizehn Austragungen der Afrikameisterschaft gewonnen, womit sie die erfolgreichste Mannschaft der Wettbewerbsgeschichte ist. Daher nimmt sie regelmäßig an der Weltmeisterschaft und den Olympischen Spielen teil. Bei den Spielen 1992 war Angola der erste Gegner des US-amerikanischen Dream Teams. Die größten sportlichen Erfolge waren bislang das Überstehen der Vorrunde bei den Weltmeisterschaften 2002, 2006 und 2010.
Die Frauen-Handballnationalmannschaft hat bereits elfmal den Afrikameistertitel geholt und ist zudem als erste afrikanische Mannschaft bei einer WM in die Endrunde gelangt.
Diese Sportart wird schon seit der portugiesischen Kolonialzeit in Angola betrieben. Im März 2019 wurde in Luanda die erste Afrikanische Meisterschaft im Rollschuh-Hockey veranstaltet. Angola gewann dabei den Titel nach einem Sieg gegen Mosambik.
Das Surfen wird in Angola immer beliebter. Seit 2013 wird jedes Jahr im Oktober das "Social Surf Weekend" mit Teilnehmern aus dem In- und Ausland in Cabo Ledo mit Unterstützung des Tourismus-Ministeriums veranstaltet. Im Jahr 2018 hat es sich mit über 4000 Teilnehmern zum größten Sommer-Festival Angolas entwickelt. Im September 2016 fand die erste nationale Surf-Meisterschaft des Landes ebenfalls in Cabo Ledo statt. Sie wurde vom Angolanischen Wassersportverband organisiert. Im Juli 2018 wurde Angola Mitgliedsstaat der International Surfing Association (ISA). |
427 | 673484 | https://de.wikipedia.org/wiki?curid=427 | Asta Nielsen | Asta Nielsen (* 11. September 1881 in Kopenhagen; † 25. Mai 1972 in Frederiksberg; vollständiger Name "Asta Sofie Amalie Nielsen") war eine dänische Schauspielerin. Sie war der Star des deutschen Stummfilms.
Leben und Werk.
Asta Nielsen wuchs in Schweden und Dänemark auf. Ihr Vater Jens Christian Nielsen war ein häufig arbeitsloser Schmied, der starb, als Asta 14 Jahre alt war, die Mutter Ida Frederikke Petersen war eine Wäscherin. Bereits als Kind kam sie mit dem Theater in Berührung. Ihre uneheliche Tochter Jesta wurde 1901 geboren. Ab 1902 war sie in Kopenhagen fest angestellt.
Ihr erster Film, "Afgrunden" (1910, dt. "Abgründe"), brachte ihr und dem Regisseur Urban Gad gleich einen Vertrag zur Produktion von mehreren Filmen in Deutschland, der aufgrund des einsetzenden Erfolges bis 1915 verlängert wurde. Sie drehte anfangs ausschließlich unter der Regie von Urban Gad, den sie 1912 heiratete. 1915 endete die berufliche Zusammenarbeit, 1918 erfolgte die Scheidung.
Der außergewöhnliche Erfolg Asta Nielsens beim Publikum machte es ihren Produzenten möglich, ab 1911 abendfüllende Filmserien für die internationalen Märkte herzustellen und mit exklusiven Aufführungsrechten zu vermarkten. Dies stellte insbesondere in Anbetracht der in den Kinos noch vorherrschenden Kurzfilmprogramme und der dadurch bestimmten Sehgewohnheiten ein Wagnis dar und zielte darauf ab, auch das anspruchsvollere Theaterpublikum in die Kinos zu locken.
Meist waren ihre Rollen konfliktbeladene Frauen, deren Verhalten nicht den gesellschaftlichen Konventionen entsprach, so in "Der fremde Vogel" (1911) und "Die arme Jenny" (1912). Nielsen hatte aber auch Talent für komische Rollen und war beim Publikum damit vor allem in "Engelein" (1914) so erfolgreich, dass eine Fortsetzung gedreht wurde.
1916 ging sie wieder nach Dänemark und kehrte erst nach Ende des Ersten Weltkrieges nach Deutschland zurück, wo sie fortan vorwiegend in Literaturverfilmungen und Dramen auftrat. Zwischen 1920 und 1922 produzierte sie drei Filme selbst. Darunter eine Verfilmung von Shakespeares "Hamlet", in der sie den Dänenprinzen spielt. Nach der im Film vertretenen Theorie war Hamlet eine als männlicher Thronfolger erzogene Prinzessin, was seine/deren abweisende Haltung gegenüber Ophelia erklären soll, in Wahrheit aber wohl eher Asta Nielsen zu einer interessanten Rolle verhelfen sollte. Herausragend ist auch ihre Darstellung von Frauen am untersten Rand der Gesellschaft in "Die freudlose Gasse" (1925, als Maria Lechner, genannt Mizzi und Greta Garbo als Grete Rumfort) von Georg Wilhelm Pabst und in "Dirnentragödie" (1927, als Auguste mit Werner Pittschau in der Rolle des Studenten Felix) von Bruno Rahn.
Asta Nielsen war der große Star des Stummfilms, im Prinzip sogar der erste weibliche Filmstar überhaupt in der Geschichte des Kinos, in der sie als eines ihrer ersten Sexsymbole gelten kann. Asta Nielsen ließ sich nie auf ein Rollenfach festlegen: Sie spielte sowohl gebrochene, leidende Frauen als auch Prostituierte; Tänzerinnen ebenso wie einfache Arbeiterinnen. Ihre Körpersprache war immer dezent, dabei aber ausdrucksstark.
Ihre Filmkarriere endete mit dem Tonfilm, sie trat nur in einem einzigen, "Unmögliche Liebe", auf. Obwohl sie eine angenehme Stimme hatte, ging ihr gekonntes Mienenspiel in diesem neuen Medium unter. Filmangebote lehnte sie kontinuierlich ab. Sie widmete sich fortan dem Theater und veröffentlichte 1946 ihre Autobiographie "Die schweigende Muse". Der Antiquar Frede Schmidt nahm von 1956 bis 1959 in Kopenhagen heimlich seine fast täglichen Telefonate mit Asta Nielsen auf, die 2016 publik gemacht wurden. 1963 wurde sie mit dem Filmband in Gold für ihr langjähriges und hervorragendes Wirken im deutschen Film ausgezeichnet. 1968 erschien ein von ihr produzierter, autobiografischer Dokumentarfilm.
Beim Versuch, eine Straßenbahn in Innsbruck durch die vordere Tür, die nur von aussteigenden Fahrgästen genutzt werden durfte, zu besteigen, kam Nielsen im Februar 1951 zu Fall, nachdem sie vom Lenker der Straßenbahn gestoßen worden war. Sie kam daraufhin mit leichten Verletzungen ins Krankenhaus. Später gab sie an, den Lenker, der sie auf die Gefahr der sich automatisch schließenden Türen aufmerksam machen wollte, aufgrund einer Schwerhörigkeit nicht gehört zu haben.
Asta Nielsen starb 1972 und wurde auf dem Vestre Kirkegård (Westfriedhof) in Kopenhagen in einem anonymen Gemeinschaftsgrab beigesetzt.
Im September 2010 wurde sie mit einem Stern auf dem Boulevard der Stars in Berlin geehrt.
Familie.
Asta Nielsen war mindestens dreimal verheiratet. Alle Ehen blieben kinderlos. Ihre Tochter Jesta (1901–1964), die mit dem dänischen Maler, Graphiker und Sänger Paul Vermehren (1904–1964) verheiratet war, stammte aus einer unehelichen Beziehung. Den Vater hielt die Schauspielerin zeit ihres Lebens geheim.
Eine angeblich 1911 geschlossene Ehe mit dem Kaufmann "Alfred Schendel von Pelkowski" (* 1878) lässt sich nicht verifizieren. 1912 heiratete sie den dänischen Regisseur Urban Gad (1879–1947). Die Ehe wurde am 16. Dezember 1918 geschieden, nachdem sich das Paar bereits 1915 getrennt hatte. Ein Jahr später ehelichte sie den schwedischen Produzenten "Freddy Wingaardh". 1923 erfolgte die Scheidung. Über eine angebliche Heirat mit dem Regisseur "Sven Gade" konnte bislang kein Nachweis erbracht werden. Mit dem Schauspieler Grigori Chmara war sie von 1921 bis 1933 liiert, ohne mit ihm verheiratet zu sein. Ihre letzte Ehe, die bis zu ihrem Tod bestand, ging sie am 12. Januar 1970 mit "Christian Theede" (1899–1988) ein; er war Gärtnereibesitzer, Kunsthändler sowie Galerist auf der Insel Møn.
Asta-Nielsen-Haus.
Asta Nielsen besaß ab 1929 auf der deutschen Ostseeinsel Hiddensee ein Haus, das sie „Karusel“ nannte (dänische Bezeichnung für Karussell). Der Name leitet sich von zwei deutlich abgerundeten Ecken des quadratischen Grundrisses des Gebäudes ab. Sie verbrachte dort mit ihrer Tochter und ihrem Mann oft mehrere Monate im Sommer. Zu den Freunden und Bekannten, die sie dort besuchten, zählen auch Joachim Ringelnatz mit Frau, Heinrich George und Gerhart Hauptmann. Nach 1935 oder 1936 nutzte sie das Haus nicht mehr.
Das 1923 erbaute Haus des Architekten Max Taut wurde 1975 unter Denkmalschutz gestellt. Ihre Erben verkauften es 1989 an die Gemeinde. 2015 wurde es als „Asta-Nielsen-Haus“ eröffnet und enthält auch eine Ausstellung zu Asta Nielsen.
Kinothek Asta Nielsen.
2000 gründete sich in Frankfurt am Main durch eine Initiative von Filmemacherinnen, Kuratorinnen, Kritikerinnen, Studierenden, Historikerinnen und Filmliebhaberinnen die Kinothek Asta Nielsen. Die Kinothek ist ein Verein, der es sich zur Aufgabe gemacht hat, die Filmarbeit von Frauen zu dokumentieren und wieder in die Kinos zu bringen und schließt mit ihrer Arbeit an die feministische Filmarbeit der 1970er und 1980er Jahre an. Von 2006 bis 2018 war die Filmwissenschaftlerin und -kuratorin Karola Gramann die künstlerische Leitung der Kinothek Asta Nielsen. Ab 2018 leitete sie die Kinothek zusammen mit der Film- und Kulturwissenschaftlerin Gaby Babić. Seit 2020 ist Babić alleinige Geschäftsführerin und künstlerische Leiterin.
Die Kinothek widmete ihrer Namensgeberin mehrere Retrospektiven. |
428 | 4148543 | https://de.wikipedia.org/wiki?curid=428 | Autismus | Autismus (von „selbst“) ist eine Störung der neuronalen Entwicklung. Er wird in der Regel in der frühen Kindheit sichtbar und zeigt sich typischerweise in folgenden drei Bereichen:
Betroffene Menschen werden als "Autisten" oder als "autistisch" bezeichnet. Aufgrund ihrer Einschränkungen benötigen viele davon – manchmal lebenslang – Hilfe und Unterstützung. Autismus geht oft mit Beeinträchtigungen der Sprachentwicklung und Störungen der Intelligenzentwicklung einher. Trotz umfangreicher Forschungsanstrengungen gibt es derzeit keine allgemein anerkannte Erklärung der Ursachen autistischer Störungen.
Im deutschsprachigen Bereich wird im derzeit gültigen Klassifikationssystem ICD-10-GM zwischen drei verschiedenen Ausprägungen unterschieden, die als tiefgreifende Entwicklungsstörungen eingeordnet sind: frühkindlicher, atypischer Autismus und Asperger-Syndrom. Das 2013 veröffentlichte DSM-5 und die seit 2022 international gültige ICD-11 hingegen definieren nur noch eine allgemeine, übergreifende Autismus-Spektrum-Störung. Grund für diese Änderung war die zunehmende Erkenntnis der Wissenschaft, dass eine klare Abgrenzung der zuvor bei der Diagnostik unterschiedenen Subtypen nicht möglich ist – und man stattdessen von einem fließenden Übergang zwischen verschiedenen individuellen Ausprägungen des Autismus ausgehen sollte. Der Übergang von der ICD-10 zur ICD-11 wird ab 2022 einige Jahre in Anspruch nehmen.
Geschichte.
Zum Begriff.
Der Schweizer Psychiater Eugen Bleuler prägte den Begriff "Autismus" um 1911 im Rahmen seiner Forschungen zur Schizophrenie. Er bezog ihn ursprünglich zunächst nur auf diese Erkrankung und wollte damit eines ihrer Grundsymptome beschreiben – die Zurückgezogenheit in eine innere Gedankenwelt. Bleuler verstand unter "Autismus" „die Loslösung von der Wirklichkeit zusammen mit dem relativen oder absoluten Überwiegen des Binnenlebens.“
Sigmund Freud übernahm die Begriffe „Autismus“ und „autistisch“ von Bleuler und setzte sie annähernd mit „Narzissmus“ bzw. „narzisstisch“ gleich – als Gegensatz zu „sozial“. Die Begriffsbedeutung wandelte sich mit der Zeit von „dem Leben in einer eigenen Gedanken- und Vorstellungswelt“ hin zu „Selbstbezogenheit“ in einem allgemeinen Sinne.
Diagnose-Entstehung.
Hans Asperger und Leo Kanner nahmen den Autismus-Begriff unabhängig voneinander auf (siehe historische Literatur). Sie sahen in ihm aber nicht mehr nur ein einzelnes Symptom (wie Bleuler), sondern versuchten, damit gleich ein ganzes Störungsbild eigener Art zu erfassen. Sie unterschieden dabei Menschen mit Schizophrenie, die sich aktiv in ihr Inneres zurückziehen, von jenen, die von Geburt an in einem Zustand der inneren Zurückgezogenheit leben. Letzteres definierte nunmehr den „Autismus“.
Kanner prägte den Begriff des „frühkindlichen Autismus“ ("early infantile autism"), der daher auch als "Kanner-Syndrom" bezeichnet wird. Seine Sichtweise erreichte internationale Anerkennung und wurde zur Grundlage der weiteren Forschung und der Anerkennung von Autismus als eigenständiges Störungsbild.
Die Veröffentlichungen Aspergers zur „Autistischen Psychopathie“ hingegen wurden zunächst international kaum wahrgenommen. Dies lag zum einen an der zeitlichen Überlagerung mit dem Zweiten Weltkrieg und zum anderen daran, dass Asperger auf Deutsch publizierte und seine Texte lange nicht ins Englische übersetzt wurden. Die englische Psychiaterin Lorna Wing (siehe historische Literatur) führte seine Arbeit in den 1980er-Jahren fort und verwendete erstmals die Bezeichnung "Asperger-Syndrom".
Symptome.
Die zentralen Merkmale von Autismus sind eine dauerhafte Beeinträchtigung der wechselseitigen sozialen Kommunikation und Interaktion sowie beschränkte, repetitive Verhaltensweisen, Interessen oder Aktivitäten, die für die Umwelt ungewöhnlich oder dem Alter nicht angemessen erscheinen. Diese Symptome treten in der frühen Kindheit auf, typischerweise zwischen 12 und 24 Monaten, fallen jedoch in vielen Fällen erst dann auf, wenn sie zu Schwierigkeiten oder Beeinträchtigungen führen.
Autismus tritt in vielfältigen, individuellen Ausprägungen auf. Die einzelnen Aspekte der Symptomatik und die aus ihnen resultierenden Beeinträchtigungen können unterschiedlich stark ausgeprägt sein und sind beispielsweise auch abhängig von Sprachfähigkeit und Intelligenz, durch die Defizite verdeckt oder ausgeglichen werden können. Zudem variiert das Erscheinungsbild mit Alter und Entwicklungsstand, auch Unterschiede in Bezug auf das Geschlecht werden vermutet.
Autismus kann mit einem völligen Fehlen von Lautsprache, einer verzögerten Sprachentwicklung, Schwierigkeiten beim Sprachverständnis oder einer auffälligen Sprechweise und Verwendung von Sprache einhergehen. Da Spracherwerb eng mit sozialer Interaktion verknüpft ist, verläuft er bei autistischen Kindern häufig von Beginn an auffällig. Über zwei Drittel von ihnen entwickeln jedoch im Laufe des Lebens zumindest grundlegende Lautsprache.
In 25 % bis 42 % der Fälle geht Autismus mit einer geistigen Behinderung einher, welche in der Regel über einen unter 70 Punkte liegenden Intelligenzquotienten definiert wird. Die Diagnose kann durch die für Autismus charakteristischen Symptome erschwert werden. So konnte in einer Studie gezeigt werden, dass autistische Kinder bei dem stark auf verbalen Elementen basierenden Wechsler-IQ-Test im Schnitt 30 Prozentpunkte schlechter abschneiden als beim Ravens-Matrizentest, der keine solchen enthält. Autismus kann auch zusammen mit einer Hochbegabung auftreten.
Auffälligkeiten in der wechselseitigen sozialen Kommunikation und Interaktion.
Die Fähigkeit, mit anderen Personen in Interaktion zu treten oder Gedanken und Gefühle mitzuteilen, ist bei Autismus beeinträchtigt.
Bei kleinen Kindern zeigt sich dies beispielsweise dadurch, dass sie keine oder kaum soziale Interaktion initiieren oder das Verhalten anderer Personen imitieren. Vorhande Lautsprache wird oft einseitig eingesetzt und nicht zum gegenseitigen Austausch. Im Bereich der nonverbalen Kommunikation fallen autistische Kinder oft schon früh dadurch auf, dass sie nicht auf Gegenstände zeigen oder diese anderen Personen bringen, um ihr Interesse an ihnen zu signalisieren und zu teilen. Umgekehrt kann aufällig sein, dass autistische Kleinkinder Zeigegesten oder Blicken anderer Personen nicht folgen.
Allgemein sind fehlender oder ungewöhnlicher Einsatz von Blickkontakt, Gesten, Mimik, Körpersprache oder Intonation typisch für Autismus. Auch wenn beispielsweise einige Gesten erlernt wurden, bleibt das Repertoire hinter einem alterstypischen Umfang zurück und sie werden nicht spontan zur Kommunikation eingesetzt. Bei voll ausgebildeter Lautsprache ist oft eine fehlende Koordination zwischen verbalen und nonverbalen Elementen zu beobachten. So kann beispielsweise die Körpersprache auf andere Personen hölzern oder übertrieben wirken.
Im Bereich der sozialen Interaktion kann fehlendes, reduziertes oder ungewöhnliches Interesse an sozialen Kontakten bestehen. Dies kann etwa durch Ablehnung anderer, passives Verhalten in sozialen Situationen oder durch unangemessene, aggressiv oder unhöflich wirkende Kontaktaufnahme sichtbar werden. Diese Schwierigkeiten sind besonders bei autistischen Kindern auffällig, welche häufig kein alterstypisches Interesse an gemeinsamen Spielen oder Fantasie- und Rollenspielen zeigen oder auf Spielen nach strikten Regeln bestehen.
Ältere Kinder, Jugendliche und Erwachsene können Schwierigkeiten haben, das für eine soziale Situation kulturell angemessene Verhalten zu identifizieren oder zwischen unterschiedlicher Verwendung von Sprache zu unterscheiden, also etwa Ironie oder soziale Lügen zu erkennen. Eine Präferenz für alleine verfolgte Beschäftigungen oder die Interaktion mit deutlich jüngeren oder älteren Personen ist typisch. Häufig besteht ein Interesse an Freundschaften, ohne genau zu verstehen, was eine solche beinhaltet, also beispielsweise nicht allein auf einem geteilten Spezialinteresse aufbauen kann.
Ältere autistische Kinder und Erwachsene ohne kognitive Einschränkungen und verzögerte Sprachentwicklung haben oft Schwierigkeiten, sich in komplexen Situationen sozial angemessen zu verhalten oder auf nonverbale Kommunikation zu reagieren. Sie entwickeln häufig Kompensationsstrategien, so dass diese Schwierigkeiten vor allem in ungewohnten Situationen auffallen. Von dieser Gruppe wird soziale Interaktion oft als sehr anstrengend empfunden, da sie im Gegensatz zu nicht-autistischen Menschen, denen dies intuitiv gelingt, bewusst das Verhalten anderer beobachten und die eigene Reaktion steuern müssen. Mädchen und Frauen gelingt dieses sogenannte Camouflaging häufig besser.
Beschränkte, repetitive Verhaltensweisen, Interessen und Aktivitäten.
Typisch für Autismus sind repetitive Bewegungen wie Schaukeln mit dem Oberkörper, Flattern mit den Händen oder Fingerschnipsen, die fachsprachlich als Stereotypien bezeichnet werden. Auch die auf Wiederholung ausgerichtete Verwendung von Gegenständen, bei Kindern etwa das Aufreihen von Spielzeug oder die Beschäftigung mit kreiselnden Münzen, sind häufig zu beobachten. Im Bereich der Sprache sind Echolalie (das Wiederholen von Worten und Lauten) oder stereotype Verwendung von Worten, Phrasen und Prosodie typisch. Bei autistischen Kleinkindern lässt sich häufig eine ungewöhnlich intensive, wiederholte Beschäftigung mit einzelnen Gegenständen beobachten.
Viele autistische Menschen ohne kognitive oder sprachliche Einschränkungen lernen, dieses übergreifend als Stimming bezeichnete Verhalten in der Öffentlichkeit zu unterdrücken (Masking). Stimming wird von dieser Gruppe als angenehm und beruhigend beschrieben und kann zur Emotionsregulation und dem Abbau von Ängsten dienen.
Repetitive Verhaltensweisen können mit einer erhöhten oder reduzierten Empfindlichkeit für Reize in Verbindung stehen. Dies kann sich beispielsweise in Form von außergewöhnlich starken Reaktionen auf bestimmte Geräusche oder Texturen, dem Riechen und Berühren von Gegenständen oder einer Faszination für Lichter oder rotierende Objekte äußern. Auch eine Unempfindlichkeit für Schmerz, Hitze oder Kälte wird manchmal beobachtet. Typisch sind starke Reaktionen auf den Geschmack, Geruch, Textur oder Erscheinung von Essen oder ritualisiertes Verhalten in Bezug auf diese Reize. Eine stark begrenzte Diät ist ebenfalls häufig anzutreffen, bis hin zu einer vermeidend-restriktiven Ernährungsstörung.
Weiterhin typisch für Autismus ist ein starkes Festhalten an Routinen, das sich durch Bestehen auf strikte Befolgung von Regeln, starr wirkendes Denken oder Stress auch bei kleinen Abweichungen (wie einem veränderten Weg zur Schule oder Arbeit) äußern kann. Dieses Verhalten wird oft als „Widerstand gegen Veränderungen“ oder „Beharren auf Gleichartigkeit“ beschrieben.
Viele autistische Kinder, Jugendliche und Erwachsene widmen sich mit großer Intensität Spezialinteressen, die von Außenstehenden häufig als ungewöhnlich oder nicht altersgemäß wahrgenommen werden. Die Beschäftigung mit diesen Interessen ist in der Regel mit Freude verbunden. Ihr Verfolgen bietet Möglichkeiten, Fähigkeiten zu entwickeln und sie können schulische und berufliche Möglichkeiten eröffnen. Besonders bei Mädchen und Frauen können diese Interessen in ihrer Art auch als alterstypisch wahrgenommen werden (etwa Beschäftigung mit einer prominenten Person oder einer bestimmten Tierart), werden jedoch außergewöhnlich intensiv verfolgt.
Autismus-Spektrum.
Im deutschsprachigen Raum wird, der 10. Revision der "Internationalen Klassifikation der Krankheiten" der Weltgesundheitsorganisation (ICD-10, 1994) folgend, zwischen drei Ausprägungen des Autismus unterschieden:
In der seit Januar 2022 international gültigen ICD-11 sind alle Ausprägungen des Autismus zu einer einzelnen Diagnose "Autismus-Spektrum-Störung" (ASS; englisch "autism spectrum disorder", kurz "ASD") zusammengefasst. Damit folgt die ICD der 2013 veröffentlichten 5. Ausgabe des "Diagnostic and Statistical Manual of Mental Disorders," dem Klassifikationssystem der American Psychiatric Association, das auch international und in der Forschung Verwendung findet. Grund für diesen Schritt war die zunehmende Erkenntnis der Wissenschaft, dass eine ausreichend klare Abgrenzung der zuvor unterschiedenen Subtypen nicht möglich ist.
Frühkindlicher Autismus.
Der frühkindliche Autismus (auch als "autistische Störung, Kanner-Autismus, Kanner-Syndrom", oder "infantiler Autismus" bezeichnet) wurde zuerst 1943 von Leo Kanner beschrieben. Er gilt als prototypische Form des Autismus und wird in der Literatur auch als "klassischer Autismus" bezeichnet.
Er zeichnet sich durch charakteristische Auffälligkeiten in den Bereichen der sozialen Interaktion, der Sprache und Kommunikation sowie durch eingeschränkte, repetitive Verhaltensmuster aus. Häufig, jedoch nicht immer, geht er mit einer geistigen Behinderung einher. Typischerweise entwickeln sich die betroffenen Kinder von Beginn an auffällig. In einigen Fällen erscheint die frühkindliche Entwicklung anfangs normal und Auffälligkeiten werden erst im zweiten oder dritten Lebensjahr deutlich sichtbar. Es werden auch Fälle berichtet, in denen Kinder im zweiten und dritten Lebensjahr ihre zuvor gezeigten Sprachfähigkeiten verlieren und sich zunehmend sozial zurückziehen.
Kinder mit frühkindlichem Autismus entwickeln entweder nie eine Lautsprache, die Sprachentwicklung verläuft verzögert und anders als bei nicht-autistischen Kindern oder bereits erlernte Sprache bildet sich zurück. Dabei kann es zu einer Reihe von Auffälligkeiten kommen, die bei einer gewöhnlichen Sprachentwicklung nicht beobachtet werden, beispielsweise das als Echolalie bezeichnete Wiederholen von Worten und Sätzen eines Gesprächspartners, die ständige Wiederholung gleichartiger Geräusche oder ein eigenwilliger, nur für Vertraute verständlicher Sprachgebrauch. Hierin unterscheidet sich der frühkindliche Autismus von einer bloßen Verzögerung der Sprachentwicklung.
Bei frühkindlichem Autismus sind sogenannte Stereotypien oft vergleichsweise deutlich ausgeprägt. Zudem kommt selbstverletztendes Verhalten beispielsweise in Form von Kopfschlagen oder Beißen in Finger, Hände oder Handgelenke vor. Solche selbstverletzende Verhaltensweisen sind jedoch nicht zu verwechseln mit dem bewusst selbstverletzenden Verhalten, das typischerweise zum Spannungsabbau eingesetzt wird (etwa durch Verbrennungen oder Ritzen am Unterarm) oder – seltener – aus suizidalen Tendenzen heraus entsteht und dann ein anderes (suizidales) Verletzungsmuster aufweist.
Bei vielen Kindern, aber auch Jugendlichen und Erwachsenen, wird eine besonders leichte Reizbarkeit beobachtet, die sowohl für die Betroffenen als auch ihr Umfeld einen Stressfaktor darstellt. Diese Reizbarkeit kann unmittelbar mit für den frühkindlichen Autismus typischer Symptomatik in Verbindung stehen. So können beispielsweise Frustration über Nichtgelingen effektiver Kommunikation, Unterbrechungen bei der intensiven Beschäftigung mit Interessen oder eine hohe Sensibilität für Reize zu Stress und Wutausbrüchen führen. Diese sind für die betroffenen Personen oft nicht zu kontrollieren und werden auch als „Meltdowns“ bezeichnet.
Aggressives Verhalten, etwa gegenüber Altersgenossen oder Betreuungspersonen ist häufig. Physische Aggressionen sind oft impulsiv und können zu Verletzungen und Schäden führen, sind jedoch in der Regel – im Unterschied zu Störungen des Sozialverhaltens – nicht mit feindseligen Absichten verbunden. Ein Zusammenhang zwischen aggressivem Verhalten und dem Grad der kognitiven Einschränkungen besteht nicht.
Hochfunktionaler Autismus.
Treten alle Symptome des frühkindlichen Autismus zusammen mit normaler Intelligenz (einem IQ – nach Wechsler-Skala – von mehr als 70) auf, so sprach man von hochfunktionalem Autismus ("high-functioning autism", HFA). Diagnostisch wichtig ist hier insbesondere die verzögerte Sprachentwicklung. Gegenüber dem Asperger-Syndrom sind die motorischen Fähigkeiten meist deutlich besser.
Oftmals wird wegen der Verzögerung der Sprachentwicklung zunächst der niedrigfunktionale frühkindliche Autismus (LFA) diagnostiziert. Es kann aber später eine normale Sprachentwicklung erfolgen, bei der durchaus ein mit dem Asperger-Syndrom vergleichbares Funktionsniveau erreicht wird. Viele HFA-Autisten sind deshalb als Erwachsene kaum von Asperger-Autisten zu unterscheiden, meistens bleiben die autistischen Symptome aber deutlicher ausgeprägt als beim Asperger-Syndrom. Die Sprache muss sich dabei nicht zwangsläufig entwickeln, viele nicht sprechende HFA-Autisten können trotzdem eigenständig leben und lernen, sich schriftlich zu äußern. Internetbasierte Kommunikationsformen helfen gerade diesen Menschen, ihre Lebensqualität deutlich zu steigern.
Hochfunktionaler Autismus wurde bislang nicht in den international für Forschung und Gesundheitswesen maßgeblichen Klassifikationssysteme "Internationale Klassifikation der Krankheiten" und "Diagnostic and Statistical Manual of Mental Disorders" aufgenommen.
Die Verwendung des Begriffs „hochfunktional“ und seinem Gegenstück „niedrigfunktional“ zur näheren Spezifikation einer Autismus-Diagnose ist umstritten. Die Bezeichnungen werden Studien zufolge einerseits von autistischen Personen, ihren Angehörigen und den sie betreuenden Mitarbeitern im Gesundheitswesen mehrheitlich abgelehnt. Andererseits konnte gezeigt werden, dass die wahrgenommene „Funktionalität“ einer Person nicht mit ihren gemessenen kognitiven Fähigkeiten korreliert.
Teilweise wurde „Hochfunktionaler Autismus“ auch als Begriff für das Asperger-Syndrom verwendet.
Atypischer Autismus.
Atypischer Autismus unterscheidet sich vom frühkindlichen Autismus dadurch, dass Kinder erst im oder nach dem dritten Lebensjahr autistisches Verhalten zeigen (atypisches Manifestationsalter) und/oder nicht alle Symptome aufweisen (atypische Symptomatik).
Diese unkonkrete Formulierung der Diagnosekriterien für den "atypischen Autismus" führt dazu, dass diese unterschiedlich angewandt werden. Das Fehlen einer klaren Definition führt auch zu Schwierigkeiten in der Forschung, da zum "atypischen Autismus" gewonnene Erkenntnisse nur schwer miteinander vergleichbar sind und zudem offen bleibt, inwieweit diese auf den "frühkindlichen Autismus" übertragen werden können.
Wenn atypischer Autismus zusammen mit erheblicher Intelligenzminderung auftritt, wird manchmal auch von „Intelligenzminderung mit autistischen Zügen“ gesprochen.
Asperger-Syndrom.
Das Asperger-Syndrom (auch "Asperger-Autismus" oder "Asperger-Störung") wurde zuerst 1943 von dem österreichischen Kinderarzt Hans Asperger als „autistische Psychopathie“ beschrieben. Schon zuvor hatte ab 1925 die russische Kinderpsychiaterin Grunja Sucharewa über vergleichbare Fälle einer „schizoiden Persönlichkeitsstörung“ bzw. „schizoiden Psychopathie“ publiziert.
Das Asperger-Syndrom ist gekennzeichnet durch Auffälligkeiten in der wechselseitigen sozialen Interaktion sowie repetitive und ritualisierte Verhaltensmuster. Sprache, Intelligenz und Anpassungsfähigkeit entwickeln sich ohne auffällige Verzögerung. Im Bereich der Sprache sind jedoch Auffälligkeiten wie eine ungewöhnliche Intonation oder eine als pedantisch oder formell wahrgenommene Ausdrucksweise typisch. Weiterhin lässt sich oft eine motorische Ungeschicklichkeit beobachten. Es gibt zahlreiche Berichte über das gleichzeitige Auftreten von überdurchschnittlicher Intelligenz.
Als besonders problematisch erweist sich die soziale Interaktion, da Menschen mit Asperger-Syndrom nach außen hin keine offensichtlichen Anzeichen einer Behinderung haben. So kann es geschehen, dass die Schwierigkeiten von Menschen mit Asperger-Syndrom als bewusste Provokation empfunden werden, obwohl dies nicht der Fall ist. Wenn etwa eine betroffene Person auf eine an sie gerichtete Frage nur mit Schweigen reagiert, wird dies fälschlicherweise oft als Sturheit und Unhöflichkeit gedeutet.
Viele Menschen mit Asperger-Syndrom können durch Schauspielkunst und Kompensationsstrategien – das sogenannte Masking oder Camouflaging – nach außen hin eine Fassade aufrechterhalten, sodass ihre Probleme auf den ersten Blick nicht gleich sichtbar sind, jedoch bei persönlichem Kontakt durchscheinen, etwa in einem Vorstellungsgespräch. Menschen mit Asperger-Syndrom gelten nach außen hin oft als extrem schüchtern, jedoch ist das nicht das eigentliche Problem. Schüchterne Menschen verstehen die sozialen Regeln, trauen sich aber nicht, sie anzuwenden. Menschen mit Asperger-Syndrom verstehen sie hingegen nicht und haben deshalb Probleme, damit umzugehen. Die Fähigkeit zur kognitiven Empathie (Einfühlungsvermögen) ist manchmal nur schwach ausgeprägt. Bezüglich der affektiven Empathie ergab eine Übersichtsarbeit von 2013 uneinheitliche Ergebnisse: weniger als 50 % der Studien zeigten eine Einschränkung der emotionalen Wahrnehmung.
Inselbegabung.
Die Interessen von Autisten sind häufig auf bestimmte Gebiete konzentriert. Wenn jemand auf einem solchen Gebiet außergewöhnliche Fähigkeiten, zum Beispiel im Kopfrechnen, Zeichnen, in der Musik oder in der Merkfähigkeit aufweist, spricht man von einer „Inselbegabung“, bzw. von "Savants" (Wissende). Etwa 50 Prozent der Inselbegabten sind Autisten, jedoch ist nur ein kleiner Teil der Autisten inselbegabt. Der Film Rain Man trug in der Öffentlichkeit viel zu dieser Verwechslung bei.
Diagnose und Klassifikation.
Autismus wird zumeist in der Kindheit diagnostiziert. Die Diagnose erfolgt im Durchschnitt umso früher, je stärker die Verzögerung bei der Sprachentwicklung und je auffälliger das Verhalten sind. Das Asperger-Syndrom, das nicht mit einer Störung der Sprachentwicklung verbunden ist, wird daher häufig erst im Grundschulalter erkannt.
Manche Autisten erhalten die Diagnose jedoch erst als Erwachsene. Nach Daten der auf Autismus spezialisierten Kölner Spezialsprechstunde aus dem Zeitraum von 2005 bis 2009 erfolgte die erstmalige Diagnose beispielsweise im Durchschnitt im Alter von 34 Jahren. Auch bei vielen der erst im Erwachsenenalter diagnostizierten Personen waren charakteristische Symptome bereits in der Kindheit präsent, wurden jedoch nicht erkannt, falsch interpretiert oder es ergaben sich aus ihnen keine Schwierigkeiten, die für das Umfeld einen Anlass für eine Untersuchung darstellten.
Diagnostik.
Die Diagnose von Autismus erfolgt anhand der beobachteten Symptomatik. Zur Diagnostik geeignete Biomarker, etwa neurobiologische Befunde, sind nicht bekannt. Bei der Diagnostik ist wichtig, zu beachten, dass nicht einzelne Symptome autismusspezifisch sind, da ähnliche Merkmale auch bei anderen Störungen oder in der Allgemeinbevölkerung auftreten. Spezifisch für Autismus ist vielmehr die Kombination von mehreren dieser Symptome, d. h. der Symptomkonstellation, die zudem bereits seit der Kindheit vorliegen muss.
Dieses sogenannte klinische Bild wird durch Einsatz verschiedener diagnostischer Verfahren gewonnen. Zum Einsatz kommen können Interviews mit Patienten und/oder ihren Bezugspersonen, standardisierte und validierte Fragebögen sowie Verhaltensbeobachtungen und eine körperliche Untersuchung. Standardverfahren sind der "Autism Diagnostic Observation Schedule-2" ("ADOS-2", Verhaltensbeobachtung) sowie das "Autism Diagnostic Interview-Revised" ("ADI-R", Eltern-Interview), die auch in deutscher Sprache verfügbar sind. Die auf diese Weise erhobenen Informationen werden verglichen und gewichtet. Beispielsweise muss berücksichtigt werden, dass besonders bei Erwachsenen die Eigenwahrnehmung oder die Einschätzung einer Person durch die Eltern stark von der Wahrnehmung der sonstigen Umwelt abweichen kann. Weiterhin können sich Eltern oder andere Angehörige Erwachsener oft nicht mehr ausreichend präzise an Verhalten und Entwicklung in der Kindheit erinnern.
Erschwert wird die Diagnostik bei älteren Kindern, Jugendlichen und Erwachsenen oft dadurch, dass diese im Laufe ihres Lebens gelernt haben, auffällige Symptome wie repetitive Verhaltensweisen (Stimming) zu unterdrücken oder Schwierigkeiten bei sozialer Interaktion und Kommunikation zu kompensieren. Diese als Masking oder "Camouflaging" bezeichneten Strategien und Verhaltensweisen können zu einem unauffälligen ersten Eindruck führen, aber beispielsweise durch Beobachtung der Person in ungewohntem Umfeld oder Erfragen des kognitiven Aufwands erkannt werden.
Die Diagnose autistischer Mädchen und Frauen kann dadurch erschwert werden, dass ihnen – im Vergleich zu einer männlichen Vergleichsgruppe – das Masking häufig besser gelingt und ihre Spezialinteressen häufig unauffälliger sind oder eher als alterstypisch wahrgenommen werden.Jedoch ist auch bei ihnen zum Beispiel soziale Interaktion mit großen Anstrengungen verbunden und sie gehen ihren Interessen mit höherer Intensität und Qualität nach als nicht-autistische Gleichaltrige.
Nach ICD-10.
Autismus wird im fünften Kapitel der ICD-10 (1994) als tiefgreifende Entwicklungsstörung (Schlüssel F84) aufgeführt. Es wird unterschieden zwischen:
Sind sowohl die Kriterien für "frühkindlichen Autismus" als auch das "Asperger-Syndrom" erfüllt, wird die Diagnose "frühkindlicher Autismus" gestellt.
Nach DSM-5.
Das "Diagnostic and Statistical Manual of Mental Disorders ("das Klassifikationssystem der American Psychiatric Association, das auch international und in der Forschung Verwendung findet) fasst in seiner 5. Auflage (DSM-5, seit 2013, revidiert 2022) alle Formen des Autismus in der Diagnose "Autismus-Spektrum-Störung" (ASS, englisch "Autism Spectrum Disorder", "ASD") zusammen.
Die Diagnosekriterien lauten:
Für die Beeinträchtigungen der sozialen Kommunikation (A) und eingeschränkten, repetitiven Verhaltensmustern (B) soll jeweils ein Schweregrad angegeben werden, der die aktuell benötigte Unterstützung beschreibt:
Liegt ein bekannter medizinischer oder genetischer Krankheitsfaktor oder Umweltfaktor vor, soll dieser zusätzlich spezifiziert werden (z. B. „Autismus-Spektrum-Störung mit einhergehendem Rett-Syndrom“). Das Vorliegen einer intellektuellen oder sprachlichen Beeinträchtigung kann durch einen entsprechenden Zusatz gekennzeichnet werden (z. B. „Autismus-Spektrum-Störung mit begleitender Sprachlicher Beeinträchtigung – keine verständliche Sprache“). Weiterhin kann spezifiziert werden, dass die ASS mit einer Katatonie einhergeht.
Das DSM-5 weist ausdrücklich darauf hin, dass Personen mit einer gesicherten DSM-IV-Diagnose einer "autistischen Störung", "Asperger-Störung" oder "nicht näher bezeichneten tiefgreifenden Entwicklungsstörung" eine ASS-Diagnose nach DSM-5 erhalten sollen. Für Personen mit deutlichen sozialen Kommunikationdefiziten, die ansonsten nicht die Kriterien der Autismus-Spektrum-Störung erfüllen, solle die Diagnose einer "sozialen Kommunikationsstörung" erwogen werden.
Nach ICD-11.
Alle Ausprägungen des Autismus werden in der international seit Januar 2022 gültigen 11. Revision der "Internationalen Klassifikation der Krankheiten" der Weltgesundheitsorganisation (ICD-11) in der Diagnose "Autismus-Spektrum-Störung" (Schlüssel 6A02, kurz ASS, englisch "Autism Spectrum Disorder", "ASD") zusammengefasst.
Die Diagnosekriterien lauten:
Analog zum DSM-5 werden dabei die „Störung der Intelligenzentwicklung“ und „Beeinträchtigung der funktionellen Sprache“ (Laut- oder Gebärdensprache) spezifiziert, wobei die möglichen Kombinationen in der ICD-11 eigene Diagnoseschlüssel erhalten:
Zusätzlich soll die entsprechende Diagnose einer "Störung der Intelligenzentwicklung" vergeben werden.
Durch eine weitere Ziffer kann kodiert werden, ob es zu einem Verlust bereits erworbener Fähigkeiten (typischerweise im Laufe des zweiten Lebensjahrs und im Bereich der Sprachentwicklung oder sozialer Reaktivität) kam:
Differentialdiagnose.
Autistische Verhaltensweisen können auch bei anderen Syndromen und psychischen Erkrankungen auftreten. Von diesen muss Autismus daher abgegrenzt werden:
Vergesellschaftete Syndrome.
Autismus-Spektrum-Störungen oder autistische Symptome sind mit einer Reihe von Syndromen vergesellschaftet, treten bei diesen also häufig auf oder gehören zur charakteristischen Symptomatik. Viele der Syndrome haben eine bekannte, oft monogenetische Ursache. Hierzu zählen:
Begleitende Störungen.
Zusammen mit Autismus können verschiedene begleitende (komorbide) körperliche und psychische Erkrankungen auftreten:
Häufigkeit.
Eine Analyse von 11.091 Interviews von 2014 durch das "National Center for Health Statistics" der USA ergab eine Häufigkeit (Lebenszeitprävalenz) des ASS von 2,24 % in der Altersgruppe 3–17 Jahre, 3,29 % bei Jungen und 1,15 % bei Mädchen. Eine Übersicht von 2015 zeigte, dass die Zahlen zur Geschlechterverteilung wegen methodischer Schwierigkeiten stark variierten. Das Verhältnis männlich-weiblich betrage jedoch mindestens 2:1 bis 3:1, was auf einen biologischen Faktor in dieser Frage hindeute. Die möglichen Gründe hinter der vergleichsweise niedrigen Anzahl an diagnostizierten Frauen seien vielfältig, so kämen etwa genetische Schutzfaktoren sowie eine stärker auf bei Männern ausgeprägte Symptome ausgerichtete Diagnostik infrage.
Die Zahl der Autismus-Diagnosen scheint in den vergangenen Jahrzehnten stark gestiegen zu sein. Die Centers for Disease Control (CDC) in den USA geben einen Anstieg der Autismusfälle um 57 % an (zwischen 2002 und 2006). Im Jahr 2006 war noch eines von 110 Kindern im Alter von 8 Jahren mit Autismus diagnostiziert, Im Jahr 2020 hingegen eines von 36 Kindern. Obwohl bessere und frühere Diagnostik eine Rolle spielt, kann laut CDC nicht ausgeschlossen werden, dass ein Teil des Anstiegs auf eine tatsächliche Erhöhung der Fälle zurückzuführen ist.
Autismus liegt allerdings nicht nur als Erkrankung in der Bevölkerung vor, sondern auch als ein auf einem Kontinuum liegendes Persönlichkeitsmerkmal. Mit diesem Persönlichkeitsmerkmal gehen verschiedene Charakteristika einher, beispielsweise schlechtere soziale Fähigkeiten und eine vermehrte Aufmerksamkeit für Details.
Früher gab es den Verdacht, dass Umweltgifte oder Impfstoff-Zusätze (Thiomersal) die Entstehung von Autismus begünstigen könnten. Nach dem Stand von 2017 gilt Letzteres als widerlegt und Ersteres als nicht ausreichend erforscht.
Folgende Faktoren spielen bei der Zunahme der Fallzahlen in jüngerer Zeit eine Rolle:
Folgen und Prognose.
Autismus kann die Entwicklung der Persönlichkeit, die Berufschancen und die Sozialkontakte erheblich beeinträchtigen. Der Langzeitverlauf einer Störung aus dem Autismusspektrum hängt von der individuellen Ausprägung beim Einzelnen ab. Die Ursache des Autismus kann nicht behandelt werden, da sie nicht bekannt ist. Möglich ist lediglich eine unterstützende Behandlung in einzelnen Symptombereichen. Andererseits sind viele Schwierigkeiten, über die autistische Menschen berichten, durch Anpassungen ihrer Umwelt vermeidbar oder verminderbar. Beispielsweise berichten manche von einem Schmerzempfinden für bestimmte Tonfrequenzen. Solchen Menschen geht es in einem reizarmen Umfeld deutlich besser. Eine autismusgerechte Umwelt zu finden bzw. herzustellen ist deshalb ein wesentliches Ziel.
Dies gilt auch im Falle von Schlafstörungen, welche sich durch verhaltenstherapeutische Maßnahmen, Maßnahmen der Schlafhygiene sowie eine medikamentöse Therapie (Melatonin) behandeln lassen. Auch eine Zunahme autistischer Symptome bei Schlafmangel ist beschrieben, etwa verstärkte stereotype Verhaltensweisen oder Hyperaktivität.
Kommunikationstraining für Autisten sowie für deren Freunde und Angehörige kann für alle Beteiligten hilfreich sein und wird beispielsweise in Großbritannien von der "National Autistic Society" angeboten und wissenschaftlich weiterentwickelt. Eine zunehmende Zahl von Schulen, Colleges und Arbeitgebern speziell für autistische Menschen demonstriert den Erfolg, Autisten in autismusgerechten Umfeldern leben zu lassen.
Die autistischen Syndrome gehören nach dem (deutschen) Schwerbehindertenrecht zur Gruppe der psychischen Behinderungen. Nach den Grundsätzen der Versorgungsmedizin-Verordnung beträgt der Grad der Behinderung je nach Ausmaß der sozialen Anpassungsschwierigkeiten 10 bis 100 Prozent. Beim frühkindlichen und atypischen Autismus bleibt eine Besserung des Symptombilds meist in engen Grenzen. Etwa 10–15 % der Menschen mit frühkindlichem Autismus erreichen im Erwachsenenalter eine eigenständige Lebensführung. Der Rest benötigt in der Regel eine intensive, lebenslange Betreuung und eine geschützte Unterbringung.
Über den Langzeitverlauf beim Asperger-Syndrom gibt es bisher keine Studien. Hans Asperger nahm einen positiven Langzeitverlauf an. In der Regel lernen Menschen mit Asperger-Syndrom im Laufe ihrer Entwicklung, ihre Probleme – abhängig vom Grad ihrer intellektuellen Fähigkeiten – mehr oder weniger gut zu kompensieren. Der britische Autismusexperte Tony Attwood vergleicht den Entwicklungsprozess von Menschen mit Asperger-Syndrom mit der Erstellung eines Puzzles: Mit der Zeit bekommen sie die einzelnen Teile des Puzzles zusammen und erkennen das ganze Bild. So können sie das Puzzle (oder Rätsel) des Sozialverhaltens lösen. Es existiert eine Reihe von Büchern über autistische Menschen. Der Neurologe Oliver Sacks und Psychologe Torey L. Hayden haben Bücher über ihre Patienten mit Autismus und deren Lebenswege veröffentlicht. An Büchern, die von Autisten selbst geschrieben wurden, sind insbesondere die Werke der US-amerikanischen Tierwissenschaftlerin Temple Grandin, der australischen Schriftstellerin und Künstlerin Donna Williams, der US-amerikanischen Erziehungswissenschaftlerin Liane Holliday Willey und des deutschen Schriftstellers und Filmemachers Axel Brauns bekannt.
Schule, Ausbildung, Beruf.
Welche Schule für Menschen mit Autismus geeignet ist, hängt von Intelligenz, Sprachentwicklung und Ausprägung des Autismus beim Einzelnen ab. Sind Intelligenz und Sprachentwicklung normal ausgeprägt, können Kinder mit Autismus eine Regelschule besuchen. Andernfalls kann der Besuch einer Förderschule in Betracht gezogen werden. Bei vielen Menschen mit Autismus wird dieser allerdings erst nach der Schulzeit diagnostiziert.
Hinsichtlich Ausbildung und Beruf muss ebenfalls der individuelle Entwicklungsstand des Einzelnen berücksichtigt werden. Sind Intelligenz und Sprachentwicklung normal ausgeprägt, kann ein reguläres Studium oder eine reguläre Berufsausbildung absolviert werden. Andernfalls kann etwa eine Tätigkeit in einer Werkstatt für Menschen mit Behinderung (WfbM) infrage kommen. In jedem Fall ist es für die Integration und das Selbstwertgefühl autistischer Menschen wichtig, einer Tätigkeit nachgehen zu können, die ihren individuellen Fähigkeiten und Interessen entspricht.
Einerseits kann der Einstieg ins reguläre Berufsleben problematisch werden, da viele Autisten die hohen sozialen Anforderungen der heutigen Arbeitswelt nicht erfüllen können. So sind laut einer von Rehadat veröffentlichten Studie von 2004 nur ungefähr zehn Prozent der autistischen jungen Menschen den Anforderungen einer Berufsausbildung gewachsen, da „neben dem erreichten kognitiven Leistungsniveau die psychopathologischen Auffälligkeiten entscheidend für die Ausbildungsfähigkeit sind“, was Geduld und möglicherweise eine längere Phase der Berufsvorbereitung erfordert, damit eine Ablehnung prinzipiell ausbildungsfähiger Jugendlicher vermieden wird. Verständnisvolle Vorgesetzte und Kollegen sind für Menschen mit Autismus unerlässlich. Wichtig sind außerdem geregelte Arbeitsabläufe, klare Aufgaben, überschaubare Sozialkontakte, eine eindeutige Kommunikation und die Vermeidung von Höflichkeitsfloskeln, welche zu Missverständnissen führen können.
Auf der anderen Seite sind Autisten und den damit unter Umständen verbundenen Teilleistungsstärken teilweise gerade besonders gut für bestimmte Berufe bzw. Tätigkeiten geeignet. Viele Autisten erfüllen durch ihre kognitive Leistungsfähigkeit auch die Voraussetzungen für ein Studium, welches sich jedoch aufgrund der nicht fest vorgeschriebenen Struktur in die Länge ziehen kann. Ein wichtiges Ziel für autistische Erwachsene ist es, eine zum eigenen Stärke-Schwäche-Profil passende Nische zu finden, in der sie gut zurechtkommen. Der richtige Arbeitsplatz, der besondere Eigenarten der jeweiligen Person berücksichtigt, kann schwierig zu finden, aber oft auch sehr erfüllend sein. Verschiedene Unternehmen suchen gezielt nach Autisten oder haben sich auf ihre Vermittlung spezialisiert.
Der britische Psychologe Attwood schreibt über die Diagnose von „leicht autistischen“ Erwachsenen, dass diese teilweise gut zurechtkommen, wenn sie etwa einen passenden Arbeitsplatz gefunden haben, aber im Fall von Krisen – etwa durch Erwerbslosigkeit – von ihrem Wissen über das Asperger-Syndrom zur Bewältigung von Krisen profitieren können.
Behandlung.
Ausgehend von der individuellen Entwicklung wird bei autistischen Kindern ein Plan aufgestellt, in dem die Art der Behandlung einzelner Symptome festgelegt und aufeinander abgestimmt wird. Dem Übereinkommen über die Rechte von Menschen mit Behinderungen (UN-Behindertenrechtskonvention) entsprechend sollte eine passende Umgebung geschaffen werden, in der alle Beteiligten lernen, wie sie die „Eigenarten“ des Kindes am besten berücksichtigen können. Bei Kindern wird das gesamte Umfeld (Eltern, Familien, Kindergarten, Schule) in den Behandlungsplan einbezogen. Angebote für Erwachsene sind vielerorts erst im Aufbau begriffen. Einen Überblick über Anwendungen, Therapien und Interventionen hat die englische "National Autistic Society" veröffentlicht. Eine Auswahl von Behandlungsmethoden soll im Folgenden kurz vorgestellt werden.
Zur Behandlung bei Erwachsenen liegt eine umfassende Übersicht von 2013 durch die Freiburger Autismus-Studiengruppe vor. Die systematische Auswertung von Behandlungsversuchen bei älteren Jugendlichen und Erwachsenen ist (Stand 2017) – im Gegensatz zur Situation bei Kindern – noch unbefriedigend, was auf die historisch spätere Aufmerksamkeit bei der Erfassung dieser Altersgruppen zurückgeführt wurde.
Therapie.
Die Verhaltenstherapie ist in der „Autismustherapie“ die am besten wissenschaftlich abgesicherte Therapieform. Zu den Wirkfaktoren der Verhaltenstherapie liegt eine umfassende Studie von 2014 vor. Ziel ist es, einerseits unangemessene Verhaltensweisen wie übermäßige Stereotypien oder (auto)aggressives Verhalten abzubauen und andererseits soziale und kommunikative Fertigkeiten aufzubauen. Im Prinzip wird dabei so vorgegangen, dass erwünschtes Verhalten durchgängig und erkennbar belohnt wird (positive Verstärkung). Verhaltenstherapien können entweder ganzheitlich oder auf einzelne Symptome ausgerichtet sein – und auch Begleiterscheinungen wie Schlaf- oder Angststörungen lassen sich verhaltenstherapeutisch behandeln. Verhaltenstherapien, die das Ziel haben, Autisten wie „normale“ oder nicht-autistische Menschen erscheinen zu lassen, werden jedoch kritisiert.
Die "Angewandte Verhaltensanalyse" (Applied Behavior Analysis, ABA) ist auf die Frühförderung ausgerichtet. Zunächst wird anhand einer Systematik festgestellt, welche Fähigkeiten und Funktionen das Kind bereits besitzt und welche nicht. Hierauf aufbauend werden spezielle Programme erstellt, die das Kind befähigen sollen, die fehlenden Funktionen zu erlernen. Die Eltern werden in die Therapie einbezogen. Die Verfahrensweisen von ABA basieren im Wesentlichen auf Methoden des operanten Konditionierens. Hauptbestandteile sind Belohnung bei „richtigem Verhalten“ und Löschung bei „falschem“ Verhalten. Lernversuche und -erfolge sowie erwünschtes Verhalten werden möglichst direkt verstärkt, wobei primäre (angeborene) Verstärker (wie Nahrungsmittel) und sekundäre (erlernte) Verstärker (wie Spielzeug) eingesetzt werden, um erwünschtes Verhalten zu belohnen. In den 1980er Jahren wurde ABA durch Jack Michael, Mark Sundberg und James Partington weiterentwickelt, indem auch die Vermittlung sprachlicher Fähigkeiten einbezogen wurde.
Ein weiteres ganzheitlich orientiertes pädagogisches Förderkonzept ist "TEACCH" (Treatment and Education of Autistic and related Communication-handicapped Children), das sich sowohl an Kinder als auch an Erwachsene mit Autismus richtet. TEACCH ist darauf ausgerichtet, die Lebensqualität von Menschen mit Autismus zu verbessern und sie anzuleiten, sich im Alltag zurechtzufinden. Zentrale Annahmen des Konzeptes sind, dass Lernprozesse durch Strukturierung und Visualisierung bei Menschen mit autistischen Merkmalen eingeleitet werden können.
Elterntraining.
Eltern autistischer Kinder erleben oft mehr Stress als Eltern von Kindern mit anderen Abweichungen oder Behinderungen. Eine Reduzierung des Stresses der Eltern zeigt deutliche Besserungen im Verhalten ihrer autistischen Kinder. Es gibt starke Hinweise auf einen Zusammenhang zwischen der Stressbelastung der Eltern und den Verhaltensproblemen ihrer Kinder, unabhängig von der Schwere des Autismus'. Verhaltensprobleme der Kinder zeigen sich nicht vor, sondern auch während erhöhter Stressbelastung der Eltern. Die "National Autistic Society" hat das „NAS EarlyBird“ Programm entwickelt, ein dreimonatiges Trainingsprogramm für Eltern, um sie auf das Thema Autismus effektiv vorzubereiten. Nebst dem Stressmanagement kann Elterntraining auch auf eine Verbesserung von Begleitsymptomen wie Angst- und Schlafstörungen abzielen, bei Letzterem z. B. durch die Erstellung und Umsetzung eines Schlafplans und die Einführung bestimmter Rituale vor dem Zubettgehen.
Medikamentöse Behandlung.
Die medikamentöse Behandlung von Begleitsymptomen wie etwa Angst, Depressionen, Aggressivität oder Zwängen mit Antidepressiva (etwa SSRI), atypischen Neuroleptika oder Benzodiazepinen kann eine Komponente im Gesamtbehandlungsplan sein. Sie bedarf jedoch besonderer Vorsicht und aufmerksamer Beobachtung, denn nicht selten verschlimmern sie bei falscher Anwendung die Symptome, statt sie zu mildern.
Für Kinder mit Schlafstörungen kann die Gabe von Melatonin helfen, wenn verhaltenstherapeutische Maßnahmen und Maßnahmen der Schlafhygiene allein nicht zum gewünschten Erfolg führen. Schlafstörungen sind bei Menschen mit Autismus-Spektrum-Störung multifaktoriell bedingt – für Kinder konnte zum Teil eine verringerte Produktion und Freisetzung von körpereigenem Melatonin gezeigt werden. In Studien mit retardiertem Melatonin zeigten autistische Kinder und Jugendliche wiederum eine verkürzte Einschlafzeit und eine erhöhte Gesamtschlafdauer.
Mit besonderer Vorsicht ist bei der Gabe von Stimulanzien, wie sie bei Hyperaktivität (ADHS) verschrieben werden, vorzugehen, da sie bei Autismus und der hier häufig vorkommenden Überempfindlichkeit auf Reize der Sinnesorgane letztere noch verstärken können. Die Wirksamkeit von Methylphenidat ist bei Autisten reduziert (ca. 50 statt 75 Prozent der Patienten), 10-mal häufiger seien unerwünschte Nebenwirkungen wie z. B. Reizbarkeit oder Schlafstörungen. Zu beachten ist ferner, dass Reizüberempfindlichkeiten unabhängig von Autismus auftreten können.
Ergänzende Maßnahmen.
Mögliche ergänzende Maßnahmen sind etwa Musik-, Kunst-, Massagetherapie oder der Einsatz von Therapierobotern (Keepon) oder Echolokationslauten (Dolphin Space). Sie können die Lebensqualität steigern, indem sie positiv auf Stimmung, Ausgeglichenheit und Kontaktfähigkeit einwirken.
Therapeutisches Reiten und der Einsatz von Hunden sowohl zur Unterstützung von Therapien als auch zur Begleitung im Alltag gelten als besonders geeignet.
Verfahren ohne Wirksamkeitsnachweis.
Weitere bekannte Maßnahmen sind Festhaltetherapie, Gestützte Kommunikation und Daily-Life-Therapie. Diese Maßnahmen „sind im Kontext der Behandlung des Autismus entweder äußerst umstritten und unglaubwürdig oder deren Annahmen und Versprechungen wurden durch wissenschaftliche Untersuchungen im Wesentlichen widerlegt“.
Passende Umgebung.
Seit dem Inkrafttreten des Übereinkommens über die Rechte von Menschen mit Behinderungen (UN-Behindertenrechtskonvention) wird zumindest in Deutschland als zusätzliches Angebot für Kinder die Möglichkeit geschaffen, eine passende Umgebung zu gestalten, sodass Behinderung durch Regulierbarkeit der Barrieren vermindert wird. Defizite in der Entwicklung können bei einem förderlichen Umgang mit den Kindern sowie durch eine Umgebung, die Vertrautheit, Ruhe, Überschaubarkeit und Vorhersagbarkeit bietet, teilweise ausgeglichen werden. Ob hierbei zusätzlich Medikamente verordnet werden sollten, wird im Rahmen der Debatte um Neurodiversität kritisch diskutiert und verschieden gehandhabt.
Mögliche Ursachen von Autismus.
Mögliche Ursachen oder Auslöser von Autismus werden heute auf unterschiedlichen Wissenschaftsgebieten erforscht. Allgemein anerkannt ist, dass genetische Faktoren und Umwelteinflüsse eine große Rolle spielen. Biomarker, die eine sichere Diagnose erlauben, waren Stand 2022 jedoch noch nicht bekannt.
Als widerlegt gelten die noch bis in die 1960er-Jahre vertretene Ansicht, Autismus entstehe durch eine gefühlskalte Mutter (die sogenannte „Kühlschrankmutter“), sowie die Ende der 1990er Jahre verbreitete Besorgnis, Autismus könne durch Impfungen, insbesondere die Kombinationsimpfung gegen Masern, Mumps und Röteln, hervorgerufen werden (siehe MMR-Impfstoff, Abschnitt „Der Fall Wakefield“).
Biologische Erklärungsansätze.
Die biologischen Ursachen des gesamten Autismusspektrums liegen in entwicklungsbiologischen Abweichungen bei Entstehung und Wachstum des Gehirns. Verändert sind nach aktuellem Forschungsstand dabei sowohl Anatomie als auch Funktion, und insbesondere die Ausbildung bestimmter Nervenverbindungen (Konnektom). Gegenstand der Forschung sind die möglichen Ursachen dieser Abweichungen, die in erster Linie – aber nicht nur – die Embryonalentwicklung betreffen. Neben besonderen vererbten genetischen Bedingungen kommen im Prinzip alle Faktoren infrage, die die Arbeit der Gene in kritischen Zeitfenstern beeinflussen (Teratologie).
Genetische Faktoren.
Die genetischen Ursachen des Gesamtbereichs des Autismusspektrums haben sich als äußerst vielfältig und hochkomplex erwiesen. In einer Übersicht von 2011 wurden bereits 103 Gene und 44 Genorte (Genloci) als Kandidaten für eine Beteiligung identifiziert, und es wurde vermutet, dass die Zahlen weiter stark stiegen. Es wird allgemein davon ausgegangen, dass die immensen Kombinationsmöglichkeiten vieler genetischer Abweichungen die Ursache für die große Vielfalt und Breite des Autismusspektrums sind.
Seit etwa 2010 hat sich zunehmend herausgestellt, dass neben den länger bekannten erblichen Veränderungen gerade bei Autismus submikroskopische Veränderungen in Chromosomen eine Schlüsselrolle spielen, nämlich die Kopienzahlvariationen. In erster Linie handelt es sich dabei um Genduplikation oder Gendeletion. Sie entstehen bei der Bildung von Eizellen der Mutter oder von Samenzellen des Vaters (Meiose). Das heißt, sie entstehen neu "(de novo)". Wenn ein Kind eine solche Abweichung von einem Elternteil erhält, kann es sie jedoch weiter vererben, und zwar mit einer Wahrscheinlichkeit von 50 Prozent. Dadurch ist es möglich, dass eine Abweichung, die zu Autismus beiträgt, nur einmalig bei einem Kind auftritt und nicht weiter vererbt wird oder aber auch mehrere Familienmitglieder in verschiedenen Generationen betrifft. In letzterem Fall kann zudem die Durchschlagskraft (Penetranz und Expressivität) einer solchen genetischen Abweichung von Person zu Person höchst unterschiedlich sein (0–100 %). Eineiige Zwillinge weisen im Regelfall beide eine Autismus-Spektrum-Störung auf. Moderne Analysemethoden (DNA-Chip-Technologie) erlauben die Feststellung genetischer Abweichungen (Analyse des Karyotyps), die zur Ausprägung der Spektrum-Störung führen, wobei die Einbeziehung von Familienmitgliedern oft hilfreich oder sogar notwendig ist. Die Ergebnisse können dann die Grundlage von genetischen Beratungen bilden.
Spiegelneuronen.
Bis 2013 gab es widersprüchliche Hinweise zu der Hypothese, dass Systeme von Spiegelneuronen bei Menschen mit Autismus möglicherweise nicht hinreichend funktionstüchtig seien. In einer Metaanalyse von 2013 wurde dann festgestellt, dass es wenig gebe, das die Hypothese stütze, und dass das Datenmaterial eher mit der Annahme vereinbar sei, dass die absteigende (Top-down-)Modulierung sozialer Reaktionen bei Autismus atypisch sei.
Abweichungen im Verdauungstrakt.
Obwohl Verdauungsstörungen im Zusammenhang mit ASS oft beschrieben wurden, gibt es bis heute (Stand November 2015) keine zuverlässigen Daten zu einer möglichen Korrelation oder gar einem möglichen ursächlichen Zusammenhang – weder in die eine noch in die andere Richtung.
Vermännlichung des Gehirns.
Die Theorie, dass eine Vermännlichung des Gehirns (Extreme Male Brain Theory) durch einen hohen Testosteronspiegel im Mutterleib ein Risikofaktor für ASS sein könnte, wurde in neueren Studien gezielt untersucht, konnte jedoch nicht bestätigt werden. Hierzu zählen auch Untersuchungen des Gehirns durch bildgebende Verfahren (fMRI). Es zeigte sich, dass männliche ASS-Patienten eher typisch weibliche Eigenschaften bei der Verbindung von Gehirnregionen (engl. connectivity) hatten – statt, wie in der Theorie der Vermännlichung des Gehirns vorhergesagt, besonders verstärkt männliche.
Atypische Konnektivität.
2004 entdeckte eine Forschergruppe um Marcel Just und Nancy Minshew an der Carnegie Mellon University in Pittsburgh (USA) die Erscheinung der veränderten Konnektivität (großräumiger Informationsfluss, engl. "connectivity") im Gehirn bei den Gruppendaten von 17 Probanden aus dem Asperger-Bereich des Autismusspektrums. Funktionelle Gehirnscans (fMRI) zeigten im Vergleich zur Kontrollgruppe sowohl Bereiche erhöhter als auch Bereiche verminderter Aktivität sowie eine verminderte Synchronisation der Aktivitätsmuster verschiedener Gehirnbereiche. Auf der Grundlage dieser Ergebnisse entwickelten die Autoren erstmals die Theorie der "Unterkonnektivität" "(underconnectivity)" für die Erklärung des Autismusspektrums.
Die Ergebnisse wurden relativ schnell in weiteren Studien bestätigt, ausgebaut und präzisiert, und das Konzept der "Unterkonnektivität" wurde entsprechend fortentwickelt. Bezüglich anderer Theorien wurde es nicht als Gegenmodell, sondern als übergreifendes Generalmodell präsentiert. In den folgenden Jahren nahm die Anzahl der Studien zur "Konnektivität" beim Autismusspektrum explosionsartig zu.
Dabei wurde neben eher globaler "Unterkonnektivität" häufig auch eher lokale "Überkonnektivität" gefunden. Letztere wird allerdings – gestützt auf Kenntnisse der frühkindlichen Gehirnentwicklung bei Autismus – eher als Überspezialisierung und nicht als Steigerung der Effektivität verstanden. Um beide Erscheinungen zu berücksichtigen, wird das Konzept nun "atypische Konnektivität" genannt. Es zeichnet sich ab (Stand: Juli 2015), dass es sich als Konsensmodell in der Forschung etabliert. Dies gilt auch, wenn der Asperger-Bereich des Autismusspektrums für sich betrachtet wird. Die beim Autismusspektrum vorliegende "atypische Konnektivität" wird verstanden als Ursache des hier beobachteten besonderen Verhaltens, wie etwa bei der Erfassung von Zusammenhängen zwischen Dingen, Personen, Gefühlen und Situationen.
Verminderte Gehirntätigkeit bei Empathie-Prozessen.
Zwei Metaanalysen von Daten zur Kartierung des menschlichen Gehirns von 2021 und 2022 kamen – unabhängig voneinander – zu dem Ergebnis, dass bei Autismus-Patienten im Zusammenhang mit Empathie-Prozessen die Aktivität im rechtsseitigen Gyrus parahippocampalis im Vergleich zu gesunden Kontrollgruppen signifikant vermindert war. Diese Gehirnregion ist unter anderem an der Wahrnehmung von sozialen Situationen beteiligt.
Umwelt- und mögliche kombinierte Faktoren.
Während die Hypothese, dass ein Zusatz von Thiomersal in Impfstoffen das Risiko von ASS erhöhen könnte, als vielfach widerlegt gilt (siehe nachfolgender Abschnitt), ist der mögliche Einfluss anderweitiger – umweltbedingter – erhöhter Aufnahme von Quecksilber auf das ASS-Risiko aufgrund widersprüchlicher Untersuchungsergebnisse noch umstritten. Eine Studie der Swinburne University im "Journal of Toxicology and Environmental Health" aus dem Jahr 2011, die auf einer Umfrage unter den Enkelkindern der Überlebenden der „Rosa-Krankheit“ basiert (Infantile Akrodynie, ab 1931 auch "Feersche Krankheit" genannt, eine wahrscheinlich durch Quecksilberintoxikation verursachte Stammhirnenzephalopathie mit Haut- und multiplen Organsymptomen bei Kleinkindern), legt nahe, dass tatsächlich eine Kombination aus genetischen und umweltbedingten Faktoren bei der Entstehung autistischer Symptome eine Rolle spielen könnte, allerdings nur bei Kindern mit einer (angeborenen) Präposition für Quecksilber-Überempfindlichkeit. Die Studie verweist allerdings darauf, dass sich die Autismusdiagnosen in dieser Studie nicht bestätigt hätten. Für die weitere Erforschung eines möglichen Zusammenhangs zwischen Autismus und Quecksilbervergiftung in vergleichbar hohen Mengen sei zunächst die weitere Erforschung der „Rosa-Krankheit“ erforderlich. In den 50er-Jahren wurde Quecksilber in wesentlichen Mengen gegen Kinderkrankheiten verabreicht, diese Form der Akrodynie ist seit damals praktisch verschwunden. In der Studie wurden offenbar weder die Betroffenen selbst untersucht noch eine Übertragbarkeit zwischen der Akrodynie und anderen Quecksilberbelastungen aufgezeigt.
Widerlegte Erklärungsansätze.
Schäden durch falsche Impfung/Impfstoffe
Es taucht immer wieder das Gerücht auf, Autismus könne durch Impfungen etwa gegen Mumps, Masern oder Röteln (MMR) verursacht werden, wobei eine im Impfstoff enthaltene organische Quecksilberverbindung, das Konservierungsmittel Thiomersal, als auslösende Substanz verdächtigt wird. Derlei Berichte entbehren jedoch „jeglicher wissenschaftlicher Grundlage, so unterscheidet sich die Häufigkeit von Autismus nicht bei geimpften und ungeimpften Kindern.“ Durch verschiedene Studien ist der Zusammenhang zwischen Thiomersal enthaltenden Impfstoffen und Autismus mittlerweile widerlegt. Ungeachtet dessen ist heute in der Regel in Impfstoffen kein Thiomersal mehr enthalten. Eine Abnahme der Anzahl der Neuerkrankungen war erwartungsgemäß in Folge nicht zu beobachten – eine weitere Schwächung der „Autismus-durch-Impfung“-Hypothese.
Die Annahmen, dass Autismus eine Folge von Impfschäden sein soll, ging auf eine Veröffentlichung von Andrew Wakefield in der Fachzeitschrift "The Lancet" 1998 zurück. 2004 wurde bekannt, dass Wakefield vor der Veröffentlichung von Anwälten, die Eltern Autismus-betroffener Kinder vertraten, 55.000 £ an Drittmitteln erhalten hatte. Diese suchten Verbindungen zwischen Autismus und der Impfung, um Hersteller des Impfstoffes zu verklagen. Die Gelder waren weder den Mitautoren noch der Zeitschrift bekannt gewesen. Daraufhin traten zehn der dreizehn Autoren des Artikels von diesem zurück. Im Januar 2010 entschied die britische Ärztekammer (General Medical Council), dass Wakefield „unethische Forschungsmethoden“ angewandt hatte und seine Ergebnisse in „unehrlicher“ und „unverantwortlicher“ Weise präsentiert wurden. "The Lancet" zog daraufhin Wakefields Veröffentlichung vollständig zurück. In der Folge wurde im Mai 2010 auch ein Berufsverbot in Großbritannien gegen ihn ausgesprochen.
Die amerikanische "Food and Drug Administration" hat im September 2006 einen Zusammenhang zwischen Autismus und Impfstoffen als unbegründet abgewiesen, zahlreiche wissenschaftliche und medizinische Einrichtungen folgten dieser Einschätzung.
Auties und Aspies.
Die Ausprägungen von Autismus umfassen ein breites Spektrum. Viele Menschen mit Autismus wünschen sich keine „Heilung“, da sie Autismus nicht als Krankheit, sondern als normalen Teil ihres Selbst betrachten. Viele Erwachsene mit „leichterem“ Autismus haben gelernt, mit ihrer Umwelt zurechtzukommen. Sie wünschen sich statt Pathologisierung oft nur die Toleranz durch ihre Mitmenschen. Auch sehen sie Autismus nicht als etwas von ihnen Getrenntes, sondern als integralen Bestandteil ihrer Persönlichkeit.
Die australische Künstlerin und Kanner-Autistin Donna Williams hat in diesem Zusammenhang den Ausdruck "Auties" vorgeschlagen, der sich entweder speziell auf Menschen mit Kanner-Autismus bezieht, oder allgemein auf alle Menschen im Autismus-Spektrum. Williams gründete 1992 zusammen mit Kathy Lissner Grant und Jim Sinclair das "Autism Network International" (ANI) und gilt als Mitinitiatorin der Neurodiversitätsbewegung. Von der US-amerikanischen Erziehungswissenschaftlerin und Asperger-Autistin Liane Holliday Willey stammt der Ausdruck "Aspies" für Menschen mit Asperger-Syndrom. Die Psychologen Tony Attwood und Carol Gray richten in ihrem Essay "Die Entdeckung von „Aspie“" den Blick auf positive Eigenschaften von Menschen mit Asperger-Syndrom. Die Ausdrücke "Auties" und "Aspies" wurden von vielen Selbsthilfeorganisationen von Menschen im Autismusspektrum übernommen.
Um dem Wunsch vieler Autisten nach Toleranz durch ihre Mitmenschen Ausdruck zu verleihen, feiern einige seit 2005 jährlich am 18. Juni den "Autistic Pride Day." Das Schlagwort der Autismusrechtsbewegung – „Neurodiversität“ "(neurodiversity)" – bringt die Idee zum Ausdruck, dass eine untypische neurologische Entwicklung einem normalen menschlichen Unterschied entspreche, der ebenso Toleranz verdiene wie jede andere (physiologische oder sonstige) menschliche Variante.
Autismusforschung.
In der Grundlagenforschung wurde bei der visuellen Wahrnehmung von Autisten ein überscharfer Aufmerksamkeitswinkel festgestellt, der in seiner Schärfe ("sharpness") stark mit der Schwere der autistischen Symptome korrelierte, sowie eine erhöhte Empfindlichkeit für visuelle Feinkontraste.
Klinische Beobachtungen von Uta Frith (2003) verdeutlichten, dass Autisten häufig erhebliche Schwierigkeiten haben, sprachliche Äußerungen in der gegebenen sprachlichen Situation (Kontext) angemessen zu verstehen. Ergebnisse von Melanie Eberhardt und Christoph Michael Müller deuteten darauf hin, dass ein Autismus-Konzept einer am Detail orientierten Verarbeitung von Sprache viele Besonderheiten des Sprachverstehens autistischer Menschen erklären kann.
Aktuelle Ergebnisse der internationalen Autismusforschung werden auf der seit 2007 jährlich stattfindenden "Wissenschaftlichen Tagung Autismus-Spektrum" (WTAS) vorgestellt. Diese Tagung ist mit Gründung der "Wissenschaftlichen Gesellschaft Autismus-Spektrum" (WGAS) 2008 auch deren wesentliches Organ.
Ein besonderes Forschungszentrum im deutschsprachigen Raum ist das Universitäre Zentrum Autismus Spektrum (UZAS) in Freiburg.
Autismus und Behinderung.
Barrierefreiheit.
Eine UN-Studie erkennt die kulturelle Eigenart von Autisten, barrierefrei online Gemeinschaften zu bilden, als im Rahmen der Menschenrechte gleichwertig an:
Autisten haben in Deutschland das Recht auf barrierefreie fernschriftliche Kommunikation. Das kann beispielsweise einer Entscheidung des Bundessozialgerichts vom 14. November 2013 entnommen werden, die von der "Enthinderungsselbsthilfe von Autisten für Autisten" erstritten wurde.
Schwerbehinderung.
Grad der Behinderung:
Hilflosigkeit:
Die vorgenannten Regelungen gelten seit dem 23. Dezember 2010 bzw. 5. November 2011.
Autisten galten in Deutschland vor 2010/2011 nach den früheren Anhaltspunkten für die ärztliche Gutachtertätigkeit (AHG) im sozialen Entschädigungsrecht und nach dem Schwerbehindertenrecht Teil 2 SGB IX automatisch als Schwerbehinderte mit einem Grad der Behinderung (GdB) zwischen 50 und 100. Außerdem wurde bei autistischen Kindern mindestens bis zum 16. Lebensjahr Hilflosigkeit angenommen.
Autismus und Kunst.
Manche autistische Menschen sind erfolgreich in der bildenden Kunst tätig. Es gibt in dieser Gruppe von Künstlern eine große Vielfalt von stilistischen Merkmalen, bildnerischen Ausdrucksformen und Verfahren. Kategorisieren lassen sich sogenannte Kritzelbilder und präschematische Darstellungen, abstrakte Malerei oder Farb-Form-Experimente, bildnerische Narrationen, surreal-phantastische Bildnerei, Collagen, seriell angelegten Musterbildungen aus geometrischen Figurationen oder einer fotorealistischen Präzisionsmalerei.
Autismus in den Medien.
Dokumentationen
Kinofilme
Im Folgenden eine Liste von Filmen, die Autismus als zentrales Thema behandeln:
Fernsehserien
Hörfunk
Literatur.
Aktuelle Leitlinien
Werke von historischer Bedeutung
Genetik des Autismusspektrums
Neurobiologie des Autismusspektrums
Einführende Darstellungen
Ratgeberliteratur
Therapeutische Ansätze |
429 | 3893587 | https://de.wikipedia.org/wiki?curid=429 | Austria | Austria ist der latinisierte Name Österreichs. Er bezeichnete ursprünglich nur das heutige Niederösterreich, später die gesamte Habsburgermonarchie und in der spanischen Form "Casa de Austria" deren Herrscherdynastie. Er dient in verschiedenen Sprachen als Übersetzung für „Österreich“ und wird auch als Markenbegriff verwendet, um einen Österreichbezug herzustellen.
Die Allegorie der Austria, ein Symbol des österreichischen Staats, wird als Frauengestalt mit einer Mauerkrone im Haar und einem Speer in der Hand dargestellt, die sich auf einen Wappenschild stützt.
Wortherkunft und Geschichte.
Erstmals erwähnt wird der Name Austria in einer auf Latein verfassten Urkunde König Konrads III. vom 25. Feber 1147, die heute im Stift Klosterneuburg der Augustiner-Chorherren aufbewahrt wird. Darin ist die Rede von Gütern, die von den "Austrie marchionibus", den "Markgrafen Österreichs" ("Marchiones Austriae") verschenkt wurden.
Die Bezeichnung geht jedoch nicht auf die lateinische, sondern auf die urgermanische Sprache zurück. Das althochdeutsche "*austar-" bedeutet soviel wie „östlich“ oder „im Osten“, und die altisländische Edda nennt den mythischen Zwerg des Ostens "Austri". Eng mit dem Wort "Austria" verwandt sind auch die Namen "Austrasien" und "Austrien" für das Ostfrankenreich bzw. "Ostreich". Auch in der älteren Bezeichnung "Ostarrîchi" ist die Wurzel "ôstar-" erkennbar. Auf Isländisch wird Österreich heute noch "Austurríki" (ausgesprochen mit anlautendem „Ö“, [ˈøistʏrˈriːcɪ]) genannt. Die Ähnlichkeit mit dem lateinischen "Auster" für „Südwind“ und "terra australis" für das „Südland“ Australien ist zufällig.
Seit dem Mittelalter bezeichnete man das Erzherzogtum Österreich als "Austria" und den (Erz-)Herzog von Österreich als "(Archi-)Dux Austriae". Seit dem 15. Jahrhundert wird der erstmals 1326 nachgewiesene Begriff "domus Austriae" für das gesamte Haus Österreich verwendet, dessen spanische Übersetzung "Casa de Austria" im engeren Sinne aber nur für die spanische Linie der Habsburger. Seit dem 18. Jahrhundert ist die "Austria" als Nationalallegorie Österreichs in der bildenden Kunst bekannt.
Heutige Verwendung.
Länderkennzeichen.
In Österreich zugelassene Kraftfahrzeuge werden mit dem Buchstaben codice_1 als Länderkennzeichen gekennzeichnet. Nach dem früher üblichen Aufkleber, der bei Auslandsreisen am Wagenheck zu führen war, befindet sich der Buchstabe heute auf dem Euro-Kennzeichen.
In der ISO-3166-Kodierliste findet sich Österreich mit den Kürzeln codice_2 und codice_3; die Top-Level-Domain ist codice_4.
Führen des Namens der Republik in Firmennamen.
Die Führung des Wortes "Austria" in Unternehmensnamen (Firma) oder anderen Institutionen ist nur mit bundesbehördlicher Genehmigung zulässig.
Z2 Unternehmensgesetzbuch besagt Dieser Grundsatz wurde in Bezug auf die Namenszusätze "Austria", "austro" – aber auch "Österreich", "österreichisch" und die Namen anderer Gebietskörperschaften, wie "steirisch", "Vienna" – dahingehend ausgelegt, dass sie Analoges gilt für Vereine und andere Verbände.
Beispiele.
Staatliche Organisationen und Verbände:
Universitäre Organisationen und nahe Vereine
Unternehmen:
Österreichische Sportvereine:
Made in Austria.
Produkte aus Österreich erhalten die Herkunftsbezeichnung "Made in Austria" („hergestellt in Österreich“), das keinen expliziten rechtlichen Schutz genießt, aber durch gerichtliche Entscheide gesichert ist. Es gibt Bestrebungen, den Begriff durch Made in EU zu ersetzen.
Bei Einhaltung bestimmter Bedingungen wird seit 1946 das österreichische Gütesiegel Austria Gütezeichen vergeben, das vom Wirtschaftsministerium überwacht wird. |
430 | 212544608 | https://de.wikipedia.org/wiki?curid=430 | Anatexis | Als Anatexis (griechisch ἀνάτηξις „Schmelzen“), auch Migmatisierung, bezeichnet man das partielle Aufschmelzen von Gesteinen der Erdkruste infolge von Temperaturerhöhung, Druckentlastung und/oder Fluidzufuhr (z. B. von H2O, CO2). Anatexis findet in der tieferen Erdkruste statt, zumeist im Laufe von Gebirgsbildungsprozessen, z. B. im Himalaya und den Alpen, aber auch im Thüringer Wald. Die resultierenden Gesteine werden als Migmatite bezeichnet bzw. als migmatisierte Gneise, Schiefer etc.
Das Anfangsstadium der Aufschmelzung wird als "Metatexis" bezeichnet. Die Mobilisation findet hierbei nur an den Korngrenzen statt und betrifft nur einen Teil des Mineralbestands (partielle Schmelze). Im höheren Stadium, der "Diatexis", werden zunehmend auch die dunklen (mafischen) Mineralbestandteile aufgeschmolzen, bis es schließlich zur Bildung von Magma und magmatischen Gesteinen kommt. Die mehr oder weniger aufgeschmolzenen Gesteine ("Metatexite" und "Diatexite") werden als Migmatite (oder "Anatexite") zusammengefasst.
Bei granitischen Gesteinen findet die Anatexis unter fluidgesättigten Bedingungen bei Temperaturen oberhalb von 650 °C statt. Typische Drücke liegen bei 0,5 bis 1 GPa (entspricht dem Druck in 15 bis 35 km Tiefe). Hierbei werden hauptsächlich der Quarz und die Feldspäte aufgeschmolzen. Bei steigenden Temperaturen bilden sich sukzessive granitische, granodioritische und quarzdioritische Schmelzen. Basische Gesteine schmelzen erst bei deutlich höheren Temperaturen. Da Quarzite, Amphibolite und Kalksilikatfelse in der Natur praktisch nie als Anatexite angetroffen werden und selbst in ausgedehnten Migmatitgebieten als sogenannte "Resisters" unverändert erhalten sind, schätzt man die maximale Temperatur, die bei einer regionalen Aufschmelzung erreicht wird, auf etwa 800 °C. |
431 | 275801 | https://de.wikipedia.org/wiki?curid=431 | Axiomensystem | Ein Axiomensystem (auch: Axiomatisches System) ist ein System von "grundlegenden Aussagen", Axiomen, die ohne Beweis angenommen und aus denen alle Sätze (Theoreme) einer Theorie logisch abgeleitet werden. Die Ableitung erfolgt dabei durch die Regeln eines formalen logischen Kalküls. Eine Theorie besteht aus einem Axiomensystem und all seinen daraus abgeleiteten Theoremen. Mathematische Theorien werden in der Regel als Elementare Sprache (auch: Sprache erster Stufe mit Symbolmenge) im Rahmen der Prädikatenlogik erster Stufe axiomatisiert.
Allgemeines.
Ein Axiomensystem als Produkt der Axiomatisierung eines Wissensgebietes dient der präzisen, ökonomischen und übersichtlichen „Darstellung der in ihm geltenden Sätze und der zwischen ihnen bestehenden Folgerungszusammenhänge“. Die Axiomatisierung zwingt zugleich zu einer eindeutigen Begrifflichkeit. Elemente eines axiomatischen Systems sind:
Ein Beispiel: Die Theorie der Gruppen.
Die Theorie der Gruppen formuliert man als elementare Sprache im Rahmen der Prädikatenlogik erster Stufe.
Eigenschaften von Axiomensystemen.
Wir bezeichnen im Folgenden wie üblich die Ableitbarkeitsrelation des zugrundegelegten logischen Kalküls (Sequenzenkalkül, Kalkül des natürlichen Schließens) mit formula_12; sei formula_13 die zugehörige Inferenzoperation, die also jeder Menge M von Axiomen die zugehörige "Theorie" formula_14 zuordnet.
Die Inferenzoperation ist ein Hüllenoperator, d. h., es gilt insbesondere formula_15 (Idempotenz des Hüllenoperators).
Deshalb sind Theorien deduktiv abgeschlossen, man kann also nichts Weiteres aus T herleiten, was nicht schon aus M beweisbar wäre. M nennt man auch eine Axiomatisierung von T.
Konsistenz.
Eine Menge formula_16 von Axiomen (und auch die dazugehörende Theorie formula_17) wird "konsistent" (oder "widerspruchsfrei") genannt, falls man aus diesen Axiomen keine Widersprüche ableiten kann. Das bedeutet: Es ist nicht möglich, sowohl einen Satz formula_18 als auch seine Negation formula_19 mit den Regeln des Axiomensystems aus formula_16 (bzw. formula_17) herzuleiten.
In Worten von Tarski:
Unabhängigkeit.
Ein Ausdruck formula_18 wird unabhängig von einer Menge formula_16 von Axiomen genannt, wenn formula_18 nicht aus den Axiomen in formula_16 hergeleitet werden kann. Entsprechend ist eine Menge formula_16 von Axiomen unabhängig, wenn jedes einzelne der Axiome in formula_16 von den restlichen Axiomen unabhängig ist:
formula_28 für alle formula_29.
Prägnant zusammengefasst: „Unabhängig sind die Axiome, wenn keines von ihnen aus den anderen ableitbar ist“.
Syntaktische Vollständigkeit.
Eine Menge formula_16 von Axiomen wird syntaktisch vollständig (auch negationstreu) genannt, wenn für jeden Satz formula_18 der Sprache gilt, dass der Satz formula_18 selbst oder seine Negation formula_19 aus den Axiomen in formula_16 hergeleitet werden kann. Dazu gleichbedeutend ist, dass jede Erweiterung von formula_16 durch einen bisher nicht beweisbaren Satz widersprüchlich wird. Analoges gilt für eine Theorie. Vollständige Theorien zeichnen sich also dadurch aus, dass sie keine widerspruchsfreien Erweiterungen haben.
Vorsicht: Die syntaktische Vollständigkeit einer Theorie darf nicht mit der semantischen Vollständigkeit aus der Modelltheorie verwechselt werden.
Modelle und Beweise von Widerspruchsfreiheit, Unabhängigkeit und Vollständigkeit.
Für das Folgende nehmen wir an, dass der zugrundeliegende Kalkül "korrekt" ist; d. h., dass jede syntaktischen Ableitung auch die semantische Folgerung impliziert (dies ist eine Minimalforderung an ein axiomatisches System, die z. B. für den Sequenzenkalkül der Prädikatenlogik erster Stufe gilt).
Wenn es zu einem Axiomensystem ein Modell besitzt, dann ist M widerspruchsfrei. Denn angenommen, es gäbe einen Ausdruck A mit formula_36 und formula_37. Jedes Modell von M wäre dann sowohl Modell von formula_18 als auch von formula_19 – was nicht sein kann.
Die "Widerspruchsfreiheit" eines Axiomensystems lässt sich also durch Angabe eines einzigen Modells zeigen. So folgt z. B. die Widerspruchsfreiheit der obigen Axiome der Gruppentheorie durch die Angabe der konkreten Menge formula_40 mit formula_41 und der Definition von formula_6 durch die Addition modulo 2 (formula_43).
Modelle kann man auch verwenden, um die "Unabhängigkeit" der Axiome eines Systems zu zeigen: Man konstruiert zwei Modelle für das Teilsystem, aus dem ein spezielles Axiom A entfernt wurde – ein Modell, in dem A gilt und ein anderes, in dem A nicht gilt.
Zwei Modelle heißen isomorph, wenn es eine eineindeutige Korrespondenz zwischen ihren Elementen gibt, die sowohl Relationen als auch Funktionen erhält. Ein Axiomensystem, für das alle Modelle zueinander isomorph sind, heißt "kategorisch". Ein kategorisches Axiomensystem ist "vollständig". Denn sei das Axiomensystem nicht vollständig; d. h., es gebe einen Ausdruck A, für den weder A noch formula_19 aus dem System herleitbar ist. Dann gibt es sowohl ein Modell für formula_45 als auch eines für formula_46. Diese beiden Modelle, die natürlich auch Modelle für formula_16 sind, sind aber nicht isomorph.
Axiomensysteme in einzelnen Bereichen.
Logik.
Für die elementare Aussagenlogik, die Prädikatenlogik erster Stufe und verschiedene Modallogiken gibt es axiomatische Systeme, die die genannten Anforderungen erfüllen.
Für die Prädikatenlogiken höherer Stufen lassen sich nur widerspruchsfreie, aber nicht vollständige axiomatische Systeme entwickeln. Das Entscheidungsproblem ist in ihnen nicht lösbar.
Arithmetik.
Für die Arithmetik gilt der Gödelsche Unvollständigkeitssatz. Dies wird weiter unten diskutiert.
Geometrie.
David Hilbert gelang es 1899, die euklidische Geometrie zu axiomatisieren.
Physik.
Günther Ludwig legte in den 1980er Jahren eine Axiomatisierung der Quantenmechanik vor
Sprachwissenschaft.
Karl Bühler versuchte 1933, eine Axiomatik der Sprachwissenschaft zu entwickeln.
Wirtschaftstheorie.
Arnis Vilks schlug 1991 ein Axiomensystem für die neoklassische Wirtschaftstheorie vor.
Axiomatisches System und Gödelscher Unvollständigkeitssatz.
Die Gödelschen Unvollständigkeitssätze von 1931 sprechen über höchstens rekursiv aufzählbar axiomatisierte Theorien, die in der Logik erster Stufe formuliert sind. Es wird ein vollständiger und korrekter Beweiskalkül vorausgesetzt. Der erste Satz sagt aus: Falls die Axiome der Arithmetik widerspruchsfrei sind, dann ist die Arithmetik unvollständig. Es gibt also mindestens einen Satz formula_48, so dass weder formula_48 noch seine Negation ¬formula_48 in der Arithmetik beweisbar sind. Des Weiteren lässt sich zeigen, dass jede Erweiterung der Axiome, die rekursiv aufzählbar bleibt, ebenfalls unvollständig ist. Damit ist die Unvollständigkeit der Arithmetik ein systematisches Phänomen und lässt sich nicht durch eine einfache Erweiterung der Axiome beheben. Der zweite Unvollständigkeitssatz sagt aus, dass sich insbesondere die Widerspruchsfreiheit der Arithmetik nicht im axiomatischen System der Arithmetik beweisen lässt. |
432 | 4132356 | https://de.wikipedia.org/wiki?curid=432 | Axiom | Ein Axiom (von griechisch ἀξίωμα "axíoma", „Forderung; Wille; Beschluss; Grundsatz; philos. (...) Satz, der keines Beweises bedarf“, „Wertschätzung, Urteil, als wahr angenommener Grundsatz“) ist ein Grundsatz einer Theorie, einer Wissenschaft oder eines axiomatischen Systems, der innerhalb dieses Systems weder begründet noch deduktiv abgeleitet, sondern als Grundlage willentlich akzeptiert oder gesetzt wird.
Abgrenzungen.
Innerhalb einer formalisierbaren Theorie ist eine These ein Satz, der bewiesen werden soll. Ein Axiom dagegen ist ein Satz, der nicht in der Theorie bewiesen werden soll, sondern beweislos vorausgesetzt wird. Wenn die gewählten Axiome der Theorie "logisch unabhängig" sind, so kann keines von ihnen aus den anderen hergeleitet werden. Im Rahmen eines formalen Kalküls sind die Axiome dieses Kalküls immer ableitbar. Dabei handelt es sich im formalen oder syntaktischen Sinne um einen Beweis; semantisch betrachtet handelt es sich um einen Zirkelschluss. Ansonsten gilt: „Geht eine Ableitung von den Axiomen eines Kalküls bzw. von wahren Aussagen aus, so spricht man von einem Beweis.“
Axiom wird als Gegenbegriff zu Theorem (im engeren Sinn) verwendet. Theoreme wie Axiome sind Sätze eines formalisierten Kalküls, die durch Ableitungsbeziehungen verbunden sind. Theoreme sind also Sätze, die durch formale Beweisgänge von Axiomen abgeleitet werden. Mitunter werden die Ausdrücke These und Theorem jedoch im weiteren Sinn für alle gültigen Sätze eines formalen Systems verwendet, d. h. als Oberbegriff, der sowohl Axiome als auch Theoreme im ursprünglichen Sinn umfasst.
Axiome können somit als Bedingungen der vollständigen Theorie verstanden werden, insofern diese in einem formalisierten Kalkül ausdrückbar sind. Innerhalb einer interpretierten formalen Sprache können verschiedene Theorien durch die Auswahl der Axiome unterschieden werden. Bei nicht-interpretierten Kalkülen der formalen Logik spricht man statt von Theorien allerdings von "logischen Systemen," die durch Axiome und Schlussregeln vollständig bestimmt sind. Dies relativiert den Begriff der Ableitbarkeit oder Beweisbarkeit: Sie besteht immer nur in Bezug auf ein gegebenes System. Die Axiome und die abgeleiteten Aussagen gehören zur Objektsprache, die Regeln zur Metasprache.
Ein Kalkül ist jedoch nicht notwendigerweise ein "Axiomatischer Kalkül," der also „aus einer Menge von Axiomen und einer möglichst kleinen Menge von Schlussregeln“ besteht. Daneben gibt es auch Beweis-Kalküle und Tableau-Kalküle.
Immanuel Kant bezeichnet Axiome als „synthetische Grundsätze a priori, sofern sie unmittelbar gewiß sind“ und schließt sie durch diese Definition aus dem Bereich der Philosophie aus. Diese nämlich gründe sich auf Begriffe, die als abstrakte Vorstellungsbilder niemals als Gegenstand unmittelbarer Anschauung (Evidenz) besitzen. Daher grenzt er die diskursiven Grundsätze der Philosophie von den intuitiven der Mathematik ab: Erstere müssten sich „bequemen, ihre Befugniß wegen derselben durch gründliche Deduction zu rechtfertigen“ und erfüllen daher nicht die Kriterien eines a priori.
Unterscheidungen.
Der Ausdruck "Axiom" wird in drei Grundbedeutungen verwendet. Er bezeichnet
Klassischer Axiombegriff.
Der klassische Axiombegriff wird auf die "Elemente" der Geometrie des Euklid und die Analytica posteriora des Aristoteles zurückgeführt. "Axiom" bezeichnet in dieser Auffassung ein unmittelbar einleuchtendes Prinzip bzw. eine Bezugnahme auf ein solches. Ein Axiom in diesem essentialistischen Sinne bedarf aufgrund seiner Evidenz keines Beweises. Axiome wurden dabei angesehen als unbedingt wahre Sätze über existierende Gegenstände, die diesen Sätzen als objektive Realitäten gegenüberstehen. Diese Bedeutung war bis in das 19. Jahrhundert hinein vorherrschend.
Am Ende des 19. Jahrhunderts erfolgte eine „Abnabelung der Geometrie von der Wirklichkeit“. Die systematische Untersuchung unterschiedlicher Axiomensysteme für unterschiedliche Geometrien (euklidische, hyperbolische, sphärische Geometrie usw.), die unmöglich allesamt die aktuale Welt beschreiben konnten, musste zur Folge haben, dass der Axiombegriff formalistischer verstanden wurde und Axiome insgesamt im Sinne von Definitionen einen konventionellen Charakter erhielten. Als wegweisend erwiesen sich die Schriften David Hilberts zur Axiomatik, der das aus den empirischen Wissenschaften stammende Evidenzpostulat durch die formalen Kriterien von Vollständigkeit und Widerspruchsfreiheit ersetzte. Eine alternative Auffassungsweise bezieht daher ein Axiomensystem nicht einfach hin auf die aktuale Welt, sondern folgt dem Schema: "Wenn" irgendeine Struktur die Axiome erfüllt, "dann" erfüllt sie auch die Ableitungen aus den Axiomen (sog. "Theoreme"). Derartige Auffassungen lassen sich im Implikationismus, Deduktivismus oder eliminativen Strukturalismus verorten.
In axiomatisierten Kalkülen im Sinne der modernen formalen Logik können die klassischen epistemologischen (Evidenz, Gewissheit), ontologischen (Referenz auf ontologisch Grundlegenderes) oder konventionellen (Akzeptanz in einem bestimmten Kontext) Kriterien für die Auszeichnung von Axiomen entfallen. Axiome unterscheiden sich von Theoremen dann nur formal dadurch, dass sie die Grundlage logischer Ableitungen in einem gegebenen Kalkül sind. Als „grundsätzliches“ und „unabhängiges“ Prinzip sind sie innerhalb des Axiomensystems nicht aus anderen Ausgangssätzen abzuleiten und "a priori" keines formalen Beweises bedürftig.
Naturwissenschaftlicher Axiombegriff.
In den empirischen Wissenschaften bezeichnet man als Axiome auch grundlegende Gesetze, die vielfach empirisch bestätigt worden sind. Als Beispiel werden die Newtonschen Axiome der Mechanik genannt.
Auch wissenschaftliche Theorien, insbesondere die Physik, beruhen auf Axiomen. Aus diesen werden Theorien geschlussfolgert, deren Theoreme und Korollare den Ausgang von Experimenten vorhersagen können. Stehen Aussagen der Theorie im Widerspruch zur experimentellen Beobachtung, werden die Axiome angepasst. Beispielsweise liefern die Newtonschen Axiome nur für „langsame“ und „große“ Systeme gute Vorhersagen und sind durch die Axiome der speziellen Relativitätstheorie und der Quantenmechanik abgelöst bzw. ergänzt worden. Trotzdem verwendet man die Newtonschen Axiome weiter für solche Systeme, da die Folgerungen einfacher sind und für die meisten Anwendungen die Ergebnisse hinreichend genau sind.
Formaler Axiombegriff.
Durch Hilbert (1899) wurde ein formaler Axiombegriff herrschend: Ein Axiom ist jede unabgeleitete Aussage. Dies ist eine rein formale Eigenschaft. Die Evidenz oder der ontologische Status eines Axioms spielen keine Rolle und bleiben einer gesondert zu betrachtenden Interpretation überlassen.
Ein "Axiom" ist dann eine grundlegende Aussage, die
Teilweise wird behauptet, in diesem Verständnis seien Axiome völlig willkürlich: Ein Axiom sei „ein unbewiesener und daher unverstandener Satz“, denn ob ein Axiom auf Einsicht beruht und daher „verstehbar“ ist, spielt zunächst keine Rolle. Richtig daran ist, dass ein Axiom – bezogen auf eine Theorie – unbewiesen ist. Das heißt aber nicht, dass ein Axiom unbeweisbar sein muss. Die Eigenschaft, ein Axiom zu sein, ist relativ zu einem formalen System. Was in einer Wissenschaft ein Axiom ist, kann in einer anderen ein Theorem sein.
Ein Axiom ist "unverstanden" nur insofern, als seine Wahrheit formal nicht bewiesen, sondern vorausgesetzt ist. Der moderne Axiombegriff dient dazu, die Axiomeigenschaft von der Evidenzproblematik abzukoppeln, was aber nicht notwendigerweise bedeutet, dass es keine Evidenz gibt. Es ist allerdings ein bestimmendes Merkmal der axiomatischen Methode, dass bei der Deduktion der Theoreme nur auf der Basis formaler Regeln geschlossen wird und nicht von der Deutung der axiomatischen Zeichen Gebrauch gemacht wird.
Die Frage, ob es (mathematische, logische, reale) Objekte gibt, für die das Axiomensystem zutrifft, interessiert zunächst nicht, wird aber mit der Widerspruchsfreiheit grob gleichgesetzt. Natürlich gelten Beispielobjekte, bei denen man mit dem Axiomensystem erfolgreich arbeiten kann, als Beleg für die Existenz solcher Objekte und für die Widerspruchsfreiheit des Axiomensystems.
Beispiele für Axiome.
Klassische Logik.
Die ursprüngliche Formulierung stammt aus der naiven Mengenlehre Georg Cantors und schien lediglich den Zusammenhang zwischen Extension und Intension eines Begriffs klar auszusprechen. Es bedeutete einen großen Schock, als sich herausstellte, dass es in der Axiomatisierung durch Gottlob Frege nicht "widerspruchsfrei" zu den anderen Axiomen hinzugefügt werden konnte, sondern die Russellsche Antinomie hervorrief.
Mathematik.
Generell werden in der Mathematik Begriffe wie natürliche Zahlen, Monoid, Gruppe, Ring, Körper, Hilbertraum, Topologischer Raum etc. durch ein System von Axiomen charakterisiert.
Man spricht bspw. von "den Peano-Axiomen" (für die natürliche Zahlen), "den Gruppenaxiomen", "den Ringaxiomen" usw.
Manchmal werden einzelne Forderungen (auch die Folgerungen) in einem System auch "Gesetz" genannt (z. B. das Assoziativgesetz).
Ein spezielles Axiomensystem der genannten Beispiele – die natürlichen Zahlen mit den Peano-Axiomen ggf. ausgenommen (s. u.) – ist durchaus als "Definition" aufzufassen.
Damit man nämlich ein gewisses mathematisches Objekt, bspw. als Monoid ansprechen (und danach weitere Eigenschaften folgern) kann, ist nachzuweisen (mithilfe anderer Axiome oder Theoreme), dass die Forderungen, die im Axiomensystem des Monoids formuliert sind, allesamt für das Objekt zutreffen.
Ein wichtiges Beispiel ist die Hintereinanderausführung von Funktionen, bei der der Nachweis der Assoziativität nicht völlig trivial ist. Misslänge nämlich dieser Nachweis bei einem der Axiome, dann könnte das betreffende Objekt formula_1 nicht als Monoid angesehen werden. (Außerordentlich schwierig ist der auf D. Knuth zurückgehende Nachweis der Assoziativität der Fibonacci-Multiplikation.)
Insofern sind viele der genannten „Axiomensysteme“ überhaupt nicht (und stehen geradezu im Gegensatz zu) grundlegende/n Aussagen, die als „unabgeleitete Aussagen“ „ohne Beweis angenommen“ werden.
Obwohl es andere grundlegende Systeme (Theorien erster Ordnung) durchaus gibt, werden für das Zählen in den natürlichen Zahlen die Peano-Axiome allermeist ohne weitere Rückführung zugrunde gelegt. Beispielsweise:
Physik.
Vorschläge zur Axiomatisierung wichtiger Teilgebiete.
Auch Theorien der empirischen Wissenschaften lassen sich „axiomatisiert“ rekonstruieren. In der Wissenschaftstheorie existieren allerdings unterschiedliche Auffassungen darüber, was es überhaupt heißt, eine „Axiomatisierung einer Theorie“ vorzunehmen. Für unterschiedliche physikalische Theorien wurden Axiomatisierungen vorgeschlagen. Hans Reichenbach widmete sich u. a. in drei Monographien seinem Vorschlag einer Axiomatik der Relativitätstheorie, wobei er insbesondere stark von Hilbert beeinflusst war. Auch Alfred Robb und Constantin Carathéodory legten Axiomatisierungsvorschläge zur speziellen Relativitätstheorie vor. Sowohl für die spezielle wie für die allgemeine Relativitätstheorie existiert inzwischen eine Vielzahl von in der Wissenschaftstheorie und in der Philosophie der Physik diskutierten Axiomatisierungsversuchen. Patrick Suppes und andere haben etwa für die klassische Partikelmechanik in ihrer Newtonschen Formulierung eine vieldiskutierte axiomatische Rekonstruktion im modernen Sinne vorgeschlagen, ebenso legten bereits Georg Hamel, ein Schüler Hilberts, sowie Hans Hermes Axiomatisierungen der klassischen Mechanik vor. Zu den meistbeachteten Vorschlägen einer Axiomatisierung der Quantenmechanik zählt nach wie vor das Unternehmen von Günther Ludwig. Für die Axiomatische Quantenfeldtheorie war v. a. die Formulierung von Arthur Wightman aus den 1950er Jahren wichtig. Im Bereich der Kosmologie war für Ansätze einer Axiomatisierung u. a. Edward Arthur Milne besonders einflussreich. Für die klassische Thermodynamik existieren Axiomatisierungsvorschläge u. a. von Giles, Boyling, Jauch, Lieb und Yngvason. Für alle physikalischen Theorien, die mit Wahrscheinlichkeiten operieren, insbes. die Statistische Mechanik, wurde die Axiomatisierung der Wahrscheinlichkeitsrechnung durch Kolmogorow wichtig.
Verhältnis von Experiment und Theorie.
Die Axiome einer physikalischen Theorie sind weder formal beweisbar noch, so die inzwischen übliche Sichtweise, direkt und insgesamt durch Beobachtungen verifizierbar oder falsifizierbar. Einer insbesondere im wissenschaftstheoretischen Strukturalismus verbreiteten Sichtweise von Theorien und ihrem Verhältnis zu Experimenten und resultierenden Redeweise zufolge betreffen Prüfungen einer bestimmten Theorie an der Realität vielmehr üblicherweise Aussagen der Form „dieses System ist eine klassische Partikelmechanik“. Gelingt ein entsprechender Theorietest, wurden z. B. korrekte Prognosen von Messwerten angegeben, kann diese Überprüfung ggf. als "Bestätigung" dafür gelten, dass ein entsprechendes System zutreffenderweise unter die intendierten Anwendungen der entsprechenden Theorie gezählt wurde, bei wiederholten Fehlschlägen kann und sollte die Menge der intendierten Anwendungen um entsprechende Typen von Systemen reduziert werden. |
435 | 116812 | https://de.wikipedia.org/wiki?curid=435 | Akrostichon | Ein Akrostichon (von , ‚Spitze‘, und στίχος "stíchos" ‚Vers‘, ‚Zeile‘) ist ein Gedicht (meist in Versform), bei dem die Anfänge von Wort- oder Versfolgen (Buchstaben bei Wortfolgen oder Wörter bei Versfolgen, auch Anfangssilben) hintereinander gelesen einen eigenen Sinn, beispielsweise einen Namen oder einen Satz, ergeben. Die deutsche Bezeichnung für diese literarische Form ist Leistenvers oder Leistengedicht.
Akrosticha gehören sowohl zur Kategorie der Steganographie als auch zu den rhetorischen Figuren. Sie sind abzugrenzen gegen reine Abkürzungen beziehungsweise Aneinanderreihungen von Wörtern, also beispielsweise Akronyme wie INRI.
In der jüdischen Literatur sind Akrosticha weit verbreitet, angefangen mit der hebräischen Bibel. Die Klagelieder Jeremias haben bis auf Kapitel 5 einen akrostischen Aufbau. In einigen Psalmen folgen die jeweils ersten Buchstaben von 22 Versen der Reihe der 22 Buchstaben des hebräischen Alphabetes (Psalmen 9 und 10, 25, 34, 37, 111, 112, 119 und 145). Die ersten vier Wörter von Psalm 96,11 () enthalten ein Akrostichon des Namens Gottes, JHWH. In späterer rabbinischer Literatur deuten die Anfangsbuchstaben von Werken oder Liedstrophen jeweils auf den Verfasser hin. Dies ist zum Beispiel der Fall bei der Sabbathymne Lecha Dodi, bei der die Anfangsbuchstaben der ersten acht Strophen den Namen "Schlomo ha-Levi" ergeben und auf den Autor Schlomo Alkabez hinweisen.
Auch das frühchristliche Symbol des Ichtys lässt, je nach Schreibweise, eine Auslegung als Akrostichon zu.
Das Akrostichon war in antiker, mittelalterlicher und barocker Dichtung beliebt, so zum Beispiel bei Otfrid von Weißenburg (um 800–870) oder Martin Opitz (1597–1639). Paul Gerhardts Lied "Befiehl du deine Wege" ist ein Akrostichon aus Psalm 37,5. In dem Werk "diu crône" von Heinrich von dem Türlin findet sich der Name des Dichters als Akrostichon. Ein Beispiel aus moderner Zeit ist „Lust = Leben unter Strom“ von Elfriede Hablé (1934–2015). Joachim Ringelnatz (1883–1934) beteiligte sich unter dem Namen "Erwin Christian Stolze" mit einem Akrostichon an der Ausschreibung zu einer olympischen Hymne. Die Anfangsbuchstaben ergaben seinen vollständigen Namen.
Akrosticha begegnet man auch als Eselsbrücken für wissenschaftliche oder alltägliche Zusammenhänge. Ein Sonderfall ist der Abecedarius, bei dem die Anfangsbuchstaben das Alphabet bilden.
Ein Gedicht, bei dem die Endbuchstaben ein Wort oder einen Satz ergeben, ist ein Telestichon, trifft das für die mittleren Buchstaben zu, handelt es sich um ein Mesostichon. Ein Akroteleuton ist ein mehrfaches Akrostichon oder eine Kombination aus Akrostichon und Telestichon. |
437 | 2047658 | https://de.wikipedia.org/wiki?curid=437 | Amtliches Verzeichnis der Ortsnetzkennzahlen | Amtliches Verzeichnis der Ortsnetzkennzahlen (Abkürzung: AVON) war das Verzeichnis der Telefonvorwahlnummern in Deutschland. Herausgegeben und bearbeitet wurde es vom Fernmeldetechnischen Zentralamt in Darmstadt im Auftrage der Deutschen Bundespost und später der Deutschen Telekom.
Das AVON erschien nur nach Bedarf als Beilage zum Telefonbuch. Es enthielt neben allen deutschen Vorwahlen eine Auswahl an internationalen Vorwahlnummern. Für einige dieser Länder gab es ausführliche kostenlose Vorwahlnummern-Verzeichnisse, welche beim Fernmeldeamt Gießen bestellt werden konnten.
Geschichtliche Entwicklung.
Die von jedem Ortsnetz im Selbstwählferndienst (SWFD) zugelassenen Ortsnetze waren Ende der 1960er Jahre in einem „Amtlichen Verzeichnis der Ortsnetzkennzahlen für den Selbstwählferndienst“ kurz: "AVON" enthalten, das dem amtlichen Fernsprechbuch bei der Ausgabe beigegeben oder den Fernsprechteilnehmern besonders übersandt wurde. Aus diesem Verzeichnis konnten die zum SWFD zugelassenen Ortsnetze der Bundesrepublik und eine Auswahl der zum SWFD zugelassenen Orte des Auslands mit den dazugehörigen Ortsnetzkennzahlen sowie Länderkennzahlen und die jeweilige Sprechdauer für eine Gebühreneinheit entnommen werden. Anfang der 1970er Jahre war auf der Vorderseite des Umschlags die Namen der Ortsnetze angegeben, für die das AVON gültig war, in der Regel handelte es sich dabei jeweils um die Ortsnetze des Bereiches einer Knotenvermittlungsstelle. Später enthielt das AVON alle Ortsnetze der Bundesrepublik.
Bis in die 1990er Jahre enthielt das AVON auf der letzten Umschlagseite „Wichtige Hinweise zur Vorsorge und Eigenhilfe des Bürgers – zum Selbstschutz“ des Bundesverband für den Selbstschutz. Das erste Gesamtdeutsche AVON nach der Wiedervereinigung erschien anlässlich der Neunummerierung der neuen Bundesländer zum 1. Juni 1992.
Das Verzeichnis hieß zuletzt einfach „Das Vorwahlverzeichnis“ und wurde letztmals 2001 in gedruckter Form aufgelegt. Seither erfüllen Internetsuchseiten den Zweck dieses Verzeichnisses. |
438 | 391741 | https://de.wikipedia.org/wiki?curid=438 | Autobahn | Eine Autobahn ist eine Fernverkehrsstraße, die dem Schnellverkehr und dem Güterfernverkehr mit Kraftfahrzeugen dient.
Merkmale.
Autobahnen bestehen im Normalfall aus zwei Richtungsfahrbahnen mit mindestens je zwei Fahrstreifen. Es gibt in Deutschland allerdings auch Autobahnen mit mehr als zwei Richtungsfahrbahnen wie beispielsweise die A9 am Kindinger Berg, bei dem die Autobahn über eine lange Strecke aus 3 Richtungsfahrbahnen besteht.
Für die Benutzung von Autobahnen wird in vielen Ländern eine Maut (Straßennutzungsgebühr) erhoben. In der Regel ist ein zusätzlicher Seitenstreifen (auch "Standstreifen" oder "Pannenstreifen" genannt) vorhanden. Bei modernen Autobahnen sind die Fahrbahnen voneinander durch einen Mittelstreifen getrennt, in dem passive Schutzeinrichtungen wie Stahlschutzplanken oder Betonschutzwände errichtet sind. Die Fahrbahnbefestigung erfolgt heutzutage durch Beton- oder Asphaltbelag.
Im Gegensatz zu anderen Straßenkategorien besitzen Autobahnen stets höhenfreie Knotenpunkte. So erfolgt der Übergang von einer Autobahn auf eine andere durch Brücken und Unterführungen (Autobahnkreuz beziehungsweise in Österreich „Knoten“) oder Abzweigungen (Autobahndreieck, in der Schweiz „Verzweigung“); Übergänge ins untergeordnete Straßennetz werden (Autobahn-)Anschlussstellen genannt. Je nach Verlauf der Trasse spricht man in manchen Fällen von Ringautobahnen oder Stadtautobahnen. Tunnel und Brücken im Verlauf der Autobahnen sind Teile der Autobahnen.
An den meisten Autobahnen befinden sich Autobahnraststätten und Autobahnparkplätze, um den Ver- und Entsorgungsbedürfnissen der Autobahnnutzer nachzukommen und diesen eine Möglichkeit zu geben, sich zu erholen. Oft befinden sich dort auch Attraktionen und Spielgeräte für Kinder. Diese Anlagen sind Teile der Autobahnen. Auf Fahrstreifen der Autobahnen ist das Halten und Parken sowie das Wenden nicht erlaubt.
Des Weiteren ist auf dem Seitenstreifen beziehungsweise Pannenstreifen und in den Nothaltebuchten das Halten nur in besonderen Fällen (etwa eines technischen Defektes oder auf Anweisung eines ausführenden Staatsorgans) erlaubt, um den nachfolgenden Verkehr nicht zu behindern und sich nicht in Lebensgefahr zu begeben. Die Nutzung der Autobahn ist für Fußgänger und Fahrradfahrer in vielen Ländern verboten.
Autobahnnetz.
Die Vielzahl von einzelnen Autobahnen bildet zusammen ein Straßennetz, das sich über Ländergrenzen hinweg erstreckt. Ein besonders dichtes Netz bilden Autobahnen in Europa, Nordamerika und in einigen asiatischen Ländern. Auf Kontinenten wie Afrika, Australien und Südamerika sind nur im Einzugsbereich von Großstädten Autobahnabschnitte zu finden. Eine flächenmäßige Erschließung ist nicht vorhanden. Gründe dafür sind der Mangel an finanziellen Mitteln, das geringe motorisierte Verkehrsaufkommen in ländlichen Gegenden und/oder die geringere Besiedlungsdichte.
Europa.
In den meisten europäischen Ländern bilden Autobahnen eine eigene Straßenart, in einigen Ländern (zum Beispiel Schweden) werden sie zu den anderen Fernstraßen (beispielsweise Europastraßen) gezählt. Autobahnen sind in allen europäischen Staaten außer Island, Lettland, Malta, Moldawien und den Zwergstaaten vorhanden.
In Europa werden ständig neue Autobahnen gebaut oder bestehende Autobahnabschnitte erweitert. In den Jahren 1994 bis 2004 wuchs das Autobahnnetz in den neuen EU-Mitgliedstaaten um 1000 km, in den alten Mitgliedstaaten sogar um 12.000 km.<ref name="EEA Briefing 3/2004">Europäische Umweltagentur (Hrsg.): . Kopenhagen 2004</ref>
Mit 38,6 km Autobahn auf 100.000 Einwohner hat Zypern die höchste Autobahndichte in Europa.
Nordamerika.
Die USA sind von einem für die Größe des Landes sehr dichten Autobahnnetz (sogenannte "Interstate Highways") überzogen, die zum Teil deutlich großzügiger angelegt sind als in Europa. Während Überlandautobahnen weniger ausgelastet sind, leiden Autobahnen in Ballungsräumen unter einem starken Verkehrsaufkommen. Der Straßenquerschnitt wird aus diesem Grund sehr breit ausgebildet (bis zu neun Fahrstreifen je Richtungsfahrbahn) und mit großzügigen Anschlussstellen und Knotenpunkten angelegt.
Das Interstate-Highway-Netz ist weitgehend systematisch angelegt. In Nord-Süd-Richtung verlaufen die Highways mit der Nummerierung 5 (also von der Westküste nach Osten 5, 15, 25 usw. bis 95 an der Ostküste), in Ost-West-Richtung mit der Nummerierung 0 (also vom Süden nach Norden 10, 20, 30 usw. bis 90 im Norden an der kanadischen Grenze). Das Highway-System begann im November 1921 mit dem Bundesgesetz "The Federal Aid Highway Act", das im Juni 1956 erneuert wurde und danach zu einem intensiven Ausbau des Systems führte. Der erste größere Interstate-Highway war "The National Road" ab Maryland in Richtung Westen, durch Gesetz vom März 1806 ins Leben gerufen. Die Bauarbeiten begannen im Juli 1811 in Cumberland (Maryland) und erreichten 1839 Vandalia (Illinois). Das National Highway System (NHS) umfasst heute rund 257.000 km, das sind 1,1 % aller US-Straßen. Zum NHS gehören auch die "Freeways" und "Expressways", die beide meist in "Metropolitan Areas" zu finden sind.
Der Osten Kanadas, darunter vor allem Ontario und Québec, verfügt über ein ähnlich gut ausgebautes Autobahnnetz wie die Vereinigten Staaten. Bis auf den bundesstaatlich verwalteten Trans-Canada Highway obliegt der übrige Straßenbau den einzelnen Provinzen. Der Trans-Canada-Highway ist außerhalb von Ballungsräumen und dichter besiedelten Gebieten noch nicht durchgängig mehrspurig ausgebaut.
In Mexiko sind die wichtigsten Städte des Landes mit Autobahnen verbunden, wobei der große Teil der Autobahnen mautpflichtig ist. Die kostenpflichtigen Straßen sind in einem ähnlichen Zustand wie in anderen nordamerikanischen Ländern. In Ballungszentren sind die "carreteras" durchgehend mehrspurig, in weniger dicht besiedelten Regionen manchmal zweispurig mit Gegenverkehr.
Asien.
Japan (japanisch: ) und Südkorea (koreanisch: "gosokdoro") verfügen über Autobahnnetze mit hohem Ausbaustandard. Die Maximalgeschwindigkeit beträgt in Japan offiziell 100 km/h. Mautabgaben ("ETC – electronic toll control") sind auch für kurze Strecken und Privatbenutzung üblich.
Viele aufstrebende Staaten Ost- und Südostasiens bauen ihre Autobahnnetze mit großer Geschwindigkeit aus.
China () hat durch ein groß angelegtes Ausbauprogramm das deutsche Autobahnnetz im Hinblick auf die Länge überholt.
In Thailand fasste die Regierung aufgrund steigender Zulassungen von Kraftfahrzeugen und einem Bedarf an Hochgeschwindigkeitsstraßen mit begrenztem Zugang im Jahr 1997 einen Kabinettsbeschluss, in dem ein Masterplan für den Bau von Autobahnen festgelegt wurde. Darin wurden einige Abschnitte von Schnellstraßen als Autobahn "Motorway" bezeichnet. Derzeit verfügt das Land über zwei Autobahnen und mehrere Hochstraßen ("Expressways"). Den ersten "Expressway" (dort die Stadtautobahn) gibt es in Bangkok seit 1981. Der größte Teil der Autobahnen sind mautpflichtig. Die Höchstgeschwindigkeit liegt bei 120 km/h.
In Laos wird seit 2018 an der ersten Autobahn dem Vientiane-Boten Expressway gebaut. Die Mautautobahn gehört zu 95 Prozent der chinesischen "Yunnan Construction Engineering Group", die auch der Bauträger ist. Dem laotischen Staat gehören nur fünf Prozent. Der Bauträger besitzt eine 50-jährige Konzession auf die Mauteinnahmen. Die Höchstgeschwindigkeit liegt bei 120 km/h.
Malaysia verfügt über etwa 1200 Kilometer Autobahn. So verbindet der North-South Expressway etwa den Nordzipfel von Malaysia an der Grenze zu Thailand mit Johor Bahru an der Grenze zu Singapur im Süden. Die Autobahnen sind größtenteils mautpflichtig, die Gebühr wird dabei direkt an Ort und Stelle in Mautstationen kassiert.
Vietnam verfügt über 1276 Kilometer Autobahn. Der Bau von Autobahnen ("Expressways") in Vietnam wurde in den 2000er Jahren im Zusammenhang mit der Verschlechterung des transnationalen Autobahnsystems geplant. Die erste Autobahn Vietnams ist die Hồ Chí Minh-Trung Lương-Autobahn. Sie ist seit 2010 eröffnet.
Die ersten 30 Kilometer der Autobahn Suai–Beaco in Osttimor wurden 2018 eröffnet.
Ähnlich dem Europastraßennetz werden auch im asiatischen Raum einzelstaatliche Autobahnen und autobahnähnlichen Straßen zu einem Gesamtnetz verbunden. Das Vorhaben läuft unter dem Namen Asiatisches Fernstraßen-Projekt.
Geschichte.
Bulgarien.
Der erste Spatenstich zum Bau des Autobahnringes in Bulgarien erfolgte am 4. Oktober 1974. Es sollten drei Autobahnen mit einer Gesamtlänge von knapp 900 km gebaut werden, die Sofia, Warna und Burgas verbinden sollten. Bis zur Wende 1990 wurden etwa 270 km fertiggestellt, in den folgenden 20 Jahren lediglich weitere 116 km. Seit dem EU-Beitritt Bulgariens im Jahr 2007 wächst das Autobahnnetz um etwa 60 km jährlich, sodass Mitte 2014 über 50 % der geplanten Gesamtlänge von 1182 km bereits in Betrieb ist.
Dänemark.
Die dänischen Autobahnen wurden in den 1960er Jahren geplant und ab 1972 gebaut.
Deutschland.
Die erste autobahnähnliche Strecke der Welt war die AVUS in Berlin. Sie wurde privat finanziert und 1921 eröffnet. Ihre Benutzung war gebührenpflichtig. Die AVUS diente daher zunächst dem Vergnügen eines zahlungskräftigen Publikums mit Abonnement und erlaubte für die Zeit hohe Geschwindigkeiten von über 100 km/h. Außerdem war sie Renn- und Teststrecke. Für den öffentlichen Verkehr ohne Abonnement oder Tageskarte war sie nicht freigegeben.
Als erste öffentliche Autobahn Deutschlands – damals noch offiziell als „kreuzungsfreie Kraftfahr-Straße“ L185 oder „Kraftwagenstraße“ bezeichnet – wird oft die heutige A 555 zwischen Köln und Bonn, die nach dreijähriger Bauzeit am 6. August 1932 durch den damaligen Kölner Oberbürgermeister Konrad Adenauer eröffnet wurde, gewertet. Die Strecke von 20 km war bereits höhenfrei und je Fahrtrichtung zweispurig, jedoch ohne Trennung der Spuren einer Richtung durch einen Streifen. Auf Fotos wirken sie daher dem heutigen Betrachter eher wie eine je sehr breite Spur. Baulich getrennte Richtungsfahrbahnen, ein weiteres typisches Charakteristikum von Autobahnen, besaß sie noch nicht. Daher bekam der Abschnitt erst 1958 nach weiterem Ausbau den offiziellen Status einer Autobahn. Ob die Strecke als „erste Autobahn“ gilt, ist daher umstritten.
Einige Autoren argumentieren, die Fahrbahnen in je einer Richtung können als zweispurig gewertet werden, was eine Straße zur „Autobahn“ qualifiziere. Da die bauliche Trennung der beiden Richtungsfahrbahnen, die Kleeblattauffahrt sowie die Integration in eine Netz fehlten, wird sie jedoch oft nicht als richtige Autobahn, sondern nur als weitere Vorstufe gewertet.
Das spätere Bundesfernstraßengesetz „setzt jedoch auch die Einfügung in ein zusammenhängendes Verkehrsnetz und die Bestimmung für den weiträumigen Verkehr vor“, was bei einer Länge von 20 km nach heutigen Maßstäben nicht gegeben ist.
Der Bau der nur-Autostraße Köln–Düsseldorf (heute Teil der A 3) wurde bereits 1929 durch den Provinzialverband der preußischen Rheinprovinz rechtlich fixiert. Ein 2,5 km langer Abschnitt bei Opladen wurde 1931 begonnen und 1933 fertiggestellt. Der weltweit erste Plan zum Bau eines großen Autobahnnetzes war der HaFraBa-Plan (= Hansestädte–Frankfurt–Basel), dessen erste Version in etwa dem Verlauf der heutigen Autobahn A 5 und dem nördlichen Teil der A 7 entsprach. Diese Pläne wurden ab Ende 1926 erstellt und erstmals in einer Ausstellung im Gewerbemuseum Basel 1927 der Öffentlichkeit präsentiert. Bis 1933 wuchsen die Pläne zu einem Netz. Tatsächlich gebaut wurde nach den HaFraBa-Plänen erst ab 1933, die Strecke Frankfurt–Darmstadt–Mannheim–Heidelberg. Mit der HaFraBa verbunden ist die Entstehung des Wortes „Autobahn“, das 1932 von Robert Otzen in der gleichnamigen Fachzeitschrift geprägt wurde.
Dennoch verwendete Adolf Hitler in der Rede zur Eröffnung der Internationalen Automobil- und Motorrad Ausstellung am Kaiserdamm in Berlin am 11. Februar 1933 nicht das Wort „Autobahn“, sondern kündigte eine „Inangriffnahme und Durchführung eines großzügigen Straßenbauplanes“ an. Die Rede war das erste öffentliche Bekenntnis Hitlers zum Autobahnbau. Am 1. Mai zur Kundgebung auf dem Berliner Tempelhofer Feld wiederholte Hitler die Ankündigung variierend als „Riesenprogramm, dass wir nicht der Nachwelt überlassen wollen, sondern dass wir verwirklichen müssen, ein Programm dass Milliarden erfordert. Ein Programm unseres Straßenenbaus, eine gigantische Aufgabe. Wir werden sie groß beginnen, und die Widerstände dagegen aus dem Weg räumen.“ Der Neologismus Autobahn erhielt erst ab Sommer 1933 im Zuge der Propagandasendungen und Zeitungsartikel, welche die „erste Bauschlacht“, die Baustelle bei Frankfurt am Main, vorbereiteten, eine erste Verbreitung; obwohl Hitler selbst dort wieder nur von „großen Verkehrsstraßen“ und dem „größten Straßennetz der Welt“ sprach. Erst zu ihrer Eröffnung 1935 wurde sie im Radio von Paul Lawen vor Millionenpublikum als „weiße blanke Reichsautobahnstraße“ bezeichnet und von Zeitgenossen auch als „erste Reichsautobahn“ erinnert.
Die Bezeichnung „Nur-Autostraße“ habe man verworfen, schrieb die HaFraBa, um dem Umstand Ausdruck zu verleihen, man wolle eine „Autobahn“ in Analogie zur Eisenbahn errichten. Der Mythos, der Begriff „Autobahn“ und die grundsätzliche Idee hierfür gehe direkt auf Hitler zurück, ist eine Geschichtsfälschung. Unterlagen aus dem Bundesarchiv belegen, wie der damalige "Generalinspektor für das Deutsche Straßenwesen", Fritz Todt, 1934 eine derartige geistige Urheberschaft in das Jahr 1923 zurückdatiert und entsprechend schlussfolgerte: „Die Reichsautobahnen, wie wir sie jetzt bauen, haben nicht als von der ‚HAFRABA‘ vorbereitet zu gelten, sondern einzig und allein als ‚Die Straßen Adolf Hitlers‘.“
Finnland.
Die erste Autobahn in Finnland wurde 1962 von Helsinki nach Espoo eröffnet. Anfang 2019 waren 926 Kilometer autobahnartig ausgebaut. Im Wesentlichen sind dies Teile der vier von Helsinki wegführenden Staatsstraßen 1, 4, 5 und 7.
Die Autobahnen bilden keine eigene Systematik, sondern sind integriert in das System der Staatsstraßen mit einer Gesamtlänge von 8.570 km. Einige wenige autobahnartig ausgebaute Abschnitte gehören nicht zu Staatsstraßen. Die kurze Staatsstraße 29 ist die nördlichste Autobahn der Welt.
Frankreich.
Die erste Autobahn Frankreichs, die "Autoroute de Normandie", sollte 1940 fertiggestellt werden. Durch den Zweiten Weltkrieg verzögerte sich allerdings der Bau und die Strecke wurde erst 1946 eröffnet. Die offizielle Bezeichnung "„Autoroute“ (Autostraße)" wurde 1955 eingeführt. Inzwischen hat Frankreich mit derzeit etwa 11.650 Kilometern das fünftlängste Autobahnnetz weltweit und das drittlängste in Europa.
Italien.
Als erste Autobahn Italiens und gleichzeitig erste für alle zugängliche Autostraße Europas gilt die Autostrada dei Laghi. Das erste Teilstück zwischen Mailand und Varese wurde 1924 privat von Piero Puricelli errichtet und war gebührenpflichtig. Die Autostraße besaß je Fahrtrichtung einen Fahrstreifen und war noch nicht höhenfrei ausgebildet. Spezielle Ein- und Ausfahrten waren angelegt. Im Jahre 1933 gab es in Italien bereits ein Autobahnnetz, das 457,5 km lang war.
Kroatien.
Seit der Gründung der Republik Kroatien erfuhr der Ausbau des Autobahnnetzes in Kroatien zunehmende Bedeutung. Die derzeitige Gesamtlänge aller Autobahnen (kroatisch: Autoceste; singular Autocesta) beträgt 1270,2 km. Zusätzlich befinden sich 185,6 Autobahnkilometer im Bau. Das geplante Autobahnnetz soll 1670,5 km lang werden.
Namibia.
In Namibia wurde mit der A1 erstmals 2017 eine Autobahn eröffnet. Diese hat in ihrer aktuellen Ausbaustufe eine Länge von 53 Kilometer zwischen Windhoek und Okahandja. Generell werden alle vierspurigen Überlandstraßen in Namibia als Autobahn (englisch "Freeway") deklariert. Weitere Autobahnen befinden sich im Bau.
Niederlande.
Die Niederlande haben mit 57,5 Kilometern den größten Anteil Autobahnkilometer pro 1000 km² in der Europäischen Union. Insgesamt besitzen die Niederlande ein Autobahnnetz von 2360 km. Die älteste niederländische Autobahn ist die A12 zwischen Den Haag und Utrecht, deren erster Abschnitt 1937 in Betrieb genommen wurde.
Norwegen.
In den 1960er Jahren begann Norwegen mit der Planung eines umfassenden Autobahnnetzes, doch der Bau wurde nach nur 45 Streckenkilometern aufgrund der hohen Baukosten gestoppt. Stattdessen beschränkte man sich auf den Bau von Schnellstraßen. Erst zur Jahrtausendwende kam der Autobahnbau wieder in Schwung – vor allem durch die Erweiterung von vorhandenen Schnellstraßen. 2004 umfasste das norwegische Autobahnnetz im Vergleich immer noch geringe 193 km. Viele Autobahnen wurden später gebaut und bis Ende 2022 waren es rund 620 Kilometer, und es gibt eine Entscheidung über weitere 600 Kilometer bis 2035, zum Beispiel zusammenhängende Haugesund–Stavanger–Kristansand–Oslo.
Eine Besonderheit ist, dass der Ausbau meist über eine Maut (auf rund 1 NOK/km) auf dem entsprechenden Abschnitt finanziert wird, nicht jedoch die Instandhaltung („Öffentlich-private Partnerschaft“). Sobald die Investitionskosten abbezahlt sind, entfallen die Mautgebühren.
Österreich.
Der Autobahnbau begann in Österreich mit dem Anschluss an das Deutsche Reich 1938. Noch im selben Jahr wurden erste Teilstücke der West Autobahn (A 1) bei Salzburg fertiggestellt. Im Zuge des Zweiten Weltkrieges kam der Ausbau des Autobahnnetzes bei einer Gesamtlänge von 16,8 km allerdings zum Erliegen und wurde erst nach dem Wiedererlangen der Souveränität Österreichs mit dem Österreichischen Staatsvertrag von 1955 wieder aufgenommen. Für die Benützung, die ursprünglich kostenlos war, wird seit 1997 Maut eingehoben.
Polen.
Nach der Westverschiebung 1945 verfügte Polen lediglich über einige noch unter nationalsozialistischer Planung errichtete Autobahnfragmente in Pommern, Ostpreußen und Schlesien. Unter der kommunistischen Führung wurden anschließend vorwiegend in den Ballungszentren Polens Schnellstraßen, jedoch keine weiteren Autobahnstrecken errichtet. Erst in den 1980ern begann der ernsthafte Bau eines umfassenden Autobahnnetzes, das allerdings vor allem im Nordosten und Osten des Landes immer noch erhebliche Lücken aufweist. Am 1. Dezember 2012 wies das polnische Autobahnnetz eine Gesamtstreckenlänge von 1342 km auf.
Schweden.
Die schwedischen Autobahnen, in Schweden "Motorvägar" genannt, entstanden erst nach dem Zweiten Weltkrieg. Der erste "Motorväg" mit Autobahnstandard wurde, nach deutschem Vorbild, mit einer Fahrbahn aus Beton zwischen Malmö und Lund angelegt und 1953 von Prinz Bertil von Schweden eingeweiht. Das Teilstück war 17 km lang. 2012 umfasste das schwedische Autobahnnetz ungefähr 1920 km.
Schweiz.
Die erste Autobahn der Schweiz war die "Ausfallstraße Luzern-Süd", welche den Verkehr von Luzern an Horw vorbeileitete. Sie wurde am 11. Juni 1955 eröffnet und ist heute Teil der A2. Am 8. März 1960 trat das "Bundesgesetz über die Nationalstrassen" in Kraft, welches die Kompetenzen zur Planung und zum Bau von Strassen mit nationaler Bedeutung dem Bund übertrug und im Artikel 2 die Autobahn als Nationalstrasse erster Klasse beschreibt. Am 21. Juni 1960 folgte der "Bundesbeschluss über das Nationalstrassennetz", in welchem das anzustrebende Autobahnnetz festgelegt ist. Die erste vom Bund finanzierte Strasse war die am 10. Mai 1962 eröffnete acht Kilometer lange Grauholzautobahn, welche der Umfahrung von Zollikofen dient. 1963 wurde das erste längere Teilstück einer Autobahn eröffnet, die A1 zwischen Genf und Lausanne. 1985 wurde das letzte Teilstück der A2 im Tessin zwischen Biasca und Bellinzona fertiggestellt.
Serbien.
Bereits nach dem Zweiten Weltkrieg wurde eine Autostraße durch Jugoslawien gebaut, welche vier der sechs Teilrepubliken (darunter Serbien) passierte und den Namen „Straße der Brüderlichkeit und Einheit“ ("Autoput Bratstvo i jedinstvo") erhielt. Mit dem steigenden Verkehrsaufkommen auf den Straßen der Teilrepubliken wurde die Autostraße zum Autoput mit zwei Richtungsfahrbahnen umgebaut. Seit der Unabhängigkeit Serbiens 2006 befinden sich viele Autobahnen und Schnellstraßen in Planung und Bau.
Slowenien.
Die erste Autobahn in Slowenien war die „Avtocesta Vrhnika – Postojna“. Sie wurde am 29. Dezember 1972 eröffnet und ist heute Teil der A1.
Ungarn.
Das Netz der ungarischen Autobahnen (Ungar.: autópálya) beträgt 1232,6 km. Die erste Planung für Autobahnen in Ungarn stammt aus dem Jahr 1942. Im Jahr 1964 wurde die erste Autobahn M7 von Budapest zum Plattensee fertiggestellt. Später begann der Bau nach Tatabánya, nach Győr und in Richtung Wien.
Ungarn hat ein radiales Autobahnnetz mit dem Zentrum Budapest: M1; M2; M3; M4; M5; M6; M7 und einen äußeren Ring: M0.
Vereinigtes Königreich.
Der Bau von Autobahnen im Vereinigten Königreich begann 1949 mit dem "Special Roads Act". Darin definierte das britische Parlament „spezielle Straßen“ (später offiziell als „Motorway“ bezeichnet), für die nur bestimmte Fahrzeugtypen zugelassen waren. Die erste dieser „speziellen Straßen“, die heutige M6 bei Preston, wurde am 5. Dezember 1958 eröffnet. Ein Jahr später, am 2. November 1959, gab man die heutige M1 bei London für den Verkehr frei. Da die M6 damals recht kurz war und lange nicht erweitert wurde, wird häufig die M1 als erste Autobahn Großbritanniens bezeichnet.
Vereinigte Staaten.
Der Long Island Motor Parkway (LIMP), auch bekannt als Vanderbilt Parkway, war eine ab 1908 errichtete private Straßenverbindung im Staate New York, die als Mautstraße dem Automobilverkehr vorbehalten war und auch als Rennstrecke diente. Ihre kreuzungsfreie Bauweise und die Verwendung geteilter Richtungsfahrbahnen machen sie zu einem Vorläufer der Autobahnen. Sie wurde 1938 vom Staat New York übernommen und stillgelegt.
Beschilderung.
Um dem Verkehrsteilnehmer die Orientierung zu erleichtern, erhalten Fernstraßen eine charakteristische Beschilderung, welche durch Farbe und Symbolik die Bedeutung der Straße hervorhebt. Die Farben Blau und Grün sind laut dem Wiener Übereinkommen über Straßenverkehrszeichen von 1968 zugelassen. Zeichen für Beginn und Ende einer Autobahn sind besonders wichtig, weil sich Rechte und Pflichten der Verkehrsteilnehmer ändern.
Um eine einheitliche Farbgebung anzustreben und weder grüner noch blauer Beschilderung den Vorzug zu geben, kam in den 1990er-Jahren die Idee auf, eine andere Farbgebung zu nutzen; nach Versuchen auch mit violett (z. B. in gewissen Regionen in Deutschland) einigte man sich aber auf die rote Farbe. Da die Farbänderung sämtlicher Beschilderungen jedoch exorbitante Kosten verursacht hätte, sind zum einen nur wenige Länder der neuen Farbgebung gefolgt (F/CH/PL), zum anderen wurde hierbei aber ausschließlich die Nummerierungsbeschilderung auf rote Farbe umgestellt, die Hinweis- und Verkehrsschilder jedoch in der bisherigen Farbe belassen. So sind z. B. auf gewissen Strecken in der Schweiz nach wie vor grüne Nummerierungsbeschilderungen zu sehen, die aber noch aus der Zeit stammen, als die Autobahnen mit der Nationalstrassennummer bezeichnet wurden.
Verkehrsregeln.
Fast alle Länder haben eine Geschwindigkeitsbegrenzung zwischen 100 und 130 km/h für Autobahnen eingeführt. Allgemein ist die Geschwindigkeit den Straßen-, Verkehrs-, Sicht- und Wetterverhältnissen (beispielsweise Schnee oder Nebel) und den Eigenschaften von Fahrzeug und Ladung anzupassen. In Europa ist Deutschland das einzige Land, in dem die Geschwindigkeit auf Autobahnen nicht generell begrenzt ist; es gibt eine Autobahn-Richtgeschwindigkeits-Verordnung, die aber nur empfehlenden Charakter hat.
In den meisten Ländern sind Fahrzeuge, die bauartbedingt eine bestimmte Mindestgeschwindigkeit nicht erreichen können (45 bis 80 km/h, länderabhängig), von der Autobahnbenutzung ausgeschlossen, da sie den Verkehrsfluss unverhältnismäßig behindern und so die Unfallgefahr erhöhen würden.
Das Halten, Wenden, Rückwärtsfahren sowie das Auf- und Abfahren an nicht gekennzeichneten Stellen auf der Autobahn ist generell verboten. Ausnahmen zum Haltverbot bilden die Autobahnparkplätze und Autobahnraststätten. Verkehrsteilnehmer, deren Fahrzeug eine Panne hat, warten am äußersten Fahrbahnrand (beziehungsweise auf dem Standstreifen, falls vorhanden).
Bei Verkehrssituationen, die zu einem Rückstau führen, ist in Deutschland, Österreich und anderen Ländern eine Rettungsgasse zu bilden. Dabei haben die Verkehrsteilnehmer der linken Spur ihre Fahrzeuge ganz an den linken Fahrbahnrand zu lenken. Verkehrsteilnehmer in der rechten Fahrspur haben ihre Fahrzeuge ganz an den rechten Fahrbahnrand zu lenken. Damit bildet sich zwischen den beiden Fahrzeugkolonnen eine für Einsatzfahrzeuge reservierte Fahrspur. Bei mehreren Fahrspuren befindet sich die Rettungsgasse immer rechts von der am weitesten links befindlichen Fahrspur.
Verkehrsstärke.
Autobahnen sind baulich dafür ausgelegt, ein hohes Verkehrsaufkommen auszuhalten.
Der höchste Verkehrsfluss mit bis zu 2600 Autos pro Stunde und Fahrstreifen stellt sich – wegen des verringerten Sicherheitsabstandes – bei etwa 85 km/h ein, wenn sich die Geschwindigkeiten der einzelnen Fahrzeuge einander anpassen. Eine noch höhere Belastung führt dann zum Stau. Bei subjektiv „freier Strecke“ können hingegen nur etwa 1800 Autos pro Stunde und Fahrstreifen passieren. Das theoretische Modell für den Zusammenhang zwischen Geschwindigkeit und Durchlassfähigkeit einer Straße liefert das Fundamentaldiagramm des Verkehrsflusses.
Verkehrssicherheit.
Autobahnen haben einen sehr geringen Anteil an den Gesamtunfallzahlen im Verkehr. Dies liegt hauptsächlich an der Abwesenheit von unfallträchtigen Verkehrselementen (kein Kreuzungs- und direkter Gegenverkehr, keine Fußgänger, keine Radfahrer …). 2014 fanden 31 % der Fahrleistung in Deutschland auf Autobahnen statt, der Anteil an den Verkehrstoten lag aber nur bei 11 %. Die Getötetenrate lag auf Autobahn mit 1,6 Todesfällen pro Milliarden-Fahrzeugkilometer im Vergleich deutlich niedriger als der Wert von 4,6 im gesamten Verkehr beziehungsweise 6,5 auf außerstädtischen Bundesstraßen. Neben dem Risiko, mit einem anderen Fahrzeug zu kollidieren, besteht, sofern Autobahnen nicht durch Wildschutzzäune eingezäunt werden, auch die Gefahr eines Wildunfalls. Diese zum Teil schweren Unfälle treten besonders in Waldgebieten auf.
Im Regelfall werden in Deutschland und Österreich Autobahnen bei Nacht nur im innerstädtischen Bereich (Stadtautobahn) sowie bei unfallträchtigen Ein- und Ausfahrten beleuchtet. Autobahntunnel werden – wie andere Straßentunnel – immer beleuchtet. In vielen anderen Ländern (beispielsweise Frankreich oder Großbritannien) sind die meisten Autobahnen in Ballungsräumen und alle Autobahnknotenpunkte beleuchtet. Es gibt einige Länder wie Belgien, Luxemburg oder die Vereinigten Arabischen Emirate, wo sogar fast alle Autobahnen nachts beleuchtet werden. Im Zuge der Energieeinsparungen und der aufwändigen Wartung sowie der sogenannten Lichtverschmutzung wird aber auch in einigen dieser Länder die Beleuchtung nach und nach eingestellt.
Maut.
In vielen Ländern muss man für das Befahren der Autobahn eine Benutzungsgebühr (sogenannte Maut) bezahlen. Dieses kann zeitabhängig in Form einer Vignette geschehen oder streckenabhängig durch Bezahlen an Mautposten, wie in zahlreichen weiteren europäischen Staaten üblich.
In Österreich gilt für LKW seit dem 1. Januar 2004 eine Mautpflicht, die über mitzuführende GO-Boxen und ein entlang der Autobahn installiertes Dezimeterwellen-System abgerechnet wird. Um ein Ausweichen auf Landstraßen zu verhindern, werden häufig Fahrverbote für LKW auf parallel verlaufenden Straßen verhängt. In der Schweiz gilt die LSVA auf allen Straßen, somit existiert das Ausweichen des Schwerverkehrs auf Landstraßen nicht. In Deutschland gilt seit dem 1. Januar 2005 eine LKW-Maut, die entweder an Automaten über dort anzugebende Fahrtrouten im Voraus oder über eingebaute Maut-Geräte satellitengestützt automatisiert erhoben wird. Die Erhebung erfolgt über das Unternehmen Toll Collect.
Kultur.
Die Autobahnen haben auch zu kultureller Auseinandersetzung angeregt. Ein Beispiel ist die Errichtung von Autobahnkirchen.
Beispiele im Bereich der Musik sind das Album "Autobahn" der Musikgruppe Kraftwerk und das Lied "Deutschland Autobahn" des US-amerikanischen Country-Sängers Dave Dudley, dessen Großeltern aus Deutschland stammten. In dem Film The Big Lebowski (1998) taucht ein Trio deutscher Nihilisten auf, das als Gruppe "Autobahn" (ein Kraftwerk-Verschnitt) Ende der 1970er seine erste Techno-LP mit dem Titel "Nagelbett" herausgebracht haben soll. Auch tragen einige Diskotheken, die an oder in der Nähe einer Autobahn liegen, den Namen dieser Autobahn, so zum Beispiel eine Kasseler Diskothek namens "A7" an der A 7. Die deutsche Filmkomödie "Superstau" spielt fast komplett auf einer Autobahn.
Der Schweizer Autobahn 1 wurde ein Song von Toni Vescoli gewidmet, der den Titel "N1" trägt und 1983 erschienen ist. Er beschreibt die allgemeine Hassliebe zur A 1, die damals noch als "Nationalstrasse 1" (Kurzform N1) bezeichnet wurde.
Baukosten.
Die Baukosten von Autobahnen sind stark von den Gegebenheiten der jeweiligen Strecke abhängig. Einfache Streckenführungen verursachen Kosten von etwa vier bis sechs Millionen Euro pro Autobahnkilometer, bei komplexen Strecken, etwa mit Brücken und Tunneln, liegen die Kosten um ein Vielfaches höher. Zusätzlich zu den reinen Baukosten kommen Kosten für den Planungsprozess, für Gutachten und Beratungsleistungen externer Ingenieure, Genehmigungsverfahren und für begleitende Investitionen, also etwa für Lärmschutzwände, Straßenbegleitgrün und Wechselverkehrszeichen hinzu.
Entsprechend einer Beispielrechnung ergeben sich in Deutschland durchschnittliche Kosten von 26,8 Millionen Euro pro Autobahnkilometer, wovon ein Viertel reine Baukosten und drei Viertel zusätzliche Kosten sind. Beispielsweise kostet der Neubau der deutschen A20 von 1992 bis 2005 etwa 1,9 Milliarden Euro bei einer Länge von 322 km, das entspricht 6 Mio. Euro pro Autobahnkilometer. Hingegen kostete die 84 km lange Schweizer A16 auf Grund zahlreicher Kunstbauten 6,5 Milliarden Schweizer Franken (77,38 Millionen Franken pro Kilometer).
Autobahnbau und Naturschutz.
Autobahnen sowie deren Neu- oder Ausbau werden durch Anwohner-, Natur- und Umweltinitiativen kritisiert. Umweltschützer sehen den Autobahnbau unter anderem als falsches verkehrspolitisches Signal, da der motorisierte Individualverkehr und somit der zusätzliche Ausstoß von klimaschädlichen Abgasen gefördert wird. Außerdem warnen sie vor zusätzlicher Lärmbelastung und Luftverschmutzung für die Umgebung der Autobahn.
Naturschützer hingegen bemängeln vor allem den Flächenverbrauch sowie die zunehmende Landschaftszerschneidung, welche durch neue Autobahnen gefördert wird. Zudem wird bemängelt, dass der Arten- wie der Biotopschutz bei der Verkehrsplanung oft eine untergeordnete Rolle spielt.
Aus diesen Gründen versuchen Umweltschutzorganisation und Naturschutzverbände durch Aufklärungsarbeit, aber auch mithilfe des Verbandsklagerechts, den Bau weiterer Autobahnen zu verhindern oder umweltverträglichere Streckenführungen beim Neubau durchzusetzen.
Des Weiteren fördern Autobahnen aktiv die Zersiedelung. Durch die verkürzte Wegstrecke und die Verkürzung der Fahrzeiten wird es z. B. Arbeitnehmern ermöglicht, sich weiter weg von ihren Arbeitsplätzen anzusiedeln. Dies führt wiederum zu mehr Verkehr auf den Autobahnen, was wiederum zu einem Bedarf für neue Straßen oder für den Straßenausbau führt. So sind z. B. in Los Angeles selbst achtstreifige Autobahnen regelmäßig von Staus betroffen.
Ein weiteres Beispiel sind Gewerbegebiete an Autobahnen außerhalb von Städten. Diese sind in der Regel nicht mit anderen Verkehrsmitteln zu erreichen, ein weiterer Anstieg des Individualverkehrs ist die Folge.
Eine Möglichkeit, die negativen Auswirkungen von Autobahnen auf die Umwelt zu verringern, ist das Verfahren der Trassenbündelung. So wird neben einem bestehenden Verkehrsweg (etwa einer Bahnstrecke) eine Autobahn errichtet. Durch dieses Prinzip werden die Flächenzerschneidung und die Neuverlärmung reduziert. Ein weiteres Mittel, mit dem versucht wird die Auswirkungen der Landschaftszerschneidung zu verringern, ist der Bau von Grünbrücken.
Literatur.
→ "Literatur zur Autobahn in Deutschland siehe:" Autobahn (Deutschland)#Literatur. |
440 | 1301169 | https://de.wikipedia.org/wiki?curid=440 | Attac |
Attac (ursprünglich association pour une taxation des transactions financières pour l'aide aux citoyens"; seit 2009: association pour la taxation des transactions financières et pour l'action citoyenne;" ‚Vereinigung zur Besteuerung von Finanztransaktionen im Interesse der Bürger‘) ist eine globalisierungskritische Nichtregierungsorganisation.
Attac hat weltweit circa 90.000 Mitglieder und agiert in 50 Ländern, hauptsächlich jedoch in Europa.
Gründung.
Attac wurde am 3. Juni 1998 in Frankreich gegründet. Den Anstoß zur Gründung gab ein Leitartikel von Ignacio Ramonet, der im Dezember 1997 in der Zeitung Le Monde diplomatique veröffentlicht wurde und die Gründung einer "Association pour une taxe Tobin pour l’aide aux citoyens" (deutsch: „Vereinigung für eine Tobin-Steuer zum Nutzen der Bürger“) vorschlug.
Seine Idee war, auf weltweiter Ebene eine Nichtregierungsorganisation (NGO) ins Leben zu rufen, die Druck auf Regierungen ausüben sollte, um eine internationale „Solidaritätssteuer“ zur Kontrolle der Finanzmärkte, genannt Tobin-Steuer, einzuführen. Gemeint war damit die durch den US-amerikanischen Ökonomen James Tobin Ende der 1970er Jahre vorgeschlagene Steuer in Höhe von 0,1 % auf spekulative internationale Devisengeschäfte. Der von Ramonet gleichzeitig vorgeschlagene Name dieser Organisation „attac“ sollte, aufgrund seiner sprachlichen Nähe zum französischen Wort "attaque", zugleich den Übergang zur „Gegenattacke“ signalisieren, nach Jahren der Anpassung an die Globalisierung.
Die Aktivitäten von Attac weiteten sich schnell über den Bereich der Tobinsteuer und die „demokratische Kontrolle der Finanzmärkte“ hinaus aus. Mittlerweile umfasst der Tätigkeitsbereich von Attac auch die Handelspolitik der WTO, die Verschuldung der Dritten Welt und die Privatisierung der staatlichen Sozialversicherungen und öffentlichen Dienste. Die Organisation ist inzwischen in einer Reihe von afrikanischen, europäischen und lateinamerikanischen Ländern präsent.
Im deutschsprachigen Raum hatten 1999 die NGOs Weltwirtschaft, Ökologie und Entwicklung (WEED) und Kairos Europa die Initiative zur Gründung von Attac ergriffen.
Attac Deutschland.
Attac Deutschland ist ein Projekt des eingetragenen Vereins "Attac Trägerverein e.V." Der Verein ist beim Amtsgericht Frankfurt am Main unter der Vereinsregisternummer VR 12648 registriert.
In Frankfurt/Main beschlossen am 22. Januar 2000 circa 100 Teilnehmer der Gründungsversammlung ein „Netzwerk zur demokratischen Kontrolle der internationalen Finanzmärkte“ zu gründen. Dieses soll eng mit der im Jahr 1998 gegründeten französischen Organisation Attac zusammenarbeiten.
Attac Deutschland besteht aus Mitgliedsorganisationen und Einzelmitgliedern (Stand April 2018: über 29.000) Attac versteht sich als „Bildungsbewegung“ mit Aktionscharakter und Expertise. Über Vorträge, Publikationen, Podiumsdiskussionen und Pressearbeit sollen die Zusammenhänge der Globalisierungsthematik einer breiten Öffentlichkeit vermittelt und Alternativen zum „neoliberalen Dogma“ aufgezeigt werden. Seit mehreren Jahren begleitet ein wissenschaftlicher Beirat die Arbeit von Attac. Mit Aktionen soll Druck auf Politik und Wirtschaft zur Umsetzung der Alternativen erzeugt werden.
Mit dem Jugendnetzwerk Noya sollen insbesondere junge Menschen für globalisierungskritische Themen angesprochen werden. Daneben existieren etliche Campus-Gruppen, die speziell auf Studenten und Bildungsthemen ausgerichtet sind.
Attac versteht sich als Netzwerk, in dem sowohl Einzelpersonen als auch Organisationen aktiv sein können. In Deutschland gehören circa 200 Organisationen Attac an, darunter ver.di, BUND, Pax Christi, Evangelische StudentInnengemeinde in Deutschland (Bundes-ESG) Deutsche Friedensgesellschaft – Vereinigte KriegsdienstgegnerInnen (DFG-VK), Medico international und viele entwicklungspolitische und kapitalismuskritische Gruppen. Momentan sind von den über 29.000 Mitgliedern viele in den etwa 170 Regionalgruppen oder den bundesweiten Arbeitsgruppen aktiv.
Attac Deutschland ist Mitglied im "Tax Justice Network".
Struktur.
Wissenschaftlicher Beirat (Auswahl).
Im 2001 gegründeten wissenschaftlichen Beirat von Attac Deutschland arbeiteten circa 100 Professoren, Wissenschaftler und Experten mit. Engagiert waren Ökonomen, Soziologen, Politologen, Juristen, Psychologen und Fachleute anderer Professionen. Der Beirat war an Buchveröffentlichungen beteiligt. Seit Mai 2021 befindet sich der Wissenschaftliche Beirat in einer Phase der Reorganisation.
Im alten Beirat waren vertreten (Auswahl):
Quelle:
Mitgliedsorganisationen von Attac Deutschland (Auswahl).
Attac Deutschland versteht sich als Netzwerk, dem neben ca. 29.000 Einzelmitgliedern (2015) etwa 200 Organisationen angehören, darunter:
Bekannte Personen und Prominente bei Attac.
Auswahl aus der
Themen.
Ursprünglich setzte sich Attac vor allem für die Einführung der Tobin-Steuer auf Finanztransaktionen und eine demokratische Kontrolle der internationalen Finanzmärkte ein. Inzwischen hat sich Attac auch anderer Themen der globalisierungskritischen Bewegung angenommen, als deren Teil es sich sieht. Seine Mitglieder nehmen häufig an Aktionen und Demonstrationen teil, die tendenziell dem linken politischen Spektrum zugeordnet werden. Attac kritisiert dabei die neoliberale Globalisierung und versucht u. a. mit Demonstrationen und Bildungs- und Aufklärungsarbeit gegen Armut und Ausbeutung zu kämpfen.
Attac befasst sich in Deutschland vor allem mit folgenden Themen, zu denen es zum Großteil auch gesonderte bundesweite Arbeitszusammenhänge gibt:
Attacs Hauptkritik an den „Kräften der neoliberalen Globalisierung“ (im Sprachverständnis von Attac zu unterscheiden von kultureller, ökologischer, politischer Globalisierung) ist, dass diese das Versprechen eines „Wohlstands für alle“ nicht haben einlösen können. Im Gegenteil: Die Kluft zwischen Arm und Reich werde immer größer, sowohl innerhalb der Gesellschaften als auch zwischen Nord und Süd. Motor dieser Art von Globalisierung seien die internationalen Finanzmärkte. Banker und Finanzmanager setzten täglich Milliardenbeträge auf diesen Finanzmärkten um und nähmen über ihre Anlageentscheidungen immer mehr Einfluss auf die gesellschaftliche Entwicklung. Damit würden die Finanzmärkte letztendlich die Demokratie untergraben. Deshalb plädiert Attac, neben anderen Maßnahmen, für die besagte Besteuerung von Finanztransaktionen, die so genannte Tobin-Steuer. Attac behauptet, neoliberale Entwicklungen seien politisch gewollt, d. h. die Politik sei nicht Opfer, sondern Hauptakteur dieses Prozesses.
Attac tritt für eine „demokratische Kontrolle“ und Regulierung der internationalen Märkte für Kapital, Güter und Dienstleistungen ein. Politik müsse sich an den Leitlinien von Gerechtigkeit, Demokratie und ökologisch verantwortbarer Entwicklung ausrichten. Nur so könne die durch die kapitalistische Wirtschaftsweise entstehende gesellschaftliche Ungleichheit ausgeglichen werden.
Attac möchte nach eigenen Angaben ein breites gesellschaftliches Bündnis als Gegenmacht zu den internationalen Märkten bilden. Die Behauptung, Globalisierung in ihrer jetzt herrschenden Form sei ein alternativloser Sachzwang, wird von Attac als reine Ideologie zurückgewiesen. Stattdessen wird unter Stichworten wie Alternative Weltwirtschaftsordnung, Global Governance, Deglobalisierung, Re-Regionalisierung und Solidarische Ökonomie über Alternativen diskutiert.
Der Begriff „Ökonomische Alphabetisierung“ bezeichnet die Strategie von Attac, eine Vermittlung von ökonomischen Grundkenntnissen an weite Teile der Bevölkerung vorzunehmen. Da immer mehr Bereiche des öffentlichen Lebens den marktwirtschaftlichen Prinzipien unterworfen würden, seien immer öfter ökonomische Grundkenntnisse für eine Partizipation im demokratischen Prozess und für die Meinungsbildung erforderlich.
Arbeitsweise.
Attac sagt über sich selbst, Grundsatz sei ein ideologischer Pluralismus. Inhaltlich bestehe allerdings auch ein unüberbrückbarer Gegensatz zum wirtschaftlichen Liberalismus. Attac möchte seine politischen Ziele friedlich und respektvoll durchsetzen und auf Gewalt deeskalierend reagieren.
Entscheidungen werden bei Attac nicht nach dem Mehrheits-, sondern nach dem Konsensprinzip getroffen. Das heißt, dass Entscheidungen zunächst diskutiert und – falls niemand widerspricht – von allen mitgetragen werden. So können Entscheidungen auch auf vorläufiger Basis getroffen und später erneut diskutiert werden, falls eine Seite dazu anrät. Auf diese Weise kann das Meinungsspektrum der Mitglieder und Mitgliedsorganisationen besser integriert werden und kann sich keine Kultur von Mehrheitsabstimmungen entwickeln, die zum Übergehen von Minderheiten führen würde. Da Attac keine politische Partei ist, die zu jedem Thema einen abrufbaren und einheitlichen Standpunkt bereithalten muss, fallen die Nachteile des Konsensprinzips aus der Sicht der Aktivisten kaum ins Gewicht. Die Mitwirkung bei Attac findet vorwiegend in "Arbeitskreisen (AKs)" oder "Arbeitsgemeinschaften (AGs)" statt, die es sowohl auf regionaler als auch auf nationaler Ebene zu den verschiedenen Themengebieten gibt, sowie in zahlreichen Regionalgruppen.
Meinungen von Attac zu wirtschaftspolitischen Themen werden zum Teil auch gesellschaftlich wahrgenommen, wie die vermehrten Auftritte von Attac-Mitgliedern in den Medien (DeutschlandRadio, Phönix) und bei Politik-Talkshows (z. B. Sven Giegold bei "Sabine Christiansen", "Maybrit Illner" oder Jutta Sundermann als Gast von Bettina Böttinger im "Kölner Treff") zeigten.
Ratschlag.
Der Attac-Ratschlag ist bei Attac Deutschland das höchste Entscheidungsgremium. Er trifft sich zweimal jährlich, und zwar einmal als "Attac-Basistreffen" mit dem Schwerpunkt auf Erfahrungsaustausch und ein weiteres Mal als Entscheidungsgremium unter anderem mit den jährlichen Wahlen zum Attac-Rat und zum Koordinierungskreis. Beide Treffen sind öffentliche Vollversammlungen.
Der Attac-Ratschlag ist ein bundesweites, öffentliches Treffen aller interessierten Menschen aus den Mitgliedsorganisationen, Ortsgruppen sowie den bundesweiten Arbeitszusammenhängen und aktiver Nichtmitglieder. Entscheidungen werden im Wesentlichen im Konsensverfahren getroffen, Abstimmungen sollen die Ausnahme sein. Für den Fall von Abstimmungen und Wahlen werden von den Mitgliedsorganisationen und Ortsgruppen Delegierte bestimmt.
Auf dem Ratschlag haben alle Anwesenden, egal ob Attac-Mitglieder oder nicht, Rede- und Stimmrecht zu inhaltlichen Fragen. Die Verabschiedung des Haushaltes und die Wahlen der Gremien sind jedoch den Delegierten vorbehalten. Diese Delegierten werden von Attac-Gruppen, Mitgliedsorganisationen und bundesweiten Arbeitszusammenhängen bestimmt, jeweils nach ihren eigenen Verfahren, die nicht zentral geregelt sind.
Jede Attac-Ortsgruppe bestimmt zwei Delegierte. Attac-Gruppen mit mehr als 100 Attac-Mitgliedern bestimmen vier Delegierte. Gruppen mit mehr als 200 Attac-Mitgliedern bestimmen sechs Delegierte. Die bundesweit tätigen Mitgliedsorganisationen bestimmen jeweils zwei Delegierte. Bundesweite Arbeitsgruppen, Kampagnen, "feminist attac" (früher: Frauennetzwerk), wissenschaftlicher Beirat usw. bestimmen auch jeweils zwei Delegierte. (Beschluss Ratschläge Frankfurt 2002 und Aachen 2003)
Für die Delegationen zum Ratschlag gilt eine Frauenquote. Die Delegierten der Attac-Gruppen sollen so gewählt werden, dass mindestens die Hälfte der Delegierten Frauen sein können, aber maximal die Hälfte Männer. D. h.: bleiben Frauenplätze unbesetzt, sind diese nicht durch Männer auffüllbar, jedoch können leere Männerplätze durch Frauen besetzt werden.
Rechtsstreit um die Gemeinnützigkeit.
Im Oktober 2014 erkannte das Finanzamt Frankfurt am Main Attac die Gemeinnützigkeit ab und begründete diesen Schritt mit „den allgemeinpolitischen Zielen“ der Organisation. Gemeinnützigkeit beziehe sich auf eingegrenzte Ziele wie z. B. den Umweltschutz, nicht auf ein breites gesellschaftspolitisches Engagement zu unterschiedlichen Themen, wie es Attac betreibe.
Attac erhob Widerspruch gegen die Entscheidung des Finanzamts. Im November 2016 wurde dem Widerspruch durch das Hessische Finanzgericht stattgegeben und damit die Gemeinnützigkeit gerichtlich festgestellt. Gegen das Urteil ging das Finanzamt allerdings auf Weisung des Bundesfinanzministeriums mit einer Nichtzulassungsbeschwerde vor, die der Bundesfinanzhof am 13. Dezember 2017 annahm. Damit blieb das Urteil des hessischen Landesgerichtes bis zu einer Entscheidung im Revisionsverfahren ohne Rechtskraft und Attac ohne anerkannte Gemeinnützigkeit.
Am 26. Februar 2019 gab der Bundesfinanzhof bekannt, dass er der Revision weitgehend stattgibt, aber zur endgültigen Entscheidung erneut an das Hessische Finanzgericht verweist. Gemeinnützige Vereine hätten kein allgemeinpolitisches Mandat, das aber Attac durch Pressemitteilungen zu sehr unterschiedlichen Themen wahrnehme. Die öffentliche Meinung „im Sinne eigener Auffassungen“ zu beeinflussen, sei durch den gemeinnützigen Zweck der politischen Bildung nicht abgedeckt. Diese setze „ein Handeln in geistiger Offenheit voraus“ und schließe nur die Erarbeitung von Lösungsvorschlägen ein. Die FAZ verwies darauf, dass diese Beschränkung in gleicher Weise für parteinahe Stiftungen gelte. Weiter argumentierte der Bundesfinanzhof, dass einseitig beeinflussendes politisches Engagement nur zugunsten einer eng begrenzten Zahl von gemeinnützigen Zwecken erfolgen darf, unter anderem Natur- und Tierschutz sowie „die allgemeine Förderung des demokratischen Staatswesens“. attac stellte den „Dominoeffekt“ heraus, den die Entscheidung des Bundesfinanzhofs mit sich bringen würde, denn es gehe nicht nur um attac. Eine der größten deutschen gesellschaftspolitischen Kampagnenorganisation Campact begann im Zuge des Rechtsstreites damit, keine Spendenbescheinigungen mehr auszustellen, da sie fürchtet, den Status der Gemeinnützigkeit ebenfalls entzogen zu bekommen. Mit dem Entzug der Gemeinnützigkeit mache man Organisationen „mundtot“, die Kampagnen mit allgemeinpolitischem Charakter unterstützen.
Bereits mit und vor dem Urteil von 2014 wurde eine Beschränkung der steuerbegünstigten politischen Ziele durch die Abgabenordnung kritisiert. „Politik ist nicht nur Sache der Parteien, das spiegelt nicht die Zivilgesellschaft von heute“ wider, sagte etwa Ulrich Müller, Geschäftsführer von LobbyControl. Unabhängig von dem laufenden Rechtsstreit fordert attac eine Erweiterung des Gemeinnützigkeitsrechts in Deutschland. Der Satzungszweck „Förderung des demokratischen Staatswesens“ müsse wie Umwelt- und Naturschutz als gemeinnütziger Zweck anerkannt werden.
Im März 2021 reichte Attac Verfassungsbeschwerde gegen den Entzug der Gemeinnützigkeit ein.
Attac Österreich.
Attac Österreich ist ein in Wien unter der Nummer ZVR 969464512 eingetragener bundesweiter Verein und wurde am 6. November 2000 gegründet. Die Gründung war von 50 Personen aus allen Gesellschaftsbereichen vorbereitet worden. Zur Auftaktveranstaltung in Wien kamen mehr als 300 Interessierte. Neben den Proponenten saßen die Politikwissenschaftlerin Susan George von Attac Frankreich, Stephan Schulmeister vom Österreichischen Institut für Wirtschaftsforschung (WIFO) und Brigitte Unger, Professorin für Ökonomie an der Wirtschaftsuniversität Wien, auf dem Podium. Der Verein hat über 5400 Einzelmitglieder und mehr als 70 Mitgliedsorganisationen. Prominente Unterstützer sind unter anderem die Schriftsteller Franzobel und Robert Menasse. Zu den wichtigsten regelmäßigen Veranstaltungen zählen eine jährliche Sommerakademie an wechselnden Orten Österreichs sowie seit 2009 eine gemeinsam mit Greenpeace und anderen NGOs veranstaltete Aktionsakademie. Attac Österreich zeichnet auch für die Initiative "Wege aus der Krise" verantwortlich. Zu den Unterstützern dieser Initiative zählen die Armutskonferenz, die Gewerkschaft der Gemeindebediensteten, Kunst, Medien, Sport und freie Berufe (GdG-KMSfB), Global 2000 Österreich, die Gewerkschaft der Privatangestellten (GPA), Greenpeace Austria, die Katholische ArbeitnehmerInnen Bewegung Österreich (KAB), die Österreichische Hochschülerinnen- und Hochschülerschaft, die Gewerkschaft PRO-GE, SOS Mitmensch und die Gewerkschaft Vida sowie eine Reihe weiterer Organisationen.
Arbeitsweise.
Attac Österreich ist ein unabhängiger, in Wien eingetragener bundesweiter Verein. Attac Österreich steht nach eigenen Angaben keiner Partei nahe. Die koordinierende Stelle ist der auf der jährlichen Generalversammlung gewählte Vorstand. Bei der konstituierenden Generalversammlung am 20. Mai 2001 wurde das Prinzip des Gender-Mainstreaming in den Statuten Attacs verankert. Der Vorstand besteht laut diesen Statuten zu mindestens 50 Prozent aus Frauen. Der Großteil der Arbeit basiert auf dem Engagement ehrenamtlicher Aktivisten in knapp 30 Regional- und zahlreichen Inhaltsgruppen.
Attac Schweiz.
In der Schweiz wurde Attac bereits 1999 gegründet und besteht aus etwa einem Dutzend Lokalgruppen. Im Gegensatz zur Schreibweise in Deutschland und anderen Ländern schreibt sich ATTAC Schweiz mit Großbuchstaben.
Kritik.
Allgemeine Kritik.
Eine Innenansicht mit Kritik am Organisierungsmodell von Attac und den prägenden Inhalten ist im 2004 veröffentlichten Buch "Mythos Attac" von Jörg Bergstedt zu finden. Parallel zum Buch sind Internetseiten mit gesammelten Kritiken und Zitaten aus der Organisation entstanden.
James Tobin, der „Erfinder“ der Tobin-Steuer, distanzierte sich in einem Interview mit dem deutschen Magazin "Der Spiegel" im Jahr 2001 von Attac und anderen Globalisierungskritikern: „Ich kenne wirklich die Details der Attac-Vorschläge nicht genau. Die jüngsten Proteste sind ziemlich widersprüchlich und uneinheitlich, ich weiß nicht einmal, ob all das Attac widerspiegelt. Im großen Ganzen sind deren Positionen gut gemeint und schlecht durchdacht. Ich will meinen Namen nicht damit assoziiert wissen.“
Antisemitismuskontroverse.
Attac wurde von verschiedenen Seiten eine Nähe zum Antisemitismus vorgeworfen. In Deutschland dementierte der Attac-Koordinierungskreis im Dezember 2002 diese Vorwürfe in Form eines Diskussionspapieres. Darin heißt es, dass Attac sich als pluralistisches und offenes Bündnis verstehe. Pluralismus würde jedoch nicht als prinzipienlose Beliebigkeit definiert, sondern fände dort seine Grenzen, wo Rassismus, Antisemitismus und Nationalismus ins Spiel kämen. Auch nach dieser Darstellung gab es weitere Kritik in diesem Bereich, zum Beispiel im Hinblick auf ein Plakat, das auf dem Attac-Ratschlag 2003 neben der Bühne stand und das nach Ansicht von Kritikern die Zinsknechtschaft anprangerte oder ein Aufruf der Attac-AG "Globalisierung und Krieg" zum Boykott von Waren aus jüdischen Siedlungen in Palästinensergebieten. Toralf Staud konstruierte in der Wochenzeitung Die Zeit unter anderem durch seine Interpretation eines gezeigten Plakats den Vorwurf, dass, wenn über „das Finanzkapital“ oder „die Wall Street“ geraunt würde, dies das alte Vorurteil vom geldgierigen Juden wachrufe. Etliche Globalisierungskritiker erlägen seiner Ansicht nach der Versuchung, für unübersichtliche Entwicklungen Sündenböcke verantwortlich zu machen. Die komplexen Zusammenhänge der Globalisierung reduzierten sie auf ein „Komplott dunkler Mächte“.
In Österreich veranstaltete Attac vom 18. bis 20. Juni 2004 den Kongress "Blinde Flecken der Globalisierungskritik" gegen antisemitische Tendenzen und rechtsextreme Vereinnahmung, unterstützt vom Dokumentationsarchiv des österreichischen Widerstandes. Der Kongress ist in einem Reader dokumentiert, in welchem die Thematik kritisch betrachtet, und die generelle einhellige Ablehnung rechtsextremer Ideologien bei Attac formuliert wird.
Rezeption.
Die Aberkennung der Gemeinnützigkeit von "attac Deutschland" durch deutsche Gerichte bedeutete einen Einschnitt in die Arbeit von attac in der Bundesrepublik. Die spendenbasierte finanzielle Grundlage der Organisationsstrukturen musste neu ausgerichtet werden. Heribert Prantl schrieb in der Süddeutschen Zeitung zur Bedeutung von attac: „Egal wie man zu den Aktionen von Attac steht; man muss den Verein ... nicht unbedingt mögen, um das Unwerturteil des Gerichts und dessen Begründung als höchst sonderbar zu kritisieren. Das Urteil besagt letztendlich, dass aus Sicht des Steuerrechts das pointierte Agieren in der Zivilgesellschaft, also das Werben für politische Projekte und Positionen eine irgendwie suspekte, jedenfalls nicht förderungswürdige Sache sei.“ Das Urteil habe eine “toxischer Wirkung” für die gesamte Zivilgesellschaft. |
441 | 779406 | https://de.wikipedia.org/wiki?curid=441 | Almandin | Almandin, auch als Eisentongranat oder Eisen-Tonerdegranat bezeichnet, ist ein Mineral aus der Gruppe der Granate innerhalb der Mineralklasse der „Silikate und Germanate“. Er kristallisiert im kubischen Kristallsystem mit der idealisierten Zusammensetzung Fe3Al2[SiO4]3, ist also chemisch gesehen ein Eisen-Aluminium-Silikat, das strukturell zu den Inselsilikaten gehört.
Almandin ist das Eisen-Analogon zu Spessartin (Mn3Al2[SiO4]3) und Pyrop (Mg3Al2[SiO4]3) und bildet mit diesen eine Mischkristallreihe, die sogenannte „Pyralspit-Reihe“. Da Almandin zudem mit Grossular (Ca3Al2[SiO4]3) Mischkristalle bildet, weist natürlicher Almandin ein entsprechend weites Spektrum der Zusammensetzung mit je nach Bildungsbedingungen mehr oder weniger großen Anteilen von Mangan, Magnesium und Calcium auf. Zusätzlich können noch Spuren von Natrium, Kalium, Chrom und Vanadium, seltener auch Scandium, Yttrium, Europium, Ytterbium, Hafnium, Thorium und Uran vorhanden sein.
Das Mineral ist durchsichtig bis durchscheinend und entwickelt typischerweise Rhombendodekaeder oder Ikositetraeder sowie Kombinationen dieser Kristallformen, die fast kugelig wirken. Ebenfalls oft zu finden sind körnige bis massige Mineral-Aggregate. Im Allgemeinen können Almandinkristalle eine Größe von mehreren Zentimetern Durchmesser erreichen. Es wurden jedoch auch Riesenkristalle von bis zu einem Meter Durchmesser bekannt. Die Farbe von Almandin variiert meist zwischen dunkelrot und rotviolett, kann aber auch bräunlichrot bis fast schwarz sein.
Almandin ist die weltweit am häufigsten auftretende Granatart und kommt oft in schleifwürdigen Qualitäten mit starkem, glasähnlichem Glanz vor, was ihn zu einem begehrten Schmuckstein macht.
Etymologie und Geschichte.
Almandin war bereits Plinius dem Älteren (ca. 23–79 n. Chr.) unter dem Namen "alabandicus" bekannt und gehörte allgemein zu den „Karfunkelsteinen“ ("carbunculus"), das heißt roten Edelsteinen. Benannt wurde er nach der antiken Stadt Alabanda in Karien (Kleinasien, heute in der türkischen Provinz Aydın), wo der Stein bearbeitet worden sein soll. Alabanda gilt daher auch als Typlokalität für Almandin.
Im Mittelalter waren verschiedene Abwandlungen des Namens im Umlauf wie unter anderem "alabandina", "alabandra" und "alabanda". Albertus Magnus (um 1200–1280) führte die Bezeichnung "alamandina" ein, die fast der heutigen Form entsprach.
Um 1800 wurde die Bezeichnung Almandin schließlich endgültig von Dietrich Ludwig Gustav Karsten (1768–1810) auf den Eisentongranat festgelegt.
Kurioserweise wurde das 1784 erstmals beschriebene und namentlich ähnliche Mangansulfid Alabandin ebenfalls nach dem türkischen Ort Alabanda benannt, obwohl es dort bisher nicht nachgewiesen werden konnte.
Klassifikation.
Die strukturelle Klassifikation der International Mineralogical Association (IMA) zählt den Almandin zur Granat-Obergruppe, wo er zusammen mit Andradit, Calderit, Eringait, Goldmanit, Grossular, Knorringit, Morimotoit, Majorit, Menzerit-(Y), Momoiit, Pyrop, Rubinit, Spessartin und Uwarowit die Granatgruppe mit 12 positiven Ladungen auf der tetraedrisch koordinierten Gitterposition bildet.
In der mittlerweile veralteten, aber noch gebräuchlichen 8. Auflage der Mineralsystematik nach Strunz gehörte der Almandin zur Abteilung der „Inselsilikate (Nesosilikate)“, wo er zusammen mit Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, Hydrougrandit, Katoit, Kimzeyit, Knorringit, Majorit, Morimotoit, Pyrop, Schorlomit, Spessartin, Uwarowit, Wadalit und "Yamatoit" (diskreditiert, da identisch mit Momoiit) die „Granatgruppe“ mit der System-Nr. "VIII/A.08" bildete.
Die seit 2001 gültige und von der International Mineralogical Association (IMA) verwendete 9. Auflage der Strunz’schen Mineralsystematik ordnet den Almandin ebenfalls in die Abteilung der „Inselsilikate (Nesosilikate)“ ein. Diese ist weiter unterteilt nach der möglichen Anwesenheit weiterer Anionen und der Koordination der beteiligten Kationen, so dass das Mineral entsprechend seiner Zusammensetzung in der Unterabteilung „Inselsilikate ohne weitere Anionen; Kationen in oktahedraler [6] und gewöhnlich größerer Koordination“ zu finden ist, wo es zusammen mit Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Holtstamit, Katoit, Kimzeyit, Knorringit, Majorit, Momoiit, Morimotoit, Pyrop, Schorlomit, Spessartin und Uwarowit die „Granatgruppe“ mit der System-Nr. "9.AD.25" bildet. Ebenfalls zu dieser Gruppe gezählt wurden die mittlerweile nicht mehr als Mineral angesehenen Granatverbindungen Blythit, Hibschit, Hydroandradit und Skiagit. Wadalit, damals noch bei den Granaten eingruppiert, erwies sich als strukturell unterschiedlich und wird heute mit Chlormayenit und Fluormayenit einer eigenen Gruppe zugeordnet. Die nach 2001 beschriebenen Granate Irinarassit, Hutcheonit, Kerimasit, Toturit, Menzerit-(Y) und Eringait wären hingegen in die Granatgruppe einsortiert worden.
Auch die vorwiegend im englischen Sprachraum gebräuchliche Systematik der Minerale nach Dana ordnet den Almandin in die Abteilung der „Inselsilikatminerale“ ein. Hier ist er zusammen mit Pyrop, Spessartin, Knorringit, Majorit und Calderit in der „Granatgruppe (Pyralspit-Reihe)“ mit der System-Nr. "51.04.03a" innerhalb der Unterabteilung „“ zu finden.
Chemismus.
Almandin mit der idealisierten Zusammensetzung [X]Fe2+3[Y]Al3+[Z]Si3O12 ist das Eisen-Analog von Pyrop ([X]Mg2+3[Y]Al[Z]Si3O12) und kommt in der Natur meistens als Mischkristall mit Pyrop Spessartin und Grossular vor. Mit diesen Endgliedern besteht, zumindest bei geologisch relevanten Temperaturen, unbegrenzte Mischbarkeit, entsprechend den Austauschreaktionen
Für die Mischungsreihe Almandin-Grossular konnten bislang keine Hinweise auf eine Mischungslücke gefunden werden. Nur für pyropreiche Pyrop-Grossular-Almandin-Mischkristalle wurde eine Mischungslücke bei Temperaturen unterhalb von ungefähr 600 °C nachgewiesen.
Auf der oktaedrisch koordinierten Y-Position kann Al3+ ersetzt werden durch Fe3+, entsprechend der Austauschreaktion
Almandinreiche Granate bilden sich meist bei der Metamorphose von Peliten und sind häufig zoniert. Bei zunehmender Metamorphose, d. h. steigender Temperatur und Druck, wachsen Granate mit spessartin- und grossularreichen Kern, die zum Rand hin almandin- und pyropreicher werden. Spessartinreiche Ränder hingegen deuten auf ein Granatwachstum bei absteigender Metamorphose und niedrigen Temperaturen hin. Die Korrelation der Gehalte an Eisen, Mangan und Magnesium erlaubt Rückschlüsse auf die Mineralreaktion, über die Granat bei der Metamorphose gebildet worden ist.
Kristallstruktur.
Almandin kristallisiert mit kubischer Symmetrie in der sowie 8 Formeleinheiten pro Elementarzelle. Es gibt zahlreiche Bestimmungen für die Kantenlänge der kubischen Elementarzelle sowohl natürlicher Mischkristalle wie auch synthetischer Almandine. Für das reine Almandinendglied wird der Gitterparameter z. B. mit "a" = 11,526 Å oder "a" = 11,525 Å angegeben.
Die Struktur ist die von Granat. Eisen (Fe2+) besetzt die dodekaedrisch von 8 Sauerstoffionen umgebenen X-Positionen und führt eine deutlich asymmetrische Schwingung um das Zentrum der Position aus. Das Eisenion ist etwas zu klein für die Dodekaederporition und „schlackert“ etwas. Aluminium (Al3+) besetzt die oktaedrisch von 6 Sauerstoffionen umgebene Y-Position und die tetraedrisch von 4 Sauerstoffionen umgebenen Z-Position ist ausschließlich mit Silicium (Si4+) besetzt.
Bei einigen natürlichen Almandin-Grossular-Mischkristallen wurde Doppelbrechung und die Ausbildung von Sektorzonierung beobachtet. Als Erklärung für diese Doppelbrechung wird eine teilweise geordnete Verteilung von Fe und Mg einerseits und Ca andererseits auf der X-Position der Granatstruktur angeführt. Dies geht einher mit einer Symmetrieerniedrigung auf die tetragonale Raumgruppe I4acd. Neuere Untersuchungen an einer großen Gruppe von Aluminiumgranaten finden keine belastbaren Hinweise auf eine Symmetrieerniedrigung und Ordnung von Kationen. Als Ursache der Doppelbrechung werden Gitterspannungen (Spannungsdoppelbrechung) genannt.
Varietäten und Modifikationen.
"Rhodolithe", allgemein auch als "orientalische Granate" bekannt, sind rosa- bis rotviolette Almandin-Varietäten, die genau genommen Almandin-Pyrop-Mischkristalle mit einem Mischungsverhältnis von Magnesium : Eisen ≈ 2 : 1 und einer Dichte von etwa 3,84 g/cm³ sind. Bekannte Vorkommen für "Rhodolith" sind unter anderem Brasilien, Indien, Kenia, Madagaskar, Mexiko, Sambia und Tansania.
Auch der "Malaya-Granat" ist ein Almandin-Pyrop-Mischkristall mit den gleichen Fundgebieten wie "Rhodolith", allerdings von eher rötlich oranger Farbe. Benannt wurde er nach dem Suaheli-Wort "malaya" für „außerhalb der Familie stehend“.
Bildung und Fundorte.
Almandin ist ein charakteristisches Mineral metamorpher Gesteine wie unter anderem Glimmerschiefer, Amphibolit, Granulit und Gneis. Ab ungefähr 450 °C bildet sich almandinreicher Granat bei der Reaktion von Chloritoid + Biotit + H2O zu Granat + Chlorit. Ab ca. 600 °C bildet sich Granat beim Abbau von Staurolith, und selbst bei beginnender Gesteinsschmelze können Granate noch neu gebildet werden, z. B. bei der Reaktion von Biotit + Sillimanit + Plagioklas + Quarz zu Granat + Kalifeldspat + Schmelze. Erst ab Temperaturen von 900 °C baut sich Granat ab zu Spinell + Quarz oder bei hohen Drucken zu Orthopyroxen + Sillimanit.
Almandinreiche Granate können sich aber auch in magmatischen Gesteinen wie Granit und Granit-Pegmatit bilden. Die Kristalle sind normalerweise im Mutter-Gestein eingebettet (Blasten) und von anderen Almandin-Kristallen getrennt. Granate mit den bisher höchsten bekannten Almandingehalten von 86,7 % (Stand: 1995) fand man bei Kayove in Ruanda, aber auch in Deutschland traten schon almandinreiche Kristalle von rund 76 % auf, so unter anderem bei Bodenmais.
Als häufige Mineralbildung ist Almandin an vielen Fundorten anzutreffen, wobei bisher (Stand: 2014) rund 2200 Fundorte als bekannt gelten. Begleitet wird Almandin unter anderem von verschiedenen Amphibolen, Chloriten, Plagioklasen und Pyroxenen sowie von Andalusit, Biotit, Cordierit, Hämatit, Kyanit, Sillimanit und Staurolith.
Neben seiner Typlokalität Alabanda trat das Mineral in der Türkei bisher nur noch in den Granat-Amphiboliten nahe Çamlıca auf der asiatischen Seite Istanbuls auf.
In Deutschland konnte Almandin an mehreren Orten im Schwarzwald (Freiburg im Breisgau, Grube Clara in Oberwolfach) in Baden-Württemberg, an vielen Orten in Bayern (Bayerischer Wald, Oberpfälzer Wald, Spessart), bei Ruhlsdorf/Eberswalde-Finow in Brandenburg, an einigen Orten im Odenwald (Erlenbach, Lindenfels), bei Bad Harzburg in Niedersachsen, bei Bad Doberan in Mecklenburg-Vorpommern, bei Perlenhardt und am Drachenfels (Königswinter) in Nordrhein-Westfalen, an vielen Orten in der Eifel in Rheinland-Pfalz, in der Grube „Gottesbelohnung“ bei Schmelz im Saarland, im Steinbruch Diethensdorf und bei Penig sowie an vielen Orten im Erzgebirge in Sachsen und an einigen Orten in Schleswig-Holstein (Barmstedt, Kiel, Schleswig, Travemünde) gefunden werden.
In Österreich fand sich das Mineral bisher vor allem in Kärnten in den Gurktaler Alpen und der Saualpe, in der Koralpe von Kärnten bis zur Steiermark und in den Niederen Tauern, aber auch an mehreren Orten in Niederösterreich (Wachau, Waldviertel), Salzburg (Hohe Tauern), im Tiroler Gurgler Tal und Zillertal sowie an einigen Fundpunkten in Oberösterreich und Vorarlberg.
In der Schweiz sind Almandinfunde bisher nur von einigen Orten in den Kantonen Tessin (Gotthardmassiv) und Wallis (Binntal) bekannt geworden.
Bekannt aufgrund außergewöhnlicher Almandinfunde sind unter anderem die Ishikawa-Pegmatite in der Präfektur Fukushima auf der japanischen Insel Honshū und Shengus am Haramosh in Pakistan, wo gut ausgebildete Almandinkristalle von bis zu 15 Zentimeter Durchmesser entdeckt wurden. Bis zu 5 Zentimeter große Kristalle fand man unter anderem in den Glimmerschiefern und Gneisen bei Fort Wrangell in Alaska und bei Bodø in Norwegen. Auch in Italien, in Südtirol, wurden Almandine von beträchtlicher Größe am Granatenkogel im Seebertal gefunden.
Weitere Fundorte liegen unter anderem in Afghanistan, Ägypten, Äthiopien, Algerien, Angola, der Antarktis, Argentinien, Australien, Belgien, Bolivien, Brasilien, Bulgarien, Burkina Faso, Chile, China, der Demokratischen Republik Kongo, Finnland, Frankreich und Französisch-Guayana, Griechenland, Grönland, Guatemala, Indien, Ireland, Israel, Kanada, Kolumbien, Korea, Madagaskar, Malawi, Mexiko, der Mongolei, Myanmar, Namibia, Nepal, Neukaledonien, Neuseeland, Norwegen, Polen, Portugal, Rumänien, Russland, Saudi-Arabien, Schweden, Simbabwe, der Slowakei, Slowenien, Spanien, Sri Lanka, Südafrika, Taiwan, Tadschikistan, Thailand, Tschechien, der Ukraine, Ungarn, Usbekistan, im Vereinigten Königreich (UK) und den Vereinigten Staaten von Amerika (USA).
Auch in Gesteinsproben vom Mond konnte Almandin nachgewiesen werden.
Verwendung.
Almandin wird wie die meisten anderen Minerale der Granatfamilie vor allem als Schmuckstein verwendet, die je nach Reinheit und Klarheit in Facettenform oder zu Cabochons geschliffen werden. Weniger edle, das heißt zu dunkle und undurchsichtige Varietäten, werden auch als Schleifmittel genutzt.
Verwechslungsgefahr besteht vor allem mit den verschiedenen Granatvarietäten aufgrund der überwiegenden Mischkristallbildung zwischen den einzelnen Endgliedern. Daneben kann Almandin aber auch mit Rubin, Spinell und roten Turmalinen verwechselt werden. Aufgrund der schwierigen Unterscheidung werden die verschiedenen Granatnamen im Edelsteinhandel inzwischen häufig als Farbbezeichnung genutzt, wobei Almandin und Rhodolith die rosa bis violetten Granate vertreten.
Der bisher größte bekannte und geschliffene Almandin-Edelstein ist ein Cabochon von 175 ct, der in der Smithsonian Institution in Washington, D.C aufbewahrt wird. |
443 | 218899617 | https://de.wikipedia.org/wiki?curid=443 | Aktiva | Unter Aktiva (Singular "Aktivum," von ) versteht man die Summe des einem Unternehmen zur Verfügung stehenden Vermögens, das auf der linken Seite einer Bilanz zu finden ist. Sie zeigen, für welche Vermögensgegenstände die Kapitalquellen eines Unternehmens verwendet wurden. Diese Kapitalquellen sind auf der rechten Seite der Bilanz gelistet und bilden die Passiva.
Allgemeines.
Die Aktivseite der Bilanz zeigt mithin die Verwendung der finanziellen Mittel bzw. den Besitz des Wirtschaftssubjektes, während die rechte Seite der Bilanz (Passivseite) die Mittelherkunft anzeigt.<ref name="Wöhe/Kußmaul S.5">Günter Wöhe / Heinz Kußmaul, "Grundzüge der Buchführung und Bilanztechnik." 8. Auflage, München 2012, Seite 5.</ref> Von Aktivierung spricht man, wenn ein Bilanzposten auf der Aktivseite verbucht wird. Dabei ist zu unterscheiden, ob die Aktiva einer Aktivierungspflicht, einem Aktivierungswahlrecht oder einem Aktivierungsverbot unterliegen.
Die Buchhaltung führt die Endbestände der Aktiv- und Passivkonten zusammen, die Gegenüberstellung der Aktiva mit den Passiva zu einer kontenmäßigen Einheit heißt Bilanz. Hierin sind die Summen der Aktiva und der Passiva (Bilanzsumme) formal identisch, dies ist ein wesentliches Merkmal der Bilanz. Der so gefasste Bilanzbegriff unterscheidet sich vom Kontobegriff nur darin, dass man beim Konto von Soll und Haben spricht.
Die drei Bilanzprinzipien der Bilanzwahrheit, Bilanzklarheit und Bilanzkontinuität gelten sowohl für Aktiv- als auch Passivseite. Aus Gründen des Vorsichtsprinzips und des damit einhergehenden Gläubigerschutzes können bestimmte Teile der Aktiva (insbesondere Anlagevermögen, Roh-, Hilfs- und Betriebsstoffe und Forderungen) im Rahmen des Niederstwertprinzips unterbewertet werden, Passiva können hingegen überbewertet werden. Unterbewertung bedeutet, dass den Vermögensgegenständen im Rahmen des Niederstwertprinzips und der vernünftigen kaufmännischen Beurteilung ein niedrigerer Bilanzwert beigemessen werden darf als es dem tatsächlichen Zeitwert entspricht. Hiermit soll den Vermögensrisiken angemessen Rechnung getragen werden, die in der Gefahr eines ganzen oder teilweisen Wertverlustes einzelner Vermögensgegenstände bestehen.
Unterteilung der Aktiva.
Der Begriff Aktivseite ist ein bestimmter Rechtsbegriff, der im Gliederungsschema des Abs. 2 HGB erwähnt wird. Danach besteht die Aktivseite auf der ersten Gliederungsebene abschließend aus Anlagevermögen, Umlaufvermögen, aktiven Rechnungsabgrenzungsposten, aktiven latenten Steuern und dem aktiven Unterschiedsbetrag aus der Vermögensverrechnung. Bei den Vermögensgegenständen unterscheidet man zwischen materiellem und immateriellem Anlagevermögen. Die Verbindlichkeit dieser Gliederungspunkte und der festgelegten weiteren Unterteilung letzterer richtet sich gemäß § 266 Abs. 1 und 2, und HGB nach bestimmten Kriterien, wie z. B. der Rechtsform oder der Größenklasse des bilanzierenden Unternehmens.
Anlagevermögen.
Im Anlagevermögen sind gemäß Abs. 2 HGB nur die Gegenstände auszuweisen, die bestimmt sind, dauernd dem Geschäftsbetrieb zu dienen. Das Anlagevermögen beinhaltet somit die mittel- und langfristig gebundenen Mittel des Unternehmens. Ebenfalls zum Anlagevermögen gerechnet werden Finanzanlagen mit dauerhaftem Charakter, beispielsweise langfristige Anleihen und Beteiligungen, Ausleihungen oder Anteile an anderen Unternehmen.<ref name="Bieg/Kußmaul/Waschbusch S.117">Hartmut Bieg/Heinz Kußmaul/Gerd Waschbusch, "Externes Rechnungswesen." 6. Auflage, München 2012, S. 117.</ref>
Weiterhin umfasst das Anlagevermögen auch immaterielle Vermögensgegenstände. Es handelt sich um solche Vermögensgegenstände, die nicht körperlich fassbar sind. Hierzu zählen entgeltlich erworbene immaterielle Vermögensgegenstände, wie Lizenzen, gewerbliche Schutzrechte und Konzessionen. So zählt in der Medienindustrie das immaterielle Vermögen zu den wichtigsten Elementen der Bilanz, werden hier doch die zukünftig zu erwartenden Erträge aus Film- oder Musikrechten kapitalisiert und aufgeführt. Auch immaterielle Vermögensgegenstände, die nicht entgeltlich erworben wurden, sind dem Anlagevermögen zuzuordnen. Allerdings besteht handelsrechtlich unter den Voraussetzungen des Abs. 2 HGB lediglich ein Aktivierungswahlrecht für solche selbst geschaffenen immateriellen Vermögensgegenstände; steuerlich besteht gemäß Abs. 2 EStG sogar ein Aktivierungsverbot.
Umlaufvermögen.
Das Umlaufvermögen umfasst diejenigen Vermögensgegenstände, die das Unternehmen zur kurzfristigen Verwendung besitzt. Dazu zählen beispielsweise die Kassenbestände, Bankguthaben sowie kurzfristig verfügbare Finanzanlagen. Daneben bilden zum Beispiel auch für die Produktion notwendige Rohstoffe und Vorprodukte sowie kurzfristig verkaufbare Lagerbestände an Fertigprodukten Teile des Umlaufvermögens.
Rechnungsabgrenzungsposten.
Rechnungsabgrenzungsposten dienen dazu, Aufwendungen und Erträge der Periode zuzuordnen, welcher sie wirtschaftlich zugerechnet werden müssen. Als Rechnungsabgrenzungsposten auf der Aktivseite der Bilanz – auch aktive Rechnungsabgrenzungsposten genannt – sind nach Abs. 1 HGB Ausgaben auszuweisen, die vor dem Bilanzstichtag getätigt wurden, aber erst später einen Aufwand darstellen. Hierzu zählen z. B. im Voraus bezahlte Mieten, die im laufenden Geschäftsjahr gezahlt wurden aber erst im nächsten Geschäftsjahr fällig wären und auch erst dann einen Aufwand darstellen.
Aktive latente Steuern.
Differenzen zwischen handelsrechtlichen und steuerrechtlichen Wertansätzen, die zu einer Steuerentlastung führen und sich in späteren Perioden voraussichtlich auflösen, können gemäß Abs. 1 Satz 2 HGB als aktive latente Steuern aktiviert werden.
Aktiver Unterschiedsbetrag aus der Vermögensverrechnung.
Als aktiver Unterschiedsbetrag aus der Vermögensverrechnung ist der beizulegende Zeitwert von Vermögensgegenständen abzüglich der entsprechenden Schulden anzusetzen, sofern eine Verrechnung von Vermögensgegenständen und Schulden im Sinne des Abs. 2 Satz 2 HGB erfolgt und das Ergebnis hieraus positiv ist.
Weitere Posten.
Unter bestimmten Umständen kann oder muss die Aktivseite um weitere Posten ergänzt werden. Gemäß Abs. 5 HGB können weitere Posten hinzugefügt werden, wenn deren Inhalt nicht von einem anderen, vorgeschriebenen Posten gedeckt ist.<ref name="Bieg/Kußmaul/Waschbusch S.123f.">Hartmut Bieg, Heinz Kußmaul, Gerd Waschbusch: "Externes Rechnungswesen." 6. Auflage, München 2012, S. 123 f.</ref> Die Gliederung und Bezeichnung der Posten müssen nach Abs. 6 HGB geändert werden, wenn dies wegen Besonderheiten des Unternehmens zur Aufstellung eines klaren und übersichtlichen Jahresabschlusses notwendig ist. Des Weiteren besteht die Möglichkeit, Bilanzposten unter den Voraussetzungen des Abs. 7 und 8 HGB zusammenzufassen oder ganz wegzulassen.
Aufwendungen für die Ingangsetzung und Erweiterung des Geschäftsbetriebs, können nach § 67 Abs. 5 Satz 1 EGHGB auch nach dem Bilanzrechtsmodernisierungsgesetz (BilMoG) als Bilanzierungshilfe auf der Aktivseite vor dem Anlagevermögen ausgewiesen werden, wenn diese Bilanzierungshilfe für ein Geschäftsjahr, das vor 2010 begonnen hat, gebildet wurde.
Bilanzanalyse.
Im Rahmen der Vermögensanalyse interessiert sich die Bilanzanalyse für die Zusammensetzung der Aktiva, deren Verhältnis zu anderen Bilanzpositionen und ermittelt betriebswirtschaftliche Kennzahlen, die sich mit der vertikalen Vermögensstruktur der Aktivseite, dem Verhältnis einzelner Aktivpositionen zu den entsprechenden Passivpositionen sowie dem Verhältnis zu den Erträgen befassen.<ref name="Coenenberg/Haller/Mattner/Schultze S.582">Adolf G. Coenenberg, Axel Haller, Gerhard Mattner, Wolfgang Schultze: "Einführung in das Rechnungswesen." 4. Auflage, Stuttgart 2012, S. 582.</ref> Hierzu gehört insbesondere die Anlagenintensität, die Teile des Gesamtvermögens mit dem Gesamtvermögen in Beziehung setzt. Die horizontale Kapitalstruktur befasst sich mit dem Verhältnis von Aktiv- zu Passivseite einer Bilanz im Rahmen der Anlagendeckung. Die Sachanlagen- und Forderungsbindung ermöglicht Aussagen über das Verhältnis der Sachanlagen bzw. des Forderungsbestands zu den Umsatzerlösen.
Die Aktiva alleine geben wenig Aufschluss über die Liquidität und Ertragsfähigkeit, da nur der Zusammenhang zwischen Kapitalverwendung und Kapitalaufbringung Rückschlüsse auf die Entwicklungen und Zukunftsaussichten des Unternehmens zulässt.<ref name="Coenenberg/Haller/Mattner/Schultze S.572ff.">Adolf G. Coenenberg, Axel Haller, Gerhard Mattner, Wolfgang Schultze: "Einführung in das Rechnungswesen." 4. Auflage, Stuttgart 2012, S. 572 ff.</ref> Insbesondere gilt als goldene Regel zur Beurteilung der Finanzierung des Anlagevermögens, dass langfristige Investitionen nicht mit kurzfristigem Fremdkapital finanziert werden dürfen.<ref name="Coenenberg/Haller/Mattner/Schultze S.586">Adolf G. Coenenberg, Axel Haller, Gerhard Mattner, Wolfgang Schultze: "Einführung in das Rechnungswesen." 4. Auflage, Stuttgart 2012, S. 586.</ref> Damit soll vermieden werden, dass die Pflicht zur Rückzahlung des Fremdkapitals bereits vor einer erfolgreichen Nutzung der erworbenen Vermögensgegenstände besteht.
Insbesondere die immateriellen Vermögensgegenstände (IV) sollten detailliert betrachtet werden. Der nicht direkt messbare Wert dieses Vermögens lässt sich nur mit eindeutigen Regeln bilanzieren.<ref name="Bieg/Kußmaul/Waschbusch S.107">Hartmut Bieg, Heinz Kußmaul, Gerd Waschbusch: "Externes Rechnungswesen." 6. Auflage, München 2012, S. 107.</ref> Die Regeln sollen klar formuliert, nachvollziehbar sein sowie die Umsetzung des Niederstwertprinzips im Sinne von Abs. 3 und 4 HGB bezwecken.
Volkswirtschaftliche Gesamtrechnung.
Die volkswirtschaftlichen Gesamtrechnungen „vermitteln ein umfassendes quantitatives Gesamtbild des wirtschaftlichen Geschehens“. Hierbei werden innerhalb der Vermögensrechnung sogenannte Vermögensbilanzen erstellt, deren Aktivseite aus Sach- und Geldvermögen besteht. |
444 | 568 | https://de.wikipedia.org/wiki?curid=444 | Alexander Graham Bell | Alexander Graham Bell (* 3. März 1847 in Edinburgh, Schottland; † 2. August 1922 in Baddeck, Kanada) war ein britischer, später US-amerikanischer Audiologe, Erfinder, Großunternehmer und Eugeniker. Es gelang ihm 1876, aufbauend auf Ideen seiner Vorgänger, das Telefon zur Marktreife zu entwickeln und ein flächendeckendes Telefonnetz in Nordamerika aufzubauen, das von seinem Unternehmen American Telephone and Telegraphy Company monopolartig beherrscht wurde.
Leben und Werk.
Bell als Sprachtherapeut und Gehörlosenlehrer.
Bereits Bells Großvater Alexander und sein Vater Alexander Melville Bell beschäftigten sich mit Sprechtechnik, wobei Letzterer als Professor der Rede- und Vortragskunst das erste universale phonetische Schriftsystem bzw. eine Lautschrift oder phonetisches Alphabet entwickelte, das er "Visible Speech" nannte, weil damit die Laute abgebildet würden.
Bells Mutter Eliza Symonds Bell war stark schwerhörig, Bell konnte sich jedoch mit ihr mit besonders tiefer Stimme unterhalten. Außerdem konnte sie die Schwingungen seiner Klaviermusik spüren. Das sowie die familiär vorgeprägte berufliche Laufbahn machten Bell später zu einem der engagiertesten Befürworter des lautsprachlich orientierten Erziehungsprinzips für Gehörlose im Gegensatz zu gebärdensprachlich orientierten Methoden.
Alexander, der aus Bewunderung für einen Freund der Familie noch als Kind den zweiten Vornamen „Graham“ annahm, wurde wie seine beiden Brüder zunächst von der Mutter unterrichtet. Ab dem 10. Lebensjahr besuchte er eine Privatschule in Edinburgh und ab dem 14. Lebensjahr eine Schule in London. Er studierte in Edinburgh Latein und Griechisch.
Mit 17 Jahren wurde er Lehrer an der Weston House Academy für Sprechtechnik und Musik in Elgin, Schottland. Während dieser Zeit begann er mit ersten selbstständigen Forschungsarbeiten auf dem Gebiet der Akustik. Dabei lernte er auch den deutschen Physiker und Physiologen Hermann von Helmholtz kennen, der mit seinem 1863 erschienenen Werk „Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik“ den jungen Bell wesentlich beeinflusste.
Schließlich folgte er seinem Vater nach London, wo dieser am University College als Dozent für Sprechtechnik tätig war und seinen Sohn als Assistenten einstellte. Bell studierte bis 1870 Anatomie und Physiologie der menschlichen Stimme. 1868 gab er an Susanna Hulls Schule in London Sprechunterricht für gehörlose Kinder.
Nachdem Alexanders Brüder Edward (1868) und Melville (1870) beide an Tuberkulose gestorben waren, siedelten Alexander und seine Eltern 1870 wegen des besseren Klimas nach Kanada über, wo der Vater Dozent für Philologie am Queen’s College, Kingston, Ontario wurde.
1871 ging er als Gehörlosenlehrer an die in Northampton (Massachusetts) eingerichtete spätere „Clarke School“. Ein Luftballon, den sich jedes dieser Kinder ans Ohr hielt, konnte die Schwingungen in der Stimme aufnehmen. Bell blieb danach für den Rest seines Lebens Mitglied des Aufsichtsrats der Schule und wurde in den letzten fünf Lebensjahren auch dessen Vorsitzender. Zur gleichen Zeit unterrichtete er auch neben Edward Miner Gallaudet am American Asylum for the Deaf in Hartford (Connecticut).
Von 1873 bis 1877 war Bell Professor für Sprechtechnik und Physiologie der Stimme an der Universität Boston.
1877 heiratete er die gehörlose Tochter Mabel seines Geschäftspartners Hubbard, die er als Gehörlosenlehrer (damals „Taubstummenlehrer“) an der Clarke-Schule kennengelernt hatte. Mit ihr hatte er zwei Töchter, Elsie May und Marian (Daisy) Bell, sowie die Söhne Edward und Robert, die beide im Kindesalter starben.
1890 war er Mitbegründer der "American Association to Promote the Teaching of Speech to the Deaf (AAPTSD)" (heute Alexander Graham Bell Association for the Deaf and Hard of Hearing), deren erster Präsident er wurde.
Bell und die Erfindung des Telefons.
Die historisch nachhaltigste Wirkung erzielte Bell 1876 mit der Weiterentwicklung des Telefons zu einem gebrauchsfähigen System und dessen nachfolgender großindustrieller Vermarktung; die Bell Telephone Company, die sich später zum weltweit größten Telekommunikationskonzern AT&T entwickelte, erlangte dabei eine marktbeherrschende Stellung.
Um 1873 versuchte Bell, einen „harmonischen Telegraphen“ zu entwickeln, der durch Benutzung mehrerer isolierter musikalischer Tonlagen mehrere Nachrichten gleichzeitig senden können sollte, betrieb das jedoch mit wenig Engagement. 1874 führt Bell akustische Experimente zur Aufzeichnung von Schallwellen durch. Er konstruierte damit den „Phonautographen“, ein Gerät, das die Vibrationen des Schalls auf einem berußten Zylinder aufzeichnete.
Antonio Meucci.
Bereits in den 1830er Jahren hatte der italienische Wissenschaftler und Erfinder Antonio Meucci die Entdeckung gemacht, dass Schall durch elektrische Schwingungen in Kupferdraht übertragen werden kann. Nach seiner Übersiedlung in die USA 1850 entwickelte er ein Telefon, mit dem er das Krankenzimmer seiner Ehefrau mit seiner Werkstatt verband. In den nächsten zehn Jahren vervollkommnete er seine Erfindung und präsentierte sie ab 1860 öffentlich. In der italienischsprachigen Presse wurde darüber berichtet, nicht aber in angelsächsischen Medien. 1871 beantragte Meucci für sein „Telettrofono“ schließlich ein Patent, das über zwei Jahre lang nicht erteilt wurde, so dass der Antrag erlosch. Später wurde verbreitet, Meucci hätte nicht die nötigen Mittel für die Patentgebühren gehabt. Diese Darstellung wird allerdings von Kritikern angezweifelt, da er in derselben Zeit (1872–1876) vier andere Patente, beispielsweise für ein Hygrometer erteilt bekam.
Meucci reichte seine Unterlagen und Geräte bei Edward B. Grant ein, dem Vizepräsidenten der American District Telegraph Co., um seine Erfindung an deren Telegraphenkabel testen zu lassen, wurde aber mehr als zwei Jahre lang hingehalten. In der Zwischenzeit nutzte Bell, der jetzt in den ehemaligen Werkstätten Meuccis bei der American District Telegraph Co. arbeitete, dessen Materialien und Unterlagen für die Weiterentwicklung seines Telefons. Als Meucci 1874 diese Gerätschaften und Unterlagen von Grant zurückforderte, wurde ihm mitgeteilt, man habe sie verloren. Meucci, der des Englischen nicht mächtig war, beauftragte einen Anwalt, gegen Bell vorzugehen, was allerdings nie geschah. Trotz jahrzehntelanger Streitigkeiten gelang es Antonio Meucci nicht, das Patent oder wenigstens eine finanzielle Entschädigung von Bell zu erhalten. Er starb als verarmter Mann. Am 11. Juni 2002 würdigte das Repräsentantenhaus der Vereinigten Staaten in einer Resolution Antonio Meuccis Leistungen und seinen Beitrag zur Erfindung des Telefons.
Philipp Reis.
Von 1858 bis 1863 hatte Philipp Reis ebenfalls ein funktionierendes Gerät zur Übertragung von Tönen über elektrische Leitungen entwickelt und seiner Erfindung den Namen „Telephon“ gegeben. Am 26. Oktober 1861 führte er den Fernsprecher zahlreichen Mitgliedern des Physikalischen Vereins in Frankfurt vor. Reis nahm den Morse-Telegraphen als Vorbild, der mit Unterbrechung des Stromkreislaufs arbeitet. Damit konnte er Musiknoten an einen Empfänger schicken; für Sprache war das Gerät (noch) nicht geeignet. Danach verbesserte Reis den Apparat bis 1863 wesentlich und verkaufte ihn in größerer Stückzahl als wissenschaftliches Demonstrationsobjekt. So kamen auch Exemplare ins Ausland.
Bell lernte ein frühes Modell des Reis’schen Telefonapparates bereits 1862 in Edinburgh kennen. Sein Vater versprach ihm und seinen Brüdern einen Preis, wenn sie diese "Sprechmaschine" weiterentwickeln würden. 1865 konnte der britisch-amerikanische Erfinder David Edward Hughes in England gute Resultate mit dem deutschen „Telephon“ erzielen. Ab 1868 wurde in den USA mit der deutschen Erfindung gearbeitet. Als Bell im März 1875 an der amerikanischen Forschungs- und Bildungseinrichtung Smithsonian Institution mit dem Reis’schen Telefonapparat experimentierte, war die Erfindung in Fachkreisen bereits gut bekannt und Reis seit über einem Jahr verstorben. Bell konnte aber von der für ihn wichtigen Grundlagenforschung des Deutschen profitieren.
Patentstreit mit Gray.
Der Direktor der „Clarke School for the Deaf“, der prominente Bostoner Rechtsanwalt Gardiner Greene Hubbard, und der wohlhabende Geschäftsmann Thomas Sanders aus Salem erfuhren von Bells Experimenten und bewogen ihn, die Entwicklung des „Harmonischen Telegraphen“ voranzutreiben. Die drei unterzeichneten eine Vereinbarung, nach der Bell finanzielle Unterstützung erhielt im Gegenzug für eine spätere Beteiligung von Hubbard und Sanders an den Erträgen. Hubbards gehörlose Tochter Mabel wurde als Druckmittel eingesetzt: Bell durfte sie erst heiraten, nachdem er seine Erfindung fertiggestellt hatte, zwei Tage nach Gründung der Bell Telephone Company.
Obwohl Bell bei seinen Versuchen zufällig entdeckt haben soll, dass statt der erwarteten Telegraphenimpulse auch Tonfolgen übertragen werden konnten, gelang es ihm nicht, diese Entdeckung zu wiederholen. Gleichwohl meinte er, das Prinzip für die Übertragung von Tönen für einen Patentantrag beschreiben zu können. Zugute kam ihm dabei, dass das Patentamt einige Jahre zuvor die Anforderung hatte fallen lassen, mit dem Patentantrag ein funktionierendes Modell einzureichen. Am 14. Februar 1876 reichte Gardiner Greene Hubbard als Bells Anwalt den Patentantrag ein, nur zwei Stunden bevor der Lehrer, Erfinder und Unternehmer Elisha Gray das Gleiche tun konnte. Der wesentliche Unterschied zwischen beiden Fernsprechern war, dass Grays Erfindung im Gegensatz zu der von Bell funktionierte. Während Bell in seinem Antrag sehr vage blieb, beschrieb Gray sein Telefon bis in die Einzelheiten. Bells Eile war nicht unbegründet, wusste er doch von mehreren Erfindern, die auch an Telefonen arbeiteten.
Der von Hubbard eingereichte Antrag löste den größten Patentstreit der Geschichte aus. Bell verwendete bei der späteren praktischen Ausführung seines Telefons u. a. einen regelbaren Widerstand in Form eines Drahts, der in eine Schwefelsäurelösung getaucht war. Dieser Widerstand war in seiner Patentschrift nicht aufgeführt und Bell soll ihn nie zuvor erprobt haben. Elisha Grays Antrag hingegen enthielt einen solchen Widerstand. Besonders, nachdem Bells Patent am 7. März 1876 erteilt worden war, wurden die Stimmen lauter, die eine illegale Verbindung zwischen Bell und dem Patentamt sahen. Ein Beamter beschuldigte sich selbst der Bestechung, doch wurde seine wankelmütige Aussage in der internationalen Fachpresse bezweifelt.
Weiterentwicklung.
Das von Bells sachkundigem Mechaniker Thomas A. Watson gebaute erste funktionierende Telefon sah den Berichten zufolge merkwürdig aus. Die im Patentstreit umstrittene säuregefüllte Metalldose war mit einer Scheibe bedeckt, die einen Draht hielt, der in die Säure getaucht war. Außen an der Metalldose befand sich ein anderer Draht, der zum Empfängertelefon führt. Das Hineinbrüllen in einen senkrecht darüber angeordneten Trichter brachte Scheibe und Draht zum Schwingen. Durch diese Schwingungen veränderten sich der Abstand und damit auch der Stromfluss durch Draht und Säure zum Empfängertelefon. Dort wurden die Schwankungen des Stromes wieder in gleichartige Membranvibrationen umgesetzt, die dann Töne produzierten. Am 10. März 1876 soll der erste deutlich verständliche Satz übertragen worden sein: „Watson, come here. I need you.“ (Watson, kommen Sie her, ich brauche Sie). Bell soll sich aus Versehen Säure über die Kleidung geschüttet und nach Watson gerufen haben.
Dieses Telefon war nicht sonderlich gebrauchstauglich, doch Bell verbesserte es, da er im Gegensatz zu der Reis’schen Schallübertragungsmethode, die auf der Schwingung einer Membran beruhte, nun die elektromagnetische Induktion benutzte, welche der englische Physiker und Chemiker Michael Faraday entdeckt hatte. Bell verwendete jetzt sowohl für den Lautsprecher als auch für das Mikrofon elektromagnetische Spulen, Dauermagnete und den bereits erwähnten Widerstand. 1877 wurde dann ein neuartiger Schallwandler verbaut, der den druckabhängigen Übergangswiderstand zwischen der Membran und einem Kohlegranulat zur Signalgewinnung nutzte. Als Erfinder dieses Kohlemikrofons, das auf dem von Philipp Reis erfundenen Kontaktmikrofon aufbaut, gelten sowohl der britisch-amerikanische Konstrukteur und Erfinder David Edward Hughes, der 1865 mit einem importierten Telefon des Deutschen experimentiert hatte, als auch der deutsch-amerikanische Erfinder Emil Berliner 1877 während seiner Tätigkeit bei den Bell Labs. Dennoch dauerte es noch bis 1881, bis das Bell-Telefon praktisch einsatzfähig war.
Bell als Unternehmer.
Im Juli 1877 gründete Bell zusammen mit Thomas Sanders und Gardiner Greene Hubbard unter Beteiligung seines Assistenten Thomas Watson die Bell Telephone Company. Nicht ganz überraschend war der Bedarf an Telefonapparaten zunächst gering und Bell und seine Partner hatten so große Absatzschwierigkeiten, dass sie schließlich ihre Patente der mächtigen Western Union Telegrafengesellschaft – Elisha Grays Arbeitgebern – für 100.000 $ zum Kauf anboten. Die Western Union lehnte ab, was sich als schwere Fehlentscheidung herausstellen sollte.
Dennoch sahen Amerikas Telegraphengesellschaften voraus, dass Bells Telefon eine Bedrohung für ihr Geschäft darstellte, und versuchten, dem gegenzusteuern. Die Western Union Company ließ Thomas Alva Edison ein eigenes Telefon mit anderer Technik entwickeln. Bell verklagte daraufhin Western Union wegen der Verletzung seiner Patentrechte. Diese berief sich darauf, dass eigentlich Elisha Gray das Telefon erfunden habe, verlor jedoch diesen und zahlreiche weitere Prozesse.
Auch Emil Berliner hatte Ärger mit dem Patentamt und Thomas Edison, für dessen Phonographen er ganz neue Vorstellungen eingereicht hatte. Berliner hatte auch ein Mikrofon entwickelt, das er 1877 für 50.000 Dollar an die „Bell Telephone Company“ verkaufte. Er zog nach Boston und arbeitete für Bell Telephone bis 1883.
Im März 1879 fusionierte die Bell Telephone Company mit der New England Telephone Company zur National Bell Telephone Company, deren Präsident William H. Forbes, Schwiegersohn von Ralph Waldo Emerson, wurde. Im April 1880 erfolgte eine weitere Fusion mit der American Speaking Telephone Company zur American Bell Telephone Company.
1885 wurde die American Telephone and Telegraph Company (AT&T) in New York als Tochterunternehmen von Graham Bell gegründet, um die Fernverbindungslinien quer durch die USA für das Bell’sche System zu erobern. Theodore Vail wurde der erste Präsident der Gesellschaft.
1889 wurden sämtliche Geschäftsaktivitäten der American Bell Telephone Company zur American Telephone and Telegraph Company transferiert, da Gesetze in Massachusetts das aggressive Wachstum verhindert hätten. Diese markiert den Anfang der heutigen Gesellschaft AT&T.
1925 wurden die Bell Telephone Laboratories aufgebaut, um die Forschungslaboratorien der AT&T und der Western Electric Company zusammenzufassen.
Weitere Erfindungen.
Für seine Erfindung verlieh Frankreich Bell 1880 den Volta-Preis im Wert von 50.000 Franc. Mit diesem Geld gründete er das Volta Laboratory in Washington D.C., wo er im gleichen Jahr mit seinem Assistenten, Charles Sumner Tainter, und seinem Cousin Chichester Alexander Bell das Photophon entwickelte, welches Licht als Mittel der Projektion der Informationen verwendete, während das Telefon auf Strom angewiesen war. Im Jahr 1881 konnten sie erfolgreich eine Nachricht über das Photophon 200 Meter von einem Gebäude zum anderen versenden. Bell sah das Photophon als „die größte Erfindung, die ich je gemacht habe“.
Im Jahr 1886 erfanden Bell und seine Mitarbeiter im Volta Laboratory die erste Phonographenwalze, die Schallwellen auf Wachs aufzeichnen konnte. Diese Neuerung ging einher mit der Weiterentwicklung des von Thomas Alva Edison erfundenen Phonographen, hin zum Graphophon. Im gleichen Zeitraum experimentierten die drei Mitglieder der Volta Laboratory Association mit einer flachen Wachsscheibe in senkrechter Position und nahmen somit die Idee einer Schallplatte vorweg. Die dabei verwendete Funktionsweise ähnelte der später vom Emil Berliner bei seinem Grammophon zum Tragen kommende horizontale Anordnung der verwendeten Tonträger. Nach Gründung der Volta Graphophone Company, deren Aufgabe darin bestand, die Patente der Mitglieder der Volta Laboratory Association zu vermarkten, erfolgte die Veräußerung dieser an die American Graphophone Company mittels Verschmelzung beider Unternehmen.
Daneben betrieb Bell eine Vielzahl anderer wissenschaftlicher Experimente, unter anderem zu Drachen mit tetraedrischen Strukturen, Mehrlingsgeburten in der Schafzucht sowie Entsalzung von Meerwasser. Das Attentat auf Präsident Garfield 1881 brachte Bell auf die Idee einer Induktionswaage zur Lokalisierung von Metallgegenständen im menschlichen Körper. 1881 starb Bells neugeborener Sohn Edward an einer Erkrankung der Atemwege. Bell reagierte auf diese Tragödie durch die Erfindung einer Metall-Vakuum-Jacke, die das Atmen erleichtern sollte. Dieser Apparat war ein Vorläufer der Eisernen Lunge, die in den 1950er Jahren Anwendung fand. Immer wieder beschäftigte er sich auch mit der Taubheit und entwickelte das Audiometer zum Messen der Gehörleistung.
In seiner Jugend inspiriert in Edinburgh von dem von Charles Wheatstone nachgebauten Sprechapparat des Ungarn Wolfgang von Kempelen, baute Bell mit Hilfe seines Bruder einen eigenen Sprechapparat, wobei er mit Guttapercha den Vokaltrakt im Abguss eines menschenlichen Schädels modellierte.
1907 – vier Jahre nach dem ersten Flug der Brüder Wright in Kitty Hawk – gründete Bell mit Glenn Curtiss, William „Casey“ Baldwin, Thomas Selfridge, und J.A.D. McCurdy die Aerial Experiment Association zum Bau von Flugzeugen. Bis 1909 bauten sie vier Prototypen, deren erfolgreichster, „Silver Dart“, am 23. Februar in Kanada der erste Flug gelang. Er wurde von einem zugefrorenen See in Baddeck, Nova Scotia, gestartet, wo Bell ein Haus besaß.
Bell beschäftigte sich auch intensiv mit der Konstruktion von Tragflügelbooten. Mit seinem Geschäftspartner und Freund Casey Baldwin baute er das Boot Hydrodrome IV, das 1919 mit 70,86 Meilen pro Stunde (114,04 km/h) einen absoluten Geschwindigkeitsweltrekord auf dem Wasser erzielte.
Bis zu seinem Tode 1922 beschäftigte sich Bell vor allem mit weiteren Entwicklungen und Erfindungen auf zahlreichen technischen Gebieten sowie mit eugenischen Untersuchungen zur Taubheit.
Eugenik.
Bell erforschte zwischen 1882 und 1892 das gehäufte Auftreten von Gehörlosigkeit auf der Insel Martha’s Vineyard nahe Boston und vermutete zu Recht Vererbung als Ursache. Die genauen Zusammenhänge konnte er jedoch nicht erklären; ihn irritierte, dass nicht jedes Kind von Eltern mit entsprechenden Erbanlagen gehörlos wurde. Ihm fehlte die Kenntnis der Mendelschen Gesetze, die Gregor Mendel schon 1865 formuliert hatte, die aber bis zum Jahr 1900 der Öffentlichkeit weitgehend unbekannt blieben. Dennoch empfahl Bell in der Monographie "Memoir upon the Formation of a Deaf Variety of the Human Race" ein Eheverbot unter Tauben, warnte vor Internaten an den Gehörlosen-Schulen als möglichen „Brutstätten“ einer „tauben Menschenrasse“ und empfahl die eugenische Kontrolle von US-Immigranten. Spätere Arbeiten von „Rassenhygienikern“ stützten sich bis weit in das 20. Jahrhundert ungeprüft auf Bells Angaben. Als Folge wurden zahlreiche gehörlose Menschen ohne ihr Wissen und Einverständnis sterilisiert. Dabei soll Bell durchaus die methodischen Schwächen seiner Untersuchungen gekannt haben.
1921 war Bell Ehrenpräsident des zweiten internationalen Eugenikkongresses unter der Schirmherrschaft des American Museum of Natural History in New York. Er arbeitete mit diesen Organisationen mit dem Ziel zusammen, Gesetze zur Verhinderung der Ausweitung von „defekten Rassen“ einzuführen.
George Veditz, Präsident der National Association of the Deaf, nannte Bell 1907 „den Feind, den die tauben Amerikaner am meisten zu fürchten haben“. Bell haftet damit der Ruf an, die Entwicklung der Gemeinschaft der gehörlosen Menschen und der Gebärdensprache massiv behindert zu haben, mit Auswirkungen, die noch heute in vielen Ländern spürbar sind. |
445 | 1684142 | https://de.wikipedia.org/wiki?curid=445 | Abu Nidal | Abu Nidal (), eigentlicher Name Sabri Chalil al-Banna (; * Mai 1937 in Jaffa; † 16. August 2002 in Bagdad), war ein palästinensischer Terrorist. 1974 gründete er die nach ihm benannte Abu-Nidal-Organisation, eine Abspaltung der PLO. Diese führte über 100 Anschläge in mehr als 20 Ländern aus.
Frühe Jahre.
Abu Nidal wurde im Mai 1937 am Hafen von Jaffa an der Küste Palästinas geboren, das damals unter britischer Herrschaft stand. Sein Vater Chalil war ein reicher Geschäftsmann, der sein Geld mit Orangenplantagen machte und seine elf Kinder in einem fünfstöckigen Haus am Strand großzog (heute in Verwendung als israelisches Militärgericht). Chalil verliebte sich in eines seiner Stubenmädchen, eine erst 16-jährige Alawitin und nahm sie entgegen dem Wunsch seiner Familie zu seiner Frau. Sie bekam sein zwölftes Kind, Sabri Chalil al-Banna. Verschiedenen Quellen zufolge war sie seine zweite oder achte Frau.
Verachtet von seinen älteren Halbgeschwistern verlief seine Kindheit sehr unglücklich. Der Vater starb 1945, als Abu Nidal sieben war, woraufhin seine Familie seine ungeliebte Mutter aus dem Haus warf. Obwohl er gemeinsam mit seinen Geschwistern leben durfte, wurde seine Erziehung vernachlässigt. Er entwickelte sich zum Frauenverachter, zwang später seine eigene Frau in die Isolation und verbot auch den Frauen seiner Anhänger jegliche Freundschaften untereinander.
Als der Palästinakrieg zwischen Arabern und Juden ausbrach, verlor seine Familie die Orangenplantagen, da Jaffa im Kriegsgebiet lag. Sie flohen ins Flüchtlingslager Al-Burj nach Gaza, wo sie ein Jahr in Zelten lebten. Danach gingen sie nach Nablus und dann nach Jordanien.
Abu Nidal verbrachte seine Teenagerjahre in Nablus in diversen Jobs. Mit 18 trat er der Baath-Partei bei, die jedoch 1957 verboten wurde. Als Drahtzieher eines fehlgeschlagenen Attentats auf König Hussein floh er nach Saudi-Arabien, wo er sich als Elektriker und Anstreicher niederließ und auch zeitweise im Labor für Aramco arbeitete.
Politisches Leben.
In Riad sammelte er eine kleine Gruppe junger Palästinenser, die sich „Palästina-Geheimorganisation“ nannte, und lernte seine Frau Hiyam Al-Bitar kennen, mit der er den Sohn Nidal und zwei Töchter, Badia und Bissam bekam. Als Israel 1967 den Sechstagekrieg gewann, wurde er angesichts der neuen diplomatischen Lage von den Saudis eingesperrt und gefoltert und schließlich aus dem Land vertrieben. Er zog nach Amman, Jordanien, um und gründete die Handelsfirma Impex, und trat Fatah, Jassir Arafats Partei innerhalb der PLO bei. Impex wurde bald die Plattform für Tätigkeiten der Fatah und Abu Nidal wurde ein wohlhabender Mann, unter anderem als Geflügelexporteur nach Polen. Gleichzeitig diente die Firma als Deckmantel für seine politische Gewalttätigkeit und seine Multimillionen-Dollar-Waffengeschäfte, Söldnertätigkeiten und Schutzschläger.
Impex diente als Treffpunkt für Fatahmitglieder und als deren Finanzkraft. Abu Nidal war in dieser Zeit als sauberer Geschäftsmann bekannt. Während des Schwarzen Septembers in Jordanien zwischen Fedajin und Truppen König Husseins blieb er zuhause, verließ nie sein Büro. Sein Talent für Organisation erkennend, ernannte Abu Ijad ihn 1968 zum Fatah-Repräsentanten in Khartum, Sudan, dann in Bagdad 1970, nur zwei Monate vor dem zweiten Attentat auf König Hussein.
Nidal war inoffizieller Mitarbeiter der DDR-Staatssicherheit.
Abspaltung von der PLO.
Kurz vor der PLO-Vertreibung aus Jordanien und während der drei folgenden Jahre begannen sich einige radikale palästinensische und andere arabische Parteien, wie George Habaschs PFLP, DFLP, Arabische Befreiungsfront, Sa'iqa und die Palästinensische Befreiungsfront, von der PLO abzuspalten und starteten ihre eigenen Terrorangriffe gegen israelische militärische und zivile Ziele.
Kurz nach der Vertreibung aus Jordanien fing Abu Nidal an, Kritik an der PLO über „Stimme von Palästina“, die PLO-eigene Radiostation im Irak zu übertragen und beschuldigte sie der Feigheit, wegen der Zustimmung zu einer Waffenruhe mit König Hussein. Während des dritten Fatah-Kongresses in Damaskus 1971 trat Abu Nidal als Führer eines linksgerichteten Bündnisses gegen Arafat auf. Zusammen mit Abu Daoud (einer von Fatahs unbarmherzigsten Kommandanten, der später für die Planung der Geiselnahme von München verantwortlich war, bei der 11 israelische Athleten im olympischen Dorf in München als Geiseln genommen und getötet wurden) und dem palästinensischen Intellektuellen Nadschi Allusch, erklärte er Arafat zum Feind des palästinensischen Volkes und verlangte mehr Demokratie innerhalb der Fatah sowie Rache gegen König Hussein. Es war Abu Nidals letzter Kongress.
Jahre in Libyen und weitere Attentate.
1985 zog Abu Nidal nach Tripolis, wo er mit Gaddafi Freundschaft schloss, der bald sein Partner wurde und auch Gebrauch davon machte. Am 15. April 1986 griffen US-Truppen in der Operation El Dorado Canyon von britischen Stützpunkten aus Tripolis und Bengasi an. Dutzende wurden getötet. Diese Aktion war die Vergeltung für ein Bombenattentat zehn Tage davor auf einen Berliner Nachtclub, der häufig von US-Soldaten besucht wurde. Nach Abu Nidals Tod berichtete Atef Abu Bakr, ein ehemaliges Mitglied der Fatah RC gegenüber Journalisten, dass Gaddafi Abu Nidal gebeten hatte, gemeinsam mit seinem Geheimdienstchef, Abdullah al-Senussi, eine Serie von Racheattentaten gegen britische und US-Ziele zu planen.
Abu Nidal arrangierte die Entführung von zwei Briten und einem Amerikaner, die später ermordet aufgefunden wurden. Danach schlug er Senussi vor, ein Flugzeug zu entführen oder zu sprengen. Am 5. September 1986 entführte ein Fatah RC-Team den Pan Am Flug 73 in Karatschi, 22 Passagiere wurden getötet, etliche verwundet. Im August 1987 ließ er eine Bombe auf einen Flug von Belgrad einer unbekannten Fluggesellschaft schmuggeln, die allerdings nicht explodierte. Verärgert über dessen Versagen befahl Senussi Abu Nidal, eine Bombe zu bauen, die von einem libyschen Agenten an Bord des PanAm Fluges 103 nach New York gebracht wurde. Am 21. Dezember 1988 explodierte das Flugzeug über Lockerbie in Schottland. 259 Menschen an Bord und 11 am Boden wurden getötet.
2000 verurteilte ein schottisches Gericht Abdel Basset Ali al-Megrahi, den ehemaligen Sicherheitschef der Libyan Arab Airlines, für seine Rolle beim Attentat. Er hatte den Koffer in Malta so beschriftet, dass er an Bord der Maschine gelangen würde. Die Beteiligung Abu Nidals wurde niemals bestätigt.
Tod.
Nach dem Bruch mit Gaddafi, der bemüht war, den Kontakt mit den Vereinigten Staaten und dem Vereinigten Königreich wiederherzustellen und sich vom Terror zu distanzieren, ließ sich Abu Nidal 1999 im Irak nieder. Die irakische Regierung meinte zwar, er sei mit einem gefälschten Pass eingereist, aber ab 2001 lebte er dort offiziell, obwohl er in Abwesenheit in Jordanien zum Tode verurteilt worden war, für seine Rolle bei der Ermordung eines jordanischen Diplomaten 1994 in Beirut.
Am 19. August 2002 berichtete zuerst die palästinensische Zeitung "Al-Ajjam", dass Abu Nidal drei Tage zuvor in seiner Bagdader Wohnung Selbstmord begangen habe. Am 21. August gab der Direktor des irakischen Geheimdienstes eine Pressekonferenz, bei der Fotos des blutigen Körpers Abu Nidals und ein Obduktionsbericht präsentiert wurden, die beweisen sollten, dass er an einer einzigen Schussverletzung, einem Kopfschuss durch den Mund, gestorben sei. Geheimdienstmitarbeiter hätten Abu Nidal in seiner Wohnung aufgesucht und ihn aufgefordert, sie zu einem Verhör zu begleiten. Mit der Bitte, sich etwas anziehen zu dürfen, habe er sich in sein Schlafzimmer zurückgezogen und sich in den Mund geschossen. Nach acht Stunden Intensivbehandlung sei er im Krankenhaus gestorben. Internationale Experten und palästinensische Weggefährten äußerten jedoch erhebliche Zweifel an der offiziellen irakischen Darstellung und gingen von einer Ermordung Abu Nidals aus. |
446 | 1146217 | https://de.wikipedia.org/wiki?curid=446 | Alternativweltgeschichte | Alternativweltgeschichten sind eine Ausformung des Science-Fiction-Genres und unter den Bezeichnungen "Allohistoria", "Parahistorie", "Virtuelle Geschichte", "Imaginäre Geschichte", "Ungeschehene Geschichte", "Potentielle Geschichte", "Eventualgeschichte", "Alternate History", "Alternative History" oder Uchronie („Nicht-Zeit“, aus altgriechisch „nicht-“ und „Zeit“) bekannt.
In der Geschichtswissenschaft werden derartige Gedankenspiele, die allerdings Bezug auf die historischen Quellen nehmen, als kontrafaktische Geschichte bezeichnet.
Die Geschichten dieser Werke spielen in einer Welt, in der der Lauf der Weltgeschichte irgendwann (am so genannten "Divergenzpunkt") von dem uns bekannten abgewichen ist. Während Science-Fiction mit dem Potentialis operiert, operiert die kontrafaktische Geschichte mit dem Irrealis, stellt also die Frage: „Was hätte sein können, wenn …?“ Das Genre wurde insbesondere in der englischsprachigen Literatur der Nachkriegszeit entwickelt.
Geschichte.
Vor dem 19. Jahrhundert.
Frühe Beispiele der kontrafaktischen Geschichtsschreibung finden sich bereits in Antike, etwa in Form der Überlegungen des Titus Livius, was passiert wäre, falls die Armee Alexanders des Großen auf die römischen Legionen getroffen wäre. Herodot spekulierte hingegen über eine griechische Niederlage in der Schlacht bei Marathon.
Im Jahr 1490 erzählt "Tirant lo Blanc" (Joanot Martorelli, Marti Joan de Galba) die Geschichte eines Ritters, der das Byzantinische Reich vor dem Osmanischen Reich rettet.
Im Jahr 1670 merkt Blaise Pascal in seinen Pensées scherzhaft an, die Geschichte wäre anders verlaufen, hätte Kleopatra VII. eine kleinere Nase gehabt.
19. Jahrhundert.
Das Genre der "kontrafaktischen historischen Fiktion" entstand im 19. Jahrhundert, besonders im französischsprachigen Raum. Entscheidende Vorläufer waren hierbei Louis Geoffroy ("Napoléon et la conquête du monde", 1836), welcher eine Welteroberung durch Napoleon Bonaparte nach einem Sieg im Russlandfeldzug 1812 beschrieb, und Charles Renouvier ("Uchronie", 1876), welcher nicht nur den Begriff „Uchronie“ etablierte, sondern auch erstmals verschiedene Aspekte des Genres wissenschaftlich zu erfassen versuchte.
Das erste englischsprachige historische Werk wurde von Nathaniel Hawthorne ("P's correspondence", 1845) geschrieben.
Im Verlauf des späten 19. und frühen 20. Jahrhunderts entwickelte sich das Genre (als solches noch nicht weithin anerkannt) nur schleppend. Zu den Beiträgen dieser Zeit gehören "Hands Off" (1881) von Edward Everett Hale und "A Connecticut Yankee in King Arthur's Court" (1889) von Mark Twain, wobei beide Beispiele eine Zeitreisegeschichte erzählen, in welcher der Zeitreisende die Zeitlinie verändert.
20. Jahrhundert.
George Macaulay Trevelyan veröffentlichte seine Kurzgeschichte "If Napoleon Had Won the Battle of Waterloo," welche sich dadurch auszeichnet, eine der ersten dystopischen Erzählungen der Alternativgeschichte zu sein, wohingegen frühere Beispiele zumeist utopisch waren und dem Eskapismus dienten.
Im Jahr 1931/1932 veröffentlichte John Collings Squire die erste belegte Essaysammlung der Alternativgeschichte unter dem Titel "If It Happened Otherwise" (in den Vereinigten Staaten unter dem Titel "If: Or History Rewritten" veröffentlicht). Die Beiträge zu Squires Sammlung wurden von mehreren internationalen Autoren geschrieben, wobei besonders Winston Churchill, der spätere Premierminister des Vereinigten Königreichs, hervorzuheben ist. Andere Beiträge kamen von Philip Guedalla und Harold Nicolson sowie Ronald Knox (alle Vereinigtes Königreich), Emil Ludwig (Deutschland) und André Maurois (Frankreich).
Die Kurzgeschichte "Sidewise in Time" von Murray Leinster (welche später dem Sidewise Award den Namen gibt) wurde im Jahre 1934 veröffentlicht und erforschte eine Realität von parallel existierenden Zeitlinien, die urplötzlich durcheinandergewürfelt wurden.
Der Zweite Weltkrieg (1939–45) veränderte das Genre der Alternativweltgeschichte vollkommen und ist seitdem zum mit Abstand beliebtesten Thema der Alternativgeschichte geworden, wobei fast ausschließlich dystopische Szenarien entstehen. Alternativgeschichten des Zweiten Weltkriegs entstehen schon kurz nach Kriegsende, so etwa "Si l’Allemagne avait vaincu" (‚Wenn Deutschland gewonnen hätte‘, 1950) von Randolph Robban.
Im Jahr 1953 veröffentlichte J. Ward Moore das Buch "Bring the Jubilee" (im Deutschen: "Der Große Süden"), womit er in den Vereinigten Staaten die Alternativgeschichten über den Sezessionskrieg erweiterte. Interesse in den USA an alternativen Szenarien des Bürgerkriegs stieg wiederum mit dem hundertsten Jahrestag des Sezessionskriegs im Jahre 1961, so etwa in Form von MacKinlay Kantors "If the South Had Won the Civil War" (1961).
Im Jahr 1962 erschien die vermutlich berühmteste Alternativweltgeschichte aller Zeiten, "The Man in the High Castle" (ins Deutsche übersetzt unter dem Titel "Das Orakel vom Berge") von Philip K. Dick, welches die Geschichte der von Nazi-Deutschland und vom Japanischen Kaiserreich besetzten Vereinigten Staaten erzählt. Das Buch wurde zum Vorbild einer erfolgreichen Fernsehserie, welche zwischen den Jahren 2015 und 2019 produziert wurde (wobei diesmal im Deutschen der Originaltitel unübersetzt blieb).
Im Jahr 1964 erweiterte Robert Fogel die Alternativgeschichte um mehrere wissenschaftliche und statistische Methoden, was das Genre als Ganzes auch interessanter als ernsthaftes Gedankenexperiment für die Geschichtswissenschaften machte (siehe hierzu: Kontrafaktische Geschichte). Fogel errechnete in seinem Werk "Railroads and American Economic Growth" alternative Statistiken der Logistik für eine Version der Vereinigten Staaten, in welcher der weitreichende Aufbau von Eisenbahnen nicht stattfand.
Nach dem Tod des Diktators Francisco Franco im Jahre 1976 erlebte das Genre auch in Spanien einen Aufschwung, insbesondere mit einem Schwerpunkt auf den Spanischen Bürgerkrieg. Der Katalane Victor Alba schrieb im Jahre 1976 eine utopische Darstellung einer überlebenden Zweiten Spanische Republik, wohingegen der Franquist Fernando Vizcaino Casas im Jahre 1989 eine dystopische Vision der siegreichen Republikaner zeichnete.
Im Jahr 1992 veröffentlichte der Brite Robert Harris das Buch "Fatherland" (im Deutschen: "Vaterland") und erzielte einen großen finanziellen Erfolg, was dem Genre der Alternativgeschichte zu größerem Status verhalf. Harris’ Buch ist der Hauptvertreter eines Phänomens der Alternativgeschichte im britischen Kulturraum während der 1990er, welcher von Richard J. Evans als „euroskeptischer Kontrafaktualismus“ bezeichnet wird. Im Kontext der Deutschen Wiedervereinigung (1990) und des Vertrags von Maastricht (1992) wurden unter britischen Konservativen Ängste über ein von Deutschland dominiertes Europa geweckt. Dadurch entstanden zahlreiche britische Alternativgeschichten über ein imperialistisches Deutschland (oft in Form eines im Zweiten Weltkrieg siegreichen NS-Staates, wie im Falle von "Vaterland") oder einen anderweitig hervorgebrachten europäischen Superstaat. Andere britische Vertreter des euroskeptischen Kontrafaktualismus der 1990er-Jahre waren neben Harris auch John Charmley, Andrew Roberts und Niall Ferguson. Außerhalb Großbritanniens war das Phänomen weniger verbreitet, wobei der polnisch-britische Historiker Adam Zamoyski zu den Ausnahmen zählt.
Im Jahr 1997 veröffentlichte Niall Ferguson das Werk "Virtual History: Alternatives and Counterfactuals," in welchem er versuchte, die kontrafaktische Geschichte als seriöses Mittel der Geschichtsforschung zu etablieren.
21. Jahrhundert.
Die Popularität der Alternativgeschichte als Genre ist seit den 1990ern rapide gestiegen.
Mehrere Klassiker des Genres wurden im 21. Jahrhundert als Serien umgesetzt, so etwa "The Man in the High Castle" und "SS-GB."
Gesichtspunkte des Genres.
Stilmittel und Tropen.
Wie andere Genres auch kennt die Alternativgeschichte mehrere Tropen und Stilmittel, die in verschiedensten Werken erkennbar sind.
Tendenzen bei der Themenwahl.
Die Wahl des Szenarios und Divergenzpunkts einer Alternativgeschichte wird nachhaltig von der Absicht, der politischen Orientierung und der Faktenkenntnis des jeweiligen Autors sowie vom Kontext der jeweiligen Epoche geprägt.
Die Autoren dystopischer Alternativgeschichten zielen oft darauf ab, dem Publikum die Vorzüge der realen Zeitlinie vor Augen zu führen, sowie die Bosheit und Unerwünschtheit der jeweils beschriebenen Dystopie zu unterstreichen.
Heimatland des Autors als Faktor der Themenwahl.
Autoren jeder Nation tendieren eher dazu, alternativgeschichtliche Szenarien mit Bezug auf die eigene Nationalgeschichte zu entwickeln.
Politische Orientierung des Autors als Faktor der Themenwahl.
Der britische Historiker Richard J. Evans vertritt die These, dass Alternativgeschichte und insbesondere Kontrafaktische Geschichte attraktiver für Konservative als für Progressive sind, da erstere in den Geschichtswissenschaften oft philosophisch einen größeren Fokus auf Individualismus und die Freiheit der Entscheidung der Einzelperson legen, während letztere sich eher deterministischen Modellen der Sozialgeschichte und der gesellschaftsfokussierten Geschichtsschreibung zugeneigt sehen und Gedankenspiele der Alternativgeschichte tendenziell skeptischer betrachten. Dennoch gibt es auch linksgerichtete Autoren der Alternativgeschichte, so etwa E. H. Carr.
Die Alternativgeschichte kann als politische Satire oder politische Propaganda dienen, so im Falle der britischen „euroskeptischen Kontrafaktualisten“, welche ihre Alternativgeschichten als Warnung gegen einen durch ein übermächtiges Deutschland gelenkten europäischen Zentralstaat konzipierten.
Beliebte Themen.
Zweiter Weltkrieg.
Mit Abstand das beliebteste Thema für Alternativgeschichten ist der Zweite Weltkrieg, sowie verwandte Themen wie Adolf Hitler, der Holocaust oder der Nationalsozialismus.
Durch die massive Bandbreite von Alternativerzählungen über den Zweiten Weltkrieg haben sich mehrere Subgenres und Tropen gebildet.
Sezessionskrieg.
Das zweitbeliebteste Thema in der Alternativgeschichte ist der Sezessionskrieg, wobei die allermeisten Werke hierbei von US-amerikanischen Autoren für den eigenen Markt geschrieben werden.
Arten der Alternativgeschichte.
Es gibt verschiedene Arten der Alternativgeschichte. In manchen ist die alternative Zeitlinie die einzig existente, manchmal existiert die alternative Zeitlinie parallel zu der dem Leser bekannten realen Zeitlinie (Parallelwelterzählungen), manchmal existieren unendlich viele Zeitlinien gleichzeitig, und manchmal gehen die alternative und reale Zeitlinie durch Zeitreise ineinander über (hierbei wird entweder die alternative Zeitlinie durch den Zeitreisenden verursacht, eine alternative Vergangenheit zur realen Gegenwart korrigiert oder eine Veränderung der realen Zeitlinie durch andere Zeitreisende verhindert („Zeitpolizeigeschichten“)).
Außerdem unterscheiden sich Alternativgeschichten durch die Art des Divergenzpunkts. In manchen Fällen wird ein einzelnes Ereignis verändert (z. B. der Ausgang einer Schlacht oder politischen Wahl oder die (Nicht-)Ermordung einer historischen Person), aber die übrigen physikalischen Regeln der Welt und ihrer Bewohner unverändert gelassen. Wieder andere Alternativgeschichten verändern die Grundlagen der Welt (z. B. durch magische Elemente oder Zeitreise), wodurch die beschriebene Zeitlinie fundamental von der realen Zeitlinie unterscheidbar ist. Eine eigene Kategorie bilden hierbei wiederum die unendlichen Parallelweltgeschichten, da in solchen die reale Zeitlinie neben anderen alternativen Zeitlinien existiert, die jeweils verschiedenen Regeln unterworfen sein können.
Subgenres und verwandte Genres.
Es gibt mehrere Subgenres der Alternativgeschichte.
Separat von der Alternativgeschichte sind Zukunftsvoraussagen, auch wenn diese mitunter ähnlich geschrieben sein können. So etwa erscheint "1984" (erschienen 1948) von George Orwell rückwirkend als Roman der Alternativgeschichte, ist aber aufgrund des Erscheinungsjahres dem Genre der Zukunftsvoraussagen zuzuordnen.
Unterscheidung von der Geschichtsfälschung.
Alternativgeschichtliche Erzählungen sind Werke der Fiktion, die klar als solche zu erkennen sind. Historische Versuche der Geschichtsfälschung sind nicht als Teil der Alternativgeschichte als Genre der Fiktion anzusehen. |