id
stringlengths
1
7
url
stringlengths
31
408
title
stringlengths
1
239
text
stringlengths
1
345k
2
https://pl.wikipedia.org/wiki/AWK
AWK
AWK – interpretowany język programowania, którego główną funkcją jest wyszukiwanie i przetwarzanie wzorców w plikach lub strumieniach danych. Jest także nazwą programu początkowo dostępnego dla systemów operacyjnych będących pochodnymi UNIX-a, obecnie także na inne platformy. AWK jest językiem, który w znacznym stopniu wykorzystuje tablice asocjacyjne, stringi i wyrażenia regularne. Nazwa języka pochodzi od pierwszych liter nazwisk jego autorów Alfreda V. Aho, Petera Weinbergera i Briana Kernighana. Bywa zapisywana małymi literami, odczytywana jako jedno słowo awk, wymawiana jak pierwsza sylaba w awkward. Definicja języka AWK jest zawarta w POSIX 1003.2 Command Language And Utilities Standard. Wersja ta jest z kolei oparta na opisie z The AWK Programming Language napisanym przez Aho, Weinbergera i Kernighana, z dodatkowymi właściwościami zdefiniowanymi w wersji awk z SVR4. W wierszu poleceń podaje się opcje dla awk, tekst programu (jeśli nie podano go poprzez opcję -f lub --file) i wartości, które mają być udostępnione w predefiniowanych zmiennych ARGC i ARGV. Struktura programów AWK „AWK jest językiem służącym do przetwarzania plików tekstowych. Plik jest traktowany jako ciąg rekordów, przy czym domyślnie rekordem jest każdy wiersz. Każda linia jest podzielona na pola, więc można traktować pierwsze pole linii jako pierwsze słowo, drugie pole jako drugie słowo itd. Program AWK składa się z sekwencji instrukcji wzorzec-akcja. AWK czyta wejście linia po linii. Każda linia jest przeszukiwana pod kątem wzorców występujących w programie i dla każdego pasującego wzorca wykonywana jest akcja z nim skojarzona.” – Alfred V. Aho Program AWK składa się z sekwencji instrukcji wzorzec-akcja oraz opcjonalnych definicji funkcji. wzorzec { instrukcje akcji } function nazwa(lista parametrów) { instrukcje } gdzie wzorzec to zwykle jakieś wyrażenie, a akcja – lista komend. Wejście dzielone jest na rekordy, domyślnie oddzielone znakiem nowej linii. Dla każdego rekordu wejścia awk dokonuje porównania, sprawdzając czy odpowiada on jakiemuś wzorcowi z programu AWK. Jeśli wzorzec będzie odpowiadał rekordowi, zostanie wykonana związana z nim akcja. Wzorce są sprawdzane w kolejności ich pojawienia się w programie. Domyślną akcją jest wypisanie rekordu. Komendy i składnia Na komendy AWK składają się wywołania funkcji, nadawanie wartości zmiennym, obliczenia lub jakaś kombinacja wymienionych zadań. AWK posiada wbudowane wsparcie dla wielu funkcji. Niektóre wersje pozwalają na dynamiczne linkowanie bibliotek, co umożliwia korzystanie z jeszcze większej liczby funkcji. Dla uproszczenia nawiasy klamrowe ({}) w poniższych przykładach zostaną pominięte. print Polecenie print jest używane do wypisywania tekstu. Wyjście jest zawsze zakończone predefiniowanym separatorem rekordów (output record separator (ORS)), który domyślnie jest znakiem nowej linii. Najprostsze zastosowanie polecenia print to: print Wyświetla zawartość obecnego rekordu. W AWK rekordy rozbijane są na pola, które można wyświetlić osobno: print $1 Wyświetla pierwsze pole obecnego rekordu. print $1, $3 Wyświetla pierwsze i trzecie pole obecnego rekordu oddzielone separatorem pola (output field separator (OFS)) – domyślnie spacją. Choć zapis pól ($X) może kojarzyć się z zapisem określającym zmienne (jak np. w perlu), to jednak określa pola bieżącego rekordu. Ponadto $0 odnosi się do całego rekordu, więc "print" oraz "print $0" mają takie samo działanie. print pozwala również wyświetlić wynik obliczeń lub wywołania funkcji. Np. print 3+2 print foobar(3) print foobar(zmienna) print sin(3-2) Wyjście można również przekierować do pliku: print "wyrażenie" > "nazwa pliku" lub do innego polecenia przez użycie potoku: print "wyrażenie" | "polecenie" Zmienne i tablice Zmienne Zmienne AWK są dynamiczne — zaczynają istnieć, gdy są po raz pierwszy użyte. Nazwy zmiennych mogą zawierać znaki z zakresu [A-Za-z0-9_], lecz nie mogą być słowami kluczowymi. Zmienne oraz pola mogą być liczbami (zmiennoprzecinkowymi), łańcuchami lub jednym i drugim naraz. Interpretacja wartości zmiennej zależy od kontekstu. Jeśli jest użyta w wyrażeniu numerycznym, jest interpretowana jako liczba. Natomiast jeśli jest użyta w wyrażeniu łańcuchowym — jest traktowana jak łańcuch. AWK posiada tablice jednowymiarowe. Symulowane mogą być również tablice wielowymiarowe. Podczas działania programu ustawianych jest kilka predefiniowanych zmiennych opisanych niżej. Zmienne wbudowane Zmienne wbudowane w AWK to m.in. zmienne określające pola: $1, $2 itd. Zwracają one wartość lub tekst przechowywany aktualnie w określonym polu rekordu. Poza nimi AWK posiada również inne zmienne: Tablice Tablice są indeksowane wyrażeniem ujętym w nawiasy kwadratowe ([]). Jeśli wyrażenie jest listą wyrażeń (wyrażenie, wyrażenie, ...), to indeks tablicy jest sklejany z wartości (łańcuchowych) każdego wyrażenia, oddzielonych wartością zmiennej SUBSEP. Jest tak dlatego, że AWK posiada wyłącznie tablice asocjacyjne, zaś klucze numeryczne pamiętane są jako łańcuchy. Symulowanie tablic wielowymiarowych polega na sklejaniu poszczególnych indeksów w unikalny łańcuch. Na przykład: i = "A" ; j = "B" ; k = "C" x[i, j, k] = "hello, world\n" przypisuje łańcuch "hello, world\n" elementowi tablicy x, o indeksie będącym łańcuchem "A\034B\034C". Jeśli tablica posiada wielokrotne indeksy, można użyć konstrukcji (i, j) in array. Element można skasować z tablicy przy użyciu polecenia delete. Poleceniem delete można się też posłużyć do skasowania całej zawartości tablicy, przez podanie jej nazwy bez indeksu. Funkcje Funkcje są wykonywane po wywołaniu ich z wyrażeń występujących we wzorcach lub akcjach. Definicja funkcji składa się ze słowa kluczowego function, jej nazwy, argumentów i ciała. Poniżej znajduje się przykład funkcji: function dodaj_siedem (liczba) { return liczba + 7 } Tę funkcję można wywołać w następujący sposób: print dodaj_siedem(51) # zwraca 58 Między nazwą funkcji, a nawiasem otwierającym można wstawić spację jedynie podczas jej deklaracji – w wywołaniu nawias musi stać bezpośrednio po nazwie funkcji. Ma to na celu zapobieżenie niejednoznaczności składni z operatorem konkatenacji (łączenia). Ograniczenie to nie odnosi się do funkcji wbudowanych. Funkcje mogą posiadać zmienne lokalne. Ich nazwy dodawane są na końcu listy argumentów w definicji funkcji. Jednak ich wartości powinno się pomijać wywołując daną funkcję. Zazwyczaj przed deklaracją zmiennych lokalnych dodaje się kilka białych znaków, by wskazać miejsce, w którym kończą się argumenty funkcji i zaczynają zmienne lokalne. Zamiast słowa function można używać słowa funct. Operatory Operatory w AWK, w kolejności malejącego priorytetu, to: Wywołanie programu AWK Tekst programu czytany jest tak, jakby wszystkie pliki programu zostały połączone ze sobą w całość, przy czym pierwszeństwo mają pliki podane jako argumenty polecenia. Przydaje się to do budowania bibliotek funkcji AWK, bez konieczności włączania ich do każdego nowego programu AWK, który z nich korzysta. Umożliwia to również łączenie funkcji bibliotecznych z programami z wiersza poleceń. Zmienna środowiskowa AWKPATH określa ścieżkę przeszukiwania, używaną do znajdowania plików źródłowych podanych w opcji -f. Jeśli zmienna ta nie istnieje, domyślną ścieżką staje się .:/usr/local/share/awk. (Faktyczny katalog może być różny, zależnie od tego jak skompilowano i zainstalowano awk). Jeśli nazwa pliku, podana opcji -f zawiera znak /, nie jest dokonywane żadne przeszukiwanie ścieżki. Program AWK wykonywany jest w następującej kolejności: inicjalizacja zmiennych podanych w opcjach -v, kompilacja do postaci wewnętrznej, wywołanie kodu zawartego w blokach BEGIN (o ile istnieją), odczytywanie plików podanych w tablicy ARGV, odczytywanie standardowego wejścia, jeśli pliki nie zostały podane. Z poziomu wiersza poleceń można także ustawić wartość zmiennej, podając zamiast nazwy pliku ciąg zmienna=wartość. Ten sposób inicjalizowania zmiennych najbardziej przydaje się do dynamicznego nadawania wartości zmiennym, których AWK używa do określania sposobu, w jaki wejście rozbijane jest na pola i rekordy. Jest też użyteczny do kontroli stanu, jeśli zachodzi potrzeba wielokrotnego czytania danego pliku danych. Jeśli wartość konkretnego elementu ARGV jest pusta (""), to awk ją pomija. Przykłady zastosowań Hello World Poniżej znajduje się przykład programu "Hello world" napisanego w AWK: BEGIN { print "Hello, world!" } Niekoniecznie trzeba w tym wypadku pisać na końcu exit. Jedynym wzorcem jest BEGIN, więc żadne argumenty z linii komend nie są przetwarzane. W niektórych wersjach AWK i niektórych krajach dodanie znaku ”_“ przed łańcuchem znaków wypisze go w języku narodowym. Np. BEGIN { print _"Hello, world!" } we Francji może wypisać bonjour, monde!. Wypisywanie linii zawierających więcej niż 80 znaków length($0) > 80 Zliczanie liczby słów Program liczy liczbę słów na wejściu i wypisuje liczbę słów, linii i znaków podanych na wejściu (podobnie jak wc). { w += NF c += length + 1 } END { print NR, w, c } Ze względu na brak wzorca w pierwszej linii programu akcja jest wykonywana dla każdego wiersza wejścia. Suma numerów ostatnich słów { s += $NF } END { print s + 0 } s jest zwiększane o numer ostatniego słowa w każdym rekordzie. Na końcu wejścia wzorzec END pasuje, więc s jest wypisywane. Jednak wejście może nie zawierać ani jednej linii. Wtedy, jako że zmiennej s nie została nadana żadna wartość, będzie to pusty ciąg. Dodanie zera na końcu przy wypisywaniu s wymusza traktowanie zmiennej tak, jakby zawierała ona liczbę. Dzięki temu nawet, gdy s jest pustym ciągiem na wyjściu nie będzie pustej linii, lecz 0. Wypisanie określonej liczby pasujących linii wejścia $ yes Wikipedia | awk 'NR % 4 == 1, NR % 4 == 3 { printf "%6d %s\n", NR, $0 }' | sed 7q 1 Wikipedia 2 Wikipedia 3 Wikipedia 5 Wikipedia 6 Wikipedia 7 Wikipedia 9 Wikipedia $ Tutaj komenda yes wypisuje słowo „Wikipedia” tak długo, aż sed wykryje, że zostało wypisanych 7 linii. Dalsza część polecenia wypisuje każdą z linii poprzedzoną jej numerem. Wypisywane są tylko linie, których numery dają resztę z dzielenia przez 4 o wartościach od 1 do 3. Obliczanie częstotliwości występowania słów Program używa tablicy asocjacyjnej: BEGIN { FS="[^a-zA-Z]+" } { for (i=1; i<=NF; i++) words[tolower($i)]++ } END { for (i in words) print i, words[i] } Blok BEGIN ustawia separator pola na dowolny znak niebędący literą. Warto zauważyć, że separatory mogą być też wyrażeniami regularnymi. Następnie następuje akcja wykonywana na każdej linii wejścia: dla każdego pola linii zwiększana jest liczba razy, jaką to słowo (uprzednio zamienione na małe litery) wystąpiło. Na końcu wypisywane są wszystkie słowa wraz z częstotliwościami występowania. Samodzielne skrypty AWK Podobnie jak w wielu innych językach skrypt AWK można napisać poprzedzając go znakiem „shebang”. Dla przykładu komendę hello.awk wypisującą tekst „Hello, world!” można napisać tworząc plik o nazwie hello.awk posiadający następującą zawartość: #! /usr/bin/awk -f BEGIN { print "Hello, world!" } Opcja -f informuje awk, że następny argument to nazwa pliku, z którego należy przeczytać program, a jest on tam umieszczany przez powłokę systemową podczas działania, tak jakby wywołane zostało polecenie /usr/bin/awk -f hello.awk. Przypisy Zobacz też sed perl polecenia systemu operacyjnego Unix Linki zewnętrzne Strona domowa GNU Awk The Amazing Awk Assembler by Henry Spencer. Gawkinet: TCP/IP Internetworking with Gawk Języki skryptowe
4
https://pl.wikipedia.org/wiki/Alergologia
Alergologia
Alergologia – dziedzina medycyny zajmująca się rozpoznawaniem i leczeniem schorzeń alergicznych, czyli takich, u podstaw których stoi zjawisko nadwrażliwości, zwłaszcza inicjowane przez mechanizmy immunologiczne. W Polsce konsultantem krajowym alergologii od 19 lutego 2020 jest prof. dr hab. n. med. Karina Jahnz-Różyk. Przypisy Linki zewnętrzne Polskie Towarzystwo Alergologiczne Polskie Towarzystwo Zwalczania Chorób Alergicznych Specjalności lekarskie
6
https://pl.wikipedia.org/wiki/ASCII
ASCII
ASCII (czyt. aski, skrót od ) – siedmiobitowy system kodowania znaków, używany we współczesnych komputerach oraz sieciach komputerowych, a także innych urządzeniach wyposażonych w mikroprocesor. Przyporządkowuje liczbom z zakresu 0−127: litery alfabetu łacińskiego języka angielskiego, cyfry, znaki przestankowe i inne symbole oraz polecenia sterujące. Na przykład litera „a” jest kodowana jako liczba 97, a znak spacji jest kodowany jako 32. Większość współczesnych systemów kodowania znaków jest rozszerzeniem standardu ASCII. ASCII jest tradycyjną nazwą tego zestawu znaków, jednak IANA zaleca używanie określenia US-ASCII, które podkreśla pochodzenie standardu, oraz to, pod kątem jakich znaków był projektowany (ASCII nie zawiera na przykład liter diakrytyzowanych, powszechnych w alfabetach europejskich). ASCII znajduje się na liście kamieni milowych IEEE. Przegląd Standard ASCII został stworzony na podstawie kodu telegraficznego. Prace nad nim rozpoczęły się 6 października 1960 roku, podczas pierwszego spotkania grupy X3.2 American National Standards Institute (ANSI). Trzy lata później, w 1963 roku, została udostępniona pierwsza wersja standardu ASCII. W porównaniu do wcześniejszych systemów kodowania znaków, ten zestaw znaków był wygodny w użyciu do sortowania alfabetycznego tekstów, zmiany wielkości znaków, a także wspierał urządzenia inne niż dalekopisy. Od czasu wprowadzenia na rynek, ASCII został czterokrotnie zaktualizowany – w 1967, 1968, 1977 i 1986 roku. Każdy znak w kodzie ASCII jest przedstawiany jako 7-bitowa liczba całkowita. 95 spośród nich stanowią znaki drukowalne: małe i wielkie litery alfabetu łacińskiego, cyfry, znaki przestankowe oraz inne symbole. Standard ten został stworzony do obsługi języka angielskiego, dlatego pośród liter, które znajdują się w tabeli, nie ma żadnych diakrytyzowanych. Większość znaków sterujących jest dzisiaj przestarzała – zostały one pomyślane głównie dla dalekopisów. Standard ASCII był najpopularniejszym zestawem znaków używanym w internecie do grudnia 2007, kiedy to został zastąpiony przez UTF-8. Kodowanie UTF-8 jest wstecznie kompatybilne z ASCII. Historia Kod ASCII został opublikowany jako standard ASA X3.4-1963. Zestaw znaków w niewielkim stopniu różnił się od obecnego. Nieprzypisana była 1 sekwencja sterująca oraz 28 pozycji zarezerwowanych do późniejszego wykorzystania. W grupie roboczej toczyła się dyskusja, czy należy do kodu wprowadzić małe litery, czy też więcej znaków sterujących. W maju 1963 zadecydowano, by tzw. patyki szósty i siódmy wypełnić małymi literami alfabetu łacińskiego. Spowodowało to, że między wielką a małą literą jest tylko jeden bit różnicy (np. literze „A” jest przyporządkowany kod 65 (100001), a „a” – 97 (100001)), co ułatwiało konstruowanie klawiatur oraz porównywanie tekstów nieuwzględniające wielkości liter. Ta zmiana weszła do standardu ASCII dopiero w 1967 roku. Do standardu ASCII z 1963 roku zostały wprowadzone jeszcze następujące zmiany: wprowadzenie znaków takich jak nawiasy klamrowe oraz kreska pionowa, zmiana nazwy niektórych kodów kontrolnych (np. SOM zmieniono na SOH), przeniesienie lub usunięcie niektórych znaków kontrolnych (np. usunięto RU). Standard ASCII był uaktualniany czterokrotnie – w latach 1967, 1968, 1977 i 1986. Przygotowany został także piąty standard – z 1965 roku, ale nie został opublikowany (mimo wszystko był używany przez niektóre maszyny IBM). Założenia przyjęte podczas projektowania Liczba bitów Grupa X3.2 projektowała ASCII na podstawie dawniejszych zestawów znaków, przeznaczonych dla dalekopisów. Zawierały one 26 liter, 10 cyfr oraz od 11 do 25 symboli. Aby uwzględnić je wszystkie oraz znaki kontrolne zgodne ze standardami CCITT ITA2 (1924), FIELDATA (1956–57) oraz wczesnym EBCDIC (1963), potrzeba było więcej niż 64 znaki. Można by je zmieścić na 6 bitach, używając dwóch zestawów znaków i specjalnych kodów SHIFT zmieniających używany zestaw (jak np. w ITA2). Jednak wiadomości zakodowane w ten sposób łatwo mogły ulec zniekształceniu, ponieważ przekłamanie podczas transmisji kodu SHIFT mogłoby zmienić brzmienie dużej części tekstu. Grupa odpowiedzialna za sformułowanie standardu ASCII sprzeciwiała się temu, dlatego kod musiał używać co najmniej 7 bitów na jeden znak. Rozważano także wykorzystanie ośmiu bitów, co pozwoliłoby na zastosowanie większego zestawu znaków, jednak zadecydowano, że ASCII będzie siedmiobitowy, ponieważ każdy dodatkowy bit zwiększyłby długość wiadomości, a co za tym idzie – również koszt jej przesłania. Ówczesne karty dziurkowane mogły przechować na jednej pozycji osiem bitów, co można było wykorzystać do przechowywania bitu parzystości. Urządzenia niestosujące kontroli błędów przechowywały tam 0. Niektóre drukarki korzystały z ósmego bitu, by obsługiwać kursywę. Podział na grupy znaków Kod ASCII został podzielony na dwie grupy – dwa patyki (zerowy i pierwszy) przeznaczone na znaki sterujące oraz sześć patyków (od drugiego do siódmego) zawierających znaki drukowalne (wyjątkiem jest znak 127: DEL). Znak spacji został umieszczony pod adresem 0x20, czyli przed wszystkimi innymi literami, aby ułatwić sortowanie. Z tego samego względu, wiele symboli używanych jako separatory znajduje się przed literami i cyframi – na patyku drugim. Grupa robocza zadecydowała, że wydzielenie sensownego 64-znakowego (sześciobitowego) alfabetu z ASCII ma być łatwe i taki alfabet powinien być jednym ciągłym blokiem. Z tego powodu małe litery nie są przeplecione z wielkimi. Wielka litera A została umieszczona na pozycji 0x41, w celu zgodności z brytyjską propozycją standardu kodowania znaków. Cyfry 0–9 składają się z bitów 011 oraz, następującej po nich, binarnej reprezentacji liczb odpowiadających każdej z cyfr. Ułatwia to konwersję liczb na system binary-coded decimal. Pozycja większości znaków niealfanumerycznych jest związana z ich umiejscowieniem na klawiaturach mechanicznych maszyn do pisania. Standardowy układ klawiszy pochodzi z maszyny Remington No. 2 z 1878 roku, pierwszej z klawiszem . Klawiszom 23456789- odpowiadały, kolejno, znaki "#$%_&'(). Początkowo, na klawiaturach maszyn do pisania nie używano cyfr 0 i 1, ponieważ mogły one być zastąpione przez O (wielkie o) oraz l (małe L). Pary 1! oraz 0) stały się popularne, gdy klawisze z tymi cyframi weszły do użycia. Znaki !"#$% zostały umieszczone na drugim patyku, obok odpowiadających im cyfr. Ze względu na to, że zero znajduje się w tabeli kodu ASCII obok spacji i nie można tam wstawić nawiasu zamykającego, znak podkreślenia został usunięty (wstawiono go w 1967 roku za wielkimi literami), a za procentem znajdują się znaki odpowiadające kolejnym cyfrom (tj. &'()). Taki układ był często spotykany na europejskich maszynach do pisania. Para znaków /? pochodzi również z maszyny No. 2, natomiast ,< .> były używane tylko na części klawiatur. Na pozostałych kropkę i przecinek można było wpisać zarówno z naciśniętym klawiszem , jak i bez niego. Standard ASCII rozbił znaki ;:, spotykane dotąd na jednym klawiszu, oraz zmienił układ symboli matematycznych (zamiast najczęstszego wariantu -* =+ było :* ;+ -=). Niektóre, popularne w USA znaki, takie jak ½¼¢, nie zostały uwzględnione, podczas gdy wprowadzono: diakrytyki ^`~ do użytku międzynarodowego oraz znaki <>\|. Symbol @ nie był powszechny w Europie, dlatego grupa X3.2 spodziewała się umieszczenia w jego miejscu litery À we francuskiej odmianie standardu. Z tego względu małpa została umieszczona na pozycji 0x40, czyli tuż przed wielkim A. Najważniejszymi kodami sterującymi były: (), (), (), (), (), (), (), () i (). Zostały one rozmieszczone w ten sposób, by odległość Hamminga między nimi była jak największa. Podział Znaki sterujące Standard ASCII przeznacza pierwsze 32 kody (0–31) na znaki sterujące. Nie są one przeznaczone do przenoszenia drukowalnych symboli, lecz do sterowania urządzeniem odbierającym dane. Na przykład, znak 10 (LF) oznaczający przejście do nowej linii, powoduje przesunięcie papieru w drukarce, a znak 8, czyli Backspace powodował cofnięcie karetki o jedno pole. ASCII nie definiuje żadnego mechanizmu pozwalającego na formatowanie tekstu w obrębie jednej linii. Znaki drukowalne Kody 0x20 – 0x7E reprezentują litery, cyfry oraz inne, możliwe do wyświetlenia na ekranie, symbole. Standard ASCII definiuje łącznie (wliczając spację) 95 znaków drukowalnych: !"#$%&'()*+,-./0123456789:;<=>?@ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuvwxyz{|}~ Wcześniejsze wersje ASCII zawierały strzałkę do góry zamiast karety oraz strzałkę w lewo zamiast znaku podkreślenia. Rozszerzenia Ponieważ kod ASCII jest 7-bitowy, a większość komputerów operuje na 8-bitowych bajtach, dodatkowy bit można wykorzystać na powiększenie zbioru kodowanych znaków do 256 symboli. Powstało wiele różnych rozszerzeń ASCII, ponad 220 stron kodowych DOS i Windows, wykorzystujących ósmy bit (np. norma ISO 8859, rozszerzenia firm IBM lub Microsoft) nazywanych stronami kodowymi. Również kodowanie UTF-8 można uważać za rozszerzenie ASCII, tutaj jednak dodatkowe znaki są kodowane na 2 i więcej bajtach. Formalnie, mianem rozszerzeń ASCII można nazwać jedynie te standardy, które zachowują układ pierwszych 128 znaków i dodają nowe na końcu tabeli. Zestawy 7-bitowe ASCII było od początku projektowane jako jedna z wielu narodowych wersji międzynarodowego zestawu znaków. W Europie popularny był standard ISO 646, oparty na ASCII, który rezerwował określone pozycje (odpowiadające m.in. znakom: {}[]|\^~#$) dla liter używanych w narodowych językach oraz dla lokalnego symbolu waluty. Ze względu na to, że niektóre symbole zamieniono w ISO 646 na litery, programista w Europie musiał wybrać, czy chce na swoim komputerze korzystać z lokalnych liter, czy też z pierwotnie przypisanych znaków. Wybranie pierwszego powodowało, że kod stawał się mniej czytelny – zamiast { a[i] = '\n'; } w polskiej odmianie standardu wyświetlone zostałoby ł aźiń = '\n'; ć. Zestawy 8-bitowe Wraz z rozwojem komputerów oraz spadkiem kosztów transmisji danych, zaczęły się pojawiać 8-bitowe zestawy znaków. Pojawiły się standardy z rodziny ISO 8859 oraz Windows-125x, które zapewniały obsługę liter narodowych używając do tego zakresu 128–255, jednocześnie pozostawiając nietknięty obszar wspólny z ASCII. Alfabet polski był wspierany przez kodowanie ISO 8859-2 oraz Windows-1250. Unicode Unicode oraz Universal Character Set (UCS, ISO 10646) obsługują znacznie większą liczbę znaków, dzięki czemu wszystkie alfabety używane na świecie mogą zostać umieszczone w jednym kodowaniu. Są one wstecznie kompatybilne z ASCII (tekst składający się wyłącznie ze znaków 0–127 ma taką samą reprezentację w obu standardach). Tabela kodów ASCII Zobacz też Ascii85 ASCII-Art Basic Latin (blok Unicode) Extended ASCII Przypisy Uwagi Bibliografia Linki zewnętrzne Formaty plików komputerowych Kodowania znaków
7
https://pl.wikipedia.org/wiki/Atom
Atom
Atom – podstawowy składnik materii. Składa się z małego dodatnio naładowanego jądra o dużej gęstości i otaczającej go chmury elektronowej o ujemnym ładunku elektrycznym. Słowo atom pochodzi z greckiego – átomos (od α-, „nie-” + τέμνω – temno, „ciąć”), oznaczającego coś, czego nie da się przeciąć ani podzielić. Idea istnienia niepodzielnych składników materii pojawiła się już w pismach starożytnych filozofów indyjskich i greckich. W XVII i XVIII wieku chemicy potwierdzili te przypuszczenia, identyfikując pierwiastki chemiczne i pokazując, że reagują one ze sobą w ściśle określonych proporcjach. W XIX wieku odkryto ruchy Browna, będące pośrednim dowodem ziarnistości materii. Na początku XX wieku fizycy zbadali wewnętrzną strukturę atomów, pokazując tym samym, że są one podzielne. Teorie mechaniki kwantowej pozwoliły stworzyć matematyczne modele wnętrza atomu. Atomy mają rozmiary rzędu 10−10 m i masę rzędu 10−26 – 10−25 kg. Można je obserwować przez skaningowy mikroskop tunelowy. Ponad 99,9% masy atomu jest zawarte w jego jądrze. Jądro atomowe zbudowane jest z nukleonów: protonów o dodatnim ładunku elektrycznym i elektrycznie obojętnych neutronów. Chmurę elektronową tworzą elektrony związane z jądrem przez oddziaływanie elektromagnetyczne. Podobne oddziaływanie pozwala atomom łączyć się w cząsteczki. Atom jest elektrycznie obojętny, gdy liczba elektronów jest równa liczbie protonów. W przeciwnym przypadku ma ładunek i nazywany jest jonem. Główne właściwości chemiczne atomów określa liczba protonów w jądrze (liczba atomowa), gdyż determinuje ona strukturę chmury elektronowej oraz liczbę elektronów koniecznych do tego, aby atom był elektrycznie obojętny. Elektrony związane w atomach rozłożone są na powłokach, między którymi mogą przechodzić emitując bądź absorbując fotony o określonej energii. Struktura chmury elektronowej wpływa na chemiczne właściwości atomów i większość ich właściwości magnetycznych. Zbiory atomów o tej samej liczbie atomowej stanowią pierwiastki chemiczne. Atomy mające tę samą liczbę protonów, ale różniące się liczbą neutronów w jądrze to izotopy. Suma protonów i neutronów w jądrze atomu określana jest jako liczba masowa. Wszystkie pierwiastki mają niestabilne izotopy. Ich jądra ulegają spontanicznemu rozpadowi, co zazwyczaj prowadzi do powstania atomów innych pierwiastków. Rozpadowi temu towarzyszy emisja promieniowania jonizującego. Zjawisko to jest nazywane naturalną radioaktywnością. Historia Atomizm Pomysł, że materia składa się z mikroskopijnych składników, których nie da się w nieskończoność dzielić na mniejsze części, był znany już w starożytności. Nie opierał się jednak na żadnych danych empirycznych, a jedynie stanowił jedną z filozoficznych koncepcji natury rzeczywistości. Cechy tych mikroskopijnych składników były odmiennie opisywane przez różne szkoły filozoficzne, często uwzględniając ich duchowe właściwości. Istnienie atomów zostało powszechnie zaakceptowane w XVIII wieku, gdy okazało się, że pozwala w elegancki sposób opisać prawa chemii. Najstarsze odniesienia do atomów można znaleźć w pismach poświęconych dźinizmowi napisanych w VI wieku p.n.e. w Indiach. Szkoły filozoficzne Njaja i Waiśeszika opracowały zawiłe teorie, opisujące łączenie się atomów w bardziej złożone obiekty. W cywilizacji zachodniej odniesienia do atomów pojawiły się około sto lat później w pismach Leukipposa i zostały usystematyzowane przez jego ucznia Demokryta. Około 450 roku p.n.e. Demokryt wprowadził słowo átomos (niepodzielny). W latach 50 p.n.e. Lukrecjusz twierdził, iż świat składa się jedynie z atomów i pustki. Choć te koncepcje były czysto filozoficzne, współczesna nauka zaadaptowała tę nazwę. W XIII wieku w alchemii pojawiła się koncepcja korpuskularyzmu. Za jej autora uważa się alchemika podpisującego się Geber. Według tej koncepcji wszystkie fizyczne obiekty posiadają wewnętrzną i zewnętrzną warstwę z mikroskopijnych cząstek. Przypominało to teorię atomizmu, z wyjątkiem odrzucenia koncepcji, że te cząsteczki są niepodzielne. Przykładowo spekulowano, że rtęć może wnikać do wnętrza metali i zmieniać ich wewnętrzną strukturę, co miało umożliwić wytwarzanie złota. Koncepcja ta zdominowała alchemię na następnych kilkaset lat. W 1624 poglądy atomistyczne odnowił Pierre Gassendi w dziele Exercitationes paradoxicae adversus Aristoteleos. W 1661 roku Robert Boyle opublikował traktat The Sceptical Chymist, w którym przekonywał, że materia zbudowana jest z kombinacji wielu różnych korpuskuł zamiast z klasycznych czterech żywiołów (powietrza, ziemi, wody i ognia). Koncepcji tej użył dziesięć lat później Izaak Newton do opracowania korpuskularnej teorii światła. W 1758 atomizm był postulowany również przez Rogera Boscovicha. Początki naukowej teorii atomu Jakob Hermann w 1716 roku w dziele Phoronomia opisał gaz jako składający się z cząsteczek poruszających się z różnymi prędkościami. Powiązał on ciepło gazu z kwadratem średniej prędkości jego cząsteczek. Daniel Bernoulli w 1738 roku opublikował Hydrodynamica, w której m.in. wyłożył podstawy kinetyczno-molekularnej teorii gazów. Wyjaśnił on transportowanie ciepła przez gazy oraz istnienie ciśnienia gazu poprzez oddziaływanie jego cząsteczek z otoczeniem. Wraz z przekształcaniem się chemii w naukę ścisłą nastąpił dalszy rozwój teorii atomów. W 1789 roku Antoine Lavoisier odkrył prawo zachowania masy i zdefiniował pierwiastek chemiczny jako podstawową substancję, która nie może już być rozdzielona metodami chemicznymi. W 1803 roku John Dalton skorzystał z koncepcji atomów do wytłumaczenia, czemu pierwiastki wchodzą w reakcje w stosunkach ilościowych dających się przedstawić w postaci niewielkich liczb naturalnych (prawo stosunków wielokrotnych) i czemu jedne gazy łatwiej się rozpuszczają w wodzie niż inne. Postulował, że każdy pierwiastek składa się z atomów jednego, unikalnego typu i że te atomy mogą się łączyć, tworząc związki chemiczne. Postawienie tych hipotez uczyniło Daltona twórcą współczesnej teorii atomów. Fakty doświadczalne mające w przyszłości stanowić dodatkowe potwierdzenie teorii atomów pojawiły się w 1827 roku, gdy botanik Robert Brown odkrył zjawisko spontanicznego chaotycznego ruchu pyłków kwiatowych zawieszonych w wodzie. Zjawisko to zostało potem nazwane ruchami Browna. Jego wyjaśnienie przez termiczne ruchy cząsteczek wody zasugerował w 1877 roku Joseph Delsaulx, a w 1905 roku Albert Einstein przedstawił jego pełną matematyczną analizę. Fundamentalny wkład do teorii ruchów Browna wniósł w latach 1906–1917 Marian Smoluchowski (tworząc przy okazji nową gałąź fizyki statystycznej określanej obecnie jako procesy stochastyczne). Analiza Einsteina została potwierdzona eksperymentalnie po raz pierwszy już w 1906 roku przez Theodora Svedberga, a Jean Baptiste Perrin wykorzystał teoretyczne prace Einsteina i Smoluchowskiego do eksperymentalnego wyznaczenia mas i „rozmiarów” atomów (1908) potwierdzając ostatecznie teorię Daltona. W 1869 Dmitrij Mendelejew opublikował swój układ okresowy pierwiastków. Układ przedstawiał wizualnie prawo okresowości głoszące, że właściwości chemiczne pierwiastków powtarzają się okresowo, gdy uporządkuje się te pierwiastki zgodnie z ich masami atomowymi. Wewnętrzna struktura i teoria kwantowa W 1897 roku J.J. Thomson, badając promienie katodowe, odkrył elektrony i doszedł do wniosku, że znajdują się one w każdym atomie. Tym samym obalił tezę, że atomy są ostatecznymi, niepodzielnymi elementami materii. Stworzył pierwszy model struktury atomu, w którym ujemnie naładowane elektrony unoszą się w jednorodnej, dodatnio naładowanej kuli. Model ten obalili w 1909 roku Hans Geiger, Ernest Marsden i Ernest Rutherford, gdy bombardując złotą folię cząstkami alfa odkryli, że niewielka część cząstek alfa jest odbijana, co było sprzeczne z przewidywaniami w modelu Thomsona. Na podstawie tych wyników Rutherford stworzył nowy model atomu, w którym dodatni ładunek i większość masy atomu są skupione w niewielkim jądrze w jego centrum, a ujemnie naładowane elektrony krążą wokół jądra. W 1913 roku Frederick Soddy, badając produkty rozpadu promieniotwórczego, odkrył, że atomy każdego pierwiastka mogą występować w kilku odmianach różniących się nieco masą atomową. Określenie izotop (z gr. isos topos – „w tym samym miejscu”) zasugerowała mu szkocka pisarka i lekarz, Margaret Todd (1859–1918). J.J. Thomson opracował technikę segregowania atomów ze względu na ich stosunek masy do ładunku w zjonizowanych gazach, co umożliwiło odkrycie stabilnych izotopów. Jednocześnie w 1913 roku fizyk Niels Bohr zaproponował wyjaśnienie występowania linii spektralnych w widmach emisyjnych pierwiastków przez wprowadzenie hipotezy istnienia zestawu dopuszczalnych orbit, na których mogą krążyć elektrony wokół jądra atomowego. W jego modelu każdy elektron musiał zaabsorbować lub wyemitować foton o określonej energii, żeby przeskoczyć między orbitami. Korzystając z tego modelu, Gilbert Newton Lewis zaproponował w 1916 roku wyjaśnienie istoty wiązań chemicznych jako wymianę i współdzielenie elektronów na najwyższych orbitach atomowych. W 1919 roku Irving Langmuir zaproponował wytłumaczenie okresowości właściwości pierwiastków jako efekt grupowania się elektronów na pewnych orbitach tworzących powłoki elektronowe. W 1922 roku doświadczenie Sterna-Gerlacha pokazało, że kierunek wektora magnetycznego momentu dipolowego atomów jest skwantowany. Specjalnie ukształtowane pole magnetyczne dzieliło strumień przelatujących przez nie atomów srebra na dwie rozdzielone wiązki. Zgodnie z mechaniką klasyczną takie zjawisko nie powinno mieć miejsca, ponieważ moment magnetyczny każdego atomu powinien móc być skierowany w dowolnym kierunku i oddziaływanie z zewnętrznym polem magnetycznym mogło jedynie rozciągnąć strumień atomów w jakimś kierunku. Zamiast tego atomy zostały rozdzielone na dwie grupy, w których wektor momentu magnetycznego skierowany był w górę lub w dół. W 1924 roku Louis de Broglie zaproponował, że wszystkie cząstki mogą zachowywać się jak fale. W 1926 roku Erwin Schrödinger rozwinął tę ideę, przedstawiając matematyczny model atomu, w którym ruch elektronów został opisany funkcjami fal stojących. Konsekwencją opisywania cząstek jako fali było to, że matematycznie niemożliwe stało się jednoczesne określenie ich położenia i pędu, co zostało sformułowane jako zasada nieoznaczoności przez Wernera Heisenberga w 1926 roku. Zgodnie z nią, zwiększając precyzję pomiaru położenia, zmniejsza się jednocześnie precyzję pomiaru pędu i vice versa. Model Schrödingera umożliwił rozwiązanie problemów, które napotykały wcześniejsze modele przy wyjaśnianiu linii spektralnych atomów cięższych od wodoru. Obecnie przyjmuje się go za obowiązujący. Wynalezienie spektrometru mas umożliwiło dokładne zmierzenie bezwzględnych mas atomowych. Urządzenie to wykorzystuje pole magnetyczne do odchylenia trajektorii jonów, a stopień odchylenia zależy od stosunku ładunku jonu do jego masy. Francis William Aston jako pierwszy udowodnił przy jego użyciu, że izotopy mają różne masy i że różnice w ich masach są wielokrotnościami tej samej masy. W 1932 roku fizyk James Chadwick wyjaśnił te różnice odkrywając neutron – elektrycznie obojętną cząstkę podobną do protonu. Izotopy okazały się atomami o tej samej liczbie protonów, ale różniącymi się liczbą neutronów w jądrze. Rozbicie atomu i fizyka materii skondensowanej W 1938 roku niemiecki chemik Otto Hahn skierował strumień neutronów na atomy uranu próbując uzyskać cięższe pierwiastki. Produktem okazał się lżejszy pierwiastek bar. Rok później Lise Meitner i Otto Frisch potwierdzili, że ten eksperyment był pierwszym sztucznie wywołanym rozbiciem jądra atomowego. Po 1950 roku budowa akceleratorów cząstek i detektorów cząstek pozwoliła fizykom badać wyniki zderzeń atomów poruszających się z dużymi prędkościami. Odkryto w ten sposób dziesiątki, a później setki nowych cząstek. Ich strukturę wyjaśnili niezależnie od siebie Gell-Mann i G. Zweig w 1964 roku, wprowadzając pojęcie kwarków. Neutrony i protony okazały się być hadronami – cząsteczkami zbudowanymi z kwarków. Na bazie tego stworzono model standardowy, wyjaśniający strukturę jądra atomowego w oparciu o kwarki i siły, jakim podlegają. Składniki Cząstki subatomowe Mimo że słowo atom pierwotnie oznaczało cząstkę, której nie da się podzielić na mniejsze, współcześnie nazywa się nim strukturę zbudowaną z mniejszych cząstek: elektronów, protonów i neutronów. Jedynie wodór 1H nie zawiera żadnych neutronów, a jego dodatnio naładowany jon nie zawiera też elektronów. Elektron jest najmniej masywną z tych trzech cząstek, z masą 9,11 kg. Posiada ujemny ładunek i rozmiary zbyt małe, aby dało się je określić przy użyciu współczesnych metod. Protony posiadają dodatni ładunek i masę około 1836 razy większą od elektronów: 1,6726 kg. Neutrony nie posiadają ładunku elektrycznego i są około 1839 razy cięższe od elektronu, z masą 1,6929 kg. Masa protonów i neutronów wewnątrz jądra jest pomniejszona o energię wiązania. Neutrony i protony mają podobne średnice, rzędu 2,5 m – jednak z powodu ich wewnętrznej struktury trudno zdefiniować, co jest ich „powierzchnią”. Według modelu standardowego protony i neutrony są zbudowane z kwarków. Kwarki stanowią jedną z podstawowych grup cząstek tworzących materię (drugą są leptony, których przykładem jest elektron). Istnieje sześć typów kwarków, każdy posiadający ułamkowy ładunek elektryczny wynoszący albo +2/3 albo −1/3. Protony są zbudowane z dwóch kwarków górnych (o ładunku +2/3) i jednego kwarku dolnego (o ładunku −1/3). Neutrony są zbudowane z jednego kwarka górnego i dwóch dolnych. Ta różnica odpowiada za różnicę w masach i ładunku tych dwóch cząstek. Kwarki są powiązane ze sobą silnym oddziaływaniem jądrowym, którego nośnikiem są gluony. Gluony są bozonami cechowania – podstawowymi cząstkami przenoszącymi oddziaływania fizyczne. Jądro atomowe Wszystkie protony i neutrony w atomie (nazywane wspólnie nukleonami) skupiają się w jądro atomowe. Średnica jądra atomowego wynosi około  fm, gdzie A oznacza liczbę nukleonów. Jest to około 1/100 000 średnicy całego atomu. Nukleony są związane ze sobą przez siły jądrowe, będące resztkowym przejawem oddziaływania silnego. Na odległościach mniejszych niż 2,5 fm te siły są wielokrotnie silniejsze od odpychania elektrostatycznego pomiędzy dodatnio naładowanymi protonami. Atomy tego samego pierwiastka mają tę samą liczbę protonów, nazywaną liczbą atomową. Liczba neutronów może być różna, w zależności od izotopu tego pierwiastka. Łączna liczba protonów i neutronów określana jest jako liczba masowa. Stabilność jądra zależy od liczby protonów, jak i neutronów w jądrze. Jądra niestabilne ulegają rozpadowi promieniotwórczemu. Zarówno protony, jak i neutrony są fermionami. Reguła Pauliego zabrania identycznym fermionom zajmowania jednocześnie tego samego stanu kwantowego. Dlatego każdy proton w jądrze musi znajdować się w innym stanie kwantowym, podobnie jak każdy neutron. Reguła ta nie zabrania protonowi i neutronowi znajdować się w tym samym stanie, ponieważ są innym typem cząstek. W atomach z małą liczbą protonów (poniżej 20) najstabilniejsze są izotopy, w których liczba protonów i neutronów jest w przybliżeniu równa. Jądro atomu z tej grupy, zawierające znacząco różną liczbę neutronów i protonów, może obniżyć swoją energię przez rozpad radioaktywny prowadzący do zmniejszenia tej różnicy. W miarę wzrostu liczby protonów w jądrze ich odpychanie elektrostatyczne sprawia, że stabilniejsze stają się jądra z nieco większą liczbą neutronów. Jądra wszystkich atomów cięższych od wapnia (20 protonów), których liczba neutronów jest równa liczbie protonów, są niestabilne. Z dalszym wzrostem liczby protonów optymalny stosunek liczby neutronów do protonów rośnie, osiągając około 1,5 dla najcięższych jąder. Najcięższym trwałym atomem jest ołów, którego izotop 208Pb zawiera 82 protony i 126 neutronów. Do roku 2003 za najcięższy trwały atom uważano bizmut (izotop 209Bi), który jednak, zgodnie z przewidywaniami teoretycznymi, ostatecznie okazał się niestabilny. W wyniku zderzeń jąder atomowych może dojść do utworzenia nowych jąder, ale doprowadzenie do takiej reakcji wymaga często bardzo wysokich energii. Fuzja jądrowa zachodzi, gdy lżejsze jądra łączą się w cięższe. Przykładowo protony muszą zderzyć się z energią 3–10 keV, aby przezwyciężyć wzajemne odpychanie i zbliżyć się na tyle, żeby połączyć się w jądro deuteru. Rozszczepienie jądra atomowego to odwrotny proces, w którym ciężkie jądro rozpada się na dwa lżejsze. Jądro może też zostać zmodyfikowane w wyniku zderzenia z wysokoenergetyczną cząstką lub fotonem – które zmieni proton w neutron lub na odwrót. Jeśli masa powstałego jądra i emitowanych cząstek jest mniejsza niż masa substratów, różnica zostanie wyemitowana w postaci promieniowania gamma lub energii kinetycznej produktów, zgodnie ze wzorem na równoważność masy i energii E = mc2. Różnica mas wynika z energii wiązania w jądrze i jej utrata sprawia, że powstałe jądro jest stabilne – aby się rozpaść, musi otrzymać tę energię z otoczenia. Fuzja, w której powstaje jądro lżejsze od żelaza – o liczbie nukleonów mniejszej niż 60 – powoduje zwykle wyemitowanie większej ilości energii niż jest potrzebna do jej wywołania. Ta energia napędza reakcję termojądrową we wnętrzu gwiazd. Dla jąder cięższych od jądra żelaza energia wiązania w przeliczeniu na nukleon zaczyna spadać. Oznacza to, że fuzja takich jąder zużywa energię i nie może podtrzymać równowagi hydrostatycznej w gwiazdach. Powłoki elektronowe Elektrony w atomie są przyciągane siłami elektrycznymi przez protony w jądrze. To oddziaływanie tworzy studnię potencjału wokół jądra, z której uwolnienie wymaga dostarczenia elektronom energii z zewnątrz. Im bliżej jądra znajduje się elektron, tym silniej jest przyciągany i wzrasta energia konieczna do jego oderwania od atomu. Zgodnie z mechaniką kwantową, elektrony (tak jak wszystkie cząstki) są jednocześnie cząstkami i falami. Każdy elektron można opisać funkcją matematyczną określającą prawdopodobieństwo znalezienia elektronu w określonym obszarze. Dla elektronu w studni potencjału, funkcja ta jest funkcją fali stojącej i jest nazywana orbitalem. Zbiór orbitali posiadających podobny poziom energetyczny nazywany jest powłoką elektronową, a łącznie wszystkie powłoki – chmurą elektronową. Istnieje określony, niewielki zbiór stabilnych orbitali wokół jądra a wszystkie pozostałe, które są teoretycznie możliwe, szybko rozpadałyby się na orbitale z tego zbioru. Te stabilne orbitale różnią się między sobą kształtami oraz wielkością i orientacją obszaru, który określają. Każdemu orbitalowi przypisany jest jego poziom energetyczny. Elektron może znaleźć się na wyższym poziomie energetycznym pochłaniając foton o odpowiedniej energii lub otrzymując tę energię ze zderzenia z innym atomem lub cząstką. Odwrotnie – elektron z wyższego poziomu może przenieść się na niższy. Powstający w ten sposób nadmiar energii jest unoszony przez emitowany foton (zjawisko to nazywamy emisją spontaniczną) lub przejmowany przez inny atom (przejście bezpromieniste). Charakterystyczne wartości tych energii, będące różnicami energii poszczególnych orbitali, odpowiadają za występowanie linii spektralnych w widmach liniowych poszczególnych pierwiastków. Energia potrzebna na oderwanie bądź przyłączenie elektronu – energia wiązania elektronu – jest o wiele mniejsza niż energia wiązania nukleonów. Potrzeba około 13,6 eV, aby oddzielić elektron w stanie podstawowym od jądra atomu wodoru, podczas gdy wyrwanie nukleonu z jądra deuteru wymaga 2,23 milionów eV. Jeśli atom ma tę samą liczbę protonów i elektronów, jest elektrycznie obojętny. Atomy mające nadmiar lub niedomiar elektronów nazywane są jonami. Elektrony na orbitalach najdalszych od jądra mogą przenosić się na inne atomy bądź tworzyć orbitale wokół dwóch i więcej atomów jednocześnie. W ten sposób atomy tworzą wiązania chemiczne między sobą, łącząc się w związki chemiczne. Właściwości Właściwości jądrowe Z definicji dwa atomy o identycznej liczbie protonów w jądrze są atomami tego samego pierwiastka. Jeśli różnią się liczbą neutronów, stanowią różne izotopy tego pierwiastka. Przykładowo atomy wodoru posiadają zawsze jeden proton, ale mogą nie posiadać żadnego neutronu (prot), posiadać jeden (deuter), dwa (tryt) lub nawet więcej neutronów. 99,98% atomów wodoru w przyrodzie należy do pierwszego izotopu (bez neutronów). Lista znanych obecnie pierwiastków obejmuje liczby atomowe od 1 (wodór) do 118 (oganeson). Jądra o określonej liczbie protonów i neutronów określane są jako nuklidy. Wszystkie znane nuklidy mające więcej niż 82 protony w jądrze są radioaktywne. Na Ziemi naturalnie występuje około 339 różnych nuklidów, z czego 227 (około 67%) jest stabilnych i nie ulega radioaktywnemu rozpadowi. Jednak jedynie 90 z nich nie ma teoretycznej możliwości rozpadu, pozostałe 137 taką możliwość wedle współczesnej wiedzy posiadają, ale nigdy takiego rozpadu nie zaobserwowano. Oprócz tych 227 stabilnych nuklidów u kolejnych 30 potwierdzono radioaktywny rozpad, ale czas tego rozpadu jest zbyt duży, aby dało się go wyznaczyć eksperymentalnie. Kolejnych 31 ma czas połowicznego rozpadu przekraczający 80 milionów lat, dzięki czemu ich resztki dotrwały do dzisiejszych czasów od początków istnienia Układu Słonecznego. Daje to w sumie 288 tzw. pierwotnych nuklidów, istniejących na Ziemi od jej początków. Ostatnie 51 istniejących na Ziemi naturalnie nuklidów to produkty rozpadu cięższych nuklidów (jak np. rad powstający z rozpadu uranu) i produkty naturalnych reakcji jądrowych (jak 14C produkowany w górnych warstwach atmosfery pod wpływem promieniowania kosmicznego). 80 pierwiastków chemicznych posiada stabilne izotopy. Nie mają ich pierwiastki o liczbie atomowej 43 (technet), 61 (promet) i wszystkie o liczbach atomowych większych od 82 (ołów). Pozostałe posiadają średnio po około 3 stabilne izotopy. 27 pierwiastków ma tylko jeden stabilny izotop. Największą liczbę stabilnych izotopów (10) ma cyna. Stabilność izotopów zależy od proporcji protonów i neutronów oraz od tego czy ich liczba jest równa jednej z tzw. liczb magicznych. W modelu powłokowym struktury jądra atomowego, liczby magiczne odpowiadają maksymalnej pojemności kolejnych jego poziomów energetycznych. Część liczb magicznych dotyczy obu nukleonów, a część odnosi się tylko do jednego z ich rodzajów. Przykładowo, jądro cyny zawiera 50 protonów, która jest liczbą magiczną dla obu nukleonów, dlatego cyna posiada wyjątkowo dużo trwałych izotopów. Wśród znanych 256 stabilnych nuklidów tylko 4 mają nieparzyste liczby zarówno protonów, jak i neutronów: wodór-2, lit-6, bor-10 i azot-14. Większość jąder o nieparzystej liczbie protonów i neutronów w bardzo krótkim czasie ulega rozpadowi beta, tworząc jądro o parzystej liczbie protonów i neutronów, zwykle znacznie stabilniejsze (patrz model kroplowy). Masa Protony i neutrony odpowiadają za ponad 99,9% masy atomu, a ich masa jest w przybliżeniu taka sama. Dlatego sumaryczna liczba protonów i neutronów nazywana jest liczbą masową. Masa spoczynkowa atomów wyrażana jest często w jednostkach atomowych (u), zdefiniowanych jako 1/12 masy atomu 12C, czyli około 1,66 kg. W tych jednostkach masa każdego atomu jest w przybliżeniu równa jego liczbie masowej. Przykładowo masa atomu 1H wynosi 1,007825 u. Najcięższy stabilny atom to 208Pb, którego masa wynosi 207,976652481 u. Ponieważ w chemii używa się makroskopowych ilości atomów, chemicy używają dodatkowej jednostki: mola. Jeden mol to około 6,022 cząstek. Liczba ta została dobrana w ten sposób, żeby mol atomów o liczbie masowej 1 miał masę zbliżoną do 1 grama. Ze względu na to, że dokładny pomiar liczby atomów w 1 gramie wodoru-1 jest problematyczny, za podstawę skali względnej masy atomowej przyjęto założenie, że 1 mol to taka liczba atomów, jaka znajduje się w 12 gramach izotopu węgla-12. Powiązanie definicji mola i standardowej jednostki atomowej (u) poprzez odniesienie do izotopu węgla-12 nie jest przypadkowe, lecz wynika z wieloletnich konsultacji i dyskusji w ramach IUPAC, IUPAP i Międzynarodowego Komitetu Miar i Wag. Kształt i wielkość Atomy nie mają dokładnie określonych granic, ich rozmiary są określane w sposób umowny, na podstawie odległości pomiędzy sąsiednimi jądrami atomów (promień kowalencyjny), z którymi tworzą wiązania chemiczne. Odpowiada to zwykle średniej odległości, na jakiej znajdują się elektrony na najdalszej powłoce. Tak zdefiniowane rozmiary zależą jednak od rodzaju wiązań chemicznych, liczby sąsiadów i od ich spinu. W układzie okresowym średnice atomów wewnątrz każdej grupy rosną wraz z liczbą obsadzonych powłok, jednak maleją wewnątrz okresu wraz ze zwiększeniem liczby protonów (ponieważ jądro przyciąga elektrony mocniej i rozmiary powłok maleją). Dlatego najmniejszą średnicę ma hel – około 62 pm, a największą cez – około 520 pm. Przyjmuje się, że w pustej przestrzeni atomy w stanie podstawowym mają kształt kuli. Pod wpływem pól elektrycznych te kształty mogą się jednak zmieniać. Stopień odkształcenia zależy od siły pola i typu zewnętrznej powłoki elektronowej atomu. W szczególności atomy tworzące kryształy mogą mieć kształty znacznie odbiegające od sfery z powodu silnych pól wytwarzanych przez atomy rozłożone wokół nich. Ponieważ rozmiary atomów są tysiące razy mniejsze od długości fali światła widzialnego (400–700 nm), nie można dostrzec pojedynczych atomów za pomocą mikroskopu optycznego. Pierwszym urządzeniem, które umożliwiło wizualizację pojedynczych atomów i ich rozmieszczenia, był polowy mikroskop jonowy, jednak jego użyteczność była ograniczona. Później uzyskano możliwość obrazowania atomów za pomocą skaningowej mikroskopii elektronowej i wysokonapięciowej mikroskopii elektronowej, natomiast skaningowy mikroskop tunelowy umożliwił również manipulację pojedynczymi atomami. Wielkość atomów można opisać obrazowo na przykładach makroskopowych: ludzki włos ma średnicę około miliona atomów węgla, kropla wody zawiera około 2 tryliardy (2) atomów tlenu i dwa razy więcej atomów wodoru. Gdyby powiększyć jabłko do rozmiarów Ziemi, to atomy jabłka miałyby rozmiary mniej więcej jabłka. Rozpad radioaktywny Każdy pierwiastek ma nietrwałe izotopy, które ulegają rozpadowi radioaktywnemu. W trakcie takiego rozpadu jądro emituje cząstki, czemu może towarzyszyć promieniowanie elektromagnetyczne. Szczególnie podatne na taki rozpad są jądra o dużej wielkości w stosunku do zasięgu oddziaływania silnego – około 1 fm. Najbardziej powszechne typy rozpadów radioaktywnych to: Rozpad alfa – polegający na emisji cząstki alfa, czyli jądra helu, składającego się z dwóch protonów i dwóch neutronów. W jego wyniku liczba masowa jądra maleje o 4. Rozpad beta – wywoływany przez oddziaływanie słabe, polegający na przekształceniu neutronu znajdującego się w jądrze w proton albo (rzadko) protonu w neutron. W pierwszym przypadku emitowany jest elektron i antyneutrino (rozpad β−), w drugim przypadku pozyton i neutrino (rozpad β+). Elektron i pozyton nazywane są cząstkami beta. Taki rozpad zwiększa (β−) albo zmniejsza (β+) liczbę atomową jądra, nie zmieniając jego liczby masowej. Rozpad β+ zachodzi tylko w sztucznie wytworzonych jądrach z nadmiarem protonów, np. . Emisja gamma – polegająca na emisji promieniowania gamma w wyniku przejścia nukleonu na niższy poziom energetyczny w jądrze. Taki rozpad nie zmienia liczby atomowej ani masowej jądra. Zwykle następuje po rozpadzie alfa albo beta, po którym jądro pozostało w stanie wzbudzonym. Rozpady α i β− kolejnych izotopów promieniotwórczych grupują się w 4 szeregi promieniotwórcze, kończące się trwałymi izotopami ołowiu (szeregi 1–3) lub praktycznie trwałym izotopem bizmutu-209 (szereg 4). Rzadziej występujące typy rozpadów radioaktywnych to m.in. emisja neutronu, emisja protonu albo ich grupy z jądra, emisja wysokoenergetycznego elektronu w wyniku konwersji wewnętrznej i emisja promieniowania elektromagnetycznego nie będącego promieniami gamma. Rozpad radioaktywny jest procesem, którego wystąpienie jest losowe, i nie da się przewidzieć, w jakim momencie dany atom ulegnie rozpadowi. Można natomiast określić prawdopodobieństwo rozpadu w określonym czasie. Jest ono niemal niezależne od czynników zewnętrznych, w tym i od wielkości próbki, dlatego dla każdego nietrwałego jądra można określić charakterystyczny czas połowicznego rozpadu – czas, po jakim połowa jąder z próbki ulegnie rozpadowi. Rozpad jest wykładniczy, co oznacza, że po upływie dwukrotności tego czasu pozostaje 1/4 jąder, po trzykrotności 1/8 itd. Moment magnetyczny Cząstki elementarne mają kwantową cechę nazywaną spinem. Ma ona podobne cechy jak moment pędu obiektu wirującego wokół swojego środka masy, choć cząstki elementarne wedle współczesnej wiedzy nie obracają się. Spin wyraża się w jednostkach stałej Diraca (ħ). Elektrony, protony i neutrony mają spin ½ ħ. W atomie elektrony mają także moment pędu wynikający z ich ruchu wokół jądra, a nukleony wynikający z ich krążenia w jądrze. Pole magnetyczne wytwarzane przez atom – jego moment magnetyczny – wynika z sumy momentów pędu. Główną rolę odgrywa jednak spin. Ponieważ reguła Pauliego zabrania dwóm cząstkom znajdować się w identycznym stanie kwantowym, na każdym poziomie energetycznym znajdują się zwykle dwie cząstki o przeciwnie skierowanych spinach. W ten sposób, jeśli liczba atomowa jest parzysta, wszystkie spiny w atomie mogą się nawzajem znosić, tworząc atom o zerowym momencie magnetycznym. W ferromagnetykach takich jak żelazo nieparzysta liczba elektronów oznacza, że w każdym atomie jeden elektron pozostaje niesparowany. Ponieważ orbitale tych elektronów w sąsiednich atomach nakładają się na siebie, energetycznie niższy stan jest osiągany, gdy te niesparowane elektrony mają tak samo skierowane spiny. W ten sposób wszystkie niesparowane elektrony mogą uzyskać tak samo skierowany spin, co wytwarza makroskopowe pole magnetyczne. W paramagnetykach spiny sąsiednich atomów nie układają się same w jednym kierunku, ale zewnętrzne pole magnetyczne może wymusić przyjęcie jednej orientacji, co również prowadzi do wytworzenia makroskopowego pola. Właściwości atomów zawierających niesparowane elektrony można badać za pomocą spektroskopii elektronowego rezonansu paramagnetycznego (EPR). Jądra atomowe również mogą zawierać niesparowane nukleony i w efekcie niezerowy spin (np. 1H i 2H, 13C, 15N, 17O, 19F, 23Na i 31P). Zwykle takie spiny są skierowane w losowych kierunkach i nie wytwarzają efektów makroskopowych. W zewnętrznym polu magnetycznym jądra atomów o niezerowym spinie ulegają jednak polaryzacji magnetycznej, a przejścia między dozwolonymi poziomami energetycznymi da się rejestrować, co jest podstawą spektroskopii magnetycznego rezonansu jądrowego (NMR), obrazowania rezonansem magnetycznym (MRI) i innych technik magnetycznego rezonansu jądrowego. Poziomy energetyczne Energia potencjalna elektronów związanych w atomie jest odwrotnie proporcjonalna do ich odległości od jądra. Można ją zmierzyć przez określenie energii, jaka jest potrzebna do oderwania tych elektronów od atomu. Zwykle wyraża się ją w elektronowoltach (eV). Zgodnie z mechaniką kwantową, elektron związany w atomie musi znajdować się w jednym z określonych z góry stanów, którym odpowiadają określone poziomy energetyczne. Najniższy poziom energetyczny nazywany jest stanem podstawowym, a pozostałe stanami wzbudzonymi. Aby przejść pomiędzy stanami, elektron musi pochłonąć lub wyemitować foton o energii odpowiadającej różnicy pomiędzy energią potencjalną tych stanów. Energia fotonu określa jego częstotliwość, dlatego te energie mają wyznaczone miejsca w widmie elektromagnetycznym. Każdy pierwiastek ma charakterystyczne widmo, określone przez ładunek jądra, wypełnienie poszczególnych powłok elektronami i oddziaływania pomiędzy elektronami. Gdy światło o ciągłym widmie przechodzi przez gaz lub plazmę, niektóre fotony zostają pochłonięte przez atomy, wywołując przejścia elektronów między poziomami energetycznymi. Wzbudzone tak elektrony po jakimś czasie wracają do swojego poprzedniego stanu, emitując fotony w losowych kierunkach. W ten sposób atomy działają jak filtry, tworząc ciemne linie absorpcyjne w widmie przechodzącego przez nie światła. Z kolei obserwując te same atomy z innego kierunku i nie widząc przechodzącego przez nie światła, można zobaczyć tylko światło wyemitowane przez atomy – tzw. linie emisyjne. Spektroskopia wykorzystuje te zjawiska do badania składu chemicznego różnych substancji. Wysokorozdzielcza analiza linii widmowych ujawnia, że niektóre z nich w rzeczywistości składają się z kilku blisko położonych linii. Wynika to z oddziaływania spinowych i orbitalnych momentów magnetycznych elektronów. Zewnętrzne pole magnetyczne może spowodować dalsze rozdzielenie linii widmowych – znane jest to jako efekt Zeemana. Wynika on z tego, że orbitale, które w przypadku braku zewnętrznego pola mają takie same poziomy energetyczne, mogą się różnić energiami, gdy pojawi się takie pole. Podobnie przyłożenie zewnętrznego pola elektrycznego może zmienić poziomy energetyczne orbitali i wywołać rozszczepienie linii widmowych. Zjawisko to nazywane jest efektem Starka. Jeśli elektron jest w stanie wzbudzonym, oddziaływanie z fotonem o odpowiedniej energii może wymusić na nim przejście do niższego stanu i emisję fotonu, który będzie miał kierunek i fazę identyczną jak foton wymuszający. Zjawisko to umożliwia stworzenie laserów, tworzących spójną wiązkę światła o wąskim przedziale częstotliwości. Wiązania i reakcje chemiczne Elektrony znajdujące się na najdalszej powłoce w atomie nazywane są walencyjnymi, a ich powłoka – walencyjną. Liczba takich elektronów determinuje właściwości chemiczne atomów. Atomy, w których powłoka walencyjna nie jest w pełni wypełniona, łatwo oddziałują z innymi atomami, tak aby uzupełnić (lub opróżnić) tę powłokę. Odbywa się to poprzez reakcje chemiczne, czyli procesy tworzenia i zrywania wiązań chemicznych. Wiązania powstają w efekcie uwspólniania elektronów przez dwa lub więcej atomów (wiązanie kowalencyjne) albo na skutek przeniesienia elektronów z jednego atomu na drugi (wiązanie jonowe). W pierwszym przypadku współdzielone elektrony tworzą jedną, wspólną chmurę wokół połączonych atomów, a w drugim atomy łączą się w pary jonowe, przyciągane do siebie oddziaływaniem elektrostatycznym. O typie wiązania decyduje różnica elektroujemności atomów. Pierwiastki chemiczne zwykle przedstawia się w układzie okresowym, podkreślającym podobieństwo właściwości chemicznych pierwiastków o tej samej liczbie elektronów walencyjnych (znajdujących się w jednej grupie). Ostatnia grupa zawiera pierwiastki, w których powłoka walencyjna jest całkowicie zapełniona elektronami. Są one niemal całkowicie niereaktywne chemicznie i nazywa się je gazami szlachetnymi. Stany Grupy atomów mogą znajdować się w różnych stanach skupienia, w zależności od warunków takich jak temperatura i ciśnienie. Zmieniając te warunki, można wywoływać przejścia między stanem stałym, ciekłym, gazowym i plazmą. W jednym stanie skupienia mogą istnieć różne stany fazowe. Przykładowo węgiel w postaci stałej ma kilka odmian alotropowych, jak np. grafit czy diament. W temperaturach bliskich zera bezwzględnego niektóre atomy mogą tworzyć kondensat Bosego-Einsteina, w którym wszystkie zachowują się jak jeden superatom. Ich kwantowe własności mogą być wtedy obserwowane w skali makroskopowej. Techniki analizy i obrazowania Skaningowy mikroskop tunelowy umożliwia oglądanie powierzchni w skali atomowej. Wykorzystuje on zjawisko tunelowe, pozwalające elektronom na pokonywanie próżni pomiędzy badaną próbką a elektrodą. Powstaje w ten sposób mierzalny prąd elektryczny. Przesuwając elektrodę nad próbką i kontrolując jej odległość od próbki tak, aby natężenie prądu było stałe, uzyskuje się trójwymiarowy obraz powierzchni. Obraz ten w przybliżeniu odpowiada wielkości orbitali elektronowych na zapełnionych powłokach w atomach próbki. Innym rodzajem mikroskopii na poziomie atomowym jest mikroskopia sił atomowych, która działa na zasadzie przemiatania ostrza nad lub pod powierzchnią próbki i pomiarze sił działających na to ostrze. W odpowiednich warunkach technika ta pozwala na rejestrację pojedynczych atomów na powierzchni próbki. Atomy mogą ulegać jonizacji, tracąc lub przyłączając elektrony. Uzyskują wtedy ładunek elektryczny i można nimi sterować za pomocą pola elektrycznego i magnetycznego. W polu magnetycznym jony poruszają się po okręgach o promieniu zależnym od ich masy i ładunku, ale niezależnym od prędkości. Spektrometria mas wykorzystuje to do identyfikacji izotopów i składów pierwiastkowych cząsteczek. Jeśli badana próbka zawiera atomy różnych izotopów, spektrometr pozwala na rozdzielenie ich i określenie procentowej ich zawartości. Metoda ta umożliwia jedynie określenie ilości poszczególnych atomów w próbce, bez możliwości określenia miejsca atomu w cząsteczce. Do uzyskiwania informacji o położeniu różnych atomów w jakiejś strukturze służy spektroskopia strat energii elektronów (EELS). W technice tej wykorzystuje się elektronowy mikroskop transmisyjny do przepuszczania elektronów przez próbkę. Następnie mierzy się straty energii tych elektronów, wynikające z wybijania elektronów i wzbudzania drgań sieci krystalicznej próbki. Metoda ta pozwala na uzyskiwanie nanometrowej rozdzielczości i na trójwymiarowe obrazowanie przemieszczeń atomów w czasie femtosekund. Ułożenie atomów w sieci krystalicznej można określić poprzez analizę dyfrakcji promieniowania rentgenowskiego za pomocą technik rentgenografii strukturalnej. Uzyskane trójwymiarowe mapy gęstości elektronowych pozwalają m.in. na ustalenie struktur badanych cząsteczek, długości wiązań chemicznych i kątów między nimi. Widma stanów wzbudzonych umożliwiają analizę składu chemicznego odległych gwiazd. Zestaw częstotliwości występujący w tych widmach można porównywać z częstotliwościami wytwarzanymi przez odpowiednią mieszaninę gazów w lampach wyładowczych. W ten sposób pierwiastek hel został odkryty w Słońcu 23 lata przed zaobserwowaniem go na Ziemi. Drgania atomów w cząsteczkach chemicznych można analizować za pomocą spektroskopii w podczerwieni i spektroskopii Ramana, a przejścia elektronowe między dozwolonymi poziomami energetycznymi za pomocą spektroskopii w ultrafiolecie i świetle widzialnym. Do badania właściwości magnetycznych atomów stosowane są: spektroskopia elektronowego rezonansu paramagnetycznego (EPR), spektroskopia magnetycznego rezonansu jądrowego (NMR) i spektroskopia jądrowego rezonansu kwadrupolowego (NQR). Pochodzenie i stan obecny Atomy stanowią około 4% całkowitej masy-energii obserwowanego Wszechświata, występując ze średnią gęstością około 0,25 atomu/m³. Wewnątrz galaktyk, takich jak Droga Mleczna, atomy występują o wiele gęściej, od 105 do 109 atomów/m³ w ośrodku międzygwiazdowym. Słońce znajduje się wewnątrz Bąbla Lokalnego – pustki w ośrodku międzygwiazdowym, stworzonej przez supernową, która wybuchła 2–4 miliony lat temu. Wewnątrz tego bąbla gęstość wynosi około 10³ atomów/m³. Gęstsze obszary w ośrodku międzygwiazdowym mogą grawitacyjnie zapadać się, tworząc gwiazdy. Procesy zachodzące w gwiazdach z upływem czasu zwiększają ilość pierwiastków cięższych od wodoru i helu. Około 95% atomów w Drodze Mlecznej znajduje się wewnątrz gwiazd, a ich całkowita masa odpowiada za około 10% masy galaktyki (za resztę odpowiada ciemna materia). Nukleosynteza Zgodnie z teorią Wielkiego Wybuchu protony i neutrony uformowały się około jednej sekundy po powstaniu Wszechświata. W ciągu kolejnych trzech minut w wyniku pierwotnej nukleosyntezy powstała większość helu, litu i deuteru we Wszechświecie oraz prawdopodobnie część berylu i boru. Pierwsze atomy (ze związanymi elektronami) pojawiły się około 380 tysięcy lat później, w epoce rekombinacji, gdy energia promieniowania wypełniającego przestrzeń zmalała poniżej energii jonizacji atomów. Cięższe jądra atomowe (do żelaza) zaczęły powstawać w wyniku fuzji jądrowej we wnętrzu gwiazd kilkaset milionów lat później. Niektóre izotopy, takie jak lit-6, powstawały później w wyniku spalacji wywoływanej przez promieniowanie kosmiczne. Pierwiastki cięższe od żelaza powstawały w wyniku eksplozji supernowych poprzez proces r oraz we wnętrzu gwiazd AGB poprzez proces s. Oba te procesy polegają na wychwytywaniu neutronów przez jądra atomowe. Pierwiastki takie jak ołów powstały głównie w wyniku radioaktywnego rozpadu cięższych pierwiastków. Ziemia Większość atomów, z których składa się Ziemia i jej mieszkańcy, nie zmieniła swych jąder od czasu ich powstania, czyli wcześniej niż mgławica, z której powstał Układ Słoneczny, zaczęła się zapadać. Niewielka liczba nowych atomów powstała w wyniku rozpadów radioaktywnych, a stosunek ich zawartości obecnie pozwala określić wiek Ziemi na podstawie datowania izotopowego. Większość helu w skorupie Ziemi (około 99% znajdowanego w złożach gazów, jak wynika z niskiej zawartości 3He) powstała jako cząstki alfa w rozpadzie alfa. Istnieje kilka pierwiastków śladowych, które nie były obecne na Ziemi na jej początku, ani nie są produktami rozpadów cięższych pierwiastków. Przykładowo 14C powstaje w sposób ciągły w górnych warstwach atmosfery w wyniku zderzeń niskoenergetycznych neutronów z jądrami azotu. Pewna liczba nowych atomów została wytworzona sztucznie w reaktorach i wybuchach jądrowych. Wśród transuranowców (pierwiastków o liczbie atomowej powyżej 92) tylko pluton i neptun występują naturalnie na Ziemi. Mają one czasy połowicznego rozpadu wielokrotnie mniejsze od czasu istnienia Ziemi, dlatego nieokreślone ich ilości mogły się w przeszłości rozpaść na lżejsze pierwiastki. Naturalnie występujące jądra plutonu i neptunu powstały w wyniku wychwytu neutronu przez jądra uranu. Ziemia zbudowana jest z około 1,33 atomów, głównie z atomów żelaza (35% masy), tlenu (30%), krzemu (15%) i magnezu (12%). Atmosfera ziemska składa się głównie z azotu (N2), tlenu (O2), pary wodnej (H2O), argonu (Ar) i dwutlenku węgla (CO2). Na powierzchni Ziemi atomy tworzą wiele cząsteczek chemicznych, począwszy od prostych, jak woda, sole i tlenki, do bardzo złożonych, takich jak białka. Atomy tworzą też substancje nie zbudowane z sumy oddzielnych cząsteczek chemicznych, lecz tworzące struktury ciągłe, w których nie da się wydzielić poszczególnych cząsteczek – metale, niektóre kryształy nieorganiczne, szkła i wiele innych. Rzadkie i teoretyczne atomy Choć wszystkie nuklidy o liczbie atomowej większej niż 82 (ołów) są radioaktywne, teoretyczne modele przewidują istnienie „wyspy stabilności” – zbioru pierwiastków o liczbach atomowych powyżej 103, które miałyby stosunkowo stabilne izotopy. Najbardziej stabilnym pierwiastkiem w tym zbiorze miałby być niezsyntetyzowany dotychczas unbiheks, o 126 protonach i 184 neutronach w jądrze. Układy cząstek podobne do atomów Atomy egzotyczne Sztucznie wytworzono też pewne egzotyczne atomy, w których proton, neutron albo elektron zastąpiono inną cząstką o takim samym ładunku. Przykładowo zastępując w atomie wodoru elektron przez mion uzyskuje się atom mionowy, zaś zastępując proton przez antymion (mion dodatni) uzyskuje się mionium. Atom, w którym zwykłe jądro atomowe zostało zastąpione przez hiperjądro, nazywa się hiperatomem. Hiperjądra zawierają oprócz protonów i neutronów także cięższe bariony, zwane hiperonami. Takie jądra mają zwykle czas życia rzędu 10−10 s i mniejszy, jednak wystarczająco długi, aby można je było obserwować. Znane są jądra zawierające hiperon Λ0 i Σ−. Jeszcze innym rodzajem cząstki jest pozytonium (oznaczane symbolem Ps), układ związany złożony z pozytonu i elektronu. Posiada ono szereg stanów energetycznych podobnych do atomu wodoru, ale ze względu na znacznie niższą masę częstości przejść między stanami energetycznymi są o ponad połowę mniejsze (stan podstawowy ma energię −6,8 eV). Pozytonium ulega anihilacji, ale w 2007 roku dowiedziono eksperymentalnie, że jest zdolne utworzyć molekułę „dwuatomową” Ps2. Antyatomy Każdy fermion posiada odpowiadającą jej antycząstkę o przeciwnym ładunku. Ponieważ takie antycząstki anihilują w zetknięciu ze zwykłą materią, nie obserwuje się ich w przyrodzie. Jednak w 1996 roku udało się sztucznie wytworzyć kilka atomów antywodoru w laboratorium CERN. Dopiero w 2010 roku spułapkowano wytworzone atomy antywodoru, w 2012 roku zaproponowano metodę chłodzenia atomów antywodoru do temperatur rzędu milikelwinów. Uwagi Przypisy Linki zewnętrzne Podstawowe informacje o budowie atomu
8
https://pl.wikipedia.org/wiki/Aksjomat
Aksjomat
Aksjomat, postulat, pewnik (gr. axíōma, godność, pewność, oczywistość) – jedno z podstawowych pojęć logiki matematycznej. Od czasów Euklidesa uznawano, że aksjomaty to zdania przyjmowane za prawdziwe, których nie dowodzi się w obrębie danej teorii matematycznej. We współczesnej matematyce definicja aksjomatu jest nieco inna: Aksjomaty są zdaniami wyodrębnionymi spośród wszystkich twierdzeń danej teorii, wybranymi tak, aby wynikały z nich wszystkie pozostałe twierdzenia tej teorii. Taki układ aksjomatów nazywany jest aksjomatyką. Zbiór aksjomatów i ich konsekwencji to system aksjomatyczny. Wyjaśnienie pojęcia aksjomatu Matematyka jest zbiorem różnych teorii (geometria euklidesowa, arytmetyka). Każda z nich operuje na specyficznym dla siebie zasobie pojęć. Matematycy mówią, że dana teoria jest wyrażona w języku opartym na określonym alfabecie. Przykład: elementami alfabetu geometrii (termami geometrii) mogą być: symbol relacyjny Jeśli jest prawdą, będziemy mówili, że to punkt. symbol relacyjny Jeśli jest prawdą, będziemy mówili, że to prosta. symbol relacyjny Jeśli jest prawdą, będziemy mówili, że punkt leży na prostej We wcześniejszych ujęciach logiki matematycznej mówiło się, że punkt, prosta i relacja „punkt leży na prostej” są pojęciami pierwotnymi geometrii. Obecnie takie sformułowanie spotyka się coraz rzadziej. Elementów tego alfabetu nie definiuje się formalnie podczas konstrukcji danej teorii. W danym przypadku trzeba tylko wiedzieć, że dla dowolnego rozważanego obiektu każdy z symboli relacyjnych może być prawdą lub fałszem. Konkretny sens jest im nadawany dopiero w procesie tworzenia modelu teorii, o czym dalej. Teoria w logice jest zbiorem twierdzeń opisujących pewne relacje między jej pojęciami. Formalnie są to formuły zdaniowe, zapisywane w języku danej teorii z użyciem symboli jej języka i dodatkowo symboli logicznych, w tym kwantyfikatorów. Przykład: twierdzenie geometryczne „Przez dwa dowolne punkty można przeprowadzić prostą” formalnie da się zapisać następująco: czyli: Jeśli i są punktami, to istnieje taka prosta że oraz leżą na Niektóre z tych twierdzeń można wyprowadzić z innych twierdzeń danej teorii. Dowodząc jakiegoś twierdzenia, należy oprzeć dowód na innych twierdzeniach, które z kolei także należałoby udowodnić i tak dalej. Jeśli więc jakikolwiek dowód ma mieć skończoną długość, potrzeba jakichś zdań, których prawdziwość da się przyjąć bez dowodu. Takie zdania nazywane są aksjomatami, a ich zbiór aksjomatyką. Dana teoria może być zaksjomatyzowana na wiele różnych sposobów; przykładem jest tu geometria euklidesowa, dla której oprócz aksjomatów Euklidesa istnieje też aksjomatyka Hilberta i von Neumanna. Te dwie ostatnie są sobie równoważne, to znaczy każdą można wyprowadzić z tej drugiej. Aksjomatyka Euklidesa jest uboższa od nich, właściwie nie opisuje pełnej teorii geometrii euklidesowej, a jedynie jej podzbiór. Przykładem twierdzenia geometrycznego niedającego się wyprowadzić z aksjomatów Euklidesa jest twierdzenie Pappusa-Pascala. Formalnie aksjomatem może być dowolna niesprzeczna wewnętrznie formuła zdaniowa wyrażona w języku danej teorii. Wszelkie stosowane w praktyce aksjomaty są jednak zdaniami zawsze prawdziwymi w obrębie danej teorii (tautologiami), są wzajemnie niesprzeczne i odpowiadają również węższym definicjom podanym w poprzednim akapicie i na początku artykułu. Zwykle aksjomatyka jest też kategoryczna. Powody ku temu zostaną wyjaśnione w dalszej części artykułu. Modelowanie Z teoriami matematycznymi związane są tzw. modele tych teorii. Stworzenie modelu oznacza określenie (zinterpretowanie) każdego z symboli języka danej teorii za pomocą symboli języka innej teorii. Przykład: dla dwuwymiarowej geometrii euklidesowej typowym modelem jest przestrzeń kartezjańska oparta na aksjomatach arytmetyki, gdzie: punkt został zinterpretowany jako para uporządkowana liczb rzeczywistych (to znaczy formalnie uznajemy za prawdziwe wtedy i tylko wtedy gdy jest parą takich liczb), prosta została zinterpretowana jako zbiór tych par spełniających równanie relacja „punkt leży na prostej” jako relacja przynależności do zbioru. Modelowanie nie jest definiowaniem pojęć pierwotnych. Dla tej samej teorii można stworzyć różne modele, więc gdyby tak było, jedno pojęcie musiałoby mieć wiele sprzecznych definicji. Na przykład można zinterpretować punkt również jako parę uporządkowaną liczb algebraicznych (a nie liczb rzeczywistych), a prostą jako zbiór par liczb algebraicznych spełniających równanie Prawdziwość Model danej teorii musi spełniać wszystkie jej aksjomaty (tym samym w semantycznym sensie podczas modelowania zakłada prawdziwość tych aksjomatów). Wówczas wszystkie udowodnione na ich bazie twierdzenia danej teorii stosują się też do tak „przetłumaczonych” pojęć. Model jest w pewnym sensie praktycznym zastosowaniem danej teorii matematycznej. Niesprzeczność Od każdego modelu wymaga się, aby spełniał wszelkie aksjomaty danej teorii, więc teoria, której aksjomaty byłyby sprzeczne z sobą nawzajem, nie miałaby żadnego modelu. Takich aksjomatyk zatem nie stosuje się. Niezależność Układ aksjomatów jest niezależny, jeśli żaden z aksjomatów nie wynika z pozostałych. Nie ma formalnego wymogu, aby aksjomaty były niezależne. Nie ma formalnego ograniczenia na ich liczbę. Niektórzy matematycy uważają jednak, że eleganckie jest sformułowanie danej teorii w postaci jak najmniejszej liczby prostych i niezależnych aksjomatów. Ułatwia to tworzenie modelu danej teorii i upraszcza dowodzenie ich niesprzeczności. Jeśli jest skończonym zbiorem aksjomatów, to istnieje podzbiór taki, że jest niezależny, a jednak ma tę samą siłę, co tzn. każdy aksjomat w zbiorze można udowodnić na bazie aksjomatów w Jeśli jest nieskończony, to w ogólnym przypadku nie ma takiego podzbioru, w niektórych szczególnych przypadkach może jednak istnieć. Zupełność Często okazuje się, że aksjomatyka nie jest zupełna, to znaczy istnieją pewne twierdzenia, dające się wyrazić w języku dowolnego modelu danej aksjomatyki, których prawdziwości nie da się rozstrzygnąć na podstawie tego zestawu aksjomatów. Przykładowo geometria euklidesowa była pierwotnie zaksjomatyzowana przez Euklidesa, okazało się jednak, że jego aksjomatyka była zbyt uboga i nie pozwalała udowodnić pewnych prawdziwych twierdzeń geometrycznych (np. twierdzenia Desargues’a i twierdzenia Pappusa). Powstała kolejna aksjomatyka, a mianowicie aksjomatyka Hilberta. Z powodów praktycznych aksjomatów powinno być na tyle dużo, aby prawdziwość wszelkich „ważnych” twierdzeń danej teorii dało się rozstrzygnąć na ich podstawie. Kryterium ważności jest tu subiektywne – teoria, w której żadne zdanie nie daje się rozstrzygnąć, jest formalnie poprawna, lecz bezużyteczna. Nie musi to oznaczać rozstrzygalności wszystkich możliwych twierdzeń danej teorii, choć byłby to stan idealny; twierdzenie Gödla mówi jednak, że nawet dla tak prostej teorii jak arytmetyka istnieją twierdzenia, których nie da się wyprowadzić z jej aksjomatów. Co więcej, nie da się uzupełnić zbioru aksjomatów arytmetyki skończoną liczbą nowych aksjomatów, tak aby był już do tego wystarczający. Kategoryczność Aksjomatykę nazywamy kategoryczną, jeśli wszystkie jej modele są izomorficzne. Oznacza to, że dany zestaw aksjomatów jednoznacznie określa wszystkie cechy definiowanych obiektów. Jeśli aksjomatyka nie jest kategoryczna, można zbudować dwa różne modele, które będą ją spełniały, jednak będą się różnić właściwościami, dającymi się opisać w języku danej teorii. Historia Pierwszym uczonym postulującym stosowanie aksjomatycznej budowy teorii matematycznych był Platon. Pierwszą prawdziwą aksjomatyką było pięć aksjomatów Euklidesa podanych w Elementach. Podwaliny teorii modeli i tym samym nowe ujęcie logiki matematycznej położyli w latach 30. XX wieku Alfred Tarski i Kurt Gödel. Zobacz też a priori paradygmat Przypisy Bibliografia Logika matematyczna
10
https://pl.wikipedia.org/wiki/Arytmetyka
Arytmetyka
Arytmetyka (łac. arithmetica, gr. ἀριθμητική arithmētikē, z ἀριθμός – liczba) – dział matematyki zajmujący się liczbami; jeden z podstawowych i najstarszych. Obejmuje co najmniej dwa obszary wiedzy: arytmetyka elementarna opisuje podstawowe działania na liczbach, zwłaszcza tych rzeczywistych, choć mówi się także o arytmetyce liczb kardynalnych czy porządkowych; działania uznawane za arytmetyczne to dodawanie, odejmowanie, mnożenie i dzielenie, a czasem też potęgowanie, pierwiastkowanie i logarytmy; arytmetyka teoretyczna to inaczej teoria liczb; bada ich własności i w mniejszym stopniu dotyczy obliczeń, choć zajmuje się też niektórymi algorytmami jak sprawdzanie pierwszości czy faktoryzacja. Ta pierwsza dziedzina jest trzonem matematyki elementarnej; jest rozwijana od prehistorii, przez różne kultury paleolityczne. Przez wieki opracowano ją dla różnych systemów zapisu; standardem stały się te pozycyjne, m.in. dzięki prostocie obliczeń na nich. Rozwój arytmetyki elementarnej osiągnął finał w XVII wieku, kiedy to opisano i rozpowszechniono: ułamki dziesiętne; logarytmy przyspieszające niektóre obliczenia; wzory umożliwiające szybkie rachunki przybliżone, np. wielomiany Taylora. Mimo to także później rozwijano nowe teorie oraz sposoby zapisu, np. kod uzupełnień do dwóch. Poza tym w XVII wieku rozkwitła technologia obliczeń – obok znanych od starożytności liczydeł pojawiły się suwaki logarytmiczne oraz mechaniczne maszyny liczące jak Pascalina czy Ława licząca G.W. Leibniza. Do zadań arytmetycznych stworzono dalsze urządzenia, np. arytmometry i komputery, a ich automatyzacja i programowanie doprowadziły do początków informatyki w XIX wieku. Dzieje Wiedza o prehistorii arytmetyki jest ograniczona do kilku niewielkich artefaktów udowadniających posługiwanie się pojęciami dodawania i odejmowania przez ludy neolityczne. Najbardziej znanym jest kość z Ishango, który według Petera Rudmana powstał pomiędzy 9000 a 6500 lat p.n.e. Prawdopodobnie Babilończycy posiadali szeroką wiedzę w niemal wszystkich aspektach elementarnej arytmetyki już dwa tysiące lat przed naszą erą (patrz Plimpton 322). W papirusach ze starożytnego Egiptu pochodzących z XVII wieku p.n.e. można znaleźć dokładne algorytmy mnożenia i używania ułamków. Pitagorejczycy w szóstym wieku p.n.e. uznawali arytmetykę za jedną z czterech najważniejszych nauk. Znalazło to odbicie również w programie średniowiecznych uniwersytetów jako element Quadrivium, które razem z Trivium utworzyło siedem sztuk wyzwolonych. Pierwszym podręcznikiem oraz książką poświęconą arytmetyce napisaną w języku polskim jest Algoritmus, t. j. nauka liczby. Jej autorem był Tomasz Kłos, a została wydrukowana w Krakowie w 1538. Osiemnastowiecznym podręcznikiem szkolnym poświęconym arytmetyce była Arytmetyka dla szkół narodowych, publikacja Towarzystwa do Ksiąg Elementarnych z (1785). Współczesne algorytmy arytmetyczne (zarówno do obliczeń pisemnych, jak i elektronicznych) opierają się na cyfrach arabskich i pozycyjnym systemie liczbowym. Choć dziś stosowany jest w większości języków i kultur (mimo że istnieją naturalne systemy liczbowe), jego prostota jest kulminacją tysięcy lat rozwoju matematyki. Przykładowo Archimedes poświęcił całą pracę O liczeniu piasku wymyśleniu notacji dla zapisu wielkich liczb. Rozwój algebry w średniowiecznym świecie islamskim i w renesansowej Europie został umożliwiony przez znaczne uproszczenie obliczeń w systemie dziesiętnym. Miejsce w społeczeństwie Nauczanie arytmetyki przeważnie zaczyna się w szkołach podstawowych lub jeszcze wcześniej, np. w przedszkolach. Z kolei programy szkół średnich przeważnie wyczerpują najszerzej rozumianą arytmetykę liczb rzeczywistych, obejmującą logarytmy. W starożytności i średniowieczu arytmetyka była częścią wykształcenia ogólnego jako jedna z siedmiu sztuk wyzwolonych, konkretniej jako pierwszy element quadrivium – podstawa dla geometrii, muzyki i astronomii. Niektórzy pogłębiają sztukę obliczeń pamięciowych, uprawiając ją jako formę sportu. Wykonywaniu działań był poświęcony osobny zawód obliczeniowca, który rozkwitł w pierwszej połowie XX wieku i zanikł wraz z rozwojem komputerów. Arytmetyka dziesiętna System dziesiętny pozwala zapisywać liczby za pomocą dziesięciu cyfr: 0,1,2, …, 9. Liczba w takim zapisie jest sekwencją cyfr, w której znaczenie każdej cyfry zależy od jej położenia w stosunku do przecinka: przykładowo 507,36 oznacza 5 setek (10²), plus 0 dziesiątek (101), plus 7 jednostek (100), plus 3 dziesiąte (10−1) plus 6 setnych (10−2). Kluczową częścią tego zapisu (i jednym z głównych odkryć umożliwiających jego wprowadzenie) jest zastosowanie symbolu 0 mogącego pełnić tę samą rolę co inne cyfry. Warto zauważyć, że ani system dziesiętny, ani żaden inny, nie pozwalają dla dowolnej liczby rzeczywistej na dokładne jej zapisanie – w przypadku liczb niewymiernych zapis po przecinku nie jest okresowy, dokładne jej wyrażenie wymagałoby więc nieskończonej liczby cyfr. Zobacz też średnia arytmetyczna ciąg arytmetyczny kodowanie arytmetyczne Uwagi Przypisy Bibliografia Linki zewnętrzne [dostęp 2023-06-01]. Arithmetic , Encyclopedia of Mathematics, encyclopediaofmath.org, [dostęp 2023-06-18]. Arithmetic, philosophical issues in , Routledge Encyclopedia of Philosophy, rep.routledge.com [dostęp 2023-05-10].
12
https://pl.wikipedia.org/wiki/Alkeny
Alkeny
Alkeny – organiczne związki chemiczne z grupy węglowodorów nienasyconych, w których występuje jedno podwójne wiązanie chemiczne między atomami węgla (). Razem ze związkami, które posiadają dwa lub więcej wiązań podwójnych (polienami, takimi jak dieny, trieny itd.) oraz z analogami pierścieniowymi (cykloalkenami i cyklopolienami) tworzą grupę olefin. Mają więcej izomerów i są bardziej aktywne niż alkany. Wraz ze zwiększającą się długością łańcucha węglowego maleje ich reaktywność. Można je otrzymać z ropy naftowej, a w laboratorium w reakcji eliminacji fluorowca z halogenków alkilowych lub przez alkoholi. Ich wzór ogólny to . Nazewnictwo Nazwy alkenów są tworzone z nazw odpowiednich alkanów. Z nazwy alkanu posiadającego ten sam szkielet węglowy usuwa się końcówkę -an i dodaje końcówkę -en, przed którą umieszcza się lokant, wskazujący przy którym atomie węgla występuje podwójne wiązanie. Na przykład: heksan i Lokant można pominąć, gdy jest on równy 1 (wtedy, gdy wiązanie podwójne występuje na początku szkieletu węglowego). Nazewnictwo dienów i polienów jest tworzone analogicznie z odpowiednio większą liczbą lokantów i końcówką -dien, -trien, -tetraen itd. Na przykład: buta-1,3-dien W literaturze spotyka się też nazewnictwo, które różni się od nomenklatury IUPAC tym, że lokanty występują przed nazwą. Przykładowo: 2-heksen; 1,3-butadien. Izomeria Alkeny o większej liczbie atomów węgla niż propen mogą istnieć w kilku formach izomerycznych na skutek rozgałęzienia łańcucha węglowego, zmiany umiejscowienia podwójnych wiązań chemicznych i występowaniu zjawiska izomerii geometrycznej. Eten i propen nie posiadają izomerów, a buten ma ich 4. Otrzymywanie Alkeny otrzymuje się poprzez eliminację cząstki nieorganicznej z halogenopochodnych alkanów () lub alkoholi (dehydratacja), w krakingu, bądź reakcji uwodornienia alkinów. Dehydratacja alkoholi. Reakcję prowadzi się w podwyższonej temperaturze w obecności katalizatora kwasowego, np. tlenku glinu lub kwasu siarkowego. W przypadku, gdy możliwe jest powstawanie różnych izomerów, produktem głównym jest ten, w którym wiązanie wielokrotne występuje między atomami węgla uboższymi w wodór (reguła Zajcewa, obowiązuje także dla dehydrohalogenacji). Deaminacja amin (eliminacja Hofmanna), w wyniku której otrzymuje się alkeny o położeniu wiązania podwójnego przeciwnie do reguły Zajcewa. Dehydrohalogenacja halogenoalkanów w środowisku zasadowym w podwyższonej temperaturze, np. wobec zasady potasowej. Reakcja wicynalnych (tj. zawierających atomy halogenu w pozycjach sąsiednich) dihalogenoalkanów z cynkiem. Otrzymywanie na skalę przemysłową z wykorzystaniem metody krakowania wyższych alkanów. W ropach naftowych występują w nieznacznych ilościach, toteż większość alkenów stosowanych w przemyśle pochodzi z przeróbki (krakingu niskociśnieniowego, tzw. olefinowego) różnych frakcji ropy, głównie benzyny ciężkiej. Charakterystyczne reakcje Alkeny są trwałymi związkami, które jednak są bardziej reaktywne od alkanów. Podlegają one m.in.: reakcjom polimeryzacji winylowej oraz reakcjom addycji np.: przyłączania gazowego chloru, chlorowodoru, wody. Przykładowa reakcja addycji chloru do etenu: Alkeny o większej ilości wiązań podwójnych Alkeny z dwoma podwójnymi wiązaniami to dieny. Alkeny z więcej niż dwoma wiązaniami podwójnymi (trieny, tetraeny itd.) są ogólnie nazywane polienami. Dieny można podzielić na: alleny zwane też dienami skumulowanymi, w których wiązania podwójne sąsiadują ze sobą, dieny sprzężone, w których wiązania podwójne oddzielone są jednym wiązaniem pojedynczym, dieny z izolowanym układem wiązań podwójnych, w których występują co najmniej 2 wiązania pojedyncze pomiędzy wiązaniami podwójnymi. Zobacz też alkany alkiny poliolefiny węglowodory aromatyczne Przypisy Bibliografia
13
https://pl.wikipedia.org/wiki/ActiveX
ActiveX
ActiveX – przestarzała biblioteka komponentów i kontrolek stworzona przez Microsoft. ActiveX mógł służyć do wymiany danych pomiędzy różnymi aplikacjami działającymi pod kontrolą systemów operacyjnych Windows. W szczególności był wykorzystywany w przeglądarce Internet Explorer do wywoływania różnych funkcji systemowych (np. do wsparcia AJAX). Wsparcie dla ActiveX zostało wycofane w 2015 w przeglądarce Microsoft Edge. ActiveX wywodzi się z wcześniejszych technologii Microsoftu – OLE i COM. ActiveX jest zaprojektowana jako technologia modularna. Z technologicznego punktu widzenia, kontrolki ActiveX są podzbiorem komponentów typu COM. Kontrolki ActiveX mają swój początek w komponentach , na bazie których stworzono kontrolki OCX, nazwane później ActiveX. Wykorzystanie Z technologii tej korzystały kontrolki ActiveX, służące do uruchamiania aplikacji osadzonych w interfejsie użytkownika, na przykład na formie na stronie WWW (jako aplet). Niektóre obiekty można było również używać bardziej bezpośrednio w JavaScript (właściwie JScript). W szczególności w IE5 w ramach biblioteki udostępniono dostęp do asynchronicznego wywołania żądań (później element technologii AJAX, który został ustandaryzowany jako XMLHttpRequest). W Delphi pewne specyficzne komponenty ActiveX będące kontenerami złożonymi z innych kontrolek określane są mianem ActiveForm. Komponenty typu ActiveForm (jak również ActiveX) mogą zostać osadzone na stronie www programu Internet Explorer (czyniąc ją jednak niedostępną dla użytkowników innych przeglądarek). Alternatywy Technologia ActiveX jako taka nie została zaimplementowana w żadnej innej przeglądarce, nawet w nowej przeglądarce Microsoftu. Microsoft ostrzegał również przed używaniem ActiveX w IE11, ponieważ technologię można było wykorzystać do zbierania danych o komputerze lub do zainfekowania komputera przez to, że ActiveX był bardzo podatny na zagrożenia bezpieczeństwa. Microsoft zmienił rodzaj głównej technologii dla kontrolek, tworząc środowisko .NET. Kontrolki Windows Forms wyparły ActiveX, ale częściowe wsparcie dla ActiveX zostało zachowane przynajmniej do wersji 4.x. W przeglądarkach różne rodzaje kontrolek zostały ustandaryzowana w ramach HTML5. Wcześniej już pojawił się obiekt XHR zastępujący żądania AJAX przez ActiveX, a w 2015 roku w Chrome i w Firefox zaimplementowane zostało nowe Fetch API. Zobacz też OCX. Przypisy Windows Multimedia Internet Explorer
14
https://pl.wikipedia.org/wiki/Interfejs%20programowania%20aplikacji
Interfejs programowania aplikacji
Interfejs programowania aplikacji, interfejs programistyczny aplikacji, interfejs programu aplikacyjnego (, ) – zbiór reguł ściśle opisujący, w jaki sposób programy lub podprogramy komunikują się ze sobą. API jest przede wszystkim specyfikacją wytycznych, jak powinna przebiegać interakcja między komponentami programowymi. Implementacja API jest zestawem rutyn, protokołów i rozwiązań informatycznych do budowy aplikacji komputerowych. Dodatkowo API może korzystać z komponentów graficznego interfejsu użytkownika. Dobre API ułatwia budowę oprogramowania, sprowadzając ją do łączenia przez programistę bloków elementów w ustalonej konwencji. Definiuje się go na poziomie kodu źródłowego dla składników oprogramowania, na przykład aplikacji, bibliotek, systemu operacyjnego. Zadaniem interfejsu programowania aplikacji jest dostarczenie odpowiednich specyfikacji podprogramów, struktur danych, klas obiektów i wymaganych protokołów komunikacyjnych. Definicja API może być niezależna od jego implementacji. Przykładowo, istnieje wiele realizacji API biblioteki standardowej języka C, które współdzielą standardową zewnętrzną funkcjonalność (są to m.in. wersja z systemu BSD oraz wersja z systemu GNU). Co więcej, istnieją API zdefiniowane w sposób niezależny od danej platformy (systemu operacyjnego, języka programowania), dla których istnieje możliwość wygenerowania API dla specyficznej platformy. Takie interfejsy definiuje się, używając zwykle języków ich opisu. Przykładowe API to POSIX (API zdefiniowane w języku C) i Windows API (API zdefiniowane w języku C), a w przypadku grafiki 3D – Vulkan (API zdefiniowane dla języka C, z wieloma tzw. bindingami, m.in. dla jęz. C++, jęz. Rust i innych) oraz OpenGL (API zdefiniowane dla wielu języków, m.in. C, C++, Java, Python). Jednym z typów API, które przebiły się do szerszej świadomości, są API webowe (zwane też internetowymi). Jest to rodzaj API, w których funkcje są udostępniane jako zasób w sieci. Bieżące wersje systemów API webowych pozwalają w bardzo łatwy sposób integrować informacje z sieci z aplikacjami, poszerzając ich funkcje lub umożliwiając współdziałanie (na przykład z sieciami społecznościowymi). Przykłady W języku C definicja interfejsu programowania aplikacji składa się przede wszystkim z listy dostępnych funkcji (w formie prototypów funkcji), wraz z towarzyszącymi im przeważnie definicjami stałych, zmiennych oraz struktur danych, które mogą być użyte jako ich parametry. Przykładowa lista prototypów funkcji z API biblioteki standardowej języka C (plik nagłówkowy <stdio.h>) to: int printf(const char *format, ...); int fprintf(FILE *stream, const char *format, ...); int sprintf(char *str, const char *format, ...); int snprintf(char *str, size_t size, const char *format, ...); W prototypach funkcji (printf, fprintf, sprintf, snprintf) użyte są identyfikatory struktur i typów (FILE i size_t), które są również częścią definicji API (ich definicja nie została zamieszczona w przykładzie). Przykład użycia jednej z powyższych funkcji z API jest następujący: return printf("%s", "Hello world"); Zobacz też interfejs binarny aplikacji () Komunikacja międzyprocesowa Przypisy
15
https://pl.wikipedia.org/wiki/AmigaOS
AmigaOS
AmigaOS – system operacyjny opracowany przez firmę Commodore International dla produkowanych przez nią komputerów Amiga. Wersja 1.0 została wydana w 1985 roku, wraz z premierą komputera Amiga 1000. Charakterystyka System od początku 32-bitowy, napisany został dla procesora Motorola 68000. Obsługiwane procesory to: MC68000, MC68010, MC68020, MC68030, MC68040, MC68060. Systemy w wersjach 3.x obsługują również procesory PowerPC znane także jako PPC, dzięki podsystemom WarpOS albo PowerUP. System pracuje nadal na M68x00, istnieje jednak możliwość uruchamiania programów napisanych dla PPC. Konstrukcja i oprogramowanie kart procesorowych umożliwia jednoczesną pracę obu procesorów, przy czym PPC jest wykorzystywany jako koprocesor. W krótkim czasie od pojawienia się kart z układami PPC powstał projekt MorphOS – mający na celu przeniesienie systemu Amiga OS na architekturę PPC. Pracę programistów utrudniał brak dokumentacji – kody źródłowe systemu v3.0/3.1 stały się niedostępne krótko po upadku firmy Commodore. Istnieje także otwarta implementacja systemu AmigaOS pod nazwą AROS. Dostępna jest ona między innymi na platformę x86. Obecna wersja AmigaOS 4.1 została przepisana całkowicie dla procesorów PowerPC i działa na komputerach AmigaOne, micro A1, SAM440ep, SAM440 Flex, Pegasos II. Oprogramowanie, które zostało napisane dla klasycznych Amig wyposażonych w procesory serii MC68x może być uruchamiane dzięki dwóm wbudowanym w system emulatorom: interpretowanemu, zapewniającemu wysoką zgodność z oryginalnymi układami sprzętowymi oraz JIT o nazwie Petunia zapewniającemu dużą prędkość emulacji. Jądro systemu charakteryzowało się wielozadaniowością, zaawansowanymi możliwościami graficznymi, ściśle związanymi z budową komputerów Amiga, a także niskim czasem reakcji, dzięki czemu znalazł on miejsce w zastosowaniach real-time, chociaż nie był do nich projektowany. Wadą był brak ochrony pamięci. Zgodność ze standardem POSIX oraz X Window System można uzyskać przy użyciu zewnętrznych bibliotek. System oferował nowoczesny system graficzny, w którym rolę powłoki pełnił Workbench. Istnieją też niezależne powłoki tekstowe, działające w oknie trybu graficznego. Charakterystyczną cechą układów graficznych i samego systemu był brak czysto tekstowych trybów graficznych. System już w pierwszej fazie startu oferował graficzny interfejs. Standardowymi systemami plików są OFS (Old File System – kickstart w wersji poniżej 2.0) i FFS (Fast File System). Dla tego systemu powstały również alternatywne systemy plików: MUFS (Multi User File System), PFS (Profesional File System), SFS (Smart File System), budowa modułowa umożliwiała prostą i bezproblemową instalację dodatkowych systemów plików np.: ISO 9660, FAT, FAT32, MacFS itd. Kickstart – część systemu zawarta w pamięci ROM lub na twardym dysku komputerów Amiga, zawiera jądro systemu oraz biblioteki potrzebne do uruchomienia systemu. AmigaOS 4.0 Czwarta generacja systemu operacyjnego Amigi – AmigaOS. Prace nad systemem rozpoczęła firma Hyperion Entertainment na mocy podpisanej 1 listopada 2001 r. umowy z firmą Amiga Inc. W czerwcu 2004 r. ukazała się pierwsza publiczna wersja systemu nazwana „AmigaOS 4.0 Developer Pre-release”. Kolejne aktualizacje AmigaOS 4.0 Pre-release ukazały się w październiku 2004 r. (pierwsza aktualizacja), w czerwcu 2005 r. (trzecia aktualizacja), luty 2006 r. (czwarta aktualizacja). 24 grudnia 2006 r. ukazała się finalna wersja AmigaOS 4.0 dla komputerów Amiga One i micro Amiga One. W lipcu 2007 r. ukazała się kolejna aktualizacja AmigaOS 4.0. Wersja systemu na klasyczne Amigi wyposażone w karty z procesorem PowerPC ukazała się dnia 30.11.2007 (pierwszy pokaz tej wersji na AmiWest 21.10.2007). AmigaOS 4.1 11.07.2008 – Hyperion Entertainment zapowiedział wersję 4.1 systemu AmigaOS. 17.09.2008 – Hyperion Entertainment wraz z firmą Acube Systems podpisał licencje OEM na dystrybucje systemu AmigaOS 4.1 wraz z płytami głównymi produkowanymi przez Acube Systems: Sam440ep i Sam440ep-Flex 31.01.2009 – Hyperion Entertainment udostępnił wersję 4.1 systemu AmigaOS dla płyty głównej Pegasos II produkcji Genesi. 14.01.2010 – Hyperion Entertainment udostępnił uaktualnienie systemu AmigaOS 4.1 nazwane „Update 1”. Update dostępne jest dla Sam440ep, Sam440ep-Flex, Amiga One, micro Amiga One i Pegasos II. Możliwość pobrania archiwum „lha” z obrazem płyty mają zarejestrowani użytkownicy poprzez stronę Hyperion Entertainment. 30.04.2010 – Hyperion Entertainment udostępnił kolejne uaktualnienie systemu AmigaOS 4.1 nazwane „Update 2”. Update jest dostępne dla AmigaOne, Sam440ep i Pegasos II. Możliwość pobrania archiwum „lha” z obrazem płyty mają zarejestrowani użytkownicy poprzez stronę Hyperion Entertainment. Do instalowania „Update 2” potrzebny jest zainstalowany „Update 1” na komputerze. 30.11.2012 – wersja „Update 6” 18.12.2014 – ostatnia wersja „Final Edition” 18.12.2015 – „AmigaOS 4.1 Final Edition Classic” (dla Amig klasycznych z procesorem PPC oraz pod emulatorem) na stronach pakietu „Amiga Forever”. Oprogramowanie Na AmigaOS serii 4.x istnieją porty współczesnego oprogramowania. Przykładowo procesor tekstu zapisujący w formatach .odt – AbiWord, Gnumeric (arkusz kalkulacyjny), czy Gimp. Istnieje także wersja przeglądarki Firefox, Timberwolf. W trakcie beta testów była także LibreOffice. Przypisy Linki zewnętrzne Oficjalna strona systemu AmigaOS 4 Opis wszystkich edycji AmigaOS Polska strona w całości poświęcona AmigaOS Amiga Systemy operacyjne
16
https://pl.wikipedia.org/wiki/Association%20for%20Computing%20Machinery
Association for Computing Machinery
Association for Computing Machinery (ACM) to największa na świecie społeczność ludzi nauki, nauczycieli i profesjonalistów zajmujących się informatyką. Nazwa w tłumaczeniu na język polski to Stowarzyszenie dla Maszyn Liczących. Celem ACM jest rozwój nauki, sztuki oraz inżynierii i zastosowań IT poprzez dialog, integrację środowiska, promowanie wiedzy, tworzenie i promowanie etycznych i zawodowych standardów. Historia ACM zostało utworzone 15 września 1947 roku w Nowym Jorku w trakcie serii spotkań na Uniwersytecie Columbia. Utworzenie stowarzyszenia było odpowiedzią na postęp informatyki. Artykuły i prace z tej dziedziny wcześniej były związane z matematyką, elektryką i innymi naukami. Specjaliści potrzebowali czasopism i innych zasobów do badań nad informatyką. Rosło też zapotrzebowanie na efekty takich badań. W trakcie dalszych spotkań na uczelniach MIT i Harvard postanowiono utworzyć czasopisma zajmujące się informatyką. Ustalono też ostateczną nazwę i kształt nowej organizacji. Formalnie statut stowarzyszenia został przedstawiony członkom w 1949 roku. Członkostwo Członkowie w ACM dzielą się na studenckich i profesjonalnych. Studenccy członkowie to studenci studiów inżynierskich lub magisterskich informatyki lub kierunków pokrewnych. Członkowie profesjonalni to osoby dyplomujące się stopniem magistra lub wyższym w informatyce lub dziedzinach pokrewnych jak również osoby pracujące co najmniej od dwóch lat w branży IT jako specjaliści. Od 1993 r. wybitnie zasłużeni członkowie mogą otrzymać tytuł ACM fellow. Wśród 500 naukowców z indeksem h wyższym niż 40, 199 to ACM fellows. Organizacja ACM jest kierowane przez radę 16 członków. W skład rady wchodzi prezes, wiceprezes, sekretar/skarbnik, poprzedni prezydent, prezydent Special Governing Group Board, trzech członków Special Governing Group Board oraz 7 członków stowarzyszenia. Wewnątrz stowarzyszenia powoływane są komitety do różnych zadań. Prezesem jest Cherri M. Pancake. ACM zatrudnia też CEO – od 2018 roku jest to Vicki L. Hanson. Oddziały ACM dzielą się na studenckie zrzeszające studentów oraz profesjonalne do których należą absolwenci i profesjonaliści. Na świecie około 170 profesjonalnych i 500 studenckich oddziałów ACM znajduje się w USA, Europie i Azji. Do ACM należy około 90 000 osób. Członkowie ACM mogą być dodatkowo zgrupowani w sekcjach – tzw. grupach szczególnych zainteresowań (ACM SIG – Special Interest Group). W Polsce istnieją obecnie trzy profesjonalne oddziały ACM. Pierwszy to Poland ACM Chapter przy Instytucie Informatyki Uniwersytetu Wrocławskiego, kierowany przez Leszka Pacholskiego. Drugi to Poland ACM SIGCHI Chapter przy Ośrodku Przetwarzania Informacji w Warszawie, kierowany przez Agnieszkę Szóstek. Trzeci to ACM Łódź Chapter przy Instytucie Informatyki Stosowanej Politechniki Łódzkiej, kierowany przez Andrzeja Romanowskiego. Działalność ACM w szczególności grupy zainteresowań wewnątrz ACM organizują konferencję i wydają czasopisma. Organizacja wydaje około 35 czasopism poświęconych informatyce. Wśród nich są takie tytuły jak Communications of the ACM, Journal of the ACM czy Transaction of Algorithms. Czasopisma ACM należą do najbardziej cenionych i rozpoznawalnych czasopism z dziedziny IT na świecie. Wszystkie tytuły oraz referencję do czasopism innych wydawców są dostępne w internetowej bibliotece. ACM udostępnia też książki i kursy. Stowarzyszenie przyznaje liczne nagrody i wyróżnienia dla ludzi nauki w tym Nagrodę Turinga. Organizuje również Akademickie Mistrzostwa Świata w Programowaniu, które w roku 2012 odbyły się w Polsce. Przypisy Linki zewnętrzne Oficjalna strona ACM Historia ACM Biblioteka internetowa Polish Chapter of ACM CHI Polska Nagroda Turinga Naukowcy z indeksem h ponad 40 Międzynarodowe organizacje pozarządowe
18
https://pl.wikipedia.org/wiki/Alternatywa
Alternatywa
Alternatywa, suma logiczna, alternatywa zwykła, alternatywa nierozłączna, alternatywa łączna – zdanie logiczne o postaci p lub q, gdzie p, q są zdaniami. W logice matematycznej alternatywę zapisuje się Alternatywa p lub q jest zdaniem prawdziwym, gdy co najmniej jedno z jej zdań składowych p, q jest prawdziwe. W logice matematycznej Alternatywa (suma logiczna): Działanie dwuargumentowe określone w dowolnym zbiorze zdań bądź w zbiorze funkcji zdaniowych, które zdaniom (funkcjom zdaniowym) i przypisuje zdanie (funkcję zdaniową) prawdziwe wtedy i tylko wtedy, gdy prawdziwe jest przynajmniej jedno ze zdań (funkcji) i Dwuargumentowy spójnik zdaniowy, oznaczany (łac. ) o znaczeniu odpowiadającemu wyżej zdefiniowanemu działaniu określonemu w zbiorze Od poprzedniej definicji różni się tym, że jest definiowany na poziomie syntaktycznym, dzięki czemu unika się określania jego dziedziny. Zdanie logiczne postaci gdzie i są zdaniami. Alternatywa pozostaje w ścisłym związku z dodawaniem zbiorów (patrz algebra zbiorów). Dlatego zdanie utworzone z innych zdań przy użyciu alternatywy jest też nazywane sumą logiczną. Zdania składowe nazywane są składnikami alternatywy. Alternatywa jest prawdziwa, jeżeli co najmniej jeden z jej składników jest prawdziwy. W przeciwnym razie alternatywa zdań jest fałszywa. gdzie: 1 – zdanie prawdziwe; 0 – zdanie fałszywe Notacja Zestawienie symboli alternatywy, stosowanych przez różnych autorów: W językach programowania dla oznaczenia alternatywy używany jest często angielski spójnik OR. W języku C/C++ i pochodnych oznacza się ją przez „||”. Przykłady Alternatywa zdań: 12 dzieli się przez 3 lub Madryt jest stolicą Hiszpanii jest prawdziwa, bo oba jej zdania składowe są prawdziwe. Alternatywa zdań: jest prawdziwa, bo jeden z jej składników jest prawdziwy (prawdą jest, że 10 jest liczbą mniejszą niż 11). Alternatywa zdań: Kraków leży nad Odrą lub Wisła nie płynie w Polsce jest fałszywa, bo oba jej zdania składowe są fałszywe. Własności Alternatywa charakteryzuje się następującymi cechami: przemienność łączność idempotentność rozdzielność względem koniunkcji (i odwrotnie) prawa De Morgana Negacja alternatywy jest równoważna koniunkcji negacji, natomiast negacja koniunkcji – alternatywie negacji. W języku naturalnym Bardziej znane jest potoczne znaczenie słowa „alternatywa”: wybór z dwóch wykluczających się możliwości. Pokrywa się ono z matematycznym pojęciem alternatywy rozłącznej, a nie klasycznej alternatywy przedstawianej w logice matematycznej. Zobacz też decyzja koniunkcja Uwagi Przypisy Bibliografia Linki zewnętrzne Funkcje boolowskie Spójniki logiczne
19
https://pl.wikipedia.org/wiki/Aksjomat%20indukcji
Aksjomat indukcji
Aksjomat indukcji – aksjomat, a właściwie nieskończony przeliczalny zbiór aksjomatów pierwszego rzędu, pozalogicznych rozważany zwłaszcza w teorii arytmetyki liczb naturalnych. Jest on formalizacją zasady indukcji matematycznej. Jego treść przedstawia się następująco: gdzie oznacza: „dla każdego n” ⇒, to wynikanie (implikacja) oznacza „i”. Tak wyrażony aksjomat indukcji nie spełnia jednak założeń rozlicznych podejść, a w tym np. analizy Gödla niesprzeczności teorii matematycznych w szczególności arytmetyki. Problemem jest zupełna nieobliczalność relacji użytych do konstrukcji powyższego zdania: kwantyfikator ogólny „dla każdego n” nie da się bowiem zapisać jako funkcja obliczalna. Ponadto zdanie powyższe jest zdaniem drugiego rzędu z uwagi na użycie kwantyfikatora, co sprawia, że operuje ono obiektami niezdefiniowanymi w teorii (zbiorem liczb naturalnych n, z którego mamy wybierać wartości: nie można go skonstruować, zanim nie ustalimy listy aksjomatów i nie udowodnimy ich niesprzeczności). Równoważnie aksjomat indukcji można zapisać jako koniunkcję zbioru aksjomatów w następującej postaci: w której to notacji nie został użyty nieograniczony, a więc nieobliczalny (nierekurencyjny) kwantyfikator ogólny, wszystkie zdania są zaś pierwszego rzędu (wyrażają prawdy o zdefiniowanych wcześniej pojęciach pierwotnych arytmetyki, nie używając kwantyfikatora ogólnego). Uzyskujemy w ten sposób formalną poprawność sformułowania aksjomatu. Aksjomaty indukcji są ważnym elementem teorii arytmetyki. Znane są przykłady twierdzeń, w których chociaż znamy dowody twierdzenia dla każdego to twierdzenie nie może być dowiedzione w ramach arytmetyki liczb naturalnych (jest niedowiedlne), gdyż każdy z tych dowodów jest prowadzony za pomocą innych narzędzi i nie da się ich sprowadzić do kroku indukcyjnego (a więc rozumowania wykazującego ), zapisanego za pomocą języka arytmetyki i obejmującego wszystkie możliwe wartości (dla każdego n pojawia się pewien nowy element niewystępujący dla innych ). Zobacz też aksjomat nieskończoności indukcja matematyczna Bibliografia Roman Murawski, Funkcje rekurencyjne i elementy metamatematyki. Problemy zupełności, rozstrzygalności, twierdzenia Gödla, Wydawnictwo Naukowe UAM, Poznań 1990. Logika matematyczna
21
https://pl.wikipedia.org/wiki/Alleny
Alleny
Alleny – organiczne związki chemiczne, węglowodory nienasycone, w których jeden z atomów węgla jest związany z dwoma innymi atomami węgla wiązaniami podwójnymi (tzw. układ ). Zwyczajowo allenem określa się najprostszy związek z tej grupy, czyli . Skumulowanie dwóch podwójnych wiązań chemicznych obok siebie powoduje, że alleny są dużo bardziej reaktywne od innych alkenów. Ich reaktywność, między innymi w reakcji z gazowym chlorem, jest bardziej zbliżona do reaktywności alkinów niż alkenów. Alleny są związkami nietrwałymi i ulegają reakcji przekształcenia w odpowiedni izomer alkinowy, na przykład: CH2=C=CH2 → CH3-C≡CH Zobacz też karbodiimidy Polieny
22
https://pl.wikipedia.org/wiki/Alkiny
Alkiny
Alkiny (zwyczajowo: acetyleny) – grupa organicznych związków chemicznych będących węglowodorami nienasyconymi, w których występuje jedno wiązanie potrójne między atomami węgla (). Najprostszym alkinem jest etyn, zwykle zwany acetylenem, . Alkiny są bardziej reaktywne od alkanów i alkenów, są nietrwałe i podlegają wielu samorzutnym reakcjom. Ogólny wzór alkinów: . Alkiny, tak jak wszystkie węglowodory, ulegają reakcjom spalania. Nazewnictwo Nazwy alkinów są tworzone z nazw odpowiednich alkanów. Z nazwy alkanu mającego ten sam szkielet węglowy usuwa się końcówkę „-an” i dodaje końcówkę „-yn” (lub „-in” po spółgłoskach ch, f, g, k, l), a przed nią umieszcza się lokant wskazujący, przy którym atomie węgla występuje potrójne wiązanie – na przykład „heksan” i „heks-2-yn”. Łańcuch główny (od którego pochodzi zasadniczy człon nazwy) musi zawierać wiązanie potrójne i być najdłuższy z możliwych. Atomy węgla numeruje się tak, aby wiązanie potrójne miało jak najmniejszy numer, bez względu na inne podstawniki. Jeżeli w węglowodorze występuje wiązanie podwójne i potrójne, ważniejsze przy nazewnictwie jest podwójne. Lokant można pominąć, gdy jest on równy 1, to znaczy wiązanie potrójne występuje na początku szkieletu węglowego. W literaturze spotyka się też stare nazewnictwo, różniące się od obecnego tym, że lokanty występują przed nazwą, na przykład „2-heksyn”. Przypisy
23
https://pl.wikipedia.org/wiki/Alkany
Alkany
Alkany (parafiny, z = mało powinowaty) – łańcuchowe węglowodory nasycone, organiczne związki chemiczne zbudowane wyłącznie z atomów węgla i wodoru, przy czym atomy węgla połączone są ze sobą wyłącznie wiązaniami pojedynczymi. Ogólny wzór sumaryczny alkanów ma postać . Według obowiązującej systematyki IUPAC węglowe łańcuchy atomów w cząsteczkach alkanów mogą być zarówno proste, jak i rozgałęzione, jednak nie mogą tworzyć pierścieni ani zamkniętych pętli – cykloalkany nie są zatem alkanami. Grupa alkanów uszeregowana według długości łańcuchów węglowych stanowi szereg homologiczny alkanów. Dalsze elementy tego szeregu określane są jako wyższe alkany (według różnych kryteriów jako wyższe alkany przyjmuje się np. homologi o łańcuchu >C6, >C10 lub >C16). Rodzaje łańcuchów alkanów Alkany zawierające więcej niż trzy atomy węgla mogą tworzyć wiele izomerów konstytucyjnych różniących się rozgałęzieniami łańcuchów węglowych. Łańcuchy proste Atomy węgla tworzą jeden nierozgałęziony łańcuch, na którego obydwu końcach znajdują się grupy metylowe. Ze względu na możliwość rotacji wokół pojedynczych wiązań , związki te mogą tworzyć izomery konformacyjne. Najniższą energię, a co za tym idzie, najwyższą trwałość mają konfromery, w których wiązania znajdują się w układzie naprzemianległym, a atomy węgla znajdują się w pozycjach antiperipalanarnych (trans). W warunkach normalnych zmiany konformacji alkanów następują bardzo szybko i nie można wyizolować poszczególnych konformerów. Przykładowe konformacje naprzemianległe n-pentanu (deskryptory określają kąt torsyjny dla atomów i ): Łańcuchy rozgałęzione Co najmniej jeden z atomów węgla jest związany z więcej niż dwoma innymi atomami węgla, cała cząsteczka zawiera więcej niż dwie grupy metylowe. Przykłady dla pięciu atomów węgla – rozgałęzione izomery konstytucyjne pentanu: Liczba istniejących izomerów konstytucyjnych węglowodorów o łańcuchach rozgałęzionych rośnie bardzo szybko wraz z liczbą atomów węgla tworzących cząsteczkę. W powyższym przykładzie alkanów zawierających 5 atomów węgla, są to 3 izomery: n-pentan, izopentan i neopentan. Proste obliczenia kombinatoryczne (stabelaryzowane w OEIS) pozwalają wyznaczyć teoretyczną liczbę takich izomerów konstytucyjnych dla dowolnej liczby atomów węgla. W praktyce część izomerów jest jednak niestabilna. Łańcuchy cykliczne Zgodnie z systematyką IUPAC, cząsteczki zawierające łańcuchy cykliczne (cykloalkany, nazywane czasem alkanami cyklicznymi) formalnie nie należą do alkanów. Właściwości Alkany są słabo rozpuszczalne w wodzie (rozpuszczalność rzędu kilkudziesięciu miligramów na litr), rozpuszczają się w rozpuszczalnikach organicznych. Są mało reaktywne ze względu na dużą trwałość wiązań i . Podobne właściwości do alkanów mają również cykloalkany (z wyjątkiem cyklopropanu i cyklobutanu, które są nietrwałe z powodu silnych naprężeń w małych pierścieniach ich cząsteczek). Stany skupienia W zależności od temperatury oraz ciśnienia każdy z alkanów może być gazem, cieczą lub ciałem stałym. Temperatury przejść fazowych pomiędzy tymi stanami skupienia dla pierwszych czternastu alkanów o łańcuchach prostych przedstawia rysunek. Jak widać, temperatura wrzenia tych związków rośnie monotonicznie ze wzrostem długości łańcucha (liczby atomów węgla), natomiast temperatura topnienia rośnie monotonicznie począwszy od propanu. Spośród alkanów i cykloalkanów o tej samej liczbie atomów węgla, temperatura wrzenia cykloalkanu jest wyższa niż odpowiedniego alkanu liniowego, natomiast temperatury wrzenia alkanów o łańcuchach rozgałęzionych są niższe niż alkanu liniowego. Tę ostatnią regularność można wytłumaczyć zmniejszeniem powierzchni cząsteczek rozgałęzionych w stosunku do liniowych, przez co obniża się liczba oddziaływań międzycząsteczkowych, a więc ich pokonanie staje się możliwe w niższych temperaturach. W temperaturze pokojowej (25 °C) alkany liniowe lżejsze od pentanu (tj. zawierające 1–4 atomów węgla) są gazami, dalsze homologi – od pentanu do heptadekanu (5–17 atomów C) są cieczami, a oktadekan i cięższe (≥18 atomów C) są ciałami stałymi. Najważniejsze reakcje Nazwa węglowodory nasycone wynika z faktu pełnego wysycenia atomów węgla wiązaniami pojedynczymi, co odróżnia je od węglowodorów nienasyconych, posiadających wiązania podwójne i/lub potrójne. Ze względu na dużą trwałość pojedynczych wiązań i alkany są mało reaktywnymi związkami chemicznymi, a reakcje z ich udziałem wymagają drastycznych warunków (wysokich temperatur i ciśnienień). Generalnie wyróżnia się trzy typy reakcji, którym ulegają alkany: spalanie spalanie całkowite – produkty spalania to dwutlenek węgla i para wodna (woda); na przykładzie metanu: spalanie niecałkowite – w skład spalin wchodzą także produkty utlenione częściowo, np. tlenek węgla lub sadza (węgiel) halogenowanie rodnikowe (substytucja) – powstają pochodne alkanów, na przykład: – reakcja metanu z chlorem, w wyniku której powstaje chlorometan i chlorowodór piroliza prowadząca do zmniejszenia długości łańcuchów węgla w cząsteczkach oraz do ich izomeryzacji. Reakcje te mają duże znaczenie praktyczne przy produkcji paliw ciekłych (kraking, reforming). Nazewnictwo alkanów Nazwa alkanu składa się z trzech części: przedrostka i/lub wrostka – lokantu podstawnika rdzenia – liczby atomów węgla w łańcuchu głównym przyrostka „-an” (przewidzianego dla alkanów). Etapy nazywania alkanu: Wyszukanie macierzystego związku. Znalezienie najdłuższego łańcucha atomów węgla (jeżeli dwa różne łańcuchy mają identyczną długość, wybiera się ten z największą liczbą rozgałęzień). Numeracja w łańcuchu głównym: Atomy węgla numeruje się od końca najbliższego pierwszemu rozgałęzieniu. Jeżeli rozgałęzienia występują w równej długości od końców, numeruje się od końca bliższego drugiemu rozgałęzieniu. Określenie i numeracja podstawników: Każdy podstawnik oznacza się zgodnie z miejscem przyłączenia do łańcucha głównego. Jeżeli do danego atomu węgla są przyłączone dwa podstawniki lub więcej, przypisuje się im tę samą cyfrę. Zapis nazwy związku Podstawniki podaje się w kolejności alfabetycznej, przy czym: przedrostek „izo-” (np. izobutyl) włączany jest do nazwy i pierwszą literą jest „i” pozostałe przedrostki (np. sec, tert; np. tert-butyl) i ich skróty (s, t; np. tBu) oraz lokanty liczbowe nie są włączane do nazwy, a więc np. dla tert-butyl pierwszą literą jest „b”. Całą nazwę zapisuje się w postaci jednego słowa, przy czym: do oddzielenia przedrostów i/lub wrostków używa się łącznika (-) do rozdzielenia lokantów używa się przecinka (,) Przykład: 2,2-dimetylobutan „2,2” – lokanty podstawników (oba podstawniki są przy tym samym atomie węgla, dlatego oznaczone są tą samą liczbą) „di” – liczba podstawników danego rodzaju przy danym atomie węgla („di-”, „tri-”, „tetra-”) „metylo” – nazwa podstawników (tutaj są to grupy metylowe) „butan” – nazwa alkanu, który ma tyle samo atomów węgla, ile łańcuch główny. Zobacz też wyższe alkany alkeny alkiny alkanosulfoniany reakcja Wurtza Przypisy
24
https://pl.wikipedia.org/wiki/Alkohole
Alkohole
Alkohole – związki organiczne zawierające jedną lub więcej grup hydroksylowych połączonych z atomem węgla o hybrydyzacji sp3. Najprostsze i najczęściej spotykane w życiu codziennym alkohole, to pochodne alkanów zawierające jedną grupę hydroksylową w cząsteczce, o wzorze ogólnym CnH2n+1OH, czyli alkohole monohydroksylowe, na przykład metylowy, etylowy, propylowy. Analogiczne związki organiczne, w których grupa hydroksylowa połączona jest z atomem węgla o hybrydyzacji sp2, to fenole (hydroksylowe pochodne benzenu i innych związków aromatycznych) lub enole (hydroksylowe pochodne alkenów). Właściwości fizyczne Ze względu na obecność silnie elektroujemnego atomu tlenu i związanego z nim atomu wodoru alkohole tworzą wiązania wodorowe, ulegając asocjacji w większe struktury. W efekcie niższe alkohole mają wysokie temperatury wrzenia i małą lotność względem swojej masy: metanol: Tw = 65 °C etanol: Tw = 79 °C propan-2-ol: Tw = 82 °C propan-1-ol: Tw = 97 °C Wyższe alkohole mają właściwości fizyczne zbliżone do alkanów o podobnych masach molowych. Niższe alkohole doskonale rozpuszczają się w rozpuszczalnikach polarnych (np. w wodzie), natomiast wyższe lepiej rozpuszczają się w rozpuszczalnikach niepolarnych (przeważa część hydrofobowa). Obowiązuje zasada podobne rozpuszcza się w podobnym. Rzędowość alkoholi Rzędowość alkoholu jest równa rzędowości atomu węgla, z którym połączona jest grupa hydroksylowa. Klasyfikacja alkoholi alkohole jednowodorotlenowe (monohydroksylowe) alkanole, np. metanol, etanol alkenole, np. alkohol allilowy alkinole, np. alkohol propargilowy alkohole cykliczne, np. cykloheksanol alkohole aromatyczne, np. alkohol benzylowy (zawierają one grupę -OH przy łańcuchu bocznym, nie przy pierścieniu) alkohole wielowodorotlenowe diole cukrole Metody otrzymywania alkoholi Wybrane metody otrzymywania alkoholi: hydratacja alkenów (zachodzi w środowisku kwaśnym), na przykład: CH2=CH2 + H2O __H+_͕ CH3−CH2−OH hydroliza halogenków alkilów reakcja Grignarda redukcja: kwasów karboksylowych, zwłaszcza wyższych kwasów tłuszczowych, łatwo dostępnych (powstają alkohole I-rzędowe) aldehydów (powstają alkohole I-rzędowe), na przykład: CH3−CHO + H2 __kat._͕ CH3−CH2−OH ketonów (powstają alkohole II-rzędowe), na przykład: (CH3)2C=O + H2 __kat._͕ (CH3)2CHOH estrów (powstają alkohole I-rzędowe) Hydrogenację katalityczną prowadzi się wobec katalizatorów niklowych, platynowych lub palladowych. Redukcję można też prowadzić wobec glinowodorku litu lub borowodorku sodu. metody swoiste dla poszczególnych alkoholi Właściwości chemiczne alkoholi Najważniejsze reakcje alkoholi: z metalami aktywnymi – tworzą się alkoholany katalityczna dehydratacja (odwodnienie) estryfikacja – reakcja z kwasami organicznymi lub nieorganicznymi, w wyniku której powstaje ester utlenianie – przebieg reakcji zależy od rzędowości alkoholu i rodzaju utleniacza; przykładowo: alkohole I-rzędowe dichromiany utleniają alkohole I-rzędowe do aldehydów (aby zapobiec ich dalszemu utlenianiu, należy usuwać produkt ze środowiska reakcji od razu po powstaniu): Ze względu na trudności w zatrzymaniu powyższej reakcji na etapie aldehydu, w skali laboratoryjnej wydajniejszym utleniaczem jest chlorochromian pirydyny (PCC). nadmanganian potasu i tlenek chromu(VI) w środowisku kwaśnym utleniają alkohole I-rzędowe od razu do kwasów karboksylowych lub ich soli, np.: alkohole II-rzędowe dichromiany w środowisku kwaśnym i PCC utleniają alkohole II-rzędowe do ketonów: nadmanganian potasu utlenia alkohole II-rzędowe także do ketonów, ale reakcja zazwyczaj biegnie dalej, z rozerwaniem wiązania C–C alkohole III-rzędowe w środowisku zasadowym nie ulegają utlenieniu wobec w środowisku kwaśnym ulegają dehydratacji do alkenów i dalszemu rozkładowi. Zastosowania Spośród alkoholi największe znaczenie gospodarcze mają metanol i etanol. Metanol rozpuszczalnik (rozpuszczają się w nim tłuszcze, żywice i pokosty) paliwo przemysł chemiczny przemysł farmaceutyczny Etanol paliwo napędowe przemysł spożywczy przemysł farmaceutyczny Nomenklatura Nazywanie alkoholi wodorotlenkami jest niepoprawne, ponieważ w wodorotlenkach między grupą -OH a atomem pierwiastka (najczęściej metalu) występuje wiązanie jonowe, natomiast w alkoholach między grupą -OH a atomem węgla występuje wiązanie kowalencyjne. Nazwy systematyczne Nazwy alkoholi tworzy się poprzez dodanie końcówki -ol z odpowiednim lokantem do nazwy macierzystego związku. Stara nomenklatura polegała na użyciu słowa alkohol i dodaniu nazwy alkilu w formie przymiotnikowej. Zobacz też acetale hydroksykwasy Przypisy
25
https://pl.wikipedia.org/wiki/Anarchizm
Anarchizm
Anarchizm – doktryna polityczna i ruch społeczny, które cechują się niechęcią wobec władzy oraz odrzuceniem własności prywatnej i wszelkich przymusowych form hierarchii. Anarchizm wzywa do zniesienia państwa, które uważa za niepotrzebne i szkodliwe. Pojawiły się pewne kontrowersje co do definicji anarchizmu, a tym samym jego historii. Jedna grupa uczonych uważa anarchizm za ściśle powiązany z walką klas. Inni uznają, że ta perspektywa jest zbyt wąska. Podczas gdy pierwsza grupa bada anarchizm jako zjawisko, które miało miejsce w XIX wieku, druga szuka jego korzeni w historii starożytnej. Murray Bookchin opisywał kontynuację „dziedzictwa wolności” ludzkości (czyli momentów rewolucyjnych), które istniało w całej historii, w przeciwieństwie do „dziedzictwa dominacji”, na które składają się państwa, kapitalizm i inne formy organizacyjne. Wraz z debatami nad definicją, kwestia, czy jest to filozofia, teoria, czy seria działań, komplikuje się. Profesor filozofii Alejandro de Agosta proponuje, że anarchizm jest „zdecentralizowaną federacją filozofii, a także praktyk i sposobów życia, wykutą w różnych społecznościach i potwierdzającą różnorodne geohistorie”. Etymologia Etymologiczne pochodzenie słowa anarchizm wzięło się od greckiego wyrazu anarchos (gr. ἄναρχος), które składa się z przedrostka an-oznaczającego „nie” lub „bez” oraz -archos oznaczającego „władca” lub „rządzący”. Także anarchos możemy tłumaczyć jako „bez władcy” czy „stan bez władzy”. Sufiks -izm oznacza ideologiczny nurt sprzyjający anarchii. Anarchizm (ang. anarchism) pojawia się w języku angielskim od 1539 jako anarchy i anarchisme od 1642; oba podkreślały poczucie nieporządku. Różne frakcje rewolucji francuskiej określiły swoich przeciwników mianem anarchistów, chociaż niewielu tak nazywanych podzielało poglądy z późniejszymi anarchistami. Niektórzy z rewolucjonistów XIX wieku, takich jak William Godwin (1756–1836) i Wilhelm Weitling (1808–1871), wniosło swój wkład w rozwój ideologii anarchizmu następnego pokolenia, chociaż nie posługiwali słowami anarchista ani anarchizm w swoich dziełach. Pierwszym filozofem politycznym, który nazwał siebie anarchistą (po francusku: anarchiste), był Pierre-Joseph Proudhon (1809–1865), co oznacza formalne narodziny anarchizmu jako ideologii w połowie XIX wieku. Od lat 90. XIX wieku i od początku we Francji libertarianizm był często używany jako synonim anarchizmu, a jego stosowanie jako synonimu jest nadal powszechne poza Stanami Zjednoczonymi. Z drugiej strony, niektórzy używają libertarianizmu jedynie w odniesieniu do indywidualistycznej filozofii wolnorynkowej, odnosząc się do anarchizmu wolnorynkowego jako anarchizmu libertariańskiego. Chociaż termin libertarianizm (ang. libertarianism) był w dużej mierze synonimem anarchizmu, jego znaczenie osłabło wraz z szerszym przyjęciem przez odmienne ideologicznie grupy, w tym zarówno Nową Lewicę, jak i libertariańskich marksistów (którzy nie łączą się z autorytarnymi socjalistami ani awangardą partyjną), a także skrajnych liberałów (zajmujący się przede wszystkim swobodami obywatelskimi). W języku angielskim niektórzy anarchiści używają określenia libertariański socjalizm (ang. libertarian socialism), aby uniknąć negatywnych konotacji anarchizmu i podkreślić jego związki z socjalizmem. W języku polskim słowo libertarianizm funkcjonuje jako określenie na ideologię libertarianizmu, natomiast zwrot libertarian socialism tłumaczy się jako socjalizm wolnościowy. Matthew S. Adams i Carl Levy napisali, że anarchizm jest używany do „opisu antyautorytarnego skrzydła ruchu socjalistycznego”. Noam Chomsky opisuje anarchizm, obok libertariańskiego marksizmu, jako „libertariańskie skrzydło socjalizmu”. Daniel Guérin napisał: Chociaż sprzeciw wobec państwa ma zasadnicze znaczenie dla myśli anarchistycznej, zdefiniowanie anarchizmu nie jest łatwym zadaniem, ponieważ wśród uczonych i samych anarchistów toczy się wiele dyskusji na ten temat, a różne nurty postrzegają anarchizm nieco inaczej. Stąd właściwe może być twierdzenie, że anarchizm stanowi zlepek filozofii politycznych sprzeciwiających się władzy i hierarchicznej organizacji (w tym kapitalizmowi, nacjonalizmowi, państwu i wszystkim z nim związanym instytucjom) w prowadzeniu wszelkich stosunków międzyludzkich na rzecz społeczeństwa opartego na decentralizacji, wolności i dobrowolnemu stowarzyszeniu. Jednak definicja ta ma te same wady, co definicja oparta na antyautorytaryzmie (co jest wnioskiem a posteriori), anty-etatyzmie (anarchizm to o wiele więcej) i etymologii (która jest po prostu zaprzeczeniem władcy). Niemniej jednak główne elementy definicji anarchizmu obejmują wolę społeczeństwa bez przymusu, odrzucenie aparatu państwowego, przekonanie, że natura ludzka pozwala ludziom istnieć w takim społeczeństwie bez przymusu lub postępować w jego kierunku oraz sugestia, jak postępować, aby realizować ideał anarchii. Herbert L. Osgood twierdził, że anarchizm jest „skrajną antytezą” autorytarnego komunizmu i socjalizmu państwowego. Peter Marshall napisał, że „w ogólności anarchizm jest bliższy socjalizmowi niż liberalizmowi. [...] Anarchizm znajduje się w dużej mierze w obozie socjalistycznym, ale ma też elementy w liberalizmie. Nie można go sprowadzić do socjalizmu, i najlepiej jest postrzegana jako odrębna i wyróżniająca się doktryna”. Według Jeremy’ego Jenningsa „[i] trudno nie stwierdzić, że te idee”, odnosząc się do anarchokapitalizmu, „są opisywane jako anarchistyczne tylko na podstawie niezrozumienia tego, czym jest anarchizm”. Dodaje następnie, że „anarchizm nie oznacza nieskrępowanej wolności jednostki (jak zdają się wierzyć „anarchokapitaliści”), ale, jak już widzieliśmy, rozszerzenie indywidualności i wspólnoty”. Nicolas Walter napisał, że „anarchizm wywodzi się z liberalizmu i socjalizmu, zarówno pod względem historycznym, jak i ideologicznym. […] W pewnym sensie anarchiści zawsze pozostają liberałami i socjalistami, a kiedy odrzucają to, co w nich dobre, zdradzają sam anarchizm. […] Jesteśmy liberałami, ale bardziej i socjalistami, ale bardziej”. Michael Newman uznaje anarchizm za jedną z wielu tradycji socjalistycznych, zwłaszcza tradycja bardziej socjalistyczna po Proudhonie i Michaile Bakuninie. Brian Morriss natomiast argumentuje, że „koncepcyjnie i historycznie mylące” jest „tworzenie dychotomii między socjalizmem a anarchizmem”. Poglądy anarchistów Anarchizm to system poglądów głoszący program całkowitego zniesienia przymusu, ucisku i wyzysku społecznego, postulujący powszechność, wolność, równość i sprawiedliwość społeczną. Były to przesłanki realizacji zasad równości we wszystkich dziedzinach życia społecznego i politycznego. Anarchizm taki dąży do osiągnięcia sprawiedliwości społecznej poprzez stworzenie społeczeństwa pozbawionego granic i podziałów etnicznych (bezpaństwowego). Anarchiści chcą usunąć ze społeczeństwa wszelkie formy dyskryminacji, wyższości i zbiorowego egoizmu. Należy tutaj dodać, iż nie wszyscy anarchiści byli przeciwni egoizmowi (np. Max Stirner). Władza Anarchiści poddają krytyce wszelkie scentralizowane formy władzy politycznej i gospodarczej. Krytyka ta obejmuje zarówno państwa totalitarne, w których jednostka traci prawie całkowicie swą podmiotowość (człowieczeństwo), jak i państwa o ustroju demokracji parlamentarnej, w jakich obywatel posiada co prawda większy wpływ na swoje życie niż w państwach totalitarnych, ale nie jest to wpływ na tyle wielki, aby można było mówić o pełnej podmiotowości polityczno-społecznej wszystkich obywateli. Zdaniem anarchistów scentralizowana, odgórna władza, w większym lub mniejszym stopniu zawsze pozostaje poza kontrolą społeczną, wyobcowując się ze społeczeństwa. Anarchiści krytykują scentralizowaną formę władzy taką jak państwo, dlatego też, w zależności od rodzaju anarchizmu, taka organizacja jak państwo zostaje zastąpiona np. federacją samorządnych gmin działających na zasadzie demokracji bezpośredniej. Sprzeciw wobec państwa i jego instytucji stanowi warunek sine qua non anarchizmu. Anarchiści uznają państwo za narzędzie dominacji i uważają, że jest ono nielegalne, niezależnie od jego politycznych tendencji. Ludzie przestają kontrolować niektóre aspekty swojego życia, a najważniejsze decyzje podejmuje niewielka elita. Ostatecznie istnienie państwa opiera się wyłącznie na władzy, niezależnie od tego, czy jest ona jawna bądź przejrzysta, ponieważ nadal ma zdolność zmuszania ludzi. Innym anarchistycznym argumentem przeciwko istnieniu państwa jest to, że ludzie tworzący rząd, nawet najbardziej altruistyczni spośród urzędników, będą nieuchronnie dążyć do zdobycia większej władzy, co prowadzi do korupcji. Anarchiści uważają pogląd, że państwo stanowi zbiorową wolę ludzi za nieosiągalną fikcję ze względu na fakt, że klasa rządząca różni się od reszty społeczeństwa. Pomimo powyższego, postawy wobec państwa wśród anarchistów są różne. Robert Paul Wolff uważał, że napięcie między władzą a autonomią oznaczałoby, że państwo nigdy nie będzie legalne. Michaił Bakunin postrzegał państwo jako „dominację za pomocą przymusu, zakamuflowaną, jeśli to możliwe, ale bezceremonialne i jawną, jeśli zajdzie taka potrzeba”. A. John Simmons i Leslie Green, którzy skłaniali się ku filozoficznemu anarchizmowi, uważali, że państwo może być prawomocne, jeśli będzie rządzone przez konsensus, chociaż uważali to za wysoce nieprawdopodobne. Istnieją również różne poglądy na temat formy zniesienia państwa. Richard Sylvan wskazuje, że pewne istniejące formy zarządzania mogą być do pogodzenia z anarchizmem, jeśli nie zawierają w sobie „elementów autorytarnych ani związanych z przymusem”. Możliwe jest istnienie w społeczeństwie jakieś przyjęte reguły czy „prawo” nie oparte na przymusie. Sylvan podkreśla, że niekiedy fałszywie zakłada się, jakoby anarchizm miał być uniwersalny, tzn. nie móc istnieć w ogóle, jeśli nie istniałby wszędzie. Kapitalizm Przez całą swoją historię anarchizm był definiowany przez swoich zwolenników jako opozycyjny wobec kapitalizmu, który ich zdaniem może być utrzymany jedynie przez przemoc państwa. Anarchiści generalnie podążają za myślą Pierre-Josephem Proudhona i sprzeciwiają się własności miejsc pracy przez kapitalistów i dążą do zastąpienia pracy najemnej stowarzyszeniami robotniczymi. Anarchiści zgadzają się również z komentarzem Piotra Kropotkina, że „pochodzenie anarchistycznego spojrzenia na społeczeństwo [leży] w krytyce [...] hierarchicznej organizacji i autorytarnych koncepcjach społeczeństwa”, a nie w prostej opozycji do państwa lub rządu. Twierdzą, że system płac ma charakter hierarchiczny i autorytarny, a zatem kapitalizm nie może być anarchistyczny. Według teorii anarchistycznej, pewne transakcje kapitalistyczne, w tym praca najemna, nie są dobrowolne, ponieważ występuje w niej zjawisko przymusu ekonomicznego. Do tego, utrzymanie struktury klasowej społeczeństwa kapitalistycznego wymaga przymusu, który narusza zarówno zasady anarchistyczne, jak i samą zasadę nieagresji. Anarchiści popierający pracę najemną robią to tylko wtedy, gdy pracodawcy i pracownicy otrzymują równe wynagrodzenie za równe przepracowane godziny i żadna ze stron nie ma władzy nad drugą. Według tej zasady, żadna jednostka nie czerpie korzyści z pracy innej osoby. Płaca otrzymywana w takiej relacji pracodawca-pracownik jest uznawana przez teorię anarchistyczną jako produkt danego pracownika. W takim społeczeństwie każdy pracownik byłby samozatrudniony i posiadałby własne środki produkcji, co skutkowałoby odejściem od umów o pracę. Według anarchistów hierarchiczna kontrola nad pracą najemną skutkuje wyobcowaniem pracowników od swej własnej pracy, a więc od siebie samych. Pracownicy już nie rządzą samymi sobą w godzinach pracy, a więc nie są już wolni. Kapitalizm, traktując pracę jak towar analogiczny do wszystkich innych towarów, neguje kluczową różnicę między pracą a innymi „zasobami” – a przynajmniej jej nierozdzielność od swego wykonawcy – praca, w przeciwieństwie do innej „własności”, jest obdarzona wolą i działaniem. Oddzielanie pracy od innych aktywności życiowych i podporządkowywanie jej prawom rynku oznacza unicestwienie jej naturalnej, organicznej formy istnienia – formy, która ewoluowała wraz z ludzką rasą przez tysiąclecia działalności gospodarczej opartej na współpracy, dzieleniu się i wzajemnej pomocy – i zastąpieniu jej przez atomistyczną i indywidualistyczną formę opartą na kontrakcie i konkurencji. Jak wskazuje to Bob Black w swojej książce: Anarchizm poddaje krytyce kapitalistyczną teorię mówiącą o wolności wyboru konsumenta, w której to on ma decydować o sile popytu na konkretne dobra i usługi, co niekiedy porównywane jest do głosowania w systemie demokratycznym. Według anarchistów, poczucie wolności wyboru konsumenta jest złudne, ponieważ podejmowanie decyzji na rynku ma charakter głęboko bierny i reakcyjny (to znaczy oparty na reagowaniu na kierunki działań innych ludzi). Klient wybiera spomiędzy produktów na półce, które zostały zaprojektowane i wyprodukowane przez innych dla zysku. Klient to końcowy użytkownik, w zasadzie raczej widz niż aktor, po prostu wybierający jedną z możliwości stworzonych gdzie indziej przez kogo innego. Zwraca się również uwagę na mocno zróżnicowaną zamożność konsumentów. Z tych powodów koncepcja „klienta”, według anarchistów, zaniedbuje branie pod uwagę różnic pod względem siły nabywczej, jakie istnieją na rynku, jak również przypisuje jednostce rolę w istocie bierną. W najlepszym wypadku jednostki mogą działać na rynku w odosobnieniu przy pomocy swojej siły nabywczej. Model „klienta” działa przeciwko jakiejkolwiek próbie „zbadania” stanu faktycznego. Po pierwsze, klienci rzadko kiedy znają znaczenie czy konsekwencje wytwarzania oferowanych im dóbr, ponieważ mechanizm cen wstrzymuje dotarcie do nich takich informacji. Po drugie – ponieważ atomistyczna natura rynku utrudnia dyskusję o tym, „dlaczego” i „jak” towary są produkowane – pozostaje wybór między różnymi wersjami „czegoś”. Zamiast krytycznej oceny różnych „za” i „przeciw” przy określonych praktykach ekonomicznych, wszystko, co się proponuje, to możliwość wyboru spomiędzy rzeczy już wyprodukowanych. Możliwe jest jedynie reagowanie, wybierając możliwość, która czyni najmniejszą szkodę, gdy szkoda już została wyrządzona (a często nie ma nawet takiego wyboru). Natomiast po to, żeby odkrywać społeczny i ekologiczny wpływ danego wyrobu, konieczne jest wybranie roli aktywnej, włączając się do grup, które dostarczają tego rodzaju informacji – informacji, których rynek nie może udzielić i nie udziela, pomimo że mają one zasadnicze znaczenie przy podejmowaniu racjonalnych decyzji. Zwraca się również uwagę, że decyzje konsumenckie na rynku są często ograniczone wskutek nacisków ekonomicznych. Przywoływany jest tutaj przykład sił rynkowych, które zmuszają firmy, pod groźbą bankructwa, do robienia wszystkiego, co tylko możliwe, aby ograniczać wydatki. Firmy, które zanieczyszczają powietrze, utrzymują złe warunki pracy itd. często zyskują przewagę w konkurencji dzięki takim praktykom, a inne firmy muszą pójść za ich przykładem, albo zostać wyeliminowane z biznesu. „Wyścig na dół” zostaje zapewniony, a jednostki podejmują „decyzje rozpaczy” tylko po to, żeby przeżyć. Osobiste przywiązanie do pewnych wartości, ujmując to inaczej, może się okazać bez znaczenia po prostu dlatego, że równoważąca je ekonomiczna presja staje się zbyt silna. W XX wieku kilku ekonomistów zaczęło formułować odłam radykalnego amerykańskiego libertarianizmu znany jako anarchokapitalizm. Niektórzy zwolennicy tej ideologii twierdzą, że jest on formą anarchizmu indywidualistycznego. Jednak większość wczesnych anarchistów indywidualistycznych uważała się za „zagorzałych antykapitalistów [którzy nie widzą] żadnej sprzeczności między ich indywidualistyczną postawą a odrzuceniem kapitalizmu”. Wielu określało siebie jako socjalistów. Definiowali oni kapitalizm na różne sposoby, ale zazwyczaj dyskutowano o nim w kategoriach lichwy: „Istnieją trzy formy lichwy: odsetki pieniężne, czynsz za ziemię i domy oraz zysk w zamian. Kto je otrzymuje, jest lichwiarzem”. Inni anarchoindywidualiści mieli tendencję do wspierania wolnego handlu, wolnej konkurencji i różnych poziomów własności prywatnej, jak np. mutualiści, którzy opierają swoje poglądy na normach użytkowania i okupacji. Niemniej, postawy te dalej związane były ze sprzeciwem wobec kapitalizmu. Zwolennicy anarchokapitalizmu często popierają pracę najemną i sprzeciwiają się demokracji w miejscu pracy, co jest trudne od pogodzenia z innymi szkołami anarchizmu. Ponieważ anarchokapitalizm przedkłada ekonomię leseferyzmu ponad równość ekonomiczną, jest powszechnie postrzegany jako niezgodny z antykapitalistyczną i egalitarną tradycją anarchizmu. Chociaż teoria anarchokapitalistyczna zakłada zniesienie państwa na rzecz w pełni leseferystycznej gospodarki, leży poza tradycją anarchizmu. Anarchokapitalizm podziela jedynie antypatię anarchizmu wobec państwa, a nie antypatię do hierarchii w ogóle. Wynika z innego paradygmatu niż anarchizm i ma zasadniczo inne podejście oraz cele. Pomimo członu anarcho-, ideologia anarchokapitalizmu jest ściślej powiązana z kapitalizmem i prawicowym libertarianizmem niż z anarchizmem. Niektórzy w ramach tradycji leseferystycznej odrzucają określenie anarchokapitalizmu, wierząc, że kapitalizm może odnosić się albo do rynku leseferyzmu, który wspierają, albo do systemu regulowanego przez państwo, któremu się sprzeciwiają. Organizacje anarchistyczne, takie jak Confederación Nacional del Trabajo (Hiszpania), Anarchist Federation (Wielka Brytania i Irlandia) czy Federacja Anarchistyczna (Polska), na ogół zajmują wyraźnie antykapitalistyczne stanowisko. Zaliczanie anarchokapitalizmu do szkół anarchizmu spotkało się z wyraźnym oporem tych, którzy utrzymują, że kapitalizm jest z natury opresyjny lub etatystyczny, a wielu anarchistów i uczonych nie uważa anarchokapitalizmu za właściwie spójny z duchem, zasadami, czy historią anarchizmu. Gary Chartier, Kevin Carson, Roderick T. Long, Charles W. Johnson, Brad Spangler, Sheldon Richma i Chris Matthew Sciabarr argumentują, że ze względu na swoje dziedzictwo i cele emancypacyjne, potencjalny radykalny anarchizm rynkowypowinien być postrzegany przez jego zwolenników i przez innych jako część tradycji socjalistycznej, a także że anarchiści rynkowi mogą i powinni nazywać się socjalistami, powtarzając język wolnościowych socjalistów, takich jak amerykańscy indywidualistyczni anarchiści Benjamin Tucker i Lysander Spooner czy Brytyjczyk Thomas Hodgskin. Jedną z głównych kwestii i podziałów między anarchizmem a anarchokapitalizmem są terminy: kapitalizm i socjalizm. Dla anarchokapitalistów kapitalizm oznacza raczej wolny rynek niż faktycznie istniejący kapitalizm (którego są krytykami, argumentując, że problem tkwi w korporacjonizmie i kapitalizmie państwowym, terminie ukutym przez niemieckiego socjalistę Wilhelma Liebknechta, ale którego koncepcja funkcjonuje również u anarchistów, takich jak np. Michaił Bakunin i Jan Wacław Machajski, a nie samego kapitalizmu czy wolnorynkowców) jak uważają antykapitaliści. Jednak termin socjalista pierwotnie obejmował każdego przeciwnika kapitalizmu, termin wykreowany w XVIII wieku na oznaczenie konstruowanego systemu politycznego zbudowanego na przywilejach dla właścicieli kapitału. Jako całość, anarchizm jest postrzegany jako część tradycji socjalistycznej, z głównym podziałem między anarchistami antyrynkowymi (większość anarchistów społecznych, w tym anarchokomuniści, anarchosyndykaliści i kolektywistyczni anarchiści), którzy popierają jakąś formę zdecentralizowanego planowania gospodarczego i anarchiści rynkowi (niektórzy indywidualistyczni anarchiści, w tym anarchiści wolnorynkowi i mutualiści), którzy wspierają socjalizm wolnorynkowy. Według teorii anarchistycznej, kapitalizm jest oparty na państwie, i jest mu ono niezbędne do przetrwania, a kapitalizm państwowy postrzega się jako nieunikniony rezultat zarówno kapitalizmu, jak i socjalizmu państwowego. Co więcej, sam wolny rynek dla klasycznych ekonomistów, takich jak Adam Smith, niekoniecznie odnosił się do rynku wolnego od ingerencji rządu, jak się to obecnie powszechnie przyjmuje, ani do tego, jak widzą go anarchokapitaliści, ale raczej wolny od wszelkich form przywilejów ekonomicznych i monopoli, co oznacza, że renty ekonomiczne, czyli zyski generowane z braku doskonałej konkurencji, muszą zostać zmniejszone lub wyeliminowane w jak największym stopniu poprzez wolną konkurencję. Podczas gdy anarchokapitaliści, którzy opowiadają się za własnością prywatną, która opiera się na własności środków produkcji i nieruchomości, a nie użytkowaniu, stosują normy własności prywatnej, a także zasadę domostwa. Są oni uważani za prawicowych libertarian, a nie anarchistów. Własność Inną ważną kwestią w antykapitalizmie anarchizmu jest pojęcie posiadania, a dokładniej kwestie własności prywatnej. Własność prywatna, od czasów książki Proudhona Czym jest własność? opublikowanej w 1840, jest przeciwstawiana posiadaniu (lub to, co inni socjaliści, w tym marksiści i komuniści, określają jako własność osobistą), które uważał za wolność („posiadanie to wolność”). Poprzez własność prywatną Proudhon rozumiał własność produkcyjną (taką jak ziemia czy infrastruktura; inaczej określane też jako środki produkcji i środki pracy) i uznawał ją za kradzież (pisząc spopularyzowane w późniejszym czasie zdanie „Własność jest kradzieżą”), argumentując, że jego zdaniem mogła być legitymizowana wyłącznie poprzez pracę. W swojej słynnej publikacji napisał: Anarchiści sprzeciwiają się własności prywatnej uznając ją jako źródło narzuconej, hierarchicznej władzy i przywilejów dla uprzywilejowanych grup społecznych. Argumentują, że kapitalizm, powodując wzrost ideologicznie nienaruszalnego „prawa” do prywatnej własności, równie szybko spowoduje wzrost nierównego podziału surowców z zewnątrz, a to z kolei sprawi, że zwiększy się dystans pomiędzy pozycją przetargową „posiadaczy” i „nie-posiadaczy”. Według niektórych zwolenników kapitalizmu występuje pojęcie „samoposiadania” [„self-ownership”, wyrażenie mówiące o tym, że jesteśmy panami samych siebie – dop. tłum.], które stanowi według nich pewną podstawę własności prywatnej. Anarchiści argumentują, że to właśnie kapitalizm czyni „samoposiadanie” niemożliwym, ponieważ podstawowym warunkiem „samoposiadania” jest nie robić nic wbrew swojej woli, natomiast system kapitalistyczny osłabia tę ideę. Większość ludzi jest stawiana w sytuacji, w której najlepszym wyjściem jest dobrowolnie dać się wykorzystać w sposób, który logicznie nie idzie w parze z prawdziwym „samoposiadaniem”. Indywidualistyczni anarchiści, tacy jak Benjamin Tucker, zaczęli nazywać posiadanie „własnością osobistą” lub „własnością prywatną”. Takie rozróżnienie jest niezwykle ważne dla anarchistów i innych socjalistów, ponieważ w kapitalistycznym modelu produkcji własność prywatna i osobista są uważane za dokładnie równoważne. W teorii anarchistycznej, jak i socjalistycznej, dookonuje się następujących rozróżnień: Własność osobista obejmuje przedmioty przeznaczone do użytku osobistego (np. szczoteczka do zębów, ubrania, domy, pojazdy, a czasem pieniądze). Musi być zdobyta w sprawiedliwy sposób, a właściciel ma prawo do wykluczania innych przy podziale. Nie może ona również służyć do wyzysku. Anarchiści ogólnie zgadzają się, że własność prywatna to relacja społeczna między właścicielem a osobami jej pozbawionymi (a nie relacja między osobą a rzeczą), np. artefakty, fabryki, kopalnie, tamy, infrastruktura, naturalna roślinność, góry, pustynie i morza. W tym kontekście własność prywatna oznaczają posiadanie środków produkcji, a nie dobra osobiste. U anarchistów i socjalistów pojęcie własności prywatnej odnosi się do kapitału i środków produkcji, podczas gdy własność osobista odnosi się do konsumentów i nie-kapitałowych towarów i usług. Demokracja Ustrój anarchistyczny jest uważany przez anarchistów za najszerszą formę demokracji, w której jednostka posiada wpływ na swoje życie, uczestnicząc bezpośrednio w procesie ustawodawczym i wykonawczym. Jednocześnie anarchiści są przeciwni demokracji przedstawicielskiej. Podczas gdy większość anarchistów stanowczo sprzeciwia się głosowaniu lub innej formie uczestnictwa w funkcjonowaniu państwowych instytucji, znaleźli się i tacy, którzy się z tym nie zgadzają. Przykładowo, prominentny anarchista, Pierre-Joseph Proudhon, dwa razy startował w 1848 w wyborach do francuskiego Zgromadzenia Konstytucyjnego, a Paul Brousse opracował koncepcję wolnościowego municypalizmu w Szwajcarii w latach 90. XIX wieku, która obejmowała udział w wyborach lokalnych. Wielu anarchistów sprzeciwia się głosowaniu z trzech powodów. Po pierwsze, uważają, że jest to nieefektywne i skutkuje co najwyżej drobnymi reformami. Po drugie, branie udziału w wyborach owocowało w przeszłości tym, że radykałowie stawali się częścią systemu, któremu się sprzeciwiali, zamiast doprowadzić do jego końca. Po trzecie, niektórzy twierdzą, że głosowanie oznacza potwierdzenie prawomocności systemu. Najbardziej fundamentalna jest idea, że demokracja przedstawicielska jest wadliwa sama w sobie. Państwo wykorzystuje teorię demokratycznego przejęcia władzy nad ludnością, a następnie używa swojej siły do zwalczania wszelkich odrębnych poglądów. Państwo w rzeczywistości prawie nigdy nie służy interesom ludności, a po prostu stwarza taką iluzję, aby zyskać władzę. W czasie wyborów prezydenckich w USA w 2004 anarchistyczny kolektyw CrimethInc zapoczątkował kampanię promującą wyższość bezpośredniego działania nad zmianami, które politycy obiecywali wprowadzić po wyborach. Hasłem kampanii było: „Nie tylko głosuj, ale bądź aktywny”. Anarchiści z innych krajów często angażowali się w podobne kampanie przeciw głosowaniu. Inni opowiadali się za bardziej pragmatycznym podejściem obejmującym głosowanie w referendach, a niektórzy prominentni anarchiści, jak Howard Zinn i Noam Chomsky, zadeklarowali swoje poparcie dla progresywnych kandydatów, takich jak Ralph Nader. Indywidualistyczny anarchista Lysander Spooner stwierdził, że wielu zwolenników państwa uważało zarówno głosowanie, jak i wstrzymywanie się od głosu za potwierdzanie prawomocności państwa. Odrzuca on więc stwierdzenie, że istniejące rządy demokratyczne mają swoje uzasadnienie w zgodzie większości. Opisał to w swoim eseju pt. „No Treason”. Dla indywidualistycznych anarchistów „system demokratyczny oparty na decyzji większości jest nieważny. Każdy atak na naturalne prawa jednostki jest niesprawiedliwy i jest symbolem tyranii większości”. Przedstawiciel wolnościowego municypalizmu Murray Bookchin skrytykował indywidualistycznych anarchistów, za sprzeciwianie się demokracji mówiąc, że zasada większości jest spójna z anarchizmem, aczkolwiek preferuje on bardziej termin zgromadzenie niż demokracja. Bookchin został w odpowiedzi oskarżony o „municypalny etatyzm”, czyli non-anarchizm. Później, Bookchin zrzekł się anarchizmu na rzecz komunalizmu. Równość Według anarchistów wszyscy są równi bez względu na narodowość, rasę, płeć, tożsamość seksualną, wiek, religię. Z tego powodu postulują oni utworzenie społeczeństwa bez podziału na klasy, w którym każda jednostka ma równy wpływ na wygląd życia społecznego. Naród i patriotyzm Anarchiści uważają, że nie ma złych ani dobrych narodów – są tylko złe państwa i źle czyniące jednostki, a podziały na narody są efektem szkodliwej działalności państw, zaś wojny są najczęściej rezultatem tych podziałów. Dlatego zazwyczaj potępiają oni wszelkie wojny, a częścią ich ideologii często jest kosmopolityzm, internacjonalizm, antypatriotyzm oraz uznanie, że wszyscy ludzie są braćmi, a ojczyzną ludzkości jest cała Ziemia, nie państwo. Anarchizm ma długą historię sprzeciwiania się imperializmowi, zarówno w rdzennych narodach (kolonizatorzy) i narodach peryferii (kolonizowani). Anarchiści wolą skupić się na działaniu w kraju rodzinnym i solidaryzować się ze współpracownikami z innych krajów, np. Guy Aldred został skazany za drukowanie książki Shyamji Krishnavarmsa pt. Indyjski Socjolog. Innym przykładem tego był Rudolf Rocker, niemiecki anarchista i antyfaszysta, który działał szczególnie aktywnie wśród żydowskich robotników. W swojej książce Nacjonalizm i Kultura opowiedział się za „federacją Europejczyków”, która obejmowałaby również Żydów. Odrzucając biologiczne teorie rasy i pojęcie narodu twierdził, że odkąd państwa europejskie podbijały i kolonizowały resztę świata, sukces wolnościowej organizacji wśród Europejczyków był „pierwszym warunkiem utworzenia federacji świata, która zapewni także tzw. narodom kolonialnym takie same prawa do szczęścia”. Wielu współczesnych anarchistów i anty-imperialistów podziela jego podejście. Historycznie rzecz biorąc, anarchizm wspierał ruch anacjonalistyczny, jak również język esperanto, skonstruowany tak, aby służył jako politycznie i etnicznie neutralny język międzynarodowy. Po hiszpańskiej wojnie domowej, frankistowska władza prześladowała anarchistów i katalońskich nacjonalistów, wśród których powszechne było używanie języka esperanto. Anarchiści niekiedy łączyli oraz łączą idee narodowowyzwoleńcze w swoich poglądach. Były one szczególnie obecne wśród anarchistów przełomu XIX i XX wieku w wielu państwach, w tym również i w Polsce. Wyróżnić można m.in. łączących patriotyzm z anarchosyndykalizmem Edwarda Abramowskiego, Józefa Zielińskiego i Augustyna Wróblewskiego. Innym polskim anarchistą, który wiązał postawę patriotyczną z anarchizmem był Jan Hempel. Wpływy anarchistyczne w jego twórczości można dostrzec w dziele Kazania Piastowe z 1911, które zostały pozbawione nacjonalistycznych wpływów obecnych w poprzednim dziele – Kazania polskie (1907). Takie postawy wiązały się jednak z ideą wyzwolenia spod omnipotentnego państwa, przy czym naród miał stanowić tutaj zarzewie walki, a nie cel sam w sobie. Chińscy anarchiści byli bardzo aktywni na początku istnienia chińskiego ruchu nacjonalistycznego oraz w czasie oporu względem brytyjskich, a później japońskich kolonizacji Chin. Anarchiści również głęboko angażowali się w anty-imperialistyczno-nacjonalistyczny ruch na terenach Wietnamu, Korei, Kuby, Ukrainy, Irlandii, Meksyku i w całej Afryki. Anarchizm ma również wpływ na współczesny ruch indygenistyczny. Pierwiastek narodowy (etniczny) widoczny jest ponadto w demokratycznym konfederalizmie, wypracowanym przez kurdyjski ruch niepodległościowy. Nie należy jednak wiązać idei prawicowego nacjonalizmu z myślą anarchistyczną. Tak zwany ruch narodowo-anarchistyczny nie jest uznawany za część anarchizmu przez uczonych oraz samych anarchistów z powodu sprzeciwu anarchizmu wobec nacjonalizmu, państwa narodowego, plemienność i neo-plemienność, a także obecności w narodowym anarchizmie rasizmu i seksizmu. Wobec niego często kierowane są zarzuty, że jest to ideologia białych nacjonalistów, którzy promują separatyzm etniczny i rasowy, a także, że stanowi rozwój myśli radykalnej prawicy, a nie samego anarchizmu. Ideologia określa się anarchistyczną, jednak bez historycznego i filozoficznego związku z samą ideą anarchizmu. Środowisko Środowisko i zrównoważony rozwój były zainteresowaniem myśli anarchistycznej co najmniej od momentu wydania w 1899 przez Piotra Kropotkina książki Pola, fabryki i warsztaty. Jednak od końca lat 70 XX w. wśród anglojęzycznych anarchistów rosło zaangażowanie w kwestie ochrony środowiska. Ekoanarchiści lub też zieloni anarchiści często popierają głęboką ekologię, światopogląd, który dąży do kultywowania bioróżnorodności i zrównoważonego rozwoju. Ekoanarchiści często stosują bezpośrednie działania przeciwko tym, co uważają za instytucje niszczące Ziemię. Innym ważnym składnikiem jest ekofeminizm, będący nurtem w obrębie feminizmu, według którego opresyjne zachowania wobec kobiet mają to samo źródło co destrukcyjne traktowanie środowiska naturalnego. Prace Murraya Bookchina na temat ekologii społecznej, Davida Watsona z magazynem „Fifth Estate”, Steve’a Bootha z brytyjskiej publikacji „Green Anarchist” i pisma Grahama Purchase’a na temat zielonego syndykalizmu przyczyniły się do szerokiej różnorodności i zakresu zielona myśl i działań anarchistów/ekoanarchistów. Zielony anarchizm obejmuje również krytykę kapitalizmu przemysłowego i cywilizacji samej w sobie, co szczególnie obecne jest w myśli anarchoprymitywistycznej, który jest jednak często krytykowany przez przedstawicieli innych odłamów anarchizmu. Polityka Do polityki anarchizmu należą między innymi decentralizacja władzy, federalizm, egalitaryzm, socjalizm, liberalizm społeczny, samorządność, dobrowolność, pacyfizm, antymilitaryzm, pomoc wzajemna, demokracja bezpośrednia, sprawiedliwość, ekonomia uczestnicząca, akcja bezpośrednia, solidarność międzyludzka. Taktyka Taktyka ruchu anarchistycznego przybiera różne formy, ale generalnie służy dwóm głównym celom, po pierwsze przeciwstawieniu się establishmentowi, a po drugie promowaniu anarchistycznej etyki i odzwierciedlaniu anarchistycznej wizji społeczeństwa, ilustrującej jedność środków i celów. Można dokonać również podziału, według którego z jednej strony anarchizm opowiada się za walką z państwem i instytucjami za pomocą środków rewolucyjnych, a z drugiej strony za dążeniem do zmian społecznych za pomocą środków ewolucyjnych. Taktyki ewolucyjne obejmują niestosowanie przemocy, odrzucają przemoc i przyjmują stopniowe podejście do anarchistycznych celów, chociaż w praktyce oba podziały nakładają się na siebie. Taktyka anarchistów uległa zmianie w ciągu ostatniego stulecia. Anarchiści na początku XX wieku skupiali się bardziej na strajkach i walce zbrojnej, podczas gdy współcześni anarchiści stosują o wiele szerszy wachlarz podejść. Taktyka epoki klasycznej W epoce klasycznej anarchiści mieli tendencje bojowe. Nie tylko stawili czoła państwowym siłom zbrojnym, jak w Hiszpanii i na Ukrainie, ale niektórzy z nich wykorzystali terroryzm jako tzw. propagandę czynu. Przeprowadzano próby zamachu na głowy państw, z których część zakończyła się sukcesem. Anarchiści również brali udział w rewolucjach. Wielu z nich, zwłaszcza galleanistów, uważało, że próby te będą impulsem do rewolucji przeciwko kapitalizmowi i państwu. Duża część tych ataków była dokonywana przez indywidualnych napastników, a większość miała miejsce pod koniec lat 70. XIX wieku, na początku lat osiemdziesiątych XIX wieku i latach dziewięćdziesiątych XIX wieku, a niektóre miały miejsce jeszcze na początku XX wieku. Ich spadek rozpowszechnienia był wynikiem poszerzeniem władzy sądowniczej oraz represji stosowanych przez instytucje państwowe. Związek między anarchizmem a przemocą zawsze stanowił kontrowersyjny temat wśród anarchistów. Z jednej strony anarchopacyfiści wskazują na jedność środków i celów. Z drugiej strony, inne grupy anarchistyczne opowiadają się za akcją bezpośrednią, taktyką, która może obejmować akty sabotażu, a nawet akty terroryzmu. Taka postawa była dość widoczna sto lat temu, kiedy postrzegano państwo jako tyrana, a niektórzy anarchiści wierzyli, że mają wszelkie prawo przeciwstawić się jego uciskowi za pomocą wszelkich możliwych środków. Emma Goldman i Errico Malatesta, którzy byli zwolennikami ograniczonego użycia przemocy, argumentowali, że przemoc jest jedynie reakcją na przemoc państwa jako zło konieczne. Anarchiści odegrali aktywną rolę w akcjach strajkowych, chociaż byli raczej przeciwni formalnemu syndykalizmowi, postrzegając go jako reformistyczny. Strajk widzieli jako część ruchu, który dążył do obalenia państwa i kapitalizmu. Anarchiści również wzmocnili swoją propagandę w sztuce, z których niektórzy praktykowali naturyzm i nudyzm. Ci anarchiści stworzyli także społeczności oparte na przyjaźni i zaangażowaniu w media. Rewolucyjna taktyka W obecnej epoce włoski anarchista Alfredo M. Bonanno, zwolennik insurekcjonizmu, powrócił do debaty na temat przemocy, odrzucając taktykę jej niestosowania przyjętą od końca XIX wieku przez Kropotkina i innych znanych anarchistów. Zarówno Bonanno, jak i francuska grupa The Invisible Committee opowiadają się za małymi, nieformalnymi grupami interesu, w których każdy członek jest odpowiedzialny za swoje własne działania, ale współpracuje, aby zlikwidować ucisk za pomocą sabotażu i innych brutalnych środków przeciwko państwu, kapitalizmowi i innym wrogom. Członkowie The Invisible Committee zostali aresztowani w 2008 pod różnymi zarzutami, w tym terroryzmu. Ogólnie rzecz biorąc, współcześni anarchiści są znacznie mniej agresywni i wojowniczy niż ich ideologiczni przodkowie. Najczęściej angażują się w konfrontacje z policją podczas demonstracji i zamieszek, zwłaszcza w krajach takich jak Kanada, Meksyk, Niemcy czy Grecja. W przypadku tego ostatniego najbardziej wyrazistym przykładem podobnych działań anarchistycznych jest ateńska dzielnica Eksarchia, która w części jest kontrolowana przez lokalną społeczność. W ramach tzw. kultury bezpieczeństwa, anarchiści w czasie protestów stosują taktykę czarnego bloku, który często ściera się z policją. Jednak anarchiści ścierają się nie tylko z przedstawicielami władz państwowych; angażują się również w walkę z faszystami, rasistami czy szeroko rozumianą skrajną prawicą, podejmując działania antyfaszystowskie i mobilizując się, aby zapobiec obecności przedstawicieli tych idei w przestrzeni publicznej. Taktyka ewolucyjna Anarchiści powszechnie stosują akcję bezpośrednią. Może to przybrać formę zakłócania i protestowania przeciwko niesprawiedliwej hierarchii czy samodzielnego zarządzania własnym życiem poprzez tworzenie kontr-instytucji, takich jak gminy, niehierarchiczne kolektywy czy spółdzielnie pracy. Podejmowanie decyzji jest często dokonywane w sposób antyautorytarny (stosowana jest forma demokracji partycypacyjnej), gdzie każdy ma równy głos w każdej decyzji, co jest podejściem znanym jako horyzontalizm. Współcześni anarchiści angażowali się w różne ruchy oddolnej demokracji, które są mniej więcej oparte na horyzontalizmie, chociaż nie są jawnie anarchistyczne, ale szanujące osobistą autonomię i uczestniczące w masowym aktywizmie, takim jak strajki i demonstracje. Tego typu sytuacja miała miejsce m.in. podczas masowych protestów Occupy Wallstreet. W przeciwieństwie do anarchizmu z epoki klasycznej, współcześnie obecna jest tendencja niepolegania w przypadku swoich myśli czy działań wyłącznie na teorii anarchizmu epoki klasycznej czy odwoływania się do klasycznych anarchistów, takich jak Piotr Kropotkin lub Pierre-Joseph Proudhon. Tacy anarchiści woleliby raczej opierać swoje myśli i praktyki na własnym doświadczeniu, które później będą teoretyzować. Niemniej anarchiści współcześnie nadal wspierają i uczestniczą w strajkach, zwłaszcza strajkach dzikich, które nie są organizowane centralnie przez syndykat. Proces decyzyjny dokonywany przez niewielkie grup interesu odgrywa znaczącą rolę taktyczną w ruchu anarchistycznym. Stosowane są różne metody w celu zbudowania konsensusu między członkami grupy bez potrzeby mianowania przywódcy czy grupy wiodącej. Jednym ze sposobów jest odgrywanie przez osobę z grupy roli moderatora, który pomaga osiągnąć konsensus bez udziału w dyskusji lub promowania określonej postawy. Tego rodzaju grupy liczą przeważnie 5–20 osób, co ma na celu wzmocnić autonomię i przyjaźnie między członkami. Najczęściej łączą się ze sobą, tworząc większe sieci. Podobnie jak w przeszłości, wydawanie prasy jest popularne w ruchu anarchistycznym, choć duża część przeszła do internetu, gdzie rozpowszechniane są różnego rodzaju publikacje, od artykułów, manifestów, aż po całe książki. Taki stan rzeczy spowodowany był trudnościami związanymi z dystrybucją czasopism, jak i często bezkosztowym hostingiem i względnie łatwym wdrażaniem stron internetowych. Ruch anarchistyczny jest również zaangażowany w tworzenie różnych programów, które są udostępniane za darmo. Sposób, w jaki ci haktywiści pracują nad rozwojem i rozpowszechnianiem, przypomina anarchistyczne ideały, zwłaszcza jeśli chodzi o ochronę prywatności użytkowników przed inwigilacją ze strony państwa i korporacji. W ruchu anarchistycznym popularny jest ruch skłotingu oraz okupowania przestrzeni publicznych. Tego typu miejsca często nazywane są tymczasowymi strefami autonomicznymi (TAZ), które za założenia mają trwać przez jak najdłuższy możliwy czas. Funkcjonują najczęściej jako tzw. centra socjalne, miejsca, w których organizowane są różnego rodzaju wydarzenia, czy to artystyczne, naukowe, czy też aktywistyczne; prowadzone są biblioteki (np. Poznańska Biblioteka Anarchistyczna na skłocie Rozbrat), sklepy (np. darmowy sklep na skłocie Syrena), kawiarnie, jadłodajnie, infoshopy, centra pomocy osobom potrzebującym itd. Przestrzenie te służą również celom mieszkalnym. Ruch anarchistyczny postrzega skłoting jako sposób na odzyskanie przestrzeni miejskiej z kapitalistycznego rynku, która ma służyć pragmatycznym potrzebom. Zdobywanie przestrzeni umożliwia anarchistom eksperymentowanie z ich pomysłami i budowanie więzi społecznych. Należy jednak pamiętać, że nie wszyscy anarchiści mają wobec skłotingu takie same postawy. Przemoc i brak przemocy Anarchiści często byli postrzegani jako niebezpieczni i agresywni, prawdopodobnie przez szereg głośnych, brutalnych działań takich jak, zamieszki, zamachy, powstania i akty terroryzmu popełnione przez niektórych anarchistów. Terroryzm i zamachy są potępiane przez większość anarchistycznych ideologii, jednakże nie istnieje zgoda w kwestii usprawiedliwienia i użyteczności przemocy. Niektórzy anarchiści sprzeciwiają się przymusowi, podczas gdy inni popierają go, w formie niestroniącej od przemocy rewolucji, prowadzącej do anarchii lub utopii. Niektórzy anarchiści podzielają pogląd Lwa Tołstoja, przedstawiciela chrześcijańskiego anarchizmu, o nieużywaniu przemocy. Ci anarcho-pacyfiści twierdzą, że bierny opór jest jedyną metodą na przeprowadzenie prawdziwej anarchistycznej rewolucji. Często postrzegają oni przemoc jako podstawę, na której opiera się rząd. Dowodzą oni, że przemoc jest nieusprawiedliwiona, bez względu na to do kogo jest skierowana. Inni anarchiści popierają ideę Marshalla Rosenberga o komunikacji bez przemocy, która odnosi się do podstawowych potrzeb i uczuć człowieka, za pomocą strategii próśb, obserwacji i empatii. Odrzucają pacyfizm jako lewicową, kompromisową strategię, która tylko utrwala przemoc. Inni z kolei anarchiści, tacy jak Michał Bakunin i Errico Malatesta postrzegali przemoc jako niezbędną i pożądaną siłę. Malatesta stwierdził, że jest „koniecznym niszczenie z użyciem przemocy, skoro nie da się inaczej”. Natomiast znane stało się również napisane przez Bakunina zdanie: „radość niszczenia jest równocześnie radością tworzenia”. W okresie od lat 70. XIX wieku do początku XX stulecia w ruchu anarchistycznym funkcjonowała taktyka działania nazywana „propagandą czynu”. Pomiędzy 1894 a 1901 anarchiści zorganizowali liczne zamachy na głowy państw, m.in.: Prezydent Francji Sadi Carnot (1894); Elżbieta Bawarska (1898); Król Włoch Umberto I (1900); Prezydent USA William McKinley (1901). Taka „propaganda czynu” nie była popularna wśród anarchistów i wielu z nich wyrzekło się jej. Przykładowo, Leon Czołgosz, który był sprawcą zamachu na prezydenta McKinleya, tłumaczył się, że został zainspirowany przez wykłady Emmy Goldman. Została ona zatrzymana na 2 tygodnie za „publiczne zachęcanie do zabójstwa prezydenta USA”. Znana z radykalizmu obyczajowego i światopoglądowego, często stawała się celem ataków jako inspiratorka zamachów i aktów terroryzmu. Ona jednak wyparła się jakichkolwiek powiązań z osobą Leona Czołgosza. Goldman w swojej definicji anarchizmu zawarła spostrzeżenie, że wszystkie rządy opierają się na przemocy i to jest jeden z wielu powodów, dla którego powinno się im przeciwstawić. Goldman nigdy nie sprzeciwiała się takim taktykom jak zamachy, do czasu gdy wyjechała do Rosji, gdzie była świadkiem przemocy stosowanej przez rosyjską władzę i Armię Czerwoną. Od tego momentu zaczęła potępiać terror, zwłaszcza stosowany przez władze i popierać akty przemocy tylko w ramach samoobrony. Opisy w prasie i literaturze popularnej (np. rzucający bomby anarchista z powieści Tajny Agent Josepha Conrada) pomogły stworzyć trwały wizerunek publiczny anarchistów jako agresywnych terrorystów. Został on wzmocniony przez takie wydarzenia jak Haymarket Riot w Chicago, gdzie anarchiści zostali obarczeni winą za rzucenie bomby w policję, która przyjechała, aby zakończyć demonstrację. Pacyfizm Większość anarchistów uważa, że sprzeciw wobec militaryzmu jest nieodłącznym elementem ich filozofii. Niektórzy anarchiści idą dalej i podzielają pogląd Lwa Tołstoja dotyczący niestosowania przemocy (należy natomiast podkreślić, że anarchopacyfiści niekoniecznie są chrześcijańskimi anarchistami, tak jak Tołstoj), opowiadając się za oporem pokojowym jako jedyną metodą osiągnięcia prawdziwie anarchistycznej rewolucji. Literatura anarchistyczna często przedstawia wojnę jako działalność, za pomocą której państwo zdobywa i kumuluje władzę, zarówno w obrębie swoich granic, jak i poza nimi. Wielu anarchistów podpisuje się pod stwierdzeniem Randolpha Bourne’a „wojna jest zdrowiem państwa”. Anarchiści wierzą, że gdyby wspierali wojnę, umacnialiby tym samym państwo – z tego powodu, Piotr Kropotkin wzbudził duże kontrowersje po tym, jak wyraził swoje poparcie dla włączenia się Brytyjczyków w I wojnę światową w tzw. Manifeście Szesnastu. Natomiast holenderski anarchista i pastor Bart de Ligt w 1914 wraz z innymi duchownymi, m.in. A.R. de Jong i Truus Kruyt, zaangażował się w napisanie manifestu The Guilt of the Churches, w którym autorzy zarzucają chrześcijańskiemu establishmentowi udział w wydarzeniach I wojny światowej. Natomiast Emma Goldman, na łamach czasopisma „Mother Earth”, regularnie wyrażała swoją krytykę udziału Stanów Zjednoczonych w wojnie. Jako anarchiści są krytyczni i nieufni wobec działalności rządu, zawsze z cynizmem patrzyli na powody z jakich państwa przystępowały do wojny. Działalność anarchistów jest w dużej mierze skierowana przeciwko wojnom. Za przykład mogą posłużyć osoby odmawiających służby wojskowej w czasie I wojny światowej, wśród których było wielu anarchistów. Współcześnie anarchiści korzystają z wielu metod non-violence aby sprzeciwić się militaryzmowi czy przemocy ze strony państwa, m.in. uczestnicząc protestach bądź organizując akcje w ramach takich ruchów jak Earth First! czy Jedzenie Zamiast Bomb. Nurty anarchizmu Nurty anarchizmu stanowią zbiór doktryn politycznych i ruchów społecznych powstałych na bazie ideologii anarchizmu, przy czym każda z nich cechuje się niechęcią wobec władzy i odrzuca wszelkie mimowolne, przymusowe formy hierarchii. Anarchizm wzywa do zniesienia państwa, które uważa za niepożądane, niepotrzebne i szkodliwe. Jest zwykle stawiany jako wolnościowe skrzydło ruchu socjalistycznego i ma historyczne powiązania z antykapitalizmem i socjalizmem. Zwolennicy anarchizmu opowiadają się za bezpaństwową organizacją społeczeństwa opartą na niehierarchicznych i dobrowolnych stowarzyszeniach. Jednak anarchistyczne szkoły myślenia mogą się zasadniczo różnić, wspierając postawy od skrajnego indywidualizmu po kompletny kolektywizm. Odłamy anarchizmu często dzielono na kategorie anarchizmu społecznego i anarchizmu indywidualistycznego. Większa część anarchistycznej ekonomii i filozofii prawa odzwierciedla antyautorytarne, antyetatystyczne i wolnościowe interpretacje radykalnej lewicy oraz socjalistycznej polityki, takiej jak komunizm, kolektywizm, wolny rynek, indywidualizm, mutualizm, partycypizm i syndykalizmu. Według Ruth Kinna, w pewnym momencie „kolektywistyczne, komunistyczne, liberalne i indywidualistyczne nurty myśli, z których anarchiści czerpali inspirację, zaczęły nabierać coraz bardziej charakterystycznych cech, doprowadzając tym samym do powstanie szeregu szkół anarchistycznych”. Antropolog David Graeber zauważył, że jak szkoły marksistowskie w dużej części miały założycieli (np. leninizm, trockizm, maoizm), tak szkoły anarchizmu „prawie zawsze wyłaniają się z jakiejś organizacji lub formy praktyki”, przywołująć anarchosyndykalizm, anarchizm indywidualistyczny czy platformizm jako przykłady. Anarchizm jako ruch społeczny Jako doktryna anarchizm rozwinął się w XIX wieku w ramach socjalistycznego ruchu robotniczego, ale według niektórych anarchistyczne wątki można odnaleźć już w starożytnej myśli taoistów, cyników czy stoików, a także średniowiecznych ruchach w rodzaju Braci i Sióstr Wolnego Ducha czy później w radykalnym nurcie Braci Polskich. Prekursorami anarchizmu byli diggerzy, radykalny ruch chłopski z rewolucji angielskiej, a także ruchy rewolucji francuskiej (W czasie rewolucji francuskiej określenie „anarchista” było używane przez jakobinów pod adresem ich radykalnych przeciwników politycznych, takich jak Wściekli) i niektórzy socjaliści utopijni (zwłaszcza Fourier), a także angielski myśliciel polityczny William Godwin. Pierwszą osobą, która określiła się „anarchistą” był francuski myśliciel socjalistyczny Pierre-Joseph Proudhon. Mniej więcej w tym samym czasie anarchistyczne poglądy zaczął głosić inny francuski socjalista, Joseph Déjacque, który dla ich opisania ukuł termin „wolnościowiec”; dlatego anarchizm bywa nazywany wolnościowym socjalizmem. Okres I Międzynarodówki Ruch anarchistyczny zaczął się formować na przełomie lat 60 i 70 XIX. na bazie proudhonistycznych i anarchokolektywistycznych tendencji w I Międzynarodówce; powstał więc od razu jako ruch internacjonalistyczny. Po początkowej współpracy z marksistami, w Międzynarodówce nastąpił rozłam – anarchokolektywiści na czele z Michałem Bakuninem oskarżali marksistów o autorytaryzm oraz dążenie do zastąpienia krytykowanego przez socjalistów panowania klasowego burżuazji panowaniem nowej klasy biurokratów państwowych. Anarchizm skupiał się wówczas w poszczególnych sekcjach krajowych Międzynarodówki, z których część przetrwała rozpad organizacji spowodowany sporem między tymi dwoma nurtami socjalizmu lub dała początek nowym organizacjom anarchistycznym (np. Federacja Jurajska, lub sekcja hiszpańska, która zapoczątkowała Federacji Robotników Regionu Hiszpanii). Anarchiści brali udział w Komunie Paryskiej, której nadali federalistyczny charakter i która została przez nich powitana jako rewolucja społeczna zmierzająca nie tylko do wprowadzenia socjalizmu, ale socjalizmu bezpaństwowego, a także federalistycznym powstaniu kantonalistów w Hiszpanii. Komuna Paryska Komuna Paryska 1871 odegrała ważną rolę w rozwoju zarówno idei, jak i ruchu anarchistycznego. Bakunin wówczas napisał komentarz, że „rewolucyjny socjalizm [czyli anarchizm] dopiero przepuścił pierwszą próbę uderzenia i praktycznego urzeczywistnienia podczas Komuny Paryskiej” [Bakunin o anarchizmie]”. Komuna Paryska została utworzona po przegranej Francji w wojnie francusko-pruskiej. Francuski rząd próbował wysłać żołnierzy, aby odebrali działa paryskiej Gwardii Narodowej. Miało to zapobiec dostaniu się ich w ręce ludności. Żołnierze odmówili otworzenia ognia do szydzącego z nich tłumu i zwrócili swoją broń przeciwko własnym oficerom. Był to osiemnasty marca; zaczęła swe istnienie Komuna. Wielu anarchistów odgrywało istotną rolę w Komunie – na przykład Louise Michel, bracia Reclus i Eugene Varlin (później zamordowany podczas represji po stłumieniu Komuny). Jeżeli chodzi o reformy zainicjowane przez Komunę, takie jak: ponowne otwarcie zakładów pracy jako spółdzielni, to anarchiści mogli ujrzeć, jak ich pomysły stowarzyszeń robotniczych zaczęły się realizować. Do maja 43 zakłady pracy były kierowane wspólnie, a Muzeum Luwru pełniło funkcję fabryki amunicji i broni kierowanej przez radę robotniczą. Powtarzając postulaty Proudhona zebranie Związku Mechaników i Stowarzyszenia Robotników Metalurgicznych stwierdziło, że „nasze wyzwolenie ekonomiczne. .. może być uzyskane tylko poprzez tworzenie stowarzyszeń robotniczych, które same w sobie mogą przekształcić nasze położenie – tych, co pobierają płace, uczynić stowarzyszonymi”. Uczestnicy owego zebrania dali instrukcje swoim delegatom do Komisji Komuny ds. Organizacji Pracy, aby wspierali następujące cele: „Zniesienie wyzysku człowieka przez człowieka, ostatniej pozostałości niewolnictwa; „Organizowanie pracy w stowarzyszeniach wzajemnej pomocy, nierozdzielnych od kapitału” W ten sposób mieli nadzieję na zapewnienie realizacji postulatu, że „równość nie może pozostać pustym słowem” w Komunie. [Komuna Paryska roku 1871: spojrzenie z lewej strony, pod redakcją Eugene Schulkinda]. Związek Inżynierów przegłosował na zebraniu 23 kwietnia, że od tej pory celem Komuny powinna być „ekonomiczna emancypacja”, która winna „organizować pracowników drogą stowarzyszeń, w których panowałaby wspólna odpowiedzialność”, aby „powstrzymać wyzysk człowieka przez człowieka” [zacytowane przez Stewarta Edwardsa, Komuna Paryska roku 1871]. Po upadku Komuny Paryskiej oraz represjach wobec ruchu robotniczego, a także rozpadzie I Międzynarodówki, ruch anarchistyczny uległ rozproszeniu, do czego przyczyniły się także postawy ówczesnych anarchokomunistów, będących zwolennikami działalności w niewielkich grupach niekoordynujących swojej działalności. Zaczął się za to rozwijać w nowych regionach – Ameryce Północnej i Południowej – dzięki fali uchodźców z Europy. Anarchokomunizm i „propaganda czynem” W tym okresie rozpadu ruchu anarchiści zwrócili się w kierunku tzw. czynu indywidualnego. Taktyka wywodziła się od koncepcji „propagandy czynem” Paula Brousse. Chodziło o lokalne powstania, które miały przerodzić się w rewolucję społeczną (np. rewolucja naftowa albo powstanie we włoskiej prowincji Benevento m.in. Errico Malatesta). Ten rodzaj działalności nie przyniósł efektów, a rozproszenie ruchu oraz represje sprawiły, że przerodził się w zamachy na przedstawicieli władz (wzór pochodził też od Narodnej Woli, która w 1881 dokonała udanego zamachu na Aleksandra II – w tym samym roku anarchistyczny kongres w Londynie zaakceptował metody „narodowolców”). Podejmowano kilkakrotnie – i bez powodzenia – próby powołania do życia nowej organizacji międzynarodowej (już na kongresie anarchistycznym w Londynie w 1880 r. formalnie powołano do życia tzw. Czarną Międzynarodówkę, która jednak faktycznie nie funkcjonowała). Wyjątkiem była Hiszpania, gdzie anarchokolektywizm przetrwał dłużej i gdzie zorganizowany ruch anarchistyczny istniał w postaci Organizacji Anarchistycznej Regionu Hiszpanii (hiszp. Organización Anarquista de la Región Española), wywodzącej się z Federacji Robotników Regionu Hiszpanii. (Hiszpański ruch anarchistyczny wyróżniał się też tym, że tamtejsi działacze próbowali budować „kontrspołeczeństwo”: nowe, już uformowane relacje społeczne, które w odpowiednim momencie miały zastąpić stare). Nastąpiło zupełne oderwanie się od ruchu marksistowskiego; anarchiści zostali wykluczeni przez socjaldemokratów z kongresu założycielskiego II Międzynarodówki w 1889 r. Anarchizm a marksizm Anarchizm i marksizm to ideologie skrajnie lewicowe wywodzące się z socjalizmu jednak ruchy te oddzieliły się od ruchu socjalistycznego na przełomie XIX i XX wieku, uważając dotychczasowe metody działania za nieskuteczne, a liderów partii i organizacji socjalistycznych – za niejednokrotnie zdradzających swoje deklarowane ideały. W odróżnieniu od ideologii marksistowskiej, anarchizm opowiada się za zniesieniem państwa i własności prywatnej od razu po rewolucji zaś według marksistów pierwszym etapem po rewolucji miało być nacjonalizacja środków produkcji potem dopiero stworzenie społeczeństwa bezklasowego, a na koniec zniesienia państwa. Marksiści jako sposób osiągnięcia swych celów stawiali na dyktaturę proletariatu pod przywództwem partii, która miała prowadzić lud do pełnego osiągnięcia swych celów, który nazywali komunizmem, zaś czas dyktatury proletariatu i budowy społeczeństwa bezklasowego był nazywany przez nich czasem socjalizmu. W przeciwieństwie do marksizmu, anarchiści odrzucali ideologię państwa dyktatury proletariatu, występując również przeciwko jakimkolwiek próbom organizacji klasy robotniczej w partie, lecz nie w związki; odwoływali się do terroru indywidualnego, niektórzy anarchiści kwestionowali sensowność i skuteczność masowej walki rewolucyjnej jednak według Bakunina, kapitalizm i państwo można obalić jedynie rewolucją. Ostateczny cel anarchistów, jak i marksistów był ten sam, czyli doskonałe, egalitarne społeczeństwo uwolnione od instytucji państwa, stan ten przez anarchistów miał być nazywany anarchią, a przez marksistów komunizmem. Ruch związkowy Pod koniec lat 90. XIX w. w ruchu anarchistycznym zaczęły pojawiać się głosy wzywające do rewizji dotychczasowej postawy – jednym z pierwszych był Kropotkin, który wzywał do powrotu do masowego ruchu robotniczego podobnego do I Międzynarodówki, a także francuski działacz związkowy Fernand Pelloutier, w którego opinii zalążkiem samorządnego społeczeństwa powinny stać się związki zawodowe. Najważniejsza debata na ten temat odbyła się na międzynarodowym kongresie anarchistycznym w Amsterdamie, w 1907 r. Zwolennicy syndykalizmu, tacy jak Pierre Monatte, starli się na nim ze zwolennikami „czystego” anarchizmu (Malatesta). W rezolucji końcowej kongresu uznano związki zawodowe „za stowarzyszenia wytwórców, które mogą służyć przekształceniu kapitalistycznego społeczeństwa w społeczeństwo anarchokomunistyczne”. Ostatecznie nastąpiła fuzja ruchu związkowego i anarchizmu w postaci anarchosyndykalizmu, który stał się w następnych latach nurtem dominującym w ruchu anarchistycznym. W 1922 r. powstała również federacja anarchosyndykalistycznych związków zawodowych – Międzynarodowe Stowarzyszenie Pracowników. Oprócz tego powstało również wiele związków odwołujących się do rewolucyjnego syndykalizmu, samorządności i akcji bezpośredniej, na które anarchizm mocno wpłynął, nieuważanych jednak za w pełni anarchistyczne, np. Robotnicy Przemysłowi Świata czy też wzorowany na nim związek Robotnicy Przemysłowi Afryki (jeden z pierwszych związków zawodowych zrzeszających czarnych i białych robotników w dominium brytyjskim w Afryce, zał. 1917). Rewolucje z początków XX w. Anarchiści brali udział w rewolucji 1905 r. w Rosji i na ziemiach zaboru rosyjskiego (zob. anarchiści w rewolucji 1905); zaznaczyli swoją obecność w rewolucji meksykańskiej w 1910 (np. Ricardo Flores Magón). Uczestniczyli w rewolucji rosyjskiej 1917 r. (lutowej i październikowej). Wielu anarchistów poparło początkowo bolszewików z uwagi na głoszony przez nich w 1917 r. (choć później niezrealizowany) program ustroju opartego na radach robotniczych i likwidacji państwa. Bolszewicy szybko jednak zwrócili się przeciwko anarchistom oraz innym nurtom socjalistycznym (np. socjalistom-rewolucjonistom), czego punktem kulminacyjnym było powstanie w Kronsztadzie w 1921 r. oraz walka toczona na Naddnieprzu i Zaporożu przez Rewolucyjną Armię Powstańczą Nestora Machno. Ruch anarchistyczny był również aktywny w Niemczech w czasie rewolucji listopadowej; anarchiści brali udział w Bawarskiej Republice Rad (m.in. Gustav Landauer, Erich Mühsam, B. Traven). Na początku XX w. ruch anarchistyczny zaczął się również rozwijać w Azji, zwłaszcza Japonii i Chinach. W tym ostatnim kraju opierał się głównie na anarchokomunizmie; anarchiści byli aktywni w ruchu związkowym (pierwsze nowoczesne chińskie związki zawodowe były dziełem anarchistów), a także w ruchu reform kulturalnych (np. uniwersytetów robotniczych) w okresie rewolucji 1911 r. i po niej. Anarchizm stracił jednak swoje wpływy w latach 20. na rzecz bolszewizmu przenikającego z Rosji po rewolucji październikowej, choć udało mu się rozpowszechnić pewne idee federalistyczne i samorządowe poza samym ruchem anarchistycznym. Rewolucja w Hiszpanii Hiszpański ruch anarchistyczny skupił się wokół utworzonej w 1910 r. Krajowej Konfederacji Pracy oraz powstałej 17 lat później Iberyjskiej Federacji Anarchistycznej. Obie organizacje odgrywały istotną rolę w walce przeciwko nacjonalistom i faszystom podczas hiszpańskiej wojny domowej. Wraz z wybuchem wojny rozpoczęła się anarchistyczna rewolucja, podczas której anarchiści próbowali stworzyć samorządną gospodarkę i bezpaństwowe społeczeństwo. Rewolucja spotkała się z oporem stalinowców i frankistów, wskutek czego poniosła porażkę. W burzliwych dniach po 19 lipca 1936 władza i inicjatywa naprawdę spoczywały w rękach szeregowych członków CNT i FAI. To właśnie zwyczajni ludzie, bez wątpienia pod wpływem FAIstas (członków FAI) i bojowników CNT, byli tymi, którzy po pokonaniu faszystowskiej rebelii uruchomili na nowo produkcję, podział dóbr i ich konsumpcję (oczywiście według bardziej egalitarnych zasad), a także organizowali milicje i zgłaszali się do nich na ochotnika (dziesiątkami tysięcy). Milicje te miały zostać wysłane w celu oswobodzenia tych części Hiszpanii, które znajdowały się pod rządami Franco. Wszystkimi możliwymi sposobami klasy pracujące Hiszpanii tworzyły za pomocą swoich własnych działań nowy świat, oparty na ich własnych ideach sprawiedliwości społecznej i wolności – ideach inspirowanych oczywiście przez anarchizm i anarchosyndykalizm. Naoczne świadectwo George’a Orwella dotyczące rewolucyjnej Barcelony pod koniec grudnia 1936 przedstawia wyrazisty obraz społecznej transformacji, jaka się rozpoczęła: „Anarchiści mieli wciąż faktyczną kontrolę nad Katalonią, a rewolucja znajdowała się jeszcze w pełnym rozpędzie. Każdemu, kto był tutaj od początku, prawdopodobnie zdawało się już w grudniu czy styczniu, że rewolucyjny okres zmierza ku końcowi; ale gdy ktoś przybył prosto z Anglii, to dla niego wygląd Barcelony był nieco wstrząsający i przytłaczający. Po raz pierwszy w życiu znalazłem się w mieście, gdzie klasa robotnicza znajdowała się u steru. Praktycznie każdy budynek, niezależnie od rozmiarów, został przejęty przez robotników i przyozdobiony czerwonymi flagami lub czerwono-czarną flagą anarchistów; na każdej ścianie został namazany sierp i młot oraz inicjały rewolucyjnych stronnictw; niemal w każdym kościele pozostawiono tylko gołe ściany, a obrazy spalono. Tu i ówdzie kościoły były systematycznie demolowane przez bandy robotników. Każdy sklep i kawiarnia posiadały napis, mówiący, że zostały skolektywizowane; nawet miejsca pracy pucybutów zostały skolektywizowane, a ich skrzynki pomalowane na czerwono-czarno. Kelnerzy i nadzorcy sklepowi patrzyli ci prosto w twarz i traktowali cię jak równego sobie. Służalcze, a nawet grzecznościowe formy zwracania się do rozmówców na jakiś czas zanikły. Nikt nie mówił ‘Sentilde’ ani ‘Don’, ani nawet ‘Usted’; każdy zwracał się do każdego ‘towarzyszu’ albo ‘ty’, i mówił ‘Salud!’ zamiast ‘Buenos dias’. Przede wszystkim, istniała wiara w rewolucję i przyszłość, uczucie nagłego wyłonienia się ery równości i wolności. Ludzkie istoty próbowały się zachowywać jak ludzkie istoty, a nie jak trybiki w kapitalistycznej maszynie” [W hołdzie Katalonii]. W objętej ruchami rewolucyjnymi republikańskiej części Hiszpanii, na większości terenów pozbyto się władzy. Na ich miejscu powstały komitety rewolucyjne, rady, gminy, samorządy, komuny zdominowane przez anarchistów i socjalistów. Większość fabryk przeszła w ręce robotników, kolektywizowano wsie. Kolektywy zaczęły budować własne zaplecza: nowe szkoły, gazety. Otwarto I udostępniono publicznie muzea i biblioteki. Rozpoczęto produkcję żywności, organizowano teatry. Odbywały się comiesięczne spotkania, na których w obecności wszystkich podejmowano decyzje dotyczące kolektywów. W wielu regionach wycofano pieniądze, a zwiększając hodowle, handel i produkcję nastawiono się na wymianę Ruch anarchistyczny po II wojnie światowej Rok 1939, będący końcem wojny domowej w Hiszpanii był zarazem początkiem II wojny światowej, z której międzynarodowy ruch anarchistyczny wyszedł prawie zupełnie rozbity. Jego odrodzenie nastąpiło dopiero w latach 60. Z jednej strony zaczął odradzać się wcześniejszy ruch anarchistyczny – np. w 1968 r. na kongresie w Carrarze powstała Międzynarodówka Federacji Anarchistycznych zrzeszająca federacje anarchistyczne z różnych krajów – a z drugiej strony stał się aktywny na polu kontrkultury (m.in. provosi czy ich późniejsi naśladowcy w Polsce – Pomarańczowa Alternatywa). Częściowo inspirowane anarchizmem były wydarzenia maja 1968; jego wpływ zaznaczył w takich ruchach jak sytuacjonizm, Nowa lewica, Zieloni, a później także niektórych subkulturach młodzieżowych (punk, hardcore, rastafari). W ruchu anarchistycznym pojawiły się również postawy kładące większy nacisk na cząstkowe rozwiązania polityczne i ekonomiczne możliwe do realizacji natychmiast (np. demokracja uczestnicząca) czy też próby tworzenia „alternatywnego społeczeństwa”, jednak bez rezygnacji z dążeń do głębszych zmian społecznych. W ten sposób obok „klasycznych” organizacji – takich jak Federacja Anarchistyczna czy anarchosyndykalistyczne związki zawodowe – pojawił się m.in. ruch squaterski. Alterglobalizm Począwszy od lat 90. XX wieku, wpływy anarchizmu są obecne także w ruchu alterglobalistycznym. Anarchiści dążą do zjednoczenia świata i narodów, ale przeciwstawiają się globalizacji, gdyż uważają ją za proces prowadzący do wyzysku i globalnego zniewolenia ludzkości. Z tego powodu ruch anarchistyczny jest często nazywany ruchem alterglobalistycznym. Jako ruch alterglobalistyczny przeciwstawia się ponadnarodowym organizacjom, będącym częściowo lub zupełnie poza kontrolą społeczeństwa, takim jak G7, G20, WTO, NATO, UE, Bank Światowy czy koncepcji Nowego porządku świata i rządu światowego. Wielu anarchistów jest aktywnie zaangażowanych w ruch antyglobalistyczny. Widzą oni korporacyjną globalizację jako neokolonialistyczną próbę wykorzystania przymusu ekonomicznego w skali światowej, prowadzoną przez instytucje państwowe, takie jak Bank Światowy, Światowa Organizacja Handlu (WTO), G7 i Światowe Forum Ekonomiczne. Globalizacja to termin, który ma różne znaczenie dla różnych frakcji anarchistycznych. Wielu anarchistów używa tego terminu do określenia neokolonializmu lub kulturalnego imperializmu. Grupy takie jak Reclaim the Streets były wśród inicjatorów tzw. ruchu antyglobalistycznego. The Carnival Against Capitalism w dniu 18 czerwca 1999 r., jest powszechnie uważany za pierwszy z głównych antyglobalistycznych grup. Anarchiści, tacy jak WOMBLES, przy okazji odegrali znaczącą rolę w planowaniu, organizowaniu, a także realizacji kolejnych protestów. Protesty często były organizowane na zasadach anarchistycznych bezpośredniego działania, z ogólną tolerancją dla wielu różnych działalności. Zobacz też symbolika anarchistyczna anarchizm w Polsce skrajna lewica Uwagi Przypisy Bibliografia Lucien van der Walt Anarchism and Syndicalism in South Africa, 1904–1921: Rethinking the history of labour and the left, Johannesburg 2007. Linki zewnętrzne Piotr Prokopowicz, Ruch anarchistyczny w świetle teorii ruchów społecznych Anarchistyczne F.A.Q. Anarchizm – najczęściej zadawane pytania Anarcho-Biblioteka – internetowa biblioteka tekstów o anarchizmie Anarchy Archives – internetowe centrum badawcze oraz archiwum myśli anarchistycznej Anarchism , Routledge Encyclopedia of Philosophy, rep.routledge.com [dostęp 2023-05-12].
26
https://pl.wikipedia.org/wiki/Anarchia
Anarchia
Anarchia ( – "bez władcy") – forma struktury społeczno-politycznej, w której nie ma żadnej ukonstytuowanej władzy, ani nie obowiązują żadne normy prawne. W rozumieniu politycznym (w anarchizmie) to taka struktura, w której państwo zostaje zastąpione przez nieprzymusową i niescentralizowaną organizację społeczeństwa (np. federację autonomicznych miejscowości). W rozumieniu potocznym anarchia to pojęcie określające: rozkład lub niedowład struktur lub instytucji państwa niezależnie od ich przyczyn; chaos organizacyjny w instytucji, organizacji lub społeczności. Zobacz też Anarchizm Przypisy
28
https://pl.wikipedia.org/wiki/Abstract%20Syntax%20Notation%20One
Abstract Syntax Notation One
ASN.1 (skrót od Abstract Syntax Notation One – abstrakcyjna notacja składniowa numer jeden) – standard ITU-T służący do opisu struktur przeznaczonych do reprezentacji, kodowania, transmisji i dekodowania danych. Dostarcza zbiór formalnych zasad pozwalających na opis struktur obiektów w sposób niezależny od konkretnych rozwiązań sprzętowych. Jest to standard ITU-T/ISO, po raz pierwszy został opisany w roku 1984 jako część dokumentu CCITT X.409'84. Następnie w 1988 wydano go jako samodzielny dokument ITU-T X.208. W roku 1994 wydano jego nową wersję w dokumentach ITU-T z serii X.680 (X.680-X.683). W roku 2002 wycofano dokument ITU-T X.208. Standard ASN.1 określa jedynie składnię abstrakcyjną informacji, nie określa natomiast sposobu jej kodowania w pliku. Metody kodowania informacji podanych w składni ASN.1 zostały opisane w kolejnych standardach ITU-T/ISO. Podstawowe metody kodowania: BER (Basic Encoding Rules) – dokument X.690 CER (Canonical Encoding Rules) – modyfikacja BER DER (Distinguished Encoding Rules) – modyfikacja BER PER (Packed Encoding Rules) – dokument X.691 XER (XML Encoding Rules) – dokument X.693, X.694 Notacja ASN.1 jest wykorzystywana w wielu dokumentach ITU-T do określenia standardów telekomunikacyjnych w tym w serii X.400 (poczta), w serii X.500 (usługi katalogowe). Została również użyta przez organizacje 3GPP oraz ETSI do zdefiniowania protokołów sieci radiowej – w tym dla telefonii mobilnej trzeciej i czwartej generacji (UMTS, LTE, LTE-Advanced). Z użyciem notacji ASN.1 organizacja ETSI utrzymuje szereg identyfikatorów (m.in. na oznaczenie technik telekomunikacyjnych, operatorów), które mogą być użyte w opisach ASN.1. Przypisy Linki zewnętrzne Zalecenia ITU-T serii X Standardy telekomunikacyjne Formaty plików komputerowych
29
https://pl.wikipedia.org/wiki/Algorytm
Algorytm
Algorytm – skończony ciąg jasno zdefiniowanych czynności koniecznych do wykonania pewnego rodzaju zadań, sposób postępowania prowadzący do rozwiązania problemu. Można go przedstawić na schemacie blokowym. Słowo „algorytm” pochodzi od łacińskiego słowa algorithmus, oznaczającego wykonywanie działań przy pomocy liczb arabskich (w odróżnieniu od abacism – przy pomocy abakusa), które z kolei wzięło się od nazwy „Algoritmi”, zlatynizowanej wersji nazwiska „al-Chwarizmi” Abu Abdullaha Muhammada ibn Musy al-Chuwarizmiego, matematyka perskiego z IX wieku. Zadaniem algorytmu jest przeprowadzenie systemu z pewnego stanu początkowego do pożądanego stanu końcowego. Badaniem algorytmów zajmuje się algorytmika. Algorytm może zostać zaimplementowany w postaci programu komputerowego. Jako przykład stosowanego w życiu codziennym algorytmu podaje się często przepis kulinarny. Dla przykładu, aby ugotować bigos, należy w określonej kolejności oraz odstępach czasowych (imperatyw czasowy) dodawać właściwe rodzaje kapusty i innych składników. Może istnieć kilka różnych przepisów dających na końcu bardzo podobną potrawę. Przykład ten ma wyłącznie charakter poglądowy, ponieważ język przepisów kulinarnych nie został jasno zdefiniowany. Algorytmy zwykle formułowane są w sposób ścisły w oparciu o język matematyki. W niektórych krajach (między innymi Stanach Zjednoczonych) algorytmy mogą zostać opatentowane, jeżeli zostaną zaimplementowane w jakimś praktycznym celu. Przeciwnicy tego podejścia twierdzą, że patentowanie algorytmów spowalnia rozwój informatyki, bo jeden producent może uzyskać monopol na pisanie oprogramowania tworzącego pewne typy plików (jak było to w przypadku GIF). Wiele koncernów komputerowych prowadzi między sobą spory prawne dotyczące praw własności do niektórych patentów. Kontrargumentem zwolenników patentów na oprogramowanie jest prawo własności intelektualnej (którą jest na przykład utwór muzyczny, będący wytworem intelektu i pracy muzyka), zakładające, że program jest intelektualną własnością twórcy. Definicja klasyczna Algorytm – jednoznaczny przepis obliczenia w skończonym czasie pewnych danych wejściowych do pewnych danych wynikowych. Zazwyczaj przy analizowaniu bądź projektowaniu algorytmu zakłada się, że dostarczane dane wejściowe są poprawne, czasem istotną częścią algorytmu jest nie tylko przetwarzanie, ale i weryfikacja danych. Zgodnie z założeniem o jednoznaczności – dla identycznego zestawu danych początkowych, algorytm zdefiniowany klasycznie zawsze zwróci identyczny wynik. Przykład Znalezienie największej wśród niepustej, nieposortowanej listy przypadkowych liczb można przeprowadzić na wiele sposobów; jednym z najszybszych jest przedstawiony poniżej. Niech indeks wskazuje aktualnie badany element listy (jeśli jest ona numerowana, może on oznaczać np. jej numer), a maksimum oznacza największą dotychczas znalezioną wartość. Niech indeks wskazuje na pierwszy element (początek) listy. Niech maksimum zawiera wartość elementu listy wskazywanego przez indeks (tzn. pierwszego). Jeżeli zawartość elementu listy wskazywanego przez indeks jest większa od zawartości maksimum, to przypisz maksimum wartość elementu wskazywanego przez indeks. Niech indeks wskazuje kolejny element listy; jeśli to niemożliwe (tzn. indeks wskazuje ostatni element listy, czyli jej koniec), przejdź do punktu 6. Wróć do punktu 3. Koniec. Wykonanie tego algorytmu spowoduje, że największa liczba na wspomnianej liście będzie wartością maksimum. Dodatkowym atutem jest fakt, iż algorytm ten działa dla list dowolnej długości, ponieważ nie wykorzystuje on liczby elementów listy, lecz tylko tzw. operację następnika elementu danej listy, tzn. przejścia do następnego jej elementu. Niemożność wskazania kolejnego elementu jest wtedy równoważna temu, iż dany element jest ostatni na liście. Inne przykłady algorytm Euklidesa algorytm Fermata algorytm Luhna algorytm mrówkowy algorytmy kompresji algorytmy kryptograficzne algorytmy przeszukiwania drzew: min-max i alpha-beta algorytmy sortowania algorytm unifikacji Klasyfikacja algorytmów Istnieje wiele różnych sposobów podziału algorytmów na grupy, jednak problem ten wzbudza kontrowersje. Podstawowe paradygmaty tworzenia algorytmów komputerowych: dziel i zwyciężaj – dzielimy problem na kilka mniejszych, a te znowu dzielimy, aż ich rozwiązania staną się oczywiste programowanie dynamiczne – problem dzielony jest na kilka, ważność każdego z nich jest oceniana i po pewnym wnioskowaniu wyniki analizy niektórych prostszych zagadnień wykorzystuje się do rozwiązania głównego problemu metoda zachłanna – nie analizujemy podproblemów dokładnie, tylko wybieramy najbardziej obiecującą w danym momencie drogę rozwiązania programowanie liniowe – oceniamy rozwiązanie problemu przez pewną funkcję jakości i szukamy jej minimum wyszukiwanie wyczerpujące – przeszukujemy zbiór danych, aż do odnalezienia rozwiązania heurystyka – człowiek na podstawie swojego doświadczenia tworzy algorytm, który działa w najbardziej prawdopodobnych warunkach; rozwiązanie zawsze jest przybliżone. Najważniejsze techniki implementacji algorytmów komputerowych to: proceduralność – algorytm dzieli się na szereg podstawowych procedur. Wiele algorytmów ma wspólne biblioteki standardowych procedur, z których są one wywoływane w razie potrzeby. praca sekwencyjna – wykonywanie poszczególnych procedur algorytmu, według kolejności ich wywołań; naraz pracuje tylko jedna procedura praca wielowątkowa – procedury wykonywane są sekwencyjnie, lecz kolejność ich wykonania jest trudna do przewidzenia dla programisty praca równoległa – wiele procedur wykonywanych jest w tym samym czasie, wymieniają się one danymi rekurencja – procedura lub funkcja wywołuje sama siebie, aż do uzyskania wyniku lub błędu obiektowość – procedury i dane łączy się w pewne klasy reprezentujące najważniejsze elementy algorytmu oraz stan wewnętrzny wykonującego je systemu algorytm probabilistyczny – działa poprawnie z bardzo wysokim prawdopodobieństwem, ale wynik nie jest pewny. Algorytmy równoległe Jednym ze sposobów rozwiązywania złożonych problemów jest zastosowanie algorytmów równoległych. Oznacza to, że program nie jest wykonywany tylko jeden raz na jednym procesorze, ale wielokrotnie równolegle na wielu różnych maszynach. Podejście takie jest stosowane od lat w superkomputerach, jednak w takiej realizacji jest ono bardzo kosztowne. Nowym pomysłem jest tutaj zastosowanie sieci zwykłych komputerów tworzących klaster. Całe zadanie jest wtedy rozdzielane na wiele maszyn i obliczane równolegle przy pomocy tysięcy procesorów. Czasami taką potężną sieć rozproszoną nazywa się grid. Przykładem jej zastosowania może być program SETI@home, gdzie dane z nasłuchu kosmosu analizują dziesiątki tysięcy komputerów należących do zwykłych użytkowników. Maszyny są podłączone do Internetu, przez który przesyłają wyniki pracy uruchomionych na nich aplikacji. Rozwinięciem tego rozwiązania jest projekt parasolowy BOINC@home, który obejmuje kilkadziesiąt tego typu projektów co SETI@home, zajmujących się zagadnieniami z wielu dziedzin nauki, nie tylko ścisłych. Obecnie algorytmy równoległe mogą być wykorzystywane na zwykłych domowych komputerach, ponieważ ogromna większość z nich posiada procesory wielordzeniowe, które w uproszczeniu są połączeniem kilku procesorów w jeden. Po roku 2010 rozpowszechniło się nowe podejście do obliczeń równoległych polegające na wykorzystywaniu w tym celu kart graficznych; nosi ono nazwę GPGPU. Kilka projektów z BOINC@home oraz projekt z zakresu biologii molekularnej Folding@home pozwala na zastosowanie karty graficznej, a nawet kilku zamontowanych w jednym komputerze, do realizacji obliczeń rozproszonych. Umożliwia to wykorzystanie ogromnej liczby (do kilku tysięcy) procesorów karty graficznej działających równolegle. Nowym pomysłem na implementację algorytmów równoległych jest wykorzystanie do tego celu DNA. W jednej kropli wody znajdują się miliony cząstek tego kwasu. Jeżeli zsyntetyzujemy je tak, aby wykonywały pewien algorytm, to w ułamku sekundy potrzebnym na reakcje chemiczne komputer oparty na DNA znajdzie rozwiązanie bardzo złożonego problemu. Przykładem są tutaj bakterie, które zaprogramowano, aby rytmicznie emitowały światło. Dziedziną nauki zajmującą się algorytmami w połączeniu z biologią jest bioinformatyka. Algorytmy sztucznej inteligencji Wiele problemów związanych z codziennym życiem to problemy NP-trudne. Przykładami ich mogą być znajdowanie najkrótszej trasy łączącej pewną liczbę miast lub optymalne pakowanie plecaka. Oznacza to, że algorytmy mogą radzić sobie z takimi problemami tylko w przybliżeniu lub w bardzo szczególnej sytuacji. Sterowany algorytmem niedeterministycznym (przybliżonym) robot nie potrafi odnaleźć najkrótszej drogi w bardzo złożonym środowisku, mimo że dla człowieka może być ona oczywista. Inżynierowie próbują rozwiązywać problemy NP-trudne przez naśladowanie żywych organizmów. Jeżeli nie udaje się sformułować jasnego algorytmu rozwiązującego dany problem, można maszynę wyposażyć w zdolność do samodzielnego uczenia się. Zagadnieniem tym zajmuje się dział określany jako sztuczna inteligencja. Tego podejścia nie należy mylić z ludzką inteligencją. Maszyny naśladują tylko pewne cechy istot żywych, ale na razie nie są w stanie im dorównać na wielu polach. Algorytmy genetyczne Jest to cała grupa algorytmów służąca do poszukiwania najlepszych rozwiązań danego problemu. Zasada ich działania opiera się na obserwacji praw natury oraz przeniesieniu ich na grunt matematyki i informatyki. U podstaw algorytmów genetycznych znajduje się dobór naturalny oraz dziedziczność. Najlepiej przystosowane jednostki (niosące rozwiązania zbliżone do właściwego) są powielane oraz krzyżowane z sobą w celu powielenia informacji. Bardzo wiele rzeczywistych problemów można rozwiązać w ten sposób. Algorytmy kwantowe Niektóre algorytmy szyfrowania (np. RSA) opierają się na trudności rozkładu liczby na czynniki pierwsze (faktoryzacja). Dla tego problemu nie jest znany algorytm wielomianowy, którego można by użyć na klasycznym komputerze, czyli opartym o elementy półprzewodnikowe. Natomiast algorytmy zaimplementowane na komputerach kwantowych, w odróżnieniu od komputerów elektronicznych opartych na bitach, mogą posługiwać się qubitami oraz zjawiskiem splątania. Na tego typu komputerach możliwy jest rozkład liczby na czynniki pierwsze w czasie wielomianowym np. za pomocą algorytmu Shora. Należy jednak mieć na uwadze, że dużym problemem komputerów kwantowych jest dekoherencja ich stanów – w ten sposób bardzo łatwo może dojść do utraty danych. Rozwiązaniem może być tutaj wykorzystanie splątania do teleportacji stanu kwantowego na kolejne cząstki elementarne. W związku z tym wielu naukowców pracuje już dziś nad implementacją algorytmów kryptografii kwantowej. Przykładem tego jest szyfrowanie danych z wykorzystaniem splątanych fotonów. Obecnie kierunki prac nad komputerami kwantowymi to: fotonika – komputery oparte na fotonach, spinotronika – komputery operujące spinem elektronów zamiast napięciem. Ograniczenia algorytmów Prawidłowy algorytm komputerowy musi kiedyś zakończyć swoją pracę. Oznacza to, że problem musi być rozwiązany z wykorzystaniem dostępnych zasobów obliczeniowych, w skończonym czasie. Jeżeli czas obliczeń algorytmu, dla coraz większego zbioru danych, rośnie szybciej niż dowolna funkcja wielomianowa, to mówi się, że nie jest praktycznie obliczalny. Jedną z klas problemów, dla których nie znamy wielomianowych rozwiązań, są problemy NP-trudne. Jeśli znamy wielomianowy algorytm weryfikujący poprawność rozwiązania problemu NP-trudnego, to problem ten nazywamy NP-zupełnym. Pytanie, czy P=NP, czyli czy istnieją szybkie algorytmy rozwiązujące problemy NP-zupełne, jest jednym z najbardziej palących pytań we współczesnej informatyce. Ponadto istnieją problemy nierozwiązywalne za pomocą żadnego algorytmu. Implementacja algorytmów Algorytmy komputerowe Komputery przetwarzają przekazywane im informacje z wykorzystaniem algorytmów. Program jest algorytmem zapisanym w języku zrozumiałym dla maszyny (kodzie maszynowym). Każdy poprawny kod maszynowy da się przełożyć na zestaw instrukcji dla teoretycznego modelu komputera – maszyny Turinga. Zwykle algorytmy pracują na danych wejściowych i uzyskują z nich dane wyjściowe. Informacje zapisane w pamięci maszyny traktuje się jako jej stan wewnętrzny. Niektóre algorytmy mają za zadanie wyłącznie przeprowadzanie komputera z jednego stanu wewnętrznego do innego. Każdy algorytm komputerowy musi być wprowadzony do komputera w bardzo rygorystycznie zdefiniowanym języku. Ludzie często komunikując się, przesyłają między sobą informacje wieloznaczne. Komputery mogą reagować tylko na całkowicie jednoznaczne instrukcje. Jeżeli dany algorytm da się wykonać na maszynie o dostępnej mocy obliczeniowej i pamięci oraz w akceptowalnym czasie, to mówi się, że jest obliczalny. Poprawne działanie większości algorytmów implementowanych w komputerach opiera się na kolejnej realizacji pewnego zestawu warunków. Jeżeli któryś z nich nie zostanie spełniony, to program kończy się komunikatem o błędzie. Czasami podczas implementacji algorytmu nawet istotny warunek może zostać pominięty. Przykładowo, w programie dzielącym przez siebie dwie liczby użytkownik poleca wykonać dzielenie przez zero. Działanie aplikacji, która nie sprawdzi warunku „czy dzielnik nierówny zero”, zostanie przerwane przez system operacyjny komputera. Algorytmy poza komputerami Implementacja algorytmu w ogólności oznacza występowanie pewnego podobieństwa algorytmu opisanego w ludzkim języku do fizycznego zjawiska lub procesu. Czasami algorytm może być podstawą budowanego przez ludzi urządzenia, jak np. komputer. Jednak o implementacji możemy mówić również wtedy, kiedy pewien system zachowuje się podobnie do algorytmu. Dla przykładu mózg ptaka implementuje arytmetykę w postaci sieci neuronowej, dzięki temu zwierzę jest w stanie porównywać pewne odstępy czasu. W przypadku maszyn algorytm może zostać zaimplementowany jako pewna sieć połączeń elektrycznych, pneumatycznych bądź mechanicznych. Przykładem może być tutaj analogowy regulator obrotów z pierwszych silników parowych, realizujący algorytm P (proporcjonalny). Przy takim podejściu sukces nie oznacza zatrzymania się algorytmu, lecz utrzymywanie pewnego stanu systemu. Możemy np. powiedzieć, że algorytm utrzymywania życia działa poprawnie, aż do śmierci organizmu. Poprawny algorytm ma utrzymywać pewne parametry żywej istoty (np. temperaturę) w optymalnym zakresie. Algorytm a opisujący go język Należy zdawać sobie sprawę z różnicy między algorytmem, będącym niezależnym od jego implementacji przepisem, a programem, który może zostać zinterpretowany i wykonany przez komputer. Poniższe fragmenty programów są realizacją tego samego algorytmu sumującego trzy trójki: Dodawanie w języku C: wynik = 3; wynik += 3; wynik += 3; Ten sam język, ale z zastosowaniem pętli: wynik = 0; for (int i = 0; i < 3; ++i) wynik += 3; Język C, zapis proceduralny z zastosowaniem rekurencji: int alg(int n) { if(n == 3) return 0; else return 3 + alg(n + 1); } void main() { int wynik = alg(0); } Asembler x86: mov eax, 0 # zeruje akumulator add eax, 3 # dodaje 3 do akumulatora add eax, 3 add eax, 3 mov 0EF21A29Ch, eax # kopiuje zawartość akumulatora do komórki pamięci Powyższe programy napisane są w różnych językach programowania, używających różnych poziomów abstrakcji, przy czym zapis w asemblerze jest na najniższym poziomie abstrakcji, to znaczy jest najbliżej „prawdziwego”, wykonywanego bezpośrednio przez procesor komputera, kodu. Błędy w implementacji Wciąż rozwijana inżynieria oprogramowania pozwala na tworzenie aplikacji, których kod źródłowy ma setki tysięcy linii, przy równoczesnym zachowaniu kontroli nad całością projektu, co pozwala zminimalizować ilość błędów podczas implementacji algorytmów. Historia algorytmów Początki Słowo algorytm pochodzi od nazwiska arabskiego matematyka z IX wieku, Muhammada ibn Musa al-Chuwarizmiego. Początkowo słowem algorism nazywano czynności konieczne do wykonywania obliczeń z użyciem dziesiętnego systemu liczbowego. Obecne znaczenie słowa algorytm, jako zestawu ścisłych reguł, powstało wraz z rozwojem matematyki i techniki. Wynalezienie zbiorów zasad pozwalających na obliczanie parametrów konstruowanych maszyn, stało się podstawą rewolucji przemysłowej zapoczątkowanej w końcu XVIII stulecia. Jednak dopiero zbudowanie maszyn, które same mogły realizować pewne proste algorytmy, stało się przełomem. Początkowo miały one postać układów mechanicznych mogących realizować proste obliczenia. Ogromnego postępu dokonał w tej dziedzinie w 1842 roku Charles Babbage, który na podstawie swoich doświadczeń sformułował ideę maszyny analitycznej zdolnej do realizacji złożonych algorytmów matematycznych. W pracy Babbage wspierała Ada Lovelace, która przetłumaczyła dla niego prace włoskiego matematyka dotyczące algorytmu obliczania liczb Bernoulliego. Prace Lovelace dotyczące implementacji tego algorytmu na maszynę różnicową zawierały opis swoistego języka programowania. Niestety, Babbage nigdy nie zbudował swojego mechanicznego komputera. Programy napisane przez Lovelace zostały przetestowane na modelu maszyny różnicowej wykonanym w XX wieku i okazały się poprawne. Rozwój maszyn liczących Wraz z wynalezieniem pod koniec XIX wieku kart perforowanych elektro-mechaniczne maszyny osiągnęły zdolność realizacji algorytmów przetwarzających ogromne zbiory danych. Karty perforowane stały się wejściem, z którego dane przetwarzały proste algorytmy sumujące, a jako wyjście służyły odpowiednie zegary. Ogromny postęp w tej dziedzinie zawdzięczamy firmie będącej protoplastą IBM, która zbudowała tego typu urządzenia, aby zrealizować spis ludności w Stanach Zjednoczonych. W XX wieku postęp elektroniki pozwolił na budowę maszyn analogowych potrafiących w swoim wnętrzu odtwarzać pewne algorytmy matematyczne. Mogły one dokonywać operacji arytmetycznych oraz różniczkować i całkować. Komputery Zanim zbudowano pierwsze komputery, istniały już solidne podstawy informatyki teoretycznej. Algorytm wyrażony w najprostszym z możliwych języków okazał się dla urządzeń najlepszy. Na początku lat 30. XX wieku pojawiło się kilka niezależnie opracowanych matematycznych modeli wykonywania algorytmów. Najsłynniejszym została maszyna Turinga zaproponowana w pracy On Computable Numbers autorstwa Alana Turinga, brytyjskiego matematyka uznawanego za ojca informatyki. Jednocześnie okazało się, że wszystkie modele są sobie równoważne, tj. każdym z nich można wyrazić dowolny algorytm oraz zasymulować działanie jednego modelu na innym (patrz: kompletność Turinga). Okazało się, że nawet najbardziej złożone algorytmy można wyrazić za pomocą prostego matematycznego opisu i kilku elementarnych operacji. Maszyna Turinga miała składać się z głowicy czytająco-piszącej przesuwającej się po nieskończonej taśmie. W każdym kroku mogła zmienić wartość danej komórki taśmy, przesunąć się w lewo lub prawo oraz zmienić swój stan. Pierwszy mechaniczny komputer zdolny, jak się później okazało, do wykonywania wszystkich algorytmów, powstał już w 1936 roku w Niemczech. Nazywał się Z1, a jego twórcą był niemiecki inżynier Konrad Zuse, który zaprojektował swoją maszynę zupełnie niezależnie od prac brytyjskich i angielskich matematyków. Z powodu ogromnej zawodności w 1941 roku ukończył jej kopię bazującą na układach przekaźnikowych, czyli Z3, która znalazła zastosowanie przy projektowaniu skrzydeł samolotów. Z3 miał wiele cech współczesnego komputera; wszystkie liczby reprezentowane były w systemie binarnym, programy wprowadzano na kartach perforowanych, a do wprowadzania danych służyła klawiatura. W Wielkiej Brytanii oraz Stanach Zjednoczonych pierwsze komputery, zbudowane na początku lat 40, miały ściśle określone zadanie łamania niemieckich szyfrów oraz wykonywania obliczeń na potrzeby wojska. Dopiero w 1944 roku skonstruowano tam programowalną maszynę zdolną do wykonywania dowolnych algorytmów, ENIAC. Pracowała ona w systemie dziesiętnym, a programowania dokonywano poprzez przełączanie odpowiednich kabli. W ostatnich trzydziestu latach, dzięki upowszechnieniu komputerów osobistych, informatyka stała się bardzo ważną gałęzią gospodarki. Na świecie pracują miliony programistów, zajmujących się tworzeniem oraz doskonaleniem oprogramowania lub poszukiwaniem nowych, efektywniejszych algorytmów. Wraz z oparciem na komputerach funkcjonowania całego społeczeństwa coraz większą wagę przykłada się do wyszukiwania błędów w implementacjach lub założeniach algorytmów, co jest procesem trudno poddającym się automatyzacji i wymagającym żmudnej pracy całych zespołów programistów i hakerów. Zobacz też dowód poprawności algorytmu struktura danych Przypisy Bibliografia Linki zewnętrzne Polskojęzyczne Algorytmy i struktury danych Anglojęzyczne Inna strona z kodami źródłowymi Słownik algorytmów i struktur danych
30
https://pl.wikipedia.org/wiki/Przyl%C4%85dek%20Igielny
Przylądek Igielny
Przylądek Igielny, Przylądek Agulhas (port. Cabo das Agulhas, wym. []) – przylądek stanowiący najbardziej wysunięty na południe kraniec Afryki. Przebiegający przez niego południk uznawany jest za umowną granicę dwóch oceanów: Indyjskiego i Atlantyckiego. Nazwa Przylądka Igielnego w języku portugalskim, Agulhas, dosłownie oznaczająca „igły”, prawdopodobnie odnosi się do poszarpanych skał, o które rozbijały się statki, lub do zerowej deklinacji magnetycznej w tym rejonie na przełomie XV i XVI w., dzięki czemu igła kompasu wskazywała dokładnie kierunek północy geograficznej. W 1849 na przylądku zbudowano latarnię morską. Przypisy Linki zewnętrzne Zdjęcie satelitarne południowego końca Afryki Przylądki Południowej Afryki
31
https://pl.wikipedia.org/wiki/Aldehydy
Aldehydy
Aldehydy ( = „alkohol odwodorniony”) – klasa organicznych związków chemicznych posiadających grupę aldehydową, czyli grupę karbonylową () połączoną z jednym () lub dwoma () atomami wodoru. Proste aldehydy, będące pochodnymi alkanów i zawierające w cząsteczce jedną grupę aldehydową to alkanale o wzorze ogólnym . Pokrewną klasę związków stanowią ketony (), nieposiadające atomu wodoru przy grupie karbonylowej. Ketony i aldehydy mają zbliżone właściwości chemiczne, przy czym aldehydy są z reguły bardziej reaktywne. Istnieje też szereg reakcji charakterystycznych jedynie dla aldehydów. Otrzymywanie Aldehydy otrzymuje się w przemyśle przez katalityczne odwodornienie pierwszorzędowych alkoholi: Reakcję tę można też przeprowadzić stosując odpowiedni utleniacz, np. dichromian: Aby zapobiec utlenianiu powstającego aldehydu, należy usuwać produkt ze środowiska reakcji od razu po powstaniu. Do reakcji tej nie można zastosować nadmanganianu potasu, który jako silniejszy utleniacz prowadzi od razu do powstania soli kwasów karboksylowych. Właściwości Aldehydy są charakterystycznie pachnącymi i toksycznymi związkami chemicznymi o własnościach grzybo- i bakteriobójczych – im krótszy łańcuch węglowy tym mniej przyjemny zapach i większa toksyczność. Formaldehyd i akroleina (przypalony tłuszcz) ma bardzo nieprzyjemny zapach, ale wanilina (waniliowy) czy cytronelal (cytrynowy) przyjemny. Aldehydy o krótkich łańcuchach węglowych dobrze rozpuszczają się w wodzie (np. aldehyd octowy bez ograniczeń), w miarę zwiększania się ilości atomów węgla rozpuszczalność szybko spada. Aldehydy są to substancje będące w większości ciałami stałymi, wyjątkami są formaldehyd, acetaldehyd (aldehyd octowy) i aldehydy nienasycone – są gazami w miarę dobrze rozpuszczalnymi w wodzie. Posiadają silne właściwości redukujące, czym różnią się od ketonów. Charakterystyczne reakcje Najbardziej charakterystycznymi reakcjami dla aldehydów są reakcje addycji do grupy karbonylowej redukcja do alkoholi pierwszorzędowych: utlenianie do kwasów karboksylowych: reakcje tego typu są podstawą wykrywania i oznaczania aldehydów, m.in. za pomocą próby: Tollensa, Fehlinga, Benedicta czy Trommera, np.: próba Tollensa (tzw. próba lustra srebrowego): próba Trommera: odwracalna addycja wodorosiarczynu: Uzyskany addukt bisulfitowy często można wykrystalizować. Pod wpływem kwasów i zasad odtwarza się wyjściowy aldehyd. Proces jest wykorzystywany do oczyszczania aldehydów i ketonów. addycja amoniaku lub amin, a następnie eliminacja wody, daje iminy: Reakcja amin z formaldehydem w obecności kwasu (najczęściej kwasu mrówkowego) wykorzystywana jest do metylowania amin (reakcja Eschweilera-Clarke'a): kondensacja aldolowa (na przykładzie aldehydu octowego): Według terminologii retrosyntetycznej aldehydy reprezentują synton akceptorowy typu a1, przy czym grupą funkcyjną jest grupa OH. Zastosowanie Aldehydy stosowane są do syntez organicznych (tworzywa sztuczne, barwniki), w przemyśle spożywczym i kosmetycznym (składniki kompozycji zapachowych i aromatów spożywczych), garbarstwie (aldehyd glutarowy). Roztwór aldehydu mrówkowego (HCHO) w wodzie (tzw. formaliny) stosowany jest do konserwacji preparatów biologicznych. Przykładowe aldehydy benzaldehyd (aldehyd benzoesowy, PhCHO) formaldehyd (aldehyd mrówkowy, metanal, HCHO) acetaldehyd (aldehyd octowy, etanal, ) akroleina () Zobacz też acetal enole olejek eteryczny Przypisy
32
https://pl.wikipedia.org/wiki/Agatha%20Christie
Agatha Christie
Agatha Christie, lady Mallowan, DBE, właśc. Agatha Mary Clarissa Miller Christie (ur. 15 września 1890 w Torquay, zm. 12 stycznia 1976 w Wallingford) – brytyjska autorka powieści kryminalnych i obyczajowych. Najbardziej znana na świecie pisarka kryminałów oraz najlepiej sprzedająca się autorka wszech czasów. Wydano ponad miliard egzemplarzy jej książek w języku angielskim oraz drugi miliard przetłumaczonych na 45 języków obcych. Pod pseudonimem Mary Westmacott wydała kilka powieści obyczajowych, które również cieszyły się popularnością. Christie wydała ponad 90 powieści i sztuk teatralnych. Ich akcja toczyła się głównie w zamkniętych pomieszczeniach, a mordercą mógł być tylko jeden z mieszkańców. Wniosła wiele nowych rozwiązań do tradycyjnej sztuki pisania kryminałów. Niektóre z jej powieści mają zaskakujące i wcześniej niespotykane w kryminałach rozwiązania, np. Zabójstwo Rogera Ackroyda czy Morderstwo w Orient Expressie. Jej sztuka Pułapka na myszy, wystawiona po raz pierwszy w 1952 roku w Londynie, osiągnęła liczbę ponad dwudziestu tysięcy przedstawień. Wiele z jej powieści i opowiadań zostało zekranizowanych, niektóre wielokrotnie (Morderstwo w Orient Expressie, Śmierć na Nilu czy 4.50 z Paddington). Na podstawie dzieł autorki powstały także seriale telewizyjne i słuchowiska radiowe. Wszystkie utwory objęte były w 1951 roku w Polsce zapisem cenzury, podlegając natychmiastowemu wycofaniu z bibliotek. Życiorys Urodziła się 15 września 1890 w nadmorskim Torquay w południowo-zachodniej Anglii w hrabstwie Devon, gdzie mieściła się Ashfield, posiadłość jej matki. Była trzecim dzieckiem Clary i Fryderyka Millerów, miała siostrę Margaret i brata Louisa. Decyzją matki, uczyła się w domu. W 1901 zmarł jej ojciec. 12 października 1912 podczas balu w rodzinnym Torquay poznała starszego od siebie o rok pułkownika Archibalda Christie. W wigilię 1914 wzięła z nim ślub. Mieli córkę, Rosalind Hicks (ur. 5 sierpnia 1919, zm. 28 października 2004). Podczas I wojny światowej pracowała jako pielęgniarka w szpitalu, asystentka w aptece oraz jako technik farmaceutyczny, dzięki czemu poznała właściwości trucizn, co wykorzystywała później w swoich powieściach. W 1926 zmarła jej matka, brat uzależnił się od narkotyków, wydawcy nie spodobała się powieść „Zabójstwo Rogera Ackroyda”, a jej mąż zakochał się w innej kobiecie (Nancy Neele) i zażądał rozwodu. W grudniu 1926 zaginęła na 11 dni, co wywołało poruszenie w prasie (m. in. The New York Times, Daily Herald). Przebywała wówczas w Hydropathic Hotel w uzdrowiskowym Harrogate w Yorkshire, gdzie zameldowała się jako Teresa Neele. W tym czasie popadła w amnezję. W 1928 rozwiodła się z mężem. Wskutek problemów w życiu osobistym skupiła się na pisaniu kolejnych książek i podróżowaniu po świecie. W 1930 wyszła za młodszego od niej o 13 lat archeologa Maxa Mallowana, którego poznała podczas jednego z wyjazdów w rejon Zatoki Perskiej. Wyjeżdżała z nim na wykopaliska na Bliskim Wschodzie, który później stał się tłem kilku jej powieści (m.in. Śmierci na Nilu i Morderstwie w Mezopotamii). Akcja innych dzieł autorki rozgrywa się w Torquay, miejscu jej narodzin. W 1971 otrzymała Order Imperium Brytyjskiego. Klub Detektywów W 1930 przyłączyła się do Klubu Detektywów zrzeszającego autorów powieści kryminalnych, do którego z twórców angielskich należeli także m.in.: Dorothy L. Sayers i G.K. Chesterton. W 1931 wspólnie z innymi członkami stowarzyszenia napisała powieść The Floating Admiral. Pisarka na krótko została usunięta z klubu, ponieważ sprzeciwiła się zasadom sformułowanym przez członka klubu – Ronalda Knoksa. Jedną z owych zasad była reguła „ratio”, wykluczająca ingerencję sił nadprzyrodzonych w akcję powieściową. Niedozwolone było również utożsamianie mordercy z detektywem lub narratorem. W 1958 pisarka Dorothy L. Sayers złożyła dymisję, a Christie przejęła jej obowiązki prezesa Klubu Detektywów. Publikacje Główni bohaterowie: Herkules Poirot i panna Marple Agatha Christie stworzyła słynne postaci literackie dwojga detektywów: Belga Herkulesa Poirota oraz starszej pani, detektywki amatorki, panny Marple. Będąc jeszcze u szczytu kariery, Christie napisała dwie powieści z tymi bohaterami – z zastrzeżeniem, że mają się ukazać dopiero po jej śmierci (tj. kilkadziesiąt lat później). Miały to być ostatnie zagadki do rozwiązania dla Poirota i Marple. W ostatniej sprawie kryminalnej rozwiązywanej przez belgijskiego detektywa zostaje on uśmiercony, bo – jak wyjaśniła w swym pamiętniku autorka – zawsze uważała go za nieznośnego. Natomiast panna Marple (której cechy wzorowane były na babce twórczyni) po rozwiązaniu tajemnicy Uśpionego morderstwa spokojnie powraca do swojej wioski. Wypowiedzi Herculesa Poirot zebrane zostały w książce „Małe szare komórki. Poirot w cytatach”. Dla obojga głównych bohaterów powieści Agaty Christie opracowane zostały biografie: Spadkobiercy pisarki postanowili kontynuować cykl z Herkulesem Poirot. Na autorkę wybrana została Sophie Hannah. W Polsce ukazały się: Powieści kryminalne Zbiory opowiadań Zbiory opowiadań kryminalnych autorki dzieli się powszechnie na dwie główne grupy: wydane w Wielkiej Brytanii (łącznie 14) oraz Stanach Zjednoczonych (15). Spośród 21 najpopularniejszych tytułów tylko 7 (biorąc pod uwagę dobór i liczbę utworów) ukazało się w obu krajach w niezmienionej formie. Polskie wydania książek Agathy Christie zasadniczo oparte są na wydaniach brytyjskich. Wyjątek stanowi amerykański zbiór „Trzy ślepe myszki”, który zawiera niewydane dotąd w Wielkiej Brytanii w formie książkowej opowiadanie o tym samym tytule. Z kolei „Bożonarodzeniowa przygoda” (pierwotna, krótsza wersja „Tajemnicy gwiazdkowego puddingu”) znajdująca się zbiorze „Dopóki starczy światła” jest jedynym, które nigdy nie znalazło się w zbiorze amerykańskim. Pośmiertnie: Inne kompilacje opowiadań: Pojedyncze opowiadania 1922 Żona Ke­ni­ty (The Wife of the Kenite) – opublikowane w czasopiśmie The Home: An Australian Quarterly 1936 Poirot and the Regatta Mystery (opublikowane w Chicago Tribune) 2009 Pojmanie Cerbera (The Capture of Cerberus, wydane w Agatha Christie's Secret Notebooks: Fifty Years of Mysteries in the Making autorstwa Johna Currana); wyszło po polsku w: Sekretne zapiski Agaty Christie i Dwanaście prac Herkulesa 2009 The Incident of the Dog's Ball (Agatha Christie's Secret Notebooks: Fifty Years of Mysteries in the Making) – napisane w 1933, adaptowane później jako powieść Niemy świadek; wyszło po polsku w: Sekretne zapiski Agaty Christie 2014 Hercule Poirot and the Greenshore Folly - napisane w 1954, adaptowane jako powieść Zbrodnia na festynie Sztuki teatralne zaadaptowane na powieści przez Charlesa Osborne’a Jako współautorka: 1931 The Floating Admiral razem z G.K. Chestertonem, Dorothy L. Sayers i innymi członkami Detection Club. Romanse napisane pod pseudonimem Mary Westmacott Książki autobiograficzne 1946 Opowiedzcie, jak tam żyjecie (Come, Tell Me How You Live) jako Agatha Christie Mallowan 1977 Autobiografia (An Autobiography) 2012 Moja podróż po imperium (The Grand Tour: Around the World with the Queen of Mystery) Bohaterowie powieści Agathy Christie Herkules Poirot – belgijski detektyw Jane Marple – staruszka, detektyw-amator Kapitan Arthur Hastings – przyjaciel Poirota Inspektor Japp – policjant, znajomy Poirota Ariadna Oliver – pisarka kryminałów, znajoma Poirota Panna Felicity Lemon – wierna sekretarka Herkulesa Poirota Tommy i Tuppence Beresford – para detektywów-amatorów Pułkownik Race – stary przyjaciel Poirota Nadinspektor Battle – policjant ze Scotland Yardu Dolly Bantry – przyjaciółka panny Marple Sir Henry Clithering – przyjaciel panny Marple, emerytowany komisarz policji Vera Rossakoff – rosyjska hrabina Pan Jason Rafiel – staruszek, przyjaciel panny Marple Harley Quin – detektyw „nie z tego świata”, patrz: Tajemniczy pan Quin Inspektor Miller – antagonista Herkulesa Poirota Parker Pyne – ekscentryczny detektyw, patrz: Parker Pyne na tropie Luke Fitzwilliam – emerytowany policjant, patrz: Morderstwo to nic trudnego Przypisy Bibliografia Linki zewnętrzne Strona poświęcona Agacie Christie i jej twórczości Oficjalna angielskojęzyczna strona Agathy Christie Agatha Christie w bazie Filmweb Angielscy prozaicy XX wieku Autorzy objęci zapisem cenzury w Polskiej Rzeczypospolitej Ludowej Brytyjscy autorzy powieści kryminalnych i sensacyjnych Niewyjaśnione zaginięcia Prozaicy anglojęzyczni Urodzeni w 1890 Zmarli w 1976
33
https://pl.wikipedia.org/wiki/Allel
Allel
Allel – jedna z wersji genu. Allel najczęściej występuje w określonym locus na danym chromosomie homologicznym, jednak pojęcie to odnosi się także do genomu cytoplazmatycznego oraz prokariotycznego. Allele tego samego genu różnią się jednym lub kilkoma nukleotydami. Istnienie więcej niż jednej wersji danego genu określa się jako polimorfizm. Dzięki zdegenerowaniu kodu genetycznego tylko część tych różnic przekłada się na różnice w budowie kodowanych białek. Powoduje to zróżnicowanie właściwości cząsteczek białka kodowanego przez różne allele tego samego genu. Model Mendla W uproszczonym modelu genetyki mendlowskiej przyjmuje się, że allele mogą być dominujące (oznaczane zwyczajowo wielką literą, np. A) lub recesywne (oznaczane małą literą, np. a). Cechy te dotyczą organizmów diploidalnych i wiążą się ze zdublowaniem materiału genetycznego w postaci par chromosomów homologicznych. W chromosomach tworzących taką parę (najczęściej dziedziczonych osobno od przodka męskiego i żeńskiego, przykładowo od matki i ojca) może być obecny zarówno allel dominujący (A), jak i recesywny (a). Prowadzi to do trzech możliwych kombinacji: a a (homozygota recesywna) A a (heterozygota) A A (homozygota dominująca) Recesywność polega na tym, że cecha kodowana przez allel a ujawni się tylko w pierwszym z wymienionych przypadków, a zatem przy genotypie a a (homozygota recesywna). W pozostałych przypadkach ekspresji podlegał będzie jedynie dominujący allel A, zatem w fenotypie nie ujawnią się cechy związane z ewentualną obecnością allelu a (brak różnicy między heterozygotą a homozygotą dominującą na poziomie fenotypu). Cechy sprzężone z płcią Na gruncie modelu Mendla dają się wyjaśnić tak zwane cechy sprzężone z płcią, w tym choroby sprzężone z płcią, jak na przykład nieprawidłowe rozróżnianie kolorów (daltonizm). Cechy te są spowodowane obecnością rzadko spotykanych, recesywnych alleli na chromosomie X. Ponieważ u mężczyzn jest tylko jeden taki chromosom, obecność allelu recesywnego przekłada się na wystąpienie określonej cechy (lub choroby) w fenotypie. U kobiet natomiast są dwa chromosomy X, zatem określona cecha wystąpi jedynie wówczas, gdy na każdym z nich obecny będzie rzadko spotykany allel recesywny. Jeśli prawdopodobieństwo trafienia na taki allel w populacji wynosi 1/100, to związana z nim cecha ujawni się średnio u jednego na stu mężczyzn oraz u jednej na 10000 kobiet. Odstępstwa od praw Mendla Allele mogą też być kodominujące, jak to jest w przypadku grup krwi z układu AB0. Przyjęto, że allele jednego genu oznacza się różnymi wariantami tej samej litery. W puli genowej populacji na ogół występuje wiele alleli tego samego genu, przy czym allele te mogą mieć różny porządek recesji, dominacji lub kodominacji. Mendel przypisywał jednej cesze jeden allel, tymczasem większość cech jest warunkowana przez wiele alleli. Nazewnictwo w mediach i literaturze popularnonaukowej Komunikaty medialne o odkryciu genu określonej choroby często zawierają pojęcie gen zamiast allel. W istocie doniesienia te dotyczą nie tyle rozpoznania funkcji jakiegoś genu, lecz odkrycia jego allelu, którego obecność i ekspresja odpowiada za określoną chorobę. Zobacz też allotyp Przypisy Linki zewnętrzne Rodzaje genów
34
https://pl.wikipedia.org/wiki/Anatole%20France
Anatole France
Anatole France, właśc. Jacques-Anatole-François Thibault (ur. 16 kwietnia 1844 w Paryżu, zm. 12 października 1924 w Saint-Cyr-sur-Loire) – poeta, powieściopisarz i krytyk francuski. Zapalony bibliofil i historyk, przedstawiciel postawy racjonalistycznej oraz sceptycznej. Przez jemu współczesnych porównywany do Voltaire’a i Jean Baptiste Racine’a. Jako poeta – przedstawiciel parnasizmu. Autor licznych powieści satyryczno-heroikomicznych wzorowanych na XVII-wiecznych powiastkach filozoficznych i libertyńskich. W swojej twórczości, zarówno literackiej, jak i eseistycznej, głośno krytykował konwenanse religijno-obyczajowo-społeczne we Francji przełomu XIX i XX wieku. Laureat Literackiej Nagrody Nobla za rok 1921. Z uzasadnienia komisji noblowskiej otrzymał ją za błyskotliwe osiągnięcia literackie wyróżniające się wykwintnością stylu, głębokim humanizmem i prawdziwie galijskim temperamentem. Jeden z członków jury, Erik Axel Karlfeldt, okrzyknął go ostatnim wielkim klasykiem naszych czasów, a być może nawet ostatnim Europejczykiem. Przez Josepha Conrada nazwany „księciem prozy” (jego twórczość scharakteryzował jako „najsprawiedliwszą i najbardziej godną uwagi”). Humanizm France’a wywarł również wpływ na takich pisarzy jak: Marcel Proust, Tomasz Mann, Aldous Huxley, Jean-Paul Sartre czy André Gide. Życie Anatole France w młodości czytał wiele dzieł literatury starożytnej, pracując jako bibliotekarz, krytyk literacki i lektor rękopisów. Uzyskał w ten sposób olbrzymią wiedzę (literatura, historia literatury, historia powszechna) i wykorzystywał ją w swych dziełach. Był bibliofilem uznającym poglądy Woltera. W okresie sprawy Dreyfusa zaangażował się w jego obronę (słynny list otwarty Emila Zoli J’Accuse…!) i m.in. z tego powodu zaczęto go łączyć z francuską lewicą. Od 1896 r. był członkiem Akademii Francuskiej. Pod koniec życia wstąpił do Francuskiej Partii Komunistycznej. Twórczość Początkowo pisał wiersze utrzymane w duchu parnasizmu i klasycyzmu, w 1873 wydając tomik poezji Les Poèmes dorés, jednak bez większego powodzenia. Pierwszy sukces osiągnął powieścią „Le Crime de Sylvestre Bonnard” (1881, pol. „Zbrodnia Sylwestra Bonnard”). Pisał głównie powieści, jak Thaïs (1890), „La Rôtisserie de la reine Pédauque” (1893) „Gospoda pod Królową Gęsią Nóżką” na tle XVIII wieku – jedno z jego arcydzieł i jego uzupełnienie „Les opinions de M. Jérôme Coignard” (1893) „Poglądy księdza Hieronima Coignard”, współczesną powieść psychologiczno-obyczajową „Le Lys rouge” (1894), satyryczną „Histoire contemporaine” (1897-1900) – 4 tomowy pełen dowcipu obraz trzeciej republiki, ironizującą całą historię Francji: „L'Île des Pingouins” (1908) „Wyspa pingwinów”, rozgrywającą się w realiach Wielkiej rewolucji francuskiej „Les dieux ont soif” (1912) Bogowie łakną krwi, „La Révolte des Anges” (1913) „Bunt aniołów” i inne. Nadto nowele i opowiadania, jak „Balthasar” (1889), „L'Étui de nacre” (1892), „Crainquebille” (1903), „Les sept femmes de Barbe-Bleue” (1909) i i. Autobiograficzne: „Le livre de mon ami” (1885), „Le petit Pierre” (1918), i „La vie en fleur” (1922), historyczna „Vie de Jeanne d’Arc” (1908, 2 tomy), czy aforystyczno-filozoficzny „Le Jardin d'Épicure” (1895). Felietony zebrane w „La vie littéraire” (1888-1892, 4 tomy) i w „Opinions sociales” (1902, 2. tomy). Świetne szkice z literatury francuskiej: „Le Génie latin” (1917). Ocena twórczości Anatole France miał wielu wrogów ze względu na swój sceptycyzm, socjalizm i pacyfizm. Powszechnie jest uznany za jednego z mistrzów francuskiej prozy. Wydanie zbiorowe ukazywało się od roku 1925. Literatura o Anatolu France jest bardzo obfita, istnieje sporo pozycji (przeważnie jednak drobnych) także w j. polskim. W swych utworach przedstawiał problematykę społeczną, związaną z polityką religią i filozofią. Początkowo głównym środkiem wyrazu była u niego inteligentna i wyrafinowana satyra, którą posługiwał się w celu krytyki życia, a postawą pogodny i ironiczny sceptycyzm, ukrywający głęboki humanizm. Pod koniec dziewiętnastego wieku w twórczości France’a zaobserwować można radykalizm skierowany ku ideologii socjalizmu. Wyznając poglądy socjalistyczne, wstąpił do Francuskiej Partii Komunistycznej. Jako tło swoich utworów często wybierał historię: początki chrześcijaństwa, rewolucję francuską i czasy współczesne. W swojej oryginalnej twórczości wykorzystywał motywy baśniowe, groteskowe i satyryczne dla ukazania śmiesznostek dotychczasowych schematów i ludzkich zachowań. Tak było m.in. w powieści Bunt aniołów, w której zrewoltowani przeciw wszechwładzy Boga aniołowie zstępują na ziemię i planują wielką wojnę. Historia ta dała autorowi możliwość do filozoficznych rozważań nad ludzką i boską ułomnością oraz nad schematem rzeczy boskich, wytworzonym przez sztukę. W utworze Wyspa pingwinów ukazał historię państwa pingwińskiego, będącą karykaturą dziejów Francji. W rok po otrzymaniu literackiej nagrody Nobla, w maju 1922 roku dzieła wszystkie Anatola France’a trafiły na listę Indeksu ksiąg zakazanych Kościoła katolickiego. Twórca, dziś zapomniany i niewydawany, był za życia uznawany za najwybitniejszego prozaika swojej epoki. Nagroda Nobla Anatole France jest laureatem Nagrody Nobla w dziedzinie literatury za rok 1921. Z uzasadnienia Komitetu Noblowskiego: „za błyskotliwe osiągnięcia literackie wyróżniające się wykwintnością stylu, głębokim humanizmem i prawdziwie galijskim temperamentem”. Polskie tłumaczenia Dzieła France’a tłumaczyli na język polski: Jadwiga Boelke, W. i J. Dąbrowscy, F. K., St. Godlewski, E. Ligocki, J. Mareschowa, F. Mirandola, H. Niemirowska, St. Popowski, J. Rogoziński, Jan Sten, T. Świstakowski, Z. Wróblewska. Ukazał się też „Wybór pism” w przekładzie Jana Stena (1904-1912), 9 t. (nowe wyd. od r. 1931, ze wstępem Jana Parandowskiego). Dzieła Zbiory wierszy: Poèmes dorés (1873) Les Noces corinthiennes/Les Noces corinthiennes (1876) Powieści i opowiadania: Jokasta (1879, wyd. pol. 1968) Zbrodnia Sylwestra Bonnard (1881, wyd. pol. 1922, 1931, 1949, 1959, 1983, 1996, 2005) Les Désirs de Jean Servien (1882) Zazulka (1883, wyd. pol. 1915, 1981, 1983, 2002) Nasze dzieci. Opowieści z miasta i ze wsi (1887, wyd. pol. 1922) Na kwiaty: książeczka dla dzieci (wyd. pol. 1907) Balthasar (1889), na język polski przetłumaczono opowiadanie Laeta Aecilia Tais (1890, wyd. pol. 1906, 1922, 1923, 1925, 1927, 1931, 1957) Kuglarz Najświętszej Panienki i inne nowelki (1892, wyd. pol. 1923) Gospoda pod Królową Gęsią Nóżką (1892, wyd. pol. 1904, 1923, 1931, 1950, 1966, 1975, 2006) Gospoda pod Królową Gęsią Nóżką: życie i czyny księdza Hieronima Coignarda (wyd. pol. 1924) Poglądy księdza Hieronima Coignarda (1893, wyd. pol. 1922, 1958, 1966) Czerwona lilia (1894, wyd. pol. 1921, 1960) Ogród Epikura (1895, wyd. pol. 1922) Le Puits de Sainte Claire (1895), na język polski przetłumaczono jedynie opowiadanie Święty satyr (1922) oraz Tajemnica krwi (1923) Historia współczesna (wyd. pol. 1956) W cieniu wiązów (1897, wyd. pol. 1909, 1923, 1931, 1949) Manekin trzcinowy (1897, wyd. pol. 1909, 1910, 1931, 1949) Pierścień z ametystem (1899, wyd. pol. 1910, 1923, 1932, 1949) Pan Bergeret w Paryżu (1901, wyd. pol. 1950), Clio (1900, wyd. pol. 1901) Nieskazitelni sędziowie i inne opowieści (1902, wyd. pol. 1950) Historia komiczna (1903, wyd. pol. 1904, 1922, 1962, 1993) Śpiewak z Kymei (wyd. pol. 1905) Na białym kamieniu (1905, wyd. pol. 1905, 1955) Crainquebille (1901, wyd. pol. 1923, 1972, 1975) Nowele (wyd. pol. 1905) Wyspa Pingwinów (1908, wyd. pol. 1909, 1923, 1931, 1987) Powiastki Kuby Kręcirożna (1908, wyd. pol. 1926) Siedem żon Sinobrodego, tudzież inne opowieści cudowne (1909, wyd. pol. 1922) Bogowie łakną krwi (1912, wyd. pol. 1912, 1923, 1931, 1959, 1985) Bunt aniołów (1914, wyd. pol. 1918, 1922, 1986) Wiosna życia: powieść (wyd. pol. 1923) Eseje: Pamiętnik mego przyjaciela (1885, wyd. pol. 1911, 1935, 1949) Pierre Nozière (1899) Piotruś (1918, wyd. pol. 1920) La Vie en fleur (1922) Sztuki teatralne: Au petit bonheur (1898) Crainquebille (1903) Komedia o człowieku który zaślubił niemowę (1908, wyd. pol. 1912, 1922) Le Mannequin d’osier (1928) Prace historyczne: Vie de Jeanne d’Arc (1908) Krytyka literacka: Alfred de Vigny (1869) Le Château de Vaux-le-Vicomte (1888) Le Génie latin (1913) Krytyka społeczna: Opinions sociales (1902) Le Parti noir (1904) Kościół i Rzeczpospolita (1904, wyd. pol. 1907, 1911, 1959, 2009) Wybór pism (wyd. pol. 1904) Vers les temps meilleurs (1906) Pisma krytyczne (wyd. pol. 1907) Sur la voie glorieuse (1915) Trente ans de vie sociale; tom I, 1897-1904 (1949), tom II, 1905-1908 (1953), z komentarzem Claude’a Aveline’a; tom III, 1909-1914 (1964) i tom IV, 1915-1924 (1973) Ironie (wyd. pol. 1925) Zobacz też Literatura francuska parnasizm klasycyzm powiastka filozoficzna Literacka Nagroda Nobla pacyfizm humanizm Przypisy Linki zewnętrzne Utwory Anatole’a France’a w bibliotece Polona Nobliści – literatura Pisarze francuskojęzyczni Francuscy prozaicy XIX wieku Francuscy prozaicy XX wieku Eseiści XIX wieku Eseiści XX wieku Francuscy dramaturdzy XIX wieku Francuscy dramaturdzy XX wieku Francuscy eseiści Francuscy krytycy literaccy Francuscy poeci XIX wieku Francuscy poeci XX wieku Francuscy felietoniści Francuscy satyrycy Pisarze związani z Paryżem Autorzy umieszczeni na indeksie ksiąg zakazanych Członkowie Akademii Francuskiej Członkowie PEN Clubu Członkowie Francuskiej Partii Komunistycznej Ludzie urodzeni w Paryżu Urodzeni w 1844 Zmarli w 1924
35
https://pl.wikipedia.org/wiki/Alkaloidy
Alkaloidy
Alkaloidy (arabskie alkali – potaż i eidos – postać = „przyjmujący postać zasady”) – według rekomendacji IUPAC z 1995 roku jest to grupa naturalnie występujących zasadowych związków organicznych (na ogół heterocyklicznych), głównie pochodzenia roślinnego, zawierających azot. Aminokwasy, peptydy, białka, nukleotydy, kwasy nukleinowe, aminocukry i antybiotyki nie są zwykle zaliczane do alkaloidów. Dodatkowo do tej grupy włączone są niektóre obojętne związki chemiczne biogenetycznie związane z alkaloidami zasadowymi. Prekursorami do biosyntezy tych związków chemicznych są aminokwasy. Alkaloidy wykazują zwykle silne, nieraz trujące działanie fizjologiczne na organizm człowieka. Dla chemii organicznej przez ponad 100 lat były przedmiotem badań strukturalnych i syntetycznych. Przykładem jest morfina, wydzielona z opium w stanie czystym już w 1813, której budowa została wyjaśniona ostatecznie dopiero w roku 1952. Z fizjologicznego punktu widzenia alkaloidy pełnią funkcję metabolitów wtórnych, chroniących roślinę przed roślinożercami (poprzez nadanie gorzkiego smaku), mikroorganizmami i infekcjami. Większość alkaloidów powstaje w pobliżu miejsc o największej intensywności przemiany materii, czyli wszystkich merystemów, nie znaczy to jednak, że tam jest ich najwięcej, bo np. u bielunia (Datura) najwięcej jest ich w ogonkach liściowych, a u chinowca (Cinchona) w korze. Ma to znaczenie z punktu widzenia zielarstwa, gdzie ważne jest, żeby wiedzieć jakie części roślin i kiedy zbierać. Należy zaznaczyć, że niektóre alkaloidy w czasie transportu wewnątrz roślin ulegają przemianom biochemicznym. Przeważająca większość alkaloidów to substancje stałe, jedynie nieliczne są cieczami. Większość jest albo bardzo słabo, albo wcale nierozpuszczalna w wodzie, natomiast bardzo łatwo rozpuszczają się w rozpuszczalnikach organicznych. Do tej pory poznano budowę ok. 6500 alkaloidów, z których ponad sto znalazło zastosowanie w medycynie. Współcześnie (zależnie od kosztów ekonomicznych) alkaloidy pozyskuje się z natury, z hodowli tkankowej lub syntezy chemicznej. Traktowanie alkaloidów jako fizjologicznych związków wtórnych, swoistych „odpadów”, powstających w cyklach biochemicznych, jest ostatnio mocno krytykowane. Coraz częściej alkaloidy są traktowane jako celowo syntetyzowane związki oddziałujące toksycznie na roślinożerców, a powstałe w wyniku koewolucji układu roślina – roślinożerca. Za tą hipotezą przemawia fakt, iż produkcja alkaloidów wymaga sporego wkładu energii, przez co jest dla roślin kosztowna. Trudno sobie wyobrazić zmiany ewolucyjne prowadzące do bezcelowego trwonienia asymilowanej energii przez tworzenie związków bezużytecznych. Dodatkowym argumentem jest konieczność wykorzystania trudnych do pozyskania ze środowiska atomów azotu. W wielu środowiskach, w których występują rośliny syntetyzujące alkaloidy, azot jest pierwiastkiem deficytowym w glebie, a jednocześnie jest konieczny do tworzenia aminokwasów i tym samym syntezy alkaloidów. Przy takim podejściu nie dziwi fakt koncentracji tych związków w miejscach o niekoniecznie najwyższej przemianie materii, ale najbardziej narażonych na atak roślinożerców. Wiele toksycznych alkaloidów podawanych w odpowiednio małych dawkach stanowi skuteczne leki na liczne choroby i dolegliwości (np. morfina, kodeina, chinina). Liczne alkaloidy stanowią składniki używek (kofeina, teobromina, nikotyna). Wiele toksycznych alkaloidów wykorzystuje się do zwalczania szkodników (strychnina). Do bardzo silnych trucizn należy tubokuraryna, występująca w Chondodendron tomentosum i używana do zatruwania grotów strzał przez Indian południowoamerykańskich. Zielarski podział alkaloidów ze względu na budowę chemiczną, wraz z przykładami surowców roślinnych Alkaloidy zawierające atom azotu w układzie heterocyklicznym. Alkaloidy tropanowe – estry alkoholi tropanowych z kwasami aromatycznymi lub alifatycznymi. Atropina Hioscyjamina Skopolamina Kokaina Surowce zawierające te alkaloidy: belladonnae fol., hyoscyami fol., stramonii fol. Alkaloidy chinolinowe – zawierają w cząsteczce układ chinoliny powstające na drodze biosyntezy z tryptofanu: Chinina Chinidyna powstające na drodze biosyntezy z kwasu antranilowego: Graweolina pochodne furochinoliny: Dyktamina Kokusagina Surowce zawierające te alkaloidy: Cinchonae cort. Alkaloidy izochinolinowe – zawierają w cząsteczce układ izochinoliny Typu aporfiny Glaucyna Boldyna Magnofloryna Typu benzofenantrydyny Chelidonina Cheleretryna Sangwinaryna Typu protoberberyny Protoberberyna Berberyna Koptyzyna Typu protopiny Fumaryna Typu benzyloizochinoliny Papaweryna Typu ftalidoizochinoliny Narkotyna Typu morfinanu Morfina Kodeina Tebaina Typu emetyny Emetyna Cefalina Psychotryna Surowce zawierające te alkaloidy: opium, boldo fol., chelidonii hb., fumariae hb., ipecacuanhae rad., galanthi bulbus Alkaloidy chinolizydynowe – zawierają w cząsteczce układ chinolizydyny Cytyzyna Sparteina Surowce zawierające te alkaloidy: citisi sem. Alkaloidy indolowe – zawierające w cząsteczce azot w układzie heterocyklicznym, pięcioczłonowym pochodne indolu Typu strychnos Strychnina Braucyna Nowacyna Womicyna Typ Johimbanu Johimbina Rezerpina Dezerpidyna Typ heterojohimbanu Ajmalicyna Rezerpilina Typu cynchonanu Cynchonamina Chinicyna Typu eburnanu Winakamina Epiwinkamina Wincyna Eburnamonina Typu aspidospermanu Winakdiformina Minowincyna Winkadyna Typu harmanu Harman Harmina Harmol pochodne dihydroindolu Ajmalina Raupina Surowce zawierające te alkaloidy: strychni sem., yohimbe cort., rauwolfiae rad., vincae rosae fol., vincae minoris hb., passiflorae hb. Alkaloidy pochodne ergoliny – alkaloidy sporyszu pochodne kwasu D-lizergowego Ergometryna Ergotamina Ergozyna Ergokrystyna Ergokryptyna pochodne kwasu D-izolizergowego (są nieczynne farmakologicznie) Ergometrynina Ergotaminina Alkaloidy pirolizydynowe – estry aminoalkoholi zawierających układ pirolizydyny z kwasami alifatycznymi estry nasycone Tussilagina Izotussilagina Neotussilagina estry nienasycone Intermedyna Symfetyna Surowce zawierające te alkaloidy: farfarae fol., symphyti rad. Alkaloidy purynowe – pochodne puryny Kofeina Teobromina Teofilina Surowce zawierające te alkaloidy: coffeae sem., theae fol., cacao sem., colae sem., mate, guarana Alkaloidy Imidazolowe – zawierające układ imidazolu Pilokarpina Surowce zawierające te alkaloidy: jaborandi fol. Alkaloidy pirydynowe Alkaloidy pirydynowe – zawierające układ pirydyny pochodne pirydyny Walerianina Gencjalutyna pochodne N-metylopirydyny Nikotyna Anabazyna Surowce zawierające te alkaloidy: valerianae rad., nikotinae fol. Alkaloidy piperydynowe Alkaloidy piperydynowe – Zawierają układ piperydyny Koniina Lobelina Kniceina Surowce zawierające te alkaloidy: conii maculati fr., lobeliae hb. Alkaloidy terpenowe – zasady terpenowe, zawierające azot w pierścieniu Właściwe alkaloidy diterpenowe napelina Alkaloidy norditerpenowe (mają o jeden atom węgla mniej) akonityna Surowce zawierające te alkaloidy: aconiti tuber Alkaloidy steroidowe – zawierające układ steroidowy z dodatkowym pierścieniem zawierającym azot Typu Veratrum – występują w roślinach z rodziny melantkowatych (melanthiaceae) np. w kłączach ciemiężycy białej (Veratrum album) Weratramina Weratrydyna Typu Solanum – występują w roślinach z rodzaju solanum alkaloidy typu spirosolanu – zbliżone budową do saponin steroidowych Solasodyna Tomatydyna alkaloidy typu solanidanu – azot wbudowany w pierścień indolizydyny Solanidyna Demissydyna Alkaloidy zawierające atom azotu poza układem cyklicznym pochodne tropolonu Kolchicyna Surowce zawierające te alkaloidy: colchici sem. aminy aromatyczne Efedryna Katyna Kapsaicyna Surowce zawierające te alkaloidy: ephedrae hb., capsici fr. aminy alifatyczne Cholina Surowce zawierające te alkaloidy: foenugraeci sem. pochodne guanidyny galegina Surowce zawierające te alkaloidy: Galegae hb. alkaloidy terpenowe zawierające azot poza układem cyklicznym taksol Surowce zawierające te alkaloidy: taxi cort. Przypisy
37
https://pl.wikipedia.org/wiki/Archeologia
Archeologia
Archeologia (z gr. ἀρχαῖος archaīos – dawny, stary i -λογία -logiā – mowa, nauka) – nauka, której celem jest odtwarzanie społeczno-kulturowej przeszłości człowieka na podstawie znajdujących się w ziemi, na ziemi lub w wodzie źródeł archeologicznych, czyli materialnych pozostałości działań ludzkich. Źródła archeologiczne Źródła archeologiczne obejmują wytwory ręki ludzkiej (artefakty), ślady wpływu człowieka na środowisko naturalne (ekofakty), jak też i szczątki samych ludzi. Źródła archeologiczne można podzielić na: nieruchome (obiekty); do kategorii archeologicznych źródeł nieruchomych należą np. pozostałości budowli, groby, starożytne drogi czy ślady orki. ruchome (przedmioty); do tej kategorii należą np. narzędzia krzemienne czy fragmenty naczyń glinianych. Ruchome źródła archeologiczne występować mogą w powiązaniu ze źródłami nieruchomymi (obiektami), tworząc z nimi zespół, bądź też występować osobno w postaci tzw. znalezisk luźnych. Efektywne źródła archeologiczne, czyli te, które rzeczywiście wykorzystywane są przez naukę przy tworzeniu rekonstrukcji przeszłości, są wynikiem całego łańcucha następujących po sobie przekształceń: tworzenia się materialnych śladów (korelatów) działań ludzkich w przeszłości (np. wytwarzania narzędzi, wznoszenia budowli czy karczowania lasu), procesów depozycji (np. wyrzucania śmieci czy chowania zmarłych), procesów podepozycyjnych (np. rozkładu substancji organicznej w ziemi) oraz procesu odkrywczego i dokumentacyjnego (działalności archeologów). Te kolejne przekształcenia powodują nieodwracalną utratę znacznej części informacji o przeszłości, co utrudnia jej rekonstrukcję. Ponadto proces odkrywczy w archeologii obejmuje zazwyczaj metody niszczące, a mianowicie wykopaliska archeologiczne, w czasie których świadectwo przeszłości jest niszczone i przekształcane w dokumentację. Rozwój archeologii zmierza w związku z tym do wypracowania nieniszczących metod badawczych (archeologia niedestrukcyjna, obejmująca m.in. zastosowanie metod geofizycznych, geochemicznych i analizę zdjęć lotniczych i satelitarnych), jak również do objęcia ochroną autentycznej substancji zabytkowej stanowisk archeologicznych zachowanych w ziemi (potencjalnych źródeł archeologicznych). Miejsce archeologii w systemie nauk i jej subdyscypliny Ze względu na cel tej dyscypliny archeologia w tradycji środkowoeuropejskiej (w krajach niemieckojęzycznych i słowiańskich) ściśle łączy się z historią. Natomiast w krajach anglosaskich, zwłaszcza w Stanach Zjednoczonych, archeologię uważa się za wiążącą się ściśle z antropologią i etnologią, ponieważ w Nowym Świecie istnieje ciągłość między żywymi społeczeństwami plemiennymi badanymi przez antropologię kulturową a społeczeństwami badanymi przez archeologów. We Francji, gdzie powstanie naukowej archeologii wiązało się przede wszystkim z geologią, archeologię uważa się często także za związaną z naukami o Ziemi. Chociaż archeologia pierwotnie zajmowała się jedynie najdawniejszymi dziejami człowieka (termin ten pochodzi od greckich słów archaios – starożytny i logos – słowo), obecnie wspomaga również rekonstrukcję czasów historycznych, w tym także i najnowszych. W związku z tym można wyróżnić: archeologię prahistoryczną (pradziejową, prahistoria, archeologia pradziejowa) archeologię protohistoryczną (protohistoria) archeologię historyczną Rola źródeł archeologicznych i archeologii jest odmienna dla czasów nieoświetlonych źródłami pisanymi (wówczas archeologia jest jedyną nauką dostarczającą wiedzy na temat przeszłości społeczeństw ludzkich) i dla czasów historycznych, dla których istnieją źródła pisane (wówczas archeologia pozwala zweryfikować obraz uzyskany dzięki analizie źródeł pisanych i go uszczegółowić). Nauką różniącą się co do celów, ale podobną ze względu na stosowane środki jest paleoantropologia, zajmująca się poszukiwaniem szczątków ludzkich. Nauką zajmującą się poszukiwaniem i badaniem szczątków zwierząt kopalnych jest paleontologia. Powstanie archeologii było związane z pozyskiwaniem zabytków do kolekcji starożytności, dopiero w XIX w. archeologia uzyskała status nauki. Metody badawcze archeologii Metody badań archeologicznych można podzielić na: metody poszukiwania i pozyskiwania źródeł archeologicznych metody analizowania źródeł i wydobywania z nich informacji Na etapie poszukiwania źródeł archeologia posługuje się np. analizą dawnych map, analizą historycznej sieci osadniczej, analizą środowiska naturalnego, poszukiwaniem artefaktów na powierzchni ziemi (np. wyoranych fragmentów ceramiki zabytkowej), obserwacją powierzchni z aparatów latających (archeologia lotnicza), analizą zawartości fosforu w glebie (badania geochemiczne), jak również rozmaitymi metodami geofizycznymi (metodami elektromagnetyczną, elektrooporową czy magnetyczną). Odnalezione miejsca występowania źródeł archeologicznych mogą być badane wykopaliskowo (wykopaliska archeologiczne) lub objęte ochroną rezerwatową. Metody datowania w archeologii Ustalanie chronologii źródeł archeologicznych obejmuje: ustalanie chronologii względnej ustalanie chronologii absolutnej (kalendarzowej). Metodami ustalania chronologii względnej są: analiza stratygrafii stanowiska archeologicznego seriacja chronologiczna Metodami ustalania chronologii absolutnej są np.: analiza analogii z obszarów o ustalonym datowaniu analiza importów z obszarów o ustalonym datowaniu (np. z obszaru Cesarstwa Rzymskiego) metody izotopowe (np. metoda radiowęglowa i metoda potasowo-argonowa) metody termoluminescencyjna (TL) i optoluminescencyjna (OSL) tefrochronologia (ustalanie datowania na podstawie identyfikacji warstw popiołów wulkanicznych pochodzących z wybuchów wulkanów o znanej chronologii) dendrochronologia (analiza sekwencji słojów w elementach drewnianych pochodzących z wykopalisk i porównywanie ich ze skalami dendrochonologicznymi) Archeologia i nauki biologiczne Archeologia korzysta również z możliwości poznawania przeszłości, jakie wynikają ze współpracy z naukami biologicznymi. Paleobotanika, dzięki identyfikacji i analizie szczątków roślinnych (pyłków i/lub szczątków owoców i nasion) pozwala m.in. na: odtworzenie dziejów zasiedlenia danego miejsca (na podstawie analizy zmian w diagramie pyłkowym – palinologia) ustalenie właściwości środowiska naturalnego w danym okresie (na podstawie znajomości warunków, w których rosną gatunki zidentyfikowane dzięki obecności pyłku lub makroszczątków roślinnych w depozytach archeologicznych); odtworzenie charakteru gospodarki i rodzaju spożywanych pokarmów roślinnych (rodzaje uprawianych i zbieranych roślin); ustalenie preferencji kulturowych do korzystania z pewnych gatunków roślinnych (jeśli pewne gatunki są nadreprezentowane w spektrach pyłkowych). Archeozoologia dzięki identyfikacji i analizie szczątków zwierzęcych pozwala m.in. na: ustalenie jakie zwierzęta były eksploatowane konsumpcyjnie, jakie były hodowane, na jakie polowano – a więc również na odtworzenie warunków środowiska i ustalenie preferencji kulturowych; ustalenie wielkości stada i ilości spożywanego mięsa; rekonstrukcję cech morfologicznych zwierząt w przeszłości (dane dotyczące ewolucji zwierząt) Paleoentomologia, dzięki identyfikacji i analizie szczątków owadów pozwala na: ustalenie warunków klimatycznych (temperatury powietrza, wilgotności), roślinności, pokrywy glebowej i świata zwierzęcego (pasożyty) oraz intensywności działań ludzkich. Paleolimnologia, dzięki identyfikacji i analizie szczątków organizmów żyjących w wodach śródlądowych (głównie okrzemek i wioślarek), pozwala na: odtworzenie przemian klimatycznych i procesów antropogenicznego zmieniania krajobrazu, ponieważ poszczególne warunki mają określone wymagania środowiskowe. Antropologia fizyczna, dzięki identyfikacji i analizie szczątków kostnych człowieka, pozwala na: ustalenie cech anatomicznych człowieka przeszłości (dane dotyczące ewolucji człowieka); ustalanie zmienności człowieka w czasie i przestrzeni ustalenie stanu i struktury biologicznej populacji pradziejowych, ustalenie przyczyn śmierci i nękających chorób, ustalanie pokrewieństwa na podstawie grup krwi i badania DNA reakcji morfologicznych człowieka na warunki życia w pradziejach Historia archeologii W najszerszym tego pojęcia znaczeniu historia archeologii zawiera następujące zagadnienia: Historia odkryć archeologicznych Opis rozwoju technik stosowanych podczas wykopalisk Historia prospekcji Ewolucja metod datowania Rozwój analizy zabytków Ewolucja myśli teoretycznej Starożytność Prawdopodobnie zainteresowanie epokami minionymi istniało już w starożytności. Nigdy jednak nie stało się nauką, która zajmowałaby się rekonstrukcją przeszłości na podstawie dostępnych źródeł materialnych. Nieliczne świadectwa pisane z okresu XVIII dynastii znalezione na opuszczonych budowlach egipskich, babilońska kolekcja Nabonida, czy wzmianki w dziełach greckich pisarzy Tukidydesa i Pauzaniasza świadczą o sporadycznym zainteresowaniu zabytkami, a nie o systematycznym, celowym poszukiwaniu wiedzy. Rzymianie zainteresowani byli kulturą grecką. Sporą kolekcję zabytków materialnych zgromadzili Cyceron i cesarz August. Zainteresowanie jednak miało i negatywne skutki: podbite miasta były rabowane, a dzieła sztuki masowo wywożone do Rzymu, jak na przykład stało się to po zniszczeniu Koryntu w 146 roku p.n.e. czy Aten w 80 roku p.n.e. Średniowiecze Średniowiecze wywarło swój wpływ na późniejsze interpretacje znalezisk archeologicznych. W tej epoce wykształcił się pogląd, że pewna wiedza o minionych epokach pochodzi tylko z Biblii oraz zachowanych źródeł pisanych greckich i rzymskich. Nastąpił spadek zainteresowania przeszłością i jej dorobkiem kulturowym. Jedne obiekty, wzniesione przez starożytnych, wykorzystywano do pozyskania budulca wtórnego, inne (megality, kurhany itd.) plądrowano w poszukiwaniu skarbów. Jeśli natrafiano na skamieniałości w kształcie roślin lub zwierząt, uważano, że powstały wskutek działania natury (dla przykładu, Jan Długosz wspominał o samoistnie rodzących się z ziemi garnkach). Renesans Poszukiwanie wiedzy w źródłach greckich i rzymskich w dobie renesansu przyczyniło się do stopniowego zwiększenia zainteresowania dziełami sztuki i architektury, na które w tym okresie patrzono przez pryzmat estetyczny. Cyriak z Ankony w pierwszej połowie XV wieku zebrał liczne materiały (notatki, szkice budowli starożytnych, kopie starożytnych inskrypcji) podczas swoich podróży po Italii, Grecji i Bliskim Wschodzie. Prace budowlane w Rzymie przyczyniły się do odkryć takich zabytków, jak Grupa Laokoona, Wenus Medycejska i Apollo Belwederski. W Tarquinii, po otwarciu grobowców etruskich, znaleziono zabytki etruskie i wazy greckie. Znaleziska z okresu klasycznego trafiały do kolekcji wielkich rodów włoskich. W drugiej połowie XVI wieku zainteresowanie przeszłością poszerzyło się o zabytki dziedzictwa narodowego. Dla przykładu, William Camden badał zabytki rzymskie i wczesnośredniowieczne, które odkryto w Anglii. Założone przez niego w Londynie stowarzyszenie Society of Antiquaries miało na celu studia nad lokalnymi starożytnościami. Wykopaliska archeologiczne nie były jeszcze prowadzone na masową skalę. Do interpretacji dziejów korzystano ze źródeł pisanych. Badania nad zabytkami sprowadzały się do odwiedzenia miejsca, opisania, naszkicowania i zmierzenia zabytku, a także do zebrania i spisania legend związanych z danym miejscem. Oświecenie Pod wpływem myślicieli epoki oświecenia na dzieje kultury ludzkiej zaczęto patrzeć przez pryzmat ewolucji oraz postępu technicznego i społecznego, skierowanego na ulepszenie warunków życiowych. Uważano, że społeczeństwa dążą do rozwoju, a na ich poziom kulturowy wpływa środowisko naturalne, w którym ewoluują. Te prądy filozoficzne wywarły wpływ na ruch antykwarystów (np. Royal Society), który zaczął poszukiwać odpowiedzi na pytania o sposoby budowania i wykorzystywania narzędzi, a także o czas powstania zabytków, na temat których nie zachowały się żadne świadectwa pisane. W 1733 roku założono w Londynie stowarzyszenie Society of Dilettanti, które podjęło się badań nad kulturami starożytności basenu śródziemnomorskiego. Jednocześnie wykształcona warstwa społeczeństwa, która była zainteresowana zabytkami starożytności, zaczęła domagać się udostępnienia zasobów kolekcji prywatnych, co doprowadziło do sponsorowania przez możnych wpierw uczelnianych, a później również publicznych bibliotek i muzeów. Tak, w 1643 roku, otwarto w Paryżu pierwszą publiczną bibliotekę fundacji Julesa Mazarina, w 1734 roku – Muzea Kapitolińskie w Rzymie, w 1743 roku władze toskańskie udostępniły publicznie kolekcję Medici, a w 1753 roku utworzono Muzeum Brytyjskie. Od drugiej połowy XVIII wieku zaczęto organizować prace wykopaliskowe, które miały na celu zaspokojenie zapotrzebowania na uzupełnienie kolekcji lub na kolejne cenne przedmioty do sprzedania. W 1710 roku Emanuele Maurizio d'Elbeuf prowadził prace w Herkulanum, od 1748 roku Roque Joaquín de Alcubierre – w Pompejach. Nie były to wykopaliska archeologiczne we współczesnym tego słowa znaczeniu, ponieważ nie sporządzano żadnego planu i dokumentacji na temat postępu prac. W Wielkiej Brytanii w pogoni za artefaktami Bryan Faussett rozkopał ponad 750 grobowców. W 1764 roku Johann Joachim Winckelmann opublikował swoją Geschichte der Kunst des Alterthums, w której opisał ewolucję sztuki klasycznej na podstawie analizy zgromadzonych w Watykanie rzeźb antycznych i zachowanych tekstów starożytnych pisarzy. Dzieło Winckelmanna stało się podstawowym źródłem do dalszych badań nad sztuką grecką dla środowiska naukowego na następne półtora stulecia. Jednym z prekursorów naukowego podejścia do badań archeologicznych był Thomas Jefferson, który na swojej posiadłości w 1784 roku rowem sondażowym przeciął kurhan, co pozwoliło mu na odnotowanie warstw, odpowiadających różnym okresom dziejowym. XIX wiek Pod wpływem badań geologicznych Jamesa Huttona (stratyfikacja warstw skalnych) i Charlesa Lyella (aktualizm geologiczny) archeologia na początku XIX wieku zaczęła się przekształcać w samodzielną dyscyplinę naukową. W 1836 roku Christian Jürgensen Thomsen – na podstawie analizy stylu znalezisk zgromadzonych w Muzeum Narodowym w Kopenhadze oraz kontekstu, w którym zostały odkryte (np. przedmioty pochodziły z jednego grobu lub skarbu) – wyróżnił trzy epoki: Epokę kamienia Epokę brązu Epokę żelaza Prawie trzy dekady później John Lubbock podzielił epokę kamienia na paleolit i neolit. Jens Jacob Asmussen Worsaae w połowie XIX wieku korzystał z doświadczenia i pomocy biologów i geologów, wprowadzając tym samym do archeologii interdyscyplinarność badań naukowych. Archeologia w Polsce Pierwsze polskie muzeum archeologiczne powstało w połowie XIX w. w Krakowie (przy Akademii Umiejętności), a pierwsza katedra archeologii na Uniwersytecie Jagiellońskim w 1866, kierował nią Józef Łepkowski. Pierwszą służbą ochrony zabytków po odzyskaniu niepodległości było powołane w 1918 Państwowe Grono Konserwatorów Zabytków Archeologicznych. W 1928 rozporządzeniem Prezydenta Rzeczypospolitej utworzono Państwowe Muzeum Archeologiczne w Warszawie. W okresie międzywojennym istotną rolę w rozwoju polskiej archeologii odegrały wykopaliska w Biskupinie. Jedną z najważniejszych postaci polskiej archeologii był Kazimierz Michałowski, którego badania i prace wykopaliskowe sprawiły, iż polska szkoła archeologii zaczęła być rozpoznawalna na całym świecie. Polskim czasopismem popularnonaukowym poświęconym archeologii i naukom pokrewnym jest kwartalnik "Archeologia Żywa". Lista polskich uniwersytetów prowadzących studia w kierunku „archeologia” Akademia Humanistyczna im. A. Gieysztora Katolicki Uniwersytet Lubelski Wydział Zamiejscowy Nauk Prawnych i Ekonomicznych w Tomaszowie Lubelskim Uniwersytet im. Adama Mickiewicza Uniwersytet Gdański Uniwersytet Jagielloński Uniwersytet Kardynała Stefana Wyszyńskiego – od roku akademickiego 2007/2008 odrębny kierunek studiów Uniwersytet Łódzki Uniwersytet Marii Curie-Skłodowskiej Uniwersytet Mikołaja Kopernika Uniwersytet Rzeszowski Uniwersytet Szczeciński – od roku akademickiego 2008/2009 Uniwersytet Warszawski Uniwersytet Wrocławski Wyższa Szkoła Edukacji Integracyjnej i Interkulturowej w Poznaniu Przepisy Zgodnie z ustawą z 23 lipca 2003 r. o ochronie zabytków i opiece nad zabytkami prowadzenie badań archeologicznych wymaga pozwolenia wojewódzkiego konserwatora zabytków (art. 36). Za prowadzenie ich bez pozwolenia albo wbrew jego warunkom grozi kara grzywny (art. 117). Znalezienie przedmiotu, co do którego istnieje przypuszczenie, iż jest on zabytkiem archeologicznym, zobowiązuje znalazcę do zabezpieczenia przedmiotu i oznakowania miejsca znalezienia oraz bezzwłocznego powiadomienia właściwego wojewódzkiego konserwatora zabytków, w ostateczności miejscowego przedstawiciela administracji (wójta lub burmistrza) który powiadamia konserwatora (art. 32n). Zlekceważenie tej powinności zagrożone jest karą grzywny i ewentualnie nawiązki do wysokości dwudziestokrotnego minimalnego wynagrodzenia na wskazany cel społeczny związany z opieką nad zabytkami (art. 115n). Znalezisko stanowiące zabytek archeologiczny przechodzi na własność Skarbu Państwa (art. 35). Odkrywcy (z wyjątkiem zajmujących się zawodowo badaniami archeologicznymi lub zatrudnionych w grupach zorganizowanych w celu prowadzenia takich badań) przysługuje nagroda (art. 34). Zobacz też archeologia współczesności datowanie destrukt kultura archeologiczna oszustwa archeologiczne Przypisy Bibliografia Ławecka D., Wstęp do archeologii, Warszawa 2003. . Piotr Kaczanowski, Janusz Krzysztof Kozłowski, Najdawniejsze dzieje ziem polskich (do VII w.), [w:] Wielka historia Polski, t. 1, Kraków 1998. Paul Bahn i Colin Renfrew, Archeologia. Teorie, metody, praktyka, Warszawa 2002. Andrzej Abramowicz, Historia archeologii polskiej XIX i XX wiek, Warszawa-Łódź 1991. Oxford, Wielka Historia Świata
38
https://pl.wikipedia.org/wiki/Andrespol
Andrespol
Andrespol – wieś w Polsce, położona w województwie łódzkim, w powiecie łódzkim wschodnim, siedziba gminy Andrespol. Historia Do roku 1809 tereny sołectw obecnej gminy Andrespol (oprócz Kraszewa i Zielonej Góry) oraz łódzkiej dzielnicy Andrzejów nosiły nazwę Bedoń. Pierwsza wzmianka o Bedoniu pochodzi z roku 1391, z łęczyckiej księgi grodzkiej. Bedoń był wsią szlachecką i graniczył z Karpinem, Wiączyniem Polnym, Wiączyniem Leśnym, Mileszkami, Kraszewem i Gałkowem. Znajdował się w zaborze rosyjskim. Powstanie Andrespola W drugiej połowie XVIII wieku na ziemie łódzką sprowadzani byli koloniści z Wielkopolski i Niemiec. Jedną z pierwszych osad rolniczych utworzonych poprzez prawo olęderskie był Andrespol. Pierwsze ślady osadnictwa w obszarze Andrespola pojawiły się w 1803 roku, kiedy na leśnej polanie (na południe od Bedonia) powstała osada Bedońskie Holendry. W roku 1805 właściciel majątku w Bedoniu, bydgoski skarbnik Józef Gniewski, sprzedał go Magdalenie z Jordanów Suchockiej. 20 października 1807 roku właścicielka majątku podpisała kontrakt z niemieckimi kolonistami. W jednym z paragrafów umowy umieszczono zapis odnośnie do zwolnienia kolonistów z czynszów i zobowiązań na okres 6 lat, poczynając od 11 listopada 1805 roku. Data ta może wskazywać na fakt, iż właśnie w tym roku przybyli do Andrespola pierwsi osadnicy. Natomiast rok 1807, jako data przybycia osadników, został potwierdzony przez proboszcza z pobliskich Mileszek ks. Daneckiego. Który podczas sporu o niezapłaconą dziesięcinę z Andrespola (1824 r.) napisał: Kontrakt z 1807 roku mówił także o podziale 29 włók gruntów między 29 osadników i przekazaniu trzydziestej na potrzeby nauczyciela i karczmarza. Nowa osada miała nosić nazwę Andreaspolle. Rok 1805, jako data założenia Andrespola, został upowszechniony m.in. za sprawą dawnej literatury niemieckiej poświęconej osadnictwu na ziemiach polskich. Fakt przekazania wówczas przez Magdalenę Suchocką 30 włók chełmińskich 29 osadnikom uwzględnił w swej książce Albert Breyer. Kopia skargi wniesionej przez kolonistów do cara Mikołaja I 8 lipca 1819 roku wskazuje jednak na inną datę założenia Andrespola. Koloniści skarżą się w niej na nadleśniczego z Wiączynia, który wskutek rekwizycji narzędzi i zwierząt pociągowych, odbiera im środki utrzymania oraz nie dopuszcza do karczowania lasu. Najważniejszy jest jednak fragment, w którym mieszkańcy wspominają, że zostali osiedleni w tutejszym lesie 10 lat temu, co wskazuje na rok 1809 jako datę założenia wsi. Podział Andrespola W 1823 roku w wyniku przegranego procesu osada Andrespol została podzielona na dwie części. Część wschodnia pozostała własnością dziedziców Bedonia, pod nazwą Andrespol. Natomiast część zachodnia weszła w skład Ekonomii Rządowej Łaznów, pod nazwą Andrzejowo (obecnie Andrzejów). XX wiek W 1915 roku niemieckie władze okupacyjne wprowadziły administrację cywilną i z wiejskiej gminy Gałkówek w powiecie brzezińskim wyodrębniły Andrespol, włączając go do powiatu łódzkiego i nadając mu status miasta, liczącego w 1916 roku 1040 mieszkańców. Władze polskie nie uznały jednak Andrespola za miasto w 1919 roku, przez co Andrespol powrócił do powiatu brzezińskiego i stał się ponownie osadą w wiejskiej gminie Gałkówek, która weszła w skład woj. łódzkiego. Podczas II wojny światowej znajdował się pod niemiecką okupacją. Włączono go do prowincji Kraj Warty i rejencji kaliskiej. W gminie poza niemiecką władzą działała konspiracyjna władza. W latach 1946–1975 po II wojnie światowej, znajdował się ponownie w granicach województwa łódzkiego, w powiecie brzezińskim, w gminie Gałkówek. W latach 1954–1963 siedziba gromady Andrespol. 1 stycznia 1958 gromadę Andrespol włączono do powiatu łódzkiego i przyłączono do niej obszar zniesionej gromady Wiśniowa Góra. 30 czerwca ze zniesionych gromad Andrespol i Andrzejów utworzono osiedle Andrespol. W sumie osiedle objęło maksymalnie 14 sołectw w latach 1963-1964: Andrespol, Andrzejów, Bedoń Przykościelny, Bedoń wieś, Feliksin, Hulanka, Kraszew, Nery, Nowy Bedoń, Sąsieczno, Stróża, Ustronie, Wiskitno A-Las i Wiśniowa Góra. 1 stycznia 1965 Ustronie wraz z nowo powstałym osiedlem mieszkaniowym Olechów oraz gruntami Polskich Kolei Państwowych wyłączono z Andrespola i włączono do Łodzi, zmniejszając liczbę sołectw do 13. 1 stycznia 1973 roku Andrespol utracił status osiedla, i rozpadł się na poszczególne miejscowości o statusie wsi, z których utworzono po raz pierwszy gminę gminie Andrespol w powiecie łódzkim (dołączono do niej tylko Janówkę i Justynów; Hulankę włączono do Justynowa i utworzono nowe sołectwo Nowy Bedoń. W latach 1975–1987 miejscowość należała administracyjnie do województwa łódzkiego. Od 1975 roku po reformie administracyjnej Andrespol trafił do województwa łódzkiego. Nazwa Z początku używano równocześnie dwóch nazw dla olęderskiej osady na ziemiach bedoński - Andrespol oraz Jędrzejów (przede wszystkim przez proboszczów Mileszek). Przez zaborców niemieckich wieś była nazywana Andreaspolle lub Andreasfelde. Po podziale w 1823 roku proboszczowie Mileszek nadal używali tradycyjnego nazewnictwa wyróżniając Jędrzejów Królewski (Andrzejów) i Jędrzejów Prywatny (Andrespol). Nazwa Andrespol pochodzi prawdopodobnie od imienia jednego z synów właścicielki majątku bedońskiego - Andrzeja. Andrespol obecnie Po reformie administracyjnej w 1999 roku Andrespol znalazł się w granicach województwa łódzkiego, w powiecie łódzkim wschodnim. Usługi i handel Znajdowała się tu duża wytwórnia płytek ceramicznych. Jej teren został przejęty przez prywatnego inwestora, który stworzył tutaj cały kompleks budowlanego centrum handlowego - Stone Master. W roku 2016 zakończyła się nowa inwestycja na terenie tego kompleksu. Powstało tutaj wielobranżowe centrum handlowe Galeria Andrespol. W Andrespolu przy ulicy Gabrieli Zapolskiej znajduje się targowisko. Znajdują się tutaj także restauracje, cukiernie, sklepy budowlane, sklepy ogólnospożywcze, sklepy zoologiczne, sklepy ogrodnicze i wszelkiego rodzaju małe działalności gospodarcze. We wsi znajduje się siedziba Banku Spółdzielczego w Andrespolu. Transport i komunikacja Przez Andrespol przechodzi droga wojewódzka nr 713, łącząca Łódź, Tomaszów Mazowiecki i Opoczno. W pobliżu Andrespola przebiega także Autostrada A1, na którą można wjechać przez Giemzów (węzeł Łódź-Górna) lub przez łódzką dzielnicę Widzew (węzeł Łódź-Wschód). W miejscowości Bedoń znajduje się stacja kolejowa, dzięki której gmina jest połączona z siecią Łódzkiej Kolei Aglomeracyjnej. W Andrespolu kursują także autobusy MPK Łódź. Linie miejskie 90C, 82B, linie podmiejskie 201,202 oraz linia nocna N5B. Przypisy Linki zewnętrzne Dawne miasta w województwie łódzkim
39
https://pl.wikipedia.org/wiki/Andrzejewo%20%28wojew%C3%B3dztwo%20mazowieckie%29
Andrzejewo (województwo mazowieckie)
Andrzejewo – wieś w Polsce położona w województwie mazowieckim, w powiecie ostrowskim, w gminie Andrzejewo. Dawniej miasto. Do 1954 roku siedziba gminy Warchoły. W latach 1975–1998 miejscowość administracyjnie należała do województwa łomżyńskiego. Miejscowość jest siedzibą władz gminy Andrzejewo oraz parafii rzymskokatolickiej Wniebowzięcia NMP. Sołectwo Andrzejewo obejmuje: Andrzejewo, i Jabłonowo-Klacze Historia Miejscowość jako wieś wymieniona została w I połowie XIII wieku w inwentarzu dóbr biskupstwa płockiego. Pierwotnie nazwana Wronie. Położona nad rzeką Brok Mały, na połączeniu szlaków z Łomży i Pułtuska na Podlasie. Andrzejewo uzyskało lokację miejską w 1528 roku. Powstało na gruntach wsi Wronie na prawie niemieckim z inicjatywy biskupa płockiego Andrzeja Krzyckiego, na mocy przywileju wydanego 3 marca lub 13 maja 1534 roku przez króla Zygmunta I Starego. Nadana nazwa Andrzejów nie przyjęła się, pomimo że jeszcze w 1784 roku używano nazwy Andrzeiow. W drugiej połowie XVI wieku Andrzejewo było prywatnym miastem duchownym należącym pod względem własności do biskupów płockich a pod względem administracyjnym do powiatu nurskiego ziemi nurskiej województwa mazowieckiego. W roku 1869 w wyniku represji po powstaniu styczniowym Andrzejewo zostało pozbawione praw miejskich i stało się osadą wiejską. W Andrzejewie mieścił się urząd gminy, funkcjonowała szkółka elementarna, działał zakład stolarski i odbywały się jarmarki. W 1879 roku mieszkało 1200 osób w tym 580 Żydów, a miejscowi rolnicy uprawiali 2139 morgów ziemi. W 1929 r. wieś i gminę zamieszkiwało 995 osób. We wsi istniał kościół i synagoga. Siedem razy w roku odbywały się jarmarki. Istniała jedna apteka, dwa sklepy bławatne, sklep galanteryjny, dwie olejarnia, trzy piwiarnie, siedem sklepów spożywczych, dwa wiatraki, sklep żelazny. Był jeden felczer, jedna akuszerka, introligator, czterech kowali, dwóch krawców, trzech piekarzy, rymarz, rzeźnik, dwóch stolarzy, czterech szewców i handlarz zbożem. W czasie agresji III Rzeszy na Polskę, 9 września 1939 roku Andrzejewo zajęte zostało przez wojska niemieckie. Pod koniec września na mocy paktu Ribbentrop-Mołotow miejscowość znalazła się w granicach ZSRR. Po wybuchu wojny niemiecko-radzieckiej w 1941 roku miejscowość została ponownie zajęta przez Niemców. Na początku sierpnia 1941 roku Niemcy wypędzili Żydów z Andrzejewa a rolnikom nakazali wywieść furmankami starców, chorych i dzieci narodowości żydowskiej. Wszyscy Żydzi (około 230 osób, w tym 60 z Lubotynia) zostali rozstrzelani w lesie Rząśnik. Okupację niemiecką Andrzejewa zakończyło 28 sierpnia 1944 roku zdobycie miejscowości przez żołnierzy z 48 Armii 1 Frontu Białoruskiego Armii Czerwonej. Historia Żydów w Andrzejewie. Biskup Andrzej Krzycki lokując Andrzejewo wprowadził zakaz osiedlania się Żydów na terenie miasta (de non tolerandis Judaeis). Kolejni biskupi płoccy potwierdzali ten zakaz. Żydzi osiedlali się więc w okolicznych miejscowościach m.in. w Czyżewie, Zarębach Kościelnych. Dzierżawili oni karczmy i młyny. Na przełomie lat 1802 i 1803 prawdopodobnie osiedlili się w Andrzejewie pierwsi Żydzi. Pozwoliło na to zniesienie w części miast przez rząd pruski zakazu de non tolerandis Judaeis. W 1808 roku na 726 mieszkańców Żydów było 28. W 1811 na 773 mieszkańców – 111 stanowili Żydzi. Pod koniec lat 70. XIX wieku ludność wyznania mojżeszowego stanowiła 48,3% ogółu ludności (1200 mieszkańców, w tym 580 Żydów). W 1826 zaczął działać samodzielny okręg bożniczy. Jeszcze przed końcem XIX wieku wybudowano synagogę (ul. Warszawska 34A) i założono cmentarz (do tego momentu Żydów grzebano w Czyżewie) i powołano cheder. Stanowisko rabina było często nieobsadzone. Obowiązki rabina pełnili kolejno: Mejer Hersz Zamlung (1860–1865) oraz Jankiel Ejdem (1865–1882, w okresie 1866–1867 z podrabinem Jankielem Bocianem). W kolejnych latach rabinami byli: Lejbko Kuszer (1882–1909), Lejba Ałgaze (znany tylko z 1887 r.), Moszko Fromberg (1910–1913), Abram Spektor (1923–1924) oraz Jankiel Jabłonka (1928–1935). Żydzi osiedlili się głównie przy Rynku i jego okolicach. Początkowo trudnili się prowadzeniem karczm, w późniejszym okresie zajęli się handlem i rzemiosłem. Większa część usług transportowych była zdominowana przez Żydów. W latach 20. XX w. powstało Stowarzyszenie Kulturalno-Oświatowe „Tarbut”. Funkcjonowała biblioteka z księgozbiorem w języku polskim i żydowskim. W 1921 r. w Andrzejewie mieszkało 277 Żydów, co stanowiło 28,1% ogółu mieszkańców. Po wybuchu wojny niemiecko-radzieckiej w 1941 Andrzejewo zostało zajęte przez Niemców. Cmentarz i synagoga została zdewastowana. Na początku sierpnia 1941 żandarmeria niemiecka wraz z SS nakazała okolicznym rolnikom przewieść furmankami starców, chorych i dzieci. Pozostałych Żydów ustawiono w kolumnę i popędzono w stronę Szumowa. Tam na placu zgromadzili około 230 Żydów, w tym 60 z pobliskiego Lubotynia. Po ograbieniu z biżuterii, pieniędzy i co bardziej wartościowych rzeczy popędzili ich w kierunku lasu Rząśnik. W lesie nad wcześniej wykopanymi dołami wszyscy Żydzi zostali rozstrzelani. Część mieszkańców Andrzejewa żydowskiego pochodzenia została zamordowana niedaleko Mianówka. Tam Niemcy zamordowali około 5 000 Żydów z Zaręb Kościelnych i Czyżewa oraz okolicznych miejscowości. Historia kościoła Parafia pod wezwaniem Świętych Bartłomieja i Wojciecha erygowana została około 1430 r. przez biskupa Stanisława Pawłowskiego. Ponownie uposażona została przez biskupa Pawła Giżyckiego w roku 1444. W miejscu pierwotnego kościoła drewnianego w roku 1526 rozpoczęto prowadzoną etapami budowę obecnego, późnogotyckiego kościoła murowanego: 1526-1534 – staraniem proboszcza Tomasza z Tarnowa murator Maciej wystawił prezbiterium z piętrową zakrystią i fundamenty korpusu nawowego połowa wieku XVI – wymurowanie do połowy ścian magistralnych i założenie filarów międzynawowych 1569 – dobudowa lub wzmocnienie szkarp, wykończenie fasady z wielkim oknem na osi około 1600 – nadbudowa ścian nawy głównej, wykonanie wieży, zamurowanie okna w ścianie wschodniej przy prezbiterium i w elewacji zachodniej 1605 – Konsekracja kościoła przez biskupa Wojciecha Baranowskiego 1612 – rozpoczęcie budowy kaplicy pod wezwaniem św. Anny 1632 – położenie polichromii w prezbiterium 1788-1806 – budowa chóru muzycznego i odbudowa filarów tęczowych pierwsza połowa XIX w. – budowa drewnianej kondygnacji wieży przełom XIX/XX w. – dobudowa kruchty oraz szkarpy przy południowo-wschodnim narożniku kaplicy W II połowie XIX w. parafia liczyła około 4000 wiernych. W Andrzejewie dzieciństwo spędził kardynał Stefan Wyszyński. Na miejscowym cmentarzu pochowane są jego matka i siostra. Obiekty zabytkowe późnogotycki kościół parafialny pod wezwaniem Wniebowzięcia Najświętszej Marii Panny dzwony z 1695 fundowany przez plebana Andrzeja Ugniewskiego, przelany w 1925 z 1717 fundacji biskupa płockiego Ludwika Załuskiego, przelany w 1866 z datą 1888 na cmentarzu piaskowcowa figura Immaculaty kaplica murowana z roku 1884, fundacji Ludwiki ze Starzeńskich i Karola Przeździeckich oraz proboszcza Wincentego Godlewskiego kapliczka przydrożna z połowy wieku XIX Przypisy Bibliografia Linki zewnętrzne Informacje z Andrzejewa na portalu Wirtualny Sztetl http://data.jewishgen.org/jri-pl/1929/1929top89.htm Andrzejewo i kościół andrzejewski : szkic historyczny (1908) w bibliotece Polona Dawne miasta w województwie mazowieckim Miasta lokowane przez Zygmunta I Starego Miasta w Polsce lokowane w XVI wieku Prywatne miasta duchowne I Rzeczypospolitej (województwo mazowieckie)
40
https://pl.wikipedia.org/wiki/Aminy
Aminy
Aminy – organiczne związki chemiczne zawierające w swojej budowie grupę aminową, będącą organiczną pochodną amoniaku. Rzędowość amin Rzędowość amin wyznacza się tak samo jak rzędowość atomów węgla. Jest więc równa liczbie atomów wodoru przy atomie azotu zastąpionych atomami węgla. Stąd aminy dzielą się na pierwszorzędowe (), drugorzędowe (), trzeciorzędowe (); ponadto znane są czwartorzędowe związki (sole, kationy) amoniowe (), które charakteryzują się obecnością ładunku dodatniego i należą do grupy tzw. związków oniowych. Aminy o dużych masach cząsteczkowych, zwykle trzeciorzędowe i wyższe, nazywa się również aminami wielkocząsteczkowymi. Osobną grupę tworzą heterocykliczne związki aromatyczne zawierające w pierścieniu atom azotu, np. pirydyna. Podobnie jak aminy trzeciorzędowe, tworzą one pochodne oniowe, np. sole N-alkilopirydyniowe lub N-arylopirydyniowe. Aminy w roztworach wodnych nie wykazują ścisłej zależności pomiędzy rzędowością i zasadowością. Przykładowo dla amin z podstawnikami metylowymi zasadowość rośnie w szeregu . Związane jest to z większą stabilizacją jonów amoniowych 1° i 2° wskutek ich solwatacji względem 3° (trzeciorzędowy jon amoniowy, , ma tylko jeden atom wodoru zdolny do utworzenia wiązania wodorowego z rozpuszczalnikiem). W fazie gazowej natomiast zasadowość zmienia się w szeregu , a więc wraz ze wzrostem rzędowości aminy. Do odróżnienia amin pierwszo-, drugo- i trzeciorzędowych może być stosowana próba Hinsberga. Otrzymywanie amin Przykładowe metody otrzymywania amin Aminy alifatyczne można otrzymać poprzez reakcje chlorków alkilowych z amoniakiem, jednak synteza ta prowadzi do mieszaniny produktów (od aminy pierwszorzędowej aż do czwartorzędowej soli amoniowej), gdyż powstające aminy także reagują z halogenkami alkilowymi. Aby ograniczyć takie reakcje następcze, należy stosować nadmiar amoniaku: Jeszcze jednym ograniczeniem tej syntezy jest konieczność używania pierwszorzędowych halogenków alkilowych, gdyż reakcja amoniaku z halogenkami wyższego rzędu prowadzi w znacznym stopniu do eliminacji halogenowodoru i powstawania wiązań C=C, a nie substytucji. W celu uniknięcia powstawania amin rzędu wyższego niż I prowadzi się reakcję z ftalimidkiem potasu, a następnie z hydrazyną. Jest to tak zwana synteza Gabriela: Aminy pierwszorzędowe można otrzymać z dobrą wydajnością z halogenków alkilowych pierwszo-, a nawet drugorzędowych poprzez działanie azydków, a następnie redukcję powstałego związku pośredniego: Czyste pierwszorzędowe aminy można otrzymać w reakcji ketonów lub aldehydów z amoniakiem, a następnie redukcję powstałej iminy do aminy. Ograniczeniem tej metody jest dostępność odpowiednich ketonów i aldehydów: Aminy pierwszo- i drugorzędowe można otrzymać z dobrą wydajnością przez redukcję oksymów powstałych przez reakcję odpowiednich aldehydów lub ketonów: Aminy drugorzędowe można otrzymać w reakcji amin pierwszorzędowych z halogenkami alkilów (pojawia się problem eliminacji i produktów ubocznych) lub w reakcji amin pierwszorzędowych z ketonami lub aldehydami: Aminy aromatyczne otrzymuje się głównie poprzez redukcję grupy nitrowej: Właściwości amin Pierwszo- i drugorzędowe aminy z grupami alkilowymi mają charakterystyczny, rybi zapach. Wszystkie trzy aminy z grupami metylowymi są dobrze rozpuszczalnymi w wodzie gazami, podobnie jak amoniak. Aminy z wyższymi grupami alifatycznymi są ciekłe (o dużej lepkości) lub stałe; ze wzrostem długości łańcuchów węglowych coraz gorzej rozpuszczają się w wodzie. Aminy aromatyczne są wysokowrzącymi cieczami lub ciałami stałymi o ostrym, charakterystycznym, ale nie rybim, zapachu. Własności chemiczne amin są zbliżone do amoniaku. Są to związki o właściwościach zasadowych, z kwasami tworzą sole i mają odczyn zasadowy w roztworach wodnych: Zasadowość amin zależy od podstawników przy atomie azotu. Aminy alifatyczne są z reguły bardziej zasadowe od amoniaku, a aminy aromatyczne mają mniej zasadowe własności od amoniaku. Z punktu widzenia biochemii najważniejszą reakcją amin jest reakcja z kwasami karboksylowymi prowadząca do powstania wiązań peptydowych. Aminy są wykorzystywane jako ligandy w kompleksach kationów różnych metali (np. do ekstrakcji materiałów jądrowych), a także do tworzenia adduktów z kwasami Lewisa. W przypadku ekstrakcji aminami na skalę przemysłową, rozpuszcza się je pochodnymi ropy naftowej modyfikowanymi alkoholami. Aminy o różnych własnościach pozwalają rozdzielić uran i pluton z wypalonego paliwa jądrowego (proces Amex). Przypisy
42
https://pl.wikipedia.org/wiki/Aceton
Aceton
Aceton, propanon, keton metylowy – organiczny związek chemiczny z grupy ketonów, najprostszy keton alifatyczny. Ma ostry, charakterystyczny zapach. Miesza się w każdych proporcjach z wodą, etanolem, eterami i innymi ketonami o niskiej masie cząsteczkowej. Występowanie i otrzymywanie Aceton obecny jest w niewielkich ilościach w krwi i moczu. Większe od normy jego stężenie pojawia się w organizmie przy zaawansowanej i nieleczonej cukrzycy. Aceton jest naturalnie obecny w tkankach wielu roślin (np. ziemniaków, żyta), gazach wulkanicznych i gazach spalinowych. Tworzy się on w dużych ilościach w trakcie suchej destylacji drewna, która była niegdyś głównym sposobem jego produkcji. Obecnie w przemyśle produkuje się go najczęściej metodą kumenową przy okazji otrzymywania fenolu. W laboratorium można go otrzymać przez suchą destylację octanu wapnia. Aceton wytwarzany jest efektywnie przez bakterie Clostridium acetobutylicum. Proces ten został opisany po raz pierwszy w latach 1904–1907, natomiast wykorzystany w praktyce do przemysłowej produkcji acetonu w roku 1915 przez brytyjskiego biochemika pochodzenia żydowskiego Chaima Weizmana, późniejszego pierwszego prezydenta państwa Izrael. W okresie I wojny światowej występowało duże zapotrzebowanie na aceton, niezbędny składnik kordytu (rodzaj prochu bezdymnego), natomiast działania wojenne uniemożliwiały Wielkiej Brytanii import octanu wapnia, prekursora acetonu. Technologia opracowana przez Weizmana umożliwiła produkcję acetonu na dużą skalę. Ponieważ pożywkę dla C. acetobutylicum przygotowywano z deficytowej kukurydzy, konieczne było przeniesienie produkcji do Kanady (1916) i USA (1917). Weizman w zamian za swoje zasługi zasugerował swoje poparcie dla idei państwa żydowskiego w Palestynie, co w dużej mierze przyczyniło się do uchwalenia deklaracji Balfoura. Obecnie otrzymywany jest głównie na skalę przemysłową metodą kumenową z propylenu, a także katalitycznie z alkoholu izopropylowego, acetylenu w wyniku fermentacji butanolowo-acetonowej. Zastosowanie Aceton jest powszechnie stosowanym rozpuszczalnikiem organicznym o dużej polarności. Rozpuszcza większość miękkich tworzyw sztucznych, lakiery, tłuszcze, oleje (nawet nagar silnikowy). Dobrze rozpuszcza się w nim acetylen, przez co używa się go w butlach na ten gaz w celu uniknięcia zbyt wysokiego ciśnienia, pod którym acetylen jest niestabilny. Stosuje się go przy produkcji leków, barwników, farb, lakierów i środków czyszczących. Jest często stosowany jako składnik zmywacza do paznokci. Aceton może być wykorzystywany jako prekursor do produkcji narkotyków i w związku z tym obrót nim podlega w Polsce kontroli, zgodnie z Ustawą o przeciwdziałaniu narkomanii oraz rozporządzeniami Wspólnoty Europejskiej. Jednak z uwagi na to, że aceton należy do prekursorów niskiej kategorii (trzeciej), przepisy nie ograniczają jego dostępności w handlu detalicznym. Szkodliwość Aceton jest substancją wysoce łatwopalną. Działa drażniąco na oczy, wysusza skórę i może wywołać uczucie senności lub zawroty głowy. Jego LD50 wynosi 5,8 g/kg (szczur, doustnie) (dla porównania dla alkoholu etylowego jest to 10,5 g/kg). W klasyfikacji toksyczności według Hodge’a i Sternera aceton należy do grupy słabo toksycznych. Według kryteriów UE substancje o LD50 powyżej 2 g/kg nie są klasyfikowane jako toksyczne. Opary acetonu łatwo wchłaniają się przez płuca do krwi, która rozprowadza ten związek po całym organizmie. Jeśli stężenie acetonu we krwi nie jest zbyt wysokie, jest on skutecznie metabolizowany przez wątrobę. W większym stężeniu aceton zaczyna powodować ostre podrażnienia błon śluzowych nosa i ust oraz łzawienie oczu i ból głowy. Duże stężenie acetonu w powietrzu powoduje utratę przytomności i śpiączkę (LC50 50,1 g/m³/8 h; szczur, wdychanie). Nie stwierdzono, aby miał działanie genotoksyczne lub rakotwórcze. Przypisy Linki zewnętrzne Ketony Rozpuszczalniki
44
https://pl.wikipedia.org/wiki/Algebra
Algebra
Algebra (, al-dżabr) – jedna z głównych dziedzin matematyki, zajmująca się wszelkimi strukturami algebraicznymi, czyli zbiorami – lub bardziej ogólnymi klasami – wyposażonymi w działania; struktury te bywają też nazywane algebrami ogólnymi. Początkowym przykładem takiego obiektu, długo definiującym tę dziedzinę, były liczby rzeczywiste ze standardowymi działaniami arytmetycznymi, a także liczby zespolone rozszerzające ten zbiór, wprowadzone właśnie na potrzeby klasycznie rozumianej algebry. Historycznie była to nauka o równaniach algebraicznych, ich układach i ogólnych tożsamościach algebraicznych – regułach manipulacji symbolami zmiennych. Dominowały w niej badania wielomianów o zmiennych rzeczywistych i zespolonych, rozkładu tych wielomianów na czynniki (faktoryzacji), układów równań liniowych i dwumianu Newtona. Te i pokrewne tematy bywają nazywane algebrą elementarną. Badania te doprowadziły do rozważań powiązanych obiektów jak macierze, wyznaczniki czy grupy permutacji. XIX wiek przyniósł też nowe struktury jak kwaterniony, inne i bardziej ogólne wektory, tensory, rozwój algebry Boole’a w elementarnej logice i teorii mnogości oraz arytmetyki modularnej i algebraicznej teorii liczb dzięki rozważaniu liczb całkowitych Gaussa. Wtedy też nazwano własności różnych działań, sformalizowano je i wprowadzono kluczowe pojęcie izomorfizmu, kodyfikujące analogie między strukturami. Przez to algebra stała się nauką znacznie szerszą, badającą między innymi abstrakcyjne grupy i ich szczególne, przemienne przypadki wzbogacone o dodatkowe operacje; przykłady to przestrzenie liniowe i pierścienie, w tym ciała. Przyczyniło się to do redefinicji matematyki, która tym sposobem przestała być nauką wyłącznie o liczbach i figurach. Algebra cieszy się długą historią nieprzerwanego rozwoju oraz wpływu na resztę matematyki i jej zastosowania. Należy do jej najstarszych dziedzin – powstała już w starożytnej Mezopotamii, po czym była rozwijana przez matematyków starogreckich, indyjskich, islamskich i europejskiego średniowiecza. Wyniki matematyków chińskich jak chińskie twierdzenie o resztach stanowiły pogranicze teorii liczb i algebry elementarnej, a później zostały przez algebrę wchłonięte. W czasach nowożytnych algebra popchnęła postępy geometrii dzięki stworzeniu geometrii analitycznej, która przyczyniła się też do powstania analizy. Problemy postawione przez algebrę i jej brak samowystarczalności doprowadziły również do rozwoju kombinatoryki i metod numerycznych. W XIX wieku z udziałem algebry rozwiązano starożytne problemy geometrii związane z konstrukcjami klasycznymi. Wtedy też algebraicznie zunifikowano opis różnych rozwijanych wówczas obszarów geometrii, definiując ją na nowo, w ramach programu erlangeńskiego. Na liście problemów Hilberta z największymi wyzwaniami dla matematyki XX wieku znaczna część dotyczyła algebry, a na niektóre z tych pytań odpowiedziano. W XXI wieku nauka ta jest dalej rozwijana; stanowi język i narzędzie wielu innych dyscyplin jak geometria algebraiczna, topologia algebraiczna, teoria węzłów, analiza – zwłaszcza funkcjonalna – czy teoria języków formalnych. Metody algebraiczne są też stosowane w teorii grafów, a w geometrii różniczkowej stworzyły geometrię nieprzemienną. Do algebry bywa zaliczana także teoria kategorii unifikująca rozmaite obszary matematyki i stanowiąca dla niej fundament alternatywny do teorii mnogości. Wpływ algebry sięga też poza matematykę i naukę ogółem. Litera X, używana jako podstawowe oznaczenie zmiennej i niewiadomej, stała się symbolem i przenośnią niewiedzy lub tajemnicy; wpłynęła tak m.in. na nazwę promieni rentgenowskich, partii politycznych i popkulturę. Naukowiec zajmujący się algebrą to algebraik lub algebraiczka. Przedstawiciele tej dziedziny otrzymywali najwyższe nagrody dostępne matematykom jak Medal Fieldsa czy Nagroda Abela. Istnieją również wyróżnienia w całości poświęcone algebrze jak jedna z dziedzin Nagrody Cole’a przyznawanej przez Amerykańskie Towarzystwo Matematyczne (ang. AMS). Historia rozwoju Starożytność babilońska i grecka Wczesne formy algebry zostały opracowane przez Babilończyków i Greków. Korzenie algebry sięgają czasów matematyków babilońskich, którzy opracowali zaawansowany system arytmetyczny, pozwalający na wykonywanie obliczeń w sposób algorytmiczny. Babilończycy wynaleźli wzory, przy pomocy których można było rozwiązywać problemy rozwiązywane dziś poprzez równania liniowe czy kwadratowe. Z kolei większość matematyków egipskich tej epoki, podobnie jak matematycy greccy czy chińscy w I tysiącleciu przed narodzeniem Chrystusa, zazwyczaj rozwiązywało takie równania metodami geometrycznymi, takimi jak te opisane w Papirusie Matematycznym Rhinda oraz Elementach Euklidesa. Prace Greków nad geometrią zapisane w Elementach, zapewniły podstawę do generalizacji formuł rozwiązań konkretnych problemów i użycia ich do rozwiązywania tych bardziej ogólnych systemów przedstawiania i rozwiązywania równań, jednak nie zdawano sobie z tego sprawy, aż do rozwinięcia się matematyki w średniowiecznym Islamie. Przed czasami Platona, grecka matematyka przeszła drastyczną zmianę. Grecy stworzyli algebrę geometryczną, gdzie wyrazy algebraiczne były przedstawiane za pomocą boków obiektów geometrycznych, zazwyczaj prostych, podpisanych literami. Diofantos był greckim matematykiem z Aleksandrii oraz autorem serii ksiąg Arytmetyka, które opisują rozwiązywania równań algebraicznych i doprowadziły do współczesnej postaci równania diofantycznego w teorii liczb. Hellenistyczni matematycy Heron i Diofantos, podobnie jak indyjscy tacy jak Brahmagupta kontynuowali tradycje Egiptu i Babilonu, mimo iż Arytmetyka Diofantosa i Brahmagupty Brahmasphutasiddhanta były na znacznie wyższym poziomie. Dla przykładu, pierwsze kompletne rozwiązanie arytmetyczne (zawierające zero i rozwiązania ujemne) równania kwadratowego zostało opisane przez Brahmagupta w jego książce Brahmasphutasiddhanta. Później, Perscy i arabscy matematycy stworzyli znacznie bardziej wyszukane metody algebraiczne. Pomimo iż Diofantus i matematycy babilońscy w dużej mierze używali metod ad hoc do rozwiązywania równań, wkład Al-Khwarizmiego był fundamentalny. Rozwiązywał on równania liniowe i kwadratowe bez użycia symboli algebraicznych, liczb ujemnych czy zera, a więc w konsekwencji wyróżnił kilka typów równań. Indie i Chiny Indyjscy matematycy Mahavira i Bhaskara II, perski Al-Karaji i chiński Zhu Shijie rozwiązali różne przypadki równań wielomianowych trzeciego, czwartego, piątego i wyższych stopni z wykorzystaniem metod numerycznych. Świat islamski i średniowieczna Europa Wcześniejsze tradycje opisane wyżej miały bezpośredni wpływ na Muḥammada ibn Mūsā al-Khwārizmīego, słynnego perskiego muzułmańskiego matematyka urodzonego w Chorezmie w Uzbekistanie. Napisał on później al-Kitāb al-Mukhtaṣar fī Ḥisāb al-Jabr wal (Krótka księga o rachowaniu przez dopełnianie i równoważenie), która sprawiła, że algebra stała się działem matematyki niezależnym od arytmetyki i geometrii. Słowo algebra (arab. الجبر, al-dżabr) oznacza dosłownie „przywrócenie” i pochodzi z tej właśnie książki. Muḥammad ibn Mūsā al-Khwārizmī działał najprężniej pod Al-Ma’moun w Bagdadzie w okresie 813-833 r., a zmarł około 840 r. Książka została przywieziona do Europy i przetłumaczona na łacinę w XII wieku. Następnie otrzymała nazwę „Algebra”. Zakończenie nazwiska matematyka: al-Khwārizmī zostało zlatynizowane na łatwiejsze do wypowiedzenia po łacinie "Algorizmi", od którego wzięło się słowo algorytm. Wspomniani już wcześniej grecki matematyk Diofantos oraz al-Khwārizmī uważani są za „ojców algebry”. Innemu perskiemu matematykowi Omarowi Khayyamowi przypisuje się określenie podstawy geometrii algebraicznej i znalezienie rozwiązania ogólnego równania geometrycznego sześciennego. Jeszcze inny perski matematyk, Sharaf al-Dīn al-Tūsī, znalazł algebraiczne rozwiązania numeryczne do różnych przypadków równań sześciennych. On także rozwinął koncepcję funkcji. W XIII w. rozwiązanie równania sześciennego przez Fibonacciego było początkiem ożywienia w europejskiej algebrze. Tutaj algebra rozwijała się bardzo szybko. Wczesna nowożytność Kolejnym kluczowym wydarzeniem w dalszym rozwoju algebry było ogólne algebraiczne rozwiązanie równań trzeciego i czwartego stopnia, opracowane w XVI wieku (Scipione del Ferro, Niccolò Tartaglia, Girolamo Cardano, Lodovico Ferrari). Cardano oraz Rafael Bombelli opisali także jako pierwsi liczby zespolone. Praca François Viète’a nad nową algebrą u schyłku XVI wieku była ważnym krokiem w kierunku nowoczesnej algebry. W 1637 Kartezjusz opublikował La Géométrie, wymyślając geometrię analityczną i wprowadził nowoczesną notację algebraiczną. Pomysł wyznacznika został opracowany przez japońskiego matematyka Kowa Sekiego w wieku XVII, co niezależnie kontynuował Gottfried Leibniz 10 lat później w rozwiązywaniu układów równań liniowych z wykorzystaniem macierzy. XVIII wiek Gabriel Cramer również przysłużył się pracy nad macierzami i wyznacznikami (wzory Cramera). Liczby zespolone powiązano z funkcją wykładniczą (Leonhard Euler) i zaczęto je opisywać za pomocą płaszczyzny (Caspar Wessel, Jean-Robert Argand i Carl Friedrich Gauss). U schyłku XVIII wieku, w toku badań nad równaniami wielomianowymi, narodziły się zręby teorii grup permutacji – w pracach Lagrange’a i Ruffiniego. XIX wiek XIX stulecie to rewolucja w algebrze – rozwiązano jej tradycyjne problemy i bardzo poszerzono jej zakres badań, tworząc algebrę abstrakcyjną. Kluczowe kroki uczynili tu m.in. Niels Henrik Abel i Évariste Galois – ich twierdzenia o równaniach wielomianowych to początki teorii Galois. Leżącą w jej sercu teorię grup rozwijali potem Marie Ennemond Camille Jordan, Leopold Kronecker, Felix Klein, Ferdinand Georg Frobenius, Richard Dedekind, Otto Ludwig Hölder, Peter Sylow i Marius Sophus Lie, a ten ostatni otworzył jej nową dziedzinę – teorię grup Liego. Augustus De Morgan wynalazł relacje w algebrze, o których pisał w swoim dziele Syllabus of a Proposed System of Logic. Związek algebry z logiką opisał też George Boole. Rozwinięto także algebrę liniową i teorię algebr nad ciałem: William Rowan Hamilton wprowadził kwaterniony – pierwszy przykład liczb hiperzespolonych; Josiah Willard Gibbs i Oliver Heaviside uprościli opis wektorów w przestrzeni trójwymiarowej; algebrę kwaternionów zastąpił przez iloczyn skalarny i iloczyn wektorowy; Arthur Cayley opisał algebrę macierzy – jest to historycznie pierwszy przykład algebry nieprzemiennej; znaczące prace w tej dziedzinie ogłosili też James Joseph Sylvester, Hermann Grassmann i William Kingdon Clifford. W XIX wieku rozwinięto też zastosowanie algebry do teorii liczb – powstała algebraiczna teoria liczb. XX wiek XX stulecie przyniosło znaczące wyniki w teorii grup skończonych. Udowodniono między innymi twierdzenie Feita-Thompsona o rozwiązalności oraz ukończono klasyfikację skończonych grup prostych, m.in. dzięki opisaniu nowych obiektów jak grupa monstrum. W XX wieku rozwinięto także nowe dziedziny matematyki jak algebra homologiczna oraz leżąca na pograniczu algebry teoria kategorii. Zdefiniowano też ściśle (aksjomatycznie) przedmiot badań algebry liniowej i rozwinięto jej obliczeniowy aspekt, np. opisując algorytm Strassena. Dla algebry znaleziono też nowe zastosowania, np. w: fizyce – mechanika kwantowa posługuje się językiem przestrzeni Hilberta; informatyce – na masową skalę zastosowano algorytm PageRank. W latach 20. Amerykańskie Towarzystwo Matematyczne (ang. AMS) ustanowiło Nagrodę Cole’a w dziedzinie algebry. Znaczący algebraicy Muhammad ibn Musa al-Chuwarizmi (780–850) – twórca tego terminu; Scipione del Ferro (1465–1526) – jako pierwszy znalazł wzory na rozwiązania równań kubicznych; Niccolò Tartaglia (1500–1557) – niezależnie od del Ferro rozwiązał równanie 3. stopnia; Girolamo Cardano (1501–1576) – rozwinął wyniki del Ferro i Tartaglii, otwierając też badania liczb zespolonych; Lodovico Ferrari (1522–1565) – zredukował problem równania 4. stopnia do równania kubicznego; Rafael Bombelli (1526–1572) – pierwsze systematyczne prace nad liczbami zespolonymi; François Viète (1540–1603) – autor tożsamości opisujących wielomiany dowolnego stopnia; René Descartes (1596–1650) – kojarzony z regułą znaków opisującą pierwiastki wielomianów; Gottfried Wilhelm Leibniz (1646–1716) – jeden z pionierów teorii wyznaczników; Ehrenfried Walther von Tschirnhaus (1651–1708) – twórca jednego z przekształceń równań wielomianowych; Abraham de Moivre (1667–1754) – autor jednej z tożsamości opisujących liczby zespolone; Gabriel Cramer (1704–1752) – autor wzorów na rozwiązania niektórych układów równań liniowych; Leonhard Euler (1707–1783) – autor tożsamości związanej z liczbami zespolonymi oraz symbolu jednostki urojonej (i); Joseph Louis Lagrange (1736–1813) – autor metody systematycznego wyprowadzania wzorów na miejsca zerowe wielomianów (rezolwenta); pionier użycia permutacji w algebrze; Caspar Wessel (1745–1818) – pionier użycia płaszczyzny zespolonej do opisu liczb; Pierre Simon de Laplace (1749–1827) – autor jednej z tożsamości opisujących wyznaczniki; Paolo Ruffini (1765–1822) – współautor pierwszego dowodu nierozwiązywalności ogólnego równania 5. stopnia przez pierwiastniki; Jean-Robert Argand (1768–1822) – współautor pierwszego pełnego dowodu zasadniczego twierdzenia algebry; poprawił pracę Gaussa i uogólnił ją na wielomiany zespolone; Carl Friedrich Gauss (1777–1855) – związany z zasadniczym twierdzeniem algebry – autor częściowego dowodu poprawionego potem przez Arganda; klasyk arytmetyki modularnej, sformułowanej potem w języku grup cyklicznych; Niels Henrik Abel (1802–1829) – drugi, niezależny współautor twierdzenia Abela-Ruffiniego o wielomianach 5. stopnia; William Rowan Hamilton (1805–1865) – autor pierwszych publikacji o kwaternionach; Hermann Grassmann (1809–1877) – pionier algebry liniowej i teorii algebr Grassmanna, będących podstawą teorii form różniczkowych; Évariste Galois (1811–1832) – autor kompletnej teorii rozwiązywalności wielomianów przez pierwiastniki; pionier teorii grup, teorii ciał i łączącej je teorii Galois; James Joseph Sylvester (1814–1897) – pionier algebry liniowej, upamiętniony nazwą twierdzenia o formach kwadratowych; Arthur Cayley (1821–1895) – wprowadził do algebry oktoniony, zwane też oktawami Cayleya; Leopold Kronecker (1823–1891) – upamiętniony nazwą twierdzenia o układach równań liniowych; Richard Dedekind (1831–1916) – teoretyk grup, pierścieni i krat; Peter Sylow (1832–1918) – teoretyk grup skończonych; Marie Ennemond Camille Jordan (1838–1922) – autor podstawowego twierdzenia w teorii grup skończonych; Josiah Willard Gibbs (1839–1903) – współtwórca podstawowej algebry wektorów euklidesowych, opartej na iloczynie skalarnym i wektorowym; Marius Sophus Lie (1842–1899) – twórca teorii grup i algebr Liego, zwanych też zbiorczo teorią Liego; William Kingdon Clifford (1845–1879) – badacz algebr Clifforda łączących osiągnięcia Hamiltona i Grassmanna; Ferdinand Georg Frobenius (1849–1917) – autor twierdzenia charakteryzującego liczby zespolone i kwaterniony jako unikalne w pewnej klasie algebr; Felix Klein (1849–1925) – teoretyk grup, twórca programu erlangeńskiego; Oliver Heaviside (1850–1925) – współtwórca algebry wektorów; William Burnside (1852–1927) – teoretyk grup skończonych; autor problemu, który czekał na rozwiązanie dekadami; Otto Ludwig Hölder (1859–1937) – teoretyk grup skończonych; Emmy Noether (1882–1932) – kojarzona z pierścieniami noetherowskimi; Emil Artin (1898–1962) – badacz teorii grup i teorii Galois; Hans Julius Zassenhaus (1912–1991) – autor lematu Zassenhausa w teorii grup; John Griggs Thompson (1932–) – współautor kluczowego twierdzenia o rozwiązalności grup skończonych; Peter Scholze (1987–) – autor cenionych prac z geometrii algebraicznej, laureat między innymi Medalu Fieldsa i Nagrody Cole’a w dziedzinie algebry. Przykłady Wyrażenia algebraiczne: Przekształcenia wyrażenia algebraicznego: Podział Niektóre działy algebry to: teoria równań algebraicznych algebra liniowa algebra wieloliniowa algebra abstrakcyjna teoria modułów teoria monoidów i półgrup teoria grup teoria pierścieni teoria pierścieni z dzieleniem (ciał nieprzemiennych) teoria prawie ciał teoria ciał teoria algebr Clifforda teoria algebr Jordana teoria algebr Liego i grup Lie teoria krat Birkhoffa algebra Boole’a algebra homologiczna algebra topologiczna algebra uniwersalna algebraiczna K-teoria geometria algebraiczna teoria kategorii teoria kodów Zobacz też *-pierścień algebra Wienera algebra zupełna zbiorów Przypisy Linki zewnętrzne Polskojęzyczne Skrypt do przedmiotu Algebra I na wydziale MIMUW autorstwa A. Bojanowska, P. Traczyk (.pdf) Anglojęzyczne [dostęp 2023-06-01]. Algebra , Encyclopedia of Mathematics, encyclopediaofmath.org [dostęp 2023-08-10].
45
https://pl.wikipedia.org/wiki/Atomistyka
Atomistyka
energetyka jądrowa fizyka jądrowa ochrona radiologiczna atomizm Atomistyka – album Elektrycznych Gitar
49
https://pl.wikipedia.org/wiki/Polonezk%C3%B6y
Polonezköy
Polonezköy (także Adampol; nazwa turecka oznacza „polska wieś”) – wieś w Turcji, założona w połowie XIX wieku, licząca 346 mieszkańców (2022 r.). Osada polskich imigrantów na obrzeżach Stambułu, położona po azjatyckiej stronie cieśniny Bosfor, w dystrykcie Beykoz, na północny wschód od centrum metropolii. Do około 1960 roku typowa wieś rolnicza, w której obok języka tureckiego używano także polszczyzny i pielęgnowano polskie obyczaje. W drugiej połowie XX wieku miejscowość zmieniła charakter na typowo turystyczny i obecnie składa się głównie z hoteli. Na wójta Polonezköy wybiera się tradycyjnie Polaka, jednak językiem polskim posługują się już tylko najstarsi mieszkańcy, a osoby pochodzenia polskiego stanowią mniejszość (ok. 1/3). Historia W 1841 roku Michał Czajkowski przybył nad Bosfor, mianowany przez księcia Adama Czartoryskiego szefem Agencji Głównej Misji Wschodniej Hotelu Lambert. Jej celem było przeciwstawianie się rosyjskim wpływom w Turcji. W tym samym czasie w Turcji przebywało wielu emigrantów, byłych uczestników powstania listopadowego, którzy często nie mieli co z sobą począć i nie mieli środków do życia. Z inicjatywy ks. Adama Czartoryskiego Michał Czajkowski zakupił w okolicach położonych około 30 km od ówczesnego Stambułu nieuprawiane tereny, na których księża lazaryści zaczęli tworzyć wieś. 19 marca 1842 poświęcono pierwszą chatę, a wieś nazwano Adampolem na cześć Adama Czartoryskiego. Tak więc domniemywanie pochodzenia nazwy miejscowości od poety Adama Mickiewicza jest błędne. Oprócz powstańców listopadowych Czajkowski osiedlał we wsi także wykupionych z niewoli tureckiej i czerkieskiej jeńców-Polaków przymusowo wcielonych do armii rosyjskiej na Kaukazie. Fakt istnienia prawdziwej polskiej gminy gdzieś w świecie, w czasach, gdy samo państwo polskie nie istniało, był i ważny, i głośny. Do Adampola ściągali nie tylko Polacy, ale i pokrewne narodowości emigrujące z terenów carskiej Rosji. Język mieszkańców gminy był wbrew pozorom bardzo urozmaicony i zamiast języka polskiego składał się z wielu gwar regionalnych. Wpływ na taki stan rzeczy miało także sprowadzenie przez Czajkowskiego z terenów Bośni zakonu franciszkanów. Osadnictwo po 1856 roku pochodziło już w większości z obszarów etnicznie polskich, a na utworzenie się polskiego języka całej tej wspólnoty miało wpływ dopiero utworzenie polskiej szkoły. Adampol do 1883 był własnością księży lazarystów. Przejęty przez ród Czartoryskich na następne 85 lat (do 1968). Adampol stał się nie tylko miejscem azylu dla polskich emigrantów, ale także ośrodkiem działalności politycznej polskiej emigracji. Po odzyskaniu przez Polskę niepodległości w 1918 roku o wiosce znów było głośno. Stała się tak popularna, jak gdyby odkryto ją po raz drugi. Wieś zalewały dary z Polski. Wielu potomków osadników z Adampola powróciło w tym okresie do ojczyzny. W 1933 roku postawiono tu popiersie z polsko-tureckim napisem: „Naszemu Wieszczowi Adamowi Mickiewiczowi w rocznicę zgonu 1855–1933". W 1937 roku Polonezköy odwiedził Mustafa Kemal Atatürk współtwórca i pierwszy prezydent Republiki Turcji. W czasach II wojny światowej władze tureckie starające się o neutralność swojego kraju zabroniły Polakom obchodów święta 3 Maja i zabrały znajdujący się we wsi sztandar będący dla Polaków relikwią. Najtrudniejsze czasy przyszły jednak po wojnie, gdy kontakty z komunistyczną wówczas Polską wyraźnie osłabły. W 1979 roku Turcję odwiedził Jan Paweł II. Ponieważ papież nie przyjechał do Polonezköy, mieszkańcy wybrali się do Stambułu autokarami. Przez ponad sto lat, aż do czasów nieuchronnej industrializacji tych obszarów spowodowanej rozrostem Stambułu, obyczaje polskie zachowały się w Adampolu w niezmienionej formie. Stanowił on prawdziwą oazę kultury staropolskiej. Sprzyjała temu wyraźna odrębność kulturowa otoczenia, utrudniająca asymilację, jakiej podlegały polskie osady znajdujące się w innych częściach świata oraz brak sprzeczności interesów, a więc i życzliwy stosunek władz tureckich. 150-lecie powstania wsi obchodzono w Turcji bardzo uroczyście. Znane miejsca Dom Pamięci Zofii Ryży, gdzie można obejrzeć pamiątki rodzinnego zbioru, stare i nowe fotografie, księgi i dokumenty, wystrój wnętrz. Kościół pw. Matki Boskiej Częstochowskiej. Cmentarz: kilka polskich grobów, między innymi miejsce pochówku Ludwiki Śniadeckiej, która była za młodu sympatią Juliusza Słowackiego. 92 inne zabytkowe nagrobki, które zostały odnowione przez Radę Ochrony Pamięci Walk i Męczeństwa. Miasta partnerskie Tomaszów Mazowiecki Zakopane Przypisy Bibliografia Lucyna Antonowicz-Bauer, Polonezkayu Adampol. Kazimierz Dopierała, Adampol-Polonezkoy. Z dziejów Polaków w Turcji, Poznań 1983. Adam Lewak, Dzieje emigracji polskiej w Turcji (1831-1878), Warszawa 1935. Jerzy S. Łątka, Adampol. Polska wieś nad Bosforem, wyd. I Kraków 1981, wyd. II Kraków 1992. Tenże, 150 lat Adampola, Kraków 1994. Tenże, Adampol - Polonezköy (1842 - 1992). Historyczne i kulturowe uwarunkowania powstania, rozwoju i zaniku polskiej osady w Turcji. Kraków 1997. Tenże, Adampol- Polonezkoy (1842-2010). Dzieje i kulturowe przeobrażenia polskiej osady nad Bosforem, Szymbark 2010. Janusz Nowak, Adampol polska osada w Turcji 1842-1992. Eugeniusz Paukszta, Złote korony księcia Dardanów. Paweł Ziółkowski, Adampol (Polonezkioj). Osada polska w Azji Mniejszej, Poznań 1929. Nalan Sarkady, Orient nam bliski. Fotografie z podróży Przemyśl-Stambuł 1912, Przemyśl 2006. Nalan Sarkady, Za górami... za morzami... Z dziejów Adampola, polskiej wioski w Turcji (w 165. rocznicę założenia, Przemyśl 2007. Linki zewnętrzne Relacja Jadwigi Nowak-Jeziorańskiej z wycieczki do Adampola z mężem z 1966 roku (Archiwum Jana Nowaka-Jeziorańskiego, Zakład Narodowy im. Ossolińskich; nagranie z taśmy szpulowej; 36:40 min) Wywiad z Fryderykiem Nowickim dawnym wójtem Adampola Lazaryści Polonia w Turcji Stosunki polsko-tureckie Wsie w Turcji Miejscowości w prowincji Stambuł
50
https://pl.wikipedia.org/wiki/AtheOS
AtheOS
AtheOS – zaprojektowany przez norweskiego programistę Kurta Skauena system operacyjny, przeznaczony do zastosowań multimedialnych i biurowych. Obecnie projekt nie jest rozwijany, jego kontynuację stanowi Syllable. Architektura systemu posiada wiele podobieństw do systemu BeOS oraz AmigaOS. Jądro systemu obsługuje architekturę SMP, posiada możliwość dołączania sterowników urządzeń oraz systemów plików podczas działania, ponadto oferuje wbudowany stos TCP/IP oraz system graficzny (GUI). System graficzny jest podzielony na dwie części: serwera aplikacji, z którym programista komunikuje się za pomocą API w języku C++, a który to oferuje funkcje wysokiego poziomu, części umieszczonej w jądrze, komunikującej się z serwerem aplikacji za pomocą niewidocznego dla programisty protokołu, niekompatybilnego z protokołem X Window System. Macierzysty system plików to AtheOS FS. Domyślną powłoką jest Bash. Przypisy Systemy operacyjne
52
https://pl.wikipedia.org/wiki/AIX
AIX
AIX () – odmiana systemu Unix tworzona przez firmę IBM na podstawie zarówno SysV, jak i BSD. W systemie zostały zaimplementowane także technologie z systemów mainframe, które zwiększają jego niezawodność i dostępność. System operacyjny AIX jest przeznaczony dla serwerów firmy IBM z procesorami z rodziny Power (RS/6000, pSeries, Power System). Wczesne wersje systemu AIX były też instalowane na komputerach Macintosh firmy Apple wyposażonych w procesory POWER. Obecnie dostępna jest bardzo szeroka gama systemów serwerowych wyposażonych w procesory Power, od największych Power System 795 (do 256 układów POWER7) do serwerów typu blade (najmniejszy dostępny serwer JS12 wyposażony w 2 układy POWER6). O ile cały czas dostępna jest możliwość natywnej instalacji (bezpośrednio na serwerze), to jednak jest ona stosowana stosunkowo rzadko, a preferowane są raczej środowiska zwirtualizowane, wykorzystujące hiperwizor PowerVM. W przypadku dużych maszyn (np. p590) jest to rozwiązanie domyślne. Od lipca 2007 dostępna jest wersja 6.1. Minimalnym wymaganiem sprzętowym dla wersji 6 jest procesor Power4+ lub nowszy. Oznacza to, że system pracuje na procesorach POWER4, PowerPC970, POWER5, POWER6 oraz POWER7. Od roku 2010 dostępna jest wersja 7.1. Wersja 7 systemu AIX jest przeznaczona do maszyn z procesorami POWER7, ale zgodnie z polityką firmy IBM zachowuje zgodność dwie generacje w tył. AIX jest przeznaczony przede wszystkim dla klienta wymagającego dużej wydajności i niezawodności. Stanowi doskonałą platformę dla systemów baz danych (głównie DB2, Informix oraz Oracle) lub serwerów aplikacji (np. WebSphere czy SAP ABAP). Dzięki takim komponentom jak PowerHA (dawniej HACMP) oraz PowerVM, AIX może zapewnić bardzo wysoki poziom niezawodności oraz elastyczności opartych na nim środowisk informatycznych. Linki zewnętrzne Strona domowa AIX Unix Systemy operacyjne IBM
53
https://pl.wikipedia.org/wiki/Aparat%20Golgiego
Aparat Golgiego
Aparat Golgiego – organellum występujące powszechnie w komórkach eukariotycznych, służące chemicznym modyfikacjom wytwarzanych przez komórkę substancji, ich sortowaniu oraz dystrybucji w obrębie komórki. Składa się ze stosu spłaszczonych cystern. Organellum zostało odkryte przez Camilla Golgiego w roku 1898. Od nazwiska odkrywcy pochodzi nazwa struktury. Znane są dwie formy aparatu Golgiego, siateczkowa jest charakterystyczna dla komórek zwierząt kręgowych (nie występuje jedynie w oocytach i plemnikach), druga nazywana łuskowatą albo diktiosomową występuje w komórkach roślinnych oraz w komórkach zwierząt bezkręgowych. Specyficzną cechą aparatu Golgiego jest to, że posiada zdolność redukcji azotanu srebra. Enzymami markerowymi (markerami) aparatu Golgiego są: transferaza acetyloglukozaminylowa, pirofosfataza tiaminowa. Funkcje Wewnątrz cystern zachodzą potranslacyjne modyfikacje białek oraz modyfikacje lipidów przeznaczonych do eksportu. Przekształcenia polegają przede wszystkim na modyfikacji reszt cukrowych glikoprotein i glikolipidów. W organellum zachodzi także siarkowanie proteoglikanów. Aparat Golgiego uczestniczy w wytwarzaniu błony komórkowej oraz umieszczaniu hydrolaz w endosomach. Zapewnia również odzyskiwanie składników błony komórkowej oderwanych od niej w wyniku endocytozy. Odzyskane składniki błony zostają do niej powtórnie włączone w wyniku egzocytozy. Zjawisko określane jest jako recyklizacja błony. W komórkach roślin wytwarzane są w nim także hemicelulozy, pektyny i inne związki zużywane następnie do budowy ścian komórkowych. Budowa Aparat Golgiego ma budowę biegunową. Strona wypukła, oznaczana jako cis i nazywana powierzchnią formowania znajduje się na biegunie zwróconym w stronę siateczki śródplazmatycznej szorstkiej. Strona wklęsła, oznaczana trans i nazywana powierzchnią dojrzewania, jest zwrócona w stronę błony komórkowej. Cysterny mają największą szerokość na obwodzie i najmniejsza w centrum. Z szerokiej części brzegowej odrywają się obłonione pęcherzyki. W komórkach wyższych eukariontów substancje modyfikowane i sortowane przechodzą dodatkowo przez dodatkowy kompartment ERGIC (ang. ER-Golgi intermediate compartment) lub IC. Jest to zespół różnokształtnych pęcherzyków między siateczką śródplazmatyczną (ER) a aparatem Golgiego. U roślin wyższych diktiosom liczy od 3 do 10 cystern, u glonów 11-15, a nawet więcej. Pomiędzy cysternami występują elementy międzycysternowe zbudowane z mikrotubuli. Elementy te utrzymują strukturę aparatu Golgiego. Błony na biegunie cis wykazują budowę i skład zbliżony do siateczki śródplazmatycznej szorstkiej. Skład i budowa zmienia się stopniowo i na biegunie trans jest zbliżony do błony komórkowej. W komórce Chlamydomonas obecny jest tylko jeden diktiosom, zaś w komórkach merystematycznych cebuli może występować do 400 organelli. W komórach wydzielniczych u roślin liczba aparatów Golgiego może przekraczać 1000. W komórkach ssaków występuje od 40 do 100 stosów cystern, które pozostają połączone kanalikami błon. Struktury błoniaste są strukturami dynamicznymi, odbywa się między nimi przepływ substancji zawartych wewnątrz kanałów i pęcherzyków (tutaj okrytych płaszczem koatomerowym z białek COP typu I) oraz błon. Od bieguna cis do bieguna trans wzrasta procentowa zawartość lipidów (cholesterolu). Po stronie cis znajdują się transferazy N-acetyloglukozoaminy oraz galaktozylowa, fukozylowa i sjalowa. Sieć cis stanowi „przedział ratunkowy” dla białek powstałych w siateczce śródplazmatycznej, które zostały przypadkowo złapane w pęcherzyki płynące do aparatu Golgiego (zostają one wyłapane przez enzymy i skierowane z powrotem). Sieć trans (ang. trans-Golgi network) stanowi stację rozdzielczą i sortującą, w której produkty z wnętrza diktiosomu zostają rozsortowane zależnie od przeznaczenia i zapakowane do odpowiedniego typu pęcherzyków: pęcherzyki transportujące (dostarczają białek i lipidów do błony komórkowej) lizosomy (enzymy lizosomowe) i endosomy recyklujące i inne egzosomy (gromadzą substancje, które mają być wydzielone na drodze egzocytozy). W komórkach ssaków przekształcanie cystern cis w trans zachodzi w czasie 10–20 minut. W komórkach zwierzęcych organellum zlokalizowane jest centralnie w pobliżu centrosomu. U roślin diktiosomy obserwowane są na terenie całej komórki i wykazują się znaczną ruchliwością związaną z działaniem układu aktynomiozynowego. Podczas mitozy aparaty Golgiego w komórkach zwierzęcych ulegają demontażowi. Cysterny przekształcają się w pęcherzyki COPI i w kolejnym etapie są włączane w skład RE. Podczas podziału komórki roślinnej struktura aparatów Golgiego nie ulega zaburzeniu i pozostają one w pełni funkcjonalne. Organella ulegają jedynie przemieszczeniu ze strefy podziałowej do cytoplazmy okołojądrowej. Historia badań Camillo Golgi odkrył istnienie organellum w kwietniu 1898 roku. Naukowiec prowadził badania na neuronach pochodzących z móżdżka sowy. W kolejnych latach organellum zostało wykryte w innych typach komórek. Wielu cytologów wyrażało wątpliwości co do faktycznego istnienia struktury, uznając obserwowane organellum za artefakt wynikający ze sposobu przygotowania preparatów. Dopiero w połowie lat pięćdziesiątych XX wieku obserwacje z użyciem mikroskopu elektronowego ostatecznie rozwiały wątpliwości. Początkowo w literaturze określano tę strukturę mianem „aparatu”, dopiero w roku 1956 pojawił się synonimiczny termin „kompleks Golgiego”. W roku 1998 odkryto dodatkową strukturę w komórkach eukariotycznych pośredniczącą w przekazywaniu substancji z ER do aparatów Golgiego. Struktura nazywana jest ERGIC. Biogeneza W komórkach ssaków aparat Golgiego ulega demontażowi podczas mitozy. Doświadczenia wskazują, że poszczególne elementy organellum ulegają połączeniu podczas telofazy. Mechanizm demontażu i powtórnego składania zapewnia dokładne dziedziczenie aparatu Golgiego. Demontaż wydaje się konieczny zarówno do powstania organelli komórek potomnych, jak i do zajścia samej mitozy. W późnej fazie G2 dochodzi do zaniku rurkowatych połączań pomiędzy stosami cystern. W wyniku dalszego rozpadu powstają pojedyncze struktury pęcherzykowate i rurkowate. Jednym z dobrze poznanych produktów demontażu aparatu są pęcherzyki COPI. Pęcherzyki oraz błony powstałe z demontażu ulegają rozproszeniu w cytoplazmie. Odtwarzanie organellum rozpoczyna się wraz z wytworzeniem wrzeciona podziałowego. Prawdopodobnie wrzeciono odgrywa ważną rolę w biogenezie aparatu Golgiego. Błony rozproszone w cytoplazmie ulegają połączeniu w telofazie i podczas cytokinezy. Do ich połączenia niezbędnych jest szereg białek. Podczas tworzenia aparatu Golgiego w interfazie pęcherzyki COPI przyłączane są do niego po stronie cis. Przypisy Organella komórkowe Komórka roślinna
54
https://pl.wikipedia.org/wiki/Acetylocholina
Acetylocholina
Acetylocholina, ACh – organiczny związek chemiczny, ester kwasu octowego i choliny. Jest neuroprzekaźnikiem syntetyzowanym w neuronach cholinergicznych. Występuje w: połączeniach nerwowo-mięśniowych, synapsach przedzwojowych układu współczulnego, zakończeniach zazwojowych układu przywspółczulnego, a także w różnych strukturach mózgowia. Istnieją dwa typy receptorów cholinergicznych: nikotynowe – wbudowane w błonę komórki zwoju autonomicznego; muskarynowe – występujące w synapsach obwodowych zakończeń przywspółczulnych, wbudowane w błonę komórki efektorowej. Działanie Acetylocholina pobudza mięśnie szkieletowe. Powoduje także rozszerzenie naczyń krwionośnych, przez co obniża ciśnienie tętnicze krwi. Jednocześnie zmniejsza częstość akcji serca oraz siłę jego skurczu. Powoduje także skurcze mięśni gładkich: oskrzeli, jelit (przez co pobudza ich perystaltykę) oraz pęcherza moczowego. Oprócz tego powoduje zwężenie źrenic oraz pobudza funkcje wydzielnicze gruczołów. Acetylocholina nie ma obecnie zastosowania w lecznictwie, ponieważ bardzo szybko ulega hydrolizie (katalizowanej przez acetylocholinoesterazę) do choliny i kwasu octowego. Cholina ulega estryfikacji, to znaczy przyłączeniu grupy acetylowej (reszty kwasu octowego) do grupy hydroksylowej choliny przy udziale acetylotransferazy cholinowej. Część powstałej acetylocholiny jest uwalniana z zakończeń presynaptycznych do przestrzeni synaptycznej przez dopływające impulsy nerwowe, a część magazynowana w ziarnistościach neuronów. Po wydzieleniu z zakończeń presynaptycznych acetylocholina działa na receptory znajdujące się w zakończeniach postsynaptycznych i jest bardzo szybko rozkładana przez acetylocholinoesterazę. Jest to jedyny mechanizm unieczynniania acetylocholiny. Szybkość syntezy acetylocholiny zależy od stężenia choliny oraz acetylocholiny w neuronie. Związki fosforoorganiczne (sarin, soman) są inhibitorami acetylocholinoesterazy, co warunkuje ich toksyczność. Przypisy Czwartorzędowe związki amoniowe Estry kwasu octowego Neuroprzekaźniki Parasympatykomimetyki
55
https://pl.wikipedia.org/wiki/Adobe%20Photoshop
Adobe Photoshop
Adobe Photoshop – program graficzny przeznaczony do tworzenia i obróbki grafiki rastrowej, będący sztandarowym produktem firmy Adobe. Program jest dostępny na platformy Windows i macOS. Projekty programu zapisywane są w dedykowanym formacie plików PSD. Historia W roku 1987 Thomas Knoll na komputerze Apple Macintosh Plus rozpoczął pisanie programu służącego do wyświetlania obrazów na monitorze monochromatycznym (będącym w stanie wyświetlać tylko różne odcienie szarości). Program nazwany Display przykuł uwagę jego brata, Johna Knolla, który zasugerował Thomasowi, aby dodał do programu funkcje edycyjne. W 1988 r. Thomas przerwał naukę na pół roku, by wspólnie z bratem rozwijać program, którego nazwa znowu uległa zmianie na ImagePro. W tym samym roku doszło do zawarcia umowy pomiędzy Thomasem a producentem skanerów BarneyScan, na mocy której aplikacja miała być dołączana do skanerów tej firmy. Przy okazji tej współpracy doszło do ostatniej już zmiany nazwy, program otrzymał wówczas nazwę Photoshop. We współpracy z firmą BarneyScan sprzedano 200 kopii programu. W tym samym czasie John odbył podróż do siedzib dwóch dużych korporacji: Adobe oraz Apple. Prezentacja programu Russellowi Brownowi (dyrektorowi artystycznemu Adobe) zaowocowała kupieniem przez Adobe praw do dystrybucji aplikacji we wrześniu 1988 roku. Kiedy John pracował w Kalifornii nad wtyczkami, Thomas programował w Ann Arbor. Pierwsza wersja programu Photoshop, 1.0, została wydana w 1990 r. wyłącznie na platformę Macintosh. Ewolucja aplikacji Photoshop od tamtego czasu nieustannie jest poddawany modyfikacjom. W listopadzie 1993 wydano wersję 2.5, po raz pierwszy dostępną dla systemu Microsoft Windows (jednocześnie skompilowano tę wersję także dla UNIX-owych systemów Irix oraz Solaris). We wrześniu 1995 roku została wydana wersja 3.0 (Mac OS, Windows, Irix, Solaris), do której dodano między innymi obsługę warstw oraz zakładki w paletach. W kolejnej, czwartej edycji dodano warstwy korekcyjne (ang. ) oraz makra (akcje), które umożliwiały przyspieszenie lub zautomatyzowanie wykonywanych zadań (np. wykonywanie kilku takich samych operacji na wielu plikach). W wersji 5.0 po raz pierwszy wprowadzono możliwość edytowania tekstu (we wcześniejszych edycjach tekst był wpisywany w specjalnym oknie dialogowym, a następnie rasteryzowany), paletę historii, zarządzanie kolorem, style warstw oraz magnetyczne lasso (przyciągające krawędzie zaznaczenia na zasadzie kontrastu). Edycja 5.5 jako pierwsza była sprzedawana razem z programem Image Ready. Dodano okno dialogowe „” (zawiera ono opcje przydatne przy zapisie obrazu na użytek internetu) i filtr „” ułatwiający wycinanie przedmiotów z tła, dodano też efekty na warstwach takie jak: cienie czy kolor i wypukłości dzięki czemu nie były potrzebne dodatkowe efekty instalowane oddzielnie. Wersja 6.0 jako pierwsza obsługiwała kształty wektorowe. Dodano filtr „” i odświeżono interfejs użytkownika. Wydany w 2002 roku Photoshop 7.0 był kompatybilny z Mac OS oraz Windows XP. Dodano w nim narzędzie „” służące do usuwania drobnych niedoskonałości zdjęcia oraz narzędzie „” służące do dzielenia obrazka na części. Pojawiła się też funkcja tworzenia animacji (każda kolejna klatka animacji znajdowała się na osobnej warstwie), obsługa edycji oraz tworzenia obrazów w trybie 16-bit na kanał, możliwość zapisu ustawień narzędzi i palet w postaci pliku, tekst w końcu stał się w pełni wektorowy. W wydaniu 7.0.1 dodana została wtyczka Camera RAW. Creative Suite Od edycji 8.0, Photoshop stał się częścią pakietu (stąd skrót CS po nazwie programu). Odtąd możliwe jest definiowanie własnych skrótów klawiszowych, dodane zostało narzędzie do wyszukiwania i zamieniania tekstów, możliwość zmiany stosunku wysokości do szerokości piksela, rozbudowano narzędzie do korekcji cień/światło, przeglądarkę plików, galerię filtrów, możliwość osadzenia tekstów na ścieżkach i kształtach, obsługa plików o maksymalnej rozdzielczości 300 000 × 300 000 pikseli, poprawiona obsługa metadanych, polecenie „” dopasowujące paletę barwną dokumentu do innego pliku/warstwy, histogram czasu rzeczywistego, narzędzia służące do rozpoznawania i blokady druku banknotów, filtr „”. W wersji 9.0 (CS2) dodano wtyczkę Camera RAW 3, „” (punkt zanikania; wtyczka umożliwiająca między innymi klonowanie z kompensacją perspektywiczną), obiekty inteligentne (niedestrukcyjne wstawianie obiektów bitmapowych i wektorowych (z Adobe Illustrator) manipulowanie nimi i wymiana), obsługa HDR – plików z 32 bitami na kanał, możliwość łączenia plików z wielokrotnej ekspozycji w jeden z pełną kontrolą nad wartościami świateł i cieni, filtr „Korekcja obiektywu” służący do poprawy takich błędów obiektywów aparatów fotograficznych, jak aberracje sferyczne, aberracje chromatyczne czy winietowanie, inteligentne wyostrzanie oraz zmiękczanie obrazu, narzędzie do zniekształcania obrazu (wypaczanie, ang. ), rozszerzona funkcja redukcji szumów z usuwaniem artefaktów związanych z kompresją JPEG, pędzel korygujący efekt czerwonych oczu za pomocą jednego kliknięcia, możliwość zaznaczania wielu warstw. Adobe Photoshop 10.0 (CS3) otrzymał przeorganizowany interfejs użytkownika, – bezstratny odpowiednik dotychczasowych filtrów, pozwalający na dokonywanie w nich zmian nawet po tym, jak już zostały zastosowane (w efekcie czego praca z filtrami przypomina teraz bardziej pracę z efektami), zgodność z komputerami Macintosh wyposażonymi w procesory Intel, oraz systemem Windows Vista, narzędzie „szybkie zaznaczenie”, nowe tryby mieszania warstw, rozbudowa krzywych, miksera kanałów oraz jasności i kontrastu, zmodernizowane okno drukowania, optymalizacja grafiki przeznaczonej na urządzenia przenośne oraz szybsze uruchamianie. W październiku 2008 r. firma Adobe wprowadziła na rynek nową rodzinę produktów pod nazwą Adobe Creative Suite 4, w skład której wchodził nowy Photoshop CS4. Wersja ta posiada możliwość importowania, obracania, teksturowania modeli 3D zapisanych np. w 3D Studio Max oraz nakładania filtrów na warstwy bez konieczności rastrowania. Następną wersją programu jest Adobe Photoshop CS6. Posiada ona wiele funkcji znacznie przyspieszających pracę, np. usuwanie obiektów z uwzględnieniem zawartości czy inteligentne zaznaczanie ostrych krawędzi (włosy, sierść, włókna). Usprawniona została również praca przy obrazach HDR. W wersji dodano nowe narzędzia do pracy z grafiką 3D. Wersja CS6 oferuje m.in. udoskonalone narzędzia rozmycia (), rozszerzony interfejs do pracy z grafiką 3D, oraz wiele udoskonaleń poprzednich narzędzi (np. , ), a także zupełnie nowe, np. . Najnowszą wersją programu jest Adobe Photoshop CC. Dostępny jest on w formie abonamentu . Podsumowanie wersji Photoshop 1.0 – luty 1990 (Mac OS) Photoshop 2.0 – czerwiec 1991 (Mac OS) Photoshop 2.5 – listopad 1992 (Mac OS, Windows) Photoshop 3.0 – listopad 1994 Photoshop 4.0 – listopad 1996 Photoshop 5.0 – maj 1998 Photoshop 6.0 – wrzesień 2000 Photoshop 7.0 – marzec 2002 Photoshop CS (8.0) – październik 2003 Photoshop CS2 (9.0) – kwiecień 2005 Photoshop CS3 (10.0) – kwiecień 2007 Photoshop CS4 (11.0) – październik 2008 Photoshop CS5 (12.0) – kwiecień 2010 Photoshop CS6 (13.0) – wydany w maju 2012 roku. Został wzbogacony o nowe narzędzia oraz nowy interfejs, który skupia się na uatrakcyjnieniu wydajności. Nowe funkcje zostały dodany do funkcji „Kolor pierwszego planu” () zarówno jak do funkcji „Kopia przejrzystości” () i funkcji „Przesuwanie z uwzględnieniem zawartości” (). Adobe Photoshop CS6 zawiera również pakiet narzędzi służących do edycji wideo. Regulacja koloru i ekspozycji, zarówno jak warstwy są jednymi pośród wielu przedstawionych w nowym edytorze. Uzupełniając edycję, użytkownik zostaje obdarowany użytecznymi opcjami eksportowania w kilku popularnych formatach. CS6 wnosi „poprawki” do narzędzi programu, gdzie użytkownik z łatwością rysuje linie gdziekolwiek na obrazku, a obszar roboczy zmienia orientacje automatycznie, więc narysowane linie stają się horyzontalne i dostosowują odpowiednio nośnik. Zostało to stworzone z myślą, że użytkownik zamierza rysować linie równoległe do płaszczyzny podłoża na obrazku oraz zmienia orientacje obrazka w stosunku do tej płaszczyzny, łatwiej osiągając pewną perspektywę. CS6 pozwala na zapisywanie tła, co znaczy, że kiedy inny dokument jest kompilowany, jest możliwość jednoczesnej edycji obrazu. CS6 również dysponuje dostosowaną funkcją auto-zapisu, co zapobiega możliwej utracie pliku. Adobe również ogłosiło, że wersja CS6 będzie ostatnią sprzedawaną z dożywotnią licencją, zastąpiona nową subskrypcją Creative Cloud, ale będzie kontynuowana dla wersji CS6 dla kompatybilności z systemami operacyjnymi oraz będzie zapewniała naprawę błędów i zabezpieczenie aktualizacji, jeżeli będzie to wymagane. Photoshop CC (14.0) – wydany 18 czerwca 2013 roku. Jako kolejna główna wersja po CS6, jest dostępna tylko w ramach subskrypcji Creative Cloud. Najistotniejsze narzędzia w tej wersji to całkowicie nowe inteligentne wyostrzanie, „Zachowaj szczegóły” () i funkcja redukcji potrząśnięć aparatem służąca do zmniejszenia rozmycia spowodowanego drganiami aparatu. Edycja zaokrąglonych prostokątów i edycja wersji Adobe Camera Raw (8.0) również zostały uwzględnione. Od pierwotnego uruchomienia, firma Adobe dodała dwie dodatkowe funkcje aktualizacji. Na początku wersja 14.1 została uruchomiona 9 września 2013 roku. Głównymi funkcjami tej wersji były Adobe Generator i platforma Node.js, służące do tworzenia wtyczek do programu Photoshop. Program Photoshop 14.1 jest dostarczany z dwiema wtyczkami. Jedna służy do automatycznego generowania zasobów obrazu na podstawie rozszerzenia w nazwie warstwy, a druga do automatycznego generowania zasobów w programie Adobe Edge Reflow. Wersja 14.2 została wydana 15 stycznia 2014 roku. Główne funkcje obejmują obsługę funkcji: „Wypaczenie perspektywy” (), „Połączonych obiektów inteligentnych” () oraz „Drukowanie obiektu 3D” (). Photoshop CC 2014 (15.0) Został wydany w 18 czerwca 2014 roku. Funkcje dla wersji CC 2014 zostały wzbogacone o nowe narzędzia, jak kolor pierwszego planu, dwa nowe narzędzia rozmazywania: „Rozmycie obrotowe” () i „Ścieżka rozmycia” () oraz nowego filtru „Maska wyostrzająca” (), która umożliwia użytkownikowi wybranie części obrazka, bazując na tym, czy są ostre, czy nie. Wprowadzone zostały inne drobne ulepszenia, wliczając w to zwiększenie prędkości aktualnych czynności. Photoshop CC 2015 (16.0 i 17.0) – czerwiec 2015 Photoshop CC 2017 (18.0) – grudzień 2016 Photoshop CC 2018 (19.0) – październik 2017 Photoshop CC 2019 (20.0) – październik 2018 Photoshop CC 2020 (21.0) – listopad 2019 Photoshop CC 2021 (22.0) – luty 2021 Zobacz też GIMP Krita Pixel Photoline Przypisy Linki zewnętrzne Oficjalna strona internetowa Adobe Polska Oficjalna strona internetowa programu Adobe Edytory grafiki rastrowej
56
https://pl.wikipedia.org/wiki/Architektura%20komputera
Architektura komputera
Architektura komputera oznacza w informatyce technicznej zbiór zasad i metod opisujących funkcjonalność, organizację i implementację komputerów. Niektóre definicje architektury komputerów definiują ją jako opis możliwości i model programowy komputera, ale nie konkretną implementację. W innych definicjach architektura komputera obejmuje projekt architektury zestawu instrukcji, projekt mikroarchitektury, syntezę logiczną i implementację. Wprowadzenie Komputer jest systemem złożonym o strukturze hierarchicznej - układem wzajemnie powiązanych podsystemów, z których każdy również ma strukturę hierarchiczną, aż do osiągnięcia najniższego poziomu - podsystemu elementarnego. Na każdym poziomie projektant zajmuje się strukturą (sposobem wzajemnego powiązania) i funkcjami (działaniem) poszczególnych składników. Komputer składa się z jednostki centralnej (CPU), magistrali systemowej, pamięci oraz urządzeń wejścia-wyjścia. Jednostka centralna składa się z rejestrów, jednostki arytmetyczno-logicznej (ALU), jednostki sterującej i połączeń wewnętrznych. Jednostka sterująca składa się z układów logicznego szeregowania, rejestrów i dekoderów jednostki sterującej oraz jej pamięci. Podstawowe zagadnienia Struktura i działanie procesora Pamięć podręczna Pamięć wewnętrzna Pamięć zewnętrzna Wejście wyjście Wspieranie systemu operacyjnego Arytmetyka komputera Własności i funkcje listy rozkazów Tryby adresowania i formaty rozkazów Paralelizm na poziomie rozkazu i procesory superskalarne Działanie jednostki sterującej Sterowanie mikroprogramowe Historia Pierwszą udokumentowaną architekturę komputera można znaleźć w korespondencji pomiędzy Charlesem Babbage i Adą Lovelace, opisującą tzw. silnik analityczny. Podczas budowy komputera Z1 w 1936, Konrad Zuse opisał po raz pierwszy komputer którego instrukcje są przechowywane w pamięci, tzw. stored-program computer. Klasyfikacje Ze względu na rodzaj połączeń procesor-pamięć i sposób ich wykorzystania dzielimy architektury zgodnie z taksonomią Flynna: SISD (ang. Single Instruction Single Data) – skalarne, SIMD (ang. Single Instruction Multiple Data) – wektorowe (macierzowe), MISD (ang. Multiple Instruction Single Data) – strumieniowe, MIMD (ang. Multiple Instruction Multiple Data) – równoległe. Ze względu na sposób podziału pracy i dostęp procesora do pamięci możemy podzielić architektury na: SMP (ang. Symmetric Multiprocessing) – symetryczne, ASMP (ang. Asymmetric Multiprocessing) – asymetryczne, NUMA (ang. Non-Uniform Memory Access) – asymetryczne (rozróżniające pamięć lokalną i zdalną), AMP (ang. Asynchronous Multiprocessing) – asynchroniczne, MPP (ang. Massively Parallel Processors) – równoległe. Ze względu na sposób organizacji pamięci i wykonywania programu: architektura von Neumanna – zarówno dane, jak i kod programu przechowywany jest w tym samym obszarze pamięci; architektura harwardzka – rozkazy i dane przechowywane są w odseparowanych obszarach pamięci; architektura mieszana – połączenie dwóch powyższych typów: obszary pamięci dla rozkazów i danych są odseparowane, jednak wykorzystują wspólne magistrale. Zobacz też architektura oprogramowania Przypisy !
58
https://pl.wikipedia.org/wiki/Amiga
Amiga
Amiga (hiszp. amiga – przyjaciółka) – marka komputerów produkowanych od 1985 r. między innymi przez firmę Commodore, popularna w XX wieku. Po bankructwie Commodore marka została przejęta przez firmę Escom, a następnie przez Gateway. W końcu wyłoniła się samodzielna firma Amiga INC, która po bankructwie sprzedała wszelkie prawa firmie KMOS. Z kolei KMOS zmienił nazwę na Amiga Inc. System operacyjny Systemem operacyjnym Amigi jest AmigaOS z interfejsem Workbench. W momencie wydania AmigaOS był jednym z pierwszych systemów wielozadaniowych na komputery osobiste, znacznie przewyższającym pod tym względem systemy operacyjne produkowane w tamtych latach, na przykład Windows produkowany przez Microsoft. Przez lata system operacyjny Amigi stale ewoluował. Najbardziej znaczące zmiany nastąpiły przy wydaniu wersji 3.x, która w wersji 3.9 była ostatnią obsługującą procesory linii 68k. Wersja 4.0 systemu została przepisana całkowicie pod procesory PowerPC i jest obecnie nadal rozwijana przez firmę Hyperion Entertainment. Najnowsza wersja AmigaOS oznaczona jest numerem 4.1 i pojawiło się do niej uaktualnienie Update 1. Istnieją również bazujące na AmigaOS systemy rozwijane niezależnie. Zalicza się do nich AROS Research Operating System (AROS) oraz MorphOS. Dla komputerów Amiga powstały również dystrybucje Linuksa oraz BSD. Komputery zawierające chipsety OCS/ECS/AGA Pierwszym modelem Amigi, wprowadzonym do sprzedaży w lipcu 1985 była Amiga 1000 z procesorem MC68000 7,14 MHz firmy Motorola i chipsetem OCS. Dwa lata później pojawiły się dwa modele – Amiga 500 i Amiga 2000, obydwa konstrukcyjnie bardzo podobne do A1000. Różniły się jedynie możliwościami rozbudowy. Amiga 500 była komputerem domowym, z jednostką centralną zintegrowaną w płaskiej obudowie z klawiaturą i napędem dyskietek 3,5 cala. Brak było kontrolera dysku twardego, choć istniały zewnętrzne urządzenia tego typu (podłączane z boku przez złącze krawędziowe). Możliwości rozbudowy z przyczyn czysto objętościowych były mniejsze niż w poprzednich modelach (choć i tak duże). Pierwsze serie obu tych komputerów były wyposażone w chipset OCS (Original Chip Set). Wersja Amiga 500+ charakteryzowała się nowszym oprogramowaniem ROM (Kickstart w wersji 2.0) i większą ilością pamięci RAM (1MB pamięci Chip RAM) oraz chipsetem ECS (Enhanced Chip Set). Amiga 2000 była komputerem profesjonalnym, z dużymi możliwościami rozbudowy. Oferowana była w kilku wariantach: Amiga 2500 (z procesorem MC68020 i dyskiem twardym), A2000HD (z dyskiem SCSI), A2000UX (działająca pod kontrolą systemu Unix, dokładniej SVR4). Rozwinięciem modelu Amiga 2000 była Amiga 3000 (1990) – czyli pierwszy 32-bitowy model Amigi. Wyposażona była w procesor MC68030 (16 lub 25 MHz) i chipset ECS. Fabrycznie zamontowano flicker-fixer i kontroler SCSI. Istniała możliwość dokupienia kontrolera DMA. Kickstart 2.0 (który zaktualizowany został potem do 2.04). Całość zamknięta została w eleganckiej obudowie desktop. W niektórych starszych modelach A3000 instalowano kości ROM zawierające wewnętrzną wersję „alfa” AmigaOS 2.0 – czyli Kickstart 1.4, przy czym fakt ten pozostawał ukryty ze względu na to iż w tym modelu Kickstart można było „remapować” (podmieniać) z obrazu zapisanego na dysku twardym lub specjalnie spreparowanej dyskietce zwanej SuperKickstartDisk. Kickstart do Amigi 3000 można było sprzętowo rozszerzyć do wersji 3.1. Istniała również wersja UX pracująca pod kontrolą SVR4 (patrz: Unix). W (1991) roku rozpoczęto sprzedaż modelu z wbudowanym napędem CD – o nazwie Amiga CDTV. Model ten nie został dobrze przyjęty przez klientów ponieważ zawierał przestarzały już wtedy Kickstart 1.3 i wszystkie podzespoły ze zwykłej Amigi 500. Nie było natomiast wbudowanej stacji dyskietek, a podłączana ona była w formie dodatkowego urządzenia zewnętrznego. Płyty CD przed włożeniem do napędu wymagały umieszczenia ich w dodatkowej obudowie (przypominającej dyskietkę) co trochę utrudniało korzystanie z nich. Amiga CDTV jest jednak jednym z niewielu takich rozwiązań w dziedzinie komputerów osobistych ponieważ z wyglądu bardziej przypominała magnetowid lub odtwarzacz CD, a nie komputer. Następnym krokiem (1992) był komputer Amiga 600 – najmniejszy model Amigi, pozbawiony bloku numerycznego klawiatury. Chociaż minęło 7 lat od premiery modelu A1000, nadal posiadał on procesor 68000 (7,14 MHz). Zmiany które wprowadzono względem starszych modeli to nowy chipset ECS, kontroler dysku twardego, miejsce na dysk 2,5" (w A600HD montowany fabrycznie), nowy Kickstart 2.05 (w wersji 37.299 oraz 37.300 zawierający błędy – wyeliminowane dopiero w wersji 37.350), 1MB Chip RAM, wbudowany modulator TV oraz złącze PCMCIA. Kolejnym modelem była Amiga 1200 z roku 1992 – następczyni modelu A500. Posiadała 32-bitowy procesor MC68EC020 (tańsza wersja MC68020 z 24-bitową szyną adresową oraz nie posiadająca pięciu sygnałów w porównaniu do pełnej wersji), taktowany zegarem 14,28 MHz, nowoczesne kości grafiki AGA, pamięć CHIP rozszerzoną do 2MB. Tak jak A600 posiada kontroler dysku twardego IDE, modulator TV oraz złącze PCMCIA. Do tej pory model 1200 jest najpopularniejszy ze względu na ogromne możliwości rozbudowy (choć pomyślany był jako model przejściowy, właściwie nie do rozbudowy). Powstało bardzo wiele urządzeń, a wśród najważniejszych znajdują się sloty PCI 2.1, karty z dwoma procesorami (MC68040/MC68060 + PowerPC 603e od 160 do 240 MHz), karty graficzne. Warto także wspomnieć o modelu zwanym Amiga CD32. Była to pierwsza na świecie 32-bitowa konsola do gier posiadająca wbudowany czytnik CD. Jeżeli chodzi o możliwości i charakterystykę sprzętową, to praktycznie nie różniła się ona pod tym względem od A1200. Można było do niej podłączyć klawiaturę, stację dyskietek czy inne akcesoria, przez co stawała się pełnowartościowym komputerem. Przypuszczano, że gdyby Commodore nadążyło z produkcją CD32, firma uniknęłaby bankructwa. Pomysł konsoli z napędem CD podłączanej pod domowy telewizor zauważyła natomiast firma Sony, która 3 grudnia 1994 roku zaprezentowała swój produkt pod nazwą PlayStation, i który przyniósł firmie ogromny sukces. Amiga 4000 była rozszerzeniem A3000 z kośćmi AGA, posiadała procesor MC68030 lub MC68040. Kontroler SCSI zamieniono na IDE. Nadal nie użyto 16-bitowych układów dźwiękowych, a flicker-fixera usunięto. Kolejnym modelem była A4000T (tower) o podobnej konfiguracji. Posiadała zarówno kontroler IDE, jak i SCSI. Oprogramowanie Inne komputery posługujące się nazwą Amiga lub zbliżoną AmigaOne – linia komputerów produkowana przez brytyjską firmę Eyetech. Działa z procesorami PowerPC G3 i G4. Płyta nie jest już produkowana. Na bazie tej linii powstał również model Micro A1. Micro A1 – produkowany przez brytyjską firmę Eyetech. Płyta główna w formacie miniATX ze zintegrowanym układem graficznym (Radeon firmy ATI) i dźwiękowym. Płyta była sprzedawana z procesorem 750FX/800 MHz lub 750GX/800 MHz i systemem operacyjnym AmigaOS 4.0. Płyta nie jest już produkowana. AmigaOne X1000 – najnowszy model, zaprojektowany w firmie Varisys, a wprowadzony na rynek 25 stycznia 2012 przez firmę A-EON Technology. Nazwą nawiązuje do pierwszego, historycznego modelu Amigi. Wyposażony w procesor PWRficient PA6T-1682M firmy P.A. Semi (architektura PowerISA v2.04+, dwa rdzenie, 2.0 GHz) i procesor wspomagający Xena architektury Xcore XS1 firmy XMOS. Commodore Amiga Mini – próba wprowadzenia na rynek komputera PC z licencjonowaną nazwą „Amiga” przez Commodore USA – zakończyła się po śmierci właściciela firmy Barry’ego S. Altmana w 2012 roku Rozwój Rozwojem komputerów AmigaOne zajmuje się firma Hyperion Entertainment. Hyperion na mocy porozumienia z firmą Amiga Inc. rozwija system operacyjny AmigaOS. Najnowsza wersja AmigaOS 4.1 działa bezpośrednio na procesorach PowerPC, i jest kontynuacją poprzednich wersji systemu AmigaOS (od 1.x do 3.x) – opierając się na jego oryginalnych kodach źródłowych. 30 września 2009 roku, obie firmy podpisały ugodę, na mocy której firma Hyperion Entertainment otrzymała de facto wyłączne i wieczyste prawa do wykorzystywania i modyfikacji systemu operacyjnego AmigaOS 3.1 w ramach rozwoju kolejnych, tworzonych przez siebie wersji AmigaOS 4 i późniejszych, oraz do samej nazwy Amiga OS. Elbox, polska firma komputerowa z Krakowa, zajmuje się produkcją podzespołów do komputerów Amiga. Firma wykonała pierwszy na świecie mostek PCI do Amigi 1200 o nazwie „Mediator”, produkuje także kontrolery urządzeń IDE, karty turbo i kompletne systemy tower. Emulatory Amigi Istnieje emulator Amigi UAE oraz jego inne wersje dla systemów Unix, Linux, PalmOS, Mac OS, Windows, BeOS, AROS, rodziny systemów BSD, Windows Mobile, Android, Symbian oraz dla samego AmigaOS. Emulator UAE uruchomiony pod AmigaOS umożliwia uruchamianie starszego oprogramowania odwołującego się bezpośrednio do układów specjalizowanych montowanych w Amigach z czasów firmy Commodore. Programy takie nie działają na komputerach z systemem AmigaOS 4.0, ale dzięki UAE została zapewniona kompatybilność. Przykładowe inne wersje emulatora UAE – dla Windows, nazywa się WinUAE – oferuje ona znacznie większą funkcjonalność od oryginalnego UAE. Z kolei E-UAE to nieoficjalna wersja UAE ze zintegrowanym mechanizmem JIT oraz innymi usprawnieniami przeportowanymi z WinUAE. E-UAE dostępne jest dla systemów: Linux, Mac OS, BeOS, AmigaOS MorphOS, AROS. Natomiast specjalna wersja emulatora dla Windows Mobile nazywa się PocketUAE. Warto również wspomnieć o innym (obecnie nie rozwijanym) emulatorze Amigi – Fellow. Wersja dla Windows nazywa się WinFellow. Ciekawym rozwiązaniem jest komercyjny emulator Amithlon uruchamiany automatycznie przez własną minidystrybucję systemu Linux z rozruchowej płyty CD. Dzięki temu rozwiązaniu użytkownik ma wrażenie, że jedynym działającym systemem jest AmigaOS. Istnieją projekty, realizujące emulację Amigi w technologii FPGA – Minimig, Natami, C-One. Ponadto istnieje system operacyjny MorphOS, działający na niektórych platformach PowerPC, który zawiera zintegrowany emulator systemu AmigaOS (obsługuje aplikacje pisane dla systemów 1.x – 3.x). Podobnie jak AmigaOS 4.0, emulator ten nie potrafi uruchamiać starszych aplikacji odwołujących się bezpośrednio do specjalizowanych układów Amigi, dlatego też używa się na tej platformie emulatora UAE. Zobacz też Amiga Disk Format – format pliku z obrazem dyskietki Amigi WinUAE, emulator Amigi dla systemu Windows E-UAE, emulator Amigi bazujący na WinUAE, przeznaczony dla innych niż Windows systemów operacyjnych UAE, emulator Amigi, na którym bezpośrednio lub pośrednio bazują WinUAE, E-UAE, PocketUAE, Akiko Akiko, emulator Amigi CDTV oraz CD32 dla systemu Windows bazujący na WinUAE PocketUAE, emulator Amigi dla PocketPC z systemem Windows Mobile DroidPUAE, emulator Amigi dla systemu Google Android Fred Fish Minimig Natami Przypisy Linki zewnętrzne Oficjalna strona Amigi Hyperion Entertainment PPA (Polski Portal Amigowy) eXec – magazyn użytkowników komputerów Amiga Amiga wczoraj, dziś – historia Amigi na stronie technowinki.onet.pl Amiga 500 emu, przykłady wykorzystania programu WinUAE Komputery
59
https://pl.wikipedia.org/wiki/Albania
Albania
Albania, Republika Albanii () – państwo w południowo-wschodniej Europie na Bałkanach. Albania na zachodzie ma dostęp do Morza Adriatyckiego, a na południowym zachodzie do Morza Jońskiego. Od Włoch oddziela ją cieśnina Otranto o szerokości ok. 72 km. Łączna długość granic lądowych wynosi 720 km, natomiast wybrzeża morskiego – 362 km. Graniczy z: Grecją (282 km), Czarnogórą (173 km), Macedonią Północną (151 km) oraz Serbią/Kosowem (114 km). Jest członkiem ONZ, NATO, OBWE, Rady Europy, WTO oraz jednym z założycieli Unii na rzecz Regionu Morza Śródziemnego. Od 2014 roku Albania ma status kandydata do Unii Europejskiej. Albania ma system parlamentarny. Stolicą kraju jest Tirana, jest to również finansowe centrum kraju. Reformy wolnego rynku otworzyły kraj na inwestycje zagraniczne, zwłaszcza w rozwój energetyki i infrastruktury transportowej. Etymologia nazwy Albania jest nazwą kraju zaczerpniętą ze źródeł grecko-rzymskich. Rdzeń alb został zaczerpnięty z języków ilirskich i oznacza kolor biały. Historia Świata Polibiusza, pochodząca z II w. p.n.e., wspomina o plemieniu żyjącym na terenie dzisiejszej Albanii, którego członkowie byli nazywani Albanoí i Arbanitai. Przez mieszkańców ich kraj jest nazywany (). Albańska nazwa pochodzi od słowa oznaczającego mówić otwarcie, krótko i jasno. Nazwy w innych językach: , (), (nazwa większego obszaru). Geografia Albania jest w 75% krajem górzystym. Niewielki procent kraju zajmują niziny położone nad Morzem Adriatyckim oraz doliny większych rzek takich jak: Drin (285 km), Wjosa (272 km) i Seman z Devoll (281 km). Pozostała część kraju to wyżyny oraz góry w paśmie Gór Dynarskich dzielące się na: Góry Północnoalbańskie, Góry Skanderbega, Mal Valamarës. Na granicach znajdują się 3 duże jeziora: Szkoderskie (368 km²), Ochrydzkie (347 km²) oraz Prespa (288 km²). Najdalej wysunięty na zachód przylądek to Kepi i Gjuhëzës. Historia Od starożytności do I wojny światowej W starożytności Albania wchodziła w skład Ilirii zamieszkiwanej przez lud indoeuropejski Ilirów, którzy wymieszali się później z Trakami i Słowianami. W 168 roku p.n.e. kraj został uzależniony od Rzymian, a od końca IV wieku wszedł w skład Cesarstwa Bizantyńskiego. Na przełomie VI i VII wieku napłynęły tu plemiona słowiańskie. W okresie IX–XI wieku tereny Albanii wchodziły w skład carstwa Bułgarii. Pierwsze państwo albańskie powstało w XII wieku, w XIV wieku zostało podbite przez Serbów. Około 1435 Turcy zajęli Albanię. Wyzwoliła się ona czasowo po powstaniu zainicjowanym przez Skanderbega. Pod koniec XV wieku Turcy znów zajęli kraj, wówczas to podupadł on pod względem cywilizacyjnym. Feudałowie powoli i systematycznie przechodzili na islam, zachowując swe majątki i uprawnienia. Często piastowali wysokie funkcje w państwie tureckim (np. Ali Pasza z Tepeleny, Muhammad Ali). W XIX wieku wzmógł się ruch niepodległościowy na rzecz wyzwolenia Albanii, zwany Rilindja. W 1912 roku Kongres Narodowy we Wlorze ogłosił deklarację niepodległości. W 1913 po konferencji londyńskiej nie powiodły się plany rozdzielenia jej między Serbię i Grecję. Do czasu wybuchu II wojny światowej Albania była kolejno księstwem, republiką i królestwem. Po uzyskaniu niepodległości przez Albanię, przy aprobacie państw Europy Zachodniej, rozpoczęto poszukiwania arystokraty zdolnego objąć albański tron. Okazało się jednak, że brakuje osób chętnych na przyjęcie tego tytułu. Królowa rumuńska Elżbieta zaproponowała, aby poszukiwania rozpocząć od znalezienia księżnej Albanii, która następnie zawarłaby związek małżeński. Rumuńską protegowaną do tego celu stała się Zofia Schönburg-Waldenburg, którą królowa Elżbieta poznała z niemieckim arystokratą Wilhelmem zu Wied. Ich ślub odbył się 30 listopada 1906 roku. Wilhelm i Zofia zostali pierwszą parą monarszą Albanii. Niemiec przybył do Albanii w 1914 roku, lecz już po kilku miesiącach opuścił kraj wobec niekończących się buntów na prowincji, podsycanych przez Grecję i Włochy. Okres wojen światowych Podczas I wojny światowej Albania była okupowana przez Serbów, a potem podążających za nimi Austriaków. Okupacja przyniosła także pozytywne skutki – m.in. wybudowano pierwsze trwałe drogi (głównie przez Austriaków). Pod koniec wojny wkroczyli Włosi, chcący włączyć kraj w swoją strefę wpływów, ale ponieśli porażkę w walkach z albańskimi powstańcami. Konferencja z 1920 zatwierdziła niepodległość Albanii (ujął się za nią Woodrow Wilson). Zdetronizowano Wilhelma zu Wieda (nie ogłosił abdykacji) i proklamowano republikę. W 1928 konserwatywny premier Ahmed Zogu koronował się na króla, wiążąc kraj politycznie i militarnie, a nade wszystko gospodarczo z Włochami Benita Mussoliniego. Włochy zajęły Albanię w kwietniu 1939 roku, łamiąc swe zobowiązania międzynarodowe i obalając króla. 16 kwietnia 1939 roku król Włoch, Wiktor Emanuel III, został ogłoszony królem Albanii. Po 1941 roku do protektoratu albańskiego przyłączone zostało Kosowo. Premierem rządu kolaboracyjnego Albanii został Mustafa Merlika. Lata 1943–1944 to okupacja hitlerowska, działała wtedy silna partyzantka zdominowana przez komunistów. 16 października 1942 roku powołano Front Wyzwolenia Narodowego, skupiający siły antyfaszystowskie niezależnie od ideologii lub klasy. Skrzydłem militarnym Frontu Wyzwolenia Narodowego stała się Armia Narodowo-Wyzwoleńcza, będąca najsilniejszą siłą polityczną i wojskową kraju. Partyzanci w połowie 1944 roku kontrolowali 75% terytorium kraju. Dowódcą armii został przedwojenny oficer Spiro Moisiu, a niekwestionowanym przywódcą ruchu oporu – Enver Hoxha. Armia Wyzwolenia Narodowego dysponowała własnymi batalionami i brygadami oraz otrzymywała wsparcie od brytyjskiego wywiadu Secret Intelligence Service. W sierpniu 1943 roku partia komunistyczna zawiązała porozumienie z nacjonalistyczną organizacją Balli Kombëtar (Front Narodowy), w jego wyniku partia zgodziła się m.in. na zjednoczenie się z każdą grupą, która kiedyś współpracowała z faszystami, jednak zakończyła te kontakty i wyraziła gotowość do walki z okupantem. Jedynym warunkiem było to, by grupy te nie były odpowiedzialne za żadne zbrodnie. Po tym, gdy na skutek nacisków ze strony Jugosłowian komuniści zgodzili się odrzucić projekt Wielkiej Albanii, Balli Kombëtar obróciła się przeciwko dotychczasowym sprzymierzeńcom. Balli Kombëtar znalazła się w trudnej sytuacji ze względu na brak poparcia społecznego. Po tym, gdy Balli Kombëtar uznała komunistów za główne zagrożenie, rozpoczęła kolaborację z hitlerowcami, tym samym organizacja straciła autorytet wśród tych, którzy walczyli z okupantem. Dzięki podjęciu kolaboracji przez konkurencyjną organizację komuniści znaleźli się w centrum uwagi i ostatecznie stali się centralnym punktem walki o wyzwolenie. 28 listopada 1944 roku Albania ogłoszona została republiką ludową, władzę przejęła komunistyczna Albańska Partia Pracy kierowana przez Hoxhę. Rola ZSRR w wyzwoleniu kraju była znikoma, dzięki temu Albania stała się jedynym krajem, którego niezależność po II wojnie światowej nie była zagrożona przez żadne z mocarstw. Dzięki sprzeciwowi rządu albańskiego nie powiodły się plany Tito stworzenia Wielkiej Jugosławii (z Albanią i Bułgarią jako kolejnymi członami federacji). Okres powojenny Uprzednio koalicyjny rząd zdominowany przez partię komunistyczną przeorganizował się w sierpniu 1945 roku we Front Wyzwolenia Narodowego. Wybory w Albanii odbyły się 2 grudnia i, jak poinformował rząd, 93% obywateli głosowało na przedstawicieli FWN. W 1946 roku powstała Ludowa Republika Albanii. W tym samym roku doszło do incydentu w cieśninie Korfu wywołanego uszkodzeniem brytyjskich okrętów na postawionych przez Albanię minach. Po wojnie kraj był członkiem ONZ, Układu Warszawskiego i RWPG. Gdy w 1948 doszło do rozłamu w bloku wschodnim, opowiedział się za Związkiem Radzieckim. Rząd Hoxhy podjął się szeregu reform w socjalistycznym stylu, w sierpniu 1945 roku przeprowadzono konfiskatę gospodarstw rolnych i połączenie ich w spółdzielnie produkcyjne (kooperatywy), co miało pozwolić na osiągnięcie samowystarczalności żywnościowej. Ziemie właścicieli ziemskich i panów feudalnych (bejowie), do których należało 52% wszystkich gruntów dystrybuowano między chłopów, po wejściu ustawy procent ziemi należących do ziemian wynosił 16%. Rząd Hodży wielką wagę przykładał do elektryfikacji i industrializacji. Analfabetyzm, który w 1939 roku na obszarach wiejskich wynosił 90–95%, spadł w 1950 roku do 30%, a w 1985 roku był już równy krajom Zachodu. Od śmierci Józefa Stalina narastał konflikt między Albańską Partią Pracy a Komunistyczną Partią Związku Radzieckiego. Spór przybrał na sile po referacie Nikity Chruszczowa w 1956 roku. Albania na skutek pogorszenia relacji z blokiem wschodnim skłaniała się ku współpracy z Chinami, które znacznie zwiększyły pomoc gospodarczą. Członków rządzącej partii, którzy opowiedzieli się za dalszym członkostwem w bloku wschodnim, wydalono z partii lub osadzono w więzieniach. Wycofanie się Albanii z prac bloku wschodniego poskutkowało tym, że ZSRR przestał udzielać Albanii wsparcia gospodarczego. W grudniu 1961 Albania zerwała stosunki dyplomatyczne z ZSRR, a w 1962 roku zaprzestała prac w składzie Układu Warszawskiego, z którego wystąpiła we wrześniu 1968 roku. W 1967 władze zakazały wszelkich praktyk religijnych. W 1968 Albania skrytykowała interwencję Układu Warszawskiego w Czechosłowacji. W latach 70. XX wieku Albania dążyła do autarkii, nie przyniosło to jednak powodzenia. W 1976 nazwę kraju zmieniono na Ludowa Socjalistyczna Republika Albanii. Pod koniec lat 70., po śmierci Mao Zedonga, nastąpił rozłam chińsko-albański, co sprawiło, że Albania pogrążyła się w izolacji międzynarodowej. W 1985 roku zmarł Enver Hoxha, a władzę w Albanii przejął Ramiz Alia, uznawany za członka liberalnej frakcji wewnątrz Partii Pracy. Dwa lata później w kraju rozpoczął się kryzys gospodarczy, pogarszał się albański bilans handlowy, pojawiły się trudności z zaopatrzeniem w podstawowe produkty. Albania była – według oceny Amnesty International – jednym z najbardziej represyjnych względem społeczeństwa państw świata. W tym samym okresie władze albańskie rozpoczęły liberalizację ustrojową. W 1987 poprawiły się stosunki Albanii z Niemcami Zachodnimi oraz z Grecją, w 1988 – z Włochami. W 1989 albańska prasa relacjonowała przemiany w Europie Środkowo-Wschodniej. W 1991 u władzy w wyniku pierwszych w historii demokratycznych wyborów pozostali tam początkowo komuniści, którzy zdobyli 67% głosów. Jednocześnie nowy rząd komunistów rozpoczął szereg zmian wolnorynkowych i liberalizujących system – majątek należący do państwowych gospodarstw rolnych został rozdzielony między chłopów. 29 kwietnia 1991 parlament albański zmienił nazwę kraju na Republika Albańska, pierwszym prezydentem ogłosił Alię, jak również zmienił konstytucję Albanii, wprowadzając podział władzy i poszerzając zakres swobód obywatelskich. 30 września 1991 przegłosowano ustawę, na mocy której z więzień zwolnieni zostali więźniowie polityczni, z wyjątkiem tych, którzy dopuścili się aktów terroru z ofiarami śmiertelnymi. Współczesna Albania W 1992 roku komuniści utracili władzę na skutek wyborczego sukcesu Demokratycznej Partii Albanii. W 1994 roku doszło do ataku na Peshkopii dokonanego przez greckich separatystów skupionych we Froncie Wyzwolenia Północnego Epiru. Wybory parlamentarne z maja 1996 zmarginalizowały postkomunistyczną Socjalistyczną Partii Albanii, gdyż zwycięstwo odniosła Partia Demokratyczna, która w parlamencie uzyskała 122 mandaty na 140 miejsc. Opozycja, jak i międzynarodowi obserwatorzy ogłosili jednak liczne nieprawidłowości podczas wyborów. W wyniku krachu ekonomicznego z 1997 roku oraz będącej jego skutkiem antyrządowej rebelii, która pochłonęła ponad tysiąc ofiar śmiertelnych, do władzy w wyniku przedterminowych wyborów doszła postkomunistyczna opozycja. Znaczenie Albanii na arenie międzynarodowej wzrosło, gdy kraj ten służył jako jedna z najważniejszych baz operacyjnych NATO podczas operacji w Kosowie w 1999. Po ośmiu latach sprawowania władzy Socjalistyczna Partia Albanii utraciła władzę, a w 2005 roku po wyborach parlamentarnych władzę przejęła koalicja partii opozycyjnych, na czele z Partią Demokratyczną. W wyborach parlamentarnych w 2013 roku zwyciężył Sojusz na rzecz Europejskiej Albanii, z Socjalistyczną Partią Albanii na czele. 1 kwietnia 2009 Albania dołączyła do państw członkowskich NATO. Jest kandydatem do Unii Europejskiej, do której akcesję popiera 96% obywateli. Demografia Liczba mieszkańców Albanii zmalała po 1998 roku o ponad ćwierć miliona wskutek emigracji do Włoch i Grecji. Przyrost naturalny, niegdyś najwyższy w Europie (w latach 1960–1985 w granicach 2,5–3%), stopniał do 0,8% w 2003 roku. Mieszkańcy Albanii mają wysoki oczekiwany wiek życia – 77,43 lat, przy tym są stosunkowo młodym społeczeństwem ze średnią wieku 28,9 lat. Poza granicami kraju żyje blisko 2 mln Albańczyków, z czego 1,3 mln w Kosowie, ponad 200 tys. w Grecji i przeszło 170 tys. we Włoszech. W rzeczywistości od 1989 roku nie przeprowadzono w Albanii spisu powszechnego, w którym obywatele mogliby swobodnie deklarować swą narodowość. Wśród mniejszości zamieszkujących Albanię należy wymienić Greków, zrzeszonych od 1991 roku w organizacji Omonia, zamieszkujących głównie południową część kraju, Macedończyków zrzeszonych w 4 towarzystwach: MIR, Gora, Med i Prespa, reprezentowanych przez partię polityczną „Macedońska Partia na rzecz Integracji Europejskiej Albanii". Macedończycy zamieszkują południową i wschodnią Albanię, regiony Mala Prespa i Golo Brdo oraz duże miasta, takie jak Elbasan i Tirana. Ponadto Albanię zamieszkuje pewna liczba Włochów, Romów i Czarnogórców. W 2016 roku Albania liczyła 2 904 000 mieszkańców. Procent narodowości wyglądał następująco: Albańczycy – 89,4% Macedończycy – 4,8% Gorani – 1,2% Grecy – 0,96% Włosi – 0,27% Arumuni – 0,25% Romowie – 0,25% pozostali – 2,87% Średnia gęstość zaludnienia to 131 osób/km², ale w okolicach Tirany przeszło 3 razy większa, podobnie na wybrzeżu koło Durrës. Obszary górskie na wschodzie są bardzo słabo zaludnione. Współczynnik urbanizacji jest dość niski – 45%. Do największych miast Albanii (według liczby ludności w 2007) zaliczają się: stolica Tirana – 386,03 tys.; Durrës – 126,25 tys.; Elbasan – 103,60 tys.; Wlora – 91,71 tys. i Szkodra – 89,44 tys. Albania dzieli się etnicznie na dwie części: północ zamieszkują Gegowie, a południe Toskowie, posługujący się odmiennymi dialektami. Granica między obiema grupami etnicznymi przebiega w pobliżu Tirany, a literacki język albański oparty jest na dialekcie południowym. Języki: albański (oficjalny), grecki, arumuński, romski, języki słowiańskie. Liczba osób przypadających na 1 lekarza: 552. Liczba osób przypadających na łóżko szpitalne: 333. Na 1000 osób: 308 telefonów; 48 użytkowników Internetu. Religia islam – 60,31% chrześcijaństwo – 30,5% prawosławie – 17% katolicyzm – 13,1% protestantyzm i niezależne kościoły – 0,7% brak religii – 7% bektaszijja – 2,09% Świadkowie Jehowy – 0,16% bahaizm – 0,14% judaizm – 0,01% Źródło: „Operation World”, 2010. Podział administracyjny Albania jest podzielona na 12 obwodów (alb. l.poj. lub , l.mn. ) oraz 61 gmin (alb. l.poj. , l.mn. ). Gospodarka Do końca lat 80. XX wieku gospodarka była centralnie planowana. Obecnie Albania to kraj rozwijający się o gospodarce rynkowej. W latach 2000–2004 gospodarka Albanii rozwijała się w tempie 6–7%, przy czym znamienny był duży udział inwestycji zagranicznych. Obecnie tempo wzrostu PKB wynosi 2,56% (dane szacunkowe za 2015). Niemal połowa produktu krajowego brutto wytwarzana jest w szarej strefie. 14,3% mieszkańców kraju żyje poniżej granicy ubóstwa (dane szacunkowe za 2012). Znaczne bogactwa mineralne Albanii pozwalają na rozwój górnictwa, wydobywa się między innymi: rudy chromu – 91 tys. ton, miedzi, żelaza i niklu oraz ropy naftowej – 300 tys. ton, gazu ziemnego, węgla i boksytów. Nad jeziorem Prespa są jedne z największych w świecie złóż naturalnego asfaltu. Produkcja energii elektrycznej (głównie w elektrowniach wodnych) wynosiła w 2004 roku 4,3 TWh. Koło Durrësu pracuje duża cementownia, liczne są zakłady metalowe, elektrotechniczne, włókiennicze i przetwórstwa płodów rolnych. Albania jest znaczącym producentem wyrobów tytoniowych. Rozwinięte są również uprawa zbóż, w tym kukurydzy – 197 tys. ton, pszenicy 295 tys. ton, słoneczników, tytoniu – 5 tys. ton, buraków cukrowych, drzew owocowych, oliwek – 27 tys. ton i winorośli – 83 tys. ton. oraz hodowla bydła, kóz i owiec – 1,85 mln (produkcja wełny 3,8 tys. ton). Bilans handlowy, bez względu na wpłaty Albańczyków pracujących za granicą i pomoc z zewnątrz, jest bardzo niekorzystny. Głównymi partnerami handlowymi pod względem eksportu są (stan na 2015): Włochy, Kosowo, USA, Chiny, Grecja i Hiszpania, a pod względem importu (stan na 2015): Włochy, Chiny, Grecja, Turcja i Niemcy. Transport Mimo znacznych inwestycji transport drogowy i kolejowy jest słabo rozwinięty. Z 16,8 tys. km dróg tylko 40% spełnia europejskie standardy. Motoryzacja jest w fazie początkowej. W 2002 roku w Albanii było 190 tys. samochodów osobowych, co dało 59 pojazdów na 1000 mieszkańców. Głównym portem morskim jest Durrës, a lotniczym port lotniczy Rinas w Tiranie. Sieć kolejowa jest uboga, jej całkowita długość wynosi 447 km i składa się z linii biegnących na wschód do Pogradec, na południe do Wlory i północ do Szkodry z odgałęzieniem do Tirany. Emisja gazów cieplarnianych Emisja równoważnika dwutlenku węgla z Albanii wyniosła w 1990 roku 10,869 Mt, z czego 6,583 Mt stanowił dwutlenek węgla. W przeliczeniu na mieszkańca emisja wyniosła wówczas 2,006 t dwutlenku węgla, a w przeliczeniu na 1000 dolarów PKB 449 kg. Głównym źródłem emisji było wówczas spalanie przemysłowe inne niż energetyka i emisja z budynków. Następnie emisje gwałtownie spadły i w latach 90. wahały się, a następnie rosły, nie osiągając jednak poziomu z roku 1990. W 2018 emisja dwutlenku węgla pochodzenia kopalnego wyniosła 4,802 Mt, a w przeliczeniu na mieszkańca 1,637 t i w przeliczeniu na 1000 dolarów PKB 136 kg. W tym czasie wzrósł udział emisji z transportu, w XXI w. stając się głównym komponentem, a emisje z energetyki nadal spadały. Po spadku emisji dwutlenku węgla na początku lat 90., emisje metanu stały się dominującą frakcją aż do ponownego wzrostu emisji dwutlenku węgla na przełomie XX i XXI w. Na dalszych miejscach są emisje podtlenku azotu i gazów fluorowanych. Turystyka Po długotrwałej izolacji Albania koncentruje się na rozwoju turystyki międzynarodowej, głównie na wybrzeżu Riwiery Albańskiej. W 2016 roku kraj ten odwiedziło 4,070 mln turystów (7,5% więcej niż w roku poprzednim), generując dla niego przychody na poziomie 1,691 mld dolarów. Morze Jońskie, klify, żwirowe plaże, wysokie góry – to najchętniej odwiedzane atrakcje tego kraju. Kuchnia albańska Kuchnia Albanii swymi walorami przypomina kuchnie innych krajów bałkańskich, wzbogacone przez wpływy tureckie. Jedną z najpopularniejszych potraw jest qofte, przyrządzane z mięsa siekanego lub mielonego, przypominające ćevapčići. Innymi potrawami chętnie jadanymi przez Albańczyków są: mięso pieczone (mish i përzier), ziemniaki (patate) z jarzynami (najczęściej są to pomidory i cebula) z dodatkiem oliwy, różne gatunki sera (djathë) – do najbardziej popularnych należą djathë i bardhe podobny do greckiego sera feta i kaçkaval – twardy ser żółty, oriz më tamel – czyli pudding ryżowy na owczym mleku, jogurt (kos). Narodowym albańskim trunkiem jest rakija, którą wyrabia się najczęściej z winogron oraz z innych owoców. Popularne w Albanii jest także picie młodego wina (jest ono podawane do prawie każdego posiłku). Zobacz też ustrój polityczny Albanii władcy Albanii Albania Wenecka Albania Kaukaska Lista albańskich filmów Uwagi Przypisy Bibliografia Tadeusz Czekalski: Albania w latach 1920–1924. Katowice. Wydawnictwo Śląska Agencja Prasowa, 1998. Tadeusz Czekalski: Albania. Warszawa. Wydawnictwo Trio, 2003. Waldemar Dziak: Albania między Belgradem, Moskwą i Pekinem. Warszawa. Wydawnictwo ISP PAN, 1991. Robert Elsie: Zarys historii literatury albańskiej. Toruń. Wydawnictwo Uniwersytetu Mikołaja Kopernika, 2004. Jan Grzegorzewski: Albania i Albańczycy. Lwów. Druk. Wł. Łozińskiego, 1914. Adam Koseski: Albania. Warszawa. Wydawnictwo Książka i Wiedza, 1988. Beata Kozerska, Radosława Olewicz, Robert Sendek: Bałkany. Kraków. Wydawnictwo Bezdroża, 2007. Fatos Lubonja: Albania – wolność zagrożona: przekład z jęz. alb., opracowanie i wybór z udziałem autora Dorota Horodyska. Sejny. Wydawnictwo Pogranicze, 2005. Linki zewnętrzne albania.al – Oficjalna strona dla turystów w Albanii kierunekalbania.pl – Polska strona o Albanii Brate.com - darmowy przewodnik po Albanii z mapą Oficjalni kandydaci do Unii Europejskiej Państwa należące do NATO Członkowie Organizacji Narodów Zjednoczonych Państwa w Europie Południowej
60
https://pl.wikipedia.org/wiki/Austria
Austria
Austria (, ), Republika Austrii (niem. , ) – państwo śródlądowe położone w Europie Środkowej, federacja dziewięciu krajów związkowych ze stolicą w Wiedniu. Od 1995 Austria należy do Unii Europejskiej. Pochodzenie nazwy W języku niemieckim Österreich ze starowysokoniemieckiego ôstarrîhhi, znaczącego „państwo na wschodzie”. W IX wieku terytorium było wschodnią częścią imperium Franków, a także wschodnimi rubieżami osadnictwa niemieckiego na terenach Słowian. Za czasów Karola Wielkiego i w czasie wczesnego średniowiecza tereny te nazywano marchia orientalis (Marchia Wschodnia), co w lokalnym języku przyjęto jako właśnie ôstarrîhhi. To słowo po raz pierwszy pojawia się na dokumencie z 996 roku. Nazwy Ostmark (Marchia Wschodnia) używały hitlerowskie Niemcy po aneksji Austrii. Po arabsku Nimsa: przypuszczalnie od słowiańskiego określenia Niemiec, poprzez język turecki. Po czesku Rakousko: pochodzi od granicznego zamku Raabs an der Thaya, leżącego w Dolnej Austrii, a w języku czeskim noszącego właśnie nazwę Hrad Rakous. Stąd określenie przeszło do języków słowackiego (Rakúsko) i dawnego polskiego (Rakusy). Geografia Powierzchnia Austrii wynosi 83 854 km². Ponad połowa kraju znajduje się w Alpach. Najwyższym szczytem jest Großglockner, sięgający 3797 m n.p.m. Na wschodzie Austrii znajduje się Kotlina Wiedeńska, a także Mała Nizina Węgierska z Jeziorem Nezyderskim. Przez Austrię przepływa Dunaj (na odcinku o długości 350 km). Regiony górskie gęsto porasta las. 24% powierzchni Austrii znajduje się pod ochroną. Zagrożonymi gatunkami są: kozice, świstaki i koziorożce. Długość całkowita granic lądowych: 2832 km Niemcy: 784 km Czechy: 632 km Włochy: 430 km Węgry: 366 km Słowenia: 330 km Szwajcaria: 164 km Słowacja: 91 km Liechtenstein: 35 km Parki narodowe Park Narodowy Jezioro Nezyderskie-Seewinkel (Burgenland) – jedyny w Europie Środkowej park założony na terenach stepowych. Na jego terenie znajduje się Jezioro Nezyderskie – typowe jezioro stepowe, wokół tereny porośnięte trzciną i sitowiem, liczne małe solanki i pasy podmokłych łąk. Przede wszystkim w okresie ptasich wędrówek, tj. wiosną i jesienią teren parku stanowi azyl dla przelatujących ptaków. Park Narodowy Wysokich Taurów (Karyntia, Salzburg) – najcenniejszy skarb Wysokich Taurów stanowią typowe alpejskie krajobrazy z turniami, lodowcami, wodospadami, dolinami, a także bogaty świat roślin i zwierząt. Tajemnice parku można zgłębiać na wiele różnych sposobów – podczas pieszych wędrówek, w ramach prelekcji ze slajdami i imprez specjalnych, np. dni dla dzieci lub dni wędrówek wysokogórskich. Park Narodowy Łęgów Naddunajskich (Dolna Austria, Wiedeń) – naddunajskie łęgi to największe tego typu tereny w Europie Środkowej. Dają schronienie blisko 300 gatunków ptactwa, w tym wielu gatunkom ginącym. Są to także tereny rekreacyjne dla mieszkańców Wiednia. Po okolicach można wędrować pieszo lub przedzierać się łodzią przez rozlewiska. Sceneria tych wypraw jest niepowtarzalna. Park Narodowy Doliny Dyi (Dolna Austria) – dolina Dyi na północy Dolnej Austrii uważana jest za jedną z najpiękniejszych austriackich dolin, zbudowanych ze skał magmowych. Spotkać tu można wiele gatunków roślinności panońskiej. Dolina Thaya to najdalej na zachód wysunięty naturalny teren występowania wielu z nich. Wcinające się w masywy skalne kręte koryta rzek, łąki pokryte kobiercami kwiatów i strome ściany skalne to charakterystyczny krajobraz doliny. Oprócz niepowtarzalnego piękna przyrody park ten, leżący częściowo na terenie Czech, fascynuje ponadto bogactwem zamków (zob. zamki w Austrii) i ruin oraz legend, krążących wokół nich. Park Narodowy Alp Wapiennych (Górna Austria) – leży w regionie Eisenwurzen i obejmuje swym zasięgiem także wyższe partie Północnych Alp Wapiennych. Na terenie parku żyją jelenie szlachetne, sarny europejskie i kozice północne, można także spotkać rzadkie już dziś gatunki płazów. Park Narodowy Gesäuse (Styria) – kraina między Admont a Hieflau przecina wijąca się rzeka Aniza, otoczona przez potężną ścianę lasu i porośnięte drzewami zbocza gór. Szlaki pieszych wędrówek przecinają imponujący krajobraz, który zachęca do wspinaczki, wycieczek raftingowych i pieszych wędrówek. Klimat Austria znajduje się pod wpływem klimatu umiarkowanego, jednak ze względu na położenie i rzeźbę występują lokalne różnice klimatyczne. Dokładnie Austria znajduje się pod wpływem trzech typów mas powietrza. Atlantyckie na północnym zachodzie, przez co klimat charakteryzuje się niskim ciśnieniem, łagodnym powietrzem z Prądu Zatokowego oraz dużymi opadami. Ma duży wpływ na północne stoki Alp, Prealpy oraz dolinę Dunaju. Kontynentalne masy powietrza powodują natomiast, że klimat charakteryzuje się niskim ciśnieniem i opadami w lecie oraz wysokim ciśnieniem i chłodnymi oraz suchymi zimami. Występuje on we wschodniej części kraju. Trzecim typem mas powietrza, są śródziemnomorskie masy, przez co klimat cechuje się wysokim ciśnieniem, małym zachmurzeniem oraz ciepłym powietrzem. Klimat ten panuje na południu kraju. W Austrii występuje piętrowość klimatyczna. Średnie temperatury stycznia wynoszą od −1 °C na nizinnych terenach, m.in. w dolinie Dunaju, do −10 °C na obszarach górskich. Wysoko w górach średnie temperatury zimą mogą być jeszcze niższe i osiągać −20 °C. Latem, gdy nad obszary kraju dostają się zwrotnikowe masy powietrza, w dolinach jest ciepło i średnie wartości osiągają +20 °C lub więcej. Rekordową temperaturę odnotowano 3 sierpnia 2013 w miejscowości Dellach im Drautal w Karyntii +39,9 °C. Ze względu na obecność gór, które zajmują znaczną część kraju, ilość opadów w Austrii jest wysoka. Najniższe wartości opadowe, czyli 500 mm rocznie, reprezentują obszary Morawskiego Pola. Na pozostałych terenach nisko położonych opady roczne wynoszą od 600 do 900 mm. Im wyżej, tym opady są wyższe, w najwyższych partiach gór opady roczne sięgają 2000 mm, głównie pod postacią śniegu. W niższych partiach gór opady przekraczają wartość 1000 mm i przez większą część roku są to opady deszczu. Skutki globalnego ocieplenia Kryzys klimatyczny wpływa na Austrię na różne sposoby. Austriacki raport oceniający zmiany klimatu 2014 (Österreichischer Sachstandsbericht Klimawandel 2014) zawiera następujące wyniki: W Austrii temperatura wzrosła o prawie 2 °C w okresie od 1880 do 2014 r. W tym samym okresie temperatura wzrosła globalnie tylko o 0,85 °C. Dotychczasowe środki podjęte przez Austrię nie pokrywają oczekiwanego wkładu kraju w osiągnięcie globalnego celu 2 °C. W XXI wieku spodziewany jest wzrost opadów w półroczu zimowym i spadek w półroczu letnim. Czas trwania pokrywy śnieżnej skrócił się w ostatnich dziesięcioleciach, szczególnie na średnich wysokościach (ok. 1000 m). Wszystkie mierzone lodowce w Austrii wyraźnie straciły powierzchnię i objętość w okresie od 1980 roku. Na przykład w południowych Alpach Ötztalskich, największym przylegającym obszarze lodowca w Austrii, powierzchnia lodowca zmniejszyła się z 144,2 km² w 1969 r. do 126,6 km² w 1997 r. i 116,1 km² w 2006 r. Osunięcia ziemi, lawiny błotne, skały i inne zjawiska grawitacyjne znacznie zwiększają się w regionach górskich. Ryzyko pożarów lasów wzrośnie w Austrii. Zaburzenia ekosystemów leśnych zwiększają intensywność i częstotliwość we wszystkich omawianych scenariuszach klimatycznych. Ekosystemy z długim okresem rozwoju i siedliska Alp powyżej linii drzew są szczególnie dotknięte zmianami klimatu. Turystyka zimowa będzie nadal pod presją ze względu na stały wzrost temperatury. Historia Na początku VIII w. p.n.e. na tereny należące obecnie do Austrii, przybyli przybysze prawdopodobnie pochodzenia iliryjskiego, którzy rozwinęli tutaj kulturę epoki żelaza (okres halsztacki). Iliryjscy przybysze ustąpili miejsca Scytom w VII w. p.n.e., zaś Scytowie ustąpili Celtom w IV w. p.n.e. Celtowie założyli na tych ziemiach pierwsze organizacje państwowe (największe z nich: Recja i Noricum). Pod koniec I w. p.n.e. Noricum i Recja znalazły się pod panowaniem rzymskim. W połowie I w. n.e. powstały prowincje o tych nazwach. Od VI do VIII wieku tereny obecnej Austrii zajęli osadnicy słowiańscy i bawarscy. Na początku IX w. Karol Wielki założył tu Marchię Naddunajską, zwaną później jako Ostmark (Marchia Wschodnia). Od 976 do 1246 roku marchia znalazła się we władaniu Babenbergów. W 1156 roku uzyskali oni od Fryderyka I Barbarossy tytuł książęcy. W 1192 roku do Austrii dołączono Styrię. Po wygaśnięciu dynastii Babenbergów, Czesi na krótko zajęli Austrię (1251–1276). W 1282 roku władzę w Austrii objęli Habsburgowie, którzy w 1453 roku przyjęli tytuł arcyksiążąt. W 1335 roku Austria przyłączyła do siebie Karyntię i Krainę, w 1363 roku Tyrol, w 1368 roku Bryzgowię, a w 1382 roku Triest. W wyniku układu małżeńskiego (Ferdynand I Habsburg i Anna Jagiellonka), w 1526 roku Habsburgowie objęli swoim panowaniem także Czechy, Śląsk i Węgry. W XV wieku rozpoczęły się najazdy tureckie na Austrię, które znalazły swoje apogeum podczas oblężenia Wiednia w 1683 roku. W latach 1686–1688 Habsburgowie władali całymi Węgrami. W 1713 roku ustanowiono sankcję pragmatyczną (przewidującą dziedziczenie całości monarchii przez córkę Karola VI, Marię Teresę). Podczas rządów Marii Teresy i jej syna Józefa II przeprowadzono reformy w duchu oświeconego absolutyzmu (m.in. ograniczenie uprawnień Kościoła i stanów, zniesienie poddaństwa chłopów). Część reform cofnięto w wyniku oporu mieszkańców państwa (głównie na Węgrzech). W latach 1714–1797 Habsburgowie rządzili w Belgii. Austria wzięła udział w pierwszym i trzecim rozbiorze Polski. W 1775 roku, po wojnie z Turcją, Austria zdobyła Bukowinę. Podczas wojen przeciwko rewolucyjnej Francji i Napoleonowi Austria utraciła Belgię, a w 1809 roku ziemie zagarnięte w III rozbiorze Polski. W 1804 roku Franciszek II przyjął tytuł cesarza austriackiego (jako Franciszek I). Pod presją Napoleona, zrzekł się godności cesarza rzymskiego w 1806 roku. W latach 1809–1813 monarchia pozostawała w nierównoprawnym sojuszu z Francją. Po kongresie wiedeńskim Austria odzyskała mocarstwową pozycję, uzyskując hegemonię we Włoszech, odzyskując utracone w 1809 roku tereny oraz otrzymując przewodnictwo w Związku Niemieckim. Wybuch Wiosny Ludów w 1848 roku i przeprowadzenie powstania węgierskiego zagroziło podstawom państwa. W wyniku powstania nastąpiła krótkotrwała liberalizacja. W latach 1867–1868 Austria przekształciła się w dualistyczną monarchię Austro-Węgry. Po 1867 roku sytuację wewnętrzną komplikowała trudność uzgodnienia dążeń i interesów kilkunastu narodów wchodzących w skład monarchii. Problemy wewnętrzne pogłębiał nierównomierny rozwój gospodarczy i kulturalny. Pod koniec XIX wieku duże poparcie zdobyli socjaldemokraci i ludowcy (dążący do połączenia Austrii z Niemcami Hohenzollernów). W 1907 roku przyjęto demokratyczną ordynację wyborczą. Zabicie Franciszka Ferdynanda Habsburga przez Serba Gavrilo Principa 28 czerwca 1914 roku przyczyniło się do wybuchu I wojny światowej. Austro-Węgry zostały głównym sojusznikiem Niemiec. W 1918 roku proklamowano republikę. Przegrana Austro-Węgier doprowadziła do rozpadu wielonarodowej monarchii. Na mocy traktatu pokojowego w Saint-Germain-en-Laye Austria objęła tylko rdzenne ziemie dawnego księstwa, oraz ograniczono liczebność jej armii i zabroniono połączenia z Niemcami (Anschluss). W 1920 roku uchwalono demokratyczną konstytucję. Do 1932 roku Austria borykała się z kryzysem gospodarczym. Kryzys gospodarczy, wraz z narastającymi konfliktami społecznymi i nastrojami rewolucyjnymi doprowadziły do objęcia władzy przez zwolenników tzw. austrofaszyzmu. W latach 1933–1934 rozwiązano partie lewicowe, zaś kilka lat później narzucono nową konstytucję, opartą na wzorach faszystowskich. Przywódcą austriackich faszystów byli: Engelbert Dollfuß (który zginął w zamachu w 1934) oraz Kurt Schuschnigg. Pod presją Hitlera Schuschnigg dopuścił do rządu narodowych socjalistów oraz zgodził się na przyłączenie Austrii do III Rzeszy. Anschluss został zrealizowany wraz z wkroczeniem Wehrmachtu do Austrii 12 marca 1938. Zgodnie z deklaracją moskiewską z 1943 roku, przywrócono w 1945 roku republikę demokratyczną (tzw. II republika) z 4 strefami okupacyjnymi (amerykańską, brytyjską, francuską, radziecką). W 1946 i w 1947 roku uchwalono ustawy o narodowych socjalistach, które zapoczątkowało denazyfikację. Amnestia z 1948 roku zahamowała proces denazyfikacji Austrii. W tym samym roku Austria przystąpiła do planu Marshalla. Od 1952 roku kraj gospodarczo rozwija się w szybkim tempie. Szczególną rolę w szybkim wzroście gospodarczym Austrii zapewnia tzw. partnerstwo społeczne (Sozialpartnerschaft; mechanizm współdecydowania związków pracowników i pracodawców). W październiku 1955 roku parlament uchwalił ustawę o wieczystej neutralności Austrii. W latach 1945–1966 władzę sprawowały rządy koalicyjne chadeków i socjaldemokratów (tzw. „wielka koalicja”). W latach 1966–1970 rządzili tylko chadecy, zaś w latach 1970–1983 samodzielną władze sprawowali socjaldemokraci. „Wielka koalicja” rządziła ponownie w latach 1987–1999. W 2000 chadecki polityk W. Schüssel utworzył rząd ze skrajnie prawicową Partią Wolnościową. W 1955 roku Austria została członkiem ONZ, w latach 1960–1995 należała do EFTA, zaś w 1995 roku znalazła się w UE. W 2002 roku wprowadzono do obiegu euro. Demografia 1 stycznia 2023 Austria liczyła 9 104 772 mieszkańców, w tym: Austriacy – 84,73%, Szwajcarzy – 3,44%, Serbowie – 2,33%, Turcy – 1,95%, Chorwaci – 1,26%. Pozostali stanowili 6,29% populacji, w tym: Albańczycy, Bośniacy, Polacy, Chińczycy, Pasztunowie, Słoweńcy, Czeczeni, Kurdowie, Hindusi, Arabowie i inni. Wykres liczby ludności Austrii w okresie ostatnich 140 lat (w tys. osób) Miasta Największe miasta w Austrii: Ustrój polityczny Austria posiada 10 głosów w Radzie Unii Europejskiej i 19 miejsc w Parlamencie Europejskim. W Komisji Europejskiej reprezentował ją od 1995 do 2004 r. Franz Fischler (wcześniej minister rolnictwa Austrii), od 2004 Benita Ferrero-Waldner (wcześniej minister spraw zagranicznych Austrii). Od grudnia 2021 kanclerzem Austrii jest Karl Nehammer. Funkcję prezydenta sprawuje od 2017 Alexander Van der Bellen. Ustrój Austrii reguluje konstytucja z 1 października 1920 r. Austria nie jest członkiem żadnego paktu wojskowego; narzucony jej 15 maja 1955 przez Wielką Brytanię, USA, ZSRR i Francję Traktat państwowy w sprawie odbudowy niezawisłej demokratycznej Austrii (będący traktatem mającym rangę konstytucyjną) zobowiązuje ją do zachowania „wieczystej neutralności”. W obliczu konfliktów w krajach sąsiadującej byłej Jugosławii w latach 90. XX w. odzywały się w Austrii głosy, że konstytucję kraju trzeba zmienić i przystąpić do NATO. Rząd jednak nie zdecydował się na tę zmianę i państwo nadal zachowuje militarną neutralność. Partie polityczne Po wyborach parlamentarnych 1 października 2006 r. mandaty zdobyli kandydaci socjaldemokratycznej SPÖ (68), chadeckiej ÖVP (66), Zieloni (21), prawicowe FPÖ (21) oraz BZÖ (7). 28 września 2008 r. w Austrii odbyły się przedterminowe wybory. Największe poparcie zdobyli socjaldemokraci SPÖ (29,7%) oraz chadecy ÖVP (25,6%). Sukces odniosła skrajna prawica – FPÖ (18,01%) oraz BZÖ (10,88%). Na piąte miejsce przesunęli się Zieloni Die Grünen (9,79%). W wyborach parlamentarnych 23 września 2013 r. mandaty zdobyli kandydaci socjaldemokratyczni SPÖ (52), chadeccy ÖVP (47), skrajnej prawicy FPÖ (40), zielonych (24), do parlamentu weszły także dwa nowe ugrupowania: Team Stronach (11), NEOS – Nowa Austria (9). Kanclerzem pozostał ówcześnie Werner Faymann (koalicja SPÖ i ÖVP). Podział administracyjny W skład Austrii wchodzi dziewięć krajów związkowych (). Kraje związkowe dzielą się na 79 powiatów (), te zaś na 2093 gminy (), w tym 15 miast statutarnych (). Stolica Austrii – Wiedeń – stanowi od 1986 oddzielny kraj związkowy. Gospodarka W Austrii funkcjonuje społeczna gospodarka rynkowa. Podatki stanowią 43% PKB, co jest poziomem nieco niższym niż w krajach skandynawskich. PKB per capita w 2006 roku wynosiło nominalnie 38961 dolarów, a po zmierzeniu parytetem siły nabywczej 36031 dolarów, stawiając Austrię w światowej czołówce pod tym względem. Bezrobocie w zależności od metody liczenia wynosi 4,4% albo 6,8%. Wskaźnik Giniego, czyli poziom rozpiętości w dochodach, wynosi 29 i jest jednym z najniższych na świecie. Rolnictwo rozwinęło się na 42% powierzchni kraju. W 2004 roku rolnictwo zaspokoiło 90% potrzeb państwa i przyniosło 1,5% produktu krajowego brutto. Uprawia się głównie zboża, winorośl i ziemniaki. Eksportuje się głównie nadwyżki pochodzące z przetwórstwa mleczarskiego. Głównym surowcem są rudy żelaza. Przemysł dostarczył w 2004 roku 31% PKB. 30% zatrudnionych pracuje w przemyśle. Turystyka W 2015 roku kraj ten odwiedziło 26,719 mln turystów (5,6% więcej niż w roku poprzednim), generując dla niego przychody na poziomie 18,303 mld dolarów. Transport Austria ma bardzo dobrze rozwiniętą sieć dróg komunikacyjnych. Długość dróg wynosi ok. 130 tys. km. Ważną rolę pełni autostradowa trasa tranzytowa Brenner Autobahn, prowadząca przez liczne przełęcze alpejskie do Włoch. Za korzystanie z autostrad i dróg ekspresowych trzeba płacić. Długość linii kolejowych wynosi 5600 km. Najważniejsze porty rzeczne na Dunaju znajdują się w Wiedniu i w Linzu. Głównym portem lotniczym jest Wiedeń-Schwechat. Siły zbrojne Austria zachowuje militarną neutralność i nie należy do żadnego paktu wojskowego. Austriackie siły zbrojne szkolone (Bundesheer) są wyłącznie na potrzeby obrony granic państwowych. Wojskowa doktryna kraju nawiązuje do taktyki jeża z nastroszonymi kolcami (wykorzystywany jest tu często propagandowo kształt granic państwa, nieco podobny do skulonego zwierzęcia z ryjkiem skierowanym na zachód). Nawet nazwa produkowanych w Austrii wojskowych transporterów opancerzonych – Pandur – kojarzy się historycznie z ochroną granic. Austria, z racji braku dostępu do morza, dysponuje jedynie dwoma rodzajami sił zbrojnych: siłami lądowymi oraz siłami powietrznymi. Uzbrojenie sił lądowych Austrii (2014) składało się z: 162 czołgów oraz 630 opancerzonych pojazdów bojowych. Wojska austriackie w 2014 roku liczyły 29,5 tys. żołnierzy służby czynnej oraz 27 tys. rezerwistów. Według rankingu Global Firepower (2014) austriackie siły zbrojne stanowią 36. siłę militarną na świecie, z rocznym budżetem na cele obronne w wysokości 3,2 mld dolarów (USD). Oświata W najbliższych latach Austria zamierza reformować swój system edukacji na wzór istniejącego w Skandynawii. W 2008 roku w wybranych szkołach na próbę zostały wprowadzone tamtejsze rozwiązania. Trwa również debata nad zniesieniem stosunkowo niskich opłat za studia wprowadzonych podczas ostatniej kadencji przez centroprawicową Austriacką Partię Ludową. W Austrii działa 19 uniwersytetów, z czego najważniejszą z nich jest Uniwersytet Wiedeński, założony w 1365 roku. Kultura Muzyka Dziś Austria i jej kultura w dużej mierze kojarzy się z muzyką, i to muzyką poważną. To tu urodził się i tworzył Wolfgang Amadeus Mozart, syn innego znanego kompozytora, również związanego z Austrią – Leopolda Mozarta. Tu urodzili się bracia Józef i Michael Haydn oraz Johann Strauss ojciec, syn i wnuk, Josef Strauss i Eduard Strauss. Poza nimi także Franz Schubert, Anton Bruckner, Gustav Mahler oraz Arnold Schönberg, Anton Webern, Alban Berg i inni. W samym Wiedniu żyło i tworzyło również wielu kompozytorów nie tylko związanych z cesarskim dworem. Należy tu wymienić choćby takie nazwiska jak Ludwig van Beethoven, Antonio Salieri, Christoph Willibald Gluck czy twórców operetki Ferenca Lehára i Imre Kálmána. Także wielu znanych dyrygentów również pochodzi z tego kraju. Są to przede wszystkim Herbert von Karajan, Karl Böhm, czy Erich i Carlos Kleiber. Filharmonicy Wiedeńscy to dziś jedna z najbardziej renomowanych orkiestr świata, podobnie jak Wiener Staatsoper czy Festiwal w Salzburgu, jeśli chodzi o operę. Z austriacką operą związane są zresztą jeszcze nazwiska librecistów i tu trzeba choćby wspomnieć Lorenzo Da Pontego i Pietra Metastasia. W Austrii wyróżnia się dwa typy tańców ludowych. W 2014 roku Conchita Wurst reprezentująca Austrię wygrała 59. Konkurs Piosenki Eurowizji. Architektura i malarstwo Wśród austriackich architektów i malarzy należy wymienić takie nazwiska jak: Johann Bernhard Fischer von Erlach, Otto Wagner, Adolf Loos, Hans Hollein, Ferdinand Georg Waldmüller, Rudolf von Alt, Hans Makart, Gustav Klimt, Oskar Kokoschka, Egon Schiele, Carl Moll, czy Friedensreich Hundertwasser. Literatura Z Austrią są związane nazwiska takich pisarzy, dramatopisarzy i poetów jak zdobywcy Nagrody Nobla: Elfriede Jelinek, Peter Handke i Daniel Kehlmann, a także Arthur Schnitzler, Stefan Zweig, Thomas Bernhard, Franz Kafka, Robert Musil, Georg Trakl, Franz Werfel, Franz Grillparzer, Rainer Maria Rilke, Adalbert Stifter, Karl Kraus oraz Eva Ibbotson. Inne dziedziny Wielu znanych naukowców, ekonomistów, psychologów czy filozofów także pochodziło z Austrii. Wśród przedstawicieli nauk ścisłych, przyrodniczych i technicznych światowe uznanie zdobyli: fizycy – Ludwig Boltzmann, Ernst Mach, Victor Franz Hess, Christian Andreas Doppler, Lise Meitner, Erwin Schrödinger, Wolfgang Pauli i Anton Zeilinger, matematyk – Kurt Gödel, filozofowie Ludwig Wittgenstein i Karl Popper, inżynierów mogą reprezentować Ferdinand Porsche, czy Siegfried Marcus, a biologię Gregor Mendel oraz Konrad Lorenz. Do najbardziej znanych Austriaków należy również aktor i były gubernator stanu Kalifornia – Arnold Schwarzenegger. Także psychologia jest nauką, która wiele zawdzięcza Austrii. Stąd pochodzi twórca psychoanalizy Zygmunt Freud, ale także Alfred Adler, Paul Watzlawick czy Hans Asperger, a z psychiatrów Viktor Frankl. Austriacką szkołę ekonomii reprezentują: Carl Menger, Joseph Schumpeter, Eugen von Böhm-Bawerk, Ludwig von Mises czy noblista, Friedrich August von Hayek. Religia Chociaż Austria była i jest krajem niemieckojęzycznym, nie rozwinęła się tam nigdy poza okolicami Salzburga i krajami jej podległymi, jak Czechy, silna formacja protestancka. Cesarstwo Austrii było jednym z fundamentów europejskiego katolicyzmu, jednak w XVIII wieku cesarz Józef II Habsburg skonfiskował część majątków kościelnych, przekazując je na szkolnictwo, wojsko i administrację, zakazał także pielgrzymek. W 2021 r. 55,2% obywateli Austrii zadeklarowało się jako katolicy, 8,3% jako muzułmanie, 4,9% jako wyznawcy prawosławia, 3,8% jako protestanci. Brak przynależności do jakiejkolwiek religii zadeklarowało 22,4% mieszkańców. Zobacz też austriacka odmiana języka niemieckiego kuchnia austriacka Uwagi Przypisy Linki zewnętrzne Parlament Austriacki Prezydent Austrii Rząd Austrii Przedstawicielstwo Komisji Europejskiej Austriacka Agencja Prasowa Państwa w Europie Państwa członkowskie Unii Europejskiej Członkowie Organizacji Narodów Zjednoczonych
61
https://pl.wikipedia.org/wiki/Andora
Andora
Andora, Księstwo Andory (kat. ), nazwa historyczna (tradycyjna): Doliny Andory (kat. ) – małe państwo w południowo-zachodniej Europie, bez dostępu do morza. Leży w Pirenejach, granicząc od północy z Francją, a od południa z Hiszpanią. Geografia Andora to kraj leżący w Pirenejach i całkowicie pokryty górami. Ma powierzchnię 468 km². Średnia wysokość terenu to 1996 m n.p.m. Na licznych zboczach często występują wysokogórskie łąki i lasy. Najwyższy punkt w państwie to szczyt góry Pic Alt de la Coma Pedrosa (2946 m n.p.m.), najniższym jest Riu Runer, który leży w pobliżu granicy z Hiszpanią na wysokości 840 m n.p.m. Najdłuższą rzeką jest Valira, będąca dopływem hiszpańskiej rzeki Segre. Andora dzieli się na 7 parafii (kat. ). Najważniejsze miejscowości tego kraju to: Andora – 19,6 tys. mieszk. Escaldes-Engordany – 14,0 tys. mieszk. Sant Julià de Lòria – 7,7 tys. mieszk. Encamp – 7,5 tys. mieszk. La Massana – 5,0 tys. mieszk. Santa Coloma – 3,0 tys. mieszk. Ordino – 3,0 tys. mieszk. Pas de la Casa – 2,4 tys. mieszk. W Andorze panuje klimat podzwrotnikowy śródziemnomorski. Do zasobów naturalnych kraju zalicza się żelazo, miedź, ołów, marmur i drewno. Granice Andora graniczy z dwoma państwami: Hiszpanią – 63 km (na południu, południowym wschodzie i zachodzie) Francją – 55 km (na północy, północnym wschodzie i północnym zachodzie) Historia W nagrodę za waleczność mieszkańców podczas walk z Maurami Karol Młot nadał Andorze prawa miejskie. Następnie stała się ona lennem hrabiów Urgell, aby ostatecznie w 1133 r. przejść pod władanie biskupa z La Seu d’Urgell. W XII wieku była przedmiotem sporu pomiędzy biskupami a ich francuskimi sąsiadami z północy, hrabiami z Foix. W 1278 r. udało się rozwiązać konflikt – na mocy zawartego porozumienia biskup i hrabia zostali współrządcami. Andora natomiast zobowiązała się płacić obu stronom daniny: biskupom Urgell w wysokości 460 peset rocznie, hrabiom Foix w wysokości 960 franków rocznie. W 1419 r. na wniosek ludności Andory został powołany lokalny parlament nazywany Radą Terytorialną (), nazywany również Radą Dwudziestu Czterech, który później został przekształcony w Radę Generalną (). W 1607 król Henryk IV, hrabia Foix wydał edykt, na mocy którego przekazał swe prawa do współrządzenia Andorą francuskiemu władcy. Rewolucja francuska spowodowała utratę zwierzchnictwa Francji nad Andorą – jej jedynym władcą pozostawał biskup Urgell. Determinacja lokalnej ludności doprowadziła jednak do wydania przez Napoleona I dekretu, na mocy którego zwierzchnik państwa francuskiego ponownie zarządzał Andorą wraz z biskupem. W okresie 1812–1813 Cesarstwo Francuskie zajęło Katalonię i podzieliło ją na cztery departamenty. Wówczas Andora weszła w skład jednego z nich (). W 1933 r. Francja zajęła Andorę wobec społecznych zamieszek przed wyborami. 11 lipca 1934 r. rosyjski awanturnik Boris M. Skosyriew ogłosił się Borisem I, niepodległym królem Andory, równocześnie ogłaszając wojnę przeciwko biskupowi z Urgell. 20 lipca został aresztowany przez policję hiszpańską i wydalony z Hiszpanii. W latach 1936–1940 w Andorze stacjonował francuski garnizon, aby przeciwdziałać wpływom hiszpańskiej wojny domowej. W czasie II wojny światowej Andora pozostawała neutralna. Pozostawiona w stanie pewnej izolacji Andora była niejako poza głównym nurtem europejskiej historii. W ostatnich czasach, dzięki kwitnącej turystyce oraz rozwojowi handlu, udało się jej wyjść z tej izolacji oraz gruntownie zmienić swój system polityczny w 1993 roku, gdy została członkiem ONZ. W tym samym roku w wyniku referendum powstała pierwsza konstytucja tego kraju. Etymologia nazwy Nazwa Andora wywodzi się prawdopodobnie z nawarryjskiego słowa anduriall, oznaczającego kraj pokryty zaroślami; według innych teorii jest pochodzenia baskijskiego. Legendarne pochodzenie nazwy kraju wiązane jest z wymienianym w Starym Testamencie miastem Endor, a jej upowszechnienie przypisuje się bądź Saracenom, którzy schronili się w tutejszych górach, uciekając ku północy, bądź Ludwikowi Pobożnemu, synowi Karola Wielkiego. Miał on ujrzeć w krajobrazie dolin Andory podobieństwo do doliny leżącej między górą Hermon a górą Tabor w Palestynie i nazwał nowo ujrzane terytorium Endor. Inna wersja wyprowadza nazwę państwa od hiszpańskiego „” (wysoki) i „” (złoto, żelazo). Nazwa może pochodzić od celtyckich wyrazów „” (wiatr) i „” (brama), co oznacza „brama wiatrów”. Trzecia etymologia nawiązuje do wyrazu „”, po hiszpańsku chodzić, wędrować, przemieszczać się. Demografia Jeszcze w połowie lat 70. XX w. Andora liczyła zaledwie 22 tysiące mieszkańców, niemal w całości andorskich Katalończyków. Gwałtowne przemiany gospodarcze i rozwój turystyki spowodował znaczny napływ imigrantów, którzy w 2002 roku stanowili aż 62% mieszkańców, z czego 26 tys. Hiszpanów, ponad 7 tys. Portugalczyków, 4,3 tys. Francuzów. Współcześnie (stan na 2016 rok) andorscy Katalończycy stanowią liczebną mniejszość w zestawieniu z pozostałymi grupami narodowymi razem wziętymi. Średnia gęstość zaludnienia wynosi około 150 osób na km², ale zasadnicza część ludności skupia się w dolinie rzeki Envaliry, gdzie leży stolica. Większość ludności jest wyznania rzymskokatolickiego. Główne zajęcia mieszkańców to obsługa ruchu turystycznego, handel i praca w szybko rozwijającej się bankowości. Tradycyjne zajęcia, jak rękodzielnictwo czy rolnictwo, mają obecnie bardzo małe znaczenie. Językiem urzędowym jest kataloński, jednak według danych z 2018 roku, jest on językiem ojczystym dla 35,7% Andorczyków, podczas gdy hiszpański jako język ojczysty zadeklarowało 43,2% mieszkańców. Ponadto dla 17,1% populacji językiem ojczystym był portugalski, a dla 8,9% – francuski. Liczba mieszkańców Liczba ludności w latach 1947–2016: Religia chrześcijaństwo – 90%: katolicyzm – 85% protestantyzm i niezależne kościoły – 0,3% inni chrześcijanie – 4,7% niereligijni – 7,8% islam – 0,8% inne religie – 0,5% hinduizm – 0,4% Świadkowie Jehowy – 0,21% tradycyjne religie – 0,2% Źródło: , 2010. Ustrój polityczny Zgodnie z konstytucją z 1993 r. Andora jest określona jako niezależne, demokratyczne, parlamentarne współksięstwo. Głową państwa są dwaj współksiążęta: każdy kolejny biskup katalońskiej diecezji Urgel oraz każdy kolejny prezydent Francji. Pełnią funkcje reprezentacyjne i mają prawo weta wobec międzynarodowych traktatów. Władza ustawodawcza należy do 28-osobowego parlamentu – Rady Generalnej, w którym jedna połowa posłów wybierana jest z listy krajowej, a druga z siedmiu dwumandatowych okręgów wyborczych. Władzę wykonawczą sprawuje powoływany przez parlament i stojący na czele rządu premier. Do 1992 r. obowiązywał zakaz działalności partii politycznych. Gospodarka Do lat siedemdziesiątych XX w. Andora była ubogim krajem pasterskim z dość dobrze rozwiniętym rękodzielnictwem. Działania podjęte od początku lat 90. w ciągu ćwierćwiecza zmieniły zasadniczo strukturę gospodarczo-społeczną tego minipaństwa. Do kraju napłynęło ponad 30 tys. imigrantów, zatrudnionych głównie w obsłudze żywiołowo rozwijającego się ruchu turystycznego i finansach. Aż 80% PKB stanowią wpływy z turystyki, w tym z handlu towarami, na które państwo wcale lub prawie wcale nie nakłada podatków, głównie paliwem, alkoholami i wyrobami tytoniowymi – każdego roku Andora jest odwiedzana przez 9 milionów turystów. Dzięki korzystnym prawom fiskalnym i celnym Andora ma opinię raju podatkowego, co wspomaga rozwój banków i skłania zagranicznych przedsiębiorców do zakładania tam swoich siedzib. Przemysł jest rozwinięty słabo, głównie wydobycie surowców naturalnych (ruda żelaza, ołów, marmur, granit). Rolnictwo, ze względu na brak ziemi ornej, to prawie wyłącznie hodowla owiec i bydła domowego, z czym związana jest wytwórczość odzieży, produkcja galanterii skórzanej i biżuterii oraz pamiątkarstwo. Sieć drogowa obejmuje 380 km znakomitych dróg powiązanych z siecią państw ościennych. Bilans handlowy jest wybitnie ujemny. W 2002 wyeksportowano towarów za 111 mln euro, zaś sprowadzono za 1,2 mld euro. PKB w tym samym roku wyniósł 1,3 mld euro, czyli około 20 tys. na mieszkańca. Transport Andora nie posiada transportu kolejowego ani lotniska, ale ma bardzo dobrze rozwiniętą sieć dróg i prywatnych linii autobusowych. Podróż samochodem z Barcelony do Andory zajmuje około 3 godzin. Istnieje natomiast transport powietrzny oparty głównie na śmigłowcach. Komercyjne lądowiska znajdują się m.in. w La Massana, Arinsal i Escaldes-Engordany. Kultura Muzyka W Escaldes-Engordany odbywa się co roku międzynarodowy festiwal jazzowy, na którym występowali m.in. Miles Davis, Fats Domino czy B.B. King. W 2004 roku Andora zadebiutowała w Konkursie Piosenki Eurowizji. Reprezentantką kraju została Marta Roure z piosenką , jednak odpadła w półfinale, zajmując 18. miejsce z 12 punktami (od Hiszpanii). Z Andory pochodzi progresywno deathmetalowy zespół Persefone. Sport Sportem narodowym Andory jest narciarstwo, które 29 listopada 1965 zostało uznane „sportem o znaczeniu narodowym”, jednak w ostatnich latach coraz większą popularnością cieszy się też piłka nożna. W 1971 roku założono Komitet Olimpijski Andory, który w 1975 roku został członkiem Międzynarodowego Komitetu Olimpijskiego, a rok później państwo zadebiutowało na igrzyskach olimpijskich, zarówno letnich, jak i zimowych. W Andorze zamieszkuje na stałe (wraz z żoną Sandrą Kylmäkorpi z d. Rakiej - Polką), czterokrotny mistrz świata na żużlowym długim torze tj. speedway long track - Joonas Kylmäkorpi. Turystyka W 2018 roku Andorę odwiedziło 8,33 miliona turystów, głównie z Hiszpanii i Francji. W pirenejskim państwie znajduje się jeden obiekt z listy światowego dziedzictwa UNESCO – dolina Madriu-Perafita-Claror. Andora jest także celem turystyki narciarskiej – znajdują się tam trzy ośrodki narciarskie: Grandvalira, Vallnord i Naturlandia. Łączna długość tras wynosi 318 km. W 2019 roku ma terytorium państwa znajdowało się niespełna 3 000 obiektów noclegowych, w tym 173 hotele. W Księstwie ma swoją siedzibę kilkanaście muzeów. W 2018 roku odwiedziło je łącznie 194 456 osób. Najczęściej odwiedzane były , i . Armia i nakaz posiadania broni W czasach obecnych (od reformy w 1934 roku) armia Andory to kilkunastu ochotników w kompanii reprezentacyjnej. Poza tym wszyscy mieszkańcy (przede wszystkim mężczyźni) w wieku produkcyjnym traktowani są jako rezerwiści. Obrona Księstwa Andory jest obowiązkiem Francji i Hiszpanii. Zgodnie z prawem Andory na wypadek wojny w każdym domu musi być co najmniej jeden karabin. Jeśli właściciel domu nie posiada własnej broni, policja dostarcza ją z zapasów państwowych. Uwagi Przypisy Linki zewnętrzne Oficjalna strona Andory Państwa w Europie Księstwa Kraje iberyjskie Członkowie Organizacji Narodów Zjednoczonych
62
https://pl.wikipedia.org/wiki/Aromorfoza
Aromorfoza
Aromorfoza – termin wprowadzony przez Aleksieja Siewiercowa na określenie kluczowej innowacji w rozwoju istot żywych – istotnych zmian w budowie i funkcjonowaniu organizmów, podnoszące je na wyższy poziom rozwoju ewolucyjnego, umożliwiające opanowanie nowych środowisk (w odróżnieniu od drobnych zmian przystosowawczych, dla których zaproponował termin idioadaptacja). Przykłady aromorfoz u zwierząt: struna grzbietowa u bezczaszkowców błony płodowe u owodniowców przystosowanie do lotu u ptaków łożysko u ssaków Przykłady aromorfoz u roślin: wytworzenie tkanek przewodzących powstanie nasienia powstanie łagiewki pyłkowej Przypisy Ewolucja
64
https://pl.wikipedia.org/wiki/Azot
Azot
Azot (N, ) – pierwiastek chemiczny o liczbie atomowej 7, niemetal z grupy 15 (azotowców) układu okresowego. W warunkach normalnych jest bezbarwnym, bezzapachowym gazem. Został odkryty w 1772 roku przez Daniela Rutherforda. Azot jest podstawowym składnikiem powietrza (78,09% objętości), a jego zawartość w litosferze Ziemi wynosi 50 ppm. Wchodzi w skład wielu związków, takich jak: amoniak, kwas azotowy, azotyny oraz wielu ważnych związków organicznych (kwasy nukleinowe, białka, alkaloidy i wiele innych). Stabilnymi izotopami azotu są 14N i 15N. W stanie wolnym występuje w postaci dwuatomowej cząsteczki N2. W cząsteczce te dwa atomy tego pierwiastka są połączone ze sobą wiązaniem potrójnym. Historia Czysty azot otrzymał z powietrza Daniel Rutherford, usuwając z niego tlen przez spalanie substancji w zamkniętej przestrzeni. Powstały dwutlenek węgla usunął przez absorpcję w roztworze wodorotlenku potasu. Łacińska nazwa powstała z połączenia łacińskiego nitrum (saletra) i greckiego genes (tworzący). Jako pierwszy polską nazwę – azot – zaproponował Filip Walter (1844). Używano też nazwy dusień i saletroród. Otrzymywanie Azot o wysokiej czystości można uzyskać poprzez termiczny rozkład azotynu amonu, jednak taki azot zawiera małe ilości tlenków azotu: NH4NO2 → N2↑ + 2H2O Najczystszy azot otrzymuje się przez rozkład termiczny w próżni azydku sodowego. W laboratorium można otrzymać azot w wyniku łagodnego ogrzewania mieszaniny chlorku amonu (salmiaku) i azotynu sodu: NH4Cl + NaNO2 → N2↑ + NaCl + 2H2O W przemysłowej metodzie otrzymywania azotu skrapla się powietrze, stosując odpowiednie ciśnienie i temperaturę. W tych warunkach azot i wszystkie gazy znajdujące się nad nim na skali temperatur wrzenia skraplają się i są w otrzymanej cieczy. Trzy pierwiastki znajdujące się pod azotem: neon, wodór i hel pozostają w stanie gazowym i są przekazywane do oddzielnego procesu. Następny etap to frakcjonowanie poprzez podwyższenie temperatury (lub obniżenie ciśnienia), powodujące odparowanie ciekłego azotu. Odprowadzony azot jest powtórnie skraplany, przechowywany i transportowany w tzw. naczyniach Dewara lub w formie gazowej w temperaturze otoczenia w stalowych butlach. Wybrane związki azotu Nieorganiczne: Tlenki azotu: tlenek diazotu (N2O), tlenek azotu (NO), tritlenek diazotu (N2O3), dwutlenek azotu (NO2), tetratlenek diazotu (N2O4), pentatlenek diazotu (N2O5) Związki z wodorem: amoniak, hydrazyna i azotowodór Kwasy: kwas azotowy i kwas azotawy Sole: azotany i azotyny, sole amonowe azotki Organiczne: aminy amidy Właściwości W warunkach normalnych jest bezbarwnym i bezwonnym gazem. W temperaturze skrapla się pod normalnym ciśnieniem dając również bezbarwny ciekły azot, a po dalszym schłodzeniu ,do , zestala się. Jest bierny chemicznie, co spowodowane jest bardzo wysoką energią wiązania potrójnego w cząsteczce N2, wynosi ona 945,33 ± 0,59 kJ·mol−1. Stopień dysocjacji w temperaturze 4000 K wynosi niecałe 3%. W podwyższonej temperaturze reaguje z metalami dając azotki, a także z innymi pierwiastkami, np. z wodorem tworzy amoniak, a z tlenem tlenki azotu, np.: N2 + 3H2 ⇌ 2NH3      ΔG −22,0 kcal (0 °C) N2 + O2 ⇌ 2NO      ΔG 43,2 kcal Procesy te (współcześnie zwłaszcza synteza amoniaku) wykorzystywane są przemysłowo do wiązania azotu atmosferycznego w celu produkcji licznych związków azotu. Innym wysokotemperaturowym procesem przemysłowym wiązania azotu jest reakcja azotu z karbidem prowadząca do cyjanamidu wapnia: CaC2 + N2 → CaCN2 + C Naturalnie azot wiązany jest głównie przez bakterie azotowe w brodawkach roślin motylkowych oraz w trakcie wyładowań atmosferycznych. Odmiany alotropowe W fazie stałej występuje w trzech odmianach alotropowych. Dwie pierwsze to α o regularnej strukturze krystalicznej, która w przechodzi w heksagonalną formę β. Ponadto w 2020 r. uzyskano nową, wysokociśnieniową i wysokotemperaturową odmianę alotropową, której nadano nazwę azot czarny. Powstaje on pod ciśnieniem 1,4 mln atm. i w temp. ok. (dla uzyskania takiego ciśnienia stosuje się prasę wyposażoną w diamentowe kowadła, natomiast odpowiednio wysoką temperaturę zapewnia wiązka lasera). W warunkach tych otrzymano monokryształy tej formy pierwiastka i zbadano je za pomocą synchrotronowej rentgenografii strukturalnej oraz spektroskopii Ramana. Azot czarny ma strukturę polimeryczną, analogiczną do struktury fosforu czarnego. Atomy azotu tworzą pofałdowane warstwy, w których odległości międzyatomowe wynoszą 1,34 i 1,43 Å (dla porównania, odległość między atomami diazotu wynosi 1,10 Å, natomiast wiązanie w hydrazynie ma 1,45 Å), natomiast minimalna odległość między atomami sąsiednich warstw to 2,33 Å, co wyklucza powstawanie wiązań kowalencyjnych między warstwami. Znaczenie biologiczne azotu Należy do pierwiastków o bardzo dużym znaczeniu biologicznym. Wchodzi w skład wielu biocząsteczek, takich jak aminokwasy i białka, nukleotydy i kwasy nukleinowe. Większość organizmów nie jest zdolna do przyswajania azotu pierwiastkowego, z wyjątkiem bakterii azotowych wiążących wolny azot z powietrza, żyjących swobodnie w glebie lub symbiotycznych z roślinami bobowatymi (daw. motylkowatymi) bakterii brodawkowych. Dopiero w związkach, takich jak azotany, azotyny lub sole amonowe, jest przyswajalny przez rośliny. Wpływ azotu na organizm Azot atmosferyczny : przy ciśnieniu 4 atm euforia, skłonność do śmiechu, gadulstwo spowolnienie reakcji na bodźce przy ciśnieniu 10 atm ostre zaburzenia pracy mięśni, koordynacji ruchów zawroty głowy zaburzenia świadomości przy ciśnieniu powyżej 10 atm po kilku minutach następuje utrata świadomości i śpiączka Związki azotu w pożywieniu i wodzie pitnej Ich obecność w glebie i wodzie pitnej jest jednak znikoma. Dość niebezpieczne dla środowiska jest składowanie związku azotu np. nawozów w zbiornikach z blachy ocynkowanej ze strony wewnętrznej, gdyż związki azotu wchodzą w reakcje ze związkami cynku i żelaza, a po zastosowaniu takiego nawozu powstałe związki przedostają się do wód gruntowych. Azot w glebie Azot wolny z atmosfery nie jest przyjmowany przez rośliny, ponieważ wymagają one związków, dodatkowo 99% azotu glebowego pozostaje w związkach organicznych o zbyt złożonej budowie, by mogła je przyjąć większość gatunków roślin. Azotu, który może zostać przyjęty przez roślinny wyższe, jest przeciętnie mniej niż 34 kg/ha, a azotu w związkach – około 3385 kg/ha. Ilość azotu przyjmowanego może wynieść nawet do 112,5 kg/ha. Wpływ azotu na wzrost roślin Azot jest potrzebny roślinom głównie w fazie wzrostu, ze względu na możliwość akumulacji azotu przez roślinę, przy wysokim stężeniu azotu w glebie, absorpcja tego pierwiastka jest znacznie szybsza niż wzrost rośliny. Przy niedoborze azotu rośliny rosną wolno, są słabe, bledsze oraz następuje zahamowanie kwitnienia. Kolor ten jest związany z deficytem chlorofilu, który bierze udział w procesie fotosyntezy. Skrajny niedobór azotu może powodować żółtawobrązowe zabarwienie fragmentów liści. Niedobór azotu w glebie może zostać uzupełniony przez nawożenie nawozami azotowymi lub poprzez zmianę uprawy na potrzebującą mniej azotu. Nadmiar azotu nie jest w zasadzie szkodliwy dla rośliny, gdyż rośliny mogą sobie go akumulować, jednakże nadmiar związków azotu może powodować nadmierny wzrost rośliny i brak możliwości przyjmowania innych pierwiastków niezbędnych roślinie. Groźny jest za to nadmiar azotu połączony z niedoborem fosforu, potasu lub wody. Nadmiar azotu może szkodzić jakości i wielkości plonów. Nadmiar azotu jest szkodliwy dla drzew w przypadku mrozów. Rośliny mające za dużo azotu są ciemnozielone, wyglądają aż nazbyt dorodnie. Gleba posiadająca za dużo azotu powinna być nawożona nawozami zawierającymi potas i fosfor. Objawy niedoboru azotu u zwierząt i człowieka Zaburzenie bilansu azotowego może powodować utratę masy ciała oraz obrzęki. W przypadku długotrwałego niedoboru może występować martwica lub marskość wątroby. Zastosowanie azotu Ciekły azot jest stosowany jako środek chłodzący do uzyskiwania temperatur poniżej −100 °C. W postaci gazowej azot wykorzystywany jest jako najtańsza z dostępnych atmosfer ochronnych w wielu procesach przemysłowych, a także jako gaz roboczy w niektórych układach pneumatycznych. Z azotu otrzymuje się amoniak oraz tlenki azotu wykorzystywane w produkcji kwasu azotowego, związki o dużym znaczeniu przemysłowym. Ponadto szeroko wykorzystuje się azotany, azotyny, hydrazynę, hydroksyloaminę i in. związki zawierające azot. Zobacz też ciekły azot azot ogólny Pierwiastki biofilne Uwagi Przypisy Bibliografia Pierwiastki chemiczne Alotropia
65
https://pl.wikipedia.org/wiki/Amedeo%20Avogadro
Amedeo Avogadro
Amedeo Avogadro, in. Amadeo Avogadro (ur. 9 sierpnia 1776 w Turynie, zm. 9 lipca 1856 tamże) – włoski fizyk, jeden z najważniejszych na przestrzeni wieków naukowców rozwijających atomistyczną teorię budowy materii. Życiorys Pełne jego nazwisko brzmiało: Lorenzo Romano Amedeo Carlo Avogadro hrabia di Quaregna e Cerreto, zawsze jednak podpisywał się jako Amedeo Avogadro. Pochodził z rodu o tradycjach prawniczych, członkowie jego rodziny zajmowali wysokie stanowiska w aparacie państwowym i w jurysdykcji, ojciec był prawnikiem i senatorem. Sam też, zgodnie z rodzinną tradycją ukończył studia prawnicze i rozpoczął pracę jako prawnik. Znał język francuski, angielski i niemiecki oraz literaturę grecką i łacińską. Zainteresowały go jednak nauki przyrodnicze, sam dokształcał się i rozpoczął samodzielne doświadczenia fizyczne i chemiczne. W 1806 opublikował w czasopiśmie Journal de Physique wyniki swoich doświadczeń z elektrycznością. W 1809 został profesorem filozofii naturalnej w liceum w Vercelli, w 1820 profesorem fizyki matematycznej na uniwersytecie w Turynie, jednakże w latach 1822-1834, gdy uniwersytet został zamknięty, Avogadro znów wrócił do zawodu prawnika. Był żonaty z Felicitą Mazzé, która urodziła mu 6 synów. Oprócz pracy prawniczej i naukowej brał aktywny udział również w pracach komisji do spraw edukacji, miar i wag, meteorologii. Nigdy jednak nie zabiegał o żadne zaszczyty, za życia był mało znany, po jego śmierci jedynie lakonicznie wspominano, że był domatorem, człowiekiem religijnym i spokojnym. W 1850, w wieku 74 lat przeszedł na emeryturę jako profesor Uniwersytetu w Turynie. Osiągnięcia naukowe Wynikiem jego doświadczeń było opracowanie epokowej pracy o liczbie cząsteczek, dzisiaj znanej jako prawo Avogadra. Wprowadził też pojęcia gramoatomu i gramocząsteczki, wynalazł metodę wyznaczania masy atomowej i masy cząsteczkowej. Wyniki swoich prac opublikował w tym samym czasopiśmie Journal de Physique. Wszystkie jego publikacje pozostały jednak niezauważone, dopiero 4 lata po jego śmierci inny włoski chemik Stanislao Cannizzaro na kongresie chemików niemieckich w Karlsruhe przedstawił przełomowe znaczenie prac Avogadra, które rozwiązywało poważne problemy chemików owych czasów. Jak pisał potem Lothar Meyer, po zapoznaniu się z pracami Avogadra "zniknęły wszystkie wątpliwości, a ich miejsce zajęła spokojna pewność". Opracowana przez Avogadra liczba cząsteczek w jednym molu gazu (zwana od roku 1909 liczbą Avogadra) to jedna z podstawowych stałych fizycznych. Przypisy Bibliografia Andrzej Kajetan Wróblewski, Bardzo skromny prawnik, miesięcznik „Wiedza i Życie”, nr 12/2009. Włoscy chemicy Włoscy fizycy XIX wieku Termodynamicy Ludzie upamiętnieni nazwami stałych fizycznych Ludzie urodzeni w Turynie Urodzeni w 1776 Zmarli w 1856
67
https://pl.wikipedia.org/wiki/Uwierzytelnienie
Uwierzytelnienie
Uwierzytelnienie – czynność polegająca na sprawdzeniu, stwierdzeniu i poświadczeniu, że przyrząd pomiarowy spełnia wymagania metrologiczne ustalone w przepisach, normach, zaleceniach międzynarodowych lub innych właściwych dokumentach, a jego wskazania zostały odniesione do państwowych wzorców jednostek miar i są z nimi zgodne w granicach określonych błędów pomiaru. Użycie w polskim prawodawstwie To określenie jest nieobowiązujące wraz z wejściem w życie w dniu 1 stycznia 2003 r. ustawy „Prawo o miarach” z dnia 11 maja 2001 r. W związku z ujednolicaniem przepisów przed wstąpieniem Polski do Unii Europejskiej jego funkcję przejęła w zakresie metrologii prawnej – legalizacja oraz w zakresie przewidzianym w trybie art. 15 ustawy „Prawo o miarach” z dnia 3 kwietnia 1993 – wzorcowanie. Jednak wciąż można spotkać się z tym określeniem w niektórych środowiskach. Zastosowanie Obowiązkowi uwierzytelnienia podlegały przyrządy pomiarowe określone przez Prezesa Urzędu, na wniosek lub w porozumieniu z zainteresowanym ministrem albo kierownikiem urzędu centralnego, mające znaczenie dla bezpieczeństwa życia, ochrony zdrowia i ochrony środowiska. Dowodem uwierzytelnienia było świadectwo albo cecha uwierzytelnienia. Wzory cech uwierzytelnienia określał Prezes Urzędu. Art. 15 Ustawy „Przyrządy pomiarowe nie podlegające legalizacji ani obowiązkowemu uwierzytelnieniu mogą być uwierzytelnione na wniosek zainteresowanych.” Zobacz też wzorcowanie legalizacja metrologia prawna Przypisy Linki zewnętrzne Główny Urząd Miar Metrologia
68
https://pl.wikipedia.org/wiki/Autoryzacja%20%28prawo%20prasowe%29
Autoryzacja (prawo prasowe)
Autoryzacja – wyrażenie zgody przez udzielającego informacji prasie na publiczne rozpowszechnienie swej wypowiedzi w danej formie. Potocznie: W przypadku wywiadów prasowych, autoryzacja polega na wspólnym uzgodnieniu ostatecznego tekstu wywiadu przez osobę jej udzielającą i dziennikarza, przed jego publikacją. Według polskiego prawa Art. 14a Prawa prasowego (ustawa z dnia 26 stycznia 1984 r.) reguluje kwestię autoryzacji od 12 grudnia 2017 r. Wcześniej w tym zakresie obowiązywał art. 14 ust. 2 (obecnie uchylony), który stanowił, że dziennikarz nie może odmówić osobie udzielającej informacji autoryzacji dosłownie cytowanej wypowiedzi, o ile nie była ona uprzednio publikowana. Dziennikarz nie może odmówić osobie udzielającej informacji autoryzacji dosłownie cytowanej wypowiedzi, o ile nie była ona uprzednio publikowana lub była wygłoszona publicznie. Dziennikarz informuje osobę udzielającą informacji przed jej udzieleniem o prawie do autoryzacji dosłownie cytowanej wypowiedzi. Osoba udzielająca informacji niezwłocznie po uzyskaniu od dziennikarza informacji o powyższym prawie zgłasza mu żądanie autoryzacji dosłownie cytowanej wypowiedzi. Dokonuje ona, w braku odmiennego porozumienia stron, autoryzacji dosłownie cytowanej wypowiedzi niezwłocznie, nie później jednak niż w ciągu: 6 godzin - w odniesieniu do dzienników 24 godzin - w odniesieniu do czasopism. Bieg powyższych terminów rozpoczyna się od momentu przekazania w sposób wzajemnie uzgodniony tekstu dosłownie cytowanej wypowiedzi przewidzianego do publikacji w prasie osobie udzielającej informacji lub osobie przez nią upoważnionej, tak aby osoba ta mogła się zapoznać z treścią tego tekstu. Nie stanowi autoryzacji zaproponowanie przez osobę udzielającą informacji nowych pytań, przekazanie nowych informacji lub odpowiedzi ani zmiana kolejności wypowiedzi w autoryzowanym tekście materiału przewidzianego do publikacji w prasie. W przypadku niedokonania lub odmowy dokonania autoryzacji w terminach określonych powyżej uznaje się, że dosłownie cytowana wypowiedź została autoryzowana bez zastrzeżeń. Zgodnie z art. 49b i 54c Prawa prasowego publikacja dosłownie cytowanej wypowiedzi bez umożliwienia osobie udzielającej informacji dokonania autoryzacji stanowi wykroczenie i zagrożona jest grzywną, chyba że dziennikarz publikuje wypowiedź identyczną z udzieloną przez osobę udzielającą informacji. W praktyce Dziennikarz ma obowiązek przekazania wypowiedzi rozmówcy do autoryzacji, jeżeli ten wyraźnie sobie tego zażyczy. Praktyka dziennikarska jest taka, że jeśli rozmówca tego zastrzeżenia nie poczyni, domniemywa się, iż autoryzacji nie żąda. Poza tym, nie jest generalnie przyjęte autoryzowanie tekstów, a jedynie wywiadów i wypowiedzi cytowanych w tekstach. W innych krajach Autoryzacja jest oryginalnym tworem prawodawstwa polskiego. Oprócz Polski konstrukcja ta szczątkowo występuje także w Niemczech, gdzie przybiera postać obowiązku "pokazywania tekstu informatorowi", który to obowiązek zawarty jest jednak nie w treści ustawy, lecz w przepisach korporacji dziennikarskiej (związku zawodowego). Zagadnienia szczegółowe Autoryzacji można się zrzec – zarówno wprost przez stosowne oświadczenie woli, jak i w sposób dorozumiany. Szczególną formą zrzeczenia się autoryzacji jest zwołanie konferencji przez rzecznika prasowego. Autoryzacji podlegają tylko wypowiedzi cytowane wprost – czyli w praktyce wywiady. Do 11 grudnia 2017 r. włącznie odmowa autoryzacji teoretycznie stanowiła przestępstwo, zagrożone grzywną albo karą ograniczenia wolności. Przepis karny (art. 49 Prawa prasowego) nie był stosowany w praktyce, a sprawy dotyczące autoryzacji rozstrzygane były sporadycznie przez sądy cywilne. Sposobem obejścia przepisów nakładających na dziennikarza obowiązek autoryzacji jest przekształcenie wypowiedzi z dosłownego cytatu w mowę zależną. Krytyka Prawny obowiązek autoryzacji poddawany jest krytyce jako reliktowe i nieskuteczne rozwiązanie minionej epoki, w rzeczywistości nakierowane na umożliwienie politykom i osobom znanym blokowania publikacji wypowiedzianych przez siebie pochopnie słów. Przypisy Prawo prasowe Uwierzytelnienie
69
https://pl.wikipedia.org/wiki/Alfabet
Alfabet
Alfabet, abecadło (od stgr. nazw pierwszych liter alfabetu: alfa i beta lub z ) – najpopularniejszy system zapisywania mowy. Termin ten bywa używany w kilku znaczeniach, co jest źródłem licznych nieporozumień w dziedzinie historii i teorii pisma. Nieściśle „alfabetami” nazywa się też systemy pisma, które nimi nie są (pseudoalfabety). Nazwa „alfabet” i nazwy pokrewne Greckie pismo zostało nazywane alfabetem (skąd nazwa ta rozprzestrzeniła się też na pismo łacińskie), cyrylickie – azbuką, polskie abecadłem, ze względu na zestaw znaków (sens 2.) i porządek alfabetyczny (sens 3.) danego pisma, z wykorzystaniem nazw pierwszych liter (polskie: „a, be, ce, de”; greckie: „alpha, beta”; starocyrylickie: „az, buki”). Systemy pisma pokrewne alfabetom (sens 1.) zostały w XX wieku nazwane z wykorzystaniem tego samego mechanizmu. Pismo spółgłoskowe nazywa się abdżadem, ze względu na nazwy pierwszych czterech liter w piśmie arabskim („ 'a , b, dż, d”), będącym przedstawicielem tego typu pisma; pismo alfabetyczno-sylabiczne nazywa się abugidą ze względu na nazwy czterech pierwszych liter w piśmie etiopskim („a , bu, gi, da”), będącym przedstawicielem tego typu pisma. Pięć znaczeń alfabetu Pismo alfabetyczne Fonetyczny system pisma, w którym każdy znak (zwany literą) odpowiada zasadniczo jednemu dźwiękowi – głosce, np. alfabet łaciński. W tym rozumieniu alfabety są różne, gdy ich zasadnicze zestawy liter różnią się pomiędzy sobą, np. alfabet grecki, alfabet łaciński i alfabet cyrylicki są różne, a alfabet polski i alfabet niemiecki są tylko wariantami alfabetu łacińskiego. W tym rozumieniu określenie „alfabet” jest równoznaczne z terminem „pismo” (np. pismo łacińskie = alfabet łaciński). Pisma fonetyczne, pokrewne pismom alfabetycznym W takim rozumieniu alfabet odróżnia się zarówno od pism niefonetycznych (ideograficznych lub mieszanych), jak i od innych typów pism fonetycznych (jak abdżad, abugida i sylabariusz). Te rodzaje pism fonetycznych również bywają nazywane alfabetami, co nie jest w pełni ścisłe. W alfabetach samogłoskom i spółgłoskom odpowiadają odrębne, równorzędne i samodzielne litery (lub ich złożenia, ewentualnie złożenia liter z niesamodzielnymi i pozbawionymi odrębnej wartości znakami diakrytycznymi). W abdżadach podstawowymi znakami są tylko spółgłoski (samogłoski najczęściej są w ogóle pomijane w zapisie, a jeśli są zapisywane, to najczęściej przy pomocy lub znaków diakrytycznych). W abugidach podstawowymi znakami są sylaby zaczynające się od spółgłoski i kończące taką samą samogłoską (np. -a), zaś sylaby z inną samogłoską zapisywane są poprzez modyfikację znaku podstawowego z użyciem niesamodzielnych znaków diakrytycznych. W sylabariuszach zasadniczo każda sylaba (z taką samą spółgłoską nagłosową i z inną samogłoską wygłosową) posiada swój odrębny znak, nieanalizowany na części składowe. Pisma niealfabetyczne i niefonetyczne Alfabetem w ścisłym znaczeniu tego słowa nie jest pismo ideograficzne lub pismo złożone (np. pismo chińskie czy hieroglify) ani pismo sylabiczne (np. pismo japońskie). Dwie klasyfikacje alfabetów Według jednej klasyfikacji alfabety dzielą się na: linearne (każda następna litera w słowie zapisywana jest w jednej linii z literą poprzedzającą; jak w alfabecie łacińskim), nielinearne (samodzielne litery, składające się na jedną sylabę, układane są w grupy tworzące kwadraty, a dopiero sylaby zapisywane są w jednej linii, jedna po drugiej; jedynym żywym przykładem jest alfabet koreański, czyli hangul). Alfabety dzielą się też na dwuszeregowe i jednoszeregowe, ze względu na to, czy posiadają systemy małych i wielkich liter (alfabet łaciński, grecki, cyrylicki i ormiański) czy też tylko jeden system liter (alfabet gruziński, koreański, syryjski, koptyjski, gocki, runiczny oraz inne alfabety historyczne, dziś martwe). Alfabet narodowy Zestaw liter i uzupełniających znaków pisma, używany dla danego języka lub narodu, ułożony w tradycyjnym, ustalonym porządku. W tym rozumieniu alfabety są różne, choć stanowią warianty narodowe tego samego pisma alfabetycznego, gdy posiadają własne, odrębne znaki, np. alfabet polski różni się od alfabetu niemieckiego, gdyż (zasadniczo) nie używa liter v i q, oraz nie zawiera w ogóle liter ä, ö i ß, a za to używa liter ą, ł i ź, których pozbawiony jest alfabet niemiecki. Natomiast alfabet angielski nie różni się od poklasycznego alfabetu łacińskiego, gdyż (zasadniczo) używa tylko tych samych 26 liter. W tym znaczeniu mówi się, że alfabety to zamknięte systemy pisma – liczba występujących w nich znaków zmienia się bardzo rzadko, a zmiany (dodanie znaków, usunięcie znaków) prowadzą do powstania nowego alfabetu. Z licznymi alfabetami narodowymi mamy do czynienia przede wszystkim w przypadku pisma łacińskiego i pisma cyrylickiego (cyrylicy). Porządek alfabetyczny Tradycyjny, ustalony porządek znaków właściwy dla danego alfabetu narodowego. W tym znaczeniu np. alfabet niderlandzki, alfabet hiszpański, alfabet czeski i alfabet duński różnią się między sobą i od innych narodowych wariantów pisma łacińskiego, że w każdym z nich pewne (różne) grupy liter są traktowane jak odrębna litera i zapisywane w innym miejscu, niżby to wynikało z ogólnego porządku liter właściwego dla alfabetu łacińskiego. I tak: w hiszpańskim ll jest zapisywane po l, w czeskim ch jest zapisywane po h, w niderlandzkim (holenderskim) IJ jest traktowane jako samodzielna litera i zapisywane na równi z y, zaś w duńskim aa jest traktowane jako inny wariant zapisu å i jest ostatnią literą alfabetu. System transkrypcji mowy Mianem alfabetu określa się też różne systemy transkrypcji fonetycznej języka mówionego, niezależne od stosowanego przez dany język systemu pisma (a także od faktu, czy dany język w ogóle jest językiem pisanym, czy tylko mówionym). Najbardziej znanym systemem tego typu jest międzynarodowy alfabet fonetyczny (zw. w skrócie lub z ). Systemy kodów niebędące systemami pisma Niekiedy pojęciem alfabetu określa się też tzw. alfabet fonetyczny ICAO, choć właściwie nie jest to system pisma tylko metoda mnemotechniczna literowania i jednoznacznego przekazywania zapisu słów, skądinąd normalnie zapisywanych alfabetem łacińskim, z użyciem mnemonimów (czyli słów zaczynających się od danej litery). Słowa te są dobrane tak, aby maksymalnie się od siebie różniły, dzięki czemu łatwiej je poprawnie odebrać (zrozumieć) w sytuacji szumów lub innych zakłóceń transmisji. Takiego warunku nie spełniają tradycyjne, łacińskie nazwy liter (typu be, pe; em, en, qu itp.). Taki warunek spełniały natomiast prehistoryczne, semickie (czy – częściowo – pochodzące od nich greckie i cyrylickie) nazwy liter. Nazywały one przedmiot, którego nazwa zaczynała się od dźwięku symbolizowanego przez daną literę, a jego uproszczony rysunek stanowił literę. Było to połączenie mnemonimów z mnemogramami (rysunkami ułatwiającymi zapamiętanie) – a cały system nazywa się akronimografią – bo skraca się słowo do pierwszej głoski. Np. aleph = „wół”, więc rysunek głowy wołu oznacza literę A; beth = „dom”, więc rysunek domu oznacza literę B itp. Tzw. „alfabet fonetyczny ICAO” (zwany również jako „alfabet fonetyczny NATO”) nie jest w ogóle systemem pisma, tylko kodem informowania o sposobie zapisu (ortografii). Takie systemy kodów istnieją nie tylko w pismach alfabetycznych, ale także w pismach pokrewnych i całkiem innych (np. w alfabetyczno-sylabicznym piśmie tybetańskim; w ideograficzno-fonetycznym piśmie chińskim). Podobnie terminem „alfabet” określa się inne sposoby przekazywania słów na odległość, niebędące systemami pisma: flagowy, semaforowy, Morse’a, palcowy. Alfabety Alfabety w znaczeniu 1 Alfabety fikcyjne, stworzone dla celów literackich i pokrewnych cirth pIQaD tengwar Aurebesh simogrecki Pisma fonetyczne, niebędące właściwie alfabetami arabski – abdżad aramejski – w zależności od okresu historycznego – abdżad lub pismo mieszane (złożone), używające obok znaków fonetycznych także sumerogramów, czyli ideogramów sumeryjskich bopomofo – system transkrypcji fonetycznej języka chińskiego, nie dający się zaklasyfikować ani jako alfabet, ani jako abugida devanagari – abugida egipskie pismo hieroglificzne – raczej abdżad etiopski – abugida hebrajski – właściwie abdżad, ale stosowany do języka jidysz i ladino funkcjonuje jako alfabet starohebrajski – abdżad Alfabety w znaczeniu 2 i 3 na bazie alfabetu łacińskiego na bazie alfabetu cyrylickiego na bazie alfabetu (abdżadu) arabskiego arabski malajski (arabski) perski turecki (arabski) urdu żydowski (arabski) na bazie alfabetu (abdżadu) hebrajskiego hebrajski jidysz palestyński (hebrajski) Inne ręczny Shawa afrykański Przypisy
70
https://pl.wikipedia.org/wiki/AMP
AMP
Akronim AMP oznaczać może: Asynchronous multiprocessing – wieloprocesorowość asynchroniczna w architekturze komputera adenozyno-5′-monofosforan – organiczny związek chemiczny, jeden z nukleotydów Akademickie Mistrzostwa Polski – ogólnopolskie rozgrywki sportowe AMP – zestaw oprogramowania Apache, MySQL, PHP/Perl/Python AMP Warsaw – od Advanced Management Program Warsaw – nazwa programu dla menedżerów najwyższego szczebla prowadzonego w Polsce przez hiszpańską Wyższą Szkołę Zarządzania IESE. Australian MultiCam Pattern – nowy kamuflaż australijski oparty na MultiCam ArcelorMittal Poland – polski koncern hutniczy Accelerated Mobile Pages – zarzucony przez Google format tworzenia stron internetowych dla urządzeń przenośnych
71
https://pl.wikipedia.org/wiki/Wieloprocesorowo%C5%9B%C4%87%20asynchroniczna
Wieloprocesorowość asynchroniczna
Wieloprocesorowość asynchroniczna (, AMP) – architektura komputerowa mająca na celu zwiększenie mocy obliczeniowej komputera poprzez wykorzystanie kilku procesorów pracujących niezależnie od siebie. W architekturze asynchronicznej, która jest odmianą wieloprocesorowości asymetrycznej, poszczególne procesory nie są traktowane jednakowo. W szczególności procesory mogą pracować niezależnie od siebie, być taktowane innymi zegarami, a nawet mogą być na nich uruchamiane różne systemy operacyjne. Układy AMP wykorzystywane są w systemach czasu rzeczywistego (RTOS), które wymagają utrzymywania ścisłej kontroli nad procesorem, na którym system jest uruchomiony. Procesory w układzie AMP mogą mieć dostęp do rozłącznych zestawów urządzeń peryferyjnych. Takie rozwiązanie upraszcza projektowanie systemów, ale ogranicza maksymalną wydajność w porównaniu do architektury symetrycznej (SMP). Przykładem zastosowania architektury AMP w komputerach osobistych jest procesor Intel 80286 współpracujący z koprocesorem numerycznym 80287, który był wykorzystywany tylko do przeprowadzania obliczeń matematycznych o dużej precyzji, a taktowany był zegarem o innej częstotliwości niż procesor główny. Zobacz też ASMP SMP NUMA MPP Architektura komputerów
73
https://pl.wikipedia.org/wiki/Apla
Apla
Apla – pojęcie z zakresu poligrafii, może oznaczać: jednobarwną, nierastrowaną płaszczyznę mogąca stanowić tło np. plakatu, okładki, na którym można umieścić tekst czy ilustracje, a także wykorzystać je jako swoisty kontrast wobec innych elementów powierzchnię zadrukowaną w powyższy sposób blachę cynkową służącą jako formę do druku wypukłego ilość użytej farby drukowej W przypadku zastosowania apli o jasnych barwach, na którą będą nanoszone elementy o barwach ciemniejszych określa się ją mianem tinty. Nanoszenie apli z wykorzystaniem starszego bądź zużytego sprzętu drukarskiego może nieść ryzyko wystąpienia wad druku, takich jak nierównomierne rozłożenie koloru na arkuszu, pasy, czy powtarzające się rozjaśnienia. Przypisy Bibliografia DTP Poligrafia
74
https://pl.wikipedia.org/wiki/Asembler
Asembler
Asembler (z ) – termin informatyczny związany z programowaniem i tworzeniem kodu maszynowego dla procesorów. W języku polskim oznacza on program tworzący kod maszynowy na podstawie kodu źródłowego (tzw. asemblacja) wykonanego w niskopoziomowym języku programowania bazującym na podstawowych operacjach procesora zwanym językiem asemblera, popularnie nazywanym również asemblerem. W tym artykule język programowania nazywany będzie językiem asemblera, a program tłumaczący – asemblerem. Język asemblera Języki asemblera (zwyczajowo asemblery) to rodzina języków programowania niskiego poziomu, których jedno polecenie odpowiada zasadniczo jednemu rozkazowi procesora. Języki te powstały na bazie języków maszynowych danego procesora poprzez zastąpienie kodów operacji ich mnemonikami. Dzięki stosowaniu kilkuliterowych skrótów poleceń zrozumiałych dla człowieka pozwala to z jednej strony na tworzenie oprogramowania, z drugiej strony bezpośrednia odpowiedniość mnemoników oraz kodu maszynowego umożliwia zachowanie wysokiego stopnia kontroli programisty nad działaniem procesora. Składnia języka asemblera zależy od architektury procesora, ale i używanego asemblera, jednak zwykle autorzy asemblerów dla danego procesora trzymają się oznaczeń danych przez producenta. Pierwotnie był to podstawowy język programowania procesorów. W wyniku poszukiwania efektywniejszych metod programowania i pojawiania się kolejnych języków interpretowanych i kompilowanych języki asemblerów straciły na znaczeniu. Z tego powodu współcześnie nie korzysta się z nich do pisania całych programów na komputery osobiste. Jednak istnieją zastosowania, np. w przypadku programowania mikrokontrolerów, systemów wbudowanych, sterowników sprzętu, gdzie nadal znajdują one swoje miejsce. Korzysta się z nich także do pisania kluczowych fragmentów kodu wymagających najwyższej wydajności, wyjątkowo małych rozmiarów kodu wynikowego lub również niewielkich fragmentów systemów operacyjnych. Ekstrakod W niektórych językach asemblera występują mnemoniki, tzw. ekstrakody, którym nie odpowiadają instrukcje procesora, lecz są realizowane programowo, zwykle przez funkcje systemu operacyjnego lub biblioteczne. Perspektywa historyczna Języki asemblera i ich użycie sięgają aż do czasów wprowadzenia zapisywanych programów komputerowych. Pierwszy język asemblera został opracowany w 1947 roku przez Kathleen Booth dla ARC2 w Birkbeck, po współpracy z Johnem von Neumannem i Hermanem Goldstine’em w Instytucie Studiów Zaawansowanych w Princeton. W 1949 EDSAC posiadał asemblera nazwanego rozkazami początkowymi wykorzystującego jedno-literowe mnemoniki. SOAP był językiem asemblera dla komputera IBM 650, napisanym przez Stana Poleya w 1955. Języki asemblera eliminują znaczącą część podatnego na błędy, męczącego oraz zajmującego dużo czasu programowania pierwszej generacji, które wymagane było przy wczesnych komputerach. Uwolniły one programistów od zapamiętywania kodów numerycznych oraz ręcznego obliczania adresów. Były kiedyś powszechnie używane, jednak w latach ‘80 i ‘90 ich zastosowanie zostało wyparte przez języki wyższego poziomu, idąc z poszukiwaniem większej efektywności programowania. W dzisiejszych czasach, języki asemblera wciąż są używane do bezpośredniego manipulowania sprzętem, dostępu do specjalnych instrukcji procesora lub do zaadresowania krytycznych problemów optymalizacyjnych. Typowe zastosowania to sterowniki urządzeń, niskopoziomowe systemy wbudowane oraz systemy czasu rzeczywistego. Na przestrzeni lat, wiele programów było napisanych całkowicie w językach asemblera. Burroughs MCP (1961) był pierwszym komputerem, dla którego system operacyjny nie był osadzony wyłącznie na języku asemblera; napisany w ESPOL, z nadzbioru Algol. Również wiele aplikacji komercyjnych było napisanych w językach asemblera, w tym duża część oprogramowania typu mainframe IBM, napisanego przez duże korporacje. Ostatecznie wyparły je COBOL, FORTRAN i niektóre PL/I, jednak pewna liczba organizacji posiadała strukturę opartą na językach asemblera aż do końca lat ‘90. Większość wczesnych mikrokomputerów polegała na ręcznym kodowaniu języka asemblera, w tym większość systemów operacyjnych oraz dużych aplikacji. Było tak, ponieważ systemy te posiadały dotkliwe ograniczenia zasobów, narzuconą idiosynkratyczną pamięć i architekturę wyświetlaczy oraz dostarczały ograniczonych, niestabilnych usług systemowych. Być może ważniejszy był brak kompilatorów pierwszej-klasy dla języków wysokopoziomowych, odpowiednich do użycia w mikrokomputerach. Czynnik psychologiczny również mógł odegrać ważną rolę; pierwsza generacja programistów mikrokomputerów ciągnęła za sobą hobbystyczną postawę „majsterkowicza”. W bardziej komercyjnym spektrum do najważniejszych powodów użycia języka asemblera zaliczamy jego minimalistyczną postać, minimalną wielkość potrzebnych zasobów, szybkość oraz niezawodność. Typowe przykłady dużych programów napisanych w języku asemblera w dzisiejszych czasach to system operacyjny IBM PC DOS, kompilator Turbo Pascal oraz wczesne aplikacje, takie jak program do arkuszy kalkulacyjnych Lotus 1-2-3. Według niektórych ludzi w branży, język asemblera był najlepszym językiem komputerowym do uzyskania najwyższej wydajności z Sega Saturn, konsoli która była znana z notorycznie trudnego tworzenia gier. Gra z 1993 roku jest kolejnym tego przykładem. Był również podstawowym językiem programowania wielu popularnych komputerów domowych lat ‘80 i ‘90 (takich jak MSX, Sinclair ZX Spectrum, Commodore 64, Commodore Amiga, Atari ST). Było tak w dużej części przez to, że dialekty BASIC-a na tych systemach nie oferowały dostatecznej szybkości wykonania oraz niewystarczającego zaplecza, aby w pełni wykorzystać potencjał sprzętu na tych komputerach. Niektóre systemy mają nawet zintegrowane środowisko programistyczne (IDE) z wysoko rozwiniętymi funkcjami debugowania i macro. Bieżące użycie Od zawsze debatowano nad użytecznością i wydajnością języka asemblera w stosunku do języków wysokopoziomowych. Ma on określone zastosowania niszowe tam, gdzie jest to ważne. Asembler może być użyty do optymalizacji prędkości lub rozmiaru. W przypadku optymalizacji prędkości, używane są nowoczesne kompilatory optymalizacyjne do renderowania języków wysokiego poziomu do kodu, który może działać tak szybko, jak ręcznie napisany asembler. Pomimo kontrprzykładów, które można znaleźć, złożoność nowoczesnych procesorów i podsystemów pamięci sprawia, że efektywna optymalizacja staje się coraz trudniejsza dla kompilatorów, a także programistów montażowych. Asembler Asembler (ang. – składać) to program dokonujący tłumaczenia języka asemblera na język maszynowy, czyli tzw. asemblacji. Jest to odpowiednik kompilatora dla języków wyższych poziomów. Program tworzony w innych językach programowania niż asembler jest zwykle kompilowany do języka asemblera (w wyniku pracy kompilatora), a następnie zamieniany na kod binarny przez program asemblera. Powtarzające się często schematy programistyczne oraz wstawiane fragmenty kodu doprowadziły do powstania tzw. makroasemblerów, które rozszerzają asemblery o obsługę makr przed właściwą asemblacją, co zbliża je nieco do pierwszych wersji języka C. Przykład Do najpopularniejszych odmian języka asemblera, ze względu na popularność architektury Intela znanej pod nazwą x86-64, zaliczyć można Asembler x86-64. Do najpopularniejszych asemblerów zalicza się NASM, TASM oraz MASM, jak również FASM i GASM. Kod Przykładowe polecenia (mnemoniki) w języku Asembler x86-64 (x64): ;do rejestru RAX wpisz wartość natychmiastową 02h mov rax, 02h ;do rejestru RCX wpisz wartość z rejestru RAX mov rcx, rax ;do zmiennej o nazwie var1 wpisz wartość z rejestru RCX mov var1, rcx ;odłóż wartość z rejestru RAX na stos push rax ;zdejmij wartość ze stosu i umieść w zmiennej o nazwie var2 pop var2 ;do rejestru RBX wpisz adres napisu var3 mov rbx, offset var3 ;podmień drugi znak (bajt) w napisie na literę "a" mov byte ptr [rbx + 1], "a" Przykładowy kod dla nowoczesnego Asemblera x64 (składnia MASM): extrn ExitProcess : proc extrn MessageBoxA : proc .data ;ciąg bajtów zawierający napis szText db "Witaj, 64-bitowy świecie!", 0 .code Main proc sub rsp, 28h xor r9, r9 lea r8, szText lea rdx, szText xor rcx, rcx call MessageBoxA add rsp, 28h ;wyjście z programu sub rsp, 8h xor rcx, rcx ;kod wyjścia = 0 call ExitProcess Main endp end Budowanie kodu źródłowego do pliku EXE: ml64.exe prog1.asm /link /entry:Main /subsystem:windows /defaultlib:"kernel32.Lib" /defaultlib:"user32.Lib" Historia Za pierwowzór pierwszego asemblera uznaje się skonstruowany przez Konrada Zuse w 1945 r. układ elektromechaniczny przygotowania taśmy perforowanej z programem dla maszyny Z4 w postaci modułu , który umożliwiał wprowadzanie oraz odczyt rozkazów i adresów w sposób zrozumiały dla człowieka. Jednak za autorkę pierwszego faktycznego asemblera uznaje się Kathleen Booth. Pierwszym polskim asemblerem był PROBIN komputera XYZ z ok. 1958 r. Do pierwszych szerzej znanych w Polsce asemblerów należy PLAN, wykorzystywany w komputerach Odra, oraz MOTIS, stosowany w maszynach Mera 300. Zobacz też deasembler Grace Hopper asemblerowy język wysokiego poziomu Przypisy Bibliografia Augustyn Jacek: Asemblery: uC51, ADSP-21065L SHARC; Państwowa Wyższa Szkoła Zawodowa w Tarnowie. Instytut Politechniczny. Kraków: Wydawnictwo Instytutu Gospodarki Surowcami Mineralnymi i Energią Polskiej Akademii Nauk, 2006. . Kruk Stanisław: Asembler. Podstawy programowania w Windows, Jędrzejów: EscapeMagazine.pl, 2007. . Dawid Farbaniec Esencja wiedzy o Asemblerze x64 w błękitnej szklanej fiolce. Marańda Witold, Grzegorz Jabłoński, Mariusz Grecki: Programowanie mikroprocesorów rodziny Motorola 680x0 w języku asemblera: materiały pomocnicze do laboratorium dla kierunków studiów Elektronika i Informatyka, Politechnika Łódzka. Katedra Mikroelektroniki i Technik Informatycznych. Wyd. 2 popr. Łódź: Politechnika Łódzka. Katedra Mikroelektroniki i Technik Informatycznych, 2005. . David Salomon Assemblers and Loaders. History of Assembly Language.
76
https://pl.wikipedia.org/wiki/Alfred%20Jodl
Alfred Jodl
Alfred Jodl (ur. 10 maja 1890 w Würzburgu, zm. 16 października 1946 w Norymberdze) – niemiecki dowódca wojskowy z czasów II wojny światowej w stopniu generała pułkownika (Generaloberst), skazany na śmierć i stracony jako zbrodniarz wojenny i zbrodniarz przeciwko ludzkości. Życiorys Po ukończeniu akademii wojskowej i szkoły sztabu generalnego rozpoczął swoją karierę jako podporucznik w bawarskim pułku artylerii. W czasie I wojny światowej pełnił funkcje frontowe i sztabowe. Walczył we Francji i w Rosji, odnosząc rany. Po zakończeniu wojny nie porzucił służby w wojsku i kontynuował ją, dochodząc do coraz wyższych stanowisk. Od 1919 roku Jodl był członkiem Straży Narodowej Volkswehr. Został wcielony do Reichswehry, by w 1921 roku uzyskać awans na kapitana, a w 1931 – majora i w tym samym roku dołączyć do Sztabu Generalnego w Ministerstwie Reichswehry. W 1933 roku – po dojściu Adolfa Hitlera do władzy – Jodl został awansowany na stopień podpułkownika i odkomenderowany do armii tureckiej. W 1935 został pułkownikiem i szefem Wydziału Obrony Kraju w Urzędzie Sił Zbrojnych, podlegając bezpośrednio Ministerstwu Wojny. W 1938 roku został przeniesiony do Wiednia, by w 1939 zostać generałem majorem, a od sierpnia 1939 szefem Sztabu Dowodzenia Wehrmachtu w OKW. Od sierpnia 1939 roku był szefem oddziału operacyjnego zarządu sztabu Wehrmachtu, a następnie szefem sztabu dowodzenia w Oberkommando der Wehrmacht. Od tego momentu był głównym autorem planów militarnych III Rzeszy, oraz bliskim doradcą Hitlera. Jak ocenia Howard J. Langer kampania w Polsce dała Hitlerowi i Jodlowi szansę ścisłej współpracy. Czuli do siebie wzajemny szacunek. Jodl podziwiał Hitlera, a ten generała za jego ocenę sytuacji i charakter. Jodl stał się jednym z najbardziej zaufanych doradców Fuhrera. Jodl uniknął przetasowań w wojsku, jakiemu poddawał Adolf Hitler swych generałów wskutek porażek armii niemieckiej na wojnie. Stał się zaufanym asystentem Wilhelma Keitla, wraz z którym przebywał w bunkrze w Berlinie, gdzie Hitler wydawał ostatnie rozkazy oraz oddawał władzę w ręce Karla Dönitza. Gdy zaczęto rozważać kapitulację, Jodl został wybrany jako reprezentant III Rzeszy. 7 maja 1945 roku generaloberst Jodl – jako jeden z najwyższych oficerów niemieckich sił zbrojnych – podpisał w Reims akt bezwarunkowej kapitulacji niemieckich sił zbrojnych (reprezentował Prezydenta Rzeszy Karla Dönitza). Po aresztowaniu marszałka Wilhelma Keitla został na krótko ostatnim szefem OKW. Aresztowany przez aliantów 23 maja 1945 i postawiony przed Międzynarodowym Trybunałem Wojskowym w Norymberdze, który sądził zbrodniarzy wojennych. Oświadczył na nim, że połączone siły Polski, Anglii i Francji mogły odnieść zwycięstwo nad Niemcami już w 1939 r. Ponadto 110 dywizji francuskich i brytyjskich nie podjęło żadnych działań wobec szczupłych sił niemieckich na froncie zachodnim. Okres kampanii wrześniowej był jedynym okresem II wojny światowej, kiedy alianci mogli odnieść szybkie zwycięstwo nad Wehrmachtem, zajętym walkami w Polsce. W roku następnym, tj. 1940, główne siły Niemiec skupiły się na froncie zachodnim i zmiażdżyły siły francuskie. W 1946 r. został osądzony przez Międzynarodowy Trybunał Wojskowy w Norymberdze i uznany za winnego. Skazano go na śmierć za udział w planowaniu wojny. Został powieszony, chociaż prosił o egzekucję przez rozstrzelanie. Po kremacji jego prochy wrzucono do rzeki Izary. 28 lutego 1953 roku sąd niemiecki uznał, że działalność Jodla w czasie wojny nie wykraczała poza ramy działania operacyjnego. Ta decyzja została unieważniona przez bawarskiego ministra działającego pod naciskiem amerykańskim. Rodzina ufundowała symboliczny grobowiec Jodla (cenotaf), ustawiony na grobie jego dwóch żon, znajdującym się na niewielkim cmentarzu na wyspie Frauenchiemsee na jeziorze Chiemsee w Bawarii. Trwa spór sądowy o usunięcie informacji o generale z nagrobka. Przypisy Bibliografia Generałowie Wehrmachtu Uczestnicy I wojny światowej (Cesarstwo Niemieckie) Odznaczeni Krzyżem Rycerskim Odznaczeni Złotą Odznaką NSDAP Odznaczeni Krzyżem Żelaznym Odznaczeni Krzyżem Honorowym (III Rzesza) Odznaczeni Orderem Michała Walecznego Odznaczeni Orderem Zasługi Wojskowej (Bawaria) Zbrodniarze nazistowscy straceni przez powieszenie Niemieccy zbrodniarze wojenni w okresie II wojny światowej Ludzie urodzeni w Würzburgu Urodzeni w 1890 Zmarli w 1946
77
https://pl.wikipedia.org/wiki/Antonio%20L%C3%B3pez%20de%20Santa%20Anna
Antonio López de Santa Anna
Antonio de Padua María Severino López de Santa Anna y Pérez de Lebrón (ur. 21 lutego 1794 w Xalapa-Enríquez, zm. 21 czerwca 1876 w Meksyku) – meksykański polityk konserwatywny i wojskowy, wielokrotny prezydent Meksyku. W 1821 roku, po proklamacji „planu z Iguali”, poparł Agustina de Iturbide (1783–1824) i walczył o niepodległość Meksyku. Po uzyskaniu niepodległości przywodził czterem rebeliom (w 1823, 1828, 1832 i 1841 roku). Sprawował urząd prezydenta wielokrotnie przez różne okresy w latach: 1833–1835, 1839, 1841–1843, 1843–1844, 1846–1847 i 1853–1855. Odparł hiszpańską inwazję w 1829 roku, francuską w 1838 roku, a w 1836 roku wygrał bitwę o Alamo. Jego przegrana w bitwie pod San Jacinto umożliwiła Teksasowi zdobycie niepodległości w 1836 roku. Największą porażką Santa Anny była przegrana wojna ze Stanami Zjednoczonymi (1846–1848), kiedy to Meksyk utracił na rzecz USA ponad połowę swojego terytorium. Wielokrotnie zmuszany do emigracji lub wypędzany z kraju, powrócił do kraju na mocy amnestii w 1874 roku. Zmarł w ubóstwie i zapomnieniu. Życiorys Santa Anna urodził się 21 lutego 1794 roku w Jalapie Enriques w Veracruz. Jego rodzicami byli Antonio López de Santa Anna – niższy urzędnik hiszpańskiej administracji kolonialnej hiszpańskiej prowincji Vera Cruz i Manuela Pérez de Lebrón, a rodzina należała do klasy średniej tzw. criollo. Dzieciństwo spędził w Jalapie, Teziutlán i Veracruz. Walki o niepodległość Meksyku Swoją karierę rozpoczął w 1810 roku jako kadet w pułku piechoty armii hiszpańskiej, w której osiągnął brevet najpierw na stopień kapitana w 1820 roku a rok później na porucznika. Walczył zarówno po stronie rojalistów, jak i powstańców. Przez kilka lat pozostawał lojalny wobec Hiszpanii, walcząc z meksykańskimi bojownikami o niepodległość. W 1813 roku służył w Teksasie, gdzie walczył przeciwko meksykańskiej armii Gutiérreza (hiszp. Ejército Republicano del Norte), a za udział w bitwie pod Mediną został odznaczony za męstwo. Santa Anna był świadkiem brutalnych akcji odwetowych i masowych egzekucji przeprowadzonych z rozkazu hiszpańskiego komendanta José Joaquína de Arredondo (1776–1837), co według niektórych historyków mogło mieć wpływ na postępowanie Santa Anny później podczas rewolucji teksańskiej. W 1821 roku, po proklamacji „planu z Iguali” poparł Agustina de Iturbide (1783–1824), który pokonał Hiszpanów. W wieku 27 lat uzyskał stopień generała. W grudniu 1822 roku powodowany osobistym konfliktem z Iturbidem zwrócił się przeciwko dowódcy i ogłosił własny „plan z Casa Mata” zakładający proklamowanie republiki. W 1823 roku wziął udział w przewrocie przeciwko Iturbidemu, który został obalony. W 1827 roku został wicegubernatorem, następnie gubernatorem stanu Veracruz. Prezydentura w 1833 roku W 1828 roku wsparł Vicente Guerrero (1782–1831) w jego walce o urząd prezydenta, a później doprowadził do jego usunięcia z urzędu. Santa Anna zyskał duże uznanie za udział w walkach z Hiszpanami w 1829 roku, którzy próbowali odzyskać swoją dawną kolonię – ogłoszono go wtedy „bohaterem Tampico”. Następnie przyczynił się do obalenia Guerrero na rzecz Anastasio Bustamante (1780–1853), którego również obalił dwa lata później. Jego „mir wojskowy” pomógł mu w zdobyciu prezydentury w 1833 roku, kiedy wystąpił jako zwolennik federalizmu i przeciwnik Kościoła katolickiego. Po kilku tygodniach ustąpił z urzędu powołując się na przyczyny zdrowotne, co uwolniło go od podejmowania trudnych decyzji. Następnie do władzy doszedł Valentín Gómez Farías (1781–1858), którego prezydentura od 2 czerwca 1833 do 24 kwietnia 1834 roku była przerywana kilkokrotnie powrotami do władzy Santa Anny. Santa Anna obejmował funkcję prezydenta w 1833 roku pomiędzy 16 maja a 3 czerwca, 18 czerwca a 3 lipca oraz 27 października a 15 grudnia. Prezydentura 1834–1835 Następnie Santa Anna zaczął obwiniać Valentína Gómeza Faríasa i federalistów o stale pogarszający się stan państwa. Zwrócił się ku konserwatystom, powrócił do stolicy i przy wsparciu „planu de Cuernavaca” po raz kolejny został prezydentem kraju. Ogłosił, że Meksyk nie jest gotowy na demokrację i doprowadził do utworzenia w 1835 roku silnie scentralizowanego aparatu administracyjnego. Wygnał swojego wiceprezydenta, rozwiązał Kongres i ogłosił się dyktatorem. Rządził bez Kongresu, programu, budżetu i rządu w okresie od 24 kwietnia 1834 roku do 28 stycznia 1835 roku. W 1835 roku rozprawił się z liberałami z Zacatecas, którzy przeciwstawiali się jego autokratycznym rządom i redukcji funduszy na wojsko. Musiał jednak zawiesić urzędowanie, by podjąć walkę z rebeliantami w Teksasie a jako swojego następcę namaścił Miguela Barragána (1789–1836). Rewolucja teksańska 1835–1836 W grudniu 1835 roku Santa Anna zebrał 6-tysięczna armię i na początku 1836 roku wyruszył do Teksasu. W tym czasie Teksańczycy ogłosili swoją niepodległość i 2 marca 1836 roku proklamowali Republikę Teksasu. Meksykanie pokonali powstańców w Alamo i pod Goliad, a wszyscy jeńcy zostali straceni z rozkazu Santa Anny. Następnie armia Santa Anny udała się na wschód w kierunku rzeki San Jacinto, gdzie 21 kwietnia 1836 roku została pokonana przez wojska Sama Houstona (1793–1863). Santa Anna w ciągu 20 minut miał stracić 500 żołnierzy, podczas gdy straty Houstona wyniosły 6 żołnierzy. Santa Anna został pojmany i doprowadzony do Houstona, który wbrew głosom wymierzenia Santa Annie najwyższej kary przez powieszenie, zmusił go do podpisania traktatu pokojowego uznającego niepodległość Teksasu. Następnie Santa Anna został odesłany do Waszyngtonu, gdzie spotkał się z prezydentem Andrew Jacksonem (1767–1845) i został puszczony wolno. W 1837 roku Santa Anna powrócił do Meksyku, gdzie podczas jego nieobecności pozbawiono go urzędu, a jego miejsce zajął Busamante. Santa Anna powrócił do swojego majątku Manga de Clavo w Veracruz. Wojna francusko-meksykańska (1838) i przejęcie władzy (1839) W 1838 roku marynarka francuska próbowała zająć Veracruz w odwecie za szkody, jakie ponieśli obywatele francuscy w Meksyku. Francuzi domagali się odpowiednich reparacji. Santa Anna zwołał armię meksykańską i poprowadził do Veracruz, gdzie jedynie ostrzelał statki francuskie, które już wypływały z portu. W czasie walk stracił nogę. Dzięki temu zyskał sobie opinię „bohatera Meksyku”, co pomogło mu po raz kolejny w objęciu władzy w kraju, którą sprawował tymczasowo od marca do lipca 1839 roku, podczas gdy oficjalny prezydent był za granicą. Wkrótce został odsunięty od władzy, lecz powrócił w 1841 roku i utrzymał się do 1845 roku, kiedy to został obalony i skazany do dożywotnią banicję. Schronienie znalazł na Kubie. Wojna amerykańsko-meksykańska 1846–1848 W 1846 roku nieuregulowane sprawy granicy z Teksasem doprowadziły do wybuchu wojny ze Stanami Zjednoczonymi. Santa Anna skontaktował się wówczas z prezydentem amerykańskim Jamesem Knoxem Polkiem (1795–1849), aby ten pozwolił mu przedostać się przez amerykańską blokadę morską w celu rzekomego negocjowania warunków pokojowych. Santa Anna obiecał Amerykanom, że użyje swych wpływów, aby przekonać Meksykanów do złożenia broni. Po swoim powrocie Santa Anna przejął dowodzenie nad armią meksykańską. Jednak zamiast podjęcia „działań pokojowych” zwrócił się przeciwko Amerykanom. Armia generała Zacharego Taylora (1784–1850) – politycznego przeciwnika Polka w nadchodzących wyborach prezydenckich w 1850 roku – została pozbawiona regularnych sił, które odesłano generałowi Winfieldowi Scottowi (1786–1866) i wydawała się łatwym celem. Zimą 1846 roku Santa Anna stanął na czele 20 tys. żołnierzy i pomaszerował na spotkanie z armią Taylora, któremu jednak udało się uniknąć porażki w tym starciu i pokonać Meksykan w lutym 1847 roku w bitwie pod Buena Vista w stanie Coahuila. Ostatecznie Meksykanie zostali rozgromieni przez wojska generała Scotta pod Cerro Gordo. Santa Anna znowu musiał opuścić kraj i od 1847 roku przebywał na wygnaniu na Jamajce (1848–1850), a potem w Kolumbii (1850–1853). Dyktatura w latach 1853–1855 W 1853 roku został zaproszony do kraju przez stronnictwo konserwatystów, którzy próbowali przejąć władzę. Razem z nimi ponownie udało mu się zapanować nad Meksykiem. Rządy rozpoczął od ograniczenia wolności prasy i utworzenia komisji do znalezienia europejskiego księcia, by powierzyć mu tron Meksyku. Utworzył tajną policję, by nękać opozycję. Ustanowił przymusową rekrutację do armii, na którą silnie łożył z budżetu. Wkrótce kraj stanął na krawędzi bankructwa, a Santa Anna zmuszony był wprowadzić nowe podatki od nieruchomości, handlu i produkcji przemysłowej. Wprowadzono nawet podatki od liczby okien, drzwi i zwierząt domowych. W grudniu 1853 roku Stany Zjednoczone złożyły Santa Annie ofertę „nie do odrzucenia” zakupu części terytorium Meksyku – doliny La Mesilla (południowych ziem obecnych stanów Nowego Meksyku i Arizony). Santa Anna sprzedał ziemię o powierzchni 109 574 km² (tzw. zakup Gadsdena). Wówczas na południu Meksyku Benito Juárez (1806–1872) i Ignacio Comonfort (1812–1863) zorganizowali rewoltę – proklamując „plan ayutlański” – w wyniku której Santa Anna został obalony w 1855 roku i zmuszony po raz kolejny do opuszczenia kraju. Emigracja i powrót do Meksyku Santa Anna przebywał najpierw w Kolumbii i na wyspie Saint Thomas. Podczas pobytu w Stanach Zjednoczonych w 1863 roku zaproponował swoje usługi w obaleniu cesarza Maksymiliana I osadzonego na tronie meksykańskim przez Francuzów, jednocześnie oferował swoje doświadczenie cesarzowi, przeciwko któremu knuł spisek. Obydwie propozycje zostały odrzucone. W latach 1867–1874 mieszkał na Kubie, Dominikanie i w Nassau. Zerwał z polityką i poświęcił się pisaniu pamiętników. W 1874 roku wykorzystał ogłoszenie amnestii generalnej w kraju i wrócił do Meksyku. Dwa lata później, 21 czerwca 1876, zmarł w ubóstwie i zapomnieniu w mieście Meksyk. Został pochowany na cmentarzu Tepeyac niedaleko Villa de Guadalupe. Był dwukrotnie żonaty – z Inés Garcíą, którą poślubił w 1824 roku i z Maríą Dolores de Tosta, z którą wziął ślub kilka miesięcy po śmierci pierwszej żony w 1844 roku. Santa Anna posiadał przyciągającą osobowość oraz wybitne zdolności przywódcze. Jego ekstrawagancki styl życia, umiłowanie luksusu i żądza władzy połączone z niekompetencją w sprawach państwowych doprowadziły Meksyk na skraj upadku, a jego samego do ubóstwa i utraty poważania. Bywa nazywany „Attylą cywilizacji meksykańskiej” i „Napoleonem Zachodu”. Odznaczenia Wielki Mistrz Orderu Najświętszej Marii Panny z Guadalupe Krzyż Wielki Orderu Karola III (Hiszpania) Krzyż Kawalerski Orderu Orła Czerwonego (Prusy) Wielka Wstęga Orderu Leopolda (1855, Belgia) Uwagi Przypisy Bibliografia Linki zewnętrzne Meksykańscy generałowie Odznaczeni Orderem Guadalupe Odznaczeni Orderem Orła Czerwonego Odznaczeni Orderem Karola III Odznaczeni Orderem Leopolda (Belgia) Konserwatyści Prezydenci Meksyku Meksykanie pochodzenia hiszpańskiego Urodzeni w 1794 Zmarli w 1876 Ludzie urodzeni w Xalapa-Enríquez
78
https://pl.wikipedia.org/wiki/Armia%20Radziecka
Armia Radziecka
Armia Radziecka () – oficjalna nazwa wojsk lądowych, sił powietrznych, wojsk obrony przeciwlotniczej i wojsk rakietowych przeznaczenia strategicznego Sił Zbrojnych ZSRR (w latach 1946–1991) i WNP (1991–1992), które tworzyła razem z marynarką, wojskami pogranicznymi i wewnętrznymi. Nazwa została wprowadzona w 1946 roku (uprzednio Robotniczo-Chłopska Armia Czerwona, RKKA). Armia Radziecka w powojennej Polsce Po II wojnie światowej Naczelne Dowództwo Armii Czerwonej przeformowało dotychczasowe formacje. Na terenie Polski utworzona została tzw. PGW – Północna Grupa Wojsk dyrektywą nr 11097 z dnia 10 czerwca 1945 roku. W grupę tę przekształcono 2 Front Białoruski pod dowództwem marszałka Związku Radzieckiego Konstantego Rokossowskiego. Siedzibą dowództwa tej grupy stała się Legnica na Dolnym Śląsku, gdzie żołnierze radzieccy zajęli 1/3 miasta. Początkowo w Polsce stacjonowało ok. 300 000 żołnierzy. Ważniejszymi lokalizacjami były obok Legnicy: Świdnica, Borne Sulinowo, Przemków-Trzebień, Bagicz, Brzeg, Burzykowo (dzielnica Stargardu), Chojna, Dębica, Żagań, Wschowa, Oława, Białogard, Świnoujście. Wycofywanie wojsk radzieckich rozpoczęło się 8 kwietnia 1991 roku. PGWR liczyła wówczas w Polsce 53 tys. żołnierzy oraz 7,5 tys. pracowników cywilnych, którym towarzyszyło 40 tys. członków rodzin. Rosjanie stacjonowali w 59 garnizonach w 21 ówczesnych województwach. Zajmowali 707 km² terytorium Polski, gdzie posiadali 13 lotnisk, bazę morską, 6 poligonów i 8000 obiektów. Ostatnie oddziały radzieckie opuściły Polskę w końcu roku 1993. Symbolicznie pożegnał je prezydent Lech Wałęsa 17 września 1993 roku w rocznicę agresji ZSRR na Polskę w 1939 roku. Armia Radziecka stacjonowała w Polsce 49 lat. Armia Radziecka w innych państwach W Austrii W Austrii armia ZSRR po wojnie stacjonowała stosunkowo krótko. Została wycofana w myśl Traktatu Państwowego (Staatsvertrag) z 1955, podobnie jak wojska okupacyjne USA, Wielkiej Brytanii i Francji. Austria stawała się krajem niepodległym i neutralnym. Dzień wycofania Rosjan, 26 października, do dziś jest w Austrii świętem państwowym. W NRD W NRD znajdowały się największe siły ZSRR poza krajem. Znajdowało się tam ponad 370 tys. żołnierzy i ponad 500 głowic jądrowych. Wojska te stacjonowały w Niemczech od 1945, a w planach wojennych ZSRR miały stanowić główne siły uderzeniowe w ewentualnej wojnie w Europie Zachodniej. To głównie z NRD w 1968 zaatakowały Czechosłowację wojska radzieckie (choć wkraczały też z Polski, Węgier i samego ZSRR), wykorzystując małą odległość (z Drezna do Pragi jest tylko 150 km). Dopiero pierestrojka w ZSRR (od 1985) i pokojowa rewolucja w NRD (1989) przyniosły koniec okupacji – na mocy traktatu 2+4 (1990) doszło do zjednoczenia Niemiec, a wojska ZSRR zostały wycofane. Powstanie berlińskie i interwencja w 1953 w NRD W czerwcu 1953 doszło do robotniczego powstania w NRD (robotnicy mieli dość podwyższania norm pracy, i pogarszających się warunków życia). Powstanie zostało krwawo stłumione przez armię ZSRR i NRD-owskie oddziały Skoszarowanej Policji Ludowej (Kasernierte Volkspolizei), jako że NRD nie posiadała jeszcze armii. Tego już było za wiele nawet dla lewicowego poety, jakim był Bertold Brecht. To właśnie on ukuł wówczas sławne hasło: Jeśli naród zawiódł zaufanie rządu, niech rząd rozwiąże naród i wybierze sobie inny. Faktem jest, że mimo stłumienia powstania kierownictwo NRD przestało śrubować normy pracy do absurdu. Powstanie dowiodło, że NRD było niepopularnym państwem wśród własnych obywateli i istniało jedynie przez obecność wojsk ZSRR, gotowych siłą stłumić bunt. Dzień powstania, 17 czerwca, obchodzono w RFN jako Dzień Niemieckiej Jedności (Tag der Deutschen Einheit). Powstanie węgierskie 1956 W październiku 1956 na Węgrzech wybuchło powstanie przeciw stalinowskiej dyktaturze Matyasa Rakosiego. Powstańcy obalili pomnik Stalina, powiesili na latarniach złapanych funkcjonariuszy AVH (odpowiednik UB), manifestowali solidarność z Polską. Żądano demokratyzacji i wyjścia wojsk ZSRR z Węgier. Władzę objął komunista-reformator Imre Nagy, który w radiowym przemówieniu zapowiedział wolne wybory, wycofanie wojsk ZSRR i neutralność kraju. Doszło do negocjacji Węgry – ZSRR ws. wycofania wojsk, te jednak okazały się grą na czas ze strony sowieckiej. Z rozkazu Nikity Chruszczowa, w listopadzie doszło do zbrojnego ataku ZSRR na Budapeszt. Powstańcy węgierscy stawili opór, w wąskich uliczkach Budapesztu płonęły czołgi okupantów. Po 10 dniach Sowieci stłumili powstanie. W wyniku inwazji Węgry pozostały jednopartyjną dyktaturą, stalinowca Matyasa Rakosiego zastąpił jednak pragmatyczny János Kádár. Skutek uboczny inwazji był ten, że 200 tys. Węgrów wyemigrowało do Austrii. Kraje Europy Zachodniej nie udzieliły Węgrom pomocy. Wielka Brytania i Francja były zajęte w tym okresie inwazją na Egipt (kryzys sueski). Interwencja w 1968 – operacja „Dunaj”, stłumienie „Praskiej Wiosny” W 1968 władzę w Czechosłowacji objął umiarkowany komunista Alexander Dubček. Okazał się reformatorem, próbującym „socjalizmu z ludzką twarzą” (otwarcie granic, zniesienie cenzury, rozliczenie stalinowskich zbrodni z lat 50.) Te i inne posunięcia wzbudziły sprzeciw ZSRR i jego Sekretarza generalnego KC KPZR Leonida Breżniewa. 21 sierpnia 1968 doszło do inwazji wojsk Układu Warszawskiego (ZSRR, Polska, Węgry) na Czechosłowację, pod hasłem „obrony zdobyczy socjalizmu przed kontrrewolucją”. Inwazja była jawnym pogwałceniem prawa międzynarodowego (zakaz zbrojnej ingerencji w wewnętrzne sprawy innego państwa). Doszło do aresztowania przywódców ČSSR (Dubček, Černík, Kriegl, Smrkovský) i wywiezienia tych polityków do ZSRR. Z wojskowego punktu widzenia inwazja zakończyła się pełnym sukcesem – podobnie jak w 1938 przywódcy ČSR („Československé republiky” – Republiki Czechosłowackiej 1918-1938) rozkazali wojsku niestawianie oporu. Cała republika została więc zajęta w miarę szybko. Z propagandowego punktu widzenia inwazja była niekorzystna dla ZSRR, ukazała bowiem to państwo jako agresywne mocarstwo, naruszające suwerenność innych krajów. Społeczeństwo Czechosłowacji odniosło się do inwazji negatywnie, ok. 100 tys. osób uciekło do Austrii i NRF, wielu próbowało kampanii biernego oporu (ignorowanie wszelkich zarządzeń i apeli okupantów, bojkot ekonomiczny). Po kraju krążyły hasła: „Co Čech to muzikant, co Rus to okupant”, „Ruce máte v krvi a to není poprvé” (Ręce macie we krwi, i to nie pierwszy raz), Znásilnili jste nás, my ale rodit nebudem” („Zgwałciliście nas, ale my wam nic nie urodzimy”), „1938=1968” (aluzja do układu monachijskiego), „Ani vindru za zrádce Indru” („Zdrajca Indra niewart ani grosza” – Alois Indra był jednym z nielicznych czeskich kolaborantów), „Se Svobodou, za svobodu!” („Ze Svobodą [prezydentem ČSSR], za swobodę – [wolność]”). W następstwie inwazji doszło do przekreślenia reform Dubčeka, władzę objął posłuszny wobec ZSRR Gustáv Husák. Nastał 20-letni okres „normalizacji”, zamknięto granice, a czeskich i słowackich inteligentów poddano ścisłej kontroli. Wojska ZSRR pozostały w kraju aż do 1991. Udział Armii Radzieckiej w konfliktach po II wojnie światowej Wojna koreańska 1950–1953 W wojnie koreańskiej brali udział radzieccy piloci, którzy walczyli na MiG-ach 15 oznakowanych jako samoloty chińskie. Wśród nich byli rekordziści zestrzeleń w tej wojnie – Jiewgienij Piepielajew (23) i Nikołaj Sutiagin (21 lub 22). Fakt udziału lotników radzieckich w tej wojnie opisał m.in. generał porucznik lotnictwa G. Łobow. 18 listopada 1952 r. doszło do bezpośredniego starcia samolotów radzieckich i amerykańskich—do lotniskowca Oriskany na Morzu Japońskim od strony Władywostoku zaczęły się zbliżać 4 migi 15; zostały one przechwycone przez 4 F-86 Sabre, które bez strat własnych zestrzeliły 2 maszyny radzieckie, a 1 z pozostałych uszkodziły (pilot zmarł w szpitalu po powrocie); oficjalnie wyjaśniono to błędem nawigacyjnym radzieckich pilotów, ale prawdopodobnie miało to stanowić rozpoznanie walką skuteczności systemu obrony lotniskowców. Afganistan 1979–1989 Armia Radziecka pod koniec istnienia ZSRR W połowie lat 80. XX w. całość sił Armii Radzieckiej, poza strategicznymi siłami nuklearnymi, była podzielona i zorganizowana tak, aby móc prowadzić jednocześnie efektywnie działania zbrojne o charakterze konwencjonalnym lub z użyciem taktycznej i operacyjnej broni jądrowej na pięciu lądowych kierunkach strategicznych, które w wypadku wybuchu wojny miały stać się samodzielnymi teatrami działań wojennych (TDW). Były to: Północny TDW – obejmujący obszar Skandynawii, do którego przydzielono wojska Leningradzkiego Okręgu Wojskowego oraz Flotę Północną. Składał się on z 12 dywizji zorganizowanych w jedną armię i dwa korpusy armijne wyposażonych w 1200 czołgów, 3100 transporterów opancerzonych i BWP, 1650 systemów artyleryjskich, 125 wyrzutni rakiet przeciwlotniczych, 310 samolotów i 100 śmigłowców. Zachodni TDW – obejmował obszar Europy środkowej i miał być miejscem decydującej konfrontacji z NATO w razie ewentualnej wojny. Dlatego też był najsilniejszym obszarem wojsk radzieckich oraz wojsk Układu Warszawskiego. W jego skład wchodziły wojska zgrupowane w następujących okręgach: bałtyckim, białoruskim, przykarpackim oraz Flota Bałtycka, a także siły grupy zachodniej, centralnej i północnej wojsk Armii radzieckiej stacjonujące na terytoriach NRD, CSRS i PRL wraz z siłami zbrojnymi tych państw (m.in. Siłami Zbrojnymi PRL). W sumie obszar zachodni liczył 103 dywizje (w tym 63 radzieckie) zorganizowane w dziewiętnaście armii i dwa korpusy armijne. Ich wyposażenie stanowiło 27000 czołgów, 27750 transporterów opancerzonych i BWP, 17000 systemów artyleryjskich, 2200 wyrzutni rakiet przeciwlotniczych, 5000 samolotów i 1500 śmigłowców. Południowo-Zachodni TDW – podporządkowano mu wojska Odeskiego i Kijowskiego Okręgów Wojskowych wraz z Flotą Czarnomorską oraz siły Południowej Grup Wojsk Armii Radzieckiej stacjonującej na Węgrzech wraz z wojskami Węgier, Rumunii i Bułgarii. Potencjalny obszar ich działań to Grecja, Turcja, Jugosławia, Austria i Włochy, czyli południowa flanka NATO. W sumie liczył on 56 dywizji (w tym 29 radzieckich) zorganizowanych w jedenaście armii i dwa korpusy armijne. Ich uzbrojenie: 11250 czołgów, 11500 transporterów opancerzonych i BWP, 9850 systemów artyleryjskich, 325 wyrzutni rakiet przeciwlotniczych i około 1300 samolotów i 300 śmigłowców. Południowy TDW – składający się z wojsk Północnokaukaskiego, Zakaukaskiego, Turkiestańskiego i Środkowoazjatyckiego Okręgów Wojskowych, a także Ograniczony Kontyngent Wojsk Radzieckich w Afganistanie. Został stworzony zapewne z myślą o operacjach w rejonie Zatoki Perskiej jako przeciwwaga dla amerykańskich sił szybkiego reagowania podporządkowanych CENTCOM. W sumie liczył on 42 dywizje zorganizowanych w pięć armii i cztery korpusy armijne wyposażonych w 8000 czołgów, 11750 transporterów opancerzonych i BWP, 6900 systemów artyleryjskich, 600 wyrzutni rakiet przeciwlotniczych a jego siły lotnicze 1013 samolotów i 649 śmigłowców. Dalekowschodni TDW – obejmował wojska Dalekowschodniego, Syberyjskiego, Zabajkalskiego Okręgów Wojskowych i Flotę Pacyfiku wraz z Grupą Wojsk Radzieckich w Mongolii i wojskiem tego kraju. Jego siły lądowe były skierowane przeciwko Chinom a lotnicze i morskie głównie przeciwko Japonii i Korei Południowej oraz amerykańskim siłom stacjonującym w tych państwach, a także obecnym na pozostałym obszarze Azji Południowo-Wschodniej i Zachodniego Pacyfiku. Jego siły to 49 dywizji zorganizowanych w osiem armii i cztery korpusy armijne. Na ich uzbrojenie składało się 13500 czołgów, 15750 transporterów opancerzonych i BWP, 10300 systemów artyleryjskich, 950 wyrzutni rakiet przeciwlotniczych oraz około 2000 samolotów i 900 śmigłowców. Ponadto AR posiadała jeszcze wydzielone siły rezerwy strategicznej stacjonujące w Moskiewskim, Uralskim i Nadwołżańskim Okręgach Wojskowych, które po mobilizacji mogły być użyte na dowolnym z powyższych kierunków strategicznych. W sumie liczyły one 19 dywizji posiadających 4300 czołgów, 3000 transporterów opancerzonych i BWP, 3000 systemów artyleryjskich, 200 wyrzutni rakiet przeciwlotniczych, a także 162 samoloty i 170 śmigłowców. Nadto na Kubie stacjonowała jedna Grupa Wojsk. Ogółem Armia Radziecka liczyła w tym okresie około 5 milionów żołnierzy. Jej potencjał mobilizacyjny wystarczał na wystawienie 55 milionów rezerwistów. Zaopatrzenie materiałowe Armii Radzieckiej zapewniał kompleks wojskowo-przemysłowy ZSRR, który pochłaniał według różnych szacunków od 15% do 25% radzieckiego PKB. Tworzyło go 50 biur konstrukcyjnych, które projektowały uzbrojenie produkowane potem w około 150 dużych kompleksach zakładów zbrojeniowych. Zdolny był on opracowywać i produkować wszystkie znane kategorie uzbrojenia konwencjonalnego i jądrowego w ogromnych ilościach, z którymi nie mogły równać się osiągnięcia przemysłu zbrojeniowego żadnego innego państwa świata. Jednocześnie wytwarzano około 190 typów różnego rodzaju broni. Dla przykładu w okresie lat 1974-1985 radziecki przemysł zbrojeniowy produkował rocznie przeciętnie następujące ilości wybranych kategorii uzbrojenia: 195 rakiet ICBM 122 rakiety SLBM 80 rakiet średniego zasięgu 881 rakiet krótkiego zasięgu 972 pociski manewrujące 120 rakiet nośnych 6800 pocisków przeciwlotniczych 1200 radarów 1450 samolotów wojskowych 1000 śmigłowców 2700 czołgów 3400 bojowych wozów opancerzonych 2700 systemów artyleryjskich 54500 ciężarówek wojskowych 10 okrętów podwodnych 66 okrętów nawodnych 300 tys. ton amunicji konwencjonalnej Stanowiło to średnio 3,5 raza większą wielkość produkcji od przemysłu zbrojeniowego USA we wspomnianym okresie. Złożonym zagadnieniem pozostaje jakość produkowanego uzbrojenia. Jakość można tutaj rozpatrywać w 2 aspektach: porównanie zakładanych parametrów danego typu uzbrojenia z parametrami analogicznego uzbrojenia innych sił zbrojnych; zdolność do utrzymania tych parametrów w toku produkcji seryjnej. W pierwszym aspekcie z biegiem czasu jakość produkowanego uzbrojenia (także dzięki pracy radzieckiego wywiadu) ulegała poprawie i pod tym względem w wielu dziedzinach było ono porównywalne z systemami broni wytwarzanymi na Zachodzie. Dotyczy to szczególnie zwiększania celności rakiet balistycznych, wyciszania okrętów podwodnych, postępów w dziedzinie konstrukcji silników rakietowych i odrzutowych, wdrożenia do produkcji pocisków manewrujących, lotniczej broni precyzyjnej, naddźwiękowych rakiet przeciw okrętowych z zaawansowanymi systemami satelitarnymi wykrywania i wskazywania celów morskich, wielokanałowych systemów przeciwlotniczych i rozpoczęcia budowy dużych lotniskowców, w tym także o napędzie atomowym. Natomiast zdecydowanie gorzej było w drugim aspekcie, gdzie do końca istnienia ZSRR nie udało się rozwiązać tego problemu. W związku z tym stosowano paliatywy: dążenie do jak największej rozbudowy ilościowej wojska, aby skompensować to, że zdecydowana większość seryjnie produkowanych egzemplarzy różnych typów uzbrojenia ma parametry mniej lub bardziej ustępujące tym, jakie mieć powinny; w miarę możliwości stosowanie zaostrzonych kryteriów oznaczania parametrów teoretycznych – np. w przypadku wprowadzania nowych typów pocisków APFSDS-T za teoretyczną przebijalność przyjmowano taką grubość pancerza, który przebije co najmniej 80% egzemplarzy serii prototypowej (na Zachodzie – 50%), ponieważ wiedziano, że serie z normalnej produkcji nie osiągną parametrów serii prototypowej. Poszczególne rodzaje Sił Zbrojnych ZSRR przedstawiały się następująco: Wojska Lądowe ZSRR – zorganizowane były w 214 dywizji (52 pancerne, 154 zmechanizowane i 8 powietrznodesantowych) oraz kilkaset jednostek wsparcia szczebla armijnego, dywizyjnego i brygadowego. Na szczeblu operacyjnym dywizje te tworzyły 29 armii i 13 korpusów armijnych dyslokowanych w 16 okręgach wojskowych i pięciu grupach wojsk poza granicami ZSRR. Ich uzbrojenie składało się z następujących ilości sprzętu podstawowych kategorii: 52500 czołgów: T-54/T-55, T-62, T-64, T-72, T-80 60000 bojowych wozów piechoty i transporterów opancerzonych: BMP-1, BMP-2, BTR-50, BTR-60, BTR-70, MT-LB, BRDM-1, BRDM-2 40500 systemów artyleryjskich holowanych i samobieżnych: 2S1, 2S3, 2S4, 2S5, 2S7, BM-21, BM-22, BM-30 4500 wyrzutni rakiet przeciwlotniczych: 2K11 Krug, 2K12 Kub, 9K37 Buk, 9K33 Osa, 9K31 Strieła-1, 9K35 Strieła-10, S-300W 1500 wyrzutni taktycznych rakiet balistycznych: 9K52 Łuna-M, 9K79 Toczka, R-17 Elbrus, 9K714 Oka, TR-1 Temp 3200 wyrzutni przeciwpancernych pocisków kierowanych 9M14 Malutka, 9K111 Fagot, 9K113 Konkurs, 9K114 Szturm Siły Powietrzne ZSRR – podzielone organizacyjnie na Lotnictwo Frontowe, Lotnictwo Dalekiego Zasięgu, Lotnictwo Wojsk Obrony Powietrznej Kraju, Lotnictwo Morskie i Lotnictwo Transportowe posiadało około 10000 samolotów wojskowych i 4000 śmigłowców. Dokładnie było to: 4700 myśliwców: MiG-21, MiG-23, MiG-25, MiG-29, MiG-31, Su-15, Tu-128 3000 samolotów szturmowych, myśliwsko-bombowych i lekkich bombowców: Su-7, Su-17, MiG-27, Su-24, Su-25 920 ciężkich bombowców: Tu-16, Tu-22, Tu-22M, Tu-95 i M-4 625 samolotów wsparcia (rozpoznawcze, WRE, latające tankowce) 575 ciężkich i średnich samolotów transportowych: An-12, An-22, Ił-76 1600 śmigłowców szturmowych: Mi-24 i Mi-28 oraz Mi-8TW 2400 śmigłowców transportowych i specjalistycznych: Mi-6, Mi-8, Mi-26, Ka-25, Ka-27 Wojska Obrony Powietrznej – tworzyły ogólnokrajowy system obrony przed uderzeniami lotnictwa taktycznego i strategicznego oraz w ograniczonym stopniu przed atakiem rakietowym wroga. Oprócz własnego lotnictwa myśliwskiego uwzględnionego powyżej posiadały także na wyposażeniu: 100 wyrzutni antyrakiet systemu A-135 rozmieszczonych wokół Moskwy 1400 baz rakiet przeciwlotniczych, w których rozmieszczono 12000 wyrzutni pocisków: S-25, S-75, S-125, S-200, S-300P sieć 10000 naziemnych radarów wczesnego wykrywania, naprowadzania myśliwców i kierowania ogniem kilkaset samolotów wczesnego ostrzegania AWACS: Tu-126, A-50 Marynarka Wojenna ZSRR – składająca się z czterech flot: Północnej, Bałtyckiej, Czarnomorskiej i Pacyfiku oraz Flotylli Kaspijskiej miała na uzbrojeniu: 5 lekkich lotniskowców ZOP: 3 „Kijew”, 2 typu „Kondor” 32 krążowników: 2 „Orłan”, 4 typu „Atłant”, 4 typu „Bierkut”, 10 typu „Bierkut-A”, 7 typu „Bierkut-B”, 4 typu „Grozny”, 11 „Swierdłow”, 4 typu „Kirow” 74 niszczycieli: 4 „Sarycz”, 7 „Friegat”, 7 „Bierkut-B”, 19 „Kaszyn”, 8 „Kanin”, 4 „Kildin”, 25 „Kotlin” 32 fregat „Buriewiestnik” 217 korwet rakietowych i ZOP: 34 „Owod”, 50 „Albatros”, 45 „Pietia”, 18 „Mirka”, 35 „Ryga”, 25 „Mołnia”, 10 „Mołnia-2” 34 duże okręty desantowe typów: 2 „Nosorog”, 18 „Ropucha”, 14 „Tapir” 362 okręty podwodne, w tym 189 o okr. o napędzie atomowym Strategiczne Wojska Rakietowe ZSRR – w opisywanym okresie liczyły około 37 tys. głowic nuklearnych i dzieliły się organizacyjnie i zadaniowo na siły strategiczne, średniego zasięgu oraz taktyczne. Strategiczna triada nuklearna w 1985 roku liczyła 9797 głowic nuklearnych zainstalowanych na 2459 środkach przenoszenia. Jej zadaniem było rażenie kluczowych celów militarnych, gospodarczych i administracyjnych wroga przede wszystkim na odległościach międzykontynentalnych, czyli na terytorium USA, aczkolwiek ich część mogła być użyta do ataku na cele leżące w mniejszej odległości. Tworzyło ją wówczas: 1371 rakiet (z ang.) ICBM, w tym: 448 UR-100K/U, 60 RT-2, 150 UR-100MR, 308 R-36M, 160 UR-100N, 45 RT-2PM przenoszących razem 6813 głowic termojądrowych. 928 rakiet (z ang.) SLBM zainstalowanych na 62 okrętach (z ang.) SSBN, w tym: 336 R-27, 280 R-29, 12 R-31, 224 R-29R, 60 R-39, 16 R-29RM na których zainstalowano łącznie 2264 głowic jądrowych. 160 bombowców strategicznych: 130 Tu-95 różnych wersji i 30 M-4 przenoszących 720 bomb termojądrowych i termojądrowych pocisków manewrujących Siły jądrowe średniego zasięgu (eurostrategiczne) – stanowiły funkcjonalny odpowiednik sił strategicznych, jednak w skali kontynentu euroazjatyckiego. Dlatego też ich pierwszorzędnym celem były strategiczne obiekty w europejskich krajach NATO i na terenie ChRL. W roku 1985 składały się z 2208 głowic jądrowych zainstalowanych na 943 nosicielach, w tym: 544 rakietach średniego zasięgu: 112 R-12 i 432 RSD-10 na których rozmieszczono 1408 głowic jądrowych 399 bombowcach średnich należących do Lotnictwa Dalekiego Zasięgu: 187 Tu-16, 90 Tu-22 i 122 Tu-22M uzbrojonych w 800 jądrowych rakiet powietrze-ziemia Ch-22 i KSR-5 Taktyczne siły jądrowe – przeznaczone do użycia na polu bitwy lub na jego bezpośrednim zapleczu. Szacuje się, że w połowie lat 80 XX w. ZSRR posiadał około 25 tys. takich głowic, z których jednak duża część była nieaktywna oczekując w składach na utylizację. Głowice te instalowane były w bardzo szerokim wachlarzu broni takich, jak: bomby lotnicze, taktyczne rakiety powietrze-ziemia pociski artyleryjskie, głowice do taktycznych rakiet balistycznych, miny lądowe, jądrowe rakiety przeciwlotnicze torpedy, rakietotorpedy i miny morskie oraz rakiety przeciw okrętowe System stopni wojskowych w Armii Radzieckiej Poniżej zamieszczony system rang obowiązywał w latach 1955–1991: Uwagi Przypisy Bibliografia Wielka Ilustrowana Encyklopedia Powszechna Wydawnictwa Gutenberg Print, t. 24/2, W-wa 1997. Россия и СССР в войнах XX века потери вооруженных сил, Статистическое исследование, red. Г.Ф.Кривошеева, Москва 2001 Armia Radziecka
79
https://pl.wikipedia.org/wiki/Argon
Argon
Argon (Ar, ) – pierwiastek chemiczny będący gazem szlachetnym. Jest praktycznie niereaktywny i nie ma żadnego znaczenia biologicznego, jest także jednym ze składników powietrza. Argon wyodrębnili i zidentyfikowali Lord Rayleigh i sir William Ramsay w 1894 roku, usuwając z powietrza tlen, azot, dwutlenek węgla i parę wodną. Atomy argonu mogą zostać uwięzione w sieci innych cząsteczek tworząc klatraty, np. Ar6(H2O)46 i Ar(hydrochinon)3. W roku 2000 doniesiono o otrzymaniu pierwszego związku argonu, fluorowodorku HArF. Izotopy stabilne to 36Ar, 38Ar i 40Ar. Występujący na Ziemi argon ma wyższą masę atomową (39,948 u) niż następny po nim potas (39,0983 u). Jest to spowodowane tym, że nietrwały izotop potasu 40K przechodzi w argon (prawie cały argon na Ziemi pochodzi właśnie z tego źródła), zgodnie z reakcjami (kanałami rozpadu): (wychwyt elektronu 10,72%) (rozpad beta plus 0,001%) (rozpad beta minus 89,28%) Dominujący izotop potasu 39K jest natomiast stabilny. W atmosferze ziemskiej argon występuje w ilości 0,934% objętościowo (1,29% wagowo). Wykorzystanie Skroplenie argonu (a także jego zestalenie) zostało dokonane po raz pierwszy przez polskiego fizyka i chemika, profesora UJ w Krakowie Karola Olszewskiego w 1895 roku. Argon jest wykorzystywany do procesów chemicznych potrzebujących niereaktywnej atmosfery, jeśli nawet atmosfera azotu byłaby zbyt reaktywna. Z tego samego powodu jest jednym z podstawowych gazów (obok dwutlenku węgla) stosowanych w spawaniu w atmosferze ochronnej. Jego zaletą jako atmosfery ochronnej jest też jego większa gęstość od gęstości powietrza, dzięki czemu nie jest wypierany z nieszczelnej aparatury, lecz „ściele” się na jej dnie. Używa się go też w żarówkach, a dzięki niższej od powietrza przewodności cieplnej, podobnie jak krypton, wykorzystywany jest do wypełniania szyb zespolonych w nowoczesnych oknach. Argonem są wypełniane dyski twarde komputerów, w celu zmniejszenia zużycia talerzy i głowic czytających. W postaci mieszanin wypełnia się nim też detektory promieniowania. Od 1976 roku pod kierownictwem dr Franklina Chang-Díaz trwają badania laboratoryjne nad wykorzystaniem argonu w silniku plazmowym o zmiennym impulsie właściwym. Jony argonu Ar+ są wykorzystywane jako ośrodek czynny w laserze argonowym. Argon-41 Izotop argon-41, o okresie półrozpadu 110 minut, emitujący cząstki beta o energii 1,2 MeV i gamma (1,29 MeV), powstaje (w wyniku aktywowania neutronami termicznymi argonu-40) w dużych ilościach w reaktorach jądrowych, zwłaszcza tych chłodzonych powietrzem. Emitowany jest kominami wentylacyjnymi. Poziom jego aktywności nazywany jest aktywnością argonową. Organizmy żywe są narażone jedynie na napromieniowanie zewnętrzne, gdyż jako gaz szlachetny nie jest metabolizowany. Uwagi Przypisy Bibliografia Gazy szlachetne
80
https://pl.wikipedia.org/wiki/Akulturacja
Akulturacja
Akulturacja – termin stosowany w naukach społecznych (m.in. antropologia, etnologia, pedagogika, psychologia, socjologia) oraz naukach o zarządzaniu (m.in. zarządzanie międzykulturowe, kultura organizacji) na określenie zjawisk zachodzących na styku kultur pomiędzy ludźmi (jednostkami i grupami). Akulturacja w naukach społecznych W antropologii W antropologii akulturacja powiązana jest z takimi pojęciami jak wzór kultury, dyfuzja kulturowa. Pojęcie akulturacji - podobnie jak synkretyzm kulturowy – wynika z teorii dyfuzjonizmu. Akulturacja w antropologii to proces polegający na gwałtownym przeobrażaniu się jednej kultury pod wpływem innej kultury, a także pod wpływem zmienionych warunków społecznych i środowiskowych. W etnologii Akulturacja to ogół zjawisk powstałych w wyniku bezpośredniego (np. między reprezentantami odmiennych kultur) lub pośredniego (np. za pośrednictwem przekazu mass-mediów) kontaktu dwóch grup kulturowych, prowadzący do zmian wzorów kulturowych jednej, drugiej lub obu kultur. Końcowym efektem tego procesu może być unifikacja wzorów kulturowych obu grup, bądź przejęcie wzorów jednej grupy przez drugą. W pedagogice Akulturacja to mechanizm przejmowania kultury „obcej”, polegający na przyswajaniu przez jedną grupę elementów kultury drugiej grupy za pomocą kontaktu społecznego. Te elementy kultury to na przykład: wartości, normy zachowania, sposoby myślenia. Akulturacja zachodzi między odrębnymi, ukształtowanymi w odmiennych warunkach systemami społeczno-kulturowymi i prowadzi najczęściej do zaniku wszystkich lub części elementów jednej kultury (mniejszościowej, nie-dominującej). Adaptacja kulturowa w pedagogice dokonuje się na różnych poziomach: Anatomicznym: ochrona strukturalna i fizjologiczna organizmu przed wpływami środowiska (homeostaza fizjologiczna); Psychologicznym: zaspokajanie potrzeb emocjonalnych, radzenie sobie ze stresem za pomocą działania nieświadomych i automatycznych procesów psychologicznych (homeostaza psychologiczna); Społecznym: sprawne funkcjonowanie w środowisku społecznym, równowaga między wymaganiami życia i otoczenia codziennego a sposobem reagowania lub postępowania jednostki; Kulturowym: proces socjalizacji i wychowania traktowany jest jako wchodzenie w kulturę. W socjologii Akulturacja powiązana jest z adaptacją społeczną. Jest to mechanizm umożliwiający regulację wzajemnych stosunków między poszczególnymi podmiotami życia społecznego (jednostki, grupy społeczne). Elementy systemu przekształcają się w taki sposób, aby przetrwał cały system, który przynajmniej w pewnym stopniu musi być i chce być zintegrowany. W takim ujęciu adaptacja jest warunkiem integracji odmiennych kulturowo grup z kulturą dominującą. Według socjologa Roberta K. Mertona, nieprawidłowości w procesie adaptacji wynikają najczęściej z nadmiernej sztywności i stabilności systemu w stosunku do zmian społecznych, co uruchamiać może różne strategie adaptacyjne. W socjologii adaptacja kulturowa połączona jest z takimi pojęciami jak socjalizacja, podmiot socjalizacji, dyfuzja kulturowa, integracja społeczna, anomia (alienacja kulturowa), tożsamość społeczna. W psychologii ogólnej W węższym rozumieniu: stopniowe nabywanie wzorców zachowań charakterystycznych dla otaczającej jednostkę kultury (względnie subkultury). W szerszym rozumieniu: przyjęcie bądź zasymilowanie elementów kulturowych pochodzących z innej kultury. Przez akulturację rozumie się szczególnie proces rozwiązywania problemów związanych ze znalezieniem się w kulturze odmiennej od tej, w której nastąpiła pierwotnie enkulturacja. W psychologii ogólnej, a także w psychologii osobowości, a także społecznej, akulturacja wiąże się z takimi pojęciami jak relacje międzygrupowe, wpływ społeczny, radzenie sobie ze stresem, tożsamość społeczna/kulturowa, adaptacja (przystosowanie się). W psychologii międzykulturowej W psychologii międzykulturowej proces akulturacji połączony jest z takimi pojęciami jak: kultura, zmiana kulturowa, proces adaptacji (przystosowania się), proces radzenia sobie z różnicami kulturowymi, inność kulturowa, wartości kulturowe, tożsamość kulturowa, szok kulturowy, strategie adaptacji, etnocentryzm, stereotypy. Enkulturacja W psychologii międzykulturowej akulturacja powiązana jest z procesem enkulturacji. Enkulturacja to proces nabywania i przyswajania swojej kultury przez jednostkę i grupy. Badania psychologii międzykulturowej w tej dziedzinie analizują takie obszary jak wychowanie, relacje rodzice-dzieci, grupy rówieśnicze, system oświaty, instytucje religijne. Badana jest zmiana w tych obszarach w kontekście kształtowania kultury w jednostkach i grupach. W wyniku enkulturacji dzieci przyswajają sobie wartości, normy, sposoby i style zachowań, przyjęte w danej kulturze. W zarządzaniu międzykulturowym Akulturacja powiązana jest z pojęciem kultury stanowiącej dynamiczny system. W dyskursie demotycznym (potocznym) kulturę określa się jako system dynamiczny, zmienny i polegający na nieustannym redefiniowaniu przez jednostki i grupy, które wchodzą w interakcje z ludźmi pochodzącymi z odmiennych środowisk bądź reagują na zmieniające się okoliczności. W odróżnieniu od dyskursu demotycznego, w dyskursie dominującym, kultura rozumiana jest jako specyficzna cecha jakiejś grupy. W tym rozumieniu, kultury można traktować jako niezmienne i odziedziczone cechy różnych grup narodowych, etnicznych, religijnych. Pojęcie kultura ma też znaczenie dla akulturacji, gdy mówimy o kompetencjach międzykulturowych wspomagających proces akulturacji, a kształtowanych w procesie zarządzania międzykulturowego. Tu kultura rozumiana jest na 3 poziomach: Kultura jako „kultywacja” – pierwotnie ziemi, następnie umysłu, a ostatecznie całej złożonej cywilizacji ludzkiej. Kultura jako „czarna skrzynka” – mieści w sobie znaczenia, wartości, normy i „sposoby” (wzorce zachowań, artefakty) regularnie demonstrowane i stosowane przez jednostki ludzkie oraz grupy z nich złożone. Kultura jako działania podejmowane przez jednostki, grupy i społeczeństwa w celu nadania sensu otoczeniu oraz całość środków służących jednostkom do określania tych działań. Najprościej, kultura rozumiana jest tu jako pewne uogólnienie sposobów wyróżniania się pewnych grup spośród innych grup. W zetknięciu się z odmiennością kulturową, a zwłaszcza przy dłuższym pobycie w kręgu odmiennym kulturowo – wybierane są różne strategie akulturacyjne. Wybrana strategia jest wypadkową dwóch czynników: decyzji uchodźcy/imigranta oraz sposobu, w jaki reaguje na jego obecność otoczenie. Za każdą z czterech strategii akulturacyjnych (integracja, asymilacja, separacja i marginalizacja) kryją się przekonania migranta odnoście kultury ojczystej i kultury kraju przyjmującego. Z przyjęcia każdej z tych strategii wynikają dla jednostki konsekwencje psychologiczne i społeczne. Modele teoretyczne akulturacji Florian Znaniecki Jednym z pierwszych badaczy zjawiska akulturacji był Polak Florian Znaniecki. Badał on imigrantów z Polski przybyłych do Stanów Zjednoczonych w pierwszej połowie XIX wieku. W swoich badaniach skupił się na charakterystyce procesów dezorganizacji społecznej, ale też przemian pozytywnych, jakie obserwował wśród osiedlających się emigrantów polskich w Stanach Zjednoczonych. Znaniecki był twórcą podejścia jakościowego opartego na koncepcji współczynnika humanistycznego. Zgodnie z nim, przedmiotem nauk o kulturze powinno być świadome, subiektywne odzwierciedlenie (np. źródłem danych empirycznych powinny być pamiętniki). We wspólnej z Williamem I. Thomasem wielotomowej pracy „Polski chłop w Europie i w Stanach" (1918-1920) źródłem danych empirycznych były listy pisane do kraju. Colleen Ward Nowozelandzka psycholożka międzykulturowa Coleen Ward przedstawiła model uporządkowania różnych nurtów badawczych związanych z akulturacją. Model ten zwany jest A-B-C psychologii akulturacji: A jak afekt: teorie stresu oraz radzenia sobie z trudnościami akulturacyjnymi. W tej grupie mieszczą się badania nad szokiem kulturowym i stresem akulturacyjnym. Badacze z tej grupy to m.in.: Lysgaard (1955), Oberg (1960), Lazarus i Folkman (1984), Furncham i Bochner (1986), Schmitz (1992, 1994). B: teorie uczenia się kulturowego. Badania z tego zakresu polegają na analizie procesów nabywania kompetencji koniecznych do funkcjonowania w nowej rzeczywistości. Badacze z tej grupy to m.in.: Furnham i Bochner (1982), Ward i Rana-Deuba (1999). C: teorie koncentrujące się na zagadnieniach dynamiki tożsamości u osób z doświadczeniem migracyjnym. Najbardziej znanym badaczem z tej grupy jest John Berry (1997, 2002, 2006). John Berry Kanadyjski psycholog John Berry znany jest ze wprowadzenia najbardziej popularnego obecnie modelu akulturacji. Akulturacja psychologiczna według Berry’ego odnosi się do zmian w jednostce, która uczestniczy w sytuacji kontaktu kulturowego – jednostce, na którą bezpośrednio oddziałuje wpływ zewnętrznej kultury. Akulturacja psychologiczna odnosi się do zmiany w kulturze, której jednostka jest uczestnikiem. Model akulturacji Berry’ego odnosi się zarówno do decyzji osoby będącej w procesie akulturacji (migranta), jak i grupy dominującej (społeczeństwa przyjmującego). Strategie akulturacji na poziomie relacji międzygrupowych Wyłączanie – czystki etniczne Segregacja i gettoizacja Model republikański – tygiel etniczny Pluralizm i wielokulturowość Strategie akulturacji na poziomie jednostek Marginalizacja Separacja Asymilacja Integracja Zobacz też Kultura Socjalizacja Enkulturacja Globalizacja Tożsamość kulturowa Tożsamość indywidualna Tożsamość społeczna Przypisy Zmiana kulturowa
81
https://pl.wikipedia.org/wiki/Achtung%20%E2%80%93%20Panzer%21
Achtung – Panzer!
Achtung – Panzer! (z niem. Uwaga, czołg!) – opublikowana w 1937 roku książka autorstwa Heinza Guderiana, twórcy niemieckich wojsk pancernych. Autor wyraził w niej opinię, że Niemcy mogą sobie pozwolić tylko na krótką wojnę, zanim zostaną wyczerpane skromne zapasy surowców strategicznych. Można to zrealizować, wykorzystując silne związki pancerne, zdolne do szybkich uderzeń. Założenia książki Achtung – Panzer! legły u podstaw wojny błyskawicznej – Blitzkriegu. Książka ma fundamentalne znaczenie dla sztuki wojennej, gdyż od niej zaczynają się współcześnie rozumiane wojska pancerne. Koncepcje zawarte w książce nie były nowatorskie. Wcześniej podobne idee prezentował J.F.C. Fuller i inni. Jednak inne prace pozostały w sferze koncepcji, natomiast Guderian swoje pomysły wcielił w życie, i jak pokazał przebieg wojny, sprawdziły się one w praktyce. Oprócz grupy teoretyków wojskowości, którzy przewidywali w okresie międzywojennym, że czołg będzie podstawowym środkiem walki w przyszłej wojnie, liczni wojskowi, bądź całkowicie negowali znaczenie broni pancernej, bądź byli bardzo sceptyczni co do jej możliwości bojowych. Struktura Książka składa się 12 rozdziałów. Przypisy Linki zewnętrzne Niemieckie utwory literackie Książki poświęcone strategii Utwory literackie z 1937
82
https://pl.wikipedia.org/wiki/Apartheid
Apartheid
Apartheid (z ) – ideologia głosząca konieczność osobnego rozwoju społeczności różnych ras, a także bazujący na tej teorii system polityczny panujący w Południowej Afryce do połowy lat 90 XX wieku, oparty na segregacji rasowej. System segregacji był oparty na przekonaniu o wyższości rasy białej i dyskryminował ludność czarną i kolorową. W 1968 został uznany przez Organizację Narodów Zjednoczonych za zbrodnię przeciwko ludzkości. Termin „apartheid” powstał w latach 30 XX wieku, a jako polityczny slogan został użyty we wczesnych latach 40 przez Partię Narodową, jednak polityka apartheidu jako taka sięga wstecz, ku początkom białego osadnictwa w Afryce Południowej. Po dojściu do władzy Partii Narodowej w 1948 społeczny zwyczaj apartheidu został usystematyzowany pod postacią prawa. W grudniu tego roku podczas uchwalenia Powszechnej deklaracji praw człowieka delegacja RPA należała do mniejszości wstrzymującej się od głosu. Podłoże U źródeł apartheidu leżą: skrajna odmiana doktryny predestynacji kalwinistycznej ukształtowana w odrębności od nurtu europejskiego (rola i pozycja Afrykanerów), odrzucenie koncepcji społeczeństwa wielorasowego (odrębny rozwój), teza o pierwszeństwie osadniczym Europejczyków przed plemionami Bantu, teza o braku istnienia narodu Bantu a jedynie kilkunastu grup plemiennych. Zwolennicy ideologii apartheidu uznawali, że Bóg stworzył odrębne rasy i każda z nich ma odmienną, stałą, obiektywną charakterystykę. Zmiana ras była uważana za złamanie woli Boga, w szczególności uważano, że mieszanie się białych Afrykanerów z czarnymi doprowadzi do wyginięcia ich rasy. Ideologowie apartheidu uważali, że RPA powinna być krajem jedynie dla białych, czarni i kolorowi mieli mieszkać i pracować w rezerwatach w najbardziej nieprzyjaznych częściach kraju lub mieli pełnić rolę taniej siły roboczej dojeżdżającej do pracy w miastach z rezerwatów. Historia apartheidu W roku 1949 wprowadzona została ustawa zakazująca mieszanych małżeństw. W roku 1950 wprowadzono prawo zakazujące kontaktów seksualnych pomiędzy przedstawicielami różnych ras. Większość postępowań na podstawie tego prawa była wytaczana białym mężczyznom i czarnym lub kolorowym kobietom, przy czym biali mężczyźni otrzymywali często łagodniejsze wyroki niż czarne lub kolorowe kobiety. Wprowadzenie polityki apartheidu zostało umożliwione przez Ustawę o Spisie Ludności z roku 1950. Apartheid narzucał klasyfikację wszystkich mieszkańców na „białych”, „czarnych” i „kolorowych”. Kryteria klasyfikacji uwzględniały m.in. pochodzenie, wygląd i zwyczaje. Później dodano czwartą kategorię – „Azjatów”, wcześniej klasyfikowanych jako „kolorowi”; jednakże kategoria „Azjatów” odnosiła się prawie wyłącznie do Hindusów. System apartheidu już w 1950 roku nadał Japończykom status „Honorowej Rasy Białej”, co dawało im takie same prawa jak ludziom rasy białej. W niedługim czasie tytuł „Honorowej Rasy Białej” został rozszerzony na prawie wszystkie azjatyckie narody rasy żółtej (większość Chińczyków, Koreańczyków, Tajwańczyków itd.), co całkowicie zrównało ich prawa z rasą białą. System apartheidu został wzmocniony przez serię praw z lat 50. XX wieku. Ustawa o Zbiorowej Przestrzeni () z 1950 przypisała poszczególnym rasom oddzielne strefy mieszkaniowe i komercyjne. Jej skutkiem było przymusowe wysiedlenie 3,5 mln czarnych mieszkańców RPA na prowincje. Inną konsekwencją było masowe wyburzanie domów czarnych w miastach (np. w Johannesburgu), by przygotować grunty dla białych mieszkańców kraju. Ustawy o Ziemi z lat 1954 i 1955 zabroniły przebywania poszczególnym rasom w określonych strefach. Wszystkie osoby nie należące do rasy białej musiały nosić ze sobą specjalne książeczki, podbijane co miesiąc przez pracodawcę, upoważniające do pobytu na danym obszarze miejskim. W 1955 roku wprowadzano w życie segregację rasową w instytucjach edukacyjnych. Biali mieli otrzymywać tradycyjną edukację. System edukacyjny dla czarnych, kolorowych i Azjatów miał natomiast kształcić ich do zawodu pracowników fizycznych, minister edukacji kraju stwierdził, że nie ma potrzeby uczyć nie-białych dzieci matematyki. Zniesiono obowiązek szkolny wobec nie-białych. Zakazano czarnym kształcenia się na uniwersytetach dla białych i powołano dla nich osobne uczelnie o obniżonych wymaganiach. Wprowadzono również segregacje we wszystkich instytucjach publicznych – kinach, transporcie publicznym, restauracjach, obiektach sportowych. Stworzono zdefiniowane rasowo kategorie zawodowe. Oddzielono też władze polityczne, jedynie biali mieli prawo głosu w wyborach do białych władz krajowych (później rozszerzono je również na kolorowych). Regiony zamieszkane przez czarnych – Transkei, Ciskei, Bophuthatswana, Venda i KwaZulu zostały wydzielone wyłącznie dla czarnych jako bantustany, w których wprowadzono czarne władze i zamierzano docelowo uczynić z nich pozornie niepodległe państwa. Prowincje były całkowicie uzależnione od władz centralnych. Pojęcie „bantustan” było uważane za obraźliwe przez czarnych mieszkańców RPA. Większość czarnych uzyskała obywatelstwo tych krajów i jednocześnie została pozbawiona obywatelstwa południowoafrykańskiego. W związku z wprowadzeniem polityki apartheidu wprowadzono ustawę o tłumieniu komunizmu w 1950 roku. Definiowała ona komunizm tak szeroko, że praktycznie każda aktywność polityczna członków rasy czarnej mogła zostać ukarana. W ramach tej ustawy rozpoczęto represje wobec liderów związków zawodowych, którzy sprzeciwiali się rasizmowi i polityce segregacji rasowej (Solly Sachs, Ray Alexander). Członkostwo w związkach zawodowych było zakazane czarnym do lat 80. Każdy związek zawodowy o charakterze politycznym był zakazany. Obowiązywał też zakaz strajków. Międzynarodowy sprzeciw Apartheid był wielokrotnie potępiany przez społeczność międzynarodową. W 1944 Deklaracja Filadelfijska proklamowała: wszyscy ludzie, bez względu na rasę, wyznanie czy płeć mają prawo dążyć zarówno do materialnego dobrobytu, jak i do rozwoju duchowego w warunkach wolności i godności, gospodarczego bezpieczeństwa i równych możliwości. W 1945 Karta Narodów Zjednoczonych do celów ONZ zaliczyła popieranie praw człowieka i zachęcanie do poszanowania tych praw i podstawowych wolności dla wszystkich bez względu na różnice rasy, płci, języka lub wyznania. W 1946 Światowa Organizacja Zdrowia ogłosiła w preambule swej Konstytucji: Korzystanie z najwyższego, osiągalnego poziomu zdrowia jest jednym z podstawowych praw każdej istoty ludzkiej bez różnicy rasy, religii, przekonań politycznych, warunków ekonomicznych lub społecznych. W 1958 Międzynarodowa Organizacja Pracy zainicjowała Konwencję nr 111 zabraniającą m.in. dyskryminacji rasowej w zatrudnieniu. W 1960 pod auspicjami UNESCO powstała Konwencja w sprawie zwalczania dyskryminacji w dziedzinie oświaty zabraniająca wszelkiego wyróżniania, wykluczania, ograniczania lub uprzywilejowania m.in. ze względu na rasę lub kolor skóry (art. 1). W 1961 Republika Południowej Afryki została zmuszona do wystąpienia ze Wspólnoty Narodów przez państwa członkowskie krytyczne wobec systemu apartheidu. W 1966 potępiła apartheid Międzynarodowa konwencja w sprawie likwidacji wszelkich form dyskryminacji rasowej. Przyjęty w tym samym roku Międzynarodowy Pakt Praw Obywatelskich i Politycznych w art. 2.1 głosi Każde z Państw-Stron niniejszego Paktu zobowiązuje się przestrzegać i zapewnić wszystkim osobom, które znajdują się na jego terytorium i podlegają jego jurysdykcji, prawa uznane w niniejszym Pakcie, bez względu na jakiekolwiek różnice, takie jak: rasa, kolor skóry, płeć, język, religia, poglądy polityczne lub inne, pochodzenie narodowe lub społeczne, sytuacja majątkowa, urodzenie lub jakiekolwiek inne okoliczności. Podobnie Międzynarodowy Pakt Praw Gospodarczych, Społecznych i Kulturalnych w art. 2.2: Państwa Strony niniejszego Paktu zobowiązują się zagwarantować wykonywanie praw wymienionych w niniejszym Pakcie bez żadnej dyskryminacji ze względu na rasę, kolor skóry, płeć, język, religię, poglądy polityczne lub inne, pochodzenie narodowe lub społeczne, sytuację majątkową, urodzenie lub jakiekolwiek inne okoliczności. W 1968 Konwencja o niestosowaniu przedawnienia wobec zbrodni wojennych i zbrodni przeciw ludzkości zaliczyła apartheid do zbrodni przeciw ludzkości. W tym samym roku potępiła go Proklamacja teherańska. W 1973 Zgromadzenie Ogólne ONZ uchwaliło Międzynarodową Konwencję o Przeciwdziałaniu i Karaniu Zbrodni Apartheidu. Doraźną intencją Konwencji było dostarczenie podstaw prawnych do nałożenia sankcji celem wywarcia presji na rząd Republiki Południowej Afryki. Konwencja weszła w życie w 1976. W 1979 Konwencja w sprawie likwidacji wszelkich form dyskryminacji kobiet głosi we wstępie eliminacja apartheidu, wszelkich form rasizmu, dyskryminacji rasowej, kolonializmu, neokolonializmu, agresji, obcej okupacji i dominacji oraz ingerencji w wewnętrzne sprawy państw ma podstawowe znaczenie dla pełnego korzystania przez mężczyzn i kobiety z ich praw. W 1981 Afrykańska Karta Praw Człowieka i Ludów zabroniła dyskryminacji ze względu na rasę, przynależność do grupy etnicznej, kolor skóry, płeć, język, przekonania religijne, polityczne lub jakiekolwiek inne, pochodzenie narodowe lub społeczne, urodzenie albo inny status (art. 2). W 1986 w związku z szeroką kampanią międzynarodowego protestu przeciw apartheidowi (m.in. koncerty rockowe i pikiety pod placówkami dyplomatycznymi) i pod naciskiem opinii publicznej rządy Stanów Zjednoczonych i Wielkiej Brytanii nałożyły na Republikę Południowej Afryki sankcje ekonomiczne w proteście przeciwko prowadzonej przez jej rząd polityce rasowej (mimo iż obydwa kraje czerpały ogromne korzyści z bogactw naturalnych i strategicznego położenia RPA, traktując ten kraj jako swojego sojusznika w zimnej wojnie). W 1987, na skutek olbrzymiej presji Stanów Zjednoczonych, współpracę (głównie militarną) z RPA zerwał Izrael. Także w 1985 Zgromadzenie Ogólne Narodów Zjednoczonych przyjęło Międzynarodową Konwencję przeciwko apartheidowi w sporcie, która weszła w życie w roku 1988, wszystkie strony, które podpisały konwencję zobowiązały się nie utrzymywać kontaktów sportowych z państwami apartheidu. Dopiero w 1992 Międzynarodowy Komitet Olimpijski dopuścił Republikę Południowej Afryki do udziału w igrzyskach olimpijskich. Kres polityki apartheidu W latach 50. XX wieku Afrykańskim Kongresem Narodowym zaczął kierować Nelson Mandela. Za działalność terrorystyczną i próby obalenia rządu został skazany w roku 1962 na dożywotnie więzienie. Stał się on symbolem walki z apartheidem. We wczesnych latach 90. XX wieku, w wyniku narastającej presji przeciwko polityce apartheidu (zarówno wewnętrznej, jak i zewnętrznej), rząd Republiki Południowej Afryki na czele z prezydentem Frederikiem Willemem de Klerkiem rozpoczął demontaż systemu apartheidu. W 1990 rząd pod kierunkiem Partii Narodowej rozpoczął reformy zaczynając od uwolnienia w 1990 roku Nelsona Mandeli i zalegalizowania uprzednio zakazanych partii politycznych: Afrykańskiego Kongresu Narodowego (ANC), Kongresu Panafrykańskiego (PAC) i Południowoafrykańskiej Partii Komunistycznej (SACP) oraz uwolnienia więzionych czarnych działaczy. W 1994 krajowa konstytucja została napisana na nowo. Odbyły się też pierwsze powszechne wybory w historii kraju. Pierwszym czarnoskórym prezydentem Republiki Południowej Afryki został Nelson Mandela. Rok wcześniej, w 1993 roku, Nelson Mandela i Frederik Willem de Klerk zostali laureatami pokojowej Nagrody Nobla. Po zakończeniu apartheidu Partia Narodowa i Frederik Willem de Klerk przez krótki okres rządzili u boku Afrykańskiego Kongresu Narodowego. Biali posiadają wciąż znaczącą reprezentację polityczną w prowincjach Przylądkowej Zachodniej i Gauteng. Nie są też wykluczeni z władzy na poziomie kraju: Ronnie Kasrils był ministrem służb bezpieczeństwa, Afrykaner Alec Erwin ministrem skarbu, a były lider Partii Narodowej, Marthinus van Schalkwyk jest ministrem ds. rozwoju i turystyki. Zobacz też Apartheid płciowy Zbrodnia apartheidu Uwagi Przypisy Bibliografia Linki zewnętrzne Pełny tekst Międzynarodowej Konwencji o Przeciwdziałaniu i Karaniu Zbrodni Apartheidu Polski przekład Konwencji o Przeciwdziałaniu i Karaniu Zbrodni Apartheidu (Dz.U. 1976 Nr 32, poz. 186), lista stron Konwencja w sprawie zwalczania dyskryminacji w dziedzinie oświaty sporządzona w Paryżu dnia 15 grudnia 1960 (Dz.U. 1964 Nr 40, poz. 268), lista stron Międzynarodowa konwencja w sprawie likwidacji wszelkich form dyskryminacji rasowej otwarta do podpisu w Nowym Jorku dnia 7 marca 1966 (Dz.U. 1969 Nr 25, poz. 187), lista stron Konwencja o niestosowaniu przedawnienia wobec zbrodni wojennych i zbrodni przeciw ludzkości przyjęta przez Zgromadzenie Ogólne Organizacji Narodów Zjednoczonych dnia 26 listopada 1968 r. (Dz.U. 1970 Nr 26, poz. 208), lista stron Międzynarodowa konwencja przeciw apartheidowi w sporcie przyjęta przez Zgromadzenie Ogólne Organizacji Narodów Zjednoczonych dnia 10 grudnia 1985 r. (Dz.U. z 1988 Nr 14, poz. 100), lista stron Stosunki międzynarodowe: Apartheid Totalitaryzm
83
https://pl.wikipedia.org/wiki/Aleksander%20Or%C5%82owski
Aleksander Orłowski
Aleksander Orłowski – malarz koni i scen batalistycznych Aleksander Orłowski – urzędnik pocztowy, radny, działacz plebiscytowy, dyrygent chórów, kompozytor i organizator życia muzycznego Aleksander Orłowski – filozof
84
https://pl.wikipedia.org/wiki/American%20National%20Standards%20Institute
American National Standards Institute
() – instytucja ustalająca normy techniczne obowiązujące w USA. Historia ANSI powstała w 1918 roku. Początkowo działała pod nazwą (), w 1928 roku zmieniła nazwę na (). W 1966 roku ASA została zreorganizowana i otrzymała nazwę (). Nazwa obecna, czyli ANSI (ang. ) jest noszona przez tę instytucję od 1969 roku. Status prawny W odróżnieniu od innych tego rodzaju instytucji w innych krajach, ANSI nie jest agencją rządową i nie posiada żadnych własnych „mocy prawnych” do egzekwowania ustalonych przez siebie norm. Jej działalność jest jednak silnie sprzężona z władzami USA, które zwykle honorują ustalenia ANSI i wiele norm ANSI jest włączanych do powszechnie obowiązujących aktów prawa; nie dzieje się to jednak automatycznie. ANSI jest prywatną, pozarządową instytucją non-profit. Może należeć do niej i mieć wpływ na jej działania każda firma i instytucja działająca legalnie w USA, a także instytucje i firmy spoza USA. Aktualnie należy do niej ponad 1000 rozmaitych instytucji i firm. Działalność ANSI zajmuje się wszelkimi normami technologicznymi od norm ustalających skład asfaltu na drogach po obowiązujący sposób kodowania liter w komputerach. Ustalanie norm odbywa się w zespołach roboczych, w których uczestniczyć mogą wszyscy zainteresowani członkowie ANSI. Normy zatwierdza przez głosowanie , w której zasiada po jednym przedstawicielu z każdej zrzeszonej organizacji. Rozpoczęcie prac nad nową normą lub zmianę starej może proponować: ANSI jako całość (np. na skutek ustaleń międzynarodowych); któraś z agencji rządowych; grupa minimum 10 członków ANSI. ANSI, oprócz ustalania norm wewnątrzkrajowych, stara się też wpływać na kształt norm międzynarodowych ISO poprzez członkostwo w tej organizacji. Często jej zajmuje się także sporami z europejskimi i japońskimi instytucjami normalizacyjnymi w sprawie ustalania wspólnych norm międzynarodowych. Strony kodowe ANSI Microsoft używa określenia „strony kodowe ANSI” (ang. „”) na określenie 8-bitowych stron kodowych używanych przez interfejs graficzny Windows i starsze aplikacje. Określenie to jest mylące, gdyż te strony kodowe nie są normowane przez ANSI, w rzeczywistości niektóre z nich są częściowo (w różnym stopniu) zgodne z kodowaniami ISO 8859. Zobacz też standardy języka C ASCII National Institute of Standards and Technology format arkusza – system amerykański, Przypisy Linki zewnętrzne Strona domowa ANSI Słownik terminologii MS – patrz hasło „ANSI” Organizacje standaryzacyjne National Standards Institute Organizacje non-profit
85
https://pl.wikipedia.org/wiki/Abelard
Abelard
Abelard – imię męskie zapewne pochodzenia francuskiego (prowansalskiego), którego pierwotne znaczenie wywodzone jest od wyrazu prowansalskiego abelha, oznaczającego „pszczelarza”. Jednak bywa ono także łączone z niemieckimi imionami Adalhard (dosł. „szlachetna siła”) bądź też Eberhard (dosł. „silny jak dzik”). Początki tego imienia wiążą się z postacią filozofa i teologa francuskiego Pierre’a Abélarda (1079–1142). W Polsce imię to jest niemal nieużywane, znane jest przede wszystkim z literatury (por. np. Heloiza i Abelard Rogera Vaillanda). Abelard imieniny obchodzi 21 kwietnia. Odpowiedniki w innych językach angielski: Abelard czeski: Abelard duński: Abelardo esperanto: Abelardo francuski: Abélard grecki: Αβελάρδος hiszpański: Abelardo litewski: Abelardas łacina: Abelard, Abaelardus, Abelardus niemiecki: Abelard portugalski: Abelardo słoweński: Abelard węgierski: Abelárd włoski: Abelardo Znane osoby noszące imię Abelard Abelard Giza – polski reżyser, scenarzysta i twórca kabaretowy Przypisy Imiona francuskie Męskie imiona germańskie
86
https://pl.wikipedia.org/wiki/Autochton
Autochton
Autochton ( autochthon – „z tej ziemi”, „tuziemiec, tubylec”, od autós „sam” i chthōn „ziemia”) – człowiek należący do rdzennej ludności danego obszaru. W odróżnieniu od ludności autochtonicznej mówi się o ludności napływowej. Według profesora Andrzeja Saksona, socjologa specjalizującego się w badaniach mniejszości etnicznych termin autochton określa także mieszkańca pogranicza polsko-niemieckiego, byłego obywatela III Rzeszy, deklarującego polskie pochodzenie. Termin ten bywał niezrozumiały dla osób nim określanych, bywał też stygmatyzujący. Polskojęzyczni mieszkańcy dawnych Prus Wschodnich pochodzili głównie z Mazowsza, z Kurpiów. W ścisłym tego słowa znaczeniu autochtonami nie byli. Pomimo tego, ze względów propagandowych termin ten od 1945 był narzucany przez władze PRL. Za rdzennych (autochtonicznych) mieszkańców tych terenów uznać należałoby Prusów. Zobacz też ludy tubylcze teoria autochtonicznego pochodzenia Słowian Przypisy Zbiorowości społeczne
87
https://pl.wikipedia.org/wiki/Archimedes
Archimedes
Archimedes z Syrakuz (gr. Archimedes ho Syrakosios; ok. 287–212 p.n.e.) – grecki matematyk, fizyk i inżynier. Powszechnie uznawany za najwybitniejszego matematyka starożytności i jednego z największych w dziejach. Życiorys Urodzony i zmarły w Syrakuzach; wykształcenie zdobył w Aleksandrii. Był synem astronoma Fidiasza i prawdopodobnie krewnym lub powinowatym władcy Syrakuz Hierona II. W czasie drugiej wojny punickiej kierował pracami inżynieryjnymi przy obronie Syrakuz. Rzymianie myśleli, że sami bogowie bronią miasta, gdyż skonstruowane przez Archimedesa i schowane za murami machiny ciskały pociski w ich stronę. Archimedes został zabity przez żołnierzy rzymskich po zdobyciu miasta, mimo wyraźnego rozkazu dowódcy, Marcellusa, by go ująć żywego. Później gorzko tego żałowano. Tuż przed śmiercią, zapytany, kim jest, Archimedes miał ponoć powiedzieć „noli turbare circulos meos”, co znaczy „nie zamazuj moich kół”. Na życzenie Archimedesa na jego nagrobku wyryto kulę, stożek i walec; było to uznanie jego pięknych dowodów twierdzeń, interpretowanych obecnie jako szkolne wzory na objętość i pole powierzchni tych trzech brył. Historia życia Archimedesa wiąże się z procesem podboju greckich miast rejonu Morza Śródziemnego przez republikę rzymską. Rzymianie, niszcząc i grabiąc zdobywane miasta i obciążając je podatkami, spowodowali stagnację kultury i filozofii hellenistycznej oraz upadek greckiej nauki, po którym już nigdy nie wróciła do dawnego stanu. Zarazem Rzymianie zachowali ogromny szacunek dla greckich osiągnięć, z których niejednokrotnie korzystali. Nie potrafiono już jednak osiągnąć dawnego greckiego poziomu rozumowań. Symbolem tego wszystkiego jest właśnie śmierć Archimedesa – zabitego przez rzymskiego legionistę w chwili roztrząsania jakiegoś problemu matematycznego, a następnie z honorami pochowanego przez rzymskiego wodza. Jednakże włoski uczony specjalizujący się w historii nauki starożytnej, Lucio Russo podchodzi sceptycznie do tej informacji, pisząc: „Zawsze czytamy, że Archimedesa zabito na skutek tragicznej pomyłki, przekraczając rozkazy rzymskiego dowódcy Marcellusa, który bardzo nad tym bolał. (...) Ta wersja faktów, pochodząca częściowo od Liwiusza i upiększona później przez Plutarcha, nie znajduje żadnego potwierdzenia u Polibiusza, będącego już w czasach Liwiusza jedynym wiarygodnym źródłem na temat złupienia Syrakuz. Osiągnięcia naukowe Archimedes jest autorem traktatu o kwadraturze odcinka paraboli, prekursorem rachunku różniczkowego i całkowego, twórcą hydrostatyki (w dziele O ciałach pływających) i statyki (w dziele O równowadze płaszczyzn). Zajmował się również astronomią – opisał ruch pięciu planet, Słońca i Księżyca wokół nieruchomej Ziemi, zbudował globus i planetarium z hydraulicznym napędem, które Marcellus zabrał jako jedyny łup z Syrakuz. W swoim rozumowaniu posługiwał się tzw. metodą mechaniczną. Polegała ona na traktowaniu fizycznych właściwości jako matematycznych oraz odwrotnej metody, dzięki której właściwości fizyczne pozwalały na tworzenie nowych teorii matematycznych. Jego sposób pracy uważany jest za pierwszy przykład użycia fizyki matematycznej. Wielkie zasługi dla współczesnej recepcji dzieł Archimedesa wniósł Johan Ludvig Heiberg, duński filolog. Przełożył on i opracował znane od czasów renesansu dzieła zawarte w tzw. Kodeksach A i B Archimedesa oraz odkrył w Konstantynopolu w 1906 palimpsest z modlitewnikiem bizantyjskim z XIV wieku, który był napisany na pergaminie z wyskrobanym przedtem tekstem Archimedesa (tzw. Kodeks C). Heiberg zdołał odcyfrować i opublikować znaczną część oryginalnego tekstu. Odkrycia Archimedesa prawo Archimedesa zasadę dźwigni – sławne powiedzenie Archimedesa „Dajcie mi punkt podparcia, a poruszę Ziemię”, prawa równi pochyłej, środek masy i sposoby jego wyznaczania dla prostych figur. Obliczył wartość liczby pi dokładniej niż jego poprzednicy, przybliżając ją poprzez obwód 96-kąta foremnego. Według jego oszacowania wynosiła ona Zachowane dzieła Archimedesa O liczeniu piasku – o wielkich liczbach i o nieskończoności. Rozszerzył tu system liczbowy Greków (dotychczas sięgający liczby 10000 – miriada) i oszacował liczbę ziarenek piasku we wszechświecie jako Największą rozważaną przez niego liczbą była O liniach spiralnych – wprowadził tu spiralę Archimedesa. O wymierzaniu koła – pokazuje związek pola i obwodu koła. O kuli i walcu – wyprowadza zależności wiążące pole powierzchni i objętość kuli, walca i czaszy kulistej. Kwadratura paraboli. O konoidach i sferoidach – o krzywych stożkowych. O równowadze płaszczyzn – zasady statyki. O ciałach pływających – początek hydrostatyki (prawo Archimedesa) i aerostatyki. Wynalazki Archimedesa przenośnik śrubowy zegar wodny organy wodne machiny obronne udoskonalił wielokrążek i zastosował go do wodowania statków Archimedesowi przypisywana jest także śruba Archimedesa. Legenda o odkryciu prawa wyporu Władca Syrakuz Hieron II powziął podejrzenie, że złotnik, któremu powierzono wykonanie korony ze szczerego złota, sprzeniewierzył część otrzymanego na to kruszcu i w zamian dodał pewną ilość srebra. W tamtych czasach jedynym sposobem na sprawdzenie czy złoty produkt jest dobrej próby było zginanie. Jako, że złoto jest miękkim metalem, stop zawierający mniej cenne metale powinien być twardszy. Aby rozwiać wątpliwości zwrócił się do Archimedesa z prośbą o ustalenie, jak sprawa ma się naprawdę. Prośbę swą Hieron II obwarował żądaniem, którego spełnienie przekreślało – wydawałoby się – możliwość uczynienia zadość życzeniu władcy. Otóż w żadnym wypadku Archimedes nie mógł zepsuć misternie wykonanej korony, będącej arcydziełem sztuki złotniczej. Długo, aczkolwiek bezskutecznie, fizyk rozmyślał nad sposobem wybrnięcia z sytuacji. Pewnego razu, zażywając kąpieli w wannie i nieustannie rozmyślając nad powierzonym mu zadaniem, zauważył, że poszczególne członki jego ciała są w wodzie znacznie lżejsze niż w powietrzu. Nasunęło mu to myśl, że istnieje określony stosunek między zmniejszeniem się ciężaru ciała zanurzonego, a ciężarem wypartego przez nie płynu (prawo Archimedesa). Zachwycony prostotą własnego odkrycia wybiegł nago z wanny, z radością krzycząc Heureka! Heureka!, co znaczy po grecku Znalazłem!. Stanąwszy przed obliczem Hierona Archimedes poprosił o bryłę czystego złota o ciężarze korony. Tego nie szkoda było poddać próbie zginania. Łatwo wykazał fałszerstwo złotnika. Okazało się bowiem, że korona wyparła więcej cieczy, niż równa jej co do wagi bryła złota, co oznacza, że miała większą objętość, a więc mniejszą gęstość – nie była wykonana w całości ze złota. Wbrew powszechnemu przekonaniu Archimedes nie zastosował jednak do zbadania korony swojego nowo odkrytego prawa – nie mierzył zmniejszenia jej ciężaru, lecz ilość wypartej wody. Upamiętnienie Od 24 listopada 1961 ulica w Warszawie, na terenie obecnej dzielnicy Bemowo, nosi nazwę ulicy Archimedesa. Zobacz też kalendarium historii nauki stomachion wynalazek Wielościan archimedejski Przypisy Bibliografia Linki zewnętrzne [dostęp 2021-07-13]. Greccy geometrzy Filozofowie starożytnej Grecji Ludzie upamiętnieni nazwami stałych matematycznych Ludzie upamiętnieni nazwami krzywych płaskich Ludzie upamiętnieni nazwami wielościanów Urodzeni w III wieku p.n.e. Ludzie urodzeni w Syrakuzach Zmarli w 212 p.n.e.
88
https://pl.wikipedia.org/wiki/Arystofanes
Arystofanes
Arystofanes z Aten (gr. , Aristophanes) (ok. 446–385 p.n.e.) – grecki komediopisarz, jeden z twórców komedii staroattyckiej, syn średnio zamożnego chłopa o imieniu Filippos. Jego działalność przypadła na schyłkowy okres demokracji ateńskiej, gdy następowały zmiany w życiu politycznym, społecznym i kulturalnym, a także w sposobie myślenia i metodach kształcenia młodzieży (zob. Sokrates). Zapewne nie do końca porzucił wieś i choć nie mieszkał w Atenach, to bywał w nich często. Nie piastował w mieście urzędów i patrzył na demokrację ateńską z boku, zachowując większy obiektywizm. Arystofanes jest najlepiej rozpoznanym i najszerzej opisanym spośród autorów komedii staroattyckiej. Jego poprzednikami byli Kratinos i Eupolis. Pierwsze swoje komedie wystawiał pod nazwiskami aktorów, ponieważ sam był zbyt młody, aby zgłaszać utwory na zawody teatralne. Ostatnie dwie komedie, tj. Sejm kobiet i Plutosa czasami zalicza się do komedii średniej, która ewoluowała przez IV w. p.n.e. Arystofanes a Kratinos i Eupolis W przeciwieństwie do utworów Arystofanesa dzieła Kratinosa i Eupolisa przetrwały do naszych czasów tylko we fragmentach. Kratinos wystawiał komedie od 453 do 423 r. p.n.e. Stworzył ich około 30, z których najbardziej znana jest Butelka (Pytíne). Komedia ta stanowiła reakcję na krytykę Arystofanesa, który w Rycerzach zarzucił Kratinosowi pijaństwo i zanik talentu. Butelka odniosła ogromny sukces w agonie komicznym, pokonując pierwszą wersję Chmur Arystofanesa. Eupolis wystawił około 17 sztuk między 429 a 410 r. p.n.e. Był rówieśnikiem Arystofanesa i swoją karierę rozpoczynał w tym samym czasie, co on. Był utalentowanym poetą, który zmarł młodo. Rywalizację obu poetów przerwała tragiczna śmierć Eupolisa w katastrofie okrętu podczas wojny ze Spartą. Początkowo miał współpracować z Arystofanesem, lecz poeci się pokłócili i następnie oskarżali się o wzajemne kradzieże pomysłów. Od Kratinosa i Arystofanesa różniło go to, że stronił od parodii zarówno mitologicznej, jak i literackiej, choć zarazem cechowała go bogata wyobraźnia twórcza, pomysłowość, elegancja oraz ostrość satyry politycznej i personalnej. Karierę artystyczną Arystofanes rozpoczął niezachowanymi Biesiadnikami, którzy zostali wystawieni w 427 r. p.n.e. w reżyserii Kallistratosa lub Filonidesa. Tytuł pochodził od chóru, który składał się z czcicieli Heraklesa zgromadzonych na uczcie w dzień jego święta. Jednym z członków chóru był starzec, który prowadził dyskusje ze swoim rozpustnym synem. Skąpe fragmenty komedii nie pozwalają na ustalenie, jaka była jej fabuła i problematyka. Można sądzić, że zarysowywał się konflikt między przywiązaniem do tradycyjnych wartości i wykształcenia a nowoczesnymi sztuczkami retorycznymi. Pierwsze zwycięstwo w konkursie zapewnili Arystofanesowi dopiero Babilończycy w 426 r. p.n.e. Cechy dystynktywne utworów Arystofanesa Twórczość Arystofanesa miała ostre akcenty społeczne i polityczne. Zasadnicza problematyka jego komedii dotyczyła starań o ustanowienie pokoju. W utworach przedstawił bogaty obraz życia Aten przełomu V i IV w. p.n.e. Był zagorzałym przeciwnikiem bogaczy i obrońcą interesów średnich warstw społecznych oraz chłopów. Wyrażał poglądy wieśniaków attyckich. Poza zagadnieniami politycznymi i społecznymi poruszał tematy literackie, poddając krytyce zwłaszcza twórczość Eurypidesa. Komedie Arystofanesa zachowały się dzięki szkole, w której traktowano je jako lektury obowiązkowe. Ze względu na czystość dialektu attyckiego stały się wzorem. Postacie w jego utworach używają dialektu attyckiego, ale poza nim można w nich znaleźć inne dialekty, np. dialekt megarejski w Acharnejczykach. Twórczość Arystofanesa w dużej mierze opiera się na komicznych przekształceniach językowych i cechuje ją niebywała pomysłowość w tworzeniu neologizmów. To, co również typowe dla tej twórczości, to bogactwo odniesień do życia płciowego człowieka. Arystofanes chętnie posługiwał się kolokwializmami określającymi narządy płciowe, jak również wypełniał utwory żartami skatologicznymi. Ze względu na liczne operacje na słowie komedie Arystofanesa można postrzegać jako przykłady „pirotechniki werbalnej”. Ateńczycy V w. p.n.e. byli zafascynowani językiem oraz władzą, jaką on daje, więc zdolności oratorskie były wysoko cenione. Prowadziło to do rozwoju retoryki i dialektyki, a także stawiało duże wymogi autorom dramatycznym. Elementami składowymi utworów Arystofanesa są elementy parodystyczne, lecz zarazem w tym wypadku parodii nie można traktować jako dominanty kompozycyjnej. Komedie, które wykazują najwyższy stopień nasycenia parodią, to Acharnejczycy, Thesmoforie i Żaby, tj. utwory, dla których głównym punktem odniesienia są tragedie Eurypidesa. Podstawowym pojęciem wprowadzanym w opisach dzieł Arystofanesa jest paratragedia, czyli parodia tragedii. Konwencje atakowane i parodiowane przez poetę są zarówno konwencjami tragicznymi, jak i komicznymi. Komedie Arystofanesa są typowym przykładem operowania chwytami metateatralnymi. Dialog dramatyczny jest tu dialogiem teatralnym, zawsze zakłada się jego istnienie w przestrzeni teatralnej. Arystofanes wprowadza wypowiedzi oraz sytuacje, które odsyłają do samego tworzywa dramatyczno-teatralnego. Postacie zazwyczaj przedstawiają własną sytuację jako sytuację teatralną, wykazują świadomość tego, że są częścią świata teatru i tego, że są przedmiotem obserwacji widzów. Proponuje się, aby komedię Arystofanesa traktować jako przykład „teatru nieiluzyjnego”. W utworach Arystofanesa można obserwować konfrontację Aten wyobrażonych i Aten rzeczywistych. Jest to wynik tego, że poeta stale podejmuje aktualne problemy społeczne i polityczne oraz krytykuje osobowości ateńskiego życia publicznego. Postacie z jego komedii mają na celu poszukiwanie i znalezienie rozwiązań problemów obywateli ateńskich. Wyrażają rzeczywiste interesy Ateńczyków. Arystofanes występuje jako doradca mieszkańców Aten, a także promuje taki teatr, który ma na celu wzmocnienie postaw obywatelskich. Jednocześnie posługuje się on typowymi komicznymi elementami współtworzącymi fantazyjną przygodę, która wspiera się na reminiscencjach mitu boskiego lub heroicznego. Konstrukcja Zgodnie z ustaleniami Tadeusza Zielińskiego komedia staroattycka jest zbudowana z następujących części: prolog zachowujący formę monologu albo będący dialogiem, parodos, tj. wejście chóru na scenę, następnie agon, gdzie dochodzi do konfrontacji bohaterów i ich racji, potem parabaza. Po parabazie wprowadza się rodzajowe sceny jambiczne, które zostają uzupełnione o stasimony chóru. Komedię wieńczy eksodos. Komedie Arystofanesa nie trzymają się kurczowo tego wzorca, tym bardziej że wraz z rozwojem twórczości poety jego utwory są coraz bardziej spójne i jednolite. Na przykład w ostatnich zachowanych komediach, tj. w Sejmie kobiet i Plutosie, będącym „ogniwem pośrednim w procesie historycznodramatycznym” nie występuje parabaza. Komedia Arystofanesa opiera się nie tylko na dialogu mówionym, ale ważna rola została przyporządkowana muzyce, śpiewom i tańcom. Nietypową realizacją wzorca komedii staroattyckiej są Żaby. Arystofanes eksperymentuje tu z nowymi rozwiązaniami kompozycyjnymi i zarazem wykorzystuje skonwencjonalizowane chwyty konstrukcyjne. Wprowadzone zostają dwie parabazy i agon, który zajmuje znaczną część utworu (proagon i dwie części agonu). Przy czym zabiegi na parabazie są już obecne w Rycerzach i Chmurach. W Żabach znajdują się również dwa odmienne i niezależne chóry, które mają różny cel i funkcję, tj. Chór Żab, który występuje w parodosie i jest wyłącznie chórem wstępnym oraz Chór Wtajemniczonych w Misteria, na który składają się dusze, przechodzące drogę inicjacyjną, czyli wtajemniczanie w Misteria eleuzyjskie. Komedią schyłkową jest Plutos, który może być przykładem komedii średniej oraz stanowić zapowiedź komedii nowej, więc niełatwo go zaliczyć do komedii staroattyckiej. W utworze zmniejszyła się funkcja chóru, a zwiększyła rola niewolnika. Nastąpiła rezygnacja z zaangażowania w sprawy polityczne i odstąpienie od krytyki ważnych polityków. Plutos nie zawiera żartów skatologicznych i obscenicznego humoru. Arystofanes ograniczył także elementy wokalne i muzyczne, co pozwoliło mu zwrócić większą uwagę na sprawy społeczne i obyczajowe. Nazwy osobowe Imiona postaci w komediach Arystofanesa są dowodem jego pomysłowości językowej. Komediopisarz nadawał postaciom takie imiona, które mają wydźwięk metaforyczny i są wstępną charakterystyką tych postaci, np. Dikajopolis z Acharnejczyków jest tłumaczony jako „Prawogrodziec”, Pejsthetajros i Euelpides z Ptaków zostali przetłumaczeni jako „Radodaj” i „Dobromysł”, Trygajos z Pokoju jako „Winobraniec”, a Lizystrata z komedii pod tym samym tytułem jako „Bojomira” lub „Gromiwoja”. Punktem wyjścia dla Arystofanesa były również czasowniki, np. imię bohatera Rycerzy Paflagona wskazuje na jego bełkotliwość. Innym dowodem pomysłowości językowej poety są oryginalne, komiczne nazwy miejscowości jak „Chmurokukułczyn”, „Jękowice” czy „Biadolice” w Ptakach oraz rzeczowniki jak „myślarnia”, „antysędziowie”, „dupkopięciolatka” czy typowe dla Arystofanesa „ostrygo-śledzio-mureno-rekino-resztko-cierpko-kwaśno-czarciołajno-miodo-polano-kwiczoło-drozdo-turkawko-gołębio-kogucio-pieczono-grzebienio-pliszko-synogarlico-zajęczo-winnogotowano-farbo-kozio-skrzydełko” (Sejm kobiet). Bogactwo nazewnicze sprawia, że twórczość Arystofanesa stanowi ogromne wyzwanie dla tłumacza. Rywalizacja a kształt komedii Komedia staroattycka powstawała ze względu na konkursy dramatyczne, zatem poeci zapewne uwzględniali oczekiwania widowni. Najlepszym przykładem jest reakcja Arystofanesa zamieszczona w zredagowanej wersji Chmur, gdzie komediopisarz narzeka na negatywne przyjęcie jego utworu na Dionizjach w 424/423 r. p.n.e. Na podstawie parabaz można wyrobić sobie pewien obraz tego, co działo się podczas konkursów i jak komediopisarze odnosili się do własnej twórczości. W parabazie Os Arystofanes zachwala swoją innowacyjność i satyryczne umiejętności. Można więc sądzić, że rywalizacja musiała być brana pod uwagę, gdy komediopisarze tworzyli swe sztuki, ponieważ między innymi w celach rywalizacji one powstawały. Rywal i jego twórczość niejako są „współautorami” komedii staroattyckich. Mit w komediach Arystofanesa Komedia Arystofanesa – tak jak tragedia grecka – wykorzystuje wątki mitologiczne, ale w wypadku komedii mit służy wyśmiewaniu, karykaturze, parodii czy trawestacji. Przy czym komedie rzadko opierają się na jednym konkretnym micie, zwykle motywami parodystyczno-mitologicznymi poeta inkrustuje satyrę polityczną lub literacką. Arystofanes chętnie wprowadza na scenę bogów i półbogów: Dionizosa, Hermesa, Posejdona, Prometeusza czy Heraklesa. W jego twórczości można znaleźć pierwiastki mitów totemicznych, kosmogonicznych i eschatologicznych. Romuald Turasiewicz wskazuje, że w twórczości Arystofanesa mit spełnia następujące funkcje: mit jako dominanta kompozycyjna (np. w Plutosie); mit jako komponenta sztuki – inkrustacja (w tym przypadku tematyka utworu nie jest związana z mitem, lecz mit służy jako magazyn pomysłów wykorzystywanych w celach ludycznych, np. mit o Odysie w Osach); transformacja i synkretyzacja mitów (np. w Żabach różne wątki mityczne ulegają przepracowaniu i rekompozycji w celu stworzenia nowej ramy fabularnej utworu); tworzenie nowych bóstw i nowych mitów (np. w Chmurach, Pokoju, Ptakach). Problem utopii Specjalnością tragików greckich było przedstawianie szaleństwa, natomiast specjalnością komediopisarzy było tworzenie wizji utopijnych. Komedie Arystofanesa są utworami, które opierają się na scenariuszach kreujących utopie, a zarazem ukazują dzieje bohatera, który improwizuje na tematy tragiczne. Dikajopolis z Acharnejczyków, Kiełbaśnik z Rycerzy, Trygajos z Pokoju, Pejsthetairos z Ptaków, Lizystrata z Lizystraty, Praksagora z Sejmu kobiet i Chremylos z Plutosa są zespołem bohaterów, którzy walczą o utopijny świat. Wyobraźnia Arystofanesa daje szansę na powstanie najlepszego z możliwych światów (Plutos) albo stworzenie świata, który staje się dystopią (Ptaki). Arystofanejska refleksja o tożsamości płci Zbiór „sztuk kobiecych” Arystofanesa tworzą następujące komedie: Lizystrata, Thesmoforie i Sejm kobiet. Lizystrata przedstawia obraz świata, w którym stosunki płciowe są priorytetem jednostek, czyli kondycja społeczeństwa jest uzależniona od skutecznej realizacji potrzeb seksualnych. Według Szymona Kostka, komedia ta jest też utworem uznawanym w kulturze Zachodu za jeden z pierwszych tekstów o wydźwięku feministycznym, przy czym feminizm Arystofanesa nie ma charakteru deklaracyjnego. W opinii autora utwór miałby stanowić diagnozę kryzysu kultury patriarchalnej, ponieważ to nie mężczyzna, lecz kobieta okazuje się postacią zdolną zakończyć wojnę i zlikwidować kryzys w państwie. Lizystrata przywołuje także typowe kobiece i męskie role w społeczeństwie ateńskim, a tym samym podejmuje problem stereotypów płci. Wg Szymona Kostka tytułową postać utworu „można interpretować w kategoriach maskulinizmu i/lub androgynii. Heroina została zbudowana z pierwiastków żeńskich i męskich (...) ”. Natomiast Thesmoforie oscylują wokół zagadnienia transwestytyzmu. Motorem fabuły jest „przebieranie się jednostki w stroje płci przeciwnej”. Komedia pozwala się interpretować w świetle zagadnienia transwestytyzmu, dlatego że odtwarza model społeczeństwa, w którym funkcjonuje silny podział ról społecznych na role kobiece i męskie. W komedii występuje postać Eurypidesa, który w ramach obmyślonej intrygi przebiera swojego krewnego za kobietę, aby uniknąć kłopotów. Poeta przywołuje także tragika Agatona i przedstawia go jako pół-mężczyznę i pół-kobietę, zwracając uwagę na kwestie homoseksualizmu i rekwizyty płci. Z utworu wyłania się koncepcja, że to nie tylko płeć danej osoby determinuje określony strój i rekwizyty, ale także stosowanie określonych kostiumów i rekwizytów pozwala określić to, jaka jest płeć danej osoby. Thesmoforie sugerują tezę, że płeć to kostium. Punktem wyjścia fabuły Sejmu kobiet jest konieczność zmian w niefunkcjonalnym społeczeństwie patriarchalnym. Plan działania protagonistki opiera się na przekazaniu kobietom władzy w mieście oraz na komunistycznym rozdziale własności prywatnej, co prowadzi do ustanowienia matriarchatu, który okazuje się porządkiem bardziej represyjnym niż ten, jaki został podważony. Sejm kobiet porusza problem stereotypów płci, wskazując na to, jakie zachowania są typowe dla mężczyzn, a jakie dla kobiet: „w komedii męskość i kobiecość jawią się jako pewne projekty. Są wytworami kultury: strojów, gestów, języka. Są zatem wzorcami przeznaczonymi do reprodukowania. Stanowią zespół cech, podlegający interpretacji i procesom identyfikacyjnym”. Arystofanes na współczesnych scenach polskich Ostatnie lata w teatrze polskim zaowocowały kilkoma inscenizacjami komedii Arystofanesa, ale ani same komedie, ani ich nieliczne realizacje nie wzbudziły poważniejszego zainteresowania wśród twórców i odbiorców. 11 maja 2002 r. w Teatrze Narodowym w Warszawie Zbigniew Zamachowski i Wojciech Malajkat przedstawili Żaby, w których wykorzystano cytaty z utworów wieszczów narodowych (Adam Mickiewicz, Stanisław Wyspiański) oraz wprowadzono aluzje do współczesnych zdarzeń. W spektaklu wziął udział Grzegorz Turnau. Krytycy uznali, że w spektaklu filozoficzny i polityczny aspekt komedii został przykryty farsowymi rozwiązaniami: „mądra komedia o Dionizosie, wśród zmarłych poetów szukającego ratunku przed upadkiem zdemoralizowanych, do szczętu skorumpowanych Aten, przerodziła się w serię estradowych wygłupów”. 10 września 2005 r. w Teatrze Śląskim im. Stanisława Wyspiańskiego w Katowicach Michał Ratyński wystawił Lizystratę. W przedstawieniu zrezygnowano z rekonstrukcji teatru greckiego i nie dochowano wierności tekstowi komedii, skupiono się na grze formą i przenikaniu się konwencji teatralnych, co było przejawem postmodernistycznej lektury utworu. Spektakl wyeksponował typowe dla Arystofanesa zagadnienie relacji damsko-męskich oraz problem tożsamości płciowej: „w tej inscenizacji to nie mężczyźni grają zresztą kobiety (jak nakazywał zwyczaj), lecz aktorki, gdy trzeba, wkładają maski i mówią kwestie mężczyzn. Anna Kadulska, Alina Chechelska i Dorota Chaniecka budują swoje postacie w różnych stylach i z różnym natężeniem dystansu, dzięki czemu widz szybko daje się wciągnąć w wielowarstwową grę mitów i rzeczywistości”. W 2005 r. zrealizowano także inscenizację Ptaków zatytułowaną Po ptakach. Spektakl był uwspółcześnioną interpretacją komedii Arystofanesa. Powstał w Stowarzyszeniu Teatralnym „Chorea” w Lublinie we współpracy z walijskim teatrem Earthfall Dance Company. Za reżyserię odpowiadali Jessica Cohen, Jim Ennis i Tomasz Rodowicz. Twórcy zbudowali dystans do scenicznych zdarzeń, operowali teatralnymi skrótami, zespolili komiczne elementy z epizodami okrucieństwa, aby przedstawić skutki fanatyzmu. Spektakl wzbogacono o starożytne pieśni i minimalistyczną choreografię Earthfall Dance Company. Krytycy zauważyli, że „mieszają się tu różne konwencje. Precyzyjnie skomponowana choreografia – szczególnie grupowa – i klaunada. Tańce jak z dancingu i elementy akrobatyki. Gesty realistyczne i symboliczne. Estetyka kiczu i estetyka dzisiejszej ulicy: płaszcze, garnitury i ptasie piórka na czapce. Zrekonstruowane z dwutysiącletnich papirusów pieśni greckie i ich hiphopowe remiksy. Organy, jazzująca trąbka i wiejskie dudy (kozioł lubuski). Bach. DJ i ludowa pieśń weselna”. Finałowe małżeństwo ukazano zaś jako ceremonię sankcjonującą gwałt: „Oblubieniec zamyka Oblubienicę w klatce z ramion. Dociska do muru”. Najszerzej komentowaną inscenizacją komedii Arystofanesa ostatnich lat był Sejm kobiet wyreżyserowany przez Mikołaja Grabowskiego w Narodowym Starym Teatrze im. Heleny Modrzejewskiej w Krakowie. Premiera odbyła się 6 stycznia 2007 r. Spektakl otwierał projekt Starego Teatru „re: wizje/antyk”. Zestawiono w nim utwór Arystofanesa z fragmentami książki Ottona Weiningera Płeć i charakter: „mizogynizm tekstu nie jest u Grabowskiego jednoznaczny, bo spektakl zaczyna się od stwierdzenia o obecności pierwiastka męskiego i kobiecego w każdym człowieku, a kwestie wypowiadają aktorki ubrane w garnitury (i aktorzy w spódnicach)”. Wizja demokracji ateńskiej została wprowadzona w czasy współczesne, operowano aluzjami do współczesnej Polski (pojawiło się nazwisko Kuby Wojewódzkiego), próbowano zharmonizować tonacje poważne i komiczne oraz zastosowano konwencje musicalowe. Reżyser podkreślił, że „ta komedia bliska jest teatrowi awangardowemu lat 60. Jak uderzające jest podobieństwo chwytów. Są partie improwizowane, zwroty do publiczności, piosenki, tańce – można zaryzykować stwierdzenie, że Arystofanes pracował w bardzo współczesny sposób”. Natomiast zdaniem krytyków Mikołaj Grabowski dążył do tego, aby wskazać, że „feminizm doprowadza do upadku kulturę, państwo i kobiety” i że „demokracja jest matką totalitaryzmu”. 9 maja 2013 r. miała miejsce premiera spektaklu Między nogami Teatru Niekonsekwentnego w reżyserii Adama Kuzycz-Berezowskiego, Michała Lewandowskiego, Macieja Litkowskiego i Wojciecha Sandacha na Scenie Malarnia Teatru Współczesnego w Szczecinie. Podstawą scenariusza były cztery komedie Arystofanesa, tj. Lizystrata, Thesmoforie, Żaby i Ptaki. Spektakl to „przewrotna gra stereotypami na temat seksu i płci. Nie bez kozery role kobiet i mężczyzn są tu wymienne, a zamiana tych ról odbywa się za pomocą bardzo umownych środków i drobnych szczegółów kostiumu”. Arystofanes we współczesnej polskiej refleksji krytycznej W ostatnich kilkunastu latach można zauważyć zainteresowanie wśród polskich badaczy twórczością Arystofanesa. Istotne miejsce zajmują dwie publikacje, które wprowadzają w szeroki polski obieg czytelniczy spuściznę greckiego poety, tj. dwutomowe wydanie zachowanych komedii w serii „Biblioteka Antyczna” opracowane przez Janinę Ławińską-Tyszkowską oraz publikacja Komedia grecka. Od Epicharma do Menandra przygotowana przez Krystynę Bartol i Jerzego Danielewicza W 2015 r. ukazała się monografia Arystofanes Olgi Śmiechowicz pozostająca „na granicy analizy filologicznej”. Natomiast w 2018 r. redakcja Teologii Politycznej wydała pracę Leo Straussa Sokrates i Arystofanes w tłumaczeniu na język polski. Książka ta stanowi obszerną analizę utworów Arystofanesa z perspektywy zagadnień filozofii polityki. Ponadto w kilku artykułach problemowych badacze analizowali środki komiczne w Żabach (Piotr Makowski), rolę chóru i funkcję protagonisty w tej komedii (Sylwester Dworacki i Szymon Kostek), w kontekstach społeczno-kulturowych interpretowali Lizystratę, Thesmoforie i Sejm kobiet (Yvonne Borowski i Szymon Kostek). Badacze zwracali także uwagę na wizerunki sędziów i sądów w komediach Arystofanesa (Szymon Kostek i Waldemar Szefliński), a także przyglądali się postaci Sokratesa, która wyłania się z dzieła poety (Ryszard Legutko). Poza tym Janusz Goćkowski opracował problem Arystofanejskiej krytyki demokracji, zaś Rafał Michalski wykorzystał koncepcje filozoficzne Hegla w analizie Chmur. Olga Śmiechowicz zajmowała się też obecnością twórczości Arystofanesa w polskim obiegu czytelniczym. Wykaz dzieł Z 44 utworów Arystofanesa zachowało się 11: Acharnejczycy (425 p.n.e.), także Acharniakowie lub Acharniacy, I miejsce w agonie (konkursie) komicznym na Lenajach Rycerze (424 p.n.e.), I miejsce w agonie komicznym na Lenajach Chmury (423 p.n.e.), druga wersja, być może nigdy niewystawiona; pierwsza wersja zajęła III (ostatnie) miejsce w agonie komicznym na Dionizjach Osy (422 p.n.e.), II miejsce w agonie komicznym na Lenajach Pokój (421 p.n.e.), II miejsce w agonie komicznym na Dionizjach Ptaki (414 p.n.e.), wystawione na Dionizjach Lizystrata (411 p.n.e.), także Gromiwoja lub Bojomira Thesmoforie (411 p.n.e.) Żaby (405 p.n.e.), wystawione na Lenajach Sejm kobiet (392 p.n.e.), także Sejm niewieści, Babie koło Plutos (388 p.n.e.), druga wersja Niezachowane komedie z określonym rokiem powstania: Biesiadnicy (427 p.n.e.) Babilończycy (426 p.n.e.) Rolnicy (424 p.n.e.) Statki handlowe (423 p.n.e.) Chmury (423 p.n.e.), pierwsza wersja Proagon (422 p.n.e.) Amfiaraos (414 p.n.e.) Plutos (408 p.n.e.), pierwsza wersja Gerytades (wystawiona najprawdopodobniej w 407 p.n.e.) Kokalos (387 p.n.e.) Aiolosikon (386 p.n.e.), druga wersja Spośród niezachowanych utworów Arystofanesa znane są rozliczne ich fragmenty (liczba dochodzi do 1000). Polskie przekłady utworów Arystofanesa Bogusław Butrymowicz Żaby, Chmury, Acharnejczycy, Rycerze, Pokój i Ptaki (inne komedie zaginęły w czasie wojny i nie zostały opublikowane) Józef Jedlicz Ptaki Stefan Srebrny Rycerze, Osy, Bojomira, Lizystrata, Sejm kobiet, Plutos Artur Sandauer Chmury, Ptaki, Żaby Zofia Saretok Lizystrata Edmund Cięglewicz Żaby, Chmury, Gromiwoja (tj. Lizystrata), a niedrukowane Babie koło (tj. Sejm kobiet) wystawiono w 1920 r. w jednym z teatrów warszawskich Janina Ławińska-Tyszkowska Acharnejczycy, Rycerze, Chmury, Osy, Pokój, Ptaki, Lizystrata, Thesmoforie, Żaby, Sejm kobiet, Plutos Zobacz też Kratinos Eupolis Ajschylos Sofokles Eurypides Menander Chmurny Kukułczyn Przypisy Bibliografia Linki zewnętrzne Artykuł Janiny Ławińskiej-Tyszkowskiej Demokracja ateńska i jej wielki prześmiewca Tekst Yvonne Borowski Słowo i język w komedii arystofanejskiej Artykuł Szymona Kostka Zmierzch komedii staroattyckiej? Wybrane problemy Plutosa Arystofanesa Artykuł Olgi Śmiechowicz „Lizystrata dla dekadenckiej epoki” – wprowadzenie komedii Arystofanesa do kultury czytelniczej w okresie Młodej Polski Artykuł Transwestyci (?) w „Thesmoforiach” Arystofanesa Artykuł Seksualność w służbie ateńskiego pokoju, czyli próba genderowej lektury „Lizystraty” Arystofanesa Artykuł Utopijny plan Praksagory. Próba społeczno-kulturowej interpretacji „Sejmu kobiet” Arystofanesa Arystofanes – dzieła w bibliotece Polona Pisarze i poeci starożytnej Grecji Pisarze IV wieku p.n.e. Pisarze V wieku p.n.e. Urodzeni w V wieku p.n.e. Zmarli w IV wieku p.n.e.
90
https://pl.wikipedia.org/wiki/Amonity
Amonity
Amonity, amonitowate (Ammonoidea) – podgromada wymarłych głowonogów (Cephalopoda), przeważnie o symetrycznej, płaskospiralnej skorupie. Nieliczne rodzaje miały nietypowe kształty, np. prostej muszli, spirali zwiniętej w pionie, spirali o niestykających się skrętach. Takie formy, nazywane heteromorfami, występowały głównie na początku rozwoju amonitowatych (dewon wczesny i środkowy) oraz w kredzie. Amonitowate stanowią ważne skamieniałości przewodnie, pozwalające określić wiek skał osadowych, w których są spotykane. Występują w skałach pochodzenia morskiego z okresu od dewonu do końca kredy. Przodkami amonitowatych były łodzikowate (baktryty). Budowa muszli Muszla amonitowatych zbudowana była z aragonitu i dzieli się na dwie części: dużą, przyujściową komorę mieszkalną oraz fragmokon złożony z szeregu niewielkich komór wypełnionych gazem. Komory te powstawały przez całe życie osobnika, dzięki temu że amonitowaty rosnąc powiększał i dobudowywał od strony ujścia komorę mieszkalną, przesuwając się w kierunku ujścia, a pustą przestrzeń z tyłu oddzielał aragonitową przegrodą od komory mieszkalnej. Komora mieszkalna była połączona z fragmokonem rurkowatą tkanką zwaną syfonem, która przechodziła przez wszystkie komory aż do embrionalnej. W skamieniałościach zachowuje się sfosylizowana osłonka syfonu i jego wypełnienie, całość jest popularnie, choć niezbyt prawidłowo, zwana również syfonem. W ujściu muszli amonitowatych znajdowały się kalcytowe płytki aptychy i anaptychy pełniące funkcję dolnej szczęki, a u niektórych rodzajów dodatkowo także wieczka zamykającego wejście do muszli. Przegrody międzykomorowe w trakcie ewolucji amonitowatych miały tendencję do coraz większego pofałdowania. Przyczyna tego jest wciąż dyskutowana, ale przeważnie wyjaśnia się to zwiększoną odpornością silnie pofałdowanych przegród na naprężenia. Linia kontaktu przegrody z wewnętrzną ścianą muszli jest zwana linią przegrodową lub lobową, a jej kształt stanowi jeden z podstawowych elementów klasyfikacji amonitowatych, obok kształtu muszli i jej ornamentacji. Część muszli amonitowatych była gładka, jednak większość posiadała żebra przebiegające w poprzek skrętu oraz guzki na bocznej stronie skrętu. U nielicznych rodzajów guzki te przekształcały się w pokaźne kolce. Wielkość Największe znane amonitowate pochodzą z kredy i osiągały 2 m średnicy. Ponieważ te okazy zachowały się z ułamaną komorą mieszkalną, to szacuje się, że ich rzeczywista średnica mogła sięgać około 2,5 m. Jednak większość dorosłych amonitowatych miała kilka – kilkanaście centymetrów średnicy. U niektórych rodzajów udokumentowano dużą różnicę wielkości muszli między płciami. Przyjmuje się, że większe były samice, gdyż potrzebowały przestrzeni do rozwoju jaj. Ekologia Amonitowate były mięsożercami, odżywiającymi się wszystkimi wolno poruszającymi się bezkręgowcami, w tym także innymi amonitowatymi. Przynajmniej niektóre amonity z grupy Aptychophora, takie jak Baculites, żywiły się planktonem. Same Ammonoidea padały zaś ofiarami wielkich morskich gadów, głównie pliozaurów i ichtiozaurów. Żyły wyłącznie w morzach, w większości w wodach otwartych. Na temat ich aktywności pływackiej trwa wciąż dyskusja. Przeważnie przyjmuje się, że większość amonitowatych aktywnie, choć niezbyt szybko pływała, nieliczne rodzaje o bardzo wysmukłej muszli posądzane są o zdolność do szybkiego ruchu, natomiast heteromorfy uważane są za zwierzęta planktoniczne żyjące przy dnie. Zdecydowana większość amonitów wyginęła w czasie wielkiego wymierania na granicy kreda/paleogen w wyniku katastrofalnych zmian środowiska wywołanych przypuszczalnie upadkiem meteorytu. Kilka gatunków żyjących w Europie na początku danu opisano w 2005 roku, były to jednak prawdopodobnie lokalne populacje, które tylko chwilowo zdołały przetrwać katastrofę kredową. Z 9 rzędów amonitowatych, najważniejsze są następujące rzędy: Goniatitida (goniatyty, dewon-perm) Clymeniida (klymenie, dewon późny: fran, famen) Ceratitida (ceratyty, perm-trias) Lytoceratida (lytocerasy), jura – kreda Phylloceratida (fyllocerasy), trias – kreda Ammonitida (amonity właściwe, jura, kreda) Ancyloceratida (ankyloceratidy), kreda Systematyka amonitowatych jest jeszcze w ciągłej dyskusji naukowej. W Polsce można je znaleźć m.in.: w skałach mezozoicznych Tatr (np. w skałach pod Ciemniakiem), w dewońskich utworach Gór Świętokrzyskich oraz w skałach mezozoicznych ich osłony, w skałach jurajskich Wyżyny Krakowsko-Częstochowskiej, a także w skałach kredowych Wyżyny Miechowskiej, w dolinie Wisły między Annopolem a Puławami, na Roztoczu i Wyżynie Lubelskiej. Goniatyty i klymenie pojawiają się również w Sudetach w skałach dewońskich okolic Nowej Rudy. Zobacz też Lista amonitów Przypisy Linki zewnętrzne
91
https://pl.wikipedia.org/wiki/Alfabet%20hebrajski
Alfabet hebrajski
Alfabet hebrajski, nazywany też pismem żydowskim lub pismem kwadratowym – alfabet spółgłoskowy stosowany do zapisu języka hebrajskiego, jidysz, ladino, judeo-arabskiego i innych języków żydowskich, wywodzący się z alfabetu aramejskiego, a pośrednio z fenickiego i egipskich hieroglifów. Język hebrajski przejął ten rodzaj pisma między IV a II w. p.n.e. (w miejsce wcześniej używanego alfabetu paleohebrajskiego będącego odmianą fenickiego). Składa się z 22 znaków, a w przeciwieństwie do alfabetu łacińskiego nie rozróżnia się w nim liter małych i wielkich. Najstarszy znany zapis pełnego alfabetu hebrajskiego zawiera Kamień z Tel Zajit. Kierunek pisma: od prawej do lewej. W alfabecie hebrajskim nie zapisuje się samogłosek, choć współcześnie niektórych liter używa się w tym celu. Litery alfabetu hebrajskiego: Pięć liter (kaf, mem, nun, pe, cade) przyjmuje na końcu wyrazu inną graficznie formę, zwaną końcową (kaf finalne, mem finalne itd.). Są to tak zwane „litery końcowe” (sofit). Kształt liter „pisanych” (kursywy) różni się znacznie od pierwowzorów „drukowanych” (pismo kwadratowe). Niektóre litery zmieniają swoją wymowę (i nazwę) po umieszczeniu wewnątrz litery dageszu (znaku w kształcie kropki). Są to np. wet () → bet (), chaf () → kaf (), fe () → pe (). W niektórych epokach i dialektach języka hebrajskiego istniało też rozróżnienie: thaw () → taw (), nieistniejące we współczesnym hebrajskim (izraelskim). Dodanie dageszu (dagesz hazak) do innej litery oznacza jej podwojenie. Litera szin ma kropkę nad prawym „ramieniem” (lecz nie jest to dagesz) i wtedy wymawiana jest jako „sz”. Kropka nad „ramieniem” lewym zmienia nazwę na sin i wymowę na „s”. Judaizm uznaje graficzną formę alfabetu za świętą; mistycy żydowscy uważali litery hebrajskie za nośniki duchowych mocy, a ich znajomość za sposób przybliżania się do Boga. Zobacz też kabalistyczny zapis dat Przypisy Linki zewnętrzne
92
https://pl.wikipedia.org/wiki/Albert%20Camus
Albert Camus
Albert Camus (wym. []; ur. 7 listopada 1913 w Mondovi, zm. 4 stycznia 1960 w Villeblevin) – francuski pisarz, dramaturg, eseista i reżyser teatralny. Urodzony w Algierii Francuskiej, tworzył swoje dzieła głównie we Francji europejskiej. Jest uważany za czołowego reprezentanta absurdyzmu (często błędnie uznawany za reprezentanta egzystencjalizmu, którego sam się wypierał) w literaturze i za jednego z najwybitniejszych intelektualistów Europy w II połowie XX wieku. Był laureatem Nagrody Nobla w dziedzinie literatury w 1957. Politycznie wspierał Anarchizm. Życiorys Pochodzenie Albert Camus urodził się w rodzinie potomków hiszpańskich osadników. Wychował się w biednej rodzinie żyjącej na przedmieściach stolicy kraju, Algieru. Był wychowywany jako katolik, jednak porzucił religię i stał się ateistą. Jest też określany mianem agnostyka. Jego matka, Catherine z domu Sintès, z pochodzenia Katalonka, była niepiśmienna. Jej rodzina wyemigrowała do Algierii w połowie XIX wieku, z hiszpańskiej wyspy Minorka w archipelagu Balearów. Ojciec pisarza, Lucien, był robotnikiem. Jego przodkowie przybyli do Algierii zapewne wkrótce po 1830 i należeli do grupy pierwszych francuskich osadników w północnej Afryce. Gdy Camus miał niespełna rok, w Europie wybuchła pierwsza wojna światowa. Ojciec zginął w walce z Niemcami w bitwie nad Marną w 1914. Albert był bramkarzem w juniorskiej drużynie futbolowej. Jego karierę sportową przerwało zachorowanie na gruźlicę. Po długotrwałym leczeniu Camus opuścił szpital, jednak do końca życia bał się nawrotu choroby. Wykształcenie Albert Camus zdobył wykształcenie dzięki wychowawcy, który po długich staraniach uzyskał dla niego stypendium naukowe. Duże znaczenie miała w jego życiu znajomość z profesorem Louisem Germainem, który zachęcał młodego Alberta do nauki i podsuwał mu klasyczne dzieła literatury (pod wpływem jednej z tych lektur – Żywotów Cezarów Swetoniusza – Camus napisze później dramat Kaligula). Do kształtowania poglądów Camusa przyczynił się przede wszystkim jego nauczyciel filozofii ze szkoły średniej – Jean Grenier. W 1932 zdał maturę i wstąpił na Uniwersytet w Algierze, gdzie studiował filozofię i historię kultury antycznej. Zainteresowania Kilka lat później zaczęły się jego pierwsze związki z polityką i dziennikarstwem. Na krótko wstąpił do Francuskiej Partii Komunistycznej, z której został jednak wydalony z powodu zbyt dużej różnicy zdań. Od 1937 do 1940 pracował jako dziennikarz w antykolonialnym dzienniku Alger Républicain. Mniej więcej w tym samym okresie rozpoczęła się jego przygoda z teatrem. W 1936 wraz z przyjaciółmi założył bowiem „Théâtre du Travail” (Teatr Pracy), którego pierwsze przedstawienie (grano wówczas Czas pogardy André Malraux; później wystawiano tam Ajschylosa, Gorkiego i innych) okazało się wielkim sukcesem. Po jego rozwiązaniu Camus założył kolejny teatr o nazwie „L’Équipe”. Emigracja z Afryki Camus wyjechał do Paryża w 1940, po ostrej krytyce jego artykułu. Gdy miasto zajęli Niemcy, przeniósł się do Lyonu, a stamtąd powrócił na krótko do Algierii i zamieszkał w Oranie. W 1942 przyjechał na stałe do Paryża i już nigdy nie powrócił do swojej ojczystej Algierii. W stolicy Francji Camus wspólnie z Pascalem Pia redagował podziemne czasopismo „Combat”. W tym okresie zaprzyjaźnił się z Jean-Paulem Sartrem. Przyjaźń ta urwała się po cyklu artykułów Camusa, które poróżniły go z obozem sławnego filozofa; wpływ jej był jednak na tyle silny, że zaczęto przypisywać Camusowi egzystencjalizm, przed czym on sam zaciekle się bronił. W 1947 ostatecznie odciął się od dziennikarstwa i polityki, by móc w pełni oddać się teatrowi i pisarstwu. Wyjątek stanowi zbiór esejów Człowiek zbuntowany, w którym – wbrew modzie panującej wśród francuskich intelektualistów – poddał surowej krytyce stalinizm i ujawnił mało znane na Zachodzie fakty dotyczące masowych zbrodni komunistycznych w ZSRR. Laureat Nagrody Nobla W 1957 otrzymał literacką Nagrodę Nobla za „ogromny wkład w literaturę, ukazującą znaczenie ludzkiego sumienia”. We Francji, gdzie Camus zyskał ogromną popularność, pisarz był pod koniec życia stale atakowany – za brak reakcji na wojnę w ojczystej Algierii, za brak zaangażowania lewicowego, za niemoralność jego książek. Trzy lata po otrzymaniu Nagrody Nobla Camus – w wieku 46 lat – zginął w wypadku samochodowym, gdy wracał do Paryża wraz z przyjacielem i wydawcą Michelem Gallimardem. Gallimard stracił kontrolę nad samochodem, zjechał z drogi i uderzył w drzewo. Pisarz poniósł śmierć na miejscu. W torbie miał niedokończony szkic powieści Pierwszy człowiek. Twórczość Camus używał pseudonimów Vincent Capable, Jean Meursault, Louis Neuville, Demos, Irenée. Utwory Camusa na język polski tłumaczyły Joanna Guze i Maria Zenowicz-Brandys. Klasyfikacja Całą twórczość Camusa można dzielić według wielu kryteriów, z których najbardziej chyba znane są dwa tryptyki: Mit Syzyfa, do którego zaliczają się Mit Syzyfa, Obcy i Kaligula, oraz Mit Prometeusza: Człowiek zbuntowany, Dżuma, Nieporozumienie. Dużo oczywistszym podziałem jest rozróżnienie na gatunki literackie. Mamy więc w jego spuściźnie powieści (Obcy, Dżuma, Upadek, Pierwszy człowiek), dramaty (Kaligula, Stan oblężenia, Nieporozumienie, Sprawiedliwi), eseje filozoficzne (począwszy od napisanej w 1936 Metafizyki chrześcijańskiej i neoplatonizmu, przez Mit Syzyfa, Prawą i lewą stronę, aż po Człowieka zbuntowanego) czy w końcu zbiory opowiadań (Wygnanie i królestwo, Lato). Poglądy zawarte w dziełach Poglądy Camusa ewoluują od postawy buntu i heroicznego trwania, które jest tematem Mitu Syzyfa, aż do głębokiego humanizmu, któremu najpełniejszy wyraz daje w Dżumie. Postacie Kaliguli oraz Meursaulta, bohatera Obcego, ukazują nie tylko konfrontację żelaznej logiki z ludzką zmysłowością i tak łatwo przyjmowanym światem, lecz odsłaniają dalsze źródła samotności człowieka; są istnymi dziełami o trwaniu nade wszystko. Obaj bohaterowie w końcu pragną śmierci, gdyż właśnie ona prowadzi do ich zwycięstwa – pojednania ze światem. Postrzegani jako szaleńcy, wykluczeni ze społeczeństwa czy to z powodu znikomości (Meursault), czy też wielkości (Kaligula) odgrywanej roli, porównani zostają do Syzyfa. Dramat Syzyfa nie polega na wiecznym trwaniu jego mozołu, ale na jego świadomości, na świadomości wiecznej porażki. Paradoksalnie, na tym też polega jego wielkość i bohaterstwo. Prawdopodobnie pod wpływem filozofii Wschodu, witalizmu śródziemnomorskiego i filozofii Fryderyka Nietzschego Camusowskiego Syzyfa – jak pisze w swoim eseju – trzeba wyobrażać sobie szczęśliwym. Nawiązania do tego tematu można odnaleźć np. w Dżumie czy w przemówieniu, które Camus wygłosił po odebraniu Nagrody Nobla. Obraz bohaterów diametralnie zmienia się w drugim tryptyku, do którego należy Dżuma. Dominujące w utworze postacie – doktor Rieux (będący zresztą alter ego Camusa) i Tarrou – prezentują głębokie zaangażowanie w sprawy człowieka. Jedynym wyznacznikiem moralności jest zwykła uczciwość. Ona to każe przede wszystkim bronić człowieka i, co za tym idzie, nie zgadzać się na zło. Innym tematem w twórczości Camusa jest osamotnienie człowieka wobec jego otoczenia, niemożność zrozumienia jego zamierzeń i intencji, niesłuszna ich interpretacja, nadinterpretacja nieraz; w efekcie ucieczka od człowieczeństwa – a to przecież jest dla Camusa dżumą. Albert Camus a Gustaw Herling-Grudziński Po angielskim wydaniu Innego Świata Herlinga-Grudzińskiego z przedmową Bertranda Russella w 1951 r., do paryskiego wydawnictwa Gallimard został wysłany maszynopis powieści, który trafił w ręce Alberta Camusa, pracującego w tamtym czasie w wydawnictwie jako lektor. Książka została przez wydawnictwo odrzucona. Jak podkreśla córka pisarza, Catherine Camus w rozmowie z Piotrem Kieżunem, stało się to jednak za sprawą André Malraux, a nie Camusa, który twórczość polskiego pisarza uważał sobie za bliską oraz sprzeciwiał się niewydaniu francuskiego przekładu. Dzieła (chronologicznie) Metafizyka chrześcijańska i neoplatonizm (Métaphysique chrétienne et Néoplatonisme, 1936) - esej filozoficzny Dwie strony medalu (L’Envers et l’Endroit, 1937) – eseje Kaligula (Caligula, 1938) – dramat, premiera 1944 Gody (Noces, 1939) – eseje Mit Syzyfa (Le Mythe de Sisyphe, 1942) – esej Obcy (L’Étranger, 1942) – powieść Nieporozumienie (Le Malentendu, 1944) – dramat Listy do przyjaciela Niemca (Lettres à un ami allemand, 1945) – esej Dżuma (La Peste, 1947) – powieść Stan oblężenia (L’État de siège, 1948) – dramat Sprawiedliwi (Les Justes, 1950) – dramat Człowiek zbuntowany (L’Homme révolté, 1951) – esej Lato (L’Été, 1954) – eseje i szkice z lat 1939–1953. Upadek (La Chute, 1956) – powieść Poznań (1956) – przemówienie Wygnanie i królestwo (L’Exil et le royaume, 1957) – nowele Śmierć szczęśliwa (La Mort heureuse, 1971) – powieść (nieukończona, wydana pośmiertnie) Pierwszy człowiek (Le premier homme, 1994) – powieść (nieukończona, wydana pośmiertnie) Albert Camus, Maria Casarès. Correspondance inédite (1944–1959). Édition de Béatrice Vaillant. Collection Blanche, Gallimard. 09-11-2017. Przypisy Bibliografia Albert Camus, Śmierć szczęśliwa (Mort heureuse), Kraków 1998, . Joanna Guze, Albert Camus: los i lekcja, Zeszyty Literackie, Warszawa 2004, . Justyna Sobolewska, Komu Camus, „Polityka”, nr 2/2010. Linki zewnętrzne The Albert Camus Society Algierczycy Algierscy prozaicy Algierscy poeci Członkowie Francuskiej Partii Komunistycznej Nobliści – literatura Egzystencjaliści Francuscy prozaicy XX wieku Francuscy dramaturdzy XX wieku Francuscy eseiści Filozofowie francuskojęzyczni Filozofowie współcześni Francuskie ofiary wypadków drogowych Urodzeni w 1913 Zmarli w 1960 Antyfaszyści
93
https://pl.wikipedia.org/wiki/Alabama%20%28ujednoznacznienie%29
Alabama (ujednoznacznienie)
geografia Alabama – stan w USA Alabama – miasto w Stanach Zjednoczonych, w stanie Nowy Jork, w hrabstwie Genesee Alabama (ang. Alabama Township) – gmina w Stanach Zjednoczonych, w stanie Arkansas, w hrabstwie Nevada Alabama (ang. Alabama Town) – gmina w Stanach Zjednoczonych, w stanie Nowy Jork, w hrabstwie Genesee Alabama – rzeka w USA etnografia Alabama – plemię Indian z Ameryki Płn. kinematografia i muzyka Alabama (Noemi i diabeł) - piosenka z repertuaru Ludmiły Jakubczak - 1957 Alabama Song (Whiskey Bar) - piosenka z repertuaru The Doors - 1967 Alabama – amerykański zespół muzyczny powstały w 1970 Alabama – film polski z 1984 r. Alabama: 2000 Light Years from Home – film Wima Wendersa nazwy okrętów CSS Alabama USS Alabama (ujednoznacznienie) Zobacz też
94
https://pl.wikipedia.org/wiki/Alaska%20%28ujednoznacznienie%29
Alaska (ujednoznacznienie)
Alaska – stan USA, Alaska – półwysep w północno-zachodniej części Ameryki Północnej Alaska – pasmo górskie w Kordylierach Zatoka Alaska – zatoka Oceanu Spokojnego
95
https://pl.wikipedia.org/wiki/Arizona%20%28ujednoznacznienie%29
Arizona (ujednoznacznienie)
Arizona – gatunek węży Arizona – stan w USA Arizona – amerykański western z 1940 roku w reżyserii Wesleya Rugglesa Arizona – polski film dokumentalny USS "Arizona" – okręty US Navy Arizona – gmina w Hondurasie
97
https://pl.wikipedia.org/wiki/Alabama
Alabama
Alabama (wym. ) – stan w południowo-wschodniej części Stanów Zjednoczonych, położony nad Zatoką Meksykańską. Obszar nizinny, od północnego wschodu ograniczony wyżyną Cumberland, od północnego wschodu górami – Appalachami. Na północy sąsiaduje ze stanem Tennessee, na wschodzie z Georgią, na południu z Florydą i Zatoką Meksykańską, na zachodzie z Missisipi. Alabama zajmuje 30. miejsce pod względem powierzchni oraz 23. pod względem liczby ludności wśród stanów Stanów Zjednoczonych. Od wojny secesyjnej do II wojny światowej stan ten odczuwał trudności gospodarcze ze względu na ciągłe uzależnienie od rolnictwa. Pomimo rozwoju przemysłu i ośrodków miejskich, aż do 1960 roku w stanowej legislaturze reprezentowane były głównie interesy białych mieszkańców obszarów wiejskich, podczas gdy pomijano postulaty Afroamerykanów i mieszkańców miast. Po II wojnie światowej Alabama odnotowała wzrost gospodarczy spowodowany odejściem od rolnictwa na rzecz bardziej zróżnicowanych gałęzi takich jak przemysł ciężki, wydobycie minerałów, edukacji i rozwój technologii. Ponadto rozwinięto wiele instalacji wojskowych, które dały wiele miejsc pracy mieszkańcom stanu. Alabama jest nieoficjalnie nazywana stanem złotego dzięcioła, a także Sercem Dixie. Stanowym drzewem jest sosna długoigielna, a kwiatem kamelia. Stolicą stanu jest Montgomery, a najludniejszym miastem Birmingham. Huntsville z kolei ma największą powierzchnię, a Mobile założone w 1702 przez francuskich kolonistów jest najstarszym miastem w stanie. Historia Pochodzenie nazwy Plemię Alibamu mówiące językiem z rodziny muskogejskiej i zamieszkujące górny bieg rzeki Alabama posłużyło jako źródłosłów nazwy zarówno rzeki, jak i stanu. Określali oni samych siebie jako Albaamo, a słowo to prawdopodobnie pochodzi z języka czoktawskiego i zostało przejęte przez plemię Alibamu jako nazwa własna. Pisownia nazwy znacznie różni się w zależności od źródeł. Po raz pierwszy pojawia się w trzech relacjach z wyprawy Hernando de Soto w 1540 roku jako Alibamo, Alibamu lub Limamu. W 1702 roku było nazywane po francusku Alibamon i tak oznaczane na mapach z tamtego okresu. Inne źródła przedstawiały te tereny jako: Alibamu, Alabamo, Albama, Alebamon, Alibama, Alibamou, Alabamu i Allibamou. Stosunkowo łatwo można ustalić pochodzenie nazwy, jednak źródła nie zgadzają się co do jego pierwotnego znaczenia. Artykuł w Jacksonville Republican z 1842 roku stwierdza, iż słowo Alabama oznacza tu odpoczywamy i takie znaczenie zostało spopularyzowane w pismach Aleksandra Meek, ale językoznawcy nie byli w stanie znaleźć dowodów potwierdzających tę tezę. Uważają oni, że wyraz ten pochodzi od słów języka czoktawskiego alba (roślina lub chwast) i amo (ciąć, gromadzić) i tłumaczone jest jako zbieracze ziół lub zrywający chwasty. Ludność tubylcza Ludy tubylcze zamieszkiwały tereny stanu na tysiące lat przed europejską kolonizacją. Handel z północnym wschodem poprzez rzekę Ohio rozpoczął się między 1000 rokiem p.n.e. a 700 rokiem n.e. i trwał do kontaktu z Europejczykami. Kultura agrarna Missisipi pokrywała większość terytorium stanu od roku 1000 do 1600, a jednym z głównych jej ośrodków było Moundville (jest to drugi co do wielkości kompleks w Stanach Zjednoczonych, w którym badana jest kultura Missisipi). Analiza znalezisk z tego regionu była podstawą sformułowania cech ceremoniału południowo-wschodniego. Wbrew powszechnej opinii kultura tego regionu nie wykazuje bezpośrednich podobieństw do kultur Mezoameryki i rozwijała się niezależnie. Wśród historycznych plemion żyjących na obszarze dzisiejszej Alabamy byli Czirokezi mówiący językiem z grupy irokeskiej, a także Alibamu, Czikasawowie, Czoktawowie, Krikowie i Koasati mówiący językami z rodziny muskogejskiej. Osadnictwo europejskie Pierwszymi Europejczykami, którzy dotarli do dzisiejszej Alabamy w XVI w., byli Hiszpanie. W 1540 roku ekspedycja pod wodzą Hernando de Soto dotarła m.in. do Mabili i innych części Alabamy. Pierwszą europejską osadę w tym regionie Fort Louis de la Louisiane (dzisiejsze Mobile) założyli Francuzi w 1702 roku. Osada ta została przeniesiona w 1711 roku do miejsca, w którym obecnie znajduje się miasto Mobile. Obszar stanu należał do Francji w latach 1702–1763, a następnie do roku 1783 był częścią brytyjskiej Florydy Zachodniej na mocy traktatu paryskiego, po przegranej Francuzów z Brytyjczykami w wojnie siedmioletniej. Po wygranej Stanów Zjednoczonych w wojnie o niepodległość Alabama została podzielona pomiędzy Stany Zjednoczone i Hiszpanię. Ostatnia zachowała kontrolę nad tym terytorium do 13 kwietnia 1813 roku, kiedy doszło do kapitulacji hiszpańskiego garnizonu przez wojska amerykańskie w Mobile. Pierwszym brytyjskim osadnikiem był Thomas Bassett osiadły nad rzeką Tombigbee we wczesnych latach 70. XVIII wieku. Hrabstwa Baldwin i Mobile w 1810 roku stały się częścią niepodległej Republiki Zachodniej Florydy (przez 90 dni). Po aneksji przez Stany Zjednoczone dołączone do Terytorium Orleanu i wreszcie w 1812 włączone w skład Terytorium Missisipi. Większość północnej części Alabamy była znana jako Ziemie Yazoo. W 1767 roku zostały przyłączone do kolonii Georgia i pozostały w niej po rewolucji amerykańskiej. Przynależność ta była kwestionowana najpierw przez plemiona indiańskie, inne stany, a następnie przez rząd federalny Stanów Zjednoczonych, Wielką Brytanię i Hiszpanię. W 1802 roku region ten został włączony do Terytorium Missisipi. Nadanie statusu stanowego było jednak opóźnione przez brak dostępu do morza. Status stanowy, wojna domowa i odbudowa Alabama została przyjęta do Unii jako dwudziesty drugi stan w roku 1819. Jako jej tymczasową stolicę wybrano miasto Huntsville. Siedziba stanu została w 1820 roku przeniesiona do obecnie opuszczonego miasta o nazwie Cahaba w hrabstwie Dallas. Cahaba była pierwszą stałą stolicą stanu Alabama, obowiązującą w latach 1820–1825. Szybko pojawili się tu nowi osadnicy chcący skorzystać z żyznych gleb. Południowo-wschodni plantatorzy i handlowcy z Górnego Południa sprowadzili niewolników na rozwijające się plantacje bawełny. Gospodarka czarnego pasa (nazwa pochodzi od koloru ziemi) opierała się na dużych plantacjach bawełny, których właściciele wzbogacili się w dużej mierze na pracy niewolników. W latach 1810–1830 populacja stanu zwiększyła się z 10 000 do ponad 300 000. Obszar przyciągnął także wielu biednych ludzi, którzy stali się rolnikami na własne potrzeby. Spis ludności z roku 1860 wykazał 964 201 mieszkańców, z czego 45% stanowili czarni niewolnicy. W stanie było zaledwie 2690 wolnych ludzi o kolorze skóry innym niż biały. W latach 1826–1846 funkcję stolicy stanu pełniła Tuscaloosa. 30 stycznia 1846 roku władze stanu przeniosły stolicę do Montgomery, a pierwsza sesja parlamentu w nowej stolicy odbyła się w grudniu 1847 w nowo wybudowanym budynku. Spłonął on w 1849 roku, ale dwa lata później został odbudowany według pierwotnych planów. W dniu 11 stycznia 1861 roku Alabama ogłosiła secesję i dołączyła do Konfederacji. Choć na terytorium stanu stoczono niewiele bitew dostarczył on 120 tys. żołnierzy podczas wojny secesyjnej. Niewolnicy Alabamy uzyskali wolność na mocy 13. poprawki w 1865 roku. W czasie powojennej odbudowy władze utworzyły system szkół publicznych oraz pewne instytucje pomocy społecznej. Alabama oficjalnie powróciła do Unii w roku 1868. Po wojnie domowej stan nadal miał charakter rolniczy, oparty głównie na uprawie bawełny. Plantatorzy opierali się zniesieniu niewolnictwa i starali się odzyskać kontrolę nad pracownikami. Ku Klux Klan posiadał w stanie liczne niezależne oddziały atakujące wyzwolonych. Po jego zlikwidowaniu organizowano paramilitarne grupy takiej jak Czerwone Koszule i Biała Liga, które w sposób bardziej otwarty walczyły z prawami wolności. Wprowadzono Prawa Jima Crowa mające na celu zwiększenie przewagi białych w społeczeństwie. W 1875 roku zakazano publicznego finansowania katolickich szkół. 1900–1960 Nowa konstytucja stanowa z 1901 roku ograniczyła prawo do głosowania m.in. wprowadzając wymóg umiejętności czytania i pisania. Mimo iż plantatorzy uzyskali poparcie dla tych zmian wśród białych nieposiadających ziemi nowe ograniczenia nękały biednych głównie przez narzucanie podatku pogłównego. W roku 1900 prawa wyborcze posiadało ponad 181 tys. Afroamerykanów, ale w czerwcu 1903 liczba ta spadła do 2980, pomimo że co najmniej 79 tys. Afroamerykanów potrafiło czytać i pisać. W roku 1941 nie posiadało własnej ziemi 600 tys. białych i 520 tys. czarnych. Niemal wszyscy Afroamerykanie utracili prawa głosu. Prześladowania zakończyły się w połowie lat 60. XX wieku na mocy ustaw federalnych, dających prawo głosu wszystkim obywatelom. Zdominowana przez interesy rolnicze Alabama konsekwentnie zmniejszała finansowanie szkół i usług dla Afroamerykanów, nie zwalniając ich przy tym z płacenia podatków. Dalszy ciąg dyskryminacji rasowej, kryzys rolniczy oraz nieurodzaj bawełny na skutek zarazy nasienia skłonił dziesiątki tysięcy Afroamerykanów do emigracji na północ. Opuścili oni Alabamę na początku XX wieku i w wyniku Wielkiej Migracji przenieśli się do pracy w przemyśle i lepszej przyszłości w uprzemysłowionych miastach północy. Tempo wzrostu populacji w latach 1910–1920 spadło blisko o połowę. W tym samym czasie wielu rolników, zarówno białych, jak i czarnych, przeniosło się do Birmingham, znajdując zatrudnienie w rozwijającym się przemyśle. Miasto doznało tak szybkiego wzrostu populacji, że było nazywane The Magic City, co znaczy magiczne miasto. W latach 20. XX wieku Birmingham było 19. miastem Stanów Zjednoczonych pod względem liczby ludności. Mieszkało w nim ponad 30% mieszkańców całego stanu. Podstawą jego gospodarki był przemysł ciężki i górnictwo. Rozwój przemysłu napędzany potrzebami wojska w związku z II wojną światową przyniósł dobrobyt. Uprawa bawełny straciła na znaczeniu, a stan stał się bazą dla przemysłu i usług. W latach 60. XX wieku wielu białych było przeciwnych polityce integracji rasowej w szkołach i obiektach użyteczności publicznej. Po 1960 roku Mimo ogromnych zmian w rozmieszczeniu ludności pomiędzy rokiem 1901 a 1961, prorolnicza legislatura nie zezwoliła na ustalenie liczby mandatów do Izby Reprezentantów i Senatu na podstawie populacji. Zachowano stare zasady w celu zachowania politycznej i ekonomicznej władzy na obszarach rolniczych. Ponadto ustawodawcy tendencyjnie wyznaczyli okręgi wyborcze (tzw. gerrymandering), aby zapewnić elekcję osobom spoza Birmingham. W rezultacie hrabstwo Jefferson, w którym znajduje się Birmingham, skupiające przemysłową i gospodarczą siłę stanu i zapewniające 1/3 dochodów stanu, nie otrzymywało adekwatnych usług publicznych. Miejskie interesy były konsekwentnie pomijane przez władze i w wyniku tego ok. 25% ludności stanu miało wpływ na decyzje polityczne, dotyczące całej populacji. Afroamerykanie, z powodów historycznych, deklarowali się jako Republikanie, ale nie posiadali praw wyborczych. Natomiast biali wyborcy mieli żal do Republikanów ze względu na wojnę domową i konieczną odbudowę. Czynniki te wpłynęły na długoletnią tradycję polegającą na tym, że każdy kandydat chcący uzyskać poparcie musiał deklarować się jako Demokrata niezależnie od faktycznych poglądów politycznych. Afroamerykanie uzyskali prawa obywatelskie i wyborcze w roku 1965 i wtedy de iure w stanie zakończyła się segregacja rasowa. W 1972 roku pod wpływem nacisków ludności miejskiej władze – po raz pierwszy od 1901 roku – ustaliły liczbę mandatów na podstawie liczby ludności w poszczególnych okręgach wyborczych. To działanie pozwoliło uzyskać korzyści i rozwój obszarów miejskich, a także zapewniło prawidłową reprezentację ludności. Po 1972 roku biali wyborcy przenieśli większość swojego poparcia na kandydatów republikańskich w wyborach prezydenckich. Podobną tendencję można było zauważyć w wyborach do władz stanowych w wyniku czego w 2010 roku Republikanie po raz pierwszy od 136 lat uzyskali kontrolę nad obiema izbami parlamentu stanowego. Geografia Alabama jest 30. co do wielkości stanem Stanów Zjednoczonych o powierzchni 135 775 km². 3,19% ogólnej powierzchni zajmują wody powierzchniowe, co czyni ten stan 23. pod tym względem w kraju. Stan ten posiada drugi co do wielkości system żeglugi śródlądowej w Stanach Zjednoczonych. 3/5 powierzchni zajmuje płaska nizina schodząca ku Missisipi i Zatoce Meksykańskiej. Północ stanu to teren wyżynny z rozległą doliną rzeki Tennessee, w której znajdują się liczne potoki, wzgórza i jeziora. Stany graniczące z Alabamą to: Missisipi na zachodzie, Tennessee na północy, Georgia na wschodzie i Floryda na południowym wschodzie. Do Alabamy należy fragment wybrzeża Zatoki Meksykańskiej, w południowo-zachodniej części stanu. W północno-wschodniej części stanu znajduje się fragment Appalachów, najwyższym szczytem stanu jest Cheaha Mountain o wysokości 735 m n.p.m. 89 tys. km² stanu to lasy, co stanowi 67% ogólnej powierzchni stanu. Hrabstwo Baldwin położone wzdłuż Zatoki Meksykańskiej jest największym okręgiem w stanie zarówno pod względem powierzchni lądowej (4134 km²), jak i wodnej (1116 km²). Obszary stanu zarządzane przez National Park Service to: Horseshoe Bend National Military Park, Little River Canyon National Preserve, Russell Cave National Monument, Tuskegee Airmen National Historic Site i Tuskegee Institute National Historic Site. Dodatkowo Alabama ma cztery lasy państwowe: Conecuh, Talladega, Tuskegee i William B. Bankhead. W stanie znajdują się również: Trasa Parkowa Natchez Trace, Trasa Historyczna Selma to Montgomery oraz Szlak Łez. Znanym cudem natury jest najdłuższy (40 m) amerykański naturalny most znajdujący się na wschód od Gór Skalistych, położony na południe od Haleyville. W hrabstwie Elmore na północ od Montgomery znajduje się krater uderzeniowy o nazwie Wetumpka o średnicy 6,5 km. Powstał on w ok. 80 mln lat wskutek uderzenia meteorytu. Zespoły miejskie Miasta Na terenie stanu Alabama znajdują się 462 miasta ( lub ), w tym 5 o liczbie ludności przekraczającej 100 000, 65 powyżej 10 000 mieszkańców, a 255 powyżej 1000 mieszkańców (2021 r.). Lista miast zamieszkanych przez 8000 lub więcej osób (2021 r.): Klimat Klimat stanu określany jest jako podzwrotnikowy wilgotny ze średnią roczną temperaturą na poziomie ok. 18 °C. Najcieplej jest na południu Alabamy, nad Zatoką Meksykańską, a temperatura na północy stanu jest trochę niższa, zwłaszcza na terenie Appalachów. Klimat ten charakteryzuje się bardzo gorącymi latami, łagodnymi zimami i dużą ilością opadów w ciągu całego roku. Średnie roczne opady wynoszą ok. 1400 mm, dzięki czemu okres wegetacyjny jest tu bardzo długi liczący nawet 300 dni w południowej części stanu. Lata w Alabamie należą do najgorętszych w całych Stanach Zjednoczonych ze średnią temperaturą powyżej 32 °C w niektórych rejonach stanu. Region ten często jest nawiedzany przez huragany i nawet obszary położone daleko od Zatoki Meksykańskiej są narażone na ich skutki i obfite opady. Bardzo często zdarzają się również burze, w południowej części stanu rocznie odnotowywanych jest 70–80 dni burzowych, ale nawet na północy przypada ok. 60 dni burzowych na rok. Czasami burze są bardzo groźne, ze sporą liczbą wyładowań atmosferycznych i dużymi kulami gradowymi. Alabama zajmuje siódme miejsce w kraju pod względem liczby zgonów od uderzeń pioruna i dziewiąte miejsce w kraju pod względem liczby zgonów od uderzeń pioruna na jednego mieszkańca. Alabama, wraz z Oklahomą, ma najwięcej zgłoszonych tornad kategorii EF5 w okresie od 1 stycznia 1950 do czerwca 2013. Kilka katastrofalnych tornad F5 spowodowało, że Alabama ma więcej ofiar śmiertelnych w wyniku trąb powietrznych niż jakikolwiek inny stan, wyprzedzając nawet Teksas, którego znacznie większy obszar zaliczany jest do Alei Tornad. Na ten śmiertelny bilans znacząco wpłynęły tornada z kwietnia 1974 roku (77 ofiar w Alabamie) oraz z kwietnia 2011 roku (241 ofiar w Alabamie) roku. Sezon na tornada to głównie wiosna (kwiecień), ale Alabama jako jedno z nielicznych miejsc na świecie ma również drugi sezon tornad w okolicy listopada i grudnia. Północ stanu wzdłuż doliny Tennessee jest jednym z obszarów kraju najbardziej zagrożonych tornadami. Region ten jest nazywany Dixie Alley dla odróżnienia od Alei Tornad na Wielkich Równinach. Zimy w stanie zwykle są łagodne ze średnią temperaturą stycznia ok. 4 °C w Mobile i ok. 0 °C w Birmingham. Chociaż śnieg w Alabamie należy do rzadkości, to na obszarze na północ od Montgomery śnieg pada kilka razy każdej zimy, a gwałtowne śnieżyce zdarzają się raz na kilka lat, jak w latach 1963 i 1993, gdy śnieg padał nawet w Mobile. Średnie opady śniegu w Birmingham to ok. 51 mm rocznie. Flora i fauna Alabama jest domem dla wielu gatunków fauny i flory, głównie ze względu na duże zróżnicowanie siedlisk rozciągających się od doliny Tennessee, Płaskowyżu Appalachów i Ridge-and-Valley Appalachians na północy do Piedmontu, Canebrake, Black Belt w centralnej części i wybrzeża Zatoki Meksykańskiej na południu. Alabama znajduje się w czołówce pod względem różnorodności biologicznej. Na jej obszarze znajdują się liczne lasy sosnowe, które są wciąż najliczniejszą odmianą lasów na obszarze tego stanu. Alabama zajmuje 5. miejsce w USA pod względem różnorodności flory. Jest domem dla ponad 4000 gatunków roślin nasiennych i paprotnikowych. Demografia Spis ludności z roku 2010 stwierdza, że stan Alabama liczy 4 779 736 mieszkańców, co oznacza wzrost o 332 636 (7,5%) w porównaniu z poprzednim spisem z roku 2000. Dzieci poniżej piątego roku życia stanowią 6,7% populacji, 24% mieszkańców nie ukończyło jeszcze osiemnastego roku życia, a 13,8% to osoby mające 65 i więcej lat. 51,5% ludności stanu stanowią kobiety. 4,4% mieszkańców w domu używa języka innego niż angielski, szkołę średnią ukończyło 80,8% obywateli w wieku powyżej 25 lat, a wykształcenie wyższe posiada 21,5% obywateli w tym wieku. Prawie 84% mieszkańców w swoim obecnym miejscu zamieszkania mieszka ponad rok. Centrum populacji stanu znajduje się w hrabstwie Chilton na obszarze Jemison Division. Rasy i pochodzenie Według danych z 2017 roku, 68,4% mieszkańców stanowiła ludność biała (65,9% nie licząc Latynosów), 26,5% to Afroamerykanie, 1,3% to Azjaci, 0,5% to ludność tubylcza, 0,05% to Hawajczycy i mieszkańcy innych wysp Pacyfiku, 1,4% to przedstawiciele innych ras, a 1,8% populacji to osoby mieszanego pochodzenia. Latynosi stanowią 4,1% ludności stanu. Największą grupę stanowią osoby pochodzenia afroamerykańskiego. 17% osób deklaruje się jako osoby pochodzenia amerykańskiego w dużej części mające brytyjskich przodków, ale osiadłych w Ameryce w XVII wieku. Następnie są osoby pochodzenia irlandzkiego (7,8%), angielskiego (6,5%) i niemieckiego (6,3%). Także obecne są duże grupy osób pochodzenia meksykańskiego (123,6 tys.), szkockiego (81,3 tys.), włoskiego (81 tys.), nieokreślonego europejskiego (75 tys.), francuskiego (74,8 tys.), szkocko-irlandzkiego (71,3 tys.) i afrykańskiego (63,6 tys.). Liczbę Polaków oszacowano na 30 tys. (0,62%). W 1984 roku powołano stanową komisję do spraw Indian i oficjalnie uznano siedem plemion zamieszkujących obszar stanu. Język W 2000 roku 96,1% mieszkańców Alabamy w wieku co najmniej 5 lat mówiło tylko w języku angielskim, co stanowi spadek o 1% w stosunku do roku 1990 (97,1%). Pozostałe języki używane w Alabamie to (wg spisu powszechnego z 2010 roku): język hiszpański – 2,2% język niemiecki – 0,4% język francuski – 0,3% Zdrowie Na podstawie badań Centrum Zwalczania i Zapobiegania Chorób stwierdzono, że Alabama posiada jeden z najgorszych wskaźników otyłości dorosłych mieszkańców, który dla znaczącej większości hrabstw wyniósł ponad 29% (niższy był tylko w dziesięciu hrabstwach gdzie osiągnął poziom ponad 26%). Mieszkańcy stanu najrzadziej w kraju spędzają aktywnie wolny czas. Alabama ma jeden z najwyższych wskaźników osób chorych na cukrzycę wynoszący ponad 10% dorosłych. Religia Według danych zebranych przez Pew Research Center, 86% mieszkańców Alabamy to chrześcijanie (7% to katolicy), natomiast 12% to niereligijni. Pozostałe 2% to wyznawcy innych religii. Chrześcijaństwo Alabama znajduje się pośrodku pasa biblijnego i w związku z tym większość dzisiejszych mieszkańców stanu określa się jako protestanci. Alabama jest uznawana za jeden z najbardziej religijnych stanów Stanów Zjednoczonych, którego ok. 58% mieszkańców regularnie uczęszcza do kościoła. Większość mieszkańców Alabamy określa swoją wiarę jako ewangelikalizm. W roku 2010 trzema największymi ugrupowaniami religijnymi były Południowa Konwencja Baptystów, Zjednoczony Kościół Metodystyczny i ponadwyznaniowy ewangelikalizm. Duża część tutejszych ugrupowań baptystycznych i metodystycznych powstała w trakcie wielkiego przebudzenia mającego miejsce na początku XIX w., kiedy kaznodzieje głosili wiarę w południowej części Stanów Zjednoczonych. Prezbiterianie są potomkami szkocko-iryjskiej imigracją z XVIII wieku, baptyści i metodyści są rezultatem przebudzenia na początku XIX wieku. Tradycyjne grupy straciły w ostatnich latach na rzecz denominacji zielonoświątkowych, takich jak: Kościół Boży, Kościół Boży w Chrystusie, Kościół Nazarejczyka, Zbory Boże, jak i do miejskich niezależnych megakościołów. Te kościoły stosują radosną muzykę i prowadzą luźne nabożeństwa i spotkania domowe. Zielonoświątkowe kościoły zaczęły pojawiać się w Alabamie już w końcu XIX wieku, neopentekostalne megakościoły pojawiły się pod koniec XX wieku. Badania przeprowadzone w 2007 roku wykazały, że ponad 70% ankietowanych potrafiło wymienić cztery kanoniczne Ewangelie. Spośród osób wierzących 59% stwierdziło, iż w pełni rozumieją swoją wiarę i nie potrzebują dalszej nauki. 92% uczestników ankiety deklarowało, że ma zaufanie do kościołów w stanie. Inne wyznania W Alabamie mieszkają również osoby będące innej wiary, których jednakże jest dużo mniej niż wyznawców chrześcijaństwa. Są to wyznawcy: mormonizmu (37 tys.), świadkowie Jehowy, islamu (10 tys.), judaizmu (7 tys.), hinduizmu (1,4 tys.), bahaizmu (1,4 tys.), buddyzmu (1,4 tys.), uniwersalizmu unitariańskiego (1,1 tys.). Żydzi przybyli do miasta Mobile w stanie Alabama ok. 1763 roku w epoce kolonialnej, kiedy sefardyjscy Żydzi wyemigrowali z Londynu. Najstarszą gminą żydowską w Alabamie jest Kongregacja Sha’arai Shomayim. Została oficjalnie uznana przez legislaturę stanową 25 stycznia 1844 roku. Żydzi, którzy przybywali do stanu w XIX i XX wieku, byli z reguły Aszkenazyjczykami pochodzącymi z Europy Wschodniej. W Alabamie znajdują się dwie synagogi ortodoksyjne, cztery konserwatywne, dziesięć reformowanych i jedna humanistyczna. Gospodarka W stanie znajdują się ośrodki przemysłu kosmicznego, motoryzacyjnego oraz ciężkiego. Wydobywane są surowce mineralne i produkowana stal. W sektorze usług ważną rolę odgrywa edukacja, ochrona zdrowia i usługi bankowe. Według agencji badań ekonomicznych w 2008 roku wartość stanowej produkcji wyniosła 170 mld $ co daje 29 411 $ na jednego mieszkańca i jej wzrost wyniósł 0.7%. W 1999 roku PKB per capita 18 189$. W lipcu 2011 roku stopa bezrobocia w stanie wynosiła 10%. Rolnictwo W Alabamie jest prowadzony chów drobiu (dla mięsa i jaj) i bydła (dla mięsa i mleka). Głównymi roślinami uprawnymi są orzeszki ziemne, bawełna, kukurydza, sorgo, soja i brzoskwinie. Mimo przydomku stan bawełny Alabama zajmuje dopiero 8 lub 10 miejsce w kraju pod względem uprawy tej rośliny w zależności od źródła badań. Przemysł Przemysł stanu obejmuje produkcję wyrobów stalowych i żeliwnych (w tym rur), papieru, drewna, górnictwo (głównie węgla kamiennego), produkcję wyrobów z tworzyw sztucznych, części samochodowych oraz odzieży. Ponadto na terenie stanu rozwinął się przemysł lotniczy i elektroniczny, głównie na potrzeby wojska, w Centrum Lotów Kosmicznych imienia George’a C. Marshalla oraz United States Army Aviation and Missile Command w Huntsville. Jednym z głównych powodów wzrostu gospodarczego Alabamy był rozwój przemysłu motoryzacyjnego na terenie stanu. Znajdują się tam fabryki m.in. Hondy, Hyundaia, Mercedesa, Toyoty, a także wielu ich dostawców. Od 1993 roku przemysł samochodowy stworzył ponad 67,8 tys. miejsc pracy i uczynił z Alabamy czwartego producenta samochodów w kraju. Producenci stali: Nucor, SSAB, ThyssenKrupp oraz U.S. Steel, mają swoje fabryki w tym stanie i zatrudniają ponad 10 tys. pracowników. W maju 2007 roku niemiecki ThyssenKrupp zainwestował 3,7 mld $ w zakład produkcji stali, który da stałe zatrudnienie dla 2700 osób, a gdy osiągnie pełną wydajność uczyni z Alabamy trzeciego w kraju producenta stali. Innymi ważnymi przedsiębiorstwami mającymi swe zakłady na terenie stanu są BFGoodrich (produkcja opon), GAF Materials Corporation (pokrycia dachowe), Hunt Refining Company (rafineria) oraz JVC (elektronika). Inne sektory gospodarki Szacuje się, że Alabama jest rocznie odwiedzana przez 100 tys. zagranicznych turystów, głównie z Kanady, Anglii, Niemiec i Japonii. W 2006 roku turyści wydali 8,3 mld $ dając zatrudnienie łącznie 162 tys. mieszkańców stanu. Swoje siedziby w stanie mają Regions Financial Corporation, BBVA Compass oraz Superior Bancorp, a także kilkanaście mniejszych banków, większość w Birmingham. Tamże siedzibę ma również fundusz inwestycyjny Harbert Management Corporation. Najwyższym budynkiem tego miasta jest siedziba regionalnego oddziału banku Wachovia. Koncern telekomunikacyjny AT&T również w Birmingham zlokalizował jedną ze swoich siedzib, budując AT&T City Center. W całym mieście przedsiębiorstwo zatrudnia 6000 pracowników stałych oraz 1200 tymczasowych. Na terenie miasta znaleźć można także przedsiębiorstwa budowlane, takie jak: Brasfield & Gorrie, BE&K, Hoar Construction oraz B.L. Harbert International. Wiele przedsiębiorstw ma swoje siedziby w Huntsville, wśród nich ADTRAN (usługi internetowe), Intergraph (informatyka), Avocent (informatyka), Deltacom (telekomunikacja), a także oddział przedsiębiorstwa Cinram zajmującego się dystrybucją płyt CD i DVD. Jedyny port morski Alabamy – Mobile jest ruchliwym portem łączącym Zatokę Meksykańską z systemem żeglugi śródlądowej i poprzez rzeki Tennessee–Tombigbee dający dostęp do środkowego zachodu USA. Port ten zajmuje 9. miejsce w Stanach Zjednoczonych pod względem tonażu przeładowanych ładunków. Wewnątrz stanu ważną rolę odgrywa Black Warrior płynąca przez Tuscaloosę. Największym pracodawcą w stanie jest szpital uniwersytetu stanowego (Alabama State University) zatrudniający ok. 20 tys. pracowników. Na terenie Alabamy znajduje się także Elektrownia jądrowa Browns Ferry uruchomiona w 1974 roku o łącznej mocy 3300 MW. Uczelnie University of Alabama at Birmingham (medycyna, stomatologia, optometria) University of Alabama (medycyna) University of South Alabama (medycyna) Auburn University (weterynaria, farmacja) Tuskegee University (weterynaria) Samford University (farmacja) Troy University University of North Alabama Spring Hill College Transport Główne lotniska Alabamy to Port lotniczy Birmingham-Shuttlesworth, Huntsville International Airport, Port lotniczy Dothan, Mobile Regional Airport, Montgomery Regional Airport, Northwest Alabama Regional Airport, Tuscaloosa Regional Airport oraz Pryor Field Regional Airport. Poza portami lotniczymi w Birmingham i Huntsville są to lotniska o znaczeniu regionalnym, obsługujące loty do pobliskich stanów. Lotnisko w Huntsville obsługuje loty we wschodniej części Stanów Zjednoczonych, natomiast z Birmingham można polecieć nawet do Phoenix czy Las Vegas. Podstawą systemu kolei w tym stanie jest codzienny pociąg Crescent z Nowego Jorku do Nowego Orleanu, zatrzymujący się na stacjach w Anniston, Birmingham i Tuscaloosa. Przez terytorium Alabamy przebiega pięć autostrad międzystanowych. I65 biegnie z północy na południe przecinając stan mniej więcej na dwie połowy. Swój bieg kończy w Mobile. I20 biegnie z Teksasu, przecina stan w Birmingham i kieruje się dalej na wschód. Wraz z nią tym samym ciągiem prowadzi I59, która za Birmingham skręca na północny wschód. I85 swój bieg zaczyna w Montgomery i kieruje się na północny wschód w stronę Atlanty i dalej, aż do Petersburga w stanie Wirginia. I10 przechodzi przez Mobile i łączy Florydę z Kalifornią. Poza tymi głównymi arteriami komunikacyjnymi przez stan przebiega wiele innych dróg o mniejszym znaczeniu. Pięć odcinków dróg w stanie jest płatnych: Alabama River Parkway w Montgomery; Black Warrior Parkway w Tuscaloosa; Emerald Mountain Expressway w Montgomery; Foley Beach Express w Foley oraz Montgomery Expressway w Montgomery, a także cztery płatne mosty: Alabama River Parkway Bridge w Montgomery; Black Warrior Parkway Bridge w Tuscaloosa; Emerald Mountain Expressway Bridge w Montgomery i Foley Beach Express Bridge w Foley. W marcu 2011 roku drogi w Alabamie zostały uznane za jedne z najgorszych w kraju pod względem ekologii i bezpieczeństwa. Stan posiada jeden port morski w Mobile, a także kilka portów rzecznych (wymienione kolejno z północy na południe): Florence, Decatur, Guntersville, Birmingham, Tuscaloosa, Montgomery oraz Mobile. Sport W stanie Alabama funkcjonuje kilka zawodowych drużyn sportowych grających w niższych ligach, w tym cztery zespoły baseballowe. Przypisy Linki zewnętrzne Oficjalna strona Stanu Alabama Stany Stanów Zjednoczonych
99
https://pl.wikipedia.org/wiki/Alaska
Alaska
Alaska () – stan Stanów Zjednoczonych w północno-zachodniej części Ameryki Północnej, będący eksklawą Stanów Zjednoczonych. Graniczy od wschodu z Kanadą, a od zachodu, przez Cieśninę Beringa, z Rosją. Dominują góry, z najwyższym punktem Ameryki Północnej, którym jest szczyt Denali (McKinley, 6194 m n.p.m.), oraz wyżyny i liczne stożki wulkaniczne. Do terytorium należą też Aleuty. Alaska ma największą powierzchnię wśród stanów Stanów Zjednoczonych oraz najmniejszą gęstość zaludnienia. W odróżnieniu od większości stanów Alaska nie dzieli się na hrabstwa, lecz okręgi (borough), przy czym znaczna część stanu stanowi terytorium niezorganizowane. Geografia Powierzchnia stanu jest górzysta. Na południu znajdują się góry Alaska z najwyższym szczytem Ameryki Północnej – Denali (w latach 1896–2015: Mount McKinley, 6190 m), Góry Świętego Eliasza (Góra Świętego Eliasza, 5489 m), Góry Wrangla (Mount Bona, 5044 m), na północy Góry Brooksa (Michelson, 2816 m). W środkowej części stanu płaskowyż jest rozcięty dolinami rzek, natomiast wzdłuż wybrzeża występują niziny. Linia brzegowa jest bardzo dobrze rozwinięta; składają się na nią liczne półwyspy (Alaska, Kenai) i przybrzeżne wyspy (Aleuty, Archipelag Aleksandra, Kodiak, Nunivak, Wyspa Świętego Wawrzyńca, Wyspy Pribyłowa). Obszar ten jest aktywny sejsmicznie, a wiele szczytów gór to czynne (m.in. Pavlof, Iliamna) i wygasłe wulkany. Klimat W części południowej klimat jest umiarkowany chłodny, a na dalekiej północy subpolarny. Zakres zmian temperatury powietrza w ciągu roku: od w zimie do w lecie. Zima trwa 9 miesięcy i jest bardzo mroźna, a w czasie jej trwania wieją silne wiatry, osiągające prędkość 100 km/h oraz powstają burze śnieżne charakterystyczne dla strefy tundry. Główne rzeki Jukon Kuskokwim Roślinność W głębi lądu tajga i tundra, w zasięgu oddziaływania Prądu Alaskańskiego iglaste lasy deszczowe strefy umiarkowanej z topolami, olchami i wierzbami. Ważniejsze szczyty 20 szczytów i wierzchołków położonych powyżej 4400 m n.p.m.: Denali (McKinley) – 6190 m n.p.m., , najwyższy punkt Ameryki Północnej, pierwsze wejście: 7 czerwca 1913 – Walter Harper, Henry Karstens, Hudson Stuck i Robert Tatum; Archdeacons Tower – ~6000 m, , leży w odległości 870 m (kierunek WNW) od głównego wierzchołka Denali; Denali (wierzchołek północny) – 5934 m, , leży w odległości 2,8 km (kierunek NNE) od Archdeacons Tower, pierwsze wejście: 1910 – Pete Anderson, Billy Taylor; Peak 18735 – 5710 m, , leży w odległości 1,8 km na zachód od płn. wierzchołka Denali; Góra Świętego Eliasza (Mount Saint Elias, Boundary Peak 186) – 5489 m, , pierwsze wejście: 31 lipca 1897 – Luigi Amedeo di Savoia d’Abruzzi; Peak 17400 – ~5330 m, , leży w odległości 2,9 km (kierunek ESE) od płn. wierzchołka Denali; Mount Foraker (główny szczyt) – 5304 m, , leży w odległości 23,0 km (kierunek WSW) od Archdeacons Tower, pierwsze wejście: 10 sierpnia 1934 – T. G. Joe Brown, Charles S. Houston, Chychele Waterston; Mount Foraker (wierzchołek południowy) – 5124 m, , leży w odległości 1,6 km (kierunek SSW) od głównego wierzchołka Mount Foraker; Mount Bona – ~5060 m, , leży w odległości 80,0 km (kierunek WNW) od Mount Lucania, pierwsze wejście: 2 lipca 1930 – Allen Carpé, Adolphus Warburton Moore, Andrew Taylor; Mount Foraker (wierzchołek południowo-zachodni) – ~5060 m, , leży w odległości 1,8 km (kierunek WNW) od pd. wierzchołka Mount Foraker; Mount Blackburn – 4996 m, , leży w odległości 97,6 km (kierunek WNW) od Mount Bona; Mount Blackburn (wierzchołek południowo-wschodni) – 4964 m, , leży w odległości 2,5 km (kierunek ESE) od głównego wierzchołka Mount Blackburn; Sanford – 4949 m, , leży w odległości 64,8 km (kierunek NW) od Mount Blackburn; West Buttress – 4886 m, , leży w odległości 3,5 km (kierunek SW) od Peak 18735; Peak 15800 – ~4845 m, , leży w odległości 1,4 km (kierunek NNE) od South Buttress; South Buttress – 4842 m, , leży w odległości 4,1 km (kierunek SSE) od głównego wierzchołka Denali; Mount Bona (wierzchołek zachodni) – 4773 m, , leży w odległości 2,1 km (kierunek WSW) od głównego wierzchołka Mount Bona; Mount Churchill – 4766 m, , leży w odległości 4,2 km (kierunek NNE) od Mount Bona; East Buttress – 4490 m, , leży w odległości 2,4 km (kierunek NE) od Peak 15800; Browne Tower – 4450 m, , leży w odległości 2,1 km (kierunek NNE) od Peak 17400. Miasta Na terenie stanu Alaska znajduje się 149 miast (), w tym 1 o liczbie ludności przekraczającej 100 000, 3 powyżej 10 000 mieszkańców, a 26 powyżej 1000 mieszkańców (2022 r.). Lista miast zamieszkanych przez 500 lub więcej osób (2022 r.): Historia Sprzedaż Alaski W drugiej połowie XIX w. należące do Rosji tereny Alaski zostały odsprzedane Stanom Zjednoczonym. Traktat został podpisany po długich negocjacjach w nocy 29/30 marca 1867. Transakcję wartą 7,2 mln dolarów w imieniu Rosji zawarł baron Edward de Stoeckl, a w imieniu Stanów Zjednoczonych William Seward, który wcześniej zabiegał o zakup tych terenów. Traktat został ratyfikowany przez Senat Stanów Zjednoczonych 9 kwietnia 1867, Izba Reprezentantów 14 lipca 1868 uchwaliła wyasygnowanie pieniędzy. W 2023 roku prezydent Federacji Rosyjskiej Władimir Putin wydał rozporządzenie o wyasygnowaniu środków na poszukiwanie i ochronę prawną zagranicznych nieruchomości, które należały do Rosji w okresach carskim i radzieckim, co dotyczy również Alaski. Amerykański rzecznik Departamentu Stanu Vedant Patel wydał w związku z tym oświadczenie, że przekazanie Alaski Federacji Rosyjskiej nie jest możliwe. Kalendarium 1640 – odkrycie Alaski przez żeglarzy hiszpańskich. 1732 – okręt rosyjski wysłany przez dowódcę ekspedycji wojskowej Pawłuckiego (z pochodzenia Polaka) w czasie przejścia przez Cieśninę Beringa obserwował brzeg Alaski, potwierdzając bliskość Azji i Ameryki. 15–16 lipca 1741 – pierwsza morska ekspedycja naukowa pod dowództwem duńskiego badacza w służbie Rosji Vitusa Beringa i Rosjanina Aleksieja Czyrikowa. 1784 – pierwsza kolonia założona przez rosyjskich handlarzy futer na wyspie Kodiak. 1799 – założenie przez Rosjan osady Sitka na Wyspie Baranowa, która do roku 1906 była stolicą Alaski. 1799–1867 – teren Alaski pod administracją Kompanii Rosyjsko-Amerykańskiej. 30 marca 1867 – sprzedaż Alaski przez Imperatora Wszechrusi Imperium Rosyjskiego Aleksandra II Stanom Zjednoczonym Ameryki za 7,2 mln dolarów; jednym z pierwszych amerykańskich urzędników federalnych Alaski został Polak, Włodzimierz Krzyżanowski. 1896 – George Carmack, Skookum Jim i Dawson Charlie odkryli złoto nad rzeką Klondike. 1897 – początek wielkiej „gorączki złota” wywołanej wiadomością o tonie złota przywiezionej na pokładzie parowca z Alaski do portu Seattle w stanie Waszyngton. 1912 – ustanowienie zorganizowanego Terytorium Alaski (zalążka stanu). 9 lipca 1958 – największe na świecie zanotowane tsunami – megatsunami w zatoce Lituya. 3 stycznia 1959 – wejście Alaski do Unii jako 49. stanu; spowodowało to ustanowienie najkrócej obowiązującej flagi Stanów Zjednoczonych z czterdziestoma dziewięcioma gwiazdami; zaledwie 7 miesięcy później straciła ważność na rzecz współczesnej, gdy stanem zostały Hawaje. 1976 – rząd zdecydował o zniesieniu podatków i wprowadzeniu dywidend. System polityczny Władzę ustawodawczą na szczeblu stanowym sprawuje dwuizbowa Legislatura Alaski, złożona z Izby Reprezentantów i Senatu. Na czele władzy wykonawczej stoi gubernator, wybierany w wyborach bezpośrednich na czteroletnią kadencję. Podział administracyjny Alaska jest jedynym amerykańskim stanem, który dzieli się na 19 okręgów (). Pozostałe 48 stanów dzieli się na hrabstwa (jedynie Luizjana dzieli się na parafie). Występują dwa rodzaje jednostek terytorialnych: okręg (), okręg niezorganizowany (). Obecnie zostało utworzonych 18 okręgów oraz 1 okręg typu niezorganizowanego. Okręg niezorganizowany dodatkowo został podzielony przez United States Census Bureau na 11 tzw. obszarów spisu powszechnego () w celu łatwiejszego przeprowadzenia badań statystycznych. Największe okręgi są większe od niektórych poszczególnych stanów Stanów Zjednoczonych. Siedmiu okręgom nadano status skonsolidowanych miast-okręgów (): Anchorage, Haines, Juneau, Sitka, Skagway, Wrangell i Yakutat. Dla stanu Alaska kod Federal Information Processing Standard to 02. Demografia Spis ludności z roku 2010 wykazał, że stan Alaska liczył mieszkańców – wzrost o (13,3%) w porównaniu z poprzednim spisem z roku 2000. Dzieci poniżej piątego roku życia stanowiły 7,3% populacji, 25% mieszkańców nie ukończyło osiemnastego roku, a 11,2% to osoby mające 65 i więcej lat. 47,7% stanowiły kobiety. Rasy i pochodzenie Według danych z 2017 roku, 65,3% mieszkańców stanowili Biali (61,5% nie licząc Latynosów), 14,2% to rdzenna ludność Alaski, 8,5% zdeklarowało rasę mieszaną, 6,2% to Azjaci, 3,2% to czarnoskórzy lub Afroamerykanie, 1,2% to Hawajczycy i pochodzący z innych wysp Pacyfiku. Latynosi stanowili 6,8%. Największe grupy stanowią osoby pochodzenia niemieckiego (16,5%), irlandzkiego (9,2%) i angielskiego (7,6%). Istnieją także duże grupy osób pochodzenia: „amerykańskiego” (33,3 tys.), francuskiego (27,7 tys.), meksykańskiego (27,3 tys.), filipińskiego (25,9 tys.), norweskiego (24,7 tys.), włoskiego (22 tys.), szkockiego (17,8 tys.), polskiego (17 tys.), nieokreślonego europejskiego (15,2 tys.), szwedzkiego (14,9 tys.) i szkocko-irlandzkiego (9,7 tys.). Język Najpowszechniej używanymi językami są: język angielski – 83,92%, języki eskimo-aleuckie – 4,61% język hiszpański – 3,49%, język tagalski – 2,39% Religia Dane za 2014: protestanci – 37%: bezdenominacyjni – 8%, baptyści – 7%, pozostali – 22% (głównie: zielonoświątkowcy, luteranie, uświęceniowcy, anglikanie, metodyści, campbellici i kalwini), niereligijni – 31% (w tym: 6% agnostycy i 5% ateiści), katolicy – 16%, prawosławni – 5%, mormoni – 5%, pozostałe religie – 6% (w tym: buddyści, świadkowie Jehowy, bahaiści, muzułmanie, żydzi, unitarianie uniwersaliści i hinduiści). Gospodarka Na Alasce eksploatuje się ropę naftową (jedne z największych złóż na świecie), gaz ziemny, złoto, platynę, rudy miedzi, cyny, niklu, uranu. Przemysł składa się głównie z zakładów petrochemicznych, drzewnych i papierniczych. Bardzo dobrze rozwinięta jest hodowla reniferów, lisów, a także leśnictwo, myślistwo i rybołówstwo (połów łososi i śledzi). Transport Transport głównie na południu stanu: samochodowy (fragment Drogi Panamerykańskiej – Alaska Highway), kolejowy, lotniczy. Główne porty morskie: Valdez, Seward, Sitka. Są także wojskowe bazy lotnicze oraz liczne rurociągi. Kuchnia Typowa kuchnia Alaski opiera się o dania z owoców morza (krab królewski, krewetki, langusty) i ryb, jak np. łosoś. Spożywa się także mięso łosi, reniferów, fok, morsów oraz ptaków. Przeciętny mieszkaniec Alaski zjada około 0,5 kg mięsa dziennie. Ze względu na warunki klimatyczne na Alasce dalej wykorzystuje się naturalne sposoby konserwowania żywności, takie jak suszenie czy fermentacja. Przekąskami są suszone ryby lub płatki suszonego mięsa np. reniferów. Wśród owoców i warzyw najbardziej popularne są jagody oraz borówki, wykorzystywane w sosach i deserach. Spożywa się także wodorosty i korzenie roślin. Edukacja University of Alaska Fairbanks University of Alaska Anchorage University of Alaska Southeast Alaska Pacific University Symbole pardwa świerk sitkajski niezapominajka Dewiza – („Przez Północ do Przyszłości”) Przydomek – („Ostatnia Granica”, „Ostatnia Rubież”), („Wielki Ląd”) Zobacz też Gorączka złota nad Klondike Montgomery Pike Berry Przypisy Linki zewnętrzne Mapa fizyczna Alaski Stany Stanów Zjednoczonych
100
https://pl.wikipedia.org/wiki/Ameryka%20P%C3%B3%C5%82nocna
Ameryka Północna
Ameryka Północna – kontynent o powierzchni 24 230 000 km² (co stanowi 16,3% całkowitej powierzchni lądów na kuli ziemskiej), położony na półkulach: północnej i zachodniej. Jego krajem o największej powierzchni jest Kanada. Do Ameryki Północnej należy również tzw. Ameryka Środkowa. Dane geograficzne Od zachodu Amerykę Północną otacza Ocean Spokojny, od północy Ocean Arktyczny, a od wschodu Ocean Atlantycki. Ameryka Północna od Azji oddzielona jest Cieśniną Beringa. Na południu łączy się z Ameryką Południową. Południowa część nazywana jest Ameryką Łacińską. Najdalej wysunięte punkty Ameryki Północnej jako części świata: na północy – Wyspa Kaffeklubben (83°40′N), na południu – Wyspa Kokosowa (5°32′N), na zachodzie – Przylądek Wrangell (172°25′E), na wyspie Attu w łańcuchu Aleutów, na wschodzie – Przylądek Północno-Wschodni (11°00′W), na Grenlandii. Skrajne punkty Ameryki Północnej jako kontynentu: na północy – Półwysep Murchisona (71°58′N), na południu – Punta Mariato (7°12′N), na zachodzie – Przylądek Księcia Walii (168°05′W), na wschodzie – Cape St. Charles (55°40′W). Rozciągłość południkowa 7,2 tys. km, równoleżnikowa 6,8 tys. km. Kontynent silnie rozczłonkowany, długość linii brzegowej 75 600 km. 8,3% Ameryki Północnej stanowią półwyspy, a 16,7% – wyspy. Największymi półwyspami są: Labrador – 1430 tys. km², Jukatan – 180 tys. km², Kalifornijski – 144 tys. km², Floryda – 110 tys. km², Melville’a – 63 tys. km², Seward – 50 tys. km², Nowa Szkocja – 45 tys. km², Alaska – 45 tys. km². Do największych wysp należą: Grenlandia – 2175,6 tys. km² (największa wyspa na świecie), Ziemia Baffina – 507 tys. km², Wyspy Królowej Elżbiety – 419 tys. km², Wyspa Wiktorii – 217 tys. km², Wyspa Ellesmere’a – 196 tys. km², Nowa Fundlandia – 112 tys. km², Kuba – 105 tys. km². W Ameryce Północnej zaznacza się przewaga gór i wyżyn nad nizinami – średnia wysokość nad poziomem morza to 781 m. Najwyższym punktem jest Denali (znany też jako McKinley – 6194 m) na Alasce, natomiast najniższy znajduje się w Dolinie Śmierci (86 m p.p.m.). Ponad 64% powierzchni leży powyżej 300 m n.p.m. Wzdłuż zachodnich brzegów Kordyliery (aktywne sejsmicznie) z wewnętrznymi wyżynami (Kolorado, Meksykańska), wewnątrz Wielkie Równiny i Niziny Wewnętrzne, na wschodzie Appalachy. Wybrzeża wschodnie nizinne. Klimat od okołobiegunowego na północy przez umiarkowany, podzwrotnikowy i zwrotnikowy do równikowego w Ameryce Środkowej. W Kordylierach klimaty górskie. Głównymi rzekami są: Missisipi z Missouri, Mackenzie, Jukon, a jeziorami: Górne, Huron, Michigan, Wielkie Jezioro Niedźwiedzie, Wielkie Jezioro Niewolnicze, Erie. Na północy pustynie arktyczne, tundra, lasy iglaste, ku południu przechodzą w lasy mieszane i liściaste, w części środkowej prerie, na pd.-zach. półpustynie i pustynie. W Kordylierach górskie lasy iglaste i roślinność alpejska, na wybrzeżach Ameryki Środkowej lasy równikowe. Fauna zróżnicowana: wół piżmowy, renifer karibu, jeleń wirginijski, niedźwiedzie (baribal, grizzly), bizon amerykański (w rezerwatach). Ludność Amerykę Północną zamieszkuje 579 mln ludzi (dane z 2013 roku), co stanowi około 8% ludności świata, głównie biali, czarni i Indianie. Gęstość zaludnienia jest niewielka w porównaniu do średniej gęstości zaludnienia świata i wynosi 21,5 osoby/km². Rozmieszczenie ludności jest bardzo nierównomierne i jest następstwem silnego zróżnicowania warunków środowiska przyrodniczego. Najbardziej zaludnione tereny to: Bermudy – 1189 osób/km² (1994) i Barbados 607 osób/km² (1994), a najmniej zaludnione tereny to obszar Grenlandii (0,2 osoby/km² – 1992) i Kanada – 3 osoby/km² (1994). Szczególnie ważnym czynnikiem wpływającym na rozmieszczenie ludności jest fakt, że ogromna powierzchnia kontynentu znajduje się pod wpływem klimatów: polarnego, subpolarnego i umiarkowanie chłodnego, co znacząco ogranicza możliwość trwałego egzystowania człowieka na północy. Kolejnym obszarem o niewielkiej koncentracji ludności są Kordyliery wraz z kotlinami śródgórskimi, a także obszary pustynne i półpustynne. W Ameryce Północnej można również wskazać obszary o wysokiej koncentracji ludności, np. pogranicze kanadyjsko-amerykańskie, północny wschód Stanów Zjednoczonych, niektóre odcinki wybrzeża Oceanu Spokojnego, a także tereny ciągnące się od Meksyku po Gwatemalę. Państwami o największej gęstości zaludnienia w Ameryce Północnej są kraje wyspiarskiej części Ameryki Środkowej. Największe miasta w Ameryce Północnej Podział polityczny Ameryki Północnej Państwa Ameryki Północnej oraz ich stolice Terytoria zależne Anguilla Bermudy Brytyjskie Wyspy Dziewicze Grenlandia Gwadelupa Kajmany Martynika Montserrat Navassa Portoryko Saba Saint-Barthélemy Saint-Martin Saint-Pierre i Miquelon Sint Eustatius Sint Maarten Turks i Caicos Wyspa Clippertona Wyspy Dziewicze Stanów Zjednoczonych Regiony fizycznogeograficzne Tarcza Kanadyjska Karaiby (Indie Zachodnie) Przypisy Linki zewnętrzne Ameryka Północna na przestrzeni wieków Kontynenty
101
https://pl.wikipedia.org/wiki/Aleksandr%20Baranow
Aleksandr Baranow
Aleksander Andriejewicz Baranow (; ur. 14 lutego 1746 w Kargopolu, zm. 28 kwietnia 1819 w Dżakarcie) – rosyjski kupiec i handlarz futer, jeden z organizatorów kolonizacji Alaski. Został skierowany na Alaskę przez rosyjską kompanię handlową (Rosyjsko-Amerykańska Kompania Handlowa), która zajmowała się eksploatacją bogactw naturalnych Kamczatki i Alaski (głównie futer). Był założycielem miejscowości Sitka na południowo-wschodnich krańcach Alaski. W celu zaopatrywania kolonistów w żywność założył farmy daleko na południu kontynentu amerykańskiego (Fort Ross w Kalifornii). Jego imieniem nazwano Archipelag Aleksandra i Wyspę Baranowa. Zobacz też rosyjska kolonizacja Ameryki Północnej Przypisy Osoby upamiętnione nazwami obiektów fizjograficznych na Ziemi Rosyjscy przedsiębiorcy Urodzeni w 1746 Zmarli w 1819 Kupcy
102
https://pl.wikipedia.org/wiki/Alabama%20%28rzeka%29
Alabama (rzeka)
Alabama () – rzeka w Stanach Zjednoczonych, w stanie Alabama, o długości 512 km. Powstaje około 11 km na północ od miasta Montgomery z połączenia rzek Coosa i Tallapoosa, które biorą swój początek w Appalachach. 71 km na północ od Mobile łączy się z rzeką Tombigbee, dając początek rzece Mobile (ta uchodzi do zatoki Mobile, będącej częścią Zatoki Meksykańskiej). Żeglowna od Montgomery, uregulowana, jest ważną arterią komunikacyjną. Przypisy Rzeki w Alabamie Dorzecze Mobile
103
https://pl.wikipedia.org/wiki/Ameryka%20%C5%9Arodkowa
Ameryka Środkowa
Ameryka Środkowa – centralny region geograficzny Ameryki. Jest definiowany jako południowa część Ameryki Północnej, w której skład wchodzą dwie części: kontynentalna (Ameryka Centralna), rozciągająca się między przesmykiem Tehuantepec a Przesmykiem Panamskim, i wyspiarska (Antyle). Obszar liczy około 850 000 km² powierzchni i jest zamieszkany przez ponad 90 mln ludzi. Państwa Ameryki Środkowej Dodatkowo w Ameryce Środkowej znajduje się kilkanaście terytoriów zależnych. Największe miasta w Ameryce Środkowej Przypisy Ameryka Północna Regiony Ameryki
104
https://pl.wikipedia.org/wiki/Arizona
Arizona
Arizona () – stan w południowo-zachodniej części Stanów Zjednoczonych, od południa sąsiadujący z meksykańskimi stanami Sonora i Kalifornia Dolna, od zachodu z Kalifornią i Nevadą, od północy z Utah, a od wschodu z Nowym Meksykiem. Stolicą stanu jest Phoenix, którego obszar metropolitalny jest dziesiątym co do wielkości w Stanach Zjednoczonych i obejmuje około 5 mln mieszkańców. Większość mieszkańców Arizony mieszka w jednym z kilku obszarów miejskich, co sprawia, że większość stanu jest słabo zaludniona. Łagodne lata na północy i łagodne zimy na południu sprawiają, że Arizona jest popularnym miejscem wypoczynku i emerytur. W latach 2000–2010 populacja Arizony wzrosła o 24,6%, więcej niż w jakimkolwiek innym stanie USA z wyjątkiem Nevady. Stan ten zamieszkuje trzecia co do wielkości społeczność rdzennych Amerykanów, po Kalifornii i Oklahomie. Zajmuje obszar wyżynny, w północnej części rozciąga się wyżyna Kolorado. Symbole stanu Dewiza: Ditat Deus (Bóg wzbogaca) Przydomek: Grand Canyon State (Stan Wielkiego Kanionu) Symbole: kwiat kaktusa Saguaro, strzyż kaktusowy, drzewo paloverde Etymologia nazwy Historycy nie są zgodni co do pochodzenia nazwy stanu. W XVI wieku teren obecnie leżący na terenie południowej Arizony i północnego Meksyku był nazywany przez Hiszpanów jako Pimería Alta (Górny Pima), czyli obszar należący do tubylców o nazwie Pima. Częścią tego obszaru było miejsce nazywane z języka hiszpańskiego Arisona, Arissona lub Arizona. W 1916 roku historyk James H. McClintock w opublikowanej pracy dowodzi pochodzenia nazwy od słów Indian Tohono O’odham oraz Pima Aleh-zon lub Ali-Shonak oznaczających małe źródło. Także opinie innych wskazują na indiańskie pochodzenie z języka Pima, gdzie Arizonac oznacza miejsce gdzie jest małe źródło. Obecnie jednak oficjalny historyk stanu Arizona – Marshall Trimble skłania się ku teorii Donalda T. Garate, który opublikował w 2003 roku pracę udowadniającą, iż nazwa pochodzi od słów w języku Basków, którzy należeli do pierwszych eksploratorów tych terenów, a oznaczających w przekładzie Dobry dąb. Ranchería nazywana Arizona została na tych terenach założona w latach 1734 – 1736 przez pochodzącego z baskijskiej rodziny Bernardo de Urrea. Nazwa stała się popularna od 1836 roku, kiedy na północ od dzisiejszej granicy państwowej odkryto srebro, a poszukiwacze skarbów przenieśli nazwę na całe eksploatowane terytorium. Historia Pierwotną, nadal obecną, ludność tych obszarów stanowią m.in. Indianie z plemion Hopi na północy i Apaczów na południu, którzy przybyli tu po upadku cywilizacji Anasazi (na kilkaset lat przed Hiszpanami). Hopi mieszkają w tych samych wioskach od co najmniej 700 n.e. i kulturowo wywodzą się od Anasazi. Obecnie najliczniejsi Indianie Arizony, Nawahowie, również stanowią element napływowy, z Kanady, przybywając dopiero ok. 1300. Poprawną etymologię nazwy Arizona historycy wyjaśnili dopiero w 1979. Nazwę swą stan zawdzięcza Baskom, którzy przeważali wśród elementu napływowego z Hiszpanii. Słowo aritz oznacza „dąb” a ona – „dobre miejsce”. Całość, o znaczeniu „miejsce gdzie rosną dobre dęby”, została z czasem skrócona przez opuszczenie litery „t”, jako że ciąg „tz” nie występuje w hiszpańskim (kastylijskim) i nie był wymawiany. Istnieją inne miejsca o nazwie Arizona w Ameryce Środkowej czy Południowej, gdzie również zawitali Baskowie. 1539 – Marcos de Niza penetrował obszar w poszukiwaniu „Siedmiu Złotych Miast”. XVI wiek – obszar penetrowali hiszpańscy poszukiwacze skarbów (m.in. Francisco Coronado). 1692 – ojciec Euzebio Kino założył pierwszą misję. 1776 – armia hiszpańska budowała pierwszy fort na tych ziemiach – Tucscon. 1821 – Hiszpania przekazała terytorium Arizony Meksykowi. 1848 – po wojnie amerykańsko-meksykańskiej obszar wszedł w skład Stanów Zjednoczonych jako część Nowego Meksyku. 1853 – rząd Stanów Zjednoczonych zakupił od Meksyku południową część terytorium dzisiejszej Arizony. 1863 – Arizona została odrębnym terytorium. 1871 – prezydent Ulysses Grant wysłał wojsko do Arizony przeciwko Apaczom. 1886 – zakończyła się długotrwała wojna z Apaczami. Ostatni oddział dowodzony przez Geronimo został rozbity. 14 lutego 1912 – wstąpienie do Unii (jako 48. stan z kolei). 1936 – powstaje Hoover Dam. Zapora ta była największą na świecie elektrownią wodną jak i największą na świecie konstrukcją betonową. Geografia Arizona jest szóstym stanem pod względem obszaru za Nowym Meksykiem, a przed Nevadą. 15% obszaru stanu znajduje się w rękach prywatnych, resztę stanowią tereny rządowe i rezerwaty indiańskie. Klimat podzwrotnikowy i zwrotnikowy, suchy. Średnia temperatura powietrza latem przekracza 35 °C, maksymalnie dochodzi do 55 °C. Naturalną roślinność stanowią półpustynne stepy z kaktusami, na południu roślinność pustynna, na wyżynie Mogollon lasy z sosną żółtą. W północnej części od Parku Narodowego Wielkiego Kanionu do Parku Narodowego Skamieniałego Lasu na północnym brzegu rzeki Małe Kolorado rozciąga się 240 km pas Pustyni Pstrej. Najwyższe szczyty: Humphreys Peak (3852 m n.p.m.) i Baldy Mountain (3476 m n.p.m.) Główne rzeki: Kolorado, Gila River Roślinność: półpustynne stepy z kaktusami, na południu roślinność pustynna, sosna żółta Liczba hrabstw: 15 Liczba parków stanowych: 28 Demografia Spis ludności z roku 2020 stwierdza, że stan Arizona liczy 7 151 502 mieszkańców, co oznacza wzrost o 759 485 (11,9%) w porównaniu z poprzednim spisem z roku 2010. Dzieci poniżej piątego roku życia stanowią 5,9% populacji, 22,5% mieszkańców nie ukończyło jeszcze osiemnastego roku życia, a 18,0% to osoby mające 65 i więcej lat. 50,3% ludności stanu stanowią kobiety. Rasy i pochodzenie Według danych z 2019 roku, 78,3% mieszkańców stanowiła ludność biała (54,0% nie licząc Latynosów), 4,7% to czarnoskórzy Amerykanie lub Afroamerykanie, 4,6% to rdzenna ludność Ameryki, 3,9% miało rasę mieszaną, 3,3% to Azjaci, 0,2% to Hawajczycy i mieszkańcy innych wysp Pacyfiku. Latynosi stanowią 31,7% ludności stanu. Największe grupy stanowią osoby pochodzenia meksykańskiego (27,8%), niemieckiego (11,8%), angielskiego (8,1%) i irlandzkiego (8,0%). Istnieją także duże grupy Włochów (292,1 tys.), „Amerykan” (281,7 tys.), Francuzów (183,4 tys.), nieokreślonych Europejczyków (164,4 tys.), Polaków (160,7 tys.), Norwegów (123,6 tys.), Szkotów (122,6 tys.) i osób pochodzenia afrykańskiego subsaharyjskiego lub arabskiego (100,7 tys.). Miasta Na terenie stanu Arizona znajduje się 91 miast ( lub ), w tym jedno o liczbie ludności przekraczającej 1 000 000, 12 powyżej 100 000 mieszkańców, a 44 powyżej 10 000 mieszkańców (2021 r.): Język W 2010 roku najpowszechniej używanymi językami były: język angielski – 72,58%, język hiszpański – 21,57%, język nawaho – 1,54%. Polonia w Arizonie W 2019 roku oszacowano 160,7 tys. (2,2%) osób pochodzenia polskiego, w tym 106,4 tys. zamieszkiwało hrabstwo Maricopa obejmujące obszar metropolitalny Phoenix. Co roku organizowane są tam festiwale polonijne. Życie kulturalne toczy się głównie przy parafii Matki Boskiej Częstochowskiej. Drugim, co do wielkości skupiskiem polonijnym jest Tucson. Tam również działalność polonijna koncentruje się wokół parafii św. Cyryla z Aleksandrii. Szkoły przyparafialne są miejscem, gdzie dzieci uczą się historii, języka i tradycji polskiej. Religia Struktura religijna w 2014 roku: protestanci – 39%: ewangelikalni – 26%, głównego nurtu – 12%, historyczni czarni protestanci – 1%, niereligijni – 27% (w tym: agnostycy – 4% i ateiści – 3%), katolicy – 21%, mormoni – 5%, inne religie – 8% (w tym: hinduiści, żydzi, buddyści, prawosławni, świadkowie Jehowy, muzułmanie, bahaiści, scjentyści, unitarianie uniwersaliści, New Age i sikhowie). 67% populacji wyznaje chrześcijaństwo, a Kościół katolicki pozostaje największą pojedynczą organizacją. Nurt kościołów ewangelikalnych obejmuje lokalne kościoły bezdenominacyjne (np. Christ's Church of the Valley), Kościoły zielonoświątkowe, Południową Konwencję Baptystów, Kościoły Chrystusowe i wiele mniejszych związków wyznaniowych. Protestantyzm głównego nurtu reprezentowany jest głównie przez Zjednoczony Kościół Metodystyczny i Kościół Ewangelicko-Luterański w Ameryce. Sąsiedztwo ze stanem Utah sprawia, że Arizona ma czwartą co do wielkości społeczność mormońską wśród stanów USA. Gospodarka Arizona jest 39. stanem w Stanach Zjednoczonych pod względem dochodu na głowę mieszkańca. Największym pracodawcą w stanie jest rząd stanowy, największym prywatnym pracodawcą jest Wal-Mart. Najważniejsze gałęzie przemysłu to rolnictwo, górnictwo, produkcja i turystyka, a Wielki Kanion jest największą atrakcją turystyczną stanu, przyciągającą ponad 4 miliony turystów rocznie. Największy udział w wytwarzaniu produktu krajowego brutto (PKB) stanu mają nieruchomości, usługi rządowe, usługi profesjonalne i biznesowe, finanse i ubezpieczenia, handel i usługi opieki zdrowotnej. Inne kluczowe branże w stanie obejmują produkcję komputerów i produktów elektronicznych, lotnictwo i obronę, oraz nauki biologiczne. Bogactwa naturalne Arizona jest bogata w minerały, a obszar ten już pod koniec XVI wieku przyciągał hiszpańskich odkrywców poszukujących złota, srebra i miedzi. Arizona nadal produkuje więcej miedzi niż jakikolwiek inny stan, co stanowiło prawie trzy czwarte krajowej produkcji w 2020 roku. Arizona jest miejscem występowania dużych rezerw uranu, w tym najwyższej jakości uranu w kraju. W Arizonie są dwa złoża węgla — Black Mesa na północnym wschodzie w rezerwatach Navajo i Hopi, oraz Pinedale w środkowo-wschodniej Arizonie. Jedyna stanowa kopalnia węgla zaprzestała działalności w 2019 roku. Energia Gaz ziemny jest podstawowym paliwem wykorzystywanym do wytwarzania energii elektrycznej w Arizonie. W 2020 roku odpowiada za blisko połowę produkcji w porównaniu z jedną trzecią zaledwie dwa lata wcześniej. Za blisko trzy dziesiąte wytworzonej energii elektrycznej w stanie odpowiadają trzy działające reaktory Palo Verde. Na kolejnych miejscach w produkcji energii elektrycznych w Arizonie plasują się elektrownie węglowe, oraz zasoby odnawialne z energią słoneczną i hydroelektryczną na czele. Arizona zajmuje czwarte miejsce wśród stanów produkujących energię elektryczną z energii słonecznej. Rolnictwo Południowa część Arizony to głównie pustynia, gdzie kwitną uprawy bawełny i sałaty. Bydło i owce żyją w górzystych regionach północy i zachodu. Ponadto istotną siłą gospodarczą są cytrusy – stan Wielkiego Kanionu zajmuje drugie miejsce w kraju pod względem produkcji kantalupy, melonów spadziowych i produkcji cytryny. Arizona szczyci się jedną z najbardziej wydajnych sieci nawadniających na świecie. Transport W Phoenix znajduje się międzykontynentalny port lotniczy Phoenix-Sky Harbor, który obsługuje rocznie więcej niż 40 milionów pasażerów. Ważny jest także port lotniczy w Tucson, który obsługuje 4 miliony pasażerów rocznie. Są dwie ważne autostrady międzystanowe na osi wschód-zachód. Na północy, omijając rezerwat Nawaho przecina stan autostrada międzystanowa nr 40. W Arizonie jest ona w większości poprowadzona wzdłuż drogi Route 66 (Chicago-Los Angeles), która ma obecnie charakter historyczny z licznymi muzeami i atrakcjami turystycznymi. Na południu stanu prowadzi autostrada międzystanowa nr 10 łącząc Teksas (El Paso) z Kalifornią Południową. Pomiędzy miastami Tucson i Phoenix odchodzi od niej autostrada międzystanowa nr 8 na wiodąca przez Yumę do San Diego na wybrzeżu Pacyfiku. Nie ma autostrady przecinającej cały stan w kierunku północ-południe, ze względu na Wielki Kanion i tereny rezerwatów indiańskich na północy. Rolę południkowej arterii spełniają trzy drogi prowadzące od Nogales na granicy z Meksykiem do Flagstaff (autostrada międzystanowa nr 19, następnie fragment autostrady międzystanowej nr 10 oraz od Phoenix autostrada międzystanowa nr 17). Obie autostrady (nr 17 i 19) mimo nazwy międzystanowe zaczynają się i kończą w Arizonie. Północno-zachodniej części granicy z Utah nie można pokonać jadąc z południa ze względu na blisko 400 km odcinek Wielkiego Kanionu. Droga US 180 będąca przedłużeniem arterii południkowej od Flagstaff dochodzi tylko do Parku Narodowego Wielkiego Kanionu. Jedynymi sąsiednimi stanami, które nie mają połączenia autostradami z Arizoną są Nevada i Utah, jednak z tym pierwszym połączenie jest drogą ekspresową, czterojezdniową nr US 93 z Kingman do Las Vegas, a z Utah drogami US 89 oraz US 191 wiodącymi przez rezerwaty Indian Nawaho oraz Hopi. Google w Arizonie, oferuje darmowe przejazdy dla mieszkańców samochodami autonomicznymi, na obszarze dwukrotnie większym niż San Francisco. System polityczny Władzę ustawodawczą na szczeblu stanowym sprawuje dwuizbowa Legislatura Arizony, złożona z Izby Reprezentantów i Senatu. Na czele władzy wykonawczej stoi gubernator, wybierany w wyborach bezpośrednich na czteroletnią kadencję. Ruchy secesyjne wewnątrz stanu Dnia 10 lutego 2011 r., politycy i działacze reprezentujący co najmniej trzy partie polityczne uruchomili stronę „Start our State” na Facebooku, dążąc do oderwania pewnych terytoriów od Arizony. Pomysł ten po raz pierwszy został zaproponowany w 1980 roku przez Hugh Holuba, zaczął się rozwijać po artykule na pierwszej stronie „Arizona Daily Star” z 24 lutego 2011 roku. Około 1986 zaproponowano odseparowanie od Arizony Gila River (pomiędzy Phoenix i Tucson), po wyborze gubernatora Evana Mechama, który zanim został usunięty z urzędu, anulował płatny urlop w stanowe obchody dnia Martina Luthera Kinga. Pojawiają się propozycje utworzenia z hrabstwa Pima i sąsiednich hrabstw stanu Baja Arizona. Hrabstwo to, samo w sobie jest większe niż New Jersey i Connecticut, a także ma większą populację niż Vermont i Delaware. Edukacja Edukacja publiczna z trudem radziła sobie z gwałtownym wzrostem liczby studentów wynikającym z wyżu demograficznego oraz z ogólnym brakiem wsparcia finansowego ze strony rządu stanowego, który pod koniec XX wieku należał do tych, które najmniej przeznaczały na edukację publiczną w przeliczeniu na mieszkańca. Dzieci muszą uczęszczać do szkoły w wieku od 8 do 16 lat lub do ukończenia ósmej klasy. Wskaźnik porzucania nauki należy do najwyższych w kraju. Szkolnictwo wyższe w Arizonie, podobnie jak w większości stanów zachodnich zdominowane jest przez duże uniwersytety publiczne, a do najważniejszych należą: Uniwersytet Arizony w Tucson (zał. w 1885), Arizona State University w Tempe (1885), oraz Northern Arizona University w Flagstaff (1899). Zobacz też Wielki Kanion Kolorado Park Narodowy Skamieniałego Lasu Park Narodowy Saguaro Pustynia Pstra Krater Meteorytowy Przypisy Linki zewnętrzne Oficjalna strona Stanu Arizona Stany Stanów Zjednoczonych
106
https://pl.wikipedia.org/wiki/Anime
Anime
– skrót słowny w języku japońskim, pochodzący od angielskiego słowa „animation”, które jest wymawiane po japońsku animēshon. Oznacza ono film animowany, z tym że w Japonii terminem tym określa się wszystkie filmy i seriale animowane, bez względu na kraj ich pochodzenia. Natomiast poza Japonią słowo anime służy do określenia japońskich filmów animowanych. Teoria o pochodzeniu terminu anime od francuskiego słowa animé (animowany) lub les dessins animés (animowane obrazy) jest dyskusyjna. Obie formy – pierwotna animēshon i skrócona anime – są używane przez Japończyków. Historia anime Pionierami japońskiego filmu animowanego byli , oraz , którzy swoje pierwsze prace zaprezentowali w 1917 roku. Za pierwszy komercyjnie rozprowadzany japoński film animowany uznaje się 5-minutowy film Ōtena Shimokawy zatytułowany , który został rozdystrybuowany w styczniu 1917 roku. W okresie militaryzmu – od połowy lat 30 XX w. i podczas II wojny światowej – anime służyły japońskiemu rządowi do celów propagandowych umacniających nacjonalizm i kult cesarza w społeczeństwie. Kultową animacją okazały się opowieści o Momotarō autorstwa Mitsuyo Seo. Po wojnie i w latach 50. nastąpił zastój w japońskim przemyśle filmowym, głównie z powodu popularności produkcji amerykańskich, pochodzących z wytwórni Walt Disney, Metro-Goldwyn-Mayer i Warner Bros. Na ten okres przypada jednak rozwój komiksu określanego w Japonii mianem mangi. W latach 60. nastąpił ponowny rozwój produkcji animowanych (głównie seriali telewizyjnych). Symbolami sukcesu okazały się: Astro Boy (reż. Osamu Tezuki), Sally czarodziejka, Czarodziejskie zwierciadełko i Kimba, biały lew. W latach 70. popularność anime gwałtownie wzrosła i zaczęły powstawać (w dużej części na podstawie mang) filmy animowane wyróżniające się spośród innych produkcji. Anime kierowane było coraz częściej do młodzieży i dorosłych. Powstały nowe gatunki, na przykład mecha opowiadający o humanoidach i robotach, tokusatsu o herosach, czy fantastyka naukowa. Następujące wówczas w krajach rozwiniętych gwałtowna modernizacja, postęp techniczny, konsumpcjonizm, nowe ruchy religijne i zmiany obyczajowe znajdowały swoje odbicie także w powstających anime. Reżyserowie coraz częściej uwypuklali indywidualizm i niezależność bohaterów, których cele i idee nie zawsze pokrywały się z celami większości. Modne też stały się fantastyczne światy, magia, nadprzyrodzone zdolności, przemoc, brutalizm i epatowanie seksualnością. Z tych stylów narodziły się seriale animowane: Tygrysia Maska, Generał Daimos, Bia – czarodziejskie wyzwanie, Magiczne igraszki, Yattaman, Fantastyczny świat Paula. W latach 80. filmy anime podbiły rynki poza granicami kraju (zwłaszcza w Australii, Stanach Zjednoczonych, Kanadzie, Francji, Belgii i Włoszech), a w Japonii zostały uznane za jeden z najważniejszych nurtów produkcji filmowej. Anime stały się wytworami współczesnej kultury japońskiej, ale także odzwierciedleniem dokonujących się w niej przemian, a dzięki promocji i ekspansji eksportowej rozwinęły się w osobną branżę gospodarki przynoszącą Japonii ogromne dochody. Od lat 90. anime zaczęły podbijać także rynki wielu krajów Azji Wschodniej, Ameryki Południowej i Europy Wschodniej. Synonimy W krajach anglojęzycznych anime bywa czasami nazywane zbitką wyrazową japanimation, ale obecnie termin ten wychodzi z użycia. Określenie to używane było najczęściej w latach 70. i 80., wraz z pierwszą i drugą falą fandomu, ale w połowie lat 90. zaczęło być wypierane przez anime. Termin ten częściej używany jest w Japonii. Odkąd słów anime i animēshon zaczęto używać do określania wszystkich typów animacji, terminem japanimation odróżnia się japońskie filmy animowane od pozostałych. Wyróżniki Japońska animacja cechuje się rozmaitością stylów, które skierowane są do ogromnego grona odbiorców – kobiet i mężczyzn, dziewczyn i chłopców, osób w każdym wieku, o każdej orientacji seksualnej, biznesmenów i robotników, gospodyń domowych i kobiet robiących karierę itd. Cechą charakterystyczną większości anime jest styl rysowania. Postacie anime mają duże oczy, a włosy cieniowane są w charakterystyczny sposób. Inną cechą charakterystyczną są pojawiające się w niektórych produkcjach bardzo uproszczone wizerunki bohaterów (tzw. super deformed). Niegdyś wiele anime powstawało jedynie przy użyciu tradycyjnych metod animacji, jednak w ostatnich latach do produkcji coraz większej części z nich używa się komputerów. Komputery wykorzystywane są w różnym stopniu: w niektórych filmach ich praca jest praktycznie niezauważalna, ponieważ twórcy ograniczyli ich użycie do minimum, np. pomagając sobie przy co trudniejszych animacjach. Inne z kolei anime, bardzo dużo zawdzięczają komputerom – animacja do Appleseed powstawała przy pomocy grafiki trójwymiarowej oraz techniki motion capture. Ostatnim serialem anime, który powstaje wyłącznie przy użyciu tradycyjnych metod, jest Sazae-san. Gatunki i podgatunki Istnieje wiele gatunków anime, w tym także odpowiednich dla tradycyjnego kina aktorskiego. Owe gatunki mogą zawierać w sobie elementy akcji, przygody, historii dla dzieci, komedii, dramatu, erotyzmu (hentai), średniowiecznego fantasy, horroru, romansu, science fiction itd. Większość anime łączy w sobie elementy kilku różnych gatunków, jak i wiele różnych tematów, co utrudnia jednoznaczne ich kategoryzowanie. Może wydawać się, że dane anime ma prostą fabułę, ale jednocześnie może cechować się ono o wiele większą złożonością, głębokością przedstawionej historii oraz jej bohaterów. Przykładowo, w jakimś anime największy nacisk położono na akcję, np. efektowne bijatyki lub pościgi, ale jednocześnie w tym samym filmie (serialu) znaleźć można elementy m.in. humoru. Nazwy i krótkie opisy pojęć charakterystycznych dla anime i mangi: anime progresywne – „film artystyczny”, produkcja łamiąca jakieś kanony; termin trudny do jednoznacznego zdefiniowania, stąd też nie można podać konkretnych przykładów anime progresywnych, ale wymienia się wśród nich m.in. Furi kuri, Mind Game, Meikyū monogatari czy Wirtualną Lain bishōjo – jap. „piękna dziewczyna”; anime, w którym ważną rolę odgrywają piękne dziewczyny, np. To Love-Ru bishōnen – jap. „piękny chłopak”, np. Tajemnica przeszłości ecchi – anime o podtekstach erotycznych, niewybrednym humorze erotycznym, aczkolwiek bez pokazywania stosunków płciowych, np. Green Green, Chobits hentai – jap. „zboczeniec” erotyczne i pornograficzne, w Japonii termin nie jest stosowany, a samo słowo jest odbierane negatywnie, np. Chōjin densetsu Urotsukidōji, yaoi – erotyczne bądź romantyczne anime gejowskie, np. Ai no kusabi: Miłość na uwięzi yuri – erotyczne bądź romantyczne anime lesbijskie np. Kapłanki przeklętych dni shōtakon – od shōtaro complex; erotyczne anime z młodymi chłopcami np. Boku no Pico lolicon lub rorikon – od lolita complex; erotyczne anime z młodymi dziewczętami josei – jap. „młoda kobieta”; anime przeznaczone dla młodych kobiet, rzadko spotykane, np. Paradise Kiss mecha – anime z wielkimi robotami lub humanoidami, np. Neon Genesis Evangelion, Darling in the Franxx moe – anime lub manga zawierające postaci bardzo zuchwałe lub słodkie np. Lucky Star seinen – anime przeznaczone dla starszej młodzieży, np. V sentai, super sentai – jap. „walcząca drużyna”; anime, które wśród głównych postaci zawiera drużynę superbohaterów shōjo – jap. „młoda panienka” lub „mała dziewczynka”; anime przeznaczone głównie dla dziewczyn, np. Służąca przewodnicząca shōnen – jap. „chłopiec”; anime przeznaczone głównie dla chłopców, np. Dragon Ball mahō-shōjo (magical girls) – anime o nastoletnich bohaterkach, posiadających nadprzyrodzone moce, np. Czarodziejka z Księżyca mahō-shōnen (magical boys) – odpowiednik mahō shōjo z chłopcami, np. Binan Kōkō Chikyū Bōei-bu Love! shōjo-ai – jap. „dziewczęca miłość”; anime o romansach między żeńskimi postaciami, np. Rewolucjonistka Utena; termin nie obowiązuje w Japonii, utworzony został na Zachodzie na wzór shōnen-ai, aby odróżnić lesbijski romans od erotyki shōnen-ai (lub BL, boys love) – jap. „chłopięca miłość”; anime o romansach między męskimi postaciami, np. Gravitation, Junjō Romantica Niektóre anime powstają dla specjalnej grupy odbiorców, węższej nawet niż niektórych z podanych powyżej. Przykładowo, Initial D, Wangan Midnight i éX-Driver skupiają się na wyścigach samochodowych i tuningu (swoiste odpowiedniki filmów w rodzaju Szybkich i wściekłych), Ashita no Jō opowiada o boksie, a Hanaukyō meido tai (Hanaukyō Maid Team) bazuje na fantasy o francuskich pokojówkach. Muzyka Bardzo ważnym elementem anime jest muzyka. Ścieżki dźwiękowe do anime często tworzone są przez znanych muzyków i kompozytorów. Seriale rozpoczynające się specyficzną czołówką (po angielsku opening) wykorzystują otwierającą piosenkę jako szybkie wprowadzenie do programu. Tło muzyczne wykorzystuje się, aby nadać odpowiednie tempo akcji. Openingi zwykle odpowiadają tonowi, w jakim utrzymane jest dane anime i mają zachęcić widza do dalszego oglądania. Wykorzystane utwory oraz piosenka kończąca odcinek (ending) mogą stanowić komentarz do ogólnej fabuły całości lub wysuwać na pierwszy plan szczególnie ważny dla serialu element. Openingi i endingi (a także utwory w samym anime) nierzadko wykonywane są przez popularnych muzyków. Dodatkowo do niektórych anime wydawane są specjalne płyty z seiyū, nazywane image albumami. Pomimo użycia słowa image (obraz, wyobrażenie, wizerunek), płyty zawierają jedynie muzykę lub „wiadomości głosowe”, w których to seiyū rozmawiają z publicznością lub mówią o samych sobie, co wywołuje u słuchacza wrażenie, że postać śpiewa. Innym rodzajem płyt są drama CD, na których znajdują się piosenki i opowiadane przez seiyū historie, niekoniecznie związane z głównym wątkiem danego anime. Typy produkcji Większość anime można podzielić na następujące kategorie: filmy, trafiające głównie do kin, charakteryzują się najwyższym budżetem, a co za tym idzie – najlepszą techniczną jakością. Niektóre filmy anime przynoszą olbrzymie dochody, np. Akira, Ghost in the Shell czy Spirited Away: W krainie bogów. Część anime prezentowanych jest jedynie na festiwalach filmowych (lub filmów animowanych); są one krótsze od zwykłych filmów, przykładami mogą być Fuyu no hi czy Mori no densetsu Osamu Tezuki. Innym typem produkcji są filmowe kompilacje, powstające z połączenia fragmentów serialu i zaprezentowane w kinach z różnych powodów; seriale telewizyjne, emitowane regularnie w telewizji. Większość odcinków trwa około dwudziestu trzech minut, które wraz z przerwą na reklamy zapełniają pół godziny czasu antenowego. Większość seriali posiada opening i ending oraz tzw. eyecatch – bardzo krótkie scenki, często humorystyczne lub głupie, sygnalizujące początek lub koniec przerwy na reklamę. Eyecatche często pojawiają się w serialach, generalnie związane są z serią. Po endingu zazwyczaj pojawia się zapowiedź następnego odcinka; OVA (Original video animation; czasami nazywane także OAV – original animated video), porównywane z miniserialami. Mogą mieć dowolną liczbę odcinków i długość; jednoodcinkowe OVA są szczególnie krótkie, zazwyczaj krótsze od filmu pełnometrażowego. Zazwyczaj wypuszczane bezpośrednio na DVD (dawniej kasetach video). Przeważnie są dobrej jakości technicznej, zbliżonej do filmów. Czasami pojawiają się w nich opening, ending i eyecatche. Dystrybucja poza Japonią Zainteresowanie anime Zróżnicowanie gatunkowe powoduje, że anime znajduje wielu fanów, co pozwoliło na powstanie fandomu poza Japonią. Popularność ta wynika również z odmienności od popkultury Zachodu. W wielu krajach zachodnich japońskie animacje są bardzo opłacalne, podobnie jak wczesne zachodnie ich adaptacje, np. Tetsuwan Atomu. Licencja Poza Japonią anime wydawane są w odpowiedniej dla danego kraju formie. Nagrana zostaje między innymi dubbingowana ścieżka dialogowa, którą wstawia się w miejsce oryginalnych dialogów. Dystrybutor może edytować anime w taki sposób, aby zastąpić rzeczy niezrozumiałe dla widza spoza Japonii oraz potencjalnie nieodpowiednie bądź obraźliwe, nawet poprzez wycięcie lub przerobienie niektórych scen. W taki sposób Amerykanie ocenzurowali np. Wojnę planet czy Teknomana, aby nadawały się one na rynek amerykański. Proces ten był szczególnie intensywny dawniej, kiedy na Zachodzie anime było jeszcze mało znane, ale obecnie dystrybutorzy coraz rzadziej decydują się na cenzurę, ze względu na coraz większe zapotrzebowanie rynku na anime w oryginalnej wersji. Na cenzurę dystrybutor decyduje się najczęściej ze względu na mocne sceny erotyczne w produkcjach dla starszych widzów. Jeśli anime jest przeznaczone dla dzieci, dystrybutor często decyduje się na wycięcie co brutalniejszych scen – w anime rany i obrażenia są naturalnym następstwem przemocy. Dystrybucja anime w Polsce Historia dystrybucji anime w Polsce zaczęła się w latach 70. XX wieku, za pierwszy film anime który miał premierę w Polsce uznaje się Kota w Butach od studia Toei, polska premiera miała miejsce w sierpniu 1972 roku. Natomiast jedną z pierwszych emisji anime w polskiej telewizji była Pszczółka Maja 26 grudnia 1979 roku. Popularny był też serial Załoga G. Na początku lat 90. anime emitowala stacja Polonia 1, emitując seriale takie jak Yattaman, Kapitan Jastrząb i Generał Daimos; wkrótce anime emitował też Polsat, m.in. Czarodziejkę z Księżyca. O ile seriale te cieszyły się duża popularnością wśród młodych odbiorców, były dość krytykowane przez starszych krytyków w mediach, i "przedstawiano jako produkt niezwykle brutalny i przesiąknięty seksem" (zwłaszcza krytykowana była Tygrysia Maska, serial dla starszej młodzieży, błędnie emitowany w paśmie dla najmłodszych). Obecnie najbardziej powszechną formą legalnego dostępu do anime w Polsce są serwisy streamingowe, udostępniające seriale godzinę po emisji w japońskiej telewizji np. Crunchyroll, Daisuki.net. Wydano również wiele wydań VHS, VCD, DVD, Blu-ray dzięki takim wydawcom jak Planet Manga, Anime Gate, Monolith Film, MyFly, Anime Virtual, IDG, Anime Eden. W polskich kanałach telewizyjnych anime są emitowane, zazwyczaj w wersjach przeznaczonych na rynek międzynarodowy. W niektórych przypadkach następowało amerykanizowane serii i najczęściej dotyczyła ona imion (np. Satoshi, główny bohater Pokémonów, w Polsce ma imię z angielskiego dubbingu – Ash, rodzice Shin-chana natomiast nazywali się Harry i Mitsy, podczas gdy w oryginalnej wersji – Hiroshi i Misae). Anime regularnie emitowane są przez stacje telewizyjne Polonia 1, Disney XD i Cartoon Network oraz Polsat Games. Dawniej głównie w Polsat, Hyper+, Canal+, AXN Sci-Fi. W ciągu ostatnich lat do kin weszło zaledwie kilka anime. Były to głównie filmy bazujące na Pokémonach i Dragon Ballu, a także filmy Hayao Miyazakiego: Księżniczka mononoke, Spirited Away: W krainie bogów i Ruchomy zamek Hauru. Fansuby Mimo że jest to pogwałceniem praw autorskich w wielu krajach, część fanów ogląda fansuby (nagrania serii lub filmów ze stworzonymi przez fanów napisami). Etyczny aspekt tworzenia, dystrybuowania i oglądania fansubów jest przedmiotem wielu dyskusji i kontrowersji. Kontrowersje Czasami pojawiają się kontrowersje dotyczące zakresu definicji słowa anime. Wynikają one stąd, że w odniesieniu do anime panuje wiele stereotypów. Z anime kojarzone są np. duże oczy postaci, pozwalające łatwo wyrażać ich odczucia, smukłe sylwetki, a także często szczegółowe tła. Dlatego też wiele osób nie chce wierzyć, że niektóre filmy animowane (jak np. Pszczółka Maja) zostały wyprodukowane w Japonii. Z tego powodu słowo anime może być używane w trzech znaczeniach: do określenia wszystkich filmów animowanych – znaczenie to stosowane jest jedynie przez Japończyków, do określenia japońskich filmów animowanych – to definicja najbardziej rozpowszechniona poza Japonią, do określenia filmów animowanych (niezależnie od kraju produkcji) nawiązujących do stereotypów związanych z japońskim komiksem i animacją. Ze względu na to, że bez trudu można znaleźć produkcje anime nie pasujące do stereotypów, trzecia definicja nie może być uznana za dominującą, może jedynie pełnić rolę pomocniczą. Animowane produkcje czerpiące z anime bądź produkowane w takim stylu potocznie określa się terminem amerime, a należą do nich np. Odlotowe agentki. Amerime to także japońska wersja amerykańskich seriali animowanych, jak np. Demashita! Powerpuff Girls Z – japońska wersja przygód Atomówek w konwencji mahō-shōjo. Popularność anime w Japonii We wrześniu 2005 r. japoński kanał TV Asahi przeprowadził ogólnokrajową ankietę pisemną oraz internetową, w której pytał Japończyków o ulubione seriale animowane (w grupie wiekowej: nastolatków, 20-latków, 30-, 40-, 50-, 60-latków i starszych). Ankieta nie ograniczała się jedynie do filmów japońskich, jednak, jak się okazało, z tytułów niejapońskich na listę trafili jedynie Tom i Jerry. Wyniki ankiety zostały wyemitowane w specjalnym programie nadanym 23 września. Wyniki ankiety internetowej były nieco inne, najwięcej głosów zebrała seria Fullmetal Alchemist, która w ogólnokrajowej ankiecie znalazła się na 20. miejscu. Prawdopodobnie zadecydował o tym inny profil demograficzny głosujących. Zobacz też Przypisy Bibliografia Sandra Buckley, The Encyclopedia of Contemporary Japanese Culture, Taylor and Francis, 2009 . Jonathan Clements, Helen McCarthy, The Anime Encyclopedia: A Guide to Japanese Animation since 1917, Stone Bridge Press, Berkeley, California, 2006, . Linki zewnętrzne AniDB baza danych o anime Anime News Network – informacje i baza danych o japońskich produkcjach Tanuki Anime – baza danych i recenzje anime Gatunki filmowe
107
https://pl.wikipedia.org/wiki/Arkansas
Arkansas
Arkansas () – stan w południowo-wschodniej części Stanów Zjednoczonych, sąsiadujący z Missouri, Oklahomą, Teksasem, Luizjaną, Missisipi i Tennessee. Stolicą oraz największym miastem jest Little Rock. Stan położony na zachód od rzeki Missisipi. Większość obszaru stanu jest nizinna (dolina Missisipi), a południowo-zachodnia część wyżynna (wyżyna Ozark). Ponad połowę powierzchni stanu pokrywają lasy. Stan obfituje w zasoby naturalne, w tym brom, gaz ziemny, ropę naftową i kamień krzemowy. Najwcześniejszymi mieszkańcami tych obszarów byli Indianie żyjący wzdłuż rzeki Missisipi. W okresie, gdy tereny te stały się obiektem zainteresowania Europejczyków, żyły tam plemiona: Caddo (Kaddo), Osedżowie i Quapaw. Konserwatywna tradycja tego stanu wyraża się w: stosowaniu kary śmierci przez wstrzyknięcie trucizny, zakazie małżeństw jednopłciowych w następstwie referendum, a także głosowaniu w 2021 roku za zakazem aborcji, nawet w przypadku gwałtu lub kazirodztwa. Symbole stanu Dewiza: Regnat Populus (z łac. „rządy ludu”) Przydomek: The Natural State („stan natury”) Symbole: kwiat jabłoni, sosna, przedrzeźniacz północny Historia 1541 – na terytorium dzisiejszego Arkansas dotarła hiszpańska ekspedycja kierowana przez Hernando de Soto druga połowa XVII wieku – zaczęli osiedlać się pierwsi osadnicy francuscy, obszar Arkansas jest wówczas częścią francuskiej Luizjany 1762 – pod panowaniem Hiszpanii 1800 – ponownie własnością Francji 1803 – przeszedł na własność Stanów Zjednoczonych po zakupieniu francuskiej Luizjany od rządu francuskiego 15 czerwca 1836 – przyjęcie do Unii 1861 – przyłączenie się do Konfederacji 1865 – ponowne podporządkowanie Unii 1906 – po raz pierwszy odkryto diamenty Geografia Klimat: podzwrotnikowy kontynentalny, wiosną i latem występują tornada z gwałtownymi ulewami, zimy są łagodne Główne rzeki: Missisipi, Arkansas Najwyższy szczyt: Signal Hill (839 m n.p.m.) Roślinność: lasy z udziałem sosny i dębu białego Liczba parków stanowych: 50 Parki narodowe: Hot Springs Miejscowości Na terenie stanu Arkansas znajduje się 501 miast ( lub ), w tym jedno o liczbie ludności przekraczającej 100 000, 38 powyżej 10 000 mieszkańców, a 183 powyżej 1000 mieszkańców (2021 r.). Lista miast zamieszkanych przez 4000 lub więcej osób (2021 r.): Podział administracyjny Arkansas dzieli się na 75 hrabstw (lista). Największym z nich jest hrabstwo Pulaski. Demografia Spis ludności z roku 2020 stwierdza, że stan Arkansas liczy 3 011 524 mieszkańców, co oznacza wzrost o 95 606 (3,3%) w porównaniu z poprzednim spisem z roku 2010. Dzieci poniżej piątego roku życia stanowią 6,2% populacji, 23,2% mieszkańców nie ukończyło jeszcze osiemnastego roku życia, a 17,4% to osoby mające 65 i więcej lat. 50,9% ludności stanu stanowią kobiety. Rasy i pochodzenie Według danych z 2019 roku, 76,7% mieszkańców stanowiła ludność biała (72% nie licząc Latynosów), 15,5% to czarni lub Afroamerykanie, 2,8% miało rasę mieszaną, 1,5% to Azjaci, 0,6% to rdzenna ludność Ameryki, 0,4% to Hawajczycy i mieszkańcy innych wysp Pacyfiku. Latynosi stanowią 7,7% ludności stanu. Największe grupy stanowią osoby pochodzenia „amerykańskiego” (9,4%), irlandzkiego (8,5%), niemieckiego (8,4%), angielskiego (7,2%) i meksykańskiego (5,6%). Istnieją także duże grupy osób pochodzenia europejskiego (58,8 tys.), szkockiego (48,5 tys.), francuskiego (48 tys.), afrykańskiego subsaharyjskiego (42,5 tys.), włoskiego (42,5 tys.) i szkocko–irlandzkiego (31,7 tys.). Liczbę Polaków oszacowano na 23,2 tys. osób. Język Najpowszechniej używanymi językami są: język angielski – 93,4%, język hiszpański – 4,82%. Religia Dane z 2014 r.: protestanci – 70%: baptyści – 33%, pozostali – 37% (głównie: metodyści, zielonoświątkowcy, bezdenominacyjni i campbellici), brak religii – 18% (w tym: 3% agnostycy i 2% ateiści), katolicy – 8%, mormoni – 1%, inne religie – 3% (w tym: świadkowie Jehowy, muzułmanie, hinduiści, buddyści, żydzi, bahaiści, prawosławni, scjentyści i unitarianie uniwersaliści). Gospodarka Znaczący udział w tworzeniu produktu krajowego brutto (PKB) mają: produkcja chemiczna, narzędzia, wydobycie gazu ziemnego i ropy naftowej, górnictwo, rolnictwo, oraz przetwórstwo żywności i napojów. Samoloty były głównym towarem eksportowym z Arkansas w 2019 roku, o wartości 1,24 mld dolarów. Do innych eksportowanych towarów przynoszących największy zysk należą: maszyny, tabor kolejowy, maszyny elektryczne, chemikalia organiczne, zboża, tworzywa sztuczne, celuloza z drewna, mięso, oraz papier i tektura. Bogactwa naturalne W Parku Stanowym Krateru Diamentów znajduje się jedyna czynna kopalnia diamentów w Stanach Zjednoczonych. Większość produkcji gazu ziemnego w stanie pochodzi z Zagłębia Arkoma, w dolinie rzeki Arkansas. Zasoby węgla znajdują się w dolinie, w pobliżu zachodniej granicy stanu, a obejmują również większość wschodniej części stanu. Obszar produkcji ropy naftowej znajduje się na południu Równiny Przybrzeżnej. Stan ma trzy zakłady produkujące biodiesel o łącznej zdolności produkcyjnej 115 milionów galonów rocznie, co jest piątym wynikiem w Stanach Zjednoczonych. Energia W 2020 r. gaz ziemny po raz pierwszy wytworzył w Arkansas więcej energii elektrycznej niż węgiel i stanowił prawie jedną trzecią produkcji netto stanu. Węgiel odpowiadał za trzy dziesiąte produkcji netto stanu w 2020 r., w porównaniu z ponad połową produkcji w 2014. Stan ma jedną elektrownię jądrową – z dwoma reaktorami – która zapewnia prawie trzy dziesiąte produkcji. Prawie cała pozostała część produkcji energii elektrycznej w stanie pochodziła z elektrowni wodnych i elektrowni opalanych biomasą. Rolnictwo Drób, soja i ryż to trzy najważniejsze produkty rolne stanu pod względem wpływów z gospodarstw rolnych. Uczelnie Uniwersytet Arkansas Arkansas State University System Arkansas State University – Jonesboro Arkansas State University – Mountain Home Zobacz też Zgromadzenie Ogólne Arkansas Przypisy Linki zewnętrzne Oficjalna strona stanu Arkansas Stany Stanów Zjednoczonych
108
https://pl.wikipedia.org/wiki/Ameryka%20Po%C5%82udniowa
Ameryka Południowa
Ameryka Południowa – kontynent o powierzchni 17,8 miliona km² leżący na półkuli zachodniej oraz w większej części na półkuli południowej, a w mniejszej – na półkuli północnej. Niekiedy uważana jest również za subkontynent Ameryki. Amerykę Południową oblewa od wschodu Ocean Atlantycki, a od zachodu Ocean Spokojny. Od północy, przez Przesmyk Panamski oraz Morze Karaibskie, kontynent graniczy z Ameryką Północną. Jego powierzchnię zajmuje 13 państw: Argentyna, Boliwia, Brazylia, Chile, Ekwador, Gujana, Kolumbia, Paragwaj, Peru, Surinam, Urugwaj, Wenezuela, Trynidad i Tobago oraz pięć terytoriów zależnych: Aruba, Bonaire, Curaçao należące do Holandii, Gujana Francuska należąca do Francji i brytyjskie Falklandy. Powierzchnia Ameryki Południowej zajmuje 17 840 000 km² i w 2010 roku zamieszkiwało ją ponad 396 mln osób co stanowiło 5,79% ludności świata. Powierzchniowo, wśród kontynentów, Ameryka Południowa zajmuje czwarte miejsce (za Azją, Afryką oraz Ameryką Północną). Największym miastem jest mające prawie 20 mln mieszkańców São Paulo. Geografia Ameryka Południowa obejmuje południową część półkuli zachodniej. Kontynent na północnym zachodzie jest ograniczony przez Przesmyk Darién wzdłuż granicy kolumbijsko-panamskiej lub, jak twierdzą niektóre źródła, przez Kanał Panamski, który przecina w poprzek Przesmyk Panamski. Geopolitycznie i geograficznie cała Panama – wraz ze wschodnią częścią Kanału Panamskiego – jest zazwyczaj wymieniana wśród krajów Ameryki Północnej i Ameryki Środkowej. Niemal cały kontynent znajduje się na płycie południowoamerykańskiej. Trójkątny kształt Ameryki Południowej sprawia, że ma ona najkrótszą linię brzegową spośród wszystkich kontynentów. Zwyczajowo do Ameryki Południowej zalicza się również pobliskie wyspy. Aruba, Bonaire, Curaçao, Trynidad, Tobago oraz dependencje federalne Wenezueli znajdują się w północnej części szelfu kontynentalnego Ameryki Południowej i są uważane za część kontynentu. Geopolitycznie kraje wyspowe oraz terytoria zamorskie Karaibów są zaliczane do części subregionu Ameryki Północnej, ponieważ znajdują się w większej odległości od płyty karaibskiej, pomimo tego że San Andrés i Providencia politycznie stanowią część Kolumbii, a Wyspa Ptasia jest kontrolowana przez Wenezuelę. Inne wyspy, które są zaliczane do Ameryki Południowej, to Wyspy Galapagos, które należą do Ekwadoru, Wyspa Wielkanocna (znajdująca się w Oceanii), wyspa Robinson Crusoe oraz archipelag Chiloé, które należą do Chile, natomiast Ziemia Ognista jest podzielona pomiędzy Chile oraz Argentynę. Na Atlantyku Brazylia posiada Fernando de Noronha, Trindade i Martim Vaz oraz Wyspy Świętego Piotra i Pawła. W Ameryce Południowej znajduje się najwyższy wodospad świata – Salto del Angel w Wenezueli, rzeka o największym średnim przepływie (długość jest sprawą kontrowersyjną) – Amazonka (7,2 mln km²), najdłuższy łańcuch górski – Andy (najwyższy szczyt to Aconcagua – 6962 m n.p.m.), najsuchsze miejsce na Ziemi – Pustynia Atacama, największy las deszczowy – Amazonia, najwyżej położone jezioro wykorzystywane w celach handlowych – jezioro Titicaca, najwyższy wulkan – Ojos del Salado (6885 m n.p.m.) oraz najwyższy czynny wulkan – Llullaillaco, najwyżej położona stolica świata – La Paz (3600–4100 m n.p.m.), a także, nie biorąc pod uwagę stacji badawczej na Antarktyce, wysunięty najdalej na południe zamieszkały obszar – Puerto Toro w Chile. Ukształtowanie terenu Ameryka Południowa ma trójkątny kształt oraz mało zróżnicowaną linię brzegową. Do największych półwyspów zalicza się: Brunswick i Taitao, natomiast największe wyspy to: Ziemia Ognista, Riesco oraz Santa Inés. W Ameryce Południowej przeważają tereny nizinne, średnia wysokość kontynentu wynosi 655 m n.p.m. Wzdłuż zachodniego wybrzeża rozciągają się Andy, będące przedłużeniem Kordylierów z Ameryki Północnej. Najwyższym szczytem jest Aconcagua w Argentynie (6962 m n.p.m.), a najniżej położonym obszarem – Laguna del Carbon (105 m p.p.m.), również znajdująca się na terenie Argentyny. Najrozleglejsze obszary wyżynne Ameryki Południowej to: Wyżyna Gujańska, Wyżyna Brazylijska, Wyżyna Patagońska, natomiast nizinne: Nizina Orinoko, Nizina Amazonki, Nizina La Platy. Brazylia jest największym krajem kontynentu i zajmuje około połowy jego powierzchni i obejmuje połowę populacji. Pozostałe kraje i terytoria są podzielone pomiędzy trzy regiony: kraje andyjskie, guajańskie i stożek południowy. Najdalej wysunięte punkty kontynentu na stałym lądzie: na północy – Przylądek Gallinas (12°25′N) na południu – Przylądek Froward (53°54′S) na zachodzie – Przylądek Pariñas (81°22′W) na wschodzie – Przylądek Branco (34°47′W) Flora i fauna Ameryka Południowa, dzięki swojej niedostępności dla człowieka oraz dużej rozciągłości południkowej, jest jednym z najbardziej biologicznie zróżnicowanych kontynentów na Ziemi. Kontynent jest zamieszkiwany przez wiele interesujących i rzadkich zwierząt, takich jak lama, anakonda, pirania, jaguar, wigoń czy tapir. Również lasy Amazonii są niezwykle zróżnicowane biologicznie – można tam spotkać znaczną część gatunków występujących na Ziemi. Najczęściej spotykane rośliny użytkowe to: ziemniaki, tytoń, kakaowce oraz ananasy. Klimat W Ameryce Południowej występują wszystkie strefy klimatyczne, począwszy od klimatu równikowego na północy kontynentu, poprzez zwrotnikowy, podzwrotnikowy, umiarkowany do subpolarnego na południu kontynentu. Pod względem opadów w Ameryce Południowej są tereny o obfitych opadach (Nizina Amazonki), ale również pustynne (w Andach). Na pustyni Atacama występuje najdłuższy okres bez opadów (300 lat) od 1670 do 1972. Również minimalne średnie opady są tam najmniejsze i wynoszą 0,8 mm. Maksymalne średnie opady notuje się w Lloro-Choco (Kolumbia) 12 717 mm. Na zachodnich stokach Andów Patagońskich w Chile oraz na nizinie pacyficznej w Kolumbii i w środkowym biegu rzeki Magdaleny opady przekraczają nawet 7000 mm rocznie. Najbardziej suchymi obszarami są zachodnie stoki w środkowej części Andów (pustynia Atacama poniżej 20 mm). Na pustyni Atacama są miejsca, gdzie ostatni deszcz spadł 400 lat temu. W północnej części Chile, w mieście Arica roczne sumy opadów nie dochodzą do 1 mm, a w Iquique bywają okresy kilkunastoletnie, w których nie spada ani jedna kropla deszczu. Najwyższą temperaturę powietrza na kontynencie odnotowano 11 grudnia 1905 r. w argentyńskim mieście Rivadavia i osiągnęła ona 48,9 °C, a najniższą 1 czerwca 1907 r. w Sarmiento, wynoszącą –32,8 °C. System wodny Około 85% powierzchni Ameryki Południowej należy do zlewiska Oceanu Atlantyckiego. Największymi rzekami są: Amazonka, Parana, São Francisco, Orinoko. Wśród niewielkiej liczby jezior wymienić należy: Maracaibo, Patos, Titicaca. Zasoby naturalne Do głównych zasobów Ameryki Południowej należą: złoto, srebro, miedź, rudy żelaza, cyna oraz ropa naftowa. Złoża tych zasobów przyczyniły się do wzrostu przychodów amerykańskich krajów zwłaszcza w czasach wojny lub podczas szybkiego wzrostu ekonomicznego innych państw industrialnych. Jednakże koncentracja gospodarki na eksporcie jednego zasobu często utrudniała rozwój zdywersyfikowanej gospodarki. Zmiany w cenie danego dobra na rynkach międzynarodowych warunkowały rozwój lub spowolnienie gospodarcze krajów amerykańskich, często powodując ich destabilizację polityczną. Inne zasoby mineralne to: cynk, ołów, cyna, mangan, wolfram, antymon, boksyty, uran, siarka oraz diament. Państwa Ameryki Południowej Ludność Amerykę Południową zamieszkuje ponad 418 mln mieszkańców (2022). Ludność Ameryki Południowej jest zróżnicowana rasowo; Brazylia, Peru i Kolumbia to państwa o dużych mieszankach ras. Ludność tubylcza należy do rasy żółtej (mongoloidalnej) i zamieszkuje obecnie głównie Andy Środkowe, Peru i Boliwię, gdzie stanowi około 40% ludności. Główne języki tubylcze to keczua (język Inków) – około 10 mln osób, ajmara – około 1,5 mln osób i guarani – około 1 mln osób. Kontynent jest bardzo nierównomiernie zaludniony. Najgęściej zaludniony jest Trynidad i Tobago (238 os./km²), a najrzadziej Surinam (3 os./km²). Największe skupiska ludności w Ameryce Południowej znajdują się na terenach aglomeracji: São Paulo (ok. 21 mln), Rio de Janeiro (12 mln), Lima (ok. 8 mln) i Bogota (ok. 7 mln). Na kontynencie jest 12 niepodległych państw i jedno terytorium zależne – Gujana Francuska. W sąsiedztwie kontynentu leżą grupy wysp: (Falklandy, Galapagos, Antyle razem z Trynidadem i Tobago, Ziemia Ognista), z których tylko niektóre są niepodległe, a pozostałe stanowią terytoria zamorskie innych państw. Struktura religijna w 2022 roku, według The Association of Religion Data Archives: katolicy – 66,2%, protestanci – 17,5%: zielonoświątkowcy – 10,5%, baptyści, adwentyści dnia siódmego, pozostali i nieokreśleni chrześcijanie – 6,6%: mormoni – 1%, świadkowie Jehowy – <1%, brak religii – 6,4%, nowe religie – 1,3%, tradycyjne religie etniczne – 0,5%, muzułmanie – 0,3%, prawosławni – 0,2%, bahaici – 0,2%, buddyści – 0,1%, pozostali – 0,5%. Języki Hiszpański (193 243 411 osób posługujących się tym językiem) oraz portugalski (193 197 164 osób) są najbardziej rozpowszechnionymi językami w Ameryce Południowej. Hiszpański, wraz z innymi ojczystymi językami, jest językiem urzędowym w większości krajów. Portugalski natomiast jest językiem urzędowym w Brazylii, niderlandzki w Surinamie, angielski w Gujanie (w kraju tym jest używanych co najmniej 12 języków, m.in. hindi oraz arabski). Angielski obowiązuje na Falklandach, francuski jest językiem urzędowym Gujany Francuskiej i drugim językiem w Amapá, jednym z regionów Brazylii. Do języków autochtonicznych Ameryki Południowej zalicza się język keczua w Ekwadorze, Peru, Chile, Argentynie i Boliwii, guarani w Paragwaju i, w znacznie mniejszym zakresie, Boliwii, ajmara w Boliwii, Peru oraz rzadziej Chile, a także mapudungun, którym posługują się osoby w niektórych strefach południowego Chile i Argentyny. Trzy języki autochtoniczne (keczua, ajmara i guarani) są uznawane, obok hiszpańskiego, jako języki urzędowe. W Ameryce Południowej można się także spotkać z: językiem hindi i jawajskim w Surinamie, włoskim w Argentynie, Brazylii, Kolumbii, Chile, Wenezueli, Peru i Paragwaju. Niemiecki jest używany w wielu regionach południowych stanów Brazylii, zazwyczaj w formie dialektu Riograndenser Hunsrückisch. Język walijski pozostaje w użyciu w historycznych miastach, w Trelewie oraz w Rawson w Argentynie (Patagonia). Występują także niewielkie grupy używające języka japońskiego w Brazylii, Kolumbii, Wenezueli, Peru, Chile, Argentynie i Paragwaju. Językiem polskim posługuje się ok. 90 tys. mieszkańców polskiego pochodzenia z brazylijskich stanów Paraná, Santa Catarina i Rio Grande do Sul. Gospodarka Rolnictwo Cztery kraje o najsilniejszym rolnictwie to Brazylia, Argentyna, Chile i Kolumbia. Brazylia jest największym na świecie producentem trzciny cukrowej, soi, kawy, pomarańczy, guarany, açaí i orzecha brazylijskiego; jest jednym z 5 największych producentów kukurydzy, papai, tytoniu, ananasów, bananów, bawełny, fasoli, kokosu, arbuzów i cytryn; jest jednym z 10 największych światowych producentów kakao, nerkowca, avocado, mandarynek, persimmon, mango, gujawy, ryżu, sorgo i pomidorów; i jest jednym z 15 największych światowych producentów winogron, jabłek, melona, orzechów ziemnych, figi, brzoskwiń, cebuli, oleju palmowego i kauczuku naturalnego. Argentyna jest jednym z 5 największych na świecie producentów soi, kukurydzy, nasion słonecznika, cytryny i gruszki, jednym z 10 największych producentów na świecie jęczmieniu, winogron, karczochu, tytoniu i bawełny oraz jednym z 15 największych producentów na świecie pszenicy, trzciny cukrowej, sorgo i grejpfrutów; Chile jest jednym z 5 największych światowych producentów czereśni i żurawiny oraz jednym z 10 największych światowych producentów winogron, jabłek, kiwi, brzoskwiń, śliwki i orzechów laskowych, koncentrując się na eksporcie cennych owoców; Kolumbia jest jednym z 5 największych na świecie producentów kawy, awokado i oleju palmowego oraz jednym z 10 największych na świecie producentów trzciny cukrowej, bananów, ananasów i kakao; Peru jest jednym z 5 największych producentów awokado, borówek wysokich, karczochu i szparagów, jednym z 10 największych na świecie producentów kawy i kakao, jednym z 15 największych na świecie producentów ziemniaków i ananasów, a także znaczącym producentem winogron, trzciny cukrowej, ryżu, bananów, kukurydzy i manioku; jego rolnictwo jest znacznie zróżnicowane; Rolnictwo Paragwaj obecnie się rozwija, będąc obecnie szóstym co do wielkości producentem soi na świecie i wpisując się na listę 20 największych producentów kukurydzy i trzciny cukrowej. Hodowla zwierząt Brazylia jest największym na świecie eksporterem mięsa kurczaka: 3,77 miliona ton w 2019 roku. Państwo to jest posiadaczem drugiego co do wielkości stada bydła na świecie, 22,2% światowego stada. Była drugim co do wielkości producentem wołowiny w 2019 r., Odpowiadając za 15,4% światowej produkcji. Była też trzecim największym producentem mleka w 2018 roku. Wyprodukowała w tamtym roku 35.1 miliarda litrów. W 2019 roku Brazylia była czwartym co do wielkości producentem wieprzowiny na świecie, z prawie 4 milionami ton. W 2018 r. Argentyna była czwartym co do wielkości producentem mięsa wołowego na świecie, z produkcją 3 mln ton (za Stanami Zjednoczonymi, Brazylią i Chinami). Urugwaj jest również głównym producentem mięsa. W 2018 roku wyprodukował 589 tys. ton wołowiny. Pod względem produkcji mięsa kurczaka Argentyna plasuje się wśród 15 największych producentów na świecie, a Peru i Kolumbia wśród 20 największych producentów. W produkcji mięsa wołowego Kolumbia jest jednym z 20 największych producentów na świecie. Pod względem produkcji miodu Argentyna jest jednym z 5 największych producentów na świecie, a Brazylia – wśród 15 największych. Pod względem produkcji mleka krowiego Argentyna plasuje się wśród 20 największych producentów na świecie. Górnictwo W sektorze wydobywczym Brazylia wyróżnia się wydobyciem rudy żelaza (gdzie jest eksporterem dla państw drugiego świata), miedzi, złota, boksytu (jednego z 5 największych producentów na świecie), manganu (jeden z 5 największych producentów na świecie), cyny (jeden z największych producentów na świecie), niobu (skupia 98% rezerw znane światu) i niklu. W odniesieniu do kamieni szlachetnych Brazylia jest największym na świecie producentem ametystu, topazu, agatu i jednym z głównych producentów turmaliny, szmaragdów, akwamaryny, granatu i opalu. Chile dostarcza około jednej trzeciej światowej produkcji miedzi. W 2018 roku Peru było drugim co do wielkości producentem srebra i miedzi na świecie i szóstym co do wielkości producentem złota, oprócz tego, jest trzecim największym producentem na świecie cynku i cyny i zajmuje 4. miejsce w produkcji ołowiu. Boliwia jest piątym co do wielkości producentem cyny, siódmym co do wielkości producentem srebra i ósmym co do wielkości producentem cynku na świecie. Przemysł Bank Światowy corocznie wymienia główne kraje produkujące według całkowitej wartości produkcji. Według listy z 2019 r. Brazylia zajmuje miejsce trzynaste pod względem wartości produkcji na świecie (173,6 mld USD), Wenezuela trzydzieste (58,2 mld USD), Argentyna 31. miejsce (57,7 mld USD), Kolumbia 46. miejsce (35,4 mld USD), Peru 50. miejsce (28,7 mld USD) i Chile 51. miejsce (28,3 mld USD). Sektor wtórny jest oparty na gałęziach przemysłu. Brazylia jest liderem przemysłowym w Ameryce Południowej. W przemyśle spożywczym w 2019 r. Brazylia była drugim co do wielkości eksporterem przetworzonej żywności na świecie. W 2016 roku kraj był drugim co do wielkości producentem celulozy na świecie i ósmym producentem papieru. W przemyśle obuwniczym w 2019 r. Brazylia zajęła 4. miejsce wśród światowych producentów. W 2019 roku kraj był ósmym producentem pojazdów i dziewiątym producentem stali na świecie. W 2018 r. przemysł chemiczny Brazylii zajmował 8. miejsce na świecie. Pod względem przemysłu tekstylnego Brazylia, chociaż należała do 5 największych światowych producentów w 2013 r., jest bardzo słabo zintegrowana z handlem światowym. W branży lotniczej Brazylia ma Embraer, trzeciego największego producenta samolotów na świecie, ustępując jedynie Boeingowi i Airbusowi. Argentyna jest jednym z 30 największych na świecie producentów stali i pojazdów. Transport Transport oparty jest w głównej mierze na transporcie drogowym, najbardziej rozwiniętym w regionie. Istnieje również rozwinięta infrastruktura portów morskich i lotnisk. Sektory kolejowy i rzeczny, chociaż mają potencjał, są zwykle traktowane w drugorzędny sposób. Brazylia ma ponad 1,7 miliona km dróg, z czego 215 000 km to drogi utwardzone, a około 14 000 km to dzielone autostrady. Dwie najważniejsze autostrady w kraju to BR-101 i BR-116. Argentyna ma ponad 600 000 km dróg, z czego około 70 000 km to drogi utwardzone, a około 2500 km to autostrady. Trzy najważniejsze autostrady w kraju to Trasa 9, Trasa 7 i Trasa 14. Kolumbia ma około 210 000 km dróg, a około 2300 km to autostrady podzielone. Chile ma około 82 000 km dróg, z których 20 000 jest utwardzonych, a około 2 000 km to autostrady. Najważniejszą autostradą w kraju jest Trasa 5 (Autostrada Panamerykańska). Te 4 kraje mają najlepszą infrastrukturę drogową i największą liczbę dwupasmowych autostrad. Ze względu na Andy, Amazonka i Amazonia, zawsze pojawiały się trudności we wdrażaniu transkontynentalnych lub bioceanicznych autostrad. Praktycznie jedyną istniejącą trasą była ta, która łączyła Brazylię z Buenos Aires w Argentynie, a później z Santiago w Chile. Jednak w ostatnich latach, dzięki połączonym wysiłkom państw, zaczęły pojawiać się nowe trasy, takie jak Brazylia-Peru (Autostrada Interoceaniczna) i nowa autostrada między Brazylią, Paragwajem, północną Argentyną i północnym Chile (Korytarz Bioceaniczny). W Brazylii jest ponad 2000 lotnisk. Kraj ma drugą co do wielkości liczbę lotnisk na świecie, po Stanach Zjednoczonych. Port lotniczy São Paulo-Guarulhos, położony w regionie metropolitalnym São Paulo, jest największym i najbardziej ruchliwym w kraju – lotnisko łączy São Paulo z praktycznie wszystkimi głównymi miastami na całym świecie. Brazylia ma 44 międzynarodowe lotniska, takie jak Rio de Janeiro, Brasília, Belo Horizonte, Porto Alegre, Florianópolis, Cuiabá, Salvador, Recife, Fortaleza, Belém i Manaus. Argentyna ma ważne międzynarodowe lotniska, takie jak między innymi Buenos Aires, Cordoba, Bariloche, Mendoza, Salta, Puerto Iguazú, Neuquén i Usuhaia. Chile ma ważne międzynarodowe lotniska, takie jak między innymi Santiago, Antofagasta, Puerto Montt, Punta Arenas i Iquique. Kolumbia ma ważne międzynarodowe lotniska, takie jak między innymi Bogota, Medellín, Cartagena, Cali i Barranquilla. Peru ma ważne międzynarodowe lotniska, takie jak Lima, Cuzco i Arequipa. Inne ważne lotniska to stolice Urugwaju (Montevideo), Paragwaju (Asunción), Boliwii (La Paz) i Ekwadoru (Quito). 10 najbardziej ruchliwych lotnisk w Ameryce Południowej w 2017 roku to: São Paulo-Guarulhos (Brazylia), Bogota (Kolumbia), São Paulo-Congonhas (Brazylia), Santiago (Chile), Lima (Peru), Brasília (Brazylia), Rio de Janeiro (Brazylia), Buenos Aires-Aeroparque (Argentyna), Buenos Aires-Ezeiza (Argentyna) i Minas Gerais (Brazylia). Brazylia posiada jedne z najbardziej ruchliwych portów morskich w Ameryce Południowej, takie jak Port Santos, Port Rio de Janeiro, Port Paranaguá, Port Itajaí, Port Rio Grande i Port São Francisco do Sul. Argentyna ma porty, takie jak Port of Buenos Aires i Port of Rosario. Chile ma ważne porty w Valparaíso, Calderze, Mejillones, Antofagasta, Iquique, Arica i Puerto Montt. Kolumbia ma ważne porty, takie jak Buenaventura i Puerto Bolivar. Peru ma ważne porty w Callao, Ilo i Matarani. 15 najbardziej ruchliwych portów w Ameryce Południowej to: Port of Santos (Brazylia), Port of Bahia de Cartagena (Kolumbia), Callao (Peru), Guayaquil (Ekwador), Buenos Aires (Argentyna), San Antonio (Chile), Buenaventura (Kolumbia), Itajaí (Brazylia), Valparaíso (Chile), Montevideo (Urugwaj), Paranaguá (Brazylia), Rio Grande (Brazylia), São Francisco do Sul (Brazylia), Manaus (Brazylia) i Coronel (Chile). Brazylijska sieć kolejowa rozciąga się na około 30 000 kilometrów. Jest używana do transportu rud. Argentyńska sieć kolejowa, z 47 000 km torów, była jedną z największych na świecie i nadal jest najbardziej rozbudowana w Ameryce Łacińskiej. Miał około 100 000 km szyn, ale podnoszenie torów i nacisk na transport samochodowy stopniowo go zmniejszały. Ma cztery różne szlaki i międzynarodowe połączenia z Paragwajem, Boliwią, Chile, Brazylią i Urugwajem. Chile ma prawie 7 000 km linii kolejowych z połączeniami z Argentyną, Boliwią i Peru. Kolumbia ma tylko około 3500 km linii kolejowych. Spośród głównych brazylijskich dróg wodnych wyróżniają się dwie: Droga wodna Tietê-Paraná (która ma długość 2400 km, 1600 km na rzece Paraná i 800 km na rzece Tietê, odprowadzająca produkcję rolną ze stanów Mato Grosso, Mato Grosso do Sul, Goiás i część Rondônia, Tocantins i Minas Gerais) i Droga wodna Solimões-Amazonas (składa się z dwóch odcinków: Solimões, rozciągającego się od Tabatinga do Manaus, o długości około 1600 km, i Amazonas, która rozciąga się od Manaus do Belém o długości 1650 km. Prawie cały transport pasażerski z równiny Amazonki odbywa się tą drogą wodną, oprócz praktycznie całego transportu towarowego, który jest kierowany do głównych ośrodków regionalnych Belém i Manaus. Najważniejsze z ekonomicznego punktu widzenia odcinki dróg wodnych znajdują się na południowym wschodzie i południu kraju. Jego pełne wykorzystanie nadal zależy od budowy śluz, poważnych prac pogłębiarskich, a przede wszystkim portów, które umożliwiają intermodalną integrację. W Argentynie sieć dróg wodnych składa się z rzek La Plata, Paraná, Paragwaj i Urugwaj. Główne porty rzeczne to Zárate i Campana. Port w Buenos Aires jest historycznie pierwszym pod względem indywidualnego znaczenia, ale obszar znany jako Up-River, który rozciąga się wzdłuż 67 km części Santa Fe na rzece Paraná, obejmuje 17 portów, które koncentrują 50% całkowitego eksportu państwa. Energia Brazylia Przez dziesięciolecia rząd brazylijski podejmował ambitny program zmniejszenia zależności od importowanej ropy. Wcześniej import stanowił ponad 70% zapotrzebowania kraju na ropę, ale Brazylia stała się samowystarczalna w zakresie ropy w latach 2006–2007. Brazylia była dziesiątym co do wielkości producentem ropy naftowej na świecie w 2019 roku, z 2,8 mln baryłek dziennie. Produkcja zaspokaja zapotrzebowanie kraju. Na początku 2020 roku przy wydobyciu ropy i gazu ziemnego kraj po raz pierwszy przekroczył 4 mln baryłek ekwiwalentu ropy dziennie. W styczniu tego roku wydobywano dziennie 3,168 mln baryłek ropy oraz 138 753 mln m³ gazu ziemnego. W 2019 r. Rio de Janeiro było największym producentem ropy naftowej i gazu ziemnego w Brazylii, wytwarzając 71% całkowitego wolumenu. São Paulo zajmuje drugie miejsce z udziałem 11,5% w całkowitej produkcji. Brazylia jest jednym z czołowych światowych producentów energii hydroelektrycznej. W 2019 roku Brazylia miała czynnych 217 hydroelektrowni o mocy zainstalowanej 98 581 MW, co stanowi 60,16% krajowej produkcji energii. W sumie produkcja energii elektrycznej w Brazylii osiągnęła w 2019 r. 170 000 megawatów mocy zainstalowanej, z czego ponad 75% pochodziło ze źródeł odnawialnych (w większości z hydroelektrowni). W 2013 r. Region Południowo-Wschodni wykorzystywał około 50% obciążenia Krajowego Systemu Zintegrowanego (SIN), będącego głównym regionem zużywającym energię w kraju. Zainstalowana moc wytwórcza energii elektrycznej w regionie wyniosła prawie 42 500 MW, co stanowi około jednej trzeciej mocy wytwórczej Brazylii. Produkcja hydroenergetyczna stanowiła 58% mocy zainstalowanej w regionie, a pozostałe 42% zasadniczo odpowiadało wytwarzaniu energii cieplnej. São Paulo reprezentowało 40% tej zdolności; Minas Gerais o około 25%; Rio de Janeiro – 13,3%; a Espírito Santo reprezentował resztę. Region Południowy jest właścicielem zapory wodnej Itaipu, która przez kilka lat była największą elektrownią wodną na świecie, aż do inauguracji Tamy Trzech Przełomów w Chinach. Pozostaje drugą co do wielkości działającą elektrownią wodną na świecie. Brazylia jest współwłaścicielem zakładu Itaipú wraz z Paragwajem: tama znajduje się na rzece Paraná, położonej na granicy między krajami. Posiada zainstalowaną moc wytwórczą 14 GW dla 20 jednostek wytwórczych o mocy 700 MW każda. Region Północny posiada duże elektrownie wodne, takie jak Zapora Belo Monte i Zapora Tucuruí, które wytwarzają dużą część krajowej energii. Potencjał hydroenergetyczny Brazylii nie został jeszcze w pełni wykorzystany, więc kraj ten nadal ma możliwości budowy kilku elektrowni odnawialnych na swoim terytorium. Potencjał brutto zasobów wiatrowych Brazylii oszacowano w 2019 r. na około 500 GW (tylko na lądzie), czyli tyle energii, aby zaspokoić trzykrotnie obecne zapotrzebowanie państwa. Według ONS, od września 2020 r. całkowita moc zainstalowana wyniosła 16,3 GW, przy średnim współczynniku mocy 58%. Chociaż średni światowy współczynnik zdolności wytwarzania energii wiatrowej wynosi 24,7%, istnieją obszary na północy Brazylii, szczególnie w stanie Bahia, gdzie niektóre farmy wiatrowe rejestrują średni współczynnik mocy wyższy niż 60%; średni współczynnik przepustowości w regionie północno-wschodnim wynosi 45% na wybrzeżu i 49% w głębi terytorium. W 2019 roku energia wiatrowa stanowiła 9% energii wytworzonej w państwie. Według ONS, od września 2020 r. całkowita zainstalowana moc fotowoltaicznej energii słonecznej wynosiła 6,9 GW, przy średnim współczynniku mocy 23%. Niektóre z najbardziej napromieniowanych stanów brazylijskich to MG („Minas Gerais”), BA („Bahia”) i GO (Goiás), które w rzeczywistości mają światowe rekordy pod względem poziomu napromieniowania. W 2019 roku energia słoneczna stanowiła 1,27% energii wytworzonej w państwie. Przypisy Kontynenty
110
https://pl.wikipedia.org/wiki/Antybiotyki
Antybiotyki
Antybiotyki (z , „przeciw” i , „życie”) – naturalne wtórne produkty metabolizmu mikroorganizmów, które działając wybiórczo w niskich stężeniach wpływają na struktury komórkowe lub procesy metaboliczne innych mikroorganizmów, hamując ich wzrost i podziały. Antybiotyki są przedmiotem badań auksanografii, stosuje się je jako środki w leczeniu wszelkiego rodzaju zakażeń bakteryjnych. Bywają także używane profilaktycznie w zapobieganiu zakażeniom bakteryjnym w przypadku osłabienia odporności, na przykład neutropenii, a także w profilaktyce bakteryjnego zapalenia wsierdzia. Pochodzenie słowa Nazwa odwołuje się do zabójczego dla żywych bakterii działania antybiotyków. Naukowcy wiedzieli już w XIX wieku, że niektóre organizmy przeciwdziałają rozwojowi bakterii. Zjawisko to nazwano antybiozą. Historia Odkrycie pierwszego antybiotyku (penicyliny) zostało dokonane w 1928 roku przez Alexandra Fleminga, który zauważył, że przypadkowe zanieczyszczenie podłoża pleśnią powstrzymuje wzrost kultur bakterii z rodzaju . Oprócz pleśni zdolnością wytwarzania antybiotyków wyróżniają się promieniowce i niektóre bakterie. Wkrótce po odkryciu penicyliny pojawiły się następne antybiotyki: naturalne, półsyntetyczne i syntetyczne. Wprowadzenie antybiotyków do lecznictwa było przełomem dającym lekarzom oręż do walki z chorobami zakaźnymi, które do tej pory były przyczyną śmierci i chorób setek milionów osób. Pod względem budowy chemicznej antybiotyki należą do różnych grup związków organicznych. Z tysięcy naturalnie występujących antybiotyków zaledwie kilkadziesiąt mogło być włączonych do leczenia ludzi i zwierząt. Pozostałe nie znajdują zastosowania w medycynie ze względu na toksyczność lub działania niepożądane. Mechanizm działania Działanie antybiotyków polega na powodowaniu śmierci komórki bakteryjnej (działanie bakteriobójcze) lub wpływaniu w taki sposób na jej metabolizm, aby ograniczyć jej możliwości rozmnażania się (działanie bakteriostatyczne). Leczenie chorób zakaźnych polega na zabiciu mikroorganizmów wywołujących chorobę. Trudność terapii, z którą borykali się lekarze przed erą antybiotyków polegała na tym, żeby znaleźć środek jednocześnie zabójczy dla chorobotwórczych bakterii i bezpieczny dla gospodarza. Antybiotyki zazwyczaj zakłócają procesy metaboliczne mikroorganizmów. Podstawą terapii antybiotykami jest zasada selektywnej toksyczności Ehrliha, zgodnie z którą antybiotykiem jest substancja, która w organizmie, w stężeniu nie wykazującym większej toksyczności dla ludzi i zwierząt wyższych, powoduje uszkodzenie lub śmierć mikroorganizmów. Można to osiągnąć przez stosowanie substancji oddziałujących na takie struktury, które są obecne w komórkach mikroorganizmów, a których nie ma w organizmie człowieka lub występują w nim w innej formie. Główne mechanizmy działania antybiotyków to: zakłócanie syntezy ściany komórkowej bakterii, np. penicylina upośledzenie przepuszczalności błony komórkowej bakterii, np. gramicydyna zakłócanie syntezy kwasów nukleinowych: hamowanie biosyntezy folianów niezbędnych do syntezy DNA hamowanie na różnych etapach, np. trimetoprym hamowanie działania topoizomeraz, np. cyprofloksacyna Zakłócanie syntezy białek, np. streptomycyna Osobnym problemem jest szkodliwość dla naturalnej flory bakteryjnej człowieka. Podział (podział ze względu na budowę chemiczną) Antybiotyki β-laktamy: penicyliny: penicyliny naturalne – penicylina benzylowa penicyliny „przeciwgronkowcowe” – oksacylina, nafcylina, metycylina aminopenicyliny – ampicylina, amoksycylina karboksypenicyliny – tykarcylina ureidopenicyliny – azlocylina piperazylopenicyliny – piperacylina amidynopenicyliny – mecylinam temocylina cefalosporyny (podział stanowiący połączenie tradycyjnych podziałów na 4–5 generacji lub 4 grupy): cefalosporyny grupy 0 – cefradyna, cefprozyl cefalosporyny grupy 1 – cefazolina cefalosporyny II generacji – cefuroksym, cefamandol, cefaklor cefalosporyny III generacji nieaktywne wobec – cefotaksym, ceftriakson cefalosporyny III generacji aktywne wobec – ceftazydym, cefoperazon cefalosporyny IV generacji – cefepim, ceftan cefalosporyny V generacji aktywne wobec – ceftobiprol cefalosporyny V generacji nieaktywne wobec – ceftarolina cefamycyny – cefoksytyna monobaktamy – aztreonam karbapenemy: karbapenemy grupy I – ertapenem karbapenemy grupy II – imipenem, meropenem, doripenem karbapenemy grupy III – tomopenem trinemy – sanfetrinem penemy – faropenem inhibitory β-laktamaz – same w sobie przeważnie nie mają aktywności bakteriobójczej, stosuje się je w połączeniu z innymi antybiotykami np. cefoperazon z sulbaktamem, amoksycylina z kwasem klawulanowym, piperacylina z tazobaktamem antybiotyki peptydowe polipeptydy: polimyksyny – kolistyna gramicydyny bacytracyna fusafungina streptograminy – chinuprystyna-dalfoprystyna glikopeptydy: I generacji – wankomycyna, teikoplanina II generacji – orytawancyna lipopeptydy – daptomycyna glikolipopeptydy – dalbawancyna, telawancyna glikolipodepsypeptydy – ramoplanina aminoglikozydy: aminoglikozydy streptydynowe – streptomycyna aminoglikozydy deoksystreptaminowe – gentamycyna, amikacyna, tobramycyna, netylmycyna aminocyklitole – spektynomycyna tetracykliny: tetracykliny właściwe – doksycyklina glicylocykliny – tygecyklina makrolidy: 14-węglowe – erytromycyna, klarytromycyna 15-węglowe – azytromycyna 16-węglowe – spiramycyna ketolidy – telitromycyna 18-węglowe (tiakumycyny) – difimycyna linkozamidy – klindamycyna, linkomycyna amfenikole – chloramfenikol ryfamycyny – ryfampicyna, ryfaksymina pleuromutyliny – retapamulina mupirocyna kwas fusydynowy Leki przeciwprątkowe (leczenie zakażeń wywołanych przez prątki – np. gruźlicy): leki 1. rzutu – izoniazyd, ryfampicyna, pirazynamid, etambutol, streptomycyna leki 2. rzutu – etionamid, klofazymina, kanamycyna, kapreomycyna, amikacyna, tobramycyna, wiomycyna, kwas p-aminosalicylowy, cykloseryna, ofloksacyna, cyprofloksacyna, lewofloksacyna, moksyfloksacyna, klarytromycyna, azytromycyna, imipenem, cefoksytyna, doksycyklina, minocyklina, kotrimoksazol, tioacetazon, linezolid, ryfabutyna, ryfapentyna leki do leczenia trądu – dapson, acedapson, talidomid (tylko mężczyźni); w leczeniu trądu stosuje się także ryfampicynę i klofazyminę Leki przeciwgrzybicze: antybiotyki polienowe – amfoterycyna B, nystatyna, natamycyna antybiotyki niepolienowe – gryzeofulwina leki azolowe: leki imidazolowe – ketokonazol leki triazolowe: I generacji – flukonazol, itrakonazol II generacji – worykonazol, rawukonazol, posakonazol (lek o najszerszym spektrum działania) echinokandyny – kaspofungina, anidulafungina, mikafungina allyloaminy – terbinafina 5-fluorocytozyna amorolfina cyklopiroks tolnaftat jodek potasu Antybiotyki można podzielić również według innych kryteriów, mających większe znaczenie ze względu na zastosowanie antybiotyków w terapii. Leki te różnią się między innymi: Wchłanianiem po podaniu doustnym. Antybiotyki wchłaniają się z jelit w różnym stopniu. Powoduje to konieczność podawania niektórych antybiotyków dożylnie lub domięśniowo. Antybiotyki dobrze wchłaniające się z przewodu pokarmowego: makrolidy, chloramfenikol, tetracykliny Antybiotyki słabo wchłaniające się z przewodu pokarmowego: ampicylina, gryzeofulwina, linkomycyna Antybiotyki nie wchłaniające się z przewodu pokarmowego (konieczne jest podawanie pozajelitowe): cefalosporyny IV generacji, większość aminoglikozydów, polimyksyny, monobaktamy, karbapenemy Łatwością przenikania do tkanek. Niektóre antybiotyki po wchłonięciu do układu krążenia pozostają w łożysku naczyniowym i słabo przenikają do tkanek organizmu. Ogranicza to możliwość ich stosowania w niektórych zakażeniach – np. jeśli zakażeniu ulegną płuca, antybiotyk o niskiej zdolności penetrowania tkanek nie będzie skutecznie niszczył mikroorganizmy, gdyż jego stężenie w miejscu działania będzie zbyt małe. Czynnikami decydującymi o zdolności przenikania do tkanek są: lipofilowość cząsteczki antybiotyku, stopień wiązania z białkami krwi, pH w miejscu docelowym i wiele innych. Ze względu na łatwość przenikania do tkanek antybiotyki można podzielić na: dobrze przenikające: tetracykliny, chloramfenikol, makrolidy słabo lub średnio przenikające: polimyksyny, gentamycyna, streptomycyna Drogą wydalania. Większość antybiotyków jest wydalana przez nerki z moczem. Tylko niektóre są wydalane z żółcią. Ma to znaczenie terapeutyczne, gdyż dobierając antybiotyk trzeba uwzględnić współistniejące choroby pacjenta, takie jak niewydolność nerek – w takim przypadku antybiotyki eliminowane droga nerkową mogą się kumulować w organizmie i powodować dodatkowe działania niepożądane. Antybiotyki wydalane z moczem: gentamycyna, wankomycyna, wiomycyna, chloramfenikol Antybiotyki wydalane z żółcią: ryfampicyna, makrolidy Działania niepożądane Antybiotyki są lekami względnie mało toksycznymi, ich właściwości toksyczne są znacznie większe w stosunku do mikroorganizmu niż do organizmu gospodarza. Niemniej, niektóre antybiotyki mogą wywoływać działania niepożądane. Wyróżniamy trzy główne grupy niepożądanych działań antybiotyków: Bezpośrednie działanie toksyczne jest charakterystyczne dla danej grupy antybiotyków lub konkretnego leku. Do najważniejszych działań toksycznych należą: działanie nefrotoksyczne (na nerki) – wywołują je między innymi polimyksyny, aminoglikozydy działanie hepatotoksyczne (na wątrobę) – wywołują je między innymi tetracykliny, nowobiocyna działanie ototoksyczne (niszczą struktury ucha wewnętrznego) – wywołują je między innymi aminoglikozydy działanie toksyczne na szpik kostny – wywołują je między innymi chloramfenikol, nowobiocyna Reakcje uczuleniowe. Wiele antybiotyków wywołuje reakcje uczuleniowe. Ich siła i natężenie mogą być różne, od wysypek skórnych, przez obrzęki i gorączkę aż do wstrząsu anafilaktycznego (uczuleniowego) mogącego prowadzić nawet do śmierci. Najbardziej niebezpieczne są pod tym względem powszechnie stosowane penicyliny, dlatego przed ich podaniem powinno się wykonać test uczuleniowy. Dysbakteriozy i ich następstwa. Działaniem niepożądanym antybiotyków, zwłaszcza podawanych doustnie, jest możliwość zmniejszenia lub znacznego wytrzebienia naturalnej flory bakteryjnej człowieka. Konsekwencjami tego zjawiska mogą być zaburzenia trawienia i przyswajania składników odżywczych i następujące po tym niedobory (głównie witamin) oraz możliwość nadkażeń. Do nadkażeń może dochodzić w wyniku zajęcia przez obce, szkodliwe mikroorganizmy miejsca, w którym zazwyczaj żyją bakterie stanowiące naturalną, korzystną florę bakteryjną. Najczęściej są to zakażenia opornymi na antybiotyki gronkowcami lub pałeczkami lub zakażenia grzybicze. Tego typu nadkażenia mogą być bardzo niebezpieczne i prowadzić nawet do śmierci pacjenta. Oporność na antybiotyki Oporność na antybiotyki jest cechą pewnych szczepów bakteryjnych, która umożliwia im przetrwanie w obecności antybiotyku. W zależności od pochodzenia, dzieli się ją na pierwotną (naturalna struktura bakterii uniemożliwiająca działanie leku) lub nabytą – na skutek nabycia genów oporności od innych bakterii lub spontanicznych mutacji. Częsta oporność wśród bakterii wiąże się z nieracjonalną antybiotykoterapią oraz zbyt dużym zużyciem tych leków w przemyśle spożywczym. W wielu krajach (np. USA) legalne jest też stosowanie niewielkich dawek antybiotyków podczas hodowli dla podniesienia masy trzody chlewnej. Dawki te są zbyt małe, aby zabić wszystkie bakterie, świetnie więc stymulują wyrobienie przez bakterie antybiotykooporności. Wytwarzanie antybiotyków Naturalne antybiotyki są produkowane przez niektóre gatunki grzybów, szczególnie pleśni , oraz przez niektóre bakterie, np. z rzędu promieniowców. Syntetyzowane w ich organizmach antybiotyki nie są szkodliwe dla nich samych dzięki licznym mechanizmom obronnym. Zdolność do wytwarzania antybiotyków jest ewolucyjnym przystosowaniem organizmów do życia w środowisku naturalnym. Daje posiadającym ją mikroorganizmom przewagę nad innymi, utrudniając wrażliwym szczepom wzrost i tym samym uniemożliwia im konkurowanie w walce o dostęp do pożywienia. Produkcja przemysłowa Przemysł medyczny koncentruje się na wytwarzaniu antybiotyków półsyntetycznych: skuteczniejszych – silniejszych w działaniu i wykazujących szerszy zakres działania trwalszych chemicznie odporniejszych na β-laktamazy tańszych w produkcji Niektóre antybiotyki uzyskuje się na skalę przemysłową metodami syntezy chemicznej. Wiele z nich jest produkowanych metodami biotechnologicznymi w wielkich fermentorach (bioreaktorach) o pojemności ok. 50 do 300 m³. W bioreaktorach przeprowadza się reakcje biosyntezy antybiotyków naturalnych przez odpowiednie mikroorganizmy oraz reakcje biotransformacji. Biotransformacja (w syntezie antybiotyków) polega na przekształceniu jednych związków chemicznych (substratów) w inne (produkty) za pomocą enzymów formie czystej, mikroorganizmów lub komórek organizmów wyższych. Produkt, jaki możemy otrzymać z danego substratu, zależy od wielu czynników. Najważniejsze z nich to: rasa mikroorganizmu pH stężenie substratu użyte do hodowli składniki odżywcze i inne warunki hodowli użyte dodatkowe substancje, np. inhibitory enzymów Zobacz też probiotyki chemioterapeutyki choroby bakteryjne zależność bakterii od antybiotyku Przypisy Linki zewnętrzne Narodowy Program Ochrony Antybiotyków – strategia walki z antybiotykoopornością w Polsce
112
https://pl.wikipedia.org/wiki/Alergen
Alergen
Alergen – każdy antygen zewnątrzpochodny wywołujący reakcję alergiczną (uczuleniową, zależną od przeciwciał IgE lub niezależną od nich). Alergeny nie posiadają wspólnej budowy chemicznej i strukturalnej. Mogą to być substancje pochodzenia roślinnego i zwierzęcego, a także różne proste związki chemiczne o charakterze haptenów, na przykład leki. Większość alergenów jest białkami lub glikoproteinami o masie cząsteczkowej od 10 kDa do 40 kDa (znane są również alergeny o masie mniejszej tj. 3 kDa. i większej do 100 kDa). Wielkość cząsteczek alergenu determinuje jego immunogenność i zdolność do przenikania przez błonę śluzową. Typologia Alergeny dzielimy na: wziewne (aeroalergeny, inhalacyjne) – są to alergeny występujące w powietrzu, które dostają się do organizmu drogą wziewną. Należą do nich czynniki o właściwościach alergogennych występujące w pomieszczeniach zamkniętych (tj. kurz, czyli wszystko to co wchodzi w jego skład: szczątki roślin, roztocze, szczątki zwierząt, karaluchów, grzybów pleśniowych – potoczne pleśni) oraz alergeny występujące w środowisku zewnętrznym (tj. ziarnka pyłków roślin, zarodniki grzybów pleśniowych); pokarmowe - czyli substancje o budowie białkowej zawarte w pokarmach roślinnych lub zwierzęcych, które dostają się do naszego organizmu razem z pokarmem, np. owoalbumina (albumina jaja kurzego) i po spożyciu wywołują niepożądane reakcje kliniczne. Około 220-250 milionów ludzi na całym świecie może mieć alergię pokarmową; kontaktowe - wywołujące reakcję alergiczną po bezpośrednim zetknięciu ze skórą osoby uczulonej. Do tej grupy alergenów należą na przykład lateks, niektóre metale (nikiel, chrom), a także substancje zapachowe, dodatki do gumy, formaldehyd, parafenylenodiamina, konserwanty kosmetyków, środki odkażające, tworzywa sztuczne. leki, szczególnie antybiotyki beta-laktamowe (penicyliny, cefalosporyny, sulfonamidy), kwas acetylosalicylowy i inne niesteroidowe leki przeciwzapalne oraz kuraropochodne leki stosowane w anestezji. Niepożądane reakcje lekowe występują u prawie 1/10 światowej populacji i u prawie 20% wszystkich chorych hospitalizowanych. Ponad 10% skutków ubocznych stanowią nieprzewidywalne reakcje nadwrażliwości. Ze względu na okres ekspozycji alergeny dzieli się na: sezonowe (pyłek roślin, grzyby pleśniowe) całoroczne (roztocze kurzu domowego, alergeny zwierząt domowych). Nomenklatura Alergeny nie wykazują szczególnych podobieństw, nie można więc określić, czy dana substancja może być alergenem, czy nie. Stosuje się natomiast ujednolicone nazewnictwo alergenów – opracowane przez Podkomitet Nazewnictwa Alergenów Międzynarodowej Unii Towarzystw Immunologicznych – składające się z trzech członów: skrót nazwy rodzajowej organizmu, z którego pochodzi alergen (pierwsze trzy litery nazwy rodzajowej) skrót nazwy gatunkowej tego organizmu (pierwsza litera nazwy gatunkowej) liczba arabska oznaczająca konkretny antygen danego organizmu (zwykle według kolejności odkrycia danego alergenu). W przypadku istnienia kilku izoform alergenu do liczby dodaje się kolejne małe litery alfabetu łacińskiego (przykład: Der p 1 oznacza antygen nr 1 wyizolowany z Dermatophagoides pteronyssinus). Zwykle antygeny najsilniej uczulające są oznaczone cyfrą 1 i noszą nazwę alergenów głównych, czyli takich, które uczulają ponad 50% pacjentów danej grupy. Der p 1 jest antygenem głównym, gdyż u ponad 50% pacjentów uczulonych na kurz stwierdza się także uczulenie na ten właśnie alergen. Alergeny uczulające mniej niż 50% osób w danej grupie są nazywane alergenami słabymi (lub alergenami mniejszymi). Najczęściej uczulające alergeny Najczęściej spotykane alergeny to: dym papierosowy i smog. W skład smogu miejskiego wchodzi kurz o silnym potencjale alergizującym, podejrzewa się także udział węglowodorów aromatycznych, obecnych także w dymie papierosowym i odpowiedzialnych za jego właściwości alergogenne. roztocze – szczególnie alergogenne są gatunki z rodzajów Dermatophagoides oraz Euroglyphus. Alergeny pochodzące z roztoczy to enzymy jelitowe obecne w ich odchodach (grupa 1 alergenów roztoczy) oraz białka tkanek (grupa 2 alergenów roztoczy). kurz – jego potencjał alergizujący jest często związany z istnieniem w nim roztoczy, ich odchodów lub fragmentów tkanek. Gatunkiem odpowiedzialnym zwykle za alergiczne właściwości kurzu jest Dermatophagoides pteronyssinus. pyłki roślin wywołujące alergię szczególnie często i występujące w polskim klimacie w okresie od marca do października, głównie pyłki drzew wiatropylnych (np. brzozy, olchy, wierzby, topoli, dębu), traw i zbóż (rośliny uprawne z rodziny traw) oraz chwastów (bylicy, komosy, pokrzywy zwyczajnej, babki lancetowatej). W Polsce zdecydowanie częściej uczulają trawy i chwasty niż pyłki drzew, co związane jest z powszechnością tego typu roślinności i dłuższym okresem pylenia. sierść zwierzęca – najsilniejsze właściwości uczulające wykazują alergeny kota (ponad 50% uczulonych na alergeny zwierzęce). W dalszej kolejności wymienia się alergeny psa, świnki morskiej, myszy i królika – wszystkie zawarte są tak w sierści i złuszczonym naskórku, jak i w wydzielinach (ślina) i wydalinach (mocz i kał) tych zwierząt. jad owadów błonkoskrzydłych – powoduje reakcje miejscowe, to znaczy dotyczące tkanek skórnych (duża reakcja miejscowa w okolicy użądlenia, czyli o średnicy większej niż 10 cm i trwająca dłużej niż 24 godziny), oraz ustrojowe. Łagodne reakcje ustrojowe mogą ograniczać się jedynie do skóry (jako nagły rumień twarzy, pokrzywka, obrzęk naczynioruchowy). Cięższe reakcje ogólnoustrojowe mogą wywoływać skurcz oskrzeli, obrzęk krtani i obniżenie ciśnienia tętniczego (anafilaksja), co bezpośrednio grozi śmiercią. Reakcje śmiertelne występują u prawie 50% osób, u których nie udokumentowano wcześniejszej reakcji układowej; alergeny pokarmowe – przede wszystkim: alergeny mleka krowiego, jaja, ryb i skorupiaków, soi i pszenicy, orzechów, a szczególnie orzeszków ziemnych grzyby mikroskopijne – grzyby z rodzaju Alternaria i Cladosporium, a w dalszej kolejności Penicillium i Aspergillus są najważniejszym źródłem alergenów pleśniowych. Najczęstszą przyczyną uczuleń są alergeny gatunku Alternaria alternata, chociaż u większości chorych współistnieje nadwrażliwość na alergeny kilku gatunków grzybów. Zazwyczaj obserwuje się występowanie objawów przez cały rok z wyraźnym nasileniem w okresie letnim i jesiennym. Związane jest to z cyklem występowania zarodników grzybów w powietrzu. pasożyty, na przykład owsik. Alergeny reagujące krzyżowo Fragmentami budowy antygenów są epitopy, czyli determinanty antygenowe łączące się bezpośrednio z przeciwciałem. Alergeny mają charakter wieloważny. Oznacza to, że jeden alergen posiada wiele (od kilku do kilkudziesięciu) epitopów rozpoznawanych przez układ immunologiczny. O reaktywności krzyżowej mówimy, gdy jedno przeciwciało (lub receptor komórki T) reaguje z dwoma alergenami. Dzieje się tak, gdy dane antygeny posiadają epitopy identyczne lub o bardzo zbliżonej budowie. Wówczas przeciwciała swoiste IgE nie rozpoznają różnic pomiędzy nimi. Do reakcji krzyżowej dochodzi, gdy alergen inny, niż ten, który wywołał uczulenie, powoduje reakcję alergiczną. Za taką reaktywność krzyżową odpowiedzialna jest sekwencja aminokwasów i homologia sekwencji białek antygenów. Wystąpienie reakcji krzyżowej uznawane jest za wysoce prawdopodobne, gdy homologia sekwencji białek sięga 70%. Przy homologii nieprzekraczającej 50% reakcja krzyżowa uważana jest za rzadką. Homologia białek może dotyczyć zarówno gatunkowo spokrewnionych alergenów (między pyłkami różnych roślin czy rodzajami roztoczy), jak i niespokrewnionych (na linii rośliny – warzywa/ owoce). Najczęściej obserwuje się przypadki: cierpiących na alergie na pyłek brzozy (olchy/leszczyny) z jednoczesnym uczuleniem na jabłka, morele, wiśnie, czereśnie, seler, marchew i pietruszkę osób uczulonych na trawy z towarzyszącym uczuleniem na melony, arbuzy, pomidory, soję i pomarańcze pacjentów z uczuleniem na bylicę z równoległym uczuleniem na banany i arbuzy chorych uczulonych na lateks z objawami alergii po spożyciu bananów, fig, awokado i kiwi osób uczulonych na sierść kota reagujących również na wieprzowinę alergików nadwrażliwych na trawy z jednoczesnym uczuleniem na pomidory, melona, pietruszkę, soję, imbir, tymianek i orzeszki ziemne. Rola alergenów w reakcji alergicznej Alergeny powodują swoistą nadwrażliwość organizmu (alergię) u osób o osobniczej predyspozycji do alergii – tzw. skaza atopowa. Posiadają zdolność pobudzania organizmu do produkcji swoistych przeciwciał IgE lub komórek swoiście reagujących na określony alergen. W przypadku pierwszego kontaktu osoby z uczulającym czynnikiem (poprzez połknięcie czy wdychanie) alergen zostaje rozpoznany przez makrofagi – komórki licznie występujące w skórze i błonach śluzowych, będące podstawą obrony immunologicznej organizmu. Informacja o zetknięciu się z alergenem zostaje przekazana limfocytom B, które po przekształceniu się w plazmocyty wytwarzają immunoglobuliny typu E (IgE) – ostatecznie odpowiedzialne za reakcję alergiczną. Przeciwciała IgE są specyficzne dla danego alergenu i występują wyłącznie u osobników uczulonych na daną substancję. W wyniku powtórnego kontaktu z danym antygenem przeciwciała IgE wiążą się z mastocytami w skórze i błonach śluzowych, a następnie przechwytują alergen. Przyłączenie alergenu do wytworzonych w organizmie przeciwciał powoduje degranulację (uwolnienie małych granulek zawierających substancje chemiczne – głównie histaminę – odpowiedzialne za rozwój stanu zapalnego) mastocytów i bazofili (leukocytów). Tą drogą dochodzi do rozwoju odpowiedzi zapalnej na kontakt z alergenem. Może ona przybierać różne formy – w zależności od zajętego narządu (np. nos – katar sienny, oko – alergiczne zapalenie spojówek, skóra – pokrzywka). Uczulenie na poszczególne alergeny wykrywają testy skórne (testy punktowe, testy śródskórne, testy płatkowe), badania na obecność swoistych przeciwciał (testy RAST, RIA, FEIA), oraz prowokacje alergenowe. Choroby alergiczne wywoływane przez alergeny Reakcja zapalna na kontakt z alergenem może przybrać różne postacie kliniczne, między innymi: alergiczny nieżyt nosa – zespół objawów (wyciek wodnistej wydzieliny, świąd, upośledzenie drożności nosa, kichanie, zaburzenia węchu) wywołanych przez alergiczny proces zapalny toczący się w błonie śluzowej nosa głównie jako rekcja na kontakt z alergenami wziewnymi – całorocznymi i/lub sezonowymi alergiczne zapalenie spojówek – wielopostaciowe schorzenie rozwijające się na podłożu reakcji alergicznej w obrębie spojówki oka – niekiedy także skóry powiek, a w najgroźniejszej postaci rogówki – dające głównie objawy przekrwienia i obrzęku spojówek, łzawienia i świądu będące efektem przedostania się alergenu (np. pyłek roślinny, lek, roztocze) do worka spojówkowego astma oskrzelowa – przewlekła choroba zapalna dróg oddechowych, gdzie proces zapalny toczy się w obrębie błony śluzowej drzewa oskrzelowego i jest przyczyną nadreaktywności oskrzeli, co skutkuje powstaniem świszczącego oddechu, duszności i kaszlu. Do jej rozwoju przyczyniają się alergeny pyłków roślin, kurzu domowego, pleśni, odzwierzęce, a także zanieczyszczenia i dym papierosowy obecne w powietrzu. pokrzywka i obrzęk naczynioruchowy – zaburzenia w mikrokrążeniu skóry polegające na rozszerzeniu naczyń i zwiększeniu ich przepustowości z wtórnym pojawieniem się agregatów białkowych w skórze właściwej, obrzękiem włókien kolagenowych i rozszerzeniem naczyń brodawek skórnych (w przypadku przenikania przekaźników do powierzchniowych warstw skóry powstaje bąbel pokrzywkowy, a do tkanki podskórnej i skóry właściwej – obrzęk naczynioruchowy). Mogą wywołać je alergeny pokarmowe i dodatki do żywności, leki, alergeny kontaktowe (np. sierść kota) i pyłki roślin (a zwłaszcza przypominające je alergeny zjadanych owoców czy warzyw – zespół alergii jamy ustnej); atopowe zapalenie skóry – najczęstsza choroba zapalna skóry o zróżnicowanym spektrum klinicznym, zwykle rozpoznawana we wczesnym dzieciństwie, której towarzyszą zaburzenia funkcjonowania układu immunologicznego oraz zmiany w fizjologii i budowie skóry. W patogenezie AZS główną rolę odgrywają alergeny pokarmowe, ale też alergeny powietrznopochodne (roślinne, odzwierzęce, kurzu i pleśni, pochodzenia grzybiczego i bakteryjnego). alergiczny wyprysk kontaktowy – zmiany skórne powstałe w wyniku reakcji alergicznej typu komórkowego, w których wykwitem pierwotnym jest grudka wysiękowa i pęcherzyk, przebiegające ze świądem i ulokowane na skórze najczęściej stykającej się z alergenem (np. lekiem, gumą czy niklem) wstrząs anafilaktyczny – ciężka, zagrażająca życiu, ogólna reakcja nadwrażliwości na alergen (np. leki, lateks, pokarm, jad owadów), która manifestuje się: ze strony skóry: pokrzywką i obrzękiem naczynioruchowym ze strony układu oddechowego: dusznościami i świstami wdechowymi (tzw. stridor) ze strony układu krążenia: spadkiem ciśnienia krwi i przyspieszeniem czynności serca ze strony układu pokarmowego: kurczowymi bólami brzucha i wymiotami ze strony układu nerwowego: zasłabnięciem i utratą przytomności. Objawy anafilaksji pojawiają się w ciągu kilku minut po kontakcie z antygenem. Może dojść do ich nawrotu po 4–12 godzinach. Profilaktyka antyalergenowa i leczenie Pierwsze obowiązujące w Europie zalecenia natury prewencyjnej odnoszą się do dzieci wysokiego ryzyka niemających jeszcze objawów alergii i polegają na: karmieniu piersią eliminowaniu z diety silnych alergenów pokarmowych, a zwłaszcza mleka krowiego i białka jaj eliminowaniu ze środowiska domowego alergenów roztoczy i naskórka zwierząt eliminowaniu ze środowiska domowego dymu tytoniowego. Dwa ostatnie zalecenia obowiązują bezwzględnie w wieku późniejszym – u dzieci starszych i osób dorosłych. Największe znaczenie praktyczne ma eliminacja z diety pokarmów uczulających – skuteczna u dzieci i u ok. 20% dorosłych atopików. Natomiast korzyści płynące z eliminacji alergenów domowych są dyskusyjne. Dzieje się tak dlatego, że kurz domowy jest bogaty nie tylko w roztocza, ale i w inne alergeny (zarodniki pleśni, pióra, naskórek zwierząt, karaluchy) oraz spotyka się go nie tylko w domach, lecz także w pomieszczeniach biurowych, szkołach, salach zabaw itd. W terapii chorób alergicznych wywołanych aktywnością alergenów kluczową rolę odgrywają: leczenie przyczynowe – immunoterapia swoista stosowana w chorobach atopowych w razie niemożności eliminacji alergenu. Wówczas podejmuje się próbę uzyskania niewrażliwości na czynnik uczulający na drodze tzw. odczulania swoistego. Polega ono na kontrolowanym podawaniu pacjentowi stopniowo zwiększanych dawek alergenu aż do momentu, gdy organizm chorego przestaje na niego reagować. leczenie objawowe – stosowane powszechnie i z dużą doraźną skutecznością, zwłaszcza wśród pacjentów uczulonych na alergeny wziewne. Lekami pierwszego rzutu w terapii alergii są leki przeciwhistaminowe drugiej generacji, jak bilastyna, desloratadyna czy lewocetyryzyna. W odróżnieniu od leków przeciwhistaminowych I generacji, preparaty nie oddziałują na ośrodkowy układ nerwowy i nie wpływają na sprawność psychomotoryczną pacjentów. Wynika to z faktu, że cechuje je wyższe powinowactwo do receptora histaminowego H1 (bilastyna podawana pacjentom z alergicznym nieżytom nosa, alergicznym zapaleniem spojówek i pokrzywką ma pięciokrotnie większe powinowactwo do HR1 niż feksofenadyna i trzykrotnie większe niż cetyryzyna). Natomiast w przypadku astmy oskrzelowej można monitorować jej ewolucje, podając systematycznie kromoglikan i nedokromil sodowy, preparaty teofiliny o przedłużonym działaniu, antagonisty leukotrienów oraz krótko i długo działające sympatykomimetyki lub aerozole steroidowe. Przypisy Bibliografia Immunologia Alergologia
113
https://pl.wikipedia.org/wiki/Alergia
Alergia
Alergia (popularnie stosowane synonimy: uczulenie, nadwrażliwość) – patologiczna, jakościowo zmieniona odpowiedź tkanek na oddziaływanie różnych obcych substancji, zwanych alergenami, polegająca na reakcji immunologicznej związanej z powstaniem swoistych przeciwciał, które po związaniu z antygenem doprowadzają do uwolnienia różnych substancji – mediatorów stanu zapalnego. Czynnik środowiskowy wywołujący alergię sam w sobie zazwyczaj nie jest dla organizmu szkodliwy. W reakcjach alergicznych uczestniczy układ immunologiczny, jego komórki, na przykład limfocyty (zwłaszcza z podgrupy Th2), granulocyty kwasochłonne (eozynofile) oraz komórki tuczne (mastocyty). Istotną rolę w alergicznych odczynach odgrywają przeciwciała – immunoglobuliny klasy E (IgE). Alergia może objawiać się łagodnie, jak w przypadku kataru czy łzawienia, aż po zagrażający życiu wstrząs anafilaktyczny i śmierć. Termin alergia został użyty pierwotnie przez Clemensa Petera von Pirqueta, wiedeńskiego pediatrę i naukowca w 1906 roku. Oznacza on dosłownie odmienną reakcję (gr. allos – inny + ergos – reakcja). Definicja von Pirqueta obejmowała jednak pojęcia odporności i alergii. Zgodnie ze współczesnym stanem wiedzy, alergia pojmowana jest jako nieprawidłowy przejaw odporności, charakteryzujący się uszkodzeniem własnych tkanek w wyniku typowej odpowiedzi odpornościowej. Początkowo uważano, że za wszelkie reakcje nadwrażliwości odpowiedzialne jest nieprawidłowe wytwarzanie przeciwciał klasy IgE. Dopiero dalsze badania prowadzone wspólnie przez Robina Coombsa i Philipa Gella w latach 60. XX wieku, doprowadziły do odkrycia czterech (obecnie pięciu) odmiennych typów reakcji nadwrażliwości. W związku z powyższym termin nadwrażliwość jest pojęciem szerszym i nie jest synonimem alergii sensu stricto. Inne typy nadwrażliwości W szerszym znaczeniu pojęcie alergia odnoszone jest często do innych chorób o podobnej, z pozoru, etiologii i obrazie. Przykładem tego jest wyprysk kontaktowy alergiczny nazywany inaczej alergicznym kontaktowym zapaleniem skóry. Odmiennie niż w przypadku atopowego zapalenia skóry, choroba ta związana jest z IV typem reakcji według Coombsa, a główną rolę w jej powstawaniu odgrywa reakcja typu komórkowego (limfocyty T wydzielają cytokiny aktywujące inne komórki, jak makrofagi, limfocyty Tc, bazofile). Obraz kliniczny choroby stanowią skórne powierzchowne zmiany zapalne. Powstają one na skutek zetknięcia z alergenem, z którym osoba miała wcześniej kontakt. Alergiczne podłoże tych reakcji udaje się wykazać w około 50% przypadków. U części osób rozpoznaje się tzw. wyprysk zawodowy – związany z uczuleniem na szkodliwe substancje występujące w pracy. W inny sposób działają substancje drażniące – bezpośrednio uszkadzają skórę. Ten typ wyprysku nazywamy wypryskiem kontaktowym z podrażnienia (nie jest to prawdziwe uczulenie i takie zmiany mogą się pojawić u wszystkich osób, które mają kontakt np. z silnymi substancjami używanymi w środkach czystości, farbami, lakierami, smarami, cementem). Przebieg alergicznego wyprysku kontaktowego jest dwuetapowy, a rozwinięcie choroby poprzedza faza indukcji. W jej przebiegu dochodzi do przenikania haptenów przez skórę, które łącząc się z białkami, nabywają cech antygenów. Dochodzi do ich prezentacji przez komórki Langerhansa limfocytom pomocniczym, głównie Th1. W wyniku stymulacji cytokinowej następuje ich swoiste uczulenie. W drugiej fazie reakcji, na skutek ponownego kontaktu z antygenem, dochodzi do powstania odczynu o charakterze wyprysku. Biorą w nim udział komórki Langerhansa oraz uczulone uprzednio limfocyty Th1. Najczęstszymi czynnikami wywołującymi kontaktowe alergiczne zapalenie skóry są: chrom, nikiel, kobalt, formaldehyd, terpentyna oraz składniki (zapałek, farb, barwników, cementu, betonu, gumy, kosmetyków i tworzyw sztucznych). Prawdopodobieństwo rozwoju uczulenia zależy od tego, jak często i jak długo skóra styka się z daną substancją. Właśnie z tego powodu częściej występują reakcje alergiczne na substancje, które pozostają dłużej na skórze, takie jak balsamy do ciała, kremy do pielęgnacji twarzy, kosmetyki do makijażu (cienie do powiek, tusz do rzęs) czy perfumy. Natomiast uczulenie na szampony, które są szybko spłukiwane, należy do rzadkości. Mechanizm powstawania nadwrażliwości typu I Historia W 1921 roku Carl Prausnitz i Heinz Küstner przeprowadzili doświadczenie polegające na podskórnym podaniu Prausnitzowi surowicy uczulonego na ryby Küstnera, a następnie wstrzyknięciu w to miejsce antygenu ryby. Zaczerwienienie i obrzęk skóry, jakie wystąpiły, zasugerowało badaczom istnienie hipotetycznych substancji wywołujących uczulenie. Nazwali je reagenami (lub inaczej reaginami). W 1966 roku Kimishige Ishizaka zidentyfikował je jako przeciwciała typu IgE. Obecnie wiemy, że reakcję, która pojawiła się na skórze Prausnitza, wywołało połączenie się fragmentu Fc przeciwciał IgE obecnych w surowicy uczulonego Küstnera z receptorami FcεRI zlokalizowanymi na powierzchni komórek tucznych występujących w skórze, co doprowadziło do ich degranulacji i uwolnienia mediatorów reakcji zapalnej (głównie histaminy, leukotrienów oraz cytokin). Test ten, nazwany na cześć badaczy reakcją Prausnitza-Küstnera, stosowany był do lat 70. XX wieku, w celu stwierdzenia obecności w surowicy pacjenta swoistych przeciwciał klasy IgE. Ze względu na niebezpieczeństwo wystąpienia gwałtownej reakcji anafilaktycznej prowadzącej do wstrząsu, test ten obecnie nie jest stosowany. Postęp nauki umożliwił wdrożenie znacznie czulszych i swoistych metod wykrywania przeciwciał. Popularnymi metodami są: RAST (ang. radio-allergosorbent test – test radioalergosorpcji) lub FAST (ang. fluoresceine allergosorbent test – test z użyciem przeciwciał znakowanych fluoresceiną). Wytwarzanie IgE W reakcjach alergicznych obserwuje się nadprodukcję IgE – immunoglobulin klasy E wytwarzanych przez białe krwinki, stanowiących jeden z pięciu rodzajów przeciwciał, obok G, A, D i M. W warunkach prawidłowych IgE zwalczają głównie pasożyty pokarmowe, a zatem układ odpornościowy omyłkowo traktuje alergeny jako zagrożenie atakiem pasożytniczym. Układ immunologiczny wytwarza i utrzymuje w gotowości odpowiednią ilość przeciwciał IgE, które w wypadku ekspozycji na alergen natychmiast go rozpoznają i aktywują komórki tuczne – mobilizujące cały układ odpornościowy do zwalczania pozornego zagrożenia. Zagadką była obserwacja, iż u jednych osób kontakt z konkretnym antygenem doprowadzał do odpowiedzi typu I, podczas gdy u innych antygen ten jej nie wywoływał. Biolodzy zastanawiali się również nad ewolucyjnym sensem takich reakcji, których efekty wydają się znacznie bardziej szkodliwe i niosą większe ryzyko niż ewentualne korzyści. Wrodzony nadmiar przeciwciał IgE – powodowany zaburzeniami w regulacji układu odpornościowego lub zwiększoną przepuszczalnością błon śluzowych w drogach oddechowych i jelitach, przez co alergeny łatwiej przedostają się do organizmu – stanowi dodatkowy czynnik ryzyka wystąpienia reakcji nadwrażliwości typu I. Komórki tuczne i bazofile Komórki tuczne odgrywają kluczową rolę w reakcjach alergicznych. Uczestniczą ponadto w innych, bardzo istotnych procesach immunologicznych. Stanowią obronę organizmu przeciw inwazjom pasożytniczym, stymulują angiogenezę oraz przebudowę tkanek. U człowieka występują dwie subpopulacje komórek tucznych – tkankowe i błon śluzowych – które wywodzą się ze wspólnego prekursora w szpiku. Różnice te są najprawdopodobniej skutkiem wpływu mikrośrodowiska, w którym przebywają. Subpopulacje te różnią się składem enzymów zawartych w wewnątrzkomórkowych ziarnach gromadzących mediatory reakcji zapalnej oraz wrażliwością na kromoglikan dwusodowy (lek stosowany w astmie oskrzelowej oraz w alergiach pokarmowych). Bodźcem prowadzącym do aktywacji komórek tucznych i bazofilów jest związanie fragmentu Fc przeciwciała IgE połączonego z antygenem, przez receptor zlokalizowany na powierzchni ich błony komórkowej (receptor FcεRI). Połączenie takie indukuje proces degranulacji oraz wytwarzania de novo mediatorów procesu zapalnego. Eozynofile Komórki kwasochłonne (zwane też eozynocytami, granulocytami kwasochłonnymi, krwinkami kwasochłonnymi) to jeden z rodzajów leukocytów, stanowiących 2–4% ich ogólnej liczby, biorący głównie udział w walce z infekcjami pasożytniczymi. Współdziałają z komórkami tucznymi w procesie zwalczania tego typu inwazji. Uczestniczą także w modulacji procesów alergicznych, a wiele chorób tego typu charakteryzuje się znaczną eozynofilią. Nagromadzenie eozynofili w tkankach, w zaawansowanych stanach alergicznych, doprowadza do powstawania większych uszkodzeń, czego przykładem jest uszkodzenie nabłonka oddechowego w astmie oskrzelowej. Uszkodzony nabłonek ułatwia przenikanie i ekspozycję organizmu na zwiększoną liczbę antygenów. Prowadzi to do powstania dodatniego sprzężenia zwrotnego i samonapędzającej się spirali chorobowej. Akumulacja tych komórek może być związana z przyspieszonym wzrostem i różnicowaniem eozynofili w szpiku, a następnie ich przechodzeniem do krwi i terenu alergicznego. Ponieważ czas przeżycia eozynofili jest krótki (4 dni), istotne znaczenie dla ich prozapalnego działania ma ochrona tych komórek przed apoptozą i innymi czynnikami obniżającymi ich sprawność. Nad przeżyciem eozynofili czuwają trzy cytokiny: IL-5, IL-3 oraz GM-CSF. W przypadku słabo nasilonych reakcji i niewielkiej ilości antygenu, komórki kwasochłonne, posiadając niewielkie zdolności fagocytarne oraz receptory FcεRI, mogą pełnić korzystną funkcję, zapobiegając ekspozycji komórek tucznych na kompleks antygen-przeciwciało. Limfocyty Th2 Kluczową rolę w procesach alergicznych odgrywają limfocyty Th2. Pełnią one funkcję nadzorującą. Pobudzają one odpowiedź humoralną, w szczególności stymulują wytwarzanie przeciwciał IgE przez limfocyty B. Aktywują komórki tuczne, bazofile i eozynofile. Wszystko dzięki IL-4 i IL-13, które są niezbędne do zmiany klasy produkowanych przez limfocyty B immunoglobulin z G1-3 do E (immunoglobulin class switching). IL-5 pobudzając różnicowanie i aktywację eozynofilów sprawia, że do obrazu odpowiedzi immunologicznej mediowanej przez Th2 należy także eozynofilia. Subpopulacja Th2 powstaje z limfocytów Th0 na skutek stymulacji przez interleukinę 4. Cytokina ta produkowana jest zarówno przez limfocyty Th2, jak i mastocyty i bazofile. Skutkiem tego jest występowanie kolejnego dodatniego sprzężenia zwrotnego. Przebieg odpowiedzi immunologicznej na alergen Przebieg odpowiedzi immunologicznej organizmu na stymulację alergenem zachodzi w dwóch fazach. Pierwszą z nich jest reakcja natychmiastowa zachodząca w kilka minut po stymulacji. Reakcja późna osiąga swoje apogeum w 6 do 10 godzin od kontaktu z alergenem. Reakcja natychmiastowa EAR (ang. early allergic reaction) – to typ reakcji polegający na natychmiastowej IgE- zależnej odpowiedzi na alergen. Połączenie się IgE z receptorem FceRI (receptor o wysokim powinowactwie dla immunoglobuliny E) na powierzchni bazofila lub mastocyta i związanie krzyżowe alergenu przez fragmenty Fab tych przeciwciał prowadzi do degranulacji komórek tucznych i bazofilów. Uwalniane w tym procesie mediatory procesu zapalnego (głównie histamina, ale i sulfidoleukotrieny (LTs) oraz liczne cytokiny) odpowiedzialne są za burzliwie przejawiane reakcje, utożsamiane przez większość ludzi z alergią. Klinicznie zespół objawów nosi nazwę anafilaksji (gr. ana – na odwrót, phylassein – chronić), terminu wprowadzonego przez Charlesa Roberta Richeta, który otrzymał za swoje odkrycie Nagrodę Nobla w dziedzinie medycyny w 1913 roku. Intensywność, charakter i reprezentacje narządowe procesu anafilaktycznego są bardzo różne. Ich zakres może być lokalny, jak np. w ograniczonej pokrzywce lub świądzie. Może też obejmować cały ustrój, czego wyrazem jest wstrząs anafilaktyczny stanowiący bezpośrednie zagrożenie życia. Alergenami wywołującymi najczęściej gwałtowne reakcje anafilaktyczne są: antybiotyki (penicylina) białka obce, zwłaszcza obcogatunkowe (np. surowice odpornościowe) jady owadów, zwłaszcza błonkoskrzydłych (pszczoły, osy, szerszenie) – wywołane przez nie reakcje kliniczne są przyczyną śmierci 0,09–0,45 osób na milion ogólnej światowej populacji. Znacznie częściej po użądleniach obserwuje się reakcje miejscowe (2–19% populacji) lub ogólnoustrojowe (0,8–3,9%). orzechy ryby lateks. Degranulacja bazofili i mastocytów może nastąpić również na drodze nieswoistej, niezwiązanej z alergenem. Czynnikiem sprawczym są aktywowane składniki dopełniacza C3a i C5a. Degranulację mogą wywoływać na drodze „mostkowania” receptorów dla IgE składniki wielkocząsteczkowe, na przykład jodowe środki kontrastowe stosowane w angiografii i urografii. Mostkowanie FceRI wywołane związaniem alergenu przez IgE powierzchniowe powoduje degranulację bazofilów i uwolnienie z ziarnistości takich mediatorów, jak histamina, cysteinylowe leukotrieny C4 (LTC4), LTD4, LTE4 i cytokiny, w tym głównie IL-4 i IL-13. Typ reakcji natychmiastowej, w której nie uczestniczy mechanizm antygen-przeciwciało-komórka tuczna nosi nazwę reakcji anafilaktoidalnej. Reakcja późna Reakcja późna (ang. late-phase reaction – LPR lub ang. late allergic reaction – LAR) – zdecydowanie mniej znana i obiegowo nie utożsamiana z pojęciem alergii występuje u około 50% populacji alergików. Na zjawisko to zwrócono większą uwagę od lat 70. po opublikowaniu badań Dolovicha i wsp., którzy wykazali IgE-zależny charakter tej reakcji. Przybiera ona formę podobną do reakcji natychmiastowej. Osiąga największe nasilenie około 6 do 10 godzin od kontaktu z antygenem, a ustępują po 12–24 godzinach. Podobnie jak reakcja anafilaktyczna może dotyczyć błon śluzowych górnych lub dolnych dróg oddechowych (odpowiednio pyłkowica, astma oskrzelowa), skóry itp. LPR występująca po kontakcie z natywnym alergenem jest zwykle poprzedzona przez EAR. Nasilenie LPR jest proporcjonalne do natężenia objawów pierwotnych i zwykle łagodniejsze niż na początku tej odpowiedzi. Możliwe jest jednak wystąpienie LPR bez poprzedzających objawów EAR (tzw. „izolowana faza późna”), co ma miejsce np. po prowokacji skóry peptydowymi fragmentami alergenu lub po prowokacji oskrzeli alergenami zawodowymi. U podłoża reakcji późnej leżą najprawdopodobniej, choć proces ten nie został do końca poznany, napływ z krwi i aktywacja w miejscu stymulacji alergenem szerokiego panelu komórek, takich jak wydzielane przez mastocyty cytokiny (TNF-α, interleukina 1, interleukina 4), leukotrieny, czynnik aktywujący płytki (ang. platelet-activating factor – PAF). Ww. związki, na zasadzie chemotaksji, przyciągają do miejsca wniknięcia antygenu bazofile, eozynofile, neutrofile oraz leukocyty, gdzie są odpowiedzialne za ich aktywację. Inny mechanizm aktywacji wymusza odmienne leczenie. W LPR nieskuteczne okazują się leki przeciwhistaminowe, a lekami z wyboru są glikokortykosteroidy. LPR, późna faza reakcji nadwrażliwości typu I (natychmiastowego), z uwagi na podobieństwo terminologii może, a nie powinna, być mylona z nadwrażliwością typu późnego, czyli reakcją nadwrażliwości typu IV (komórkowego – ang. delayed type hypersensitivity – DTH). Pomiędzy tymi reakcjami zachodzą oczywiste różnice zarówno w patomechanizmie, jak obrazie klinicznym. LPR jest wynikiem reakcji zainicjowanej przez przeciwciała IgE, a w patomechanizmie DTH pierwotnie są zaangażowane limfocyty T. Podobnie różny jest obraz i przebieg kliniczny obu typów odpowiedzi: w reakcji nadwrażliwości typu opóźnionego początek objawów ma miejsce kilkanaście godzin od momentu ekspozycji na antygen, a ich maksymalne nasilenie występuje po 24–48 godzinach, podczas gdy objawy LPR pojawiają się po kilku godzinach od momentu kontaktu z alergenem. Epidemiologia Według Białej księgi alergii z 2011 roku choroby alergiczne dotykają ok. 30–40% populacji. Najczęstsze postaci tych chorób to pyłkowica odnotowana u około 20% populacji, astma oskrzelowa występująca u 5–8% populacji. Natomiast atopowe zapalenie skóry (AZS) występujące u kilku procent ogólnej populacji dziecięcej objawia się u poniżej 1% populacji dorosłych. Choroba ta częściej występuje u dzieci niż u osób dorosłych. Przed 3 rokiem życia AZS w różnie nasilonej postaci występuje u 2–3% całej populacji. Mniej niż 2% przypadków AZS ma swój początek po 20 r.ż. Przypuszczalnie co 3-4 dziecko rodzi się z AZS. Z wiekiem częstość schorzenia maleje. AZS nieco częściej występuje u mężczyzn niż u kobiet, stosunek ten wynosi 1,2:1. Prawdopodobieństwo wystąpienia choroby atopowej u potomstwa, gdy atopia nie występuje u rodziców, wynosi 12,5%. Ponadto osoby urodzone w miesiącach bezpośrednio poprzedzających sezon pylenia są bardziej narażone na wystąpienie alergii na pyłek roślin. Wzrost zapadalności na choroby alergiczne w ciągu kilku ostatnich dekad został dobrze udokumentowany w licznych badaniach epidemiologicznych. Wyniki tych badań wskazują, że ma on różną dynamikę w różnych regionach świata i dotyczy zwłaszcza krajów, w których wcześniej notowano stosunkowo małą zachorowalność na te choroby. Obszar Europy Środkowo-Wschodniej wykazuje szczególnie dużą dynamikę wzrostu zachorowalności na choroby alergiczne, co może wiązać się z przemianami społeczno-ustrojowymi, których skutkiem był rozwój uprzemysłowienia, „chemizacja” życia oraz poprawa warunków higienicznych. Czynniki predysponujące Na wystąpienie alergii mają wpływ zarówno czynniki genetyczne, jak i środowiskowe. Określenie poziomu istotności poszczególnych nie jest proste, chociażby ze względu na odmienne kryteria diagnostyczne stosowane przez różnych badaczy. Genetyka Osoby obciążone dodatnim wywiadem rodzinnym posiadają większe ryzyko zachorowania na alergię. Szacunkowo, spośród wszystkich alergików około 40 do 80% chorych jest obciążonych dziedzicznie. Ryzyko wystąpienia choroby wynosi około 40% w przypadku istnienia nadwrażliwości typu I u jednego z rodziców, a około 60%, gdy nadwrażliwość taką stwierdza się u obojga. Badania genetyczne dowiodły, iż jedną z determinant takiego stanu jest występowanie określonych alleli HLA (antygeny zgodności tkankowej). I tak w przypadku posiadania kopii genu HLA-DRB3*0101 istnieje predyspozycja do wystąpienia alergii na pyłki brzozy a kopia genu HLA-DRB1*1501 predysponuje do uczulenia na alergeny ambrozji. Ponadto tzw. geny atopii warunkują osobniczą skłonność do powstawania burzliwej reakcji immunologicznej z udziałem IgE w następstwie ekspozycji na określone antygeny. W locus 5q31.1 występują geny odpowiedzialne za produkcję cytokin – głównie interleukiny 4, interleukiny 5 i interleukiny 13 a swoisty marker identyfikowany metodami cytogenetycznymi warunkuje nadwrażliwość. Spowodowana jest ona najprawdopodobniej zmianami w sekwencji nukleotydowej promotora genów, nasilającymi transkrypcję ww. cytokin. Kolejny znany „gen atopii” występuje w regionie 11q13. Znajdują się tam geny kodujące fragmenty receptora FcεRI a dokładniej, domeny uczestniczącej w przekazywaniu sygnału aktywującego komórkę, po związaniu przeciwciała IgE połączonego z alergenem. Mała zmiana w budowie receptora powoduje, że sygnał ten staje się znacznie silniejszy, potęgując tym samym reakcję degranulacji. Czynniki środowiskowe Karmienie piersią Większość alergii, zwłaszcza pokarmowych, ujawnia się we wczesnym dzieciństwie. Spowodowane jest to najprawdopodobniej kluczową rolą, jaką odgrywa ten okres w procesie dojrzewania, szkolenia i adaptacji układu odpornościowego. Wysunięta hipoteza o ochronnym wpływie karmienia naturalnego została przebadana już w 1936 roku. Udowodniono wtedy, na dużej grupie osób, iż karmienie piersią, w porównaniu do karmienia piersią w połączeniu ze stosowaniem pokarmów sztucznych lub tylko i wyłącznie pokarmów sztucznych, zmniejsza odpowiednio dwu- lub siedmiokrotnie ryzyko wystąpienia alergii. Obecnie uznaje się, że ochronną rolę pełnią przeciwciała IgG zawarte w matczynym mleku oraz zmniejszone narażenie na alergeny. Zapobiegawcza rola karmienia piersią jest szczególnie ważna w przypadku dodatniego wywiadu rodzinnego. Zaleca się, aby noworodki z rodzin obciążonych chorobami alergicznymi były karmione piersią przez okres minimum 4–6 miesięcy. Dodatkowo zaleca się, aby w tych przypadkach wprowadzanie innych pokarmów rozpocząć dopiero od 5 miesiąca życia. Należy jednak zauważyć, że niektóre alergeny mogą przedostawać się do mleka matki, np. β-laktoglobulina zawarta w krowim mleku lub owoalbumina jaj. Według aktualnych wytycznych nie zaleca się stosowania pierwotnej diety hipoalergicznej zarówno w okresie ciąży, jak i podczas karmienia piersią. U osób obciążonych niektórzy zalecają natomiast wprowadzenie diety hipoalergicznej u karmiącej. Dodatkowo według niektórych autorów zalecane jest unikanie spożywania pokarmów o wybitnym charakterze uczulającym, np. orzechy ziemne, zarówno w okresie ciąży, jak i laktacji. W przypadku, gdy dziecko musi być dokarmiane zaleca się stosowanie wyłącznie preparatów mlekozastępczych o nieznacznym stopniu hydrolizy do okresu 12 miesięcy. W przypadku występowania objawów alergicznych podczas ich stosowania należy wprowadzić preparaty o znacznym stopniu hydrolizy. Nie zaleca się stosowania preparatów opartych na białku sojowym, które posiada znaczne właściwości alergizujące. Zapobieganie alergiom pokarmowym chroni dziecko przed wystąpieniem innych chorób z grupy nadwrażliwości. Związane jest to ze zjawiskiem określanym mianem „marszu alergicznego”, czyli predyspozycji wiekowej do występowania określonych manifestacji narządowych. U niemowląt najczęściej przejawianymi są dolegliwości ze strony układu pokarmowego, u dzieci 7–12-miesięcznych dominują objawy o typie wyprysku kontaktowego (zaliczany do typu IV według Coombsa). W wieku 2–3 lat dominuje astma, 4–7 rok życia zdominowany jest przez katar sienny, do którego dołącza astma w 8–14 roku życia. Czynniki infekcyjne i hipoteza higieniczna Częstotliwość występowania wielu chorób o podłożu alergicznym w tym m.in. astmy oskrzelowej wzrasta od zakończenia II wojny światowej, np. u dzieci w USA częstotliwość uczulenia na orzechy ziemne i orzechy pozyskane z drzew wzrosła między 1997 a 2008 ponad trzykrotnie – z 0,6% do 2,1%. Obraz ten koreluje ze wzrastającą sterylnością życia wskutek wprowadzenia do powszechnego użycia antybakteryjnych środków czystości, antybiotyków i szczepionek. Część badaczy uznaje to za potwierdzenie hipotezy higienicznej, zgodnie z którą rozpowszechnienie alergii jest wynikiem cywilizacyjnego ograniczenia ekspozycji na drobnoustroje i toksyny występujące w naturze (infekcje, pasożyty itd.). Rola czynników infekcyjnych w powstawaniu alergii jest jednak dwuznaczna. Z jednej strony zaobserwowano częstą korelację pomiędzy przebytą infekcją (zwłaszcza wirusową) dróg oddechowych, a nabyciem nadwrażliwości na alergeny wziewne. Z drugiej strony podkreśla się ochronny wpływ wielu czynników infekcyjnych na występowanie alergii. Protekcyjny wpływ wykazano jednoznacznie w przypadku zakażenia wirusem odry, WZW B oraz mikroorganizmów (np. prątki gruźlicy) zwiększających wielkość subpopulacji limfocytów Th1, które działają antagonistycznie w stosunku do proalergennych limfocytów Th2. W przypadku odry istotna może być długotrwała immunosupresja i upośledzenie funkcji limfocytów T następujące po przebyciu zakażenia. Natomiast infekcje dróg oddechowych, najprawdopodobniej przez zmniejszenie szczelności nabłonka, umożliwiają większą penetrację antygenów, prowadząc w konsekwencji do wzrostu ryzyka alergizacji. W ochronnym wpływie życia na wsi znaczenie ma kontakt z różnorodnymi bakteriami występującymi w środowisku. Im większa bioróżnorodność w sąsiedztwie zamieszkania tym bardziej różnorodna jest pewna klasa bakterii (Gammaproteobacterii) na skórze – klasa tych bakterii normalnie występuje na roślinach i w ziemi. Z kolei im większa różnorodność tych bakterii na skórze tym rzadziej jest odpowiedź alergiczna skóry. Stwierdzono też, że u osób zdrowych, im więcej jest na skórze bakterii Acinetobacter, tym większe jest stężenie interleukiny 10 działającej przeciwzapalnie. Dostępne wyniki badań nie dają jednoznacznej odpowiedzi czy infekcje wywierają ochronny wpływ na występowanie chorób alergicznych, ale wpływ ten lepiej widoczny w przypadku chorób atopowych niż astmy. Jest on silnie uzależniony od czynników genetycznych, środowiskowych, intensywności i czasu ekspozycji. W związku z tym brak jest jednoznacznych przesłanek dla zmiany obecnych standardów higienicznych. Pasożyty Wyniki badań dotyczące wpływu zarażenia pasożytami na występowanie astmy są niespójne i trudno jest obecnie ocenić, czy zarażenie zmniejsza lub zwiększa ryzyko wystąpienia astmy, czy nie ma na nie wpływu. Inne Nie bez znaczenia pozostaje również wpływ zanieczyszczenia środowiska, a zwłaszcza dymów i spalin. Według niektórych badań, czynnikami predysponującymi do powstania alergii, szczególnie w obrębie układu oddechowego, są spaliny samochodowe (zwłaszcza pochodzące z silników diesla ze względu na większą zawartość cząstek stałych), a także dym papierosowy. Część badaczy twierdzi również, że wzrastające użycie środków chemicznych, których działanie na organizm człowieka nie zawsze zostało dokładnie poznane, może być odpowiedzialne za wzrost częstotliwości występowania chorób o podłożu alergicznym. Schorzenia Schorzenia, w których zasadnicze znaczenie odgrywają odczyny alergiczne typu I: alergiczny nieżyt nosa (sezonowy i całoroczny) astma oskrzelowa atopowa wyprysk (egzema), w tym: atopowe zapalenie skóry alergiczne kontaktowe zapalenie skóry (wyprysk kontaktowy alergiczny) niektóre typy pokrzywki atopowe zapalenie spojówek uczulenie na jad owadów wstrząs anafilaktyczny (anafilaksja) pyłkowica IgE-zależna alergia pokarmowa Objawy fizyczne Jakkolwiek podłoże alergii, w obrębie reakcji IgE zależnych, jest spójne, objawy mogą wydawać się myląco odmienne. W zależności od typu schorzenia, dominacji narządowej oraz cech osobniczych, uwalnianie mediatorów anafilaksji może manifestować się różnorodnie. Znajomość patofizjologicznego podłoża choroby układa jej obraz w określoną konstelację. Wyznacznikiem jest fizjologiczna rola histaminy, głównego mediatora reakcji alergicznej, w organizmie żywym. Reakcja rzadko jest reakcją ogólnoustrojową. Często proces ten zostaje ograniczony do określonego układu, narządu, tkanki. Do objawów miejscowych zaliczamy: nos – obrzmienie śluzówki, nieżytu nosa, a w związku ze swędzeniem częste pocieranie nosa, wodnista wydzielina z nosa i towarzyszące temu napady kichania, zatkany nos oczy – izolowane alergiczne zapalenie spojówek, zaczerwienienie, swędzenie, pieczenie, łzawienie drogi oddechowe – skurcz oskrzeli, świsty, trudność w oddychaniu, czasami pełnoobjawowy atak astmy, kaszel bez cech ostrej infekcji uszy – uczucie pełności, osłabione słyszenie z powodu niedrożnej trąbki Eustachiusza skóra – różne wysypki, egzema, pokrzywka, obrzęk (np. po użądleniu owada), uczucie swędzenia w obrębie zmienionych chorobowo miejsc głowa – niezbyt powszechne bóle głowy, uczucie ociężałości. Wzrost stężenia histaminy w surowicy krwi wywołuje spadek ciśnienia tętniczego z towarzyszącym przyspieszeniem akcji serca i zwiększeniem ciepłoty ciała. Są to objawy charakterystyczne dla wstrząsu anafilaktycznego. Dodatkowo występuje skurcz mięśni gładkich oskrzeli (astma atopowa), przewodu pokarmowego oraz obrzęk. Ostatecznie może wystąpić śpiączka, a nawet śmierć. Przekrwienie błon śluzowych na skutek rozszerzenia arterioli z towarzyszącym skurczem drobnych żył i wzrostem przepuszczalności ścian naczyń jest charakterystyczne dla pyłkowicy. Obrzęk i przekrwienie skóry występujące m.in. w atopowym zapaleniu skóry mają identyczne podłoże. Natomiast świąd jest skutkiem drażnienia czuciowych zakończeń nerwowych. Na te objawy nakłada się również działanie szeregu innych mediatorów wydzielanych w procesie degranulacji komórek tucznych. Diagnostyka W rozpoznaniu choroby ważną rolę odgrywa dobrze przeprowadzony wywiad. Istotne jest stwierdzenie korelacji między narażeniem na alergeny a obecnością objawów. Alergię nietrudno rozpoznać, jeśli objawy występują szybko po zadziałaniu poznanego alergenu. Napad kichania, wycieku z nosa, łzawienia i swędzenia spojówek w słoneczny dzień – wskazują na katar sienny. Nocny napad kaszlu, duszności, świszczącego oddechu u młodej osoby – to symptomy astmy. Zaczerwienienie skóry, świąd i bąble po zjedzeniu truskawek czy orzeszków ziemnych – to prawdopodobnie alergia pokarmowa. Bolesny obrzęk skóry, nasilona pokrzywka po użądleniu osy – również sugerują reakcję alergiczną. Badanie przedmiotowe może ułatwić rozpoznanie w przypadku wystąpienia zaostrzeń. Podczas remisji może nie wykazać żadnych odchyleń od stanu prawidłowego. Niekiedy stwierdza się charakterystyczne dla atopii zmiany skórne. Z badań dodatkowych najpowszechniej stosowane są testy skórne, polegające na wprowadzeniu do skóry lub nałożeniu na nią alergenów w bardzo niskim stężeniu. Ustalenie prawdopodobnego czynnika alergicznego na podstawie wywiadu potwierdzane jest dalszymi badaniami, takimi jak: testy skórne (punktowe, śródskórne i płatkowe), badania serologiczne i testy (próby) ekspozycyjne. Przy czym dodatni wynik testów skórnych i badań serologicznych jest dowodem istnienia alergii w organizmie chorego, natomiast testy (próby) ekspozycyjne stanowią potwierdzenie, że dane alergeny są odpowiedzialne za reakcje atopowe (alergiczne). W alergii pokarmowej w celu wykrycia alergenu stosuje się też diety eliminacyjne, polegające na wykluczaniu z jadłospisu podejrzanych produktów i potraw z ich wykorzystaniem. Dzięki temu można wspólnie z pacjentem ustalić, który z kolejnych eliminowanych produktów był sprawcą objawów alergii. Testy skórne Badanie polega na celowym spowodowaniu kontaktu alergenu podejrzanego o wywołanie objawów chorobowych ze skórą, a następnie na interpretacji powstałych zmian skórnych (bąbel, rumień, naciek). Najczęściej wykonywane są testy skaryfikacyjne lub śródskórne. W przypadku pierwszych wzorcowy antygen nanoszony jest na zadrapaną uprzednio powierzchnię skóry przedramienia lub pleców. Druga metoda polega na wstrzyknięciu roztworu śródskórnie. Wynik testu odczytywany jest po 15 minutach, mierząc średnicę powstającego bąbla i otoczki rumieniowej. Dla celów porównawczych wykonuje się próbę z roztworem histaminy w rozcieńczeniu 1:10 000 podanym w identyczny sposób. Niekiedy stosuje się także próbę ślepą, podając śródskórnie lub nanosząc na zadrapanie wodę destylowaną. Wynik podaje się, stosując trójstopniową skalę: + – bąbel o średnicy do 5 mm ++ – bąbel o średnicy do 1 cm z towarzyszącą otoczką rumieniową +++ – bąbel z szerokim pasmem rumienia i charakterystycznymi „nibynóżkami” Próby ekspozycyjne Polegają na wdychaniu aerozoli zawierających określony, standaryzowany alergen. Następnie bada się reakcję oskrzeli przez określenie wartości szczytowej przepływu wydechowego (ang. Peak Expiratory Flow – PEF) lub maksymalnej objętości wydechowej jednosekundowej (ang. Forced Expiratory Volume in 1 Second – FEV1). Spadek wartości tych parametrów świadczy o wrażliwości na podawany alergen. Pomiarom statycznym i dynamicznym poddana jest ilość wdychanego i wydychanego powietrza z uwzględnieniem prędkości przepływu powietrza w drogach oddechowych. W astmie charakterystyczne jest bowiem zmniejszenie ilości powietrza wydychanego z maksymalnym natężeniem w ciągu jednej sekundy, a także duża zmienność szybkości wydychanego powietrza w ciągu jednego dnia (powyżej 20%) oraz znacząca poprawa szybkości po zastosowaniu leków rozszerzających oskrzela. W alergii pokarmowej w celu wykrycia alergenu stosuje się diety eliminacyjne, polegające na wykluczaniu z diety podejrzanych potraw. Dzięki temu można wspólnie z pacjentem ustalić, który z kolejnych eliminowanych produktów był sprawcą objawów alergii. Oznaczanie poziomu IgE Do diagnostyki wprowadzono dwa rodzaje badania immunoglobuliny E (IgE) w organizmie człowieka: oznaczanie stężenia całkowitej IgE (cIgE, inaczej poliklonalnej IgE) i oznaczania stężenia alergenowo specyficznej, czyli swoistej IgE (asIgE) Immunoglobulinę E w surowicy krwi oznacza się w jednostkach międzynarodowych (IU) na mililitr lub rzadziej ng/ml (1 IU = 2,44 ng/ml). W wielu chorobach alergicznych następuje wzrost całkowitego stężenia IgE w surowicy krwi, jednak jest wiele schorzeń niealergicznych w których całkowite stężenie IgE wzrasta. Oznaczenie wartości IgE jest niekiedy pomocne przy ustalaniu rozpoznania. Często przydatne jest również badanie stężenia swoistych przeciwciał IgE, skierowanych przeciw konkretnym alergenom, ponieważ prawidłowy wynik całkowitej IgE, nie wyklucza istnienia alergii. U dużej grupy alergików wynik oznaczenia poziomu IgE całkowitego bywa bowiem prawidłowy (pomimo alergii). Stąd oznaczenie IgE swoistego dla określonych alergenów, na przykład roztoczy, pyłków drzew, traw, chwastów, pokarmów, jadów owadów może okazać się bardziej miarodajne. Umożliwiają to m.in. metody radioimmunologiczne (RIA). Do oznaczenia poziomu stężenia IgE służy też modyfikacja testu radioalergosorpcji RAST – test fluorescencyjny CAP-RAST. Leczenie Najlepszą metodą terapeutyczną jest unikanie kontaktu z czynnikami alergizującymi. Nie zawsze jest to jednak możliwe, dlatego często konieczne jest stosowanie farmakoterapii lub przeprowadzenie swoistej immunoterapii. Immunoterapia swoista Immunoterapia swoistym antygenem (potocznie zwana odczulaniem), wywołującym u chorego reakcje alergiczne, jest jedną z metod leczniczych, prowadzących do zmniejszenia nasilenia lub całkowitego ustąpienia objawów uczuleniowych. Zasadą terapii jest systematyczne podawanie (najczęściej podskórne) wzrastających dawek antygenu. Metodę tę opracowali w 1911 roku doktorzy Leonard Noon i John Freeman ze szpitala St. Mary w Londynie. Sukcesywnie udoskonalana stosowana jest do dziś. Obecnie dostępne badania kliniczne wykazały skuteczność swoistej immunoterapii w leczeniu alergicznego nieżytu nosa i spojówek, astmy atopowej, a także alergii na jad owadów błonkoskrzydłych. Światowa Organizacja Zdrowia wydała zalecenia dotyczące stosowania swoistej immunoterapii. Immunoterapia powinna być stosowana w skojarzeniu z wszystkimi dostępnymi formami terapii chorób alergicznych, w celu złagodzenia objawów alergii w maksymalnym możliwym zakresie. Uzasadnienie dla podjęcia immunoterapii opiera się na analizie możliwości kontrolowania objawów za pomocą leczenia farmakologicznego, dawki oraz rodzaju wymaganych farmaceutyków oraz możliwości unikania ekspozycji na alergen. Immunoterapia jest wskazana u pacjentów, u których wykazano IgE-zależne podłoże reakcji na istotne alergeny. Ponieważ odpowiedź na immunoterapię jest alergenowo-swoista, nie powinny być stosowane mieszaniny alergenów niemające związku z uczuleniem danego pacjenta. Główne czynniki, które decydują o skuteczności immunoterapii, obejmują prawidłową diagnostykę alergii i ustalenie wskazań, zapewnienie współpracy ze strony pacjenta (z reguły poniżej 50%), zastosowanie odpowiedniej, wysokiej jakości szczepionki, stosowanie odpowiednio wysokiej dawki podtrzymującej szczepionki. Droga podania szczepionki oraz czas prowadzenia terapii mają istotne znaczenie dla skuteczności immunoterapii. Wskazania do prowadzenia immunoterapii powinny być ustalane przez lekarzy wykształconych w dziedzinie alergologii. Specjaliści powinni kierować się znajomością lokalnie występujących alergenów, na które pacjent jest narażony w środowisku domowym i miejscu pracy. Szczepionki powinny być podawane pod nadzorem odpowiednio wyszkolonych lekarzy. Optymalny czas trwania immunoterapii nie jest ostatecznie określony. Zaleca się jej stosowanie przez 3 do 5 lat, jednak decyzja o zaprzestaniu terapii powinna być podejmowana w oparciu o indywidualną analizę każdego pacjenta. Farmakoterapia Farmakologiczne leczenie alergii ma na celu złagodzenie objawów chorobowych i zahamowanie uwalniania i działania mediatorów prozapalnych, tworzących między sobą szereg sprzężeń dodatnich, doprowadzający do nasilenia objawów. Nie likwiduje ona przyczyny choroby. W leczeniu alergii najczęściej stosowanymi grupami leków są: leki przeciwhistaminowe, inaczej antagonisty receptorów H1, blokują końcowy etap reakcji alergicznej, uniemożliwiając połączenie się uwolnionej histaminy z receptorem i wyzwolenie efektu biologicznego (np. skurcz mięśni gładkich oskrzeli). Leki przeciwhistaminowe nowej generacji jak bilastyna (stosowana w leczeniu alergicznego nieżytu nosa i zapalenia spojówek oraz pokrzywki) działają przy tym przeciwzapalnie, co przejawia się w: zmniejszaniu ekspresji cząsteczek adhezyjnych na powierzchni śródbłonka naczyń hamowaniu ekspresji genów prozapalnych w komórkach nacieku zapalenia hamowaniu chemotaksji eozynofilów, bazofilów i mastocytów do miejsca zapalenia. Dzięki silnemu wiązaniu z receptorem H1, a w niewielkim z innymi receptorami, preparaty typu bilastyna nie posiadają prawie żadnych istotnych działań niepożądanych w odróżnieniu od leków przeciwhistaminowych I generacji. Przykłady: leki I generacji: klemastyna, prometazyna leki II generacji: bilastyna, cetyryzyna, loratadyna, desloratadyna, azelastyna, azatydyna leki przeciwleukotrienowe – hamują syntezę leukotrienów cysteinylowych lub blokują receptory leukotrienowe w ścianie oskrzeli. inhibitory biosyntezy: zileuton, genleuton antagonisty receptorów leukotrienowych: montelukast, zafirlukast kromony (kromoglikan disodowy, nedokromil) – głównym mechanizmem ich działania jest blokowanie uwalniania histaminy z komórek tucznych (hamowanie procesu degranulacji) glikokortykosteroidy – stosowane zarówno ogólnoustrojowo (doustnie), jak również w postaci wziewnej lub donosowej adrenalina – osoby cierpiące na poważne odczyny alergiczne z ryzykiem wystąpienia wstrząsu anafilaktycznego powinny nosić ze sobą strzykawki z adrenaliną, która jest lekiem pierwszego rzutu w anafilaksji. Postępowanie przeciwwstrząsowe usunięcie źródła alergenu (jeżeli możliwe) adrenalina domięśniowo (dorośli 0,3–0,5 mg, dzieci 0,01 ml/kg; dawkę można powtórzyć po 5–15 min); dożylnie w wyjątkowych przypadkach dostęp dożylny – uzupełnianie wypełnienia łożyska naczyniowego tlenoterapia dożylne podanie leków przeciwhistaminowych (antazolina, prometazyna) dożylne podanie glikokortykosterydów (prednizolon, hydrokortyzon) dopamina lub noradrenalina we wlewie, jeśli niedociśnienie się utrzymuje pomimo podania adrenaliny i płynów glukagon 0,1 mg/kg domięśniowo w razie utrzymywania się niedociśnienia i skurczu oskrzeli u chorych leczonych β-blokerami obserwacja w celu uniknięcia ryzyka opóźnionej anafilaksji. Przyszłość Przyszłość leczenia chorób alergicznych będzie opierać się najprawdopodobniej na ingerencji bezpośredniej i swoistym przeprogramowaniu układu odpornościowego chorego. Już dziś mówi się o możliwości zablokowania różnicowania limfocytów Th0 w kierunku limfocytów Th2, modyfikacji odpowiedzi komórek tucznych i bazofili, neutralizacji cytokin przy użyciu przeciwciał, blokowaniu IgE (stosowany obecnie omalizumab) lub receptorów FcεRI, a także terapii genowej. Pierwsze eksperymenty z wykorzystaniem tej ostatniej zostały przeprowadzone na zwierzętach i polegały na domięśniowym podawaniu plazmidów DNA kodujących fragmenty alergenu, który następnie ulegał ekspresji w miocytach, doprowadzając do zahamowania wytwarzania IgE przez indukcję limfocytów cytotoksycznych CD8+. Antygeny wywołujące alergię Do antygenów najczęściej wywołujących alergię należą: Pyłki roślinne (odpowiedzialne za występowanie kataru siennego) leszczyna olcha wiąz buk brzoza topola dąb wierzba jesion grab bez czarny lipa drobnolistna trawy babka lancetowata pokrzywa komosa szczaw bylica zarodniki pleśni leki penicylina i antybiotyki β-laktamowe sulfonamidy salicylany środki znieczulenia miejscowego produkty spożywcze orzechy – stąd, jako zabezpieczenie prawne, często umieszczana na produktach spożywczych informacja o możliwości zawierania śladowych ilości orzechów lub migdałów ziarno sezamu ryby i inne owoce morza białko jaj soja mleko rośliny strączkowe kukurydza zboża (gluten) czekolada owoce (np. truskawki, cytrusy) przyprawy jad owadów, np. jad pszczół zwierzęta i ich wydzieliny sierść – głównie kota (połączenie śliny zwierzęcia, złuszczonego nabłonka i sierści) roztocze lateks konserwanty (azotany i azotyny, kwas benzoesowy oraz benzoesany) kosmetyki (krem, farba do włosów, szampon) produkty chemiczne (składniki gumy, żywice epoksydowe, związki akrylowe w klejach czy farbach, barwniki). Zobacz też autoimmunizacja choroby autoimmunologiczne kalendarz pylenia roślin Przypisy Bibliografia Immunologia, pod red. Marka Jakóbisiaka, wyd. III – zmienione, Warszawa 2000 Choroby wewnętrzne pod red. Franciszka Kokota, t. 2, wyd. VII uzup. i unowocześnione, Warszawa 2002 Farmakologia – podstawy farmakoterapii, podręcznik dla studentów medycyny i lekarzy pod red. W. Kostowskiego, wyd. II poprawione, Warszawa 2001 Maria Zalesska-Kręcicka, Tomasz Kręcicki, Zarys otolaryngologii – Podręcznik dla studentów i lekarzy, Wrocław 2006 Otolaryngologia praktyczna – podręcznik dla studentów i lekarzy pod red. Grzegorza Janczewskiego, wyd. I, Gdańsk 2005 M. Nittner-Marszalska, Późna faza reakcji alergicznej typu natychmiastowego (LAR) – dlaczego jest warta poznania?, Alergia 2008, nr 4, s. 12–14. E. Rogala, Zarys alergologii klinicznej, Katowice 1994 R. Kurzawa, M. Wanat-Krzak, Atopowe zapalenie skóry. Poradnik dla lekarzy, wyd. II, Kraków 2009. A. Silva-Rodrigues, R. Wahl, Alergologia w praktyce, Alfa Medica Press, Bielsko-Biała 2007. Byłe Dobre Artykuły Alergologia Immunologia
114
https://pl.wikipedia.org/wiki/Algorytm%20Euklidesa
Algorytm Euklidesa
Algorytm Euklidesa – algorytm wyznaczania największego wspólnego dzielnika dwóch liczb. Został opisany przez greckiego matematyka, Euklidesa w jego dziele „Elementy”, w księgach siódmej oraz dziesiątej. Pierwsze wzmianki na temat tego algorytmu pojawiły się w dziele Euklidesa zatytułowanym „Elementy”, około trzysetnego roku przed naszą erą, co sprawia, że jest jednym z najstarszych, wciąż używanych algorytmów numerycznych. Pierwsza wersja algorytmu została opisana tylko dla liczb naturalnych. W XIX wieku powstały odmiany algorytmu dla liczb całkowitych Gaussa oraz wielomianów z jedną niewiadomą. Doprowadziło to do powstania współczesnych pojęć algebry abstrakcyjnej, takich jak dziedzina Euklidesa. W późniejszych czasach opracowano odmiany algorytmu dla innych struktur matematycznych, jak węzły czy wielomiany z wieloma niewiadomymi. Istnieje wiele teoretycznych i praktycznych zastosowań algorytmu. Może on zostać wykorzystany do generowania rytmów muzycznych, stosowanych jako ostinato w muzyce. Jest wykorzystywany w algorytmie RSA. Algorytm Euklidesa używany jest też do rozwiązywania równań diofantycznych, na przykład do znajdowania liczb spełniających zadany układ kongruencji (chińskie twierdzenie o resztach) czy znajdowania liczb odwrotnych w ciele skończonym. Może być także stosowany do generowania ułamków łańcuchowych w metodzie Sturma do obliczania pierwiastków rzeczywistych wielomianu. Wykorzystywany jest również w kilku współczesnych algorytmach do faktoryzacji liczb całkowitych. Jeżeli algorytm zostanie zaimplementowany poprzez obliczanie reszt z dzielenia, a nie odejmowanie, to jest wydajny dla dużych liczb: nigdy nie wymaga więcej dzieleń niż liczba cyfr (w systemie dziesiętnym) mniejszej liczby pomnożona przez 5. Zostało to udowodnione przez Gabriela Lamé w 1844 i uważane jest za pierwszy przypadek analizy złożoności obliczeniowej algorytmu. Sposoby zwiększenia wydajności algorytmów zostały opracowane w XX wieku. Największym wspólnym dzielnikiem dwóch liczb jest największa z liczb, która dzieli obie te liczby bez reszty. Algorytm Euklidesa opiera się na założeniu, że największy wspólny dzielnik dwóch liczb nie zmienia się, jeżeli od większej liczby odejmujemy mniejszą. Dla liczb całkowitych k, m oraz n załóżmy, że k jest wspólnym czynnikiem liczb A oraz B; załóżmy też, że oraz Możemy teraz dokonać działania wiemy więc, że k jest także wspólnym czynnikiem różnicy tych liczb. Opis algorytmu Najprostsza wersja algorytmu rozpoczyna się od wybrania dwóch liczb naturalnych, dla których należy wyznaczyć największy wspólny dzielnik. Następnie z tych dwóch liczb tworzymy nową parę: pierwszą z liczb jest liczba mniejsza, natomiast drugą jest różnica liczby większej i mniejszej. Proces ten jest powtarzany aż obie liczby będą sobie równe – wartość tych liczb to największy wspólny dzielnik wszystkich par liczb wcześniej wyznaczonych. Wadą tej wersji algorytmu jest duża liczba operacji odejmowania, które należy wykonać w przypadku, gdy różnica pomiędzy liczbami z pary jest znacząca. Operacja odejmowania mniejszej liczby od większej może zostać zastąpiona przez wyznaczanie reszty z dzielenia. W tej wersji nowa para liczb składa się z mniejszej liczby oraz reszty z dzielenia większej przez mniejszą. Algorytm kończy się w momencie, w którym jedna z liczb jest równa zero – druga jest wtedy największym wspólnym dzielnikiem. Przykład – wersja z odejmowaniem Załóżmy, że chcemy znaleźć największy wspólny dzielnik liczb 1989 oraz 867. Jeżeli od większej liczby odejmiemy liczbę mniejszą, wartość największego wspólnego dzielnika nie ulegnie zmianie. Ponieważ 1989 – 867 = 1122, nowa para liczb wygląda następująco: 1122, 867 Ponownie odejmujemy mniejszą liczbę od większej 1122 – 867 = 255, tworząc w ten sposób kolejną parę: 255, 867 867 nie jest już mniejszą liczbą. Stosując ten sam sposób, ponownie zmniejszamy wartość większej liczby o wartość mniejszej: 867 – 255 = 612, nowa para liczb to: 255, 612 Pierwsza liczba, 255, jest wciąż mniejsza, ponownie więc odejmujemy 255 od liczby większej: 612 – 255 = 357, więc kolejna para liczb to: 255, 357 357 – 255 = 102, kolejna para to: 255, 102 Teraz widać, że 255 jest większą liczbą, odejmujemy więc od niej 102, co daje nam parę: 153, 102 Odjęcie 102 od 153 tworzy nam kolejną parę: 51, 102. Teraz odejmujemy 51 od 102, co daje nam: 51, 51 Ponieważ obie liczby są sobie równe, kolejne odejmowanie da nam zero. Oznacza to, że największym wspólnym dzielnikiem liczb 1989 i 867 jest liczba 51. Algorytm wykorzystujący funkcję modulo Algorytm wykorzystujący funkcję modulo to druga równoważna implementacja algorytmu Euklidesa. Poniżej przedstawiono wersję obliczania NWD liczb a i b wykorzystującą operację reszty z dzielenia (modulo): oblicz c jako resztę z dzielenia a przez b zastąp a liczbą b, następnie b liczbą c jeżeli wartość b wynosi 0, to a jest szukaną wartością NWD, w przeciwnym wypadku przejdź do kroku 1 Pseudokod podprogram NWD(a, b) dopóki b ≠ 0 c := reszta z dzielenia a przez b a := b b := c zwróć a Dowód poprawności Lemat: Aby to wykazać, należy udowodnić, że wspólny podzielnik liczb i jest również podzielnikiem liczby Przyjmijmy: gdzie są liczbami całkowitymi. Wtedy: zatem jest również podzielnikiem Z lematu wynika przez indukcję, że jeśli algorytm się zakończy, to da poprawny wynik. Pozostaje udowodnić, że się zakończy. Wystarczy w tym celu zauważyć, że więc w każdym kroku algorytmu wartość zmniejsza się przynajmniej o 1. Ponieważ nie może nigdy być ujemna, algorytm musi się zakończyć. Złożoność czasowa Dla dowolnych liczb algorytm Euklidesa zwraca wartość NWD(m, n) po co najwyżej przebiegach pętli. Dowód Lemat: Jeśli to jest równoważne Podstawiając otrzymuje się: i ponieważ to oraz ponadto z własności modulo otrzymujemy: Przy pierwszej iteracji mamy po k-tym przebiegu pętli: Ponieważ po ostatnim, l-tym przebiegu pętli będzie: Największej liczby kroków algorytmu wymagają takie liczby m i n, które są kolejnymi elementami ciągu Fibonacciego. Rozszerzony algorytm Euklidesa Jeśli przechowywana będzie informacja o kolejnych ilorazach, to będzie też można wyznaczyć liczby całkowite w równaniu Ta metoda nazywana jest rozszerzonym algorytmem Euklidesa. Na przykład dla liczb 174 i 18 w algorytmie Euklidesa uzyskuje się wyniki pośrednie: lub przepisując wszystkie równości w taki sposób, by w pierwszej z nich po prawej stronie występowała tylko suma pewnych wielokrotności liczb 174 i 18: Należy zauważyć, że w pierwszej równości po prawej stronie występuje kombinacja liniowa liczb 174 i 18, podobnie jak w równaniu W następnych równościach po prawej stronie jest zawsze kombinacja liniowa liczb 174, 18 lub liczb, które wystąpiły po lewej stronie we wcześniejszych równościach. Kluczowa dla rozszerzonego algorytmu Euklidesa staje się możliwość stopniowego zastępowania tych liczb przez kombinacje liniowe liczb wejściowych aż do otrzymania równości: np. Pseudokod podprogram NWD(a, b) x := 1 y := 0 r := 0 s := 1 dopóki b ≠ 0 c := reszta z dzielenia a przez b q := część całkowita z dzielenia a przez b a := b b := c r' = r s' = s r = x - q · r s = y - q · s x = r' y = s' zwróć a, x, y Niezmiennikami pętli są wielkości x · a0 + y · b0 = a oraz r · a0 + s · b0 = b, dzięki czemu NWD(a0, b0) = x · a0 + y · b0. Zobacz też implementacje algorytmu Euklidesa największy wspólny dzielnik rozkład na czynniki Przypisy Linki zewnętrzne Euclidean algorithm , Encyclopedia of Mathematics, encyclopediaofmath.org [dostęp 2024-02-02]. Euklidesa
115
https://pl.wikipedia.org/wiki/Argyll
Argyll
Argyll () – historyczne hrabstwo w Szkocji, obecnie w okręgu Argyll and Bute. Od II w n.e. zamieszkane przez Celtów z Irlandii (Szkoci). Już w wieku III Argyll znalazł się pod panowaniem Celtów, którzy stworzyli na jego obszarze królestwo Dalriada (V-IX w.). W drugiej połowie IX wieku weszło w skład Szkocji. Zobacz też historia Szkocji Historyczne hrabstwa Szkocji Argyll and Bute
116
https://pl.wikipedia.org/wiki/Adaptive%20Transform%20Acoustic%20Coding
Adaptive Transform Acoustic Coding
Adaptive TRansform Acoustic Coding (ATRAC) – format stratnej kompresji dźwięku stworzony przez firmę Sony. Kompresja ATRAC stosowana jest w Minidiskach. System jest przystosowany do kompresji 16-bitowego dźwięku PCM o częstotliwości próbkowania 44.1 kHz, czyli dźwięku o jakości płyty CD-Audio, zmniejszając jego rozmiar pięciokrotnie w przypadku wersji ATRAC*1 lub dwudziestokrotnie dla algorytmu ATRAC3plus. Przypisy Linki zewnętrzne Opis formatu ATRAC na stronie Sony Global Opis formatu ATRAC na stronie minidisc.org Kodeki dźwięku
117
https://pl.wikipedia.org/wiki/Antoninus%20Pius
Antoninus Pius
Antoninus Pius (ur. 19 września 86, zm. 7 marca 161), inaczej Caesar Titus Aelius Hadrianus Antoninus Augustus Pius, przed adopcją Titus Aurelius Fulvius Boionius Arrius Antoninus – cesarz rzymski w latach 138–161. Życiorys Pochodził z rodziny senatorskiej z Nemausus w Galii Narbońskiej. Urodził się w Lanuvium jako syn i jedyne dziecko Tytusa Aureliusza Fulwusa, konsula roku 89 i Arrii Fadilli. Po śmierci ojca wychowywany przez dziadka ze strony matki Gnejusza Ariusza Antoninusa i przez drugiego męża matki Publiusza Juliusza Lupusa. Pomiędzy 110 a 115 rokiem poślubił Annię Galerię Faustynę Starszą, córkę konsula Marka Anniusza Werusa. Miał z nią czworo dzieci: Marka Aureliusza Fulviusa Antoninusa, Marka Galeriusza Aureliusza Antoninusa, Aurelię Fadillę, Annię Galerię Faustynę, późniejszą żonę cesarza Marka Aureliusza. Po odbyciu kwestury i pretury Antoninus uzyskał konsulat w 120 roku. Zwrócił na siebie uwagę cesarza Hadriana i został wybrany jednym z czterech prokonsulów administrujących Italią. Był członkiem cesarskiego consilium – nieformalnej rady Hadriana. Niedługo potem został prokonsulem Azji (134–135). Hadrian adoptował go 25 lutego 138, pod warunkiem usynowienia przez Antoninusa Marka Enniusza Werusa (późniejszego cesarza Marka Aureliusza), syna jego szwagra i Lucjusza Enniusza Werusa (późniejszego cesarza Lucjusza Werusa). W czasie jego panowania wybuchły powstania Żydów, Brytów i w Mauretanii. Wsławił się wzniesieniem Wału Antonina. Okres jego panowania to czas pomyślności i pokoju często zwany Pax Romana. Rozbudował fundusz alimentacyjny (alimenta dla dziewcząt) wprowadzony za Trajana, co miało poprawić stan ludnościowy Imperium. Na rządy jego i jego następcy (Marka Aureliusza) przypada schyłek najlepszego okresu w dziejach cesarstwa rzymskiego. Wstąpienie na tron Obejmując ster państwa rzymskiego 10 lipca 138, Antoninus liczył sobie 52 lata. Jego doświadczenie w sprawach publicznych było niewielkie, tak samo jak znajomość terytoriów poza Italią. Brakowało mu także obycia w sprawach wojskowych. Pierwszym oficjalnym aktem Antonina była deifikacja pośmiertna Hadriana, do której z trudem namówił Senat. Dzięki temu nowy cesarz uzyskał przydomek Pius. Cesarz na swego następcę desygnował Marka Enniusza Werusa. W 139 roku został desygnowany na kwestora, a rok później na konsula; uzyskał także tytuł cezara, władzę trybuńską i imperium prokonsularne. Antoninus Pius pozostawił większość urzędników mianowanych przez Hadriana na zajmowanych stanowiskach, dokonując tylko kilku zmian. Nowym prefektem miasta mianował Gaiusa Bruttiusa Praesensa. Stanowisko prefekta pretorianów zajmował do 157 roku Marek Gavius Maximus. Działania militarne i polityka zagraniczna Mimo że panowanie Antonina Piusa przebiegało pod znakiem powszechnego pokoju, to w latach 138–161 można odnotować kilka znaczących kampanii. Namiestnik Brytanii Quintus Lollius Urbicus najechał tereny Kaledonii, odnosząc zwycięstwa nad miejscowymi plemionami. Rozpoczęto w tym rejonie budowę nowej, umocnionej granicy na linii Clyde – Forth. Umocnienia te znane są jako Wał Antonina. Źródła donoszą o niepokojach w Dacji w latach 157–159, które wymagały wysłania tam większych sił wojskowych, prawdopodobnie w postaci oddziałów wydzielonych z legionów. Po stłumieniu niepokojów Dację podzielono na trzy odrębne prowincje. Antoninus Pius wyznaczył królów państwom klientelnym Imperium Rzymskiego, m.in. Armenii i Kwadom. W 140 roku król Iberii Kaukaskiej złożył cesarzowi wizytę w Rzymie. W latach 145–150 Cesarstwo musiało się zmierzyć z poważną rewoltą w Mauretanii. Do prowincji musiano wysłać dodatkowe oddziały pod dowództwem nowego senatorskiego namiestnika, który zastąpił ekwickich prokuratorów. W połowie lat pięćdziesiątych II w. stłumiono powstanie Brygantów w Brytanii. W Germanii Superior i Recji wybudowano nowe fortyfikacje graniczne, będące trzonem Limesu górnoreńskiego, chroniącego obszar Agri Decumates. Na wschodzie – w Syrii i Kapadocji – nastąpiły przemieszczenia legionów i wzmocnienie wojskowej obsady granicy z państwem Partów. Antonin Pius uregulował czas służby członków konnej gwardii cesarza (equites singulares augusti), którzy byli teraz zwalniani po odsłużeniu 25 lat. Polityka wewnętrzna; główne tendencje w dziedzinie społecznej, gospodarczej i religijnej Za panowania Antonina Piusa wzrosła pozycja greckich elit w Cesarstwie. Dwaj Ateńczycy Lucjusz Stacjusz Kwadratus i Herodes Atticus zostali konsulami w roku 142. W 143 roku retor Eliusz Arystydes wygłosił w Rzymie słynne przemówienie będące pochwałą Imperium Rzymskiego i rządów Antoninów. Grecy doceniali politykę cesarza w dziedzinie sądownictwa i wspierania helleńskiej edukacji. W 145 roku wykryto i zlikwidowano spisek przeciw cesarzowi zawiązany przez Korneliusza Priscianusa i Atiliusa Titianusa. Źródła informują, że po skazaniu bezpośrednich winnych cesarz zabronił dalszego śledztwa w sprawie domniemanej próby obalenia legalnej władzy. W roku 148 obchodzono hucznie dziewięćsetną rocznicę założenia Rzymu. W roku 141 cesarz polecił wybudować w Rzymie świątynię ku czci swej żony Faustyny. W 145 roku Antoninus Pius wzniósł w Rzymie świątynię boskiego Hadriana, czyli Hadrianeum. Za czasów Antoninusa Piusa żył opisany przez Lukiana z Samosat filozof i przywódca religijny działający w Grecji i Azji Mniejszej Proteusz Peregrinos. Prawdopodobnie w tych właśnie czasach w Abonuteichos w Azji Mniejszej zaczął się rozwijać kult Glykona zapoczątkowany przez Aleksandra z Abunoteichos. Najprawdopodobniej za panowania Antonina poniósł męczeńską śmierć biskup Smyrny św. Polikarp. Św. Justyn Męczennik skierował do cesarza jedną ze swych Apologii. Na lata czterdzieste II wieku datuje się także działalność Marcjona z Synopy, chrześcijańskiego przywódcy religijnego i założyciela odłamu zwanego marcjonizmem. Rozpowszechniały się kulty i religie obiecujące nieśmiertelność i zbawienie, nastawione na zaspokojenie religijnych potrzeb jednostki. Rozwijał się kult Izydy i chrześcijaństwo. Wobec chrześcijan Antoninus Pius konsekwentnie kontynuował linię polityki religijnej Hadriana. Jedynie zadenuncjowanym chrześcijanom groziła kara śmierci. Politykę ekonomiczną Antonina Piusa cechowała daleko idącą oszczędność w wydatkach państwowych. W miastach gnębionych kłopotami finansowymi niekiedy umieszczał na krótki czas specjalnych urzędników zwanych curatores rei publicae by zlikwidować problemy ekonomiczne. Założył instytucję ratio privata dla pokrywania wydatków cesarza i jego rodziny. Pozostawił swoim następcom sporą nadwyżkę w skarbie. Jego rządy są często uważane za szczytowy okres rozwoju i pomyślności Cesarstwa Rzymskiego w niemal wszystkich dziedzinach. Gospodarka państwa Rzymskiego, oparta na rolnictwie, rzemiośle i handlu osiągnęła apogeum rozwoju. Bogacące się warstwy wyższe Imperium podnosiły swój status i podkreślały zamożność poprzez fundowanie okazałych budynków w miastach na terenie całego Cesarstwa. W okresie panowania Antoninusa Piusa działał najwybitniejszy astronom i geograf starożytności Klaudiusz Ptolemeusz z Aleksandrii. Około 140 roku napisał on swoje najważniejsze dzieło: Mathematike Syntaxis, w którym sformułował główne tezy astronomii geocentrycznej. Na lata 50. II wieku przypadają także początki działalności lekarza i uczonego Galena z Pergamonu, który zaczynał swą karierę jako lekarz gladiatorów. W dziedzinie literatury zaznaczyła się działalność Apulejusza z Madaury, autora powieści Metamorfozy. Antoninus Pius cieszył się powszechnie dobrą opinią z uwagi na swoją przystępność, łaskawość, umiłowanie pokoju i wysoce moralny tryb życia. Przez większość czasu przebywał w Rzymie i nie opuszczał Italii, przyjmując delegacje z wszystkich prowincji. Ostatnie lata rządów Około 160 roku Antoninus Pius zaczął zdradzać objawy choroby. Większą liczbą obowiązków obarczał Marka Aureliusza i Lucjusza Werusa. Prefektem miasta Rzym mianował Quintusa Lolliusa Urbicusa, entuzjastę filozofii stoickiej. Umarł w 161 roku prawdopodobnie na niestrawność (anegdota mówi, że przejadł się serem). Po śmierci, jak podaje jego biograf Juliusz Kapitolinus, został jednogłośnie zaliczony przez Senat w poczet bogów. Zobacz też pięciu dobrych cesarzy dynastia Antoninów Bibliografia Goodman M., Sherwood J. 1997 The Roman World 44 B.C. – 180 A.D., London. The Cambridge Ancient History, Volume XI, The High Empire, A.D. 70–192, red. A. K. Bowman, P. Garnsey, D. Rathbone, Cambridge 2000. The Cambridge History of Greek and Roman Warfare, Volume II: Rome from The Late Republic to the Late Empire, Cambridge 2007. The Early Christian World, vol. I-III, red. P. F. Esler, London 2000. Ziółkowski A. 2005, Historia Rzymu, Poznań. Cesarze rzymscy Konsulowie Cesarstwa Rzymskiego Dynastia Antoninów Rzymscy namiestnicy Azji Urodzeni w 86 Zmarli w 161
119
https://pl.wikipedia.org/wiki/Anglowie
Anglowie
Anglowie () – lud pochodzenia germańskiego, który w V wieku n.e. najechał wraz z Sasami i Jutami Brytanię. Od nich nazwę wzięła Anglia. Po raz pierwszy wspomina o nich Tacyt (I wiek n.e.), mówiąc jako o wyznawcach bogini Nerthus. Według Bedy Czcigodnego pochodzili z prowincji Angeln w Szlezwiku. W wiekach od V do VI zamieszkiwali obszar Nortumbrii, Mercji i wschodnią oraz środkową Anglię. Zobacz też Historia Anglii historia Szkocji Historia Wielkiej Brytanii Germanie
121
https://pl.wikipedia.org/wiki/Aidan%20%28kr%C3%B3l%20Dalriady%29
Aidan (król Dalriady)
Aidan, inaczej Aedan – król Dalriady, syn Gabrana. Zmarł w 609 roku. Koronowany na wyspie Iona przez św. Kolumbę, odmówił uznania zwierzchności irlandzkiej części królestwa Dalriady. Poprowadził też armię do boju z Ethelfrithem, królem Nortumbrii i został pokonany w bitwie pod Degsastan. Dalriada (gael. Dál Riata) było gaelickim królestwem założonym przez Irlandczyków i położonym po obu stronach Kanału Północnego pomiędzy Irlandią, a Wielką Brytanią. Obejmowało część królestwa Ulaidu - Dál nAraidi, wybrzeże Szkocji od Arran i Argyll, przez Hebrydy aż po wyspę Skye. Stolicą Dalriady było Dunadd - fort zbudowany na wzgórzu nad rzeką Add leżący w środkowej części półwyspu Kintyre, na północ od Lochgilphead. Innymi ważnymi miastami królestwa były Dunoill( Dhún Ollaigh), Dunavert i Dunseverick( Dún Sobhairce). Królestwo Dalriady było miejscową potęgą morską. Aidan (urodził się prawdopodobnie około 535 roku) wywodził się z rodu Cenél nGabráin i władzę w Dalriadzie objął po śmierci swego wuja Conalla mac Comgailla, w wieku około 40 lat. Koronacji w 574 roku dokonał Święty Kolumba na wyspie Ionie. Na początku swego panowania zawarł umowę z wysokim królem Ui Néill z Cenél Conaill (tereny dzisiejszego hrabstwa Donegal, zwanego również Tyrconnel), Áeden mac Ainmuirechem przy udziale Św. Kolumby (będącego kuzynem Áedana). Na zjedzie w Drumcaet w 575 roku postanowiono, że flota Dalriady będzie wspierać Ui Néill jednak Aidan nie będzie musiał składać hołdu wysokiemu królowi. Przyczyną tej umowy był prawdopodobnie konflikt Aidan z Báetánem mac Cairillem (zm.581) królem Dál Fiatach który narzucił swą władzę Dalriadzie. Aidan miał prowadzić kampanię na wyspie Man w celu pozbycia się stamtąd Ulaidów którzy zajęli tą wyspę za czasów Báetána. Aidan miał spustoszyć też ziemię Piktów aż po Orkady będące pod władaniem Bridei I. Miał również walczy z Miathi (utożsamianymi z konfederacją plemion Maetae, prawdopodobnie byli to południowi Piktowie.). Kampania ta zakończyła się sukcesem w bitwie pod Leithereid, mimo śmierci dwóch synów Aidana, Artura i Eochaida Find. Przez wiele lat Aidan pozostawał w sojuszu z Rhydderychem Haelem, królem Alt Clud, jednego z północnych królestw Brytów znanego później jako Strathclyde. Brał również udział w organizowanej przez króla Rhegedu Uriena koalicji skierowanej przeciwko anglosaskiej Bernicji. Aidan miał zaatakować królestwo Rhydderycha i splądrować Alt Clud (dzisiejsze Dumbarton). Kolejny raz Alt Clud zdobyli dopiero wikingowie blisko 300 lat później. Aidan był zaniepokojony postępami króla Bernicji Ethelfirtha, który w 600 roku w bitwie pod Catraeth rozgromił armię Goddodin. Do konfrontacji dwóch władców doszło w 603 roku pod Degsastan. Aidan mimo zgromadzenia potężnej armii poniósł sromotną klęskę w bitwie z Ethelfirthem i musiał uciekać. Klęska pod Degsastan złamała potęgę Dalriady, i jak pisał Beda Czcigodny "żaden wódz z irlandzkiego rodu nigdy potem już nie odważył się wypowiedzieć wojny Anglikom". Ethelfirth mimo że w bitwie stracił brata znacząco wzmocniło swą pozycję i rok później zajął Deirę stając się pierwszym królem zjednoczonej Nortumbrii. Aidan przeżył jeszcze kilka lat i zmarł 17 kwietnia 609 roku mając wedle przekazów 74 lata. Władcą Dalriady został po nim jego syn Eochaid Buide. Potęga morska Dalriady bardzo się przydała gdy królestwo to poniosło kolejną klęskę na lądzie po Degsastan, a mowa tu o bitwie pod Magh Rath, stoczonej w 637 roku (jednej z większych bitew jaka miała mieć miejsce na terytorium Irlandii)w której wnuk Aidana, Domnall Brecc został pokonany przez Wysokiego Króla Irlandii Domnalla mac Áedo. Dalriada utraciła wtedy ziemię w Irlandii, jednak dzięki swej morskiej potędze przetrwała kolejne wieki mimo popadnięcia w zależności najpierw od Nortumbrii, a później od Piktów. Ostatecznie Dalriade połączył z Piktami Kenneth MacAlpin tworząc królestwo Alby czyli Szkocję. Według jednej z teorii Aidan mógł być Arturem, gdyż mogło dojść do błędnego odczytania nazw krain geograficznych. Damnonia brzmi podobnie do Dumnonii, a skałę z Tintagel można by pomylić ze "Skałą" z Dumbarton, czyli Alt Clud która była kiedyś nazywana Castrum Arthuri, zaś dokonania Aidan mogły być podstawą to stworzenia legendy o Arturze Przypisy Zobacz też kalendarium historii Szkocji święty Aidan. Władcy Dalriady Urodzeni w VI wieku Zmarli w VII wieku
123
https://pl.wikipedia.org/wiki/Autostereotyp
Autostereotyp
Autostereotyp – stereotyp, wyobrażenie o sobie lub własnej grupie społecznej lub narodowej, tak pozytywne, jak i negatywne, o jej zaletach i wadach. Samoocena własnej grupy, do której przyrównujemy przedstawicieli innych grup. W badaniach przeprowadzonych przez CBOS w 2015 roku wśród Polaków wskazano na następujące cechy: pracowitość (25%) malkontenctwo (17%) dobroć (12%) Przypisy Bibliografia Tygodnik „Polityka”: Polacy o sobie samych Stereotypy
125
https://pl.wikipedia.org/wiki/Alfabet%20%C5%82aci%C5%84ski
Alfabet łaciński
Alfabet łaciński, pismo łacińskie, łacinka, alfabet rzymski – alfabet, system znaków służących do zapisu większości języków europejskich oraz wielu innych. Jest najbardziej rozpowszechnionym alfabetem na świecie – posługuje się nim około 35% ludzkości. W odróżnieniu od greckiego jest de facto abecadłem – ponieważ jego pierwsze litery to: a, b, c, d – a nie alfa i beta. Wywodzi się z systemu służącego do zapisu łaciny. Opis Kształtowanie się alfabetu Alfabet łaciński wywodzi się z alfabetu etruskiego, początkowo składał się z 21 znaków: Litera Z została usunięta w IV wieku p.n.e. jako niepotrzebna do zapisu łaciny przez cenzora Appiusza Klaudiusza Caecusa. Początkowo litera C służyła do oddawania zarówno głoski /k/, jak i głoski /g/, jednocześnie spółgłoskę /k/ można było oddać za pomocą litery K, jednak taka pisownia była bardzo mało popularna. Dwuznaczne użycie litery C prowadziło do nieporozumień, dlatego też w końcu III wieku p.n.e. wprowadzono literę G, która jest graficznym wariantem litery C – jako autor tej zmiany często wskazywany jest Spurius Carvilius Ruga. Od tamtej pory litera C oznaczała wyłącznie głoskę /k/. Zmiana ta spowodowała także ograniczenie stosowania litery Q, a K prawie zupełnie wyszła z użycia. Wczesnym rzymskim wynalazkiem była litera V, dla dźwięku, który nie był obecny we wcześniejszych językach. Szybko dodano także do łacińskiego alfabetu literę X, która oddawała dźwięk /ks/ zapisywany w języku greckim znakiem Ξ, a używaną w grece do zapisu głoski nieobecnej w łacinie. Litery Y oraz Z zostały dodane w I wieku p.n.e. w celu dokładnego oddawania na piśmie wyrazów greckich, stąd nazwa „igrek” (od ī Graeca – „greckie i”). Cesarz Klaudiusz wprowadził do alfabetu nowe litery Ↄ (dla głosek /bs/ i /ps), Ⅎ (dla głoski /u/) i Ⱶ (dla głoski pośredniej między /i/ a /u/), jednak po jego śmierci zaprzestano ich używania. Początkowo litera V oznaczała zarówno samogłoskę /u/, jak i spółgłoskę /u̯/, ale z czasem wymowa spółgłoski przeszła w kierunku /w/. W średniowieczu pojawia się litera W powstała z podwojonego V (stąd angielska nazwa W – double U), która oznaczała pierwotnie głoskę /ł/, ale w niektórych językach zaczęła wtórnie oznaczać spółgłoskę /w/. Jednak litera ta była pierwotnie po prostu ligaturą stosowaną zamiast sekwencji VV, co oznacza sylabę „wu” – i stąd pochodzi jej polska nazwa. W połowie XVI wieku litera I, oznaczająca do tej pory zarówno samogłoskę, jak i półsamogłoskę została rozróżniona na I oraz J. Analogicznego rozróżnienia dokonano dla V, litera ta „rozpadła się” na U dla samogłoski oraz V dla półsamogłoski (lub spółgłoski). System obecnie zawiera 26 znaków. Ponieważ nie jest to układ odpowiadający każdemu językowi, wersje alfabetu łacińskiego dla większości języków dodają nowe znaki – głównie przez modyfikowanie istniejących. Są dwa zestawy znaków – małe i duże litery, przy czym zasady użycia to: czasem pisze się całość wyrażenia wielkimi literami (np. szyldy) lub małymi, w innych przypadkach wyrazy pisane wyłącznie wielkimi literami to głównie skrótowce, niektóre pisze się systemem mieszanym (np. niemieckie GmbH lub polskie SdPl), końcówki gramatyczne skrótowców pisze się zwykle małymi literami (np. IRC-a), pierwsza litera zdania to zawsze wielka litera, niektóre wyrazy pisze się systemem – pierwsza litera wielka, wszystkie pozostałe małe. Są to wszystkie nazwy własne oraz niektóre inne wyrazy, zależnie od konwencji ortograficznych danego języka. Zdarzają się jednak odstępstwa od tych ogólnych prawideł: np. w języku irlandzkim przedrostek pisany jest małą literą, a właściwa nazwa wielką np. an tSionna (rzeka Shannon). Niemieckie przepisy ortograficzne nakazują natomiast zapisywać wielką literą wszystkie rzeczowniki. Wiele systemów zapisu opartych na piśmie łacińskim używa „dwuznaków” (a nawet „trójznaków” itd.), czyli grup znaków łacińskich oznaczających pojedynczy dźwięk (głoskę). W niektórych tradycjach pary znaków traktuje się jako pełnoprawne, osobne znaki, np. czeski znak CH czy hiszpański znak LL. Kolejność liter w alfabetach opartych na piśmie łacińskim Kolejność liter w alfabetach opartych na piśmie łacińskim jest różna: W języku azerskim jest 7 dodatkowych liter (4 samogłoski: ı, ö, ü, ə i 3 spółgłoski: ç, ş, ğ). Alfabet jest taki sam jak w języku tureckim z wyjątkiem trzech liter (q, x, ə). Litery te umieszczone są w alfabecie po literach im zbliżonych. I tak q jest po k, x (wymawiane jak ch) po h, a ə po e; W języku bretońskim nie używa się osobnej litery c, ale są używane dwuznaki ch, c’h, które są umieszczane pomiędzy b a d, np. buzhugenn, chug, c’hoar, daeraouenn (dżdżownica, sok, siostra, łza); W języku czeskim litery á, é, ě, í, ó, ú, ů, ý, ď, ť, ň są traktowane jako warianty liter odpowiednio a, e, i, o, u, y, d, t, n. Dopiero gdy uporządkuje się dwa wyrazy różniące się jedynie wyżej wymienionymi literami, wtedy litery bez znaków diakrytycznych poprzedzają diakrytyzowane. Przykładowy porządek leksykograficzny: baa, baá, báa, bab, báb, bac, bác, bač, báč. Pozostałe litery diakrytyzowane, a więc: č, š, ž, a także digraf ch są traktowane jako osobne litery w następującej kolejności: c, č, ..., h, ch, i, ..., s, š, ..., z, ž; Język dolnołużycki posiada kilka liter dodatkowych, występują one zazwyczaj po literze, z której pochodzą. Wyjątkiem jest tutaj litera ł, która występuje przed literą l (taka sama sytuacja jest w języku górnołużyckim, a odwrotna niż w języku polskim, gdzie ł występuje po l). Digraf ch jest traktowany jak osobna litera. W użyciu jest także litera ó (oznacza dźwięk y/i, e w zależności od regionu), lecz jej stosowanie nie jest obowiązkowe. Kolejność liter jest następująca: a, b, c, č, ć, d, e, ě, f, g, h, ch, i, j, k, ł, l, m, n, ń, o, [ó], p, r, ŕ, s, š, ś, t, u, w, y, z, ž, ź; W języku duńskim i norweskim dodatkowe litery umieszczone są na końcu alfabetu: ..., x, y, z, æ, ø, å. Jako odpowiednik litery å jest traktowany digraf aa. W języku duńskim litera w była traktowana jako wariant litery v, obecnie jest uważana za osobną literę; Esperanto ma kilka liter dodatkowych, które w alfabecie występują po literach, z których pochodzą, tak więc: ..., c, ĉ, d, e, f, g, ĝ, h, ĥ, i, j, ĵ, ..., s, ŝ, t, u, ŭ, v, z. W języku estońskim dodatkowe litery õ, ä, ö i ü są szeregowane po literze w. Litery š, z i ž, występujące tylko w słowach zapożyczonych i obcych nazwach własnych, znajdują swoje miejsce po literze s; Język farerski ma litery charakterystyczne dla języków skandynawskich, mianowicie: æ i ø. Ponadto używana jest litera ð w alfabecie umieszczona po literze d. Litery á, í, ó, ú, ý są uznawana za odrębne litery (porządkowane są po odpowiednich literach niediakrytyzowanych). Litery c, q, w, x i z nie występują w alfabecie. Alfabet można przedstawić więc schematycznie: a, á, b, d, ð, ..., i, í, ..., o, ó, ..., u, ú, ..., v, y, ý, æ, ø; W języku fińskim dodatkowe litery å, ä, ö są umiejscowione na końcu alfabetu. Litera å jest włączona do alfabetu dla poprawnego zapisu nazwisk i nazw pochodzenia szwedzkiego. Ponadto występują litery zapożyczone z alfabetu czeskiego dla oddania dźwięków obcych językowi fińskiemu, są to š i ž umieszczane odpowiednio po literach s i z. Litery ä i ö nie mogą być zastąpione, jak w języku niemieckim, digrafami ae i oe, jeżeli nie ma możliwości poprawnego zapisu, należy w zastępstwie użyć liter a bądź o; Język górnołużycki posiada kilka liter dodatkowych, występują one zazwyczaj po literze, z której pochodzą. Wyjątkiem jest tutaj litera ł, która występuje przed literą l (taka sama sytuacja jest w języku dolnołużyckim, a odwrotna niż w języku polskim, gdzie ł występuje po l). Do niedawna (2005) litera ć występowała po literze t, obecnie jest szeregowana po č. digrafy dź i ch są traktowane jak osobne litery. Kolejność liter jest następująca: a, b, c, č, ć, d, dź, e, ě, f, g, h, ch, i, j, k, ł, l, m, n, ń, o, ó, p, q, r, ř, s, š, t, u, v, w, x, y, z, ž; Do niedawna język hiszpański miał dwa digrafy: ch porządkowany po literze c i ll – po literze l. Od 1997 roku według RAE nie są to już digrafy, słowa zaczynające się od ll są umieszczane między lk a lm, podobnie ch jest porządkowane pomiędzy cg i ci. Litera ñ jest umieszczona w alfabecie po literze n. W hiszpańskiej wersji gry Scrabble nie można jednak, według FISE, używać osobno litery c i h jako ch bądź dwóch l lub r jako odpowiednio ll i rr; W języku islandzkim występują litery þ, æ i ö na końcu alfabetu, ponadto litera ð po d. Diakrytyzowane litery á, é, í, ó, ú i ý porządkowane są odpowiednio po literach a, e, i, o, u i y. W alfabecie nie występują litery c, q, w oraz z, alfabet więc kończy się literami: ..., ý, þ, æ, ö; Język kaszubski używa kilku dodatkowych liter, są one umieszczone po literach niediakrytyzowanych i są traktowane jako osobne litery (nie warianty liter). Digrafy są traktowane jako dwie litery, nie jako jedna litera. Porządkowanie alfabetyczne ma postać: a, ą, ã, b, c, d, e, é, ë, f, g, h, i, j, k, l, ł, m, n, ń, o, ò, ó, ô, p, r, s, t, u, ù, w, y, z, ż; W języku litewskim litery diakrytyzowane występują po literach, z których pochodzą. Ciekawostką jest to, że litera y występuje bezpośrednio przed j. Alfabet litewski ma więc postać: a, ą, b, c, č, d, e, ę, ė, f, g, h, i, į, y, j, k, l, m, n, o, p, r, s, š, t, u, ų, ū, v, z, ž; W języku łotewskim litery diakrytyzowane występują po literach, z których pochodzą. Alfabet łotewski ma postać: a, ā, b, c, č, d, e, ē, f, g, ģ, h, i, ī, j, k, ķ, l, ļ, m, n, ņ, o, p, r, s, š, t, u, ū, v, z, ž; W języku maltańskim nie występuje litera c, ale występuje litera pochodna ċ. Litera ġ występuje przed literą g, podobnie ż przed z. Digrafy għ i ie są traktowane jako osobne litery. Alfabet maltański: a, b, ċ, d, e, f, ġ, g, għ, h, ħ, i, ie, j, k, l, m, n, o, p, q, r, s, t, u, v, w, x, ż, z; W języku niderlandzkim digraf ij był dawnej traktowany jako odmiana litery y. Czasem był traktowany jako osobna litera występująca po literze y (..., x, y, ij, z). Obecnie jest traktowany najczęściej jako dwie litery (..., ii, ij, ik, ...). Wyjątkiem są książki telefoniczne, gdzie ij jest traktowane jako wariant y. Warto pamiętać, że pisząc ten digraf wielką literą należy tak pisać oba składniki, np. IJmuiden, IJssel; W języku niemieckim występują dodatkowe litery ä, ö, ü, ß. Litery ä, ö i ü są traktowane jako odmiany liter a, o i u. Litera ß jest traktowana jako litery ss. Gdy nie można użyć poprawnych liter należy zawsze oddawać ä jako ae, ö – oe, ü – ue, ß – ss lub (rzadziej) sz – czyni się tak bowiem, gdyż litery te pochodzą z digrafów; W języku polskim dodatkowe znaki są traktowane jako osobne litery. Digrafy są traktowane jako dwie litery, nie jako jedna litera. Litery q, v i x nie zawierają się w abecadle, natomiast są stosowane wyłącznie do zapisu obcych nazw własnych i w zapożyczeniach. Polski alfabet wygląda następująco: a, ą, b, c, ć, d, e, ę, f, g, h, i, j, k, l, ł, m, n, ń, o, ó, p, r, s, ś, t, u, w, y, z, ź, ż; W języku rumuńskim litery dodatkowe porządkowane są po literach, z których pochodzą. Warto pamiętać o poprawnej postaci dwóch rumuńskich liter: ș, a nie ş; ț, a nie ţ. Schemat alfabetu rumuńskiego: a, ă, â, ..., i, î, ..., s, ș, t, ț, ..., z; W języku serbsko-chorwackim jest pięć dodatkowych liter i trzy digrafy, w porządku alfabetycznym występują po literach, z których powstały: ..., c, č, ć, d, dž, đ, e, ..., l, lj, m, n, nj, o, ..., s, š, t, ..., z, ž. W odmianie czarnogórskiej dodatkowo występują litery ś i ź; Język słowacki ma kilka dodatkowych liter. Litery á, ä, ď, é, í, ĺ, ľ, ň, ó, ô, ŕ, ť, ú, ý są traktowane jako odmiany odpowiednich liter niediakrytyzowanych. Pozostałe litery diakrytyzowane, a więc: č, š, ž, a także digrafy dz, dž, ch są traktowane jako osobne litery. Alfabet słowacki jest więc następujący: a (á, ä), b, c, č, d (ď), dz, dž, e (é), f, g, h, ch, i (í), j, k, l (ĺ, ľ), m, n (ň), o (ó, ô), p, r (ŕ), s, š, t (ť), u (ú), v, x, y (ý), z, ž; W języku słoweńskim występują trzy dodatkowe litery: č, š oraz ž. W porządku alfabetycznym umieszczane są, odpowiednio, po c, s i z; Język szwedzki ma dodatkowe trzy litery umieszczane na końcu alfabetu: ..., x, y, z, å, ä, ö. Litera w była do niedawna uważana za wariant litery v. W 13. wydaniu Svenska Akademiens Ordlista (2006) w jest traktowane jako osobna litera; Język turecki ma sześć dodatkowych liter, umieszczonych po literach podstawowych (3 samogłoski: ı, ö, ü i 3 spółgłoski: ç, ş, ğ). Â, Î i Û są traktowane jako warianty liter A, İ i U. Po zmianie alfabetu z arabskiego w 1928 r. Q, W i X, do 30 września 2013 r., były nielegalne w Turcji; Język turkmeński ma kilka dodatkowych liter, które występują po literach, od których pochodzą (oprócz Ä, które jest umieszczone po E, i Ž, które jest umieszczone po J). Alfabet nie zawiera liter C (chociaż istnieje pochodna, Ç), Q, V i X. Alfabet ma postać: A, B, Ç, D, E, Ä, F, G, H, I, J, Ž, K, L, M, N, Ň, O, Ö, P, R, S, Ş, T, U, Ü, W, Y, Ý, Z; W języku walijskim digrafy ch, dd, ff, ng, ll, ph, rh i th są uznawane za odrębne litery i porządkowane są po literze, która jest pierwszą w digrafie (np. ph po p) z wyjątkiem ng, które jest umieszczane po literze g. Należy pamiętać, że w słowach złożonych może się zdarzyć, że litera kończąca pierwsze słowo i zaczynająca drugie mogą utworzyć jedną z powyższych kombinacji, jednak nie jest to wtedy digraf; W języku węgierskim litery á, é, í, ó, ú, ö, ő, ü i ű są traktowane jako osobne litery. Jako odrębne litery są także uważane digrafy: cs, dz, gy, ly, ny, sz, ty, zs i trigraf dzs. Litera y występuje tylko w digrafach. Alfabet węgierski ma więc postać: a, á, b, c, cs, d, dz, dzs, e, é, f, g, gy, h, i, í, j, k, l, ly, m, n, ny, o, ó, ö, ő, p, q, r, s, sz, t, ty, u, ú, ü, ű, v, w, x, y, z, zs. Pisownia łacińska języków ideograficznych język chiński – Hanyu pinyin, Wade-Giles język japoński – rōmaji (kilka systemów: Hepburn, Kunrei i inne) Zobacz też chronostych kabalistyczny zapis dat Przypisy Język łaciński
126
https://pl.wikipedia.org/wiki/Albert%20Einstein
Albert Einstein
Albert Einstein (wym. ) (ur. 14 marca 1879 w Ulm, zm. 18 kwietnia 1955 w Princeton) – fizyk teoretyk, noblista, obywatel Szwajcarii i USA pochodzenia niemiecko-żydowskiego. Profesor różnych placówek w Szwajcarii, Austro-Węgrzech, Niemczech i USA: Uniwersytetu w Zurychu, Uniwersytetu Karola w Pradze, Politechniki Federalnej w Zurychu (ETHZ), Uniwersytetu Berlińskiego i Instytutu Badań Zaawansowanych (IAS) w Princeton. Einstein zrewolucjonizował zarówno mechanikę, jak i teorię pola, głównie w wersji klasycznej, choć odegrał też kluczową rolę dla mechaniki kwantowej. Laureat Nagrody Nobla w dziedzinie fizyki za 1921 rok, w uznaniu za „wkład do fizyki teoretycznej, zwłaszcza opis prawa efektu fotoelektrycznego”. Einstein to twórca szczególnej teorii względności, która ulepszyła mechanikę Newtona i zastąpiła w tej korekcyjnej roli teorię eteru Lorentza. Autor wynikającej z STW równoważności masy i energii, czasem formułowanej słynnym wzorem E = mc2. Został on potwierdzony przez reakcje subatomowe, np. jądrowe; doprowadziło to do rewizji zasady zachowania masy, samego pojęcia materii i otworzyło epokę jądrowej broni oraz energetyki. Twórca ogólnej teorii względności, która połączyła newtonowskie prawo powszechnego ciążenia z nową mechaniką. Nie była to jedyna ani nawet pierwsza synteza tego typu, jednak OTW w odróżnieniu od konkurencji okazała się poprawna, zostając nowym paradygmatem w opisie grawitacji. Einstein oparł na swojej teorii pierwsze modele kosmologiczne oraz pierwsze przewidywania grawitacyjnych fal czasoprzestrzeni. Wprowadził też do niej opcjonalną stałą kosmologiczną, która później okazała się możliwym wyjaśnieniem ciemnej energii. Teoria Einsteina dzięki tym i innym wynikom doprowadziła do rozkwitu astrofizyki w XX wieku. Naukowiec przewidział również istnienie fotonu – postulując dualizm korpuskularno-falowy światła. Było to poprawne wyjaśnienie efektu fotoelektrycznego, przewidujące też nowe zjawiska jak efekt Comptona, które ostatecznie potwierdziło cząstki światła. Hipoteza Einsteina umożliwiła też innym fizykom stworzenie właściwej mechaniki kwantowej – dzięki przeniesieniu tej dualistycznej koncepcji na elektron przez de Broglie’a. Jednocześnie Einstein był czołowym krytykiem najczęstszej, kopenhaskiej interpretacji kwantów i współautorem paradoksu EPR. Wprowadzone w nim pojęcie splątania kwantowego umożliwiło nie tylko badanie kwantowych fundamentów i możliwości ewentualnej rewizji tej teorii; otworzyło też całą dyscyplinę informatyki kwantowej. Odkrywca emisji wymuszonej, na której opierają się lasery. Opisał też statystykę Bosego-Einsteina i możliwość istnienia kondensatu Bosego-Einsteina – czasem nazywanego piątym stanem skupienia, łamiącego intuicyjne własności materii jak nieprzenikliwość. Einstein przysłużył się też innym dziedzinom fizyki jak klasyczna mechanika statystyczna – jego model ruchów Browna dostarczył koronnych dowodów teorii atomistycznej. Badania Einsteina nad materią skondensowaną obejmowały też teorię ciała stałego. Jego prace nad zunifikowaną teorią oddziaływań nie spełniły oczekiwań, jednak znalazły odzwierciedlenie w późniejszych, potencjalnie prawdziwych modelach pól i cząstek jak teoria strun. Dzięki tym osiągnięciom Einstein jest uważany za jednego z największych fizyków XX wieku lub największego z nich; szczyty rankingów dzieli z innymi ojcami fizyki kwantowej jak Paul Dirac, Werner Heisenberg czy Erwin Schrödinger. Jego ogólna teoria względności jest uważana za jeden z największych przełomów w fizyce XX wieku, obok wspomnianej teorii kwantów. Ponadto Einstein jest uznawany za jednego z największych fizyków w całej historii, obok Newtona, Maxwella czy Galileusza. W 1999 r. czasopismo naukowe „Physics World” w gronie 100 wiodących fizyków przeprowadziło ankietę. Jako największego fizyka wszech czasów wskazano właśnie Einsteina. W tym samym roku portal „PhysicsWeb” zorganizował sondaż, który przyznał Einsteinowi drugie miejsce. W 1999 r. Einstein był też uznany za człowieka stulecia według amerykańskiego tygodnika „Time”. Ten wybitny fizyk miał też wkład do filozofii nauki, popularyzacji fizyki i jej historii oraz zajmował się aktywizmem politycznym. Jego teorie wywarły również wpływ na rozwój XX-wiecznej matematyki, zwłaszcza geometrii różniczkowej z analizą na rozmaitościach, topologii różniczkowej i teorii grup Liego. Kariera Einsteina trwała przeszło pół wieku; przez ten czas opublikował ponad 450 prac, w tym przeszło 300 naukowych. Życiorys Dzieciństwo i rodzina Albert Einstein urodził się w piątek 14 marca 1879 r. o godzinie 11:30 w domu przy Bahnhofstrasse B nr 135 w mieście Ulm położonym w Wirtembergii na południu Niemiec. Jego matką była Paulina Einstein (z domu Koch), a ojcem – Hermann Einstein. Oboje byli Żydami. Hermann Einstein handlował pierzynami. Później jego brat Jacob namówił go do wspólnego założenia zakładu produkującego instalacje gazowe i wodno-kanalizacyjne. W 1881 r. cała rodzina przeniosła się do Monachium, gdzie powstał zakład. Tam też 18 listopada 1881 r. urodziła się Maria – jedyna siostra Einsteina. Albert Einstein pierwszy raz zetknął się z nauką, gdy miał pięć lat. Jego ojciec pokazał mu kompas, którego działanie wywarło na nim „głębokie i trwałe wrażenie”. W tym czasie Einstein rozpoczął naukę w domu. Ponieważ jego matka była muzykiem, Albert w wieku sześciu lat zaczął uczyć się gry na skrzypcach. Lekcje gry pobierał do trzynastego roku życia. Grał do późnej starości, dopóki nie zaczęło mu to sprawiać zbyt dużego trudu. Kształcenie szkolne W 1886 r. zaczął uczęszczać do szkoły powszechnej, gdzie był jednym z najlepszych uczniów. Od 1888 r. chodził do katolickiego Gimnazjum Luitpolda w Monachium, gdzie również odnosił sukcesy. Firma Einsteinów zaczęła podupadać, a w 1894 r. rodzina przeniosła się do Mediolanu. Syna pozostawiono w Monachium, pod opieką członków dalszej rodziny, dla ukończenia szkoły. Według Marii Einstein jej brat w tym okresie stał się nerwowy. Pojawiły się nawet objawy depresji. Pół roku po wyjeździe rodziców Einstein wypisał się ze szkoły i dołączył do rodziców w Mediolanie, gdzie sam przygotowywał się do wstąpienia na uniwersytet. W październiku 1895 r. przyjechał do Zurychu, gdzie przystąpił do egzaminu wstępnego na tamtejszą politechnikę (ETHZ). Potrzebował na to specjalnego pozwolenia, gdyż brakowało mu dwóch lat do minimalnego dopuszczalnego wieku. Próba zdania egzaminu zakończyła się niepowodzeniem. Powodem były słabe wyniki egzaminów z przedmiotów humanistycznych. Za radą dyrektora ETHZ Einstein postanowił spędzić rok w Aarau w Szwajcarii, by ukończyć szkołę średnią. We wrześniu 1896 r. zdał tam maturę. Uzyskał dobre oceny z niemal wszystkich przedmiotów – zwłaszcza ze śpiewu i muzyki oraz fizyki i matematyki. W tym samym roku zrzekł się obywatelstwa niemieckiego. Zrobił to najprawdopodobniej w celu uniknięcia służby wojskowej lub na znak protestu przeciwko nastrojom militarnym panującym wówczas w Niemczech. Bez przynależności państwowej przystąpił ponownie do egzaminów na ETHZ, które tym razem zdał. Jednocześnie do tej samej sekcji przyjęto Milevę Marić, która później wywarła duży wpływ na życie Einsteina. Eksperyment myślowy ze światłem Jest możliwe, że Einstein w wieku 16 lat (ok. 1895) rozważał ważny eksperyment myślowy. Wspomniał o tym publicznie po raz pierwszy ponad pół wieku później, w swoich Notach autobiograficznych z 1946. Młody Albert miał się zastanawiać, co by się stało przy ruchu z prędkością światła. Wówczas fale elektromagnetyczne takie jak światło stałyby nieruchomo w miejscu, nie wykazując żadnego ruchu. Miałoby to przeczyć zarówno intuicji, jak i równaniom Maxwella. Ta anegdota jest trudna do zinterpretowania z różnych powodów: Einstein w tym wieku prawdopodobnie nie znał jeszcze równań Maxwella. Być może później Einstein zwrócił uwagę, że sam eksperyment myślowy znał już w wieku 16 lat, a (późniejsza) znajomość równań Maxwella utwierdziła go w niedorzeczności takiego wyniku. Ten wynik eksperymentu myślowego nie stanowi większego problemu dla teorii eteru. Były one wówczas powszechnie uznawane i młody Einstein prawdopodobnie w nie wierzył. Brak obserwacji „zamrożonych” fal można wytłumaczyć tym, że Ziemia porusza się względem eteru z prędkością dużo mniejszą od tej światła w próżni. Niewykluczone, że ten eksperyment myślowy odegrał dużą rolę kilka lat później, kiedy Einstein pracował nad balistyczną (emisyjną) teorią światła. Dla teorii tego typu ten eksperyment myślowy prowadzi do poważnych trudności; przez to mógł się przyczynić do porzucenia przez Einsteina tych prac i do powstania szczególnej teorii względności. Czasami przypisuje się też młodemu Einsteinowi inny eksperyment myślowy – gdyby obserwator trzymający lustro poruszał się z prędkością c względem eteru, jego obraz w lustrze by zniknął. Najprawdopodobniej te legendy to wynik nieporozumienia i zmiany pierwotnego pomysłu Einsteina, opisanego powyżej. Studia i pierwszy ślub W czasie studiów Einstein zakochał się z wzajemnością w Milevie Marić, co nie podobało się jego matce. W lipcu 1900 r. oboje zakochanych przystąpiło do zdawania egzaminów końcowych. Albert je zdał, w przeciwieństwie do Milevy. Wtedy też młody Einstein opublikował swoją pierwszą pracę naukową – dotyczyła zjawiska włoskowatości. W 1901 r. Mileva zaszła w ciążę. Na czas porodu udała się do rodzinnej Serbii i urodziła tam córkę o imieniu Lise (zdrobniale Lieserl). Oddano ją po cichu do adopcji i jej dalsze losy są nieznane. Albert najprawdopodobniej nigdy jej nie zobaczył. 21 lutego 1901 r. Einstein przyjął obywatelstwo szwajcarskie. Mając już dyplom wykładowcy nauk ścisłych, zaczął szukać pracy. Starał się bezskutecznie o asystenturę u wykładającego w ETHZ Webera, a później u Hurwitza i Wilhelma Ostwalda. Dopiero w maju 1901 r. został zatrudniony na krótko jako zastępca nauczyciela w szkole średniej w Winterthur w Szwajcarii. W tym czasie zajmował się tam ruchem materii względem eteru i kinetyczną teorią gazów. Od października 1901 r. do stycznia 1902 r. uczył w prywatnej szkole w Schaffhausen, a równolegle pracował nad swoją pracą doktorską dotyczącą kinetycznej teorii gazów. W lutym 1902 r. przeprowadził się do Berna, gdyż spodziewał się dostać stałą pracę w Szwajcarskim Urzędzie Patentowym w Bernie. Utrzymywał się z udzielania korepetycji. W czerwcu został zatrudniony na okres próbny jako ekspert techniczny trzeciej klasy w urzędzie patentowym, a trzy miesiące później zatrudniono go na stałe. 10 października 1902 r., wskutek choroby serca, zmarł ojciec Einsteina. 6 stycznia 1903 r. Albert Einstein i Mileva Marić wzięli w Bernie ślub cywilny. 14 maja 1904 r. urodził się pierwszy syn Einsteina, Hans Albert, który później również został wybitnym uczonym. Kolejny syn, Eduard, urodził się 28 lipca 1910. Cudowny rok 1905 Od młodości Einstein pracował nad uzgodnieniem elektrodynamiki Maxwella z zasadą względności. W tym celu pracował nad emisyjną teorią światła, opartą prawdopodobnie na potencjałach opóźnionych. Porzucił jednak te próby. Pewną rolę mógł w tym odegrać jego młodzieńczy eksperyment myślowy z gonieniem fali światła. Kiedy Einstein zrozumiał względność jednoczesności, prawdopodobnie pod wpływem prac Lorentza, zmienił strategię – zamiast modyfikować elektrodynamikę Maxwella, zrewidował podstawy mechaniki Newtona. To doprowadziło go potem do szczególnej teorii względności. Równolegle Einstein prowadził badania nad termodynamiką i fizyką statystyczną promieniowania. Prawdopodobnie to doprowadziło go do pojęcia cząstek światła, użytych potem przy wyjaśnieniu efektu fotoelektrycznego. Pomysł cząstek światła mógł być też związany z jego wczesnymi pracami nad teorią emisyjną. Rok 1905 jest określany jako Annus mirabilis (cudowny rok) Einsteina. Był wtedy szwajcarskim urzędnikiem patentowym, niedawnym absolwentem fizyki, a jego dorobek obejmował tylko kilka publikacji. Był przez to mało znany w środowisku fizyków. Mimo to opublikował 5 prac, z których przynajmniej część była przełomowa. Jego publikacja Zur Elektrodynamik bewegter Körper (O elektrodynamice ciał w ruchu) wprowadziła nową teorię, nazwaną później szczególną teorią względności (STW). Dzięki nowemu spojrzeniu na czas i przestrzeń STW pogodziła elektrodynamikę Maxwella z zasadą względności, bez modyfikowania tej pierwszej ani odwoływania się do budowy materii. STW wyjaśniała też obserwowaną niezależność prędkości światła w próżni od obserwatora. Einstein rozwinął STW w innej pracy z tego samego roku, gdzie poprawnie przewidział równoważność masy i energii. To ten fakt został potem wyrażony przez słynny wzór E=mc2. Einstein wyjaśnił też efekt fotoelektryczny, zaobserwowany w 1888 roku przez Philipa Lenarda. Przyjął, że światło oddziałuje z materią w postaci cząstek – nazwanych później fotonami. To właśnie to wyjaśnienie – a nie teoria względności – było potem głównym powodem przyznania mu Nagrody Nobla. Pracę Einsteina można uznać za rozwinięcie koncepcji Plancka kwantów energii, choć mogły się rozwijać niezależnie. W swoim cudownym roku Einstein napisał też rozprawę doktorską pod tytułem O nowej metodzie wyznaczania rozmiarów molekuł (przyjętą 19 sierpnia na Uniwersytecie w Zurychu) oraz wyjaśnił i opisał ruchy Browna. Mimo wielkiego znaczenia, jego prace nie zostały początkowo docenione. W 1906 r. Einstein został awansowany na stanowisko eksperta technicznego drugiej klasy, jednak nie przestawał zajmować się fizyką. W 1907 r. sformułował zasadę równoważności. Później nazwał ją „najszczęśliwszą myślą swojego życia”, ponieważ była przełomowym punktem w jego pracach nad ogólną teorią względności. Początki kariery akademickiej W grudniu 1908 r. Einstein napisał do Uniwersytetu w Bernie podanie o przyjęcie na stanowisko privatdozenta. Privatdozent nie otrzymywał wynagrodzenia z uczelni, a utrzymywał się z drobnych wpłat studentów. Był to jednak etap konieczny w karierze uczelnianej. Einstein uzyskał to stanowisko 28 lutego 1909 r. Nie pozwalało mu ono zarobić na życie, więc nie zrezygnował z pracy w urzędzie patentowym. W marcu 1909 r. Einstein został profesorem nadzwyczajnym fizyki teoretycznej na uniwersytecie w Zurychu, na którym wcześniej obronił doktorat. W tym samym roku został doktorem honoris causa Uniwersytetu Genewskiego. W latach 1909–1911 napisał jedenaście artykułów naukowych dotyczących fizyki teoretycznej. W 1910 r. pierwszy raz zgłoszono go jako kandydata do Nagrody Nobla. W 1911 r. Einstein został profesorem zwyczajnym na Uniwersytecie Niemieckim w Pradze. Półtora roku później wrócił na macierzystą ETHZ jako profesor zwyczajny. W latach 1911–1912 Einstein otrzymywał wiele ofert zatrudnienia z różnych uniwersytetów, w tym z Uniwersytetu w Utrechcie. Wiosną 1913 r. Max Planck i Walther Nernst złożyli mu potrójną propozycję: przyjęcie członkostwa Pruskiej Akademii Nauk (Preusissche Akademie der Wissenschaftlen), profesurę Uniwersytetu Berlińskiego z prawem, ale bez obowiązku wykładania, stanowisko dyrektora mającego powstać Instytutu Fizyki Cesarza Wilhelma (Kaiser Wilhem Institut für Physik, będącego obecnie Instytutem Fizyki w Berlinie). Einstein, znużony pracą wykładowcy, chciał skupić się wyłącznie na myśleniu i ofertę przyjął. W marcu 1914 r. przeprowadził się z rodziną do Berlina. Od czasu wyjazdu do Pragi w 1911 r. stosunki Einsteina z żoną Milevą zaczęły się pogarszać. W czerwcu 1914 r. doszło do separacji. W związku z tym Mileva wróciła z synami do Zurychu. Ogólna teoria względności i rozwód 25 listopada 1915 r. Einstein przedstawił swoją najważniejszą pracę: ogólną teorię względności. Jest ona uogólnieniem poprzedniej teorii, stosując zasadę względności również do niektórych ruchów z przyspieszeniem. Stwierdza równoważność grawitacji i przyspieszenia oraz opisuje różnice między geometrią euklidesową a geometrią w silnych polach grawitacyjnych. Teoria przewiduje również znacznie silniejsze niż w teorii Newtona odchylenie toru światła przechodzącego obok gwiazdy. W czasie I wojny światowej Einstein zajmował się nie tylko ogólną teorią względności. Opublikował prace na temat kosmologii i fal grawitacyjnych, znalazł nowe wyprowadzenie prawa Plancka, napisał pięćdziesiąt artykułów naukowych i wydał książkę popularyzującą teorię względności. 5 lipca 1916 r. zastąpił Maxa Plancka na stanowisku przewodniczącego Niemieckiego Towarzystwa Fizycznego (Deutsche Physikalische Gesellschaft). Sprawował tę funkcję do 31 lipca 1918 r. W 1918 r. Einstein napisał pracę o prawie promieniowania Plancka, w której przewidział istnienie emisji wymuszonej – zjawiska umożliwiającego budowę laserów. Wytężona praca w połączeniu z głodem spowodowały problemy zdrowotne Einsteina. W 1917 r. chorował na wrzody żołądka, żółtaczkę, był ogólnie wyczerpany i miał chorą wątrobę. Podczas choroby zajmowała się nim jego kuzynka, Elsa Einstein. Latem 1917 r. Albert przeprowadził się do mieszkania obok niej, a rok później oboje postanowili się pobrać. 14 lutego 1919 r. sąd w Zurychu orzekł rozwód Alberta i Milevy Einstein. Warunki określały, że Albert ma płacić alimenty, zdeponować w banku 40 000 marek niemieckich, z których odsetki miały być do dyspozycji byłej żony, a ponadto, gdyby dostał Nagrodę Nobla, miał jej przekazać całą sumę. W 1919 r. podczas zaćmienia Słońca dwie brytyjskie ekspedycje naukowe dokonały pomiaru odchylenia toru światła pochodzącego z gwiazdy znajdującej się za Słońcem i przechodzącego obok niego. Opublikowane w raporcie Arthura Eddingtona wyniki potwierdziły przewidywania ogólnej teorii względności Einsteina. Odkrycie było nagłośnione i szeroko komentowane w mediach. Einstein stał się wtedy sławny także poza gronem naukowców. Drugi ślub i Nagroda Nobla 2 lipca 1919 r. Einstein ożenił się ze swoją kuzynką Elsą Einstein. W latach 20. Einstein zaczął dużo podróżować. 3 kwietnia 1921 r. wyjechał z żoną do USA i wygłosił tam kilka wykładów. W czasie tej wizyty, 9 maja, otrzymał doktorat honoris causa Uniwersytetu w Princeton. 30 maja wypłynął do Wielkiej Brytanii. 8 czerwca po raz kolejny został doktorem honoris causa, tym razem uczelni w Liverpoolu. Einstein dowiedział się, że planowano na niego zamach. W związku z tym 8 października 1922 r. ponownie wyjechał z Niemiec, tym razem do dalekiej Azji, aż na kilka miesięcy. Odwiedził Kolombo, Singapur, Hongkong i Szanghaj, następnie Kobe i Kioto. W tym czasie dostał Nagrodę Nobla. 2 lutego 1923 r. Einsteinowie wylądowali w Palestynie. Tam Albert zaangażował się na jakiś czas w sprawy Uniwersytetu Hebrajskiego. W latach 1925–1927 był członkiem jego Rady Zarządzającej. W drodze powrotnej z podróży wstąpili do Hiszpanii. 15 marca 1923 r. wrócili do Berlina. W 1923 r. opublikował artykuł pod tytułem Czy teoria pola stwarza możliwości rozwiązania problemu kwantowego?. Einstein już w tym czasie pracował nad teorią wielkiej unifikacji, która zdominowała jego późniejsze badania. W 1925 r. Einstein odbył kolejną podróż, tym razem do Ameryki Południowej – Argentyny, Brazylii i Urugwaju. Przeprowadzka do USA W 1930 r. Einstein drugi raz popłynął do Ameryki, przebywając od grudnia 1930 r. do marca 1931 r. oraz od grudnia 1931 r. do marca 1932 r. w Caltechu w Pasadenie. Tam spotkał się z Abrahamem Flexnerem, który chciał przedstawić członkom Caltechu projekt budowy Instytutu Studiów Zaawansowanych w Princeton. Flexner zaproponował Einsteinowi posadę w tym ośrodku, na co Einstein się zgodził. W marcu 1932 r. wrócił do Niemiec. 10 grudnia 1932 r. Einsteinowie trzeci raz wypłynęli do USA, znów do Kalifornii. 30 stycznia 1933 r. naziści doszli do władzy, a Adolf Hitler został kanclerzem Niemiec. Einstein, dowiedziawszy się o tym oświadczył, że nie wraca do Niemiec. Miał jednak kilka spraw do załatwienia w Europie, zamieszkał więc tymczasowo w Le Coq sur Mer w Belgii. W tym czasie otrzymywał oferty pracy z Jerozolimy, Oksfordu, Lejdy, Madrytu i Paryża. Wszystkie odrzucił. 7 października 1933 r. wypłynął z żoną, asystentem i sekretarką do Ameryki. 17 października 1933 r. wylądowali oni w Nowym Jorku. Do 1935 r. mieszkali przy Library Place nr 2, później przenieśli się na Mercer Street nr 112. W 1935 r. popłynęli na Bermudy, by wracając uzyskać wizy imigracyjne. W październiku 1936 r. Einstein został mianowany doktorem honoris causa Uniwersytetu Nowojorskiego. 20 grudnia tego roku zmarła jego druga żona, Elsa. 1 października 1940 r. Einstein został zaprzysiężony jako obywatel Stanów Zjednoczonych. Projekt jądrowy USA W sierpniu 1939 r. Einsteina odwiedzili Leó Szilárd i Eugene Wigner, zaniepokojeni możliwością skonstruowania przez III Rzeszę bomby atomowej. Wspólnie postanowili wysłać do ówczesnego prezydenta Stanów Zjednoczonych Franklina Delano Roosevelta list o następującej treści: Prezydent odpisał: Jednak budżet przyznany radzie na pierwszy rok wynosił zaledwie 6000$. Nie jest prawdą, iż list Einsteina był bezpośrednią przyczyną zainicjowania projektu Manhattan. Prezydent zlecił budowę bomby atomowej w październiku 1941 r. (a więc dwa lata po otrzymaniu listu) i wtedy też sekretarz wojny dowiedział się o całej sprawie. Einstein sam stwierdził: Prace unifikacyjne Ogólna teoria względności (OTW) ustaliła w fizyce zestaw praw grawitacji, a elektrodynamika Maxwella – elektromagnetyzmu. Einstein od lat 20. pracował nad jednolitą teorią pola, mającą opisywać grawitację i elektromagnetyzm jako dwa przejawy tego samego zjawiska. Przykładowo rozwijał teorię Kaluzy-Kleina. Zarówno OTW, jak i elektrodynamika opisują głównie świat makroskopowy. Za to w latach 20. pojawiła się pełna mechanika kwantowa świata mikroskopowego. Einstein już wtedy próbował przezwyciężyć tę przepaść, jednak nie przez kwantowanie grawitacji, ale nową teorię pola. W czasie pobytu w Princeton owdowiały Einstein poświęcił się jeszcze bardziej swoim bezowocnym próbom. Przez to stopniowo usuwał się z głównego nurtu badań w fizyce. W opinii wielu naukowców „zmarnował drugą połowę życia”. Przykładowo nie uczestniczył w rozwijaniu awangardowej, rodzącej się wtedy fizyki cząstek elementarnych. Dekady później okazało się, że niszowe, ambitne prace Einsteina były skazane na niepowodzenie. W tym czasie nie znano jeszcze dobrze jądrowych oddziaływań silnych ani słabych. W latach 70. powstała teoria oddziaływań elektrosłabych, unifikująca elektromagnetyzm z oddziaływaniami słabymi. Dalszym krokiem są rozwijane teorie wielkiej unifikacji, łączące oddziaływania elektrosłabe z silnymi. Unifikacja z grawitacją (superunifikacja) ma być dopiero trzecim krokiem, a nie pierwszym. Schyłek życia 31 lipca 1943 r. Einstein został konsultantem Działu Badań i Wdrożeń Biura Uzbrojenia Marynarki Wojennej Stanów Zjednoczonych z pensją 25$ za dzień i pozostał nim do 30 czerwca 1946 r. W tym samym roku otrzymał doktorat honoris causa Lincoln University. 2 sierpnia 1946 r. Einstein został przewodniczącym nowo powstałego Komitetu Nadzwyczajnego Uczonych Atomistów (Emergency Committee of Atomic Scientists), mającego za cel informowanie opinii publicznej o kwestiach politycznych dotyczących bomby atomowej oraz o pokojowym wykorzystaniu energii jądrowej. Dwa lata później został nagrodzony One World Award. W ostatnich latach życia Einstein miewał bóle w górnej części brzucha, a jesienią 1948 r. lekarz wykrył u niego guza wielkości pomarańczy. 31 grudnia laparotomia wykazała, iż był to tętniak aorty. W 1950 r. zaobserwowano powiększanie się tętniaka. 18 marca Einstein spisał testament, w którym wszystkie swoje listy, rękopisy i prawa autorskie przekazał Uniwersytetowi Hebrajskiemu. W listopadzie 1952 r. Einsteinowi zaproponowano zostanie drugim prezydentem niedawno powstałego państwa Izrael, na co się nie zgodził. W grudniu 1953 r. został rektorem honorowym Uniwersytetu Hebrajskiego oraz otrzymał nagrodę Lord and Taylor Award. Śmierć W poniedziałek 18 kwietnia 1955 roku, o godzinie 01:15 Einstein zmarł. Tego samego dnia jego zwłoki poddano kremacji w Trenton, a popioły rozsypano w nieznanym miejscu. Zanim skremowano ciało Einsteina, Thomas Stoltz Harvey, patolog szpitala w Princeton, wyjął bez pozwolenia rodziny Einsteina jego mózg. Harvey miał nadzieję, że w przyszłości neurobiologia będzie mogła odkryć, co sprawiło, że Einstein był tak inteligentny. Nagrody Nagroda Nobla Albert Einstein był nominowany do Nagrody Nobla jedenastokrotnie – prawie corocznie w latach 1910–1922, z wyjątkiem 1911 i 1915. Jego kandydaturę zgłaszało 40 różnych naukowców, w tym 12 z nich kilkukrotnie, mianowicie: jeden z nich – Warburg – 6 razy; ośmiu – Ostwald, Wien, Ehrenhaft, Naunyn, von Laue, E. Meyer, S. Meyer i Planck – po 3 razy; trzech – de Haas, Nordström i Hadamard – po 2 razy. Licząc osobno różne zgłoszenia przez tę samą osobę, Einstein otrzymał łącznie 62 nominacje. W 1922 r. Einstein otrzymał Nagrodę Nobla za rok 1921 „za zasługi dla fizyki teoretycznej, szczególnie za odkrycie praw rządzących efektem fotoelektrycznym”. W czasie wręczania nagród Einstein był za granicą, więc w jego imieniu wystąpił Rudolf Nadolny, ambasador Niemiec w Szwecji. W większości nominacji uzasadnieniem było sformułowanie przez Einsteina teorii względności. Według komitetu noblowskiego nie była ona wystarczająco potwierdzona doświadczalnie. Z tego powodu Einstein otrzymał nagrodę tak późno. Jednak komitet był pod silnym naciskiem, by przyznać nagrodę Einsteinowi. Z tego powodu komitet przyjął propozycję Oseena, by przyznać Einsteinowi nagrodę, jako uzasadnienie podając prace nad efektem fotoelektrycznym. Inne wyróżnienia Mimo oporów Komitetu Noblowskiego teoria względności została potem doceniona m.in. przez Towarzystwo Królewskie w Londynie (ang. The Royal Society of London) – w 1925 roku przyznało Einsteinowi Medal Copleya, w uzasadnieniu wprost podając teorię względności. W 1923 otrzymał niemiecki Order Pour le Mérite za Naukę i Sztukę, z którego zrezygnował w 1933. Narodowość i obywatelstwo Stan formalny Z pochodzenia Albert Einstein był niemieckim Żydem. Mimo to w ciągu całego życia był obywatelem łącznie 4 różnych krajów: Niemiec, Szwajcarii, Austrii i USA. Okresowo bywał obywatelem dwóch z nich jednocześnie, a przez pewien czas był bezpaństwowcem. Jego status zmieniał się 6 razy: Do 17. roku życia był poddanym króla Wirtembergii. 28 stycznia 1896 roku, na wniosek swojego ojca, został zwolniony z tego poddaństwa, dzięki czemu ojciec mógł złożyć prośbę o naturalizowanie syna jako obywatela Szwajcarii. Od tej daty do 21 marca 1901 Einstein pozostawał bezpaństwowcem. 21 marca 1901 roku przyznano mu obywatelstwo Szwajcarii, a dokładnie miasta Zurych. Mieszkał nie tylko w Zurychu, ale także w Bernie wraz z żoną i dwoma synami. W cudownym roku 1905, kiedy opublikował szczególną teorię względności i inne przełomowe prace, był więc formalnie Szwajcarem. Z obywatelstwa Szwajcarii nigdy nie zrezygnował. Od 1 kwietnia 1911 roku do 30 września 1912 roku, w związku z objęciem katedry fizyki teoretycznej na Uniwersytecie w Pradze, stał się poddanym cesarza Austrii, nadal pozostając jednocześnie obywatelem Szwajcarii. W kwietniu 1914 roku stał się poddanym cesarza Rzeszy Niemieckiej w związku z objęciem funkcji profesora na Uniwersytecie w Berlinie. Po zakończeniu I wojny światowej i powstaniu Republiki Weimarskiej stał się automatycznie obywatelem Niemiec, jako osoba pozostająca na państwowej służbie tego kraju. W momencie otrzymania Nagrody Nobla w 1921 był więc formalnie i Niemcem, i Szwajcarem. Obie te narodowości widnieją w oficjalnych spisach noblistów. Obywatelstwa niemieckiego został automatycznie pozbawiony przez rząd III Rzeszy w związku z jego rezygnacją z pełnienia funkcji publicznych w tym kraju i wyjazdem do Stanów Zjednoczonych w 1933 roku. Do 1940 roku pozostawał ponownie wyłącznie obywatelem Szwajcarii. 1 października 1940 roku złożył przysięgę na konstytucję i został obywatelem Stanów Zjednoczonych, pozostając aż do śmierci nadal również obywatelem Szwajcarii. Opinia Einsteina Sam Albert Einstein uważał się za niemieckojęzycznego bezpaństwowca, pochodzenia żydowskiego. Zawsze protestował przeciwko przypisywaniu jego osiągnięć któremukolwiek z państw. W 1918 r., zapytany o teorię względności, Einstein powiedział: Jego ojczystym językiem i praktycznie jedynym, którym dobrze władał, był niemiecki. Wszystkie jego publikacje i książki były napisane po niemiecku. Mimo długiego pobytu w USA jego znajomość angielskiego sprowadzała się do najprostszych zwrotów i kilkuset słów potrzebnych do codziennego funkcjonowania w tym kraju. Niektóre odkrycia Albert Einstein opublikował ponad 300 prac naukowych. Niektóre z nich to: 1905: Szczególna teoria względności, pozwalająca pogodzić względność ruchu z obserwowaną niezależnością prędkości światła w próżni od obserwatora i zawierająca słynną formułę E=mc² Opis i wyjaśnienie ruchów Browna, kolejny dowód istnienia atomów Wyjaśnienie efektu fotoelektrycznego, wprowadzające pojęcie fotonu, cząstki elementarnej będącej nośnikiem oddziaływania elektromagnetycznego. Był to pierwszy krok do odkrycia dualizmu korpuskularno-falowego. Za to odkrycie przyznano Einsteinowi Nagrodę Nobla. 1907: Kwantowa teoria ciepła właściwego ciała stałego. Pokazała ona, że wzór Plancka E=hν nie stosuje się tylko do ciała doskonale czarnego, ale jest uniwersalnym prawem fizyki. 1913: Energia punktu zerowego, przewidziana wraz z Otto Sternem – minimalna energia kwantowej próżni 1915: Ogólna teoria względności (OTW), nowa teoria grawitacji tłumacząca zjawiska grawitacyjne geometrycznymi własnościami zakrzywionej przez masę lub energię czasoprzestrzeni Efekt Einsteina-de Haasa – obserwacyjny dowód związku pola magnetycznego ciał z momentem pędu ich składowych 1917: Pierwszy model kosmologiczny: cylindryczny, szybko obalony przez Prawo Hubble’a 1918: Teoria procesu emisji i absorpcji promieniowania elektromagnetycznego przez atomy. Jest ona podstawą działania laserów 1924: Statystyka Bosego-Einsteina, dotycząca rozkładu stanów kwantowych bozonów Kondensacja Bosego-Einsteina, efekt kwantowy zachodzący w układach podległych statystyce Bosego-Einsteina 1935: Paradoks EPR (paradoks Einsteina-Podolskiego-Rosena), mający udowodnić nieprawdziwość splątania kwantowego. Został on rozwinięty w latach 60. XX w. przez twierdzenie Bella. Jedne z pierwszych spekulacji o tunelach czasoprzestrzennych (most Einsteina-Rosena) Oprócz tego Einstein: znalazł równania Einsteina-Infelda-Hoffmanna – przybliżenie dla swojej ogólnej teorii względności, rozszerzające mechanikę Newtona; wraz z Leó Szilárdem opatentował urządzenie zwane lodówką Einsteina; jest współautorem spekulatywnej, niesprawdzonej teorii grawitacji, rozszerzającej OTW – teorii Einsteina-Cartana. Poglądy Krytyka interpretacji kopenhaskiej Pomimo że Albert Einstein nazywał mechanikę kwantową „najbardziej udaną teorią naszych czasów”, należał do największych krytyków jej kompletności i fundamentalnego statusu. Nie uznawał przewidywanej przez nią losowości zdarzeń (mawiał: „Bóg nie gra w kości”) i wierzył, że w przyszłości powstanie teoria, która tę losowość wyeliminuje. W liście do Maxa Borna z 1944 r. pisał: Uznawał, że świat w gruncie rzeczy zbudowany jest w sposób klasyczny i relatywistyczny, a obowiązująca w mechanice kwantowej zasada nieoznaczoności Heisenberga jedynie tymczasowo ogranicza nasze poznanie. W efekcie Einstein stał się gorącym zwolennikiem teorii ukrytych zmiennych, pojmując istnienie cząstek w sposób klasyczny i nie zgadzając się z probabilistyczną interpretacją funkcji falowych. Twierdził, że cząstka tak naprawdę posiada pęd i położenie w sensie klasycznym, natomiast niemożliwość ich jednoczesnego ustalenia wynikająca z zasady nieoznaczoności może minąć, gdy mechanikę kwantową zastąpi nowsza teoria, „uchylająca” nieoznaczoność. Takiemu postawieniu sprawy przez Einsteina sprzeciwiał się Niels Bohr i cała szkoła kopenhaska, która interpretowała mechanikę kwantową jako probabilistyczną i kompletną. Einstein zgadzał się z de Broglie’em i Bohmem, że mechanikę kwantową należy zastąpić przez teorię realistyczną, najlepiej deterministyczną. Mimo to odrzucał ich teorię fali pilotującej, ponieważ była jawnie nielokalna. Einstein nie uznawał splątania kwantowego, które nazywał „upiornym połączeniem na odległość”, powstał EPR – Paradoks Einsteina Podolskiego Rosena. Eksperyment myślowy EPR został rozwinięty matematycznie w latach 60. XX wieku poprzez nierówności Bella. Doprowadziły one uznawaną przez Einsteina teorię lokalnych ukrytych zmiennych do sprzeczności. Ostateczne potwierdzenie, że Einstein nie miał racji, przyniósł eksperyment. O ile pierwsze, niedokładne doświadczenia nad EPR (prowadzone jeszcze za życia Einsteina) nie były przekonujące, to o ostatecznej porażce uznawanej przez Einsteina teorii lokalnych ukrytych zmiennych zadecydowało doświadczenie Zeilingera w 1991 r. – wystarczająco dokładne, by ją obalić. Poglądy filozoficzne Einstein nie ukrywał zainteresowania niektórymi dziedzinami filozofii: Metodologia Einstein był przeciwnikiem stosowania zasady indukcji podczas formułowania teorii fizycznych. Wpłynęło na to sformułowanie przez niego ogólnej teorii względności. Stwierdził: Odrzucał w ten sposób podejście Newtona do sposobu tworzenia podstaw nauki. Einstein nie wierzył w możliwość pewnego udowodnienia jakiejkolwiek hipotezy naukowej, aby stała się ona pewną i niepodważalną teorią. Każde sformułowanie praw nauki uznawał za ułomne dzieło intuicji badacza. Wyznawał zasadę, że poszczególne hipotezy powinny być ciągle poddawane krytyce na podstawie nowo tworzonych idei czy efektów eksperymentów. Twierdził również, że jeśli jakiejś teorii nie można przedstawić za pomocą obrazu fizycznego, to prawdopodobnie jest ona bezużyteczna. Poniżej kilka cytatów Einsteina świadczących o jego poglądach: Inne poglądy Einstein był zafascynowany samą możliwością poznania Wszechświata. Pisał o wielkiej satysfakcji, jaką dają sukcesy w tej dziedzinie (uprawianiu nauki): Einstein był deterministą. W liście do Maksa Borna pisał tak: Jego determinizm był inkompatybilistyczny – Einstein krytykował pojęcie wolnej woli. Wbrew utartym poglądom Einstein nie wyprowadzał ze swoich teorii zasad relatywizmu. Poglądy religijne Dzieciństwo W czasach dzieciństwa Einsteina niemieckie prawo wymagało, aby każdy uczeń zdobywał religijne wykształcenie, dlatego jego względnie niepraktykujący rodzice zatrudnili korepetytora. W wieku jedenastu lat, Einstein był głęboko wierzący i we wszystkich detalach przestrzegał norm religijnych, zgodnie z doktrynami judaizmu nie jadł wieprzowiny, czytał i akceptował Biblię, a nawet tworzył i śpiewał piosenki wychwalające Boga – często dla samego siebie. Wszystko to się skończyło gwałtownie w wieku 12 lat, gdy odkrył świat nauki i uznał, że co najmniej część historii z Biblii nie może być prawdziwa. Zainteresował się matematyką, a potem fizyką. Nigdy już nie wrócił do swoich poprzednich przekonań. Dorosłość Z perspektywy religii abrahamowych, takich jak chrześcijaństwo i judaizm, Einstein był całkowicie niereligijny od 12 roku życia – w wieku 13 lat odmówił wzięcia udziału w bar micwie (odpowiednik bierzmowania), jego małżeństwa były cywilne, nie brał udziału w religijnych nabożeństwach i zdecydował się na świecki pogrzeb. Sam stwierdził, że nie akceptował żadnych kościelnych koncepcji Boga, do masowej religijnej indoktrynacji odkąd pamięta podchodził z oburzeniem, odrzucał ślepą wiarę, nie wierzył w życie po śmierci, wielokrotnie twierdził, że nie jest teistą; argumentował, że nic boskiego nie jest wymagane dla moralności, jak również nie modlił się. Własne podejście do metaforycznego stosowania przez siebie słowa „Bóg”, jak również do Biblii, Einstein zamieścił w prywatnym liście napisanym do swojego znajomego, który napisał książkę opierającą się na Biblii. W tym liście, Einstein rok przed śmiercią napisał do Erica Gutkinda: Wcześniejsze listy Twierdzenia jakoby Einstein się nawrócił krążyły jeszcze przed jego śmiercią. Wyjątkowo klarowny jest list Einsteina napisany do Guya Ranera, w którym Einstein odpowiada na doniesienia, że pewien ksiądz jezuicki twierdzi, iż rzekomo odwiódł go od ateizmu; Einstein tym samym wyjaśnia, jakie są jego przekonania w oczach chrześcijanina: W kolejnym liście do Guya Ranera, Einstein ponownie podkreśla, że idea Boga osobowego jest dla niego dziecinna (ang. childlike) oraz dodaje: Można mnie [także] nazwać agnostykiem, ale nie podzielam ofensywnego ducha profesjonalnego ateisty, którego zapał jest, w większości, wynikiem bolesnego aktu wyzwolenia się z kajdan młodzieńczej indoktrynacji religijnej. Preferuję postawę pokory korespondującą z ułomnością naszego intelektualnego rozumienia natury i naszej egzystencji. W 1940 roku Albert Einstein, w liście do Morrisa Raphaela Cohena, wstawił się za atakowanym Bertrandem Russellem – słynnym ateistą i antyteistą XX wieku, autorem popularnego eseju Dlaczego nie jestem chrześcijaninem – pisząc o nim w sposób następujący: Wielkie umysły zawsze napotykały na brutalną opozycję miernot. Ci drudzy nie są w stanie zrozumieć człowieka, który nie ulega bezmyślnie dziedzicznym uprzedzeniom, ale uczciwie i odważnie używa swojej inteligencji. Napisał również w obronie Russella wiersz. Perspektywy Treść listu z 1954 roku przeleżała w prywatnej kolekcji 50 lat i nie znali jej wiodący eksperci. W szczególności nie jest on uwzględniony w książce postrzeganej za najbardziej autorytatywną pracę naukową o relacjach Einsteina i religii – Einstein and Religion autorstwa Maxa Jammera (związanego z fundacją Templetona). Według Martíneza, liczne publiczne wypowiedzi Einsteina były lustrowane przez opinię publiczną, wobec czego nauczył się on wypowiadać w sposób, który był akceptowalny dla większej liczby osób. Spowodowało to, że przez dekady religijni apologeci cytowali wybrane jego wypowiedzi. Natomiast w tym prywatnym liście z 1954 roku, który ujrzał światło dzienne podczas aukcji w 2008 roku, Einstein zdecydował się otwarcie i dosadnie napisać o swoich poglądach. Nowa Katolicka Encyklopedia stosując pojęcie religijność wobec Einsteina, zamieszcza je w cudzysłowie, podkreślając jedynie metaforyczny sens tego wyrażenia. Martínez podsumowuje, że gdy Einstein w początkowym okresie swojego życia stracił wiarę w teologię judaizmu i chrześcijaństwa, to zamiast porzucić słownictwo religijne, zdecydował, że zredefiniuje je. W efekcie, jako religijność rozumiał poczucie zachwytu nad światem. Max Jammer w książce Einstein and Religion, która została opublikowana dziesięć lat przed wypłynięciem listu z 1954, podobnie argumentuje, że Einstein po prostu miał taki styl wypowiadania się, że używał słów związanych z religią w niekonwencjonalnym sensie i nie chodziło mu o Boga osobowego. Odmiennego zdania był Walter Issaacson, który protestował przeciwko uznawaniu wypowiedzi Einsteina za jedynie maskujących ateizm poprzez nazywanie natury metaforycznie Bogiem, chociaż zgadzał się, że taki nawet w jego rozumieniu nie ingeruje w sprawy człowieka. Że Einstein nie był ateistą argumentował również Max Jammer. Opinie te należy rozpatrywać jako potencjalnie nieaktualne, gdyż książki tych autorów były opublikowane przed 2008 rokiem. Sposób wypowiadania się Einsteina ilustruje następujący przykład: „To co mnie naprawdę interesuje, to wiedza czy Bóg mógł stworzyć świat inaczej; innymi słowy, czy wymóg logicznej prostoty dopuszcza margines swobody”. – Albert Einstein, lata 40. XX wieku. Martínez komentuje, że jeśli druga część zdania miała wyjaśniać pierwszą, to pokazuje ona prawdziwe fizyczne znaczenie tej pierwszej jako tylko powierzchownie religijne. Gdy Einstein stwierdził, że Bóg jest wyrafinowany, ale nie złośliwy; to podobnie dopowiedział, że to co naprawdę miał na myśli, to że „Natura skrywa swój sekret poprzez wzniosłość swej istoty, ale nie poprzez oszustwa.” Kosmiczna religia Niektórzy określali poglądy Einsteina mianem „kosmicznej religii” (ang. cosmic religion). Pewien rabin cytowany w książce Jammera zwrócił uwagę, iż niektórzy teologowie mówili odnośnie do poglądów Einsteina, że mogą się one okazać rodzajem panteizmu praktycznie identycznego z ateizmem. Na poparcie krytyki poglądów Einsteina, opublikowanej w 1929 roku, przez bostońskiego kardynała O’Connellego, watykański dziennik Osservatore Romano napisał, że poglądy Einsteina, to „autentyczny ateizm nawet jeśli jest zakamuflowany jako kosmiczny panteizm” w nawiązaniu do twierdzeń Einsteina, że fascynuje go panteizm Spinozy, chociaż Einstein sam nie był pewien czy to trafne określenie. To wszystko miało miejsce przed wystawieniem na aukcję prywatnego listu Einsteina napisanego w 1954 roku (a nawet przed jego napisaniem). Poglądy polityczne i gospodarcze Przed II wojną światową Einstein był zdeklarowanym pacyfistą. Nawoływał ludzi do odmowy noszenia broni, uważał, że to dobry sposób powstrzymania wojen. W artykule, zamieszczonym w czasopiśmie Forum and Century (tom 84, s. 193–194), opublikowanym również w książce „Living Philosophies” (NY, Simon and Schuster 1931), napisał m.in.: Gdy Hitler doszedł do władzy, Einstein zrewidował swoje poglądy i uznał, że Hitlera można powstrzymać jedynie siłą. Stwierdził: Po wojnie tak skomentował zimną wojnę i produkcję bomb atomowych przez USA: Einstein chciał, by powstał międzynarodowy rząd. W audycji radiowej emitowanej w maju 1946 r. mówił: Pod względem politycznym był zwolennikiem socjalizmu i krytykiem kapitalizmu. Swoje poglądy polityczne przedstawił w wydanej w 1949 roku publikacji Po co nam socjalizm?. Upamiętnienie Nazewnictwo Pierwiastek chemiczny nr 99, z rodziny aktynowców, odkryty w połowie XX w., nazwano einstein lub ajnsztajn (łac. einsteinium), w skrócie Es. W fotochemii jednostkę jednego mola fotonów nazwano einstein lub ajnsztajn, w skrócie E. 24 listopada 1961 ulicy w Warszawie, na terenie późniejszej dzielnicy Bemowo, nadano nazwę ulicy Alberta Einsteina. W 1990 roku Światowa Rada Kultury zaczęła przyznawać nagrodę Albert Einstein World Award of Science. Inne formy W 1980 roku Andy Warhol stworzył portret Alberta Einsteina. Praca należy do cyklu Dziesięć portretów Żydów XX wieku. W 2017 roku powstał 10-odcinkowy fabularyzowany serial dokumentalny o Einsteinie pod tytułem „Geniusz”, zrealizowany przez National Geographic. Publikacje książkowe Po polsku ukazało się kilka dzieł samego Einsteina oraz książek ułożonych z jego prac przez innych autorów: 1958: Istota teorii względności (z ang. The Meaning of Relativity), tłum. Andrzej Trautman, Państwowe Wydawnictwo Naukowe. 1962: II wydanie, PWN. 1997: III wydanie, seria „Klasycy Nauki”, Prószyński i S-ka, . 2021: nowe wydanie, przedmowa: Brian Greene, Zysk i S-ka, . 1996: Zapiski autobiograficzne, tłum. Jacek Staruszkiewicz, Znak, . 1997: Teoria względności i inne eseje, tłum. Piotr Amsterdamski, seria „Klasycy Nauki”, Prószyński i S-ka, . 1998: Ewolucja fizyki. Rozwój poglądów od najdawniejszych pojęć do teorii względności i kwantów, wraz z Leopoldem Infeldem, tłum. Ryszard Gajewski, seria „Klasycy Nauki”, Prószyński i S-ka, . 1999: Pisma filozoficzne, tłum. Kazimierz Napiórkowski, Wydawnictwo Instytutu Filozofii i Socjologii Polskiej Akademii Nauk, . 2005: 5 prac, które zmieniły oblicze fizyki, przedmowa: Roger Penrose, wstęp i komentarz: John Stachel, tłum. Piotr Amsterdamski, Wydawnictwa Uniwersytetu Warszawskiego, . 2008: II wydanie, . 2005: Mój obraz świata, tłum. Julian Maliniak ps. Stanisław Łukomski, Jerzy Lubienski, Arhat, . 2017: Jak wyobrażam sobie świat, tłumaczenie i opracowanie: Tomasz Lanczewski, Copernicus Center Press, . 2022: Einstein o Einsteinie. Zapiski autobiograficzne i naukowe, opracowanie: Hanoch Gutfreund i Jürgen Renn, tłum. Tomasz Lanczewski, CC Press, . Prace poświęcone Einsteinowi 1966: Borys Kuzniecow, Albert Einstein, tłum. Zdzisław Mroczek, Antoni Zambrowski, seria „Biblioteka Problemów”, Państwowe Wydawnictwo Naukowe. 1979: Leopold Infeld, Albert Einstein, tłum. Ryszard Gajewski, Państwowe Wydawnictwo Naukowe, . 1995: John Gribbin, Michael White, Einstein: życie nauką, Wydawnictwa Naukowo-Techniczne, . 1995: Paul Carter, Roger Highfield, Prywatne życie Alberta Einsteina, tłum. Marek Krośniak, Prószyński i S-ka, . 1996: Peter A. Bucky, Allen Weakland, Fizyka, kobiety i skrzypce. Einstein prywatnie, tłum. Hanna Turczyn-Zalewska, Wydawnictwo Iskry, . 1997: Denis Brian, Albert Einstein. Nowe, udostępnione w ostatnich latach dokumenty z archiwum Einsteina!, tłum. Maria Zborowska, Jarosław Bielas, Wydawnictwo Amber, . 2001: Abraham Pais, Pan Bóg jest wyrafinowany... Nauka i życie Alberta Einsteina, tłum. Piotr Amsterdamski, Prószyński i S-ka, . 2005: Abraham Pais, Tu żył Albert Einstein, tłum. Marek Krośniak, Prószyński i S-ka, . 2006: Lluís Cugota, Gustavo Roldán, Nazywam się... Albert Einstein, tłum. Anna Jęczmyk, Media Rodzina, . 2008: Jeremy Bernstein, Albert Einstein i granice fizyki, tłum. Jarosław Włodarczyk, Świat Książki, . 2010: Walter Isaacson, Einstein. Jego życie, jego wszechświat, tłum. Jarosław Skowroński, Wydawnictwo W.A.B., . 2014: Dennis Overbye, Zakochany Einstein. Życie z Milevą, tłum. Julita Mastalerz, Wydawnictwo Naukowe PWN, . 2015: Jess Brallier, Kim był Albert Einstein?, tłum. Hanna Pasierska, Prószyński i S-ka, . 2018: Ètienne Klein, Podróże z Albertem Einsteinem, tłum. Paloma Korycińska, Kraków: Copernicus Center Press, . 2019: Justyna Jaciuk, Maciej Rajewski, Łukasz Tomys, Albert Einstein. Potęga i piękno umysłu. Tom I. Dzieciństwo i młodość (1879-1905), Łukasz Tomys Publishing, . 2021: Jean Claude, Maria Isabel Sanchez Vegara, Albert Einstein, seria „Mali Wielcy”, tłum. Julia Tokarczyk, Smart Books, . 2022: Torben Kuhlmann, Einstein. Niezwykła mysia podróż przez czasoprzestrzeń, tłum. Anna Kierejewska, Tekturka, . Zobacz też zagadka Einsteina Manifest Russella-Einsteina konwencja sumacyjna Einsteina Uwagi Przypisy Bibliografia Książki Rozdziały: Einstein w młodości, Cudowny rok, W cieniu Alberta Einsteina, Jeszcze dziwniejsza historia kwantu Rozdziały: Portret fizyka z czasów młodości, W cieniu Alberta Einsteina, Herr Professor Einstein Rozdziały: W cieniu Alberta Einsteina, Jak doszło do przyznania Einsteinowi Nagrody Nobla, Einstein o religii i filozofii Czasopisma Strony internetowe Linki zewnętrzne Polskojęzyczne Michał Heller, Filozoficzna droga Einsteina, kanał 44. Zjazdu Fizyków Polskich na YouTube, 9 października 2017 [dostęp 2023-04-14]. A. Einstein, Geometria a doświadczenie Dr Einstein, który nagle stał się sławny (rozdział 16 z książki Pan Bóg jest wyrafinowany… Nauka i życie Alberta Einsteina Abrahama Paisa) Esej Alberta Einsteina Anglojęzyczne Coel Hellier: Einstein the atheist on religion and God – kompleksowe omówienie poglądów Einsteina na religie. OpenCulture.com: Hear the Voice of Albert Einstein: Vintage Album Features Him Talking About E=MC2, World Peace & More Biografia Einstein, Albert (1879–1955) , Routledge Encyclopedia of Philosophy, rep.routledge.com [dostęp 2023-05-08]. Niemieccy fizycy XX wieku Szwajcarscy fizycy XX wieku Amerykańscy fizycy XX wieku Niemieccy teoretycy względności Amerykańscy teoretycy względności Amerykańscy kosmolodzy Fizycy statystyczni Niemieccy elektrodynamicy Elektrodynamicy klasyczni Pionierzy mechaniki kwantowej Niemieccy fizycy ciała stałego Niemieccy popularyzatorzy fizyki Amerykańscy popularyzatorzy fizyki Historycy fizyki Popularyzatorzy historii Niemieccy filozofowie nauki Amerykańscy filozofowie nauki Filozofowie fizyki Pracownicy Institute for Advanced Study w Princeton Niemieccy socjaliści Syjoniści Wykładowcy Uniwersytetu Humboldtów w Berlinie Wykładowcy Uniwersytetu Karola Wykładowcy Uniwersytetu w Bernie Doktorzy honoris causa uczelni w Szwajcarii Niemieccy nobliści – fizyka Szwajcarscy nobliści – fizyka Żydowscy nobliści – fizyka Laureaci Medalu Copleya Niemieccy laureaci Medalu Maxa Plancka Laureaci Złotego Medalu Królewskiego Towarzystwa Astronomicznego Laureaci Prix Jules-Janssen Niemieccy członkowie Pruskiej Akademii Nauk Niemieccy fizycy upamiętnieni nazwami nagród Amerykańscy fizycy upamiętnieni nazwami nagród Ludzie upamiętnieni nazwami pierwiastków chemicznych Ludzie upamiętnieni nazwami jednostek wielkości Ludzie upamiętnieni nazwami zjawisk fizycznych Osoby przedstawione na izraelskich banknotach Odznaczeni cywilnym Orderem Pour le Mérite Osoby upamiętnione nazwami paradoksów Ludzie upamiętnieni nazwami równań fizycznych Absolwenci Politechniki Federalnej w Zurychu Niemieccy Żydzi Szwajcarzy pochodzenia niemieckiego Amerykanie pochodzenia niemieckiego Amerykanie pochodzenia szwajcarskiego Ludzie urodzeni w Ulm Ludzie związani z Monachium Urodzeni w 1879 Zmarli w 1955
127
https://pl.wikipedia.org/wiki/Alfabet%20grecki
Alfabet grecki
Alfabet grecki – pismo powstałe około IX w. p.n.e., służące do zapisu języka greckiego, oraz niektórych innych języków ludów znajdujących się pod wpływem kultury greckiej. Litery alfabetu służyły Grekom także do zapisu liczb oraz jako notacja muzyczna. Alfabet ten stworzono pod wpływem kontaktów z ludami Lewantu. Alfabet grecki wywodzi się z alfabetu fenickiego. We wczesnej starożytności istniało wiele lokalnych form alfabetu greckiego, wypartych w okresie klasycznym przez formę jońską, której w niezmienionej postaci używa się do dziś do zapisu języka nowogreckiego. Alfabet grecki także jest stosowany w naukach ścisłych, przyrodniczych, technicznych i podobnych, jako oznaczenie odmian różnych pojęć. Litery Litery nieużywane współcześnie Pewne litery występowały w piśmie greckim tylko w okresach archaicznym, średniowiecznym, w niektórych dialektach lub do zapisu cyfr (digamma, stigma, heta, kaj, san, koppa, sampi). Litery stigma i kaj są interpretowane jako ligatura sigmy i tau oraz ligatura kappy i joty. Litery używane w innych językach Litera jot została dodana do alfabetu greckiego w celu zapisu głoski [] w dialekcie arwanickim języka albańskiego. Litera jot także została zastosowana przez lingwistów w XIX w. w alfabecie greckim, celem zapisu fonemu /j/ w rekonstruowanej archaicznej grece, będącego dźwiękiem półspółgłoskowym, odpowiadającym głosce „i” następującej po samogłosce. Utrata tego fonemu w antycznej grece nastąpiła w okresie archaicznym. W lingwistyce ten grafem jest stosowany głównie w gramatyce historycznej archaicznej greki, celem wyjaśnienia pewnych zjawisk językowych oraz do rekonstrukcji różnych ważnych procesów fonetycznych i morfologicznych. Litera szo została dodana do alfabetu greckiego w celu zapisu głoski [] w języku baktryjskim. Zapisywanie liczb Alfabet grecki używany był także do zapisu liczb. Pierwsze dziewięć liter alfabetu odpowiadało liczbom od 1 do 9, kolejne dziewięć oznaczało wielokrotności liczby 10. Analogicznie, następne dziewięć liter pozwalało na zapis wielokrotności liczby 100. Jako że alfabet grecki składał się ówcześnie z 24 liter, na potrzeby zapisywania liczb stosowano dodatkowe 4 litery: digamma ⟨Ϝ⟩, stigma ⟨Ϛ⟩, koppa ⟨Ϟ⟩ i sampi ⟨Ϡ⟩. Ten system zapisu liczb pozostaje w użyciu w języku greckim do zapisu numerów rozdziałów w książkach czy paragrafów w kodeksach. Dyftongi i kombinacje literowe * W fonologii greckiej spółgłoska nosowa tylnojęzykowo-miękkopodniebienna [] jest osobnym fonemem. Sposób pisania Początkowo pismo greckie zapisywano od prawej do lewej, tak jak pisma semickie. Następnie rozpowszechnił się system zwany bustrofedonem (gr. βουστροφηδόν, „bruzdy, jakie znaczy pługiem wół”) w którym pisano naprzemiennie od prawej do lewej i od lewej do prawej – najpóźniejsze znane zastosowania tego systemu pochodzą z Gortyny na Krecie (V w. p.n.e.), w Atenach już od ok. 550 p.n.e. pisano od lewej do prawej. Początkowo Grecy pisali wszystkie litery, wyrazy i zdania jednym ciągiem – nie znali minuskuły, odstępów między wyrazami, znaków diakrytycznych ani interpunkcyjnych. W związku z trudnością lektury tekstu pisanego jednym ciągiem, dla rozdzielenia niektórych wyrazów w inskrypcjach używano czasem pionowej kreski | lub trójkropka ⫶. W starożytności pisano wyłącznie kapitałą (używanym na inskrypcjach i zwojach pismem o kształtach kanciastych) i kursywą (stosowaną od V. w. p.n.e. w pismach o charakterze urzędowym), dopiero w IX w. n.e. weszła w użycie minuskuła. Znaki diakrytyczne Klasyczne pismo greckie ma trzy znaki diakrytyczne na oznaczenie akcentu, dwa znaki diakrytyczne na oznaczenie dyftongów, dwa znaki diakrytyczne na oznaczenie przydechów oraz rzadko występujący znak tremy. Przydech (łac. spiritus) Zaczynające się od samogłoski lub dyftongu słowa greckie otrzymują przy tej samogłosce lub dyftongu znak diakrytyczny na oznaczenie przydechu. W dyftongach znak przydechu stawia się przy drugiej samogłosce z dyftongu. Są dwa znaki na oznaczenie przydechu: – przydech mocny (spiritus asper) wymawiany podobnie jak polskie h. – przydech słaby (spiritus lenis), niewymawiany. Oprócz samogłosek i dyftongów przydech otrzymuje litera rho. Jeśli rho znajduje się na początku wyrazu, to zawsze rho otrzymuje przydech mocny. Podwójna litera rho, znajdująca się zawsze w środku wyrazu, otrzymuje przydech słaby nad pierwszą literą, a przydech mocny nad drugą – często w typografii tych przydechów się nie zaznacza, jednak w transkrypcji zbitkę ρρ oddaje się z reguły jako rrh. Przykłady: – harmonia – idea, pojęcie – Europa – litera rho lub rzadziej – Boreasz – wiatr północny Oznaczanie akcentów Język grecki ma trzy rodzaje akcentów. Wprowadzone przez gramatyków aleksandryjskich oznaczenia akcentów zaznaczane są przy każdym słowie, oprócz nielicznych słów nieakcentowanych (enklityk i proklityk). Akcenty te to akcent wysoki (łac. [accentus] acutus, gr. , ostry), akcent niski (łac. [accentus] gravis, gr. , ciężki, stłumiony) i akcent przeciągły (łac. [accentus] circumflexus, gr. , zagięty). Przykłady: akcent wysoki: – przyjaciel. akcent niski: Nie stoi nad pojedynczym wyrazem, występuje zawsze w toku zdania, zastępując acutus stojący na ostatniej zgłosce wyrazu, o ile nie następuje po niej znak przestankowy lub enklityka. akcent przeciągły: – lud. Akcenty i przydechy Jeśli wyraz zaczynający się od samogłoski pojedynczej piszemy małą literą, znaki przydechu i akcentu stawiamy nad samogłoską. Jeśli wyraz zaczynający się od samogłoski pojedynczej piszemy dużą literą, znaki przydechu i akcentu stawiamy przed samogłoską. Jeśli wyraz zaczyna się od dyftongu, znaki akcentu i przydechu stawiamy nad drugą literą dyftongu, niezależnie od tego, czy wyraz piszemy małą czy dużą literą. Akcenty i przydechy przy dyftongach niewłaściwych z ι adscriptum lub z ι subscriptum zapisuje się jak w wyrazach zaczynających się od pojedynczej samogłoski. acutus i gravis stawiamy po znaku przydechu, circumflexus nad znakiem przydechu. Dyftongi Dyftongi greckie dzielą się na właściwe i niewłaściwe (wymawiane jako pojedyncza samogłoska). Właściwe to , , , , , , . Niewłaściwe to , , , . Jeśli wyraz piszemy wielką literą, we wszystkich dyftongach duża jest tylko pierwsza litera składowa. Znak diakrytyczny przy dyftongach niewłaściwych , , pochodzi od małej litery jota i nazywa się iota subscriptum. Jeśli dyftongi te piszemy wielką literą, pierwszą literę dyftongu zapisujemy jako wielką literę, jotę zapisujemy zaś obok, ale nie wymawiamy (nazywając ją wtedy iota adscriptum, tj. , , ). Ułatwieniem w określeniu czy jest dyftongiem właściwym, czy nie, jest fakt, że w przydech i akcent w dyftongach właściwych stoi na drugiej głosce, w niewłaściwych zaś na pierwszej, np. dyftong właściwy: -, dyftong niewłaściwy -. Systemy politoniczny i monotoniczny System politoniczny jest historycznym systemem ortografii języka greckiego kształtującym się od czasów hellenistycznych do końca czasów bizantyjskich. Dla języka nowogreckiego zastąpiono go w 1982 systemem monotonicznym, przy czym wielu Greków wciąż stosuje system politoniczny. Cechą charakterystyczną systemu politonicznego jest rozbudowana diakrytyka oddająca starożytną wymowę języka greckiego. System monotoniczny ortografii greckiej jest uproszczoną formą ortografii języka nowogreckiego wprowadzoną przez parlament grecki w 1982, zarówno dla katharewusy, jak i dla demotyku. Zastępuje on tradycyjne greckie akcenty (acutus, gravis i circumflexus) jednym, oznaczającym dotąd acutus (´). Porzuca także użycie spiritus asper i spiritus lenis. Uproszczenie ortografii motywowano skomplikowaniem ortografii politonicznej, oraz trudnością jej nauczenia się, do tego znaki diakrytyczne systemu politonicznego nie oddają żadnych właściwości współczesnej wymowy, dając informację tylko o etymologii słów i o ich wymowie starożytnej. System monotoniczny jest odrzucany przez wielu Greków, sądzących, że system politoniczny stwarza więź z przeszłością. Cerkiew grecka wciąż używa systemu politonicznego. Drukuje się w nim wciąż wiele książek. Fakt, że greka nie była w starożytności zapisywana za pomocą systemu politonicznego, który został wprowadzony stopniowo w czasach bizantyjskich, utrudnia jednak jego obronę. Grekę klasyczną powszechnie zapisuje się za pomocą systemu politonicznego. Interpunkcja grecka W języku greckim od okresu hellenistycznego stosuje się cztery znaki interpunkcyjne: . – kropka pełni funkcje te same co w pisowni polskiej , – przecinek pełni funkcje te same co w pisowni polskiej · – kropka środkowa pełni funkcję średnika i dwukropka ; – znak wyglądający jak średnik pełni funkcję pytajnika. Historia alfabetu greckiego Pisma linearne A i B Pierwszym pismem Greków, używanym w dialekcie mykeńskim, było powstałe w XIV w. przed naszą erą pismo linearne B, wywodzące się od najprawdopodobniej przedgreckiego pisma linearnego A. Odkrywcą pisma linearnego B jest Arthur Evans, a odczytali je w 1952 roku brytyjski architekt Michael Ventris i filolog klasyczny John Chadwick. Nieodszyfrowane pismo linearne A składa się z około 110 znaków, prawdopodobnie sylabicznych. Pismo linearne B składa się z około 90 znaków sylabicznych. Zapisywane było na tabliczkach glinianych (choć mogły istnieć też inne, mniej trwałe formy zapisu), przechowanych przede wszystkim w Knossos, a także w Mykenach, Pylos, Tebach i Tyrynsie. Z pismem linearnym B spokrewnione jest zawierające 55 znaków sylabiczne pismo cypryjskie (sylabariusz cypryjski), stosowane do V w. p.n.e. Pismo linearne B było źle przystosowane do fonetyki języka greckiego, co jest prawdopodobną przyczyną braku znanych tekstów literackich z okresu mykeńskiego. Całkowicie wyszło z użycia wraz z wędrówką Dorów (XII w. p.n.e.). Powstanie alfabetu greckiego Alfabet grecki wywodzi się z alfabetu fenickiego. Powstał w X lub IX w. p. n.e. na skutek kontaktów handlowych Greków z ludami Lewantu. Świadczy o tym podobieństwo kształtu liter, podobieństwo nazw liter i przekazy mitologiczne (patrz Kadmos). Pismo fenickie było pismem spółgłoskowym, Grecy zaadaptowali do zapisu samogłosek fenickie znaki oznaczające niewystępujące w języku greckim spółgłoski laryngalne. Mimo dodania znaków oznaczających samogłoski alfabet grecki nie był doskonały, brakowało mu bowiem oznaczeń dwuznaków i rozróżnienia zapisu części samogłosek różniących się iloczasem (alfy, joty i ipsylonu), ponadto występowały znaki oznaczające zbitki spółgłosek. Według pewnych teorii współczesnych alfabet grecki nie wywodzi się od alfabetu fenickiego, a jedynie ma z nim wspólnego przodka, czyli jeden z alfabetów anatolijskich bądź kananejskich. Mity o powstaniu alfabetu greckiego Mitografowie podają, że pięć samogłosek alfabetu greckiego oraz spółgłoski beta i tau wynalazły Mojry lub Io, siostra Foroneusa. Pozostałe jedenaście spółgłosek wynalazł Palamedes, syn Naupliosa. Grecki bóg Hermes ujął głoski w pismo, którego znaki przypominały kliny, na podobieństwo toru lotu poświęconych mu żurawi. Pismo to miał sprowadzić do Grecji Kadmos, zmieniając w nim jednak kolejność liter. Ze względu na to, że litera alfa przypomina kształtem wołu i Beocja jest „krainą wołów”, pozostawił ją na pierwszej pozycji – litera alfa znalazła się tam na znak tego, że greckie słowo alphe oznacza zeszyt, słowo alphein wynajdywać, a Alfios jest największą rzeką (patrz etymologia ludowa). Pozostałe spółgłoski greckie mieli utworzyć Symonides z Samos i Epicharm z Sycylii, pozostałe dwie samogłoski mieli dodać kapłani Apollina by jedna samogłoska przypadała na każdą ze strun liry boga. Mitologiczny przekaz o przeniesieniu alfabetu do Grecji przez Fenicjanina Kadmosa jest jedną z przesłanek świadczących o jego fenickim pochodzeniu. Mitografowie rzymscy podają podobny mit o przeniesieniu alfabetu do Italii przez Ewandera z Arkadii. Jego matka Karmenta ustaliła piętnaście znaków pisma łacińskiego. Podobieństwo pisma Kadmosa do klinów może wskazywać na pochodzenie alfabetu greckiego z alfabetu ugaryckiego, na co wskazuje też znaczne podobieństwo greckich nazw liter do odpowiadających im nazw ugaryckich pierwowzorów. Alfabet grecki sam z kolei dał początek bardzo wielu alfabetom, najbardziej znane to alfabet łaciński (poprzez alfabet etruski) oraz cyrylica. Inne języki zapisywane za pomocą alfabetu greckiego Alfabetu greckiego od starożytności do teraz używa się nie tylko do zapisu języka greckiego, ale też do zapisu wielu języków ludów znajdujących się w zasięgu wpływów kultury greckiej. Wykorzystanie alfabetu greckiego w czasach starożytnych obejmowało między innymi: Większość języków Azji Mniejszej, np. będące w użyciu w latach 800–300 p.n.e. alfabety używane do zapisu języka lidyjskiego i frygijskiego były to nieznacznie zmodyfikowane wczesne formy alfabetu greckiego – podobnie jak alfabety ludów Italii. Niektóre języki paleobałkańskie, np. język tracki. Dla innych języków i dialektów używanych na obszarach sąsiadujących z terenami zamieszkanymi przez Greków, takich jak język macedoński, nie są znane żadne ciągłe teksty, a jedynie zapisane alfabetem greckim pojedyncze słowa w tekstach greckich. W południowej Francji zachowały się inskrypcje w języku galijskim (ok. 300 p.n.e.). Transkrypcję tekstu hebrajskiego Biblii wydanej przez Orygenesa (Hexapla). Język baktryjski (ok. 250–800 n.e.). Alfabet koptyjski to używany do dziś alfabet grecki uzupełniony o kilka liter z demotyki. Język nubijski w Makurii (obecnie Sudan) był do XV w. zapisywany alfabetem greckim uzupełnionym o trzy litery koptyjskie, dwa znaki wywodzące się z pisma meroe, i dwuznakiem złożonym z dwóch greckich liter gamma do zapisu . Zachował się pochodzący z VIII w. tekst arabskojęzyczny zapisany alfabetem greckim. Wykorzystanie alfabetu greckiego w czasach nowożytnych obejmowało między innymi: język turecki prawosławnych Turków (Karmanlidów) często zapisywany był za pomocą alfabetu greckiego i nazywany „karamanlidika”. Od XV w. zapisywany alfabetem greckim był dialekt toskijski języka albańskiego. Drukarnia w Moschopolis w XVIII w. wydrukowała w alfabecie greckim kilka albańskojęzycznych tekstów. Dopiero w 1908 odbyła się konferencja w Bitoli, podczas której przyjęto i ustandaryzowano alfabet łaciński dla obu dialektów albańskich (toskijskiego i gegijskiego). Do dziś jednak mówiący dialektem arwanickim (odmianą dialektu toskijskiego) Albańczycy w Grecji używają opartego na greckim alfabetu arwanickiego. Pewne dialekty południowosłowiańskie zbliżone do współczesnego macedońskiego zachowały się jako zapisy w alfabecie greckim. Współczesny język macedoński używa jednak alfabetu cyrylickiego. język arumuński (zbliżony do języka rumuńskiego dialekt zamieszkujących Grecję Wołochów) zapisuje się często za pomocą alfabetu greckiego. Nie istnieje jeszcze ustandaryzowana ortografia języka arumuńskiego, wydaje się jednak, że przyjmie się pismo łacińskie i ortografia języka rumuńskiego. język gagauski, turecki język używany w Mołdawii do 1957, kiedy przyjęto cyrylicę. Obecnie używa się alfabetu łacińskiego i ortografii wzorowanej na tureckiej. surguch, język turecki używany przez niewielką liczbę prawosławnych w północnej Grecji. język urum, używany przez pewne grupy Tatarów na Krymie, różny od języka Tatarów krymskich, do XX w. zapisywano za pomocą alfabetu greckiego. Klasyczny alfabet grecki w HTML Znaki klasycznego alfabetu greckiego w HTML to: Zobacz też lista jednoliterowych skrótów i symboli zapisywanych literami alfabetu greckiego Przypisy Bibliografia Unikod, U0370.pdf
128
https://pl.wikipedia.org/wiki/Alba
Alba
Alba – imię żeńskie Alba – róża biała ALBA (Boliwariańska Alternatywa dla Ameryki) – porozumienie gospodarcze Alba Mons (d. Alba Patera) – wulkan tarczowy na Marsie Jessica Alba – aktorka amerykańska Hiszpania Alba – średniowieczna pieśń prowansalska Dom Alba (hiszp. La Casa de Alba) – jeden z najstarszych rodów szlacheckich w Hiszpanii Księstwo Alba – (Alva) księstwo w Hiszpanii; przedstawiciel Ferdynand de Toledo; XIII księżna Alba była patronka i muzą Goi Kościół Alba – szata liturgiczna koloru białego Alba – stolica historycznej diecezji w Cesarstwie rzymskim Polska Alba – zespół pałacowo-parkowy Karola Radziwiłła pod Nieświeżem Alba – marka motocykli produkowanych w podszczecińskim Mierzynie przed II wojną światową Alba Chorzów – nieistniejący polski klub koszykarski Sport Alba Berlin – niemiecki klub koszykarski Alba Volán Székesfehérvár – węgierski klub hokejowy Szkocja Alba – w jęz. irlandzkim i szkockim gaelickim to oficjalna nazwa Szkocji Alba – nacjonalistyczna i niepodległościowa partia polityczna w Szkocji BBC Alba – brytyjski kanał telewizyjny nadający w jęz. szkockim gaelickim Królestwo Alby – dawne królestwo w Szkocji Włochy Alba – wino włoskie z okręgu Alba Alba Longa – według tradycji rzymskiej: najważniejsza osada Lacjum, obecnie Castel Gandolfo Alba Roma – nieistniejący włoski klub piłkarski Podział administracyjny, stacje Białoruś Alba – wieś na Białorusi, w obwodzie brzeskim, w rejonie iwacewickim Hiszpania Alba de Tormes – miejscowość w Hiszpanii, w prowincji Salamanka Alba– gmina w Hiszpanii, w prowincji Teruel, w Aragonii Francja Alba-la-Romaine – miejscowość i gmina we Francji, w regionie Rodan-Alpy Rumunia Alba – okręg w Rumunii Alba Iulia – miasto w Rumunii, w okręgu Alba Alba Iulia – stacja kolejowa w Alba Iulii, w Rumunii Alba – wieś w Rumunii, w okręgu Botoszany, w gminie Hudești Alba– wieś w Rumunii, w okręgu Tulcza, w gminie Izvoraele Alba – wieś w Rumunii, w okręgu Botoszany, w gminie Hudești USA Alba – jednostka osadnicza w stanie Michigan, w hrabstwie Antrim Alba – miasto w stanie Missouri, w hrabstwie Jasper Alba – miasto w stanie Pensylwania, w hrabstwie Bradford Alba – miejscowość w stanie Teksas, w hrabstwie Wood Alba (ang. Alba Township) – gmina w stanie Illinois, w hrabstwie Henry Alba (ang. Alba Township) – gmina w stanie Minnesota, w hrabstwie Jackson Włochy Alba – miasto we Włoszech, w regionie Piemont Alba Adriatica – miejscowość i gmina we Włoszech, w regionie Abruzja Alba Adriatica-Nereto-Controguerra – stacja kolejowa w Alba Adriatica, we Włoszech Alba Fucens – miasto we Włoszech, w regionie Abruzja Przypisy
129
https://pl.wikipedia.org/wiki/Albion
Albion
Albion – starodawna i literacka nazwa Anglii (Wielkiej Brytanii) spotykana u autorów starożytnych. Historia Pierwszy raz użył jej Awienus (IV w. n.e.), prawdopodobnie jednak opierał się on na jakichś starszych źródłach, być może na pismach Pyteasza z Massalii lub tradycji celtyckiej. Pochodzenie nazwy Albion nie jest oczywiste, być może należy ją wiązać z białymi (łac. albi) wybrzeżami hrabstwa Kent. Według innej teorii nazwa ta pochodzi od imienia syna Posejdona – Albiona, który według legend osiedlił się na wyspie. Wyspy Brytyjskie określano też w starożytności mianem Brytanii (Britannia). W późniejszych wiekach nazwa Albion zachowała się jedynie jako nazwa literacka. Zobacz też Królestwo Alby, historia Anglii. Przypisy Historia Wielkiej Brytanii
130
https://pl.wikipedia.org/wiki/Awienus
Awienus
Awienus, właściwie Rufus Festus Avienus (IV wiek n.e.) – geograf rzymski, arystokrata i poeta. Był prawdopodobnie prokonsulem Afryki (366) i Achai (372). Był przywiązany do tradycyjnej religii rzymskiej. Znany jest jako autor m.in. pierwszego znanego opisu wybrzeży zachodniej Europy Ora maritima, czyli "Brzeg morski". Zachowała się część pierwszej księgi, zawierająca opis wybrzeża Brytanii, Francji i Hiszpanii. Przełożył też, jako Orbis terrae descriptio, czyli "Opis ziemi" z języka greckiego dzieło Dionizjosa Periegety. Przypisy Linki zewnętrzne Ora maritima i Orbis terrae descriptio tekst łaciński The Sea Coast Описание морского берега Geografowie starożytnego Rzymu Pisarze łacińscy starożytnego Rzymu Poeci IV wieku Poeci języka łacińskiego Nieznana data urodzenia Nieznana data śmierci